JP2016101235A - Image processing device for ophthalmology and image processing program for ophthalmology - Google Patents

Image processing device for ophthalmology and image processing program for ophthalmology Download PDF

Info

Publication number
JP2016101235A
JP2016101235A JP2014240083A JP2014240083A JP2016101235A JP 2016101235 A JP2016101235 A JP 2016101235A JP 2014240083 A JP2014240083 A JP 2014240083A JP 2014240083 A JP2014240083 A JP 2014240083A JP 2016101235 A JP2016101235 A JP 2016101235A
Authority
JP
Japan
Prior art keywords
pair
image
still images
joining
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014240083A
Other languages
Japanese (ja)
Other versions
JP6515504B2 (en
JP2016101235A5 (en
Inventor
佑器 吉原
Yuki Yoshihara
佑器 吉原
山崎 裕司
Yuji Yamazaki
裕司 山崎
昌明 羽根渕
Masaaki Hanebuchi
昌明 羽根渕
尚久 柴田
Naohisa Shibata
尚久 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2014240083A priority Critical patent/JP6515504B2/en
Publication of JP2016101235A publication Critical patent/JP2016101235A/en
Publication of JP2016101235A5 publication Critical patent/JP2016101235A5/ja
Application granted granted Critical
Publication of JP6515504B2 publication Critical patent/JP6515504B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To excellently form a panoramic image.SOLUTION: An imaging device 1 obtains a panoramic image by joining a plurality of slices of cell images forming the fundus oculi of a subject eye E. The imaging device 1 acquires a pair of slices from the plurality of slices (S12), and acquires the coincidence for an overlapped portion while matching a pair for the overlapped portions of two still images included in the pair and formed in a case where the still images are arranged on a plane in a physical relation at prescribed sites (S13). The imaging device 1 generates the panoramic image by performing image joining processing for joining the slices being the pair to the plurality of pairs acquired by pair acquisition means in the order of priority being the order of priority for performing the image joining processing in the plurality of pairs and according to the coincidence of each pair (S16).SELECTED DRAWING: Figure 8

Description

本開示は、眼科用画像処理装置および眼科用画像処理プログラムに関する。   The present disclosure relates to an ophthalmic image processing apparatus and an ophthalmic image processing program.

従来、被検眼の局所的な部位の静止画を取得する装置が知られている。また、このような装置で得られる局所的な部位の静止画を位置合わせし、互いに接合することによって、被検眼の広い範囲の画像(いわゆるパノラマ画像)を形成する手法が知られている(特許文献1参照)。検者は、接合前の局所的な静止画からは得ることが難しい診断および検査等に有用な情報を、広範囲のパノラマ画像から容易に得ることができる。   Conventionally, an apparatus for acquiring a still image of a local part of an eye to be examined is known. Further, there is known a method for forming a wide range image (so-called panoramic image) of an eye to be examined by aligning and joining still images of local parts obtained by such an apparatus (patented). Reference 1). The examiner can easily obtain information useful for diagnosis and examination, which is difficult to obtain from a local still image before joining, from a wide range of panoramic images.

また、非特許文献1には、それぞれの静止画がおおよその取得位置での位置関係となるように、静止画の初期位置を検者が手動で調節したうえで、静止画同士が重なり合う部分をテンプレートとして詳細にマッチングさせるパノラマ画像の形成手法が、開示されている。   In Non-Patent Document 1, the examiner manually adjusts the initial position of the still image so that each still image has a positional relationship at an approximate acquisition position, and then a portion where the still images overlap is described. A method for forming a panoramic image to be matched in detail as a template is disclosed.

特開2014−110825号公報JP 2014-110825 A

Thevenaz P1, Unser M ,「User-friendly semiautomated assembly of accurate image mosaics in microscopy 」Microscopy Research and Technique 2007 Feb;VOL70,Issue2,P135-146Thevenaz P1, Unser M, “User-friendly semiautomated assembly of accurate image mosaics in microscopy” Microscopy Research and Technique 2007 Feb; VOL70, Issue 2, P135-146

ところで、パノラマ画像の画質は、パノラマ画像を形成する際における、接合される静止画の組み合わせ、および接合の順序等に影響されてしまう。また、検者が手動で静止画の初期位置を調節する場合には、検者にかかる負担が大きい場合があった。   By the way, the image quality of a panoramic image is affected by the combination of still images to be joined and the order of joining when forming a panoramic image. Further, when the examiner manually adjusts the initial position of the still image, the burden on the examiner may be large.

本開示は、従来技術の問題点の少なくともいずれかに鑑みてなされたものであり、パノラマ画像を良好に形成することができる眼科用画像処理装置および眼科用画像処理プログラムを提供することを目的とする。   The present disclosure has been made in view of at least one of the problems of the prior art, and an object thereof is to provide an ophthalmic image processing apparatus and an ophthalmic image processing program capable of forming a panoramic image satisfactorily. To do.

本開示の第1態様に係る眼科用画像処理装置は、被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を得る眼科用画像処理装置であって、前記複数の静止画から前記静止画のペアを取得するペア取得手段と、前記ペアに含まれる2枚の前記静止画の重複部分であって,それぞれの前記静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関して前記ペアをマッチングさせつつ前記重複部分に関する一致度を取得するマッチング手段と、前記ペア取得手段によって取得される前記複数のペアに対して、ペアとなる静止画同士を接合する画像接合処理を、前記複数のペアにおいて前記画像接合処理を行う優先順位であって、前記マッチング手段によって得られる各ペアの一致度に応じた優先順位で行うことによって前記パノラマ画像を生成する画像接合手段と、備える。   The ophthalmic image processing apparatus according to the first aspect of the present disclosure is an ophthalmic image processing apparatus that obtains a panoramic image by connecting a plurality of still images of cell images that form a predetermined portion of an eye to be examined. A pair acquisition means for acquiring a pair of the still images from the still images, and an overlapping portion of the two still images included in the pair, wherein each of the still images is a plane in a positional relationship at the predetermined portion. Matching means for acquiring the degree of coincidence regarding the overlapping part while matching the pair with respect to the overlapping part formed when arranged on top, and a pair for the plurality of pairs acquired by the pair acquisition means The image joining process for joining still images is a priority for performing the image joining process in the plurality of pairs, and each pair obtained by the matching means An image joining means for generating the panoramic image by performing in priority order according to the matching degree comprises.

本開示の第2態様に係る眼科用画像処理装置は、被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を得る眼科用画像処理装置であって、予め記憶部に記憶されている複数の前記静止画を読み出し、前記複数の静止画から前記静止画のペアを取得するペア取得手段と、前記記憶部において予め記憶されている複数の前記静止画の前記所定部位での位置関係に関する情報を用いて、前記複数の静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関する照合度を取得する照合度取得手段と、前記ペアとなる2枚の静止画を接合させる画像接合処理を、複数の前記ペアの中で前記画像接合処理が行われる順序であって、前記照合度に基づいて定められる順序で複数の前記ペアに対して行うことによって前記パノラマ画像を生成する画像接合手段と、を備える。   An ophthalmic image processing apparatus according to a second aspect of the present disclosure is an ophthalmic image processing apparatus that obtains a panoramic image by connecting a plurality of still images of cell images that form a predetermined part of an eye to be examined, and stores in advance Reading out a plurality of still images stored in the unit, and acquiring a pair of the still images from the plurality of still images; and the predetermined of the plurality of still images stored in the storage unit in advance Using the information related to the positional relationship at the part, the matching degree acquisition means for acquiring the matching degree related to the overlapping portion formed when the plurality of still images are arranged on the plane in the positional relation at the predetermined part; and An image joining process for joining two still images to be paired is performed in the order in which the image joining process is performed in the plurality of pairs, and in the order determined based on the matching degree. And an image joining means for generating the panoramic image by performing relative pair.

本開示の第3態様に係る眼科用画像処理プログラムは、被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を生成するための眼科用画像処理プログラムであって、眼科用画像処理装置のプロセッサに実行されることによって、前記複数の静止画から前記静止画のペアを取得するペア取得ステップと、前記ペアに含まれる2枚の前記静止画の重複部分であって,それぞれの前記静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関して前記ペアをマッチングさせつつ前記重複部分に関する一致度を取得するマッチングステップと、前記ペア取得ステップによって取得される前記複数のペアに対して、ペアとなる静止画同士を接合する画像接合処理を、前記複数のペアにおいて前記画像接合処理を行う優先順位であって、前記マッチング手段によって得られる各ペアの一致度に応じた優先順位で行うことによって前記パノラマ画像を生成する画像接合ステップと、を前記眼科用画像処理装置に実行させる。   An ophthalmic image processing program according to the third aspect of the present disclosure is an ophthalmic image processing program for generating a panoramic image by connecting a plurality of still images of cell images forming a predetermined part of an eye to be examined. A pair acquisition step of acquiring a pair of the still images from the plurality of still images by being executed by a processor of the ophthalmic image processing apparatus; and an overlapping portion of the two still images included in the pair. A matching step of matching the pair with respect to the overlapping portion formed when the still images are arranged on a plane in a positional relationship at the predetermined portion, and obtaining a matching degree regarding the overlapping portion; For the plurality of pairs acquired by the acquisition step, an image joining process for joining the still images to be paired is performed on the plurality of pairs. The image joining step of generating the panoramic image by performing the order of priority for performing the image joining process in accordance with the priority order according to the matching degree of each pair obtained by the matching means. Let the device run.

本開示の第4態様に係る眼科用画像処理プログラムは、被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を生成するための眼科用画像処理プログラムであって、眼科用画像処理装置のプロセッサに実行されることによって、予め記憶部に記憶されている複数の前記静止画を読み出し、前記複数の静止画から前記静止画のペアを取得するペア取得ステップと、前記記憶部において予め記憶されている複数の前記静止画の前記所定部位での位置関係に関する情報を用いて、前記複数の静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関する照合度を取得する照合度取得ステップと、前記ペアとなる2枚の静止画を接合させる画像接合処理を、複数の前記ペアの中で前記画像接合処理が行われる順序であって、前記照合度に基づいて定められる順序で複数の前記ペアに対して行うことによって前記パノラマ画像を生成する画像接合ステップと、を前記眼科用画像処理装置に実行させる。   An ophthalmic image processing program according to a fourth aspect of the present disclosure is an ophthalmic image processing program for generating a panoramic image by connecting a plurality of still images of cell images forming a predetermined part of an eye to be examined. A pair acquisition step of reading a plurality of the still images stored in the storage unit in advance by being executed by the processor of the ophthalmic image processing apparatus and acquiring the pair of the still images from the plurality of still images; Formed when the plurality of still images are arranged on a plane according to the positional relationship at the predetermined portion using information on the positional relationship at the predetermined portion of the plurality of still images stored in advance in the storage unit A collation degree acquisition step for obtaining a collation degree related to the overlapping portion to be performed, and an image joining process for joining the two still images to be paired, An image joining step of generating the panoramic image by performing the image joining process on a plurality of the pairs in an order in which the image joining process is performed based on the matching degree; To run.

本開示の眼科用画像処理装置および眼科用画像処理プログラムによれば、パノラマ画像を良好に形成することができるという効果がある。   According to the ophthalmic image processing apparatus and the ophthalmic image processing program of the present disclosure, there is an effect that a panoramic image can be favorably formed.

本実施形態の撮影装置1の外観図を示した図である。It is the figure which showed the external view of the imaging device 1 of this embodiment. 撮影装置1の光学系を示した模式図である。2 is a schematic diagram illustrating an optical system of the photographing apparatus 1. FIG. 本実施形態の撮影装置1の制御系を示したブロック図である。It is the block diagram which showed the control system of the imaging device 1 of this embodiment. 基準画像の一例を示した図である。It is the figure which showed an example of the reference | standard image. 制御部800によって実行されるメイン処理を示したフローチャートである。5 is a flowchart illustrating main processing executed by a control unit 800. 第2眼底画像上でスライスを取得する際に目標とする位置を一例として示した図である。It is the figure which showed the position made into a target when acquiring a slice on a 2nd fundus image as an example. 図6に示したそれぞれの矩形を目標としてスライスを取得した場合に得られる複数枚のスライスを、一例として示した図である。FIG. 7 is a diagram showing, as an example, a plurality of slices obtained when slices are acquired with the respective rectangles shown in FIG. 6 as targets. パノラマ画像生成処理を示したフローチャートである。It is the flowchart which showed the panorama image generation process. 初期配置におけるスライスの位置関係を例示した図である。It is the figure which illustrated the positional relationship of the slice in initial arrangement. 相関マップTB→A,相関マップTA→Bからノイズを除去した相関マップTA⇔Bを得るための画像処理の手順を模式的に示した図である。It is the figure which showed typically the procedure of the image processing for obtaining correlation map TA B which removed noise from correlation map TB → A and correlation map TA → B. (a)は、相関マップTB→Aにおいて輝点Pを通る1ラインでの相関の分布を示した図であり、(b)は、相関マップTA→Bにおいて輝点Pを通る1ラインでの相関の分布を示した図であり、(c)は、相関マップTA⇔Bにおいて輝点Pを通る1ラインでの相関の分布を示した図である。(A) is the figure which showed distribution of the correlation in 1 line which passes luminescent spot P in correlation map TB → A , (b) is 1 line which passes luminescent spot P in correlation map TA → B. (C) is a diagram showing the correlation distribution in one line passing through the bright spot P in the correlation map TA⇔B . 一致度リストの一例を示した図である。It is the figure which showed an example of the coincidence degree list. 各スライスを接合する手順を説明するための模式図である。It is a schematic diagram for demonstrating the procedure which joins each slice. パノラマ画像生成処理の結果として、図7に示したスライスから生成されるパノラマ画像を示した図である。It is the figure which showed the panoramic image produced | generated from the slice shown in FIG. 7 as a result of a panoramic image generation process.

以下、図面を参照して、典型的な実施形態を説明する。撮影装置1は、被検眼の波面収差を補正した状態で被検眼の眼底像を取得する波面収差補償付眼底撮影装置(AO-SLO)である。本実施形態において、撮影装置1は、被検眼の眼底(本実施形態における「所定部位」)を形成する細胞画像の静止画を、複数枚繋ぎあわせることによってパノラマ画像をパノラマ画像(コラージュ画像ともいう)を形成する眼科用画像処理装置を兼用する。なお、細胞画像は、所定部位の細胞が撮影された画像である。   In the following, exemplary embodiments will be described with reference to the drawings. The imaging device 1 is a fundus imaging device with wavefront aberration compensation (AO-SLO) that acquires a fundus image of the eye to be examined while correcting the wavefront aberration of the eye to be examined. In the present embodiment, the imaging apparatus 1 connects a plurality of still images of cell images that form the fundus of the eye to be examined (“predetermined part” in the present embodiment) to connect a panoramic image to a panoramic image (also referred to as a collage image). ) Is also used. Note that the cell image is an image in which cells at a predetermined site are photographed.

初めに、図1を参照して撮影装置1の概略構成を説明する。撮影装置1は、基台510と、顔支持ユニット600と、撮影部500と、を備える。顔支持ユニット600は、基台510に取り付けられている。撮影部500には、後述する光学系が収納されており、基台510の上に設けられている。顔支持ユニット600には、顎台610が設けられている。顎台610は、図示無き顎台駆動手段の操作により、顔指示ユニット600の基部に対して左右方向(X方向)、上下方向(Y方向)及び前後方向(Z方向)に移動される。   First, a schematic configuration of the photographing apparatus 1 will be described with reference to FIG. The photographing apparatus 1 includes a base 510, a face support unit 600, and a photographing unit 500. The face support unit 600 is attached to the base 510. The imaging unit 500 houses an optical system described later, and is provided on the base 510. The face support unit 600 is provided with a chin rest 610. The chin rest 610 is moved in the left / right direction (X direction), the up / down direction (Y direction), and the front / rear direction (Z direction) with respect to the base of the face indicating unit 600 by operating a chin rest driving means (not shown).

次に、図2を参照して、撮影装置1の光学系について説明する。本実施形態の撮影装置1は、眼底撮像光学系100と、波面収差検出光学系(以下、収差検出光学系と記載する。)110と、収差補償ユニット20,72と、第2撮影ユニット200と、トラッキング用ユニット300と、前眼部観察ユニット700と、を備える。   Next, the optical system of the photographing apparatus 1 will be described with reference to FIG. The imaging apparatus 1 of the present embodiment includes a fundus imaging optical system 100, a wavefront aberration detection optical system (hereinafter referred to as an aberration detection optical system) 110, aberration compensation units 20, 72, and a second imaging unit 200. The tracking unit 300 and the anterior ocular segment observation unit 700 are provided.

眼底撮像光学系100は、被検眼Eにレーザー光(照明光)を投光すると共に、レーザー光の眼底による反射光を受光して被検眼Eの眼底像を撮影する。被検眼Eの眼底は、眼底撮像光学系100によって、高解像度(高分解能)・高倍率で撮影される。以下のように、眼底撮像光学系100は、例えば、共焦点光学系を用いた走査型レーザー検眼鏡の構成を有してもよい。眼底撮像光学系100は、第1照明光学系100aと、第1撮影光学系100bと、を備える。また、本実施形態において、収差補償ユニット20,72は、収差補償ユニット20,72は、被検眼の収差を補正するために眼底撮像光学系100に配置される。なお、収差補償ユニットとしては、被検眼の低次収差(視度:例えば、球面度数)を補正するための視度補正部20と、被検眼の高次収差を補正するための高次収差補償部(波面補償デバイス)72と、に大別される。   The fundus imaging optical system 100 projects laser light (illumination light) on the eye E and receives reflected light from the fundus of the laser light to capture a fundus image of the eye E. The fundus of the eye E is photographed by the fundus imaging optical system 100 with high resolution (high resolution) and high magnification. As described below, the fundus imaging optical system 100 may have a configuration of a scanning laser ophthalmoscope using a confocal optical system, for example. The fundus imaging optical system 100 includes a first illumination optical system 100a and a first imaging optical system 100b. In the present embodiment, the aberration compensation units 20 and 72 are arranged in the fundus imaging optical system 100 in order to correct the aberration of the eye to be examined. The aberration compensation unit includes a diopter correction unit 20 for correcting low-order aberrations (diopter: for example, spherical power) of the eye to be examined and high-order aberration compensation for correcting high-order aberrations of the eye to be examined. Part (wavefront compensation device) 72.

第1照明光学系100aは、被検眼Eにレーザー光を照射すると共にレーザー光を眼底上で走査することによって、眼底を2次元的に照明する。第1照明光学系100aは、光源11(第1光源)から眼底に到るまでの光路において、光源11、レンズ12、偏光ビームスプリッタ(PBS)14、ビームスプリッタ(BS)71、凹面ミラー16、凹面ミラー17、平面ミラー18、収差補償ユニット72(波面補償デバイス72)、ビームスプリッタ(BS)75、凹面ミラー21、凹面ミラー22、走査部25、凹面ミラー26、凹面ミラー27、平面ミラー31、レンズ32、平面ミラー33、収差補償ユニット20(視度補正部20)、平面ミラー35、凹面ミラー36、偏向部400、ダイクロイックミラー90、凹面ミラー41、平面ミラー42、平面ミラー43、および、凹面ミラー45、を有する。   The first illumination optical system 100a illuminates the fundus two-dimensionally by irradiating the eye E with laser light and scanning the laser light on the fundus. The first illumination optical system 100a includes a light source 11, a lens 12, a polarization beam splitter (PBS) 14, a beam splitter (BS) 71, a concave mirror 16, in an optical path from the light source 11 (first light source) to the fundus. Concave mirror 17, flat mirror 18, aberration compensation unit 72 (wavefront compensation device 72), beam splitter (BS) 75, concave mirror 21, concave mirror 22, scanning unit 25, concave mirror 26, concave mirror 27, flat mirror 31, Lens 32, plane mirror 33, aberration compensation unit 20 (diopter correction unit 20), plane mirror 35, concave mirror 36, deflection unit 400, dichroic mirror 90, concave mirror 41, plane mirror 42, plane mirror 43, and concave surface A mirror 45.

光源11は、レーザー光を出射する。本実施形態において、レーザー光は、被検眼に視認されにくい近赤外域の波長を持つ。例えば、本実施形態において、光源11は、波長840nmのSLD(Super Luminescent Diode)が使用される。なお、光源11は、収束性の高い特性を持つスポット光を出射するものであればよく、例えば、半導体レーザー等であってもよい。   The light source 11 emits laser light. In the present embodiment, the laser light has a near-infrared wavelength that is difficult to be visually recognized by the eye to be examined. For example, in the present embodiment, the light source 11 is an SLD (Super Luminescent Diode) having a wavelength of 840 nm. The light source 11 may be any light source that emits spot light having a high convergence property, and may be, for example, a semiconductor laser.

光源11から出射されたレーザー光は、レンズ12により平行光とされた後、PBS14、BS71、凹面ミラー16,17、平面ミラー18を介して、波面補償デバイス72に入射する。本実施形態において、レーザー光は、PBS14を通過することによって、S偏光成分のみの光束とされる。波面補償デバイス72は、入射光の波面を制御することによって、被検眼の高次収差を補正する。波面補償デバイス72の詳細構成については後述する。本実施形態において、レーザー光は、波面補償デバイス72からBS75に導かれた後、凹面ミラー21、凹面ミラー22にて反射され、走査部25に向かう。   The laser light emitted from the light source 11 is converted into parallel light by the lens 12 and then enters the wavefront compensation device 72 via the PBS 14, BS 71, concave mirrors 16 and 17, and the flat mirror 18. In the present embodiment, the laser light passes through the PBS 14 and becomes a light beam having only an S-polarized component. The wavefront compensation device 72 corrects higher-order aberrations of the eye to be examined by controlling the wavefront of the incident light. The detailed configuration of the wavefront compensation device 72 will be described later. In the present embodiment, the laser beam is guided from the wavefront compensation device 72 to the BS 75, reflected by the concave mirror 21 and the concave mirror 22, and travels toward the scanning unit 25.

本実施形態において、走査部25は、レーザー光を眼底上で2次元的に走査するために偏向部400と共に使用される。走査部25は、レーザー光の主走査に使用されるレゾナントミラーである。レーザー光は、走査部25によって、眼底上でX方向に走査される。   In the present embodiment, the scanning unit 25 is used together with the deflecting unit 400 in order to scan laser light two-dimensionally on the fundus. The scanning unit 25 is a resonant mirror used for main scanning of laser light. The laser light is scanned in the X direction on the fundus by the scanning unit 25.

走査部25を経た光は、凹面ミラー26,27、平面ミラー31、レンズ32、平面ミラー33を介して、視度補正部20へ入射される。   The light that has passed through the scanning unit 25 enters the diopter correction unit 20 via the concave mirrors 26 and 27, the plane mirror 31, the lens 32, and the plane mirror 33.

視度補正部20は、視度補正を行うためのユニットである。視度補正部20は、駆動部20aのほかに、レンズおよび平面ミラーを1対ずつ有する。視度補正部20の平面ミラーおよびレンズが駆動部20aによって所定方向に移動されることで、光路長が調節される。その結果として、被検眼Eの視度の誤差が矯正される。   The diopter correction unit 20 is a unit for performing diopter correction. The diopter correction unit 20 includes a pair of lenses and plane mirrors in addition to the drive unit 20a. The optical path length is adjusted by moving the plane mirror and lens of the diopter correction unit 20 in a predetermined direction by the drive unit 20a. As a result, the diopter error of the eye E is corrected.

視度補正部20から平面ミラー35へ導かれた照明光は、凹面ミラー36に反射され、偏向部400に向かう。   The illumination light guided from the diopter correction unit 20 to the plane mirror 35 is reflected by the concave mirror 36 and travels toward the deflection unit 400.

偏向部400は、光源11から出射されたレーザー光を眼底上で垂直方向(Y方向)に走査する。更に、偏向部400は、眼底におけるレーザー光の走査範囲を移動させるためにも使用される。例えば、本実施形態において、偏向部400は、レーザー光を偏向する方向が異なる2つの光スキャナ(具体例としては、XガルバノミラーおよびYガルバノミラー)を有していてもよい。   The deflection unit 400 scans the laser light emitted from the light source 11 in the vertical direction (Y direction) on the fundus. Furthermore, the deflecting unit 400 is also used to move the scanning range of the laser light on the fundus. For example, in the present embodiment, the deflecting unit 400 may include two optical scanners (specifically, an X galvanometer mirror and a Y galvanometer mirror) having different directions of deflecting laser light.

偏向部400を経た光は、ダイクロイックミラー90、凹面ミラー41、平面ミラー42,43、および凹面ミラー45を経て、被検眼Eの瞳孔内に導かれる。レーザー光は、被検眼Eの眼底面上で集光する。眼底上では、前述したように、走査部25および偏向部400の動作によって、レーザー光が2次元的に走査される。   The light that has passed through the deflecting unit 400 is guided into the pupil of the eye E through the dichroic mirror 90, the concave mirror 41, the plane mirrors 42 and 43, and the concave mirror 45. The laser light is collected on the fundus of the eye E. As described above, the laser beam is two-dimensionally scanned on the fundus by the operations of the scanning unit 25 and the deflecting unit 400.

また、ダイクロイックミラー90は、後述する第2撮影ユニット200、およびトラッキング用ユニット300、からの光束を透過させ、光源11および後述する光源76からの光束を反射させる特性を持つ。なお、光源11および光源76の出射端と被検眼Eの眼底とは共役とされている。このようにして、第1照明光学系100aが形成される。   Further, the dichroic mirror 90 has a characteristic of transmitting light beams from the second photographing unit 200 and tracking unit 300 described later and reflecting light beams from the light source 11 and the light source 76 described later. Note that the emission ends of the light sources 11 and 76 and the fundus of the eye E are conjugate. In this way, the first illumination optical system 100a is formed.

次に、第1撮影光学系100bを説明する。第1撮影光学系100bは、眼底に照射されたレーザー光の反射光を受光素子56によって受光する。撮影装置1は、第1眼底画像(本実施形態では、AO−SLO画像)を、受光素子56からの信号に基づいて取得する。第1撮影光学系100bは、被検眼EからBS71までの光路を、第1照明光学系100aと共用する。また、第1撮影光学系100bは、BS71の反射側光路に配置された要素、即ち、平面ミラー51、PBS52、レンズ53、ピンホール板54、レンズ55、および、受光素子56を有している。なお、本実施形態では、受光素子56はAPD(アバランシェフォトダイオード)が用いられている。また、ピンホール板54は、眼底と共役な位置に置かれる。   Next, the first photographing optical system 100b will be described. The first imaging optical system 100 b receives the reflected light of the laser light irradiated on the fundus by the light receiving element 56. The imaging apparatus 1 acquires a first fundus image (in this embodiment, an AO-SLO image) based on a signal from the light receiving element 56. The first imaging optical system 100b shares the optical path from the eye E to the BS 71 with the first illumination optical system 100a. The first imaging optical system 100b includes elements arranged in the reflection side optical path of the BS 71, that is, a plane mirror 51, a PBS 52, a lens 53, a pinhole plate 54, a lens 55, and a light receiving element 56. . In this embodiment, the light receiving element 56 is an APD (avalanche photodiode). Further, the pinhole plate 54 is placed at a position conjugate with the fundus.

光源11からのレーザー光の眼底反射光は、前述した第1照明光学系100aを逆に辿り、BS71、平面ミラー51のそれぞれで反射され、PBS52にてS偏光の光だけ透過される。この透過光は、レンズ53を介してピンホール板54のピンホールに焦点を結ぶ。ピンホールにて焦点を結んだ反射光は、レンズ55を経て受光素子56に受光される。なお、照明光の一部は角膜上で反射されるが、ピンホール板54により大部分が除去される。よって、受光素子56は、角膜反射の影響を抑えて、眼底からの反射光を受光できる。   The fundus reflection light of the laser light from the light source 11 traces the first illumination optical system 100 a in the reverse direction, is reflected by the BS 71 and the flat mirror 51, and only the S-polarized light is transmitted by the PBS 52. This transmitted light is focused on the pinhole of the pinhole plate 54 via the lens 53. The reflected light focused at the pinhole is received by the light receiving element 56 through the lens 55. A part of the illumination light is reflected on the cornea, but most of the illumination light is removed by the pinhole plate 54. Therefore, the light receiving element 56 can receive the reflected light from the fundus while suppressing the influence of corneal reflection.

受光素子56の受光信号を画像処理部(例えば、制御部800、および画像処理部803等、図3参照)が処理することによって、第1眼底画像が取得される。本実施形態において、1フレームの眼底画像は、走査部25の主走査と、偏向部400に設けられたY走査用のガルバノミラーの副走査によって形成される。なお、第1撮影ユニット100で取得する眼底画像(眼底像)の画角が所定の角度となるように走査部25および偏向部400におけるミラーの振れ角(揺動角度)を定める。ここでは、眼底の所定の範囲を高倍率で観察、撮影する(ここでは、細胞レベルでの観察等をする)ために、画角を1度〜5度程度とする。本実施形態では、1.5度とする。被検眼の視度等にもよるが、第1眼底画像の撮影範囲は、500μm角程度とされる。   A light reception signal of the light receiving element 56 is processed by an image processing unit (for example, the control unit 800, the image processing unit 803, etc., see FIG. 3), and thereby a first fundus image is acquired. In this embodiment, a fundus image of one frame is formed by main scanning of the scanning unit 25 and sub-scanning of a Y-scan galvanometer mirror provided in the deflection unit 400. Note that the deflection angle (swing angle) of the mirror in the scanning unit 25 and the deflection unit 400 is determined so that the angle of view of the fundus image (fundus image) acquired by the first imaging unit 100 becomes a predetermined angle. Here, in order to observe and photograph a predetermined range of the fundus at a high magnification (here, observation at a cell level or the like), the angle of view is set to about 1 to 5 degrees. In this embodiment, the angle is 1.5 degrees. Although depending on the diopter of the eye to be examined, the imaging range of the first fundus image is about 500 μm square.

更に、偏向部400に設けられたX走査用のガルバノミラーとY走査用のガルバノミラーの反射角度が第1眼底画像の撮像画角より大きく移動されることによって、眼底における第1眼底画像の撮像位置(つまり、レーザー光の走査範囲)が変更される。   Further, when the reflection angle of the X-scanning galvanometer mirror and the Y-scanning galvanometer mirror provided in the deflection unit 400 is moved larger than the imaging field angle of the first fundus image, the first fundus image is captured on the fundus. The position (that is, the scanning range of the laser beam) is changed.

第2撮影ユニット200は、第1撮影ユニット100の画角よりも広画角の眼底画像(第2眼底画像)を取得するためのユニットである。第2眼底画像は、例えば、第1眼底画像を得るための位置指定、および位置確認用の画像として用いられる。本実施形態の第2撮影ユニット200は、被検眼Eの眼底画像を広画角(例えば20度〜60度程度)でリアルタイムに取得および観察できる構成であることが好ましい。例えば、第2撮影ユニット200として、既存の眼底カメラの観察・撮影光学系、および走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:SLO)の光学系および制御系が利用されてもよい。   The second photographing unit 200 is a unit for obtaining a fundus image (second fundus image) having a wider angle of view than the angle of view of the first photographing unit 100. The second fundus image is used, for example, as an image for position designation and position confirmation for obtaining the first fundus image. The second imaging unit 200 of the present embodiment preferably has a configuration capable of acquiring and observing a fundus image of the eye E to be examined in real time with a wide angle of view (for example, about 20 to 60 degrees). For example, as the second imaging unit 200, an observation / imaging optical system of an existing fundus camera and an optical system and a control system of a scanning laser ophthalmoscope (SLO) may be used.

トラッキング用ユニット300は、被検眼Eの固視微動等による位置ずれの経時変化を検出し、移動位置情報を得る。トラッキング用ユニット300では、トラッキング開始時に得られた受光結果を基準情報として制御部800(図3参照)に送っておき、その後、1走査毎に得られる受光結果(受光情報)を逐次、制御部800に送信する。制御部800は基準情報に対してその後に得られた受光情報を比較し、基準情報と同じ受光情報が得られるように、移動位置情報を演算により求める。制御部800は求めた移動位置情報に基づいて偏向部400を駆動させる。このようなトラッキングを行うことにより、被検眼Eが微動してもその動きが相殺されるように偏向部400の駆動が行われるため、モニタ850に表示される眼底画像の動きは抑制されることとなる。また、ダイクロイックミラー91は、第2撮影ユニット200からの光束を透過させ、トラッキング用ユニット300からの光束を反射させる特性を持つ。   The tracking unit 300 detects a temporal change in positional deviation due to fixation eye movement of the eye E and obtains movement position information. In the tracking unit 300, the light reception result obtained at the start of tracking is sent as reference information to the control unit 800 (see FIG. 3), and thereafter, the light reception result (light reception information) obtained for each scan is sequentially transmitted to the control unit. To 800. The control unit 800 compares the received light information obtained thereafter with the reference information, and obtains the movement position information by calculation so that the same received light information as the reference information is obtained. The control unit 800 drives the deflection unit 400 based on the obtained movement position information. By performing such tracking, the deflection unit 400 is driven so that even if the subject eye E moves slightly, the movement of the deflection unit 400 is performed, and thus the movement of the fundus image displayed on the monitor 850 is suppressed. It becomes. The dichroic mirror 91 has a characteristic of transmitting the light beam from the second photographing unit 200 and reflecting the light beam from the tracking unit 300.

前眼部観察ユニット700は、被検眼Eの前眼部を可視光にて照明し、前眼部正面像を撮像するユニットである。前眼部観察ユニット700で撮像された画像は、モニタ850に出力される。前眼部観察ユニット700によって取得される前眼部画像は、撮影部500と被検眼Eとのアライメントに利用される。なお、ダイクロイックミラー95は、第2撮影ユニット200およびトラッキング用ユニット300からの光束を透過させ、前眼部観察ユニット700からの光束を反射させる特性を持つ。   The anterior segment observation unit 700 is a unit that illuminates the anterior segment of the eye E with visible light and captures a front image of the anterior segment. An image captured by the anterior segment observation unit 700 is output to the monitor 850. The anterior ocular segment image acquired by the anterior ocular segment observation unit 700 is used for alignment between the imaging unit 500 and the eye E to be examined. The dichroic mirror 95 has a characteristic of transmitting the light flux from the second imaging unit 200 and the tracking unit 300 and reflecting the light flux from the anterior ocular segment observation unit 700.

次に、収差検出光学系110について説明する。収差検出光学系110は、波面センサ73を有する。また、収差検出光学系110は、被検眼Eの眼底に測定光を投光し、測定光の眼底反射光を、指標パターン像として波面センサ73で受光(検出)する。収差検出光学系110は、一部の光学素子を第1照明光学系100aおよび第1撮影光学系100bの光路上(本実施形態では、共通光路上)に持ち、光学系100a,100bと光路を一部共用している。つまり、本実施形態の収差検出光学系110は、光学系100a,100bの光路上に配置されたBS71から凹面ミラー45までを、光学系100a,100bと共用する。更に、収差検出光学系110は、光源76、レンズ77、PBS78、BS75、BS71、ダイクロイックミラー86、PBS85、レンズ84、平面ミラー83、レンズ82、を有する。   Next, the aberration detection optical system 110 will be described. The aberration detection optical system 110 includes a wavefront sensor 73. The aberration detection optical system 110 projects measurement light onto the fundus of the eye E, and receives (detects) the fundus reflection light of the measurement light as an index pattern image with the wavefront sensor 73. The aberration detection optical system 110 has a part of optical elements on the optical path of the first illumination optical system 100a and the first photographing optical system 100b (in the present embodiment, on the common optical path), and the optical paths of the optical systems 100a and 100b. Some are shared. That is, the aberration detection optical system 110 of the present embodiment shares the BS 71 to the concave mirror 45 arranged on the optical path of the optical systems 100a and 100b with the optical systems 100a and 100b. Further, the aberration detection optical system 110 includes a light source 76, a lens 77, PBS 78, BS 75, BS 71, a dichroic mirror 86, a PBS 85, a lens 84, a plane mirror 83, and a lens 82.

光源76は、被検眼Eの収差検出に使用される。本実施形態において、光源76は、光源11と異なる波長の光を発する。一例として、本実施形態では、測定光として、波長780nmのレーザー光を出射するレーザーダイオードが光源76として使用される。光源76から出射した測定光は、レンズ77によって平行光束とされた後、PBS78に入射される。   The light source 76 is used for detecting the aberration of the eye E. In the present embodiment, the light source 76 emits light having a wavelength different from that of the light source 11. As an example, in this embodiment, a laser diode that emits laser light having a wavelength of 780 nm is used as the light source 76 as measurement light. The measurement light emitted from the light source 76 is converted into a parallel light beam by the lens 77 and then incident on the PBS 78.

PBS78は、波面補償部に備えられた第1偏光手段の一例である。PBS78は、光源76から出射された光を所定の方向に偏光する。より詳細には、PBS78は、PBS14の偏向方向(つまり、S偏光)とは、直交する方向(即ち、P偏光)に偏光する。PBS78を経た光は、BS75によって反射されることによって、第1照明光学系100aの光路に導かれる。その結果、測定光は、第1照明光学系100aの光路を経て被検眼Eの眼底に集光される。   The PBS 78 is an example of first polarization means provided in the wavefront compensation unit. The PBS 78 polarizes the light emitted from the light source 76 in a predetermined direction. More specifically, the PBS 78 is polarized in a direction (ie, P-polarized light) orthogonal to the polarization direction (ie, S-polarized light) of the PBS 14. The light that has passed through the PBS 78 is reflected by the BS 75 and guided to the optical path of the first illumination optical system 100a. As a result, the measurement light is condensed on the fundus of the eye E through the optical path of the first illumination optical system 100a.

測定光は、眼底の集光位置(例えば、網膜表面)で反射される。測定光の眼底反射光は、第1照明光学系100aの光路(つまり、第1撮影光学系100bの光路)を、投光時とは逆に辿る。途中、測定光は、波面補償デバイス72によって反射される。その後、測定光は、BS71によって反射されることによって、第1照明光学系100aの光路を外れる。更にその後、測定光は、ダイクロイックミラー86によって反射され、PBS85、レンズ84、平面ミラー83、レンズ82を経て、波面センサ73へと導かれる。   The measurement light is reflected at the condensing position of the fundus (for example, the retina surface). The fundus reflection light of the measurement light follows the optical path of the first illumination optical system 100a (that is, the optical path of the first photographing optical system 100b) in the opposite direction to that during projection. On the way, the measurement light is reflected by the wavefront compensation device 72. Thereafter, the measurement light is reflected by the BS 71, thereby deviating from the optical path of the first illumination optical system 100a. Thereafter, the measurement light is reflected by the dichroic mirror 86 and guided to the wavefront sensor 73 through the PBS 85, the lens 84, the plane mirror 83, and the lens 82.

PBS85は、波面補償部に備えられた第2偏光手段である。PBS85は、光源76から被検眼Eに照射された光のうち、一方向に偏波した光(ここでは、S偏光光)を透過することによって、波面センサ73へと導光するために利用される。また、PBS85は、透過した成分とは直交する方向に偏波された成分(P偏光光)を遮断する。なお、ダイクロイックミラー86は、光源11の波長の光(840nm)を透過し、収差検出用の光源76の波長の光(780nm)を反射する特性とされる。従って、波面センサ73では、測定光の眼底反射光のうちS偏光成分を持つ光が検出される。このようにして、角膜や光学素子で反射される光が波面センサ73に検出されることを抑制している。   The PBS 85 is a second polarization unit provided in the wavefront compensation unit. The PBS 85 is used to guide light to the wavefront sensor 73 by transmitting light polarized in one direction (here, S-polarized light) out of the light irradiated to the eye E from the light source 76. The The PBS 85 blocks a component polarized in a direction orthogonal to the transmitted component (P-polarized light). The dichroic mirror 86 has a characteristic of transmitting light (840 nm) having the wavelength of the light source 11 and reflecting light (780 nm) having the wavelength of the light source 76 for detecting aberration. Therefore, the wavefront sensor 73 detects light having an S-polarized component from the fundus reflection light of the measurement light. In this way, light reflected by the cornea and the optical element is suppressed from being detected by the wavefront sensor 73.

波面センサ73は、被検眼Eの波面収差を検出するために、収差測定用の測定光の眼底反射光を受光する。波面センサ73としては、低次収差および高次収差を含む波面収差を検出できる素子(より詳細には、ハルトマンシャック検出器、および、光強度の変化を検出する波面曲率センサ等)等が利用されてもよい。本実施形態において、波面センサ73は、例えば、多数のマイクロレンズからなるマイクロレンズアレイと、マイクロレンズアレイを透過した光束を受光させるための二次元撮像素子73a(又は、二次元受光素子)と、を有する。波面センサ73のマイクロレンズアレイは、被検眼Eの瞳と略共役な位置に配置される。また、二次元撮像素子73aの撮像面(受光面)は、被検眼Eの眼底と略共役な位置に配置される。   The wavefront sensor 73 receives fundus reflection light of measurement light for aberration measurement in order to detect wavefront aberration of the eye E. As the wavefront sensor 73, an element that can detect wavefront aberration including low-order aberration and high-order aberration (more specifically, a Hartmann Shack detector, a wavefront curvature sensor that detects a change in light intensity, and the like) is used. May be. In the present embodiment, the wavefront sensor 73 includes, for example, a microlens array composed of a number of microlenses, a two-dimensional imaging element 73a (or a two-dimensional light receiving element) for receiving a light beam that has passed through the microlens array, Have The microlens array of the wavefront sensor 73 is disposed at a position substantially conjugate with the pupil of the eye E to be examined. Further, the imaging surface (light receiving surface) of the two-dimensional imaging element 73a is disposed at a position substantially conjugate with the fundus of the eye E to be examined.

二次元撮像素子73aの撮像面には、マイクロレンズアレイを透過した光束によって、指標パターン像61(本実施形態では、ハルトマン像)が形成される(図示を省略する)。よって、眼底反射光は、マイクロレンズアレイを通過して二次元撮像素子73aに受光されることによって、ハルトマン像(ドットパターン像)として撮像される。本実施形態では、ハルトマン像から被検眼の収差情報が取得され、収差情報に基づいて波面補償デバイス72が制御される。なお、ハルトマン像の詳細については、後述する。   An index pattern image 61 (Hartmann image in this embodiment) is formed on the imaging surface of the two-dimensional imaging element 73a by the light beam that has passed through the microlens array (not shown). Therefore, the fundus reflection light passes through the microlens array and is received by the two-dimensional imaging element 73a, thereby being imaged as a Hartmann image (dot pattern image). In the present embodiment, the aberration information of the eye to be examined is acquired from the Hartmann image, and the wavefront compensation device 72 is controlled based on the aberration information. Details of the Hartmann image will be described later.

波面補償デバイス72は、眼底撮像光学系100の光路中に配置され、入射光の波面を制御することによって、被検眼Eの波面収差を補償する。本実施形態において、波面補償デバイス72には、液晶空間光変調器が使用されてもよい。一例として、以下では、反射型のLCOS(Liquid Crystal On Silicon)等が使用されるものとして説明する。この
場合、波面補償デバイス72は、光源11からのレーザー光(S偏光光)、該レーザー光の眼底反射光(S偏光光)、波面収差検出用光の反射光(S偏光成分)等の所定の直線偏光(S偏光)に対して収差を補正することが可能な向きに配置される。その結果、波面補償デバイス72は、入射する光のS偏光成分を変調できる。また、本実施形態において、波面補償デバイス72の反射面は、被検眼の瞳と略共役となる位置に配置される。
The wavefront compensation device 72 is disposed in the optical path of the fundus imaging optical system 100, and compensates the wavefront aberration of the eye E by controlling the wavefront of the incident light. In the present embodiment, a liquid crystal spatial light modulator may be used for the wavefront compensation device 72. As an example, a description will be given below assuming that a reflective LCOS (Liquid Crystal On Silicon) or the like is used. In this case, the wavefront compensation device 72 has predetermined laser light (S-polarized light) from the light source 11, fundus reflected light (S-polarized light) of the laser light, reflected light (S-polarized component) of wavefront aberration detection light, and the like. Are arranged in a direction capable of correcting the aberration with respect to the linearly polarized light (S-polarized light). As a result, the wavefront compensation device 72 can modulate the S-polarized component of the incident light. In the present embodiment, the reflection surface of the wavefront compensation device 72 is arranged at a position that is substantially conjugate with the pupil of the eye to be examined.

本実施形態の波面補償デバイス72において、液晶層内の液晶分子の配列方向は、入射する反射光の偏光面と略平行である。また、液晶分子が液晶層への印加電圧の変化に応じて回転する所定の面は、波面補償デバイス72に対する眼底反射光の入射光軸および反射光軸と、波面補償デバイス72が持つミラー層の法線と、を含む平面に対して略平行に配置されている。   In the wavefront compensation device 72 of the present embodiment, the alignment direction of the liquid crystal molecules in the liquid crystal layer is substantially parallel to the polarization plane of incident reflected light. The predetermined plane on which the liquid crystal molecules rotate according to the change in the voltage applied to the liquid crystal layer includes the incident optical axis and the reflected optical axis of the fundus reflection light with respect to the wavefront compensation device 72, and the mirror layer of the wavefront compensation device 72. And a plane that includes the normal line.

なお、本実施例において、波面補償デバイス72は液晶変調素子とし、特に、反射型のLCOS等を用いるものとしているが、これに限るものではない。他の反射型の波面補償デバイスであってもよい。例えば、MEMS(Micro Electro Mechanical Systems)の1形態であるデフォーマブルミラーが使用されてもよい。また、反射型の波面補償デバイスではなく、透過型の波面補償デバイスが使用されてもよい。透過型のデバイスでは、眼底からの反射光を透過させて波面収差が補償される。   In this embodiment, the wavefront compensation device 72 is a liquid crystal modulation element, and in particular, a reflective LCOS or the like is used, but the present invention is not limited to this. Other reflective wavefront compensation devices may be used. For example, a deformable mirror that is a form of MEMS (Micro Electro Mechanical Systems) may be used. Further, a transmissive wavefront compensation device may be used instead of the reflective wavefront compensation device. In the transmission type device, the wavefront aberration is compensated by transmitting the reflected light from the fundus.

なお、以上の説明では、収差検出用光源として、第1光源とは異なる波長の照明光を出射する光源を用いたが、第1光源が収差検出用光源を兼用していてもよい。   In the above description, a light source that emits illumination light having a wavelength different from that of the first light source is used as the aberration detection light source. However, the first light source may also serve as the aberration detection light source.

なお、以上説明した本実施形態では、波面センサ及び波面補償デバイスを被検眼の瞳共役としたが、被検眼の前眼部の所定部位と略共役な位置であればよく、例えば、角膜共役であってもよい。   In the present embodiment described above, the wavefront sensor and the wavefront compensation device are the pupil conjugate of the eye to be examined. However, the position may be a position that is substantially conjugate with a predetermined part of the anterior eye portion of the eye to be examined. There may be.

次に、図3を参照して、本実施形態における撮影装置1の制御系を説明する。撮影装置1は、制御部800を有している。制御部800は、撮影装置1の装置全体の制御を行うプロセッサ(例えば、CPU)である。本実施形態において、制御部800には、記憶部801、操作入力部802、画像処理部803、モニタ850、が電気的に接続される。また、制御部800には、光源1、駆動部10a、走査部15、受光素子56、波面補償デバイス72、波面センサ73、光源76、第2撮影ユニット200、トラッキング用ユニット300、偏向部400、が電気的に接続される。   Next, with reference to FIG. 3, a control system of the photographing apparatus 1 in the present embodiment will be described. The photographing apparatus 1 has a control unit 800. The control unit 800 is a processor (for example, a CPU) that controls the entire apparatus of the photographing apparatus 1. In the present embodiment, a storage unit 801, an operation input unit 802, an image processing unit 803, and a monitor 850 are electrically connected to the control unit 800. The control unit 800 includes a light source 1, a driving unit 10a, a scanning unit 15, a light receiving element 56, a wavefront compensation device 72, a wavefront sensor 73, a light source 76, a second imaging unit 200, a tracking unit 300, a deflection unit 400, Are electrically connected.

記憶部801は、各種の制御プログラムおよび固定データを格納する。また、記憶部801には、撮影装置1によって取得された画像、一時データ等が記憶されてもよい。   The storage unit 801 stores various control programs and fixed data. Further, the storage unit 801 may store images, temporary data, and the like acquired by the photographing apparatus 1.

制御部800は、操作部802から出力される操作信号に基づいて、第1撮影ユニット100等の上記の各部材を制御する。操作入力部802は、検者によって操作される操作部材を備える。操作部材としては、キーボードおよびマウス等が用いられてもよい。   The control unit 800 controls each member described above such as the first imaging unit 100 based on the operation signal output from the operation unit 802. The operation input unit 802 includes an operation member operated by an examiner. A keyboard and a mouse may be used as the operation member.

画像処理部803は、受光素子56、第2撮影ユニット200で受光した信号に基づいて、に画角の異なる被検眼眼底画像(つまり、第1眼底画像及び第2眼底画像)を形成する。そして、形成された第1眼底画像及び第2眼底画像を、モニタ850に表示させる(図4参照)。   Based on the signals received by the light receiving element 56 and the second imaging unit 200, the image processing unit 803 forms the fundus images to be examined having different angles of view (that is, the first fundus image and the second fundus image). Then, the formed first fundus image and second fundus image are displayed on the monitor 850 (see FIG. 4).

モニタ850は、撮影装置1に搭載された表示モニタであってもよいし、撮影装置1とは別体の汎用の表示モニタであってもよい。また、これらが併用された構成であってもよい。モニタ850は、撮影装置1で撮影される眼底画像(第1眼底画像、および第2眼底画像)を、動画および静止画のそれぞれで表示できる。   The monitor 850 may be a display monitor mounted on the photographing apparatus 1 or a general-purpose display monitor that is separate from the photographing apparatus 1. Moreover, the structure in which these were used together may be sufficient. The monitor 850 can display fundus images (first fundus image and second fundus image) captured by the imaging apparatus 1 as a moving image and a still image, respectively.

なお、制御部800による波面補償デバイス72の制御は、波面センサ73によって検出される波面収差に基づいて実行される。本実施形態では、波面センサ73からの検出信号に基づく波面補償デバイス72のフィードバック制御が行われる。波面補償デバイス72が制御されることによって、光源76の反射光のS偏光成分と共に、光源1から出射されるレーザー光と該レーザー光の眼底反射光の高次収差が取り除かれる。このようにして、光源1から出射されたレーザー光、および該レーザー光の眼底反射光が持つ収差が取り除かれる。その結果、被検眼Eの高次収差が取り除かれた(波面補償された)高解像度の第1眼底画像(即ち、波面補償画像)が撮影装置1によって取得される。なお、このとき、低次の収差は、視度補正部10によって補正されてもよい。   The control of the wavefront compensation device 72 by the controller 800 is executed based on the wavefront aberration detected by the wavefront sensor 73. In the present embodiment, feedback control of the wavefront compensation device 72 based on the detection signal from the wavefront sensor 73 is performed. By controlling the wavefront compensation device 72, the high-order aberrations of the laser light emitted from the light source 1 and the fundus reflection light of the laser light are removed together with the S-polarized component of the reflected light of the light source 76. In this way, the aberrations of the laser light emitted from the light source 1 and the fundus reflection light of the laser light are removed. As a result, the imaging apparatus 1 acquires a high-resolution first fundus image (that is, a wavefront compensated image) from which high-order aberrations of the eye E have been removed (wavefront compensated). At this time, low-order aberrations may be corrected by the diopter correction unit 10.

以上のような構成と持つ本装置の動作を、図5に示すフローチャートを参照して説明する。撮影装置1は、電源がオンされた後、記憶部801に記憶された制御プログラムに従って動作する。以下の動作において、撮影装置1は、第1眼底画像(AO-SLO画像)の静止画を、複数の取得位置において取得する。また、撮影装置1は、眼底上の異なる位置で取得された第1眼底画像の静止画を繋ぎあわせる画像処理を行い、第1眼底画像のパノラマ画像を形成する。その結果として、広範囲かつ高倍率で眼底の組織を確認するための静止画が得られる。   The operation of the present apparatus having the above configuration will be described with reference to the flowchart shown in FIG. The imaging apparatus 1 operates according to a control program stored in the storage unit 801 after the power is turned on. In the following operation, the imaging device 1 acquires still images of the first fundus image (AO-SLO image) at a plurality of acquisition positions. In addition, the imaging device 1 performs image processing for joining still images of the first fundus image acquired at different positions on the fundus to form a panoramic image of the first fundus image. As a result, a still image for confirming the fundus tissue in a wide range and at a high magnification is obtained.

はじめに、被検眼Eに対する撮影部500のアライメントが行われる(S1)。例えば、制御部800は、前眼部観察ユニット700を用いてリアルタイムな前眼部画像を取得すると共に、前眼部画像をモニタ850に表示させる。検者は、モニタ850上の前眼部画像を観察しながら、顎台610の位置調整を手動又は自動で行い、粗くアライメントを行う。この場合において、検者は、図示無き固視標を被検者が固視するように指示する。   First, the imaging unit 500 is aligned with the eye E (S1). For example, the control unit 800 acquires a real-time anterior segment image using the anterior segment observation unit 700 and causes the monitor 850 to display the anterior segment image. While observing the anterior ocular segment image on the monitor 850, the examiner manually or automatically adjusts the position of the chin rest 610 to perform rough alignment. In this case, the examiner instructs the subject to fixate a fixation target (not shown).

本実施形態では、アライメントが完了した後、操作入力部802の一つとして設けられた開始スイッチが検者によって操作されると、第1撮影ユニット100および第2撮影ユニット200を用いた眼底画像の取得が開始される(S2)。この場合、制御部800によって、各撮影ユニット100,200の視度補正が行われてもよい。例えば、第1撮影ユニット100における視度補正は、視度補正部10を用いて行われる。   In the present embodiment, after the alignment is completed, when a start switch provided as one of the operation input units 802 is operated by the examiner, the fundus image using the first imaging unit 100 and the second imaging unit 200 is displayed. Acquisition starts (S2). In this case, the diopter correction of each of the photographing units 100 and 200 may be performed by the control unit 800. For example, diopter correction in the first photographing unit 100 is performed using the diopter correction unit 10.

次に、制御部800は、眼底上の複数の取得位置にて第1眼底画像の静止画(以下、スライスと称する)をそれぞれ取得(キャプチャー)し、記憶部801に記憶する(S3)。本実施形態では、S3によって、パノラマ画像の形成に使用するスライスが取得される。また、制御部800は、各スライスの眼底における位置関係に関する取得位置情報を、それぞれのスライスと対応付けて記憶部801へ記憶する(S4)。詳細は後述するが、取得位置情報は、パノラマ画像を形成する複数のスライスの位置関係を特定するために利用される。   Next, the control unit 800 acquires (captures) still images (hereinafter referred to as slices) of the first fundus image at a plurality of acquisition positions on the fundus and stores them in the storage unit 801 (S3). In the present embodiment, a slice used for forming a panoramic image is acquired in S3. In addition, the control unit 800 stores the acquired position information related to the positional relationship of each slice on the fundus in the storage unit 801 in association with each slice (S4). Although details will be described later, the acquisition position information is used to specify the positional relationship between a plurality of slices forming a panoramic image.

S3の処理では、例えば、複数のスライスの目標とする取得位置が目標位置情報によって予め定められていてもよい。この場合、制御部800は、目標位置情報に基づいて光スキャナ(走査部25および偏向部400)の駆動範囲(つまり、走査範囲)を決定する。そして、定められた駆動範囲での光走査に基づいて画像処理部803が静止画を形成することによって、スライスが撮影装置1に取得される(S3)。ここで、1枚のスライスは、光スキャナによる1フレーム分の光走査に基づいて形成されてもよいし、複数フレームの画像からなる加算平均画像であってもよい。また、目標位置情報は、例えば、第2眼底画像上での位置情報であってもよいし、光スキャナの走査角度に関する情報であってもよい。目標位置情報は、例えば、記憶部801に予め記憶されていてもよい。   In the process of S3, for example, acquisition positions to be targets of a plurality of slices may be determined in advance by target position information. In this case, the control unit 800 determines the driving range (that is, the scanning range) of the optical scanner (scanning unit 25 and deflection unit 400) based on the target position information. Then, the image processing unit 803 forms a still image based on the optical scanning in the determined driving range, whereby a slice is acquired by the imaging device 1 (S3). Here, one slice may be formed based on optical scanning for one frame by an optical scanner, or may be an averaged image composed of images of a plurality of frames. The target position information may be, for example, position information on the second fundus image, or information on the scanning angle of the optical scanner. The target position information may be stored in advance in the storage unit 801, for example.

本実施形態では、S3の処理の結果として、それぞれのスライスが他のスライスと少なくとも部分的に重なり合うような取得位置で、複数枚のスライスが取得されるものとする。ここでは、一例として、図6に示すように、目標とする取得位置が横方向にずらされながら、複数枚のスライスが取得されるものとする。但し、それぞれの目標とする取得位置の配置は、勿論図6の例に限定されるものではない。なお、図6には、一点鎖線からなる複数の矩形が示されている。それぞれの矩形は、それぞれのスライスの目標とする取得範囲を示す。図6には、13個の矩形が配置されており(つまり、目標とする取得位置は13か所設定されている)、各々の矩形は、左右の縁の少なくとも一方が他の矩形と重なっている。図7は、それぞれの矩形が示す位置を目標として取得されたスライスを例示的に示している。図7では、便宜上、13枚のスライスに、「0」〜「12」の番号が1つずつ対応付けされている(画像左上の数字が対応する番号である)。「0」番の画像が、図6において最も左側の矩形の位置を目標として取得された画像であり、大きな番号ほど、目標とした位置が右側であることを示している。   In the present embodiment, as a result of the process of S3, a plurality of slices are acquired at acquisition positions where each slice at least partially overlaps another slice. Here, as an example, as illustrated in FIG. 6, a plurality of slices are acquired while the target acquisition position is shifted in the horizontal direction. However, the arrangement of the target acquisition positions is not limited to the example shown in FIG. In FIG. 6, a plurality of rectangles formed by alternate long and short dash lines are shown. Each rectangle indicates a target acquisition range of each slice. In FIG. 6, 13 rectangles are arranged (that is, 13 target acquisition positions are set), and each rectangle has at least one of the left and right edges overlapped with another rectangle. Yes. FIG. 7 exemplarily shows slices acquired with the position indicated by each rectangle as a target. In FIG. 7, for convenience, numbers “0” to “12” are associated with 13 slices one by one (the number on the upper left of the image is the corresponding number). The image of “0” is an image acquired with the leftmost rectangular position in FIG. 6 as a target, and the larger the number, the more the target position is on the right side.

S4の処理によって取得される取得位置情報は、各スライスの眼底における位置関係に関する情報である。本実施形態では、眼底におけるスライスの大まかな取得位置が、取得位置情報によって示される。本実施形態において示すように、取得位置情報は、目標位置情報とは異なる情報であってもよく、例えば、S3の処理によって取得されるスライスの眼底上における実際の取得位置を示していてもよい。眼球運動(例えば、固視微動)等で眼は絶えず動いているため、スライスの実際の取得位置は、目標として予め定めた取得位置からズレる場合がある。本実施形態では、眼底におけるスライスの取得位置を示す取得位置情報が、スライスと対応付けられて記憶部801へ記憶される。これにより、パノラマ画像を形成する複数のスライスの位置関係が精度よく特定される。実際の取得位置は、例えば、スライスと同時に取得される第2眼底画像を用いて特定可能である。よって、第2眼底画像上の位置情報(例えば、第2眼底画像において基準となる組織および特徴点等からのズレ情報等)として、取得位置情報は取得されてもよい。   The acquired position information acquired by the process of S4 is information related to the positional relationship of each slice on the fundus. In this embodiment, the rough acquisition position of the slice in the fundus is indicated by the acquisition position information. As shown in this embodiment, the acquisition position information may be information different from the target position information, and may indicate the actual acquisition position on the fundus of the slice acquired by the process of S3, for example. . Since the eyes are constantly moving due to eye movement (for example, fine fixation), the actual acquisition position of the slice may deviate from the acquisition position predetermined as a target. In the present embodiment, acquisition position information indicating the acquisition position of the slice in the fundus is stored in the storage unit 801 in association with the slice. Thereby, the positional relationship between a plurality of slices forming a panoramic image is specified with high accuracy. The actual acquisition position can be specified using, for example, the second fundus image acquired simultaneously with the slice. Therefore, the acquired position information may be acquired as position information on the second fundus image (for example, deviation information from a tissue or a feature point serving as a reference in the second fundus image).

次に、制御部800は、予め取得された複数枚のスライスから、パノラマ画像を生成する(S5)。ここでは、図8のフローチャートを参照して、本実施形態におけるパノラマ画像生成処理(S5)の処理内容を詳細に説明する。   Next, the control unit 800 generates a panoramic image from a plurality of slices acquired in advance (S5). Here, the processing content of the panoramic image generation processing (S5) in the present embodiment will be described in detail with reference to the flowchart of FIG.

まず、パノラマ画像生成処理(S5)では、S3の処理で予め取得された(つまり、本実施形態では、記憶部801に予め記憶されている)複数枚のスライスが、初期配置される(S11)。本実施形態では、制御部800によって、スライスの初期配置が自動的に行われる。この場合、各スライスは、取得位置情報に基づく眼底上での位置関係で平面上(例えば、画像処理を行うための二次元座標系上)に配置される。本実施形態において、取得位置情報は、スライスの実際の取得位置を大まかに示した情報であるので、各スライスは、目標とする取得位置での配置に対し、それぞれズレて配置される。   First, in the panoramic image generation process (S5), a plurality of slices acquired in advance in the process of S3 (that is, stored in advance in the storage unit 801 in this embodiment) are initially arranged (S11). . In the present embodiment, the initial arrangement of slices is automatically performed by the control unit 800. In this case, each slice is arranged on a plane (for example, on a two-dimensional coordinate system for performing image processing) in a positional relationship on the fundus based on the acquired position information. In the present embodiment, the acquisition position information is information that roughly indicates the actual acquisition position of the slice. Therefore, each slice is arranged so as to be shifted from the arrangement at the target acquisition position.

次に、制御部800は、初期配置された複数のスライスから、スライスのペアを取得する(S12)。本実施形態では、初期配置での位置関係で平面上に並べられる場合において、画像の少なくとも一部が重なり合う重複部分が形成されるペアを取得する。   Next, the control unit 800 acquires a pair of slices from the plurality of initially arranged slices (S12). In the present embodiment, when the images are arranged on a plane in a positional relationship in the initial arrangement, a pair is formed in which an overlapping portion where at least a part of the image overlaps is formed.

例えば、制御部800は、初期配置される複数のスライスから2枚のスライスを選択する全ての組み合わせについて、重複部分が形成されるか否かを判定する。そして、制御部800は、判定結果に基づいて複数のスライスからペアを取得してもよい。この場合、例えば、N枚のスライスが初期配置される場合は、通りのスライスの組み合わせの中から、ペアが取得されてもよい。ペアの取得(つまり、ペアを形成するか否かの判定)には、例えば、2枚のスライスの取得位置情報が用いられてもよい。 For example, the control unit 800 determines whether or not overlapping portions are formed for all combinations of selecting two slices from a plurality of slices that are initially arranged. Then, the control unit 800 may acquire a pair from a plurality of slices based on the determination result. In this case, for example, when N slices are initially arranged, a pair may be acquired from a combination of two N C slices. For example, the acquisition position information of two slices may be used for acquiring a pair (that is, determining whether to form a pair).

次に、制御部800は、S12で取得されたペア毎に、ペアとなるスライスを重複部分に関してマッチングさせる画像処理であるマッチング処理を行う(S13)。マッチング処理では、静止画のマッチングに伴って、重複部分に関する各スライスの相関が一致度として得られる。この画像処理の結果として、本実施形態では、初期配置での位置関係に並べられた場合におけるスライス同士の重複部分の一致度合(類似度合ともいう。また、一致割合あるいは類似割合であってもよい。)を示す情報(例えば、数値)が、一致度として取得される。本実施形態では、以下説明するように、ペアを形成する2枚のスライスの相関(より詳細には、主に、前述の一領域と対応領域との相関)に基づいて、一致度が得られる。一致度を求める画像処理には、種々の処理を採用し得る。本実施形態では、ペアとなる2枚のスライスのマッチングをする画像処理によって、ペアにおける一致度と位置ズレ量とが合わせて取得される。   Next, for each pair acquired in S12, the control unit 800 performs a matching process, which is an image process for matching a paired slice with respect to an overlapping portion (S13). In the matching process, the correlation of each slice regarding the overlapped portion is obtained as the degree of coincidence with the matching of the still images. As a result of this image processing, in this embodiment, the degree of coincidence of overlapping portions between slices (also referred to as similarity degree) when arranged in the positional relationship in the initial arrangement may be a coincidence ratio or a similarity ratio. (For example, a numerical value) indicating the degree of coincidence. In the present embodiment, as described below, the degree of coincidence is obtained based on the correlation between two slices forming a pair (more specifically, mainly the correlation between the one area and the corresponding area described above). . Various processes can be adopted for the image processing for obtaining the degree of coincidence. In the present embodiment, the matching degree and the positional deviation amount in a pair are acquired together by image processing for matching two slices that form a pair.

ここで、図9から図11を参照して、一致度の取得手法についての一つの具体例を示す。   Here, with reference to FIG. 9 to FIG. 11, one specific example of the matching degree acquisition method will be shown.

まず、ペアとなるスライスA,Bの互いに重なる領域Ω(図9の例においては、矩形領域Ω)が、一方のスライスから切り出される。そして、切り出された領域Ωは画像マッチングのテンプレートとして、他方のスライスに対してマッチング(位置合わせ)される。その際、テンプレート(領域Ω)と、テンプレートがマッチングされるスライスである参照画像と、の位相画像がそれぞれ生成される。そして、例えば、テンプレート画像の位相画像と、参照画像の位相画像との相関マップを求める。相関マップは、2枚の位相画像における位置関係毎の相関を示したマップである。相関マップでは、2枚の位相画像が良好に重なり合う位置において、相関のピークが得られる。例えば、相関マップは、2つの位相画像をずらしながらずらした位置毎に2つの位相画像の相関を求めることによって形成できる。   First, a region Ω (rectangular region Ω in the example of FIG. 9) of the paired slices A and B is cut out from one slice. Then, the cut out region Ω is matched (positioned) with respect to the other slice as an image matching template. At that time, phase images of the template (region Ω) and a reference image that is a slice with which the template is matched are generated. Then, for example, a correlation map between the phase image of the template image and the phase image of the reference image is obtained. The correlation map is a map showing the correlation for each positional relationship in the two phase images. In the correlation map, a correlation peak is obtained at a position where the two phase images overlap well. For example, the correlation map can be formed by obtaining the correlation between two phase images for each shifted position while shifting the two phase images.

ここで、2枚のスライスA,Bの画像マッチングでは、
(1)スライスAから切り出された領域Ωをテンプレートとし、スライスBを参照画像とするマッチング。
(2)スライスBから切り出された領域Ωをテンプレートとし、スライスAを参照画像とするマッチング。
の2通りが考えられる。本具体例では、1組のスライスのペアに対し、上記(1)(2)の両方のマッチングが行われる。以下、上記(1)のマッチングにて得られる相関マップを、TB→Aと称し、上記(2)のマッチングにて得られる相関マップをTA→Bと称す(図10参照)。図10において、相関マップTB→A,TA→Bのそれぞれの上に示したPは、相関のピーク位置を示している。例えば、相関の高さを輝度の高さとして示したマップ画像では、ピークは輝点として示される。相関マップTB→AにおけるピークPと、相関マップTA→BにおけるピークPとは、鏡面対称となる位置に示される。但し、相関マップTB→Aと相関マップTA→Bとは、異なるテンプレートを照合した結果であるため、一方のマップを反転したとしても、両者は異なるマップとなる(図11(a),(b)参照)。なお、図11(a),(b)は、相関マップTB→A,TA→Bにおいて、ピークPを含む一ライン上の相関の分布を示している。また、図11(a),(b)のグラフでは、図7に示す「5」番のスライスをスライスAとし、「6」番のスライスをスライスBとして、マッチングを行い実際に得られる分布を示している。このような相関マップTB→A,TA→Bを比べた場合、図11(a)に示すように、相関マップTB→Aでは、ピークPが分布中心に表れたノイズに埋もれてしまっており、ピークPを良好に検出しにくい。一方、図11(b)に示すように、相関マップTA→Bでは、ピークPがノイズに埋もれていないため、ピークPの位置が正確に検出されやすい。しかしながら、相関マップTB→Aは勿論、相関マップTA→Bにおいてもノイズの影響がある。よって、精度良く一致度を得るためには、ノイズの影響を抑制する必要がある。
Here, in the image matching of the two slices A and B,
(1) Matching using the region Ω cut out from the slice A as a template and the slice B as a reference image.
(2) Matching using the region Ω cut out from the slice B as a template and the slice A as a reference image.
There are two possible ways. In this specific example, both matchings (1) and (2) are performed on a pair of slices. Hereinafter, the correlation map obtained by the above matching (1) is referred to as TB → A, and the correlation map obtained by the matching (2) is referred to as TA → B (see FIG. 10). In FIG. 10, P shown above each of the correlation maps T B → A and T A → B indicates the peak position of the correlation. For example, in a map image that shows the high correlation as the high luminance, the peak is shown as a bright spot. The peak P in the correlation map T B → A and the peak P in the correlation map T A → B are shown at positions that are mirror-symmetrical. However, since the correlation map T B → A and the correlation map T A → B are the results of collating different templates, even if one of the maps is inverted, they become different maps (FIG. 11 (a), (See (b)). 11A and 11B show the correlation distribution on one line including the peak P in the correlation maps T B → A and T A → B. Also, in the graphs of FIGS. 11A and 11B, the distribution actually obtained by performing the matching with the slice “5” shown in FIG. 7 as the slice A and the slice “6” as the slice B is shown. Show. When such correlation maps TB → A and TA → B are compared, as shown in FIG. 11A, in the correlation map TB → A , the peak P is buried in the noise appearing at the center of the distribution. It is difficult to detect the peak P well. On the other hand, as shown in FIG. 11B, in the correlation map TA → B , since the peak P is not buried in noise, the position of the peak P is easily detected accurately. However, not only the correlation map T B → A but also the correlation map T A → B is affected by noise. Therefore, in order to obtain a coincidence with high accuracy, it is necessary to suppress the influence of noise.

そこで、本具体例では、相関マップTB→A,TA→Bのうち一方を、他方のマップとピークPが重なるように反転させたマップである反転マップを得る。図10の例では、相関マップTA→Bを反転させることによって、反転マップT A→Bが生成される。そして、反転させなかった相関マップであるTB→Aと、反転マップT A→Bとの要素毎の積をとる。積算の結果として得られるマップ(積算結果マップ)を、TA⇔Bと示す。図10の例では、相関マップTB→Aと反転マップT A→Bとの要素毎の積算結果を、積算結果マップTA⇔Bとして示している。積算結果マップTA⇔Bは、一般に次の式にて求めることができる。 Therefore, in this specific example, an inverted map is obtained which is a map obtained by inverting one of the correlation maps T B → A and T A → B so that the peak P overlaps the other map. In the example of FIG. 10, the inversion map T T A → B is generated by inverting the correlation map T A → B. Then, the product for each element of the correlation map T B → A that is not inverted and the inverted map T T A → B is taken. A map (integration result map) obtained as a result of integration is denoted as TATB . In the example of FIG. 10, the integration result for each element of the correlation map T B → A and the inversion map T T A → B is shown as an integration result map T A ⇔B . The integration result map TA⇔B can be generally obtained by the following equation.

図11(c)に示すように、積算結果マップTA⇔Bは、相関マップTB→A,TA→Bと比べて、ノイズレベルが抑制され、ピークPが強調される。従って、スライスA,Bの一致度を、積算結果マップTA⇔Bから良好に得ることができる。 As shown in FIG. 11C, in the integration result map T A⇔B , the noise level is suppressed and the peak P is emphasized compared to the correlation maps T B → A and T A → B. Therefore, the degree of coincidence between the slices A and B can be favorably obtained from the integration result map TA⇔B .

積算結果マップTA⇔BのピークPが鋭いほど、スライスA,Bは、良好に一致していると考えることができる。そこで、ピークPの鋭さを定量化するために、積算結果マップTA⇔Bのピークを例えば、ガウス関数でフィッティングする。そして、フィットしたガウス関数の幅Q(例えば、半値幅、δ等)が得られる。本具体例では、ピーク幅Qの値が小さいぼど、スライス同士の相関(一致度)は高くなる。なお、ピークPの鋭さを評価する方法は、上記手法に限定されるものではない。例えば、相関マップは、sinc関数を用いたモデルとの類似度合(一致度合)を比較することによって、ピークPの鋭さを評価してもよい。 It can be considered that the slices A and B are better matched as the peak P of the integration result map TA⇔B is sharper. Therefore, in order to quantify the sharpness of the peak P, the peak of the integration result map TA⇔B is fitted with, for example, a Gaussian function. Then, the width Q (for example, half width, δ, etc.) of the fitted Gaussian function is obtained. In this specific example, when the value of the peak width Q is small, the correlation (matching degree) between slices is high. The method for evaluating the sharpness of the peak P is not limited to the above method. For example, the correlation map may evaluate the sharpness of the peak P by comparing the degree of similarity (the degree of coincidence) with the model using the sinc function.

また、本実施形態では、相関マップ(および反転マップ、積算結果マップの各マップ)に基づいてマッチングされた2枚のスライスA,Bにおけるズレ量を得る。即ち、上記のマップにおけるピークPの位置は、マッチングされた2枚のスライスA,Bにおけるズレ量を示している。本実施形態では、ピークPの位置を検出することによって、2枚のスライスA,Bにおけるズレ量を得る。即ち、制御部800は、2枚のスライスA,Bにおける一致度と共に、ズレ量を得る。   Further, in the present embodiment, a deviation amount between the two slices A and B that are matched based on the correlation map (and each map of the inverted map and the integration result map) is obtained. That is, the position of the peak P in the above map indicates the amount of deviation between the two matched slices A and B. In the present embodiment, by detecting the position of the peak P, a deviation amount between the two slices A and B is obtained. That is, the control unit 800 obtains the amount of deviation together with the degree of coincidence between the two slices A and B.

図8のフローチャートに戻って説明を続ける。本実施形態において、制御部800は、各ペアにおける一致度およびズレ量を示したリスト(以下、一致度リストと称す)を作成する(S14)。そして、一致度リストを、一致度順にソートする(S15)。図12に、ソートされた状態の一致度リストを例示する。図12の例では、上段ほどペアの一致度が高くなるようには各ペアの情報がソートされる。一致度リストでは、ペア(ペアを形成するスライス)と、そのペアにおける2枚のスライスの一致度とが、ペア毎に対応付けられている。また、図12に示すように、2枚のスライスのズレ量が、一致度と共に、ペアと対応付けられていてもよい。   Returning to the flowchart of FIG. In the present embodiment, the control unit 800 creates a list (hereinafter referred to as a coincidence degree list) indicating the degree of coincidence and the amount of deviation in each pair (S14). Then, the matching degree list is sorted in order of matching degree (S15). FIG. 12 exemplifies a matching degree list in a sorted state. In the example of FIG. 12, the information of each pair is sorted so that the matching level of the pair becomes higher in the upper stage. In the matching degree list, a pair (slice forming a pair) and a matching degree of two slices in the pair are associated with each pair. Also, as shown in FIG. 12, the amount of deviation between two slices may be associated with a pair together with the degree of coincidence.

次に、制御部800は、ペア単位で各スライスを順次接合させていき、結果としてパノラマ画像を作成する(S16)。より詳細には、制御部800は、一致度リストにある各々のペアに対して、ペアとなる静止画同士を接合する画像処理(画像接合処理)を行う。それぞれのペアにおいてこの画像接合処理が行われる優先順位は、マッチングの結果得られた各ペアの一致度に応じて定められる。本実施形態における画像接合処理は、ペアとなる2枚のスライスをそのペアの位置ズレ量に応じた配置で接合させる画像処理である。そして、制御部800は、複数のペアに対する画像接合処理の結果として、パノラマ画像を生成する。   Next, the control unit 800 sequentially joins each slice in pairs, and as a result, creates a panoramic image (S16). More specifically, the control unit 800 performs image processing (image joining processing) for joining still images that form pairs with each pair in the matching degree list. The priority order in which this image joining process is performed in each pair is determined according to the matching degree of each pair obtained as a result of matching. The image joining process in the present embodiment is an image process for joining two slices to be paired in an arrangement according to the positional deviation amount of the pair. And the control part 800 produces | generates a panoramic image as a result of the image joining process with respect to several pairs.

本実施形態では、図12の一致度リストにおいて、一致度の高いペアから順に(即ち、より相関の高いペアから順に)、制御部800がペアを選択し、選択したペアに対して画像接合処理を行っていくことによって、部分的なパノラマ画像(以下、部分パノラマ画像と称す)を形成する。   In the present embodiment, in the matching list of FIG. 12, the control unit 800 selects pairs in descending order of matching (that is, in order from the higher correlation pair), and performs image joining processing on the selected pairs. As a result, a partial panoramic image (hereinafter referred to as a partial panoramic image) is formed.

図12の例では、一致度リストの最上段のペアから順に(即ち、「4」番と「5」番のペア→「10」番と「11」番のペア→…の順に)、部分パノラマ画像を形成する。接合に当たっては、加算平均などのブレンディング処理をスライス同士の重複部分に施し、スライスのつなぎ目を目立たなくしてよい。また、スライス同士の重複部分に対し、加算平均処理などの処理が施されると、その重複部分が暗くなってしまう場合がある。このような場合では、いずれか一方のスライスにおいて他のスライスとの重複部分を除去してよい。   In the example of FIG. 12, partial panoramas are performed in order from the top pair in the matching list (that is, in the order of “4” and “5” pairs → “10” and “11” pairs →...). Form an image. In joining, blending processing such as addition averaging may be performed on overlapping portions of slices so that the joints between slices are not noticeable. In addition, when processing such as addition averaging processing is performed on an overlapping portion between slices, the overlapping portion may become dark. In such a case, an overlapping portion with any other slice may be removed from any one of the slices.

本実施形態では、ペアを形成する2枚のスライスのうち、少なくとも一方が既に他のスライスと共に部分パノラマ画像を形成している場合、他方のスライスは、その部分パノラマ画像に対して接合される。例えば、図12の例では、リストの上から4段目にある「7」番と「8」番のペアによる部分パノラマ画像C1が形成された後で、リストの5段目にある「8」番と「9」番のペアが接合される。この場合、図13(a)に示すように、「9」番のスライスは、「7」番と「8」番のペアからなる部分パノラマ画像C1における「8」番の部分に対し接合される。その結果として、「7」番,「8」番および「9」番のスライスが、部分パノラマ画像C2として一体に接合される。   In the present embodiment, when at least one of the two slices forming a pair already forms a partial panoramic image together with another slice, the other slice is joined to the partial panoramic image. For example, in the example of FIG. 12, after the partial panorama image C1 is formed by the pair of “7” and “8” in the fourth row from the top of the list, “8” in the fifth row of the list. No. and “9” pair are joined. In this case, as shown in FIG. 13A, the slice “9” is joined to the portion “8” in the partial panorama image C1 composed of the pair “7” and “8”. . As a result, the “7”, “8”, and “9” slices are joined together as a partial panorama image C2.

また、リストの上から6段目にある「9」番と「11」番のペアが接合される場合、事前に、「10」番と「11」番のスライスからなる部分パノラマ画像C3(一致度リストの2段目参照)と、「7」番〜「9」番のスライスからなる部分パノラマ画像C2(一致度リストの4,5段目参照)が形成されている。このような場合において、「9」番と「11」番の接合は、部分パノラマ画像同士の接合となる(図13(b)参照)。   In addition, when a pair of “9” and “11” in the sixth row from the top of the list is joined, a partial panorama image C3 (matching) consisting of “10” and “11” slices in advance And a partial panorama image C2 (refer to the fourth and fifth levels of the matching degree list) composed of slices “7” to “9”. In such a case, the joints of “9” and “11” are joints of the partial panorama images (see FIG. 13B).

ところで、3つ以上のペアから構成される一致度リストには、あるペア(以下、第1のペアと称す)と、第1のペアの一致度である第1の一致度に対して高い一致度をそれぞれ示し、且つ、第1のペアとはスライスの組み合わせがそれぞれ異なる2つ以上のペアからなるペア群とが、パノラマ画像を形成するために使用されるペアとして含まれ得る。例えば、図12において、上からn段目にあるペアを第1のペアとする場合は、1段目からn−1段目にある複数のペアを、ペア群として考えることができる。   By the way, in the coincidence list composed of three or more pairs, there is a high match for a certain pair (hereinafter referred to as the first pair) and the first coincidence that is the coincidence of the first pair. A pair group composed of two or more pairs each indicating a degree and having a different combination of slices from the first pair may be included as a pair used to form a panoramic image. For example, in FIG. 12, when a pair at the nth stage from the top is the first pair, a plurality of pairs at the n-1th stage from the first stage can be considered as a pair group.

この場合において、ペア群に含まれる2つ以上のペアに対して画像接合処理が行われることによって、第1のペアに画像接合処理が行われなくても、第1のペアに含まれるスライスが、(他の1以上のスライスを介して)一体に接合される場合がある。このような場合、本実施形態の制御部800は、第1のペアに対しては、画像接合処理を行わないことが好ましい。但し、一方で、より優先順位の高いペア群の各ペアに対して画像接合処理が行われても第1のペアが一体に接合されなければ、制御部800は、第1のペアに対して画像接合処理を行う。ここで、第1のペアに接合処理が行われない場合の具体例を示す。例えば、図12のリストの9段目にある「9」番と「10」番のペアを第1のペアとする場合、より一致度の高いペアからなるペア群に対して画像接合処理が行われることによって一体に接合される。即ち、リスト2段目の「10」番と「11」番のペアと、リスト6段目の「9」番と「11」番のペアとに対してそれぞれ画像接合処理が行われることによって、第1のペアである「9」番と「10」番のペアは、「11」番のスライスを介して一体に接合される。この場合において、第1のペアとなる「9」番のスライスと「10」番のスライスとを直接的に接合する画像接合処理を、制御部800は行わない。   In this case, since the image joining process is performed on two or more pairs included in the pair group, the slices included in the first pair are not subjected to the image joining process on the first pair. , (Via one or more other slices). In such a case, it is preferable that the control unit 800 of the present embodiment does not perform the image joining process for the first pair. However, on the other hand, if the first pair is not joined together even if the image joining process is performed on each pair of the higher priority pair group, the control unit 800 does not apply to the first pair. Perform image joining processing. Here, a specific example when the bonding process is not performed on the first pair is shown. For example, when the pair of numbers “9” and “10” in the ninth row of the list of FIG. 12 is the first pair, the image joining process is performed on a pair group consisting of pairs with higher matching degrees. Are joined together. That is, the image joining process is performed on the “10” and “11” pairs in the second row of the list and the “9” and “11” pairs in the sixth row of the list, respectively. The first pair “9” and “10” is joined together via the “11” slice. In this case, the control unit 800 does not perform the image joining process for directly joining the “9” slice and the “10” slice that are the first pair.

このような処理によって、2枚のスライスを一体に接合するための接合パターン(画像接合処理が行われるペアの組合せ)が複数通り想定される場合に、より良好な接合部分を形成し得る接合パターンが、制御部800によって一義的に選択される。その結果、スライスの接合部分において良好な画質が得られやすい。また、既に一体に接合されている2枚のスライスに対し、画像接合処理によって再接合されるとすると、その接合部分において画像を不要に歪ませてしまうおそれがある。しかし、本実施形態では、このような再接合を行わないので、画像の歪みを低減できる。また、上述のアルゴリズムでは、接合箇所の数が抑制されるので、結果として、パノラマ画像を形成する時間が抑制される。
なお、本実施形態では、上記の再接合を行わない場合について説明するが、必ずしもこれに限られるものではない。より良好な一致状態を示す一致度のペアの接合が、それよりも悪い一致状態を示す一致度のペアの接合と比べて優先されればよく、パノラマ画像において許容される精度の範囲であれば、再接合が許容されていてもよい。
A bonding pattern that can form a better bonding portion when a plurality of bonding patterns (combination of pairs for which image bonding processing is performed) for bonding two slices integrally are assumed by such processing. Is uniquely selected by the control unit 800. As a result, it is easy to obtain good image quality at the joined portion of the slice. Further, if two slices already joined together are rejoined by image joining processing, the image may be unnecessarily distorted at the joined portion. However, in this embodiment, since such rejoining is not performed, image distortion can be reduced. Moreover, in the above-mentioned algorithm, since the number of joint locations is suppressed, as a result, the time for forming a panoramic image is suppressed.
In addition, although this embodiment demonstrates the case where said rejoining is not performed, it is not necessarily restricted to this. The joining of a pair of matching degrees indicating a better matching state should be given priority over the joining of a pair of matching degrees indicating a worse matching state, as long as it is within an acceptable accuracy range in a panoramic image. The rejoining may be allowed.

本実施形態では、以上のようなパノラマ画像生成処理の結果として、スライスの一致度(相関)が高いペアでの接合が、一致度の低いペアでの接合に対して優先されるので、各スライスの接合が良好に行われたパノラマ画像が得られる(図14参照)。特に、本実施形態では、より一致度の高いペアから順にスライスを接合させることによって、それぞれのスライスが、それぞれのスライスにおいて最も一致度の高いスライスと接続されたパノラマ画像が形成される。よって、良好な画質のパノラマ画像が得られやすい。   In the present embodiment, as a result of the panoramic image generation process as described above, the joining in a pair having a high degree of matching (correlation) of slices is given priority over the joining in a pair having a low matching degree. As a result, a panoramic image is obtained in which the images are joined well (see FIG. 14). In particular, in the present embodiment, a panoramic image in which each slice is connected to a slice having the highest matching degree in each slice is formed by joining the slices in order from the pair having the higher matching degree. Therefore, it is easy to obtain a panoramic image with good image quality.

ここで、一致度は、XY方向に関する位置ずれや画像の歪み方の違いだけでなく、スライスにおけるデフォーカス量のズレ(スライス毎の適正なデフォーカス量に対するズレ、スライス相互間でのデフォーカス量のズレを含む)等が総合的に評価される。従って、本実施形態では、それらの要素の影響が抑制された良好なパノラマ画像が形成され得る。   Here, the degree of coincidence is not only a difference in positional deviation and image distortion in the XY directions, but also a shift in defocus amount in slices (a shift from an appropriate defocus amount for each slice, a defocus amount between slices). Are included). Therefore, in this embodiment, a good panoramic image in which the influence of these elements is suppressed can be formed.

また、本実施形態におけるパノラマ画像の生成手法では、一度相互に接合されたペアが、再度選択および接合されることなく、一意に接合順序が定められる。故に、上記処理によって、パノラマ画像の生成に要する時間の抑制と、良好なパノラマ画像の生成とが両立できる。   In the panoramic image generation method according to the present embodiment, the joining order is uniquely determined without selecting and joining the pairs once joined together. Therefore, the processing described above can achieve both the suppression of the time required for generating the panoramic image and the generation of a good panoramic image.

また、本実施形態では、それぞれのスライス画像の初期配置が、各スライスの実際の取得位置を示す取得位置情報に基づいて行われる。よって、スライス同士が重なり合う部分をテンプレートとする各ペアのマッチングが行われる前に、スライス画像が予め精度よく配置されているので、マッチングの精度を高めることができる。その結果、本実施形態では、各ペアにおける一致度がより正確に導出され、ペアを結合する順序がより適正に定められる。その結果、画質の良好なパノラマ画像が得られやすくなる。   In this embodiment, the initial placement of each slice image is performed based on acquisition position information indicating the actual acquisition position of each slice. Therefore, since the slice images are arranged in advance with high accuracy before the matching of each pair using the portion where the slices overlap with each other as a template, the matching accuracy can be improved. As a result, in the present embodiment, the degree of coincidence in each pair is derived more accurately, and the order in which the pairs are combined is determined more appropriately. As a result, it is easy to obtain a panoramic image with good image quality.

また、本実施形態では、それぞれのスライス画像の初期配置を、取得位置情報に基づいて制御部800が自動的に実行する。よって、パノラマ画像の作成に要する検者の負担が抑制される。
<変容例>
以上、実施形態に基づいて説明を行ったが、本開示は、様々な変形が可能である。
In the present embodiment, the control unit 800 automatically executes the initial arrangement of each slice image based on the acquired position information. Therefore, the burden on the examiner required for creating the panoramic image is suppressed.
<Transformation example>
As described above, the description has been given based on the embodiment, but the present disclosure can be variously modified.

例えば、上記実施形態では、パノラマ画像を生成するために使用されるスライスが、自動的に設定される場合を説明したが、必ずしもこれに限られるものではない。例えば、検者が手動で選択する構成であってもよい。また、眼底上の取得位置が同じスライスが、複数枚取得されている場合には、その複数枚のスライスの中から、パノラマ画像を生成するために使用するスライスを、手動で、又は、自動で選択する構成が、撮影装置1に設けられていてもよい。   For example, in the above-described embodiment, a case has been described in which slices used for generating a panoramic image are automatically set. However, the present invention is not necessarily limited thereto. For example, the structure which an examiner selects manually may be sufficient. In addition, when a plurality of slices having the same acquisition position on the fundus are acquired, a slice to be used for generating a panoramic image is manually or automatically selected from the plurality of slices. A configuration to be selected may be provided in the photographing apparatus 1.

例えば、上記実施形態では、制御部800が複数のスライスを初期配置する場合について説明した。この場合において、検者が各スライスの位置関係を目視で確認しながら、各スライスの位置を調節するための手動調節手段が設けられていてもよい。例えば、制御部800は、初期配置の完了後、モニタ850に複数のスライスを初期配置の位置関係で並べて表示すると共に、初期配置されたスライスの少なくとも1つの位置関係を調整するための信号を、操作入力部802から受け付けるようにしてもよい。そして、制御部800は、操作入力部802からの信号に応じて初期配置されたスライスの位置関係を調節するようにしてもよい。例えば、固視不良の眼(例えば、中心視野が欠けている眼)では、スライスの正確な取得位置を特定できず、取得位置情報に基づく初期配置を精度よく行うことが困難な場合がある。このような場合に、初期配置におけるスライスの位置を手動で調節し、配置精度を高めることができるので、良好なパノラマ画像が得られやすくなる。   For example, in the above embodiment, the case where the control unit 800 initially arranges a plurality of slices has been described. In this case, manual adjustment means may be provided for the examiner to adjust the position of each slice while visually checking the positional relationship of each slice. For example, after the initial arrangement is completed, the control unit 800 displays a plurality of slices side by side in the initial arrangement positional relationship on the monitor 850, and a signal for adjusting at least one positional relationship of the initially arranged slices. You may make it accept from the operation input part 802. FIG. Then, the control unit 800 may adjust the positional relationship of the initially arranged slices according to the signal from the operation input unit 802. For example, in an eye with poor fixation (for example, an eye lacking the central visual field), the accurate acquisition position of the slice cannot be specified, and it may be difficult to accurately perform the initial arrangement based on the acquisition position information. In such a case, it is possible to manually adjust the position of the slice in the initial arrangement and improve the arrangement accuracy, so that a good panoramic image can be easily obtained.

また、例えば、N枚のスライスを一体に接合するためには、少なくともN−1回の画像接合処理が行われる必要がある。しかし、例えば、画像接合の優先順位がN−1番目までにあるペアの一致度が、閾値よりも低い場合には、撮影装置1は、マッチングが良好に行われなかった旨を検者に知らせ、例えば、手動によるスライスの初期配置の再調整、および、パノラマ画像に使用するスライスの再選択を、促してもよい。   Further, for example, in order to join N slices together, it is necessary to perform at least N-1 times of image joining processing. However, for example, when the matching degree of the pair having the priority of image joining up to the (N-1) th is lower than the threshold, the imaging apparatus 1 informs the examiner that the matching has not been performed well. For example, manual readjustment of the initial placement of the slices and reselection of the slices to be used for the panoramic image may be prompted.

また、上記実施形態では、より一致度の高いペアから順に(つまり、一致度順に)、各スライスの接合が行われる場合について説明したが、必ずしもこれに限られるものではない。例えば、各ペアを、ペアの一致度の高さ別にグループ分けし、より一致度の高いグループに含まれるペアから優先的に画像接合処理が行われる構成であってもよい。この場合、グループ内における画像接合処理の優先順位は、例えば、一致度に応じて設定されてもよいし、アトランダムであってもよい。なお、グループ分けによって、例えば、2つのグループが設定されてもよいし、3つ以上のグループが設定されてもよい(例えば、一致度が高いペアで構成される第1のグループと、第1のグループによりも一致度が低いペアで構成される第2のグループと、更に、第2のグループよりも一致度が低いペアで構成される第3のグループとに分けてもよい。)
また、例えば、各ペアの結合の順序は、各ペアの一致度だけではなく、そのペアにおけるスライス間の重なりの面積を考慮して定められてもよい。2つのスライスが重なる領域の面積が一定以上ある場合には、その2つのスライスの結合箇所の画質が安定する。そこで、制御部800は、パノラマ画像を形成する際に、ペアとなるスライスにおいて重複部分の面積が閾値よりも少ないペアについては、画像接合処理を行う優先順位を、一致度だけで定められる優先順位(例えば、一致度順に定められる優先順位)に対して低下させてもよい。優先順位を低下させた場合、結果として、そのペアに対する画像接合処理(およびマッチング)が行われなくてもよいし、画像接合処理の順序が、一致度順で定められる順序に対して遅い順序とされてもよい。重複部分の面積が閾値よりも少ないペアについては、画像接合処理を行う優先順位を低く設定することによって、安定して結合されるペアが優先的に結合されるので、良好なパノラマ画像が得られやすくなる。
Moreover, although the said embodiment demonstrated the case where joining of each slice was performed in order from a pair with higher matching degree (namely, order of matching degree), it is not necessarily restricted to this. For example, the configuration may be such that each pair is grouped according to the matching degree of the pair, and the image joining process is performed preferentially from the pairs included in the group having a higher matching degree. In this case, the priority of the image joining process in the group may be set according to the degree of coincidence or may be at random. Note that, by grouping, for example, two groups may be set, or three or more groups may be set (for example, the first group composed of a pair having a high degree of coincidence and the first group (You may divide into the 2nd group comprised by a pair whose matching degree is lower than this group, and the 3rd group constituted by a pair whose matching degree is lower than the 2nd group.)
Further, for example, the order of coupling of each pair may be determined in consideration of not only the matching degree of each pair but also the area of overlap between slices in that pair. When the area of the region where the two slices overlap is greater than a certain level, the image quality at the joining point of the two slices is stabilized. Therefore, when the panorama image is formed, the control unit 800 sets the priority for performing the image joining process for the pair whose overlapping area is smaller than the threshold in the paired slices based on the matching degree only. (For example, the priority order determined in the order of coincidence) may be lowered. When the priority is lowered, as a result, the image joining process (and matching) for the pair may not be performed, and the order of the image joining process is slower than the order determined by the matching degree order. May be. For pairs whose overlap area is less than the threshold, by setting the priority for performing image joining processing to a low level, pairs that are stably combined are preferentially combined, so a good panoramic image can be obtained. It becomes easy.

また、上記実施形態では、位相限定相関法を用いてスライスをマッチングする場合について説明したが、上記の相関マップと同様の情報が得られればよく、必ずしもこれに限定されるものではない。マッチング法としては、例えば、公知のテンプレートマッチング、および画像の特徴点によるマッチング等が利用されてもよい。また、上記実施形態における位相限定相関法(POC)は、平行移動によるマッチングを行う方法であってもよいし、回転不変位相限定相関法(RIPOC)であってもよい。   In the above-described embodiment, the case of matching slices using the phase-only correlation method has been described. However, the same information as that in the above-described correlation map may be obtained, and the present invention is not necessarily limited thereto. As a matching method, for example, known template matching, matching by image feature points, or the like may be used. Further, the phase only correlation method (POC) in the above embodiment may be a method of matching by parallel movement or may be a rotation invariant phase only correlation method (RIPOC).

また、上記実施形態では、制御部800は、マッチングにおいて、ペアとなるスライスの一方(一方の位相画像)をテンプレートとし,且つ,他方(他方の位相画像)をテンプレートがマッチングされる参照画像とした場合に得られる相関マップを、テンプレートと参照画像の関係をペアとなる静止画において入れ替えて、2種類取得したうえで、更に、その2種類のうち一方の相関マップを鏡面対称に反転させた反転マップと、他方の相関マップと、の積算結果から前記一致度を得る場合について説明した。しかし、次のような計算手法が提案されており、これを用いることもできる。該計算手法では、2つの位相画像をフーリエ変換によって周波数空間に変換し、変換後の両者の積を求め、積を逆フーリエ変換する。この時、周波数空間を、画像の輪郭情報に限定して、逆変換することによって、相関マップのピーク位置精度を向上できる。   In the above embodiment, the control unit 800 uses one of the paired slices (one phase image) as a template and the other (the other phase image) as a reference image to be matched with the template in the matching. The correlation map obtained in this case is replaced by the relationship between the template and the reference image in the paired still images, and two types are acquired. Further, one of the two types is inverted by mirror-symmetrically inverting one of the correlation maps. A case has been described in which the degree of coincidence is obtained from the integration result of the map and the other correlation map. However, the following calculation method has been proposed and can be used. In this calculation method, two phase images are converted into a frequency space by Fourier transformation, a product of both after the transformation is obtained, and the product is subjected to inverse Fourier transformation. At this time, the peak position accuracy of the correlation map can be improved by performing inverse transformation while limiting the frequency space to the contour information of the image.

また、上記実施形態において、撮影装置1がスライスを取得する際に、目標とする取得位置は、制御部800によって自動的に設定される場合について説明したが、必ずしもこれに限られるものではなく、検者によって手動で設定されてもよい。また、検者が手動で目標とするスライスの取得位置を指示する場合、取得位置情報は、例えば、静止画の取得位置を指示するために操作入力部802が操作されたときの操作信号と対応する取得位置を示す情報であってもよい。   Further, in the above-described embodiment, a case has been described in which the target acquisition position is automatically set by the control unit 800 when the imaging apparatus 1 acquires a slice. It may be set manually by the examiner. In addition, when the examiner manually designates the target slice acquisition position, the acquisition position information corresponds to, for example, an operation signal when the operation input unit 802 is operated to instruct the still image acquisition position. The information which shows the acquisition position to perform may be sufficient.

また、上記実施形態では、各スライスの取得位置情報は、第2撮影ユニット200によって得られる広角の眼底画像に基づいて得られる場合について説明したが、必ずしもこれに限定されるものではない。例えば、スレイスの取得タイミング毎に前眼部観察ユニット700を介して得られる前眼部画像に基づいて取得位置情報が得られてもよい。また、眼科装置1が、被検眼の固視方向がそれぞれ異なる複数の固視標を有する構成であれば、各スライスの撮影に使用した固視標の点灯情報も、取得位置情報として利用可能である。   In the above embodiment, the acquisition position information of each slice has been described based on a wide-angle fundus image obtained by the second imaging unit 200. However, the present invention is not necessarily limited thereto. For example, the acquisition position information may be obtained based on the anterior ocular segment image obtained via the anterior ocular segment observation unit 700 at each slate acquisition timing. Further, if the ophthalmologic apparatus 1 has a plurality of fixation targets having different fixation directions of the eye to be examined, lighting information of the fixation target used for photographing each slice can also be used as acquisition position information. is there.

また、例えば、スライスの初期配置が制御部800によって自動的に行われる構成においては、複数ペアの接合の順序は、例えば、ペアを形成する2枚のスライスの照合度に応じて設定されてもよく、このとき、照合度は、前述のペアにおける一致度とは異なるパラメータであってもよい。本開示において、照合度は、マッチングの精度に(換言すれば、照合の精度)に影響するパラメータであって、例えば、前述の一致度、および2枚のスライスが重なり合う領域の面積等を含み得る概念である。このような構成でも、各スライスの精度のよい初期配置によってパノラマ画像の画質を向上させる効果については、上記実施形態と同様に享受できる。また、パノラマ画像の作成処理において検者の負担を抑制する効果についても、本構成の装置は、上記実施形態と同様に享受できる。   Further, for example, in the configuration in which the initial placement of slices is automatically performed by the control unit 800, the order of joining a plurality of pairs may be set according to, for example, the matching degree of two slices forming a pair. In this case, the matching degree may be a parameter different from the matching degree in the pair described above. In the present disclosure, the matching degree is a parameter that affects the matching accuracy (in other words, the matching accuracy), and may include, for example, the above-described matching degree and the area of an area where two slices overlap. It is a concept. Even in such a configuration, the effect of improving the image quality of the panoramic image by the accurate initial arrangement of each slice can be enjoyed in the same manner as in the above embodiment. Further, the effect of suppressing the burden on the examiner in the panoramic image creation process can be enjoyed in the same way as in the above embodiment.

また、上記実施形態においては、撮影装置1の制御系にて、パノラマ画像を作成する場合について説明したが、必ずしもこれに限られるものではない。例えば、撮影装置1とは別体の画像処理装置においてパノラマ画像が作成されてもよい。画像処理装置としては、撮影装置1とは別体の眼科装置が持つ処理装置であってもよいし、汎用のコンピュータ(例えば、パーソナルコンピュータ)であってもよい。画像処理装置は、例えば、撮影素子1が有する受光素子56からの受光信号に基づく第1眼底画像のスライスであって、被検眼における取得位置が異なるスライスを、複数枚取得し、取得したスライスを繋ぎあわせてパノラマ画像を形成することができる。   Moreover, although the case where a panoramic image is created in the control system of the photographing apparatus 1 has been described in the above embodiment, the present invention is not necessarily limited thereto. For example, a panoramic image may be created in an image processing device separate from the image capturing device 1. The image processing apparatus may be a processing apparatus included in an ophthalmic apparatus separate from the photographing apparatus 1 or a general-purpose computer (for example, a personal computer). For example, the image processing apparatus acquires a plurality of slices of the first fundus image based on the light reception signal from the light receiving element 56 included in the imaging element 1 and having different acquisition positions in the eye to be examined. A panoramic image can be formed by stitching together.

この場合、画像処理装置のプロセッサによって実行される画像処理プログラムが格納されたハードディスク等に、上記実施形態の撮影装置1によって実行されるパノラマ画像生成処理(S5)を、画像処理装置のプロセッサに実行させる画像処理プログラムを用意すればよい。この場合も、上記実施形態の撮影装置1と同様に、パノラマ画像を生成できる。   In this case, the processor of the image processing apparatus executes the panoramic image generation process (S5) executed by the photographing apparatus 1 of the above-described embodiment on a hard disk or the like that stores an image processing program executed by the processor of the image processing apparatus. An image processing program to be executed may be prepared. In this case as well, a panoramic image can be generated in the same manner as the imaging device 1 of the above embodiment.

なお、上記実施形態では、被検眼Eの波面収差を測定するために、眼科撮影装置1の光学系に波面センサ73が設けられた場合について説明したが、必ずしもこれに限られるものではなく、被検眼の波面収差を眼底からの反射光に基づいて測定する構成を備えていればよい。例えば、PhaseDiversity法を用いて、波面収差を測定する場合が考えられる。この方法は、対象の光学系(ここでは、被検眼)に、PhaseDiversityと呼ばれる既知の波面収差を持つ測定光を、わざと与えたときに得られる画像を用いて画像処理を行うことによって、対象の光学系の波面収差における波面収差を推定するものである。PhaseDiversityを持つ測定光は、例えば、波面補償デバイス73を所定の状態に制御することによって、生成できる。勿論、他の手法で生成されてもよい。   In the above embodiment, the case where the wavefront sensor 73 is provided in the optical system of the ophthalmologic photographing apparatus 1 in order to measure the wavefront aberration of the eye E is not limited to this. What is necessary is just to have the structure which measures the wavefront aberration of an optometry based on the reflected light from a fundus. For example, a case where the wavefront aberration is measured using the Phase Diversity method is conceivable. This method performs image processing using an image obtained when a measurement light having a known wavefront aberration called Phase Diversity is intentionally applied to the target optical system (here, the eye to be examined). The wavefront aberration in the wavefront aberration of the optical system is estimated. Measurement light having Phase Diversity can be generated by controlling the wavefront compensation device 73 to a predetermined state, for example. Of course, it may be generated by other methods.

また、上記実施形態では、眼底を形成する細胞画像の静止画からパノラマ画像を形成する場合について説明したが、被検眼における眼底以外の部位の細胞画像(静止画)からパノラマ画像を生成する場合においても、本開示の技術が使用されてもよい。例えば、場合に本開示の技術を用いて、角膜内皮細胞画像のパノラマ画像を生成してもよい。   In the above-described embodiment, the case where the panoramic image is formed from the still image of the cell image forming the fundus has been described. However, in the case where the panoramic image is generated from the cell image (still image) of the part other than the fundus in the eye to be examined. Alternatively, the techniques of this disclosure may be used. For example, a panoramic image of a corneal endothelial cell image may be generated using the technique of the present disclosure in some cases.

1 撮影装置
800 制御部
801 記憶部
803 画像処理IC
B→A,TA→B 相関マップ
A→B 反転マップ
1 photographing apparatus 800 control unit 801 storage unit 803 image processing IC
TB → A , TA → B correlation map T TA → B inversion map

Claims (10)

被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を得る眼科用画像処理装置であって、
前記複数の静止画から前記静止画のペアを取得するペア取得手段と、
前記ペアに含まれる2枚の前記静止画の重複部分であって,それぞれの前記静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関して前記ペアをマッチングさせつつ前記重複部分に関する一致度を取得するマッチング手段と、
前記ペア取得手段によって取得される前記複数のペアに対して、ペアとなる静止画同士を接合する画像接合処理を、前記複数のペアにおいて前記画像接合処理を行う優先順位であって、前記マッチング手段によって得られる各ペアの一致度に応じた優先順位で行うことによって前記パノラマ画像を生成する画像接合手段と、
を備える眼科用画像処理装置。
An ophthalmic image processing apparatus that obtains a panoramic image by joining a plurality of still images of cell images that form a predetermined part of an eye to be examined,
Pair acquisition means for acquiring a pair of the still images from the plurality of still images;
The overlapping portion of the two still images included in the pair is matched with the pair with respect to the overlapping portion formed when the still images are arranged on a plane in a positional relationship at the predetermined portion. While matching means for obtaining the degree of coincidence regarding the overlapping portion,
For the plurality of pairs acquired by the pair acquisition means, image joining processing for joining the still images to be paired is a priority order for performing the image joining processing in the plurality of pairs, and the matching means Image joining means for generating the panoramic image by performing in priority order according to the degree of matching of each pair obtained by
An ophthalmic image processing apparatus.
前記画像接合手段は、
第1のペアと、前記第1のペアの前記一致度である第1の一致度に対して高い一致度をそれぞれ示し、且つ、前記第1のペアとは前記静止画の組み合わせがそれぞれ異なる2つ以上のペアからなるペア群と、を用いて前記パノラマ画像を生成する場合において、
前記ペア群の各ペアに対する前記画像接合処理によって、前記第1のペアに含まれる2枚の前記静止画が一体に接合される場合には、前記第1のペアに対して前記画像接合処理を行わず、
前記ペア群の各ペアに対する前記画像接合処理によって、前記第1のペアとなる2枚の前記静止画が一体に接合されない場合には、前記第1のペアに対して前記画像接合処理を行うことを特徴とする請求項1記載の眼科用画像処理装置。
The image joining means includes
Each of the first pair and the first pair, which is the first matching degree that is the matching degree of the first pair, shows a high degree of coincidence, and the first pair has a different combination of the still images 2 When generating the panoramic image using a pair group consisting of two or more pairs,
When the two still images included in the first pair are joined together by the image joining process for each pair of the pair group, the image joining process is performed on the first pair. Not
When the two images as the first pair are not integrally joined by the image joining process for each pair of the pair group, the image joining process is performed on the first pair. The ophthalmic image processing apparatus according to claim 1.
前記マッチング手段は、
前記ペアとなる前記静止画の一方をテンプレートとし,且つ,他方を前記テンプレートがマッチングされる参照画像とした場合に得られる相関マップを、テンプレートと参照画像の関係を前記ペアとなる静止画において入れ替えて、2種類取得し、
その2種類のうち一方の相関マップを鏡面対称に反転させた反転マップと、他方の相関マップと、の積算結果から前記一致度を得ることを特徴とする請求項1又は2に記載の眼科用画像処理装置。
The matching means includes
The correlation map obtained when one of the still images in the pair is a template and the other is a reference image to which the template is matched is replaced with the still image in the pair. Get two types,
3. The ophthalmic use according to claim 1, wherein the degree of coincidence is obtained from an integration result of an inverted map obtained by inverting one of the two correlation maps in mirror symmetry and the other correlation map. 4. Image processing device.
前記画像接合手段は、前記ペア取得手段によって取得される前記複数のペアにおいて、より一致度の高い前記ペアから順に前記画像接合処理を行うことを特徴とする請求項1から3のいずれかに記載の眼科用画像処理装置。   4. The image joining unit according to claim 1, wherein, in the plurality of pairs acquired by the pair acquisition unit, the image joining process is performed in order from the pair having a higher matching degree. 5. Ophthalmic image processing apparatus. 前記画像接合手段は、前記ペア取得手段によって取得される複数のペアを、ペアの一致度の高さ別に、各々に1以上のペアを含む複数のグループに分け、前記画像接合処理をより高い一致度を示すグループから順番に行うことを特徴とする請求項1から3のいずれかに記載の眼科用画像処理装置。   The image joining unit divides the plurality of pairs acquired by the pair obtaining unit into a plurality of groups each including one or more pairs according to the degree of matching degree of the pairs, and the image joining process is more highly matched. The ophthalmic image processing apparatus according to claim 1, wherein the ophthalmic image processing apparatus performs the processing in order from a group indicating the degree. 前記画像接合手段は、前記ペア取得手段によって取得される前記複数のペアのうち、前記重複部分の面積が閾値に対して少ないペアに対して、一致度だけに応じた第1の優先順位と比べて低い第2の優先順位で前記画像接合処理を行うことを特徴とする請求項1から5のいずれかに記載の眼科用画像処理装置。   The image joining means is compared with the first priority order according to the degree of coincidence only for the pair of the plurality of pairs acquired by the pair acquisition means, where the area of the overlapping portion is smaller than the threshold. The ophthalmic image processing apparatus according to claim 1, wherein the image joining process is performed with a low second priority. 前記マッチング手段は、予め記憶部に記憶されている複数の前記静止画の前記所定部位での位置関係に関する情報を読み出し、前記複数の静止画が前記平面上に前記取得位置情報に基づいて並べられる場合に形成される前記重複部分に関して前記マッチングを行うことを特徴とする請求項1から6のいずれかに記載の眼科用画像処理装置。   The matching unit reads information on the positional relationship of the plurality of still images stored in advance in the storage unit, and the plurality of still images are arranged on the plane based on the acquired position information. The ophthalmic image processing apparatus according to claim 1, wherein the matching is performed with respect to the overlapping portion formed in a case. 被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を得る眼科用画像処理装置であって、
予め記憶部に記憶されている複数の前記静止画を読み出し、前記複数の静止画から前記静止画のペアを取得するペア取得手段と、
前記記憶部において予め記憶されている複数の前記静止画の前記所定部位での位置関係に関する情報を用いて、前記複数の静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関する照合度を取得する照合度取得手段と、
前記ペアとなる2枚の静止画を接合させる画像接合処理を、複数の前記ペアの中で前記画像接合処理が行われる順序であって、前記照合度に基づいて定められる順序で複数の前記ペアに対して行うことによって前記パノラマ画像を生成する画像接合手段と、
を備える眼科用画像処理装置。
An ophthalmic image processing apparatus that obtains a panoramic image by joining a plurality of still images of cell images that form a predetermined part of an eye to be examined,
A pair acquisition unit that reads a plurality of the still images stored in the storage unit in advance, and acquires a pair of the still images from the plurality of still images;
Formed when the plurality of still images are arranged on a plane according to the positional relationship at the predetermined portion using information on the positional relationship at the predetermined portion of the plurality of still images stored in advance in the storage unit A matching degree acquisition means for acquiring a matching degree related to the overlapped portion,
The image joining process for joining the two still images to be the pair is an order in which the image joining process is performed in the plurality of pairs, and the plurality of pairs in the order determined based on the matching degree Image joining means for generating the panoramic image by performing
An ophthalmic image processing apparatus.
被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を生成するための眼科用画像処理プログラムであって、
眼科用画像処理装置のプロセッサに実行されることによって、
前記複数の静止画から前記静止画のペアを取得するペア取得ステップと、
前記ペアに含まれる2枚の前記静止画の重複部分であって,それぞれの前記静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関して前記ペアをマッチングさせつつ前記重複部分に関する一致度を取得するマッチングステップと、
前記ペア取得ステップによって取得される前記複数のペアに対して、ペアとなる静止画同士を接合する画像接合処理を、前記複数のペアにおいて前記画像接合処理を行う優先順位であって、前記マッチング手段によって得られる各ペアの一致度に応じた優先順位で行うことによって前記パノラマ画像を生成する画像接合ステップと、
を前記眼科用画像処理装置に実行させることを特徴とする眼科用画像処理プログラム。
An ophthalmic image processing program for generating a panoramic image by joining a plurality of still images of cell images forming a predetermined part of an eye to be examined,
By being executed by the processor of the ophthalmic image processing apparatus,
A pair acquisition step of acquiring a pair of the still images from the plurality of still images;
The overlapping portion of the two still images included in the pair is matched with the pair with respect to the overlapping portion formed when the still images are arranged on a plane in a positional relationship at the predetermined portion. A matching step for obtaining a degree of coincidence regarding the overlapping portion,
An image joining process for joining the still images to be paired with the plurality of pairs obtained by the pair obtaining step is a priority order for performing the image joining process in the plurality of pairs, and the matching unit An image joining step for generating the panoramic image by performing in a priority order according to the matching degree of each pair obtained by:
Is executed by the ophthalmic image processing apparatus.
被検眼の所定部位を形成する細胞画像の静止画を複数枚繋ぎあわせることによってパノラマ画像を生成するための眼科用画像処理プログラムであって、
眼科用画像処理装置のプロセッサに実行されることによって、
予め記憶部に記憶されている複数の前記静止画を読み出し、前記複数の静止画から前記静止画のペアを取得するペア取得ステップと、
前記記憶部において予め記憶されている複数の前記静止画の前記所定部位での位置関係に関する情報を用いて、前記複数の静止画が前記所定部位での位置関係で平面上に並べられる場合に形成される重複部分に関する照合度を取得する照合度取得ステップと、
前記ペアとなる2枚の静止画を接合させる画像接合処理を、複数の前記ペアの中で前記画像接合処理が行われる順序であって、前記照合度に基づいて定められる順序で複数の前記ペアに対して行うことによって前記パノラマ画像を生成する画像接合ステップと、
を前記眼科用画像処理装置に実行させることを特徴とする眼科用画像処理プログラム。
An ophthalmic image processing program for generating a panoramic image by joining a plurality of still images of cell images forming a predetermined part of an eye to be examined,
By being executed by the processor of the ophthalmic image processing apparatus,
A pair acquisition step of reading a plurality of the still images stored in the storage unit in advance, and acquiring a pair of the still images from the plurality of still images;
Formed when the plurality of still images are arranged on a plane according to the positional relationship at the predetermined portion using information on the positional relationship at the predetermined portion of the plurality of still images stored in advance in the storage unit A matching level acquisition step for acquiring a matching level for the overlapping portion to be performed;
The image joining process for joining the two still images to be the pair is an order in which the image joining process is performed in the plurality of pairs, and the plurality of pairs in the order determined based on the matching degree An image joining step for generating the panoramic image by performing
Is executed by the ophthalmic image processing apparatus.
JP2014240083A 2014-11-27 2014-11-27 Ophthalmic image processing apparatus and ophthalmic image processing program Expired - Fee Related JP6515504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014240083A JP6515504B2 (en) 2014-11-27 2014-11-27 Ophthalmic image processing apparatus and ophthalmic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014240083A JP6515504B2 (en) 2014-11-27 2014-11-27 Ophthalmic image processing apparatus and ophthalmic image processing program

Publications (3)

Publication Number Publication Date
JP2016101235A true JP2016101235A (en) 2016-06-02
JP2016101235A5 JP2016101235A5 (en) 2018-01-18
JP6515504B2 JP6515504B2 (en) 2019-05-22

Family

ID=56087750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014240083A Expired - Fee Related JP6515504B2 (en) 2014-11-27 2014-11-27 Ophthalmic image processing apparatus and ophthalmic image processing program

Country Status (1)

Country Link
JP (1) JP6515504B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012213513A (en) * 2011-03-31 2012-11-08 Nidek Co Ltd Ophthalmic photographing apparatus
JP2013058124A (en) * 2011-09-09 2013-03-28 Sony Corp Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012213513A (en) * 2011-03-31 2012-11-08 Nidek Co Ltd Ophthalmic photographing apparatus
JP2013058124A (en) * 2011-09-09 2013-03-28 Sony Corp Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP6515504B2 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
JP5259484B2 (en) Fundus photographing device
US8770752B2 (en) Ophthalmic apparatus, ophthalmic system, processing apparatus, and blood flow velocity calculation method
JP6354979B2 (en) Fundus photographing device
JP5847510B2 (en) Image processing apparatus and image processing method
JP2012213513A (en) Ophthalmic photographing apparatus
JP6442960B2 (en) Fundus imaging device with wavefront compensation
US10939817B2 (en) Fundus imaging apparatus and imaging method
JP2014045907A (en) Ophthalmologic apparatus, control method for the same, and program
WO2012002406A1 (en) Optical coherence tomography and method thereof
US10786153B2 (en) Ophthalmologic imaging apparatus
JP5879830B2 (en) Fundus imaging device with wavefront compensation
JP6349878B2 (en) Ophthalmic photographing apparatus, ophthalmic photographing method, and ophthalmic photographing program
JP5654271B2 (en) Ophthalmic equipment
WO2019225290A1 (en) Imaging device and method for controlling same
JP2019013362A (en) Ophthalmologic apparatus
JP6422629B2 (en) Fundus photographing device
JP2013198721A (en) Imaging apparatus
JP2019201951A (en) Imaging apparatus and control method thereof
JP2013070941A (en) Ophthalmologic photographing apparatus
JP2016067764A (en) Fundus photographing apparatus with wavefront compensation
JP2011115301A (en) Fundus imaging apparatus
JP5727197B2 (en) Fundus imaging device with wavefront compensation
JP7129162B2 (en) fundus imaging device
JP6102369B2 (en) Fundus photographing device
JP6515504B2 (en) Ophthalmic image processing apparatus and ophthalmic image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190401

R150 Certificate of patent or registration of utility model

Ref document number: 6515504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees