JP6923392B2 - Ophthalmic equipment - Google Patents
Ophthalmic equipment Download PDFInfo
- Publication number
- JP6923392B2 JP6923392B2 JP2017163458A JP2017163458A JP6923392B2 JP 6923392 B2 JP6923392 B2 JP 6923392B2 JP 2017163458 A JP2017163458 A JP 2017163458A JP 2017163458 A JP2017163458 A JP 2017163458A JP 6923392 B2 JP6923392 B2 JP 6923392B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- eye
- fundus
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0075—Apparatus for testing the eyes; Instruments for examining the eyes provided with adjusting devices, e.g. operated by control lever
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/117—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/13—Ophthalmic microscopes
- A61B3/132—Ophthalmic microscopes in binocular arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/15—Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
- A61B3/152—Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
Description
この発明は、眼科装置に関する。 The present invention relates to an ophthalmic apparatus.
被検眼を撮影する眼科装置として、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)を用いた装置や眼底カメラや走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:以下、SLO)やスリットランプなどがある。中でも、レーザー光源等からの光ビームを用いて対象眼の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。例えば、眼科分野においては、被検眼の前眼部等の画像を形成したり眼内距離を計測したりする装置が実用化されている。 As an ophthalmic device for photographing the eye to be inspected, there are a device using optical coherence tomography (hereinafter, OCT), a fundus camera, a scanning laser optical probe (hereinafter, SLO), a slit lamp, and the like. .. Among them, OCT that forms an image showing the surface morphology and the internal morphology of the target eye by using a light beam from a laser light source or the like is attracting attention. Since OCT does not have the invasiveness to the human body like X-ray CT, it is expected to be applied especially in the medical field and the biology field. For example, in the field of ophthalmology, a device for forming an image of the anterior segment of the eye to be inspected and measuring the intraocular distance has been put into practical use.
このような眼科装置において、トラッキングは、被検眼の眼球運動にかかわらず高精細な画像を取得したり高精度に計測したりするための重要な技術である。トラッキングとは、被検眼の眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置等を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。このようなトラッキングに関する技術については、種々提案されている。 In such an ophthalmic apparatus, tracking is an important technique for acquiring a high-definition image and measuring with high accuracy regardless of the eye movement of the eye to be inspected. Tracking is to move the device optical system according to the eye movement of the eye to be inspected. When tracking, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by making the position of the optical system of the device follow the movement of the eyeball. Various techniques related to such tracking have been proposed.
例えば、特許文献1には、眼底カメラを用いて眼底のベース画像及びターゲット画像を取得し、ベース画像及びターゲット画像に対して位相限定相関処理を施して微少な位置ずれ量を求め、求められた位置ずれ量に基づいてトラッキング制御を行う眼科装置が開示されている。
For example, in
また、例えば、特許文献2には、前眼部のトラッキングを開始してSLOのフォーカス調整を行った後、眼底のトラッキングを開始してコヒーレンスゲート調整を行うことで、調整に要する時間を短縮する手法が開示されている。 Further, for example, in Patent Document 2, tracking of the anterior segment of the eye is started to adjust the focus of the SLO, and then tracking of the fundus is started to adjust the coherence gate, thereby shortening the time required for the adjustment. The method is disclosed.
被検眼の前眼部の計測や撮影を行う場合、前眼部像を取得し、取得された前眼部像を用いてトラッキング制御が行われる。しかしながら、前眼部像には、眼球運動で移動する瞳孔領域の他に移動しない瞼や睫毛等が描出されるため、位相限定相関処理を用いて位置ずれ量を求めることができない。従って、従来の眼科装置では、被検眼の眼底に対する高精度なトラッキングを実行可能であるが、前眼部に対してトラッキングを行うことができなかった。 When measuring or photographing the anterior segment of the eye to be inspected, an anterior segment image is acquired and tracking control is performed using the acquired anterior segment image. However, since the non-moving eyelids, eyelashes, and the like are depicted in the anterior segment image in addition to the pupil region that moves due to eye movement, the amount of misalignment cannot be determined by using phase-limited correlation processing. Therefore, with the conventional ophthalmic apparatus, it is possible to perform highly accurate tracking on the fundus of the eye to be inspected, but it is not possible to perform tracking on the anterior segment of the eye.
本発明は、このような事情に鑑みてなされたものであり、その目的は、計測部位に応じて好適にトラッキングするための技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for suitably tracking according to a measurement site.
実施形態の第1態様は、被検眼の前眼部又は眼底のデータを収集するための光学系と、前記前眼部又は前記眼底を撮影する撮影部と、前記被検眼と前記光学系とを相対的に移動する移動機構と、前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御し、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御する制御部と、を含む眼科装置である。 In the first aspect of the embodiment, an optical system for collecting data on the anterior segment or fundus of the eye to be inspected, an imaging unit for photographing the anterior segment or fundus, and the eye to be inspected and the optical system are provided. The eye to be inspected and the optical system based on a moving mechanism that moves relatively and an anterior segment image obtained by the imaging unit when the optical system is in the anterior segment mode for collecting data of the anterior segment. The movement mechanism is controlled so as to maintain the positional relationship of the eye, and the positional relationship is maintained based on the fundus image obtained by the imaging unit when the optical system is in the fundus mode for collecting the data of the fundus. It is an ophthalmologic apparatus including a control unit that controls the movement mechanism.
また、実施形態の第2態様は、第1態様において、前記前眼部像における特徴領域を特定する解析部を含み、前記前眼部モードのとき、前記制御部は、前記前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記移動機構を制御してもよい。 In addition, the second aspect of the embodiment includes an analysis unit that identifies a characteristic region in the anterior segment image in the first aspect, and in the anterior segment mode, the control unit is in the anterior segment image. The moving mechanism may be controlled based on the displacement of the feature region with respect to the reference position.
また、実施形態の第3態様は、第1態様において、前記被検眼に対して輝点を投影する輝点投影系と、前記撮影部により取得された前眼部像における前記輝点に基づく輝点像を特定する解析部と、を含み、前記前眼部モードのとき、前記制御部は、前記前眼部像における基準位置に対する前記輝点像の変位に基づいて前記移動機構を制御してもよい。 Further, in the third aspect of the embodiment, in the first aspect, a bright spot projection system that projects a bright spot onto the eye to be inspected and a bright spot based on the bright spot in the anterior eye portion image acquired by the photographing unit. In the anterior segment mode, which includes an analysis unit that identifies a point image, the control unit controls the movement mechanism based on the displacement of the bright spot image with respect to a reference position in the anterior segment image. May be good.
また、実施形態の第4態様は、第1態様において、前記撮影部は、前記前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含み、前記撮影部により実質的に同時に得られた2以上の前眼部像を解析することで、前記被検眼の3次元位置を求める解析部を含み、前記前眼部モードのとき、前記制御部は、前記被検眼に対応する基準位置に対する前記3次元位置の変位に基づいて前記移動機構を制御して前記被検眼と前記光学系とを3次元的に相対移動してもよい。 Further, in the fourth aspect of the embodiment, in the first aspect, the photographing unit includes two or more optometry cameras that photograph the anterior eye portion from different directions substantially at the same time, and the photographing unit substantially. Including an analysis unit that obtains a three-dimensional position of the eye to be inspected by analyzing two or more anterior segment images obtained at the same time, the control unit corresponds to the eye to be inspected in the anterior segment mode. The movement mechanism may be controlled based on the displacement of the three-dimensional position with respect to the reference position to move the eye to be inspected and the optical system three-dimensionally relative to each other.
また、実施形態の第5態様は、第2態様〜第4態様のいずれかにおいて、前記撮影部は、互いに異なるタイミングで第1画像と第2画像とを取得し、前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、を含み、前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御してもよい。 Further, in the fifth aspect of the embodiment, in any of the second to fourth aspects, the photographing unit acquires the first image and the second image at different timings from each other, and the partial image in the second image. The first rotational movement amount calculation unit that calculates the first rotational movement amount between the first image and the corresponding partial image corresponding to the partial image in the first image, and the corresponding partial image based on the first rotational movement amount. Phase limitation with respect to the first alignment processing unit that aligns the image and the partial image in the rotational direction, and the corresponding partial image and the partial image that have been aligned by the first alignment processing unit. The control unit includes a first translation amount calculation unit that calculates a first translation amount between the corresponding partial image and the partial image by performing correlation processing, and in the anterior segment mode. Determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, moves the moving mechanism based on the first translation amount. You may control it.
また、実施形態の第6態様では、第5態様において、前記第1回転移動量算出部は、前記対応部分画像と前記部分画像とに対し位相限定相関処理を施すことにより前記第1回転移動量を算出してもよい。 Further, in the sixth aspect of the embodiment, in the fifth aspect, the first rotation movement amount calculation unit performs the phase-limited correlation processing on the corresponding partial image and the partial image to perform the first rotation movement amount. May be calculated.
また、実施形態の第7態様では、第2態様〜第6態様のいずれかにおいて、前記撮影部は、互いに異なるタイミングで前記被検眼の眼底の第3画像と第4画像とを取得し、前記第3画像と前記第4画像との間の第2回転移動量を算出する第2回転移動量算出部と、前記第2回転移動量に基づいて前記3画像と前記4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部と、前記第2位置合わせ処理部により位置合わせがなされた前記第3画像と前記第4画像とに対して位相限定相関処理を施すことにより、前記第3画像と前記第4画像との間の第2平行移動量を算出する第2平行移動量算出部と、を含み、前記眼底モードのとき、前記制御部は、前記第2平行移動量に基づいて前記移動機構を制御してもよい。 Further, in the seventh aspect of the embodiment, in any of the second to sixth aspects, the photographing unit acquires the third image and the fourth image of the fundus of the eye to be inspected at different timings, and the image is described. A second rotation movement amount calculation unit that calculates a second rotation movement amount between the third image and the fourth image, and a rotation between the three images and the four images based on the second rotation movement amount. The second alignment processing unit that aligns the directions, and the third image and the fourth image that have been aligned by the second alignment processing unit are subjected to phase-limited correlation processing to perform the phase-limited correlation processing. A second translation amount calculation unit for calculating a second translation amount between the third image and the fourth image is included, and in the fundus mode, the control unit uses the second translation amount. The movement mechanism may be controlled based on the above.
また、実施形態の第8態様では、第7態様において、前記解析部は、前記撮影部により取得された前記第3画像及び前記第4画像における特徴領域を特定し、前記制御部は、前記第2回転移動量及び前記第2平行移動量に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第3画像及び前記第4画像における前記特徴領域の変位に基づいて前記移動機構を制御してもよい。 Further, in the eighth aspect of the embodiment, in the seventh aspect, the analysis unit identifies the feature regions in the third image and the fourth image acquired by the photographing unit, and the control unit uses the control unit. It is determined whether or not the positional relationship can be maintained based on the two-rotational movement amount and the second parallel movement amount, and when it is determined that the positional relationship cannot be maintained, the third image and the said The movement mechanism may be controlled based on the displacement of the feature region in the fourth image.
また、実施形態の第9態様は、被検眼の複数の部位のデータを収集するための光学系と、前記複数の部位のいずれかを撮影する撮影部と、前記被検眼と前記光学系とを相対的に移動する移動機構と、前記撮影部により得られた前記光学系によるデータの収集部位に応じて、前記収集部位の画像に基づき前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御する制御部と、を含む眼科装置である。 Further, in the ninth aspect of the embodiment, an optical system for collecting data of a plurality of parts of the eye to be inspected, an imaging unit for photographing any of the plurality of parts, and the eye to be inspected and the optical system are provided. The positional relationship between the eye to be inspected and the optical system is maintained based on the image of the collection site according to the moving mechanism that moves relatively and the data collection site by the optical system obtained by the imaging unit. It is an ophthalmic apparatus including a control unit for controlling the movement mechanism.
なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 In addition, it is possible to arbitrarily combine the configurations according to the above-mentioned plurality of aspects.
本発明によれば、計測部位に応じて好適にトラッキングするための技術を提供することができる。 According to the present invention, it is possible to provide a technique for suitably tracking according to a measurement site.
この発明に係る眼科装置の実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。 An example of an embodiment of the ophthalmic apparatus according to the present invention will be described in detail with reference to the drawings. It should be noted that the description contents of the documents cited in this specification and arbitrary known techniques can be incorporated into the following embodiments.
実施形態に係る眼科装置は、少なくともOCTを実行する機能を備え、被測定物体に対してOCTを実行することにより被測定物体に関する情報を取得することが可能な計測装置である。以下、実施形態に係る眼科装置が、被測定物体としての生体眼に対してOCTを実行することにより生体眼を画像化する場合について説明するが、実施形態はこれに限定されない。例えば、実施形態に係る眼科装置は、生体眼に対してOCTを実行することにより眼軸長など生体眼の眼内距離を計測可能であってよい。 The ophthalmic apparatus according to the embodiment is a measuring apparatus having at least a function of executing OCT and capable of acquiring information about the object to be measured by executing OCT on the object to be measured. Hereinafter, the case where the ophthalmic apparatus according to the embodiment images the living eye by performing OCT on the living eye as the object to be measured will be described, but the embodiment is not limited to this. For example, the ophthalmic apparatus according to the embodiment may be capable of measuring the intraocular distance of the living eye such as the axial length by performing OCT on the living eye.
実施形態に係る眼科装置は、フーリエドメインOCTと眼底カメラとを組み合わせた眼科装置である。この眼科装置は、スウェプトソースOCTを実行する機能を備えているが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 The ophthalmic apparatus according to the embodiment is an ophthalmic apparatus that combines a Fourier domain OCT and a fundus camera. This ophthalmic device has the ability to perform swept source OCT, but embodiments are not limited to this. For example, the type of OCT is not limited to swept source OCT, and may be spectral domain OCT or the like. The swept source OCT divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and causes the return light of the measurement light passing through the object to be measured to interfere with the reference light to generate interference light. Then, this interference light is detected by a balanced photodiode or the like, and the detection data collected in response to the sweeping of the wavelength and the scanning of the measurement light is subjected to Fourier transform or the like to form an image. Spectral domain OCT divides the light from the low coherence light source into measurement light and reference light, and causes the return light of the measurement light that has passed through the object to be measured to interfere with the reference light to generate interference light. This is a method in which the spectral distribution is detected by a spectroscope and the detected spectral distribution is subjected to Fourier transform or the like to form an image.
実施形態に係る眼科装置には、眼底カメラの代わりに、走査型レーザー検眼鏡(SLO)や、スリットランプ顕微鏡や、前眼部撮影カメラや、手術用顕微鏡や、光凝固装置などが設けられてもよい。この明細書では、OCTによる計測を「OCT計測」と総称し、OCTによって取得される画像をOCT画像と総称し、測定光の光路を「測定光路」と表記し、参照光の光路を「参照光路」と表記することがある。 The ophthalmic apparatus according to the embodiment is provided with a scanning laser ophthalmoscope (SLO), a slit lamp microscope, an anterior ocular segment imaging camera, a surgical microscope, a photocoagulation apparatus, and the like, instead of the fundus camera. May be good. In this specification, the measurement by OCT is collectively referred to as "OCT measurement", the image acquired by OCT is collectively referred to as an OCT image, the optical path of measurement light is referred to as "measurement optical path", and the optical path of reference light is referred to as "reference". Sometimes referred to as "optical path".
[構成]
図1に示すように、実施形態に係る眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、OCTを実行するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するプロセッサを具備している。
[composition]
As shown in FIG. 1, the
本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等を含む処理回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In the present specification, the "processor" is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, a SPLD (Simple Program) It means a processing circuit including Programmable Logic Device), FPGA (Field Programmable Gate Array), and the like. The processor realizes the function according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example.
〔眼底カメラユニット〕
眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、例えば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、例えば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、例えばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 is provided with an optical system for acquiring a two-dimensional image (fundus image) showing the surface morphology of the fundus Ef of the eye E to be inspected. The fundus image includes an observation image, a photographed image, and the like. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near-infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near-infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be capable of acquiring images other than these, such as a fluorescein fluorescence image, an indocyanine green fluorescence image, and a spontaneous fluorescence image.
眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30とが設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を被検眼Eに導くとともに、被検眼Eを経由した測定光をOCTユニット100に導く。
The fundus camera unit 2 is provided with a chin rest and a forehead pad for supporting the face of the subject. Further, the fundus camera unit 2 is provided with an illumination
照明光学系10の観察光源11は、例えばハロゲンランプ又はLED(Light Emitting Diode)により構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。
The observation
観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、例えば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、前眼部からの観察照明光の反射光がCCDイメージセンサ35により検出され、当該反射光に基づく前眼部の観察画像が表示装置3に表示される。
The fundus reflected light of the observation illumination light is refracted by the
撮影光源15は、例えばキセノンランプ又はLEDにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。なお、撮影光学系30のピントが前眼部に合わせられている場合、前眼部からの観察照明光の反射光がCCDイメージセンサ38により検出され、当該反射光に基づく前眼部の画像(撮影画像)が表示装置3に表示される。
The photographing
LCD(Liquid Crystal Display)39は、固視標や視力測定用視標を表示する。固視標は被検眼Eを固視させるための視標であり、眼底撮影時やOCT計測時などに使用される。 The LCD (Liquid Crystal Display) 39 displays a fixation target and a visual acuity measurement target. The fixation target is a target for fixing the eye E to be inspected, and is used at the time of fundus photography, OCT measurement, and the like.
LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに照射される。LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。
A part of the light output from the
更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための視標(アライメント視標)を生成する。フォーカス光学系60は、被検眼Eに対してフォーカス(ピント)を合わせるための視標(スプリット視標)を生成する。
Further, the fundus camera unit 2 is provided with an alignment
アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に照射される。
The light (alignment light) output from the
アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、撮影合焦レンズ31を通過する。撮影合焦レンズ31を通過した角膜反射光は、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント視標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント視標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
The corneal reflected light of the alignment light passes through the
フォーカス光学系60は、照明光学系10の光路に沿って移動可能である。撮影合焦レンズ31は、フォーカス光学系60の移動に連動して撮影光学系30の光路に沿って移動可能である。フォーカス光学系60の反射棒67は、照明光路に対して挿脱可能である。
The focus
フォーカス調整を行う際には、照明光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット視標板63により2つの光束に分離され、二孔絞り64を通過する。二孔絞り64を通過した光は、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。反射棒67の反射面により反射された光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて一対のスプリット視標光として被検眼Eに照射される。
When adjusting the focus, the reflecting surface of the reflecting
被検眼Eの瞳孔を通過した一対のスプリット視標光は、被検眼Eの眼底Efに到達する。一対のスプリット視標光の眼底反射光は、瞳孔を通過し、照明光の眼底反射光束と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(一対のスプリット視標像)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、一対のスプリット視標像の位置を解析してフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。フォーカス光学系60の移動に連動して撮影合焦レンズ31を移動することにより、眼底像はCCDイメージセンサ35の撮像面に結像する。また、一対のスプリット視標像を視認しつつ手動で(後述の操作部240Bに対する操作で)ピント合わせを行ってもよい。
The pair of split target lights that have passed through the pupil of the eye E to be inspected reach the fundus Ef of the eye E to be inspected. The fundus reflected light of the pair of split target lights passes through the pupil and is detected by the
反射棒67は、被検眼Eの眼底Efと光学的に略共役な照明光路上の位置に挿入される。照明光学系10の光路に挿入されている反射棒67の反射面の位置は、スプリット視標板63と光学的に略共役な位置である。フォーカス視標光は、前述のように、二孔絞り64などの作用により2つに分離される。眼底Efと反射棒67の反射面とが共役ではない場合、CCDイメージセンサ35により取得された一対のスプリット視標像は、例えば、左右方向に2つに分離して表示装置3に表示される。眼底Efと反射棒67の反射面とが略共役である場合、CCDイメージセンサ35により取得された一対のスプリット視標像は、例えば、上下方向に一致して表示装置3に表示される。眼底Efとスプリット視標板63とが常に光学的に共役になるようにフォーカス光学系60が照明光路に沿って移動されるとこれに連動して撮影合焦レンズ31が撮影光軸に沿って移動する。眼底Efとスプリット視標板63とが共役になっていない場合には一対のスプリット視標像が2つに分離するため、一対のスプリット視標像が上下方向に一致するようにフォーカス光学系60を移動することにより、撮影合焦レンズ31の位置が求められる。なお、この実施形態では、一対のスプリット視標像が取得される場合について説明したが、3以上のスプリット視標像であってよい。
The
ダイクロイックミラー46は、観察・撮影用の光路からOCT用の光路を分岐させている。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、観察・撮影用の光を透過させる。このOCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、光スキャナ42と、OCT合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
The
コリメータレンズユニット40は、コリメータレンズを含む。コリメータレンズユニット40は、光ファイバによりOCTユニット100と光学的に接続されている。この光ファイバの出射端を臨む位置に、コリメータレンズユニット40のコリメータレンズが配置されている。コリメータレンズユニット40は、光ファイバの出射端から出射された測定光LS(後述)を平行光束にするとともに、被検眼Eからの測定光の戻り光を当該出射端に集光する。
The
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、例えばコーナーキューブと、これを移動する機構とを含んで構成される。
The optical path
光スキャナ42は、例えば、被検眼Eの瞳孔と光学的に略共役な位置に配置されている。光スキャナ42は、OCT用の光路を通過する光(測定光LS)の進行方向を変更する。それにより、被検眼Eを測定光LSでスキャンすることができる。光スキャナ42は、例えば、測定光LSをx方向にスキャンするガルバノミラーと、y方向にスキャンするガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光LSをxy平面上の任意の方向にスキャンすることができる。
The
OCT合焦レンズ43は、測定光LSの光路(干渉光学系の光軸)に沿って移動可能である。
The
眼科装置1には、被検眼Eと対物レンズ22とに間に配置可能な前置レンズ23が設けられる。前置レンズ23は、手動で被検眼Eと対物レンズ22との間に配置可能である。前置レンズ23は、後述の制御部210からの制御を受け、自動で被検眼Eと対物レンズ22との間に配置可能であってもよい。被検眼Eと対物レンズ22との間から前置レンズ23が退避されている場合、測定光の焦点位置が被検眼Eの眼底Ef又はその近傍に配置され、眼底Efに対してOCT計測を行うことができる。被検眼Eと対物レンズ22との間に前置レンズ23が配置されている場合、測定光の焦点位置が眼底Efから移動されて前眼部又はその近傍に配置され、前眼部に対してOCT計測を行うことができる。
The
〔OCTユニット〕
OCTユニット100の構成の一例を図2に示す。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the
光源ユニット101は、一般的なスウェプトソースタイプの眼科装置と同様に、出射光の波長を掃引(走査)可能な波長掃引型(波長走査型)光源を含んで構成される。波長掃引型光源は、共振器を含むレーザー光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。
The
光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏波コントローラ103は、例えばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏光状態を調整する。
The light L0 output from the
偏波コントローラ103により偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
The light L0 whose polarization state is adjusted by the
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束となる。平行光束となった参照光LRは、光路長変更部114に導かれる。光路長変更部114は、図2に示す矢印の方向に移動可能とされ、参照光LRの光路長を変更する。この移動により参照光LRの光路の長さが変更される。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部114は、例えばコーナーキューブと、これを移動する移動機構とを含んで構成される。この場合、光路長変更部114のコーナーキューブは、コリメータ111により平行光束とされた参照光LRの進行方向を逆方向に折り返す。コーナーキューブに入射する参照光LRの光路と、コーナーキューブから出射する参照光LRの光路とは平行である。
The reference light LR is guided by the
なお、図1及び図2に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するための光路長変更部114の双方が設けられている。しかしながら、光路長変更部41及び114の一方だけが設けられていてもよい。また、これら以外の光学部材を用いて、参照光路長と測定光路長との差を変更することも可能である。
In the configurations shown in FIGS. 1 and 2, the optical path
光路長変更部114を経由した参照光LRは、コリメータ116によって平行光束から集束光束に変換されて光ファイバ117に入射する。
The reference light LR that has passed through the optical path
コリメータ111と光路長変更部114との間の参照光路、及びコリメータ116と光路長変更部114との間の参照光路の少なくとも一方には、光路長補正部材が配置されていてもよい。光路長補正部材は、参照光LRの光路長(光学距離)と測定光LSの光路長とを合わせるための遅延手段として作用する。
An optical path length correction member may be arranged at least one of the reference optical path between the
光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整される。偏波コントローラ118は、例えば、偏波コントローラ103と同様の構成を有する。偏波コントローラ118により偏光状態が調整された参照光LRは、光ファイバ119によりアッテネータ120に導かれて、演算制御ユニット200の制御の下で光量が調整される。アッテネータ120により光量が調整された参照光LRは、光ファイバ121によりファイバカプラ122に導かれる。
The reference light LR incident on the
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127によりに導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた測定光LSは、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由してダイクロイックミラー46に導かれる。ダイクロイックミラー46に導かれてきた測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱(反射を含む)される。このような後方散乱光を含む測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
On the other hand, the measurement light LS generated by the
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で、測定光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。
The
検出器125は、例えば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(干渉信号)をDAQ(Data Acquisition System)130に送る。DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引(走査)される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、クロックKCに基づき、検出器125の検出結果をサンプリングする。DAQ130は、サンプリングされた検出器125の検出結果を演算制御ユニット200に送る。演算制御ユニット200は、例えば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。
The
〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、検出器125から入力される干渉信号を解析して被検眼EのOCT画像を形成する。OCT画像を形成するための演算処理は、従来のスウェプトソースタイプの眼科装置と同様である。
[Calculation control unit]
The configuration of the
また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。例えば演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。
Further, the
演算制御ユニット200は、例えば、従来のコンピュータと同様に、マイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、例えばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
The
〔制御系〕
眼科装置1の処理系の構成について図3、図4、図6及び図7を参照しつつ説明する。なお、図3においては、眼科装置1のいくつかの構成要素が省略されており、この実施形態を説明するために特に必要な構成要素が選択的に示されている。
[Control system]
The configuration of the processing system of the
(制御部)
演算制御ユニット200は、制御部210と、画像形成部220と、データ処理部230とを含む。制御部210は、例えば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212とが設けられている。
(Control unit)
The
主制御部211の機能は、例えばマイクロプロセッサにより実現される。記憶部212には、眼科装置を制御するためのコンピュータプログラムがあらかじめ格納される。このコンピュータプログラムには、各種の光源制御用プログラム、光スキャナ制御用プログラム、各種の検出器制御用プログラム、画像形成用プログラム、データ処理用プログラム及びユーザインターフェイス用プログラムなどが含まれる。このようなコンピュータプログラムに従って主制御部211が動作することにより、制御部210は制御処理を実行する。
The function of the
(主制御部)
主制御部211は前述の各種制御を行う。特に、図3に示すように、主制御部211は、眼底カメラユニット2の合焦駆動部31A及び43A、CCDイメージセンサ35及び38、LCD39、光路長変更部41、及び光スキャナ42を制御する。また、主制御部211は、光学系駆動部1Aを制御する。更に、主制御部211は、OCTユニット100の光源ユニット101、光路長変更部114、検出器125、及びDAQ130などを制御する。
(Main control unit)
The
合焦駆動部31Aは、主制御部211からの制御を受け、撮影光学系30の光軸に沿って撮影合焦レンズ31を移動させる。合焦駆動部31Aには、撮影合焦レンズ31を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部31Aが撮影合焦レンズ31を移動することにより、撮影光学系30の合焦位置が変更される。なお、手動又はユーザの操作部240Bに対する操作により合焦駆動部31Aが撮影光学系30の光軸に沿って撮影合焦レンズ31を移動するようにしてもよい。
The focusing drive unit 31A receives control from the
合焦駆動部43Aは、主制御部211からの制御を受け、OCTユニット100における干渉光学系の光軸(測定光の光路)に沿ってOCT合焦レンズ43を移動させる。合焦駆動部43Aには、OCT合焦レンズ43を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部43AがOCT合焦レンズ43を移動することにより、測定光の合焦位置が変更される。なお、手動又はユーザの操作部240Bに対する操作により合焦駆動部43Aが干渉光学系の光軸に沿ってOCT合焦レンズ43を移動するようにしてもよい。
The focusing drive unit 43A receives control from the
主制御部211は、CCDイメージセンサ35の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。主制御部211は、CCDイメージセンサ38の露光時間、感度、フレームレート等を制御することが可能である。
The
主制御部211は、LCD39に対して固視標や視力測定用視標の表示制御を行うことが可能である。それにより、被検眼Eに呈示される視標の切り替えや視標の種別の変更が可能になる。また、LCD39における視標の表示位置を変更することにより、被検眼Eに対する視標呈示位置を変更することが可能である。
The
主制御部211は、光路長変更部41を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように光路長変更部41を制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置(深さ方向の位置)に描出されるように光路長変更部41を制御することが可能である。
By controlling the optical path
主制御部211は、光スキャナ42を制御することにより被検眼Eの眼底Ef又は前眼部における測定光LSの走査位置を変更することが可能である。
By controlling the
光学系駆動部1Aは、眼科装置1に設けられた光学系(図1及び図2に示す光学系)を3次元的に移動する。光学系駆動部1Aは、主制御部211からの制御を受け、光学系を移動する。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、被検眼Eを動画撮影して得られる画像に基づき被検眼Eの位置や向きに合わせて装置光学系をリアルタイムで移動させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
The optical system drive unit 1A three-dimensionally moves the optical system (optical system shown in FIGS. 1 and 2) provided in the
主制御部211は、光源ユニット101を制御することにより、光L0の点灯と消灯の切り替えや、光L0の光量の変更などを制御することが可能である。
By controlling the
主制御部211は、光路長変更部114を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように光路長変更部114を制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置に描出されるように光路長変更部114を制御することが可能である。主制御部211は、光路長変更部41及び114の少なくとも一方を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。以下では、主制御部211は、光路長変更部114だけを制御することにより測定光LSと参照光LRとの光路長差調整を行うものとして説明するが、光路長変更部41だけを制御することにより参照光LRと測定光LSとの光路長差調整を行ってもよい。
By controlling the optical path
主制御部211は、検出器125の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。また、主制御部211は、DAQ130を制御することが可能である。
The
主制御部211は、被検眼Eと装置光学系との位置関係を維持するように光学系駆動部1Aを制御することが可能である。この実施形態では、主制御部211は、撮影部位(計測部位、データの収集部位)に対応した方法でトラッキング制御を行う。特に、主制御部211は、位相限定相関(Phase Only Correlation:POC)処理により高精度に求められた位置ずれ量に基づいて光学系駆動部1Aを制御することが可能である。特に、撮影部位が眼底のとき、基準画像(ベース画像)に対し、取得された眼底像の全体が移動するため位相限定相関処理により位置ずれ量を高精度に求めることができる。これに対して、撮影部位が前眼部のとき、取得された前眼部像の一部が移動しないため、位相限定相関処理をそのまま適用すると位置ずれ量を求めることができない。
The
例えば、図5に示す前眼部像IMGにおいて、被検眼Eの瞳孔に相当する瞳孔領域を含む所定の領域は移動するため、当該所定の領域を含む部分画像PIMGについては位相限定相関処理を適用することができる。しかしながら、睫毛を含む領域AR1や下瞼を含む領域AR2は移動しない。従って、前眼部像IMGに対して、位相限定相関処理をそのまま適用すると位置ずれ量を高精度に求めることができない。 For example, in the anterior segment image IMG shown in FIG. 5, since a predetermined region including a pupil region corresponding to the pupil of the eye E to be inspected moves, phase-limited correlation processing is applied to the partial image PIMG including the predetermined region. can do. However, the region AR1 containing the eyelashes and the region AR2 containing the lower eyelid do not move. Therefore, if the phase-limited correlation processing is applied to the anterior segment image IMG as it is, the amount of misalignment cannot be obtained with high accuracy.
そこで、主制御部211は、撮影部位に応じて、当該撮影部位の画像の基づき被検眼Eと装置光学系との位置関係を維持するように光学系駆動部1Aを制御する。この実施形態では、撮影部位は眼底又は前眼部である。従って、被検眼Eと対物レンズ22との間から前置レンズ23が退避されているとき、主制御部211は、眼底モードでトラッキング制御を行う。被検眼Eと対物レンズ22との間に前置レンズ23が配置されているとき、主制御部211は、前眼部モードでトラッキング制御を行う。
Therefore, the
眼底モードでは、主制御部211は、撮影光学系30により得られた被検眼Eの眼底像に基づいてトラッキング制御を行う。眼底像は、互いに異なるタイミングでベース画像及びターゲット画像として取得される。主制御部211は、事前に得られた被検眼Eの前眼部像であるベース画像を基準として、当該ベース画像の取得後に得られた前眼部像であるターゲット画像の位置ずれ量(位置ずれ方向を含む)を求め、求められた位置ずれ量に基づいてトラッキング制御を行うことが可能である。ベース画像に対するターゲット画像の位置ずれ量は、位相限定相関処理により求められる。主制御部211は、求められた位置ずれ量に基づいて光学系駆動部1Aを制御することが可能である。
In the fundus mode, the
前眼部モードでは、主制御部211は、撮影光学系30により得られた被検眼Eの前眼部像に基づいてトラッキング制御を行う。主制御部211は、例えば、前眼部像における特徴領域が基準位置に配置されるようにトラッキング制御を行う。すなわち、主制御部211は、基準位置に対する特徴領域の位置の位置ずれ量を求め、求められた位置ずれ量がキャンセルされるように光学系駆動部1Aを制御することが可能である。基準位置は、当該前眼部像より前に取得された前眼部像における特徴領域の位置であってもよいし、当該前眼部像における所定位置であってもよい。所定位置には、対物レンズ22の光軸に相当する位置や、当該前眼部像の中心位置などがある。
In the anterior segment mode, the
(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像や前眼部像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムや制御情報等のデータが記憶されている。
(Memory)
The
(画像形成部)
画像形成部220は、検出器125(DAQ130)からの干渉信号に基づいて眼底Efや前眼部の断層像の画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼E内における各測定光LSの経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。
(Image forming part)
The
画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。 In order to improve the image quality, it is possible to superimpose (add and average) a plurality of data sets collected by repeating scanning with the same pattern a plurality of times.
また、画像形成部220は、CCDイメージ35やCCDイメージセンサ38による被検眼Eの前眼部からの反射光の検出結果に基づいて前眼部像を形成することが可能である。
Further, the
画像形成部220は、例えば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、被検眼Eの部位とその画像とを同一視することもある。
The
(データ処理部)
データ処理部230は、画像形成部220により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部230は、画像の輝度補正や分散補正等の補正処理を実行する。
(Data processing unit)
The
データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼Eのボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。
The
データ処理部230は、眼底像(又は前眼部像)とOCT画像との位置合わせを行うことができる。眼底像(又は前眼部像)とOCT画像とが並行して取得される場合には、双方の光学系が同軸であることから、(ほぼ)同時に取得された眼底像(又は前眼部像)とOCT画像とを、撮影光学系30の光軸を基準として位置合わせすることができる。また、眼底像(又は前眼部像)とOCT画像との取得タイミングに関わらず、OCT画像のうち眼底Ef(又は前眼部像)の相当する画像領域の少なくとも一部をxy平面に投影して得られる正面画像と、眼底像(又は前眼部像)との位置合わせをすることにより、そのOCT画像とその眼底像(又は前眼部像)とを位置合わせすることも可能である。この位置合わせ手法は、眼底像取得用(又は前眼部像取得用)の光学系とOCT用の光学系とが同軸でない場合においても適用可能である。また、双方の光学系が同軸でない場合であっても、双方の光学系の相対的な位置関係が既知であれば、この相対位置関係を参照して同軸の場合と同様の位置合わせを実行することが可能である。
The
図4に示すように、データ処理部230には、解析部231と、回転移動量算出部241と、位置合わせ処理部242と、平行移動量算出部243とが設けられている。
As shown in FIG. 4, the
解析部231は、撮影光学系30により得られた画像に対して解析処理を施す。解析処理には、画像における特徴領域や特徴位置を特定する処理などがある。
The
(前眼部モード)
前眼部モードのとき、解析部231は、例えば、前眼部像における特徴領域や特徴位置を特定する処理を行う。
(Anterior segment mode)
In the anterior segment mode, the
例えば、解析部231は、前眼部像において被検眼Eの瞳孔に相当する領域を含む所定の領域を特徴領域として特定することが可能である。前眼部モードのとき、主制御部211は、前眼部像における基準位置に対する当該特徴領域の変位に基づいて光学系駆動部1Aを制御する。それにより、撮影部位が前眼部のとき、特徴領域の位置に基づくトラッキングを行うことができる。特徴領域には、虹彩領域や血管や疾患部位などであってもよい。
For example, the
また、例えば、撮影光学系30を用いて、アライメント光学系50から視標(輝点)が投影された被検眼Eの前眼部像が取得される。解析部231は、取得された前眼部像における輝点に基づく輝点像を特定する。前眼部モードのとき、主制御部211は、前眼部像における基準位置に対する当該輝点像の変位に基づいて光学系駆動部1Aを制御する。それにより、撮影部位が前眼部のとき、輝点像の位置に基づくトラッキングを行うことができる。
Further, for example, using the photographing
また、例えば、撮影光学系30は、前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含んでもよい。このとき、解析部231は、2以上の前眼部カメラにより実質的に同時に得られた2以上の前眼部像を解析することで、被検眼Eの3次元位置を求める。前眼部モードのとき、主制御部211は、被検眼に対応する基準位置に対する当該3次元位置の変位に基づいて光学系駆動部1Aを制御して被検眼Eと装置光学系とを3次元的に相対移動する。それにより、撮影部位が前眼部のとき、被検眼Eの3次元位置に基づくトラッキングを行うことができる。
Further, for example, the photographing
なお、解析部231は、後述のように、前眼部像における瞳孔に相当する領域を含む所定領域を特定することも可能である。この場合、前眼部モードのとき、当該所定領域を含む部分画像に基づいて後述の位相限定相関処理を用いて、高精度なトラッキングを行うことができる。すなわち、前眼部モードにおいても、眼底モードと同様に、主制御部211は、撮影光学系30により得られた被検眼Eの前眼部に基づいてトラッキング制御を行う。前眼部像は、互いに異なるタイミングでベース画像及びターゲット画像として取得される。
As will be described later, the
解析部231は、図5に示すように、ターゲット画像IMGから所定の領域の画像である部分画像PIMGを特定する。解析部231は、ベース画像とターゲット画像とを解析することによりターゲット画像IMGにおける部分画像PIMGを特定することが可能である。
As shown in FIG. 5, the
解析部231は、ターゲット画像において、ベース画像に対する移動量が第1閾値以上である領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像を複数の領域に分割し、ベース画像に対するターゲット画像の移動量を領域毎に求め、求められた移動量が第1閾値以上である領域の画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像において、ベース画像に対して移動する領域の画像を部分画像として特定する。
In the target image, the
また、解析部231は、ターゲット画像においてベース画像に対する移動量が第2閾値以下である領域(例えば、図5の領域AR1、AR2)を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像を複数の領域に分割し、ベース画像に対するターゲット画像の移動量を領域毎に求め、求められた移動量が第2閾値以下である領域を特定し、ターゲット画像から特定された領域を除いた領域の画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像においてベース画像に対して移動しない領域を特定し、当該領域をターゲット画像から除いた領域を部分画像として特定する。
Further, the
また、解析部231は、ターゲット画像において瞼(上瞼、下瞼)又は睫毛が描出された領域(例えば、図5の領域AR1、AR2)の画像を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像における各画素の輝度情報から、瞼又は睫毛に相当する形状を含む領域を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定する。
Further, the
また、解析部231は、ターゲット画像における所定の領域の画像を部分画像として特定すること可能である。所定の領域は、被検眼Eの瞳孔に相当する領域を含み、被検眼の上瞼、下瞼、及び睫毛が描出されない領域であってよい。例えば、解析部231は、ターゲット画像から予め決められた領域を抽出し、抽出された画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像から画角を狭くした領域の画像を部分画像として特定する。
Further, the
以上のように特定された部分画像には、被検眼Eの瞳孔に相当する領域が描出され、且つ被検眼Eの上瞼、下瞼、及び睫毛が描出されない。 In the partial image specified as described above, the region corresponding to the pupil of the eye E to be inspected is drawn, and the upper eyelid, the lower eyelid, and the eyelashes of the eye E to be inspected are not drawn.
なお、解析部231は、ベース画像において予め決められた領域の画像に基づいて、ターゲット画像における部分画像を特定してもよい。例えば、解析部231は、ベース画像における被検眼Eの瞳孔に相当する領域の画像から、ターゲット画像における部分画像を特定する。
The
解析部231は、上記のように特定された部分画像に対応する、ベース画像中の対応部分画像を特定する。
The
データ処理部230は、ベース画像中の対応部分画像とターゲット画像中の部分画像との間の位置ずれ量を求め、求められた位置ずれ量に対応した情報を制御部210(主制御部211)に出力する。位置ずれ量は、対応部分画像と部分画像との間の1ピクセル未満のサブピクセルレベルの回転方向(z方向の軸を中心とする回転方向)の回転移動量やその回転移動方向、対応部分画像と部分画像との間のサブピクセルレベルのxy面内における平行移動量やその平行移動方向などを含む。
The
具体的には、データ処理部230は、対応部分画像と部分画像との間の回転移動量及び回転移動方向をサブピクセルレベルで算出し、算出された回転移動量及び回転移動方向に基づいて対応部分画像と部分画像との間で回転方向の位置合わせを行う。その後、データ処理部230は、位置合わせがなされた対応部分画像と部分画像との間の平行移動量及び平行移動方向をサブピクセルレベルで算出する。
Specifically, the
回転移動量算出部241及び平行移動量算出部243は、上記のように対応部分画像と部分画像とに基づいて、対応部分画像に対する部分画像の変位(位置ずれ量、位置ずれ方向を含む)を求める。位置合わせ処理部242は、対応部分画像と部分画像との位置合わせを行う。
The rotational movement
回転移動量算出部241は、対応部分画像と部分画像との間の回転移動量及び回転移動方向を算出する。回転移動量算出部241は、対応部分画像と部分画像とに対し位相限定相関処理を施すことにより、対応部分画像と部分画像との間の回転移動量及び回転移動方向を算出することが可能である。
The rotational movement
(眼底モード)
データ処理部230は、ベース画像とターゲット画像との間の位置ずれ量を求め、求められた位置ずれ量に対応した情報を制御部210(主制御部211)に出力する。位置ずれ量は、ベース画像とターゲット画像との間の1ピクセル未満のサブピクセルレベルの回転方向(z方向の軸を中心とする回転方向)の回転移動量やその回転移動方向、ベース画像とターゲット画像との間のサブピクセルレベルのxy面内における平行移動量やその平行移動方向などを含む。
(Fundus mode)
The
具体的には、データ処理部230は、ベース画像とターゲット画像との間の回転移動量及び回転移動方向をサブピクセルレベルで算出し、算出された回転移動量及び回転移動方向に基づいてベース画像とターゲット画像との間で回転方向の位置合わせを行う。その後、データ処理部230は、位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向をサブピクセルレベルで算出する。
Specifically, the
回転移動量算出部241及び平行移動量算出部243は、上記のようにベース画像とターゲット画像とに基づいて、ベース画像に対するターゲット画像の変位(位置ずれ量、位置ずれ方向を含む)を求める。位置合わせ処理部242は、ベース画像とターゲット画像との位置合わせを行う。
The rotational movement
回転移動量算出部241は、ベース画像とターゲット画像との間の回転移動量及び回転移動方向を算出する。回転移動量算出部241は、ベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の回転移動量及び回転移動方向を算出することが可能である。このような位相限定相関処理は、特開2015−043898号公報(特許文献1)に開示された処理と同様である。
The rotational movement
実施形態に係る位相限定相関処理では、例えば、以下のような位相限定相関関数が用いられる。以下、主として眼底モードの場合について説明するが、ベース画像を「対応部分画像」に置き換え、ターゲット画像を「部分画像」に置き換えることにより前眼部モードに適用することが可能である。 In the phase-limited correlation processing according to the embodiment, for example, the following phase-limited correlation function is used. Hereinafter, the case of the fundus mode will be mainly described, but it can be applied to the anterior segment mode by replacing the base image with the “corresponding partial image” and replacing the target image with the “partial image”.
まず、画像サイズがN1×N2(N1、N2は正の整数)であるベース画像をf(n1,n2)、ターゲット画像をg(n1,n2)とする。ここで、離散空間上でn1=−M1,・・・,M1とし、N1=2M1+1(M1は正の整数)とし、f(n1,n2)の2次元離散フーリエ変換(Discrete Fourier Transformation:以下、DFT)の演算結果をF(k1,k2)とすると、F(k1,k2)は、式(1)のように表される。 First, let f (n 1 , n 2 ) be a base image having an image size of N 1 × N 2 (N 1 and N 2 are positive integers), and g (n 1 , n 2 ) be a target image. Here, n 1 = −M 1 , ···, M 1 on the discrete space, N 1 = 2M 1 + 1 (M 1 is a positive integer), and the two-dimensional discrete of f (n 1 , n 2). Assuming that the calculation result of the Fourier transform (discrete Fourier Transform: hereinafter, DFT) is F (k 1 , k 2 ), F (k 1 , k 2 ) is expressed by the equation (1).
式(1)において、AF(k1,k2)はf(n1,n2)の振幅成分であり、ejθF(k1,k2)はf(n1,n2)の位相成分である。
In equation (1), AF (k 1 , k 2 ) is the amplitude component of f (n 1 , n 2 ), and e jθF (
同様に、離散空間上でn2=−M2,・・・,M2とし、N2=2M2+1(M2は正の整数)とし、g(n1,n2)の2次元DFTの演算結果をG(k1,k2)とすると、G(k1,k2)は、式(2)のように表される。 Similarly, in a discrete space, n 2 = -M 2 , ..., M 2 , N 2 = 2 M 2 + 1 (M 2 is a positive integer), and g (n 1 , n 2 ) two-dimensional DFT. Assuming that the calculation result of is G (k 1 , k 2 ), G (k 1 , k 2 ) is expressed as in Eq. (2).
式(2)において、AG(k1,k2)はg(n1,n2)の振幅成分であり、ejθG(k1,k2)はg(n1,n2)の位相成分である。
In equation (2), AG (k 1 , k 2 ) is the amplitude component of g (n 1 , n 2 ), and e jθG (
位相限定合成処理に用いられる位相限定合成関数は、式(1)及び式(2)を用いて、式(3)のように定義される。 The phase-limited synthesis function used in the phase-limited synthesis processing is defined as in equation (3) using equations (1) and (2).
実施形態に係る位相限定相関関数は、式(3)の位相限定合成関数に対して2次元逆離散フーリエ変換(Inverse Discrete Fourier Transformation:以下、IDFT)を施すことにより、式(4)のように表される。 The phase-limited correlation function according to the embodiment is as shown in the equation (4) by applying a two-dimensional inverse discrete Fourier transform (hereinafter, IDFT) to the phase-limited composite function of the equation (3). expressed.
連続空間で定義された2次元画像sc(x1,x2)を、x1方向に微小移動量δ1だけ、且つ、x2方向に微小移動量δ2だけシフトさせて得られる画像は、sc(x1−δ1,x2−δ2)と表される。標本化間隔T1で標本化された離散空間上の2次元画像f(n1,n2)は、式(5)のように定義される。 The 2-dimensional images s c of the continuous space is defined (x 1, x 2), by a minute amount of movement [delta] 1 in x 1 direction and the image obtained by shifting the x 2 direction by a minute amount of movement [delta] 2 is is expressed as s c (x 1 -δ 1, x 2 -δ 2). The two-dimensional image f (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 1 is defined by Eq. (5).
同様に、標本化間隔T2で標本化された離散空間上の2次元画像g(n1,n2)は、式(6)のように定義される。 Similarly, the two-dimensional image g (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 2 is defined as in Eq. (6).
式(5)及び式(6)において、n1=−M1,・・・,M1であり、n2=−M2,・・・,M2である。これにより、離散空間上の2次元画像f(n1,n2)、g(n1,n2)に関する位相限定相関関数は、式(7)のような一般形で表される。式(7)において、α=1である。 In equations (5) and (6), n 1 = -M 1 , ..., M 1 and n 2 = -M 2 , ..., M 2 . As a result, the phase-limited correlation function for the two-dimensional images f (n 1 , n 2 ) and g (n 1 , n 2 ) in the discrete space is expressed in the general form as in Eq. (7). In equation (7), α = 1.
図6に示すように、回転移動量算出部241は、第1変換処理部301と、対数変換部302と、極座標変換部303と、第2変換処理部304と、第1位相限定合成部305と、第1逆変換処理部306とを含む。
As shown in FIG. 6, the rotational movement
第1変換処理部301は、ベース画像に対し2次元DFT処理を施す。また、第1変換処理部301は、ターゲット画像に対し2次元DFT処理を施す。第1変換処理部301により行われる2次元DFT処理は、2次元DFTと、この2次元DFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。以下、このシフト処理を、「シフト」と呼ぶことがある。なお、第1変換処理部301により行われる2次元DFTは、2次元FFTであってよい。 The first conversion processing unit 301 performs two-dimensional DFT processing on the base image. In addition, the first conversion processing unit 301 performs two-dimensional DFT processing on the target image. The two-dimensional DFT process performed by the first conversion processing unit 301 includes a two-dimensional DFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional DFT. Hereinafter, this shift process may be referred to as "shift". The two-dimensional DFT performed by the first conversion processing unit 301 may be a two-dimensional FFT.
対数変換部302は、ベース画像についての第1変換処理部301による演算結果に対し対数変換を施す。また、対数変換部302は、ターゲット画像についての第1変換処理部301による演算結果に対し対数変換を施す。対数変換部302による対数変換は、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる効果を有する。 The logarithmic conversion unit 302 performs logarithmic conversion on the calculation result of the first conversion processing unit 301 for the base image. Further, the logarithmic conversion unit 302 performs logarithmic conversion on the calculation result of the first conversion processing unit 301 for the target image. The logarithmic conversion by the logarithmic conversion unit 302 has the effect of compressing the amplitude spectrum that tends to be concentrated in the low frequency region of the spatial frequency in the natural image.
極座標変換部303は、ベース画像についての対数変換部302による演算結果に対し極座標変換を施す。また、極座標変換部303は、ターゲット画像についての対数変換部302による演算結果に対し極座標変換を施す。なお、対数変換部302による対数変換を行わない場合、極座標変換部303は、ベース画像についての第1変換処理部301による演算結果に対し極座標変換を施し、ターゲット画像についての第1変換処理部301による演算結果に対し極座標変換を施す。極座標変換部303による極座標変換は、回転方向の移動量を式(1)〜式(7)における平行方向(n1方向やn2方向)の移動量に変換する処理である。 The polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 302 for the base image. Further, the polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 302 for the target image. When the logarithmic conversion by the logarithmic conversion unit 302 is not performed, the polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result by the first conversion processing unit 301 for the base image, and the first conversion processing unit 301 for the target image. Perform polar coordinate transformation on the calculation result by. Polar conversion by polar coordinate transformation unit 303 is a process of converting the movement amount of the rotational direction to the amount of movement of the parallel direction (n 1 direction and n 2 direction) in the formula (1) to (7).
第2変換処理部304は、式(1)に示すように、ベース画像についての極座標変換部303による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像についての第2変換処理部304による処理結果は、第1位相限定合成部305による演算処理に先立って、振幅成分で正規化されたベースPOCデータとして、例えば、記憶部212に事前に保存される。また、第2変換処理部304は、式(2)に示すように、ターゲット画像についての極座標変換部303による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第2変換処理部304により行われる2次元DFTもまた、2次元FFTであってよい。
As shown in the equation (1), the second conversion processing unit 304 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the calculation result of the polar coordinate conversion unit 303 for the base image. The processing result of the base image by the second conversion processing unit 304 is stored in advance in, for example, the
第1位相限定合成部305は、式(3)に示すように、ベース画像について予め求められたベースPOCデータ(第1データ)と、ターゲット画像についての第2変換処理部304による演算結果に基づいて振幅成分で正規化されたターゲットPOCデータ(第2データ)とを合成する位相限定合成処理を行う。 As shown in the equation (3), the first phase limited synthesis unit 305 is based on the base POC data (first data) obtained in advance for the base image and the calculation result by the second conversion processing unit 304 for the target image. A phase-limited synthesis process is performed to synthesize the target POC data (second data) normalized by the amplitude component.
第1逆変換処理部306は、第1位相限定合成部305による演算結果に対し2次元IDFT処理を施す。第1逆変換処理部306により行われる2次元IDFT処理は、2次元IDFTと、この2次元IDFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。なお、2次元IDFTは、2次元逆高速フーリエ変換(Inverse Fast Fourier Transformation:以下、IFFT)により演算してもよい。 The first inverse transformation processing unit 306 performs two-dimensional IDFT processing on the calculation result by the first phase limited synthesis unit 305. The two-dimensional IDFT process performed by the first inverse transformation processing unit 306 includes a two-dimensional IDFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional IDFT. The two-dimensional IDFT may be calculated by a two-dimensional inverse Fourier transform (hereinafter, IFFT).
回転移動量算出部241は、第1逆変換処理部306による演算結果に基づいて回転移動量及び回転移動方向を算出する。具体的には、回転移動量算出部241は、第1逆変換処理部306による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで回転移動量及び回転移動方向を求める。その後、回転移動量算出部241は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで回転移動量及び回転移動方向を求める。
The rotational movement
なお、回転移動量算出部241は、位相限定相関処理により回転移動量及び回転移動方向を算出するものでなくてもよく、公知の手法により回転移動量及び回転移動方向を算出してもよい。
The rotational movement
平行移動量算出部243は、後述の位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。このような位相限定相関処理は、特開2015−043898号公報に開示された処理と同様である。
The translation
平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向を求める。具体的には、平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。
The translation
図7に示すように、平行移動量算出部243は、第3変換処理部311と、第2位相限定合成部312と、第2逆変換処理部313とを備えている。
As shown in FIG. 7, the translation
第3変換処理部311は、式(1)に示すように、ベース画像に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像についての第3変換処理部311による処理結果は、第2位相限定合成部312による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第3データ)として、例えば、記憶部212に事前に保存される。また、第3変換処理部311は、式(2)に示すように、ターゲット画像に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第3変換処理部311により行われる2次元DFTは、2次元FFTであってよい。
As shown in the equation (1), the third
第2位相限定合成部312は、式(3)に示すように、ベース画像について予め求められたベースPOCデータ(第3データ)と、ターゲット画像についての第3変換処理部311による演算結果に基づいて、振幅成分で正規化されたターゲットPOCデータ(第4データ)とを合成する位相限定合成処理を行う。
As shown in the equation (3), the second phase
第2逆変換処理部313は、第2位相限定合成部312による演算結果に対し2次元IDFT処理(2次元IDFT+シフト)を施す。なお、第2逆変換処理部313により行われる2次元IDFTは、2次元IFFTであってよい。
The second inverse
平行移動量算出部243は、第2逆変換処理部313による演算結果に基づいて平行移動量及び平行移動方向を算出する。具体的には、平行移動量算出部243は、第2逆変換処理部313による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで平行移動量及び平行移動方向を求める。その後、平行移動量算出部243は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで平行移動量及び平行移動方向を求める。
The translation
位置合わせ処理部242は、回転移動量算出部241により求められた回転移動量及び回転移動方向に基づいてベース画像とターゲット画像との間の回転方向の位置合わせを行う。具体的には、位置合わせ処理部242は、回転移動量算出部241により算出された回転移動量及び回転移動方向に基づいて、ベース画像を基準に、ターゲット画像に対し回転方向の位置合わせを行う。なお、位置合わせ処理部242は、回転移動量算出部241により算出された回転移動量及び回転移動方向に基づいて、ターゲット画像を基準に、ベース画像に対し回転方向の位置合わせを行うようにしてもよい。
The alignment processing unit 242 aligns the base image and the target image in the rotation direction based on the rotation movement amount and the rotation movement direction obtained by the rotation movement
以上のように機能するデータ処理部230は、例えば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
The
(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The
なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。例えばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
The
図1に示す光学系(例えば、OCTユニット100に含まれる干渉光学系)は、実施形態に係る「光学系」の一例である。撮影光学系30は、実施形態に係る「撮影部」の一例である。光学系駆動部1Aは、実施形態に係る「移動機構」の一例である。アライメント光学系50は、実施形態に係る「輝点投影系」の一例である。ベース画像は実施形態に係る「第1画像」又は「第3画像」の一例であり、ターゲット画像は実施形態に係る「第2画像」又は「第4画像」の一例である。回転移動量算出部241は、実施形態に係る「第1回転移動量算出部」又は「第2回転移動量算出部」の一例である。位置合わせ処理部242は、実施形態に係る「第1位置合わせ処理部」又は「第2位置合わせ処理部」の一例である。平行移動量算出部243は、実施形態に係る「第1平行移動量算出部」又は「第2平行移動量算出部」の一例である。
The optical system shown in FIG. 1 (for example, the interference optical system included in the OCT unit 100) is an example of the “optical system” according to the embodiment. The photographing
[動作例]
実施形態に係る眼科装置の動作例について説明する。
[Operation example]
An operation example of the ophthalmic apparatus according to the embodiment will be described.
図8に、実施形態に係る眼科装置1の動作の一例を表すフロー図を示す。図8では、被検眼Eと対物レンズ22との間に前置レンズ23が配置されているものとする。
FIG. 8 shows a flow chart showing an example of the operation of the
(S1:前眼部を撮影開始)
まず、観察光源11からの照明光(可視カットフィルタ14により近赤外光となる)で前眼部を連続照明することにより、前眼部の近赤外動画像の取得を開始する。この近赤外動画像は、連続照明が終了するまでリアルタイムで得られる。この動画像を構成する各フレームの画像は、フレームメモリ(記憶部212)に一時記憶され、データ処理部230に逐次送られる。
(S1: Start photographing the anterior segment)
First, acquisition of a near-infrared moving image of the anterior segment is started by continuously illuminating the anterior segment with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the end of continuous illumination. The image of each frame constituting this moving image is temporarily stored in the frame memory (storage unit 212) and sequentially sent to the
なお、被検眼Eには、アライメント光学系50によるアライメント視標と、フォーカス光学系60によるスプリット視標とが投影されている。よって、近赤外動画像にはアライメント視標とスプリット視標とが描画されている。これら視標を用いてアライメントやピント合わせを行うことができる。また、被検眼Eには、LCD39による固視標も投影されている。被検者は、この固視標を凝視するように指示を受ける。
An alignment target by the alignment
(S2:アライメント)
データ処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、アライメント視標の位置を求め、光学系の移動量を算出する。制御部210は、データ処理部230により算出された光学系の移動量に基づいて光学系駆動部1Aを制御することにより、オートアライメントを行う。
(S2: Alignment)
The
(S3:ピント合わせ)
データ処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、スプリット視標の位置を求め、撮影合焦レンズ31及びOCT合焦レンズ43の移動量を算出する。制御部210は、データ処理部230により算出された撮影合焦レンズ31及びOCT合焦レンズ43の移動量に基づいて合焦駆動部31A、43Aを制御することにより、オートフォーカスを行う。
(S3: Focusing)
The
(S4:トラッキングを開始)
続いて、制御部210は、オートトラッキングを開始する。具体的には、データ処理部230は、光学系によって被検眼Eを動画撮影することにより逐次に得られるフレームをリアルタイムで解析して、被検眼Eの動き(位置の変化)を監視する。制御部210は、逐次に取得される被検眼Eの位置に合わせて光学系を移動させるように光学系駆動部1Aを制御する。それにより、被検眼Eの動きに対して光学系をリアルタイムで追従させることができ、アライメントとピントが合った好適な位置関係を維持することが可能となる。
(S4: Start tracking)
Subsequently, the
(S5:走査領域を設定)
制御部210は、近赤外動画像を表示部240Aにリアルタイムで表示させる。ユーザは、操作部240Bを用いることにより、この近赤外動画像上に走査領域を設定する。設定される走査領域は1次元領域でも2次元領域でもよい。
(S5: Set scanning area)
The
(S6:OCT計測)
制御部210は、光源ユニット101や光路長変更部41を制御するとともに、ステップS5で設定された走査領域に基づいて光スキャナ42を制御することにより、前眼部のOCT計測を行う。画像形成部220は、得られた検出信号に基づいて前眼部の断層像を形成する。走査態様が3次元スキャンである場合、データ処理部230は、画像形成部220により形成された複数の断層像に基づいて前眼部の3次元画像を形成する。以上で、この動作例は終了となる(エンド)。
(S6: OCT measurement)
The
図9に、図8のステップS4の処理例のフロー図を示す。 FIG. 9 shows a flow chart of a processing example of step S4 of FIG.
(S100:眼底を計測?)
制御部210は、計測部位(撮影部位)が眼底であるか否かを判定する。例えば、被検眼Eと対物レンズ22との間に前置レンズ23が配置されているか否かを検出する検出部を設け、制御部210は、当該検出部により得られた検出結果に基づいて計測部位が眼底であるか否かを判定することができる。このような検出部は、被検眼Eと対物レンズ22との間に前置レンズ23が配置されたときにオンとなり、被検眼Eと対物レンズ22との間から前置レンズ23が退避されたときにオフとなるマイクロスイッチを含むことができる。
(S100: Measure the fundus?)
The
計測部位が眼底であると判定されたとき(S100:Y)、眼科装置1の動作はステップS101に移行する。計測部位が眼底ではないと判定されたとき(S100:N)、眼科装置1の動作はステップS102に移行する。
When it is determined that the measurement site is the fundus (S100: Y), the operation of the
(S101:眼底モード)
ステップS100において計測部位が眼底であると判定されたとき(S100:Y)、制御部210は、眼底モードでトラッキング制御を実行する。すなわち、データ処理部230は、ベース画像とターゲット画像との間のサブピクセルレベルの位置ずれ量を逐次に算出し、制御部210は、1又は複数のフレーム毎に、データ処理部230において算出された位置ずれ量を補正するように光学系を移動させる。
(S101: fundus mode)
When it is determined in step S100 that the measurement site is the fundus (S100: Y), the
(S102:前眼部モード)
ステップS100において計測部位が眼底ではないと判定されたとき(S100:N)、制御部210は、前眼部モードでトラッキング制御を実行する。すなわち、解析部231は、前眼部像における基準位置に対する特徴領域や輝点像の変位を求め、制御部210は、1又は複数のフレーム毎に、解析部231において求められた変位をキャンセルするように光学系を移動させる。また、解析部231は、上記のように被検眼Eの3次元位置を求め、制御部210は、1又は複数のフレーム毎に、解析部231において求められた3次元位置に基づいて光学系を移動させてもよい。
(S102: anterior segment mode)
When it is determined in step S100 that the measurement site is not the fundus (S100: N), the
(S103:終了?)
ステップS101又はステップS102に続いて、制御部210は、トラッキングを終了するか否かを判定する。トラッキングを終了すると判定されたとき(S103:Y)、眼科装置1のトラッキング制御が終了する(エンド)。トラッキングを終了しないと判定されたとき(S103:N)、眼科装置1の動作はステップS100に移行する。
(S103: Finished?)
Following step S101 or step S102, the
なお、前眼部モードのとき、制御部210は、前眼部像における基準位置に対する特徴領域や輝点像の変位に基づいて被検眼Eと装置光学系との位置関係の維持が可能か否かを判定してもよい。位置関係の維持が不可能であると判定されたとき、データ処理部230は、対応部分画像と部分画像との間のサブピクセルレベルの位置ずれ量を逐次に算出し、制御部210は、1又は複数のフレーム毎に、データ処理部230において算出された位置ずれ量を補正するように光学系を移動させる。この場合、回転移動量算出部241は、ターゲット画像における部分画像と、ベース画像における部分画像に対応した対応部分画像との間の第1回転移動量を算出する。位置合わせ処理部242は、第1回転移動量に基づいて対応部分画像と部分画像との間の回転方向の位置合わせを行う。平行移動量算出部243は、位置合わせ処理部242により位置合わせがなされた対応部分画像と部分画像とに対して位相限定相関処理を施すことにより、対応部分画像と部分画像との間の第1平行移動量を算出する。制御部210は、第1平行移動量に基づいて光学系駆動部1Aを制御する。
In the anterior segment mode, the
また、眼底モードのとき、制御部210は、位相限定相関処理により求められた回転移動量及び平行移動量に基づいて被検眼Eと装置光学系との位置関係の維持が可能か否かを判定してもよい。位置関係の維持が不可能であると判定されたとき、解析部231は、ベース画像及びターゲット画像における特徴領域の変位を求め、制御部210は、求められた変位に基づいて光学系駆動部1Aを制御する。
Further, in the fundus mode, the
以下、位相限定相関処理を用いたトラッキング制御の処理例について説明する。以下、主として眼底モードでのトラッキング制御の処理例について説明するが、前眼部モードでのトラッキング制御の処理も同様である。 Hereinafter, an example of tracking control processing using phase-limited correlation processing will be described. Hereinafter, an example of tracking control processing in the fundus mode will be mainly described, but the same applies to the tracking control processing in the anterior segment mode.
図10に、実施形態に係る眼底モードでのトラッキング制御のための処理例のフロー図を示す。例えば、被検眼Eが変更されたときや撮影モードが変更されたときに、図10に示す処理が実行される。
(S11:初期設定)
まず、主制御部211は、所定の初期化処理を行う。初期化処理には、リソースの確保や、ベース画像やターゲット画像を取得するためのスキャン領域の設定、データ処理部230の初期化などがある。
FIG. 10 shows a flow chart of a processing example for tracking control in the fundus mode according to the embodiment. For example, when the eye E to be inspected is changed or the photographing mode is changed, the process shown in FIG. 10 is executed.
(S11: Initial setting)
First, the
(S12:ベース画像処理)
ユーザによりトラッキングの開始が指示されると、制御部210は、ベース画像に対し位相限定相関処理を施すためのベース画像処理を行う。ベース画像処理の詳細については、後述する。
(S12: Base image processing)
When the user instructs the start of tracking, the
(S13:ターゲット画像処理)
制御部210は、逐次に入力されるターゲット画像に対し位相限定相関処理を施すためのターゲット画像処理を行う。ターゲット画像処理の詳細については、後述する。
(S13: Target image processing)
The
(S14:撮影終了?)
撮影対象の被検眼が変わると、ステップS12において行われたベース画像処理の結果が不要になる。そこで、制御部210は、トラッキングの対象である被検眼Eの撮影が終了したか否かを判別する。制御部210は、例えば操作部240Bを介したユーザの操作内容に基づき、被検眼Eの撮影が終了したか否かを判別することができる。被検眼Eの撮影が終了しないと判別されたとき(S14:N)、眼科装置1の動作はステップS13に移行する。被検眼Eの撮影が終了したと判別されたとき(S14:Y)、眼科装置1の動作はステップS15に移行する。
(S14: Shooting finished?)
When the eye to be imaged changes, the result of the base image processing performed in step S12 becomes unnecessary. Therefore, the
(S15:次の撮影?)
続いて、別の被検眼に対して撮影を行う場合には、ベース画像処理を再実行する必要がある。そこで、制御部210は、次の被検眼の撮影の有無を判別する。次の撮影を行わないと判別されたとき(S15:N)、眼科装置1の動作は終了する(エンド)。次の撮影を行うと判別されたとき(S15:Y)、眼科装置1の動作はステップS12に移行する。
(S15: Next shooting?)
Subsequently, when taking a picture for another eye to be inspected, it is necessary to re-execute the base image processing. Therefore, the
次に、ステップS12のベース画像処理について説明する。 Next, the base image processing in step S12 will be described.
図11に、実施形態に係るベース画像処理のフローの一例を示す。 FIG. 11 shows an example of the flow of base image processing according to the embodiment.
(S21:アポダイゼーション処理)
まず、回転移動量算出部241は、ベース画像(前眼部モードのときは対応部分画像、以下同様)に対しアポダイゼーション処理を施す。アポダイゼーション処理は、アポダイゼーション関数を掛け合わせることにより、メインローブの振幅の低下をある程度抑えつつサイドローブの振幅を低下させて、ダイナミックレンジを高める処理である。アポダイゼーション関数としては、公知のハニング窓やガウス窓や矩形窓などの窓関数がある。アポダイゼーション処理は、例えば、第1変換処理部301又は回転移動量算出部241における図示しないアポダイゼーション処理部により行われる。
(S21: Apodization processing)
First, the rotation movement
(S22:2次元DFT)
次に、第1変換処理部301は、ステップS21におけるベース画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S22: 2D DFT)
Next, the first conversion processing unit 301 applies a two-dimensional DFT to the result of the apodization processing on the base image in step S21.
(S23:対数変換)
次に、対数変換部302は、ステップS22における2次元DFTの処理結果に対し対数変換を施す。対数変換は、2次元DFTの処理結果の実数成分をRe、虚数成分をIm、対数変換結果をAmとすると、式(8)のように表される。これにより、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる。
(S23: Logarithmic transformation)
Next, the logarithmic conversion unit 302 performs logarithmic conversion on the processing result of the two-dimensional DFT in step S22. The logarithmic transformation is expressed by the equation (8), where Re is the real component of the processing result of the two-dimensional DFT, Im is the imaginary component, and Am is the logarithmic transformation result. This compresses the amplitude spectrum, which tends to be concentrated in the low frequency region of the spatial frequency in the natural image.
(S24:Log−Polar変換)
次に、極座標変換部303は、ステップS23における対数変換の処理結果に対しLog−Polar変換を施す。これにより、動径方向がx方向、偏角方向がy方向に変換される。
(S24: Log-Polar conversion)
Next, the polar coordinate conversion unit 303 performs Log-Polar conversion on the processing result of the logarithmic conversion in step S23. As a result, the radial direction is converted to the x direction and the declination direction is converted to the y direction.
(S25:2次元DFT)
次に、第2変換処理部304は、ステップS24におけるLog−Polar変換の処理結果に対し2次元DFTを施す。
(S25: 2D DFT)
Next, the second conversion processing unit 304 applies a two-dimensional DFT to the processing result of the Log-Polar transform in step S24.
(S26:POCデータを保存)
次に、回転移動量算出部241は、ステップS25における2次元DFTの処理結果に基づいて振幅成分で正規化し、2次元DFTの処理結果に基づく第1ベースPOCデータとして記憶部212に保存する。ここで、記憶部212に保存された第1ベースPOCデータは、回転移動量及び回転方向を算出するための位相限定相関関数の相関値の算出に供される。
(S26: Save POC data)
Next, the rotation movement
(S27:アポダイゼーション処理)
続いて、平行移動量算出部243は、当該ベース画像に対し、平行移動量及び平行移動方向を算出するための位相限定相関関数の相関値の算出に供されるベースPOCデータを生成する。そこで、平行移動量算出部243は、当該ベース画像に対しアポダイゼーション処理を施す。このアポダイゼーション処理は、ステップS21と同様の処理である。ステップS21の処理結果が記憶部212に保存されている場合、ステップS27の処理を不要にすることができる。
(S27: Apodization process)
Subsequently, the translation
(S28:2次元DFT)
次に、第3変換処理部311は、当該ベース画像に対するアポダイゼーション処理の結果の実数成分に対し2次元DFTを施す。
(S28: 2D DFT)
Next, the third
(S29:POCデータを保存)
次に、平行移動量算出部243は、ステップS28における2次元DFTの処理結果に基づいて振幅成分で正規化し、2次元DFTの処理結果に基づく第2ベースPOCデータを記憶部212に保存する。ここで記憶部212に保存された第2ベースPOCデータは、平行移動量及び平行移動方向を算出するための位相限定相関関数の相関値の算出に供される。以上で、ベース画像処理の一連の処理は終了する(エンド)。
(S29: Save POC data)
Next, the translation
次に、ステップS13のターゲット画像処理について説明する。 Next, the target image processing in step S13 will be described.
図12〜図14に、実施形態に係るターゲット画像処理のフローの一例を示す。ターゲット画像処理は、ターゲット画像(前眼部モードのときは部分画像、以下同様)についてターゲットPOCデータを生成する処理と、回転移動量及び回転移動方向の算出処理と、位置合わせ処理と、平行移動量及び平行移動方向の算出処理とを含む。 12 to 14 show an example of the flow of target image processing according to the embodiment. The target image processing includes processing for generating target POC data for the target image (partial image in the anterior segment mode, the same applies hereinafter), calculation processing for the amount of rotational movement and the direction of rotational movement, alignment processing, and translation. Includes processing for calculating quantity and translation direction.
(S41:アポダイゼーション処理)
まず、回転移動量算出部241は、当該ターゲット画像に対しアポダイゼーション処理を施す。この処理は、ステップS21と同様であり、第1変換処理部301又は回転移動量算出部241における図示しないアポダイゼーション処理部により行われる。
(S41: Apodization processing)
First, the rotation movement
(S42:2次元DFT)
次に、第1変換処理部301は、ステップS41におけるターゲット画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S42: 2D DFT)
Next, the first conversion processing unit 301 applies a two-dimensional DFT to the result of the apodization processing on the target image in step S41.
(S43:対数変換)
次に、対数変換部302は、ステップS42における2次元DFTの処理結果に対し対数変換を施す。この対数変換は、ステップS23と同様である。
(S43: Logarithmic transformation)
Next, the logarithmic conversion unit 302 performs logarithmic conversion on the processing result of the two-dimensional DFT in step S42. This logarithmic conversion is the same as in step S23.
(S44:Log−Polar変換)
次に、極座標変換部303は、ステップS43における対数変換の処理結果に対しLog−Polar変換を施す。このLog−Polar変換は、ステップS24と同様である。
(S44: Log-Polar conversion)
Next, the polar coordinate conversion unit 303 performs a Log-Polar transformation on the processing result of the logarithmic transformation in step S43. This Log-Polar transformation is the same as in step S24.
(S45:2次元DFT)
次に、第2変換処理部304は、ステップS44におけるLog−Polar変換の処理結果に対し2次元DFTを施す。
(S45: 2D DFT)
Next, the second conversion processing unit 304 applies a two-dimensional DFT to the processing result of the Log-Polar transform in step S44.
(S46:位相限定合成処理)
次に、第1位相限定合成部305は、ステップS26において記憶部212に保存された第1ベースPOCデータと、ステップS45における2次元DFTの処理結果を振幅成分で正規化したターゲットPOCデータとを用いて、式(3)に示す式に従って位相限定合成処理を行う。ここで、第1ベースPOCデータは、当該ターゲット画像に対して生成されたベースPOCデータである。
(S46: Phase-limited synthesis processing)
Next, the first phase limited synthesis unit 305 combines the first base POC data stored in the
(S47:2次元IDFT)
次に、第1逆変換処理部306は、式(4)に示す式に従ってステップS46における位相限定合成処理の処理結果に対し2次元IDFTを施す。
(S47: 2D IDFT)
Next, the first inverse transformation processing unit 306 applies a two-dimensional IDFT to the processing result of the phase-limited synthesis processing in step S46 according to the equation shown in the equation (4).
(S48:ピーク位置を特定)
ステップS47の処理結果からピーク位置を特定することにより、相関値の高い動径(x方向の座標)と偏角(y方向の座標)とがピクセルレベルで特定される。そこで、回転移動量算出部241は、ステップS47の処理結果のピーク値を求め、当該ピーク値に対応したピーク位置のアドレスを取得し、記憶部212に保存する。
(S48: Specify the peak position)
By specifying the peak position from the processing result of step S47, the radius (coordinates in the x direction) and the declination (coordinates in the y direction) having high correlation values are specified at the pixel level. Therefore, the rotation movement
(S49:回転角≦TH1?)
回転移動量算出部241は、記憶部212に記憶されたピーク位置のアドレスに基づき、偏角に対応した回転角(絶対値)が閾値TH1以下であるか否かを判別する。当該回転角が閾値TH1以下ではないと判別されたとき(S49:N)、回転移動量算出部241は、エラーと判断し、一連の処理を終了する(エンド)。一方、当該回転角が閾値TH1以下であると判別されたとき(S49:Y)、回転移動量算出部241の処理はステップS50に移行する。
(S49: rotation angle ≤ TH1?)
The rotation movement
(S50:サブピクセルレベルでピーク位置を特定)
当該回転角が閾値TH1以下であると判別されたとき(S49:Y)、回転移動量算出部241は、式(7)に従ってサブピクセルレベルで位相限定相関関数の相関値の算出を行う。具体的には、回転移動量算出部241は、特開2015−043898号公報に開示されているように、サブピクセルレベルで式(7)に示す位相限定相関関数の複数の相関値を求め、ピーク位置を特定することにより相関値の高い偏角(y方向の座標)を特定する。回転移動量算出部241は、特定されたピーク値に対応したアドレスを取得し、記憶部212に保存する。
(S50: Specify the peak position at the sub-pixel level)
When it is determined that the rotation angle is equal to or less than the threshold value TH1 (S49: Y), the rotation movement
(S51:Δθを算出)
次に、回転移動量算出部241は、特開2015−043898号公報に開示されているように、サブピクセルレベルで特定されたピーク位置に対応した回転移動量Δθを算出する。回転移動方向は、Δθの符号により特定される。
(S51: Calculate Δθ)
Next, the rotational movement
(S52:位置合わせ)
回転移動量Δθが算出されると、位置合わせ処理部242は、記憶部212に記憶されたターゲット画像を−Δθだけ回転させる。
(S52: Alignment)
When the rotational movement amount Δθ is calculated, the alignment processing unit 242 rotates the target image stored in the
(S53:アポダイゼーション処理)
続いて、平行移動量算出部243は、平行移動量及び平行移動方向の算出を行う。すなわち、平行移動量算出部243は、ステップS52において位置合わせが行われたターゲット画像に対しアポダイゼーション処理を施す。この処理は、例えば、第3変換処理部311又は平行移動量算出部243における図示しないアポダイゼーション処理部により行われる。
(S53: Apodization processing)
Subsequently, the translation
(S54:2次元DFT)
次に、第3変換処理部311は、ステップS53におけるターゲット画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S54: 2D DFT)
Next, the third
(S55:位相限定合成処理)
次に、第2位相限定合成部312は、ステップS29において記憶部212に保存された第2ベースPOCデータと、ステップS54における2次元DFTの処理結果を振幅成分で正規化したターゲットPOCデータとを用いて、式(3)に示す式に従って位相限定合成処理を行う。
(S55: Phase-limited synthesis processing)
Next, the second phase
(S56:2次元IDFT)
次に、第2逆変換処理部313は、式(4)に示す式に従って位相限定合成処理の処理結果に対し2次元IDFTを施す。
(S56: 2D IDFT)
Next, the second inverse
(S57:ピーク位置を特定)
ステップS59の処理結果からピーク位置を特定することにより、相関値のx方向の座標とy方向の座標とが特定される。平行移動量算出部243は、ステップS59の処理結果のピーク値を求め、当該ピーク値に対応したピーク位置のアドレスを取得し、記憶部212に保存する。
(S57: Specify the peak position)
By specifying the peak position from the processing result of step S59, the coordinates in the x direction and the coordinates in the y direction of the correlation value are specified. The translation
(S58:移動量≦TH2?)
平行移動量算出部243は、記憶部212に記憶されたピーク位置のアドレスに基づき、例えばx方向の移動量(絶対値)及びy方向の移動量(絶対値)が閾値TH2以下であるか否かを判別する。x方向の移動量及びy方向の移動量が閾値TH2以下ではないと判別されたとき(S58:N)、平行移動量算出部243は、エラーと判断し、一連の処理を終了する(エンド)。一方、x方向の移動量及びy方向の移動量が閾値TH2以下であると判別されたとき(S58:Y)、平行移動量算出部243の処理はS59に移行する。
(S58: Movement amount ≤ TH2?)
Based on the address of the peak position stored in the
(S59:サブピクセルレベルでピーク位置を特定)
x方向の移動量及びy方向の移動量が閾値TH2以下であると判別されたとき(S58:Y)、平行移動量算出部243は、式(7)に従ってサブピクセルレベルで位相限定相関関数の相関値の算出を行う。具体的には、平行移動量算出部243は、特開2015−043898号公報に開示されているように、サブピクセルレベルで式(7)に示す位相限定相関関数の複数の相関値を求め、ピーク位置を特定することにより相関値の高い移動量(x方向の座標、及びy方向の座標)を特定する。平行移動量算出部243は、特定されたピーク値に対応したアドレスを取得し、記憶部212に保存する。
(S59: Specify the peak position at the sub-pixel level)
When it is determined that the movement amount in the x direction and the movement amount in the y direction are equal to or less than the threshold value TH2 (S58: Y), the translation
(S60:Δx、Δyを算出)
次に、平行移動量算出部243は、特開2015−043898号公報に開示されているように、サブピクセルレベルで特定されたピーク位置に対応した平行移動量Δx、Δyを算出する。平行移動方向は、Δx、Δyの符号により特定される。以上で、ターゲット画像処理の一連の処理は終了する(エンド)。
(S60: Calculate Δx and Δy)
Next, the translation
以上のように算出された回転移動量Δθ及び回転移動方向、並びに平行移動量Δx、Δy及び平行移動方向は、制御部210に出力される。制御部210(主制御部211)は、算出された平行移動量Δx、Δyに基づいて、光学系駆動部1Aを制御することにより、装置光学系を3次元的に移動させることでトラッキングを行う。制御部210は、回転移動量Δθ及び回転移動方向に基づいて光学系駆動部1Aを制御してもよい。
The rotational movement amount Δθ and the rotational movement direction calculated as described above, and the parallel movement amounts Δx, Δy and the parallel movement direction are output to the
[効果]
実施形態に係る眼科装置について説明する。
[effect]
The ophthalmic apparatus according to the embodiment will be described.
実施形態に係る眼科装置(1)は、光学系(図1に示す光学系、OCTユニット100に含まれる干渉光学系)と、撮影部(撮影光学系30)と、移動機構(光学系駆動部1A)と、制御部(210、主制御部211)とを含む。光学系は、被検眼(E)の前眼部又は眼底(Ef)のデータを収集するために用いられる。撮影部は、前眼部又は眼底を撮影する。移動機構は、被検眼と光学系とを相対的に移動する。制御部は、光学系が前眼部のデータを収集する前眼部モードのとき撮影部により得られた前眼部像に基づいて被検眼と光学系との位置関係を維持するように移動機構を制御し、光学系が眼底のデータを収集する眼底モードのとき撮影部により得られた眼底像に基づいて位置関係を維持するように移動機構を制御する。 The ophthalmic apparatus (1) according to the embodiment includes an optical system (the optical system shown in FIG. 1, an interference optical system included in the OCT unit 100), an imaging unit (imaging optical system 30), and a moving mechanism (optical system driving unit). 1A) and a control unit (210, main control unit 211) are included. The optical system is used to collect data on the anterior segment or fundus (Ef) of the eye to be inspected (E). The photographing unit photographs the anterior segment of the eye or the fundus. The moving mechanism moves the eye to be inspected and the optical system relative to each other. The control unit is a moving mechanism that maintains the positional relationship between the eye to be inspected and the optical system based on the anterior segment image obtained by the imaging unit when the optical system is in the anterior segment mode in which data of the anterior segment is collected. The movement mechanism is controlled so as to maintain the positional relationship based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode in which the data of the fundus is collected.
このような構成によれば、被検眼のデータの収集部位に対応したトラッキング制御を行うようにしたので、計測部位に応じて好適にトラッキングを行うことができるようになる。例えば、眼底のトラッキングに位相限定相関処理を用いて変位を求め、前眼部のトラッキングに別の手法を用いて変位を求めるようにすることで、眼底に対する高精度なトラッキングと、前眼部に対するトラッキングとの双方が可能な眼科装置を提供することができるようになる。 According to such a configuration, since the tracking control corresponding to the data collection site of the eye to be inspected is performed, the tracking can be suitably performed according to the measurement site. For example, by using phase-limited correlation processing to track the fundus and determining the displacement using another method for tracking the anterior segment, highly accurate tracking of the fundus and the anterior segment of the eye can be achieved. It will be possible to provide an ophthalmic apparatus capable of both tracking and tracking.
また、実施形態に係る眼科装置は、前眼部像における特徴領域を特定する解析部(231)を含み、前眼部モードのとき、制御部は、前眼部像における基準位置に対する特徴領域の変位に基づいて移動機構を制御してもよい。 Further, the ophthalmic apparatus according to the embodiment includes an analysis unit (231) for specifying a characteristic region in the anterior segment image, and in the anterior segment mode, the control unit is a feature region for a reference position in the anterior segment image. The movement mechanism may be controlled based on the displacement.
このような構成によれば、前眼部像における特徴領域の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the characteristic region in the image of the anterior segment of the eye. Can be provided.
また、実施形態に係る眼科装置は、被検眼に対して輝点を投影する輝点投影系(アライメント光学系50)と、撮影部により取得された部像における輝点に基づく輝点像を特定する解析部(231)と、を含み、前眼部モードのとき、制御部は、前眼部像における基準位置に対する輝点像の変位に基づいて移動機構を制御してもよい。 Further, the ophthalmic apparatus according to the embodiment identifies a bright spot projection system (alignment optical system 50) that projects bright spots on the eye to be inspected and a bright spot image based on the bright spots in the part image acquired by the photographing unit. In the anterior segment mode, the control unit may control the movement mechanism based on the displacement of the bright spot image with respect to the reference position in the anterior segment image.
このような構成によれば、前眼部像における輝点像の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the bright spot image in the image of the anterior segment of the eye. Equipment can be provided.
また、実施形態に係る眼科装置では、撮影部は、前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含み、撮影部により実質的に同時に得られた2以上の前眼部像を解析することで、被検眼の3次元位置を求める解析部(231)を含み、前眼部モードのとき、制御部は、被検眼に対応する基準位置に対する上記の3次元位置の変位に基づいて移動機構を制御して被検眼と光学系とを3次元的に相対移動してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the imaging unit includes two or more optometry cameras that photograph the anterior segment from different directions substantially simultaneously, and two or more images obtained substantially simultaneously by the imaging unit. Including the analysis unit (231) that obtains the three-dimensional position of the eye to be inspected by analyzing the image of the anterior eye, the control unit is the above-mentioned three-dimensional position with respect to the reference position corresponding to the eye to be inspected in the anterior eye mode. The movement mechanism may be controlled based on the displacement of the eye to be moved relative to the eye to be inspected and the optical system in three dimensions.
このような構成によれば、前眼部像における3次元位置の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the three-dimensional position in the image of the anterior segment of the eye. Equipment can be provided.
また、実施形態に係る眼科装置では、撮影部は、互いに異なるタイミングで第1画像(ベース画像)と第2画像(ターゲット画像)とを取得し、第2画像における部分画像と、第1画像における部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部(回転移動量算出部241)と、第1回転移動量に基づいて対応部分画像と部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部(位置合わせ処理部242)と、第1位置合わせ処理部により位置合わせがなされた対応部分画像と部分画像とに対して位相限定相関処理を施すことにより、対応部分画像と部分画像との間の第1平行移動量を算出する第1平行移動量算出部(平行移動量算出部243)と、を含み、前眼部モードのとき、制御部は、変位に基づいて位置関係の維持が可能か否かを判定し、位置関係の維持が不可能であると判定されたとき、第1平行移動量に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the photographing unit acquires the first image (base image) and the second image (target image) at different timings, and the partial image in the second image and the partial image in the first image The first rotational movement amount calculation unit (rotational movement amount calculation unit 241) that calculates the first rotational movement amount between the corresponding partial image corresponding to the partial image, and the corresponding partial image and portion based on the first rotational movement amount. The phase of the first alignment processing unit (alignment processing unit 242) that aligns the image with the image in the rotational direction, and the corresponding partial image and the partial image that have been aligned by the first alignment processing unit. The anterior segment mode includes a first translation amount calculation unit (translation amount calculation unit 243) that calculates a first translation amount between the corresponding partial image and the partial image by performing limited correlation processing. At this time, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the control unit moves the movement mechanism based on the first translation amount. You may control it.
このような構成によれば、上記の変位に基づいて前眼部のトラッキングが不可能と判断された場合に、位相限定相関処理により前眼部のトラッキングを行うようにしたので、前眼部のトラッキングを高精度に実現可能な眼科装置を提供することができる。 According to such a configuration, when it is determined that tracking of the anterior segment is impossible based on the above displacement, tracking of the anterior segment is performed by phase-limited correlation processing. It is possible to provide an ophthalmic apparatus capable of realizing tracking with high accuracy.
また、実施形態に係る眼科装置では、第1回転移動量算出部は、対応部分画像と部分画像とに対し位相限定相関処理を施すことにより第1回転移動量を算出してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the first rotation movement amount calculation unit may calculate the first rotation movement amount by performing phase-limited correlation processing on the corresponding partial image and the partial image.
このような構成によれば、高精度に(例えば、サブピクセルレベルで)算出された回転移動量に基づいて、対応部分画像と部分画像との間の位置合わせが可能となるので、より微小な位置ずれ量を求め、より一層高精度なトラッキングが可能となる。 With such a configuration, it is possible to align the corresponding partial image and the partial image based on the rotational movement amount calculated with high accuracy (for example, at the sub-pixel level), so that it is smaller. The amount of misalignment can be obtained, and even more accurate tracking becomes possible.
また、実施形態に係る眼科装置では、撮影部は、互いに異なるタイミングで被検眼の眼底の第3画像(ベース画像)と第4画像(ターゲット画像)とを取得し、第3画像と第4画像との間の第2回転移動量を算出する第2回転移動量算出部(回転移動量算出部241)と、第2回転移動量に基づいて3画像と4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部(位置合わせ処理部242)と、第2位置合わせ処理部により位置合わせがなされた第3画像と第4画像とに対して位相限定相関処理を施すことにより、第3画像と第4画像との間の第2平行移動量を算出する第2平行移動量算出部(平行移動量算出部243)と、を含み、眼底モードのとき、制御部は、第2平行移動量に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the photographing unit acquires the third image (base image) and the fourth image (target image) of the fundus of the eye to be examined at different timings, and the third image and the fourth image. The position in the rotation direction between the second rotation movement amount calculation unit (rotational movement amount calculation unit 241) that calculates the second rotation movement amount between the two images and the three images and the four images based on the second rotation movement amount. By performing phase-limited correlation processing on the second alignment processing unit (alignment processing unit 242) that performs alignment and the third and fourth images that have been aligned by the second alignment processing unit. A second translation amount calculation unit (translation amount calculation unit 243) for calculating a second translation amount between the third image and the fourth image is included, and in the fundus mode, the control unit is a second. The movement mechanism may be controlled based on the amount of translation.
このような構成によれば、位相限定相関処理により眼底のトラッキングを行うようにしたので、前眼部のトラッキングを可能にしつつ、眼底のトラッキングを高精度に実現可能な眼科装置を提供することができる。 According to such a configuration, since the fundus is tracked by phase-limited correlation processing, it is possible to provide an ophthalmologic apparatus capable of highly accurate tracking of the fundus while enabling tracking of the anterior segment of the eye. can.
また、実施形態に係る眼科装置では、解析部は、撮影部により取得された第3画像及び第4画像における特徴領域を特定し、制御部は、第2回転移動量及び第2平行移動量に基づいて位置関係の維持が可能か否かを判定し、位置関係の維持が不可能であると判定されたとき、第3画像及び第4画像における特徴領域の変位に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the analysis unit identifies the feature regions in the third image and the fourth image acquired by the imaging unit, and the control unit determines the second rotational movement amount and the second translation amount. Based on this, it is determined whether or not the positional relationship can be maintained, and when it is determined that the positional relationship cannot be maintained, the movement mechanism is controlled based on the displacement of the feature regions in the third and fourth images. You may.
このような構成によれば、位相限定相関処理を用いた眼底のトラッキングが不可能と判断された場合に、眼底像における特徴領域の変位に基づき眼底のトラッキングを行うようにしたので、眼底のトラッキングを確実に実行可能な眼科装置を提供することができる。 According to such a configuration, when it is determined that the fundus tracking using the phase-limited correlation processing is impossible, the fundus is tracked based on the displacement of the feature region in the fundus image. Therefore, the fundus tracking is performed. It is possible to provide an ophthalmologic device that can reliably perform the above.
また、実施形態に係る眼科装置(1)は、光学系(図1に示す光学系、OCTユニット100に含まれる干渉光学系)と、撮影部(撮影光学系30)と、移動機構(光学系駆動部1A)と、制御部(210、主制御部211)とを含む。光学系は、被検眼(E)の複数の部位のデータを収集するために用いられる。撮影部は、複数の部位のいずれかを撮影する。移動機構は、被検眼と光学系とを相対的に移動する。制御部は、撮影部により得られた光学系によるデータの収集部位に応じて、収集部位の画像に基づき被検眼と光学系との位置関係を維持するように移動機構を制御する。 Further, the ophthalmic apparatus (1) according to the embodiment includes an optical system (the optical system shown in FIG. 1, an interference optical system included in the OCT unit 100), an imaging unit (imaging optical system 30), and a moving mechanism (optical system). The drive unit 1A) and the control unit (210, main control unit 211) are included. The optical system is used to collect data for multiple sites of the eye to be inspected (E). The photographing unit photographs one of a plurality of parts. The moving mechanism moves the eye to be inspected and the optical system relative to each other. The control unit controls the movement mechanism so as to maintain the positional relationship between the eye to be inspected and the optical system based on the image of the collection site according to the data collection site by the optical system obtained by the imaging unit.
このような構成によれば、被検眼のデータの収集部位に対応したトラッキング制御を行うようにしたので、計測部位に最適なトラッキングで再現性の高いデータ収集が可能な眼科装置を提供することができる。 According to such a configuration, tracking control corresponding to the data collection site of the eye to be inspected is performed, so that it is possible to provide an ophthalmic apparatus capable of highly reproducible data collection with optimal tracking for the measurement site. can.
<変形例>
以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
<Modification example>
The embodiments shown above are merely examples for carrying out the present invention. A person who intends to carry out the present invention can make arbitrary modifications, omissions, additions, etc. within the scope of the gist of the present invention.
前述の実施形態では、光学系の構成が図1に示す構成である場合について説明したが、実施形態に係る光学系の構成はこれに限定されるものではない。実施形態に係る光学系は、レーザー光を眼底における治療部位に照射するための光学系や、被検眼に固視させた状態で視標を移動させるための光学系などを備えていてもよい。 In the above-described embodiment, the case where the configuration of the optical system is the configuration shown in FIG. 1 has been described, but the configuration of the optical system according to the embodiment is not limited to this. The optical system according to the embodiment may include an optical system for irradiating a treatment site on the fundus with laser light, an optical system for moving an optotype while the eye to be inspected is fixed, and the like.
前述の実施形態では、撮影部位が眼底又は前眼部である場合について説明したが、撮影部位は眼底や前眼部に限定されるものはない。また、撮影部位は3以上の部位であってよい。 In the above-described embodiment, the case where the imaging site is the fundus or the anterior segment of the eye has been described, but the imaging site is not limited to the fundus or the anterior segment of the eye. In addition, the imaging region may be three or more regions.
1 眼科装置
1A 光学系駆動部
10 照明光学系
23 前置レンズ
30 撮影光学系
35 CCDイメージセンサ
100 OCTユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 解析部
241 回転移動量算出部
242 位置合わせ処理部
243 平行移動量算出部
E 被検眼
1 Ophthalmic apparatus 1A Optical
Claims (5)
前記眼底の眼底像、又は互いに異なるタイミングで前記前眼部の第1画像と第2画像とを取得する撮影部と、
前記被検眼と前記光学系とを相対的に移動する移動機構と、
前記前眼部の画像における特徴領域を特定する解析部と、
前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御することでトラッキングを行い、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御することでトラッキング行う制御部と、
前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、
前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、
前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、
を含み、
前記解析部は、前記第2画像において前記第1画像に対する移動量が第1閾値以上である領域の画像を前記部分画像として特定し、
前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御する、眼科装置。 An optical system for collecting data on the anterior segment or fundus of the eye to be inspected,
An imaging unit that acquires a fundus image of the fundus, or a first image and a second image of the anterior segment at different timings.
A moving mechanism that relatively moves the eye to be inspected and the optical system,
An analysis unit that identifies a feature region in the image of the anterior segment of the eye,
When the optical system is in the anterior segment mode for collecting data of the anterior segment, the eye to be inspected and the optical system are based on the displacement of the characteristic region with respect to the reference position in the anterior segment image obtained by the imaging unit. Tracking is performed by controlling the movement mechanism so as to maintain the positional relationship of the eye fundus, and the positional relationship is based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode for collecting the data of the fundus. A control unit that performs tracking by controlling the movement mechanism so as to maintain
A first rotation movement amount calculation unit that calculates a first rotation movement amount between the partial image in the second image and the corresponding partial image corresponding to the partial image in the first image.
A first alignment processing unit that aligns the corresponding partial image and the partial image in the rotation direction based on the first rotational movement amount.
By performing phase-limited correlation processing on the corresponding partial image and the partial image aligned by the first alignment processing unit, a first translation between the corresponding partial image and the partial image is performed. The first translation amount calculation unit that calculates the amount,
Including
The analysis unit identifies an image of a region in the second image in which the amount of movement with respect to the first image is equal to or greater than the first threshold value as the partial image.
In the anterior segment mode, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the first. 1 An ophthalmic apparatus that controls the movement mechanism based on the amount of parallel movement.
前記眼底の眼底像、又は互いに異なるタイミングで前記前眼部の第1画像と第2画像とを取得する撮影部と、
前記被検眼と前記光学系とを相対的に移動する移動機構と、
前記前眼部の画像における特徴領域を特定する解析部と、
前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御することでトラッキングを行い、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御することでトラッキング行う制御部と、
前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、
前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、
前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、
を含み、
前記解析部は、前記第2画像において前記第1画像に対する移動量が第2閾値以下である領域を特定し、前記第2画像における前記特定された領域以外の領域の画像を前記部分画像として特定し、
前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御する、眼科装置。 An optical system for collecting data on the anterior segment or fundus of the eye to be inspected,
An imaging unit that acquires a fundus image of the fundus, or a first image and a second image of the anterior segment at different timings.
A moving mechanism that relatively moves the eye to be inspected and the optical system,
An analysis unit that identifies a feature region in the image of the anterior segment of the eye,
When the optical system is in the anterior segment mode for collecting data of the anterior segment, the eye to be inspected and the optical system are based on the displacement of the characteristic region with respect to the reference position in the anterior segment image obtained by the imaging unit. Tracking is performed by controlling the movement mechanism so as to maintain the positional relationship of the eye fundus, and the positional relationship is based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode for collecting the data of the fundus. A control unit that performs tracking by controlling the movement mechanism so as to maintain
A first rotation movement amount calculation unit that calculates a first rotation movement amount between the partial image in the second image and the corresponding partial image corresponding to the partial image in the first image.
A first alignment processing unit that aligns the corresponding partial image and the partial image in the rotation direction based on the first rotational movement amount.
By performing phase-limited correlation processing on the corresponding partial image and the partial image aligned by the first alignment processing unit, a first translation between the corresponding partial image and the partial image is performed. The first translation amount calculation unit that calculates the amount,
Including
The analysis unit specifies a region in the second image in which the amount of movement with respect to the first image is equal to or less than the second threshold value, and identifies an image in a region other than the specified region in the second image as the partial image. death,
In the anterior segment mode, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the first. 1 An ophthalmic apparatus that controls the movement mechanism based on the amount of parallel movement.
ことを特徴とする請求項1又は請求項2に記載の眼科装置。 Claim 1 or claim 2 characterized in that the first rotation movement amount calculation unit calculates the first rotation movement amount by performing phase-limited correlation processing on the corresponding partial image and the partial image. The ophthalmic apparatus described in.
前記第3画像と前記第4画像との間の第2回転移動量を算出する第2回転移動量算出部と、
前記第2回転移動量に基づいて前記第3画像と前記第4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部と、
前記第2位置合わせ処理部により位置合わせがなされた前記第3画像と前記第4画像とに対して位相限定相関処理を施すことにより、前記第3画像と前記第4画像との間の第2平行移動量を算出する第2平行移動量算出部と、
を含み、
前記眼底モードのとき、前記制御部は、前記第2平行移動量に基づいて前記移動機構を制御する
ことを特徴とする請求項1〜請求項3のいずれか一項に記載の眼科装置。 The photographing unit acquires the third image and the fourth image of the fundus of the eye to be inspected at different timings.
A second rotation movement amount calculation unit that calculates a second rotation movement amount between the third image and the fourth image, and a second rotation movement amount calculation unit.
A second alignment processing unit that aligns the third image and the fourth image in the rotation direction based on the second rotational movement amount.
By performing phase-limited correlation processing on the third image and the fourth image aligned by the second alignment processing unit, a second image between the third image and the fourth image is performed. The second translation amount calculation unit that calculates the parallel movement amount, and
Including
Wherein when the fundus mode, the control unit may ophthalmic apparatus according to any one of claims 1 to 3, wherein the controller controls the moving mechanism based on the second amount of translation.
前記制御部は、前記第2回転移動量及び前記第2平行移動量に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第3画像及び前記第4画像における前記特徴領域の変位に基づいて前記移動機構を制御する
ことを特徴とする請求項4に記載の眼科装置。 The analysis unit identifies the feature regions in the third image and the fourth image acquired by the photographing unit.
The control unit determines whether or not the positional relationship can be maintained based on the second rotational movement amount and the second parallel movement amount, and when it is determined that the positional relationship cannot be maintained. The ophthalmic apparatus according to claim 4 , wherein the movement mechanism is controlled based on the displacement of the feature region in the third image and the fourth image.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017163458A JP6923392B2 (en) | 2017-08-28 | 2017-08-28 | Ophthalmic equipment |
EP18188262.2A EP3449806B1 (en) | 2017-08-28 | 2018-08-09 | Ophthalmologic apparatus |
US16/113,246 US10993616B2 (en) | 2017-08-28 | 2018-08-27 | Ophthalmologic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017163458A JP6923392B2 (en) | 2017-08-28 | 2017-08-28 | Ophthalmic equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019037646A JP2019037646A (en) | 2019-03-14 |
JP6923392B2 true JP6923392B2 (en) | 2021-08-18 |
Family
ID=63207626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017163458A Active JP6923392B2 (en) | 2017-08-28 | 2017-08-28 | Ophthalmic equipment |
Country Status (3)
Country | Link |
---|---|
US (1) | US10993616B2 (en) |
EP (1) | EP3449806B1 (en) |
JP (1) | JP6923392B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009627B (en) * | 2019-04-11 | 2021-06-18 | 北京康夫子健康技术有限公司 | Method and apparatus for processing image |
EP3804606B1 (en) * | 2019-10-07 | 2022-05-11 | Optos PLC | Ophthalmic imaging system |
CN113476014B (en) * | 2021-06-02 | 2023-11-14 | 北京鹰瞳科技发展股份有限公司 | System and method for establishing corresponding relation of double coordinate systems |
US20240027180A1 (en) * | 2022-07-21 | 2024-01-25 | Alcon Inc. | Calibration of imaging system with combined optical coherence tomography and visualization module |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4933413B2 (en) * | 2007-12-11 | 2012-05-16 | 株式会社トーメーコーポレーション | Anterior segment optical coherence tomography apparatus and anterior segment optical coherence tomography method |
JP6100027B2 (en) | 2011-03-31 | 2017-03-22 | キヤノン株式会社 | Image pickup apparatus control apparatus, image pickup apparatus control method, and program |
JP5220208B2 (en) | 2011-03-31 | 2013-06-26 | キヤノン株式会社 | Control device, imaging control method, and program |
JP6143447B2 (en) * | 2011-12-21 | 2017-06-07 | キヤノン株式会社 | Ophthalmic apparatus, eye measurement method, and program |
JP5236089B1 (en) * | 2012-01-26 | 2013-07-17 | キヤノン株式会社 | Optical coherence tomography apparatus, control method of optical coherence tomography apparatus, and program |
JP6436613B2 (en) * | 2012-11-09 | 2018-12-12 | キヤノン株式会社 | Ophthalmic photographing apparatus and control method of ophthalmic photographing apparatus |
JP6460618B2 (en) | 2013-01-31 | 2019-01-30 | キヤノン株式会社 | Optical coherence tomography apparatus and control method thereof |
JP6184114B2 (en) * | 2013-01-31 | 2017-08-23 | キヤノン株式会社 | Optical coherence tomography apparatus and control method thereof |
JP6184113B2 (en) * | 2013-01-31 | 2017-08-23 | キヤノン株式会社 | Optical tomographic imaging apparatus and control method thereof |
JP6193576B2 (en) * | 2013-01-31 | 2017-09-06 | キヤノン株式会社 | Ophthalmic apparatus and control method |
US9526415B2 (en) | 2013-04-03 | 2016-12-27 | Kabushiki Kaisha Topcon | Ophthalmologic apparatus |
US9295387B2 (en) | 2013-04-03 | 2016-03-29 | Kabushiki Kaisha Topcon | Ophthalmologic apparatus |
US9295386B2 (en) | 2013-04-03 | 2016-03-29 | Kabushiki Kaisha Topcon | Ophthalmologic apparatus |
US9370301B2 (en) | 2013-04-03 | 2016-06-21 | Kabushiki Kaisha Topcon | Ophthalmologic apparatus |
US9380937B2 (en) * | 2013-04-03 | 2016-07-05 | Kabushiki Kaisha Topcon | Ophthalmologic apparatus |
JP6276943B2 (en) * | 2013-08-28 | 2018-02-07 | 株式会社トプコン | Ophthalmic equipment |
EP3084717B1 (en) * | 2013-12-19 | 2022-09-14 | Carl Zeiss Meditec, Inc. | Systems & methods for ocular anterior segment tracking, alignment, and dewarping using optical coherence tomography |
JP6676296B2 (en) * | 2015-07-01 | 2020-04-08 | 株式会社トプコン | Ophthalmic examination device |
JP2017104343A (en) * | 2015-12-10 | 2017-06-15 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
JP6923393B2 (en) * | 2017-08-28 | 2021-08-18 | 株式会社トプコン | Ophthalmic device and its control method |
-
2017
- 2017-08-28 JP JP2017163458A patent/JP6923392B2/en active Active
-
2018
- 2018-08-09 EP EP18188262.2A patent/EP3449806B1/en active Active
- 2018-08-27 US US16/113,246 patent/US10993616B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019037646A (en) | 2019-03-14 |
EP3449806A1 (en) | 2019-03-06 |
EP3449806B1 (en) | 2021-10-20 |
US20190059722A1 (en) | 2019-02-28 |
US10993616B2 (en) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6426974B2 (en) | Data processing method and OCT apparatus | |
JP6276943B2 (en) | Ophthalmic equipment | |
JP6899632B2 (en) | Ophthalmologic imaging equipment | |
US20190059723A1 (en) | Ophthalmologic apparatus and method of controlling the same | |
JP6776076B2 (en) | OCT device | |
JP4949504B2 (en) | Ophthalmic imaging equipment | |
JP6923392B2 (en) | Ophthalmic equipment | |
JP7080076B2 (en) | Ophthalmic device and its control method | |
JP6923393B2 (en) | Ophthalmic device and its control method | |
JP7096392B2 (en) | Ophthalmic equipment | |
JP5319010B2 (en) | Ophthalmic imaging equipment | |
JP5255711B2 (en) | Ophthalmic imaging equipment | |
JP6934747B2 (en) | Ophthalmic device and its control method | |
JP7080075B2 (en) | Ophthalmic device and its control method | |
JPWO2020044712A1 (en) | Ophthalmic device and its control method | |
JP6809926B2 (en) | Ophthalmic equipment | |
JP6779674B2 (en) | OCT device | |
JP6564076B2 (en) | Ophthalmic equipment | |
JP7096391B2 (en) | Ophthalmic equipment | |
JP5306554B2 (en) | Ophthalmic imaging equipment | |
JP6959158B2 (en) | Ophthalmic equipment | |
JP6527970B2 (en) | Ophthalmic device | |
JP6954831B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2022071191A (en) | Ophthalmologic apparatus and control method thereof | |
JP2023040529A (en) | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6923392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |