JP6923392B2 - Ophthalmic equipment - Google Patents

Ophthalmic equipment Download PDF

Info

Publication number
JP6923392B2
JP6923392B2 JP2017163458A JP2017163458A JP6923392B2 JP 6923392 B2 JP6923392 B2 JP 6923392B2 JP 2017163458 A JP2017163458 A JP 2017163458A JP 2017163458 A JP2017163458 A JP 2017163458A JP 6923392 B2 JP6923392 B2 JP 6923392B2
Authority
JP
Japan
Prior art keywords
image
unit
eye
fundus
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017163458A
Other languages
Japanese (ja)
Other versions
JP2019037646A (en
Inventor
佑介 小野
佑介 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017163458A priority Critical patent/JP6923392B2/en
Priority to EP18188262.2A priority patent/EP3449806B1/en
Priority to US16/113,246 priority patent/US10993616B2/en
Publication of JP2019037646A publication Critical patent/JP2019037646A/en
Application granted granted Critical
Publication of JP6923392B2 publication Critical patent/JP6923392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0075Apparatus for testing the eyes; Instruments for examining the eyes provided with adjusting devices, e.g. operated by control lever
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/132Ophthalmic microscopes in binocular arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Description

この発明は、眼科装置に関する。 The present invention relates to an ophthalmic apparatus.

被検眼を撮影する眼科装置として、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)を用いた装置や眼底カメラや走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:以下、SLO)やスリットランプなどがある。中でも、レーザー光源等からの光ビームを用いて対象眼の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。例えば、眼科分野においては、被検眼の前眼部等の画像を形成したり眼内距離を計測したりする装置が実用化されている。 As an ophthalmic device for photographing the eye to be inspected, there are a device using optical coherence tomography (hereinafter, OCT), a fundus camera, a scanning laser optical probe (hereinafter, SLO), a slit lamp, and the like. .. Among them, OCT that forms an image showing the surface morphology and the internal morphology of the target eye by using a light beam from a laser light source or the like is attracting attention. Since OCT does not have the invasiveness to the human body like X-ray CT, it is expected to be applied especially in the medical field and the biology field. For example, in the field of ophthalmology, a device for forming an image of the anterior segment of the eye to be inspected and measuring the intraocular distance has been put into practical use.

このような眼科装置において、トラッキングは、被検眼の眼球運動にかかわらず高精細な画像を取得したり高精度に計測したりするための重要な技術である。トラッキングとは、被検眼の眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置等を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。このようなトラッキングに関する技術については、種々提案されている。 In such an ophthalmic apparatus, tracking is an important technique for acquiring a high-definition image and measuring with high accuracy regardless of the eye movement of the eye to be inspected. Tracking is to move the device optical system according to the eye movement of the eye to be inspected. When tracking, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by making the position of the optical system of the device follow the movement of the eyeball. Various techniques related to such tracking have been proposed.

例えば、特許文献1には、眼底カメラを用いて眼底のベース画像及びターゲット画像を取得し、ベース画像及びターゲット画像に対して位相限定相関処理を施して微少な位置ずれ量を求め、求められた位置ずれ量に基づいてトラッキング制御を行う眼科装置が開示されている。 For example, in Patent Document 1, a fundus camera is used to acquire a base image and a target image of the fundus, and the base image and the target image are subjected to phase-limited correlation processing to obtain a minute amount of misalignment. An ophthalmologic apparatus that performs tracking control based on the amount of misalignment is disclosed.

また、例えば、特許文献2には、前眼部のトラッキングを開始してSLOのフォーカス調整を行った後、眼底のトラッキングを開始してコヒーレンスゲート調整を行うことで、調整に要する時間を短縮する手法が開示されている。 Further, for example, in Patent Document 2, tracking of the anterior segment of the eye is started to adjust the focus of the SLO, and then tracking of the fundus is started to adjust the coherence gate, thereby shortening the time required for the adjustment. The method is disclosed.

特開2015−043898号公報Japanese Unexamined Patent Publication No. 2015-043898 特開2017−080561号公報Japanese Unexamined Patent Publication No. 2017-080561

被検眼の前眼部の計測や撮影を行う場合、前眼部像を取得し、取得された前眼部像を用いてトラッキング制御が行われる。しかしながら、前眼部像には、眼球運動で移動する瞳孔領域の他に移動しない瞼や睫毛等が描出されるため、位相限定相関処理を用いて位置ずれ量を求めることができない。従って、従来の眼科装置では、被検眼の眼底に対する高精度なトラッキングを実行可能であるが、前眼部に対してトラッキングを行うことができなかった。 When measuring or photographing the anterior segment of the eye to be inspected, an anterior segment image is acquired and tracking control is performed using the acquired anterior segment image. However, since the non-moving eyelids, eyelashes, and the like are depicted in the anterior segment image in addition to the pupil region that moves due to eye movement, the amount of misalignment cannot be determined by using phase-limited correlation processing. Therefore, with the conventional ophthalmic apparatus, it is possible to perform highly accurate tracking on the fundus of the eye to be inspected, but it is not possible to perform tracking on the anterior segment of the eye.

本発明は、このような事情に鑑みてなされたものであり、その目的は、計測部位に応じて好適にトラッキングするための技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for suitably tracking according to a measurement site.

実施形態の第1態様は、被検眼の前眼部又は眼底のデータを収集するための光学系と、前記前眼部又は前記眼底を撮影する撮影部と、前記被検眼と前記光学系とを相対的に移動する移動機構と、前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御し、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御する制御部と、を含む眼科装置である。 In the first aspect of the embodiment, an optical system for collecting data on the anterior segment or fundus of the eye to be inspected, an imaging unit for photographing the anterior segment or fundus, and the eye to be inspected and the optical system are provided. The eye to be inspected and the optical system based on a moving mechanism that moves relatively and an anterior segment image obtained by the imaging unit when the optical system is in the anterior segment mode for collecting data of the anterior segment. The movement mechanism is controlled so as to maintain the positional relationship of the eye, and the positional relationship is maintained based on the fundus image obtained by the imaging unit when the optical system is in the fundus mode for collecting the data of the fundus. It is an ophthalmologic apparatus including a control unit that controls the movement mechanism.

また、実施形態の第2態様は、第1態様において、前記前眼部像における特徴領域を特定する解析部を含み、前記前眼部モードのとき、前記制御部は、前記前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記移動機構を制御してもよい。 In addition, the second aspect of the embodiment includes an analysis unit that identifies a characteristic region in the anterior segment image in the first aspect, and in the anterior segment mode, the control unit is in the anterior segment image. The moving mechanism may be controlled based on the displacement of the feature region with respect to the reference position.

また、実施形態の第3態様は、第1態様において、前記被検眼に対して輝点を投影する輝点投影系と、前記撮影部により取得された前眼部像における前記輝点に基づく輝点像を特定する解析部と、を含み、前記前眼部モードのとき、前記制御部は、前記前眼部像における基準位置に対する前記輝点像の変位に基づいて前記移動機構を制御してもよい。 Further, in the third aspect of the embodiment, in the first aspect, a bright spot projection system that projects a bright spot onto the eye to be inspected and a bright spot based on the bright spot in the anterior eye portion image acquired by the photographing unit. In the anterior segment mode, which includes an analysis unit that identifies a point image, the control unit controls the movement mechanism based on the displacement of the bright spot image with respect to a reference position in the anterior segment image. May be good.

また、実施形態の第4態様は、第1態様において、前記撮影部は、前記前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含み、前記撮影部により実質的に同時に得られた2以上の前眼部像を解析することで、前記被検眼の3次元位置を求める解析部を含み、前記前眼部モードのとき、前記制御部は、前記被検眼に対応する基準位置に対する前記3次元位置の変位に基づいて前記移動機構を制御して前記被検眼と前記光学系とを3次元的に相対移動してもよい。 Further, in the fourth aspect of the embodiment, in the first aspect, the photographing unit includes two or more optometry cameras that photograph the anterior eye portion from different directions substantially at the same time, and the photographing unit substantially. Including an analysis unit that obtains a three-dimensional position of the eye to be inspected by analyzing two or more anterior segment images obtained at the same time, the control unit corresponds to the eye to be inspected in the anterior segment mode. The movement mechanism may be controlled based on the displacement of the three-dimensional position with respect to the reference position to move the eye to be inspected and the optical system three-dimensionally relative to each other.

また、実施形態の第5態様は、第2態様〜第4態様のいずれかにおいて、前記撮影部は、互いに異なるタイミングで第1画像と第2画像とを取得し、前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、を含み、前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御してもよい。 Further, in the fifth aspect of the embodiment, in any of the second to fourth aspects, the photographing unit acquires the first image and the second image at different timings from each other, and the partial image in the second image. The first rotational movement amount calculation unit that calculates the first rotational movement amount between the first image and the corresponding partial image corresponding to the partial image in the first image, and the corresponding partial image based on the first rotational movement amount. Phase limitation with respect to the first alignment processing unit that aligns the image and the partial image in the rotational direction, and the corresponding partial image and the partial image that have been aligned by the first alignment processing unit. The control unit includes a first translation amount calculation unit that calculates a first translation amount between the corresponding partial image and the partial image by performing correlation processing, and in the anterior segment mode. Determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, moves the moving mechanism based on the first translation amount. You may control it.

また、実施形態の第6態様では、第5態様において、前記第1回転移動量算出部は、前記対応部分画像と前記部分画像とに対し位相限定相関処理を施すことにより前記第1回転移動量を算出してもよい。 Further, in the sixth aspect of the embodiment, in the fifth aspect, the first rotation movement amount calculation unit performs the phase-limited correlation processing on the corresponding partial image and the partial image to perform the first rotation movement amount. May be calculated.

また、実施形態の第7態様では、第2態様〜第6態様のいずれかにおいて、前記撮影部は、互いに異なるタイミングで前記被検眼の眼底の第3画像と第4画像とを取得し、前記第3画像と前記第4画像との間の第2回転移動量を算出する第2回転移動量算出部と、前記第2回転移動量に基づいて前記3画像と前記4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部と、前記第2位置合わせ処理部により位置合わせがなされた前記第3画像と前記第4画像とに対して位相限定相関処理を施すことにより、前記第3画像と前記第4画像との間の第2平行移動量を算出する第2平行移動量算出部と、を含み、前記眼底モードのとき、前記制御部は、前記第2平行移動量に基づいて前記移動機構を制御してもよい。 Further, in the seventh aspect of the embodiment, in any of the second to sixth aspects, the photographing unit acquires the third image and the fourth image of the fundus of the eye to be inspected at different timings, and the image is described. A second rotation movement amount calculation unit that calculates a second rotation movement amount between the third image and the fourth image, and a rotation between the three images and the four images based on the second rotation movement amount. The second alignment processing unit that aligns the directions, and the third image and the fourth image that have been aligned by the second alignment processing unit are subjected to phase-limited correlation processing to perform the phase-limited correlation processing. A second translation amount calculation unit for calculating a second translation amount between the third image and the fourth image is included, and in the fundus mode, the control unit uses the second translation amount. The movement mechanism may be controlled based on the above.

また、実施形態の第8態様では、第7態様において、前記解析部は、前記撮影部により取得された前記第3画像及び前記第4画像における特徴領域を特定し、前記制御部は、前記第2回転移動量及び前記第2平行移動量に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第3画像及び前記第4画像における前記特徴領域の変位に基づいて前記移動機構を制御してもよい。 Further, in the eighth aspect of the embodiment, in the seventh aspect, the analysis unit identifies the feature regions in the third image and the fourth image acquired by the photographing unit, and the control unit uses the control unit. It is determined whether or not the positional relationship can be maintained based on the two-rotational movement amount and the second parallel movement amount, and when it is determined that the positional relationship cannot be maintained, the third image and the said The movement mechanism may be controlled based on the displacement of the feature region in the fourth image.

また、実施形態の第9態様は、被検眼の複数の部位のデータを収集するための光学系と、前記複数の部位のいずれかを撮影する撮影部と、前記被検眼と前記光学系とを相対的に移動する移動機構と、前記撮影部により得られた前記光学系によるデータの収集部位に応じて、前記収集部位の画像に基づき前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御する制御部と、を含む眼科装置である。 Further, in the ninth aspect of the embodiment, an optical system for collecting data of a plurality of parts of the eye to be inspected, an imaging unit for photographing any of the plurality of parts, and the eye to be inspected and the optical system are provided. The positional relationship between the eye to be inspected and the optical system is maintained based on the image of the collection site according to the moving mechanism that moves relatively and the data collection site by the optical system obtained by the imaging unit. It is an ophthalmic apparatus including a control unit for controlling the movement mechanism.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 In addition, it is possible to arbitrarily combine the configurations according to the above-mentioned plurality of aspects.

本発明によれば、計測部位に応じて好適にトラッキングするための技術を提供することができる。 According to the present invention, it is possible to provide a technique for suitably tracking according to a measurement site.

実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the optical system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the optical system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the processing system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the processing system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作を説明するための概略図である。It is the schematic for demonstrating the operation of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the processing system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the processing system of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科装置の動作例のフロー図である。It is a flow chart of the operation example of the ophthalmic apparatus which concerns on embodiment.

この発明に係る眼科装置の実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。 An example of an embodiment of the ophthalmic apparatus according to the present invention will be described in detail with reference to the drawings. It should be noted that the description contents of the documents cited in this specification and arbitrary known techniques can be incorporated into the following embodiments.

実施形態に係る眼科装置は、少なくともOCTを実行する機能を備え、被測定物体に対してOCTを実行することにより被測定物体に関する情報を取得することが可能な計測装置である。以下、実施形態に係る眼科装置が、被測定物体としての生体眼に対してOCTを実行することにより生体眼を画像化する場合について説明するが、実施形態はこれに限定されない。例えば、実施形態に係る眼科装置は、生体眼に対してOCTを実行することにより眼軸長など生体眼の眼内距離を計測可能であってよい。 The ophthalmic apparatus according to the embodiment is a measuring apparatus having at least a function of executing OCT and capable of acquiring information about the object to be measured by executing OCT on the object to be measured. Hereinafter, the case where the ophthalmic apparatus according to the embodiment images the living eye by performing OCT on the living eye as the object to be measured will be described, but the embodiment is not limited to this. For example, the ophthalmic apparatus according to the embodiment may be capable of measuring the intraocular distance of the living eye such as the axial length by performing OCT on the living eye.

実施形態に係る眼科装置は、フーリエドメインOCTと眼底カメラとを組み合わせた眼科装置である。この眼科装置は、スウェプトソースOCTを実行する機能を備えているが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 The ophthalmic apparatus according to the embodiment is an ophthalmic apparatus that combines a Fourier domain OCT and a fundus camera. This ophthalmic device has the ability to perform swept source OCT, but embodiments are not limited to this. For example, the type of OCT is not limited to swept source OCT, and may be spectral domain OCT or the like. The swept source OCT divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and causes the return light of the measurement light passing through the object to be measured to interfere with the reference light to generate interference light. Then, this interference light is detected by a balanced photodiode or the like, and the detection data collected in response to the sweeping of the wavelength and the scanning of the measurement light is subjected to Fourier transform or the like to form an image. Spectral domain OCT divides the light from the low coherence light source into measurement light and reference light, and causes the return light of the measurement light that has passed through the object to be measured to interfere with the reference light to generate interference light. This is a method in which the spectral distribution is detected by a spectroscope and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

実施形態に係る眼科装置には、眼底カメラの代わりに、走査型レーザー検眼鏡(SLO)や、スリットランプ顕微鏡や、前眼部撮影カメラや、手術用顕微鏡や、光凝固装置などが設けられてもよい。この明細書では、OCTによる計測を「OCT計測」と総称し、OCTによって取得される画像をOCT画像と総称し、測定光の光路を「測定光路」と表記し、参照光の光路を「参照光路」と表記することがある。 The ophthalmic apparatus according to the embodiment is provided with a scanning laser ophthalmoscope (SLO), a slit lamp microscope, an anterior ocular segment imaging camera, a surgical microscope, a photocoagulation apparatus, and the like, instead of the fundus camera. May be good. In this specification, the measurement by OCT is collectively referred to as "OCT measurement", the image acquired by OCT is collectively referred to as an OCT image, the optical path of measurement light is referred to as "measurement optical path", and the optical path of reference light is referred to as "reference". Sometimes referred to as "optical path".

[構成]
図1に示すように、実施形態に係る眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、OCTを実行するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するプロセッサを具備している。
[composition]
As shown in FIG. 1, the ophthalmic apparatus 1 according to the embodiment includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 has an optical system substantially similar to that of a conventional fundus camera. The OCT unit 100 is provided with an optical system for executing OCT. The arithmetic control unit 200 includes a processor that executes various arithmetic processes, control processes, and the like.

本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等を含む処理回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In the present specification, the "processor" is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, a SPLD (Simple Program) It means a processing circuit including Programmable Logic Device), FPGA (Field Programmable Gate Array), and the like. The processor realizes the function according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example.

〔眼底カメラユニット〕
眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、例えば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、例えば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、例えばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 is provided with an optical system for acquiring a two-dimensional image (fundus image) showing the surface morphology of the fundus Ef of the eye E to be inspected. The fundus image includes an observation image, a photographed image, and the like. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near-infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near-infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be capable of acquiring images other than these, such as a fluorescein fluorescence image, an indocyanine green fluorescence image, and a spontaneous fluorescence image.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30とが設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を被検眼Eに導くとともに、被検眼Eを経由した測定光をOCTユニット100に導く。 The fundus camera unit 2 is provided with a chin rest and a forehead pad for supporting the face of the subject. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus Ef with illumination light. The photographing optical system 30 guides the fundus reflected light of this illumination light to an image pickup device (CCD image sensor (sometimes simply referred to as CCD) 35, 38). Further, the photographing optical system 30 guides the measurement light from the OCT unit 100 to the eye E to be inspected, and guides the measurement light passing through the eye E to be inspected to the OCT unit 100.

照明光学系10の観察光源11は、例えばハロゲンランプ又はLED(Light Emitting Diode)により構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。 The observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp or an LED (Light Emitting Diode). The light output from the observation light source 11 (observation illumination light) is reflected by the reflection mirror 12 having a curved reflecting surface, passes through the condenser lens 13, passes through the visible cut filter 14, and becomes near-infrared light. Become. Further, the observation illumination light is once focused in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17, 18, the diaphragm 19, and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion of the perforated mirror 21 (the region around the perforated portion), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the fundus Ef.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、例えば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、前眼部からの観察照明光の反射光がCCDイメージセンサ35により検出され、当該反射光に基づく前眼部の観察画像が表示装置3に表示される。 The fundus reflected light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is focused for photographing. It is reflected by the mirror 32 via the lens 31. Further, the reflected light from the fundus of the eye passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the CCD image sensor 35 by the condenser lens 34. The CCD image sensor 35 detects the fundus reflected light at a predetermined frame rate, for example. An image (observation image) based on the fundus reflected light detected by the CCD image sensor 35 is displayed on the display device 3. When the photographing optical system 30 is focused on the anterior segment of the eye, the reflected light of the observation illumination light from the anterior segment of the eye is detected by the CCD image sensor 35, and the observation image of the anterior segment of the eye based on the reflected light. Is displayed on the display device 3.

撮影光源15は、例えばキセノンランプ又はLEDにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。なお、撮影光学系30のピントが前眼部に合わせられている場合、前眼部からの観察照明光の反射光がCCDイメージセンサ38により検出され、当該反射光に基づく前眼部の画像(撮影画像)が表示装置3に表示される。 The photographing light source 15 is composed of, for example, a xenon lamp or an LED. The light output from the photographing light source 15 (photographing illumination light) is applied to the fundus Ef through the same path as the observation illumination light. The fundus reflected light of the photographing illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condensing lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. An image (captured image) based on the fundus reflected light detected by the CCD image sensor 38 is displayed on the display device 3. The display device 3 for displaying the observed image and the display device 3 for displaying the captured image may be the same or different. Further, when the eye E to be inspected is illuminated with infrared light and the same imaging is performed, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source. When the photographing optical system 30 is focused on the anterior segment of the eye, the reflected light of the observation illumination light from the anterior segment of the eye is detected by the CCD image sensor 38, and an image of the anterior segment of the eye based on the reflected light ( The captured image) is displayed on the display device 3.

LCD(Liquid Crystal Display)39は、固視標や視力測定用視標を表示する。固視標は被検眼Eを固視させるための視標であり、眼底撮影時やOCT計測時などに使用される。 The LCD (Liquid Crystal Display) 39 displays a fixation target and a visual acuity measurement target. The fixation target is a target for fixing the eye E to be inspected, and is used at the time of fundus photography, OCT measurement, and the like.

LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに照射される。LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。 A part of the light output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31 and the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21. The light that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is irradiated to the fundus Ef. By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E to be inspected can be changed.

更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための視標(アライメント視標)を生成する。フォーカス光学系60は、被検眼Eに対してフォーカス(ピント)を合わせるための視標(スプリット視標)を生成する。 Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera. The alignment optical system 50 generates an optotype (alignment optotype) for aligning the device optical system with respect to the eye E to be inspected. The focus optical system 60 generates an optotype (split optotype) for focusing on the eye E to be inspected.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に照射される。 The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the diaphragms 52 and 53 and the relay lens 54, and passes through the hole portion of the perforated mirror 21. The light that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46 and is irradiated to the cornea of the eye E to be inspected by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、撮影合焦レンズ31を通過する。撮影合焦レンズ31を通過した角膜反射光は、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント視標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント視標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。 The corneal reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole portion, and a part of the light passes through the dichroic mirror 55 and passes through the photographing focusing lens 31. The corneal reflex light that has passed through the photographing focusing lens 31 is reflected by the mirror 32, transmitted through the half mirror 33A, reflected by the dichroic mirror 33, and projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens 34. The received image (alignment optotype) by the CCD image sensor 35 is displayed on the display device 3 together with the observed image. The user performs the alignment by performing the same operation as the conventional fundus camera. Further, the arithmetic control unit 200 may analyze the position of the alignment optotype and move the optical system to perform alignment (auto alignment function).

フォーカス光学系60は、照明光学系10の光路に沿って移動可能である。撮影合焦レンズ31は、フォーカス光学系60の移動に連動して撮影光学系30の光路に沿って移動可能である。フォーカス光学系60の反射棒67は、照明光路に対して挿脱可能である。 The focus optical system 60 can move along the optical path of the illumination optical system 10. The photographing focusing lens 31 can move along the optical path of the photographing optical system 30 in conjunction with the movement of the focusing optical system 60. The reflection rod 67 of the focus optical system 60 is removable with respect to the illumination optical path.

フォーカス調整を行う際には、照明光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット視標板63により2つの光束に分離され、二孔絞り64を通過する。二孔絞り64を通過した光は、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。反射棒67の反射面により反射された光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて一対のスプリット視標光として被検眼Eに照射される。 When adjusting the focus, the reflecting surface of the reflecting rod 67 is obliquely provided on the illumination light path. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two luminous fluxes by the split optotype plate 63, and passes through the two-hole diaphragm 64. The light that has passed through the two-hole diaphragm 64 is reflected by the mirror 65, is once imaged on the reflecting surface of the reflecting rod 67 by the condenser lens 66, and is reflected. The light reflected by the reflecting surface of the reflecting rod 67 passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is received as a pair of split optotypes. The eye examination E is irradiated.

被検眼Eの瞳孔を通過した一対のスプリット視標光は、被検眼Eの眼底Efに到達する。一対のスプリット視標光の眼底反射光は、瞳孔を通過し、照明光の眼底反射光束と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(一対のスプリット視標像)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、一対のスプリット視標像の位置を解析してフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。フォーカス光学系60の移動に連動して撮影合焦レンズ31を移動することにより、眼底像はCCDイメージセンサ35の撮像面に結像する。また、一対のスプリット視標像を視認しつつ手動で(後述の操作部240Bに対する操作で)ピント合わせを行ってもよい。 The pair of split target lights that have passed through the pupil of the eye E to be inspected reach the fundus Ef of the eye E to be inspected. The fundus reflected light of the pair of split target lights passes through the pupil and is detected by the CCD image sensor 35 through the same path as the fundus reflected light flux of the illumination light. The received image (a pair of split optotype images) received by the CCD image sensor 35 is displayed on the display device 3 together with the observed image. The arithmetic control unit 200 analyzes the positions of the pair of split optotype images and moves the focus optical system 60 to perform focusing (autofocus function), as in the conventional case. By moving the photographing focusing lens 31 in conjunction with the movement of the focus optical system 60, the fundus image is formed on the imaging surface of the CCD image sensor 35. Further, focusing may be performed manually (by operating the operation unit 240B described later) while visually recognizing the pair of split optotype images.

反射棒67は、被検眼Eの眼底Efと光学的に略共役な照明光路上の位置に挿入される。照明光学系10の光路に挿入されている反射棒67の反射面の位置は、スプリット視標板63と光学的に略共役な位置である。フォーカス視標光は、前述のように、二孔絞り64などの作用により2つに分離される。眼底Efと反射棒67の反射面とが共役ではない場合、CCDイメージセンサ35により取得された一対のスプリット視標像は、例えば、左右方向に2つに分離して表示装置3に表示される。眼底Efと反射棒67の反射面とが略共役である場合、CCDイメージセンサ35により取得された一対のスプリット視標像は、例えば、上下方向に一致して表示装置3に表示される。眼底Efとスプリット視標板63とが常に光学的に共役になるようにフォーカス光学系60が照明光路に沿って移動されるとこれに連動して撮影合焦レンズ31が撮影光軸に沿って移動する。眼底Efとスプリット視標板63とが共役になっていない場合には一対のスプリット視標像が2つに分離するため、一対のスプリット視標像が上下方向に一致するようにフォーカス光学系60を移動することにより、撮影合焦レンズ31の位置が求められる。なお、この実施形態では、一対のスプリット視標像が取得される場合について説明したが、3以上のスプリット視標像であってよい。 The reflection rod 67 is inserted at a position on the illumination optical path that is optically substantially coupled to the fundus Ef of the eye E to be inspected. The position of the reflecting surface of the reflecting rod 67 inserted in the optical path of the illumination optical system 10 is a position substantially conjugate with the split optotype 63. As described above, the focus target light is separated into two by the action of the two-hole diaphragm 64 and the like. When the fundus Ef and the reflecting surface of the reflecting rod 67 are not conjugated, the pair of split optotype images acquired by the CCD image sensor 35 are displayed on the display device 3 separately in the left-right direction, for example. .. When the fundus Ef and the reflecting surface of the reflecting rod 67 are substantially conjugated, the pair of split optotype images acquired by the CCD image sensor 35 are displayed on the display device 3 so as to coincide with each other in the vertical direction, for example. When the focus optical system 60 is moved along the illumination optical path so that the fundus Ef and the split optotype 63 are always optically coupled, the photographing focusing lens 31 moves along the photographing optical axis in conjunction with this. Moving. When the fundus Ef and the split optotype 63 are not conjugated, the pair of split optotypes are separated into two, so that the pair of split optotypes coincide with each other in the vertical direction. The position of the photographing focusing lens 31 can be obtained by moving the lens 31. In this embodiment, the case where a pair of split optotypes is acquired has been described, but it may be three or more split optotypes.

ダイクロイックミラー46は、観察・撮影用の光路からOCT用の光路を分岐させている。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、観察・撮影用の光を透過させる。このOCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、光スキャナ42と、OCT合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。 The dichroic mirror 46 branches the optical path for OCT from the optical path for observation / photographing. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for observation / photographing. The optical path for OCT is provided with a collimator lens unit 40, an optical path length changing unit 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 in order from the OCT unit 100 side. Has been done.

コリメータレンズユニット40は、コリメータレンズを含む。コリメータレンズユニット40は、光ファイバによりOCTユニット100と光学的に接続されている。この光ファイバの出射端を臨む位置に、コリメータレンズユニット40のコリメータレンズが配置されている。コリメータレンズユニット40は、光ファイバの出射端から出射された測定光LS(後述)を平行光束にするとともに、被検眼Eからの測定光の戻り光を当該出射端に集光する。 The collimator lens unit 40 includes a collimator lens. The collimator lens unit 40 is optically connected to the OCT unit 100 by an optical fiber. The collimator lens of the collimator lens unit 40 is arranged at a position facing the exit end of the optical fiber. The collimator lens unit 40 converts the measurement light LS (described later) emitted from the emission end of the optical fiber into a parallel light flux, and collects the return light of the measurement light from the eye E to be examined at the emission end.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、例えばコーナーキューブと、これを移動する機構とを含んで構成される。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E to be inspected, adjusting the interference state, and the like. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

光スキャナ42は、例えば、被検眼Eの瞳孔と光学的に略共役な位置に配置されている。光スキャナ42は、OCT用の光路を通過する光(測定光LS)の進行方向を変更する。それにより、被検眼Eを測定光LSでスキャンすることができる。光スキャナ42は、例えば、測定光LSをx方向にスキャンするガルバノミラーと、y方向にスキャンするガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光LSをxy平面上の任意の方向にスキャンすることができる。 The optical scanner 42 is arranged, for example, at a position substantially conjugate with the pupil of the eye E to be inspected. The optical scanner 42 changes the traveling direction of the light (measurement light LS) passing through the optical path for OCT. Thereby, the eye E to be inspected can be scanned with the measurement light LS. The optical scanner 42 includes, for example, a galvano mirror that scans the measurement light LS in the x direction, a galvano mirror that scans the measurement light LS in the y direction, and a mechanism that independently drives them. Thereby, the measurement light LS can be scanned in any direction on the xy plane.

OCT合焦レンズ43は、測定光LSの光路(干渉光学系の光軸)に沿って移動可能である。 The OCT focusing lens 43 can move along the optical path (optical axis of the interference optical system) of the measurement light LS.

眼科装置1には、被検眼Eと対物レンズ22とに間に配置可能な前置レンズ23が設けられる。前置レンズ23は、手動で被検眼Eと対物レンズ22との間に配置可能である。前置レンズ23は、後述の制御部210からの制御を受け、自動で被検眼Eと対物レンズ22との間に配置可能であってもよい。被検眼Eと対物レンズ22との間から前置レンズ23が退避されている場合、測定光の焦点位置が被検眼Eの眼底Ef又はその近傍に配置され、眼底Efに対してOCT計測を行うことができる。被検眼Eと対物レンズ22との間に前置レンズ23が配置されている場合、測定光の焦点位置が眼底Efから移動されて前眼部又はその近傍に配置され、前眼部に対してOCT計測を行うことができる。 The ophthalmic apparatus 1 is provided with a front lens 23 that can be arranged between the eye E to be inspected and the objective lens 22. The front lens 23 can be manually placed between the eye E to be inspected and the objective lens 22. The front lens 23 may be automatically arranged between the eye E to be inspected and the objective lens 22 under the control of the control unit 210 described later. When the anterior lens 23 is retracted from between the eye E to be inspected and the objective lens 22, the focal position of the measurement light is arranged at or near the fundus Ef of the eye to be inspected E, and OCT measurement is performed on the fundus Ef. be able to. When the anterior lens 23 is arranged between the eye to be inspected E and the objective lens 22, the focal position of the measurement light is moved from the fundus Ef and arranged in or near the anterior segment of the eye, with respect to the anterior segment. OCT measurement can be performed.

〔OCTユニット〕
OCTユニット100の構成の一例を図2に示す。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 is shown in FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the eye E to be inspected. This optical system divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and causes the return light of the measurement light from the subject E to interfere with the reference light passing through the reference optical path. This is an interference optical system that generates interference light and detects this interference light. The detection result (detection signal) of the interference light by the interference optical system is an interference signal showing the spectrum of the interference light, and is sent to the arithmetic control unit 200.

光源ユニット101は、一般的なスウェプトソースタイプの眼科装置と同様に、出射光の波長を掃引(走査)可能な波長掃引型(波長走査型)光源を含んで構成される。波長掃引型光源は、共振器を含むレーザー光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。 The light source unit 101 is configured to include a wavelength sweep type (wavelength scanning type) light source capable of sweeping (scanning) the wavelength of emitted light, similarly to a general swept source type ophthalmic apparatus. The wavelength sweep type light source is configured to include a laser light source including a resonator. The light source unit 101 changes the output wavelength with time in a near-infrared wavelength band that is invisible to the human eye.

光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏波コントローラ103は、例えばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏光状態を調整する。 The light L0 output from the light source unit 101 is guided by the optical fiber 102 to the polarization controller 103, and its polarization state is adjusted. The polarization controller 103 adjusts the polarization state of the light L0 guided in the optical fiber 102 by, for example, applying stress from the outside to the looped optical fiber 102.

偏波コントローラ103により偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light L0 whose polarization state is adjusted by the polarization controller 103 is guided by the optical fiber 104 to the fiber coupler 105 and divided into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束となる。平行光束となった参照光LRは、光路長変更部114に導かれる。光路長変更部114は、図2に示す矢印の方向に移動可能とされ、参照光LRの光路長を変更する。この移動により参照光LRの光路の長さが変更される。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部114は、例えばコーナーキューブと、これを移動する移動機構とを含んで構成される。この場合、光路長変更部114のコーナーキューブは、コリメータ111により平行光束とされた参照光LRの進行方向を逆方向に折り返す。コーナーキューブに入射する参照光LRの光路と、コーナーキューブから出射する参照光LRの光路とは平行である。 The reference light LR is guided by the optical fiber 110 to the collimator 111 to become a parallel luminous flux. The reference light LR that has become a parallel luminous flux is guided to the optical path length changing unit 114. The optical path length changing unit 114 is movable in the direction of the arrow shown in FIG. 2, and changes the optical path length of the reference light LR. This movement changes the length of the optical path of the reference light LR. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E to be inspected, adjusting the interference state, and the like. The optical path length changing unit 114 includes, for example, a corner cube and a moving mechanism for moving the corner cube. In this case, the corner cube of the optical path length changing portion 114 turns back the traveling direction of the reference light LR, which is converted into a parallel luminous flux by the collimator 111, in the opposite direction. The optical path of the reference light LR incident on the corner cube and the optical path of the reference light LR emitted from the corner cube are parallel.

なお、図1及び図2に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するための光路長変更部114の双方が設けられている。しかしながら、光路長変更部41及び114の一方だけが設けられていてもよい。また、これら以外の光学部材を用いて、参照光路長と測定光路長との差を変更することも可能である。 In the configurations shown in FIGS. 1 and 2, the optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and the optical path of the reference light LR (reference optical path, reference). Both of the optical path length changing portions 114 for changing the length of the arm) are provided. However, only one of the optical path length changing portions 41 and 114 may be provided. It is also possible to change the difference between the reference optical path length and the measured optical path length by using an optical member other than these.

光路長変更部114を経由した参照光LRは、コリメータ116によって平行光束から集束光束に変換されて光ファイバ117に入射する。 The reference light LR that has passed through the optical path length changing unit 114 is converted from a parallel luminous flux to a focused luminous flux by the collimator 116 and is incident on the optical fiber 117.

コリメータ111と光路長変更部114との間の参照光路、及びコリメータ116と光路長変更部114との間の参照光路の少なくとも一方には、光路長補正部材が配置されていてもよい。光路長補正部材は、参照光LRの光路長(光学距離)と測定光LSの光路長とを合わせるための遅延手段として作用する。 An optical path length correction member may be arranged at least one of the reference optical path between the collimator 111 and the optical path length changing unit 114 and the reference optical path between the collimator 116 and the optical path length changing unit 114. The optical path length correction member acts as a delay means for matching the optical path length (optical distance) of the reference light LR with the optical path length of the measurement light LS.

光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整される。偏波コントローラ118は、例えば、偏波コントローラ103と同様の構成を有する。偏波コントローラ118により偏光状態が調整された参照光LRは、光ファイバ119によりアッテネータ120に導かれて、演算制御ユニット200の制御の下で光量が調整される。アッテネータ120により光量が調整された参照光LRは、光ファイバ121によりファイバカプラ122に導かれる。 The reference light LR incident on the optical fiber 117 is guided by the polarization controller 118 to adjust its polarization state. The polarization controller 118 has, for example, the same configuration as the polarization controller 103. The reference light LR whose polarization state is adjusted by the polarization controller 118 is guided to the attenuator 120 by the optical fiber 119, and the amount of light is adjusted under the control of the arithmetic control unit 200. The reference light LR whose light amount is adjusted by the attenuator 120 is guided to the fiber coupler 122 by the optical fiber 121.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127によりに導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた測定光LSは、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由してダイクロイックミラー46に導かれる。ダイクロイックミラー46に導かれてきた測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱(反射を含む)される。このような後方散乱光を含む測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and is converted into a parallel luminous flux by the collimator lens unit 40. The measurement light LS converted into a parallel luminous flux is guided to the dichroic mirror 46 via the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, the mirror 44, and the relay lens 45. The measurement light LS guided to the dichroic mirror 46 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the eye E to be inspected. The measurement light LS is scattered (including reflection) at various depth positions of the eye E to be inspected. The return light of the measurement light LS including such backscattered light travels in the same path as the outward path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で、測定光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。 The fiber coupler 122 generates interference light by synthesizing (interfering with) the measurement light LS incidented through the optical fiber 128 and the reference light LR incidented via the optical fiber 121. The fiber coupler 122 generates a pair of interference light LCs by branching the interference light between the measurement light LS and the reference light LR at a predetermined branching ratio (for example, 1: 1). The pair of interference light LCs emitted from the fiber coupler 122 are guided to the detector 125 by the optical fibers 123 and 124, respectively.

検出器125は、例えば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(干渉信号)をDAQ(Data Acquisition System)130に送る。DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引(走査)される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、クロックKCに基づき、検出器125の検出結果をサンプリングする。DAQ130は、サンプリングされた検出器125の検出結果を演算制御ユニット200に送る。演算制御ユニット200は、例えば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。 The detector 125 is, for example, a balanced photodiode (Balanced Photo Diode) that has a pair of photodetectors that detect each pair of interference light LCs and outputs the difference between the detection results by these. The detector 125 sends the detection result (interference signal) to the DAQ (Data Acquisition System) 130. A clock KC is supplied to the DAQ 130 from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept (scanned) within a predetermined wavelength range by the wavelength sweep type light source. The light source unit 101 optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then sets the clock KC based on the result of detecting the combined light. Generate. The DATA 130 samples the detection result of the detector 125 based on the clock KC. The DAQ 130 sends the detection result of the sampled detector 125 to the arithmetic control unit 200. The arithmetic control unit 200 obtains a reflection intensity profile in each A line by, for example, performing a Fourier transform or the like on the spectral distribution based on the detection result obtained by the detector 125 for each series of wavelength scans (for each A line). Form. Further, the arithmetic control unit 200 forms image data by imaging the reflection intensity profile of each A line.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、検出器125から入力される干渉信号を解析して被検眼EのOCT画像を形成する。OCT画像を形成するための演算処理は、従来のスウェプトソースタイプの眼科装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the interference signal input from the detector 125 to form an OCT image of the eye E to be inspected. The arithmetic processing for forming the OCT image is the same as that of the conventional swept source type ophthalmic apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。例えば演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。 Further, the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 causes the display device 3 to display the OCT image of the eye E to be inspected.

演算制御ユニット200は、例えば、従来のコンピュータと同様に、マイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、例えばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。 The arithmetic control unit 200 includes, for example, a microprocessor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a communication interface, and the like, similarly to a conventional computer. A computer program for controlling the ophthalmic apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, circuit boards for forming OCT images. Further, the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

〔制御系〕
眼科装置1の処理系の構成について図3、図4、図6及び図7を参照しつつ説明する。なお、図3においては、眼科装置1のいくつかの構成要素が省略されており、この実施形態を説明するために特に必要な構成要素が選択的に示されている。
[Control system]
The configuration of the processing system of the ophthalmic apparatus 1 will be described with reference to FIGS. 3, 4, 6 and 7. In FIG. 3, some components of the ophthalmic apparatus 1 are omitted, and components particularly necessary for explaining this embodiment are selectively shown.

(制御部)
演算制御ユニット200は、制御部210と、画像形成部220と、データ処理部230とを含む。制御部210は、例えば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212とが設けられている。
(Control unit)
The arithmetic control unit 200 includes a control unit 210, an image forming unit 220, and a data processing unit 230. The control unit 210 includes, for example, a microprocessor, RAM, ROM, a hard disk drive, a communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

主制御部211の機能は、例えばマイクロプロセッサにより実現される。記憶部212には、眼科装置を制御するためのコンピュータプログラムがあらかじめ格納される。このコンピュータプログラムには、各種の光源制御用プログラム、光スキャナ制御用プログラム、各種の検出器制御用プログラム、画像形成用プログラム、データ処理用プログラム及びユーザインターフェイス用プログラムなどが含まれる。このようなコンピュータプログラムに従って主制御部211が動作することにより、制御部210は制御処理を実行する。 The function of the main control unit 211 is realized by, for example, a microprocessor. A computer program for controlling the ophthalmic apparatus is stored in the storage unit 212 in advance. This computer program includes various light source control programs, optical scanner control programs, various detector control programs, image formation programs, data processing programs, user interface programs, and the like. When the main control unit 211 operates according to such a computer program, the control unit 210 executes the control process.

(主制御部)
主制御部211は前述の各種制御を行う。特に、図3に示すように、主制御部211は、眼底カメラユニット2の合焦駆動部31A及び43A、CCDイメージセンサ35及び38、LCD39、光路長変更部41、及び光スキャナ42を制御する。また、主制御部211は、光学系駆動部1Aを制御する。更に、主制御部211は、OCTユニット100の光源ユニット101、光路長変更部114、検出器125、及びDAQ130などを制御する。
(Main control unit)
The main control unit 211 performs the above-mentioned various controls. In particular, as shown in FIG. 3, the main control unit 211 controls the focusing drive units 31A and 43A of the fundus camera unit 2, the CCD image sensors 35 and 38, the LCD 39, the optical path length changing unit 41, and the optical scanner 42. .. Further, the main control unit 211 controls the optical system drive unit 1A. Further, the main control unit 211 controls the light source unit 101 of the OCT unit 100, the optical path length changing unit 114, the detector 125, the DAQ 130, and the like.

合焦駆動部31Aは、主制御部211からの制御を受け、撮影光学系30の光軸に沿って撮影合焦レンズ31を移動させる。合焦駆動部31Aには、撮影合焦レンズ31を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部31Aが撮影合焦レンズ31を移動することにより、撮影光学系30の合焦位置が変更される。なお、手動又はユーザの操作部240Bに対する操作により合焦駆動部31Aが撮影光学系30の光軸に沿って撮影合焦レンズ31を移動するようにしてもよい。 The focusing drive unit 31A receives control from the main control unit 211 and moves the photographing focusing lens 31 along the optical axis of the photographing optical system 30. The focusing drive unit 31A is provided with a holding member for holding the photographing focusing lens 31, an actuator for generating a driving force for moving the holding member, and a transmission mechanism for transmitting the driving force. The actuator is composed of, for example, a pulse motor. The transmission mechanism is composed of, for example, a combination of gears and a rack and pinion. As a result, the focusing drive unit 31A controlled by the main control unit 211 moves the photographing focusing lens 31, so that the focusing position of the photographing optical system 30 is changed. The focusing drive unit 31A may move the photographing focusing lens 31 along the optical axis of the photographing optical system 30 manually or by operating the operation unit 240B of the user.

合焦駆動部43Aは、主制御部211からの制御を受け、OCTユニット100における干渉光学系の光軸(測定光の光路)に沿ってOCT合焦レンズ43を移動させる。合焦駆動部43Aには、OCT合焦レンズ43を保持する保持部材と、この保持部材を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。それにより、主制御部211からの制御を受けた合焦駆動部43AがOCT合焦レンズ43を移動することにより、測定光の合焦位置が変更される。なお、手動又はユーザの操作部240Bに対する操作により合焦駆動部43Aが干渉光学系の光軸に沿ってOCT合焦レンズ43を移動するようにしてもよい。 The focusing drive unit 43A receives control from the main control unit 211 and moves the OCT focusing lens 43 along the optical axis (optical path of the measurement light) of the interference optical system in the OCT unit 100. The focusing drive unit 43A is provided with a holding member for holding the OCT focusing lens 43, an actuator for generating a driving force for moving the holding member, and a transmission mechanism for transmitting the driving force. The actuator is composed of, for example, a pulse motor. The transmission mechanism is composed of, for example, a combination of gears and a rack and pinion. As a result, the focusing drive unit 43A controlled by the main control unit 211 moves the OCT focusing lens 43, so that the focusing position of the measurement light is changed. The focusing drive unit 43A may move the OCT focusing lens 43 along the optical axis of the interference optical system by manual operation or operation with respect to the operation unit 240B by the user.

主制御部211は、CCDイメージセンサ35の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。主制御部211は、CCDイメージセンサ38の露光時間、感度、フレームレート等を制御することが可能である。 The main control unit 211 can control the exposure time (charge accumulation time), sensitivity, frame rate, etc. of the CCD image sensor 35. The main control unit 211 can control the exposure time, sensitivity, frame rate, etc. of the CCD image sensor 38.

主制御部211は、LCD39に対して固視標や視力測定用視標の表示制御を行うことが可能である。それにより、被検眼Eに呈示される視標の切り替えや視標の種別の変更が可能になる。また、LCD39における視標の表示位置を変更することにより、被検眼Eに対する視標呈示位置を変更することが可能である。 The main control unit 211 can control the display of the fixation target and the visual acuity measurement target on the LCD 39. As a result, it is possible to switch the optotype presented to the eye E to be inspected and to change the type of optotype. Further, by changing the display position of the optotype on the LCD 39, it is possible to change the optotype presentation position with respect to the eye E to be inspected.

主制御部211は、光路長変更部41を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように光路長変更部41を制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置(深さ方向の位置)に描出されるように光路長変更部41を制御することが可能である。 By controlling the optical path length changing unit 41, the main control unit 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS. The main control unit 211 controls the optical path length changing unit 41 so that the target portion of the eye E to be inspected is drawn in a predetermined range within the frame of the OCT image. Specifically, the main control unit 211 controls the optical path length changing unit 41 so that the target portion of the eye E to be inspected is drawn at a predetermined z position (position in the depth direction) in the frame of the OCT image. Is possible.

主制御部211は、光スキャナ42を制御することにより被検眼Eの眼底Ef又は前眼部における測定光LSの走査位置を変更することが可能である。 By controlling the optical scanner 42, the main control unit 211 can change the scanning position of the measurement light LS in the fundus Ef of the eye E to be inspected or the anterior eye portion.

光学系駆動部1Aは、眼科装置1に設けられた光学系(図1及び図2に示す光学系)を3次元的に移動する。光学系駆動部1Aは、主制御部211からの制御を受け、光学系を移動する。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、被検眼Eを動画撮影して得られる画像に基づき被検眼Eの位置や向きに合わせて装置光学系をリアルタイムで移動させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。 The optical system drive unit 1A three-dimensionally moves the optical system (optical system shown in FIGS. 1 and 2) provided in the ophthalmic apparatus 1. The optical system drive unit 1A moves the optical system under the control of the main control unit 211. This control is used in alignment and tracking. Tracking is to move the device optical system according to the movement of the eye E to be inspected. When tracking is performed, alignment and focusing are performed in advance. Tracking maintains a suitable positional relationship in which alignment and focus are achieved by moving the device optical system in real time according to the position and orientation of the eye E to be inspected based on an image obtained by capturing a moving image of the eye E to be inspected. It is a function.

主制御部211は、光源ユニット101を制御することにより、光L0の点灯と消灯の切り替えや、光L0の光量の変更などを制御することが可能である。 By controlling the light source unit 101, the main control unit 211 can control switching between turning on and off the light L0, changing the amount of light of the light L0, and the like.

主制御部211は、光路長変更部114を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定の範囲に描出されるように光路長変更部114を制御する。具体的には、主制御部211は、被検眼Eの対象部位がOCT画像のフレーム内における所定のz位置に描出されるように光路長変更部114を制御することが可能である。主制御部211は、光路長変更部41及び114の少なくとも一方を制御することにより、参照光LRの光路長と測定光LSの光路長との差を相対的に変更することが可能である。以下では、主制御部211は、光路長変更部114だけを制御することにより測定光LSと参照光LRとの光路長差調整を行うものとして説明するが、光路長変更部41だけを制御することにより参照光LRと測定光LSとの光路長差調整を行ってもよい。 By controlling the optical path length changing unit 114, the main control unit 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS. The main control unit 211 controls the optical path length changing unit 114 so that the target portion of the eye E to be inspected is drawn in a predetermined range within the frame of the OCT image. Specifically, the main control unit 211 can control the optical path length changing unit 114 so that the target portion of the eye E to be inspected is drawn at a predetermined z position in the frame of the OCT image. By controlling at least one of the optical path length changing units 41 and 114, the main control unit 211 can relatively change the difference between the optical path length of the reference light LR and the optical path length of the measurement light LS. Hereinafter, the main control unit 211 will be described as adjusting the optical path length difference between the measurement light LS and the reference light LR by controlling only the optical path length changing unit 114, but controls only the optical path length changing unit 41. Therefore, the optical path length difference between the reference light LR and the measurement light LS may be adjusted.

主制御部211は、検出器125の露光時間(電荷蓄積時間)、感度、フレームレート等を制御することが可能である。また、主制御部211は、DAQ130を制御することが可能である。 The main control unit 211 can control the exposure time (charge accumulation time), sensitivity, frame rate, etc. of the detector 125. Further, the main control unit 211 can control the DAQ 130.

主制御部211は、被検眼Eと装置光学系との位置関係を維持するように光学系駆動部1Aを制御することが可能である。この実施形態では、主制御部211は、撮影部位(計測部位、データの収集部位)に対応した方法でトラッキング制御を行う。特に、主制御部211は、位相限定相関(Phase Only Correlation:POC)処理により高精度に求められた位置ずれ量に基づいて光学系駆動部1Aを制御することが可能である。特に、撮影部位が眼底のとき、基準画像(ベース画像)に対し、取得された眼底像の全体が移動するため位相限定相関処理により位置ずれ量を高精度に求めることができる。これに対して、撮影部位が前眼部のとき、取得された前眼部像の一部が移動しないため、位相限定相関処理をそのまま適用すると位置ずれ量を求めることができない。 The main control unit 211 can control the optical system drive unit 1A so as to maintain the positional relationship between the eye E to be inspected and the device optical system. In this embodiment, the main control unit 211 performs tracking control by a method corresponding to an imaging region (measurement region, data collection region). In particular, the main control unit 211 can control the optical system drive unit 1A based on the amount of misalignment obtained with high accuracy by the phase only correlation (POC) process. In particular, when the imaged portion is the fundus, the entire acquired fundus image moves with respect to the reference image (base image), so that the amount of misalignment can be obtained with high accuracy by phase-limited correlation processing. On the other hand, when the imaging region is the anterior segment, a part of the acquired anterior segment image does not move, so that the amount of misalignment cannot be obtained by applying the phase-limited correlation processing as it is.

例えば、図5に示す前眼部像IMGにおいて、被検眼Eの瞳孔に相当する瞳孔領域を含む所定の領域は移動するため、当該所定の領域を含む部分画像PIMGについては位相限定相関処理を適用することができる。しかしながら、睫毛を含む領域AR1や下瞼を含む領域AR2は移動しない。従って、前眼部像IMGに対して、位相限定相関処理をそのまま適用すると位置ずれ量を高精度に求めることができない。 For example, in the anterior segment image IMG shown in FIG. 5, since a predetermined region including a pupil region corresponding to the pupil of the eye E to be inspected moves, phase-limited correlation processing is applied to the partial image PIMG including the predetermined region. can do. However, the region AR1 containing the eyelashes and the region AR2 containing the lower eyelid do not move. Therefore, if the phase-limited correlation processing is applied to the anterior segment image IMG as it is, the amount of misalignment cannot be obtained with high accuracy.

そこで、主制御部211は、撮影部位に応じて、当該撮影部位の画像の基づき被検眼Eと装置光学系との位置関係を維持するように光学系駆動部1Aを制御する。この実施形態では、撮影部位は眼底又は前眼部である。従って、被検眼Eと対物レンズ22との間から前置レンズ23が退避されているとき、主制御部211は、眼底モードでトラッキング制御を行う。被検眼Eと対物レンズ22との間に前置レンズ23が配置されているとき、主制御部211は、前眼部モードでトラッキング制御を行う。 Therefore, the main control unit 211 controls the optical system drive unit 1A so as to maintain the positional relationship between the eye E to be inspected and the optical system of the apparatus based on the image of the imaged portion according to the imaged portion. In this embodiment, the imaging site is the fundus or anterior segment of the eye. Therefore, when the front lens 23 is retracted from between the eye E to be inspected and the objective lens 22, the main control unit 211 performs tracking control in the fundus mode. When the front lens 23 is arranged between the eye E to be inspected and the objective lens 22, the main control unit 211 performs tracking control in the front eye mode.

眼底モードでは、主制御部211は、撮影光学系30により得られた被検眼Eの眼底像に基づいてトラッキング制御を行う。眼底像は、互いに異なるタイミングでベース画像及びターゲット画像として取得される。主制御部211は、事前に得られた被検眼Eの前眼部像であるベース画像を基準として、当該ベース画像の取得後に得られた前眼部像であるターゲット画像の位置ずれ量(位置ずれ方向を含む)を求め、求められた位置ずれ量に基づいてトラッキング制御を行うことが可能である。ベース画像に対するターゲット画像の位置ずれ量は、位相限定相関処理により求められる。主制御部211は、求められた位置ずれ量に基づいて光学系駆動部1Aを制御することが可能である。 In the fundus mode, the main control unit 211 performs tracking control based on the fundus image of the eye E to be inspected obtained by the photographing optical system 30. The fundus images are acquired as a base image and a target image at different timings from each other. The main control unit 211 refers to the base image which is the anterior segment image of the eye E to be inspected obtained in advance, and the displacement amount (position) of the target image which is the anterior segment image obtained after the acquisition of the base image. (Including the deviation direction) can be obtained, and tracking control can be performed based on the obtained displacement amount. The amount of misalignment of the target image with respect to the base image is obtained by phase-limited correlation processing. The main control unit 211 can control the optical system drive unit 1A based on the obtained amount of misalignment.

前眼部モードでは、主制御部211は、撮影光学系30により得られた被検眼Eの前眼部像に基づいてトラッキング制御を行う。主制御部211は、例えば、前眼部像における特徴領域が基準位置に配置されるようにトラッキング制御を行う。すなわち、主制御部211は、基準位置に対する特徴領域の位置の位置ずれ量を求め、求められた位置ずれ量がキャンセルされるように光学系駆動部1Aを制御することが可能である。基準位置は、当該前眼部像より前に取得された前眼部像における特徴領域の位置であってもよいし、当該前眼部像における所定位置であってもよい。所定位置には、対物レンズ22の光軸に相当する位置や、当該前眼部像の中心位置などがある。 In the anterior segment mode, the main control unit 211 performs tracking control based on the anterior segment image of the eye E to be inspected obtained by the photographing optical system 30. The main control unit 211 performs tracking control so that, for example, the feature region in the anterior segment image is arranged at a reference position. That is, the main control unit 211 can obtain the amount of misalignment of the position of the feature region with respect to the reference position, and can control the optical system drive unit 1A so that the obtained amount of misalignment is cancelled. The reference position may be the position of the feature region in the anterior segment image acquired before the anterior segment image, or may be a predetermined position in the anterior segment image. The predetermined position includes a position corresponding to the optical axis of the objective lens 22, a center position of the anterior segment image, and the like.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像や前眼部像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムや制御情報等のデータが記憶されている。
(Memory)
The storage unit 212 stores various types of data. Examples of the data stored in the storage unit 212 include image data of an OCT image, image data of a fundus image and an anterior eye portion image, and eye information to be inspected. The eye test information includes information about the subject such as the patient ID and name, and information about the test eye such as left eye / right eye identification information. Further, the storage unit 212 stores data such as various programs and control information for operating the ophthalmic apparatus 1.

(画像形成部)
画像形成部220は、検出器125(DAQ130)からの干渉信号に基づいて眼底Efや前眼部の断層像の画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼E内における各測定光LSの経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。
(Image forming part)
The image forming unit 220 forms image data of a tomographic image of the fundus Ef and the anterior segment of the eye based on the interference signal from the detector 125 (DAQ130). This process includes processing such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform). The image data acquired in this way is a data set including a group of image data formed by imaging the reflection intensity profile in a plurality of A lines (paths of each measurement light LS in the eye E to be inspected). be.

画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。 In order to improve the image quality, it is possible to superimpose (add and average) a plurality of data sets collected by repeating scanning with the same pattern a plurality of times.

また、画像形成部220は、CCDイメージ35やCCDイメージセンサ38による被検眼Eの前眼部からの反射光の検出結果に基づいて前眼部像を形成することが可能である。 Further, the image forming unit 220 can form an anterior segment image based on the detection result of the reflected light from the anterior segment of the eye E to be inspected by the CCD image 35 or the CCD image sensor 38.

画像形成部220は、例えば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、被検眼Eの部位とその画像とを同一視することもある。 The image forming unit 220 includes, for example, the circuit board described above. In this specification, "image data" and "image" based on the "image data" may be equated. In addition, the site of the eye E to be inspected and the image thereof may be equated.

(データ処理部)
データ処理部230は、画像形成部220により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部230は、画像の輝度補正や分散補正等の補正処理を実行する。
(Data processing unit)
The data processing unit 230 performs various data processing (image processing) and analysis processing on the image formed by the image forming unit 220. For example, the data processing unit 230 executes correction processing such as image brightness correction and dispersion correction.

データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼Eのボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The data processing unit 230 can form volume data (voxel data) of the eye E to be inspected by executing known image processing such as interpolation processing for interpolating pixels between tomographic images. When displaying an image based on volume data, the data processing unit 230 performs rendering processing on the volume data to form a pseudo three-dimensional image when viewed from a specific line-of-sight direction.

データ処理部230は、眼底像(又は前眼部像)とOCT画像との位置合わせを行うことができる。眼底像(又は前眼部像)とOCT画像とが並行して取得される場合には、双方の光学系が同軸であることから、(ほぼ)同時に取得された眼底像(又は前眼部像)とOCT画像とを、撮影光学系30の光軸を基準として位置合わせすることができる。また、眼底像(又は前眼部像)とOCT画像との取得タイミングに関わらず、OCT画像のうち眼底Ef(又は前眼部像)の相当する画像領域の少なくとも一部をxy平面に投影して得られる正面画像と、眼底像(又は前眼部像)との位置合わせをすることにより、そのOCT画像とその眼底像(又は前眼部像)とを位置合わせすることも可能である。この位置合わせ手法は、眼底像取得用(又は前眼部像取得用)の光学系とOCT用の光学系とが同軸でない場合においても適用可能である。また、双方の光学系が同軸でない場合であっても、双方の光学系の相対的な位置関係が既知であれば、この相対位置関係を参照して同軸の場合と同様の位置合わせを実行することが可能である。 The data processing unit 230 can align the fundus image (or the anterior segment image) with the OCT image. When the fundus image (or anterior segment image) and the OCT image are acquired in parallel, the fundus image (or anterior segment image) acquired at the same time (almost) because both optical systems are coaxial. ) And the OCT image can be aligned with respect to the optical axis of the photographing optical system 30. Further, regardless of the acquisition timing of the fundus image (or the anterior segment image) and the OCT image, at least a part of the corresponding image region of the fundus Ef (or the anterior segment image) of the OCT image is projected onto the xy plane. By aligning the frontal image obtained with the fundus image (or the anterior segment image), the OCT image and the fundus image (or the anterior segment image) can be aligned. This alignment method can be applied even when the optical system for acquiring a fundus image (or for acquiring an anterior segment image) and the optical system for OCT are not coaxial. Even if both optical systems are not coaxial, if the relative positional relationship between the two optical systems is known, the same alignment as in the case of coaxial is executed with reference to this relative positional relationship. It is possible.

図4に示すように、データ処理部230には、解析部231と、回転移動量算出部241と、位置合わせ処理部242と、平行移動量算出部243とが設けられている。 As shown in FIG. 4, the data processing unit 230 is provided with an analysis unit 231, a rotational movement amount calculation unit 241, an alignment processing unit 242, and a translation movement amount calculation unit 243.

解析部231は、撮影光学系30により得られた画像に対して解析処理を施す。解析処理には、画像における特徴領域や特徴位置を特定する処理などがある。 The analysis unit 231 performs an analysis process on the image obtained by the photographing optical system 30. The analysis process includes a process of specifying a feature area and a feature position in an image.

(前眼部モード)
前眼部モードのとき、解析部231は、例えば、前眼部像における特徴領域や特徴位置を特定する処理を行う。
(Anterior segment mode)
In the anterior segment mode, the analysis unit 231 performs, for example, a process of specifying a feature region and a feature position in the anterior segment image.

例えば、解析部231は、前眼部像において被検眼Eの瞳孔に相当する領域を含む所定の領域を特徴領域として特定することが可能である。前眼部モードのとき、主制御部211は、前眼部像における基準位置に対する当該特徴領域の変位に基づいて光学系駆動部1Aを制御する。それにより、撮影部位が前眼部のとき、特徴領域の位置に基づくトラッキングを行うことができる。特徴領域には、虹彩領域や血管や疾患部位などであってもよい。 For example, the analysis unit 231 can specify a predetermined region including a region corresponding to the pupil of the eye E to be inspected as a characteristic region in the anterior segment image. In the anterior segment mode, the main control unit 211 controls the optical system drive unit 1A based on the displacement of the feature region with respect to the reference position in the anterior segment image. As a result, when the imaging region is the anterior segment of the eye, tracking can be performed based on the position of the feature region. The characteristic region may be an iris region, a blood vessel, a diseased portion, or the like.

また、例えば、撮影光学系30を用いて、アライメント光学系50から視標(輝点)が投影された被検眼Eの前眼部像が取得される。解析部231は、取得された前眼部像における輝点に基づく輝点像を特定する。前眼部モードのとき、主制御部211は、前眼部像における基準位置に対する当該輝点像の変位に基づいて光学系駆動部1Aを制御する。それにより、撮影部位が前眼部のとき、輝点像の位置に基づくトラッキングを行うことができる。 Further, for example, using the photographing optical system 30, an image of the anterior segment of the eye to be inspected E on which an optotype (bright spot) is projected from the alignment optical system 50 is acquired. The analysis unit 231 identifies a bright spot image based on the bright spot in the acquired anterior segment image. In the anterior segment mode, the main control unit 211 controls the optical system drive unit 1A based on the displacement of the bright spot image with respect to the reference position in the anterior segment image. As a result, when the imaging region is the anterior segment of the eye, tracking based on the position of the bright spot image can be performed.

また、例えば、撮影光学系30は、前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含んでもよい。このとき、解析部231は、2以上の前眼部カメラにより実質的に同時に得られた2以上の前眼部像を解析することで、被検眼Eの3次元位置を求める。前眼部モードのとき、主制御部211は、被検眼に対応する基準位置に対する当該3次元位置の変位に基づいて光学系駆動部1Aを制御して被検眼Eと装置光学系とを3次元的に相対移動する。それにより、撮影部位が前眼部のとき、被検眼Eの3次元位置に基づくトラッキングを行うことができる。 Further, for example, the photographing optical system 30 may include two or more anterior segment cameras that photograph the anterior segment from different directions substantially simultaneously. At this time, the analysis unit 231 obtains the three-dimensional position of the eye E to be inspected by analyzing two or more anterior segment images obtained substantially simultaneously by the two or more anterior segment cameras. In the anterior segment mode, the main control unit 211 controls the optical system drive unit 1A based on the displacement of the three-dimensional position with respect to the reference position corresponding to the eye to be inspected, and makes the eye to be inspected E and the device optical system three-dimensional. Relative movement. As a result, when the imaging region is the anterior segment of the eye, tracking can be performed based on the three-dimensional position of the eye E to be inspected.

なお、解析部231は、後述のように、前眼部像における瞳孔に相当する領域を含む所定領域を特定することも可能である。この場合、前眼部モードのとき、当該所定領域を含む部分画像に基づいて後述の位相限定相関処理を用いて、高精度なトラッキングを行うことができる。すなわち、前眼部モードにおいても、眼底モードと同様に、主制御部211は、撮影光学系30により得られた被検眼Eの前眼部に基づいてトラッキング制御を行う。前眼部像は、互いに異なるタイミングでベース画像及びターゲット画像として取得される。 As will be described later, the analysis unit 231 can also specify a predetermined region including a region corresponding to the pupil in the anterior segment image. In this case, in the anterior segment mode, highly accurate tracking can be performed by using the phase-limited correlation processing described later based on the partial image including the predetermined region. That is, in the anterior segment mode as well, the main control unit 211 performs tracking control based on the anterior segment of the eye E to be inspected obtained by the photographing optical system 30 as in the fundus mode. The anterior segment image is acquired as a base image and a target image at different timings from each other.

解析部231は、図5に示すように、ターゲット画像IMGから所定の領域の画像である部分画像PIMGを特定する。解析部231は、ベース画像とターゲット画像とを解析することによりターゲット画像IMGにおける部分画像PIMGを特定することが可能である。 As shown in FIG. 5, the analysis unit 231 identifies a partial image PIMG which is an image of a predetermined region from the target image IMG. The analysis unit 231 can identify the partial image PIMG in the target image IMG by analyzing the base image and the target image.

解析部231は、ターゲット画像において、ベース画像に対する移動量が第1閾値以上である領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像を複数の領域に分割し、ベース画像に対するターゲット画像の移動量を領域毎に求め、求められた移動量が第1閾値以上である領域の画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像において、ベース画像に対して移動する領域の画像を部分画像として特定する。 In the target image, the analysis unit 231 can specify an image in a region where the amount of movement with respect to the base image is equal to or greater than the first threshold value as a partial image. For example, the analysis unit 231 divides the target image into a plurality of regions, obtains the amount of movement of the target image with respect to the base image for each area, and uses an image of a region in which the obtained movement amount is equal to or greater than the first threshold value as a partial image. Identify. That is, the analysis unit 231 specifies an image of a region that moves with respect to the base image as a partial image in the target image.

また、解析部231は、ターゲット画像においてベース画像に対する移動量が第2閾値以下である領域(例えば、図5の領域AR1、AR2)を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像を複数の領域に分割し、ベース画像に対するターゲット画像の移動量を領域毎に求め、求められた移動量が第2閾値以下である領域を特定し、ターゲット画像から特定された領域を除いた領域の画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像においてベース画像に対して移動しない領域を特定し、当該領域をターゲット画像から除いた領域を部分画像として特定する。 Further, the analysis unit 231 identifies a region (for example, regions AR1 and AR2 in FIG. 5) in which the amount of movement with respect to the base image is equal to or less than the second threshold value in the target image, and obtains an image of the region excluding the region from the target image. It can be specified as a partial image. For example, the analysis unit 231 divides the target image into a plurality of regions, obtains the movement amount of the target image with respect to the base image for each region, identifies the region where the obtained movement amount is equal to or less than the second threshold value, and identifies the target image. The image of the area excluding the area specified from is specified as a partial image. That is, the analysis unit 231 specifies a region in the target image that does not move with respect to the base image, and identifies a region excluding the region from the target image as a partial image.

また、解析部231は、ターゲット画像において瞼(上瞼、下瞼)又は睫毛が描出された領域(例えば、図5の領域AR1、AR2)の画像を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定することが可能である。例えば、解析部231は、ターゲット画像における各画素の輝度情報から、瞼又は睫毛に相当する形状を含む領域を特定し、ターゲット画像から当該領域を除いた領域の画像を部分画像として特定する。 Further, the analysis unit 231 specified an image of a region (for example, regions AR1 and AR2 in FIG. 5) in which the eyelids (upper eyelid, lower eyelid) or eyelashes were drawn in the target image, and removed the region from the target image. It is possible to specify the image of the area as a partial image. For example, the analysis unit 231 specifies a region including a shape corresponding to an eyelid or eyelashes from the brightness information of each pixel in the target image, and identifies an image of a region excluding the region from the target image as a partial image.

また、解析部231は、ターゲット画像における所定の領域の画像を部分画像として特定すること可能である。所定の領域は、被検眼Eの瞳孔に相当する領域を含み、被検眼の上瞼、下瞼、及び睫毛が描出されない領域であってよい。例えば、解析部231は、ターゲット画像から予め決められた領域を抽出し、抽出された画像を部分画像として特定する。すなわち、解析部231は、ターゲット画像から画角を狭くした領域の画像を部分画像として特定する。 Further, the analysis unit 231 can specify an image of a predetermined region in the target image as a partial image. The predetermined region may include a region corresponding to the pupil of the eye E to be inspected, and may be a region in which the upper eyelid, the lower eyelid, and the eyelashes of the eye to be inspected are not visualized. For example, the analysis unit 231 extracts a predetermined region from the target image and specifies the extracted image as a partial image. That is, the analysis unit 231 specifies an image in a region where the angle of view is narrowed from the target image as a partial image.

以上のように特定された部分画像には、被検眼Eの瞳孔に相当する領域が描出され、且つ被検眼Eの上瞼、下瞼、及び睫毛が描出されない。 In the partial image specified as described above, the region corresponding to the pupil of the eye E to be inspected is drawn, and the upper eyelid, the lower eyelid, and the eyelashes of the eye E to be inspected are not drawn.

なお、解析部231は、ベース画像において予め決められた領域の画像に基づいて、ターゲット画像における部分画像を特定してもよい。例えば、解析部231は、ベース画像における被検眼Eの瞳孔に相当する領域の画像から、ターゲット画像における部分画像を特定する。 The analysis unit 231 may specify a partial image in the target image based on an image in a predetermined region in the base image. For example, the analysis unit 231 identifies a partial image in the target image from the image of the region corresponding to the pupil of the eye E to be inspected in the base image.

解析部231は、上記のように特定された部分画像に対応する、ベース画像中の対応部分画像を特定する。 The analysis unit 231 identifies the corresponding partial image in the base image corresponding to the partial image specified as described above.

データ処理部230は、ベース画像中の対応部分画像とターゲット画像中の部分画像との間の位置ずれ量を求め、求められた位置ずれ量に対応した情報を制御部210(主制御部211)に出力する。位置ずれ量は、対応部分画像と部分画像との間の1ピクセル未満のサブピクセルレベルの回転方向(z方向の軸を中心とする回転方向)の回転移動量やその回転移動方向、対応部分画像と部分画像との間のサブピクセルレベルのxy面内における平行移動量やその平行移動方向などを含む。 The data processing unit 230 obtains the amount of misalignment between the corresponding partial image in the base image and the partial image in the target image, and the control unit 210 (main control unit 211) obtains information corresponding to the obtained amount of misalignment. Output to. The amount of misalignment is the amount of rotational movement in the subpixel level rotation direction (rotational direction centered on the z-direction axis) of less than 1 pixel between the corresponding partial image and the partial image, the rotational movement direction, and the corresponding partial image. It includes the amount of translation in the xy plane at the sub-pixel level between the image and the partial image, the translation direction thereof, and the like.

具体的には、データ処理部230は、対応部分画像と部分画像との間の回転移動量及び回転移動方向をサブピクセルレベルで算出し、算出された回転移動量及び回転移動方向に基づいて対応部分画像と部分画像との間で回転方向の位置合わせを行う。その後、データ処理部230は、位置合わせがなされた対応部分画像と部分画像との間の平行移動量及び平行移動方向をサブピクセルレベルで算出する。 Specifically, the data processing unit 230 calculates the rotational movement amount and the rotational movement direction between the corresponding partial image and the partial image at the sub-pixel level, and responds based on the calculated rotational movement amount and the rotational movement direction. Align the partial image and the partial image in the rotation direction. After that, the data processing unit 230 calculates the amount of translation and the direction of translation between the aligned partial image and the partial image at the sub-pixel level.

回転移動量算出部241及び平行移動量算出部243は、上記のように対応部分画像と部分画像とに基づいて、対応部分画像に対する部分画像の変位(位置ずれ量、位置ずれ方向を含む)を求める。位置合わせ処理部242は、対応部分画像と部分画像との位置合わせを行う。 The rotational movement amount calculation unit 241 and the parallel movement amount calculation unit 243 determine the displacement (including the displacement amount and the displacement direction) of the partial image with respect to the corresponding partial image based on the corresponding partial image and the partial image as described above. Ask. The alignment processing unit 242 aligns the corresponding partial image with the partial image.

回転移動量算出部241は、対応部分画像と部分画像との間の回転移動量及び回転移動方向を算出する。回転移動量算出部241は、対応部分画像と部分画像とに対し位相限定相関処理を施すことにより、対応部分画像と部分画像との間の回転移動量及び回転移動方向を算出することが可能である。 The rotational movement amount calculation unit 241 calculates the rotational movement amount and the rotational movement direction between the corresponding partial image and the partial image. The rotational movement amount calculation unit 241 can calculate the rotational movement amount and the rotational movement direction between the corresponding partial image and the partial image by performing phase-limited correlation processing on the corresponding partial image and the partial image. be.

(眼底モード)
データ処理部230は、ベース画像とターゲット画像との間の位置ずれ量を求め、求められた位置ずれ量に対応した情報を制御部210(主制御部211)に出力する。位置ずれ量は、ベース画像とターゲット画像との間の1ピクセル未満のサブピクセルレベルの回転方向(z方向の軸を中心とする回転方向)の回転移動量やその回転移動方向、ベース画像とターゲット画像との間のサブピクセルレベルのxy面内における平行移動量やその平行移動方向などを含む。
(Fundus mode)
The data processing unit 230 obtains the amount of misalignment between the base image and the target image, and outputs information corresponding to the obtained amount of misalignment to the control unit 210 (main control unit 211). The amount of misalignment is the amount of rotational movement in the subpixel level rotation direction (rotational direction centered on the z-direction axis) of less than 1 pixel between the base image and the target image, the rotational movement direction, and the base image and the target. Includes the amount of translation in the xy plane at the sub-pixel level with the image and the direction of translation thereof.

具体的には、データ処理部230は、ベース画像とターゲット画像との間の回転移動量及び回転移動方向をサブピクセルレベルで算出し、算出された回転移動量及び回転移動方向に基づいてベース画像とターゲット画像との間で回転方向の位置合わせを行う。その後、データ処理部230は、位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向をサブピクセルレベルで算出する。 Specifically, the data processing unit 230 calculates the rotational movement amount and the rotational movement direction between the base image and the target image at the sub-pixel level, and based on the calculated rotational movement amount and the rotational movement direction, the base image. Aligns the image with the target image in the direction of rotation. After that, the data processing unit 230 calculates the amount of translation and the direction of translation between the aligned base image and the target image at the sub-pixel level.

回転移動量算出部241及び平行移動量算出部243は、上記のようにベース画像とターゲット画像とに基づいて、ベース画像に対するターゲット画像の変位(位置ずれ量、位置ずれ方向を含む)を求める。位置合わせ処理部242は、ベース画像とターゲット画像との位置合わせを行う。 The rotational movement amount calculation unit 241 and the parallel movement amount calculation unit 243 obtain the displacement (including the displacement amount and the displacement direction) of the target image with respect to the base image based on the base image and the target image as described above. The alignment processing unit 242 aligns the base image and the target image.

回転移動量算出部241は、ベース画像とターゲット画像との間の回転移動量及び回転移動方向を算出する。回転移動量算出部241は、ベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の回転移動量及び回転移動方向を算出することが可能である。このような位相限定相関処理は、特開2015−043898号公報(特許文献1)に開示された処理と同様である。 The rotational movement amount calculation unit 241 calculates the rotational movement amount and the rotational movement direction between the base image and the target image. The rotational movement amount calculation unit 241 can calculate the rotational movement amount and the rotational movement direction between the base image and the target image by performing phase-limited correlation processing on the base image and the target image. Such a phase-limited correlation process is the same as the process disclosed in Japanese Patent Application Laid-Open No. 2015-043898 (Patent Document 1).

実施形態に係る位相限定相関処理では、例えば、以下のような位相限定相関関数が用いられる。以下、主として眼底モードの場合について説明するが、ベース画像を「対応部分画像」に置き換え、ターゲット画像を「部分画像」に置き換えることにより前眼部モードに適用することが可能である。 In the phase-limited correlation processing according to the embodiment, for example, the following phase-limited correlation function is used. Hereinafter, the case of the fundus mode will be mainly described, but it can be applied to the anterior segment mode by replacing the base image with the “corresponding partial image” and replacing the target image with the “partial image”.

まず、画像サイズがN×N(N、Nは正の整数)であるベース画像をf(n,n)、ターゲット画像をg(n,n)とする。ここで、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、f(n,n)の2次元離散フーリエ変換(Discrete Fourier Transformation:以下、DFT)の演算結果をF(k,k)とすると、F(k,k)は、式(1)のように表される。 First, let f (n 1 , n 2 ) be a base image having an image size of N 1 × N 2 (N 1 and N 2 are positive integers), and g (n 1 , n 2 ) be a target image. Here, n 1 = −M 1 , ···, M 1 on the discrete space, N 1 = 2M 1 + 1 (M 1 is a positive integer), and the two-dimensional discrete of f (n 1 , n 2). Assuming that the calculation result of the Fourier transform (discrete Fourier Transform: hereinafter, DFT) is F (k 1 , k 2 ), F (k 1 , k 2 ) is expressed by the equation (1).

Figure 0006923392
Figure 0006923392

式(1)において、A(k,k)はf(n,n)の振幅成分であり、ejθF(k1,k2)はf(n,n)の位相成分である。 In equation (1), AF (k 1 , k 2 ) is the amplitude component of f (n 1 , n 2 ), and e jθF (k 1, k 2) is the phase component of f (n 1 , n 2). be.

同様に、離散空間上でn=−M,・・・,Mとし、N=2M+1(Mは正の整数)とし、g(n,n)の2次元DFTの演算結果をG(k,k)とすると、G(k,k)は、式(2)のように表される。 Similarly, in a discrete space, n 2 = -M 2 , ..., M 2 , N 2 = 2 M 2 + 1 (M 2 is a positive integer), and g (n 1 , n 2 ) two-dimensional DFT. Assuming that the calculation result of is G (k 1 , k 2 ), G (k 1 , k 2 ) is expressed as in Eq. (2).

Figure 0006923392
Figure 0006923392

式(2)において、A(k,k)はg(n,n)の振幅成分であり、ejθG(k1,k2)はg(n,n)の位相成分である。 In equation (2), AG (k 1 , k 2 ) is the amplitude component of g (n 1 , n 2 ), and e jθG (k 1, k 2) is the phase component of g (n 1 , n 2). be.

位相限定合成処理に用いられる位相限定合成関数は、式(1)及び式(2)を用いて、式(3)のように定義される。 The phase-limited synthesis function used in the phase-limited synthesis processing is defined as in equation (3) using equations (1) and (2).

Figure 0006923392
Figure 0006923392

実施形態に係る位相限定相関関数は、式(3)の位相限定合成関数に対して2次元逆離散フーリエ変換(Inverse Discrete Fourier Transformation:以下、IDFT)を施すことにより、式(4)のように表される。 The phase-limited correlation function according to the embodiment is as shown in the equation (4) by applying a two-dimensional inverse discrete Fourier transform (hereinafter, IDFT) to the phase-limited composite function of the equation (3). expressed.

Figure 0006923392
Figure 0006923392

連続空間で定義された2次元画像s(x,x)を、x方向に微小移動量δだけ、且つ、x方向に微小移動量δだけシフトさせて得られる画像は、s(x−δ,x−δ)と表される。標本化間隔Tで標本化された離散空間上の2次元画像f(n,n)は、式(5)のように定義される。 The 2-dimensional images s c of the continuous space is defined (x 1, x 2), by a minute amount of movement [delta] 1 in x 1 direction and the image obtained by shifting the x 2 direction by a minute amount of movement [delta] 2 is is expressed as s c (x 1 -δ 1, x 2 -δ 2). The two-dimensional image f (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 1 is defined by Eq. (5).

Figure 0006923392
Figure 0006923392

同様に、標本化間隔Tで標本化された離散空間上の2次元画像g(n,n)は、式(6)のように定義される。 Similarly, the two-dimensional image g (n 1 , n 2 ) on the discrete space sampled at the sampling interval T 2 is defined as in Eq. (6).

Figure 0006923392
Figure 0006923392

式(5)及び式(6)において、n=−M,・・・,Mであり、n=−M,・・・,Mである。これにより、離散空間上の2次元画像f(n,n)、g(n,n)に関する位相限定相関関数は、式(7)のような一般形で表される。式(7)において、α=1である。 In equations (5) and (6), n 1 = -M 1 , ..., M 1 and n 2 = -M 2 , ..., M 2 . As a result, the phase-limited correlation function for the two-dimensional images f (n 1 , n 2 ) and g (n 1 , n 2 ) in the discrete space is expressed in the general form as in Eq. (7). In equation (7), α = 1.

Figure 0006923392
Figure 0006923392

図6に示すように、回転移動量算出部241は、第1変換処理部301と、対数変換部302と、極座標変換部303と、第2変換処理部304と、第1位相限定合成部305と、第1逆変換処理部306とを含む。 As shown in FIG. 6, the rotational movement amount calculation unit 241 includes a first conversion processing unit 301, a logarithmic conversion processing unit 302, a polar coordinate conversion unit 303, a second conversion processing unit 304, and a first phase limited synthesis unit 305. And the first inverse conversion processing unit 306.

第1変換処理部301は、ベース画像に対し2次元DFT処理を施す。また、第1変換処理部301は、ターゲット画像に対し2次元DFT処理を施す。第1変換処理部301により行われる2次元DFT処理は、2次元DFTと、この2次元DFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。以下、このシフト処理を、「シフト」と呼ぶことがある。なお、第1変換処理部301により行われる2次元DFTは、2次元FFTであってよい。 The first conversion processing unit 301 performs two-dimensional DFT processing on the base image. In addition, the first conversion processing unit 301 performs two-dimensional DFT processing on the target image. The two-dimensional DFT process performed by the first conversion processing unit 301 includes a two-dimensional DFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional DFT. Hereinafter, this shift process may be referred to as "shift". The two-dimensional DFT performed by the first conversion processing unit 301 may be a two-dimensional FFT.

対数変換部302は、ベース画像についての第1変換処理部301による演算結果に対し対数変換を施す。また、対数変換部302は、ターゲット画像についての第1変換処理部301による演算結果に対し対数変換を施す。対数変換部302による対数変換は、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる効果を有する。 The logarithmic conversion unit 302 performs logarithmic conversion on the calculation result of the first conversion processing unit 301 for the base image. Further, the logarithmic conversion unit 302 performs logarithmic conversion on the calculation result of the first conversion processing unit 301 for the target image. The logarithmic conversion by the logarithmic conversion unit 302 has the effect of compressing the amplitude spectrum that tends to be concentrated in the low frequency region of the spatial frequency in the natural image.

極座標変換部303は、ベース画像についての対数変換部302による演算結果に対し極座標変換を施す。また、極座標変換部303は、ターゲット画像についての対数変換部302による演算結果に対し極座標変換を施す。なお、対数変換部302による対数変換を行わない場合、極座標変換部303は、ベース画像についての第1変換処理部301による演算結果に対し極座標変換を施し、ターゲット画像についての第1変換処理部301による演算結果に対し極座標変換を施す。極座標変換部303による極座標変換は、回転方向の移動量を式(1)〜式(7)における平行方向(n方向やn方向)の移動量に変換する処理である。 The polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 302 for the base image. Further, the polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result of the logarithmic conversion unit 302 for the target image. When the logarithmic conversion by the logarithmic conversion unit 302 is not performed, the polar coordinate conversion unit 303 performs polar coordinate conversion on the calculation result by the first conversion processing unit 301 for the base image, and the first conversion processing unit 301 for the target image. Perform polar coordinate transformation on the calculation result by. Polar conversion by polar coordinate transformation unit 303 is a process of converting the movement amount of the rotational direction to the amount of movement of the parallel direction (n 1 direction and n 2 direction) in the formula (1) to (7).

第2変換処理部304は、式(1)に示すように、ベース画像についての極座標変換部303による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像についての第2変換処理部304による処理結果は、第1位相限定合成部305による演算処理に先立って、振幅成分で正規化されたベースPOCデータとして、例えば、記憶部212に事前に保存される。また、第2変換処理部304は、式(2)に示すように、ターゲット画像についての極座標変換部303による演算結果に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第2変換処理部304により行われる2次元DFTもまた、2次元FFTであってよい。 As shown in the equation (1), the second conversion processing unit 304 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the calculation result of the polar coordinate conversion unit 303 for the base image. The processing result of the base image by the second conversion processing unit 304 is stored in advance in, for example, the storage unit 212 as base POC data normalized by the amplitude component prior to the arithmetic processing by the first phase limiting synthesis unit 305. Will be done. Further, as shown in the equation (2), the second conversion processing unit 304 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the calculation result of the polar coordinate conversion unit 303 for the target image. The two-dimensional DFT performed by the second conversion processing unit 304 may also be a two-dimensional FFT.

第1位相限定合成部305は、式(3)に示すように、ベース画像について予め求められたベースPOCデータ(第1データ)と、ターゲット画像についての第2変換処理部304による演算結果に基づいて振幅成分で正規化されたターゲットPOCデータ(第2データ)とを合成する位相限定合成処理を行う。 As shown in the equation (3), the first phase limited synthesis unit 305 is based on the base POC data (first data) obtained in advance for the base image and the calculation result by the second conversion processing unit 304 for the target image. A phase-limited synthesis process is performed to synthesize the target POC data (second data) normalized by the amplitude component.

第1逆変換処理部306は、第1位相限定合成部305による演算結果に対し2次元IDFT処理を施す。第1逆変換処理部306により行われる2次元IDFT処理は、2次元IDFTと、この2次元IDFTの演算結果に対し象限をシフトする公知のシフト処理とを含む。なお、2次元IDFTは、2次元逆高速フーリエ変換(Inverse Fast Fourier Transformation:以下、IFFT)により演算してもよい。 The first inverse transformation processing unit 306 performs two-dimensional IDFT processing on the calculation result by the first phase limited synthesis unit 305. The two-dimensional IDFT process performed by the first inverse transformation processing unit 306 includes a two-dimensional IDFT and a known shift process for shifting the quadrant with respect to the calculation result of the two-dimensional IDFT. The two-dimensional IDFT may be calculated by a two-dimensional inverse Fourier transform (hereinafter, IFFT).

回転移動量算出部241は、第1逆変換処理部306による演算結果に基づいて回転移動量及び回転移動方向を算出する。具体的には、回転移動量算出部241は、第1逆変換処理部306による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで回転移動量及び回転移動方向を求める。その後、回転移動量算出部241は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで回転移動量及び回転移動方向を求める。 The rotational movement amount calculation unit 241 calculates the rotational movement amount and the rotational movement direction based on the calculation result by the first inverse conversion processing unit 306. Specifically, the rotational movement amount calculation unit 241 obtains the rotational movement amount and the rotational movement direction at the pixel level by specifying the peak position based on the calculation result by the first inverse transformation processing unit 306. After that, the rotation movement amount calculation unit 241 specifies the pixel position when the correlation value of the phase-limited correlation function shown in the equation (7) becomes maximum in the vicinity of the peak position specified at the pixel level, thereby substituting. Obtain the amount of rotational movement and the direction of rotational movement at the pixel level.

なお、回転移動量算出部241は、位相限定相関処理により回転移動量及び回転移動方向を算出するものでなくてもよく、公知の手法により回転移動量及び回転移動方向を算出してもよい。 The rotational movement amount calculation unit 241 does not have to calculate the rotational movement amount and the rotational movement direction by the phase limitation correlation processing, and may calculate the rotational movement amount and the rotational movement direction by a known method.

平行移動量算出部243は、後述の位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。このような位相限定相関処理は、特開2015−043898号公報に開示された処理と同様である。 The translation amount calculation unit 243 calculates the translation amount and the translation direction between the base image and the target image aligned by the alignment processing unit 242, which will be described later. The translation amount calculation unit 243 performs translational movement amount and parallelism between the base image and the target image by performing phase-limited correlation processing on the base image and the target image aligned by the alignment processing unit 242. Calculate the moving direction. Such phase-limited correlation processing is the same as the processing disclosed in Japanese Patent Application Laid-Open No. 2015-043898.

平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像との間の平行移動量及び平行移動方向を求める。具体的には、平行移動量算出部243は、位置合わせ処理部242による位置合わせがなされたベース画像とターゲット画像とに対し位相限定相関処理を施すことにより、ベース画像とターゲット画像との間の平行移動量及び平行移動方向を算出する。 The translation amount calculation unit 243 obtains the translation amount and the translation direction between the base image and the target image aligned by the alignment processing unit 242. Specifically, the translation amount calculation unit 243 performs phase-limited correlation processing on the base image and the target image aligned by the alignment processing unit 242, thereby between the base image and the target image. Calculate the amount of translation and the direction of translation.

図7に示すように、平行移動量算出部243は、第3変換処理部311と、第2位相限定合成部312と、第2逆変換処理部313とを備えている。 As shown in FIG. 7, the translation amount calculation unit 243 includes a third conversion processing unit 311, a second phase limited synthesis unit 312, and a second inverse conversion processing unit 313.

第3変換処理部311は、式(1)に示すように、ベース画像に対し2次元DFT処理(2次元DFT+シフト)を施す。ベース画像についての第3変換処理部311による処理結果は、第2位相限定合成部312による演算処理に先立って、振幅成分で正規化されたベースPOCデータ(第3データ)として、例えば、記憶部212に事前に保存される。また、第3変換処理部311は、式(2)に示すように、ターゲット画像に対し2次元DFT処理(2次元DFT+シフト)を施す。なお、第3変換処理部311により行われる2次元DFTは、2次元FFTであってよい。 As shown in the equation (1), the third conversion processing unit 311 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the base image. The processing result of the base image by the third conversion processing unit 311 is, for example, a storage unit as the base POC data (third data) normalized by the amplitude component prior to the arithmetic processing by the second phase limited synthesis unit 312. Pre-stored in 212. Further, the third conversion processing unit 311 performs two-dimensional DFT processing (two-dimensional DFT + shift) on the target image as shown in the equation (2). The two-dimensional DFT performed by the third conversion processing unit 311 may be a two-dimensional FFT.

第2位相限定合成部312は、式(3)に示すように、ベース画像について予め求められたベースPOCデータ(第3データ)と、ターゲット画像についての第3変換処理部311による演算結果に基づいて、振幅成分で正規化されたターゲットPOCデータ(第4データ)とを合成する位相限定合成処理を行う。 As shown in the equation (3), the second phase limited synthesis unit 312 is based on the base POC data (third data) obtained in advance for the base image and the calculation result by the third conversion processing unit 311 for the target image. Then, a phase-limited synthesis process for synthesizing the target POC data (fourth data) normalized by the amplitude component is performed.

第2逆変換処理部313は、第2位相限定合成部312による演算結果に対し2次元IDFT処理(2次元IDFT+シフト)を施す。なお、第2逆変換処理部313により行われる2次元IDFTは、2次元IFFTであってよい。 The second inverse transformation processing unit 313 performs two-dimensional IDFT processing (two-dimensional IDFT + shift) on the calculation result by the second phase limited synthesis unit 312. The two-dimensional IDFT performed by the second inverse transform processing unit 313 may be a two-dimensional IFFT.

平行移動量算出部243は、第2逆変換処理部313による演算結果に基づいて平行移動量及び平行移動方向を算出する。具体的には、平行移動量算出部243は、第2逆変換処理部313による演算結果に基づいてピーク位置を特定することにより、ピクセルレベルで平行移動量及び平行移動方向を求める。その後、平行移動量算出部243は、ピクセルレベルで特定されたピーク位置の近傍において、式(7)に示す位相限定相関関数の相関値が最大となるときの画素位置を特定することにより、サブピクセルレベルで平行移動量及び平行移動方向を求める。 The translation amount calculation unit 243 calculates the translation amount and the translation direction based on the calculation result by the second inverse transformation processing unit 313. Specifically, the translation amount calculation unit 243 obtains the translation amount and the translation direction at the pixel level by specifying the peak position based on the calculation result by the second inverse transformation processing unit 313. After that, the translation amount calculation unit 243 specifies the pixel position when the correlation value of the phase-limited correlation function shown in Eq. (7) becomes maximum in the vicinity of the peak position specified at the pixel level, thereby substituting. Find the translation amount and translation direction at the pixel level.

位置合わせ処理部242は、回転移動量算出部241により求められた回転移動量及び回転移動方向に基づいてベース画像とターゲット画像との間の回転方向の位置合わせを行う。具体的には、位置合わせ処理部242は、回転移動量算出部241により算出された回転移動量及び回転移動方向に基づいて、ベース画像を基準に、ターゲット画像に対し回転方向の位置合わせを行う。なお、位置合わせ処理部242は、回転移動量算出部241により算出された回転移動量及び回転移動方向に基づいて、ターゲット画像を基準に、ベース画像に対し回転方向の位置合わせを行うようにしてもよい。 The alignment processing unit 242 aligns the base image and the target image in the rotation direction based on the rotation movement amount and the rotation movement direction obtained by the rotation movement amount calculation unit 241. Specifically, the alignment processing unit 242 aligns the target image with respect to the rotation direction based on the rotation movement amount and the rotation movement direction calculated by the rotation movement amount calculation unit 241. .. The alignment processing unit 242 aligns the base image with respect to the rotation direction based on the rotation movement amount and the rotation movement direction calculated by the rotation movement amount calculation unit 241. May be good.

以上のように機能するデータ処理部230は、例えば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。 The data processing unit 230 that functions as described above includes, for example, a microprocessor, RAM, ROM, a hard disk drive, a circuit board, and the like. A computer program that causes a microprocessor to execute the above functions is stored in a storage device such as a hard disk drive in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 240A and an operation unit 240B. The display unit 240A includes the display device and the display device 3 of the arithmetic control unit 200 described above. The operation unit 240B includes the operation device of the arithmetic control unit 200 described above. The operation unit 240B may include various buttons and keys provided on the housing of the ophthalmic apparatus 1 and on the outside. Further, the display unit 240A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.

なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。例えばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。 The display unit 240A and the operation unit 240B do not need to be configured as separate devices. For example, it is possible to use a device such as a touch panel in which a display function and an operation function are integrated. In that case, the operation unit 240B includes the touch panel and a computer. The operation content for the operation unit 240B is input to the control unit 210 as an electric signal. Further, the graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B may be used to perform operations and information input.

図1に示す光学系(例えば、OCTユニット100に含まれる干渉光学系)は、実施形態に係る「光学系」の一例である。撮影光学系30は、実施形態に係る「撮影部」の一例である。光学系駆動部1Aは、実施形態に係る「移動機構」の一例である。アライメント光学系50は、実施形態に係る「輝点投影系」の一例である。ベース画像は実施形態に係る「第1画像」又は「第3画像」の一例であり、ターゲット画像は実施形態に係る「第2画像」又は「第4画像」の一例である。回転移動量算出部241は、実施形態に係る「第1回転移動量算出部」又は「第2回転移動量算出部」の一例である。位置合わせ処理部242は、実施形態に係る「第1位置合わせ処理部」又は「第2位置合わせ処理部」の一例である。平行移動量算出部243は、実施形態に係る「第1平行移動量算出部」又は「第2平行移動量算出部」の一例である。 The optical system shown in FIG. 1 (for example, the interference optical system included in the OCT unit 100) is an example of the “optical system” according to the embodiment. The photographing optical system 30 is an example of the “photographing unit” according to the embodiment. The optical system drive unit 1A is an example of the “moving mechanism” according to the embodiment. The alignment optical system 50 is an example of the “bright spot projection system” according to the embodiment. The base image is an example of the "first image" or "third image" according to the embodiment, and the target image is an example of the "second image" or "fourth image" according to the embodiment. The rotation movement amount calculation unit 241 is an example of the "first rotation movement amount calculation unit" or the "second rotation movement amount calculation unit" according to the embodiment. The alignment processing unit 242 is an example of the "first alignment processing unit" or the "second alignment processing unit" according to the embodiment. The translation amount calculation unit 243 is an example of the "first translation amount calculation unit" or the "second translation amount calculation unit" according to the embodiment.

[動作例]
実施形態に係る眼科装置の動作例について説明する。
[Operation example]
An operation example of the ophthalmic apparatus according to the embodiment will be described.

図8に、実施形態に係る眼科装置1の動作の一例を表すフロー図を示す。図8では、被検眼Eと対物レンズ22との間に前置レンズ23が配置されているものとする。 FIG. 8 shows a flow chart showing an example of the operation of the ophthalmic apparatus 1 according to the embodiment. In FIG. 8, it is assumed that the front lens 23 is arranged between the eye E to be inspected and the objective lens 22.

(S1:前眼部を撮影開始)
まず、観察光源11からの照明光(可視カットフィルタ14により近赤外光となる)で前眼部を連続照明することにより、前眼部の近赤外動画像の取得を開始する。この近赤外動画像は、連続照明が終了するまでリアルタイムで得られる。この動画像を構成する各フレームの画像は、フレームメモリ(記憶部212)に一時記憶され、データ処理部230に逐次送られる。
(S1: Start photographing the anterior segment)
First, acquisition of a near-infrared moving image of the anterior segment is started by continuously illuminating the anterior segment with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the end of continuous illumination. The image of each frame constituting this moving image is temporarily stored in the frame memory (storage unit 212) and sequentially sent to the data processing unit 230.

なお、被検眼Eには、アライメント光学系50によるアライメント視標と、フォーカス光学系60によるスプリット視標とが投影されている。よって、近赤外動画像にはアライメント視標とスプリット視標とが描画されている。これら視標を用いてアライメントやピント合わせを行うことができる。また、被検眼Eには、LCD39による固視標も投影されている。被検者は、この固視標を凝視するように指示を受ける。 An alignment target by the alignment optical system 50 and a split target by the focus optical system 60 are projected on the eye E to be inspected. Therefore, the alignment optotype and the split optotype are drawn on the near-infrared moving image. Alignment and focusing can be performed using these optotypes. In addition, a fixation target by LCD 39 is also projected on the eye E to be inspected. The subject is instructed to stare at this fixation target.

(S2:アライメント)
データ処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、アライメント視標の位置を求め、光学系の移動量を算出する。制御部210は、データ処理部230により算出された光学系の移動量に基づいて光学系駆動部1Aを制御することにより、オートアライメントを行う。
(S2: Alignment)
The data processing unit 230 sequentially analyzes the frames obtained by photographing the eye E to be inspected as a moving image by the optical system, obtains the position of the alignment optotype, and calculates the amount of movement of the optical system. The control unit 210 performs auto-alignment by controlling the optical system drive unit 1A based on the movement amount of the optical system calculated by the data processing unit 230.

(S3:ピント合わせ)
データ処理部230は、光学系によって被検眼Eを動画撮影することにより得られるフレームを逐次に解析して、スプリット視標の位置を求め、撮影合焦レンズ31及びOCT合焦レンズ43の移動量を算出する。制御部210は、データ処理部230により算出された撮影合焦レンズ31及びOCT合焦レンズ43の移動量に基づいて合焦駆動部31A、43Aを制御することにより、オートフォーカスを行う。
(S3: Focusing)
The data processing unit 230 sequentially analyzes the frames obtained by photographing the eye E to be inspected as a moving image by the optical system, obtains the position of the split optotype, and the amount of movement of the photographing focusing lens 31 and the OCT focusing lens 43. Is calculated. The control unit 210 performs autofocus by controlling the focusing drive units 31A and 43A based on the amount of movement of the photographing focusing lens 31 and the OCT focusing lens 43 calculated by the data processing unit 230.

(S4:トラッキングを開始)
続いて、制御部210は、オートトラッキングを開始する。具体的には、データ処理部230は、光学系によって被検眼Eを動画撮影することにより逐次に得られるフレームをリアルタイムで解析して、被検眼Eの動き(位置の変化)を監視する。制御部210は、逐次に取得される被検眼Eの位置に合わせて光学系を移動させるように光学系駆動部1Aを制御する。それにより、被検眼Eの動きに対して光学系をリアルタイムで追従させることができ、アライメントとピントが合った好適な位置関係を維持することが可能となる。
(S4: Start tracking)
Subsequently, the control unit 210 starts auto-tracking. Specifically, the data processing unit 230 monitors the movement (change in position) of the eye E to be inspected E by analyzing the frames sequentially obtained by photographing the eye E to be inspected as a moving image in real time by the optical system. The control unit 210 controls the optical system drive unit 1A so as to move the optical system according to the position of the eye E to be inspected, which is sequentially acquired. As a result, the optical system can be made to follow the movement of the eye E to be inspected in real time, and it is possible to maintain a suitable positional relationship in which alignment and focus are in focus.

(S5:走査領域を設定)
制御部210は、近赤外動画像を表示部240Aにリアルタイムで表示させる。ユーザは、操作部240Bを用いることにより、この近赤外動画像上に走査領域を設定する。設定される走査領域は1次元領域でも2次元領域でもよい。
(S5: Set scanning area)
The control unit 210 causes the display unit 240A to display a near-infrared moving image in real time. The user sets a scanning region on the near-infrared moving image by using the operation unit 240B. The scanning area to be set may be a one-dimensional area or a two-dimensional area.

(S6:OCT計測)
制御部210は、光源ユニット101や光路長変更部41を制御するとともに、ステップS5で設定された走査領域に基づいて光スキャナ42を制御することにより、前眼部のOCT計測を行う。画像形成部220は、得られた検出信号に基づいて前眼部の断層像を形成する。走査態様が3次元スキャンである場合、データ処理部230は、画像形成部220により形成された複数の断層像に基づいて前眼部の3次元画像を形成する。以上で、この動作例は終了となる(エンド)。
(S6: OCT measurement)
The control unit 210 controls the light source unit 101 and the optical path length changing unit 41, and controls the optical scanner 42 based on the scanning region set in step S5 to perform OCT measurement of the anterior segment of the eye. The image forming unit 220 forms a tomographic image of the anterior segment based on the obtained detection signal. When the scanning mode is a three-dimensional scan, the data processing unit 230 forms a three-dimensional image of the anterior segment of the eye based on a plurality of tomographic images formed by the image forming unit 220. This is the end of this operation example (end).

図9に、図8のステップS4の処理例のフロー図を示す。 FIG. 9 shows a flow chart of a processing example of step S4 of FIG.

(S100:眼底を計測?)
制御部210は、計測部位(撮影部位)が眼底であるか否かを判定する。例えば、被検眼Eと対物レンズ22との間に前置レンズ23が配置されているか否かを検出する検出部を設け、制御部210は、当該検出部により得られた検出結果に基づいて計測部位が眼底であるか否かを判定することができる。このような検出部は、被検眼Eと対物レンズ22との間に前置レンズ23が配置されたときにオンとなり、被検眼Eと対物レンズ22との間から前置レンズ23が退避されたときにオフとなるマイクロスイッチを含むことができる。
(S100: Measure the fundus?)
The control unit 210 determines whether or not the measurement site (photographing site) is the fundus. For example, a detection unit for detecting whether or not the front lens 23 is arranged between the eye E to be inspected and the objective lens 22 is provided, and the control unit 210 measures based on the detection result obtained by the detection unit. It is possible to determine whether or not the site is the fundus. Such a detection unit is turned on when the front lens 23 is arranged between the eye E to be inspected and the objective lens 22, and the front lens 23 is retracted from between the eye E to be inspected and the objective lens 22. It can include a microswitch that sometimes turns off.

計測部位が眼底であると判定されたとき(S100:Y)、眼科装置1の動作はステップS101に移行する。計測部位が眼底ではないと判定されたとき(S100:N)、眼科装置1の動作はステップS102に移行する。 When it is determined that the measurement site is the fundus (S100: Y), the operation of the ophthalmic apparatus 1 shifts to step S101. When it is determined that the measurement site is not the fundus (S100: N), the operation of the ophthalmic apparatus 1 shifts to step S102.

(S101:眼底モード)
ステップS100において計測部位が眼底であると判定されたとき(S100:Y)、制御部210は、眼底モードでトラッキング制御を実行する。すなわち、データ処理部230は、ベース画像とターゲット画像との間のサブピクセルレベルの位置ずれ量を逐次に算出し、制御部210は、1又は複数のフレーム毎に、データ処理部230において算出された位置ずれ量を補正するように光学系を移動させる。
(S101: fundus mode)
When it is determined in step S100 that the measurement site is the fundus (S100: Y), the control unit 210 executes tracking control in the fundus mode. That is, the data processing unit 230 sequentially calculates the amount of sub-pixel level misalignment between the base image and the target image, and the control unit 210 is calculated by the data processing unit 230 for each one or a plurality of frames. The optical system is moved so as to correct the amount of misalignment.

(S102:前眼部モード)
ステップS100において計測部位が眼底ではないと判定されたとき(S100:N)、制御部210は、前眼部モードでトラッキング制御を実行する。すなわち、解析部231は、前眼部像における基準位置に対する特徴領域や輝点像の変位を求め、制御部210は、1又は複数のフレーム毎に、解析部231において求められた変位をキャンセルするように光学系を移動させる。また、解析部231は、上記のように被検眼Eの3次元位置を求め、制御部210は、1又は複数のフレーム毎に、解析部231において求められた3次元位置に基づいて光学系を移動させてもよい。
(S102: anterior segment mode)
When it is determined in step S100 that the measurement site is not the fundus (S100: N), the control unit 210 executes tracking control in the anterior ocular region mode. That is, the analysis unit 231 obtains the displacement of the feature region and the bright spot image with respect to the reference position in the anterior segment image, and the control unit 210 cancels the displacement obtained by the analysis unit 231 for each one or a plurality of frames. The optical system is moved so as to. Further, the analysis unit 231 obtains the three-dimensional position of the eye E to be inspected as described above, and the control unit 210 obtains the optical system for each one or a plurality of frames based on the three-dimensional position obtained by the analysis unit 231. You may move it.

(S103:終了?)
ステップS101又はステップS102に続いて、制御部210は、トラッキングを終了するか否かを判定する。トラッキングを終了すると判定されたとき(S103:Y)、眼科装置1のトラッキング制御が終了する(エンド)。トラッキングを終了しないと判定されたとき(S103:N)、眼科装置1の動作はステップS100に移行する。
(S103: Finished?)
Following step S101 or step S102, the control unit 210 determines whether or not to end the tracking. When it is determined to end the tracking (S103: Y), the tracking control of the ophthalmic apparatus 1 ends (end). When it is determined that the tracking is not completed (S103: N), the operation of the ophthalmic apparatus 1 shifts to step S100.

なお、前眼部モードのとき、制御部210は、前眼部像における基準位置に対する特徴領域や輝点像の変位に基づいて被検眼Eと装置光学系との位置関係の維持が可能か否かを判定してもよい。位置関係の維持が不可能であると判定されたとき、データ処理部230は、対応部分画像と部分画像との間のサブピクセルレベルの位置ずれ量を逐次に算出し、制御部210は、1又は複数のフレーム毎に、データ処理部230において算出された位置ずれ量を補正するように光学系を移動させる。この場合、回転移動量算出部241は、ターゲット画像における部分画像と、ベース画像における部分画像に対応した対応部分画像との間の第1回転移動量を算出する。位置合わせ処理部242は、第1回転移動量に基づいて対応部分画像と部分画像との間の回転方向の位置合わせを行う。平行移動量算出部243は、位置合わせ処理部242により位置合わせがなされた対応部分画像と部分画像とに対して位相限定相関処理を施すことにより、対応部分画像と部分画像との間の第1平行移動量を算出する。制御部210は、第1平行移動量に基づいて光学系駆動部1Aを制御する。 In the anterior segment mode, the control unit 210 can maintain the positional relationship between the eye E to be inspected and the device optical system based on the displacement of the feature region and the bright spot image with respect to the reference position in the anterior segment image. May be determined. When it is determined that the positional relationship cannot be maintained, the data processing unit 230 sequentially calculates the amount of sub-pixel level misalignment between the corresponding partial image and the partial image, and the control unit 210 sequentially calculates 1. Alternatively, the optical system is moved so as to correct the amount of misalignment calculated by the data processing unit 230 for each of a plurality of frames. In this case, the rotation movement amount calculation unit 241 calculates the first rotation movement amount between the partial image in the target image and the corresponding partial image corresponding to the partial image in the base image. The alignment processing unit 242 aligns the corresponding partial image and the partial image in the rotation direction based on the first rotational movement amount. The translation amount calculation unit 243 performs phase-limited correlation processing on the corresponding partial image and the partial image aligned by the alignment processing unit 242, whereby the first interposition between the corresponding partial image and the partial image is performed. Calculate the amount of translation. The control unit 210 controls the optical system drive unit 1A based on the first translation amount.

また、眼底モードのとき、制御部210は、位相限定相関処理により求められた回転移動量及び平行移動量に基づいて被検眼Eと装置光学系との位置関係の維持が可能か否かを判定してもよい。位置関係の維持が不可能であると判定されたとき、解析部231は、ベース画像及びターゲット画像における特徴領域の変位を求め、制御部210は、求められた変位に基づいて光学系駆動部1Aを制御する。 Further, in the fundus mode, the control unit 210 determines whether or not the positional relationship between the eye E to be inspected and the device optical system can be maintained based on the rotational movement amount and the parallel movement amount obtained by the phase limitation correlation processing. You may. When it is determined that the positional relationship cannot be maintained, the analysis unit 231 obtains the displacement of the feature region in the base image and the target image, and the control unit 210 obtains the displacement of the optical system drive unit 1A based on the obtained displacement. To control.

以下、位相限定相関処理を用いたトラッキング制御の処理例について説明する。以下、主として眼底モードでのトラッキング制御の処理例について説明するが、前眼部モードでのトラッキング制御の処理も同様である。 Hereinafter, an example of tracking control processing using phase-limited correlation processing will be described. Hereinafter, an example of tracking control processing in the fundus mode will be mainly described, but the same applies to the tracking control processing in the anterior segment mode.

図10に、実施形態に係る眼底モードでのトラッキング制御のための処理例のフロー図を示す。例えば、被検眼Eが変更されたときや撮影モードが変更されたときに、図10に示す処理が実行される。
(S11:初期設定)
まず、主制御部211は、所定の初期化処理を行う。初期化処理には、リソースの確保や、ベース画像やターゲット画像を取得するためのスキャン領域の設定、データ処理部230の初期化などがある。
FIG. 10 shows a flow chart of a processing example for tracking control in the fundus mode according to the embodiment. For example, when the eye E to be inspected is changed or the photographing mode is changed, the process shown in FIG. 10 is executed.
(S11: Initial setting)
First, the main control unit 211 performs a predetermined initialization process. The initialization process includes securing resources, setting a scan area for acquiring a base image and a target image, and initializing the data processing unit 230.

(S12:ベース画像処理)
ユーザによりトラッキングの開始が指示されると、制御部210は、ベース画像に対し位相限定相関処理を施すためのベース画像処理を行う。ベース画像処理の詳細については、後述する。
(S12: Base image processing)
When the user instructs the start of tracking, the control unit 210 performs base image processing for performing phase-limited correlation processing on the base image. Details of the base image processing will be described later.

(S13:ターゲット画像処理)
制御部210は、逐次に入力されるターゲット画像に対し位相限定相関処理を施すためのターゲット画像処理を行う。ターゲット画像処理の詳細については、後述する。
(S13: Target image processing)
The control unit 210 performs target image processing for performing phase-limited correlation processing on sequentially input target images. Details of the target image processing will be described later.

(S14:撮影終了?)
撮影対象の被検眼が変わると、ステップS12において行われたベース画像処理の結果が不要になる。そこで、制御部210は、トラッキングの対象である被検眼Eの撮影が終了したか否かを判別する。制御部210は、例えば操作部240Bを介したユーザの操作内容に基づき、被検眼Eの撮影が終了したか否かを判別することができる。被検眼Eの撮影が終了しないと判別されたとき(S14:N)、眼科装置1の動作はステップS13に移行する。被検眼Eの撮影が終了したと判別されたとき(S14:Y)、眼科装置1の動作はステップS15に移行する。
(S14: Shooting finished?)
When the eye to be imaged changes, the result of the base image processing performed in step S12 becomes unnecessary. Therefore, the control unit 210 determines whether or not the imaging of the eye to be inspected E, which is the target of tracking, has been completed. The control unit 210 can determine whether or not the imaging of the eye E to be inspected is completed based on, for example, the operation content of the user via the operation unit 240B. When it is determined that the imaging of the eye to be inspected E is not completed (S14: N), the operation of the ophthalmic apparatus 1 shifts to step S13. When it is determined that the imaging of the eye E to be inspected is completed (S14: Y), the operation of the ophthalmic apparatus 1 shifts to step S15.

(S15:次の撮影?)
続いて、別の被検眼に対して撮影を行う場合には、ベース画像処理を再実行する必要がある。そこで、制御部210は、次の被検眼の撮影の有無を判別する。次の撮影を行わないと判別されたとき(S15:N)、眼科装置1の動作は終了する(エンド)。次の撮影を行うと判別されたとき(S15:Y)、眼科装置1の動作はステップS12に移行する。
(S15: Next shooting?)
Subsequently, when taking a picture for another eye to be inspected, it is necessary to re-execute the base image processing. Therefore, the control unit 210 determines whether or not the next eye to be inspected is photographed. When it is determined that the next imaging is not performed (S15: N), the operation of the ophthalmic apparatus 1 ends (end). When it is determined that the next imaging is performed (S15: Y), the operation of the ophthalmic apparatus 1 shifts to step S12.

次に、ステップS12のベース画像処理について説明する。 Next, the base image processing in step S12 will be described.

図11に、実施形態に係るベース画像処理のフローの一例を示す。 FIG. 11 shows an example of the flow of base image processing according to the embodiment.

(S21:アポダイゼーション処理)
まず、回転移動量算出部241は、ベース画像(前眼部モードのときは対応部分画像、以下同様)に対しアポダイゼーション処理を施す。アポダイゼーション処理は、アポダイゼーション関数を掛け合わせることにより、メインローブの振幅の低下をある程度抑えつつサイドローブの振幅を低下させて、ダイナミックレンジを高める処理である。アポダイゼーション関数としては、公知のハニング窓やガウス窓や矩形窓などの窓関数がある。アポダイゼーション処理は、例えば、第1変換処理部301又は回転移動量算出部241における図示しないアポダイゼーション処理部により行われる。
(S21: Apodization processing)
First, the rotation movement amount calculation unit 241 performs apodization processing on the base image (corresponding partial image in the anterior segment mode, the same applies hereinafter). The apodization process is a process of increasing the dynamic range by reducing the amplitude of the side lobes while suppressing the decrease in the amplitude of the main lobe to some extent by multiplying the apodization function. As the apodization function, there are known window functions such as a Hanning window, a Gaussian window, and a rectangular window. The apodization process is performed by, for example, an apodization process unit (not shown) in the first conversion process unit 301 or the rotational movement amount calculation unit 241.

(S22:2次元DFT)
次に、第1変換処理部301は、ステップS21におけるベース画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S22: 2D DFT)
Next, the first conversion processing unit 301 applies a two-dimensional DFT to the result of the apodization processing on the base image in step S21.

(S23:対数変換)
次に、対数変換部302は、ステップS22における2次元DFTの処理結果に対し対数変換を施す。対数変換は、2次元DFTの処理結果の実数成分をRe、虚数成分をIm、対数変換結果をAmとすると、式(8)のように表される。これにより、自然画像において空間周波数の低周波数領域に集中する傾向がある振幅スペクトルを圧縮させる。
(S23: Logarithmic transformation)
Next, the logarithmic conversion unit 302 performs logarithmic conversion on the processing result of the two-dimensional DFT in step S22. The logarithmic transformation is expressed by the equation (8), where Re is the real component of the processing result of the two-dimensional DFT, Im is the imaginary component, and Am is the logarithmic transformation result. This compresses the amplitude spectrum, which tends to be concentrated in the low frequency region of the spatial frequency in the natural image.

Figure 0006923392
Figure 0006923392

(S24:Log−Polar変換)
次に、極座標変換部303は、ステップS23における対数変換の処理結果に対しLog−Polar変換を施す。これにより、動径方向がx方向、偏角方向がy方向に変換される。
(S24: Log-Polar conversion)
Next, the polar coordinate conversion unit 303 performs Log-Polar conversion on the processing result of the logarithmic conversion in step S23. As a result, the radial direction is converted to the x direction and the declination direction is converted to the y direction.

(S25:2次元DFT)
次に、第2変換処理部304は、ステップS24におけるLog−Polar変換の処理結果に対し2次元DFTを施す。
(S25: 2D DFT)
Next, the second conversion processing unit 304 applies a two-dimensional DFT to the processing result of the Log-Polar transform in step S24.

(S26:POCデータを保存)
次に、回転移動量算出部241は、ステップS25における2次元DFTの処理結果に基づいて振幅成分で正規化し、2次元DFTの処理結果に基づく第1ベースPOCデータとして記憶部212に保存する。ここで、記憶部212に保存された第1ベースPOCデータは、回転移動量及び回転方向を算出するための位相限定相関関数の相関値の算出に供される。
(S26: Save POC data)
Next, the rotation movement amount calculation unit 241 normalizes with an amplitude component based on the processing result of the two-dimensional DFT in step S25, and stores it in the storage unit 212 as the first base POC data based on the processing result of the two-dimensional DFT. Here, the first base POC data stored in the storage unit 212 is used for calculating the correlation value of the phase-limited correlation function for calculating the rotational movement amount and the rotational direction.

(S27:アポダイゼーション処理)
続いて、平行移動量算出部243は、当該ベース画像に対し、平行移動量及び平行移動方向を算出するための位相限定相関関数の相関値の算出に供されるベースPOCデータを生成する。そこで、平行移動量算出部243は、当該ベース画像に対しアポダイゼーション処理を施す。このアポダイゼーション処理は、ステップS21と同様の処理である。ステップS21の処理結果が記憶部212に保存されている場合、ステップS27の処理を不要にすることができる。
(S27: Apodization process)
Subsequently, the translation amount calculation unit 243 generates base POC data to be used for calculating the correlation value of the phase-limited correlation function for calculating the translation amount and the translation direction with respect to the base image. Therefore, the translation amount calculation unit 243 performs apodization processing on the base image. This apodization process is the same process as in step S21. When the processing result of step S21 is stored in the storage unit 212, the processing of step S27 can be omitted.

(S28:2次元DFT)
次に、第3変換処理部311は、当該ベース画像に対するアポダイゼーション処理の結果の実数成分に対し2次元DFTを施す。
(S28: 2D DFT)
Next, the third conversion processing unit 311 applies a two-dimensional DFT to the real number component as a result of the apodization processing on the base image.

(S29:POCデータを保存)
次に、平行移動量算出部243は、ステップS28における2次元DFTの処理結果に基づいて振幅成分で正規化し、2次元DFTの処理結果に基づく第2ベースPOCデータを記憶部212に保存する。ここで記憶部212に保存された第2ベースPOCデータは、平行移動量及び平行移動方向を算出するための位相限定相関関数の相関値の算出に供される。以上で、ベース画像処理の一連の処理は終了する(エンド)。
(S29: Save POC data)
Next, the translation amount calculation unit 243 normalizes with an amplitude component based on the processing result of the two-dimensional DFT in step S28, and stores the second base POC data based on the processing result of the two-dimensional DFT in the storage unit 212. Here, the second base POC data stored in the storage unit 212 is used for calculating the correlation value of the phase-limited correlation function for calculating the translation amount and the translation direction. This completes the series of base image processing (end).

次に、ステップS13のターゲット画像処理について説明する。 Next, the target image processing in step S13 will be described.

図12〜図14に、実施形態に係るターゲット画像処理のフローの一例を示す。ターゲット画像処理は、ターゲット画像(前眼部モードのときは部分画像、以下同様)についてターゲットPOCデータを生成する処理と、回転移動量及び回転移動方向の算出処理と、位置合わせ処理と、平行移動量及び平行移動方向の算出処理とを含む。 12 to 14 show an example of the flow of target image processing according to the embodiment. The target image processing includes processing for generating target POC data for the target image (partial image in the anterior segment mode, the same applies hereinafter), calculation processing for the amount of rotational movement and the direction of rotational movement, alignment processing, and translation. Includes processing for calculating quantity and translation direction.

(S41:アポダイゼーション処理)
まず、回転移動量算出部241は、当該ターゲット画像に対しアポダイゼーション処理を施す。この処理は、ステップS21と同様であり、第1変換処理部301又は回転移動量算出部241における図示しないアポダイゼーション処理部により行われる。
(S41: Apodization processing)
First, the rotation movement amount calculation unit 241 performs apodization processing on the target image. This processing is the same as in step S21, and is performed by an apodization processing unit (not shown) in the first conversion processing unit 301 or the rotational movement amount calculation unit 241.

(S42:2次元DFT)
次に、第1変換処理部301は、ステップS41におけるターゲット画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S42: 2D DFT)
Next, the first conversion processing unit 301 applies a two-dimensional DFT to the result of the apodization processing on the target image in step S41.

(S43:対数変換)
次に、対数変換部302は、ステップS42における2次元DFTの処理結果に対し対数変換を施す。この対数変換は、ステップS23と同様である。
(S43: Logarithmic transformation)
Next, the logarithmic conversion unit 302 performs logarithmic conversion on the processing result of the two-dimensional DFT in step S42. This logarithmic conversion is the same as in step S23.

(S44:Log−Polar変換)
次に、極座標変換部303は、ステップS43における対数変換の処理結果に対しLog−Polar変換を施す。このLog−Polar変換は、ステップS24と同様である。
(S44: Log-Polar conversion)
Next, the polar coordinate conversion unit 303 performs a Log-Polar transformation on the processing result of the logarithmic transformation in step S43. This Log-Polar transformation is the same as in step S24.

(S45:2次元DFT)
次に、第2変換処理部304は、ステップS44におけるLog−Polar変換の処理結果に対し2次元DFTを施す。
(S45: 2D DFT)
Next, the second conversion processing unit 304 applies a two-dimensional DFT to the processing result of the Log-Polar transform in step S44.

(S46:位相限定合成処理)
次に、第1位相限定合成部305は、ステップS26において記憶部212に保存された第1ベースPOCデータと、ステップS45における2次元DFTの処理結果を振幅成分で正規化したターゲットPOCデータとを用いて、式(3)に示す式に従って位相限定合成処理を行う。ここで、第1ベースPOCデータは、当該ターゲット画像に対して生成されたベースPOCデータである。
(S46: Phase-limited synthesis processing)
Next, the first phase limited synthesis unit 305 combines the first base POC data stored in the storage unit 212 in step S26 and the target POC data obtained by normalizing the processing result of the two-dimensional DFT in step S45 with an amplitude component. The phase-limited synthesis process is performed according to the equation shown in the equation (3). Here, the first base POC data is the base POC data generated for the target image.

(S47:2次元IDFT)
次に、第1逆変換処理部306は、式(4)に示す式に従ってステップS46における位相限定合成処理の処理結果に対し2次元IDFTを施す。
(S47: 2D IDFT)
Next, the first inverse transformation processing unit 306 applies a two-dimensional IDFT to the processing result of the phase-limited synthesis processing in step S46 according to the equation shown in the equation (4).

(S48:ピーク位置を特定)
ステップS47の処理結果からピーク位置を特定することにより、相関値の高い動径(x方向の座標)と偏角(y方向の座標)とがピクセルレベルで特定される。そこで、回転移動量算出部241は、ステップS47の処理結果のピーク値を求め、当該ピーク値に対応したピーク位置のアドレスを取得し、記憶部212に保存する。
(S48: Specify the peak position)
By specifying the peak position from the processing result of step S47, the radius (coordinates in the x direction) and the declination (coordinates in the y direction) having high correlation values are specified at the pixel level. Therefore, the rotation movement amount calculation unit 241 obtains the peak value of the processing result of step S47, acquires the address of the peak position corresponding to the peak value, and stores it in the storage unit 212.

(S49:回転角≦TH1?)
回転移動量算出部241は、記憶部212に記憶されたピーク位置のアドレスに基づき、偏角に対応した回転角(絶対値)が閾値TH1以下であるか否かを判別する。当該回転角が閾値TH1以下ではないと判別されたとき(S49:N)、回転移動量算出部241は、エラーと判断し、一連の処理を終了する(エンド)。一方、当該回転角が閾値TH1以下であると判別されたとき(S49:Y)、回転移動量算出部241の処理はステップS50に移行する。
(S49: rotation angle ≤ TH1?)
The rotation movement amount calculation unit 241 determines whether or not the rotation angle (absolute value) corresponding to the declination is equal to or less than the threshold value TH1 based on the address of the peak position stored in the storage unit 212. When it is determined that the rotation angle is not equal to or less than the threshold value TH1 (S49: N), the rotation movement amount calculation unit 241 determines that an error occurs and ends a series of processing (end). On the other hand, when it is determined that the rotation angle is equal to or less than the threshold value TH1 (S49: Y), the process of the rotation movement amount calculation unit 241 shifts to step S50.

(S50:サブピクセルレベルでピーク位置を特定)
当該回転角が閾値TH1以下であると判別されたとき(S49:Y)、回転移動量算出部241は、式(7)に従ってサブピクセルレベルで位相限定相関関数の相関値の算出を行う。具体的には、回転移動量算出部241は、特開2015−043898号公報に開示されているように、サブピクセルレベルで式(7)に示す位相限定相関関数の複数の相関値を求め、ピーク位置を特定することにより相関値の高い偏角(y方向の座標)を特定する。回転移動量算出部241は、特定されたピーク値に対応したアドレスを取得し、記憶部212に保存する。
(S50: Specify the peak position at the sub-pixel level)
When it is determined that the rotation angle is equal to or less than the threshold value TH1 (S49: Y), the rotation movement amount calculation unit 241 calculates the correlation value of the phase-limited correlation function at the sub-pixel level according to the equation (7). Specifically, as disclosed in Japanese Patent Application Laid-Open No. 2015-043898, the rotational movement amount calculation unit 241 obtains a plurality of correlation values of the phase-limited correlation function shown in the equation (7) at the subpixel level. By specifying the peak position, the declination (coordinates in the y direction) having a high correlation value is specified. The rotation movement amount calculation unit 241 acquires an address corresponding to the specified peak value and stores it in the storage unit 212.

(S51:Δθを算出)
次に、回転移動量算出部241は、特開2015−043898号公報に開示されているように、サブピクセルレベルで特定されたピーク位置に対応した回転移動量Δθを算出する。回転移動方向は、Δθの符号により特定される。
(S51: Calculate Δθ)
Next, the rotational movement amount calculation unit 241 calculates the rotational movement amount Δθ corresponding to the peak position specified at the sub-pixel level, as disclosed in Japanese Patent Application Laid-Open No. 2015-043898. The direction of rotational movement is specified by the sign of Δθ.

(S52:位置合わせ)
回転移動量Δθが算出されると、位置合わせ処理部242は、記憶部212に記憶されたターゲット画像を−Δθだけ回転させる。
(S52: Alignment)
When the rotational movement amount Δθ is calculated, the alignment processing unit 242 rotates the target image stored in the storage unit 212 by −Δθ.

(S53:アポダイゼーション処理)
続いて、平行移動量算出部243は、平行移動量及び平行移動方向の算出を行う。すなわち、平行移動量算出部243は、ステップS52において位置合わせが行われたターゲット画像に対しアポダイゼーション処理を施す。この処理は、例えば、第3変換処理部311又は平行移動量算出部243における図示しないアポダイゼーション処理部により行われる。
(S53: Apodization processing)
Subsequently, the translation amount calculation unit 243 calculates the translation amount and the translation direction. That is, the translation amount calculation unit 243 performs apodization processing on the target image aligned in step S52. This processing is performed, for example, by an apodization processing unit (not shown) in the third conversion processing unit 311 or the translation amount calculation unit 243.

(S54:2次元DFT)
次に、第3変換処理部311は、ステップS53におけるターゲット画像に対するアポダイゼーション処理の結果に対し2次元DFTを施す。
(S54: 2D DFT)
Next, the third conversion processing unit 311 applies a two-dimensional DFT to the result of the apodization processing on the target image in step S53.

(S55:位相限定合成処理)
次に、第2位相限定合成部312は、ステップS29において記憶部212に保存された第2ベースPOCデータと、ステップS54における2次元DFTの処理結果を振幅成分で正規化したターゲットPOCデータとを用いて、式(3)に示す式に従って位相限定合成処理を行う。
(S55: Phase-limited synthesis processing)
Next, the second phase limited synthesis unit 312 selects the second base POC data stored in the storage unit 212 in step S29 and the target POC data obtained by normalizing the processing result of the two-dimensional DFT in step S54 with an amplitude component. The phase-limited synthesis process is performed according to the equation shown in the equation (3).

(S56:2次元IDFT)
次に、第2逆変換処理部313は、式(4)に示す式に従って位相限定合成処理の処理結果に対し2次元IDFTを施す。
(S56: 2D IDFT)
Next, the second inverse transformation processing unit 313 applies a two-dimensional IDFT to the processing result of the phase-limited synthesis processing according to the equation shown in the equation (4).

(S57:ピーク位置を特定)
ステップS59の処理結果からピーク位置を特定することにより、相関値のx方向の座標とy方向の座標とが特定される。平行移動量算出部243は、ステップS59の処理結果のピーク値を求め、当該ピーク値に対応したピーク位置のアドレスを取得し、記憶部212に保存する。
(S57: Specify the peak position)
By specifying the peak position from the processing result of step S59, the coordinates in the x direction and the coordinates in the y direction of the correlation value are specified. The translation amount calculation unit 243 obtains the peak value of the processing result in step S59, acquires the address of the peak position corresponding to the peak value, and stores it in the storage unit 212.

(S58:移動量≦TH2?)
平行移動量算出部243は、記憶部212に記憶されたピーク位置のアドレスに基づき、例えばx方向の移動量(絶対値)及びy方向の移動量(絶対値)が閾値TH2以下であるか否かを判別する。x方向の移動量及びy方向の移動量が閾値TH2以下ではないと判別されたとき(S58:N)、平行移動量算出部243は、エラーと判断し、一連の処理を終了する(エンド)。一方、x方向の移動量及びy方向の移動量が閾値TH2以下であると判別されたとき(S58:Y)、平行移動量算出部243の処理はS59に移行する。
(S58: Movement amount ≤ TH2?)
Based on the address of the peak position stored in the storage unit 212, the translation amount calculation unit 243 determines whether or not, for example, the movement amount (absolute value) in the x direction and the movement amount (absolute value) in the y direction are equal to or less than the threshold value TH2. To determine. When it is determined that the movement amount in the x direction and the movement amount in the y direction are not equal to or less than the threshold value TH2 (S58: N), the translation amount calculation unit 243 determines that an error occurs and ends a series of processing (end). .. On the other hand, when it is determined that the movement amount in the x direction and the movement amount in the y direction are equal to or less than the threshold value TH2 (S58: Y), the processing of the parallel movement amount calculation unit 243 shifts to S59.

(S59:サブピクセルレベルでピーク位置を特定)
x方向の移動量及びy方向の移動量が閾値TH2以下であると判別されたとき(S58:Y)、平行移動量算出部243は、式(7)に従ってサブピクセルレベルで位相限定相関関数の相関値の算出を行う。具体的には、平行移動量算出部243は、特開2015−043898号公報に開示されているように、サブピクセルレベルで式(7)に示す位相限定相関関数の複数の相関値を求め、ピーク位置を特定することにより相関値の高い移動量(x方向の座標、及びy方向の座標)を特定する。平行移動量算出部243は、特定されたピーク値に対応したアドレスを取得し、記憶部212に保存する。
(S59: Specify the peak position at the sub-pixel level)
When it is determined that the movement amount in the x direction and the movement amount in the y direction are equal to or less than the threshold value TH2 (S58: Y), the translation amount calculation unit 243 of the translation amount calculation unit 243 of the phase-limited correlation function at the subpixel level according to the equation (7). Calculate the correlation value. Specifically, the translation amount calculation unit 243 obtains a plurality of correlation values of the phase-limited correlation function shown in the equation (7) at the sub-pixel level, as disclosed in Japanese Patent Application Laid-Open No. 2015-043898. By specifying the peak position, the amount of movement with a high correlation value (coordinates in the x direction and coordinates in the y direction) is specified. The translation amount calculation unit 243 acquires an address corresponding to the specified peak value and stores it in the storage unit 212.

(S60:Δx、Δyを算出)
次に、平行移動量算出部243は、特開2015−043898号公報に開示されているように、サブピクセルレベルで特定されたピーク位置に対応した平行移動量Δx、Δyを算出する。平行移動方向は、Δx、Δyの符号により特定される。以上で、ターゲット画像処理の一連の処理は終了する(エンド)。
(S60: Calculate Δx and Δy)
Next, the translation amount calculation unit 243 calculates the translation amounts Δx and Δy corresponding to the peak positions specified at the sub-pixel level, as disclosed in Japanese Patent Application Laid-Open No. 2015-043898. The translation direction is specified by the signs of Δx and Δy. This completes the series of target image processing (end).

以上のように算出された回転移動量Δθ及び回転移動方向、並びに平行移動量Δx、Δy及び平行移動方向は、制御部210に出力される。制御部210(主制御部211)は、算出された平行移動量Δx、Δyに基づいて、光学系駆動部1Aを制御することにより、装置光学系を3次元的に移動させることでトラッキングを行う。制御部210は、回転移動量Δθ及び回転移動方向に基づいて光学系駆動部1Aを制御してもよい。 The rotational movement amount Δθ and the rotational movement direction calculated as described above, and the parallel movement amounts Δx, Δy and the parallel movement direction are output to the control unit 210. The control unit 210 (main control unit 211) controls the optical system drive unit 1A based on the calculated translation amounts Δx and Δy to move the device optical system three-dimensionally for tracking. .. The control unit 210 may control the optical system drive unit 1A based on the rotational movement amount Δθ and the rotational movement direction.

[効果]
実施形態に係る眼科装置について説明する。
[effect]
The ophthalmic apparatus according to the embodiment will be described.

実施形態に係る眼科装置(1)は、光学系(図1に示す光学系、OCTユニット100に含まれる干渉光学系)と、撮影部(撮影光学系30)と、移動機構(光学系駆動部1A)と、制御部(210、主制御部211)とを含む。光学系は、被検眼(E)の前眼部又は眼底(Ef)のデータを収集するために用いられる。撮影部は、前眼部又は眼底を撮影する。移動機構は、被検眼と光学系とを相対的に移動する。制御部は、光学系が前眼部のデータを収集する前眼部モードのとき撮影部により得られた前眼部像に基づいて被検眼と光学系との位置関係を維持するように移動機構を制御し、光学系が眼底のデータを収集する眼底モードのとき撮影部により得られた眼底像に基づいて位置関係を維持するように移動機構を制御する。 The ophthalmic apparatus (1) according to the embodiment includes an optical system (the optical system shown in FIG. 1, an interference optical system included in the OCT unit 100), an imaging unit (imaging optical system 30), and a moving mechanism (optical system driving unit). 1A) and a control unit (210, main control unit 211) are included. The optical system is used to collect data on the anterior segment or fundus (Ef) of the eye to be inspected (E). The photographing unit photographs the anterior segment of the eye or the fundus. The moving mechanism moves the eye to be inspected and the optical system relative to each other. The control unit is a moving mechanism that maintains the positional relationship between the eye to be inspected and the optical system based on the anterior segment image obtained by the imaging unit when the optical system is in the anterior segment mode in which data of the anterior segment is collected. The movement mechanism is controlled so as to maintain the positional relationship based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode in which the data of the fundus is collected.

このような構成によれば、被検眼のデータの収集部位に対応したトラッキング制御を行うようにしたので、計測部位に応じて好適にトラッキングを行うことができるようになる。例えば、眼底のトラッキングに位相限定相関処理を用いて変位を求め、前眼部のトラッキングに別の手法を用いて変位を求めるようにすることで、眼底に対する高精度なトラッキングと、前眼部に対するトラッキングとの双方が可能な眼科装置を提供することができるようになる。 According to such a configuration, since the tracking control corresponding to the data collection site of the eye to be inspected is performed, the tracking can be suitably performed according to the measurement site. For example, by using phase-limited correlation processing to track the fundus and determining the displacement using another method for tracking the anterior segment, highly accurate tracking of the fundus and the anterior segment of the eye can be achieved. It will be possible to provide an ophthalmic apparatus capable of both tracking and tracking.

また、実施形態に係る眼科装置は、前眼部像における特徴領域を特定する解析部(231)を含み、前眼部モードのとき、制御部は、前眼部像における基準位置に対する特徴領域の変位に基づいて移動機構を制御してもよい。 Further, the ophthalmic apparatus according to the embodiment includes an analysis unit (231) for specifying a characteristic region in the anterior segment image, and in the anterior segment mode, the control unit is a feature region for a reference position in the anterior segment image. The movement mechanism may be controlled based on the displacement.

このような構成によれば、前眼部像における特徴領域の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the characteristic region in the image of the anterior segment of the eye. Can be provided.

また、実施形態に係る眼科装置は、被検眼に対して輝点を投影する輝点投影系(アライメント光学系50)と、撮影部により取得された部像における輝点に基づく輝点像を特定する解析部(231)と、を含み、前眼部モードのとき、制御部は、前眼部像における基準位置に対する輝点像の変位に基づいて移動機構を制御してもよい。 Further, the ophthalmic apparatus according to the embodiment identifies a bright spot projection system (alignment optical system 50) that projects bright spots on the eye to be inspected and a bright spot image based on the bright spots in the part image acquired by the photographing unit. In the anterior segment mode, the control unit may control the movement mechanism based on the displacement of the bright spot image with respect to the reference position in the anterior segment image.

このような構成によれば、前眼部像における輝点像の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the bright spot image in the image of the anterior segment of the eye. Equipment can be provided.

また、実施形態に係る眼科装置では、撮影部は、前眼部を異なる方向から実質的に同時に撮影する2以上の前眼部カメラを含み、撮影部により実質的に同時に得られた2以上の前眼部像を解析することで、被検眼の3次元位置を求める解析部(231)を含み、前眼部モードのとき、制御部は、被検眼に対応する基準位置に対する上記の3次元位置の変位に基づいて移動機構を制御して被検眼と光学系とを3次元的に相対移動してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the imaging unit includes two or more optometry cameras that photograph the anterior segment from different directions substantially simultaneously, and two or more images obtained substantially simultaneously by the imaging unit. Including the analysis unit (231) that obtains the three-dimensional position of the eye to be inspected by analyzing the image of the anterior eye, the control unit is the above-mentioned three-dimensional position with respect to the reference position corresponding to the eye to be inspected in the anterior eye mode. The movement mechanism may be controlled based on the displacement of the eye to be moved relative to the eye to be inspected and the optical system in three dimensions.

このような構成によれば、前眼部像における3次元位置の変位に基づいて前眼部のトラッキングを行うようにしたので、簡素な処理で、計測部位ごとに異なる手法でトラッキングが可能な眼科装置を提供することができる。 According to such a configuration, tracking of the anterior segment of the eye is performed based on the displacement of the three-dimensional position in the image of the anterior segment of the eye. Equipment can be provided.

また、実施形態に係る眼科装置では、撮影部は、互いに異なるタイミングで第1画像(ベース画像)と第2画像(ターゲット画像)とを取得し、第2画像における部分画像と、第1画像における部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部(回転移動量算出部241)と、第1回転移動量に基づいて対応部分画像と部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部(位置合わせ処理部242)と、第1位置合わせ処理部により位置合わせがなされた対応部分画像と部分画像とに対して位相限定相関処理を施すことにより、対応部分画像と部分画像との間の第1平行移動量を算出する第1平行移動量算出部(平行移動量算出部243)と、を含み、前眼部モードのとき、制御部は、変位に基づいて位置関係の維持が可能か否かを判定し、位置関係の維持が不可能であると判定されたとき、第1平行移動量に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the photographing unit acquires the first image (base image) and the second image (target image) at different timings, and the partial image in the second image and the partial image in the first image The first rotational movement amount calculation unit (rotational movement amount calculation unit 241) that calculates the first rotational movement amount between the corresponding partial image corresponding to the partial image, and the corresponding partial image and portion based on the first rotational movement amount. The phase of the first alignment processing unit (alignment processing unit 242) that aligns the image with the image in the rotational direction, and the corresponding partial image and the partial image that have been aligned by the first alignment processing unit. The anterior segment mode includes a first translation amount calculation unit (translation amount calculation unit 243) that calculates a first translation amount between the corresponding partial image and the partial image by performing limited correlation processing. At this time, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the control unit moves the movement mechanism based on the first translation amount. You may control it.

このような構成によれば、上記の変位に基づいて前眼部のトラッキングが不可能と判断された場合に、位相限定相関処理により前眼部のトラッキングを行うようにしたので、前眼部のトラッキングを高精度に実現可能な眼科装置を提供することができる。 According to such a configuration, when it is determined that tracking of the anterior segment is impossible based on the above displacement, tracking of the anterior segment is performed by phase-limited correlation processing. It is possible to provide an ophthalmic apparatus capable of realizing tracking with high accuracy.

また、実施形態に係る眼科装置では、第1回転移動量算出部は、対応部分画像と部分画像とに対し位相限定相関処理を施すことにより第1回転移動量を算出してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the first rotation movement amount calculation unit may calculate the first rotation movement amount by performing phase-limited correlation processing on the corresponding partial image and the partial image.

このような構成によれば、高精度に(例えば、サブピクセルレベルで)算出された回転移動量に基づいて、対応部分画像と部分画像との間の位置合わせが可能となるので、より微小な位置ずれ量を求め、より一層高精度なトラッキングが可能となる。 With such a configuration, it is possible to align the corresponding partial image and the partial image based on the rotational movement amount calculated with high accuracy (for example, at the sub-pixel level), so that it is smaller. The amount of misalignment can be obtained, and even more accurate tracking becomes possible.

また、実施形態に係る眼科装置では、撮影部は、互いに異なるタイミングで被検眼の眼底の第3画像(ベース画像)と第4画像(ターゲット画像)とを取得し、第3画像と第4画像との間の第2回転移動量を算出する第2回転移動量算出部(回転移動量算出部241)と、第2回転移動量に基づいて3画像と4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部(位置合わせ処理部242)と、第2位置合わせ処理部により位置合わせがなされた第3画像と第4画像とに対して位相限定相関処理を施すことにより、第3画像と第4画像との間の第2平行移動量を算出する第2平行移動量算出部(平行移動量算出部243)と、を含み、眼底モードのとき、制御部は、第2平行移動量に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the photographing unit acquires the third image (base image) and the fourth image (target image) of the fundus of the eye to be examined at different timings, and the third image and the fourth image. The position in the rotation direction between the second rotation movement amount calculation unit (rotational movement amount calculation unit 241) that calculates the second rotation movement amount between the two images and the three images and the four images based on the second rotation movement amount. By performing phase-limited correlation processing on the second alignment processing unit (alignment processing unit 242) that performs alignment and the third and fourth images that have been aligned by the second alignment processing unit. A second translation amount calculation unit (translation amount calculation unit 243) for calculating a second translation amount between the third image and the fourth image is included, and in the fundus mode, the control unit is a second. The movement mechanism may be controlled based on the amount of translation.

このような構成によれば、位相限定相関処理により眼底のトラッキングを行うようにしたので、前眼部のトラッキングを可能にしつつ、眼底のトラッキングを高精度に実現可能な眼科装置を提供することができる。 According to such a configuration, since the fundus is tracked by phase-limited correlation processing, it is possible to provide an ophthalmologic apparatus capable of highly accurate tracking of the fundus while enabling tracking of the anterior segment of the eye. can.

また、実施形態に係る眼科装置では、解析部は、撮影部により取得された第3画像及び第4画像における特徴領域を特定し、制御部は、第2回転移動量及び第2平行移動量に基づいて位置関係の維持が可能か否かを判定し、位置関係の維持が不可能であると判定されたとき、第3画像及び第4画像における特徴領域の変位に基づいて移動機構を制御してもよい。 Further, in the ophthalmic apparatus according to the embodiment, the analysis unit identifies the feature regions in the third image and the fourth image acquired by the imaging unit, and the control unit determines the second rotational movement amount and the second translation amount. Based on this, it is determined whether or not the positional relationship can be maintained, and when it is determined that the positional relationship cannot be maintained, the movement mechanism is controlled based on the displacement of the feature regions in the third and fourth images. You may.

このような構成によれば、位相限定相関処理を用いた眼底のトラッキングが不可能と判断された場合に、眼底像における特徴領域の変位に基づき眼底のトラッキングを行うようにしたので、眼底のトラッキングを確実に実行可能な眼科装置を提供することができる。 According to such a configuration, when it is determined that the fundus tracking using the phase-limited correlation processing is impossible, the fundus is tracked based on the displacement of the feature region in the fundus image. Therefore, the fundus tracking is performed. It is possible to provide an ophthalmologic device that can reliably perform the above.

また、実施形態に係る眼科装置(1)は、光学系(図1に示す光学系、OCTユニット100に含まれる干渉光学系)と、撮影部(撮影光学系30)と、移動機構(光学系駆動部1A)と、制御部(210、主制御部211)とを含む。光学系は、被検眼(E)の複数の部位のデータを収集するために用いられる。撮影部は、複数の部位のいずれかを撮影する。移動機構は、被検眼と光学系とを相対的に移動する。制御部は、撮影部により得られた光学系によるデータの収集部位に応じて、収集部位の画像に基づき被検眼と光学系との位置関係を維持するように移動機構を制御する。 Further, the ophthalmic apparatus (1) according to the embodiment includes an optical system (the optical system shown in FIG. 1, an interference optical system included in the OCT unit 100), an imaging unit (imaging optical system 30), and a moving mechanism (optical system). The drive unit 1A) and the control unit (210, main control unit 211) are included. The optical system is used to collect data for multiple sites of the eye to be inspected (E). The photographing unit photographs one of a plurality of parts. The moving mechanism moves the eye to be inspected and the optical system relative to each other. The control unit controls the movement mechanism so as to maintain the positional relationship between the eye to be inspected and the optical system based on the image of the collection site according to the data collection site by the optical system obtained by the imaging unit.

このような構成によれば、被検眼のデータの収集部位に対応したトラッキング制御を行うようにしたので、計測部位に最適なトラッキングで再現性の高いデータ収集が可能な眼科装置を提供することができる。 According to such a configuration, tracking control corresponding to the data collection site of the eye to be inspected is performed, so that it is possible to provide an ophthalmic apparatus capable of highly reproducible data collection with optimal tracking for the measurement site. can.

<変形例>
以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
<Modification example>
The embodiments shown above are merely examples for carrying out the present invention. A person who intends to carry out the present invention can make arbitrary modifications, omissions, additions, etc. within the scope of the gist of the present invention.

前述の実施形態では、光学系の構成が図1に示す構成である場合について説明したが、実施形態に係る光学系の構成はこれに限定されるものではない。実施形態に係る光学系は、レーザー光を眼底における治療部位に照射するための光学系や、被検眼に固視させた状態で視標を移動させるための光学系などを備えていてもよい。 In the above-described embodiment, the case where the configuration of the optical system is the configuration shown in FIG. 1 has been described, but the configuration of the optical system according to the embodiment is not limited to this. The optical system according to the embodiment may include an optical system for irradiating a treatment site on the fundus with laser light, an optical system for moving an optotype while the eye to be inspected is fixed, and the like.

前述の実施形態では、撮影部位が眼底又は前眼部である場合について説明したが、撮影部位は眼底や前眼部に限定されるものはない。また、撮影部位は3以上の部位であってよい。 In the above-described embodiment, the case where the imaging site is the fundus or the anterior segment of the eye has been described, but the imaging site is not limited to the fundus or the anterior segment of the eye. In addition, the imaging region may be three or more regions.

1 眼科装置
1A 光学系駆動部
10 照明光学系
23 前置レンズ
30 撮影光学系
35 CCDイメージセンサ
100 OCTユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 解析部
241 回転移動量算出部
242 位置合わせ処理部
243 平行移動量算出部
E 被検眼
1 Ophthalmic apparatus 1A Optical system drive unit 10 Illumination optical system 23 Front lens 30 Imaging optical system 35 CCD image sensor 100 OCT unit 210 Control unit 211 Main control unit 212 Storage unit 220 Image formation unit 230 Data processing unit 231 Analysis unit 241 Rotation Movement amount calculation unit 242 Alignment processing unit 243 Parallel movement amount calculation unit E Eye to be inspected

Claims (5)

被検眼の前眼部又は眼底のデータを収集するための光学系と、
前記眼底の眼底像、又は互いに異なるタイミングで前記前眼部の第1画像と第2画像とを取得する撮影部と、
前記被検眼と前記光学系とを相対的に移動する移動機構と、
前記前眼部の画像における特徴領域を特定する解析部と、
前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御することでトラッキングを行い、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御することでトラッキング行う制御部と、
前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、
前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、
前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、
を含み、
前記解析部は、前記第2画像において前記第1画像に対する移動量が第1閾値以上である領域の画像を前記部分画像として特定し、
前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御する、眼科装置。
An optical system for collecting data on the anterior segment or fundus of the eye to be inspected,
An imaging unit that acquires a fundus image of the fundus, or a first image and a second image of the anterior segment at different timings.
A moving mechanism that relatively moves the eye to be inspected and the optical system,
An analysis unit that identifies a feature region in the image of the anterior segment of the eye,
When the optical system is in the anterior segment mode for collecting data of the anterior segment, the eye to be inspected and the optical system are based on the displacement of the characteristic region with respect to the reference position in the anterior segment image obtained by the imaging unit. Tracking is performed by controlling the movement mechanism so as to maintain the positional relationship of the eye fundus, and the positional relationship is based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode for collecting the data of the fundus. A control unit that performs tracking by controlling the movement mechanism so as to maintain
A first rotation movement amount calculation unit that calculates a first rotation movement amount between the partial image in the second image and the corresponding partial image corresponding to the partial image in the first image.
A first alignment processing unit that aligns the corresponding partial image and the partial image in the rotation direction based on the first rotational movement amount.
By performing phase-limited correlation processing on the corresponding partial image and the partial image aligned by the first alignment processing unit, a first translation between the corresponding partial image and the partial image is performed. The first translation amount calculation unit that calculates the amount,
Including
The analysis unit identifies an image of a region in the second image in which the amount of movement with respect to the first image is equal to or greater than the first threshold value as the partial image.
In the anterior segment mode, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the first. 1 An ophthalmic apparatus that controls the movement mechanism based on the amount of parallel movement.
被検眼の前眼部又は眼底のデータを収集するための光学系と、
前記眼底の眼底像、又は互いに異なるタイミングで前記前眼部の第1画像と第2画像とを取得する撮影部と、
前記被検眼と前記光学系とを相対的に移動する移動機構と、
前記前眼部の画像における特徴領域を特定する解析部と、
前記光学系が前記前眼部のデータを収集する前眼部モードのとき前記撮影部により得られた前眼部像における基準位置に対する前記特徴領域の変位に基づいて前記被検眼と前記光学系との位置関係を維持するように前記移動機構を制御することでトラッキングを行い、前記光学系が前記眼底のデータを収集する眼底モードのとき前記撮影部により得られた眼底像に基づいて前記位置関係を維持するように前記移動機構を制御することでトラッキング行う制御部と、
前記第2画像における部分画像と、前記第1画像における前記部分画像に対応した対応部分画像との間の第1回転移動量を算出する第1回転移動量算出部と、
前記第1回転移動量に基づいて前記対応部分画像と前記部分画像との間の回転方向の位置合わせを行う第1位置合わせ処理部と、
前記第1位置合わせ処理部により位置合わせがなされた前記対応部分画像と前記部分画像とに対して位相限定相関処理を施すことにより、前記対応部分画像と前記部分画像との間の第1平行移動量を算出する第1平行移動量算出部と、
を含み、
前記解析部は、前記第2画像において前記第1画像に対する移動量が第2閾値以下である領域を特定し、前記第2画像における前記特定された領域以外の領域の画像を前記部分画像として特定し、
前記前眼部モードのとき、前記制御部は、前記変位に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第1平行移動量に基づいて前記移動機構を制御する、眼科装置。
An optical system for collecting data on the anterior segment or fundus of the eye to be inspected,
An imaging unit that acquires a fundus image of the fundus, or a first image and a second image of the anterior segment at different timings.
A moving mechanism that relatively moves the eye to be inspected and the optical system,
An analysis unit that identifies a feature region in the image of the anterior segment of the eye,
When the optical system is in the anterior segment mode for collecting data of the anterior segment, the eye to be inspected and the optical system are based on the displacement of the characteristic region with respect to the reference position in the anterior segment image obtained by the imaging unit. Tracking is performed by controlling the movement mechanism so as to maintain the positional relationship of the eye fundus, and the positional relationship is based on the fundus image obtained by the photographing unit when the optical system is in the fundus mode for collecting the data of the fundus. A control unit that performs tracking by controlling the movement mechanism so as to maintain
A first rotation movement amount calculation unit that calculates a first rotation movement amount between the partial image in the second image and the corresponding partial image corresponding to the partial image in the first image.
A first alignment processing unit that aligns the corresponding partial image and the partial image in the rotation direction based on the first rotational movement amount.
By performing phase-limited correlation processing on the corresponding partial image and the partial image aligned by the first alignment processing unit, a first translation between the corresponding partial image and the partial image is performed. The first translation amount calculation unit that calculates the amount,
Including
The analysis unit specifies a region in the second image in which the amount of movement with respect to the first image is equal to or less than the second threshold value, and identifies an image in a region other than the specified region in the second image as the partial image. death,
In the anterior segment mode, the control unit determines whether or not the positional relationship can be maintained based on the displacement, and when it is determined that the positional relationship cannot be maintained, the first. 1 An ophthalmic apparatus that controls the movement mechanism based on the amount of parallel movement.
前記第1回転移動量算出部は、前記対応部分画像と前記部分画像とに対し位相限定相関処理を施すことにより前記第1回転移動量を算出する
ことを特徴とする請求項1又は請求項2に記載の眼科装置。
Claim 1 or claim 2 characterized in that the first rotation movement amount calculation unit calculates the first rotation movement amount by performing phase-limited correlation processing on the corresponding partial image and the partial image. The ophthalmic apparatus described in.
前記撮影部は、互いに異なるタイミングで前記被検眼の眼底の第3画像と第4画像とを取得し、
前記第3画像と前記第4画像との間の第2回転移動量を算出する第2回転移動量算出部と、
前記第2回転移動量に基づいて前記3画像と前記4画像との間の回転方向の位置合わせを行う第2位置合わせ処理部と、
前記第2位置合わせ処理部により位置合わせがなされた前記第3画像と前記第4画像とに対して位相限定相関処理を施すことにより、前記第3画像と前記第4画像との間の第2平行移動量を算出する第2平行移動量算出部と、
を含み、
前記眼底モードのとき、前記制御部は、前記第2平行移動量に基づいて前記移動機構を制御する
ことを特徴とする請求項〜請求項のいずれか一項に記載の眼科装置。
The photographing unit acquires the third image and the fourth image of the fundus of the eye to be inspected at different timings.
A second rotation movement amount calculation unit that calculates a second rotation movement amount between the third image and the fourth image, and a second rotation movement amount calculation unit.
A second alignment processing unit that aligns the third image and the fourth image in the rotation direction based on the second rotational movement amount.
By performing phase-limited correlation processing on the third image and the fourth image aligned by the second alignment processing unit, a second image between the third image and the fourth image is performed. The second translation amount calculation unit that calculates the parallel movement amount, and
Including
Wherein when the fundus mode, the control unit may ophthalmic apparatus according to any one of claims 1 to 3, wherein the controller controls the moving mechanism based on the second amount of translation.
前記解析部は、前記撮影部により取得された前記第3画像及び前記第4画像における特徴領域を特定し、
前記制御部は、前記第2回転移動量及び前記第2平行移動量に基づいて前記位置関係の維持が可能か否かを判定し、前記位置関係の維持が不可能であると判定されたとき、前記第3画像及び前記第4画像における前記特徴領域の変位に基づいて前記移動機構を制御する
ことを特徴とする請求項に記載の眼科装置。
The analysis unit identifies the feature regions in the third image and the fourth image acquired by the photographing unit.
The control unit determines whether or not the positional relationship can be maintained based on the second rotational movement amount and the second parallel movement amount, and when it is determined that the positional relationship cannot be maintained. The ophthalmic apparatus according to claim 4 , wherein the movement mechanism is controlled based on the displacement of the feature region in the third image and the fourth image.
JP2017163458A 2017-08-28 2017-08-28 Ophthalmic equipment Active JP6923392B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017163458A JP6923392B2 (en) 2017-08-28 2017-08-28 Ophthalmic equipment
EP18188262.2A EP3449806B1 (en) 2017-08-28 2018-08-09 Ophthalmologic apparatus
US16/113,246 US10993616B2 (en) 2017-08-28 2018-08-27 Ophthalmologic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017163458A JP6923392B2 (en) 2017-08-28 2017-08-28 Ophthalmic equipment

Publications (2)

Publication Number Publication Date
JP2019037646A JP2019037646A (en) 2019-03-14
JP6923392B2 true JP6923392B2 (en) 2021-08-18

Family

ID=63207626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017163458A Active JP6923392B2 (en) 2017-08-28 2017-08-28 Ophthalmic equipment

Country Status (3)

Country Link
US (1) US10993616B2 (en)
EP (1) EP3449806B1 (en)
JP (1) JP6923392B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009627B (en) * 2019-04-11 2021-06-18 北京康夫子健康技术有限公司 Method and apparatus for processing image
EP3804606B1 (en) * 2019-10-07 2022-05-11 Optos PLC Ophthalmic imaging system
CN113476014B (en) * 2021-06-02 2023-11-14 北京鹰瞳科技发展股份有限公司 System and method for establishing corresponding relation of double coordinate systems
US20240027180A1 (en) * 2022-07-21 2024-01-25 Alcon Inc. Calibration of imaging system with combined optical coherence tomography and visualization module

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4933413B2 (en) * 2007-12-11 2012-05-16 株式会社トーメーコーポレーション Anterior segment optical coherence tomography apparatus and anterior segment optical coherence tomography method
JP6100027B2 (en) 2011-03-31 2017-03-22 キヤノン株式会社 Image pickup apparatus control apparatus, image pickup apparatus control method, and program
JP5220208B2 (en) 2011-03-31 2013-06-26 キヤノン株式会社 Control device, imaging control method, and program
JP6143447B2 (en) * 2011-12-21 2017-06-07 キヤノン株式会社 Ophthalmic apparatus, eye measurement method, and program
JP5236089B1 (en) * 2012-01-26 2013-07-17 キヤノン株式会社 Optical coherence tomography apparatus, control method of optical coherence tomography apparatus, and program
JP6436613B2 (en) * 2012-11-09 2018-12-12 キヤノン株式会社 Ophthalmic photographing apparatus and control method of ophthalmic photographing apparatus
JP6460618B2 (en) 2013-01-31 2019-01-30 キヤノン株式会社 Optical coherence tomography apparatus and control method thereof
JP6184114B2 (en) * 2013-01-31 2017-08-23 キヤノン株式会社 Optical coherence tomography apparatus and control method thereof
JP6184113B2 (en) * 2013-01-31 2017-08-23 キヤノン株式会社 Optical tomographic imaging apparatus and control method thereof
JP6193576B2 (en) * 2013-01-31 2017-09-06 キヤノン株式会社 Ophthalmic apparatus and control method
US9526415B2 (en) 2013-04-03 2016-12-27 Kabushiki Kaisha Topcon Ophthalmologic apparatus
US9295387B2 (en) 2013-04-03 2016-03-29 Kabushiki Kaisha Topcon Ophthalmologic apparatus
US9295386B2 (en) 2013-04-03 2016-03-29 Kabushiki Kaisha Topcon Ophthalmologic apparatus
US9370301B2 (en) 2013-04-03 2016-06-21 Kabushiki Kaisha Topcon Ophthalmologic apparatus
US9380937B2 (en) * 2013-04-03 2016-07-05 Kabushiki Kaisha Topcon Ophthalmologic apparatus
JP6276943B2 (en) * 2013-08-28 2018-02-07 株式会社トプコン Ophthalmic equipment
EP3084717B1 (en) * 2013-12-19 2022-09-14 Carl Zeiss Meditec, Inc. Systems & methods for ocular anterior segment tracking, alignment, and dewarping using optical coherence tomography
JP6676296B2 (en) * 2015-07-01 2020-04-08 株式会社トプコン Ophthalmic examination device
JP2017104343A (en) * 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program
JP6923393B2 (en) * 2017-08-28 2021-08-18 株式会社トプコン Ophthalmic device and its control method

Also Published As

Publication number Publication date
JP2019037646A (en) 2019-03-14
EP3449806A1 (en) 2019-03-06
EP3449806B1 (en) 2021-10-20
US20190059722A1 (en) 2019-02-28
US10993616B2 (en) 2021-05-04

Similar Documents

Publication Publication Date Title
JP6426974B2 (en) Data processing method and OCT apparatus
JP6276943B2 (en) Ophthalmic equipment
JP6899632B2 (en) Ophthalmologic imaging equipment
US20190059723A1 (en) Ophthalmologic apparatus and method of controlling the same
JP6776076B2 (en) OCT device
JP4949504B2 (en) Ophthalmic imaging equipment
JP6923392B2 (en) Ophthalmic equipment
JP7080076B2 (en) Ophthalmic device and its control method
JP6923393B2 (en) Ophthalmic device and its control method
JP7096392B2 (en) Ophthalmic equipment
JP5319010B2 (en) Ophthalmic imaging equipment
JP5255711B2 (en) Ophthalmic imaging equipment
JP6934747B2 (en) Ophthalmic device and its control method
JP7080075B2 (en) Ophthalmic device and its control method
JPWO2020044712A1 (en) Ophthalmic device and its control method
JP6809926B2 (en) Ophthalmic equipment
JP6779674B2 (en) OCT device
JP6564076B2 (en) Ophthalmic equipment
JP7096391B2 (en) Ophthalmic equipment
JP5306554B2 (en) Ophthalmic imaging equipment
JP6959158B2 (en) Ophthalmic equipment
JP6527970B2 (en) Ophthalmic device
JP6954831B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2022071191A (en) Ophthalmologic apparatus and control method thereof
JP2023040529A (en) Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210729

R150 Certificate of patent or registration of utility model

Ref document number: 6923392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150