JP2013034658A - Fundus imaging apparatus - Google Patents

Fundus imaging apparatus Download PDF

Info

Publication number
JP2013034658A
JP2013034658A JP2011173028A JP2011173028A JP2013034658A JP 2013034658 A JP2013034658 A JP 2013034658A JP 2011173028 A JP2011173028 A JP 2011173028A JP 2011173028 A JP2011173028 A JP 2011173028A JP 2013034658 A JP2013034658 A JP 2013034658A
Authority
JP
Japan
Prior art keywords
image
fundus
resolution
front image
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011173028A
Other languages
Japanese (ja)
Other versions
JP5948757B2 (en
JP2013034658A5 (en
Inventor
Tetsuya Kano
徹哉 加納
Norimasa Satake
倫全 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2011173028A priority Critical patent/JP5948757B2/en
Publication of JP2013034658A publication Critical patent/JP2013034658A/en
Publication of JP2013034658A5 publication Critical patent/JP2013034658A5/ja
Application granted granted Critical
Publication of JP5948757B2 publication Critical patent/JP5948757B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a fundus imaging apparatus capable of acquiring a clear fundus image.SOLUTION: The apparatus includes an imaging optical system for receiving a luminous flux reflected against the fundus of an eye to be examined, and has a fundus imaging means and an image processing section. The fundus imaging means acquires the fundus image data of a plurality of frames having a deviation less than one pixel, by using the fixation nystagmus of the eye of the subject to be examined which occurs while the fundus image data of each frame are acquired. The image processing section acquires a high resolution image which has higher resolution than that of the image data at the time of acquisition, by performing composite processing of a plurality of fundus image data acquired through the fundus imaging optical system.

Description

被検眼の眼底画像を撮影する眼底撮影装置に関する。   The present invention relates to a fundus imaging apparatus that images a fundus image of a subject's eye.

光走査部(例えば、ガルバノミラー)を用いて眼底上で測定光を走査し、眼底像を得る眼底撮影装置として、眼底断層像撮影装置(例えば、光干渉断層計(Optical Coherence Tomography:OCT))や眼底正面像撮影装置(例えば、走査型検眼装置(Scanning Laser Opthalmoscope:SLO))などが知られている(特許文献1参照)。   A fundus tomography device (for example, optical coherence tomography (OCT)) is used as a fundus imaging device that scans measurement light on the fundus using an optical scanning unit (for example, a galvanomirror) to obtain a fundus image. And a fundus front image capturing apparatus (for example, a scanning laser opthalmoscope (SLO)) are known (see Patent Document 1).

そして、これらの装置は、取得した眼底断層像や眼底正面像をモニタ上で、観察することによって、病変部の観察を行っている。例えば、眼底断層像撮影装置においては、測定光束を二次元的に走査させ、XY各点について受光素子からの干渉信号のスペクトル強度を積算することにより、正面像を得る(特許文献2参照)。   These apparatuses observe the lesioned part by observing the acquired fundus tomographic image and fundus front image on a monitor. For example, in a fundus tomography apparatus, a front image is obtained by scanning a measurement light beam two-dimensionally and integrating the spectral intensity of an interference signal from a light receiving element for each XY point (see Patent Document 2).

特開2008−29467号公報JP 2008-29467 A 米国特許登録第7301644号明細書US Patent Registration No. 7301644

例えば、スペクトル干渉信号に基づいて正面像を得る場合、正面像化を行うための時間がかかるため、正面像の画像形成に用いるXYの各点(ポイント数)を少なくすることにより、正面像取得時間の軽減を行っている。しかしながら、ポイント数を少なくすることによって、解像度が低下するため、形成される正面像の画質が低下し、明瞭な眼底画像を取得することが困難であった。このため、取得した眼底画像によって、病変部の観察が困難であった。   For example, when a front image is obtained based on a spectral interference signal, it takes time to form a front image. Therefore, the front image can be obtained by reducing the number of XY points (number of points) used to form the front image. Time is being reduced. However, since the resolution is reduced by reducing the number of points, the image quality of the formed front image is lowered, and it is difficult to obtain a clear fundus image. For this reason, it is difficult to observe the lesioned part by the acquired fundus image.

また、OCTによって断層画像を得る場合、解像度を上げるには、測定光の走査速度を遅くして、サンプリング回数を増やせばよいが、固視微動の影響によってAスキャン信号間で位置ずれが生じてしまい、断層画像が歪んだ画像となる可能性がある。また、SLOによって正面画像を得る場合、解像度を上げるには、測定光の走査速度を遅くして、サンプリング回数を増やせばよいが、固視微動の影響によって走査線間で位置ずれが生じてしまい、断層画像が歪んだ画像となる可能性がある。このため、眼底上の走査スピードは、固視微動を考慮すれば、速いことが好ましい。   In addition, when obtaining a tomographic image by OCT, in order to increase the resolution, it is only necessary to slow down the scanning speed of the measurement light and increase the number of samplings. As a result, the tomographic image may become a distorted image. When a front image is obtained by SLO, the resolution can be increased by slowing the scanning speed of the measuring light and increasing the number of samplings. However, the position shift occurs between the scanning lines due to the influence of fixation fixation. The tomographic image may become a distorted image. For this reason, it is preferable that the scanning speed on the fundus is high in consideration of the fixation movement.

上記従来技術の問題点に鑑み、明瞭な眼底画像を取得することができる眼底撮影装置を提供することを技術課題とする。   In view of the above-described problems of the prior art, it is an object of the present invention to provide a fundus imaging apparatus capable of acquiring a clear fundus image.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present invention is characterized by having the following configuration.

(1) 被検眼眼底で反射した光束を受光する撮影光学系を有し、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する眼底撮影手段と、眼底撮影光学系によって取得された複数の眼底画像データを複合処理することによって、前記画像データの取得時より解像度の高い高解像度画像を取得する画像処理部と、を備えることを特徴とする。
(2) 眼底撮影手段は、各フレームの眼底画像データを取得する間に生じる被検者眼の固視微動を利用して、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する(1)の眼底撮影装置。
(3) 撮影光学系は、測定光を眼底上で走査させる光スキャナを持ち、眼底の断層像を得るために被検眼眼底で反射した光束と参照光が合成された光を受光する光断層干渉光学系、レーザ光を眼底上で走査させる光スキャナを持ち、眼底の正面像を得るために被検眼眼底で反射した光束を受光する走査型眼底撮影光学系のいずれかである(1)〜(2)のいずれかの眼底撮影装置。
(4) 眼底撮影手段は、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得ため、各フレームの眼底画像を得る毎に眼底上の走査位置を変更する駆動手段を備える(3)のいずれかの眼底撮影装置。
(1) Obtained by a fundus photographing means having a photographing optical system that receives a light beam reflected from the fundus of the subject's eye and obtaining a plurality of frames of fundus image data having a shift of less than one pixel, and a fundus photographing optical system. And an image processing unit that acquires a high-resolution image having a higher resolution than that at the time of acquiring the image data by subjecting the plurality of fundus image data to complex processing.
(2) The fundus imaging means obtains fundus image data for a plurality of frames having a shift of less than one pixel by using fixation eye movement of the subject's eye that occurs while obtaining fundus image data of each frame. The fundus imaging apparatus according to (1).
(3) The imaging optical system has an optical scanner that scans the fundus of the measurement light, and optical tomographic interference that receives the combined light of the light beam reflected from the fundus of the eye to be examined and the reference light to obtain a tomographic image of the fundus Any one of scanning optical fundus photographing optical systems that has an optical system and an optical scanner that scans the fundus with laser light and receives a light beam reflected by the fundus of the eye to be examined to obtain a front image of the fundus (1) to ( The fundus imaging apparatus according to any one of 2).
(4) The fundus photographing unit includes a driving unit that changes the scanning position on the fundus every time a fundus image of each frame is obtained in order to acquire fundus image data for a plurality of frames having a shift of less than one pixel (3 ) Any fundus imaging device.

本発明によれば、明瞭な眼底画像を取得することができる。   According to the present invention, a clear fundus image can be acquired.

以下、本発明に係る実施形態を図面に基づいて説明する。図1は本実施形態に係る眼科撮影装置の構成について説明する概略構成図である。なお、本実施形態においては、被検者眼(眼E)の軸方向をZ方向、水平方向をX方向、鉛直方向をY方向として説明する。眼底の表面方向をXY方向として考えても良い。   Embodiments according to the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram illustrating the configuration of the ophthalmologic photographing apparatus according to the present embodiment. In the present embodiment, the axial direction of the subject's eye (eye E) will be described as the Z direction, the horizontal direction as the X direction, and the vertical direction as the Y direction. The surface direction of the fundus may be considered as the XY direction.

装置構成の概略を説明する。本装置は、被検者眼Eの眼底Efの断層像を撮影するための光コヒーレンストモグラフィーデバイス(OCTデバイス)10である。OCTデバイス10は、光断層干渉光学系(OCT光学系)100と、固視標投影ユニット300と、演算制御部(CPU)70と、を含む。   An outline of the apparatus configuration will be described. This apparatus is an optical coherence tomography device (OCT device) 10 for taking a tomographic image of the fundus oculi Ef of the subject's eye E. The OCT device 10 includes an optical tomographic interference optical system (OCT optical system) 100, a fixation target projection unit 300, and an arithmetic control unit (CPU) 70.

OCT光学系100は、眼底に測定光を照射する。OCT光学系100は、眼底から反射された測定光と、参照光との干渉状態を受光素子(検出器)120によって検出する。OCT光学系100は、眼底Ef上の撮像位置を変更するため、眼底Ef上における測定光の照射位置を変更する照射位置変更ユニット(例えば、光スキャナ108、固視標投影ユニット300)を備える。制御部70は、設定された撮像位置情報に基づいて照射位置変更ユニットの動作を制御し、検出器120からの出力信号(受光信号)を処理して断層画像データ(断層像)を取得する。   The OCT optical system 100 irradiates the fundus with measurement light. The OCT optical system 100 detects the interference state between the measurement light reflected from the fundus and the reference light by the light receiving element (detector) 120. The OCT optical system 100 includes an irradiation position changing unit (for example, the optical scanner 108 and the fixation target projection unit 300) that changes the irradiation position of the measurement light on the fundus oculi Ef in order to change the imaging position on the fundus oculi Ef. The control unit 70 controls the operation of the irradiation position changing unit based on the set imaging position information, and processes the output signal (light reception signal) from the detector 120 to acquire tomographic image data (tomographic image).

<OCT光学系>
OCT光学系100は、いわゆる眼科用光断層干渉計(OCT:Optical coherence tomography)の装置構成を持ち、眼Eの断層像を撮像する。OCT光学系100は、測定光源102から出射された光をカップラー(光分割器)104によって測定光(試料光)と参照光に分割する。そして、OCT光学系100は、測定光学系106によって測定光を眼Eの眼底Efに導き,また、参照光を参照光学系110に導く。その後、眼底Efによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
<OCT optical system>
The OCT optical system 100 has an apparatus configuration of a so-called ophthalmic optical tomography (OCT: Optical coherence tomography) and takes a tomographic image of the eye E. The OCT optical system 100 splits the light emitted from the measurement light source 102 into measurement light (sample light) and reference light by a coupler (light splitter) 104. The OCT optical system 100 guides the measurement light to the fundus oculi Ef of the eye E by the measurement optical system 106 and guides the reference light to the reference optical system 110. Thereafter, the detector 120 receives interference light obtained by combining the measurement light reflected by the fundus oculi Ef and the reference light.

検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。例えば、Spectral-domain OCT(SD−OCT)、Swept-source OCT(SS−OCT)が挙げられる。また、Time-domain OCT(TD−OCT)であってもよい。   The detector 120 detects an interference state between the measurement light and the reference light. In the case of Fourier domain OCT, the spectral intensity of the interference light is detected by the detector 120, and a depth profile (A scan signal) in a predetermined range is obtained by Fourier transform on the spectral intensity data. Examples include Spectral-domain OCT (SD-OCT) and Swept-source OCT (SS-OCT). Moreover, Time-domain OCT (TD-OCT) may be used.

光スキャナ108は、眼底上でXY(横断)方向に測定光を走査させる。光スキャナ108は、瞳孔と略共役な位置に配置される。光スキャナ108は、例えば、2つのガルバノミラーであり、その反射角度が駆動機構50によって任意に調整される。   The optical scanner 108 scans the measurement light in the XY (transverse) direction on the fundus. The optical scanner 108 is arranged at a position substantially conjugate with the pupil. The optical scanner 108 is, for example, two galvanometer mirrors, and the reflection angle thereof is arbitrarily adjusted by the drive mechanism 50.

これにより、光源102から出射された光束は、その反射(進行)方向が変化され、眼底上で任意の方向に走査される。これにより、眼底Ef上における撮像位置が変更される。光スキャナ108としては、光を偏向させる構成であればよい。例えば、光スキャナ108としては、反射ミラー(ガルバノミラー、ポリゴンミラー、レゾナントスキャナ)の他、光の進行(偏向)方向を変化させる音響光学素子(AOM)等が用いられる。   As a result, the light beam emitted from the light source 102 changes its reflection (advance) direction and is scanned in an arbitrary direction on the fundus. Thereby, the imaging position on the fundus oculi Ef is changed. The optical scanner 108 may be configured to deflect light. For example, as the optical scanner 108, an acousto-optic device (AOM) that changes the traveling (deflection) direction of light is used in addition to a reflecting mirror (galvano mirror, polygon mirror, resonant scanner).

参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。参照光学系110は、例えば、反射光学系(例えば、参照ミラー)によって形成され、カップラー104からの光を反射光学系により反射することにより再度カップラー104に戻して、検出器120に導く。他の例としては、参照光学系110は、透過光学系(例えば、光ファイバー)によって形成され、カップラー104からの光を戻さず透過させることにより検出器120へと導く。   The reference optical system 110 generates reference light that is combined with reflected light acquired by reflection of measurement light at the fundus oculi Ef. The reference optical system 110 may be a Michelson type or a Mach-Zehnder type. The reference optical system 110 is formed by, for example, a reflection optical system (for example, a reference mirror), and reflects light from the coupler 104 back to the coupler 104 by the reflection optical system, and guides it to the detector 120. As another example, the reference optical system 110 is formed by a transmission optical system (for example, an optical fiber), and guides the light from the coupler 104 to the detector 120 by transmitting the light without returning.

参照光学系110は、参照光路中の光学部材を移動させることにより、測定光と参照光との光路長差を変更する構成を有する。例えば、参照ミラーが光軸方向に移動される。光路長差を変更するための構成は、測定光学系106の測定光路中に配置されてもよい。   The reference optical system 110 has a configuration in which the optical path length difference between the measurement light and the reference light is changed by moving an optical member in the reference optical path. For example, the reference mirror is moved in the optical axis direction. The configuration for changing the optical path length difference may be arranged in the measurement optical path of the measurement optical system 106.

<固視標投影ユニット>
固視標投影ユニット300は、眼Eの視線方向を誘導するための光学系を有する。投影ユニット300は、眼Eに呈示する固視標を有し、複数の方向に眼Eを誘導できる。
<Fixation target projection unit>
The fixation target projecting unit 300 includes an optical system for guiding the line-of-sight direction of the eye E. The projection unit 300 has a fixation target presented to the eye E, and can guide the eye E in a plurality of directions.

例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。   For example, the fixation target projection unit 300 has a visible light source that emits visible light, and changes the presentation position of the target two-dimensionally. Thereby, the line-of-sight direction is changed, and as a result, the imaging region is changed. For example, when the fixation target is presented from the same direction as the imaging optical axis, the center of the fundus is set as the imaging site. When the fixation target is presented upward with respect to the imaging optical axis, the upper part of the fundus is set as the imaging region. That is, the imaging region is changed according to the position of the target with respect to the imaging optical axis.

固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナを用いて走査させ、光源の点灯制御により固視位置を調整する構成、等、種々の構成が考えられる。また、投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。   As the fixation target projection unit 300, for example, a configuration in which the fixation position is adjusted by the lighting positions of LEDs arranged in a matrix, light from a light source is scanned using an optical scanner, and fixation is performed by lighting control of the light source. Various configurations such as a configuration for adjusting the position are conceivable. The projection unit 300 may be an internal fixation lamp type or an external fixation lamp type.

<制御部>
制御部70は、各構成100〜300の各部材など、装置全体を制御する。また、制御部70は、取得された画像を処理する画像処理部、取得された画像を解析する画像解析部、などを兼用する。制御部70は、一般的なCPU(Central Processing Unit)等で実現される。制御部70は、以下に示すように、断層像に基づいて眼底Efを解析する。
<Control unit>
The control unit 70 controls the entire apparatus such as each member of each configuration 100 to 300. The control unit 70 also serves as an image processing unit that processes the acquired image, an image analysis unit that analyzes the acquired image, and the like. The control unit 70 is realized by a general CPU (Central Processing Unit) or the like. As shown below, the control unit 70 analyzes the fundus oculi Ef based on the tomographic image.

制御部70は、OCT光学系100の検出器120から出力される受光信号に基づいて画像処理により断層像と正面像を取得する。また、制御部70は、固視標投影ユニット300を制御して固視位置を変更する。   The control unit 70 acquires a tomographic image and a front image by image processing based on the light reception signal output from the detector 120 of the OCT optical system 100. Further, the control unit 70 controls the fixation target projection unit 300 to change the fixation position.

フレームメモリ(例えば、RAM)77、補助記憶装置としてのメモリ(例えば、ハードディスク)72、表示モニタ75、コントロール部74は、それぞれ制御部70と電気的に接続されている。制御部70は、モニタ75の表示画面を制御する。取得された眼底像は、モニタ75に静止画又は動画として出力される他、メモリ72に記憶される。メモリ72は、例えば、撮影された断層像、正面画像、各断層像の撮影位置情報等の撮影に係る各種情報を記録する。制御部70は、コントロール部74から出力される操作信号に基づいて、OCT光学系100、固視標投影ユニット300の各部材を制御する。   The frame memory (for example, RAM) 77, the memory (for example, hard disk) 72 as an auxiliary storage device, the display monitor 75, and the control unit 74 are electrically connected to the control unit 70, respectively. The control unit 70 controls the display screen of the monitor 75. The acquired fundus image is output to the monitor 75 as a still image or a moving image and stored in the memory 72. The memory 72 records, for example, various types of information related to imaging such as a captured tomographic image, a front image, and imaging position information of each tomographic image. The control unit 70 controls each member of the OCT optical system 100 and the fixation target projection unit 300 based on the operation signal output from the control unit 74.

以上のような構成を備える装置において、その制御動作について説明する。検者は、固視標投影ユニット300の固視標を注視するように被検者に指示した後、図示無き前眼部観察用カメラで撮影される前眼部観察像をモニタ75で見ながら、被検眼の瞳孔中心に測定光軸がくるように、図示無きジョイスティックを用いて、アライメント操作を行う。   The control operation of the apparatus having the above configuration will be described. The examiner instructs the subject to gaze at the fixation target of the fixation target projection unit 300, and then observes the anterior ocular segment observation image captured by the anterior ocular segment observation camera (not shown) on the monitor 75. The alignment operation is performed using a joystick (not shown) so that the measurement optical axis is at the center of the pupil of the eye to be examined.

そして、制御部70は、光スキャナ108の駆動を制御し、眼底上で測定光を所定方向に関して走査させ、走査中に検出器120から出力される出力信号から所定の走査領域に対応する受光信号を取得して眼底像を形成する。   Then, the control unit 70 controls driving of the optical scanner 108, scans the measurement light on the fundus in a predetermined direction, and receives a light reception signal corresponding to a predetermined scanning area from an output signal output from the detector 120 during the scanning. To obtain a fundus image.

以下、本実施形態に係る眼底断層像(以下、断層像と記載する)及び眼底正面像(以下、正面像と記載する)の取得手法の一例を示す。制御部70は、検出器120によって検出されたスペクトルデータを処理し、画像処理により断層像及び正面像を形成させる。断層像と正面像は、同時に取得されてもよいし、交互に取得されてもよいし、順次取得されてもよい。すなわち、スペクトルデータは、断層像及び正面像の少なくともいずれかの取得に用いられる。なお、取得された断層像及び正面像は、モニタ75に表示される。   Hereinafter, an example of a method for acquiring a fundus tomographic image (hereinafter referred to as a tomographic image) and a fundus frontal image (hereinafter referred to as a front image) according to the present embodiment will be described. The control unit 70 processes the spectral data detected by the detector 120 and forms a tomographic image and a front image by image processing. The tomographic image and the front image may be acquired at the same time, may be acquired alternately, or may be acquired sequentially. That is, the spectrum data is used for obtaining at least one of a tomographic image and a front image. Note that the acquired tomographic image and front image are displayed on the monitor 75.

制御部70は、OCT光学系100を制御し、設定された領域に対応する三次元断層像を取得する。そして、制御部70は、OCT光学系100によって三次元断層像を随時取得する。なお、三次元断層像には、XY方向に関して二次元的にAスキャン信号を並べた画像データ、三次元グラフィック画像、などが含まれる。   The control unit 70 controls the OCT optical system 100 and acquires a three-dimensional tomographic image corresponding to the set region. And the control part 70 acquires a three-dimensional tomogram at any time with the OCT optical system 100. FIG. The three-dimensional tomographic image includes image data in which A scan signals are arranged two-dimensionally in the XY directions, a three-dimensional graphic image, and the like.

三次元断層像を得るとき、制御部70は、光スキャナ108の動作を制御し、撮像領域に対応する走査範囲において測定光をXY方向に二次元的に走査させることにより三次元断層像を取得する。なお、走査パターンとして、例えば、ラスタースキャン、複数のラインスキャンが考えられる。   When obtaining a three-dimensional tomographic image, the control unit 70 controls the operation of the optical scanner 108 and acquires the three-dimensional tomographic image by scanning the measurement light in the XY directions two-dimensionally in the scanning range corresponding to the imaging region. To do. As the scanning pattern, for example, a raster scan and a plurality of line scans can be considered.

検者は、モニタ75に表示された断層像及び正面像を観察しながら、病変部等の観察を行う。病変部の観察を好適に行うために、明瞭な観察画像を取得する手段について説明する。   The examiner observes the lesioned part and the like while observing the tomographic image and the front image displayed on the monitor 75. Means for obtaining a clear observation image will be described in order to suitably observe the lesion.

制御部70は、観察画像にノイズ等が含まれている場合や、解像度が低いために観察画像が鮮明でない場合がある。このため、本実施形態では、超解像度技術を用いた処理(超解像度処理)を行い、観察画像の解像度を向上させることによって、観察画像の画質を良好にする。   The control unit 70 may include noise or the like in the observation image, or the observation image may not be clear due to low resolution. For this reason, in the present embodiment, processing using super-resolution technology (super-resolution processing) is performed to improve the resolution of the observation image, thereby improving the quality of the observation image.

超解像度技術は、入力信号の解像度を高めて出力信号を作る技術であり、入力された動画や静止画の信号を高解像度化して、高解像度の画像を出力するものである。本実施形態においては、複数枚の画像を用いて1枚の高解像度画像を生成する超解像技術を用いて、超解像度処理を行う。   The super-resolution technique is a technique for generating an output signal by increasing the resolution of an input signal. The resolution of an input moving image or still image is increased to output a high-resolution image. In this embodiment, super-resolution processing is performed using a super-resolution technique that generates a single high-resolution image using a plurality of images.

以下、超解像度技術の処理について、図2の超解像の概念図を用いて説明する。超解像度処理は、複数のフレーム間の位置合わせ処理を行い、位置合わせ情報と複数のフレームの各画素素情報とに基づいて、画像の再構成処理を行うものである。位置合わせ処理は、画素単位よりも更に細かいサブピクセル単位の精度にて精密に行う。   Hereinafter, processing of the super-resolution technique will be described with reference to the super-resolution conceptual diagram of FIG. In the super-resolution processing, alignment processing between a plurality of frames is performed, and image reconstruction processing is performed based on the alignment information and each pixel element information of the plurality of frames. The alignment process is performed precisely with sub-pixel unit precision that is finer than the pixel unit.

図2に示された画像Aと画像Bは、同一の被検物に対して、サブピクセル単位で撮影位置がずれて取得された一次元画像である。画像Aの各画素位置S1〜S4の間隔は、1画素(1ピクセル)であり、同じく、画像Bの各画素位置S5〜S8間の間隔は、1画素(1ピクセル)である。画像Bは、画像Aに対してちょうど半画素(サブピクセル)ずれた位置にて取得された画像である。この場合、二つの画像の位置合わせを行い、画像の統合を行うと、その位置ずれ量がちょうど半画素であるため、画像Aの各画素位置S1〜S4の間のサブピクセルの位置に画像Bの各画素位置S5〜S8の輝度情報が配列される。以上のように、二つの画像を統合することで、画素を増加させることができるため、2倍の解像度の画像Cを取得できる。   An image A and an image B shown in FIG. 2 are one-dimensional images obtained by shifting the imaging position in units of subpixels with respect to the same object. The interval between the pixel positions S1 to S4 of the image A is 1 pixel (1 pixel), and the interval between the pixel positions S5 to S8 of the image B is 1 pixel (1 pixel). The image B is an image acquired at a position shifted from the image A by a half pixel (sub pixel). In this case, when the two images are aligned and the images are integrated, the amount of displacement is exactly half a pixel, so that the image B is positioned at the subpixel position between the pixel positions S1 to S4 of the image A. The luminance information of each of the pixel positions S5 to S8 is arranged. As described above, since the number of pixels can be increased by integrating the two images, an image C having a double resolution can be acquired.

以下、OCTデバイス10によって取得される観察画像を複数取得し、それらを用いた超解像度処理について説明する。   Hereinafter, a plurality of observation images acquired by the OCT device 10 and a super-resolution process using them will be described.

例えば、制御部70は、OCTデバイス10よって時系列に取得された複数の観察画像と、OCTデバイス10によって新たに取得される観察画像とを超解像度処理することにより高解像度の観察画像を取得する。   For example, the control unit 70 acquires a high-resolution observation image by performing super-resolution processing on a plurality of observation images acquired in time series by the OCT device 10 and an observation image newly acquired by the OCT device 10. .

制御部70は、新たに高解像度の観察画像が取得されるのに応じて、モニタ75上に表示された高解像度の観察画像を更新し、高解像度の観察画像を動画像としてモニタ75に表示する。これにより、観察される撮影画像の画質を良好にする。なお、超解像度処理が行われる観察画像は、動画像でなくても、所定のトリガ信号が出力された場合に、取得される静止画であってもよい。なお、本実施形態においては、OCTデバイス10によって取得される高解像度の観察画像として正面像を例に挙げて、以下の説明をしていく。   The control unit 70 updates the high-resolution observation image displayed on the monitor 75 in response to the newly acquired high-resolution observation image, and displays the high-resolution observation image on the monitor 75 as a moving image. To do. Thereby, the image quality of the observed captured image is improved. Note that the observation image on which the super-resolution processing is performed may not be a moving image, but may be a still image acquired when a predetermined trigger signal is output. In the present embodiment, a front image is taken as an example of a high-resolution observation image acquired by the OCT device 10 and will be described below.

図3は、OCT光学系100によって取得された正面像(低解像度フレーム画像)と超解像度処理後の正面像を説明する図である。図3において、正面像P0〜P3は、異なる画素位置にて取得された正面像である。正面像P0は、超解像度処理の基準となる基準画像を示しており、正面像P1〜P3は、超解像度処理に用いる画像を示している。正面像P1〜P3内において点線で囲まれている領域Fは、基準画像である正面像P0の領域を示している。   FIG. 3 is a diagram illustrating a front image (low-resolution frame image) acquired by the OCT optical system 100 and a front image after super-resolution processing. In FIG. 3, front images P0 to P3 are front images acquired at different pixel positions. The front image P0 shows a reference image serving as a reference for super-resolution processing, and the front images P1 to P3 show images used for super-resolution processing. A region F surrounded by a dotted line in the front images P1 to P3 indicates a region of the front image P0 that is a reference image.

正面像P1は、正面像P0に対して、X方向にずれが生じており、その位置すれ量は、(ΔX、0)となる。正面像P2は、正面像P0に対して、Y方向にずれが生じており、その位置すれ量は、(0、ΔY)となる。正面像P3は、正面像P0に対して、X方向、Y方向にずれが生じており、その位置すれ量は、(ΔX、ΔY)となる。正面像P0対する正面像P1〜P3の位置ずれの補正量は、それぞれの位置ずれ量に基づいて算出される。   The front image P1 is displaced in the X direction with respect to the front image P0, and the amount of positional deviation is (ΔX, 0). The front image P2 is displaced in the Y direction with respect to the front image P0, and the amount of positional deviation is (0, ΔY). The front image P3 is displaced in the X direction and the Y direction with respect to the front image P0, and the positional shift amount is (ΔX, ΔY). The correction amount of the positional deviation of the front images P1 to P3 with respect to the front image P0 is calculated based on the respective positional deviation amounts.

図3においては、模式的に正面像P0に対する正面像P1〜P3のずれは、1画素単位であるものとして示している。しかし、本実施形態においては、OCT光学系100によって取得される複数の正面像は、その正面像間にサブピクセルのずれが生じている。このため、このサブピクセルのずれを利用することによって、高解像度化が可能となる(図2参照)。   In FIG. 3, the deviation of the front images P1 to P3 with respect to the front image P0 is schematically shown as one pixel unit. However, in the present embodiment, a plurality of front images acquired by the OCT optical system 100 have subpixel shifts between the front images. For this reason, it is possible to increase the resolution by using the subpixel shift (see FIG. 2).

このとき、正面像P0〜P3の画素の輝度情報を統合させても、輝度情報の存在しない画素が生じることがある。このような画素においては、その画素の周辺に存在する画素の輝度情報を用いて、所定の補間処理を行うことによって、統合を行うとともに、高解像度化を行う。   At this time, even if the luminance information of the pixels of the front images P0 to P3 is integrated, a pixel having no luminance information may be generated. In such pixels, integration is performed and resolution is increased by performing predetermined interpolation processing using luminance information of pixels existing around the pixels.

例えば、補間処理としては、バイリニア法による補間処理を行う。例えば、バイリニア法は、超解像度画像において、補間処理を行う画素を囲む四つの画素を決定する。これら四つの画素の輝度情報に所定の重み付けを加え、その値を平均化することによって、補間処理を行う画素の輝度情報を取得し、補間を行う。   For example, as the interpolation processing, interpolation processing by a bilinear method is performed. For example, the bilinear method determines four pixels surrounding a pixel on which interpolation processing is performed in a super-resolution image. By applying a predetermined weight to the luminance information of these four pixels and averaging the values, the luminance information of the pixels to be subjected to the interpolation processing is acquired and interpolation is performed.

以上のような、補間処理を繰り返し行うことによって、高解像度の正面像を取得することができる。なお、補間処理として、バイリニア法を用いたがこれに限定されない。例えば、二アレストネイバ法やバイキュービック法等の補間処理を用いてもよい。また、基準画像の画素の輝度情報をそのまま高解像度の画像の画素として、用いる構成としてもよい。   By repeating the interpolation processing as described above, a high-resolution front image can be acquired. In addition, although the bilinear method was used as an interpolation process, it is not limited to this. For example, an interpolation process such as a two-arrest neighbor method or a bicubic method may be used. The luminance information of the pixels of the reference image may be used as it is as the pixels of the high resolution image.

以下、より具体的に、OCTデバイス10によって取得される観察画像を複数取得し、超解像度処理によって高解像度の観察画像を生成する場合の制御動作の流れについて、図4に示すフローチャートを用いて説明する。   Hereinafter, more specifically, the flow of the control operation when acquiring a plurality of observation images acquired by the OCT device 10 and generating a high-resolution observation image by super-resolution processing will be described using the flowchart shown in FIG. To do.

概して、制御部70は、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する。そして、取得された複数の眼底画像データを複合処理することによって、画像データの取得時より解像度の高い高解像度画像を取得する。   In general, the control unit 70 acquires fundus image data for a plurality of frames having a shift of less than one pixel. Then, a high-resolution image having a higher resolution than that at the time of acquiring the image data is acquired by subjecting the plurality of acquired fundus image data to composite processing.

<超解像度処理に用いる正面像の取得>
初めに、制御部70は、OCT光学系100を用いての検出器120によって検出されたスペクトルデータを処理し、画像処理により1フレーム(1枚)の正面像を形成させる。そして、正面像をフレームメモリ77に記憶させる。そして、制御部70は、高解像度の正面像を作成するための複数の正面像(本実施形態においては、例えば、10枚の正面像)を取得するために、逐次、正面像を取得してフレームメモリ77に記憶させていく。なお、取得した正面像が適正か否かの判定が行われ、適正と判定された画像がフレームメモリ77に記憶される(詳しくは後述する)。これにより、瞬き等によるエラー画像が超解像度処理に利用されることが回避される。
<Acquisition of front image used for super-resolution processing>
First, the control unit 70 processes the spectral data detected by the detector 120 using the OCT optical system 100, and forms a front image of one frame (one sheet) by image processing. Then, the front image is stored in the frame memory 77. And the control part 70 acquires a front image sequentially, in order to acquire the several front image (in this embodiment, for example, ten front images) for creating a high-resolution front image. The data is stored in the frame memory 77. It is determined whether or not the acquired front image is appropriate, and the image determined to be appropriate is stored in the frame memory 77 (details will be described later). Thereby, it is avoided that an error image due to blinking or the like is used for super-resolution processing.

なお、フレームメモリ77に記憶することのできるデータの容量は限られている。本実施形態においては、最大で10枚の撮影画像が記憶可能である。もちろん、フレームメモリ77に容量によっては、記憶可能な枚数を変更することが可能であるし、フレームメモリ77の容量が無くなるほど、撮影画像を記憶させなくてもよい。記憶させる最大枚数を任意に設定できる構成としてもよい。   The amount of data that can be stored in the frame memory 77 is limited. In the present embodiment, a maximum of 10 captured images can be stored. Of course, depending on the capacity of the frame memory 77, the number of images that can be stored can be changed, and as the capacity of the frame memory 77 is reduced, the captured image need not be stored. The maximum number of images to be stored may be set arbitrarily.

<正面像の記憶における判定>
制御部70は、OCT光学系100によって正面像の取得を開始すると、超解像度処理に用いるための正面像の取得を開始する。正面像を取得すると、制御部70は、新たに取得された正面像を判定処理し、フレームメモリ77に正面像を記憶させるか否かを判定する。フレームメモリ77には、記憶可能な容量が限定されているため、超解像度処理用に適さない画像の記憶を回避することによって、超解像度処理に用いることのできる画像の枚数を増加させる。判定は、所定の評価値Vが用いられる。
<Determination in memory of front image>
When the acquisition of the front image is started by the OCT optical system 100, the control unit 70 starts acquiring the front image for use in the super-resolution processing. When the front image is acquired, the control unit 70 performs a determination process on the newly acquired front image and determines whether to store the front image in the frame memory 77. Since the frame memory 77 has a limited storable capacity, the number of images that can be used for super-resolution processing is increased by avoiding storage of images that are not suitable for super-resolution processing. For the determination, a predetermined evaluation value V is used.

ここで、評価値Vについて説明する。評価値Vは、V=((画像の平均最大輝度値)−(画像の背景領域の平均輝度値))/(背景領域の輝度値の標準偏差)の式より求められる。すなわち、画像として良好でない画像は、ノイズが大きいため、評価値Vが小さくなる。評価値Vを得る場合、例えば、正面像の信号強度が用いられる。   Here, the evaluation value V will be described. The evaluation value V is obtained from the equation V = ((average maximum luminance value of the image) − (average luminance value of the background region of the image)) / (standard deviation of the luminance value of the background region). That is, an image that is not good as an image has a large noise, and thus the evaluation value V is small. When obtaining the evaluation value V, for example, the signal intensity of the front image is used.

この場合、制御部70は、正面像を形成するスペクトル情報に基づいて断層像を取得し、取得された断層像を利用して、正面像の適否を判定してもよい。例えば、正面像内における1ラインの走査線に対応する断層像より算出する。制御部70は、図5に示すように正面像の所定位置の走査線による断層像を用いて評価値Vを算出する。なお、所定位置としては、例えば、正面像の中心の位置を通る走査線Bが用いられる。もちろん、本実施形態においては、中心位置を用いるがこれに限定されない。制御部70は、図6に示すように、断層像において、深さ方向(Aスキャン方向)に走査する複数の走査線Cを設定し、各走査線C上における輝度分布データを求める。   In this case, the control unit 70 may acquire a tomographic image based on the spectrum information that forms the front image, and may determine whether the front image is appropriate using the acquired tomographic image. For example, it is calculated from a tomographic image corresponding to one scanning line in the front image. As shown in FIG. 5, the control unit 70 calculates the evaluation value V using a tomographic image formed by scanning lines at predetermined positions of the front image. As the predetermined position, for example, the scanning line B passing through the center position of the front image is used. Of course, although the center position is used in the present embodiment, the present invention is not limited to this. As shown in FIG. 6, the control unit 70 sets a plurality of scanning lines C to be scanned in the depth direction (A scanning direction) in the tomographic image, and obtains luminance distribution data on each scanning line C.

制御部70は、各走査線Cに対応する輝度分布において、輝度値の最大値(以下、最大輝度値と省略する)をそれぞれ算出する。そして、制御部70は、各走査線における最大輝度値の平均値を平均最大輝度値として算出する。また、制御部70は、各走査線における背景領域の輝度値の平均値を背景領域の平均輝度値として算出する。そして、評価値Vが算出される。   The control unit 70 calculates the maximum luminance value (hereinafter abbreviated as the maximum luminance value) in the luminance distribution corresponding to each scanning line C. And the control part 70 calculates the average value of the maximum luminance value in each scanning line as an average maximum luminance value. Further, the control unit 70 calculates the average value of the luminance values of the background area in each scanning line as the average luminance value of the background area. Then, an evaluation value V is calculated.

制御部70は、評価値Vを算出後、評価値Vが所定の閾値を超えているか否かによってフレームメモリ77への撮影画像の記憶の要否を判定する。例えば、評価値Vが閾値を超えた場合に、その正面像をフレームメモリ77に記憶させる。以上のようにして、判定が行われる。これにより、多くの撮影画像にて超解像度処理を行うことが可能となり、画像の画質が向上する。   After calculating the evaluation value V, the control unit 70 determines whether it is necessary to store the captured image in the frame memory 77 based on whether the evaluation value V exceeds a predetermined threshold. For example, when the evaluation value V exceeds a threshold value, the front image is stored in the frame memory 77. The determination is performed as described above. As a result, it is possible to perform super-resolution processing on many photographed images, and the image quality of the images is improved.

なお、本実施形態においては、評価値Vを用いて撮影画像の記憶の要否を判定したがこれに限定されない。例えば、他の観察画像から判定をする構成としてもよい。例えば、図示無き前眼部観察系を設け、前眼部画像から判定(瞬き判定等)を行うようにしてもよい。   In the present embodiment, the evaluation value V is used to determine whether the captured image needs to be stored, but the present invention is not limited to this. For example, it is good also as a structure which determines from another observation image. For example, an anterior ocular segment observation system (not shown) may be provided to perform determination (blink determination or the like) from the anterior ocular segment image.

次いで、制御部70は、取得した1フレームの正面像をフレームメモリ77に記憶させた場合、フレームメモリ77内に記憶させた正面像の枚数が所定枚数に到達したか否かを判定する。本実施形態において、所定枚数は、フレームメモリ77に記憶可能な最大枚数である10枚と設定した。なお、所定枚数はこれに限定されるものではなく、例えば、検者が任意に所定枚数を設定できる構成としてもよい。また、取得した撮影画像の光量に基づいて枚数設定がされる構成でもよい。この場合、例えば、撮影画像の光量が低ければ、所定枚数を増加し、撮影画像の光量が高い場合には、所定枚数を少なくすることが考えられる。   Next, when the acquired front image of one frame is stored in the frame memory 77, the control unit 70 determines whether or not the number of front images stored in the frame memory 77 has reached a predetermined number. In the present embodiment, the predetermined number is set to 10 which is the maximum number that can be stored in the frame memory 77. Note that the predetermined number is not limited to this, and for example, the predetermined number may be set arbitrarily by the examiner. Alternatively, the number of images may be set based on the light amount of the acquired captured image. In this case, for example, it is conceivable to increase the predetermined number if the light amount of the captured image is low, and decrease the predetermined number if the light amount of the captured image is high.

そして、制御部70は、フレームメモリ77内に記憶されている正面像の取得枚数が所定枚数に到達した場合、枚数に到達したタイミング以降に取得された正面像よりフレームメモリ77内に記憶された複数の正面像の超解像度処理を行う。また、正面像の取得枚数が所定枚数に到達していない場合、制御部70は、次の正面像の取得を開始する。以上のようにして、超解像度処理を作成するための複数の正面像が取得される。   Then, when the number of acquired front images stored in the frame memory 77 reaches a predetermined number, the control unit 70 stores the front images acquired after the timing of reaching the number in the frame memory 77. Super-resolution processing of a plurality of front images is performed. If the number of acquired front images has not reached the predetermined number, the control unit 70 starts acquiring the next front image. As described above, a plurality of front images for creating a super-resolution process are acquired.

ここで、超解像度処理を行うためには、X方向及び/又はY方向に1画素未満(サブピクセル)のずれが生じている複数の正面像が必要となる。すなわち、超解像度処理の基準となる正面像に対して、X方向及び/又はY方向にサブピクセルずれが生じている正面像が連続して複数枚分必要となる。   Here, in order to perform the super-resolution processing, a plurality of front images having a shift of less than one pixel (sub-pixel) in the X direction and / or the Y direction are necessary. That is, a plurality of front images in which a sub-pixel shift is generated in the X direction and / or the Y direction are necessary for the front image serving as a reference for super-resolution processing.

第1の手法としては、所定の領域において、複数の正面像を取得する際に、OCT光学系100を移動させて、画像の取得位置をずらし、画素位置の異なる複数の画像を取得する。例えば、制御部70は、駆動手段を用いて、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得するため、各フレームの眼底画像を得る毎に眼底上の撮影位置(走査位置)を変更する。より具体的には、各フレームの画像を取得する際、制御部70は、光スキャナ108の駆動を制御し、各画像を取得する毎に眼底上における走査領域をサブピクセル単位で変更する。光スキャナ108の利用の他、画像を取得する毎に、OCT光学系100全体を眼Eに対して微動させる駆動機構を設けてもよい。   As a first technique, when a plurality of front images are acquired in a predetermined region, the OCT optical system 100 is moved to shift the image acquisition position and acquire a plurality of images having different pixel positions. For example, the control unit 70 uses the driving unit to acquire fundus image data for a plurality of frames having a shift of less than one pixel. Therefore, every time a fundus image of each frame is obtained, the imaging position (scanning position) on the fundus ). More specifically, when acquiring the image of each frame, the control unit 70 controls the driving of the optical scanner 108 and changes the scanning region on the fundus in units of subpixels every time the image is acquired. In addition to using the optical scanner 108, a drive mechanism that finely moves the entire OCT optical system 100 relative to the eye E every time an image is acquired may be provided.

第2の手法としては、眼底上の所定の領域に関して、制御部70は、各フレームの眼底画像データを取得する間に生じる被検者眼の固視微動を利用して、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する。本装置は、被検眼を対象して撮影が行われているため、同一の所定の領域において複数の正面像の取得を行った場合においても、固視微動によって、複数の正面像間の画素位置が微小にずれて正面像が取得される。   As a second method, for a predetermined region on the fundus, the control unit 70 uses a fixation micromotion of the subject's eye that occurs while acquiring fundus image data of each frame, and shifts less than one pixel. Fundus image data for a plurality of frames having. Since this apparatus is photographing the eye to be inspected, even when a plurality of front images are acquired in the same predetermined region, the pixel positions between the plurality of front images are obtained by fixation fine movement. Is slightly displaced and a front image is acquired.

例えば、固視微動は、トレモア、ドリフト、サッケードの成分に大別される。トレモアは、50〜150Hz程度の頻度で10″〜20″程度の微細な動きがある。ドリフトは、平均毎秒5′程度でずれていく動きがある。サッケードは、ドラフトが0.3秒から数秒続いた後に、2′〜50′程度で起こる。OCT光学系100によって取得される正面像の1フレームの取得時間は、1.0s〜1.9sであり、この成分のいずれもが1フレームからなる各画像間において、サブピクセル単位での微動を生む。
このため、1フレームの正面像を取得した後、次の1フレームの正面像を取得する際には、少なくとも固視微動が生じ、画像の取得位置がずれる。第2の手法は、第1の手法のように、超解像度画像の作成に用いる低解像度画像を得るために、装置本体側を駆動させる必要がなく、固視微動を利用することによって、サブピクセル単位で取得位置が異なる複数の画像を取得できる。
For example, fixation fine movement is roughly divided into tremor, drift, and saccade components. Tremore has a fine movement of about 10 ″ to 20 ″ with a frequency of about 50 to 150 Hz. The drift moves at an average of about 5 'per second. Saccades occur on the order of 2 'to 50' after a draft lasts from 0.3 seconds to several seconds. The acquisition time of one frame of the front image acquired by the OCT optical system 100 is 1.0 s to 1.9 s, and any of these components performs fine movement in units of subpixels between the images of one frame. Born.
For this reason, after acquiring the front image of 1 frame, when acquiring the front image of the next 1 frame, at least fixation fine movement arises and the acquisition position of an image shifts. In the second method, unlike the first method, it is not necessary to drive the apparatus main body side in order to obtain a low-resolution image used for creating a super-resolution image. A plurality of images having different acquisition positions in units can be acquired.

<複数の正面像の超解像度処理>
以下、フレームメモリ77に記憶された複数の正面像を用いて、超解像度処理について説明する。
<Super-resolution processing of multiple front images>
Hereinafter, super-resolution processing will be described using a plurality of front images stored in the frame memory 77.

制御部70は、OCT光学系100によって、最後に形成された正面像(新たに取得された正面像)において、超解像度処理の基準となる基準画像として設定し、超解像度処理を行う。制御部70は、基準画像と複数の正面像とのずれを画像処理により検出し、ずれ検出結果に基づいて、超解像度処理の適否を判定処理すると共に、基準画像と複数の正面像とのずれを補正し、基準画像に対して複数の正面像を超解像度処理していく。なお、本実施形態においては、基準画像を最後に取得された正面像(最新の撮影画像)に設定したがこれに限定されない。例えば、複数の正面像の内で超解像度処理の基準とする基準画像設定をしてもよい。   The control unit 70 sets a reference image as a reference for super-resolution processing in the front image (newly acquired front image) formed last by the OCT optical system 100, and performs super-resolution processing. The control unit 70 detects a shift between the reference image and the plurality of front images by image processing, determines whether or not the super-resolution processing is appropriate based on the shift detection result, and shifts between the reference image and the plurality of front images. Are corrected, and a plurality of front images are subjected to super-resolution processing with respect to the reference image. In the present embodiment, the reference image is set to the last-acquired front image (latest photographed image), but the present invention is not limited to this. For example, a reference image may be set as a reference for super-resolution processing among a plurality of front images.

制御部70は、基準画像に対して各正面像を順に超解像度処理していく。そして、各正面像と基準画像とのずれ量を正面像毎に検出し、基準画像に対して各正面像の位置合わせを行う。すなわち、基準画像と各正面像を比較して、基準画像に対する各正面像の位置ずれ方向及び位置ずれ量を正面像毎に、画像処理により検出する。   The control unit 70 sequentially performs super-resolution processing on each front image with respect to the reference image. Then, a deviation amount between each front image and the reference image is detected for each front image, and each front image is aligned with the reference image. That is, the reference image and each front image are compared, and the position shift direction and the position shift amount of each front image with respect to the reference image are detected for each front image by image processing.

ずれ量の検出方法としては、種々の画像処理手法(テンプレートマッチングを用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法)を用いることが可能である。   Various image processing methods (a method using template matching, a method using Fourier transform, and a method based on feature point matching) can be used as a method for detecting a deviation amount.

例えば、所定の基準画像(例えば、最後に取得された正面像)又は対象画像(過去の正面像)をピクセルずつ位置ずれさせ、基準画像と対象画像を比較し、両データが最も一致したとき(相関が最も高くなるとき)の両データ間の位置ずれ方向及び位置ずれ量を検出する手法が考えられる。また、所定の基準画像及び対象画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれ方向及び位置ずれ量をピクセル単位で検出する手法が考えられる。   For example, when a predetermined reference image (for example, the last acquired front image) or a target image (past front image) is displaced pixel by pixel, the reference image and the target image are compared, and the two data are most consistent ( It is conceivable to detect a position shift direction and a position shift amount between both data (when the correlation is highest). Further, a method is conceivable in which common feature points are extracted from a predetermined reference image and target image, and the positional deviation direction and the positional deviation amount of the extracted characteristic points are detected in units of pixels.

そして、種々の画像処理手法でピクセル単位のずれ量の検出を行った後、サブピクセル推定にて、サブピクセル単位での位置ずれ方向及び位置ずれ量を算出する。   Then, after detecting the displacement amount in units of pixels by various image processing methods, the position displacement direction and the amount of displacement in units of subpixels are calculated by subpixel estimation.

本実施形態においては、制御部70は、基準画像に対する各正面像をピクセルでずらしながら、相関値(値が大きいほど画像間の相関が高くなる(最大1))を逐次算出する。さらに、制御部70は、算出したピクセル単位の相関値に基づいて、サブピクセル推定を行い、サブピクセル単位の相関値を求める。そして、制御部70は、サブピクセル推定により算出した相関値の画素の偏位量(ずらした画素数)を位置ずれ量とし、また、ずらした方向を位置ずれ方向として算出する。   In the present embodiment, the control unit 70 sequentially calculates a correlation value (a correlation between images increases as the value increases (maximum 1)) while shifting each front image with respect to the reference image by pixels. Further, the control unit 70 performs subpixel estimation based on the calculated correlation value in units of pixels, and obtains a correlation value in units of subpixels. Then, the control unit 70 calculates the displacement amount (number of displaced pixels) of the correlation value pixels calculated by the subpixel estimation as the displacement amount, and calculates the displaced direction as the displacement direction.

判定方法として、ずれ検出時に算出した相関値を用いて判定を行う。例えば、相関値が所定の閾値(例えば、0.4)より小さい場合に、超解像度処理に用いる正面像の対象から除外する。すなわち、相関値が小さい場合には、装置と眼の間のずれ等が原因となって、基準画像と正面像で、撮影領域が大きく異なっている可能性が高い。撮影領域が大きく異なっている画像を用いて超解像度処理を行ってしまうと、高解像度の正面像を作成した場合に、画質等が低下してしまう。そのため、相関値が所定の閾値より小さい場合に、超解像度処理に用いる正面像の対象から除外することによって、高解像度の正面像を作成した際に、画質の低下を防ぐ。なお、超解像度処理に用いる画像として、適正な画像であるか否かの判定においてはこれに限定されない。例えば、検出される位置ずれ量が許容範囲を超えた正面像を超解像度処理の対象から除外するようにしてもよい。   As a determination method, determination is performed using a correlation value calculated at the time of detecting a deviation. For example, when the correlation value is smaller than a predetermined threshold (for example, 0.4), the correlation value is excluded from the target of the front image used for the super-resolution processing. That is, when the correlation value is small, there is a high possibility that the shooting area is greatly different between the reference image and the front image due to a shift between the apparatus and the eyes. If super-resolution processing is performed using images with greatly different shooting areas, the image quality and the like deteriorate when a high-resolution front image is created. For this reason, when the correlation value is smaller than a predetermined threshold, the image quality is prevented from being deteriorated when a high-resolution front image is created by excluding it from the target of the front image used for super-resolution processing. Note that the determination as to whether or not the image used for the super-resolution processing is an appropriate image is not limited to this. For example, a front image in which the detected positional deviation amount exceeds the allowable range may be excluded from the super resolution processing target.

以上のように、位置ずれ量及び位置ずれ方向が検出され、超解像度処理に用いる画像としての適否が判定される。そして、制御部70は、超解像度処理用の画像として適正であると判定された画像に対して、制御部70は、位置ずれが補正されるように、位置ずれ量分、各正面像を基準画像に対して、それぞれ偏位させる。そして、位置ずれ補正後、制御部70は、基準画像に対して、正面像を統合していく。   As described above, the displacement amount and the displacement direction are detected, and the suitability as an image used for the super-resolution processing is determined. Then, with respect to the image determined to be appropriate as the image for super-resolution processing, the control unit 70 uses each front image as a reference for the amount of positional deviation so that the positional deviation is corrected. Each image is displaced. Then, after correcting the positional deviation, the control unit 70 integrates the front image with the reference image.

正面像の超解像度処理後、制御部70は、フレームメモリ77に記憶されている全フレームの正面像の処理(ずれ検出、適正判定、超解像度処理)が終了したか否かを判定する。全正面像の処理が終了していない場合、制御部70は、フレームメモリ77に記憶されている他の正面像の処理を開始する。本実施形態においては、制御部70は、フレームメモリ77に記憶されている全正面像において、処理が終了した場合に、超解像度処理が終了したと判定する。   After the super-resolution processing of the front image, the control unit 70 determines whether or not processing (shift detection, appropriateness determination, super-resolution processing) of the front image of all the frames stored in the frame memory 77 has been completed. If the processing for all front images has not been completed, the control unit 70 starts processing for another front image stored in the frame memory 77. In the present embodiment, the control unit 70 determines that the super-resolution processing has been completed when the processing has been completed for all front images stored in the frame memory 77.

以上のようにして、制御部70は、超解像度処理用の画像として適正であると判定された正面像において位置ずれ検出及び位置ずれ補正の処理を繰り返し、低解像度の画像(図7(a)参照)に超解像度処理を行うことによって、高解像度の画像(図7(b)参照)を作成する。図7は眼底画像に超解像処理を施した実験例を示す図であり、取得された眼底画像の一部を拡大した画像である。図7(a)は低解像度の拡大図であり、図7(b)は超解像度の拡大図である。これらの図を比較した場合、図7(a)の画像は解像度が低いが、図7(b)の画像は、ズームされた画像であっても、超解像処理によって鮮明な画像が得られている。   As described above, the control unit 70 repeats the positional deviation detection and positional deviation correction processing in the front image determined to be appropriate as the image for super-resolution processing, so that the low-resolution image (FIG. 7A). A high-resolution image (see FIG. 7B) is created by performing super-resolution processing on (see). FIG. 7 is a diagram illustrating an experimental example in which super-resolution processing is performed on the fundus image, and is an image obtained by enlarging a part of the acquired fundus image. FIG. 7A is an enlarged view of a low resolution, and FIG. 7B is an enlarged view of a super resolution. When these figures are compared, the image in FIG. 7A has a low resolution, but the image in FIG. 7B can be obtained by a super-resolution process even if it is a zoomed image. ing.

本実施形態においては、基準画像に対して、フレームメモリ77に記憶された最大10枚の正面像が処理される。そして、最大11枚の正面像(基準画像を含む)から1枚の高解像度の正面像を作成する。なお、本実施形態においては、フレームメモリ77に記憶されている正面像の全てを超解像度処理の対象として超解像度処理する構成としたがこれに限定されない。複数の画像で高解像度の正面像を作成する構成であれよい。例えば、基準画像から新しいものから順に5枚の超解像度処理を行うとしてもよい。すなわち、フレームメモリ77内に記憶されている全正面像を用いる必要はない。もちろん、超解像度処理は新しいものから順に行う必要はなく、基準画像と相関値が高いものを選択しておこなってもよい。なお、観察画像の解像度を2倍にする場合には、少なくとも4枚の画像を用いて超解像度処理を行うことが好ましい。   In the present embodiment, up to 10 front images stored in the frame memory 77 are processed for the reference image. Then, one high-resolution front image is created from a maximum of 11 front images (including the reference image). In the present embodiment, all the front images stored in the frame memory 77 are subjected to super-resolution processing as a target of super-resolution processing, but the present invention is not limited to this. It may be configured to create a high-resolution front image with a plurality of images. For example, five super-resolution processes may be performed in order from the newest one from the reference image. That is, it is not necessary to use the full front image stored in the frame memory 77. Of course, the super-resolution processing does not need to be performed in order from the newest one, and may be performed by selecting one having a high correlation value with the reference image. In addition, when doubling the resolution of the observation image, it is preferable to perform super-resolution processing using at least four images.

作成された高解像度の正面像は、モニタ75上に表示される。そして、制御部70は、新たに正面像を取得した際に、逐次、新たに高解像度の正面像を作成し、モニタ75上に表示する。これにより、モニタ75上に表示される高解像度の正面像が更新されていき正面像の高解像度の正面像が動画像として表示される。   The created high-resolution front image is displayed on the monitor 75. Then, when a new front image is acquired, the control unit 70 sequentially creates a new high-resolution front image and displays it on the monitor 75. As a result, the high-resolution front image displayed on the monitor 75 is updated, and the high-resolution front image of the front image is displayed as a moving image.

そして、検者により、所望の位置にて、図無き撮影スイッチが操作されると、モニタ75上に表示されている高解像度の正面像が静止画として、メモリ72に記憶される。これにより、撮影後にも、高解像度の正面像にて解析を行うことができ、解析の精度を向上させることができる。なお、取得される正面像は、モニタ75表示されている高解像度の正面像でもよいし、超解像度処理の行われていない最新の正面像でもよい。   When the examiner operates a photographing switch (not shown) at a desired position, the high-resolution front image displayed on the monitor 75 is stored in the memory 72 as a still image. Thereby, even after imaging, analysis can be performed with a high-resolution front image, and the accuracy of analysis can be improved. The acquired front image may be a high-resolution front image displayed on the monitor 75, or may be a latest front image that has not been subjected to super-resolution processing.

<高解像度の正面像の更新>
ここで、高解像度の正面像の更新について、図8に示すフローチャート用いて、より具体的に説明していく。
<Updating high-resolution front image>
Here, the update of the high-resolution front image will be described more specifically using the flowchart shown in FIG.

OCT光学系100によって新たに正面像が1フレーム分取得された後、取得された正面像が適正と判定され、フレームメモリ77に正面像が記憶されると、高解像度の正面像が更新される。すなわち、制御部70は、フレームメモリ77内に記憶された複数の正面像が所定枚数に達した場合に、過去に取得された観察画像を消去し、新たに取得された正面像と入れ換えを行う。   After the front image is newly acquired for one frame by the OCT optical system 100, the acquired front image is determined to be appropriate, and when the front image is stored in the frame memory 77, the high-resolution front image is updated. . That is, when the plurality of front images stored in the frame memory 77 reaches a predetermined number, the control unit 70 deletes the observation image acquired in the past and replaces it with the newly acquired front image. .

以下、フレームメモリ77内の正面像の更新について説明する。本実施形態においては、メモリ75に記憶可能な撮影画像の最大枚数が10枚であり、新たに正面像(11枚目に記憶される正面像)を取得した場合には、フレームメモリ77に記憶させることができない。このため、図9に示すように、新規に正面像F11が取得された場合、過去の正面像(例えば、もっとも過去の正面像F1)を削除し、正面像F10の次に新規の正面像F11を記憶する。これにより、過去の正面像が削除され、フレームメモリ77の容量が確保される。このようにして、フレームメモリ77に記憶されている正面像の更新が行われる。   Hereinafter, the update of the front image in the frame memory 77 will be described. In the present embodiment, the maximum number of photographed images that can be stored in the memory 75 is 10, and when a new front image (front image stored in the eleventh image) is newly acquired, it is stored in the frame memory 77. I can't let you. For this reason, as shown in FIG. 9, when the front image F11 is newly acquired, the past front image (for example, the oldest front image F1) is deleted, and the new front image F11 next to the front image F10. Remember. Thereby, the past front image is deleted, and the capacity of the frame memory 77 is secured. In this way, the front image stored in the frame memory 77 is updated.

以上のようにして、フレームメモリ77に記憶されている正面像が更新されると、制御部70は、フレームメモリ77に記憶された10枚の正面像(例えば、正面像F2〜正面像F11)を用いて、基準画像に対して超解像度処理を行っていき、新たに高解像度の正面像を作成する。   When the front image stored in the frame memory 77 is updated as described above, the control unit 70 displays ten front images (for example, the front image F2 to the front image F11) stored in the frame memory 77. Is used to perform super-resolution processing on the reference image, and a new high-resolution front image is created.

高解像度の正面像の作成は、上記記載の方法と同様にして行われる。なお、新たに正面像が更新された場合には、超解像度処理の基準画像として、最新の正面像F11が設定される。そして、基準画像に対して、フレームメモリ77内に記憶されている全ての各正面像(F2〜F10)の処理(ずれ検出、適正判定、超解像度処理)が行われていく。   Creation of a high-resolution front image is performed in the same manner as described above. When the front image is newly updated, the latest front image F11 is set as the reference image for super-resolution processing. Then, processing of all front images (F2 to F10) stored in the frame memory 77 (shift detection, appropriateness determination, super resolution processing) is performed on the reference image.

制御部70は、新たに高解像度の正面像を作成すると、モニタ75に表示をする。すなわち、過去の高解像度の正面像を新たに作成した高解像度の正面像に置き換えることによって、モニタ75上に表示される高解像度の正面像が更新される。そして、新しい正面像を取得するたびに、高解像度の正面像を更新することにより、モニタ75上で高解像度の正面像の動画像を観察することが可能となる。   When the controller 70 newly creates a high-resolution front image, the controller 70 displays it on the monitor 75. That is, the high-resolution front image displayed on the monitor 75 is updated by replacing the past high-resolution front image with the newly created high-resolution front image. Each time a new front image is acquired, the high-resolution front image is updated, so that a moving image of the high-resolution front image can be observed on the monitor 75.

以上のようにして、モニタ75上に正面像の高解像度の正面像が動画像として表示される。そして、モニタ75上に表示される正面像は高解像度の正面像であるため、明瞭な画像となる。これにより、超解像度処理によって、正面像が高解像度化され、モニタ75上で、画質が向上した明瞭な正面像を観察できるようになる。さらに、ノイズ等を除去することが可能となる。また、超解像度処理をリアルタイムに行っていくことによって、モニタ75上には、常時、画質の向上した明瞭な正面像が動画像として表示される。このため、検者は、モニタ75上の画像を観察しながら、好適に病変部の観察等を行うことが可能となる。   As described above, a high-resolution front image of the front image is displayed on the monitor 75 as a moving image. And since the front image displayed on the monitor 75 is a high-resolution front image, it becomes a clear image. Thereby, the resolution of the front image is increased by the super-resolution processing, and a clear front image with improved image quality can be observed on the monitor 75. Furthermore, noise and the like can be removed. Further, by performing the super-resolution processing in real time, a clear front image with improved image quality is always displayed on the monitor 75 as a moving image. Therefore, the examiner can appropriately observe the lesioned part while observing the image on the monitor 75.

<変容例>
なお、本実施形態においては、フレームメモリ77に記憶されている超解像度処理に用いるための正面像が所定枚数に到達した場合に、新たに取得された正面像に対して、超解像度処理を開始していく構成としたがこれに限定されない。例えば、図10のフローチャートに示すように、OCT光学系100によって正面像の取得を開始してから、直ちに超解像度処理を開始する構成でもよい。
<Transformation example>
In the present embodiment, when the predetermined number of front images for use in super resolution processing stored in the frame memory 77 has reached a predetermined number, super resolution processing is started on the newly acquired front image. However, the present invention is not limited to this. For example, as shown in the flowchart of FIG. 10, the super-resolution processing may be started immediately after the front image acquisition is started by the OCT optical system 100.

制御部70は、位置ずれの検出とともに、新たに取得された正面像と時系列に取得された複数の正面像との超解像度処理の適否を判定処理する。そして、制御部70は、適正と判定された場合、新たに取得された正面像含む超解像度処理によって取得された高解像度の正面像をモニタ75上に表示させ、適正でないと判定された場合、新たに取得された正面像をモニタ75上に表示する。   The control unit 70 determines whether or not the super-resolution processing of the newly acquired front image and the plurality of front images acquired in time series is appropriate along with the detection of the positional deviation. Then, when it is determined that the control unit 70 is appropriate, the control unit 70 causes the high-resolution front image acquired by the super-resolution processing including the newly acquired front image to be displayed on the monitor 75. The newly acquired front image is displayed on the monitor 75.

この場合、新しい正面像が取得されると、この正面像が超解像度処理を行うための基準画像として設定される。そして、基準画像に対して超解像度処理を行う。このとき、新しく取得された正面像(基準画像)とフレームメモリ77に記憶された正面像との間の超解像度処理の適否について判定される。例えば、前述のように、フレームメモリ77に記憶された各正面像と、新たに取得された正面像との間の相関値に基づいて、適否が判定される。なお、本実施形態においては、基準画像に対する超解像度処理の適否の判定を相関値に基づいて行ったがこれに限定されない。正面像を形成する信号により適否を判定してもよい。例えば、新たに取得された正面像の信号強度(例えば、上記評価値V)、正面像を形成するAスキャンの輝度情報、正面像を形成する干渉信号によって取得される断層像を用いて適否が判定されてもよい。   In this case, when a new front image is acquired, this front image is set as a reference image for performing super-resolution processing. Then, super-resolution processing is performed on the reference image. At this time, it is determined whether or not the super-resolution processing between the newly acquired front image (reference image) and the front image stored in the frame memory 77 is appropriate. For example, as described above, suitability is determined based on the correlation value between each front image stored in the frame memory 77 and the newly acquired front image. In the present embodiment, the suitability of the super-resolution processing for the reference image is determined based on the correlation value, but the present invention is not limited to this. Suitability may be determined by a signal for forming a front image. For example, whether the signal intensity (for example, the evaluation value V) of the newly acquired front image, the luminance information of the A scan that forms the front image, or the tomographic image acquired by the interference signal that forms the front image is appropriate. It may be determined.

初めて取得された正面像(1枚目の正面像)の場合、超解像度処理されない状態でモニタ75上に表示される。次いで、2枚目の正面像が取得されると、まず、1枚目の正面像が適正か否か(例えば、上記評価値V)が判定され、適正と判定されると、フレームメモリ77に記憶され、適正でないと判定されると正面像は破棄される。   In the case of a front image (first front image) acquired for the first time, it is displayed on the monitor 75 without being subjected to super-resolution processing. Next, when the second front image is acquired, it is first determined whether or not the first front image is appropriate (for example, the evaluation value V). If it is stored and it is determined that it is not appropriate, the front image is discarded.

例えば、1枚目の正面像がフレームメモリ77に記憶されると、制御部70は、2枚目の正面像を基準画像として、1枚目の正面像との超解像度処理の適否を判定する。そして、超解像度処理が適正と判定された場合に、2枚目の画像を基準画像として超解像度処理させる。そして、2枚目の正面像を含む高解像度の正面像をモニタ75上に表示させる。超解像度処理が適正でないと判定された場合、2枚目の正面像が超解像度処理しない状態にて、モニタ75上に表示される。   For example, when the first front image is stored in the frame memory 77, the control unit 70 determines the suitability of the super-resolution processing with the first front image using the second front image as a reference image. . When it is determined that the super-resolution processing is appropriate, the super-resolution processing is performed using the second image as a reference image. Then, a high-resolution front image including the second front image is displayed on the monitor 75. When it is determined that the super-resolution processing is not appropriate, the second front image is displayed on the monitor 75 in a state where the super-resolution processing is not performed.

次いで、3枚目の正面像が取得されると、まず、2枚目の正面像が適正か否かが判定され、適正と判定されると、フレームメモリ77に記憶され、適正でないと判定されると、その正面像は破棄される。   Next, when the third front image is acquired, it is first determined whether or not the second front image is appropriate. If it is determined to be appropriate, it is stored in the frame memory 77 and determined not to be appropriate. Then, the front image is discarded.

次に、制御部70は、3枚目の正面像を基準画像として、1枚目と2枚目の正面像との超解像度処理の適否を判定する。そして、適正と判定された場合、3枚目の画像を基準画像として超解像度処理させる。そして、3枚目の正面像を含む高解像度の正面像をモニタ75上に表示させる。超解像度処理が適正でないと判定された場合、3枚目の正面像が超解像度処理しない状態にて、モニタ75上に表示される。   Next, the control unit 70 determines the suitability of the super-resolution processing of the first and second front images using the third front image as a reference image. If it is determined to be appropriate, the third image is subjected to super-resolution processing using the reference image as a reference image. Then, a high-resolution front image including the third front image is displayed on the monitor 75. When it is determined that the super-resolution processing is not appropriate, the third front image is displayed on the monitor 75 in a state where the super-resolution processing is not performed.

以上のように処理を繰り返すことにより、モニタ75上には、最新の状態の正面像を基準とする高解像度の正面像、又は最新の状態の正面像がそのまま表示される。このようにすれば、被検眼が大きく動いたり、瞬きをした場合、超解像度処理を経ずに最新の正面像が表示されるため、被検眼の状態をリアルタイムで観察できる。   By repeating the processing as described above, the high-resolution front image based on the latest front image or the latest front image is displayed on the monitor 75 as it is. In this way, when the eye to be examined moves greatly or blinks, the latest front image is displayed without performing super-resolution processing, so that the state of the eye to be examined can be observed in real time.

一方、被検眼が大きく動いたり、瞬きをした場合、時系列にて取得された複数の正面像に基づく高解像度の正面像が表示されると、過去に取得された複数の正面像を中心とする高解像度の正面像が構築されるため、実際の被検眼の状態とは異なる画像となり、被検眼の現状がリアルタイムで把握できない可能性がある。このような点で、上記処理は有用である。   On the other hand, when the eye to be examined moves greatly or blinks, when a high-resolution front image based on a plurality of front images acquired in time series is displayed, a plurality of front images acquired in the past are centered. Therefore, there is a possibility that the actual state of the eye to be examined cannot be grasped in real time because the high-resolution front image is constructed. In this respect, the above processing is useful.

もちろん、最新の正面像を含む高解像度の正面像を随時取得し、超解像度処理が適正でないと判定されたとき、最新の正面像をモニタ75に直接的に表示する制御であっても、同様の効果が得られる。   Of course, even if the control is such that a high-resolution front image including the latest front image is acquired at any time and the super-resolution processing is determined to be inappropriate, the latest front image is directly displayed on the monitor 75. The effect is obtained.

なお、正面像が適正か否かの判定において、適正でないと判定された正面像は、高解像度の正面像の作成には利用されないので、2枚目以降に取得された正面像について、高解像度の正面像作成するためにフレームメモリ77に記憶された正面像と、新たに取得された正面像との間で超解像度処理が行われる。したがって、2枚目以降であっても、高解像度の正面像を得るための正面像がフレームメモリ77に記憶されていなければ、基準画像がモニタ75上に表示される。   In addition, in the determination of whether or not the front image is appropriate, the front image determined to be inappropriate is not used for creating a high-resolution front image. In order to create the front image, super-resolution processing is performed between the front image stored in the frame memory 77 and the newly acquired front image. Therefore, the reference image is displayed on the monitor 75 if the front image for obtaining the high-resolution front image is not stored in the frame memory 77 even after the second image.

上記説明では、眼底正面像を例に挙げて説明をしたが、撮影光学系によって、被検眼眼底で反射した光束を受光し、眼底像を取得する構成であればよい。例えば、OCT光学系100を用いて、断層画像を観察画像として取得する場合であっても、上記手法の適用は可能である。この場合、1フレームの断層画像を取得する時間は、0.03s〜1.0s程度となるが、上記記載の固視微動(特に、トレモアやドリフト)によって各画像にサブピクセル単位のずれが生じるため、超解像度処理を行うことができる。なお、同一部位に関する複数の断層画像に基づいて超解像度断層像を得る場合、好ましくは、測定光の走査位置を眼底上においてトラッキングさせるためのトラッキングユニットが設けられる。例えば、眼底の正面像を得る正面像取得ユニット(例えば、SLO、赤外眼底カメラ)がOCT光学系100とは別に設けられる。制御部70は、正面像取得ユニットから出力される画像に基づいて各画像間の走査位置のずれを検出する。制御部70は、その検出結果に基づいて光スキャナ108の駆動を制御し、位置ずれがキャンセルされるように測定光の走査位置を補正する。なお、上記トラッキングを用いても、サブピクセル単位でのずれは生じるため、超解像度画像の作成が可能である。もちろん、トラッキングユニットがサブピクセル単位でのトラッキングが可能であれば、制御部70は、断層画像のフレーム毎に、光スキャナ108による走査位置をサブピクセル単位でずらしてもよい。   In the above description, the fundus front image is described as an example. However, any configuration may be used as long as the imaging optical system receives the light beam reflected from the fundus of the subject's eye and acquires the fundus image. For example, even when a tomographic image is acquired as an observation image using the OCT optical system 100, the above method can be applied. In this case, the time for acquiring a tomographic image of one frame is about 0.03 s to 1.0 s. However, a shift in sub-pixel units occurs in each image due to the above-described fixation fine movement (especially tremor or drift). Therefore, super-resolution processing can be performed. When obtaining a super-resolution tomographic image based on a plurality of tomographic images related to the same part, a tracking unit for tracking the scanning position of the measurement light on the fundus is preferably provided. For example, a front image acquisition unit (for example, SLO, infrared fundus camera) that obtains a front image of the fundus is provided separately from the OCT optical system 100. The control unit 70 detects the shift of the scanning position between the images based on the image output from the front image acquisition unit. The controller 70 controls the driving of the optical scanner 108 based on the detection result, and corrects the scanning position of the measurement light so that the positional deviation is canceled. Even if the tracking is used, a shift in sub-pixel units occurs, so that a super-resolution image can be created. Of course, if the tracking unit is capable of tracking in units of subpixels, the control unit 70 may shift the scanning position by the optical scanner 108 in units of subpixels for each frame of the tomographic image.

本実施形態の装置は、低解像度の眼底の3次元断層像を複数取得し、複数取得された3次元断層像に基づいて超解像3次元断層像を作成してもよい。例えば、制御部90は、各3次元断層像に関して、3次元断層像を形成するデータ(スペクトルデータ、断層データ)に基づいて深さ方向に直交する方向に関するOCT二次元画像を作成する。   The apparatus of the present embodiment may acquire a plurality of low-resolution fundus three-dimensional tomographic images and create a super-resolution three-dimensional tomographic image based on the plurality of acquired three-dimensional tomographic images. For example, the control unit 90 creates an OCT two-dimensional image related to a direction orthogonal to the depth direction based on data (spectrum data, tomographic data) forming a three-dimensional tomographic image for each three-dimensional tomographic image.

制御部90は、各3次元断層像に対応して形成されたOCT二次元画像同士をマッチングさせることによって、各3次元断層像間のずれを補正する。さらに、制御部90は、各3次元断層像を処理して、深さ方向に関するずれを補正するのが好ましい。   The control unit 90 corrects the shift between the three-dimensional tomographic images by matching the OCT two-dimensional images formed corresponding to the three-dimensional tomographic images. Furthermore, it is preferable that the control unit 90 processes each three-dimensional tomographic image to correct a shift in the depth direction.

制御部90は、ずれが補正された各3次元画像に基づいて超解像3次元断層像を取得する。例えば、制御部90は、同一部位に関して、3次元断層像を形成する各Bスキャン画像毎に超解像度画像を作成することにより、超解像度画像を得る。これにより、副走査方向に関して走査位置が異なる超解像度画像がそれぞれ取得されるので、制御部70は、これらを配列させることにより超解像3次元断層像を得る。   The control unit 90 acquires a super-resolution three-dimensional tomographic image based on each three-dimensional image whose deviation is corrected. For example, the control unit 90 obtains a super-resolution image by creating a super-resolution image for each B-scan image that forms a three-dimensional tomographic image with respect to the same part. As a result, super-resolution images having different scanning positions in the sub-scanning direction are acquired, and the control unit 70 obtains a super-resolution three-dimensional tomographic image by arranging them.

OCT二次元画像としては、例えば、OCT二次元画像は、XY各点について干渉信号のスペクトル強度(又は深さプロファイル)を積算することによって取得される。OCT二次元画像は、XY各点について干渉信号のスペクトルのゼロクロス点の数を輝度値に変換することによって取得される。   As the OCT two-dimensional image, for example, the OCT two-dimensional image is acquired by integrating the spectrum intensity (or depth profile) of the interference signal for each XY point. The OCT two-dimensional image is acquired by converting the number of zero-cross points of the spectrum of the interference signal for each XY point into a luminance value.

なお、上記実施形態においては、OCT二次元画像を用いたが、もちろん3次元断層像同士でマッチングを行うようにしてもよい。   In the above embodiment, an OCT two-dimensional image is used, but it is also possible to perform matching between three-dimensional tomographic images.

なお、上記説明において、スペクトルメータを用いたスペクトルドメインOCTを例にとって説明したが、これに限定されない。例えば、波長可変光源を備えるSS−OCT(Swept source OCT)やTD−OCT(Time domain OCT)であってもよい。   In the above description, the spectrum domain OCT using a spectrum meter has been described as an example, but the present invention is not limited to this. For example, SS-OCT (Swept source OCT) and TD-OCT (Time domain OCT) provided with a wavelength variable light source may be used.

なお、超解像度処理の際に、正面像の一部に瞬き等による欠損がある場合、欠損部分の領域に関して、超解像度処理を行わないようにしてもよい。この場合、例えば、超解像度処理を行う際に、副走査方向における各走査線の輝度分布を求め、輝度値が所定値以下の走査線が複数あった場合には、超解像度処理しないようにすればよい。これにより、高解像度の正面像の画質がよりよくなる。もちろん、超解像度処理するか否かの判定は、フレームメモリ77に正面像を記憶させるか否かの判定を行う際に行ってもよいし、超解像度処理を行うか否かの判定の際におこなってもよい。評価値Vによって、フレームメモリ77に正面像を記憶させるか否かの判定の際に行う場合に、例えば、正面像を形成する全走査線の評価値Vを判定し、所定の走査線数が所定の評価値Vを取得できなかった場合に、正面像を記憶させないようにしてもよい。   In the case of super resolution processing, if a part of the front image has a defect due to blinking or the like, the super resolution process may not be performed on the region of the defect part. In this case, for example, when performing super-resolution processing, the luminance distribution of each scanning line in the sub-scanning direction is obtained, and if there are a plurality of scanning lines having luminance values equal to or less than a predetermined value, the super-resolution processing is not performed. That's fine. Thereby, the image quality of the high-resolution front image is improved. Of course, the determination of whether or not to perform super-resolution processing may be performed when determining whether or not to store a front image in the frame memory 77, or when determining whether or not to perform super-resolution processing. You may do it. In the case of determining whether or not to store the front image in the frame memory 77 based on the evaluation value V, for example, the evaluation value V of all the scanning lines forming the front image is determined, and a predetermined number of scanning lines is determined. If the predetermined evaluation value V cannot be acquired, the front image may not be stored.

なお、本実施形態においては、OCT光学系100によって取得される眼底正面像を例に挙げて説明をしたが、これに限定されるものではない。観察光学系(撮影光学系)を別途設けて、眼底正面像を取得する構成としてもよい。例えば、観察光学系として、レーザ光を眼底上で走査させる光スキャナを持ち、眼底の正面像を得るために被検眼眼底で反射した光束を受光する走査型眼底撮影光学系を備えたSLOによって取得される眼底画像に対しても適用される。また、眼底カメラ等によって取得される眼底画像に対しても適用される。これらの場合、1フレームの正面像を取得する時間は、0.03s〜1.0s程度となるが、上記記載の固視微動(特に、トレモアやドリフト)によって各画像にサブピクセル単位のずれが生じるため、超解像度処理を行うことができる。   In the present embodiment, the frontal fundus image acquired by the OCT optical system 100 has been described as an example, but the present invention is not limited to this. An observation optical system (shooting optical system) may be separately provided to acquire a fundus front image. For example, the observation optical system has an optical scanner that scans the fundus with laser light, and is acquired by an SLO equipped with a scanning fundus imaging optical system that receives a light beam reflected from the fundus of the subject's eye to obtain a front image of the fundus. This is also applied to the fundus image to be processed. The present invention is also applied to a fundus image acquired by a fundus camera or the like. In these cases, the time for acquiring the front image of one frame is about 0.03 s to 1.0 s, but each image is shifted by subpixel due to the above-mentioned fixation fine movement (especially tremor or drift). As a result, super-resolution processing can be performed.

なお、本実施形態においては、1/10ピクセル単位での超解像度処理について説明したが、更に細かいサブピクセル単位(例えば、1/100ピクセル単位)で行ってもよく、この場合より解像度の高い画像を取得できる。   In the present embodiment, the super-resolution processing in units of 1/10 pixels has been described. However, it may be performed in sub-pixel units (for example, units of 1/100 pixels). Can be obtained.

なお、本実施形態において、超解像度処理は、基準画像の解像度を高解像度化させる構成としたがこれに限定されない。例えば、超解像度処理は、テンプレートに複数の正面像を用いて高解像度の正面像を形成していくものでもよい。この場合、基準画像に基づいて、各正面像間の位置合わせが行われる。   In the present embodiment, the super-resolution processing is configured to increase the resolution of the reference image, but is not limited thereto. For example, the super-resolution processing may form a high-resolution front image using a plurality of front images in the template. In this case, alignment between the front images is performed based on the reference image.

なお、本実施形態においては、新たに正面像を取得した場合に、フレームメモリ77に正面像を記憶させるか否かを判定する構成としたがこれに限定されない。例えば、判定処理を行わない構成としてもかまわない。この場合、超解像度処理の適否を判定処理する際に、基準画像に対して相関値が低くなるため、超解像度処理から除去される。なお、基準画像が瞬き等によるエラー画像であった場合、他の正面像に対して、相関値が低くなる結果となる。このため、判定処理を行った際に、相関値の低い正面像が所定枚数に達した場合には、基準画像をことなる正面像に再設定する。このような構成にすることによって、フレームメモリ77に正面像を記憶させるか否かを判定しなくても、瞬き等によるエラー画像が超解像度処理に利用されることが回避される。   In the present embodiment, when a front image is newly acquired, it is determined whether or not the front image is stored in the frame memory 77. However, the present invention is not limited to this. For example, a configuration in which the determination process is not performed may be used. In this case, when the suitability of the super-resolution process is determined, the correlation value is low with respect to the reference image, and thus the super-resolution process is removed. If the reference image is an error image due to blinking or the like, the correlation value becomes lower than the other front images. For this reason, when the determination process is performed and the number of front images having a low correlation value reaches a predetermined number, the reference image is reset to a different front image. By adopting such a configuration, it is possible to avoid using an error image due to blinking or the like for super-resolution processing without determining whether or not to store a front image in the frame memory 77.

なお、本実施形態においては、観察画像全体で超解像度処理を行う構成としたが、これに限定されない。観察画像を所定領域に分割し、分割領域毎に超解像度処理を行う構成としてもよい。これにより、超解像度処理の処理速度を短縮することができる。   In the present embodiment, the super-resolution processing is performed on the entire observation image. However, the present invention is not limited to this. The observation image may be divided into predetermined regions, and super resolution processing may be performed for each divided region. Thereby, the processing speed of super-resolution processing can be shortened.

本実施形態に係る眼科撮影装置の構成について説明する概略構成図である。It is a schematic block diagram explaining the structure of the ophthalmologic imaging device which concerns on this embodiment. 超解像の概念を示す図である。It is a figure which shows the concept of super-resolution. OCT光学系によって取得された正面像と超解像度処理後の正面像を説明する図である。It is a figure explaining the front image acquired by the OCT optical system, and the front image after a super-resolution process. 超解像度処理によって高解像度の観察画像を生成する場合の制御動作の流れについて説明するフローチャートである。It is a flowchart explaining the flow of control operation | movement in the case of producing | generating a high-resolution observation image by super-resolution processing. 正面像の所定位置における走査線について説明する図である。It is a figure explaining the scanning line in the predetermined position of a front image. 断層像における深さ方向(Aスキャン方向)に走査する複数の走査線について説明する図である。It is a figure explaining the some scanning line scanned in the depth direction (A scan direction) in a tomogram. 低解像度の画像とその低解像度の画像に超解像度処理を行うことよって取得された高解像度の画像を示す図である。It is a figure which shows the high-resolution image acquired by performing a super-resolution process to a low-resolution image and the low-resolution image. 高解像度正面像の更新の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the update of a high-resolution front image. フレームメモリ内の正面像の更新について説明する図である。It is a figure explaining the update of the front image in a frame memory. 超解像度処理の変容例の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the example of a change of a super-resolution process.

70 制御部
72 メモリ
74 コントロール部
75 モニタ
77 フレームメモリ
100 光断層干渉光学系(OCT光学系)
108 光スキャナ
300 固視標投影ユニット
70 Control Unit 72 Memory 74 Control Unit 75 Monitor 77 Frame Memory 100 Optical Tomographic Interference Optical System (OCT Optical System)
108 Optical scanner 300 Fixation target projection unit

Claims (4)

被検眼眼底で反射した光束を受光する撮影光学系を有し、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する眼底撮影手段と、
眼底撮影光学系によって取得された複数の眼底画像データを複合処理することによって、前記画像データの取得時より解像度の高い高解像度画像を取得する画像処理部と、
を備えることを特徴とする眼底撮影装置。
A fundus photographing unit that has a photographing optical system that receives a light flux reflected from the fundus of the subject's eye and acquires fundus image data for a plurality of frames having a shift of less than one pixel;
An image processing unit that obtains a high-resolution image having a higher resolution than that at the time of obtaining the image data by performing composite processing on a plurality of fundus image data obtained by the fundus photographing optical system;
A fundus photographing apparatus comprising:
眼底撮影手段は、各フレームの眼底画像データを取得する間に生じる被検者眼の固視微動を利用して、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得する請求項1の眼底撮影装置。   The fundus imaging means acquires fundus image data for a plurality of frames having a shift of less than one pixel, using fixation eye movement of a subject's eye that occurs while acquiring fundus image data of each frame. 1 fundus imaging apparatus; 撮影光学系は、測定光を眼底上で走査させる光スキャナを持ち、眼底の断層像を得るために被検眼眼底で反射した光束と参照光が合成された光を受光する光断層干渉光学系、レーザ光を眼底上で走査させる光スキャナを持ち、眼底の正面像を得るために被検眼眼底で反射した光束を受光する走査型眼底撮影光学系のいずれかである請求項1〜2のいずれかの眼底撮影装置。   The imaging optical system has an optical scanner that scans measurement light on the fundus, and an optical tomographic interference optical system that receives light in which the light beam reflected from the fundus of the eye to be examined and the reference light are combined in order to obtain a tomographic image of the fundus. The scanning fundus photographing optical system according to any one of claims 1 to 2, wherein the scanning fundus photographing optical system has an optical scanner that scans the fundus with laser light and receives a light beam reflected by the fundus of the eye to be examined in order to obtain a front image of the fundus. Fundus photographing device. 眼底撮影手段は、1画素未満のずれを有する複数のフレーム分の眼底画像データを取得ため、各フレームの眼底画像を得る毎に眼底上の走査位置を変更する駆動手段を備える請求項3のいずれかの眼底撮影装置。   The fundus imaging means includes driving means for changing a scanning position on the fundus every time a fundus image of each frame is obtained in order to acquire fundus image data for a plurality of frames having a shift of less than one pixel. Fundus photography device.
JP2011173028A 2011-08-08 2011-08-08 Fundus photographing device Expired - Fee Related JP5948757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011173028A JP5948757B2 (en) 2011-08-08 2011-08-08 Fundus photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011173028A JP5948757B2 (en) 2011-08-08 2011-08-08 Fundus photographing device

Publications (3)

Publication Number Publication Date
JP2013034658A true JP2013034658A (en) 2013-02-21
JP2013034658A5 JP2013034658A5 (en) 2014-09-11
JP5948757B2 JP5948757B2 (en) 2016-07-06

Family

ID=47884863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011173028A Expired - Fee Related JP5948757B2 (en) 2011-08-08 2011-08-08 Fundus photographing device

Country Status (1)

Country Link
JP (1) JP5948757B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014173919A (en) * 2013-03-07 2014-09-22 Seiko Epson Corp Spectroscopy measuring device
WO2015129909A1 (en) 2014-02-28 2015-09-03 Canon Kabushiki Kaisha Apparatus, method, and program for processing image
WO2015182632A1 (en) * 2014-05-28 2015-12-03 興和株式会社 Image-processing device, image processing method, and image-processing program
WO2015182633A1 (en) * 2014-05-28 2015-12-03 興和株式会社 Image-processing device, image processing method, and image-processing program
JP2016512712A (en) * 2013-03-15 2016-05-09 バードナー,スティーブン Method for detecting amyloid beta plaques and drusen
JP2016198280A (en) * 2015-04-10 2016-12-01 株式会社トーメーコーポレーション Ophthalmologic apparatus and control method of the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05276452A (en) * 1992-03-24 1993-10-22 Nippon Telegr & Teleph Corp <Ntt> Image pickup device
JP2007060437A (en) * 2005-08-25 2007-03-08 Canon Inc Recording and reproducing apparatus, recording and reproducing method, and computer program
JP2009502220A (en) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト Apparatus and method for observing, recording and / or diagnosing the fundus
JP2011135933A (en) * 2009-12-25 2011-07-14 Nidek Co Ltd Retinal function measuring apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05276452A (en) * 1992-03-24 1993-10-22 Nippon Telegr & Teleph Corp <Ntt> Image pickup device
JP2009502220A (en) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト Apparatus and method for observing, recording and / or diagnosing the fundus
JP2007060437A (en) * 2005-08-25 2007-03-08 Canon Inc Recording and reproducing apparatus, recording and reproducing method, and computer program
JP2011135933A (en) * 2009-12-25 2011-07-14 Nidek Co Ltd Retinal function measuring apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014173919A (en) * 2013-03-07 2014-09-22 Seiko Epson Corp Spectroscopy measuring device
JP2016512712A (en) * 2013-03-15 2016-05-09 バードナー,スティーブン Method for detecting amyloid beta plaques and drusen
WO2015129909A1 (en) 2014-02-28 2015-09-03 Canon Kabushiki Kaisha Apparatus, method, and program for processing image
US10102621B2 (en) 2014-02-28 2018-10-16 Canon Kabushiki Kaisha Apparatus, method, and program for processing image
WO2015182632A1 (en) * 2014-05-28 2015-12-03 興和株式会社 Image-processing device, image processing method, and image-processing program
WO2015182633A1 (en) * 2014-05-28 2015-12-03 興和株式会社 Image-processing device, image processing method, and image-processing program
JPWO2015182633A1 (en) * 2014-05-28 2017-04-20 興和株式会社 Image processing apparatus, image processing method, and image processing program
JPWO2015182632A1 (en) * 2014-05-28 2017-04-20 興和株式会社 Image processing apparatus, image processing method, and image processing program
JP2016198280A (en) * 2015-04-10 2016-12-01 株式会社トーメーコーポレーション Ophthalmologic apparatus and control method of the same

Also Published As

Publication number Publication date
JP5948757B2 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP6551081B2 (en) Ophthalmic imaging apparatus and ophthalmologic imaging program
JP6217085B2 (en) Ophthalmic imaging equipment
JP5790002B2 (en) Ophthalmic imaging equipment
JP6115073B2 (en) Ophthalmic photographing apparatus and ophthalmic photographing program
JP6606881B2 (en) OCT signal processing apparatus, OCT signal processing program, and OCT apparatus
US10582850B2 (en) OCT motion contrast acquisition method and optical coherence tomography device
JP6402902B2 (en) Optical coherence tomography apparatus and optical coherence tomography calculation program
JP6402901B2 (en) Optical coherence tomography apparatus, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP2012115578A (en) Ophthalmologic photographing apparatus
JP2014140488A (en) Ophthalmological photographic equipment and ophthalmological photographic program
JP5948757B2 (en) Fundus photographing device
JP2016010656A (en) Optical coherence tomography device, optical coherence tomography calculation method and optical coherence tomography calculation program
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
JP2017046976A (en) Ophthalmic imaging apparatus and ophthalmic imaging program
JP6188339B2 (en) Optical tomographic imaging apparatus and control method thereof
JP2017158836A (en) Ophthalmologic apparatus and imaging method
JP6402879B2 (en) Ophthalmic imaging equipment
JP5948739B2 (en) Fundus photographing device
JP6260733B2 (en) Ophthalmic photographing apparatus and ophthalmic photographing program
JP5990932B2 (en) Ophthalmic tomographic imaging system
JP5987355B2 (en) Ophthalmic tomographic imaging system
JP6544071B2 (en) Optical coherence tomography apparatus and optical coherence tomography control program
US20210049742A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5975155B2 (en) Ophthalmic imaging equipment
JP2018089305A (en) Ophthalmic apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5948757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees