JP2016104304A - Ophthalmological imaging device and ophthalmological image processing device - Google Patents

Ophthalmological imaging device and ophthalmological image processing device Download PDF

Info

Publication number
JP2016104304A
JP2016104304A JP2016039648A JP2016039648A JP2016104304A JP 2016104304 A JP2016104304 A JP 2016104304A JP 2016039648 A JP2016039648 A JP 2016039648A JP 2016039648 A JP2016039648 A JP 2016039648A JP 2016104304 A JP2016104304 A JP 2016104304A
Authority
JP
Japan
Prior art keywords
image
unit
follow
imaging
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016039648A
Other languages
Japanese (ja)
Other versions
JP6106299B2 (en
Inventor
祥聖 森口
Yoshikiyo Moriguchi
祥聖 森口
秋葉 正博
Masahiro Akiba
正博 秋葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2016039648A priority Critical patent/JP6106299B2/en
Publication of JP2016104304A publication Critical patent/JP2016104304A/en
Application granted granted Critical
Publication of JP6106299B2 publication Critical patent/JP6106299B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To quantitatively evaluate the degree of an error in follow-up imaging using OCT measurement.SOLUTION: An ophthalmological imaging device is used in follow-up imaging for acquiring a tomographic image by referring to a front image of a subject eye acquired in the past and scanning the same position as the past image with light, and comprises: an imaging part which acquires the front image of the subject eye; a tomographic image formation part which forms the tomographic image by scanning the subject eye with light; a storage part which stores the first front image of the subject eye and the second front image acquired in follow-up imaging performed by referring to the first front image; an information acquisition part which acquires positional deviation information between the front and second images by analyzing the first and second front images; and a calculation part which calculates an evaluation value of an error at the scanning position in the follow-up imaging on the basis of the positional deviation information. The storage part stores the front images obtained first and last in a period in which scanning with light is performed in the follow-up imaging as the second front images.SELECTED DRAWING: Figure 3

Description

この発明は、眼科撮影装置及び眼科画像処理装置に関する。   The present invention relates to an ophthalmologic photographing apparatus and an ophthalmic image processing apparatus.

光の走査を用いて被検眼を画像化する装置としては、近年、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。   In recent years, optical coherence tomography (OCT) has attracted attention as an apparatus for imaging an eye to be examined using light scanning. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.

特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。   Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional tomographic image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. Note that this technique is also called a spectral domain.

特許文献2には、信号光を水平方向(x方向)及び垂直方向(y方向)に走査することにより水平方向の2次元断層像を複数形成し、これら複数の断層像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化としては、たとえば、複数の断層像を垂直方向に並べて表示させる方法や(スタックデータなどと呼ばれる)、スタックデータに基づくボリュームデータ(ボクセルデータ)にレンダリング処理を施して3次元画像を形成する方法などがある。   In Patent Document 2, a plurality of horizontal two-dimensional tomographic images are formed by scanning signal light in the horizontal direction (x direction) and the vertical direction (y direction), and the measurement range is determined based on the plurality of tomographic images. A technique for acquiring and imaging three-dimensional tomographic information is disclosed. As this three-dimensional imaging, for example, a method of displaying a plurality of tomographic images side by side in a vertical direction (referred to as stack data or the like), volume data (voxel data) based on the stack data is rendered, and a three-dimensional image is rendered. There is a method of forming.

特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。   Patent Documents 3 and 4 disclose other types of OCT apparatuses. In Patent Document 3, the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution. And an OCT apparatus for imaging the form of an object to be measured by performing Fourier transform on the obtained image. Such an OCT apparatus is called a swept source type. The swept source type is a kind of Fourier domain type.

また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full−field)タイプ、或いはインファス(en−face)タイプなどと呼ばれる。   In Patent Document 4, the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light. An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.

特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラ、スリットランプ、SLO(Scanning Laser Ophthalmoscope)などが使用されていた(たとえば特許文献6、特許文献7、特許文献8を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。SLOは、レーザー光で眼底を走査し、その反射光を光電子増倍管等の高感度な素子で検出することにより眼底表面の形態を画像化する装置である。   Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field. Prior to the application of OCT, a fundus camera, a slit lamp, an SLO (Scanning Laser Ophthalmoscope), and the like were used as devices for observing the eye to be examined (for example, Patent Document 6, Patent Document 7, and Patent Document). 8). A fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light. A slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light. The SLO is an apparatus that images the fundus surface by scanning the fundus with laser light and detecting the reflected light with a highly sensitive element such as a photomultiplier tube.

OCTを用いた装置は、高精細の画像を取得できる点、更には断層像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。   An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a tomographic image or a three-dimensional image can be acquired.

このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。   As described above, an apparatus using OCT can be applied to observation of various parts of an eye to be examined, and can acquire high-definition images, and thus has been applied to diagnosis of various ophthalmic diseases.

ところで、各種の医療分野において、被検体の同一部位を繰り返し検査することが行われている(フォローアップなどと呼ばれる)。その例として経過観察や術前術後観察がある。フォローアップに関して眼科分野に特有の問題がある。すなわち、検査対象である被検眼の眼球運動(固視微動、回旋等)の影響により、同一部位の検査が困難なことである。特に、被検眼を光で走査するタイプの撮影装置において、過去と同じ走査位置を再現することは極めて困難である。   By the way, in various medical fields, the same part of the subject is repeatedly examined (referred to as follow-up). Examples include follow-up and pre- and post-operative observations. There are problems specific to ophthalmology regarding follow-up. That is, it is difficult to inspect the same part due to the influence of eye movement (fixed eye movement, rotation, etc.) of the eye to be inspected. In particular, in an imaging apparatus that scans the eye to be examined with light, it is extremely difficult to reproduce the same scanning position as in the past.

このようなフォローアップ撮影の問題に対して適用可能な技術として特許文献9−11に記載されたものが知られている。   A technique described in Patent Document 9-11 is known as a technique applicable to such a problem of follow-up photography.

特許文献9に記載の発明は、回転移動を含む眼底画像間の位置ずれをスムースに検出することを目的とする。そのために、当該発明は、各眼底画像から切り出された複数の小領域画像を照合することにより、眼底画像間の位置ずれ量を検出するように構成されている。   An object of the invention described in Patent Document 9 is to smoothly detect a positional shift between fundus images including rotational movement. Therefore, the present invention is configured to detect the amount of positional deviation between fundus images by collating a plurality of small region images cut out from each fundus image.

特許文献10に記載の発明は、眼底上の同じ断層部位を連続的に計測することで、人眼の網膜内因性信号を好適に検出することを目的としている。そのために、当該発明は、測定光束で眼底を走査しながら第2の光束を眼底に照射し検出することで走査位置のずれを検出し、その検出結果に基づき第2の光スキャナを制御することで測定光束の走査位置を随時補正するように構成されている。また、走査位置のずれの検出において、眼底正面画像中の特徴的領域に基づくテンプレートマッチングを利用することも記載されている。   An object of the invention described in Patent Document 10 is to suitably detect the retinal intrinsic signal of the human eye by continuously measuring the same tomographic site on the fundus. For this purpose, the present invention detects the shift of the scanning position by irradiating the fundus with the second light beam and detecting it while scanning the fundus with the measurement light beam, and controls the second optical scanner based on the detection result. Thus, the scanning position of the measurement light beam is corrected as needed. In addition, it is also described that template matching based on a characteristic region in the fundus front image is used in detection of a scanning position shift.

特許文献11に記載の発明は、被検眼の眼球運動にかかわらず眼底上の所定位置に正確に光束を照射することを目的としている。そのために、当該発明は、眼底正面画像に基づいて走査光の画角情報と眼底の位置ずれ情報を検出し、これら情報に基づいて走査光の走査位置を補正するように構成されている。   An object of the invention described in Patent Document 11 is to accurately irradiate a light beam at a predetermined position on the fundus regardless of the eye movement of the eye to be examined. Therefore, the present invention is configured to detect the angle-of-view information of the scanning light and the positional deviation information of the fundus based on the fundus front image, and correct the scanning position of the scanning light based on these information.

特開平11−325849号公報JP 11-325849 A 特開2002−139421号公報JP 2002-139421 A 特開2007−24677号公報JP 2007-24677 A 特開2006−153838号公報JP 2006-153838 A 特開2008−73099公報JP 2008-73099 A 特開平9−276232号公報JP-A-9-276232 特開2008−259544号公報JP 2008-259544 A 特開2009−11381号公報JP 2009-11811 A 特開2011−50430号公報JP 2011-50430 A 特開2011−115507号公報JP 2011-115507 A 特開2011−212213号公報JP 2011-212213 A

フォローアップ撮影において、その誤差の程度(確度や精度)、つまり異なるタイミングで行われた撮影における走査位置のずれの程度を知ることは、非常に重要である。すなわち、診断を正確に行うためには、フォローアップ撮影が適正に行われたか否か、更にはどの程度の確度や精度でフォローアップ撮影が行われたかを知ることは、非常に重要である。しかしながら、従来の技術においては、フォローアップ撮影の誤差の程度を定量的に評価することは不可能であった。   In follow-up imaging, it is very important to know the degree of error (accuracy and accuracy), that is, the degree of deviation of the scanning position in imaging performed at different timings. That is, in order to accurately perform diagnosis, it is very important to know whether or not follow-up imaging has been performed properly, and to what degree of accuracy and accuracy the follow-up imaging has been performed. However, in the prior art, it was impossible to quantitatively evaluate the degree of error in follow-up photography.

たとえば特許文献9に記載の技術では、眼底画像間の位置ずれ量を検出することは可能であるが、その位置ずれの持つ意味や、フォローアップ撮影の適/不適をユーザに提供することはできない。したがって、その位置ずれに基づいてユーザ自身が判断するしかなかった。しかし、フォローアップ撮影における走査開始点の誤差は通常ミリメートル以下のオーダーであり、フォローアップ撮影の適/不適を目視で判断することは困難である。また、位置ずれには、平行ずれや回転ずれ等、様々な態様があるが、少なくともフォローアップ撮影の適/不適の観点において位置ずれを評価することは不可能であった。   For example, with the technique described in Patent Document 9, it is possible to detect the amount of positional deviation between fundus images, but it is impossible to provide the user with the meaning of the positional deviation and the suitability of follow-up photography. . Therefore, the user has to make a judgment based on the positional deviation. However, the error of the scanning start point in follow-up imaging is usually on the order of millimeters or less, and it is difficult to visually determine whether or not follow-up imaging is appropriate. Moreover, although there are various modes of misalignment such as parallel misalignment and rotational misalignment, it is impossible to evaluate the misalignment at least from the viewpoint of appropriate / inappropriate follow-up photography.

また、特許文献10及び11に記載の技術では、撮影を行いながら位置ずれを検出して走査位置を補正している。しかし、このような補正を行ったとしても、走査位置のずれ、つまりフォローアップ撮影の誤差は、依然として介在する。これら従来技術では、このフォローアップ撮影の誤差を定量的に評価することはできない。   In the techniques described in Patent Documents 10 and 11, the scanning position is corrected by detecting a positional deviation while performing photographing. However, even if such correction is performed, a shift in scanning position, that is, an error in follow-up imaging still exists. These conventional techniques cannot quantitatively evaluate the error in follow-up photography.

この発明は、上記の問題を解決するためになされたものであり、その目的は、フォローアップ撮影の誤差の程度を定量的に評価することが可能な技術を提供することにある。   The present invention has been made to solve the above problems, and an object thereof is to provide a technique capable of quantitatively evaluating the degree of error in follow-up imaging.

実施形態は、過去に取得された被検眼の正面画像を参照し過去と同一位置を光で走査して断層像を取得するためのフォローアップ撮影を行うことが可能な眼科撮影装置であって、被検眼を撮影して正面画像を取得する撮影部と、前記被検眼を光で走査して断層像を形成する断層像形成部と、前記被検眼の第1の正面画像と、前記第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する記憶部と、前記第1の正面画像及び前記第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する情報取得部と、前記位置ずれ情報に基づいて、当該フォローアップ撮影における走査位置の誤差の評価値を算出する算出部とを有し、前記記憶部は、前記第2の正面画像として、当該フォローアップ撮影で前記光の走査が行われた期間において最初に得られた正面画像と最後に得られた正面画像とを記憶することを特徴とする。   An embodiment is an ophthalmologic imaging apparatus capable of performing follow-up imaging for acquiring a tomographic image by scanning a light at the same position as the past with reference to a front image of a subject eye acquired in the past, An imaging unit that captures a subject eye and obtains a front image, a tomographic image formation unit that scans the subject eye with light to form a tomographic image, a first front image of the subject eye, and the first A storage unit that stores a second front image acquired in follow-up photography performed with reference to the front image, and the first front image and the second front image are analyzed, and these front images are analyzed. An information acquisition unit that acquires misalignment information between, and a calculation unit that calculates an evaluation value of a scanning position error in the follow-up imaging based on the misalignment information, and the storage unit As the second front image, the follower And to store the initially obtained front image and the last obtained front image in the period in which the scanning is performed of the light-flop shooting.

この発明によれば、フォローアップ撮影の誤差の程度を定量的に評価することが可能である。   According to the present invention, it is possible to quantitatively evaluate the degree of error in follow-up photography.

実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作を説明するための概略図である。It is the schematic for demonstrating operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科画像処理装置の構成の一例を表す概略ブロック図である。It is a schematic block diagram showing an example of composition of an ophthalmology image processing device concerning an embodiment.

この発明に係る眼科撮影装置及び眼科画像処理装置の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼科撮影装置は、OCTを用いて眼底の断層像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。   An example of an embodiment of an ophthalmologic photographing apparatus and an ophthalmic image processing apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic photographing apparatus according to the present invention forms a tomographic image or a three-dimensional image of the fundus using OCT. In this specification, images acquired by OCT may be collectively referred to as OCT images. In addition, a measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.

以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。特に、実施形態に係る眼科撮影装置は、特許文献5に開示された装置と同様に、スペクトラルドメインOCTの手法を用いて眼底のOCT画像及び眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる眼科撮影装置に対して、この発明に係る構成を適用することも可能である。   In the following embodiment, a configuration to which Fourier domain type OCT is applied will be described in detail. In particular, the ophthalmologic imaging apparatus according to the embodiment can acquire both the OCT image and the fundus image of the fundus using the spectral domain OCT technique, as in the apparatus disclosed in Patent Document 5. The configuration according to the present invention can also be applied to an ophthalmologic photographing apparatus using a method other than the spectral domain, for example, a swept source OCT technique.

また、この実施形態では被検眼の正面画像を撮影するための構成として眼底カメラを適用しているが、SLO、スリットランプ、眼科手術用顕微鏡などの撮影装置を適用することも可能である。なお、被検眼の正面画像は、眼底や前眼部など被検眼の任意の部位を、被検眼に対峙する視点から撮影して得られる画像である。   In this embodiment, a fundus camera is applied as a configuration for capturing a front image of the eye to be examined. However, an imaging apparatus such as an SLO, a slit lamp, or an ophthalmic surgical microscope may be applied. The front image of the eye to be examined is an image obtained by photographing any part of the eye to be examined, such as the fundus or anterior eye portion, from a viewpoint facing the eye to be examined.

また、この発明に係る眼科画像処理装置は、この発明に係る眼科撮影装置の一部として構成することも可能であるし、単体のコンピュータにより構成することも可能であるし、ネットワークを介して接続された2以上のコンピュータにより構成することも可能である。   Moreover, the ophthalmic image processing apparatus according to the present invention can be configured as a part of the ophthalmic imaging apparatus according to the present invention, or can be configured by a single computer, or can be connected via a network. It is also possible to configure with two or more computers.

〈第1の実施形態〉
[構成]
図1及び図2に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
<First Embodiment>
[Constitution]
As shown in FIGS. 1 and 2, the ophthalmologic photographing apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。なお、眼底カメラユニット2により撮影される任意の眼底像は「正面画像」に相当する。また、眼底カメラユニット2は「撮影部」の一例である。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like. An arbitrary fundus image captured by the fundus camera unit 2 corresponds to a “front image”. The fundus camera unit 2 is an example of a “photographing unit”.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。   The observation light source 11 of the illumination optical system 10 is constituted by a halogen lamp, for example. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef. An LED (Light Emitting Diode) can also be used as the observation light source.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。   The imaging light source 15 is constituted by, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.

LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.

更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。   The cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, and is reflected by the mirror 32. The light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。   The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the cornea reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus photography. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。   The galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.

なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。   In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided. In general, for the configuration of the OCT unit 100, a known technique according to the type of optical coherence tomography can be arbitrarily applied.

光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。   The light source unit 101 outputs a broadband low-coherence light L0. The low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source unit 101 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。   The low-coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the signal light LS and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The reference light LR is guided by the optical fiber 104 and reaches the optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   The signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.

ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the backscattered light of the signal light LS to interfere with the reference light LR that has passed through the optical fiber 104. The interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. Although the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。   The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, in place of the CCD image sensor, another form of image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。   The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。   As control of the OCT unit 100, the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, etc., as in a conventional computer. A computer program for controlling the ophthalmologic photographing apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more housings. It may be.

〔制御系〕
眼科撮影装置1の制御系の構成について図3及び図4を参照しつつ説明する。
[Control system]
The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIGS. 3 and 4.

ところで、眼科撮影装置1は、フォローアップ撮影及びその後処理を実行可能に構成されている。フォローアップ撮影は、過去に取得された被検眼の正面画像を参照し過去と同一位置を光で走査して断層像を取得するための撮影手法である。また、後処理は、フォローアップ撮影における光の走査位置の誤差を評価する処理を含む。換言すると、後処理は、過去の撮影での走査位置と、この過去の撮影で得られた正面画像に基づくフォローアップ撮影での走査位置との間のずれを評価する処理を含む。なお、実施形態に係る眼科画像処理装置は、この後処理を実行するものである。   Incidentally, the ophthalmologic photographing apparatus 1 is configured to be able to perform follow-up photographing and subsequent processing. Follow-up imaging is an imaging technique for acquiring a tomographic image by scanning the same position as the past with light with reference to the front image of the eye to be examined acquired in the past. Further, the post-processing includes processing for evaluating an error in the light scanning position in follow-up imaging. In other words, the post-processing includes a process for evaluating a shift between a scanning position in past imaging and a scanning position in follow-up imaging based on the front image obtained in the past imaging. The ophthalmic image processing apparatus according to the embodiment executes this post-processing.

制御系について説明する前に、その前提となるフォローアップ撮影について簡単に説明する。フォローアップ撮影において、眼科撮影装置1の各部の制御は制御部210(特に主制御部211)により実行される。   Before explaining the control system, the follow-up shooting which is the premise thereof will be briefly explained. In follow-up imaging, control of each unit of the ophthalmologic imaging apparatus 1 is executed by the control unit 210 (particularly the main control unit 211).

フォローアップ撮影は、過去の撮影での走査位置を再現して今回の撮影を行うものである。その準備段階として、図示しない患者選択画面が表示部240Aに表示される。患者選択画面には、フォローアップ撮影の被検体となる患者を選択するための機能(患者選択部)と、患者情報を表示する機能(患者情報表示部)と、撮影情報を表示する機能(撮影情報表示部)とが設けられている。また、患者選択画面には、各種操作部(ソフトウェアキー)が設けられている。   Follow-up shooting is to perform the current shooting while reproducing the scanning position in the previous shooting. As the preparation stage, a patient selection screen (not shown) is displayed on the display unit 240A. On the patient selection screen, a function for selecting a patient to be a subject for follow-up imaging (patient selection unit), a function for displaying patient information (patient information display unit), and a function for displaying imaging information (imaging) Information display section). Various operation units (software keys) are provided on the patient selection screen.

患者選択部には、検索クエリの入力スペース、撮影日(過去の最終撮影日等)を選択するためのカレンダーなどが設けられている。患者選択部に入力がなされると、制御部210は、情報格納装置(眼科撮影装置1の記憶部212、ネットワーク上のデータベース等)に格納されている患者情報を検索し、その検索結果を患者情報表示部に表示させる。表示される患者情報としては、患者ID、患者氏名、性別、生年月日などがある。なお、カレンダーで撮影日の選択を行った場合などには、複数の患者情報が患者情報表示部に列挙される。その場合、ユーザは複数の患者情報のうちから所望の患者を選択することができる。   The patient selection unit is provided with an input space for a search query, a calendar for selecting an imaging date (such as the last imaging date in the past), and the like. When input is made to the patient selection unit, the control unit 210 searches for patient information stored in the information storage device (the storage unit 212 of the ophthalmologic imaging apparatus 1, a database on the network, etc.), and the search result is displayed as It is displayed on the information display section. The displayed patient information includes patient ID, patient name, sex, date of birth, and the like. Note that a plurality of pieces of patient information are listed in the patient information display section when the shooting date is selected on the calendar. In that case, the user can select a desired patient from a plurality of pieces of patient information.

一人の患者が選択されると、制御部210は、その患者に関する撮影情報を情報格納装置から取得して撮影情報表示部に表示させる。過去に複数回の撮影が実施された場合には、各撮影における撮影情報が時系列に応じて列挙される。撮影情報としては、撮影日、撮影時刻、データ格納先(ファイル番号等)、フォローアップ撮影か否か、OCT計測のスキャンモード(後述)、左眼/右眼の識別情報、固視位置、解析処理(網膜厚解析等)に関する情報などがある。   When one patient is selected, the control unit 210 acquires imaging information related to the patient from the information storage device and causes the imaging information display unit to display the acquired imaging information. When a plurality of shootings have been performed in the past, shooting information for each shooting is listed in time series. The shooting information includes the shooting date, shooting time, data storage destination (file number, etc.), whether follow-up shooting is performed, OCT measurement scan mode (described later), left / right eye identification information, fixation position, analysis Information on processing (such as retinal thickness analysis).

ユーザが今回のフォローアップ撮影において参照する撮影情報を選択すると、制御部210は、選択された撮影情報に対応する撮影で得られた画像データを情報格納装置から取得し、この画像データに基づく画像(正面画像及び断層像)を表示部240Aに表示させる。このとき、表示画面が患者選択画面から画像表示画面(図示せず)に切り替えられる。ユーザは、表示された画像を観察し、当該正面画像を参照してフォローアップ撮影を行うか判断する。他の正面画像を参照する場合には、当該撮影で得られた他の画像又は他の撮影で得られた画像を表示させて同様の判断を行う。参照する正面画像がユーザにより決定されると、制御部210は、その正面画像(基準正面画像、第1の正面画像)を表示部240Aに表示させるとともに、フォローアップ撮影の開始指示待ち状態に移行する。   When the user selects shooting information to be referred to in this follow-up shooting, the control unit 210 acquires image data obtained by shooting corresponding to the selected shooting information from the information storage device, and an image based on the image data. (Front image and tomographic image) are displayed on the display 240A. At this time, the display screen is switched from the patient selection screen to an image display screen (not shown). The user observes the displayed image and determines whether to perform follow-up shooting with reference to the front image. When referring to another front image, the same determination is made by displaying another image obtained by the photographing or an image obtained by another photographing. When the front image to be referred to is determined by the user, the control unit 210 displays the front image (reference front image, first front image) on the display unit 240A, and shifts to a state for waiting for a follow-up shooting start instruction. To do.

所定の撮影開始指示が入力されると、制御部210は、被検眼Eの近赤外動画像をリアルタイムで取得する。そして、制御部210は、この近赤外動画像のフレーム(第2の正面画像、フォローアップ正面画像)と基準正面画像との間で画像マッチングを行いつつ後述のトラッキングを実行し、当該過去の撮影と同じスキャンモードでOCT計測を行う。このOCT計測は、たとえばトラッキングが好適に行われていると判断されたタイミングで開始される。また、このOCT計測では、同じスキャンモードでのスキャンが所定回数繰り返される。画像形成部220は、この反復走査で取得された複数の画像データを重ね合わせて最終的な画像データを形成する。   When a predetermined imaging start instruction is input, the control unit 210 acquires a near-infrared moving image of the eye E in real time. Then, the control unit 210 performs tracking described later while performing image matching between the frame of the near-infrared moving image (second front image, follow-up front image) and the reference front image. OCT measurement is performed in the same scan mode as the imaging. This OCT measurement is started, for example, at a timing when it is determined that tracking is suitably performed. In this OCT measurement, scanning in the same scan mode is repeated a predetermined number of times. The image forming unit 220 forms final image data by superimposing a plurality of image data acquired by this repeated scanning.

このようなフォローアップ撮影により得られたOCT画像の画像データは、患者情報、このフォローアップ撮影における走査位置情報、このフォローアップ撮影で得られた近赤外動画像のフレーム、このフォローアップ撮影の撮影情報、参照された過去の撮影に関する情報(走査位置情報、撮影情報、画像データ等)などと関連付けられて記憶部212に記憶される。ここで、記憶される近赤外動画像のフレームは、たとえばOCT計測が行われている期間において最初に取得されたフレームと最後に取得されたフレームとされる。   The image data of the OCT image obtained by such follow-up imaging includes patient information, scanning position information in this follow-up imaging, a frame of the near-infrared moving image obtained by this follow-up imaging, The information is stored in the storage unit 212 in association with imaging information, information about past imaging referred to (scanning position information, imaging information, image data, and the like). Here, the frames of the near-infrared moving image to be stored are, for example, a frame acquired first and a frame acquired last in a period during which OCT measurement is performed.

以上でフォローアップ撮影において実行される処理の例の説明は終了であり、制御系の説明に戻る。   This is the end of the description of the example of processing executed in follow-up shooting, and the description returns to the description of the control system.

(制御部)
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control part)
The control system of the ophthalmologic photographing apparatus 1 is configured around the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

(主制御部)
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41及びガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105及び偏波調整器106を制御する。
(Main control unit)
The main control unit 211 performs the various controls described above. In particular, the main control unit 211 controls the focusing drive unit 31A, the optical path length changing unit 41, and the galvano scanner 42 of the fundus camera unit 2, and further the light source unit 101, the optical attenuator 105, and the polarization adjuster 106 of the OCT unit 100. To do.

合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。   The focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed. The main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。また、主制御部211は、表示部240Aに各種情報を表示させる表示制御部2111を含む。表示制御部2111は、「第1の表示制御部」及び「第2の表示制御部」の一例として機能する。表示制御部2111が実行する処理については後述する。   Further, the main control unit 211 performs processing for writing data into the storage unit 212 and processing for reading data from the storage unit 212. The main control unit 211 includes a display control unit 2111 that displays various types of information on the display unit 240A. The display control unit 2111 functions as an example of a “first display control unit” and a “second display control unit”. Processing executed by the display control unit 2111 will be described later.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the ophthalmologic photographing apparatus 1.

記憶部212にはフォローアップ撮影情報2121が記憶されている。フォローアップ撮影情報2121は、過去に実施されたフォローアップ撮影に関連する情報である。フォローアップ撮影情報2121には、過去に実施されたフォローアップ撮影において参照された被検眼Eの正面画像(第1の正面画像、基準正面画像)と、このフォローアップ撮影において取得された被検眼Eの正面画像(第2の正面画像、フォローアップ正面画像)とが少なくとも含まれる。後者は、このフォローアップ撮影においてリアルタイムで取得された近赤外動画像のフレームである。このフレームは、たとえば、OCT計測が行われている期間において最初に取得されたフレーム及び最後に取得されたフレームである。   The storage unit 212 stores follow-up shooting information 2121. The follow-up shooting information 2121 is information related to follow-up shooting performed in the past. The follow-up imaging information 2121 includes a front image (first front image and reference front image) of the eye E to be referred to in the follow-up imaging performed in the past, and the eye E to be acquired acquired in the follow-up imaging. At least a front image (second front image, follow-up front image). The latter is a frame of a near-infrared moving image acquired in real time in this follow-up shooting. This frame is, for example, the first acquired frame and the last acquired frame in the period during which the OCT measurement is performed.

更に、フォローアップ撮影情報2121には、基準正面画像とともに形成された断層像の走査位置(第1の走査位置、基準走査位置)を示す基準走査位置情報と、このフォローアップ撮影においてフォローアップ正面画像とともに取得された断層像の走査位置(第2の走査位置、フォローアップ走査位置)を示すフォローアップ走査位置情報とが含まれていてもよい。これら走査位置情報は、たとえば、当該走査におけるガルバノスキャナ42の制御情報、つまりガルバノスキャナ42の向きを示す情報を含む。また、OCT計測中に正面画像をリアルタイムで取得している場合、走査位置情報は、正面画像に映り込んだ走査位置(走査軌跡)の座標を含んでいてもよい。   Further, the follow-up imaging information 2121 includes reference scanning position information indicating the scanning position (first scanning position, reference scanning position) of the tomographic image formed together with the reference front image, and the follow-up front image in this follow-up imaging. And follow-up scanning position information indicating the scanning position (second scanning position, follow-up scanning position) of the tomographic image acquired together. The scanning position information includes, for example, control information of the galvano scanner 42 in the scanning, that is, information indicating the direction of the galvano scanner 42. Further, when the front image is acquired in real time during the OCT measurement, the scanning position information may include the coordinates of the scanning position (scanning trajectory) reflected in the front image.

(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。
(Image forming part)
The image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like, as in the conventional spectral domain type optical coherence tomography.

同じスキャンモードで所定回数連続して走査が実行された場合、画像形成部220は、この連続走査により得られた複数の断層像の画像データを重ね合わせて新たな画像データを形成する処理を行う。この重ね合わせ処理は、画像データに混入するランダムノイズを除去するなどの目的で行われる。   When scanning is continuously performed a predetermined number of times in the same scan mode, the image forming unit 220 performs processing for forming new image data by superimposing image data of a plurality of tomographic images obtained by the continuous scanning. . This superposition process is performed for the purpose of removing random noise mixed in the image data.

他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。画像形成部220は、OCT計測で用いられる光学系とともに「断層像形成部」として機能する。なお、この明細書において、「画像データ」と、それに基づく「画像」とを同一視することがある。   In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type. The image forming unit 220 includes, for example, the circuit board described above. The image forming unit 220 functions as a “tomographic image forming unit” together with an optical system used in OCT measurement. In this specification, “image data” and an “image” based on the “image data” may be identified.

(画像処理部)
画像処理部230は、画像形成部220により形成されたOCT画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。更に、画像処理部230は、OCT画像を解析して網膜厚分布を取得する層厚解析処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Image processing unit)
The image processing unit 230 performs various types of image processing and analysis processing on the OCT image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. Further, the image processing unit 230 executes a layer thickness analysis process for analyzing the OCT image and acquiring a retinal thickness distribution. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.

画像処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。   The image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef. Note that the image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. As image data of a three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the image processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。   It is also possible to form stack data of a plurality of tomographic images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.

画像処理部230には、情報取得部231と、算出部232と、撮影適否判定部233とが設けられている。これらは、フォローアップ撮影の後処理を実行する。この後処理は、前述のように、フォローアップ撮影における光の走査位置の誤差を評価するものである。   The image processing unit 230 includes an information acquisition unit 231, a calculation unit 232, and a photographing suitability determination unit 233. These perform post-processing of post-up photography. As described above, this post-processing is to evaluate an error in the light scanning position in follow-up imaging.

(情報取得部)
情報取得部231は、フォローアップ撮影で参照された正面画像(基準正面画像)と、フォローアップ撮影で得られた正面画像(フォローアップ正面画像)とを解析して、これら正面画像の間の位置ずれ情報を取得する。この位置ずれ情報は、これら正面画像における眼底Efの形態の描画位置がどれだけずれているかを定量的に表す情報である。
(Information acquisition unit)
The information acquisition unit 231 analyzes the front image (reference front image) referred to in the follow-up shooting and the front image (follow-up front image) obtained in the follow-up shooting, and positions between these front images. Get shift information. This positional shift information is information that quantitatively represents how much the drawing position of the fundus oculi Ef in the front image is shifted.

情報取得部231は、位置ずれ情報として、たとえば、基準正面画像とフォローアップ正面画像との間における平行移動ずれ及び回転移動ずれをそれぞれ算出する。平行移動ずれは、正面画像の広がり方向(xy面内)における、これら正面画像に描画された眼底Efの形態の変位に相当する。回転移動ずれは、xy面内の所定位置を中心とする当該形態の回転方向における変位に相当する。なお、平行移動ずれと回転移動ずれは、たとえば双方の正面画像の座標の間のアフィン変換として表現される。また、平行移動ずれと回転移動ずれの一方のみを算出するようにしてもよい。   The information acquisition unit 231 calculates, for example, a translational displacement and a rotational displacement between the reference front image and the follow-up front image as the positional deviation information. The translational shift corresponds to a displacement in the form of the fundus oculi Ef drawn on the front image in the spreading direction of the front image (in the xy plane). The rotational displacement is equivalent to the displacement in the rotational direction of the form centering on a predetermined position in the xy plane. The translational displacement and the rotational displacement are expressed as affine transformation between the coordinates of both front images, for example. Further, only one of the translational displacement and the rotational displacement may be calculated.

平行移動ずれ及び回転移動ずれの算出方法の例を説明する。まず、情報取得部231は、各正面画像を解析して、眼底Efの所定の特徴部位に相当する画像位置を特定する。この特徴部位としては、たとえば、視神経乳頭の中心・縁部、黄斑中心、特定の血管、血管の分岐部、病変部などがある。   An example of a method for calculating the parallel displacement and the rotational displacement will be described. First, the information acquisition unit 231 analyzes each front image and specifies an image position corresponding to a predetermined characteristic part of the fundus oculi Ef. Examples of the characteristic site include the center / edge of the optic nerve head, the macular center, specific blood vessels, blood vessel bifurcations, and lesions.

次に、情報取得部231は、基準正面画像における当該画像位置の座標と、フォローアップ正面画像における当該画像位置の座標との変位を求める。この処理では、たとえば、複数の特徴部位の画像位置のそれぞれについて、双方の正面画像における当該画像位置の座標を2次元アフィン変換の変換式に代入しアフィン変換行列の成分を決定する。なお、画像位置の座標は、各画素に対してあらかじめ割り当てられたアドレス情報である。このようにして得られるアフィン変換行列には、正面画像の間の平行移動ずれ及び回転移動ずれの双方の情報が含まれている。   Next, the information acquisition unit 231 obtains a displacement between the coordinates of the image position in the reference front image and the coordinates of the image position in the follow-up front image. In this process, for example, for each of the image positions of a plurality of feature parts, the coordinates of the image positions in both front images are substituted into a two-dimensional affine transformation conversion formula to determine the components of the affine transformation matrix. Note that the coordinates of the image position are address information assigned in advance to each pixel. The affine transformation matrix obtained in this way includes information on both translational displacement and rotational displacement between front images.

(算出部)
算出部232は、情報取得部231により取得された位置ずれ情報に基づいて、フォローアップ撮影における走査位置の誤差の評価値を算出する。この評価値の例として、基準正面画像の走査位置とフォローアップ正面画像の走査位置とにより規定される所定の画像領域の面積に基づいて算出されるものと、これら走査位置の間の変位に基づくものとがある。なお、これら以外のファクターに基づいて評価値を算出することも可能である。また、異なるファクターを組み合わせて評価値を算出するようにしてもよい。
(Calculation unit)
The calculation unit 232 calculates the evaluation value of the error of the scanning position in follow-up imaging based on the positional deviation information acquired by the information acquisition unit 231. Examples of the evaluation value are calculated based on the area of a predetermined image area defined by the scanning position of the reference front image and the scanning position of the follow-up front image, and based on the displacement between these scanning positions. There is a thing. It is also possible to calculate the evaluation value based on factors other than these. Further, the evaluation value may be calculated by combining different factors.

算出部232には、相対位置算出部2321と、判断部2322と、面積算出部2323と、変位算出部2324と、評価値算出部2325とが設けられている。面積に基づく評価値の算出は、相対位置算出部2321と、判断部2322と、面積算出部2323とにより実行される。変位に基づく評価値の算出は、相対位置算出部2321と、変位算出部2324と、評価値算出部2325とにより実行される。   The calculation unit 232 includes a relative position calculation unit 2321, a determination unit 2322, an area calculation unit 2323, a displacement calculation unit 2324, and an evaluation value calculation unit 2325. The calculation of the evaluation value based on the area is executed by the relative position calculation unit 2321, the determination unit 2322, and the area calculation unit 2323. The calculation of the evaluation value based on the displacement is executed by the relative position calculation unit 2321, the displacement calculation unit 2324, and the evaluation value calculation unit 2325.

(相対位置算出部)
前述のように、記憶部212に記憶されたフォローアップ撮影情報2121には、基準走査位置情報とフォローアップ走査位置情報とが含まれている。相対位置算出部2321は、基準走査位置とフォローアップ走査位置との間の相対位置情報を、情報取得部231により取得された位置ずれ情報に基づいて算出する。
(Relative position calculation unit)
As described above, the follow-up imaging information 2121 stored in the storage unit 212 includes the reference scanning position information and the follow-up scanning position information. The relative position calculation unit 2321 calculates relative position information between the reference scanning position and the follow-up scanning position based on the positional deviation information acquired by the information acquisition unit 231.

ところで、フォローアップ撮影は、過去の走査位置を再現してOCT計測を行うものである。よって、理想的には基準走査位置とフォローアップ走査位置は同じになる。しかし、固視微動等の影響により走査位置を完全に再現することは事実上困難である。一方、基準走査位置とフォローアップ走査位置は固視微動等が介在しなければ一致するので、これら走査位置の間の相対位置は固視微動等による被検眼Eの位置ずれ、つまり基準正面画像とフォローアップ正面画像との間の位置ずれに相当する。この位置ずれは、情報取得部231により位置ずれ情報として取得される。   By the way, follow-up imaging reproduces a past scanning position and performs OCT measurement. Therefore, ideally, the reference scanning position and the follow-up scanning position are the same. However, it is practically difficult to completely reproduce the scanning position due to the influence of microscopic fixation and the like. On the other hand, since the reference scanning position and the follow-up scanning position match if there is no fixation fine movement or the like, the relative position between these scanning positions is the displacement of the eye E due to fixation fine movement or the like, that is, the reference front image. This corresponds to a positional shift between the follow-up front image. This positional deviation is acquired as positional deviation information by the information acquisition unit 231.

相対位置算出部2321は、たとえば、位置ずれ情報に示す位置ずれ量だけ基準走査位置を変位させることにより、フォローアップ正面画像において基準走査位置に対応する位置、つまり基準走査位置が完全に再現された場合に実現される理想的な走査位置を求める。相対位置情報は、この理想的な走査位置と、実際のフォローアップ撮影で実行された走査位置(フォローアップ走査位置)との間の相対位置を示す。このように、相対位置情報は、実質的に位置ずれ情報と同値である。すなわち、正面画像の間の変位を表すのが位置ずれ情報であり、走査位置の間の変位を表すのが相対位置情報である。相対位置算出部2321は、取得した相対位置情報を判断部2322と変位算出部2324に送る。   For example, the relative position calculation unit 2321 displaces the reference scanning position by the amount of positional deviation indicated in the positional deviation information, so that the position corresponding to the reference scanning position in the follow-up front image, that is, the reference scanning position is completely reproduced. An ideal scanning position realized in this case is obtained. The relative position information indicates a relative position between this ideal scanning position and a scanning position (follow-up scanning position) executed in actual follow-up imaging. Thus, the relative position information is substantially the same value as the positional deviation information. That is, the displacement information represents the displacement between the front images, and the relative position information represents the displacement between the scanning positions. The relative position calculation unit 2321 sends the acquired relative position information to the determination unit 2322 and the displacement calculation unit 2324.

(判断部)
基準走査位置とフォローアップ走査位置との相対位置には、たとえば図5A〜図5Dに示すような態様がある。これら図面において、符号Rは、フォローアップ正面画像におけるフォローアップ走査位置を示す。また、符号R0は、フォローアップ正面画像における基準走査位置、つまり位置ずれ情報(相対位置情報)に基づき変位された基準走査位置を示す。図5Aは、平行移動ずれのみが介在する場合の例を示す。図5Bは、回転移動ずれのみが介在する場合であって、双方の走査位置が中心近傍で交差する場合の例を示す。図5Cは、回転移動ずれのみが介在する場合であって、双方の走査位置が走査開始点近傍で交差する場合の例を示す。図5Dは、平行移動ずれと回転移動ずれの双方が介在する場合の例を示す。なお、走査位置の相対位置の態様はこれらに限定されるものではない。また、スキャンモードはラインスキャンに限定されない。
(Judgment part)
For example, the relative positions of the reference scanning position and the follow-up scanning position are as shown in FIGS. 5A to 5D. In these drawings, a symbol R indicates a follow-up scanning position in the follow-up front image. Reference sign R0 indicates a reference scanning position in the follow-up front image, that is, a reference scanning position displaced based on positional deviation information (relative position information). FIG. 5A shows an example where only a translational displacement is present. FIG. 5B shows an example in which only the rotational displacement is present and both scanning positions intersect in the vicinity of the center. FIG. 5C shows an example in which only the rotational displacement is present and both scanning positions intersect in the vicinity of the scanning start point. FIG. 5D shows an example in which both a translational displacement and a rotational displacement are present. In addition, the aspect of the relative position of the scanning position is not limited to these. The scan mode is not limited to line scan.

判断部2322は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置との間に共有位置が存在するか判断する。共有位置とは、基準走査位置とフォローアップ走査位置とが重なり合っている位置(領域)を表す。   The determination unit 2322 determines whether a shared position exists between the reference scanning position and the follow-up scanning position based on the positional deviation information (relative position information). The shared position represents a position (region) where the reference scanning position and the follow-up scanning position overlap.

共有位置は、0次元領域(点)、1次元領域(線)、又は2次元領域(面)である。図5A〜図5Dでは、基準走査位置及びフォローアップ走査位置はともに線分状であるから、これらが交差している場合には共有位置は当該交点となり、交差していない場合には共有位置は無しとなる。また、図示は省略するが、基準走査位置とフォローアップ走査位置との変位方向が長さ方向のみであり、かつ変位量が長さ未満である場合には、これら2つの走査位置の共有位置は1次元領域となる。また、スキャンモードとして3次元スキャンが用いられる場合、基準走査位置とフォローアップ走査位置はともに2次元領域となり、これらの共有位置は相対的な位置関係に応じて0次元領域、1次元領域又は2次元領域となる。   The shared position is a zero-dimensional area (point), a one-dimensional area (line), or a two-dimensional area (plane). In FIGS. 5A to 5D, since the reference scanning position and the follow-up scanning position are both line segments, the shared position is the intersection when they intersect, and the shared position is not intersected when they intersect. None. Although not shown, when the displacement direction of the reference scanning position and the follow-up scanning position is only the length direction and the displacement amount is less than the length, the shared position of these two scanning positions is It becomes a one-dimensional area. When a three-dimensional scan is used as the scan mode, both the reference scan position and the follow-up scan position are two-dimensional areas, and these shared positions are a zero-dimensional area, a one-dimensional area, or 2 according to the relative positional relationship. It becomes a dimension area.

共有位置が存在するか否かの判断処理は、フォローアップ正面画像における基準走査位置の座標及びフォローアップ走査位置の座標に基づいて行われる。たとえば、判断部2322は、基準走査位置の座標とフォローアップ走査位置の座標とを照合し、これら走査位置の間に共通の座標が存在する場合には共有位置が存在すると判断し、存在しない場合には共有位置は存在しないと判断する。この処理により、フォローアップ正面画像における共有位置の座標も得られる。なお、これら座標は、フォローアップ正面画像にあらかじめ定義された2次元座標系における座標である。   The process for determining whether or not the shared position exists is performed based on the coordinates of the reference scanning position and the coordinates of the follow-up scanning position in the follow-up front image. For example, the determination unit 2322 collates the coordinates of the reference scanning position with the coordinates of the follow-up scanning position, and determines that there is a shared position when there is a common coordinate between these scanning positions. Is determined to have no shared position. By this process, the coordinates of the shared position in the follow-up front image are also obtained. These coordinates are coordinates in a two-dimensional coordinate system defined in advance in the follow-up front image.

判断部2322は、共有位置に関する判断結果(存在の有無、共有位置の座標等)を面積算出部2323に送る。   The determination unit 2322 sends a determination result related to the shared position (presence / absence of existence, coordinates of the shared position, etc.) to the area calculation unit 2323.

(面積算出部)
面積算出部2323は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置とにより規定される画像領域の面積を算出する。ここで、前述のように、位置ずれ情報と相対位置情報は実質的に同値である。また、面積の算出対象となる画像領域は、フォローアップ正面画像の一部領域である。また、2つの走査位置に基づいて画像領域を規定する方法はあらかじめ決められている。また、面積算出処理は任意の態様で行うことができる。面積算出処理は、たとえば、画像領域内の画素数をカウントする処理、画像領域の境界領域を示す数学的表現(数式等)を求める処理、積分演算などを含んでいてもよい。また、算出結果である面積は、画像領域の2次元的な大きさを一意的に表現する数値であればよい。
(Area calculation part)
The area calculation unit 2323 calculates the area of the image region defined by the reference scanning position and the follow-up scanning position based on the positional deviation information (relative position information). Here, as described above, the positional deviation information and the relative positional information are substantially the same value. In addition, the image area whose area is to be calculated is a partial area of the follow-up front image. A method for defining the image area based on the two scanning positions is determined in advance. Further, the area calculation process can be performed in an arbitrary manner. The area calculation process may include, for example, a process for counting the number of pixels in the image area, a process for obtaining a mathematical expression (such as a mathematical expression) indicating the boundary area of the image area, and an integration operation. The area as the calculation result may be a numerical value that uniquely represents the two-dimensional size of the image region.

面積算出部2323は、この面積算出処理において、判断部2322による判断結果に応じて異なる演算処理を行なう。たとえば、面積算出部2323は、基準走査位置とフォローアップ走査位置とに共有位置が存在する場合と存在しない場合とで異なる演算処理を実行する。以下、その具体例を説明する。以下の具体例では、2つの走査位置が線分状である場合について、これら走査位置が交差する場合と交差しない場合とを分けて考える。つまり、共有位置が存在する場合と存在しない場合とを分けて考える。更に、2つの走査位置が交差する場合について、交点が走査位置の端点である場合と端点でない場合とを分けて考える。交点が端点であるか否かの判定は、2つの走査位置の座標と交点の座標とに基づいて容易に行うことができる。なお、走査位置の端点とは、線分状の走査位置の走査開始点と走査終了点を示す。また、以下の具体例において走査位置は線分状であるから交点は1つのみであるが、走査位置が曲線状である場合には交点が2つ以上存在する場合もある。   In this area calculation process, the area calculation unit 2323 performs different calculation processes according to the determination result by the determination unit 2322. For example, the area calculation unit 2323 executes different calculation processes depending on whether the shared position exists between the reference scanning position and the follow-up scanning position or not. Specific examples will be described below. In the following specific example, when the two scanning positions are line segments, the case where these scanning positions intersect and the case where they do not intersect are considered separately. That is, the case where the shared position exists and the case where it does not exist are considered separately. Furthermore, regarding the case where two scanning positions intersect, the case where the intersection is the end point of the scanning position and the case where it is not the end point will be considered separately. Whether or not the intersection is an end point can be easily determined based on the coordinates of the two scanning positions and the coordinates of the intersection. Note that the end points of the scanning position indicate the scanning start point and the scanning end point of the line-shaped scanning position. Further, in the following specific examples, the scanning position is a line segment, so there is only one intersection, but when the scanning position is a curve, there may be two or more intersections.

図5B及び図5Cに示すように2つの走査位置が交差している場合、面積算出部2323は、2つの走査位置の端点と交点とにより規定される画像領域の面積を求める。より具体的には、面積算出部2323は、交点に対して一方の側に位置する2つの走査位置の端点とこの交点とがなす三角形の面積と、他方の側に位置する2つの走査位置の端点とこの交点とがなす三角形の面積との和を算出し、これを当該画像領域の面積とすることができる。   When the two scanning positions intersect as shown in FIGS. 5B and 5C, the area calculation unit 2323 obtains the area of the image area defined by the end points and the intersections of the two scanning positions. More specifically, the area calculation unit 2323 calculates the area of the triangle formed by the end points of the two scanning positions located on one side with respect to the intersection and the two scanning positions located on the other side. The sum of the area of the triangle formed by the end point and the intersection can be calculated and used as the area of the image region.

たとえば図5Bに示すように走査位置の端点以外の位置に交点が存在する場合、面積算出部2323は、図6Aに示すように、交点Cに対して右側に位置する2つの走査位置R0、Rの端点(走査終了点)R0E、REと、交点Cとを頂点とする三角形TR1の面積を算出する。また、面積算出部2323は、交点Cの左側に位置する2つの走査位置R0、Rの端点(走査開始点)R0S、RSと、交点Cとを頂点とする三角形TR2の面積を算出する。更に、面積算出部2323は、三角形TR1の面積と三角形TR2の面積とを加算する。この和が目的の面積の値となる。   For example, when an intersection exists at a position other than the end point of the scanning position as shown in FIG. 5B, the area calculation unit 2323 has two scanning positions R0 and R located on the right side with respect to the intersection C as shown in FIG. 6A. The area of the triangle TR1 having the vertexes of the end points (scan end points) R0E, RE and the intersection C is calculated. In addition, the area calculation unit 2323 calculates the area of the triangle TR2 having the two scanning positions R0 and R (end points of scanning) R0S and RS located on the left side of the intersection C and the intersection C as the vertices. Furthermore, the area calculation unit 2323 adds the area of the triangle TR1 and the area of the triangle TR2. This sum is the target area value.

別の例として、図5Cに示すように2つの走査位置が端点(走査開始点)にて交差している場合、面積算出部2323は、図6Bに示すように、交点C(双方の走査開始点)と、基準走査位置R0の走査終了点と、フォローアップ走査位置Rの走査終了点とを頂点とする三角形TRの面積を求める。   As another example, when two scanning positions intersect at an end point (scanning start point) as shown in FIG. 5C, the area calculation unit 2323, as shown in FIG. Point), the scanning end point of the reference scanning position R0 and the scanning end point of the follow-up scanning position R, the area of the triangle TR is obtained.

なお、2つの走査位置が一方の走査位置の端点と他方の走査位置の端点以外とにおいて交差する場合には、たとえば、その交点と、一方の走査位置の反対側の端点と、他方の走査位置の一方の端点(たとえば当該反対側の端点と同じ側に位置する端点)とを頂点とする三角形の面積を求めることができる。   When two scanning positions intersect at an end point of one scanning position and an end point other than the other scanning position, for example, the intersection, an end point on the opposite side of one scanning position, and the other scanning position The area of a triangle whose apex is one end point (for example, an end point located on the same side as the opposite end point) can be obtained.

一方、図5A及び図5Dに示すように2つの走査位置が交差していない場合、面積算出部2323は、2つの走査位置により規定される四角形の面積を算出して目的の画像領域の面積とする。より具体的には、2つの走査位置が交差していない場合、面積算出部2323は、図6C及び図6Dに示すように、基準走査位置R0及びフォローアップ走査位置Rを二辺とし、かつ、これら走査位置の端点同士を結ぶ2つの線分を二辺とする四角形QUの面積を求める。   On the other hand, when the two scanning positions do not intersect as shown in FIGS. 5A and 5D, the area calculation unit 2323 calculates a square area defined by the two scanning positions and calculates the area of the target image region. To do. More specifically, when the two scanning positions do not intersect, the area calculation unit 2323 sets the reference scanning position R0 and the follow-up scanning position R as two sides as shown in FIGS. 6C and 6D, and The area of a quadrangle QU having two sides connecting two end points of these scanning positions is obtained.

面積算出部2323は、上記のようにして求められた面積を評価値算出部2325に送る。   The area calculation unit 2323 sends the area obtained as described above to the evaluation value calculation unit 2325.

(変位算出部)
変位算出部2324は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置との間の変位を算出する。この変位の算出方法は任意である。以下、この変位算出処理の具体例について図7を参照しつつ説明する。
(Displacement calculation unit)
The displacement calculation unit 2324 calculates a displacement between the reference scanning position and the follow-up scanning position based on the positional deviation information (relative position information). The method for calculating this displacement is arbitrary. Hereinafter, a specific example of the displacement calculation process will be described with reference to FIG.

図7には、それぞれ線分状の基準走査位置R0とフォローアップ走査位置Rが示されている。なお、変位の算出において、2つの走査位置が交差しているか否かは不問としてよい。   FIG. 7 shows a line-segment reference scanning position R0 and a follow-up scanning position R, respectively. In calculating the displacement, it may be unquestioned whether or not the two scanning positions intersect.

変位算出部2324は、まず、各走査位置R0、R上の所定位置を特定する。この特定処理は、それぞれ線分状の走査位置R0、Rの各点の座標に基づいて行うことができる。この所定位置の例として、走査開始点、走査終了点、中点などがある。なお、線分状以外の形態の走査位置を考慮する場合には、その形態に応じた所定位置を用いることができる。また、比較対象となる2つの走査位置において、同じ種別の所定位置が適用される。たとえば、所定位置として走査開始点を用いる場合には、双方の走査開始点が特定される。また、複数種別の所定位置を特定する場合、各所定位置にその種別が関連付けられる。   The displacement calculation unit 2324 first specifies a predetermined position on each of the scanning positions R0 and R. This specifying process can be performed based on the coordinates of the respective points of the line-shaped scanning positions R0 and R. Examples of the predetermined position include a scan start point, a scan end point, and a midpoint. When a scanning position other than a line segment is considered, a predetermined position corresponding to the form can be used. In addition, the same type of predetermined position is applied to the two scanning positions to be compared. For example, when the scan start point is used as the predetermined position, both scan start points are specified. Further, when a plurality of types of predetermined positions are specified, the types are associated with each predetermined position.

次に、変位算出部2324は、基準走査位置R0における所定位置の座標と、フォローアップ走査位置Rにおける所定位置の座標との変位を算出する。この算出処理は、フォローアップ正面画像にあらかじめ定義された2次元座標系を用いて行うことができる。また、2つの所定位置の間の画素数をカウントすることで変位を求めることもできる。ここで算出される変位は、同じ種別の所定位置の間の変位である。たとえば、この変位は走査開始点同士の間の変位であり、走査開始点と中点との間の変位ではない。   Next, the displacement calculation unit 2324 calculates the displacement between the coordinates of the predetermined position at the reference scanning position R0 and the coordinates of the predetermined position at the follow-up scanning position R. This calculation process can be performed using a two-dimensional coordinate system defined in advance in the follow-up front image. Also, the displacement can be obtained by counting the number of pixels between two predetermined positions. The displacement calculated here is a displacement between predetermined positions of the same type. For example, this displacement is a displacement between the scanning start points, and is not a displacement between the scanning start point and the midpoint.

図7は、上記の所定位置として、走査開始点、走査終了点及び中点の3つの種別が適用される場合を示している。図7において、基準走査位置R0の走査開始点R0Sと、フォローアップ走査位置Rの走査開始点RSとの間の変位は、符号DSで示されている。また、基準走査位置R0の走査終了点R0Eと、フォローアップ走査位置Rの走査終了点REとの間の変位は、符号DEで示されている。また、基準走査位置R0の中点R0Mと、フォローアップ走査位置Rの中点RMとの間の変位は、符号DMで示されている。   FIG. 7 shows a case where three types of scanning start point, scanning end point, and middle point are applied as the predetermined position. In FIG. 7, the displacement between the scan start point R0S at the reference scan position R0 and the scan start point RS at the follow-up scan position R is indicated by the symbol DS. Further, the displacement between the scanning end point R0E at the reference scanning position R0 and the scanning end point RE at the follow-up scanning position R is indicated by a symbol DE. Further, the displacement between the middle point R0M of the reference scanning position R0 and the middle point RM of the follow-up scanning position R is indicated by a symbol DM.

変位算出部2324は、以上のようにして求められた変位を評価値算出部2325に送る。   The displacement calculation unit 2324 sends the displacement obtained as described above to the evaluation value calculation unit 2325.

(評価値算出部)
評価値算出部2325は、フォローアップ撮影における走査位置の誤差の評価値を算出する。この算出処理に供される情報として、評価値算出部2325には、面積算出部2323により求められた面積の情報と、変位算出部2324により求められた変位の情報とが入力される。以下、面積に基づく評価値算出処理の例、及び変位に基づく評価値算出処理の例、並びに双方を組み合わせた評価値算出処理の例について説明する。
(Evaluation value calculator)
The evaluation value calculation unit 2325 calculates an evaluation value of a scanning position error in follow-up imaging. As information provided for this calculation process, the evaluation value calculation unit 2325 receives the area information obtained by the area calculation unit 2323 and the displacement information obtained by the displacement calculation unit 2324. Hereinafter, an example of the evaluation value calculation process based on the area, an example of the evaluation value calculation process based on the displacement, and an example of the evaluation value calculation process combining both will be described.

なお、この実施形態では双方の評価値算出処理を実行可能な場合について説明するが、一方のみを実施可能な構成であってもよい。また、フォローアップ撮影における走査位置の誤差を反映する他の任意の情報に基づいて評価値を算出するようにしてもよい。   In addition, although this embodiment demonstrates the case where both evaluation value calculation processes are executable, the structure which can implement only one side may be sufficient. Further, the evaluation value may be calculated based on other arbitrary information that reflects the error of the scanning position in follow-up imaging.

(面積に基づく評価値算出処理)
面積算出部2323により算出された画像領域の面積から評価値を求める処理の例として、評価値算出部2325は、この画像領域の面積と所定の重みとの積を、評価値の所定の最大値から減算する演算処理を行うことができる。この演算処理はたとえば次式のように表現される。
(Evaluation value calculation process based on area)
As an example of processing for obtaining an evaluation value from the area of the image region calculated by the area calculation unit 2323, the evaluation value calculation unit 2325 calculates a product of the area of the image region and a predetermined weight as a predetermined maximum value of the evaluation value. It is possible to perform arithmetic processing to subtract from. This arithmetic processing is expressed as, for example, the following equation.

Figure 2016104304
Figure 2016104304

ここで、S1は面積に基づく評価値を表し、S1、maxはあらかじめ設定された当該評価値の最大値を表し、aはあらかじめ設定された重みを表し、Areaは面積算出部2323により算出された面積を表す。最大値S1、max及び重みaは、それぞれ任意に設定可能である。たとえば、最大値S1、maxは100に設定され、重みaはこの最大値の設定値及び面積の数値の大きさなどに基づいて設定される。 Here, S 1 represents the evaluation value based on the area, S 1 and max represent the maximum value of the evaluation value set in advance, a represents the weight set in advance, and Area is calculated by the area calculation unit 2323. Represents the area made. The maximum value S1 , max and the weight a can be arbitrarily set. For example, the maximum values S 1 and max are set to 100, and the weight a is set based on the set value of the maximum value and the numerical value of the area.

このような演算処理によれば、面積が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値Sの値が大きくなる。 According to such processing, as the area is smaller, i.e. as the error of the scanning position in the follow-up photography is small, the value of the evaluation values S 1 becomes large.

(変位に基づく評価値算出処理)
変位算出部2324により算出された変位から評価値を求める処理の例として、評価値算出部2325は、この変位と所定の重みとの積を評価値の所定の最大値から減算する演算処理を行うことができる。この演算処理はたとえば次式のように表現される。
(Evaluation value calculation process based on displacement)
As an example of processing for obtaining an evaluation value from the displacement calculated by the displacement calculation unit 2324, the evaluation value calculation unit 2325 performs arithmetic processing for subtracting the product of this displacement and a predetermined weight from a predetermined maximum value of the evaluation value. be able to. This arithmetic processing is expressed as, for example, the following equation.

Figure 2016104304
Figure 2016104304

ここで、Sは変位に基づく評価値を表し、S2、maxはあらかじめ設定された当該評価値の最大値を表し、b、c及びdはあらかじめ設定された重みを表し、DM、DS及びDEはそれぞれ変位算出部2324により算出された中点、走査開始点及び走査終了点の変位を表す。最大値S2、max及び重みb〜dは、それぞれ任意に設定可能である。たとえば、最大値S2、maxは100に設定され、重みb〜dはこの最大値の設定値及び面積の数値の大きさなどに基づいてそれぞれ設定される。 Here, S 2 represents the evaluation value based on the displacement, S 2, max represents the maximum value of the preset the evaluation value, b, c and d represents a weight which is set in advance, DM, DS and DE represents the displacement of the midpoint, the scan start point, and the scan end point calculated by the displacement calculator 2324, respectively. The maximum values S2 , max and the weights b to d can be set arbitrarily. For example, the maximum values S 2 and max are set to 100, and the weights b to d are respectively set based on the set value of the maximum value and the numerical value of the area.

このような演算処理によれば、変位が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値Sの値が大きくなる。なお、この例では、中点、走査開始点及び走査終了点の3つの点を考慮して評価値を算出しているが、これらのうちの1つ又は2つを考慮して評価値を算出することもできる。また、これら以外の点における変位を算出し、これを考慮することも可能である。 According to such processing, the more displacement is small, that is as the error of the scanning position in the follow-up photography is small, the evaluation value S 2 is increased. In this example, the evaluation value is calculated in consideration of the three points of the middle point, the scanning start point, and the scanning end point. However, the evaluation value is calculated in consideration of one or two of these points. You can also It is also possible to calculate the displacement at points other than these and take this into account.

(面積及び変位に基づく評価値算出処理)
面積算出部2323により算出された画像領域の面積及び変位算出部2324により算出された変位に基づいて評価値を求める処理の例として、評価値算出部2325は、上記した各々の場合を統合した演算式を用いることができる。この演算式はたとえば次のように表現される。
(Evaluation value calculation process based on area and displacement)
As an example of processing for obtaining an evaluation value based on the area of the image area calculated by the area calculation unit 2323 and the displacement calculated by the displacement calculation unit 2324, the evaluation value calculation unit 2325 is an operation that integrates the above cases. Equations can be used. This arithmetic expression is expressed as follows, for example.

Figure 2016104304
Figure 2016104304

ここで、Sは面積及び変位に基づく評価値を表し、Smaxはあらかじめ設定された当該評価値の最大値を表し、a〜dはあらかじめ設定された重みを表し、Areaは面積算出部2323により算出された面積を表し、DM、DS及びDEはそれぞれ変位算出部2324により算出された中点、走査開始点及び走査終了点の変位を表す。最大値Smax及び重みa〜dは、それぞれ任意に設定可能である。たとえば、最大値Smaxは100に設定され、重みa〜dはこの最大値の設定値及び面積の数値の大きさなどに基づいてそれぞれ設定される。 Here, S represents an evaluation value based on the area and displacement, S max represents a maximum value of the preset evaluation value, a to d represent preset weights, and Area is calculated by the area calculation unit 2323. The calculated area is represented, and DM, DS, and DE represent the displacement of the midpoint, the scan start point, and the scan end point calculated by the displacement calculation unit 2324, respectively. The maximum value S max and the weights a to d can be set arbitrarily. For example, the maximum value S max is set to 100, and the weights a to d are set based on the maximum value setting value, the numerical value of the area, and the like.

このような演算処理によれば、面積及び/又は変位が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値Sの値が大きくなる。   According to such a calculation process, the evaluation value S increases as the area and / or displacement decreases, that is, as the error of the scanning position in follow-up imaging decreases.

評価値算出部2325により算出された評価値の情報は、撮影適否判定部233に送られる。   Information on the evaluation value calculated by the evaluation value calculation unit 2325 is sent to the photographing suitability determination unit 233.

(撮影適否判定部)
撮影適否判定部233は、評価値算出部2325により算出された評価値に基づいて当該フォローアップ撮影の適否を判定する。この処理は、たとえば、あらかじめ設定された数値範囲と評価値とを比較することにより行われる。
(Shooting suitability determination unit)
The shooting suitability determination unit 233 determines whether the follow-up shooting is appropriate based on the evaluation value calculated by the evaluation value calculation unit 2325. This process is performed by, for example, comparing a preset numerical range with an evaluation value.

撮影適否判定部233が実行する処理の具体例を説明する。上記のように誤差が小さいほど評価値の値が大きくなる場合において、撮影適否判定部233は、算出された評価値が所定の閾値以上であるか否か判断する。評価値が閾値以上である場合、撮影適否判定部233は、当該フォローアップは適正に実行されたものと判定する。逆に、評価値が閾値未満である場合、撮影適否判定部233は、当該フォローアップ撮影は適正に行われなかったと判定する。   A specific example of processing executed by the imaging suitability determination unit 233 will be described. When the evaluation value increases as the error decreases as described above, the imaging suitability determination unit 233 determines whether the calculated evaluation value is equal to or greater than a predetermined threshold value. When the evaluation value is greater than or equal to the threshold value, the imaging suitability determination unit 233 determines that the follow-up has been properly performed. Conversely, when the evaluation value is less than the threshold value, the imaging suitability determination unit 233 determines that the follow-up imaging has not been properly performed.

なお、本例では1つの閾値を用いているが、2つ以上の閾値を用いることによりフォローアップ撮影の適否を段階的に判定するようにしてもよい。   In this example, one threshold is used, but the suitability of follow-up shooting may be determined step by step by using two or more thresholds.

撮影適否判定部233は、その判定結果を制御部210に送る。また、画像処理部230による上記処理に用いられた任意の情報や、上記処理において中間的に生成された情報を制御部210に送るようにしてもよい。また、評価値自体を用いてフォローアップ撮影の適否を提示する場合には、撮影適否判定部233を設ける必要はない。   The imaging suitability determination unit 233 sends the determination result to the control unit 210. Further, arbitrary information used in the above process by the image processing unit 230 or information generated in the middle of the above process may be sent to the control unit 210. Further, when the suitability for follow-up photography is presented using the evaluation value itself, it is not necessary to provide the photography suitability determination unit 233.

以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。   The image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 240A and an operation unit 240B. The display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 240B includes the operation device of the arithmetic control unit 200 described above. The operation unit 240B may include various buttons and keys provided on the housing of the ophthalmologic photographing apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing. The display unit 240 </ b> A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.

なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。   The display unit 240A and the operation unit 240B do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 240B includes the touch panel and a computer program. The operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.

(信号光の走査及びOCT画像について)
眼科撮影装置1による信号光LSの走査態様(スキャンモード)としては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
(Signal light scanning and OCT image)
Examples of the scanning mode (scan mode) of the signal light LS by the ophthalmologic photographing apparatus 1 include a horizontal scan, a vertical scan, a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral (spiral) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (such as retinal thickness), the time required for scanning, the precision of scanning, and the like.

水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。   The horizontal scan scans the signal light LS in the horizontal direction (x direction). The horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.

十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。   In the cross scan, the signal light LS is scanned along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other. In the radiation scan, the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle. The cross scan is an example of a radiation scan.

円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。   In the circle scan, the signal light LS is scanned along a circular locus. In the concentric scan, the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position. A circle scan is an example of a concentric scan. In the spiral scan, the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).

ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。   Since the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.

上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。   By scanning the signal light LS in the above-described manner, a tomographic image on a plane stretched by the direction along the scanning line (scanning trajectory) and the fundus depth direction (z direction) can be acquired. In addition, the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.

(表示制御について)
この実施形態による表示制御の例を説明する。表示制御は表示制御部2111により実行される。
(About display control)
An example of display control according to this embodiment will be described. Display control is executed by the display control unit 2111.

第1の表示制御として、表示制御部2111は、基準正面画像及び/又はフォローアップ正面画像を表示部240Aに表示させ、かつ、情報取得部231により取得された位置ずれ情報に基づいて、基準走査位置を示す基準走査位置画像とフォローアップ走査位置を示すフォローアップ走査位置画像とを、この正面画像に重ねて表示させる。   As the first display control, the display control unit 2111 causes the reference front image and / or the follow-up front image to be displayed on the display unit 240A, and is based on the positional deviation information acquired by the information acquisition unit 231. A reference scanning position image indicating the position and a follow-up scanning position image indicating the follow-up scanning position are displayed superimposed on the front image.

ここで、位置ずれ情報に代えて、これと同値な相対位置情報を参照することもできる。また、基準走査位置画像は「第1の走査位置画像」の例であり、フォローアップ走査位置画像は「第2の走査位置画像」の例である。   Here, instead of the positional deviation information, relative positional information equivalent to this can be referred to. The reference scanning position image is an example of a “first scanning position image”, and the follow-up scanning position image is an example of a “second scanning position image”.

基準正面画像とフォローアップ正面画像の一方を表示させる場合には、この一方の正面画像に重ねて基準走査位置画像とフォローアップ走査位置画像を表示させる。また、双方の正面画像を表示させる場合には、各正面画像に重ねて基準走査位置画像とフォローアップ走査位置画像を表示させてもよいし、一方の正面画像についてのみこれら走査位置画像を重ねて表示させてもよい。   When one of the reference front image and the follow-up front image is displayed, the reference scanning position image and the follow-up scanning position image are displayed over the one front image. When both front images are displayed, the reference scanning position image and the follow-up scanning position image may be displayed superimposed on each front image, or these scanning position images may be superimposed on only one front image. It may be displayed.

表示制御部2111は、基準走査位置画像とフォローアップ走査位置画像を互いに異なる態様で表示させることができる。たとえば、2つの走査位置画像を異なる色で表示させたり、異なる太さで表示させたり、異なる濃度で表示させたりすることができる。また、各走査位置画像に対して識別情報(文字列情報、画像情報等)を付すこともできる。また、2つの走査位置画像を常に異なる態様で表示させてもよいし、所定のトリガに対応して異なる表示態様に切り替えるようにしてもよい。   The display control unit 2111 can display the reference scanning position image and the follow-up scanning position image in different modes. For example, two scanning position images can be displayed in different colors, displayed in different thicknesses, or displayed in different densities. Also, identification information (character string information, image information, etc.) can be attached to each scanning position image. Further, the two scanning position images may be always displayed in different modes, or may be switched to different display modes in response to a predetermined trigger.

以上のような第1の表示制御により表示される情報の例を図8に示す。図8は、眼底の形態を表すフォローアップ正面画像に、破線で示す基準走査位置画像と、実線で示すフォローアップ走査位置画像とを重ねて表示させた状態を示している。フォローアップ走査位置画像は、このフォローアップ撮影において実際に適用された走査位置を示す。また、基準走査位置画像は、フォローアップ撮影が誤差なく行われた場合における理想的な走査位置を示す。図8に示す例では、本来は破線で示す部位を走査すべきところを、眼球運動等の影響により実線で示す部位を走査してしまっている。   An example of information displayed by the first display control as described above is shown in FIG. FIG. 8 shows a state in which a reference scanning position image indicated by a broken line and a follow-up scanning position image indicated by a solid line are superimposed and displayed on a follow-up front image representing the fundus morphology. The follow-up scanning position image indicates the scanning position actually applied in this follow-up imaging. The reference scanning position image shows an ideal scanning position when follow-up shooting is performed without error. In the example shown in FIG. 8, the portion indicated by the solid line is scanned due to the influence of eye movement or the like, where the portion indicated by the broken line should be scanned.

第2の表示制御として、表示制御部2111は、フォローアップ撮影における走査位置の誤差を表す情報を表示させることができる。たとえば、表示制御部2111は、評価値算出部2325により算出された評価値を表示部240Aに表示させることができる。評価値は、単独で表示されてもよいし、正面画像や上記第1の表示制御による表示情報とともに表示されてもよい。また、評価値に代えて、又は評価値とともに、撮影適否判定部233による判定結果を表示させることができる。この判定結果は、たとえば「適」、「不適」といった文字列情報であってもよいし、画像情報であってもよい。   As the second display control, the display control unit 2111 can display information indicating an error in the scanning position in follow-up imaging. For example, the display control unit 2111 can cause the display unit 240A to display the evaluation value calculated by the evaluation value calculation unit 2325. The evaluation value may be displayed alone, or may be displayed together with the front image and display information by the first display control. In addition, the determination result by the imaging suitability determination unit 233 can be displayed instead of or together with the evaluation value. This determination result may be character string information such as “appropriate” or “inappropriate”, or may be image information.

[作用・効果]
眼科撮影装置1の作用及び効果について説明する。
[Action / Effect]
The operation and effect of the ophthalmologic photographing apparatus 1 will be described.

眼科撮影装置1は、フォローアップ撮影を行うことが可能である。撮影部(眼底カメラユニット2)は、被検眼Eを撮影して正面画像を取得する。断層像形成部(OCT用光学系、画像形成部220)は、被検眼Eを光で走査して断層像を形成する。記憶部212は、被検眼Eの第1の正面画像と、第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する。情報取得部231は、第1の正面画像及び第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する;算出部232は、位置ずれ情報に基づいて、当該フォローアップ撮影における走査位置の誤差の評価値を算出する。このような眼科撮影装置1によれば、フォローアップ撮影の誤差の程度を定量的に評価することが可能である。   The ophthalmologic photographing apparatus 1 can perform follow-up photographing. The photographing unit (fundus camera unit 2) photographs the eye E and acquires a front image. The tomographic image forming unit (OCT optical system, image forming unit 220) scans the eye E with light to form a tomographic image. The storage unit 212 stores a first front image of the eye E and a second front image acquired in follow-up imaging performed with reference to the first front image. The information acquisition unit 231 analyzes the first front image and the second front image and acquires positional deviation information between the front images; the calculation unit 232 performs the follow-up based on the positional deviation information. An evaluation value of a scanning position error in photographing is calculated. According to such an ophthalmologic photographing apparatus 1, it is possible to quantitatively evaluate the degree of error in follow-up photographing.

〈第2の実施形態〉
フォローアップ撮影は、過去に取得された基準正面画像を参照して行われる。よって、基準正面画像の状態によってフォローアップ撮影の確度や精度が左右される。この実施形態では、第1の実施形態で説明した任意の構成に加え、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できる眼科撮影装置について説明する。
<Second Embodiment>
Follow-up shooting is performed with reference to a reference front image acquired in the past. Therefore, the accuracy and accuracy of follow-up shooting depend on the state of the reference front image. In this embodiment, in addition to the arbitrary configuration described in the first embodiment, an ophthalmologic imaging apparatus that can determine whether a reference front image used for follow-up imaging is appropriate will be described.

この実施形態に係る眼科撮影装置の構成例を図9に示す。この眼科撮影装置は、第1の実施形態の構成(図1〜図4を参照)に加えて候補画像判定部234を有している。候補画像判定部234は画像処理部230に設けられている。なお、これ以外の構成については第1の実施形態と同様であるから、特に言及する場合を除き説明は割愛する。   A configuration example of the ophthalmologic photographing apparatus according to this embodiment is shown in FIG. The ophthalmologic photographing apparatus includes a candidate image determination unit 234 in addition to the configuration of the first embodiment (see FIGS. 1 to 4). Candidate image determination unit 234 is provided in image processing unit 230. Since the configuration other than this is the same as that of the first embodiment, the description is omitted unless otherwise specified.

フォローアップ撮影が行われるときに、記憶部212には、基準正面画像(第1の正面画像)の候補となる画像(候補画像)が1つ以上記憶されている。候補画像判定部234は、各候補画像を解析することにより、その候補画像が基準正面画像として適当か否か判定する処理を行う。なお、適当と判定された候補画像が2つ以上存在する場合には、たとえば最も適当な候補画像が基準正面画像として選択される。   When follow-up shooting is performed, the storage unit 212 stores one or more images (candidate images) that are candidates for the reference front image (first front image). The candidate image determination unit 234 performs a process of determining whether or not the candidate image is appropriate as a reference front image by analyzing each candidate image. When there are two or more candidate images determined to be appropriate, for example, the most appropriate candidate image is selected as the reference front image.

この判定処理は、たとえば、候補画像に関する所定の情報に基づいて実行される。この情報としては、実空間における情報や、周波数空間における情報がある。実空間における情報の例としては、フレア量やコントラストがある。周波数空間における情報の例としては、ボケ量、周波数特性等がある。これらの情報は、候補画像判定部234により求められる。   This determination process is executed based on, for example, predetermined information regarding the candidate image. This information includes information in real space and information in frequency space. Examples of information in real space include flare amount and contrast. Examples of information in the frequency space include a blur amount and frequency characteristics. These pieces of information are obtained by the candidate image determination unit 234.

フレア量は、たとえば、候補画像における、所定の閾値(最大値等)以上の画素値(輝度値等)を有する画素の分布である。この分布は、たとえば、全画素におけるそのような画素の割合とされる。候補画像判定部234は、たとえば、求められたフレア量が所定の閾値以下である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、フレア量が少ないものほど、基準正面画像としてより適当であると判定される。   The flare amount is, for example, a distribution of pixels having a pixel value (such as a luminance value) equal to or greater than a predetermined threshold (such as a maximum value) in the candidate image. This distribution is, for example, the ratio of such pixels in all pixels. The candidate image determination unit 234 determines that the candidate image is appropriate as the reference front image when the obtained flare amount is equal to or less than a predetermined threshold value, for example. Here, it is determined that the smaller the flare amount is, the more suitable as the reference front image.

コントラストは、たとえば、候補画像の画素値(輝度値)に基づいて行われる任意の公知技術によって求められる。候補画像判定部234は、たとえば、求められたコントラストが所定の閾値以上である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、コントラストが高いものほど、基準正面画像としてより適当であると判定される。   Contrast is calculated | required by the arbitrary well-known techniques performed based on the pixel value (luminance value) of a candidate image, for example. Candidate image determination unit 234 determines that the candidate image is appropriate as the reference front image when the obtained contrast is equal to or greater than a predetermined threshold. Here, it is determined that the higher the contrast, the more appropriate as the reference front image.

ボケ量は、たとえば、候補画像を空間周波数に分解し、得られた空間周波数成分の信号強度に基づいて算出することができる。候補画像判定部234は、たとえば、求められたボケ量が所定の閾値以下である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、ボケ量が少ないものほど、基準正面画像としてより適当であると判定される。   The amount of blur can be calculated, for example, based on the signal intensity of the spatial frequency component obtained by decomposing the candidate image into spatial frequencies. Candidate image determination unit 234 determines that the candidate image is appropriate as the reference front image, for example, when the obtained blur amount is equal to or less than a predetermined threshold value. Here, it is determined that the smaller the amount of blur, the more appropriate as the reference front image.

周波数特性は、たとえば、候補画像を空間周波数に分解し、得られた空間周波数成分の特性を求めることによって得られる。候補画像判定部234は、たとえば、求められた周波数特性が所定の条件を満足する場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、その条件を満足する度合が高いものほど、基準正面画像としてより適当であると判定される。   The frequency characteristic is obtained, for example, by decomposing a candidate image into a spatial frequency and obtaining characteristics of the obtained spatial frequency component. Candidate image determination unit 234 determines that the candidate image is appropriate as a reference front image when the obtained frequency characteristics satisfy a predetermined condition, for example. Here, it is determined that the higher the degree of satisfaction of the condition is, the more appropriate as the reference front image.

制御部210は、候補画像判定部234による判定結果に基づいて報知制御を行う。制御部210と、この報知制御における制御対象は」、「報知部」の一例として機能する。   The control unit 210 performs notification control based on the determination result by the candidate image determination unit 234. The control unit 210 and the control target in the notification control function as an example of “notification unit”.

報知制御の具体例として、表示制御部2111は、この判定結果を示す情報を表示部240Aに表示させる。この表示情報は、たとえば、当該候補画像が基準正面画像として適しているか否かを示す文字列情報又は画像情報である。また、候補画像判定部234による判定処理に供された1以上の候補画像(のサムネイル)を表示部240Aに表示させるとともに、判定結果を示す情報を一覧表示させるようにしてもよい。また、第1の実施形態で説明した患者選択画面の撮影情報表示部に候補画像の撮影情報をリスト表示し、このリスト中に判定結果を表示させてもよい。このような報知制御を行う場合、表示制御部2111は「報知制御部」の一例として機能する。   As a specific example of the notification control, the display control unit 2111 displays information indicating the determination result on the display unit 240A. This display information is, for example, character string information or image information indicating whether or not the candidate image is suitable as a reference front image. In addition, one or more candidate images (its thumbnails) subjected to the determination process by the candidate image determination unit 234 may be displayed on the display unit 240A, and information indicating the determination result may be displayed in a list. Further, the photographing information of candidate images may be displayed as a list on the photographing information display section of the patient selection screen described in the first embodiment, and the determination result may be displayed in this list. When such notification control is performed, the display control unit 2111 functions as an example of a “notification control unit”.

報知制御はこのような表示制御に限定されるものではない。たとえば、図示しない音声出力部を制御部210が制御することにより、判定結果を示す音声情報を出力させるように構成することができる。   The notification control is not limited to such display control. For example, the control unit 210 controls a sound output unit (not shown) so that sound information indicating a determination result can be output.

或る候補画像について基準正面画像として不適当であるとの判定結果が得られた場合に、当該候補画像に基づくフォローアップ撮影を禁止するように構成することが可能である。その具体例として、制御部210は、当該候補画像が基準正面画像として不適当であるとの判定結果が得られたことに対応して、断層像形成部による光の走査を禁止することができる。この禁止とは、たとえOCT計測開始の操作がなされたとしてもOCT計測を実行させない制御モードを言う。このような制御を行う制御部210は「禁止制御部」の一例である。なお、たとえば不適当と判定された候補画像を用いてフォローアップ撮影を行う場合を想定して、この禁止状態を解除するための操作を行えるように構成することも可能である。   When a determination result that a certain candidate image is inappropriate as a reference front image is obtained, follow-up shooting based on the candidate image can be prohibited. As a specific example, the control unit 210 can prohibit scanning of light by the tomographic image forming unit in response to the determination result that the candidate image is inappropriate as the reference front image. . This prohibition refers to a control mode in which OCT measurement is not executed even if an operation for starting OCT measurement is performed. The control unit 210 that performs such control is an example of a “prohibition control unit”. For example, assuming that follow-up shooting is performed using a candidate image determined to be inappropriate, an operation for canceling this prohibited state can be performed.

このような眼科撮影装置によれば、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できるので、好適な基準正面画像を用いてフォローアップ撮影を行うことが可能である。したがって、第1の実施形態のようにフォローアップ撮影の誤差の程度を定量的に評価することができ、かつフォローアップ撮影の高確度化、高精度化を図ることができる。   According to such an ophthalmologic photographing apparatus, it is possible to determine whether or not the reference front image used for follow-up photographing is appropriate. Therefore, it is possible to perform follow-up photographing using a suitable reference front image. Therefore, the degree of error in follow-up shooting can be quantitatively evaluated as in the first embodiment, and the accuracy and accuracy of follow-up shooting can be increased.

第2の実施形態の特徴を有し、かつ第1の実施形態の特徴を有しないように眼科撮影装置を構成することが可能である。この眼科撮影装置は、たとえば図10のような構成を有する。   It is possible to configure the ophthalmologic photographing apparatus so as to have the characteristics of the second embodiment and not to have the characteristics of the first embodiment. This ophthalmologic photographing apparatus has a configuration as shown in FIG. 10, for example.

具体的には、この眼科撮影装置は、フォローアップ撮影を行うことが可能な眼科撮影装置であって、撮影部と、断層像形成部と、記憶部と、候補画像判定部と、報知部とを有する。撮影部(眼底カメラユニット2)は、被検眼を撮影して正面画像を取得する。断層像形成部(OCT計測用の光学系、画像形成部220)は、被検眼を光で走査して断層像を形成する。記憶部(記憶部212)は、フォローアップ撮影において参照される正面画像の候補となる候補画像を1つ以上記憶する。候補画像判定部(候補画像判定部234)は、候補画像を解析することにより、当該候補画像がフォローアップ撮影の基準正面画像として適当か否か判定する。報知部は、候補画像判定部による判定結果に基づいて報知を行う。   Specifically, this ophthalmic imaging apparatus is an ophthalmic imaging apparatus capable of performing follow-up imaging, and includes an imaging unit, a tomographic image forming unit, a storage unit, a candidate image determination unit, and a notification unit. Have The imaging unit (fundus camera unit 2) acquires a front image by imaging the eye to be examined. A tomographic image forming unit (an optical system for OCT measurement, the image forming unit 220) scans the eye to be examined with light to form a tomographic image. The storage unit (storage unit 212) stores one or more candidate images that are candidates for the front image referred to in follow-up shooting. The candidate image determination unit (candidate image determination unit 234) analyzes the candidate image to determine whether the candidate image is appropriate as a reference front image for follow-up shooting. The notification unit performs notification based on the determination result by the candidate image determination unit.

このような眼科撮影装置によれば、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できるので、好適な基準正面画像を用いてフォローアップ撮影を行うことが可能である。したがって、フォローアップ撮影の高確度化、高精度化を図ることができる。なお、候補画像判定部234が実行する処理は、上記と同様であってよい。また、上記の表示制御や報知制御を実行可能に構成されていてもよい。   According to such an ophthalmologic photographing apparatus, it is possible to determine whether or not the reference front image used for follow-up photographing is appropriate. Therefore, it is possible to perform follow-up photographing using a suitable reference front image. Therefore, it is possible to improve the accuracy and accuracy of follow-up shooting. Note that the process executed by the candidate image determination unit 234 may be the same as described above. Moreover, you may be comprised so that execution of said display control and alerting | reporting control is possible.

〈第3の実施形態〉
この実施形態では、フォローアップ撮影を実行可能な眼科撮影装置から情報を受けて、その情報を処理する眼科画像処理装置について説明する。眼科画像処理装置は、たとえばコンピュータを含んで構成される。また、眼科画像処理装置の一部がコンピュータの外部に設けられていてもよい。たとえば、記憶部としてネットワーク上のデータベースを用いることができる。
<Third Embodiment>
In this embodiment, an ophthalmic image processing apparatus that receives information from an ophthalmic imaging apparatus capable of performing follow-up imaging and processes the information will be described. The ophthalmologic image processing apparatus includes a computer, for example. A part of the ophthalmic image processing apparatus may be provided outside the computer. For example, a database on a network can be used as the storage unit.

この実施形態の眼科画像処理装置の構成例を図11に示す。この眼科画像処理装置は、第1の実施形態と同様の構成(図4を参照)を有する。一方、この眼科画像処理装置は、第1の実施形態のような撮影部(眼底カメラユニット2)、断層像形成部(OCT計測用の光学系、画像形成部220)を有しない。また、この眼科画像処理装置は、これら除外された構成部位を制御するためのコンピュータプログラムも有しない。以下、第1の実施形態と同様の構成部位についての説明は、特に言及しない限り割愛する。   A configuration example of the ophthalmic image processing apparatus of this embodiment is shown in FIG. This ophthalmic image processing apparatus has the same configuration as that of the first embodiment (see FIG. 4). On the other hand, this ophthalmic image processing apparatus does not have an imaging unit (fundus camera unit 2) and a tomographic image forming unit (an optical system for OCT measurement, the image forming unit 220) as in the first embodiment. Further, this ophthalmic image processing apparatus does not have a computer program for controlling these excluded components. Hereinafter, the description of the constituent parts similar to those of the first embodiment is omitted unless otherwise mentioned.

この実施形態の眼科画像処理装置は、フォローアップ撮影により得られた画像を処理するものであり、少なくとも記憶部と、情報取得部と、算出部とを有する。記憶部(記憶部212)は、被検眼の第1の正面画像と、この第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する。情報取得部(情報取得部231)は、第1の正面画像及び第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する。算出部(算出部232)は、位置ずれ情報に基づいて、当該フォローアップ撮影における光の走査位置の誤差の評価値を算出する。他の構成部位の構成や動作については、第1の実施形態に準ずる。   The ophthalmic image processing apparatus according to this embodiment processes an image obtained by follow-up imaging, and includes at least a storage unit, an information acquisition unit, and a calculation unit. The storage unit (storage unit 212) stores a first front image of the eye to be examined and a second front image acquired in follow-up imaging performed with reference to the first front image. The information acquisition unit (information acquisition unit 231) analyzes the first front image and the second front image, and acquires positional deviation information between these front images. The calculation unit (calculation unit 232) calculates an evaluation value of the error of the light scanning position in the follow-up imaging based on the positional deviation information. About the structure and operation | movement of another structure part, it applies to 1st Embodiment.

このような眼科画像処理装置によれば、眼科撮影装置によって実行されたフォローアップ撮影の誤差の程度を定量的に評価することが可能である。   According to such an ophthalmologic image processing apparatus, it is possible to quantitatively evaluate the degree of error in follow-up imaging performed by the ophthalmologic imaging apparatus.

[変形例]
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
[Modification]
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.

第1及び第2の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。   In the first and second embodiments, the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41. The method for changing the difference is not limited to this. For example, it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light. Is possible. Further, the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS. In particular, when the measured object is not a living body part, the optical path length difference can be changed by moving the measured object in the depth direction (z direction).

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

1 眼科撮影装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
105 光減衰器
106 偏波調整器
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
2111 表示制御部
212 記憶部
2121 フォローアップ撮影情報
220 画像形成部
230 画像処理部
231 情報取得部
232 算出部
2321 相対位置算出部
2322 判断部
2323 面積算出部
2324 変位算出部
2325 評価値算出部
233 撮影適否判定部
234候補画像判定部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光
DESCRIPTION OF SYMBOLS 1 Ophthalmic imaging device 2 Fundus camera unit 10 Illumination optical system 30 Imaging optical system 31 Focus lens 31A Focus drive part 41 Optical path length change part 42 Galvano scanner 50 Alignment optical system 60 Focus optical system 100 OCT unit 101 Light source unit 105 Light attenuation Device 106 polarization adjuster 115 CCD image sensor 200 arithmetic control unit 210 control unit 211 main control unit 2111 display control unit 212 storage unit 2121 follow-up imaging information 220 image forming unit 230 image processing unit 231 information acquisition unit 232 calculation unit 2321 relative Position calculation unit 2322 Determination unit 2323 Area calculation unit 2324 Displacement calculation unit 2325 Evaluation value calculation unit 233 Imaging suitability determination unit 234 Candidate image determination unit 240A Display unit 240B Operation unit E Eye to be examined Ef Fundus LS Signal light LR Reference light LC Interference light

Claims (7)

過去に取得された被検眼の正面画像を参照し過去と同一位置を光で走査して断層像を取得するためのフォローアップ撮影を行うことが可能な眼科撮影装置であって、
被検眼を撮影して正面画像を取得する撮影部と、
前記被検眼を光で走査して断層像を形成する断層像形成部と、
前記被検眼の第1の正面画像と、前記第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する記憶部と、
前記第1の正面画像及び前記第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する情報取得部と、
前記位置ずれ情報に基づいて、当該フォローアップ撮影における走査位置の誤差の評価値を算出する算出部と
を有し、
前記記憶部は、前記第2の正面画像として、当該フォローアップ撮影で前記光の走査が行われた期間において最初に得られた正面画像と最後に得られた正面画像とを記憶する
ことを特徴とする眼科撮影装置。
An ophthalmologic imaging apparatus capable of performing follow-up imaging for acquiring a tomographic image by scanning a light at the same position as the past with reference to a front image of a subject eye acquired in the past,
A photographing unit for photographing the eye to be examined and obtaining a front image;
A tomographic image forming unit that scans the eye with light to form a tomographic image;
A storage unit that stores a first front image of the eye to be examined and a second front image acquired in follow-up imaging performed with reference to the first front image;
An information acquisition unit that analyzes the first front image and the second front image and acquires positional deviation information between the front images;
A calculation unit that calculates an evaluation value of an error of a scanning position in the follow-up imaging based on the positional deviation information, and
The storage unit stores, as the second front image, a front image obtained first and a front image obtained last in a period in which the light scan is performed in the follow-up photography. Ophthalmic imaging device.
当該フォローアップ撮影が行われるときに、
前記記憶部は、前記第1の正面画像の候補となる候補画像を1つ以上記憶しており、
前記候補画像を解析することにより、当該候補画像が前記第1の正面画像として適当か否か判定する候補画像判定部と、
前記候補画像判定部による判定結果に基づいて報知を行う報知部と
を有する
ことを特徴とする請求項1に記載の眼科撮影装置。
When the follow-up shooting is done,
The storage unit stores one or more candidate images that are candidates for the first front image,
A candidate image determination unit that determines whether the candidate image is appropriate as the first front image by analyzing the candidate image;
The ophthalmologic photographing apparatus according to claim 1, further comprising: a notification unit that performs notification based on a determination result by the candidate image determination unit.
前記候補画像判定部は、当該候補画像の画素値に基づいて前記判定を行うことを特徴とする請求項2に記載の眼科撮影装置。   The ophthalmologic photographing apparatus according to claim 2, wherein the candidate image determination unit performs the determination based on a pixel value of the candidate image. 前記候補画像判定部は、当該候補画像の空間周波数成分を求め、当該空間周波数成分に基づいて前記判定を行うことを特徴とする請求項2に記載の眼科撮影装置。   The ophthalmologic photographing apparatus according to claim 2, wherein the candidate image determination unit obtains a spatial frequency component of the candidate image and performs the determination based on the spatial frequency component. 前記報知部は、前記判定結果を示す情報を表示部に表示させる報知制御部を含むことを特徴とする請求項2〜請求項4のいずれか一項に記載の眼科撮影装置。   The ophthalmologic photographing apparatus according to any one of claims 2 to 4, wherein the notification unit includes a notification control unit that displays information indicating the determination result on a display unit. 当該候補画像が前記参照される正面画像として不適当であるとの判定結果が得られたことに対応して前記断層像形成部による前記光の走査を禁止する禁止制御部を有することを特徴とする請求項2〜請求項5のいずれか一項に記載の眼科撮影装置。   And a prohibition control unit that prohibits scanning of the light by the tomographic image forming unit in response to the determination result that the candidate image is inappropriate as the referenced front image. The ophthalmologic photographing apparatus according to any one of claims 2 to 5. 過去に取得された被検眼の正面画像を参照し過去と同一位置を光で走査して断層像を取得するためのフォローアップ撮影により得られた画像を処理する眼科画像処理装置であって、
被検眼の第1の正面画像と、前記第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する記憶部と、
前記第1の正面画像及び前記第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する情報取得部と、
前記位置ずれ情報に基づいて、当該フォローアップ撮影における前記光の走査位置の誤差の評価値を算出する算出部と
を有し、
前記記憶部は、前記第2の正面画像として、当該フォローアップ撮影で前記光の走査が行われた期間において最初に得られた正面画像と最後に得られた正面画像とを記憶する
ことを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus that processes an image obtained by follow-up imaging for scanning a light at the same position as the past with reference to a front image of the eye to be examined acquired in the past and acquiring a tomographic image,
A storage unit that stores a first front image of the eye to be examined and a second front image acquired in follow-up imaging performed with reference to the first front image;
An information acquisition unit that analyzes the first front image and the second front image and acquires positional deviation information between the front images;
A calculation unit that calculates an evaluation value of an error in the scanning position of the light in the follow-up imaging based on the positional deviation information;
The storage unit stores, as the second front image, a front image obtained first and a front image obtained last in a period in which the light scan is performed in the follow-up photography. An ophthalmic image processing apparatus.
JP2016039648A 2016-03-02 2016-03-02 Ophthalmic photographing apparatus and ophthalmic image processing apparatus Active JP6106299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039648A JP6106299B2 (en) 2016-03-02 2016-03-02 Ophthalmic photographing apparatus and ophthalmic image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039648A JP6106299B2 (en) 2016-03-02 2016-03-02 Ophthalmic photographing apparatus and ophthalmic image processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012131534A Division JP5941761B2 (en) 2012-06-11 2012-06-11 Ophthalmic photographing apparatus and ophthalmic image processing apparatus

Publications (2)

Publication Number Publication Date
JP2016104304A true JP2016104304A (en) 2016-06-09
JP6106299B2 JP6106299B2 (en) 2017-03-29

Family

ID=56102047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039648A Active JP6106299B2 (en) 2016-03-02 2016-03-02 Ophthalmic photographing apparatus and ophthalmic image processing apparatus

Country Status (1)

Country Link
JP (1) JP6106299B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11276439A (en) * 1998-03-31 1999-10-12 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2003010131A (en) * 2001-07-03 2003-01-14 Canon Inc Opthalmologic image processing method and storage medium
JP2003524484A (en) * 1999-12-23 2003-08-19 ヴィスクス インコーポレイテッド Optical feedback system for vision correction
JP2008061848A (en) * 2006-09-08 2008-03-21 Gifu Univ Image pickup device and image analysis program
JP2008289642A (en) * 2007-05-24 2008-12-04 Topcon Corp Optical image measuring apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11276439A (en) * 1998-03-31 1999-10-12 Nidek Co Ltd Ophthalmologic photographing apparatus
JP2003524484A (en) * 1999-12-23 2003-08-19 ヴィスクス インコーポレイテッド Optical feedback system for vision correction
JP2003010131A (en) * 2001-07-03 2003-01-14 Canon Inc Opthalmologic image processing method and storage medium
JP2008061848A (en) * 2006-09-08 2008-03-21 Gifu Univ Image pickup device and image analysis program
JP2008289642A (en) * 2007-05-24 2008-12-04 Topcon Corp Optical image measuring apparatus
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus

Also Published As

Publication number Publication date
JP6106299B2 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP5867719B2 (en) Optical image measuring device
JP5432625B2 (en) Ophthalmic observation device
JP5941761B2 (en) Ophthalmic photographing apparatus and ophthalmic image processing apparatus
JP4971872B2 (en) Fundus observation apparatus and program for controlling the same
JP5912358B2 (en) Fundus observation device
JP5981213B2 (en) Fundus observation device
JP6045895B2 (en) Ophthalmic observation device
JP5916110B2 (en) Image display device, image display method, and program
JP5415902B2 (en) Ophthalmic observation device
JP5543171B2 (en) Optical image measuring device
JP5628636B2 (en) Fundus image processing apparatus and fundus observation apparatus
US10058242B2 (en) Ophthalmologic imaging apparatus and ophthalmologic image display apparatus
JP2013176497A (en) Fundus observation device and fundus image analysis device
JP5837143B2 (en) Ophthalmic observation apparatus, control method thereof, and program
JP5514026B2 (en) Fundus image processing apparatus and fundus observation apparatus
JP5658305B2 (en) Ophthalmic observation apparatus, control method thereof, and program
JP6099782B2 (en) Ophthalmic imaging equipment
JP6254724B2 (en) Fundus observation device
JP6503040B2 (en) Ophthalmic observation device
JP6254729B2 (en) Ophthalmic imaging equipment
JP6021289B2 (en) Blood flow information generation device, blood flow information generation method, and program
JP6106299B2 (en) Ophthalmic photographing apparatus and ophthalmic image processing apparatus
JP6106300B2 (en) Ophthalmic imaging equipment
JP6527970B2 (en) Ophthalmic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170303

R150 Certificate of patent or registration of utility model

Ref document number: 6106299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250