JP6585897B2 - Ophthalmic imaging equipment - Google Patents
Ophthalmic imaging equipment Download PDFInfo
- Publication number
- JP6585897B2 JP6585897B2 JP2015015651A JP2015015651A JP6585897B2 JP 6585897 B2 JP6585897 B2 JP 6585897B2 JP 2015015651 A JP2015015651 A JP 2015015651A JP 2015015651 A JP2015015651 A JP 2015015651A JP 6585897 B2 JP6585897 B2 JP 6585897B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- scan
- cross
- unit
- scanning line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 28
- 230000003287 optical effect Effects 0.000 claims description 122
- 238000012014 optical coherence tomography Methods 0.000 claims description 98
- 238000005259 measurement Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 description 39
- 238000000034 method Methods 0.000 description 29
- 210000004220 fundus oculi Anatomy 0.000 description 25
- 230000008569 process Effects 0.000 description 16
- 238000005286 illumination Methods 0.000 description 15
- 230000010287 polarization Effects 0.000 description 14
- 239000013307 optical fiber Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 239000003550 marker Substances 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 239000000835 fiber Substances 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 239000006185 dispersion Substances 0.000 description 6
- 230000002207 retinal effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 108010043121 Green Fluorescent Proteins Proteins 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 210000002294 anterior eye segment Anatomy 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 1
- 229960004657 indocyanine green Drugs 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
Description
この発明は、眼科撮影装置に関する。 The present invention relates to an ophthalmologic photographing apparatus.
眼科分野では、被検眼を撮影するための様々な装置が用いられる。近年では、眼底や前眼部の断面像や3次元画像を取得可能な光干渉断層計(OCT)が注目を集めている。 In the field of ophthalmology, various apparatuses for photographing an eye to be examined are used. In recent years, an optical coherence tomography (OCT) capable of acquiring a cross-sectional image or a three-dimensional image of the fundus or anterior segment has attracted attention.
OCTを行う際には、被検眼の注目部位が計測範囲(スキャン範囲)に含まれている必要がある。そのために、被検眼の注目部位がフレーム内に描出されるようにOCTの計測範囲を調整する技術が用いられる。たとえば特許文献1には、2次元の計測範囲の中央部及び対向する端部の位置の断面像を取得し、取得された複数の断面像を隣り合わせて並べて表示し、断面像に含まれる網膜層がフレームの上端又は下端にかかる断面像を他の断面像と異なる態様で表示するよう構成された装置が開示されている。この装置によれば、計測範囲の奥行き方向における網膜層のずれを検出して報知することが可能である。 When performing OCT, the target region of the eye to be examined needs to be included in the measurement range (scan range). Therefore, a technique for adjusting the OCT measurement range so that the region of interest of the eye to be examined is depicted in the frame is used. For example, Patent Document 1 acquires a cross-sectional image of the position of the center and the opposite end of a two-dimensional measurement range, displays the acquired cross-sectional images side by side, and displays a retinal layer included in the cross-sectional image. Discloses an apparatus configured to display a cross-sectional image on the upper end or lower end of the frame in a manner different from other cross-sectional images. According to this apparatus, it is possible to detect and notify the displacement of the retinal layer in the depth direction of the measurement range.
なお、特許文献1に開示された技術では、矩形状の計測範囲の中央部を通るライン(中央ライン)と、この計測範囲の対向する2辺に相当し且つ中央ラインに平行な2つのラインとからなる3つのラインに沿う3つの断面像を取得している。また、円形状の計測範囲の中心を通るラインに沿う断面像と、この計測範囲の周縁に相当するサークルに沿う断面像とを取得する技術が特許文献1に開示されている。 In the technology disclosed in Patent Document 1, a line (center line) that passes through the center of the rectangular measurement range, and two lines that correspond to two opposite sides of the measurement range and are parallel to the center line, Three cross-sectional images along the three lines are acquired. Patent Document 1 discloses a technique for obtaining a cross-sectional image along a line passing through the center of a circular measurement range and a cross-sectional image along a circle corresponding to the periphery of the measurement range.
被検眼の注目部位とOCTの計測範囲との位置の調整は、奥行き方向だけでなく、2次元的または3次元的に行われることが望ましい。しかし、特許文献1に開示された技術では、奥行き方向以外の方向における網膜層のずれを検出することができない。また、特許文献1に開示された技術では、断面像に沿う方向への被検眼の傾きに起因するずれを検出することはできるが、それ以外の方向への傾きに起因するずれを高精度で検出することは困難である。 The adjustment of the position of the target region of the eye to be examined and the OCT measurement range is desirably performed not only in the depth direction but also two-dimensionally or three-dimensionally. However, the technique disclosed in Patent Document 1 cannot detect a retinal layer shift in a direction other than the depth direction. Further, the technique disclosed in Patent Document 1 can detect a deviation due to the inclination of the eye to be examined in the direction along the cross-sectional image, but the deviation due to the inclination in the other direction can be detected with high accuracy. It is difficult to detect.
この発明の目的は、OCTの計測範囲のずれを検出するための新規な技術を提供することにある。 An object of the present invention is to provide a novel technique for detecting a shift in the OCT measurement range.
実施形態の眼科撮影装置は、光コヒーレンストモグラフィ(OCT)を用いて被検眼を走査することにより断面像を取得する眼科撮影装置であって、前記被検眼における第1走査線に沿う第1走査と、前記第1走査線と向きが異なる第2走査線に沿う第2走査とを実行してデータを取得するデータ取得部と、前記第1走査により取得されたデータに基づく断面像を解析して前記被検眼の注目部位の画像領域を特定し、前記第2走査により取得されたデータに基づく断面像を解析して前記注目部位の画像領域を特定する特定部と、前記特定部により特定された前記画像領域の当該断面像における位置に基づいて表示手段に情報を表示させる表示制御部と、前記第1走査により取得されたデータに基づく断面像および/または前記第2走査により取得されたデータに基づく断面像から前記被検眼の特定部位を特定し、当該断面像のフレームの所定の深さ位置に前記特定部位が配置されるようにOCT測定光の光路長および/またはOCT参照光の光路長を変更する条件制御部とを備え、前記第1走査線および前記第2走査線のそれぞれは線分状であり、前記第1走査線と前記第2走査線とが互いに垂直であり、且つ、互いの中央位置で交差していることを特徴とする。 An ophthalmologic photographing apparatus according to an embodiment is an ophthalmic photographing apparatus that acquires a cross-sectional image by scanning an eye to be examined using optical coherence tomography (OCT), and performs a first scan along a first scanning line in the eye to be examined. And a data acquisition unit for acquiring data by executing a second scan along a second scan line having a direction different from that of the first scan line, and analyzing a cross-sectional image based on the data acquired by the first scan Identifying the image region of the target region of the eye to be examined, analyzing the cross-sectional image based on the data acquired by the second scan, and identifying the image region of the target region, and the specific unit A display control unit for displaying information on a display unit based on a position of the image area in the cross-sectional image, and a cross-sectional image based on the data acquired by the first scan and / or the second scan. The specific part of the eye to be examined is specified from the cross-sectional image based on the obtained data, and the optical path length and / or OCT of the OCT measurement light is arranged so that the specific part is arranged at a predetermined depth position of the frame of the cross-sectional image. A condition control unit that changes an optical path length of the reference light, each of the first scanning line and the second scanning line is a line segment, and the first scanning line and the second scanning line are perpendicular to each other. And intersecting each other at the center position .
この発明によれば、OCTの計測範囲のずれを検出するための新規な技術が提供される。 According to the present invention, a novel technique for detecting a shift in the OCT measurement range is provided.
この発明の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼科撮影装置は、被検眼の光コヒーレンストモグラフィ(OCT)を実行する。このOCTは、たとえば眼底や前眼部など、被検眼の任意の部位に対して実行される。 An example of an embodiment of the present invention will be described in detail with reference to the drawings. An ophthalmologic photographing apparatus according to the present invention performs optical coherence tomography (OCT) of an eye to be examined. This OCT is performed on any part of the eye to be examined, such as the fundus or the anterior eye segment.
この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、この明細書において引用された文献の記載内容を、以下の実施形態の内容として援用することが可能である。 In this specification, images acquired by OCT may be collectively referred to as OCT images. Moreover, it is possible to use the description content of the literature referred in this specification as the content of the following embodiment.
以下の実施形態では、フーリエドメインタイプのOCTを実行可能な眼科撮影装置について説明する。特に、実施形態に係る眼科撮影装置は、スウェプトソースタイプのOCTの手法を適用可能である。なお、スウェプトソースタイプ以外のタイプ、たとえばスペクトラルドメインタイプのOCTを実行可能な眼科撮影装置に対して、この発明に係る構成を適用することも可能である。また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外のモダリティ、たとえばSLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などに、実施形態に係る構成を有するOCT装置を組み合わせることも可能である。また、実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。 In the following embodiment, an ophthalmologic imaging apparatus capable of executing Fourier domain type OCT will be described. In particular, the ophthalmologic photographing apparatus according to the embodiment can apply a swept source type OCT technique. Note that the configuration according to the present invention can also be applied to an ophthalmologic photographing apparatus capable of executing a type other than the swept source type, for example, a spectral domain type OCT. In the following embodiments, an apparatus combining an OCT apparatus and a fundus camera will be described. However, modalities other than the fundus camera, for example, SLO (Scanning Laser Ophthalmoscope), slit lamps, ophthalmic surgical microscopes, and the like according to the embodiment. It is also possible to combine OCT apparatuses having configurations. In addition, the configuration according to the embodiment can be incorporated into a single OCT apparatus.
実質的に一定の断面を繰り返しOCTスキャンして当該断面の動画像をリアルタイムで表示する技術は、ライブスキャンと呼ばれる。ライブスキャンは、計測範囲の調整だけでなく、被検眼の動きの観察やスキャン位置の設定など様々な目的で利用される。 A technique for displaying a moving image of a cross section in real time by repeatedly performing an OCT scan on a substantially constant cross section is called a live scan. The live scan is used not only for adjustment of the measurement range but also for various purposes such as observation of the movement of the eye to be examined and setting of the scan position.
[構成]
図1に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系と、OCTを実行するための光学系とを有する。OCTユニット100には、OCTを実行するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
[Constitution]
As shown in FIG. 1, the ophthalmologic photographing apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 includes an optical system that is substantially the same as a conventional retinal camera and an optical system for performing OCT. The OCT unit 100 is provided with an optical system for executing OCT. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。さらに、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの測定光を被検眼Eに導くとともに、被検眼Eを経由した測定光をOCTユニット100に導く。 The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the measurement light from the OCT unit 100 to the eye E and guides the measurement light passing through the eye E to the OCT unit 100.
照明光学系10の観察光源11は、たとえばハロゲンランプまたはLED(Light Emitting Diode)により構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。 The observation light source 11 of the illumination optical system 10 is configured by, for example, a halogen lamp or an LED (Light Emitting Diode). The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。 The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
撮影光源15は、たとえばキセノンランプまたはLEDにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。 The imaging light source 15 is constituted by, for example, a xenon lamp or an LED. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT時などに使用される。 An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT.
LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。 A part of the light output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and then reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。 By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, as in a conventional fundus camera, a position for acquiring an image centered on the macular of the fundus oculi Ef, a position for acquiring an image centered on the optic nerve head, And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、被検眼Eに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。 Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the eye E to be examined.
アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。 The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.
アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。 The corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror The light passes through 33A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。 When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。 The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the cornea reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
ダイクロイックミラー46は、眼底撮影用の光路からOCT用の光路を分岐させている。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、バリアブルクロスシリンダーレンズ(以下、VCCレンズ)47と、光スキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。 The dichroic mirror 46 branches the optical path for OCT from the optical path for fundus imaging. The dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photographing. In this OCT optical path, in order from the OCT unit 100 side, a collimator lens unit 40, an optical path length changing unit 41, a variable cross cylinder lens (hereinafter referred to as a VCC lens) 47, an optical scanner 42, and a focusing lens 43. A mirror 44 and a relay lens 45 are provided.
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置されている。光スキャナ42は、OCT用の光路を通過する光(測定光LS)の進行方向を変更する。それにより、被検眼Eを測定光LSで走査することができる。光スキャナ42は、たとえば、測定光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光LSをxy平面上の任意の方向に走査することができる。 The optical scanner 42 is disposed at a position optically conjugate with the pupil of the eye E. The optical scanner 42 changes the traveling direction of the light (measurement light LS) passing through the optical path for OCT. Thereby, the eye E can be scanned with the measurement light LS. The optical scanner 42 includes, for example, a galvanometer mirror that scans the measurement light LS in the x direction, a galvanometer mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the measurement light LS can be scanned in an arbitrary direction on the xy plane.
〔OCTユニット〕
OCTユニット100の構成の一例を図2に示す。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスウェプトソースタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、波長走査型(波長掃引型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 is shown in FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the eye E. This optical system has the same configuration as a conventional swept source type OCT apparatus. That is, this optical system divides the light from the wavelength scanning type (wavelength sweep type) light source into the measurement light and the reference light, and returns the return light of the measurement light from the eye E and the reference light via the reference light path. An interference optical system that generates interference light by causing interference and detects the interference light. The detection result (detection signal) of the interference light by the interference optical system is a signal indicating the spectrum of the interference light and is sent to the arithmetic control unit 200.
光源ユニット101は、一般的なスウェプトソースタイプのOCT装置と同様に、出射光の波長を走査(掃引)可能な波長走査型(波長掃引型)光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。 The light source unit 101 includes a wavelength scanning type (wavelength sweeping type) light source capable of scanning (sweeping) the wavelength of the emitted light, as in a general swept source type OCT apparatus. The light source unit 101 temporally changes the output wavelength in the near-infrared wavelength band that cannot be visually recognized by the human eye.
光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏波コントローラ103は、たとえばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏光状態を調整する。 The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102 and its polarization state is adjusted. The polarization controller 103 adjusts the polarization state of the light L0 guided through the optical fiber 102, for example, by applying stress from the outside to the looped optical fiber 102.
偏波コントローラ103により偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light L0 whose polarization state is adjusted by the polarization controller 103 is guided to the fiber coupler 105 by the optical fiber 104, and is divided into the measurement light LS and the reference light LR.
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束となる。平行光束となった参照光LRは、光路長補正部材112および分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長(光学距離)と測定光LSの光路長とを合わせるための遅延手段として作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるための分散補償手段として作用する。 The reference light LR is guided to the collimator 111 by the optical fiber 110 and becomes a parallel light beam. The reference light LR that has become a parallel light beam is guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113. The optical path length correction member 112 functions as a delay unit for matching the optical path length (optical distance) of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 functions as a dispersion compensation means for matching the dispersion characteristics between the reference light LR and the measurement light LS.
コーナーキューブ114は、コリメータ111により平行光束となった参照光LRの進行方向を逆方向に折り返す。コーナーキューブ114に入射する参照光LRの光路と、コーナーキューブ114から出射する参照光LRの光路とは平行である。また、コーナーキューブ114は、参照光LRの入射光路および出射光路に沿う方向に移動可能とされている。この移動により参照光LRの光路の長さが変更される。 The corner cube 114 folds the traveling direction of the reference light LR that has become a parallel light beam by the collimator 111 in the reverse direction. The optical path of the reference light LR incident on the corner cube 114 and the optical path of the reference light LR emitted from the corner cube 114 are parallel. The corner cube 114 is movable in a direction along the incident optical path and the outgoing optical path of the reference light LR. By this movement, the length of the optical path of the reference light LR is changed.
なお、図1および図2に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられているが、これらのうちのいずれか一方が設けられていてもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。 1 and 2, the optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS, and the optical path (reference optical path, reference) of the reference light LR. Both corner cubes 114 for changing the length of the arm) are provided, but either one of them may be provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length using optical members other than these.
コーナーキューブ114を経由した参照光LRは、分散補償部材113および光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換されて光ファイバ117に入射し、偏波コントローラ118に導かれて参照光LRの偏光状態が調整される。 The reference light LR that has passed through the corner cube 114 passes through the dispersion compensation member 113 and the optical path length correction member 112, is converted from a parallel light beam to a focused light beam by the collimator 116, enters the optical fiber 117, and is guided to the polarization controller 118. Accordingly, the polarization state of the reference light LR is adjusted.
偏波コントローラ118は、たとえば、偏波コントローラ103と同様の構成を有する。偏波コントローラ118により偏光状態が調整された参照光LRは、光ファイバ119によりアッテネータ120に導かれて、演算制御ユニット200の制御の下で光量が調整される。アッテネータ120により光量が調整された参照光LRは、光ファイバ121によりファイバカプラ122に導かれる。 For example, the polarization controller 118 has the same configuration as the polarization controller 103. The reference light LR whose polarization state is adjusted by the polarization controller 118 is guided to the attenuator 120 by the optical fiber 119, and the light quantity is adjusted under the control of the arithmetic control unit 200. The reference light LR whose light amount has been adjusted by the attenuator 120 is guided to the fiber coupler 122 by the optical fiber 121.
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた測定光LSは、光路長変更部41、光スキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱(反射を含む)される。このような後方散乱光を含む測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40. The measurement light LS converted into a parallel light beam reaches the dichroic mirror 46 via the optical path length changing unit 41, the optical scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. Then, the measurement light LS is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the eye E. The measurement light LS is scattered (including reflection) at various depth positions of the eye E. The return light of the measurement light LS including such backscattered light travels in the reverse direction on the same path as the forward path, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(たとえば1:1)で、測定光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。 The fiber coupler 122 combines (interferes) the measurement light LS incident through the optical fiber 128 and the reference light LR incident through the optical fiber 121 to generate interference light. The fiber coupler 122 branches the interference light between the measurement light LS and the reference light LR at a predetermined branching ratio (for example, 1: 1), thereby generating a pair of interference lights LC. The pair of interference lights LC emitted from the fiber coupler 122 are guided to the detector 125 by optical fibers 123 and 124, respectively.
検出器125は、たとえば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(検出信号)を演算制御ユニット200に送る。演算制御ユニット200は、たとえば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける反射強度プロファイルを形成する。さらに、演算制御ユニット200は、各Aラインプロファイルを画像化することにより画像データを形成する。 The detector 125 is, for example, a balanced photodiode that includes a pair of photodetectors that respectively detect a pair of interference lights LC and outputs a difference between detection results obtained by the pair of photodetectors. The detector 125 sends the detection result (detection signal) to the arithmetic control unit 200. The arithmetic control unit 200 performs, for example, Fourier transform or the like on the spectrum distribution based on the detection result obtained by the detector 125 for each series of wavelength scans (for each A line), thereby obtaining the reflection intensity profile in each A line. Form. Further, the arithmetic control unit 200 forms image data by imaging each A-line profile.
この実施形態ではマイケルソン型の干渉光学系を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉光学系を採用することが可能である。 In this embodiment, a Michelson type interference optical system is employed, but any type of interference optical system such as a Mach-Zehnder type can be employed.
〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、検出器125から入力される検出信号を解析して被検眼EのOCT画像を形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the detector 125 and forms an OCT image of the eye E. The arithmetic processing for this is the same as that of a conventional swept source type OCT apparatus.
また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。 The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the eye E on the display device 3.
また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、光スキャナ42の動作制御などを行う。 As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the optical scanner 42, and the like are performed.
また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、コーナーキューブ114の移動制御、検出器125の動作制御、アッテネータ120の動作制御、偏波コントローラ103、118の動作制御などを行う。 As the control of the OCT unit 100, the arithmetic control unit 200 controls the operation of the light source unit 101, the movement control of the corner cube 114, the operation control of the detector 125, the operation control of the attenuator 120, and the operations of the polarization controllers 103 and 118. Control and so on.
演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。 The arithmetic and control unit 200 includes, for example, a microprocessor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a communication interface, and the like, as in a conventional computer. A computer program for controlling the ophthalmologic photographing apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。 The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.
〔制御系〕
眼科撮影装置1の制御系の構成について図3を参照しつつ説明する。なお、図3においては、眼科撮影装置1のいくつかの構成要素が省略されており、この実施形態を説明するために特に必要な構成要素が選択的に示されている。
[Control system]
The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIG. In FIG. 3, some components of the ophthalmologic photographing apparatus 1 are omitted, and components particularly necessary for explaining this embodiment are selectively shown.
(制御部)
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control part)
The control system of the ophthalmologic photographing apparatus 1 is configured around the control unit 210. The controller 210 includes, for example, a microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.
(主制御部)
主制御部211は前述の各種制御を行う。特に、図3に示すように、主制御部211は、眼底カメラユニット2のCCDイメージセンサ35および38、撮影合焦駆動部31A、光路長変更部41、光スキャナ42およびOCT合焦駆動部43A、並びに、OCTユニット100の光源ユニット101、参照駆動部114Aおよび検出器125を制御する。
(Main control unit)
The main control unit 211 performs the various controls described above. In particular, as shown in FIG. 3, the main control unit 211 includes the CCD image sensors 35 and 38 of the fundus camera unit 2, an imaging focusing drive unit 31A, an optical path length changing unit 41, an optical scanner 42, and an OCT focusing drive unit 43A. In addition, the light source unit 101, the reference driving unit 114A, and the detector 125 of the OCT unit 100 are controlled.
撮影合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、被検眼Eを動画撮影して得られる画像に基づき被検眼Eの位置や向きに合わせて装置光学系をリアルタイムで移動させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。 The photographing focus driving unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed. The main control unit 211 can control an optical system drive unit (not shown) to move the optical system provided in the fundus camera unit 2 three-dimensionally. This control is used in alignment and tracking. Tracking refers to moving the apparatus optical system in accordance with the movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking maintains a suitable positional relationship in which alignment and focus are achieved by moving the apparatus optical system in real time according to the position and orientation of the eye E based on an image obtained by taking a moving image of the eye E. It is a function.
OCT合焦駆動部43Aは、測定光路の光軸に沿って合焦レンズ43を移動させる。それにより、測定光LSの合焦位置が変更される。測定光LSの合焦位置は、測定光LSのビームウェストの深さ位置(z位置)に相当する。 The OCT focusing drive unit 43A moves the focusing lens 43 along the optical axis of the measurement optical path. Thereby, the focus position of the measurement light LS is changed. The focus position of the measurement light LS corresponds to the depth position (z position) of the beam waist of the measurement light LS.
参照駆動部114Aは、参照光路に設けられたコーナーキューブ114を移動させる。それにより、参照光路の長さが変更される。なお、前述したように、光路長変更部41と、コーナーキューブ114および参照駆動部114Aとのいずれか一方のみが設けられた構成であってもよい。 The reference driving unit 114A moves the corner cube 114 provided in the reference optical path. Thereby, the length of the reference optical path is changed. As described above, the optical path length changing unit 41 and only one of the corner cube 114 and the reference driving unit 114A may be provided.
図3に示すように、主制御部211には、条件制御部2111と、表示制御部2112とが設けられている。 As shown in FIG. 3, the main control unit 211 is provided with a condition control unit 2111 and a display control unit 2112.
(条件制御部)
条件制御部2111は、OCTに関する条件の制御を行う。OCTに関する条件としては、測定光LSのスキャンに関する条件(スキャン条件)や、測定光LSのフォーカスに関する条件(フォーカス条件)、測定光LSと参照光LRとの干渉状態に関する条件(干渉条件)などがある。スキャン条件には、光スキャナ42の制御に関するスキャンパターンやスキャン間隔などがある。スキャンパターンは、スキャンの形状を表す条件であり、その具体例として、線分状のラインスキャン、円形状のサークルスキャン、ラスタースキャン(3次元スキャン)などがある。フォーカス条件には、合焦レンズ43(OCT合焦駆動部43A)等の制御に関する測定光LSの合焦位置などがある。干渉条件は、合焦レンズ43(OCT合焦駆動部43A)やコーナーキューブ114(参照駆動部114A)や偏波コントローラ118やアッテネータ120の制御に関する。条件制御部2111は、設定された条件に基づいて制御を実行する。なお、OCTに関する条件はこれらに限定されず、たとえば被検眼Eのディオプタに応じた視度補正などがある。
(Condition control unit)
The condition control unit 2111 controls conditions related to OCT. Conditions relating to OCT include conditions relating to scanning of the measurement light LS (scanning conditions), conditions relating to the focus of the measurement light LS (focus conditions), conditions relating to an interference state between the measurement light LS and the reference light LR (interference conditions), and the like. is there. The scan conditions include a scan pattern related to the control of the optical scanner 42 and a scan interval. The scan pattern is a condition that represents the shape of the scan, and specific examples include a line scan in a line segment, a circle scan in a circular shape, a raster scan (three-dimensional scan), and the like. The focus condition includes a focus position of the measurement light LS related to control of the focus lens 43 (OCT focus drive unit 43A) and the like. The interference condition relates to the control of the focusing lens 43 (OCT focusing driving unit 43A), the corner cube 114 (reference driving unit 114A), the polarization controller 118, and the attenuator 120. The condition control unit 2111 executes control based on the set condition. In addition, the conditions regarding OCT are not limited to these, For example, there exists diopter correction according to the diopter of the eye E to be examined.
(表示制御部)
表示制御部2112は、各種の情報を表示部241に表示させる。表示制御部2112が実行する処理については後述する。
(Display control unit)
The display control unit 2112 displays various information on the display unit 241. Processing executed by the display control unit 2112 will be described later.
(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the ophthalmologic photographing apparatus 1.
(画像形成部)
画像形成部220は、検出器125からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。すなわち、画像形成部220は、干渉光学系による干渉光LCの検出結果に基づいて被検眼Eの画像データを形成する。この処理には、従来のスウェプトソースタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼E内における各測定光LSの経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。
(Image forming part)
The image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the detection signal from the detector 125. That is, the image forming unit 220 forms image data of the eye E based on the detection result of the interference light LC by the interference optical system. This process includes processes such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform), as in the case of the conventional swept source type OCT. The image data acquired in this way is a data set including a group of image data formed by imaging reflection intensity profiles in a plurality of A lines (paths of the measurement light LS in the eye E). is there.
画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。 In order to improve the image quality, it is possible to superimpose (addition average) a plurality of data sets acquired by repeating scanning with the same pattern a plurality of times.
画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、被検眼Eの部位とその画像とを同一視することもある。 The image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified. Moreover, the part of the eye E to be examined and the image thereof may be identified.
(データ処理部)
データ処理部230は、画像形成部220により形成されたOCT画像に対して各種のデータ処理(画像処理)や解析処理を施す。たとえば、データ処理部230は、画像の輝度補正や分散補正等の補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Data processing part)
The data processing unit 230 performs various types of data processing (image processing) and analysis processing on the OCT image formed by the image forming unit 220. For example, the data processing unit 230 executes correction processing such as image brightness correction and dispersion correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
データ処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼Eのボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The data processing unit 230 can form volume data (voxel data) of the eye E by performing known image processing such as interpolation processing for interpolating pixels between cross-sectional images. When displaying an image based on volume data, the data processing unit 230 performs a rendering process on the volume data to form a pseudo three-dimensional image when viewed from a specific viewing direction.
データ処理部230は、眼底像とOCT画像との位置合わせを行うことができる。眼底像とOCT画像とが並行して取得される場合には、双方の光学系が同軸であることから、(ほぼ)同時に取得された眼底像とOCT画像とを、撮影光学系30の光軸を基準として位置合わせすることができる。また、眼底像とOCT画像との取得タイミングに関わらず、OCT画像のうち眼底Efの相当する画像領域の少なくとも一部をxy平面に投影して得られる正面画像と、眼底像との位置合わせをすることにより、そのOCT画像とその眼底像とを位置合わせすることも可能である。この位置合わせ手法は、眼底像取得用の光学系とOCT用の光学系とが同軸でない場合においても適用可能である。また、双方の光学系が同軸でない場合であっても、双方の光学系の相対的な位置関係が既知であれば、この相対位置関係を参照して同軸の場合と同様の位置合わせを実行することが可能である。 The data processing unit 230 can perform alignment between the fundus image and the OCT image. When the fundus image and the OCT image are acquired in parallel, since both optical systems are coaxial, the optical axis of the imaging optical system 30 is used to (substantially) simultaneously acquire the fundus image and the OCT image. Can be aligned with reference to. Regardless of the acquisition timing of the fundus image and the OCT image, the front image obtained by projecting at least a part of the image area corresponding to the fundus oculi Ef of the OCT image onto the xy plane is aligned with the fundus image. By doing so, it is possible to align the OCT image and the fundus image. This alignment method is applicable even when the fundus image acquisition optical system and the OCT optical system are not coaxial. Even if both optical systems are not coaxial, if the relative positional relationship between both optical systems is known, the same alignment as in the coaxial case is executed with reference to this relative positional relationship. It is possible.
(注目領域特定部)
データ処理部230には注目領域特定部231が設けられている。注目領域特定部231は、OCTスキャンにより取得されたデータに基づき形成された断面像を解析することで、被検眼Eの注目部位に相当する画像領域(注目領域)を特定する。
(Attention area identification part)
The data processing unit 230 is provided with an attention area specifying unit 231. The attention area specifying unit 231 specifies an image area (attention area) corresponding to the attention site of the eye E by analyzing the cross-sectional image formed based on the data acquired by the OCT scan.
解析される断面像は、画像形成部220またはデータ処理部230により形成された画像である。たとえば、解析される断面像は、画像形成部220により形成された、OCTスキャンの走査線に沿う断面像(Bスキャン像)であってよい。或いは、解析される断面像は、画像形成部220により形成された複数の断面像に基づく3次元画像にMPR処理(多断面再構成)を施すことにより得られる任意断面を表す2次元断面像であってよい。さらなる例として、解析される断面像は、データ処理部230により形成される3次元画像またはその一部でもよい。また、解析される断面像は、静止画像でもよいし、動画像のフレームでもよい。動画像のフレームが解析される場合、全てのフレームを解析してもよいし、逐次に取得されるフレームを間引きして解析を行ってもよい。 The analyzed cross-sectional image is an image formed by the image forming unit 220 or the data processing unit 230. For example, the analyzed cross-sectional image may be a cross-sectional image (B-scan image) formed by the image forming unit 220 along the OCT scan scanning line. Alternatively, the analyzed cross-sectional image is a two-dimensional cross-sectional image representing an arbitrary cross-section obtained by performing MPR processing (multi-section reconstruction) on a three-dimensional image based on a plurality of cross-sectional images formed by the image forming unit 220. It may be. As a further example, the analyzed cross-sectional image may be a three-dimensional image formed by the data processing unit 230 or a part thereof. The cross-sectional image to be analyzed may be a still image or a moving image frame. When frames of moving images are analyzed, all frames may be analyzed, or analysis may be performed by thinning out frames that are sequentially acquired.
被検眼Eの注目部位の種別は、あらかじめ指定される。本実施形態では、眼底Efの任意の注目部位が指定される。具体例として、視神経乳頭、黄斑、中心窩、血管、網膜、脈絡膜、強膜、硝子体、病変部などがある。なお、注目部位は、例示されたいずれかの部位の全体または一部であってよく、また、例示された2以上の部位の組み合わせの少なくとも一部であってよい。たとえば、注目部位は、網膜の全層でもよいし、網膜を構成する1以上の層組織でもよい。また、例示された部位以外の部位の少なくとも一部を注目部位として指定することも可能である。 The type of the target region of the eye E is designated in advance. In the present embodiment, an arbitrary target region of the fundus oculi Ef is designated. Specific examples include the optic disc, macular, fovea, blood vessel, retina, choroid, sclera, vitreous, and lesion. Note that the site of interest may be the whole or a part of any of the exemplified sites, or may be at least a part of a combination of two or more exemplified sites. For example, the region of interest may be the entire layer of the retina or one or more layered tissues constituting the retina. It is also possible to designate at least a part of a part other than the exemplified part as a target part.
注目領域特定部231が実行する処理について説明する。注目領域特定部231は、断面像における画素値および/または画素位置に基づく画像解析を実行する。このような画像解析においては、2値化、エッジ検出、閾値処理、パターン認識、スムージング、フィルタリング、ラベリング等の公知の技術が適用される。また、このような2以上の画像処理の組み合わせからなるアルゴリズムが適用される。 Processing executed by the attention area specifying unit 231 will be described. The attention area specifying unit 231 performs image analysis based on pixel values and / or pixel positions in the cross-sectional image. In such image analysis, known techniques such as binarization, edge detection, threshold processing, pattern recognition, smoothing, filtering, and labeling are applied. Also, an algorithm composed of a combination of two or more such image processes is applied.
(位置判定部)
データ処理部230にはさらに位置判定部232が設けられている。位置判定部232は、注目領域特定部231により特定された注目領域の断面像における位置を判定する。たとえば、位置判定部232は、注目領域が断面像の縁部にかかるか否か判定する(つまり、注目領域が断面像の縁部と交差または接触するか否か判定する)。具体的には、位置判定部232は、注目領域が断面像の上縁および/または下縁にかかるか否か判定する。この処理は、たとえば特許文献1(特許第5543536号)と同様にして実行される。また、位置判定部232は、注目領域が断面像の左縁および/または右縁にかかるか否か判定することができる。この処理も同様にして実行される。
(Position determination unit)
The data processing unit 230 is further provided with a position determination unit 232. The position determination unit 232 determines the position of the attention area identified by the attention area identification unit 231 in the cross-sectional image. For example, the position determination unit 232 determines whether or not the region of interest covers the edge of the cross-sectional image (that is, determines whether or not the region of interest intersects or contacts the edge of the cross-sectional image). Specifically, the position determination unit 232 determines whether or not the attention area covers the upper edge and / or the lower edge of the cross-sectional image. This process is executed, for example, in the same manner as in Patent Document 1 (Japanese Patent No. 5543536). Further, the position determination unit 232 can determine whether or not the region of interest covers the left edge and / or the right edge of the cross-sectional image. This process is executed in the same manner.
位置判定部232は、注目領域が断面像の縁部と交差または接触する位置を求めることができる。また、位置判定部232は、注目領域が断面像の縁部と交差する程度を求めることができる。この交差の程度は、たとえば、注目領域が一の縁部と交差する位置が隣接する縁部からどの程度離れているかを表す。具体例として、注目領域が上縁と交差する場合、その交差位置と左縁(または右縁)との間の距離、或いはこの距離の程度を表す指標が求められる。 The position determination unit 232 can determine the position where the region of interest intersects or contacts the edge of the cross-sectional image. Further, the position determination unit 232 can determine the extent to which the attention area intersects the edge of the cross-sectional image. The degree of this intersection represents, for example, how far the position where the region of interest intersects one edge is away from the adjacent edge. As a specific example, when the attention area intersects with the upper edge, a distance between the intersection position and the left edge (or right edge) or an index indicating the degree of this distance is obtained.
以上のように機能するデータ処理部230は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。 The data processing unit 230 that functions as described above includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 242 includes the operation device of the arithmetic control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic photographing apparatus 1 or outside. Further, the display unit 241 may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.
なお、表示部241と操作部242は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部242は、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部242に対する操作内容は、電気信号として制御部210に入力される。また、表示部241に表示されたグラフィカルユーザインターフェイス(GUI)と、操作部242とを用いて、操作や情報入力を行うようにしてもよい。 The display unit 241 and the operation unit 242 do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 242 includes the touch panel and a computer program. The operation content for the operation unit 242 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the graphical user interface (GUI) displayed on the display unit 241 and the operation unit 242.
[動作]
眼科撮影装置1の動作に関するいくつかの例を説明する。
[Operation]
Several examples relating to the operation of the ophthalmologic photographing apparatus 1 will be described.
(スキャンパターンに関する動作例)
本実施形態で適用されるOCTスキャンは、たとえばライブスキャンである。ライブスキャンは、トラッキングと並行して実行されてよい。ライブスキャンでは、同じスキャンパターンでのOCTスキャンを繰り返し実行する。このとき、被検眼Eに対して固視標が提示される。それにより、実質的に一定の断面が繰り返しOCTスキャンされ、それにより得られる当該断面の動画像をリアルタイムで表示することができる。このようなライブスキャンによって逐次に取得されるフレームの少なくとも一部が、前述の画像解析に供される。
(Operation example related to scan pattern)
The OCT scan applied in the present embodiment is a live scan, for example. The live scan may be performed in parallel with the tracking. In the live scan, the OCT scan with the same scan pattern is repeatedly executed. At this time, a fixation target is presented to the eye E. Thereby, a substantially constant cross section is repeatedly OCT scanned, and a moving image of the cross section obtained thereby can be displayed in real time. At least a part of the frames sequentially acquired by such a live scan is subjected to the above-described image analysis.
以下の動作例では、2つの走査線(第1走査線L1および第2走査線L2)からなるスキャンパターンが適用される。スキャン時には、第1走査線L1に沿う第1走査と、第2走査線L2に沿う第2走査とが交互に実行される。なお、「第1走査と第2走査とを交互に実行する」とは、1回の第1走査と1回の第2走査とを交互に実行する場合だけでなく、1回以上の第1走査と1回以上の第2走査とを交互に実行する場合も含む概念である。また、3以上の走査線からなるスキャンパターンが適用される場合、第1〜第3走査線を所定の順序で巡回的に実行する動作もこの概念に含まれる。 In the following operation example, a scan pattern composed of two scan lines (first scan line L1 and second scan line L2) is applied. During the scan, the first scan along the first scan line L1 and the second scan along the second scan line L2 are executed alternately. Note that “executing the first scan and the second scan alternately” is not only a case where one first scan and one second scan are executed alternately, but one or more first scans. This is a concept including a case where scanning and one or more second scannings are alternately executed. In addition, when a scan pattern including three or more scan lines is applied, an operation of cyclically executing the first to third scan lines in a predetermined order is also included in this concept.
スキャンパターンの典型的な例を図4A〜図4Eに示す。それぞれの矢印はスキャンの向きを示している。また、それぞれの矢印の長さはスキャンの長さを示している。なお、以下に例示するようなスキャンパターンが適用される眼底Efの位置の設定は、たとえば次のいずれかの手法により実行される:当該スキャンパターンが適用される眼底Efの位置が設定される;他のスキャンパターンが適用される眼底Efの位置が設定され、その結果を利用して当該スキャンパターンの適用位置が設定される(たとえば、3次元スキャンが適用される3次元計測領域の位置が設定され、この3次元計測領域の一部が当該スキャンパターンの適用位置として設定される);固視位置の設定の結果を利用して当該スキャンパターンの適用位置が設定される。 Typical examples of scan patterns are shown in FIGS. 4A to 4E. Each arrow indicates the direction of scanning. The length of each arrow indicates the length of scanning. In addition, the setting of the position of the fundus oculi Ef to which the scan pattern as exemplified below is applied is performed by, for example, one of the following methods: the position of the fundus oculi Ef to which the scan pattern is applied is set; The position of the fundus oculi Ef to which another scan pattern is applied is set, and the application position of the scan pattern is set using the result (for example, the position of the three-dimensional measurement region to which the three-dimensional scan is applied is set) Then, a part of the three-dimensional measurement area is set as the application position of the scan pattern); the application position of the scan pattern is set using the result of setting the fixation position.
図4Aに示すスキャンパターンは、水平方向(x方向)に延びる線分状の第1走査線L1と、垂直方向(y方向)に延びる線分状の第2走査線L2とからなる。第1走査線L1と第2走査線L2は、互いの中央位置で直交している。すなわち、図4Aに示すスキャンパターンは、互いの中央位置にて直交する2つの線分状の走査線からなる十字型のスキャンパターンである。第1走査線L1と第2走査線L2との交差位置は、たとえば眼底Efの注目部位(黄斑(中心窩)、視神経乳頭等)に配置される。 The scan pattern shown in FIG. 4A includes a line-shaped first scanning line L1 extending in the horizontal direction (x direction) and a line-shaped second scanning line L2 extending in the vertical direction (y direction). The first scanning line L1 and the second scanning line L2 are orthogonal to each other at the center position. That is, the scan pattern shown in FIG. 4A is a cross-shaped scan pattern composed of two line-shaped scan lines orthogonal to each other at the center position. The intersecting position of the first scanning line L1 and the second scanning line L2 is arranged, for example, at a site of interest (macular (fovea), optic disc, etc.) of the fundus oculi Ef.
図4Bに示すスキャンパターンは、水平方向に延びる線分状の第1走査線L1と、垂直方向に延びる線分状の第2走査線L2とからなる。第1走査線L1と第2走査線L2は、互いの中央位置以外の位置で直交している。一般に、第1走査線と第2走査線との交差位置は任意に設定可能である。 The scan pattern shown in FIG. 4B includes a line-shaped first scanning line L1 extending in the horizontal direction and a line-shaped second scanning line L2 extending in the vertical direction. The first scanning line L1 and the second scanning line L2 are orthogonal to each other at a position other than the center position. In general, the intersection position between the first scanning line and the second scanning line can be arbitrarily set.
図4Cに示すスキャンパターンは、水平方向に延びる線分状の第1走査線L1と、垂直方向に延びる線分状の第2走査線L2とからなる。第1走査線L1と第2走査線L2は、互いに垂直であるが、交差はしていない。一般に、第1走査線と第2走査線との相対位置は任意に設定可能である。 The scan pattern shown in FIG. 4C includes a line-shaped first scanning line L1 extending in the horizontal direction and a line-shaped second scanning line L2 extending in the vertical direction. The first scanning line L1 and the second scanning line L2 are perpendicular to each other, but do not intersect each other. In general, the relative position between the first scanning line and the second scanning line can be arbitrarily set.
図4Dに示すスキャンパターンは、斜め方向に延びる線分状の第1走査線L1と、垂直方向に延びる線分状の第2走査線L2とからなる。第1走査線L1と第2走査線L2は、互いに垂直以外の角度で交差している。一般に、第1走査線と第2走査線との相対角度は任意である。特に、第1走査線と第2走査線とが交差する場合、それらの交差角度は任意に設定可能である。 The scan pattern shown in FIG. 4D includes a line-shaped first scanning line L1 extending in an oblique direction and a line-shaped second scanning line L2 extending in a vertical direction. The first scanning line L1 and the second scanning line L2 cross each other at an angle other than vertical. In general, the relative angle between the first scanning line and the second scanning line is arbitrary. In particular, when the first scanning line and the second scanning line intersect, their intersection angle can be set arbitrarily.
図4Eに示すスキャンパターンは、水平方向に延びる線分状の第1走査線L1と、垂直方向に延びる線分状の第2走査線L2とからなる。第1走査線L1と第2走査線L2は、互いの中央位置で直交している。第1走査線L1は第2走査線L2より短い。一般に、第1走査線の長さおよび第2走査線の長さは任意に設定可能である。 The scan pattern shown in FIG. 4E includes a line-shaped first scanning line L1 extending in the horizontal direction and a line-shaped second scanning line L2 extending in the vertical direction. The first scanning line L1 and the second scanning line L2 are orthogonal to each other at the center position. The first scanning line L1 is shorter than the second scanning line L2. In general, the length of the first scanning line and the length of the second scanning line can be arbitrarily set.
(表示に関する動作例)
情報の表示に関する一例を図5に示す。本例では、図4Aに示すスキャンパターンが適用される場合について説明するが、他のスキャンパターンが適用される場合にも同様の表示処理を実行することが可能である。
(Operation example regarding display)
An example regarding the display of information is shown in FIG. In this example, the case where the scan pattern shown in FIG. 4A is applied will be described. However, the same display process can be executed when another scan pattern is applied.
図5に示す表示画面300は、表示制御部2112により表示部241に表示される。表示画面300には、第1断面像表示領域301と、第2断面像表示領域302と、正面画像表示領域303とが設けられている。 A display screen 300 shown in FIG. 5 is displayed on the display unit 241 by the display control unit 2112. The display screen 300 is provided with a first cross-sectional image display area 301, a second cross-sectional image display area 302, and a front image display area 303.
正面画像表示領域303には、眼底Efの観察画像Hが表示される。観察画像Hは、赤外動画像である。正面画像表示領域303にはさらに、第1走査線L1を表す画像(第1走査線画像)と、第2走査線L2を表す画像(第2走査線画像)とが表示される。第1走査線画像および第2走査線画像は、図5においてそれぞれ第1走査線L1および第2走査線L2と同じ符号で示されている。前述したように、本例では図4Aに示す第1走査線L1および第2走査線L2からなるスキャンパターンが適用される。よって、図5に示す第1走査線画像L1および第2走査線画像L2は、互いの中央位置にて直交する2つの線分状の走査線である。第1走査線画像L1および第2走査線画像L2はそれぞれ矢印状の画像であり、それぞれ第1走査線L1および第2走査線L2におけるスキャンの方向を表している。また、本例では、第1走査線画像L1および第2走査線画像L2は観察画像H上に表示される。符号Rは、第1走査線画像L1および第2走査線画像L2により張られる2次元領域の外縁を示す。外縁Rは、ラスタースキャン(3次元スキャン)の対象となる3次元計測領域の範囲を示すものとも言える。外縁Rは表示されてもよいし、表示されなくてもよい。 In the front image display area 303, an observation image H of the fundus oculi Ef is displayed. The observation image H is an infrared moving image. The front image display area 303 further displays an image representing the first scanning line L1 (first scanning line image) and an image representing the second scanning line L2 (second scanning line image). The first scanning line image and the second scanning line image are indicated by the same reference numerals as the first scanning line L1 and the second scanning line L2, respectively, in FIG. As described above, in this example, the scan pattern including the first scan line L1 and the second scan line L2 shown in FIG. 4A is applied. Therefore, the first scanning line image L1 and the second scanning line image L2 shown in FIG. 5 are two line-segment scanning lines orthogonal to each other at the center position. The first scanning line image L1 and the second scanning line image L2 are respectively arrow-shaped images, and represent the scanning directions in the first scanning line L1 and the second scanning line L2, respectively. In this example, the first scanning line image L1 and the second scanning line image L2 are displayed on the observation image H. A symbol R indicates an outer edge of a two-dimensional region stretched by the first scanning line image L1 and the second scanning line image L2. It can be said that the outer edge R indicates the range of the three-dimensional measurement region that is the target of the raster scan (three-dimensional scan). The outer edge R may be displayed or may not be displayed.
第1断面像表示領域301には、第1走査線L1を繰り返し走査することにより得られる動画像(第1動画像)G1が表示される。第2断面像表示領域302には、第2走査線L2を繰り返し走査することにより得られる動画像(第2動画像)G2が表示される。前述したように、本例では、第1走査線L1に沿う第1走査と、第2走査線L2に沿う第2走査とが交互に実行される。 In the first cross-sectional image display area 301, a moving image (first moving image) G1 obtained by repeatedly scanning the first scanning line L1 is displayed. In the second cross-sectional image display area 302, a moving image (second moving image) G2 obtained by repeatedly scanning the second scanning line L2 is displayed. As described above, in this example, the first scan along the first scan line L1 and the second scan along the second scan line L2 are executed alternately.
表示制御部2112は、このような交互スキャンにおいて反復的に実行される第1走査により得られるデータから画像形成部220が逐次に形成する断面像を所定のフレームレート(たとえば、第1走査の反復レートに等しい、またはその整数倍)で第1断面像表示領域301に表示させることにより、第1動画像G1を表示させる。同様に、表示制御部2112は、交互スキャンにおいて反復的に実行される第2走査により得られるデータから画像形成部220が逐次に形成する断面像を所定のフレームレート(たとえば、第2走査の反復レートに等しい、またはその整数倍)で第2断面像表示領域302に表示させることにより、第2動画像G2を表示させる。 The display control unit 2112 generates a cross-sectional image that is sequentially formed by the image forming unit 220 from data obtained by the first scan that is repeatedly executed in such alternate scans, for example, at a predetermined frame rate (for example, repetition of the first scan). The first moving image G1 is displayed by displaying it in the first cross-sectional image display area 301 at a rate equal to the rate or an integer multiple thereof. Similarly, the display control unit 2112 generates a cross-sectional image that the image forming unit 220 sequentially forms from data obtained by the second scan that is repeatedly executed in the alternate scan at a predetermined frame rate (for example, the repetition of the second scan). The second moving image G2 is displayed by displaying it in the second cross-sectional image display region 302 at a rate equal to or an integral multiple of the rate.
第1断面像表示領域301は、第1走査線L1(第1走査線画像L1)に対応する向きに配置されている。本例では、第1断面像表示領域301は矩形であり、その上辺および下辺の向きと第1走査線画像L1の向きとが一致している。つまり、図5において、第1走査線画像L1は左右方向に延びる線分(矢印)であり、第1断面像表示領域301の上辺および下辺は左右方向に延びている。なお、観察画像Hにおいて、左右方向がx方向に相当し、上下方向がy方向に相当する。また、第1断面像表示領域301において、上辺および下辺の向き(左右方向)がx方向に相当し、左辺および右辺(上下方向)がz方向に相当する。よって、観察画像H上に表示される第1走査線画像L1の向き(x方向)と、第1断面像表示領域301に表示される第1動画像G1の断面の向き(x方向)とが一致している。 The first cross-sectional image display region 301 is arranged in a direction corresponding to the first scanning line L1 (first scanning line image L1). In this example, the first cross-sectional image display area 301 is rectangular, and the direction of the upper side and the lower side thereof coincides with the direction of the first scanning line image L1. That is, in FIG. 5, the first scanning line image L1 is a line segment (arrow) extending in the left-right direction, and the upper side and the lower side of the first cross-sectional image display region 301 extend in the left-right direction. In the observation image H, the left-right direction corresponds to the x direction, and the up-down direction corresponds to the y direction. In the first cross-sectional image display region 301, the direction of the upper side and the lower side (left and right direction) corresponds to the x direction, and the left side and right side (up and down direction) correspond to the z direction. Therefore, the direction (x direction) of the first scanning line image L1 displayed on the observation image H and the direction (x direction) of the cross section of the first moving image G1 displayed in the first cross section image display region 301 are determined. Match.
同様に、第2断面像表示領域302は、第1走査線L2(第1走査線画像L2)に対応する向きに配置されている。本例では、第2断面像表示領域302は矩形であり、その左辺および右辺の向きと第2走査線画像L2の向きとが一致している。つまり、図5において、第2走査線画像L2は上下方向に延びる線分(矢印)であり、第2断面像表示領域302の左辺および右辺は上下方向に延びている。なお、上記のように、観察画像Hにおいて、左右方向がx方向に相当し、上下方向がy方向に相当する。また、第2断面像表示領域302において、左辺および右辺の向き(上下方向)がy方向に相当し、上辺および下辺(左右方向)がz方向に相当する。よって、観察画像H上に表示される第2走査線画像L2の向き(y方向)と、第2断面像表示領域302に表示される第2動画像G2の断面の向き(y方向)とが一致している。 Similarly, the second cross-sectional image display region 302 is arranged in a direction corresponding to the first scanning line L2 (first scanning line image L2). In this example, the second cross-sectional image display area 302 is rectangular, and the direction of the left side and the right side thereof coincides with the direction of the second scanning line image L2. That is, in FIG. 5, the second scanning line image L2 is a line segment (arrow) extending in the vertical direction, and the left side and the right side of the second cross-sectional image display region 302 extend in the vertical direction. As described above, in the observation image H, the left-right direction corresponds to the x direction, and the up-down direction corresponds to the y direction. In the second cross-sectional image display area 302, the direction of the left side and the right side (up and down direction) corresponds to the y direction, and the upper side and the lower side (left and right direction) correspond to the z direction. Therefore, the direction (y direction) of the second scanning line image L2 displayed on the observation image H and the direction (y direction) of the cross section of the second moving image G2 displayed in the second cross section image display region 302 are determined. Match.
また、第1走査線L1(第1走査線画像L1)と第1動画像G1との対応を表す情報(第1対応情報)と、第2走査線(第2走査線画像L2)と第2動画像G2との対応を表す情報(第2対応情報)とを表示させることができる。本例においては、第1および第2対応情報として表示色が用いられる。具体的には、表示制御部2112は、第1走査線画像L1と第1動画像G1の枠(第1断面像表示領域301の枠)とを第1色で表示させ、且つ、第2走査線画像L2と第2動画像G2の枠(第2断面像表示領域302の枠)とを第1色と異なる第2色で表示させる。 In addition, information indicating the correspondence between the first scanning line L1 (first scanning line image L1) and the first moving image G1 (first correspondence information), the second scanning line (second scanning line image L2), and the second Information indicating the correspondence with the moving image G2 (second correspondence information) can be displayed. In this example, display colors are used as the first and second correspondence information. Specifically, the display control unit 2112 displays the first scanning line image L1 and the frame of the first moving image G1 (the frame of the first cross-sectional image display region 301) in the first color, and performs the second scanning. The line image L2 and the frame of the second moving image G2 (the frame of the second cross-sectional image display area 302) are displayed in a second color different from the first color.
第1断面像表示領域301の左側には測定光LSの合焦位置を表すマーカ304が設けられている。測定光LSの合焦位置は、合焦レンズ43の位置に対応する。合焦レンズ43は、OCT合焦駆動部43Aによって移動される。表示制御部2112は、現在の合焦レンズ43の位置(つまり、OCT合焦駆動部43Aに対する制御状態)に基づいてマーカ304を表示させる。なお、合焦位置はz方向に変化し、第1断面像表示領域301の左辺に沿う方向(上下方向)がz方向に相当する。よって、マーカ304の位置は、左辺に沿って変化する。 On the left side of the first cross-sectional image display area 301, a marker 304 indicating the focus position of the measurement light LS is provided. The focusing position of the measurement light LS corresponds to the position of the focusing lens 43. The focusing lens 43 is moved by the OCT focusing drive unit 43A. The display control unit 2112 displays the marker 304 based on the current position of the focusing lens 43 (that is, the control state with respect to the OCT focusing driving unit 43A). The in-focus position changes in the z direction, and the direction (vertical direction) along the left side of the first cross-sectional image display region 301 corresponds to the z direction. Therefore, the position of the marker 304 changes along the left side.
さらに、ユーザは、マーカ304を移動させることができる。そのための操作は、表示部241がタッチパネルの場合には所望の位置をタッチするタッチ操作により行われる。また、表示部241がタッチパネルでない場合には、ユーザは操作部242を操作する。この操作は、たとえば、所望の位置をクリックする操作、または、マーカ304をドラッグする操作である。マーカ304が移動されると、主制御部211は、移動後のマーカ304の位置に基づいてOCT合焦駆動部43Aを制御することで、移動後のマーカ304の位置に対応する位置に合焦レンズ43を移動する。 Further, the user can move the marker 304. The operation for that is performed by touch operation which touches a desired position, when the display part 241 is a touch panel. When the display unit 241 is not a touch panel, the user operates the operation unit 242. This operation is, for example, an operation of clicking a desired position or an operation of dragging the marker 304. When the marker 304 is moved, the main control unit 211 controls the OCT focusing drive unit 43A based on the position of the marker 304 after the movement, thereby focusing on the position corresponding to the position of the marker 304 after the movement. The lens 43 is moved.
なお、表示画面300に設けられる領域は図5に示すものに限定されない。典型的な例として、被検者や被検眼Eに関する情報が表示される領域や、被検眼Eの前眼部像が表示される領域(前眼部像表示領域)や、各種のソフトウェアキーなどが表示画面300に設けられていてよい。 The area provided on the display screen 300 is not limited to that shown in FIG. As typical examples, an area where information about the subject and the eye E is displayed, an area where the anterior eye image of the eye E is displayed (anterior eye image display area), various software keys, and the like May be provided on the display screen 300.
前眼部像の表示およびそれに伴い実行される処理に関する例を説明する。本例に係る眼科撮影装置は、被検眼Eの前眼部の映像を取得するための一対のビデオカメラを備える。一対のビデオカメラは、前眼部を異なる方向から同時に撮影する。表示制御部2112は、第1のビデオカメラにより得られる映像の上半分の画像領域(上半領域)と、第2のビデオカメラにより得られる映像の下半分の画像領域(下半領域)とを上下に並べて前眼部像表示領域に表示させる。制御部210(またはデータ処理部230)は、上半領域および下半領域をそれぞれ解析することで特定部位(瞳孔、虹彩等)の画像(特定部位画像)を検出し、上半領域中の特定部位画像と下半領域中の特定部位画像との変位を算出し、この変位をキャンセルするように光学系(OCT用光学系、眼底カメラ用光学系)を移動する。これにより、被検眼Eに対する光学系のアライメントを行うことができる。さらに、一対のビデオカメラにより逐次に取得されるフレームに基づいて上記処理をリアルタイムで繰り返し実行することで、被検眼Eの動きに光学系を追従させるトラッキングを実行しつつ、眼底EfのOCTや撮影や観察を行うことが可能である。 An example relating to the display of the anterior segment image and the processing executed accordingly will be described. The ophthalmologic photographing apparatus according to this example includes a pair of video cameras for obtaining an image of the anterior segment of the eye E to be examined. The pair of video cameras captures the anterior segment simultaneously from different directions. The display control unit 2112 displays an upper half image area (upper half area) of the video obtained by the first video camera and a lower half image area (lower half area) of the video obtained by the second video camera. They are displayed side by side in the anterior segment image display area. The control unit 210 (or the data processing unit 230) detects an image (specific part image) of a specific part (pupil, iris, etc.) by analyzing the upper half area and the lower half area, and specifies the specific part in the upper half area. The displacement between the region image and the specific region image in the lower half region is calculated, and the optical system (OCT optical system, fundus camera optical system) is moved so as to cancel the displacement. Thereby, alignment of the optical system with respect to the eye E can be performed. Further, the above processing is repeatedly executed in real time based on frames sequentially acquired by a pair of video cameras, thereby performing tracking for causing the optical system to follow the movement of the eye E, and performing OCT and imaging of the fundus oculi Ef. Or observation.
(使用形態)
眼科撮影装置1の使用形態について説明する。図6は、使用形態の例を示す。本例では、眼底Efの3次元スキャンを行うために、図4Aに示すスキャンパターンでライブスキャンが実行される。
(Usage form)
A usage pattern of the ophthalmologic photographing apparatus 1 will be described. FIG. 6 shows an example of usage pattern. In this example, in order to perform a three-dimensional scan of the fundus oculi Ef, a live scan is executed with the scan pattern shown in FIG. 4A.
なお、OCT計測のための準備動作は既に実行されたとする。準備動作としては、眼底Efの観察、アライメント、フォーカシング、OCTに関する条件の設定などがある。また、任意のタイミングでトラッキングを開始してもよい。 It is assumed that the preparation operation for OCT measurement has already been executed. Preparation operations include observation of fundus oculi Ef, alignment, focusing, setting of conditions relating to OCT, and the like. Further, tracking may be started at an arbitrary timing.
(S1:3次元スキャンの計測範囲の設定)
本例ではまず、3次元スキャン(ラスタースキャン)が適用される眼底Efの計測範囲が設定される。後段のOCTにおいて、条件制御部2111は、設定された計測範囲に基づいて光スキャナ42等を制御する。計測範囲の設定は、手動または自動で実行される。
(S1: 3D scan measurement range setting)
In this example, first, the measurement range of the fundus oculi Ef to which the three-dimensional scan (raster scan) is applied is set. In the subsequent OCT, the condition control unit 2111 controls the optical scanner 42 and the like based on the set measurement range. The measurement range is set manually or automatically.
計測範囲が手動で実行される場合、たとえば、図5に示す表示画面300の正面画像表示領域303に、眼底Efの観察画像(リアルタイム動画像)が表示される。この観察画像上には、3次元スキャンの計測範囲を示す画像(たとえば枠Rを表す画像)が表示される。ユーザは、操作部242を用いることで、観察画像上の所望の位置に枠Rを移動することができる。このとき、観察画像(つまり眼底Ef)と枠R(つまり計測範囲)との相対位置を変更可能であればよい。たとえば、固視位置を調整することで、この相対位置を変更することが可能である。 When the measurement range is executed manually, for example, an observation image (real-time moving image) of the fundus oculi Ef is displayed in the front image display area 303 of the display screen 300 shown in FIG. On this observation image, an image indicating the measurement range of the three-dimensional scan (for example, an image representing the frame R) is displayed. By using the operation unit 242, the user can move the frame R to a desired position on the observation image. At this time, it is only necessary that the relative position between the observation image (that is, fundus oculi Ef) and the frame R (that is, the measurement range) can be changed. For example, this relative position can be changed by adjusting the fixation position.
計測範囲が自動で設定される場合、たとえば、データ処理部230が、眼底Efの画像(観察画像、撮影画像、OCT画像等)を解析し、眼底Efの所定部位に相当する画像位置を特定する。この処理は、注目領域を特定する処理と同様に実行できる。さらに、データ処理部230は、特定された画像位置に基づき計測範囲を設定する。典型的な例として、単一の画像位置が特定された場合、この画像位置が中央に配置されるように計測範囲が設定される。他の例として、2以上の画像位置が特定された場合、全ての画像位置を含むように計測範囲が設定される。 When the measurement range is automatically set, for example, the data processing unit 230 analyzes an image (an observation image, a captured image, an OCT image, etc.) of the fundus oculi Ef and specifies an image position corresponding to a predetermined part of the fundus oculi Ef. . This process can be executed in the same manner as the process for specifying the region of interest. Further, the data processing unit 230 sets a measurement range based on the specified image position. As a typical example, when a single image position is specified, the measurement range is set so that this image position is arranged in the center. As another example, when two or more image positions are specified, the measurement range is set to include all the image positions.
ステップS1の終了時に表示部241に表示されている画面の例を図7Aに示す。図7Aに示す表示画面300は図5と同じレイアウトを有する(同じ符号で示す)。ステップS1の終了時には、第1断面像表示領域301および第2断面像表示領域302には画像は表示されていないが、正面画像表示領域303に観察画像Hが表示されている。さらに、観察画像H上には、ステップS1で設定された計測範囲を表す枠Rと、ステップS2のライブスキャンで適用される走査パターンを表す第1走査線画像L1および第2走査線画像L2とが表示されている。なお、本例では、図4Aに示すスキャンパターンが適用される。第1走査線画像L1および第2走査線画像L2は、互いの中央位置で直交する2本のラインであり、その交差位置が計測範囲の中心に一致している。また、第1走査線画像L1はx方向に延びるラインであり、第2走査線画像L2はy方向に延びるラインである。 An example of the screen displayed on the display unit 241 at the end of step S1 is shown in FIG. 7A. The display screen 300 shown in FIG. 7A has the same layout as that shown in FIG. At the end of step S1, no image is displayed in the first slice image display area 301 and the second slice image display area 302, but the observation image H is displayed in the front image display area 303. Further, on the observation image H, a frame R representing the measurement range set in step S1, and a first scanning line image L1 and a second scanning line image L2 representing a scanning pattern applied in the live scan in step S2. Is displayed. In this example, the scan pattern shown in FIG. 4A is applied. The first scanning line image L1 and the second scanning line image L2 are two lines orthogonal to each other at the center position, and the intersection position thereof coincides with the center of the measurement range. The first scanning line image L1 is a line extending in the x direction, and the second scanning line image L2 is a line extending in the y direction.
(S2:ライブスキャンの開始)
ステップS1の終了後、(所定のトリガーを受けて)主制御部211は、図4Aに示すスキャンパターンでのライブスキャンを開始する。
(S2: Start of live scan)
After step S1, the main control unit 211 starts a live scan with the scan pattern shown in FIG. 4A (in response to a predetermined trigger).
ライブスキャンが開始されると、表示制御部2112は、既に表示されている観察画像Hとともに、第1走査線画像L1が示す断面の動画像(第1動画像G1)を第1断面像表示領域301に表示させ、且つ、第2走査線画像L2が示す断面の動画像(第2動画像G2)を第2断面像表示領域302に表示させる(図7Bを参照)。 When the live scan is started, the display control unit 2112 displays the cross-sectional moving image (first moving image G1) indicated by the first scanning line image L1 together with the observation image H already displayed in the first cross-sectional image display area. 301, and the moving image (second moving image G2) of the cross section indicated by the second scanning line image L2 is displayed in the second cross sectional image display area 302 (see FIG. 7B).
(S3:断面像中の注目領域の特定)
ライブスキャンが開始されると、主制御部211は、逐次に取得される第1動画像G1のフレームおよび第2動画像G2のフレームをデータ処理部230に送る。或いは、主制御部211は、逐次に取得されるフレームのうちいくつかを選択してデータ処理部230に送る。
(S3: Identification of region of interest in cross-sectional image)
When the live scan is started, the main control unit 211 sends the frame of the first moving image G1 and the frame of the second moving image G2 acquired sequentially to the data processing unit 230. Alternatively, the main control unit 211 selects some of the sequentially acquired frames and sends them to the data processing unit 230.
注目領域特定部231は、第1動画像のフレームを解析することにより、既定の注目部位に相当する画像領域(注目領域)を特定する。同様に、注目領域特定部231は、第2動画像のフレームを解析することにより、既定の注目部位に相当する画像領域(注目領域)を特定する。本例では、たとえば網膜の全層が注目領域として特定される。この処理は、たとえば、内境界膜を特定する処理と、網膜色素上皮層を特定する処理とを含む。図7Bに示す第1動画像G1および第2動画像G2は、網膜の複数の層組織を表している。 The attention area identification unit 231 identifies an image area (attention area) corresponding to a predetermined attention area by analyzing the frame of the first moving image. Similarly, the attention area specifying unit 231 specifies an image area (attention area) corresponding to a predetermined attention area by analyzing the frame of the second moving image. In this example, for example, all layers of the retina are specified as the attention area. This process includes, for example, a process of specifying the inner boundary membrane and a process of specifying the retinal pigment epithelium layer. The first moving image G1 and the second moving image G2 shown in FIG. 7B represent a plurality of layer tissues of the retina.
(S4:注目領域の位置の判定)
位置判定部232は、ステップS3で第1動画像G1のフレームを解析して特定された注目領域がこのフレームの縁部(たとえば上縁および/または下縁)にかかるか否か判定する。同様に、位置判定部232は、ステップS3で第2動画像G2のフレームを解析して特定された注目領域がこのフレームの縁部(たとえば上縁および/または下縁)にかかるか否か判定する。これら判定結果は、解析されたフレームに関連付けられて制御部210に送られる。たとえば、第1動画像G1のフレーム中の注目領域がこのフレームの縁部にかかると判定された場合、このフレーム(または第1動画像G1)にフラグが付与される。
(S4: Determination of position of attention area)
The position determination unit 232 determines whether or not the region of interest specified by analyzing the frame of the first moving image G1 in step S3 covers the edge (for example, the upper edge and / or the lower edge) of this frame. Similarly, the position determination unit 232 determines whether or not the region of interest specified by analyzing the frame of the second moving image G2 in step S3 covers the edge (for example, the upper edge and / or the lower edge) of this frame. To do. These determination results are sent to the control unit 210 in association with the analyzed frame. For example, when it is determined that the region of interest in the frame of the first moving image G1 covers the edge of this frame, a flag is assigned to this frame (or the first moving image G1).
(S5:情報表示の制御)
表示制御部2112は、ステップS4で得られた判定結果に基づいて、情報表示に関する制御を行う。すなわち、表示制御部2112は、注目領域がフレームの枠にかかると判定された断面像(動画像)と、注目領域がフレームの枠にかからないと判定された断面像(動画像)とを異なる態様で表示させる。
(S5: Control of information display)
The display control unit 2112 performs control related to information display based on the determination result obtained in step S4. That is, the display control unit 2112 has a mode in which a cross-sectional image (moving image) determined that the attention area covers the frame of the frame is different from a cross-sectional image (moving image) determined that the attention area does not cover the frame of the frame. To display.
この表示態様の相違の例として、表示サイズの相違、枠の態様の相違、断面像に付加される情報の相違などがある。表示サイズの相違の例として、注目領域がフレームの枠にかかると判定された断面像を相対的に大きく表示させ、注目領域がフレームの枠にかからないと判定された断面像を相対的に小さく表示させることができる。枠の態様の相違の例として、注目領域がフレームの枠にかかると判定された断面像と、注目領域がフレームの枠にかからないと判定された断面像とを、異なる色または太さの枠内に表示させることができる。断面像に付加される情報の相違の例として、注目領域がフレームの枠にかかると判定された断面像の近傍に、その判定結果(注目領域が枠にかかること、エラーであること、枠にかかる位置、枠にかかる程度等)を表す情報を表示させることができる。また、注目領域がフレームの枠にかからないと判定された断面像の近傍に、その判定結果(枠にかからないこと、適正であること等)を表す情報を表示させることができる。また、注目領域がフレームの枠にかかると判定された断面像のみを選択的に表示させることができる。 Examples of this display mode difference include a display size difference, a frame mode difference, and information added to a cross-sectional image. As an example of the difference in display size, a cross-sectional image that is determined that the attention area covers the frame of the frame is displayed relatively large, and a cross-sectional image that is determined that the attention area does not cover the frame of the frame is displayed relatively small Can be made. As an example of the difference in the form of the frame, a cross-sectional image determined that the attention area covers the frame of the frame and a cross-sectional image determined that the attention area does not cover the frame of the frame are within the frames of different colors or thicknesses. Can be displayed. As an example of the difference in information added to the cross-sectional image, in the vicinity of the cross-sectional image where it is determined that the region of interest covers the frame of the frame, the determination result (the region of interest covers the frame, an error, Information indicating the position, the extent of the frame, etc.) can be displayed. In addition, information indicating the determination result (not falling on the frame, appropriateness, etc.) can be displayed in the vicinity of the cross-sectional image where it is determined that the attention area does not cover the frame. In addition, it is possible to selectively display only the cross-sectional image that is determined that the region of interest covers the frame.
(S6:計測範囲の調整)
ステップS5で表示された情報を参照し、ユーザは、計測範囲の調整を行うことができる。注目領域がフレームの枠の上縁および/または下縁にかかっている場合、ユーザは、操作部242を用いて、注目領域が上縁および下縁の双方(または一方)にかからなくなるように、計測範囲を奥行き方向(深さ方向、z方向)に調整することができる。奥行き方向における調整は、測定光LSの光路長および/または参照光LRの光路長を調整することにより実行される。
(S6: Measurement range adjustment)
The user can adjust the measurement range with reference to the information displayed in step S5. When the attention area covers the upper edge and / or the lower edge of the frame of the frame, the user uses the operation unit 242 so that the attention area does not cover both the upper edge and the lower edge (or one). The measurement range can be adjusted in the depth direction (depth direction, z direction). The adjustment in the depth direction is performed by adjusting the optical path length of the measurement light LS and / or the optical path length of the reference light LR.
注目領域がフレームの枠の左縁および/または右縁にかかっている場合、ユーザは、操作部242を用いて、注目領域が左縁および右縁の双方(または一方)にかからなくなるように、計測範囲を水平方向(x方向および/またはy方向)に調整することができる。水平方向における調整は、たとえば、観察画像H上に表示されている枠Rを移動させることにより(つまり、光スキャナ42の動作範囲を変更することにより)実行される。或いは、固視位置を調整することにより、または光学系(眼底カメラユニット2)の位置を調整することにより、水平方向における調整を行うことも可能である。 When the attention area covers the left edge and / or the right edge of the frame of the frame, the user uses the operation unit 242 so that the attention area does not cover both the left edge and the right edge (or one). The measurement range can be adjusted in the horizontal direction (x direction and / or y direction). The adjustment in the horizontal direction is executed, for example, by moving the frame R displayed on the observation image H (that is, by changing the operation range of the optical scanner 42). Alternatively, the adjustment in the horizontal direction can be performed by adjusting the fixation position or by adjusting the position of the optical system (fundus camera unit 2).
計測範囲の調整を自動で行うことも可能である。その場合、位置判定部232が、注目領域と縁部との交差位置または交差の程度を求め、主制御部211が、求められた交差位置または交差の程度に基づいて、光路長の調整、光スキャナ42の動作範囲の調整、固視位置の調整、光学系の位置の調整などを実行する。 It is also possible to automatically adjust the measurement range. In that case, the position determination unit 232 obtains the intersection position or degree of intersection between the region of interest and the edge, and the main control unit 211 adjusts the optical path length, the light based on the obtained intersection position or degree of intersection. Adjustment of the operating range of the scanner 42, adjustment of the fixation position, adjustment of the position of the optical system, and the like are executed.
計測範囲の調整を自動で行うための他の例として、逐次に特定される注目領域と縁部との位置関係をモニタしつつ、所定の条件を満足するように(たとえば、少なくともいずれかの縁部に注目領域がかからないように)、上記のいずれかの調整を実行するように構成することが可能である。この処理において、位置判定部232により逐次に取得される交差位置に基づいて調整方向を決定したり、交差位置または交差の程度に基づいて調整量を決定したりすることが可能である。 As another example for automatically adjusting the measurement range, while monitoring the positional relationship between the region of interest identified sequentially and the edge, so as to satisfy a predetermined condition (for example, at least one of the edges) It is possible to configure such that any one of the above adjustments is performed (so that the region of interest does not cover the part). In this process, it is possible to determine the adjustment direction based on the intersection position sequentially acquired by the position determination unit 232, or to determine the adjustment amount based on the intersection position or the degree of intersection.
(S7:ライブスキャンの終了)
ステップS6における計測範囲の調整の終了後、主制御部211は、(所定のトリガーを受けて)ライブスキャンのための制御を終了する。
(S7: End of live scan)
After the adjustment of the measurement range in step S6, the main control unit 211 ends the control for the live scan (in response to a predetermined trigger).
(S8:3次元スキャンの実行)
ライブスキャンの終了後、主制御部211は、(所定のトリガーを受けて)眼底Efの3次元スキャンを実行させる。
(S8: Execution of 3D scan)
After the live scan ends, the main control unit 211 causes the fundus oculi Ef to perform a three-dimensional scan (in response to a predetermined trigger).
(S9:3次元画像の形成)
画像形成部220は、ステップS8で収集されたデータに基づいて、ラスタースキャンを構成する複数の走査線に沿う複数の断面像(Bスキャン像)を形成する。さらに、データ処理部230は、画像形成部220により形成された複数の断面像に基づいて3次元画像を形成する。
(S9: Formation of 3D image)
The image forming unit 220 forms a plurality of cross-sectional images (B-scan images) along a plurality of scanning lines constituting the raster scan based on the data collected in step S8. Further, the data processing unit 230 forms a three-dimensional image based on the plurality of cross-sectional images formed by the image forming unit 220.
(S10:3次元画像の表示)
データ処理部230は、ステップS9で形成された3次元画像をレンダリングする。表示制御部2112は、このレンダリングにより形成された画像データに基づく画像(3次元画像)を表示する。なお、MPR処理等により形成された断面像を表示させることもできる。
(S10: Display of 3D image)
The data processing unit 230 renders the three-dimensional image formed in step S9. The display control unit 2112 displays an image (three-dimensional image) based on the image data formed by this rendering. A cross-sectional image formed by MPR processing or the like can also be displayed.
(その他の動作例)
本実施形態により実行可能な他の動作例を説明する。
(Other operation examples)
Another example of operations that can be executed according to this embodiment will be described.
前述したスキャン位置の変更は、たとえば次のようにして実行することができる。スキャン位置の変更は、手動または自動で行われる。手動操作の場合、ユーザは、観察画像H上の所望の位置をタッチする。或いは、ユーザは、操作部242を用いて所望の位置をタッチし、または、操作部242を用いて第1および第2走査線画像L1およびL2をドラッグする。一方、自動制御の場合、条件制御部2111(またはデータ処理部230)は、観察画像Hを解析して特定部位(黄斑、中心窩、視神経乳頭、血管、病変部なと)の位置を特定し、この特定部位を通過するようにスキャン位置を設定する。このとき、たとえば、第1および第2走査線L1およびL2の交差位置を上記解析により特定部位に一致させるように、スキャン値が設定される。 The scan position change described above can be executed, for example, as follows. The scan position is changed manually or automatically. In the case of manual operation, the user touches a desired position on the observation image H. Alternatively, the user touches a desired position using the operation unit 242 or drags the first and second scan line images L1 and L2 using the operation unit 242. On the other hand, in the case of automatic control, the condition control unit 2111 (or the data processing unit 230) analyzes the observation image H and specifies the position of a specific part (macular, fovea, optic disc, blood vessel, lesion part, etc.). The scan position is set so as to pass through the specific part. At this time, for example, the scan value is set so that the intersection position of the first and second scan lines L1 and L2 matches the specific part by the above analysis.
スキャン位置の変更には、平行移動および回転移動の少なくとも一方が含まれる。このような移動において、第1走査線L1と第2走査線L2との相対位置は維持される。たとえば、図4Aに示すスキャンパターンが適用される場合、平行移動および/または回転移動の前後において、第1走査線L1(第1走査線画像L1)および第2走査線L2(第2走査線画像L2)は、互いの中央位置において直交する。 The change of the scan position includes at least one of parallel movement and rotational movement. In such movement, the relative position between the first scanning line L1 and the second scanning line L2 is maintained. For example, when the scan pattern shown in FIG. 4A is applied, the first scan line L1 (first scan line image L1) and the second scan line L2 (second scan line image) are obtained before and after parallel movement and / or rotational movement. L2) are orthogonal at each other's central position.
このようなスキャン位置の移動制御は、条件制御部2111が、スキャン位置の変更内容(移動方向および移動量)に応じて第1走査線L1と第2走査線L2とを同じ方向に同じ量(同じ距離)だけ移動させるように、光スキャナ42を制御するための設定を変更することにより実行される。 In such scanning position movement control, the condition control unit 2111 sets the first scanning line L1 and the second scanning line L2 in the same direction in the same amount (in accordance with the change contents (movement direction and movement amount) of the scan position). This is executed by changing the setting for controlling the optical scanner 42 so that the optical scanner 42 is moved by the same distance.
第1動画像G1および第2動画像G2の一方または双方に対し、OCTの条件の変更入力を行えるように構成されていてよい。OCTの条件の例として、前述した合焦位置の変更(たとえばマーカ304を用いる制御)がある。 OCT condition change input may be performed on one or both of the first moving image G1 and the second moving image G2. As an example of the OCT condition, there is a change in the focus position (for example, control using the marker 304) described above.
他の例として、測定光LSの光路長および/または参照光LRの光路長がある。測定光LSの光路長の変更は、光路長変更部41を制御することにより行われる。参照光LRの光路長の変更は、コーナーキューブ114(参照駆動部114A)を制御することにより行われる。測定光LSおよび/または参照光LRの光路長が変更されると、測定光LSと参照光LRとの間の光路長差が変化し、その結果、第1動画像L1および第2動画像G2のフレームにおける眼底組織の描出位置がz方向に移動する。このような描出位置の変更入力は、たとえば、動画像上の所望の位置をタッチすることにより、またはマーカ304と同様のマーカを用いることにより行われる。或いは、条件制御部2111(またはデータ処理部230)が、眼底Efの特定部位(眼底表面、所定の層組織など)を特定し、この特定部位をフレームの所定のz位置に配置させるように制御を行うように構成することも可能である。なお、OCTの条件は以上に例示したものには限定されない。 Other examples include the optical path length of the measurement light LS and / or the optical path length of the reference light LR. The optical path length of the measurement light LS is changed by controlling the optical path length changing unit 41. The optical path length of the reference light LR is changed by controlling the corner cube 114 (reference driving unit 114A). When the optical path length of the measurement light LS and / or the reference light LR is changed, the optical path length difference between the measurement light LS and the reference light LR changes, and as a result, the first moving image L1 and the second moving image G2 The drawing position of the fundus tissue in this frame moves in the z direction. Such a change input of the rendering position is performed, for example, by touching a desired position on the moving image or by using a marker similar to the marker 304. Alternatively, the condition control unit 2111 (or the data processing unit 230) controls to specify a specific part of the fundus oculi Ef (fundus surface, predetermined layer tissue, etc.) and arrange the specific part at a predetermined z position of the frame. It is also possible to configure so that The OCT conditions are not limited to those exemplified above.
上記の例では、2つの走査線(L1およびL2)に沿う2つの動画像(G1およびG2)がリアルタイムで表示される。しかし、3つ以上の走査線に沿う3つ以上の動画像を取得するように構成することも可能である。この場合、並行して取得される全ての動画像を並べて表示させることもできるが、表示スペースを考慮して一部の動画像を選択的に表示させるように構成することが可能である。この場合、3つ以上の走査線が巡回的にスキャンされる。さらに、表示制御部2112は、3つ以上の走査線により逐次に取得されるデータに基づく3つ以上の動画像のうちの2以上の動画像を並べて表示させる。 In the above example, two moving images (G1 and G2) along two scanning lines (L1 and L2) are displayed in real time. However, it may be configured to acquire three or more moving images along three or more scanning lines. In this case, all the moving images acquired in parallel can be displayed side by side, but a part of the moving images can be selectively displayed in consideration of the display space. In this case, three or more scanning lines are scanned cyclically. Further, the display control unit 2112 displays two or more moving images among three or more moving images based on data sequentially acquired by three or more scanning lines.
ユーザは、表示させる動画像を選択することができる。この選択操作は、たとえば、観察画像上に表示された3つ以上の走査線画像のうち所望のものを指定することにより実行される。また、いくつかの動画像が選択されたことに対応し、この動画像にあらかじめ対応付けられた他の動画像を自動で選択し、これら動画像を並べて表示させるように構成することができる。対応する動画像は、たとえば、先に選択された動画像の走査線に直交する走査線における動画像である。 The user can select a moving image to be displayed. This selection operation is executed, for example, by designating a desired one of three or more scanning line images displayed on the observation image. Further, in response to the selection of several moving images, it is possible to automatically select other moving images previously associated with the moving images and display these moving images side by side. The corresponding moving image is, for example, a moving image on a scanning line orthogonal to the scanning line of the previously selected moving image.
[作用・効果]
この実施形態に係る眼科撮影装置のいくつかの作用および効果について説明する。
[Action / Effect]
Several actions and effects of the ophthalmologic photographing apparatus according to this embodiment will be described.
実施形態の眼科撮影装置は、OCTを用いて被検眼を走査することにより断面像を取得する。さらに、眼科撮影装置は、データ取得部と、特定部と、表示制御部とを含む。 The ophthalmologic photographing apparatus according to the embodiment acquires a cross-sectional image by scanning the eye to be examined using OCT. Furthermore, the ophthalmologic photographing apparatus includes a data acquisition unit, a specifying unit, and a display control unit.
データ取得部は、被検眼における第1走査線(L1)に沿う第1走査と、第1走査線(L1)と向きが異なる第2走査線(L2)に沿う第2走査とを実行してデータを取得する。データ取得部は、OCT用の光学系を含む。上記実施形態において、OCT用の光学系は、OCTユニット100に含まれる光学系と、眼底カメラユニット2のうち測定光LSの経路に配置された光学系とを含む。さらに、データ取得部は、OCT用の光学系により取得されたデータを処理する構成要素を含んでいてよい。上記実施形態において、この構成要素は、少なくとも画像形成部200を含む。 The data acquisition unit executes a first scan along the first scan line (L1) in the eye to be examined and a second scan along the second scan line (L2) whose direction is different from that of the first scan line (L1). Get the data. The data acquisition unit includes an optical system for OCT. In the above embodiment, the OCT optical system includes the optical system included in the OCT unit 100 and the optical system arranged in the path of the measurement light LS in the fundus camera unit 2. Furthermore, the data acquisition unit may include a component that processes data acquired by the optical system for OCT. In the above embodiment, this component includes at least the image forming unit 200.
特定部は、第1走査により取得されたデータに基づく断面像(第1動画像G1またはそのフレーム)を解析して被検眼の注目部位の画像領域を特定する。さらに、特定部は、第2走査により取得されたデータに基づく断面像(第2動画像G2またはそのフレーム)を解析して注目部位の画像領域を特定する。上記実施形態において、特定部は、注目領域特定部231を含む。 The specifying unit analyzes a cross-sectional image (the first moving image G1 or a frame thereof) based on the data acquired by the first scan, and specifies an image region of the attention site of the eye to be examined. Further, the specifying unit analyzes the cross-sectional image (the second moving image G2 or its frame) based on the data acquired by the second scan, and specifies the image region of the site of interest. In the above embodiment, the specifying unit includes the attention area specifying unit 231.
表示制御部(2112)は、特定部により特定された画像領域の当該断面像における位置に基づいて表示手段に情報を表示させる。上記実施形態において、この情報表示の制御は、図6のステップS5に相当する。 The display control unit (2112) causes the display unit to display information based on the position of the image area specified by the specifying unit in the cross-sectional image. In the above embodiment, this information display control corresponds to step S5 in FIG.
表示手段は、眼科撮影装置に設けられていてもよいし(表示部241)、眼科撮影装置に接続された表示デバイスであってもよい。 The display means may be provided in the ophthalmologic photographing apparatus (display unit 241) or a display device connected to the ophthalmic photographing apparatus.
このような実施形態によれば、向きが異なる複数の断面を表す複数の断面像における注目領域の描出位置に基づいて情報を表示することができる。したがって、奥行き方向における描出位置のずれしか検出できない特許文献1に開示された技術とは異なり、2次元的または3次元的なずれを検出してユーザに報知することが可能である。 According to such an embodiment, information can be displayed based on the drawing position of the region of interest in a plurality of cross-sectional images representing a plurality of cross-sections having different directions. Therefore, unlike the technique disclosed in Patent Document 1 that can detect only the shift of the rendering position in the depth direction, it is possible to detect a two-dimensional or three-dimensional shift and notify the user.
また、特許文献1に開示された技術では、平行な3つの断面像を取得して位置ずれを検出しているので、これら断面に沿う方向(全て同じ方向である)における位置ずれしか高精度で検出することができない。それに対し、本実施形態によれば、向きが異なる複数の断面像を解析するよう構成されているので、複数の方向における位置ずれを高精度で検出することが可能である。 Further, in the technique disclosed in Patent Document 1, since three parallel cross-sectional images are acquired and misalignment is detected, only misalignment in a direction along these cross sections (all in the same direction) is highly accurate. It cannot be detected. On the other hand, according to the present embodiment, it is configured to analyze a plurality of cross-sectional images having different directions, and thus it is possible to detect a positional shift in a plurality of directions with high accuracy.
上記実施形態において、データ取得部は、第1走査と第2走査とを交互に実行することができる。さらに、表示制御部は、第1走査により逐次に取得されるデータに基づく第1動画像(G1)と、第2走査により逐次に取得されるデータに基づく第2動画像(G2)とを表示手段に表示させることができる。 In the embodiment, the data acquisition unit can alternately execute the first scan and the second scan. Furthermore, the display control unit displays a first moving image (G1) based on data sequentially acquired by the first scan and a second moving image (G2) based on data sequentially acquired by the second scan. It can be displayed on the means.
このような構成によれば、向きが異なる複数の断面像を同時に観察することが可能である。すなわち、向きが異なる複数の断面が複数の動画像にどのように描出されているかを同時に把握することができる。したがって、OCTによる計測範囲の3次元的なずれを容易に把握することが可能である。よって、実施形態の眼科撮影装置によれば、たとえば、動画像の観察の後に実行されるOCT(たとえば3次元スキャン)による計測範囲を容易に最適化することが可能である。 According to such a configuration, it is possible to simultaneously observe a plurality of cross-sectional images having different directions. That is, it is possible to simultaneously grasp how a plurality of cross sections having different directions are depicted in a plurality of moving images. Therefore, it is possible to easily grasp the three-dimensional deviation of the measurement range by OCT. Therefore, according to the ophthalmologic photographing apparatus of the embodiment, for example, it is possible to easily optimize the measurement range by OCT (for example, three-dimensional scan) executed after observation of a moving image.
上記実施形態において、表示制御部は、第1走査線に対応する向きの第1動画像と、第2走査線に対応する向きの第2動画像とを並べて表示させることが可能である。 In the above embodiment, the display control unit can display the first moving image in the direction corresponding to the first scanning line and the second moving image in the direction corresponding to the second scanning line side by side.
このような構成によれば、走査線の向きに対応する向きで動画像を表示させることにより、複数の走査線と複数の動画像との対応関係を容易に把握できるとともに、動画像に描出されている組織断面がどのような向きであるかを容易に認識することが可能である。 According to such a configuration, by displaying the moving image in the direction corresponding to the direction of the scanning line, it is possible to easily grasp the correspondence relationship between the plurality of scanning lines and the plurality of moving images, and to draw the moving image. It is possible to easily recognize the orientation of the cross section of the tissue.
上記実施形態において、データ取得部によるデータの取得と、表示制御部による動画像の表示とを並行して実行することができる。それにより、第1走査線に沿う断面を表す第1動画像と、第2走査線に沿う断面を表す第2動画像とをリアルタイムで観察することが可能である。 In the above embodiment, data acquisition by the data acquisition unit and moving image display by the display control unit can be executed in parallel. Thereby, it is possible to observe in real time the first moving image representing the cross section along the first scanning line and the second moving image representing the cross section along the second scanning line.
上記実施形態において、表示制御部は、特定部により特定された注目領域が当該断面像の縁部にかかる断面像を、他の断面像(注目領域が縁部にかからない断面像)と異なる態様で表示させることが可能である。特に、表示制御部は、特定部により特定された注目領域が当該断面像の上縁および下縁の少なくとも一方にかかる断面像を、他の断面像と異なる態様で表示させることが可能である。その具体例は、図6のステップS5に示されている。 In the above-described embodiment, the display control unit displays a cross-sectional image in which the region of interest specified by the specifying unit is applied to the edge of the cross-sectional image in a manner different from other cross-sectional images (cross-sectional images in which the region of interest does not cover the edge) It can be displayed. In particular, the display control unit can display a cross-sectional image in which the region of interest specified by the specifying unit is applied to at least one of the upper edge and the lower edge of the cross-sectional image in a manner different from other cross-sectional images. A specific example is shown in step S5 of FIG.
このような構成によれば、ユーザは、注目領域が適切に描出されている断面像と、適切に表示されていない断面像とを容易に判別することができる。それにより、ユーザは、注目領域が適切に計測されている方向と、適切に計測されていない方向とを容易に把握することが可能である。 According to such a configuration, the user can easily discriminate between a cross-sectional image in which the region of interest is appropriately depicted and a cross-sectional image that is not properly displayed. Thereby, the user can easily grasp the direction in which the attention area is appropriately measured and the direction in which the attention area is not appropriately measured.
上記実施形態において、第1走査線および第2走査線は、被検眼の3次元の計測範囲において設定されてよい。さらに、表示制御部は、この3次元の計測範囲の全体のOCTを行う前に、特定部による特定結果に基づく情報の表示を行うことができる。その具体例として、上記実施形態では、3次元スキャンの計測範囲内に十字型のスキャンパターンを設定し(ステップS1およびS2)、この十字型のスキャンパターンでライブスキャンを実行し(ステップS2)、このライブスキャンで得られたデータに基づいて計測範囲を調整し(ステップS3〜S6)、3次元スキャンを実行している(ステップS8)。 In the above embodiment, the first scanning line and the second scanning line may be set in the three-dimensional measurement range of the eye to be examined. Furthermore, the display control unit can display information based on the identification result by the identification unit before performing the OCT of the entire three-dimensional measurement range. As a specific example, in the above embodiment, a cross-shaped scan pattern is set within the measurement range of the three-dimensional scan (steps S1 and S2), and a live scan is executed with the cross-shaped scan pattern (step S2). The measurement range is adjusted based on the data obtained by this live scan (steps S3 to S6), and a three-dimensional scan is executed (step S8).
このような構成によれば、向きが異なる複数の断面像を用いて計測範囲の調整を行った後に、3次元スキャンを実行することが可能である。したがって、被検眼の注目部位の3次元スキャンを適切に行うことができる。 According to such a configuration, it is possible to perform a three-dimensional scan after adjusting the measurement range using a plurality of cross-sectional images having different directions. Therefore, it is possible to appropriately perform a three-dimensional scan of the target region of the eye to be examined.
第1走査線および第2走査線を含むスキャンパターンは任意に設定可能である。たとえば次のような態様のスキャンパターンを適用可能である。第1の態様として、第1走査線(L1)と第2走査線(L2)とが交差しているスキャンパターンを適用することができる(たとえば図4A、図4B、図4D、図4Eを参照)。第1の態様において、第1走査線(L1)と第2走査線(L2)は互いの中央位置で交差していてよい(たとえば図4A、図4Eを参照)。第2の態様として、第1走査線(L1)および第2走査線(L2)のそれぞれは線分状であり、第1走査線(L1)と第2走査線(L2)とが互いに垂直であってよい(たとえば図4A、図4B、図4C、図4Eを参照)。 The scan pattern including the first scan line and the second scan line can be arbitrarily set. For example, the following scan pattern can be applied. As the first aspect, a scan pattern in which the first scan line (L1) and the second scan line (L2) intersect can be applied (see, for example, FIGS. 4A, 4B, 4D, and 4E). ). In the first aspect, the first scanning line (L1) and the second scanning line (L2) may cross each other at the center position (see, for example, FIGS. 4A and 4E). As a second aspect, each of the first scanning line (L1) and the second scanning line (L2) is a line segment, and the first scanning line (L1) and the second scanning line (L2) are perpendicular to each other. (See, for example, FIGS. 4A, 4B, 4C, and 4E).
計測対象に応じてスキャンパターンを設定することができる。たとえば、計測モードや解析モードや固視位置などの条件と、スキャンパターンとをあらかじめ関連付けておき、設定された条件に対応するスキャンパターンを選択的に適用することが可能である。また、スキャンパターンのサイズを任意に変更可能に構成してもよい。 A scan pattern can be set according to the measurement target. For example, conditions such as a measurement mode, an analysis mode, and a fixation position can be associated with a scan pattern in advance, and a scan pattern corresponding to the set condition can be selectively applied. Further, the scan pattern size may be arbitrarily changed.
実施形態の眼科撮影装置は、被検眼を撮影して正面画像を取得する撮影部を備えていてよい。上記実施形態において、撮影部は、眼底カメラユニット2に格納された眼底撮影用の光学系を含み、特に、観察画像(赤外動画像)を取得するための光学系を含む。表示制御部(2112)は、撮影部により取得された正面画像(H)を第1動画像(G1)および第2動画像(G2)と並べて表示させる。さらに、表示制御部(2112)は、第1走査線(L1)を表す第1走査線画像(L1)と、第2走査線(L2)を表す第2走査線画像(L2)とを正面画像(H)とともに表示させる。 The ophthalmologic photographing apparatus according to the embodiment may include a photographing unit that photographs a subject's eye and acquires a front image. In the above-described embodiment, the photographing unit includes a fundus photographing optical system stored in the fundus camera unit 2, and particularly includes an optical system for acquiring an observation image (infrared moving image). The display control unit (2112) displays the front image (H) acquired by the photographing unit side by side with the first moving image (G1) and the second moving image (G2). Further, the display control unit (2112) displays a first scanning line image (L1) representing the first scanning line (L1) and a second scanning line image (L2) representing the second scanning line (L2) as a front image. Display with (H).
このような構成によれば、第1走査線および第2走査線が被検眼のどの部位に設定されているか容易に把握することができる。つまり、被検眼のどの部位をスキャンするか容易に把握することができる。さらに、このような情報を第1動画像および第2動画像に並べて表示させることで、被検眼のどの部位が実際にスキャンされているか把握しつつ、そのスキャンにより得られる複数の動画像を観察することが可能である。 According to such a configuration, it is possible to easily grasp in which part of the eye to be examined the first scanning line and the second scanning line are set. That is, it is possible to easily grasp which part of the eye to be scanned is scanned. Furthermore, by displaying such information side by side on the first moving image and the second moving image, it is possible to observe a plurality of moving images obtained by the scan while grasping which part of the eye to be examined is actually scanned. Is possible.
実施形態において、表示制御部(2112)は、第1走査線(L1)と第1動画像(G1)との対応を表す第1対応情報と、第2走査線(L2)と第2動画像(G2)との対応を表す第2対応情報とを表示させることができる。第1対応情報および第2対応情報の例として表示色がある。たとえば、第1対応情報として、第1走査線画像(L1)と第1動画像(G1)の枠とを第1色で表示させ、且つ、第2対応情報として第2走査線画像(L2)と第2動画像(G2)の枠とを第1色と異なる第2色で表示させることができる。 In the embodiment, the display control unit (2112) includes the first correspondence information indicating the correspondence between the first scanning line (L1) and the first moving image (G1), the second scanning line (L2), and the second moving image. Second correspondence information indicating the correspondence with (G2) can be displayed. There is a display color as an example of the first correspondence information and the second correspondence information. For example, the first scanning line image (L1) and the frame of the first moving image (G1) are displayed in the first color as the first correspondence information, and the second scanning line image (L2) is used as the second correspondence information. And the frame of the second moving image (G2) can be displayed in a second color different from the first color.
このような構成によれば、2つ(以上)の走査線と2つ(以上)の動画像との対応関係を容易に認識することが可能である。特に、表示色を用いて走査線と動画像とを対応付けることで、それらの対応関係を直感的に把握することができる。 According to such a configuration, it is possible to easily recognize the correspondence between two (or more) scanning lines and two (or more) moving images. In particular, by associating scanning lines with moving images using display colors, it is possible to intuitively grasp their correspondence.
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。適用される構成は、たとえば目的に応じて選択される。また、適用される構成に応じ、当業者にとって自明の作用効果や、本明細書において説明された作用効果が得られる。 The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate. The configuration to be applied is selected according to the purpose, for example. In addition, depending on the configuration to be applied, a function and effect obvious to those skilled in the art and the function and effect described in this specification can be obtained.
1 眼科撮影装置
2 眼底カメラユニット
100 OCTユニット
200 演算制御ユニット
210 制御部
211 主制御部
2111 条件制御部
2112 表示制御部
220 画像形成部
230 データ処理部
231 注目領域特定部
232 位置判定部
240 ユーザインターフェイス
241 表示部
242 操作部
E 被検眼
DESCRIPTION OF SYMBOLS 1 Ophthalmology imaging apparatus 2 Fundus camera unit 100 OCT unit 200 Arithmetic control unit 210 Control part 211 Main control part 2111 Condition control part 2112 Display control part 220 Image formation part 230 Data processing part 231 Attention area specific | specification part 232 Position determination part 240 User interface 241 Display unit 242 Operation unit E Eye to be examined
Claims (6)
前記被検眼における第1走査線に沿う第1走査と、前記第1走査線と向きが異なる第2走査線に沿う第2走査とを実行してデータを取得するデータ取得部と、
前記第1走査により取得されたデータに基づく断面像を解析して前記被検眼の注目部位の画像領域を特定し、前記第2走査により取得されたデータに基づく断面像を解析して前記注目部位の画像領域を特定する特定部と、
前記特定部により特定された前記画像領域の当該断面像における位置に基づいて表示手段に情報を表示させる表示制御部と、
前記第1走査により取得されたデータに基づく断面像および/または前記第2走査により取得されたデータに基づく断面像から前記被検眼の特定部位を特定し、当該断面像のフレームの所定の深さ位置に前記特定部位が配置されるようにOCT測定光の光路長および/またはOCT参照光の光路長を変更する条件制御部と
を備え、
前記第1走査線および前記第2走査線のそれぞれは線分状であり、
前記第1走査線と前記第2走査線とが互いに垂直であり、且つ、互いの中央位置で交差している
ことを特徴とする眼科撮影装置。 An ophthalmic imaging apparatus that acquires a cross-sectional image by scanning an eye to be examined using optical coherence tomography (OCT),
A data acquisition unit for acquiring data by executing a first scan along the first scan line in the eye to be examined and a second scan along a second scan line having a direction different from that of the first scan line;
The cross-sectional image based on the data acquired by the first scan is analyzed to identify the image region of the target region of the eye to be examined, and the cross-sectional image based on the data acquired by the second scan is analyzed to analyze the target region A specific part for specifying the image area of
A display control unit for displaying information on a display unit based on a position in the cross-sectional image of the image area specified by the specifying unit;
A specific part of the eye to be examined is specified from a cross-sectional image based on the data acquired by the first scan and / or a cross-sectional image based on the data acquired by the second scan, and a predetermined depth of the frame of the cross-sectional image A condition control unit that changes the optical path length of the OCT measurement light and / or the optical path length of the OCT reference light so that the specific part is arranged at a position ;
Each of the first scan line and the second scan line is a line segment,
The first scanning line and the second scanning line are perpendicular to each other and intersect each other at the center position.
An ophthalmologic photographing apparatus characterized by that .
前記表示制御部は、前記第1走査により逐次に取得されるデータに基づく第1動画像と、前記第2走査により逐次に取得されるデータに基づく第2動画像とを前記表示手段に表示させる
ことを特徴とする請求項1に記載の眼科撮影装置。 The data acquisition unit alternately executes the first scan and the second scan,
The display control unit causes the display unit to display a first moving image based on data sequentially acquired by the first scan and a second moving image based on data sequentially acquired by the second scan. The ophthalmologic photographing apparatus according to claim 1.
前記表示制御部は、前記3次元の計測範囲の全体の光コヒーレンストモグラフィを行う前に、前記特定部による特定結果に基づく情報の表示を行う
ことを特徴とする請求項1〜請求項5のいずれか一項に記載の眼科撮影装置。 The first scanning line and the second scanning line are set in a three-dimensional measurement range of the eye to be examined,
6. The display control unit according to claim 1, wherein the display control unit displays information based on a specific result by the specifying unit before performing optical coherence tomography of the entire three-dimensional measurement range. The ophthalmologic imaging apparatus according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015651A JP6585897B2 (en) | 2015-01-29 | 2015-01-29 | Ophthalmic imaging equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015651A JP6585897B2 (en) | 2015-01-29 | 2015-01-29 | Ophthalmic imaging equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016140360A JP2016140360A (en) | 2016-08-08 |
JP6585897B2 true JP6585897B2 (en) | 2019-10-02 |
Family
ID=56568015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015015651A Active JP6585897B2 (en) | 2015-01-29 | 2015-01-29 | Ophthalmic imaging equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6585897B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023111014A1 (en) * | 2021-12-15 | 2023-06-22 | Carl Zeiss Meditec, Inc. | System and method for assisting a subject with alignment to an ophthalmologic device |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6940960B2 (en) * | 2017-02-28 | 2021-09-29 | キヤノン株式会社 | Imaging device, operation method and program of imaging device |
EP3616602A4 (en) * | 2017-04-28 | 2021-04-14 | Nikon Corporation | Ophthalmological imaging optical system, ophthalmological imaging device, ophthalmological image acquisition method, and ophthalmological image system |
ES2914240T3 (en) * | 2017-08-14 | 2022-06-08 | Optos Plc | ophthalmic device |
JP7237219B2 (en) * | 2018-03-14 | 2023-03-10 | 株式会社トプコン | Ophthalmic system, ophthalmic information processing device, program, and recording medium |
JP2020044027A (en) * | 2018-09-18 | 2020-03-26 | 株式会社トプコン | Ophthalmologic apparatus, its control method, program, and recording medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5415902B2 (en) * | 2009-10-27 | 2014-02-12 | 株式会社トプコン | Ophthalmic observation device |
JP5783681B2 (en) * | 2010-03-31 | 2015-09-24 | キヤノン株式会社 | Imaging apparatus and imaging method |
JP5543536B2 (en) * | 2012-07-13 | 2014-07-09 | キヤノン株式会社 | Tomographic imaging apparatus, tomographic imaging method and program |
-
2015
- 2015-01-29 JP JP2015015651A patent/JP6585897B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023111014A1 (en) * | 2021-12-15 | 2023-06-22 | Carl Zeiss Meditec, Inc. | System and method for assisting a subject with alignment to an ophthalmologic device |
Also Published As
Publication number | Publication date |
---|---|
JP2016140360A (en) | 2016-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6560423B2 (en) | Ophthalmic equipment | |
JP6112846B2 (en) | Ophthalmic equipment | |
JP6412707B2 (en) | Ophthalmic equipment | |
JP6585897B2 (en) | Ophthalmic imaging equipment | |
JP2016041221A (en) | Ophthalmological photographing device and control method thereof | |
JP6899632B2 (en) | Ophthalmologic imaging equipment | |
JP6619202B2 (en) | Ophthalmic imaging equipment | |
JP2023076659A (en) | Ophthalmologic device | |
WO2016084419A1 (en) | Ophthalmological imaging device | |
WO2018135175A1 (en) | Ophthalmological device | |
JP2023080218A (en) | Ophthalmologic apparatus | |
JP6452977B2 (en) | Ophthalmic imaging apparatus and control method thereof | |
JP6619203B2 (en) | Ophthalmic imaging equipment | |
JP6942627B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2016101298A (en) | Ophthalmological photographing apparatus | |
JP6761519B2 (en) | Ophthalmologic imaging equipment | |
JP2019177181A (en) | Ophthalmologic imaging apparatus | |
JP2018051340A (en) | Ophthalmologic apparatus | |
JP6954831B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
WO2016039188A1 (en) | Ocular fundus analyzing device and ocular fundus observation device | |
JP6959158B2 (en) | Ophthalmic equipment | |
JP2019171168A (en) | Ophthalmic photographing apparatus | |
JP6310589B2 (en) | Ophthalmic equipment | |
JP5718154B2 (en) | Interfering light measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20150210 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20161226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6585897 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |