JP2017087056A - Ophthalmological imaging device - Google Patents

Ophthalmological imaging device Download PDF

Info

Publication number
JP2017087056A
JP2017087056A JP2017034811A JP2017034811A JP2017087056A JP 2017087056 A JP2017087056 A JP 2017087056A JP 2017034811 A JP2017034811 A JP 2017034811A JP 2017034811 A JP2017034811 A JP 2017034811A JP 2017087056 A JP2017087056 A JP 2017087056A
Authority
JP
Japan
Prior art keywords
image
unit
interest
region
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017034811A
Other languages
Japanese (ja)
Other versions
JP6378795B2 (en
Inventor
中澤 徹
Toru Nakazawa
徹 中澤
宗子 面高
Kazuko Omodaka
宗子 面高
秋葉 正博
Masahiro Akiba
正博 秋葉
勉 木川
Tsutomu Kikawa
勉 木川
朗子 松本
Akiko Matsumoto
朗子 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Topcon Corp
Original Assignee
Tohoku University NUC
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Topcon Corp filed Critical Tohoku University NUC
Priority to JP2017034811A priority Critical patent/JP6378795B2/en
Publication of JP2017087056A publication Critical patent/JP2017087056A/en
Application granted granted Critical
Publication of JP6378795B2 publication Critical patent/JP6378795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of capturing a local minute change in an eye to be examined irrespective of a disease type, a disease stage, and a disease state.SOLUTION: A reception part of an ophthalmological imaging device receives patient identification information for identifying a patient. An acquisition part acquires information on an interest position associated with the patient identification information received by the reception part from storage means in which the information on an interest position indicating a position of an interest region is stored in association with each of a plurality of pieces of patient identification information beforehand. An image formation part forms an image by executing optical coherence tomography on a patient's eye to be examined corresponding to the patient identification information. An analysis part analyzes an image formed by the image formation part. A specification part specifies a part of the result of the analysis by the analysis part on the basis of the information on the interest position acquired by the acquisition part.SELECTED DRAWING: Figure 4

Description

この発明は、眼科撮影装置に関する。   The present invention relates to an ophthalmologic photographing apparatus.

近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CT(Computed Tomography)のような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。   In recent years, OCT that forms an image representing the surface form or internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT (Computed Tomography), it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.

近年の研究では、OCTを用いて取得される眼底や角膜等の所定部位の情報と疾患との間の関連性が着目されている。たとえば、緑内障については、患者に自覚症状が現れる前に、視神経周囲の網膜神経線維層の菲薄化が進行することが知られている。最新の研究によれば、自覚症状が現れる頃には視野欠損の現れた局所部位においては70%程度、全体では30%程度の菲薄化が生じていることが明らかになっている。また、加齢黄斑変性において現れる地図状萎縮(Geographic Atrophy:GA)による視野欠損は、網膜色素上皮(RPE)の障害に起因することが知られている。また、眼底の血流動態等の機能的データと特定の疾患との間の関連性についての研究も進められている。このように、疾患の種類や進行度に応じて異常が発生する部位は一般に、異なる。また、疾患の進行度や治療後の経過を把握するための継続的な観察の重要性が高まっている。   In recent studies, attention has been focused on the relationship between information on a predetermined site such as a fundus or cornea acquired using OCT and a disease. For example, for glaucoma, it is known that thinning of the retinal nerve fiber layer around the optic nerve proceeds before subjective symptoms appear in the patient. According to the latest research, it has been clarified that when subjective symptoms appear, thinning of about 70% occurs in a local region where visual field defects appear, and about 30% as a whole. In addition, it is known that visual field defects due to geographic atrophy (GA) appearing in age-related macular degeneration are caused by retinal pigment epithelium (RPE) disorders. In addition, research on the relationship between functional data such as fundus blood flow dynamics and specific diseases is also underway. As described above, the site where an abnormality occurs is generally different depending on the type and progression of the disease. In addition, the importance of continuous observation for grasping the degree of disease progression and the course after treatment is increasing.

このような継続的観察(経過観察、術前術後観察等)の手法については、たとえば特許文献1に開示されている。特許文献1には、OCTを用いて取得された断層像上に検者が注目したエリアを指定し、当該エリアについて経過観察を行うためのトレンド解析の手法が開示されている。   Such a technique for continuous observation (follow-up observation, preoperative and postoperative observation, etc.) is disclosed in Patent Document 1, for example. Patent Document 1 discloses a trend analysis technique for designating an area focused by an examiner on a tomographic image acquired using OCT and performing follow-up observation on the area.

特開2014−83268号公報JP 2014-83268 A

従来の技術においては、疾患の種類や進行度が患者ごとに異なるにもかかわらず、所定のパラメータを一律に求めて継続的に観察を行っているため、眼底や角膜の局所的な微少な変化を捉えることができない場合がある。また、従来の技術では、各回の検査において注目部位をその都度指定するのが一般的であるが、これは手間であるし、また、指定ミスも起こりうる。   In the conventional technology, even though the type of disease and the degree of progression differ from patient to patient, since a predetermined parameter is uniformly obtained and continuously observed, local minor changes in the fundus and cornea May not be captured. Further, in the conventional technique, it is common to designate a site of interest each time in each examination, but this is troublesome and a designation error may occur.

この発明は、このような問題を解決するためになされたものであり、その目的は、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることが可能な技術を提供することにある。   The present invention has been made to solve such a problem, and its purpose is to provide a technology capable of capturing a local minute change in the eye to be examined regardless of the disease type, stage or disease state. There is to do.

実施形態の眼科撮影装置は、患者を識別するための患者識別情報を受け付ける受付部と、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて格納された格納手段から、前記受付部により受け付けられた前記患者識別情報に関連付けられた関心位置情報を取得する取得部と、前記患者識別情報に対応する患者の被検眼に対する光コヒーレンストモグラフィを実行することにより画像を形成する画像形成部と、前記画像形成部により形成された画像を解析する解析部と、前記取得部により取得された関心位置情報に基づいて、前記解析部による解析結果の一部を特定する特定部とを含む。   The ophthalmic imaging apparatus according to the embodiment includes a receiving unit that receives patient identification information for identifying a patient, and storage means in which interest position information indicating the position of a region of interest is associated with each of the plurality of patient identification information and stored in advance. From the acquisition unit that acquires the position of interest information associated with the patient identification information received by the reception unit, and by performing optical coherence tomography on the patient's eye to be examined corresponding to the patient identification information An image forming unit to be formed, an analyzing unit for analyzing an image formed by the image forming unit, and a specification for identifying a part of the analysis result by the analyzing unit based on the position-of-interest information acquired by the acquiring unit Part.

この発明によれば、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることが可能となる。   According to the present invention, it is possible to capture a local minute change of the eye to be examined regardless of the disease type, stage or disease state.

実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology photographing instrument concerning an embodiment. 実施形態に係る眼科撮影装置の動作の一例を表すフロー図である。It is a flowchart showing an example of operation | movement of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作説明図である。It is operation | movement explanatory drawing of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作説明図である。It is operation | movement explanatory drawing of the ophthalmologic imaging device which concerns on embodiment. 実施形態に係る眼科撮影装置の動作説明図である。It is operation | movement explanatory drawing of the ophthalmologic imaging device which concerns on embodiment.

この発明の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼科撮影装置は、OCTを用いて被検眼(眼底、前眼部等)の画像(2次元断層像及び3次元画像の少なくとも一方を含む)を形成する。また、この発明に係る眼科解析装置は、OCTを用いて取得された被検眼の画像の入力を受け、当該被検眼の画像の解析処理を行う。この明細書では、OCTを用いて取得された画像をOCT画像と総称することがある。また、OCT画像を取得するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として援用することが可能である。   An example of an embodiment of the present invention will be described in detail with reference to the drawings. The ophthalmologic photographing apparatus according to the present invention forms an image (including at least one of a two-dimensional tomographic image and a three-dimensional image) of an eye to be examined (fundus, anterior eye portion, etc.) using OCT. The ophthalmic analysis apparatus according to the present invention receives an input of an image of the eye to be examined acquired using OCT, and performs an analysis process on the image of the eye to be examined. In this specification, images acquired using OCT may be collectively referred to as OCT images. A measurement operation for acquiring an OCT image may be referred to as OCT measurement. In addition, it is possible to use the description content of the literature described in this specification as the content of the following embodiment.

以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。特に、実施形態に係る眼科撮影装置は、スペクトラルドメインOCTの手法を用いて被検眼についてのOCT画像及び眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる眼科撮影装置に対して、この発明に係る構成を適用することも可能である。また、この実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外の眼科撮影装置、たとえばSLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などに、この実施形態に係る構成を有するOCT装置を組み合わせることも可能である。また、この実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。   In the following embodiment, a configuration to which Fourier domain type OCT is applied will be described in detail. In particular, the ophthalmologic imaging apparatus according to the embodiment can acquire both an OCT image and a fundus image of the eye to be examined using a spectral domain OCT technique. The configuration according to the present invention can also be applied to an ophthalmologic photographing apparatus using a method other than the spectral domain, for example, a swept source OCT technique. In this embodiment, an apparatus combining an OCT apparatus and a fundus camera will be described. However, this embodiment may be applied to an ophthalmologic photographing apparatus other than a fundus camera, such as an SLO (Scanning Laser Ophthalmoscope), a slit lamp, an ophthalmic surgical microscope, and the like. It is also possible to combine an OCT apparatus having the configuration according to the above. In addition, the configuration according to this embodiment can be incorporated into a single OCT apparatus.

また、以下の実施形態では、被検眼の画像として眼底における黄斑部の画像を取得する場合について説明するが、眼底以外の他の部位(たとえば前眼部)の画像を取得する場合にも適用することができる。   Moreover, although the following embodiment demonstrates the case where the image of the macular part in a fundus is acquired as an image of a to-be-examined eye, it is applied also when acquiring the image of parts other than a fundus (for example, anterior eye part). be able to.

[構成]
図1及び図2に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。演算制御ユニット200は「眼科解析装置」としての機能を有する。また、「眼科解析装置」の機能は、演算制御ユニット200と、後述の操作部240Bとにより実現されてもよい。
[Constitution]
As shown in FIGS. 1 and 2, the ophthalmologic photographing apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes. The arithmetic control unit 200 has a function as an “ophthalmologic analyzer”. Further, the function of the “ophthalmologic analyzer” may be realized by the arithmetic control unit 200 and an operation unit 240B described later.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。   The observation light source 11 of the illumination optical system 10 is constituted by a halogen lamp, for example. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef. An LED (Light Emitting Diode) can also be used as the observation light source.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。   The imaging light source 15 is constituted by, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.

LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   A part of the light output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the eye E, for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.

更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in a conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。   The cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, and is reflected by the mirror 32. The light passes through 33A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。   The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the cornea reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus photography. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。   The galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.

なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。   In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided. In general, for the configuration of the OCT unit 100, a known technique according to the type of optical coherence tomography can be arbitrarily applied.

光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。   The light source unit 101 outputs a broadband low-coherence light L0. The low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。   The light source unit 101 includes a light output device such as a super luminescent diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier).

光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。   The low-coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the signal light LS and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The reference light LR is guided by the optical fiber 104 and reaches the optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   The signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.

ファイバカプラ109は、信号光LSの後方散乱光と、ファイバカプラ103を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the backscattered light of the signal light LS to interfere with the reference light LR that has passed through the fiber coupler 103. The interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. The diffraction grating 113 shown in FIG. 2 is a transmission type, but other types of spectroscopic elements such as a reflection type diffraction grating can also be used.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。   The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, in place of the CCD image sensor, another form of image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。   The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。   As control of the OCT unit 100, the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic and control unit 200 includes, for example, a microprocessor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a communication interface, and the like, as in a conventional computer. A computer program for controlling the ophthalmologic photographing apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more housings. It may be.

〔制御系〕
眼科撮影装置1の制御系の構成について図3〜図6を参照しつつ説明する。
[Control system]
The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIGS.

(制御部)
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212とが設けられている。
(Control part)
The control system of the ophthalmologic photographing apparatus 1 is configured around the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.

(主制御部)
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41、ガルバノスキャナ42及びOCT合焦駆動部43A、更にOCTユニット100の光源ユニット101、光減衰器105及び偏波調整器106を制御する。また、主制御部211は、後述する各種の表示制御を実行する。
(Main control unit)
The main control unit 211 performs the various controls described above. In particular, the main control unit 211 includes a focusing drive unit 31A of the retinal camera unit 2, an optical path length changing unit 41, a galvano scanner 42 and an OCT focusing driving unit 43A, a light source unit 101 of the OCT unit 100, an optical attenuator 105, and The polarization controller 106 is controlled. In addition, the main control unit 211 executes various display controls described later.

合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。   The focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed. The main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.

OCT合焦駆動部43Aは、信号光路の光軸方向に合焦レンズ43を移動させる。それにより、信号光LSの合焦位置が変更される。信号光LSの合焦位置は、信号光LSのビームウェストの深さ位置(z位置)に相当する。   The OCT focusing drive unit 43A moves the focusing lens 43 in the optical axis direction of the signal optical path. Thereby, the focus position of the signal light LS is changed. The focusing position of the signal light LS corresponds to the depth position (z position) of the beam waist of the signal light LS.

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。   Further, the main control unit 211 performs processing for writing data into the storage unit 212 and processing for reading data from the storage unit 212.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者を識別するための患者識別情報(患者ID)や氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報や、患者ごとに注目すべき関心領域の位置を示す関心位置情報を含む。
(Memory part)
The storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient identification information (patient ID) and name for identifying a patient, information about the eye such as left / right eye identification information, and attention for each patient. Interest position information indicating the position of the region of interest to be included is included.

この実施形態では、記憶部212は、たとえば図5に示すような情報をあらかじめ格納する。この情報においては、複数の患者ID(PID1、PID2、・・・)のそれぞれに対し、対象眼情報(右眼または左眼)と、関心位置情報(ROI1、ROI2、・・・)と、パラメータ種別情報(P1、P2、・・・)とが関連付けられている。患者IDは、患者に対応する識別情報である。図5に示す情報において、患者ID「PID1」に対し、対象眼情報「右眼」と関心位置情報「ROI1」とパラメータ種別情報「P1」とが関連付けられている。さらに、同じ患者ID「PID1」に対して、対象眼情報「左眼」と関心位置情報「ROI2」とパラメータ種別情報「P2」とが関連付けられている。また、他の患者ID「PID2」に対し、対象眼情報「右眼」と関心位置情報「ROI3」とパラメータ種別情報「P3」とが関連付けられている。これら以外の患者IDについても同様に、対象眼情報と関心位置情報とパラメータ識別情報とがそれぞれ関連付けられている。   In this embodiment, the storage unit 212 stores information as shown in FIG. 5 in advance, for example. In this information, for each of a plurality of patient IDs (PID1, PID2,...), Target eye information (right eye or left eye), interest position information (ROI1, ROI2,...), Parameters Type information (P1, P2,...) Is associated. The patient ID is identification information corresponding to a patient. In the information illustrated in FIG. 5, target eye information “right eye”, interest position information “ROI1”, and parameter type information “P1” are associated with the patient ID “PID1”. Furthermore, target eye information “left eye”, position of interest information “ROI2”, and parameter type information “P2” are associated with the same patient ID “PID1”. Further, target eye information “right eye”, interest position information “ROI3”, and parameter type information “P3” are associated with another patient ID “PID2”. Similarly, with respect to patient IDs other than these, target eye information, interest position information, and parameter identification information are associated with each other.

なお、対象眼情報として「両眼」を指定可能とし、右眼と左眼とについて共通の関心位置情報および/またはパラメータ種別情報を患者IDに対して関連付けるように構成ことも可能である。この構成は、たとえば、左右両眼について(ほぼ)同様に進行する疾患への適用が考えられる。また、対象眼情報を患者IDに関連付けることなく、関心位置情報およびパラメータ種別情報だけを患者IDに関連付けるよう構成することもできる。この構成は、たとえば、上記と同様に左右両眼について(ほぼ)同様に進行する疾患に適用する場合や、当該患者の検査が片眼に対してのみ実施される場合などに用いられる。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。   Note that “both eyes” can be designated as the target eye information, and the position information and / or the parameter type information common to the right eye and the left eye can be associated with the patient ID. For example, this configuration can be applied to a disease that progresses (substantially) in both the left and right eyes. Further, it is also possible to configure so that only the interest position information and the parameter type information are associated with the patient ID without associating the target eye information with the patient ID. This configuration is used, for example, when applied to a disease that progresses in (substantially) the same way for both the left and right eyes as described above, or when the patient's examination is performed only on one eye. The storage unit 212 stores various programs and data for operating the ophthalmologic photographing apparatus 1.

(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFTなどの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
(Image forming part)
The image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filtering, and FFT, as in the conventional spectral domain type optical coherence tomography. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type.

画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、眼底Efの部位とその画像とを同一視することもある。   The image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified. Moreover, the part of the fundus oculi Ef and the image thereof may be identified with each other.

(データ処理部)
データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、データ処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Data processing part)
The data processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the data processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.

データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。   The data processing unit 230 performs known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef. Note that the image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. As image data of a three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and views the image from a specific gaze direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。   It is also possible to form stack data of a plurality of tomographic images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.

データ処理部230は、眼底像とOCT画像との位置合わせを行うことができる。眼底像とOCT画像とが並行して取得される場合には、双方の光学系が同軸であることから、(ほぼ)同時に取得された眼底像とOCT画像とを、撮影光学系30の光軸を基準として位置合わせすることができる。また、眼底像とOCT画像との取得タイミングに関わらず、OCT画像をxy平面に投影して得られる画像と眼底像との位置合わせをすることにより、そのOCT画像とその眼底像とを位置合わせすることも可能である。この位置合わせ手法は、眼底像取得用の光学系とOCT計測用の光学系とが同軸でない場合においても適用可能である。また、双方の光学系が同軸でない場合であっても、双方の光学系の相対的な位置関係が既知であれば、この相対位置関係を参照して同軸の場合と同様の位置合わせを実行することが可能である。   The data processing unit 230 can perform alignment between the fundus image and the OCT image. When the fundus image and the OCT image are acquired in parallel, since both optical systems are coaxial, the optical axis of the imaging optical system 30 is used to (substantially) simultaneously acquire the fundus image and the OCT image. Can be aligned with reference to. Regardless of the acquisition timing of the fundus image and the OCT image, the OCT image and the fundus image are aligned by aligning the fundus image with the image obtained by projecting the OCT image onto the xy plane. It is also possible to do. This alignment method is applicable even when the fundus image acquisition optical system and the OCT measurement optical system are not coaxial. Even if both optical systems are not coaxial, if the relative positional relationship between both optical systems is known, the same alignment as in the coaxial case is executed with reference to this relative positional relationship. It is possible.

この実施形態では、データ処理部230は、取得部231と、特定部232と、解析部233と、更新部234とを有する。   In this embodiment, the data processing unit 230 includes an acquisition unit 231, a specification unit 232, an analysis unit 233, and an update unit 234.

制御部210は、操作部240Bを用いてユーザが指定した患者IDを受け付ける。また、制御部210は、患者の認証処理を行い、それにより当該患者が本人と認証されたときに当該患者に対応する患者IDを受け付けるようにしてもよい。認証処理は、患者があらかじめ決められた暗証番号を操作部240Bに対して入力することにより開始されてよいし、あらかじめ貸与された認証カードに記録された情報を読み出すことにより開始されてもよい。制御部210は、この実施形態に係る「受付部」の一例である。   The control unit 210 receives a patient ID specified by the user using the operation unit 240B. In addition, the control unit 210 may perform a patient authentication process, and thereby accept a patient ID corresponding to the patient when the patient is authenticated. The authentication process may be started when the patient inputs a predetermined personal identification number to the operation unit 240B, or may be started by reading out information recorded on an authentication card lent in advance. The control unit 210 is an example of a “accepting unit” according to this embodiment.

記憶部212は、上記のように、複数の患者IDのそれぞれに関連付けられた関心位置情報をあらかじめ記憶する。関心位置情報は、関心領域の位置を示す情報である。この実施形態では、記憶部212は、図5に示すように、複数の患者IDのそれぞれに関連付けられた関心位置情報およびパラメータ種別情報をあらかじめ記憶する。パラメータ種別情報は、算出すべきパラメータの種別を表す情報であり、事後的に変更が可能である。たとえば、医師等が、関心位置情報に基づく被検眼の部位を観察し、操作部240Bを用いて当該部位の経過観察に必要と判断したパラメータの種別を指定する。この指定を受け、制御部210は、当該患者の患者IDに関連付けてパラメータ種別情報を登録する。その後の経過観察において医師等が操作部240Bを用いてパラメータの追加や削除や変更を指定すると、制御部210は、当該指定に基づきパラメータ種別情報を更新することが可能である。   As described above, the storage unit 212 stores interest position information associated with each of a plurality of patient IDs in advance. The interest position information is information indicating the position of the region of interest. In this embodiment, as shown in FIG. 5, the storage unit 212 stores in advance interest position information and parameter type information associated with each of a plurality of patient IDs. The parameter type information is information indicating the type of parameter to be calculated, and can be changed later. For example, a doctor or the like observes a part of the eye to be examined based on the position-of-interest information, and designates a parameter type determined to be necessary for the follow-up observation of the part using the operation unit 240B. Upon receiving this designation, the control unit 210 registers the parameter type information in association with the patient ID of the patient. When a doctor or the like designates addition, deletion, or change of a parameter using the operation unit 240B in subsequent follow-up observation, the control unit 210 can update the parameter type information based on the designation.

また、一般に、適用されるパラメータの種別は、疾患の種別や関心領域の種別に応じて異なる。たとえば、緑内障の患者については、視神経乳頭の形状を表すパラメータを取得したり、網膜神経線維層の形態を取得したりすることがある。また、加齢黄斑変性の患者については、網膜色素上皮の形態を取得することがある。したがって、実施形態に係る装置に次の機能を搭載することが可能である:疾患種別および/または関心領域種別と、パラメータ種別とが関連付けられた情報をあらかじめ記憶する機能;疾患種別および/または関心領域種別の入力を受け付ける機能;入力された情報に関連付けられたパラメータ種別を上記情報から特定する機能;特定されたパラメータ種別と入力された関心領域種別とを患者IDに関連付ける機能。また、上記のように、疾患種別に応じて関心領域種別が決定される場合がある。その場合、疾患種別に対して1以上の関心領域種別が関連付けられた情報をあらかじめ記憶する機能と、入力された疾患種別に関連付けられた関心領域種別を当該情報から特定する機能とをさらに設けることが可能である。なお、このようにパラメータ種別(および関心領域種別)を自動で設定する構成が適用される場合であっても、この自動設定された内容をユーザが事後的に変更するための機能が設けられていてよい。   In general, the type of parameter to be applied differs depending on the type of disease or the type of region of interest. For example, for a glaucoma patient, a parameter representing the shape of the optic nerve head may be obtained, or the form of the retinal nerve fiber layer may be obtained. In addition, retinal pigment epithelium morphology may be obtained for patients with age-related macular degeneration. Therefore, it is possible to mount the following functions in the apparatus according to the embodiment: a function for storing in advance information associated with a disease type and / or region of interest type and a parameter type; disease type and / or interest A function of accepting an input of a region type; a function of specifying a parameter type associated with input information from the above information; a function of associating the specified parameter type and the input region of interest type with a patient ID. In addition, as described above, the region of interest type may be determined according to the disease type. In that case, a function of previously storing information associated with one or more region types of interest with respect to the disease type and a function of identifying the region of interest type associated with the input disease type from the information are further provided. Is possible. Even when the configuration for automatically setting the parameter type (and the region of interest type) is applied as described above, a function is provided for the user to change the automatically set content afterwards. It's okay.

記憶部212は、図5に示すような情報をあらかじめ格納する「格納手段」の一例である。なお、格納手段は、眼科撮影装置1の外部に設けられていてもよい。たとえば、眼科撮影装置1が、院内LAN(Local Area Network)等のネットワークを介して、格納手段の機能を有するサーバ装置と通信可能に接続された構成を適用することが可能である。ここで、眼科撮影装置1とサーバ装置は、インターネット等のWAN(WideAreaNetwork)を介して接続されていてもよい。また、LANとWANとを組み合わせたネットワークを介して眼科撮影装置1とサーバ装置を接続してもよい。   The storage unit 212 is an example of a “storage unit” that stores information as illustrated in FIG. 5 in advance. The storage means may be provided outside the ophthalmologic photographing apparatus 1. For example, it is possible to apply a configuration in which the ophthalmologic photographing apparatus 1 is communicably connected to a server apparatus having a storage unit function via a network such as an in-hospital LAN (Local Area Network). Here, the ophthalmologic imaging apparatus 1 and the server apparatus may be connected via a WAN (Wide Area Network) such as the Internet. Further, the ophthalmologic photographing apparatus 1 and the server apparatus may be connected via a network in which a LAN and a WAN are combined.

(取得部)
取得部231は、当該患者IDに関連付けられた関心位置情報を記憶部212から取得する。また、取得部231は、関心位置情報とともに、当該患者IDに関連付けられたパラメータ種別情報を記憶部212から取得する。
(Acquisition Department)
The acquisition unit 231 acquires the position-of-interest information associated with the patient ID from the storage unit 212. Further, the acquisition unit 231 acquires parameter type information associated with the patient ID from the storage unit 212 together with the position of interest information.

(特定部)
特定部232は、取得部231により取得された関心位置情報に基づいて、患者IDに対応する患者の被検眼について取得されたOCT画像中の部分領域を特定する。部分領域は、OCT画像中において関心領域に相当する領域である。部分領域は、関心領域に一致する領域でなくてもよい。たとえば、特定部232は、上記のOCT画像中において、関心位置情報が示す関心領域に対応する領域を含むように部分領域を特定することが可能である。特定部232による部分領域を特定する方法の例として、自動で行う場合と手動で行う場合とがある。
(Specific part)
The specifying unit 232 specifies a partial region in the OCT image acquired for the patient's eye to be examined corresponding to the patient ID based on the position-of-interest information acquired by the acquiring unit 231. The partial region is a region corresponding to the region of interest in the OCT image. The partial region may not be a region that matches the region of interest. For example, the specifying unit 232 can specify the partial region in the OCT image so as to include a region corresponding to the region of interest indicated by the position-of-interest information. As an example of a method of specifying a partial region by the specifying unit 232, there are a case where it is performed automatically and a case where it is performed manually.

自動で行う場合の例として、特定部232は、関心領域に対応する上記のOCT画像中の領域より広い領域を部分領域として特定することが可能である。たとえば、特定部232は、関心位置情報を用いて、関心領域に対応するOCT画像中の領域を特定し、特定された領域より広い領域を部分領域として特定する。或いは、特定部232は、上記のOCT画像を複数の領域に分割し、関心位置情報を用いて、分割された領域のうち関心領域と重なる領域を特定し、特定された1以上の領域をまとめて部分領域設定するよう構成されていてもよい。また、特定部232は、関心位置情報を用いて、関心領域に対応するOCT画像中の領域を特定し、特定された領域を外側に所定の距離だけ拡大した領域を部分領域として設定することも可能である。この処理において拡大される範囲(距離や方向)は、たとえば、疾患種別や病態や病期やイベント(投薬、治療等)など、病変部(関心領域)の拡大に影響を及ぼすファクタおよび/またはその可能性があるファクタに応じて設定される。或いは、特定部232は、関心位置情報を用いて、OCT画像中に特定点を特定しこの特定点を基準に所定の形状の領域が関心領域を含むように所定の距離ずつ拡大することにより部分領域を特定するようにしてもよい。また、特定部232は、たとえば、OCT画像や眼底像を解析することにより所定の組織の形状や厚み分布等の評価情報を取得し、この評価情報に基づきOCT画像において病変部に相当する範囲を特定し、この特定範囲と関心位置情報が示す関心領域とを比較し、この関心領域と、当該特定範囲に含まれ且つ当該関心領域に含まれない領域とが少なくとも含まれるように部分領域の設定を行うことも可能である。   As an example in the case of performing automatically, the specifying unit 232 can specify a region wider than the region in the OCT image corresponding to the region of interest as a partial region. For example, the specifying unit 232 specifies a region in the OCT image corresponding to the region of interest using the position of interest information, and specifies a region wider than the specified region as a partial region. Alternatively, the specifying unit 232 divides the OCT image into a plurality of regions, uses the position-of-interest information, specifies a region that overlaps the region of interest, and collects one or more specified regions. It may be configured to set a partial area. Further, the specifying unit 232 may specify a region in the OCT image corresponding to the region of interest using the position-of-interest information, and set a region obtained by enlarging the specified region by a predetermined distance as a partial region. Is possible. The range (distance and direction) to be expanded in this process is, for example, a factor that affects the expansion of a lesion (region of interest) such as a disease type, disease state, stage, or event (medicine, treatment, etc.) and / or its Set according to possible factors. Alternatively, the specifying unit 232 uses the position-of-interest information to specify a specific point in the OCT image, and expands by a predetermined distance so that a region of a predetermined shape includes the region of interest based on the specific point. An area may be specified. For example, the specifying unit 232 acquires evaluation information such as the shape and thickness distribution of a predetermined tissue by analyzing an OCT image and a fundus image, and based on this evaluation information, a range corresponding to a lesioned part is obtained. Identify and compare this specific range with the region of interest indicated by the position of interest information, and set the partial region so that this region of interest and at least the region included in the specific range and not included in the region of interest are included It is also possible to perform.

このように関心領域に対応する上記のOCT画像中の領域より広い領域を部分領域として特定することにより、特に不可逆的に進行・拡大する疾患(緑内障、加齢黄斑変性等)の継続的観察において、関心領域の指定をその都度行う手間がなくなる。また、病変部の広がりの認識が容易になるといったメリットもある。なお、このような自動設定処理が適用される場合であっても、次に説明するような手動調整を付加的に行えるよう構成することも可能である。   In this way, by specifying a region wider than the region in the OCT image corresponding to the region of interest as a partial region, particularly in continuous observation of irreversible progression (glaucoma, age-related macular degeneration, etc.) This eliminates the trouble of specifying the region of interest each time. In addition, there is an advantage that the spread of the lesioned part can be easily recognized. Even when such an automatic setting process is applied, a manual adjustment as described below can be additionally performed.

手動で部分領域の特定を行う場合、特定部232は、ユーザからの指定を受け、部分領域を特定する。たとえば、特定部232は、操作部240Bに対するユーザの操作に基づく操作情報を受け、当該操作情報に基づいて部分領域を特定する。具体的には、まず、制御部210が、当該被検眼について取得されたOCT画像を表示部240Aに表示させる。ユーザは、表示部240Aに表示されたOCT画像中の所望の範囲を、操作部240Bを用いて指定する。ユーザにより指定されたOCT画像中の範囲に基づいて、特定部232は部分領域を特定する。このとき、部分領域は、ユーザによる指定範囲に相当する画像領域でもよいし、指定範囲より広い画像領域でもよい。後者が適用される場合、特定部232は、たとえば上記の自動処理と同様の処理を実行する。   When manually specifying the partial area, the specifying unit 232 receives the designation from the user and specifies the partial area. For example, the specifying unit 232 receives operation information based on a user's operation on the operation unit 240B, and specifies a partial region based on the operation information. Specifically, first, the control unit 210 causes the display unit 240A to display an OCT image acquired for the eye to be examined. The user designates a desired range in the OCT image displayed on the display unit 240A using the operation unit 240B. Based on the range in the OCT image designated by the user, the identifying unit 232 identifies the partial region. At this time, the partial area may be an image area corresponding to a range designated by the user or an image area wider than the designated range. When the latter is applied, the specifying unit 232 executes a process similar to the automatic process described above, for example.

特定部232は、ユーザからの指定を受けることなく、部分領域を特定することも可能である。関心領域の設定対象が当該被検眼について過去に取得された基準画像であるか否かに応じて、特定部232は、部分領域を特定するために異なる処理を実行する。なお、特定部232は、双方の場合に対応可能に構成されてもよいし、一方の場合のみに対応可能に構成されてもよい。双方の場合に対応可能である場合、関心領域の設定態様に応じて処理モードの切り替えが行われる。一方の場合のみに対応可能である場合、特定部232により処理可能な形態の情報が特定部232に入力される。   The specifying unit 232 can also specify a partial region without receiving designation from the user. Depending on whether or not the setting target of the region of interest is a reference image acquired in the past for the eye to be examined, the specifying unit 232 performs different processing to specify the partial region. Note that the specifying unit 232 may be configured to be compatible with both cases, or may be configured to be compatible with only one of the cases. When both cases can be dealt with, the processing mode is switched according to the setting mode of the region of interest. In the case where only one case can be handled, information in a form that can be processed by the specifying unit 232 is input to the specifying unit 232.

関心領域が基準画像に対して設定されている場合、関心位置情報は、この基準画像中の領域の位置を示す位置情報を含んでいてよい。本例において、特定部232は、図6に示すように、変位算出部232Aを有する。変位算出部232Aは、この基準画像と当該被検眼について取得されたOCT画像との変位を算出する。たとえば、変位算出部232Aは、基準画像およびOCT画像のそれぞれについて特徴点を特定し、特定された特徴点同士のずれを算出することにより基準画像とOCT画像との変位を算出する。特徴点の例として、中心窩、視神経乳頭(中心、輪郭等)、血管(特徴的な血管、分岐部等)、レーザ治療痕などがある。特定部232は、変位算出部232Aにより算出された変位と上記の位置情報とに基づいて部分領域を特定する。この処理の具体例として、特定部232は、変位算出部232Aにより算出された変位がキャンセルされるように、基準画像とOCT画像との位置合わせ(画像マッチング)を行うことにより、基準画像中の関心領域に対応するOCT画像中の画像領域を特定し、これを部分領域に設定する。或いは、特定部232は、基準画像中の関心領域に対応するOCT画像中の画像領域を特定し、特定された画像領域に対応する座標値の範囲を上記変位がキャンセルされるように移動することにより部分領域を特定することができる。また、特定部232は、上記の位置情報を用いて、基準画像中の関心領域に対応するOCT画像中の領域を特定してもよい。この場合、特定部232は、変位算出部232Aにより算出された変位からOCT画像中の部分領域を特定する。   When the region of interest is set with respect to the reference image, the position-of-interest information may include position information indicating the position of the region in the reference image. In this example, the specifying unit 232 includes a displacement calculating unit 232A as illustrated in FIG. The displacement calculation unit 232A calculates the displacement between the reference image and the OCT image acquired for the eye to be examined. For example, the displacement calculating unit 232A specifies a feature point for each of the reference image and the OCT image, and calculates a displacement between the specified feature point by calculating a displacement between the specified feature points. Examples of feature points include fovea, optic papilla (center, contour, etc.), blood vessels (characteristic blood vessels, bifurcations, etc.), and laser treatment traces. The specifying unit 232 specifies the partial region based on the displacement calculated by the displacement calculating unit 232A and the position information. As a specific example of this processing, the specifying unit 232 performs alignment (image matching) between the reference image and the OCT image so that the displacement calculated by the displacement calculating unit 232A is canceled, so that An image region in the OCT image corresponding to the region of interest is specified, and this is set as a partial region. Alternatively, the specifying unit 232 specifies an image region in the OCT image corresponding to the region of interest in the reference image, and moves the coordinate value range corresponding to the specified image region so that the displacement is canceled. Thus, the partial area can be specified. Further, the specifying unit 232 may specify a region in the OCT image corresponding to the region of interest in the reference image using the position information. In this case, the specifying unit 232 specifies a partial region in the OCT image from the displacement calculated by the displacement calculating unit 232A.

関心領域が基準画像に対して設定されていない場合、関心位置情報は、当該被検眼の部位の位置を示す位置情報を含んでいてよい。たとえば位置情報は、被検眼における特徴点に対する当該部位の相対位置(変位方向と変位量との1以上の組み合わせ)を示す情報を含むことが可能である。特徴点の例として、上記と同様に、中心窩、視神経乳頭、血管、レーザ治療痕などがある。この場合、特定部232には、変位算出部232Aが設けられない。特定部232は、上記の位置情報に示す部位の位置に対応するOCT画像中の領域を特定することにより部分領域を特定する。たとえば、特定部232は、OCT画像を解析することにより特徴点の位置(座標値)を特定する。特定部232は、特定された特徴点の位置から当該位置情報に示す変位方向に当該変位量だけシフトした位置(領域)を部分領域として特定する。他の例を説明する。位置情報は、上記相対位置として、特徴点に対する当該部位の代表点(重心、中心等)の変位(変位方向および変位量)と、この代表点を基準とした当該部位の範囲(形状、サイズ、方向等)を表す情報(範囲情報)とを含むものとする。この場合、特定部232は、OCT画像を解析することにより特徴点の位置(座標値)を特定し、位置情報に示す変位だけ当該座標値から離れた位置(座標値)を求めて代表点の位置とする。そして、特定部232は、この代表点の位置と上記範囲情報とに基づいて、目的の部分領域を特定する。   When the region of interest is not set with respect to the reference image, the position-of-interest information may include position information indicating the position of the part of the eye to be examined. For example, the position information can include information indicating the relative position (one or more combinations of the displacement direction and the displacement amount) of the part with respect to the feature point in the eye to be examined. Examples of feature points include the fovea, the optic disc, blood vessels, and laser treatment traces as described above. In this case, the specifying unit 232 is not provided with the displacement calculating unit 232A. The specifying unit 232 specifies a partial region by specifying a region in the OCT image corresponding to the position of the part indicated by the position information. For example, the specifying unit 232 specifies the position (coordinate value) of the feature point by analyzing the OCT image. The identifying unit 232 identifies, as a partial region, a position (region) that is shifted by the amount of displacement in the displacement direction indicated by the position information from the position of the identified feature point. Another example will be described. The positional information includes, as the relative position, the displacement (displacement direction and amount) of the representative point (center of gravity, center, etc.) of the part relative to the feature point, and the range (shape, size, Information (range information) indicating a direction or the like). In this case, the identifying unit 232 identifies the position (coordinate value) of the feature point by analyzing the OCT image, obtains a position (coordinate value) that is separated from the coordinate value by the displacement indicated by the position information, and Position. And the specific | specification part 232 specifies the target partial area | region based on the position of this representative point, and the said range information.

(解析部)
解析部233は、特定部232により特定された部分領域を解析する。たとえば、解析部233は、取得部231により取得された当該患者(当該被検眼)に対応するパラメータ種別情報に基づいて、特定部232により特定された部分領域についてパラメータを算出する。パラメータの例として、部分領域のサイズを表す値がある。部分領域のサイズの例として、部分領域の幅、面積、体積、厚み、質量(推定値)などがある。サイズの値の例として、部分領域内における値の分布や、部分領域内の代表点(中心、重心位置など)における値などがある。
(Analysis Department)
The analysis unit 233 analyzes the partial region specified by the specification unit 232. For example, the analysis unit 233 calculates parameters for the partial region specified by the specification unit 232 based on the parameter type information corresponding to the patient (the eye to be examined) acquired by the acquisition unit 231. An example of the parameter is a value representing the size of the partial area. Examples of the size of the partial region include the width, area, volume, thickness, and mass (estimated value) of the partial region. Examples of the size value include a value distribution in the partial area and a value at a representative point (center, center of gravity position, etc.) in the partial area.

また、この実施形態では、視野計による検査位置(計測点)と被検眼の眼底の形態との関連性を観察するため、制御部210は、視野計による視野検査の検査範囲を示すテンプレート画像を表示部240Aに表示させる。テンプレート画像は、複数のグリッドを表す画像である。各グリッドは、視野検査の検査位置に対応する。グリッドの形状は、矩形であってもよいし、矩形以外の形状であってもよい。複数のグリッドの分割方法の一例として、部分領域内の特徴点を解析中心として、当該解析中心から放射状に領域を分割する方法や、解析中心を中心とする1以上の同心円により領域を分割する方法や、格子状に領域を分割する方法などがある。また、部分領域内の特徴点として、たとえば中心窩、視神経乳頭の中心、血管の分岐部、レーザ治療痕などがある。これにより、視野計の計測点とグリッド位置とを一致させることができ、視野計の計測点と被検眼の眼底の形態との関連性を観察することが可能になる。   In this embodiment, in order to observe the relationship between the inspection position (measurement point) by the perimeter and the fundus morphology of the eye to be examined, the control unit 210 displays a template image indicating the inspection range of the visual field inspection by the perimeter. It is displayed on the display unit 240A. The template image is an image representing a plurality of grids. Each grid corresponds to the inspection position of the visual field inspection. The shape of the grid may be a rectangle or a shape other than a rectangle. As an example of a method of dividing a plurality of grids, a method of dividing a region radially from the analysis center with a feature point in a partial region as an analysis center, or a method of dividing a region by one or more concentric circles centering on the analysis center And a method of dividing an area into a grid. The feature points in the partial area include, for example, the fovea, the center of the optic disc, the branch of the blood vessel, and the laser treatment trace. Thereby, the measurement point of the perimeter and the grid position can be matched, and the relationship between the measurement point of the perimeter and the form of the fundus of the eye to be examined can be observed.

また、制御部210は、特定部232により特定された部分領域に対応するテンプレート画像中の領域を識別可能に表示部240Aに表示させる。たとえば、制御部210は、テンプレート画像中の複数のグリッドのうち部分領域に対応するグリッドを所定の態様で表示させる。所定の態様で表示させる例として、グリッドを所定の色で塗りつぶしたり、グリッドを所定の模様で描出する例がある。特定部232により特定された部分領域は、テンプレート画像中のグリッド単位で表示される。これにより、制御部210は、特定部232により特定された部分領域とそれ以外の領域とを異なる態様でテンプレート画像中に表示させることができる。部分領域に対応する1以上のグリッドを組み合わせることにより、セクターを構成することが可能である。   Further, the control unit 210 causes the display unit 240A to display an area in the template image corresponding to the partial area specified by the specifying unit 232 so as to be identifiable. For example, the control unit 210 displays a grid corresponding to the partial region among a plurality of grids in the template image in a predetermined manner. As an example of displaying in a predetermined mode, there are an example in which a grid is filled with a predetermined color or a grid is drawn in a predetermined pattern. The partial area specified by the specifying unit 232 is displayed in units of grids in the template image. Thereby, the control unit 210 can display the partial region specified by the specifying unit 232 and the other region in the template image in different modes. A sector can be configured by combining one or more grids corresponding to partial areas.

ユーザは、操作部240Bを用いて識別可能に表示されている上記テンプレート画像中の領域を変更することにより新たな部分領域を設定する。解析部233は、操作部240Bにより設定された新たな部分領域を解析する。解析部233は、1以上のグリッドを組み合わせて構成されたセクターを単位に部分領域を解析することが可能である。   The user sets a new partial region by changing the region in the template image displayed in an identifiable manner using the operation unit 240B. The analysis unit 233 analyzes the new partial area set by the operation unit 240B. The analysis unit 233 can analyze a partial region in units of sectors configured by combining one or more grids.

また、関心位置情報は、2以上の関心領域の位置を示す情報であってもよい。すなわち、当該被検眼について取得されたOCT画像中に、複数の関心領域があってもよい。この場合、特定部232は、2以上の関心領域に対応する2以上の部分領域を特定する。解析部233は、上記の2以上の部分領域に対応する2以上の解析結果を取得する。具体的には、特定部232は、関心位置情報に含まれる2以上の関心領域のそれぞれについて、その関心領域に対応する当該OCT画像中の部分領域を特定することにより、2以上の関心領域に対応する2以上の部分領域を特定する。解析部233は、部分領域ごとに上記の解析を行うことにより、2以上の部分領域のそれぞれに対応する解析結果を取得する。   Further, the position-of-interest information may be information indicating the positions of two or more regions of interest. That is, there may be a plurality of regions of interest in the OCT image acquired for the eye to be examined. In this case, the specifying unit 232 specifies two or more partial regions corresponding to two or more regions of interest. The analysis unit 233 acquires two or more analysis results corresponding to the two or more partial regions. Specifically, the specifying unit 232 specifies two or more regions of interest by specifying a partial region in the OCT image corresponding to the region of interest for each of the two or more regions of interest included in the position of interest information. Two or more corresponding partial areas are specified. The analysis unit 233 acquires the analysis result corresponding to each of the two or more partial regions by performing the above analysis for each partial region.

制御部210は、上記の2以上の部分領域に対応する2以上の領域をテンプレート画像中において識別可能に表示させることが可能である。具体的には、制御部210は、1つのテンプレート画像中において、一の部分領域に対応するグリッドと、他の部分領域に対応するグリッドを異なる態様で表示させる。したがって、1つのテンプレート画像中において、2以上の部分領域が互いに異なる態様で且つグリッド単位で表示される。各部分領域は、たとえば、1以上のグリッドの組み合わせからなるセクターとして構成される。   The control unit 210 can display two or more areas corresponding to the two or more partial areas in an identifiable manner in the template image. Specifically, the control unit 210 displays a grid corresponding to one partial area and a grid corresponding to another partial area in one template image in different modes. Accordingly, in one template image, two or more partial areas are displayed in different modes and in units of grids. Each partial region is configured as a sector including a combination of one or more grids, for example.

更に、制御部210は、上記の2以上の解析結果と、識別可能に表示された上記の2以上の領域とを関連付けて表示させてもよい。たとえば、制御部210は、一の部分領域の解析結果と、当該一の部分領域に対応するテンプレート画像中のグリッドとを関連付けて表示部240Aに表示させることが可能である。制御部210は、一の部分領域の解析結果を第1色で表示させつつ、当該一の部分領域に対応するグリッドを第1色で表示させる。また、制御部210は、当該一の部分領域以外の別の部分領域の解析結果を第1色と異なる第2色で表示させつつ、テンプレート画像中における当該別の部分領域に対応するグリッドを第2色で表示させる。これにより、部分領域ごとに、テンプレート画像中における位置と解析結果との関連性を容易に把握することができるようになる。   Furthermore, the control unit 210 may display the above two or more analysis results in association with the above two or more areas displayed in an identifiable manner. For example, the control unit 210 can display the analysis result of one partial region in association with the grid in the template image corresponding to the one partial region on the display unit 240A. The control unit 210 displays the grid corresponding to the one partial region in the first color while displaying the analysis result of the one partial region in the first color. In addition, the control unit 210 displays the analysis result of another partial region other than the one partial region in a second color different from the first color, and displays a grid corresponding to the other partial region in the template image. Display in two colors. This makes it possible to easily grasp the relationship between the position in the template image and the analysis result for each partial region.

(更新部)
更新部234は、今回の検査において新たな部分領域(過去に適用されたものと異なる部分領域)が設定された場合に動作する。新たな部分領域が設定される場合として、過去に適用された部分領域より広い領域を特定部232が特定する場合や、テンプレート画像等を利用してユーザが設定する場合などがある。更新部234は、特定部232により設定された新たな部分領域に基づいて、記憶部212に記憶されている関心位置情報を更新する。これにより、部分領域の位置や大きさが変化した場合でも継続的な観察が容易になり、局所的な微少な変化を捉えることが可能となる。
(Update section)
The update unit 234 operates when a new partial region (partial region different from that applied in the past) is set in the current examination. As a case where a new partial area is set, there are a case where the specifying unit 232 specifies an area wider than the partial area applied in the past, or a case where the user sets using a template image or the like. The update unit 234 updates the position-of-interest information stored in the storage unit 212 based on the new partial area set by the specifying unit 232. As a result, even when the position and size of the partial region change, continuous observation is facilitated, and a local minute change can be captured.

以上のように機能するデータ処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The data processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルモニタなどの各種表示デバイスを含んでいてもよい。
(User interface)
The user interface 240 includes a display unit 240A and an operation unit 240B. The display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 240B includes the operation device of the arithmetic control unit 200 described above. The operation unit 240B may include various buttons and keys provided on the housing of the ophthalmologic photographing apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing. The display unit 240 </ b> A may include various display devices such as a touch panel monitor provided in the housing of the fundus camera unit 2.

なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルモニタのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルディスプレイとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。   The display unit 240A and the operation unit 240B do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel monitor, can be used. In that case, the operation unit 240B includes the touch panel display and a computer program. The operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.

表示部240Aは、この実施形態に係る「表示手段」の一例である。制御部210は、この実施形態に係る「表示制御部」の一例である。操作部240Bは、この実施形態に係る「操作部」の一例である。   The display unit 240A is an example of a “display unit” according to this embodiment. The control unit 210 is an example of a “display control unit” according to this embodiment. The operation unit 240B is an example of an “operation unit” according to this embodiment.

〔信号光の走査及びOCT画像について〕
ここで、信号光LSの走査およびOCT画像について説明しておく。
[Scanning signal light and OCT images]
Here, the scanning of the signal light LS and the OCT image will be described.

眼科撮影装置1による信号光LSの走査態様としては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(篩状板の形態など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。   Examples of the scanning mode of the signal light LS by the ophthalmologic photographing apparatus 1 include a horizontal scan, a vertical scan, a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral (vortex) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (form of a sieve plate, etc.), the time required for scanning, the precision of scanning, and the like.

水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。   The horizontal scan scans the signal light LS in the horizontal direction (x direction). The horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.

十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。   In the cross scan, the signal light LS is scanned along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other. In the radiation scan, the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle. The cross scan is an example of a radiation scan.

円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。   In the circle scan, the signal light LS is scanned along a circular locus. In the concentric scan, the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position. A circle scan is an example of a concentric scan. In the spiral scan, the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).

ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。   Since the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, it can independently scan the signal light LS in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.

上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。   By scanning the signal light LS in the above-described manner, a tomographic image on a plane stretched by the direction along the scanning line (scanning trajectory) and the fundus depth direction (z direction) can be acquired. In addition, the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.

上記のような信号光LSの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶ。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。   A region on the fundus oculi Ef to be scanned with the signal light LS as described above, that is, a region on the fundus oculi Ef to be subjected to OCT measurement is referred to as a scanning region. The scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged. The scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter. In addition, the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.

[動作例]
この実施形態に係る眼科撮影装置1の動作例について説明する。以下では、OCTを用いて取得された2以上の断層像に基づいて3次元画像データが作成され、当該3次元画像データに基づいて部分領域を特定する場合について説明する。
[Operation example]
An operation example of the ophthalmologic photographing apparatus 1 according to this embodiment will be described. Hereinafter, a case will be described in which three-dimensional image data is created based on two or more tomographic images acquired using OCT and a partial region is specified based on the three-dimensional image data.

図7に、眼科撮影装置1の動作の一例のフロー図を示す。アライメントやピント合わせは完了しており、固視標が被検眼Eに提示されているものとする。
図8〜図10に、眼科撮影装置1の動作説明図を示す。図8は、ユーザが部分領域を特定する場合に、表示部240Aに表示される画像(ウィンドウ)の一例を表す。図9は、セクターの設定状態を示す画像の一例を表す。図10は、トレンド解析を行う場合に、表示部240Aに表示される画像の一例を表す。
FIG. 7 shows a flowchart of an example of the operation of the ophthalmologic photographing apparatus 1. It is assumed that alignment and focusing have been completed and a fixation target is presented to the eye E.
8 to 10 are diagrams for explaining the operation of the ophthalmologic photographing apparatus 1. FIG. 8 illustrates an example of an image (window) displayed on the display unit 240A when the user specifies a partial region. FIG. 9 shows an example of an image showing a sector setting state. FIG. 10 illustrates an example of an image displayed on the display unit 240A when trend analysis is performed.

(S1)
まず、主制御部211(制御部210)は、観察対象の患者に関連付けられた患者IDを受け付ける。たとえば、制御部210は、上記のように操作部240Bを用いてユーザが指定した患者IDを受け付ける。
(S1)
First, the main control unit 211 (control unit 210) receives a patient ID associated with a patient to be observed. For example, the control unit 210 receives the patient ID designated by the user using the operation unit 240B as described above.

(S2)
次に、取得部231は、S1において受け付けられた患者IDに基づいて、記憶部212から当該患者IDに関連付けられた関心位置情報およびパラメータ種別情報を取得する。
(S2)
Next, the acquisition unit 231 acquires the interest position information and parameter type information associated with the patient ID from the storage unit 212 based on the patient ID received in S1.

(S3)
主制御部211は、中心窩を中心とする画像を取得させるための固視標をLCD39に表示させる。これにより、当該画像を取得させるための固視位置に被検眼を固視させることが可能になる。この状態で、主制御部211は、光源ユニット101、ガルバノスキャナ42等を制御して、眼底Efの黄斑部を含む領域を信号光LSで走査する。画像形成部220は、走査態様に対応する複数の断層像を形成する。データ処理部230は、画像形成部220により形成された断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。
(S3)
The main control unit 211 causes the LCD 39 to display a fixation target for acquiring an image centered on the fovea. As a result, the eye to be examined can be fixed at a fixation position for acquiring the image. In this state, the main control unit 211 controls the light source unit 101, the galvano scanner 42, and the like to scan the region including the macular portion of the fundus oculi Ef with the signal light LS. The image forming unit 220 forms a plurality of tomographic images corresponding to the scanning mode. The data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images formed by the image forming unit 220 to form image data of a three-dimensional image of the fundus oculi Ef.

(S4)
次に、特定部232は、S3において形成された3次元画像データから、S2において取得された関心位置情報に基づいて断層像中の部分領域を特定する。
(S4)
Next, the specifying unit 232 specifies a partial region in the tomographic image based on the position-of-interest information acquired in S2 from the three-dimensional image data formed in S3.

また、データ処理部230(特定部232)は、3次元画像データから正面画像(Cスキャン画像、プロジェクション画像またはシャドウグラムなど)を作成することが可能である。特定部232は、作成された正面画像から所望の層が欠損している領域を含む領域を新たな部分領域として特定してもよい。   The data processing unit 230 (identification unit 232) can create a front image (C scan image, projection image, shadowgram, etc.) from the three-dimensional image data. The specifying unit 232 may specify a region including a region where a desired layer is missing from the created front image as a new partial region.

また、データ処理部230は、3次元画像データから所望の層領域を特定することが可能である。この場合、データ処理部230は、特定された層領域の境界が平坦になるように(同じz座標値になるように)3次元画像データを変形して平坦化画像を作成する。また、特定部232は、作成された平坦化画像に基づいて所望の組織の異常部位を特定し、この異常部位を含むデータ領域を新たな部分領域として特定する。異常部位の例として、正常な状態と比較して形態が変化している部位などがある。形態が変化している部位の例として、所定の層領域が欠損している部位や、所定の層領域が変形している部位などがある。たとえば、緑内障の場合、視神経線維層が欠損することが知られている。そのため、データ処理部230は、内境界膜(ILM)の層領域の境界が平坦になるように平坦化画像を作成し、特定部232が、作成された平坦化画像の視神経線維層(NFL)に欠損部位が存在するか否かを解析することにより、その欠損部位を含むデータ領域を新たな部分領域として特定することができる。また、特定部232は、他の装置により取得された層厚分布情報(Thickness Data)から所望の層の欠損領域を検出することにより新たな部分領域を特定してもよい。   The data processing unit 230 can specify a desired layer region from the three-dimensional image data. In this case, the data processing unit 230 creates a flattened image by modifying the three-dimensional image data so that the boundary of the specified layer region is flat (so that the same z coordinate value is obtained). Further, the specifying unit 232 specifies an abnormal part of a desired tissue based on the created flattened image, and specifies a data area including the abnormal part as a new partial area. As an example of the abnormal part, there is a part whose form is changed as compared with a normal state. Examples of the part where the form has changed include a part where a predetermined layer region is missing, and a part where the predetermined layer region is deformed. For example, in the case of glaucoma, it is known that the optic nerve fiber layer is lost. Therefore, the data processing unit 230 creates a flattened image so that the boundary of the layer region of the inner boundary membrane (ILM) becomes flat, and the specifying unit 232 uses the optic nerve fiber layer (NFL) of the created flattened image. By analyzing whether or not there is a defect site, a data region including the defect site can be specified as a new partial region. The specifying unit 232 may specify a new partial region by detecting a missing region of a desired layer from layer thickness distribution information (Thickness Data) acquired by another device.

或いは、特定部232は、ユーザからの指定を受け、新たな部分領域を特定してもよい。たとえば、記憶部212には、解析用ソフトウェアがあらかじめ格納されているものとする。主制御部211は、ソフトウェア起動トリガを受けて、解析用ソフトウェアを起動させる。それにより、たとえば図8に示すような画面が表示部240Aに表示される。   Alternatively, the specifying unit 232 may specify a new partial area in response to designation from the user. For example, it is assumed that analysis software is stored in the storage unit 212 in advance. In response to the software activation trigger, the main control unit 211 activates the analysis software. Thereby, for example, a screen as shown in FIG. 8 is displayed on the display unit 240A.

図8に示すウィンドウ300には、5つの画像表示部301〜305が設けられている。これら画像表示部301〜305は、それぞれ、横断面像表示部、2つの縦断面像表示部、正面画像表示部、および加工画像表示部である。横断面像表示部301、縦断面像表示部302、303、および加工画像表示部305には、OCTを用いて取得された3次元画像データに基づく画像が表示される。正面画像表示部304には、正面画像が表示される。正面画像は、たとえば、3次元画像データに基づいて作成された画像、または眼底像である。なお、これら画像表示部301〜305に表示される画像はこれらに限定されない。   A window 300 shown in FIG. 8 includes five image display units 301 to 305. These image display units 301 to 305 are a cross-sectional image display unit, two vertical cross-sectional image display units, a front image display unit, and a processed image display unit, respectively. The cross-sectional image display unit 301, the vertical cross-sectional image display units 302 and 303, and the processed image display unit 305 display images based on three-dimensional image data acquired using OCT. A front image is displayed on the front image display unit 304. The front image is, for example, an image created based on three-dimensional image data or a fundus image. The images displayed on these image display units 301 to 305 are not limited to these.

横断面像表示部301には、z方向に直交するxy断面(C断面とも呼ばれる)の画像(C断面像、Cスキャン画像)が表示される。   The cross-sectional image display unit 301 displays an image (C cross-sectional image, C scan image) of an xy cross-section (also referred to as a C cross-section) orthogonal to the z direction.

縦断面像表示部302、303には、それぞれ、z方向に沿った断面(B断面とも呼ばれる)の画像(B断面像、Bスキャン画像)が表示される。縦断面像表示部302、303には、それぞれ、横断面像表示部301との配置関係に応じたB断面像が表示される。たとえば、横断面像表示部301に表示されるC断面像411において、ウィンドウ300の左右方向がx方向であり上下方向がy方向である場合、横断面像表示部301の左側に位置する縦断面像表示部302にはyz断面のB断面像が表示され、横断面像表示部301の下側に位置する縦断面像表示部303にはxz断面のB断面像が表示される。   The longitudinal section image display units 302 and 303 display images (B section images and B scan images) of sections (also referred to as B sections) along the z direction, respectively. The vertical cross-sectional image display units 302 and 303 display B cross-sectional images corresponding to the arrangement relationship with the horizontal cross-sectional image display unit 301, respectively. For example, in the C cross-sectional image 411 displayed on the cross-sectional image display unit 301, when the horizontal direction of the window 300 is the x direction and the vertical direction is the y direction, the vertical cross section located on the left side of the cross-sectional image display unit 301 The image display unit 302 displays the B cross-sectional image of the yz cross section, and the vertical cross section image display unit 303 positioned below the cross sectional image display unit 301 displays the B cross sectional image of the xz cross section.

データ処理部230は、所望の層領域の境界が平坦になるようにB断面像を平坦化することによって平坦化画像を作成し、これを新たなB断面像とする。縦断面像表示部302にはyz断面のB断面像に平坦化処理を施して得られる新たなB断面像412が表示される。縦断面像表示部303にはxz断面のB断面像に平坦化処理を施して得られる新たなB断面像413が表示される。   The data processing unit 230 creates a flattened image by flattening the B cross-sectional image so that the boundary of the desired layer region becomes flat, and uses this as a new B cross-sectional image. The vertical cross-sectional image display unit 302 displays a new B cross-sectional image 412 obtained by performing the flattening process on the B cross-sectional image of the yz cross section. The vertical cross-sectional image display unit 303 displays a new B cross-sectional image 413 obtained by performing the flattening process on the B cross-sectional image of the xz cross section.

正面画像表示部304には、正面画像404が表示される。この正面画像としては、近赤外動画像、そのフレーム(静止画像)、カラー画像などがある。   A front image 404 is displayed on the front image display unit 304. The front image includes a near-infrared moving image, its frame (still image), a color image, and the like.

加工画像表示部305には、3次元画像データに対して所定の加工処理を施すことにより得られる画像(加工画像)が表示される。加工画像の例として所望の特徴部分を強調した特徴強調画像がある。特徴強調画像の例としてシャドウグラムがある。シャドウグラムは、3次元画像データのうちz方向の所定範囲に含まれるデータを、z方向に積算することにより形成される。この処理は、データ処理部230により実行される。   The processed image display unit 305 displays an image (processed image) obtained by performing predetermined processing on the three-dimensional image data. An example of the processed image is a feature-enhanced image in which a desired feature portion is emphasized. An example of a feature-enhanced image is a shadowgram. The shadowgram is formed by integrating data included in a predetermined range in the z direction out of the three-dimensional image data in the z direction. This process is executed by the data processing unit 230.

また、ウィンドウ300には、患者情報表示部311、データ選択部312、およびデータ格納先表示部313が設けられている。患者情報表示部311には、たとえば患者IDや患者氏名など、患者に関する情報が表示される。データ選択部312をクリックすると、観察対象の3次元画像データを選択するためのウィンドウがポップアップ表示される。このウィンドウには、3次元画像データの格納先としてあらかじめ設定されたフォルダに含まれる3次元画像データに関する情報のリストが表示される。ユーザは、このリストに基づき所望の3次元画像データを選択する。データ格納先表示部313には、選択された3次元画像データが格納されているフォルダの情報が表示される。   Further, the window 300 is provided with a patient information display unit 311, a data selection unit 312, and a data storage destination display unit 313. The patient information display unit 311 displays information about the patient such as the patient ID and the patient name. When the data selection unit 312 is clicked, a window for selecting the 3D image data to be observed is popped up. In this window, a list of information regarding 3D image data included in a folder set in advance as a storage destination of 3D image data is displayed. The user selects desired three-dimensional image data based on this list. The data storage destination display unit 313 displays information on the folder in which the selected 3D image data is stored.

更に、主制御部211は、B断面像412の断面位置を示すB断面位置画像(破線で示す直線画像502)と、B断面像413の断面位置を示すB断面位置画像(破線で示す直線画像501)とを、C断面像411に重ねて表示する。また、主制御部211は、C断面像411の断面位置を示すC断面位置画像(破線で示す直線画像511および512)を、それぞれB断面像412、413に重ねて表示する。なお、直線画像501は、B断面像412まで延びており、B断面像412におけるB断面像413の断面位置を示している。同様に、直線画像502は、B断面像413まで延びており、B断面像413におけるB断面像412の断面位置を示している。   Further, the main control unit 211 detects a B cross-sectional position image (a linear image 502 indicated by a broken line) indicating the cross-sectional position of the B cross-sectional image 412 and a B cross-sectional position image (a linear image indicated by a broken line) indicating the cross-sectional position of the B cross-sectional image 413 501) is superimposed on the C cross-sectional image 411 and displayed. Further, the main control unit 211 displays the C cross-sectional position images (linear images 511 and 512 indicated by broken lines) indicating the cross-sectional position of the C cross-sectional image 411 so as to overlap the B cross-sectional images 412 and 413, respectively. The straight line image 501 extends to the B cross-sectional image 412 and shows the cross-sectional position of the B cross-sectional image 413 in the B cross-sectional image 412. Similarly, the straight line image 502 extends to the B cross-sectional image 413 and shows the cross-sectional position of the B cross-sectional image 412 in the B cross-sectional image 413.

また、主制御部211は、あらかじめインポートされた正面画像データに基づく正面画像404を正面画像表示部304に表示させる。更に、主制御部211は、3次元スキャンの範囲を示す矩形画像521と、B断面像412の断面位置を示す断面位置画像(直線画像)522と、B断面像413の断面位置を示す断面位置画像(直線画像)523とを、正面画像404に重ねて表示させる。   Further, the main control unit 211 causes the front image display unit 304 to display a front image 404 based on the front image data imported in advance. Further, the main control unit 211 includes a rectangular image 521 indicating the range of the three-dimensional scan, a cross-sectional position image (straight line image) 522 indicating the cross-sectional position of the B cross-sectional image 412, and a cross-sectional position indicating the cross-sectional position of the B cross-sectional image 413. An image (straight line image) 523 is displayed so as to overlap the front image 404.

ユーザは、所定の操作により、直線画像501、502、511、512、521、522、523の表示/非表示を切り替えることが可能である。   The user can switch display / non-display of the linear images 501, 502, 511, 512, 521, 522, and 523 by a predetermined operation.

新たなB断面像412においては、平坦化処理前のB断面像において曲線画像で描出されていた所望の層が、直線画像541として描出されている。更に、新たなB断面像412の他の部位は、曲線画像から直線画像541への変形に応じた変形を伴って描出されている。直線画像541は、たとえば、他の部位と異なる表示態様で表示される。   In the new B cross-sectional image 412, a desired layer that has been drawn as a curved image in the B cross-sectional image before the flattening process is drawn as a straight line image 541. Furthermore, the other part of the new B cross-sectional image 412 is depicted with a deformation corresponding to the deformation from the curved image to the linear image 541. For example, the straight line image 541 is displayed in a display mode different from other parts.

同様に、新たなB断面像413においては、平坦化処理前のB断面像において曲線画像で描出されていた所望の層が、直線画像542として描画されている。更に、新たなB断面像413の他の部位は、曲線画像から直線画像542への変形に応じた変形を伴って描出されている。直線画像542は、たとえば、他の部位と異なる表示態様で表示される。   Similarly, in the new B cross-sectional image 413, a desired layer drawn as a curved image in the B cross-sectional image before the flattening process is drawn as a linear image 542. Furthermore, the other part of the new B cross-sectional image 413 is depicted with a deformation corresponding to the deformation from the curved image to the linear image 542. For example, the straight line image 542 is displayed in a display mode different from other parts.

このようにして、ユーザは、被検眼Eの所望の部位を平坦化したB断面像を観察することができる。このB断面像によれば、当該部位と他の部位との位置関係を容易に把握することができる。   In this way, the user can observe a B cross-sectional image obtained by flattening a desired part of the eye E. According to this B cross-sectional image, the positional relationship between the part and another part can be easily grasped.

図7のS4において、特定部232は、上記の図8の横断面像表示部301に表示されるC断面像411に対して、ユーザが操作部240Bを用いて指定した位置に基づいて、部分領域ARを特定することが可能である。また、特定部232は、縦断面像表示部302、303に表示される平坦化画像や、加工画像表示部305に表示される特徴強調画像に対して、ユーザが操作部240Bを用いて指定した位置に基づいて、部分領域を特定してもよい。また、特定部232は、層厚分布情報(Thickness Data)から所望の層について欠損している領域を新たな部分領域を特定してもよい。   In S4 of FIG. 7, the specifying unit 232 performs partial processing based on the position designated by the user using the operation unit 240B with respect to the C cross-sectional image 411 displayed on the cross-sectional image display unit 301 of FIG. The area AR can be specified. In addition, the specifying unit 232 uses the operation unit 240B to specify the flattened image displayed on the longitudinal cross-sectional image display units 302 and 303 and the feature-enhanced image displayed on the processed image display unit 305. The partial area may be specified based on the position. In addition, the specifying unit 232 may specify a new partial region from the layer thickness distribution information (Thickness Data) that is missing from the desired layer.

(S5)
データ処理部230は、S4において特定された領域を含むグリッドをまとめることにより1以上のセクターを設定する。たとえば、図9に示すように、視神経線維層(NFL)について5つのセクターが設定される。図9は、被検眼(右眼)について、黄斑部を含む6mm×6mmの領域を中心窩の位置pp0を中心に10×10グリッドに分割した場合のセクターの設定例を表す。各グリッドは、視野検査の検査位置に対応する。図9では、同一セクターのグリッドについては、各グリッドの模様が同一になるように模式的に表されている。
(S5)
The data processing unit 230 sets one or more sectors by collecting grids including the area specified in S4. For example, as shown in FIG. 9, five sectors are set for the optic nerve fiber layer (NFL). FIG. 9 shows a sector setting example when the 6 mm × 6 mm region including the macula is divided into a 10 × 10 grid centered on the fovea position pp0 for the eye to be examined (right eye). Each grid corresponds to the inspection position of the visual field inspection. In FIG. 9, the grids in the same sector are schematically represented so that the patterns of the grids are the same.

注目する領域に応じて、グリッドの分割方法が異なっていてもよい。たとえば、視神経線維層(NFL)以外の別の層(たとえば、GCC(=NFL+GCL+IPL))については、別の分割方法で分割されたグリッドにより、5未満または6以上のセクターが設定される。また、図9に示すように設定されたセクターを眼底像と重畳表示させてもよい。   Depending on the region of interest, the grid division method may be different. For example, for another layer other than the optic nerve fiber layer (NFL) (for example, GCC (= NFL + GCL + IPL)), less than 5 or 6 or more sectors are set by a grid divided by another division method. In addition, the sector set as shown in FIG. 9 may be superimposed on the fundus image.

なお、データ処理部230は、あらかじめ設定された任意の層と相関の高い領域を部分領域として設定することも可能である。たとえば、神経の走行状態に応じて、上記の相関の高い領域を部分領域として設定する。データ処理部230は、このような相関の高い領域についても、図9に示すようにセクターとして設定することが可能である。   The data processing unit 230 can also set a region having a high correlation with an arbitrary layer set in advance as a partial region. For example, the highly correlated area is set as a partial area according to the running state of the nerve. The data processing unit 230 can set such a highly correlated area as a sector as shown in FIG.

(S6)
次に、解析部233は、S4において特定された部分領域を解析する。具体的には、解析部233は、S2において関心位置情報とともに取得部231により取得された当該被検眼に対応するパラメータ種別情報に基づいて、S5において設定されたセクター単位で、部分領域についてパラメータを算出する。パラメータの例として、部分領域の幅、面積、厚みなどがある。S5において算出されたパラメータは、算出時間情報に関連付けて記憶部212に保存される。
(S6)
Next, the analysis unit 233 analyzes the partial region identified in S4. Specifically, the analysis unit 233 sets the parameter for the partial region in the sector unit set in S5 based on the parameter type information corresponding to the eye to be examined acquired by the acquisition unit 231 together with the position of interest information in S2. calculate. Examples of parameters include the width, area, and thickness of the partial region. The parameter calculated in S5 is stored in the storage unit 212 in association with the calculation time information.

(S7)
続いて、主制御部211は、S6において算出されたパラメータを時系列で表示部240Aに表示させる。同一のセクターについて互いに異なるタイミングで算出されたパラメータを時系列にしたがって解析することにより、トレンド解析が可能となる。
(S7)
Subsequently, the main control unit 211 causes the display unit 240A to display the parameters calculated in S6 in time series. Trend analysis can be performed by analyzing parameters calculated at different timings for the same sector according to a time series.

たとえば、図10に示すように、主制御部211は、表示部240Aにウィンドウ600を表示させる。図10は、被検眼(左眼)に対するトレンド解析用の画像の表示例を表す。ウィンドウ600には、セクター表示領域601と、トレンドグラフ表示領域602とが設けられている。セクター表示領域601は、S5において設定されたセクターの設定状態が表示される。セクター表示領域601に表示されるセクター単位で、ユーザが操作部240Bを用いて所望のセクターを指定することが可能である。トレンドグラフ表示領域602には、セクター表示領域601において指定されたセクターについて、S6において算出されたパラメータが時系列でグラフ化された画像が表示される。図10では、セクター表示領域601においてセクター604が指定され、トレンドグラフ表示領域602においてセクター604に対応するパラメータが時系列でグラフ化された画像が表示された例を表す。なお、図10は、左眼についてのトレンド解析用の画像が表示された例を表すが、両眼のそれぞれについて図10に示すようなトレンド解析用の画像が同時に表示されてもよい。   For example, as illustrated in FIG. 10, the main control unit 211 displays a window 600 on the display unit 240A. FIG. 10 shows a display example of an image for trend analysis for the eye to be examined (left eye). The window 600 is provided with a sector display area 601 and a trend graph display area 602. The sector display area 601 displays the sector setting state set in S5. The user can designate a desired sector using the operation unit 240B in units of sectors displayed in the sector display area 601. In the trend graph display area 602, an image in which the parameters calculated in S6 are graphed in time series for the sector specified in the sector display area 601 is displayed. FIG. 10 shows an example in which a sector 604 is designated in the sector display area 601 and an image in which parameters corresponding to the sector 604 are graphed in time series in the trend graph display area 602 is displayed. FIG. 10 shows an example in which an image for trend analysis for the left eye is displayed, but an image for trend analysis as shown in FIG. 10 may be simultaneously displayed for each of both eyes.

なお、主制御部211は、投薬日や治療日や検査日などのイベントに関連付けて、S6において算出されたパラメータを表示部240Aに表示させてもよい。また、主制御部211は、トレンドグラフ表示領域602に、過去のパラメータの変化に応じて、将来のパラメータの変化予測曲線を表示させてもよい。データ処理部230は、過去のパラメータに対して近似曲線を求め、当該近似曲線を変化予測曲線としてもよい。   The main control unit 211 may display the parameter calculated in S6 on the display unit 240A in association with an event such as a medication date, a treatment date, or an examination date. Further, the main control unit 211 may display a future parameter change prediction curve in the trend graph display area 602 in accordance with the past parameter change. The data processing unit 230 may obtain an approximate curve with respect to past parameters, and may use the approximate curve as a change prediction curve.

なお、図7では、3次元画像データに基づいて部分領域を特定する場合について説明したが、Aスキャン画像、Bスキャン画像、Cスキャン画像、ボリュームデータ、または眼底画像に基づいて部分領域を特定するようにしてもよい。   In FIG. 7, the case where the partial area is specified based on the three-dimensional image data has been described. However, the partial area is specified based on the A scan image, the B scan image, the C scan image, the volume data, or the fundus image. You may do it.

[効果]
この実施形態に係る演算制御ユニット200、および演算制御ユニット200が適用された眼科撮影装置1の効果について説明する。眼科解析装置は、たとえば上記実施形態の演算制御ユニット200のように眼科撮影装置1の一部として実現可能である。また、OCT計測や眼底撮影の機能を持たない眼科解析装置を適用することも可能である。
[effect]
The effects of the arithmetic control unit 200 according to this embodiment and the ophthalmologic photographing apparatus 1 to which the arithmetic control unit 200 is applied will be described. The ophthalmologic analysis apparatus can be realized as a part of the ophthalmologic photographing apparatus 1 like the arithmetic control unit 200 of the above embodiment, for example. It is also possible to apply an ophthalmologic analyzer that does not have functions for OCT measurement and fundus imaging.

演算制御ユニット200(眼科解析装置)は、制御部210(受付部)と、取得部231と、特定部232と、解析部233とを有する。制御部210は、患者を識別するための患者識別情報を受け付ける。取得部231は、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて格納された記憶部212(格納手段)から、制御部210により受け付けられた患者識別情報に関連付けられた関心位置情報を取得する。特定部232は、取得部231により取得された関心位置情報に基づいて、患者識別情報に対応する患者の被検眼について取得されたOCT画像中の部分領域を特定する。解析部233は、特定部232により特定された部分領域を解析する。   The arithmetic control unit 200 (ophthalmic analysis apparatus) includes a control unit 210 (accepting unit), an acquiring unit 231, a specifying unit 232, and an analyzing unit 233. The controller 210 receives patient identification information for identifying a patient. The acquisition unit 231 stores the patient identification information received by the control unit 210 from the storage unit 212 (storage unit) in which the position-of-interest information indicating the position of the region of interest is associated with each of the plurality of pieces of patient identification information. Acquire related position information of interest. The specifying unit 232 specifies a partial region in the OCT image acquired for the patient's eye to be examined corresponding to the patient identification information based on the position-of-interest information acquired by the acquiring unit 231. The analysis unit 233 analyzes the partial region specified by the specification unit 232.

このような演算制御ユニット200によれば、患者ごとに注目すべき領域について継続的に観察することが可能になるので、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることが可能となる。   According to such an arithmetic control unit 200, it is possible to continuously observe a region to be noted for each patient, so that a local minute change in the eye to be examined can be performed regardless of the disease type, stage, or disease state. It becomes possible to capture.

また、関心位置情報は、当該被検眼について過去に取得された基準画像中の領域の位置を示す位置情報を含み、特定部232は、基準画像と上記のOCT画像との変位を算出する変位算出部232Aを含み、変位算出部232Aにより算出された変位と位置情報とに基づいて部分領域を特定してもよい。これにより、関心領域が、当該被検眼について過去に取得された基準画像に対して設定されている場合、特定部232は、変位算出部により算出された変位と位置情報とに基づいて部分領域を精度良く特定することが可能になる。したがって、解析部233による解析結果の変化を精度良く捉えることが可能となる。   Further, the position-of-interest information includes position information indicating the position of a region in the reference image acquired in the past for the eye to be examined, and the specifying unit 232 calculates the displacement between the reference image and the OCT image. The partial region may be specified based on the displacement calculated by the displacement calculating unit 232A and the position information. Thereby, when the region of interest is set with respect to the reference image acquired in the past for the eye to be examined, the specifying unit 232 determines the partial region based on the displacement calculated by the displacement calculating unit and the position information. It becomes possible to specify with high accuracy. Therefore, it is possible to accurately grasp the change in the analysis result by the analysis unit 233.

また、関心位置情報は、当該被検眼の部位の位置を示す位置情報を含み、特定部232は、位置情報に示す上記の部位の位置に対応する上記のOCT画像中の領域を特定することにより部分領域を特定する。これにより、関心領域が、当該被検眼について過去に取得された基準画像に対して設定されていない場合であっても、特定部232は、部分領域を精度良く特定することが可能になる。したがって、解析部233による解析結果の変化を精度良く捉えることが可能となる。   Further, the position-of-interest information includes position information indicating the position of the part of the eye to be examined, and the specifying unit 232 specifies the region in the OCT image corresponding to the position of the part indicated by the position information. Identify partial areas. Thereby, even if the region of interest is not set for a reference image acquired in the past for the eye to be examined, the specifying unit 232 can specify the partial region with high accuracy. Therefore, it is possible to accurately grasp the change in the analysis result by the analysis unit 233.

また、特定部232は、関心位置情報が示す関心領域に対応するOCT画像中の領域を含むように部分領域を特定してもよい。また、特定部232は、関心領域に対応するOCT画像中の領域より広い領域を部分領域として特定してもよい。これにより、たとえば所定の部位において欠損している領域を関心領域として経過観察している場合に、ユーザは、当該欠損している領域の広がりを容易に認識することが可能になる。   The specifying unit 232 may specify a partial region so as to include a region in the OCT image corresponding to the region of interest indicated by the position-of-interest information. Further, the specifying unit 232 may specify a region wider than the region in the OCT image corresponding to the region of interest as the partial region. Thereby, for example, when a region that is missing in a predetermined part is being observed as a region of interest, the user can easily recognize the extent of the missing region.

また、演算制御ユニット200は、特定部232により特定された新たな当該部分領域に基づいて、記憶部212に記憶されている関心位置情報を更新する更新部を含んでもよい。これにより、部分領域の位置や大きさが変化した場合でも継続的な観察が容易になり、局所的な微少な変化を捉えることが可能となる。   The arithmetic control unit 200 may include an update unit that updates the position-of-interest information stored in the storage unit 212 based on the new partial area specified by the specifying unit 232. As a result, even when the position and size of the partial region change, continuous observation is facilitated, and a local minute change can be captured.

また、演算制御ユニット200は、視野検査の検査範囲を示すテンプレート画像を表示部240Aに表示させ、且つ、特定部232により特定された部分領域に対応するテンプレート画像中の領域を識別可能に表示部240Aに表示させる制御部210(表示制御部)と、識別可能に表示されている上記の領域を変更することにより新たな部分領域を設定するための操作部240Bとを含んでもよい。解析部233は、操作部240Bにより設定された新たな部分領域を解析する。   The arithmetic control unit 200 displays a template image indicating the inspection range of the visual field inspection on the display unit 240A, and the display unit can identify the region in the template image corresponding to the partial region specified by the specifying unit 232 It may include a control unit 210 (display control unit) to be displayed on 240A and an operation unit 240B for setting a new partial region by changing the region displayed in an identifiable manner. The analysis unit 233 analyzes the new partial area set by the operation unit 240B.

また、関心位置情報は、2以上の関心領域の位置を示し、特定部232は、2以上の関心領域に対応する2以上の部分領域を特定し、解析部233は、2以上の部分領域に対応する2以上の解析結果を取得し、制御部210は、2以上の部分領域に対応する2以上の領域をテンプレート画像中において識別可能に表示させてもよい。   The interest position information indicates the positions of two or more regions of interest, the specifying unit 232 specifies two or more partial regions corresponding to the two or more regions of interest, and the analyzing unit 233 includes two or more partial regions. Two or more corresponding analysis results may be acquired, and the control unit 210 may display two or more areas corresponding to two or more partial areas so that they can be identified in the template image.

また、制御部210は、更に、2以上の解析結果と2以上の領域とを関連付けて表示させてもよい。   In addition, the control unit 210 may display two or more analysis results and two or more areas in association with each other.

また、眼科撮影装置1は、制御部210(受付部)と、取得部231と、画像形成部220と、特定部232と、解析部233とを含んでもよい。制御部210は、患者を識別するための患者識別情報を受け付ける。取得部231は、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて記憶された記憶部212(格納手段)から、制御部210により受け付けられた患者識別情報に関連付けられた関心位置情報を取得する。画像形成部220は、取得部231により取得された関心位置情報に基づいて、患者識別情報に対応する患者の被検眼に対するOCTを実行することによりOCT画像を形成する。特定部232は、取得部231により取得された関心位置情報に基づいて、画像形成部220により形成されたOCT画像中の部分領域を特定する。解析部233は、特定部232により特定された部分領域を解析する。   The ophthalmologic photographing apparatus 1 may include a control unit 210 (accepting unit), an acquiring unit 231, an image forming unit 220, a specifying unit 232, and an analyzing unit 233. The controller 210 receives patient identification information for identifying a patient. The acquisition unit 231 stores the patient identification information received by the control unit 210 from the storage unit 212 (storage unit) in which the position-of-interest information indicating the position of the region of interest is associated with each of the plurality of pieces of patient identification information. Acquire related position information of interest. The image forming unit 220 forms an OCT image by executing OCT on the patient's eye to be examined corresponding to the patient identification information based on the position-of-interest information acquired by the acquiring unit 231. The specifying unit 232 specifies a partial region in the OCT image formed by the image forming unit 220 based on the position-of-interest information acquired by the acquiring unit 231. The analysis unit 233 analyzes the partial region specified by the specification unit 232.

このような眼科撮影装置1によれば、患者ごとに注目すべき領域について継続的に観察することが可能になるので、、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることが可能となる。   According to such an ophthalmologic photographing apparatus 1, since it is possible to continuously observe a region to be noted for each patient, a local minute change of the eye to be examined regardless of the disease type, stage or disease state. Can be captured.

[変形例]
上記の実施形態では、患者ごとにあらかじめ関連付けられ関心位置情報に基づき特定された部分領域を解析することにより、患者ごとに指定された領域についてのパラメータを継続的に観察することが可能である。しかしながら、実施形態は、これに限定されるものではない。実施形態の変形例では、まず、患者の被検眼について取得されたOCT画像を解析する。その後、患者ごとにあらかじめ関連付けられた関心位置情報に基づいてその解析結果の一部を特定する。
[Modification]
In the above-described embodiment, by analyzing a partial region that is associated in advance for each patient and specified based on the position-of-interest information, it is possible to continuously observe parameters for the region designated for each patient. However, the embodiment is not limited to this. In the modification of the embodiment, first, an OCT image acquired for a patient's eye to be examined is analyzed. Thereafter, a part of the analysis result is specified based on the position-of-interest information associated in advance for each patient.

本変形例に係る眼科撮影装置の各部の構成は、実施形態に係る眼科撮影装置の構成と同様である。以下では、本変形例に係る眼科撮影装置について、実施形態との相違点を中心に説明する。   The configuration of each part of the ophthalmologic photographing apparatus according to this modification is the same as that of the ophthalmic photographing apparatus according to the embodiment. Hereinafter, an ophthalmologic photographing apparatus according to this modification will be described focusing on differences from the embodiment.

本変形例に係る眼科撮影装置に適用される演算制御ユニットが実施形態に係る眼科撮影装置1に適用される演算制御ユニット200と異なる点は、解析部233が、制御部210によって受け付られた患者IDに対応する患者の被検眼について取得された画像を解析する点と、特定部232が、取得部231により取得された関心位置情報に基づいて、解析部233による解析結果の一部を特定する点である。   The difference between the arithmetic control unit applied to the ophthalmologic photographing apparatus according to this modification and the arithmetic control unit 200 applied to the ophthalmic photographing apparatus 1 according to the embodiment is that the analysis unit 233 is received by the control unit 210. Based on the point of analyzing the image acquired for the patient's eye to be examined corresponding to the patient ID, and the specifying unit 232 specifies a part of the analysis result by the analyzing unit 233 based on the interest position information acquired by the acquiring unit 231. It is point to do.

すなわち、本変形例に係る演算制御ユニットは、制御部210(受付部)と、取得部231と、解析部233と、特定部232とを有する。制御部210は、患者を識別するための患者IDを受け付ける。取得部231は、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて記憶された記憶部212(格納手段)から、制御部210により受け付けられた患者IDに関連付けられた関心位置情報を取得する。解析部233は、患者IDに対応する患者の被検眼について取得されたOCT画像を解析する。特定部232は、取得部231により取得された関心位置情報に基づいて、解析部233による解析結果の一部を特定する。これにより、患者の被検眼について取得されたOCT画像の全体の解析結果から、患者ごとに指定された領域についての解析結果を抽出することで、上記の実施形態と同様に、患者の病期や病態にかかわらず眼底や角膜等の形態の局所的な微少な変化を捉えることが可能となる。   That is, the arithmetic control unit according to this modification includes a control unit 210 (accepting unit), an acquiring unit 231, an analyzing unit 233, and a specifying unit 232. Control unit 210 receives a patient ID for identifying the patient. The acquisition unit 231 associates each of the plurality of patient identification information with the patient ID received by the control unit 210 from the storage unit 212 (storage unit) in which the position of interest information indicating the position of the region of interest is associated and stored in advance. Obtained interest position information. The analysis unit 233 analyzes the OCT image acquired for the patient's eye to be examined corresponding to the patient ID. The identifying unit 232 identifies a part of the analysis result obtained by the analyzing unit 233 based on the position-of-interest information acquired by the acquiring unit 231. Thus, by extracting the analysis result for the region designated for each patient from the entire analysis result of the OCT image acquired for the patient's eye, the patient's stage and Regardless of the pathological condition, it is possible to capture local minute changes in the morphology of the fundus, cornea and the like.

本変形例に係る演算制御ユニットの構成および動作は、上記の点を除いて、実施形態に係る演算制御ユニットの構成及び動作と同様である。   The configuration and operation of the arithmetic control unit according to this modification are the same as the configuration and operation of the arithmetic control unit according to the embodiment except for the above points.

また、本変形例に係る眼科撮影装置は、制御部210(受付部)と、取得部231と、画像形成部220と、解析部233と、特定部232とを有する。制御部210は、患者を識別するための患者IDを受け付ける。取得部は、複数の患者IDのそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて記憶された記憶部212(格納手段)から、制御部210により受け付けられた患者IDに関連付けられた関心位置情報を取得する。画像形成部220は、取得部231により取得された関心位置情報に基づいて、患者IDに対応する患者の被検眼に対するOCTを実行することによりOCT画像を形成する。解析部233は、画像形成部220により形成されたOCT画像を解析する。特定部232は、取得部231により取得された関心位置情報に基づいて、解析部233による解析結果の一部を特定する。   The ophthalmologic imaging apparatus according to the present modification includes a control unit 210 (accepting unit), an acquisition unit 231, an image forming unit 220, an analysis unit 233, and a specifying unit 232. Control unit 210 receives a patient ID for identifying the patient. The acquisition unit is associated with the patient ID received by the control unit 210 from the storage unit 212 (storage means) in which interest position information indicating the position of the region of interest is associated with each of the plurality of patient IDs and stored in advance. Get interest location information. The image forming unit 220 forms an OCT image by performing OCT on the patient's eye to be examined corresponding to the patient ID based on the position-of-interest information acquired by the acquiring unit 231. The analysis unit 233 analyzes the OCT image formed by the image forming unit 220. The identifying unit 232 identifies a part of the analysis result obtained by the analyzing unit 233 based on the position-of-interest information acquired by the acquiring unit 231.

本変形例に係る眼科撮影装置の構成および動作は、上記の点を除いて、実施形態に係る眼科撮影装置1の構成及び動作と同様である。   The configuration and operation of the ophthalmologic photographing apparatus according to this modification are the same as the configuration and operation of the ophthalmic photographing apparatus 1 according to the embodiment except for the above points.

[その他]
上記の実施形態またはその変形例では、眼底に対してOCTを行う場合について説明したが、これに限定されるものではない。たとえば、前眼部の所定の部位を解析するために、前眼部に対してOCTを行う場合についても適用することができる。
[Others]
In the above embodiment or its modification, the case where OCT is performed on the fundus has been described, but the present invention is not limited to this. For example, the present invention can also be applied to the case where OCT is performed on the anterior segment in order to analyze a predetermined part of the anterior segment.

上記の実施形態またはその変形例を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   A computer program for realizing the above-described embodiment or its modification can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used. It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。   The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.

1 眼科撮影装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
42 ガルバノスキャナ
100 OCTユニット
101 光源ユニット
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 取得部
232 特定部
232A 変位算出部
233 解析部
234 更新部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光

DESCRIPTION OF SYMBOLS 1 Ophthalmology imaging device 2 Fundus camera unit 10 Illumination optical system 30 Imaging optical system 42 Galvano scanner 100 OCT unit 101 Light source unit 115 CCD image sensor 200 Arithmetic control unit 210 Control part 211 Main control part 212 Storage part 220 Image formation part 230 Data processing Unit 231 acquisition unit 232 identification unit 232A displacement calculation unit 233 analysis unit 234 update unit 240A display unit 240B operation unit E eye ELS fundus LS signal light LR reference light LC interference light

Claims (2)

患者を識別するための患者識別情報を受け付ける受付部と、
複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて格納された格納手段から、前記受付部により受け付けられた前記患者識別情報に関連付けられた関心位置情報を取得する取得部と、
前記患者識別情報に対応する患者の被検眼に対する光コヒーレンストモグラフィを実行することにより画像を形成する画像形成部と、
前記画像形成部により形成された画像を解析する解析部と、
前記取得部により取得された関心位置情報に基づいて、前記解析部による解析結果の一部を特定する特定部と、
を含む眼科撮影装置。
A reception unit for receiving patient identification information for identifying a patient;
The interest position information associated with the patient identification information received by the accepting unit is acquired from storage means in which interest position information indicating the position of the region of interest is associated with each of the plurality of patient identification information in advance and stored. An acquisition unit;
An image forming unit that forms an image by performing optical coherence tomography on a patient's eye corresponding to the patient identification information;
An analysis unit for analyzing an image formed by the image forming unit;
Based on the position-of-interest information acquired by the acquisition unit, a specifying unit that specifies a part of the analysis result by the analysis unit;
Ophthalmologic imaging device.
患者を識別するための患者識別情報を受け付ける受付部と、
複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報があらかじめ関連付けられて格納された格納手段から、前記受付部により受け付けられた前記患者識別情報に関連付けられた関心位置情報を取得する取得部と、
前記患者識別情報に対応する患者の被検眼に対する光コヒーレンストモグラフィを実行することにより画像を形成する画像形成部と、
前記画像形成部により形成された画像を解析する解析部と、
前記解析部により得られた解析結果のうちから、前記取得部により取得された関心位置情報に位置が示された前記関心領域に対応する部分を特定する特定部と、
を含む眼科撮影装置。

A reception unit for receiving patient identification information for identifying a patient;
The interest position information associated with the patient identification information received by the accepting unit is acquired from storage means in which interest position information indicating the position of the region of interest is associated with each of the plurality of patient identification information in advance and stored. An acquisition unit;
An image forming unit that forms an image by performing optical coherence tomography on a patient's eye corresponding to the patient identification information;
An analysis unit for analyzing an image formed by the image forming unit;
Among the analysis results obtained by the analysis unit, a specifying unit that specifies a portion corresponding to the region of interest whose position is indicated in the position-of-interest information acquired by the acquisition unit;
Ophthalmologic imaging device.

JP2017034811A 2017-02-27 2017-02-27 Ophthalmic imaging equipment Active JP6378795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034811A JP6378795B2 (en) 2017-02-27 2017-02-27 Ophthalmic imaging equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034811A JP6378795B2 (en) 2017-02-27 2017-02-27 Ophthalmic imaging equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016005218A Division JP6186454B2 (en) 2016-01-14 2016-01-14 Ophthalmology analyzer

Publications (2)

Publication Number Publication Date
JP2017087056A true JP2017087056A (en) 2017-05-25
JP6378795B2 JP6378795B2 (en) 2018-08-22

Family

ID=58771198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034811A Active JP6378795B2 (en) 2017-02-27 2017-02-27 Ophthalmic imaging equipment

Country Status (1)

Country Link
JP (1) JP6378795B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3628209A1 (en) * 2018-09-25 2020-04-01 Topcon Corporation Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and program
EP3714768A4 (en) * 2017-11-24 2021-07-28 Topcon Corporation Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
EP3714766A4 (en) * 2017-11-24 2021-07-28 Topcon Corporation Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046594A (en) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc Device for supporting video diagnosis
JP2008264137A (en) * 2007-04-18 2008-11-06 Topcon Corp Cornea observation apparatus
JP2009034480A (en) * 2007-07-31 2009-02-19 Topcon Corp Ophthalmologic information processing apparatus and ophthalmologic examination apparatus
US20100039616A1 (en) * 2007-04-18 2010-02-18 Kabushiki Kaisha Topcon Optical image measurement device and program for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046594A (en) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc Device for supporting video diagnosis
JP2008264137A (en) * 2007-04-18 2008-11-06 Topcon Corp Cornea observation apparatus
US20100039616A1 (en) * 2007-04-18 2010-02-18 Kabushiki Kaisha Topcon Optical image measurement device and program for controlling the same
JP2009034480A (en) * 2007-07-31 2009-02-19 Topcon Corp Ophthalmologic information processing apparatus and ophthalmologic examination apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3714768A4 (en) * 2017-11-24 2021-07-28 Topcon Corporation Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
EP3714766A4 (en) * 2017-11-24 2021-07-28 Topcon Corporation Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
US11596300B2 (en) 2017-11-24 2023-03-07 Topcon Corporation Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium causing an image of a subject's eye to be displayed
US11832884B2 (en) 2017-11-24 2023-12-05 Topcon Corporation Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium
EP3628209A1 (en) * 2018-09-25 2020-04-01 Topcon Corporation Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and program
JP2020048703A (en) * 2018-09-25 2020-04-02 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and program
US11122974B2 (en) 2018-09-25 2021-09-21 Topcon Corporation Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium
JP7162479B2 (en) 2018-09-25 2022-10-28 株式会社トプコン Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program

Also Published As

Publication number Publication date
JP6378795B2 (en) 2018-08-22

Similar Documents

Publication Publication Date Title
JP5937163B2 (en) Fundus analysis apparatus and fundus observation apparatus
WO2011013314A1 (en) Ophthalmological observation device
WO2010125746A1 (en) Eyeground observation device
JP5628636B2 (en) Fundus image processing apparatus and fundus observation apparatus
JP5415902B2 (en) Ophthalmic observation device
JP5543171B2 (en) Optical image measuring device
JP5936254B2 (en) Fundus observation apparatus and fundus image analysis apparatus
JP2016041221A (en) Ophthalmological photographing device and control method thereof
WO2011048748A1 (en) Fundus image processing device and fundus observing device
JP5378157B2 (en) Ophthalmic observation device
JP5956518B2 (en) Ophthalmic analysis device and ophthalmic imaging device
JP5514026B2 (en) Fundus image processing apparatus and fundus observation apparatus
JP5837143B2 (en) Ophthalmic observation apparatus, control method thereof, and program
JP6378795B2 (en) Ophthalmic imaging equipment
JP2015093128A (en) Ophthalmological observation device
JP6101475B2 (en) Ophthalmic observation device
JP2014140542A (en) Ophthalmological observation device
JP6311045B2 (en) Ophthalmic observation device
JP6374549B2 (en) Ophthalmology analyzer
JP6186454B2 (en) Ophthalmology analyzer
JP2018023818A (en) Ophthalmological observation device
JP6186453B2 (en) Ophthalmic analysis device and ophthalmic imaging device
WO2016039188A1 (en) Ocular fundus analyzing device and ocular fundus observation device
JP2014166199A (en) Fundus analysis device
JP2018023817A (en) Ophthalmological observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180727

R150 Certificate of patent or registration of utility model

Ref document number: 6378795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250