JP2022074224A - Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program - Google Patents

Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program Download PDF

Info

Publication number
JP2022074224A
JP2022074224A JP2020184091A JP2020184091A JP2022074224A JP 2022074224 A JP2022074224 A JP 2022074224A JP 2020184091 A JP2020184091 A JP 2020184091A JP 2020184091 A JP2020184091 A JP 2020184091A JP 2022074224 A JP2022074224 A JP 2022074224A
Authority
JP
Japan
Prior art keywords
image
region
information processing
fundus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020184091A
Other languages
Japanese (ja)
Inventor
徹 中澤
Toru Nakazawa
宗子 面高
Kazuko Omodaka
秀夫 横田
Hideo Yokota
光州 安
Guang Zhou An
勉 木川
Tsutomu Kikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Original Assignee
Tohoku University NUC
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Topcon Corp, RIKEN Institute of Physical and Chemical Research filed Critical Tohoku University NUC
Priority to JP2020184091A priority Critical patent/JP2022074224A/en
Priority to PCT/JP2021/040330 priority patent/WO2022097621A1/en
Publication of JP2022074224A publication Critical patent/JP2022074224A/en
Priority to US18/142,043 priority patent/US20230263391A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To provide a new technique for accurately detecting an optic disk hemorrhagic area with high reproductivity.SOLUTION: An ophthalmologic information processing device comprises: a determiner and a detector. The determiner uses an optic disk hemorrhagic determination model which is obtained by machine learning with first teacher data being front images of a plurality of eyegrounds each attached with a label indicating presence/absence of optic disk hemorrhagic, to determine presence/absence of optic disk hemorrhagic with respect to a front image of the eyeground of an eye to be examined. The detector uses an optic disk hemorrhagic area detection model which is obtained by machine learning with second teacher data being a plurality of pairs of image groups, each pair of which is formed of the front image of the eyeground and an optic disk hemorrhagic area image indicating an optic disk hemorrhagic area drawn in the front image, to detect an optic disk hemorrhagic area drawn in the front image determined to include optic disk hemorrhagic by the determiner.SELECTED DRAWING: Figure 5

Description

この発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。 The present invention relates to an ophthalmic information processing apparatus, an ophthalmic apparatus, an ophthalmic information processing method, and a program.

緑内障は、失明原因の上位を占める疾患である。緑内障に起因した視神経障害及び視野障害は、基本的に、進行性であり、且つ、非可逆的であり、患者の自覚なしに徐々に進行する。従って、緑内障の早期発見と早期治療による障害の進行の阻止又は抑制は、非常に重要である。 Glaucoma is a leading cause of blindness. Optic nerve disorders and visual field disorders caused by glaucoma are basically progressive and irreversible, and gradually progress without the patient's awareness. Therefore, early detection of glaucoma and prevention or suppression of the progression of the disorder by early treatment are very important.

このような緑内障の進行の危険因子の1つに、乳頭出血がある。例えば、医師は、眼底カメラを用いて取得された眼底画像を観察して乳頭出血の有無を判定する。このような医師には、十分な経験と知識を活かして乳頭出血の有無を高精度に判定することが求められる。 One of the risk factors for the progression of such glaucoma is papillary bleeding. For example, a doctor observes a fundus image acquired using a fundus camera to determine the presence or absence of papillary bleeding. Such doctors are required to utilize sufficient experience and knowledge to accurately determine the presence or absence of papillary bleeding.

例えば、特許文献1には、カラーの眼底画像における画素値の違いを利用して、眼底血管、出血部、及び視神経乳頭領域を抽出する手法が開示されている。 For example, Patent Document 1 discloses a method for extracting a fundus blood vessel, a bleeding portion, and an optic disc region by utilizing a difference in pixel values in a color fundus image.

特開2008-73280号公報Japanese Unexamined Patent Publication No. 2008-73280

眼底画像は、被検眼に応じて、全体の色合いや部位及び血管の画素値が異なる。従って、従来の手法のように画素値の違いだけを利用しても、出血部等を高精度に抽出することが困難である場合が多いと考えられる。その上、出血部の位置が視神経乳頭領域内にあるか否かなど、出血部の位置を高精度に特定することは、より一層困難になると考えられる。出血部を高精度に検出することができなければ、医師は乳頭出血の有無を高い再現性で高精度に判定することができない。 In the fundus image, the overall color tone, the site, and the pixel value of the blood vessel differ depending on the eye to be inspected. Therefore, it is considered that it is often difficult to extract a bleeding portion or the like with high accuracy even if only the difference in pixel values is used as in the conventional method. Moreover, it will be even more difficult to pinpoint the location of the bleeding site with high accuracy, such as whether or not the location of the bleeding site is within the optic disc region. If the bleeding part cannot be detected with high accuracy, the doctor cannot determine the presence or absence of papillary bleeding with high reproducibility and high accuracy.

本発明は、このような事情を鑑みてなされたものであり、その目的の1つは、乳頭出血領域を高い再現性で高精度に検出するための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and one of the objects thereof is to provide a new technique for detecting a papillary bleeding region with high reproducibility and high accuracy.

実施形態の第1態様は、乳頭出血の有無を示すラベルが付された複数の眼底の正面画像を第1教師データとする機械学習により得られた乳頭出血判定モデルを用いて、被検眼の眼底の正面画像に対して乳頭出血の有無を判定する判定器と、眼底の正面画像と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデルを用いて、前記判定器により前記乳頭出血があると判定された前記正面画像に描出された乳頭出血領域を検出する検出器と、を含む、眼科情報処理装置である。 The first aspect of the embodiment uses a papillary bleeding determination model obtained by machine learning using a plurality of frontal images of the fundus labeled with a label indicating the presence or absence of papillary bleeding as the first teacher data, and the fundus of the eye to be examined. A group of a plurality of pairs of a determination device for determining the presence or absence of papillary bleeding with respect to the frontal image of the eye, and a papillary bleeding region image representing the papillary bleeding region depicted in the frontal image of the fundus. 2. Using the papillary bleeding area detection model obtained by machine learning as teacher data, a detector that detects the papillary bleeding area visualized in the front image where the papillary bleeding is determined by the determination device, and a detector. It is an ophthalmic information processing device including.

実施形態の第2態様では、第1態様において、前記第2教師データは、前記第1教師データに含まれる正面画像を含む。 In the second aspect of the embodiment, in the first aspect, the second teacher data includes a front image included in the first teacher data.

実施形態の第3態様は、第1態様又は第2態様において、前記第1教師データを用いて教師あり機械学習を実行することにより前記乳頭出血判定モデルを生成する第1学習部を含む。 A third aspect of the embodiment includes, in the first or second aspect, a first learning unit that generates the papillary bleeding determination model by performing supervised machine learning using the first teacher data.

実施形態の第4態様は、第1態様~第3態様のいずれかにおいて、前記第2教師データを用いて教師あり機械学習を実行することにより前記乳頭出血領域検出モデルを生成する第2学習部を含む。 A fourth aspect of the embodiment is a second learning unit that generates the papillary bleeding region detection model by performing supervised machine learning using the second supervised data in any of the first to third aspects. including.

実施形態の第5態様では、第1態様~第4態様のいずれかにおいて、前記眼底の正面画像は、カラーの正面画像である。 In the fifth aspect of the embodiment, in any one of the first to fourth aspects, the frontal image of the fundus is a color frontal image.

実施形態の第6態様は、第1態様~第5態様のいずれかにおいて、前記被検眼の眼底の正面画像を解析することにより、前記被検眼の眼底の正面画像における前記乳頭出血領域の位置を表す位置情報、前記乳頭出血領域の形状を表す形状情報、及び前記乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析部を含む。 In the sixth aspect of the embodiment, in any one of the first to fifth aspects, the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected is determined by analyzing the frontal image of the fundus of the eye to be inspected. It includes an analysis unit that generates at least one of the position information to be represented, the shape information representing the shape of the papillary bleeding region, and the occurrence information representing the occurrence status of the papillary bleeding region.

実施形態の第7態様では、第6態様において、前記位置情報は、基準位置に対する前記乳頭出血領域の代表位置の方向を示す情報を含む。 In the seventh aspect of the embodiment, in the sixth aspect, the position information includes information indicating the direction of the representative position of the papillary bleeding region with respect to the reference position.

実施形態の第8態様では、第6態様又は第7態様において、前記位置情報は、前記乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む。 In the eighth aspect of the embodiment, in the sixth or seventh aspect, the position information includes information indicating whether the representative position of the papillary bleeding region is inside the optic disc region or outside the optic disc region.

実施形態の第9態様では、第8態様において、前記位置情報は、前記代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む。 In the ninth aspect of the embodiment, in the eighth aspect, the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.

実施形態の第10態様では、第6態様~第9態様のいずれかにおいて、前記形状情報は、前記乳頭出血領域の楕円率、及び前記乳頭出血領域の面積の少なくとも1つを含む。 In the tenth aspect of the embodiment, in any one of the sixth to ninth aspects, the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region.

実施形態の第11態様では、第6態様~第10態様のいずれかにおいて、前記発生情報は、前記乳頭出血領域の発生頻度、及び前記乳頭出血領域の発生間隔の少なくとも1つを含む。 In the eleventh aspect of the embodiment, in any one of the sixth to tenth aspects, the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region.

実施形態の第12態様は、第6態様~第11態様のいずれかにおいて、前記被検眼のOCTデータと前記検出器により検出された前記乳頭出血領域が描出された前記被検眼の正面画像との位置合わせを行う位置合わせ部を含み、前記解析部は、前記位置合わせ部により前記正面画像と位置合わせが行われた前記OCTデータを用いて、前記位置情報、前記形状情報、及び前記発生情報の少なくとも1つを生成する。 The twelfth aspect of the embodiment is, in any one of the sixth to eleventh aspects, the OCT data of the eye to be inspected and the frontal image of the inspected eye in which the papillary bleeding region detected by the detector is visualized. The analysis unit includes the alignment unit for aligning, and the analysis unit uses the OCT data aligned with the front image by the alignment unit to obtain the position information, the shape information, and the generation information. Generate at least one.

実施形態の第13態様は、前記被検眼の眼底を撮影する撮影部と、第1態様~第12態様のいずれかに記載の眼科情報処理装置と、を含む、眼科装置である。 The thirteenth aspect of the embodiment is an ophthalmologic apparatus including an imaging unit for photographing the fundus of the eye to be inspected and an ophthalmologic information processing apparatus according to any one of the first to twelfth aspects.

実施形態の第14態様は、前記被検眼の眼底を撮影する撮影部と、前記被検眼に対して光コヒーレンストモグラフィを実行することにより前記OCTデータを取得するOCT部と、第12態様に記載の眼科情報処理装置と、を含む、眼科装置である。 A fourteenth aspect of the embodiment is described in the twelfth aspect, the imaging unit for photographing the fundus of the eye to be inspected, the OCT unit for acquiring the OCT data by performing optical coherence tomography on the eye to be inspected, and the twelfth aspect. An ophthalmic information device, including an ophthalmic information device.

実施形態の第15態様は、乳頭出血の有無を示すラベルが付された複数の眼底の正面画像を第1教師データとする機械学習により得られた乳頭出血判定モデルを用いて、被検眼の眼底の正面画像に対して乳頭出血の有無を判定する判定ステップと、眼底の正面画像と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデルを用いて、前記判定ステップにおいて前記乳頭出血があると判定された前記正面画像に描出された乳頭出血領域を検出する検出ステップと、を含む、眼科情報処理方法である。 In the fifteenth aspect of the embodiment, a papillary bleeding determination model obtained by machine learning using a plurality of frontal images of the fundus labeled with a label indicating the presence or absence of papillary bleeding as first teacher data is used to determine the fundus of the eye to be examined. A plurality of pairs of image groups consisting of a determination step for determining the presence or absence of papillary bleeding with respect to the frontal image of the above and a papillary bleeding region image representing the papillary bleeding region depicted in the frontal image of the fundus are the first. 2. Using the papillary bleeding region detection model obtained by machine learning as teacher data, a detection step for detecting the papillary bleeding region visualized in the front image determined to have papillary bleeding in the determination step, and a detection step. It is an ophthalmic information processing method including.

実施形態の第16態様では、第15態様において、前記第2教師データは、前記第1教師データに含まれる正面画像を含む。 In the 16th aspect of the embodiment, in the 15th aspect, the second teacher data includes a front image included in the first teacher data.

実施形態の第17態様は、第15態様又は第16態様において、前記第1教師データを用いて教師あり機械学習を実行することにより前記乳頭出血判定モデルを生成する第1学習ステップを含む。 The 17th aspect of the embodiment includes, in the 15th or 16th aspect, a first learning step of generating the papillary bleeding determination model by performing supervised machine learning using the first supervised data.

実施形態の第18態様は、第15態様~第17態様のいずれかにおいて、前記第2教師データを用いて教師あり機械学習を実行することにより前記乳頭出血領域検出モデルを生成する第2学習ステップを含む。 The eighteenth aspect of the embodiment is a second learning step of generating the papillary bleeding region detection model by performing supervised machine learning using the second supervised data in any of the fifteenth to seventeenth aspects. including.

実施形態の第19態様では、第15態様~第18態様のいずれかにおいて、前記眼底の正面画像は、カラーの正面画像である。 In the 19th aspect of the embodiment, in any one of the 15th to 18th aspects, the frontal image of the fundus is a color frontal image.

実施形態の第20態様は、第15態様~第19態様のいずれかにおいて、前記被検眼の眼底の正面画像を解析することにより、前記被検眼の眼底の正面画像における前記乳頭出血領域の位置を表す位置情報、前記乳頭出血領域の形状を表す形状情報、及び前記乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析ステップを含む。 In the 20th aspect of the embodiment, in any of the 15th to 19th aspects, the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected is determined by analyzing the frontal image of the fundus of the eye to be inspected. The analysis step includes generating at least one of the position information to be represented, the shape information to represent the shape of the papillary bleeding region, and the outbreak information to represent the occurrence status of the papillary bleeding region.

実施形態の第21態様では、第20態様において、前記位置情報は、基準位置に対する前記乳頭出血領域の代表位置の方向を示す情報を含む。 In the 21st aspect of the embodiment, in the 20th aspect, the position information includes information indicating the direction of the representative position of the papillary bleeding region with respect to the reference position.

実施形態の第22態様では、第20態様又は第21態様において、前記位置情報は、前記乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む。 In the 22nd aspect of the embodiment, in the 20th or 21st aspect, the position information includes information indicating whether the representative position of the papillary bleeding region is inside the optic disc region or outside the optic disc region.

実施形態の第23態様では、第22態様において、前記位置情報は、前記代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む。 In the 23rd aspect of the embodiment, in the 22nd aspect, the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.

実施形態の第24態様では、第20態様~第23態様のいずれかにおいて、前記形状情報は、前記乳頭出血領域の楕円率、及び前記乳頭出血領域の面積の少なくとも1つを含む。 In the 24th aspect of the embodiment, in any of the 20th to 23rd aspects, the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region.

実施形態の第25態様では、第20態様~第24態様のいずれかにおいて、前記発生情報は、前記乳頭出血領域の発生頻度、及び前記乳頭出血領域の発生間隔の少なくとも1つを含む。 In the 25th aspect of the embodiment, in any of the 20th to 24th aspects, the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region.

実施形態の第26態様は、第20態様~第25態様のいずれかにおいて、前記被検眼のOCTデータと前記検出ステップにおいて検出された前記乳頭出血領域が描出された前記被検眼の正面画像との位置合わせを行う位置合わせステップを含み、前記解析ステップは、前記位置合わせステップにおいて前記正面画像と位置合わせが行われた前記OCTデータを用いて、前記位置情報、前記形状情報、及び前記発生情報の少なくとも1つを生成する。 The 26th aspect of the embodiment is, in any one of the 20th to the 25th aspects, the OCT data of the eye to be inspected and the frontal image of the inspected eye in which the papillary bleeding region detected in the detection step is visualized. The analysis step includes the alignment step for aligning, and the analysis step uses the OCT data aligned with the front image in the alignment step to obtain the position information, the shape information, and the generation information. Generate at least one.

実施形態の第27態様は、コンピュータに、第15態様~第26態様のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。 The 27th aspect of the embodiment is a program for causing a computer to execute each step of the ophthalmologic information processing method according to any one of the 15th to 26th aspects.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 It is possible to arbitrarily combine the configurations according to the above-mentioned plurality of embodiments.

本発明によれば、乳頭出血領域を高い再現性で高精度に検出するための新たな技術を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a new technique for detecting a papillary bleeding region with high reproducibility and high accuracy.

第1実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作の一例を説明するための概略図である。It is a schematic diagram for demonstrating an example of the operation of the ophthalmologic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の構成の一例を示す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for demonstrating the operation of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の構成の一例を示す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for demonstrating the operation of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for demonstrating the operation of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for demonstrating the operation of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作例を表すフローチャートである。It is a flowchart which shows the operation example of the ophthalmic apparatus which concerns on 1st Embodiment. 第1実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for demonstrating the operation of the ophthalmic apparatus which concerns on 1st Embodiment. 第2実施形態に係る眼科システムの第1構成例を表す概略図である。It is a schematic diagram which shows the 1st structural example of the ophthalmic system which concerns on 2nd Embodiment. 第2実施形態に係る眼科システムの第2構成例を表す概略図である。It is a schematic diagram which shows the 2nd structural example of the ophthalmic system which concerns on 2nd Embodiment. 第2実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic information processing apparatus which concerns on 2nd Embodiment. 第2実施形態の第1変形例に係る眼科システムの構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic system which concerns on the 1st modification of 2nd Embodiment. 第2実施形態の第2変形例に係る眼科システムの構成の一例を表す概略図である。It is a schematic diagram which shows an example of the structure of the ophthalmic system which concerns on the 2nd modification of 2nd Embodiment.

この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。 An example of an ophthalmic information processing apparatus, an ophthalmic apparatus, an ophthalmic information processing method, and an embodiment of a program according to the present invention will be described in detail with reference to the drawings. In addition, the description contents of the document cited in this specification and arbitrary known techniques can be incorporated into the following embodiments.

実施形態に係る眼科情報処理装置は、学習済みモデルを用いて被検眼の眼底画像に対して乳頭出血の有無を判定し、別の学習済みモデルを用いて、乳頭出血があると判定された眼底画像に描出された乳頭出血領域を検出する。乳頭出血の有無の判定に用いられる学習済みモデルは、乳頭出血の有無を示すラベルが付された複数の眼底画像を第1教師データとする機械学習により得られた乳頭出血判定モデルである。乳頭出血領域の検出に用いられる学習済みモデルは、眼底画像と当該眼底画像に描出された乳頭出血領域を表す乳頭出血領域画像とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデルである。眼底画像は、眼底カメラ等により眼底を撮影することにより得られたカラーの眼底の正面画像であることが望ましい。 The ophthalmologic information processing apparatus according to the embodiment determines the presence or absence of papillary bleeding on the fundus image of the eye to be inspected using a trained model, and the fundus determined to have papillary bleeding using another trained model. Detect the papillary bleeding area depicted in the image. The trained model used for determining the presence or absence of papillary bleeding is a papillary bleeding determination model obtained by machine learning using a plurality of fundus images labeled indicating the presence or absence of papillary bleeding as first teacher data. The trained model used for detecting the papillary bleeding region is a machine in which a plurality of pairs of images, which are a pair of a fundus image and a papillary bleeding region image representing the papillary bleeding region drawn on the fundus image, are used as the second teacher data. It is a papillary bleeding area detection model obtained by learning. The fundus image is preferably a color frontal image of the fundus obtained by photographing the fundus with a fundus camera or the like.

これにより、乳頭出血領域が存在する眼底画像のみを用いて機械学習を行うことにより乳頭出血領域検出モデルを生成することで、乳頭出血領域検出モデルの学習パラメータが乳頭出血領域の検出に特化して更新される。その結果、乳頭出血領域の検出精度を向上させることができる。従って、1つの学習済みモデルを用いて被検眼の眼底画像における乳頭出血領域を検出する場合と比較して、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 As a result, by generating a papillary bleeding region detection model by performing machine learning using only the fundus image in which the papillary bleeding region exists, the learning parameters of the papillary bleeding region detection model are specialized for the detection of the papillary bleeding region. Will be updated. As a result, the detection accuracy of the papillary bleeding region can be improved. Therefore, it is possible to detect the papillary bleeding region in the fundus image with higher reproducibility and accuracy as compared with the case of detecting the papillary bleeding region in the fundus image of the test eye using one trained model. ..

いくつかの実施形態では、眼科情報処理装置は、眼底画像を解析することにより、高い再現性で高精度に検出された乳頭出血領域の解析結果を生成する。解析結果は、乳頭出血領域の位置を表す位置情報、乳頭出血領域の形状を表す形状情報、及び乳頭出血領域の発生状況を表す発生情報の少なくとも1つを含む。 In some embodiments, the ophthalmic information processing apparatus analyzes the fundus image to generate an analysis result of the papillary bleeding region detected with high reproducibility and high accuracy. The analysis result includes at least one of the position information indicating the position of the papillary bleeding region, the shape information representing the shape of the papillary bleeding region, and the occurrence information indicating the occurrence status of the papillary bleeding region.

いくつかの実施形態では、眼科情報処理装置は、乳頭出血領域が検出された眼底画像と被検眼のOCT(Optical Coherence Tomography)データとの位置合わせを行うことにより、OCTデータを規定するOCT座標系の位置情報を用いて位置情報及び形状情報を生成する。これにより、再現性の高いOCTデータを規定するOCT座標系にマッピングされた眼底画像から乳頭出血領域の位置情報及び形状情報を高精度に求めることができるようになる。 In some embodiments, the ophthalmologic information processing apparatus defines the OCT coordinate system by aligning the fundus image in which the papillary bleeding region is detected with the OCT (Optical Coherence Tomography) data of the subject eye. Position information and shape information are generated using the position information of. This makes it possible to obtain highly accurate position information and shape information of the papillary bleeding region from the fundus image mapped to the OCT coordinate system that defines the highly reproducible OCT data.

いくつかの実施形態では、被検眼の眼底画像を取得するための眼底カメラの機能と、被検眼のOCTデータを取得するためのOCT計測を実行可能なOCT装置(光干渉断層計)の機能とを備えた眼科装置が、実施形態に係る眼科情報処理装置の機能を有する。 In some embodiments, there is a function of a fundus camera for acquiring a fundus image of the eye to be inspected and a function of an OCT device (optical coherence tomography) capable of performing OCT measurement for acquiring OCT data of the eye to be inspected. The ophthalmologic apparatus provided with the above has the function of the ophthalmologic information processing apparatus according to the embodiment.

いくつかの実施形態では、眼底カメラの機能を備えた眼科装置が、実施形態に係る眼科処理装置の機能を有する。この場合、眼科装置は、外部に設けられたOCT装置からOCTデータを取得する。 In some embodiments, the ophthalmologic apparatus having the function of a fundus camera has the function of the ophthalmologic processing apparatus according to the embodiment. In this case, the ophthalmic appliance acquires OCT data from an externally provided OCT apparatus.

いくつかの実施形態では、OCT装置の機能を備えた眼科装置が、実施形態に係る眼科処理装置の機能を有する。この場合、眼科装置は、外部に設けられた眼底カメラから眼底画像を取得する。 In some embodiments, the ophthalmic appliance with the functionality of the OCT apparatus has the functionality of the ophthalmic processing apparatus according to the embodiment. In this case, the ophthalmologic apparatus acquires a fundus image from an external fundus camera.

いくつかの実施形態では、眼科処理装置は、外部に設けられた眼底カメラから眼底画像を取得し、外部に設けられたOCT装置からOCTデータを取得する。 In some embodiments, the ophthalmologic processing apparatus acquires a fundus image from an externally provided fundus camera and obtains OCT data from an externally provided OCT apparatus.

いくつかの実施形態では、眼科処理装置は、眼底カメラの機能とOCT装置の機能とを有する眼科装置から眼底画像及びOCTデータを取得する。 In some embodiments, the ophthalmologic processing apparatus acquires fundus images and OCT data from an ophthalmologic apparatus having the function of a fundus camera and the function of an OCT device.

いくつかの実施形態では、眼底画像は、OCTデータにより形成されたCスキャン画像、プロジェクション画像、又はen-face画像、走査型レーザー検眼装置(Scanning Laser Ophthalmoscope:SLO)、スリットランプ検眼鏡、又は手術用顕微鏡等の眼科装置により取得された画像である。眼底画像がCスキャン画像、プロジェクション画像、又はen-face画像である場合、眼底画像とOCTデータとの位置合わせを行わなくてもよい。 In some embodiments, the fundus image is a C-scan image, a projection image, or an en-face image formed by OCT data, a scanning Laser Ophthalmoscope (SLO), a slit lamp ophthalmoscope, or an operation. It is an image acquired by an ophthalmologic device such as an ophthalmoscope. When the fundus image is a C-scan image, a projection image, or an en-face image, it is not necessary to align the fundus image with the OCT data.

実施形態に係る眼科情報処理方法は、実施形態に係る眼科情報処理装置においてプロセッサ(コンピュータ)により実行される処理を実現するための1以上のステップを含む。実施形態に係るプログラムは、プロセッサに実施形態に係る眼科情報処理方法の各ステップを実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体(記憶媒体)である。 The ophthalmic information processing method according to the embodiment includes one or more steps for realizing a process executed by a processor (computer) in the ophthalmic information processing apparatus according to the embodiment. The program according to the embodiment causes a processor to execute each step of the ophthalmic information processing method according to the embodiment. The recording medium according to the embodiment is a computer-readable non-temporary recording medium (storage medium) on which the program according to the embodiment is recorded.

本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 In the present specification, the "processor" is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, a SPLD (SimpleProgram)). It means a circuit such as a Program Control Device (Programmable Logical Device), an FPGA (Field Program Cable Gate Array)) and the like. The processor realizes the function according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example.

この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。また、乳頭出血を単にDH(Disc Hemorrhage)と呼ぶことがある。 In this specification, images acquired by OCT may be collectively referred to as OCT images. Further, the measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, papillary bleeding may be simply referred to as DH (Disc Hemorrhage).

[第1実施形態]
第1実施形態に係る眼科装置は、眼底カメラの機能と、OCT装置の機能と、実施形態に係る眼科処理装置の機能とを備える。眼科装置は、更に、眼科測定装置、及び眼科治療装置の少なくとも1つの機能を備えてもよい。いくつかの実施形態では、眼科測定装置は、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、及びマイクロペリメータの少なくとも1つを含む。いくつかの実施形態では、眼科治療装置は、レーザー治療装置、手術装置、及び手術用顕微鏡の少なくとも1つを含む。
[First Embodiment]
The ophthalmologic apparatus according to the first embodiment includes a function of a fundus camera, a function of an OCT apparatus, and a function of an ophthalmology processing apparatus according to an embodiment. The ophthalmic appliance may further comprise at least one function of an ophthalmic measuring device and an ophthalmic treatment device. In some embodiments, the ophthalmologic measuring device comprises at least one of an ophthalmic refraction tester, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, and a microperimeter. In some embodiments, the ophthalmic treatment device comprises at least one of a laser treatment device, a surgical device, and a surgical microscope.

<構成>
〔光学系〕
図1に、第1実施形態に係る眼科装置の構成例を示す。
<Structure>
〔Optical system〕
FIG. 1 shows a configuration example of an ophthalmic apparatus according to the first embodiment.

第1実施形態に係る眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系及び機構が設けられている。OCTユニット100には、OCTを実行するための光学系及び機構の一部が設けられている。OCTを実行するための光学系及び機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算及び制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)、又はOCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。いくつかの実施形態では、レンズユニットが手動で被検眼Eと後述の対物レンズ22との間に挿脱されるように構成される。いくつかの実施形態では、後述の制御部210からの制御を受け、レンズユニットが被検眼Eと後述の対物レンズ22との間に自動で挿脱されるように構成される。 The ophthalmic apparatus 1 according to the first embodiment includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye E to be inspected. The OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. The other part of the optical system and mechanism for performing OCT is provided in the fundus camera unit 2. The arithmetic and control unit 200 includes one or more processors that perform various arithmetic and control. In addition to these, any element such as a member for supporting the subject's face (chin rest, forehead pad, etc.) or a lens unit for switching the target part of OCT (for example, an attachment for anterior ocular segment OCT). Or unit may be provided in the ophthalmic apparatus 1. In some embodiments, the lens unit is manually configured to be inserted and removed between the eye E to be inspected and the objective lens 22 described below. In some embodiments, the lens unit is configured to be automatically inserted and removed between the eye E to be inspected and the objective lens 22 described later under the control of the control unit 210 described later.

[眼底カメラユニット]
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底画像、眼底写真等と呼ばれる)は、観察画像、キャプチャ画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。キャプチャ画像は、フラッシュ光を用いた静止画像(例えば、カラー画像)である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部画像)を取得することができる。
[Fundus camera unit]
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye to be inspected E. The acquired image of the fundus Ef (called a fundus image, a fundus photograph, etc.) is a front image such as an observation image, a captured image, or the like. The observed image is obtained by taking a moving image using near-infrared light. The captured image is a still image (for example, a color image) using flash light. Further, the fundus camera unit 2 can take an anterior eye portion Ea of the eye to be inspected E and acquire a frontal image (anterior eye portion image).

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The photographing optical system 30 detects the return light of the illumination light from the eye E to be inspected. The measurement light from the OCT unit 100 is guided to the eye E to be inspected through the optical path in the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過する。ダイクロイックミラー55を透過した戻り光は、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。 The light output from the observation light source 11 of the illumination optical system 10 (observation illumination light) is reflected by the reflection mirror 12 having a curved reflecting surface, passes through the condenser lens 13, and passes through the visible cut filter 14. It becomes near-infrared light. Further, the observation illumination light is once focused in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17, 18, the diaphragm 19, and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion of the perforated mirror 21 (the region around the perforated portion), passes through the dichroic mirror 46, is refracted by the objective lens 22, and is the eye to be inspected E (fundibular Ef or anterior eye). Illuminate part Ea). The return light of the observation illumination light from the eye E to be inspected is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, and passes through the dichroic mirror 55. .. The return light transmitted through the dichroic mirror 55 passes through the photographing focusing lens 31 and is reflected by the mirror 32. Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the condenser lens 34. The image sensor 35 detects the return light at a predetermined frame rate. The focus of the photographing optical system 30 is adjusted so as to match the fundus Ef or the anterior eye portion Ea.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。 The light output from the photographing light source 15 (photographing illumination light) is applied to the fundus Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the eye E to be examined is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37. An image is formed on the light receiving surface of the image sensor 38.

LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。 The LCD (Liquid Crystal Display) 39 displays a fixative and a visual acuity measurement target. A part of the light flux output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31 and the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21. The luminous flux that has passed through the hole portion of the perforated mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。 By changing the display position of the fixative on the screen of the LCD 39, the fixative position of the eye E to be inspected can be changed. Examples of fixative positions include the fixative position for acquiring an image centered on the macula, the fixative position for acquiring an image centered on the optic nerve head, and the center of the fundus between the macula and the optic nerve head. There is a fixative position for acquiring an image centered on the macula, and a fixative position for acquiring an image of a portion far away from the macula (peripheral part of the macula). The ophthalmic appliance 1 according to some embodiments includes a GUI (Graphical User Interface) and the like for designating at least one such fixative position. The ophthalmologic apparatus 1 according to some embodiments includes a GUI or the like for manually moving the fixative position (display position of the fixative target).

移動可能な固視標を被検眼Eに呈示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。 The configuration for presenting the movable fixative to the eye E is not limited to a display device such as an LCD. For example, a movable fixative can be generated by selectively lighting a plurality of light sources in a light source array (light emitting diode (LED) array or the like). In addition, a movable fixative can be generated by one or more movable light sources.

また、眼科装置1には、1以上の外部固視光源が設けられてもよい。1以上の外部固視光源の1つは、被検眼Eの僚眼に固視光を投射することが可能である。僚眼における固視光の投射位置は、変更可能である。僚眼に対する固視光の投射位置を変更することにより、被検眼Eの固視位置を変更することができる。外部固視光源による固視位置は、LCD39を用いた被検眼Eの固視位置と同様であってよい。例えば、複数の外部固視光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の外部固視光源により、移動可能な固視標を生成することができる。 Further, the ophthalmic appliance 1 may be provided with one or more external fixative light sources. One of one or more external fixative light sources is capable of projecting fixative light onto the companion eye of the eye E to be inspected. The projection position of the fixative light in the companion eye can be changed. By changing the projection position of the fixative light with respect to the companion eye, the fixative position of the eye E to be inspected can be changed. The fixative position by the external fixative light source may be the same as the fixative position of the eye E to be inspected using the LCD 39. For example, a movable fixative can be generated by selectively turning on a plurality of external fixative light sources. In addition, a movable fixative can be generated by one or more movable external fixative light sources.

アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント視標を生成する。LED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。アライメント光の角膜反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント視標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。 The alignment optical system 50 generates an alignment optotype used for alignment of the optical system with respect to the eye E to be inspected. The alignment light output from the LED 51 passes through the diaphragms 52 and 53 and the relay lens 54, is reflected by the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21. The light that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46 and is projected onto the eye E to be inspected by the objective lens 22. The corneal reflected light of the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment and auto alignment can be executed based on the received light image (alignment optotype image).

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット視標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット視標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット視標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。 The focus optical system 60 generates a split optotype used for focus adjustment with respect to the eye E to be inspected. The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the photographing focusing lens 31 along the optical path (photographing optical path) of the photographing optical system 30. The reflection rod 67 is removable with respect to the illumination optical path. When adjusting the focus, the reflecting surface of the reflecting rod 67 is inclined and arranged in the illumination optical path. The focus light output from the LED 61 passes through the relay lens 62, is separated into two light fluxes by the split optotype 63, passes through the two-hole diaphragm 64, is reflected by the mirror 65, and is reflected by the condenser lens 66. It is once imaged on the reflecting surface of 67 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus Ef. The fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the corneal reflected light of the alignment light. Manual focus and autofocus can be executed based on the received light image (split optotype image).

ダイクロイックミラー46は、撮影用光路とOCT用光路(干渉光学系の光路)とを合成する。ダイクロイックミラー46は、撮影用光路(撮影光学系30)の光軸とOCT用光路(干渉光学系)の光軸とが略同軸になるように双方の光学系を結合する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes an optical path for photographing and an optical path for OCT (optical path of an interference optical system). The dichroic mirror 46 couples both optical systems so that the optical axis of the photographing optical path (photographing optical system 30) and the optical axis of the OCT optical path (interference optical system) are substantially coaxial with each other. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus photography. In the optical path for OCT (optical path of measurement light), the collimator lens unit 40, the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, the mirror 44, in this order from the OCT unit 100 side toward the dichroic mirror 46 side. And a relay lens 45 is provided.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the length of the optical path for OCT. This change in the optical path length is used for correcting the optical path length according to the axial length and adjusting the interference state. The optical path length changing unit 41 includes a corner cube and a mechanism for moving the corner cube.

光スキャナー42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナー42は、OCT用光路を通過する測定光LSを偏向する。光スキャナー42は、測定光LSを1次元的又は2次元的に偏向することが可能である。 The optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be inspected. The optical scanner 42 deflects the measurement light LS passing through the optical path for OCT. The optical scanner 42 can deflect the measurement light LS one-dimensionally or two-dimensionally.

1次元的に偏向する場合、光スキャナー42は、所定の偏向方向に所定の偏向角度範囲で測定光LSを偏向するガルバノスキャナーを含む。2次元的に偏向する場合、光スキャナー42は、第1ガルバノスキャナーと、第2ガルバノスキャナーとを含む。第1ガルバノスキャナーは、干渉光学系(OCT光学系)の光軸に直交する水平方向に撮影部位(眼底Ef又は前眼部Ea)をスキャンするように測定光LSを偏向する。第2ガルバノスキャナーは、干渉光学系の光軸に直交する垂直方向に撮影部位をスキャンするように、第1ガルバノスキャナーにより偏向された測定光LSを偏向する。光スキャナー42による測定光LSの走査態様としては、例えば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンなどがある。 When one-dimensionally polarized, the optical scanner 42 includes a galvano scanner that deflects the measured light LS in a predetermined deflection angle range in a predetermined deflection direction. In the case of two-dimensional deflection, the optical scanner 42 includes a first galvano scanner and a second galvano scanner. The first galvano scanner deflects the measurement light LS so as to scan the imaging region (fundibular Ef or anterior segment Ea) in the horizontal direction orthogonal to the optical axis of the interference optical system (OCT optical system). The second galvano scanner deflects the measurement light LS deflected by the first galvano scanner so as to scan the imaging region in the direction perpendicular to the optical axis of the interference optical system. Examples of the scanning mode of the measured optical LS by the optical scanner 42 include horizontal scan, vertical scan, cross scan, radial scan, circular scan, concentric circular scan, and spiral scan.

OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。OCT合焦レンズ43は、被検眼Eの眼底Ef又はその近傍に測定光LSの焦点位置を配置するための第1レンズ位置と、被検眼Eに照射される測定光LSを平行光束にするための第2レンズ位置とを含む移動範囲で移動可能である。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the optical path of the measurement light LS in order to adjust the focus of the optical system for OCT. The OCT focusing lens 43 is used to make the first lens position for arranging the focal position of the measurement light LS at or near the fundus Ef of the eye E to be inspected and the measurement light LS irradiated to the eye E to be parallel light flux. It is possible to move within the range of movement including the position of the second lens. The movement of the photographing focusing lens 31, the movement of the focus optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

[OCTユニット]
OCTユニット100の構成の一例を図2に示す。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 is shown in FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the eye E to be inspected. This optical system divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and causes the return light of the measurement light from the subject E to interfere with the reference light passing through the reference optical path. This is an interference optical system that generates interference light and detects this interference light. The detection result (detection signal) of the interference light by the interference optical system is an interference signal showing the spectrum of the interference light, and is sent to the arithmetic control unit 200.

光源ユニット101は、一般的なスウェプトソースタイプの眼科装置と同様に、出射光の波長を掃引(走査)可能な波長掃引型(波長走査型)光源を含んで構成される。波長掃引型光源は、共振器を含むレーザー光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。 The light source unit 101 is configured to include a wavelength sweep type (wavelength scanning type) light source capable of sweeping (scanning) the wavelength of emitted light, similar to a general swept source type ophthalmic apparatus. The wavelength sweep type light source is configured to include a laser light source including a resonator. The light source unit 101 changes the output wavelength with time in a near-infrared wavelength band that cannot be visually recognized by the human eye.

光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏波状態が調整される。偏波コントローラ103は、例えばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏波状態を調整する。 The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and its polarization state is adjusted. The polarization controller 103 adjusts the polarization state of the light L0 guided in the optical fiber 102 by, for example, applying stress from the outside to the looped optical fiber 102.

偏波コントローラ103により偏波状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light L0 whose polarization state is adjusted by the polarization controller 103 is guided by the optical fiber 104 to the fiber coupler 105 and divided into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、光路長変更部114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。光路長変更部114は、例えば、コーナーキューブと、コーナーキューブを移動する移動機構とを含み、移動機構によるコーナーキューブを参照光LRの入射方向に移動可能である。それにより参照光LRの光路長が変更される。 The reference optical LR is guided to the collimator 111 by the optical fiber 110 and converted into a parallel light flux, and is guided to the optical path length changing unit 114 via the optical path length correction member 112 and the dispersion compensation member 113. The optical path length correction member 112 acts to match the optical path length of the reference light LR with the optical path length of the measured light LS. The dispersion compensating member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS. The optical path length changing unit 114 includes, for example, a corner cube and a moving mechanism for moving the corner cube, and the corner cube by the moving mechanism can be moved in the incident direction of the reference light LR. As a result, the optical path length of the reference light LR is changed.

光路長変更部114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏波状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。 The reference optical LR that has passed through the optical path length changing unit 114 is converted from a parallel luminous flux to a focused luminous flux by a collimator 116 via a dispersion compensating member 113 and an optical path length correcting member 112, and is incident on the optical fiber 117. The reference optical LR incident on the optical fiber 117 is guided by the polarization controller 118 to adjust its polarization state, is guided to the attenuator 120 by the optical fiber 119 to adjust the amount of light, and is guided to the fiber coupler 122 by the optical fiber 121. Be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由する。リレーレンズ45を経由した測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement optical LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light flux by the collimator lens unit 40, and the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, and the mirror 44. And via the relay lens 45. The measurement light LS that has passed through the relay lens 45 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and incident on the eye E to be inspected. The measurement light LS is scattered and reflected at various depth positions of the eye E to be inspected. The return light of the measurement light LS from the eye E to be inspected travels in the same direction as the outward path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 combines (interferes with) the measured light LS incident via the optical fiber 128 and the reference light LR incident via the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference light LCs by branching the interference light at a predetermined branching ratio (for example, 1: 1). The pair of interference light LCs are guided to the detector 125 through the optical fibers 123 and 124, respectively.

検出器125は、例えば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(干渉信号)をDAQ(Data Acquisition System)130に送る。DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引(走査)される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、クロックKCに基づき、検出器125の検出結果をサンプリングする。DAQ130は、サンプリングされた検出器125の検出結果を演算制御ユニット200に送る。演算制御ユニット200は、例えば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。 The detector 125 is, for example, a balanced photodiode (Balanced Photo Diode) that has a pair of photodetectors that detect each pair of interference light LCs and outputs the difference between the detection results. The detector 125 sends the detection result (interference signal) to the DAT (Data Acquisition System) 130. A clock KC is supplied to the DAQ 130 from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept (scanned) within a predetermined wavelength range by the wavelength sweep type light source. The light source unit 101 optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then sets the clock KC based on the result of detecting these combined lights. Generate. The DAQ 130 samples the detection result of the detector 125 based on the clock KC. The DAQ 130 sends the detection result of the sampled detector 125 to the arithmetic control unit 200. The arithmetic control unit 200 obtains a reflection intensity profile in each A line by, for example, performing a Fourier transform or the like on the spectral distribution based on the detection result obtained by the detector 125 for each series of wavelength scans (for each A line). Form. Further, the arithmetic control unit 200 forms image data by imaging the reflection intensity profile of each A line.

なお、図1及び図2に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するための光路長変更部114の双方が設けられている。しかしながら、光路長変更部41及び114の一方だけが設けられていてもよい。また、これら以外の光学部材を用いて、参照光路長と測定光路長との差を変更することも可能である。 In the configurations shown in FIGS. 1 and 2, the optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and the optical path of the reference light LR (reference optical path, reference). Both of the optical path length changing portions 114 for changing the length of the arm) are provided. However, only one of the optical path length changing portions 41 and 114 may be provided. Further, it is also possible to change the difference between the reference optical path length and the measured optical path length by using an optical member other than these.

[演算制御ユニット]
演算制御ユニット200は、DAQ130から入力される検出信号を解析して被検眼EのOCT画像を形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
[Operation control unit]
The arithmetic control unit 200 analyzes the detection signal input from the DAQ 130 to form an OCT image of the eye E to be inspected. The arithmetic processing for that purpose is the same as that of the conventional swept source type OCT apparatus.

また、演算制御ユニット200は、眼底カメラユニット2、表示装置3、及びOCTユニット100の各部を制御する。 Further, the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100.

眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15、及びLED51、61の動作制御、LCD39の動作制御、撮影合焦レンズ31の移動制御、OCT合焦レンズ43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、光スキャナー42の動作制御などを行う。 As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the photographing light source 15, and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the photographing focusing lens 31, and the OCT focusing lens 43. It performs movement control, movement control of the reflection rod 67, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the optical scanner 42, and the like.

表示装置3の制御として、演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。 As a control of the display device 3, the arithmetic control unit 200 causes the display device 3 to display the OCT image of the eye to be inspected E.

OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光路長変更部114の移動制御、アッテネータ120の動作制御、偏波コントローラ103、118の動作制御、検出器125の動作制御、DAQ130の動作制御などを行う。 As the control of the OCT unit 100, the arithmetic control unit 200 controls the operation of the light source unit 101, the movement control of the optical path length changing unit 114, the operation control of the attenuator 120, the operation control of the polarization controllers 103 and 118, and the operation of the detector 125. Control, operation control of DAQ130, etc. are performed.

演算制御ユニット200は、例えば、従来のコンピュータと同様に、プロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、例えばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。 The arithmetic control unit 200 includes, for example, a processor, RAM, ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer. A computer program for controlling the ophthalmologic device 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, circuit boards for forming OCT images. Further, the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100、及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。 The fundus camera unit 2, the display device 3, the OCT unit 100, and the arithmetic control unit 200 may be integrally configured (that is, in a single housing), or may be separately configured in two or more housings. It may have been done.

〔制御系〕
図3に、眼科装置1の制御系の構成例を示す。図3において、眼科装置1に含まれる構成要素の一部が省略されている。
[Control system]
FIG. 3 shows a configuration example of the control system of the ophthalmic appliance 1. In FIG. 3, some of the components included in the ophthalmic appliance 1 are omitted.

演算制御ユニット200は、制御部210を含み、眼底カメラユニット2、表示装置3、及びOCTユニット100の各部を制御する。 The arithmetic control unit 200 includes a control unit 210 and controls each unit of the fundus camera unit 2, the display device 3, and the OCT unit 100.

(制御部)
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
(Control unit)
The control unit 210 executes various controls. The control unit 210 includes a main control unit 211 and a storage unit 212.

(主制御部)
主制御部211は、プロセッサを含み、眼科装置1の各部を制御する。例えば、主制御部211は、眼底カメラユニット2の合焦駆動部31A及び43A、イメージセンサ35及び38、LCD39、光路長変更部41、光スキャナー42、及び光学系の移動(移動機構150)などを制御する。更に、主制御部211は、OCTユニット100の光源ユニット101、光路長変更部114、アッテネータ120、偏波コントローラ103及び118、検出器125、DAQ130などを制御する。
(Main control unit)
The main control unit 211 includes a processor and controls each unit of the ophthalmic apparatus 1. For example, the main control unit 211 includes focusing drive units 31A and 43A of the fundus camera unit 2, image sensors 35 and 38, LCD 39, an optical path length changing unit 41, an optical scanner 42, and movement of an optical system (movement mechanism 150). To control. Further, the main control unit 211 controls the light source unit 101 of the OCT unit 100, the optical path length changing unit 114, the attenuator 120, the polarization controllers 103 and 118, the detector 125, the DAT 130, and the like.

例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部300により行われる。 For example, the main control unit 211 displays the fixative at a position on the screen of the LCD 39 corresponding to the fixative position manually or automatically set. In addition, the main control unit 211 can change the display position of the fixative displayed on the LCD 39 (continuously or stepwise). Thereby, the fixative can be moved (that is, the fixative position can be changed). The display position and movement mode of the fixative are set manually or automatically. Manual settings are made using, for example, a GUI. The automatic setting is performed by, for example, the data processing unit 300.

合焦駆動部31Aは、撮影光学系30の光軸方向に撮影合焦レンズ31を移動させるとともに、照明光学系10の光軸方向にフォーカス光学系60を移動させる。それにより、撮影光学系30の合焦位置が変更される。いくつかの実施形態では、合焦駆動部31Aは、撮影合焦レンズ31を移動させる機構と、フォーカス光学系60を移動させる機構とを個別に有する。合焦駆動部31Aは、フォーカス調整を行うときなどに制御される。 The focusing drive unit 31A moves the photographing focusing lens 31 in the optical axis direction of the photographing optical system 30 and moves the focus optical system 60 in the optical axis direction of the illumination optical system 10. As a result, the focusing position of the photographing optical system 30 is changed. In some embodiments, the focusing drive unit 31A individually has a mechanism for moving the photographing focusing lens 31 and a mechanism for moving the focus optical system 60. The focusing drive unit 31A is controlled when adjusting the focus or the like.

合焦駆動部43Aは、測定光路の光軸方向にOCT合焦レンズ43を移動させる。それにより、測定光LSの合焦位置が変更される。例えば、OCT合焦レンズ43を第1レンズ位置に移動させることにより、測定光LSの合焦位置を眼底Ef又はその近傍に配置することができる。例えば、OCT合焦レンズ43を第2レンズ位置に移動させることにより、測定光LSの合焦位置を遠点位置に配置して測定光LSを平行光束にすることができる。測定光LSの合焦位置は、測定光LSのビームウェストの深さ位置(z位置)に相当する。 The focusing drive unit 43A moves the OCT focusing lens 43 in the optical axis direction of the measurement optical path. As a result, the focusing position of the measurement light LS is changed. For example, by moving the OCT focusing lens 43 to the first lens position, the focusing position of the measurement light LS can be arranged at or near the fundus Ef. For example, by moving the OCT focusing lens 43 to the second lens position, the focusing position of the measurement light LS can be arranged at a far point position and the measurement light LS can be made into a parallel luminous flux. The in-focus position of the measurement light LS corresponds to the depth position (z position) of the beam waist of the measurement light LS.

移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、パルスモータ等のアクチュエータを含み、主制御部211からの制御を受けて動作する。 The moving mechanism 150 moves, for example, at least the fundus camera unit 2 (optical system) three-dimensionally. In a typical example, the moving mechanism 150 includes at least a mechanism for moving the fundus camera unit 2 in the x direction (horizontal direction), a mechanism for moving the fundus camera unit 2 in the y direction (vertical direction), and a mechanism for moving the fundus camera unit 2 in the z direction (depth direction). , Includes a mechanism for moving in the front-back direction). The mechanism for moving in the x direction includes, for example, an x stage that can move in the x direction and an x movement mechanism that moves the x stage. The mechanism for moving in the y direction includes, for example, an y stage that can move in the y direction and a y movement mechanism that moves the y stage. The mechanism for moving in the z direction includes, for example, a z stage that can move in the z direction and a z movement mechanism that moves the z stage. Each moving mechanism includes an actuator such as a pulse motor and operates under the control of the main control unit 211.

移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。 Control over the moving mechanism 150 is used in alignment and tracking. Tracking is to move the device optical system according to the eye movement of the eye E to be inspected. Alignment and focus adjustment are performed in advance when tracking is performed. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by making the position of the device optical system follow the eye movement. In some embodiments, the moving mechanism 150 is configured to control the optical path length of the reference light (hence, the optical path length difference between the optical path of the measurement light and the optical path of the reference light).

マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザが後述のユーザインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。 In the case of manual alignment, the user operates the user interface 240 described later so that the displacement of the eye E to be inspected with respect to the optical system is canceled, so that the optical system and the eye E to be inspected are relatively moved. For example, the main control unit 211 controls the movement mechanism 150 by outputting a control signal corresponding to the operation content for the user interface 240 to the movement mechanism 150 to relatively move the optical system and the eye E to be inspected.

オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより光学系と被検眼Eとを相対移動させる。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。 In the case of auto-alignment, the main control unit 211 controls the movement mechanism 150 so that the displacement of the eye E to be inspected with respect to the optical system is canceled, so that the optical system and the eye E to be inspected are relatively moved. In some embodiments, the main control unit 211 controls the optical system so that the optical axis of the optical system substantially coincides with the axis of the eye E to be inspected and the distance of the optical system to the eye E to be inspected is a predetermined operating distance. Is output to the moving mechanism 150 to control the moving mechanism 150 to move the optical system and the eye E to be inspected relative to each other. Here, the working distance is a default value also called the working distance of the objective lens 22, and corresponds to the distance between the eye E to be inspected and the optical system at the time of measurement using the optical system (at the time of photographing).

主制御部211は、眼底カメラユニット2等を制御することにより眼底撮影及び前眼部撮影を制御する。また、主制御部211は、眼底カメラユニット2及びOCTユニット100等を制御することによりOCT計測を制御する。主制御部211は、OCT計測を行う前に複数の予備的な動作を実行可能である。予備的な動作としては、アライメント、フォーカス粗調整、偏波調整、フォーカス微調整などがある。複数の予備的な動作は、所定の順序で実行される。いくつかの実施形態では、複数の予備的な動作は、上記の順序で実行される。 The main control unit 211 controls fundus photography and anterior eye photography by controlling the fundus camera unit 2 and the like. Further, the main control unit 211 controls the OCT measurement by controlling the fundus camera unit 2, the OCT unit 100, and the like. The main control unit 211 can perform a plurality of preliminary operations before performing the OCT measurement. Preliminary operations include alignment, coarse focus adjustment, polarization adjustment, and fine focus adjustment. The plurality of preliminary operations are performed in a predetermined order. In some embodiments, the plurality of preliminary operations are performed in the above order.

なお、予備的な動作の種別や順序はこれに限定されるものではなく、任意である。例えば、被検眼Eが小瞳孔眼であるか否か判定するための予備動作(小瞳孔判定)を予備的な動作に加えることができる。小瞳孔判定は、例えば、フォーカス粗調整と光路長差調整との間に実行される。いくつかの実施形態では、小瞳孔判定は、以下の一連の処理を含む:被検眼Eの正面画像(前眼部画像)の取得する処理;瞳孔に相当する画像領域を特定する処理;特定された瞳孔領域のサイズ(径、周長など)を求める処理;求められたサイズに基づき小瞳孔眼か否か判定する処理(閾値処理);小瞳孔眼であると判定された場合に絞り19を制御する処理。いくつかの実施形態では、瞳孔サイズを求めるために瞳孔領域を円近似又は楕円近似する処理を更に含む。 The type and order of preliminary operations are not limited to this, and are arbitrary. For example, a preliminary operation (small pupil determination) for determining whether or not the eye to be inspected E is a small pupil eye can be added to the preliminary operation. The small pupil determination is performed, for example, between the coarse focus adjustment and the optical path length difference adjustment. In some embodiments, the small pupil determination comprises the following sequence of processes: the process of acquiring a frontal image (anterior eye image) of the eye E to be examined; the process of identifying an image region corresponding to the pupil; identified. Processing to determine the size (diameter, circumference, etc.) of the pupil region; processing to determine whether or not the eye is a small pupil based on the determined size (threshold processing); The process to control. Some embodiments further include a circular or elliptical approximation of the pupil region to determine the pupil size.

フォーカス粗調整は、スプリット視標を用いたフォーカス調整である。なお、あらかじめ取得された眼屈折力と撮影合焦レンズ31の位置とを関連付けた情報と、被検眼Eの屈折力の測定値とに基づいて撮影合焦レンズ31の位置を決定することにより、フォーカス粗調整を行うこともできる。 The coarse focus adjustment is a focus adjustment using a split optotype. By determining the position of the photographing focusing lens 31 based on the information relating the eye refraction force acquired in advance and the position of the photographing focusing lens 31 and the measured value of the refraction force of the eye E to be inspected. You can also make rough focus adjustments.

フォーカス微調整は、OCT計測の干渉感度に基づいて行われる。例えば、被検眼EのOCT計測により取得された干渉信号の干渉強度(干渉感度)をモニタすることにより、干渉強度が最大となるようなOCT合焦レンズ43の位置を求め、その位置にOCT合焦レンズ43を移動させることにより、フォーカス微調整を実行することができる。 The focus fine adjustment is performed based on the interference sensitivity of the OCT measurement. For example, by monitoring the interference intensity (interference sensitivity) of the interference signal acquired by the OCT measurement of the eye E to be inspected, the position of the OCT focusing lens 43 that maximizes the interference intensity is obtained, and the OCT alignment is performed at that position. By moving the focusing lens 43, it is possible to perform fine focus adjustment.

光路長差調整においては、被検眼Eにおける所定の位置が深さ方向の計測範囲の基準位置になるように制御される。この制御は、光路長変更部41、114の少なくとも一方に対して行われる。それにより、測定光路と参照光路との間の光路長差が調整される。光路長差調整により基準位置を設定しておくことで、波長掃引速度の変更を行うだけで深さ方向の所望の計測範囲に対して精度よくOCT計測を行うことができるようになる。 In the optical path length difference adjustment, a predetermined position in the eye E to be inspected is controlled so as to be a reference position in the measurement range in the depth direction. This control is performed on at least one of the optical path length changing units 41 and 114. Thereby, the optical path length difference between the measurement optical path and the reference optical path is adjusted. By setting the reference position by adjusting the optical path length difference, it becomes possible to accurately perform OCT measurement for a desired measurement range in the depth direction only by changing the wavelength sweep speed.

偏波調整においては、測定光LSと参照光LRとの干渉効率を最適化するために参照光LRの偏波状態が調整される。 In the polarization adjustment, the polarization state of the reference light LR is adjusted in order to optimize the interference efficiency between the measurement light LS and the reference light LR.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底画像の画像データ、前眼部画像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。
(Memory)
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, image data of an anterior eye portion image, eye information to be inspected, and the like. The eye test information includes information about the subject such as the patient ID and name, and information about the test eye such as left eye / right eye identification information.

また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。 Further, various programs and data for operating the ophthalmic apparatus 1 are stored in the storage unit 212.

制御部210は、画像形成部230と、データ処理部300とを制御することが可能である。 The control unit 210 can control the image forming unit 230 and the data processing unit 300.

(画像形成部)
画像形成部230は、検出器125からの検出信号をDAQ130でサンプリングすることにより得られたサンプリングデータに基づいて、被検眼EのOCT画像(画像データ)を形成する。画像形成部230により形成されるOCT画像には、Aスキャン(Aモード)画像、Bスキャン(Bモード)画像(断層像)、Cスキャン(Cモード)画像などがある。この処理には、従来のスウェプトソースタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部230は、そのタイプに応じた公知の処理を実行する。
(Image forming part)
The image forming unit 230 forms an OCT image (image data) of the eye E to be inspected based on the sampling data obtained by sampling the detection signal from the detector 125 with the DAQ 130. The OCT image formed by the image forming unit 230 includes an A scan (A mode) image, a B scan (B mode) image (tomographic image), a C scan (C mode) image, and the like. This process includes processing such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform), as in the case of the conventional swept source type OCT. For other types of OCT devices, the image forming unit 230 performs known processing according to the type.

画像形成部230は、例えば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。 The image forming unit 230 includes, for example, the circuit board described above. In this specification, "image data" and "image" based on the "image data" may be equated with each other.

(データ処理部)
データ処理部300は、被検眼Eの撮影やOCT計測により取得されたデータを処理する。例えば、データ処理部300は、画像形成部230により形成された画像に対して各種の画像処理や解析処理を施す。具体的には、データ処理部300は、画像の輝度補正等の各種補正処理を実行する。また、データ処理部300は、眼底カメラユニット2により得られた画像(眼底画像、前眼部画像等)に対して各種の画像処理や解析処理を施すことが可能である。
(Data processing unit)
The data processing unit 300 processes the data acquired by photographing the eye E to be inspected and measuring the OCT. For example, the data processing unit 300 performs various image processing and analysis processing on the image formed by the image forming unit 230. Specifically, the data processing unit 300 executes various correction processes such as image brightness correction. In addition, the data processing unit 300 can perform various image processing and analysis processing on the image (the fundus image, the anterior eye portion image, etc.) obtained by the fundus camera unit 2.

データ処理部300は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Ef又は前眼部Eaの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部300は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。 The data processing unit 300 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus Ef or the anterior segment Ea. The image data of the three-dimensional image means the image data in which the positions of the pixels are defined by the three-dimensional coordinate system. As the image data of the three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data, voxel data, or the like. When displaying an image based on volume data, the data processing unit 300 performs rendering processing (volume rendering, MIP (Maximum Integrity Projection: maximum value projection), etc.) on the volume data to see from a specific line-of-sight direction. The image data of the pseudo three-dimensional image at the time is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 It is also possible to form stack data of a plurality of tomographic images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scan lines based on the positional relationship of the scan lines. That is, the stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, embedding them in one three-dimensional space). be.

データ処理部300は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(縦断面像、軸方向断面像)、任意断面におけるCモード画像(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bモード画像やCモード画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。Cモード画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。 The data processing unit 300 performs various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to obtain a B-mode image (vertical cross-sectional image, axial cross-sectional image) in an arbitrary cross section, and an arbitrary cross section. C-mode images (horizontal cross-sectional images, horizontal cross-sectional images), projection images, shadowgrams, and the like can be formed. An image of an arbitrary cross section, such as a B-mode image or a C-mode image, is formed by selecting pixels (pixels, voxels) on a designated cross section from a three-dimensional data set. The projection image is formed by projecting a three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction). The shadow gram is formed by projecting a part of a three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction. An image with the front side of the eye to be inspected as a viewpoint, such as a C-mode image, a projection image, and a shadow gram, is called a front image (en-face image).

データ処理部300は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBモード画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。 The data processing unit 300 is a B-mode image or a frontal image (blood vessel-enhanced image, angiogram) in which retinal blood vessels and choroidal blood vessels are emphasized based on data collected in time series by OCT (for example, B-scan image data). Can be built. For example, time-series OCT data can be collected by repeatedly scanning substantially the same site of the eye E to be inspected.

いくつかの実施形態では、データ処理部300は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部300は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA像を形成する。 In some embodiments, the data processing unit 300 compares the time-series B-scan images obtained by the B-scan on substantially the same portion, and sets the pixel value of the signal strength change portion to the pixel value corresponding to the change. By converting, an enhanced image in which the changed part is emphasized is constructed. Further, the data processing unit 300 forms an OCTA image by extracting information having a predetermined thickness at a desired portion from the constructed plurality of emphasized images and constructing the image as an en-face image.

データ処理部300により生成された画像(例えば、3次元画像、Bモード画像、Cモード画像、プロジェクション画像、シャドウグラム、OCTA像)もまたOCT画像に含まれる。 Images generated by the data processing unit 300 (eg, three-dimensional images, B-mode images, C-mode images, projection images, shadowgrams, OCTA images) are also included in the OCT images.

更に、データ処理部300は、OCT計測により得られた干渉光の検出結果を解析してフォーカス微調整制御における測定光LSのフォーカス状態を判定する。例えば、主制御部211は、合焦駆動部43Aを所定のアルゴリズムに従って制御しつつ、反復的なOCT計測を行う。データ処理部300は、OCT計測により繰り返し取得される干渉光LCの検出結果を解析することで、OCT画像の画質に関する所定の評価値を算出する。データ処理部300は、算出された評価値が閾値以下であるか否か判定する。いくつかの実施形態では、フォーカス微調整は、算出される評価値が閾値以下になるまで継続される。すなわち、評価値が閾値以下であるとき測定光LSのフォーカス状態が適正であると判断され、フォーカス微調整は、測定光LSのフォーカス状態が適正であると判断されるまで継続される。 Further, the data processing unit 300 analyzes the detection result of the interference light obtained by the OCT measurement and determines the focus state of the measurement light LS in the focus fine adjustment control. For example, the main control unit 211 performs repetitive OCT measurement while controlling the focusing drive unit 43A according to a predetermined algorithm. The data processing unit 300 calculates a predetermined evaluation value regarding the image quality of the OCT image by analyzing the detection result of the interference light LC repeatedly acquired by the OCT measurement. The data processing unit 300 determines whether or not the calculated evaluation value is equal to or less than the threshold value. In some embodiments, focus fine-tuning is continued until the calculated evaluation value is below the threshold. That is, when the evaluation value is equal to or less than the threshold value, it is determined that the focus state of the measurement light LS is appropriate, and the focus fine adjustment is continued until it is determined that the focus state of the measurement light LS is appropriate.

いくつかの実施形態では、主制御部211は、上記のような反復的なOCT計測を行って干渉信号を取得しつつ、逐次に取得される干渉信号の強度(干渉強度、干渉感度)をモニタする。更に、このモニタ処理を行いながら、OCT合焦レンズ43を移動させることにより、干渉強度が最大となるようなOCT合焦レンズ43の位置を探索する。このようなフォーカス微調整によれば、干渉強度が最適化されるような位置にOCT合焦レンズ43を導くことができる。 In some embodiments, the main control unit 211 monitors the strength (interference intensity, interference sensitivity) of the sequentially acquired interference signals while acquiring the interference signal by performing the repetitive OCT measurement as described above. do. Further, by moving the OCT focusing lens 43 while performing this monitoring process, the position of the OCT focusing lens 43 that maximizes the interference intensity is searched for. By such fine adjustment of the focus, the OCT focusing lens 43 can be guided to a position where the interference intensity is optimized.

また、データ処理部300は、OCT計測により得られた干渉光の検出結果を解析して、測定光LS及び参照光LRの少なくとも一方の偏波状態を判定する。例えば、主制御部211は、偏波コントローラ103、118の少なくとも一方を所定のアルゴリズムに従って制御しつつ、反復的なOCT計測を行う。いくつかの実施形態では、主制御部211は、アッテネータ120を制御して、参照光LRの減衰量を変更する。データ処理部300は、OCT計測により繰り返し取得される干渉光LCの検出結果を解析することで、OCT画像の画質に関する所定の評価値を算出する。データ処理部300は、算出された評価値が閾値以下であるか否か判定する。この閾値はあらかじめ設定される。偏波調整は、算出される評価値が閾値以下になるまで継続される。すなわち、評価値が閾値以下であるとき測定光LSの偏波状態が適正であると判断され、偏波調整は、測定光LSの偏波状態が適正であると判断されるまで継続される。 Further, the data processing unit 300 analyzes the detection result of the interference light obtained by the OCT measurement, and determines the polarization state of at least one of the measurement light LS and the reference light LR. For example, the main control unit 211 performs repetitive OCT measurement while controlling at least one of the polarization controllers 103 and 118 according to a predetermined algorithm. In some embodiments, the main control unit 211 controls the attenuator 120 to change the attenuation of the reference light LR. The data processing unit 300 calculates a predetermined evaluation value regarding the image quality of the OCT image by analyzing the detection result of the interference light LC repeatedly acquired by the OCT measurement. The data processing unit 300 determines whether or not the calculated evaluation value is equal to or less than the threshold value. This threshold is preset. The polarization adjustment is continued until the calculated evaluation value becomes equal to or less than the threshold value. That is, when the evaluation value is equal to or less than the threshold value, it is determined that the polarization state of the measurement light LS is appropriate, and the polarization adjustment is continued until it is determined that the polarization state of the measurement light LS is appropriate.

いくつかの実施形態では、主制御部211は、偏波調整においても干渉強度をモニタすることが可能である。 In some embodiments, the main control unit 211 can also monitor the interference strength in the polarization adjustment.

実施形態に係るデータ処理部300は、画像形成部230又はデータ処理部300によって形成された画像が所定の解析エラー要因を含む解析エラー画像であるか否かを判定する。それにより、一定の判定基準で再撮影(再取得、再計測)の要否を自動で判定することが可能である。 The data processing unit 300 according to the embodiment determines whether or not the image formed by the image forming unit 230 or the data processing unit 300 is an analysis error image including a predetermined analysis error factor. Thereby, it is possible to automatically determine the necessity of re-imaging (re-acquisition, re-measurement) based on a certain criterion.

図4~図11に、実施形態に係るデータ処理部300の説明図を示す。図4は、実施形態に係るデータ処理部300の構成例のブロック図を表す。図5は、図4のデータ処理部300の動作を説明するための概略図を表す。図6は、図5の乳頭出血(DH)判定モデル311の構成例を表す。図7は、図4の第1学習部410によるDH判定モデル311に対する機械学習を説明するための概略図を表す。図8は、図5の乳頭出血(DH)領域検出モデル321の構成例を表す。図9は、図4の第2学習部420によるDH領域検出モデル321に対する機械学習を説明するための概略図を表す。図10及び図11は、図5の解析部360の動作を説明するための概略図を表す。 4 to 11 show explanatory views of the data processing unit 300 according to the embodiment. FIG. 4 shows a block diagram of a configuration example of the data processing unit 300 according to the embodiment. FIG. 5 shows a schematic diagram for explaining the operation of the data processing unit 300 of FIG. FIG. 6 shows a configuration example of the papillary bleeding (DH) determination model 311 of FIG. FIG. 7 shows a schematic diagram for explaining machine learning for the DH determination model 311 by the first learning unit 410 of FIG. FIG. 8 shows a configuration example of the papillary bleeding (DH) region detection model 321 of FIG. FIG. 9 shows a schematic diagram for explaining machine learning for the DH region detection model 321 by the second learning unit 420 of FIG. 10 and 11 show schematic views for explaining the operation of the analysis unit 360 of FIG.

データ処理部300は、上記のデータ処理に加えて、眼底カメラユニット2を用いて取得された被検眼Eの眼底画像(例えば、上記のキャプチャ画像)における乳頭出血(DH)領域を検出し、検出されたDH領域に対する解析情報を生成することが可能である。このようなデータ処理部300は、判定器310と、検出器320と、プロジェクション画像形成部340と、位置合わせ部350と、解析部360と、学習部400とを含む。データ処理部300には、学習部400が含まれなくてもよい。 In addition to the above data processing, the data processing unit 300 detects and detects the papillary bleeding (DH) region in the fundus image (for example, the above-mentioned captured image) of the eye E to be inspected acquired by using the fundus camera unit 2. It is possible to generate analysis information for the DH region. Such a data processing unit 300 includes a determination unit 310, a detector 320, a projection image forming unit 340, an alignment unit 350, an analysis unit 360, and a learning unit 400. The data processing unit 300 does not have to include the learning unit 400.

図5に示すように、判定器310は、機械学習により得られたDH判定モデル311を用いて、眼底カメラユニット2を用いて取得された眼底画像IMG0に対してDHの有無を判定する。検出器320は、機械学習により得られたDH領域検出モデル321を用いて、判定器310によりDHがあると判定された眼底画像IMG0におけるDH領域を検出する。プロジェクション画像形成部340は、眼底画像IMG0が取得された被検眼Eに対してOCTユニット100を用いて実行されたOCT計測により得られたOCTデータに基づいてプロジェクション画像を形成する。位置合わせ部350は、DH領域が検出された眼底画像IMG0と、OCTデータとしてのプロジェクション画像との位置合わせを行う。 As shown in FIG. 5, the determination device 310 uses the DH determination model 311 obtained by machine learning to determine the presence or absence of DH with respect to the fundus image IMG0 acquired by the fundus camera unit 2. The detector 320 detects the DH region in the fundus image IMG0 determined by the determination device 310 to have DH by using the DH region detection model 321 obtained by machine learning. The projection image forming unit 340 forms a projection image based on the OCT data obtained by the OCT measurement performed by using the OCT unit 100 for the eye E to be inspected from which the fundus image IMG0 is acquired. The alignment unit 350 aligns the fundus image IMG0 in which the DH region is detected with the projection image as OCT data.

解析部360は、位置合わせ部350によりプロジェクション画像(すなわち、OCT座標系で規定されたOCTデータ)との位置合わせが行われた眼底画像を解析することにより、DH領域の位置情報、形状情報及び発生情報を生成する。このような解析部360は、位置情報生成部361と、形状情報生成部362と、発生情報生成部363とを含む。位置情報生成部361は、DH領域の位置情報を生成する。形状情報生成部362は、DH領域の形状情報を生成する。発生情報生成部363は、DH領域の発生情報を生成する。 The analysis unit 360 analyzes the fundus image that has been aligned with the projection image (that is, the OCT data defined by the OCT coordinate system) by the alignment unit 350, so that the position information, the shape information, and the shape information of the DH region can be analyzed. Generate occurrence information. Such an analysis unit 360 includes a position information generation unit 361, a shape information generation unit 362, and a generation information generation unit 363. The position information generation unit 361 generates the position information of the DH region. The shape information generation unit 362 generates shape information in the DH region. The generation information generation unit 363 generates generation information in the DH region.

学習部400は、機械学習を実行することによりDH判定モデル311及びDH領域検出モデル321を生成する。学習部400は、第1学習部410と、第2学習部420とを含む。第1学習部410は、機械学習を実行することによりDH判定モデル311を生成する。第2学習部420は、機械学習を実行することによりDH領域検出モデル321を生成する。 The learning unit 400 generates the DH determination model 311 and the DH region detection model 321 by executing machine learning. The learning unit 400 includes a first learning unit 410 and a second learning unit 420. The first learning unit 410 generates the DH determination model 311 by executing machine learning. The second learning unit 420 generates the DH region detection model 321 by executing machine learning.

(判定器)
判定器310は、事前に機械学習により得られた学習済みモデルであるDH判定モデル311を用いて、眼底画像IMG0に対してDHの有無を判定する。
(Judgment device)
The determination device 310 determines the presence or absence of DH with respect to the fundus image IMG0 by using the DH determination model 311 which is a learned model obtained in advance by machine learning.

実施形態に係る学習済みモデルは、CPU及びメモリを備えるコンピュータ(プロセッサ)において用いられる。判定器310の機能は、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network:以下、CNN)により実現される。すなわち、CPUがメモリに記憶された学習済みモデルからの指令に従って、後述の特徴量抽出部312の畳み込み層314に入力された眼底画像の画素値に対し、CNNにおける学習済みの重み付け係数と応答関数等に基づく演算を行い、後述の分類器313から判定結果(分類結果)を出力するように動作する。このような構成を有する判定器310は、眼底画像の解像度を段階的に落としつつ局所的な相関パターンを抽出し、抽出された相関パターンに基づいて判定結果を出力することができる。 The trained model according to the embodiment is used in a computer (processor) including a CPU and a memory. The function of the determination device 310 is realized by, for example, a convolutional neural network (hereinafter referred to as CNN). That is, the CPU has learned the weighting coefficient and the response function in the CNN with respect to the pixel value of the fundus image input to the convolutional layer 314 of the feature amount extraction unit 312 described later according to the command from the trained model stored in the memory. It operates so as to perform an operation based on the above and output a determination result (classification result) from the classifier 313 described later. The determination device 310 having such a configuration can extract a local correlation pattern while gradually reducing the resolution of the fundus image, and output a determination result based on the extracted correlation pattern.

図6に示すように、DH判定モデル311(判定器310)は、特徴量抽出部312と、分類器313とを含む。特徴量抽出部312は、入力された眼底画像IMG0に対して、所定の画像領域ごとに特徴量の抽出とダウンサンプリング(フィルタリング)とを繰り返して当該眼底画像の特徴量を抽出する。分類器313は、特徴量抽出部312により抽出された特徴量に基づいてDHの有無を示す出力情報を生成し、生成された出力情報に基づいて眼底画像IMG0にDHがあるか否かを示す情報Out1(DHあり/DH無し)を出力する。 As shown in FIG. 6, the DH determination model 311 (determiner 310) includes a feature amount extraction unit 312 and a classifier 313. The feature amount extraction unit 312 repeatedly extracts the feature amount and downsampling (filtering) for each predetermined image region with respect to the input fundus image IMG0 to extract the feature amount of the fundus image. The classifier 313 generates output information indicating the presence or absence of DH based on the feature amount extracted by the feature amount extraction unit 312, and indicates whether or not the fundus image IMG0 has DH based on the generated output information. Information Out1 (with / without DH) is output.

特徴量抽出部312は、畳み込み層(Convolution Layer)とプーリング層(Pooling Layer)とを含むユニットが多段接続された複数のユニットを含む。各ユニットでは、畳み込み層の出力にプーリング層の入力が接続される。最初の段の畳み込み層の入力には、眼底画像において対応する画素の画素値が入力される。後段の畳み込み層の入力は、前段のプーリング層の出力に接続される。 The feature amount extraction unit 312 includes a plurality of units in which units including a convolution layer and a pooling layer are connected in multiple stages. In each unit, the input of the pooling layer is connected to the output of the convolutional layer. The pixel values of the corresponding pixels in the fundus image are input to the input of the convolution layer in the first stage. The input of the convolutional layer in the subsequent stage is connected to the output of the pooling layer in the previous stage.

図6では、特徴量抽出部312は、2段に接続された2つのユニットを含む。すなわち、特徴量抽出部312は、畳み込み層314とプーリング層315とを含むユニットの後段に、畳み込み層316とプーリング層317とを含むユニットが接続される。プーリング層315の出力は、畳み込み層316の入力に接続される。 In FIG. 6, the feature amount extraction unit 312 includes two units connected in two stages. That is, in the feature amount extraction unit 312, the unit including the convolution layer 316 and the pooling layer 317 is connected to the subsequent stage of the unit including the convolution layer 314 and the pooling layer 315. The output of the pooling layer 315 is connected to the input of the convolution layer 316.

分類器313は、全結合層(Fully Connected Layer)318、319を含み、全結合層318の出力は全結合層319の入力に接続される。 The classifier 313 includes a Fully Connected Layer 318, 319, and the output of the fully connected layer 318 is connected to the input of the fully connected layer 319.

特徴量抽出部312及び分類器313において、接続された2つの層のニューロン間では学習済みの重み付け係数(学習パラメータ)が割り当てられる。重み付け係数は、機械学習を実行することにより更新される。各ニューロンは、入力される1以上のニューロンからの重み付け係数を加味した演算結果に対し、応答関数を用いて演算を行い、得られた演算結果を次の段のニューロンに出力する。 In the feature amount extraction unit 312 and the classifier 313, a learned weighting coefficient (learning parameter) is assigned between the neurons in the two connected layers. The weighting factor is updated by performing machine learning. Each neuron performs an operation using a response function on the operation result including the weighting coefficient from one or more input neurons, and outputs the obtained operation result to the neuron in the next stage.

図7に示すように、第1学習部410は、既存の初期モデルに対して、DHの有無を示すラベルが付された眼底画像LIMGを教師データとして公知の機械学習を行うことにより、初期モデルに対して重み付け係数が更新されたDH判定モデル311を生成する。既存の重み付け係数は、DHの有無を示すラベルが付された眼底画像LIMGを教師データとする機械学習により更新される。教師データは、眼底画像と当該眼底画像にDHが描出されているか否かを示すラベル情報とを一対とする複数対のデータであってよい。DHの有無は、眼底画像毎に、事前に医師による判断結果に基づいて決定され、眼底画像のラベルとして付される。第1学習部410は、生成されたDH判定モデル311に対して、更に別の教師データを用いた機械学習を実行することで、DH判定モデル311を更に学習させることが可能である。 As shown in FIG. 7, the first learning unit 410 performs known machine learning on the existing initial model using the fundus image LIMG labeled with the presence / absence of DH as teacher data, thereby performing the initial model. A DH determination model 311 with an updated weighting coefficient is generated. The existing weighting coefficient is updated by machine learning using the fundus image LIMG with a label indicating the presence or absence of DH as teacher data. The teacher data may be a plurality of pairs of data in which the fundus image and the label information indicating whether or not the DH is drawn on the fundus image are paired. The presence or absence of DH is determined in advance for each fundus image based on the judgment result by a doctor, and is attached as a label of the fundus image. The first learning unit 410 can further learn the DH determination model 311 by executing machine learning using another teacher data on the generated DH determination model 311.

すなわち、第1学習部410は、複数の眼底画像LIMGを訓練データとして公知の教師あり学習(supervised learning)(機械学習)を実行することで被検眼Eの眼底画像にDHが描出されているか否かを判定(分類)するための学習済みモデルであるDH判定モデル311を生成する。機械学習は、教師なし学習(unsupervised learning)、又は強化学習(reinforecement learning)であってよい。いくつかの実施形態では、転移学習(transfer lerning)によって重み付け係数の更新が行われる。 That is, whether or not DH is visualized on the fundus image of the eye E to be inspected by the first learning unit 410 by performing known supervised learning (machine learning) using a plurality of fundus image LiMGs as training data. A DH determination model 311 which is a trained model for determining (classifying) is generated. Machine learning may be unsupervised learning or reinforcement learning. In some embodiments, transfer learning is used to update the weighting factors.

DH判定モデル311(特徴量抽出部312)は、VGG16、VGG19、InceptionV3、ResNet18、ResNet50、Xception、DenseNet201等の公知の層構造を有していてよい。分類器313は、Random Forestやサポートベクターマシン(Support Vector Machined:SVM)等の公知の構成を有していてよい。例えば、第1実施形態に係るDH判定モデル311は、DenseNet201により構築される。 The DH determination model 311 (feature amount extraction unit 312) may have a known layer structure such as VGG16, VGG19, InsertionV3, ResNet18, ResNet50, Xception, DenseNet201 and the like. The classifier 313 may have a known configuration such as a Random Forest or a support vector machine (SVM). For example, the DH determination model 311 according to the first embodiment is constructed by DenseNet201.

(検出器)
検出器320は、事前に機械学習により得られた学習済みモデルであるDH領域検出モデル321を用いて、判定器310によりDHがあると判定された眼底画像IMG0におけるDH領域を検出する。
(Detector)
The detector 320 detects the DH region in the fundus image IMG0 determined by the determination device 310 to have DH by using the DH region detection model 321 which is a learned model obtained in advance by machine learning.

実施形態に係る学習済みモデルは、CPU及びメモリを備えるコンピュータ(プロセッサ)において用いられる。検出器320の機能は、例えば、CNNにより実現される。すなわち、CPUがメモリに記憶された学習済みモデルからの指令に従って、後述の特徴量抽出部322の畳み込み層324に入力された眼底画像の画素値に対し、CNNにおける学習済みの重み付け係数と応答関数等に基づく演算を行い、後述の復元部323から、検出されたDH領域が描出された画像を出力するように動作する。このような構成を有する検出器320は、畳み込み動作によって眼底画像の解像度を段階的に落としつつ局所的な相関パターンを抽出し、抽出された相関パターンから逆畳み込み動作により眼底画像に対応した検出画像を出力することができる。 The trained model according to the embodiment is used in a computer (processor) including a CPU and a memory. The function of the detector 320 is realized by, for example, CNN. That is, the CPU has learned the weighting coefficient and the response function in the CNN with respect to the pixel value of the fundus image input to the convolutional layer 324 of the feature amount extraction unit 322 described later according to the command from the trained model stored in the memory. It operates so as to output an image in which the detected DH region is drawn from the restoration unit 323, which will be described later, by performing an operation based on the above. The detector 320 having such a configuration extracts a local correlation pattern while gradually reducing the resolution of the fundus image by the convolution operation, and the detection image corresponding to the fundus image by the deconvolution operation from the extracted correlation pattern. Can be output.

図8に示すように、DH領域検出モデル321(検出器320)は、特徴量抽出部322と、復元部323とを含む。特徴量抽出部322は、入力された眼底画像IMG0に対して、所定の画像領域ごとに特徴量の抽出とダウンサンプリング(フィルタリング)とを繰り返して当該眼底画像の特徴量を抽出する。復元部323は、特徴量抽出部322により抽出された特徴量に対して、所定の画像領域ごとに特徴量に対応した画像の復元を繰り返して当該特徴量に対応した検出画像Out2(図5を参照)を出力する。検出画像Out2には、検出されたDH領域が描出される。図8では、検出画像Out2は、DH領域DH0が描出された出力画像(DH領域検出画像)DIMGである。 As shown in FIG. 8, the DH region detection model 321 (detector 320) includes a feature amount extraction unit 322 and a restoration unit 323. The feature amount extraction unit 322 extracts the feature amount of the fundus image by repeating the extraction and downsampling (filtering) of the feature amount for each predetermined image region with respect to the input fundus image IMG0. The restoration unit 323 repeatedly restores the image corresponding to the feature amount for each predetermined image area with respect to the feature amount extracted by the feature amount extraction unit 322, and the detection image Out2 corresponding to the feature amount (FIG. 5). See) is output. The detected DH region is visualized in the detected image Out2. In FIG. 8, the detection image Out2 is an output image (DH region detection image) DIMG in which the DH region DH0 is drawn.

特徴量抽出部322は、特徴量抽出部312と同様に、畳み込み層とプーリング層とを含むユニットが多段接続された複数のユニットを含む。各ユニットでは、畳み込み層の出力にプーリング層の入力が接続される。最初の段の畳み込み層の入力には、眼底画像において対応する画素の画素値が入力される。後段の畳み込み層の入力は、前段のプーリング層の出力に接続される。 Similar to the feature amount extraction unit 312, the feature amount extraction unit 322 includes a plurality of units in which units including a convolution layer and a pooling layer are connected in multiple stages. In each unit, the input of the pooling layer is connected to the output of the convolutional layer. The pixel values of the corresponding pixels in the fundus image are input to the input of the convolution layer in the first stage. The input of the convolutional layer in the subsequent stage is connected to the output of the pooling layer in the previous stage.

図8では、特徴量抽出部322は、2段に接続された2つのユニットを含む。すなわち、特徴量抽出部322は、畳み込み層324とプーリング層325とを含むユニットの後段に、畳み込み層326とプーリング層327とを含むユニットが接続される。プーリング層325の出力は、畳み込み層326の入力に接続される。 In FIG. 8, the feature amount extraction unit 322 includes two units connected in two stages. That is, in the feature amount extraction unit 322, the unit including the convolution layer 326 and the pooling layer 327 is connected to the subsequent stage of the unit including the convolution layer 324 and the pooling layer 325. The output of the pooling layer 325 is connected to the input of the convolutional layer 326.

復元部323は、逆畳み込み層とプーリング層とを含むユニットが1以上の段数で接続された1以上のユニットを含む。各ユニットでは、逆畳み込み層の出力にプーリング層の入力が接続される。最初の段の逆畳み込み層の入力には、特徴量抽出部322のプーリング層の出力が接続される。後段の逆畳み込み層の入力は、前段のプーリング層の出力に接続される。 The restoration unit 323 includes one or more units in which units including the deconvolution layer and the pooling layer are connected in one or more stages. In each unit, the input of the pooling layer is connected to the output of the deconvolution layer. The output of the pooling layer of the feature amount extraction unit 322 is connected to the input of the deconvolution layer in the first stage. The input of the deconvolution layer in the subsequent stage is connected to the output of the pooling layer in the previous stage.

図8では、復元部323は、特徴量抽出部322のプーリング層327に対応した逆畳み込み層328と、1つのユニットとを含む。すなわち、復元部323は、プーリング層327に対応した逆畳み込み層328の後段に、プーリング層329と逆畳み込み層330とを含むユニットが接続される。プーリング層329の出力は、逆畳み込み層330の入力に接続される。 In FIG. 8, the restoration unit 323 includes a deconvolution layer 328 corresponding to the pooling layer 327 of the feature amount extraction unit 322, and one unit. That is, in the restoration unit 323, a unit including the pooling layer 329 and the deconvolution layer 330 is connected to the rear stage of the deconvolution layer 328 corresponding to the pooling layer 327. The output of the pooling layer 329 is connected to the input of the deconvolution layer 330.

DH判定モデル311と同様に、特徴量抽出部322及び復元部323において、接続された2つの層のニューロン間では学習済みの重み付け係数(学習パラメータ)が割り当てられる。各ニューロンは、入力される1以上のニューロンからの重み付け係数を加味した演算結果に対し、応答関数を用いて演算を行い、得られた演算結果を次の段のニューロンに出力する。 Similar to the DH determination model 311, in the feature amount extraction unit 322 and the restoration unit 323, a learned weighting coefficient (learning parameter) is assigned between the neurons in the two connected layers. Each neuron performs an operation using a response function on the operation result including the weighting coefficient from one or more input neurons, and outputs the obtained operation result to the neuron in the next stage.

図9に示すように、第2学習部420は、既存の初期モデルに対して、眼底画像IMG1と当該眼底画像IMG1に描出されたDH領域を表すDH領域画像TG1とを一対とする複数対の画像群を教師データと公知の機械学習を行うことにより、初期モデルに対して重み付け係数が更新されたDH領域検出モデル321を生成する。既存の重み付け係数は、複数対の画像群を教師データとする機械学習により更新される。DH領域画像は、眼底画像毎に、事前に医師による判断結果に基づいて生成される。例えば、医師が操作部240Bを用いて眼底画像IMG1におけるDH領域の境界を指定することでDH領域画像TG1が生成される。第2学習部420は、生成されたDH領域検出モデル321に対して、更に別の教師データを用いた機械学習を実行することで、DH領域検出モデル321を更に学習させることが可能である。 As shown in FIG. 9, the second learning unit 420 has a plurality of pairs of the fundus image IMG1 and the DH region image TG1 representing the DH region drawn on the fundus image IMG1 as a pair with respect to the existing initial model. By performing known machine learning with the image group as teacher data, a DH region detection model 321 in which the weighting coefficient is updated with respect to the initial model is generated. The existing weighting coefficient is updated by machine learning using a plurality of pairs of image groups as teacher data. The DH region image is generated for each fundus image based on the judgment result by the doctor in advance. For example, the DH region image TG1 is generated by the doctor designating the boundary of the DH region in the fundus image IMG1 using the operation unit 240B. The second learning unit 420 can further learn the DH region detection model 321 by executing machine learning using still another teacher data for the generated DH region detection model 321.

すなわち、第2学習部420は、複数対の画像群(眼底画像IMG1、DH領域画像TG1)を訓練データとして公知の教師あり学習(機械学習)を実行することで眼底画像におけるDH領域を検出するための学習済みモデルであるDH領域検出モデル321を生成する。機械学習は、教師なし学習、又は強化学習であってよい。いくつかの実施形態では、転移学習によって重み付け係数の更新が行われる。 That is, the second learning unit 420 detects the DH region in the fundus image by executing known supervised learning (machine learning) using a plurality of pairs of image groups (fund image IMG1, DH region image TG1) as training data. DH region detection model 321 which is a trained model for the purpose is generated. Machine learning may be unsupervised learning or reinforcement learning. In some embodiments, transfer learning updates the weighting factors.

ここで、第2学習部420がDH領域検出モデル321の学習に用いる教師データ(第2教師データ)は、第1学習部410がDH判定モデル311の学習に用いる教師データ(第1教師データ)の少なくとも一部を含む。すなわち、第2学習部420がDH領域検出モデル321の学習に用いる教師データは、第1学習部410がDH判定モデル311の学習に用いる教師データに含まれる眼底画像を含む。これにより、1つの学習済みモデルを用いてDH領域を検出する場合と比較して、教師データの量を増やすことなく、後述のようにDH領域の検出精度を向上させることができる。 Here, the teacher data (second teacher data) used by the second learning unit 420 for learning the DH region detection model 321 is the teacher data (first teacher data) used by the first learning unit 410 for learning the DH determination model 311. Includes at least part of. That is, the teacher data used by the second learning unit 420 for learning the DH region detection model 321 includes the fundus image included in the teacher data used by the first learning unit 410 for learning the DH determination model 311. As a result, it is possible to improve the detection accuracy of the DH region as described later without increasing the amount of teacher data as compared with the case of detecting the DH region using one trained model.

DH領域検出モデル321(検出器320)は、VGG16、VGG19、InceptionV3、ResNet18、ResNet50、Xception、U-Net、ResUnet、ResUnet++等の公知の層構造を有していてよい。例えば、第1実施形態に係るDH領域検出モデル321は、ResUnet++(Debesh Jha etc., “ResUnet++:An Advanced Architecture for Medical Image Segmentation”, 21st IEEE International Symposium on Multimedia, 2019年12月)により構築される。 The DH region detection model 321 (detector 320) may have known layered structures such as VGG16, VGG19, InceptionV3, ResNet18, ResNet50, Xception, U-Net, ResUnet, ResUnet ++ and the like. For example, the DH region detection model 321 according to the first embodiment is described by ResUnet ++ (Debesh Jha etc., “ResUnet ++: An Advanced Architecture for Multimedia Segmentation”, 21st IEEE Construction). ..

(プロジェクション画像形成部)
プロジェクション画像形成部340は、上記のように被検眼Eの眼底Efのプロジェクション画像を形成する。例えば、プロジェクション画像形成部340は、被検眼Eの眼底Efのボリュームデータをz方向に投影することにより眼底Efのプロジェクション画像を形成する。
(Projection image forming part)
The projection image forming unit 340 forms a projection image of the fundus Ef of the eye E to be inspected as described above. For example, the projection image forming unit 340 forms a projection image of the fundus Ef by projecting the volume data of the fundus Ef of the eye to be inspected E in the z direction.

(位置合わせ部)
位置合わせ部350は、DH領域が検出された眼底画像と、プロジェクション画像形成部340によって形成されたプロジェクション画像との位置合わせを行う。位置合わせ部350により位置合わせが行われる眼底画像は、検出器320によって検出されたDH領域が描出された眼底画像である。これにより、位置合わせ部350により位置合わせが行われた眼底画像における各画素の位置をOCT座標系の位置と対応付けることが可能になる。
(Alignment part)
The alignment unit 350 aligns the fundus image in which the DH region is detected with the projection image formed by the projection image forming unit 340. The fundus image in which the alignment is performed by the alignment unit 350 is a fundus image in which the DH region detected by the detector 320 is depicted. This makes it possible to associate the position of each pixel in the fundus image aligned by the alignment unit 350 with the position of the OCT coordinate system.

いくつかの実施形態では、位置合わせ部350は、プロジェクション画像におけるOCTユニット100(干渉光学系)の光軸に相当する位置と眼底画像における眼底カメラユニット2(撮影光学系)の光軸に相当する位置とが一致するように位置合わせを行う。 In some embodiments, the alignment unit 350 corresponds to a position corresponding to the optical axis of the OCT unit 100 (interfering optical system) in the projection image and the optical axis of the fundus camera unit 2 (photographing optical system) in the fundus image. Align the position so that it matches the position.

いくつかの実施形態では、位置合わせ部350は、プロジェクション画像における特徴部位を特定すると共に眼底画像における特徴部位を特定し、両画像における特徴部位の位置が一致するように位置合わせを行う。この場合、例えば、眼底画像における視神経乳頭に相当する領域をプロジェクション画像における視神経乳頭に相当する領域に一致するように自動又は手動で補正するようにしてもよい。OCTデータにより眼底の断層構造から特徴部位を高精度に特定することが可能になるため、眼底画像だけでは判別が困難な視神経乳頭に相当する領域の境界を高精度に検出することが可能になる。 In some embodiments, the alignment unit 350 identifies a feature region in a projection image and a feature region in a fundus image, and aligns the feature regions so that the positions of the feature regions in both images match. In this case, for example, the region corresponding to the optic disc in the fundus image may be automatically or manually corrected so as to match the region corresponding to the optic disc in the projection image. Since the OCT data makes it possible to identify the characteristic site from the tomographic structure of the fundus with high accuracy, it becomes possible to detect the boundary of the region corresponding to the optic nerve head, which is difficult to distinguish from the fundus image alone, with high accuracy. ..

いくつかの実施形態では、位置合わせ部350は、眼底画像とプロジェクション画像との位置合わせの際に、眼底画像及びプロジェクション画像の少なくとも一方をアフィン変換する。例えば、プロジェクション画像は、座標系と共にアフィン変換される。 In some embodiments, the alignment unit 350 affine transforms at least one of the fundus image and the projection image when aligning the fundus image with the projection image. For example, the projection image is affine-transformed along with the coordinate system.

OCT計測により得られるOCTデータは、再現性が高く、且つ、視神経乳頭の位置や形状を高精度に特定することが可能なデータである。その結果、後述の解析部360によるDH領域の解析結果もまた、高い再現性で、高精度に取得することが可能である。 The OCT data obtained by the OCT measurement is highly reproducible and can specify the position and shape of the optic disc with high accuracy. As a result, the analysis result of the DH region by the analysis unit 360 described later can also be acquired with high reproducibility and high accuracy.

(解析部)
解析部360は、位置合わせ部350によりプロジェクション画像との位置合わせが行われた眼底画像を解析することにより、DH領域の位置情報、形状情報及び発生情報を生成する。具体的には、解析部360は、プロジェクション画像において定義される座標系の位置情報を用いて、解析対象の眼底画像において検出された上記のDH領域の位置情報等を生成する。ここで、解析対象は、プロジェクション画像との位置合わせによって視神経乳頭に相当する領域等が補正された眼底画像であってよい。
(Analysis department)
The analysis unit 360 generates position information, shape information, and generation information of the DH region by analyzing the fundus image that has been aligned with the projection image by the alignment unit 350. Specifically, the analysis unit 360 uses the position information of the coordinate system defined in the projection image to generate the position information of the above-mentioned DH region detected in the fundus image to be analyzed. Here, the analysis target may be a fundus image in which a region corresponding to the optic nerve head or the like is corrected by alignment with the projection image.

解析部360は、DH領域の位置情報、形状情報及び発生情報の統計情報を生成することが可能である。統計情報には、複数の被検眼を対象とした統計情報、同一の被検眼(又は被検者)を対象とした統計情報などがある。統計情報の例には、ヒストグラムなどがある。 The analysis unit 360 can generate statistical information of position information, shape information, and generation information of the DH region. Statistical information includes statistical information targeting a plurality of test eyes, statistical information targeting the same test eye (or subject), and the like. Examples of statistical information include histograms.

また、解析部360は、DH領域の検出日又は医師によって推定されたDH領域の発生日に関連付けて、DH領域の位置情報、形状情報及び発生情報、又はこれらの統計情報を時系列に管理することが可能である。 Further, the analysis unit 360 manages the position information, the shape information and the occurrence information of the DH region, or the statistical information thereof in chronological order in relation to the detection date of the DH region or the occurrence date of the DH region estimated by the doctor. It is possible.

位置情報生成部361は、眼底画像における基準位置を基準としてDH領域の位置又は方向などを表す位置情報を生成する。例えば、基準位置は、眼底画像又はプロジェクション画像を解析することにより特定される。基準位置の例として、視神経乳頭の中心、視神経乳頭の重心などがある。 The position information generation unit 361 generates position information indicating the position or direction of the DH region with reference to the reference position in the fundus image. For example, the reference position is identified by analyzing a fundus image or a projection image. Examples of reference positions include the center of the optic disc and the center of gravity of the optic disc.

いくつかの実施形態では、位置情報は、視神経乳頭の中心を基準として、検出されたDH領域の代表位置を示す情報(視神経乳頭の中心を基準としたDH領域の相対位置を示す情報)を含む。DH領域の代表位置の例として、DH領域の中心位置、重心位置、基準位置から最も近いDH領域内の位置、基準位置から最も遠いDH領域内の位置などがある。 In some embodiments, the location information includes information indicating a representative position of the detected DH region relative to the center of the optic disc (information indicating the relative position of the DH region relative to the center of the optic disc). .. Examples of representative positions of the DH region include the center position of the DH region, the position of the center of gravity, the position in the DH region closest to the reference position, and the position in the DH region farthest from the reference position.

いくつかの実施形態では、位置情報は、視神経乳頭の中心を基準として、検出されたDH領域の代表位置の方向(視神経乳頭の中心を通る基準方向に対する角度)を示す情報を含む。 In some embodiments, the positional information includes information indicating the direction of the representative position of the detected DH region (angle with respect to the reference direction through the center of the optic disc) with respect to the center of the optic disc.

いくつかの実施形態では、位置情報は、検出されたDH領域の代表位置が視神経乳頭領域内であるか視神経乳頭領域外であるかを示す情報を含む。いくつかの実施形態では、位置情報は、検出されたDH領域の代表位置が視神経乳頭領域内の視神経乳頭辺縁部(リム)内か視神経乳頭辺縁部外かを示す情報を含む。 In some embodiments, the location information includes information indicating whether the representative location of the detected DH region is within or outside the optic disc region. In some embodiments, the location information includes information indicating whether the representative location of the detected DH region is within the optic disc margin (rim) or outside the optic disc margin.

位置情報生成部361は、上記の複数の位置情報の少なくとも1つを生成することが可能である。 The position information generation unit 361 can generate at least one of the above-mentioned plurality of position information.

形状情報生成部362は、眼底画像において検出されたDH領域の形状を表す形状情報を生成する。このとき、形状情報生成部362は、OCT座標系におけるDH領域の形状と、OCT座標系における1画素当たりのサイズ情報(ピクセルスペーシング)とを用いて、眼底画像におけるDH領域の形状情報を定量的に生成することが可能である。 The shape information generation unit 362 generates shape information representing the shape of the DH region detected in the fundus image. At this time, the shape information generation unit 362 quantifies the shape information of the DH region in the fundus image by using the shape of the DH region in the OCT coordinate system and the size information per pixel (pixel spacing) in the OCT coordinate system. It is possible to generate the coordinates.

いくつかの実施形態では、形状情報は、DH領域の楕円率、面積などを示す情報を含む。例えば、DH領域を楕円近似し、特定された楕円の短軸と長軸との比を算出することで楕円率が求められる。例えば、DH領域の境界を特定し、特定された境界内の画素数をカウントし、OCT座標系における1画素当たりのサイズ情報を用いることで、DH領域の面積が定量的に求められる。 In some embodiments, the shape information includes information indicating the ellipticity, area, etc. of the DH region. For example, the ellipticity can be obtained by approximating the DH region to an ellipse and calculating the ratio between the minor axis and the major axis of the specified ellipse. For example, the area of the DH region can be quantitatively obtained by specifying the boundary of the DH region, counting the number of pixels in the specified boundary, and using the size information per pixel in the OCT coordinate system.

形状情報生成部362は、上記の複数の形状情報の少なくとも1つを生成することが可能である。 The shape information generation unit 362 can generate at least one of the above-mentioned plurality of shape information.

発生情報生成部363は、検出されたDH領域の発生情報を生成する。例えば、発生情報生成部363(解析部360)は、複数の被検眼又は解析対象の被検眼について過去に発生したDH領域の検出日又は医師によって推定されたDH領域の発生日に基づいて、DH領域の発生情報を生成する。 The generation information generation unit 363 generates generation information of the detected DH region. For example, the generation information generation unit 363 (analysis unit 360) DH is based on the detection date of the DH region that has occurred in the past for a plurality of subjects to be inspected or the eye to be analyzed or the occurrence date of the DH region estimated by the doctor. Generate area generation information.

いくつかの実施形態では、発生情報は、DH領域の発生頻度、及びDH領域の発生間隔の少なくとも1つを含む。 In some embodiments, the occurrence information includes at least one of the frequency of occurrence of the DH region and the interval of occurrence of the DH region.

発生頻度には、複数の被検眼又は同一の被検眼におけるDH領域の発生頻度、複数の被検眼又は同一の被検眼におけるDH領域の発生位置毎の頻度などがある。発生位置毎の頻度には、基準位置を基準に放射状に分割されたブロック毎の頻度などがある。この場合、発生情報は、上記の位置情報に基づいてDH領域の発生位置毎に、又は上記の位置情報に基づき特定された、基準位置を基準に放射状に分割されたブロック毎に求められる。 The frequency of occurrence includes the frequency of occurrence of the DH region in a plurality of subjects or the same subject, the frequency of occurrence of the DH region in a plurality of subjects or the same subject, and the like. The frequency for each occurrence position includes the frequency for each block radially divided based on the reference position. In this case, the generation information is obtained for each generation position in the DH region based on the above position information, or for each block radially divided with reference to the reference position specified based on the above position information.

発生間隔は、今回のDH領域の検出日又は医師によって推定された今回のDH領域の発生部と、過去に直近で記録されたDH領域の検出日又は医師によって推定されたDH領域の発生日との間隔により求められる。 The interval of occurrence is the date of detection of the current DH region or the date of occurrence of the current DH region estimated by the doctor, and the date of detection of the DH region recorded most recently in the past or the date of occurrence of the DH region estimated by the doctor. It is obtained by the interval of.

図10に、第1実施形態に係る位置情報生成部361により生成される位置情報の一例を模式的に示す。図10は、複数の被検眼におけるDH領域の位置のヒストグラムを表す。図10では、視神経乳頭を中心にT(耳側)の方向が0度であり、N(鼻側)の方向が180度である。 FIG. 10 schematically shows an example of the position information generated by the position information generation unit 361 according to the first embodiment. FIG. 10 shows a histogram of the positions of the DH regions in a plurality of subjects to be inspected. In FIG. 10, the direction of T (ear side) is 0 degrees and the direction of N (nasal side) is 180 degrees with respect to the optic nerve head.

図10に示すように、視神経乳頭の中心を基準にT(耳側)の方向にDH領域が発生しやすいことが把握できる。図10では、複数の被検眼に対するDH領域の位置のヒストグラムを表すが、位置情報生成部361は、同一の被検眼に対するDH領域の位置のヒストグラムを図10に示すように生成してもよい。 As shown in FIG. 10, it can be understood that the DH region is likely to occur in the T (ear side) direction with respect to the center of the optic nerve head. Although FIG. 10 shows a histogram of the position of the DH region with respect to a plurality of eyes to be inspected, the position information generation unit 361 may generate a histogram of the position of the DH region with respect to the same eye to be inspected as shown in FIG.

図11に、第1実施形態に係る形状情報生成部362により生成される形状情報の一例を模式的に示す。図11は、複数の被検眼におけるDH領域の面積のヒストグラムを表す。図11では、縦軸が頻度を表し、横軸が面積[mm]を表す。 FIG. 11 schematically shows an example of shape information generated by the shape information generation unit 362 according to the first embodiment. FIG. 11 shows a histogram of the area of the DH region in a plurality of subjects to be inspected. In FIG. 11, the vertical axis represents the frequency and the horizontal axis represents the area [mm 2 ].

図11に示すように、DH領域の面積の分布を把握することができる。図11では、複数の被検眼に対するDH領域の面積のヒストグラムを表すが、形状情報生成部362は、同一の被検眼に対するDH領域の面積のヒストグラムを図11に示すように生成してもよい。 As shown in FIG. 11, the distribution of the area of the DH region can be grasped. Although FIG. 11 shows a histogram of the area of the DH region for a plurality of subjects to be inspected, the shape information generation unit 362 may generate a histogram of the area of the DH region for the same eye to be inspected as shown in FIG.

いくつかの実施形態では、解析部360は、検出器320によりDH領域が検出された眼底画像とOCT計測により公知の手法で得られた眼底Efの所定の層領域の層厚マップとの位置合わせを行い、眼底画像と層厚マップとを重ね合わせた合成画像を生成する。所定の層領域には、神経節細胞層(GCL)、網膜神経線維層(RNFL)、視神経乳頭周囲網膜神経線維層(cpRNFL)、GCC(=NFL+GCL+IPL(内網状層))などがある。この場合、制御部210(主制御部211)は、生成された合成画像を後述の表示部240Aに表示させることが可能である。 In some embodiments, the analysis unit 360 aligns the fundus image in which the DH region is detected by the detector 320 with the layer thickness map of the predetermined layer region of the fundus Ef obtained by a known method by OCT measurement. To generate a composite image in which the fundus image and the layer thickness map are superimposed. The predetermined layer region includes a ganglion cell layer (GCL), a retinal nerve fiber layer (RNFL), a peri-optic disc retinal nerve fiber layer (cpRNFL), GCC (= NFL + GCL + IPL (inner plexiform layer)) and the like. In this case, the control unit 210 (main control unit 211) can display the generated composite image on the display unit 240A described later.

いくつかの実施形態では、解析部360は、検出器320により検出されたDH領域の色に基づいてDH領域の発生時期(又は発生日)を推測する。例えば、解析部360は、DH領域の基準色を基準に、検出されたDH領域の色に基づいてDH領域の発生時期を推測する。DH領域の色は、主に、眼底画像における赤色成分を抽出することで特定される。いくつかの実施形態では、解析部360は、前回と今回検出されたDH領域の色(例えば、赤色成分の画素値)の違いに基づいてDH領域の発生間隔を推測する。いくつかの実施形態では、解析部360は、前回の検査日に検出されたDH領域の色とDH領域の発生間隔とに基づいて、DH領域の発生時期を推測する。 In some embodiments, the analysis unit 360 estimates the time (or date) of occurrence of the DH region based on the color of the DH region detected by the detector 320. For example, the analysis unit 360 estimates the occurrence time of the DH region based on the detected color of the DH region based on the reference color of the DH region. The color of the DH region is mainly specified by extracting the red component in the fundus image. In some embodiments, the analysis unit 360 estimates the generation interval of the DH region based on the difference in the color (for example, the pixel value of the red component) of the DH region detected last time and this time. In some embodiments, the analysis unit 360 estimates the time of occurrence of the DH region based on the color of the DH region detected on the previous inspection day and the interval of occurrence of the DH region.

以上のように機能するデータ処理部300は、例えば、前述のプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。 The data processing unit 300 that functions as described above includes, for example, the above-mentioned processor, RAM, ROM, hard disk drive, circuit board, and the like. A computer program that causes a processor to execute the above functions is stored in a storage device such as a hard disk drive in advance.

(ユーザインターフェイス)
図3に示すように、ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。例えば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
As shown in FIG. 3, the user interface 240 includes a display unit 240A and an operation unit 240B. The display unit 240A includes the display device and the display device 3 of the arithmetic control unit 200 described above. The operation unit 240B includes the operation device of the arithmetic control unit 200 described above. The operation unit 240B may include various buttons and keys provided on the housing of the ophthalmologic device 1 or on the outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing. Further, the display unit 240A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.

なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。例えばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。 The display unit 240A and the operation unit 240B do not need to be configured as separate devices. For example, it is also possible to use a device such as a touch panel in which a display function and an operation function are integrated. In that case, the operation unit 240B includes the touch panel and a computer program. The operation content for the operation unit 240B is input to the control unit 210 as an electric signal. Further, the graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B may be used to perform operations and information input.

データ処理部300は、実施形態に係る「眼科情報処理装置」の一例である。プロジェクション画像は、実施形態に係る「OCTデータ」の一例である。眼底カメラユニット2(撮影光学系30)は、実施形態に係る「撮影部」の一例である。OCTユニット100、画像形成部230(及び/又はデータ処理部300)は、実施形態に係る「OCT部」の一例である。 The data processing unit 300 is an example of the "ophthalmology information processing apparatus" according to the embodiment. The projection image is an example of "OCT data" according to the embodiment. The fundus camera unit 2 (shooting optical system 30) is an example of the “shooting unit” according to the embodiment. The OCT unit 100 and the image forming unit 230 (and / or the data processing unit 300) are examples of the "OCT unit" according to the embodiment.

[動作]
第1実施形態に係る眼科装置1の動作について説明する。
[motion]
The operation of the ophthalmic apparatus 1 according to the first embodiment will be described.

図12に、第1実施形態に係る眼科装置1の動作例を示す。図12は、第1実施形態に係る眼科装置1の動作例のフローチャートを表す。記憶部212には、図12に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図12に示す処理を実行する。 FIG. 12 shows an operation example of the ophthalmic apparatus 1 according to the first embodiment. FIG. 12 shows a flowchart of an operation example of the ophthalmic appliance 1 according to the first embodiment. A computer program for realizing the process shown in FIG. 12 is stored in the storage unit 212. The main control unit 211 executes the process shown in FIG. 12 by operating according to this computer program.

以下では、被検眼Eと光学系とのアライメントが既に完了しているものとする。また、DH判定モデル311は、第1学習部410により既に機械学習が行われ、DH領域検出モデル321は、第2学習部420により既に機械学習が行われているものとする。 In the following, it is assumed that the alignment between the eye E to be inspected and the optical system has already been completed. Further, it is assumed that the DH determination model 311 has already been machine-learned by the first learning unit 410, and the DH region detection model 321 has already been machine-learned by the second learning unit 420.

(S1:カラー眼底画像を取得)
まず、主制御部211(制御部210)は、眼底カメラユニット2(撮影光学系30)を制御して被検眼Eの眼底Efを撮影させる。これにより、主制御部211は、被検眼Eのカラー眼底画像を取得できる。
(S1: Acquire a color fundus image)
First, the main control unit 211 (control unit 210) controls the fundus camera unit 2 (photographing optical system 30) to image the fundus Ef of the eye E to be inspected. As a result, the main control unit 211 can acquire a color fundus image of the eye E to be inspected.

(S2:DHの有無を判定)
次に、主制御部211は、判定器310を制御して、ステップS1において取得されたカラー眼底画像にDHがあるか否かを判定させる。
(S2: Determine the presence or absence of DH)
Next, the main control unit 211 controls the determination device 310 to determine whether or not the color fundus image acquired in step S1 has DH.

判定器310は、上記のように、DH判定モデル311を用いてカラー眼底画像に対してDHがあるか否かを判定する(分類する)。 As described above, the determination device 310 determines (classifies) whether or not there is DH in the color fundus image using the DH determination model 311.

(S3:DHあり?)
ステップS2においてカラー眼底画像にDHがあると判定されたとき(S3:Y)、眼科装置1の動作はステップS4に移行する。
(S3: Is there DH?)
When it is determined in step S2 that the color fundus image has DH (S3: Y), the operation of the ophthalmologic apparatus 1 shifts to step S4.

ステップS2においてカラー眼底画像にDHがないと判定されたとき(S3:N)、眼科装置1の動作は終了である(エンド)。 When it is determined in step S2 that there is no DH in the color fundus image (S3: N), the operation of the ophthalmologic apparatus 1 is terminated (end).

(S4:DH領域を検出)
ステップS2においてカラー眼底画像にDHがあると判定されたとき(S3:Y)、主制御部211は、検出器320を制御して、ステップS2においてDHがあると判定されたカラー眼底画像におけるDH領域を検出させる。
(S4: DH area detected)
When it is determined in step S2 that the color fundus image has DH (S3: Y), the main control unit 211 controls the detector 320 and DH in the color fundus image determined to have DH in step S2. Have the area detected.

検出器320は、上記のように、DH領域検出モデル321を用いて、ステップS2においてDHがあると判定されたカラー眼底画像におけるDH領域を検出する。 As described above, the detector 320 detects the DH region in the color fundus image determined to have DH in step S2 by using the DH region detection model 321.

(S5:位置合わせ)
続いて、主制御部211は、位置合わせ部350を制御して、ステップS4においてDH領域が検出された眼底画像と被検眼Eに対してOCT計測を実行することにより得られたOCTデータに基づいて形成されたプロジェクション画像との位置合わせを実行させる。
(S5: Alignment)
Subsequently, the main control unit 211 controls the alignment unit 350 to perform OCT measurement on the fundus image in which the DH region is detected in step S4 and the eye E to be inspected, based on the OCT data obtained. Alignment with the projection image formed in the above is executed.

いくつかの実施形態では、ステップS4において眼底画像にDH領域が検出された後に、主制御部211は、OCTユニット100を制御してOCT計測を実行させ、画像形成部230を制御してOCT画像を形成させ、プロジェクション画像形成部340を制御してプロジェクション画像を形成させる。 In some embodiments, after the DH region is detected in the fundus image in step S4, the main control unit 211 controls the OCT unit 100 to execute the OCT measurement, and controls the image forming unit 230 to control the OCT image. Is formed, and the projection image forming unit 340 is controlled to form a projection image.

いくつかの実施形態では、あらかじめ被検眼Eに対してOCT計測が実行され、プロジェクション画像形成部340により被検眼Eのプロジェクション画像が形成される。 In some embodiments, OCT measurement is performed on the eye E to be inspected in advance, and a projection image of the eye E to be inspected is formed by the projection image forming unit 340.

(S6:位置情報を生成)
続いて、主制御部211は、位置情報生成部361を制御して、ステップS5において位置合わせが行われた眼底画像におけるDH領域の位置情報を生成させる。
(S6: Generate location information)
Subsequently, the main control unit 211 controls the position information generation unit 361 to generate the position information of the DH region in the fundus image aligned in step S5.

例えば、位置情報生成部361は、視神経乳頭の中心とDH領域の代表位置との相対位置を求める。例えば、位置情報生成部361は、視神経乳頭の中心を基準としてDH領域の代表位置の方向を求め、図10に示すような位置情報を生成する。 For example, the position information generation unit 361 obtains a relative position between the center of the optic nerve head and the representative position of the DH region. For example, the position information generation unit 361 obtains the direction of the representative position of the DH region with reference to the center of the optic nerve head, and generates the position information as shown in FIG.

(S7:形状情報を生成)
続いて、主制御部211は、形状情報生成部362を制御して、ステップS5において位置合わせが行われた眼底画像におけるDH領域の形状情報を生成させる。
(S7: Generate shape information)
Subsequently, the main control unit 211 controls the shape information generation unit 362 to generate shape information of the DH region in the fundus image aligned in step S5.

例えば、形状情報生成部362は、上記のように、DH領域の面積を求め、図11に示すような形状情報を生成する。 For example, the shape information generation unit 362 obtains the area of the DH region as described above, and generates the shape information as shown in FIG.

(S8:発生情報を生成)
続いて、主制御部211は、発生情報生成部363を制御して、ステップS4において検出されたDH領域の発生情報を生成させる。
(S8: Generate generation information)
Subsequently, the main control unit 211 controls the generation information generation unit 363 to generate generation information of the DH region detected in step S4.

例えば、発生情報生成部363は、上記のように、DH領域の発生頻度、及びDH領域の発生間隔を含む発生情報を生成する。 For example, the generation information generation unit 363 generates generation information including the occurrence frequency of the DH region and the generation interval of the DH region as described above.

以上で、眼科装置1の動作は終了である。 This completes the operation of the ophthalmic appliance 1.

ここで、第1実施形態に係る眼科装置1によるDH領域の検出精度について説明する。 Here, the detection accuracy of the DH region by the ophthalmic appliance 1 according to the first embodiment will be described.

図13に、第1実施形態に係る眼科装置1によるDH領域の検出精度の説明図を示す。図13は、第1実施形態の比較例と対比することにより第1実施形態に係る眼科装置1によるDH領域の検出精度を模式的に表したものである。第1実施形態の比較例では、1つの学習済みモデル(ResUnet++)を機械学習で生成し、生成された学習済みモデルを用いて眼底画像からDH領域が直接に検出される。 FIG. 13 shows an explanatory diagram of the detection accuracy of the DH region by the ophthalmic appliance 1 according to the first embodiment. FIG. 13 schematically shows the detection accuracy of the DH region by the ophthalmic appliance 1 according to the first embodiment by comparing with the comparative example of the first embodiment. In the comparative example of the first embodiment, one trained model (ResUnit ++) is generated by machine learning, and the DH region is directly detected from the fundus image using the generated trained model.

図13では、DH領域の検出精度を表す指標としてmIOU(mean Intersection Over Union)が用いられている。mIOUは、画像毎に算出されたIOUの平均値に相当する。ここで、IOUは、式(1)で表されるように、入力画像である眼底画像と出力画像である検出画像(DH領域検出画像)とにおけるpositive領域のピクセル数(P)とtrue領域のピクセル数(T)との和に対するture positive領域のピクセル数(TP)の割合を表す。すなわち、IOUは、1に近いほど検出精度が高いことを示す指標である。 In FIG. 13, mIOU (main Intersection Over Union) is used as an index showing the detection accuracy of the DH region. The mIOU corresponds to the average value of the IOU calculated for each image. Here, as represented by the equation (1), the IOU is the number of pixels (P) in the positive region and the true region in the fundus image as the input image and the detection image (DH region detection image) as the output image. It represents the ratio of the number of pixels (TP) in the true positive area to the sum of the number of pixels (T). That is, IOU is an index indicating that the closer it is to 1, the higher the detection accuracy.

Figure 2022074224000002
Figure 2022074224000002

この実施形態では、positive領域は、検出画像(出力画像)においてDH領域であると検出された領域に相当する。true領域は、眼底画像における真のDH領域に相当する。true positive領域は検出画像において検出されたDH領域と眼底画像における真のDH領域とが一致する領域(正解の領域)に相当する。 In this embodiment, the positive region corresponds to a region detected as a DH region in the detected image (output image). The true region corresponds to the true DH region in the fundus image. The true positive region corresponds to a region (correct region) in which the DH region detected in the detected image and the true DH region in the fundus image coincide with each other.

図13は、DHありの画像146枚とDHなしの画像146枚について、比較例に係る構成によるmIOU(146×2枚のIOUの平均値)と、第1実施形態に係る構成によるmIOUとを表す。すなわち、比較例では上記のように1つの学習済みモデルを用いてDH領域を検出する場合、mIOU=0.573である。これに対して、第1実施形態におけるDH判定モデル311とDH領域検出モデル321とを用いてDH領域を検出する場合、mIOU=0.611である。 FIG. 13 shows the mIOU (average value of 146 × 2 IOUs) according to the configuration according to the comparative example and the mIOU according to the configuration according to the first embodiment for 146 images with DH and 146 images without DH. show. That is, in the comparative example, when the DH region is detected using one trained model as described above, mIOU = 0.573. On the other hand, when the DH region is detected using the DH determination model 311 and the DH region detection model 321 in the first embodiment, mIOU = 0.611.

従って、図13は、比較例と比較して第1実施形態に係る構成によれば、DH領域を高精度に検出することができることを表す。 Therefore, FIG. 13 shows that the DH region can be detected with high accuracy according to the configuration according to the first embodiment as compared with the comparative example.

以上のように、第1実施形態によれば、1つの学習済みモデルを用いて眼底画像からDH領域を検出する場合に比べて、DH領域を高い再現性で高精度に検出することが可能になる。また、DH領域が検出された眼底画像とプロジェクション画像との位置合わせを行い、OCTデータを用いてDH領域の位置情報、形状情報、及び発生情報を生成するようにしたので、検出されたDH領域を定量的に高精度に評価することが可能になる。 As described above, according to the first embodiment, it is possible to detect the DH region with high reproducibility and high accuracy as compared with the case where the DH region is detected from the fundus image using one trained model. Become. In addition, the position information, shape information, and generation information of the DH region are generated by aligning the fundus image in which the DH region is detected with the projection image and using the OCT data. Therefore, the detected DH region is generated. Can be evaluated quantitatively and with high accuracy.

[第2実施形態]
第1実施形態では、実施形態に係る眼科情報処理装置が適用された眼科装置により眼底画像におけるDH領域を検出する場合について説明したが、実施形態に係る構成はこれに限定されるものではない。
[Second Embodiment]
In the first embodiment, the case where the DH region in the fundus image is detected by the ophthalmologic apparatus to which the ophthalmologic information processing apparatus according to the embodiment is applied has been described, but the configuration according to the embodiment is not limited to this.

第2実施形態では、実施形態に係る眼科情報処理装置は、外部に設けられた1以上の装置により取得された眼底画像又はOCTデータ(プロジェクション画像)に対して上記のDH領域の検出処理を実行することができる。以下、第1実施形態との相違点を中心に、第2実施形態について説明する。 In the second embodiment, the ophthalmologic information processing apparatus according to the embodiment executes the above-mentioned DH region detection process on the fundus image or OCT data (projection image) acquired by one or more externally provided devices. can do. Hereinafter, the second embodiment will be described with a focus on the differences from the first embodiment.

図14に、第2実施形態に係る眼科システムの第1構成例のブロック図を示す。 FIG. 14 shows a block diagram of a first configuration example of the ophthalmic system according to the second embodiment.

第1構成例に係る眼科システム500は、眼科装置510~510(Nは2以上の整数)と、眼科情報処理装置520とを含む。眼科情報処理装置520は、ネットワーク530を介して、眼科装置510~510に接続されている。ネットワーク530は、有線又は無線のネットワーク(LAN、WAN)であってよい。 The ophthalmology system 500 according to the first configuration example includes an ophthalmology apparatus 510 1 to 510 N (N is an integer of 2 or more) and an ophthalmology information processing apparatus 520. The ophthalmic information processing device 520 is connected to the ophthalmic devices 510 1 to 510 N via the network 530. The network 530 may be a wired or wireless network (LAN, WAN).

眼科情報処理装置520は、眼科装置510~510のいずれかと通信可能である。 The ophthalmic information processing device 520 can communicate with any of the ophthalmic devices 510 1 to 510 N.

いくつかの実施形態では、眼科装置510~510のいずれかは、眼科情報処理装置520に対してリクエストを送信し、当該リクエストが承認された眼科装置は、眼科情報処理装置520に対してデータを送信する。送信されたデータには、被検眼Eの眼底画像の画像データと、被検眼Eの上記のOCTデータ又はプロジェクション画像の画像データが含まれる。 In some embodiments, any of the ophthalmic appliances 510 1 to 510 N sends a request to the ophthalmic information processing apparatus 520, and the ophthalmic appliance to which the request is approved is directed to the ophthalmic information processing apparatus 520. Send the data. The transmitted data includes the image data of the fundus image of the eye E to be inspected and the above-mentioned OCT data or the image data of the projection image of the eye E to be inspected.

いくつかの実施形態では、眼科情報処理装置520は、眼科装置510~510のいずれかに対してリクエストを送信し、当該リクエストを承認した眼科装置からのデータを受信する。受信されたデータには、被検眼Eの眼底画像の画像データと、被検眼Eの上記のOCTデータ又はプロジェクション画像の画像データが含まれる。 In some embodiments, the ophthalmic information processing device 520 sends a request to any of the ophthalmic devices 510 1 to 510 N and receives data from the ophthalmic device that approves the request. The received data includes the image data of the fundus image of the eye E to be inspected and the above-mentioned OCT data or the image data of the projection image of the eye E to be inspected.

図15に、第2実施形態に係る眼科システムの第2構成例のブロック図を示す。 FIG. 15 shows a block diagram of a second configuration example of the ophthalmic system according to the second embodiment.

第2構成例に係る眼科システム500は、眼科装置510と、眼科情報処理装置520とを含む。眼科情報処理装置520は、所定の通信路を介して眼科装置510と接続されている。いくつかの実施形態では、眼科情報処理装置520は、ネットワークを介して眼科装置510とピアツーピア接続される。 The ophthalmology system 500 according to the second configuration example includes an ophthalmology apparatus 510 and an ophthalmology information processing apparatus 520. The ophthalmic information processing device 520 is connected to the ophthalmic device 510 via a predetermined communication path. In some embodiments, the ophthalmic information processing device 520 is peer-to-peer connected to the ophthalmic device 510 via a network.

眼科情報処理装置520は、眼科装置510と通信可能である。 The ophthalmic information processing device 520 can communicate with the ophthalmic device 510.

いくつかの実施形態では、眼科装置510は、眼科情報処理装置520に対してリクエストを送信し、当該リクエストが承認された眼科装置510は、眼科情報処理装置520に対してデータを送信する。送信されたデータには、被検眼Eの眼底画像の画像データと、被検眼Eの上記のOCTデータ又はプロジェクション画像の画像データが含まれる。 In some embodiments, the ophthalmic appliance 510 sends a request to the ophthalmic information processing apparatus 520, and the ophthalmic appliance 510 for which the request is approved transmits data to the ophthalmic information processing apparatus 520. The transmitted data includes the image data of the fundus image of the eye E to be inspected and the above-mentioned OCT data or the image data of the projection image of the eye E to be inspected.

いくつかの実施形態では、眼科情報処理装置520は、眼科装置510に対してリクエストを送信し、当該リクエストを承認した眼科装置510からのデータを受信する。受信されたデータには、被検眼Eの眼底画像の画像データと、被検眼Eの上記のOCTデータ又はプロジェクション画像の画像データが含まれる。 In some embodiments, the ophthalmic information processing device 520 sends a request to the ophthalmic device 510 and receives data from the ophthalmic device 510 that approves the request. The received data includes the image data of the fundus image of the eye E to be inspected and the above-mentioned OCT data or the image data of the projection image of the eye E to be inspected.

眼科装置510~510、及び眼科装置510は、図1~図3に示す眼科装置1とほぼ同様の構成を有している。第2実施形態では、図1~図3に示す眼科装置1の機能のうち、データ処理部300の機能の一部が眼科情報処理装置520により実現される。 The ophthalmic appliances 510 1 to 510 N and the ophthalmic appliance 510 have substantially the same configurations as the ophthalmic appliance 1 shown in FIGS. 1 to 3. In the second embodiment, among the functions of the ophthalmic apparatus 1 shown in FIGS. 1 to 3, a part of the functions of the data processing unit 300 is realized by the ophthalmic information processing apparatus 520.

図16に、第2実施形態に係る眼科情報処理装置520の構成例のブロック図を示す。図16において、図4と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 16 shows a block diagram of a configuration example of the ophthalmic information processing apparatus 520 according to the second embodiment. In FIG. 16, the same parts as those in FIG. 4 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

眼科情報処理装置520は、通信部521と、判定器310と、検出器320と、プロジェクション画像形成部340と、解析部360と、学習部400と、制御部522とを含む。眼科情報処理装置520には、学習部400が含まれなくてもよい。 The ophthalmic information processing apparatus 520 includes a communication unit 521, a determination device 310, a detector 320, a projection image forming unit 340, an analysis unit 360, a learning unit 400, and a control unit 522. The ophthalmic information processing apparatus 520 may not include the learning unit 400.

通信部521は、眼科装置510~510又は眼科装置510との通信インターフェイス処理を行う。すなわち、通信部521は、眼科装置510~510又は眼科装置510との間で所定の通信プロトコルに従って通信を行い、眼科装置510~510又は眼科装置510から眼底画像の画像データと、被検眼Eの上記のOCTデータ又はプロジェクション画像の画像データを含む通信データを受信する。通信部521は、受信された通信データに含まれる画像データを受信することで、眼科装置により得られた被検眼の眼底画像及びOCTデータを取得する。 The communication unit 521 performs communication interface processing with the ophthalmic apparatus 510 1 to 510 N or the ophthalmic apparatus 510. That is, the communication unit 521 communicates with the ophthalmologic devices 510 1 to 510 N or the ophthalmology device 510 according to a predetermined communication protocol, and receives image data of the fundus image from the ophthalmology devices 510 1 to 510 N or the ophthalmology device 510. The communication data including the above-mentioned OCT data of the eye to be inspected E or the image data of the projection image is received. The communication unit 521 acquires the fundus image and OCT data of the eye to be inspected obtained by the ophthalmologic apparatus by receiving the image data included in the received communication data.

制御部522は、制御部210と同様に、プロセッサを含み、眼科情報処理装置520の各部を制御する。制御部522は、制御部210と同様に、主制御部と、記憶部とを含む。 Like the control unit 210, the control unit 522 includes a processor and controls each unit of the ophthalmic information processing apparatus 520. The control unit 522 includes a main control unit and a storage unit, similarly to the control unit 210.

また、制御部522は、表示制御部として、眼科情報処理装置520の外部に接続された表示部540の表示制御を行うことができる。表示部540は、表示部240Aと同様の機能を有する。 Further, the control unit 522 can control the display of the display unit 540 connected to the outside of the ophthalmic information processing apparatus 520 as the display control unit. The display unit 540 has the same function as the display unit 240A.

眼科情報処理装置520の動作は、外部から眼底画像及びプロジェクション画像(OCTデータ)を取得する点を除いて、図12に示すフローと同様であるため、詳細な説明を省略する。すなわち、眼科情報処理装置520は、眼科装置510~510又は眼科装置510から取得した眼底画像に対して、第1実施形態と同様に、DHの有無を判定し、DHがあると判定された眼底画像に対してDH領域を検出する。更に、眼科情報処理装置520は、眼科装置510~510又は眼科装置510から取得したOCTデータを用いて眼底画像との位置合わせを行い、上記のDH領域の位置情報等の解析結果を求める。 Since the operation of the ophthalmic information processing apparatus 520 is the same as the flow shown in FIG. 12, except that the fundus image and the projection image (OCT data) are acquired from the outside, detailed description thereof will be omitted. That is, the ophthalmology information processing apparatus 520 determines the presence or absence of DH with respect to the fundus image acquired from the ophthalmology apparatus 510 1 to 510 N or the ophthalmology apparatus 510, and determines that there is DH. The DH region is detected on the fundus image. Further, the ophthalmology information processing apparatus 520 aligns with the fundus image using the OCT data acquired from the ophthalmology apparatus 510 1 to 510 N or the ophthalmology apparatus 510, and obtains the analysis result of the above-mentioned DH region position information and the like. ..

第2実施形態に係る眼科システム500の構成は、図14及び図15に示す構成に限定されるものではない。 The configuration of the ophthalmic system 500 according to the second embodiment is not limited to the configuration shown in FIGS. 14 and 15.

図17に、第2実施形態の第1変形例に係る眼科システムの構成例を示す。 FIG. 17 shows a configuration example of an ophthalmic system according to a first modification of the second embodiment.

第2実施形態の第1変形例に係る眼科システム500aは、眼科情報処理装置520と、眼底カメラ550と、OCT装置560とを含む。眼科情報処理装置520は、眼底カメラ550及びOCT装置560のそれぞれと通信可能である。 The ophthalmology system 500a according to the first modification of the second embodiment includes an ophthalmology information processing apparatus 520, a fundus camera 550, and an OCT apparatus 560. The ophthalmic information processing device 520 can communicate with each of the fundus camera 550 and the OCT device 560.

眼底カメラ550は、第1実施形態に係る眼科装置1の眼底カメラユニット2の機能(すなわち、眼底画像を取得する機能)を有する。OCT装置560は、第1実施形態に係る眼科装置1のOCTユニット100と画像形成部230とデータ処理部300の一部の機能(すなわち、OCTデータを取得し、OCT画像を形成する機能)を有する。 The fundus camera 550 has a function of the fundus camera unit 2 of the ophthalmologic apparatus 1 according to the first embodiment (that is, a function of acquiring a fundus image). The OCT device 560 has some functions (that is, a function of acquiring OCT data and forming an OCT image) of the OCT unit 100, the image forming unit 230, and the data processing unit 300 of the ophthalmic apparatus 1 according to the first embodiment. Have.

眼科情報処理装置520は、眼底カメラ550から被検眼Eの眼底画像の画像データを取得し、OCT装置560から被検眼EのOCTデータ(又はプロジェクション画像の画像データ)を取得する。眼科情報処理装置520は、眼底カメラ550から取得した眼底画像に対して、第1実施形態と同様に、DHの有無を判定し、DHがあると判定された眼底画像に対してDH領域を検出する。更に、眼科情報処理装置520は、OCT装置560から取得したOCTデータを用いて眼底画像との位置合わせを行い、上記のDH領域の位置情報等の解析結果を求める。 The ophthalmology information processing apparatus 520 acquires image data of the fundus image of the eye to be inspected E from the fundus camera 550, and acquires OCT data (or image data of the projection image) of the eye to be inspected E from the OCT device 560. The ophthalmic information processing apparatus 520 determines the presence or absence of DH in the fundus image acquired from the fundus camera 550, and detects the DH region in the fundus image determined to have DH, as in the first embodiment. do. Further, the ophthalmology information processing apparatus 520 aligns with the fundus image using the OCT data acquired from the OCT apparatus 560, and obtains the analysis result such as the position information of the DH region.

図18に、第2実施形態の第2変形例に係る眼科システムの構成例を示す。 FIG. 18 shows a configuration example of an ophthalmic system according to a second modification of the second embodiment.

第2実施形態の第2変形例に係る眼科システム500bは、眼底カメラ550と、OCT装置560とを含み、OCT装置560は、眼科情報処理部561を含む。OCT装置560は、眼底カメラ550と通信可能である。 The ophthalmology system 500b according to the second modification of the second embodiment includes a fundus camera 550 and an OCT device 560, and the OCT device 560 includes an ophthalmology information processing unit 561. The OCT device 560 can communicate with the fundus camera 550.

眼底カメラ550は、第1実施形態に係る眼科装置1の眼底カメラユニット2の機能(すなわち、眼底画像を取得する機能)を有する。OCT装置560は、第1実施形態に係る眼科装置1のOCTユニット100と画像形成部230とデータ処理部300の一部の機能(すなわち、OCTデータを取得し、OCT画像を形成する機能)を有する。眼科情報処理部561は、眼科情報処理装置520の機能を有する。 The fundus camera 550 has a function of the fundus camera unit 2 of the ophthalmologic apparatus 1 according to the first embodiment (that is, a function of acquiring a fundus image). The OCT device 560 has some functions (that is, a function of acquiring OCT data and forming an OCT image) of the OCT unit 100, the image forming unit 230, and the data processing unit 300 of the ophthalmic apparatus 1 according to the first embodiment. Have. The ophthalmology information processing unit 561 has a function of the ophthalmology information processing device 520.

眼科情報処理部561は、眼底カメラ550から被検眼Eの眼底画像の画像データを取得し、OCT装置560において取得された被検眼EのOCTデータ(又はプロジェクション画像の画像データ)を用いて上記の解析部360による解析処理を実行する。眼科情報処理部561は、眼底カメラ550から取得した眼底画像に対して、第1実施形態と同様に、DHの有無を判定し、DHがあると判定された眼底画像に対してDH領域を検出する。更に、眼科情報処理部561は、OCT装置560において取得されたOCTデータを用いて眼底画像との位置合わせを行い、上記のDH領域の位置情報等の解析結果を求める。 The ophthalmology information processing unit 561 acquires the image data of the fundus image of the eye to be inspected E from the fundus camera 550, and uses the OCT data (or the image data of the projection image) of the eye to be inspected E acquired by the OCT apparatus 560 to describe the above. The analysis process by the analysis unit 360 is executed. The ophthalmology information processing unit 561 determines the presence or absence of DH in the fundus image acquired from the fundus camera 550, and detects the DH region in the fundus image determined to have DH, as in the first embodiment. do. Further, the ophthalmology information processing unit 561 performs positioning with the fundus image using the OCT data acquired by the OCT device 560, and obtains the analysis result such as the position information of the DH region.

[作用]
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
[Action]
The ophthalmology information processing apparatus, the ophthalmology apparatus, the ophthalmology information processing method, and the program according to the embodiment will be described.

実施形態に係る眼科情報処理装置(データ処理部300、眼科情報処理装置520、眼科情報処理部561)は、判定器(310)と、検出器(320)とを含む。判定器は、乳頭出血の有無を示すラベルが付された複数の眼底の正面画像(LIMG)を第1教師データとする機械学習により得られた乳頭出血判定モデル(311)を用いて、被検眼(E)の眼底(Ef)の正面画像(眼底画像IMG0)に対して乳頭出血の有無を判定する。検出器は、眼底の正面画像(IMG1)と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像(TG1)とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデル(322)を用いて、判定器により乳頭出血があると判定された正面画像に描出された乳頭出血領域を検出する。 The ophthalmic information processing apparatus (data processing unit 300, ophthalmic information processing apparatus 520, ophthalmic information processing unit 561) according to the embodiment includes a determination device (310) and a detector (320). The determination device uses a papillary bleeding determination model (311) obtained by machine learning using a plurality of frontal images (LIMG) of the fundus labeled with a label indicating the presence or absence of papillary bleeding as the first teacher data, and the eye to be inspected. The presence or absence of papillary bleeding is determined with respect to the front image (fundus image IMG0) of the fundus (Ef) of (E). The detector is a machine learning using a plurality of pairs of images as a second teacher data, which is a pair of a frontal image (IMG1) of the fundus and a papillary bleeding area image (TG1) representing the papillary bleeding area drawn on the frontal image. Using the papillary bleeding region detection model (322) obtained in the above, the papillary bleeding region visualized on the front image determined to have papillary bleeding by the determining device is detected.

このような態様によれば、判定器により被検眼の眼底の正面画像に対して乳頭出血の有無を判定し、検出器により乳頭出血があると判定された正面画像に対して正面画像における乳頭出血領域が検出される。このとき、検出器における乳頭出血領域検出モデルは、乳頭出血領域が存在する眼底画像のみを用いて機械学習することで、学習パラメータが乳頭出血領域の検出に特化して更新される。その結果、乳頭出血領域の検出精度を向上させることができる。従って、1つの学習済みモデルを用いて被検眼の眼底画像における乳頭出血領域を検出する場合と比較して、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 According to such an aspect, the presence or absence of papillary bleeding in the frontal image of the fundus of the eye to be inspected is determined by the determining device, and the papillary bleeding in the frontal image is determined with respect to the frontal image determined by the detector to have papillary bleeding. The area is detected. At this time, in the papillary bleeding region detection model in the detector, the learning parameters are updated specifically for the detection of the papillary bleeding region by machine learning using only the fundus image in which the papillary bleeding region exists. As a result, the detection accuracy of the papillary bleeding region can be improved. Therefore, it is possible to detect the papillary bleeding region in the fundus image with higher reproducibility and accuracy as compared with the case of detecting the papillary bleeding region in the fundus image of the test eye using one trained model. ..

実施形態に係る眼科情報処理装置では、第2教師データは、第1教師データに含まれる正面画像を含む。 In the ophthalmic information processing apparatus according to the embodiment, the second teacher data includes a front image included in the first teacher data.

このような態様によれば、判定器の乳頭出血判定モデル及び検出器の乳頭出血領域検出モデルのそれぞれを同じ正面画像を用いて機械学習させるようにしたので、教師データの量を増やすことなく、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 According to such an embodiment, since the papillary bleeding determination model of the determination device and the papillary bleeding area detection model of the detector are machine-learned using the same front image, the amount of teacher data is not increased. It becomes possible to detect the papillary bleeding region in the fundus image with higher reproducibility and higher accuracy.

実施形態に係る眼科情報処理装置は、第1教師データを用いて教師あり機械学習を実行することにより乳頭出血判定モデルを生成する第1学習部(410)を含む。 The ophthalmic information processing apparatus according to the embodiment includes a first learning unit (410) that generates a papillary bleeding determination model by performing supervised machine learning using the first supervised data.

このような態様によれば、第1学習部により乳頭出血判定モデルを学習させるようにしたので、乳頭出血の有無の判定精度を向上させることが可能な眼科情報処理装置を提供することができるようになる。 According to such an aspect, since the papillary bleeding determination model is trained by the first learning unit, it is possible to provide an ophthalmologic information processing apparatus capable of improving the determination accuracy of the presence or absence of papillary bleeding. become.

実施形態に係る眼科情報処理装置は、第2教師データを用いて教師あり機械学習を実行することにより乳頭出血領域検出モデルを生成する第2学習部(420)を含む。 The ophthalmic information processing apparatus according to the embodiment includes a second learning unit (420) that generates a papillary bleeding region detection model by performing supervised machine learning using the second supervised data.

このような態様によれば、第2学習部により乳頭出血領域検出モデルを学習させるようにしたので、乳頭出血領域の検出精度を向上させることが可能な眼科情報処理装置を提供することができるようになる。 According to such an aspect, since the papillary bleeding region detection model is trained by the second learning unit, it is possible to provide an ophthalmic information processing apparatus capable of improving the detection accuracy of the papillary bleeding region. become.

実施形態に係る眼科情報処理装置では、眼底の正面画像は、カラーの正面画像である。 In the ophthalmic information processing apparatus according to the embodiment, the front image of the fundus is a color front image.

このような態様によれば、情報量がより多い正面画像を用いることで、判定器による判定精度及び検出器による検出精度のより一層の向上を図ることができるようになる。 According to such an aspect, by using a front image having a larger amount of information, it becomes possible to further improve the determination accuracy by the determination device and the detection accuracy by the detector.

実施形態に係る眼科情報処理装置は、被検眼の眼底の正面画像を解析することにより、被検眼の眼底の正面画像における乳頭出血領域の位置を表す位置情報、乳頭出血領域の形状を表す形状情報、及び乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析部(360)を含む。 The ophthalmic information processing apparatus according to the embodiment analyzes the frontal image of the fundus of the eye to be inspected, thereby indicating the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected and the shape information representing the shape of the papillary bleeding region. , And an analysis unit (360) that generates at least one of the developmental information representing the developmental status of the papillary bleeding region.

このような態様によれば、より高い再現性で高精度に検出された乳頭出血領域を解析するようにしたので、被検眼の眼底画像における乳頭出血領域を高い再現性で高精度な解析結果を得ることができるようになる。 According to such an embodiment, the papillary bleeding region detected with higher reproducibility and high accuracy is analyzed. Therefore, the papillary bleeding region in the fundus image of the eye to be inspected can be analyzed with high reproducibility and high accuracy. You will be able to get it.

実施形態に係る眼科情報処理装置では、位置情報は、基準位置に対する乳頭出血領域の代表位置の方向を示す情報を含む。 In the ophthalmic information processing apparatus according to the embodiment, the position information includes information indicating the direction of the representative position of the papillary bleeding region with respect to the reference position.

このような態様によれば、眼底における基準位置に対する乳頭出血領域の発生位置の方向を把握し易くなる。それにより、基準位置に対する乳頭出血領域の発生方向に応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the direction of the occurrence position of the papillary bleeding region with respect to the reference position in the fundus. As a result, it becomes possible to contribute to the identification of the symptoms of the future disease estimated according to the direction of occurrence of the papillary bleeding region with respect to the reference position and the determination of the future treatment policy.

実施形態に係る眼科情報処理装置では、位置情報は、乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む。 In the ophthalmic information processing apparatus according to the embodiment, the position information includes information indicating whether the representative position of the optic disc bleeding region is inside the optic disc region or outside the optic disc region.

このような態様によれば、乳頭出血領域が視神経乳頭領域内か視神経乳頭領域外かを把握し易くなる。それにより、乳頭出血領域が視神経乳頭領域内か否かに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp whether the papillary bleeding region is inside the optic disc region or outside the optic disc region. Thereby, it becomes possible to contribute to the identification of the symptom of the future disease estimated according to whether or not the papillary bleeding region is within the optic disc region and the determination of the future treatment policy.

実施形態に係る眼科情報処理装置では、位置情報は、代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む。 In the ophthalmic information processing apparatus according to the embodiment, the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.

このような態様によれば、乳頭出血領域が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを把握し易くなる。それにより、乳頭出血領域が視神経乳頭辺縁部内か否かに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp whether the papillary bleeding region is inside the optic disc margin or outside the optic disc margin. Thereby, it becomes possible to contribute to the identification of the symptom of the future disease estimated according to whether or not the papillary bleeding region is within the optic disc margin and the determination of the future treatment policy.

実施形態に係る眼科情報処理装置では、形状情報は、乳頭出血領域の楕円率、及び乳頭出血領域の面積の少なくとも1つを含む。 In the ophthalmic information processing apparatus according to the embodiment, the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region.

このような態様によれば、乳頭出血領域の形状やサイズを把握し易くなる。それにより、乳頭出血領域の形状やサイズに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the shape and size of the papillary bleeding region. As a result, it becomes possible to contribute to the identification of the symptoms of future diseases estimated according to the shape and size of the papillary bleeding area and the determination of future treatment policies.

実施形態に係る眼科情報処理装置では、発生情報は、乳頭出血領域の発生頻度、及び乳頭出血領域の発生間隔の少なくとも1つを含む。 In the ophthalmic information processing apparatus according to the embodiment, the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region.

このような態様によれば、乳頭出血領域の発生状況を把握し易くなる。それにより、乳頭出血領域の発生状況に応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the occurrence state of the papillary bleeding region. As a result, it will be possible to contribute to the identification of the symptoms of future diseases estimated according to the occurrence of the papillary bleeding area and the decision of the future treatment policy.

実施形態に係る眼科情報処理装置は、被検眼のOCTデータと検出器により検出された乳頭出血領域が描出された被検眼の正面画像との位置合わせを行う位置合わせ部(350)を含み、解析部は、位置合わせ部により正面画像と位置合わせが行われたOCTデータを用いて、位置情報、形状情報、及び発生情報の少なくとも1つを生成する。 The ophthalmic information processing apparatus according to the embodiment includes an alignment unit (350) for aligning the OCT data of the eye to be inspected with the front image of the eye to be inspected in which the papillary bleeding region detected by the detector is visualized, and is analyzed. The unit generates at least one of position information, shape information, and generation information using the OCT data aligned with the front image by the alignment unit.

このような態様によれば、正面画像における乳頭出血領域をOCTデータと位置合わせを行うようにしたので、高い再現性で高精度に取得されたOCTデータを規定するOCT座標系において乳頭出血領域を特定することが可能になる。それにより、乳頭出血領域の解析結果を定量的に高い再現性で高精度に求めることが可能になる。 According to such an aspect, since the papillary bleeding region in the front image is aligned with the OCT data, the papillary bleeding region is defined in the OCT coordinate system that defines the OCT data acquired with high reproducibility and high accuracy. It will be possible to identify. As a result, it becomes possible to quantitatively obtain the analysis result of the papillary bleeding region with high reproducibility and high accuracy.

実施形態に係る眼科装置(1)は、被検眼の眼底を撮影する撮影部(撮影光学系30)と、上記のいずれかに記載の眼科情報処理装置と、を含む。 The ophthalmic apparatus (1) according to the embodiment includes an imaging unit (imaging optical system 30) for photographing the fundus of the eye to be inspected, and an ophthalmic information processing apparatus according to any one of the above.

このような態様によれば、被検眼の正面画像を取得し、取得された正面画像における乳頭出血領域をより高い再現性で高精度に検出することが可能な眼科装置を提供することができるようになる。 According to such an aspect, it is possible to provide an ophthalmic apparatus capable of acquiring a frontal image of an eye to be inspected and detecting a papillary bleeding region in the acquired frontal image with higher reproducibility and high accuracy. become.

実施形態に係る眼科装置(1)は、被検眼の眼底を撮影する撮影部(撮影光学系30)と、被検眼に対して光コヒーレンストモグラフィを実行することによりOCTデータを取得するOCT部(OCTユニット100、画像形成部230、データ処理部300の一部)と、上記に記載の眼科情報処理装置と、を含む。 The ophthalmic apparatus (1) according to the embodiment includes an imaging unit (imaging optical system 30) that photographs the fundus of the eye to be inspected, and an OCT unit (OCT unit) that acquires OCT data by performing optical coherence tomography on the eye to be inspected. The OCT unit 100, the image forming unit 230, a part of the data processing unit 300), and the ophthalmologic information processing apparatus described above are included.

このような態様によれば、被検眼の正面画像とOCTデータとを取得し、取得された正面画像における乳頭出血領域をより高い再現性で高精度に検出することが可能な眼科装置を提供することができるようになる。また、取得されたOCTデータを用いて、検出された乳頭出血領域の解析結果を定量的に高い再現性で高精度に求めることが可能になる。 According to such an aspect, an ophthalmic apparatus capable of acquiring a frontal image of an eye to be inspected and OCT data and detecting a papillary bleeding region in the acquired frontal image with higher reproducibility and high accuracy is provided. You will be able to. In addition, using the acquired OCT data, it becomes possible to quantitatively obtain the analysis result of the detected papillary bleeding region with high reproducibility and high accuracy.

実施形態に係る眼科情報処理方法は、判定ステップと、検出ステップとを含む。判定ステップは、乳頭出血の有無を示すラベルが付された複数の眼底の正面画像(LIMG)を第1教師データとする機械学習により得られた乳頭出血判定モデル(311)を用いて、被検眼(E)の眼底(Ef)の正面画像に対して乳頭出血の有無を判定する。検出ステップは、眼底の正面画像(IMG1)と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像(TG1)とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデル(322)を用いて、判定ステップにおいて乳頭出血があると判定された正面画像に描出された乳頭出血領域を検出する。 The ophthalmic information processing method according to the embodiment includes a determination step and a detection step. The determination step uses a papilla bleeding determination model (311) obtained by machine learning using a plurality of frontal images (LIMGs) of the fundus labeled with a label indicating the presence or absence of papilla bleeding as the first teacher data. The presence or absence of papillary bleeding is determined with respect to the front image of the fundus (Ef) of (E). The detection step is machine learning using a plurality of pairs of images as a second teacher data, which is a pair of a frontal image of the fundus (IMG1) and a papillary bleeding area image (TG1) representing the papillary bleeding area drawn on the frontal image. Using the papillary bleeding region detection model (322) obtained in the above, the papillary bleeding region visualized on the front image determined to have papillary bleeding in the determination step is detected.

このような態様によれば、判定ステップにおいて被検眼の眼底の正面画像に対して乳頭出血の有無を判定し、検出ステップにおいて乳頭出血があると判定された正面画像に対して正面画像における乳頭出血領域が検出される。このとき、検出ステップにおける乳頭出血領域検出モデルは、乳頭出血領域が存在する眼底画像のみを用いて機械学習することで、学習パラメータが乳頭出血領域の検出に特化して更新される。その結果、乳頭出血領域の検出精度を向上させることができる。従って、1つの学習済みモデルを用いて被検眼の眼底画像における乳頭出血領域を検出する場合と比較して、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 According to such an aspect, the presence or absence of papillary bleeding in the frontal image of the fundus of the eye to be inspected is determined in the determination step, and the papillary bleeding in the frontal image with respect to the frontal image determined to have papillary bleeding in the detection step. The area is detected. At this time, in the papillary bleeding region detection model in the detection step, the learning parameters are updated specifically for the detection of the papillary bleeding region by machine learning using only the fundus image in which the papillary bleeding region exists. As a result, the detection accuracy of the papillary bleeding region can be improved. Therefore, it is possible to detect the papillary bleeding region in the fundus image with higher reproducibility and accuracy as compared with the case of detecting the papillary bleeding region in the fundus image of the test eye using one trained model. ..

実施形態に係る眼科情報処理方法では、第2教師データは、第1教師データに含まれる正面画像を含む。 In the ophthalmic information processing method according to the embodiment, the second teacher data includes a front image included in the first teacher data.

このような態様によれば、判定ステップにおける乳頭出血判定モデル及び検出ステップにおける乳頭出血領域検出モデルのそれぞれを同じ正面画像を用いて機械学習させるようにしたので、教師データの量を増やすことなく、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 According to such an embodiment, the papillary bleeding determination model in the determination step and the papillary bleeding region detection model in the detection step are machine-learned using the same front image, so that the amount of teacher data is not increased. It becomes possible to detect the papillary bleeding region in the fundus image with higher reproducibility and higher accuracy.

実施形態に係る眼科情報処理方法は、第1教師データを用いて教師あり機械学習を実行することにより乳頭出血判定モデルを生成する第1学習ステップを含む。 The ophthalmic information processing method according to the embodiment includes a first learning step of generating a papillary bleeding determination model by performing supervised machine learning using the first teacher data.

このような態様によれば、第1学習ステップにおいて乳頭出血判定モデルを学習させるようにしたので、乳頭出血の有無の判定精度を向上させることが可能な眼科情報処理方法を提供することができるようになる。 According to such an aspect, since the papillary bleeding determination model is trained in the first learning step, it is possible to provide an ophthalmologic information processing method capable of improving the determination accuracy of the presence or absence of papillary bleeding. become.

実施形態に係る眼科情報処理方法は、第2教師データを用いて教師あり機械学習を実行することにより乳頭出血領域検出モデルを生成する第2学習ステップを含む。 The ophthalmic information processing method according to the embodiment includes a second learning step of generating a papillary bleeding region detection model by performing supervised machine learning using the second supervised data.

このような態様によれば、第2学習ステップにおいて乳頭出血領域検出モデルを学習させるようにしたので、乳頭出血領域の検出精度を向上させることが可能な眼科情報処理方法を提供することができるようになる。 According to such an aspect, since the papillary bleeding region detection model is trained in the second learning step, it is possible to provide an ophthalmologic information processing method capable of improving the detection accuracy of the papillary bleeding region. become.

実施形態に係る眼科情報処理方法では、眼底の正面画像は、カラーの正面画像である。 In the ophthalmic information processing method according to the embodiment, the frontal image of the fundus is a color frontal image.

このような態様によれば、情報量がより多い正面画像を用いることで、判定ステップにおける判定精度及び検出ステップにおける検出精度のより一層の向上を図ることができるようになる。 According to such an aspect, by using a front image having a larger amount of information, it becomes possible to further improve the determination accuracy in the determination step and the detection accuracy in the detection step.

実施形態に係る眼科情報処理方法は、被検眼の眼底の正面画像を解析することにより、被検眼の眼底の正面画像における乳頭出血領域の位置を表す位置情報、乳頭出血領域の形状を表す形状情報、及び乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析ステップを含む。 The ophthalmologic information processing method according to the embodiment analyzes the frontal image of the fundus of the eye to be inspected, thereby indicating the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected and the shape information representing the shape of the papillary bleeding region. , And an analysis step to generate at least one of the developmental information representing the developmental status of the papillary bleeding area.

このような態様によれば、より高い再現性で高精度に検出された乳頭出血領域を解析するようにしたので、被検眼の眼底画像における乳頭出血領域を高い再現性で高精度な解析結果を得ることができるようになる。 According to such an embodiment, the papillary bleeding region detected with higher reproducibility and high accuracy is analyzed. Therefore, the papillary bleeding region in the fundus image of the eye to be inspected can be analyzed with high reproducibility and high accuracy. You will be able to get it.

実施形態に係る眼科情報処理方法では、位置情報は、基準位置に対する乳頭出血領域の代表位置の方向を示す情報を含む。 In the ophthalmic information processing method according to the embodiment, the position information includes information indicating the direction of the representative position of the papillary bleeding region with respect to the reference position.

このような態様によれば、眼底における基準位置に対する乳頭出血領域の発生位置の方向を把握し易くなる。それにより、基準位置に対する乳頭出血領域の発生方向に応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the direction of the occurrence position of the papillary bleeding region with respect to the reference position in the fundus. As a result, it becomes possible to contribute to the identification of the symptoms of the future disease estimated according to the direction of occurrence of the papillary bleeding region with respect to the reference position and the determination of the future treatment policy.

実施形態に係る眼科情報処理方法では、位置情報は、乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む。 In the ophthalmic information processing method according to the embodiment, the position information includes information indicating whether the representative position of the papillary bleeding region is inside the optic disc region or outside the optic disc region.

このような態様によれば、乳頭出血領域が視神経乳頭領域内か視神経乳頭領域外かを把握し易くなる。それにより、乳頭出血領域が視神経乳頭領域内か否かに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp whether the papillary bleeding region is inside the optic disc region or outside the optic disc region. Thereby, it becomes possible to contribute to the identification of the symptom of the future disease estimated according to whether or not the papilla bleeding region is within the optic disc region and the determination of the future treatment policy.

実施形態に係る眼科情報処理方法では、位置情報は、代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む。 In the ophthalmic information processing method according to the embodiment, the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.

このような態様によれば、乳頭出血領域が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを把握し易くなる。それにより、乳頭出血領域が視神経乳頭辺縁部内か否かに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp whether the papillary bleeding region is inside the optic disc margin or outside the optic disc margin. Thereby, it becomes possible to contribute to the identification of the symptom of the future disease estimated according to whether or not the papillary bleeding region is within the optic disc margin and the decision of the future treatment policy.

実施形態に係る眼科情報処理方法では、形状情報は、乳頭出血領域の楕円率、及び乳頭出血領域の面積の少なくとも1つを含む。 In the ophthalmic information processing method according to the embodiment, the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region.

このような態様によれば、乳頭出血領域の形状やサイズを把握し易くなる。それにより、乳頭出血領域の形状やサイズに応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the shape and size of the papillary bleeding region. As a result, it becomes possible to contribute to the identification of the symptoms of future diseases estimated according to the shape and size of the papillary bleeding area and the determination of future treatment policies.

実施形態に係る眼科情報処理方法では、発生情報は、乳頭出血領域の発生頻度、及び乳頭出血領域の発生間隔の少なくとも1つを含む。 In the ophthalmic information processing method according to the embodiment, the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region.

このような態様によれば、乳頭出血領域の発生状況を把握し易くなる。それにより、乳頭出血領域の発生状況に応じて推測される今後の疾患の症状の特定や今後の治療方針の決定に寄与することができるようになる。 According to such an aspect, it becomes easy to grasp the occurrence state of the papillary bleeding region. As a result, it will be possible to contribute to the identification of the symptoms of future diseases estimated according to the occurrence of the papillary bleeding area and the decision of the future treatment policy.

実施形態に係る眼科情報処理は、被検眼のOCTデータと検出ステップにおいて検出された乳頭出血領域が描出された被検眼の正面画像との位置合わせを行う位置合わせステップを含み、解析ステップは、位置合わせステップにおいて正面画像と位置合わせが行われたOCTデータを用いて、位置情報、形状情報、及び発生情報の少なくとも1つを生成する。 The ophthalmologic information processing according to the embodiment includes an alignment step of aligning the OCT data of the eye to be examined with the front image of the eye to be examined in which the papillary bleeding region detected in the detection step is visualized, and the analysis step is a position. At least one of position information, shape information, and generation information is generated using the OCT data aligned with the front image in the alignment step.

このような態様によれば、正面画像における乳頭出血領域をOCTデータと位置合わせを行うようにしたので、高い再現性で高精度に取得されたOCTデータを規定するOCT座標系において乳頭出血領域を特定することが可能になる。それにより、乳頭出血領域の解析結果を定量的に高い再現性で高精度に求めることが可能になる。 According to such an aspect, since the papillary bleeding region in the front image is aligned with the OCT data, the papillary bleeding region is defined in the OCT coordinate system that defines the OCT data acquired with high reproducibility and high accuracy. It will be possible to identify. As a result, it becomes possible to quantitatively obtain the analysis result of the papillary bleeding region with high reproducibility and high accuracy.

実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させる。 The program according to the embodiment causes a computer to execute each step of the ophthalmologic information processing method according to any one of the above.

このような態様によれば、判定ステップにおいて被検眼の眼底の正面画像に対して乳頭出血の有無を判定し、検出ステップにおいて乳頭出血があると判定された正面画像に対して正面画像における乳頭出血領域が検出される。このとき、検出ステップにおける乳頭出血領域検出モデルは、乳頭出血領域が存在する眼底画像のみを用いて機械学習することで、学習パラメータが乳頭出血領域の検出に特化して更新される。その結果、乳頭出血領域の検出精度を向上させることができる。従って、1つの学習済みモデルを用いて被検眼の眼底画像における乳頭出血領域を検出する場合と比較して、より高い再現性で高精度に眼底画像における乳頭出血領域を検出することが可能になる。 According to such an aspect, the presence or absence of papillary bleeding in the frontal image of the fundus of the eye to be inspected is determined in the determination step, and the papillary bleeding in the frontal image with respect to the frontal image determined to have papillary bleeding in the detection step. The area is detected. At this time, in the papillary bleeding region detection model in the detection step, the learning parameters are updated specifically for the detection of the papillary bleeding region by machine learning using only the fundus image in which the papillary bleeding region exists. As a result, the detection accuracy of the papillary bleeding region can be improved. Therefore, it is possible to detect the papillary bleeding region in the fundus image with higher reproducibility and accuracy as compared with the case of detecting the papillary bleeding region in the fundus image of the test eye using one trained model. ..

<その他>
以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
<Others>
The embodiments shown above are merely examples for carrying out the present invention. A person who intends to carry out the present invention can make arbitrary modifications, omissions, additions, etc. within the scope of the gist of the present invention.

いくつかの実施形態では、上記の眼科装置の制御方法をコンピュータに実行させるためのプログラムが提供される。このようなプログラムを、コンピュータによって読み取り可能な任意の非一時的な記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。 In some embodiments, a program is provided for causing a computer to execute the control method of the ophthalmologic device described above. Such programs can be stored on any non-temporary recording medium that can be read by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used. It is also possible to send and receive this program through a network such as the Internet or LAN.

1、510、510~510 眼科装置
100 OCTユニット
210 制御部
211 主制御部
230 画像形成部
300 データ処理部
310 判定器
320 検出器
340 プロジェクション画像形成部
350 位置合わせ部
360 解析部
361 位置情報生成部
362 形状情報生成部
363 発生情報生成部
400 学習部
410 第1学習部
420 第2学習部
500、500a、500b 眼科システム
520 眼科情報処理装置
561 眼科情報処理部
E 被検眼
Ef 眼底
1, 510, 510 1 to 510 N Ophthalmology equipment 100 OCT unit 210 Control unit 211 Main control unit 230 Image formation unit 300 Data processing unit 310 Judgment device 320 Detector 340 Projection image formation unit 350 Alignment unit 360 Analysis unit 361 Position information Generation unit 362 Shape information generation unit 363 Generation information generation unit 400 Learning unit 410 First learning unit 420 Second learning unit 500, 500a, 500b Ophthalmology system 520 Ophthalmology information processing device 561 Ophthalmology information processing unit E Eye to be inspected Ef Sole

Claims (27)

乳頭出血の有無を示すラベルが付された複数の眼底の正面画像を第1教師データとする機械学習により得られた乳頭出血判定モデルを用いて、被検眼の眼底の正面画像に対して乳頭出血の有無を判定する判定器と、
眼底の正面画像と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデルを用いて、前記判定器により前記乳頭出血があると判定された前記正面画像に描出された乳頭出血領域を検出する検出器と、
を含む、眼科情報処理装置。
Using a papillary bleeding determination model obtained by machine learning using multiple frontal images of the fundus labeled with a label indicating the presence or absence of papillary bleeding as the first teacher data, papillary bleeding with respect to the frontal image of the fundus of the eye to be inspected. A judgment device that determines the presence or absence of
A papillary bleeding region detection model obtained by machine learning using a plurality of pairs of images, which are a pair of a frontal image of the fundus and a papillary bleeding region image representing the papillary bleeding region drawn on the frontal image, as second teacher data. Using the detector, a detector for detecting the papillary bleeding region visualized in the front image, which is determined to have the papillary bleeding by the determination device,
Including ophthalmic information processing equipment.
前記第2教師データは、前記第1教師データに含まれる正面画像を含む
ことを特徴とする請求項1に記載の眼科情報処理装置。
The ophthalmic information processing apparatus according to claim 1, wherein the second teacher data includes a front image included in the first teacher data.
前記第1教師データを用いて教師あり機械学習を実行することにより前記乳頭出血判定モデルを生成する第1学習部を含む
ことを特徴とする請求項1又は請求項2に記載の眼科情報処理装置。
The ophthalmic information processing apparatus according to claim 1 or 2, comprising a first learning unit that generates the papillary bleeding determination model by performing supervised machine learning using the first supervised data. ..
前記第2教師データを用いて教師あり機械学習を実行することにより前記乳頭出血領域検出モデルを生成する第2学習部を含む
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。
The invention according to any one of claims 1 to 3, further comprising a second learning unit that generates the papillary bleeding region detection model by performing supervised machine learning using the second supervised data. The ophthalmic information processing device described.
前記眼底の正面画像は、カラーの正面画像である
ことを特徴とする請求項1~請求項4のいずれか一項に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to any one of claims 1 to 4, wherein the front image of the fundus is a color front image.
前記被検眼の眼底の正面画像を解析することにより、前記被検眼の眼底の正面画像における前記乳頭出血領域の位置を表す位置情報、前記乳頭出血領域の形状を表す形状情報、及び前記乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析部を含む
ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼科情報処理装置。
By analyzing the frontal image of the fundus of the eye to be inspected, the position information indicating the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected, the shape information representing the shape of the papillary bleeding region, and the papillary bleeding region. The ophthalmologic information processing apparatus according to any one of claims 1 to 5, wherein the ophthalmologic information processing apparatus includes an analysis unit that generates at least one of the occurrence information indicating the occurrence status of the above.
前記位置情報は、基準位置に対する前記乳頭出血領域の代表位置の方向を示す情報を含む
ことを特徴とする請求項6に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 6, wherein the position information includes information indicating the direction of a representative position of the papillary bleeding region with respect to a reference position.
前記位置情報は、前記乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む
ことを特徴とする請求項6又は請求項7に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 6, wherein the position information includes information indicating whether the representative position of the optic disc bleeding region is inside the optic disc region or outside the optic disc region.
前記位置情報は、前記代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む
ことを特徴とする請求項8に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 8, wherein the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.
前記形状情報は、前記乳頭出血領域の楕円率、及び前記乳頭出血領域の面積の少なくとも1つを含む
ことを特徴とする請求項6~請求項9のいずれか一項に記載の眼科情報処理装置。
The ophthalmic information processing apparatus according to any one of claims 6 to 9, wherein the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region. ..
前記発生情報は、前記乳頭出血領域の発生頻度、及び前記乳頭出血領域の発生間隔の少なくとも1つを含む
ことを特徴とする請求項6~請求項10のいずれか一項に記載の眼科情報処理装置。
The ophthalmologic information processing according to any one of claims 6 to 10, wherein the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region. Device.
前記被検眼のOCTデータと前記検出器により検出された前記乳頭出血領域が描出された前記被検眼の正面画像との位置合わせを行う位置合わせ部を含み、
前記解析部は、前記位置合わせ部により前記正面画像と位置合わせが行われた前記OCTデータを用いて、前記位置情報、前記形状情報、及び前記発生情報の少なくとも1つを生成する
ことを特徴とする請求項6~請求項11のいずれか一項に記載の眼科情報処理装置。
Includes an alignment section that aligns the OCT data of the eye to be inspected with the frontal image of the inspected eye in which the papillary bleeding region detected by the detector is visualized.
The analysis unit is characterized in that at least one of the position information, the shape information, and the generation information is generated by using the OCT data aligned with the front image by the alignment unit. The ophthalmic information processing apparatus according to any one of claims 6 to 11.
前記被検眼の眼底を撮影する撮影部と、
請求項1~請求項12のいずれか一項に記載の眼科情報処理装置と、
を含む、眼科装置。
An imaging unit that photographs the fundus of the eye to be inspected,
The ophthalmic information processing apparatus according to any one of claims 1 to 12.
Including ophthalmic equipment.
前記被検眼の眼底を撮影する撮影部と、
前記被検眼に対して光コヒーレンストモグラフィを実行することにより前記OCTデータを取得するOCT部と、
請求項12に記載の眼科情報処理装置と、
を含む、眼科装置。
An imaging unit that photographs the fundus of the eye to be inspected,
The OCT unit that acquires the OCT data by performing optical coherence tomography on the eye to be inspected, and
The ophthalmic information processing apparatus according to claim 12,
Including ophthalmic equipment.
乳頭出血の有無を示すラベルが付された複数の眼底の正面画像を第1教師データとする機械学習により得られた乳頭出血判定モデルを用いて、被検眼の眼底の正面画像に対して乳頭出血の有無を判定する判定ステップと、
眼底の正面画像と当該正面画像に描出された乳頭出血領域を表す乳頭出血領域画像とを一対とする複数対の画像群を第2教師データとする機械学習により得られた乳頭出血領域検出モデルを用いて、前記判定ステップにおいて前記乳頭出血があると判定された前記正面画像に描出された乳頭出血領域を検出する検出ステップと、
を含む、眼科情報処理方法。
Using a papillary bleeding determination model obtained by machine learning using multiple frontal images of the fundus labeled with a label indicating the presence or absence of papillary bleeding as the first teacher data, papillary bleeding with respect to the frontal image of the fundus of the eye to be inspected. Judgment step to determine the presence or absence of
A papillary bleeding region detection model obtained by machine learning using a plurality of pairs of images, which are a pair of a frontal image of the fundus and a papillary bleeding region image representing the papillary bleeding region drawn on the frontal image, as second teacher data. Using the detection step of detecting the papillary bleeding region visualized in the front image where it is determined that the papillary bleeding is present in the determination step,
Ophthalmic information processing methods, including.
前記第2教師データは、前記第1教師データに含まれる正面画像を含む
ことを特徴とする請求項15に記載の眼科情報処理方法。
The ophthalmic information processing method according to claim 15, wherein the second teacher data includes a front image included in the first teacher data.
前記第1教師データを用いて教師あり機械学習を実行することにより前記乳頭出血判定モデルを生成する第1学習ステップを含む
ことを特徴とする請求項15又は請求項16に記載の眼科情報処理方法。
The ophthalmic information processing method according to claim 15, further comprising a first learning step of generating the papillary bleeding determination model by performing supervised machine learning using the first supervised data. ..
前記第2教師データを用いて教師あり機械学習を実行することにより前記乳頭出血領域検出モデルを生成する第2学習ステップを含む
ことを特徴とする請求項15~請求項17のいずれか一項に記載の眼科情報処理方法。
15. The described ophthalmic information processing method.
前記眼底の正面画像は、カラーの正面画像である
ことを特徴とする請求項15~請求項18のいずれか一項に記載の眼科情報処理方法。
The ophthalmologic information processing method according to any one of claims 15 to 18, wherein the frontal image of the fundus is a color frontal image.
前記被検眼の眼底の正面画像を解析することにより、前記被検眼の眼底の正面画像における前記乳頭出血領域の位置を表す位置情報、前記乳頭出血領域の形状を表す形状情報、及び前記乳頭出血領域の発生状況を表す発生情報の少なくとも1つを生成する解析ステップを含む
ことを特徴とする請求項15~請求項19のいずれか一項に記載の眼科情報処理方法。
By analyzing the frontal image of the fundus of the eye to be inspected, the position information indicating the position of the papillary bleeding region in the frontal image of the fundus of the eye to be inspected, the shape information representing the shape of the papillary bleeding region, and the papillary bleeding region. The ophthalmologic information processing method according to any one of claims 15 to 19, further comprising an analysis step for generating at least one of the occurrence information representing the occurrence status of the above.
前記位置情報は、基準位置に対する前記乳頭出血領域の代表位置の方向を示す情報を含む
ことを特徴とする請求項20に記載の眼科情報処理方法。
The ophthalmologic information processing method according to claim 20, wherein the position information includes information indicating the direction of a representative position of the papillary bleeding region with respect to a reference position.
前記位置情報は、前記乳頭出血領域の代表位置が視神経乳頭領域内か視神経乳頭領域外かを示す情報を含む
ことを特徴とする請求項20又は請求項21に記載の眼科情報処理方法。
The ophthalmologic information processing method according to claim 20, wherein the position information includes information indicating whether the representative position of the optic disc bleeding region is inside the optic disc region or outside the optic disc region.
前記位置情報は、前記代表位置が視神経乳頭辺縁部内か視神経乳頭辺縁部外かを示す情報を含む
ことを特徴とする請求項22に記載の眼科情報処理方法。
22. The ophthalmologic information processing method according to claim 22, wherein the position information includes information indicating whether the representative position is inside the optic disc margin or outside the optic disc margin.
前記形状情報は、前記乳頭出血領域の楕円率、及び前記乳頭出血領域の面積の少なくとも1つを含む
ことを特徴とする請求項20~請求項23のいずれか一項に記載の眼科情報処理方法。
The ophthalmic information processing method according to any one of claims 20 to 23, wherein the shape information includes at least one of the ellipticity of the papillary bleeding region and the area of the papillary bleeding region. ..
前記発生情報は、前記乳頭出血領域の発生頻度、及び前記乳頭出血領域の発生間隔の少なくとも1つを含む
ことを特徴とする請求項20~請求項24のいずれか一項に記載の眼科情報処理方法。
The ophthalmologic information processing according to any one of claims 20 to 24, wherein the occurrence information includes at least one of the occurrence frequency of the papillary bleeding region and the occurrence interval of the papillary bleeding region. Method.
前記被検眼のOCTデータと前記検出ステップにおいて検出された前記乳頭出血領域が描出された前記被検眼の正面画像との位置合わせを行う位置合わせステップを含み、
前記解析ステップは、前記位置合わせステップにおいて前記正面画像と位置合わせが行われた前記OCTデータを用いて、前記位置情報、前記形状情報、及び前記発生情報の少なくとも1つを生成する
ことを特徴とする請求項20~請求項25のいずれか一項に記載の眼科情報処理方法。
Includes an alignment step that aligns the OCT data of the inspected eye with the frontal image of the inspected eye in which the papillary bleeding region detected in the detection step is visualized.
The analysis step is characterized in that at least one of the position information, the shape information, and the generation information is generated by using the OCT data aligned with the front image in the alignment step. The ophthalmic information processing method according to any one of claims 20 to 25.
コンピュータに、請求項15~請求項26のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。 A program comprising causing a computer to execute each step of the ophthalmic information processing method according to any one of claims 15 to 26.
JP2020184091A 2020-11-04 2020-11-04 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program Pending JP2022074224A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020184091A JP2022074224A (en) 2020-11-04 2020-11-04 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program
PCT/JP2021/040330 WO2022097621A1 (en) 2020-11-04 2021-11-02 Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
US18/142,043 US20230263391A1 (en) 2020-11-04 2023-05-02 Ophthalmic information processing apparatus, ophthalmic apparatus, ophthalmic information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020184091A JP2022074224A (en) 2020-11-04 2020-11-04 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program

Publications (1)

Publication Number Publication Date
JP2022074224A true JP2022074224A (en) 2022-05-18

Family

ID=81457176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020184091A Pending JP2022074224A (en) 2020-11-04 2020-11-04 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method and program

Country Status (3)

Country Link
US (1) US20230263391A1 (en)
JP (1) JP2022074224A (en)
WO (1) WO2022097621A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120157820A1 (en) * 2009-08-24 2012-06-21 Zhou Zhang Method and system for detecting disc haemorrhages
JP2013022028A (en) * 2011-07-14 2013-02-04 Advance Co Ltd Circulatory system diagnostic system
WO2020054188A1 (en) * 2018-09-14 2020-03-19 富士フイルム株式会社 Medical image processing device, method, and program
CN111383775B (en) * 2018-12-27 2023-05-16 福州依影健康科技有限公司 Member user anonymous communication method based on fundus screening and storage device
CN111179258A (en) * 2019-12-31 2020-05-19 中山大学中山眼科中心 Artificial intelligence method and system for identifying retinal hemorrhage image

Also Published As

Publication number Publication date
US20230263391A1 (en) 2023-08-24
WO2022097621A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
US9918634B2 (en) Systems and methods for improved ophthalmic imaging
EP2786700B1 (en) Ophthalmologic apparatus
JP6685151B2 (en) Ophthalmic equipment
JP6899632B2 (en) Ophthalmologic imaging equipment
JP6580448B2 (en) Ophthalmic photographing apparatus and ophthalmic information processing apparatus
JP7106728B2 (en) ophthalmic equipment
JP7348374B2 (en) Ophthalmology information processing device, ophthalmology imaging device, ophthalmology information processing method, and program
JP2022040372A (en) Ophthalmologic apparatus
JP2022189963A (en) Ophthalmologic apparatus
US20230337908A1 (en) Ophthalmic information processing apparatus, ophthalmic apparatus, ophthalmic information processing method, and recording medium
JP2020039430A (en) Image processing device, image processing method and program
JP6736734B2 (en) Ophthalmic photographing device and ophthalmic information processing device
JP6637743B2 (en) Ophthalmic equipment
WO2020158282A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
WO2021149430A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
WO2022097621A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
WO2019150862A1 (en) Blood flow measurement device
WO2021014744A1 (en) Ophthalmological information processing device, ophthalmological device, ophthalmological information processing method, and program
WO2024004455A1 (en) Opthalmic information processing device, opthalmic device, opthalmic information processing method, and program
JP2022075732A (en) Ophthalmologic apparatus and ophthalmologic information processing program
JP2020174928A (en) Ophthalmologic apparatus and control method of the same
CN116829049A (en) Ophthalmic information processing device, ophthalmic information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231026