JP7384656B2 - Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program - Google Patents

Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program Download PDF

Info

Publication number
JP7384656B2
JP7384656B2 JP2019230061A JP2019230061A JP7384656B2 JP 7384656 B2 JP7384656 B2 JP 7384656B2 JP 2019230061 A JP2019230061 A JP 2019230061A JP 2019230061 A JP2019230061 A JP 2019230061A JP 7384656 B2 JP7384656 B2 JP 7384656B2
Authority
JP
Japan
Prior art keywords
image
size
unit
information processing
oct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019230061A
Other languages
Japanese (ja)
Other versions
JP2021097790A (en
Inventor
夏奈 南出
正博 秋葉
拓麻 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2019230061A priority Critical patent/JP7384656B2/en
Publication of JP2021097790A publication Critical patent/JP2021097790A/en
Application granted granted Critical
Publication of JP7384656B2 publication Critical patent/JP7384656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。 The present invention relates to an ophthalmologic information processing device, an ophthalmologic device, an ophthalmologic information processing method, and a program.

近年、レーザー光源からの光ビームを用いて被測定物体の形態を測定したり画像化したりする光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が注目を集めている。OCTは、X線CT(Computed Tomography)のような人体に対する侵襲性を持たないことから、特に医療や生物学等の所定の分野における応用の展開が期待されている。例えば、眼科分野においては、眼底又は前眼部の画像を形成する装置が実用化されている。このようなOCTを用いた装置(OCT装置)は被検眼の様々な部位(眼底や前眼部)の観察に適用可能である。また、高精細な画像を取得できることから、様々な眼科疾患の診断に応用されている。 In recent years, optical coherence tomography (OCT), which uses a light beam from a laser light source to measure or image the form of an object to be measured, has been attracting attention. Since OCT is not invasive to the human body unlike X-ray CT (Computed Tomography), it is expected to be applied particularly in certain fields such as medicine and biology. For example, in the field of ophthalmology, devices that form images of the fundus or anterior segment of the eye have been put into practical use. A device using such OCT (OCT device) can be applied to observation of various parts of the eye to be examined (fundus of the eye and anterior segment of the eye). Additionally, because it can obtain high-definition images, it is applied to the diagnosis of various ophthalmological diseases.

このような眼科疾患として、例えば、ぶどう膜炎が挙げられる。ぶどう膜炎が生じると、眼中に浸潤した炎症細胞により様々な症状が現れる。ぶどう膜炎は、眼科検査の所見及び全身検査の所見から総合的に診断される。眼科検査には、スリットランプを用いた検査、蛍光眼底造影検査などがある。全身検査には、血液検査、胸部X線検査などがある。しかしながら、ぶどう膜炎の診断では、特徴的な所見がみられずに、ぶどう膜炎の診断に至らないことも多い。 Examples of such ophthalmological diseases include uveitis. When uveitis occurs, various symptoms appear due to inflammatory cells infiltrating into the eye. Uveitis is comprehensively diagnosed based on the findings of an ophthalmological examination and the findings of a systemic examination. Ophthalmological examinations include examinations using a slit lamp and fluorescent ophthalmography examinations. Full body examinations include blood tests and chest X-rays. However, in many cases, a diagnosis of uveitis is not made because no characteristic findings are observed.

例えば、非特許文献1には、OCTを用いてぶどう膜炎の診断及び管理を行う手法が開示されている。OCTを実行することにより炎症細胞が描出された画像を取得することは、ぶどう膜炎の診断補助に有用である。 For example, Non-Patent Document 1 discloses a method of diagnosing and managing uveitis using OCT. Obtaining images depicting inflammatory cells by performing OCT is useful for assisting in the diagnosis of uveitis.

ぶどう膜炎以外の眼科疾患についても、OCTを用いて取得された画像に描出された細胞レベルの画像領域を客観的に評価することができれば、様々な眼科疾患の診断補助に有用な情報を提供することができる可能性がある。 For ophthalmological diseases other than uveitis, if it is possible to objectively evaluate the image area at the cellular level depicted in images obtained using OCT, it will provide useful information to assist in the diagnosis of various ophthalmic diseases. There is a possibility that it can be done.

Caio V. Regatieri et al.,“Use of Optical Coherence Tomography in the Diagnosis and Management of Uveitis”, Int Ophthalmol Clin., August 2014Caio V. Regatieri et al. , “Use of Optical Coherence Tomography in the Diagnosis and Management of Uveitis”, Int Ophthalmol Clin. , August 2014

一般的なOCTでは、Aスキャンに直交する方向の横分解能は、Aスキャン方向の深さ分解能ほど高くない。それにより、OCTを用いて取得された画像に描出される細胞又は細胞塊に相当する画像領域を識別することは非常に困難である。従って、従来では、OCT画像中の細胞又は細胞塊(細胞等に対応する画像領域)を客観的に評価することができなかった。 In general OCT, the lateral resolution in the direction perpendicular to the A-scan is not as high as the depth resolution in the A-scan direction. Therefore, it is very difficult to identify image regions corresponding to cells or cell clusters depicted in images obtained using OCT. Therefore, conventionally, it has not been possible to objectively evaluate cells or cell clusters (image areas corresponding to cells, etc.) in OCT images.

本発明は、このような事情を鑑みてなされたものであり、その目的は、OCTの横分解能にかかわらずOCT画像中の画像領域を評価するための新たな技術を提供することにある。 The present invention has been made in view of these circumstances, and its purpose is to provide a new technique for evaluating image regions in OCT images regardless of the lateral resolution of OCT.

いくつかの実施形態の第1態様は、被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定部と、画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定部と、を含む眼科情報処理装置である。 A first aspect of some embodiments includes a region identifying unit that identifies one or more image regions in an OCT image obtained by performing optical coherence tomography on a subject's eye, and a region identifying unit that identifies one or more image regions, and a length of the image region in the A-scan direction. The ophthalmologic information processing apparatus further includes a size specifying section that specifies the size of at least one of the one or more image regions.

いくつかの実施形態の第2態様では、第1態様において、前記サイズ特定部は、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する。 In a second aspect of some embodiments, in the first aspect, the size specifying unit specifies the size of the image area from the length of the longest image area in the A-scan direction.

いくつかの実施形態の第3態様では、第1態様において、前記サイズ特定部は、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する。 In a third aspect of some embodiments, in the first aspect, the size specifying unit specifies the size of the image area from the length of the area surrounding the image area in the A-scan direction.

いくつかの実施形態の第4態様では、第1態様~第3態様のいずれかにおいて、前記領域特定部は、前記OCT画像に描出された細胞又は細胞塊に相当する前記1以上の画像領域を特定する。 In a fourth aspect of some embodiments, in any of the first to third aspects, the region specifying unit identifies the one or more image regions corresponding to cells or cell clusters depicted in the OCT image. Identify.

いくつかの実施形態の第5態様は、第1態様~第4態様のいずれかにおいて、前記サイズ特定部により特定された画像領域のサイズに基づいて前記1以上の画像領域を分類する分類部を含む。 In a fifth aspect of some embodiments, in any of the first to fourth aspects, a classification unit that classifies the one or more image areas based on the size of the image area specified by the size identification unit is provided. include.

いくつかの実施形態の第6態様では、第5態様において、前記OCT画像は、硝子体の少なくとも一部が描出された画像であり、前記分類部は、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に前記1以上の画像領域を分類する。 In a sixth aspect of some embodiments, in the fifth aspect, the OCT image is an image in which at least a portion of the vitreous body is depicted, and the classification section is configured to classify two or more inflammatory cells infiltrating into the vitreous body. The one or more image regions are classified into two or more classification types corresponding to.

いくつかの実施形態の第7態様では、第6態様において、前記2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む。 In a seventh aspect of some embodiments, in the sixth aspect, the two or more classification types correspond to a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a lymphocyte. Includes the third classification type.

いくつかの実施形態の第8態様は、第5態様~第7態様のいずれかにおいて、前記分類部により分類された前記1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成部を含む。 An eighth aspect of some embodiments is a distribution information generation unit that generates distribution information of the number or position of the one or more image regions classified by the classification unit in any of the fifth to seventh aspects. including.

いくつかの実施形態の第9態様は、第5態様~第7態様のいずれかにおいて、前記分類部により分類された分類種別毎に識別可能な態様で前記1以上の画像領域が前記OCT画像に重畳された画像を含む分布情報を生成する分布情報生成部を含む。 A ninth aspect of some embodiments is that in any of the fifth to seventh aspects, the one or more image regions are included in the OCT image in a manner that can be identified for each classification type classified by the classification unit. It includes a distribution information generation unit that generates distribution information including the superimposed images.

いくつかの実施形態の第10態様は、第8態様又は第9態様において、前記分布情報を表示手段に表示させる表示制御部を含む。 A tenth aspect of some embodiments includes, in the eighth aspect or the ninth aspect, a display control unit that causes a display unit to display the distribution information.

いくつかの実施形態の第11態様では、第1態様~第10態様のいずれかにおいて、前記OCT画像は、3次元画像であり、前記サイズ特定部は、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから前記3次元の画像領域のサイズを特定する。 In an eleventh aspect of some embodiments, in any of the first to tenth aspects, the OCT image is a three-dimensional image, and the size specifying section spans two or more adjacent B-scan images. Therefore, the size of the three-dimensional image area is specified from the length of the three-dimensional image area drawn in the A-scan direction.

いくつかの実施形態の第12態様は、第1態様~第11態様のいずれかにおいて、前記被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて前記OCT画像を形成する画像形成部を含む。 In a twelfth aspect of some embodiments, in any of the first to eleventh aspects, the OCT image is formed based on OCT data obtained by performing optical coherence tomography on the eye to be examined. Includes an image forming section.

いくつかの実施形態の第13態様は、前記被検眼に光コヒーレンストモグラフィを実行することによりOCTデータを取得する光学系と、第12態様に記載の眼科情報処理装置と、を含む眼科装置である。 A thirteenth aspect of some embodiments is an ophthalmological apparatus including an optical system that acquires OCT data by performing optical coherence tomography on the eye to be examined, and the ophthalmological information processing apparatus according to the twelfth aspect. be.

いくつかの実施形態の第14態様は、被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定ステップと、画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定ステップと、を含む眼科情報処理方法である。 A fourteenth aspect of some embodiments includes a region specifying step of specifying one or more image regions in an OCT image obtained by performing optical coherence tomography on a subject's eye, and a step of specifying a length of the image region in the A-scan direction. and a size specifying step of specifying the size of at least one of the one or more image regions.

いくつかの実施形態の第15態様では、第14態様において、前記サイズ特定ステップは、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する。 In a fifteenth aspect of some embodiments, in the fourteenth aspect, the size specifying step specifies the size of the image area from the length of the longest image area in the A-scan direction.

いくつかの実施形態の第16態様では、第14態様において、前記サイズ特定ステップは、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する。 In a sixteenth aspect of some embodiments, in the fourteenth aspect, the size identifying step identifies the size of the image area from the length of the area surrounding the image area in the A-scan direction.

いくつかの実施形態の第17態様では、第14態様~第16態様のいずれかにおいて、前記領域特定ステップは、前記OCT画像に描出された細胞又は細胞塊に相当する前記1以上の画像領域を特定する。 In a seventeenth aspect of some embodiments, in any of the fourteenth to sixteenth aspects, the region specifying step includes identifying the one or more image regions corresponding to cells or cell clusters depicted in the OCT image. Identify.

いくつかの実施形態の第18態様では、第14態様~第17態様のいずれかにおいて、前記サイズ特定ステップにおいて特定された画像領域のサイズに基づいて前記1以上の画像領域を分類する分類ステップを含む。 In an eighteenth aspect of some embodiments, in any of the fourteenth to seventeenth aspects, a classification step of classifying the one or more image regions based on the size of the image region identified in the size identifying step is provided. include.

いくつかの実施形態の第19態様では、第18態様において、前記OCT画像は、硝子体の少なくとも一部が描出された画像であり、前記分類ステップは、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に前記1以上の画像領域を分類する。 In a nineteenth aspect of some embodiments, in the eighteenth aspect, the OCT image is an image in which at least a portion of the vitreous body is depicted, and the classifying step includes determining whether two or more inflammatory cells infiltrate the vitreous body. The one or more image regions are classified into two or more classification types corresponding to.

いくつかの実施形態の第20態様では、第19態様において、前記2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む。 In a twentieth aspect of some embodiments, in the nineteenth aspect, the two or more classification types correspond to a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a lymphocyte. Includes the third classification type.

いくつかの実施形態の第21態様は、第18態様~第20態様のいずれかにおいて、前記分類ステップにおいて分類された前記1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成ステップを含む。 A twenty-first aspect of some embodiments is a distribution information generation step of generating distribution information of the number or position of the one or more image regions classified in the classification step in any of the eighteenth to twentieth aspects. including.

いくつかの実施形態の第22態様は、第18態様~第20態様のいずれかにおいて、前記分類ステップにおいて分類された分類種別毎に識別可能な態様で前記1以上の画像領域が前記OCT画像に重畳された画像を含む分布情報を生成する分布情報生成ステップを含む。 A 22nd aspect of some embodiments is that in any of the 18th to 20th aspects, the one or more image regions are added to the OCT image in a manner that can be identified for each classification type classified in the classification step. The method includes a distribution information generation step of generating distribution information including the superimposed images.

いくつかの実施形態の第23態様は、第21態様又は第22態様において、前記分布情報を表示手段に表示させる表示制御ステップを含む。 A twenty-third aspect of some embodiments includes a display control step of displaying the distribution information on a display means in the twenty-first aspect or the twenty-second aspect.

いくつかの実施形態の第24態様では、第14態様~第23態様のいずれかにおいて、前記OCT画像は、3次元画像であり、前記サイズ特定ステップは、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから前記3次元の画像領域のサイズを特定する。 In a twenty-fourth aspect of some embodiments, in any of the fourteenth to twenty-third aspects, the OCT image is a three-dimensional image, and the size specifying step spans two or more adjacent B-scan images. Therefore, the size of the three-dimensional image area is specified from the length of the three-dimensional image area drawn in the A-scan direction.

いくつかの実施形態の第25態様は、第14態様~第24態様のいずれかにおいて、前記被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて前記OCT画像を形成する画像形成ステップを含む。 In a twenty-fifth aspect of some embodiments, in any of the fourteenth to twenty-fourth aspects, the OCT image is formed based on OCT data obtained by performing optical coherence tomography on the eye to be examined. including an image forming step.

いくつかの実施形態の第26態様は、コンピュータに、第14態様~第25態様のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。 A twenty-sixth aspect of some embodiments is a program that causes a computer to execute each step of the ophthalmological information processing method according to any one of the fourteenth to twenty-fifth aspects.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 Note that it is possible to arbitrarily combine the configurations according to the plurality of aspects described above.

本発明によれば、OCTの横分解能にかかわらずOCT画像中の画像領域を評価するための新たな技術を提供することができるようになる。 According to the present invention, it is possible to provide a new technique for evaluating an image region in an OCT image regardless of the lateral resolution of OCT.

実施形態に係る眼科システムの構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmology system concerning an embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。FIG. 1 is a schematic diagram showing an example of the configuration of an ophthalmologic apparatus according to an embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。1 is a schematic diagram showing an example of the configuration of an ophthalmological information processing device according to an embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。1 is a schematic diagram showing an example of the configuration of an ophthalmological information processing device according to an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is a schematic diagram for explaining operation of an ophthalmology information processing device concerning an embodiment. 実施形態に係る眼科情報処理装置の動作フローの一例を表す概略図である。It is a schematic diagram showing an example of an operation flow of an ophthalmology information processing device concerning an embodiment. 実施形態の変形例に係る眼科装置の構成の一例を表す概略図である。It is a schematic diagram showing an example of composition of an ophthalmologic device concerning a modification of an embodiment.

この発明のいくつかの実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの例について、図面を参照しながら詳細に説明する。なお、この明細書で引用する文献に記載された事項や任意の公知技術を実施形態に援用することができる。 Examples of ophthalmologic information processing devices, ophthalmologic devices, ophthalmologic information processing methods, and programs according to some embodiments of the present invention will be described in detail with reference to the drawings. Note that the matters described in the documents cited in this specification and any known technology can be incorporated into the embodiments.

実施形態に係る眼科システムは、眼科装置と、眼科情報処理装置とを含む。実施形態に係る眼科情報処理方法は、眼科情報処理装置により実行される。実施形態に係るプログラムは、実施形態に係る眼科情報処理方法の各ステップをコンピュータに実行させる。 The ophthalmology system according to the embodiment includes an ophthalmology apparatus and an ophthalmology information processing apparatus. The ophthalmological information processing method according to the embodiment is executed by an ophthalmological information processing apparatus. The program according to the embodiment causes a computer to execute each step of the ophthalmological information processing method according to the embodiment.

実施形態に係る眼科情報処理装置は、眼科装置により被検眼に対して光コヒーレンストモグラフィを実行することにより取得された被検眼の画像(データ)に対して所定の解析処理及び所定の表示処理を施すことが可能である。実施形態に係る眼科装置は、被検眼に対してOCTを実行するための光学系を含む。 The ophthalmological information processing device according to the embodiment performs a predetermined analysis process and a predetermined display process on an image (data) of the eye to be examined obtained by performing optical coherence tomography on the eye to be examined by the ophthalmological apparatus. It is possible to apply The ophthalmological apparatus according to the embodiment includes an optical system for performing OCT on a subject's eye.

いくつかの実施形態に係る眼科装置は、更に、被検眼(前眼部又は眼底)の正面画像を取得する機能を備える。被検眼の正面画像を取得する機能は、OCT装置、眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡、手術用顕微鏡などにより実現される。いくつかの実施形態に係る眼科装置は、更に、被検眼の光学的な特性を測定する機能を備える。被検眼の光学的な特性を測定する機能は、レフラクトメーター、ケラトメーター、眼圧計、ウェーブフロントアナライザー、スペキュラーマイクロスコープ、視野計などにより実現される。いくつかの実施形態に係る眼科装置は、更に、レーザー治療に用いられるレーザー治療装置の機能を備える。 The ophthalmological apparatus according to some embodiments further has a function of acquiring a frontal image of the eye to be examined (anterior segment or fundus). The function of acquiring a frontal image of the eye to be examined is realized by an OCT device, a fundus camera, a scanning laser ophthalmoscope, a slit lamp microscope, a surgical microscope, and the like. The ophthalmological apparatus according to some embodiments further includes a function of measuring optical characteristics of an eye to be examined. The function of measuring the optical characteristics of the eye to be examined is achieved by a refractometer, keratometer, tonometer, wavefront analyzer, specular microscope, perimeter, etc. The ophthalmological device according to some embodiments further includes the functionality of a laser treatment device used for laser treatment.

[眼科システム]
図1に、実施形態に係る眼科システムの構成例のブロック図を示す。実施形態に係る眼科システム1は、眼科装置10と、眼科情報処理装置(眼科画像処理装置、眼科解析装置)100と、操作装置180と、表示装置190とを含む。
[Ophthalmology system]
FIG. 1 shows a block diagram of a configuration example of an ophthalmologic system according to an embodiment. The ophthalmology system 1 according to the embodiment includes an ophthalmology apparatus 10, an ophthalmology information processing apparatus (an ophthalmology image processing apparatus, an ophthalmology analysis apparatus) 100, an operating device 180, and a display device 190.

眼科装置10は、被検眼の所定部位をスキャンすることにより1次元、2次元又は3次元のOCTデータを収集する。眼科装置10は、収集されたOCTデータから被検眼の1次元、2次元又は3次元の画像(OCT画像)を取得する。被検眼の画像は、断層像及び正面画像を含む。断層像には、Aスキャン画像、Bスキャン画像などがある。正面画像には、Cスキャン画像、シャドウグラム、又はプロジェクション画像などがある。このような被検眼の画像には、前眼部及び後眼部の少なくとも一方に相当する領域が描出される。 The ophthalmologic apparatus 10 collects one-dimensional, two-dimensional, or three-dimensional OCT data by scanning a predetermined region of the subject's eye. The ophthalmologic apparatus 10 acquires a one-dimensional, two-dimensional, or three-dimensional image (OCT image) of the eye to be examined from the collected OCT data. The image of the eye to be examined includes a tomographic image and a frontal image. Tomographic images include A-scan images, B-scan images, and the like. The frontal image includes a C-scan image, a shadowgram, a projection image, and the like. In such an image of the eye to be examined, a region corresponding to at least one of the anterior segment and the posterior segment is depicted.

特に、実施形態に係る眼科装置10は、前眼部(角膜、水晶体)及び後眼部(眼底)の少なくとも一方をスキャンすることにより、前眼部及び後眼部の少なくとも一方が描出された断層像又は3次元画像を取得することが可能である。断層像又は3次元画像には、前眼房の少なくとも一部に相当する領域、又は硝子体の少なくとも一部に相当する領域が描出される。 In particular, the ophthalmologic apparatus 10 according to the embodiment scans at least one of the anterior segment (cornea, crystalline lens) and the posterior segment (fundus of the eye), thereby providing a tomogram in which at least one of the anterior segment and the posterior segment is visualized. It is possible to obtain images or three-dimensional images. A region corresponding to at least a part of the anterior chamber of the eye or a region corresponding to at least a part of the vitreous body is depicted in the tomographic image or the three-dimensional image.

眼科装置10は、取得された被検眼の画像(データ)を眼科情報処理装置100に送信する。いくつかの実施形態では、眼科装置10と眼科情報処理装置100とは、データ通信ネットワークを介して接続される。いくつかの実施形態に係る眼科情報処理装置100は、データ通信ネットワークを介して選択的に接続された複数の眼科装置10の1つからデータを受信する。 The ophthalmological apparatus 10 transmits the acquired image (data) of the eye to be examined to the ophthalmological information processing apparatus 100. In some embodiments, the ophthalmological device 10 and the ophthalmological information processing device 100 are connected via a data communication network. The ophthalmological information processing apparatus 100 according to some embodiments receives data from one of the plurality of ophthalmological apparatuses 10 selectively connected via a data communication network.

いくつかの実施形態では、眼科装置10は、眼科情報処理装置100の少なくとも一部を含み、眼科情報処理装置100の機能の少なくとも一部を実現することが可能である。例えば、眼科装置10は、更に、操作装置180及び表示装置190の少なくとも一方を含み、操作装置180及び表示装置190の少なくとも一方の機能を実現することが可能である。 In some embodiments, the ophthalmological device 10 includes at least a portion of the ophthalmological information processing device 100 and is capable of realizing at least a portion of the functions of the ophthalmological information processing device 100. For example, the ophthalmological apparatus 10 may further include at least one of an operating device 180 and a display device 190, and can realize the functions of at least one of the operating device 180 and the display device 190.

眼科情報処理装置100は、眼科装置10によって取得された画像(断層像又は3次元画像)に描出された解析対象の1以上の画像領域を特定し、画像領域のAスキャン方向の長さから、特定された1以上の画像領域の少なくとも1つのサイズを特定する。画像領域には、眼内の所定部位(特徴部位、血管、病変部、治療痕)に相当する領域、眼中の細胞又は細胞塊に相当する領域などがある。いくつかの実施形態では、画像領域は、3次元画像における粒状の物質に相当する領域、又は断層像における円状の物質に相当する領域である。 The ophthalmological information processing device 100 identifies one or more image regions to be analyzed depicted in the image (tomographic image or three-dimensional image) acquired by the ophthalmological device 10, and from the length of the image region in the A-scan direction, A size of at least one of the identified one or more image regions is determined. The image region includes a region corresponding to a predetermined region within the eye (a characteristic region, a blood vessel, a lesion, a treatment scar), a region corresponding to cells or cell clusters within the eye, and the like. In some embodiments, the image region is a region corresponding to a granular material in a three-dimensional image or a region corresponding to a circular material in a tomographic image.

眼科情報処理装置100は、特定された画像領域のサイズに基づいて、取得された画像に描出された複数の画像領域を複数の分類種別に分類する。眼科情報処理装置100は、複数の画像領域の分類結果に基づいて分布情報を生成することが可能である。分布情報には、分類された分類種別毎の個数(複数の画像領域の個数)の分布情報(例えば、ヒストグラム)、分類された分類種別毎の位置の分布情報(例えば、分布画像)などがある。いくつかの実施形態では、分布情報は、分類種別毎に識別可能な態様で複数の画像領域が被検眼の画像に重畳された画像を含む。眼科情報処理装置100は、生成された分布情報を表示装置190に表示させることが可能である。 The ophthalmologic information processing apparatus 100 classifies a plurality of image regions depicted in the acquired image into a plurality of classification types based on the size of the identified image region. The ophthalmological information processing apparatus 100 can generate distribution information based on the classification results of a plurality of image regions. The distribution information includes distribution information (e.g., histogram) of the number of classified objects (number of image regions) for each classified classification type, distribution information of the position of each classified classification type (e.g., distribution image), etc. . In some embodiments, the distribution information includes an image in which a plurality of image regions are superimposed on an image of the eye to be examined in a manner that can be identified for each classification type. The ophthalmological information processing apparatus 100 can display the generated distribution information on the display device 190.

これにより、OCTの横分解能に起因して識別が困難な場合であっても、被検眼の画像に描出された1以上の画像領域のそれぞれのサイズをAスキャン方向の長さから特定し、特定されたサイズを用いて1以上の画像領域を評価することができるようになる。 As a result, even if identification is difficult due to the lateral resolution of OCT, the size of each of one or more image regions depicted in the image of the subject's eye can be identified from the length in the A-scan direction, and the One or more image regions can now be evaluated using the determined size.

操作装置180及び表示装置190は、ユーザインターフェイス部として情報の表示、情報の入力、操作指示の入力など、眼科情報処理装置100とそのユーザとの間で情報をやりとりするための機能を提供する。操作装置180は、レバー、ボタン、キー、ポインティングデバイス等の操作デバイスを含む。いくつかの実施形態に係る操作装置180は、音で情報を入力するためのマイクロフォンを含む。表示装置190は、フラットパネルディスプレイ等の表示デバイスを含む。いくつかの実施形態では、操作装置180及び表示装置190の機能は、タッチパネルディスプレイのような入力機能を有するデバイスと表示機能を有するデバイスとが一体化されたデバイスにより実現される。いくつかの実施形態では、操作装置180及び表示装置190は、情報の入出力を行うためのグラフィカルユーザインターフェイス(GUI)を含む。 The operating device 180 and the display device 190 serve as user interface units and provide functions for exchanging information between the ophthalmological information processing device 100 and its user, such as displaying information, inputting information, and inputting operation instructions. The operating device 180 includes operating devices such as levers, buttons, keys, and pointing devices. The operating device 180 according to some embodiments includes a microphone for inputting information by sound. Display device 190 includes a display device such as a flat panel display. In some embodiments, the functions of the operating device 180 and the display device 190 are realized by a device that integrates a device with an input function and a device with a display function, such as a touch panel display. In some embodiments, operating device 180 and display device 190 include a graphical user interface (GUI) for inputting and outputting information.

以下では、眼科情報処理装置100が、主に、OCT画像における、硝子体に浸潤した炎症細胞又は細胞塊に相当する画像領域の分布情報を生成する場合について説明する。この場合、眼科装置10は、硝子体の少なくとも一部を含む眼底に対してOCTスキャンを実行することによりOCTデータを収集する。眼科情報処理装置100は、収集されたOCTデータから硝子体の少なくとも一部を含むOCT画像を取得し、取得されたOCT画像に描出された炎症細胞又は細胞塊に相当する画像領域を特定し、特定された画像領域の分布情報を生成する。 Below, a case will be described in which the ophthalmological information processing apparatus 100 mainly generates distribution information of an image region corresponding to inflammatory cells or cell clusters infiltrated into the vitreous body in an OCT image. In this case, the ophthalmological apparatus 10 collects OCT data by performing an OCT scan on the fundus including at least a portion of the vitreous body. The ophthalmological information processing device 100 acquires an OCT image including at least a portion of the vitreous body from the collected OCT data, identifies an image region corresponding to inflammatory cells or cell clusters depicted in the acquired OCT image, Generate distribution information for the identified image area.

また、眼科情報処理装置100は、炎症細胞又は細胞塊以外の物質に相当する画像領域の分布情報を生成するように構成されていてもよい。また、眼科装置10は、硝子体以外の部位(例えば、前眼房)に対してOCTスキャンを実行し、眼科情報処理装置100は、硝子体以外の部位の画像に描出された細胞又は細胞塊に相当する画像領域の分布情報を生成するように構成されていてもよい。 Further, the ophthalmological information processing apparatus 100 may be configured to generate distribution information of an image region corresponding to substances other than inflammatory cells or cell clusters. The ophthalmological apparatus 10 also performs an OCT scan on a site other than the vitreous body (for example, the anterior chamber of the eye), and the ophthalmological information processing apparatus 100 scans cells or cell clusters depicted in the image of the site other than the vitreous body. It may be configured to generate distribution information of an image area corresponding to .

[眼科装置]
図2に、実施形態に係る眼科装置10の構成例のブロック図を示す。
[Ophthalmological equipment]
FIG. 2 shows a block diagram of a configuration example of the ophthalmologic apparatus 10 according to the embodiment.

眼科装置10には、被検眼のOCTデータを取得するための光学系が設けられている。眼科装置10は、スウェプトソースOCTを実行する機能を備えているが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 The ophthalmological apparatus 10 is provided with an optical system for acquiring OCT data of the eye to be examined. Although the ophthalmologic apparatus 10 has the ability to perform swept source OCT, embodiments are not limited thereto. For example, the type of OCT is not limited to swept source OCT, but may be spectral domain OCT or the like. Swept source OCT splits light from a wavelength swept (wavelength scanning) light source into measurement light and reference light, and generates interference light by interfering with the reference light and the return light of the measurement light that has passed through the measured object. This interference light is then detected by a balanced photodiode or the like, and an image is formed by performing Fourier transform or the like on the detection data collected according to the wavelength sweep and measurement light scan. Spectral domain OCT splits light from a low-coherence light source into measurement light and reference light, makes the return light of the measurement light via the measured object interfere with the reference light, and generates interference light. This is a method in which the spectral distribution is detected with a spectrometer and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

眼科装置10は、制御部11と、データ収集部12と、画像形成部13と、通信部14とを含む。 The ophthalmological apparatus 10 includes a control section 11, a data collection section 12, an image forming section 13, and a communication section 14.

制御部11は、眼科装置10の各部を制御する。特に、制御部11は、データ収集部12、画像形成部13、及び通信部14を制御する。 The control unit 11 controls each part of the ophthalmological apparatus 10. In particular, the control section 11 controls the data collection section 12, the image forming section 13, and the communication section 14.

データ収集部12は、OCTを用いて被検眼をスキャンすることにより被検眼のデータ(1次元、2次元、又は3次元のOCTデータ)を収集する。データ収集部12は、干渉光学系12Aと、スキャン光学系12Bとを含む。 The data collection unit 12 collects data on the eye to be examined (one-dimensional, two-dimensional, or three-dimensional OCT data) by scanning the eye to be examined using OCT. The data collection unit 12 includes an interference optical system 12A and a scanning optical system 12B.

干渉光学系12Aは、光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光を参照光路を経由した参照光と干渉させて干渉光を生成し、生成された干渉光を検出する。干渉光学系12Aは、ファイバーカプラと、バランスドフォトダイオード等の受光器とを少なくとも含む。ファイバーカプラは、光源からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光と参照光路を経由した参照光と干渉させて干渉光を生成する。受光器は、ファイバーカプラにより生成された干渉光を検出する。干渉光学系12Aは、光源を含んでよい。 The interference optical system 12A splits the light from the light source (wavelength sweep type light source) into measurement light and reference light, and causes the return light of the measurement light that has passed through the eye to be examined to interfere with the reference light that has passed through the reference optical path to generate interference. Generate light and detect the generated interference light. The interference optical system 12A includes at least a fiber coupler and a light receiver such as a balanced photodiode. The fiber coupler splits the light from the light source into measurement light and reference light, and generates interference light by interfering with the return light of the measurement light that has passed through the eye to be examined and the reference light that has passed through the reference optical path. The optical receiver detects the interference light generated by the fiber coupler. The interference optical system 12A may include a light source.

干渉光学系12Aは、被検眼の前眼部又は眼底を経由した測定光の戻り光と参照光路を経由した参照光との干渉光を検出することが可能である。例えば、測定光の焦点位置を被検眼の前眼部又はその近傍に配置することで、前眼部に対するOCTスキャンが可能になる。例えば、測定光の焦点位置を被検眼の眼底又はその近傍に配置することで、眼底に対するOCTスキャンが可能になる。測定光の焦点位置は、対物レンズと被検眼との間での前置レンズの挿脱制御、及び測定光の焦点位置を変更する合焦レンズの光軸方向の移動制御の少なくとも一方を行うことにより変更可能である。 The interference optical system 12A is capable of detecting interference light between the return light of the measurement light that has passed through the anterior segment or the fundus of the subject's eye and the reference light that has passed through the reference optical path. For example, by placing the focal point of the measurement light at or near the anterior segment of the eye to be examined, OCT scanning of the anterior segment becomes possible. For example, by placing the focal point of the measurement light at or near the fundus of the eye to be examined, OCT scanning of the fundus becomes possible. The focal position of the measurement light is controlled by at least one of controlling the insertion and removal of the front lens between the objective lens and the eye to be examined, and controlling movement of the focusing lens in the optical axis direction to change the focal position of the measurement light. It can be changed by

スキャン光学系12Bは、制御部11からの制御を受け、干渉光学系12Aにより生成された測定光を偏向することにより被検眼における測定光の入射位置を変更する。スキャン光学系12Bは、例えば、被検眼の瞳孔と光学的に略共役な位置に配置された光スキャナを含む。光スキャナは、例えば、測定光を水平方向にスキャンするガルバノミラーと、垂直方向にスキャンするガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光を光軸に交差する平面上の任意の方向にスキャンすることができる。 The scanning optical system 12B changes the incident position of the measurement light on the subject's eye by deflecting the measurement light generated by the interference optical system 12A under the control of the control unit 11. The scanning optical system 12B includes, for example, an optical scanner placed at a position that is optically substantially conjugate with the pupil of the eye to be examined. The optical scanner includes, for example, a galvano mirror that scans measurement light in the horizontal direction, a galvano mirror that scans the measurement light in the vertical direction, and a mechanism that independently drives these. Thereby, the measurement light can be scanned in any direction on a plane intersecting the optical axis.

干渉光学系12Aによる干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号である。 The detection result (detection signal) of the interference light by the interference optical system 12A is an interference signal indicating the spectrum of the interference light.

画像形成部13は、制御部11からの制御を受け、データ収集部12により収集された被検眼の(3次元の)OCTデータに基づいて被検眼の前眼部又は眼底の断層像の画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼内における各測定光の経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。 The image forming unit 13 is controlled by the control unit 11 and generates image data of a tomographic image of the anterior segment or fundus of the eye to be examined based on the (three-dimensional) OCT data of the eye to be examined collected by the data collection unit 12. form. This processing includes processing such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform). The image data acquired in this manner is a data set including a group of image data formed by imaging reflection intensity profiles in a plurality of A-lines (paths of each measurement light within the subject's eye). To improve image quality, multiple data sets collected by scanning the same pattern multiple times can be overlapped (averaged).

画像形成部13は、3次元のOCTデータに各種のレンダリングを施すことで、Bスキャン画像、Cスキャン画像、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元のOCTデータから選択することにより形成される。プロジェクション画像は、3次元のOCTデータを所定方向(Z方向、深さ方向、Aスキャン方向)に投影することによって形成される。シャドウグラムは、3次元のOCTデータの一部(例えば特定層に相当する部分データ)を所定方向に投影することによって形成される。 The image forming unit 13 can form a B-scan image, a C-scan image, a projection image, a shadowgram, etc. by performing various types of rendering on three-dimensional OCT data. An image of an arbitrary cross section, such as a B-scan image or a C-scan image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from three-dimensional OCT data. A projection image is formed by projecting three-dimensional OCT data in a predetermined direction (Z direction, depth direction, A scan direction). A shadowgram is formed by projecting a portion of three-dimensional OCT data (for example, partial data corresponding to a specific layer) in a predetermined direction.

いくつかの実施形態に係る眼科装置10には、画像形成部13により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施すデータ処理部が設けられる。例えば、データ処理部は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The ophthalmological apparatus 10 according to some embodiments is provided with a data processing section that performs various data processing (image processing) and analysis processing on the image formed by the image forming section 13. For example, the data processing unit executes correction processing such as image brightness correction and dispersion correction. The data processing unit can form volume data (voxel data) of the eye to be examined by performing known image processing such as interpolation processing that interpolates pixels between tomographic images. When displaying an image based on volume data, the data processing unit performs rendering processing on the volume data to form a pseudo three-dimensional image when viewed from a specific viewing direction.

制御部11及び画像形成部13のそれぞれは、プロセッサを含む。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。画像形成部13の機能は、画像形成プロセッサにより実現される。いくつかの実施形態では、制御部11及び画像形成部13の双方の機能が1つのプロセッサにより実現される。いくつかの実施形態では、眼科装置10にデータ処理部が設けられている場合、データ処理部の機能もまたプロセッサにより実現される。 Each of the control section 11 and the image forming section 13 includes a processor. The processor may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or a programmable logic device (for example, an SPLD). (Simple Programmable Logic Device), CPLD (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)). The functions of the image forming section 13 are realized by an image forming processor. In some embodiments, the functions of both the control unit 11 and the image forming unit 13 are implemented by one processor. In some embodiments, if the ophthalmological device 10 is provided with a data processing unit, the functionality of the data processing unit is also implemented by the processor.

プロセッサは、例えば、記憶回路又は記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路又は記憶装置がプロセッサに含まれていてよい。また、記憶回路又は記憶装置がプロセッサの外部に設けられていてよい。 The processor realizes the functions according to the embodiment by, for example, reading and executing a program stored in a memory circuit or a memory device. A memory circuit or device may be included in the processor. Further, a memory circuit or a memory device may be provided outside the processor.

記憶回路又は記憶装置は、各種のデータを記憶する。記憶回路又は記憶装置に記憶されるデータとしては、データ収集部12により取得されたデータ(測定データ、撮影データ等)や、被検者及び被検眼に関する情報などがある。記憶回路又は記憶装置には、眼科装置10の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。 A memory circuit or a memory device stores various data. The data stored in the storage circuit or storage device includes data acquired by the data collection unit 12 (measured data, photographed data, etc.), information regarding the subject and the subject's eye, and the like. The storage circuit or storage device may store various computer programs and data for operating each part of the ophthalmologic apparatus 10.

通信部14は、制御部11からの制御を受け、眼科情報処理装置100との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。 The communication unit 14 receives control from the control unit 11 and executes communication interface processing for transmitting or receiving information with the ophthalmological information processing apparatus 100.

いくつかの実施形態に係る眼科装置10は、画像形成部13により形成された被検眼の画像データを眼科情報処理装置100に送信する。 The ophthalmological apparatus 10 according to some embodiments transmits image data of the eye to be examined formed by the image forming unit 13 to the ophthalmological information processing apparatus 100.

いくつかの実施形態に係る眼科装置10には、被検眼の眼底の画像を取得するための眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡が設けられる。いくつかの実施形態では、眼底カメラにより取得される眼底画像は、フルオレセイン蛍光眼底造影画像又は眼底自発蛍光検査画像である。 The ophthalmological apparatus 10 according to some embodiments is provided with a fundus camera, a scanning laser ophthalmoscope, and a slit lamp microscope for acquiring an image of the fundus of an eye to be examined. In some embodiments, the fundus image acquired by the fundus camera is a fluorescein angiography image or a fundus autofluorescence test image.

[眼科情報処理装置]
図3及び図4に、実施形態に係る眼科情報処理装置100の構成例のブロック図を示す。図3は、眼科情報処理装置100の機能ブロック図を表す。図4は、図3の解析部200の機能ブロック図を表す。
[Ophthalmology information processing device]
3 and 4 show block diagrams of exemplary configurations of the ophthalmological information processing apparatus 100 according to the embodiment. FIG. 3 represents a functional block diagram of the ophthalmological information processing apparatus 100. FIG. 4 represents a functional block diagram of the analysis section 200 of FIG. 3.

眼科情報処理装置100は、制御部110と、画像形成部120と、データ処理部130と、通信部140とを含む。 The ophthalmological information processing apparatus 100 includes a control section 110, an image forming section 120, a data processing section 130, and a communication section 140.

制御部110は、眼科情報処理装置100の各部を制御する。特に、制御部110は、画像形成部120、データ処理部130、及び通信部140を制御する。 The control section 110 controls each section of the ophthalmological information processing apparatus 100. In particular, the control section 110 controls the image forming section 120, the data processing section 130, and the communication section 140.

通信部140は、制御部110からの制御を受け、眼科情報処理装置100の通信部14との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。 The communication unit 140 receives control from the control unit 110 and executes communication interface processing for transmitting or receiving information with the communication unit 14 of the ophthalmological information processing device 100.

制御部110は、眼科情報処理装置100の各部を制御する。特に、制御部110は、画像形成部120と、データ処理部130と、通信部140とを制御する。制御部110は、主制御部111と、記憶部112とを含む。主制御部111は、表示制御部111Aを含む。 The control section 110 controls each section of the ophthalmological information processing apparatus 100. In particular, the control section 110 controls the image forming section 120, the data processing section 130, and the communication section 140. Control unit 110 includes a main control unit 111 and a storage unit 112. The main control section 111 includes a display control section 111A.

表示制御部111Aは、各種の情報を表示装置190に表示させる。例えば、表示制御部111Aは、画像形成部120により形成された被検眼の画像(断層像、OCT画像)や、データ処理部130によるデータ処理結果(解析処理結果を含む)の画像を表示装置190に表示させる。特に、表示制御部111Aは、被検眼の画像を表示装置190に表示させ、且つ画像において、炎症細胞又は細胞塊に相当する画像領域を識別可能に表示させる。いくつかの実施形態に係る表示制御部111Aは、被検眼の画像を表示装置190に表示させ、且つ画像における炎症細胞等に相当する領域をハイライト表示させる。例えば、表示制御部111Aは、炎症細胞等に相当する領域又はその背景領域内の画素の輝度がそれ以外の領域の画素の輝度より高くなるように炎症細胞等に相当する領域又はその背景領域を表示させる。 The display control unit 111A causes the display device 190 to display various information. For example, the display control unit 111A displays the image of the eye to be examined (tomographic image, OCT image) formed by the image forming unit 120 and the image of the data processing result (including the analysis processing result) by the data processing unit 130 on the display device 190. to be displayed. In particular, the display control unit 111A causes the display device 190 to display an image of the eye to be examined, and causes an image region corresponding to an inflammatory cell or a cell mass to be displayed in an identifiable manner in the image. The display control unit 111A according to some embodiments causes the display device 190 to display an image of the eye to be examined, and highlights a region corresponding to an inflammatory cell or the like in the image. For example, the display control unit 111A may display the area corresponding to the inflammatory cells or the background area thereof so that the brightness of the pixels in the area corresponding to the inflammatory cells or the background area is higher than the brightness of the pixels in the other areas. Display.

また、表示制御部111Aは、検査日が異なる複数のOCTデータから後述するように特定された炎症細胞等に相当する領域を表す画像を時系列に表示装置190に表示させることができる。 Furthermore, the display control unit 111A can cause the display device 190 to display in chronological order images representing regions corresponding to inflammatory cells and the like identified as described later from a plurality of OCT data having different examination dates.

制御部110は、操作装置180に対するユーザの操作内容に対応した操作指示信号に基づいて、眼科システム1の各部を制御する。 The control unit 110 controls each unit of the ophthalmological system 1 based on an operation instruction signal corresponding to the user's operation on the operating device 180.

制御部110、画像形成部120、及びデータ処理部130のそれぞれは、プロセッサを含む。画像形成部120の機能は、画像形成プロセッサにより実現される。データ処理部130の機能は、データ処理プロセッサにより実現される。いくつかの実施形態では、制御部110、画像形成部120、及びデータ処理部130のうち少なくとも2つの機能が1つのプロセッサにより実現される。 Each of the control section 110, the image forming section 120, and the data processing section 130 includes a processor. The functions of the image forming section 120 are realized by an image forming processor. The functions of the data processing section 130 are realized by a data processing processor. In some embodiments, the functions of at least two of the control unit 110, the image forming unit 120, and the data processing unit 130 are implemented by one processor.

記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、眼科装置10により取得されたデータ(測定データ、撮影データ等)、画像形成部120により形成された画像データ、データ処理部130によるデータ処理結果、被検者及び被検眼に関する情報などがある。記憶部112には、眼科情報処理装置100の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。 The storage unit 112 stores various data. The data stored in the storage unit 112 includes data acquired by the ophthalmological apparatus 10 (measured data, photographed data, etc.), image data formed by the image forming unit 120, data processing results by the data processing unit 130, and the subject. There is information regarding the subject and the eye to be examined. The storage unit 112 may store various computer programs and data for operating each unit of the ophthalmological information processing device 100.

(画像形成部120)
画像形成部120は、制御部110からの制御を受け、眼科装置10により取得されたOCTデータから各種のOCT画像を形成する。例えば、画像形成部120は、眼科装置10によって取得された1次元、2次元、又は3次元のOCTデータからAスキャン画像を形成する。例えば、画像形成部120は、眼科装置10によって取得された2次元又は3次元のOCTデータからBスキャン画像を形成する。画像形成部120は、画像形成部13と同様に上記の画像を形成することが可能である。眼科装置10の画像形成部13が上記の画像形成部120の機能を有する場合、眼科情報処理装置100に画像形成部120が設けられていなくてもよい。
(Image forming section 120)
The image forming section 120 forms various OCT images from the OCT data acquired by the ophthalmologic apparatus 10 under the control of the control section 110 . For example, the image forming unit 120 forms an A-scan image from one-dimensional, two-dimensional, or three-dimensional OCT data acquired by the ophthalmological apparatus 10. For example, the image forming unit 120 forms a B-scan image from two-dimensional or three-dimensional OCT data acquired by the ophthalmologic apparatus 10. The image forming section 120 can form the above-mentioned image similarly to the image forming section 13. When the image forming section 13 of the ophthalmological apparatus 10 has the function of the image forming section 120 described above, the image forming section 120 does not need to be provided in the ophthalmological information processing apparatus 100.

(データ処理部130)
データ処理部130は、画像形成部120により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部130は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部130(又は、画像形成部120)は、眼科装置10によって取得された3次元のOCTデータからAスキャン画像、Bスキャン画像、Cスキャン画像、プロジェクション画像、シャドウグラムなどを形成する。眼科装置10がデータ処理部130の機能を有する場合、眼科情報処理装置100にデータ処理部130が設けられていなくてもよい。
(Data processing unit 130)
The data processing unit 130 performs various data processing (image processing) and analysis processing on the image formed by the image forming unit 120. For example, the data processing unit 130 executes correction processing such as image brightness correction and dispersion correction. The data processing unit 130 (or the image forming unit 120) forms an A-scan image, a B-scan image, a C-scan image, a projection image, a shadowgram, etc. from the three-dimensional OCT data acquired by the ophthalmologic apparatus 10. When the ophthalmologic apparatus 10 has the function of the data processing section 130, the data processing section 130 may not be provided in the ophthalmologic information processing apparatus 100.

データ処理部130は、3次元画像生成部131と、解析部200とを含む。 The data processing section 130 includes a three-dimensional image generation section 131 and an analysis section 200.

(3次元画像生成部131)
3次元画像生成部131は、Bスキャン画像(断層像)の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部130は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。
(3D image generation unit 131)
The three-dimensional image generation unit 131 can form volume data (voxel data) of the eye to be examined by performing known image processing such as interpolation processing that interpolates pixels between B-scan images (tomographic images). can. When displaying an image based on volume data, the data processing unit 130 performs rendering processing on the volume data to form a pseudo three-dimensional image when viewed from a specific viewing direction.

いくつかの実施形態では、3次元画像生成部131は、後述の解析部200により炎症細胞又は細胞塊に相当する画像領域が特定された複数のBスキャン画像に対して上記の画像処理を実行する。それにより、データ処理部130は、炎症細胞等に相当する画像領域が特定可能なボリュームデータを形成することができる。 In some embodiments, the three-dimensional image generation unit 131 performs the above image processing on a plurality of B-scan images in which image regions corresponding to inflammatory cells or cell clusters have been identified by the analysis unit 200 described below. . Thereby, the data processing unit 130 can form volume data in which image regions corresponding to inflammatory cells and the like can be identified.

いくつかの実施形態では、後述の解析部200は、3次元画像生成部131により生成されたボリュームデータを解析することにより炎症細胞又は細胞塊に相当する画像領域を特定する。データ処理部130は、解析部200により特定された画像領域をボリュームデータに対応付けることにより、炎症細胞等に相当する画像領域が特定可能なボリュームデータを形成することができる。 In some embodiments, the analysis unit 200 described below specifies an image region corresponding to inflammatory cells or cell clusters by analyzing volume data generated by the three-dimensional image generation unit 131. By associating the image area specified by the analysis unit 200 with the volume data, the data processing unit 130 can form volume data in which image areas corresponding to inflammatory cells and the like can be specified.

(解析部200)
解析部200は、画像形成部120により形成された被検眼の画像データ(又は眼科装置10により取得された被検眼の画像データ)に対して所定の解析処理を施す。いくつかの実施形態に係る解析処理には、炎症細胞又は細胞塊に相当する画像領域の特定処理、特定された画像領域のサイズの特定処理、特定されたサイズに基づく所定の分類種別への分類処理、分布情報の生成処理などが含まれる。
(Analysis section 200)
The analysis unit 200 performs predetermined analysis processing on the image data of the eye to be examined formed by the image forming unit 120 (or the image data of the eye to be examined acquired by the ophthalmological apparatus 10). The analysis processing according to some embodiments includes identification of an image region corresponding to inflammatory cells or cell clusters, identification of the size of the identified image region, and classification into a predetermined classification type based on the identified size. This includes processing, distribution information generation processing, etc.

解析部200は、領域特定部210と、領域連結部220と、サイズ特定部230と、分類部240と、分布情報生成部250とを含む。この実施形態では、領域特定部210は、複数のBスキャン画像のそれぞれについて、炎症細胞等に相当する画像領域を特定するものとする。そして、3次元画像生成部131が、領域特定部210により炎症細胞等に相当する画像領域が特定された複数のBスキャン画像からボリュームデータを形成するものとする。少なくとも領域連結部220は、3次元画像生成部131により形成されたボリュームデータに対して後述の処理を行うものとする。 The analysis section 200 includes a region specifying section 210, a region connecting section 220, a size specifying section 230, a classification section 240, and a distribution information generating section 250. In this embodiment, it is assumed that the region specifying unit 210 specifies an image region corresponding to inflammatory cells or the like in each of the plurality of B-scan images. It is assumed that the three-dimensional image generation unit 131 forms volume data from a plurality of B-scan images in which image regions corresponding to inflammatory cells and the like are identified by the area identification unit 210. It is assumed that at least the region connecting section 220 performs the processing described below on the volume data formed by the three-dimensional image generating section 131.

いくつかの実施形態では、解析部200の機能は、1以上のプロセッサにより実現される。いくつかの実施形態では、解析部200の各部の機能は、1以上のプロセッサにより実現される。 In some embodiments, the functionality of analysis unit 200 is implemented by one or more processors. In some embodiments, the functions of each part of the analysis unit 200 are implemented by one or more processors.

(領域特定部210)
領域特定部210は、被検眼の眼底(又は前眼部)のBスキャン画像(OCT画像)から炎症細胞又は細胞塊に相当する1以上の画像領域を特定する。領域特定部210は、解析範囲特定部211と、ノイズ除去部212と、二値化処理部213とを含む。
(Area identification unit 210)
The region identifying unit 210 identifies one or more image regions corresponding to inflammatory cells or cell clusters from a B-scan image (OCT image) of the fundus (or anterior segment) of the eye to be examined. The region specifying section 210 includes an analysis range specifying section 211, a noise removing section 212, and a binarization processing section 213.

(解析範囲特定部211)
解析範囲特定部211は、セグメンテーション処理によりBスキャン画像に描出される所定の層領域を特定し、特定された層領域を基準に画像領域の解析範囲を特定する。具体的には、解析範囲特定部211は、眼科装置10により取得された被検眼のOCTデータ又はBスキャン画像に基づいてAスキャン方向の複数の層領域を特定し、特定され複数の層領域から所定の層領域を特定する。
(Analysis range identification unit 211)
The analysis range specifying unit 211 specifies a predetermined layer region depicted in the B-scan image through segmentation processing, and specifies the analysis range of the image region based on the specified layer region. Specifically, the analysis range specifying unit 211 specifies a plurality of layer regions in the A-scan direction based on the OCT data or B-scan image of the eye to be examined acquired by the ophthalmological apparatus 10, and extracts a plurality of layer regions from the specified layer regions. Identify the predetermined layer area.

いくつかの実施形態に係る解析範囲特定部211は、3次元のOCTデータを解析することにより、被検眼の複数の組織に相当する複数の部分データセットを特定する。例えば、解析範囲特定部211は、OCTデータに含まれる各Aスキャン画像における画素値(輝度値)の勾配を求め、勾配が大きい位置を組織境界として特定する。なお、Aスキャン画像は、眼底の深さ方向にのびる1次元画像データである。眼底の深さ方向は、例えば、Z方向、測定光の入射方向、測定光軸方向、干渉光学系の光軸方向などとして定義される。 The analysis range specifying unit 211 according to some embodiments specifies a plurality of partial data sets corresponding to a plurality of tissues of the eye to be examined by analyzing three-dimensional OCT data. For example, the analysis range identifying unit 211 determines the gradient of pixel values (luminance values) in each A-scan image included in the OCT data, and identifies a position where the gradient is large as a tissue boundary. Note that the A-scan image is one-dimensional image data extending in the depth direction of the fundus. The depth direction of the fundus is defined as, for example, the Z direction, the direction of incidence of measurement light, the direction of the measurement optical axis, the direction of the optical axis of the interference optical system, and the like.

典型的な例において、解析範囲特定部211は、眼底(網膜、脈絡膜等)及び硝子体を表すOCTデータを解析することにより、眼底の複数の層組織に相当する複数の部分データセットを特定する。各部分データセットは、層組織の境界によって画成される。部分データセットとして特定される層組織の例として、網膜を構成する層組織がある。網膜を構成する層組織には、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、RPEがある。解析範囲特定部211は、ブルッフ膜、脈絡膜、強膜、硝子体等に相当する部分データセットを特定することができる。いくつかの実施形態に係る解析範囲特定部211は、病変部に相当する部分データセットを特定する。病変部の例として、剥離部、浮腫、出血、腫瘍、ドルーゼンなどがある。 In a typical example, the analysis range specifying unit 211 specifies a plurality of partial data sets corresponding to a plurality of layer tissues of the fundus by analyzing OCT data representing the fundus (retina, choroid, etc.) and the vitreous body. . Each partial data set is defined by the boundaries of the layer organization. An example of a layered tissue specified as a partial data set is a layered tissue that constitutes a retina. The layered tissues constituting the retina include the inner limiting membrane, the nerve fiber layer, the ganglion cell layer, the inner plexiform layer, the inner nuclear layer, the outer plexiform layer, the outer nuclear layer, the outer limiting membrane, the photoreceptor layer, and the RPE. The analysis range identification unit 211 can identify partial data sets corresponding to Bruch's membrane, choroid, sclera, vitreous body, and the like. The analysis range specifying unit 211 according to some embodiments specifies a partial data set corresponding to a lesion. Examples of lesions include avulsions, edema, hemorrhages, tumors, and drusen.

いくつかの実施形態に係る解析範囲特定部211は、RPEに対して強膜側の所定のピクセル数分の層組織をブルッフ膜として特定し、当該層組織に相当する部分データセットをブルッフ膜の部分データセットとして取得する。 The analysis range specifying unit 211 according to some embodiments specifies a layer structure corresponding to a predetermined number of pixels on the sclera side with respect to the RPE as Bruch's membrane, and sets a partial data set corresponding to the layer structure as Bruch's membrane. Obtain as a partial dataset.

解析範囲特定部211は、特定された所定の層領域から所定のピクセル数分だけ浅層方向(測定光の戻り光の進行方向)にシフトした位置から浅層の領域を解析範囲として特定する。 The analysis range specifying unit 211 specifies a shallow layer area as an analysis range from a position shifted by a predetermined number of pixels in the shallow layer direction (progressing direction of the return light of the measurement light) from the specified predetermined layer area.

図5に、解析範囲特定部211の動作説明図を示す。図5は、被検眼の眼底のBスキャン画像の一例を表す。 FIG. 5 shows an explanatory diagram of the operation of the analysis range specifying section 211. FIG. 5 shows an example of a B-scan image of the fundus of the eye to be examined.

例えば、解析範囲特定部211は、Bスキャン画像IMG0を解析して内境界膜(Inner Limiting Membrane:ILM)LRを特定する。解析範囲特定部211は、特定された内境界膜LRから所定のピクセル数pnだけ浅層方向にシフトした位置を境界とする浅層の領域を解析範囲ARとして特定する。ピクセル数pnは、例えば、5~30の範囲であってよい。 For example, the analysis range identifying unit 211 analyzes the B-scan image IMG0 to identify the inner limiting membrane (ILM) LR. The analysis range specifying unit 211 specifies, as the analysis range AR, a region of the shallow layer whose boundary is a position shifted in the shallow layer direction by a predetermined number of pixels pn from the specified inner limiting membrane LR. The number of pixels pn may range from 5 to 30, for example.

解析範囲特定部211は、Bスキャン画像IMG0に対し、解析範囲ARより深層の領域の画素値が所定値となるように補正し、解析範囲特定画像を生成する。所定値として、画素値の最小値(例えば、「0」)、画素値の最大値、解析範囲外であることを示す値などがある。ここでは、解析範囲特定部211は、解析範囲ARより深層の領域の画素値が「0」となるように補正し、解析範囲内に炎症細胞又は細胞塊に相当する画像領域が描出された解析範囲特定画像を生成する。これにより、内境界膜LRの付近を解析範囲外とすることが可能になり、硝子体に浸潤する炎症細胞又は細胞塊に相当する画像領域の特定精度を向上させることができるようになる。 The analysis range specifying unit 211 corrects the B-scan image IMG0 so that pixel values in regions deeper than the analysis range AR become predetermined values, and generates an analysis range specifying image. Examples of the predetermined value include a minimum pixel value (for example, "0"), a maximum pixel value, and a value indicating that the pixel value is outside the analysis range. Here, the analysis range specifying unit 211 corrects the pixel value of a region deeper than the analysis range AR to "0", and performs an analysis in which an image region corresponding to inflammatory cells or cell clusters is depicted within the analysis range. Generate a range specific image. This makes it possible to exclude the vicinity of the internal limiting membrane LR from the analysis range, and it becomes possible to improve the accuracy of identifying the image region corresponding to inflammatory cells or cell clusters infiltrating the vitreous body.

(ノイズ除去部212)
ノイズ除去部212は、解析範囲特定部211により特定された解析範囲におけるノイズ成分を除去する。具体的には、ノイズ除去部212は、解析範囲特定部211による解析範囲の特定処理の結果として生成された解析範囲特定画像に対して、所定のフィルタリング処理を施すことによりノイズ成分が除去されたノイズ除去画像を生成する。
(Noise removal unit 212)
The noise removal unit 212 removes noise components in the analysis range specified by the analysis range identification unit 211. Specifically, the noise removal unit 212 performs a predetermined filtering process on the analysis range specifying image generated as a result of the analysis range specifying process by the analysis range specifying unit 211 to remove noise components. Generate a denoised image.

所定のフィルタリング処理として、ガウシアンフィルタ等の平滑化フィルタを適用したフィルタリング処理、バイラテラルフィルタ(bilateral filter)等のエッジ保存平滑化フィルタを適用したフィルタリング処理などがある。特に、解析範囲特定画像に対してエッジ保存平滑化フィルタを適用することにより、小さい炎症細胞又は細胞塊に相当する画像領域のエッジ部分を残しつつ、バックグラウンドノイズ成分が除去されたノイズ除去画像を取得することが可能になる。 The predetermined filtering process includes a filtering process using a smoothing filter such as a Gaussian filter, a filtering process using an edge-preserving smoothing filter such as a bilateral filter, and the like. In particular, by applying an edge-preserving smoothing filter to the analysis range specific image, a noise-removed image is created in which background noise components are removed while leaving the edges of the image area corresponding to small inflammatory cells or cell clusters. It becomes possible to obtain.

(二値化処理部213)
二値化処理部213は、ノイズ除去部212によりノイズ成分が除去されたノイズ除去画像に対して二値化処理を施す。具体的には、二値化処理部213は、閾値を基準にノイズ除去画像を二値化する。二値化処理は、例えば、炎症細胞又は細胞塊に相当する画像領域の画素値が最大値となり、それ以外の画像領域の画素値が最小値(例えば、解析範囲ARより深層の領域と同じ画素値)となるように行われる。閾値は、あらかじめ決められた値であってもよいし、ノイズ除去画像に応じて決定された値であってもよい。
(Binarization processing unit 213)
The binarization processing unit 213 performs binarization processing on the noise-removed image from which noise components have been removed by the noise removal unit 212. Specifically, the binarization processing unit 213 binarizes the noise-removed image based on the threshold value. In the binarization process, for example, the pixel value of the image area corresponding to inflammatory cells or cell clusters becomes the maximum value, and the pixel value of other image areas becomes the minimum value (for example, the pixel value of the image area corresponding to the inflammatory cells or cell clusters becomes the minimum value (for example, the pixel value of the image area corresponding to the value). The threshold value may be a predetermined value or a value determined according to the noise-removed image.

例えば、二値化処理部213は、ノイズ除去画像を解析することによりノイズ除去画像の画素値の分布を特定し、特定された画素値の分布に基づいて二値化処理のための閾値を求め、求められた閾値を基準にノイズ除去画像を二値化する。具体的には、二値化処理部213は、ノイズ除去画像の画素値の分布から1以上の統計値を算出し、算出された1以上の統計値から閾値を求める。統計値として、平均値、中央値、最頻値、標準偏差、変動係数などがある。 For example, the binarization processing unit 213 identifies the distribution of pixel values of the noise-removed image by analyzing the noise-removed image, and determines a threshold value for the binarization process based on the identified pixel value distribution. , binarize the noise-removed image based on the determined threshold. Specifically, the binarization processing unit 213 calculates one or more statistical values from the distribution of pixel values of the noise-removed image, and determines a threshold value from the calculated one or more statistical values. Statistical values include the mean, median, mode, standard deviation, and coefficient of variation.

このとき、二値化処理部213は、解析範囲特定部211により補正された解析範囲外の画素値が統計値の算出に用いられないように所定の範囲における画素値の分布に対して上記の統計値を算出することが可能である。例えば、二値化処理部213は、解析範囲外の領域の画素値の最小値「0」を除く範囲における画素値の分布に対して最頻値を算出する。例えば、二値化処理部213は、標準偏差が1から所定値までの範囲における画素値の分布に対して標準偏差を算出する。所定値は、最頻値に対応した値であってよい。 At this time, the binarization processing unit 213 applies the above-mentioned method to the distribution of pixel values in a predetermined range so that pixel values outside the analysis range corrected by the analysis range identification unit 211 are not used for calculating statistical values. It is possible to calculate statistical values. For example, the binarization processing unit 213 calculates the mode for the distribution of pixel values in a range excluding the minimum value "0" of pixel values in the area outside the analysis range. For example, the binarization processing unit 213 calculates the standard deviation for the distribution of pixel values in the range of standard deviation from 1 to a predetermined value. The predetermined value may be a value corresponding to the most frequent value.

このような二値化処理部213は、例えば、算出された2以上の統計値(例えば、最頻値と標準偏差)を変数とする多項式から閾値を算出することが可能である。二値化処理部213は、閾値を基準にノイズ除去画像を二値化することにより二値化画像を生成する。 Such a binarization processing unit 213 can, for example, calculate a threshold value from a polynomial whose variables are two or more calculated statistical values (for example, the mode and the standard deviation). The binarization processing unit 213 generates a binarized image by binarizing the noise-removed image based on a threshold value.

いくつかの実施形態では、二値化処理部213は、二値化画像において、解析対象の炎症細胞等に比べて明らかにサイズが小さい画像領域を除去する。具体的には、二値化処理部213は、画素値が同一の画素がAスキャン方向に連続する所定のピクセル数(例えば、3ピクセル)以下の領域を二値化画像から除去する。例えば、二値化処理部213は、画素値が最大値である画素がAスキャン方向に連続する3ピクセル以下の領域の画素値を最小値(例えば、「0」)に設定する。これにより、解析対象の炎症細胞等に比べて明らかにサイズが小さい画像領域を除外して、炎症細胞又は細胞塊に相当する画像領域の特定精度を向上させることができるようになる。 In some embodiments, the binarization processing unit 213 removes image regions whose size is clearly smaller than the inflammatory cells and the like to be analyzed in the binarized image. Specifically, the binarization processing unit 213 removes from the binarized image an area where pixels having the same pixel value are consecutive in the A-scan direction and are equal to or less than a predetermined number of pixels (for example, 3 pixels). For example, the binarization processing unit 213 sets the pixel value of an area where the pixel having the maximum pixel value is three or less consecutive pixels in the A-scan direction to the minimum value (for example, "0"). This makes it possible to exclude image regions whose size is clearly smaller than the inflammatory cells and the like to be analyzed, thereby improving the accuracy of identifying image regions corresponding to inflammatory cells or cell clusters.

以下では、二値化処理後の画像において、炎症細胞又は細胞塊に相当する画像領域の画素の画素値が最大値であり、それ以外の画像領域の画素の画素値が最小値であるものとして説明する。 In the following, it is assumed that in the image after binarization processing, the pixel value of pixels in the image area corresponding to inflammatory cells or cell clusters is the maximum value, and the pixel value of pixels in other image areas is the minimum value. explain.

3次元画像生成部131は、二値化処理部213により生成された複数の二値化画像に対して上記の画像処理を施すことによりボリュームデータを形成する。領域連結部220、サイズ特定部230、分類部240、及び分布情報生成部250のそれぞれは、形成されたボリュームデータを用いて各部の処理を行う。 The three-dimensional image generation unit 131 forms volume data by performing the above image processing on the plurality of binarized images generated by the binarization processing unit 213. The area connection unit 220, the size identification unit 230, the classification unit 240, and the distribution information generation unit 250 each perform their own processing using the formed volume data.

(領域連結部220)
領域連結部220は、3次元画像生成部131により生成されたボリュームデータに対して画素値が同一の画素の連結性を3次元的に探索し、同一画素値の画素が3次元的に連続する画像領域を特定する。すなわち、領域連結部220は、Bスキャン方向に隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域を特定することが可能である。
(Area connection section 220)
The region connection unit 220 three-dimensionally searches for connectivity of pixels with the same pixel value in the volume data generated by the three-dimensional image generation unit 131, and determines that pixels with the same pixel value are three-dimensionally continuous. Identify image regions. That is, the region connecting unit 220 can specify a three-dimensional image region drawn across two or more B-scan images adjacent in the B-scan direction.

例えば、領域連結部220は、ボリュームデータに対して、3次元の連結成分抽出処理(Connected-Component Labeling:CCL)処理を行う。例えば、領域連結部220は、所定の画素と同一の画素値を有する画素をAスキャン方向及びAスキャン方向に直交(交差)する方向(すなわち、6方向)に探索し、画素値が同一の画素が連続する領域を特定する。領域連結部220は、特定された領域に固有のラベリングを行い、ラベリングされた領域を連結する。なお、領域連結部220は、公知の輪郭追跡処理、スネーク法、Mean Shift法などのクラスタリング手法を用いて画像領域を特定してもよい。 For example, the region connection unit 220 performs three-dimensional connected component extraction processing (Connected-Component Labeling: CCL) processing on volume data. For example, the region connecting unit 220 searches for pixels having the same pixel value as a predetermined pixel in the A-scan direction and in directions orthogonal to (crossing) the A-scan direction (i.e., six directions), and searches for pixels having the same pixel value as a predetermined pixel. Identify the area where is continuous. The region connection unit 220 performs unique labeling on the specified region and connects the labeled regions. Note that the region connecting unit 220 may identify the image region using a clustering method such as a known contour tracking process, a snake method, or a mean shift method.

(サイズ特定部230)
サイズ特定部230は、領域連結部220により特定された1以上の画像領域のそれぞれのサイズを特定する。サイズ特定部230は、画像領域のAスキャン方向の長さから、領域連結部220により特定された1以上の画像領域の少なくとも1つのサイズを特定することが可能である。これにより、OCTの横分解能に起因して識別が困難な画像領域であっても、画像領域のAスキャン方向の長さから画像領域のサイズを特定することが可能になる。
(Size identification unit 230)
The size specifying unit 230 specifies the size of each of the one or more image regions specified by the area connecting unit 220. The size specifying unit 230 can specify the size of at least one of the one or more image areas specified by the area connecting unit 220 from the length of the image area in the A-scan direction. This makes it possible to identify the size of the image area from the length of the image area in the A-scan direction, even if the image area is difficult to identify due to the lateral resolution of OCT.

図6及び図7に、サイズ特定部230の動作説明図を示す。図6は、サイズ特定部230によるサイズ特定処理の第1処理例を模式的に表したものである。図7は、サイズ特定部230によるサイズ特定処理の第2処理例を模式的に表したものである。 FIGS. 6 and 7 are diagrams illustrating the operation of the size specifying unit 230. FIG. 6 schematically shows a first processing example of the size identification process performed by the size identification unit 230. FIG. 7 schematically shows a second processing example of the size identification process performed by the size identification unit 230.

例えば、サイズ特定部230は、領域連結部220により特定された1以上の画像領域のそれぞれについて、輪郭部を特定し、特定された輪郭部においてAスキャン方向の最長部分の長さを当該画像領域のサイズとして特定する。具体的には、図6に示すように、サイズ特定部230は、領域連結部220により特定された画像領域PC1において、Aスキャン方向の最長部分の長さSZ1を画像領域PC1のサイズとして特定する。 For example, the size specifying unit 230 specifies the contour for each of the one or more image areas specified by the area connecting unit 220, and calculates the length of the longest part in the A-scan direction of the specified contour in the image area. Specify as the size of. Specifically, as shown in FIG. 6, the size specifying unit 230 specifies the length SZ1 of the longest part in the A-scan direction in the image area PC1 specified by the area connecting unit 220 as the size of the image area PC1. .

また、例えば、サイズ特定部230は、領域連結部220により特定された1以上の画像領域のそれぞれについて、画像領域を囲む長方形の領域(バウンディングボックス)を特定し、特定された領域のAスキャン方向の長さを当該画像領域のサイズとして特定する。長方形の短辺又は長辺は、Aスキャン方向に平行な辺である。具体的には、図7に示すように、サイズ特定部230は、領域連結部220により特定された画像領域PC2を囲む領域BXを特定し、特定された領域BXのAスキャン方向の長さSZ2を画像領域PC2のサイズとして特定する。 For example, the size specifying unit 230 specifies, for each of the one or more image areas specified by the area connecting unit 220, a rectangular area (bounding box) surrounding the image area, and Specify the length of as the size of the image area. The short side or long side of the rectangle is a side parallel to the A-scan direction. Specifically, as shown in FIG. 7, the size specifying unit 230 specifies an area BX surrounding the image area PC2 specified by the area connecting unit 220, and calculates the length SZ2 of the specified area BX in the A-scan direction. is specified as the size of the image area PC2.

以上のように、サイズ特定部230は、領域連結部220により特定された1以上の画像領域のそれぞれのサイズを特定する。 As described above, the size specifying unit 230 specifies the size of each of the one or more image regions specified by the area connecting unit 220.

(分類部240)
分類部240は、サイズ特定部230により特定された1以上の画像領域を、特定されたサイズに基づいて所定の分類種別に分類する。例えば、分類部は、2以上の炎症細胞に対応する2以上の分類種別に1以上の画像領域を分類する。2以上の分類種別は、直径が20マイクロメートル以上の炎症細胞又は細胞塊に対応する第1分類種別、直径が約15マイクロメートルの炎症細胞又は細胞塊に対応する第2分類種別、直径が約10マイクロメートルの炎症細胞又は細胞塊に対応する第3分類種別を含む。具体的には、第1分類種別は、単球に対応する分類種別である。第2分類種別は、好中球に対応する分類種別である。第3分類種別は、リンパ球に対応する分類種別である。
(Classification unit 240)
The classification unit 240 classifies one or more image regions specified by the size identification unit 230 into a predetermined classification type based on the specified size. For example, the classification unit classifies one or more image regions into two or more classification types corresponding to two or more inflammatory cells. The two or more classification types include the first classification type corresponding to inflammatory cells or cell clusters with a diameter of 20 micrometers or more, the second classification type corresponding to inflammatory cells or cell clusters with a diameter of about 15 micrometers, and the second classification type corresponding to inflammatory cells or cell clusters with a diameter of about 15 micrometers. Includes the third classification type corresponding to inflammatory cells or cell clusters of 10 micrometers. Specifically, the first classification type is a classification type corresponding to monocytes. The second classification type is a classification type corresponding to neutrophils. The third classification type is a classification type corresponding to lymphocytes.

図8に、分類部240の動作説明図を示す。図8において、縦方向はAスキャン方向に画素値が最大値である画素が連続する画素群を模式的に表し、横方向にAスキャン方向に画素値が最大値である画素が連続する数をピクセル連続数として模式的に表す。ここで、ピクセル数は、サイズ特定部230により特定されたサイズに相当する。 FIG. 8 shows an explanatory diagram of the operation of the classification section 240. In FIG. 8, the vertical direction schematically represents a group of consecutive pixels with the maximum pixel value in the A-scan direction, and the horizontal direction represents the number of consecutive pixels with the maximum pixel value in the A-scan direction. Expressed schematically as the number of consecutive pixels. Here, the number of pixels corresponds to the size specified by the size specifying section 230.

この実施形態では、ピクセル連続数が1~3のとき、分類部240は、Aスキャン方向に画素値が最大値である画素pxが連続する画素群を分類対象から除外する。或いは、上記のように、二値化処理部213は、画素値が最大値である画素がAスキャン方向に連続する3ピクセル以下の領域の画素値を最小値に設定することにより、分類部240の処理対象から除外する。 In this embodiment, when the number of consecutive pixels is 1 to 3, the classification unit 240 excludes from the classification target a pixel group in which pixels px having the maximum pixel value are consecutive in the A-scan direction. Alternatively, as described above, the binarization processing unit 213 sets the pixel value of an area where the pixel having the maximum pixel value is 3 or less consecutive pixels in the A-scan direction to the minimum value, so that the classification unit 240 excluded from processing.

ピクセル連続数が4又は5のとき、分類部240は、Aスキャン方向に画素値が最大値である画素pxが連続する画素群を第3分類種別CL3に分類する。例えば、ピクセル連続数が4又は5のとき、サイズ特定部230により特定された画像領域のサイズが10~13マイクロメートルに相当するものとする。このとき、分類部240は、サイズ特定部230により特定されたサイズがリンパ球に相当すると判断して、当該画像領域を第3分類種別CL3に分類する。 When the number of consecutive pixels is 4 or 5, the classification unit 240 classifies a pixel group in which pixels px having the maximum pixel value are consecutive in the A-scan direction into the third classification type CL3. For example, when the number of consecutive pixels is 4 or 5, it is assumed that the size of the image area specified by the size specifying unit 230 corresponds to 10 to 13 micrometers. At this time, the classification unit 240 determines that the size specified by the size identification unit 230 corresponds to lymphocytes, and classifies the image area into the third classification type CL3.

ピクセル連続数が6又は7のとき、分類部240は、Aスキャン方向に画素値が最大値である画素pxが連続する画素群を第2分類種別CL2に分類する。例えば、ピクセル連続数が6又は7のとき、サイズ特定部230により特定された画像領域のサイズが14~16マイクロメートルに相当するものとする。このとき、分類部240は、サイズ特定部230により特定されたサイズが好中球に相当すると判断して、当該画像領域を第2分類種別CL2に分類する。 When the number of consecutive pixels is 6 or 7, the classification unit 240 classifies the pixel group in which pixels px having the maximum pixel value are consecutive in the A-scan direction into the second classification type CL2. For example, when the number of consecutive pixels is 6 or 7, it is assumed that the size of the image area specified by the size specifying unit 230 corresponds to 14 to 16 micrometers. At this time, the classification unit 240 determines that the size specified by the size identification unit 230 corresponds to a neutrophil, and classifies the image area into the second classification type CL2.

ピクセル連続数が8以上のとき、分類部240は、Aスキャン方向に画素値が最大値である画素pxが連続する画素群を第1分類種別CL1に分類する。例えば、ピクセル連続数が8以上のとき、サイズ特定部230により特定された画像領域のサイズが20マイクロメートル以上に相当するものとする。このとき、分類部240は、サイズ特定部230により特定されたサイズが単球に相当すると判断して、当該画像領域を第1分類種別CL1に分類する。 When the number of consecutive pixels is 8 or more, the classification unit 240 classifies a pixel group in which pixels px having the maximum pixel value are consecutive in the A-scan direction into the first classification type CL1. For example, when the number of consecutive pixels is 8 or more, it is assumed that the size of the image area specified by the size specifying unit 230 corresponds to 20 micrometers or more. At this time, the classification unit 240 determines that the size specified by the size identification unit 230 corresponds to a monocyte, and classifies the image area into the first classification type CL1.

(分布情報生成部250)
分布情報生成部250は、分類部240による画像領域の分類結果を用いて分布情報を生成する。分布情報には、分類された画像領域の個数の分布を表すヒストグラム、分類された画像領域の位置の分布を表す分布画像などがある。
(Distribution information generation unit 250)
The distribution information generation unit 250 generates distribution information using the classification result of the image area by the classification unit 240. The distribution information includes a histogram representing the distribution of the number of classified image regions, a distribution image representing the distribution of the positions of the classified image regions, and the like.

このような分布情報生成部250は、ヒストグラム生成部251と、分布画像生成部252とを含む。 Such a distribution information generation section 250 includes a histogram generation section 251 and a distribution image generation section 252.

(ヒストグラム生成部251)
ヒストグラム生成部251は、分類部240により分類された1以上の画像領域の個数の分布を表す分布情報としてのヒストグラムを生成する。ヒストグラム生成部251は、上記のヒストグラムを表示するためのヒストグラム情報を生成する。例えば、ヒストグラム生成部251は、分類部240による画像領域の分類結果を用いて、分類種別毎に画像領域の個数をカウントし、分類種別毎の個数の分布を表すヒストグラム情報を生成する。表示制御部111Aは、ヒストグラム情報に基づいて図示しない表示部(例えば表示装置190)にヒストグラムを表示させることが可能である。
(Histogram generation unit 251)
The histogram generation unit 251 generates a histogram as distribution information representing the distribution of the number of one or more image regions classified by the classification unit 240. The histogram generation unit 251 generates histogram information for displaying the above-mentioned histogram. For example, the histogram generation unit 251 counts the number of image areas for each classification type using the classification result of the image area by the classification unit 240, and generates histogram information representing the distribution of the number for each classification type. The display control unit 111A can display a histogram on a display unit (for example, the display device 190), not shown, based on the histogram information.

図9に、ヒストグラム生成部251の動作説明図を示す。図9は、ヒストグラム生成部251により生成されたヒストグラムの一例を表す。図9において、縦軸は分類種別毎の個数を表し、横軸は分類種別を表す。図9において、第1分類種別は単球であり、第2分類種別は好中球であり、第3分類種別はリンパ球であるものとする。 FIG. 9 shows an explanatory diagram of the operation of the histogram generation section 251. FIG. 9 shows an example of a histogram generated by the histogram generation unit 251. In FIG. 9, the vertical axis represents the number of objects for each classification type, and the horizontal axis represents the classification type. In FIG. 9, the first classification type is monocytes, the second classification type is neutrophils, and the third classification type is lymphocytes.

図9に示すようなヒストグラムを表示部に表示させることにより、炎症細胞の個数の分布を容易に把握することができるようになる。例えば、第3分類種別の個数が多いと判断される場合、眼中に浸潤するリンパ球が多いことを意味し、リンパ腫由来のぶどう膜炎の可能性が考えられる。また、第1分類種別の個数が多いと判断される場合、眼中に浸潤する単球が多いことを意味し、マクロファージ系の炎症が強いことを考慮して感染性のぶどう膜炎の可能性が考えられる。また、第2分類種別の個数が多いと判断される場合、眼中に浸潤する好中球が多いことを意味し、リンパ腫由来のぶどう膜炎及び感染性のぶどう膜炎以外のぶどう膜炎の可能性が考えられる。 By displaying a histogram such as the one shown in FIG. 9 on the display unit, the distribution of the number of inflammatory cells can be easily understood. For example, when it is determined that the number of cells of the third classification type is large, it means that there are many lymphocytes infiltrating into the eye, and the possibility of uveitis derived from lymphoma is considered. In addition, if the number of Type 1 cells is determined to be large, it means that there are many monocytes infiltrating into the eye, and considering that macrophage inflammation is strong, there is a possibility of infectious uveitis. Conceivable. In addition, if the number of neutrophils in the second classification type is judged to be large, it means that there are many neutrophils infiltrating into the eye, and it is possible that the uveitis is caused by something other than lymphoma-derived uveitis or infectious uveitis. Possible gender.

(分布画像生成部252)
分布画像生成部252は、分類部240により分類された1以上の画像領域の位置の分布を表す分布情報としての分布画像を生成する。具体的には、分布画像生成部252は、解析対象のOCT画像に、分類された1以上の画像領域が重畳された画像を含む分布画像を生成する。例えば、分布画像生成部252は、領域特定部210により特定された画像領域又は領域連結部220により連結された画像領域のボリュームデータにおける位置情報を取得し、取得された位置情報を用いてOCT画像中の位置を特定し、特定された位置に画像領域を配置することで分布画像を生成する。
(Distribution image generation unit 252)
The distribution image generation unit 252 generates a distribution image as distribution information representing the distribution of positions of one or more image areas classified by the classification unit 240. Specifically, the distribution image generation unit 252 generates a distribution image including an image in which one or more classified image regions are superimposed on the OCT image to be analyzed. For example, the distribution image generation unit 252 acquires position information in the volume data of the image area specified by the area identification unit 210 or the image area connected by the area connection unit 220, and uses the acquired position information to generate an OCT image. A distribution image is generated by specifying a position in the center and arranging an image area at the specified position.

いくつかの実施形態では、分布画像生成部252は、分類部240により分類された分類種別毎に識別可能な態様で分布画像を生成する。例えば、分布画像生成部252は、分類種別毎に画像領域の色、輝度、又は表示態様が異なる分布画像を生成する。例えば、分布画像生成部252は、分類種別毎に点滅状態が異なる表示可能な分布画像を生成する。 In some embodiments, the distribution image generation unit 252 generates a distribution image in an identifiable manner for each classification type classified by the classification unit 240. For example, the distribution image generation unit 252 generates a distribution image in which the color, brightness, or display mode of the image area is different for each classification type. For example, the distribution image generation unit 252 generates a displayable distribution image with different blinking states for each classification type.

いくつかの実施形態では、分布画像生成部252は、サイズ特定部230により特定されたサイズに対応したサイズで画像領域を含む分布画像を生成する。これにより、眼中に浸潤する炎症細胞の種別毎に異なるサイズで分布画像に描出されるため、複数種類の炎症細胞の分布を把握しやすくなる。 In some embodiments, the distribution image generation unit 252 generates a distribution image that includes an image region with a size corresponding to the size specified by the size identification unit 230. As a result, each type of inflammatory cells infiltrating into the eye is depicted in a distribution image with a different size, making it easier to understand the distribution of multiple types of inflammatory cells.

いくつかの実施形態では、分布画像生成部252は、サイズ特定部230により特定されたサイズにかかわらず、所定のサイズで識別可能な画像領域を含む分布画像を生成する。これにより、眼中に浸潤する炎症細胞のサイズが小さく、分布画像において識別が難しい場合でも、炎症細胞のサイズに関わりなく、複数種類の炎症細胞の分布を把握することが可能になる。 In some embodiments, the distribution image generation unit 252 generates a distribution image that includes an image region that can be identified at a predetermined size, regardless of the size specified by the size identification unit 230. This makes it possible to understand the distribution of multiple types of inflammatory cells, regardless of the size of the inflammatory cells, even if the inflammatory cells infiltrating into the eye are small and difficult to identify in a distribution image.

表示制御部111Aは、上記のように生成された分布画像を図示しない表示部(例えば表示装置190)に表示させることが可能である。 The display control unit 111A can display the distribution image generated as described above on a display unit (not shown, for example, the display device 190).

図10及び図11に、分布画像生成部252の動作説明図を示す。図10は、眼底の3次元の分布画像の一例を表す。図11は、眼底の2次元の分布画像の一例を表す。 FIGS. 10 and 11 are diagrams illustrating the operation of the distribution image generation section 252. FIG. 10 shows an example of a three-dimensional distribution image of the fundus. FIG. 11 shows an example of a two-dimensional distribution image of the fundus.

図10に示すように、分布画像生成部252は、第1分類種別~第3分類種別の画像領域pc1~pc3をボリュームデータに配置することで分布画像IMG1を生成する。表示制御部111Aは、生成された分布画像IMG1を表示部に表示させる。 As shown in FIG. 10, the distribution image generation unit 252 generates a distribution image IMG1 by arranging image regions pc1 to pc3 of the first to third classification types in volume data. The display control unit 111A displays the generated distribution image IMG1 on the display unit.

また、図11に示すように、分布画像生成部252は、第1分類種別~第3分類種別の画像領域pc1~pc3を2次元の断層像に配置することで分布画像IMG2を生成する。表示制御部111Aは、生成された分布画像IMG2を表示部に表示させる。 Further, as shown in FIG. 11, the distribution image generation unit 252 generates a distribution image IMG2 by arranging image regions pc1 to pc3 of the first to third classification types in a two-dimensional tomographic image. The display control unit 111A displays the generated distribution image IMG2 on the display unit.

いくつかの実施形態では、表示制御部111Aは、第1分類種別~第3分類種別の画像領域pc1~pc3を選択的に表示部に表示させる。例えば、表示制御部111Aは、操作装置180を用いてユーザにより指定された分類種別の画像領域を表示部に表示させることが可能である。例えば、表示制御部111Aは、図10又は図11に示す分布画像IMG1、IMG2において、操作装置180を用いてユーザにより指定された画像領域と同一の分類種別の画像領域を識別可能に表示部に表示させることが可能である。 In some embodiments, the display control unit 111A selectively displays image regions pc1 to pc3 of the first to third classification types on the display unit. For example, the display control unit 111A can cause the display unit to display an image area of a classification type specified by the user using the operating device 180. For example, in the distribution images IMG1 and IMG2 shown in FIG. 10 or FIG. It is possible to display it.

また、表示制御部111Aは、図10又は図11に示す分布画像IMG1、IMG2に重畳するように図9に示すヒストグラムを表示部に表示させることが可能である。例えば、表示制御部111Aは、分布画像IMG1、IMG2において、操作装置180を用いてユーザにより指定された画像領域と同一の分類種別の画像領域の個数を識別可能に表示部に表示させることが可能である。 Further, the display control unit 111A can display the histogram shown in FIG. 9 on the display unit so as to be superimposed on the distribution images IMG1 and IMG2 shown in FIG. 10 or 11. For example, the display control unit 111A can cause the display unit to identifiably display the number of image areas of the same classification type as the image area specified by the user using the operating device 180 in the distribution images IMG1 and IMG2. It is.

いくつかの実施形態では、ヒストグラム生成部251は、OCT画像中において、操作装置180を用いて指定された領域内で、炎症細胞又は細胞塊に相当する画像領域の個数の分布を表す分布情報を生成する。 In some embodiments, the histogram generation unit 251 generates distribution information representing the distribution of the number of image regions corresponding to inflammatory cells or cell clusters within a region specified using the operating device 180 in the OCT image. generate.

いくつかの実施形態では、解析部200は、分類部240により分類された1以上の画像領域に対して解析処理を行う。解析処理には、分類種別毎の密度(単位面積あたりの画像領域の個数)の算出処理、算出された密度に対応した領域の特定処理などがある。これにより、所望の炎症細胞等の密度が高い領域や密度が低い領域を認識することができ、ぶどう膜炎の診断補助に寄与できるようになる。 In some embodiments, the analysis unit 200 performs analysis processing on one or more image regions classified by the classification unit 240. The analysis process includes a process of calculating the density (number of image areas per unit area) for each classification type, a process of identifying an area corresponding to the calculated density, and the like. This makes it possible to recognize regions with a high density of desired inflammatory cells and regions with a low density, thereby contributing to the diagnosis of uveitis.

[動作例]
いくつかの実施形態に係る眼科情報処理装置100の動作例について説明する。
[Operation example]
Operation examples of the ophthalmological information processing apparatus 100 according to some embodiments will be described.

図12に、実施形態に係る眼科情報処理装置100の動作の一例を示す。図12は、眼科情報処理装置100の動作例のフロー図を表す。記憶部112には、図12に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部111は、このコンピュータプログラムに従って動作することにより、図12に示す処理を実行する。 FIG. 12 shows an example of the operation of the ophthalmological information processing apparatus 100 according to the embodiment. FIG. 12 shows a flow diagram of an example of the operation of the ophthalmological information processing apparatus 100. A computer program for implementing the process shown in FIG. 12 is stored in the storage unit 112. The main control unit 111 executes the processing shown in FIG. 12 by operating according to this computer program.

以下では、眼科装置10によりOCT計測が実行され、被検眼のOCTデータ又はOCT画像がすでに取得されているものとする。 In the following, it is assumed that OCT measurement is performed by the ophthalmological apparatus 10 and OCT data or an OCT image of the eye to be examined has already been acquired.

(S1:OCT画像を取得)
まず、主制御部111は、被検眼のOCT画像を取得する。
(S1: Obtain OCT image)
First, the main control unit 111 acquires an OCT image of the eye to be examined.

具体的には、主制御部111は、通信部140を制御することにより、眼科装置10により取得されたOCTデータ又はOCT画像を取得させる。主制御部111は、眼科装置10からOCTデータが取得される場合、画像形成部120を制御することによりOCT画像を形成させることができる。 Specifically, the main control unit 111 controls the communication unit 140 to obtain OCT data or an OCT image obtained by the ophthalmologic apparatus 10 . When OCT data is acquired from the ophthalmological apparatus 10, the main control unit 111 can form an OCT image by controlling the image forming unit 120.

(S2:解析範囲を特定)
次に、主制御部111は、解析範囲特定部211を制御することにより、ステップS1において取得されたOCT画像(断層像)に対して上記のように解析範囲を特定させる。
(S2: Identify the analysis range)
Next, the main control unit 111 controls the analysis range specifying unit 211 to specify the analysis range in the OCT image (tomographic image) acquired in step S1 as described above.

具体的には、主制御部111は、解析範囲特定部211を制御することにより、セグメンテーション処理によりステップS1において取得されたOCT画像における内境界膜に相当する領域を特定させる。解析範囲特定部211は、上記のように、特定された内境界膜LRから所定のピクセル数pnだけ浅層方向にシフトした位置を境界とする浅層の領域を解析範囲とする解析範囲特定画像を生成する。 Specifically, the main control unit 111 controls the analysis range specifying unit 211 to specify a region corresponding to the internal limiting membrane in the OCT image acquired in step S1 through segmentation processing. As described above, the analysis range specifying unit 211 generates an analysis range specifying image whose analysis range is a region of the shallow layer whose boundary is a position shifted toward the shallow layer by a predetermined number of pixels pn from the specified internal limiting membrane LR. generate.

(S3:ノイズ除去)
続いて、主制御部111は、ノイズ除去部212を制御することにより、ステップS2において生成された解析範囲画像に対して上記のようにノイズ除去処理を行う。
(S3: Noise removal)
Next, the main control unit 111 controls the noise removal unit 212 to perform noise removal processing on the analysis range image generated in step S2 as described above.

ノイズ除去部212は、上記のようにノイズ除去画像を生成する。 The noise removal unit 212 generates a noise removed image as described above.

(S4:二値化処理)
次に、主制御部111は、二値化処理部213を制御することにより、ステップS3において生成されたノイズ除去画像に対して二値化処理を行う。
(S4: Binarization processing)
Next, the main control unit 111 controls the binarization processing unit 213 to perform binarization processing on the noise-removed image generated in step S3.

二値化処理部213は、上記のように二値化画像を生成する。 The binarization processing unit 213 generates a binarized image as described above.

(S5:領域を連結)
次に、主制御部111は、領域連結部220を制御することにより、炎症細胞又は細胞塊に対応する画素値を有する画素同士を連結して、炎症細胞等に相当する画像領域を特定する。
(S5: Connect areas)
Next, the main control unit 111 controls the area connection unit 220 to connect pixels having pixel values corresponding to inflammatory cells or cell clusters, thereby specifying an image area corresponding to inflammatory cells or the like.

具体的には、主制御部111は、3次元画像生成部131を制御することにより、ボリュームデータを形成させる。主制御部111は、領域連結部220を制御することにより、形成されたボリュームデータに対して炎症細胞等に相当する画像領域を特定させる。 Specifically, the main controller 111 controls the three-dimensional image generator 131 to form volume data. The main control unit 111 controls the area connection unit 220 to specify image areas corresponding to inflammatory cells and the like in the formed volume data.

なお、断層像において、炎症細胞等に相当する画像領域を特定する場合、主制御部111は、領域連結部220を制御することにより、ステップS4において生成された二値化画像に対して炎症細胞等に相当する画像領域を特定させる。 Note that when identifying an image region corresponding to inflammatory cells etc. in a tomographic image, the main control unit 111 controls the region connecting unit 220 to identify inflammatory cells in the binarized image generated in step S4. etc., to specify the image area corresponding to the image area.

(S6:サイズを特定)
次に、主制御部111は、サイズ特定部230を制御することにより、ステップS5において特定された1以上の画像領域のサイズを特定させる。
(S6: Specify size)
Next, the main control unit 111 controls the size specifying unit 230 to specify the size of the one or more image areas specified in step S5.

サイズ特定部230は、上記のようにAスキャン方向の画像領域のサイズに基づいて当該画像領域のサイズを特定する。 The size specifying unit 230 specifies the size of the image area based on the size of the image area in the A-scan direction as described above.

(S7:分類)
次に、主制御部111は、分類部240を制御することにより、ステップS6においてサイズが特定された1以上の画像領域を分類させる。
(S7: Classification)
Next, the main control unit 111 controls the classification unit 240 to classify the one or more image regions whose sizes were specified in step S6.

分類部240は、ステップS6において特定されたサイズに基づいて、ステップS5において特定された画像領域を第1分類種別~第3分類種別に分類する。なお、分類部240は、解析対象の炎症細胞等に比べて明らかにサイズが小さい画像領域を分離対象から除外することが可能である。 The classification unit 240 classifies the image area specified in step S5 into first to third classification types based on the size specified in step S6. Note that the classification unit 240 can exclude from the separation target image regions whose size is clearly smaller than the inflammatory cells and the like to be analyzed.

(S8:分布情報を生成)
次に、主制御部111は、分布情報生成部250を制御することにより、ステップS7における分類結果に基づいて、ステップS5において特定された画像領域の分布情報を生成させる。
(S8: Generate distribution information)
Next, the main control unit 111 controls the distribution information generation unit 250 to generate distribution information of the image area specified in step S5 based on the classification result in step S7.

分布情報生成部250は、図9に示すようなヒストグラム、図10又は図11に示すような分布画像を生成する。 The distribution information generation unit 250 generates a histogram as shown in FIG. 9 and a distribution image as shown in FIG. 10 or 11.

以上で、一連の処理は終了である(エンド)。 This completes the series of processing (end).

以上説明したように、実施形態によれば、OCT画像を解析することにより、炎症細胞又は細胞塊に相当する領域を特定するようにしたいので、ぶどう膜炎等の診断補助に有用な炎症細胞等を定量的に評価することが可能になる。 As described above, according to the embodiment, it is desired to identify regions corresponding to inflammatory cells or cell clusters by analyzing OCT images, so inflammatory cells and other cells useful for assisting diagnosis of uveitis etc. can be identified. It becomes possible to quantitatively evaluate the

特に、OCT画像を用いることで、非侵襲的に炎症細胞等の分布を特定することがかのうになり、治療中のぶどう膜炎の炎症の沈静化や再燃を定量的に評価することができるようになる。 In particular, by using OCT images, it becomes possible to non-invasively identify the distribution of inflammatory cells, etc., and it becomes possible to quantitatively evaluate the subsidence and relapse of inflammation in uveitis during treatment. become.

また、OCTのAスキャン方向の長さを用いて、OCT画像中の炎症細胞等に相当する画像領域のサイズを特定するようにしたので、OCTの横分解能に起因して識別が困難なサイズの細胞等を定量的に評価することが可能になる。 In addition, we used the length in the A-scan direction of OCT to identify the size of the image area corresponding to inflammatory cells, etc. in the OCT image. It becomes possible to quantitatively evaluate cells, etc.

<変形例>
いくつかの実施形態に係る構成は、上記の構成に限定されるものではない。
<Modified example>
Configurations according to some embodiments are not limited to the above configurations.

いくつかの実施形態に係る眼科装置は、眼科装置10の機能に加えて、眼科情報処理装置100の機能、操作装置180の機能、及び表示装置190の機能の少なくとも1つを備える。 In addition to the functions of the ophthalmologic apparatus 10, the ophthalmologic apparatus according to some embodiments includes at least one of the functions of the ophthalmologic information processing apparatus 100, the operation device 180, and the display device 190.

以下、いくつかの実施形態の変形例に係る眼科装置について、上記の実施形態に係る眼科装置との相違点を中心に説明する。 Hereinafter, ophthalmologic apparatuses according to some modified examples of the embodiments will be described, focusing on the differences from the ophthalmologic apparatuses according to the above-described embodiments.

図13に、実施形態の変形例に係る眼科装置10aの構成例のブロック図を示す。図13において、図2と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 13 shows a block diagram of a configuration example of an ophthalmologic apparatus 10a according to a modification of the embodiment. In FIG. 13, parts similar to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

本変形例に係る眼科装置10aの構成が上記の実施形態に係る眼科装置10の構成と異なる点は、眼科装置10aが、眼科情報処理装置100の機能と、操作装置180の機能と、表示装置190の機能とを備えている点である。眼科装置10aは、制御部11aと、データ収集部12と、画像形成部13と、眼科情報処理部15aと、操作部16aと、表示部17aとを含む。 The configuration of the ophthalmologic apparatus 10a according to this modification differs from the configuration of the ophthalmologic apparatus 10 according to the above-described embodiments in that the ophthalmologic apparatus 10a has the functions of the ophthalmologic information processing apparatus 100, the functions of the operating device 180, and the display device. It has 190 functions. The ophthalmologic apparatus 10a includes a control section 11a, a data collection section 12, an image forming section 13, an ophthalmology information processing section 15a, an operation section 16a, and a display section 17a.

制御部11aは、眼科装置10aの各部を制御する。特に、制御部11aは、データ収集部12と、画像形成部13と、眼科情報処理部15aと、操作部16aと、表示部17aとを制御する。 The control unit 11a controls each part of the ophthalmologic apparatus 10a. In particular, the control section 11a controls the data collection section 12, the image forming section 13, the ophthalmological information processing section 15a, the operation section 16a, and the display section 17a.

眼科情報処理部15aは、眼科情報処理装置100と同様の構成を有し、眼科情報処理装置100と同様の機能を備えている。操作部16aは、操作装置180と同様の構成を有し、操作装置180と同様の機能を備えている。表示部17aは、表示装置190と同様の構成を有し、表示装置190と同様の機能を備えている。 The ophthalmological information processing unit 15a has the same configuration as the ophthalmological information processing apparatus 100 and has the same functions as the ophthalmological information processing apparatus 100. The operating unit 16a has the same configuration as the operating device 180 and has the same functions as the operating device 180. The display unit 17a has the same configuration as the display device 190 and has the same functions as the display device 190.

本変形例によれば、コンパクトな構成で、炎症細胞又は細胞塊の相当する画像領域の分布等を定量的に評価することが可能な眼科装置を提供することができる。 According to this modification, it is possible to provide an ophthalmologic apparatus that has a compact configuration and is capable of quantitatively evaluating the distribution of an image area corresponding to inflammatory cells or cell clusters.

<効果>
以下、いくつかの実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの効果について説明する。
<Effect>
Hereinafter, effects of the ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program according to some embodiments will be described.

いくつかの実施形態に係る眼科情報処理装置(100)は、領域特定部(252)と、サイズ特定部(230)とを含む。領域特定部は、被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する。サイズ特定部は、画像領域のAスキャン方向の長さから1以上の画像領域の少なくとも1つのサイズを特定する。 The ophthalmological information processing device (100) according to some embodiments includes a region specifying section (252) and a size specifying section (230). The region identifying unit identifies one or more image regions in the OCT image obtained by performing optical coherence tomography on the eye to be examined. The size specifying unit specifies at least one size of the one or more image areas from the length of the image area in the A-scan direction.

このような構成によれば、被検眼のOCT画像における1以上の画像領域の少なくとも1つのサイズが、画像領域のAスキャン方向の長さから特定される。それにより、OCTの横分解能に起因して識別できない画像領域のサイズを特定することが可能になり、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to such a configuration, at least one size of one or more image regions in the OCT image of the eye to be examined is specified from the length of the image region in the A-scan direction. Thereby, it becomes possible to specify the size of an image region that cannot be identified due to the lateral resolution of OCT, and it becomes possible to evaluate with high precision the size of a small image region depicted in an OCT image.

いくつかの実施形態では、サイズ特定部は、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する。 In some embodiments, the size identifying unit identifies the size of the image area based on the length of the longest image area in the A-scan direction.

このような構成によれば、Aスキャン方向に最も長い部分の長さから画像領域のサイズを特定するようにしたので、簡素な処理で、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to this configuration, the size of the image area is specified from the length of the longest part in the A-scan direction, so the size of the small image area depicted in the OCT image can be determined with high precision using simple processing. It becomes possible to evaluate

いくつかの実施形態では、サイズ特定部は、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する。 In some embodiments, the size identifying unit identifies the size of the image area from the length of the area surrounding the image area in the A-scan direction.

このような構成によれば、画像領域を囲む領域のAスキャン方向の長さから画像領域のサイズを特定するようにしたので、簡素な処理で、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to this configuration, the size of the image area is specified from the length of the area surrounding the image area in the A-scan direction, so the size of the small image area depicted in the OCT image can be determined with simple processing. It becomes possible to evaluate with high accuracy.

いくつかの実施形態では、領域特定部は、OCT画像に描出された細胞又は細胞塊に相当する1以上の画像領域を特定する。 In some embodiments, the region identifying unit identifies one or more image regions corresponding to cells or cell clusters depicted in the OCT image.

このような構成によれば、OCT画像に描出される細胞又は細胞塊に相当する画像領域のサイズを高精度に評価することが可能になる。 According to such a configuration, it becomes possible to evaluate with high precision the size of an image area corresponding to a cell or a cell mass depicted in an OCT image.

いくつかの実施形態は、サイズ特定部により特定された画像領域のサイズに基づいて1以上の画像領域を分類する分類部(240)を含む。 Some embodiments include a classifier (240) that classifies one or more image regions based on the size of the image region identified by the size determiner.

このような構成によれば、OCT画像に描出される小さい画像領域のサイズを複数の分類種別に分類し、分類種別毎に画像領域を評価することが可能になる。 According to such a configuration, it is possible to classify the size of a small image area depicted in an OCT image into a plurality of classification types, and to evaluate the image area for each classification type.

いくつかの実施形態では、OCT画像は、硝子体の少なくとも一部が描出された画像であり、分類部は、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に1以上の画像領域を分類する。 In some embodiments, the OCT image is an image in which at least a portion of the vitreous body is visualized, and the classification unit includes one or more classification types corresponding to two or more inflammatory cells infiltrating the vitreous body. Classify image regions.

このような構成によれば、OCT画像に描出された、硝子体に浸潤する2以上の炎症細胞を高精度に評価することが可能になる。 According to such a configuration, it is possible to highly accurately evaluate two or more inflammatory cells infiltrating the vitreous body depicted in an OCT image.

いくつかの実施形態では、2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む。 In some embodiments, the two or more classification types include a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a third classification type corresponding to lymphocytes.

このような構成によれば、硝子体に浸潤する単体、好中球、リンパ球を区別して評価することができるため、ぶどう膜炎の診断補助に有用な情報を提供することが可能になる。 According to such a configuration, it is possible to distinguish and evaluate single cells, neutrophils, and lymphocytes that infiltrate the vitreous body, thereby making it possible to provide information useful for assisting in the diagnosis of uveitis.

いくつかの実施形態は、分類部により分類された1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成部(250)を含む。 Some embodiments include a distribution information generation unit (250) that generates distribution information of the number or position of one or more image regions classified by the classification unit.

このような構成によれば、OCT画像に描出される小さい画像領域の個数又は位置の分布を容易に把握することが可能になる。 According to such a configuration, it becomes possible to easily grasp the number or position distribution of small image regions depicted in an OCT image.

いくつかの実施形態は、分類部により分類された分類種別毎に識別可能な態様で1以上の画像領域がOCT画像に重畳された画像を含む分布情報を生成する分布情報生成部(250、分布画像生成部252)を含む。 Some embodiments include a distribution information generation unit (250, distribution image generating section 252).

このような構成によれば、OCT画像に描出される小さい画像領域を分類種別毎に容易に把握することが可能になる。 According to such a configuration, it becomes possible to easily understand small image regions depicted in an OCT image for each classification type.

いくつかの実施形態は、分布情報を表示手段(表示装置190)に表示させる表示制御部(111A)を含む。 Some embodiments include a display control unit (111A) that causes a display unit (display device 190) to display distribution information.

このような構成によれば、OCT画像に描出される小さい画像領域を分類種別毎に容易に把握することが可能な眼科情報処理装置を提供することができるようになる。 According to such a configuration, it is possible to provide an ophthalmological information processing apparatus that can easily understand small image areas depicted in an OCT image for each classification type.

いくつかの実施形態では、OCT画像は、3次元画像であり、サイズ特定部は、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから3次元の画像領域のサイズを特定する。 In some embodiments, the OCT image is a three-dimensional image, and the size identification section determines the length in the A-scan direction of a three-dimensional image region drawn across two or more adjacent B-scan images. The size of the three-dimensional image area is specified from

このような構成によれば、OCT画像に描出される小さい3次元の画像領域のサイズを高精度の評価することが可能になる。 According to such a configuration, it is possible to highly accurately evaluate the size of a small three-dimensional image region depicted in an OCT image.

いくつかの実施形態は、被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいてOCT画像を形成する画像形成部(120)を含む。 Some embodiments include an image forming unit (120) that forms an OCT image based on OCT data obtained by performing optical coherence tomography on a subject's eye.

このような構成によれば、OCTデータを取得することで、OCT画像に描出される小さい画像領域のサイズを高精度の評価することが可能な眼科情報処理装置を提供することが可能になる。 According to such a configuration, by acquiring OCT data, it is possible to provide an ophthalmologic information processing apparatus that can highly accurately evaluate the size of a small image area depicted in an OCT image.

いくつかの実施形態に係る眼科装置(10)は、被検眼に光コヒーレンストモグラフィを実行することによりOCTデータを取得する光学系(干渉光学系12A及びスキャン光学系12B)と、上記に記載の眼科情報処理装置とを含む。 The ophthalmological apparatus (10) according to some embodiments includes an optical system (interference optical system 12A and scan optical system 12B) that acquires OCT data by performing optical coherence tomography on a subject's eye, and the above-described optical system. and an ophthalmological information processing device.

このような構成によれば、OCTを用いて、小さい画像領域のサイズを高精度の評価することが可能な眼科装置を提供することが可能になる。 According to such a configuration, it is possible to provide an ophthalmologic apparatus that can evaluate the size of a small image area with high precision using OCT.

いくつかの実施形態に係る眼科情報処理方法は、被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定ステップと、画像領域のAスキャン方向の長さから1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定ステップと、を含む。 An ophthalmological information processing method according to some embodiments includes a region specifying step of specifying one or more image regions in an OCT image obtained by performing optical coherence tomography on a subject's eye, and an A-scan direction of the image region. a size specifying step of specifying the size of at least one of the one or more image regions from the length of the image area.

このような方法によれば、被検眼のOCT画像における1以上の画像領域の少なくとも1つのサイズが、画像領域のAスキャン方向の長さから特定される。それにより、OCTの横分解能に起因して識別できない画像領域のサイズを特定することが可能になり、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to such a method, at least one size of one or more image regions in an OCT image of the eye to be examined is specified from the length of the image region in the A-scan direction. Thereby, it becomes possible to specify the size of an image region that cannot be identified due to the lateral resolution of OCT, and it becomes possible to evaluate with high precision the size of a small image region depicted in an OCT image.

いくつかの実施形態では、サイズ特定ステップは、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する。 In some embodiments, the step of determining the size determines the size of the image region from the length of the longest image region in the A-scan direction.

このような方法によれば、Aスキャン方向に最も長い部分の長さから画像領域のサイズを特定するようにしたので、簡素な処理で、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to this method, the size of the image area is specified from the length of the longest part in the A-scan direction, so the size of the small image area depicted in the OCT image can be determined with high precision using simple processing. It becomes possible to evaluate

いくつかの実施形態では、サイズ特定ステップは、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する。 In some embodiments, the size identifying step identifies the size of the image area from the length of the area surrounding the image area in the A-scan direction.

このような方法によれば、画像領域を囲む領域のAスキャン方向の長さから画像領域のサイズを特定するようにしたので、簡素な処理で、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to this method, the size of the image area is specified from the length of the area surrounding the image area in the A-scan direction, so the size of the small image area depicted in the OCT image can be determined with simple processing. It becomes possible to evaluate with high accuracy.

いくつかの実施形態では、領域特定ステップは、OCT画像に描出された細胞又は細胞塊に相当する1以上の画像領域を特定する。 In some embodiments, the region identifying step identifies one or more image regions that correspond to cells or cell clusters depicted in the OCT image.

このような方法によれば、OCT画像に描出される細胞又は細胞塊に相当する画像領域のサイズを高精度に評価することが可能になる。 According to such a method, it becomes possible to evaluate with high precision the size of an image area corresponding to a cell or a cell mass depicted in an OCT image.

いくつかの実施形態は、サイズ特定ステップにおいて特定された画像領域のサイズに基づいて1以上の画像領域を分類する分類ステップを含む。 Some embodiments include a classification step that classifies one or more image regions based on the size of the image region identified in the size determination step.

このような方法によれば、OCT画像に描出される小さい画像領域のサイズを複数の分類種別に分類し、分類種別毎に画像領域を評価することが可能になる。 According to such a method, it is possible to classify the size of a small image region depicted in an OCT image into a plurality of classification types, and to evaluate the image region for each classification type.

いくつかの実施形態では、OCT画像は、硝子体の少なくとも一部が描出された画像であり、分類ステップは、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に1以上の画像領域を分類する。 In some embodiments, the OCT image is an image depicting at least a portion of the vitreous, and the classification step includes classifying one or more of the two or more classification types corresponding to the two or more inflammatory cells infiltrating the vitreous. Classify image regions.

このような方法によれば、OCT画像に描出された、硝子体に浸潤する2以上の炎症細胞を高精度に評価することが可能になる。 According to such a method, it is possible to highly accurately evaluate two or more inflammatory cells infiltrating the vitreous body depicted in an OCT image.

いくつかの実施形態では、2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む。 In some embodiments, the two or more classification types include a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a third classification type corresponding to lymphocytes.

このような方法によれば、硝子体に浸潤する単体、好中球、リンパ球を区別して評価することができるため、ぶどう膜炎の診断補助に有用な情報を提供することが可能になる。 According to such a method, it is possible to distinguish and evaluate single cells, neutrophils, and lymphocytes that infiltrate the vitreous, and thus it becomes possible to provide information useful for assisting in the diagnosis of uveitis.

いくつかの実施形態は、分類ステップにおいて分類された1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成ステップを含む。 Some embodiments include a distribution information generation step that generates distribution information of the number or position of one or more image regions classified in the classification step.

このような方法によれば、OCT画像に描出される小さい画像領域の個数又は位置の分布を容易に把握することが可能になる。 According to such a method, it becomes possible to easily understand the number or position distribution of small image regions depicted in an OCT image.

いくつかの実施形態では、分類ステップにおいて分類された分類種別毎に識別可能な態様で1以上の画像領域がOCT画像に重畳された画像を含む分布情報を生成する分布情報生成ステップを含む。 Some embodiments include a distribution information generation step of generating distribution information including an image in which one or more image regions are superimposed on the OCT image in an identifiable manner for each classification type classified in the classification step.

このような方法によれば、OCT画像に描出される小さい画像領域を分類種別毎に容易に把握することが可能になる。 According to such a method, it becomes possible to easily understand small image areas depicted in an OCT image for each classification type.

いくつかの実施形態は、分布情報を表示手段に表示させる表示制御ステップを含む。 Some embodiments include a display control step of displaying the distribution information on the display means.

このような方法によれば、OCT画像に描出される小さい画像領域を分類種別毎に容易に把握することが可能な眼科情報処理方法を提供することができるようになる。 According to such a method, it is possible to provide an ophthalmological information processing method that allows easy understanding of small image regions depicted in OCT images for each classification type.

いくつかの実施形態では、OCT画像は、3次元画像であり、サイズ特定ステップは、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから3次元の画像領域のサイズを特定する。 In some embodiments, the OCT image is a three-dimensional image, and the size determination step includes determining the length in the A-scan direction of a three-dimensional image region drawn across two or more adjacent B-scan images. The size of the three-dimensional image area is specified from

このような方法によれば、OCT画像に描出される小さい3次元の画像領域のサイズを高精度の評価することが可能になる。 According to such a method, it is possible to highly accurately evaluate the size of a small three-dimensional image region depicted in an OCT image.

いくつかの実施形態は、被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいてOCT画像を形成する画像形成ステップを含む。 Some embodiments include an image forming step of forming an OCT image based on OCT data obtained by performing optical coherence tomography on the subject's eye.

このような方法によれば、OCTデータを取得することで、OCT画像に描出される小さい画像領域のサイズを高精度の評価することが可能な眼科情報処理方法を提供することが可能になる。 According to such a method, by acquiring OCT data, it is possible to provide an ophthalmological information processing method that allows highly accurate evaluation of the size of a small image region depicted in an OCT image.

いくつかの実施形態は、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。 Some embodiments are programs that cause a computer to execute each step of any of the ophthalmological information processing methods described above.

このようなプログラムによれば、コンピュータに、被検眼のOCT画像における1以上の画像領域の少なくとも1つのサイズを、画像領域のAスキャン方向の長さから特定させることができる。それにより、OCTの横分解能に起因して識別できない画像領域のサイズを特定することが可能になり、OCT画像に描出される小さい画像領域のサイズを高精度に評価することが可能になる。 According to such a program, a computer can specify at least one size of one or more image regions in an OCT image of an eye to be examined from the length of the image region in the A-scan direction. Thereby, it becomes possible to specify the size of an image region that cannot be identified due to the lateral resolution of OCT, and it becomes possible to evaluate with high precision the size of a small image region depicted in an OCT image.

いくつかの実施形態に係る眼科情報処理方法を実現するためのプログラムを、コンピュータによって読み取り可能な任意の記録媒体(例えば、非一時的(non-transitory)な記録媒体)に記憶させることができる。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。 A program for realizing the ophthalmological information processing method according to some embodiments can be stored in any computer-readable recording medium (for example, a non-transitory recording medium). The recording medium may be an electronic medium using magnetism, light, magneto-optical, semiconductor, or the like. Typically, the recording medium is a magnetic tape, magnetic disk, optical disk, magneto-optical disk, flash memory, solid state drive, or the like.

また、インターネットやLAN等のネットワークを通じてコンピュータプログラムを送受信することも可能である。 It is also possible to send and receive computer programs through networks such as the Internet and LAN.

以上に説明した態様は、この発明を実施するための例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。 The embodiments described above are merely examples for implementing the invention. Those who wish to carry out this invention can make any modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.

1 眼科システム
10、10a 眼科装置
11、11a、110 制御部
12 データ収集部
12A 干渉光学系
12B スキャン光学系
13、120 画像形成部
14、140 通信部
15 眼科情報処理部
16a 操作部
17a 表示部
100 眼科情報処理装置
111 主制御部
111A 表示制御部
112 記憶部
130 データ処理部
131 3次元画像生成部
180 操作装置
190 表示装置
200 解析部
210 領域特定部
211 解析範囲特定部
212 ノイズ除去部
213 二値化処理部
220 領域連結部
230 サイズ特定部
240 分類部
250 分布情報生成部
251 ヒストグラム生成部
252 分布画像生成部
1 Ophthalmology system 10, 10a Ophthalmology apparatus 11, 11a, 110 Control section 12 Data collection section 12A Interference optical system 12B Scanning optical system 13, 120 Image forming section 14, 140 Communication section 15 Ophthalmology information processing section 16a Operation section 17a Display section 100 Ophthalmological information processing device 111 Main control section 111A Display control section 112 Storage section 130 Data processing section 131 Three-dimensional image generation section 180 Operating device 190 Display device 200 Analysis section 210 Area specification section 211 Analysis range specification section 212 Noise removal section 213 Binary Converting processing unit 220 Area connection unit 230 Size identification unit 240 Classification unit 250 Distribution information generation unit 251 Histogram generation unit 252 Distribution image generation unit

Claims (22)

被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定部と、
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定部と、
を含み、
前記領域特定部は、前記OCT画像に描出された細胞又は細胞塊に相当する前記1以上の画像領域を特定する、眼科情報処理装置。
a region identifying unit that identifies one or more image regions in an OCT image obtained by performing optical coherence tomography on the eye to be examined;
a size specifying unit that specifies at least one size of the one or more image areas from the length of the image area in the A-scan direction;
including;
The region specifying unit is an ophthalmological information processing device that specifies the one or more image regions corresponding to cells or cell clusters depicted in the OCT image.
被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定部と、a region identifying unit that identifies one or more image regions in an OCT image obtained by performing optical coherence tomography on the eye to be examined;
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定部と、a size specifying unit that specifies at least one size of the one or more image areas from the length of the image area in the A-scan direction;
前記サイズ特定部により特定された画像領域のサイズに基づいて前記1以上の画像領域を分類する分類部と、a classification unit that classifies the one or more image areas based on the size of the image area specified by the size identification unit;
を含み、including;
前記OCT画像は、硝子体の少なくとも一部が描出された画像であり、The OCT image is an image in which at least a part of the vitreous body is depicted,
前記分類部は、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に前記1以上の画像領域を分類する、眼科情報処理装置。The classification unit is an ophthalmological information processing device that classifies the one or more image regions into two or more classification types corresponding to two or more inflammatory cells infiltrating the vitreous body.
被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定部と、a region identifying unit that identifies one or more image regions in an OCT image obtained by performing optical coherence tomography on the eye to be examined;
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定部と、a size specifying unit that specifies at least one size of the one or more image areas from the length of the image area in the A-scan direction;
を含み、including;
前記OCT画像は、3次元画像であり、The OCT image is a three-dimensional image,
前記サイズ特定部は、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから前記3次元の画像領域のサイズを特定する、眼科情報処理装置。The size specifying unit specifies the size of the three-dimensional image area based on the length in the A-scan direction of the three-dimensional image area drawn across two or more adjacent B-scan images. Device.
前記サイズ特定部は、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。
The ophthalmological information processing device according to any one of claims 1 to 3, wherein the size specifying unit specifies the size of the image area based on the length of the longest image area in the A-scan direction. .
前記サイズ特定部は、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。
The ophthalmological information processing according to any one of claims 1 to 3, wherein the size specifying unit specifies the size of the image area from the length of the area surrounding the image area in the A-scan direction. Device.
前記2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む
ことを特徴とする請求項2に記載の眼科情報処理装置。
Claim 2, wherein the two or more classification types include a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a third classification type corresponding to lymphocytes. The ophthalmological information processing device described.
前記分類部により分類された前記1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成部を含む
ことを特徴とする請求項2又は請求項6に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 2 or 6, further comprising a distribution information generation section that generates distribution information on the number or position of the one or more image regions classified by the classification section.
前記分類部により分類された分類種別毎に識別可能な態様で前記1以上の画像領域が前記OCT画像に重畳された画像を含む分布情報を生成する分布情報生成部を含む
ことを特徴とする請求項2又は請求項6に記載の眼科情報処理装置。
A claim further comprising: a distribution information generation unit that generates distribution information including an image in which the one or more image regions are superimposed on the OCT image in a manner that can be identified for each classification type classified by the classification unit. The ophthalmological information processing device according to claim 2 or claim 6 .
前記分布情報を表示手段に表示させる表示制御部を含む
ことを特徴とする請求項7又は請求項8に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 7 or 8, further comprising a display control section that displays the distribution information on a display means.
前記被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて前記OCT画像を形成する画像形成部を含む
ことを特徴とする請求項1~請求項9のいずれか一項に記載の眼科情報処理装置。
The eye according to any one of claims 1 to 9, further comprising an image forming unit that forms the OCT image based on OCT data obtained by performing optical coherence tomography on the eye to be examined. The ophthalmological information processing device described.
前記被検眼に光コヒーレンストモグラフィを実行することによりOCTデータを取得する光学系と、
請求項10に記載の眼科情報処理装置と、
を含む眼科装置。
an optical system that acquires OCT data by performing optical coherence tomography on the eye to be examined;
The ophthalmological information processing device according to claim 10 ;
ophthalmological equipment including;
被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定ステップと、
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定ステップと、
を含み、
前記領域特定ステップは、前記OCT画像に描出された細胞又は細胞塊に相当する前記1以上の画像領域を特定する、眼科情報処理方法。
a region identifying step of identifying one or more image regions in the OCT image obtained by performing optical coherence tomography on the eye to be examined;
a size specifying step of specifying at least one size of the one or more image areas from the length of the image area in the A-scan direction;
including;
In the ophthalmological information processing method, the region specifying step specifies the one or more image regions corresponding to cells or cell clusters depicted in the OCT image .
被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定ステップと、a region identifying step of identifying one or more image regions in the OCT image obtained by performing optical coherence tomography on the eye to be examined;
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定ステップと、a size specifying step of specifying at least one size of the one or more image areas from the length of the image area in the A-scan direction;
前記サイズ特定ステップにおいて特定された画像領域のサイズに基づいて前記1以上の画像領域を分類する分類ステップと、a classification step of classifying the one or more image regions based on the size of the image region specified in the size identification step;
を含み、including;
前記OCT画像は、硝子体の少なくとも一部が描出された画像であり、The OCT image is an image in which at least a part of the vitreous body is depicted,
前記分類ステップは、硝子体に浸潤する2以上の炎症細胞に対応する2以上の分類種別に前記1以上の画像領域を分類する、眼科情報処理方法。In the ophthalmological information processing method, the classification step classifies the one or more image regions into two or more classification types corresponding to two or more inflammatory cells infiltrating the vitreous body.
被検眼に光コヒーレンストモグラフィを実行することにより取得されたOCT画像において1以上の画像領域を特定する領域特定ステップと、a region identifying step of identifying one or more image regions in the OCT image obtained by performing optical coherence tomography on the eye to be examined;
画像領域のAスキャン方向の長さから前記1以上の画像領域の少なくとも1つのサイズを特定するサイズ特定ステップと、a size specifying step of specifying at least one size of the one or more image areas from the length of the image area in the A-scan direction;
を含み、including;
前記OCT画像は、3次元画像であり、The OCT image is a three-dimensional image,
前記サイズ特定ステップは、隣接する2以上のBスキャン画像に跨がって描出された3次元の画像領域のAスキャン方向の長さから前記3次元の画像領域のサイズを特定する、眼科情報処理方法。The size specifying step includes ophthalmological information processing in which the size of the three-dimensional image area is specified from the length in the A-scan direction of the three-dimensional image area drawn across two or more adjacent B-scan images. Method.
前記サイズ特定ステップは、Aスキャン方向に最も長い画像領域の長さから当該画像領域のサイズを特定する
ことを特徴とする請求項12~請求項14のいずれか一項に記載の眼科情報処理方法。
The ophthalmological information processing method according to any one of claims 12 to 14, wherein the size specifying step specifies the size of the image area from the length of the longest image area in the A-scan direction. .
前記サイズ特定ステップは、画像領域を囲む領域のAスキャン方向の長さから当該画像領域のサイズを特定する
ことを特徴とする請求項12~請求項14のいずれか一項に記載の眼科情報処理方法。
The ophthalmological information processing according to any one of claims 12 to 14 , wherein the size specifying step specifies the size of the image area from the length of the area surrounding the image area in the A-scan direction. Method.
前記2以上の分類種別は、単球に対応する第1分類種別、好中球に対応する第2分類種別、及びリンパ球に対応する第3分類種別を含む
ことを特徴とする請求項13に記載の眼科情報処理方法。
14. The two or more classification types include a first classification type corresponding to monocytes, a second classification type corresponding to neutrophils, and a third classification type corresponding to lymphocytes. The ophthalmological information processing method described.
前記分類ステップにおいて分類された前記1以上の画像領域の個数又は位置の分布情報を生成する分布情報生成ステップを含む
ことを特徴とする請求項13又は請求項17に記載の眼科情報処理方法。
The ophthalmologic information processing method according to claim 13 or 17, further comprising a distribution information generation step of generating distribution information of the number or position of the one or more image regions classified in the classification step.
前記分類ステップにおいて分類された分類種別毎に識別可能な態様で前記1以上の画像領域が前記OCT画像に重畳された画像を含む分布情報を生成する分布情報生成ステップを含む
ことを特徴とする請求項13又は請求項17に記載の眼科情報処理方法。
A claim characterized by comprising a distribution information generation step of generating distribution information including an image in which the one or more image regions are superimposed on the OCT image in an identifiable manner for each classification type classified in the classification step. The ophthalmological information processing method according to claim 13 or claim 17 .
前記分布情報を表示手段に表示させる表示制御ステップを含む
ことを特徴とする請求項18又は請求項19に記載の眼科情報処理方法。
The ophthalmologic information processing method according to claim 18 or 19, further comprising a display control step of displaying the distribution information on a display means.
前記被検眼に光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて前記OCT画像を形成する画像形成ステップを含む
ことを特徴とする請求項12~請求項20のいずれか一項に記載の眼科情報処理方法。
The method according to any one of claims 12 to 20, further comprising an image forming step of forming the OCT image based on OCT data obtained by performing optical coherence tomography on the eye to be examined. The ophthalmological information processing method described.
コンピュータに、請求項12~請求項21のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。 A program for causing a computer to execute each step of the ophthalmological information processing method according to any one of claims 12 to 21 .
JP2019230061A 2019-12-20 2019-12-20 Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program Active JP7384656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019230061A JP7384656B2 (en) 2019-12-20 2019-12-20 Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019230061A JP7384656B2 (en) 2019-12-20 2019-12-20 Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program

Publications (2)

Publication Number Publication Date
JP2021097790A JP2021097790A (en) 2021-07-01
JP7384656B2 true JP7384656B2 (en) 2023-11-21

Family

ID=76541573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230061A Active JP7384656B2 (en) 2019-12-20 2019-12-20 Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program

Country Status (1)

Country Link
JP (1) JP7384656B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515194A (en) 2008-03-27 2011-05-19 ドヘニー アイ インスティテュート Optical coherence tomography apparatus, method, and system
WO2014203901A1 (en) 2013-06-19 2014-12-24 株式会社トプコン Ophthalmological imaging device and ophthalmological image display device
JP2017086182A (en) 2015-11-02 2017-05-25 株式会社ニデック Oct data processing device, and oct data processing program
JP2019150485A (en) 2018-03-06 2019-09-12 キヤノン株式会社 Image processing system, image processing method, and program
JP2019528313A (en) 2016-08-18 2019-10-10 ブレマー,トロイ Delivery of urea to macular and retinal cells using liposome constructs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515194A (en) 2008-03-27 2011-05-19 ドヘニー アイ インスティテュート Optical coherence tomography apparatus, method, and system
WO2014203901A1 (en) 2013-06-19 2014-12-24 株式会社トプコン Ophthalmological imaging device and ophthalmological image display device
JP2017086182A (en) 2015-11-02 2017-05-25 株式会社ニデック Oct data processing device, and oct data processing program
JP2019528313A (en) 2016-08-18 2019-10-10 ブレマー,トロイ Delivery of urea to macular and retinal cells using liposome constructs
JP2019150485A (en) 2018-03-06 2019-09-12 キヤノン株式会社 Image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP2021097790A (en) 2021-07-01

Similar Documents

Publication Publication Date Title
CN106073700B (en) Image generating method and video generation device
JP5697733B2 (en) Detection of optic nerve damage using 3D optical coherence tomography
JP5702991B2 (en) Image processing apparatus and image processing method
JP5913392B2 (en) Neuropathy analyzer
CN112822972A (en) Image processing apparatus, image processing method, and program
JP6843521B2 (en) Image processing device and image processing method
JP2011030626A (en) Fundus analysis device, fundus analysis program and fundus analysis method
US9060711B2 (en) Automated detection of uveitis using optical coherence tomography
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
US10111582B2 (en) Image processing device and method to identify disease in an ocular fundus image
JP2020039430A (en) Image processing device, image processing method and program
JP2023133539A (en) Ophthalmologic information processing device and ophthalmologic imaging apparatus
JP7384656B2 (en) Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program
JP2021191551A (en) Ophthalmologic inspection device
JP2018191761A (en) Information processing device, information processing method, and program
JP2021166906A (en) Ophthalmologic imaging apparatus
WO2019102740A1 (en) Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
JP7007125B2 (en) Ophthalmology information processing equipment and ophthalmology imaging equipment
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
WO2019102741A1 (en) Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
JP2018047084A (en) Ophthalmologic examination apparatus
WO2019102739A1 (en) Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
JP2024001913A (en) Image processing method, image processing apparatus, program and recording medium
JP2024003982A (en) Image processing method, image processing device, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7384656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150