JP2017023482A - Picture processing device, picture processing method, and program - Google Patents

Picture processing device, picture processing method, and program Download PDF

Info

Publication number
JP2017023482A
JP2017023482A JP2015146036A JP2015146036A JP2017023482A JP 2017023482 A JP2017023482 A JP 2017023482A JP 2015146036 A JP2015146036 A JP 2015146036A JP 2015146036 A JP2015146036 A JP 2015146036A JP 2017023482 A JP2017023482 A JP 2017023482A
Authority
JP
Japan
Prior art keywords
image
area
region
unresolved
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015146036A
Other languages
Japanese (ja)
Inventor
恵子 米沢
Keiko Yonezawa
恵子 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015146036A priority Critical patent/JP2017023482A/en
Publication of JP2017023482A publication Critical patent/JP2017023482A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism capable of accurately detecting a visual cell of a subject's eye.SOLUTION: A picture processing device comprises: a picture acquisition unit 110 that acquires a picture obtained by imaging a visual cell of a subject's eye; a division unit 142 that divides the picture acquired by the picture acquisition unit 110 into small areas; a feature amount acquisition unit 143 that performs space frequency conversion on each of the small areas obtained by the division unit 142's division to acquire a feature amount of each small area; and an area extraction unit 144 that, on the basis of the feature amount of each small area acquired by the feature amount acquisition unit 143, extracts a non-resolution area, i.e., an area in which a visual cell has not yet been resolved, in the picture acquired by the picture acquisition unit 110.SELECTED DRAWING: Figure 1

Description

本発明は、被検眼の視細胞を撮影した画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理方法をコンピュータに実行させるためのプログラムに関する。   The present invention relates to an image processing apparatus and an image processing method for processing an image obtained by photographing a photoreceptor cell of an eye to be examined, and a program for causing a computer to execute the image processing method.

人の五感の中でも重要な機能とされる視機能には、眼の網膜の視細胞が重要な役割を果たしている。近年、収差補正技術を応用することで、被検眼の眼底網膜を高精細に描出する技術が構築され、視機能に関する新たな知見の発見や診断価値の構築が期待されている。   The visual cells in the retina of the eye play an important role in the visual function, which is an important function in the human senses. In recent years, by applying aberration correction technology, a technique for drawing the fundus retina of the eye to be examined with high definition has been constructed, and discovery of new knowledge about visual functions and construction of diagnostic value are expected.

補償光学適用眼底走査型レーザー検眼鏡(Adaptive Optics Scanning Laser Ophthalmoscope:以下、「AO−SLO」と称する)は、大気のゆらぎを補償することで鮮明な星の画像を取得する望遠鏡の技術を、眼に応用した検眼鏡である。このAO−SLO装置の技術により、被検眼の網膜の視細胞1つ1つを解像することができるようになった。視細胞は、最も高密度である中心窩付近では約2μm間隔で存在するといわれている。現在も、この中心窩の視細胞まで描出することを目的として、解像度向上のための開発が続けられている。   An adaptive optics scanning laser opthalmoscope (hereinafter referred to as “AO-SLO”), which applies adaptive optics, employs a telescope technique for acquiring a clear star image by compensating for atmospheric fluctuations. This is an ophthalmoscope applied to. With this AO-SLO device technology, it has become possible to resolve each photoreceptor cell of the retina of the eye to be examined. It is said that photoreceptor cells are present at intervals of about 2 μm in the vicinity of the fovea, which is the highest density. Currently, the development for improving the resolution is continued for the purpose of drawing the photoreceptor cells in the fovea.

AO−SLO装置により取得された画像を臨床価値につなげるためには、当該画像から診断に有効な指標を抽出する必要がある。そのために必要な技術の1つとして、描出される視細胞を正確に検出し、その密度を中心窩からの距離と関連付けて評価する技術がある。この視細胞の密度は、中心窩からの距離に応じて変化することが知られており、中心窩付近が最も高密度となる。密度の大きさは、健常眼であってもばらつきがあり、中心窩付近では、高解像度のAO−SLO装置でも個別の視細胞を描出することが難しい場合がある。   In order to connect an image acquired by the AO-SLO device to clinical value, it is necessary to extract an index effective for diagnosis from the image. One technique required for this purpose is to accurately detect the visualized visual cells and evaluate the density in association with the distance from the fovea. It is known that the density of photoreceptor cells changes according to the distance from the fovea, and the density near the fovea is the highest. The size of the density varies even in a normal eye, and it may be difficult to depict individual photoreceptor cells near the fovea even with a high-resolution AO-SLO device.

従来の技術として、非特許文献1には、視細胞の輝度プロファイルに着目し、視細胞の周期に相当する周波数に対応するローパスフィルタ処理の後、極大値検出を行う技術が記載されている。また、非特許文献2には、視細胞の密度の変化から最も密度の高い位置を求めて、中心窩とする技術が記載されている。   As a conventional technique, Non-Patent Document 1 describes a technique of paying attention to a luminance profile of a photoreceptor cell, and detecting a maximum value after low-pass filter processing corresponding to a frequency corresponding to a photoreceptor cell cycle. Further, Non-Patent Document 2 describes a technique for determining a position with the highest density from a change in the density of photoreceptor cells and using it as a fovea.

特開2013−63215号公報JP2013-63215A

K. Y. Li and A. Roorda, "Automated identification of cone photoreceptors in adaptive optics retinal images," J. Opt. Soc. Am. A 24(5), 1358-1363 (2007).K. Y. Li and A. Roorda, "Automated identification of cone subunits in adaptive optics retinal images," J. Opt. Soc. Am. A 24 (5), 1358-1363 (2007). K. Y. Li, P. Tiruveedhula and A. Roorda, "Intersubject Variability of Foveal Cone Photoreceptor Density in Relation to Eye Length," IOVS 2010; 51: 6858-67K. Y. Li, P. Tiruveedhula and A. Roorda, "Intersubject Variability of Foveal Cone Photoreceptor Density in Relation to Eye Length," IOVS 2010; 51: 6858-67 Curcio CA, Sloan KR, Kalina RE, Hendrickson AE. Human photoreceptor topography. J Comp Neurol. 1990;292:497-523.Curcio CA, Sloan KR, Kalina RE, Hendrickson AE.Human replica topography.J Comp Neurol. 1990; 292: 497-523.

非特許文献1に記載の技術では、中心窩付近で視細胞の密度が高くなるとAO−SLO装置の解像限界に近付き、隣接する視細胞を解像して個別に視細胞を判別することが困難となる。この場合、視細胞の密度や最近接距離等の各種の統計指標、非特許文献2に記載の手法により取得した中心窩位置は、視細胞の検出結果に依存した手法であるため、正確な値とはならない。   In the technique described in Non-Patent Document 1, when the density of photoreceptor cells increases in the vicinity of the fovea, the resolution limit of the AO-SLO device is approached, and adjacent photoreceptor cells are resolved to individually identify photoreceptor cells. It becomes difficult. In this case, various statistical indices such as photoreceptor cell density and closest distance, and the foveal position acquired by the technique described in Non-Patent Document 2 are techniques that depend on the photoreceptor detection results, and therefore are accurate values. It will not be.

また特許文献1には、視細胞を撮影した画像内で画質の低い領域を抽出する技術が記載されている。しかしながら、特許文献1に記載の技術では、画質が高くても視細胞の密度が高いために視細胞の判別が不十分となる場合に、その状況に適した処理を行うことができず、視細胞の検出を正確に行うことが困難であった。   Patent Document 1 describes a technique for extracting a low-quality area from an image of photoreceptor cells. However, the technique described in Patent Document 1 cannot perform processing suitable for the situation when the discrimination of photoreceptor cells becomes insufficient due to the high density of photoreceptor cells even if the image quality is high. It was difficult to accurately detect cells.

本発明は、このような問題点に鑑みてなされたものであり、被検眼の視細胞の検出を正確に行える仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism capable of accurately detecting photoreceptor cells of an eye to be examined.

本発明の画像処理装置は、被検眼の視細胞を撮影した画像を取得する画像取得手段と、前記画像を小領域に分割する分割手段と、前記分割手段で分割された各小領域を空間周波数変換し、前記各小領域の特徴量を取得する特徴量取得手段と、前記各小領域の前記特徴量に基づいて、前記画像において前記視細胞が未解像の領域である未解像領域を抽出する領域抽出手段とを有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
An image processing apparatus according to the present invention includes an image acquisition unit that acquires an image obtained by photographing a photoreceptor cell of an eye to be examined, a dividing unit that divides the image into small regions, and a spatial frequency that is obtained by dividing each small region by the dividing unit. Based on the feature amount acquisition means for converting and acquiring the feature amount of each small region, an unresolved region in which the photoreceptor cell is an unresolved region in the image based on the feature amount of each small region Region extracting means for extracting.
The present invention also includes an image processing method by the above-described image processing apparatus and a program for causing a computer to execute the image processing method.

本発明によれば、被検眼の視細胞の検出を正確に行うことが可能となる。   According to the present invention, it is possible to accurately detect photoreceptor cells in the eye to be examined.

本発明の第1の実施形態に係る眼科装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the ophthalmologic apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態を示し、図1のAO−SLO装置により生成した複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。It is a figure which shows the 1st Embodiment of this invention and shows the some AO-SLO image and WF-SLO image which were produced | generated by the AO-SLO apparatus of FIG. 本発明の第1の実施形態を示し、図1のAO−SLO装置における固視灯の点灯位置を操作するための固視灯マップを示す図である。It is a figure which shows the 1st Embodiment of this invention and shows the fixation lamp map for operating the lighting position of the fixation lamp in the AO-SLO apparatus of FIG. 本発明の第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing method by the image processing apparatus which concerns on the 1st Embodiment of this invention. 図4のステップS160における特徴量取得処理の詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence of the feature-value acquisition process in FIG.4 S160. 本発明の第1の実施形態を示し、図4のステップS150で得た各小領域の空間周波数画像Fiから積算関数を算出する方法を説明するための図である。FIG. 5 is a diagram illustrating a method for calculating an integration function from the spatial frequency image Fi of each small region obtained in step S150 in FIG. 4 according to the first embodiment of this invention. 本発明の第1の実施形態を示し、積算関数の形状の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the shape of an integration function. 本発明の第1の実施形態を示し、ピーク比画像の一例、及び、未解像領域を抽出する際の処理の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the process at the time of extracting an example of a peak ratio image and an unresolved area | region. 本発明の第2の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing method by the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing method by the image processing apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing method by the image processing apparatus which concerns on the 4th Embodiment of this invention.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

第1の実施形態では、AO−SLO装置によって被検眼の網膜(視細胞を含む)を撮影したAO−SLO画像から、被検眼の中心窩周辺の視細胞が高密度の領域において隣接視細胞間の解像ができないために個別に視細胞を判別することが困難な領域を抽出する手法を説明する。以下の説明では、この個別に視細胞の判別を行うことが困難な領域(即ち、AO−SLO画像において視細胞が未解像の領域)を「未解像領域」と称する。   In the first embodiment, from an AO-SLO image obtained by photographing a retina (including photoreceptor cells) of an eye to be examined by an AO-SLO apparatus, between adjacent photoreceptor cells in a region where the photoreceptor cells around the fovea of the eye to be examined are dense. A method for extracting a region in which it is difficult to discriminate photoreceptor cells individually because resolution of the above cannot be performed will be described. In the following description, an area where it is difficult to individually discriminate photoreceptor cells (that is, an area where photoreceptor cells are unresolved in an AO-SLO image) is referred to as an “unresolved area”.

具体的に、本実施形態では、被検眼の網膜(視細胞を含む)を撮影したAO−SLO画像を小領域に分割し、分割した各小領域に対して空間周波数変換処理を行う。そして、本実施形態では、この空間周波数変換処理で得られた各小領域の空間周波数変換画像の特徴に基づいて各小領域の解像度合いを示す特徴量を取得し、これらの特徴量を画像全体で統合することにより、AO−SLO画像内の未解像領域を抽出する。このように、AO−SLO画像の視細胞の配列を反映した空間周波数変換画像の特徴を用いることにより、視細胞の検出精度に依存しない方法で、未解像領域を抽出することが可能となる。   Specifically, in the present embodiment, an AO-SLO image obtained by photographing the retina (including photoreceptor cells) of the eye to be examined is divided into small areas, and spatial frequency conversion processing is performed on each divided small area. Then, in the present embodiment, based on the features of the spatial frequency converted image of each small region obtained by this spatial frequency conversion processing, a feature amount indicating the resolution of each small region is acquired, and these feature amounts are used for the entire image. To un-resolved regions in the AO-SLO image. Thus, by using the features of the spatial frequency converted image reflecting the arrangement of photoreceptor cells in the AO-SLO image, it becomes possible to extract an unresolved region by a method that does not depend on the detection accuracy of photoreceptor cells. .

[眼科装置の概略構成]
図1は、本発明の第1の実施形態に係る眼科装置10の概略構成の一例を示すブロック図である。
本実施形態に係る眼科装置10は、図1に示すように、画像処理装置100、AO−SLO装置200、情報入力装置300、表示装置400、及び、データベース500を有して構成されている。
[Schematic configuration of ophthalmic apparatus]
FIG. 1 is a block diagram showing an example of a schematic configuration of an ophthalmologic apparatus 10 according to the first embodiment of the present invention.
As shown in FIG. 1, the ophthalmologic apparatus 10 according to the present embodiment includes an image processing apparatus 100, an AO-SLO apparatus 200, an information input apparatus 300, a display apparatus 400, and a database 500.

AO−SLO装置200は、被検眼の網膜(視細胞を含む)を撮影してAO−SLO画像や広画角のWF−SLO画像等の平面画像を生成する装置である。   The AO-SLO device 200 is a device that captures a retina (including photoreceptor cells) of a subject eye and generates a planar image such as an AO-SLO image or a wide-angle WF-SLO image.

情報入力装置300は、画像処理装置100に対して各種の情報を入力する装置である。   The information input device 300 is a device that inputs various types of information to the image processing apparatus 100.

画像処理装置100は、AO−SLO装置200によって被検眼の網膜(視細胞を含む)を撮影したAO−SLO画像やWF−SLO画像等の平面画像を処理する装置である。この画像処理装置100は、図1に示すように、画像取得部110、情報取得部120、制御部130、画像処理部140、記憶部150、及び、出力部160を有して構成されている。   The image processing apparatus 100 is an apparatus that processes a planar image such as an AO-SLO image or a WF-SLO image obtained by photographing the retina (including photoreceptor cells) of the eye to be examined by the AO-SLO apparatus 200. As shown in FIG. 1, the image processing apparatus 100 includes an image acquisition unit 110, an information acquisition unit 120, a control unit 130, an image processing unit 140, a storage unit 150, and an output unit 160. .

画像取得部110は、AO−SLO装置200によって被検眼の網膜(視細胞を含む)を撮影したAO−SLO画像やWF−SLO画像等の平面画像を取得する処理を行う。   The image acquisition unit 110 performs processing for acquiring a planar image such as an AO-SLO image or a WF-SLO image obtained by photographing the retina (including photoreceptor cells) of the eye to be examined by the AO-SLO device 200.

情報取得部120は、AO−SLO装置200や情報入力装置300から、各種の情報を取得する処理を行う。例えば、情報取得部120は、AO−SLO装置200から被検眼に関する情報を取得したり、情報入力装置300から検者からの入力情報を取得したりする。   The information acquisition unit 120 performs processing for acquiring various types of information from the AO-SLO device 200 and the information input device 300. For example, the information acquisition unit 120 acquires information about the eye to be examined from the AO-SLO apparatus 200 or acquires input information from the examiner from the information input apparatus 300.

制御部130は、画像処理装置100における動作を統括的に制御したり、画像処理装置100における各種の処理を行ったりする。   The control unit 130 performs overall control of operations in the image processing apparatus 100 and performs various processes in the image processing apparatus 100.

画像処理部140は、画像取得部110によって取得されたAO−SLO画像やWF−SLO画像等の平面画像を処理する。この画像処理部140は、図1に示すように、位置合わせ部141、分割部142、特徴量取得部143、領域抽出部144、及び、視細胞解析部145を有して構成されている。   The image processing unit 140 processes a planar image such as an AO-SLO image or a WF-SLO image acquired by the image acquisition unit 110. As illustrated in FIG. 1, the image processing unit 140 includes a positioning unit 141, a dividing unit 142, a feature amount acquiring unit 143, a region extracting unit 144, and a photoreceptor analyzing unit 145.

位置合わせ部141は、画像取得部110で取得されたAO−SLO画像とWF−SLO画像の位置合わせ処理を行う。
分割部142は、位置合わせ部141による位置合わせが行われたAO−SLO画像を小領域に分割する処理を行う。
特徴量取得部143は、分割部142で分割された各小領域を空間周波数変換し、当該各小領域の特徴量を取得する処理を行う。具体的に、本実施形態では、特徴量取得部143は、小領域ごとに、出力の絶対値を各角度方向に積算した積算関数の形状に基づく特徴量を取得する処理を行う。
領域抽出部144は、特徴量取得部143で取得された各小領域の特徴量に基づき、AO−SLO画像において視細胞が未解像の領域である未解像領域を抽出する処理を行う。
視細胞解析部145は、AO−SLO画像において視細胞の解析処理を行う。
The alignment unit 141 performs alignment processing between the AO-SLO image acquired by the image acquisition unit 110 and the WF-SLO image.
The dividing unit 142 performs a process of dividing the AO-SLO image that has been aligned by the positioning unit 141 into small regions.
The feature amount acquisition unit 143 performs a process of performing spatial frequency conversion on each small region divided by the dividing unit 142 and acquiring the feature amount of each small region. Specifically, in the present embodiment, the feature amount acquisition unit 143 performs a process of acquiring a feature amount based on the shape of an integration function obtained by integrating the absolute value of the output in each angle direction for each small region.
The region extraction unit 144 performs a process of extracting an unresolved region in which the photoreceptor cell is an unresolved region in the AO-SLO image based on the feature amount of each small region acquired by the feature amount acquisition unit 143.
The photoreceptor analysis unit 145 performs photoreceptor cell analysis processing on the AO-SLO image.

記憶部150は、制御部130が処理を行う際に必要なプログラムや各種の情報等を記憶している。さらに、記憶部150は、制御部130の制御に基づいて、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を記憶する。   The storage unit 150 stores programs and various information necessary for the control unit 130 to perform processing. Further, based on the control of the control unit 130, the storage unit 150 obtains a planar image acquired by the image acquisition unit 110, various types of information acquired by the information acquisition unit 120, and further, results of processing of the image processing unit 140. Various kinds of information are stored.

出力部160は、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を、表示装置400に出力して表示させる他、データベース500に出力して保存させる。   The output unit 160 displays the planar image acquired by the image acquisition unit 110, various types of information acquired by the information acquisition unit 120, and various types of information obtained as a result of processing by the image processing unit 140, etc. Are output and displayed on the database 500, and are also output and stored in the database 500.

表示装置400は、出力部160から出力された平面画像や各種の情報等を表示する処理を行う。   The display device 400 performs processing for displaying a planar image, various information, and the like output from the output unit 160.

データベース500は、出力部160から出力された平面画像や各種の情報等を保存する処理を行う。   The database 500 performs processing for storing the planar image output from the output unit 160, various information, and the like.

[平面画像]
図2は、本発明の第1の実施形態を示し、図1のAO−SLO装置200により生成した複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。
AO−SLO装置200では、固視灯の点灯位置を変えることで、被検眼が異なる位置を凝視した状態として撮影することにより、被検眼の網膜の異なる位置を撮影することができる。ここで、図2には、AO−SLO装置200により生成した複数のAO−SLO画像220と広画角のWF−SLO画像210が示されている。
[Plane image]
FIG. 2 is a diagram schematically illustrating a plurality of AO-SLO images and WF-SLO images generated by the AO-SLO apparatus 200 of FIG. 1 according to the first embodiment of this invention.
In the AO-SLO device 200, it is possible to photograph different positions of the retina of the subject's eye by changing the lighting position of the fixation lamp and photographing the subject as if the subject's eye is staring at different positions. Here, FIG. 2 shows a plurality of AO-SLO images 220 and a wide-angle WF-SLO image 210 generated by the AO-SLO device 200.

図3は、本発明の第1の実施形態を示し、図1のAO−SLO装置200における固視灯の点灯位置を操作するための固視灯マップを示す図である。
最初に、AO−SLO装置200は、図3に示す固視灯マップで中心の位置を選択した状態で固視灯を点灯する。以下、この位置を基準位置と称する。このとき、提示される固視灯を凝視した被検眼を撮影すると、被検眼の黄斑付近の撮影を行うことができる。
FIG. 3 is a diagram showing a fixation lamp map for operating the fixation lamp lighting position in the AO-SLO device 200 of FIG. 1 according to the first embodiment of the present invention.
First, the AO-SLO device 200 turns on the fixation lamp with the center position selected in the fixation lamp map shown in FIG. Hereinafter, this position is referred to as a reference position. At this time, if the subject's eye staring at the fixation light to be presented is photographed, the vicinity of the macula of the subject's eye can be photographed.

ここで、図2に示すWF−SLO画像210は、AO−SLO装置200においてAO−SLO画像を取得する場合とは異なる光学系で、補償光学系を用いないで取得された低解像度の画像であり、被検眼の網膜の広い範囲を撮影することで網膜の全体イメージを得るための画像である。図2に示すように、WF−SLO画像210と対応付けることにより、画角の狭いAO−SLO画像220が網膜全体のどの位置にあるかが示される。以下、本実施形態では、WF−SLO画像210は、画像サイズが8mm×6mm、ピクセルサイズは533ピクセル×400ピクセルであるものとする。また、AO−SLO画像220には、撮影領域のサイズが、1.7mm×1.7mm、0.82mm×0.82mm、0.34mm×0.34mmの3種類があり、そのピクセルサイズは全て共通で400ピクセル×400ピクセルとなる3種類の解像度が存在する。ここで、撮影領域のサイズが、1.7mm×1.7mmであるAO−SLO画像をL画像220−L、0.82mm×0.82mmであるAO−SLO画像をM画像220−M、0.34mm×0.34mmであるAO−SLO画像をS画像220−Sとする。以下に説明する視細胞解析では、主にS画像220−Sを解析対象とするものとする。また、AO−SLO画像220とWF−SLO画像210を平面画像と称する。   Here, the WF-SLO image 210 shown in FIG. 2 is a low-resolution image acquired without using the compensation optical system in an optical system different from the case where the AO-SLO image is acquired by the AO-SLO apparatus 200. There is an image for obtaining an entire image of the retina by photographing a wide range of the retina of the eye to be examined. As shown in FIG. 2, by associating with the WF-SLO image 210, the position of the AO-SLO image 220 having a narrow angle of view in the entire retina is indicated. Hereinafter, in the present embodiment, it is assumed that the WF-SLO image 210 has an image size of 8 mm × 6 mm and a pixel size of 533 pixels × 400 pixels. In addition, the AO-SLO image 220 has three types of shooting area sizes of 1.7 mm × 1.7 mm, 0.82 mm × 0.82 mm, and 0.34 mm × 0.34 mm. There are three types of resolution that are 400 pixels × 400 pixels in common. Here, an AO-SLO image with a shooting area size of 1.7 mm × 1.7 mm is an L image 220 -L, an AO-SLO image with a size of 0.82 mm × 0.82 mm is an M image 220 -M, 0 An AO-SLO image having a size of 34 mm × 0.34 mm is referred to as an S image 220-S. In the photoreceptor cell analysis described below, it is assumed that the S image 220-S is mainly an analysis target. Further, the AO-SLO image 220 and the WF-SLO image 210 are referred to as planar images.

[撮影プロトコル]
被検眼の撮影プロトコルは、被検眼の着目したい疾病等によって異なるが、標準プロトコルとしては、最初に黄斑を中心としたWF−SLO画像210を撮影し、その後、網膜の複数の位置を解像度の異なるAO−SLO画像220を組み合わせながら撮影を行う。本実施形態では、AO−SLO画像220の撮影時間及びフレームレートを変更することが可能であり、ここでは、フレームレートが毎秒32フレーム、撮影時間が1秒で、32枚の画像より構成されるものとする。
[Shooting protocol]
The imaging protocol of the eye to be examined varies depending on the disease or the like of the eye to be focused on. However, as a standard protocol, first, a WF-SLO image 210 centered on the macula is photographed, and then a plurality of positions of the retina have different resolutions. Photographing is performed while combining the AO-SLO images 220. In this embodiment, it is possible to change the shooting time and frame rate of the AO-SLO image 220. Here, the frame rate is 32 frames per second, the shooting time is 1 second, and the image is composed of 32 images. Shall.

[画像処理装置100の処理手順]
図4は、本発明の第1の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。
[Processing Procedure of Image Processing Apparatus 100]
FIG. 4 is a flowchart showing an example of the processing procedure of the image processing method by the image processing apparatus 100 according to the first embodiment of the present invention.

<ステップS110>
まず、ステップS110において、情報取得部120は、情報入力装置300から、患者情報として被検眼の情報を取得する。そして、情報取得部120は、取得した被検眼の情報を、制御部130を介して、記憶部150に記憶する。ここで、被検眼の情報には、被検者のIDや生年月日等の被検者情報や、被検眼の眼軸長等の計測データの情報、更には、過去に撮影された画像等の情報が含まれる。
<Step S110>
First, in step S <b> 110, the information acquisition unit 120 acquires information about the eye to be examined as patient information from the information input device 300. Then, the information acquisition unit 120 stores the acquired information about the eye to be examined in the storage unit 150 via the control unit 130. Here, the information of the subject's eye includes subject information such as the subject's ID and date of birth, information of measurement data such as the axial length of the subject's eye, and images taken in the past Information is included.

<ステップS120>
続いて、ステップS120において、画像取得部110は、AO−SLO装置200での撮影により生成された被検眼の網膜における平面画像(WF−SLO画像210及びAO−SLO画像220)を取得する。ここで、平面画像には、被検眼の網膜における視細胞が含まれているものとする。そして、画像取得部110は、取得した平面画像を、制御部130を介して、記憶部150に記憶する。
<Step S120>
Subsequently, in step S <b> 120, the image acquisition unit 110 acquires a planar image (WF-SLO image 210 and AO-SLO image 220) in the retina of the eye to be inspected generated by photographing with the AO-SLO device 200. Here, it is assumed that the planar image includes photoreceptor cells in the retina of the eye to be examined. Then, the image acquisition unit 110 stores the acquired planar image in the storage unit 150 via the control unit 130.

<ステップS130>
続いて、ステップS130において、位置合わせ部141は、ステップS120で取得されたAO−SLO画像220とWF−SLO画像210の位置合わせを行う。そして、例えば位置合わせ部141は、WF−SLO画像210上に指定されたおおよその被検眼の中心窩の位置と、位置合わせしたAO−SLO画像220との関係から、AO−SLO画像220とおおよその中心窩の位置との関係を求める。そして、例えば位置合わせ部141は、求めた関係に基づいて、画像中に中心窩を含むAO−SLO画像を選択して取得する。
<Step S130>
Subsequently, in step S130, the alignment unit 141 performs alignment of the AO-SLO image 220 and the WF-SLO image 210 acquired in step S120. Then, for example, the alignment unit 141 approximates the AO-SLO image 220 based on the relationship between the approximate position of the fovea of the subject eye specified on the WF-SLO image 210 and the aligned AO-SLO image 220. Find the relationship with the fovea position. For example, the alignment unit 141 selects and acquires an AO-SLO image including the fovea in the image based on the obtained relationship.

ここで、WF−SLO画像210上におけるおおよその中心窩の位置指定の方法は、複数存在する。例えば、WF−SLO画像210は、基準位置を固視して取得された画像であるため、WF−SLO画像210の中心をおおよその中心窩とする方法がある。また、WF−SLO画像210を解析して、被検眼の黄斑付近の血管の走行からおおよその中心窩の位置を定義して指定する方法もある。そして、位置合わせ部141は、AO−SLO画像220とWF−SLO画像210との対応付けを行った結果と、それに基づき選択したおおよその中心窩の位置を含むAO−SLO画像220とを、制御部130を介して、記憶部150に記憶する。   Here, there are a plurality of methods for specifying the approximate fovea position on the WF-SLO image 210. For example, since the WF-SLO image 210 is an image obtained by fixing the reference position, there is a method in which the center of the WF-SLO image 210 is an approximate fovea. In addition, there is a method in which the WF-SLO image 210 is analyzed, and the approximate position of the fovea is defined and specified from the running of the blood vessel near the macula of the eye to be examined. Then, the alignment unit 141 controls the result of the association between the AO-SLO image 220 and the WF-SLO image 210 and the AO-SLO image 220 including the approximate fovea position selected based on the result. The data is stored in the storage unit 150 via the unit 130.

<ステップS140>
続いて、ステップS140において、分割部142は、ステップS130で取得された中心窩を含むAO−SLO画像を小領域に分割する処理を行う。そして、分割部142は、分割した小領域の大きさと位置に係る情報を、制御部130を介して、記憶部150に記憶する。ここで、各小領域は、空間周波数変換を行う単位とするため、各小領域内に含まれる視細胞の数や中心窩からの距離に応じて最適化する必要がある。具体的には、各小領域が小さく当該小領域内に含まれる視細胞数が少ない場合には正しい空間周波数の値が取得できず、逆に、各小領域が大きく当該小領域内で視細胞の密度が変化する場合には空間周波数変換の結果から視細胞の密度に相当する空間周波数の値を取得できなくなる。
<Step S140>
Subsequently, in step S140, the dividing unit 142 performs a process of dividing the AO-SLO image including the fovea acquired in step S130 into small regions. Then, the dividing unit 142 stores information related to the size and position of the divided small areas in the storage unit 150 via the control unit 130. Here, since each small region is a unit for performing spatial frequency conversion, it is necessary to optimize according to the number of photoreceptor cells contained in each small region and the distance from the fovea. Specifically, when each small region is small and the number of photoreceptor cells contained in the small region is small, a correct spatial frequency value cannot be obtained, and conversely, each small region is large and the photoreceptor cell is within the small region. When the density changes, the value of the spatial frequency corresponding to the density of the photoreceptor cells cannot be obtained from the result of the spatial frequency conversion.

以下に示す例では、小領域の大きさを100ピクセル×100ピクセルとしたもの想定した説明を行うが、本実施形態においては、小領域の大きさはこの値に限定されるものではない。さらに、以下に示す例では、分割小領域を50ピクセルずつ上下左右にずらしてタイル状に解析領域を設定する。なお、本実施形態においては、ここで用いた50ピクセルという量も自由に変更することが可能である。但し、ずらす量を小さくして多数の少領域を設定する場合には、精度の高い分析が可能となるが、計算負荷は大きくなる。以下に示す例では、画像全体について100ピクセル×100ピクセルの小領域を縦横方向に50ピクセルずつずらし、合計で7×7=49個の小領域として解析する。   In the example shown below, description is made assuming that the size of the small area is 100 pixels × 100 pixels, but in the present embodiment, the size of the small area is not limited to this value. Further, in the example shown below, the analysis areas are set in a tile shape by shifting the divided small areas up, down, left, and right by 50 pixels. In the present embodiment, the amount of 50 pixels used here can be freely changed. However, when a small amount of shift is set and a large number of small regions are set, analysis with high accuracy is possible, but the calculation load increases. In the example shown below, the small area of 100 pixels × 100 pixels is shifted by 50 pixels in the vertical and horizontal directions for the entire image, and the total is analyzed as 7 × 7 = 49 small areas.

<ステップS150>
続いて、ステップS150において、特徴量取得部143は、ステップS140で分割された各小領域に対して空間周波数変換処理を行う。具体的に、特徴量取得部143は、100ピクセル×100ピクセルの小領域Riに対して輝度の平均値を算出して小領域Riの各ピクセル値より減算し、さらに窓関数によるエッジ処理を行ったものを128ピクセル×128ピクセルの画像Liの中央に配置する。ここで用いる窓関数は、様々な種類のものが考えられるが、ここでは、サイズ4のハン窓関数を用いることとする。また、特徴量取得部143は、画像Liの周辺部で小領域Riの画素値が存在しない領域については、上記で算出した平均値でパディングする。そして、特徴量取得部143は、サイズ128×128ピクセルの画像Liを高速フーリエ変換(以下、「FFT」と称する)により空間周波数画像Fiに変換する。ここで、空間周波数画像Fiは、空間周波数変換処理後の複素数の絶対値のみを各ピクセルに割り当てた画像であり、低周波に相当するピクセルが画像の中央にくるように画像の4象限を移動している。同様の処理を、49個の全ての小領域に対して適用する。そして、特徴量取得部143は、こうして得られた各小領域Riの空間周波数画像Fiを、制御部130を介して、記憶部150に記憶する。
<Step S150>
Subsequently, in step S150, the feature amount acquisition unit 143 performs a spatial frequency conversion process on each small region divided in step S140. Specifically, the feature amount acquisition unit 143 calculates an average luminance value for a small area Ri of 100 pixels × 100 pixels, subtracts it from each pixel value of the small area Ri, and further performs edge processing using a window function. Is arranged in the center of an image Li of 128 pixels × 128 pixels. Although various types of window functions can be considered here, a Hann window function of size 4 is used here. In addition, the feature amount acquisition unit 143 performs padding with the average value calculated above for a region where the pixel value of the small region Ri does not exist in the peripheral portion of the image Li. Then, the feature amount acquisition unit 143 converts the image Li having a size of 128 × 128 pixels into a spatial frequency image Fi by fast Fourier transform (hereinafter referred to as “FFT”). Here, the spatial frequency image Fi is an image in which only the absolute value of the complex number after the spatial frequency conversion process is assigned to each pixel, and the four quadrants of the image are moved so that the pixel corresponding to the low frequency is at the center of the image. doing. Similar processing is applied to all 49 small regions. Then, the feature amount acquisition unit 143 stores the spatial frequency image Fi of each small region Ri thus obtained in the storage unit 150 via the control unit 130.

<ステップS160>
続いて、ステップS160において、特徴量取得部143は、ステップS150で得た各小領域の空間周波数画像Fiを用いて、画像の解像・未解像を判定するための特徴量を取得する。このステップS160の詳細な処理を、図5を用いて説明する。
<Step S160>
Subsequently, in step S160, the feature amount acquisition unit 143 acquires a feature amount for determining whether the image is resolved or unresolved using the spatial frequency image Fi of each small region obtained in step S150. Detailed processing in step S160 will be described with reference to FIG.

図5は、図4のステップS160における特徴量取得処理の詳細な処理手順の一例を示すフローチャートである。   FIG. 5 is a flowchart illustrating an example of a detailed processing procedure of the feature amount acquisition processing in step S160 of FIG.

≪ステップS161≫
まず、ステップS161において、特徴量取得部143は、ステップS150で得た各小領域の空間周波数画像Fiに基づいて、積算関数を算出する。ここで、空間周波数画像Fiには、被検眼の視細胞の配置における周期性に対応するリング状構造が見られることが知られており、積算関数は、この周期性に対応する周波数の大きさを取得する目的で算出される。
<< Step S161 >>
First, in step S161, the feature amount acquisition unit 143 calculates an integration function based on the spatial frequency image Fi of each small region obtained in step S150. Here, it is known that a ring-shaped structure corresponding to the periodicity in the arrangement of the photoreceptor cells of the eye to be examined is seen in the spatial frequency image Fi, and the integration function has the magnitude of the frequency corresponding to this periodicity. Calculated for the purpose of obtaining

図6は、本発明の第1の実施形態を示し、図4のステップS150で得た各小領域の空間周波数画像Fiから積算関数を算出する方法を説明するための図である。
具体的には、図6(a)に示すように、空間周波数画像Fiの中心点(64,64)を原点とした極座標表示(r,θ)を考え、空間周波数画像Fiの各ピクセルの値をθ方向に積算した関数である積算関数I(r)を算出する。但し、r=0,1,2,…,N/2とする。図6(b)は、図6(a)に示す空間周波数画像Fiに基づき算出された積算関数I(r)を示している。この積算関数I(r)の値は、周波数の大きさrをもつ全方向(各角度方向)の成分を積算した値に相当し、画像中で見られる周期性の大きさを示している。
FIG. 6 shows the first embodiment of the present invention, and is a diagram for explaining a method for calculating the integration function from the spatial frequency image Fi of each small region obtained in step S150 of FIG.
Specifically, as shown in FIG. 6A, a polar coordinate display (r, θ) with the center point (64, 64) of the spatial frequency image Fi as the origin is considered, and the value of each pixel of the spatial frequency image Fi is considered. An integration function I (r), which is a function of integrating in the θ direction, is calculated. However, r = 0, 1, 2,..., N / 2. FIG. 6B shows an integration function I (r) calculated based on the spatial frequency image Fi shown in FIG. The value of the integration function I (r) corresponds to a value obtained by integrating components in all directions (each angle direction) having a frequency magnitude r, and indicates the magnitude of periodicity seen in the image.

≪ステップS162≫
続いて、ステップS162において、特徴量取得部143は、各小領域における被検眼の中心窩からの距離に応じたピークの位置r_normativeを取得する。さらに、特徴量取得部143は、ステップS161で算出した積算関数I(r)から、積算関数I(r)の形状におけるピークの位置を取得する。ここで、積算関数I(r)の形状におけるピークの位置は、視細胞の配列の周期性を反映するために、視細胞の密度と関係がある。具体的には、視細胞の密度がD[カウント/mm2]のとき、視細胞が理想的な六角形のhoneycomb状に配置されていると考えると、視細胞の密度Dは、その視細胞間の距離Lとは以下の(1)式に示す関係となる。
<< Step S162 >>
Subsequently, in step S162, the feature amount acquisition unit 143 acquires the peak position r_normal in accordance with the distance from the fovea of the eye to be examined in each small region. Further, the feature amount acquisition unit 143 acquires the peak position in the shape of the integration function I (r) from the integration function I (r) calculated in step S161. Here, the peak position in the shape of the integration function I (r) is related to the density of photoreceptor cells in order to reflect the periodicity of the arrangement of photoreceptor cells. Specifically, when the density of photoreceptor cells is D [count / mm 2 ], assuming that photoreceptor cells are arranged in an ideal hexagonal honeycomb, the photoreceptor cell density D is the photoreceptor cell density. The distance L between them is the relationship shown in the following equation (1).

さらに、視細胞間の距離がLである場合に、空間周波数画像Fi上に示される周波数の大きさrとは以下の(2)式に示す関係がある。   Furthermore, when the distance between photoreceptor cells is L, the magnitude r of the frequency shown on the spatial frequency image Fi has the relationship shown in the following equation (2).

ここで、(2)式に示す画像サイズ(image_size)とは、FFTを行う対象となった画像の大きさをμm単位で表したものである。この際、小領域Riのピクセル解像度が0.85μm/ピクセル、小領域Riの周囲をパディングして生成した画像Liのピクセルサイズが128×128である場合を考えると、画像サイズは、0.85×128で108.8μmとなる。   Here, the image size (image_size) shown in the equation (2) represents the size of an image to be subjected to FFT in units of μm. At this time, considering the case where the pixel resolution of the small region Ri is 0.85 μm / pixel and the pixel size of the image Li generated by padding around the small region Ri is 128 × 128, the image size is 0.85. × 128 is 108.8 μm.

視細胞の密度Dは、被検眼の網膜の中心窩からの距離に応じて変化することが知られており、例えば、非特許文献3に解剖学的に取得された視細胞の密度の値と中心窩からの距離との関係が示されている。そこで、特徴量取得部143は、ステップS130で取得されたおおよその中心窩の位置に基づき各小領域の中心窩からの距離を求め、対応する視細胞の密度を非特許文献3に記載の技術を用いて推定する。そして、特徴量取得部143は、(1)式及び(2)式を用いて、各小領域における被検眼の中心窩からの距離に応じたピークの位置r_normativeを取得する。例えば、鼻側で中心窩からの距離が約200μmの位置では、視細胞の密度Dが74000[カウント/mm2]であり、その場合の視細胞間の距離Lは、(1)式を用いると約3.4μmとなる。そのときに、空間周波数画像Fi上での周波数の大きさrは、(2)式より約31.8となる。 It is known that the density D of photoreceptor cells changes depending on the distance from the fovea of the retina of the eye to be examined. For example, the density value of photoreceptor cells obtained anatomically in Non-Patent Document 3 and The relationship with the distance from the fovea is shown. Therefore, the feature amount acquisition unit 143 obtains the distance from the fovea of each small region based on the approximate position of the fovea acquired in step S130, and calculates the density of the corresponding photoreceptor cell as described in Non-Patent Document 3. Estimate using. Then, the feature amount acquisition unit 143 acquires the peak position r_normal in accordance with the distance from the fovea of the eye to be examined in each small region, using Expressions (1) and (2). For example, at a position where the distance from the fovea on the nasal side is about 200 μm, the density D of photoreceptor cells is 74000 [count / mm 2 ], and the distance L between photoreceptor cells in this case uses equation (1). And about 3.4 μm. At that time, the magnitude r of the frequency on the spatial frequency image Fi is about 31.8 from the equation (2).

次いで、各小領域におけるピークの位置の取得方法について説明する。
図7は、本発明の第1の実施形態を示し、積算関数の形状の一例を示す図である。この図7において、横軸は図6(b)と同様に周波数の大きさrであり、縦軸は図6(b)と同様に積算関数I(r)である。
Next, a method for obtaining the peak position in each small region will be described.
FIG. 7 is a diagram illustrating an example of the shape of the integration function according to the first embodiment of this invention. In FIG. 7, the horizontal axis represents the frequency magnitude r as in FIG. 6B, and the vertical axis represents the integration function I (r) as in FIG. 6B.

具体的に、図7のタイプ1は高周波領域に1つのピークを持つタイプであり、図7のタイプ2は2つのピークを持つタイプであり、図7のタイプ3は低周波領域に1つのピークを持つタイプである。視細胞が1つ1つきれいに解像されている場合には、視細胞の密度Dを反映したr_normativeに相当する位置にピークが現れるが、解像が弱くなり近傍に存在する視細胞間の分離が困難な状態となると、複数の視細胞が融合した状態に相当する、低周波領域にピークが現れることになる。よって、ここで、高周波領域とは、r_normative近傍及びそれより高周波側の領域とし、低周波領域とは、r_normativeの0.75程度より低周波側の領域とする。   Specifically, type 1 in FIG. 7 is a type having one peak in the high frequency region, type 2 in FIG. 7 is a type having two peaks, and type 3 in FIG. 7 is one type in the low frequency region. Is a type with When the photoreceptor cells are clearly resolved one by one, a peak appears at a position corresponding to r_normal which reflects the density D of the photoreceptor cells, but the resolution becomes weak and separation between photoreceptor cells present in the vicinity When the state becomes difficult, a peak appears in a low frequency region corresponding to a state where a plurality of photoreceptor cells are fused. Therefore, here, the high frequency region is a region in the vicinity of r_normalative and a region on the high frequency side thereof, and the low frequency region is a region on the low frequency side of about 0.75 of r_normal.

上記のような関係を考慮し、ステップS162では、特徴量取得部143は、各小領域の積算関数からピークの位置riを取得する。このとき、図7のタイプ2にように2つのピークが存在する場合には2つのピークの位置を取得し、高周波側のピークの位置をri_high、低周波側のピークの位置をri_lowとする。また、図7のタイプ1やタイプ3のように、1つのピークのみが存在する場合には、取得されたピークの位置r_peakとr_normativeの値を比較し、r_normativeの0.75倍よりも高周波であればピークの位置をri_high、低周波であればピークの位置をri_lowとする。例えば、タイプ1では、ri_high=r_peak、ri_low=0であり、タイプ3ではri_high=0、ri_low=r_peakとなる。
このように各小領域で取得された積算関数のピークが1つの場合に、当該ピークが各小領域の中心窩からの距離に基づき求められたピーク位置であるr_normativeとの大小関係に基づき、ピークを2種類に分類する。またここでは、ピークの位置riの取得方法として、積算関数の極大値を取得する方法を用いた例について説明したが、本実施形態においてはこの方法に限定されるものではない。
Considering the relationship as described above, in step S162, the feature amount acquisition unit 143 acquires the peak position ri from the integration function of each small region. At this time, when there are two peaks as in type 2 in FIG. 7, the positions of the two peaks are acquired, the peak position on the high frequency side is ri_high, and the peak position on the low frequency side is ri_low. In addition, when only one peak exists as in type 1 and type 3 in FIG. 7, the obtained peak positions r_peak and r_normal are compared, and the frequency is higher than 0.75 times r_normal. If there is, the peak position is ri_high, and if the frequency is low, the peak position is ri_low. For example, in type 1, ri_high = r_peak and ri_low = 0, and in type 3, ri_high = 0 and ri_low = r_peak.
In this way, when there is one peak of the integration function acquired in each small region, the peak is based on the magnitude relationship with r_normalative which is the peak position obtained based on the distance from the fovea of each small region. Are classified into two types. Although an example using the method of acquiring the maximum value of the integration function has been described here as a method of acquiring the peak position ri, the present embodiment is not limited to this method.

≪ステップS163≫
続いて、ステップS163において、特徴量取得部143は、ステップS162で取得した各小領域の積算関数におけるピークの位置riに基づいて、ステップS130で取得された画像中に、複数種類のピークが混在するか否かを判断する。具体的には、ステップS130で取得された画像の各領域において、ri_highである場合とri_lowである場合の双方が存在する場合には、複数種類のピークが混在すると判断され(S163/Yes)、ステップS164に進む。ここで、ピークの位置riにおいてri_highとri_lowの双方が存在する場合とは、2つのピークを持つ小領域が存在する場合であってもよいし、ri_highのみをもつ小領域とri_lowのみをもつ小領域とが同一画像内に存在する場合であってもよい。また、ステップS130で取得された画像全体で見た場合に、ピークの位置riにおいてri_highとri_lowのうちのどちらか一方しか存在しない場合には、複数種類のピークが混在しないと判断され(S163/No)、ステップS167に進む。
<< Step S163 >>
Subsequently, in step S163, the feature amount acquisition unit 143 includes a plurality of types of peaks in the image acquired in step S130 based on the peak position ri in the integration function of each small region acquired in step S162. Judge whether to do. Specifically, in each region of the image acquired in step S130, when both ri_high and ri_low exist, it is determined that a plurality of types of peaks are mixed (S163 / Yes), The process proceeds to step S164. Here, the case where both ri_high and ri_low exist at the peak position ri may be a case where there is a small region having two peaks, or a small region having only ri_high and a small region having only ri_low. The area may exist in the same image. Further, when only one of ri_high and ri_low exists at the peak position ri when viewed in the entire image acquired in step S130, it is determined that a plurality of types of peaks are not mixed (S163 / No), the process proceeds to step S167.

≪ステップS164≫
ステップS164に進むと、特徴量取得部143は、ステップS162で取得した積算関数のピークの位置が2つある領域を対象に、その中間の値である第1閾値を算出する。
具体的には、ピークの位置が2つある領域のみを選択し、それらの高周波側のピーク位置の平均値r_high_aveと、低周波側のピーク位置の平均値r_low_aveとを求め、その中間の値を第1閾値(r_threshold)とする。
<< Step S164 >>
In step S164, the feature amount acquisition unit 143 calculates a first threshold value that is an intermediate value for an area having two peak positions of the integration function acquired in step S162.
Specifically, only an area having two peak positions is selected, and an average value r_high_ave of the peak position on the high frequency side and an average value r_low_ave of the peak position on the low frequency side are obtained, and an intermediate value is obtained. The first threshold (r_threshold) is assumed.

≪ステップS165≫
続いて、ステップS165において、特徴量取得部143は、ステップS164で算出した第1閾値を用いて、各小領域のピーク比を算出する。具体的には、特徴量取得部143は、小領域が2つのピークをもつ場合には、高周波のピーク位置の積算関数の値を低周波のピーク位置の積算関数の値で割ったものを、当該小領域のピーク比として算出する。また、特徴量取得部143は、小領域が1つのピークしか持たず、そのピークの位置が高周波領域であった場合には、検出したピーク位置の積算関数の値をステップS164で求めたr_low_aveの積算関数の値で割ったものを、当該小領域のピーク比として算出する。また、特徴量取得部143は、小領域が1つのピークしか持たず、そのピーク位置が低周波領域であった場合には、r_high_aveの積算関数の値を検出したピーク位置の積算関数の値で割ったものを、当該小領域のピーク比として算出する。
以上をまとめると、ピーク比(peak_ratio)は、以下の(3)式で示すものとなる。
<< Step S165 >>
Subsequently, in step S165, the feature amount acquisition unit 143 calculates the peak ratio of each small region using the first threshold value calculated in step S164. Specifically, when the small region has two peaks, the feature amount acquisition unit 143 divides the value of the integration function of the high frequency peak position by the value of the integration function of the low frequency peak position, Calculated as the peak ratio of the small region. In addition, when the small region has only one peak and the position of the peak is a high frequency region, the feature amount acquisition unit 143 determines the value of the integration function of the detected peak position in r_low_ave obtained in step S164. The value divided by the value of the integration function is calculated as the peak ratio of the small area. Further, when the small region has only one peak and the peak position is the low frequency region, the feature amount acquisition unit 143 uses the value of the integration function of the peak position detected as the integration function value of r_high_ave. The divided value is calculated as the peak ratio of the small region.
In summary, the peak ratio (peak_ratio) is expressed by the following equation (3).

≪ステップS166≫
続いて、ステップS166において、特徴量取得部143は、ステップS165で算出した各小領域のピーク比に基づき、ピーク比画像を生成する。具体的には、特徴量取得部143は、各小領域から求められたピーク比を、各小領域の画像の中心ピクセルの位置に配置し、画像全体のピクセル値を値が設定されている点から決定する。ここでは、与えられた7×7=49点のピーク比の値から、400×400のピクセル値を推定することになるが、このような方法は複数知られている。例えば、単純に各点の間を線形補間する方法や、単純な線形補間では粗すぎる場合には多項式補間やスプライン補完等の高次の補間法を用いることが考えられる。
<< Step S166 >>
Subsequently, in step S166, the feature amount acquisition unit 143 generates a peak ratio image based on the peak ratio of each small region calculated in step S165. Specifically, the feature amount acquisition unit 143 arranges the peak ratio obtained from each small region at the position of the center pixel of the image of each small region, and the value of the pixel value of the entire image is set. Determine from. Here, a pixel value of 400 × 400 is estimated from a given peak ratio value of 7 × 7 = 49 points. A plurality of such methods are known. For example, a method of simply performing linear interpolation between points, or a higher-order interpolation method such as polynomial interpolation or spline interpolation when simple linear interpolation is too coarse can be considered.

ここでは、近傍領域のピーク比の影響を大きくしたいが、最近傍以外のピーク比の影響も加味するための方法として、ガウシアンによる補間を行う例について説明する。
分散σをもつ2次元のガウシアンを、カーネルサイズが分散σの4倍程度の領域で定義する。ここでは、ガウシアンカーネルは規格化されているものとし、カーネルが定義されている領域での全積算値は1.0となる。そして定義したガウシアンを、各小領域の中心ピクセル上にガウシアンの中心がくるように設定する。画像全体では、49個のガウシアンが設定されるが、画像内の各ピクセルにおいて、影響のあるガウシアン(中心位置がカーネルサイズの半分よりも近い距離にあるガウシアン)全てに対し、それぞれのピーク比の値と重みを取得する。ここで重みとは、規格化されたガウシアンカーネルの値とする。その後、平滑化フィルタを適用して全体を滑らかにする。こうしてピクセルごとに、周辺のピーク比の重み付き平均値を算出したものを、ピーク比画像とする。図8(a)に、ピーク比画像の一例を示す。
Here, an example of performing interpolation by Gaussian will be described as a method for increasing the influence of the peak ratio in the neighboring region, but also taking into account the influence of the peak ratios other than the nearest neighbor.
A two-dimensional Gaussian having a variance σ is defined in an area where the kernel size is about four times the variance σ. Here, the Gaussian kernel is assumed to be standardized, and the total integrated value in the area where the kernel is defined is 1.0. Then, the defined Gaussian is set so that the center of the Gaussian comes on the center pixel of each small area. For the entire image, 49 Gaussians are set, but for each pixel in the image, for each affected Gaussian (a Gaussian whose center is closer than half the kernel size), the respective peak ratio Get value and weight. Here, the weight is a standardized Gaussian kernel value. Then, a smoothing filter is applied to smooth the whole. Thus, for each pixel, the weighted average value of the peripheral peak ratio is calculated as a peak ratio image. FIG. 8A shows an example of the peak ratio image.

≪ステップS167≫
次いで、ステップS163において画像内に複数種類のピークが混在しないと判断された場合(S163/No)の処理について説明する。即ち、画像内の小領域のピークが1種類である場合には、ステップS167に進む。
ステップS167に進むと、特徴量取得部143は、全ての小領域のピークがri_highもしくはri_lowのどちら一方しか持たない場合に、ステップS130で取得したAO−SLO画像が解像であるか未解像であるかを判定する。具体的には、特徴量取得部143は、全ての小領域のピークの位置がri_highである場合には、ステップS130で取得したAO−SLO画像は全ての領域で解像されていると判定する。また、全ての小領域のピークの位置がri_lowである場合には、ステップS130で取得したAO−SLO画像は全ての領域で未解像であると判定する。ここで、ステップS167の判定処理は、これまでの処理を考慮すると、画像内の各小領域で求められた積算関数のピークの種類が1つである場合に(S163/No)、当該ピークの種類に基づいて、ステップS130で取得したAO−SLO画像が解像であるか未解像であるかを判定する処理に相当する。
<< Step S167 >>
Next, a process when it is determined in step S163 that plural types of peaks are not mixed in the image (S163 / No) will be described. That is, when there is one kind of small area peak in the image, the process proceeds to step S167.
In step S167, the feature amount acquisition unit 143 determines whether the AO-SLO image acquired in step S130 is a resolution when all the small region peaks have only one of ri_high and ri_low. It is determined whether it is. Specifically, the feature amount acquisition unit 143 determines that the AO-SLO image acquired in step S130 has been resolved in all regions when the peak positions of all the small regions are ri_high. . When the peak positions of all small areas are ri_low, it is determined that the AO-SLO image acquired in step S130 is unresolved in all areas. Here, in consideration of the processing so far, the determination processing in step S167 is performed when the peak of the integration function obtained in each small region in the image is one (S163 / No). This corresponds to the process of determining whether the AO-SLO image acquired in step S130 is resolved or unresolved based on the type.

≪ステップS168≫
ステップS166の処理が終了した場合、或いは、ステップS167の処理が終了した場合には、ステップS168に進む。
ステップS168に進むと、特徴量取得部143は、これまで得られた情報等を、ステップS140で分割された各小領域の特徴量として、制御部130を介して、記憶部150に記憶する。具体的に、ステップS161〜S166を経てステップS168に進んだ場合には、特徴量取得部143は、ステップS161〜S166を通じて得られた情報等(各小領域の積算関数、積算関数より取得されたピークの数やピークの位置やピーク比、第1閾値及びピーク比画像等)を、各小領域の特徴量として、制御部130を介して、記憶部150に記憶する。また、ステップS161〜S163、S167を経てステップS168に進んだ場合には、特徴量取得部143は、ステップS161〜S163、S167を通じて得られた情報等(各小領域の積算関数、積算関数より取得されたピークの数やピークの位置、解像/未解像の判定結果等)を、各小領域の特徴量として、制御部130を介して、記憶部150に記憶する。
<< Step S168 >>
When the process of step S166 is completed, or when the process of step S167 is completed, the process proceeds to step S168.
In step S168, the feature amount acquisition unit 143 stores the information obtained so far in the storage unit 150 through the control unit 130 as the feature amount of each small region divided in step S140. Specifically, when the process proceeds to step S168 through steps S161 to S166, the feature amount acquisition unit 143 obtains information obtained through steps S161 to S166 (acquired from the integration function and integration function of each small region). The number of peaks, peak position, peak ratio, first threshold value, peak ratio image, etc.) are stored in the storage unit 150 via the control unit 130 as feature quantities of each small region. When the process proceeds to step S168 through steps S161 to S163 and S167, the feature amount acquisition unit 143 obtains information obtained through steps S161 to S163 and S167 (acquired from the integration function and integration function of each small region). The number of peaks, peak positions, resolved / unresolved determination results, etc.) are stored in the storage unit 150 via the control unit 130 as feature quantities of each small region.

そして、ステップS168の処理が終了すると、図4のステップS160の処理が終了する。   Then, when the process of step S168 ends, the process of step S160 of FIG. 4 ends.

ここで、再び、図4の説明に戻る。
図4のステップS160の処理が終了すると、ステップS170に進む。
Here, it returns to description of FIG. 4 again.
When the process of step S160 in FIG. 4 ends, the process proceeds to step S170.

<ステップS170>
ステップS170に進むと、領域抽出部144は、ステップS160で取得された各小領域の特徴量に基づいて、ステップS130で取得したAO−SLO画像において視細胞が未解像の領域である未解像領域を抽出する処理を行う。例えば、領域抽出部144は、AO−SLO画像内に設定された各小領域の特徴量であるピーク位置の分布に基づき未解像領域を抽出する処理を行う。
<Step S170>
In step S170, the region extraction unit 144 performs unresolved regions in which the photoreceptor cells are unresolved regions in the AO-SLO image acquired in step S130, based on the feature amounts of the small regions acquired in step S160. Processing for extracting an image region is performed. For example, the region extraction unit 144 performs a process of extracting an unresolved region based on a distribution of peak positions that are feature amounts of each small region set in the AO-SLO image.

具体的に、本実施形態においては、領域抽出部144は、ステップS160でピーク比画像が生成された場合(S166の処理が行われた場合)に、ステップS130で取得したAO−SLO画像内の未解像領域を抽出する。この場合、領域抽出部144は、ピーク比画像に関して第2閾値を設定し、ピーク比画像のピクセル値が第2閾値未満の領域を未解像領域とし、ピーク比画像のピクセル値が第2閾値以上の領域を解像領域とする。   Specifically, in the present embodiment, when the peak ratio image is generated in step S160 (when the processing of S166 is performed), the region extraction unit 144 includes the AO-SLO image acquired in step S130. An unresolved area is extracted. In this case, the region extraction unit 144 sets a second threshold for the peak ratio image, sets a region where the pixel value of the peak ratio image is less than the second threshold as an unresolved region, and sets the pixel value of the peak ratio image to the second threshold. The above area is defined as a resolution area.

図8(b)に、図8(a)に示すピーク比画像に関して第2閾値を0.9として設定し、未解像領域を抽出した場合の当該未解像領域の境界810を示す。ここで、図8(b)に示す未解像領域の境界810の内部が未解像領域に相当する。第2閾値を0.9とした理由はI(ri_high)とI(ri_low)とが同等(第2閾値が1.0)の大きさとなる場合には、目視により解像が不十分であると感じられることによる。なお、第2閾値は、ここで例示した0.9に限定されるものではなく目視以外の評価指標が存在する場合には、その評価指標に基づく最適値を選択するとよい。さらに、ステップS170では、領域抽出部144は、図8(b)に示す未解像領域の境界810に基づき、当該境界810の長さや境界810に囲まれる未解像領域の面積も取得する。   FIG. 8B shows a boundary 810 of the unresolved area when the second threshold is set as 0.9 for the peak ratio image shown in FIG. 8A and an unresolved area is extracted. Here, the inside of the boundary 810 of the unresolved area shown in FIG. 8B corresponds to the unresolved area. The reason why the second threshold is set to 0.9 is that when I (ri_high) and I (ri_low) have the same magnitude (the second threshold is 1.0), the resolution is insufficient by visual observation. It depends on what is felt. The second threshold value is not limited to 0.9 exemplified here, and when an evaluation index other than visual observation exists, an optimal value based on the evaluation index may be selected. Further, in step S170, the region extraction unit 144 acquires the length of the boundary 810 and the area of the unresolved region surrounded by the boundary 810 based on the boundary 810 of the unresolved region shown in FIG.

なお、ステップS160(具体的にはS167)において、ステップS130で取得したAO−SLO画像の全領域で解像であると判定された場合には、当該AO−SLO画像内に未解像領域は存在しないため、未解像領域の境界810の長さ及び面積は0となる。
また、ステップS160(具体的にはS167)において、ステップS130で取得したAO−SLO画像の全領域で未解像であると判定された場合には、未解像領域の境界810を特定することができないため、その長さ及び面積は不定となる。
In step S160 (specifically, S167), when it is determined that the entire area of the AO-SLO image acquired in step S130 is resolved, unresolved areas are included in the AO-SLO image. Since it does not exist, the length and area of the boundary 810 of the unresolved area are zero.
In step S160 (specifically, S167), when it is determined that the entire area of the AO-SLO image acquired in step S130 is unresolved, the boundary 810 of the unresolved area is specified. Therefore, its length and area are indefinite.

そして、領域抽出部144は、ステップS170の処理で得られた情報等(抽出した未解像領域、並びに、その境界の長さ及びその面積等)を、制御部130を介して、記憶部150に記憶する。   Then, the region extraction unit 144 stores the information obtained by the processing in step S170 (the extracted unresolved region, the boundary length and the area thereof, and the like) via the control unit 130. To remember.

<ステップS180>
続いて、ステップS180において、出力部160は、ステップS130で取得したAO−SLO画像、並びに、ステップS170で取得した未解像領域及びその境界長さ及びその面積の情報等を、制御部130を介して、記憶部150から取得する。そして、出力部160は、取得した情報等を表示装置400に出力し、当該表示装置400においてAO−SLO画像上に未解像領域を重畳して表示する等して検者に示す処理を行う。同時に、出力部160は、取得した情報等をデータベース500に出力し、データベース500に保存する。
<Step S180>
Subsequently, in step S180, the output unit 160 sends the control unit 130 the information about the AO-SLO image acquired in step S130, the unresolved area acquired in step S170, the boundary length, and the area thereof. Via the storage unit 150. Then, the output unit 160 outputs the acquired information and the like to the display device 400, and performs a process shown to the examiner by displaying an unresolved region superimposed on the AO-SLO image on the display device 400. . At the same time, the output unit 160 outputs the acquired information and the like to the database 500 and stores it in the database 500.

ステップS180の処理が終了すると、図4に示すフローチャートの処理が終了する。   When the process of step S180 ends, the process of the flowchart shown in FIG. 4 ends.

以上説明したように、第1の実施形態に係る画像処理装置100では、取得したAO−SLO画像を小領域に分割し、各小領域の空間周波数画像から取得される特徴量、より具体的には視細胞の配列周期に相当する積算画像の形状の特徴量を求めるようにしている。そして、第1の実施形態に係る画像処理装置100では、各小領域の特徴量に基づいて、取得したAO−SLO画像において視細胞が未解像の領域である未解像領域を抽出するようにしている。
かかる構成によれば、AO−SLO画像から視細胞が未解像の領域である未解像領域を抽出するようにしたので、当該未解像領域を視細胞検出対象領域から除外することによって、被検眼の視細胞の検出を正確に行うことが可能となる。具体的に、例えば、視細胞解析の結果得られる密度等の指標が、不確かな値となることを防ぐことができる。
As described above, in the image processing apparatus 100 according to the first embodiment, the acquired AO-SLO image is divided into small regions, and feature amounts acquired from the spatial frequency images of each small region, more specifically, In this case, the feature amount of the shape of the integrated image corresponding to the arrangement period of the photoreceptor cells is obtained. The image processing apparatus 100 according to the first embodiment extracts an unresolved region in which the photoreceptor cell is an unresolved region in the acquired AO-SLO image based on the feature amount of each small region. I have to.
According to such a configuration, since the unresolved region in which the photoreceptor cell is an unresolved region is extracted from the AO-SLO image, by excluding the unresolved region from the photoreceptor cell detection target region, It becomes possible to accurately detect the photoreceptor cells of the eye to be examined. Specifically, for example, it is possible to prevent an index such as a density obtained as a result of photoreceptor cell analysis from being an uncertain value.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

第1の実施形態では、小領域の空間周波数画像から取得される特徴量に基づいて、中心窩付近の未解像領域を抽出する形態であった。この際に、撮影時に取得される固視灯の点灯位置情報から、おおよその中心窩の位置を設定し、各画像や各小領域の中心窩からの距離は、このおおよその中心窩の位置に基づき設定するものであった。   In the first embodiment, the unresolved region near the fovea is extracted based on the feature amount acquired from the spatial frequency image of the small region. At this time, the approximate fovea position is set from the lighting position information of the fixation lamp acquired at the time of shooting, and the distance from the fovea of each image and each small area is the approximate fovea position. Was set based on.

第2の実施形態は、領域抽出部144で抽出した未解像領域の中から被検眼の中心窩の位置を取得する形態である。具体的に、第2の実施形態では、領域抽出部144で抽出した未解像領域の重心の位置を、被検眼の中心窩の位置として取得する。ここで、中心窩の位置の取得方法としては、毛細血管の走行を参考にする場合等、複数の方法が知られているが、最も一般的な方法としては、視細胞を検出してその密度が最も高い位置を求める方法が挙げられる。しかしながら、この場合、中心窩の位置精度は視細胞検出の精度に依存することになり、正確な位置検出が困難な場合が多かった。   In the second embodiment, the position of the central fovea of the eye to be examined is acquired from the unresolved area extracted by the area extraction unit 144. Specifically, in the second embodiment, the position of the center of gravity of the unresolved area extracted by the area extraction unit 144 is acquired as the position of the fovea of the eye to be examined. Here, as a method for obtaining the position of the fovea, a plurality of methods are known, such as when referring to the travel of capillaries, but the most common method is to detect the density of photoreceptor cells and the density thereof. A method for obtaining the position having the highest value. However, in this case, the position accuracy of the fovea depends on the accuracy of photoreceptor detection, and accurate position detection is often difficult.

第2の実施形態に係る眼科装置の概略構成は、図1に示す第1の実施形態に係る眼科装置10の概略構成と同様であるため、その説明は省略する。   The schematic configuration of the ophthalmic apparatus according to the second embodiment is the same as the schematic configuration of the ophthalmic apparatus 10 according to the first embodiment shown in FIG.

[画像処理装置100の処理手順]
図9は、本発明の第2の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図9において、図4に示す処理ステップと同様の処理ステップについては同じ符号を付しており、その詳細な説明は省略する。
[Processing Procedure of Image Processing Apparatus 100]
FIG. 9 is a flowchart illustrating an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the second embodiment of the present invention. Here, in FIG. 9, processing steps similar to those shown in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.

まず、第2の実施形態に係る画像処理装置100による画像処理方法では、図4のステップS110〜S170の処理を経る。   First, in the image processing method by the image processing apparatus 100 according to the second embodiment, the processes of steps S110 to S170 in FIG. 4 are performed.

<ステップS910>
続いて、ステップS910において、視細胞解析部145は、ステップS170で抽出された未解像領域の重心の位置を求めて、この未解像領域の重心の位置を被検眼の中心窩の位置として取得する。これにより、第1の実施形態と比べてより精度の高い中心窩の位置を取得することができる。この中心窩の位置を取得する視細胞解析部145は、中心窩取得手段を構成する。
<Step S910>
Subsequently, in step S910, the photoreceptor analyzing unit 145 obtains the position of the center of gravity of the unresolved area extracted in step S170, and uses the position of the center of gravity of the unresolved area as the position of the fovea of the eye to be examined. get. Thereby, the position of the fovea with higher accuracy than that of the first embodiment can be acquired. The photoreceptor analysis unit 145 that acquires the position of the fovea constitutes a fovea acquisition unit.

但し、ステップS160(具体的にはS167)において、ステップS130で取得したAO−SLO画像の全領域で未解像であると判定された場合には、中心窩の位置を取得することはできないため、不定とする。また、ステップS160(具体的にはS167)において、AO−SLO画像の全領域で解像であると判定された場合には、本例の手法では中心窩の位置を取得することはできない。このため、この場合、本実施形態では、一般的な手法である視細胞の検出結果に基づき、その視細胞の密度が最も高い位置を中心窩の位置とする方法を用いる。   However, if it is determined in step S160 (specifically, S167) that the entire area of the AO-SLO image acquired in step S130 is unresolved, the position of the fovea cannot be acquired. Indefinite. Further, when it is determined in step S160 (specifically, S167) that the entire area of the AO-SLO image is resolved, the position of the fovea cannot be acquired by the method of this example. Therefore, in this case, the present embodiment uses a method in which the position where the density of photoreceptor cells is the highest is based on the detection result of photoreceptor cells, which is a general technique.

そして、視細胞解析部145は、このようにして取得した中心窩の位置情報、制御部130を介して、記憶部150に記憶する。   The photoreceptor analysis unit 145 stores the foveal position information acquired in this manner in the storage unit 150 via the control unit 130.

<ステップS920>
続いて、ステップS920において、出力部160は、ステップS130で取得したAO−SLO画像、ステップS170で取得した未解像領域等の情報、ステップS910で取得した中心窩の位置情報等を、制御部130を介して、記憶部150から取得する。そして、出力部160は、取得した情報等を表示装置400に出力し、当該表示装置400においてAO−SLO画像上に未解像領域及び中心窩の位置を重畳して表示する等して検者に示す処理を行う。同時に、出力部160は、取得した情報等をデータベース500に出力し、データベース500に保存する。
<Step S920>
Subsequently, in step S920, the output unit 160 displays the information such as the AO-SLO image acquired in step S130, the unresolved area acquired in step S170, the foveal position information acquired in step S910, and the like. Via the storage unit 150. Then, the output unit 160 outputs the acquired information and the like to the display device 400, and the display device 400 displays the unresolved region and the foveal position superimposed on the AO-SLO image. The process shown in is performed. At the same time, the output unit 160 outputs the acquired information and the like to the database 500 and stores it in the database 500.

ステップS920の処理が終了すると、図9に示すフローチャートの処理が終了する。   When the process of step S920 ends, the process of the flowchart shown in FIG. 9 ends.

第2の実施形態によれば、上述した第1の実施形態における効果に加えて以下の効果を奏する。
即ち、中心窩付近で視細胞の密度が高く、視細胞が完全に解像されない領域が残る場合であっても、視細胞が未解像の領域である未解像領域の重心の位置を中心窩の位置として取得することで、より精度の高い中心窩の位置を取得することが可能となる。
According to the second embodiment, the following effects can be obtained in addition to the effects of the first embodiment described above.
That is, even if the density of photoreceptor cells is high near the fovea and areas where the photoreceptor cells are not completely resolved remain, the center of gravity of the unresolved area where the photoreceptor cells are unresolved areas is centered. By obtaining the position of the fovea, it is possible to obtain a more accurate position of the fovea.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

第1の実施形態では、小領域の空間周波数画像から取得される特徴量に基づいて、中心窩付近の未解像領域を抽出する形態であった。さらに、第2の実施形態では、抽出した未解像領域から、より精度の高い中心窩の位置を取得する形態であった。   In the first embodiment, the unresolved region near the fovea is extracted based on the feature amount acquired from the spatial frequency image of the small region. Furthermore, in the second embodiment, a more accurate fovea position is obtained from the extracted unresolved area.

第3の実施形態は、被検眼の中心窩付近でより正確な視細胞解析を行うために、取得したAO−SLO画像において領域抽出部144で抽出した未解像領域をマスクして解析対象領域を設定し、当該解析対象領域について視細胞の検出等の解析を行う形態である。さらに、第3の実施形態では、第2の実施形態で取得した、より精度の高い中心窩の位置を用いることにより、距離による密度変化の大きい中心窩付近の解析精度を、より向上させることが可能となる。   The third embodiment masks the unresolved area extracted by the area extracting unit 144 in the acquired AO-SLO image in order to perform a more accurate photoreceptor analysis near the fovea of the eye to be examined. Is set, and analysis such as detection of photoreceptor cells is performed for the analysis target region. Furthermore, in the third embodiment, by using the position of the fovea with higher accuracy acquired in the second embodiment, it is possible to further improve the analysis accuracy near the fovea where the density change due to the distance is large. It becomes possible.

第3の実施形態に係る眼科装置の概略構成は、図1に示す第1の実施形態(第2の実施形態も同様)に係る眼科装置10の概略構成と同様であるため、その説明は省略する。   The schematic configuration of the ophthalmologic apparatus according to the third embodiment is the same as the schematic configuration of the ophthalmologic apparatus 10 according to the first embodiment (same as the second embodiment) shown in FIG. To do.

[画像処理装置100の処理手順]
図10は、本発明の第3の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図10において、図9に示す処理ステップと同様の処理ステップについては同じ符号を付しており、その詳細な説明は省略する。
[Processing Procedure of Image Processing Apparatus 100]
FIG. 10 is a flowchart illustrating an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the third embodiment of the present invention. Here, in FIG. 10, the same processing steps as the processing steps shown in FIG. 9 are denoted by the same reference numerals, and detailed description thereof will be omitted.

まず、第3の実施形態に係る画像処理装置100による画像処理方法では、図9のステップS110〜S170及びS910の処理を経る。   First, in the image processing method by the image processing apparatus 100 according to the third embodiment, the processes of steps S110 to S170 and S910 of FIG. 9 are performed.

<ステップS1010>
続いて、ステップS1010において、視細胞解析部145は、ステップS130で取得されたAO−SLO画像において、ステップS170で抽出された未解像領域をマスクして解析対象領域を設定し、当該解析対象領域について視細胞の検出を行う。この視細胞の検出を行う視細胞解析部145は、視細胞検出手段を構成する。
<Step S1010>
Subsequently, in step S1010, the photoreceptor analysis unit 145 sets an analysis target region by masking the unresolved region extracted in step S170 in the AO-SLO image acquired in step S130, and the analysis target Visual cells are detected for the region. The photoreceptor analysis unit 145 that detects photoreceptor cells constitutes photoreceptor cell detection means.

ここで、視細胞を検出する方法としては複数の方法が知られているが、例えば、非特許文献1では、AO−SLO画像の輝度の勾配に着眼し、その極大値を検出する方法が示されている。しかしながら、視細胞が極大値として画像中で検出されるためには、各視細胞が個別に解像されている必要がある。よって、未解像の領域から得られた検出結果は、正確な検出とはならない可能性が高い。そこで、本実施形態では、この点に鑑みて、このような正確ではない検出結果を生じる未解像領域を解析対象領域から除外するために、ステップS170で抽出された未解像領域をマスクする。具体的に、例えば、画像全体から取得された視細胞の検出結果に対し、解析対象領域に含まれる検出点のみを検出結果とする。   Here, a plurality of methods are known as methods for detecting photoreceptor cells. For example, Non-Patent Document 1 shows a method of focusing on the luminance gradient of an AO-SLO image and detecting its maximum value. Has been. However, in order for a photoreceptor cell to be detected in an image as a maximum value, each photoreceptor cell needs to be resolved individually. Therefore, there is a high possibility that the detection result obtained from the unresolved area is not accurately detected. Therefore, in the present embodiment, in view of this point, the unresolved area extracted in step S170 is masked in order to exclude the unresolved area that generates such an inaccurate detection result from the analysis target area. . Specifically, for example, only the detection points included in the analysis target region are set as detection results for the detection results of photoreceptor cells acquired from the entire image.

さらに、上記検出点に基づきボロノイ解析を行う場合にも、解析対象領域に含まれるボロノイ領域のみを対象とする。具体的に、例えば、始めにマスク領域を考慮しない画像全体からの検出点を用いてボロノイ解析を行う。その結果、全検出点に対するボロノイ領域が取得されるが、その中で、ボロノイ領域の母点及びボロノイ点がマスク領域を除外した解析対象領域に含まれるボロノイ領域のみを選択して、解析対象領域に含まれるボロノイ領域とする。   Furthermore, when performing Voronoi analysis based on the detection points, only Voronoi regions included in the analysis target region are targeted. Specifically, for example, Voronoi analysis is first performed using detection points from the entire image without considering the mask region. As a result, Voronoi regions for all detection points are acquired. Among them, the Voronoi region's mother point and Voronoi points are selected only from the Voronoi region included in the analysis target region excluding the mask region. The Voronoi region included in.

そして、視細胞解析部145は、このようにして検出した視細胞の検出結果(例えば、視細胞の検出点及びボロノイ領域等の視細胞解析結果)の情報を、制御部130を介して、記憶部150に記憶する。   The photoreceptor analysis unit 145 stores information on the photoreceptor cell detection results thus detected (for example, photoreceptor cell analysis results such as photoreceptor cell detection points and Voronoi regions) via the controller 130. Store in the unit 150.

<ステップS1020>
続いて、ステップS1020において、出力部160は、ステップS130で取得したAO−SLO画像、ステップS170で取得した未解像領域等の情報、ステップS910で取得した中心窩の位置情報、及び、ステップS1010で取得した視細胞の検出結果情報等を、制御部130を介して、記憶部150から取得する。そして、出力部160は、取得した情報等を表示装置400に出力し、当該表示装置400においてAO−SLO画像上に、未解像領域、中心窩の位置及び視細胞の検出結果を重畳して表示する等して検者に示す処理を行う。同時に、出力部160は、取得した情報等をデータベース500に出力し、データベース500に保存する。
<Step S1020>
Subsequently, in step S1020, the output unit 160 displays the AO-SLO image acquired in step S130, the information such as the unresolved area acquired in step S170, the foveal position information acquired in step S910, and the step S1010. The detection result information and the like of the photoreceptor cells acquired in (1) is acquired from the storage unit 150 via the control unit 130. Then, the output unit 160 outputs the acquired information and the like to the display device 400, and the display device 400 superimposes the unresolved region, the position of the fovea, and the detection result of the photoreceptor cell on the AO-SLO image. The processing shown to the examiner is performed by displaying it. At the same time, the output unit 160 outputs the acquired information and the like to the database 500 and stores it in the database 500.

ステップS1020の処理が終了すると、図10に示すフローチャートの処理が終了する。   When the process of step S1020 ends, the process of the flowchart shown in FIG. 10 ends.

第3の実施形態によれば、上述した第1の実施形態における効果に加えて以下の効果を奏する。
即ち、中心窩付近で視細胞の密度が高く、視細胞が完全に解像されない領域が残る場合であっても、未解像領域をマスクして視細胞検出を行うことで、被検眼の視細胞の検出をより正確に行うことが可能となる。
According to the third embodiment, in addition to the effects in the first embodiment described above, the following effects are provided.
In other words, even when the density of photoreceptor cells is high near the fovea and areas where the photoreceptor cells are not completely resolved remain, the photoreceptor cells are detected by masking the unresolved area, thereby enabling visual inspection of the eye to be examined. Cells can be detected more accurately.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

第1の実施形態では、小領域の空間周波数画像から取得される特徴量に基づいて、中心窩付近の未解像領域を抽出する形態であった。また、第2の実施形態では、抽出した未解像領域から中心窩の位置を取得する形態であった。さらに、第3の実施形態では、抽出した未解像領域をマスクして視細胞の検出を行う形態であった。   In the first embodiment, the unresolved region near the fovea is extracted based on the feature amount acquired from the spatial frequency image of the small region. In the second embodiment, the position of the fovea is acquired from the extracted unresolved area. Further, in the third embodiment, the photoreceptor cell is detected by masking the extracted unresolved region.

しかしながら、撮影段階で画質の高い画像が取得できない場合には、精度の高い視細胞の解析結果を取得することが困難となる。この画質の劣化には様々な要因が知られているが、その1つとして撮影時のフォーカスずれが挙げられる。AO−SLO画像は、撮影時に収差補正を行うが、その際に反射光の大きさが最も高くなる面にフォーカスが合うように調整される。原理的には視細胞層にフォーカスが合うと考えられるが、実際には被検眼の動きや網膜上層等からの影響により、正しく視細胞層にフォーカスが合わない場合がある。   However, when an image with high image quality cannot be acquired at the photographing stage, it is difficult to acquire a highly accurate analysis result of photoreceptor cells. Various factors are known for the deterioration of the image quality, and one of them is a focus shift at the time of photographing. The AO-SLO image is subjected to aberration correction at the time of shooting, and is adjusted so that the surface where the magnitude of reflected light is highest is in focus. In principle, it is considered that the visual cell layer is in focus, but in reality, the visual cell layer may not be correctly focused due to the movement of the eye to be examined or the influence from the upper layer of the retina.

そこで、第4の実施形態では、収差補正により設定されたフォーカス位置から、上下にフォーカス位置をずらして撮影した画像を取得し、それぞれの画像の未解像領域を取得し、その大きさが最も小さくなるフォーカス位置を選択する方法について説明する。   Therefore, in the fourth embodiment, images obtained by shifting the focus position up and down from the focus position set by the aberration correction are acquired, the unresolved area of each image is acquired, and the size is the largest. A method for selecting a smaller focus position will be described.

第4の実施形態に係る眼科装置の概略構成は、図1に示す第1の実施形態(第2及び第3の実施形態も同様)に係る眼科装置10の概略構成と同様であるため、その説明は省略する。   The schematic configuration of the ophthalmologic apparatus according to the fourth embodiment is the same as the schematic configuration of the ophthalmologic apparatus 10 according to the first embodiment (the same applies to the second and third embodiments) shown in FIG. Description is omitted.

[画像処理装置100の処理手順]
図11は、本発明の第4の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図11において、図4に示す処理ステップと同様の処理ステップについては同じ符号を付しており、その詳細な説明は省略する。具体的に、図11のステップS110は、図4に示す第1の実施形態におけるステップS110の処理と同様である。また、図11のステップS1110〜S1150は、それぞれ、図4に示す第1の実施形態におけるステップS120、S140〜S170と概略同じ処理であるが、フォーカス位置の異なる複数の画像に対して処理を行う点のみが異なっている。よって、以下の説明では、この差異の部分のみを説明する。
[Processing Procedure of Image Processing Apparatus 100]
FIG. 11 is a flowchart illustrating an example of a processing procedure of an image processing method performed by the image processing apparatus 100 according to the fourth embodiment of the present invention. Here, in FIG. 11, the same processing steps as the processing steps shown in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted. Specifically, step S110 of FIG. 11 is the same as the process of step S110 in the first embodiment shown in FIG. 11 are substantially the same as steps S120 and S140 to S170 in the first embodiment shown in FIG. 4, but the process is performed on a plurality of images having different focus positions. Only the point is different. Therefore, in the following description, only this difference part will be described.

まず、第4の実施形態に係る画像処理装置100による画像処理方法では、図4のステップS110の処理を経る。   First, in the image processing method by the image processing apparatus 100 according to the fourth embodiment, the process of step S110 in FIG. 4 is performed.

<ステップS1110>
続いて、ステップS1110において、画像取得部110は、AO−SLO装置200から、フォーカス位置の異なる複数の平面画像(AO−SLO画像等)を取得する。そして、画像取得部110は、取得した複数の平面画像を、制御部130を介して、記憶部150に記憶する。
<Step S1110>
Subsequently, in step S <b> 1110, the image acquisition unit 110 acquires a plurality of planar images (AO-SLO images or the like) having different focus positions from the AO-SLO apparatus 200. Then, the image acquisition unit 110 stores the acquired plurality of planar images in the storage unit 150 via the control unit 130.

ここで、フォーカス位置の異なる複数の平面画像とは、収差補正により取得された視細胞層への最適フォーカス位置の周辺で、フォーカス位置を上下に移動させて撮影した平面画像群のことである。より具体的には、最適フォーカス位置から脈絡膜側及び硝子体側に±150μm程度の範囲でフォーカス位置を移動させることが想定される。また、それぞれのフォーカス位置で複数回撮影を行って重ね合わせ画像を取得してもよいし、撮影時のリアルタイム性を重視して、フォーカス位置を移動させながら撮影した画像であってもよい。例えば、フレームレートが32のS画角の画像を、0.5秒間(画像数n=16枚)で、最適フォーカス位置から160μm硝子体側から20μmずつ、脈絡側に移動させながら撮影する場合等が考えられる。   Here, the plurality of planar images having different focus positions are a group of planar images photographed by moving the focus position up and down around the optimum focus position for the photoreceptor layer acquired by the aberration correction. More specifically, it is assumed that the focus position is moved within a range of about ± 150 μm from the optimum focus position to the choroid and vitreous. In addition, a superimposed image may be acquired by shooting a plurality of times at each focus position, or an image shot while moving the focus position with emphasis on real-time characteristics at the time of shooting. For example, when an image having an S angle of view with a frame rate of 32 is taken for 0.5 seconds (number of images n = 16) while moving from the optimal focus position by 160 μm from the vitreous side by 20 μm to the choroid side, etc. Conceivable.

<ステップS1120>
続いて、ステップS1120において、分割部142は、ステップS1110で取得された複数の平面画像における各平面画像(各AO−SLO画像)を、それぞれ小領域に分割する処理を行う。そして、分割部142は、各平面画像(各AO−SLO画像)において分割した小領域の大きさと位置に係る情報を、制御部130を介して、記憶部150に記憶する。但し、ここで、分割の方法や小領域の大きさは、各AO−SLO画像で同一とする。
<Step S1120>
Subsequently, in step S1120, the dividing unit 142 performs a process of dividing each planar image (each AO-SLO image) in the plurality of planar images acquired in step S1110 into small regions. Then, the dividing unit 142 stores information related to the size and position of the small area divided in each planar image (each AO-SLO image) in the storage unit 150 via the control unit 130. However, here, the division method and the size of the small area are the same for each AO-SLO image.

<ステップS1130>
続いて、ステップS1130において、特徴量取得部143は、ステップS1120で分割された各AO−SLO画像における各小領域に対して空間周波数変換処理を行う。そして、特徴量取得部143は、こうして得られた各AO−SLO画像における各小領域Rniの空間周波数画像Fniを、制御部130を介して、記憶部150に記憶する。
<Step S1130>
Subsequently, in step S1130, the feature amount acquisition unit 143 performs a spatial frequency conversion process on each small region in each AO-SLO image divided in step S1120. Then, the feature amount acquisition unit 143 stores the spatial frequency image Fni of each small region Rni in each AO-SLO image obtained in this way in the storage unit 150 via the control unit 130.

<ステップS1140>
続いて、ステップS1140において、特徴量取得部143は、ステップS1130で得た各AO−SLO画像における各小領域の空間周波数画像Fniを用いて、画像の解像・未解像を判定するための特徴量を取得する。このステップS1140の詳細な処理手順については、第1の実施形態と同様に、図5に示すフローチャートに示すものとなる。そして、特徴量取得部143は、本ステップで得られた特徴量(各小領域の積算関数やその形状に基づくピークの数やピークの位置、ピーク比及びピーク比画像または画像全体で見た場合に複数種類のピークが混在しない場合の解像/未解像の判定結果等)を、制御部130を介して、記憶部150に記憶する。
<Step S1140>
Subsequently, in step S1140, the feature amount acquisition unit 143 uses the spatial frequency image Fni of each small region in each AO-SLO image obtained in step S1130 to determine whether the image is resolved or unresolved. Get feature values. The detailed processing procedure of step S1140 is shown in the flowchart shown in FIG. 5 as in the first embodiment. The feature quantity acquisition unit 143 then obtains the feature quantity obtained in this step (the number of peaks based on the integration function of each small region and its shape, the position of the peak, the peak ratio and the peak ratio image, or the entire image) The resolution / unresolved determination result when a plurality of types of peaks are not mixed in the storage unit 150 is stored in the storage unit 150 via the control unit 130.

<ステップS1150>
ステップS1150において、領域抽出部144は、ステップS1140で取得された各AO−SLO画像に対応するピーク比画像に基づいて、各AO−SLO画像内の未解像領域を抽出する。そして、領域抽出部144は、抽出した未解像領域の境界の長さや当該未解像領域の面積を取得する。なお、ステップS1140(具体的にはS167)において、ステップS1110で取得したAO−SLO画像の全領域で解像であると判定された場合には、当該AO−SLO画像内に未解像領域は存在しないため、未解像領域の境界の長さ及び面積は0となる。また、ステップS160(具体的にはS167)において、ステップS1110で取得したAO−SLO画像の全領域で未解像であると判定された場合には、未解像領域の境界の長さは当該AO−SLO画像全体の周囲長さ、その面積は当該画像全体の面積とする。
<Step S1150>
In step S1150, the region extraction unit 144 extracts an unresolved region in each AO-SLO image based on the peak ratio image corresponding to each AO-SLO image acquired in step S1140. Then, the region extraction unit 144 acquires the boundary length of the extracted unresolved region and the area of the unresolved region. If it is determined in step S1140 (specifically, S167) that the entire area of the AO-SLO image acquired in step S1110 is resolved, unresolved areas are included in the AO-SLO image. Since it does not exist, the length and area of the boundary of the unresolved area are zero. In step S160 (specifically, S167), if it is determined that the entire area of the AO-SLO image acquired in step S1110 is unresolved, the length of the boundary of the unresolved area is The peripheral length and the area of the entire AO-SLO image are the area of the entire image.

そして、領域抽出部144は、ステップS1150の処理で得られた情報等(抽出した未解像領域、並びに、その境界の長さ及びその面積等)を、制御部130を介して、記憶部150に記憶する。   Then, the region extracting unit 144 stores the information obtained by the processing in step S1150 (the extracted unresolved region, the boundary length and the area thereof, and the like) via the control unit 130. To remember.

<ステップS1160>
続いて、ステップS1160において、例えば制御部130は、ステップS1150で抽出された各AO−SLO画像の未解像領域の面積(大きさ)に基づいて、AO−SLO装置200で被検眼の撮影を行う際のフォーカス位置を決定する。このフォーカス位置の決定を行う制御部130は、フォーカス位置決定手段を構成する。
<Step S1160>
Subsequently, in step S1160, for example, the control unit 130 images the eye to be examined by the AO-SLO apparatus 200 based on the area (size) of the unresolved area of each AO-SLO image extracted in step S1150. Determine the focus position when doing it. The control unit 130 that determines the focus position constitutes a focus position determination unit.

具体的に、例えば制御部130は、ステップS1110で取得された各AO−SLO画像のフォーカス位置と、ステップS1150で抽出された各AO−SLO画像の未解像領域の面積との関係を求め、未解像領域の面積が最小となるフォーカス位置を決定する。ここで、フォーカス位置の決定方法としては、複数の方法が考えられる。最も単純には、n枚のAO−SLO画像から未解像領域の面積が最小となるものを選択し、その時のフォーカス位置を選択して決定する方法がある。或いは、フォーカス位置と未解像領域の面積との関係を示すグラフを作成し、各種の補間法を用いて極小値を算出して決定する方法もある。この際の補間法としては、スプライン補間や2次補間などが考えられる。   Specifically, for example, the control unit 130 obtains a relationship between the focus position of each AO-SLO image acquired in step S1110 and the area of the unresolved area of each AO-SLO image extracted in step S1150. A focus position that minimizes the area of the unresolved area is determined. Here, a plurality of methods can be considered as a method for determining the focus position. The simplest method is to select an n-AO-SLO image that has the smallest area of the unresolved area, and select and determine the focus position at that time. Alternatively, there is a method in which a graph showing the relationship between the focus position and the area of the unresolved area is created, and the minimum value is calculated and determined using various interpolation methods. As an interpolation method at this time, spline interpolation, quadratic interpolation, or the like can be considered.

なお、ステップS1150において、全てのAO−SLO画像の未解像領域の面積が単一の値となる場合には、フォーカス位置は、ステップS1110における、収差補正により取得された視細胞層への最適フォーカス位置として決定される。ステップS1140において、全てのAO−SLO画像の全画像領域が解像している場合もしくは全てのAO−SLO画像の全画像領域が未解像である場合に、このようなケースが生じることとなる。   In step S1150, when the area of the unresolved area of all the AO-SLO images has a single value, the focus position is optimal for the photoreceptor layer acquired by the aberration correction in step S1110. Determined as the focus position. In step S1140, such a case occurs when all image areas of all AO-SLO images are resolved or when all image areas of all AO-SLO images are unresolved. .

そして、例えば制御部130は、こうして決定したフォーカス位置情報を記憶部150に記憶する。   For example, the control unit 130 stores the focus position information thus determined in the storage unit 150.

<ステップS1170>
続いて、ステップS1170において、制御部130は、ステップS1160で決定したフォーカス位置をAO−SLO装置200にフィードバックし、決定したフォーカス位置で再度AO−SLO画像を取得するための再撮影をさせる撮影制御を行う。
<Step S1170>
Subsequently, in step S1170, the control unit 130 feeds back the focus position determined in step S1160 to the AO-SLO device 200, and performs imaging control for performing re-imaging to acquire an AO-SLO image again at the determined focus position. I do.

ステップS1170の処理が終了すると、図11に示すフローチャートの処理が終了する。   When the process of step S1170 ends, the process of the flowchart shown in FIG. 11 ends.

第4の実施形態によれば、上述した第1の実施形態における効果に加えて以下の効果を奏する。
即ち、中心窩付近で視細胞の密度が高く、視細胞が完全に解像されない領域が残る場合に、視細胞の未解像領域をなるべく小さくするようなフォーカス位置を決定し設定することで、視細胞の検出がしやすいAO−SLO画像を取得することが可能となる。
According to the fourth embodiment, in addition to the effects in the first embodiment described above, the following effects are provided.
That is, by determining and setting the focus position so that the unresolved region of the photoreceptor cell is as small as possible when the density of the photoreceptor cell is high near the fovea and the region where the photoreceptor cell is not completely resolved remains, It is possible to acquire an AO-SLO image that allows easy detection of photoreceptor cells.

なお、図11に示すフローチャートは、図4に示すステップS110〜S120、S140〜S170に相当する処理ステップに、ステップS1160及びS1170を追加する態様であった。しかしながら、本実施形態はこの態様に限定されるものではない。例えば、本実施形態として、例えば、図10に示すステップS110〜S120、S140〜S170及びS910、S1010に相当する処理ステップに、図11に示すステップS1160及びS1170を追加する態様も適用可能である。即ち、この態様の場合、図11の処理に加えて、図10に示すステップS910における中心窩位置取得処理及びステップS1010における視細胞検出処理を更に行うものである。   The flowchart shown in FIG. 11 is a mode in which steps S1160 and S1170 are added to the processing steps corresponding to steps S110 to S120 and S140 to S170 shown in FIG. However, the present embodiment is not limited to this aspect. For example, as the present embodiment, for example, a mode in which steps S1160 and S1170 shown in FIG. 11 are added to the processing steps corresponding to steps S110 to S120, S140 to S170 and S910, and S1010 shown in FIG. 10 is also applicable. That is, in the case of this aspect, in addition to the processing of FIG. 11, the foveal position acquisition processing in step S910 and the photoreceptor detection processing in step S1010 shown in FIG. 10 are further performed.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments of the present invention are merely examples of implementation in practicing the present invention, and the technical scope of the present invention should not be construed as being limited thereto. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

10 眼科装置、100 画像処理装置、110 画像取得部、120 情報取得部、130 制御部、140 画像処理部、141 位置合わせ部、142 分割部、143 特徴量取得部、144 領域抽出部、145 視細胞解析部、150 記憶部、160 出力部、200 AO−SLO装置、300 情報入力装置、400 表示装置、500 データベース DESCRIPTION OF SYMBOLS 10 Ophthalmology apparatus, 100 Image processing apparatus, 110 Image acquisition part, 120 Information acquisition part, 130 Control part, 140 Image processing part, 141 Position alignment part, 142 Division | segmentation part, 143 Feature-value acquisition part, 144 Area extraction part, 145 views Cell analysis unit, 150 storage unit, 160 output unit, 200 AO-SLO device, 300 information input device, 400 display device, 500 database

Claims (11)

被検眼の視細胞を撮影した画像を取得する画像取得手段と、
前記画像を小領域に分割する分割手段と、
前記分割手段で分割された各小領域を空間周波数変換し、前記各小領域の特徴量を取得する特徴量取得手段と、
前記各小領域の前記特徴量に基づいて、前記画像において前記視細胞が未解像の領域である未解像領域を抽出する領域抽出手段と
を有することを特徴とする画像処理装置。
Image obtaining means for obtaining an image obtained by photographing the photoreceptor cells of the eye to be examined;
Dividing means for dividing the image into small regions;
Feature amount acquisition means for performing spatial frequency conversion on each of the small regions divided by the dividing unit and acquiring the feature amount of each of the small regions;
An image processing apparatus comprising: an area extracting unit configured to extract an unresolved area in which the photoreceptor cell is an unresolved area in the image based on the feature amount of each of the small areas.
前記特徴量取得手段は、前記各小領域の、出力の絶対値を角度方向に積算した積算関数の形状に基づく前記特徴量を取得することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature amount acquisition unit acquires the feature amount based on a shape of an integration function obtained by integrating the absolute values of outputs of the small regions in an angular direction. 前記特徴量は、前記積算関数の形状におけるピークの数とピークの位置とを含むことを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the feature amount includes a number of peaks and a peak position in the shape of the integration function. 前記領域抽出手段は、前記画像内に設定された各小領域で取得された特徴量であるピーク位置の分布に基づき前記未解像領域を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The said area extraction means extracts the said unresolved area | region based on distribution of the peak position which is the feature-value acquired in each small area | region set in the said image. The image processing apparatus according to claim 1. 前記領域抽出手段は、前記画像内に設定された各小領域で取得された特徴量であるピークの種類が1つである場合に、当該ピークの種類に応じて、前記画像が解像であるか未解像であるかを判定する判定手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   When the region extraction means has one type of peak, which is a feature amount acquired in each small region set in the image, the image is resolved according to the type of the peak. The image processing apparatus according to claim 1, further comprising a determination unit that determines whether the image is unresolved. 前記未解像領域の中から、前記被検眼の中心窩の位置を取得する中心窩取得手段を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a foveal acquisition unit configured to acquire a position of a fovea of the eye to be examined from the unresolved region. 前記中心窩取得手段は、前記未解像領域の重心の位置を、前記中心窩の位置として取得することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the fovea acquisition unit acquires the position of the center of gravity of the unresolved area as the position of the fovea. 前記画像において前記未解像領域をマスクして前記視細胞の検出を行う視細胞検出手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   8. The image processing apparatus according to claim 1, further comprising a photoreceptor detection unit that detects the photoreceptor by masking the unresolved area in the image. 9. 前記未解像領域の大きさに基づいて、前記撮影を行う際のフォーカス位置を決定するフォーカス位置決定手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing according to any one of claims 1 to 8, further comprising a focus position determination unit that determines a focus position when performing the shooting based on a size of the unresolved area. apparatus. 被検眼の視細胞を撮影した画像を取得する画像取得ステップと、
前記画像を小領域に分割する分割ステップと、
前記分割ステップで分割された各小領域を空間周波数変換し、前記各小領域の特徴量を取得する特徴量取得ステップと、
前記各小領域の前記特徴量に基づいて、前記画像において前記視細胞が未解像の領域である未解像領域を抽出する領域抽出ステップと
を有することを特徴とする画像処理方法。
An image acquisition step of acquiring an image of the photoreceptor cells of the eye to be examined;
A dividing step of dividing the image into small regions;
A feature amount acquisition step of performing spatial frequency conversion on each small region divided in the dividing step, and acquiring a feature amount of each small region;
And a region extracting step of extracting an unresolved region in which the photoreceptor cell is an unresolved region based on the feature amount of each small region.
被検眼の視細胞を撮影した画像を取得する画像取得ステップと、
前記画像を小領域に分割する分割ステップと、
前記分割ステップで分割された各小領域を空間周波数変換し、前記各小領域の特徴量を取得する特徴量取得ステップと、
前記各小領域の前記特徴量に基づいて、前記画像において前記視細胞が未解像の領域である未解像領域を抽出する領域抽出ステップと
をコンピュータに実行させるためのプログラム。
An image acquisition step of acquiring an image of the photoreceptor cells of the eye to be examined;
A dividing step of dividing the image into small regions;
A feature amount acquisition step of performing spatial frequency conversion on each small region divided in the dividing step, and acquiring a feature amount of each small region;
A program for causing a computer to execute an area extraction step of extracting an unresolved area in which the photoreceptor cell is an unresolved area in the image based on the feature amount of each small area.
JP2015146036A 2015-07-23 2015-07-23 Picture processing device, picture processing method, and program Pending JP2017023482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015146036A JP2017023482A (en) 2015-07-23 2015-07-23 Picture processing device, picture processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015146036A JP2017023482A (en) 2015-07-23 2015-07-23 Picture processing device, picture processing method, and program

Publications (1)

Publication Number Publication Date
JP2017023482A true JP2017023482A (en) 2017-02-02

Family

ID=57944905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015146036A Pending JP2017023482A (en) 2015-07-23 2015-07-23 Picture processing device, picture processing method, and program

Country Status (1)

Country Link
JP (1) JP2017023482A (en)

Similar Documents

Publication Publication Date Title
JP6025311B2 (en) Ophthalmic diagnosis support apparatus and method
US10176614B2 (en) Image processing device, image processing method, and program
KR101374041B1 (en) Image processing apparatus
Perez-Rovira et al. VAMPIRE: Vessel assessment and measurement platform for images of the REtina
EP2772185A1 (en) Image processing apparatus and image processing method
US9161686B2 (en) Image processing apparatus and image processing method
JP6207225B2 (en) Image processing apparatus and image processing method
JP4915737B2 (en) Image analysis system and image analysis program
JP6128841B2 (en) Image processing device
JP2008022928A (en) Image analysis apparatus and image analysis program
Hatanaka et al. Improved automated optic cup segmentation based on detection of blood vessel bends in retinal fundus images
JP2015202236A (en) Eyeground image analysis device and analysis method
JP6147001B2 (en) Image processing apparatus and image processing method
JP2014128448A5 (en)
JP2017512627A (en) Method for analyzing image data representing a three-dimensional volume of biological tissue
JP2017023482A (en) Picture processing device, picture processing method, and program
US10123688B2 (en) Information processing apparatus, operation method thereof, and computer program
JP6419249B2 (en) Image processing apparatus, image processing method, and image processing program
González-López et al. A web-based framework for anatomical assessment of the retina using OCT
JP2016086842A (en) Image processing system and image processing method
JP2017512626A (en) Method for analyzing image data representing a three-dimensional volume of biological tissue
JP6410498B2 (en) Ophthalmic apparatus and control method thereof
US20160317015A1 (en) Information processing apparatus, operation method thereof, and computer program
JP2018202237A (en) Image processing device and method for controlling the same
JP6576035B2 (en) Ophthalmic apparatus, photoreceptor cell detection method and program