JP2023149647A - Ophthalmologic image processing device and ophthalmologic image processing program - Google Patents

Ophthalmologic image processing device and ophthalmologic image processing program Download PDF

Info

Publication number
JP2023149647A
JP2023149647A JP2022058326A JP2022058326A JP2023149647A JP 2023149647 A JP2023149647 A JP 2023149647A JP 2022058326 A JP2022058326 A JP 2022058326A JP 2022058326 A JP2022058326 A JP 2022058326A JP 2023149647 A JP2023149647 A JP 2023149647A
Authority
JP
Japan
Prior art keywords
image
ophthalmological
image processing
extracted
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022058326A
Other languages
Japanese (ja)
Inventor
潤平 西山
Junpei Nishiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2022058326A priority Critical patent/JP2023149647A/en
Publication of JP2023149647A publication Critical patent/JP2023149647A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide an ophthalmologic image processing device and an ophthalmologic image processing program capable of appropriately processing data on a tomographic image of a tissue of an eye to be examined.SOLUTION: In an image acquisition step, a control part acquires an ophthalmologic image 62 captured by an ophthalmologic image capturing device. In an extraction step, the control part extracts data on an image in a target range for storing data from each of a plurality of partial images 70 arranged in a predetermined direction in the ophthalmologic image 62. In a position information acquisition step, the control part acquires position information indicating each position of a plurality of extraction images 80 extracted from each of the plurality of partial images 70 in the extraction step. In a storage step, the control part causes storage means to store the data on the plurality of extraction images 80 and the position information on each of the plurality of extraction images 80.SELECTED DRAWING: Figure 6

Description

本開示は、被検眼の組織の断層画像である眼科画像のデータを処理する眼科画像処理装置、および、眼科画像処理装置において実行される眼科画像処理プログラムに関する。 The present disclosure relates to an ophthalmologic image processing apparatus that processes data of an ophthalmologic image that is a tomographic image of a tissue of a subject's eye, and an ophthalmologic image processing program that is executed in the ophthalmologic image processing apparatus.

被検眼の組織の断層画像を撮影する技術が知られている。例えば、特許文献1のOCT装置は、走査ライン上に測定光を走査させることで、走査ラインを通過する断面の二次元断層画像を撮影する。また、複数の走査ラインについて撮影された複数の二次元断層画像が並べられることで、三次元断層画像が取得される。 2. Description of the Related Art Techniques for taking tomographic images of tissues of an eye to be examined are known. For example, the OCT apparatus disclosed in Patent Document 1 captures a two-dimensional tomographic image of a cross section passing through the scanning line by scanning measurement light on the scanning line. Furthermore, a three-dimensional tomographic image is obtained by arranging a plurality of two-dimensional tomographic images taken for a plurality of scanning lines.

特開2019-150532号公報JP 2019-150532 Publication

一般的には、撮影された断層画像のデータは、そのまま記憶装置に保存される。その結果、記憶装置の記憶容量の圧迫化、および、保存されていたデータを処理する際の処理速度の低下等の問題が生じ易かった。特に、近年では、断層画像の撮影の高精細化、高画角化、高深度化、および高速化が進んでおり、且つ、断層画像を撮影して診断等に利用する頻度も増加している。従って、記憶装置に保存させる断層画像のデータ量を削減することは、重要な課題となっている。 Generally, data of captured tomographic images is stored as is in a storage device. As a result, problems such as an increase in the storage capacity of the storage device and a decrease in processing speed when processing stored data tend to occur. In particular, in recent years, the resolution, angle of view, depth, and speed of tomographic imaging have become higher, and the frequency with which tomographic images are taken and used for diagnosis, etc. is also increasing. . Therefore, reducing the amount of tomographic image data stored in a storage device has become an important issue.

本開示の典型的な目的は、被検眼の組織の断層画像のデータを適切に処理することが可能な眼科画像処理装置および眼科画像処理プログラムを提供することである。 A typical object of the present disclosure is to provide an ophthalmological image processing device and an ophthalmic image processing program that can appropriately process data of a tomographic image of a tissue of an eye to be examined.

本開示における典型的な実施形態が提供する眼科画像処理装置は、被検眼の組織の断層画像である眼科画像のデータを処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、前記眼科画像内で所定の方向に配列された複数の部分画像の各々から、データを保存する対象範囲内の画像のデータを抽出する抽出ステップと、前記抽出ステップにおいて前記複数の部分画像の各々から抽出された、複数の抽出画像の各々の位置を示す位置情報を取得する位置情報取得ステップと、前記複数の抽出画像のデータと、前記複数の抽出画像の各々の位置情報を、記憶手段に保存させる保存ステップと、を実行する。 An ophthalmologic image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmologic image processing apparatus that processes data of an ophthalmologic image that is a tomographic image of a tissue of a subject's eye, and the control unit of the ophthalmologic image processing apparatus includes: , an image acquisition step of acquiring an ophthalmological image photographed by an ophthalmological image capturing device; and data of images within a target range in which data is saved from each of a plurality of partial images arranged in a predetermined direction within the ophthalmological image. an extraction step of extracting a plurality of extracted images; a position information acquisition step of obtaining position information indicating the position of each of the plurality of extracted images extracted from each of the plurality of partial images in the extraction step; A storing step of storing the data and position information of each of the plurality of extracted images in a storage means is executed.

本開示における典型的な実施形態が提供する眼科画像処理プログラムは、被検眼の組織の断層画像である眼科画像のデータを処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、前記眼科画像内で所定の方向に配列された複数の部分画像の各々から、データを保存する対象範囲内の画像のデータを抽出する抽出ステップと、前記抽出ステップにおいて前記複数の部分画像の各々から抽出された、複数の抽出画像の各々の位置を示す位置情報を取得する位置情報取得ステップと、前記複数の抽出画像のデータと、前記複数の抽出画像の各々の位置情報を、記憶手段に保存させる保存ステップと、を前記眼科画像処理装置に実行させる。 An ophthalmologic image processing program provided by a typical embodiment of the present disclosure is an ophthalmologic image processing program executed by an ophthalmologic image processing apparatus that processes data of an ophthalmologic image that is a tomographic image of a tissue of an eye to be examined, an image acquisition step of acquiring an ophthalmologic image photographed by the ophthalmologic image capturing device by executing an ophthalmologic image processing program by a control unit of the ophthalmologic image processing device; an extraction step of extracting data of an image within a target range for data storage from each of the plurality of partial images; and a position of each of the plurality of extracted images extracted from each of the plurality of partial images in the extraction step. a position information acquisition step of acquiring position information indicating the plurality of extracted images, and a storage step of storing the data of the plurality of extracted images and the position information of each of the plurality of extracted images in a storage means, in the ophthalmological image processing apparatus. Let it run.

本開示に係る眼科画像処理装置および眼科画像処理プログラムによると、被検眼の組織の断層画像のデータが適切に処理される。 According to the ophthalmological image processing device and the ophthalmological image processing program according to the present disclosure, data of a tomographic image of a tissue of an eye to be examined is appropriately processed.

眼科画像処理システム100の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an ophthalmologic image processing system 100. FIG. 眼科画像撮影装置1が被検眼の組織50の眼科画像を撮影する方法を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining a method in which the ophthalmologic image capturing apparatus 1 captures an ophthalmologic image of a tissue 50 of an eye to be examined. 眼科画像撮影装置1によって撮影された眼科画像61の一例を示す図である。6 is a diagram showing an example of an ophthalmologic image 61 captured by the ophthalmologic image capturing device 1. FIG. 眼科画像処理装置40が実行する眼科画像処理の一例を示すフローチャートである。It is a flowchart showing an example of ophthalmological image processing performed by the ophthalmological image processing device 40. 撮影された眼科画像61と、眼科画像61から像領域が抽出された眼科画像62を示す図である。6 is a diagram showing a photographed ophthalmologic image 61 and an ophthalmologic image 62 in which an image area is extracted from the ophthalmologic image 61. FIG. 眼科画像62内の部分画像70から抽出画像である。80を抽出する方法の一例を説明するための説明図である。This is an image extracted from a partial image 70 within the ophthalmological image 62. 80 is an explanatory diagram for explaining an example of a method for extracting 80. FIG. 複数の部分画像70の各々から抽出された複数の抽出画像80を、各々の位置を考慮せずにX方向に並べた参考画像80Aを示す図である。7 is a diagram illustrating a reference image 80A in which a plurality of extracted images 80 extracted from each of a plurality of partial images 70 are arranged in the X direction without consideration of their respective positions. FIG. 再構築画像データ90および背景補完画像データ91の一例を示す図である。9 is a diagram showing an example of reconstructed image data 90 and background complementary image data 91. FIG.

<概要>
本開示で例示する眼科画像処理装置は、被検眼の組織の断層画像である眼科画像のデータを処理する。眼科画像処理装置の制御部は、画像取得ステップ、抽出ステップ、位置情報取得ステップ、および保存ステップを実行する。画像取得ステップでは、制御部は、眼科画像撮影装置によって撮影された眼科画像を取得する。抽出ステップでは、制御部は、眼科画像内で所定の方向に配列された複数の部分画像の各々から、データを保存する対象範囲内の画像のデータを抽出する。位置情報取得ステップでは、制御部は、抽出ステップにおいて複数の部分画像の各々から抽出された、複数の抽出画像の各々の位置を示す位置情報を取得する。保存ステップでは、制御部は、複数の抽出画像のデータと、複数の抽出画像の各々の位置情報を、記憶手段に保存させる。
<Summary>
The ophthalmological image processing device exemplified in the present disclosure processes data of an ophthalmological image that is a tomographic image of a tissue of a subject's eye. The control unit of the ophthalmological image processing device executes an image acquisition step, an extraction step, a position information acquisition step, and a storage step. In the image acquisition step, the control unit acquires an ophthalmologic image captured by the ophthalmologic image capturing device. In the extraction step, the control unit extracts data of an image within a target range for storing data from each of a plurality of partial images arranged in a predetermined direction within the ophthalmological image. In the position information acquisition step, the control unit acquires position information indicating the position of each of the plurality of extracted images extracted from each of the plurality of partial images in the extraction step. In the storage step, the control unit stores data of the plurality of extracted images and position information of each of the plurality of extracted images in the storage means.

本開示に係る技術によると、眼科画像を構成する複数の部分画像の各々から、データを保存する対象範囲内の画像である抽出画像が抽出される。さらに、複数の抽出画像のデータと共に、各々の抽出画像の位置情報が保存される。つまり、眼科画像のうち、適切な範囲の画像のデータが抽出されて保存される。また、各々の抽出画像が位置情報に基づいて配置されれば、抽出された部分の画像は適切に再構築される。従って、眼科画像の全体のデータが保存される場合に比べて、記憶装置の記憶容量の圧迫化等が適切に抑制される。 According to the technology according to the present disclosure, an extraction image that is an image within a target range for storing data is extracted from each of a plurality of partial images that constitute an ophthalmological image. Furthermore, position information of each extracted image is stored together with data of a plurality of extracted images. That is, data of an appropriate range of images from the ophthalmological image is extracted and saved. Further, if each extracted image is arranged based on position information, the image of the extracted portion can be appropriately reconstructed. Therefore, compared to the case where the entire data of the ophthalmological image is saved, the storage capacity of the storage device is appropriately suppressed.

断層画像を撮影(生成)する眼科撮影装置には、種々の装置を使用することができる。例えば、光コヒーレンストモグラフィの原理を利用して被検眼の組織の断層画像を撮影するOCT装置を使用することができる。この場合、断層画像は、例えば、眼底の網膜層の同一位置から、異なる時間に複数のOCT信号を取得することで得られるモーションコントラスト画像(例えば、OCTアンギオグラフィー画像)であってもよい。また、MRI(磁気共鳴画像診断)装置、またはCT(コンピュータ断層撮影)装置等が、眼科撮影装置として使用されてもよい。画像取得ステップで取得される断層画像は、二次元断層画像であってもよいし、三次元断層画像であってもよい。また、本開示における断層画像は、被検眼の眼底の断層画像である。しかし、断層画像は、被検眼における眼底以外の組織(例えば前眼部等)の断層画像であってもよい。 Various devices can be used as an ophthalmologic imaging device that captures (generates) tomographic images. For example, an OCT device that takes a tomographic image of the tissue of the eye to be examined using the principle of optical coherence tomography can be used. In this case, the tomographic image may be, for example, a motion contrast image (for example, an OCT angiography image) obtained by acquiring a plurality of OCT signals at different times from the same position in the retinal layer of the fundus. Furthermore, an MRI (magnetic resonance imaging) device, a CT (computed tomography) device, or the like may be used as the ophthalmologic imaging device. The tomographic image acquired in the image acquisition step may be a two-dimensional tomographic image or a three-dimensional tomographic image. Further, the tomographic image in the present disclosure is a tomographic image of the fundus of the eye to be examined. However, the tomographic image may be a tomographic image of a tissue other than the fundus of the eye to be examined (for example, the anterior segment of the eye).

なお、種々のデバイスが眼科画像処理装置として機能することができる。例えば、断層画像を撮影する眼科撮影装置自身が、本開示における眼科画像処理装置として機能してもよい。この場合、眼科撮影装置は、被検眼の断層画像を撮影しつつ、撮影した断層画像を適切に記憶手段に保存することができる。また、眼科撮影装置との間でデータをやり取りすることが可能なデバイス(例えば、パーソナルコンピュータ(PC)または携帯端末等)が、眼科画像処理装置として機能してもよい。複数の制御部(例えば、眼科撮影装置の制御部とPCの制御部等)が、協働して処理を行ってもよい。 Note that various devices can function as an ophthalmological image processing apparatus. For example, the ophthalmologic imaging device itself that captures tomographic images may function as the ophthalmologic image processing device in the present disclosure. In this case, the ophthalmologic imaging apparatus can appropriately store the captured tomographic image in the storage means while capturing the tomographic image of the eye to be examined. Further, a device (for example, a personal computer (PC) or a mobile terminal, etc.) that can exchange data with the ophthalmologic imaging device may function as the ophthalmologic image processing device. A plurality of control units (for example, a control unit of an ophthalmologic imaging device, a control unit of a PC, etc.) may cooperate to perform processing.

制御部は、眼科画像に写る組織内の複数の部位のうち、少なくともいずれかの部位を、基準部位として特定する基準部位特定ステップをさらに実行してもよい。抽出ステップでは、制御部は、眼科画像内で所定の方向に配列された複数の部分画像の各々から、基準部位を基準とする対象範囲内の画像のデータを、抽出画像として抽出してもよい。この場合、特定された基準部位を基準とする適切な範囲の画像のデータが抽出されて保存される。よって、不要な範囲の画像のデータが適切に除外されたうえで、必要は範囲の画像のデータが保存される。 The control unit may further execute a reference region specifying step of specifying at least one of the plurality of regions within the tissue shown in the ophthalmological image as a reference region. In the extraction step, the control unit may extract, as an extraction image, data of an image within a target range based on a reference site from each of a plurality of partial images arranged in a predetermined direction within the ophthalmological image. . In this case, image data in an appropriate range based on the identified reference site is extracted and saved. Therefore, image data in an unnecessary range is appropriately excluded, and then image data in a necessary range is saved.

眼科画像に写る組織内の基準部位を特定するための方法は、適宜選択できる。例えば、制御部は、公知の画像処理(例えばエッジ検出等)によって、眼科画像内の基準部位を特定してもよい。また、入力された眼科画像内の基準部位を特定するように機械学習アルゴリズムによって訓練された数学モデルが用いられてもよい。この場合、制御部は、数学モデルに眼科画像を入力し、数学モデルによって出力された基準部位の特定結果を取得することで、基準部位を特定してもよい。 A method for specifying a reference site within a tissue that appears in an ophthalmological image can be selected as appropriate. For example, the control unit may identify the reference site within the ophthalmological image by known image processing (for example, edge detection, etc.). Also, a mathematical model trained by a machine learning algorithm to identify reference sites within an input ophthalmological image may be used. In this case, the control unit may specify the reference site by inputting the ophthalmological image into the mathematical model and acquiring the reference site identification result output by the mathematical model.

眼科画像は、被検眼の組織のうち、複数の層が積層された層構造(例えば、眼底の層構造等)を撮影した断層画像であってもよい。基準部位特定ステップでは、制御部は、層構造に含まれる複数の層、および層の境界(以下、「層・境界」という場合もある)のうちの少なくともいずれかを、基準部位として特定してもよい。層構造に含まれる層・境界は、層構造の全体の形状に沿う形状となり易い。従って、層構造が平坦でない場合(例えば、層構造が湾曲している場合、または、疾患等に起因する変形が生じている場合等)であっても、層・境界を基準部位として抽出画像が抽出されることで、層構造の形状に応じた適切な範囲の画像が保存され易くなる。 The ophthalmological image may be a tomographic image of a layer structure in which a plurality of layers are stacked (for example, a layer structure of the fundus of the eye) among the tissues of the eye to be examined. In the reference region identification step, the control unit identifies at least one of a plurality of layers included in the layered structure and a layer boundary (hereinafter sometimes referred to as "layer/boundary") as a reference region. Good too. The layers and boundaries included in the layered structure tend to have a shape that follows the overall shape of the layered structure. Therefore, even if the layer structure is not flat (for example, if the layer structure is curved or deformed due to a disease, etc.), the extracted image can be extracted using the layer/boundary as the reference site. By extracting the image, it becomes easier to save an image in an appropriate range according to the shape of the layer structure.

基準部位特定ステップでは、制御部は、少なくとも、眼科画像に写る層構造のうち最も表層側の境界または層を、基準部位として特定してもよい。層構造の最も表層側は、層構造が存在する領域と、層構造が存在しない領域の境界となる。従って、層構造の最も表層側の層・境界を基準部位とすることで、層構造を含む抽出画像が、より適切に抽出され易くなる。なお、眼科画像に写る組織が眼底の網膜組織である場合には、最も表層側の層・境界は、網膜表層、または、網膜表層の境界(例えば、表面側の境界)となる。 In the reference site specifying step, the control unit may specify at least the most superficial boundary or layer of the layer structure shown in the ophthalmological image as the reference site. The most superficial side of the layered structure is the boundary between the area where the layered structure exists and the area where the layered structure does not exist. Therefore, by using the layer/boundary on the most superficial side of the layer structure as the reference region, it becomes easier to extract an extraction image including the layer structure more appropriately. Note that when the tissue shown in the ophthalmological image is the retinal tissue of the fundus, the most superficial layer/boundary is the retinal surface layer or the boundary of the retinal surface layer (for example, the surface side boundary).

抽出ステップでは、制御部は、層構造における最も表層側の基準部位から、層構造の深層側に向けて所定の範囲を、複数の部分画像の各々から抽出画像を抽出する対象範囲に含めてもよい。この場合、層構造のうち極力広い範囲が抽出画像に含まれやすくなる。また、層構造の表層側の組織の画像が抽出されない不具合も生じにくくなる。よって、被検眼の層構造の画像がより適切に抽出されて保存される。 In the extraction step, the control unit may include a predetermined range from the most superficial reference region in the layered structure toward the deeper layer of the layered structure as a target range for extracting the extraction image from each of the plurality of partial images. good. In this case, the widest possible range of the layer structure is likely to be included in the extracted image. Furthermore, the problem that an image of the tissue on the surface layer side of the layered structure is not extracted is less likely to occur. Therefore, an image of the layer structure of the eye to be examined is more appropriately extracted and saved.

なお、層構造における最も表層側の基準部位から深層側に向けての、画像の抽出範囲の大きさ(つまり、前述した「深層側に向けての所定の範囲の大きさ」)は、適宜設定できる。例えば、制御部は、基準部位から深層側に向けての画像の抽出範囲の大きさ(以下、「深層側へのオフセット量」という場合もある)を、ユーザによって入力された指示に応じて設定してもよい。この場合、ユーザは、被検眼の層構造のうち、所望の範囲の画像のデータを、効率良く適切に保存させることができる。また、制御部は、眼科画像の撮影条件(例えば、撮影倍率、撮影画角、撮影深度等の少なくともいずれか)に応じて、深層側へのオフセット量を調整してもよい。この場合、撮影条件に応じた適切な範囲の画像のデータが抽出される。また、深層側へのオフセット量は、予め定められた固定値であってもよい。 Note that the size of the image extraction range from the most superficial reference part in the layered structure toward the deeper layer (in other words, the above-mentioned "size of the predetermined range toward the deeper layer") can be set as appropriate. can. For example, the control unit sets the size of the image extraction range from the reference region toward the deep side (hereinafter also referred to as "offset amount toward the deep side") according to instructions input by the user. You may. In this case, the user can efficiently and appropriately save image data of a desired range of the layer structure of the eye to be examined. Further, the control unit may adjust the amount of offset toward the deeper layer depending on the photographing conditions of the ophthalmological image (for example, at least one of photographing magnification, photographing angle of view, photographing depth, etc.). In this case, image data in an appropriate range according to the shooting conditions is extracted. Further, the amount of offset toward the deeper layer side may be a predetermined fixed value.

抽出ステップでは、制御部は、層構造における最も表層側の基準部位から、層構造の深層側とは反対側(以下、便宜上「手前側」という)に向けて所定の範囲を、複数の部分画像の各々から抽出画像を抽出する対象範囲に含めてもよい。この場合、例えば、最も表層側の基準部位の特定精度が低下してしまっても、層構造の表層側の組織の画像が適切に抽出され易くなる。また、種々の影響(例えば疾患等の影響)で、最も表層側の層・境界の表面側に何らかの物体が写り込んでいても、表面側に写り込んだ物体も抽出され易くなる。よって、より適切に画像が抽出され易くなる。 In the extraction step, the control unit extracts a plurality of partial images in a predetermined range from the most superficial reference region in the layered structure toward the side opposite to the deep side of the layered structure (hereinafter referred to as the "front side" for convenience). The extracted images may be included in the target range to be extracted from each of the images. In this case, for example, even if the identification accuracy of the reference region closest to the superficial layer is reduced, an image of the tissue on the superficial side of the layered structure can be easily extracted appropriately. Further, even if some object is reflected on the surface side of the most superficial layer/boundary due to various influences (for example, the influence of a disease, etc.), the object reflected on the surface side is also likely to be extracted. Therefore, it becomes easier to extract images more appropriately.

なお、深層側へのオフセット量と同様に、最も表層側の基準部位から手前側に向けての画像の抽出範囲の大きさ(以下、「手前側へのオフセット量」という場合もある)も、適宜設定できる。例えば、制御部は、手前側へのオフセット量を、ユーザによって入力された指示に応じて設定してもよい。制御部は、眼科画像の撮影条件(例えば、撮影倍率、撮影画角、撮影深度等の少なくともいずれか)に応じて、手前側へのオフセット量を調整してもよい。また、手前側へのオフセット量は、予め定められた固定値であってもよい。 In addition, similar to the amount of offset toward the deep side, the size of the image extraction range from the most superficial reference region toward the near side (hereinafter sometimes referred to as "the amount of offset toward the near side") is also Can be set as appropriate. For example, the control unit may set the amount of offset toward the front side according to an instruction input by the user. The control unit may adjust the amount of offset toward the front side according to the photographing conditions of the ophthalmological image (for example, at least one of photographing magnification, photographing angle of view, photographing depth, etc.). Further, the amount of offset toward the front side may be a predetermined fixed value.

なお、眼科画像に写る層構造のうち、最も表層側の層・境界よりも深層側に位置する層・境界を、基準部位とすることも可能である。例えば、眼科画像に写る組織が眼底の網膜組織である場合、最も表層側の網膜表層よりも深層側に位置する層・境界(例えば、神経節細胞層、内網状層、内顆粒層、外網状層、外境界膜、視細胞内節外節接合部、網膜色素上皮、ブルッフ膜、脈絡膜等、および、これらの境界)の少なくともいずれかが、基準部位とされてもよい。例えば、眼科画像に写る層構造のうち、より明確に写り易い層・構造が基準部位とされることで、基準部位の特定精度が向上し、より適切に画像が抽出・保存される場合もある。 Note that, of the layer structure shown in the ophthalmological image, a layer/boundary located deeper than the most superficial layer/boundary may be used as the reference site. For example, if the tissue shown in an ophthalmological image is the retinal tissue of the fundus, the layers and boundaries located deeper than the most superficial retinal surface layer (e.g. ganglion cell layer, inner plexiform layer, inner nuclear layer, outer plexiform layer) The reference site may be at least one of the following: outer limiting membrane, photoreceptor inner segment/outer segment junction, retinal pigment epithelium, Bruch's membrane, choroid, etc., and their boundaries). For example, by setting a layer/structure that is more clearly visible in an ophthalmological image as the reference region, the accuracy of identifying the reference region may be improved, and the image may be extracted and saved more appropriately. .

また、眼科画像に写る層構造のうち、基準部位として特定する層・境界を、種々の条件に応じて変更してもよい。例えば、組織の位置に応じて、眼科画像への写り易さが変化する層・境界も存在する。従って、眼科画像に写る組織の位置に応じて、基準部位として特定する層・境界を変えてもよい。 Further, among the layer structures shown in the ophthalmological image, the layer/boundary specified as the reference region may be changed according to various conditions. For example, there are layers and boundaries whose visibility in ophthalmological images changes depending on the position of the tissue. Therefore, the layer/boundary specified as the reference site may be changed depending on the position of the tissue shown in the ophthalmological image.

また、制御部は、眼科画像に写る複数の層・境界のうちの複数を、基準部位として特定してもよい。この場合、制御部は、抽出ステップにおいて、特定した複数の基準部位のうち、1つの基準部位(例えば、最も表層側の層・境界)と、他の基準部位(例えば、層構造の深層側に位置する層・境界)に囲まれる範囲を対象範囲として、複数の部分画像の各々から抽出画像を抽出してもよい。その結果、眼科画像に写る層構造のうち、特定の範囲内の画像のデータが、適切に抽出されて保存される。 Further, the control unit may specify a plurality of layers/boundaries shown in the ophthalmological image as the reference region. In this case, in the extraction step, the control unit selects one reference region (e.g., the layer/boundary on the most superficial side) and another reference region (e.g., on the deeper side of the layer structure) out of the plurality of reference regions identified. The extracted image may be extracted from each of the plurality of partial images, with the range surrounded by the layer/boundary) as the target range. As a result, data of the image within a specific range of the layered structure shown in the ophthalmological image is appropriately extracted and saved.

複数の部分画像の各々は、眼科画像に写る層構造内の層に交差する方向に延びる長尺状の画像であってもよい。複数の部分画像は、眼科画像内において、各々の部分画像が延びる方向に交差する方向に連続して配列されていてもよい。この場合、各々の部分画像内で、基準部位とされる層・境界が特定され易くなる。その結果、より適切に抽出画像が抽出されて保存される。 Each of the plurality of partial images may be a long image extending in a direction intersecting the layers in the layered structure shown in the ophthalmological image. The plurality of partial images may be consecutively arranged within the ophthalmological image in a direction intersecting the direction in which each partial image extends. In this case, within each partial image, the layer/boundary serving as the reference region can be easily identified. As a result, the extracted image is extracted and saved more appropriately.

例えば、眼科画像がOCT画像である場合、複数の部分画像は、OCT測定光の光軸に沿う方向に延びるAスキャン画像であってもよい。OCT測定光は、被検眼の組織(例えば眼底組織等)に対して正面側から照射される。従って、OCT測定光の光軸に沿う方向に延びるAスキャン画像は、組織内の層に交差する方向に延びる画像(画素列)となる。よって、眼科画像を構成する複数のAスキャン画像を部分画像とすることで、層構造の適切な領域を含む抽出画像がさらに抽出され易くなる。なお、各々のAスキャン画像をそのまま部分画像としてもよいし、複数のAスキャン画像を各々の部分画像の構成単位としてもよい。 For example, when the ophthalmologic image is an OCT image, the plurality of partial images may be A-scan images extending in a direction along the optical axis of the OCT measurement light. The OCT measurement light is irradiated onto the tissue of the eye to be examined (for example, fundus tissue) from the front side. Therefore, the A-scan image extending in the direction along the optical axis of the OCT measurement light becomes an image (pixel row) extending in the direction intersecting the layers in the tissue. Therefore, by using a plurality of A-scan images constituting an ophthalmologic image as partial images, it becomes easier to extract an extraction image that includes an appropriate region of layer structure. Note that each A-scan image may be used as a partial image as it is, or a plurality of A-scan images may be used as a constituent unit of each partial image.

ただし、部分画像を変更することも可能である。例えば、眼科画像がOCT画像である場合、Aスキャン画像に垂直に交差する複数の画素列(所謂Cスキャン画像)を部分画像としてもよい。また、少なくともいずれかの層・境界(例えば、基準部位とする層・境界)が延びる方向を検出し、検出した方向に交差する複数の部分画像を適宜設定してもよい。また、層構造が湾曲している場合、層構造の湾曲形状に対して複数の部分画像の各々が交差するように、複数の部分画像の集合が扇形等に配置されてもよい。 However, it is also possible to change partial images. For example, when the ophthalmologic image is an OCT image, a plurality of pixel columns (so-called C-scan image) that perpendicularly intersect with the A-scan image may be used as the partial image. Alternatively, the direction in which at least one of the layers/boundaries (for example, the layer/boundary serving as the reference region) extends may be detected, and a plurality of partial images intersecting the detected direction may be appropriately set. Further, when the layered structure is curved, a set of the plurality of partial images may be arranged in a fan shape or the like so that each of the plurality of partial images intersects the curved shape of the layered structure.

また、眼科画像に写る複数の部位のうち、層・境界以外の部位を基準部位とすることも可能である。例えば、眼科画像に写る疾患部位を基準部位として特定し、特定した基準部位を基準として抽出画像が抽出されてもよい。この場合、疾患部位に応じて適切に抽出画像が抽出され、保存される。また、眼科画像に写る血管部位等、が基準部位として特定されてもよい。 Moreover, it is also possible to use a part other than the layer/boundary as the reference part among the plurality of parts shown in the ophthalmological image. For example, a diseased site appearing in an ophthalmologic image may be specified as a reference site, and an extraction image may be extracted using the specified reference site as a reference. In this case, an extracted image is appropriately extracted and saved according to the disease site. Further, a blood vessel site or the like that appears in an ophthalmologic image may be specified as the reference site.

基準部位特定ステップが実行された結果、基準部位の特定結果が欠落した箇所が存在する場合に、他の箇所における基準部位の特定結果に基づいて、欠落した箇所における基準部位の特定結果を補完する補完ステップをさらに実行してもよい。この場合、種々の影響(例えば、画質または疾患等の影響)で、基準部位の一部が特定されなかった場合でも、補完ステップによって特定結果が補完された基準部位に基づいて、複数の部分画像から抽出画像が抽出される。従って、より適切に画像が抽出・保存される場合もある。 As a result of executing the reference part identification step, if there is a part where the reference part identification result is missing, the reference part identification result at the missing part is supplemented based on the reference part identification result in other parts. Further completion steps may also be performed. In this case, even if a part of the reference region is not identified due to various influences (for example, image quality or disease), multiple partial images can be generated based on the reference region whose identification results have been complemented in the interpolation step. An extracted image is extracted from. Therefore, images may be extracted and saved more appropriately.

補間ステップの具体的な方法も、適宜選択できる。例えば、制御部は、特定結果が欠落した欠落箇所が存在する場合に、欠落箇所に隣接する箇所(例えば、欠落箇所が含まれる部分画像に隣接する部分画像)における基準部位の特定結果に基づいて、欠落箇所の特定結果を補完してもよい。例えば、制御部は、欠落箇所が含まれる部分画像の一方の側に隣接する部分画像の特定位置と、他方の側に隣接する部分画像の特定位置の間の位置を、基準部位の位置として補完してもよい。 The specific method of the interpolation step can also be selected as appropriate. For example, when there is a missing part for which the identification result is missing, the control unit may detect the reference part based on the identification result of the reference part in a part adjacent to the missing part (for example, a partial image adjacent to a partial image including the missing part). , the missing location identification results may be supplemented. For example, the control unit complements the position between the specific position of the partial image adjacent to one side of the partial image including the missing part and the specific position of the partial image adjacent to the other side as the position of the reference part. You may.

なお、基準部位を基準として眼科画像から抽出画像を抽出する方法に代えて、他の方法によって抽出画像を抽出することも可能である。例えば、制御部は、取得された眼科画像に対して画像処理を行うことで、眼科画像のうち像が含まれる像領域を検出し、検出した像領域を含む対象範囲内の画像のデータを、抽出画像として抽出してもよい。また、制御部は、眼科画像のうち、像が写っている可能性が高い領域(例えば、眼科画像のうち、像が写る可能性が高いと予想されたうえで予め決められた領域等)の画像のデータを、抽出画像として抽出してもよい。 Note that instead of the method of extracting the extracted image from the ophthalmological image using the reference site as a reference, it is also possible to extract the extracted image using another method. For example, the control unit performs image processing on the acquired ophthalmological image, detects an image area that includes the image in the ophthalmological image, and converts data of the image within the target range including the detected image area. It may be extracted as an extracted image. The control unit also controls a region of the ophthalmological image that is likely to contain an image (for example, a predetermined region of the ophthalmological image that is predicted to have a high possibility of showing the image). Image data may be extracted as an extracted image.

抽出ステップにおいて抽出された複数の抽出画像が、位置情報を考慮せずに複数の部分画像の配列方向に並べられた画像(参考画像)は、画像取得ステップにおいて取得された眼科画像から層構造以外の領域の少なくとも一部が消去され、且つ、層構造の湾曲が平坦化された画像となってもよい。この場合、参考画像では、眼科画像から層構造以外の領域の少なくとも一部が消去されることで、画像のデータ量が適切に減少し、且つ、位置情報によって再現される層の湾曲情報が除かれて層構造が平坦となる。よって、眼科画像のデータから、必要なデータが適切に抽出されて保存される。 An image (reference image) in which multiple extracted images extracted in the extraction step are arranged in the arrangement direction of the multiple partial images without considering position information is an image other than the layered structure from the ophthalmological image acquired in the image acquisition step. An image may be obtained in which at least a portion of the area is erased and the curvature of the layer structure is flattened. In this case, in the reference image, by erasing at least part of the area other than the layer structure from the ophthalmological image, the amount of image data is appropriately reduced, and layer curvature information reproduced by position information is removed. The layer structure becomes flat. Therefore, necessary data is appropriately extracted and stored from the ophthalmological image data.

抽出画像は、眼科画像における層構造の厚みが維持された状態で眼科画像から抽出されて保存されてもよい。なお、抽出画像のデータは、圧縮されずに、または可逆圧縮されて保存されてもよい。この場合、各々の抽出画像が位置情報に基づいて配置されれば、元の眼科画像における層構造が、厚みが維持された状態で適切に再構築される。 The extracted image may be extracted from the ophthalmological image and stored while the thickness of the layer structure in the ophthalmological image is maintained. Note that the extracted image data may be stored uncompressed or after being reversibly compressed. In this case, if each extracted image is arranged based on the position information, the layer structure in the original ophthalmological image is appropriately reconstructed with the thickness maintained.

制御部は、記憶手段に保存されている複数の抽出画像のデータを、各々の位置情報に基づいて配置することで、前記眼科画像のうち前記抽出ステップにおいて抽出された領域を再構築する画像再構築ステップをさらに実行してもよい。この場合、元の眼科画像のデータ量よりも小さいデータ量で記憶された抽出画像が、適切に再構築される。 The control unit performs image reconstruction for reconstructing the area extracted in the extraction step of the ophthalmological image by arranging data of the plurality of extracted images stored in the storage means based on the respective position information. Further construction steps may be performed. In this case, the extracted image stored with an amount of data smaller than the amount of data of the original ophthalmological image is appropriately reconstructed.

なお、制御部は、複数の抽出画像のデータをそのまま記憶せずに、他の抽出画像のデータとの差分を記憶することも可能である。例えば、制御部は、一部の抽出画像について、近傍の(例えば隣接する)抽出画像のデータとの差分を記憶することで、一部の抽出画像のデータ量を削減してもよい。画像を再構築する際には、制御部は、一部の抽出画像のデータを、近傍の抽出画像のデータと差分に基づいて複合すればよい。 Note that the control unit can also store the difference with data of other extracted images, instead of storing the data of the plurality of extracted images as they are. For example, the control unit may reduce the data amount of some of the extracted images by storing the difference between the some of the extracted images and data of nearby (for example, adjacent) extracted images. When reconstructing an image, the control unit may combine data of a part of extracted images with data of neighboring extracted images based on the difference.

<実施形態>
以下、本開示に係る典型的な実施形態の1つについて説明する。本実施形態では、眼科画像撮影装置の1種であるOCT装置によって撮影された、被検眼Eの眼底組織の断層画像を処理する場合について例示する。しかし、処理対象とする眼科画像は、眼底組織以外の組織の画像であってもよい。例えば、処理対象とする眼科画像は、被検眼Eの眼底以外の組織(例えば前眼部等)の画像であってもよい。また、被検眼E以外の生体組織(例えば、皮膚、消化器、または脳等)の画像(つまり、眼科画像以外の画像)が処理対象とされてもよい。また、前述したように、画像を撮影する撮影装置はOCT装置に限定されない。
<Embodiment>
One typical embodiment according to the present disclosure will be described below. In this embodiment, a case will be exemplified in which a tomographic image of the fundus tissue of the eye E to be examined is processed, which has been photographed by an OCT device that is one type of ophthalmological image photographing device. However, the ophthalmological image to be processed may be an image of a tissue other than fundus tissue. For example, the ophthalmological image to be processed may be an image of a tissue other than the fundus of the eye E to be examined (for example, the anterior segment of the eye). Furthermore, images of biological tissue (for example, skin, digestive organs, brain, etc.) other than the subject's eye E (that is, images other than ophthalmological images) may be processed. Further, as described above, the photographing device for photographing images is not limited to the OCT device.

図1を参照して、本実施形態の眼科画像処理システム100の概略構成について説明する。本実施形態の眼科画像処理システム100は、眼科画像撮影装置1と眼科画像処理装置40を備える。眼科画像撮影装置1は、生体(本実施形態では被検眼の眼底)の断層画像を撮影する。詳細には、本実施携帯の眼科画像撮影装置(OCT装置)1は、生体の組織上で測定光をスキャンしつつ、組織からの光を時間的に連続して受光することで、第1方向(スキャン方向)と、第1方向に交差する第2方向(測定光の光軸の方向である深さ方向)に広がる二次元画像を撮影する。また、眼科画像撮影装置1は、生体における二次元の測定領域内における複数のスキャンライン上の各々に測定光をスキャンさせて、複数の二次元断層画像を撮影することで、生体の三次元断層画像を取得することも可能である。眼科画像処理装置40は、眼科画像撮影装置1によって取得(撮影)された眼科画像のデータの処理を実行する。 With reference to FIG. 1, a schematic configuration of an ophthalmologic image processing system 100 according to the present embodiment will be described. The ophthalmologic image processing system 100 of this embodiment includes an ophthalmologic image capturing device 1 and an ophthalmologic image processing device 40. The ophthalmologic image capturing apparatus 1 captures a tomographic image of a living body (in this embodiment, the fundus of an eye to be examined). Specifically, the ophthalmological imaging device (OCT device) 1 of this embodiment of the present invention scans measurement light on the tissue of a living body and continuously receives light from the tissue in a first direction. (scan direction) and a second direction (depth direction, which is the direction of the optical axis of the measurement light) intersecting the first direction. In addition, the ophthalmologic image capturing apparatus 1 scans measurement light onto each of a plurality of scan lines within a two-dimensional measurement region of a living body to capture a plurality of two-dimensional tomographic images, thereby obtaining a three-dimensional tomographic image of a living body. It is also possible to acquire images. The ophthalmologic image processing device 40 processes data of ophthalmologic images acquired (photographed) by the ophthalmologic image capturing device 1 .

本実施形態の眼科画像撮影装置1の構成について説明する。眼科画像撮影装置(OCT装置)1は、OCT部10と制御ユニット30を備える。OCT部10は、OCT光源11、カップラー(光分割器)12、測定光学系13、参照光学系20、および受光素子22を備える。 The configuration of the ophthalmologic image capturing apparatus 1 of this embodiment will be explained. The ophthalmologic image capturing apparatus (OCT apparatus) 1 includes an OCT section 10 and a control unit 30. The OCT section 10 includes an OCT light source 11, a coupler (light splitter) 12, a measurement optical system 13, a reference optical system 20, and a light receiving element 22.

OCT光源11は、眼科画像のデータを取得するための光(OCT光)を出射する。カップラー12は、OCT光源11から出射されたOCT光を、測定光と参照光に分割する。また、本実施形態のカップラー12は、組織(本実施形態では被検眼Eの眼底)によって反射された測定光と、参照光学系20によって生成された参照光を合波して干渉させる。つまり、本実施形態のカップラー12は、OCT光を測定光と参照光に分岐する分岐光学素子と、測定光の反射光と参照光を合波する合波光学素子を兼ねる。なお、分岐光学素子および合波光学素子の少なくともいずれかの構成を変更することも可能である。例えば、カップラー以外の素子(例えば、サーキュレータ、ビームスプリッタ等)が使用されてもよい。 The OCT light source 11 emits light (OCT light) for acquiring ophthalmological image data. The coupler 12 splits the OCT light emitted from the OCT light source 11 into measurement light and reference light. Moreover, the coupler 12 of this embodiment combines the measurement light reflected by the tissue (in this embodiment, the fundus of the eye E to be examined) and the reference light generated by the reference optical system 20 and causes them to interfere with each other. That is, the coupler 12 of this embodiment serves both as a branching optical element that branches the OCT light into a measurement light and a reference light, and as a combining optical element that combines the reflected light of the measurement light and the reference light. Note that it is also possible to change the configuration of at least one of the branching optical element and the multiplexing optical element. For example, elements other than couplers (eg, circulators, beam splitters, etc.) may be used.

測定光学系13は、カップラー12によって分割された測定光を被検体に導くと共に、組織によって反射された測定光をカップラー12に戻す。測定光学系13は、走査部(スキャナ)14、照射光学系16、およびフォーカス調整部17を備える。走査部14は、駆動部15によって駆動されることで、測定光の光軸に交差する二次元方向に、スポット状の測定光をスキャン(走査)させることができる。本実施形態では、互いに異なる方向に測定光を偏向させることが可能な2つのガルバノミラーが、走査部14として用いられている。しかし、光を偏向させる別のデバイス(例えば、ポリゴンミラー、レゾナントスキャナ、音響光学素子等の少なくともいずれか)が走査部14として用いられてもよい。照射光学系16は、走査部14よりも光路の下流側(つまり被検体側)に設けられており、測定光を組織に照射する。フォーカス調整部17は、照射光学系16が備える光学部材(例えばレンズ)を測定光の光軸に沿う方向に移動させることで、測定光のフォーカスを調整する。 The measurement optical system 13 guides the measurement light split by the coupler 12 to the subject, and returns the measurement light reflected by the tissue to the coupler 12. The measurement optical system 13 includes a scanning section (scanner) 14, an irradiation optical system 16, and a focus adjustment section 17. The scanning unit 14 is driven by the driving unit 15 and can scan the spot-shaped measurement light in a two-dimensional direction intersecting the optical axis of the measurement light. In this embodiment, two galvanometer mirrors capable of deflecting measurement light in mutually different directions are used as the scanning unit 14. However, another device that deflects light (for example, at least one of a polygon mirror, a resonant scanner, an acousto-optic device, etc.) may be used as the scanning unit 14. The irradiation optical system 16 is provided on the downstream side of the optical path (that is, on the subject side) than the scanning unit 14, and irradiates the tissue with measurement light. The focus adjustment unit 17 adjusts the focus of the measurement light by moving an optical member (for example, a lens) included in the irradiation optical system 16 in a direction along the optical axis of the measurement light.

参照光学系20は、参照光を生成してカップラー12に戻す。本実施形態の参照光学系20は、カップラー12によって分割された参照光を反射光学系(例えば、参照ミラー)によって反射させることで、参照光を生成する。しかし、参照光学系20の構成も変更できる。例えば、参照光学系20は、カップラー12から入射した光を反射させずに透過させて、カップラー12に戻してもよい。参照光学系20は、測定光と参照光の光路長差を変更する光路長差調整部21を備える。本実施形態では、参照ミラーが光軸方向に移動されることで、光路長差が変更される。なお、光路長差を変更するための構成は、測定光学系13の光路中に設けられていてもよい。 Reference optical system 20 generates a reference light and returns it to coupler 12 . The reference optical system 20 of this embodiment generates reference light by reflecting the reference light split by the coupler 12 with a reflective optical system (for example, a reference mirror). However, the configuration of the reference optical system 20 can also be changed. For example, the reference optical system 20 may transmit the light incident from the coupler 12 without reflecting it, and return the light to the coupler 12. The reference optical system 20 includes an optical path length difference adjustment section 21 that changes the optical path length difference between the measurement light and the reference light. In this embodiment, the optical path length difference is changed by moving the reference mirror in the optical axis direction. Note that a configuration for changing the optical path length difference may be provided in the optical path of the measurement optical system 13.

受光素子22は、カップラー12によって生成された測定光と参照光の干渉光を受光することで、干渉信号を検出する。本実施形態では、フーリエドメインOCTの原理が採用されている。フーリエドメインOCTでは、干渉光のスペクトル強度(スペクトル干渉信号)が受光素子22によって検出され、スペクトル強度データに対するフーリエ変換によって複素OCT信号が取得される。フーリエドメインOCTの一例として、Spectral-domain-OCT(SD-OCT)、Swept-source-OCT(SS-OCT)等を採用できる。また、例えば、Time-domain-OCT(TD-OCT)等を採用することも可能である。 The light receiving element 22 detects an interference signal by receiving interference light between the measurement light and the reference light generated by the coupler 12. In this embodiment, the principle of Fourier domain OCT is adopted. In Fourier domain OCT, the spectral intensity of interference light (spectral interference signal) is detected by the light receiving element 22, and a complex OCT signal is obtained by Fourier transform on the spectral intensity data. As an example of Fourier domain OCT, spectral-domain-OCT (SD-OCT), swept-source-OCT (SS-OCT), etc. can be adopted. Furthermore, it is also possible to employ, for example, Time-domain-OCT (TD-OCT).

制御ユニット30は、眼科画像撮影装置1の各種制御を司る。制御ユニット30は、CPU31、RAM32、ROM33、および不揮発性メモリ(NVM)34を備える。CPU31は各種制御を行うコントローラである。RAM32は各種情報を一時的に記憶する。ROM33には、CPU31が実行するプログラム、および各種初期値等が記憶されている。NVM34は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。 The control unit 30 manages various controls of the ophthalmologic image capturing apparatus 1 . The control unit 30 includes a CPU 31, a RAM 32, a ROM 33, and a nonvolatile memory (NVM) 34. The CPU 31 is a controller that performs various controls. The RAM 32 temporarily stores various information. The ROM 33 stores programs executed by the CPU 31 and various initial values. The NVM 34 is a non-transitory storage medium that can retain stored contents even if the power supply is cut off.

制御ユニット30には、モニタ37および操作部38が接続されている。モニタ37は、各種画像を表示する表示部の一例である。操作部38は、ユーザが各種操作指示を眼科画像撮影装置1に入力するために、ユーザによって操作される。操作部38には、例えば、マウス、キーボード、タッチパネル、フットスイッチ等の種々のデバイスを用いることができる。なお、マイクに音が入力されることで各種操作指示が眼科画像撮影装置1に入力されてもよい。 A monitor 37 and an operation section 38 are connected to the control unit 30. The monitor 37 is an example of a display unit that displays various images. The operation unit 38 is operated by the user in order for the user to input various operation instructions to the ophthalmologic image capturing apparatus 1 . Various devices such as a mouse, a keyboard, a touch panel, a foot switch, etc. can be used as the operation unit 38, for example. Note that various operation instructions may be input to the ophthalmologic image capturing apparatus 1 by inputting sound to the microphone.

眼科画像処理装置40の概略構成について説明する。本実施形態では、眼科画像処理装置40としてパーソナルコンピュータ(以下「PC」という)が用いられている。しかし、PC以外のデバイスが眼科画像処理装置として用いられてもよい。例えば、眼科画像撮影装置1自身が、後述する眼科画像処理を実行する眼科画像処理装置として機能してもよい。眼科画像処理装置40は、CPU41、RAM42、ROM43、およびNVM44を備える。CPU41は、各種制御を行うコントローラである。RAM42、ROM43、およびNVM44は、前述のように各種情報を記憶することができる。後述する眼科画像処理(図4参照)を実行するための眼科画像処理プログラムは、NVM44に記憶されていてもよい。また、眼科画像処理装置40には、モニタ47および操作部48が接続されている。モニタ47は、各種画像を表示する表示部の一例である。操作部48は、ユーザが各種操作指示を眼科画像処理装置40に入力するために、ユーザによって操作される。操作部48には、眼科画像撮影装置1の操作部38と同様に、マウス、キーボード、タッチパネル等の種々のデバイスを用いることができる。また、マイク46に音が入力されることで、各種操作指示が眼科画像処理装置40に入力されてもよい。 The schematic configuration of the ophthalmologic image processing device 40 will be described. In this embodiment, a personal computer (hereinafter referred to as "PC") is used as the ophthalmological image processing apparatus 40. However, devices other than PCs may be used as the ophthalmological image processing apparatus. For example, the ophthalmologic image capturing device 1 itself may function as an ophthalmologic image processing device that executes ophthalmologic image processing to be described later. The ophthalmological image processing device 40 includes a CPU 41, a RAM 42, a ROM 43, and an NVM 44. The CPU 41 is a controller that performs various controls. The RAM 42, ROM 43, and NVM 44 can store various information as described above. An ophthalmologic image processing program for executing ophthalmologic image processing (see FIG. 4), which will be described later, may be stored in the NVM 44. Further, a monitor 47 and an operation unit 48 are connected to the ophthalmological image processing device 40. The monitor 47 is an example of a display unit that displays various images. The operation unit 48 is operated by the user in order for the user to input various operation instructions to the ophthalmological image processing apparatus 40. As with the operation section 38 of the ophthalmologic image capturing apparatus 1, various devices such as a mouse, a keyboard, and a touch panel can be used for the operation section 48. Further, various operation instructions may be input to the ophthalmological image processing device 40 by inputting sound to the microphone 46 .

眼科画像処理装置40は、眼科画像撮影装置1から各種データ(例えば、眼科画像撮影装置1によって撮影された眼科画像のデータ等)を取得することができる。各種データは、例えば、有線通信、無線通信、および着脱可能な記憶装置(例えばUSBメモリ)等の少なくともいずれかによって取得されればよい。 The ophthalmologic image processing device 40 can acquire various data from the ophthalmologic image capture device 1 (for example, data of an ophthalmologic image captured by the ophthalmologic image capture device 1). The various data may be acquired by at least one of wired communication, wireless communication, and a removable storage device (eg, USB memory), for example.

図2および図3を参照して、本実施形態の眼科画像処理装置40が処理を行う対象とする眼科画像の撮影方法、および、眼科画像の構成の一例について説明する。なお、本実施形態では、二次元断層画像のデータを処理して記憶装置(例えばNVM44等)に保存させる場合を例示する。しかし、本開示で例示する技術は、三次元断層画像のデータを処理して記憶装置に保存させる場合にも適用できる。 With reference to FIGS. 2 and 3, a method of photographing an ophthalmologic image to be processed by the ophthalmologic image processing apparatus 40 of this embodiment and an example of the structure of the ophthalmologic image will be described. In this embodiment, a case will be exemplified in which two-dimensional tomographic image data is processed and stored in a storage device (for example, NVM 44, etc.). However, the techniques exemplified in this disclosure can also be applied to the case where three-dimensional tomographic image data is processed and stored in a storage device.

図2に示すように、本実施形態の眼科画像撮影装置1は、生体の組織50(図2に示す例では、眼底組織)上で、スポット状の光(測定光)をスキャンする。詳細には、本実施形態の眼科画像撮影装置1は、組織50上で所定の方向に延びるスキャンライン52上で光をスキャンすることで、光の光軸に沿うZ方向と、Z方向に交差(本実施形態では垂直に交差)するX方向とに広がる眼科画像(二次元断層画像)61(図3参照)を撮影する。 As shown in FIG. 2, the ophthalmological image capturing apparatus 1 of this embodiment scans a spot-shaped light (measuring light) on a tissue 50 of a living body (in the example shown in FIG. 2, fundus tissue). Specifically, the ophthalmological image capturing apparatus 1 of the present embodiment scans light on a scan line 52 extending in a predetermined direction on the tissue 50, thereby scanning the Z direction along the optical axis of the light and the Z direction intersecting the Z direction. An ophthalmologic image (two-dimensional tomographic image) 61 (see FIG. 3) that extends in the X direction (which intersects perpendicularly in this embodiment) is photographed.

図3に示すように、本実施形態では、スポット状の測定光が組織上でスキャンされる方向(「Bスキャン方向」という)を、X方向とする。また、測定光の光軸に沿う組織50の深さ方向(つまり、X方向に垂直に交差する方向。「Aスキャン方向」という。)を、Z方向とする。眼科画像61は、生体の組織のうち、複数の層が積層された層構造を撮影した断層画像である。詳細には、本実施形態の眼科画像61には、被検眼の眼底組織の層構造が写る。前述したように、眼科画像撮影装置1は、眼底の組織に対して正面側から照射する測定光を、X方向にスキャンすることで、X方向(Bスキャン方向)とZ方向(Aスキャン方向)に広がる二次元の眼科画像61を撮影する。従って、眼科画像61内に写る層構造内の層の全体は、Z方向(Aスキャン方向)に交差する。 As shown in FIG. 3, in this embodiment, the direction in which the spot-shaped measurement light scans the tissue (referred to as the "B-scan direction") is the X direction. Further, the depth direction of the tissue 50 along the optical axis of the measurement light (that is, the direction perpendicularly intersecting the X direction; referred to as the "A scan direction") is defined as the Z direction. The ophthalmological image 61 is a tomographic image of a layered structure of a plurality of layers of a living body's tissue. Specifically, the ophthalmological image 61 of this embodiment shows the layer structure of the fundus tissue of the eye to be examined. As described above, the ophthalmological image capturing apparatus 1 scans the measurement light that is irradiated from the front side onto the tissue of the fundus in the X direction, so that the measurement light can be scanned in the X direction (B scan direction) and in the Z direction (A scan direction). A two-dimensional ophthalmologic image 61 is captured. Therefore, all of the layers in the layered structure shown in the ophthalmological image 61 intersect in the Z direction (A-scan direction).

本実施形態の眼科画像61は、Z方向(Aスキャン方向)に延びる長尺状のAスキャン画像(つまり、測定光の光軸の沿うZ方向に延びる画素列)が、所定のX方向(Z方向に交差する方向)に複数配列されることで構成される。複数のAスキャン画像は、眼科画像61に写る層構造の層に交差する方向に延びる。詳細は後述するが、本実施形態では、複数のAスキャン画像の各々が、保存対象とする画像を抽出する単位である部分画像として取り扱われる。 In the ophthalmological image 61 of this embodiment, a long A-scan image (that is, a pixel row extending in the Z direction along the optical axis of measurement light) extending in the Z direction (A-scan direction) is It is composed of multiple arrays arranged in a direction (crossing the direction). The plurality of A-scan images extend in a direction intersecting the layers of the layered structure shown in the ophthalmological image 61. Although details will be described later, in this embodiment, each of the plurality of A-scan images is treated as a partial image, which is a unit from which images to be saved are extracted.

図4から図8を参照して、本実施形態における眼科画像処理について説明する。なお、本実施形態では、PCである眼科画像処理装置40が眼科画像撮影装置1から眼科画像61のデータ(以下、単に「眼科画像61」という場合もある)を取得し、取得した眼科画像61のデータを処理して記憶装置に記憶させる。しかし、前述したように、他のデバイスが眼科画像処理装置として機能してもよい。例えば、眼科画像撮影装置1自身が眼科画像処理を実行してもよい。また、複数の制御部(例えば、眼科画像撮影装置1のCPU31と、眼科画像処理装置40のCPU41)が協働して眼科画像処理を実行してもよい。眼科画像処理装置40のCPU41は、NVM44に記憶された眼科画像処理プログラムに従って、図4に示す眼科画像処理を実行する。 Ophthalmological image processing in this embodiment will be described with reference to FIGS. 4 to 8. In this embodiment, the ophthalmological image processing device 40, which is a PC, acquires the data of the ophthalmological image 61 (hereinafter sometimes simply referred to as "the ophthalmological image 61") from the ophthalmological image capturing device 1, and the acquired ophthalmological image 61. The data is processed and stored in the storage device. However, as mentioned above, other devices may function as the ophthalmic image processing apparatus. For example, the ophthalmologic image capturing apparatus 1 itself may perform ophthalmologic image processing. Further, a plurality of control units (for example, the CPU 31 of the ophthalmologic image capturing device 1 and the CPU 41 of the ophthalmologic image processing device 40) may cooperate to execute the ophthalmologic image processing. The CPU 41 of the ophthalmology image processing device 40 executes the ophthalmology image processing shown in FIG. 4 according to the ophthalmology image processing program stored in the NVM 44.

まず、CPU41は、被検眼の組織(本実施形態では眼底の網膜組織)の眼科画像61を取得する(S1)。図3および図5に例示するように、本実施形態の眼科画像61には、眼底の網膜組織における層構造が写っている。 First, the CPU 41 acquires an ophthalmologic image 61 of the tissue of the subject's eye (in this embodiment, the retinal tissue of the fundus) (S1). As illustrated in FIGS. 3 and 5, the ophthalmological image 61 of this embodiment shows the layer structure of the retinal tissue of the fundus of the eye.

CPU41は、S1で取得された眼科画像61から、組織の像が写る一部の領域(像領域)を事前に抽出する(S2)。図5に示すように、本実施形態の眼科画像撮影装置1は、網膜組織の最も深層側の端部(図5の眼科画像61における像の下端部)よりもさらに深層側まで、高深度で組織を撮影することができる。しかし、眼科画像61を診断等に利用する場合、網膜組織を観察できれば十分な場合が多い。従って、本実施形態では、CPU41は、S1で取得された眼科画像61のうち、組織の像が写る像領域(図5の眼科画像61において点線の枠内に示す領域)を特定し、検出した像領域を含む眼科画像62を、S1で取得された眼科画像61から事前に抽出する。その結果、以後に実行される各種処理(例えば、S3で基準部位を特定する処理等)の処理量、および、処理対象となる画像データのデータ量が低下する。 The CPU 41 extracts in advance a part of the region (image region) in which the tissue image is captured from the ophthalmological image 61 acquired in S1 (S2). As shown in FIG. 5, the ophthalmological image capturing apparatus 1 according to the present embodiment can capture images at a high depth even deeper than the end of the deepest layer of the retinal tissue (the lower end of the image in the ophthalmological image 61 of FIG. 5). Tissues can be photographed. However, when using the ophthalmological image 61 for diagnosis or the like, it is often sufficient to be able to observe the retinal tissue. Therefore, in the present embodiment, the CPU 41 identifies and detects an image area in which an image of the tissue is shown (the area shown within the dotted line frame in the ophthalmological image 61 in FIG. 5) in the ophthalmological image 61 acquired in S1. An ophthalmologic image 62 including an image region is extracted in advance from the ophthalmologic image 61 acquired in S1. As a result, the amount of processing of various processes to be executed thereafter (for example, the process of specifying the reference region in S3) and the amount of image data to be processed are reduced.

眼科画像61内の像領域を特定する方法は、適宜選択できる。例えば、CPU41は、眼科画像61に対して公知の画像処理を行うことで、像領域を特定してもよい。また、眼科画像61内の像領域を特定するように機械学習アルゴリズムによって予め訓練された数学モデルが用いられてもよい。この場合、CPU41は、数学モデルに眼科画像61を入力することで、数学モデルによって出力される像領域の特定結果を取得してもよい。なお、S2の処理を省略することも可能である。 The method of specifying the image area within the ophthalmologic image 61 can be selected as appropriate. For example, the CPU 41 may specify the image area by performing known image processing on the ophthalmological image 61. Additionally, a mathematical model previously trained by a machine learning algorithm to identify image regions within the ophthalmological image 61 may be used. In this case, the CPU 41 may input the ophthalmological image 61 into the mathematical model to obtain the identification result of the image area output by the mathematical model. Note that it is also possible to omit the process of S2.

次いで、CPU41は、S1で取得された眼科画像61に写る組織内の複数の部位のうち、少なくともいずれかの部位を、基準部位として特定する(S3)。詳細は後述するが、基準部位は、S1で取得された眼科画像61(本実施形態では、眼科画像61から像領域が抽出された眼科画像62)から、保存対象範囲内の画像を抽出するための基準となる。 Next, the CPU 41 identifies at least one site as a reference site among the plurality of sites within the tissue captured in the ophthalmological image 61 acquired in S1 (S3). Although details will be described later, the reference region is used to extract images within the storage target range from the ophthalmological image 61 acquired in S1 (in this embodiment, the ophthalmological image 62 from which the image area has been extracted from the ophthalmological image 61). becomes the standard.

図6に示すように、眼科画像62には、被検眼の組織のうち、複数の層が積層された層構造が写っている。本実施形態のS3では、眼科画像62に写る層構造に含まれる複数の層、および層の境界のうちの少なくともいずれかが、基準部位RSとして特定される。層構造に含まれる各々の層・境界は、層構造の全体の形状に沿う形状となり易い。従って、層構造が平坦でない場合(例えば、層構造が湾曲している場合等)であっても、後述するS6、S7で層・境界を基準部位RSとして抽出画像が抽出されることで、層構造の形状に応じた適切な範囲の画像が保存され易くなる。 As shown in FIG. 6, the ophthalmological image 62 shows a layer structure in which a plurality of layers are laminated among the tissues of the eye to be examined. In S3 of the present embodiment, at least one of a plurality of layers included in the layer structure shown in the ophthalmologic image 62 and a layer boundary is specified as the reference site RS. Each layer/boundary included in the layered structure tends to have a shape that follows the overall shape of the layered structure. Therefore, even if the layer structure is not flat (for example, if the layer structure is curved), the layer/boundary is used as the reference region RS to extract the extraction image in S6 and S7, which will be described later. Images in an appropriate range depending on the shape of the structure can be easily saved.

詳細には、本実施形態のS3では、眼科画像62に写る層構造のうち、最も表層側(図6における上端)の境界または層(本実施形態では網膜表層)が、基準部位RSとして特定される。層構造の最も表層側は、層構造が存在する領域と、層構造が存在しない領域の境界となる。従って、層構造の最も表層側の層・境界を基準部位RSとすることで、層構造を含む画像が、より適切に抽出され易くなる。 Specifically, in S3 of this embodiment, the boundary or layer (the retinal surface layer in this embodiment) on the most superficial side (the upper end in FIG. 6) of the layer structure shown in the ophthalmological image 62 is identified as the reference site RS. Ru. The most superficial side of the layered structure is the boundary between the area where the layered structure exists and the area where the layered structure does not exist. Therefore, by setting the layer/boundary on the most superficial side of the layer structure as the reference region RS, it becomes easier to extract an image including the layer structure more appropriately.

なお、本実施形態のS3では、CPU41は、眼科画像62に対して公知の画像処理(例えばエッジ検出等)を行うことで、眼科画像62内の基準部位RSを特定する。しかし、基準部位RSを特定する方法を変更することも可能である。例えば、CPU41は、機械学習アルゴリズムによって訓練された数学モデルに眼科画像62を入力することで、数学モデルによって出力される基準部位RSの特定結果を取得してもよい。 Note that in S3 of the present embodiment, the CPU 41 specifies the reference site RS in the ophthalmological image 62 by performing known image processing (for example, edge detection, etc.) on the ophthalmological image 62. However, it is also possible to change the method of specifying the reference site RS. For example, the CPU 41 may input the ophthalmological image 62 to a mathematical model trained by a machine learning algorithm, thereby obtaining the identification result of the reference site RS output by the mathematical model.

次いで、CPU41は、眼科画像62内の基準部位RSの特定結果が欠落した箇所が存在する場合に、他の箇所(特定結果が正常に取得された箇所)の基準部位RSの特定結果に基づいて、欠落箇所における基準部位RSの特定結果を補完する(S4)。その結果、S3で基準部位RSの一部が特定されなかった場合でも、後述するS6,S7において、保存範囲内の画像が、基準部位RSを基準として適切に抽出される。一例として、本実施形態のS4では、欠落箇所に隣接する箇所(例えば、欠落箇所が含まれるAスキャン画像に隣接するAスキャン画像)における基準部位RSの特定結果に基づいて、欠落箇所の特定結果を補完する。詳細には、CPU41は、欠落箇所が含まれるAスキャン画像(連続した複数のAスキャン画像でもよい)の一方の側に隣接するAスキャン画像の特定位置と、他方の側に隣接するAスキャン画像の特定位置の間の位置を、欠落箇所における基準部位RSの位置として補完する。ただし、補間の方法を変更することも可能である。 Next, when there is a part in the ophthalmological image 62 where the identification result of the reference part RS is missing, the CPU 41 performs the identification based on the identification result of the reference part RS of another part (the part where the identification result was normally acquired). , complement the identification results of the reference region RS at the missing location (S4). As a result, even if a part of the reference region RS is not specified in S3, images within the storage range are appropriately extracted using the reference region RS as a reference in S6 and S7, which will be described later. As an example, in S4 of the present embodiment, the identification result of the missing part is based on the identification result of the reference region RS in a part adjacent to the missing part (for example, an A-scan image adjacent to an A-scan image that includes the missing part). complement. Specifically, the CPU 41 determines the specific position of the A-scan image adjacent to one side of the A-scan image (which may be a plurality of consecutive A-scan images) including the missing portion, and the A-scan image adjacent to the other side. The position between the specific positions is complemented as the position of the reference part RS in the missing part. However, it is also possible to change the interpolation method.

次いで、CPU41は、眼科画像62内で所定の方向に配列された複数の部分画像70のうち、N番目(Nの初期値は「1」)の部分画像70の抽出対象範囲を、基準部位RSに基づいて特定する(S6)。図6に示すように、複数の部分画像70は、眼科画像62内で所定の方向に連続して配列されている。本実施形態では、複数の部分画像70の各々は、眼科画像62に写る層構造内の層に交差する方向(本実施形態ではZ方向)に延びる長尺状の画像であり、部分画像70が延びる方向に交差する方向(本実施形態ではX方向)に連続して配列されている。従って、基準部位とされる層・境界(本実施形態では、最も表層側の層・境界)が、各々の部分画像70内で特定され易くなる。前述したように、本実施形態では、複数の部分画像70は、OCT測定光の光軸に沿う方向に延びるAスキャン画像である。 Next, the CPU 41 selects the extraction target range of the Nth partial image 70 (the initial value of N is "1") from among the plurality of partial images 70 arranged in a predetermined direction within the ophthalmological image 62, based on the reference region RS. (S6). As shown in FIG. 6, the plurality of partial images 70 are consecutively arranged in a predetermined direction within the ophthalmological image 62. In the present embodiment, each of the plurality of partial images 70 is an elongated image extending in a direction (in the present embodiment, the Z direction) intersecting the layers in the layered structure shown in the ophthalmological image 62. They are continuously arranged in a direction (X direction in this embodiment) that intersects with the extending direction. Therefore, the layer/boundary (in this embodiment, the layer/boundary closest to the surface layer) that is the reference region can be easily identified within each partial image 70. As described above, in this embodiment, the plurality of partial images 70 are A-scan images extending in the direction along the optical axis of the OCT measurement light.

各々の部分画像70の抽出対象範囲を基準部位RSに基づいて特定する方法の一例について、詳細に説明する。本実施形態では、CPU41は、眼科画像62の層構造における最も表層側の基準部位RSから、層構造の深層側(図6に示す例では、+Z方向である図面下側)に向けて所定の範囲を、抽出対象範囲に含める。つまり、CPU41は、Z方向に延びる部分画像70のうち、基準部位RSのZ座標に対して深層側(+Z方向)へのオフセット量(+ofset1)を加えた位置を、部分画像70における抽出対象範囲の深層側端部DEとして特定する。その結果、層構造のうち、最も表層側の基準部位RSから深層側の範囲がその後に抽出されるので、層構造のうち極力広い範囲が抽出され易くなる。 An example of a method for specifying the extraction target range of each partial image 70 based on the reference region RS will be described in detail. In the present embodiment, the CPU 41 moves from the reference region RS on the most superficial side in the layered structure of the ophthalmological image 62 toward the deeper side of the layered structure (in the example shown in FIG. 6, the lower side of the drawing which is the +Z direction). Include the range in the extraction target range. In other words, the CPU 41 determines the extraction target range in the partial image 70 by adding the offset amount (+offset1) toward the deeper side (+Z direction) to the Z coordinate of the reference region RS in the partial image 70 extending in the Z direction. It is specified as the deep end DE. As a result, the range from the reference site RS on the most superficial side to the deepest layer of the layered structure is subsequently extracted, so that it is easier to extract as wide a range as possible of the layered structure.

さらに、CPU41は、眼科画像62の層構造における最も表層側の基準部位RSから、層構造の深層側とは反対側である手前側(図6に示す例では、-Z方向である図面上側)に向けて所定の範囲を、抽出対象範囲に含める。つまり、CPU41は、Z方向に延びる部分画像70のうち、基準部位RSのZ座標に対して手前側(+Z方向)へのオフセット量(-ofset2)を加えた位置を、部分画像70における抽出対象範囲の手前側端部SEとして特定する。その結果、例えば、最も表層側の基準部位RSの特定精度が低下してしまっても、層構造の表層側の組織の画像が適切に抽出され易くなる。また、種々の影響(例えば疾患等の影響)で、最も表層側の層・境界よりも表面側に何らかの物体が写り込んでいても、表面側に写り込んだ物体も抽出され易くなる。 Further, the CPU 41 moves from the reference site RS on the most superficial side in the layer structure of the ophthalmological image 62 to the near side, which is the side opposite to the deep layer side of the layer structure (in the example shown in FIG. 6, the upper side of the drawing, which is the -Z direction). A predetermined range is included in the extraction target range. In other words, the CPU 41 determines, in the partial image 70 extending in the Z direction, a position obtained by adding an offset amount (-offset2) toward the front side (+Z direction) to the Z coordinate of the reference region RS, as the extraction target in the partial image 70. It is specified as the near end SE of the range. As a result, for example, even if the identification accuracy of the reference site RS on the most superficial side is reduced, it becomes easier to appropriately extract an image of the tissue on the superficial side of the layered structure. Further, even if some object is reflected on the surface side rather than the most superficial layer/boundary due to various influences (for example, the influence of a disease, etc.), the object reflected on the surface side is also likely to be extracted.

なお、本実施形態では、CPU41は、深層側へのオフセット量(+ofset1)および手前側へのオフセット量(-ofset2)を、ユーザによって入力された指示に応じて設定する。従って、ユーザは、被検眼の層構造のうち、所望の範囲の画像のデータを、効率良く適切に保存させることができる。また、CPU41は、眼科画像61の撮影条件(例えば、撮影倍率、撮影画角、撮影深度等の少なくともいずれか)に応じて、2つのオフセット量少なくとも一方を調整してもよい。この場合、撮影条件に応じた適切な範囲の画像のデータが抽出される。また、2つのオフセット量の少なくとも一方は、予め定められた固定値であってもよい。 In the present embodiment, the CPU 41 sets the offset amount toward the deep side (+offset1) and the offset amount toward the near side (-offset2) according to instructions input by the user. Therefore, the user can efficiently and appropriately save image data of a desired range of the layer structure of the eye to be examined. Further, the CPU 41 may adjust at least one of the two offset amounts depending on the photographing conditions of the ophthalmological image 61 (for example, at least one of photographing magnification, photographing angle of view, photographing depth, etc.). In this case, image data in an appropriate range according to the shooting conditions is extracted. Furthermore, at least one of the two offset amounts may be a predetermined fixed value.

次いで、CPU41は、N番目の部分画像70から、抽出対象範囲内の画像(抽出画像80)のデータを抽出する(S7)。図6に示すように、各々の部分画像70から抽出された抽出画像80では、基準部位RSを基準とする適切な範囲が含まれやすく、不要な範囲は除外されやすい。 Next, the CPU 41 extracts the data of the image (extracted image 80) within the extraction target range from the Nth partial image 70 (S7). As shown in FIG. 6, the extracted image 80 extracted from each partial image 70 tends to include an appropriate range based on the reference region RS, and tends to exclude unnecessary ranges.

図7は、複数の部分画像70の各々から抽出された複数の抽出画像80を、各々の位置を考慮せずにX方向(つまり、複数の部分画像70の配列方向)に並べた参考画像80Aを示す。図7に示すように、複数の抽出画像80の集合である参考画像80Aでは、特定された基準部位RSを基準として、組織(本実施形態では層構造)の適切な範囲が含まれている。さらに、眼科画像61,62に比べて画像のデータ量が小さくなっていることが分かる。つまり、参考画像80Aでは、眼科画像61,62から層構造以外の領域の少なくとも一部が消去され、且つ、層構造の湾曲が平坦化されている。層構造以外の領域の少なくとも一部が消去されることで、画像のデータ量が適切に減少し、且つ、位置情報によって再現される層の湾曲情報が除かれて層構造が平坦となっている。図7に示す参考画像80Aでは、図5に示す眼科画像62から、図8に示す再構築画像データ90(詳細は後述する)における背景分(図8では白の部分)が消去されたうえで、湾曲が平坦化されている。 FIG. 7 shows a reference image 80A in which a plurality of extracted images 80 extracted from each of a plurality of partial images 70 are arranged in the X direction (that is, the arrangement direction of the plurality of partial images 70) without considering the respective positions. shows. As shown in FIG. 7, the reference image 80A, which is a set of a plurality of extracted images 80, includes an appropriate range of tissue (layered structure in this embodiment) based on the specified reference site RS. Furthermore, it can be seen that the amount of image data is smaller than the ophthalmological images 61 and 62. That is, in the reference image 80A, at least a portion of the area other than the layer structure is erased from the ophthalmological images 61 and 62, and the curvature of the layer structure is flattened. By erasing at least part of the area other than the layer structure, the amount of image data is appropriately reduced, and the layer structure is made flat by removing the layer curvature information reproduced by position information. . In the reference image 80A shown in FIG. 7, the background portion (white portion in FIG. 8) in the reconstructed image data 90 shown in FIG. 8 (details will be described later) is deleted from the ophthalmological image 62 shown in FIG. , the curvature is flattened.

また、本実施形態の抽出画像80は、層構造の厚みが維持された状態で眼科画像62から抽出される。従って、詳細は後述するが、各々の抽出画像80が位置情報に基づいて再構築されることで、元の眼科画像62における層構造が、厚みが維持された状態で適切に再構築される。 Furthermore, the extracted image 80 of this embodiment is extracted from the ophthalmological image 62 with the thickness of the layer structure maintained. Therefore, although details will be described later, by reconstructing each extracted image 80 based on position information, the layer structure in the original ophthalmological image 62 is appropriately reconstructed while maintaining the thickness.

CPU41は、N番目の抽出画像80(つまり、N番目の部分画像70から抽出された抽出画像80)の位置を示す位置情報を取得する(S8)。位置情報には、種々の情報を利用できる。例えば、N番目の部分画像70における基準部位RSの位置、抽出対象範囲の深層側端部DEの位置、および手前側端部SEの位置の少なくともいずれかの座標情報が、N番目の抽出画像80の位置情報として取得されてもよい。 The CPU 41 acquires position information indicating the position of the Nth extracted image 80 (that is, the extracted image 80 extracted from the Nth partial image 70) (S8). Various types of information can be used as location information. For example, the coordinate information of at least one of the position of the reference region RS, the position of the deep side end DE of the extraction target range, and the position of the near side end SE in the Nth partial image 70 is It may also be acquired as location information.

CPU41は、N番目の部分画像70から抽出された抽出画像80のデータと、N番目の抽出画像80の位置を示す位置情報を、記憶手段(例えばNVM44等)に記憶させる(S9)。なお、CPU41は、抽出画像80のデータを圧縮せずに、または、層構造を含む画像を復号後に再現可能な可逆圧縮が行われたうえで、記憶手段に保存される。次いで、CPU41は、眼科画像62内の全ての部分画像70についての処理が完了したか否かを判断する(S10)。一部の部分画像70についての処理が未だ完了していなければ(S10:NO)、部分画像70の順番を示すカウンタNに「1」が加算されて(S11)、処理はS6へ戻り、S6~10の処理が繰り返される。全ての部分画像70についての処理が完了すると、抽出画像80と位置情報を保存するための処理は終了する。 The CPU 41 stores the data of the extracted image 80 extracted from the N-th partial image 70 and the position information indicating the position of the N-th extracted image 80 in the storage means (for example, NVM 44, etc.) (S9). Note that the CPU 41 stores the data of the extracted image 80 in the storage means without compressing the data, or after performing reversible compression that can be reproduced after decoding the image including the layered structure. Next, the CPU 41 determines whether processing has been completed for all partial images 70 within the ophthalmologic image 62 (S10). If the processing for some of the partial images 70 has not yet been completed (S10: NO), "1" is added to the counter N indicating the order of the partial images 70 (S11), and the process returns to S6. -10 processes are repeated. When the processing for all partial images 70 is completed, the processing for saving the extracted image 80 and position information ends.

図8を参照して、保存された抽出画像80と位置情報に基づいて画像を再構築する画像再構築処理について説明する。眼科画像処理装置40のCPU41は、NVM44に記憶された眼科画像処理プログラムに従って画像再構築処理を実行する。 Referring to FIG. 8, an image reconstruction process for reconstructing an image based on the saved extracted image 80 and position information will be described. The CPU 41 of the ophthalmological image processing device 40 executes image reconstruction processing according to the ophthalmological image processing program stored in the NVM 44.

CPU41は、画像を再構築する対象のデータがユーザによって指定されると、記憶手段に記憶されている複数のデータのうち、ユーザによって指定されたデータ(複数の抽出画像80のデータと、各々の抽出画像80の位置情報)を取得する。CPU41は、複数の抽出画像80のデータを、各々の位置情報に基づいて配置することで、抽出された領域の画像が再構築された再構築画像データ90を生成する。図8に示すように、再構築画像データ90では、眼科画像61,62から抽出された領域が適切に再構築されている。 When data for which an image is to be reconstructed is specified by the user, the CPU 41 selects the data specified by the user (data of the plurality of extracted images 80 and each position information of the extracted image 80). The CPU 41 generates reconstructed image data 90 in which the image of the extracted area is reconstructed by arranging the data of the plurality of extracted images 80 based on the respective position information. As shown in FIG. 8, in the reconstructed image data 90, the regions extracted from the ophthalmological images 61 and 62 are appropriately reconstructed.

なお、再構築画像データ90では、抽出画像80として抽出されなかった領域の情報が欠落している。CPU41は、再構築画像データ90に対して、情報が欠落している背景領域の画素情報を補完することで、背景補完画像データ91を生成することも可能である。図8に示すように、背景補完画像データ91は、背景として黒の画素情報が補完されることで、実際に撮影された眼科画像61,62にさらに近い画像となっている。 Note that the reconstructed image data 90 lacks information on areas that were not extracted as the extracted image 80. The CPU 41 can also generate background supplemented image data 91 by supplementing the reconstructed image data 90 with pixel information of a background region where information is missing. As shown in FIG. 8, the background supplemented image data 91 is an image that is even closer to the actually photographed ophthalmological images 61 and 62 by supplementing black pixel information as the background.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示した複数の処理のうちの一部を省略することも可能である。例えば、像領域を事前に抽出する処理(S2)を省略してもよい。また、基準部位RSの特定結果の欠落箇所を補完する処理(SS4)も、省略可能である。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. First, it is also possible to omit some of the plurality of processes exemplified in the above embodiment. For example, the process (S2) of extracting the image area in advance may be omitted. Furthermore, the process (SS4) of supplementing the missing portions of the identification results of the reference region RS can also be omitted.

上記実施形態では、眼科画像62に写る層構造のうち、最も表層側の層・境界が、基準部位RSとされる。しかし、基準部位を変更することも可能である。例えば、眼科画像62に写る組織が眼底の網膜組織である場合、最も表層側の網膜表層よりも深層側に位置する層・境界(例えば、神経節細胞層、内網状層、内顆粒層、外網状層、外境界膜、視細胞内節外節接合部、網膜色素上皮、ブルッフ膜、脈絡膜等、および、これらの境界)の少なくともいずれかが、基準部位とされてもよい。例えば、眼科画像62に写る層構造のうち、より明確に写り易い層・構造が基準部位とされることで、基準部位の特定精度が向上し、より適切に画像が抽出・保存される場合もある。 In the embodiment described above, of the layer structure shown in the ophthalmological image 62, the layer/boundary on the most superficial side is set as the reference site RS. However, it is also possible to change the reference site. For example, if the tissue shown in the ophthalmological image 62 is the retinal tissue of the fundus, layers/boundaries located deeper than the most superficial retinal surface layer (for example, ganglion cell layer, inner plexiform layer, inner nuclear layer, outer nuclear layer, At least one of the following (reticular layer, external limiting membrane, photoreceptor inner segment/outer segment junction, retinal pigment epithelium, Bruch's membrane, choroid, etc., and their boundaries) may be used as the reference site. For example, among the layer structures that appear in the ophthalmological image 62, by setting the layer/structure that is more clearly visible as the reference region, the accuracy of identifying the reference region may be improved, and the image may be extracted and saved more appropriately. be.

また、眼科画像62に写る層構造のうち、基準部位として特定する層・境界を、種々の条件に応じて変更してもよい。例えば、組織の位置に応じて、眼科画像への写り易さが変化する層・境界も存在する。従って、眼科画像に写る組織の位置に応じて、基準部位として特定する層・境界を変えてもよい。 Further, among the layer structures shown in the ophthalmological image 62, the layers and boundaries specified as reference parts may be changed according to various conditions. For example, there are layers and boundaries whose visibility in ophthalmological images changes depending on the position of the tissue. Therefore, the layer/boundary specified as the reference site may be changed depending on the position of the tissue shown in the ophthalmological image.

また、CPU41は、眼科画像62に写る複数の層・境界のうちの複数を、基準部位として特定してもよい。この場合、CPU41は、特定した複数の基準部位のうち、1つの基準部位(例えば、最も表層側の層・境界)と、他の基準部位(例えば、層構造の深層側に位置する層・境界)に囲まれる範囲を抽出対象範囲として、複数の部分画像の各々から抽出画像を抽出してもよい。その結果、眼科画像62に写る層構造のうち、特定の範囲内の画像のデータが、適切に抽出されて保存される。 Further, the CPU 41 may specify a plurality of layers/boundaries shown in the ophthalmological image 62 as reference parts. In this case, the CPU 41 selects one reference part (for example, the layer/boundary on the most superficial side) and another reference part (for example, the layer/boundary located on the deeper side of the layer structure) among the plurality of reference parts identified. ) may be set as the extraction target range, and an extraction image may be extracted from each of the plurality of partial images. As a result, data of an image within a specific range of the layered structure shown in the ophthalmological image 62 is appropriately extracted and saved.

また、眼科画像に写る複数の部位のうち、層・境界以外の部位を基準部位とすることも可能である。例えば、眼科画像に写る疾患部位を基準部位として特定し、特定した基準部位を基準として抽出画像が抽出されてもよい。この場合、疾患部位に応じて適切に抽出画像が抽出され、保存される。また、眼科画像に写る血管部位等、が基準部位として特定されてもよい。 Moreover, it is also possible to use a part other than the layer/boundary as the reference part among the plurality of parts shown in the ophthalmological image. For example, a diseased site appearing in an ophthalmologic image may be specified as a reference site, and an extraction image may be extracted using the specified reference site as a reference. In this case, an extracted image is appropriately extracted and saved according to the disease site. Further, a blood vessel site or the like that appears in an ophthalmologic image may be specified as the reference site.

なお、図4のS1で眼科画像を取得する処理は、「画像取得ステップ」の一例である。図4のS3で基準部位RSを特定する処理は、「基準部位特定ステップ」の一例である。図4のS6,S7で部分画像70から抽出対象範囲内の画像のデータを抽出する処理は、「抽出ステップ」の一例である。図4のS8で抽出画像80の位置情報を取得する処理は、「位置情報取得ステップ」の一例である。図4のS9で抽出画像80のデータと位置情報を保存する処理は、「保存ステップ」の一例である。図4のS4で基準部位RSの特定結果を補完する処理は、「補完ステップ」の一例である。図8に示す画像を再構築する処理は、「画像再構築ステップ」の一例である。 Note that the process of acquiring an ophthalmologic image in S1 in FIG. 4 is an example of an "image acquisition step." The process of specifying the reference part RS in S3 of FIG. 4 is an example of a "reference part specifying step." The process of extracting image data within the extraction target range from the partial image 70 in S6 and S7 of FIG. 4 is an example of an "extraction step." The process of acquiring the position information of the extracted image 80 in S8 of FIG. 4 is an example of a "position information acquisition step." The process of saving the data and position information of the extracted image 80 in S9 of FIG. 4 is an example of a "save step." The process of complementing the identification result of the reference region RS in S4 of FIG. 4 is an example of a "completion step." The process of reconstructing the image shown in FIG. 8 is an example of an "image reconstruction step."

1 眼科画像撮影装置
40 眼科画像処理装置
41 CPU
44 NVM
61,62 眼科画像
70 部分画像
80 抽出画像
90 再構築画像データ
91 背景補完画像データ
RS 基準部位
1 Ophthalmology image capturing device 40 Ophthalmology image processing device 41 CPU
44 NVM
61, 62 Ophthalmological image 70 Partial image 80 Extracted image 90 Reconstructed image data 91 Background complemented image data RS Reference site

Claims (12)

被検眼の組織の断層画像である眼科画像のデータを処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、
前記眼科画像内で所定の方向に配列された複数の部分画像の各々から、データを保存する対象範囲内の画像のデータを抽出する抽出ステップと、
前記抽出ステップにおいて前記複数の部分画像の各々から抽出された、複数の抽出画像の各々の位置を示す位置情報を取得する位置情報取得ステップと、
前記複数の抽出画像のデータと、前記複数の抽出画像の各々の位置情報を、記憶手段に保存させる保存ステップと、
を実行することを特徴とする眼科画像処理装置。
An ophthalmological image processing device that processes data of an ophthalmological image that is a tomographic image of a tissue of an eye to be examined,
The control unit of the ophthalmological image processing device includes:
an image acquisition step of acquiring an ophthalmological image taken by an ophthalmological image capturing device;
an extraction step of extracting data of an image within a target range for storing data from each of a plurality of partial images arranged in a predetermined direction within the ophthalmological image;
a position information acquisition step of acquiring position information indicating the position of each of the plurality of extracted images extracted from each of the plurality of partial images in the extraction step;
a storing step of storing data of the plurality of extracted images and position information of each of the plurality of extracted images in a storage means;
An ophthalmological image processing device characterized by performing the following.
請求項1に記載の眼科画像処理装置であって、
前記制御部は、
前記眼科画像に写る組織内の複数の部位のうち、少なくともいずれかの部位を、基準部位として特定する基準部位特定ステップをさらに実行し、
前記抽出ステップでは、前記眼科画像内で所定の方向に配列された前記複数の部分画像の各々から、前記基準部位を基準とする対象範囲内の画像のデータを、前記抽出画像として抽出することを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to claim 1,
The control unit includes:
further performing a reference site specifying step of specifying at least one site among the plurality of sites within the tissue shown in the ophthalmological image as a reference site;
In the extraction step, data of an image within a target range with the reference site as a reference is extracted as the extraction image from each of the plurality of partial images arranged in a predetermined direction within the ophthalmological image. Features of the ophthalmological image processing device.
請求項2に記載の眼科画像処理装置であって、
前記眼科画像は、被検眼の組織のうち、複数の層が積層された層構造を撮影した断層画像であり、
前記基準部位特定ステップでは、前記層構造に含まれる複数の層、および層の境界のうちの少なくともいずれかを、前記基準部位として特定することを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to claim 2,
The ophthalmological image is a tomographic image obtained by photographing a layer structure in which a plurality of layers are stacked among tissues of the eye to be examined;
The ophthalmologic image processing apparatus is characterized in that, in the reference site specifying step, at least one of a plurality of layers included in the layer structure and a boundary between layers is specified as the reference site.
請求項3に記載の眼科画像処理装置であって、
前記基準部位特定ステップでは、少なくとも、前記眼科画像に写る前記層構造のうち最も表層側の境界または層を、前記基準部位として特定することを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to claim 3,
The ophthalmologic image processing apparatus is characterized in that, in the reference region specifying step, at least a boundary or layer on the most superficial side of the layer structure shown in the ophthalmologic image is identified as the reference region.
請求項4に記載の眼科画像処理装置であって、
前記抽出ステップでは、前記層構造における最も表層側の前記基準部位から、前記層構造の深層側に向けて所定の範囲を、前記複数の部分画像の各々から前記抽出画像を抽出する対象範囲に含めることを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to claim 4,
In the extraction step, a predetermined range from the reference region on the most superficial side in the layered structure toward the deeper side of the layered structure is included in the target range from which the extracted image is extracted from each of the plurality of partial images. An ophthalmological image processing device characterized by:
請求項4または5に記載の眼科画像処理装置であって、
前記抽出ステップでは、前記層構造における最も表層側の前記基準部位から、前記層構造の深層側とは反対側に向けて所定の範囲を、前記複数の部分画像の各々から前記抽出画像を抽出する対象範囲に含めることを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to claim 4 or 5,
In the extraction step, the extraction image is extracted from each of the plurality of partial images in a predetermined range from the reference region on the most superficial side of the layered structure toward the side opposite to the deeper side of the layered structure. An ophthalmological image processing device characterized by being included in a target range.
請求項3から6のいずれかに記載の眼科画像処理装置であって、
前記複数の部分画像の各々は、前記眼科画像に写る前記層構造内の層に交差する方向に延びる長尺状の画像であり、且つ、前記眼科画像内において、各々の前記部分画像が延びる方向に交差する方向に連続して配列されることを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to any one of claims 3 to 6,
Each of the plurality of partial images is a long image extending in a direction intersecting the layers in the layered structure shown in the ophthalmological image, and each of the plurality of partial images extends in the direction in which each of the partial images extends within the ophthalmological image. An ophthalmological image processing apparatus characterized in that the apparatus is arranged continuously in a direction intersecting with the ophthalmological image processing apparatus.
請求項2から7のいずれかに記載の眼科画像処理装置であって、
前記基準部位特定ステップが実行された結果、前記基準部位の特定結果が欠落した箇所が存在する場合に、他の箇所における前記基準部位の特定結果に基づいて、前記欠落した箇所における前記基準部位の特定結果を補完する補完ステップをさらに実行することを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to any one of claims 2 to 7,
As a result of the execution of the reference part identifying step, if there is a part where the identification result of the reference part is missing, the reference part at the missing part is determined based on the identification result of the reference part in other parts. An ophthalmological image processing device characterized by further executing a complementing step of complementing a specific result.
請求項1から8のいずれかに記載の眼底画像処理装置であって、
前記眼科画像は、被検眼の組織のうち、複数の層が積層された層構造を撮影した断層画像であり、
前記抽出ステップにおいて抽出された前記複数の抽出画像が、前記位置情報を考慮せずに前記複数の部分画像の配列方向に並べられた画像は、前記眼科画像から前記層構造以外の領域の少なくとも一部が消去され、且つ、前記層構造の湾曲が平坦化された画像となることを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 8,
The ophthalmological image is a tomographic image obtained by photographing a layer structure in which a plurality of layers are stacked among tissues of the eye to be examined;
An image in which the plurality of extraction images extracted in the extraction step are arranged in the arrangement direction of the plurality of partial images without considering the position information is an image in which at least one of the regions other than the layer structure is extracted from the ophthalmological image. A fundus image processing device characterized in that an image is obtained in which the curvature of the layer structure is flattened and the curvature of the layer structure is flattened.
請求項1から9のいずれかに記載の眼底画像処理装置であって、
前記眼科画像は、被検眼の組織のうち、複数の層が積層された層構造を撮影した断層画像であり、
前記抽出画像は、前記眼科画像における前記層構造の厚みが維持された状態で前記眼科画像から抽出されて保存されることを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 9,
The ophthalmological image is a tomographic image obtained by photographing a layer structure in which a plurality of layers are stacked among tissues of the eye to be examined;
The fundus image processing device is characterized in that the extracted image is extracted from the ophthalmological image and stored in a state where the thickness of the layer structure in the ophthalmological image is maintained.
請求項1から10のいずれかに記載の眼科画像処理装置であって、
前記記憶手段に保存されている前記複数の抽出画像のデータを、各々の前記位置情報に基づいて配置することで、前記眼科画像のうち前記抽出ステップにおいて抽出された領域を再構築する画像再構築ステップをさらに実行することを特徴とする眼科画像処理装置。
The ophthalmological image processing device according to any one of claims 1 to 10,
image reconstruction of reconstructing the area extracted in the extraction step of the ophthalmological image by arranging data of the plurality of extracted images stored in the storage means based on the respective position information; An ophthalmological image processing device further comprising the steps of:
被検眼の組織の断層画像である眼科画像のデータを処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、
眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、
前記眼科画像内で所定の方向に配列された複数の部分画像の各々から、データを保存する対象範囲内の画像のデータを抽出する抽出ステップと、
前記抽出ステップにおいて前記複数の部分画像の各々から抽出された、複数の抽出画像の各々の位置を示す位置情報を取得する位置情報取得ステップと、
前記複数の抽出画像のデータと、前記複数の抽出画像の各々の位置情報を、記憶手段に保存させる保存ステップと、
を前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。
An ophthalmologic image processing program executed by an ophthalmologic image processing device that processes data of an ophthalmologic image that is a tomographic image of a tissue of an eye to be examined,
The ophthalmology image processing program is executed by the control unit of the ophthalmology image processing device,
an image acquisition step of acquiring an ophthalmological image taken by an ophthalmological image capturing device;
an extraction step of extracting data of an image within a target range for storing data from each of a plurality of partial images arranged in a predetermined direction within the ophthalmological image;
a position information acquisition step of acquiring position information indicating the position of each of the plurality of extracted images extracted from each of the plurality of partial images in the extraction step;
a storing step of storing data of the plurality of extracted images and position information of each of the plurality of extracted images in a storage means;
An ophthalmologic image processing program that causes the ophthalmologic image processing apparatus to execute the following.
JP2022058326A 2022-03-31 2022-03-31 Ophthalmologic image processing device and ophthalmologic image processing program Pending JP2023149647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022058326A JP2023149647A (en) 2022-03-31 2022-03-31 Ophthalmologic image processing device and ophthalmologic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022058326A JP2023149647A (en) 2022-03-31 2022-03-31 Ophthalmologic image processing device and ophthalmologic image processing program

Publications (1)

Publication Number Publication Date
JP2023149647A true JP2023149647A (en) 2023-10-13

Family

ID=88288702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022058326A Pending JP2023149647A (en) 2022-03-31 2022-03-31 Ophthalmologic image processing device and ophthalmologic image processing program

Country Status (1)

Country Link
JP (1) JP2023149647A (en)

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
KR20210041046A (en) Medical image processing device, medical image processing method, computer-readable medium, and learning completed model
WO2020036182A1 (en) Medical image processing device, medical image processing method, and program
US9918625B2 (en) Image processing apparatus and control method of image processing apparatus
US20110007957A1 (en) Imaging apparatus and control method therefor
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
JP6367534B2 (en) Anterior segment 3D image processing apparatus, program, and anterior segment 3D image processing method
JP7374615B2 (en) Information processing device, information processing method and program
JP6301621B2 (en) Two-dimensional tomographic image processing apparatus, program, and two-dimensional tomographic image processing method
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
WO2020050308A1 (en) Image processing device, image processing method and program
JP6682291B2 (en) Image processing apparatus, image processing method and program
JP2020163100A (en) Image processing apparatus and image processing method
JP2019150532A (en) OCT data processing apparatus and OCT data processing program
WO2020075719A1 (en) Image processing device, image processing method, and program
US20220386864A1 (en) Oct apparatus and non-transitory computer-readable storage medium
JP2023149647A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP2022033290A (en) Information processing device, information processing method, and program
JP7130989B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP6860884B2 (en) Image processing equipment, fundus imaging system, image processing method, and program
JP2022062620A (en) Image processing device, image processing method and program
JP7488934B2 (en) IMAGE PROCESSING APPARATUS, OPERATION METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2024007133A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP2023050532A (en) Image processing method and image processing program