JP7237786B2 - Image processing device, image processing method - Google Patents

Image processing device, image processing method Download PDF

Info

Publication number
JP7237786B2
JP7237786B2 JP2019174763A JP2019174763A JP7237786B2 JP 7237786 B2 JP7237786 B2 JP 7237786B2 JP 2019174763 A JP2019174763 A JP 2019174763A JP 2019174763 A JP2019174763 A JP 2019174763A JP 7237786 B2 JP7237786 B2 JP 7237786B2
Authority
JP
Japan
Prior art keywords
layer
boundary
image
candidate
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019174763A
Other languages
Japanese (ja)
Other versions
JP2021049205A (en
Inventor
裕之 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019174763A priority Critical patent/JP7237786B2/en
Publication of JP2021049205A publication Critical patent/JP2021049205A/en
Application granted granted Critical
Publication of JP7237786B2 publication Critical patent/JP7237786B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.

光干渉断層計(OCT;Optical Coherence Tomography)などの眼部の断層画像撮影装置を用いると、網膜層内部の状態を三次元的に観察できる。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから眼科診療に広く用いられている。 By using an eye tomography apparatus such as an optical coherence tomography (OCT), it is possible to three-dimensionally observe the state inside the retinal layers. This tomography apparatus is widely used in ophthalmology because it is useful for more accurately diagnosing diseases.

特許文献1では、眼底のOCT断層画像において第1の層境界と第2の層境界を検出し、両層境界間の距離の分数比に基づいて別の層境界を設定した上で、第1の層境界と設定した層境界とを投影深度範囲として正面断層画像を生成する技術について開示している。 In Patent Document 1, a first layer boundary and a second layer boundary are detected in an OCT tomographic image of the fundus, and another layer boundary is set based on the fractional ratio of the distance between the two layer boundaries. and a set layer boundary as a projection depth range to generate a front tomographic image.

米国特許公開第2013/0229621号公報U.S. Patent Publication No. 2013/0229621

しかしながら、例えば、図3(c)に示すように中心窩M付近に浮腫様の層形状異常が存在する場合には層境界上の位置(例えば中心窩M付近と周辺部)により適切な比率値は異なるため、特許文献1に記載の技術では層形状異常が存在する部位で適切な投影深度範囲を設定できないという課題があった。 However, for example, when there is an edema-like layer shape abnormality near the fovea M as shown in FIG. is different, the technique described in Patent Document 1 has a problem that an appropriate projection depth range cannot be set at a site where a layer shape abnormality exists.

本発明は上記課題に鑑みてなされたものであり、層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to robustly determine a layer boundary regardless of a site in a wide-angle tomographic image of an eye to be examined that includes a layer shape abnormality.

上記課題を解決するため、本発明の一態様による画像処理装置は、
被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する検出手段と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは前記第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補の位置から算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する決定手段と、
を有することを特徴とする画像処理装置である。
また、別の本発明の一態様による画像処理装置は、 被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する検出手段と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補および第三の層の境界候補の距離の分数比に基づいて算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する決定手段と、
を有することを特徴とする画像処理装置である。
また、別の本発明の一態様による画像処理方法は、
被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する工程と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補の位置から算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する工程と、
を有することを特徴とする画像処理方法である。
In order to solve the above problems, an image processing device according to one aspect of the present invention includes:
detection means for detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be inspected;
the position of the boundary candidate of the first layer on the tomographic image in the depth direction of the eye to be examined or the direction intersecting the boundary candidate of the first or the second layer; determining means for determining the position of at least a portion of the region with respect to the first layer based on the position of the estimated boundary of the first layer calculated from the position of the candidate boundary of the layer;
An image processing apparatus characterized by having
Further, an image processing apparatus according to another aspect of the present invention comprises: detecting means for detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be examined;
position of the first layer boundary candidate in the depth direction of the eye to be examined or in a direction intersecting the first or second layer boundary candidate on the tomographic image; a position of an estimated boundary of said first layer calculated based on a fractional ratio of the distances of a candidate layer boundary and a candidate third layer boundary; a determining means for determining
An image processing apparatus characterized by having
In addition, an image processing method according to another aspect of the present invention comprises:
a step of detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be inspected;
position of the first layer boundary candidate in the depth direction of the eye to be examined or in a direction intersecting the first or second layer boundary candidate on the tomographic image; determining the position of at least a portion of the region with respect to the first layer based on the position of the estimated first layer boundary calculated from the position of the candidate boundary of the layer;
An image processing method characterized by having

本発明によれば、層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定できる。 According to the present invention, in a wide-angle tomographic image of an eye to be examined that includes a layer shape abnormality, it is possible to robustly determine the layer boundary regardless of the region.

第1実施形態および第2実施形態の画像処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing system according to first and second embodiments; FIG. 第1実施形態および第2実施形態の画像処理システムが実行可能な処理のフローチャートである。4 is a flowchart of processing that can be executed by the image processing systems of the first embodiment and the second embodiment; 健常眼及び患眼の断層画像における層境界の性質を説明する図である。FIG. 4 is a diagram for explaining properties of layer boundaries in tomographic images of a healthy eye and a diseased eye; 第1実施形態および第2実施形態で生成される正面断層画像、OCTA撮影の走査方法、モーションコントラスト画像に生じるプロジェクションアーチファクト、正面モーションコントラスト画像の例を説明する図である。FIG. 4 is a diagram illustrating an example of a frontal tomographic image, a scanning method for OCTA imaging, a projection artifact occurring in a motion contrast image, and a frontal motion contrast image generated in the first and second embodiments; 第1実施形態および第2実施形態において表示手段に表示するレポート画面の例を説明する図である。It is a figure explaining the example of the report screen displayed on a display means in 1st Embodiment and 2nd Embodiment. 第1実施形態および第2実施形態において表示手段に表示するレポート画面の例を説明する図である。It is a figure explaining the example of the report screen displayed on a display means in 1st Embodiment and 2nd Embodiment. 第1実施形態のS203やS301、第2実施形態のS203やS401で実行される高画質化処理の一例を説明する図である。FIG. 4 is a diagram illustrating an example of image quality enhancement processing executed in S203 and S301 of the first embodiment and S203 and S401 of the second embodiment;

[第1実施形態]
本実施形態に係る画像処理装置は広画角OCT断層画像に対する層境界候補を検出した後、層境界位置を決定する際に所定の部位からの距離に応じて該距離が近い位置では層境界候補からの変更量を小さく、該距離が離れた位置では該変更量が大きくなるよう決定する。これにより、層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定する場合について説明する。
[First embodiment]
After detecting a layer boundary candidate for a wide-angle OCT tomographic image, the image processing apparatus according to the present embodiment determines the layer boundary position according to the distance from a predetermined site. It is determined so that the amount of change from is small, and the amount of change is large at a position away from the distance. A case will be described in which layer boundaries are robustly determined irrespective of sites in a wide-angle tomographic image of an eye to be inspected that includes layer shape anomalies.

以下、本実施形態に係る画像処理装置を備える画像処理システムについて、詳細を説明する。 The image processing system including the image processing apparatus according to this embodiment will be described in detail below.

図1は、本実施形態に係る画像処理装置300を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置300が、インタフェースを介して断層画像撮影装置200、眼底像撮影部400、外部記憶部500、表示部600、入力部700と接続されることにより構成されている。 FIG. 1 is a diagram showing the configuration of an image processing system 100 including an image processing apparatus 300 according to this embodiment. As shown in FIG. 1, in the image processing system 100, an image processing apparatus 300 is connected to a tomographic image capturing apparatus 200, a fundus image capturing section 400, an external storage section 500, a display section 600, and an input section 700 via interfaces. It is configured by

断層画像撮影装置200は眼部の広画角の断層画像を撮影する装置であり、例えばSS-OCTなどのOCT装置からなる。これに限らず、SD-OCTで構成してもよい。なお、断層画像撮影装置200は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置300からの指示により行われる断層画像の撮影について説明を行う。 The tomographic image capturing apparatus 200 is an apparatus for capturing a wide-angle tomographic image of the eye, and is composed of an OCT apparatus such as SS-OCT. Not limited to this, SD-OCT may be used. Since the tomographic image capturing apparatus 200 is a known apparatus, a detailed description thereof will be omitted. Here, the tomographic image capturing performed according to an instruction from the image processing apparatus 300 will be described.

図1において、ガルバノミラー201は、測定光の眼底における走査を行うためのものであり、OCTによる眼底の撮影範囲を規定する。また、駆動制御部202は、ガルバノミラー201の駆動範囲および速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定する。ここでは、簡単のためガルバノミラーは一つのユニットとして示したが、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上で所望の範囲を測定光で走査できる。 In FIG. 1, a galvanomirror 201 is for scanning the fundus with measurement light, and defines the imaging range of the fundus by OCT. Further, the drive control unit 202 controls the drive range and speed of the galvanomirror 201 to define the planar imaging range and the number of scanning lines (scanning speed in the planar direction) on the fundus. Here, the galvanometer mirror is shown as one unit for the sake of simplicity, but it actually consists of two mirrors for X scanning and Y scanning, so that a desired range on the fundus can be scanned with the measurement light. .

フォーカス203は被検体である眼の前眼部を介し、眼底の所定の深度位置にフォーカスするためのものである。測定光は、非図示のフォーカスレンズにより、被検体である眼の前眼部を介し、眼底組織(網膜もしくは脈絡膜を構成する層)にフォーカスされる。眼底を照射した測定光は眼底の各層で反射・散乱して戻る。 A focus 203 is for focusing on a predetermined depth position of the fundus through the anterior ocular segment of the subject's eye. The measurement light is focused on the fundus tissue (the layer forming the retina or choroid) through the anterior ocular segment of the subject's eye by a focus lens (not shown). The measurement light that irradiates the fundus is reflected and scattered by each layer of the fundus and returns.

内部固視灯204は、表示部204-1、レンズ204-2で構成される。表示部204-1として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、駆動制御部202の制御により撮影したい部位に合わせて変更される。表示部204-1からの光は、レンズ204-2を介し、被検眼に導かれる。表示部204-1から出射される光は520nmで、駆動制御部202により所望のパターンが表示される。 The internal fixation lamp 204 is composed of a display section 204-1 and a lens 204-2. A plurality of light emitting diodes (LD) arranged in a matrix is used as the display section 204-1. The lighting position of the light-emitting diode is changed according to the part to be photographed under the control of the drive control unit 202 . Light from the display unit 204-1 is guided to the subject's eye via the lens 204-2. The light emitted from the display unit 204-1 has a wavelength of 520 nm, and a desired pattern is displayed by the drive control unit 202. FIG.

コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、駆動制御部202により制御されている。コヒーレンスゲートとは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。さらには、撮影方法としてコヒーレンスゲートの位置を制御することにより、硝子体もしくは網膜の表層側か、あるいは網膜の外層より深部側とする撮影を行うことを制御する。 The coherence gate stage 205 is controlled by the drive control unit 202 in order to cope with the difference in axial length of the subject's eye. A coherence gate represents a position in OCT where the optical distances of the measurement light and the reference light are equal. Furthermore, by controlling the position of the coherence gate as an imaging method, it is controlled to perform imaging on the surface side of the vitreous body or the retina, or on the deeper side than the outer layer of the retina.

(画像処理装置の構成)
本実施形態の画像処理装置300の構成について図1を用いて説明する。
(Configuration of image processing device)
The configuration of the image processing apparatus 300 of this embodiment will be described with reference to FIG.

画像処理装置300は断層画像撮影装置200に接続されたパーソナルコンピュータ(PC)であり、画像取得部301、記憶部302、撮影制御部303、画像処理部304、表示制御部305を備える。また、画像処理装置300は演算処理装置CPUが画像取得部301、撮影制御部303、画像処理部304および表示制御部305を実現するソフトウェアモジュールを実行することで機能を実現する。本発明はこれに限定されず、例えば画像処理部304をASIC等の専用のハードウェアで実現してもよいし、表示制御部305をCPUとは異なるGPU等の専用プロセッサを用いて実現してもよい。また断層画像撮影装置200と画像処理装置300との接続はネットワークを介した構成であってもよい。 The image processing apparatus 300 is a personal computer (PC) connected to the tomography apparatus 200 and includes an image acquisition unit 301 , a storage unit 302 , an imaging control unit 303 , an image processing unit 304 and a display control unit 305 . Further, the image processing device 300 implements functions by executing software modules that implement the image acquisition unit 301 , the shooting control unit 303 , the image processing unit 304 and the display control unit 305 by the arithmetic processing unit CPU. The present invention is not limited to this. For example, the image processing unit 304 may be realized by dedicated hardware such as ASIC, and the display control unit 305 may be realized by using a dedicated processor such as a GPU different from the CPU. good too. Also, the connection between the tomography apparatus 200 and the image processing apparatus 300 may be configured via a network.

画像取得部301は眼底像撮影部400により撮影されたSLO眼底像や断断層画像撮影装置200により撮影された断層画像の信号データを取得する。画像取得部301は、本実施形態に係る取得手段の一例である。また画像取得部301は断層画像生成部301-1及びモーションコントラストデータ生成部301-2を有する。断層画像生成部301-1は断層画像撮影装置200により撮影された断層画像の信号データ(干渉信号)を取得して信号処理により断層画像を生成し、生成した断層画像を記憶部302に格納する。モーションコントラストデータ生成部301-2は、同一クラスタに属する断層画像間の信号値の相違度(本実施形態では輝度値の脱相関値)を算出することで、赤血球の変位と測定光との相互作用により得られるモーションコントラストを画像化する。撮影制御部303は、断層画像撮影装置200に対する撮影制御を行う。撮影制御には、断層画像撮影装置200に対して撮影パラメータの設定に関して指示することや、撮影の開始もしくは終了に関して指示することも含まれる。 The image acquiring unit 301 acquires signal data of the SLO fundus image captured by the fundus image capturing unit 400 and the tomographic image captured by the tomographic image capturing apparatus 200 . The image acquisition unit 301 is an example of acquisition means according to the present embodiment. The image acquisition unit 301 also has a tomographic image generation unit 301-1 and a motion contrast data generation unit 301-2. The tomographic image generating unit 301-1 acquires signal data (interference signal) of a tomographic image captured by the tomographic imaging apparatus 200, generates a tomographic image by signal processing, and stores the generated tomographic image in the storage unit 302. . The motion contrast data generation unit 301-2 calculates the degree of difference in signal values between tomographic images belonging to the same cluster (in this embodiment, the decorrelation value of luminance values) to determine the interaction between the displacement of red blood cells and the measurement light. The motion contrast obtained by the action is imaged. The imaging control unit 303 performs imaging control on the tomography apparatus 200 . Imaging control includes instructing the tomographic imaging apparatus 200 regarding the setting of imaging parameters, and instructing the start or end of imaging.

画像処理部304は、位置合わせ部304-1、高画質化部304-2、画像特徴取得部304-3、層決定部304-4、補正部304-5、投影部304-6、計測部304-7を有する。層決定部304-4は検出部304-41、算出部304-42、決定部304-43を有する。高画質化部304-2は位置合わせ部304-1により得られた位置合わせパラメータに基づいて断層画像間もしくはモーションコントラスト画像間の合成処理を行うか、学習モデルに基づいて断層画像もしくはモーションコントラスト画像の高画質化処理を行う。画像特徴取得部304-3は断層画像から中心窩や視神経乳頭中心の位置を取得する。層決定部304-4は断層画像から網膜や脈絡膜の層境界、篩状板の前面や後面の境界を取得する。補正部304-5はモーションコントラスト画像内に生じるプロジェクションアーチファクトを2次元もしくは3次元的に抑制する処理を行う(プロジェクションアーチファクトについては後述する)。投影部304-6は層決定部304-4が指定した深度範囲で断層画像もしくはモーションコントラスト画像を投影し、正面断層画像もしくは正面モーションコントラスト画像を生成する。 The image processing unit 304 includes an alignment unit 304-1, an image quality enhancement unit 304-2, an image feature acquisition unit 304-3, a layer determination unit 304-4, a correction unit 304-5, a projection unit 304-6, and a measurement unit. 304-7. The layer determination unit 304-4 has a detection unit 304-41, a calculation unit 304-42, and a determination unit 304-43. The image quality enhancing unit 304-2 performs synthesis processing between tomographic images or motion contrast images based on the alignment parameters obtained by the alignment unit 304-1, or combines tomographic images or motion contrast images based on the learning model. image quality enhancement processing. The image feature acquisition unit 304-3 acquires the positions of the fovea fovea and the center of the optic papilla from the tomographic image. The layer determining unit 304-4 acquires the layer boundaries of the retina and choroid, and the boundaries of the anterior and posterior surfaces of the cribriform plate from the tomographic image. The correction unit 304-5 performs processing for two-dimensionally or three-dimensionally suppressing projection artifacts occurring in the motion contrast image (projection artifacts will be described later). A projection unit 304-6 projects a tomographic image or a motion contrast image in the depth range specified by the layer determination unit 304-4 to generate a front tomographic image or a front motion contrast image.

外部記憶部500は、被検眼の情報(患者の氏名、年齢、性別など)と、撮影した画像(断層画像及びSLO画像・OCTA画像)や合成画像、撮影パラメータ、操作者が設定したパラメータを関連付けて保持している。入力部700は、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部700を介して、画像処理装置300や断層画像撮影装置200へ指示を行う。 The external storage unit 500 associates information about the subject's eye (patient's name, age, sex, etc.) with captured images (tomographic images, SLO images, OCTA images), composite images, imaging parameters, and parameters set by the operator. holding. The input unit 700 is, for example, a mouse, a keyboard, a touch operation screen, or the like.

次に、図2を参照して本実施形態の画像処理装置300の処理手順を示す。図2は、本実施形態における本システム全体の動作処理の流れを示すフローチャートである。 Next, the processing procedure of the image processing apparatus 300 of this embodiment will be described with reference to FIG. FIG. 2 is a flow chart showing the flow of operation processing of the entire system in this embodiment.

<ステップ201>
操作者は入力部700を操作することにより、断層画像撮影装置200に対して指示するOCTA画像の撮影条件を設定する。
<Step 201>
By operating the input unit 700 , the operator sets the imaging conditions for the OCTA image to be instructed to the tomography apparatus 200 .

具体的には
1)検査セットの選択もしくは登録
2)選択した検査セットにおけるスキャンモードの選択もしくは追加
3)スキャンモードに対応する撮影パラメータ設定
の手順からなり、本実施形態では以下のように設定してS202において適宜休憩を挟みながら(同一撮像条件の)OCTA撮影を所定の回数だけ繰り返し実行する。
1)Ultra Wide検査セットを登録
2)OCTAスキャンモードを選択
3)以下の撮影パラメータを設定
3-1)走査パターン:Super Large
3-2)走査領域サイズ:23x20mm
3-3)主走査方向:水平方向
3-4)走査間隔:0.02mm
3-5)固視灯位置:黄斑
3-6)1クラスタあたりのBスキャン数:3
3-7)コヒーレンスゲート位置:硝子体側
3-8)既定表示レポート種別:単検査用レポート
なお、検査セットとは検査目的別に設定した(スキャンモードを含む)撮像手順や、各スキャンモードで取得したOCT画像やOCTA画像の既定の表示法を指す。
Specifically, the procedure consists of 1) selection or registration of an examination set, 2) selection or addition of a scan mode in the selected examination set, and 3) imaging parameter setting corresponding to the scan mode. Then, in S202, OCTA imaging (under the same imaging conditions) is repeatedly performed a predetermined number of times while intervening breaks as appropriate.
1) Register Ultra Wide examination set 2) Select OCTA scan mode 3) Set the following imaging parameters 3-1) Scanning pattern: Super Large
3-2) Scanning area size: 23x20mm
3-3) Main scanning direction: horizontal direction 3-4) Scanning interval: 0.02 mm
3-5) Fixation light position: macula 3-6) Number of B-scans per cluster: 3
3-7) Coherence gate position: Vitreous body side 3-8) Default display report type: Report for single examination Refers to the default display method for OCT and OCTA images.

これにより、広画角撮影向けの設定がなされたOCTAスキャンモードを含む検査セットが「Ultra Wide」という名前で登録される。登録された検査セットは外部記憶部500に記憶される。 As a result, an examination set including an OCTA scan mode set for wide-angle imaging is registered under the name "Ultra Wide". The registered examination set is stored in the external storage unit 500 .

本実施形態においては、検査セットとして「Ultra Wide」、スキャンモードとして「OCTA」モードを選択する。 In this embodiment, "Ultra Wide" is selected as the examination set, and "OCTA" mode is selected as the scan mode.

<ステップ202>
操作者は入力部700を操作して撮影画面中の撮影開始ボタン(非表示)を押下することにより、S201で指定した撮影条件による繰り返しOCTA撮影を開始する。
<Step 202>
By operating the input unit 700 and pressing an imaging start button (not displayed) on the imaging screen, the operator starts repeated OCTA imaging under the imaging conditions specified in S201.

撮影制御部303は断層画像撮影装置200に対してS201で操作者が指示した設定に基づいて繰り返しOCTA撮影を実施することを指示し、断層画像撮影装置200が対応するOCT断層画像を取得する。 The imaging control unit 303 instructs the tomographic imaging apparatus 200 to repeatedly perform OCTA imaging based on the settings instructed by the operator in S201, and the tomographic imaging apparatus 200 acquires the corresponding OCT tomographic images.

なお、本実施形態では本ステップ(S202)における繰り返し撮像回数を3回とする。これに限らず、繰り返し撮像回数は単回(繰り返さない)撮影の場合も含め、任意の回数に設定してよい。また、繰り返し撮影間の撮影時間間隔は、各繰り返し撮影内の断層像の撮影時間間隔よりも長い場合に限定されず、両者が略同一であっても良い。 Note that in this embodiment, the number of repeated imagings in this step (S202) is set to three. The number of times of repeated imaging is not limited to this, and may be set to any number of times including the case of single (non-repeated) imaging. Further, the imaging time interval between repeated imagings is not limited to being longer than the imaging time interval of tomographic images in each repeated imaging, and both may be substantially the same.

また眼底像撮影部400はSLO画像の取得も行い、SLO動画像に基づく追尾処理を実行する。本実施形態において繰り返しOCTA撮影における追尾処理に用いる基準SLO画像は1回目の繰り返しOCTA撮影において設定した基準SLO画像とし、全ての繰り返しOCTA撮影において共通の基準SLO画像を用いる。 The fundus image capturing unit 400 also acquires an SLO image and executes tracking processing based on the SLO moving image. In this embodiment, the reference SLO image used for tracking processing in repeated OCTA imaging is the reference SLO image set in the first repeated OCTA imaging, and a common reference SLO image is used in all repeated OCTA imaging.

またOCTA繰り返し撮影中は、S201で設定した撮影条件に加えて
・左右眼の選択
・追尾処理の実行有無
についても同じ設定値を用いる(変更しない)ものとする。
Also, during OCTA repeated imaging, in addition to the imaging conditions set in S201, the same setting values are used (not changed) for selection of left and right eyes and execution/non-execution of tracking processing.

<ステップ203>
画像取得部301及び画像処理部304は、S202で取得された断層画像を再構成し、さらにモーションコントラスト画像を生成する。
<Step 203>
The image acquisition unit 301 and image processing unit 304 reconstruct the tomographic image acquired in S202 and further generate a motion contrast image.

まず断層画像生成部301-1は画像取得部301が取得した干渉信号に対して波数変換及び高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行うことで1クラスタ分の断層画像を生成する。 First, the tomographic image generating unit 301-1 performs wavenumber transformation, fast Fourier transform (FFT), and absolute value conversion (acquisition of amplitude) on the interference signal acquired by the image acquiring unit 301 to generate a tomographic image for one cluster. Generate.

次に位置合わせ部304-1は同一クラスタに属する断層画像同士を位置合わせした後、さらにクラスタ間の断層画像の位置合わせを行う。 Next, after aligning the tomographic images belonging to the same cluster, the alignment unit 304-1 further aligns the tomographic images between the clusters.

引き続いて、画像取得部301及び画像処理部304は、位置合わせ済のOCT断層画像を用いてモーションコントラスト画像を生成する。 Subsequently, the image acquisition unit 301 and the image processing unit 304 generate motion contrast images using the aligned OCT tomographic images.

モーションコントラストデータ生成部301-2が同一クラスタ内の隣接する断層画像間でモーションコントラストを算出する。本実施形態では、モーションコントラストとして脱相関値Mxyを以下の式(1)に基づき求める。 A motion contrast data generator 301-2 calculates motion contrast between adjacent tomographic images in the same cluster. In this embodiment, the decorrelation value Mxy is obtained as the motion contrast based on the following equation (1).

Figure 0007237786000001
Figure 0007237786000001

ここで、Axyは断層画像データAの位置(x,y)における振幅、Bxyは断層データBの同一位置(x,y)における振幅を示している。0≦Mxy≦1であり、Mxyは、両振幅値の差異が大きいほど1に近い値をとる。式(1)のような脱相関演算処理を(同一クラスタに属する)任意の隣接する断層画像間で行い、得られた(1クラスタあたりの断層画像数-1)個のモーションコントラスト値の平均を画素値として持つ画像を最終的なモーションコントラスト画像として生成する。 Here, Axy indicates the amplitude of the tomographic image data A at the position (x, y), and Bxy indicates the amplitude of the tomographic data B at the same position (x, y). 0≤Mxy≤1, and Mxy takes a value closer to 1 as the difference between the two amplitude values increases. Decrelation arithmetic processing such as Equation (1) is performed between arbitrary adjacent tomographic images (belonging to the same cluster), and the average of the obtained (number of tomographic images per cluster - 1) motion contrast values is An image with pixel values is generated as a final motion contrast image.

なお、ここではFFT処理後の複素数データの振幅に基づいてモーションコントラストを計算したが、モーションコントラストの計算法は上記に限定されない。例えば複素数データの位相情報に基づいてモーションコントラストを計算してもよいし、振幅と位相の両方の情報に基づいてモーションコントラストを計算してもよい。あるいは、複素数データの実部や虚部に基づいてモーションコントラストを計算してもよい。 Although the motion contrast is calculated here based on the amplitude of the complex number data after FFT processing, the motion contrast calculation method is not limited to the above. For example, motion contrast may be calculated based on the phase information of complex data, or may be calculated based on both amplitude and phase information. Alternatively, motion contrast may be calculated based on the real and imaginary parts of complex data.

また、本実施形態ではモーションコントラストとして脱相関値を計算したが、モーションコントラストの計算法はこれに限定されない。例えば二つの値の差分に基づいてモーションコントラストを計算しても良いし、二つの値の比に基づいてモーションコントラストを計算してもよい。 Also, in this embodiment, the decorrelation value is calculated as the motion contrast, but the motion contrast calculation method is not limited to this. For example, the motion contrast may be calculated based on the difference between the two values, or the motion contrast may be calculated based on the ratio of the two values.

さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラスト画像を得ているが、他の方法で生成しても良い。例えば取得された複数の脱相関値の中央値、あるいは最大値を画素値として持つ画像を最終的なモーションコントラスト画像として生成しても良い。 Furthermore, in the above description, the final motion contrast image is obtained by calculating the average value of a plurality of acquired decorrelation values, but it may be generated by other methods. For example, an image having, as a pixel value, the median value or the maximum value of a plurality of acquired decorrelation values may be generated as the final motion contrast image.

高画質化部304-2は、本実施形態では繰り返しOCTA撮影を通して得られたモーションコントラスト画像群を3次元的に位置合わせし、合成することで高コントラストな合成モーションコントラスト画像を生成する。本実施形態では合成処理として加算平均処理を用いる。合成処理は単純加算平均に限定されるものではなく、例えば各モーションコントラスト画像の輝度値に対して任意の重みづけをした上で平均した値でもよいし、中央値をはじめとする任意の統計値を算出してもよい。また位置合わせ処理を2次元的に行っても良い。高画質化部304-2が合成処理に不適なモーションコントラスト画像が含まれているか否かを判定した上で、不適と判定したモーションコントラスト画像を除いて合成処理を行うよう構成してもよい。例えば、各モーションコントラスト画像に対して評価値(例えば脱相関値の平均値や中央値)が所定の範囲外である場合に、合成処理に不適と判定すればよい。 In this embodiment, the image quality enhancing unit 304-2 three-dimensionally aligns and synthesizes a group of motion contrast images obtained through repeated OCTA imaging to generate a high-contrast synthetic motion contrast image. In this embodiment, averaging processing is used as synthesizing processing. Synthesis processing is not limited to simple addition and averaging. For example, the luminance values of each motion contrast image may be arbitrarily weighted and then averaged, or any statistical value including the median value may be used. may be calculated. Also, the alignment process may be performed two-dimensionally. The image quality enhancing unit 304-2 may determine whether or not motion contrast images unsuitable for synthesis processing are included, and then perform synthesis processing excluding the motion contrast images determined to be unsuitable. For example, if the evaluation value (for example, the average value or the median value of decorrelation values) for each motion contrast image is outside a predetermined range, it may be determined that the motion contrast image is unsuitable for synthesis processing.

なお高画質化処理は複数のモーションコントラスト画像に対する重ね合わせ処理に限定されるものではなく、例えば図7に示すような機械学習を用いた学習済モデル(機械学習モデル)に基づいて単一のモーションコントラスト画像に対して高画質化処理を実施してもよいし、任意の公知の高画質化処理を適用してもよい。また高画質化処理は本実施形態の画像処理に必須の処理ではなく、省略してもよい。 Note that the image quality improvement process is not limited to superimposing a plurality of motion contrast images. Image quality improvement processing may be performed on the contrast image, or any known image quality improvement processing may be applied. Also, the image quality improvement process is not essential for the image processing of this embodiment, and may be omitted.

本実施形態ではモーションコントラストデータ生成部301-2がモーションコントラスト画像を3次元的に合成した後、補正部304-5がモーションコントラスト画像内に生じるプロジェクションアーチファクトを3次元的に抑制する処理を行う。 In this embodiment, after the motion contrast data generation unit 301-2 synthesizes the motion contrast images three-dimensionally, the correction unit 304-5 performs processing for three-dimensionally suppressing projection artifacts occurring in the motion contrast images.

ここで、プロジェクションアーチファクトは網膜表層血管内のモーションコントラストが深層側に映り込み、実際には血管が存在しないにも関わらず高い脱相関値が生じる現象を指す。補正部304-5は、3次元の合成モーションコントラスト画像上に生じたプロジェクションアーチファクトを抑制する処理を実行する。任意の公知のプロジェクションアーチファクト抑制手法を用いてよいが、本実施形態ではStep-down Exponential Filteringを用いる。Step-down Exponential Filteringでは、3次元モーションコントラスト画像上の各Aスキャンデータに対して式(2)で表される処理を実行することにより、プロジェクションアーチファクトを抑制する。 Here, the projection artifact refers to a phenomenon in which the motion contrast in the retinal surface blood vessels is reflected on the deep layer side, resulting in a high decorrelation value even though the blood vessels do not actually exist. The correction unit 304-5 performs processing to suppress projection artifacts that occur on the 3D synthetic motion contrast image. Although any known projection artifact suppression technique may be used, the present embodiment uses Step-down Exponential Filtering. In Step-down Exponential Filtering, projection artifacts are suppressed by executing the processing represented by Equation (2) for each piece of A-scan data on a 3D motion contrast image.

Figure 0007237786000002
Figure 0007237786000002

ここで、γは負の値を持つ減衰係数、D(x,y,z)はプロジェクションアーチファクト抑制処理前の脱相関値、D(x,y,z)は深度位置zにおけるプロジェクションアーチファクト抑制処理後の脱相関値を表す。 Here, γ is an attenuation coefficient having a negative value, D(x, y, z) is a decorrelation value before projection artifact suppression processing, and D E (x, y, z) is projection artifact suppression processing at depth position z. represents the later decorrelation value.

<ステップ204>
検出部304-41が該重ね合わせ断層画像から複数の層境界候補もしくは篩状板部前面B8・後面B9候補を検出するとともに、画像特徴取得部304-3が所定の部位として黄斑部の中心窩Mの位置を検出する。
<Step 204>
The detection unit 304-41 detects a plurality of layer boundary candidates or candidates for the anterior surface B8 and posterior surface B9 of the cribriform plate from the superimposed tomographic images, and the image feature acquisition unit 304-3 detects the fovea of the macula as a predetermined portion. Detect the position of M.

次に決定部304-43は、検出部304-41が検出した所定の部位からの距離に基づいて、検出部304-41が検出した第一の層の層境界候補に乗じる重みと、検出部304-41が検出した第二の層の境界候補から算出部304-42が演算処理を実行して算出した第一の層の推定境界位置に対して乗じる重みとを決定する。さらに、決定部304-43は層境界を該層境界候補と該層境界推定位置の重みづけ和として決定する。 Next, the determination unit 304-43 multiplies the weight by which the layer boundary candidate of the first layer detected by the detection unit 304-41 is multiplied, based on the distance from the predetermined part detected by the detection unit 304-41, From the second layer boundary candidate detected by 304-41, the calculation unit 304-42 determines the weight by which the estimated boundary position of the first layer calculated by executing the arithmetic processing is multiplied. Further, the determination unit 304-43 determines the layer boundary as a weighted sum of the layer boundary candidate and the layer boundary estimated position.

層決定処理の詳細はS301~304で説明する。 Details of the layer determination process will be described in S301 to S304.

<ステップ205>
投影部304-6はS204で層決定部304-4が検出もしくは決定した層境界もしくは篩状板前面B8及び後面B9の位置に基づく深度範囲で重ね合わせ断層画像を投影し、重ね合わせ正面断層画像を生成する。投影法としては平均値投影(AIP; Average Intensity Projection)・最大値投影(MIP; Maximum Intensity Projection)・最小値投影(MinIP; Minimum Intensity Projection)のいずれかを選択でき、本実施形態では平均値投影で投影する。
<Step 205>
The projection unit 304-6 projects the superimposed tomographic image in the depth range based on the position of the layer boundary or the anterior surface B8 and posterior surface B9 of the cribriform plate detected or determined by the layer determination unit 304-4 in S204, and produces a superimposed frontal tomographic image. to generate As a projection method, any one of average intensity projection (AIP), maximum intensity projection (MIP), and minimum intensity projection (MinIP) can be selected. to project.

さらに、投影部304-6はS204で層決定部304-4が検出もしくは決定した層境界もしくは篩状板前面B8及び後面B9の位置に基づく投影深度範囲でモーションコントラスト画像を投影し、重ね合わせ正面モーションコントラスト画像を生成する。また、投影法としては最大値投影(MIP; Maximum Intensity Projection)・平均値投影(AIP; Average Intensity Projection)のいずれかを選択でき、本実施形態では最大値投影で投影する。 Further, the projection unit 304-6 projects the motion contrast image in the projection depth range based on the positions of the layer boundaries detected or determined by the layer determination unit 304-4 in S204 or the anterior cribriform plate B8 and posterior surface B9, and superimposes the front surface. Generate motion contrast images. As a projection method, either MIP (Maximum Intensity Projection) or AIP (Average Intensity Projection) can be selected.

最後に、画像処理装置300は取得した画像群(SLO画像や断層画像)と該画像群の撮影条件データや、生成した3次元及び正面モーションコントラスト画像と付随する生成条件データを検査日時、披検眼を同定する情報と関連付けて外部記憶部500へ保存する。 Finally, the image processing apparatus 300 stores the acquired image group (SLO images and tomographic images), the imaging condition data of the image group, the generated three-dimensional and frontal motion contrast images, and the accompanying generation condition data, the inspection date and time, and the eye to be examined. is stored in the external storage unit 500 in association with the information identifying the .

<ステップ206>
表示制御部305は、S203で生成した断層画像やモーションコントラスト画像、撮影条件や画像生成条件に関する情報を表示部600に表示させる。
<Step 206>
The display control unit 305 causes the display unit 600 to display information on the tomographic image and the motion contrast image generated in S203, the imaging conditions, and the image generation conditions.

図5(a)にOCTAモードで撮影した単独検査に対するレポート画面501の例を示す。表示制御部305はレポート画面501の左上にSLO画像512、左下に重ね合わせ正面断層画像509、中央上に網膜表層の重ね合わせ正面モーションコントラスト画像505-1、中央下に網膜深層の重ね合わせ正面モーションコントラスト画像505-2を各々表示する。図5(a)の網膜表層の重ね合わせ正面モーションコントラスト画像505-1においては、内境界膜B1から決定部304-43により決定された第一の層の境界位置までを投影深度範囲とするOCTA画像が生成・表示されている。また、図5(a)の重ね合わせ正面断層画像509や網膜深層の重ね合わせ正面モーションコントラスト画像505-2においては、決定部304-43により決定された第一の層の境界位置から外網状層-外顆粒層境界B5に関する推定位置Bc5までを投影深度範囲とするOCT正面画像、OCTA画像が各々生成・表示されている。 FIG. 5(a) shows an example of a report screen 501 for a single examination imaged in the OCTA mode. The display control unit 305 displays the SLO image 512 on the upper left of the report screen 501, the superimposed frontal tomographic image 509 on the lower left, the superimposed frontal motion contrast image 505-1 of the superficial layer of the retina on the upper center, and the superimposed frontal motion of the deep layer of the retina on the lower center. Each contrast image 505-2 is displayed. In the superimposed frontal motion contrast image 505-1 of the retinal surface layer of FIG. An image is generated and displayed. In addition, in the superimposed frontal tomographic image 509 and the superimposed frontal motion contrast image 505-2 of the deep retina in FIG. - An OCT front image and an OCTA image are generated and displayed, each having a projection depth range up to the estimated position Bc5 with respect to the outer nuclear layer boundary B5.

正面断層画像の生成指示ユーザインターフェースとしては、例えば図5(a)に示したリストボックス510が挙げられる。正面モーションコントラスト画像の生成指示ユーザインターフェースとして、例えば図5(a)に示した投影深度範囲指定・変更用ユーザインターフェース(502、503、504、506、507、508)が挙げられる。レポート画面501の右側にはBスキャン画像表示領域が設けられ、Bスキャン断層画像上に断層画像及びモーションコントラスト画像の投影深度範囲を示す境界504・508、モーションコントラストデータ(不図示)が重畳されている。 A list box 510 shown in FIG. 5A, for example, is an example of a front tomographic image generation instruction user interface. As a front motion contrast image generation instruction user interface, for example, the projection depth range specification/change user interface (502, 503, 504, 506, 507, 508) shown in FIG. A B-scan image display area is provided on the right side of the report screen 501, and boundaries 504 and 508 indicating the projection depth range of the tomographic image and the motion contrast image, and motion contrast data (not shown) are superimposed on the B-scan tomographic image. there is

なお、モーションコントラスト画像断層画像及びモーションコントラスト画像の投影深度範囲はリストボックス502・506等のGUIに表示された以下に示すような既定の深度範囲設定
・網膜表層観察モード(SCP;内境界膜から内網状層までの深度範囲)
・網膜深層観察モード(DCP;内網状層から外網状層までの深度範囲)
・網膜外層及び脈絡膜毛細血管板観察モード(外網状層から脈絡膜毛細血管板までの深度範囲)
・脈絡膜観察モード(ブルッフ膜から脈絡膜と強膜との境界までの深度範囲)
から操作者が選択することで変更してよい。あるいは図5(a)の503・507に示すように投影範囲の指定に用いる境界の種類とオフセット量を選択したり、Bスキャン断層画像上に重畳された層もしくは篩状板の境界データ504・508を入力部700により移動させたりして投影範囲を変更してよい。
In addition, the projection depth range of the motion contrast image tomographic image and the motion contrast image is the default depth range setting shown below displayed in the GUI such as the list boxes 502 and 506. depth range to the inner plexiform layer)
・Deep retinal observation mode (DCP; depth range from inner reticular layer to outer reticular layer)
・Observation mode of outer retina and choroidal capillary plate (depth range from outer plexiform layer to choroidal capillary plate)
Choroid observation mode (depth range from Bruch's membrane to the boundary between the choroid and sclera)
can be changed by the operator selecting from Alternatively, as shown in 503 and 507 in FIG. 5A, the boundary type and offset amount used to specify the projection range can be selected, or the boundary data 504 and 504 of the layer or cribriform plate superimposed on the B-scan tomographic image can be selected. 508 may be moved by the input unit 700 to change the projection range.

これらのユーザインターフェースで用いられる層境界には、S302で検出した層境界もしくはS303で決定した層境界を用いる。これに限らず例えばS302で検出した層境界候補と識別可能な態様で同時に表示してもよいし、S303で決定した層境界とS302で検出した層境界候補と切り替えて選択できるようにしてもよい。あるいは、層境界毎にS302で検出した層境界候補Bdをそのまま用いているのか、S303で説明した決定処理を適用して得られた層境界Bmを用いているのかを識別可能な態様(色・マーク・線種・太さ・文字列等)で表示してもよい。また、正面断層画像と正面モーションコントラスト画像を重畳表示する場合、両画像を識別可能な態様(例えば、異なる色や透明度)で重畳表示してよい。 The layer boundaries detected in S302 or determined in S303 are used as the layer boundaries used in these user interfaces. For example, the layer boundary candidate detected in S302 and the layer boundary candidate detected in S302 may be displayed simultaneously in an identifiable manner, or the layer boundary candidate determined in S303 and the layer boundary candidate detected in S302 may be switched and selected. . Alternatively, it is possible to distinguish whether the layer boundary candidate Bd detected in S302 for each layer boundary is used as it is or the layer boundary Bm obtained by applying the determination process described in S303 is used (color/ mark, line type, thickness, character string, etc.). Moreover, when superimposing a front tomographic image and a front motion contrast image, the two images may be superimposed and displayed in an identifiable manner (for example, different colors or transparency).

また、S303で決定した第一の層の層境界Bmは、ユーザの操作により変更可能とし、決定部304-43がそのようなユーザの変更指示を受け付ける構成としてもよい。 Further, the layer boundary Bm of the first layer determined in S303 may be changed by the user's operation, and the determination unit 304-43 may be configured to receive such a user's change instruction.

本実施形態のように画像処理装置300が計測部304-7を備える場合は、S302で検出した層境界もしくはS303で決定した層境界で規定される深度範囲内で断層画像から層厚を計測する。層厚は層境界に基づいて規定される曲面に対する略法線方向に沿って計測してもよいし、断層画像の深度方向もしくは測定光の光軸方向に沿って計測してもよい。計測部304-7がS302で検出した層境界もしくはS303で決定した層境界で規定される深度範囲内でモーションコントラスト画像から血管領域を検出して2値化し、単位面積(体積)あたりの血管領域の面積(体積)や血管中心軸の長さを計測して血管密度(Vessel Area DensityもしくはVessel Length Density)を算出してもよい。なお、層厚や血管密度などの計測値は画素単位で算出してもよいし、図5(a)の517・520に示すETDRSグリッドのような各局所領域内で計測値の代表値を算出してもよい。あるいは、同図の518・519・521・522に示すような手動で設定した関心領域内で計測値の代表値を算出してもよい。 When the image processing apparatus 300 includes the measurement unit 304-7 as in the present embodiment, the layer thickness is measured from the tomographic image within the depth range defined by the layer boundary detected in S302 or the layer boundary determined in S303. . The layer thickness may be measured along the substantially normal direction to the curved surface defined based on the layer boundary, or may be measured along the depth direction of the tomographic image or the optical axis direction of the measurement light. The measurement unit 304-7 detects the blood vessel region from the motion contrast image within the depth range defined by the layer boundary detected in S302 or the layer boundary determined in S303, and binarizes the blood vessel region per unit area (volume). The blood vessel density (Vessel Area Density or Vessel Length Density) may be calculated by measuring the area (volume) of the blood vessel or the length of the central axis of the blood vessel. Measured values such as layer thickness and blood vessel density may be calculated in units of pixels, or representative values of measured values may be calculated within each local region such as the ETDRS grid shown in 517 and 520 in FIG. You may Alternatively, a representative value of the measured values may be calculated within a manually set region of interest as indicated by 518, 519, 521, and 522 in FIG.

なお、表示部600に表示する断層画像及びモーションコントラスト画像は正面画像に限定されるものではなく、Bスキャン画像やCスキャン画像のような任意方向の断面画像として表示したり、3次元的にレンダリングした3次元画像として表示したりしてもよい。例えば図5(b)に示すようにモーションコントラスト画像を3Dデータとして表示する際、チェックボックス525等のユーザインターフェースから選択することによりS303で決定した所定の層境界に少なくとも基づく深度範囲に限定して3次元モーションコントラストデータを表示してもよい。 Note that the tomographic images and motion contrast images displayed on the display unit 600 are not limited to front images, and may be displayed as cross-sectional images in any direction, such as B-scan images or C-scan images, or may be three-dimensionally rendered. may be displayed as a three-dimensional image. For example, when displaying the motion contrast image as 3D data as shown in FIG. 3D motion contrast data may be displayed.

また、画像投影法やプロジェクションアーチファクト抑制処理の有無を例えばコンテキストメニューや、図5(b)の527に示すようなチェックボックス等のユーザインターフェースから選択して変更してもよい。プロジェクションアーチファクト抑制処理後のモーションコントラスト画像は正面画像だけでなく、Bスキャン画像もしくは3次元画像として表示部600に表示してもよい。図5(b)の523に、プロジェクションアーチファクト抑制処理後の3次元モーションコントラスト画像の表示例を示す。 Also, the image projection method and the presence/absence of projection artifact suppression processing may be selected and changed from, for example, a context menu or a user interface such as a check box as indicated by 527 in FIG. 5B. A motion contrast image after projection artifact suppression processing may be displayed on the display unit 600 not only as a front image but also as a B-scan image or a three-dimensional image. 523 in FIG. 5B shows a display example of a three-dimensional motion contrast image after projection artifact suppression processing.

さらに、図6(a)にCustom 3Dモード(3次元断層画像を撮影するためのスキャンモードの1つ)で撮影した単独検査に対するレポート画面501の例を示す。表示制御部305はレポート画面501の左上に層厚カラーマップ529及び局所領域ごとの層厚代表値530、左下に重ね合わせ正面断層画像509及び局所領域ごとの層厚代表値530、右上にBスキャン断層画像、右下に層厚グラフ532を各々表示する。 Further, FIG. 6(a) shows an example of a report screen 501 for a single examination photographed in Custom 3D mode (one of scan modes for photographing a three-dimensional tomographic image). The display control unit 305 displays the layer thickness color map 529 and the layer thickness representative value 530 for each local region on the upper left of the report screen 501, the superimposed front tomographic image 509 and the layer thickness representative value 530 for each local region on the lower left, and the B scan on the upper right. A tomographic image and a layer thickness graph 532 are displayed at the lower right.

また、図6(b)にCustom 3Dモードで撮影した場合の断層画像の3次元表示例を示す。図5(b)に示したモーションコントラスト画像の3次元表示の場合と同様に、図6(b)では525に示すチェックボックスを指定することにより、S303で決定した層境界に少なくとも基づく深度範囲に限定して3次元断層画像を表示している。 FIG. 6B shows a three-dimensional display example of a tomographic image captured in the Custom 3D mode. As in the case of the three-dimensional display of the motion contrast image shown in FIG. 5(b), by specifying the check box indicated by 525 in FIG. A limited three-dimensional tomographic image is displayed.

さらに、図2(b)に示すフローチャートを参照しながら、S204で実行される処理の詳細について説明する。 Further, the details of the processing executed in S204 will be described with reference to the flowchart shown in FIG. 2(b).

<ステップ301>
高画質化部304-2は、S203で再構成した断層画像に対する高画質化処理を行う。本実施形態では、高画質化部304-2が位置合わせ部304-1により算出された位置合わせパラメータを用いて複数クラスタに属する断層画像を加算平均処理し、重ね合わせ断層画像を生成することで高画質化処理を行う。なお高画質化処理は複数の断層画像に対する重ね合わせ処理に限定されるものではなく、例えば図7に示すような機械学習モデルに基づいて単一の断層画像に対して高画質化処理を実施してもよいし、任意の公知の高画質化処理を適用してもよい。なお本ステップの処理は必須の処理ではなく、省略してもよい。
<Step 301>
The image quality enhancement unit 304-2 performs image quality enhancement processing on the tomographic image reconstructed in S203. In the present embodiment, the image quality enhancing unit 304-2 uses the alignment parameters calculated by the alignment unit 304-1 to average the tomographic images belonging to a plurality of clusters, thereby generating a superimposed tomographic image. Perform high image quality processing. Note that the image quality improvement process is not limited to superimposition processing for a plurality of tomographic images. Alternatively, any known image quality enhancement process may be applied. Note that the process of this step is not an essential process and may be omitted.

<ステップ302>
検出部304-41が断層画像から層境界候補として内境界膜候補B1、内網状層/内顆粒層境界候補B4、外網状層/外顆粒層境界候補B5、視細胞内節外節接合部候補B6、網膜色素上皮/ブルッフ膜境界候補B7、篩状板部前面候補B8、後面B9候補を検出する。また検出した網膜色素上皮/ブルッフ膜境界候補B7の端部(ブルッフ膜開口端部BMO)を視神経乳頭(Disc)領域Dの境界として特定する。本実施形態では層境界もしくは篩状板部前面B8・後面B9の候補を検出する方法として可変形状モデルを用いるが、これに限らず例えばグラフカット法を用いてもよいし、あるいは機械学習モデルに基づいて検出してもよい。すなわち、眼部の断層像から層の境界を検出可能な方法であれば任意の公知の手法を用いてよい。なお、可変形状モデルやグラフカット、機械学習を用いた境界検出手法は3次元断層像に対し3次元的に実行してもよいし、各々の2次元断層像に対し2次元的に実行してもよい。
<Step 302>
The detection unit 304-41 detects an inner limiting membrane candidate B1, an inner plexiform layer/inner nuclear layer boundary candidate B4, an outer plexiform layer/outer nuclear layer boundary candidate B5, and a photoreceptor inner segment/outer segment junction candidate as layer boundary candidates from the tomographic image. B6, retinal pigment epithelium/Bruch's membrane boundary candidate B7, cribriform plate anterior surface candidate B8, and posterior surface B9 candidate are detected. In addition, the edge of the detected retinal pigment epithelium/Bruch's membrane boundary candidate B7 (Bruch's membrane opening edge BMO) is specified as the boundary of the optic disc region D. FIG. In this embodiment, a deformable model is used as a method for detecting layer boundaries or candidates for the anterior surface B8 and posterior surface B9 of the lamina cribrosa. may be detected based on That is, any known method may be used as long as it is a method capable of detecting a layer boundary from a tomographic image of the eye. Boundary detection methods using deformable models, graph cuts, and machine learning may be performed three-dimensionally on three-dimensional tomograms, or two-dimensionally on each two-dimensional tomogram. good too.

眼部断層像から層の境界候補を検出した後、さらに当該検出した内境界膜候補B1の形状から陥凹の深い順に2か所の陥凹部を検出することにより、画像特徴取得部304-3が所定の部位として中心窩M及び視神経乳頭中心Dを取得する。ここではより陥凹の浅い方を中心窩Mとして、陥凹の深い方を視神経乳頭中心Dとして取得する。所定の部位の取得方法はこれに限らず、任意の公知の取得方法を用いてよい。 After detecting a layer boundary candidate from the tomographic image of the eye, the image feature acquisition unit 304-3 detects two depressions in descending order of depression from the shape of the detected internal limiting membrane candidate B1. acquires the fovea centralis M and the optic disc center D as predetermined sites. Here, the shallower recess is acquired as the fovea centralis M, and the deeper recess is acquired as the optic papilla center D. The acquisition method of the predetermined part is not limited to this, and any known acquisition method may be used.

また、篩状板部前面候補B8・後面候補B9は手動で設定してよい。例えば、特定の層境界候補(例えば内境界膜候補B1)の位置を所定量だけ動かすことにより手動で設定できる。なお、検出する層境界の種類は上記に限定されるものではなく、例えば神経線維層/神経節細胞層境界候補B2や神経節細胞層/内網状層境界候補B3を検出してもよいし、脈絡膜の境界候補B10を検出してもよい。また画像特徴取得部304-3が取得する部位は中心窩Mや視神経乳頭中心Dに限られるものではなく、任意の部位を取得してよい。 Further, the anterior surface candidate B8 and the posterior surface candidate B9 of the cribriform plate portion may be set manually. For example, it can be set manually by moving the position of a specific layer boundary candidate (for example, inner limiting membrane candidate B1) by a predetermined amount. The types of layer boundaries to be detected are not limited to those described above. For example, nerve fiber layer/ganglion cell layer boundary candidate B2 or ganglion cell layer/inner plexiform layer boundary candidate B3 may be detected. A choroidal boundary candidate B10 may be detected. Also, the part acquired by the image feature acquiring unit 304-3 is not limited to the fovea centralis M or the center D of the optic papilla, and any part may be acquired.

<ステップ303>
決定部304-43は、層境界の決定処理を行う。本実施形態では、所定の種類の層の層境界に対して検出部304-41が検出した位置と、所定部位からの被検眼深さ方向に垂直な方向もしくは境界に沿った方向の距離と、に基づいて層境界位置を決定する。
<Step 303>
The determination unit 304-43 performs layer boundary determination processing. In this embodiment, the position detected by the detection unit 304-41 with respect to the layer boundary of a predetermined type of layer, the distance from the predetermined site in the direction perpendicular to the depth direction of the subject's eye or along the boundary, Determine the layer boundary position based on

本実施形態では決定部304-43が中心窩Mからの被検眼深さ方向に垂直な方向もしくは境界に沿った方向の距離に応じて、S302で検出した第一の層の層境界候補の位置と、検出部304-41が検出した第二の層の境界候補から算出部304-42が演算処理を実行して算出した第一の層の推定境界の位置、の各々に対して乗じる重みを決定する。さらに、決定部304-43は、重み付けをした第一の層境界候補の位置と、重み付けをした第一の層の推定境界の位置、との和であるBmを第一の層の境界の位置として決定する。なお、ここで記載する「位置」とは、例えば、断層画像における座標のことを示し、より詳しくは、被検眼の深さ方向あるいは第一もしくは第二の層の境界候補と交差する方向の座標である。また、第二の層の境界候補の位置から算出した第一の層の推定境界の位置に基づくとは、被検眼深さ方向に垂直な方向もしくは境界に沿った方向における、第二の層の境界候補の位置から算出した、第一の層の推定境界の第一の層境界候補からの距離に基づくことであってもよい。 In this embodiment, the position of the layer boundary candidate of the first layer detected in S302 by the determining unit 304-43 in accordance with the distance from the fovea M in the direction perpendicular to the depth direction of the subject's eye or in the direction along the boundary. and the position of the estimated boundary of the first layer calculated by the calculation unit 304-42 from the boundary candidate of the second layer detected by the detection unit 304-41. decide. Furthermore, the determining unit 304-43 determines the sum of the weighted position of the first layer boundary candidate and the weighted position of the estimated first layer boundary, Bm, as the position of the first layer boundary. Determined as The "position" described here indicates, for example, the coordinates in the tomographic image, and more specifically, the coordinates in the depth direction of the eye to be examined or in the direction intersecting the boundary candidate of the first or second layer. is. In addition, based on the position of the estimated boundary of the first layer calculated from the position of the boundary candidate of the second layer means that the second layer It may be based on the distance of the estimated boundary of the first layer from the first layer boundary candidate calculated from the position of the boundary candidate.

例えば、算出される第一の層の境界の一例としては、網膜の中間部に存在する内網状層/内顆粒層境界もしくは外網状層/外顆粒層境界があげられる。第一の層の境界はこれに限らず、任意の層境界であってよい。例えば脈絡膜や篩状板の境界であってもよい。また、第二の層の境界の一例としては、ILM,視細胞内節外節接合部(IS/OS)、外網状層、RPEがあげられる。なお、第二の層の境界は第一の層の境界以外の任意の層の境界であってよい。例えば、第一の層の境界が内網状層/内顆粒層境界である場合は、第二の層の境界は外網状層/外顆粒層境界であってよい。また、第一の層の境界は、第一の層の境界候補と第二の層の境界候補の2つの層の層境界候補を用いて算出されることに限定されるものではなく、例えば第三の層の境界候補を検出して用いてもよい。内境界膜候補B1は第三の層の境界候補の一例である。 For example, an example of the boundary of the first layer to be calculated is the inner plexiform layer/inner nuclear layer boundary or the outer plexiform layer/outer nuclear layer boundary existing in the intermediate portion of the retina. The boundary of the first layer is not limited to this, and may be any layer boundary. For example, it may be the boundary of the choroid or cribriform plate. Examples of boundaries of the second layer include the ILM, the junction of the inner and outer photoreceptor segments (IS/OS), the outer plexiform layer, and the RPE. The second layer boundary may be any layer boundary other than the first layer boundary. For example, if the first layer boundary is the inner plexiform/inner nuclear layer boundary, the second layer boundary may be the outer plexiform/outer nuclear layer boundary. Further, the first layer boundary is not limited to being calculated using two layer boundary candidates, the first layer boundary candidate and the second layer boundary candidate. Three layers of boundary candidates may be detected and used. The inner limiting membrane candidate B1 is an example of a third layer boundary candidate.

また、本実施例では、検出部304-41や算出部304-42、および決定部304-43を有する層決定部304-4が、第一の層の層境界の位置を決定する例を記載しているが、第一の層の少なくとも一部の領域に関する位置を決定すればよい。例えば、層領域全体の一を決定してもよいし、層領域に関する表層側の境界と深層側の境界との演算によって得られる位置の位置(例えば所定の比率の内分点もしくは外分点の集合)を決定してもよい。 Further, in this embodiment, an example is described in which the layer determination unit 304-4 having the detection unit 304-41, the calculation unit 304-42, and the determination unit 304-43 determines the position of the layer boundary of the first layer. However, it is only necessary to determine the position with respect to at least a partial region of the first layer. For example, the position of the entire layer area may be determined, or the position of the position obtained by calculating the boundary on the surface side and the boundary on the deep layer side of the layer area set) may be determined.

また、演算方法としては任意の公知の演算処理を実施してよく、本実施形態では、被検眼の深さ方向の任意の直線において、位置を算出する。 Any known arithmetic processing may be performed as a calculation method, and in this embodiment, the position is calculated on an arbitrary straight line in the depth direction of the subject's eye.

例えば、推定境界の位置は、以下のように算出する。
外網状層/外顆粒層の推定境界の位置Bc5
=視細胞内節外節接合部(IS/OS)候補B6の位置-40μm
内網状層/内顆粒層の推定境界の位置Bc4
=内境界膜候補B1+wc4・(Bc5-B1)
として算出する。また重みwc4として任意の値を設定してよいが、0.6もしくは0.7程度が好適である。
For example, the position of the estimated boundary is calculated as follows.
Outer plexiform layer/outer nuclear layer estimated boundary position Bc5
= Position of photoreceptor inner segment outer segment junction (IS/OS) candidate B6 - 40 μm
Position Bc4 of estimated boundary of inner plexiform layer/inner nuclear layer
= inner limiting membrane candidate B1 + wc4 (Bc5 - B1)
Calculate as An arbitrary value may be set as the weight wc4, but approximately 0.6 or 0.7 is preferable.

また、第一の層の推定境界の位置は、第二の層の境界候補の位置と第三の層の境界候補の位置を用いて演算(算出)してもよい。 Also, the position of the estimated boundary of the first layer may be calculated (calculated) using the position of the boundary candidate of the second layer and the position of the boundary candidate of the third layer.

例えば、第二の層の境界候補の位置と第三の層の境界候補の位置の距離の分数比(第二の層の境界候補の位置と第三の層の境界候補の位置の距離の所定の割合の距離)を基に算出しても良い。より詳しい具体例としては、第一の層の推定境界として内網状層/内顆粒層の推定境界の位置Bc4、第二の層の境界候補として外網状層/外顆粒層の境界候補B5、第三の層の境界候補として内境界膜候補B1を用いた場合に
内網状層/内顆粒層の推定境界の位置Bc4
=内境界膜候補B1の位置+wc4・(外網状層/外顆粒層の境界候補B5の位置-内境界膜候補B1の位置)
として算出する。
For example, the fractional ratio of the distance between the position of the boundary candidate in the second layer and the position of the boundary candidate in the third layer (the predetermined distance between the position of the boundary candidate in the second layer and the position of the boundary candidate in the third layer) It may be calculated based on the distance of the ratio of As a more detailed specific example, the position Bc4 of the estimated boundary of the inner plexiform layer/inner nuclear layer as the estimated boundary of the first layer, the boundary candidate B5 of the outer plexiform layer/outer nuclear layer as the boundary candidate of the second layer, Position Bc4 of the estimated boundary between the inner plexiform layer/inner nuclear layer when the inner limiting membrane candidate B1 is used as the third layer boundary candidate
=Position of internal limiting membrane candidate B1+wc4·(Position of outer plexiform layer/external nuclear layer boundary candidate B5−Position of internal limiting membrane candidate B1)
Calculate as

なお、ここでは、被検眼の深さ方向の任意の直線を設定して算出したが、第一もしくは第二の層の境界候補と交差する方向の任意の直線を設定して算出してもよい。 Here, the calculation is performed by setting an arbitrary straight line in the depth direction of the eye to be examined, but the calculation may be performed by setting an arbitrary straight line in the direction intersecting the boundary candidate of the first or second layer. .

また、第一の層の推定境界の位置は、第二の層の境界候補から所定の距離として算出してもよい。例えば、第二の層境界候補を外網状層/外顆粒層境界候補B5とした場合に、外網状層/外顆粒層境界候補B5からの所定の距離として内網状層/内顆粒層の推定境界の位置Bc4を算出してもよい。 Also, the position of the estimated boundary of the first layer may be calculated as a predetermined distance from the candidate boundary of the second layer. For example, when the second layer boundary candidate is the outer plexiform layer/outer nuclear layer boundary candidate B5, the estimated boundary of the inner plexiform layer/inner nuclear layer is defined as a predetermined distance from the outer plexiform layer/outer nuclear layer boundary candidate B5. may be calculated.

なお、演算方法は線形演算に限定されるものではなく、非線形の演算処理を用いてもよい。また、wc4の位置の算出は、層境界に対して略法線方向に適用してもよいし、略深度方向もしくは測定光の照射方向に適用してもよい。すなわち、該算出処理は断層画像の第一の層もしくは第二の層の境界候補に交差する方向での位置で行ってもよいし、被検眼深さ方向での位置で行ってもよいし、Aスキャン方向での位置で実行してもよい。 Note that the calculation method is not limited to linear calculation, and non-linear calculation processing may be used. Further, the calculation of the position of wc4 may be applied in the substantially normal direction with respect to the layer boundary, or may be applied in the substantially depth direction or the irradiation direction of the measurement light. That is, the calculation process may be performed at a position in the direction intersecting the boundary candidate of the first layer or the second layer of the tomographic image, or at a position in the depth direction of the subject's eye, It may be executed at a position in the A-scan direction.

また広画角断層画像の周辺部(図3(c)のPTやPN)では眼底全体が次第に薄くなり、広画角断層画像の端部では断層画像の輝度やコントラストが低下しやすいという傾向がある。従って、広画角断層画像の周辺部では所定の層で検出される層境界候補(例えば内網状層/内顆粒層境界候補B4や外網状層/外顆粒層境界候補B5)間の距離が略0になりやすく、投影深度範囲として用いる際に支障をきたしてしまう。一方、後極部(黄斑や視神経乳頭部)では浮腫や牽引・剥離等に起因する層境界異常が生じやすいため、実際に検出された層境界を用いて投影深度範囲を指定しないと観察したい深度範囲を全て含めることができなくなる。 In addition, in the periphery of the wide-angle tomographic image (PT and PN in FIG. 3(c)), the entire fundus becomes gradually thin, and at the edges of the wide-angle tomographic image, the brightness and contrast of the tomographic image tend to decrease. be. Therefore, in the peripheral portion of the wide-angle tomographic image, the distance between layer boundary candidates (for example, inner plexiform layer/inner nuclear layer boundary candidate B4 and outer plexiform layer/outer nuclear layer boundary candidate B5) detected in a predetermined layer is approximately It tends to be 0, which causes problems when used as the projection depth range. On the other hand, in the posterior pole (macula and optic papilla), layer boundary abnormalities due to edema, traction, and detachment are likely to occur. It will not be possible to include all ranges.

そこで、本実施形態では以下の式に基づいて決定部304-43が所定部位からの距離に基づいて所定の種類の層境界の位置を決定する。実際に検出した第一の層の境界候補の位置(以下、実検出位置と表記)をBd、第二の層の境界候補を用いた演算により算出した第一の層の推定境界の位置をBcとし、各々に対して乗じる重みをwd、wcとすれば、決定部304-43により決定された第一の層の境界の位置Bmは
Bm=wd・Bd+wc・Bc
と表せる。wd、wcとして任意の関数もしくは定数を用いてよいが、本実施形態ではwd=1.0-wcとし、wcをシグモイド関数として定義する。また、wdもしくはwcの一方を1とすることも重み付けをすることに含むものとする。
Therefore, in this embodiment, the determination unit 304-43 determines the position of the layer boundary of the predetermined type based on the distance from the predetermined site based on the following formula. Bd is the position of the actually detected boundary candidate of the first layer (hereinafter referred to as actual detection position), and Bc is the position of the estimated boundary of the first layer calculated by calculation using the boundary candidate of the second layer. and the weights to be multiplied are wd and wc, then the position Bm of the boundary of the first layer determined by the determining unit 304-43 is Bm=wd·Bd+wc·Bc
can be expressed as Arbitrary functions or constants may be used as wd and wc, but in this embodiment, wd=1.0-wc and wc is defined as a sigmoid function. Setting one of wd and wc to 1 is also included in weighting.

もちろんこれに限らず、線形もしくは高次関数、矩形関数、指数関数、三角関数等任意の関数を用いてwcを設定してよい。なお、ここでの位置も、断層画像の第一の層もしくは第二の層の境界候補に交差する方向での位置で算出してもよいし、被検眼深さ方向での位置で算出してよいし、Aスキャン方向での位置で算出してもよい。 Of course, wc is not limited to this, and may be set using arbitrary functions such as linear or higher-order functions, rectangular functions, exponential functions, and trigonometric functions. The position here may also be calculated by the position in the direction intersecting the boundary candidate of the first layer or the second layer of the tomographic image, or by the position in the depth direction of the subject's eye. Alternatively, the position in the A-scan direction may be used for calculation.

例えばゲインが0.9で、中心窩からの距離が7mmの位置において接線の傾きが最大となるようなシグモイド関数をwcとして設定すればよい。このように重みwd及びwcを設定することにより、中心窩からの距離が小さい(後極部)ほどBdに対する重みwdを大きく、中心窩からの距離が大きい(周辺部)ほどBcに対する重みwcを大きく設定できる。従って黄斑部に生じやすい浮腫等の層境界異常領域に対しても、層厚が薄く低コントラストになりやすい周辺部に対しても、正確かつロバストに第一の層の境界を決定できる。 For example, wc may be set to a sigmoid function that maximizes the slope of the tangent line at a distance of 7 mm from the fovea with a gain of 0.9. By setting the weights wd and wc in this way, the smaller the distance from the fovea (posterior pole), the larger the weight wd for Bd, and the larger the distance from the fovea (periphery), the larger the weight wc for Bc. Can be set large. Therefore, the boundary of the first layer can be accurately and robustly determined for a layer boundary abnormal region such as edema, which tends to occur in the macular region, and for a peripheral region where the layer thickness is thin and tends to have low contrast.

なお、所定の部位(中心窩等)からの距離としては断層画像内の任意方向の直線距離を用いてもよいし、層境界に基づく曲面(もしくは曲線)に沿って計測した距離を用いてもよい。また、Aスキャン方向と垂直な方向の所定の部位からの距離でもよい。 As the distance from a predetermined site (fovea, etc.), a straight line distance in any direction in the tomographic image may be used, or a distance measured along a curved surface (or curve) based on the layer boundary may be used. good. Alternatively, it may be a distance from a predetermined portion in a direction perpendicular to the A-scan direction.

<ステップ304>
層決定部304-4が、層境界の種類に応じてS302で検出した層境界候補BdもしくはS303で決定した第一の層の層境界Bmを層境界として、記憶部302に記憶する。本実施形態では、網膜の中間部の層である内網状層/内顆粒層境界B4と外網状層/外顆粒層境界B5に関してS303で決定した層境界Bmを層境界とし、それ以外の層境界に関してS302で検出した層境界候補Bdを層境界として決定する。
層境界の主な利用目的として
i)投影深度範囲を指定し、該投影深度範囲内で正面画像(断層画像やモーションコントラスト画像)を生成する
ii)層厚計測(網膜や脈絡膜、篩状板を構成する層境界間の厚みの算出)
iii)投影深度範囲を指定し、該投影深度範囲内で血管領域に基づく計測値を算出する(例.血管密度、血管長、血管領域の面積や体積、血管径に基づく計測値の算出)
iv)投影深度範囲を指定し、該投影深度範囲内で断層画像に基づく(層厚計測以外の)計測値を算出する(例.嚢胞や剥離領域に関するサイズの算出)
の4種類がある。
<Step 304>
The layer determination unit 304-4 stores the layer boundary candidate Bd detected in S302 or the layer boundary Bm of the first layer determined in S303 in the storage unit 302 as a layer boundary according to the type of layer boundary. In the present embodiment, the layer boundary Bm determined in S303 for the inner plexiform layer/inner nuclear layer boundary B4 and the outer plexiform layer/outer nuclear layer boundary B5, which are layers in the middle part of the retina, is used as the layer boundary, and the other layer boundaries , the layer boundary candidate Bd detected in S302 is determined as the layer boundary.
The main purpose of using the layer boundary is i) to specify the projection depth range and generate a front image (tomographic image or motion contrast image) within the projection depth range ii) layer thickness measurement (retina, choroid, cribriform plate) Calculation of thickness between constituent layer boundaries)
iii) Specifying a projection depth range, and calculating measurement values based on the vascular region within the projection depth range (e.g., calculation of measurement values based on blood vessel density, blood vessel length, area and volume of the blood vessel region, and blood vessel diameter)
iv) Specifying a projection depth range, and calculating a measurement value (other than layer thickness measurement) based on a tomographic image within the projection depth range (e.g., calculating the size of a cyst or peeling area)
There are four types of

ii)の層厚の計測例としては、例えば網膜神経節細胞層複合体の厚み(内境界膜と、内網状層/内顆粒層境界との間の距離)が挙げられる。 Examples of ii) layer thickness measurements include the thickness of the retinal ganglion cell layer complex (the distance between the inner limiting membrane and the inner plexiform layer/inner nuclear layer boundary).

上記ii)~iv)に挙げた計測値は、図6(a)の右下に示すように数値やグラフとして表示してもよいし、同図左上の529に示すようにカラーマップとして表示してもよい。あるいは、同図左上・左下の530、図5(a)の517・518・519・520・521・522に例示するような局所領域ごとの計測値の代表値を表示してもよい。本実施形態ではS302で検出した層境界BdもしくはS303で決定した層境界Bmに基づいて計測した値を表示するが、これに限定されない。例えばS302で検出した層候補Bdも記憶部302にしておき、S303で説明した決定処理を適用して得られた層境界Bmを用いて計測した値(すなわち、第一の層の推定境界の位置に基づく計測値)と、S302で検出した層候補Bdに基づいて計測した値(すなわち、第一の層の推定境界の位置に基づかない第二の計測値)とを識別可能な態様(色・マーク・文字列・画像・数値・グラフ等)で表示したり、切り替えたり、もしくは一方のみ表示したりしてもよい。あるいは、計測値毎にS302で検出した層境界候補Bdをそのまま用いて計測した値なのか、S303で説明した決定処理を適用して得られた層境界Bmを用いて計測した値なのかを識別可能な態様(色・マーク・文字列・画像等)で表示してもよい。 The measured values listed in ii) to iv) above may be displayed as numerical values or graphs as shown in the lower right of FIG. may Alternatively, the representative values of the measured values for each local area may be displayed as illustrated in 530 in the upper left and lower left of the figure and 517, 518, 519, 520, 521, and 522 in FIG. 5(a). In this embodiment, a value measured based on the layer boundary Bd detected in S302 or the layer boundary Bm determined in S303 is displayed, but the present invention is not limited to this. For example, the layer candidate Bd detected in S302 is also stored in the storage unit 302, and the value measured using the layer boundary Bm obtained by applying the determination process described in S303 (that is, the position of the estimated boundary of the first layer ) and the value measured based on the layer candidate Bd detected in S302 (that is, the second measured value not based on the position of the estimated boundary of the first layer) can be distinguished (color, Marks, character strings, images, numerical values, graphs, etc.) may be displayed, switched, or only one of them may be displayed. Alternatively, for each measured value, it is identified whether the value is measured using the layer boundary candidate Bd detected in S302 as it is or the value is measured using the layer boundary Bm obtained by applying the determination process described in S303. It may be displayed in a possible mode (color, mark, character string, image, etc.).

また層境界候補Bdに基づいて計測した値を表示する場合に、計測したい所定の層境界Bd間の距離が略0のAスキャン位置では、層境界の信頼度が低いとみなして計測値を他の領域と異なる態様で表示したり、計測値を表示しないようにしたりしてもよい。 Further, when displaying values measured based on the layer boundary candidates Bd, at A-scan positions where the distance between the predetermined layer boundaries Bd to be measured is approximately 0, the reliability of the layer boundary is regarded as low and the measured values are displayed. may be displayed in a manner different from the area of , or the measured values may not be displayed.

以上述べた構成によれば、画像処理装置300は広画角OCT断層画像に対する層境界候補を検出した後、層境界位置を決定する際に所定の部位からの距離に応じて該距離が近い位置では層境界候補からの変更量を小さく、該距離が離れた位置では該変更量が大きくなるよう決定する。 According to the configuration described above, the image processing apparatus 300 detects a layer boundary candidate for a wide-angle OCT tomographic image, and then determines a layer boundary position based on the distance from a predetermined site. is determined so that the amount of change from the layer boundary candidate is small, and the amount of change is large at a position distant from the distance.

層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定できる。 In a wide-angle tomographic image of an eye to be examined that includes a layer shape abnormality, layer boundaries can be robustly determined regardless of the region.

[第2の実施形態]
本実施形態に係る画像処理装置は、広画角OCT断層画像に対して層境界候補を検出した後、該層境界候補の信頼度に相当する評価値に応じて該層境界候補位置からの変更量を決定し、該変更量分だけ変更した位置を層境界として決定する。
[Second embodiment]
After detecting a layer boundary candidate in a wide-angle OCT tomographic image, the image processing apparatus according to the present embodiment changes the position of the layer boundary candidate according to an evaluation value corresponding to the reliability of the layer boundary candidate. The amount is determined, and the position changed by the change amount is determined as the layer boundary.

これにより、層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定する場合について説明する。 A case will be described in which layer boundaries are robustly determined irrespective of sites in a wide-angle tomographic image of an eye to be inspected that includes layer shape anomalies.

本実施形態に係る画像処理装置300を備える画像処理システム200の構成と、本実施形態における画像処理フローは第1実施形態と同様であるので省略する。なお、本実施形態の画像処理フローのうち図2(a)のS205~S207については第1実施形態の場合と同様であるので説明は省略する。 The configuration of an image processing system 200 including an image processing apparatus 300 according to the present embodiment and the image processing flow according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. Note that S205 to S207 in FIG. 2A in the image processing flow of this embodiment are the same as in the case of the first embodiment, so description thereof will be omitted.

<ステップ201>
操作者は入力部700を操作することにより、断層画像撮影装置200に対して指示するOCTA画像の撮影条件を設定する。
<Step 201>
By operating the input unit 700 , the operator sets the imaging conditions for the OCTA image to be instructed to the tomography apparatus 200 .

撮影条件のうち、繰り返しOCTA撮影を行わない、すなわち本ステップで取得するクラスタ数が1である点が第1実施形態と異なる。すなわち、
1)Ultra Wide検査セットを登録
2)OCTAスキャンモードを選択
3)以下の撮影パラメータを設定
3-1)走査パターン:Super Large
3-2)走査領域サイズ:23x20mm
3-3)主走査方向:水平方向
3-4)走査間隔:0.02mm
3-5)固視灯位置:黄斑
3-6)1クラスタあたりのBスキャン数:3
3-7)コヒーレンスゲート位置:硝子体側
3-8)既定表示レポート種別:単検査用レポート
を撮影条件として設定する。
Among the imaging conditions, the difference from the first embodiment is that OCTA imaging is not repeatedly performed, that is, the number of clusters acquired in this step is one. i.e.
1) Register Ultra Wide examination set 2) Select OCTA scan mode 3) Set the following imaging parameters 3-1) Scanning pattern: Super Large
3-2) Scanning area size: 23x20mm
3-3) Main scanning direction: horizontal direction 3-4) Scanning interval: 0.02 mm
3-5) Fixation light position: macula 3-6) Number of B-scans per cluster: 3
3-7) Coherence gate position: Vitreous body side 3-8) Default display report type: Single examination report is set as an imaging condition.

<ステップ202>
操作者は入力部700を操作してS201で指定した撮影条件によるOCTA撮影を開始する。撮影制御部303は断層画像撮影装置200に対してS201で操作者が指示した設定に基づいてOCTA撮影を実施することを指示し、断層画像撮影装置200が対応するOCT断層画像を取得する。また眼底像撮影部400はSLO画像の取得を行い、SLO動画像に基づく追尾処理を実行する。
<Step 202>
The operator operates the input unit 700 to start OCTA imaging under the imaging conditions specified in S201. The imaging control unit 303 instructs the tomographic imaging apparatus 200 to perform OCTA imaging based on the settings instructed by the operator in S201, and the tomographic imaging apparatus 200 acquires the corresponding OCT tomographic image. Further, the fundus image capturing unit 400 acquires an SLO image and executes tracking processing based on the SLO moving image.

<ステップ203>
画像取得部301及び画像処理部304は、S202で取得されたOCT断層画像に基づいてモーションコントラスト画像(モーションコントラストデータ)を生成する。実施形態1のS203と同様の手順でモーションコントラスト画像を生成した後、補正部304-5がモーションコントラスト画像上に生じたプロジェクションアーチファクト405の抑制処理を実行する。
<Step 203>
The image acquisition unit 301 and image processing unit 304 generate a motion contrast image (motion contrast data) based on the OCT tomographic image acquired in S202. After generating the motion contrast image in the same procedure as in S203 of the first embodiment, the correction unit 304-5 executes suppression processing of the projection artifact 405 generated on the motion contrast image.

高画質化部304-2は、少数枚の断層画像から生成した低画質なモーションコントラスト画像を機械学習モデルに入力することにより、多数枚の断層画像から生成した場合と同等の高画質な(低ノイズかつ高コントラストな)モーションコントラスト画像を生成する。ここで機械学習モデルとは、教師データを用いて機械学習を行うことにより生成した関数のことを指す。本実施形態では、処理対象として想定される所定の撮影条件で取得された低画質な画像である入力データと、入力データに対応する高画質画像である出力データのペア群で構成された教師データを用いて機械学習を行うことにより生成した関数とする。 The image quality enhancement unit 304-2 inputs a low image quality motion contrast image generated from a small number of tomographic images to the machine learning model to obtain a high image quality (low generate motion contrast images (noisy and high contrast). Here, the machine learning model refers to a function generated by performing machine learning using teacher data. In the present embodiment, teacher data composed of pairs of input data, which is a low-quality image acquired under predetermined shooting conditions assumed to be processed, and output data, which is a high-quality image corresponding to the input data. It is a function generated by performing machine learning using

なお、所定の撮影条件には撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。 The predetermined imaging conditions include a body part to be imaged, an imaging method, an imaging angle of view, an image size, and the like.

また本実施形態では、ユーザが図5(a)のレポート画面右上に示すDenoiseボタン515を押下することにより、高画質化部304-2がモーションコントラスト画像に対する高画質化処理を実施するものとする。 Also, in this embodiment, when the user presses the Denoise button 515 shown in the upper right of the report screen in FIG. .

本実施形態において教師データとして用いる入力データは断層画像数の少ない単一クラスタから生成された低画質モーションコントラスト画像とし、(教師データとして用いる)出力データは位置合わせ済の複数のモーションコントラストデータを加算平均して得られた高画質モーションコントラスト画像とする。なお教師データとして用いる出力データはこれに限らず、例えば多数枚の断層画像で構成される単一クラスタから生成された高画質なモーションコントラスト画像でもよい。なお、機械学習モデルのトレーニングに用いる入力画像と出力画像のペアは上記に限られるものではなく、任意の公知の画像の組み合わせを用いてよい。例えば断層画像撮影装置200や他の装置で取得したモーションコントラスト画像に第一のノイズ成分を付加した画像を入力画像とし、該(断層画像撮影装置200や他の装置で取得した)モーションコントラスト画像に(第一のノイズ成分とは異なる)第二のノイズ成分を付加した画像を出力画像として機械学習モデルのトレーニングに用いてもよい。 In this embodiment, the input data used as teacher data is a low-quality motion contrast image generated from a single cluster with a small number of tomographic images, and the output data (used as teacher data) is an addition of multiple aligned motion contrast data. Let the averaged high-quality motion-contrast image be obtained. Output data used as teacher data is not limited to this, and may be, for example, a high-quality motion contrast image generated from a single cluster composed of a large number of tomographic images. The pair of input image and output image used for training the machine learning model is not limited to the above, and any known combination of images may be used. For example, an image obtained by adding a first noise component to a motion contrast image acquired by the tomographic imaging device 200 or another device is used as an input image, and the motion contrast image (acquired by the tomographic imaging device 200 or another device) is used as an input image. The image with the added second noise component (different from the first noise component) may be used as an output image for training a machine learning model.

実施形態に係る高画質化部304-2における機械学習モデルの構成例を図7に示す。該機械学習モデルは畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)であり、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお前記構成に含まれる層の種類として、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、合成(Merger)層がある。畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、前記フィルタのカーネルサイズの次元数も変更してもよい。すなわち、入力が2次元画像(Bスキャン画像、正面画像、任意方向の断面画像、曲断面画像)の場合は次元数を2次元とし、入力が3次元画像の場合は次元数を3次元とすればよい。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。具体的には、例えば、Max Pooling処理がある。アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。このような構成では、入力画像701を構成する画素値群が畳み込み処理ブロックを経て出力された値群と、入力画像701を構成する画素値群が、合成層で合成される。その後、合成された画素値群は最後の畳み込み層で高画質画像702に成形される。なお、図示はしないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしても良い。 FIG. 7 shows a configuration example of a machine learning model in the image quality enhancing unit 304-2 according to the embodiment. The machine learning model is a convolutional neural network (CNN), and is composed of a plurality of layer groups for processing input value groups and outputting them. The types of layers included in the above configuration include a convolution layer, a downsampling layer, an upsampling layer, and a merger layer. The convolution layer is a layer that performs convolution processing on an input value group according to set parameters such as the kernel size of filters, the number of filters, the stride value, and the dilation value. Note that the number of dimensions of the kernel size of the filter may also be changed according to the number of dimensions of the input image. That is, if the input is a two-dimensional image (B-scan image, frontal image, cross-sectional image in an arbitrary direction, curved cross-sectional image), the number of dimensions should be two, and if the input is a three-dimensional image, the number of dimensions should be three. Just do it. A down-sampling layer is a process that reduces the number of output value groups to the number of input value groups by thinning out or synthesizing input value groups. Specifically, for example, there is a Max Pooling process. The upsampling layer is a process that makes the number of output value groups larger than the number of input value groups by duplicating the input value groups or adding values interpolated from the input value groups. Specifically, for example, there is linear interpolation processing. The synthesizing layer is a layer that performs a process of synthesizing a group of values such as a group of output values of a certain layer and a group of pixel values forming an image from a plurality of sources and connecting or adding them. In such a configuration, the value group output from the pixel value group forming the input image 701 through the convolution processing block and the pixel value group forming the input image 701 are synthesized in the synthesis layer. The combined pixel values are then shaped into a high quality image 702 in a final convolutional layer. Although not shown in the figure, as an example of changing the configuration of the CNN, for example, a batch normalization layer after the convolution layer or an activation layer using a normalized linear function (Rectifier Linear Unit) is incorporated. You can

なお、図7では説明を簡単にするため処理対象画像を低画質2次元画像1枚として説明しているが、本発明はこれに限定されない。例えば、異なる走査位置の低画質2次元画像で構成される低画質3次元画像を処理対象画像とし、図7で説明した高画質化処理を各低画質2次元画像に対して適用することにより高画質3次元画像を生成してもよい。あるいは、機械学習モデル内で適用するフィルタのカーネルの次元数を2次元ではなく3次元とし、3次元の低画質画像を高画質化部304-2に入力して3次元の高画質画像を出力する場合も本発明に含まれる。 In FIG. 7, the image to be processed is one low-quality two-dimensional image for the sake of simplicity, but the present invention is not limited to this. For example, a low-quality three-dimensional image composed of low-quality two-dimensional images at different scanning positions is set as an image to be processed, and the high-quality image processing described with reference to FIG. 7 is applied to each low-quality two-dimensional image. A quality three-dimensional image may be generated. Alternatively, the number of dimensions of the kernel of the filter applied in the machine learning model is set to three dimensions instead of two dimensions, and the three-dimensional low-quality image is input to the image quality enhancement unit 304-2 to output a three-dimensional high-quality image. It is also included in the present invention.

<ステップ204>
検出部304-41が該重ね合わせ断層画像から層境界候補もしくは篩状板部前面B8・後面B9候補を検出する。次に、決定部304-43が層境界候補もしくは篩状板部の前面B8・後面B9候補の信頼度に相当する評価値を算出して該評価値に基づいて層境界を決定する。
<Step 204>
A detection unit 304-41 detects a layer boundary candidate or a cribriform plate anterior surface B8/posterior surface B9 candidate from the superimposed tomographic images. Next, the determining unit 304-43 calculates an evaluation value corresponding to the reliability of the layer boundary candidate or the anterior surface B8/posterior surface B9 candidate of the cribriform plate and determines the layer boundary based on the evaluation value.

層決定処理の詳細はS401~404で説明する。 Details of the layer determination process will be described in S401 to S404.

さらに、図2(c)に示すフローチャートを参照しながら、S204で実行される処理の詳細について説明する。なお、S402とS404については第1実施形態におけるS302、S304と各々同じ処理内容であるので詳細は省略する。 Furthermore, the details of the processing executed in S204 will be described with reference to the flowchart shown in FIG. 2(c). Note that S402 and S404 have the same processing contents as S302 and S304 in the first embodiment, respectively, so details thereof are omitted.

<ステップ401>
高画質化部304-2は、S203で再構成した断層画像に対する高画質化処理を行う。本実施形態では、高画質化部304-2が図7に示すような機械学習モデルに対して単一の低画質な断層画像を入力し、高画質な断層画像を出力する高画質化処理を実施する。機械学習モデルとして任意の公知の機械学習モデルを用いることができるが、本実施形態ではS203と同様の構成の機械学習モデルを用いるものとし、詳細な説明については省略する。
<Step 401>
The image quality enhancement unit 304-2 performs image quality enhancement processing on the tomographic image reconstructed in S203. In this embodiment, the image quality enhancement unit 304-2 inputs a single low-quality tomographic image to the machine learning model shown in FIG. 7, and performs image quality enhancement processing for outputting a high-quality tomographic image. implement. Any known machine learning model can be used as the machine learning model, but in the present embodiment, a machine learning model having the same configuration as that of S203 is used, and detailed description thereof is omitted.

<ステップ403>
検出部304-41が該重ね合わせ断層画像から層境界候補もしくは篩状板部の前面領域B8・後面領域B9候補を検出する。さらに、本実施形態では決定部304-43が層境界候補もしくは篩状板部の前面領域B8・後面領域B9候補の信頼度に相当する評価値を算出する。次に、決定部304-43は該評価値に基づいて第一の層の境界候補に乗じる重みと算出部304-42がいくつかの層境界候補に対する演算処理を実行して算出した第一の層の推定境界に対して乗じる重みとを決定する。すなわち、該評価値が低い場合には第一の層の境界候補に対して乗じる重みが低く、第一の層の推定境界に対して乗じる重みが高くなるように設定する。さらに、決定部304-43は重み付けをした第一の層の境界候補の位置と重み付けをした第一の層の推定境界の位置の和として決定する。
<Step 403>
A detection unit 304-41 detects a layer boundary candidate or a front region B8 and a rear region B9 candidate of the cribriform plate from the superimposed tomographic images. Further, in this embodiment, the determination unit 304-43 calculates an evaluation value corresponding to the reliability of the layer boundary candidate or the candidate of the anterior region B8 and the posterior region B9 of the cribriform plate. Next, the determination unit 304-43 determines the weight by which the first layer boundary candidate is multiplied based on the evaluation value, and the calculation unit 304-42 performs arithmetic processing on several layer boundary candidates to calculate the first weight. Determine the weights to be multiplied for the estimated boundaries of the layers. That is, when the evaluation value is low, the weight to be multiplied by the boundary candidate of the first layer is low, and the weight to be multiplied by the estimated boundary of the first layer is set to be high. Further, the determination unit 304-43 determines the sum of the weighted position of the first layer boundary candidate and the weighted position of the estimated first layer boundary.

層境界候補の信頼度に相当する評価値として任意の公知の評価値を用いてよいが、本実施形態では、評価対象とする層境界に接する層の間で算出される輝度コントラストの平均を用いる。もちろん、これに限らず任意の公知の評価値を算出してよい。例えば断層画像に対してエッジ強調処理を行い、該エッジ強調画像における層境界のエッジ強度に基づいて該評価値を決定してもよい。 Any known evaluation value may be used as the evaluation value corresponding to the reliability of the layer boundary candidate. . Of course, not limited to this, any known evaluation value may be calculated. For example, edge enhancement processing may be performed on the tomographic image, and the evaluation value may be determined based on the edge intensity of the layer boundary in the edge-enhanced image.

あるいは、測定光が層境界候補で規定される曲面の略法線方向(もしくは略接線方向)に対してなす角度に基づいて該信頼度に相当する評価値を決定してもよい。例えば眼底の周辺部では測定光の光軸方向と層境界で規定される曲面の略法線方向(略接線方向)とのなす角度が大きく(小さく)なる。このような状況では断層画像撮影装置200で検出される断層画像の信号データが減弱して断層画像の輝度値が低下したり隣接層間の輝度コントラストが低下したりしやすいため、該評価値を低い値に割り当てる。具体的な評価値として、例えば
(測定光の照射方向と層境界候補で規定される層境界の略接線方向とのなす角度)[rad]/(π/2)[rad]
を算出すればよい。この場合、該評価値として0から1までの値をとり得る。
Alternatively, the evaluation value corresponding to the reliability may be determined based on the angle that the measurement light makes with respect to the substantially normal direction (or substantially tangential direction) of the curved surface defined by the layer boundary candidate. For example, in the peripheral portion of the fundus, the angle formed by the optical axis direction of the measurement light and the substantially normal direction (substantially tangential direction) of the curved surface defined by the layer boundary becomes large (small). In such a situation, the signal data of the tomographic image detected by the tomographic imaging apparatus 200 is attenuated, and the luminance value of the tomographic image tends to decrease and the luminance contrast between adjacent layers tends to decrease. Assign to value. As a specific evaluation value, for example, (the angle between the irradiation direction of the measurement light and the substantially tangential direction of the layer boundary defined by the layer boundary candidate) [rad]/(π/2) [rad]
should be calculated. In this case, a value from 0 to 1 can be taken as the evaluation value.

また、層境界候補形状(屈曲度等)や隣り合う層境界候補間の距離(すなわち第一の層の層厚)、各Aスキャン位置における層境界位置候補の数に基づいて該評価値を決定する場合も本発明に含まれる。 Also, the evaluation value is determined based on the shape of the layer boundary candidate (degree of curvature, etc.), the distance between adjacent layer boundary candidates (that is, the layer thickness of the first layer), and the number of layer boundary position candidates at each A-scan position. It is also included in the present invention.

例えば、層境界候補を用いて測定した層厚がゼロかそれに近い値の場合、その層厚測定に用いられた層境界候補は正しく検出できていない(信頼性が低い)可能性が高い。また、層境界候補を用いて測定した層厚が異常に大きな値になる場合も同様である。このような状況では層境界候補よりも層境界推定値の方が適切な層境界であることが多い。そのため、層境界候補を用いて測定した層厚に応じて、層境界候補と層境界推定位置の重みづけ和を算出する際の重みwを変化させるようにしても良い。 For example, if the layer thickness measured using the layer boundary candidate is zero or a value close to it, there is a high possibility that the layer boundary candidate used for the layer thickness measurement has not been correctly detected (reliability is low). The same applies when the layer thickness measured using the layer boundary candidate becomes an abnormally large value. In such a situation, the estimated layer boundary is often a better layer boundary than the candidate layer boundary. Therefore, the weight w for calculating the weighted sum of the layer boundary candidate and the estimated layer boundary position may be changed according to the layer thickness measured using the layer boundary candidate.

具体的には、層境界候補を用いて測定した層厚が所定値よりも小さい場合に層境界推定位置の重みを大きくしても良い。或いは層厚が所定値よりも大きい場合に層境界推定位置の重みを大きくしても良い。また、層厚に応じた任意の関数として該重みを定義しても良いし、層厚に応じた該重みが格納されたルックアップテーブルを参照することで該重みを決定するようにしても良い。 Specifically, when the layer thickness measured using the layer boundary candidate is smaller than a predetermined value, the weight of the estimated layer boundary position may be increased. Alternatively, the weight of the estimated layer boundary position may be increased when the layer thickness is greater than a predetermined value. Also, the weight may be defined as an arbitrary function corresponding to the layer thickness, or the weight may be determined by referring to a lookup table in which the weight corresponding to the layer thickness is stored. .

このようにすることで、眼底の周辺部等で層境界候補の信頼性が低く層厚がゼロに近くなった場合でも、層境界推定位置の重みを大きくすることでより適切な層境界を決定することができる。 By doing so, even if the reliability of the layer boundary candidate is low and the layer thickness is close to zero in the periphery of the fundus, etc., a more appropriate layer boundary is determined by increasing the weight of the estimated position of the layer boundary. can do.

なお、本発明における層境界決定法は検出部304-41が検出した層境界候補と算出部304-42が算出した層境界推定位置との重みづけ和に限定されるものではない。また、算出部304-42は本発明に必須の構成要件ではない。例えば所定の部位もしくは所定の種類の層境界に対して検出部304-41が検出した層境界候補に関する評価値(層境界候補間距離等)が所定値未満の場合に、該層境界候補間距離が所定値以上になるように決定部304-43が層境界候補の位置を決定する場合も本発明に含まれる。 Note that the layer boundary determination method in the present invention is not limited to the weighted sum of the layer boundary candidate detected by the detector 304-41 and the estimated layer boundary position calculated by the calculator 304-42. Also, the calculator 304-42 is not an essential component of the present invention. For example, when the evaluation value (distance between layer boundary candidates, etc.) regarding the layer boundary candidate detected by the detection unit 304-41 for a predetermined portion or a predetermined type of layer boundary is less than a predetermined value, the distance between the layer boundary candidates The present invention also includes a case in which the determination unit 304-43 determines the position of the layer boundary candidate such that is equal to or greater than a predetermined value.

以上述べた構成によれば、画像処理装置300は広画角OCT断層画像に対して層境界候補を検出した後、検出した層境界候補の信頼度に基づいて層境界候補位置からの変更量を決定し、該変更量分だけ変更した位置を層境界として決定する。 According to the configuration described above, the image processing apparatus 300 detects a layer boundary candidate in a wide-angle OCT tomographic image, and then calculates the amount of change from the layer boundary candidate position based on the reliability of the detected layer boundary candidate. A position changed by the change amount is determined as a layer boundary.

これにより、層形状異常を含むような被検眼の広画角断層像において、部位によらずロバストに層境界を決定できる。 As a result, in a wide-angle tomographic image of an eye to be examined that includes a layer shape abnormality, the layer boundary can be determined robustly regardless of the region.

[その他の実施形態]
上記の各実施形態では、画像処理装置300として実現したが、本発明の実施形態は画像処理装置300のみに限定されるものではない。例えば、本発明はシステム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることができる。
[Other embodiments]
Although each of the above embodiments is implemented as the image processing device 300, the embodiments of the present invention are not limited to the image processing device 300 only. For example, the present invention can be embodied as a system, device, method, program, storage medium, or the like.

また、上記の各実施形態では、SS-OCTもしくはSD-OCTを用いた広画角断層画像を取得する場合について説明した。SS-OCT画像とSD-OCT画像とでは画質が異なるため、両者に対して異なる種類の層境界群を検出するよう検出部304-41や算出部304-42、決定部304-43、層決定部304-4を構成する場合も本発明に含まれる。 Further, in each of the above embodiments, the case of acquiring a wide-angle tomographic image using SS-OCT or SD-OCT has been described. Since the SS-OCT image and the SD-OCT image have different image quality, the detection unit 304-41, the calculation unit 304-42, the determination unit 304-43, and the layer determination unit 304-43 are configured to detect different types of layer boundary groups for both. The present invention also includes the case where the unit 304-4 is configured.

301 画像取得部
304-41 検出部
304-42 算出部
304-43 決定部
301 image acquisition unit 304-41 detection unit 304-42 calculation unit 304-43 determination unit

Claims (21)

被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する検出手段と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補の位置から算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する決定手段と、
を有することを特徴とする画像処理装置。
detection means for detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be inspected;
position of the first layer boundary candidate in the depth direction of the eye to be examined or in a direction intersecting the first or second layer boundary candidate on the tomographic image; determining means for determining the position of at least a portion of the region with respect to the first layer based on the position of the estimated boundary of the first layer calculated from the position of the candidate boundary of the layer;
An image processing device comprising:
前記決定手段が、
前記第一の層に関する少なくとも一部の領域の位置を、
重み付けをした前記第一の層の境界候補の位置と、重み付けをした前記第一の層の推定境界の位置と、の和に基づいて決定することを特徴とする請求項1に記載の画像処理装置。
The determining means
the position of at least a portion of the region with respect to the first layer,
2. The image processing according to claim 1, wherein the determination is based on the sum of the weighted position of the boundary candidate of the first layer and the weighted position of the estimated boundary of the first layer. Device.
前記断層画像上の被検眼深さ方向に垂直な方向もしくは境界に沿った方向における、所定の部位からの距離に応じて、前記重み付けを算出することを特徴とする請求項2に記載の画像処理装置。 3. The image processing according to claim 2, wherein the weighting is calculated according to a distance from a predetermined site in a direction perpendicular to the depth direction of the subject's eye on the tomographic image or in a direction along a boundary. Device. 前記所定の部位が視神経乳頭中心もしくは中心窩であることを特徴とする請求項3に記載の画像処理装置。 4. The image processing apparatus according to claim 3, wherein the predetermined site is the center of the optic papilla or the fovea fovea. 前記決定手段が、
前記第一の層の境界候補の評価値もしくは前記第一の層の推定境界の評価値を算出し、該評価値に基づいて前記第一の層の境界候補の位置および前記第一の層の推定境界の位置の重み付けを算出することを特徴とする請求項2に記載の画像処理装置。
The determining means
An evaluation value of the boundary candidate of the first layer or an evaluation value of the estimated boundary of the first layer is calculated, and based on the evaluation value, the position of the boundary candidate of the first layer and the position of the first layer 3. The image processing apparatus according to claim 2, wherein the weighting of the position of the estimated boundary is calculated.
前記第二の層の境界候補が、ILM、外網状層、視細胞内節外節接合部、RPEのいずれかであることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image according to any one of claims 1 to 5, wherein the boundary candidate of the second layer is any one of ILM, outer plexiform layer, photoreceptor inner segment outer segment junction, and RPE. processing equipment. 前記第一の層の推定境界の位置が、前記第二の層の境界候補の位置からの距離に基づいて算出されることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 7. The image of any one of claims 1 to 6, wherein the position of the estimated first layer boundary is calculated based on the distance from the position of the candidate boundary of the second layer. processing equipment. 前記第一の層の推定境界の位置が、前記第二の層の境界候補の位置および第三の層の境界候補の位置に基づいて算出されることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 7. The position of the estimated boundary of the first layer is calculated based on the position of the boundary candidate of the second layer and the position of the boundary candidate of the third layer. 1. The image processing apparatus according to claim 1. 前記決定手段が、
前記第一の層の境界候補の評価値もしくは前記第一の層の推定境界の評価値を、評価対象とする境界候補もしくは推定境界、に接する層の間の輝度コントラスト、前記境界候補もしくは前記推定境界のエッジ強度もしくは形状、前記検出手段が検出した前記境界候補もしくは前記推定境界の法線もしくは接線とAスキャン方向とのなす角、前記境界候補もしくは前記推定境界から算出される前記第一の層の層厚、の少なくとも一つに基づいて算出することを特徴とする請求項5に記載の画像処理装置。
The determining means
The evaluation value of the boundary candidate of the first layer or the evaluation value of the estimated boundary of the first layer is the luminance contrast between the layers in contact with the boundary candidate or the estimated boundary to be evaluated, the boundary candidate or the estimated boundary edge strength or shape of a boundary, angle formed between a normal or tangent to the boundary candidate or estimated boundary detected by the detection means and the A-scan direction, the first layer calculated from the boundary candidate or estimated boundary 6. The image processing apparatus according to claim 5, wherein the calculation is performed based on at least one of the layer thickness of .
前記第一の層に関する少なくとも一部の領域が、前記第一の層の境界であることを特徴とするとする請求項1乃至9のいずれか1項に記載の画像処理装置。 10. The image processing apparatus according to any one of claims 1 to 9, wherein at least a partial area related to said first layer is a boundary of said first layer. 前記第一の層の境界が、内網状層/内顆粒層境界もしくは外網状層/外顆粒層境界であることを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein the boundary of the first layer is an inner plexiform layer/inner nuclear layer boundary or an outer plexiform layer/outer nuclear layer boundary. 前記画像処理装置が表示部および出力手段をさらに有し、
前記出力手段が、前記表示部に表示させた前記断層画像上に前記決定手段が決定した前記第一の層の境界を重畳表示することを特徴とする請求項10に記載の画像処理装置。
The image processing device further has a display unit and output means,
11. The image processing apparatus according to claim 10, wherein the output means superimposes the boundary of the first layer determined by the determination means on the tomographic image displayed on the display unit.
前記出力手段が、
前記第一の層の境界候補と、前記決定手段が決定した前記第一の層の境界と、切り替えて前記表示部に表示することを特徴とする請求項12に記載の画像処理装置。
The output means is
13. The image processing apparatus according to claim 12, wherein the first layer boundary candidate and the first layer boundary determined by the determination unit are switched and displayed on the display unit.
前記出力手段が、前記第一の層の境界候補と、前記決定手段が決定した前記第一の層の境界と、を識別可能に前記表示部に表示することを特徴とする請求項12に記載の画像処理装置。 13. The method according to claim 12, wherein the output means displays the first layer boundary candidate and the first layer boundary determined by the determination means in a identifiable manner on the display unit. image processing device. 前記画像処理装置が、
さらに計測手段を有し、
前記計測手段が、
前記第一の層に関する計測に、
前記第一の層の推定境界の位置に基づく第一の計測方法、もしくは、前記第一の層の推定境界の位置に基づかない第二の計測方法を用いることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
The image processing device is
further comprising measuring means;
The measuring means
For measurements on the first layer,
15. A first measurement method based on the position of the estimated boundary of the first layer or a second measurement method not based on the position of the estimated boundary of the first layer is used. The image processing device according to any one of .
前記決定手段により決定された前記第一の層に関する少なくとも一部の領域の位置を変更するユーザの操作を前記決定手段が受け付けることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 16. The determining means according to any one of claims 1 to 15, wherein said determining means receives a user's operation to change the position of at least a part of the region related to said first layer determined by said determining means. Image processing device. 前記断層画像がSS-OCT装置により取得された画像であることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。 17. The image processing apparatus according to any one of claims 1 to 16, wherein said tomographic image is an image acquired by an SS-OCT apparatus. 前記決定手段により決定された前記第一の層の境界に基づいて設定した投影深度範囲のOCT正面画像またはモーションコントラスト画像を生成することを特徴とする請求項1乃至17のいずれか1項に記載の画像処理装置。 18. The OCT front image or the motion contrast image of the projection depth range set based on the boundary of the first layer determined by the determination means is generated according to any one of claims 1 to 17. image processing device. 被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する検出手段と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補および第三の層の境界候補の距離の分数比に基づいて算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する決定手段と、
を有することを特徴とする画像処理装置。
detection means for detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be inspected;
position of the first layer boundary candidate in the depth direction of the eye to be examined or in a direction intersecting the first or second layer boundary candidate on the tomographic image; a position of an estimated boundary of said first layer calculated based on a fractional ratio of the distances of a candidate layer boundary and a candidate third layer boundary; a determining means for determining
An image processing device comprising:
前記第一の層に関する少なくとも一部の領域が、前記第一の層の境界であることを特徴とする請求項19に記載の画像処理装置。 20. The image processing apparatus according to claim 19, wherein at least a partial area related to said first layer is a boundary of said first layer. 被検眼の断層画像上の第一の層の境界候補の位置および第二の層の境界候補の位置を検出する工程と、
前記断層画像上の、前記被検眼の深さ方向、あるいは、前記第一もしくは第二の層の境界候補と交差する方向、における、前記第一の層の境界候補の位置と、前記第二の層の境界候補の位置から算出した前記第一の層の推定境界の位置と、に基づいて前記第一の層に関する少なくとも一部の領域の位置を決定する工程と、
を有することを特徴とする画像処理方法。
a step of detecting the position of a first layer boundary candidate and the position of a second layer boundary candidate on a tomographic image of an eye to be inspected;
position of the first layer boundary candidate in the depth direction of the eye to be examined or in a direction intersecting the first or second layer boundary candidate on the tomographic image; determining the position of at least a portion of the region with respect to the first layer based on the position of the estimated first layer boundary calculated from the position of the candidate boundary of the layer;
An image processing method characterized by comprising:
JP2019174763A 2019-09-25 2019-09-25 Image processing device, image processing method Active JP7237786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174763A JP7237786B2 (en) 2019-09-25 2019-09-25 Image processing device, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174763A JP7237786B2 (en) 2019-09-25 2019-09-25 Image processing device, image processing method

Publications (2)

Publication Number Publication Date
JP2021049205A JP2021049205A (en) 2021-04-01
JP7237786B2 true JP7237786B2 (en) 2023-03-13

Family

ID=75155003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174763A Active JP7237786B2 (en) 2019-09-25 2019-09-25 Image processing device, image processing method

Country Status (1)

Country Link
JP (1) JP7237786B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010200918A (en) 2009-03-02 2010-09-16 Canon Inc Image processing apparatus and method for controlling the same
JP2012110618A (en) 2010-11-26 2012-06-14 Canon Inc Image processing apparatus and method
US20120150029A1 (en) 2008-12-19 2012-06-14 University Of Miami System and Method for Detection and Monitoring of Ocular Diseases and Disorders using Optical Coherence Tomography
JP2018531773A (en) 2015-10-19 2018-11-01 ザ チャールズ スターク ドレイパー ラボラトリー インク System and method for segmentation of optical coherence tomography slices
JP2019150485A (en) 2018-03-06 2019-09-12 キヤノン株式会社 Image processing system, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120150029A1 (en) 2008-12-19 2012-06-14 University Of Miami System and Method for Detection and Monitoring of Ocular Diseases and Disorders using Optical Coherence Tomography
JP2010200918A (en) 2009-03-02 2010-09-16 Canon Inc Image processing apparatus and method for controlling the same
JP2012110618A (en) 2010-11-26 2012-06-14 Canon Inc Image processing apparatus and method
JP2018531773A (en) 2015-10-19 2018-11-01 ザ チャールズ スターク ドレイパー ラボラトリー インク System and method for segmentation of optical coherence tomography slices
JP2019150485A (en) 2018-03-06 2019-09-12 キヤノン株式会社 Image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP2021049205A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7250653B2 (en) Image processing device, image processing method and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP2017127506A (en) Image forming method and apparatus
JP2018015189A (en) Ophthalmic image processing apparatus and ophthalmic imaging apparatus
JP2014527434A (en) Feature motion correction and normalization in optical coherence tomography
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
JP7374615B2 (en) Information processing device, information processing method and program
WO2020137678A1 (en) Image processing device, image processing method, and program
WO2015129909A1 (en) Apparatus, method, and program for processing image
JP7362403B2 (en) Image processing device and image processing method
JP2018075229A (en) Image processing method, image processing device, and program
WO2020050308A1 (en) Image processing device, image processing method and program
JP7195745B2 (en) Image processing device, image processing method and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP7106304B2 (en) Image processing device, image processing method and program
JP7237786B2 (en) Image processing device, image processing method
JP2019146683A (en) Information processing device, information processing method, and program
JP2019208845A (en) Image processing device, image processing method, and program
JP7446730B2 (en) Image processing device, image processing method and program
JP7158860B2 (en) Image processing device, image processing method and program
JP7335107B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP7327954B2 (en) Image processing device and image processing method
WO2023008385A1 (en) Anterior eye part analysis device, anterior eye part analysis method, and program
WO2020049828A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R151 Written notification of patent or utility model registration

Ref document number: 7237786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151