JP7086683B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP7086683B2
JP7086683B2 JP2018074080A JP2018074080A JP7086683B2 JP 7086683 B2 JP7086683 B2 JP 7086683B2 JP 2018074080 A JP2018074080 A JP 2018074080A JP 2018074080 A JP2018074080 A JP 2018074080A JP 7086683 B2 JP7086683 B2 JP 7086683B2
Authority
JP
Japan
Prior art keywords
analysis
region
type
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018074080A
Other languages
Japanese (ja)
Other versions
JP2019180692A (en
Inventor
悦朗 和田
理宇眞 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018074080A priority Critical patent/JP7086683B2/en
Publication of JP2019180692A publication Critical patent/JP2019180692A/en
Priority to JP2022092855A priority patent/JP7387812B2/en
Application granted granted Critical
Publication of JP7086683B2 publication Critical patent/JP7086683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の技術は、画像処理装置、画像処理方法及びプログラムに関する。 The disclosed technique relates to an image processing apparatus, an image processing method and a program.

光干渉断層計(OCT:Optical Coherence Tomography)などの眼部の断層画像撮影装置を用いると、網膜層内部の状態を3次元的に観察できる。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから眼科診療に広く用いられている。OCTの形態として、例えば広帯域な光源とマイケルソン干渉計を組み合わせたTD-OCT(Time domain OCT)がある。これは、参照ミラーの位置を一定速度で移動させて信号アームで取得した後方散乱光との干渉光を計測し、深さ方向の反射光強度分布を得るように構成されている。しかし、このようなTD-OCTでは機械的な走査が必要となるため高速な画像取得は難しい。そこで、より高速な画像取得法として広帯域光源を用い、分光器で干渉信号を取得するSD-OCT(Spectral domain OCT)や高速波長掃引光源を用いることで時間的に分光するSS-OCT(Swept Source OCT)が開発され、より広画角な断層画像を取得できるようになっている。 Using an optical tomography device such as an optical coherence tomography (OCT), the state inside the retinal layer can be observed three-dimensionally. This tomographic imaging device is widely used in ophthalmic medical care because it is useful for more accurately diagnosing a disease. As a form of OCT, for example, there is TD-OCT (Time domain OCT) in which a wide band light source and a Michelson interferometer are combined. This is configured to move the position of the reference mirror at a constant speed, measure the interference light with the backscattered light acquired by the signal arm, and obtain the reflected light intensity distribution in the depth direction. However, such TD-OCT requires mechanical scanning, so high-speed image acquisition is difficult. Therefore, as a faster image acquisition method, a wideband light source is used, and an SD-OCT (Spectral domain OCT) that acquires an interference signal with a spectroscope or an SS-OCT (Swept Source) that separates time by using a high-speed wavelength sweep light source. OCT) has been developed to enable the acquisition of tomographic images with a wider angle of view.

一方、眼科診療では眼底血管の病態を把握するためにこれまで侵襲的な蛍光眼底造影検査が行われてきた。近年は、OCTを用いて非侵襲に眼底血管を3次元で描出するOCT Angiography(以下、OCTAと表記)技術が用いられるようになってきている。OCTAでは測定光で同一位置を複数回走査し、赤血球の変位と測定光との相互作用により得られるモーションコントラストを画像化する。図3は主走査方向が水平(x軸)方向で、副走査方向(y軸方向)の各位置(yi:1≦i≦n)においてr回連続でBスキャンを行うOCTA撮影の例を示している。なおOCTA撮像において同一位置で複数回走査することをクラスタ走査、同一位置で得られた複数枚の断層画像のことをクラスタと呼ぶ。クラスタ単位でモーションコントラストデータを生成し、1クラスタあたりの断層画像数(略同一位置での走査回数)を増やすと、OCTA画像のコントラストが向上することが知られている。 On the other hand, in ophthalmic practice, invasive fluorescein angiography has been performed to understand the pathophysiology of fundus blood vessels. In recent years, the OCT Angiography (hereinafter referred to as OCTA) technique for non-invasively depicting fundus blood vessels in three dimensions using OCT has been used. In OCTA, the same position is scanned multiple times with the measurement light, and the motion contrast obtained by the interaction between the displacement of red blood cells and the measurement light is imaged. FIG. 3 shows an example of OCTA imaging in which the main scanning direction is the horizontal (x-axis) direction and B scans are continuously performed r times at each position (yi: 1 ≦ i ≦ n) in the sub-scanning direction (y-axis direction). ing. In OCTA imaging, scanning multiple times at the same position is called cluster scanning, and multiple tomographic images obtained at the same position are called clusters. It is known that the contrast of OCTA images is improved by generating motion contrast data for each cluster and increasing the number of tomographic images per cluster (the number of scans at substantially the same position).

ここで、モーションコントラストデータを用いて算出された血管解析マップの表示に関する技術が、特許文献に開示されている。 Here, a technique for displaying a blood vessel analysis map calculated using motion contrast data is disclosed in the patent document.

特開2017-77414号公報JP-A-2017-77414

ここで、眼部のモーションコントラスト画像における複数の領域それぞれに対して複数の種類による解析結果を表示部に表示させる場合を考える。このとき、例えば、解析結果全てを単純に表示部に表示させることしかできないと、操作者の利便性が低いという課題があった。 Here, consider a case where the analysis results of a plurality of types are displayed on the display unit for each of a plurality of regions in the motion contrast image of the eye unit. At this time, for example, if all the analysis results can be simply displayed on the display unit, there is a problem that the convenience of the operator is low.

開示の技術は、眼部のモーションコントラスト画像の解析結果の表示について、操作者の利便性を向上することを目的の一つとする。 One of the purposes of the disclosed technique is to improve the convenience of the operator in displaying the analysis result of the motion contrast image of the eye portion.

なお、上記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。 It should be noted that the other purpose of the present invention is not limited to the above-mentioned purpose, but is an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and the action and effect which cannot be obtained by the conventional technique can be obtained. It can be positioned as one.

開示の画像処理装置の一つは、操作者からの指示に応じて、第1の種類の解析または第2の種類の解析を選択する選択手段と、
操作者からの指示に応じて、眼部のモーションコントラスト画像の部分領域である第1の領域と第2の領域を設定する設定手段と、
前記設定された第1の領域及び第2の領域を解析する解析手段と、
前記設定された第1の領域と前記第2の領域を前記モーションコントラスト画像に重畳した状態で表示手段に表示させるとともに、前記第1の種類の解析により前記第1の領域が解析された結果と前記第2の種類の解析により前記第2の領域が解析された結果を前記表示手段に表示させる表示制御手段と、を有し、
前記表示制御手段は、前記第1の種類の解析が選択された場合に、前記第1の種類の解析による解析の結果を、前記モーションコントラスト画像に重畳した状態の前記第1の領域に表示させるとともに、前記第1の種類を示す情報を表示させる。
One of the disclosed image processing devices is a selection means for selecting a first type of analysis or a second type of analysis according to an instruction from an operator.
A setting means for setting a first region and a second region, which are partial regions of the motion contrast image of the eye portion, according to an instruction from the operator .
An analysis means for analyzing the set first region and the second region, and
The set first region and the second region were displayed on the display means in a state of being superimposed on the motion contrast image, and the first region was analyzed by the first type of analysis. It has a result and a display control means for causing the display means to display the result of analysis of the second region by the second type of analysis .
When the first type of analysis is selected, the display control means displays the result of the analysis by the first type of analysis in the first region in a state of being superimposed on the motion contrast image. At the same time, information indicating the first type is displayed .

開示の技術の一つによれば、眼部のモーションコントラスト画像の解析結果の表示について、操作者の利便性を向上することができる。 According to one of the disclosed techniques, it is possible to improve the convenience of the operator in displaying the analysis result of the motion contrast image of the eye portion.

第1の実施形態の画像処理装置の一例を示す図である。It is a figure which shows an example of the image processing apparatus of 1st Embodiment. 第1の実施形態の画像処理装置の一例を示す図である。It is a figure which shows an example of the image processing apparatus of 1st Embodiment. OCTA撮影の走査方法を説明する図である。It is a figure explaining the scanning method of OCTA photography. 第1実施形態のフローチャートである。It is a flowchart of 1st Embodiment. 第1実施形態のユーザインターフェースの一例である。It is an example of the user interface of the first embodiment. 解析結果の表示方法の一例である。This is an example of how to display the analysis results. 第1実施形態のユーザインターフェースの一例である。It is an example of the user interface of the first embodiment. 第1実施形態の変形例のフローチャートである。It is a flowchart of the modification of 1st Embodiment. 解析結果の表示方法の一例である。This is an example of how to display the analysis results. 解析範囲の選択方法の一例である。This is an example of how to select the analysis range. 第1実施形態のユーザインターフェースの一例である。It is an example of the user interface of the first embodiment. 第2実施形態のフローチャートである。It is a flowchart of 2nd Embodiment. 第2実施形態のユーザインターフェースの一例である。It is an example of the user interface of the second embodiment. 第1実施形態における画像処理の方法を説明する図である。It is a figure explaining the method of image processing in 1st Embodiment. 解析方法の選択方法の一例である。This is an example of how to select an analysis method. 第3実施形態のユーザインターフェースの一例である。It is an example of the user interface of the third embodiment. 解析結果の表示方法の一例である。This is an example of how to display the analysis results. 解析結果の表示方法の一例である。This is an example of how to display the analysis results.

(第1実施形態)
本実施形態にかかる画像処理装置は、解析対象画像を解析した際の、解析結果を表示する方法について説明する。以下、図面を参照しながら、本発明の第1実施形態に係る画像処理装置を備える画像処理システムについて説明する。
(First Embodiment)
The image processing apparatus according to the present embodiment describes a method of displaying the analysis result when the image to be analyzed is analyzed. Hereinafter, an image processing system including an image processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings.

図2は、本実施形態に係る画像処理装置101を備える画像処理システム10の構成を示す図である。図2に示すように、画像処理システム10は、画像処理装置101が、インタフェースを介して断層画像撮影装置100(OCTとも言う)、外部記憶部102、入力部103、表示部304と接続されることにより構成されている。 FIG. 2 is a diagram showing a configuration of an image processing system 10 including an image processing device 101 according to the present embodiment. As shown in FIG. 2, in the image processing system 10, the image processing device 101 is connected to the tomographic imaging device 100 (also referred to as OCT), the external storage unit 102, the input unit 103, and the display unit 304 via an interface. It is composed of.

断層画像撮影装置100は、眼部の断層画像を撮影する装置である。本実施形態においては、断層画像撮影装置100としてSD-OCTを用いるものとする。これに限らず、例えばSS-OCTを用いて構成しても良い。 The tomographic image capturing device 100 is a device that captures a tomographic image of the eye portion. In this embodiment, SD-OCT is used as the tomographic imaging apparatus 100. Not limited to this, for example, SS-OCT may be used for configuration.

図2(a)において、測定光学系100-1は前眼部像、被検眼のSLO眼底像、断層画像を取得するための光学系である。ステージ部100-2は、測定光学系100-1を前後左右に移動可能にする。ベース部100-3は、後述の分光器を内蔵している。 In FIG. 2A, the measurement optical system 100-1 is an optical system for acquiring an anterior eye portion image, an SLO fundus image of the eye to be inspected, and a tomographic image. The stage unit 100-2 makes the measurement optical system 100-1 movable back and forth and left and right. The base portion 100-3 has a built-in spectroscope described later.

画像処理装置101は、ステージ部100-2の制御、アラインメント動作の制御、断層画像の再構成などを実行するコンピュータである。外部記憶部102は、断層撮像用のプログラム、患者情報、撮影データ、過去検査の画像データや計測データなどを記憶する。 The image processing device 101 is a computer that controls the stage unit 100-2, controls the alignment operation, reconstructs a tomographic image, and the like. The external storage unit 102 stores a program for tomographic imaging, patient information, imaging data, image data of past examinations, measurement data, and the like.

入力部103はコンピュータへの指示を行い、具体的にはキーボードとマウスから構成される。表示部304は、例えばモニタからなる。 The input unit 103 gives an instruction to the computer, and specifically includes a keyboard and a mouse. The display unit 304 includes, for example, a monitor.

(断層画像撮影装置の構成)
本実施形態の断層画像撮影装置100における測定光学系及び分光器の構成について図2(b)を用いて説明する。
(Configuration of tomographic imaging device)
The configuration of the measurement optical system and the spectroscope in the tomographic imaging apparatus 100 of the present embodiment will be described with reference to FIG. 2 (b).

まず、測定光学系100-1の内部について説明する。被検眼200に対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202及び第2ダイクロイックミラー203が配置されている。これらのダイクロイックミラーによってOCT光学系の光路250、SLO光学系と固視灯用の光路251、及び前眼観察用の光路252とに波長帯域ごとに分岐される。 First, the inside of the measurement optical system 100-1 will be described. The objective lens 201 is installed facing the eye 200 to be inspected, and the first dichroic mirror 202 and the second dichroic mirror 203 are arranged on the optical axis thereof. These dichroic mirrors are branched into an optical path 250 for the OCT optical system, an optical path 251 for the SLO optical system and the fixation lamp, and an optical path 252 for frontal eye observation for each wavelength band.

SLO光学系と固視灯用の光路251は、SLO走査手段204、レンズ205及び206、ミラー207、第3ダイクロイックミラー208、APD(Avalanche Photodiode)209、SLO光源210、固視灯211を有している。ミラー207は、穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源210による照明光と、被検眼からの戻り光とを分離する。第3ダイクロイックミラー208はSLO光源210の光路と固視灯211の光路とに波長帯域ごとに分離する。SLO走査手段204は、SLO光源210から発せられた光を被検眼200上で走査するものであり、X方向に走査するXスキャナ、Y方向に走査するYスキャナから構成されている。本実施形態では、Xスキャナは高速走査を行う必要があるためポリゴンミラーで、Yスキャナはガルバノミラーによって構成されている。レンズ205はSLO光学系及び固視灯211の焦点合わせのため、不図示のモータによって駆動される。SLO光源210は780nm付近の波長の光を発生する。APD209は、被検眼からの戻り光を検出する。固視灯211は可視光を発生して被検者の固視を促すものである。SLO光源210から発せられた光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206及び205を通ってSLO走査手段204によって被検眼200上で走査される。被検眼200からの戻り光は、照明光と同じ経路を戻った後、ミラー207によって反射され、APD209へと導かれ、SLO眼底像が得られる。固視灯211から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206及び205を通り、SLO走査手段204によって被検眼200上の任意の位置に所定の形状を作り、被検者の固視を促す。 The optical path 251 for the SLO optical system and the fixative lamp has an SLO scanning means 204, lenses 205 and 206, a mirror 207, a third dichroic mirror 208, an APD (Avalanche photodiode) 209, an SLO light source 210, and a fixative lamp 211. ing. The mirror 207 is a prism on which a perforated mirror or a hollow mirror is vapor-deposited, and separates the illumination light from the SLO light source 210 and the return light from the eye to be inspected. The third dichroic mirror 208 separates the optical path of the SLO light source 210 and the optical path of the fixative lamp 211 for each wavelength band. The SLO scanning means 204 scans the light emitted from the SLO light source 210 on the eye 200 to be inspected, and is composed of an X scanner that scans in the X direction and a Y scanner that scans in the Y direction. In the present embodiment, the X scanner is a polygon mirror because it is necessary to perform high-speed scanning, and the Y scanner is composed of a galvano mirror. The lens 205 is driven by a motor (not shown) for focusing the SLO optical system and the fixative lamp 211. The SLO light source 210 generates light having a wavelength near 780 nm. APD209 detects the return light from the eye to be inspected. The fixative lamp 211 generates visible light to promote the fixative of the subject. The light emitted from the SLO light source 210 is reflected by the third dichroic mirror 208, passes through the mirror 207, passes through the lenses 206 and 205, and is scanned by the SLO scanning means 204 on the eye 200 to be inspected. The return light from the eye 200 to be inspected returns to the same path as the illumination light, is reflected by the mirror 207, and is guided to the APD209 to obtain an SLO fundus image. The light emitted from the fixative lamp 211 passes through the third dichroic mirror 208 and the mirror 207, passes through the lenses 206 and 205, and forms a predetermined shape at an arbitrary position on the eye 200 to be inspected by the SLO scanning means 204. Encourage the subject to fix.

前眼観察用の光路252には、レンズ212及び213、スプリットプリズム214、赤外光を検知する前眼部観察用のCCD215が配置されている。このCCD215は、不図示の前眼部観察用照射光の波長、具体的には970nm付近に感度を持つものである。スプリットプリズム214は、被検眼200の瞳孔と共役な位置に配置されており、被検眼200に対する測定光学系100-1のZ軸方向(光軸方向)の距離を、前眼部のスプリット像として検出できる。 In the optical path 252 for frontal eye observation, lenses 212 and 213, a split prism 214, and a CCD 215 for frontal eye observation for detecting infrared light are arranged. The CCD215 has a sensitivity in the wavelength of the irradiation light for observing the anterior eye portion (not shown), specifically, in the vicinity of 970 nm. The split prism 214 is arranged at a position conjugate with the pupil of the eye to be inspected 200, and the distance in the Z-axis direction (optical axis direction) of the measurement optical system 100-1 with respect to the eye to be inspected 200 is used as a split image of the anterior eye portion. Can be detected.

OCT光学系の光路250は、前述の通りOCT光学系を構成しており、被検眼200の断層画像を撮影するためのものである。より具体的には、断層画像を形成するための干渉信号を得るものである。XYスキャナ216は光を被検眼200上で走査するためのものであり、図2(b)では1枚のミラーとして図示されているが、実際はXY2軸方向の走査を行うガルバノミラーである。レンズ217及び218のうち、レンズ217については光カプラー219に接続されているファイバー224から出射するOCT光源220からの光を、被検眼200に焦点合わせするために不図示のモータによって駆動される。この焦点合わせによって、被検眼200からの戻り光は同時にファイバー224の先端に、スポット状に結像されて入射されることとなる。次に、OCT光源220からの光路と参照光学系、分光器の構成について説明する。220はOCT光源、221は参照ミラー、222は分散補償硝子、223はレンズ、219は光カプラー、224から227は光カプラーに接続されて一体化しているシングルモードの光ファイバー、230は分光器である。これらの構成によってマイケルソン干渉計を構成している。OCT光源220から出射された光は、光ファイバー225を通じ、光カプラー219を介して光ファイバー224側の測定光と、光ファイバー226側の参照光とに分割される。測定光は前述のOCT光学系光路を通じ、観察対象である被検眼200に照射され、被検眼200による反射や散乱により同じ光路を通じて光カプラー219に到達する。一方、参照光は、光ファイバー226、レンズ223、測定光と参照光の波長分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。そして同じ光路を戻り、光カプラー219に到達する。光カプラー219によって、測定光と参照光は合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー221は、不図示のモータおよび駆動機構によって光軸方向に調整可能に保持され、測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー227を介して分光器230に導かれる。また、偏光調整部228、229は、各々光ファイバー224、226中に設けられ、偏光調整を行う。これらの偏光調整部は光ファイバーをループ状に引きまわした部分を幾つか持っている。このループ状の部分をファイバーの長手方向を中心として回転させることでファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることができる。分光器230はレンズ232、234、回折格子233、ラインセンサ231から構成される。光ファイバー227から出射された干渉光はレンズ234を介して平行光となった後、回折格子233で分光され、レンズ232によってラインセンサ231に結像される。 The optical path 250 of the OCT optical system constitutes the OCT optical system as described above, and is for taking a tomographic image of the eye 200 to be inspected. More specifically, it obtains an interference signal for forming a tomographic image. The XY scanner 216 is for scanning light on the eye 200 to be inspected, and is shown as a single mirror in FIG. 2B, but is actually a galvano mirror that scans in the XY2 axis direction. Of the lenses 217 and 218, the lens 217 is driven by a motor (not shown) to focus the light emitted from the OCT light source 220 emitted from the fiber 224 connected to the optical coupler 219 to the eye 200 to be inspected. By this focusing, the return light from the eye 200 to be inspected is simultaneously imaged and incident on the tip of the fiber 224 in a spot shape. Next, the configuration of the optical path from the OCT light source 220, the reference optical system, and the spectroscope will be described. 220 is an OCT light source, 221 is a reference mirror, 222 is a dispersion compensating glass, 223 is a lens, 219 is an optical coupler, 224 to 227 are single-mode optical fibers connected to an optical coupler and integrated, and 230 is a spectroscope. .. These configurations make up the Michelson interferometer. The light emitted from the OCT light source 220 is divided into the measurement light on the optical fiber 224 side and the reference light on the optical fiber 226 side via the optical coupler 219 through the optical fiber 225. The measurement light is applied to the eye 200 to be observed through the above-mentioned OCT optical path, and reaches the optical coupler 219 through the same optical path due to reflection or scattering by the eye 200 to be observed. On the other hand, the reference light reaches the reference mirror 221 and is reflected through the optical fiber 226, the lens 223, and the dispersion compensating glass 222 inserted to match the wavelength dispersion of the measurement light and the reference light. Then, it returns to the same optical path and reaches the optical coupler 219. The optical coupler 219 combines the measurement light and the reference light into interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light are almost the same. The reference mirror 221 is held adjustable in the optical axis direction by a motor and a drive mechanism (not shown), and it is possible to match the optical path length of the reference light with the optical path length of the measurement light. The interfering light is guided to the spectroscope 230 via the optical fiber 227. Further, the polarization adjusting units 228 and 229 are provided in the optical fibers 224 and 226, respectively, to adjust the polarization. These polarization adjusting parts have some parts in which the optical fiber is wound in a loop shape. By rotating this loop-shaped portion around the longitudinal direction of the fiber, the fiber can be twisted to adjust and match the polarization states of the measurement light and the reference light. The spectroscope 230 is composed of a lens 232, 234, a diffraction grating 233, and a line sensor 231. The interference light emitted from the optical fiber 227 becomes parallel light through the lens 234, is separated by the diffraction grating 233, and is imaged on the line sensor 231 by the lens 232.

次に、OCT光源220の周辺について説明する。OCT光源220は、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。光源の種類は、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることができる。中心波長は眼を測定することを鑑みると近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から中心波長は855nmとした。 Next, the periphery of the OCT light source 220 will be described. The OCT light source 220 is an SLD (Super Luminescent Diode), which is a typical low coherent light source. The center wavelength is 855 nm and the wavelength bandwidth is about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. Although SLD was selected as the type of light source here, ASE (Amplified Spontaneous Emission) or the like can be used as long as low coherent light can be emitted. Near-infrared light is suitable for the center wavelength in view of measuring the eye. Further, since the central wavelength affects the lateral resolution of the obtained tomographic image, it is desirable that the wavelength is as short as possible. For both reasons, the center wavelength was set to 855 nm.

なお、本実施形態では干渉計としてマイケルソン干渉計を用いたが、マッハツェンダー干渉計を用いても良い。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉計を、光量差が比較的小さい場合にはマイケルソン干渉計を用いることが望ましい。 Although the Michelson interferometer is used as the interferometer in this embodiment, a Mach-Zehnder interferometer may be used. It is desirable to use a Mach-Zehnder interferometer when the light amount difference is large and a Michelson interferometer when the light amount difference is relatively small, depending on the light amount difference between the measured light and the reference light.

(画像処理装置の構成)
本実施形態の画像処理装置101の構成について図1を用いて説明する。画像処理装置101は断層画像撮影装置100に接続されたパーソナルコンピュータ(PC)であり、画像取得部301、記憶部101-02、撮影制御部101-03、画像処理部101-04、表示制御部101-05、を備える。また、画像処理装置101は演算処理装置CPUが画像取得部301、撮影制御部101-03、画像処理部101-04および表示制御部101-05を実現するソフトウェアモジュールを実行することで機能を実現する。本発明はこれに限定されず、例えば画像処理部101-04をASIC等の専用のハードウェアで実現してもよいし、表示制御部101-05をCPUとは異なるGPU等の専用プロセッサを用いて実現してもよい。また断層画像撮影装置100と画像処理装置101との接続はネットワークを介した構成であってもよい。
(Configuration of image processing device)
The configuration of the image processing apparatus 101 of the present embodiment will be described with reference to FIG. The image processing device 101 is a personal computer (PC) connected to the tomographic image capturing device 100, and is an image acquisition unit 301, a storage unit 101-02, an imaging control unit 101-03, an image processing unit 101-04, and a display control unit. It is equipped with 101-05. Further, the image processing device 101 realizes a function by the arithmetic processing unit CPU executing a software module that realizes an image acquisition unit 301, a shooting control unit 101-03, an image processing unit 101-04, and a display control unit 101-05. do. The present invention is not limited to this, and for example, the image processing unit 101-04 may be realized by dedicated hardware such as an ASIC, or the display control unit 101-05 may be realized by using a dedicated processor such as a GPU different from the CPU. May be realized. Further, the connection between the tomographic image capturing device 100 and the image processing device 101 may be configured via a network.

画像取得部301は、断層画像撮影装置100により撮影されたSLO眼底像や断層画像の信号データを取得する。また、画像取得部301は断層画像生成部101―11及びモーションコントラストデータ生成部101-12を有する。断層画像生成部101―11は断層画像撮影装置100により撮影された断層画像の信号データ(干渉信号)を取得して信号処理により断層画像を生成し、生成した断層画像を記憶部101-02に格納する。撮影制御部101-03は、断層画像撮影装置100に対する撮影制御を行う。撮影制御には、断層画像撮影装置100に対して撮影パラメータの設定に関して指示することや、撮影の開始もしくは終了に関して指示することも含まれる。 The image acquisition unit 301 acquires the signal data of the SLO fundus image and the tomographic image taken by the tomographic image capturing apparatus 100. Further, the image acquisition unit 301 has a tomographic image generation unit 101-11 and a motion contrast data generation unit 101-12. The tomographic image generation unit 101-11 acquires the signal data (interference signal) of the tomographic image taken by the tomographic image capturing apparatus 100, generates a tomographic image by signal processing, and stores the generated tomographic image in the storage unit 101-02. Store. The imaging control unit 101-03 performs imaging control for the tomographic imaging apparatus 100. The imaging control also includes instructing the tomographic imaging apparatus 100 regarding the setting of imaging parameters and instructing the start or end of imaging.

画像処理部101-04は、位置合わせ部101-41、合成部101-42、補正部101-43、画像特徴取得部101-44、投影部101-45、解析範囲指定部701、解析方法選択部302、解析部303を有する。先に述べた画像取得部301及び合成部101-42は、本発明に係る取得手段の一例である。合成部101-42はモーションコントラストデータ生成部101-12により生成された複数のモーションコントラストデータを位置合わせ部101-41により得られた位置合わせパラメータに基づいて合成し、合成モーションコントラスト画像を生成する。補正部101-43はモーションコントラスト画像内に生じるプロジェクションアーチファクトを2次元もしくは3次元的に抑制する処理を行う。画像特徴取得部101-44は断層画像から網膜や脈絡膜の層境界、中心窩や視神経乳頭中心の位置を取得する。投影部101-45は画像特徴取得部101-44が取得した層境界の位置に基づく深度範囲でモーションコントラスト画像を投影し、正面モーションコントラスト画像を生成する。解析範囲指定部701は、正面モーションコントラスト画像における解析範囲を指定する。解析方法選択部302は、画像全体、または、各解析範囲における解析方法を指定(選択)する。なお、記憶部101-02は、指定された解析範囲や解析方法をモーションコントラスト画像に対応づけて記憶することもできる。解析部303は、強調部101-461、抽出部101-462、計測部101-463、調整部101-464を有し、3次元もしくは正面モーションコントラスト画像から血管領域の抽出や計測処理を行う。ここで、解析部303は、眼部のモーションコントラスト画像の部分領域である第1の領域と第2の領域を解析する解析手段の一例である。また、第1の領域及び第2の領域は、モーションコントラスト画像に対する操作者からの指示に応じて選択された部分領域であることが好ましい。ここで、第1の領域及び第2の領域は、完全に重複する領域であっても良いし、互いに一部重複する領域であっても良い。また、第1の領域及び第2の領域は、完全に異なる領域であっても良い。この場合、第1の領域及び第2の領域は、互いに接する領域であっても良いし、完全に離間した領域であっても良い。なお、第1の領域及び第2の領域の選択方法については、解析範囲の指定方法として図9を用いて後述する。強調部101-461は血管領域もしくは血管のエッジを強調する処理を実行する。抽出部101-462は血管強調画像に基づいて血管領域を抽出する。また、計測部101-463は抽出された該血管領域や該血管領域を細線化することで取得した血管中心線データを用いて血管密度等の計測値を算出する。さらに、調整部101-464は強調部101-461が血管強調する際に用いる平滑化パラメータσの適用範囲を眼部上の位置に基づいて変更したり、抽出部101-462が血管領域を抽出する際の2値化法を2値化対象画像の輝度値に基づいて変更したりする。なお、本発明における画像処理装置101の構成としては、上述した全ての構成が必須ではなく、例えば、位置合わせ部101-41、合成部101-42、補正部101-43等については省略しても良い。 The image processing unit 101-04 includes an alignment unit 101-41, a composition unit 101-42, a correction unit 101-43, an image feature acquisition unit 101-44, a projection unit 101-45, an analysis range designation unit 701, and an analysis method selection unit. It has a unit 302 and an analysis unit 303. The image acquisition unit 301 and the composition unit 101-42 described above are examples of the acquisition means according to the present invention. The compositing unit 101-42 synthesizes a plurality of motion contrast data generated by the motion contrast data generation unit 101-12 based on the alignment parameters obtained by the alignment unit 101-41, and generates a composite motion contrast image. .. The correction unit 101-43 performs a process of suppressing projection artifacts generated in the motion contrast image two-dimensionally or three-dimensionally. The image feature acquisition unit 101-44 acquires the positions of the layer boundaries of the retina and choroid, the fovea centralis, and the center of the optic nerve head from the tomographic image. The projection unit 101-45 projects a motion contrast image in a depth range based on the position of the layer boundary acquired by the image feature acquisition unit 101-44, and generates a frontal motion contrast image. The analysis range designation unit 701 designates the analysis range in the front motion contrast image. The analysis method selection unit 302 specifies (selects) an analysis method for the entire image or each analysis range. The storage unit 101-02 can also store the designated analysis range and analysis method in association with the motion contrast image. The analysis unit 303 has an emphasis unit 101-461, an extraction unit 101-462, a measurement unit 101-463, and an adjustment unit 101-464, and extracts and measures a blood vessel region from a three-dimensional or frontal motion contrast image. Here, the analysis unit 303 is an example of analysis means for analyzing the first region and the second region, which are partial regions of the motion contrast image of the eye portion. Further, it is preferable that the first region and the second region are partial regions selected according to an instruction from the operator for the motion contrast image. Here, the first region and the second region may be completely overlapping regions or may be partially overlapping regions. Further, the first region and the second region may be completely different regions. In this case, the first region and the second region may be regions in contact with each other or regions completely separated from each other. The method of selecting the first region and the second region will be described later with reference to FIG. 9 as a method of designating the analysis range. The emphasis section 101-461 performs a process of emphasizing the blood vessel region or the edge of the blood vessel. Extraction unit 101-462 extracts the blood vessel region based on the blood vessel-enhanced image. Further, the measuring unit 101-463 calculates the measured value such as the blood vessel density by using the extracted blood vessel region and the blood vessel center line data acquired by thinning the blood vessel region. Further, the adjustment unit 101-464 changes the applicable range of the smoothing parameter σ used when the emphasis unit 101-461 emphasizes the blood vessel based on the position on the eye portion, and the extraction unit 101-462 extracts the blood vessel region. The binarization method at the time of binarization is changed based on the brightness value of the image to be binarized. As the configuration of the image processing apparatus 101 in the present invention, all the configurations described above are not essential, and for example, the alignment unit 101-41, the composition unit 101-42, the correction unit 101-43, and the like are omitted. Is also good.

また、表示制御部101-05は、眼部のモーションコントラスト画像の部分領域である第1の領域を示す情報と第2の領域を示す情報とをモーションコントラスト画像に重畳した状態で表示部304に表示させる。また、表示制御部101-05は、操作者からの第1の指示に応じて選択された少なくとも1つの解析の種類(例えば、第1の種類)を示す情報を用いて第1の領域が解析された結果を示す情報を表示部304に表示させる。また、表示制御部101-05は、操作者からの第2の指示に応じて選択された少なくとも1つの解析の種類(例えば、第1の種類とは異なる第2の種類)を示す情報を用いて第2の領域が解析された結果を示す情報を表示部304に表示させる。これにより、操作者は診断等の目的に応じて選択した解析の種類に対応する解析結果の表示を行うことができる。このため、解析結果全てを単純に表示部に表示させることしかできない従来の構成とは異なり、眼部のモーションコントラスト画像の解析結果の表示について、操作者の利便性を向上することができる。 Further, the display control unit 101-05 superimposes the information indicating the first region and the information indicating the second region, which are partial regions of the motion contrast image of the eye portion, on the motion contrast image on the display unit 304. Display. Further, the display control unit 101-05 analyzes the first region using the information indicating at least one analysis type (for example, the first type) selected in response to the first instruction from the operator. Information indicating the result is displayed on the display unit 304. Further, the display control unit 101-05 uses information indicating at least one analysis type (for example, a second type different from the first type) selected in response to the second instruction from the operator. Information indicating the result of analysis of the second region is displayed on the display unit 304. As a result, the operator can display the analysis result corresponding to the type of analysis selected according to the purpose such as diagnosis. Therefore, unlike the conventional configuration in which all the analysis results can be simply displayed on the display unit, it is possible to improve the convenience of the operator in displaying the analysis results of the motion contrast image of the eye unit.

ここで、領域を示す情報は、モーションコントラスト画像上の部分領域が識別可能であればどのような表示であっても良い。例えば、領域の外縁を示す線や内側を示す色がモーションコントラスト正面画像上に重畳された状態であることが好ましい。また、解析の種類は、例えば、血管領域の面積に関する血管密度(Vessel Area Density;VAD)や血管長に関する血管密度(Vessel Length Density;VLD)等である。なお、解析された結果を示す情報は、例えば、解析結果を示す値であり、選択された解析の種類の単位が識別可能な状態で表示させることが好ましい。 Here, the information indicating the region may be displayed in any manner as long as the partial region on the motion contrast image can be identified. For example, it is preferable that a line indicating the outer edge of the region and a color indicating the inside are superimposed on the motion contrast front image. The type of analysis is, for example, the blood vessel density (VAD) related to the area of the blood vessel region, the blood vessel density (VLD) related to the blood vessel length, and the like. The information indicating the analysis result is, for example, a value indicating the analysis result, and it is preferable to display the selected analysis type unit in an identifiable state.

また、表示制御部101-05は、第1の種類が選択された場合に、第1の種類を示す情報を用いて解析された結果を示す第1の画像に対して選択された第1の領域を示す情報を第1の画像に重畳した状態で表示部304に表示させる状況について考える。このとき、表示制御部101-05は、第1の領域が解析された結果を示す情報を第1の画像が出力される表示領域に表示させることが好ましい。また、表示制御部101-05は、第1の種類が選択された後に第2の種類が選択された場合に、表示領域において、第1の画像の表示を、第2の種類を示す情報を用いて解析された結果を示す第2の画像の表示に変更する制御を実行することが好ましい。また、表示制御部101-05は、第2の画像に対して選択された第2の領域を示す情報を第2の画像に重畳した状態で表示部304に表示させるとともに、第2の領域が解析された結果を示す情報を表示領域に表示させることが好ましい。なお、解析された結果を示す画像(第1の画像、第2の画像)は、例えば、モーションコントラスト正面画像に対して解析された結果を示す2次元画像である。また、解析された結果を示す2次元画像は、例えば、VADマップ、VLDマップ、VADセクタマップ、VLDセクタマップ、また、これらの各解析マップがモーションコントラスト正面画像に重畳された画像がある。なお、これらの解析マップは、解析結果が識別可能であれば良く、例えば、解析結果に応じた色で表現された2次元画像であることが好ましい。また、互いに同じ種類の複数の解析マップが重畳された画像や、互いに同じ種類の複数の解析マップがモーションコントラスト正面画像に重畳された画像であっても良い。例えば、VADセクタマップがVADマップに重畳された2次元画像、VADセクタマップ及びVADマップがモーションコントラスト画像に重畳された2次元画像、VLDセクタマップがVLDマップに重畳された2次元画像、VLDセクタマップ及びVLDマップがモーションコントラスト画像に重畳された2次元画像がある。なお、解析部101-46による解析を実行するタイミングは、操作者からの指示に応じて解析の種類が選択されたタイミングでも良いし、解析の種類が選択される前に想定される解析の種類に対応する解析を事前に完了させておいても良い。ここで、第1の画像の表示が第2の画像の表示に変更する制御が実行された状況について考える。このとき、表示制御部101-05は、第1の領域を示す情報(または第1の領域が解析された結果を示す情報)を非表示に変更する制御を実行することが好ましい。これにより、第2の画像上には、第2の画像に対応する解析領域(または解析結果)を選択的に表示させることができる。このため、眼部のモーションコントラスト画像の解析結果の表示について、操作者の利便性を向上することができる。なお、表示制御部101-05は、第1の領域を示す情報を第2の画像に重畳した状態で表示部304に表示させるようにしても良い。また、表示制御部101-05は、第2の種類を示す情報を用いて第1の領域が解析された結果を示す情報を表示領域に表示させることが好ましい。また、表示制御部101-05は、表示領域において、第1の種類を示す情報を用いて第1の領域が解析された結果を示す情報の表示を、第2の種類を示す情報を用いて第1の領域が解析された結果を示す情報の表示に変更する制御を実行しても良い。なお、解析の種類が選択された後に解析の領域が選択されるように構成される場合について述べたが、逆に、解析の領域が選択された後に解析の種類が選択されるように構成されても良い。 Further, when the first type is selected, the display control unit 101-05 is selected for the first image showing the result of analysis using the information indicating the first type. Consider a situation in which the display unit 304 displays the information indicating the area superimposed on the first image. At this time, it is preferable that the display control unit 101-05 displays information indicating the result of analysis of the first area in the display area where the first image is output. Further, the display control unit 101-05 displays the first image and the information indicating the second type in the display area when the second type is selected after the first type is selected. It is preferred to perform control to change the display to a second image showing the results analyzed using. Further, the display control unit 101-05 causes the display unit 304 to display the information indicating the second area selected for the second image in a state of being superimposed on the second image, and the second area is displayed. It is preferable to display the information indicating the analyzed result in the display area. The image showing the analysis result (first image, second image) is, for example, a two-dimensional image showing the analysis result with respect to the motion contrast front image. Further, the two-dimensional image showing the analysis result includes, for example, a VAD map, a VLD map, a VAD sector map, a VLD sector map, and an image in which each of these analysis maps is superimposed on a motion contrast front image. It should be noted that these analysis maps may be any as long as the analysis results can be identified, and are preferably two-dimensional images represented by colors corresponding to the analysis results, for example. Further, an image in which a plurality of analysis maps of the same type are superimposed on each other or an image in which a plurality of analysis maps of the same type are superimposed on a motion contrast front image may be used. For example, a two-dimensional image in which a VAD sector map is superimposed on a VAD map, a two-dimensional image in which a VAD sector map and a VAD map are superimposed on a motion contrast image, a two-dimensional image in which a VLD sector map is superimposed on a VLD map, and a VLD sector. There is a two-dimensional image in which a map and a VLD map are superimposed on a motion contrast image. The timing of executing the analysis by the analysis unit 101-46 may be the timing at which the analysis type is selected according to the instruction from the operator, or the type of analysis assumed before the analysis type is selected. The analysis corresponding to may be completed in advance. Here, consider a situation in which control for changing the display of the first image to the display of the second image is executed. At this time, it is preferable that the display control unit 101-05 executes a control for changing the information indicating the first region (or the information indicating the result of analysis of the first region) to be hidden. As a result, the analysis region (or analysis result) corresponding to the second image can be selectively displayed on the second image. Therefore, it is possible to improve the convenience of the operator in displaying the analysis result of the motion contrast image of the eye portion. The display control unit 101-05 may display the information indicating the first region on the display unit 304 in a state of being superimposed on the second image. Further, it is preferable that the display control unit 101-05 displays in the display area information indicating the result of analysis of the first area using the information indicating the second type. Further, the display control unit 101-05 displays information indicating the result of analysis of the first type using the information indicating the first type in the display area, and uses the information indicating the second type. Control may be executed to change the display of information indicating the result of analysis of the first region. The case where the analysis area is selected after the analysis type is selected has been described, but conversely, the analysis type is selected after the analysis area is selected. May be.

外部記憶部102は、被検眼の情報(患者の氏名、年齢、性別など)と、撮影した画像(断層画像及びSLO画像・OCTA画像)や合成画像、撮影パラメータ、血管領域や血管中心線の位置データ、計測値、操作者からの指示に応じて設定された解析範囲や解析方法等のパラメータを関連付けて保持している。入力部103は、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部103を介して、画像処理装置101や断層画像撮影装置100へ指示を行う。 The external storage unit 102 contains information on the eye to be inspected (patient's name, age, gender, etc.), captured images (tomographic image, SLO image, OCTA image), synthetic image, imaging parameter, position of blood vessel region and blood vessel center line. Parameters such as data, measured values, analysis range and analysis method set according to instructions from the operator are associated and held. The input unit 103 is, for example, a mouse, a keyboard, a touch operation screen, or the like, and the operator gives an instruction to the image processing device 101 or the tomographic image capturing device 100 via the input unit 103.

次に、OCT断層画像に基づいてモーションコントラスト画像を生成する方法について説明する。ここで、モーショントントラストとは、同一クラスタにおけるOCT断層画像の時間的な変化を可視化したものであり、時間的な変化とは血流を示している。 Next, a method of generating a motion contrast image based on the OCT tomographic image will be described. Here, the motion ton trust is a visualization of the temporal change of the OCT tomographic image in the same cluster, and the temporal change indicates the blood flow.

まず断層画像生成部101-11は画像取得部301が取得した干渉信号に対して波数変換及び高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行うことで1クラスタ分の断層画像を生成する。次に位置合わせ部101-41は同一クラスタに属する断層画像同士を位置合わせし、重ねあわせ処理を行う。画像特徴取得部101-44が該重ね合わせ断層画像から層境界データを取得する。本実施形態では層境界の取得法として可変形状モデルを用いるが、任意の公知の層境界取得手法を用いてよい。なお層境界の取得処理は必須ではなく、例えばモーションコントラスト画像の生成を3次元のみで行う場合や、深度方向に投影した2次元のモーションコントラスト画像を生成しない場合には層境界の取得処理は省略できる。モーションコントラストデータ生成部101-12が同一クラスタ内の隣接する断層画像間でモーションコントラストを算出する。本実施形態では、モーションコントラストとして脱相関値Mxyを以下の式(1)に基づき求める。 First, the tomographic image generation unit 101-11 performs wave number conversion, fast Fourier transform (FFT), and absolute value conversion (amplitude acquisition) on the interference signal acquired by the image acquisition unit 301 to obtain a tomographic image for one cluster. Generate. Next, the alignment unit 101-41 aligns the tomographic images belonging to the same cluster with each other and performs superposition processing. The image feature acquisition unit 101-44 acquires layer boundary data from the superposition tomographic image. In this embodiment, the variable shape model is used as the layer boundary acquisition method, but any known layer boundary acquisition method may be used. It should be noted that the layer boundary acquisition process is not essential. For example, when the motion contrast image is generated only in three dimensions or when the two-dimensional motion contrast image projected in the depth direction is not generated, the layer boundary acquisition process is omitted. can. The motion contrast data generation unit 101-12 calculates the motion contrast between adjacent tomographic images in the same cluster. In the present embodiment, the decorrelation value Mxy is obtained as the motion contrast based on the following equation (1).

Figure 0007086683000001
Figure 0007086683000001

ここで、Axyは断層画像データAの位置(x,y)における(FFT処理後の複素数データの)振幅、Bxyは断層データBの同一位置(x、y)における振幅を示している。0≦Mxy≦1であり、両振幅値の差異が大きいほど1に近い値をとる。式(1)のような脱相関演算処理を(同一クラスタに属する)任意の隣接する断層画像間で行い、得られた(1クラスタあたりの断層画像数-1)個のモーションコントラスト値の平均を画素値として持つ画像を最終的なモーションコントラスト画像として生成する。 Here, Axy indicates the amplitude (of the complex number data after FFT processing) at the position (x, y) of the tomographic image data A, and Bxy indicates the amplitude of the tomographic data B at the same position (x, y). 0 ≦ Mxy ≦ 1, and the larger the difference between the two amplitude values, the closer to 1. Decorrelation calculation processing as in equation (1) is performed between arbitrary adjacent tomographic images (belonging to the same cluster), and the average of the obtained (number of tomographic images per cluster-1) motion contrast values is averaged. An image having as a pixel value is generated as a final motion contrast image.

なお、ここではFFT処理後の複素数データの振幅に基づいてモーションコントラストを計算したが、モーションコントラストの計算法は上記に限定されない。例えば複素数データの位相情報に基づいてモーションコントラストを計算してもよいし、振幅と位相の両方の情報に基づいてモーションコントラストを計算してもよい。あるいは、複素数データの実部や虚部に基づいてモーションコントラストを計算してもよい。 Here, the motion contrast is calculated based on the amplitude of the complex number data after the FFT processing, but the calculation method of the motion contrast is not limited to the above. For example, the motion contrast may be calculated based on the phase information of the complex number data, or the motion contrast may be calculated based on both the amplitude and the phase information. Alternatively, the motion contrast may be calculated based on the real part or the imaginary part of the complex number data.

また、本実施形態ではモーションコントラストとして脱相関値を計算したが、モーションコントラストの計算法はこれに限定されない。例えば二つの値の差分に基づいてモーションコントラストを計算しても良いし、二つの値の比に基づいてモーションコントラストを計算してもよい。 Further, in the present embodiment, the decorrelation value is calculated as the motion contrast, but the calculation method of the motion contrast is not limited to this. For example, the motion contrast may be calculated based on the difference between the two values, or the motion contrast may be calculated based on the ratio of the two values.

さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラスト画像を得ているが、本発明はこれに限定されない。例えば取得された複数の脱相関値の中央値、あるいは最大値を画素値として持つ画像を最終的なモーションコントラスト画像として生成しても良い。また、繰り返しOCTA撮影を通して得られたモーションコントラスト画像群を3次元的に位置合わせし、加算平均することで高コントラストな合成モーションコントラスト画像を生成しても良い。 Further, in the above, the final motion contrast image is obtained by obtaining the average value of the obtained plurality of decorrelation values, but the present invention is not limited to this. For example, an image having the median value or the maximum value of a plurality of acquired decorrelation values as pixel values may be generated as a final motion contrast image. Further, a high-contrast composite motion contrast image may be generated by three-dimensionally aligning the motion contrast image group obtained through repeated OCTA photography and averaging them.

合成部101-42は、繰り返しOCTA撮影を通して得られたモーションコントラスト画像群(図14(a))を3次元的に位置合わせし、加算平均することで図14(b)に示すように高コントラストな合成モーションコントラスト画像を生成する。なお、合成処理は単純加算平均に限定されない。例えば各モーションコントラスト画像の輝度値に対して任意の重みづけをした上で平均した値でもよいし、中央値をはじめとする任意の統計値を算出してもよい。また位置合わせ処理を2次元的に行う場合も本発明に含まれる。 The compositing unit 101-42 three-dimensionally aligns the motion contrast image group (FIG. 14 (a)) obtained through repeated OCTA imaging, and adds and averages them to achieve high contrast as shown in FIG. 14 (b). Generates a composite motion contrast image. The composition process is not limited to the simple addition average. For example, the brightness value of each motion contrast image may be arbitrarily weighted and then averaged, or an arbitrary statistical value including the median may be calculated. The present invention also includes a case where the alignment process is performed two-dimensionally.

なお、合成部101-42が合成処理に不適なモーションコントラスト画像が含まれているか否かを判定した上で、不適と判定したモーションコントラスト画像を除いて合成処理を行うよう構成してもよい。例えば、各モーションコントラスト画像に対して評価値(例えば脱相関値の平均値や、fSNR)が所定の範囲外である場合に、合成処理に不適と判定すればよい。 The compositing unit 101-42 may be configured to determine whether or not a motion contrast image unsuitable for the compositing process is included, and then perform the compositing process excluding the motion contrast image determined to be unsuitable. For example, when the evaluation value (for example, the average value of the decorrelation value or fSNR) for each motion contrast image is out of a predetermined range, it may be determined that the image is unsuitable for the composition process.

次に、モーションコントラスト画像内に生じるプロジェクションアーチファクトを3次元的に抑制する方法について説明する。ここで、プロジェクションアーチファクトは網膜表層血管内のモーションコントラストが深層側(網膜深層や網膜外層・脈絡膜)に映り込み、実際には血管の存在しない深層側の領域に高い脱相関値が生じる現象を指す。 Next, a method of three-dimensionally suppressing projection artifacts generated in a motion contrast image will be described. Here, the projection artifact refers to a phenomenon in which the motion contrast in the blood vessels on the surface of the retina is reflected on the deep side (deep layer of the retina, outer layer of the retina, choroid), and a high decorrelation value occurs in the deep region where the blood vessels do not actually exist. ..

図14(c)に、3次元OCT断層画像上に3次元モーションコントラストデータを重畳表示した例を示す。網膜表層血管領域に対応する高い脱相関値を持つ領域2201の深層側(視細胞層)に、高い脱相関値を持つ領域2202が生じている。本来視細胞層に血管は存在しないにもかかわらず、網膜表層で生じている血管影の明滅が視細胞層に映り込み、視細胞層の輝度値が変化することでアーチファクト2202が生じる。 FIG. 14C shows an example in which 3D motion contrast data is superimposed and displayed on a 3D OCT tomographic image. A region 2202 having a high decorrelation value is generated on the deep side (photoreceptor layer) of the region 2201 having a high decorrelation value corresponding to the retinal surface blood vessel region. Although blood vessels do not originally exist in the photoreceptor layer, the blinking of blood vessel shadows occurring on the surface layer of the retina is reflected in the photoreceptor layer, and the brightness value of the photoreceptor layer changes, resulting in artifact 2202.

補正部101-43は、3次元の合成モーションコントラスト画像上に生じたプロジェクションアーチファクト802を抑制する処理を実行する。任意の公知のプロジェクションアーチファクト抑制手法を用いてよいが、本実施形態ではStep-down Exponential Filteringを用いる。Step-down Exponential Filteringでは、3次元モーションコントラスト画像上の各Aスキャンデータに対して式(2)で表される処理を実行することにより、プロジェクションアーチファクトを抑制する。 The correction unit 101-43 executes a process of suppressing the projection artifact 802 generated on the three-dimensional synthetic motion contrast image. Any known projection artifact suppression technique may be used, but in this embodiment, Step-down Exponential Filtering is used. In Step-down Exponential Filtering, projection artifacts are suppressed by executing the process represented by the equation (2) for each A scan data on the three-dimensional motion contrast image.

Figure 0007086683000002
Figure 0007086683000002

ここで、γは負の値を持つ減衰係数、D(x,y,z)はプロジェクションアーチファクト抑制処理前の脱相関値、DE(x,y,z)は該抑制処理後の脱相関値を表す。 Here, γ is an attenuation coefficient having a negative value, D (x, y, z) is a decorrelation value before the projection artifact suppression process, and DE (x, y, z) is a decorrelation value after the suppression process. show.

図14(d)にプロジェクションアーチファクト抑制処理後の3次元合成モーションコントラストデータ(灰色)を断層画像上に重畳表示した例を示す。プロジェクションアーチファクト抑制処理前(図14(c))に視細胞層上に見られたアーチファクトが、該抑制処理によって除去されたことがわかる。 FIG. 14 (d) shows an example in which the three-dimensional synthetic motion contrast data (gray) after the projection artifact suppression process is superimposed and displayed on the tomographic image. It can be seen that the artifacts found on the photoreceptor layer before the projection artifact suppression treatment (FIG. 14 (c)) were removed by the suppression treatment.

次に、本実施形態における血管領域の特定方法について説明する。解析部303は計測処理の前処理を行う。任意の公知の画像処理を前処理として適用できるが、本実施形態では、前処理として画像拡大及びモルフォロジー演算(トップハットフィルタ処理)を行う。トップハットフィルタを適用することにより、背景成分の輝度ムラを軽減できる。具体的には、合成モーションコントラスト画像の画素サイズが約3μmになるように3次元Bicubic補間を用いて画像拡大し、球形の構造要素を用いてトップハットフィルタ処理を行うものとする。 Next, a method for specifying the blood vessel region in the present embodiment will be described. The analysis unit 303 performs preprocessing for measurement processing. Any known image processing can be applied as preprocessing, but in the present embodiment, image enlargement and morphology calculation (top hat filter processing) are performed as preprocessing. By applying the top hat filter, it is possible to reduce the uneven brightness of the background component. Specifically, the image is enlarged by using three-dimensional Bicubic interpolation so that the pixel size of the composite motion contrast image becomes about 3 μm, and the top hat filter processing is performed using the spherical structural element.

解析部303が血管領域の特定処理を行う。本実施形態では、強調部101-461がヘシアンフィルタに基づく血管強調処理及びエッジ選択鮮鋭化処理を行う。次に抽出部101-462が2種類の血管強調画像を用いて2値化処理を行い、整形処理を行うことで血管領域を特定する。 The analysis unit 303 performs a process for specifying the blood vessel region. In the present embodiment, the emphasis section 101-461 performs a blood vessel enhancement process and an edge selection sharpening process based on a hesian filter. Next, the extraction unit 101-462 performs binarization processing using two types of blood vessel-enhanced images, and performs shaping processing to specify the blood vessel region.

本実施形態では、解析方法として、血管面積密度解析と血管長さ密度解析を定義する。血管面積密度(VAD:Vessel Area Density)とは、計測対象に含まれる血管領域の割合で定義される血管密度(単位:%)である。すなわち、VADは、モーションコントラスト画像において特定される血管領域の面積に関する血管密度の一例である。また、血管長さ密度(VLD:Vessel Length Density)とは、単位面積あたりに含まれる血管の長さの総和(単位:mm-1)で定義される血管密度である。すなわち、VLDは、モーションコントラスト画像において特定される血管領域の長さに関する血管密度の一例である。また、VADやVLDは、モーションコントラスト画像において特定される血管領域に関するパラメータの一例である。血管領域に関するパラメータとしては、血管領域の面積、血管長、血管の曲率等が含まれる。ここで、血管密度は血管の閉塞範囲や血管網の疎密の程度を定量化するための指標であり、血管面積密度解析が最もよく用いられている。ただし、血管面積密度解析では計測値に占める大血管領域の寄与分が大きくなるため、糖尿病網膜症のように毛細血管の病態に注目して計測したい場合には(より毛細血管の閉塞に敏感な指標として)血管長さ密度解析が用いられる。なお、解析の種類としては、血管領域に関するパラメータ以外にも、例えば、モーションコントラスト画像において特定される無血管領域(Non Perfusion Area;NPA)に関するパラメータ等がある。無血管領域に関するパラメータとしては、無血管領域の面積や形状(長さや円形度)等が含まれる。これに限らず、例えば血管構造の複雑さを定量化するFractal Dimensionや、血管径の分布(血管の瘤や狭窄の分布)を表すVessel Diameter Indexを計測してもよい。 In this embodiment, blood vessel area density analysis and blood vessel length density analysis are defined as analysis methods. The blood vessel area density (VAD: Vessel Area Density) is a blood vessel density (unit:%) defined by the ratio of the blood vessel region included in the measurement target. That is, VAD is an example of blood vessel density with respect to the area of the blood vessel region specified in the motion contrast image. Further, the blood vessel length density (VLD: Vessel Length Density) is a blood vessel density defined by the total length of blood vessels (unit: mm-1) contained in a unit area. That is, VLD is an example of blood vessel density with respect to the length of the blood vessel region identified in the motion contrast image. Further, VAD and VLD are examples of parameters related to the blood vessel region specified in the motion contrast image. Parameters related to the blood vessel region include the area of the blood vessel region, the blood vessel length, the curvature of the blood vessel, and the like. Here, the blood vessel density is an index for quantifying the occlusion range of the blood vessel and the degree of sparseness of the blood vessel network, and the blood vessel area density analysis is most often used. However, in the blood vessel area density analysis, the contribution of the large blood vessel region to the measured value is large, so if you want to focus on the pathophysiology of capillaries such as diabetic retinopathy (more sensitive to capillary occlusion). (As an index) vessel length density analysis is used. In addition to the parameters related to the blood vessel region, the type of analysis includes, for example, parameters related to the non-perfusion region (NPA) specified in the motion contrast image. Parameters related to the avascular region include the area and shape (length and circularity) of the avascular region. Not limited to this, for example, a Fractal dimension that quantifies the complexity of the blood vessel structure or a Vessel Diameter Index that represents the distribution of the blood vessel diameter (distribution of aneurysm or stenosis of the blood vessel) may be measured.

本実施形態における装置構成を、図1を用いて説明する。画像取得部301は、解析の対象とする解析対象画像を取得し、解析対象画像を記憶部101-02に記憶する。解析部303は、記憶部101-02から取得した解析対象画像および、解析方法選択部302で選択した解析方法に基づいて解析結果を求め、解析結果を記憶部101-02に記憶する。表示制御部101-05は記憶部101-02から解析対象画像と解析結果を取得し、表示部304に通知する。 The apparatus configuration in this embodiment will be described with reference to FIG. The image acquisition unit 301 acquires an analysis target image to be analyzed, and stores the analysis target image in the storage unit 101-02. The analysis unit 303 obtains an analysis result based on the analysis target image acquired from the storage unit 101-02 and the analysis method selected by the analysis method selection unit 302, and stores the analysis result in the storage unit 101-02. The display control unit 101-05 acquires the analysis target image and the analysis result from the storage unit 101-02, and notifies the display unit 304.

本実施形態における処理の流れを図4のフローチャートを用いて説明する。S401において、ユーザは解析対象画像を選択する。S402において、ユーザは解析方法(血管面積密度解析、血管長さ密度解析、解析しない)を選択する。選択した解析方法が血管面積密度解析の場合、S403およびS404において、面積密度解析の解析結果を表示する。選択した解析方法が血管長さ密度解析の場合、S405およびS406において、血管長さ密度解析の解析結果を表示する。解析しないを選択した場合、解析を行わない。S407において、ユーザは解析方法を変更する場合にはS402からS407の処理を繰り返す。なお、解析対象画像は、画像取得部301により撮影した画像でも構わないし、予め外部記憶部102または記憶部101-02に記憶させておいた画像でも構わない。また、本実施形態では画像の種類として、輝度Enface画像やOCTA画像、SLO画像、眼底画像などの正面画像を想定しているが、断層画像などを対象とした構成にも適用可能である。 The flow of processing in this embodiment will be described with reference to the flowchart of FIG. In S401, the user selects an image to be analyzed. In S402, the user selects an analysis method (blood vessel area density analysis, blood vessel length density analysis, no analysis). When the selected analysis method is blood vessel area density analysis, the analysis result of the area density analysis is displayed in S403 and S404. When the selected analysis method is blood vessel length density analysis, the analysis result of the blood vessel length density analysis is displayed in S405 and S406. If you select Do not analyze, do not analyze. In S407, when the user changes the analysis method, the process of S402 to S407 is repeated. The image to be analyzed may be an image taken by the image acquisition unit 301, or may be an image stored in advance in the external storage unit 102 or the storage unit 101-02. Further, in the present embodiment, as the type of image, a front image such as a luminance Enface image, an OCTA image, an SLO image, and a fundus image is assumed, but it can also be applied to a configuration targeting a tomographic image or the like.

また、図5では本実施形態におけるユーザインターフェースの一例を示している。501で示す解析方法を切り替えることにより、502に表示する解析結果が変更される。図6(a)(b)はそれぞれ502に表示する解析結果の一例を示している。また、図6(a)(b)が示す値は画像全体に対して血管面積密度解析により解析した値である。501で解析方法として血管面積密度を選択したとき、502に表示する解析結果は、図6(a)で示すように解析対象画像と解析結果を合成した合成画像として表示してもよいし、図6(b)で示すように解析対象画像とは別に数値やグラフやカラーマップなどを用いて表示してもよい。また、501で解析方法として血管長さ密度を選択したとき、502に表示する解析結果は血管長さ密度解析により解析した解析結果に切り替える。血管長さ密度解析の解析結果を表示する際、図6(a)(b)と同等の表示方法でもよいし、例えば解析時の中間画像である細線化した血管画像と解析結果を合成して表示するなどしてしてもよい。 Further, FIG. 5 shows an example of the user interface in the present embodiment. By switching the analysis method shown in 501, the analysis result displayed on the 502 is changed. 6 (a) and 6 (b) show an example of the analysis result displayed in 502, respectively. Further, the values shown in FIGS. 6A and 6B are values analyzed by blood vessel area density analysis for the entire image. When the blood vessel area density is selected as the analysis method in 501, the analysis result displayed in 502 may be displayed as a composite image in which the analysis target image and the analysis result are combined as shown in FIG. 6 (a). As shown in 6 (b), a numerical value, a graph, a color map, or the like may be displayed separately from the image to be analyzed. Further, when the blood vessel length density is selected as the analysis method in 501, the analysis result displayed on the 502 is switched to the analysis result analyzed by the blood vessel length density analysis. When displaying the analysis result of the blood vessel length density analysis, the display method equivalent to that of FIGS. 6 (a) and 6 (b) may be used. It may be displayed.

また、以降で解析結果として紹介する全ての図は502に適用可能である。なお、解析対象画像は撮影画像に限らず、事前に記憶しておいた画像でも構わない。また、ユーザが解析方法を選択する構成としたが、これに限定されない。例えば、解析対象画像が乳頭周辺である場合には血管長さ密度解析を選択し、黄斑周辺である場合には血管面積密度解析を自動的に選択するなど、解析対象画像の撮影部位や画像の種類に応じて解析方法を自動的に選択してもよい。 In addition, all the figures introduced below as analysis results are applicable to 502. The image to be analyzed is not limited to the captured image, but may be an image stored in advance. Further, the configuration is such that the user selects the analysis method, but the present invention is not limited to this. For example, if the image to be analyzed is around the papilla, blood vessel length density analysis is selected, and if it is around the yellow spot, blood vessel area density analysis is automatically selected. The analysis method may be automatically selected according to the type.

本実施形態では、選択した解析方法に基づいて画像全体の解析を行う例を説明した。本実施形態の構成の一部を変更し、解析方法ごとに解析範囲を指定して解析結果を表示する変形例について、図1を用いて説明する。画像の解析を行う際に、画像全体ではなく、黄斑や視神経乳頭などの部位を含む範囲や、病変部などの特徴的な範囲を解析したい場合がある。このとき、解析範囲を指定して解析を行うことで、局所的な解析が可能となる。解析範囲指定部701は、解析対象画像における解析範囲を指定し、記憶部101-02に通知し、記憶部101-02は解析範囲と解析方法の組合せを記憶する。解析部303は、記憶部101-02から取得した解析対象画像、解析方法に加え、解析範囲と解析方法の組合せに基づいて解析結果を求める。 In this embodiment, an example of analyzing the entire image based on the selected analysis method has been described. A modified example in which a part of the configuration of the present embodiment is changed, an analysis range is specified for each analysis method, and an analysis result is displayed will be described with reference to FIG. When analyzing an image, it may be desired to analyze not the entire image but a range including a site such as the macula or the optic disc, or a characteristic range such as a lesion. At this time, local analysis is possible by designating the analysis range and performing the analysis. The analysis range designation unit 701 designates an analysis range in the image to be analyzed and notifies the storage unit 101-02, and the storage unit 101-02 stores the combination of the analysis range and the analysis method. The analysis unit 303 obtains an analysis result based on the combination of the analysis range and the analysis method in addition to the analysis target image and the analysis method acquired from the storage unit 101-02.

本変形例における処理の流れを図8のフローチャートと図7のユーザインターフェースを用いて説明する。 The processing flow in this modification will be described using the flowchart of FIG. 8 and the user interface of FIG. 7.

S401からS406において、解析方法501で選択した解析方法に基づく解析結果を502に表示し、S407において、必要に応じて解析方法501を変更する。本変形例では、S404およびS406後のS801において、解析範囲を追加または変更する場合、S802において、任意の位置に解析範囲901を指定する。S803において、指定した解析範囲と解析方法501で選択中の解析方法の組み合わせを解析設定として記憶する。その後、S404およびS406において、各解析方法に対応した解析範囲の解析結果を502に表示する。 In S401 to S406, the analysis result based on the analysis method selected in the analysis method 501 is displayed in 502, and in S407, the analysis method 501 is changed as necessary. In this modification, when the analysis range is added or changed in S404 and S801 after S406, the analysis range 901 is specified at an arbitrary position in S802. In S803, the combination of the specified analysis range and the analysis method selected by the analysis method 501 is stored as an analysis setting. After that, in S404 and S406, the analysis result of the analysis range corresponding to each analysis method is displayed in 502.

具体的には、図7では、解析方法501で血管面積密度解析を選択した状態で解析範囲901を指定したときの例である。このとき、解析範囲901は血管面積密度解析と組み合わせて解析設定として記憶される。また、図11は、図7の状態から解析方法501を血管長さ密度に切り替えて解析範囲902を指定したときの例である。このとき、解析範囲902は血管長さ密度解析と組み合わせて解析設定として記憶される。このとき、血管面積密度で指定した解析範囲901-2は表示されない。逆に、解析範囲501を血管面積密度に切り替えた場合、血管長さ密度で指定した解析範囲902は表示されない。なお、901-2は解析範囲と設定していることが分かるように薄く表示しても良いし、全く表示しない構成としても良い。 Specifically, FIG. 7 is an example when the analysis range 901 is specified with the blood vessel area density analysis selected in the analysis method 501. At this time, the analysis range 901 is stored as an analysis setting in combination with the blood vessel area density analysis. Further, FIG. 11 is an example when the analysis method 501 is switched to the blood vessel length density from the state of FIG. 7 and the analysis range 902 is specified. At this time, the analysis range 902 is stored as an analysis setting in combination with the blood vessel length density analysis. At this time, the analysis range 901-2 specified by the blood vessel area density is not displayed. On the contrary, when the analysis range 501 is switched to the blood vessel area density, the analysis range 902 specified by the blood vessel length density is not displayed. Note that 901-2 may be displayed faintly so that it can be seen that the analysis range is set, or it may be configured so that it is not displayed at all.

なお、図9(a)(b)は各解析方法で複数の解析範囲を指定した例であり、解析範囲903のように各解析方法で同じ解析範囲を指定してもよい。このとき、S402において、解析方法501で血管面積密度を選択した場合、図9(a)が解析結果502に表示され、解析方法501で血管長さ密度を選択した場合、図9(b)が解析結果502に表示される。また、解析方法501で「なし」を選択した場合、全ての解析結果を表示しないようにしてもよいし、逆に図9(c)で示すように、全ての解析結果を表示してもよい。また、解析範囲の指定方法はマウスを用いて解析対象画像上にフリーハンドで閉領域を描いて指定してもよいし、複数の点を指定してそれらを繋ぐ直線やベジェ曲線を用いて指定してもよい。また、円やグリッド(セクタ)などあらかじめ用意した形状を変形および移動することにより指定しても良い。また、指定する解析範囲は2次元平面に限定されない。解析方法の種類によっては直線や3次元ボリュームで解析範囲を指定してもよい。また、本実施形態および変形例ではユーザが解析範囲および解析方法を指定する構成としたが、これに限定されない。例えば、図10で示すように各解析対象画像において視神経乳頭(図10(a))や黄斑(図10(b))などの構造的な部位や、網膜が菲薄化している部分、手術痕や病変箇所などを検出し、それらを覆う範囲や周囲をグリッド分割した範囲(複数の領域に区分けされているセクタの少なくとも1つの領域)を自動的に解析範囲として設定してもよい。また、本実施形態および変形例では血管面積密度解析と血管長さ密度解析を例に挙げて説明したが、別の解析方法を追加しても構わない。上記の方法により、複数の解析方法により求めた解析結果を、解析方法ごとに観察に適した表示を行うことができ、非常に好ましい結果となった。 Note that FIGS. 9 (a) and 9 (b) are examples in which a plurality of analysis ranges are specified by each analysis method, and the same analysis range may be specified by each analysis method as in the analysis range 903. At this time, in S402, when the blood vessel area density is selected by the analysis method 501, FIG. 9A is displayed in the analysis result 502, and when the blood vessel length density is selected by the analysis method 501, FIG. 9B is shown. It is displayed in the analysis result 502. Further, when "None" is selected in the analysis method 501, all the analysis results may not be displayed, or conversely, all the analysis results may be displayed as shown in FIG. 9 (c). .. In addition, the method of specifying the analysis range may be specified by drawing a closed area on the analysis target image by freehand using a mouse, or by specifying a plurality of points and specifying them using a straight line or a Bezier curve connecting them. You may. Further, it may be specified by deforming and moving a shape prepared in advance such as a circle or a grid (sector). Further, the specified analysis range is not limited to the two-dimensional plane. Depending on the type of analysis method, the analysis range may be specified by a straight line or a three-dimensional volume. Further, in the present embodiment and the modified example, the user specifies the analysis range and the analysis method, but the present invention is not limited to this. For example, as shown in FIG. 10, in each analysis target image, structural parts such as the optic nerve head (FIG. 10 (a)) and macula (FIG. 10 (b)), parts where the retina is thinned, surgical scars, and the like. A range that covers lesions and the like and a range that is divided into grids around them (at least one area of a sector divided into a plurality of areas) may be automatically set as an analysis range. Further, in the present embodiment and the modified examples, the blood vessel area density analysis and the blood vessel length density analysis have been described as examples, but another analysis method may be added. By the above method, the analysis results obtained by a plurality of analysis methods can be displayed suitable for observation for each analysis method, which is a very preferable result.

(第2実施形態)
第1実施形態では、解析方法ごとに解析範囲を指定して解析結果を表示する例を説明した。本実施形態では、第1実施形態に示す構成の一部を変更し、第1実施形態とは逆に解析範囲ごとに解析方法を指定して解析結果を表示する例を説明する。目的および結果は第1実施形態と概ね同じであるが、本実施形態では1つの解析範囲に複数の解析方法を対応付けることができる。本実施形態における装置構成を、図1を用いて説明する。解析方法選択部302は、解析範囲指定部701で指定した各解析範囲に対して解析方法を指定し、記憶部101-02に通知する。
(Second Embodiment)
In the first embodiment, an example of designating an analysis range for each analysis method and displaying the analysis result has been described. In this embodiment, an example will be described in which a part of the configuration shown in the first embodiment is changed, and an analysis method is specified for each analysis range and the analysis result is displayed, contrary to the first embodiment. The purpose and the result are substantially the same as those of the first embodiment, but in the present embodiment, a plurality of analysis methods can be associated with one analysis range. The apparatus configuration in this embodiment will be described with reference to FIG. The analysis method selection unit 302 designates an analysis method for each analysis range designated by the analysis range designation unit 701, and notifies the storage unit 101-02.

本実施形態における処理の流れを図12のフローチャートを用いて、第1実施形態のフローチャート(図4)との差分について説明する。S401で解析対象画像を選択後、S801において、解析範囲の追加または変更する場合、S802において、解析範囲を指定する。S1201において、解析範囲の解析方法を指定する。S803において、解析範囲と解析方法の組み合わせを解析設定として記憶する。その後、S402において解析方法を選択し、S403からS407において、選択した解析方法の解析結果を表示する。具体的には、図13のユーザインターフェースおよび図9の解析結果を用いて説明する。S802において、解析方法501の選択に関わらず、解析範囲901、902、903を指定する。S1201において、各解析範囲に解析方法を関連付ける。ここでは、解析範囲ごとに血管面積密度と血管長さ密度のチェックボックスを持っており、対象とする解析方法にチェックを入れる構成にしている。解析範囲901は血管面積密度解析のみ、解析範囲902は血管長さ密度解析、解析範囲903は血管面積密度解析および血管長さ密度解析を関連付けている。このとき、S402において、解析方法501で血管面積密度を選択した場合、図9(a)が解析結果502に表示され、解析方法501で血管長さ密度を選択した場合、図9(b)が解析結果502に表示される。また、解析方法501で「なし」を選択した場合、全ての解析結果を表示しないようにしてもよいし、逆に図9(c)で示すように、全ての解析結果を表示してもよい。 The difference between the flow of processing in the present embodiment and the flowchart of the first embodiment (FIG. 4) will be described with reference to the flowchart of FIG. When the analysis target image is selected in S401 and then the analysis range is added or changed in S801, the analysis range is specified in S802. In S1201, the analysis method of the analysis range is specified. In S803, the combination of the analysis range and the analysis method is stored as the analysis setting. After that, the analysis method is selected in S402, and the analysis results of the selected analysis method are displayed in S403 to S407. Specifically, it will be described with reference to the user interface of FIG. 13 and the analysis result of FIG. In S802, the analysis ranges 901, 902, and 903 are specified regardless of the selection of the analysis method 501. In S1201, an analysis method is associated with each analysis range. Here, there are check boxes for blood vessel area density and blood vessel length density for each analysis range, and the configuration is such that the target analysis method is checked. The analysis range 901 is associated with blood vessel area density analysis only, the analysis range 902 is associated with blood vessel length density analysis, and the analysis range 903 is associated with blood vessel area density analysis and blood vessel length density analysis. At this time, in S402, when the blood vessel area density is selected by the analysis method 501, FIG. 9A is displayed in the analysis result 502, and when the blood vessel length density is selected by the analysis method 501, FIG. 9B is shown. It is displayed in the analysis result 502. Further, when "None" is selected in the analysis method 501, all the analysis results may not be displayed, or conversely, all the analysis results may be displayed as shown in FIG. 9 (c). ..

ここで、第1実施形態と本実施形態との差分は、解析方法選択後に解析範囲を設定する(第1実施形態)か、解析範囲選択後に解析方法を選択する(本実施形態)かの違いである。もちろん本実施形態において、第1実施形態の構成と組み合わせて、解析方法選択後に解析範囲の追加および変更が可能な構成としてもよい。なお、指定した解析範囲に基づいて自動的に解析方法を選択する構成にしても良い。例えば、図15(a)で示すように解析範囲が視神経乳頭周辺の場合、自動的に血管長さ密度解析を選択し、図15(b)で示すように解析範囲が黄斑周辺の場合、自動的に血管面積密度解析を選択するなどしてもよい。上記の方法により、複数の解析方法により求めた解析結果を、解析方法ごとに観察に適した表示を行うことができ、非常に好ましい結果となった。 Here, the difference between the first embodiment and the present embodiment is the difference between setting the analysis range after selecting the analysis method (first embodiment) and selecting the analysis method after selecting the analysis range (this embodiment). Is. Of course, in the present embodiment, in combination with the configuration of the first embodiment, the configuration may be such that the analysis range can be added or changed after the analysis method is selected. The analysis method may be automatically selected based on the specified analysis range. For example, when the analysis range is around the optic nerve head as shown in FIG. 15 (a), the blood vessel length density analysis is automatically selected, and when the analysis range is around the macula as shown in FIG. 15 (b), it is automatically selected. The blood vessel area density analysis may be selected. By the above method, the analysis results obtained by a plurality of analysis methods can be displayed suitable for observation for each analysis method, which is a very preferable result.

(第3実施形態)
画像の解析を行う際に、特定の解析方法だけではなく、複数の解析方法が混在した状態で解析結果を確認したい場合がある。例えば、ある解析範囲Aを血管面積密度解析で、別のある解析範囲Bを血管長さ密度解析で同時に表示したい場合などがこれに当たる。本実施形態では、解析対象画像内に複数の解析範囲が存在する場合や、1つの解析範囲に複数の解析方法が対応付いている場合の表示方法のバリエーションについて説明する。
(Third Embodiment)
When analyzing an image, it may be desired to check the analysis result not only in a specific analysis method but also in a state where a plurality of analysis methods are mixed. For example, this corresponds to the case where one analysis range A is to be displayed simultaneously by blood vessel area density analysis and another analysis range B is to be displayed simultaneously by blood vessel length density analysis. In this embodiment, variations of the display method when there are a plurality of analysis ranges in the image to be analyzed or when a plurality of analysis methods correspond to one analysis range will be described.

図16は、任意のタイミングで解析結果の表示非表示を切り替えるユーザインターフェースの一例を示している。各解析結果の表示・非表示の表示設定1601を切り替えるユーザインターフェースを用意し、表示設定1601にしたがって解析結果を表示する構成としてもよい。これにより、複数の解析方法による解析結果を任意のタイミングで切り替えて確認することができる。また、各表示設定の初期値は解析方法に応じて決定するとよい。例えば、解析方法501に血管面積密度解析を選択した場合、表示設定1601は血管面積密度を表示、血管長さ密度を非表示とし、解析方法501に血管長さ密度解析を選択した場合、表示設定1601は血管面積密度を非表示、血管長さ密度を表示となるように設定するとよい。 FIG. 16 shows an example of a user interface for switching the display / non-display of the analysis result at an arbitrary timing. A user interface for switching the display / non-display setting 1601 of each analysis result may be prepared, and the analysis result may be displayed according to the display setting 1601. As a result, the analysis results of the plurality of analysis methods can be switched and confirmed at any timing. Further, the initial value of each display setting may be determined according to the analysis method. For example, when the blood vessel area density analysis is selected for the analysis method 501, the display setting 1601 displays the blood vessel area density and hides the blood vessel length density, and when the blood vessel length density analysis is selected for the analysis method 501, the display setting. The 1601 may be set so that the blood vessel area density is not displayed and the blood vessel length density is displayed.

また、図17は、1つの解析範囲に複数の解析方法が対応付けられている場合の解析結果の表示例である。図17で示すように各解析方法による解析結果を併記して表示してもよい。このとき、各解析結果がどの解析方法によるものなのかを識別しやすいように、例えば血管面積密度解析の解析結果に■、血管長さ密度解析の解析結果に★など、解析方法ごとに記号などの識別子を付与してもよい。また、選択している解析方法による解析結果には太字や色付けなど強調表示するようにしてもよい。また、一定時間ごとに解析結果を切り替えて表示してもよい。また、解析範囲ごとにどの解析結果を表示するかを選択したり、表示非表示を切り替えられるようにしてもよい。また、図18は、図17を表にした例である。解析結果として、図17のような表を表示してもよい。また、グラフやその他の形式に変換したものを解析結果として表示してもよい。上記の方法により、複数の解析方法により求めた解析結果を、解析方法ごとに観察に適した表示を行うことができ、非常に好ましい結果となった。 Further, FIG. 17 is a display example of the analysis result when a plurality of analysis methods are associated with one analysis range. As shown in FIG. 17, the analysis results of each analysis method may be displayed together. At this time, in order to make it easy to identify which analysis method each analysis result is based on, for example, ■ in the analysis result of the blood vessel area density analysis, ★ in the analysis result of the blood vessel length density analysis, etc. The identifier of may be given. In addition, the analysis result by the selected analysis method may be highlighted in bold or colored. Further, the analysis result may be switched and displayed at regular intervals. Further, it may be possible to select which analysis result is to be displayed for each analysis range and to switch between display and non-display. Further, FIG. 18 is an example in which FIG. 17 is tabulated. As the analysis result, a table as shown in FIG. 17 may be displayed. In addition, a graph or other format converted may be displayed as an analysis result. By the above method, the analysis results obtained by a plurality of analysis methods can be displayed suitable for observation for each analysis method, which is a very preferable result.

(変形例)
上記実施形態の変形例の一つとして、上記実施形態に係る画像処理装置の一つが、被検眼のフォローアップ(経過観察)の機能を含むことが好ましい。例えば、表示制御部101-05が、異なる日に行われた複数の検査に対応する複数のモーションコントラスト画像を並べて表示部304に表示させることが好ましい。また、表示制御部101-05は、異なる日に行われた複数の検査に対応する複数の解析マップ(解析された結果を示す画像)を並べて表示部304に表示させても良い。すなわち、表示制御部101-05が、異なる日に行われた複数の検査に対応する複数の2次元画像(複数のモーションコントラスト正面画像や複数の解析マップ)を並べて表示部304に表示させることができれば良い。なお、複数の解析マップとしては、同種の解析方法(解析の種類)で解析された解析マップが選択されることが好ましい。また、表示部304に表示させる複数の2次元画像に対応する複数の検査が、操作者の指示に応じて選択されるように構成されても良い。また、表示制御部101-05は、操作者の指示に応じて複数の検査それぞれに対して選択された少なくとも1つの解析領域(例えば、部分領域である第1の領域や第2の領域)が重畳された状態で、複数の2次元画像を表示部304させても良い。また、基準となる検査に関する設定が操作者の指示に応じて選択(変更)された場合に、他の検査に関する設定が同時に(連動して)選択(変更)されることが好ましい。例えば、表示制御部101-05は、操作者の指示に応じて選択された基準となる検査に対して選択された少なくとも1つの解析領域を、他の検査に対して適用するように構成されても良い。すなわち、基準となる検査に対応する2次元画像上での解析領域の位置が、他の検査に対応する2次元画像上の対応する位置に反映するように構成されても良い。なお、解析領域は、操作者の指示に応じて、2次元画像に対して手動で設定された領域であっても良いし、複数の領域に区分けされているセクタから選択された少なくとも1つの領域であっても良いし、2次元画像に対してセクタを移動することにより選択される領域(更新される領域)であっても良い。また、変更される設定は、解析領域以外にも解析方法(解析の種類)であっても良い。また、表示制御部101-05は、複数の解析マップの表示を、異なる解析の種類の複数の解析マップの表示に連動して変更する制御を実行しても良い。このとき、表示制御部101-05は、複数の解析マップに重畳表示される解析領域を示す情報(または解析された結果を示す情報)を連動して非表示に変更する制御を実行しても良い。また、表示制御部101-05は、複数の検査に対応する解析結果の時系列データを表示部304に表示させても良い。ここで、時系列データは、例えば、時系列グラフであるが、時間に沿って表現されたもの(数値や図表)であれば何でも良い。また、表示制御部101-05は、複数の解析領域の解析結果の比率や差を示す統合解析結果の時系列データを表示部304に表示させても良い。これらにより、例えば、医者等の操作者は、被検眼のフォローアップ(経過観察)を効率的に行うことができる。
(Modification example)
As one of the modifications of the embodiment, it is preferable that one of the image processing devices according to the embodiment includes a function of follow-up (follow-up) of the eye to be inspected. For example, it is preferable that the display control unit 101-05 displays a plurality of motion contrast images corresponding to a plurality of inspections performed on different days side by side on the display unit 304. Further, the display control unit 101-05 may display a plurality of analysis maps (images showing the analysis results) corresponding to a plurality of inspections performed on different days side by side on the display unit 304. That is, the display control unit 101-05 may display a plurality of two-dimensional images (a plurality of motion contrast front images and a plurality of analysis maps) corresponding to a plurality of inspections performed on different days side by side on the display unit 304. I hope I can. As the plurality of analysis maps, it is preferable to select an analysis map analyzed by the same type of analysis method (type of analysis). Further, a plurality of inspections corresponding to a plurality of two-dimensional images to be displayed on the display unit 304 may be configured to be selected according to an instruction of the operator. Further, in the display control unit 101-05, at least one analysis region (for example, a first region or a second region which is a partial region) selected for each of the plurality of inspections according to the instruction of the operator is provided. A plurality of two-dimensional images may be displayed on the display unit 304 in the superimposed state. Further, when the setting related to the reference inspection is selected (changed) according to the instruction of the operator, it is preferable that the setting related to other inspections is selected (changed) at the same time (in conjunction with). For example, the display control unit 101-05 is configured to apply at least one analysis area selected for the reference inspection selected according to the instruction of the operator to other inspections. Is also good. That is, the position of the analysis region on the two-dimensional image corresponding to the reference inspection may be reflected in the corresponding position on the two-dimensional image corresponding to the other inspection. The analysis area may be an area manually set for the two-dimensional image according to the instruction of the operator, or at least one area selected from the sectors divided into a plurality of areas. It may be an area (updated area) selected by moving a sector with respect to a two-dimensional image. Further, the setting to be changed may be an analysis method (analysis type) other than the analysis area. Further, the display control unit 101-05 may execute control to change the display of the plurality of analysis maps in conjunction with the display of the plurality of analysis maps of different analysis types. At this time, even if the display control unit 101-05 executes control to hide the information indicating the analysis area (or the information indicating the analysis result) superimposed and displayed on the plurality of analysis maps. good. Further, the display control unit 101-05 may display the time series data of the analysis results corresponding to the plurality of inspections on the display unit 304. Here, the time-series data is, for example, a time-series graph, but any data expressed in time (numerical values or charts) may be used. Further, the display control unit 101-05 may display the time series data of the integrated analysis result showing the ratio or difference of the analysis results of the plurality of analysis regions on the display unit 304. As a result, for example, an operator such as a doctor can efficiently follow up (follow-up) the eye to be inspected.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

Claims (16)

操作者からの指示に応じて、第1の種類の解析または第2の種類の解析を選択する選択手段と、
操作者からの指示に応じて、眼部のモーションコントラスト画像の部分領域である第1の領域と第2の領域を設定する設定手段と、
前記設定された第1の領域及び第2の領域を解析する解析手段と、
前記設定された第1の領域と前記第2の領域を前記モーションコントラスト画像に重畳した状態で表示手段に表示させるとともに、前記第1の種類の解析により前記第1の領域が解析された結果と前記第2の種類の解析により前記第2の領域が解析された結果を前記表示手段に表示させる表示制御手段と、を有し、
前記表示制御手段は、前記第1の種類の解析が選択された場合に、前記第1の種類の解析による解析の結果を、前記モーションコントラスト画像に重畳した状態の前記第1の領域に表示させるとともに、前記第1の種類を示す情報を表示させることを特徴とをする画像処理装置。
A selection means for selecting the first type of analysis or the second type of analysis according to the instruction from the operator, and
A setting means for setting a first region and a second region, which are partial regions of the motion contrast image of the eye portion, according to an instruction from the operator .
An analysis means for analyzing the set first region and the second region, and
The set first region and the second region were displayed on the display means in a state of being superimposed on the motion contrast image, and the first region was analyzed by the first type of analysis. It has a result and a display control means for causing the display means to display the result of analysis of the second region by the second type of analysis .
When the first type of analysis is selected, the display control means causes the result of the analysis by the first type of analysis to be displayed in the first region in a state of being superimposed on the motion contrast image. An image processing apparatus characterized by displaying information indicating the first type .
前記解析手段は、操作者の指示に応じて選択された前記第1の種類の解析とは異なる第2の種類の解析により前記モーションコントラスト画像を解析し、
前記表示制御手段は、前記第1の種類の解析が選択された後に前記第2の種類の解析が選択された場合に、前記表示領域において、前記第1の種類の解析により解析された結果の表示を、前記第2の種類の解析により解析された結果の表示に変更する制御を実行することを特徴とする請求項に記載の画像処理装置。
The analysis means analyzes the motion contrast image by a second type of analysis different from the first type of analysis , which is selected according to the instruction of the operator .
The display control means is the result of analysis by the first type of analysis in the display area when the second type of analysis is selected after the first type of analysis is selected. The image processing apparatus according to claim 1 , wherein the control is performed to change the display to the display of the result analyzed by the second type of analysis .
前記表示制御手段は、前記モーションコントラスト画像に前記第2の領域を重畳した画像を前記表示手段に表示させるとともに、前記第2の領域が解析された結果を表示させることを特徴とする請求項に記載の画像処理装置。 The display control means is characterized in that an image in which the second region is superimposed on the motion contrast image is displayed on the display means, and the result of analysis of the second region is displayed . The image processing apparatus according to claim 2 . 前記表示制御手段は、前記表変更する制御が実行された場合に、前記第1の領域を非表示に変更する制御を実行することを特徴とする請求項またはに記載の画像処理装置。 The image according to claim 2 or 3 , wherein the display control means executes a control for changing the first area to be hidden when the control for changing the display is executed. Processing equipment. 前記表示制御手段は、前記表変更する制御が実行された場合に、前記第の領域を前モーションコントラスト画像に重畳した画像を表示させることを特徴とする請求項またはに記載の画像処理装置。 2 . _ _ _ _ _ _ The image processing device described. 前記表示制御手段は、前記第2の種類の解析により前記第の領域が解析された結果を表示させることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 5 , wherein the display control means displays the result of analysis of the second region by the second type of analysis . 前記表示制御手段は、前記第1の種類の解析により前記第1の領域が解析された結果の表示を、前記第2の種類の解析により前記第の領域が解析された結果の表示に変更する制御を実行することを特徴とする請求項またはに記載の画像処理装置。 The display control means displays the result of the analysis of the first region by the first type of analysis , and the result of the analysis of the second region by the second type of analysis . The image processing apparatus according to claim 5 or 6 , wherein the control for changing the display is executed. 前記表示制御手段は、前記モーションコントラスト画像2次元画像であって、異なる日に行われた複数の検査に対応する複数の2次元画像を並べて前記表示手段に表示させ、
操作者の指示に応じて選択された基準となる検査に対して選択された前記部分領域を、他の検査に対して適用するように構成されることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
The display control means is a two-dimensional image of the motion contrast image, and a plurality of two-dimensional images corresponding to a plurality of inspections performed on different days are arranged and displayed on the display means.
7 . The image processing apparatus according to claim 1.
前記基準となる検査に関する設定が操作者の指示に応じて変更された場合に、他の検査に関する設定が同時に変更されることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 8 , wherein when the setting related to the reference inspection is changed according to the instruction of the operator, the setting related to other inspections is changed at the same time. 前記表示制御手段は、前記部分領域が解析された結果の時系列データを前記表示手段に表示させることを特徴とする請求項8または9に記載の画像処理装置。 The image processing apparatus according to claim 8 or 9 , wherein the display control means causes the display means to display time-series data as a result of analyzing the partial region. 前記モーションコントラスト画像に対して前記部分領域が選択された後に、前記第1の種類の解析及び前記第2の種類の解析により前記部分領域を解析するため、前記第1の種類の解析及び前記第2の種類の解析の1つが選択されるように構成されることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 After the partial region is selected for the motion contrast image, the first type of analysis and the first type of analysis are performed in order to analyze the partial region by the first type of analysis and the second type of analysis. The image processing apparatus according to any one of claims 1 to 10 , wherein one of two types of analysis is configured to be selected. 前記第1の種類と前記第2の種類は、前記モーションコントラスト画像において特定される血管領域に関するパラメータを少なくとも含む複数の種類のいずれかであることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 One of claims 1 to 11 , wherein the first type and the second type are any of a plurality of types including at least a parameter relating to a blood vessel region specified in the motion contrast image. The image processing apparatus described in the section. 前記第1の種類と前記第2の種類は、前記モーションコントラスト画像において特定される血管領域の面積に関する血管密度と、前記血管領域の長さに関する血管密度とを少なくとも含む複数の種類のいずれかであることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 The first type and the second type may be any one of a plurality of types including at least a blood vessel density relating to the area of the blood vessel region specified in the motion contrast image and a blood vessel density relating to the length of the blood vessel region. The image processing apparatus according to any one of claims 1 to 12 , wherein the image processing apparatus is provided. 前記第1の種類と前記第2の種類は、前記モーションコントラスト画像において特定される無血管領域に関するパラメータを少なくとも含む複数の種類のいずれかであることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 One of claims 1 to 13 , wherein the first type and the second type are any of a plurality of types including at least a parameter relating to an avascular region specified in the motion contrast image. The image processing apparatus according to item 1. 第1の種類の解析または第2の種類の解析を選択する工程と、
眼部のモーションコントラスト画像の部分領域である第1の領域と第2の領域を設定する工程と、
前記設定された第1の領域及び第2の領域を解析する工程と、
前記設定された第1の領域と前記設定された第2の領域を前記モーションコントラスト画像に重畳した状態で表示手段に表示させるとともに、前記第1の種類の解析により前記第1の領域が解析された結果と前記第2の種類の解析により前記第2の領域が解析された結果とを前記表示手段に表示させる制御工程と、を有し、
前記制御工程において、前記第1の種類の解析が選択された場合に、前記第1の種類の解析による解析の結果を、前記モーションコントラスト画像に重畳した状態の前記第1の領域に表示させるとともに、前記第1の種類を示す情報を表示させすることを特徴とする画像処理方法。
The process of selecting the first type of analysis or the second type of analysis,
The process of setting the first region and the second region, which are partial regions of the motion contrast image of the eye part, and
The step of analyzing the set first region and the second region, and
The set first region and the set second region are displayed on the display means in a state of being superimposed on the motion contrast image, and the first region is obtained by the first type of analysis. It has a control step of displaying the analysis result and the result of analysis of the second region by the second type of analysis on the display means.
When the first type of analysis is selected in the control step, the result of the analysis by the first type of analysis is displayed in the first region in a state of being superimposed on the motion contrast image. , An image processing method comprising displaying information indicating the first type .
請求項15に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute each step of the image processing method according to claim 15 .
JP2018074080A 2018-04-06 2018-04-06 Image processing equipment, image processing methods and programs Active JP7086683B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018074080A JP7086683B2 (en) 2018-04-06 2018-04-06 Image processing equipment, image processing methods and programs
JP2022092855A JP7387812B2 (en) 2018-04-06 2022-06-08 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018074080A JP7086683B2 (en) 2018-04-06 2018-04-06 Image processing equipment, image processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022092855A Division JP7387812B2 (en) 2018-04-06 2022-06-08 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2019180692A JP2019180692A (en) 2019-10-24
JP7086683B2 true JP7086683B2 (en) 2022-06-20

Family

ID=68337291

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018074080A Active JP7086683B2 (en) 2018-04-06 2018-04-06 Image processing equipment, image processing methods and programs
JP2022092855A Active JP7387812B2 (en) 2018-04-06 2022-06-08 Image processing device, image processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022092855A Active JP7387812B2 (en) 2018-04-06 2022-06-08 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (2) JP7086683B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195878A (en) 2013-06-19 2016-11-24 株式会社トプコン Ophthalmological imaging device and ophthalmological image display device
JP2017077414A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2018019771A5 (en) 2016-08-01 2019-06-27

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9357916B2 (en) 2012-05-10 2016-06-07 Carl Zeiss Meditec, Inc. Analysis and visualization of OCT angiography data
JP6385105B2 (en) 2014-03-31 2018-09-05 住友ゴム工業株式会社 Golf ball
WO2017150583A1 (en) 2016-03-04 2017-09-08 株式会社ニデック Ophthalmologic information processing device and ophthalmologic information processing program
JP6828295B2 (en) 2016-08-01 2021-02-10 株式会社ニデック Optical coherence tomography equipment and optical coherence tomography control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195878A (en) 2013-06-19 2016-11-24 株式会社トプコン Ophthalmological imaging device and ophthalmological image display device
JP2017077414A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2018019771A5 (en) 2016-08-01 2019-06-27

Also Published As

Publication number Publication date
JP2019180692A (en) 2019-10-24
JP7387812B2 (en) 2023-11-28
JP2022111263A (en) 2022-07-29

Similar Documents

Publication Publication Date Title
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP2018075229A (en) Image processing method, image processing device, and program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
WO2020050308A1 (en) Image processing device, image processing method and program
JP2019088382A (en) Image processing device, ophthalmologic imaging device, image processing method, and program
JP7096116B2 (en) Blood flow measuring device
JP7195745B2 (en) Image processing device, image processing method and program
JP6789700B2 (en) Image processing device, operation method of image processing device, and program
JP6736734B2 (en) Ophthalmic photographing device and ophthalmic information processing device
WO2017069019A1 (en) Blood flow measurement device
JP7106304B2 (en) Image processing device, image processing method and program
JP2020054812A (en) Image processing device, image processing method and program
JP6646021B2 (en) Ophthalmic image processing device
JP2023038280A (en) Blood flow measurement device
JPWO2020044712A1 (en) Ophthalmic device and its control method
JP6866167B2 (en) Information processing equipment, information processing methods and programs
JP7246862B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP7086683B2 (en) Image processing equipment, image processing methods and programs
JP7262929B2 (en) Image processing device, image processing method and program
JP7204345B2 (en) Image processing device, image processing method and program
JP7068366B2 (en) Blood flow measuring device
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP7228648B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP6992030B2 (en) Image generator, image generation method and program
JP7335107B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R151 Written notification of patent or utility model registration

Ref document number: 7086683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151