JP7005382B2 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP7005382B2
JP7005382B2 JP2018032107A JP2018032107A JP7005382B2 JP 7005382 B2 JP7005382 B2 JP 7005382B2 JP 2018032107 A JP2018032107 A JP 2018032107A JP 2018032107 A JP2018032107 A JP 2018032107A JP 7005382 B2 JP7005382 B2 JP 7005382B2
Authority
JP
Japan
Prior art keywords
blood vessel
density
layer thickness
map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018032107A
Other languages
Japanese (ja)
Other versions
JP2019146683A (en
Inventor
廣志 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018032107A priority Critical patent/JP7005382B2/en
Publication of JP2019146683A publication Critical patent/JP2019146683A/en
Priority to JP2022000491A priority patent/JP7297952B2/en
Application granted granted Critical
Publication of JP7005382B2 publication Critical patent/JP7005382B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本明細書の開示は、情報処理装置、情報処理方法およびプログラムに関する。 The disclosure of this specification relates to an information processing apparatus, an information processing method and a program.

造影剤を用いない血管造影法としてOptical Coherence Tomography(OCT)を用いた血管造影法(OCT Angiography:OCTA)が提案されている。特許文献1には、OCTにより取得した三次元のモーションコントラストデータを二次元平面に投影することで、血管画像(以下、OCTA画像という。)を生成することが開示されている。 As an angiography method that does not use a contrast medium, an angiography method (OCT Angiography: OCTA) using Optical Coherence Tomography (OCT) has been proposed. Patent Document 1 discloses that a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane.

また、非特許文献1には、OCTA画像を用いて、眼底内の血管密度を計測する技術が開示されている。 Further, Non-Patent Document 1 discloses a technique for measuring the blood vessel density in the fundus using an OCTA image.

特開2016-209198号公報Japanese Unexamined Patent Publication No. 2016-2009198

Kim et al.;”Quantifying Microvascular Density and Morphology in Diabetic Retinopathy Using Spectral-Domain Optical Coherence Tomography Angiography”,IOVS,57(9),OCT362-OCT370,2016Kim et al. "Quantiftying Microvasual Density and Morphology in Diabetic Retinopathy Using Spectral-Domain Optical Coherence TomographyAnt.

しかしながら、従来の技術では、モーションコントラストデータから得られた血管に関する情報と断層画像から得られた断層構造に関する情報とを比較容易に提示することができなかった。 However, in the conventional technique, it is not possible to easily compare the information on the blood vessel obtained from the motion contrast data and the information on the tomographic structure obtained from the tomographic image.

本明細書の開示は、モーションコントラストデータから得られた血管に関する情報と断層画像から得られた断層構造に関する情報とを比較容易に提示することを目的の一つとする。 One of the purposes of the disclosure of the present specification is to easily compare the information on blood vessels obtained from motion contrast data with the information on tomographic structures obtained from tomographic images.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。 Not limited to the above-mentioned purpose, it is also an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and it is also another purpose of the present invention to exert an action and effect which cannot be obtained by the conventional technique. It can be positioned as one.

本明細書に開示の情報処理装置は、
異なる時間に被検眼を撮影して得た複数のモーションコントラスト画像それぞれから得られた血管密度と前記異なる時間に前記被検眼を撮影して得た複数の断層画像それぞれから得られた所定の層の層厚を取得する取得手段と、
前記血管密度および前記層厚の一方を示すマップ上に他方の情報を重畳して前記マップと前記情報とを表示部に表示させ、前記異なる時間における前記血管密度と前記層厚とをグラフ上に対応させて前記表示部に表示させる表示制御手段と、を備え
前記表示制御手段は、操作者からの指示に応じて前記血管密度と前記層厚とのうち少なくとも一方が得られる深さ範囲が変更された場合に、前記マップと前記情報とのうち前記変更された深さ範囲に対応する少なくとも一方が更新され、且つ前記グラフ上の前記異なる時間における前記血管密度と前記層厚とのうち前記変更された深さ範囲に対応する少なくとも一方が更新されるように、前記表示部の表示を制御する。
The information processing device disclosed in this specification is
The blood vessel density obtained from each of the plurality of motion contrast images obtained by photographing the subject eye at different times and the predetermined layer obtained from each of the plurality of tomographic images obtained by photographing the subject eye at the different times . The acquisition method to obtain the layer thickness and
The map and the information are displayed on the display unit by superimposing the information of the other on the map showing one of the blood vessel density and the layer thickness, and the blood vessel density and the layer thickness at the different time are displayed on the graph. A display control means for displaying on the display unit in correspondence with the display control means is provided .
The display control means is changed in the map and the information when the depth range in which at least one of the blood vessel density and the layer thickness is obtained is changed in response to an instruction from the operator. At least one corresponding to the depth range is updated, and at least one of the vessel density and the layer thickness at the different time on the graph is updated corresponding to the changed depth range. , Control the display of the display unit.

本明細書の開示によれば、モーションコントラストデータから得られた血管に関する情報と断層画像から得られた断層構造に関する情報とを比較容易に提示することができる。 According to the disclosure of the present specification, it is possible to easily compare the information on the blood vessel obtained from the motion contrast data and the information on the tomographic structure obtained from the tomographic image.

実施例に係る画像処理システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the image processing system which concerns on Example. 眼部の構造と断層画像と眼底画像の一例を説明するための図である。It is a figure for demonstrating an example of the structure of an eye part, a tomographic image, and a fundus image. 実施例に係る画像処理システムの処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the image processing system which concerns on Example. 実施例1に係る血管密度マップと網膜層厚、及び血管密度セクタマップを重畳表示した例を示す図である。It is a figure which shows the example which superposed and displayed the blood vessel density map, the retinal layer thickness, and the blood vessel density sector map which concerns on Example 1. FIG. 実施例1に係る網膜層厚マップと血管密度、及び網膜層厚セクタマップを重畳表示した例を示す図である。It is a figure which shows the example which superposed and displayed the retinal layer thickness map, the blood vessel density, and the retinal layer thickness sector map which concerns on Example 1. FIG. 実施例に係るモーションコントラストデータ生成の一例を説明するための図である。It is a figure for demonstrating an example of motion contrast data generation which concerns on Example. 実施例2に係る計測結果を経時的に表示する例を示す図である。It is a figure which shows the example which displays the measurement result which concerns on Example 2 with time.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明される寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, exemplary examples for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.

(実施例1)
以下の実施例では、本発明を適用した画像処理システムについて説明する。
(Example 1)
In the following examples, an image processing system to which the present invention is applied will be described.

図1は、本実施形態に係る画像処理装置(情報処理装置)300を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置300が、インタフェースを介して断層画像撮影装置(OCTとも言う)200、眼底画像撮影装置400、外部記憶部500、表示部600、入力部700と接続されることにより構成されている。 FIG. 1 is a diagram showing a configuration of an image processing system 100 including an image processing device (information processing device) 300 according to the present embodiment. As shown in FIG. 1, in the image processing system 100, the image processing device 300 has a tomographic image capturing device (also referred to as OCT) 200, a fundus image capturing device 400, an external storage unit 500, a display unit 600, and an input via an interface. It is configured by being connected to the unit 700.

断層画像撮影装置200は、眼部の断層画像を撮影する装置である。断層画像撮影装置に用いる装置は、例えばSD-OCTまたはSS-OCTである。なお、断層画像撮影装置200は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置300からの指示により行われる断層画像の撮影について説明を行う。 The tomographic image capturing device 200 is a device that captures a tomographic image of the eye portion. The device used for the tomographic imaging device is, for example, SD-OCT or SS-OCT. Since the tomographic image capturing apparatus 200 is a known apparatus, detailed description thereof will be omitted, and here, the imaging of the tomographic image performed according to the instruction from the image processing apparatus 300 will be described.

図1において、ガルバノミラー201は、測定光の眼底における走査を行うためのものであり、OCTによる眼底の撮影範囲を規定する。また、駆動制御部202は、ガルバノミラー201の駆動範囲および速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定する。ここでは、簡単のためガルバノミラーは一つのユニットとして示したが、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上で所望の範囲を測定光で走査できる。 In FIG. 1, the galvano mirror 201 is for scanning the fundus of the measurement light, and defines the imaging range of the fundus by OCT. Further, the drive control unit 202 controls the drive range and speed of the galvano mirror 201 to define the shooting range in the plane direction and the number of scanning lines (scanning speed in the plane direction) in the fundus. Here, the galvano mirror is shown as one unit for the sake of simplicity, but it is actually composed of a mirror for X scan and two mirrors for Y scan, and a desired range can be scanned with measurement light on the fundus. ..

フォーカス203は被検体である眼の前眼部を介し、眼底の網膜層にフォーカスするためのものである。測定光は、非図示のフォーカスレンズにより、被検体である眼の前眼部を介し、眼底の網膜層にフォーカスされる。眼底を照射した測定光は各網膜層で反射・散乱して戻る。 The focus 203 is for focusing on the retinal layer of the fundus through the anterior segment of the eye, which is the subject. The measurement light is focused on the retinal layer of the fundus through the anterior segment of the eye, which is the subject, by a focus lens (not shown). The measured light that illuminates the fundus is reflected and scattered by each retinal layer and returned.

内部固視灯204は、表示部241、レンズ242で構成される。表示部241として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、駆動制御部202の制御により撮影したい部位に合わせて変更される。表示部241からの光は、レンズ242を介し、被検眼に導かれる。表示部241から出射される光は例えば520nmで、駆動制御部202により所望のパターンが表示される。 The internal fixation lamp 204 includes a display unit 241 and a lens 242. A display unit 241 in which a plurality of light emitting diodes (LDs) are arranged in a matrix is used. The lighting position of the light emitting diode is changed according to the part to be photographed by the control of the drive control unit 202. The light from the display unit 241 is guided to the eye to be inspected through the lens 242. The light emitted from the display unit 241 is, for example, 520 nm, and the drive control unit 202 displays a desired pattern.

コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、駆動制御部202により制御されている。コヒーレンスゲートとは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。さらには、撮影方法としてコヒーレンスゲートの位置を制御することにより、網膜層側か、あるいは網膜層より深部側とする撮影を行うことを制御する。ここで、画像処理システムで取得する眼の構造と画像について図2を用いて説明する。 The coherence gate stage 205 is controlled by the drive control unit 202 in order to cope with the difference in the axial length of the eye to be inspected. The coherence gate represents a position where the optical distances of the measurement light and the reference light in OCT are equal. Further, by controlling the position of the coherence gate as an imaging method, it is possible to control the imaging on the retinal layer side or the deeper side than the retinal layer. Here, the structure of the eye and the image acquired by the image processing system will be described with reference to FIG.

図2(a)に眼球の模式図を示す。図2(a)において、Cは角膜、CLは水晶体、Vは硝子体、Mは黄斑部(黄斑の中心部は中心窩を表す)、Dは視神経乳頭部を表す。本実施形態にかかる断層画像撮影装置200は、主に、硝子体、黄斑部、視神経乳頭部を含む網膜の後極部を撮影する場合について説明を行う。なお、本発明では説明をしないが、断層画像撮影装置200は、角膜、水晶体の前眼部を撮影することも可能である。 FIG. 2A shows a schematic diagram of the eyeball. In FIG. 2A, C is the cornea, CL is the crystalline lens, V is the vitreous body, M is the macula (the central part of the macula represents the fovea centralis), and D represents the optic nerve head. The tomographic imaging apparatus 200 according to the present embodiment mainly describes a case of photographing the posterior pole of the retina including the vitreous body, the macula, and the optic disc. Although not described in the present invention, the tomographic imaging apparatus 200 can also image the anterior segment of the cornea and the crystalline lens.

図2(b)に断層画像撮影装置200が取得する網膜を撮影した場合の断層画像の例を示す。図2(b)において、ASはAスキャンというOCT断層画像における画像取得の単位を表す。このAスキャンを図中xの方向に複数実施して一つのBスキャンを構成する。そしてこのBスキャンのことを断層画像(あるいは断層像)と呼ぶ。図2(b)において、Veは血管、Vは硝子体、Mは黄斑部、Dは視神経乳頭部を表す。また、L1は内境界膜(ILM)と神経線維層(NFL)との境界、L2は神経線維層と神経節細胞層(GCL)との境界、L3は視細胞内節外節接合部(ISOS)、L4は網膜色素上皮層(RPE)、L5はブルッフ膜(BM)、L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸、縦軸(深さ方向)をz軸とする。 FIG. 2B shows an example of a tomographic image when the retina acquired by the tomographic image capturing apparatus 200 is photographed. In FIG. 2B, AS represents a unit of image acquisition in an OCT tomographic image called A scan. A plurality of A scans are performed in the direction of x in the figure to form one B scan. And this B scan is called a tomographic image (or tomographic image). In FIG. 2B, Ve represents a blood vessel, V represents a vitreous body, M represents the macula, and D represents the optic nerve head. L1 is the boundary between the internal limiting membrane (ILM) and the nerve fiber layer (NFL), L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and L3 is the inner segment outer segment junction of photoreceptor cells (ISOS). ), L4 represents the retinal pigment epithelial layer (RPE), L5 represents the Bruch membrane (BM), and L6 represents the choroid. In the tomographic image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (depth direction) is the z-axis.

図2(c)に眼底画像撮影装置400が取得する眼底画像の例を示す。眼底画像撮影装置400は、眼部の眼底画像を撮影する装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等が挙げられる。図2(c)において、Mは黄斑部、Dは視神経乳頭部を表し、太い曲線は網膜の血管を表す。眼底画像において、横軸(OCTの主走査方向)をx軸、縦軸(OCTの副走査方向)をy軸とする。なお、断層画像撮影装置200と眼底画像撮影装置400の装置構成は、一体型でもよいし別体型でもよい。 FIG. 2C shows an example of a fundus image acquired by the fundus imaging apparatus 400. The fundus image capturing device 400 is a device that captures a fundus image of the eye portion, and examples of the device include a fundus camera, an SLO (Scanning Laser Ophothalmoscope), and the like. In FIG. 2 (c), M represents the macula, D represents the optic disc, and the thick curve represents the blood vessels of the retina. In the fundus image, the horizontal axis (OCT main scanning direction) is the x-axis, and the vertical axis (OCT sub-scanning direction) is the y-axis. The device configuration of the tomographic image capturing device 200 and the fundus imaging device 400 may be an integrated type or a separate type.

画像処理装置300は、画像取得部301、記憶部302、画像処理部303、指示部304、表示制御部305を備える。画像取得部301は、断層画像生成部311、モーションコントラストデータ生成部312を備える。画像取得部301は、断層画像撮影装置200により撮影された断層画像の信号データを取得し、信号処理を行うことで断層画像の生成、ならびにモーションコントラストデータの生成を行う。また、眼底画像撮影装置200により撮影された眼底画像データを取得する。そして、生成した断層画像と眼底画像を記憶部302に格納する。画像処理部303は、前処理部331、画像生成部332、検出部333からなる。 The image processing device 300 includes an image acquisition unit 301, a storage unit 302, an image processing unit 303, an instruction unit 304, and a display control unit 305. The image acquisition unit 301 includes a tomographic image generation unit 311 and a motion contrast data generation unit 312. The image acquisition unit 301 acquires the signal data of the tomographic image taken by the tomographic image capturing apparatus 200 and performs signal processing to generate the tomographic image and the motion contrast data. In addition, the fundus image data captured by the fundus image capturing device 200 is acquired. Then, the generated tomographic image and fundus image are stored in the storage unit 302. The image processing unit 303 includes a preprocessing unit 331, an image generation unit 332, and a detection unit 333.

前処理部331は、モーションコントラストデータからアーティファクトを除去する処理を行う。画像生成部332は、三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像(OCTA画像とも言う)を生成する。検出部333は、網膜から各層の境界線を検出する。 The pre-processing unit 331 performs a process of removing an artifact from the motion contrast data. The image generation unit 332 generates a two-dimensional motion contrast front image (also referred to as an OCTA image) from the three-dimensional motion contrast data. The detection unit 333 detects the boundary line of each layer from the retina.

外部記憶部500は、被検眼に関する情報(患者の氏名、年齢、性別など)と、撮影した画像データ、撮影パラメータ、画像解析パラメータ、操作者によって設定されたパラメータをそれぞれ関連付けて保持している。 The external storage unit 500 holds information about the eye to be inspected (patient's name, age, gender, etc.) in association with captured image data, imaging parameters, image analysis parameters, and parameters set by the operator.

入力部700は、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部700を介して、画像処理装置300や断層画像撮影装置200、眼底画像撮影装置400へ指示を行う。 The input unit 700 is, for example, a mouse, a keyboard, a touch operation screen, or the like, and the operator gives instructions to the image processing device 300, the tomographic image capturing device 200, and the fundus image capturing device 400 via the input unit 700.

次に図3を参照して本実施形態の画像処理装置300の処理手順を示す。 Next, the processing procedure of the image processing apparatus 300 of the present embodiment is shown with reference to FIG.

<ステップS301>
ステップS301では被検眼をスキャンして撮影を行う。被検眼のスキャンは、操作者が非図示のスキャン開始を選択すると、断層画像撮影装置200は、駆動制御部202を制御し、ガルバノミラー201を動作させて断層画像のスキャンを行う。ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナで構成される。そのため、これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)、垂直方向(Y)それぞれの方向に走査することが出来る。そして、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向に走査することが出来るため、眼底平面上の任意の方向に走査することが可能となる。
<Step S301>
In step S301, the eye to be inspected is scanned and an image is taken. When the operator selects the start of a scan (not shown) for scanning the eye to be inspected, the tomographic image capturing apparatus 200 controls the drive control unit 202 and operates the galvano mirror 201 to scan the tomographic image. The galvano mirror 201 is composed of an X scanner for the horizontal direction and a Y scanner for the vertical direction. Therefore, by changing the orientation of each of these scanners, it is possible to scan in each of the horizontal direction (X) and the vertical direction (Y) in the device coordinate system. Then, by changing the orientations of these scanners at the same time, it is possible to scan in the combined direction of the horizontal direction and the vertical direction, so that it is possible to scan in any direction on the fundus plane.

撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、内部固視灯の位置、スキャン範囲、スキャンパターン、コヒーレンスゲート位置、フォーカスを少なくとも設定する。駆動制御部202は、表示部241の発光ダイオードを制御して、黄斑部中心や視神経乳頭に撮影を行うように内部固視灯204の位置を制御する。スキャンパターンは、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャンなどのスキャンパターンを設定する。これら撮影パラメータの調整終了後、操作者が非図示の撮影開始を選択することで撮影を行う。 Adjust various shooting parameters when shooting. Specifically, at least the position of the internal fixation lamp, the scan range, the scan pattern, the coherence gate position, and the focus are set. The drive control unit 202 controls the light emitting diode of the display unit 241 to control the position of the internal fixation lamp 204 so as to take an image at the center of the macula or the optic disc. For the scan pattern, a scan pattern such as raster scan, radial scan, or cross scan that captures a three-dimensional volume is set. After the adjustment of these shooting parameters is completed, the operator selects the start of shooting (not shown) to perform shooting.

<ステップS302>
ステップS302では、断層画像の生成を行う。断層画像生成部311は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成する。
<Step S302>
In step S302, a tomographic image is generated. The tomographic image generation unit 311 generates a tomographic image by performing a general reconstruction process on each interference signal.

まず、断層画像生成部311は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は検出した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。次に、断層画像生成部311は、有限区間でフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。次に、FFT処理を行う事によって断層信号を生成する。 First, the tomographic image generation unit 311 removes fixed pattern noise from the interference signal. Fixed pattern noise removal is performed by extracting fixed pattern noise by averaging a plurality of detected A scan signals and subtracting this from the input interference signal. Next, the tomographic image generation unit 311 performs a desired window function processing in order to optimize the depth resolution and the dynamic range, which are in a trade-off relationship when the Fourier transform is performed in a finite interval. Next, a tomographic signal is generated by performing FFT processing.

<ステップS303>
ステップS303では、モーションコントラストデータ生成部312がモーションコントラストデータの生成を行う。このデータ生成について図6を用いて説明を行う。MCは三次元のモーションコントラストデータを示し、LMCは三次元のモーションコントラストデータを構成する二次元のモーションコントラストデータを示している。ここでは、このLMCを生成する方法について説明をする。
<Step S303>
In step S303, the motion contrast data generation unit 312 generates motion contrast data. This data generation will be described with reference to FIG. MC shows three-dimensional motion contrast data, and LMC shows two-dimensional motion contrast data constituting the three-dimensional motion contrast data. Here, a method for generating this LMC will be described.

モーションコントラストデータ生成部312は、まず被検眼の同一範囲で撮影された複数の断層像間の位置ずれを補正する。位置ずれの補正方法は任意の方法であってよい。例えば、モーションコントラストデータ生成部312は、同一範囲をM回撮影し、同一箇所に相当する断層像データ同士について、眼底形状等の特徴等を利用して位置合わせを行う。具体的には、M個の断層像データのうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層像データとの類似度を求め、テンプレートとの位置ずれ量を求める。その後、モーションコントラストデータ生成部312は、求めた位置ずれ量に基づいて、各断層像データを補正する。 The motion contrast data generation unit 312 first corrects the positional deviation between a plurality of tomographic images taken in the same range of the eye to be inspected. The method for correcting the misalignment may be any method. For example, the motion contrast data generation unit 312 photographs the same range M times, and aligns the tomographic image data corresponding to the same location by using features such as the shape of the fundus. Specifically, one of the M tomographic image data is selected as a template, the similarity with other tomographic image data is obtained while changing the position and angle of the template, and the amount of misalignment with the template is obtained. .. After that, the motion contrast data generation unit 312 corrects each tomographic image data based on the obtained positional deviation amount.

次にモーションコントラストデータ生成部312は、各断層像データに関する撮影時間が互いに連続する、2つの断層像データ間で式1により脱相関値M(x,z)を求める。 Next, the motion contrast data generation unit 312 obtains a decorrelation value M (x, z) by Equation 1 between two tomographic image data in which the imaging times for each tomographic image data are continuous with each other.

Figure 0007005382000001
Figure 0007005382000001

ここで、A(x,z)は断層像データAの位置(x、z)における輝度、B(x,z)は断層像データBの同一位置(x、z)における輝度を示している。 Here, A (x, z) indicates the luminance at the position (x, z) of the tomographic image data A, and B (x, z) indicates the luminance at the same position (x, z) of the tomographic image data B.

脱相関値M(x,z)は0~1の値となり、2つの輝度の差が大きいほどM(x,z)の値は大きくなる。モーションコントラストデータ生成部312は、同一位置で繰り返し取得したMが3以上の場合には、同一位置(x、z)において複数の脱相関値M(x,z)を求めることができる。モーションコントラストデータ生成部312は、求めた複数の脱相関値M(x,z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラストデータを生成することができる。なお、繰り返し回数Mが2の場合、最大値演算や平均演算などの統計的な処理は行わず、隣接する二つの断層像AとBの脱相関値M(x,z)が、位置(x、z)におけるモーションコントラスト値となる。 The decorrelation value M (x, z) is a value of 0 to 1, and the larger the difference between the two luminances, the larger the value of M (x, z). When the number of Ms repeatedly acquired at the same position is 3 or more, the motion contrast data generation unit 312 can obtain a plurality of decorrelation values M (x, z) at the same position (x, z). The motion contrast data generation unit 312 can generate final motion contrast data by performing statistical processing such as maximum value calculation and average calculation of a plurality of obtained decorrelation values M (x, z). can. When the number of repetitions M is 2, statistical processing such as maximum value calculation and average calculation is not performed, and the decorrelation value M (x, z) of two adjacent tomographic images A and B is the position (x, z). , Z) is the motion contrast value.

式1に示したモーションコントラストの計算式はノイズの影響を受けやすい傾向がある。例えば、複数の断層像データの無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、モーションコントラストデータ生成部312は、前処理として、断層データにおいて所定の閾値を下回る輝度値を有する部分はノイズとみなして、当該部分におけるモーションコントラスト値をゼロに置き換えることができる。これにより、画像生成部332は、生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。 The motion contrast calculation formula shown in Equation 1 tends to be susceptible to noise. For example, if there is noise in the non-signal portion of a plurality of tomographic image data and the values are different from each other, the decorrelation value becomes high and the noise is superimposed on the motion contrast image. In order to avoid this, the motion contrast data generation unit 312 can treat the portion of the tomographic data having a luminance value below a predetermined threshold value as noise and replace the motion contrast value in the portion with zero as preprocessing. .. As a result, the image generation unit 332 can generate a motion contrast image with the influence of noise reduced based on the generated motion contrast data.

<ステップS304>
ステップS304では、検出部333が、断層画像撮影装置200が撮影した断層画像から網膜層の境界線を検出する。なお、境界線は1枚の断層画像から検出することとしてもよいし、モーションコントラスト画像を生成する際に取得した複数の断層画像を加算平均して得られた加算平均画像から検出することとしてもよい。検出部333は、図2(b)の断層画像においてL1~L6の各境界、あるいは非図示のGCL/IPL、IPL/INL、INL/OPL、OPL/ONL境界のいずれかを検出する。検出部333は、処理の対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、メディアン画像、Sobel画像とする)。次に、検出部333は、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、検出部333は、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、検出部333は網膜層の各領域の境界を検出する。検出部333は検出した網膜層の境界間の距離から網膜層の所望の層厚みを計測することが可能であり、計測した網膜層の厚みを記憶部302に保存する。
<Step S304>
In step S304, the detection unit 333 detects the boundary line of the retinal layer from the tomographic image taken by the tomographic image capturing apparatus 200. The boundary line may be detected from a single tomographic image, or may be detected from an averaging image obtained by averaging a plurality of tomographic images acquired when generating a motion contrast image. good. The detection unit 333 detects each boundary of L1 to L6 in the tomographic image of FIG. 2B, or any of the GCL / IPL, IPL / INL, INL / OPL, and OPL / ONL boundaries (not shown). The detection unit 333 creates an image by applying a median filter and a Sobel filter to the tomographic image to be processed (hereinafter, referred to as a median image and a Sobel image). Next, the detection unit 333 creates a profile for each A scan from the created median image and Sobel image. The median image has a luminance value profile, and the Sobel image has a gradient profile. Then, the detection unit 333 detects the peak in the profile created from the Sobel image. By referring to the profile of the median image corresponding to before, after, and between the detected peaks, the detection unit 333 detects the boundary of each region of the retinal layer. The detection unit 333 can measure the desired layer thickness of the retinal layer from the distance between the detected boundaries of the retinal layer, and stores the measured thickness of the retinal layer in the storage unit 302.

なお、網膜層の境界を検出する断層像については、ステップS303でモーションコントラストデータ生成に用いる時間的に異なる複数の同一領域の断層像を用いて各断層像から得られる網膜層の境界位置を平均化して網膜層厚を計測することも可能である。 For the tomographic image that detects the boundary of the retinal layer, the boundary positions of the retinal layer obtained from each tomographic image are averaged using a plurality of tomographic images of the same region that are different in time and used for motion contrast data generation in step S303. It is also possible to measure the thickness of the retinal layer.

<ステップS305>
ステップS305では、画像生成部332が、モーションコントラストデータを用いて血管密度の計測を実施する。まず、画像生成部332が、モーションコントラストデータを、血管密度の計測を実施する深度範囲で投影を行い、OCTA画像(OATAのEnFace画像)を生成する。血管密度の計測を実施する深度範囲については、網膜層を選択するUI(User Interface)を設け、ステップS304で検出した網膜層の境界線に対応して、ユーザが複数の網膜層から選択できるよう構成することが可能である。また、深度範囲はデフォルトで定められた深度範囲であってもよい。なお、OCTA画像を生成するための投影法としては最大値投影(MIP;Maximum Intensity Projection)・平均値投影(AIP; Average Intensity Projection)のいずれかを任意で選択できる。投影方法を選択可能とするために、投影方法を選択するUIを設け、ユーザが選択できるよう構成することが可能である。続いて、画像生成部332は、血管領域の特定処理を実施する。血管領域の特定は、例えば、OCTA画像に対して2値化処理を施し、輝度値が0より大きい領域を血管領域とする。画像生成部332は、特定した血管領域の面積を計算することで、OCTA画像における血管密度VADを計測することが可能となる。VADはVessel Area Densityの略であり、計測対象に含まれる血管領域の割合で定義される血管密度(単位:%)である。すなわち、VADは血管面積密度である。なお、血管密度VADの計測方法は上記の例に限定されるものではなく公知の種々の手法を使って実現可能である。
<Step S305>
In step S305, the image generation unit 332 measures the blood vessel density using the motion contrast data. First, the image generation unit 332 projects the motion contrast data in a depth range for measuring the blood vessel density, and generates an OCTA image (OATA EnFace image). For the depth range in which the blood vessel density is measured, a UI (User Interface) for selecting the retinal layer is provided so that the user can select from a plurality of retinal layers corresponding to the boundary line of the retinal layer detected in step S304. It is possible to configure. Further, the depth range may be a depth range defined by default. As the projection method for generating the OCTA image, either maximum value projection (MIP; Maximum Industry Projection) or average value projection (AIP; Average Industry Projection) can be arbitrarily selected. In order to make the projection method selectable, it is possible to provide a UI for selecting the projection method and configure it so that the user can select it. Subsequently, the image generation unit 332 carries out a process for specifying the blood vessel region. To specify the blood vessel region, for example, the OCTA image is binarized, and the region having a luminance value larger than 0 is defined as the blood vessel region. The image generation unit 332 can measure the blood vessel density VAD in the OCTA image by calculating the area of the specified blood vessel region. VAD is an abbreviation for Vessel Area Density, and is a blood vessel density (unit:%) defined by the ratio of the blood vessel region included in the measurement target. That is, VAD is the blood vessel area density. The method for measuring the blood vessel density VAD is not limited to the above example, and can be realized by using various known methods.

また、画像生成部332は、OCTA画像に対して2値化処理を施すことによって得られた2値画像に対して細線化処理を行うことで、血管の中心線に相当する線幅1画素の2値画像を生成することができる。そして、当該2値画像における輝度値が0より大きい画素(血管に相当する画素)を計測することで得られる血管の長さの総和から、血管密度VLDを計測することが可能となる。VLDはVessel Length Densityの略であり、単位面積あたりに含まれる血管の長さの総和(単位:mm-1)で定義される血管密度である。すなわち、VLDは血管長密度である。なお、血管密度VLDの計測方法は上記の例に限定されるものではなく公知の種々の手法を使って実現可能である。 Further, the image generation unit 332 performs a thinning process on the binary image obtained by performing the binarization process on the OCTA image, so that the line width of one pixel corresponding to the center line of the blood vessel is obtained. A binary image can be generated. Then, the blood vessel density VLD can be measured from the total length of the blood vessels obtained by measuring the pixels (pixels corresponding to the blood vessels) whose luminance value is larger than 0 in the binary image. VLD is an abbreviation for Vessel Length Density, and is a blood vessel density defined by the total length of blood vessels contained per unit area (unit: mm -1 ). That is, VLD is the blood vessel length density. The method for measuring the blood vessel density VLD is not limited to the above example, and can be realized by using various known methods.

計測後、画像生成部332は計測した結果(VAD、VLD)を記憶部302に保存する。 After the measurement, the image generation unit 332 stores the measurement result (VAD, VLD) in the storage unit 302.

<ステップS306>
ステップS306では、表示制御部305は、記憶部302に保存した網膜層の厚み計測結果、及び血管密度の計測結果に基づいて、解析マップを表示部600に表示させる。例えば、表示制御部305は、血管密度が計測された深さ範囲の網膜層の層厚および血管密度の計測結果を記憶部302から取得して表示部600に表示させる。すなわち、表示制御部305は、被検眼のモーションコントラスト画像から得られた血管密度と被検眼の断層画像から得られた所定の層の層厚を取得する取得手段の一例として機能する。
<Step S306>
In step S306, the display control unit 305 causes the display unit 600 to display the analysis map based on the thickness measurement result of the retinal layer stored in the storage unit 302 and the blood vessel density measurement result. For example, the display control unit 305 acquires the measurement results of the layer thickness of the retinal layer and the blood vessel density in the depth range in which the blood vessel density is measured from the storage unit 302 and displays them on the display unit 600. That is, the display control unit 305 functions as an example of the acquisition means for acquiring the blood vessel density obtained from the motion contrast image of the test eye and the layer thickness of the predetermined layer obtained from the tomographic image of the test eye.

本実施例で表示する解析マップについて、図4、及び図5を用いて説明を行う。図4(a)、図4(b)、及び図5(a)、図5(b)は、解析結果を表示するための画面例である。図中1001は後述する選択リスト1002により選択された網膜層厚または血管密度のマップを示している。図中1002は表示する解析マップを選択するための選択リストを示しており、本実施例では、リストから表示すべきマップを選択することにより網膜層厚、血管密度(VAD)、血管密度(VLD)の各マップを切り替えて表示できるよう構成している。解析マップは例えば層厚または血管密度を値に応じた色で示したカラーマップである。 The analysis map displayed in this embodiment will be described with reference to FIGS. 4 and 5. 4 (a), 4 (b), 5 (a), and 5 (b) are screen examples for displaying the analysis result. In the figure, 1001 shows a map of the retinal layer thickness or the blood vessel density selected by the selection list 1002 described later. In the figure, 1002 shows a selection list for selecting the analysis map to be displayed. In this embodiment, the retinal layer thickness, the blood vessel density (VAD), and the blood vessel density (VLD) are selected by selecting the map to be displayed from the list. ) Is configured so that each map can be switched and displayed. The analysis map is, for example, a color map showing the layer thickness or the blood vessel density in colors according to the values.

図中1003は、選択した解析マップ上に重畳して表示するセクタマップの種類を選択するための選択リストを示しており、本実施例では、網膜層厚値、及び血管密度値VADを個別、或いは両方を解析マップ上に重畳して表示できるよう構成している。図中、1005は選択リスト1003により選択されたセクタマップを示している。セクタマップは例えば、セクタ毎の網膜層厚または血管密度の平均値と複数のセクタの形状を示す図形を含んでいる。なお、各セクタに表示される値(層厚または血管密度の値)は平均値に限定されるものではなく中央値、最小値または最大値であってもよい。 In the figure, 1003 shows a selection list for selecting the type of sector map to be superimposed and displayed on the selected analysis map. In this embodiment, the retinal layer thickness value and the blood vessel density value VAD are individually set. Alternatively, both are configured to be superimposed and displayed on the analysis map. In the figure, 1005 shows the sector map selected by the selection list 1003. The sector map includes, for example, a figure showing the average value of the retinal layer thickness or the blood vessel density for each sector and the shape of a plurality of sectors. The value (value of layer thickness or blood vessel density) displayed in each sector is not limited to the average value, but may be a median value, a minimum value, or a maximum value.

図4(a)は、解析マップとしてVessel Area Densityを選択し、マップに重畳表示するセクタマップとして網膜層厚値を選択した場合の表示例である。図4(b)は、解析マップとしてVessel Area Densityを選択し、マップに重畳表示するセクタマップとして、網膜層厚値、及び血管密度値を合わせて選択した場合の表示例である。図4(b)において、1006は、セクタ毎の網膜層厚の平均値を示し、1007は、セクタ毎の血管密度の平均値を示している。図4(b)に示すように解析マップに重畳される情報の種類は複数であってもよい。解析マップに複数種類の情報を重畳させる場合には、図4(b)に示すように異なる表示形態で表示させてもよい。なお、解析マップに重畳される情報の表示形態と、選択リスト1003における項目の表示形態とを対応させることで、どの情報がどの種類の情報であるかを識別可能にすることとしてもよい。例えば、網膜層厚を白抜きで示した場合には選択リスト1003における項目の網膜層厚値を白抜きで示すこととしてもよい。 FIG. 4A is a display example when Vessel Area Density is selected as the analysis map and the retinal layer thickness value is selected as the sector map to be superimposed and displayed on the map. FIG. 4B is a display example in which Vessel Area Density is selected as the analysis map, and the retinal layer thickness value and the blood vessel density value are selected together as the sector map to be superimposed and displayed on the map. In FIG. 4B, 1006 shows the average value of the retinal layer thickness for each sector, and 1007 shows the average value of the blood vessel density for each sector. As shown in FIG. 4B, there may be a plurality of types of information superimposed on the analysis map. When a plurality of types of information are superimposed on the analysis map, they may be displayed in different display formats as shown in FIG. 4 (b). By associating the display form of the information superimposed on the analysis map with the display form of the items in the selection list 1003, it may be possible to identify which information is which type of information. For example, when the retinal layer thickness is shown in white, the retinal layer thickness value of the item in the selection list 1003 may be shown in white.

なお、網膜層厚値が算出された深さ範囲と血管密度(VAD、VLD)が算出された深さ範囲とは同一である。このようにすることでユーザは、着目している深さ範囲(あるいは所定の層)における層厚と血管密度とを容易に比較可能となる。なお、網膜層厚値が算出された深さ範囲と血管密度(VAD、VLD)が算出された深さ範囲とを異なる範囲とすることも可能である。この場合には、セクタマップ1005が重畳されたマップ1001と断層画像とを並べて表示し、断層画像上に、マップ1001とセクタマップ1005に関する深さ範囲を示す線(例えば上端下端を示す2本の線)とを識別可能に表示することとしてもよい。このような構成とすることで、解析マップが示す網膜層の深さ範囲とセクタマップが示す網膜層の深さ範囲とが異なることが、判別可能となる。 The depth range in which the retinal layer thickness value is calculated is the same as the depth range in which the blood vessel density (VAD, VLD) is calculated. By doing so, the user can easily compare the layer thickness and the blood vessel density in the depth range (or a predetermined layer) of interest. It is also possible to set the depth range in which the retinal layer thickness value is calculated and the depth range in which the blood vessel density (VAD, VLD) is calculated to be different ranges. In this case, the map 1001 on which the sector map 1005 is superimposed and the tomographic image are displayed side by side, and a line indicating the depth range regarding the map 1001 and the sector map 1005 (for example, two lines indicating the upper and lower ends) is displayed on the tomographic image. The line) may be displayed in an identifiable manner. With such a configuration, it is possible to determine that the depth range of the retinal layer shown by the analysis map and the depth range of the retinal layer shown by the sector map are different.

例えば、マップ1001に関する深さ範囲を示す線とセクタマップ1005に関する深さ範囲を示す線とを異なる色または模様で断層画像に重畳させることとしてもよい。この場合、セクタマップ1005の図形の色または模様を断層画像に重畳されるセクタマップ1005に関する深さ範囲を示す線の色または模様と同様にすることで対応関係を示すこととしてもよい。 For example, the line indicating the depth range of the map 1001 and the line indicating the depth range of the sector map 1005 may be superimposed on the tomographic image with different colors or patterns. In this case, the correspondence may be shown by making the color or pattern of the figure of the sector map 1005 the same as the color or pattern of the line indicating the depth range of the sector map 1005 superimposed on the tomographic image.

なお、網膜層厚値が算出された深さ範囲と血管密度(VAD、VLD)が算出された深さ範囲とは同一の場合であっても、深さ範囲を明示するために深さ範囲を示す線(例えば上端下端を示す2本の線)が重畳された断層画像を表示することとしてもよい。この場合、表示制御部305は、深さ範囲の変更を受け付け、受け付けた変更応じて変更後の深さ範囲の層厚および血管密度を記憶部302から取得して解析マップまたはセクタマップとして表示部600に表示させる。このように表示制御部305は、層厚および血管密度が得られる深さ範囲の変更を受付ける受付手段の一例として機能する。なお、深さ範囲が変更された場合に、層厚および血管密度が再度計算されることとしてもよい。 Even if the depth range in which the retinal layer thickness value is calculated and the depth range in which the blood vessel density (VAD, VLD) is calculated are the same, the depth range is set in order to clearly indicate the depth range. A tomographic image on which the indicated lines (for example, two lines indicating the upper and lower ends) are superimposed may be displayed. In this case, the display control unit 305 accepts the change of the depth range, acquires the layer thickness and the blood vessel density of the changed depth range from the storage unit 302 according to the accepted change, and displays the change as an analysis map or a sector map. Display at 600. In this way, the display control unit 305 functions as an example of the receiving means for accepting changes in the depth range in which the layer thickness and the blood vessel density can be obtained. In addition, when the depth range is changed, the layer thickness and the blood vessel density may be calculated again.

なお、本実施例では、血管密度セクタマップについては、1002で選択されたマップと同一のセクタマップのみを選択可能なように、1003のリストに表示されないよう構成している。すなわち、図4の例では選択リスト1003において血管密度値(VLD)は表示されない。なお、選択リスト1003において血管密度値(VLD)は表示するが選択できないように構成することも可能である。ただし、選択リスト1002で選択されたマップと同一種類のセクタマップ以外のマップを選択可能に選択リスト1003に表示することとしてもよい。図4において例えば、選択リスト1003にはVLDのセクタマップが選択可能に表示されていてもよい。 In this embodiment, the blood vessel density sector map is configured not to be displayed in the list of 1003 so that only the same sector map as the map selected in 1002 can be selected. That is, in the example of FIG. 4, the blood vessel density value (VLD) is not displayed in the selection list 1003. It is also possible to display the blood vessel density value (VLD) in the selection list 1003 but not to select it. However, a map other than the sector map of the same type as the map selected in the selection list 1002 may be selectively displayed in the selection list 1003. In FIG. 4, for example, the sector map of the VLD may be selectively displayed in the selection list 1003.

上述のように、表示制御部305は血管密度および層厚の一方を示すマップ上に他方の情報を重畳してマップと当該情報とを表示部に表示させる表示制御手段の一例として機能する。 As described above, the display control unit 305 functions as an example of the display control means for superimposing the information of the other on the map showing one of the blood vessel density and the layer thickness and displaying the map and the information on the display unit.

図5(a)は、解析マップとして網膜層厚を選択し、解析マップに重畳表示するセクタマップとしてVADを選択した場合の表示例である。図5(b)は、解析マップとして網膜層厚を選択し、マップに重畳表示するセクタマップとして、網膜層厚値、及びVADを合わせて選択した場合の表示例である。なお、VADとVLDとを網膜層厚の解析マップ上に重畳することとしても良いし、表示の組み合わせは図5の例に限定されるものではない。 FIG. 5A is a display example when the retinal layer thickness is selected as the analysis map and VAD is selected as the sector map to be superimposed and displayed on the analysis map. FIG. 5B is a display example in which the retinal layer thickness is selected as the analysis map and the retinal layer thickness value and the VAD are selected together as the sector map to be superimposed and displayed on the map. It should be noted that VAD and VLD may be superimposed on the analysis map of the retinal layer thickness, and the combination of display is not limited to the example of FIG.

なお、解析マップ上に複数のセクタマップを重畳して表示する場合、数値の文字色をセクタマップ毎に変更することも可能である。セクタマップにおける文字色は、選択リスト1003における網膜層厚値、血管密度値(VAD)、血管密度値(VLD)の表示色と対応していることが望ましい。文字色の変更により、表示された値とセクタマップとの対応を容易にすることができる。 When displaying a plurality of sector maps superimposed on the analysis map, it is possible to change the character color of the numerical value for each sector map. It is desirable that the character color in the sector map corresponds to the display color of the retinal layer thickness value, the blood vessel density value (VAD), and the blood vessel density value (VLD) in the selection list 1003. By changing the font color, it is possible to facilitate the correspondence between the displayed value and the sector map.

また、表示する解析マップ、及びセクタマップの組み合わせの変更は、選択リスト1002、及び選択リスト1003の選択を変更することで可能であるが、システム起動時、或いは被検眼変更時に表示する組み合わせを事前に設定することも可能である。 Further, the combination of the analysis map and the sector map to be displayed can be changed by changing the selection of the selection list 1002 and the selection list 1003, but the combination to be displayed at the time of system startup or the change of the eye to be inspected is changed in advance. It is also possible to set to.

<ステップS307>
ステップS307では、操作者により、表示するマップの種類が更新されたかを判断する。表示するマップの更新は、図4、図5に示す、表示するマップを選択するための選択リスト1002、選択したマップ上に重畳して表示するセクタマップの種類を選択するための選択リスト1003の選択項目を操作者が変更することで行う。ステップS307の判断で、表示するマップの変更がない場合、ステップS309に進む。ステップS307の判断で、表示するマップの変更が行われた場合、ステップS306に戻り、選択リスト1002、1003の選択に基づいて解析マップ、セクタマップの再表示を実施する。
<Step S307>
In step S307, it is determined by the operator whether the type of the map to be displayed has been updated. The map to be displayed is updated in the selection list 1002 for selecting the map to be displayed and the selection list 1003 for selecting the type of sector map to be superimposed and displayed on the selected map, as shown in FIGS. 4 and 5. This is done by the operator changing the selection item. If there is no change in the map to be displayed by the judgment of step S307, the process proceeds to step S309. If the map to be displayed is changed by the judgment of step S307, the process returns to step S306, and the analysis map and the sector map are redisplayed based on the selections of the selection lists 1002 and 1003.

<ステップS309>
ステップS309では、不図示の指示取得部は、画像処理システム100による断層画像の撮影を終了するか否かの指示を外部から取得する。この指示は、入力部700を用いて、操作者によって入力される。処理を終了する指示を取得した場合には、画像処理システム100はその処理を終了する。一方、処理を終了せずに、撮影を続ける場合には、ステップS301に処理を戻して撮影を続行する。以上によって、画像処理システム100の処理が行われる。
<Step S309>
In step S309, the instruction acquisition unit (not shown) acquires an instruction from the outside whether or not to end the acquisition of the tomographic image by the image processing system 100. This instruction is input by the operator using the input unit 700. When the instruction to end the process is acquired, the image processing system 100 ends the process. On the other hand, if shooting is to be continued without ending the processing, the processing is returned to step S301 to continue shooting. As described above, the processing of the image processing system 100 is performed.

以上述べた構成、及び処理によれば、解析マップ上に別の種類を含むセクタマップを重畳して表示し、複数の情報を同一画面上で確認することで、各情報の相関関係が容易に確認できる。 According to the configuration and processing described above, by superimposing and displaying a sector map including another type on the analysis map and confirming a plurality of information on the same screen, the correlation of each information can be easily established. You can check.

(実施例2)
上述した実施例1では、解析マップ、及びセクタマップを重畳して表示する例について説明したが、その他の情報として、経過観察のために計測結果を時系列に表示することも可能である。
(Example 2)
In Example 1 described above, an example in which an analysis map and a sector map are superimposed and displayed has been described, but as other information, it is also possible to display the measurement results in chronological order for follow-up observation.

図7に経過観察において取得される複数の計測結果を計測時期(例えば日付)とともに表示する例を示す。 FIG. 7 shows an example of displaying a plurality of measurement results acquired in the follow-up observation together with the measurement time (for example, date).

本実施例においては、実施例1で計測した網膜層厚値、及び血管密度値は計測日と、被検眼の情報に紐づけて、例えば図1における外部記憶部500に保存されている。さらに、操作者が入力部700を介して経過観察表示を指示した場合に、表示制御部305は外部記憶装部500から過去の層厚値および血管密度の計測結果を取得し、表示部600に表示させる。表示制御部305は複数の時点における、被検眼のモーションコントラスト画像から得られた血管密度と被検眼の断層画像から得られた所定の層の層厚を取得する取得手段の一例として機能する。 In this embodiment, the retinal layer thickness value and the blood vessel density value measured in Example 1 are stored in the external storage unit 500 in FIG. 1, for example, in association with the measurement date and the information of the eye to be inspected. Further, when the operator instructs the follow-up display via the input unit 700, the display control unit 305 acquires the past layer thickness value and the blood vessel density measurement result from the external storage device unit 500, and displays the display unit 600. Display. The display control unit 305 functions as an example of acquisition means for acquiring the blood vessel density obtained from the motion contrast image of the test eye and the layer thickness of a predetermined layer obtained from the tomographic image of the test eye at a plurality of time points.

図7(a)では、網膜層厚値、及び血管密度値の計測領域全体の平均値を表示した例を示す。表示される層厚および血管密度は例えば同じ深さ範囲(RNFL:Retinal Nerve Fiber Layer)のものである。なお、深さ範囲はRNFLに限定されるものではない。図7(a)に示すように、表示制御部305は、各日付を基準として層厚および血管密度が対応した状態で表示部600に層厚および血管密度を表示させる。すなわち、表示制御部305は、複数の時点における、前記血管密度と前記層厚とを対応させて表示部に表示させる。 FIG. 7A shows an example in which the average value of the retinal layer thickness value and the blood vessel density value in the entire measurement region is displayed. The layer thickness and vessel density displayed are, for example, in the same depth range (RNFL: Retinal Nerve Fiber Layer). The depth range is not limited to RNFL. As shown in FIG. 7A, the display control unit 305 causes the display unit 600 to display the layer thickness and the blood vessel density in a state where the layer thickness and the blood vessel density correspond to each date. That is, the display control unit 305 causes the display unit to display the blood vessel density and the layer thickness at a plurality of time points in correspondence with each other.

図7(b)では、表示セクタ選択のための選択ボタン1007を表示し、操作者が入力部700を介してボタンを選択することにより、選択されたセクタ領域の計測値を時系列で表示する例を示す。表示制御部305は、選択ボタン1007を介して被検眼の深さ方向に直交する平面の位置の変更を受付ける。すなわち、表示制御部305は、第2受付手段の一例として機能する。被検眼の深さ方向に直交する平面の位置の変更を受付けた場合に、層厚および血管密度が再度計算されることとしてもよいし、予め計算してある層厚および血管密度が外部記憶部500から取得されることとしてもよい。 In FIG. 7B, the selection button 1007 for selecting the display sector is displayed, and the operator selects the button via the input unit 700 to display the measured values of the selected sector area in chronological order. An example is shown. The display control unit 305 accepts a change in the position of the plane orthogonal to the depth direction of the eye to be inspected via the selection button 1007. That is, the display control unit 305 functions as an example of the second reception means. The layer thickness and blood vessel density may be recalculated when the change in the position of the plane orthogonal to the depth direction of the eye to be inspected is accepted, or the pre-calculated layer thickness and blood vessel density may be calculated in the external storage unit. It may be obtained from 500.

図7において、血管密度(VAD,VLD)が算出された深さ範囲は例えばRNFL層である。すなわち、図7においては同一深さ範囲における層厚および血管密度の経時変化を示している。血管密度の経時変化としては、VADおよびVLDの少なくとも一方を表示させればよく、両者を表示させることは必須ではない。 In FIG. 7, the depth range in which the blood vessel density (VAD, VLD) is calculated is, for example, the RNFL layer. That is, FIG. 7 shows changes in layer thickness and blood vessel density over time in the same depth range. As the change in blood vessel density with time, at least one of VAD and VLD may be displayed, and it is not essential to display both.

なお、図7において深さ範囲を選択するUIを設けることとしてもよい。表示制御部305は深さ範囲を選択するUIを介して深さ範囲の変更を受付ける。すなわち、表示制御部305は、層厚および血管密度が得られる深さ範囲の変更を受付ける第1受付手段の一例として機能する。なお、深さ範囲が変更された場合に、層厚および血管密度が再度計算されることとしてもよいし、予め計算してある層厚および血管密度が外部記憶部500から取得されることとしてもよい。深さ範囲を選択するUIとしては、例えば、断層画像に重畳された層境界を移動させることで深さ範囲を選択できるようなUIであってもよい。具体的には、深さ範囲の上端を規定する層境界および下端を規定する層境界を断層画像に重畳して表示させ、上端を規定する線あるいは下端を規定する線の少なくとも一歩を移動させることで深さ範囲の選択が可能となる。なお、層境界の名称を選択可能なプルダウン形式のリストを設けることで深さ範囲を選択することとしてもよい。このようなUIによる深さ範囲の変更に応じて、図7のように表示する網膜層厚および血管密度を変更することとしてもよい。このようなUIを用いれば図7(b)においては、セクタ領域の選択および深さ範囲の選択が可能となる。なお、異なる層の血管密度と層厚とを図7(a)、(b)のように表示することとしてもよい。この場合、血管密度はどの層の密度であるかを表示制御部305は表示部600に表示させてもよい。また、層厚と血管密度とが異なる層のものであることを示す警告を表示制御部305は表示部600に表示させてもよい。 It should be noted that a UI for selecting the depth range may be provided in FIG. 7. The display control unit 305 accepts the change of the depth range via the UI for selecting the depth range. That is, the display control unit 305 functions as an example of the first receiving means that accepts changes in the depth range in which the layer thickness and the blood vessel density can be obtained. When the depth range is changed, the layer thickness and the blood vessel density may be calculated again, or the layer thickness and the blood vessel density calculated in advance may be acquired from the external storage unit 500. good. The UI for selecting the depth range may be, for example, a UI that allows the depth range to be selected by moving the layer boundary superimposed on the tomographic image. Specifically, the layer boundary defining the upper end and the layer boundary defining the lower end of the depth range are superimposed and displayed on the tomographic image, and at least one step of the line defining the upper end or the line defining the lower end is moved. You can select the depth range with. The depth range may be selected by providing a pull-down list in which the name of the layer boundary can be selected. In response to such a change in the depth range by the UI, the retinal layer thickness and the blood vessel density displayed as shown in FIG. 7 may be changed. By using such a UI, in FIG. 7B, it is possible to select a sector area and a depth range. In addition, the blood vessel density and the layer thickness of different layers may be displayed as shown in FIGS. 7 (a) and 7 (b). In this case, the display control unit 305 may display the display unit 600 to indicate which layer the blood vessel density is. Further, the display control unit 305 may display a warning indicating that the layer thickness and the blood vessel density are different from each other on the display unit 600.

以上のような構成により、経過観察時、複数の情報を重畳して表示することが可能となり、計測結果の相関関係が容易に確認できる。 With the above configuration, it is possible to superimpose and display a plurality of information at the time of follow-up observation, and the correlation of the measurement results can be easily confirmed.

(変形例1)
図7ではある1つ層における層厚、VADおよびVLDの経時変化を示したが複数の層における層厚、VADおよびVLDの経時変化を同時または切り替え可能に示すこととしてもよい。
(Modification 1)
Although FIG. 7 shows the time-dependent changes in the layer thickness, VAD and VLD in one layer, the time-dependent changes in the layer thickness, VAD and VLD in a plurality of layers may be shown simultaneously or switchably.

(実施例2)
上述した実施例1では、解析マップ及びセクタマップを重畳して表示する例について説明したが、その他の形態として、網膜層厚或いは血管密度の正常眼データベースの値と計測値との差分マップに対してセクタマップを重畳表示することも可能である。例えば、網膜層厚の正常眼データベースと計測した網膜層厚値の差分を差分値に応じた色で示したカラーマップに対して血管密度のセクタマップを重畳してもよい。また、血管密度の正常眼データベースと計測した血管密度値の差分を差分値に応じた色で示したカラーマップに対して網膜層厚のセクタマップを重畳することも可能である。
(Example 2)
In Example 1 described above, an example in which an analysis map and a sector map are superimposed and displayed has been described, but as another form, with respect to a difference map between the value of the normal eye database of the retinal layer thickness or the blood vessel density and the measured value. It is also possible to superimpose the sector map. For example, the sector map of the blood vessel density may be superimposed on the color map showing the difference between the normal eye database of the retinal layer thickness and the measured retinal layer thickness value in the color corresponding to the difference value. It is also possible to superimpose a sector map of the retinal layer thickness on a color map showing the difference between the normal eye database of blood vessel density and the measured blood vessel density value in a color corresponding to the difference value.

(実施例3)
上記の実施例1では、解析マップにセクタマップを重畳する場合について述べたが、これに限定されるものではない。例えば、モーションコントラスト画像(EnFace画像)に網膜層厚値、VADおよびVLDのうち少なくとも2つのセクタマップを表示することとしてもよい。
(Example 3)
In the first embodiment described above, the case where the sector map is superimposed on the analysis map has been described, but the present invention is not limited to this. For example, the motion contrast image (EnFace image) may display at least two sector maps of the retinal layer thickness value, VAD and VLD.

(その他の実施形態)
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。
(Other embodiments)
Each of the above embodiments realizes the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited to the image processing apparatus. It is also possible to realize the present invention as software that operates on a computer. The CPU of the image processing device controls the entire computer using computer programs and data stored in RAM and ROM. In addition, the execution of software corresponding to each part of the image processing device is controlled to realize the function of each part. Further, the user interface such as buttons and the layout of the display are not limited to those shown above.

100 画像処理システム
200 断層画像撮影装置
300 画像処理装置
301 画像取得部
302 記憶部
303 画像処理部
305 表示制御部
311 断層画像生成部
312 モーションコントラストデータ生成部
331 前処理部
332 画像生成部
333 検出部
400 眼底画像撮影装置
500 外部記憶部
600 表示部
700 入力部
100 Image processing system 200 Tomographic image capturing device 300 Image processing device 301 Image acquisition unit 302 Storage unit 303 Image processing unit 305 Display control unit 311 Tomographic image generation unit 312 Motion contrast data generation unit 331 Preprocessing unit 332 Image generation unit 333 Detection unit 400 Fundus imaging device 500 External storage unit 600 Display unit 700 Input unit

Claims (13)

異なる時間に被検眼を撮影して得た複数のモーションコントラスト画像それぞれから得られた血管密度と前記異なる時間に前記被検眼を撮影して得た複数の断層画像それぞれから得られた所定の層の層厚を取得する取得手段と、
前記血管密度および前記層厚の一方を示すマップ上に他方の情報を重畳して前記マップと前記情報とを表示部に表示させ、前記異なる時間における前記血管密度と前記層厚とをグラフ上に対応させて前記表示部に表示させる表示制御手段と、を備え
前記表示制御手段は、操作者からの指示に応じて前記血管密度と前記層厚とのうち少なくとも一方が得られる深さ範囲が変更された場合に、前記マップと前記情報とのうち前記変更された深さ範囲に対応する少なくとも一方が更新され、且つ前記グラフ上の前記異なる時間における前記血管密度と前記層厚とのうち前記変更された深さ範囲に対応する少なくとも一方が更新されるように、前記表示部の表示を制御する情報処理装置。
The blood vessel density obtained from each of the plurality of motion contrast images obtained by photographing the subject eye at different times and the predetermined layer obtained from each of the plurality of tomographic images obtained by photographing the subject eye at the different times . The acquisition method to obtain the layer thickness and
The map and the information are displayed on the display unit by superimposing the information of the other on the map showing one of the blood vessel density and the layer thickness, and the blood vessel density and the layer thickness at the different time are displayed on the graph. A display control means for displaying on the display unit in correspondence with the display control means is provided .
The display control means is changed in the map and the information when the depth range in which at least one of the blood vessel density and the layer thickness is obtained is changed in response to an instruction from the operator. At least one corresponding to the depth range is updated, and at least one of the vessel density and the layer thickness at the different time on the graph is updated corresponding to the changed depth range. , An information processing device that controls the display of the display unit.
前記血管密度は、血管面積密度および血管長密度を含み、
前記表示制御手段は、前記マップとして前記層厚を示すマップを前記表示部に表示させ、前記情報として前記血管面積密度および前記血管長密度を前記表示部に表示させる請求項1記載の情報処理装置。
The blood vessel density includes blood vessel area density and blood vessel length density.
The display control means according to claim 1 , wherein a map showing the layer thickness is displayed on the display unit as the map, and the blood vessel area density and the blood vessel length density are displayed on the display unit as the information. Information processing device.
前記血管密度は、血管面積密度および血管長密度を含み、
前記表示制御手段は、前記マップとして前記血管面積密度および前記血管長密度の一方を示すマップを前記表示部に表示させ、前記情報として前記層厚を前記表示部に表示させ、前記血管面積密度および前記血管長密度の他方の情報を前記マップ上に重畳して前記表示部に表示させる請求項1記載の情報処理装置。
The blood vessel density includes blood vessel area density and blood vessel length density.
The display control means causes the display unit to display a map showing one of the blood vessel area density and the blood vessel length density as the map, displays the layer thickness as the information on the display unit, and displays the blood vessel area density and the blood vessel area density. The information processing apparatus according to claim 1 , wherein the other information of the blood vessel length density is superimposed on the map and displayed on the display unit.
前記表示制御手段は、前記被検眼のモーションコントラスト画像に前記血管面積密度および前記血管長密度の両方の情報を識別可能に重畳して前記表示部に表示させる請求項2又は3に記載の情報処理装置。 The information processing according to claim 2 or 3, wherein the display control means superimposes information of both the blood vessel area density and the blood vessel length density on the motion contrast image of the eye to be inspected so as to be discriminatively superimposed and displayed on the display unit. Device. 前記血管密度と前記層厚とのうち少なくとも一方が得られる深さ範囲の変更を受け付ける第1受付手段と、
記血管密度と前記層厚とのうち少なくとも一方が得られる前記被検眼の深さ方向に直交する平面の位置の変更を受付ける第2受付手段と、
を更に備える請求項1乃至4のいずれか1項に記載の情報処理装置。
A first receiving means that accepts a change in the depth range at which at least one of the blood vessel density and the layer thickness can be obtained.
A second receiving means for accepting a change in the position of a plane orthogonal to the depth direction of the eye to be inspected, in which at least one of the blood vessel density and the layer thickness is obtained .
The information processing apparatus according to any one of claims 1 to 4.
前記表示制御手段は、前記平面の位置を示す複数のセクタから成るセクタマップを前記マップ上に重畳して前記表示部に表示させ、前記複数のセクタそれぞれにおける前記他方の情報を示す値を前記複数のセクタそれぞれと対応させて前記マップ上に重畳して前記表示部に表示させ、The display control means superimposes a sector map composed of a plurality of sectors indicating the positions of the planes on the map and displays them on the display unit, and the plurality of values indicating the other information in each of the plurality of sectors. Corresponding to each of the sectors of, superimposed on the map and displayed on the display unit,
前記第2受付手段は、操作者からの指示に応じて前記複数のセクタのいずれかが選択されることにより、前記平面の位置の変更を受け付ける請求項5に記載の情報処理装置。The information processing device according to claim 5, wherein the second receiving means accepts a change in the position of the plane by selecting one of the plurality of sectors in response to an instruction from the operator.
前記表示制御手段は、複数の種類のうち、前記他方の情報を含む、操作者からの指示に応じて選択された少なくとも2つの種類の情報を識別可能に前記マップ上に重畳して前記表示部に表示させる請求項1乃至6のいずれか1項に記載の情報処理装置。The display control means superimposes at least two types of information selected in response to an instruction from the operator, including the other information, on the map so as to be identifiable, among the plurality of types. The information processing apparatus according to any one of claims 1 to 6. 前記表示制御手段は、前記血管密度と前記層厚とのうち少なくとも一方が得られる深さ範囲を示す情報を前記被検眼の断層画像に重畳して前記表示部に表示させる請求項1乃至7のいずれか1項に記載の情報処理装置。The display control means according to claims 1 to 7 superimpose information indicating a depth range in which at least one of the blood vessel density and the layer thickness is obtained on the tomographic image of the eye to be inspected and display it on the display unit. The information processing apparatus according to any one of the following items. 前記層厚および前記血管密度は、異なる深さ範囲から得られた値であり、The layer thickness and the vessel density are values obtained from different depth ranges.
前記表示制御手段は、前記血管密度が得られる深さ範囲を示す情報と前記層厚が得られる深さ範囲を示す情報とを識別可能に前記被検眼の断層画像に重畳して前記表示部に表示させる請求項1乃至8のいずれか1項に記載の情報処理装置。The display control means superimposes the information indicating the depth range in which the blood vessel density is obtained and the information indicating the depth range in which the layer thickness can be obtained on the tomographic image of the eye to be inspected on the display unit. The information processing apparatus according to any one of claims 1 to 8 to be displayed.
前記層厚および前記血管密度は同一深さ範囲から得られた値である請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8 , wherein the layer thickness and the blood vessel density are values obtained from the same depth range. 請求項1乃至10のいずれか1項に記載の情報処理装置と、The information processing apparatus according to any one of claims 1 to 10.
測定光を走査する走査手段と、前記モーションコントラスト画像を得るために前記被検眼の同一範囲で前記測定光が走査されるように前記走査手段を制御可能な駆動制御手段とを備える、前記情報処理装置と通信可能に接続された撮影装置と、The information processing includes a scanning means for scanning the measurement light and a drive control means capable of controlling the scanning means so that the measurement light is scanned in the same range of the eye to be inspected in order to obtain the motion contrast image. An imaging device connected to the device so that it can communicate with the device,
を備えるシステム。A system equipped with.
異なる時間に被検眼を撮影して得た複数のモーションコントラスト画像それぞれから得られた血管密度と前記異なる時間に前記被検眼を撮影して得た複数の断層画像それぞれから得られた所定の層の層厚を取得する取得工程と、
前記血管密度および前記層厚の一方を示すマップ上に他方の情報を重畳して前記マップと前記情報とを表示部に表示させ、前記異なる時間における前記血管密度と前記層厚とをグラフ上に対応させて前記表示部に表示させる表示制御工程と、を含み、
前記表示制御工程では、操作者からの指示に応じて前記血管密度と前記層厚とのうち少なくとも一方が得られる深さ範囲が変更された場合に、前記マップと前記情報とのうち前記変更された深さ範囲に対応する少なくとも一方が更新され、且つ前記グラフ上の前記異なる時間における前記血管密度と前記層厚とのうち前記変更された深さ範囲に対応する少なくとも一方が更新されるように、前記表示部の表示を制御する情報処理方法。
The blood vessel density obtained from each of the plurality of motion contrast images obtained by photographing the subject eye at different times and the predetermined layer obtained from each of the plurality of tomographic images obtained by photographing the subject eye at the different times . The acquisition process to acquire the layer thickness and
The map and the information are displayed on the display unit by superimposing the information of the other on the map showing one of the blood vessel density and the layer thickness, and the blood vessel density and the layer thickness at the different time are displayed on the graph. Including a display control step of correspondingly displaying on the display unit .
In the display control step, when the depth range in which at least one of the blood vessel density and the layer thickness is obtained is changed in response to an instruction from the operator, the map and the information are changed. At least one corresponding to the depth range is updated, and at least one of the vessel density and the layer thickness at the different time on the graph is updated corresponding to the changed depth range. , An information processing method for controlling the display of the display unit .
請求項12に記載の情報処理方法をコンピュータに実行させることを特徴とするプログラム。 A program characterized by causing a computer to execute the information processing method according to claim 12 .
JP2018032107A 2018-02-26 2018-02-26 Information processing equipment, information processing methods and programs Active JP7005382B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018032107A JP7005382B2 (en) 2018-02-26 2018-02-26 Information processing equipment, information processing methods and programs
JP2022000491A JP7297952B2 (en) 2018-02-26 2022-01-05 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018032107A JP7005382B2 (en) 2018-02-26 2018-02-26 Information processing equipment, information processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022000491A Division JP7297952B2 (en) 2018-02-26 2022-01-05 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2019146683A JP2019146683A (en) 2019-09-05
JP7005382B2 true JP7005382B2 (en) 2022-01-21

Family

ID=67848834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018032107A Active JP7005382B2 (en) 2018-02-26 2018-02-26 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP7005382B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7305608B2 (en) * 2020-12-11 2023-07-10 キヤノン株式会社 Ophthalmic analysis device, ophthalmic analysis program
WO2022172563A1 (en) * 2021-02-12 2022-08-18 株式会社ニデック Ophthalmic information processing program and ophthalmic device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169296A (en) 2012-02-20 2013-09-02 Canon Inc Image processing apparatus and image processing method
JP2013198719A (en) 2012-02-20 2013-10-03 Canon Inc Image processing apparatus and image processing method
JP2016010658A (en) 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical coherence tomography calculation program
JP2017014127A (en) 2015-06-29 2017-01-19 敏京 李 Cosmetics for pet washing
JP2017077413A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2018000246A (en) 2016-06-27 2018-01-11 株式会社ニデック Ophthalmological image processing system, and ophthalmological image processing program
JP2017077414A5 (en) 2015-10-21 2018-11-08

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922152B2 (en) 2015-10-21 2021-08-18 株式会社ニデック Ophthalmology analyzer, ophthalmology analysis program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169296A (en) 2012-02-20 2013-09-02 Canon Inc Image processing apparatus and image processing method
JP2013198719A (en) 2012-02-20 2013-10-03 Canon Inc Image processing apparatus and image processing method
JP2016010658A (en) 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical coherence tomography calculation program
JP2017014127A (en) 2015-06-29 2017-01-19 敏京 李 Cosmetics for pet washing
JP2017077413A (en) 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2017077414A5 (en) 2015-10-21 2018-11-08
JP2018000246A (en) 2016-06-27 2018-01-11 株式会社ニデック Ophthalmological image processing system, and ophthalmological image processing program

Also Published As

Publication number Publication date
JP2019146683A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
JP2020093076A (en) Medical image processing device, learned model, medical image processing method and program
JP6146952B2 (en) Image processing apparatus, image processing method, and program.
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP2018038611A (en) Ophthalmologic analyzer and ophthalmologic analysis program
JP6526145B2 (en) Image processing system, processing method and program
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
EP3453312B1 (en) Image processing apparatus, image processing method, and program
JP2015160105A (en) Image processing device, image processing method and program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
CN113543695A (en) Image processing apparatus, image processing method, and program
WO2020050308A1 (en) Image processing device, image processing method and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP7195745B2 (en) Image processing device, image processing method and program
JP7005382B2 (en) Information processing equipment, information processing methods and programs
JP7102112B2 (en) Image processing equipment, image processing methods and programs
JP7297952B2 (en) Information processing device, information processing method and program
JP6243957B2 (en) Image processing apparatus, ophthalmic system, control method for image processing apparatus, and image processing program
JP7106304B2 (en) Image processing device, image processing method and program
JP2019150485A (en) Image processing system, image processing method, and program
JP7204345B2 (en) Image processing device, image processing method and program
JP2018057828A (en) Image processing apparatus and image processing method
JP2022062620A (en) Image processing device, image processing method and program
WO2020090439A1 (en) Image processing apparatus, image processing method, and program
JP6526154B2 (en) Image processing apparatus, ophthalmologic system, control method of image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105