JP2019195586A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2019195586A
JP2019195586A JP2018092472A JP2018092472A JP2019195586A JP 2019195586 A JP2019195586 A JP 2019195586A JP 2018092472 A JP2018092472 A JP 2018092472A JP 2018092472 A JP2018092472 A JP 2018092472A JP 2019195586 A JP2019195586 A JP 2019195586A
Authority
JP
Japan
Prior art keywords
image
motion contrast
value
variation
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018092472A
Other languages
Japanese (ja)
Other versions
JP2019195586A5 (en
JP7281872B2 (en
Inventor
彰人 宇治
Akihito Uji
彰人 宇治
好彦 岩瀬
Yoshihiko Iwase
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018092472A priority Critical patent/JP7281872B2/en
Priority to PCT/JP2019/010004 priority patent/WO2019216019A1/en
Publication of JP2019195586A publication Critical patent/JP2019195586A/en
Publication of JP2019195586A5 publication Critical patent/JP2019195586A5/ja
Application granted granted Critical
Publication of JP7281872B2 publication Critical patent/JP7281872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Abstract

To enable circulation of a blood flow, for example, to be evaluated by using a plurality of pieces of motion contrast data captured at different time.SOLUTION: An image processing device acquires a plurality of motion contrast images related to the same position of the ocular fundus at different time, calculates a value indicating variations in brightness related to a plurality of pixels corresponding to the plurality of acquired motion contrast images, generates an output image on the basis of the calculated value indicating variations in brightness, and outputs the generated output image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

光干渉断層計(OCT;Optical Coherence Tomography)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。このような断層画像撮影装置は、眼部における疾病の診断をより的確に行うのに有用であることから近年注目を集めている。OCTの形態として、例えば、高速に画像を取得する方法として、広帯域光源を用い、分光器でインターフェログラムを取得するSD−OCT(Spectral domain OCT)が知られている。また、高速波長掃引光源を用いることで、単一チャネル光検出器でスペクトル干渉を計測するSS−OCT(Swept Source OCT)が知られている。   An ophthalmic tomographic imaging apparatus such as an optical coherence tomography (OCT) can observe the state inside the retinal layer three-dimensionally. Such a tomographic imaging apparatus has attracted attention in recent years because it is useful for more accurately diagnosing diseases in the eye. As a form of OCT, for example, as a method for acquiring an image at high speed, SD-OCT (Spectral domain OCT) is known in which a broadband light source is used and an interferogram is acquired with a spectroscope. Also, SS-OCT (Swept Source OCT) is known in which spectral interference is measured with a single channel photodetector by using a high-speed wavelength swept light source.

近年では、造影剤を用いない血管造影法としてOCTを用いた血管造影法(OCTA:OCT Angiography)が提案されている。OCTAでは、OCTにより取得した三次元のモーションコントラストデータを二次元平面に投影することで、血管画像(以下、OCTA画像という。)を生成する。モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。モーションコントラストデータを処理して血管の位置情報を取得し、位置情報に基づいて、血管に関する解析情報を取得する技術が、特許文献1に開示されている。   In recent years, an angiography method using OCT (OCTA: OCT Angiography) has been proposed as an angiography method using no contrast agent. In OCTA, a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane. The motion contrast data is data obtained by repeatedly photographing the same cross section of the measurement object by OCT and detecting a temporal change of the measurement object during the imaging. The motion contrast data can be obtained, for example, by calculating the phase, vector, and intensity temporal change of the complex OCT signal from the difference, ratio, or correlation. Japanese Patent Application Laid-Open No. 2004-228688 discloses a technique for acquiring position information of a blood vessel by processing motion contrast data and acquiring analysis information about the blood vessel based on the position information.

特開2016−010658号公報JP, 2006-010658, A

OCTにより取得するモーションコントラストデータは、時間変化がある個所が画像化されるため、血液の流れがある血管部分に関する画像を取得することが可能となる。そのため、OCTA画像を用いることで、血管を解析することが出来、病気の程度を診断するためのサポートが出来る。しかし、従来は血管に関して、寸法、面積、体積などの物理的なサイズを解析するものであり、血管内の血流を評価するものではなかった。   The motion contrast data acquired by OCT is imaged at locations where there is a change in time, so that it is possible to acquire an image relating to a blood vessel portion where blood flows. Therefore, blood vessels can be analyzed by using OCTA images, and support for diagnosing the degree of illness can be provided. However, conventionally, the physical size of a blood vessel, such as dimensions, area, and volume, is analyzed, and the blood flow in the blood vessel is not evaluated.

本発明は、異なる時刻に撮影された複数のモーションコントラストデータを用いることで、例えば血流などの循環の評価を可能にすることを目的とする。   An object of the present invention is to enable evaluation of circulation such as blood flow by using a plurality of motion contrast data photographed at different times.

上記の目的を達成するための、本発明の一態様による画像処理システムは、以下の構成を備える。   In order to achieve the above object, an image processing system according to an aspect of the present invention comprises the following arrangement.

本発明の一態様による画像処理装置は、
それぞれ異なる時刻における眼底の同一位置に関する複数のモーションコントラスト画像を取得する取得手段と、
前記複数のモーションコントラスト画像の対応する複数の画素についての輝度のばらつきを示す値を算出する算出手段と、
前記算出手段により算出された前記輝度のばらつきを示す値に基づいて出力画像を生成する生成手段と、
前記生成手段により生成された出力画像を出力する出力手段と、を備える。
An image processing apparatus according to an aspect of the present invention includes:
Acquisition means for acquiring a plurality of motion contrast images relating to the same position of the fundus at different times,
Calculating means for calculating a value indicating a variation in luminance for a plurality of corresponding pixels of the plurality of motion contrast images;
Generating means for generating an output image based on a value indicating the variation in luminance calculated by the calculating means;
Output means for outputting the output image generated by the generating means.

本発明によれば、例えば血流などの循環の評価が可能になる。   According to the present invention, it is possible to evaluate circulation such as blood flow.

第1実施形態による画像処理システムの構成例を示す図。1 is a diagram illustrating a configuration example of an image processing system according to a first embodiment. 眼部の構造と断層画像と眼底画像を説明する図。The figure explaining the structure of an eye part, a tomogram, and a fundus image. 画像処理装置による処理を示すフローチャート。6 is a flowchart showing processing by the image processing apparatus. 画像処理装置による処理を示すフローチャート。6 is a flowchart showing processing by the image processing apparatus. モーションコントラストデータの生成を説明するための図。The figure for demonstrating the production | generation of motion contrast data. アーティファクトの除去を説明するための図。The figure for demonstrating the removal of an artifact. 第一の位置合わせを説明するための図。The figure for demonstrating 1st position alignment. 第二の位置合わせを説明するための図。The figure for demonstrating 2nd alignment. 変動データを説明するための図。The figure for demonstrating fluctuation data. 画像を表示する画面を説明するための図。The figure for demonstrating the screen which displays an image. 画像を表示する画面を説明するための図。The figure for demonstrating the screen which displays an image. データの表示の一例を示す図。The figure which shows an example of the display of data. データの解析を説明するための図。The figure for demonstrating the analysis of data. データの解析を説明するための図。The figure for demonstrating the analysis of data. 第3実施形態による画像処理システムの構成例を示す図。The figure which shows the structural example of the image processing system by 3rd Embodiment. 第3実施形態による処理を示すフローチャート。The flowchart which shows the process by 3rd Embodiment. 画像を表示する画面を説明するための図。The figure for demonstrating the screen which displays an image.

以下、添付の図面を参照しながら、本発明のいくつかの実施形態について説明する。以下の各実施形態に係る画像処理装置は、アーティファクトを低減した二次元のモーションコントラストデータを生成するにあたり、複数のモーションコントラストデータの位置合わせをすると共に、モーションコントラストデータの時間的な変動を算出する。各実施形態によれば、固視微動などにより、モーションコントラストデータにアーティファクトが存在する場合においても高画質な二次元のモーションコントラストデータを取得することが可能となる。さらに、時間的な変化を表示することが出来る。なお、高画質とは一度の撮影と比較してS/N比が向上している画像、または、診断に必要な情報量が増えている画像のことをいう。以下、各実施形態に係る画像処理装置を備える画像処理システムについて、詳細を説明する。   Hereinafter, some embodiments of the present invention will be described with reference to the accompanying drawings. The image processing apparatus according to each of the following embodiments aligns a plurality of motion contrast data and calculates temporal variations of the motion contrast data when generating two-dimensional motion contrast data with reduced artifacts. . According to each embodiment, it is possible to acquire high-quality two-dimensional motion contrast data even when an artifact exists in the motion contrast data due to fixation fine movement or the like. Furthermore, changes over time can be displayed. Note that high image quality refers to an image in which the S / N ratio is improved as compared with one-time shooting or an image in which the amount of information necessary for diagnosis is increased. Hereinafter, the details of the image processing system including the image processing apparatus according to each embodiment will be described.

<第1実施形態>
図1は、第1実施形態に係る画像処理装置300を備える画像処理システム100の構成例を示すブロック図である。図1の例では、断層画像撮影装置(OCTとも言う)200、眼底画像撮影装置400、外部記憶部500、表示部600、入力部700が、インタフェースを介して画像処理装置300に接続されている。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an image processing system 100 including an image processing apparatus 300 according to the first embodiment. In the example of FIG. 1, a tomographic imaging apparatus (also referred to as OCT) 200, a fundus imaging apparatus 400, an external storage unit 500, a display unit 600, and an input unit 700 are connected to the image processing apparatus 300 via an interface. .

断層画像撮影装置200は、眼部の断層画像を撮影する装置であり、例えばSD−OCTやSS−OCTを備える。なお、断層画像撮影装置200には既知の装置を用いることができる。断層画像撮影装置200において、ガルバノミラー201は、測定光の眼底における走査を行い、OCTによる眼底の撮影範囲を規定する。駆動制御部202は、ガルバノミラー201の駆動範囲および速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定する。ここでは、簡単のためガルバノミラー201を一つのユニットとして示したが、実際にはXスキャン用のミラー(Xスキャナ)とYスキャン用のミラー(Yスキャナ)で構成され、眼底上における所望の範囲で測定光を走査させることができる。フォーカス203は、不図示のフォーカスレンズにより、OCTにおける測定光を被検体である眼の前眼部を介して眼底の網膜層にフォーカスさせる。   The tomographic imaging apparatus 200 is an apparatus that captures a tomographic image of the eye, and includes, for example, SD-OCT and SS-OCT. A known device can be used for the tomographic imaging apparatus 200. In the tomographic imaging apparatus 200, the galvanometer mirror 201 scans the fundus of the measurement light and defines the fundus imaging range by OCT. The drive control unit 202 controls the driving range and speed of the galvanometer mirror 201, thereby defining the imaging range and the number of scanning lines (scanning speed in the plane direction) on the fundus. Here, for the sake of simplicity, the galvanometer mirror 201 is shown as one unit. However, in reality, the galvanometer mirror 201 is configured by an X scan mirror (X scanner) and a Y scan mirror (Y scanner), and a desired range on the fundus. With this, the measuring light can be scanned. The focus 203 uses a focus lens (not shown) to focus measurement light in OCT on the retinal layer of the fundus through the anterior segment of the subject eye.

内部固視灯204は、表示部241とレンズ242を備える。表示部241は、マトリックス状に配置された複数の発光ダイオード(LD)を有する。発光ダイオードの点灯位置は、駆動制御部202の制御により撮影したい部位に合わせて変更される。表示部241からの光は、レンズ242を介し、被検眼に導かれる。表示部241から出射される光は520nmで、駆動制御部202により所望のパターンが表示される。コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、駆動制御部202により制御される。コヒーレンスゲートとは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートの位置を制御することにより、網膜層の撮影、あるいは網膜層より深部側の撮影、など、断層画像の深部方向の撮影位置が制御される。   The internal fixation lamp 204 includes a display unit 241 and a lens 242. The display unit 241 includes a plurality of light emitting diodes (LD) arranged in a matrix. The lighting position of the light emitting diode is changed according to the part to be photographed under the control of the drive control unit 202. The light from the display unit 241 is guided to the eye to be examined through the lens 242. The light emitted from the display unit 241 is 520 nm, and a desired pattern is displayed by the drive control unit 202. The coherence gate stage 205 is controlled by the drive control unit 202 in order to cope with a difference in the axial length of the eye to be examined. The coherence gate represents a position where the optical distances of the measurement light and the reference light in OCT are equal. By controlling the position of the coherence gate, the imaging position in the depth direction of the tomographic image, such as imaging of the retinal layer or imaging of the deeper side than the retinal layer, is controlled.

眼底画像撮影装置400は、眼部の眼底画像を撮影する装置であり、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等が挙げられる。   The fundus image capturing apparatus 400 is an apparatus that captures a fundus image of an eye part, and includes, for example, a fundus camera, an SLO (Scanning Laser Ophthalmoscope) and the like.

ここで、画像処理システム100が撮影の対象とする眼の構造と、画像処理システム100が取得する画像について図2を用いて説明する。図2(a)に眼球の模式図を示す。図2(a)において、Cは角膜、CLは水晶体、Vは硝子体、Mは黄斑部(黄斑の中心部は中心窩を表す)、Dは視神経乳頭部を表す。以下では、主に、硝子体、黄斑部、視神経乳頭部を含む網膜の後極部を撮影する場合を例示するが、断層画像撮影装置200が、角膜、水晶体の前眼部を撮影することも可能であることは言うまでもない。   Here, the structure of the eye to be imaged by the image processing system 100 and the image acquired by the image processing system 100 will be described with reference to FIG. FIG. 2A shows a schematic diagram of an eyeball. In FIG. 2A, C represents the cornea, CL represents the lens, V represents the vitreous body, M represents the macula (the central portion of the macula represents the fovea), and D represents the optic papilla. In the following, a case where the posterior pole part of the retina including the vitreous body, the macula part, and the optic papilla is mainly illustrated will be exemplified, but the tomographic imaging apparatus 200 may photograph the anterior eye part of the cornea and the lens. It goes without saying that it is possible.

図2(b)に、断層画像撮影装置200が網膜を撮影した場合に取得される断層画像の例を示す。図2(b)において、ASはAスキャンというOCT断層画像における画像取得の単位を表す。このAスキャンを図中のx軸方向に走査することで一つのBスキャンが構成される。このBスキャンを断層画像(あるいは断層像)と呼ぶ。図2(b)において、Veは血管、Vは硝子体、Mは黄斑部、Dは視神経乳頭部、Laは篩状板の後面を表す。また、L1は内境界膜(ILM)と神経線維層(NFL)との境界、L2は神経線維層と神経節細胞層(GCL)との境界、L3は視細胞内節外節接合部(ISOS)、L4は網膜色素上皮層(RPE)、L5はブルッフ膜(BM)、L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸、縦軸(深さ方向)をz軸とする。   FIG. 2B shows an example of a tomographic image acquired when the tomographic imaging apparatus 200 images the retina. In FIG. 2B, AS represents an image acquisition unit in an OCT tomographic image called A scan. By scanning this A scan in the x-axis direction in the figure, one B scan is formed. This B-scan is called a tomographic image (or tomographic image). In FIG. 2 (b), Ve represents a blood vessel, V represents a vitreous body, M represents a macular region, D represents an optic papilla, and La represents a posterior surface of a sieve plate. L1 is the boundary between the inner boundary membrane (ILM) and the nerve fiber layer (NFL), L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and L3 is the joint between the inner and outer segments of photoreceptor cells (ISOS). ), L4 represents the retinal pigment epithelial layer (RPE), L5 represents the Bruch's membrane (BM), and L6 represents the choroid. In the tomographic image, the horizontal axis (OCT main scanning direction) is the x-axis, and the vertical axis (depth direction) is the z-axis.

図2(c)に眼底画像撮影装置400が取得する眼底画像の例を示す。図2(c)において、Mは黄斑部、Dは視神経乳頭部を表し、太い曲線は網膜の血管を表す。眼底画像において、横軸(OCTの主走査方向)をx軸、縦軸(OCTの副走査方向)をy軸とする。なお、断層画像撮影装置200と眼底画像撮影装置400の装置構成は、一体型でもよいし別体型でもよい。   FIG. 2C illustrates an example of a fundus image acquired by the fundus image capturing apparatus 400. In FIG. 2C, M represents the macula, D represents the optic papilla, and the thick curve represents the blood vessels of the retina. In the fundus image, the horizontal axis (OCT main scanning direction) is the x-axis, and the vertical axis (OCT sub-scanning direction) is the y-axis. Note that the device configurations of the tomographic imaging apparatus 200 and the fundus imaging apparatus 400 may be an integrated type or a separate type.

図1に戻り、画像処理装置300は、画像取得部301、記憶部302、画像処理部303、指示部304、表示制御部305を備える。画像取得部301において、断層画像生成部311は、断層画像撮影装置200により撮影された断層画像の信号データを取得し、信号処理を行うことで断層画像を生成する。モーションコントラストデータ生成部312は、モーションコントラストデータの生成を行う。また、画像取得部301は、眼底画像撮影装置400により撮影された眼底画像データを取得する。画像取得部301が生成した断層画像と取得した眼底画像は記憶部302に格納される。   Returning to FIG. 1, the image processing apparatus 300 includes an image acquisition unit 301, a storage unit 302, an image processing unit 303, an instruction unit 304, and a display control unit 305. In the image acquisition unit 301, the tomographic image generation unit 311 acquires signal data of a tomographic image captured by the tomographic imaging apparatus 200, and generates a tomographic image by performing signal processing. The motion contrast data generation unit 312 generates motion contrast data. The image acquisition unit 301 acquires fundus image data captured by the fundus image capturing apparatus 400. The tomographic image generated by the image acquisition unit 301 and the acquired fundus image are stored in the storage unit 302.

画像処理部303において、前処理部331は、モーションコントラストデータからアーティファクトを除去する処理を行う。画像生成部332は、三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像(OCTA画像とも言う)、三次元の断層画像から二次元の正面画像(Enface画像とも言う)を生成する。検出部333は、網膜から各層の境界線を検出する。第一の位置合わせ部334は、二次元の正面画像の位置合わせを行う。選択部335は、第一の位置合わせ部334の結果から基準とするデータを選択する。第二の位置合わせ部336は、OCTA画像を用いて網膜の横方向(x軸)の位置合わせを行う。算出部340は、複数のOCTA画像間の統計値(平均値、標準偏差、変動係数、最大値、最小値など)を算出する。変動画像生成部341は、算出部340が求めた統計値に基づいて画像を生成する。   In the image processing unit 303, the preprocessing unit 331 performs processing for removing artifacts from the motion contrast data. The image generation unit 332 generates a two-dimensional motion contrast front image (also referred to as an OCTA image) from the three-dimensional motion contrast data, and a two-dimensional front image (also referred to as an Enfac image) from the three-dimensional tomographic image. The detection unit 333 detects the boundary line of each layer from the retina. The first alignment unit 334 performs alignment of the two-dimensional front image. The selection unit 335 selects reference data from the result of the first alignment unit 334. The second alignment unit 336 performs alignment in the lateral direction (x axis) of the retina using the OCTA image. The calculation unit 340 calculates a statistical value (average value, standard deviation, coefficient of variation, maximum value, minimum value, etc.) between the plurality of OCTA images. The fluctuation image generation unit 341 generates an image based on the statistical value obtained by the calculation unit 340.

画像処理部303により生成された各画像は記憶部302に格納される。指示部304は、断層画像撮影装置200に対して駆動を指示する。表示制御部305は、記憶部302に格納されている各画像を用いて、図10、図11により後述するような表示を含む、各種表示を表示部600に行う。外部記憶部500は、被検眼に関する情報(患者の氏名、年齢、性別など)と、撮影した画像データ、撮影パラメータ、画像解析パラメータ、操作者によって設定されたパラメータをそれぞれ関連付けて保持している。表示部600は、例えば液晶表示器である。入力部700は、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部700を介して、画像処理装置300や断層画像撮影装置200、眼底画像撮影装置400へ指示を行う。   Each image generated by the image processing unit 303 is stored in the storage unit 302. The instruction unit 304 instructs the tomographic imaging apparatus 200 to drive. The display control unit 305 uses the images stored in the storage unit 302 to perform various types of display on the display unit 600 including displays as will be described later with reference to FIGS. 10 and 11. The external storage unit 500 stores information relating to the eye to be examined (patient name, age, sex, etc.), captured image data, imaging parameters, image analysis parameters, and parameters set by the operator in association with each other. The display unit 600 is a liquid crystal display, for example. The input unit 700 is, for example, a mouse, a keyboard, a touch operation screen, and the like, and an operator gives an instruction to the image processing apparatus 300, the tomographic image capturing apparatus 200, and the fundus image capturing apparatus 400 via the input unit 700.

次に、図3および図4のフローチャートを参照して、第1実施形態による画像処理装置300の処理を説明する。図3(a)は、第1実施形態による画像処理装置300の全体の動作処理を示す。図3(b)は、第1実施形態における高画質データ(高品質画像)の生成処理を示す。   Next, processing of the image processing apparatus 300 according to the first embodiment will be described with reference to the flowcharts of FIGS. 3 and 4. FIG. 3A shows the overall operation processing of the image processing apparatus 300 according to the first embodiment. FIG. 3B shows a generation process of high-quality data (high quality image) in the first embodiment.

ステップS301において、画像処理装置300は、被検眼を同定する情報として被検者識別番号を外部から取得する。被験者識別番号は、例えば、入力部700からユーザにより入力されてもよい。画像処理装置300は、被検者識別番号に基づいて、外部記憶部500が保持している当該被検眼に関する情報を取得し、記憶部302に記憶する。   In step S301, the image processing apparatus 300 acquires a subject identification number from the outside as information for identifying the eye to be examined. The subject identification number may be input by the user from the input unit 700, for example. The image processing apparatus 300 acquires information on the subject eye held by the external storage unit 500 based on the subject identification number and stores it in the storage unit 302.

ステップS302において、断層画像撮影装置200は、被検眼をスキャンして断層画像の撮影を行う。被検眼のスキャンは、操作者からのスキャン開始の指示に応じて開始される。断層画像撮影装置200は、駆動制御部202を制御し、ガルバノミラー201を動作させて断層画像のスキャンを行う。上述のように、ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナで構成される。これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)、垂直方向(Y)それぞれの方向に走査することが出来る。これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向に走査することが出来るため、ガルバノミラー201は、眼底平面上を任意の方向に走査することが可能である。   In step S <b> 302, the tomographic image capturing apparatus 200 scans the eye to be captured and captures a tomographic image. The scan of the eye to be examined is started in response to a scan start instruction from the operator. The tomographic imaging apparatus 200 controls the drive control unit 202 and operates the galvanometer mirror 201 to scan a tomographic image. As described above, the galvanometer mirror 201 includes the horizontal X scanner and the vertical Y scanner. When the orientations of these scanners are changed, scanning can be performed in the horizontal direction (X) and the vertical direction (Y) in the apparatus coordinate system. By changing the orientations of these scanners simultaneously, scanning can be performed in a direction in which the horizontal direction and the vertical direction are combined. Therefore, the galvano mirror 201 can scan the fundus plane in any direction. .

断層画像の撮影を行うにあたり各種撮影パラメータの調整が行われる。例えば、内部固視灯204による個視灯の表示位置、ガルバノミラー201によるスキャン範囲とスキャンパターン、コヒーレンスゲートステージ205によるコヒーレンスゲートの位置、フォーカス203のフォーカス位置が、指示部304により設定される。駆動制御部202は、表示部241の発光ダイオードを制御して、黄斑部中心や視神経乳頭に撮影を行うように内部固視灯204による個視灯の表示位置を制御する。ガルバノミラー201に設定することが可能なスキャンパターンとしては、例えば、三次元ボリュームを撮影するラスタスキャン、放射状スキャン、クロススキャンなどがあげられる。これら撮影パラメータの調整終了後、操作者が撮影開始を選択することで撮影が開始される。   Various radiographing parameters are adjusted when taking a tomographic image. For example, the indication unit 304 sets the display position of the individual lamp by the internal fixation lamp 204, the scan range and scan pattern by the galvanometer mirror 201, the position of the coherence gate by the coherence gate stage 205, and the focus position of the focus 203. The drive control unit 202 controls the light emitting diode of the display unit 241 to control the display position of the individual lamp by the internal fixation lamp 204 so as to perform imaging on the center of the macula or the optic disc. Examples of scan patterns that can be set on the galvanometer mirror 201 include raster scans that capture a three-dimensional volume, radial scans, and cross scans. After the adjustment of the shooting parameters, the operator selects shooting start to start shooting.

本実施形態においては、スキャンパターンとして、三次元ボリュームを撮影するためのラスタスキャンが用いられ、高画質データ生成のために三次元ボリュームがN回(N≧2)撮影される。N回の繰り返し撮影において、同じ撮影範囲が同じスキャンパターンで撮影される。例えば、3mm×3mmの範囲について300×300(主走査×副走査)の間隔で繰り返し撮影が行われる。三次元ボリュームにおいては、モーションコントラストを計算するために同一のライン箇所をm回(m≧2)繰り返し撮影する。すなわち、mが2回だとする場合、実際には300×600のデータを撮影し、そこから300×300の三次元モーションコントラストデータを生成する。   In the present embodiment, a raster scan for photographing a three-dimensional volume is used as a scan pattern, and the three-dimensional volume is photographed N times (N ≧ 2) in order to generate high-quality data. In the N repeated shootings, the same shooting range is shot with the same scan pattern. For example, photographing is repeatedly performed at an interval of 300 × 300 (main scanning × sub scanning) in a range of 3 mm × 3 mm. In the three-dimensional volume, the same line portion is repeatedly photographed m times (m ≧ 2) in order to calculate the motion contrast. That is, when m is twice, 300 × 600 data is actually captured, and 300 × 300 three-dimensional motion contrast data is generated therefrom.

また、本実施形態においては詳細な説明を省略するが、断層画像撮影装置200は、加算平均用に同じ場所を撮影するために、被検眼のトラッキングを行うことで、固視微動の影響を少なくして被検眼のスキャンを行う。さらに、まばたきなどの画像を生成するにあたりアーティファクトとなる動きを検出した場合には、アーティファクトが発生した場所で再スキャンを自動的に行う。   Although detailed description is omitted in the present embodiment, the tomographic imaging apparatus 200 performs tracking of the eye to be imaged in order to image the same place for addition averaging, thereby reducing the influence of fixation micromotion. And scan the eye. Further, when motion that becomes an artifact in detecting an image such as blinking is detected, rescan is automatically performed at the place where the artifact occurs.

なお、本実施形態では異なる時刻に撮影された複数のモーションコントラストデータが用いられる。この際、断層画像撮影装置200は、撮影の間隔が一定間隔となるように断層撮影を制御するようにしても良い。例えば、一つのモーションコントラストデータを取得するための撮影間隔を3秒、5秒等、スキャン密度に応じて、撮影間隔を自動的に制御して、N回の繰り返し撮影を自動的に行うようにしても良い。あるいは、操作者に対して、一定の間隔で撮影を行うための指標を提示して撮影を行うようにしても良い。指標は、撮影を開始するタイミングを操作者に通知するものであればよい。例えば、撮影開始のカウントダウンや、前回撮影してから何秒経過したかなど時間経過を操作者が認識できる表示が指標として用いられ得る。   In this embodiment, a plurality of motion contrast data photographed at different times are used. At this time, the tomographic imaging apparatus 200 may control tomographic imaging so that the imaging interval is a constant interval. For example, the shooting interval for acquiring one motion contrast data is automatically controlled according to the scan density, such as 3 seconds, 5 seconds, etc., so that N repeated shootings are automatically performed. May be. Alternatively, the operator may be presented with an index for photographing at regular intervals. The indicator may be any indicator that notifies the operator of the timing to start shooting. For example, a display that allows the operator to recognize the passage of time, such as a countdown at the start of shooting or how many seconds have passed since the previous shooting, can be used as an index.

ステップS303において、断層画像生成部311は、それぞれの干渉信号に対して再構成処理を行うことで、断層画像を生成する。まず、断層画像生成部311は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、例えば、検出した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。次に、断層画像生成部311は、有限区間でフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。次に、断層画像生成部311は、FFT処理を行う事によって断層信号を生成する。   In step S303, the tomographic image generation unit 311 generates a tomographic image by performing reconstruction processing on each interference signal. First, the tomographic image generation unit 311 performs fixed pattern noise removal from the interference signal. The fixed pattern noise removal is performed, for example, by extracting fixed pattern noise by averaging a plurality of detected A scan signals, and subtracting this from the input interference signal. Next, the tomographic image generation unit 311 performs desired window function processing in order to optimize the depth resolution and dynamic range that are in a trade-off relationship when Fourier transform is performed in a finite section. Next, the tomographic image generation unit 311 generates a tomographic signal by performing FFT processing.

ステップS304において、モーションコントラストデータ生成部312は、モーションコントラストデータを生成する。モーションコントラストデータの生成について図5を用いて説明する。図5において、MCは三次元のモーションコントラストデータを示し、LMCは三次元のモーションコントラストデータを構成する二次元のモーションコントラストデータを示している。さらに、図5では、二次元のモーションコントラストデータLMCがm個の二次元断層画像(本例ではm=3)に基づいて生成されることが示されている。以下、二次元のモーションコントラストデータLMCを生成する方法について説明をする。   In step S304, the motion contrast data generation unit 312 generates motion contrast data. Generation of motion contrast data will be described with reference to FIG. In FIG. 5, MC indicates three-dimensional motion contrast data, and LMC indicates two-dimensional motion contrast data constituting the three-dimensional motion contrast data. Furthermore, FIG. 5 shows that two-dimensional motion contrast data LMC is generated based on m two-dimensional tomographic images (m = 3 in this example). Hereinafter, a method for generating the two-dimensional motion contrast data LMC will be described.

モーションコントラストデータ生成部312は、まず被検眼の同一範囲で撮影された複数の断層像間の位置ずれを補正する。位置ずれの補正方法は任意の方法であってよい。例えば、モーションコントラストデータ生成部312は、同一範囲をm回撮影して得られた、同一箇所に相当する断層像データ同士について、眼底形状の特徴等を利用して位置合わせを行う。具体的には、m個の断層像データのうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層像データとの類似度を求め、テンプレートとの位置ずれ量を求める。その後、モーションコントラストデータ生成部312は、求めた位置ずれ量に基づいて、各断層像データを補正する。   The motion contrast data generation unit 312 first corrects a positional deviation between a plurality of tomographic images captured in the same range of the eye to be examined. The method for correcting the misalignment may be any method. For example, the motion contrast data generation unit 312 aligns the tomographic image data corresponding to the same location obtained by photographing the same range m times using the features of the fundus shape. Specifically, one of the m pieces of tomographic image data is selected as a template, the degree of similarity with other tomographic image data is obtained while changing the position and angle of the template, and the amount of positional deviation from the template is obtained. . Thereafter, the motion contrast data generation unit 312 corrects each tomographic image data based on the obtained positional deviation amount.

次にモーションコントラストデータ生成部312は、各断層像データに関する撮影時間が互いに連続する、2つの断層像データ間について、以下の[数1]により脱相関値M(x,z)を求める。
[数1]において、A(x,z)は断層像データAの位置(x,z)における輝度、B(x,z)は断層像データBの同一位置(x,z)における輝度を示している。
Next, the motion contrast data generation unit 312 obtains a decorrelation value M (x, z) by the following [Equation 1] between two tomographic image data in which the imaging times related to the respective tomographic image data are continuous.
In [Equation 1], A (x, z) represents the luminance at the position (x, z) of the tomographic image data A, and B (x, z) represents the luminance at the same position (x, z) of the tomographic image data B. ing.

脱相関値M(x,z)は0〜1の値となり、2つの輝度の差が大きいほどM(x,z)の値は大きくなる。モーションコントラストデータ生成部312は、同一位置で繰り返し取得した断層データの数(繰り返し回数m)が3以上の場合には、同一位置(x、z)において複数の脱相関値M(x,z)を求めることができる。モーションコントラストデータ生成部312は、求めた複数の脱相関値M(x,z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラストデータを生成することができる。なお、繰り返し回数mが2の場合、得られる脱相関値M(x,z)は1つである。この場合、最大値演算や平均演算などの統計的な処理は行わず、隣接する断層像Aと断層像Bの脱相関値M(x,z)が、位置(x,z)におけるモーションコントラストの値となる。   The decorrelation value M (x, z) is a value from 0 to 1, and the value of M (x, z) increases as the difference between the two luminances increases. When the number of tomographic data repeatedly acquired at the same position (number of repetitions m) is 3 or more, the motion contrast data generation unit 312 has a plurality of decorrelation values M (x, z) at the same position (x, z). Can be requested. The motion contrast data generation unit 312 can generate final motion contrast data by performing statistical processing such as the maximum value calculation and the average calculation of the obtained plurality of decorrelation values M (x, z). it can. When the number of repetitions m is 2, the obtained decorrelation value M (x, z) is one. In this case, statistical processing such as the maximum value calculation and the average calculation is not performed, and the decorrelation value M (x, z) between the adjacent tomographic images A and B is the motion contrast at the position (x, z). Value.

なお、[数1]に示したモーションコントラストの計算式はノイズの影響を受けやすい傾向がある。例えば、複数の断層像データの無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、モーションコントラストデータ生成部312は、前処理として、所定の閾値を下回る断層データはノイズとみなして、ゼロに置き換えるようにしてもよい。これにより、画像生成部332は、生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。そして上述した処理をステップS302〜S303で得られた断層画像について繰り返すことにより、N個の三次元モーションコントラストデータが取得される。   The motion contrast calculation formula shown in [Equation 1] tends to be easily affected by noise. For example, when there is noise in a non-signal portion of a plurality of tomographic image data and the values are different from each other, the decorrelation value becomes high and the noise is also superimposed on the motion contrast image. In order to avoid this, the motion contrast data generation unit 312 may regard tomographic data that falls below a predetermined threshold value as noise and replace it with zero as preprocessing. Thereby, the image generation part 332 can generate | occur | produce the motion contrast image which reduced the influence of noise based on the produced | generated motion contrast data. Then, by repeating the above-described processing for the tomographic images obtained in steps S302 to S303, N pieces of three-dimensional motion contrast data are acquired.

ステップS305において、画像処理部303は、これら取得した三次元モーションコントラストデータを用いて高画質データを生成する。画像処理部303による高画質データの生成処理について、図3(b)と図4(a)のフローチャートを用いて説明する。   In step S305, the image processing unit 303 generates high-quality data using the acquired three-dimensional motion contrast data. High-quality data generation processing by the image processing unit 303 will be described with reference to the flowcharts of FIGS. 3B and 4A.

図3(b)のステップS351において、検出部333は、断層画像撮影装置200が撮影した複数の断層画像において網膜層の境界線を検出する。検出部333は、例えば、図2(b)の断層画像においてL1〜L6の各境界、あるいは不図示のGCL/IPL、IPL/INL、INL/OPL、OPL/ONL境界を検出する。境界の検出処理の一例を次に示す。まず、検出部333は、処理対象の断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、メディアン画像、Sobel画像とする)。次に、検出部333は、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像からは輝度値のプロファイルが、Sobel画像からは勾配のプロファイルが作成される。そして、検出部333は、Sobel画像から作成したプロファイル内のピークを検出する。検出部333は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出する。なお、網膜層における境界線の検出方法は、上記に限られるものではない。   In step S351 in FIG. 3B, the detection unit 333 detects the boundary lines of the retinal layer in the plurality of tomographic images captured by the tomographic image capturing apparatus 200. The detection unit 333 detects, for example, each boundary of L1 to L6 or a GCL / IPL, IPL / INL, INL / OPL, and OPL / ONL boundary (not shown) in the tomographic image of FIG. An example of the boundary detection process is as follows. First, the detection unit 333 applies the median filter and the Sobel filter to the tomographic image to be processed, and creates an image (hereinafter referred to as a median image and a Sobel image). Next, the detection unit 333 creates a profile for each A scan from the created median image and Sobel image. A brightness value profile is created from the median image, and a gradient profile is created from the Sobel image. Then, the detection unit 333 detects a peak in the profile created from the Sobel image. The detection unit 333 detects the boundary of each region of the retinal layer by referring to the profile of the median image before and after the detected peak and between the peaks. Note that the method of detecting the boundary line in the retinal layer is not limited to the above.

次にステップS352において、画像生成部332は、三次元のモーションコントラストデータに対して指定された生成範囲上端と生成範囲下端との範囲に対応するモーションコントラストデータを二次元平面上に投影し、OCTA画像を生成する。例えば、画像生成部332は、全体のモーションコントラストデータのうち生成範囲上端と生成範囲下端の間のモーションコントラストデータについて平均値投影(AIP)、あるいは最大値投影(MIP)などの処理を行う。これにより、3次元モーションコントラストデータのEnface画像(正面画像)であるOCTA画像が生成される。すなわち、ステップS352では、それぞれ異なる時刻における眼底の同一位置に関する複数の(N個の)モーションコントラスト画像(OCTA画像)が取得される。なお、OCTA画像の生成方法は平均値や最大値を用いた投影に限らない。最小値、中央値、分散、標準偏差、総和などの値でOCTA画像が生成されても良い。   Next, in step S352, the image generation unit 332 projects motion contrast data corresponding to the range between the upper end of the generation range and the lower end of the generation range specified for the three-dimensional motion contrast data on the two-dimensional plane, and OCTA. Generate an image. For example, the image generation unit 332 performs processing such as average value projection (AIP) or maximum value projection (MIP) on motion contrast data between the upper end of the generation range and the lower end of the generation range of the entire motion contrast data. As a result, an OCTA image that is an Enface image (front image) of the three-dimensional motion contrast data is generated. That is, in step S352, a plurality of (N) motion contrast images (OCTA images) relating to the same position of the fundus at different times are acquired. The OCTA image generation method is not limited to the projection using the average value or the maximum value. An OCTA image may be generated with values such as a minimum value, median value, variance, standard deviation, and sum.

なお、本実施形態においては、生成範囲上端をILM/NFL境界線、生成範囲下端をGCL/IPLから深度方向に50μm下端の境界線とし、平均値投影法でOCTA画像を生成するものとする。また、モーションコントラストデータ生成部312が、生成範囲上端と生成範囲下端の間の範囲の断層データを用いてモーションコントラストデータを生成する構成としてもよい。この場合、生成範囲上端と生成範囲下端の間のモーションコントラストデータが得られるので、画像生成部332は、生成範囲上端と生成範囲下端の範囲を考慮する必要がなくなる。すなわち、画像生成部332は、モーションコントラストデータ生成部312によって生成されたモーションコントラストデータの全体を用いて、平均値投影などを実行することにより、指定された深さ範囲の断層データに基づくOCTA画像を生成することができる。   In this embodiment, the upper end of the generation range is the ILM / NFL boundary line, the lower end of the generation range is the boundary line at the lower end of 50 μm from the GCL / IPL, and the OCTA image is generated by the average value projection method. The motion contrast data generation unit 312 may generate motion contrast data using tomographic data in a range between the upper end of the generation range and the lower end of the generation range. In this case, since motion contrast data between the upper end of the generation range and the lower end of the generation range is obtained, the image generation unit 332 does not need to consider the range between the upper end of the generation range and the lower end of the generation range. That is, the image generation unit 332 performs an average value projection or the like using the entire motion contrast data generated by the motion contrast data generation unit 312, so that the OCTA image based on the tomographic data in the specified depth range. Can be generated.

次に、ステップS353において、第一の位置合わせ部334は、N個の三次元ボリュームに基づいて得られたN枚のOCTA画像において、画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせをそれぞれ行う。この位置合わせ処理について図4(a)のフローチャートを用いて説明する。   Next, in step S353, the first alignment unit 334 determines the horizontal direction (x axis) and the vertical direction (y axis) of the N OCTA images obtained based on the N three-dimensional volumes. , Rotation alignment in the xy plane is performed. This alignment process will be described with reference to the flowchart of FIG.

図4(a)のステップS3531において、複数のモーションコントラスト画像(OCTA画像)に対してアーティファクトを低減する低減処理が行われる。例えば、前処理部331は、画像生成部332が生成したOCTA画像から黒帯や白線のようなアーティファクトを検出し、検出したアーティファクトを除去する。これについて図6を用いて説明をする。図6において、OCTA画像の黒い領域は脱相関値が高い場所、すなわち血液の流れが検出された場所(血管に相当する)を表し、白い領域は、脱相関値が低い場所を表す。図6(a)のBBは黒帯の例で、図6(b)のWLは白線の例を示している。黒帯は、撮影中の動きにより、網膜の位置が感度の高い位置から遠ざかることで網膜断層像の輝度値が低下し脱相関の値が低くなったり、まばたき等により画像全体が暗くなることで脱相関の値が低くなったりすることで発生する。白線は、脱相関の計算においてM個の断層像を位置合わせして計算をするが、位置合わせがうまくいかなかったり、位置合わせで位置を補正しきれなかったりする場合に、画像全体の脱相関値が高くなることで発生する。これらのアーティファクトは脱相関の計算において発生するため、主走査方向の1ライン単位で発生する。そのため、前処理部331は、1ライン単位でアーティファクトを検出する。   In step S3531 in FIG. 4A, a reduction process for reducing artifacts is performed on a plurality of motion contrast images (OCTA images). For example, the preprocessing unit 331 detects an artifact such as a black belt or a white line from the OCTA image generated by the image generation unit 332, and removes the detected artifact. This will be described with reference to FIG. In FIG. 6, the black area of the OCTA image represents a place where the decorrelation value is high, that is, a place where blood flow is detected (corresponding to a blood vessel), and the white area represents a place where the decorrelation value is low. BB in FIG. 6A is an example of a black belt, and WL in FIG. 6B is an example of a white line. The black belt is a phenomenon in which the brightness value of the retinal tomogram decreases and the decorrelation value decreases due to the movement of the retina away from a highly sensitive position due to movement during shooting, and the entire image becomes dark due to blinking, etc. It occurs when the value of decorrelation becomes low. The white line is calculated by aligning M tomographic images in the calculation of decorrelation. If the alignment is not successful or if the position cannot be corrected by the alignment, the entire image is decorrelated. Occurs when the value increases. Since these artifacts occur in the calculation of decorrelation, they occur in units of one line in the main scanning direction. Therefore, the preprocessing unit 331 detects artifacts in units of one line.

例えば、黒帯検出は、1ラインでの脱相関の平均値が閾値THAVG_B以下の場合、黒帯とする。白線検出は、1ラインでの脱相関値の平均値が閾値THAVG_W以上で、かつ、標準偏差(あるいは分散値)がTHSD_W以下である場合、白線とする。大血管などで脱相関値が高く出る場合があるため、平均値だけで白線検出の判定を行うとこれらのような脱相関値の高い血管が含まれる領域を白線と誤検出してしまう事がある。そのため、本実施形態では、標準偏差や分散のような値のばらつきを評価する指標と組み合わせて白線か否かを判断する。脱相関値の高い血管が含まれる1ラインでは、平均値が高く、標準偏差も高くなる。一方、白線では、平均値は高いが値のばらつきは小さいため、標準偏差は低くなる。したがって、脱相関の平均値とばらつきに基づいて白線検出を行うことで、誤検出を低減することができる。 For example, black band detection is performed when the average value of decorrelation in one line is equal to or less than the threshold value TH AVG_B . The white line detection is a white line when the average value of the decorrelation values in one line is equal to or greater than the threshold value TH AVG_W and the standard deviation (or variance value) is equal to or less than TH SD_W . Since the correlation value may be high in large blood vessels, etc., if white line detection determination is performed using only the average value, a region containing blood vessels with high correlation values such as these may be erroneously detected as a white line. is there. For this reason, in the present embodiment, it is determined whether or not a white line is combined with an index for evaluating variation in values such as standard deviation and variance. In one line including a blood vessel having a high decorrelation value, the average value is high and the standard deviation is also high. On the other hand, in the white line, the average value is high but the variation in value is small, so the standard deviation is low. Therefore, it is possible to reduce false detection by performing white line detection based on the average value and variation of the decorrelation.

前処理部331は、上記で求めたアーティファクト領域を、OCTA画像に対応するMask画像に記憶しておく。図6のMask画像において、白い領域は1、黒い領域は0の値を設定した例を示す。なお、OCTA画像では、健常眼であるか患眼であるかに応じて、また、患眼の病気の種類に応じて、脱相関値の値が変動する。そのため、上述した黒帯検出、白線検出に用いられる閾値は、画像毎に設定されることが望ましい。例えば、P−tileや判別分析のような動的閾値法を用いて、OCTA画像の明るさに応じて閾値を設定することが望ましい。なお、動的閾値法を用いる場合、上限閾値と下限閾値を事前に設定しておき、その値を上回るか下回る場合には、それら上限閾値あるいは下限閾値が閾値として設定される。   The preprocessing unit 331 stores the artifact area obtained above in a Mask image corresponding to the OCTA image. In the Mask image of FIG. 6, an example is shown in which a white area is set to 1 and a black area is set to 0. In the OCTA image, the value of the decorrelation value varies depending on whether the eye is a normal eye or an affected eye, and depending on the type of disease of the affected eye. For this reason, it is desirable that the threshold values used for the black band detection and the white line detection described above are set for each image. For example, it is desirable to set a threshold according to the brightness of the OCTA image using a dynamic threshold method such as P-tile or discriminant analysis. When the dynamic threshold method is used, an upper limit threshold and a lower limit threshold are set in advance, and when the value exceeds or falls below these values, the upper limit threshold or the lower limit threshold is set as the threshold.

ステップS3532において、第一の位置合わせ部334は、各OCTA画像をそれぞれ位置合わせした場合の位置合わせパラメータを保存するための二次元行列を初期化する。各行列の要素には、位置合わせ時の変形パラメータや画像類似度などの画像高画質化に必要な情報をまとめて保存する。   In step S3532, the first alignment unit 334 initializes a two-dimensional matrix for storing alignment parameters when the OCTA images are aligned. In each matrix element, information necessary for high image quality such as deformation parameters and image similarity at the time of alignment is collectively stored.

ステップS3533において、第一の位置合わせ部334は、位置合わせ対象のOCTA画像を選択する。本実施形態においては、N枚の全てのOCTA画像を順次に位置合わせの基準となる画像(以下、対象画像)に設定し、対象画像に設定されたOCTA画像と残りのOCTA画像と位置合わせが行われる(位置合わせはステップS3534で実行される)。例えば、ステップS3533においてData0のOCTA画像が対象画像に選択された場合、Data1〜Data(N−1)のそれぞれのOCTA画像と位置合わせが行われる。次に、Data1のOCTA画像が対象画像に選択されると、Data2〜Data(N−1)のそれぞれのOCTA画像と位置合わせが行われる。次に、Data2のOCTA画像が対象画像に選択されると、Data3〜Data(N−1)のそれぞれのOCTA画像と位置合わせが行われる。この例を図7(a)に示す。図7(a)では簡単のため、Data0〜Data2を示しているが、三次元ボリュームをN回撮影している場合には、N個のOCTA画像間で位置合わせが行われる。   In step S3533, the first alignment unit 334 selects an OCTA image to be aligned. In the present embodiment, all the N OCTA images are sequentially set as an image serving as a reference for alignment (hereinafter referred to as a target image), and the OCTA image set as the target image and the remaining OCTA images are aligned. Performed (alignment is performed in step S3534). For example, when a Data0 OCTA image is selected as a target image in step S3533, alignment is performed with each of the Data1 to Data (N-1) OCTA images. Next, when an OCTA image of Data1 is selected as a target image, alignment with each of the OCTA images of Data2 to Data (N-1) is performed. Next, when an OCTA image of Data2 is selected as a target image, alignment with each of the OCTA images of Data3 to Data (N-1) is performed. An example of this is shown in FIG. For simplicity, Data0 to Data2 are shown in FIG. 7A. However, when a three-dimensional volume is imaged N times, alignment is performed between N OCTA images.

なお、対象画像となるOCTA画像のData番号を1つずつ繰り上げた場合に、位置合わせの対象となるOCTA画像のスタートのData番号も1つずつ大きくする。例えば、Data2のOCTA画像を基準とする場合に、Data0とData1、Data0とData2、Data1とData2のOCTA画像の位置合わせはすでに終えている。それまでの処理(Data0とData1のOCTA画像を基準とした位置合わせ処理)により、それらのOCTA画像の組み合わせについての位置合わせが行われるからである。そのため、Data2のOCTA画像を基準とする場合には、Data3から位置合わせをすればよい。これにより、全部のOCTA画像同士の位置合わせとはいえ、半分の組み合わせを計算すればよいことになる。   When the Data number of the OCTA image that is the target image is incremented by one, the start Data number of the OCTA image that is the target of alignment is also increased by one. For example, when the OC2 image of Data2 is used as a reference, the alignment of the OCTA images of Data0 and Data1, Data0 and Data2, and Data1 and Data2 has already been completed. This is because the alignment for the combination of the OCTA images is performed by the processing up to that point (alignment processing based on the OCTA images of Data0 and Data1). Therefore, when the OCTA image of Data2 is used as a reference, alignment is performed from Data3. Thereby, although it is the alignment of all the OCTA images, a half combination may be calculated.

ステップS3534において、第一の位置合わせ部334は、ステップS3533において対象画像として選択したOCTA画像と他のOCTA画像との間で、画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせを行う。OCTA画像間の位置合わせでは、xy面内においてサブピクセル位置合わせを行うために、OCTA画像のサイズを拡大して位置合わせを行う。サブピクセル位置合わせとすることで、ピクセル位置合わせよりも位置合わせの精度が向上することが期待されるからである。例えば、OCTA画像の撮影サイズを300×300とした場合、600×600に拡大をする。拡大する際にはBicubicやLanczos(n)法のような補間方法を用いる。そして、画像同士の位置合わせ処理としては、例えば、2つのOCTA画像の類似度を表す評価関数を事前に定義しておき、OCTA画像位置をずらしたり、回転させたりしながら評価値を計算し、評価値が最もよくなる場所を位置合わせ結果とする。評価関数としては、画素値で評価する方法が挙げられる(例えば、相関係数を用いて評価を行う方法が挙げられる)。類似度Sを表す評価関数として相関係数を用いた場合の式を[数2]に示す。   In step S3534, the first alignment unit 334 determines that the horizontal direction (x-axis) and the vertical direction (y-axis) of the image between the OCTA image selected as the target image in step S3533 and another OCTA image, xy. Perform in-plane rotational alignment. In the alignment between the OCTA images, in order to perform the sub-pixel alignment in the xy plane, the alignment is performed by enlarging the size of the OCTA image. This is because the subpixel alignment is expected to improve the alignment accuracy over the pixel alignment. For example, when the photographing size of the OCTA image is 300 × 300, it is enlarged to 600 × 600. When enlarging, an interpolation method such as Bicubic or Lanczos (n) method is used. And as an alignment process between images, for example, an evaluation function representing the similarity between two OCTA images is defined in advance, and an evaluation value is calculated while shifting or rotating the OCTA image position, The location where the evaluation value is the best is taken as the alignment result. Examples of the evaluation function include a method of evaluating with a pixel value (for example, a method of performing evaluation using a correlation coefficient). An expression in the case of using a correlation coefficient as an evaluation function representing the similarity S is shown in [Equation 2].

[数2]において、Data0のOCTA画像の領域をf(x,y)、Data1のOCTA画像の領域をg(x,y)とする。fave、gaveは、それぞれ領域f(x,y)と領域g(x,y)の平均を表す。なお、ここで領域とは位置合わせに用いるための画像領域であり、通常OCTA画像のサイズ以下の領域が設定され、ROIのサイズが設定される。 In [Expression 2], the area of the Data0 OCTA image is f (x, y), and the area of the Data1 OCTA image is g (x, y). f ave and g ave represent the average of the region f (x, y) and the region g (x, y), respectively. Here, the area is an image area used for alignment, and an area equal to or smaller than the size of the normal OCTA image is set, and the size of the ROI is set.

また、評価関数としては、[数2]に限らずSSD(Sum of Squared Difference)や、SAD(Sum of Absolute Difference)でもよく、画像の類似度あるいは相違度を評価出来ればよい。あるいは、POC(Phase Only Correlation)のような方法で、位置合わせを行っても良い。この処理により、XY面内の大局的な位置合わせが行われる。   The evaluation function is not limited to [Equation 2], and may be SSD (Sum of Squared Difference) or SAD (Sum of Absolute Difference), as long as the similarity or difference of images can be evaluated. Alternatively, alignment may be performed by a method such as POC (Phase Only Correlation). Through this processing, global alignment within the XY plane is performed.

なお、ここではOCTA画像のサイズを拡大して位置合わせを行う例について示したが、これに限らない。また、入力のOCTA画像サイズが900×900のような高密度スキャンの場合には、必ずしも拡大をする必要はない。また、位置合わせを高速で行うため、ピラミッド構造データを生成して位置合わせをしてもよい。   In addition, although the example which expands the size of an OCTA image here and performs the alignment was shown, it does not restrict to this. Further, when the input OCTA image size is a high-density scan such as 900 × 900, enlargement is not necessarily required. Further, in order to perform alignment at high speed, the alignment may be performed by generating pyramid structure data.

次に、ステップS3535において、第一の位置合わせ部334は、対象画像として選択されているOCTA画像の画像評価値を計算する。画像評価値は、ステップS3534で二次元位置合わせ済みとなっているOCTA画像において、位置合わせにより発生する無効領域を含まない画像の共通領域を用いて計算される。例えば、画像評価値Qは[数3]で求めることが出来る。
Next, in step S3535, the first alignment unit 334 calculates an image evaluation value of the OCTA image selected as the target image. The image evaluation value is calculated using the common area of the image that does not include the invalid area generated by the alignment in the OCTA image that has been two-dimensionally aligned in step S3534. For example, the image evaluation value Q can be obtained by [Equation 3].

[数3]において、Data0のOCTA画像の領域をf(x,y)、Data1のOCTA画像の領域をg(x,y)とする。最初の項は相関係数を表し、[数2]で示した式と同様である。そのため、式の中のσ、σはそれぞれ、[数2]で示したものと対応する。2番目の項は明るさを評価する項であり、fave、gaveは、それぞれ領域f(x,y)と領域g(x,y)の平均を表す。3番目の項はコントラストを評価する項である。それぞれの項は、最小値が0で、最大値は1となる。例えば、Data0とData1が同じ画像である場合には評価値は1となる。そのため、N個のOCTA画像の中で平均的な画像を基準とした場合に評価値は高くなり、他のOCTA画像と異なるようなOCTA画像を基準とした場合には評価値は低くなる。ここで、他のOCTA画像と異なるということは、撮影位置が異なる、画像がひずんでいる、全体的に暗いあるいは明るすぎる、白線や黒帯などのアーティファクトが含まれているような場合である。1つの対象画像について他のN−1個のOCTA画像との間で[数3]によるQが計算されるので、これらQの合計が評価値として用いられる。なお、画像評価値は必ずしも[数3]を用いる必要はなく、それぞれの項を単独で評価しても良いし、組み合わせを変えても良い。 In [Expression 3], the area of the Data0 OCTA image is f (x, y), and the area of the Data1 OCTA image is g (x, y). The first term represents the correlation coefficient and is the same as the equation shown in [Expression 2]. Therefore, σ f and σ g in the formula correspond to those shown in [Equation 2], respectively. The second term is a term for evaluating brightness, and f ave and g ave represent the average of the region f (x, y) and the region g (x, y), respectively. The third term is a term for evaluating contrast. Each term has a minimum value of 0 and a maximum value of 1. For example, if Data0 and Data1 are the same image, the evaluation value is 1. Therefore, the evaluation value is high when an average image among N OCTA images is used as a reference, and the evaluation value is low when an OCTA image that is different from other OCTA images is used as a reference. Here, being different from other OCTA images is a case where the photographing position is different, the image is distorted, the entire image is dark or too bright, and artifacts such as white lines and black bands are included. Since Q based on [Equation 3] is calculated for one target image with other N-1 OCTA images, the sum of these Qs is used as an evaluation value. Note that it is not always necessary to use [Equation 3] as the image evaluation value, and each term may be evaluated independently or the combination may be changed.

ステップS3536において、第一の位置合わせ部334は、ステップS3532で初期化した位置合わせや画像類似度などの画像高画質化に必要なパラメータを保存するための2次元行列に対して値を保存する。例えば、対象画像をData0とし、これをData1の画像と位置合わせする場合、2次元行列の要素(0、1)に横方向の位置合わせパラメータX、縦方向の位置合わせパラメータY、XY面内の回転パラメータα、画像評価値、画像類似度を保存する。これらの情報の他に、図6で示したMask画像をOCTA画像と関連付けて保存しておく。さらに、本実施形態では説明をしないが、倍率補正を行う場合には、その倍率が保存されても良い。   In step S3536, the first alignment unit 334 stores values in a two-dimensional matrix for storing parameters necessary for image quality improvement such as alignment and image similarity initialized in step S3532. . For example, when the target image is Data0 and is aligned with the Data1 image, the horizontal alignment parameter X, the vertical alignment parameter Y, and the XY plane are aligned with the elements (0, 1) of the two-dimensional matrix. The rotation parameter α, the image evaluation value, and the image similarity are stored. In addition to these pieces of information, the Mask image shown in FIG. 6 is stored in association with the OCTA image. Further, although not described in the present embodiment, when magnification correction is performed, the magnification may be stored.

ステップS3537において、第一の位置合わせ部334は、全てのOCTA画像を対象画像として残りのOCTA画像と位置合わせを行ったか否かを判定する。全てのOCTA画像を基準として処理をしていない場合には、処理はステップS3533に戻る。全てのOCTA画像を基準として処理をした場合には、処理はステップS3538に進む。   In step S3537, the first alignment unit 334 determines whether or not all OCTA images have been aligned with the remaining OCTA images as target images. If processing has not been performed on all OCTA images, the process returns to step S3533. If processing has been performed using all OCTA images as a reference, the process proceeds to step S3538.

ステップS3538において、第一の位置合わせ部334は、2次元行列の残りの要素を更新する。ステップS3533〜S3537で説明したように、N個のOCTA画像の半分の組み合わせについてしか計算をしていない。そのため、計算をしていない要素にこれらの値をコピーする。例えば、2次元行列の要素(0、1)のパラメータは(1、0)の要素にコピーされる。すなわち、第一の位置合わせ部334は、要素(i、j)を要素(j、i)にコピーする。この際、位置合わせパラメータX、Yと回転パラメータαは逆になるため、負の値を掛けてコピーをする。なお、画像類似度などは逆にならないため、同じ値をそのままコピーする。これらの処理によりOCTA画像位置合わせが行われる。   In step S3538, the first alignment unit 334 updates the remaining elements of the two-dimensional matrix. As described in steps S3533 to S3537, calculation is performed only for a half combination of N OCTA images. Therefore, these values are copied to the elements that are not calculated. For example, the parameter of the element (0, 1) of the two-dimensional matrix is copied to the element (1, 0). That is, the first alignment unit 334 copies the element (i, j) to the element (j, i). At this time, since the alignment parameters X and Y and the rotation parameter α are reversed, copying is performed by multiplying a negative value. Since the image similarity and the like are not reversed, the same value is copied as it is. The OCTA image alignment is performed by these processes.

図3(b)に戻り、ステップS354において、選択部335は、ステップS353で行った位置合わせの結果に基づいて、N個のOCTA画像から基準画像を選択する。ステップS353で生成された2次元行列の各要素には高画質化画像の生成に必要な情報が保存されており、選択部335は、その情報を用いることで基準画像の選択を行う。選択部335は、基準画像の選択において、例えば、画像評価値、位置合わせパラメータ評価値、アーティファクト領域評価値を用いる。画像評価値には、ステップS3535で求めた値(例えば、[数3]により求められた値Q)が用いられる。位置合わせパラメータ評価値は、ステップS3534で求めた位置合わせ結果のXとYを用いて、例えば、[数4]により取得される。[数4]では、移動量が大きいほど大きな値となる。
Returning to FIG. 3B, in step S354, the selection unit 335 selects a reference image from the N OCTA images based on the result of the alignment performed in step S353. Information necessary for generating a high-quality image is stored in each element of the two-dimensional matrix generated in step S353, and the selection unit 335 uses the information to select a reference image. The selection unit 335 uses, for example, an image evaluation value, an alignment parameter evaluation value, and an artifact region evaluation value in selecting a reference image. As the image evaluation value, the value obtained in step S3535 (for example, the value Q obtained by [Equation 3]) is used. The alignment parameter evaluation value is acquired by, for example, [Equation 4] using X and Y of the alignment result obtained in step S3534. In [Equation 4], the larger the movement amount, the larger the value.

アーティファクト領域評価値は、ステップS3531で求めたMask画像を用いて、例えば、[数5]により計算される。[数5]では、T(x,y)はMask画像でのアーティファクトではない領域のピクセルを表し、A(x,y)はMask画像の全ピクセルを表す。そのため、アーティファクトが存在しない場合、アーティファクト領域評価値NAは最大値(NA=1)となる。
The artifact region evaluation value is calculated by, for example, [Equation 5] using the Mask image obtained in step S3531. In [Equation 5], T (x, y) represents a pixel in a region that is not an artifact in the Mask image, and A (x, y) represents all the pixels in the Mask image. Therefore, when there is no artifact, the artifact area evaluation value NA is the maximum value (NA = 1).

画像評価値Qとアーティファクト領域評価値NAは数値が大きい方が良く、位置合わせパラメータ評価値SVは数値が小さい方が良い。また、画像評価値と位置合わせパラメータ評価値は、ある画像を基準とした時に、その他の画像との関係で求める値であるため、N−1個の合計値となる。これらの評価値は評価尺度が異なるため、選択部335は、それぞれの値でソートを行い、ソートしたインデックスの合計値により基準画像を選択する。例えば、選択部335は、画像評価値とアーティファクト領域評価値は数値が大きいほどソート後のインデックスが小さくなるようにソートを行い、位置合わせパラメータ評価値は数値が小さいほどソート後のインデックスが小さくなるようにソートを行う。そして、選択部335は、これらのソート後のインデックス値が最も小さくなるOCTA画像を基準画像として選択する。   The image evaluation value Q and the artifact area evaluation value NA should be larger in numerical value, and the alignment parameter evaluation value SV should be smaller. Further, since the image evaluation value and the alignment parameter evaluation value are values obtained in relation to other images when a certain image is used as a reference, they are N−1 total values. Since these evaluation values have different evaluation scales, the selection unit 335 sorts by each value, and selects a reference image based on the total value of the sorted indexes. For example, the selection unit 335 sorts the image evaluation value and the artifact area evaluation value so that the index after sorting decreases as the numerical value increases, and the index after sorting decreases as the numerical value of the alignment parameter evaluation value decreases. Sort as follows. Then, the selection unit 335 selects the OCTA image having the smallest index value after sorting as the reference image.

なお、基準画像を選択する方法について、ソート値を合計することで基準画像を選択する例について述べたがこれに限らない。それぞれの評価値のソート後のインデックスに重みをつけて評価値を計算するようにしても良い。あるいは、ソート値ではなく、それぞれの評価値が1になるように正規化をして計算するようにしても良い。例えば、画像評価値は1に正規化しているが、本実施形態においてはN−1個の合計値であるため、平均値を用いるようにすればよい。   In addition, about the method of selecting a reference image, although the example which selects a reference image by totaling a sort value was described, it is not restricted to this. The evaluation values may be calculated by assigning weights to the sorted indexes of the evaluation values. Alternatively, normalization may be performed so that each evaluation value becomes 1 instead of the sort value. For example, the image evaluation value is normalized to 1, but in this embodiment, since it is N−1 total values, an average value may be used.

また、位置合わせパラメータ評価値は、[数6]のように定義すれば1に正規化でき、この場合、評価値が1に近いほうが良い評価値となる。
Further, the alignment parameter evaluation value can be normalized to 1 if defined as in [Equation 6]. In this case, the evaluation value closer to 1 is a better evaluation value.

[数6]において、SVは[数4]で求めた値のN−1個の合計値で、添え字のnはData番号に対応する。そのため、Data0の場合は、SVである。SVmaxは、Data0〜Data(N−1)の間で最大の位置合わせパラメータ評価値である。αは重みであり、SVとSVmaxが同じ数値の時に、NSVの値をいくつに設定するかを調整するパラメータである。なお、最大値SVmaxは上述したように実際のデータから決めても良いし、閾値として事前に定義しておいても良い。アーティファクト領域評価値は0〜1に正規化してあるので、そのまま用いればよい。このように、全ての評価値を1に正規化した場合には、評価値の合計値が最も大きくなるものを基準画像として選択する。 In Equation 6], SV n is the N-1 sum of values obtained in Equation 4], n subscript corresponds to the Data number. Therefore, in the case of Data0, a SV 0. SV max is the maximum alignment parameter evaluation value between Data0 and Data (N-1). α is a weight, and is a parameter for adjusting how many values of NSV n are set when SV n and SV max are the same numerical value. The maximum value SV max may be determined from actual data as described above, or may be defined in advance as a threshold value. Since the artifact region evaluation value is normalized to 0 to 1, it can be used as it is. As described above, when all the evaluation values are normalized to 1, the image having the largest evaluation value is selected as the reference image.

ここで説明したように、基準画像は、N個の画像の中で平均的な画像であり、他の画像を位置合わせする際に移動量が少なく、アーティファクトが少ないという条件を最も満たす画像が選択される。この例により選択される基準画像の例を図7(b)に示す。この例では、基準画像にData1が選択されている。そして、Data0とData2は、第一の位置合わせ部334で求めた位置合わせパラメータに基づき、それぞれ移動している。   As described here, the reference image is an average image among the N images, and the image that satisfies the condition that the movement amount is small and the artifacts are small when the other images are aligned is selected. Is done. An example of the reference image selected by this example is shown in FIG. In this example, Data1 is selected as the reference image. Data0 and Data2 are moved based on the alignment parameters obtained by the first alignment unit 334, respectively.

次に、ステップS355において、第二の位置合わせ部336は、ステップS354において基準画像として選択されたOCTA画像を用いて網膜の横方向(x軸)の位置合わせを行う。これについて図8を用いて説明をする。図8(a)は、基準画像がData1で、位置合わせ対象がData2の場合に、Data2の横方向位置合わせを行う例を示している。また、Maskは、Data2に含まれるアーティファクト(図では横方向の黒いライン)と、Data1との位置合わせの結果Data2が移動することにより生じる無効領域(図では縦方向の黒いライン)に0を設定してある。第二の位置合わせ部336は、基準画像と位置合わせ対象画像について、それぞれのラインで横方向に位置合わせを行い、ライン単位での類似度を計算する。類似度の計算には、例えば[数2]が用いられ得る。そして、第二の位置合わせ部336は、類似度が最大となる位置にラインを移動させる。また、ライン単位で基準画像に対しての類似度を計算し、類似度に応じてMaskに重みを設定する。   Next, in step S355, the second alignment unit 336 performs alignment in the lateral direction (x-axis) of the retina using the OCTA image selected as the reference image in step S354. This will be described with reference to FIG. FIG. 8A illustrates an example in which the horizontal alignment of Data2 is performed when the reference image is Data1 and the alignment target is Data2. Mask sets 0 to an invalid area (vertical black line in the figure) generated by the movement of Data2 as a result of alignment with the artifact (horizontal black line in the figure) included in Data2 and alignment with Data1. It is. The second alignment unit 336 aligns the horizontal direction of each line with respect to the reference image and the alignment target image, and calculates the similarity in line units. For example, [Equation 2] can be used for calculating the similarity. Then, the second alignment unit 336 moves the line to a position where the similarity is maximized. Also, the similarity to the reference image is calculated in line units, and a weight is set to Mask according to the similarity.

第二の位置合わせ部336による位置合わせ結果の他の例を図8(b)に示す。図8(b)では、画像上端と画像中心付近では、基準画像と似ていないと判断し、重ね合わせに使用しないラインとしてMask画像に横方向の黒ライン801、802を設定した例を示している。また、画像中心付近と画像下端では、ライン単位の位置合わせの結果として、中心付近では右側にずらし、画像下端では左側にずらした例を示している。画像をずらす事で無効領域が生じるため、第二の位置合わせ部336は、Maskにおいて生じた無効領域803、804に0を設定する。この処理により、XY面内の局所的な位置合わせが行われる。   Another example of the alignment result by the second alignment unit 336 is shown in FIG. FIG. 8B shows an example in which the black image 801 and 802 in the horizontal direction are set in the Mask image as lines that are determined not to be similar to the reference image near the upper end of the image and near the center of the image and are not used for superimposition. Yes. Further, an example in which the vicinity of the center of the image and the lower end of the image are shifted to the right near the center and shifted to the left at the lower end of the image as a result of the alignment in line units. Since the invalid area is generated by shifting the image, the second alignment unit 336 sets 0 to the invalid areas 803 and 804 generated in Mask. By this processing, local alignment in the XY plane is performed.

なお、第一の位置合わせで求めた回転パラメータαに関して、第二の位置合わせを行う前にそれぞれの画像に対して適用しても良いし、第二の位置合わせを行った後に適用するようにしても良い。また、上記では、第二の位置合わせ部336は、x方向についての位置合わせを説明したが、y方向についても位置合わせを行えるようにしてよい。例えば、Data1の画像のあるラインとData2の画像の各ラインとの間で[数2]による類似度Sを計算し、最も類似度Sが大きいラインが対応するように、一方の画像をy方向にずらすことが考えられる。   Note that the rotation parameter α obtained in the first alignment may be applied to each image before the second alignment, or may be applied after the second alignment. May be. In the above description, the second alignment unit 336 has described the alignment in the x direction. However, the second alignment unit 336 may perform the alignment in the y direction. For example, the similarity S according to [Equation 2] is calculated between a certain line of the Data 1 image and each line of the Data 2 image, and one image is arranged in the y direction so that the line having the largest similarity S corresponds. It may be possible to shift to

ステップS356において、算出部340は、複数の(N個の)OCTA画像から統計値(平均値、標準偏差、変動係数、最大値、最小値など)を算出する。ここでは、平均値、標準偏差、変動係数について説明をする。算出部340は、最初に平均値を求める。算出部340は、複数のOCTA画像と複数のMask画像について、対応するOCTA画像とMask画像の対応するピクセル値を掛け算した値の合計値SUM_Aと、複数のMask画像の対応するピクセル値の合計値SUM_Bをそれぞれ保持しておく。Mask画像にはアーティファクトとして除去した無効領域や、位置合わせによりデータが存在しない無効領域が0として保存されているため、Mask画像の合計値SUM_Bにはピクセル位置毎に異なる値が保持される。通常、位置合わせにおいてXY毎、数10ピクセルの移動が想定されるため、重ね合わせに用いたデータ数がN個である場合、画像中心付近のSUM_Bのピクセル値はNであり、画像端部のSUM_Bのピクセル値はNよりも小さい値になる。そして、SUM_AをSUM_Bで割ることにより各ピクセルの平均値が求まる。これにより、加算平均画像が生成される。眼底のOCTA画像を用いる本実施形態の場合、このようにして生成された加算平均画像は、例えば、眼底の血管の形態を示す画像となる。   In step S356, the calculation unit 340 calculates a statistical value (an average value, a standard deviation, a variation coefficient, a maximum value, a minimum value, etc.) from a plurality of (N) OCTA images. Here, the average value, standard deviation, and variation coefficient will be described. The calculation unit 340 first obtains an average value. The calculation unit 340 includes, for a plurality of OCTA images and a plurality of Mask images, a total value SUM_A obtained by multiplying the corresponding pixel values of the corresponding OCTA image and the Mask image, and a total value of the corresponding pixel values of the plurality of Mask images. Each SUM_B is held. In the Mask image, invalid areas removed as artifacts and invalid areas in which no data exists due to the alignment are stored as 0. Therefore, the total value SUM_B of the Mask image holds a different value for each pixel position. Usually, since movement of several tens of pixels is assumed for each XY in the alignment, when the number of data used for superposition is N, the pixel value of SUM_B near the center of the image is N, and The pixel value of SUM_B is a value smaller than N. Then, the average value of each pixel is obtained by dividing SUM_A by SUM_B. Thereby, an addition average image is generated. In the case of the present embodiment using the fundus OCTA image, the addition average image generated in this way is, for example, an image showing the blood vessel morphology of the fundus.

次に、標準偏差と変動係数について説明する。本実施形態では、複数のモーションコントラスト画像の対応する複数の画素における輝度(モーションコントラスト値)のばらつきを示す値(例えば、標準偏差、分散など)に基づいて出力画像としての変動画像が生成される。なお、本実施形態では、ばらつきを示す値は、対応する複数の画素における輝度の代表値(例えば、上述の平均値、あるいは、中央値など)により正規化して用いられる。以下では、輝度のばらつきを標準偏差により求め、正規化のための代表値として平均値を用いた例を説明する。なお、変動係数を画像化したデータを変動画像として用いることもできるが、本実施形態では、ステップS306で説明するように、変動画像生成部341により血管部分が抽出された変動画像が生成される。   Next, the standard deviation and the variation coefficient will be described. In the present embodiment, a variation image as an output image is generated based on a value (for example, standard deviation, variance, etc.) indicating variation in luminance (motion contrast value) in a plurality of corresponding pixels of a plurality of motion contrast images. . In the present embodiment, the value indicating variation is used after being normalized by a representative value of luminance (for example, the above average value or median value) in a plurality of corresponding pixels. In the following, an example will be described in which the luminance variation is obtained from the standard deviation, and the average value is used as a representative value for normalization. Although the data obtained by imaging the variation coefficient can be used as the variation image, in this embodiment, as described in step S306, the variation image from which the blood vessel portion is extracted by the variation image generation unit 341 is generated. .

標準偏差と変動係数を計算する際にもMask画像を用いて、無効領域となるピクセルは計算から除外する。なお、Mask画像を用いて無効領域を計算から除外するが、計算に用いるピクセルの数が閾値以下(例えば、1以下)のピクセルでは、標準偏差や変動係数の計算は行えない。そのため、最終的な画像として表示する際に無効領域であることが分かるように、例えば0としておくことで、無効であることが分かるようにする。標準偏差は、平均値と各ピクセルの値から求めることが出来る。複数のOCTA画像から求める標準偏差の式を[数7]に示す。
When calculating the standard deviation and the coefficient of variation, the mask image is also used to exclude pixels that are invalid areas from the calculation. Although the invalid area is excluded from the calculation using the Mask image, the standard deviation and the coefficient of variation cannot be calculated for pixels whose number of pixels used for the calculation is equal to or less than a threshold (for example, 1 or less). Therefore, for example, when it is set to 0, it can be seen that it is invalid so that it can be seen that it is an invalid area when displayed as a final image. The standard deviation can be obtained from the average value and the value of each pixel. The formula of standard deviation obtained from a plurality of OCTA images is shown in [Formula 7].

[数7]において、SDは標準偏差、nは各ピクセルにおいて計算に用いたピクセルの数、xaveは各ピクセルの平均値、xは各ピクセル値を表す。次に、変動係数の式を[数8]に示す。
In Equation 7], SD is standard deviation, n represents the number of pixels used for calculation at each pixel, x ave is an average value of each pixel, x i represents each pixel value. Next, the equation of the variation coefficient is shown in [Equation 8].

[数8]において、CVは変動係数を表す。すなわち、標準偏差を平均値で割った値となる。標準偏差では、平均値の大きいピクセルほど値が大きくなる傾向があるが、変動係数では、各ピクセルで平均値の大きさにばらつきがあるような場合であっても、ばらつきの度合いを比較することが可能となる。   In [Equation 8], CV represents a coefficient of variation. That is, the value obtained by dividing the standard deviation by the average value. With standard deviation, pixels with a larger average value tend to be larger, but with the coefficient of variation, even if the average value varies among pixels, the degree of variation must be compared. Is possible.

このように、OCTA画像間の変動係数を計算することで、画像同士のばらつきを評価することが出来る。循環障害などで流れが悪い血管に関しては、撮影の度にOCTA画像に血管として現れる場合と現れない場合が生じる。すなわち、変動係数(あるいは標準偏差)のような画像間のばらつきを評価する指標を用いることで、循環の良し悪しを把握することが出来る。流れが悪い部分の血管に関するOCTA画像の例について図9に示す。図9(a)は、異なる時刻に撮影された複数のOCTA画像1〜3であり、位置合わせ済みである画像の例を示す。そして、流れが悪い血管の例としてOCTA画像1〜3の血管901〜903を示す。血液が流れている時には、OCTA画像に血管901のように写るが、血液の流れが悪くなる時には、モーションコントラストの値が小さくなるため、血管902、903のように、ほとんど現れないか、写りが悪くなる。これらのOCTA画像1〜3を用いて変動係数を計算し、画像化する例を図9(b)に示す。図9(b)では、異なる時刻において変化のある血管901〜903に対応する箇所として部分910の値が高くなるため、この箇所に変化が現れる。   Thus, by calculating the coefficient of variation between OCTA images, it is possible to evaluate the variation between images. For blood vessels with poor flow due to circulatory disturbances, there are cases where they appear and do not appear as blood vessels in the OCTA image each time an image is taken. That is, by using an index for evaluating the variation between images, such as a coefficient of variation (or standard deviation), it is possible to grasp whether the circulation is good or bad. FIG. 9 shows an example of an OCTA image relating to a blood vessel in a poor flow portion. FIG. 9A shows an example of images that are a plurality of OCTA images 1 to 3 taken at different times and that have already been aligned. And blood vessels 901-903 of OCTA images 1-3 are shown as an example of a blood vessel with a bad flow. When blood is flowing, it appears in the OCTA image as a blood vessel 901, but when the blood flow deteriorates, the value of motion contrast becomes small, so that it hardly appears like the blood vessels 902 and 903, or there is a reflection. Deteriorate. FIG. 9B shows an example in which the coefficient of variation is calculated using these OCTA images 1 to 3 and imaged. In FIG. 9B, since the value of the portion 910 becomes high as a portion corresponding to the blood vessels 901 to 903 having changes at different times, a change appears in this portion.

なお、算出部340は、上述の様な統計値を計算する前に、各OCTA画像のヒストグラムを同じ基準に変換してから計算をするようにしても良い。OCTA画像のヒストグラムは、基準となる画像の標準偏差と平均値を定義しておき、OCTA画像毎に、定義した標準偏差と平均値になるように変換を行うことで、一定した平均値と標準偏差をもつ画像となる。   Note that the calculation unit 340 may calculate the histogram after converting the histogram of each OCTA image to the same reference before calculating the statistical value as described above. The histogram of the OCTA image defines a standard deviation and an average value of a reference image, and performs conversion so that the standard deviation and the average value are defined for each OCTA image, thereby obtaining a constant average value and a standard value. The image has a deviation.

次に、ステップS357において、画像生成部332は、算出部340が算出した平均値(加算平均画像)を高画質なOCTA画像として生成する。以上が図3(a)のステップS305における処理である。   Next, in step S357, the image generation unit 332 generates the average value (addition average image) calculated by the calculation unit 340 as a high-quality OCTA image. The above is the processing in step S305 in FIG.

次に、ステップS306において、変動画像生成部341は、ステップS356で算出部340が算出した統計値に基づいて変動画像を生成する。本実施形態では、変動画像生成部341は、複数のモーションコントラスト画像の加算平均画像(高画質なOCTA画像)に対して先鋭化処理または強調処理を施し、二値化処理を行うことにより血管の形態を示す画像を生成する。そして、変動画像生成部341は、血管の形態を示す画像に含まれる血管を示す領域に、複数のモーションコントラスト画像におけるモーションコントラスト値のばらつきを示す情報(CV)を対応付けることにより、変動画像を生成する。この変動画像の生成処理に関して、図4(b)のフローチャートを用いて説明する。   Next, in step S306, the fluctuation image generation unit 341 generates a fluctuation image based on the statistical value calculated by the calculation unit 340 in step S356. In the present embodiment, the fluctuation image generation unit 341 performs sharpening processing or enhancement processing on an addition average image (high-quality OCTA image) of a plurality of motion contrast images, and performs binarization processing to thereby perform blood vessel processing. An image showing the form is generated. Then, the variation image generation unit 341 generates a variation image by associating information (CV) indicating variation in motion contrast values in a plurality of motion contrast images with a region indicating a blood vessel included in the image indicating the shape of the blood vessel. To do. This variation image generation process will be described with reference to the flowchart of FIG.

ステップS361では、変動画像生成部341は、ステップS305で生成した高画質画像(加算平均画像)に対して、先鋭化処理または強調処理(以下、これらを強調処理と総称する)を行う。強調処理としては、例えば、UnsharpマスクやHessianフィルタなどを用いることができる。これにより、OCTA画像内の血管に相当する箇所の強調処理が行われる。なお、1つの強調処理が用いられてもよいし、複数の強調処理を行って得られたそれぞれの強調画像のAND処理を行っても良い。例えば、UnsharpマスクとHessianフィルタのいずれか1つの強調処理を用いて強調画像が取得されてもよいし、これら2つの強調処理を行って得られたそれぞれの強調画像のAND処理を行って強調画像が取得されてもよい。   In step S361, the fluctuation image generation unit 341 performs sharpening processing or enhancement processing (hereinafter collectively referred to as enhancement processing) on the high-quality image (addition average image) generated in step S305. As the enhancement processing, for example, an Unsharp mask or a Hessian filter can be used. Thereby, the emphasis process of the location corresponding to the blood vessel in the OCTA image is performed. Note that one enhancement process may be used, and an AND process of each enhancement image obtained by performing a plurality of enhancement processes may be performed. For example, an enhanced image may be acquired using any one enhancement process of an Unsharp mask and a Hessian filter, or an enhanced image obtained by performing AND processing on each enhanced image obtained by performing these two enhancement processes. May be acquired.

ステップS362において、変動画像生成部341は、強調処理されたOCTA画像に対して二値化処理を行い、血管のマスク画像を生成する。二値化処理では、固定閾値が用いられてもよいし、動的な閾値が用いられても良い。動的な閾値を求める方法としては、判別分析法、P−tile法、Median、Mean等で求めることが出来る。また、画像全体で一つの閾値を設定しても良いし、画像サイズよりも小さいサイズのROIを設定して、ROIごとに局所的な閾値を設定しても良い。   In step S362, the variation image generation unit 341 performs binarization processing on the enhanced OCTA image to generate a blood vessel mask image. In the binarization process, a fixed threshold value may be used, or a dynamic threshold value may be used. As a method for obtaining a dynamic threshold, it can be obtained by discriminant analysis method, P-tile method, Median, Mean, or the like. In addition, one threshold value may be set for the entire image, or a local threshold value may be set for each ROI by setting an ROI having a size smaller than the image size.

なお、二値化処理により求めたマスク画像に対して、Despeckle処理や、Morphology演算などを適用して、微小なノイズを除去してもよい。OCTA画像の高画質化処理を行うにあたり位置合わせをしているが、わずかに位置ずれが起こる場合がある。その際には、血管の淵(血管壁)に相当する箇所に変動値が出てしまうことがあるため、Morphology演算の収縮処理などで血管マスクの血管に相当する箇所が数ピクセル程度細くなるようにマスクを作成しても良い。   Note that minute noise may be removed by applying a Deckle process, a Morphology operation, or the like to the mask image obtained by the binarization process. Although alignment is performed when performing high quality processing of an OCTA image, there may be a slight misalignment. In that case, since a variation value may appear in a portion corresponding to the fold (blood vessel wall) of the blood vessel, the portion corresponding to the blood vessel of the blood vessel mask is thinned by about several pixels by the shrinkage processing of the Morphology operation or the like. A mask may be created.

ステップS363において、変動画像生成部341は、算出部340で求めた変動係数CVを画像化したデータと、ステップS362で求めたマスク画像との論理積をとる(AND処理)ことにより、血管に相当する箇所の変動係数を画像化したデータを生成する。以上のように、血管のマスク画像を用いることで、変動係数CVを画像化したデータから血管に相当する箇所の変動係数画像(変動画像、変動データとも言う)を生成することが出来る。その後、処理は図3(a)のフローチャートに戻る。   In step S363, the variation image generation unit 341 corresponds to a blood vessel by taking a logical product (AND processing) of the data obtained by imaging the variation coefficient CV obtained by the calculation unit 340 and the mask image obtained in step S362. The data which imaged the coefficient of variation of the part to perform is generated. As described above, by using a blood vessel mask image, a variation coefficient image (also referred to as a variation image or variation data) of a portion corresponding to a blood vessel can be generated from data obtained by imaging the variation coefficient CV. Thereafter, the processing returns to the flowchart of FIG.

図3(a)に戻り、ステップS307において、表示制御部305は、ステップS305で生成された高画質な二次元モーションコントラストデータ(加算平均画像)と、ステップS306で生成された変動画像を出力画像として表示部600に表示する。なお、出力画像の出力の形態は、表示部600への表示に限られるものではない。例えば、外部記憶部500への格納を行う出力部が設けられてもよい。   Returning to FIG. 3A, in step S307, the display control unit 305 outputs the high-quality two-dimensional motion contrast data (addition average image) generated in step S305 and the fluctuation image generated in step S306 as an output image. Is displayed on the display unit 600. Note that the output form of the output image is not limited to display on the display unit 600. For example, an output unit that performs storage in the external storage unit 500 may be provided.

ここで、表示制御部305が表示部600に表示する画面の例を図10に示す。1100は画面全体、1101は患者タブ、1102は撮影タブ、1103はレポートタブ、1104は設定タブを表す。レポートタブ1103における斜線は、レポート画面のアクティブ状態を表している。本実施形態においては、レポート画面を表示する例について説明をする。1105は患者情報表示部、1106は検査ソートタブ、1107は検査リスト、1108の黒枠は検査リストの選択を表し、選択されている検査データが画面に表示される。   Here, an example of a screen displayed on the display unit 600 by the display control unit 305 is shown in FIG. Reference numeral 1100 denotes an entire screen, 1101 denotes a patient tab, 1102 denotes an imaging tab, 1103 denotes a report tab, and 1104 denotes a setting tab. The diagonal lines in the report tab 1103 represent the active state of the report screen. In this embodiment, an example of displaying a report screen will be described. Reference numeral 1105 denotes a patient information display unit, 1106 denotes an examination sort tab, 1107 denotes an examination list, and a black frame of 1108 denotes selection of an examination list, and selected examination data is displayed on the screen.

図10の検査リスト1107には、SLOと断層画像のサムネイルが表示されるがこれに限られるものではない。OCTA撮影の場合には、図示はしないがOCTAのサムネイルが表示されても良い。サムネイル表示の例としては、SLOとOCTAのサムネイル、OCTAのサムネイルだけ、断層画像とOCTAのサムネイルとしても良い。本実施形態においては、撮影で取得した検査データと高画質化処理により生成した検査データとを検査リスト1107に一覧で表示している。高画質化処理により生成した検査データにおいては、サムネイルに表示する画像も高画質化処理済みのデータから生成したものを表示するようにしても良い。   The inspection list 1107 in FIG. 10 displays SLOs and thumbnails of tomographic images, but is not limited thereto. In the case of OCTA imaging, although not shown, an OCTA thumbnail may be displayed. As an example of the thumbnail display, only the SLO and OCTA thumbnails and the OCTA thumbnail may be used as the tomographic image and the OCTA thumbnail. In the present embodiment, the inspection data acquired by photographing and the inspection data generated by the image quality enhancement process are displayed in a list in the inspection list 1107. In the inspection data generated by the image quality enhancement processing, the image displayed on the thumbnail may be displayed from the data that has been subjected to the image quality enhancement processing.

1130、1131はビューモードのタブを表す。タブ1130の選択により、三次元のモーションコントラストデータから生成した二次元のOCTA画像が表示される。また、タブ1131の選択により、三次元の断層像や三次元のモーションコントラストデータが表示される。図10では、タブ1130が選択されている。   Reference numerals 1130 and 1131 denote tabs in the view mode. By selecting the tab 1130, a two-dimensional OCTA image generated from the three-dimensional motion contrast data is displayed. Further, by selecting the tab 1131, a three-dimensional tomographic image and three-dimensional motion contrast data are displayed. In FIG. 10, the tab 1130 is selected.

1129はモーションコントラストの高画質生成の実行を指示するボタンである。本実施形態においては、ボタン1129を押下することで、ステップS305に示した高画質データ生成処理が実行される。高画質化に用いるデータ候補を表示するためにはこのボタン1129を押下する。なお、選択データと同じ撮影条件で繰り返し撮影したデータを自動的に選択する場合には、データ候補を表示せずに高画質データ生成を実行するようにしてもよい。生成した高画質データを検査リスト1107に表示することで、ユーザは高画質データをレポート表示として選択することが可能となる。なお、本実施形態においては、既に高画質化処理は完了しており、図10では、その高画質化処理済みのデータを選択して表示している。そのため、以降の説明では、高画質化処理(加算平均)済みのデータに関して説明を行う。   Reference numeral 1129 denotes a button for instructing execution of high-quality generation of motion contrast. In the present embodiment, when the button 1129 is pressed, the high-quality data generation process shown in step S305 is executed. This button 1129 is pressed to display data candidates used for improving image quality. Note that, when data that has been repeatedly shot under the same shooting conditions as the selection data is automatically selected, high-quality data generation may be executed without displaying data candidates. By displaying the generated high quality data on the examination list 1107, the user can select the high quality data as a report display. In the present embodiment, the image quality improvement processing has already been completed, and in FIG. 10, data that has undergone the image quality improvement processing is selected and displayed. Therefore, in the following description, data that has been subjected to high image quality processing (addition averaging) will be described.

1109はSLO画像、1110は第一のOCTA画像、1111は第一の断層画像、1112は三次元の断層画像から生成した正面画像(Enface画像)、1113は第二のOCTA画像、1114は第二の断層画像を表す。1120はEnface画像1112の画像の種類を切り替えるタブを表す。Enface画像1112は第一のOCTA画像1110と同じ深さ範囲から作成したEnfaceを示しているが、タブ1120により、第二のOCTA画像1113と同じ深さ範囲から作成したEnfaceに切り替えることも可能である。1115はSLO画像1109に重畳している画像、1116は画像1115の種類を切り替えるタブを表す。1117は第一のOCTA画像1110として表示するOCTA画像の種類を切り替えるタブ、1121は第二のOCTA画像として表示するOCTA画像の種類を切り替えるタブを表す。OCTA画像の種類としては、浅層、深層、脈絡膜等や任意の範囲で作成したOCTA画像がある。なお、第一のOCTA画像1110の作成範囲の上端は、境界線の種類とそのオフセット値を示す表示1118と、断層画像に重畳表示された上端の境界線1125により示されている。また、第一のOCTA画像1110の作成範囲の下端は、下端の境界線の種類とそのオフセット値を示す表示1119と、第一の断層画像に重畳表示された境界線1126により示されている。第二のOCTA画像の作成範囲についても同様に、表示1123と境界線1127により上端が、表示1124と境界線1128により下端が示されている。   1109 is an SLO image, 1110 is a first OCTA image, 1111 is a first tomographic image, 1112 is a front image (Enface image) generated from a three-dimensional tomographic image, 1113 is a second OCTA image, and 1114 is a second image. Represents a tomographic image. Reference numeral 1120 denotes a tab for switching the image type of the Enface image 1112. The Enface image 1112 shows Enface created from the same depth range as the first OCTA image 1110, but it is also possible to switch to Enface created from the same depth range as the second OCTA image 1113 using the tab 1120. is there. Reference numeral 1115 denotes an image superimposed on the SLO image 1109, and 1116 denotes a tab for switching the type of the image 1115. Reference numeral 1117 denotes a tab for switching the type of OCTA image displayed as the first OCTA image 1110, and 1121 denotes a tab for switching the type of OCTA image displayed as the second OCTA image. As types of OCTA images, there are OCTA images created in a shallow layer, a deep layer, a choroid, etc., or an arbitrary range. Note that the upper end of the creation range of the first OCTA image 1110 is indicated by a display 1118 indicating the type of the boundary line and its offset value, and an upper boundary line 1125 displayed superimposed on the tomographic image. Further, the lower end of the creation range of the first OCTA image 1110 is indicated by a display 1119 indicating the type of the lower boundary line and its offset value, and a boundary line 1126 displayed superimposed on the first tomographic image. Similarly, regarding the creation range of the second OCTA image, the display 1123 and the boundary line 1127 indicate the upper end, and the display 1124 and the boundary line 1128 indicate the lower end.

矢印1145は第一の断層画像のXY面内における位置を示し、矢印1146は第二の断層画像のXY面内における位置を示している。矢印1145、1146をマウスドラッグなどにより操作することで第一の断層画像1111、第二の断層画像1114のXY面内における位置を切り替えることが出来る。   An arrow 1145 indicates the position of the first tomographic image in the XY plane, and an arrow 1146 indicates the position of the second tomographic image in the XY plane. The positions of the first tomographic image 1111 and the second tomographic image 1114 in the XY plane can be switched by operating the arrows 1145 and 1146 by dragging the mouse.

本実施形態では、複数のOCTA画像を用いて高画質化処理を行うと同時に、複数のOCTA画像による変動画像生成を行っている。そのため、高画質化処理を実行済みのデータを選択して画面に表示する際には、変動画像を表示することも可能である。この例に関して、図11を用いて説明を行う。図11では、第一のOCTA画像1110の代わりに変動画像1150を表示している例である。なお、図11において、変動画像1150はほぼ黒塗りされた画像で示されているが、実際には、本明細書で説明される変動画像が表示される。表示に用いられる変動画像1150は、[数8]により算出された変動係数CVを画像化したデータでもよいし、図4(b)の処理により血管に相当する箇所の変動係数を画像化したデータでもよい。加算平均画像に含まれる血管を示す領域(マスク画像により示される血管の領域)に、モーションコントラスト値のばらつきを示す情報に対応した色を付与することにより変動画像1150が生成されている。すなわち、変動画像1150は、カラー画像である。そのため、変動画像1150のカラースケールを示すバー1151を表示する。カラースケールは、変動係数の値が小さい方は寒色系(例えば青)、変動係数の値が大きい方は暖色系(例えば赤)で表現をする。変動画像1150を表示する際には、OCTA画像1110と切り替えて表示でもよいし、OCTA画像1110に重畳表示しても良い。重畳表示の場合は、変動画像1150に透明度αを設定して表示することが望ましい。変動画像1150の表示のOn/Offは非図示の右クリックメニューで選択できるようにしても良いし、非図示のチェックボックスのOn/Offで表示を切り替えても良い。なお、メニュー選択やチェックボックスにおいて、変動画像を生成していないデータを選択表示している場合には、選択項目を非表示とするか半透明として選択不可とすることが望ましい。   In the present embodiment, image quality improvement processing is performed using a plurality of OCTA images, and at the same time, a variation image is generated using a plurality of OCTA images. Therefore, when selecting data that has been subjected to high image quality processing and displaying it on the screen, it is also possible to display a varying image. This example will be described with reference to FIG. FIG. 11 shows an example in which a variation image 1150 is displayed instead of the first OCTA image 1110. In FIG. 11, the variation image 1150 is shown as a substantially black image, but actually, the variation image described in this specification is displayed. The variation image 1150 used for display may be data obtained by imaging the variation coefficient CV calculated by [Equation 8], or data obtained by imaging the variation coefficient of a portion corresponding to a blood vessel by the process of FIG. 4B. But you can. A variation image 1150 is generated by adding a color corresponding to information indicating variation in motion contrast values to a region indicating a blood vessel (a blood vessel region indicated by a mask image) included in the addition average image. That is, the fluctuation image 1150 is a color image. Therefore, a bar 1151 indicating the color scale of the fluctuation image 1150 is displayed. The color scale is expressed in a cold color system (for example, blue) when the value of the variation coefficient is small, and in a warm color system (for example, red) when the value of the variation coefficient is large. When the fluctuation image 1150 is displayed, it may be displayed by switching to the OCTA image 1110 or may be superimposed on the OCTA image 1110. In the case of superimposed display, it is desirable to display the variable image 1150 with the transparency α set. On / Off of the display of the fluctuation image 1150 may be selected by a right-click menu (not shown), or the display may be switched by On / Off of a check box (not shown). In the menu selection or check box, when data for which no variation image is generated is selected and displayed, it is desirable that the selection item is not displayed or is semi-transparent and cannot be selected.

図11では、変動画像をOCTA画像と切り替えて表示するか、OCTA画像に重畳表示する例を示したが、これに限らない。変動画像1150のその他の表示例を図12に示す。図12(a)は、図10における第一のOCTA画像1110を表示する箇所のみを示した例である。図12(a)においては、第一のOCTA画像1210に対して、所定の閾値以上の変動部分をカラー表示する例を示している。図12(a)では、血管1201のみ(ステップS362で生成された血管のマスク画像により示される血管領域のみ)をカラーで表示する例を示している。この場合、加算平均画像(OCTA画像)に含まれる血管を示す領域以外の領域に対してモーションコントラスト値のばらつきを示す情報は対応付けられないことになる。すなわち、図11の変動画像1150では画像全体で変動係数を表示していたが、図12(a)では、画像の一部に対して変動係数をカラーで表示している。   Although FIG. 11 shows an example in which the fluctuation image is displayed by switching to the OCTA image or superimposed on the OCTA image, the present invention is not limited to this. Another display example of the fluctuation image 1150 is shown in FIG. FIG. 12A shows an example in which only the portion where the first OCTA image 1110 in FIG. 10 is displayed. FIG. 12A shows an example in which a variation portion having a predetermined threshold value or more is displayed in color on the first OCTA image 1210. FIG. 12A shows an example in which only the blood vessel 1201 (only the blood vessel region indicated by the blood vessel mask image generated in step S362) is displayed in color. In this case, information indicating variations in motion contrast values is not associated with regions other than the regions indicating blood vessels included in the addition average image (OCTA image). That is, in the variation image 1150 of FIG. 11, the variation coefficient is displayed for the entire image, but in FIG. 12A, the variation coefficient is displayed in color for a part of the image.

図12(b)では、図10における第一のOCTA画像1110と第一の断層画像1111を表示する箇所のみを示した例である。図12(b)では、断層画像1111に変動係数1240を重畳表示する場合の例である。断層画像1111には、変動画像1150に対応する色で重畳表示する。断層画像1111に重畳表示する場合には、変動係数の値が所定の閾値以上の箇所を重畳表示する。なお、本実施形態ではXY平面の二次元画像で変動係数を計算しているため、断層画像に表示する場合には、Zの値が分からない。そのため、この場合には、OCTA画像の作成範囲である上下(境界線1125、1126)の間は同じ色で表現をする。あるいは、モーションコントラスト値を求める際に断層画像を用いているため、所定の閾値以上のモーションコントラスト値であり、所定の閾値以上の変動係数値の両方を満たす箇所にのみ表示をするようにしても良い。   FIG. 12B shows an example in which only the portion where the first OCTA image 1110 and the first tomographic image 1111 in FIG. 10 are displayed. FIG. 12B shows an example in which the variation coefficient 1240 is superimposed on the tomographic image 1111. The tomographic image 1111 is superimposed and displayed in a color corresponding to the variation image 1150. In the case where the tomographic image 1111 is displayed in a superimposed manner, a portion where the value of the variation coefficient is equal to or greater than a predetermined threshold is displayed in a superimposed manner. In the present embodiment, since the coefficient of variation is calculated with a two-dimensional image on the XY plane, the value of Z is not known when displayed on a tomographic image. Therefore, in this case, the same color is used for the upper and lower sides (boundary lines 1125 and 1126), which are the OCTA image creation range. Alternatively, since the tomographic image is used when obtaining the motion contrast value, the motion contrast value is equal to or greater than a predetermined threshold value and is displayed only at a location that satisfies both of the variation coefficient values equal to or greater than the predetermined threshold value. good.

本実施形態では、生成範囲上端をILM/NFL境界線とし、生成範囲下端をGCL/IPLから深度方向に50μm下端の境界線の範囲で生成したOCTA画像を用いて高画質化処理を行う例について説明を行った。そのため、変動画像1150も同じ範囲における画像を示している。しかし、生成する変動画像はこの範囲に限らない。位置合わせに用いるOCTA画像の深度範囲を変更して、それに合わせた変動画像を生成しても良い。あるいは、血管特徴を表現しやすい深度範囲で作成したOCTA画像で位置合わせを行い、位置合わせパラメータのみ、異なる深度範囲で生成したOCTA画像に適用することで、異なる深度範囲の変動画像を生成することも可能である。すなわち、図11では、変動画像1150は第一のOCTA画像に表示しているが、第一のOCTA画像を生成する際に求めた位置合わせパラメータを第二のOCTA画像1113に適用することが可能である。そのため、異なる深度範囲におけるOCTA画像1113においても高画質化と変動画像生成の両方を行う事が出来る。   In the present embodiment, an example in which an image quality improvement process is performed using an OCTA image generated with the upper end of the generation range as the ILM / NFL boundary line and the lower end of the generation range within the boundary line of 50 μm lower end in the depth direction from GCL / IPL. I explained. Therefore, the fluctuation image 1150 also shows an image in the same range. However, the fluctuation image to be generated is not limited to this range. It is also possible to change the depth range of the OCTA image used for alignment and generate a fluctuation image in accordance with the range. Alternatively, alignment is performed with an OCTA image created in a depth range in which blood vessel characteristics can be easily expressed, and only the alignment parameter is applied to an OCTA image generated in a different depth range, thereby generating a fluctuation image in different depth ranges. Is also possible. That is, in FIG. 11, the fluctuation image 1150 is displayed on the first OCTA image, but the alignment parameter obtained when the first OCTA image is generated can be applied to the second OCTA image 1113. It is. Therefore, it is possible to perform both high image quality and variable image generation in the OCTA image 1113 in different depth ranges.

図3(a)に戻り、ステップS308において、不図示の指示取得部は、画像処理システム100による断層画像の撮影あるいは解析を終了するか否かの指示を外部から取得する。この指示は、例えば入力部700を用いて、操作者によって入力される。処理を終了する指示を取得した場合には、画像処理システム100はその処理を終了する。一方、処理を終了せずに、撮影あるいは解析を続ける場合には、ステップS302に処理を戻して続行する。以上によって、画像処理システム100の処理が行われる。   Returning to FIG. 3A, in step S <b> 308, the instruction acquisition unit (not shown) acquires an instruction from the outside as to whether or not tomography or analysis of the tomographic image by the image processing system 100 is finished. This instruction is input by the operator using the input unit 700, for example. When an instruction to end the process is acquired, the image processing system 100 ends the process. On the other hand, if the photographing or analysis is continued without ending the process, the process returns to step S302 to continue. Thus, the processing of the image processing system 100 is performed.

以上で述べた構成によれば、本実施形態では、OCTA画像間の変動係数を計算することで、画像同士のばらつきを評価することが出来る。循環障害などで流れが悪い血管に関して、複数の画像間のばらつきを評価する指標を画像として表示することで、循環の状態を把握することが可能となる。   According to the configuration described above, in the present embodiment, the variation between images can be evaluated by calculating the coefficient of variation between OCTA images. With respect to a blood vessel that has a poor flow due to a circulatory disorder or the like, it is possible to grasp the circulatory state by displaying as an image an index for evaluating the variation between a plurality of images.

<第2実施形態>
第1実施形態においては、循環の状態を把握するための画像を提示する例を示した。第2実施形態では、循環の状態を解析する例について説明をする。以下では、主として第1実施形態と異なる部分を説明する。
Second Embodiment
In 1st Embodiment, the example which shows the image for grasping | ascertaining the state of a circulation was shown. In the second embodiment, an example of analyzing a circulation state will be described. Below, a different part from 1st Embodiment is mainly demonstrated.

第2実施形態における解析に関して図13を用いて説明する。図13の(a)〜(d)は、図10における第一のOCTA画像1110を表示する箇所のみを示し、変動係数を解析するためのグリッドの異なる形状例を示している。図13(a)は、黄斑を中心として、上下左右を4分割するグリッド1301の例である。例えば、内側の円のサイズは1mm、外側の円のサイズは3mmの範囲とする。図13(b)は、黄斑を中心として、上下2分割するグリッド1302の例である。円のサイズは、図13(a)と同様である。なお、より広い範囲を撮影した場合には、グリッドサイズは、1mm、3mm、6mmとしてもよい。   The analysis in the second embodiment will be described with reference to FIG. FIGS. 13A to 13D show only portions where the first OCTA image 1110 in FIG. 10 is displayed, and show examples of different shapes of grids for analyzing the coefficient of variation. FIG. 13A shows an example of a grid 1301 that divides the upper, lower, left, and right into four with the macular at the center. For example, the size of the inner circle is 1 mm, and the size of the outer circle is 3 mm. FIG. 13B shows an example of a grid 1302 that divides the macula up and down into two. The size of the circle is the same as in FIG. When a wider range is photographed, the grid size may be 1 mm, 3 mm, or 6 mm.

図13(c)は、画像を9分割するグリッド1303の例である。なお、グリッドの分割数は9分割に限られるものではなく、例えば16分割でもよい。あるいは、1つのグリッドサイズを1mmとして、撮影画像の画角に合わせて、分割数を変更するようにしても良い。その場合、例えば、撮影画角が3×3mmの場合には9分割となる。図13(d)は、FAZ(Foveal Avascular Zone)を検出し、その形に合わせて、FAZ+数mmの範囲にグリッド1304を適用する例である。FAZ周囲のグリッドは、全体で一つの数値としても良いし、図13(a)、(b)に示すように上下左右4分割や上下2分割のように領域内部を分割しても良い。また、図13(e)は、グリッドを放射状に時計のように12分割する例である。なお、図13(a)〜(e)には、グリッドを重畳表示するための画像として、OCTA画像1110を示しているが、これに限らない。例えば、変動画像1150や、図12(a)で示したOCTA画像1210+カラーの血管1201にグリッドを重畳表示しても良い。グリッド表示のOn/Offは、非図示の右クリックメニューで選択できるようにしても良いし、非図示のチェックボックスのOn/Offで表示を切り替えても良い。   FIG. 13C shows an example of a grid 1303 that divides an image into nine. Note that the number of grid divisions is not limited to nine divisions, and may be, for example, 16 divisions. Alternatively, one grid size may be 1 mm, and the number of divisions may be changed according to the angle of view of the captured image. In this case, for example, when the shooting angle of view is 3 × 3 mm, it is divided into nine. FIG. 13D shows an example in which FAZ (Foveal Available Zone) is detected, and a grid 1304 is applied in a range of FAZ + several mm according to the shape. The grid around the FAZ may be a single numerical value as a whole, or the inside of the area may be divided into four parts, top and bottom, left and right, or top and bottom, as shown in FIGS. 13 (a) and 13 (b). FIG. 13E shows an example in which the grid is radially divided into 12 like a clock. 13A to 13E show the OCTA image 1110 as an image for displaying the grid in a superimposed manner, but the present invention is not limited to this. For example, a grid may be superimposed and displayed on the fluctuation image 1150 or the OCTA image 1210 + color blood vessel 1201 shown in FIG. The grid display On / Off may be selected by a right-click menu (not shown), or the display may be switched by On / Off of a check box (not shown).

次に、図13により示したようなグリッドの内部の変動係数の統計値(最大値、最小値、平均値、中央値、標準偏差、分散など)を計算して表示する。統計値を計算する際には、第1実施形態で示したような血管マスクを用いて、血管に相当する箇所のみを対象とすることが望ましい。変動係数の統計値の表示方法としては、グリッド内部に数値を表示するか、画像とは別の箇所にグラフや表として数値を表示するようにしても良い。   Next, statistical values (maximum value, minimum value, average value, median value, standard deviation, variance, etc.) of the coefficient of variation inside the grid as shown in FIG. 13 are calculated and displayed. When calculating a statistical value, it is desirable to use only a blood vessel mask as shown in the first embodiment and target only a portion corresponding to a blood vessel. As a method of displaying the statistical value of the coefficient of variation, numerical values may be displayed inside the grid, or numerical values may be displayed as a graph or a table at a location different from the image.

ここで、グリッド内部の変動係数の統計値をグラフ表示した例を図14に示す。図14(a)、(b)は、図13(e)で示したグリッドを放射状に分割した場合のグラフの例である。グリッドは上から時計回りに1〜12とし、横軸は分割したグリッドの場所、縦軸はグリッド内の統計値である。なお、図14(a)、(b)のグラフにおいて、0は12と同じ値としている。図14(a)、(b)は、それぞれ異なる眼のデータ例であり、眼が異なれば統計値の現れ方が異なる例を示している。一方、図14(c)は、各グリッドの統計値の最小値を基準として、図14(a)、(b)のデータを横方向にシフトして表示した例である。図14(c)のように場所ではなく、統計値を基準としてデータを整理すると、血管に何かしらの特徴がある場所を基準として、その周辺の血管の特徴とを比較しやすくなる。そのため、異なる眼や正常データから作成したデータベース等と比較を行う場合、図14(c)のように、特徴のある場所を基準として比較を行うようにしても良い。   Here, an example in which the statistical value of the coefficient of variation inside the grid is displayed in a graph is shown in FIG. FIGS. 14A and 14B are graph examples when the grid shown in FIG. 13E is divided radially. The grid is 1 to 12 clockwise from the top, the horizontal axis is the location of the divided grid, and the vertical axis is the statistical value in the grid. In the graphs of FIGS. 14A and 14B, 0 is the same value as 12. FIGS. 14A and 14B are examples of different eye data, and show examples in which statistical values appear differently for different eyes. On the other hand, FIG. 14C is an example in which the data in FIGS. 14A and 14B are shifted in the horizontal direction and displayed with the minimum statistical value of each grid as a reference. As shown in FIG. 14C, when data is organized based on statistical values instead of locations, it becomes easy to compare the features of blood vessels around it with reference to locations where there are some features in the blood vessels. Therefore, when comparing with a database created from different eyes or normal data, the comparison may be performed with reference to a characteristic place as shown in FIG.

さらには、図13で示したようなグリッド単位で数値を表示せずに、血管単位で統計値を計算して表示するようにしても良い。その場合、例えば血管マスクを細線化することで、1本ずつの血管単位に分けることが出来る。血管の端点は、細線化した血管において、ピクセルの8近傍において、連結箇所が1ピクセルの箇所が線の端点となる。直線や曲線の線の内部では、8近傍において連結箇所が2ピクセルある場所である。そのため、これらの情報を用いて、細線化した血管を血管単位に識別可能である。そのため、操作者が任意の血管にマウスカーソルなどを移動させた場合に、選択された血管の統計値を画面内の任意の場所か、OCTA画像上にポップアップで表示するようにしても良い。さらには、血管単位ではなく、ピクセル単位で数値を表示するようにしても良い。その場合、変動係数はピクセル単位で計算をしているため、操作者が任意のピクセルにマウスカーソルなどを移動させた場合に、選択されたピクセルの数値を画面内の任意の場所か、OCTA画像上にポップアップで表示するようにしても良い。   Furthermore, instead of displaying numerical values in units of grids as shown in FIG. 13, statistical values may be calculated and displayed in units of blood vessels. In that case, for example, by thinning the blood vessel mask, it can be divided into units of blood vessels one by one. As for the end point of the blood vessel, in the thinned blood vessel, in the vicinity of 8 pixels, the connection point of 1 pixel is the end point of the line. Inside a straight line or curved line, there are two connected pixels in the vicinity of 8 pixels. Therefore, the thinned blood vessel can be identified in units of blood vessels using these pieces of information. For this reason, when the operator moves the mouse cursor or the like to an arbitrary blood vessel, the statistical value of the selected blood vessel may be displayed in a pop-up on an OCTA image at an arbitrary location on the screen. Furthermore, numerical values may be displayed not in units of blood vessels but in units of pixels. In that case, since the coefficient of variation is calculated in units of pixels, when the operator moves the mouse cursor to an arbitrary pixel, the numerical value of the selected pixel is set to an arbitrary location on the screen or an OCTA image. It may be displayed in a pop-up above.

以上のように、第2実施形態によれば、OCTA画像間の変動係数を計算することで、画像同士のばらつきを評価することが出来る。循環障害などで流れが悪い血管に関して、複数の画像間のばらつきを評価する指標を数値として表示することで、循環の状態を把握することが可能となる。なお、第2実施形態では、解析対象として変動係数の統計値の計算について示すがこれに限らない。例えば、血管の面積密度や細線化(スケルトン)密度を後述するグリッド領域を用いて解析するようにしても良い。   As described above, according to the second embodiment, it is possible to evaluate the variation between images by calculating the coefficient of variation between OCTA images. By displaying an index for evaluating the variation between a plurality of images as a numerical value for a blood vessel that has a poor flow due to a circulatory disorder or the like, it is possible to grasp the state of circulation. In addition, in 2nd Embodiment, although it shows about calculation of the statistical value of a coefficient of variation as an analysis object, it is not restricted to this. For example, the area density or thinning (skeleton) density of blood vessels may be analyzed using a grid area described later.

<第3実施形態>
上述の第1、第2実施形態においては、複数の二次元のモーションコントラストデータを用いて時間的な変動を表示、並びに算出する例について説明した。第3実施形態においては、複数の三次元のモーションコントラストデータを用いて、時間的な変動を表示、並びに算出する例について説明する。以下、主として第1実施形態、第2実施形態と異なる点について説明する。
<Third Embodiment>
In the first and second embodiments described above, the example in which the temporal variation is displayed and calculated using a plurality of two-dimensional motion contrast data has been described. In the third embodiment, an example in which a temporal variation is displayed and calculated using a plurality of three-dimensional motion contrast data will be described. Hereinafter, differences from the first embodiment and the second embodiment will be mainly described.

図15は、本実施形態に係る画像処理装置1400を備える画像処理システム1000の構成を示す図である。画像処理部1403は、深さ位置合わせ部1437を有する。深さ位置合わせ部1437は、三次元の断層画像、並びに三次元のモーションコントラストデータにおいて、網膜の深さ方向(z軸)の位置合わせを行う。   FIG. 15 is a diagram illustrating a configuration of an image processing system 1000 including the image processing apparatus 1400 according to the present embodiment. The image processing unit 1403 has a depth alignment unit 1437. The depth alignment unit 1437 performs alignment in the depth direction (z axis) of the retina in the three-dimensional tomographic image and the three-dimensional motion contrast data.

次に、図16を用いて、本実施形態の画像処理装置1400の処理手順を示す。なお、図16において、図3と同様の処理には同一の参照番号が付してある。   Next, a processing procedure of the image processing apparatus 1400 according to the present embodiment will be described with reference to FIG. In FIG. 16, the same reference numerals are assigned to the processes similar to those in FIG.

ステップS301〜S304の処理を終えると、ステップS1505において、画像処理部303は、取得した三次元モーションコントラストデータを用いて、高画質データを生成する。図16(b)は、第3実施形態による高画質データの生成処理を示すフローチャートである。   When the processes in steps S301 to S304 are finished, in step S1505, the image processing unit 303 generates high-quality data using the acquired three-dimensional motion contrast data. FIG. 16B is a flowchart illustrating high-quality data generation processing according to the third embodiment.

図16(b)において、ステップS351〜S355は第1実施形態(図3)で説明したとおりである。ステップS1556において、深さ位置合わせ部1437は、深さ方向の位置合わせを行う。深さ位置合わせ部1437は、三次元データ内部(隣接する断層画像)での深さ方向と、三次元データ間(異なるデータの断層画像)での深さ方向の位置合わせを行う。例えば、最初にデータ内部での位置合わせを行う事で、隣接する断層画像間において、網膜の深さ方向と網膜の傾きの位置を合わせる。次に、データ内部の位置合わせが済んでいるデータを用いて異なるデータ間での網膜の深さ方向と網膜の傾きの位置合わせを行う。第一の位置合わせ部334、第二の位置合わせ部336、深さ位置合わせ部1437により、異なる三次元データ間のXYZ位置合わせが行われる。   In FIG. 16B, steps S351 to S355 are as described in the first embodiment (FIG. 3). In step S1556, the depth alignment unit 1437 performs alignment in the depth direction. The depth alignment unit 1437 performs alignment in the depth direction within the three-dimensional data (adjacent tomographic images) and in the depth direction between the three-dimensional data (tomographic images of different data). For example, by first performing alignment within the data, the depth direction of the retina and the position of the retina inclination are aligned between adjacent tomographic images. Next, the retina depth direction and the retina inclination are aligned between different data using the data that has already been aligned within the data. XYZ alignment between different three-dimensional data is performed by the first alignment unit 334, the second alignment unit 336, and the depth alignment unit 1437.

ステップS1557において、算出部1440は、複数の三次元モーションコントラストデータから統計値(平均値、標準偏差、変動係数、最大値、最小値など)を算出する。統計値の算出に関しては、ステップS356と同様であるが、三次元データの場合、ピクセルではなくボクセルとなる。そのため、位置合わせ済みの複数の三次元モーションコントラストデータにおいて、異なるデータ間の統計値を算出する。なお、統計値の算出方法に関して、ボクセル単位ではなく、深さ方向に厚みを持たせたボクセル単位で統計値を算出するようにしても良い。例えば、1ボクセルではなく、Z軸方向において、注目ボクセルの周囲の数ボクセルの平均や中央値を計算し、その値を用いてデータ間の統計値を計算するようにしても良い。   In step S1557, the calculation unit 1440 calculates statistical values (average value, standard deviation, coefficient of variation, maximum value, minimum value, etc.) from the plurality of three-dimensional motion contrast data. The calculation of the statistical value is the same as in step S356, but in the case of three-dimensional data, it is a voxel instead of a pixel. Therefore, a statistical value between different data is calculated in a plurality of aligned 3D motion contrast data. Note that regarding the statistical value calculation method, the statistical value may be calculated not in units of voxels but in units of voxels having a thickness in the depth direction. For example, instead of one voxel, an average or median value of several voxels around the target voxel may be calculated in the Z-axis direction, and a statistical value between the data may be calculated using the value.

ステップS1558において、画像生成部332は、算出部1440が算出した平均値を高画質な三次元モーションコントラストデータとして生成する。なお、画像生成部332は、三次元モーションコントラストデータの高画質データを生成するとともに、三次元断層画像の高画質データを生成する。以上の処理を行った後、処理は図16(a)のフローチャートに戻る。   In step S1558, the image generation unit 332 generates the average value calculated by the calculation unit 1440 as high-quality three-dimensional motion contrast data. The image generation unit 332 generates high-quality data of 3D motion contrast data and also generates high-quality data of 3D tomographic images. After performing the above processing, the processing returns to the flowchart of FIG.

ステップS1506において、変動画像生成部341は、算出部1440がステップS1557で算出した統計値に基づいて変動画像を生成する。より具体的には、まず、画像生成部332は、加算平均済みの三次元モーションコントラストデータと、三次元モーションコントラストデータから求めた三次元統計値(例えば、三次元変動係数データ)から、それぞれ、二次元の正面画像を生成する。変動画像生成部341は、画像生成部332が生成した二次元画像を用いて変動画像を生成する。なお、変動画像の生成方法は第1実施形態(図3のステップS306)と同様であるため、説明を省略する。   In step S1506, the fluctuation image generation unit 341 generates a fluctuation image based on the statistical value calculated by the calculation unit 1440 in step S1557. More specifically, first, the image generation unit 332 uses the three-dimensional motion contrast data that has been averaged and the three-dimensional statistical value (for example, three-dimensional variation coefficient data) obtained from the three-dimensional motion contrast data, respectively. A two-dimensional front image is generated. The variation image generation unit 341 generates a variation image using the two-dimensional image generated by the image generation unit 332. The variation image generation method is the same as that in the first embodiment (step S306 in FIG. 3), and thus description thereof is omitted.

ステップS1507では、加算平均して作成した高画質な三次元モーションコントラストデータ、高画質な三次元断層画像と、二次元の高画質なモーションコントラストデータ、変動画像を表示する。   In step S1507, the high-quality three-dimensional motion contrast data, the high-quality three-dimensional tomographic image, the two-dimensional high-quality motion contrast data, and the fluctuation image that are created by averaging are displayed.

ここで、表示部600に表示する画面の例を図17に示す。図17において、三次元の断層画像や、二次元のモーションコントラストデータ(OCTA)は、高画質なデータを表示している。さらに、高画質な三次元のモーションコントラストデータ1640を断層画像に重畳表示している。第3実施形態においては、三次元のモーションコントラストデータ1640の代わりに、三次元変動係数データを表示してもよい。三次元変動係数データを重畳表示する場合、三次元のモーションコントラストデータ1640と三次元変動係数データのそれぞれが所定の閾値以上となる個所を重畳表示することが望ましい。それにより、三次元的に血管に相当する箇所の三次元変動係数データを表示することが可能となる。三次元変動係数データを重畳表示する場合には、カラーで表示し、二次元の変動画像のバー1151と同じ色で表示することとする。   Here, an example of a screen displayed on the display unit 600 is shown in FIG. In FIG. 17, three-dimensional tomographic images and two-dimensional motion contrast data (OCTA) display high-quality data. Further, high-quality three-dimensional motion contrast data 1640 is superimposed on the tomographic image. In the third embodiment, three-dimensional variation coefficient data may be displayed instead of the three-dimensional motion contrast data 1640. When the three-dimensional variation coefficient data is displayed in a superimposed manner, it is desirable to superimpose and display a portion where each of the three-dimensional motion contrast data 1640 and the three-dimensional variation coefficient data is equal to or greater than a predetermined threshold. As a result, it is possible to display the three-dimensional variation coefficient data of a portion three-dimensionally corresponding to the blood vessel. When the three-dimensional variation coefficient data is displayed in a superimposed manner, it is displayed in color and displayed in the same color as the bar 1151 of the two-dimensional variation image.

なお、図17に図示はしないが、三次元変動係数データから作成する変動画像に対しても、図13で示したような解析を行い、数値を表示することも可能である。   Although not shown in FIG. 17, it is also possible to perform the analysis as shown in FIG. 13 and display numerical values for the variation image created from the three-dimensional variation coefficient data.

以上で述べた構成によれば、第3実施形態では、三次元モーションコントラストデータ間の変動係数を計算することで、データ同士のばらつきを評価することが出来る。循環障害などで流れが悪い血管に関して、複数のデータ間のばらつきを評価する指標を画像、あるいは数値として表示することで、循環の状態を把握することが可能となる。   According to the configuration described above, in the third embodiment, the variation between the data can be evaluated by calculating the coefficient of variation between the three-dimensional motion contrast data. By displaying an index for evaluating a variation between a plurality of data as an image or a numerical value for a blood vessel having a poor flow due to a circulatory disorder or the like, the state of circulation can be grasped.

(変形例1)
上記各実施形態では、複数のデータにおける変動情報を1つの画像として表示する例を示したがこれに限らない。1つの画像とせずに動画として表示しても良い。例えば、図9(a)で示した異なる時刻に撮影され、位置合わせがされたOCTA画像1〜3を所定の時間間隔(例えば、1フレーム/秒)で同じ場所(例えば、第一のOCTA画像を表示している個所)に表示をする。それにより、操作者はOCTA画像の変化を確認することが出来る。
(Modification 1)
In each of the above-described embodiments, the example in which the variation information in a plurality of data is displayed as one image is shown, but the present invention is not limited to this. You may display as a moving image instead of making it one image. For example, the OCTA images 1 to 3 taken at different times and aligned as shown in FIG. 9A are displayed at the same place (for example, the first OCTA image) at a predetermined time interval (for example, 1 frame / second). To the place where is displayed). Thereby, the operator can confirm the change of the OCTA image.

(変形例2)
また、第3実施形態では、三次元モーションコントラストデータから、三次元変動係数データを求める例について示したがこれに限らない。例えば、三次元の位置合わせでは、高画質な三次元モーションコントラストデータと高画質な断層画像の生成とし、変動画像は、実施形態1と2で示したように二次元のOCTA画像から求めるようにしても良い。
(Modification 2)
In the third embodiment, an example in which three-dimensional variation coefficient data is obtained from three-dimensional motion contrast data has been described. However, the present invention is not limited to this. For example, in the three-dimensional alignment, high-quality three-dimensional motion contrast data and high-quality tomographic images are generated, and the variation image is obtained from the two-dimensional OCTA image as shown in the first and second embodiments. May be.

(変形例3)
また、上記各実施形態では、変動係数を用いて循環の状態を評価する例について示したが、これに限らない。例えば、標準偏差、データ間の差分などでもよいし、Logで計算することで、値の大きい箇所のばらつきの影響を抑えるようにしても良い。複数のデータ間でのばらつきが評価できる指標であれば良い。
(Modification 3)
In each of the above embodiments, an example in which a circulation state is evaluated using a coefficient of variation has been described, but the present invention is not limited to this. For example, a standard deviation, a difference between data, or the like may be used, or by calculating with Log, it is possible to suppress the influence of variation in a portion having a large value. Any index can be used as long as it can evaluate the variation among a plurality of data.

(変形例4)
また、上記各実施形態では、高画質化したOCTA画像から2値化処理によって血管マスクを作成する例を示したが、これに限らない。例えば、2値化処理の後に細線化処理を行い、細線化処理した画像をマスク画像に用いても良い。細線化処理画像であれば、血管が1ピクセルで表現されるため、血管の淵に現れる場合がある位置合わせ誤差によるアーティファクトの影響を受けない。そのため、細線化した画像をマスク画像として用い、血管の変動を算出するようにしても良い。血管の変動値をカラー画像で表現する際には、細線化前の2値化画像における血管相当領域に、細線化処理で求めた値を拡張することで、表現するようにしても良い。
(Modification 4)
In each of the above embodiments, an example in which a blood vessel mask is created by binarization processing from an OCTA image with high image quality is shown, but the present invention is not limited to this. For example, thinning processing may be performed after binarization processing, and the thinned image may be used as a mask image. In the case of a thinned image, a blood vessel is represented by one pixel, and thus is not affected by an artifact caused by an alignment error that may appear in the fold of the blood vessel. For this reason, it is also possible to calculate blood vessel fluctuation using a thinned image as a mask image. When expressing the variation value of the blood vessel with a color image, the value obtained by the thinning process may be extended to the blood vessel equivalent region in the binarized image before thinning.

(変形例5)
また、上記各実施形態では、モーションコントラストデータからOCTA画像を生成する例について説明をしたが、OCTA画像として、プロジェクションアーティファクト除去を行った画像を用いて変動画像を生成するようにしても良い。プロジェクションアーティファクトとは、上の層の血管の影が下層に写りこむことであり、血液の流れによる変化で影が変化することにより、血管ではない場所にアーティファクトが発生してしまう現象である。モーションコントラストデータにはこのようなアーティファクトが存在することもある。そのため、UIを操作してOCTA画像を生成する範囲を任意に指定する場合においても、このアーティファクトを除去した画像を用いて変動画像を生成して表示するようにしても良い。
(Modification 5)
In each of the above embodiments, an example in which an OCTA image is generated from motion contrast data has been described. However, a variation image may be generated using an image from which projection artifacts have been removed as an OCTA image. The projection artifact is a phenomenon in which the shadow of the blood vessel in the upper layer is reflected in the lower layer, and the artifact is generated in a place other than the blood vessel by changing the shadow due to a change due to the flow of blood. Such artifacts may exist in motion contrast data. For this reason, even when the range for generating the OCTA image is arbitrarily designated by operating the UI, the fluctuation image may be generated and displayed using the image from which the artifact is removed.

(変形例6)
また、上記各実施形態において、撮影から表示までを一連の流れで示したがこれに限らない。例えば、既に撮影が済んでいるデータを用いて変動画像生成処理を行ってもよい。その場合、撮影に関する処理のステップS302からS304をスキップし、その代わりに撮影済みの複数の三次元のモーションコントラストデータと三次元の断層像を取得する。そして、ステップS306、あるいはステップS1506で変動画像生成処理を行う。これにより、複数回撮影を行ったデータに関して、撮影時に処理をしなくても、必要な時に変動画像生成処理を実行することが出来る。そのため、撮影時には撮影だけに集中することが出来る。
(Modification 6)
In each of the above-described embodiments, the process from shooting to display is shown in a series of flows, but the present invention is not limited to this. For example, the variation image generation process may be performed using data that has already been shot. In that case, steps S302 to S304 of the processing relating to imaging are skipped, and instead, a plurality of 3D motion contrast data and 3D tomographic images already acquired are acquired. In step S306 or step S1506, the variation image generation process is performed. As a result, the fluctuating image generation process can be executed when necessary, without processing the data that has been shot a plurality of times without taking a process at the time of shooting. Therefore, when shooting, you can concentrate on shooting.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

例えば、画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。   For example, the CPU of the image processing apparatus controls the entire computer using computer programs and data stored in a RAM or ROM. In addition, the execution of software corresponding to each unit of the image processing apparatus is controlled to realize the function of each unit. Also, the user interface such as buttons and the display layout are not limited to those shown above.

100:画像処理システム、200:断層画像撮影装置、300:画像処理装置、301:画像取得部、303:画像処理部、305:表示制御部、311:断層画像生成部、312:モーションコントラストデータ生成部、331:前処理部、332:画像生成部、333:検出部、334:第一の位置合わせ部、335:選択部、336:第二の位置合わせ部、340:算出部、341:変動画像生成部、400:眼底画像撮影装置、500:外部記憶部、600:表示部、700:入力部、1440:算出部、1437:深さ位置合わせ部 100: Image processing system, 200: Tomographic imaging apparatus, 300: Image processing apparatus, 301: Image acquisition unit, 303: Image processing unit, 305: Display control unit, 311: Tomographic image generation unit, 312: Motion contrast data generation Unit, 331: preprocessing unit, 332: image generation unit, 333: detection unit, 334: first alignment unit, 335: selection unit, 336: second alignment unit, 340: calculation unit, 341: fluctuation Image generation unit, 400: fundus image capturing apparatus, 500: external storage unit, 600: display unit, 700: input unit, 1440: calculation unit, 1437: depth alignment unit

Claims (23)

それぞれ異なる時刻における眼底の同一位置に関する複数のモーションコントラスト画像を取得する取得手段と、
前記複数のモーションコントラスト画像の対応する複数の画素についての輝度のばらつきを示す値を算出する算出手段と、
前記算出手段により算出された前記輝度のばらつきを示す値に基づいて出力画像を生成する生成手段と、
前記生成手段により生成された出力画像を出力する出力手段と、を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of motion contrast images relating to the same position of the fundus at different times,
Calculating means for calculating a value indicating a variation in luminance for a plurality of corresponding pixels of the plurality of motion contrast images;
Generating means for generating an output image based on a value indicating the variation in luminance calculated by the calculating means;
An image processing apparatus comprising: an output unit that outputs an output image generated by the generation unit.
前記輝度のばらつきを示す値は、前記複数のモーションコントラスト画像の対応する複数の画素における輝度の標準偏差の値または分散の値であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the value indicating the luminance variation is a value of a standard deviation of luminance or a value of variance in a plurality of corresponding pixels of the plurality of motion contrast images. 前記生成手段は、前記輝度のばらつきを示す値を、前記複数のモーションコントラスト画像において対応する複数の画素の輝度の代表値を用いて正規化し、正規化された前記輝度のばらつきを示す値を用いて前記出力画像を生成することを特徴とする請求項1または2に記載の画像処理装置。   The generation unit normalizes a value indicating the luminance variation using a representative value of luminance of a plurality of corresponding pixels in the plurality of motion contrast images, and uses the normalized value indicating the luminance variation. The image processing apparatus according to claim 1, wherein the output image is generated. 前記代表値は、前記複数のモーションコントラスト画像の輝度の平均値または中央値であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the representative value is an average value or a median value of luminances of the plurality of motion contrast images. 前記生成手段は、前記輝度のばらつきを示す値に基づく画像から血管部分を抽出した画像を前記出力画像として生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the generation unit generates, as the output image, an image obtained by extracting a blood vessel portion from an image based on the value indicating the variation in luminance. . 前記生成手段は、
前記複数のモーションコントラスト画像の加算平均画像に基づいて血管のマスク画像を生成し、
前記マスク画像と前記輝度のばらつきを示す値に基づく画像との論理積から前記出力画像を生成することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The generating means includes
Generating a blood vessel mask image based on an averaged image of the plurality of motion contrast images;
The image processing apparatus according to claim 1, wherein the output image is generated from a logical product of the mask image and an image based on a value indicating the luminance variation.
前記生成手段は、前記加算平均画像に対して2値化処理を行うことで前記マスク画像を生成することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the generation unit generates the mask image by performing binarization processing on the addition average image. 前記生成手段は、前記加算平均画像に対して先鋭化処理または強調処理を行った後の画像に対して2値化処理を行うことで前記マスク画像を生成することを特徴とする請求項7に記載の画像処理装置。   The said generation means produces | generates the said mask image by performing the binarization process with respect to the image after performing the sharpening process or the enhancement process with respect to the said addition average image, The said mask image is produced | generated. The image processing apparatus described. 前記生成手段は、前記輝度のばらつきを示す値に応じた色が付された画像を生成することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates an image colored according to a value indicating the luminance variation. 前記複数のモーションコントラスト画像と前記出力画像はEnface画像であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of motion contrast images and the output image are Enface images. 前記複数のモーションコントラスト画像に対してアーティファクトを低減する低減処理を行う処理手段を更に備え、
前記算出手段は、前記処理手段により前記低減処理が施された前記複数のモーションコントラスト画像を用いて前記輝度のばらつきを示す値を算出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
Processing means for performing reduction processing to reduce artifacts for the plurality of motion contrast images;
The said calculating means calculates the value which shows the dispersion | variation in the said brightness | luminance using the said several motion contrast image in which the said reduction process was performed by the said processing means. An image processing apparatus according to 1.
前記出力手段は、表示部に前記出力画像を表示させることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit displays the output image on a display unit. それぞれ異なる時刻における眼底の同一位置に関する複数のモーションコントラスト画像を取得する取得手段と、
前記複数のモーションコントラスト画像の少なくとも1つの画像を処理することにより得られた前記眼底の血管の形態を示す第1の画像を生成する第1の生成手段と、
前記第1の画像に含まれる前記血管を示す領域に、前記複数のモーションコントラスト画像におけるモーションコントラスト値のばらつきを示す情報を対応付けることにより、第2の画像を生成する第2の生成手段と、
前記第2の生成手段により生成された前記第2の画像を出力する出力手段と、を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of motion contrast images relating to the same position of the fundus at different times,
First generating means for generating a first image showing a shape of a blood vessel of the fundus obtained by processing at least one of the plurality of motion contrast images;
Second generation means for generating a second image by associating information indicating variation in motion contrast values in the plurality of motion contrast images with an area indicating the blood vessel included in the first image;
An image processing apparatus comprising: output means for outputting the second image generated by the second generation means.
前記第2の生成手段は、前記第1の画像に含まれる前記血管を示す領域に、前記モーションコントラスト値のばらつきを示す情報に対応した色を付与することにより前記第2の画像を生成することを特徴とする請求項13に記載の画像処理装置。   The second generation unit generates the second image by giving a color corresponding to information indicating variation in the motion contrast value to a region indicating the blood vessel included in the first image. The image processing apparatus according to claim 13. 前記モーションコントラスト値のばらつきを示す情報は、前記複数のモーションコントラスト画像におけるモーションコントラスト値の標準偏差または分散を示す情報であることを特徴とする請求項13または14に記載の画像処理装置。   15. The image processing apparatus according to claim 13, wherein the information indicating the variation in the motion contrast value is information indicating a standard deviation or a variance of the motion contrast value in the plurality of motion contrast images. 前記モーションコントラスト値のばらつきを示す情報は、前記複数のモーションコントラスト画像におけるモーションコントラスト値の標準偏差または分散を前記複数のモーションコントラスト画像のモーションコントラスト値の代表値で正規化した情報であることを特徴とする請求項13または14に記載の画像処理装置。   The information indicating the variation in the motion contrast value is information obtained by normalizing a standard deviation or a variance of the motion contrast values in the plurality of motion contrast images with a representative value of the motion contrast values in the plurality of motion contrast images. The image processing apparatus according to claim 13 or 14. 前記代表値は、前記複数のモーションコントラスト画像のモーションコントラスト値の平均値または中央値であることを特徴とする請求項16に記載の画像処理装置。   The image processing apparatus according to claim 16, wherein the representative value is an average value or a median value of motion contrast values of the plurality of motion contrast images. 前記第1の画像は、前記複数のモーションコントラスト画像の加算平均画像であることを特徴とする請求項13乃至17のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the first image is an averaged image of the plurality of motion contrast images. 前記第1の生成手段は、前記複数のモーションコントラスト画像の加算平均画像に対して先鋭化処理または強調処理を施し、二値化処理を行うことにより血管の形態を示す前記第1の画像を生成することを特徴とする請求項13乃至17のいずれか1項に記載の画像処理装置。   The first generation unit performs a sharpening process or an emphasis process on the addition average image of the plurality of motion contrast images, and generates a first image indicating a blood vessel shape by performing a binarization process. The image processing apparatus according to claim 13, wherein the image processing apparatus is an image processing apparatus. 前記第2の生成手段は、前記第1の画像に含まれる前記血管を示す領域以外の領域に対して前記モーションコントラスト値のばらつきを示す情報を対応付けないことを特徴とする請求項13乃至19のいずれか1項に記載の画像処理装置。   20. The second generation unit does not associate information indicating variation in the motion contrast value with a region other than the region indicating the blood vessel included in the first image. The image processing apparatus according to any one of the above. それぞれ異なる時刻における眼底の同一位置に関する複数のモーションコントラスト画像を取得する取得工程と、
前記複数のモーションコントラスト画像の対応する複数の画素における輝度のばらつきを示す値に基づいて出力画像を生成する生成工程と、
前記生成工程により生成された出力画像を出力する出力工程と、を備えることを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of motion contrast images relating to the same position of the fundus at different times,
A generation step of generating an output image based on a value indicating luminance variation in a plurality of corresponding pixels of the plurality of motion contrast images;
And an output step of outputting the output image generated by the generation step.
それぞれ異なる時刻における眼底の同一位置に関する複数のモーションコントラスト画像を取得する取得工程と、
前記複数のモーションコントラスト画像の少なくとも1つの画像を処理することにより得られた前記眼底の血管の形態を示す第1の画像を生成する第1の生成工程と、
前記第1の画像に含まれる前記血管を示す領域において、前記複数のモーションコントラスト画像におけるモーションコントラスト値のばらつきを示す情報を対応付けることにより、第2の画像を生成する第2の生成工程と、
前記第2の生成工程により生成された前記第2の画像を出力する出力工程と、を備えることを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of motion contrast images relating to the same position of the fundus at different times,
A first generation step of generating a first image showing a shape of a blood vessel of the fundus obtained by processing at least one image of the plurality of motion contrast images;
A second generation step of generating a second image by associating information indicating variations in motion contrast values in the plurality of motion contrast images in a region indicating the blood vessel included in the first image;
And an output step of outputting the second image generated by the second generation step.
請求項21または22に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 21 or 22.
JP2018092472A 2018-05-11 2018-05-11 Image processing device, image processing method and program Active JP7281872B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018092472A JP7281872B2 (en) 2018-05-11 2018-05-11 Image processing device, image processing method and program
PCT/JP2019/010004 WO2019216019A1 (en) 2018-05-11 2019-03-12 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018092472A JP7281872B2 (en) 2018-05-11 2018-05-11 Image processing device, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019195586A true JP2019195586A (en) 2019-11-14
JP2019195586A5 JP2019195586A5 (en) 2021-05-27
JP7281872B2 JP7281872B2 (en) 2023-05-26

Family

ID=68467926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092472A Active JP7281872B2 (en) 2018-05-11 2018-05-11 Image processing device, image processing method and program

Country Status (2)

Country Link
JP (1) JP7281872B2 (en)
WO (1) WO2019216019A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003180641A (en) * 2001-12-13 2003-07-02 Hitoshi Fujii Blood flow velocity measuring apparatus
JP2016010658A (en) * 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical coherence tomography calculation program
JP2016209201A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2017077414A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
WO2017119437A1 (en) * 2016-01-07 2017-07-13 株式会社ニデック Oct signal processing device and oct signal processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6746884B2 (en) * 2015-09-02 2020-08-26 株式会社ニデック Ophthalmic photography device and ophthalmic photography program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003180641A (en) * 2001-12-13 2003-07-02 Hitoshi Fujii Blood flow velocity measuring apparatus
JP2016010658A (en) * 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical coherence tomography calculation program
JP2016209201A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2017077414A (en) * 2015-10-21 2017-04-27 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
WO2017119437A1 (en) * 2016-01-07 2017-07-13 株式会社ニデック Oct signal processing device and oct signal processing program

Also Published As

Publication number Publication date
WO2019216019A1 (en) 2019-11-14
JP7281872B2 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
US20210224997A1 (en) Image processing apparatus, image processing method and computer-readable medium
Abràmoff et al. Retinal imaging and image analysis
JP2020093076A (en) Medical image processing device, learned model, medical image processing method and program
US10973406B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP6526145B2 (en) Image processing system, processing method and program
JP2015160105A (en) Image processing device, image processing method and program
WO2020050308A1 (en) Image processing device, image processing method and program
US10846892B2 (en) Image processing apparatus, image processing method, and storage medium
JP2021122559A (en) Image processing device, image processing method, and program
JP2019047839A (en) Image processing device, positioning method, and program
CN113543695A (en) Image processing apparatus, image processing method, and program
US10789721B2 (en) Image processing apparatus, alignment method and storage medium
JP7195745B2 (en) Image processing device, image processing method and program
JP7005382B2 (en) Information processing equipment, information processing methods and programs
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP7106304B2 (en) Image processing device, image processing method and program
JP2019150485A (en) Image processing system, image processing method, and program
JP2019047841A (en) Image processing device, image processing method, and program
JP7281872B2 (en) Image processing device, image processing method and program
WO2020090439A1 (en) Image processing apparatus, image processing method, and program
JP2022062620A (en) Image processing device, image processing method and program
JP7204345B2 (en) Image processing device, image processing method and program
JP7158860B2 (en) Image processing device, image processing method and program
JP7297952B2 (en) Information processing device, information processing method and program
JP7086708B2 (en) Image processing equipment, image processing methods and programs

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R151 Written notification of patent or utility model registration

Ref document number: 7281872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151