JP7204345B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7204345B2
JP7204345B2 JP2018107223A JP2018107223A JP7204345B2 JP 7204345 B2 JP7204345 B2 JP 7204345B2 JP 2018107223 A JP2018107223 A JP 2018107223A JP 2018107223 A JP2018107223 A JP 2018107223A JP 7204345 B2 JP7204345 B2 JP 7204345B2
Authority
JP
Japan
Prior art keywords
image
motion contrast
dimensional
data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018107223A
Other languages
Japanese (ja)
Other versions
JP2019208845A (en
Inventor
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018107223A priority Critical patent/JP7204345B2/en
Publication of JP2019208845A publication Critical patent/JP2019208845A/en
Application granted granted Critical
Publication of JP7204345B2 publication Critical patent/JP7204345B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

光干渉断層撮像法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。 An eye tomography apparatus such as an apparatus using optical coherence tomography (OCT) (OCT apparatus) is capable of three-dimensionally observing the state inside the retinal layers. In recent years, this tomographic imaging apparatus has been attracting attention because it is useful for more accurately diagnosing diseases.

OCTの形態として、例えば、高速に画像を取得する方法としては、広帯域光源を用い、分光器でインターフェログラムを取得する手法によるSD-OCT(Spectral domain OCT)が知られている。また、光源として高速波長掃引光源を用い、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS-OCT(Swept Source OCT)が知られている。 As a form of OCT, for example, SD-OCT (Spectral domain OCT), which uses a broadband light source and acquires an interferogram with a spectroscope, is known as a method of acquiring images at high speed. Also known is SS-OCT (Swept Source OCT), which uses a fast wavelength swept light source as a light source and measures spectral interference with a single-channel photodetector.

そして、近年では、造影剤を用いない血管造影法としてOCTを用いた血管造影法(OCTA:OCT Angiography)が提案されている。OCTAでは、OCTにより取得した三次元のモーションコントラストデータを二次元平面に投影又は積算することで、血管画像(以下、OCTA画像という。)を生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。 In recent years, an angiography method using OCT (OCTA: OCT angiography) has been proposed as an angiography method that does not use a contrast medium. In OCTA, a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting or integrating three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane. Here, the motion contrast data is data obtained by repeatedly photographing the same section of the object to be measured by OCT, and detecting a temporal change in the object to be measured between the photographing. Motion contrast data can be obtained, for example, by calculating phases, vectors, and temporal changes in intensity of complex OCT signals from differences, ratios, or correlations.

特開2016-209198号公報JP 2016-209198 A

特許文献1に開示される技術では、OCTにより取得した三次元のモーションコントラストデータを投影又は積算することにより、モーションコントラストの正面画像(OCTA画像)を生成する。ここで、正面画像とは、被検体の深さ方向に交差する方向の二次元平面の画像である。しかしながら、このような正面画像の生成方法では、各画素値は選択範囲内におけるモーションコントラストデータの値を投影又は積算することにより求められるため、モーションコントラストデータの深さ方向の位置関係は考慮されていない。そのため、それらの画像を観察すると、血管交差部における血管交差の深度方向における上下関係の状態が把握できないことがある。 In the technique disclosed in Patent Document 1, a motion contrast front image (OCTA image) is generated by projecting or accumulating three-dimensional motion contrast data obtained by OCT. Here, the front image is a two-dimensional plane image in a direction intersecting the depth direction of the object. However, in such a front image generation method, since each pixel value is obtained by projecting or accumulating the motion contrast data values within the selected range, the positional relationship of the motion contrast data in the depth direction is not considered. Absent. Therefore, when observing those images, it may not be possible to grasp the state of the vertical relationship in the depth direction of the blood vessel intersection at the blood vessel intersection.

そこで、本発明は、血管等の深さ方向における位置関係等を観察可能な正面画像を提供することができる画像処理装置、画像処理方法及びプログラムを提供する。 Accordingly, the present invention provides an image processing apparatus, an image processing method, and a program capable of providing a front image in which the positional relationship of blood vessels and the like in the depth direction can be observed.

本発明の一実施態様による画像処理装置は、被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成し、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する生成部と、前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部とを備え、前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である。 An image processing apparatus according to an embodiment of the present invention generates a first front image, which is a motion contrast front image, using at least part of three-dimensional motion contrast data of a subject, and A second front image generated by a method different from that of the first front image using at least part of the second front image, wherein the relative positional relationship in the depth direction of the plurality of intersecting blood vessels of the subject can be identified. a generation unit that generates the second front image; and a display control unit that causes a display unit to display at least one of the first front image and the second front image , wherein the second front image is generated. is an image obtained by volume-rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject .

本発明の他の実施態様による画像処理方法は、被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成する工程と、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程とを含み、前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像であるAn image processing method according to another embodiment of the present invention comprises the steps of: generating a first front image that is a motion contrast front image using at least part of three-dimensional motion contrast data of a subject; A second front image generated by a method different from that of the first front image using at least part of the motion contrast data, wherein the relative positional relationship in the depth direction of the plurality of intersecting blood vessels of the subject is generating the identifiable second front image; and causing a display unit to display at least one of the first front image and the second front image, wherein the second front image The image is an image obtained by volume-rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject .

本発明によれば、血管等の深さ方向における位置関係等を観察可能な正面画像を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the front image which can observe the positional relationship etc. in a depth direction, such as a blood vessel, can be provided.

実施例1に係る画像処理システムの概略的な構成を示す。1 shows a schematic configuration of an image processing system according to a first embodiment; 眼部の構造と断層画像と眼底画像を説明するための図である。FIG. 2 is a diagram for explaining the structure of an eye, a tomographic image, and a fundus image; 実施例1に係る一連の画像処理のフローチャートである。4 is a flowchart of a series of image processing according to Example 1; モーションコントラストデータを説明するための図である。FIG. 4 is a diagram for explaining motion contrast data; FIG. 高画質化処理の効果を説明するための図である。It is a figure for demonstrating the effect of an image quality improvement process. 高画質化処理の効果を説明するための図である。It is a figure for demonstrating the effect of an image quality improvement process. レンダリング画像について説明するための図である。FIG. 4 is a diagram for explaining a rendered image; FIG. レンダリング画像について説明するための図である。FIG. 4 is a diagram for explaining a rendered image; FIG. 実施例1に係る表示画面の一例を示す。4 shows an example of a display screen according to Example 1. FIG. 実施例2に係るレンダリング画像を説明するための図である。FIG. 11 is a diagram for explaining a rendering image according to Example 2; FIG. 実施例2に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 2. FIG. 実施例2に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 2. FIG. 実施例3に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 3. FIG. 実施例3に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 3. FIG. 実施例3に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 3. FIG. 実施例4に係る表示画面の一例を示す。11 shows an example of a display screen according to Example 4. FIG. 実施例5による画像処理システムの概略的な構成を示す。FIG. 11 shows a schematic configuration of an image processing system according to Example 5. FIG. 実施例5に係る色相画像生成処理を説明するための図である。FIG. 11 is a diagram for explaining hue image generation processing according to the fifth embodiment; 変形例4に係る高画質データ生成処理のフローチャートである。14 is a flowchart of high-quality data generation processing according to Modification 4;

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Exemplary embodiments for carrying out the invention will now be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, the same reference numbers are used in the drawings to indicate identical or functionally similar elements.

なお、以下、被検体として人眼である被検眼を例に説明するが、被検体は皮膚や臓器等でもあってもよい。この場合、内視鏡等の医療機器から取得した画像に本開示による画像処理方法を適用することができる。また、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号に基づくデータ、及びこれに高速フーリエ変換(FFT:Fast Fourier Transform)や任意の信号処理を行ったデータを含むものをいう。 In addition, although the eye to be examined, which is a human eye, will be described as an example of the subject, the subject may be skin, an organ, or the like. In this case, the image processing method according to the present disclosure can be applied to an image acquired from a medical device such as an endoscope. In addition, tomographic data is data containing information about the tomogram of the subject, and data based on interference signals by OCT, and data obtained by subjecting this to Fast Fourier Transform (FFT) and arbitrary signal processing. What it contains.

(実施例1)
以下、図1乃至図8を参照しながら、本発明の実施例1に係る画像処理装置を備える画像処理システム、特に眼部の断層画像を用いた画像処理システムについて説明する。
(Example 1)
An image processing system including an image processing apparatus according to a first embodiment of the present invention, in particular, an image processing system using a tomographic image of an eye will be described below with reference to FIGS. 1 to 8. FIG.

図1は、本実施例に係る画像処理装置20を備える画像処理システム1の概略的な構成を示す。図1に示すように、画像処理システム1には、断層画像撮影装置の一例であるOCT装置10、画像処理装置20、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60が設けられている。 FIG. 1 shows a schematic configuration of an image processing system 1 including an image processing device 20 according to this embodiment. As shown in FIG. 1, the image processing system 1 includes an OCT apparatus 10 as an example of a tomography apparatus, an image processing apparatus 20, a fundus imaging apparatus 30, an external storage device 40, a display unit 50, and an input unit 60. is provided.

OCT装置10は、被検眼の断層画像を撮影するための装置である断層画像撮影装置の一例である。OCT装置としては、任意の種類のOCT装置を用いることができ、例えばSD-OCTやSS-OCTを用いることができる。 The OCT apparatus 10 is an example of a tomographic image capturing apparatus for capturing a tomographic image of an eye to be examined. Any type of OCT apparatus can be used as the OCT apparatus, such as SD-OCT and SS-OCT.

画像処理装置20は、インタフェースを介してOCT装置10、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60と接続されており、これらを制御することができる。画像処理装置20は、OCT装置10、眼底画像撮影装置30、及び外部記憶装置40から取得する各種信号に基づいて、被検眼の断層画像、OCTA画像、レンダリング画像、輝度情報に基づくEn-Face画像、及び眼底画像等を生成することができる。また、画像処理装置20は、これら画像について画像処理を施すことができる。なお、画像処理装置20は、汎用のコンピュータによって構成されてもよいし、画像処理システム1専用のコンピュータによって構成されてもよい。 The image processing device 20 is connected to the OCT device 10, the fundus imaging device 30, the external storage device 40, the display section 50, and the input section 60 via interfaces, and can control these. Based on various signals acquired from the OCT device 10, the fundus imaging device 30, and the external storage device 40, the image processing device 20 generates a tomographic image of the subject's eye, an OCTA image, a rendering image, and an En-Face image based on luminance information. , and fundus images can be generated. Further, the image processing device 20 can perform image processing on these images. Note that the image processing apparatus 20 may be configured by a general-purpose computer, or may be configured by a computer dedicated to the image processing system 1 .

眼底画像撮影装置30は、被検眼の眼底画像を撮影するための装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等を用いることができる。なお、OCT装置10と眼底画像撮影装置30の装置構成は、一体型でもよいし別体型でもよい。 The fundus image capturing device 30 is a device for capturing a fundus image of the subject's eye, and for example, a fundus camera, an SLO (Scanning Laser Ophthalmoscope), or the like can be used as the device. The device configuration of the OCT device 10 and the fundus imaging device 30 may be an integrated type or a separate type.

外部記憶装置40は、被検眼に関する情報(患者の氏名、年齢、性別等)と、撮影した各種画像データ、撮影パラメータ、画像解析パラメータ、及び操作者によって設定されたパラメータをそれぞれ関連付けて保持している。外部記憶装置40は、任意の記憶装置によって構成されてよく、例えば、光学ディスクやメモリ等の記憶媒体によって構成されてよい。 The external storage device 40 holds information about the eye to be examined (patient's name, age, sex, etc.), various captured image data, imaging parameters, image analysis parameters, and parameters set by the operator in association with each other. there is The external storage device 40 may be configured by any storage device, and may be configured by, for example, a storage medium such as an optical disk or memory.

表示部50は、任意のディスプレイによって構成され、画像処理装置20による制御に従い、被検眼に関する情報や各種画像を表示することができる。 The display unit 50 is configured by an arbitrary display, and can display information and various images related to the subject's eye under the control of the image processing device 20 .

入力部60は、例えば、マウス、キーボード、又はタッチ操作画面などであり、ユーザは、入力部60を介して、画像処理装置20やOCT装置10、眼底画像撮影装置30への指示を画像処理装置20に入力することができる。なお、入力部60をタッチ操作画面とする場合には、入力部60を表示部50と一体として構成することができる。 The input unit 60 is, for example, a mouse, a keyboard, or a touch operation screen. 20 can be entered. When the input unit 60 is a touch operation screen, the input unit 60 can be integrated with the display unit 50 .

なお、これら構成要素は、図1では別体として示されているが、これら構成要素の一部又は全部を一体として構成してもよい。 In addition, although these components are shown as separate bodies in FIG. 1, some or all of these components may be integrated.

次にOCT装置10について説明する。OCT装置10には、光源11、ガルバノミラー12、フォーカスレンズステージ13、コヒーレンスゲートステージ14、ディテクタ15、及び内部固視灯16が設けられている。なお、OCT装置10は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置20からの指示により行われる断層画像の撮影について説明を行う。 Next, the OCT apparatus 10 will be explained. The OCT apparatus 10 is provided with a light source 11 , a galvanomirror 12 , a focus lens stage 13 , a coherence gate stage 14 , a detector 15 and an internal fixation lamp 16 . Since the OCT apparatus 10 is a well-known apparatus, a detailed description thereof is omitted. Here, the imaging of a tomographic image performed according to an instruction from the image processing apparatus 20 will be described.

画像処理装置20から撮影の指示が伝えられると、光源11が光を出射する。光源11からの光は不図示の分割部を用いて測定光と参照光に分割される。OCT装置10では、測定光を被検体(被検眼)に照射し、被検体からの戻り光と、参照光との干渉光を検出することで、被検体の断層情報を含む干渉信号を生成することができる。 When the image processing device 20 gives an instruction for photographing, the light source 11 emits light. Light from the light source 11 is split into measurement light and reference light using a splitter (not shown). The OCT apparatus 10 irradiates a subject (eye to be examined) with measurement light and detects interference light between the return light from the subject and the reference light to generate an interference signal including tomographic information of the subject. be able to.

ガルバノミラー12は、測定光を被検眼の眼底において走査するために用いられ、ガルバノミラー12による測定光の走査範囲により、OCT撮影による眼底の撮影範囲を規定することができる。画像処理装置20は、ガルバノミラー12の駆動範囲及び速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定することができる。図1では、説明を簡略化するため、ガルバノミラー12を1つのユニットとして示したが、ガルバノミラー12は、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上における所望の範囲を測定光で走査できる。なお、測定光を走査するための走査部の構成はガルバノミラーに限られず、他の任意の偏向ミラーを用いることができる。また、走査部として、例えば、MEMSミラーなどの1枚で二次元方向に測定光を走査することができる偏向ミラーを用いてもよい。 The galvanometer mirror 12 is used to scan the fundus of the subject's eye with measurement light, and the scanning range of the measurement light by the galvanometer mirror 12 can define the imaging range of the fundus in OCT imaging. By controlling the drive range and speed of the galvanomirror 12, the image processing apparatus 20 can define the planar imaging range and the number of scanning lines (scanning speed in the planar direction) on the fundus. In FIG. 1, the galvanomirror 12 is shown as one unit for the sake of simplification of explanation, but the galvanomirror 12 is actually composed of two mirrors for X scanning and Y scanning. A desired range on the above can be scanned with the measuring light. Note that the configuration of the scanning unit for scanning the measurement light is not limited to the galvanomirror, and any other deflection mirror can be used. Further, as the scanning unit, for example, a single deflecting mirror such as a MEMS mirror that can scan the measurement light in two-dimensional directions may be used.

フォーカスレンズステージ13には不図示のフォーカスレンズが設けられている。フォーカスレンズステージ13を移動させることで、フォーカスレンズを測定光の光軸に沿って移動させることができる。このため、フォーカスレンズによって、被検眼の前眼部を介し、眼底の網膜層に測定光をフォーカスすることができる。眼底を照射した測定光は各網膜層で反射・散乱して戻り光として、光路を戻る。 A focus lens (not shown) is provided on the focus lens stage 13 . By moving the focus lens stage 13, the focus lens can be moved along the optical axis of the measurement light. Therefore, the focus lens can focus the measurement light on the retinal layer of the fundus via the anterior segment of the eye to be examined. The measurement light that irradiates the fundus is reflected and scattered by each retinal layer and returns along the optical path as return light.

コヒーレンスゲートステージ14は、被検眼の眼軸長の相違等に対応するため、参照光又は測定光の光路の長さを調整するために用いられる。本実施例では、コヒーレンスゲートステージ14は、ミラーが設けられたステージによって構成され、参照光の光路において光軸方向に移動することで参照光の光路長を測定光の光路長に対応させることができる。ここで、コヒーレンスゲートは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートステージ14は、画像処理装置20により制御されることができる。画像処理装置20は、コヒーレンスゲートステージ14によりコヒーレンスゲートの位置を制御することによって、被検眼の深さ方向の撮影範囲を制御することができ、網膜層側の撮影、又は網膜層より深部側の撮影等を制御することができる。 The coherence gate stage 14 is used to adjust the length of the optical path of the reference light or measurement light in order to cope with the difference in axial length of the eye to be examined. In this embodiment, the coherence gate stage 14 is composed of a stage provided with a mirror, and by moving along the optical path of the reference light in the optical axis direction, the optical path length of the reference light can correspond to the optical path length of the measurement light. can. Here, the coherence gate represents a position in OCT where the optical distances of the measurement light and the reference light are equal. Coherence gate stage 14 may be controlled by image processor 20 . The image processing apparatus 20 can control the imaging range in the depth direction of the subject's eye by controlling the position of the coherence gate by the coherence gate stage 14, and can perform imaging on the retinal layer side or on the deeper side than the retinal layer. Shooting and the like can be controlled.

ディテクタ15は、不図示の干渉部において生じた、被検眼からの測定光の戻り光と参照光との干渉光を検出し、干渉信号を生成する。画像処理装置20は、ディテクタ15からの干渉信号を取得し、干渉信号に対してフーリエ変換等を行うことで被検眼の断層画像を生成することができる。 The detector 15 detects interference light between the return light of the measurement light from the eye to be inspected and the reference light, which is generated in an interference portion (not shown), and generates an interference signal. The image processing device 20 can generate a tomographic image of the subject's eye by acquiring an interference signal from the detector 15 and performing Fourier transform or the like on the interference signal.

内部固視灯16には、表示部161、レンズ162が設けられている。本実施例では、表示部161の一例として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、画像処理装置20の制御により撮影したい部位に応じて変更される。表示部161からの光は、レンズ162を介し、被検眼に導かれる。表示部161から出射される光は、例えば520nmの波長を有し、画像処理装置20による制御により所望のパターンで表示される。 The internal fixation lamp 16 is provided with a display section 161 and a lens 162 . In this embodiment, as an example of the display unit 161, a display unit in which a plurality of light emitting diodes (LD) are arranged in a matrix is used. The lighting position of the light-emitting diode is changed according to the part to be photographed under the control of the image processing device 20 . Light from the display unit 161 is guided to the subject's eye via the lens 162 . The light emitted from the display unit 161 has a wavelength of 520 nm, for example, and is displayed in a desired pattern under the control of the image processing device 20 .

なお、OCT装置10には、画像処理装置20による制御に基づいて、各構成要素の駆動を制御するOCT装置10用の駆動制御部が設けられてもよい。 Note that the OCT apparatus 10 may be provided with a drive control unit for the OCT apparatus 10 that controls driving of each component based on control by the image processing apparatus 20 .

次に、図2(a)乃至図2(c)を参照して、画像処理システム1で取得する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、及び視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置10は、角膜や水晶体等の前眼部を撮影することも可能である。 Next, the structure and images of the eye acquired by the image processing system 1 will be described with reference to FIGS. 2(a) to 2(c). FIG. 2(a) is a schematic diagram of an eyeball. FIG. 2(a) shows the cornea C, lens CL, vitreous body V, macula M (the center of the macula represents the fovea), and optic papilla D. FIG. In this embodiment, a case of photographing the posterior pole of the retina including the vitreous body V, the macula M, and the optic papilla D will be mainly described. Although not described below, the OCT apparatus 10 can also photograph the anterior segment of the eye such as the cornea and the lens.

図2(b)は、OCT装置10を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置10の上記一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、断層画像と呼ぶ。 FIG. 2B shows an example of a tomographic image obtained by imaging the retina using the OCT apparatus 10. As shown in FIG. In FIG. 2B, AS indicates an image unit obtained by one A-scan. Here, the A-scan means acquisition of tomographic information in the depth direction at one point of the subject's eye through the series of operations of the OCT apparatus 10 . Acquiring two-dimensional tomographic information of the subject's eye in the transverse direction (main scanning direction) by performing A-scans multiple times in the transverse direction (main scanning direction) is called B-scanning. A single B-scan image can be configured by collecting a plurality of A-scan images acquired by A-scan. This B-scan image is hereinafter referred to as a tomographic image.

図2(b)には、血管Ve、硝子体V、黄斑部M、視神経乳頭部Dが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。 In FIG. 2(b), a blood vessel Ve, a vitreous body V, a macula M, and an optic papilla D are shown. In addition, the boundary line L1 is the boundary between the inner limiting membrane (ILM) and the nerve fiber layer (NFL), the boundary line L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and the boundary line L3 is the photoreceptor inner segment. Represents outer segment junction (ISOS). Furthermore, the boundary line L4 represents the retinal pigment epithelium layer (RPE), the boundary line L5 represents the Bruch's membrane (BM), and the boundary line L6 represents the choroid. In a tomographic image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (depth direction) is the z-axis.

図2(c)は、眼底画像撮影装置30を用いて被検眼の眼底を撮影することで取得した眼底画像の一例を示す。図2(c)には、黄斑部M、視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(OCTの副走査方向)をy軸とする。 FIG. 2C shows an example of a fundus image obtained by photographing the fundus of the subject's eye using the fundus imaging device 30 . FIG. 2(c) shows the macula M and the optic papilla D, and the blood vessels of the retina are indicated by thick curves. In the fundus image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (sub-scanning direction of OCT) is the y-axis.

次に、画像処理装置20について説明する。画像処理装置20には、取得部21、画像処理部22、駆動制御部23、記憶部24、及び表示制御部25が設けられている。 Next, the image processing device 20 will be described. The image processing device 20 is provided with an acquisition section 21 , an image processing section 22 , a drive control section 23 , a storage section 24 and a display control section 25 .

取得部21は、OCT装置10から被検眼の干渉信号のデータを取得することができる。なお、取得部21が取得する干渉信号のデータは、アナログ信号でもデジタル信号でもよい。取得部21がアナログ信号を取得する場合には、画像処理装置20でアナログ信号をデジタル信号に変換することができる。また、取得部21は、画像処理部22で生成された断層データ、モーションコントラストデータ、断層画像、眼底画像、OCTA画像、レンダリング画像、及びEn-Face画像を取得することができる。さらに、取得部21は、眼底画像撮影装置30で取得した眼底情報を含むデータ等を取得することができる。また、取得部21は、被検者識別番号等の被検眼を同定するための情報を入力部60等から取得することができる。取得部21は、取得した各種データや画像を記憶部24に記憶させることができる。 The acquisition unit 21 can acquire the data of the interference signal of the eye to be examined from the OCT apparatus 10 . Note that the interference signal data acquired by the acquisition unit 21 may be an analog signal or a digital signal. When the acquisition unit 21 acquires an analog signal, the image processing device 20 can convert the analog signal into a digital signal. The acquiring unit 21 can also acquire tomographic data, motion contrast data, tomographic images, fundus images, OCTA images, rendering images, and En-Face images generated by the image processing unit 22 . Furthermore, the acquisition unit 21 can acquire data including the fundus information acquired by the fundus imaging device 30 . Further, the acquisition unit 21 can acquire information for identifying the eye to be examined, such as the subject's identification number, from the input unit 60 or the like. The acquisition unit 21 can store the acquired various data and images in the storage unit 24 .

画像処理部22は、取得部21で取得されたデータや記憶部24に記憶されたデータから、各種画像を生成し、生成した画像に画像処理を施すことができる。画像処理部22には、断層画像生成部221、モーションコントラストデータ生成部222、正面画像生成部223、検出部224、高画質データ生成部225、及びレンダリング部226が設けられている。 The image processing unit 22 can generate various images from the data acquired by the acquisition unit 21 and the data stored in the storage unit 24, and apply image processing to the generated images. The image processing unit 22 is provided with a tomographic image generating unit 221 , a motion contrast data generating unit 222 , a front image generating unit 223 , a detecting unit 224 , a high image quality data generating unit 225 and a rendering unit 226 .

断層画像生成部221は、取得部21で取得された干渉信号に対してフーリエ変換等の処理を施して断層データを生成し、断層データに基づいて断層画像を生成することができる。なお、断層画像の生成方法としては既知の任意の方法を採用してよく、詳細な説明は省略する。 The tomographic image generation unit 221 can generate tomographic data by performing processing such as Fourier transform on the interference signal acquired by the acquisition unit 21, and can generate a tomographic image based on the tomographic data. Note that any known method may be employed as a method for generating a tomographic image, and detailed description thereof will be omitted.

モーションコントラストデータ生成部222は、断層画像生成部221で生成した断層データに基づいて、モーションコントラストデータを生成する。なお、モーションコントラストデータの生成方法としては、既知の任意の方法を用いてよい。例えば、所定の時間間隔の間に取得された干渉信号に基づく2枚の断層画像の互いに対応する画素における画素値の脱相関値や分散値、最大値を最小値で割った値(最大値/最小値)をモーションコントラストデータとして求めることができる。本実施例では、モーションコントラストデータ生成部222は、2枚の断層画像に対応する断層データ同士の脱相関値に基づいてモーションコントラストデータを生成する。 The motion contrast data generator 222 generates motion contrast data based on the tomographic data generated by the tomographic image generator 221 . Any known method may be used as a method for generating motion contrast data. For example, a decorrelation value or a variance value of pixel values of mutually corresponding pixels in two tomographic images based on interference signals acquired during a predetermined time interval, or a value obtained by dividing the maximum value by the minimum value (maximum value/ minimum value) can be obtained as motion contrast data. In this embodiment, the motion contrast data generator 222 generates motion contrast data based on the decorrelation value between tomographic data corresponding to two tomographic images.

正面画像生成部223は、モーションコントラストデータ生成部222で生成した三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像(OCTA画像)を生成することができる。また、正面画像生成部223は、高画質化された三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像を生成することもできる。さらに、正面画像生成部223は、取得部21で取得された干渉信号に基づく三次元の断層データや高画質化された三次元の断層データから二次元の断層正面画像(輝度のEn-Face画像)を生成することができる。 The front image generator 223 can generate a two-dimensional motion contrast front image (OCTA image) from the three-dimensional motion contrast data generated by the motion contrast data generator 222 . The front image generation unit 223 can also generate a two-dimensional motion contrast front image from three-dimensional motion contrast data with high image quality. Furthermore, the front image generation unit 223 generates a two-dimensional front image (luminance En-Face image ) can be generated.

検出部224は、取得部21で取得した断層データに基づいて被検眼の網膜の各層の境界線を検出することができる。高画質データ生成部225は、三次元のモーションコントラストデータ同士を位置合わせし、加算平均(合成)することで、高画質な三次元のモーションコントラストデータを生成することができる。また、高画質データ生成部225は、三次元の断層データ同士を位置合わせし、加算平均することで、高画質な三次元の断層データを生成することもできる。ここで、高画質なデータとは一度の撮影と比較してS/N比が向上しているデータ、又は検査・診断に必要な情報量が増えているデータをいう。 The detection unit 224 can detect the boundary line of each layer of the retina of the subject's eye based on the tomographic data acquired by the acquisition unit 21 . The high-quality data generation unit 225 can generate high-quality three-dimensional motion contrast data by aligning and averaging (combining) the three-dimensional motion contrast data. The high-quality data generation unit 225 can also generate high-quality three-dimensional tomographic data by aligning three-dimensional tomographic data and averaging them. Here, high-quality data refers to data with an improved S/N ratio compared to one-time imaging, or data with an increased amount of information necessary for examination/diagnosis.

レンダリング部226は、高画質な三次元の断層データや、高画質な三次元のモーションコントラストデータに対してボリュームレンダリングを行い、レンダリング画像を生成することができる。レンダリング部226には、視点決定部261及び範囲選択部262が設けられている。レンダリング部226は、視点決定部261によって決定された視点位置と、範囲選択部262によって選択されたデータ範囲に基づいて三次元のデータをボリュームレンダリングする。なお、レンダリング部226は、取得部21によって取得された三次元の断層データや三次元のモーションコントラストデータに対してボリュームレンダリングを行ってもよい。 The rendering unit 226 can perform volume rendering on high-quality three-dimensional tomographic data and high-quality three-dimensional motion contrast data to generate rendered images. A viewpoint determination unit 261 and a range selection unit 262 are provided in the rendering unit 226 . The rendering unit 226 volume-renders three-dimensional data based on the viewpoint position determined by the viewpoint determination unit 261 and the data range selected by the range selection unit 262 . Note that the rendering unit 226 may perform volume rendering on the three-dimensional tomographic data and the three-dimensional motion contrast data acquired by the acquisition unit 21 .

視点決定部261は、予め記憶された所定の視点位置又はユーザによって指定された視点位置に基づいて、ボリュームレンダリングを行う際の視点位置を決定する。なお、以下において、視点位置を単に視点ともいう。 The viewpoint determination unit 261 determines a viewpoint position for volume rendering based on a predetermined viewpoint position stored in advance or a viewpoint position specified by the user. Note that the viewpoint position is also simply referred to as a viewpoint hereinafter.

範囲選択部262は、所定のデータ範囲、又はユーザによって指定されたデータ範囲に基づいて、ボリュームレンダリングを行う際に用いるデータの範囲を選択する。また、範囲選択部262は、OCTA画像を生成する際に用いる深さ範囲(生成範囲)の上端及び下端に基づいて、ボリュームレンダリングを行う三次元モーションコントラストデータのデータ範囲を選択することもできる。例えば、OCTA画像の生成範囲の上端としてILM/NFL境界線、下端としてGCL/IPL境界線が設定されている場合、範囲選択部262はこれらの境界線の間に含まれる三次元のデータ範囲を選択することができる。 The range selection unit 262 selects a range of data to be used for volume rendering based on a predetermined data range or a data range specified by the user. The range selection unit 262 can also select the data range of the 3D motion contrast data for volume rendering based on the upper and lower ends of the depth range (generation range) used when generating the OCTA image. For example, when the ILM/NFL boundary line is set as the upper end of the generation range of the OCTA image, and the GCL/IPL boundary line is set as the lower end, the range selection unit 262 selects the three-dimensional data range included between these boundary lines. can be selected.

駆動制御部23は、画像処理装置20に接続されている、OCT装置10や眼底画像撮影装置30の各構成要素の駆動を制御することができる。記憶部24は、取得部21で取得された断層データ、及び画像処理部22で生成・処理された各種画像やデータ等を記憶することができる。また、記憶部24は、プロセッサーによって実行されることで画像処理装置20の各構成要素の機能を果たすためのプログラム等を記憶することもできる。 The drive control unit 23 can control driving of each component of the OCT device 10 and the fundus imaging device 30 connected to the image processing device 20 . The storage unit 24 can store tomographic data acquired by the acquisition unit 21 and various images and data generated and processed by the image processing unit 22 . The storage unit 24 can also store a program or the like for performing the function of each component of the image processing apparatus 20 by being executed by the processor.

表示制御部25は、取得部21で取得された各種情報や画像処理部22で生成・処理された各種画像、及びユーザによって入力された情報等の表示部50における表示を制御することができる。 The display control unit 25 can control the display on the display unit 50 of various information acquired by the acquisition unit 21, various images generated and processed by the image processing unit 22, and information input by the user.

画像処理装置20の記憶部24以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部24は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component of the image processing apparatus 20 other than the storage unit 24 may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit). Also, each component may be configured by a circuit or the like that performs a specific function, such as an ASIC. The storage unit 24 may be composed of, for example, an arbitrary storage medium such as an optical disk or memory.

次に、本実施例に係る画像処理方法について説明する。本実施例に係る画像処理方法では、三次元のモーションコントラストデータをXY面方向に対して正面視の視点に基づいてボリュームレンダリングしたレンダリング画像をOCTA画像と比較しやすい状態で表示する。ここで、正面視の視点とは、厳密に正面から見た視点に限られず、正面から僅かに角度を有した視点を含むものをいう。このようなレンダリング画像を、OCTA画像と比較しやすい状態で表示することで、OCTA画像では把握できない血管の交差部等の深さ方向における位置関係等を観察することができる。なお、XY面方向は被検体の深さ方向に交差する方向に対応する。 Next, an image processing method according to this embodiment will be described. In the image processing method according to the present embodiment, a rendering image obtained by volume-rendering three-dimensional motion contrast data based on a front view viewpoint in the XY plane direction is displayed in a state that can be easily compared with an OCTA image. Here, the front view point of view is not strictly limited to a point of view seen from the front, but includes a point of view slightly angled from the front. By displaying such a rendered image in a state that can be easily compared with the OCTA image, it is possible to observe the positional relationship in the depth direction, such as the intersection of blood vessels, which cannot be grasped from the OCTA image. Note that the XY plane direction corresponds to a direction intersecting the depth direction of the subject.

以下、図3を参照して本実施例に係る一連の画像処理の手順を示す。図3は、本実施例に係る一連の画像処理のフローチャートである。本実施例に係る画像処理が開始されると、処理はステップS301に移行する。 A series of image processing procedures according to this embodiment will be described below with reference to FIG. FIG. 3 is a flowchart of a series of image processing according to this embodiment. When the image processing according to this embodiment is started, the process proceeds to step S301.

ステップS301では、取得部21が、被検眼を同定する情報の一例である被検者識別番号を入力部60等の画像処理装置20の外部から取得する。取得部21は、被検者識別番号に基づいて、外部記憶装置40が保持している当該被検眼に関する情報を取得して記憶部24に記憶する。 In step S<b>301 , the acquisition unit 21 acquires a subject identification number, which is an example of information for identifying an eye to be examined, from outside the image processing apparatus 20 such as the input unit 60 . The acquisition unit 21 acquires information about the subject's eye held in the external storage device 40 based on the subject identification number, and stores the information in the storage unit 24 .

ステップS302では、駆動制御部23がOCT装置10を制御して被検眼をスキャンすることで撮影を行い、取得部21がOCT装置10から被検眼の断層情報を含む干渉信号を取得する。被検眼のスキャンは、ユーザによるスキャン開始の指示に応じて、駆動制御部23がOCT装置10を制御し、光源11やガルバノミラー12等を動作させることで行われる。 In step S<b>302 , the drive control unit 23 controls the OCT apparatus 10 to scan the subject's eye for imaging, and the acquisition unit 21 acquires an interference signal including tomographic information of the subject's eye from the OCT apparatus 10 . The eye to be inspected is scanned by the drive control unit 23 controlling the OCT apparatus 10 and operating the light source 11, the galvanomirror 12, etc. in response to the user's instruction to start scanning.

ガルバノミラー12は、水平方向用のXスキャナと垂直方向用のYスキャナを含む。そのため、駆動制御部23は、これらのスキャナの向きをそれぞれ変更することで、装置座標系における水平方向(X)及び垂直方向(Y)のそれぞれの方向に測定光を走査することができる。なお、駆動制御部23は、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向にも測定光を走査することができる。そのため、駆動制御部23は、眼底平面上の任意の方向に測定光を走査することができる。 The galvanomirror 12 includes a horizontal X scanner and a vertical Y scanner. Therefore, the drive control unit 23 can scan the measurement light in each of the horizontal (X) and vertical (Y) directions in the device coordinate system by changing the directions of these scanners. By simultaneously changing the directions of these scanners, the drive control unit 23 can also scan the measurement light in a direction that combines the horizontal direction and the vertical direction. Therefore, the drive control unit 23 can scan the measurement light in any direction on the fundus plane.

駆動制御部23は、撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、駆動制御部23は、内部固視灯16で表示するパターンの位置、ガルバノミラー12によるスキャン範囲やスキャンパターン、コヒーレンスゲート位置、及びフォーカスを少なくとも設定する。 The drive control unit 23 adjusts various photographing parameters when photographing. Specifically, the drive control unit 23 sets at least the position of the pattern displayed by the internal fixation lamp 16, the scan range and scan pattern by the galvanomirror 12, the coherence gate position, and the focus.

駆動制御部23は、表示部161の発光ダイオードを制御して、被検眼の黄斑部中心や視神経乳頭の撮影を行うように内部固視灯16で表示するパターンの位置を制御する。また、駆動制御部23は、ガルバノミラー12のスキャンパターンとして、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャンなどのスキャンパターンを設定する。これら撮影パラメータの調整終了後、ユーザによる撮影開始の指示に応じて、駆動制御部23がOCT装置10を制御して被検眼の撮影を行う。 The drive control unit 23 controls the light emitting diodes of the display unit 161 to control the position of the pattern displayed by the internal fixation lamp 16 so as to image the center of the macular region and the optic papilla of the subject's eye. Further, the drive control unit 23 sets, as the scan pattern of the galvanomirror 12, a scan pattern such as a raster scan, a radial scan, or a cross scan for imaging a three-dimensional volume. After the adjustment of these imaging parameters is completed, the driving control unit 23 controls the OCT apparatus 10 to perform imaging of the subject's eye in response to the user's instruction to start imaging.

本実施例においては、スキャンパターンはラスタスキャンによる三次元ボリュームスキャンであり、OCT装置10は、高画質なデータを生成するために、被検眼の三次元ボリュームをN回(Nは2以上)撮影する。OCT装置10は、N回繰り返して行う撮影について、同じ撮影範囲を同じスキャンパターンで撮影する。例えば、3mm×3mmの範囲を300×300(主走査×副走査)の間隔で繰り返し撮影を行う。 In this embodiment, the scan pattern is a three-dimensional volume scan by raster scanning, and the OCT apparatus 10 captures the three-dimensional volume of the subject's eye N times (N is 2 or more) in order to generate high-quality data. do. The OCT apparatus 10 images the same imaging range with the same scan pattern for imaging repeatedly performed N times. For example, an area of 3 mm×3 mm is photographed repeatedly at intervals of 300×300 (main scanning×sub scanning).

また、三次元ボリュームスキャンを行う際にOCT装置10は、モーションコントラストデータを生成するために略同一のライン箇所をm回(mは2以上)繰り返し撮影する。すなわち、取得部21は、例えば、mが2回だとする場合、実際には2×300×300のデータを取得する。この場合には、モーションコントラストデータ生成部222は、後述する処理により、2×300×300のデータに基づいて300×300の三次元モーションコントラストデータを生成する。なお、略同一のライン箇所とは、同一のライン箇所だけでなく、モーションコントラストデータを生成する際に許容される程度にずれたライン箇所も含むものをいう。 Further, when performing a three-dimensional volume scan, the OCT apparatus 10 repeatedly images approximately the same line location m times (where m is 2 or more) in order to generate motion contrast data. That is, for example, when m is two times, the acquisition unit 21 actually acquires 2×300×300 data. In this case, the motion contrast data generation unit 222 generates 300×300 three-dimensional motion contrast data based on 2×300×300 data by the processing described later. Note that substantially the same line location includes not only the same line location, but also a line location that deviates to a degree that is allowed when motion contrast data is generated.

本開示においては詳細な説明を省略するが、OCT装置10は、加算平均用に同じ箇所を撮影するために、被検眼のトラッキングを行うことができる。これにより、OCT装置10は、固視微動の影響を少なくして被検眼のスキャンを行うことができる。さらに、OCT装置10は、画像を生成するにあたりアーティファクトとなるまばたき等の動きを検出した場合には、アーティファクトが発生した場所で再スキャンを自動的に行うことができる。 Although detailed description is omitted in the present disclosure, the OCT apparatus 10 can perform tracking of the subject's eye in order to photograph the same location for averaging. As a result, the OCT apparatus 10 can scan the subject's eye with less influence of involuntary eye movement. Furthermore, when the OCT apparatus 10 detects movement such as blinking that causes an artifact when generating an image, it is possible to automatically perform rescanning at the location where the artifact occurred.

ステップS303では、断層画像生成部221が、取得部21によって取得された干渉信号に基づいて断層画像の生成を行う。断層画像生成部221は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成することができる。 In step S<b>303 , the tomographic image generation unit 221 generates a tomographic image based on the interference signal acquired by the acquisition unit 21 . The tomographic image generator 221 can generate a tomographic image by performing general reconstruction processing on each interference signal.

まず、断層画像生成部221は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、取得した複数のAスキャンの信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。その後、断層画像生成部221は、有限区間で干渉信号をフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。断層画像生成部221は、窓関数処理を行った干渉信号に対して高速フーリエ変換(FFT)処理を行うことによって断層データを生成する。 First, the tomographic image generator 221 removes fixed pattern noise from the interference signal. Fixed pattern noise removal is performed by averaging a plurality of acquired A-scan signals to extract fixed pattern noise and subtracting it from the input interference signal. After that, the tomographic image generator 221 performs desired window function processing in order to optimize the depth resolution and the dynamic range, which are in a trade-off relationship when the interference signal is Fourier transformed in a finite interval. The tomographic image generating unit 221 generates tomographic data by performing fast Fourier transform (FFT) processing on the window function-processed interference signal.

断層画像生成部221は、生成した断層データに基づいて断層画像の各画素値を求め、断層画像を生成する。なお、断層画像の生成方法はこれに限られず、既知の任意の方法で行われてよい。 The tomographic image generation unit 221 obtains each pixel value of the tomographic image based on the generated tomographic data, and generates a tomographic image. Note that the method for generating the tomographic image is not limited to this, and any known method may be used.

ステップS304では、モーションコントラストデータ生成部222が、断層画像生成部221によって生成された断層データに基づいて、モーションコントラストデータの生成を行う。ここで、図4を参照して、モーションコントラストデータの生成について説明を行う。図4には、三次元のモーションコントラストデータMC、三次元のモーションコントラストデータMCを構成する二次元のモーションコントラストデータLMCが示されている。ここでは、二次元のモーションコントラストデータLMCを生成する方法について説明をする。 In step S<b>304 , the motion contrast data generator 222 generates motion contrast data based on the tomographic data generated by the tomographic image generator 221 . Here, generation of motion contrast data will be described with reference to FIG. FIG. 4 shows three-dimensional motion contrast data MC and two-dimensional motion contrast data LMC constituting the three-dimensional motion contrast data MC. Here, a method for generating two-dimensional motion contrast data LMC will be described.

モーションコントラストデータ生成部222は、まず被検眼の略同一範囲で撮影された複数の断層画像間の位置ずれを補正する。ここで、断層画像間の位置ずれの補正方法は任意の方法であってよい。例えば、モーションコントラストデータ生成部222は、略同一範囲をm回撮影して取得した三次元の断層データのうち、略同一箇所に対応する断層データ同士について、眼底形状の特徴等を利用して位置合わせを行う。なお、以下において、1枚の断層画像に対応する断層データを1組の断層データといい、m枚の断層画像に対応する断層データをm組の断層データという。 The motion contrast data generator 222 first corrects positional deviations between a plurality of tomographic images captured in substantially the same range of the subject's eye. Here, any method may be used to correct positional deviation between tomographic images. For example, the motion contrast data generation unit 222 uses the characteristics of the shape of the fundus oculi to determine the position of the tomographic data corresponding to substantially the same part of the three-dimensional tomographic data obtained by photographing the substantially same range m times. Align. In the following description, tomographic data corresponding to one tomographic image is referred to as one set of tomographic data, and tomographic data corresponding to m tomographic images is referred to as m sets of tomographic data.

具体的には、略同一箇所のm回の撮影に対応するm組の断層データのうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層データとの類似度を求め、テンプレートとの位置ずれ量を求める。その後、モーションコントラストデータ生成部222は、求めた位置ずれ量に基づいて、m組の断層データの各断層データを補正する。 Specifically, one of m sets of tomographic data corresponding to m times of imaging of substantially the same location is selected as a template, and the degree of similarity with other tomographic data is obtained while changing the position and angle of the template. , and the amount of positional deviation from the template. After that, the motion contrast data generator 222 corrects each tomographic data of the m sets of tomographic data based on the obtained positional deviation amount.

次にモーションコントラストデータ生成部222は、各断層データに関する撮影時間が所定の時間間隔内である、2組の断層データ間で式1により脱相関値M(x,z)を求める。

Figure 0007204345000001
ここで、A(x,z)は断層データAの位置(x,z)における輝度、B(x,z)は断層データBの同一位置(x、z)における輝度を示している。 Next, the motion contrast data generation unit 222 obtains the decorrelation value M(x, z) between two sets of tomographic data for which the imaging time for each tomographic data is within a predetermined time interval using Equation 1.
Figure 0007204345000001
Here, A(x, z) indicates the brightness at the position (x, z) of the tomographic data A, and B(x, z) indicates the brightness at the same position (x, z) of the tomographic data B. FIG.

脱相関値M(x,z)は0~1の値となり、2つの輝度の差が大きいほどM(x,z)の値は大きくなる。モーションコントラストデータ生成部222は、略同一位置で行った撮影の繰り返し回数mが3以上の場合には、同一位置(x,z)において複数の脱相関値M(x,z)を求めることができる。モーションコントラストデータ生成部222は、求めた複数の脱相関値M(x,z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラストデータを生成することができる。なお、繰り返し回数mが2の場合、最大値演算や平均演算などの統計的な処理は行わず、2組の断層データA,Bの脱相関値M(x,z)が、位置(x,z)におけるモーションコントラストデータの値となる。 The decorrelation value M(x, z) is a value between 0 and 1, and the larger the difference between the two luminances, the larger the value of M(x, z). The motion contrast data generation unit 222 can obtain a plurality of decorrelation values M(x, z) at the same position (x, z) when the number m of repetitions of imaging performed at substantially the same position is 3 or more. can. The motion contrast data generation unit 222 can generate final motion contrast data by performing statistical processing such as maximum value calculation and average calculation of the plurality of decorrelation values M(x, z) obtained. can. Note that when the number of repetitions m is 2, statistical processing such as maximum value calculation and average calculation is not performed, and the decorrelation value M (x, z) of the two sets of tomographic data A and B is the position (x, z) is the value of the motion contrast data.

式1に示したモーションコントラストデータの計算式はノイズの影響を受けやすい傾向がある。例えば、複数組の断層データの無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、モーションコントラストデータ生成部222は、前処理として、所定の閾値を下回る断層データはノイズとみなして、ゼロに置き換えることができる。これにより、後述する処理において、正面画像生成部223は、当該前処理を施して生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。 The motion contrast data calculation formula shown in Equation 1 tends to be susceptible to noise. For example, when there is noise in non-signal portions of multiple sets of tomographic data and the values differ from each other, the decorrelation value increases and noise is superimposed on the motion contrast image. In order to avoid this, the motion contrast data generator 222 can regard tomographic data below a predetermined threshold as noise and replace it with zero as preprocessing. As a result, in the processing described later, the front image generation unit 223 can generate a motion contrast image with reduced influence of noise based on the motion contrast data generated by performing the preprocessing.

画像処理装置20は、ステップS302~ステップS304の処理を複数回のボリュームスキャンで取得した干渉信号に対して行うことで、複数の三次元断層データ(三次元断層画像)と複数の三次元モーションコントラストデータを取得することができる。なお、画像処理装置20は、1回のボリュームスキャンで干渉信号を取得する毎にステップS302~S304の処理を随時行ってもよい。この場合、1回目のボリュームスキャンでは1つの三次元断層データしか得られないため、モーションコントラストデータの生成処理を省略し、2回目以降の処理においてモーションコントラストデータを生成することができる。 The image processing apparatus 20 performs the processing of steps S302 to S304 on the interference signals acquired by multiple volume scans, thereby obtaining a plurality of three-dimensional tomographic data (three-dimensional tomographic images) and a plurality of three-dimensional motion contrasts. Data can be obtained. Note that the image processing apparatus 20 may perform the processing of steps S302 to S304 whenever an interference signal is acquired in one volume scan. In this case, since only one piece of three-dimensional tomographic data is obtained in the first volume scan, the motion contrast data generation process can be omitted, and motion contrast data can be generated in the second and subsequent processes.

ステップS305では、検出部224が、三次元断層データにおいて網膜層の境界線(層境界)を検出する。検出部224は、図2(b)の断層画像においてL1~L6の各境界、又は不図示のGCL/IPL、IPL/INL、INL/OPL、及びOPL/ONL境界のいずれかを検出する。 In step S305, the detection unit 224 detects a boundary line (layer boundary) between retinal layers in the three-dimensional tomographic data. The detection unit 224 detects any one of the boundaries of L1 to L6 or the GCL/IPL, IPL/INL, INL/OPL, and OPL/ONL boundaries (not shown) in the tomographic image of FIG. 2(b).

具体的には、検出部224は、処理の対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用してメディアン画像及びSobel画像を生成する。次に、検出部224は、生成したメディアン画像とSobel画像から、Aスキャンに対応する断層データ毎にプロファイルを生成する。ここで、生成されるプロファイルは、メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。その後、検出部224は、Sobel画像から生成したプロファイル内のピークを検出する。検出部224は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出する。 Specifically, the detection unit 224 generates a median image and a Sobel image by applying a median filter and a Sobel filter to the tomographic image to be processed. Next, the detection unit 224 generates a profile for each tomographic data corresponding to the A-scan from the generated median image and Sobel image. Here, the generated profile is a luminance value profile for the median image, and a gradient profile for the Sobel image. After that, the detection unit 224 detects peaks in the profile generated from the Sobel image. The detection unit 224 detects the boundary of each area of the retinal layer by referring to the profile of the median image corresponding to before and after the detected peak and between the peaks.

なお、層境界を検出する方法は当該方法に限られない。検出部224は、既知の任意の方法により層境界を検出することができる。 Note that the method for detecting layer boundaries is not limited to this method. The detector 224 can detect layer boundaries by any known method.

ステップS306では、高画質データ生成部225が、複数の三次元断層データ及び複数の三次元モーションコントラストデータを用いて高画質な三次元データを生成する。以下、三次元データとは、輝度値からなる三次元断層データと、脱相関値からなる三次元モーションコントラストデータのことを指す。 In step S306, the high-quality data generation unit 225 generates high-quality three-dimensional data using multiple pieces of three-dimensional tomographic data and multiple pieces of three-dimensional motion contrast data. Three-dimensional data hereinafter refers to three-dimensional tomographic data consisting of luminance values and three-dimensional motion contrast data consisting of decorrelation values.

具体的には、高画質データ生成部225は、層境界の情報及び複数の三次元モーションコントラストデータに基づいて正面画像生成部223によって生成されたモーションコントラスト正面画像を位置合わせ用の画像として取得する。なお、正面画像生成部223によるモーションコントラスト正面画像の生成方法については後述する。高画質データ生成部225は、取得した位置合わせ用の画像に基づいて、複数の三次元モーションコントラストデータから基準となる三次元モーションコントラストデータを選択する。その後、高画質データ生成部225は、基準となる三次元モーションコントラストデータと他の三次元モーションコントラストデータとをX,Y,Z方向について位置合わせし、位置合わせした複数のモーションコントラストデータを加算平均する。これにより、高画質データ生成部225は、高画質な三次元モーションコントラストデータを生成することができる。 Specifically, the high image quality data generation unit 225 acquires the motion contrast front image generated by the front image generation unit 223 based on the layer boundary information and a plurality of three-dimensional motion contrast data as an image for alignment. . A method of generating a motion contrast front image by the front image generation unit 223 will be described later. The high-quality data generation unit 225 selects reference 3D motion contrast data from a plurality of 3D motion contrast data based on the acquired image for alignment. Thereafter, the high-quality data generation unit 225 aligns the reference 3D motion contrast data with other 3D motion contrast data in the X, Y, and Z directions, and adds and averages the aligned motion contrast data. do. Accordingly, the high image quality data generation unit 225 can generate high image quality 3D motion contrast data.

また、高画質データ生成部225は、基準とされた三次元モーションコントラストデータに対応する三次元断層データを基準とし、複数の三次元断層データの位置合わせを行い、位置合わせ後の複数の三次元断層データを加算平均する。これにより、高画質データ生成部225は、高画質な三次元断層データ(三次元断層画像)を生成することができる。なお、高画質データ生成部225は、モーションコントラストデータの位置合わせパラメータを用いて、複数の三次元断層データについて位置合わせを行ってもよい。 In addition, the high-quality data generation unit 225 aligns a plurality of 3D tomographic data with reference to the 3D tomographic data corresponding to the 3D motion contrast data used as a reference, and performs alignment of a plurality of 3D tomographic data after alignment. Add and average the tomographic data. Thereby, the high-quality data generation unit 225 can generate high-quality three-dimensional tomographic data (three-dimensional tomographic image). Note that the high-quality data generation unit 225 may align a plurality of pieces of three-dimensional tomographic data using alignment parameters of motion contrast data.

なお、モーションコントラストデータの位置合わせ方法及び三次元断層データの位置合わせ方法は、上記方法に限られず、既知の任意の方法を用いてよい。 Note that the motion contrast data registration method and the three-dimensional tomographic data registration method are not limited to the above methods, and any known method may be used.

ここで、高画質化処理を行う前後の三次元データに基づく画像の例を図5(a)乃至図6(b)に示す。図5(a)は、高画質化処理前の三次元モーションコントラストデータから生成された一断面の画像500、及び高画質化処理後の三次元モーションコントラストデータから生成された一断面の画像501を示す。 Here, examples of images based on three-dimensional data before and after the image quality enhancement process are shown in FIGS. 5(a) to 6(b). FIG. 5A shows an image 500 of one section generated from the 3D motion contrast data before the image quality enhancement process and an image 501 of one section generated from the 3D motion contrast data after the image quality enhancement process. show.

高画質化処理では、上述のように、三次元モーションコントラストデータと同様に、複数の三次元断層データに関しても高画質化処理を行う。ここで、図5(b)は、高画質化処理前の三次元断層データから生成された一断面の画像510、及び高画質化処理後の三次元断層データから生成された一断面の画像511を示す。 In the image quality enhancement process, as described above, the image quality enhancement process is performed on a plurality of pieces of three-dimensional tomographic data as well as the three-dimensional motion contrast data. Here, FIG. 5B shows a cross-sectional image 510 generated from three-dimensional tomographic data before image quality enhancement processing and a one-sectional image 511 generated from three-dimensional tomographic data after image quality enhancement processing. indicates

図5(a)及び図5(b)に示すように、高画質化処理前の画像ではノイズが多く血管とノイズの差や、層の境界が不明瞭である。これに対し、高画質化処理後の画像ではノイズが少なく血管や網膜層の構造を認識することができる。 As shown in FIGS. 5(a) and 5(b), the image before the image quality enhancement process has a lot of noise, and the difference between blood vessels and noise and the boundary between layers are unclear. On the other hand, the image after high-quality image processing has little noise, and the structure of blood vessels and retinal layers can be recognized.

図6(a)は、高画質化処理前の三次元モーションコントラストデータから生成された網膜表層のOCTA画像600、及び高画質化処理後の三次元モーションコントラストデータから生成された網膜表層のOCTA画像601を示す。また、図6(b)は、高画質化前の三次元断層データから生成される正面画像610、及び高画質化処理後の三次元断層データから生成される正面画像611を示す。図6(a)及び図6(b)に示すように、高画質化処理を行うことで、OCTA画像や輝度値に基づく正面画像(En-Face画像)についても、ノイズやアーティファクトが低減された明瞭な画像を生成することができる。 FIG. 6A shows an OCTA image 600 of the retinal surface layer generated from the 3D motion contrast data before the image quality enhancement process, and an OCTA image 600 of the retinal surface layer generated from the 3D motion contrast data after the image quality enhancement process. 601 is shown. FIG. 6B shows a front image 610 generated from three-dimensional tomographic data before image quality enhancement and a front image 611 generated from three-dimensional tomographic data after image quality enhancement processing. As shown in FIGS. 6(a) and 6(b), noise and artifacts were reduced in the OCTA image and the front image (En-Face image) based on the luminance value by performing the image quality enhancement process. A clear image can be produced.

高画質化処理が行われたら、処理はステップS307に移行する。ステップS307では、正面画像生成部223が、ユーザによって指定される正面画像の生成範囲に基づいて、高画質な三次元モーションコントラストデータから、モーションコントラストデータの正面画像であるOCTA画像を生成する。なお、取得部21が、正面画像の生成範囲について、ユーザからの指示を取得することができる。また、取得部21は、OCT装置10や画像処理装置20の撮影モード、又は撮影部位等に応じて予め定められたデフォルト値を生成範囲の情報として取得してもよい。 After the image quality enhancement process is performed, the process proceeds to step S307. In step S307, the front image generating unit 223 generates an OCTA image, which is a front image of the motion contrast data, from the high-quality three-dimensional motion contrast data based on the front image generation range specified by the user. Note that the acquisition unit 21 can acquire an instruction from the user regarding the generation range of the front image. Further, the acquisition unit 21 may acquire a default value predetermined according to the imaging mode of the OCT apparatus 10 or the image processing apparatus 20, the imaging region, or the like, as the generation range information.

具体的には、正面画像生成部223は、指定された生成範囲上端と生成範囲下端との間の範囲に対応する三次元モーションコントラストデータを二次元平面上に投影し、OCTA画像を生成する。より具体的には、正面画像生成部223は、全体の三次元モーションコントラストデータのうち、生成範囲上端と生成範囲下端の間の範囲に対応するモーションコントラストデータを抽出する。その後、正面画像生成部223は、抽出したモーションコントラストデータを深さ方向に対して平均値投影(AIP)、又は最大値投影(MIP)などの処理を行うことで、OCTA画像の画素値を決定する。これにより、正面画像生成部223はOCTA画像を生成することができる。 Specifically, the front image generation unit 223 projects the three-dimensional motion contrast data corresponding to the range between the specified generation range upper end and generation range lower end onto a two-dimensional plane to generate an OCTA image. More specifically, the front image generator 223 extracts motion contrast data corresponding to a range between the upper end of the generation range and the lower end of the generation range from the entire 3D motion contrast data. After that, the front image generation unit 223 determines the pixel value of the OCTA image by performing processing such as average intensity projection (AIP) or maximum intensity projection (MIP) on the extracted motion contrast data in the depth direction. do. This allows the front image generator 223 to generate an OCTA image.

なお、OCTA画像の生成方法は平均値投影処理や最大値投影処理に限らない。例えば、抽出したモーションコントラストデータについて、深さ方向に対して最小値、中央値、分散、標準偏差、積算値、又は総和などの値を算出することで、OCTA画像の各画素値を生成してもよい。 Note that the method of generating the OCTA image is not limited to the average intensity projection process or the maximum intensity projection process. For example, for the extracted motion contrast data, each pixel value of the OCTA image is generated by calculating a value such as the minimum value, median value, variance, standard deviation, integrated value, or sum in the depth direction. good too.

次に、ステップS308では、レンダリング部226が、高画質な三次元モーションコントラストデータについてXY面方向に対して正面視の視点でボリュームレンダリングを行い、レンダリング画像(第2の正面画像)を生成する。レンダリング部226は、視点決定部261が決定した視点情報及び範囲選択部262が選択したデータ範囲に基づいて三次元モーションコントラストデータに対してボリュームレンダリングを行う。 Next, in step S308, the rendering unit 226 performs volume rendering on the high-quality three-dimensional motion contrast data in the XY plane direction from a front view viewpoint to generate a rendered image (second front image). The rendering unit 226 performs volume rendering on the 3D motion contrast data based on the viewpoint information determined by the viewpoint determination unit 261 and the data range selected by the range selection unit 262 .

本実施例では、視点決定部261は、図6(a)に示されるOCTA画像600,601と同様に、三次元モーションコントラストデータをXY正面方向から見た、正面視の視点情報を決定する。また、範囲選択部262は、三次元モーションコントラストデータの全てをデータ範囲として選択する。 In the present embodiment, the viewpoint determination unit 261 determines front view viewpoint information when the 3D motion contrast data is viewed from the XY front direction, similarly to the OCTA images 600 and 601 shown in FIG. 6A. Also, the range selection unit 262 selects all of the 3D motion contrast data as the data range.

本実施例では、レンダリング部226は、レイキャスティング法により三次元モーションコントラストデータをボリュームレンダリングする。レイキャスティング法では、視点と画素を通過する光線を仮定し、この光線上での輝度値を積分することで、最終的に視点に到達する光の輝度を決定する。具体的には、光線が入射した三次元データのボクセルに対して予め与えられた色と不透明度との合成演算により、ボクセルを通過した光の輝度を求めることができる。なお、透明度は0から1までの値であり、1から透明度を引いたものが不透明度である。 In this embodiment, the rendering unit 226 volume-renders the 3D motion contrast data using a ray casting method. In the ray-casting method, a light ray passing through the viewpoint and pixels is assumed, and by integrating the luminance values on this ray, the luminance of the light finally reaching the viewpoint is determined. Specifically, the brightness of the light that has passed through the voxel can be obtained by synthesizing the color and opacity given in advance to the voxel of the three-dimensional data on which the light beam is incident. The transparency is a value between 0 and 1, and the value obtained by subtracting the transparency from 1 is the opacity.

また、レンダリング手法としては、レイキャスティング法に限らず任意のレンダリング手法を用いてよく、例えば、レイトレーシング法を採用してもよい。レイトレーシング法では、平行光源や点光源で影だけではなく、反射や屈折なども計算することができる。レイトレーシング法では、視点からスクリーン上の各画素を通過する方向に光を逆にたどり、各画素の輝度値や色を決定する。 Moreover, the rendering method is not limited to the ray casting method, and any rendering method may be used. For example, the ray tracing method may be used. In the ray tracing method, not only shadows but also reflection and refraction can be calculated with parallel light sources and point light sources. In ray tracing, light is traced back from the viewpoint through each pixel on the screen to determine the brightness value and color of each pixel.

ここで、図7Aは、レンダリング部226が高画質化処理後の三次元モーションコントラストデータについてボリュームレンダリングを行ったレンダリング画像701の一例を示す。なお、図7Aには高画質化処理前の三次元モーションコントラストデータについてボリュームレンダリングを行ったレンダリング画像700も示されており、高画質化処理により、レンダリング画像においてもノイズ低減等の効果が生じていることが分かる。 Here, FIG. 7A shows an example of a rendered image 701 obtained by volume rendering the 3D motion contrast data after the image quality enhancement processing by the rendering unit 226 . Note that FIG. 7A also shows a rendered image 700 obtained by performing volume rendering on the 3D motion contrast data before the image quality enhancement process. I know there is.

図7Bは、図7Aで示したレンダリング部226が生成したレンダリング画像701における血管交差部の一部を拡大表示したレンダリング画像702を示している。また、図7Bは、レンダリング画像702と空間的に同じ箇所のOCTA画像を拡大表示したOCTA画像703も示している。さらに、図7Bには、レンダリング画像702の模式図704、及びOCTA画像703の模式図705が示されている。 FIG. 7B shows a rendered image 702 in which a part of the blood vessel crossing portion in the rendered image 701 generated by the rendering unit 226 shown in FIG. 7A is enlarged. FIG. 7B also shows an OCTA image 703 that is an enlarged display of the OCTA image of the same location spatially as the rendered image 702 . Further, FIG. 7B shows a schematic 704 of the rendered image 702 and a schematic 705 of the OCTA image 703 .

ここで、血管交差部の一部を拡大したレンダリング画像702及び模式図704を参照して、レンダリング画像701について説明する。レンダリング画像702には、水平方向に走行する血管Ve01、垂直方向に走行する血管Ve02,Ve03が現れている。ここで、レンダリング画像702では、模式図704のように、血管Ve01に対して、血管Ve02は深い場所を走行し、血管Ve03は浅い場所を走行していることが確認できる。 Here, the rendered image 701 will be described with reference to a rendered image 702 and a schematic diagram 704 in which a part of the blood vessel crossing portion is enlarged. In the rendered image 702, a blood vessel Ve01 running in the horizontal direction and blood vessels Ve02 and Ve03 running in the vertical direction appear. Here, in the rendering image 702, as shown in a schematic diagram 704, it can be confirmed that the blood vessel Ve02 runs deep and the blood vessel Ve03 runs shallow with respect to the blood vessel Ve01.

一方、OCTA画像の一部を拡大表示したOCTA画像703では、平均値投影や最大値投影等に起因して、模式図705のように、血管の交差部は明るく表示される。このため、OCTA画像703では、血管Ve01’,Ve02’,Ve03’の深度方向における上下関係を確認することは困難である。 On the other hand, in an OCTA image 703 obtained by displaying a part of the OCTA image in an enlarged manner, blood vessel intersections are displayed brightly as shown in a schematic diagram 705 due to mean intensity projection, maximum intensity projection, and the like. Therefore, in the OCTA image 703, it is difficult to confirm the vertical relationship in the depth direction of the blood vessels Ve01', Ve02', and Ve03'.

このように、三次元のモーションコントラストデータについて生成したレンダリング画像では、被検体における血管等の深さ方向の位置を識別することができる。従って、ユーザは、三次元のモーションコントラストデータについて生成したレンダリング画像を観察することで、二次元のOCTA画像では認識しにくい血管の深さ方向における上下関係等を把握しやすくなる。 In this way, it is possible to identify the positions of blood vessels and the like in the subject in the depth direction in the rendered image generated from the three-dimensional motion contrast data. Therefore, by observing the rendered image generated for the three-dimensional motion contrast data, the user can easily grasp the vertical relationship of the blood vessels in the depth direction, which is difficult to recognize in the two-dimensional OCTA image.

レンダリング画像を生成したら、処理はステップS309に移行する。ステップS309では、表示制御部25が、三次元のモーションコントラストデータから生成したOCTA画像とレンダリング画像とを比較しやすい状態で表示部50に表示させる。本実施例では、比較しやすい状態として、これらの画像を並べて表示する又は切り替え可能に表示する。ここで、図8は、表示部50に表示させる画面の一例を示す。 After generating the rendering image, the process proceeds to step S309. In step S309, the display control unit 25 causes the display unit 50 to display the OCTA image generated from the three-dimensional motion contrast data and the rendered image in a state that facilitates comparison. In the present embodiment, these images are displayed side by side or displayed in a switchable manner to facilitate comparison. Here, FIG. 8 shows an example of a screen displayed on the display unit 50. As shown in FIG.

図8には表示画面800が示されており、表示画面800には、ビューモードのタブ823,824が設けられている。タブ823では、OCTA画像や眼底画像等と共に三次元のモーションコントラストデータから生成したレンダリング画像が表示され、タブ824では、三次元データから生成されるレンダリング画像が表示される。 FIG. 8 shows a display screen 800 on which view mode tabs 823 and 824 are provided. A tab 823 displays a rendered image generated from three-dimensional motion contrast data together with an OCTA image, a fundus image, etc., and a tab 824 displays a rendered image generated from the three-dimensional data.

なお、表示部50の表示画面800には、これらに加えて患者タブ、撮影タブ、レポートタブ、及び設定タブ等を設けてもよい。この場合、ビューモードのタブ823,824は、レポートタブ内に表示されることとなる。また、表示画面800には、患者情報表示部、検査ソートタブ、及び検査リスト等を表示することもできる。検査リストには、眼底画像や断層画像、OCTA画像のサムネイルを表示してもよい。なお、これらのサムネイルは高画質データから生成されることができる。 In addition to these, the display screen 800 of the display unit 50 may be provided with a patient tab, an imaging tab, a report tab, a setting tab, and the like. In this case, view mode tabs 823 and 824 are displayed within the report tab. The display screen 800 can also display a patient information display section, examination sort tabs, an examination list, and the like. Thumbnails of fundus images, tomographic images, and OCTA images may be displayed in the examination list. Note that these thumbnails can be generated from high quality data.

タブ823には、高画質なデータを生成するモード(高画質モード)のON/OFFを設定するボタン822が設けられている。本実施例では、以下、高画質なデータに基づいて生成された各種画像について説明を行う。 A tab 823 is provided with a button 822 for setting ON/OFF of a mode for generating high image quality data (high image quality mode). In this embodiment, various images generated based on high-quality data will be described below.

また、タブ823には、眼底画像801、第1のOCTA画像802、第1の断層画像803、三次元モーションコントラストデータから生成したレンダリング画像804、第2のOCTA画像805、及び第2の断層画像806が表示されている。さらに、タブ823には、眼底画像801に重畳している画像807、及び画像807の種類を切り替えるタブ808が表示されている。 In addition, a tab 823 includes a fundus image 801, a first OCTA image 802, a first tomographic image 803, a rendered image 804 generated from three-dimensional motion contrast data, a second OCTA image 805, and a second tomographic image. 806 is displayed. Further, the tab 823 displays an image 807 superimposed on the fundus image 801 and a tab 808 for switching the type of the image 807 .

また、タブ823には、第1のOCTA画像802として表示するOCTA画像の種類809、並びに第1のOCTA画像802の生成範囲上端810及び生成範囲下端811が表示されている。OCTAの種類としては、表層、深層、又は脈絡膜等や任意の範囲で作成したOCTA画像がある。第1のOCTA画像802の生成範囲上端810には上端に対応する層境界の種類と当該層境界からのオフセット値、生成範囲下端811には下端に対応する層境界の種類と当該層境界からのオフセット値が示されている。また、第1の断層画像803には、第1のOCTA画像802の生成範囲上端810を示す境界線818、及び生成範囲下端811を示す境界線819が重畳表示されている。 The tab 823 also displays the type 809 of the OCTA image to be displayed as the first OCTA image 802 , and the generation range top end 810 and generation range bottom end 811 of the first OCTA image 802 . Types of OCTA include superficial, deep, choroidal, etc., and OCTA images created in any range. The generation range upper end 810 of the first OCTA image 802 shows the type of layer boundary corresponding to the upper end and the offset value from the layer boundary. Offset values are indicated. A boundary line 818 indicating the upper end 810 of the generation range of the first OCTA image 802 and a boundary line 819 indicating the lower end 811 of the generation range are superimposed on the first tomographic image 803 .

ユーザは、入力部60を介して、境界線818,819を移動させたり、生成範囲上端810や生成範囲下端811に対応する層境界の種類やオフセット値を変更したりすることで、第1のOCTA画像802の生成範囲を変更することができる。 The user can move the boundary lines 818 and 819 via the input unit 60, or change the type of layer boundary and the offset value corresponding to the generation range upper end 810 and the generation range lower end 811, so that the first The generation range of the OCTA image 802 can be changed.

また、タブ823には、レンダリング画像804等の正面画像の種類を切り替えるタブ812が示されている。タブ812を用いることで、レンダリング画像804を、第1のOCTA画像802や輝度情報に基づく正面画像(En-Face)等と切り替えて表示することができる。なお、正面画像の種類を切り替えるユーザインタフェース(UI)はタブに限られず、任意のUIを用いてよい。 A tab 823 also shows a tab 812 for switching the type of front image such as the rendered image 804 . By using the tab 812, the rendered image 804 can be switched between the first OCTA image 802, the front image (En-Face) based on the brightness information, and the like. Note that the user interface (UI) for switching the type of front image is not limited to tabs, and any UI may be used.

さらに、タブ823には、第2のOCTA画像805の種類813、種類813を選択するプルダウン814、選択の表示815、並びに第2のOCTA画像805の生成範囲上端816及び生成範囲下端817が示されている。プルダウン814は、第2のOCTA画像805の種類を選択するための選択肢の一例である。生成範囲上端816及び生成範囲下端817は、第1のOCTA画像802の生成範囲上端810及び生成範囲下端811と同様のものである。第2の断層画像806には、第2のOCTA画像805の生成範囲上端816を示す境界線820、及び生成範囲下端817を示す境界線821が重畳表示されている。 Furthermore, the tab 823 shows a type 813 of the second OCTA image 805, a pulldown 814 for selecting the type 813, a selection display 815, and a generation range top 816 and a generation range bottom 817 of the second OCTA image 805. ing. Pull-down 814 is an example of options for selecting the type of second OCTA image 805 . Generation range top 816 and generation range bottom 817 are similar to generation range top 810 and generation range bottom 811 of first OCTA image 802 . A boundary line 820 indicating the upper end 816 of the generation range of the second OCTA image 805 and a boundary line 821 indicating the lower end 817 of the generation range of the second OCTA image 805 are superimposed on the second tomographic image 806 .

ユーザは、入力部60を介して、境界線820,821を移動させたり、生成範囲上端816や生成範囲下端817に対応する層境界の種類やオフセット値を変更したりすることで、第2のOCTA画像805の生成範囲を変更することができる。 The user can move the boundary lines 820 and 821 via the input unit 60 or change the type and offset value of the layer boundary corresponding to the generation range upper end 816 and the generation range lower end 817, thereby making the second The generation range of the OCTA image 805 can be changed.

また、タブ823には、第1の断層画像803のXY面内における位置を示す矢印845、及び第2の断層画像806のXY面内における位置を示す矢印846が表示されている。これら矢印の表示/非表示や矢印の位置の変更は、入力部60を介したユーザの指示に基づき切り替えられることができる。 The tab 823 also displays an arrow 845 indicating the position of the first tomographic image 803 in the XY plane and an arrow 846 indicating the position of the second tomographic image 806 in the XY plane. The display/non-display of these arrows and the change of the position of the arrow can be switched based on the user's instruction via the input unit 60 .

レンダリング画像804は、レンダリング部226が三次元のモーションコントラストデータについて、第1のOCTA画像802及び第2のOCTA画像805と同じ視点方向(正面視方向)からレンダリングした画像である。レンダリング画像804では、上述のように、二次元のOCTA画像では認識しにくい血管等の深さ方向における上下関係等を把握しやすい。本実施例では、このようなレンダリング画像804を第1のOCTA画像802や第2のOCTA画像805と並べて表示することができる。また、タブ823によって、レンダリング画像804と第1のOCTA画像802等を切り替え可能に表示することができる。これらの場合には、正面視のレンダリング画像とOCTA画像が比較しやすい状態で表示されることで、ユーザはOCTA画像に示される血管の交差部等の深さ方向における位置関係等を容易に把握することができる。 A rendered image 804 is an image rendered by the rendering unit 226 from the same viewing direction (front view direction) as the first OCTA image 802 and the second OCTA image 805 for the three-dimensional motion contrast data. In the rendered image 804, as described above, it is easy to grasp the vertical relationship in the depth direction of blood vessels, etc., which is difficult to recognize in the two-dimensional OCTA image. In this embodiment, such a rendered image 804 can be displayed side by side with the first OCTA image 802 and the second OCTA image 805 . Also, the rendering image 804, the first OCTA image 802, and the like can be displayed in a switchable manner using a tab 823. FIG. In these cases, the front-view rendering image and the OCTA image are displayed in a state that facilitates comparison, so that the user can easily grasp the positional relationship in the depth direction of the blood vessel intersections and the like shown in the OCTA image. can do.

次に、ステップS310において、取得部21は、入力部60を介して、画像処理装置20による画像処理を終了するか否かの指示をユーザから取得する。取得部21が処理を終了しないという指示を取得した場合には、処理をステップS302に戻して処理を続行する。一方、取得部21が、処理を終了するという指示を取得した場合には、画像処理装置20は一連の画像処理を終了する。 Next, in step S<b>310 , the acquisition unit 21 acquires from the user, via the input unit 60 , an instruction as to whether or not the image processing by the image processing device 20 should end. If the acquisition unit 21 acquires an instruction not to end the process, the process returns to step S302 to continue the process. On the other hand, when the acquiring unit 21 acquires an instruction to end the processing, the image processing device 20 ends the series of image processing.

上記のように、本実施例に係る画像処理装置20は、取得部21と、画像処理部22と、表示制御部25とを備える。取得部21は、被検体の三次元のモーションコントラストデータを取得する。画像処理部22の正面画像生成部223は、三次元のモーションコントラストデータの少なくとも一部を用いてOCTA画像(第1の正面画像)を生成する。 As described above, the image processing apparatus 20 according to this embodiment includes the acquisition unit 21 , the image processing unit 22 , and the display control unit 25 . The acquisition unit 21 acquires three-dimensional motion contrast data of the subject. The front image generation unit 223 of the image processing unit 22 generates an OCTA image (first front image) using at least part of the three-dimensional motion contrast data.

画像処理部22のレンダリング部226は、三次元のモーションコントラストデータの少なくとも一部を用いて、OCTA画像とは異なる、被検体の深さ方向の位置を識別可能なレンダリング画像(第2の正面画像)を生成する。より具体的には、レンダリング部226は、三次元のモーションコントラストデータの少なくとも一部を被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで、レンダリング画像を生成する。表示制御部25は、OCTA画像とレンダリング画像との少なくとも1つを表示部50に表示させる。より具体的には、表示制御部25は、OCTA画像とレンダリング画像と表示部50に並べて表示させる、又は切り換え可能に表示させる。 The rendering unit 226 of the image processing unit 22 uses at least part of the three-dimensional motion contrast data to create a rendered image (second front image) that is different from the OCTA image and is capable of identifying the position of the subject in the depth direction. ). More specifically, the rendering unit 226 generates a rendered image by performing volume rendering on at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject. The display control unit 25 causes the display unit 50 to display at least one of the OCTA image and the rendering image. More specifically, the display control unit 25 causes the OCTA image and the rendered image to be displayed side by side on the display unit 50, or display them in a switchable manner.

これにより、本実施例に係る画像処理装置20は、OCTA画像とレンダリング画像を比較しやすい状態で表示することができ、血管交差部等の深度方向における位置関係等を観察可能な正面画像を提供することができる。このため、ユーザは、表示された画像により、被検体の深度方向における血管の上下関係などを容易に把握することができる。 As a result, the image processing apparatus 20 according to the present embodiment can display the OCTA image and the rendered image in a state that facilitates comparison, and provides a front image that allows observation of the positional relationship in the depth direction of blood vessel intersections and the like. can do. Therefore, the user can easily grasp the vertical relationship of the blood vessels in the depth direction of the subject from the displayed image.

なお、本実施例では、第2の正面画像生成処理(ステップS308)は、正面画像生成処理(ステップS307)の後に行われているが、レンダリング画像を生成するタイミングはこれに限られない。本実施例では、三次元モーションコントラストデータのすべてをボリュームレンダリングするため、第2の正面画像処理は、高画質化処理(ステップS307)の後から表示処理(ステップS310)までの間に行われればよい。そのため、第2の正面画像生成処理(ステップS308)は、正面画像生成処理(ステップS307)の前に行われてもよいし、正面画像生成処理(ステップS307)と並列に行われてもよい。 In this embodiment, the second front image generation process (step S308) is performed after the front image generation process (step S307), but the timing of generating the rendering image is not limited to this. In this embodiment, since all of the three-dimensional motion contrast data is volume rendered, the second front image processing should be performed after the image quality improvement processing (step S307) and before the display processing (step S310). good. Therefore, the second front image generation process (step S308) may be performed before the front image generation process (step S307), or may be performed in parallel with the front image generation process (step S307).

(実施例2)
実施例1においては、三次元のモーションコントラストデータを全て用いて作成したレンダリング画像と、OCTA画像とを比較しやすい状態で表示した。これに対し、実施例2においては、比較するOCTA画像の生成に用いられるモーションコントラストデータの深さ方向の範囲(生成範囲)に対応する範囲のデータを用いたレンダリング画像を表示する。
(Example 2)
In Example 1, the rendered image created using all three-dimensional motion contrast data and the OCTA image were displayed in a state that facilitates comparison. On the other hand, in the second embodiment, a rendered image is displayed using data in a range corresponding to the range in the depth direction (generation range) of the motion contrast data used to generate the OCTA images to be compared.

以下、図9(a)乃至図10Bを参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例1に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)と表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これら処理について説明する。 The image processing system according to this embodiment will be described below with reference to FIGS. 9A to 10B. Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing flow of the image processing system according to the present embodiment are the same as those of the image processing system 1 according to the first embodiment, so the same reference numerals are used to denote them, and the description thereof is omitted. Since the image processing according to the present embodiment differs from the image processing according to the first embodiment mainly in the second front image generation processing (step S308) and the display processing (step S309), these processing will be described below. .

本実施例に係る第2の正面画像生成処理(ステップS308)では、レンダリング部226の範囲選択部262が、ステップS307において生成したOCTA画像の生成範囲と同じデータ範囲を選択する。具体的には、範囲選択部262は、OCTA画像の生成範囲の上端と下端、より具体的には生成範囲の上端と下端に対応する各層境界とオフセット値に基づいて、三次元モーションコントラストデータのデータ範囲を選択する。例えば、OCTA画像の生成範囲の上端としてILM/NFL境界線、下端としてGCL/IPL境界線が設定されている場合、範囲選択部262はこれらの境界線の間の三次元モーションコントラストデータだけを選択する。 In the second front image generation process (step S308) according to the present embodiment, the range selection unit 262 of the rendering unit 226 selects the same data range as the generation range of the OCTA image generated in step S307. Specifically, the range selection unit 262 selects the 3D motion contrast data based on the upper and lower ends of the generation range of the OCTA image, more specifically, each layer boundary and the offset value corresponding to the upper and lower ends of the generation range. Select a data range. For example, when the ILM/NFL boundary line is set as the upper end of the OCTA image generation range and the GCL/IPL boundary line is set as the lower end, the range selection unit 262 selects only the 3D motion contrast data between these boundaries. do.

レンダリング部226は、視点決定部261が決定した正面視の視点と、範囲選択部262が選択したデータ範囲に基づいて、三次元モーションコントラストデータについてボリュームレンダリングを行う。なお、ボリュームレンダリングについては、実施例1と同様であるため説明を省略する。 The rendering unit 226 performs volume rendering on the 3D motion contrast data based on the front view viewpoint determined by the viewpoint determination unit 261 and the data range selected by the range selection unit 262 . Note that the volume rendering is the same as that of the first embodiment, so the explanation is omitted.

図9(a)及び図9(b)は、本実施例におけるOCTA画像と、OCTA画像と同じ範囲の三次元モーションコントラストデータをボリュームレンダリングしたレンダリング画像の一例を示す。図9(a)は、網膜の表層に相当する部分のOCTA画像900、及び同じ範囲のデータをXY正面方向の視点でレンダリングしたレンダリング画像901を示す。また、図9(b)は、網膜の深層に相当する部分のOCTA画像910、及び同じ範囲のデータをXY正面方向の視点でレンダリングしたレンダリング画像911を示す。 FIGS. 9(a) and 9(b) show an example of an OCTA image in this embodiment and an example of a rendering image obtained by volume rendering the three-dimensional motion contrast data of the same range as the OCTA image. FIG. 9A shows an OCTA image 900 of a portion corresponding to the surface layer of the retina, and a rendered image 901 obtained by rendering the data of the same range from the viewpoint in the XY front direction. FIG. 9B shows an OCTA image 910 of a portion corresponding to the deep layers of the retina, and a rendered image 911 obtained by rendering the data of the same range from the viewpoint in the XY front direction.

レンダリング画像901,911では、実施例1に係るレンダリング画像701と同様に、血管の交差部の深さ方向における位置関係が把握できるようになっていることが分かる。 In the rendered images 901 and 911, similarly to the rendered image 701 according to the first embodiment, it can be seen that the positional relationship in the depth direction of the intersecting portions of blood vessels can be grasped.

本実施例に係る表示処理(ステップS309)では、表示制御部25が、図10A及び図10Bに示すように、ステップS308で生成されたレンダリング画像804を表示部50に表示させる。図10Aは、第1のOCTA画像802に対応するレンダリング画像804を表示する例、図10Bは、第2のOCTA画像805に対応するレンダリング画像804を表示する例を示している。 In the display process (step S309) according to this embodiment, the display control unit 25 causes the display unit 50 to display the rendered image 804 generated in step S308, as shown in FIGS. 10A and 10B. 10A shows an example of displaying a rendering image 804 corresponding to the first OCTA image 802, and FIG. 10B shows an example of displaying a rendering image 804 corresponding to the second OCTA image 805. FIG.

なお、本実施例では、正面画像の種類を切り替えるタブ812を用いて、第1のOCTA画像802の生成範囲に対応するレンダリング画像804や、第2のOCTA画像805に対応するレンダリング画像804の表示を切り替えることができる。また、タブ812を用いて、表示される画像を、三次元モーションコントラストデータの全てを用いたレンダリング画像や、各種OCTA画像、En-Face画像に切り替えることもできる。 In this embodiment, the tab 812 for switching the type of front image is used to display the rendering image 804 corresponding to the generation range of the first OCTA image 802 and the rendering image 804 corresponding to the second OCTA image 805. can be switched. Also, using a tab 812, the displayed image can be switched to a rendered image using all three-dimensional motion contrast data, various OCTA images, and En-Face images.

このような表示により、比較対象となるOCTA画像の生成範囲に対応するデータ範囲の三次元モーションコントラストデータから生成されたレンダリング画像を比較しやすい状態で表示することができる。この場合、比較されるOCTA画像及びレンダリング画像が対応する範囲のデータから生成されるため、画像同士を比較し易く、OCTA画像に表れている血管の交差部等の位置関係をより容易に把握することができる。 With such a display, it is possible to display the rendering image generated from the 3D motion contrast data in the data range corresponding to the generation range of the OCTA image to be compared in a state that facilitates comparison. In this case, since the OCTA image and the rendered image to be compared are generated from the data in the corresponding range, it is easy to compare the images, and the positional relationship such as the intersection of blood vessels appearing in the OCTA image can be more easily grasped. be able to.

上記のように、本実施例に係る画像処理装置20では、OCTA画像の生成範囲に対応する範囲のモーションコントラストデータに基づいて、レンダリング画像(第2の正面画像)を生成する。これにより、OCTA画像とレンダリング画像が互いにより比較し易くなる。 As described above, the image processing apparatus 20 according to the present embodiment generates a rendered image (second front image) based on the motion contrast data in the range corresponding to the generation range of the OCTA image. This makes the OCTA image and the rendered image more comparable to each other.

なお、本実施例においては、範囲選択部262は、OCTA画像の生成範囲に対応するデータ範囲として、OCTA画像の生成範囲と同じ深さ範囲を選択した。しかしながら、範囲選択部262が選択するデータ範囲はOCTA画像の生成範囲と完全に一致する必要はない。範囲選択部262は、OCTA画像の生成範囲に対応するデータ範囲として、例えば、OCTA画像の生成範囲よりも数10%程度広い又は狭い深さ範囲を選択してもよい。 In this embodiment, the range selection unit 262 selects the same depth range as the OCTA image generation range as the data range corresponding to the OCTA image generation range. However, the data range selected by the range selection unit 262 does not need to completely match the generation range of the OCTA image. The range selection unit 262 may select, for example, a depth range that is several tens of percent wider or narrower than the OCTA image generation range as the data range corresponding to the OCTA image generation range.

(実施例3)
実施例1及び2においては、三次元モーションコントラストデータから生成したレンダリング画像とOCTA画像とを比較しやすい状態で表示した。実施例3においては、これに加えて、三次元モーションコントラストデータに基づくレンダリング画像及び三次元断層データに基づくレンダリング画像を切り替え可能に表示する構成について説明する。本実施例に係る画像処理は、図8や図10A等に示される表示画面800のタブ824での表示に関する画像処理に対応する。
(Example 3)
In Examples 1 and 2, the rendering image generated from the 3D motion contrast data and the OCTA image were displayed in a state that facilitates comparison. In the third embodiment, in addition to this, a configuration for switchably displaying a rendered image based on 3D motion contrast data and a rendered image based on 3D tomographic data will be described. The image processing according to this embodiment corresponds to the image processing related to the display on the tab 824 of the display screen 800 shown in FIG. 8, FIG. 10A, and the like.

以下、図11A乃至図11Cを参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例1に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)と表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これら処理について説明する。 The image processing system according to this embodiment will be described below with reference to FIGS. 11A to 11C. Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing flow of the image processing system according to the present embodiment are the same as those of the image processing system 1 according to the first embodiment, so the same reference numerals are used to denote them, and the description thereof is omitted. Since the image processing according to the present embodiment differs from the image processing according to the first embodiment mainly in the second front image generation processing (step S308) and the display processing (step S309), these processing will be described below. .

本実施例に係る第2の正面画像生成処理(ステップS308)において、視点決定部261は、ボリュームレンダリングを行うデータの種類に応じて視点を決定する。具体的には、視点決定部261は、三次元モーションコントラストデータをレンダリングする場合にはXZ面方向よりもXY面方向に対し視点を決定し、三次元断層データをレンダリングする場合にはXY面方向よりもXZ又はYZ面方向に対し視点を決定する。これにより、生成されるレンダリング画像は、それぞれのデータにおいて情報量が多い面を表示することができる。ここで、XZ面方向又はXY面方向は被検体の深さ方向に平行な方向に対応する。 In the second front image generation processing (step S308) according to the present embodiment, the viewpoint determination unit 261 determines the viewpoint according to the type of data for volume rendering. Specifically, the viewpoint determination unit 261 determines the viewpoint in the XY plane direction rather than in the XZ plane direction when rendering three-dimensional motion contrast data, and determines the viewpoint in the XY plane direction when rendering three-dimensional tomographic data. A viewpoint is determined with respect to the XZ or YZ plane direction. As a result, the generated rendering image can display a surface with a large amount of information in each data. Here, the XZ plane direction or the XY plane direction corresponds to a direction parallel to the depth direction of the subject.

なお、視点決定部261は、視点をXY面やXZ面の正面に決定する必要はなく、正面方向から斜め方向に角度を設定した点を視点としてもよい。このため、視点決定部261は、ユーザの指定や予め設定された視点の角度に応じて、視点を決定することもできる。 Note that the viewpoint determination unit 261 does not need to determine the viewpoint in front of the XY plane or the XZ plane, and may set a point diagonally from the front direction as the viewpoint. Therefore, the viewpoint determination unit 261 can also determine the viewpoint according to the user's specification or a preset viewpoint angle.

範囲選択部262は、実施例1と同様に、レンダリングに用いるデータ範囲を選択する。レンダリング部226は、視点決定部261によって決定された視点の情報及び範囲選択部262によって選択されたデータ範囲に基づいて、三次元データをボリュームレンダリングしてレンダリング画像を生成する。なお、ボリュームレンダリングについては、実施例1と同様であるため説明を省略する。 A range selection unit 262 selects a data range to be used for rendering, as in the first embodiment. The rendering unit 226 volume-renders the three-dimensional data based on the viewpoint information determined by the viewpoint determination unit 261 and the data range selected by the range selection unit 262 to generate a rendered image. Note that the volume rendering is the same as that of the first embodiment, so the explanation is omitted.

表示処理(ステップS309)では、表示制御部25が、ステップS308において生成したレンダリング画像のみを表示部50に表示させる。ここで、図11A乃至図11Cは、本実施例における表示画面800の一例を示す。図11Aは、XY方向に対して正面視のボリュームレンダリングにより生成された、三次元モーションコントラストデータに基づくレンダリング画像1101の一例を示す。図11Bは、XZ方向から見た視点で三次元断層データをボリュームレンダリングしたレンダリング画像1105の一例を示す。図11Cは、XY方向に対する正面視の視点から斜め方向に角度をつけた視点で三次元モーションコントラストデータをボリュームレンダリングしたレンダリング画像1101’の一例を示す。 In the display process (step S309), the display control unit 25 causes the display unit 50 to display only the rendering image generated in step S308. Here, FIGS. 11A to 11C show an example of the display screen 800 in this embodiment. FIG. 11A shows an example of a rendered image 1101 based on 3D motion contrast data generated by front view volume rendering in the XY directions. FIG. 11B shows an example of a rendered image 1105 obtained by volume-rendering three-dimensional tomographic data from a viewpoint viewed from the XZ direction. FIG. 11C shows an example of a rendered image 1101' obtained by volume-rendering the 3D motion contrast data at a viewpoint obliquely angled from the front view viewpoint in the XY directions.

表示画面800には、ビューモードのタブ823,824が設けられている。タブ823では、実施例1や実施例2に示した画面が表示される。タブ824では、図11A乃至図11Cで示す画面を表示する。 The display screen 800 is provided with view mode tabs 823 and 824 . A tab 823 displays the screens shown in the first and second embodiments. Tab 824 displays the screens shown in FIGS. 11A to 11C.

タブ824には、レンダリング画像を表示する領域1100、レンダリング画像1101、オリエンテーションキューブ(Orientation Cube)1102が示されている。ここで、オリエンテーションキューブ1102は、ボリュームレンダリングの視点に対応するレンダリングデータ(レンダリング画像)の姿勢を示している。オリエンテーションキューブ1102のそれぞれの面には、T,S,N,I,A,Pを一文字ずつ表示している。これらはそれぞれ、Temporal、Superior、Nasal、Inferior、Anterior、Posteriorを意味しており、それぞれの姿勢に対応する。ユーザはオリエンテーションキューブ1102を確認することにより、レンダリングデータの姿勢を把握することができる。 A tab 824 shows an area 1100 for displaying rendered images, a rendered image 1101, and an orientation cube 1102. FIG. Here, the orientation cube 1102 indicates the orientation of rendering data (rendering image) corresponding to the viewpoint of volume rendering. Each face of the orientation cube 1102 displays T, S, N, I, A, and P one by one. These mean Temporal, Superior, Nasal, Inferior, Anterior, and Posterior, respectively, and correspond to the respective postures. By checking the orientation cube 1102, the user can grasp the orientation of the rendering data.

なお、ユーザが領域1100においてマウスをドラッグしたり、マウスホイールを回転させたりすることで、ボリュームレンダリングの視点方向や画像の表示倍率を変更できるように、UIが構成されることができる。また、視点方向や表示倍率の変更用のボタン等が設けられてもよい。 Note that the UI can be configured so that the user can change the viewing direction of volume rendering and the image display magnification by dragging the mouse or rotating the mouse wheel in the area 1100 . Also, a button or the like for changing the viewpoint direction or the display magnification may be provided.

また、タブ824には、ラジオボタン1110,1118、スライダー1111,1112、リセットボタン1113、層の種類1114、チェックボックス1115,1116、及びチェックボックスの全選択のボタン1117が示されている。 The tab 824 also shows radio buttons 1110 and 1118, sliders 1111 and 1112, a reset button 1113, a layer type 1114, checkboxes 1115 and 1116, and a button 1117 for selecting all checkboxes.

ラジオボタン1110は、ボリュームレンダリングを行うモードを選択するために用いられる。図11Aに示すように、モーションコントラストデータのレンダリング画像1101を表示する際には、ラジオボタン1110において、表示モードとしてAngiographyを選択する。本実施例では、Angiographyが選択された場合の初期画像として、視点決定部261がXY面方向に対して正面視の視点を決定してボリュームレンダリングを行ったレンダリング画像1101を表示する。 A radio button 1110 is used to select a volume rendering mode. As shown in FIG. 11A, when displaying a rendered image 1101 of motion contrast data, angiography is selected as a display mode using a radio button 1110 . In this embodiment, as an initial image when angiography is selected, the viewpoint determination unit 261 determines a front view viewpoint in the XY plane direction and displays a rendered image 1101 that has undergone volume rendering.

スライダー1111,1112は、表示されるレンダリング画像の輝度とコントラストを調整するためのスライダーである。また、リセットボタン1113は調整した値をデフォルトの値にリセットするためのボタンを示している。 Sliders 1111 and 1112 are sliders for adjusting the brightness and contrast of the rendered image to be displayed. A reset button 1113 indicates a button for resetting the adjusted value to the default value.

層の種類1114は、チェックボックス1115,1116で選択される層の種類を示している。チェックボックス1115,1116は、層の可視化の選択とPeeling選択のチェックボックスを表している。また、ボタン1117は、チェックボックス1115,1116を全て選択するボタンである。なお、図示しないが、別途、チェックボックス1115,1116の選択を全て解除するボタンがあってもよい。また、ボタン1117にチェックボックス1115,1116の選択を全て解除する機能を追加してもよい。 A layer type 1114 indicates a layer type selected by check boxes 1115 and 1116 . Check boxes 1115 and 1116 represent layer visualization selection and Peeling selection checkboxes. A button 1117 is a button for selecting all of the check boxes 1115 and 1116 . In addition, although not shown, there may be a separate button for canceling the selection of all the check boxes 1115 and 1116 . Also, a function of canceling the selection of all the check boxes 1115 and 1116 may be added to the button 1117 .

範囲選択部262は、チェックボックス1115の選択に応じてボリュームレンダリングに用いるデータ範囲についてのユーザからの指定を取得してもよい。また、範囲選択部262がチェックボックス1115の選択とは独立してデータ範囲の指定を取得してもよい。この場合には、チェックボックス1115の選択に対応するデータを他の手法により、可視化したり、非表示したりしてもよい。なお、本実施例では、Angiographyが選択された場合の初期画像として、範囲選択部262が三次元モーションコントラストデータの全てをデータ範囲として選択してボリュームレンダリングを行ったレンダリング画像1101を表示する。 The range selection unit 262 may acquire a designation from the user regarding the data range to be used for volume rendering according to the selection of the check box 1115 . In addition, the range selection unit 262 may obtain designation of the data range independently of the selection of the check box 1115 . In this case, the data corresponding to the selection of check box 1115 may be visualized or hidden by other techniques. In this embodiment, as an initial image when angiography is selected, the range selection unit 262 selects all of the 3D motion contrast data as the data range and displays a rendering image 1101 that has undergone volume rendering.

ラジオボタン1118は、表示される画像についての投影方法を選択するために用いられる。ラジオボタン1118を用いることで、レイキャスティング法等のボリュームレンダリングによる投影や最大値投影(MIP)法を選択することができる。ラジオボタン1118において、最大値投影法が選択された場合には、三次元データについて最大値投影を行った不図示の画像が領域1100に表示される。 Radio button 1118 is used to select a projection method for the displayed image. By using the radio button 1118, projection by volume rendering such as the ray casting method or the maximum intensity projection (MIP) method can be selected. When the maximum intensity projection method is selected with the radio button 1118 , an image (not shown) obtained by performing maximum intensity projection on the three-dimensional data is displayed in the area 1100 .

なお、本実施例においては、投影方法に関して2種類の選択肢を示しているが、投影方法の種類はこれに限らない。ここで、前述のように、最大値投影法により投影されたOCTA画像では、血管の交差部の深さ方向の位置関係を把握しづらい。そのため、タブ824においてAngiographyの表示モードの場合の投影方法としては、最大値投影法以外の方法で表示することが好ましい。ただし、比較的大きなOCTA画像を確認することが所望される場合等に応じて、Angiographyの表示モードにおいて、最大値投影法が選択されてもよい。 In addition, in the present embodiment, two types of options for the projection method are shown, but the type of projection method is not limited to this. Here, as described above, in the OCTA image projected by the maximum intensity projection method, it is difficult to comprehend the positional relationship in the depth direction of the intersections of the blood vessels. Therefore, it is preferable to display by a method other than the maximum intensity projection method as the projection method in the case of the angiography display mode in the tab 824 . However, maximum intensity projection may be selected in the angiography display mode, such as when it is desired to see a relatively large OCTA image.

図11Bは、ラスタスキャンによって取得された三次元断層データをボリュームレンダリングしたレンダリング画像1105を表示する場合の一例を示す。図11Bの例では、レンダリング画像1105を表示する際に、視点決定部261はXZ面から見た視点を決定し、レンダリング部226は当該視点に基づいてレンダリング画像1105を生成する。 FIG. 11B shows an example of displaying a rendering image 1105 obtained by volume-rendering three-dimensional tomographic data obtained by raster scanning. In the example of FIG. 11B, when displaying the rendered image 1105, the viewpoint determination unit 261 determines the viewpoint from the XZ plane, and the rendering unit 226 generates the rendered image 1105 based on the viewpoint.

三次元断層データをボリュームレンダリングしたレンダリング画像1105には、ピーリングコントロール(Peeling Control)1103が重畳されている。ユーザはピーリングコントロール1103を操作することで、チェックボックス1116で選択されている層だけをボリュームデータから剥きとる(Peeling)することができる。 A peeling control 1103 is superimposed on a rendered image 1105 obtained by volume rendering three-dimensional tomographic data. By operating the peeling control 1103, the user can peel off (peeling) only the layer selected by the check box 1116 from the volume data.

なお、図11A及び図11Bでは、XY面とXZ面に対して正面視の視点を決定する例を示した。これに対し、上述のように、視点はそれぞれの面の正面に設定する必要はなく、正面方向から斜め方向に角度を設定してもよい。ここで、設定される斜め方向の角度とは、例えば±20度程度とすることができる。 Note that FIGS. 11A and 11B show an example in which the front view viewpoint is determined with respect to the XY plane and the XZ plane. On the other hand, as described above, the viewpoint need not be set in front of each surface, and the angle may be set in an oblique direction from the front direction. Here, the set oblique angle can be, for example, about ±20 degrees.

図11Cは、図11Aに示すレンダリング画像1101の視点に対して斜め方向に角度を設定した場合のレンダリング画像1101’の例を示す。図11Cでは、斜め方向に角度を設定した場合のオリエンテーションキューブ1102’も示されており、ユーザはオリエンテーションキューブ1102’を確認することで、視点の角度を確認することができる。 FIG. 11C shows an example of a rendered image 1101' when an oblique angle is set with respect to the viewpoint of the rendered image 1101 shown in FIG. 11A. FIG. 11C also shows an orientation cube 1102' when the angle is set in an oblique direction, and the user can check the viewpoint angle by checking the orientation cube 1102'.

上記のように、本実施例に係る画像処理装置20では、取得部21が、被検体の断層の情報を含む三次元の断層データを更に取得する。また、レンダリング部226が、三次元の断層データの少なくとも一部をボリュームレンダリングすることで断層データに基づくレンダリング画像(第3の画像)を生成する。 As described above, in the image processing apparatus 20 according to the present embodiment, the acquisition unit 21 further acquires three-dimensional tomographic data including tomographic information of the subject. Also, the rendering unit 226 generates a rendered image (third image) based on the tomographic data by volume-rendering at least part of the three-dimensional tomographic data.

ここで、レンダリング部226の視点決定部261は、モーションコントラストデータに基づくレンダリング画像の視点を、断層データに基づくレンダリング画像の視点よりも、被検体の深さ方向に交差する方向に対してより正面視に近い視点に決定する。特に、本実施例では、レンダリング部226は、三次元の断層データの少なくとも一部を被検体の深さ方向に平行な方向に対する正面視の視点でボリュームレンダリングすることで、断層データに基づくレンダリング画像を生成する。 Here, the viewpoint determination unit 261 of the rendering unit 226 sets the viewpoint of the rendered image based on the motion contrast data to the direction intersecting the depth direction of the subject more frontally than the viewpoint of the rendered image based on the tomographic data. Determine the viewpoint close to your eyes. In particular, in this embodiment, the rendering unit 226 performs volume rendering on at least a part of the three-dimensional tomographic data from a front view viewpoint in a direction parallel to the depth direction of the subject, thereby rendering a rendered image based on the tomographic data. to generate

そして、表示制御部25は、モーションコントラストデータに基づくレンダリング画像と断層データに基づくレンダリング画像とを切り替え可能に表示部50に表示させる。 Then, the display control unit 25 causes the display unit 50 to switch between rendering images based on the motion contrast data and rendering images based on the tomographic data.

これにより、ユーザは、観察する平面画像の種類に応じて、観察目的に適した視点方向からの平面画像を確認することができる。 Thereby, the user can confirm the planar image from the viewpoint direction suitable for the observation purpose according to the type of the planar image to be observed.

(実施例4)
実施例1及び2においては、三次元モーションコントラストデータから生成したレンダリング画像とOCTA画像とを並べて表示する又は切り替え可能に表示する例について示した。これに対し、実施例3では、OCTA画像に対してレンダリング画像の一部を表示する例について説明をする。
(Example 4)
Examples 1 and 2 show examples in which a rendering image generated from 3D motion contrast data and an OCTA image are displayed side by side or can be switched. On the other hand, in the third embodiment, an example of displaying a part of the rendering image for the OCTA image will be described.

以下、図12(a)乃至図12(c)を参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例2に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例2に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、表示処理(ステップS309)において、実施例2に係る画像処理と異なるため、以下、表示処理について説明する。 The image processing system according to this embodiment will be described below with reference to FIGS. 12(a) to 12(c). Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the second embodiment. Note that the configuration and processing flow of the image processing system according to the present embodiment are the same as those of the image processing system 1 according to the second embodiment, so the same reference numerals are used to denote them, and a description thereof will be omitted. Since the image processing according to the present embodiment differs from the image processing according to the second embodiment mainly in the display processing (step S309), the display processing will be described below.

本実施例に係る表示処理(ステップS309)では、表示制御部25が表示部50に、ステップS308で生成されたレンダリング画像をOCTA画像に対して部分的に表示させる。具体的には、表示制御部25は表示部50に、レンダリング画像の一部をOCTA画像に重畳して表示させる、又はOCTA画像の周辺に表示させる。 In the display processing (step S309) according to the present embodiment, the display control unit 25 causes the display unit 50 to partially display the rendering image generated in step S308 with respect to the OCTA image. Specifically, the display control unit 25 causes the display unit 50 to display a part of the rendering image superimposed on the OCTA image, or to display it around the OCTA image.

図12(a)はレンダリング画像の一部をOCTA画像に重畳して表示させる例を示し、図12(b)はレンダリング画像の一部をOCTA画像の周辺に表示させる例を示す。図12(a)及び図12(b)には、表示画面800の一部である第1のOCTA画像802と第1の断層画像803が示されている。また、図12(a)及び図12(b)には、UI1201,1202が示されている。 FIG. 12(a) shows an example in which part of the rendered image is superimposed on the OCTA image and displayed, and FIG. 12(b) shows an example in which part of the rendered image is displayed around the OCTA image. 12(a) and 12(b) show a first OCTA image 802 and a first tomographic image 803, which are part of the display screen 800. FIG. UIs 1201 and 1202 are shown in FIGS. 12(a) and 12(b).

UI1201は、本実施例によるOCTA画像に対する部分的な表示のON/OFFを切り替えるために用いられる。また、UI1202は、OCTA画像に対する部分的な表示として、OCTA画像の一部を拡大するか、又はレンダリング画像の一部を表示するかを選択するために用いられる。なお、これらUI1201,1202は一例であり、他の態様を有していてもよい。本実施例においては、レンダリング画像の一部を表示することが選択されている例について説明する。 The UI 1201 is used to switch ON/OFF of partial display of the OCTA image according to this embodiment. In addition, the UI 1202 is used to select whether to enlarge a portion of the OCTA image or display a portion of the rendered image as partial display of the OCTA image. Note that these UIs 1201 and 1202 are examples, and may have other aspects. In this embodiment, an example in which display of a portion of the rendered image is selected will be described.

まず、図12(a)に示される例について説明をする。図12(a)では、第1のOCTA画像802に、ステップS308で生成されたレンダリング画像の一部であるレンダリング画像1203が重畳されている。表示制御部25は、表示部50において、レンダリング画像1203が重畳される第1のOCTA画像802の箇所に対応するレンダリング画像の一部をレンダリング画像1203として、第1のOCTA画像802に重畳表示させる。 First, the example shown in FIG. 12(a) will be described. In FIG. 12A, a rendered image 1203, which is part of the rendered image generated in step S308, is superimposed on the first OCTA image 802. In FIG. The display control unit 25 causes the display unit 50 to superimpose and display a part of the rendered image corresponding to the portion of the first OCTA image 802 on which the rendered image 1203 is superimposed as the rendered image 1203 on the first OCTA image 802 . .

図12(a)に示す例では、例えば、ユーザがUI1201を選択後、第1のOCTA画像802上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域にレンダリング画像1203が表示される。これにより、第1のOCTA画像802において、ユーザが注目したい部分のみにレンダリング画像を重畳表示させることができ、OCTA画像とレンダリング画像が対比しやすい状態で表示される。そのため、ユーザは、注目したい血管交差部等の深さ方向の位置関係等を容易に把握することができる。 In the example shown in FIG. 12A, for example, when the user selects the UI 1201 and then moves the mouse cursor or the like on the first OCTA image 802, a rendered image 1203 is displayed in a partial area around the mouse cursor. be. As a result, the rendering image can be superimposed on only the part of the first OCTA image 802 that the user wants to focus on, and the OCTA image and the rendering image can be displayed in a state that facilitates comparison. Therefore, the user can easily comprehend the positional relationship in the depth direction of the blood vessel crossing portion of interest.

次に、図12(b)に示す例について説明をする。図12(b)では、第1のOCTA画像802にレンダリング画像に対応する箇所を示す領域1204が重畳され、レンダリング画像1205が第1のOCTA画像802とは別の場所に、例えば第1のOCTA画像802の周辺に表示されている。表示制御部25は、第1のOCTA画像802の領域1204が重畳されている箇所に対応するレンダリング画像の一部をレンダリング画像1205として、第1のOCTA画像802の周辺に表示させる。なお、レンダリング画像1205が表示される箇所は、図12(b)に示すようにOCTA画像の左側に限られず、OCTA画像と対比しやすい箇所であれば任意の箇所であってよい。 Next, the example shown in FIG.12(b) is demonstrated. In FIG. 12B, an area 1204 indicating a portion corresponding to the rendered image is superimposed on the first OCTA image 802, and the rendered image 1205 is placed in a different location from the first OCTA image 802, for example, the first OCTA image. It is displayed around the image 802 . The display control unit 25 displays a portion of the rendered image corresponding to the portion where the region 1204 of the first OCTA image 802 is superimposed as the rendered image 1205 around the first OCTA image 802 . Note that the location where the rendering image 1205 is displayed is not limited to the left side of the OCTA image as shown in FIG.

図12(b)に示す例では、例えば、ユーザがUI1201を選択後、第1のOCTA画像802上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域に領域1204が表示される。そして、第1のOCTA画像802の周辺に、領域1204に対応するレンダリング画像1205が表示される。この場合では、ユーザが注目したい部分のOCTA画像とレンダリング画像とを同時に観察できる状態で、レンダリング画像を表示することができる。このため、OCTA画像とレンダリング画像が対比しやすい状態で表示される。これにより、ユーザは、注目したい血管交差部等の深さ方向の位置関係等を容易に把握することができる。 In the example shown in FIG. 12B, for example, after the user selects the UI 1201 and then moves the mouse cursor or the like on the first OCTA image 802, an area 1204 is displayed in a partial area around the mouse cursor. . A rendering image 1205 corresponding to the area 1204 is displayed around the first OCTA image 802 . In this case, the rendering image can be displayed in a state in which the OCTA image and the rendering image of the part that the user wants to focus on can be observed at the same time. Therefore, the OCTA image and the rendered image are displayed in a state that facilitates comparison. As a result, the user can easily grasp the positional relationship in the depth direction of blood vessel intersections and the like to be focused on.

上記のように、本実施例に係る画像処理装置20では、表示制御部25はOCTA画像と、レンダリング画像の一部とを、表示部50に並べて表示させる、又は重畳させて表示させる。このため、OCTA画像とレンダリング画像が対比しやすい状態で表示されるため、ユーザは血管等の深さ方向の位置関係を容易に把握することができる。 As described above, in the image processing apparatus 20 according to the present embodiment, the display control unit 25 causes the display unit 50 to display the OCTA image and a part of the rendered image side by side or superimpose them. Therefore, the OCTA image and the rendered image are displayed in a state in which it is easy to compare them, so that the user can easily grasp the positional relationship in the depth direction of blood vessels and the like.

特に、表示制御部25は、レンダリング画像におけるユーザの指示に応じた箇所の画像を、表示部50にOCTA画像と並べて表示させる、又は重畳させて表示させる。このため、ユーザが注目する領域のみが対比しやすい状態で表示されるため、ユーザは、注目したい血管交差部の深さ方向の位置関係を容易に把握することができる。 In particular, the display control unit 25 causes the display unit 50 to display the image of the portion corresponding to the user's instruction in the rendering image side by side with the OCTA image, or superimpose it on the OCTA image. Therefore, only the region that the user pays attention to is displayed in an easy-to-contrast state, so that the user can easily grasp the positional relationship in the depth direction of the blood vessel crossing portion that the user wants to pay attention to.

また、表示制御部25は、表示部50において、三次元断層データをボリュームレンダリングしたレンダリング画像を断層画像に重畳表示又は断層画像の周囲に表示させることもできる。図12(c)は第1の断層画像803に三次元断層データをボリュームレンダリングしたレンダリング画像の一部を重畳表示する例を示す。表示制御部25は、レンダリング画像1206が重畳される第1の断層画像803の箇所に対応するレンダリング画像の一部をレンダリング画像1206として、第1の断層画像803に重畳表示させる。 The display control unit 25 can also cause the display unit 50 to display a rendering image obtained by volume-rendering the three-dimensional tomographic data so as to be superimposed on the tomographic image or displayed around the tomographic image. FIG. 12(c) shows an example in which a part of a rendering image obtained by volume rendering three-dimensional tomographic data is displayed superimposed on the first tomographic image 803 . The display control unit 25 superimposes and displays a part of the rendered image corresponding to the portion of the first tomographic image 803 on which the rendered image 1206 is superimposed as the rendered image 1206 on the first tomographic image 803 .

図12(c)に示す例では、ユーザがUI1201を選択後、第1の断層画像803上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域に当該領域に対応するレンダリング画像1206が表示される。これにより、ユーザは断層画像の注目したい部分について立体的な断層の構造を容易に把握することができる。また、断層画像の場合も図12(b)のように、断層画像とは別の領域にレンダリング画像を表示してもよい。 In the example shown in FIG. 12C, when the user selects the UI 1201 and then moves the mouse cursor or the like on the first tomographic image 803, a rendering image 1206 corresponding to the region is displayed in a partial region around the mouse cursor. is displayed. As a result, the user can easily comprehend the three-dimensional tomographic structure of the desired portion of the tomographic image. Also, in the case of a tomographic image, as shown in FIG. 12B, a rendering image may be displayed in a region separate from the tomographic image.

なお、OCTA画像に対してレンダリング画像1203を生成する際の視点は、実施例2と同様に、XY面方向の正面視の視点とされる。ここで、レンダリング画像1203を生成する際の視点は、正面視の視点だけに限られず、上述のようにある程度の角度を有してもよい。この場合の角度は、マウスホイールやキーボード、画面内のUIの操作、タッチパネル式の画面操作により、変更されることができる。 Note that the viewpoint when generating the rendering image 1203 for the OCTA image is the front view viewpoint in the XY plane direction, as in the second embodiment. Here, the viewpoint for generating the rendered image 1203 is not limited to the front view viewpoint, and may have a certain degree of angle as described above. The angle in this case can be changed by operating the mouse wheel, keyboard, UI on the screen, or touch panel screen operation.

一方で、断層画像に対してレンダリング画像1206を生成する際の視点は、実施例3と同様に、XZ面、又はYZ面方向に対する視点とされる。また、この場合の視点についても、ある程度の角度を有するように変更することができるものとする。 On the other hand, the viewpoint for generating the rendered image 1206 for the tomographic image is the viewpoint for the XZ plane or the YZ plane direction, as in the third embodiment. Also, the viewpoint in this case can be changed to have a certain degree of angle.

このような場合には、レンダリング画像が対応するOCTA画像又は断層画像に応じて、適切な視点のレンダリング画像を表示することができる。このため、ユーザは、観察する画像の種類に応じて、観察目的に適した視点方向からの正面画像を確認することができる。 In such a case, it is possible to display a rendered image from an appropriate viewpoint according to the OCTA image or tomographic image to which the rendered image corresponds. Therefore, the user can confirm the front image from the viewpoint direction suitable for the purpose of observation according to the type of image to be observed.

なお、本実施例においては詳細の説明を省略したが、図12(a)乃至図12(c)において、UI1202において拡大表示が選択されている場合には、各レンダリング画像の代わりに、それぞれの画像の一部が拡大された画像が表示される。なお、各画像の拡大方法は既知の任意の方法で行われてよい。また、レンダリング画像を表示する際には、当該レンダリング画像を拡大表示してもよい。 12A to 12C, when enlarged display is selected on the UI 1202, each rendering image is replaced with each rendering image. An enlarged image is displayed. Any known method may be used to enlarge each image. Moreover, when displaying a rendered image, the rendered image may be enlarged and displayed.

また、本実施例では、表示制御部25が表示部50に、ステップS308で生成されたレンダリング画像をOCTA画像に対して部分的に表示させた。これに対して、レンダリング部226が、OCTA画像に対して選択された領域のみについてレンダリング画像を生成してもよい。この場合には、表示制御部25が、表示部50において、生成されたレンダリング画像の全体をOCTA画像の当該選択された領域に重畳して表示させたり、OCTA画像の周囲に表示させたりすることができる。なお、このような場合には、レンダリング部226が、OCTA画像に対して選択された領域に応じて、レンダリング画像を随時生成し、表示制御部25が、表示されるレンダリング画像を生成されたレンダリング画像に随時更新することができる。 Further, in this embodiment, the display control unit 25 causes the display unit 50 to partially display the rendering image generated in step S308 with respect to the OCTA image. On the other hand, the rendering unit 226 may generate a rendered image only for the area selected for the OCTA image. In this case, the display control unit 25 causes the display unit 50 to superimpose and display the entire generated rendering image on the selected region of the OCTA image or display it around the OCTA image. can be done. Note that, in such a case, the rendering unit 226 generates a rendering image as needed according to the region selected for the OCTA image, and the display control unit 25 renders the generated rendering image to be displayed. Images can be updated at any time.

(実施例5)
実施例1乃至4においては、血管交差部等の深さ方向の位置関係等を観察可能な画像を提供するために、三次元データをボリュームレンダリングした画像を提供する例について説明をした。これに対し、実施例5では、色情報を用いて血管交差部等の深さ方向の位置関係等を観察可能な画像を生成する方法について説明する。
(Example 5)
In the first to fourth embodiments, an example of providing an image obtained by volume-rendering three-dimensional data has been described in order to provide an image in which the positional relationship in the depth direction of blood vessel intersections, etc. can be observed. On the other hand, in a fifth embodiment, a method of generating an image in which the positional relationship in the depth direction of blood vessel intersections and the like can be observed using color information will be described.

以下、図13乃至図14(b)を参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、実施例1に係る画像処理システム1の構成及び処理と同様である、本実施例に係る画像処理システムの構成及び処理については、同一の参照符号を用いて示し、説明を省略する。 The image processing system according to this embodiment will be described below with reference to FIGS. 13 to 14(b). Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing of the image processing system according to the present embodiment, which are the same as the configuration and processing of the image processing system 1 according to the first embodiment, are indicated using the same reference numerals, and the description thereof is omitted.

図13は、本実施例による画像処理システム2の概略的な構成を示す。本実施例による画像処理システム2では、画像処理装置130の画像処理部132において、レンダリング部226に代えて色相画像生成部1326が設けられている。 FIG. 13 shows a schematic configuration of an image processing system 2 according to this embodiment. In the image processing system 2 according to this embodiment, the image processing unit 132 of the image processing device 130 is provided with a hue image generation unit 1326 instead of the rendering unit 226 .

色相画像生成部1326は、三次元モーションコントラストデータに対して、深さ位置に応じた色付けを行ったOCTA画像(色相画像)を生成する。具体的には、色相画像生成部1326は、所定のトーンカーブを用いて、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する画素値を決定し、色相画像を生成する。 The hue image generator 1326 generates an OCTA image (hue image) by coloring the three-dimensional motion contrast data according to the depth position. Specifically, the hue image generation unit 1326 uses a predetermined tone curve to determine pixel values having color information according to the depth position of the 3D motion contrast data within the generation range for generating the OCTA image. , to generate a hue image.

表示制御部25は、眼底画像や断層画像、通常のOCTA画像と同様に、色相画像生成部1326が生成した色相画像を表示部50に表示させることができる。 The display control unit 25 can cause the display unit 50 to display the hue image generated by the hue image generation unit 1326 in the same manner as the fundus image, the tomographic image, and the normal OCTA image.

次に、本実施例に係る一連の画像処理について説明する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)及び表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これらの処理について説明する。 Next, a series of image processing according to this embodiment will be described. Since the image processing according to the present embodiment differs from the image processing according to the first embodiment mainly in the second front image generation processing (step S308) and the display processing (step S309), these processing will be described below. do.

本実施例に係る第2の正面画像生成処理(ステップS308)では、色相画像生成部1326が、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する色相画像を生成する。具体的には、色相画像生成部1326は、所定のトーンカーブを用いて、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する画素値を決定し、色相画像を生成する。 In the second front image generation processing (step S308) according to the present embodiment, the hue image generation unit 1326 has color information corresponding to the depth position of the 3D motion contrast data within the generation range for generating the OCTA image. Generate a hue image. Specifically, the hue image generation unit 1326 uses a predetermined tone curve to determine pixel values having color information according to the depth position of the 3D motion contrast data within the generation range for generating the OCTA image. , to generate a hue image.

より具体的には、まず、色相画像生成部1326が色相画像を生成するための三次元モーションコントラストデータの深さ方向の範囲(生成範囲)を取得する。色相画像生成部1326は、正面画像生成部223がOCTA画像を生成するための生成範囲を、色相画像を生成するための生成範囲として取得することができる。なお、色相画像を生成するための生成範囲は、正面画像生成部223がOCTA画像を生成するための生成範囲と厳密に一致する必要はなく、互いに対応していれば、多少広く又は狭くてもよい。 More specifically, first, the hue image generation unit 1326 acquires the range (generation range) in the depth direction of the three-dimensional motion contrast data for generating the hue image. The hue image generator 1326 can acquire the generation range for generating the OCTA image by the front image generator 223 as the generation range for generating the hue image. Note that the generation range for generating the hue image does not need to strictly match the generation range for the front image generation unit 223 to generate the OCTA image. good.

色相画像生成部1326は、生成範囲内の三次元モーションコントラストデータに対して最大値投影法により各画素位置における代表値を決定する。最大値投影法では、各Aスキャンで得られたデータにおける生成範囲内の最大値、又はある程度の厚みを持った範囲の最大値(slab MIP)を各画素の代表値とする。ここで、図14(a)に、最大値投影法により、生成範囲の上端及び下端に対応する境界線818,819の範囲のモーションコントラストデータに基づいて生成された通常のOCTA画像1402の一例を示す。色相画像生成部1326は、各画素位置における代表値である、生成範囲内の最大値を有するモーションコントラストデータの深さ位置に基づいて色付けを行う。これにより、OCTA画像1402に対応する、色情報を有する画素値からなる色相画像を生成する。 The hue image generator 1326 determines a representative value at each pixel position for the three-dimensional motion contrast data within the generation range by the maximum intensity projection method. In the maximum intensity projection method, the maximum value within the generation range or the maximum value (slab MIP) of the range having a certain thickness in the data obtained by each A-scan is used as the representative value of each pixel. Here, FIG. 14A shows an example of a normal OCTA image 1402 generated based on the motion contrast data in the range of boundary lines 818 and 819 corresponding to the upper and lower ends of the generation range by the maximum intensity projection method. show. The hue image generator 1326 performs coloring based on the depth position of the motion contrast data having the maximum value within the generation range, which is the representative value at each pixel position. As a result, a hue image composed of pixel values having color information corresponding to the OCTA image 1402 is generated.

本実施例では、色相画像生成部1326は、図14(b)に示すようなトーンカーブ1400を用いて、モーションコントラストデータの深さ位置に基づいて色付けを行う。本実施例では、生成範囲の上端に近いモーションコントラストデータは青系とし、上端からの距離が遠くなるほど赤系になるように色付けを行うことができる。トーンカーブ1400の横軸は深さ方向の位置、縦軸はRGBの各要素の出力である。縦軸の原点は0であり、最大値は255となる。 In this embodiment, the hue image generator 1326 performs coloring based on the depth position of the motion contrast data using a tone curve 1400 as shown in FIG. 14(b). In this embodiment, the motion contrast data near the upper end of the generation range can be colored bluish, and the farther away from the upper end, the more reddish the motion contrast data becomes. The horizontal axis of the tone curve 1400 is the position in the depth direction, and the vertical axis is the output of each element of RGB. The origin of the vertical axis is 0, and the maximum value is 255.

また、横軸の0に対応する基準位置は、生成範囲の上端に対応する境界線818の位置とし、最大値は境界線818の位置から所定の深さ(例えば、数10μm)だけ深い方向にオフセットされた位置とする。なお、本実施例においては、基準位置を境界線818の位置としているが、色相画像の生成範囲が表層から深層へと変更された場合には、変更された生成範囲の上端に対応する境界線の位置に応じて、横軸の基準位置も変更される。なお、基準位置を生成範囲の下端に対応する境界線819の位置とし、境界線819の位置から所定の深さだけ浅い方向にオフセットされた位置を最大値(又はより深い方向を正とした場合には最小値)としてもよい。 The reference position corresponding to 0 on the horizontal axis is the position of the boundary line 818 corresponding to the upper end of the generation range. Let it be an offset position. In this embodiment, the reference position is the position of the boundary line 818. However, when the generation range of the hue image is changed from the surface layer to the deep layer, the boundary line The reference position of the horizontal axis is also changed according to the position of . Note that the reference position is the position of the boundary line 819 corresponding to the lower end of the generation range, and the position offset by a predetermined depth from the position of the boundary line 819 in the shallow direction is the maximum value (or the deeper direction is positive) may be the minimum value).

さらに、横軸の基準位置は、必ずしも境界線の形状に合わせる必要はなく、境界線が接する水平線、又は所定の傾きを持った直線等を基準位置としてもよい。また、トーンカーブ1400の横軸の基準位置から最大値までの範囲は、常に同じである必要はない。例えば、網膜表層を生成範囲とする場合と、網膜全層を生成範囲とする場合とでは、横軸の最大値を変更し、基準位置から最大値までの範囲を異ならせてもよい。表層の厚みは数10μmであるが、全層の厚みは数100μmある。そのため、表層だけを生成範囲とする場合に比べて、全層を生成範囲とする場合の最大値を大きくするようにしてもよい。 Furthermore, the reference position of the horizontal axis does not necessarily have to match the shape of the boundary line, and the horizontal line where the boundary line contacts or a straight line with a predetermined inclination may be used as the reference position. Also, the range from the reference position to the maximum value on the horizontal axis of tone curve 1400 does not always need to be the same. For example, the maximum value of the horizontal axis may be changed to make the range from the reference position to the maximum value different between when the retinal surface layer is the generation range and when the entire retinal layer is the generation range. The thickness of the surface layer is several tens of micrometers, but the thickness of all layers is several hundred micrometers. Therefore, the maximum value in the case where all layers are the generation range may be made larger than in the case where only the surface layer is the generation range.

色相画像生成部1326は、このようにトーンカーブ1400を用いて、各画素値を、深さ方向に位置に対応したRGBの各要素の出力の加算値によって決定する。これにより、色相画像生成部1326は、血管の深さ方向の位置を色相で示した色情報を有するOCTA画像である色相画像を生成することができる。なお、色相画像生成部1326は、各画素位置におけるモーションコントラストデータの最大値が所定の閾値以下の場合は、画素値を黒などとすることもできる。この場合には、モーションコントラストデータの値が小さい画素位置には色付けがされないため、動きのある部分と無い部分とを視覚的に分かりやすくすることができる。 The hue image generation unit 1326 uses the tone curve 1400 in this way to determine each pixel value by adding the output of each element of RGB corresponding to the position in the depth direction. Thereby, the hue image generation unit 1326 can generate a hue image, which is an OCTA image having color information indicating the position of the blood vessel in the depth direction in hue. Note that the hue image generation unit 1326 can also set the pixel value to black when the maximum value of the motion contrast data at each pixel position is equal to or less than a predetermined threshold value. In this case, since pixel positions with small values of motion contrast data are not colored, it is possible to visually distinguish between moving parts and non-moving parts.

なお、色相画像生成部1326は、最大値投影法ではなく、積算値を用いる方法で色相画像を生成してもよい。この場合、色相画像生成部1326は、生成範囲の上端から下端に向かってモーションコントラストデータの値を積算していき、積算値が所定の閾値を超えた場所の深度位置に応じて色付けすることができる。 Note that the hue image generation unit 1326 may generate a hue image by a method using an integrated value instead of the maximum intensity projection method. In this case, the hue image generation unit 1326 integrates the values of the motion contrast data from the upper end to the lower end of the generation range, and colors can be applied according to the depth position where the integrated value exceeds a predetermined threshold. can.

積算方法としては、単純にモーションコントラストデータの値を積算してもよいが、連結性を考慮した積算方法を採用してもよい。連結性を考慮した積算方法では、生成範囲の上端から下端に向かって積算を行う際に、所定の閾値以上であるモーションコントラストデータの値のみを積算するようにする。 As an integration method, values of motion contrast data may be simply integrated, but an integration method that takes connectivity into account may also be employed. In the integration method that considers connectivity, only values of motion contrast data that are equal to or greater than a predetermined threshold value are integrated when performing integration from the upper end to the lower end of the generation range.

例えば、閾値以上のモーションコントラストデータの値が連続している場合のみ積算を行い、閾値以下のモーションコントラストデータの値が検出された時点で、それまでの積算値I0と深さ位置Z0を一旦保存する。そして、続けて深さ方向にモーションコントラストデータの値と閾値の対比を行い、モーションコントラストデータの値が閾値以上となった時点で新しく積算を開始し、閾値以下の値が検出された時点で積算値I1と深度位置Z1を保存する。当該処理を生成範囲の下端まで続けて、保存された積算値Iのうち最大となる積算値に対応する深さ位置に応じて、トーンカーブ1400から当該画素位置の画素値を決定してもよい。又は、連続した積算値の平均値が閾値以上となった箇所全ての深さ位置に応じた色を合成して画素値を決定してもよい。 For example, integration is performed only when motion contrast data values equal to or greater than a threshold continue, and when a motion contrast data value equal to or less than the threshold is detected, the integrated value I0 and depth position Z0 up to that point are temporarily stored. do. Then, the motion contrast data value and the threshold value are compared in the depth direction, and when the motion contrast data value exceeds the threshold value, a new accumulation is started, and when a value below the threshold value is detected, accumulation is performed. Save the value I1 and the depth position Z1. The processing may be continued to the lower end of the generation range, and the pixel value of the pixel position may be determined from the tone curve 1400 according to the depth position corresponding to the maximum integrated value among the stored integrated values I. . Alternatively, the pixel value may be determined by synthesizing the colors corresponding to the depth positions of all locations where the average value of the continuous integrated values is equal to or greater than the threshold value.

ステップS308において、色相画像生成部1326が色相画像を生成したら、処理はステップS309に移行する。ステップS309では、表示制御部25が、図8等に示される表示画面800のレンダリング画像804と同様に、色相画像を第1のOCTA画像802等と並べて表示する。 After the hue image generator 1326 generates the hue image in step S308, the process proceeds to step S309. In step S309, the display control unit 25 displays the hue image side by side with the first OCTA image 802 and the like, like the rendering image 804 of the display screen 800 shown in FIG. 8 and the like.

上述のように、通常のOCTA画像は色情報を持たない画像であるため、通常のOTA画像を観察するだけでは、被検体の深さ方向の位置関係を把握することは困難である。これに対し、色相画像は、被検体の深さ方向の位置に応じた色情報が付加されたOCTA画像であるため、ユーザは色相画像の色情報に基づいて被検体における血管等の深さ方向の位置を識別することができる。このため、通常のOCTA画像と色相画像が対比しやすい状態で表示されることで、ユーザは血管の交差部等の深さ方向の位置関係等を容易に把握することができる。 As described above, since the normal OCTA image does not have color information, it is difficult to grasp the positional relationship of the subject in the depth direction only by observing the normal OTA image. On the other hand, the hue image is an OCTA image to which color information corresponding to the position of the object in the depth direction is added. position can be identified. Therefore, the normal OCTA image and the hue image are displayed in a state in which they can be easily compared, so that the user can easily grasp the positional relationship in the depth direction of the blood vessel intersections and the like.

上記のように、本実施例に係る画像処理装置130では、色相画像生成部1326が、三次元のモーションコントラストデータの少なくとも一部及び被検体の深さ方向の位置に応じた色情報を用いて色相画像(第2の正面画像)を生成する。 As described above, in the image processing apparatus 130 according to the present embodiment, the hue image generation unit 1326 uses color information corresponding to at least a part of the three-dimensional motion contrast data and the position of the subject in the depth direction. A hue image (second front image) is generated.

表示制御部25は、OCTA画像と、色相画像とを並べて表示部50に表示する。このため、通常のOCTA画像と色相画像が対比しやすい状態で表示されるため、ユーザは血管の交差部等の深さ方向の位置関係等を容易に把握することができる。 The display control unit 25 displays the OCTA image and the hue image side by side on the display unit 50 . Therefore, since the normal OCTA image and the hue image are displayed in a state in which it is easy to compare them, the user can easily grasp the positional relationship in the depth direction of the blood vessel intersections and the like.

なお、トーンカーブ1400の色相の配置は任意であってよい。また、本実施例では、トーンカーブ1400におけるRGBの各傾きは直線状の傾きとしたが、曲線状の傾きとしてもよい。 Note that the arrangement of the hues of the tone curve 1400 may be arbitrary. Further, in this embodiment, the gradients of RGB in the tone curve 1400 are linear gradients, but may be curved gradients.

また、本実施例で生成した色相画像は、第1のOCTA画像802と並べて表示される構成に限られない。実施例1のように、色相画像が第1のOCTA画像802と切り替え可能に表示されてもよいし、実施例4のように、色相画像の一部が第1のOCTA画像802に重畳して表示されたり、第1のOCTA画像の周辺に表示されたりしてもよい。また、実施例4のように表示される場合には、拡大された色相画像が表示されてもよい。さらに、OCTA画像上の選択された領域についてのみ色相画像を生成し、生成された色相画像の全体をOCTA画像上に重畳して表示させたり、OCTA画像の周辺に表示させたりしてもよい。 Also, the hue image generated in this embodiment is not limited to being displayed side by side with the first OCTA image 802 . As in the first embodiment, the hue image may be displayed switchably with the first OCTA image 802, or as in the fourth embodiment, part of the hue image may be superimposed on the first OCTA image 802. It may be displayed or displayed around the first OCTA image. Also, when displaying as in the fourth embodiment, an enlarged hue image may be displayed. Furthermore, a hue image may be generated only for a selected region on the OCTA image, and the entire generated hue image may be superimposed on the OCTA image or displayed around the OCTA image.

(変形例1)
実施例1乃至5では、主にOCTA画像とレンダリング画像又は色相画像を並べて表示する例について示したが、上述のように、これらの画像は同じ領域において切り替えて表示されてもよい。例えば、第1、第2のOCTA画像を表示している領域において、OCTA画像とボリュームレンダリングデータとを切り替えて表示するようにしてもよい。これにより、同じ領域で画像を切り替えて表示することができるので、部位の空間的な対応を把握しやすくなる。
(Modification 1)
In Examples 1 to 5, an example in which an OCTA image and a rendered image or a hue image are mainly displayed side by side has been described, but as described above, these images may be switched and displayed in the same area. For example, in the area where the first and second OCTA images are displayed, the OCTA image and the volume rendering data may be switched and displayed. As a result, images can be switched and displayed in the same region, making it easier to grasp the spatial correspondence of parts.

(変形例2)
実施例1乃至5では、レンダリング部226は直接法であるレイキャスティング法を用いてボリュームレンダリングを行う方法について説明をしたが、ボリュームレンダリングを行う方法はこれに限らない。例えば、レンダリング部226は、間接法を用いて、等値面としてボリュームデータを表現し、それを表示するようにしてもよい。
(Modification 2)
In the first to fifth embodiments, the rendering unit 226 has explained the method of performing volume rendering using the ray casting method, which is a direct method, but the method of performing volume rendering is not limited to this. For example, the rendering unit 226 may use an indirect method to represent the volume data as an isosurface and display it.

(変形例3)
画像処理装置20は、被検体を観察する際の観察モードとして、断層画像を観察するOCTモードと、OCTA画像を観察するOCTAモードとを備えていてもよい。この場合、表示制御部25は、OCTモードでは、レンダリング画像の初期画像として、XY面に対して角度を持った視点及び三次元断層データの全範囲に基づいて生成されたレンダリング画像を表示部50に表示させる。これに対し、表示制御部25は、OCTAモードでは、OCTモードでの視点よりもXY面に対して正面視に近い視点に基づいて生成されたレンダリング画像を、レンダリング画像の初期画像として表示部50に表示させる。また、OCTAモードでは、OCTA画像の生成範囲に対応するデータ範囲の三次元モーションコントラストデータに基づいてレンダリング画像を生成することもできる。
(Modification 3)
The image processing apparatus 20 may have an OCT mode for observing a tomographic image and an OCTA mode for observing an OCTA image as observation modes for observing a subject. In this case, in the OCT mode, the display control unit 25 displays, as an initial image of the rendering image, the rendering image generated based on the viewpoint having an angle with respect to the XY plane and the entire range of the three-dimensional tomographic data. to display. On the other hand, in the OCTA mode, the display control unit 25 causes the display unit 50 to use a rendered image generated based on a viewpoint that is closer to the front view with respect to the XY plane than the viewpoint in the OCT mode as an initial image of the rendered image. to display. In the OCTA mode, a rendered image can also be generated based on the 3D motion contrast data of the data range corresponding to the generation range of the OCTA image.

この場合には、ユーザは、OCTモードでは、レンダリング画像により被検体の断層の深さ方向を把握しやすく、OCTAモードでは、レンダリング画像により血管等の深さ方向の位置関係を把握しやすい。そのため、ユーザは、観察モードに応じたレンダリング画像を観察することで、観察の目的に合った被検体の組織等を容易に観察することができる。 In this case, in the OCT mode, the user can easily grasp the depth direction of the tomogram of the subject from the rendered image, and in the OCTA mode, it is easy to grasp the depth direction positional relationship of blood vessels and the like from the rendered image. Therefore, the user can easily observe the tissue or the like of the subject according to the observation purpose by observing the rendered image according to the observation mode.

(変形例4)
変形例4では、図15を参照して、ステップS306の高画質データ生成処理のより具体的な一例について説明する。図15は、本変形例に係る高画質データ生成処理のフローチャートである。本変形例に係る高画質データ生成処理では、アーティファクトを低減して、より高画質な三次元のモーションコントラストデータを生成することができる。特に本変形例に係る高画質データ生成処理では、複数のモーションコントラストデータの位置合わせをすると共に、加算平均を行うために位置合わせの基準となるモーションコントラストデータを選択することを特徴としている。
(Modification 4)
In Modified Example 4, a more specific example of the high image quality data generation process in step S306 will be described with reference to FIG. FIG. 15 is a flowchart of high-quality data generation processing according to this modification. In the high-quality data generation process according to this modified example, it is possible to reduce artifacts and generate 3D motion contrast data with higher image quality. In particular, the high image quality data generation process according to this modification is characterized by aligning a plurality of pieces of motion contrast data and selecting motion contrast data that serves as a reference for aligning in order to perform addition averaging.

本変形例に係る高画質データ生成処理が開始されると、処理はステップS1501に移行する。ステップS1501では、正面画像生成部223が所定の生成範囲内のモーションコントラストデータに基づいて、位置合わせ用のOCTA画像を生成する。本変形例では、生成範囲上端をILM/NFL境界線とし、生成範囲下端をGCL/IPLから深度方向に50μm下端の境界線とする。なお、位置合わせ用のOCTA画像を生成するための生成範囲は、他の範囲に予め設定されてもよいし、ユーザによって指定されてもよい。 When the high image quality data generation process according to this modification is started, the process moves to step S1501. In step S1501, the front image generation unit 223 generates an OCTA image for alignment based on motion contrast data within a predetermined generation range. In this modification, the upper end of the generation range is the ILM/NFL boundary line, and the lower end of the generation range is the boundary line 50 μm lower in the depth direction from GCL/IPL. Note that the generation range for generating the OCTA image for alignment may be set in advance to another range, or may be specified by the user.

ステップS1502では、高画質データ生成部225が生成された位置合わせ用の全てのOCTA画像を基準画像として、他のOCTA画像との位置合わせ(第1の位置合わせ)を行う。高画質データ生成部225は、それぞれのOCTA画像についてx軸方向及びy軸方向の位置合わせパラメータや回転パラメータ、画像評価値、画像類似度等を求め、記憶部24に記憶させる。また、高画質データ生成部225は、各OCTA画像についてアーティファクト検出を行い、検出したアーティファクトに対するマスク画像を生成し、記憶部24に記憶させることができる。 In step S1502, alignment with other OCTA images (first alignment) is performed using all the OCTA images for alignment generated by the high-quality data generation unit 225 as reference images. The high-quality data generation unit 225 obtains alignment parameters and rotation parameters in the x-axis and y-axis directions, image evaluation values, image similarities, and the like for each OCTA image, and stores them in the storage unit 24 . The high-quality data generation unit 225 can also detect artifacts for each OCTA image, generate a mask image for the detected artifacts, and store the mask image in the storage unit 24 .

ステップS1503では、高画質データ生成部225が、ステップS1502で行った位置合わせの結果に基づいて基準画像を選択する。具体的には、高画質データ生成部225は、各位置合わせパラメータ、画像評価値、及びマスク画像から求めたアーティファクト領域評価値に基づいて基準画像の選択基準となる評価値を算出し、当該評価値に基づいて基準画像を選択する。 In step S1503, the high-quality data generation unit 225 selects a reference image based on the alignment result performed in step S1502. Specifically, the high-quality data generation unit 225 calculates an evaluation value that serves as a reference image selection criterion based on each alignment parameter, the image evaluation value, and the artifact area evaluation value obtained from the mask image. Select reference images based on values.

ステップS1504では、高画質データ生成部225が、選択した基準画像を用いてOCTA画像のx軸方向の位置合わせ(第2の位置合わせ)を行う。高画質データ生成部225は、基準画像と他のOCTA画像について、x軸方向の各ラインに対して位置合わせを行う。また、高画質データ生成部225は、ステップS1502で求めた回転パラメータに基づいて各OCTA画像の回転方向の位置合わせを行う。 In step S1504, the high-quality data generation unit 225 uses the selected reference image to align the OCTA images in the x-axis direction (second alignment). The high-quality data generation unit 225 aligns the reference image and other OCTA images with respect to each line in the x-axis direction. Also, the high-quality data generation unit 225 aligns the rotation direction of each OCTA image based on the rotation parameter obtained in step S1502.

ステップS1505では、高画質データ生成部225が、基準画像に対応する三次元データを基準データとして用いて、三次元モーションコントラストデータ及び三次元断層データのそれぞれについて深さ方向の大局的な位置合わせ(第3の位置合わせ)を行う。より具体的には、高画質データ生成部225は、まず、三次元モーションコントラストデータ毎及び三次元断層データ毎にデータ内の深さ方向の位置及び傾きを合わせる。その後、高画質データ生成部225は、基準データを用いて、複数の三次元モーションコントラストデータ間及び複数の三次元断層データ間で深さ方向の位置及び傾きを合わせる。そして、高画質データ生成部225は、第1の位置合わせ、第2の位置合わせ、及び第3の位置合わせで求めた位置合わせパラメータに基づいて、各三次元データを変形する。 In step S1505, the high-quality data generation unit 225 uses the three-dimensional data corresponding to the reference image as reference data to perform global registration in the depth direction ( third alignment). More specifically, the high-quality data generator 225 first aligns the depth direction position and inclination in the data for each three-dimensional motion contrast data and each three-dimensional tomographic data. After that, the high-quality data generation unit 225 uses the reference data to match the positions and inclinations in the depth direction between the plurality of 3D motion contrast data and between the plurality of 3D tomographic data. Then, the high-quality data generation unit 225 transforms each piece of three-dimensional data based on the alignment parameters obtained in the first alignment, the second alignment, and the third alignment.

ステップS1506では、高画質データ生成部225が、基準データと対象データの間において、各断層画像内の特徴部に位置合わせ用の領域を複数設定し、設定した領域ごとにx軸方向と深さ方向の局所的な位置合わせ(第4の位置合わせ)を行う。高画質データ生成部225は、位置合わせ結果に基づいて、各三次元データを変形する。 In step S1506, the high-quality data generation unit 225 sets a plurality of regions for alignment in the feature part in each tomographic image between the reference data and the target data, and calculates the x-axis direction and the depth for each set region. A local alignment of directions (fourth alignment) is performed. The high-quality data generation unit 225 transforms each three-dimensional data based on the alignment result.

ステップS1507では、高画質データ生成部225が、変形した複数の三次元モーションコントラストデータを加算平均する。また、高画質データ生成部225は、変形した複数の三次元断層データを加算平均する。 In step S1507, the high-quality data generation unit 225 adds and averages the deformed 3D motion contrast data. In addition, the high-quality data generation unit 225 adds and averages a plurality of deformed three-dimensional tomographic data.

ステップS1508では、高画質データ生成部225が、加算平均した三次元データについて、ステップS1505で求めた、基準データ内における深さ方向の位置合わせパラメータに基づいて、三次元データの深さ方向の位置を位置合わせ前の状態に戻す。その後、処理はステップS307へ移行する。 In step S1508, the high-quality data generation unit 225 calculates the position of the three-dimensional data in the depth direction based on the depth-direction alignment parameter in the reference data obtained in step S1505 for the averaged three-dimensional data. to the state before alignment. After that, the process moves to step S307.

本変形例による高画質データ生成処理によれば、固視微動などにより、モーションコントラストデータにアーティファクトが存在する場合においても、高画質な三次元のモーションコントラストデータを取得することができる。 According to the high-quality data generation processing according to this modified example, high-quality three-dimensional motion contrast data can be obtained even when artifacts are present in the motion contrast data due to involuntary eye movement or the like.

なお、本変形例では、加算平均後の三次元データを深さ方向の位置合わせ前の状態に戻したが、当該処理を行わなくてもよい。この場合には、ステップS305で検出された層境界の情報と高画質化された三次元データとにおいて深さ方向にずれが生じる。そのため、検出部224は、高画質データ生成処理後に、OCTA画像生成用に改めて層境界の検出処理を行ってもよいし、ステップS305で検出された層境界を、基準データの深さ方向の位置合わせパラメータに応じて変形させてもよい。 In this modified example, the three-dimensional data after averaging is returned to the state before alignment in the depth direction, but this process may not be performed. In this case, there is a gap in the depth direction between the layer boundary information detected in step S305 and the high-quality three-dimensional data. Therefore, after the high-quality data generation process, the detection unit 224 may perform layer boundary detection processing again for OCTA image generation. It may be deformed according to matching parameters.

なお、高画質データ生成部225は、第1乃至第4の位置合わせ処理やアーティファクト除去処理、加算平均処理等をそれぞれ行うための別々の構成要素を用いて構成されてもよい。 Note that the high-quality data generation unit 225 may be configured using separate components for performing the first to fourth alignment processing, artifact removal processing, averaging processing, and the like.

(変形例5)
実施例1乃至5では、複数の三次元データの加算平均を行うことで高画質化された三次元データに基づいて、詳細な正面画像を生成する場合について説明した。しかしながら、詳細な正面画像の生成処理を適用する対象はこれに限られない。詳細な正面画像の生成処理は、ある程度の精度を有する三次元データであれば、1つの三次元データに対して適用されてもよい。詳細な正面画像の生成処理、例えば、複数の三次元データを使用しない任意の処理によりノイズ除去や強調処理等が行われた1つの三次元データ等に適用されてもよい。
(Modification 5)
In the first to fifth embodiments, a detailed front image is generated based on three-dimensional data whose image quality is improved by averaging a plurality of three-dimensional data. However, the target to which the detailed front image generation processing is applied is not limited to this. The process of generating a detailed front image may be applied to one piece of three-dimensional data as long as it is three-dimensional data with a certain degree of accuracy. The present invention may be applied to detailed front image generation processing, for example, one three-dimensional data subjected to noise removal, enhancement processing, or the like by arbitrary processing that does not use a plurality of three-dimensional data.

(変形例6)
実施例1乃至5では、取得部21は、OCT装置10で取得された干渉信号や断層画像生成部221で生成された三次元断層データを取得した。しかしながら、取得部21がこれらの信号を取得する構成はこれに限られない。例えば、取得部21は、画像処理装置20とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。この場合、撮影に関する処理を省略し、撮影済みの三次元の断層データを取得することができる。そして、ステップS305で高画質データ生成処理を行う。なお、取得部21は、三次元断層データだけでなく、当該データから生成された三次元モーションコントラストデータを取得してもよい。この場合には、モーションコントラストデータの生成処理も省略することができる。そのため、断層情報の取得から正面画像の表示までの一連の処理時間を短くすることができる。
(Modification 6)
In Examples 1 to 5, the acquisition unit 21 acquires the interference signal acquired by the OCT apparatus 10 and the three-dimensional tomographic data generated by the tomographic image generation unit 221 . However, the configuration in which the acquisition unit 21 acquires these signals is not limited to this. For example, the acquisition unit 21 may acquire these signals from a server or imaging device connected to the image processing device 20 via a LAN, WAN, Internet, or the like. In this case, imaging-related three-dimensional tomographic data can be obtained by omitting processing related to imaging. Then, in step S305, high-quality data generation processing is performed. Note that the acquisition unit 21 may acquire not only the three-dimensional tomographic data but also the three-dimensional motion contrast data generated from the data. In this case, the process of generating motion contrast data can also be omitted. Therefore, it is possible to shorten a series of processing time from acquisition of tomographic information to display of a front image.

なお、OCT装置10の構成は、上記の構成に限られず、OCT装置10に含まれる構成の一部をOCT装置10と別体の構成としてもよい。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。 The configuration of the OCT apparatus 10 is not limited to the configuration described above, and part of the configuration included in the OCT apparatus 10 may be configured separately from the OCT apparatus 10 . Also, the user interface such as buttons and the display layout are not limited to those shown above.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、実施例を参照して本発明について説明したが、本発明は上記実施例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described with reference to the examples, the present invention is not limited to the above examples. Inventions modified within the scope of the present invention and inventions equivalent to the present invention are also included in the present invention. In addition, the embodiments and modifications described above can be appropriately combined within the scope of the present invention.

20:画像処理装置、21:取得部、25:表示制御部、50:表示部 20: Image processing device, 21: Acquisition unit, 25: Display control unit, 50: Display unit

Claims (21)

被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成し、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する生成部と、
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部と、
を備え
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理装置。
generating a first front image that is a motion contrast front image using at least part of the three-dimensional motion contrast data of the subject; and using at least part of the three-dimensional motion contrast data to generate the first front image. a generation unit that generates a second front image that is generated by a method different from the front image and that enables identification of a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject; ,
a display control unit that causes a display unit to display at least one of the first front image and the second front image;
with
The second front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject . Image processing device.
前記表示制御部は、前記第1の正面画像と前記第2の正面画像とを前記表示部に、並べて表示させる、切り換え可能に表示させる、又は重畳させて表示させる、請求項1に記載の画像処理装置。 2. The image according to claim 1, wherein the display control unit causes the display unit to display the first front image and the second front image side by side, switchably display them, or display them in a superimposed manner. processing equipment. 前記生成部は前記モーションコントラスト正面画像を生成するための深さ範囲に対応する範囲の前記三次元のモーションコントラストデータを用いて前記第2の正面画像を生成する、請求項1又は2に記載の画像処理装置。 3. The second front image according to claim 1, wherein said generator generates said second front image using said three-dimensional motion contrast data in a range corresponding to a depth range for generating said motion contrast front image. Image processing device. 前記表示制御部は、前記被検体の三次元の断層データの少なくとも一部をボリュームレンダリングすることで得られた第3の画像を前記表示部に表示させる、請求項1乃至のいずれか一項に記載の画像処理装置。 4. The display control unit according to any one of claims 1 to 3 , wherein the display control unit causes the display unit to display a third image obtained by volume rendering at least part of the three-dimensional tomographic data of the subject. The image processing device according to . 前記第2の正面画像の視点は、前記第3の画像の視点よりも前記被検体の深さ方向に交差する方向に対してより正面視に近い視点である、請求項に記載の画像処理装置。 5. The image processing according to claim 4 , wherein the viewpoint of the second front image is closer to the front view in a direction intersecting the depth direction of the subject than the viewpoint of the third image. Device. 前記第3の画像は、前記三次元の断層データの少なくとも一部を前記被検体の深さ方向に平行な方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、請求項又はに記載の画像処理装置。 5. The third image is an image obtained by volume-rendering at least part of the three -dimensional tomographic data from a front view viewpoint in a direction parallel to the depth direction of the subject. 6. The image processing apparatus according to 5 . 前記表示制御部は、前記第2の正面画像と前記第3の画像とを切り替え可能に前記表示部に表示させる、請求項乃至のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 4 to 6 , wherein the display control section causes the display section to switchably display the second front image and the third image. 該画像処理装置は、前記三次元の断層データの少なくとも一部を用いて得た断層画像を観察するモードと、前記モーションコントラスト正面画像を観察するモードとを備え、
前記表示制御部は、
前記断層画像を観察するモードでは、前記第3の画像を初期画像として前記表示部に表示させ、
前記モーションコントラスト正面画像を観察するモードでは、前記第2の正面画像を初期画像として前記表示部に表示させる、請求項乃至のいずれか一項に記載の画像処理装置。
The image processing device has a mode for observing a tomographic image obtained using at least part of the three-dimensional tomographic data, and a mode for observing the motion contrast front image,
The display control unit
in the mode of observing the tomographic image, displaying the third image as an initial image on the display unit;
8. The image processing apparatus according to any one of claims 4 to 7 , wherein in the motion contrast front image observation mode, the second front image is displayed as an initial image on the display unit.
前記表示制御部は、前記第1の正面画像と、前記第2の正面画像と、前記被検体の三次元の断層データの少なくとも一部を前記被検体の深さ方向に平行な方向に対する正面視の視点でボリュームレンダリングすることで得られた第3の画像とを表示部に並べて表示させる、切り換え可能に表示させる、又は重畳させて表示させる、請求項1乃至のいずれか一項に記載の画像処理装置。 The display control unit is configured to display the first front image, the second front image, and at least part of the three-dimensional tomographic data of the subject in a front view in a direction parallel to the depth direction of the subject. 4. The third image obtained by volume rendering from the viewpoint of is displayed side by side on the display unit, displayed in a switchable manner, or displayed in an overlapping manner, according to any one of claims 1 to 3 . Image processing device. 被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成し、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する生成部と、
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部と、
を備え、
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理装置。
generating a first front image that is a motion contrast front image using at least part of the three-dimensional motion contrast data of the subject; and using at least part of the three-dimensional motion contrast data to generate the first front image. a generation unit that generates a second front image that is generated by a method different from the front image and that enables identification of a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject; ,
a display control unit that causes a display unit to display at least one of the first front image and the second front image;
with
The image processing apparatus, wherein the second front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
前記モーションコントラスト正面画像は、色情報を持たない画像である、請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10 , wherein said motion contrast front image is an image without color information. 前記表示制御部は、前記第2の正面画像におけるユーザの指示に応じた箇所の画像を、前記表示部に前記モーションコントラスト正面画像と並べて表示させる又は重畳させて表示させる、請求項1乃至11のいずれか一項に記載の画像処理装置。 12. The display control unit causes the display unit to display an image of a portion of the second front image corresponding to the user's instruction in parallel with or superimposed on the motion contrast front image. The image processing device according to any one of the items. 被検体の三次元のモーションコントラストデータを取得する取得部と、
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する生成部と、
前記二次元の正面画像を表示部に表示させる表示制御部と、
を備え
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理装置。
an acquisition unit that acquires three-dimensional motion contrast data of a subject;
a generation unit that uses at least a portion of the three-dimensional motion contrast data to generate a two-dimensional front image in which a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a display control unit for displaying the two-dimensional front image on a display unit;
with
The two-dimensional front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject . Image processing device.
前記生成部は前記被検体のモーションコントラスト正面画像を生成するための深さ範囲に対応する範囲の前記三次元のモーションコントラストデータを用いて前記二次元の正面画像を生成する、請求項13に記載の画像処理装置。 14. The 2D front image according to claim 13 , wherein the generator generates the 2D front image using the 3D motion contrast data in a range corresponding to a depth range for generating the motion contrast front image of the subject. image processing device. 被検体の三次元のモーションコントラストデータを取得する取得部と、
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する生成部と、
前記二次元の正面画像を表示部に表示させる表示制御部と、
を備え、
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理装置。
an acquisition unit that acquires three-dimensional motion contrast data of a subject;
a generation unit that uses at least a portion of the three-dimensional motion contrast data to generate a two-dimensional front image in which a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a display control unit for displaying the two-dimensional front image on a display unit;
with
The image processing apparatus, wherein the two-dimensional front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
前記表示制御部は、前記二次元の正面画像におけるユーザの指示に応じた箇所の画像を、前記表示部に前記被検体のモーションコントラスト正面画像と並べて表示させる又は重畳させて表示させる、請求項13乃至15のいずれか一項に記載の画像処理装置。 13. The display control unit causes the display unit to display an image of a portion of the two-dimensional front image corresponding to a user's instruction in parallel with or superimposed on the motion contrast front image of the subject. 16. The image processing apparatus according to any one of items 1 to 15 . 被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成する工程と、
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程と、
を含み、
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理方法。
generating a first frontal image that is a motion contrast frontal image using at least a portion of the three-dimensional motion contrast data of the subject;
A second frontal image generated by a method different from that of the first frontal image using at least a part of the three-dimensional motion contrast data, the second frontal image obtained in the depth direction of a plurality of intersecting blood vessels of the subject. generating the second front image in which the relative positional relationship is identifiable;
displaying at least one of the first front image and the second front image on a display unit;
including
The second front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject. Processing method.
被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成する工程と、generating a first frontal image that is a motion contrast frontal image using at least a portion of the three-dimensional motion contrast data of the subject;
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、A second frontal image generated by a method different from that of the first frontal image using at least a part of the three-dimensional motion contrast data, the second frontal image obtained in the depth direction of a plurality of intersecting blood vessels of the subject. generating the second front image in which the relative positional relationship is identifiable;
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程と、displaying at least one of the first front image and the second front image on a display unit;
を含み、including
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理方法。The image processing method, wherein the second front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
被検体の三次元のモーションコントラストデータを取得する工程と、
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する工程と、
前記二次元の正面画像を表示部に表示させる工程と、
を含み、
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理方法。
acquiring three-dimensional motion contrast data of a subject;
using at least part of the three-dimensional motion contrast data to generate a two-dimensional front image in which the relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a step of displaying the two-dimensional front image on a display unit;
including
The two-dimensional frontal image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a frontal view point in a direction intersecting the depth direction of the subject. Processing method.
被検体の三次元のモーションコントラストデータを取得する工程と、acquiring three-dimensional motion contrast data of a subject;
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する工程と、using at least part of the three-dimensional motion contrast data to generate a two-dimensional front image in which the relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
前記二次元の正面画像を表示部に表示させる工程と、a step of displaying the two-dimensional front image on a display unit;
を含み、including
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理方法。The image processing method, wherein the two-dimensional front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
プロセッサーによって実行されると、該プロセッサーに請求項17乃至20のいずれか一項に記載の画像処理方法の各工程を実行させるプログラム。 A program that, when executed by a processor, causes the processor to perform the steps of the image processing method according to any one of claims 17 to 20 .
JP2018107223A 2018-06-04 2018-06-04 Image processing device, image processing method and program Active JP7204345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018107223A JP7204345B2 (en) 2018-06-04 2018-06-04 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107223A JP7204345B2 (en) 2018-06-04 2018-06-04 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2019208845A JP2019208845A (en) 2019-12-12
JP7204345B2 true JP7204345B2 (en) 2023-01-16

Family

ID=68844133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107223A Active JP7204345B2 (en) 2018-06-04 2018-06-04 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7204345B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172563A1 (en) * 2021-02-12 2022-08-18 株式会社ニデック Ophthalmic information processing program and ophthalmic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209200A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2016209198A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2017113146A (en) 2015-12-22 2017-06-29 株式会社トプコン Ophthalmologic imaging device
JP2017127506A (en) 2016-01-21 2017-07-27 キヤノン株式会社 Image forming method and apparatus
JP2017159034A (en) 2016-03-10 2017-09-14 キヤノン株式会社 Method and system for removing motion artefacts in optical coherence tomography

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209200A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2016209198A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2017113146A (en) 2015-12-22 2017-06-29 株式会社トプコン Ophthalmologic imaging device
JP2017127506A (en) 2016-01-21 2017-07-27 キヤノン株式会社 Image forming method and apparatus
JP2017159034A (en) 2016-03-10 2017-09-14 キヤノン株式会社 Method and system for removing motion artefacts in optical coherence tomography

Also Published As

Publication number Publication date
JP2019208845A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
JP4971864B2 (en) Optical image measuring device and program for controlling the same
JP6025349B2 (en) Image processing apparatus, optical coherence tomography apparatus, image processing method, and optical coherence tomography method
JP6598466B2 (en) Tomographic imaging apparatus, tomographic imaging method, and program
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
JP2018038611A (en) Ophthalmologic analyzer and ophthalmologic analysis program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP6375760B2 (en) Optical coherence tomography apparatus and fundus image processing program
WO2020050308A1 (en) Image processing device, image processing method and program
JP7195745B2 (en) Image processing device, image processing method and program
CN113543695A (en) Image processing apparatus, image processing method, and program
JP6849776B2 (en) Information processing device and information processing method
JP7297952B2 (en) Information processing device, information processing method and program
JP7005382B2 (en) Information processing equipment, information processing methods and programs
JP7204345B2 (en) Image processing device, image processing method and program
JP7106304B2 (en) Image processing device, image processing method and program
JP2020054812A (en) Image processing device, image processing method and program
JP6976778B2 (en) Information processing equipment, information processing methods and programs
JP2020032072A (en) Image processing device, image processing method and program
JP2018191761A (en) Information processing device, information processing method, and program
JP7086708B2 (en) Image processing equipment, image processing methods and programs
JP7387812B2 (en) Image processing device, image processing method and program
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2019198384A (en) Image processing system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R151 Written notification of patent or utility model registration

Ref document number: 7204345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151