JP7204345B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7204345B2 JP7204345B2 JP2018107223A JP2018107223A JP7204345B2 JP 7204345 B2 JP7204345 B2 JP 7204345B2 JP 2018107223 A JP2018107223 A JP 2018107223A JP 2018107223 A JP2018107223 A JP 2018107223A JP 7204345 B2 JP7204345 B2 JP 7204345B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion contrast
- dimensional
- data
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
光干渉断層撮像法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。 An eye tomography apparatus such as an apparatus using optical coherence tomography (OCT) (OCT apparatus) is capable of three-dimensionally observing the state inside the retinal layers. In recent years, this tomographic imaging apparatus has been attracting attention because it is useful for more accurately diagnosing diseases.
OCTの形態として、例えば、高速に画像を取得する方法としては、広帯域光源を用い、分光器でインターフェログラムを取得する手法によるSD-OCT(Spectral domain OCT)が知られている。また、光源として高速波長掃引光源を用い、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS-OCT(Swept Source OCT)が知られている。 As a form of OCT, for example, SD-OCT (Spectral domain OCT), which uses a broadband light source and acquires an interferogram with a spectroscope, is known as a method of acquiring images at high speed. Also known is SS-OCT (Swept Source OCT), which uses a fast wavelength swept light source as a light source and measures spectral interference with a single-channel photodetector.
そして、近年では、造影剤を用いない血管造影法としてOCTを用いた血管造影法(OCTA:OCT Angiography)が提案されている。OCTAでは、OCTにより取得した三次元のモーションコントラストデータを二次元平面に投影又は積算することで、血管画像(以下、OCTA画像という。)を生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。 In recent years, an angiography method using OCT (OCTA: OCT angiography) has been proposed as an angiography method that does not use a contrast medium. In OCTA, a blood vessel image (hereinafter referred to as an OCTA image) is generated by projecting or integrating three-dimensional motion contrast data acquired by OCT onto a two-dimensional plane. Here, the motion contrast data is data obtained by repeatedly photographing the same section of the object to be measured by OCT, and detecting a temporal change in the object to be measured between the photographing. Motion contrast data can be obtained, for example, by calculating phases, vectors, and temporal changes in intensity of complex OCT signals from differences, ratios, or correlations.
特許文献1に開示される技術では、OCTにより取得した三次元のモーションコントラストデータを投影又は積算することにより、モーションコントラストの正面画像(OCTA画像)を生成する。ここで、正面画像とは、被検体の深さ方向に交差する方向の二次元平面の画像である。しかしながら、このような正面画像の生成方法では、各画素値は選択範囲内におけるモーションコントラストデータの値を投影又は積算することにより求められるため、モーションコントラストデータの深さ方向の位置関係は考慮されていない。そのため、それらの画像を観察すると、血管交差部における血管交差の深度方向における上下関係の状態が把握できないことがある。
In the technique disclosed in
そこで、本発明は、血管等の深さ方向における位置関係等を観察可能な正面画像を提供することができる画像処理装置、画像処理方法及びプログラムを提供する。 Accordingly, the present invention provides an image processing apparatus, an image processing method, and a program capable of providing a front image in which the positional relationship of blood vessels and the like in the depth direction can be observed.
本発明の一実施態様による画像処理装置は、被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成し、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する生成部と、前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部とを備え、前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である。 An image processing apparatus according to an embodiment of the present invention generates a first front image, which is a motion contrast front image, using at least part of three-dimensional motion contrast data of a subject, and A second front image generated by a method different from that of the first front image using at least part of the second front image, wherein the relative positional relationship in the depth direction of the plurality of intersecting blood vessels of the subject can be identified. a generation unit that generates the second front image; and a display control unit that causes a display unit to display at least one of the first front image and the second front image , wherein the second front image is generated. is an image obtained by volume-rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject .
本発明の他の実施態様による画像処理方法は、被検体の三次元のモーションコントラストデータの少なくとも一部を用いてモーションコントラスト正面画像である第1の正面画像を生成する工程と、前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程とを含み、前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である。 An image processing method according to another embodiment of the present invention comprises the steps of: generating a first front image that is a motion contrast front image using at least part of three-dimensional motion contrast data of a subject; A second front image generated by a method different from that of the first front image using at least part of the motion contrast data, wherein the relative positional relationship in the depth direction of the plurality of intersecting blood vessels of the subject is generating the identifiable second front image; and causing a display unit to display at least one of the first front image and the second front image, wherein the second front image The image is an image obtained by volume-rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject .
本発明によれば、血管等の深さ方向における位置関係等を観察可能な正面画像を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the front image which can observe the positional relationship etc. in a depth direction, such as a blood vessel, can be provided.
以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Exemplary embodiments for carrying out the invention will now be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, the same reference numbers are used in the drawings to indicate identical or functionally similar elements.
なお、以下、被検体として人眼である被検眼を例に説明するが、被検体は皮膚や臓器等でもあってもよい。この場合、内視鏡等の医療機器から取得した画像に本開示による画像処理方法を適用することができる。また、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号に基づくデータ、及びこれに高速フーリエ変換(FFT:Fast Fourier Transform)や任意の信号処理を行ったデータを含むものをいう。 In addition, although the eye to be examined, which is a human eye, will be described as an example of the subject, the subject may be skin, an organ, or the like. In this case, the image processing method according to the present disclosure can be applied to an image acquired from a medical device such as an endoscope. In addition, tomographic data is data containing information about the tomogram of the subject, and data based on interference signals by OCT, and data obtained by subjecting this to Fast Fourier Transform (FFT) and arbitrary signal processing. What it contains.
(実施例1)
以下、図1乃至図8を参照しながら、本発明の実施例1に係る画像処理装置を備える画像処理システム、特に眼部の断層画像を用いた画像処理システムについて説明する。
(Example 1)
An image processing system including an image processing apparatus according to a first embodiment of the present invention, in particular, an image processing system using a tomographic image of an eye will be described below with reference to FIGS. 1 to 8. FIG.
図1は、本実施例に係る画像処理装置20を備える画像処理システム1の概略的な構成を示す。図1に示すように、画像処理システム1には、断層画像撮影装置の一例であるOCT装置10、画像処理装置20、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60が設けられている。
FIG. 1 shows a schematic configuration of an
OCT装置10は、被検眼の断層画像を撮影するための装置である断層画像撮影装置の一例である。OCT装置としては、任意の種類のOCT装置を用いることができ、例えばSD-OCTやSS-OCTを用いることができる。
The
画像処理装置20は、インタフェースを介してOCT装置10、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60と接続されており、これらを制御することができる。画像処理装置20は、OCT装置10、眼底画像撮影装置30、及び外部記憶装置40から取得する各種信号に基づいて、被検眼の断層画像、OCTA画像、レンダリング画像、輝度情報に基づくEn-Face画像、及び眼底画像等を生成することができる。また、画像処理装置20は、これら画像について画像処理を施すことができる。なお、画像処理装置20は、汎用のコンピュータによって構成されてもよいし、画像処理システム1専用のコンピュータによって構成されてもよい。
The
眼底画像撮影装置30は、被検眼の眼底画像を撮影するための装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等を用いることができる。なお、OCT装置10と眼底画像撮影装置30の装置構成は、一体型でもよいし別体型でもよい。
The fundus
外部記憶装置40は、被検眼に関する情報(患者の氏名、年齢、性別等)と、撮影した各種画像データ、撮影パラメータ、画像解析パラメータ、及び操作者によって設定されたパラメータをそれぞれ関連付けて保持している。外部記憶装置40は、任意の記憶装置によって構成されてよく、例えば、光学ディスクやメモリ等の記憶媒体によって構成されてよい。
The
表示部50は、任意のディスプレイによって構成され、画像処理装置20による制御に従い、被検眼に関する情報や各種画像を表示することができる。
The
入力部60は、例えば、マウス、キーボード、又はタッチ操作画面などであり、ユーザは、入力部60を介して、画像処理装置20やOCT装置10、眼底画像撮影装置30への指示を画像処理装置20に入力することができる。なお、入力部60をタッチ操作画面とする場合には、入力部60を表示部50と一体として構成することができる。
The
なお、これら構成要素は、図1では別体として示されているが、これら構成要素の一部又は全部を一体として構成してもよい。 In addition, although these components are shown as separate bodies in FIG. 1, some or all of these components may be integrated.
次にOCT装置10について説明する。OCT装置10には、光源11、ガルバノミラー12、フォーカスレンズステージ13、コヒーレンスゲートステージ14、ディテクタ15、及び内部固視灯16が設けられている。なお、OCT装置10は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置20からの指示により行われる断層画像の撮影について説明を行う。
Next, the
画像処理装置20から撮影の指示が伝えられると、光源11が光を出射する。光源11からの光は不図示の分割部を用いて測定光と参照光に分割される。OCT装置10では、測定光を被検体(被検眼)に照射し、被検体からの戻り光と、参照光との干渉光を検出することで、被検体の断層情報を含む干渉信号を生成することができる。
When the
ガルバノミラー12は、測定光を被検眼の眼底において走査するために用いられ、ガルバノミラー12による測定光の走査範囲により、OCT撮影による眼底の撮影範囲を規定することができる。画像処理装置20は、ガルバノミラー12の駆動範囲及び速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定することができる。図1では、説明を簡略化するため、ガルバノミラー12を1つのユニットとして示したが、ガルバノミラー12は、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上における所望の範囲を測定光で走査できる。なお、測定光を走査するための走査部の構成はガルバノミラーに限られず、他の任意の偏向ミラーを用いることができる。また、走査部として、例えば、MEMSミラーなどの1枚で二次元方向に測定光を走査することができる偏向ミラーを用いてもよい。
The
フォーカスレンズステージ13には不図示のフォーカスレンズが設けられている。フォーカスレンズステージ13を移動させることで、フォーカスレンズを測定光の光軸に沿って移動させることができる。このため、フォーカスレンズによって、被検眼の前眼部を介し、眼底の網膜層に測定光をフォーカスすることができる。眼底を照射した測定光は各網膜層で反射・散乱して戻り光として、光路を戻る。
A focus lens (not shown) is provided on the
コヒーレンスゲートステージ14は、被検眼の眼軸長の相違等に対応するため、参照光又は測定光の光路の長さを調整するために用いられる。本実施例では、コヒーレンスゲートステージ14は、ミラーが設けられたステージによって構成され、参照光の光路において光軸方向に移動することで参照光の光路長を測定光の光路長に対応させることができる。ここで、コヒーレンスゲートは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートステージ14は、画像処理装置20により制御されることができる。画像処理装置20は、コヒーレンスゲートステージ14によりコヒーレンスゲートの位置を制御することによって、被検眼の深さ方向の撮影範囲を制御することができ、網膜層側の撮影、又は網膜層より深部側の撮影等を制御することができる。
The
ディテクタ15は、不図示の干渉部において生じた、被検眼からの測定光の戻り光と参照光との干渉光を検出し、干渉信号を生成する。画像処理装置20は、ディテクタ15からの干渉信号を取得し、干渉信号に対してフーリエ変換等を行うことで被検眼の断層画像を生成することができる。
The
内部固視灯16には、表示部161、レンズ162が設けられている。本実施例では、表示部161の一例として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、画像処理装置20の制御により撮影したい部位に応じて変更される。表示部161からの光は、レンズ162を介し、被検眼に導かれる。表示部161から出射される光は、例えば520nmの波長を有し、画像処理装置20による制御により所望のパターンで表示される。
The
なお、OCT装置10には、画像処理装置20による制御に基づいて、各構成要素の駆動を制御するOCT装置10用の駆動制御部が設けられてもよい。
Note that the
次に、図2(a)乃至図2(c)を参照して、画像処理システム1で取得する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、及び視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置10は、角膜や水晶体等の前眼部を撮影することも可能である。
Next, the structure and images of the eye acquired by the
図2(b)は、OCT装置10を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置10の上記一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、断層画像と呼ぶ。
FIG. 2B shows an example of a tomographic image obtained by imaging the retina using the
図2(b)には、血管Ve、硝子体V、黄斑部M、視神経乳頭部Dが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。 In FIG. 2(b), a blood vessel Ve, a vitreous body V, a macula M, and an optic papilla D are shown. In addition, the boundary line L1 is the boundary between the inner limiting membrane (ILM) and the nerve fiber layer (NFL), the boundary line L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and the boundary line L3 is the photoreceptor inner segment. Represents outer segment junction (ISOS). Furthermore, the boundary line L4 represents the retinal pigment epithelium layer (RPE), the boundary line L5 represents the Bruch's membrane (BM), and the boundary line L6 represents the choroid. In a tomographic image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (depth direction) is the z-axis.
図2(c)は、眼底画像撮影装置30を用いて被検眼の眼底を撮影することで取得した眼底画像の一例を示す。図2(c)には、黄斑部M、視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(OCTの副走査方向)をy軸とする。
FIG. 2C shows an example of a fundus image obtained by photographing the fundus of the subject's eye using the
次に、画像処理装置20について説明する。画像処理装置20には、取得部21、画像処理部22、駆動制御部23、記憶部24、及び表示制御部25が設けられている。
Next, the
取得部21は、OCT装置10から被検眼の干渉信号のデータを取得することができる。なお、取得部21が取得する干渉信号のデータは、アナログ信号でもデジタル信号でもよい。取得部21がアナログ信号を取得する場合には、画像処理装置20でアナログ信号をデジタル信号に変換することができる。また、取得部21は、画像処理部22で生成された断層データ、モーションコントラストデータ、断層画像、眼底画像、OCTA画像、レンダリング画像、及びEn-Face画像を取得することができる。さらに、取得部21は、眼底画像撮影装置30で取得した眼底情報を含むデータ等を取得することができる。また、取得部21は、被検者識別番号等の被検眼を同定するための情報を入力部60等から取得することができる。取得部21は、取得した各種データや画像を記憶部24に記憶させることができる。
The
画像処理部22は、取得部21で取得されたデータや記憶部24に記憶されたデータから、各種画像を生成し、生成した画像に画像処理を施すことができる。画像処理部22には、断層画像生成部221、モーションコントラストデータ生成部222、正面画像生成部223、検出部224、高画質データ生成部225、及びレンダリング部226が設けられている。
The
断層画像生成部221は、取得部21で取得された干渉信号に対してフーリエ変換等の処理を施して断層データを生成し、断層データに基づいて断層画像を生成することができる。なお、断層画像の生成方法としては既知の任意の方法を採用してよく、詳細な説明は省略する。
The tomographic
モーションコントラストデータ生成部222は、断層画像生成部221で生成した断層データに基づいて、モーションコントラストデータを生成する。なお、モーションコントラストデータの生成方法としては、既知の任意の方法を用いてよい。例えば、所定の時間間隔の間に取得された干渉信号に基づく2枚の断層画像の互いに対応する画素における画素値の脱相関値や分散値、最大値を最小値で割った値(最大値/最小値)をモーションコントラストデータとして求めることができる。本実施例では、モーションコントラストデータ生成部222は、2枚の断層画像に対応する断層データ同士の脱相関値に基づいてモーションコントラストデータを生成する。
The motion
正面画像生成部223は、モーションコントラストデータ生成部222で生成した三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像(OCTA画像)を生成することができる。また、正面画像生成部223は、高画質化された三次元のモーションコントラストデータから二次元のモーションコントラスト正面画像を生成することもできる。さらに、正面画像生成部223は、取得部21で取得された干渉信号に基づく三次元の断層データや高画質化された三次元の断層データから二次元の断層正面画像(輝度のEn-Face画像)を生成することができる。
The
検出部224は、取得部21で取得した断層データに基づいて被検眼の網膜の各層の境界線を検出することができる。高画質データ生成部225は、三次元のモーションコントラストデータ同士を位置合わせし、加算平均(合成)することで、高画質な三次元のモーションコントラストデータを生成することができる。また、高画質データ生成部225は、三次元の断層データ同士を位置合わせし、加算平均することで、高画質な三次元の断層データを生成することもできる。ここで、高画質なデータとは一度の撮影と比較してS/N比が向上しているデータ、又は検査・診断に必要な情報量が増えているデータをいう。
The
レンダリング部226は、高画質な三次元の断層データや、高画質な三次元のモーションコントラストデータに対してボリュームレンダリングを行い、レンダリング画像を生成することができる。レンダリング部226には、視点決定部261及び範囲選択部262が設けられている。レンダリング部226は、視点決定部261によって決定された視点位置と、範囲選択部262によって選択されたデータ範囲に基づいて三次元のデータをボリュームレンダリングする。なお、レンダリング部226は、取得部21によって取得された三次元の断層データや三次元のモーションコントラストデータに対してボリュームレンダリングを行ってもよい。
The
視点決定部261は、予め記憶された所定の視点位置又はユーザによって指定された視点位置に基づいて、ボリュームレンダリングを行う際の視点位置を決定する。なお、以下において、視点位置を単に視点ともいう。
The
範囲選択部262は、所定のデータ範囲、又はユーザによって指定されたデータ範囲に基づいて、ボリュームレンダリングを行う際に用いるデータの範囲を選択する。また、範囲選択部262は、OCTA画像を生成する際に用いる深さ範囲(生成範囲)の上端及び下端に基づいて、ボリュームレンダリングを行う三次元モーションコントラストデータのデータ範囲を選択することもできる。例えば、OCTA画像の生成範囲の上端としてILM/NFL境界線、下端としてGCL/IPL境界線が設定されている場合、範囲選択部262はこれらの境界線の間に含まれる三次元のデータ範囲を選択することができる。
The
駆動制御部23は、画像処理装置20に接続されている、OCT装置10や眼底画像撮影装置30の各構成要素の駆動を制御することができる。記憶部24は、取得部21で取得された断層データ、及び画像処理部22で生成・処理された各種画像やデータ等を記憶することができる。また、記憶部24は、プロセッサーによって実行されることで画像処理装置20の各構成要素の機能を果たすためのプログラム等を記憶することもできる。
The
表示制御部25は、取得部21で取得された各種情報や画像処理部22で生成・処理された各種画像、及びユーザによって入力された情報等の表示部50における表示を制御することができる。
The
画像処理装置20の記憶部24以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部24は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。
Each component of the
次に、本実施例に係る画像処理方法について説明する。本実施例に係る画像処理方法では、三次元のモーションコントラストデータをXY面方向に対して正面視の視点に基づいてボリュームレンダリングしたレンダリング画像をOCTA画像と比較しやすい状態で表示する。ここで、正面視の視点とは、厳密に正面から見た視点に限られず、正面から僅かに角度を有した視点を含むものをいう。このようなレンダリング画像を、OCTA画像と比較しやすい状態で表示することで、OCTA画像では把握できない血管の交差部等の深さ方向における位置関係等を観察することができる。なお、XY面方向は被検体の深さ方向に交差する方向に対応する。 Next, an image processing method according to this embodiment will be described. In the image processing method according to the present embodiment, a rendering image obtained by volume-rendering three-dimensional motion contrast data based on a front view viewpoint in the XY plane direction is displayed in a state that can be easily compared with an OCTA image. Here, the front view point of view is not strictly limited to a point of view seen from the front, but includes a point of view slightly angled from the front. By displaying such a rendered image in a state that can be easily compared with the OCTA image, it is possible to observe the positional relationship in the depth direction, such as the intersection of blood vessels, which cannot be grasped from the OCTA image. Note that the XY plane direction corresponds to a direction intersecting the depth direction of the subject.
以下、図3を参照して本実施例に係る一連の画像処理の手順を示す。図3は、本実施例に係る一連の画像処理のフローチャートである。本実施例に係る画像処理が開始されると、処理はステップS301に移行する。 A series of image processing procedures according to this embodiment will be described below with reference to FIG. FIG. 3 is a flowchart of a series of image processing according to this embodiment. When the image processing according to this embodiment is started, the process proceeds to step S301.
ステップS301では、取得部21が、被検眼を同定する情報の一例である被検者識別番号を入力部60等の画像処理装置20の外部から取得する。取得部21は、被検者識別番号に基づいて、外部記憶装置40が保持している当該被検眼に関する情報を取得して記憶部24に記憶する。
In step S<b>301 , the
ステップS302では、駆動制御部23がOCT装置10を制御して被検眼をスキャンすることで撮影を行い、取得部21がOCT装置10から被検眼の断層情報を含む干渉信号を取得する。被検眼のスキャンは、ユーザによるスキャン開始の指示に応じて、駆動制御部23がOCT装置10を制御し、光源11やガルバノミラー12等を動作させることで行われる。
In step S<b>302 , the
ガルバノミラー12は、水平方向用のXスキャナと垂直方向用のYスキャナを含む。そのため、駆動制御部23は、これらのスキャナの向きをそれぞれ変更することで、装置座標系における水平方向(X)及び垂直方向(Y)のそれぞれの方向に測定光を走査することができる。なお、駆動制御部23は、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向にも測定光を走査することができる。そのため、駆動制御部23は、眼底平面上の任意の方向に測定光を走査することができる。
The
駆動制御部23は、撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、駆動制御部23は、内部固視灯16で表示するパターンの位置、ガルバノミラー12によるスキャン範囲やスキャンパターン、コヒーレンスゲート位置、及びフォーカスを少なくとも設定する。
The
駆動制御部23は、表示部161の発光ダイオードを制御して、被検眼の黄斑部中心や視神経乳頭の撮影を行うように内部固視灯16で表示するパターンの位置を制御する。また、駆動制御部23は、ガルバノミラー12のスキャンパターンとして、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャンなどのスキャンパターンを設定する。これら撮影パラメータの調整終了後、ユーザによる撮影開始の指示に応じて、駆動制御部23がOCT装置10を制御して被検眼の撮影を行う。
The
本実施例においては、スキャンパターンはラスタスキャンによる三次元ボリュームスキャンであり、OCT装置10は、高画質なデータを生成するために、被検眼の三次元ボリュームをN回(Nは2以上)撮影する。OCT装置10は、N回繰り返して行う撮影について、同じ撮影範囲を同じスキャンパターンで撮影する。例えば、3mm×3mmの範囲を300×300(主走査×副走査)の間隔で繰り返し撮影を行う。
In this embodiment, the scan pattern is a three-dimensional volume scan by raster scanning, and the
また、三次元ボリュームスキャンを行う際にOCT装置10は、モーションコントラストデータを生成するために略同一のライン箇所をm回(mは2以上)繰り返し撮影する。すなわち、取得部21は、例えば、mが2回だとする場合、実際には2×300×300のデータを取得する。この場合には、モーションコントラストデータ生成部222は、後述する処理により、2×300×300のデータに基づいて300×300の三次元モーションコントラストデータを生成する。なお、略同一のライン箇所とは、同一のライン箇所だけでなく、モーションコントラストデータを生成する際に許容される程度にずれたライン箇所も含むものをいう。
Further, when performing a three-dimensional volume scan, the
本開示においては詳細な説明を省略するが、OCT装置10は、加算平均用に同じ箇所を撮影するために、被検眼のトラッキングを行うことができる。これにより、OCT装置10は、固視微動の影響を少なくして被検眼のスキャンを行うことができる。さらに、OCT装置10は、画像を生成するにあたりアーティファクトとなるまばたき等の動きを検出した場合には、アーティファクトが発生した場所で再スキャンを自動的に行うことができる。
Although detailed description is omitted in the present disclosure, the
ステップS303では、断層画像生成部221が、取得部21によって取得された干渉信号に基づいて断層画像の生成を行う。断層画像生成部221は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成することができる。
In step S<b>303 , the tomographic
まず、断層画像生成部221は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、取得した複数のAスキャンの信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。その後、断層画像生成部221は、有限区間で干渉信号をフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。断層画像生成部221は、窓関数処理を行った干渉信号に対して高速フーリエ変換(FFT)処理を行うことによって断層データを生成する。
First, the
断層画像生成部221は、生成した断層データに基づいて断層画像の各画素値を求め、断層画像を生成する。なお、断層画像の生成方法はこれに限られず、既知の任意の方法で行われてよい。
The tomographic
ステップS304では、モーションコントラストデータ生成部222が、断層画像生成部221によって生成された断層データに基づいて、モーションコントラストデータの生成を行う。ここで、図4を参照して、モーションコントラストデータの生成について説明を行う。図4には、三次元のモーションコントラストデータMC、三次元のモーションコントラストデータMCを構成する二次元のモーションコントラストデータLMCが示されている。ここでは、二次元のモーションコントラストデータLMCを生成する方法について説明をする。
In step S<b>304 , the motion
モーションコントラストデータ生成部222は、まず被検眼の略同一範囲で撮影された複数の断層画像間の位置ずれを補正する。ここで、断層画像間の位置ずれの補正方法は任意の方法であってよい。例えば、モーションコントラストデータ生成部222は、略同一範囲をm回撮影して取得した三次元の断層データのうち、略同一箇所に対応する断層データ同士について、眼底形状の特徴等を利用して位置合わせを行う。なお、以下において、1枚の断層画像に対応する断層データを1組の断層データといい、m枚の断層画像に対応する断層データをm組の断層データという。
The motion
具体的には、略同一箇所のm回の撮影に対応するm組の断層データのうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層データとの類似度を求め、テンプレートとの位置ずれ量を求める。その後、モーションコントラストデータ生成部222は、求めた位置ずれ量に基づいて、m組の断層データの各断層データを補正する。
Specifically, one of m sets of tomographic data corresponding to m times of imaging of substantially the same location is selected as a template, and the degree of similarity with other tomographic data is obtained while changing the position and angle of the template. , and the amount of positional deviation from the template. After that, the motion
次にモーションコントラストデータ生成部222は、各断層データに関する撮影時間が所定の時間間隔内である、2組の断層データ間で式1により脱相関値M(x,z)を求める。
脱相関値M(x,z)は0~1の値となり、2つの輝度の差が大きいほどM(x,z)の値は大きくなる。モーションコントラストデータ生成部222は、略同一位置で行った撮影の繰り返し回数mが3以上の場合には、同一位置(x,z)において複数の脱相関値M(x,z)を求めることができる。モーションコントラストデータ生成部222は、求めた複数の脱相関値M(x,z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラストデータを生成することができる。なお、繰り返し回数mが2の場合、最大値演算や平均演算などの統計的な処理は行わず、2組の断層データA,Bの脱相関値M(x,z)が、位置(x,z)におけるモーションコントラストデータの値となる。
The decorrelation value M(x, z) is a value between 0 and 1, and the larger the difference between the two luminances, the larger the value of M(x, z). The motion contrast
式1に示したモーションコントラストデータの計算式はノイズの影響を受けやすい傾向がある。例えば、複数組の断層データの無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、モーションコントラストデータ生成部222は、前処理として、所定の閾値を下回る断層データはノイズとみなして、ゼロに置き換えることができる。これにより、後述する処理において、正面画像生成部223は、当該前処理を施して生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。
The motion contrast data calculation formula shown in
画像処理装置20は、ステップS302~ステップS304の処理を複数回のボリュームスキャンで取得した干渉信号に対して行うことで、複数の三次元断層データ(三次元断層画像)と複数の三次元モーションコントラストデータを取得することができる。なお、画像処理装置20は、1回のボリュームスキャンで干渉信号を取得する毎にステップS302~S304の処理を随時行ってもよい。この場合、1回目のボリュームスキャンでは1つの三次元断層データしか得られないため、モーションコントラストデータの生成処理を省略し、2回目以降の処理においてモーションコントラストデータを生成することができる。
The
ステップS305では、検出部224が、三次元断層データにおいて網膜層の境界線(層境界)を検出する。検出部224は、図2(b)の断層画像においてL1~L6の各境界、又は不図示のGCL/IPL、IPL/INL、INL/OPL、及びOPL/ONL境界のいずれかを検出する。
In step S305, the
具体的には、検出部224は、処理の対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用してメディアン画像及びSobel画像を生成する。次に、検出部224は、生成したメディアン画像とSobel画像から、Aスキャンに対応する断層データ毎にプロファイルを生成する。ここで、生成されるプロファイルは、メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。その後、検出部224は、Sobel画像から生成したプロファイル内のピークを検出する。検出部224は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出する。
Specifically, the
なお、層境界を検出する方法は当該方法に限られない。検出部224は、既知の任意の方法により層境界を検出することができる。
Note that the method for detecting layer boundaries is not limited to this method. The
ステップS306では、高画質データ生成部225が、複数の三次元断層データ及び複数の三次元モーションコントラストデータを用いて高画質な三次元データを生成する。以下、三次元データとは、輝度値からなる三次元断層データと、脱相関値からなる三次元モーションコントラストデータのことを指す。
In step S306, the high-quality
具体的には、高画質データ生成部225は、層境界の情報及び複数の三次元モーションコントラストデータに基づいて正面画像生成部223によって生成されたモーションコントラスト正面画像を位置合わせ用の画像として取得する。なお、正面画像生成部223によるモーションコントラスト正面画像の生成方法については後述する。高画質データ生成部225は、取得した位置合わせ用の画像に基づいて、複数の三次元モーションコントラストデータから基準となる三次元モーションコントラストデータを選択する。その後、高画質データ生成部225は、基準となる三次元モーションコントラストデータと他の三次元モーションコントラストデータとをX,Y,Z方向について位置合わせし、位置合わせした複数のモーションコントラストデータを加算平均する。これにより、高画質データ生成部225は、高画質な三次元モーションコントラストデータを生成することができる。
Specifically, the high image quality
また、高画質データ生成部225は、基準とされた三次元モーションコントラストデータに対応する三次元断層データを基準とし、複数の三次元断層データの位置合わせを行い、位置合わせ後の複数の三次元断層データを加算平均する。これにより、高画質データ生成部225は、高画質な三次元断層データ(三次元断層画像)を生成することができる。なお、高画質データ生成部225は、モーションコントラストデータの位置合わせパラメータを用いて、複数の三次元断層データについて位置合わせを行ってもよい。
In addition, the high-quality
なお、モーションコントラストデータの位置合わせ方法及び三次元断層データの位置合わせ方法は、上記方法に限られず、既知の任意の方法を用いてよい。 Note that the motion contrast data registration method and the three-dimensional tomographic data registration method are not limited to the above methods, and any known method may be used.
ここで、高画質化処理を行う前後の三次元データに基づく画像の例を図5(a)乃至図6(b)に示す。図5(a)は、高画質化処理前の三次元モーションコントラストデータから生成された一断面の画像500、及び高画質化処理後の三次元モーションコントラストデータから生成された一断面の画像501を示す。
Here, examples of images based on three-dimensional data before and after the image quality enhancement process are shown in FIGS. 5(a) to 6(b). FIG. 5A shows an
高画質化処理では、上述のように、三次元モーションコントラストデータと同様に、複数の三次元断層データに関しても高画質化処理を行う。ここで、図5(b)は、高画質化処理前の三次元断層データから生成された一断面の画像510、及び高画質化処理後の三次元断層データから生成された一断面の画像511を示す。
In the image quality enhancement process, as described above, the image quality enhancement process is performed on a plurality of pieces of three-dimensional tomographic data as well as the three-dimensional motion contrast data. Here, FIG. 5B shows a
図5(a)及び図5(b)に示すように、高画質化処理前の画像ではノイズが多く血管とノイズの差や、層の境界が不明瞭である。これに対し、高画質化処理後の画像ではノイズが少なく血管や網膜層の構造を認識することができる。 As shown in FIGS. 5(a) and 5(b), the image before the image quality enhancement process has a lot of noise, and the difference between blood vessels and noise and the boundary between layers are unclear. On the other hand, the image after high-quality image processing has little noise, and the structure of blood vessels and retinal layers can be recognized.
図6(a)は、高画質化処理前の三次元モーションコントラストデータから生成された網膜表層のOCTA画像600、及び高画質化処理後の三次元モーションコントラストデータから生成された網膜表層のOCTA画像601を示す。また、図6(b)は、高画質化前の三次元断層データから生成される正面画像610、及び高画質化処理後の三次元断層データから生成される正面画像611を示す。図6(a)及び図6(b)に示すように、高画質化処理を行うことで、OCTA画像や輝度値に基づく正面画像(En-Face画像)についても、ノイズやアーティファクトが低減された明瞭な画像を生成することができる。
FIG. 6A shows an
高画質化処理が行われたら、処理はステップS307に移行する。ステップS307では、正面画像生成部223が、ユーザによって指定される正面画像の生成範囲に基づいて、高画質な三次元モーションコントラストデータから、モーションコントラストデータの正面画像であるOCTA画像を生成する。なお、取得部21が、正面画像の生成範囲について、ユーザからの指示を取得することができる。また、取得部21は、OCT装置10や画像処理装置20の撮影モード、又は撮影部位等に応じて予め定められたデフォルト値を生成範囲の情報として取得してもよい。
After the image quality enhancement process is performed, the process proceeds to step S307. In step S307, the front
具体的には、正面画像生成部223は、指定された生成範囲上端と生成範囲下端との間の範囲に対応する三次元モーションコントラストデータを二次元平面上に投影し、OCTA画像を生成する。より具体的には、正面画像生成部223は、全体の三次元モーションコントラストデータのうち、生成範囲上端と生成範囲下端の間の範囲に対応するモーションコントラストデータを抽出する。その後、正面画像生成部223は、抽出したモーションコントラストデータを深さ方向に対して平均値投影(AIP)、又は最大値投影(MIP)などの処理を行うことで、OCTA画像の画素値を決定する。これにより、正面画像生成部223はOCTA画像を生成することができる。
Specifically, the front
なお、OCTA画像の生成方法は平均値投影処理や最大値投影処理に限らない。例えば、抽出したモーションコントラストデータについて、深さ方向に対して最小値、中央値、分散、標準偏差、積算値、又は総和などの値を算出することで、OCTA画像の各画素値を生成してもよい。 Note that the method of generating the OCTA image is not limited to the average intensity projection process or the maximum intensity projection process. For example, for the extracted motion contrast data, each pixel value of the OCTA image is generated by calculating a value such as the minimum value, median value, variance, standard deviation, integrated value, or sum in the depth direction. good too.
次に、ステップS308では、レンダリング部226が、高画質な三次元モーションコントラストデータについてXY面方向に対して正面視の視点でボリュームレンダリングを行い、レンダリング画像(第2の正面画像)を生成する。レンダリング部226は、視点決定部261が決定した視点情報及び範囲選択部262が選択したデータ範囲に基づいて三次元モーションコントラストデータに対してボリュームレンダリングを行う。
Next, in step S308, the
本実施例では、視点決定部261は、図6(a)に示されるOCTA画像600,601と同様に、三次元モーションコントラストデータをXY正面方向から見た、正面視の視点情報を決定する。また、範囲選択部262は、三次元モーションコントラストデータの全てをデータ範囲として選択する。
In the present embodiment, the
本実施例では、レンダリング部226は、レイキャスティング法により三次元モーションコントラストデータをボリュームレンダリングする。レイキャスティング法では、視点と画素を通過する光線を仮定し、この光線上での輝度値を積分することで、最終的に視点に到達する光の輝度を決定する。具体的には、光線が入射した三次元データのボクセルに対して予め与えられた色と不透明度との合成演算により、ボクセルを通過した光の輝度を求めることができる。なお、透明度は0から1までの値であり、1から透明度を引いたものが不透明度である。
In this embodiment, the
また、レンダリング手法としては、レイキャスティング法に限らず任意のレンダリング手法を用いてよく、例えば、レイトレーシング法を採用してもよい。レイトレーシング法では、平行光源や点光源で影だけではなく、反射や屈折なども計算することができる。レイトレーシング法では、視点からスクリーン上の各画素を通過する方向に光を逆にたどり、各画素の輝度値や色を決定する。 Moreover, the rendering method is not limited to the ray casting method, and any rendering method may be used. For example, the ray tracing method may be used. In the ray tracing method, not only shadows but also reflection and refraction can be calculated with parallel light sources and point light sources. In ray tracing, light is traced back from the viewpoint through each pixel on the screen to determine the brightness value and color of each pixel.
ここで、図7Aは、レンダリング部226が高画質化処理後の三次元モーションコントラストデータについてボリュームレンダリングを行ったレンダリング画像701の一例を示す。なお、図7Aには高画質化処理前の三次元モーションコントラストデータについてボリュームレンダリングを行ったレンダリング画像700も示されており、高画質化処理により、レンダリング画像においてもノイズ低減等の効果が生じていることが分かる。
Here, FIG. 7A shows an example of a rendered
図7Bは、図7Aで示したレンダリング部226が生成したレンダリング画像701における血管交差部の一部を拡大表示したレンダリング画像702を示している。また、図7Bは、レンダリング画像702と空間的に同じ箇所のOCTA画像を拡大表示したOCTA画像703も示している。さらに、図7Bには、レンダリング画像702の模式図704、及びOCTA画像703の模式図705が示されている。
FIG. 7B shows a rendered
ここで、血管交差部の一部を拡大したレンダリング画像702及び模式図704を参照して、レンダリング画像701について説明する。レンダリング画像702には、水平方向に走行する血管Ve01、垂直方向に走行する血管Ve02,Ve03が現れている。ここで、レンダリング画像702では、模式図704のように、血管Ve01に対して、血管Ve02は深い場所を走行し、血管Ve03は浅い場所を走行していることが確認できる。
Here, the rendered
一方、OCTA画像の一部を拡大表示したOCTA画像703では、平均値投影や最大値投影等に起因して、模式図705のように、血管の交差部は明るく表示される。このため、OCTA画像703では、血管Ve01’,Ve02’,Ve03’の深度方向における上下関係を確認することは困難である。
On the other hand, in an
このように、三次元のモーションコントラストデータについて生成したレンダリング画像では、被検体における血管等の深さ方向の位置を識別することができる。従って、ユーザは、三次元のモーションコントラストデータについて生成したレンダリング画像を観察することで、二次元のOCTA画像では認識しにくい血管の深さ方向における上下関係等を把握しやすくなる。 In this way, it is possible to identify the positions of blood vessels and the like in the subject in the depth direction in the rendered image generated from the three-dimensional motion contrast data. Therefore, by observing the rendered image generated for the three-dimensional motion contrast data, the user can easily grasp the vertical relationship of the blood vessels in the depth direction, which is difficult to recognize in the two-dimensional OCTA image.
レンダリング画像を生成したら、処理はステップS309に移行する。ステップS309では、表示制御部25が、三次元のモーションコントラストデータから生成したOCTA画像とレンダリング画像とを比較しやすい状態で表示部50に表示させる。本実施例では、比較しやすい状態として、これらの画像を並べて表示する又は切り替え可能に表示する。ここで、図8は、表示部50に表示させる画面の一例を示す。
After generating the rendering image, the process proceeds to step S309. In step S309, the
図8には表示画面800が示されており、表示画面800には、ビューモードのタブ823,824が設けられている。タブ823では、OCTA画像や眼底画像等と共に三次元のモーションコントラストデータから生成したレンダリング画像が表示され、タブ824では、三次元データから生成されるレンダリング画像が表示される。
FIG. 8 shows a
なお、表示部50の表示画面800には、これらに加えて患者タブ、撮影タブ、レポートタブ、及び設定タブ等を設けてもよい。この場合、ビューモードのタブ823,824は、レポートタブ内に表示されることとなる。また、表示画面800には、患者情報表示部、検査ソートタブ、及び検査リスト等を表示することもできる。検査リストには、眼底画像や断層画像、OCTA画像のサムネイルを表示してもよい。なお、これらのサムネイルは高画質データから生成されることができる。
In addition to these, the
タブ823には、高画質なデータを生成するモード(高画質モード)のON/OFFを設定するボタン822が設けられている。本実施例では、以下、高画質なデータに基づいて生成された各種画像について説明を行う。
A
また、タブ823には、眼底画像801、第1のOCTA画像802、第1の断層画像803、三次元モーションコントラストデータから生成したレンダリング画像804、第2のOCTA画像805、及び第2の断層画像806が表示されている。さらに、タブ823には、眼底画像801に重畳している画像807、及び画像807の種類を切り替えるタブ808が表示されている。
In addition, a
また、タブ823には、第1のOCTA画像802として表示するOCTA画像の種類809、並びに第1のOCTA画像802の生成範囲上端810及び生成範囲下端811が表示されている。OCTAの種類としては、表層、深層、又は脈絡膜等や任意の範囲で作成したOCTA画像がある。第1のOCTA画像802の生成範囲上端810には上端に対応する層境界の種類と当該層境界からのオフセット値、生成範囲下端811には下端に対応する層境界の種類と当該層境界からのオフセット値が示されている。また、第1の断層画像803には、第1のOCTA画像802の生成範囲上端810を示す境界線818、及び生成範囲下端811を示す境界線819が重畳表示されている。
The
ユーザは、入力部60を介して、境界線818,819を移動させたり、生成範囲上端810や生成範囲下端811に対応する層境界の種類やオフセット値を変更したりすることで、第1のOCTA画像802の生成範囲を変更することができる。
The user can move the
また、タブ823には、レンダリング画像804等の正面画像の種類を切り替えるタブ812が示されている。タブ812を用いることで、レンダリング画像804を、第1のOCTA画像802や輝度情報に基づく正面画像(En-Face)等と切り替えて表示することができる。なお、正面画像の種類を切り替えるユーザインタフェース(UI)はタブに限られず、任意のUIを用いてよい。
A
さらに、タブ823には、第2のOCTA画像805の種類813、種類813を選択するプルダウン814、選択の表示815、並びに第2のOCTA画像805の生成範囲上端816及び生成範囲下端817が示されている。プルダウン814は、第2のOCTA画像805の種類を選択するための選択肢の一例である。生成範囲上端816及び生成範囲下端817は、第1のOCTA画像802の生成範囲上端810及び生成範囲下端811と同様のものである。第2の断層画像806には、第2のOCTA画像805の生成範囲上端816を示す境界線820、及び生成範囲下端817を示す境界線821が重畳表示されている。
Furthermore, the
ユーザは、入力部60を介して、境界線820,821を移動させたり、生成範囲上端816や生成範囲下端817に対応する層境界の種類やオフセット値を変更したりすることで、第2のOCTA画像805の生成範囲を変更することができる。
The user can move the
また、タブ823には、第1の断層画像803のXY面内における位置を示す矢印845、及び第2の断層画像806のXY面内における位置を示す矢印846が表示されている。これら矢印の表示/非表示や矢印の位置の変更は、入力部60を介したユーザの指示に基づき切り替えられることができる。
The
レンダリング画像804は、レンダリング部226が三次元のモーションコントラストデータについて、第1のOCTA画像802及び第2のOCTA画像805と同じ視点方向(正面視方向)からレンダリングした画像である。レンダリング画像804では、上述のように、二次元のOCTA画像では認識しにくい血管等の深さ方向における上下関係等を把握しやすい。本実施例では、このようなレンダリング画像804を第1のOCTA画像802や第2のOCTA画像805と並べて表示することができる。また、タブ823によって、レンダリング画像804と第1のOCTA画像802等を切り替え可能に表示することができる。これらの場合には、正面視のレンダリング画像とOCTA画像が比較しやすい状態で表示されることで、ユーザはOCTA画像に示される血管の交差部等の深さ方向における位置関係等を容易に把握することができる。
A rendered
次に、ステップS310において、取得部21は、入力部60を介して、画像処理装置20による画像処理を終了するか否かの指示をユーザから取得する。取得部21が処理を終了しないという指示を取得した場合には、処理をステップS302に戻して処理を続行する。一方、取得部21が、処理を終了するという指示を取得した場合には、画像処理装置20は一連の画像処理を終了する。
Next, in step S<b>310 , the
上記のように、本実施例に係る画像処理装置20は、取得部21と、画像処理部22と、表示制御部25とを備える。取得部21は、被検体の三次元のモーションコントラストデータを取得する。画像処理部22の正面画像生成部223は、三次元のモーションコントラストデータの少なくとも一部を用いてOCTA画像(第1の正面画像)を生成する。
As described above, the
画像処理部22のレンダリング部226は、三次元のモーションコントラストデータの少なくとも一部を用いて、OCTA画像とは異なる、被検体の深さ方向の位置を識別可能なレンダリング画像(第2の正面画像)を生成する。より具体的には、レンダリング部226は、三次元のモーションコントラストデータの少なくとも一部を被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで、レンダリング画像を生成する。表示制御部25は、OCTA画像とレンダリング画像との少なくとも1つを表示部50に表示させる。より具体的には、表示制御部25は、OCTA画像とレンダリング画像と表示部50に並べて表示させる、又は切り換え可能に表示させる。
The
これにより、本実施例に係る画像処理装置20は、OCTA画像とレンダリング画像を比較しやすい状態で表示することができ、血管交差部等の深度方向における位置関係等を観察可能な正面画像を提供することができる。このため、ユーザは、表示された画像により、被検体の深度方向における血管の上下関係などを容易に把握することができる。
As a result, the
なお、本実施例では、第2の正面画像生成処理(ステップS308)は、正面画像生成処理(ステップS307)の後に行われているが、レンダリング画像を生成するタイミングはこれに限られない。本実施例では、三次元モーションコントラストデータのすべてをボリュームレンダリングするため、第2の正面画像処理は、高画質化処理(ステップS307)の後から表示処理(ステップS310)までの間に行われればよい。そのため、第2の正面画像生成処理(ステップS308)は、正面画像生成処理(ステップS307)の前に行われてもよいし、正面画像生成処理(ステップS307)と並列に行われてもよい。 In this embodiment, the second front image generation process (step S308) is performed after the front image generation process (step S307), but the timing of generating the rendering image is not limited to this. In this embodiment, since all of the three-dimensional motion contrast data is volume rendered, the second front image processing should be performed after the image quality improvement processing (step S307) and before the display processing (step S310). good. Therefore, the second front image generation process (step S308) may be performed before the front image generation process (step S307), or may be performed in parallel with the front image generation process (step S307).
(実施例2)
実施例1においては、三次元のモーションコントラストデータを全て用いて作成したレンダリング画像と、OCTA画像とを比較しやすい状態で表示した。これに対し、実施例2においては、比較するOCTA画像の生成に用いられるモーションコントラストデータの深さ方向の範囲(生成範囲)に対応する範囲のデータを用いたレンダリング画像を表示する。
(Example 2)
In Example 1, the rendered image created using all three-dimensional motion contrast data and the OCTA image were displayed in a state that facilitates comparison. On the other hand, in the second embodiment, a rendered image is displayed using data in a range corresponding to the range in the depth direction (generation range) of the motion contrast data used to generate the OCTA images to be compared.
以下、図9(a)乃至図10Bを参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例1に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)と表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これら処理について説明する。
The image processing system according to this embodiment will be described below with reference to FIGS. 9A to 10B. Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing flow of the image processing system according to the present embodiment are the same as those of the
本実施例に係る第2の正面画像生成処理(ステップS308)では、レンダリング部226の範囲選択部262が、ステップS307において生成したOCTA画像の生成範囲と同じデータ範囲を選択する。具体的には、範囲選択部262は、OCTA画像の生成範囲の上端と下端、より具体的には生成範囲の上端と下端に対応する各層境界とオフセット値に基づいて、三次元モーションコントラストデータのデータ範囲を選択する。例えば、OCTA画像の生成範囲の上端としてILM/NFL境界線、下端としてGCL/IPL境界線が設定されている場合、範囲選択部262はこれらの境界線の間の三次元モーションコントラストデータだけを選択する。
In the second front image generation process (step S308) according to the present embodiment, the
レンダリング部226は、視点決定部261が決定した正面視の視点と、範囲選択部262が選択したデータ範囲に基づいて、三次元モーションコントラストデータについてボリュームレンダリングを行う。なお、ボリュームレンダリングについては、実施例1と同様であるため説明を省略する。
The
図9(a)及び図9(b)は、本実施例におけるOCTA画像と、OCTA画像と同じ範囲の三次元モーションコントラストデータをボリュームレンダリングしたレンダリング画像の一例を示す。図9(a)は、網膜の表層に相当する部分のOCTA画像900、及び同じ範囲のデータをXY正面方向の視点でレンダリングしたレンダリング画像901を示す。また、図9(b)は、網膜の深層に相当する部分のOCTA画像910、及び同じ範囲のデータをXY正面方向の視点でレンダリングしたレンダリング画像911を示す。
FIGS. 9(a) and 9(b) show an example of an OCTA image in this embodiment and an example of a rendering image obtained by volume rendering the three-dimensional motion contrast data of the same range as the OCTA image. FIG. 9A shows an
レンダリング画像901,911では、実施例1に係るレンダリング画像701と同様に、血管の交差部の深さ方向における位置関係が把握できるようになっていることが分かる。
In the rendered
本実施例に係る表示処理(ステップS309)では、表示制御部25が、図10A及び図10Bに示すように、ステップS308で生成されたレンダリング画像804を表示部50に表示させる。図10Aは、第1のOCTA画像802に対応するレンダリング画像804を表示する例、図10Bは、第2のOCTA画像805に対応するレンダリング画像804を表示する例を示している。
In the display process (step S309) according to this embodiment, the
なお、本実施例では、正面画像の種類を切り替えるタブ812を用いて、第1のOCTA画像802の生成範囲に対応するレンダリング画像804や、第2のOCTA画像805に対応するレンダリング画像804の表示を切り替えることができる。また、タブ812を用いて、表示される画像を、三次元モーションコントラストデータの全てを用いたレンダリング画像や、各種OCTA画像、En-Face画像に切り替えることもできる。
In this embodiment, the
このような表示により、比較対象となるOCTA画像の生成範囲に対応するデータ範囲の三次元モーションコントラストデータから生成されたレンダリング画像を比較しやすい状態で表示することができる。この場合、比較されるOCTA画像及びレンダリング画像が対応する範囲のデータから生成されるため、画像同士を比較し易く、OCTA画像に表れている血管の交差部等の位置関係をより容易に把握することができる。 With such a display, it is possible to display the rendering image generated from the 3D motion contrast data in the data range corresponding to the generation range of the OCTA image to be compared in a state that facilitates comparison. In this case, since the OCTA image and the rendered image to be compared are generated from the data in the corresponding range, it is easy to compare the images, and the positional relationship such as the intersection of blood vessels appearing in the OCTA image can be more easily grasped. be able to.
上記のように、本実施例に係る画像処理装置20では、OCTA画像の生成範囲に対応する範囲のモーションコントラストデータに基づいて、レンダリング画像(第2の正面画像)を生成する。これにより、OCTA画像とレンダリング画像が互いにより比較し易くなる。
As described above, the
なお、本実施例においては、範囲選択部262は、OCTA画像の生成範囲に対応するデータ範囲として、OCTA画像の生成範囲と同じ深さ範囲を選択した。しかしながら、範囲選択部262が選択するデータ範囲はOCTA画像の生成範囲と完全に一致する必要はない。範囲選択部262は、OCTA画像の生成範囲に対応するデータ範囲として、例えば、OCTA画像の生成範囲よりも数10%程度広い又は狭い深さ範囲を選択してもよい。
In this embodiment, the
(実施例3)
実施例1及び2においては、三次元モーションコントラストデータから生成したレンダリング画像とOCTA画像とを比較しやすい状態で表示した。実施例3においては、これに加えて、三次元モーションコントラストデータに基づくレンダリング画像及び三次元断層データに基づくレンダリング画像を切り替え可能に表示する構成について説明する。本実施例に係る画像処理は、図8や図10A等に示される表示画面800のタブ824での表示に関する画像処理に対応する。
(Example 3)
In Examples 1 and 2, the rendering image generated from the 3D motion contrast data and the OCTA image were displayed in a state that facilitates comparison. In the third embodiment, in addition to this, a configuration for switchably displaying a rendered image based on 3D motion contrast data and a rendered image based on 3D tomographic data will be described. The image processing according to this embodiment corresponds to the image processing related to the display on the
以下、図11A乃至図11Cを参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例1に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)と表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これら処理について説明する。
The image processing system according to this embodiment will be described below with reference to FIGS. 11A to 11C. Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing flow of the image processing system according to the present embodiment are the same as those of the
本実施例に係る第2の正面画像生成処理(ステップS308)において、視点決定部261は、ボリュームレンダリングを行うデータの種類に応じて視点を決定する。具体的には、視点決定部261は、三次元モーションコントラストデータをレンダリングする場合にはXZ面方向よりもXY面方向に対し視点を決定し、三次元断層データをレンダリングする場合にはXY面方向よりもXZ又はYZ面方向に対し視点を決定する。これにより、生成されるレンダリング画像は、それぞれのデータにおいて情報量が多い面を表示することができる。ここで、XZ面方向又はXY面方向は被検体の深さ方向に平行な方向に対応する。
In the second front image generation processing (step S308) according to the present embodiment, the
なお、視点決定部261は、視点をXY面やXZ面の正面に決定する必要はなく、正面方向から斜め方向に角度を設定した点を視点としてもよい。このため、視点決定部261は、ユーザの指定や予め設定された視点の角度に応じて、視点を決定することもできる。
Note that the
範囲選択部262は、実施例1と同様に、レンダリングに用いるデータ範囲を選択する。レンダリング部226は、視点決定部261によって決定された視点の情報及び範囲選択部262によって選択されたデータ範囲に基づいて、三次元データをボリュームレンダリングしてレンダリング画像を生成する。なお、ボリュームレンダリングについては、実施例1と同様であるため説明を省略する。
A
表示処理(ステップS309)では、表示制御部25が、ステップS308において生成したレンダリング画像のみを表示部50に表示させる。ここで、図11A乃至図11Cは、本実施例における表示画面800の一例を示す。図11Aは、XY方向に対して正面視のボリュームレンダリングにより生成された、三次元モーションコントラストデータに基づくレンダリング画像1101の一例を示す。図11Bは、XZ方向から見た視点で三次元断層データをボリュームレンダリングしたレンダリング画像1105の一例を示す。図11Cは、XY方向に対する正面視の視点から斜め方向に角度をつけた視点で三次元モーションコントラストデータをボリュームレンダリングしたレンダリング画像1101’の一例を示す。
In the display process (step S309), the
表示画面800には、ビューモードのタブ823,824が設けられている。タブ823では、実施例1や実施例2に示した画面が表示される。タブ824では、図11A乃至図11Cで示す画面を表示する。
The
タブ824には、レンダリング画像を表示する領域1100、レンダリング画像1101、オリエンテーションキューブ(Orientation Cube)1102が示されている。ここで、オリエンテーションキューブ1102は、ボリュームレンダリングの視点に対応するレンダリングデータ(レンダリング画像)の姿勢を示している。オリエンテーションキューブ1102のそれぞれの面には、T,S,N,I,A,Pを一文字ずつ表示している。これらはそれぞれ、Temporal、Superior、Nasal、Inferior、Anterior、Posteriorを意味しており、それぞれの姿勢に対応する。ユーザはオリエンテーションキューブ1102を確認することにより、レンダリングデータの姿勢を把握することができる。
A
なお、ユーザが領域1100においてマウスをドラッグしたり、マウスホイールを回転させたりすることで、ボリュームレンダリングの視点方向や画像の表示倍率を変更できるように、UIが構成されることができる。また、視点方向や表示倍率の変更用のボタン等が設けられてもよい。
Note that the UI can be configured so that the user can change the viewing direction of volume rendering and the image display magnification by dragging the mouse or rotating the mouse wheel in the
また、タブ824には、ラジオボタン1110,1118、スライダー1111,1112、リセットボタン1113、層の種類1114、チェックボックス1115,1116、及びチェックボックスの全選択のボタン1117が示されている。
The
ラジオボタン1110は、ボリュームレンダリングを行うモードを選択するために用いられる。図11Aに示すように、モーションコントラストデータのレンダリング画像1101を表示する際には、ラジオボタン1110において、表示モードとしてAngiographyを選択する。本実施例では、Angiographyが選択された場合の初期画像として、視点決定部261がXY面方向に対して正面視の視点を決定してボリュームレンダリングを行ったレンダリング画像1101を表示する。
A
スライダー1111,1112は、表示されるレンダリング画像の輝度とコントラストを調整するためのスライダーである。また、リセットボタン1113は調整した値をデフォルトの値にリセットするためのボタンを示している。
層の種類1114は、チェックボックス1115,1116で選択される層の種類を示している。チェックボックス1115,1116は、層の可視化の選択とPeeling選択のチェックボックスを表している。また、ボタン1117は、チェックボックス1115,1116を全て選択するボタンである。なお、図示しないが、別途、チェックボックス1115,1116の選択を全て解除するボタンがあってもよい。また、ボタン1117にチェックボックス1115,1116の選択を全て解除する機能を追加してもよい。
A
範囲選択部262は、チェックボックス1115の選択に応じてボリュームレンダリングに用いるデータ範囲についてのユーザからの指定を取得してもよい。また、範囲選択部262がチェックボックス1115の選択とは独立してデータ範囲の指定を取得してもよい。この場合には、チェックボックス1115の選択に対応するデータを他の手法により、可視化したり、非表示したりしてもよい。なお、本実施例では、Angiographyが選択された場合の初期画像として、範囲選択部262が三次元モーションコントラストデータの全てをデータ範囲として選択してボリュームレンダリングを行ったレンダリング画像1101を表示する。
The
ラジオボタン1118は、表示される画像についての投影方法を選択するために用いられる。ラジオボタン1118を用いることで、レイキャスティング法等のボリュームレンダリングによる投影や最大値投影(MIP)法を選択することができる。ラジオボタン1118において、最大値投影法が選択された場合には、三次元データについて最大値投影を行った不図示の画像が領域1100に表示される。
なお、本実施例においては、投影方法に関して2種類の選択肢を示しているが、投影方法の種類はこれに限らない。ここで、前述のように、最大値投影法により投影されたOCTA画像では、血管の交差部の深さ方向の位置関係を把握しづらい。そのため、タブ824においてAngiographyの表示モードの場合の投影方法としては、最大値投影法以外の方法で表示することが好ましい。ただし、比較的大きなOCTA画像を確認することが所望される場合等に応じて、Angiographyの表示モードにおいて、最大値投影法が選択されてもよい。
In addition, in the present embodiment, two types of options for the projection method are shown, but the type of projection method is not limited to this. Here, as described above, in the OCTA image projected by the maximum intensity projection method, it is difficult to comprehend the positional relationship in the depth direction of the intersections of the blood vessels. Therefore, it is preferable to display by a method other than the maximum intensity projection method as the projection method in the case of the angiography display mode in the
図11Bは、ラスタスキャンによって取得された三次元断層データをボリュームレンダリングしたレンダリング画像1105を表示する場合の一例を示す。図11Bの例では、レンダリング画像1105を表示する際に、視点決定部261はXZ面から見た視点を決定し、レンダリング部226は当該視点に基づいてレンダリング画像1105を生成する。
FIG. 11B shows an example of displaying a
三次元断層データをボリュームレンダリングしたレンダリング画像1105には、ピーリングコントロール(Peeling Control)1103が重畳されている。ユーザはピーリングコントロール1103を操作することで、チェックボックス1116で選択されている層だけをボリュームデータから剥きとる(Peeling)することができる。
A
なお、図11A及び図11Bでは、XY面とXZ面に対して正面視の視点を決定する例を示した。これに対し、上述のように、視点はそれぞれの面の正面に設定する必要はなく、正面方向から斜め方向に角度を設定してもよい。ここで、設定される斜め方向の角度とは、例えば±20度程度とすることができる。 Note that FIGS. 11A and 11B show an example in which the front view viewpoint is determined with respect to the XY plane and the XZ plane. On the other hand, as described above, the viewpoint need not be set in front of each surface, and the angle may be set in an oblique direction from the front direction. Here, the set oblique angle can be, for example, about ±20 degrees.
図11Cは、図11Aに示すレンダリング画像1101の視点に対して斜め方向に角度を設定した場合のレンダリング画像1101’の例を示す。図11Cでは、斜め方向に角度を設定した場合のオリエンテーションキューブ1102’も示されており、ユーザはオリエンテーションキューブ1102’を確認することで、視点の角度を確認することができる。
FIG. 11C shows an example of a rendered image 1101' when an oblique angle is set with respect to the viewpoint of the rendered
上記のように、本実施例に係る画像処理装置20では、取得部21が、被検体の断層の情報を含む三次元の断層データを更に取得する。また、レンダリング部226が、三次元の断層データの少なくとも一部をボリュームレンダリングすることで断層データに基づくレンダリング画像(第3の画像)を生成する。
As described above, in the
ここで、レンダリング部226の視点決定部261は、モーションコントラストデータに基づくレンダリング画像の視点を、断層データに基づくレンダリング画像の視点よりも、被検体の深さ方向に交差する方向に対してより正面視に近い視点に決定する。特に、本実施例では、レンダリング部226は、三次元の断層データの少なくとも一部を被検体の深さ方向に平行な方向に対する正面視の視点でボリュームレンダリングすることで、断層データに基づくレンダリング画像を生成する。
Here, the
そして、表示制御部25は、モーションコントラストデータに基づくレンダリング画像と断層データに基づくレンダリング画像とを切り替え可能に表示部50に表示させる。
Then, the
これにより、ユーザは、観察する平面画像の種類に応じて、観察目的に適した視点方向からの平面画像を確認することができる。 Thereby, the user can confirm the planar image from the viewpoint direction suitable for the observation purpose according to the type of the planar image to be observed.
(実施例4)
実施例1及び2においては、三次元モーションコントラストデータから生成したレンダリング画像とOCTA画像とを並べて表示する又は切り替え可能に表示する例について示した。これに対し、実施例3では、OCTA画像に対してレンダリング画像の一部を表示する例について説明をする。
(Example 4)
Examples 1 and 2 show examples in which a rendering image generated from 3D motion contrast data and an OCTA image are displayed side by side or can be switched. On the other hand, in the third embodiment, an example of displaying a part of the rendering image for the OCTA image will be described.
以下、図12(a)乃至図12(c)を参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例2に係る画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理フローは、実施例2に係る画像処理システム1の構成及び処理と同様であるため、同一の参照符号を用いて示し、説明を省略する。本実施例に係る画像処理は、主に、表示処理(ステップS309)において、実施例2に係る画像処理と異なるため、以下、表示処理について説明する。
The image processing system according to this embodiment will be described below with reference to FIGS. 12(a) to 12(c). Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the second embodiment. Note that the configuration and processing flow of the image processing system according to the present embodiment are the same as those of the
本実施例に係る表示処理(ステップS309)では、表示制御部25が表示部50に、ステップS308で生成されたレンダリング画像をOCTA画像に対して部分的に表示させる。具体的には、表示制御部25は表示部50に、レンダリング画像の一部をOCTA画像に重畳して表示させる、又はOCTA画像の周辺に表示させる。
In the display processing (step S309) according to the present embodiment, the
図12(a)はレンダリング画像の一部をOCTA画像に重畳して表示させる例を示し、図12(b)はレンダリング画像の一部をOCTA画像の周辺に表示させる例を示す。図12(a)及び図12(b)には、表示画面800の一部である第1のOCTA画像802と第1の断層画像803が示されている。また、図12(a)及び図12(b)には、UI1201,1202が示されている。
FIG. 12(a) shows an example in which part of the rendered image is superimposed on the OCTA image and displayed, and FIG. 12(b) shows an example in which part of the rendered image is displayed around the OCTA image. 12(a) and 12(b) show a
UI1201は、本実施例によるOCTA画像に対する部分的な表示のON/OFFを切り替えるために用いられる。また、UI1202は、OCTA画像に対する部分的な表示として、OCTA画像の一部を拡大するか、又はレンダリング画像の一部を表示するかを選択するために用いられる。なお、これらUI1201,1202は一例であり、他の態様を有していてもよい。本実施例においては、レンダリング画像の一部を表示することが選択されている例について説明する。
The
まず、図12(a)に示される例について説明をする。図12(a)では、第1のOCTA画像802に、ステップS308で生成されたレンダリング画像の一部であるレンダリング画像1203が重畳されている。表示制御部25は、表示部50において、レンダリング画像1203が重畳される第1のOCTA画像802の箇所に対応するレンダリング画像の一部をレンダリング画像1203として、第1のOCTA画像802に重畳表示させる。
First, the example shown in FIG. 12(a) will be described. In FIG. 12A, a rendered
図12(a)に示す例では、例えば、ユーザがUI1201を選択後、第1のOCTA画像802上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域にレンダリング画像1203が表示される。これにより、第1のOCTA画像802において、ユーザが注目したい部分のみにレンダリング画像を重畳表示させることができ、OCTA画像とレンダリング画像が対比しやすい状態で表示される。そのため、ユーザは、注目したい血管交差部等の深さ方向の位置関係等を容易に把握することができる。
In the example shown in FIG. 12A, for example, when the user selects the
次に、図12(b)に示す例について説明をする。図12(b)では、第1のOCTA画像802にレンダリング画像に対応する箇所を示す領域1204が重畳され、レンダリング画像1205が第1のOCTA画像802とは別の場所に、例えば第1のOCTA画像802の周辺に表示されている。表示制御部25は、第1のOCTA画像802の領域1204が重畳されている箇所に対応するレンダリング画像の一部をレンダリング画像1205として、第1のOCTA画像802の周辺に表示させる。なお、レンダリング画像1205が表示される箇所は、図12(b)に示すようにOCTA画像の左側に限られず、OCTA画像と対比しやすい箇所であれば任意の箇所であってよい。
Next, the example shown in FIG.12(b) is demonstrated. In FIG. 12B, an
図12(b)に示す例では、例えば、ユーザがUI1201を選択後、第1のOCTA画像802上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域に領域1204が表示される。そして、第1のOCTA画像802の周辺に、領域1204に対応するレンダリング画像1205が表示される。この場合では、ユーザが注目したい部分のOCTA画像とレンダリング画像とを同時に観察できる状態で、レンダリング画像を表示することができる。このため、OCTA画像とレンダリング画像が対比しやすい状態で表示される。これにより、ユーザは、注目したい血管交差部等の深さ方向の位置関係等を容易に把握することができる。
In the example shown in FIG. 12B, for example, after the user selects the
上記のように、本実施例に係る画像処理装置20では、表示制御部25はOCTA画像と、レンダリング画像の一部とを、表示部50に並べて表示させる、又は重畳させて表示させる。このため、OCTA画像とレンダリング画像が対比しやすい状態で表示されるため、ユーザは血管等の深さ方向の位置関係を容易に把握することができる。
As described above, in the
特に、表示制御部25は、レンダリング画像におけるユーザの指示に応じた箇所の画像を、表示部50にOCTA画像と並べて表示させる、又は重畳させて表示させる。このため、ユーザが注目する領域のみが対比しやすい状態で表示されるため、ユーザは、注目したい血管交差部の深さ方向の位置関係を容易に把握することができる。
In particular, the
また、表示制御部25は、表示部50において、三次元断層データをボリュームレンダリングしたレンダリング画像を断層画像に重畳表示又は断層画像の周囲に表示させることもできる。図12(c)は第1の断層画像803に三次元断層データをボリュームレンダリングしたレンダリング画像の一部を重畳表示する例を示す。表示制御部25は、レンダリング画像1206が重畳される第1の断層画像803の箇所に対応するレンダリング画像の一部をレンダリング画像1206として、第1の断層画像803に重畳表示させる。
The
図12(c)に示す例では、ユーザがUI1201を選択後、第1の断層画像803上にマウスカーソルなどを移動させると、マウスカーソル周辺の一部の領域に当該領域に対応するレンダリング画像1206が表示される。これにより、ユーザは断層画像の注目したい部分について立体的な断層の構造を容易に把握することができる。また、断層画像の場合も図12(b)のように、断層画像とは別の領域にレンダリング画像を表示してもよい。
In the example shown in FIG. 12C, when the user selects the
なお、OCTA画像に対してレンダリング画像1203を生成する際の視点は、実施例2と同様に、XY面方向の正面視の視点とされる。ここで、レンダリング画像1203を生成する際の視点は、正面視の視点だけに限られず、上述のようにある程度の角度を有してもよい。この場合の角度は、マウスホイールやキーボード、画面内のUIの操作、タッチパネル式の画面操作により、変更されることができる。
Note that the viewpoint when generating the
一方で、断層画像に対してレンダリング画像1206を生成する際の視点は、実施例3と同様に、XZ面、又はYZ面方向に対する視点とされる。また、この場合の視点についても、ある程度の角度を有するように変更することができるものとする。
On the other hand, the viewpoint for generating the rendered
このような場合には、レンダリング画像が対応するOCTA画像又は断層画像に応じて、適切な視点のレンダリング画像を表示することができる。このため、ユーザは、観察する画像の種類に応じて、観察目的に適した視点方向からの正面画像を確認することができる。 In such a case, it is possible to display a rendered image from an appropriate viewpoint according to the OCTA image or tomographic image to which the rendered image corresponds. Therefore, the user can confirm the front image from the viewpoint direction suitable for the purpose of observation according to the type of image to be observed.
なお、本実施例においては詳細の説明を省略したが、図12(a)乃至図12(c)において、UI1202において拡大表示が選択されている場合には、各レンダリング画像の代わりに、それぞれの画像の一部が拡大された画像が表示される。なお、各画像の拡大方法は既知の任意の方法で行われてよい。また、レンダリング画像を表示する際には、当該レンダリング画像を拡大表示してもよい。
12A to 12C, when enlarged display is selected on the
また、本実施例では、表示制御部25が表示部50に、ステップS308で生成されたレンダリング画像をOCTA画像に対して部分的に表示させた。これに対して、レンダリング部226が、OCTA画像に対して選択された領域のみについてレンダリング画像を生成してもよい。この場合には、表示制御部25が、表示部50において、生成されたレンダリング画像の全体をOCTA画像の当該選択された領域に重畳して表示させたり、OCTA画像の周囲に表示させたりすることができる。なお、このような場合には、レンダリング部226が、OCTA画像に対して選択された領域に応じて、レンダリング画像を随時生成し、表示制御部25が、表示されるレンダリング画像を生成されたレンダリング画像に随時更新することができる。
Further, in this embodiment, the
(実施例5)
実施例1乃至4においては、血管交差部等の深さ方向の位置関係等を観察可能な画像を提供するために、三次元データをボリュームレンダリングした画像を提供する例について説明をした。これに対し、実施例5では、色情報を用いて血管交差部等の深さ方向の位置関係等を観察可能な画像を生成する方法について説明する。
(Example 5)
In the first to fourth embodiments, an example of providing an image obtained by volume-rendering three-dimensional data has been described in order to provide an image in which the positional relationship in the depth direction of blood vessel intersections, etc. can be observed. On the other hand, in a fifth embodiment, a method of generating an image in which the positional relationship in the depth direction of blood vessel intersections and the like can be observed using color information will be described.
以下、図13乃至図14(b)を参照して、本実施例による画像処理システムについて述べる。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、実施例1に係る画像処理システム1の構成及び処理と同様である、本実施例に係る画像処理システムの構成及び処理については、同一の参照符号を用いて示し、説明を省略する。
The image processing system according to this embodiment will be described below with reference to FIGS. 13 to 14(b). Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing of the image processing system according to the present embodiment, which are the same as the configuration and processing of the
図13は、本実施例による画像処理システム2の概略的な構成を示す。本実施例による画像処理システム2では、画像処理装置130の画像処理部132において、レンダリング部226に代えて色相画像生成部1326が設けられている。
FIG. 13 shows a schematic configuration of an
色相画像生成部1326は、三次元モーションコントラストデータに対して、深さ位置に応じた色付けを行ったOCTA画像(色相画像)を生成する。具体的には、色相画像生成部1326は、所定のトーンカーブを用いて、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する画素値を決定し、色相画像を生成する。
The
表示制御部25は、眼底画像や断層画像、通常のOCTA画像と同様に、色相画像生成部1326が生成した色相画像を表示部50に表示させることができる。
The
次に、本実施例に係る一連の画像処理について説明する。本実施例に係る画像処理は、主に、第2の正面画像生成処理(ステップS308)及び表示処理(ステップS309)において、実施例1に係る画像処理と異なるため、以下、これらの処理について説明する。 Next, a series of image processing according to this embodiment will be described. Since the image processing according to the present embodiment differs from the image processing according to the first embodiment mainly in the second front image generation processing (step S308) and the display processing (step S309), these processing will be described below. do.
本実施例に係る第2の正面画像生成処理(ステップS308)では、色相画像生成部1326が、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する色相画像を生成する。具体的には、色相画像生成部1326は、所定のトーンカーブを用いて、OCTA画像を生成する生成範囲内における三次元モーションコントラストデータの深さ位置に応じた色情報を有する画素値を決定し、色相画像を生成する。
In the second front image generation processing (step S308) according to the present embodiment, the hue
より具体的には、まず、色相画像生成部1326が色相画像を生成するための三次元モーションコントラストデータの深さ方向の範囲(生成範囲)を取得する。色相画像生成部1326は、正面画像生成部223がOCTA画像を生成するための生成範囲を、色相画像を生成するための生成範囲として取得することができる。なお、色相画像を生成するための生成範囲は、正面画像生成部223がOCTA画像を生成するための生成範囲と厳密に一致する必要はなく、互いに対応していれば、多少広く又は狭くてもよい。
More specifically, first, the hue
色相画像生成部1326は、生成範囲内の三次元モーションコントラストデータに対して最大値投影法により各画素位置における代表値を決定する。最大値投影法では、各Aスキャンで得られたデータにおける生成範囲内の最大値、又はある程度の厚みを持った範囲の最大値(slab MIP)を各画素の代表値とする。ここで、図14(a)に、最大値投影法により、生成範囲の上端及び下端に対応する境界線818,819の範囲のモーションコントラストデータに基づいて生成された通常のOCTA画像1402の一例を示す。色相画像生成部1326は、各画素位置における代表値である、生成範囲内の最大値を有するモーションコントラストデータの深さ位置に基づいて色付けを行う。これにより、OCTA画像1402に対応する、色情報を有する画素値からなる色相画像を生成する。
The
本実施例では、色相画像生成部1326は、図14(b)に示すようなトーンカーブ1400を用いて、モーションコントラストデータの深さ位置に基づいて色付けを行う。本実施例では、生成範囲の上端に近いモーションコントラストデータは青系とし、上端からの距離が遠くなるほど赤系になるように色付けを行うことができる。トーンカーブ1400の横軸は深さ方向の位置、縦軸はRGBの各要素の出力である。縦軸の原点は0であり、最大値は255となる。
In this embodiment, the
また、横軸の0に対応する基準位置は、生成範囲の上端に対応する境界線818の位置とし、最大値は境界線818の位置から所定の深さ(例えば、数10μm)だけ深い方向にオフセットされた位置とする。なお、本実施例においては、基準位置を境界線818の位置としているが、色相画像の生成範囲が表層から深層へと変更された場合には、変更された生成範囲の上端に対応する境界線の位置に応じて、横軸の基準位置も変更される。なお、基準位置を生成範囲の下端に対応する境界線819の位置とし、境界線819の位置から所定の深さだけ浅い方向にオフセットされた位置を最大値(又はより深い方向を正とした場合には最小値)としてもよい。
The reference position corresponding to 0 on the horizontal axis is the position of the
さらに、横軸の基準位置は、必ずしも境界線の形状に合わせる必要はなく、境界線が接する水平線、又は所定の傾きを持った直線等を基準位置としてもよい。また、トーンカーブ1400の横軸の基準位置から最大値までの範囲は、常に同じである必要はない。例えば、網膜表層を生成範囲とする場合と、網膜全層を生成範囲とする場合とでは、横軸の最大値を変更し、基準位置から最大値までの範囲を異ならせてもよい。表層の厚みは数10μmであるが、全層の厚みは数100μmある。そのため、表層だけを生成範囲とする場合に比べて、全層を生成範囲とする場合の最大値を大きくするようにしてもよい。
Furthermore, the reference position of the horizontal axis does not necessarily have to match the shape of the boundary line, and the horizontal line where the boundary line contacts or a straight line with a predetermined inclination may be used as the reference position. Also, the range from the reference position to the maximum value on the horizontal axis of
色相画像生成部1326は、このようにトーンカーブ1400を用いて、各画素値を、深さ方向に位置に対応したRGBの各要素の出力の加算値によって決定する。これにより、色相画像生成部1326は、血管の深さ方向の位置を色相で示した色情報を有するOCTA画像である色相画像を生成することができる。なお、色相画像生成部1326は、各画素位置におけるモーションコントラストデータの最大値が所定の閾値以下の場合は、画素値を黒などとすることもできる。この場合には、モーションコントラストデータの値が小さい画素位置には色付けがされないため、動きのある部分と無い部分とを視覚的に分かりやすくすることができる。
The hue
なお、色相画像生成部1326は、最大値投影法ではなく、積算値を用いる方法で色相画像を生成してもよい。この場合、色相画像生成部1326は、生成範囲の上端から下端に向かってモーションコントラストデータの値を積算していき、積算値が所定の閾値を超えた場所の深度位置に応じて色付けすることができる。
Note that the hue
積算方法としては、単純にモーションコントラストデータの値を積算してもよいが、連結性を考慮した積算方法を採用してもよい。連結性を考慮した積算方法では、生成範囲の上端から下端に向かって積算を行う際に、所定の閾値以上であるモーションコントラストデータの値のみを積算するようにする。 As an integration method, values of motion contrast data may be simply integrated, but an integration method that takes connectivity into account may also be employed. In the integration method that considers connectivity, only values of motion contrast data that are equal to or greater than a predetermined threshold value are integrated when performing integration from the upper end to the lower end of the generation range.
例えば、閾値以上のモーションコントラストデータの値が連続している場合のみ積算を行い、閾値以下のモーションコントラストデータの値が検出された時点で、それまでの積算値I0と深さ位置Z0を一旦保存する。そして、続けて深さ方向にモーションコントラストデータの値と閾値の対比を行い、モーションコントラストデータの値が閾値以上となった時点で新しく積算を開始し、閾値以下の値が検出された時点で積算値I1と深度位置Z1を保存する。当該処理を生成範囲の下端まで続けて、保存された積算値Iのうち最大となる積算値に対応する深さ位置に応じて、トーンカーブ1400から当該画素位置の画素値を決定してもよい。又は、連続した積算値の平均値が閾値以上となった箇所全ての深さ位置に応じた色を合成して画素値を決定してもよい。
For example, integration is performed only when motion contrast data values equal to or greater than a threshold continue, and when a motion contrast data value equal to or less than the threshold is detected, the integrated value I0 and depth position Z0 up to that point are temporarily stored. do. Then, the motion contrast data value and the threshold value are compared in the depth direction, and when the motion contrast data value exceeds the threshold value, a new accumulation is started, and when a value below the threshold value is detected, accumulation is performed. Save the value I1 and the depth position Z1. The processing may be continued to the lower end of the generation range, and the pixel value of the pixel position may be determined from the
ステップS308において、色相画像生成部1326が色相画像を生成したら、処理はステップS309に移行する。ステップS309では、表示制御部25が、図8等に示される表示画面800のレンダリング画像804と同様に、色相画像を第1のOCTA画像802等と並べて表示する。
After the
上述のように、通常のOCTA画像は色情報を持たない画像であるため、通常のOTA画像を観察するだけでは、被検体の深さ方向の位置関係を把握することは困難である。これに対し、色相画像は、被検体の深さ方向の位置に応じた色情報が付加されたOCTA画像であるため、ユーザは色相画像の色情報に基づいて被検体における血管等の深さ方向の位置を識別することができる。このため、通常のOCTA画像と色相画像が対比しやすい状態で表示されることで、ユーザは血管の交差部等の深さ方向の位置関係等を容易に把握することができる。 As described above, since the normal OCTA image does not have color information, it is difficult to grasp the positional relationship of the subject in the depth direction only by observing the normal OTA image. On the other hand, the hue image is an OCTA image to which color information corresponding to the position of the object in the depth direction is added. position can be identified. Therefore, the normal OCTA image and the hue image are displayed in a state in which they can be easily compared, so that the user can easily grasp the positional relationship in the depth direction of the blood vessel intersections and the like.
上記のように、本実施例に係る画像処理装置130では、色相画像生成部1326が、三次元のモーションコントラストデータの少なくとも一部及び被検体の深さ方向の位置に応じた色情報を用いて色相画像(第2の正面画像)を生成する。
As described above, in the
表示制御部25は、OCTA画像と、色相画像とを並べて表示部50に表示する。このため、通常のOCTA画像と色相画像が対比しやすい状態で表示されるため、ユーザは血管の交差部等の深さ方向の位置関係等を容易に把握することができる。
The
なお、トーンカーブ1400の色相の配置は任意であってよい。また、本実施例では、トーンカーブ1400におけるRGBの各傾きは直線状の傾きとしたが、曲線状の傾きとしてもよい。
Note that the arrangement of the hues of the
また、本実施例で生成した色相画像は、第1のOCTA画像802と並べて表示される構成に限られない。実施例1のように、色相画像が第1のOCTA画像802と切り替え可能に表示されてもよいし、実施例4のように、色相画像の一部が第1のOCTA画像802に重畳して表示されたり、第1のOCTA画像の周辺に表示されたりしてもよい。また、実施例4のように表示される場合には、拡大された色相画像が表示されてもよい。さらに、OCTA画像上の選択された領域についてのみ色相画像を生成し、生成された色相画像の全体をOCTA画像上に重畳して表示させたり、OCTA画像の周辺に表示させたりしてもよい。
Also, the hue image generated in this embodiment is not limited to being displayed side by side with the
(変形例1)
実施例1乃至5では、主にOCTA画像とレンダリング画像又は色相画像を並べて表示する例について示したが、上述のように、これらの画像は同じ領域において切り替えて表示されてもよい。例えば、第1、第2のOCTA画像を表示している領域において、OCTA画像とボリュームレンダリングデータとを切り替えて表示するようにしてもよい。これにより、同じ領域で画像を切り替えて表示することができるので、部位の空間的な対応を把握しやすくなる。
(Modification 1)
In Examples 1 to 5, an example in which an OCTA image and a rendered image or a hue image are mainly displayed side by side has been described, but as described above, these images may be switched and displayed in the same area. For example, in the area where the first and second OCTA images are displayed, the OCTA image and the volume rendering data may be switched and displayed. As a result, images can be switched and displayed in the same region, making it easier to grasp the spatial correspondence of parts.
(変形例2)
実施例1乃至5では、レンダリング部226は直接法であるレイキャスティング法を用いてボリュームレンダリングを行う方法について説明をしたが、ボリュームレンダリングを行う方法はこれに限らない。例えば、レンダリング部226は、間接法を用いて、等値面としてボリュームデータを表現し、それを表示するようにしてもよい。
(Modification 2)
In the first to fifth embodiments, the
(変形例3)
画像処理装置20は、被検体を観察する際の観察モードとして、断層画像を観察するOCTモードと、OCTA画像を観察するOCTAモードとを備えていてもよい。この場合、表示制御部25は、OCTモードでは、レンダリング画像の初期画像として、XY面に対して角度を持った視点及び三次元断層データの全範囲に基づいて生成されたレンダリング画像を表示部50に表示させる。これに対し、表示制御部25は、OCTAモードでは、OCTモードでの視点よりもXY面に対して正面視に近い視点に基づいて生成されたレンダリング画像を、レンダリング画像の初期画像として表示部50に表示させる。また、OCTAモードでは、OCTA画像の生成範囲に対応するデータ範囲の三次元モーションコントラストデータに基づいてレンダリング画像を生成することもできる。
(Modification 3)
The
この場合には、ユーザは、OCTモードでは、レンダリング画像により被検体の断層の深さ方向を把握しやすく、OCTAモードでは、レンダリング画像により血管等の深さ方向の位置関係を把握しやすい。そのため、ユーザは、観察モードに応じたレンダリング画像を観察することで、観察の目的に合った被検体の組織等を容易に観察することができる。 In this case, in the OCT mode, the user can easily grasp the depth direction of the tomogram of the subject from the rendered image, and in the OCTA mode, it is easy to grasp the depth direction positional relationship of blood vessels and the like from the rendered image. Therefore, the user can easily observe the tissue or the like of the subject according to the observation purpose by observing the rendered image according to the observation mode.
(変形例4)
変形例4では、図15を参照して、ステップS306の高画質データ生成処理のより具体的な一例について説明する。図15は、本変形例に係る高画質データ生成処理のフローチャートである。本変形例に係る高画質データ生成処理では、アーティファクトを低減して、より高画質な三次元のモーションコントラストデータを生成することができる。特に本変形例に係る高画質データ生成処理では、複数のモーションコントラストデータの位置合わせをすると共に、加算平均を行うために位置合わせの基準となるモーションコントラストデータを選択することを特徴としている。
(Modification 4)
In Modified Example 4, a more specific example of the high image quality data generation process in step S306 will be described with reference to FIG. FIG. 15 is a flowchart of high-quality data generation processing according to this modification. In the high-quality data generation process according to this modified example, it is possible to reduce artifacts and generate 3D motion contrast data with higher image quality. In particular, the high image quality data generation process according to this modification is characterized by aligning a plurality of pieces of motion contrast data and selecting motion contrast data that serves as a reference for aligning in order to perform addition averaging.
本変形例に係る高画質データ生成処理が開始されると、処理はステップS1501に移行する。ステップS1501では、正面画像生成部223が所定の生成範囲内のモーションコントラストデータに基づいて、位置合わせ用のOCTA画像を生成する。本変形例では、生成範囲上端をILM/NFL境界線とし、生成範囲下端をGCL/IPLから深度方向に50μm下端の境界線とする。なお、位置合わせ用のOCTA画像を生成するための生成範囲は、他の範囲に予め設定されてもよいし、ユーザによって指定されてもよい。
When the high image quality data generation process according to this modification is started, the process moves to step S1501. In step S1501, the front
ステップS1502では、高画質データ生成部225が生成された位置合わせ用の全てのOCTA画像を基準画像として、他のOCTA画像との位置合わせ(第1の位置合わせ)を行う。高画質データ生成部225は、それぞれのOCTA画像についてx軸方向及びy軸方向の位置合わせパラメータや回転パラメータ、画像評価値、画像類似度等を求め、記憶部24に記憶させる。また、高画質データ生成部225は、各OCTA画像についてアーティファクト検出を行い、検出したアーティファクトに対するマスク画像を生成し、記憶部24に記憶させることができる。
In step S1502, alignment with other OCTA images (first alignment) is performed using all the OCTA images for alignment generated by the high-quality
ステップS1503では、高画質データ生成部225が、ステップS1502で行った位置合わせの結果に基づいて基準画像を選択する。具体的には、高画質データ生成部225は、各位置合わせパラメータ、画像評価値、及びマスク画像から求めたアーティファクト領域評価値に基づいて基準画像の選択基準となる評価値を算出し、当該評価値に基づいて基準画像を選択する。
In step S1503, the high-quality
ステップS1504では、高画質データ生成部225が、選択した基準画像を用いてOCTA画像のx軸方向の位置合わせ(第2の位置合わせ)を行う。高画質データ生成部225は、基準画像と他のOCTA画像について、x軸方向の各ラインに対して位置合わせを行う。また、高画質データ生成部225は、ステップS1502で求めた回転パラメータに基づいて各OCTA画像の回転方向の位置合わせを行う。
In step S1504, the high-quality
ステップS1505では、高画質データ生成部225が、基準画像に対応する三次元データを基準データとして用いて、三次元モーションコントラストデータ及び三次元断層データのそれぞれについて深さ方向の大局的な位置合わせ(第3の位置合わせ)を行う。より具体的には、高画質データ生成部225は、まず、三次元モーションコントラストデータ毎及び三次元断層データ毎にデータ内の深さ方向の位置及び傾きを合わせる。その後、高画質データ生成部225は、基準データを用いて、複数の三次元モーションコントラストデータ間及び複数の三次元断層データ間で深さ方向の位置及び傾きを合わせる。そして、高画質データ生成部225は、第1の位置合わせ、第2の位置合わせ、及び第3の位置合わせで求めた位置合わせパラメータに基づいて、各三次元データを変形する。
In step S1505, the high-quality
ステップS1506では、高画質データ生成部225が、基準データと対象データの間において、各断層画像内の特徴部に位置合わせ用の領域を複数設定し、設定した領域ごとにx軸方向と深さ方向の局所的な位置合わせ(第4の位置合わせ)を行う。高画質データ生成部225は、位置合わせ結果に基づいて、各三次元データを変形する。
In step S1506, the high-quality
ステップS1507では、高画質データ生成部225が、変形した複数の三次元モーションコントラストデータを加算平均する。また、高画質データ生成部225は、変形した複数の三次元断層データを加算平均する。
In step S1507, the high-quality
ステップS1508では、高画質データ生成部225が、加算平均した三次元データについて、ステップS1505で求めた、基準データ内における深さ方向の位置合わせパラメータに基づいて、三次元データの深さ方向の位置を位置合わせ前の状態に戻す。その後、処理はステップS307へ移行する。
In step S1508, the high-quality
本変形例による高画質データ生成処理によれば、固視微動などにより、モーションコントラストデータにアーティファクトが存在する場合においても、高画質な三次元のモーションコントラストデータを取得することができる。 According to the high-quality data generation processing according to this modified example, high-quality three-dimensional motion contrast data can be obtained even when artifacts are present in the motion contrast data due to involuntary eye movement or the like.
なお、本変形例では、加算平均後の三次元データを深さ方向の位置合わせ前の状態に戻したが、当該処理を行わなくてもよい。この場合には、ステップS305で検出された層境界の情報と高画質化された三次元データとにおいて深さ方向にずれが生じる。そのため、検出部224は、高画質データ生成処理後に、OCTA画像生成用に改めて層境界の検出処理を行ってもよいし、ステップS305で検出された層境界を、基準データの深さ方向の位置合わせパラメータに応じて変形させてもよい。
In this modified example, the three-dimensional data after averaging is returned to the state before alignment in the depth direction, but this process may not be performed. In this case, there is a gap in the depth direction between the layer boundary information detected in step S305 and the high-quality three-dimensional data. Therefore, after the high-quality data generation process, the
なお、高画質データ生成部225は、第1乃至第4の位置合わせ処理やアーティファクト除去処理、加算平均処理等をそれぞれ行うための別々の構成要素を用いて構成されてもよい。
Note that the high-quality
(変形例5)
実施例1乃至5では、複数の三次元データの加算平均を行うことで高画質化された三次元データに基づいて、詳細な正面画像を生成する場合について説明した。しかしながら、詳細な正面画像の生成処理を適用する対象はこれに限られない。詳細な正面画像の生成処理は、ある程度の精度を有する三次元データであれば、1つの三次元データに対して適用されてもよい。詳細な正面画像の生成処理、例えば、複数の三次元データを使用しない任意の処理によりノイズ除去や強調処理等が行われた1つの三次元データ等に適用されてもよい。
(Modification 5)
In the first to fifth embodiments, a detailed front image is generated based on three-dimensional data whose image quality is improved by averaging a plurality of three-dimensional data. However, the target to which the detailed front image generation processing is applied is not limited to this. The process of generating a detailed front image may be applied to one piece of three-dimensional data as long as it is three-dimensional data with a certain degree of accuracy. The present invention may be applied to detailed front image generation processing, for example, one three-dimensional data subjected to noise removal, enhancement processing, or the like by arbitrary processing that does not use a plurality of three-dimensional data.
(変形例6)
実施例1乃至5では、取得部21は、OCT装置10で取得された干渉信号や断層画像生成部221で生成された三次元断層データを取得した。しかしながら、取得部21がこれらの信号を取得する構成はこれに限られない。例えば、取得部21は、画像処理装置20とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。この場合、撮影に関する処理を省略し、撮影済みの三次元の断層データを取得することができる。そして、ステップS305で高画質データ生成処理を行う。なお、取得部21は、三次元断層データだけでなく、当該データから生成された三次元モーションコントラストデータを取得してもよい。この場合には、モーションコントラストデータの生成処理も省略することができる。そのため、断層情報の取得から正面画像の表示までの一連の処理時間を短くすることができる。
(Modification 6)
In Examples 1 to 5, the
なお、OCT装置10の構成は、上記の構成に限られず、OCT装置10に含まれる構成の一部をOCT装置10と別体の構成としてもよい。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。
The configuration of the
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
以上、実施例を参照して本発明について説明したが、本発明は上記実施例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described with reference to the examples, the present invention is not limited to the above examples. Inventions modified within the scope of the present invention and inventions equivalent to the present invention are also included in the present invention. In addition, the embodiments and modifications described above can be appropriately combined within the scope of the present invention.
20:画像処理装置、21:取得部、25:表示制御部、50:表示部 20: Image processing device, 21: Acquisition unit, 25: Display control unit, 50: Display unit
Claims (21)
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部と、
を備え、
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理装置。 generating a first front image that is a motion contrast front image using at least part of the three-dimensional motion contrast data of the subject; and using at least part of the three-dimensional motion contrast data to generate the first front image. a generation unit that generates a second front image that is generated by a method different from the front image and that enables identification of a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject; ,
a display control unit that causes a display unit to display at least one of the first front image and the second front image;
with
The second front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject . Image processing device.
前記表示制御部は、
前記断層画像を観察するモードでは、前記第3の画像を初期画像として前記表示部に表示させ、
前記モーションコントラスト正面画像を観察するモードでは、前記第2の正面画像を初期画像として前記表示部に表示させる、請求項4乃至7のいずれか一項に記載の画像処理装置。 The image processing device has a mode for observing a tomographic image obtained using at least part of the three-dimensional tomographic data, and a mode for observing the motion contrast front image,
The display control unit
in the mode of observing the tomographic image, displaying the third image as an initial image on the display unit;
8. The image processing apparatus according to any one of claims 4 to 7 , wherein in the motion contrast front image observation mode, the second front image is displayed as an initial image on the display unit.
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる表示制御部と、
を備え、
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理装置。 generating a first front image that is a motion contrast front image using at least part of the three-dimensional motion contrast data of the subject; and using at least part of the three-dimensional motion contrast data to generate the first front image. a generation unit that generates a second front image that is generated by a method different from the front image and that enables identification of a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject; ,
a display control unit that causes a display unit to display at least one of the first front image and the second front image;
with
The image processing apparatus, wherein the second front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する生成部と、
前記二次元の正面画像を表示部に表示させる表示制御部と、
を備え、
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理装置。 an acquisition unit that acquires three-dimensional motion contrast data of a subject;
a generation unit that uses at least a portion of the three-dimensional motion contrast data to generate a two-dimensional front image in which a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a display control unit for displaying the two-dimensional front image on a display unit;
with
The two-dimensional front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject . Image processing device.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する生成部と、
前記二次元の正面画像を表示部に表示させる表示制御部と、
を備え、
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理装置。 an acquisition unit that acquires three-dimensional motion contrast data of a subject;
a generation unit that uses at least a portion of the three-dimensional motion contrast data to generate a two-dimensional front image in which a relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a display control unit for displaying the two-dimensional front image on a display unit;
with
The image processing apparatus, wherein the two-dimensional front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程と、
を含み、
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理方法。 generating a first frontal image that is a motion contrast frontal image using at least a portion of the three-dimensional motion contrast data of the subject;
A second frontal image generated by a method different from that of the first frontal image using at least a part of the three-dimensional motion contrast data, the second frontal image obtained in the depth direction of a plurality of intersecting blood vessels of the subject. generating the second front image in which the relative positional relationship is identifiable;
displaying at least one of the first front image and the second front image on a display unit;
including
The second front image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a front view viewpoint in a direction intersecting the depth direction of the subject. Processing method.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記第1の正面画像とは生成方法が異なる第2の正面画像であって、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な前記第2の正面画像を生成する工程と、A second frontal image generated by a method different from that of the first frontal image using at least a part of the three-dimensional motion contrast data, the second frontal image obtained in the depth direction of a plurality of intersecting blood vessels of the subject. generating the second front image in which the relative positional relationship is identifiable;
前記第1の正面画像と前記第2の正面画像との少なくとも1つを表示部に表示させる工程と、displaying at least one of the first front image and the second front image on a display unit;
を含み、including
前記第2の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理方法。The image processing method, wherein the second front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する工程と、
前記二次元の正面画像を表示部に表示させる工程と、
を含み、
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部を前記被検体の深さ方向に交差する方向に対する正面視の視点でボリュームレンダリングすることで得られた画像である、画像処理方法。 acquiring three-dimensional motion contrast data of a subject;
using at least part of the three-dimensional motion contrast data to generate a two-dimensional front image in which the relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
a step of displaying the two-dimensional front image on a display unit;
including
The two-dimensional frontal image is an image obtained by volume rendering at least part of the three-dimensional motion contrast data from a frontal view point in a direction intersecting the depth direction of the subject. Processing method.
前記三次元のモーションコントラストデータの少なくとも一部を用いて、前記被検体の交差する複数の血管の深さ方向の相対位置関係が識別可能な二次元の正面画像を生成する工程と、using at least part of the three-dimensional motion contrast data to generate a two-dimensional front image in which the relative positional relationship in the depth direction of a plurality of intersecting blood vessels of the subject can be identified;
前記二次元の正面画像を表示部に表示させる工程と、a step of displaying the two-dimensional front image on a display unit;
を含み、including
前記二次元の正面画像は、前記三次元のモーションコントラストデータの少なくとも一部及び前記被検体の前記深さ方向の位置に応じた色情報を用いて得られた画像である、画像処理方法。The image processing method, wherein the two-dimensional front image is an image obtained using at least part of the three-dimensional motion contrast data and color information according to the position of the subject in the depth direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107223A JP7204345B2 (en) | 2018-06-04 | 2018-06-04 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107223A JP7204345B2 (en) | 2018-06-04 | 2018-06-04 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019208845A JP2019208845A (en) | 2019-12-12 |
JP7204345B2 true JP7204345B2 (en) | 2023-01-16 |
Family
ID=68844133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018107223A Active JP7204345B2 (en) | 2018-06-04 | 2018-06-04 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7204345B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172563A1 (en) * | 2021-02-12 | 2022-08-18 | 株式会社ニデック | Ophthalmic information processing program and ophthalmic device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016209200A (en) | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Image generation apparatus, image generation method, and program |
JP2016209198A (en) | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Image generation apparatus, image generation method, and program |
JP2017113146A (en) | 2015-12-22 | 2017-06-29 | 株式会社トプコン | Ophthalmologic imaging device |
JP2017127506A (en) | 2016-01-21 | 2017-07-27 | キヤノン株式会社 | Image forming method and apparatus |
JP2017159034A (en) | 2016-03-10 | 2017-09-14 | キヤノン株式会社 | Method and system for removing motion artefacts in optical coherence tomography |
-
2018
- 2018-06-04 JP JP2018107223A patent/JP7204345B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016209200A (en) | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Image generation apparatus, image generation method, and program |
JP2016209198A (en) | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Image generation apparatus, image generation method, and program |
JP2017113146A (en) | 2015-12-22 | 2017-06-29 | 株式会社トプコン | Ophthalmologic imaging device |
JP2017127506A (en) | 2016-01-21 | 2017-07-27 | キヤノン株式会社 | Image forming method and apparatus |
JP2017159034A (en) | 2016-03-10 | 2017-09-14 | キヤノン株式会社 | Method and system for removing motion artefacts in optical coherence tomography |
Also Published As
Publication number | Publication date |
---|---|
JP2019208845A (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10660515B2 (en) | Image display method of providing diagnosis information using three-dimensional tomographic data | |
JP4971864B2 (en) | Optical image measuring device and program for controlling the same | |
JP6025349B2 (en) | Image processing apparatus, optical coherence tomography apparatus, image processing method, and optical coherence tomography method | |
JP6598466B2 (en) | Tomographic imaging apparatus, tomographic imaging method, and program | |
JP7305401B2 (en) | Image processing device, method of operating image processing device, and program | |
JP2018038611A (en) | Ophthalmologic analyzer and ophthalmologic analysis program | |
JP7009265B2 (en) | Image processing equipment, image processing methods and programs | |
JP6375760B2 (en) | Optical coherence tomography apparatus and fundus image processing program | |
WO2020050308A1 (en) | Image processing device, image processing method and program | |
JP7195745B2 (en) | Image processing device, image processing method and program | |
CN113543695A (en) | Image processing apparatus, image processing method, and program | |
JP6849776B2 (en) | Information processing device and information processing method | |
JP7297952B2 (en) | Information processing device, information processing method and program | |
JP7005382B2 (en) | Information processing equipment, information processing methods and programs | |
JP7204345B2 (en) | Image processing device, image processing method and program | |
JP7106304B2 (en) | Image processing device, image processing method and program | |
JP2020054812A (en) | Image processing device, image processing method and program | |
JP6976778B2 (en) | Information processing equipment, information processing methods and programs | |
JP2020032072A (en) | Image processing device, image processing method and program | |
JP2018191761A (en) | Information processing device, information processing method, and program | |
JP7086708B2 (en) | Image processing equipment, image processing methods and programs | |
JP7387812B2 (en) | Image processing device, image processing method and program | |
JP7297133B2 (en) | Ophthalmic information processing device and ophthalmic photographing device | |
WO2020049828A1 (en) | Image processing apparatus, image processing method, and program | |
JP2019198384A (en) | Image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7204345 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |