JP2019047840A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019047840A JP2019047840A JP2017172335A JP2017172335A JP2019047840A JP 2019047840 A JP2019047840 A JP 2019047840A JP 2017172335 A JP2017172335 A JP 2017172335A JP 2017172335 A JP2017172335 A JP 2017172335A JP 2019047840 A JP2019047840 A JP 2019047840A
- Authority
- JP
- Japan
- Prior art keywords
- data
- alignment
- image
- dimensional
- dimensional data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 83
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000033001 locomotion Effects 0.000 claims abstract description 120
- 238000000034 method Methods 0.000 claims description 61
- 238000011156 evaluation Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 24
- 210000004220 fundus oculi Anatomy 0.000 abstract description 7
- FCKYPQBAHLOOJQ-UHFFFAOYSA-N Cyclohexane-1,2-diaminetetraacetic acid Chemical compound OC(=O)CN(CC(O)=O)C1CCCCC1N(CC(O)=O)CC(O)=O FCKYPQBAHLOOJQ-UHFFFAOYSA-N 0.000 description 57
- 238000003384 imaging method Methods 0.000 description 55
- 210000001508 eye Anatomy 0.000 description 30
- 239000010410 layer Substances 0.000 description 28
- 238000012935 Averaging Methods 0.000 description 25
- 238000012014 optical coherence tomography Methods 0.000 description 21
- 210000001525 retina Anatomy 0.000 description 21
- 235000019557 luminance Nutrition 0.000 description 13
- 230000002207 retinal effect Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 210000000695 crystalline len Anatomy 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000002583 angiography Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 210000004127 vitreous body Anatomy 0.000 description 3
- 206010025421 Macule Diseases 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 210000001775 bruch membrane Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 210000004126 nerve fiber Anatomy 0.000 description 2
- 239000002344 surface layer Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000003098 Ganglion Cysts Diseases 0.000 description 1
- 208000005400 Synovial Cyst Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005081 epithelial layer Anatomy 0.000 description 1
- 210000000873 fovea centralis Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000004379 membrane Anatomy 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 239000000790 retinal pigment Substances 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1225—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
以下、図面を参照しながら、第一の実施形態について説明する。なお、本実施形態に係る画像処理装置は、アーティファクトを低減した3次元のモーションコントラストデータを生成するにあたり、複数のモーションコントラストデータの位置合わせをすると共に、加算平均を行うために位置合わせの基準となるモーションコントラストデータを選択することを特徴としている。なお、以降の実施例に示す数値は例示であり、開示の数値に限定されるものではない。
ステップS301では、不図示の被検眼情報取得部は、被検眼を同定する情報として被検者識別番号を外部から取得する。そして、被検者識別番号に基づいて、外部記憶部500が保持している当該被検眼に関する情報を取得して記憶部302に記憶する。
ステップS302では被検眼をスキャンして撮影を行う。被検眼のスキャンは、操作者が非図示のスキャン開始を選択すると、断層画像撮影装置200は、駆動制御部202を制御し、ガルバノミラー201を動作させて断層画像のスキャンを行う。ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナで構成される。そのため、これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)、垂直方向(Y)それぞれの方向に走査することが出来る。そして、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向に走査することが出来るため、眼底平面上の任意の方向に走査することが可能となる。
ステップS303では、断層画像の生成を行う。断層画像生成部311は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成する。
ステップS304では、モーションコントラストデータ生成部312がモーションコントラストデータの生成を行う。このデータ生成について図7を用いて説明を行う。MCは3次元のモーションコントラストデータを示し、LMCは3次元のモーションコントラストデータを構成する2次元のモーションコントラストデータを示している。ここでは、このLMCを生成する方法について説明をする。
ステップS351では、検出部333は、断層画像撮影装置200が撮影した複数の断層画像において網膜層の境界線を検出する。検出部333は、図2(b)の断層画像においてL1〜L6の各境界、あるいは非図示のGCL/IPL、IPL/INL、INL/OPL、OPL/ONL境界のいずれかを検出する。処理の対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、メディアン画像、Sobel画像とする)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出する。
ステップS352では、画像生成部332が、3次元のモーションコントラストデータに対して指定された生成範囲上端と生成範囲下端との範囲に対応するモーションコントラストデータを2次元平面上に投影し、OCTA画像(Enface画像)を生成する。具体的には、画像生成部332が、全体のモーションコントラストデータのうち生成範囲上端と生成範囲下端の間の範囲に対応するモーションコントラストデータに基づいて、その範囲内のモーションコントラストデータを平均値投影(AIP)、あるいは最大値投影(MIP)などの処理を行うことで、モーションコントラスト画像の正面画像であるOCTA画像を生成する。なお、OCTA画像の生成方法は平均値や最大値に限らない。最小値、中央値、分散、標準偏差、総和などの値で生成しても良い。
ステップS353では、N枚のOCTA画像において、画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせをそれぞれ行う。これについて、図4のフローチャートを用いて説明をする。
ステップS3531では、前処理部331は、画像生成部332が生成したOCTA画像から黒帯や白線のようなアーティファクトを検出し、除去する。これについて図8を用いて説明をする。図8において、OCTA画像の黒い領域は脱相関値が高い場所、すなわち血液の流れが検出された場所(血管に相当する)を表し、白い領域は、脱相関値が低い場所を表す。図8(a)のBBは黒帯の例で、図8(b)のWLは白線の例を示している。黒帯は、撮影中の動きにより、網膜の位置が感度の高い位置から遠ざかることで網膜断層像の輝度値が低下し脱相関の値が低くなったり、まばたき等により画像全体が暗くなることで脱相関の値が低くなったりすることで発生する。白線は、脱相関の計算においてM個の断層像を位置合わせして計算をするが、位置合わせがうまくいかなかったり、位置合わせで位置を補正しきれなかったりする場合に、画像全体の脱相関値が高くなることで発生する。これらのアーティファクトは脱相関の計算において発生するため、主走査方向の1ライン単位で発生する。そのため、前処理部331は、1ライン単位でアーティファクトを検出する。
ステップS3532では、第一の位置合わせ部334は、各OCTA画像をそれぞれ位置合わせした場合の位置合わせパラメータを保存するための2次元行列を初期化する。各行列の要素には、位置合わせ時の変形パラメータや画像類似度などの画像高画質化に必要な情報をまとめて保存する。
ステップS3533では、第一の位置合わせ部334は、位置合わせ対象を選択する。本実施形態においては、全てのOCTA画像を基準画像に設定して残りのOCTA画像と位置合わせを行う。そのため、ステップS3533においては、Data0のOCTA画像を基準とする場合に、Data1〜Data(N−1)とそれぞれ位置合わせを行う。次に、Data1のOCTA画像を基準とする場合には、Data2〜Data(N−1)とそれぞれ位置合わせを行う。次に、Data2のOCTA画像を基準とする場合には、Data3〜Data(N−1)とそれぞれ位置合わせを行う。これらの処理を繰り返す。この例を図9(a)に示す。図9では簡単のため、Data0〜Data2を示しているが、3次元ボリュームをN回撮影している場合には、N個のOCTA画像間での位置合わせを行う。
ステップS3534では、第一の位置合わせ部334は、複数のOCTA画像間において画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせを行う。すなわち、第一の位置合わせ部334は、深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段の一例に相当する。
ステップS3535では、第一の位置合わせ部334は、OCTA画像の画像評価値を計算する。画像評価値は、ステップS3534での2次元位置合わせ済みのOCTA画像において、位置合わせにより発生する無効領域を含まない画像の共通領域を用いて計算する。例えば、画像評価値Qは数4で求めることが出来る。
ステップS3536では、第一の位置合わせ部334は、ステップS3532で初期化した位置合わせや画像類似度などの画像高画質化に必要なパラメータを保存するための2次元行列に対して値を保存する。例えば、基準画像をData0、対象画像をData1とする場合、2次元行列の要素(0、1)に横方向の位置合わせパラメータX、縦方向の位置合わせパラメータY、XY面内の回転パラメータα、画像評価値、画像類似度を保存する。これらの情報の他に、図8で示したMask画像をOCTA画像と関連付けて保存しておく。さらに、本実施形態では説明をしないが、倍率補正を行う場合には、倍率を保存しても良い。
ステップS3537では、第一の位置合わせ部334は、全ての画像を基準画像として残りの対象画像と位置合わせを行ったか否かを判定する。全ての画像を基準として処理をしていない場合には、ステップS3533に戻る。そして、全ての画像を基準として処理をした場合には、ステップS3538に進む。
ステップS3538では、第一の位置合わせ部334は、2次元行列の残りの要素を更新する。上記処理は、ステップS3533で説明したように、半分の組み合わせしか計算をしていない。そのため、計算をしていない要素にこれらの値をコピーする。例えば、2次元行列の要素(0、1)のパラメータは(1、0)の要素にコピーされる。すなわち、要素(i、j)を要素(j、i)にコピーする。この際、位置合わせパラメータX、Yと回転パラメータαは逆になるため、負の値を掛けてコピーをする。なお、画像類似度などは逆にならないため、同じ値をそのままコピーする。これらの処理によりOCTA画像位置合わせが行われる。次に、図3(b)の処理フローに戻って説明を行う。
ステップS354では、選択部335が基準画像の選択を行う。ステップS353で行った位置合わせの結果に基づいて基準画像選択を行う。ステップS353において、2次元行列を作成しており、行列の各要素に高画質化画像生成に必要な情報が保存されている。そのため、その情報を用いることで基準画像選択を行う。基準画像選択において、画像評価値、位置合わせパラメータ評価値、アーティファクト領域評価値を用いて選択を行う。画像評価値は、ステップS3535で求めた値を用いる。位置合わせパラメータは、ステップS3534で求めた位置合わせ結果のXとYを用いて、例えば、数6を用いて評価値とする。数6では、移動量が大きいほど大きな値となる。
ステップS355では、第二の位置合わせ部336がOCTA画像を用いて網膜の横方向(x軸)の位置合わせを行う。これについて図10を用いて説明をする。図10(a)は、基準画像がData1で、位置合わせ対象がData2との横方向位置合わせを行う例を示している。また、Maskは、Data2に含まれるアーティファクト(図では横方向の黒いライン)と、Data1との位置合わせの結果Data2が移動することにより生じる無効領域(図では縦方向の黒いライン)に0を設定してある。基準画像と位置合わせ対象画像は、それぞれのラインで横方向に位置合わせを行い、ライン単位での類似度を計算する。類似度の計算には、例えば数2を用いる。そして、類似度が最大となる位置にラインを移動させる。また、ライン単位で基準画像に対しての類似度を計算し、類似度に応じてMaskに重みを設定する。
ステップS356では、第三の位置合わせ部335は、基準の3次元データとその他の3次元データとの深さ方向(Z方向)における位置合わせを行う。この処理に関して、図5のフローチャートを用いて説明をする。
ステップS3561では、第三の位置合わせ部335は、基準となる3次元モーションコントラストデータと基準となる3次元の断層像データをそれぞれ記憶しておく。例えば、本実施形態ではData1の三次元モーションコントラストデータと3次元の断層像データを記憶する。
ステップS3562では、第三の位置合わせ部335は、ステップS351で検出した境界線情報を取得する。なお、本実施形態において深さ方向位置合わせに用いる境界線は例えばL1とするが、これに限定されるものではない。
ステップS3563では、第三の位置合わせ部335は、それぞれの3次元データ毎に深さ方向の位置と傾きを合わせる。3次元の断層像を撮影する際に眼は動いている。XY面内の移動に関しては、リアルタイムにトラッキングを行いながら撮影を行うため、撮影時にほとんど位置合わせが出来ている。しかし、深さ方向に関してはリアルタイムトラッキングをしていないため、データ内部でも位置合わせを行う必要がある。すなわち、ここでの説明は一つの3次元データ内の位置合わせに関する。これについて、図11を用いて説明をする。図11(a)は、位置合わせに用いる境界線の例を示している。本実施形態においては、境界線L1(ILM)を用いる場合について説明をする。なお、本実施形態においては境界線L1を使用する例について説明を行うが、境界線の種類はこれに限らない。他の境界線でも良いし、複数の境界線を組み合わせても良い。
ステップS3564では、第三の位置合わせ部335は、複数の3次元データ間での深さ方向の位置と傾きを合わせる。ここでは、ステップS3563で3次元データ内での深さ方向の位置合わせをしたデータを用いて、3次元データ間での位置合わせを行う。ここでも、先ほどと同様に境界線L1を用いて位置合わせをする。計算方法は、ステップS3563と同様であるが、計算する対象は、データ内ではなくデータ間となる。そのため、基準データと対象データとの位置合わせを行う。これについて、図12(b)を用いて説明をする。本実施形態において、基準データはData1で、位置合わせの対象データはData0とData2とする。そのため、DepthMapに対して、第一の位置合わせ、第二の位置合わせで求めたパラメータを適用して、Data0とData2のDepthMapをそれぞれ変形させる。そして、Data0とData2共に、Data1に対して、各Bスキャンに相当する境界線L1の深さ方向位置合わせを実行する。これらの計算式は数9と同様の方法で行う。
ステップS3565では、第三の位置合わせ部335は、第一の位置合わせ、第二の位置合わせ、第三の位置合わせで求めたX、Y、Rotation、Zに関する変形パラメータを適用して3次元データを変形する。3次元データは断層像データ、モーションコントラストデータの両方ともに変形をする。なお、ステップS3534においてxy面内において画像を拡大して位置合わせを行っている場合、3次元データ変形時に元のサイズに相当する変形パラメータに戻す。すなわち、2倍に拡大した画像でのxy面内位置合わせパラメータの数値が1であった場合、ここでは、0.5であるとする。そして、元のサイズで3次元データの形状変形を行う。
ステップS3566では、第三の位置合わせ部335は、データ間でのZ位置合わせを行ったDepthMapにおいて、基準データと対象データとの差分検出を行う。そして、差分の絶対値が閾値以上の場所(x、y)においては、位置合わせの精度が低いと判断し重ね合わせに使用しない。そのため、対象データのMask画像に無効領域として0を設定する。
ステップS357では、第四の位置合わせ部338は、基準データと対象データ間において、断層画像内部の特徴がある部分に位置合わせのための領域を複数設定し、その領域単位で網膜の横方向(x軸)と深さ方向(z軸)の位置合わせを行う。なお、ここでの位置合わせはZ方向の局所位置合わせとして説明をする。第四の位置合わせ部338が行う局所位置合わせについて、図6のフローチャートを用いて説明をする。
ステップS3571では、第四の位置合わせ部338は、ステップS351で検出した境界線情報を取得する。なお、本実施形態において深さ方向位置合わせに用いる境界線はL1とL3とする。
ステップS3572では、第四の位置合わせ部338は、対象画像の特徴領域を含むように位置合わせ用の領域を設定する。これについて、図14を用いて説明をする。
ステップS3573では、第四の位置合わせ部338は、ROIを使って領域位置合わせを行う。領域位置合わせは断層画像で行う。そのため、ステップS3534で示したOCTA画像位置合わせと同様に数1を用いて画像類似度に応じた位置合わせを行う。ただし、類似度の評価値はこれに限らず、SSD(Sum of Squared Difference)や、SAD(Sum of Absolute Difference)などでも良い。あるいは、POC(Phase Only Correlation)のような方法で、位置合わせを行っても良い。
ステップS3574では、第四の位置合わせ部338は、ステップS3573で求めた位置合わせパラメータを補間することで各Aスキャンの移動量を算出する。これについて、図15を用いて説明をする。図15(a)は、初期設定した領域のROI1〜ROI3を表している。C1〜C3の下三角はROI1〜ROI3の中心位置を表している。また、図15(b)は、ステップS3573での位置合わせ後のROIの移動例を示している。図15(b)においては、ROI1とROI3がそれぞれ右側に移動し、ROI2が移動しない場合の例である。そのため、ROIの中心C1とC3がそれぞれC1’とC3’に移動している。各ROIの移動量からAスキャンの移動量を算出するためには、隣接するROIとROIの中心位置の移動量に基づいて算出をする。例えば、ROI1の中心位置はC1からC1’に移動しており、ROI2の中心位置はC2のままである。ここで、変形前のC1からC2の間にある各AスキャンのX方向移動量を求める式を数12〜14に示す。
ステップS3575では、第四の位置合わせ部338は、ステップS3574で求めたAスキャン移動量を基に、Aスキャン毎にX方向とZ方向に移動させる。それにより、Aスキャン単位で変形した断層画像を生成することが出来る。なお、変形させる3次元データは断層像データ、モーションコントラストデータの両方ともに変形をする。
ステップS3576では、基準となる3次元データの全ての断層画像に対して、位置合わせの対象となるデータの全てに対して局所位置合わせを行ったか否かを判定する。全てのデータを処理していない場合には、ステップS3561に戻る。そして、全てのデータを局所位置合わせした場合には、局所位置合わせの処理が終了する。
ステップS358では、画像合成部339は、選択部335が選択した基準となる3次元モーションコントラストデータと、複数の3次元モーションコントラストデータ同士を加算平均する。加算平均処理では、ボクセル毎に、複数のモーションコントラストデータとMask画像の値を掛け算した値の合計値SUM_Aと、複数のMask画像の値の合計値SUM_Bをそれぞれ保持しておく。Mask画像にはアーティファクトとして除去した無効領域や、位置合わせによりデータが存在しない無効領域が0として保存されているため、Mask画像の合計値SUM_Bにはボクセル毎に異なる値が保持されている。通常、位置合わせにおいてXYZ毎、数10ボクセルの移動が想定されるため、重ね合わせに用いたデータ数がN個である場合、画像中心付近のSUM_Bのボクセル値はNであり、画像端部のSUM_Bのボクセル値はNよりも少ない値になる。そして、加算平均処理では、SUM_AをSUM_Bで割ることにより加算平均を計算したモーションコントラストデータを求めることが出来る。
ステップS359では、第三の位置合わせ部337は、ステップS3561で記憶している入力の3次元モーションコントラストデータと3次元の断層像データと、ステップS3563で記憶している各Aスキャンの深度方向移動量に基づいて、基準データ(本実施形態ではData1)の網膜位置を入力時の深度位置の状態に戻す。具体的には、ステップS358で加算平均後の3次元モーションコントラストデータと3次元の断層像データを、ステップS3563で記憶している各Aスキャンの深度方向移動量を用いて元の状態に戻す。例えば、あるAスキャンにおいて下方向に5移動させている場合、ここでは上方向に5移動させる。さらに、上方向に5移動させることで、データ下部に無効領域が発生してしまう。そのため、その無効領域には、ステップS3561で記憶している入力の3次元モーションコントラストデータと3次元の断層像データにおいて、同じ座標位置のデータをそれぞれコピーする。
ステップS306では、加算平均して作成した高画質な3次元モーションコントラストデータ、あるいは高画質な3次元断層像の結果を表示部600に表示する。
ステップS307において、不図示の指示取得部は、画像処理システム100による断層画像の撮影を終了するか否かの指示を外部から取得する。この指示は、入力部700を用いて、操作者によって入力される。処理を終了する指示を取得した場合には、画像処理システム100はその処理を終了する。一方、処理を終了せずに、撮影を続ける場合には、ステップS302に処理を戻して撮影を続行する。以上によって、画像処理システム100の処理が行われる。
本実施形態では、繰り返しN回撮影するデータは、同じ撮影範囲を同じスキャンパターンで撮影する例を説明したが、これに限らない。例えば、3mm×3mmの範囲を300×300(主走査×副走査)で撮影したデータと、3mm×3mmの範囲を600×600で撮影したデータとを位置合わせするようにしても良い。この時の深度方向のサイズはどちらのデータにおいても共通で、例えば1000とする。その場合には、1ボクセルあたりの物理サイズを揃えるデータ変換処理を行った後に、上述した位置合わせ処理を実行する。なお、この例では、300×300のデータを補間処理によって600×600に拡大してから処理をするようにしても良いし、600×600のデータを補間処理によって300×300に縮小してから処理をするようにしても良い。また、3mm×3mmの範囲を300×300で撮影したデータと、6mm×6mmの範囲を600×600で撮影したデータとを位置合わせする場合には、1ボクセルあたりの物理サイズは同じであるため、このままのサイズ同士で位置合わせを行う。これにより、異なる撮影範囲や異なるスキャン密度で撮影したデータ同士も加算平均することが出来る。
本実施形態では、基準画像選択において、画像評価値、位置合わせパラメータ評価値、アーティファクト領域評価値を用いて選択を行う例を説明したが、これに限らない。例えば、さらに層検出の評価値を用いて基準画像選択をしても良い。
本実施形態では、データ内でのZ方向位置合わせにおいて、最初の基準データをデータの中心としたがこれに限らない。例えば、画像中心付近において境界線L1の層検出の信頼度が高い場所を基準として始めるようにしてもよい。層検出の信頼度は、変形例2で示したように、画像の明るさや検出した層境界のZ方向位置によって定義される。これにより、信頼度の高い箇所を基にして位置合わせを開始するため、位置合わせのエラーを低減することが期待できる。
本実施形態において、3次元のモーションコントラストデータと3次元の断層像の両方を3次元的に形状変形し、加算平均する例を示したが、これに限らない。モーションコントラストデータだけを変形させても良い。その場合、第四の位置合わせ部338は、本実施形態においては断層像を用いて位置合わせを行っているが、モーションコントラストデータを用いて位置合わせを行う。また、画像合成部339による加算平均処理も3次元のモーションコントラストデータのみ行う。モーションコントラストデータのみを高画質にすれば良い場合は、モーションコントラストデータのみを形状変形させるため、処理負荷を軽減することが出来る。
本実施形態において、ステップS3534においてOCTA画像をxy面内で拡大して位置合わせを行い、ステップS3565において、xy面内の移動パラメータを元のサイズに相当する移動パラメータに変換した。そして、元のサイズで3次元データの形状変形を行う例を示したが、これに限らない。例えば、3次元データそのものを拡大して位置合わせを行い、そのままの状態で出力をするようにしても良い。具体的には、3次元データのサイズが300×300×1000(主走査×副走査×深度)のような数値だとする。これを600×600×1000に拡大して位置合わせと加算平均を行い、そのままのサイズでデータ出力を行っても良い。あるいは、600×600×1000に拡大して位置合わせと加算平均を行った後、最後に300×300×1000のサイズに戻して出力するようにしても良い。これにより、出力される3次元の加算平均後のデータは、より高画質になることが期待される。
本実施形態において、第三の位置合わせ部337は、Z方向に移動させたデータをステップS359において、入力時のZ位置に戻す処理を行ったが、これに限らない。例えば、入力時のZ位置に戻さずに第三の位置合わせ部337で行ったZ位置合わせの結果のまま出力するようにしても良い。これにより、Z方向に関する深さと傾きの位置合わせが済んだデータを表示することが出来る。なお、この場合には、ステップS3561の基準データ記憶の処理を行う必要がない。その代わり、Z方向にデータ全体を変形させているため、検出部333が検出した層境界のZ方向位置をステップS3563で記憶している移動量に基づいて補正する。
本実施形態において、撮影から表示までを一連の流れで示したがこれに限らない。例えば、既に撮影が済んでいるデータを用いて高画質画像生成処理を行ってもよい。その場合、撮影に関する処理をスキップし、その代わりに撮影済みの複数の3次元のモーションコントラストデータと3次元の断層像を取得する。そして、ステップS305で高画質画像生成処理を行う。これにより、複数回撮影を行ったデータに関して、撮影時に処理をしなくても、必要な時に高画質化処理を実行することが出来る。そのため、撮影時には撮影だけに集中することが出来る。
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。
200 断層画像撮影装置
300 画像処理装置
301 画像取得部
303 画像処理部
305 表示制御部
311 断層画像生成部
312 モーションコントラストデータ生成部
331 前処理部
332 画像生成部
333 検出部
334 第一の位置合わせ部
335 選択部
336 第二の位置合わせ部
337 第三の位置合わせ部
338 第四の位置合わせ部
339 画像合成部
400 眼底画像撮影装置
500 外部記憶部
600 表示部
700 入力部
Claims (8)
- 異なる時間に得られた被検眼の複数の3次元データを取得する取得手段と、
深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段と、
前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ手段と、
前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成手段と、
を備える画像処理装置。 - 前記作成手段によって前記複数の3次元データの複数の補間データが作成された場合には前記複数の補間データ間における深度方向の位置合わせを行い、前記複数の3次元データの少なくとも1つに対して補間データが作成されなかった場合には前記3次元データと前記補間データとの間における深度方向の位置合わせを行う第二の深度位置合わせ手段を更に備えることを特徴とする請求項1に記載の画像処理装置。
- 前記画像処理装置は、前記平面位置合わせ手段において、前記3次元データから生成される眼底正面画像を用いて、画像に関する評価値、位置合わせに関する評価値、画像のアーティファクトに関する評価値、層検出による評価値の少なくとも一つを用いて、前記第二の深度位置合わせ手段のための基準となる3次元データを選択する選択手段を更に備えることを特徴とする請求項1または請求項2に記載の画像処理装置。
- 前記画像処理装置は、深度方向に直交する平面における位置合わせを行う第二の平面位置合わせ手段を更に備え、前記第二の平面位置合わせ手段は、複数のデータ間での位置合わせの結果、前記3次元データにおけるアーティファクト領域を検出し、前記アーティファクト領域を記憶することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記3次元データは、輝度の3次元断層データまたは3次元モーションコントラストデータを含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
- 前記複数の3次元データは、主走査方向が同一の走査方法で得られたデータであることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
- 異なる時間に得られた被検眼の複数の3次元データを取得する取得工程と、
深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ工程と、
前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ工程と、
前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成工程と、
を備える画像処理方法。 - 請求項7に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172335A JP7102112B2 (ja) | 2017-09-07 | 2017-09-07 | 画像処理装置、画像処理方法及びプログラム |
US16/121,429 US10846892B2 (en) | 2017-09-07 | 2018-09-04 | Image processing apparatus, image processing method, and storage medium |
EP18193245.0A EP3454295B1 (en) | 2017-09-07 | 2018-09-07 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172335A JP7102112B2 (ja) | 2017-09-07 | 2017-09-07 | 画像処理装置、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019047840A true JP2019047840A (ja) | 2019-03-28 |
JP2019047840A5 JP2019047840A5 (ja) | 2020-09-10 |
JP7102112B2 JP7102112B2 (ja) | 2022-07-19 |
Family
ID=63528631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172335A Active JP7102112B2 (ja) | 2017-09-07 | 2017-09-07 | 画像処理装置、画像処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10846892B2 (ja) |
EP (1) | EP3454295B1 (ja) |
JP (1) | JP7102112B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11238589B2 (en) * | 2020-07-02 | 2022-02-01 | Omniscient Neurotechnology Pty Limited | Medical imaging with invalid data removal |
CN113040763B (zh) * | 2021-04-28 | 2022-05-17 | 浙江大学 | 一种基于octa的血糖测试方法与装置 |
CN114862850B (zh) * | 2022-07-06 | 2022-09-20 | 深圳科亚医疗科技有限公司 | 一种血管医学图像的目标检测方法、装置及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008528954A (ja) * | 2005-01-21 | 2008-07-31 | カール ツァイス メディテック アクチエンゲゼルシャフト | 光学コヒーレンス・トモグラフィ撮像における動き補正方法 |
JP2011156035A (ja) * | 2010-01-29 | 2011-08-18 | Canon Inc | 光画像撮像装置及びその制御方法、そのプログラム、記憶媒体 |
US20150092195A1 (en) * | 2013-09-30 | 2015-04-02 | Carl Zeiss Meditec, Inc. | Systems and methods for bidirectional functional optical coherence tomography |
JP5832523B2 (ja) * | 2010-04-29 | 2015-12-16 | マサチューセッツ インスティテュート オブ テクノロジー | 光コヒーレンストモグラフィのための動き補正および画像改善の方法および装置 |
JP2017047113A (ja) * | 2015-09-04 | 2017-03-09 | 株式会社ニデック | 眼科撮影装置および眼科撮影プログラム |
JP2017046976A (ja) * | 2015-09-02 | 2017-03-09 | 株式会社ニデック | 眼科撮影装置及び眼科撮影プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5832523B2 (ja) | 1976-06-23 | 1983-07-13 | ケイディディ株式会社 | 自動遅延等化方法 |
US7884945B2 (en) * | 2005-01-21 | 2011-02-08 | Massachusetts Institute Of Technology | Methods and apparatus for optical coherence tomography scanning |
US9442095B2 (en) * | 2011-06-15 | 2016-09-13 | Northwestern University | Optical coherence photoacoustic microscopy |
JP6009935B2 (ja) * | 2012-12-26 | 2016-10-19 | 株式会社トプコン | 眼科装置 |
JP6679505B2 (ja) | 2014-06-16 | 2020-04-15 | エージェンシー フォー サイエンス,テクノロジー アンド リサーチ | 光干渉断層撮影画像内のスペックルノイズの低減 |
-
2017
- 2017-09-07 JP JP2017172335A patent/JP7102112B2/ja active Active
-
2018
- 2018-09-04 US US16/121,429 patent/US10846892B2/en active Active
- 2018-09-07 EP EP18193245.0A patent/EP3454295B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008528954A (ja) * | 2005-01-21 | 2008-07-31 | カール ツァイス メディテック アクチエンゲゼルシャフト | 光学コヒーレンス・トモグラフィ撮像における動き補正方法 |
JP2011156035A (ja) * | 2010-01-29 | 2011-08-18 | Canon Inc | 光画像撮像装置及びその制御方法、そのプログラム、記憶媒体 |
JP5832523B2 (ja) * | 2010-04-29 | 2015-12-16 | マサチューセッツ インスティテュート オブ テクノロジー | 光コヒーレンストモグラフィのための動き補正および画像改善の方法および装置 |
US20150092195A1 (en) * | 2013-09-30 | 2015-04-02 | Carl Zeiss Meditec, Inc. | Systems and methods for bidirectional functional optical coherence tomography |
JP2017046976A (ja) * | 2015-09-02 | 2017-03-09 | 株式会社ニデック | 眼科撮影装置及び眼科撮影プログラム |
JP2017047113A (ja) * | 2015-09-04 | 2017-03-09 | 株式会社ニデック | 眼科撮影装置および眼科撮影プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7102112B2 (ja) | 2022-07-19 |
US10846892B2 (en) | 2020-11-24 |
US20190073805A1 (en) | 2019-03-07 |
EP3454295A1 (en) | 2019-03-13 |
EP3454295B1 (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7250653B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2020093076A (ja) | 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム | |
US10973406B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
WO2020036182A1 (ja) | 医用画像処理装置、医用画像処理方法及びプログラム | |
US11887288B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7374615B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2020039851A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20190073780A1 (en) | Image processing apparatus, alignment method and storage medium | |
JP7362403B2 (ja) | 画像処理装置および画像処理方法 | |
US10846892B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2021122559A (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2020050308A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7027076B2 (ja) | 画像処理装置、位置合わせ方法及びプログラム | |
US10803568B2 (en) | Image processing apparatus, alignment method and storage medium | |
JP2019150485A (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP7005382B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7297952B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2019063446A (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2020090439A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7158860B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2022062620A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7281872B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7446730B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7086708B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2020049828A1 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7102112 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |