JP2019047840A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2019047840A
JP2019047840A JP2017172335A JP2017172335A JP2019047840A JP 2019047840 A JP2019047840 A JP 2019047840A JP 2017172335 A JP2017172335 A JP 2017172335A JP 2017172335 A JP2017172335 A JP 2017172335A JP 2019047840 A JP2019047840 A JP 2019047840A
Authority
JP
Japan
Prior art keywords
data
alignment
image
dimensional
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017172335A
Other languages
English (en)
Other versions
JP2019047840A5 (ja
JP7102112B2 (ja
Inventor
好彦 岩瀬
Yoshihiko Iwase
好彦 岩瀬
弘樹 内田
Hiroki Uchida
弘樹 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017172335A priority Critical patent/JP7102112B2/ja
Priority to US16/121,429 priority patent/US10846892B2/en
Priority to EP18193245.0A priority patent/EP3454295B1/en
Publication of JP2019047840A publication Critical patent/JP2019047840A/ja
Publication of JP2019047840A5 publication Critical patent/JP2019047840A5/ja
Application granted granted Critical
Publication of JP7102112B2 publication Critical patent/JP7102112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】 高画質なモーションコントラストデータを生成する画像処理装置を提供する。【解決手段】 画像処理装置は、異なる時間に得られた被検眼の複数の3次元データを取得する取得手段と、深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段と、前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ手段と、前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成手段とを備える。【選択図】 図1

Description

開示の技術は、画像処理装置、画像処理方法及びプログラムに関する。
光干渉断層計(OCT;Optical Coherence Tomography)などの眼部の断層画像撮影装置は、網膜層内部の状態を3次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。OCTの形態として、例えば、高速に画像を取得する方法として、広帯域光源を用い、分光器でインターフェログラムを取得するOCTとして、SD−OCT(Spectral domain OCT)が知られている。また、光源として、高速波長掃引光源を用いることで、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS−OCT(Swept Source OCT)が知られている。そして、近年では、造影剤を用いない血管造影法としてOCTを用いた血管造影法(OCT Angiography:OCTA)が提案されている。OCTAでは、OCTにより取得した3次元のモーションコントラストデータを2次元平面に投影することで、血管画像(以下、OCTA画像という。)を生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラストデータは、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。
OCT装置で測定対象の3次元データを取得する場合、被検眼が動くことによりデータに動きのアーティファクトが発生する。そのため、X方向を主走査とするスキャンとY方向を主走査とするスキャンをしたボリュームデータを位置合わせもしくはマージすることで動きのアーティファクトを補償する3次元データを生成することが知られている(特許文献1)。
特許第5832523号公報
OCTで撮影した複数の3次元データを用いて解析を行うためには、3次元データの位置合わせ精度の向上が求められている。
開示の技術は、OCTで撮影された複数の3次元データを位置合わせし、アーティファクトの少ない高画質な3次元データを提供することを目的の一つとする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。
上記の目的を達成するための、開示の画像処理装置は、異なる時間に得られた被検眼の複数の3次元データを取得する取得手段と、深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段と、前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ手段と、前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成手段とを備える。
開示の技術によれば、アーティファクトの少ない高画質な3次元のモーションコントラストデータを得る事ができる。
画像処理システムの構成の一例を示す図。 眼部の構造と断層画像と眼底画像の一例を説明するための図。 画像処理システムにおける処理の流れの一例を示すフローチャート。 第一の位置合わせ処理の流れの位置理恵を示すフローチャート。 第三の位置合わせ処理の流れの一例を示すフローチャート。 第四の位置合わせ処理の流れの一例を示すフローチャート。 モーションコントラストデータ生成の一例を説明するための図。 アーティファクト除去の一例を説明するための図。 第一の位置合わせの一例を説明するための図。 第二の位置合わせの一例を説明するための図。 第三の位置合わせの一例を説明するための図。 第三の位置合わせ結果の一例を説明するための図。 3次元でのデータ変形結果の一例を説明するための図。 第四の位置合わせの一例を説明するための図。 第四の位置合わせの一例を説明するための図。 モーションコントラストデータの加算平均前後の一例を説明するための図。 モーションコントラストデータの加算平均前後の一例を説明するための図。 モーションコントラストデータの加算平均前後の一例を説明するための図。
〔実施例1〕
以下、図面を参照しながら、第一の実施形態について説明する。なお、本実施形態に係る画像処理装置は、アーティファクトを低減した3次元のモーションコントラストデータを生成するにあたり、複数のモーションコントラストデータの位置合わせをすると共に、加算平均を行うために位置合わせの基準となるモーションコントラストデータを選択することを特徴としている。なお、以降の実施例に示す数値は例示であり、開示の数値に限定されるものではない。
本実施形態によれば、固視微動などにより、モーションコントラストデータにアーティファクトが存在する場合においても高画質な3次元のモーションコントラストデータを取得することが可能となる。ここで、高画質とは一度の撮影と比較してS/N比が向上している画像をいう。または、診断に必要な情報量が増えている画像のことをいう。なお、本実施形態において、3次元データは、輝度値からなる3次元の断層像データと、脱相関値からなる3次元のモーションコントラストデータのことを指す。
以下、本実施形態に係る画像処理装置を備える画像処理システムについて、詳細を説明する。
図1は、本実施形態に係る画像処理装置300を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置300が、インタフェースを介して断層画像撮影装置(OCTとも言う)200、眼底画像撮影装置400、外部記憶部500、表示部600、入力部700と接続されることにより構成されている。
断層画像撮影装置200は、眼部の断層画像を撮影する装置である。断層画像撮影装置に用いる装置は、例えばSD−OCTやSS−OCTからなる。なお、断層画像撮影装置200は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置300からの指示により行われる断層画像の撮影について説明を行う。
図1において、ガルバノミラー201は、測定光の眼底における走査を行うためのものであり、OCTによる眼底の撮影範囲を規定する。また、駆動制御部202は、ガルバノミラー201の駆動範囲及び速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定する。ここでは、簡単のためガルバノミラーは一つのユニットとして示したが、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上で所望の範囲を測定光で走査できる。
フォーカス203は被検体である眼の前眼部を介し、眼底の網膜層にフォーカスするためのものである。測定光は、非図示のフォーカスレンズにより、被検体である眼の前眼部を介し、眼底の網膜層にフォーカスされる。眼底を照射した測定光は各網膜層で反射・散乱して戻る。
内部固視灯204は、表示部241、レンズ242で構成される。表示部241として複数の発光ダイオード(LED)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、駆動制御部202の制御により撮影したい部位に合わせて変更される。表示部241からの光は、レンズ242を介し、被検眼に導かれる。表示部241から出射される光は520nmで、駆動制御部202により所望のパターンが表示される。
コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、駆動制御部202により制御されている。コヒーレンスゲートとは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。さらには、撮影方法としてコヒーレンスゲートの位置を制御することにより、網膜層側か、あるいは網膜層より深部側とする撮影を行うことを制御する。ここで、画像処理システムで取得する眼の構造と画像について図2を用いて説明する。
図2(a)に眼球の模式図を示す。図2(a)において、Cは角膜、CLは水晶体、Vは硝子体、Mは黄斑部(黄斑の中心部は中心窩を表す)、Dは視神経乳頭部を表す。本実施形態にかかる断層画像撮影装置200は、主に、硝子体、黄斑部、視神経乳頭部を含む網膜の後極部を撮影する場合について説明を行う。なお、本発明では説明をしないが、断層画像撮影装置200は、角膜、水晶体の前眼部を撮影することも可能である。
図2(b)に断層画像撮影装置200が取得する網膜を撮影した場合の断層画像の例を示す。図2(b)において、ASはAスキャンというOCT断層画像における画像取得の単位を表す。このAスキャンが複数集まって一つのBスキャンを構成する。そしてこのBスキャンのことを断層画像(あるいは断層像)と呼ぶ。図2(b)において、Veは血管、Vは硝子体、Mは黄斑部、Dは視神経乳頭部を表す。また、L1は内境界膜(ILM)と神経線維層(NFL)との境界、L2は神経線維層と神経節細胞層(GCL)との境界、L3は視細胞内節外節接合部(ISOS)、L4は網膜色素上皮層(RPE)、L5はブルッフ膜(BM)、L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸、縦軸(深さ方向)をz軸とする。
図2(c)に眼底画像撮影装置400が取得する眼底画像の例を示す。眼底画像撮影装置400は、眼部の眼底画像を撮影する装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等が挙げられる。図2(c)において、Mは黄斑部、Dは視神経乳頭部を表し、太い曲線は網膜の血管を表す。眼底画像において、横軸(OCTの主走査方向)をx軸、縦軸(OCTの副走査方向)をy軸とする。なお、断層画像撮影装置200と眼底画像撮影装置400の装置構成は、一体型でもよいし別体型でもよい。
画像処理装置300は、画像取得部301、記憶部302、画像処理部303、指示部304、表示制御部305を備える。画像処理装置300は、例えば、不図示の1以上のプロセッサと1以上のメモリを備え、1以上のプロセッサが1以上のメモリに記憶されたプログラムを実行することで、1以上のプロセッサは画像取得部301、画像処理部303、指示部304、表示制御部305として機能する。プロセッサは例えばCPUまたはGPU等のハードウエアである。画像取得部301は、断層画像生成部311、モーションコントラストデータ生成部312からなり、断層画像撮影装置200により撮影された断層画像の信号データを取得し、信号処理を行うことで断層画像の生成、ならびにモーションコントラストデータの生成を行う。例えば、画像取得部301は、眼の同一位置を走査するように制御された測定光に基づいて得られた複数の2次元断層像を取得する。なお、画像取得部301は、異なる時間に得られた被検眼の複数の3次元データ(輝度の三次元断層データ)を取得する取得手段の一例に相当する。なお、複数の3次元データは主走査方向が同一の走査方法で得られたデータであってもよいし、主走査方向が異なる層さ方法で得られた画像であってもよい。また、眼底画像撮影装置400により撮影された眼底画像データを取得する。そして、生成した断層画像と眼底画像を記憶部302に格納する。画像処理部303は、前処理部331、画像生成部332、検出部333、第一の位置合わせ部334、選択部335、第二の位置合わせ部336、第三の位置合わせ部337、第四の位置合わせ部338、画像合成部339からなる。
前処理部331は、モーションコントラストデータからアーティファクトを除去する処理を行う。画像生成部332は、3次元モーションコントラストデータ(3次元データの一例)から2次元のモーションコントラスト正面画像(OCTA画像あるいはEnface画像とも言う)を生成する。画像生成部332は、異なる時間に得られた被検眼の複数の3次元データを取得する取得手段の一例に相当する。検出部333は、網膜から各層の境界線を検出する。第一の位置合わせ部334は、2次元の正面画像(眼底正面画像)の位置合わせを行う。選択部335は、第一の位置合わせ部334の結果から基準とするデータを選択する。第二の位置合わせ部336は、OCTA画像を用いて網膜の横方向(x軸)の位置合わせを行う。第三の位置合わせ部337は、網膜の深さ方向(z軸)の位置合わせを行う。第四の位置合わせ部338は、断層画像内部の特徴がある部分に位置合わせのための領域を複数設定し、その領域単位で網膜の深さ方向(z軸)の位置合わせを行う。画像合成部339は、第一から第四の位置合わせ部によって位置合わせされた3次元データを加算平均する。
外部記憶部500は、被検眼に関する情報(患者の氏名、年齢、性別など)と、撮影した画像データ、撮影パラメータ、画像解析パラメータ、操作者によって設定されたパラメータをそれぞれ関連付けて保持している。
入力部700は、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部700を介して、画像処理装置300や断層画像撮影装置200、眼底画像撮影装置400へ指示を行う。
次に、図3を参照して本実施形態の画像処理装置300の処理手順を示す。図3(a)は、本実施形態における本システム全体の動作処理、図3(b)は、本実施形態における高画質画像生成処理の流れを示すフローチャートである。
<ステップS301>
ステップS301では、不図示の被検眼情報取得部は、被検眼を同定する情報として被検者識別番号を外部から取得する。そして、被検者識別番号に基づいて、外部記憶部500が保持している当該被検眼に関する情報を取得して記憶部302に記憶する。
<ステップS302>
ステップS302では被検眼をスキャンして撮影を行う。被検眼のスキャンは、操作者が非図示のスキャン開始を選択すると、断層画像撮影装置200は、駆動制御部202を制御し、ガルバノミラー201を動作させて断層画像のスキャンを行う。ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナで構成される。そのため、これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)、垂直方向(Y)それぞれの方向に走査することが出来る。そして、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向に走査することが出来るため、眼底平面上の任意の方向に走査することが可能となる。
撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、内部固視灯の位置、スキャン範囲、スキャンパターン、コヒーレンスゲート位置、フォーカスを少なくとも設定する。駆動制御部202は、表示部241の発光ダイオードを制御して、黄斑部中心や視神経乳頭に撮影を行うように内部固視灯204の位置を制御する。スキャンパターンは、3次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャンなどのスキャンパターンを設定する。これら撮影パラメータの調整終了後、操作者が非図示の撮影開始を選択することで撮影を行う。
本実施形態においては、スキャンパターンはラスタスキャンによる3次元ボリュームで、高画質データ生成のために3次元ボリュームをN回(Nは2以上)撮影する。N回繰り返し撮影するデータは、同じ撮影範囲を同じスキャンパターンで撮影する。例えば、3mm×3mmの範囲を300×300(主走査×副走査)の間隔で繰り返し撮影を行う。3次元ボリュームにおいては、モーションコントラストを計算するために同一のライン箇所をM回(Mは2以上)繰り返し撮影する。すなわち、Mが2回だとする場合、実際には300×600のデータを撮影し、そこから300×300の三次元モーションコントラストデータを生成する。なお、本明細書における「同一」とは完全に同一である場合および略同一である場合を含む概念である。例えば、同一の場所を撮影しようと試みた結果、トラッキングの不完全さ等により完全に同一の場所を撮影できず、略同一の場所を撮影した場合も、同一位置の撮影という概念に含まれる。
本発明においては詳細な説明を省略するが、断層画像撮影装置200は、加算平均用に同じ場所を撮影するために、被検眼のトラッキングを行うことで、固視微動の影響を少なくして被検眼のスキャンを行う。さらに、まばたきなどの画像を生成するにあたりアーティファクトとなる動きを検出した場合には、アーティファクトが発生した場所で再スキャンを自動的に行う。
<ステップS303>
ステップS303では、断層画像の生成を行う。断層画像生成部311は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成する。
まず、断層画像生成部311は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は検出した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。次に、断層画像生成部311は、有限区間でフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。次に、FFT処理を行う事によって断層信号を生成する。
<ステップS304>
ステップS304では、モーションコントラストデータ生成部312がモーションコントラストデータの生成を行う。このデータ生成について図7を用いて説明を行う。MCは3次元のモーションコントラストデータを示し、LMCは3次元のモーションコントラストデータを構成する2次元のモーションコントラストデータを示している。ここでは、このLMCを生成する方法について説明をする。
モーションコントラストデータ生成部312は、まず被検眼の同一範囲で撮影された複数の断層像間の位置ずれを補正する。位置ずれの補正方法は任意の方法であってよい。例えば、モーションコントラスト生成部312は、同一範囲をM回撮影し、同一箇所に相当する断層像データ同士について、眼底形状等の特徴等を利用して位置合わせを行う。具体的には、M個の断層像データのうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層像データとの類似度を求め、テンプレートとの位置ずれ量を求める。その後、モーションコントラスト生成部312は、求めた位置ずれ量に基づいて、各断層像データを補正する。
次にモーションコントラスト生成部312は、各断層像データに関する撮影時間が互いに連続する、2つの断層像データ間で式1により脱相関値M(x, z)を求める。
ここで、A(x, z)は断層像データAの位置(x、z)における輝度、B(x, z)は断層像データBの同一位置(x、z)における輝度を示している。
脱相関値M(x, z)は0〜1の値となり、2つの輝度の差が大きいほどM(x, z)の値は大きくなる。モーションコントラスト生成部312は、同一位置で繰り返し取得したMが3以上の場合には、同一位置(x、z)において複数の脱相関値M(x, z)を求めることができる。モーションコントラスト生成部312は、求めた複数の脱相関値M(x, z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラストデータを生成することができる。なお、繰り返し回数Mが2の場合、最大値演算や平均演算などの統計的な処理は行わず、隣接する2つの断層像AとBの脱相関値M(x, z)が、位置(x、z)におけるモーションコントラストの値となる。
式1に示したモーションコントラストの計算式はノイズの影響を受けやすい傾向がある。例えば、複数の断層像データの無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、モーションコントラスト生成部312は、前処理として、所定の閾値を下回る断層データはノイズとみなして、ゼロに置き換えることができる。これにより、画像生成部332は、生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。
ステップS305では、画像処理部303が高画質データ生成を行う。画像処理部303の処理について、図3(b)、図4〜図6のフローチャートと、図8〜図15を用いて説明をする。
<ステップS351>
ステップS351では、検出部333は、断層画像撮影装置200が撮影した複数の断層画像において網膜層の境界線を検出する。検出部333は、図2(b)の断層画像においてL1〜L6の各境界、あるいは非図示のGCL/IPL、IPL/INL、INL/OPL、OPL/ONL境界のいずれかを検出する。処理の対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、メディアン画像、Sobel画像とする)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出する。
<ステップS352>
ステップS352では、画像生成部332が、3次元のモーションコントラストデータに対して指定された生成範囲上端と生成範囲下端との範囲に対応するモーションコントラストデータを2次元平面上に投影し、OCTA画像(Enface画像)を生成する。具体的には、画像生成部332が、全体のモーションコントラストデータのうち生成範囲上端と生成範囲下端の間の範囲に対応するモーションコントラストデータに基づいて、その範囲内のモーションコントラストデータを平均値投影(AIP)、あるいは最大値投影(MIP)などの処理を行うことで、モーションコントラスト画像の正面画像であるOCTA画像を生成する。なお、OCTA画像の生成方法は平均値や最大値に限らない。最小値、中央値、分散、標準偏差、総和などの値で生成しても良い。
本実施形態においては、例えば、生成範囲上端をILM/NFL境界線とし、生成範囲下端をGCL/IPLから深度方向に50μm下端の境界線とする。そして、平均値投影法でOCTA画像を生成する。なお、OCTA画像の生成範囲の上端および下端は上記の例に限定されるものではない。
なお、モーションコントラスト生成部312が、生成範囲上端と生成範囲下端との間の範囲の断層データを用いてモーションコントラストデータを生成する構成としてもよい。この場合、画像生成部332は、生成されたモーションコントラストデータに基づいてOCTA画像を生成することで、指定された深度範囲の断層データに基づくOCTA画像を生成することができる。
<ステップS353>
ステップS353では、N枚のOCTA画像において、画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせをそれぞれ行う。これについて、図4のフローチャートを用いて説明をする。
<ステップS3531>
ステップS3531では、前処理部331は、画像生成部332が生成したOCTA画像から黒帯や白線のようなアーティファクトを検出し、除去する。これについて図8を用いて説明をする。図8において、OCTA画像の黒い領域は脱相関値が高い場所、すなわち血液の流れが検出された場所(血管に相当する)を表し、白い領域は、脱相関値が低い場所を表す。図8(a)のBBは黒帯の例で、図8(b)のWLは白線の例を示している。黒帯は、撮影中の動きにより、網膜の位置が感度の高い位置から遠ざかることで網膜断層像の輝度値が低下し脱相関の値が低くなったり、まばたき等により画像全体が暗くなることで脱相関の値が低くなったりすることで発生する。白線は、脱相関の計算においてM個の断層像を位置合わせして計算をするが、位置合わせがうまくいかなかったり、位置合わせで位置を補正しきれなかったりする場合に、画像全体の脱相関値が高くなることで発生する。これらのアーティファクトは脱相関の計算において発生するため、主走査方向の1ライン単位で発生する。そのため、前処理部331は、1ライン単位でアーティファクトを検出する。
例えば、黒帯検出は、1ラインでの脱相関の平均値が閾値THAVG_B以下の場合、黒帯とする。白線検出は、1ラインでの脱相関値の平均値が閾値THAVG_W以上で、かつ、標準偏差(あるいは分散値)がTHSD_W以下である場合、白線とする。白線の場合、平均値だけで判定を行うと大血管などで脱相関値が高く出る場合があり、これらのような脱相関値の高い血管が含まれる領域を白線と誤検出してしまう事がある。そのため、標準偏差や分散のような値のバラつきを評価する指標と組み合わせて判断する。すなわち、脱相関値の高い血管が含まれる1ラインは、平均値が高くて標準偏差も高くなる。一方、白線の1ラインは、平均値は高いが値のバラつきは小さいため標準偏差は低くなる。なお、OCTA画像は健常眼や患眼、患眼などでも病気の種類に応じて脱相関値の値が変動する。そのため、閾値は画像毎に設定することが望ましく、P−tileや判別分析のような動的閾値法を用いて、OCTA画像の明るさに応じて設定することが望ましい。なお、動的閾値法を用いる場合、上限閾値と下限閾値は事前に設定しておき、その値を上回るか下回る場合には、それらの上限閾値、あるいは下限閾値を閾値として設定する。
前処理部331は、上記で求めたアーティファクト領域を、OCTA画像に対応するMask画像に記憶しておく。図8のMask画像において、白い領域は1、黒い領域は0の値を設定した例を示す。
<ステップS3532>
ステップS3532では、第一の位置合わせ部334は、各OCTA画像をそれぞれ位置合わせした場合の位置合わせパラメータを保存するための2次元行列を初期化する。各行列の要素には、位置合わせ時の変形パラメータや画像類似度などの画像高画質化に必要な情報をまとめて保存する。
<ステップS3533>
ステップS3533では、第一の位置合わせ部334は、位置合わせ対象を選択する。本実施形態においては、全てのOCTA画像を基準画像に設定して残りのOCTA画像と位置合わせを行う。そのため、ステップS3533においては、Data0のOCTA画像を基準とする場合に、Data1〜Data(N−1)とそれぞれ位置合わせを行う。次に、Data1のOCTA画像を基準とする場合には、Data2〜Data(N−1)とそれぞれ位置合わせを行う。次に、Data2のOCTA画像を基準とする場合には、Data3〜Data(N−1)とそれぞれ位置合わせを行う。これらの処理を繰り返す。この例を図9(a)に示す。図9では簡単のため、Data0〜Data2を示しているが、3次元ボリュームをN回撮影している場合には、N個のOCTA画像間での位置合わせを行う。
なお、ここで示したように基準画像のDataを1つずつ繰り上げた場合に、位置合わせの対象とする画像のスタートDataも1つずつ大きくする。これについてData2のOCTA画像を基準とする場合について説明をする。Data2を基準とする場合に、Data0とData1、Data0とData2、Data1とData2の位置合わせは、それまでの処理により既に位置合わせ済みである。そのため、Data2のOCTA画像を基準とする場合には、Data3から位置合わせをすればよい。これにより、全部のOCTA画像同士の位置合わせとはいえ、半分の組み合わせを計算すればよいことになる。
<ステップS3534>
ステップS3534では、第一の位置合わせ部334は、複数のOCTA画像間において画像の横方向(x軸)と縦方向(y軸)、xy面内の回転位置合わせを行う。すなわち、第一の位置合わせ部334は、深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段の一例に相当する。
OCTA画像間の位置合わせでは、xy面内においてサブピクセル位置合わせを行うために、OCTA画像のサイズを拡大して位置合わせを行う。サブピクセル位置合わせとすることで、ピクセル位置合わせよりも位置合わせの精度が向上することが期待される。例えば、OCTA画像の撮影サイズを300×300とした場合、600×600に拡大をする。拡大する際にはBicubicやLanczos(n)法のような補間方法を用いる。そして、画像同士の位置合わせ処理としては、例えば、2つのOCTA画像の類似度を表す評価関数を事前に定義しておき、OCTA画像位置をずらしたり、回転させたりしながら評価値を計算し、評価値が最もよくなる場所を位置合わせ結果とする。評価関数としては、画素値で評価する方法が挙げられる(例えば、相関係数を用いて評価を行う方法が挙げられる)。
類似度を表す評価関数として相関係数を用いた場合の式を数2に示す。
数2において、Data0のOCTA画像の領域をf(x, y)、Data1のOCTA画像の領域をg(x, y)とする。
は、それぞれ領域f(x, y)と領域g(x, y)の平均を表す。なお、ここで領域とは位置合わせに用いるための画像領域であり、通常OCTA画像のサイズ以下の領域が設定され、上述したROIサイズが設定される。
また、評価関数としては、これに限らずSSD(Sum of Squared Difference)や、SAD(Sum of Absolute Difference)でもよく、画像の類似度あるいは相違度を評価出来ればよい。あるいは、POC(Phase Only Correlation)のような方法で、位置合わせを行っても良い。この処理により、XY面内の大局的な位置合わせが行われる。
なお、ここではOCTA画像のサイズを拡大して位置合わせを行う例について示したが、これに限らない。また、入力のOCTA画像サイズが900×900のような高密度スキャンの場合には、必ずしも拡大をする必要はない。また、位置合わせを高速で行うため、ピラミッド構造データを生成して位置合わせをしてもよい。
<ステップS3535>
ステップS3535では、第一の位置合わせ部334は、OCTA画像の画像評価値を計算する。画像評価値は、ステップS3534での2次元位置合わせ済みのOCTA画像において、位置合わせにより発生する無効領域を含まない画像の共通領域を用いて計算する。例えば、画像評価値Qは数4で求めることが出来る。
数3において、Data0のOCTA画像の領域をf(x, y)、Data1のOCTA画像の領域をg(x, y)とする。最初の項は相関係数を表し、数2で示した式と同様である。そのため、式の中のσ、σはそれぞれ、数2で示したものと対応する。2番目の項は明るさを評価する項であり、
は、それぞれ領域f(x, y)と領域g(x, y)の平均を表す。3番目の項はコントラストを評価する項である。それぞれの項は、最小値0で、最大値は1となる。例えば、Data0とData1が同じ画像である場合には評価値は1となる。そのため、N個のOCTA画像の中で平均的な画像を基準とした場合に評価値は高く、他のOCTA画像と異なるようなOCTA画像を基準とした場合には評価値は低くなる。ここで、他のOCTA画像と異なるとは、撮影位置が異なる、画像がひずんでいる、全体的に暗いあるいは明るすぎる、白線や黒帯などのアーティファクトが含まれているような場合である。なお、画像評価値は必ずしもここで示した式である必要はなく、それぞれの項を単独で評価しても良いし、組み合わせを変えても良い。
<ステップS3536>
ステップS3536では、第一の位置合わせ部334は、ステップS3532で初期化した位置合わせや画像類似度などの画像高画質化に必要なパラメータを保存するための2次元行列に対して値を保存する。例えば、基準画像をData0、対象画像をData1とする場合、2次元行列の要素(0、1)に横方向の位置合わせパラメータX、縦方向の位置合わせパラメータY、XY面内の回転パラメータα、画像評価値、画像類似度を保存する。これらの情報の他に、図8で示したMask画像をOCTA画像と関連付けて保存しておく。さらに、本実施形態では説明をしないが、倍率補正を行う場合には、倍率を保存しても良い。
<ステップS3537>
ステップS3537では、第一の位置合わせ部334は、全ての画像を基準画像として残りの対象画像と位置合わせを行ったか否かを判定する。全ての画像を基準として処理をしていない場合には、ステップS3533に戻る。そして、全ての画像を基準として処理をした場合には、ステップS3538に進む。
<ステップS3538>
ステップS3538では、第一の位置合わせ部334は、2次元行列の残りの要素を更新する。上記処理は、ステップS3533で説明したように、半分の組み合わせしか計算をしていない。そのため、計算をしていない要素にこれらの値をコピーする。例えば、2次元行列の要素(0、1)のパラメータは(1、0)の要素にコピーされる。すなわち、要素(i、j)を要素(j、i)にコピーする。この際、位置合わせパラメータX、Yと回転パラメータαは逆になるため、負の値を掛けてコピーをする。なお、画像類似度などは逆にならないため、同じ値をそのままコピーする。これらの処理によりOCTA画像位置合わせが行われる。次に、図3(b)の処理フローに戻って説明を行う。
<ステップS354>
ステップS354では、選択部335が基準画像の選択を行う。ステップS353で行った位置合わせの結果に基づいて基準画像選択を行う。ステップS353において、2次元行列を作成しており、行列の各要素に高画質化画像生成に必要な情報が保存されている。そのため、その情報を用いることで基準画像選択を行う。基準画像選択において、画像評価値、位置合わせパラメータ評価値、アーティファクト領域評価値を用いて選択を行う。画像評価値は、ステップS3535で求めた値を用いる。位置合わせパラメータは、ステップS3534で求めた位置合わせ結果のXとYを用いて、例えば、数6を用いて評価値とする。数6では、移動量が大きいほど大きな値となる。
アーティファクト領域評価値は、ステップS3531で求めたMask画像を用いて、例えば、数7を用いて評価値とする。数7では、T(x,y)はMask画像でのアーティファクトではない領域のピクセルを表し、A(x,y)はMask画像の全ピクセルを表す。そのため、アーティファクトが存在しない場合、最大値は1となる。
画像評価値とアーティファクト領域評価値は数値が大きい方が良く、位置合わせパラメータ評価値は数値が小さい方が良い。また、画像評価値と位置合わせパラメータ評価値は、ある画像を基準とした時に、その他の画像との関係で求める値であるため、N−1個の合計値となる。これらの評価値は評価尺度が異なるため、それぞれの値でソートを行い、ソートしたインデックスの合計値により基準画像を選択する。例えば、画像評価値とアーティファクト領域評価値は数値が大きいほど、ソート後のインデックスが小さくなるようにソートを行い、位置合わせパラメータ評価値は数値が小さいほど、ソート後のインデックスが小さくなるようにソートを行う。これらのソート後のインデックス値が最も小さくなる画像を基準画像として選択する。
なお、基準画像選択の方法について、ソート値を合計することで基準画像を選択する例について述べたがこれに限らない。それぞれの評価値のソート後のインデックスに重みをつけて評価値を計算するようにしても良い。
あるいは、ソート値ではなく、それぞれの評価値が1になるように正規化をして計算するようにしても良い。例えば、画像評価値は1に正規化しているが、本実施形態においてはN−1個の合計値であるため、平均値を用いるようにすればよい。
位置合わせパラメータ評価値は、数8のように定義すれば1に正規化でき、この場合、評価値が1に近い方が良い評価値となる。
数8において、SVは数6で求めた値のN−1個の合計値で、添え字のnはData番号に対応する。そのため、Data0の場合は、SVである。SVmaxは、Data0〜Data(N−1)の間で最大の位置合わせパラメータ評価値である。αは重みであり、SVとSVmaxが同じ数値の時に、NSVの値をいくつに設定するかを調整するパラメータである。なお、最大値SVmaxは上述したように実際のデータから決めても良いし、閾値として事前に定義しておいても良い。
アーティファクト領域評価値は0〜1に正規化してあるので、そのまま用いればよい。
このように、全ての評価値を1に正規化した場合には、評価値の合計値が最も大きくなるものを基準画像として選択する。
ここで説明したように、基準画像は、N個の画像の中で平均的な画像であり、他の画像を位置合わせする際に移動量が少なく、アーティファクトが少ないという条件を最も満たす画像が選択される。この例により選択される基準画像の例を図9(b)に示す。この例では、基準画像にData1を選択している。そして、Data0とData2は、第一の位置合わせ部334で求めた位置合わせパラメータに基づき、それぞれ移動している。
<ステップS355>
ステップS355では、第二の位置合わせ部336がOCTA画像を用いて網膜の横方向(x軸)の位置合わせを行う。これについて図10を用いて説明をする。図10(a)は、基準画像がData1で、位置合わせ対象がData2との横方向位置合わせを行う例を示している。また、Maskは、Data2に含まれるアーティファクト(図では横方向の黒いライン)と、Data1との位置合わせの結果Data2が移動することにより生じる無効領域(図では縦方向の黒いライン)に0を設定してある。基準画像と位置合わせ対象画像は、それぞれのラインで横方向に位置合わせを行い、ライン単位での類似度を計算する。類似度の計算には、例えば数2を用いる。そして、類似度が最大となる位置にラインを移動させる。また、ライン単位で基準画像に対しての類似度を計算し、類似度に応じてMaskに重みを設定する。
第二の位置合わせ部336による位置合わせ結果の例を図10(b)に示す。図10(b)では、画像上端と画像中心付近では、基準画像と似ていないと判断し、重ね合わせに使用しないラインとしてMask画像に横方向の黒ラインを設定した例を示している。また、画像中心付近と画像下端では、ライン単位の位置合わせの結果として、中心付近では左側にずらし、画像下端では右側にずらした例を示している。画像をずらす事で無効領域が生じるため、Maskには無効領域に0を設定する。この処理により、XY面内の局所的な位置合わせが行われる。
なお、第一の位置合わせで求めた回転パラメータαに関して、第二の位置合わせを行う前にそれぞれの画像に対して適用しても良いし、第二の位置合わせを行った後に適用するようにしても良い。
<ステップS356>
ステップS356では、第三の位置合わせ部335は、基準の3次元データとその他の3次元データとの深さ方向(Z方向)における位置合わせを行う。この処理に関して、図5のフローチャートを用いて説明をする。
<ステップS3561>
ステップS3561では、第三の位置合わせ部335は、基準となる3次元モーションコントラストデータと基準となる3次元の断層像データをそれぞれ記憶しておく。例えば、本実施形態ではData1の三次元モーションコントラストデータと3次元の断層像データを記憶する。
<ステップS3562>
ステップS3562では、第三の位置合わせ部335は、ステップS351で検出した境界線情報を取得する。なお、本実施形態において深さ方向位置合わせに用いる境界線は例えばL1とするが、これに限定されるものではない。
<ステップS3563>
ステップS3563では、第三の位置合わせ部335は、それぞれの3次元データ毎に深さ方向の位置と傾きを合わせる。3次元の断層像を撮影する際に眼は動いている。XY面内の移動に関しては、リアルタイムにトラッキングを行いながら撮影を行うため、撮影時にほとんど位置合わせが出来ている。しかし、深さ方向に関してはリアルタイムトラッキングをしていないため、データ内部でも位置合わせを行う必要がある。すなわち、ここでの説明は一つの3次元データ内の位置合わせに関する。これについて、図11を用いて説明をする。図11(a)は、位置合わせに用いる境界線の例を示している。本実施形態においては、境界線L1(ILM)を用いる場合について説明をする。なお、本実施形態においては境界線L1を使用する例について説明を行うが、境界線の種類はこれに限らない。他の境界線でも良いし、複数の境界線を組み合わせても良い。
図11(a)において、基準データをIndexc、対象データをIndexc−1としている。なお、最初の基準データは3次元データの中心、対象データは基準データに対して副走査方向において隣の境界線とする。
図11(b)に、説明のために基準データの境界線L1と位置合わせ対象の境界線L1’とを同時に表示する。図11(b)において、境界線を縦方向に12分割している。本実施例では分割数を12として説明をする。それぞれの領域はArea0〜Area11とする。なお、図11(b)において、画像中心部に分割領域を描画していないが、実際には画像全体を領域分割している。そして、上下矢印Difference1は、L1とL1’との差を表す。これらの差は、それぞれの領域Area0〜Area11それぞれで求める。これらの分割数は横方向の画像サイズに応じて変更しても良い。あるいは、共通して検出した境界線の横幅のサイズに応じて変更しても良い。本実施例では簡単のため、横方向の境界線サイズを同じで表示しているが、実際には、網膜層が画像の上方向にずれ(Z軸で0の方向)、網膜層の一部領域が画像から欠損する場合がある。その場合には、画像全体で境界線が検出出来ない。そのため、境界線同士の位置合わせにおいては、基準データの境界線L1と位置合わせ対象の境界線L1’との境界線が検出出来ている範囲を分割して位置合わせをすることが望ましい。
図11(b)において各領域のDifference1の平均をそれぞれD〜D11とする。すなわち、ILMの差の平均をその領域の差分の代表値とする。次に各領域で求めた代表値D〜D11を小さい順にソートする。そして、ソートした代表値を小さい順から8個用いて、平均と分散を計算する。なお、本実施形態では選択数は8個とする。しかし、数はこれに限定されない。選択する数は分割数よりも小さければよい。平均と分散の計算は、ソートした代表値を一つずつずらして計算する。すなわち、本実施形態では12個に分割した領域のうち8個の代表値を用いて計算をするため、全部で5種類の平均値と分散値が求まる。次に、求めた5種類の分散値の中で最小となる分散値を算出した際の8個の差分の代表値を用いて深さ方向のシフト値と傾きを求める。これについて、図11(c)と数9を用いて説明をする。図11(c)は、横軸に分割領域の中心x座標、縦軸に差分の代表値としたグラフである。図11(c)において、黒丸は分散値が最小となった組み合わせの差分の代表値の例であり、黒三角は選択されなかった差分の代表値の例を示している。数9は、分散値が最小となった組み合わせの差分の代表値(図11(c)における黒丸)を用いて計算をする。
数9においてDが深さ方向のシフト値であり、xはx座標、すなわちAスキャン位置である。数9におけるaとbに関して、数10と数11に示す。数10、数11において、xは選択された分割領域の中心x座標、Dは選択された差分の代表値であり、nは選択した代表値の数なので、本実施例においてnは8となる。数9により、各Aスキャンの深さ方向のシフト値が求まる。
ここで示すように境界線位置合わせ時に領域を分割し、分割した領域の差分値の組み合わせにおいて最もバラつきが小さくなる値を用いることで、境界線検出に誤りがあったとしても、それらの領域の値は使用しない。そのため、安定して深さ方向のシフト値を計算することが出来る。なお、各領域の深さ方向の代表値として平均値としたが中央値でも良く、代表的な値を用いることが出来ればよい。さらに、バラつきの値として分散値としたが標準偏差でもよく、値のバラつきを評価出来る指標であればよい。
この処理に関して、基準データと対象データを変えながら全てのデータに関して位置合わせを行う。すなわち、最初の基準データは3次元データの中心境界線、対象データは基準データの隣の境界線データとした。この位置合わせが終了したら、その次には、先ほど対象データとしたデータを基準データとして、さらにその隣のデータを対象データとして位置合わせを行う。この処理が画像の端まで完了したら、再度、基準データを中心境界線として、最初の位置合わせとは反対側の隣の境界線データを対象データとして位置合わせをする。反対側においてもこの処理を画像の端まで行う。万が一、層検出出来ていないデータがある場合には、一つ前の位置合わせパラメータを用いて補正を行い、次のデータに進む。
この処理を適用した例を図12(a)に示す。図12は、境界線L1のZ座標を輝度値として表現したDepthMapである。すなわち、DepthMapが明るい場合はZ座標の値が大きく、DepthMapが暗い場合はZ座標の値が小さいことを表している。図12(a)にはData0〜Data2を示し、上側のDepthMapは位置合わせ前で、下側のDepthMapは位置合わせ後である。位置合わせ前のDepthMapには、全てのDataにおいて、横方向の色むらがある。これは、撮影時にZ方向に網膜が動いていることを表している。一方、位置合わせ後のDepthMapには、横方向の色むらが無く、隣接するデータ間でZ方向の位置が合っていることを表している。なお、深さ方向位置合わせにおいて、データの片側を位置合わせした後に、反対側の位置合わせをする例について示したが、それに限らない。最初の基準データを同じにして、両側の処理を並列に実行しても良い。
なお、第三の位置合わせ部335は、基準データ(本実施形態ではData1)の各Aスキャンの深度方向への移動量を記憶しておく。
以上、本ステップの処理より、Y方向(副走査方向)における断層の深度方向の位置合わせが行われる。すなわち、第三の位置合わせ部335は、3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ手段の一例に相当する。
<ステップS3564>
ステップS3564では、第三の位置合わせ部335は、複数の3次元データ間での深さ方向の位置と傾きを合わせる。ここでは、ステップS3563で3次元データ内での深さ方向の位置合わせをしたデータを用いて、3次元データ間での位置合わせを行う。ここでも、先ほどと同様に境界線L1を用いて位置合わせをする。計算方法は、ステップS3563と同様であるが、計算する対象は、データ内ではなくデータ間となる。そのため、基準データと対象データとの位置合わせを行う。これについて、図12(b)を用いて説明をする。本実施形態において、基準データはData1で、位置合わせの対象データはData0とData2とする。そのため、DepthMapに対して、第一の位置合わせ、第二の位置合わせで求めたパラメータを適用して、Data0とData2のDepthMapをそれぞれ変形させる。そして、Data0とData2共に、Data1に対して、各Bスキャンに相当する境界線L1の深さ方向位置合わせを実行する。これらの計算式は数9と同様の方法で行う。
図12(b)では、Data0〜Data2を示し、上側のDepthMapはデータ内での位置合わせ後で、下側のDepthMapはデータ間での位置合わせ後である。データ内での位置合わせ後のDepthMapでは、Data0〜Data2において網膜のZ位置が異なるため、DepthMapの明るさが異なっている。一方、データ間での位置合わせ後のDepthMapでは、Data0〜Data2において網膜のZ位置が揃っているため、DepthMapの明るさも揃っていることを表している。
これらの処理により、Z方向の大局的な位置合わせが行われる。
<ステップS3565>
ステップS3565では、第三の位置合わせ部335は、第一の位置合わせ、第二の位置合わせ、第三の位置合わせで求めたX、Y、Rotation、Zに関する変形パラメータを適用して3次元データを変形する。3次元データは断層像データ、モーションコントラストデータの両方ともに変形をする。なお、ステップS3534においてxy面内において画像を拡大して位置合わせを行っている場合、3次元データ変形時に元のサイズに相当する変形パラメータに戻す。すなわち、2倍に拡大した画像でのxy面内位置合わせパラメータの数値が1であった場合、ここでは、0.5であるとする。そして、元のサイズで3次元データの形状変形を行う。
3次元データを変換する際に、X、Y、Rotation、Zに関する変形パラメータがサブピクセルあるいはサブボクセルでの移動量である場合、3次元データを補間処理で変形させる。補間処理で生成されたデータは補間データの一例に相当する。複数の3次元データそれぞれに置いて補間データが生成された場合には、以降のステップにおいて補間データ間における位置合わせが行われることとなる。ここで、サブピクセルあるいはサブボクセルであるとは、移動量が0.5のような実数値の場合や、Rotationパラメータが0ではなく、データを回転させる場合などの事である。形状データの補間には、BicubicやLanczos(n)法などを用いる。
図13は、Data0〜Data2の三次元断層像を示しており、上側の3次元断層像は、位置合わせを行う前の3次元断層像であり、下側の3次元断層像は、第一の位置合わせ、第二の位置合わせ、第三の位置合わせを行った後に画像変形した3次元断層像である。ここで示すように、データ内かつデータ間での位置合わせ後の3次元断層像は、Data0〜Data2において網膜のXYZに関する位置合わせが成されたことを表している。
<ステップS3566>
ステップS3566では、第三の位置合わせ部335は、データ間でのZ位置合わせを行ったDepthMapにおいて、基準データと対象データとの差分検出を行う。そして、差分の絶対値が閾値以上の場所(x、y)においては、位置合わせの精度が低いと判断し重ね合わせに使用しない。そのため、対象データのMask画像に無効領域として0を設定する。
<ステップS357>
ステップS357では、第四の位置合わせ部338は、基準データと対象データ間において、断層画像内部の特徴がある部分に位置合わせのための領域を複数設定し、その領域単位で網膜の横方向(x軸)と深さ方向(z軸)の位置合わせを行う。なお、ここでの位置合わせはZ方向の局所位置合わせとして説明をする。第四の位置合わせ部338が行う局所位置合わせについて、図6のフローチャートを用いて説明をする。
<ステップS3571>
ステップS3571では、第四の位置合わせ部338は、ステップS351で検出した境界線情報を取得する。なお、本実施形態において深さ方向位置合わせに用いる境界線はL1とL3とする。
<ステップS3572>
ステップS3572では、第四の位置合わせ部338は、対象画像の特徴領域を含むように位置合わせ用の領域を設定する。これについて、図14を用いて説明をする。
図14には基準データの3次元断層像の中の断層画像と、位置合わせ対象となる3次元断層像の中の断層画像を示している。位置合わせ対象となる対象画像1には、基準断層画像の境界線情報L1とL3を基にして設定する複数の位置合わせ用の領域(ROI:Region of Interesting)の例を示す。ROIの深さ方向サイズは、L1とL3を基準として、それよりもそれぞれ数10ピクセル程度、上方向と下方向に広く設定する。なお、上下方向に数10ピクセル程度パラメータを設定する場合において、大局位置合わせの結果を用いてパラメータを補正することがある。これは、図14の対象画像1に示すように大局位置合わせにおいて、画像全体を下方向にシフトさせている場合、画像の上端部に無効領域が存在する。この場合、ROIを設定する範囲とその探索領域が無効領域を含まないように初期のROIサイズを補正する必要がある。ROIの横方向サイズは、画像を分割したサイズから設定する。分割数は、画像のサイズ(Aスキャン本数)や画像の撮影サイズ(3mm)など、撮影パラメータに合わせて設定をする。例えば、本実施形態において、Aスキャン本数を300、撮影サイズを3mmとした場合、分割数は10とする。なお、横方向のサイズとROIの設定値においても大局位置合わせの結果を用いて補正を行う。上下方向のパラメータ同様に横方向においても無効領域が存在することがあるため、ROIを設定する範囲とその探索領域が無効領域を含まないように設定する必要がある。
そして、局所位置合わせ用のROIは、それぞれ重畳するように設定する。これは、ROIを重複させずに、ROIのサイズを小さくする場合、ROIの中に特徴的な部位を含まない場所が存在することがあるためである。例えば、網膜を狭画角で撮影した場合、画像内に平坦な組織が広い範囲において写る場合がある。また一方、ROIを重複させずに、特徴を含むようにROIの範囲を広く設定すると、局所位置合わせのためのサンプリング数が少なくなり、粗い位置合わせとなってしまうためである。そのため、これらの問題を解決するために、ROIのX方向のサイズを広くして、かつそれぞれのROI同士を重畳させて設定する。なお、図14において、画像中心部にROIを描画していないが、実際には画像の左端から右端まで網膜上にROIを設定する。さらに、ROIを設定する間隔は、ROI位置合わせ時の探索範囲を考慮するのが望ましい。具体的には、ROI位置合わせ時の横方向探索範囲をXRとする場合、隣接するROIの中心座標の間隔が2XR以上となるように設定をする。これは、中心座標の間隔を2XR未満とする場合、隣接するROI同士の中心位置が入れ替わる可能性があるためである。
<ステップS3573>
ステップS3573では、第四の位置合わせ部338は、ROIを使って領域位置合わせを行う。領域位置合わせは断層画像で行う。そのため、ステップS3534で示したOCTA画像位置合わせと同様に数1を用いて画像類似度に応じた位置合わせを行う。ただし、類似度の評価値はこれに限らず、SSD(Sum of Squared Difference)や、SAD(Sum of Absolute Difference)などでも良い。あるいは、POC(Phase Only Correlation)のような方法で、位置合わせを行っても良い。
画像位置合わせは、対象画像に設定したROIが基準となる断層画像ではどこにあるかを探索する。この際、第一〜第三の位置合わせにより、3次元の断層像データの変形を行っているので、基準画像と対象画像とのおおよその位置は合っている。そのため、基準画像での位置合わせの探索範囲は、ROIの初期位置から上下左右数〜数10ピクセルを探索すればよく、最も類似する場所を位置合わせ結果とする。なお、探索領域は固定でも良いし、撮影画角、撮影部位、画像の場所(端や中心)に応じて変更しても良い。撮影画角が狭くスキャンスピードが速い場合には、1枚の画像を撮影している間の眼の移動量は小さいが、撮影画角が広くなると眼の移動量も大きくなる。そのため、撮影画角が大きい場合には探索範囲を広くしても良い。また、眼が回転する中心部分と周辺部とでは、移動量は周辺部の方が大きくなるため、周辺部の方を探索範囲を広くしてもよい。
<ステップS3574>
ステップS3574では、第四の位置合わせ部338は、ステップS3573で求めた位置合わせパラメータを補間することで各Aスキャンの移動量を算出する。これについて、図15を用いて説明をする。図15(a)は、初期設定した領域のROI1〜ROI3を表している。C1〜C3の下三角はROI1〜ROI3の中心位置を表している。また、図15(b)は、ステップS3573での位置合わせ後のROIの移動例を示している。図15(b)においては、ROI1とROI3がそれぞれ右側に移動し、ROI2が移動しない場合の例である。そのため、ROIの中心C1とC3がそれぞれC1’とC3’に移動している。各ROIの移動量からAスキャンの移動量を算出するためには、隣接するROIとROIの中心位置の移動量に基づいて算出をする。例えば、ROI1の中心位置はC1からC1’に移動しており、ROI2の中心位置はC2のままである。ここで、変形前のC1からC2の間にある各AスキャンのX方向移動量を求める式を数12〜14に示す。
数12〜14において、X1、X2は各ROIの初期中心座標、ΔX1、ΔX2は各ROIの中心座標のX方向移動量、A_beforeは変形前のAスキャンインデックスの値、A_afterはA_beforeが参照する、変形前のAスキャンインデックスの値となる。例えば、A_beforeが55、計算の結果でA_afterが56とする場合、Aスキャンインデックス55には、Aスキャンインデックス56のAスキャンデータが入る。なお、Z方向の移動量も数12〜14と同様の考え方に基づき、各ROIの中心位置の移動量から求めることが出来、上下方向に数ピクセルデータを移動する。なお、A_afterの値は実数でも整数でも良い。実数の場合は、複数のAスキャンデータから補間方法(BilinearやBicubic等)により新しいAスキャンデータを作成する。整数の場合は、対応するAスキャンインデックスのデータをそのまま参照する。なお、ここでは、X方向とZ方向の両方を局所的に位置合わせする例を示したがこれに限らない。例えば、X方向だけ、Z方向だけのどちらか一方のみを局所的に変形させるようにしても良い。なお、X方向はトラッキングで撮影時に位置合わせを行っているため、処理負荷を軽減するために、Z方向のみ局所的な位置合わせをするようにしても良い。
<ステップS3575>
ステップS3575では、第四の位置合わせ部338は、ステップS3574で求めたAスキャン移動量を基に、Aスキャン毎にX方向とZ方向に移動させる。それにより、Aスキャン単位で変形した断層画像を生成することが出来る。なお、変形させる3次元データは断層像データ、モーションコントラストデータの両方ともに変形をする。
<ステップS3576>
ステップS3576では、基準となる3次元データの全ての断層画像に対して、位置合わせの対象となるデータの全てに対して局所位置合わせを行ったか否かを判定する。全てのデータを処理していない場合には、ステップS3561に戻る。そして、全てのデータを局所位置合わせした場合には、局所位置合わせの処理が終了する。
これらの処理により局所位置合わせが行われる。次に、図3(b)の処理フローに戻って説明を行う。
<ステップS358>
ステップS358では、画像合成部339は、選択部335が選択した基準となる3次元モーションコントラストデータと、複数の3次元モーションコントラストデータ同士を加算平均する。加算平均処理では、ボクセル毎に、複数のモーションコントラストデータとMask画像の値を掛け算した値の合計値SUM_Aと、複数のMask画像の値の合計値SUM_Bをそれぞれ保持しておく。Mask画像にはアーティファクトとして除去した無効領域や、位置合わせによりデータが存在しない無効領域が0として保存されているため、Mask画像の合計値SUM_Bにはボクセル毎に異なる値が保持されている。通常、位置合わせにおいてXYZ毎、数10ボクセルの移動が想定されるため、重ね合わせに用いたデータ数がN個である場合、画像中心付近のSUM_Bのボクセル値はNであり、画像端部のSUM_Bのボクセル値はNよりも少ない値になる。そして、加算平均処理では、SUM_AをSUM_Bで割ることにより加算平均を計算したモーションコントラストデータを求めることが出来る。
これらの加算平均処理を行う前後のモーションコントラストデータを図16〜図18に示す。図16はXZ面、図17はOCTA画像、図18は3次元モーションコントラストデータをボリュームレンダリングして表示する例である。
図16(a)は加算平均前の3次元モーションコントラストデータのXZ面を示し、図16(b)は加算平均後の3次元モーションコントラストデータのXZ面を示す。図17(a)は加算平均前の3次元モーションコントラストデータから生成する網膜表層のOCTA画像、図17(b)は加算平均後の3次元モーションコントラストデータから生成する網膜表層のOCTA画像を示す。図18(a)は加算平均前の3次元モーションコントラストデータのボリュームレンダリングデータ、図17(b)は加算平均後の3次元モーションコントラストデータのボリュームレンダリングデータの例である。図16〜図18に示すように加算平均処理により、コントラストが向上した3次元モーションコントラストデータを得ることが出来る。図18のようにモーションコントラストデータのボリュームレンダリングを行うと、2次元のOCTA画像では認識しにくい血管の深さ方向における上下関係なども把握しやすくなる。
3次元モーションコントラストデータと同様に、複数の3次元断層像データに関しても加算平均処理を行う。
<ステップS359>
ステップS359では、第三の位置合わせ部337は、ステップS3561で記憶している入力の3次元モーションコントラストデータと3次元の断層像データと、ステップS3563で記憶している各Aスキャンの深度方向移動量に基づいて、基準データ(本実施形態ではData1)の網膜位置を入力時の深度位置の状態に戻す。具体的には、ステップS358で加算平均後の3次元モーションコントラストデータと3次元の断層像データを、ステップS3563で記憶している各Aスキャンの深度方向移動量を用いて元の状態に戻す。例えば、あるAスキャンにおいて下方向に5移動させている場合、ここでは上方向に5移動させる。さらに、上方向に5移動させることで、データ下部に無効領域が発生してしまう。そのため、その無効領域には、ステップS3561で記憶している入力の3次元モーションコントラストデータと3次元の断層像データにおいて、同じ座標位置のデータをそれぞれコピーする。
なお、加算平均後データの無効領域に対して入力のデータをコピーする例を示したが、これに限らない。第三の位置合わせ部337で記憶した入力の3次元データに対して、加算平均後の3次元データから元々の座標位置に対応する範囲のデータを切り出してコピーするようにしても良い。それにより、上述ではデータ移動後に無効領域へのコピーという2ステップでの処理であったが、ここでは、コピーのみの1ステップとなるため、処理負荷を減らすことが出来る。なお、この場合、第三の位置合わせ部337で記憶している入力の3次元データに対してコピーをしているため、最終的な出力データは第三の位置合わせ部337で記憶しているデータとなる。
これらの処理を行った後、図3(a)のフローチャートに処理が戻る。
<ステップS306>
ステップS306では、加算平均して作成した高画質な3次元モーションコントラストデータ、あるいは高画質な3次元断層像の結果を表示部600に表示する。
加算平均後の3次元モーションコントラストデータに対して指定された生成範囲上端と生成範囲下端との範囲に対応するモーションコントラストデータを2次元平面上に投影してOCTA画像を生成し、そのOCTA画像を表示する。あるいは、閾値処理を行った3次元モーションコントラストデータにカラーの設定をして、輝度値の3次元断層像に重畳表示する。これにより、網膜の形態とモーションコントラストが起きている場所との対応関係を容易に把握することが出来る。あるいは、加算平均処理をした3次元モーションコントラストデータをボリュームレンダリングして3次元的に表示をするようにしても良い。
<ステップS307>
ステップS307において、不図示の指示取得部は、画像処理システム100による断層画像の撮影を終了するか否かの指示を外部から取得する。この指示は、入力部700を用いて、操作者によって入力される。処理を終了する指示を取得した場合には、画像処理システム100はその処理を終了する。一方、処理を終了せずに、撮影を続ける場合には、ステップS302に処理を戻して撮影を続行する。以上によって、画像処理システム100の処理が行われる。
以上で述べた構成によれば、本実施形態では、複数のモーションコントラストデータの位置合わせをすると共に、アーティファクト領域の除去を行い、画像合成処理を行った。それにより、モーションコントラストデータにアーティファクトが存在する場合においても高画質な3次元のモーションコントラストデータを生成することが出来る。
より具体的には、本実施形態では、境界線と画像特徴量を用いて大局的な位置合わせを行うと同時に高画質データ生成のための基準と加算領域の選択を行った。深度方向においては、画像データ内、画像データ間において、網膜の深さと傾きの位置合わせを行った。さらに、位置合わせ済みの3次元断層像の中の2次元断層画像において、対応する局所的な領域を用いて領域間の類似度を計算し、各領域単位で位置合わせ処理を行った。これらの処理により、撮影中に発生するアーティファクトや、固視微動などにより局所的に網膜層が変形しているような場合においても、高画質な3次元モーションコントラストデータを生成することができる。
(変形例1)
本実施形態では、繰り返しN回撮影するデータは、同じ撮影範囲を同じスキャンパターンで撮影する例を説明したが、これに限らない。例えば、3mm×3mmの範囲を300×300(主走査×副走査)で撮影したデータと、3mm×3mmの範囲を600×600で撮影したデータとを位置合わせするようにしても良い。この時の深度方向のサイズはどちらのデータにおいても共通で、例えば1000とする。その場合には、1ボクセルあたりの物理サイズを揃えるデータ変換処理を行った後に、上述した位置合わせ処理を実行する。なお、この例では、300×300のデータを補間処理によって600×600に拡大してから処理をするようにしても良いし、600×600のデータを補間処理によって300×300に縮小してから処理をするようにしても良い。また、3mm×3mmの範囲を300×300で撮影したデータと、6mm×6mmの範囲を600×600で撮影したデータとを位置合わせする場合には、1ボクセルあたりの物理サイズは同じであるため、このままのサイズ同士で位置合わせを行う。これにより、異なる撮影範囲や異なるスキャン密度で撮影したデータ同士も加算平均することが出来る。
(変形例2)
本実施形態では、基準画像選択において、画像評価値、位置合わせパラメータ評価値、アーティファクト領域評価値を用いて選択を行う例を説明したが、これに限らない。例えば、さらに層検出の評価値を用いて基準画像選択をしても良い。
層検出の評価値は、検出部333が層検出する際に算出する。層検出時にAスキャン毎に断層像の輝度値を参照するが、検出時の断層像の輝度値の情報を基に、Aスキャン毎に検出精度の信頼度を設定して判定するようにしても良い。例えば、断層像の輝度値が低い場合などは、まばたき等があり、正しく網膜を検出できていない可能性があるため、検出の信頼度が低くなるように定義する。あるいは、輝度値だけではなく境界線の位置に基づいて定義しても良い。例えば、境界線の位置がZ方向において上端や下端に接している場合には、正しく層を検出できない可能性があるため検出の信頼度が低くなる。
上記のような層検出の信頼度を用いて、閾値以上の層検出領域を評価する。層検出領域の評価値は、数7のアーティファクト領域評価値と同様の方法で評価することが出来る。例えば、数7において、T(x,y)のアーティファクトではない領域を、閾値以上の層検出領域と置き換えればよい。これにより、断層データの深さ情報も用いるため、基準画像として、より確からしいデータを選択することが出来る。
(変形例3)
本実施形態では、データ内でのZ方向位置合わせにおいて、最初の基準データをデータの中心としたがこれに限らない。例えば、画像中心付近において境界線L1の層検出の信頼度が高い場所を基準として始めるようにしてもよい。層検出の信頼度は、変形例2で示したように、画像の明るさや検出した層境界のZ方向位置によって定義される。これにより、信頼度の高い箇所を基にして位置合わせを開始するため、位置合わせのエラーを低減することが期待できる。
(変形例4)
本実施形態において、3次元のモーションコントラストデータと3次元の断層像の両方を3次元的に形状変形し、加算平均する例を示したが、これに限らない。モーションコントラストデータだけを変形させても良い。その場合、第四の位置合わせ部338は、本実施形態においては断層像を用いて位置合わせを行っているが、モーションコントラストデータを用いて位置合わせを行う。また、画像合成部339による加算平均処理も3次元のモーションコントラストデータのみ行う。モーションコントラストデータのみを高画質にすれば良い場合は、モーションコントラストデータのみを形状変形させるため、処理負荷を軽減することが出来る。
(変形例5)
本実施形態において、ステップS3534においてOCTA画像をxy面内で拡大して位置合わせを行い、ステップS3565において、xy面内の移動パラメータを元のサイズに相当する移動パラメータに変換した。そして、元のサイズで3次元データの形状変形を行う例を示したが、これに限らない。例えば、3次元データそのものを拡大して位置合わせを行い、そのままの状態で出力をするようにしても良い。具体的には、3次元データのサイズが300×300×1000(主走査×副走査×深度)のような数値だとする。これを600×600×1000に拡大して位置合わせと加算平均を行い、そのままのサイズでデータ出力を行っても良い。あるいは、600×600×1000に拡大して位置合わせと加算平均を行った後、最後に300×300×1000のサイズに戻して出力するようにしても良い。これにより、出力される3次元の加算平均後のデータは、より高画質になることが期待される。
(変形例6)
本実施形態において、第三の位置合わせ部337は、Z方向に移動させたデータをステップS359において、入力時のZ位置に戻す処理を行ったが、これに限らない。例えば、入力時のZ位置に戻さずに第三の位置合わせ部337で行ったZ位置合わせの結果のまま出力するようにしても良い。これにより、Z方向に関する深さと傾きの位置合わせが済んだデータを表示することが出来る。なお、この場合には、ステップS3561の基準データ記憶の処理を行う必要がない。その代わり、Z方向にデータ全体を変形させているため、検出部333が検出した層境界のZ方向位置をステップS3563で記憶している移動量に基づいて補正する。
(変形例7)
本実施形態において、撮影から表示までを一連の流れで示したがこれに限らない。例えば、既に撮影が済んでいるデータを用いて高画質画像生成処理を行ってもよい。その場合、撮影に関する処理をスキップし、その代わりに撮影済みの複数の3次元のモーションコントラストデータと3次元の断層像を取得する。そして、ステップS305で高画質画像生成処理を行う。これにより、複数回撮影を行ったデータに関して、撮影時に処理をしなくても、必要な時に高画質化処理を実行することが出来る。そのため、撮影時には撮影だけに集中することが出来る。
(その他の実施形態)
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。また、ボタンなどのユーザーインターフェイスや表示のレイアウトは上記で示したものに限定されるものではない。
100 画像処理システム
200 断層画像撮影装置
300 画像処理装置
301 画像取得部
303 画像処理部
305 表示制御部
311 断層画像生成部
312 モーションコントラストデータ生成部
331 前処理部
332 画像生成部
333 検出部
334 第一の位置合わせ部
335 選択部
336 第二の位置合わせ部
337 第三の位置合わせ部
338 第四の位置合わせ部
339 画像合成部
400 眼底画像撮影装置
500 外部記憶部
600 表示部
700 入力部

Claims (8)

  1. 異なる時間に得られた被検眼の複数の3次元データを取得する取得手段と、
    深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ手段と、
    前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ手段と、
    前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成手段と、
    を備える画像処理装置。
  2. 前記作成手段によって前記複数の3次元データの複数の補間データが作成された場合には前記複数の補間データ間における深度方向の位置合わせを行い、前記複数の3次元データの少なくとも1つに対して補間データが作成されなかった場合には前記3次元データと前記補間データとの間における深度方向の位置合わせを行う第二の深度位置合わせ手段を更に備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理装置は、前記平面位置合わせ手段において、前記3次元データから生成される眼底正面画像を用いて、画像に関する評価値、位置合わせに関する評価値、画像のアーティファクトに関する評価値、層検出による評価値の少なくとも一つを用いて、前記第二の深度位置合わせ手段のための基準となる3次元データを選択する選択手段を更に備えることを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記画像処理装置は、深度方向に直交する平面における位置合わせを行う第二の平面位置合わせ手段を更に備え、前記第二の平面位置合わせ手段は、複数のデータ間での位置合わせの結果、前記3次元データにおけるアーティファクト領域を検出し、前記アーティファクト領域を記憶することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記3次元データは、輝度の3次元断層データまたは3次元モーションコントラストデータを含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記複数の3次元データは、主走査方向が同一の走査方法で得られたデータであることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 異なる時間に得られた被検眼の複数の3次元データを取得する取得工程と、
    深度方向に直交する平面における位置合わせを行う第一の平面位置合わせ工程と、
    前記3次元データ内において、副走査方向における眼底深度方向の位置合わせを行う第一の深度位置合わせ工程と、
    前記平面位置合わせ手段と前記第一の位置合わせ手段の結果に基づき複数の3次元データのうち少なくとも一方の3次元データの補間データを作成する作成工程と、
    を備える画像処理方法。
  8. 請求項7に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。
JP2017172335A 2017-09-07 2017-09-07 画像処理装置、画像処理方法及びプログラム Active JP7102112B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017172335A JP7102112B2 (ja) 2017-09-07 2017-09-07 画像処理装置、画像処理方法及びプログラム
US16/121,429 US10846892B2 (en) 2017-09-07 2018-09-04 Image processing apparatus, image processing method, and storage medium
EP18193245.0A EP3454295B1 (en) 2017-09-07 2018-09-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172335A JP7102112B2 (ja) 2017-09-07 2017-09-07 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2019047840A true JP2019047840A (ja) 2019-03-28
JP2019047840A5 JP2019047840A5 (ja) 2020-09-10
JP7102112B2 JP7102112B2 (ja) 2022-07-19

Family

ID=63528631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172335A Active JP7102112B2 (ja) 2017-09-07 2017-09-07 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10846892B2 (ja)
EP (1) EP3454295B1 (ja)
JP (1) JP7102112B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11238589B2 (en) * 2020-07-02 2022-02-01 Omniscient Neurotechnology Pty Limited Medical imaging with invalid data removal
CN113040763B (zh) * 2021-04-28 2022-05-17 浙江大学 一种基于octa的血糖测试方法与装置
CN114862850B (zh) * 2022-07-06 2022-09-20 深圳科亚医疗科技有限公司 一种血管医学图像的目标检测方法、装置及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008528954A (ja) * 2005-01-21 2008-07-31 カール ツァイス メディテック アクチエンゲゼルシャフト 光学コヒーレンス・トモグラフィ撮像における動き補正方法
JP2011156035A (ja) * 2010-01-29 2011-08-18 Canon Inc 光画像撮像装置及びその制御方法、そのプログラム、記憶媒体
US20150092195A1 (en) * 2013-09-30 2015-04-02 Carl Zeiss Meditec, Inc. Systems and methods for bidirectional functional optical coherence tomography
JP5832523B2 (ja) * 2010-04-29 2015-12-16 マサチューセッツ インスティテュート オブ テクノロジー 光コヒーレンストモグラフィのための動き補正および画像改善の方法および装置
JP2017047113A (ja) * 2015-09-04 2017-03-09 株式会社ニデック 眼科撮影装置および眼科撮影プログラム
JP2017046976A (ja) * 2015-09-02 2017-03-09 株式会社ニデック 眼科撮影装置及び眼科撮影プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5832523B2 (ja) 1976-06-23 1983-07-13 ケイディディ株式会社 自動遅延等化方法
US7884945B2 (en) * 2005-01-21 2011-02-08 Massachusetts Institute Of Technology Methods and apparatus for optical coherence tomography scanning
US9442095B2 (en) * 2011-06-15 2016-09-13 Northwestern University Optical coherence photoacoustic microscopy
JP6009935B2 (ja) * 2012-12-26 2016-10-19 株式会社トプコン 眼科装置
JP6679505B2 (ja) 2014-06-16 2020-04-15 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 光干渉断層撮影画像内のスペックルノイズの低減

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008528954A (ja) * 2005-01-21 2008-07-31 カール ツァイス メディテック アクチエンゲゼルシャフト 光学コヒーレンス・トモグラフィ撮像における動き補正方法
JP2011156035A (ja) * 2010-01-29 2011-08-18 Canon Inc 光画像撮像装置及びその制御方法、そのプログラム、記憶媒体
JP5832523B2 (ja) * 2010-04-29 2015-12-16 マサチューセッツ インスティテュート オブ テクノロジー 光コヒーレンストモグラフィのための動き補正および画像改善の方法および装置
US20150092195A1 (en) * 2013-09-30 2015-04-02 Carl Zeiss Meditec, Inc. Systems and methods for bidirectional functional optical coherence tomography
JP2017046976A (ja) * 2015-09-02 2017-03-09 株式会社ニデック 眼科撮影装置及び眼科撮影プログラム
JP2017047113A (ja) * 2015-09-04 2017-03-09 株式会社ニデック 眼科撮影装置および眼科撮影プログラム

Also Published As

Publication number Publication date
JP7102112B2 (ja) 2022-07-19
US10846892B2 (en) 2020-11-24
US20190073805A1 (en) 2019-03-07
EP3454295A1 (en) 2019-03-13
EP3454295B1 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP7250653B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020093076A (ja) 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
US10973406B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
WO2020036182A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
JP7374615B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020039851A (ja) 画像処理装置、画像処理方法、及びプログラム
US20190073780A1 (en) Image processing apparatus, alignment method and storage medium
JP7362403B2 (ja) 画像処理装置および画像処理方法
US10846892B2 (en) Image processing apparatus, image processing method, and storage medium
JP2021122559A (ja) 画像処理装置、画像処理方法及びプログラム
WO2020050308A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP7027076B2 (ja) 画像処理装置、位置合わせ方法及びプログラム
US10803568B2 (en) Image processing apparatus, alignment method and storage medium
JP2019150485A (ja) 画像処理システム、画像処理方法及びプログラム
JP7005382B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7297952B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019063446A (ja) 画像処理装置、画像処理方法及びプログラム
WO2020090439A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP7158860B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2022062620A (ja) 画像処理装置、画像処理方法及びプログラム
JP7281872B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7446730B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7086708B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2020049828A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R151 Written notification of patent or utility model registration

Ref document number: 7102112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151