JP2020146433A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2020146433A JP2020146433A JP2019133788A JP2019133788A JP2020146433A JP 2020146433 A JP2020146433 A JP 2020146433A JP 2019133788 A JP2019133788 A JP 2019133788A JP 2019133788 A JP2019133788 A JP 2019133788A JP 2020146433 A JP2020146433 A JP 2020146433A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion contrast
- dimensional
- image processing
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 160
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000012937 correction Methods 0.000 claims abstract description 137
- 238000009826 distribution Methods 0.000 claims abstract description 129
- 238000006243 chemical reaction Methods 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims description 169
- 210000004204 blood vessel Anatomy 0.000 claims description 146
- 230000008569 process Effects 0.000 claims description 121
- 238000003384 imaging method Methods 0.000 claims description 61
- 238000004364 calculation method Methods 0.000 claims description 33
- 238000012790 confirmation Methods 0.000 claims description 32
- 238000005259 measurement Methods 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000000740 bleeding effect Effects 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 2
- 239000010410 layer Substances 0.000 description 76
- 238000012014 optical coherence tomography Methods 0.000 description 51
- 230000003287 optical effect Effects 0.000 description 46
- 210000001525 retina Anatomy 0.000 description 38
- 238000009499 grossing Methods 0.000 description 23
- FCKYPQBAHLOOJQ-UHFFFAOYSA-N Cyclohexane-1,2-diaminetetraacetic acid Chemical compound OC(=O)CN(CC(O)=O)C1CCCCC1N(CC(O)=O)CC(O)=O FCKYPQBAHLOOJQ-UHFFFAOYSA-N 0.000 description 20
- 210000004126 nerve fiber Anatomy 0.000 description 16
- 238000003860 storage Methods 0.000 description 16
- 230000001629 suppression Effects 0.000 description 16
- 210000003161 choroid Anatomy 0.000 description 13
- 210000003733 optic disk Anatomy 0.000 description 13
- 230000002792 vascular Effects 0.000 description 13
- 238000010606 normalization Methods 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 11
- 239000002344 surface layer Substances 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000003745 diagnosis Methods 0.000 description 9
- 239000013307 optical fiber Substances 0.000 description 9
- 239000000835 fiber Substances 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 230000002207 retinal effect Effects 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000011946 reduction process Methods 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 210000001775 bruch membrane Anatomy 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 210000003743 erythrocyte Anatomy 0.000 description 3
- 210000000873 fovea centralis Anatomy 0.000 description 3
- 210000004379 membrane Anatomy 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 208000003098 Ganglion Cysts Diseases 0.000 description 2
- 208000005400 Synovial Cyst Diseases 0.000 description 2
- 208000034700 Vitreous opacities Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 108091008695 photoreceptors Proteins 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 210000004127 vitreous body Anatomy 0.000 description 2
- 239000011165 3D composite Substances 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 206010047642 Vitiligo Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 206010064930 age-related macular degeneration Diseases 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 208000002780 macular degeneration Diseases 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 108020004084 membrane receptors Proteins 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
前記補正係数の値の分布を用いて、前記3次元断層画像または前記3次元モーションコントラスト画像の少なくとも一部を補正する補正手段と、
前記補正された少なくとも一部の画像を生成する生成手段と、を備える。
本実施形態に係る画像処理装置は、OCTを用いて撮影した被検眼の断層画像の遅軸方向に生じた様々な輝度段差アーチファクトをロバストに抑制するために、以下の画像補正処理を行う。すなわち、断層画像の網膜表層と網膜外層間の輝度減衰率に基づいて血管候補領域の分布情報を生成する。次に、高次元平滑化断層画像の輝度値に対して、該血管候補領域に対して重み付けした低次元(速軸方向のみ)平滑化断層画像の輝度値を除算することにより、輝度補正係数値分布を生成する。さらに、断層画像の各画素に対して輝度補正係数値を乗算することで、断層画像の遅軸方向に生じた輝度段差アーチファクトをロバストに抑制する場合について説明する。ここで、遅軸方向に生じた輝度段差アーチファクトとは、例えば、固視ずれに起因してX方向(速軸方向)に延びる帯状アーチファクトのことである。なお、速軸方向は、例えば、3次元断層画像を取得する際に使用される測定光の主走査の軸方向のことである。
本実施形態の断層画像撮影装置100における測定光学系及び分光器の構成について図2(b)を用いて説明する。
本実施形態の画像処理装置101の構成について図1を用いて説明する。
操作者は入力部103を操作することにより、断層画像撮影装置100に対して指示するOCT画像(3次元断層画像)の撮影条件を設定する。
1)スキャンモードの選択
2)スキャンモードに対応する撮影パラメータ設定
の手順からなり、本実施形態では以下のように設定してOCT撮影を実行する。
1)Macula 3Dスキャンモードを選択
2)以下の撮影パラメータを設定
2−1)走査領域サイズ:10x10mm
2−2)主走査方向:水平方向
2−3)走査間隔:0.01mm
2−4)固視灯位置:中心窩と視神経乳頭との中間
2−5)同一撮影位置でのBスキャン数:1
2−6)コヒーレンスゲート位置:硝子体側
次に、操作者は入力部103を操作して撮影画面中の撮影開始ボタン(非表示)を押下することにより、上記設定した撮影条件によるOCT断層画像の撮影を開始する。
画像取得部101−01及び画像処理部101−04は、S301で取得された断層画像を再構成する。
血管取得部101−421は、異なる所定の深度範囲間の輝度統計値を比較した結果に基づいて血管候補領域の分布に関する情報を生成する。
重み付け部101−442は、S303で血管取得部101−421が生成した血管候補領域の分布に関する情報を用いて断層画像の血管候補領域における輝度値を重み付けした重み付き断層画像を生成する。次に、高次元変換部101−4411が高次元平滑化断層画像を生成し、低次元変換部101−4412が該重み付き断層画像に対して速軸方向に平滑化処理を行った低次元平滑化断層画像を生成する。さらに演算部101−443が該高次元平滑化断層画像と該低次元平滑化断層画像との演算処理により断層画像用の輝度補正係数マップを生成する。
補正部101−44は、断層画像の各画素に対してS304で算出した輝度補正係数値を乗算することにより、輝度段差補正済の断層画像を生成する。なお、輝度補正係数の適用方法は乗算に限定されるものではなく、任意の公知の演算方法を適用してよい。例えば加算、減算、除算のいずれかを適用してもよい。また、輝度補正係数値を用いて3次元断層画像の少なくとも一部が補正されれば良い。このとき、3次元断層画像の少なくとも一部には、Cスキャン画像等も含まれる。
表示制御部101−05は、S305で生成した輝度補正済の断層画像を表示部104に表示する。また、操作者が入力部103を用いて表示部104に表示された非図示のボタンもしくはショートカットメニューを選択することで、該輝度補正済の断層画像を記憶部101−02もしくは外部記憶部102に保存する。なお、画像生成手段の一例である画像処理部101−04が、補正された少なくとも一部の3次元断層画像に基づく少なくとも1つの正面画像(正面断層画像)を生成することが好ましい。このとき、表示制御部101−05は、生成された少なくとも1つの正面画像を表示部104に表示させることが好ましい。
血管取得部101−421は、S302で断層画像生成部101−11が生成した断層画像を取得する。
血管取得部101−421はS302で画像特徴取得部101−42が特定した網膜及び脈絡膜の層境界、篩状板部の前面・後面の境界データを取得する。
血管取得部101−421は断層画像撮影装置100のロールオフ特性により生じる深度方向の信号減衰を補償するための補正処理(以下、ロールオフ補正と表記)を補正部101−44に対して指示し、補正部101−44が該ロールオフ補正処理を行う。
H(z)={(BGa+2σ)/(BGa(z)+2σ(z))}/(1+RoF(z)−RoF(z0))・・・(1)
血管取得部101−421は異なる深度範囲の輝度統計値を比較するための準備として投影部101−43に網膜表層の正面断層画像と網膜外層の正面断層画像を生成するよう指示し、投影部101−43が該正面断層画像を生成する。投影法として任意の公知の投影法を用いてよいが、本実施形態では平均値投影を行うものとする。図6(b)に網膜表層の正面断層画像、同図6(c)に網膜外層の正面断層画像の例を示す。網膜表層の正面断層画像では(測定光と血管領域内の赤血球との相互作用により)血管領域における輝度値が高く、網膜外層の正面断層画像では影が生じることにより血管領域における輝度値が低くなることがわかる。
情報生成手段の一例である血管取得部101−421は、異なる深度範囲の輝度統計値を比較するために、S504で算出した2種類の正面断層画像の輝度値に基づいて輝度減衰率Arの分布を算出する。異なる深度範囲における輝度統計値の比較に関する指標として、本実施形態では、(網膜表層正面断層画像の輝度)÷(網膜外層正面断層画像の輝度)を各画素(x,y)で算出し、輝度減衰率Ar(x,y)のマップ(図6(d))を生成する。
血管取得部101−421は、S505で生成した輝度減衰率マップAr(x,y)を正規化することにより、血管領域らしさを表わす血管候補領域マップV(x,y)を生成する。
V(x,y)=(Ar(x,y)−WL)/WW
として算出し、0≦V(x,y)≦1を満たすようにする。図6(e)に血管候補領域マップV(x,y)の例を示す。血管候補領域がハイライトされていることがわかる。なお、正規化処理は上記に限らず任意の公知の正規化法を用いてよい。
補正部101−44は、S302で断層画像生成部101−11が生成した断層画像を取得する。次に、操作者が表示部104に表示されたユーザインターフェースを介して所望の投影深度範囲と該投影深度範囲に対応する正面断層画像の生成を指示する。投影部101−43は、ロールオフ補正適用後の3次元断層画像に対して指示された深度範囲で投影し、正面断層画像(図7(a))を生成する。
高次元変換部101−4411は、正面断層画像の輝度値を2次元で平滑化することにより、第1の概略値分布の一例である高次元概略値分布を算出する。ここで、2次元での平滑化処理は、第1の概略値分布を取得する際に、正面画像を2次元で変換する処理(2次元の変換処理)の一例である。本実施形態では、高次元変換部101−4411は、S511で生成した正面断層画像における各画素の輝度値を2次元で平滑化することにより、図7(c)に示すような断層画像の輝度値に関する高次元概略値分布を算出する。
重み付け部101−442は、血管取得部101−421から血管候補領域マップV(x,y)(図7(d))を取得する。
重み付け部101−442は、血管候補領域マップV(x,y)の値を用いて断層画像の該血管候補領域における輝度値を重み付けする。なお、この重み付けは、第2の概略値分布の一例である低次元概略値分布を取得する際に、3次元断層画像を取得する際に使用される測定光の速軸方向に沿って存在する血管もしくは出血領域である所定の組織と、それ以外の領域とに対して実行される異なる算出処理の一例である。また、この重み付けは、本発明において必須ではない。
I_w(x,y)=(1.0−V(x,y))*I(x,y)+V(x,y)*I_2ds(x,y)
低次元変換部101−4412は、断層画像の輝度値に関する低次元の概略値分布を算出する。具体的には、血管候補領域の輝度値を重み付けした正面断層画像の各画素の輝度値に対し、速軸方向に関する概略値分布を算出する処理(平滑化処理やモルフォロジー演算)を行う。図7(f)に本ステップで算出した低次元概略値分布の例を示す。速軸方向に走行する血管領域の輝度値が底上げされた画像に対して低次元変換(速軸方向の平滑化)処理を行うために、「速軸方向に走行する血管領域」が帯状の低輝度領域として残存する問題を回避できる。ここで、低次元での平滑化処理は、第2の概略値分布を取得する際に、正面画像を1次元で変換する処理(1次元の変換処理)の一例である。なおS512と同様に平滑化処理を周波数領域で実施する場合、リンギングを抑制するために周波数領域で所定の窓関数(Hamming窓やHanning窓等)を適用したり、Butterworthフィルタ等を適用したりすることによって高周波成分を抑制して平滑化してもよい。
演算部101−443は、断層画像の高次元概略値分布と低次元概略値分布とを演算することにより、断層画像用の輝度補正係数分布を算出する。
本実施形態に係る画像処理装置は、OCTを用いたクラスタ撮影により得られた被検眼の断層画像から生成したモーションコントラスト画像の遅軸方向に生じた様々な輝度段差アーチファクトをロバストに抑制するために、以下の画像処理を行う。すなわち、高次元平滑化モーションコントラスト画像の輝度値に対して、第1実施形態と同様の方法で取得した血管候補領域の輝度値を重み付けした後に速軸方向に平滑化したモーションコントラスト画像の輝度値を除算することで、輝度補正係数マップを生成する。さらに、断層画像に対して輝度補正係数を乗算することで、モーションコントラスト画像の遅軸方向に生じた輝度段差アーチファクトをロバストに抑制する場合について説明する。
操作者は入力部103を操作することにより、断層画像撮影装置100に対して指示するOCT画像の撮影条件を設定する。
1)スキャンモードの選択
2)スキャンモードに対応する撮影パラメータ設定
の手順からなり、本実施形態では以下のように設定してOCT撮影を実行する。
1)OCTAスキャンモードを選択
2)以下の撮影パラメータを設定
2−1)走査領域サイズ:10x10mm
2−2)主走査方向:水平方向
2−3)走査間隔:0.01mm
2−4)固視灯位置:中心窩と視神経乳頭との中間
2−5)同一撮影位置でのBスキャン数:4
2−6)コヒーレンスゲート位置:硝子体側
次に、操作者は入力部103を操作して撮影画面中の撮影開始ボタン(非表示)を押下することにより、上記設定した撮影条件による繰り返しOCTA撮影を開始する。
・左右眼の選択
・追尾処理の実行有無
について1回目のクラスタ撮影の場合と同じ設定値を用いる(変更しない)ものとする。
画像取得部101−01及び画像処理部101−04は、位置合わせ部101−41が同一クラスタに属する断層画像同士の位置合わせとクラスタ間の断層画像の位置合わせを行い、該位置合わせ済断層画像を用いてモーションコントラスト画像を生成する。
重み付け部101−442は、S1003で血管取得部101−421が生成した血管候補領域の分布に関する情報を用いてモーションコントラスト画像の血管候補領域における輝度値を重み付けした重み付きモーションコントラスト画像を生成する。次に、高次元変換部101−4411が高次元平滑化モーションコントラスト画像を生成し、低次元変換部101−4412が該重み付きモーションコントラスト画像に対して速軸方向に平滑化処理を行った低次元平滑化モーションコントラスト画像を生成する。さらに演算部101−443が該高次元平滑化モーションコントラスト画像と該低次元平滑化モーションコントラスト画像との演算処理によりモーションコントラスト画像用の輝度補正係数マップを生成する。
補正部101−44は、モーションコントラスト画像の各画素に対してS1005で算出した輝度補正係数値を乗算することにより、輝度段差補正済のモーションコントラスト画像を生成する。なお、輝度補正係数の適用方法は乗算に限定されるものではなく、任意の公知の演算方法を適用してよい。また、輝度補正係数値を用いて3次元モーションコントラスト画像の少なくとも一部が補正されれば良い。このとき、3次元モーションコントラスト画像の少なくとも一部には、Cスキャンのモーションコントラスト画像等も含まれる。
表示制御部101−05は、S1006で生成した輝度補正済のモーションコントラスト画像を表示部104に表示する。また操作者が入力部103を用いて表示部104に表示された非図示のボタンもしくはショートカットメニューを選択することで、該輝度補正済モーションコントラスト画像を記憶部101−02もしくは外部記憶部102に保存する。なお、画像生成手段の一例である画像処理部101−04が、補正された少なくとも一部の3次元モーションコントラスト画像に基づく少なくとも1つの正面画像(正面モーションコントラスト画像)を生成することが好ましい。このとき、表示制御部101−05は、生成された少なくとも1つの正面画像を表示部104に表示させることが好ましい。
補正部101−44は、S1004でモーションコントラストデータ生成部101−12及び合成部101−45が生成したモーションコントラスト画像及び合成モーションコントラスト画像を取得する。次に、操作者が表示部104に表示されたユーザインターフェースを介して所望の投影深度範囲と該投影深度範囲に対応する正面モーションコントラスト画像の生成を指示する。投影部101−43は、指示された深度範囲で投影し、正面モーションコントラスト画像(図11(a))を生成する。なお、本実施形態では、3次元モーションコントラスト画像の投影処理として、眼底正面に対応する面内の各画素に対応する深度方向のモーションコントラストデータの最大値を該画素の画素値としている。しかしながら投影処理はこのような最大値投影に限られず、任意の公知の投影方法を用いてよい。例えば、各画素に対応する深度方向のモーションコントラストデータの中央値や最大値、最頻値等を画素値としてもよい。
高次元変換部101−4411は、正面モーションコントラスト画像の輝度値を2次元で平滑化することにより、高次元概略値分布を算出する。本実施形態では、高次元変換部101−4411は、S511で生成した正面モーションコントラスト画像における各画素の輝度値を2次元で平滑化することにより、図11(c)に示すようなモーションコントラスト画像の輝度値に関する高次元概略値分布を算出する。
重み付け部101−442は、血管取得部101−421から血管候補領域マップV(x,y)(図7(d))を取得する。
重み付け部101−442は、血管候補領域マップV(x,y)の値を用いてモーションコントラスト画像の該血管候補領域における輝度値を重み付けする。なお、この重み付けは、第2の概略値分布の一例である低次元概略値分布を取得する際に、3次元モーションコントラスト画像を取得する際に使用される測定光の速軸方向に沿って存在する血管もしくは出血領域である所定の組織と、それ以外の領域とに対して実行される異なる算出処理の一例である。また、この重み付けは、本発明において必須ではない。
M_w(x,y)=(1.0−V(x,y))*M(x,y)+V(x,y)*M_2ds(x,y)
低次元変換部101−4412は、モーションコントラスト画像の輝度値に関する低次元の概略値分布を算出する。具体的には、血管候補領域の輝度値を重み付けした正面モーションコントラスト画像の各画素の輝度値に対し、速軸方向に関する概略値分布を算出する処理(平滑化処理やモルフォロジー演算)を行う。図11(f)に本ステップで算出した低次元概略値分布の例を示す。速軸方向に走行する血管領域の輝度値が抑制された画像に対して、低次元変換(速軸方向の平滑化)処理を行うために、「速軸方向に走行する血管領域」が帯状の高輝度領域として残存する問題を回避できる。
演算部101−443は、モーションコントラスト画像の高次元概略値分布と、モーションコントラスト画像の低次元概略値分布とを演算することにより、モーションコントラスト画像用の輝度補正係数分布を算出する。
本実施形態に係る画像処理装置は、撮影確認画面において、上述した輝度段差アーチファクト抑制処理等の各種のアーチファクト低減処理が適用されていない正面画像(正面断層画像または正面モーションコントラスト画像)等の医用画像を表示し、一方、レポート画面では、アーチファクト低減処理が適用された医用画像を表示するものである。これにより、操作者は、例えば、撮影後の表示画面(撮影確認画面)においては、撮影成否(あるいは撮影失敗の程度)を容易に把握するために、各種処理ができるだけ施されていない状態の医用画像を確認することができる。また、操作者は、例えば、他の表示画面(レポート画面)においては、解析結果等を把握するために、解析に対しては不要な各種のアーチファクトができるだけ低減された医用画像を確認することができる。このため、操作者が目的に適した医用画像を確認可能とすることができる。
重み付け部101−442は、第2実施形態のS1005と同様の処理を行うことによりモーションコントラスト画像用の輝度補正係数マップを生成する。なお、本実施形態では重み付け部101−442が第1実施形態のS304と同様の処理を行うことにより、断層画像用の輝度補正係数マップも生成するものとする。
補正部101−44は、モーションコントラスト画像の各画素に対してS1005で算出したモーションコントラスト画像用の輝度補正係数値を乗算することにより、輝度段差補正済のモーションコントラスト画像を生成する。また、本実施形態では補正部101−44が断層画像の各画素に対してS1005で算出した断層画像用の輝度補正係数値を乗算することにより、輝度段差補正済の断層画像も生成しておく。
S1002で生成した断層画像やS1004で生成したモーションコントラスト画像、補正部101−44が生成した輝度段差補正済のモーションコントラスト画像及び断層画像に基づき、表示制御部101−05が表示部104に撮影確認画面(図14)を表示する。本撮影確認画面においては、左上に眼底画像1401、左下に正面断層画像1402、該正面断層画像の各走査位置(1402a・1402b・1402c)に対応するBスキャン断層画像(1406a・1406b・1406c)を表示する。また取得した断層画像の画質指標値1405や、取得した3次元の断層画像の各スライスを自動で連続表示するための指示ボタン1404も備える。操作者は、該撮影確認画面に表示された断層画像やモーションコントラスト画像に基づき、撮影した断層画像の保存可否に関する指示(OKボタン1407もしくはNGボタン1408の押下)や繰り返し撮影の継続に関する指示(Repeatボタン1409の押下)を行う。受付部が受け付けた該指示に基づいて画像処理装置が対応するデータ保存・撮影継続処理を行う。さらに、第2実施形態のS1007と同様にReportボタン1312を押下することで、表示制御部101−05がレポート画面1300を表示部104に表示する。
上述した様々な実施形態における撮影確認画面において、表示制御部が、正面画像(正面断層画像または正面モーションコントラスト画像)における各種アーチファクト(例えば、輝度段差アーチファクト)の状態の判定結果(分類結果)を、正面画像と一緒に表示させても良い。ここで、アーチファクトの状態とは、例えば、アーチファクトの有無である。このとき、例えば、少なくとも1つの被検眼の複数の正面画像に対して各種アーチファクトの状態(例えば、有無)のラベルを付けておき、そのラベルを付けた複数の正面画像による機械学習により得た学習済モデルを用いて、入力された正面画像において各種アーチファクトの状態(例えば、各種アーチファクトが存在すること)が撮影確認画面に表示される。すなわち、上述した学習済モデルを用いて得たアーチファクトの状態の判定結果を撮影確認画面に表示させることができる。これにより、例えば、学習済モデルを用いることにより、精度良く判定しつつ、処理時間を短縮することができる。このため、検者は、撮影直後であっても精度の良い判定結果を確認することができる。また、例えば、撮影直後であっても再撮影の要否等の検者による判断効率を向上させることができる。このため、診断の精度や効率を向上させることができる。なお、各種アーチファクトの状態のラベルは、ユーザインターフェースを介して操作者がマニュアル入力しても良いし、各種アーチファクトを自動または半自動で判定するルールベースの解析による実行結果であっても良い。また、アーチファクトの状態の判定結果が表示される表示画面は、撮影確認画面に限らず、例えば、レポート画面、経過観察用の表示画面、撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されても良い。
上述した様々な実施形態及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した学習済モデルが用いられるように構成されても良い。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されても良い。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等である。
上述した様々な実施形態及び変形例においては、学習済モデルが追加学習中である場合、追加学習中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習中の学習済モデルに対する医用画像の入力を禁止することが良い。また、追加学習中の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意しても良い。このとき、追加学習中には、予備の学習済モデルに対して医用画像の入力が実行できるようにすることが良い。そして、追加学習が完了した後に、追加学習後の学習済モデルを評価し、問題なければ、予備の学習済モデルから追加学習後の学習済モデルに置き換えれば良い。また、問題があれば、予備の学習済モデルが用いられるようにしても良い。
上述した様々な実施形態及び変形例において、検者からの指示は、手動による指示(例えば、ユーザインターフェース等を用いた指示)以外にも、音声等による指示であっても良い。このとき、例えば、機械学習により得た音声認識エンジンを含む機械学習エンジンが用いられても良い。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力による指示であっても良い。このとき、例えば、機械学習により得た文字認識エンジンを含む機械学習エンジンが用いられても良い。また、検者からの指示は、ジェスチャーによる指示であっても良い。このとき、機械学習により得たジェスチャー認識エンジンを含む機械学習エンジンが用いられても良い。ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも1層には、例えば、再帰型ニューラルネットワーク(RNN:Recurrernt Neural Network)を用いることができる。
上述した様々な実施形態及び変形例においては、被検査物は被検眼に限らず、被検者の所定部位であればどこでも良い。また、被検者の所定部位の正面画像は、医用画像であれば、何でも良い。このとき、処理される医用画像は、被検者の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。
本実施形態に係る画像処理装置は、広画角な断層画像もしくはモーションコントラスト画像の遅軸方向に生じた輝度段差アーチファクトをロバストに抑制するために、異なる深度範囲で算出した輝度統計値を、該輝度統計値の面内方向の分布に関する局所代表値で正規化した値に基づき血管候補領域の分布情報を生成する。すなわち、本実施形態に係る画像処理装置は、3次元断層画像における複数の深度範囲に対応する複数の分布情報を比較して得た分布情報と、複数の分布情報を比較して得た分布情報を局所代表値で正規化して(例えば、平滑化処理を行って)得た分布情報とを比較することにより、所定の領域(血管候補領域)に関する分布情報を生成することができる。なお、最終的に分布情報が生成されていればよく、生成の途中においては分布情報として例えば画像(マップ)を生成する必要はない。次に、高次元平滑化断層画像もしくはモーションコントラスト画像の輝度値に対して、該血管候補領域に対して重み付けした低次元(速軸方向のみ)平滑化断層画像もしくはモーションコントラスト画像の輝度値を除算することにより、輝度補正係数値分布を生成する。さらに、断層画像もしくはモーションコントラスト画像の各画素に対して輝度補正係数値を乗算することで、広画角な断層画像もしくはモーションコントラスト画像の遅軸方向に生じた輝度段差アーチファクトをロバストに抑制する場合について説明する。
血管取得部101−421は、異なる所定の深度範囲間の輝度統計値を比較した結果に基づいて血管候補領域の分布に関する情報を生成する。本実施形態では「血管が存在する可能性の高い深度範囲(網膜表層)」と「影による輝度低下が最も顕著に現れる深度範囲(網膜外層)」における輝度の相違度(差もしくは比率)に基づいて血管候補領域を特定する。
情報生成手段の一例である血管取得部101−421は、異なる深度範囲の輝度統計値を比較するために、S504で算出した2種類の正面断層画像(図16(a)及び図16(b))の輝度値に基づいて輝度減衰率Arの分布を算出する。異なる深度範囲における輝度統計値の比較に関する指標として、本実施形態では、(網膜表層正面断層画像の輝度)―(網膜外層正面断層画像の輝度)を各画素(x,y)で算出し、輝度減衰率Ar(x,y)のマップ(図16(c))を生成する。
血管取得部101−421は、S505で生成した輝度減衰率マップAr(x,y)を正規化することにより、血管領域らしさを表わす血管候補領域マップV(x,y)を生成する。
V(x,y)=(Ar(x,y)−WL)/WW
として算出し、0≦V(x,y)≦1を満たすようにする。図16(e)に血管候補領域マップV(x,y)の例を示す。血管候補領域が部位によらず安定して描出されていることがわかる。なお、正規化処理は上記に限らず任意の公知の正規化法を用いてよい。
重み付け部101−442は、S1003で血管取得部101−421が生成した血管候補領域の分布に関する情報(図17(d))を用いて広画角モーションコントラスト画像(図17(a))の血管候補領域における輝度値を重み付けした重み付きモーションコントラスト画像(図17(e))を生成する。次に、高次元変換部101−4411が高次元平滑化モーションコントラスト画像(図17(c))を生成し、低次元変換部101−4412が該重み付きモーションコントラスト画像に対して速軸方向に平滑化処理を行った低次元平滑化モーションコントラスト画像(図17(f))を生成する。さらに演算部101−443が該高次元平滑化モーションコントラスト画像と該低次元平滑化モーションコントラスト画像との演算処理によりモーションコントラスト画像用の輝度補正係数マップ(図17(g))を生成する。
重み付け部101−442は、血管候補領域マップV(x,y)の値を用いてモーションコントラスト画像の該血管候補領域における輝度値を重み付けする。なお、この重み付けは、第2の概略値分布の一例である低次元概略値分布を取得する際に、3次元モーションコントラスト画像を取得する際に使用される測定光の速軸方向に沿って存在する血管もしくは出血領域である所定の組織と、それ以外の領域とに対して実行される異なる算出処理の一例である。また、この重み付けは、本発明において必須ではない。
M_w(x,y)=(1.0−V(x,y))*M(x,y)+V(x,y)*M_2ds(x,y)
上記の各実施形態では、本発明を画像処理装置101として実現したが、本発明の実施形態は画像処理装置101のみに限定されるものではない。例えば、本発明はシステム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることができる。また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した様々な実施形態及び変形例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (31)
- 被検眼の3次元断層画像または3次元モーションコントラスト画像に基づく少なくとも1つの正面画像を2次元の変換処理を実行して得た第1の概略値分布と、前記少なくとも1つの正面画像を1次元の変換処理を実行して得た第2の概略値分布との演算により、補正係数の値の分布を取得する取得手段と、
前記補正係数の値の分布を用いて、前記3次元断層画像または前記3次元モーションコントラスト画像の少なくとも一部を補正する補正手段と、
前記補正された少なくとも一部の画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。 - 前記1次元の変換処理は、前記3次元断層画像または前記3次元モーションコントラスト画像を取得する際に使用される測定光の速軸方向における変換処理であることを特徴とする請求項1に記載の画像処理装置。
- 前記演算は、前記第1の概略値分布を前記第2の概略値分布で除算または減算する演算であることを特徴とする請求項1または2に記載の画像処理装置。
- 前記生成手段は、前記補正された少なくとも一部の前記3次元断層画像または前記3次元モーションコントラスト画像に基づく少なくとも1つの正面画像を生成し、
前記正面画像は、前記3次元断層画像から生成された正面断層画像と前記3次元モーションコントラスト画像から生成された正面モーションコントラスト画像とのいずれかであることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 - 前記取得手段は、前記被検眼の所定の層境界に基づいて指定される複数の深度範囲の各々に対して補正係数の値の分布を取得し、
前記補正手段は、前記複数の深度範囲の各々に対して取得した補正係数の値の分布を用いて、前記3次元断層画像または前記3次元モーションコントラスト画像の少なくとも一部を補正することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 - 前記取得手段は、前記3次元断層画像または前記3次元モーションコントラスト画像を取得する際に使用される測定光の速軸方向に沿って存在する血管に関する領域もしくは出血領域である所定の領域と、それ以外の領域とで異なる算出処理により、前記第2の概略値分布を取得することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
- 前記取得手段は、前記少なくとも1つの正面画像における前記所定の領域の輝度値を、前記所定の領域に対して遅軸方向の側の近傍領域の輝度値に近づける算出処理を行うことにより、前記第2の概略値分布を取得することを特徴とする請求項6に記載の画像処理装置。
- 前記取得手段は、前記第2の概略値分布を取得するために前記少なくとも1つの正面画像における前記所定の領域の輝度値を、前記所定の領域に対して遅軸方向の側の近傍領域の輝度値に近づける算出処理を行う場合に、前記少なくとも1つの正面画像が正面断層画像である場合の方が、前記少なくとも1つの正面画像がモーションコントラスト正面画像である場合よりも、前記所定の領域の輝度値を、前記所定の領域に対して遅軸方向の側の近傍領域の輝度値により近づける重みが小さくなるように前記算出処理を行うことを特徴とする請求項7に記載の画像処理装置。
- 前記生成手段は、前記被検眼の深度方向に交差する面内方向の分布情報であって、前記3次元断層画像における複数の深度範囲に対応する複数の分布情報を比較することにより、前記所定の領域に関する分布情報を生成し、
前記取得手段は、前記生成された分布情報に基づいて、前記所定の領域と、それ以外の領域とで異なる算出処理により、前記第2の概略値分布を取得することを特徴とする請求項6乃至8のいずれか1項に記載の画像処理装置。 - 被検眼の3次元断層画像を取得する取得手段と、
前記被検眼の深度方向に交差する面内方向の分布情報であって、前記3次元断層画像における複数の深度範囲に対応する複数の分布情報を比較することにより、前記深度方向に沿って発生する影の原因となる前記被検眼における所定の領域に関する分布情報を生成する生成手段と、
を備えることを特徴とする画像処理装置。 - 前記生成手段は、前記複数の分布情報を比較して得た分布情報と、前記複数の分布情報を比較して得た分布情報を局所代表値で正規化して得た分布情報とを比較することにより、前記所定の領域に関する分布情報を生成することを特徴とする請求項9または10に記載の画像処理装置。
- 前記生成手段は、前記複数の分布情報を比較して得た分布情報と、前記被検眼の所定の層の層厚に関する分布情報とを比較することにより、前記所定の領域に関する分布情報を生成することを特徴とする請求項9または10に記載の画像処理装置。
- 前記複数の分布情報は、前記3次元断層画像における異なる2つ深度範囲それぞれで算出した輝度値を前記深度方向に平均することで得た2つの平均値であり、
前記生成手段は、前記2つの平均値を比較することにより、前記所定の領域に関する分布情報を生成することを特徴とする請求項9乃至12のいずれか1項に記載の画像処理装置。 - 前記所定の領域に関する分布情報は、前記被検眼の血管に関する領域の分布情報であることを特徴とする請求項9乃至13のいずれか1項に記載の画像処理装置。
- 前記生成された分布情報を表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項9乃至14のいずれか1項に記載の画像処理装置。
- 被検者の所定部位の医用画像を取得する取得手段と、
前記取得された医用画像におけるアーチファクトが低減された医用画像を生成する生成手段と、
前記取得された医用画像を表示手段に表示される撮影確認画面に表示させ、前記表示手段に表示される表示画面が前記撮影確認画面からレポート画面に切り換わった後、前記生成された医用画像を前記レポート画面に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。 - 被検者の所定部位の医用画像を取得する取得手段と、
前記取得された医用画像におけるアーチファクトが低減された医用画像を生成する生成手段と、
前記取得された医用画像を表示手段に表示される第1の表示画面に表示させ、前記表示手段に表示される表示画面が前記第1の表示画面から第2の表示画面に切り換わった後、前記生成された医用画像を前記表示手段に表示される第2の表示画面に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。 - 前記取得された医用画像におけるアーチファクトの低減の要否に関する指定を受け付ける受付手段を更に備え、
前記表示制御手段は、前記要否に関する指定に応じて、前記表示手段に表示される医用画像として、前記取得された医用画像と前記生成された医用画像とを切り換える表示制御を実行することを特徴とする請求項16または17に記載の画像処理装置。 - 前記所定部位の3次元断層画像または3次元モーションコントラスト画像に基づく少なくとも1つの正面画像を2次元の変換処理を実行して得た第1の概略値分布と、前記少なくとも1つの正面画像を1次元の変換処理を実行して得た第2の概略値分布との演算により、補正係数の値の分布を取得する第2の取得手段と、
前記補正係数の値の分布を用いて、前記3次元断層画像または前記3次元モーションコントラスト画像の少なくとも一部を補正する補正手段と、を更に備え、
前記生成手段は、前記補正された少なくとも一部の前記3次元断層画像または前記3次元モーションコントラスト画像に基づく少なくとも1つの正面画像を生成することを特徴とする請求項16乃至18のいずれか1項に記載の画像処理装置。 - 複数の医用画像を学習して得た学習済モデルを用いて、前記取得された医用画像におけるアーチファクトの状態を判定する判定手段を更に備え、
前記表示制御手段は、前記取得された医用画像と前記判定手段による判定結果とを前記表示手段に表示させることを特徴とする請求項16乃至19のいずれか1項に記載の画像処理装置。 - 被検者の所定部位の医用画像を取得する取得手段と、
複数の医用画像を学習して得た学習済モデルを用いて、前記取得された医用画像におけるアーチファクトの状態を判定する判定手段と、
前記取得された医用画像と前記判定手段による判定結果とを表示手段に表示される表示制御手段と、
を備えることを特徴とする画像処理装置。 - 前記判定手段は、前記取得された医用画像を、前記アーチファクトの程度に応じた複数の段階のいずれかに分類することにより、前記アーチファクトの状態を判定することを特徴とする請求項20または21に記載の画像処理装置。
- 前記判定手段は、前記取得された医用画像を、前記アーチファクトの複数の種類のいずれかに分類することにより、前記アーチファクトの状態を判定することを特徴とする請求項20乃至22のいずれか1項に記載の画像処理装置。
- 前記学習済モデルは、互いに異なる種類である複数の医用画像をセットとする学習データにより学習して得られることを特徴とする請求項20乃至23のいずれか1項に記載の画像処理装置。
- 前記学習済モデルは、医用画像と解析結果とをセットとする学習データにより学習して得られることを特徴とする請求項20乃至24のいずれか1項に記載の画像処理装置。
- 被検眼の3次元断層画像または3次元モーションコントラスト画像に基づく少なくとも1つの正面画像を2次元の変換処理を実行して得た第1の概略値分布と、前記少なくとも1つの正面画像を1次元の変換処理を実行して得た第2の概略値分布との演算により、補正係数の値の分布を取得する工程と、
前記補正係数の値の分布を用いて、前記3次元断層画像または前記3次元モーションコントラスト画像の少なくとも一部を補正する工程と、
前記補正された少なくとも一部の画像を生成する工程と、
を有することを特徴とする画像処理方法。 - 被検眼の3次元断層画像を取得する工程と、
前記被検眼の深度方向に交差する面内方向の分布情報であって、前記3次元断層画像における複数の深度範囲に対応する複数の分布情報を比較することにより、前記深度方向に沿って発生する影の原因となる前記被検眼における所定の領域に関する分布情報を生成する工程と、
を有することを特徴とする画像処理方法。 - 被検者の所定部位の医用画像を取得する工程と、
前記取得された医用画像におけるアーチファクトが低減された医用画像を生成する工程と、
前記取得された医用画像を表示手段に表示される撮影確認画面に表示させ、前記表示手段に表示される表示画面が前記撮影確認画面からレポート画面に切り換わった後、前記生成された医用画像を前記レポート画面に表示させる工程と、
を有することを特徴とする画像処理方法。 - 被検者の所定部位の医用画像を取得する工程と、
前記取得された医用画像におけるアーチファクトが低減された医用画像を生成する工程と、
前記取得された医用画像を表示手段に表示される第1の表示画面に表示させ、前記表示手段に表示される表示画面が前記第1の表示画面から第2の表示画面に切り換わった後、前記生成された医用画像を前記表示手段に表示される第2の表示画面に表示させる工程と、
を有することを特徴とする画像処理方法。 - 被検者の所定部位の医用画像を取得する工程と、
複数の医用画像を学習して得た学習済モデルを用いて、前記取得された医用画像におけるアーチファクトの状態を判定する工程と、
前記取得された医用画像と前記判定する工程による判定結果とを表示手段に表示される工程と、
を有することを特徴とする画像処理方法。 - 請求項26乃至30のいずれか1項に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/034685 WO2020054524A1 (ja) | 2018-09-13 | 2019-09-04 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018171736 | 2018-09-13 | ||
JP2018171736 | 2018-09-13 | ||
JP2019044264 | 2019-03-11 | ||
JP2019044264 | 2019-03-11 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020146433A true JP2020146433A (ja) | 2020-09-17 |
JP2020146433A5 JP2020146433A5 (ja) | 2022-04-07 |
JP7446730B2 JP7446730B2 (ja) | 2024-03-11 |
Family
ID=72431219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133788A Active JP7446730B2 (ja) | 2018-09-13 | 2019-07-19 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7446730B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7535564B2 (ja) | 2022-03-28 | 2024-08-16 | オプトス ピーエルシー | Octaデータ処理の方法、コンピュータプログラム、及び装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010110656A (ja) * | 2010-02-15 | 2010-05-20 | Canon Inc | 断層像撮影装置、断層像撮影方法法、プログラム、及びプログラム記憶媒体 |
JP2012161427A (ja) * | 2011-02-04 | 2012-08-30 | Nidek Co Ltd | 眼科撮影装置 |
WO2017143300A1 (en) * | 2016-02-19 | 2017-08-24 | Optovue, Inc. | Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques |
JP2018015189A (ja) * | 2016-07-27 | 2018-02-01 | 株式会社トプコン | 眼科画像処理装置及び眼科撮影装置 |
JP2018138159A (ja) * | 2017-01-11 | 2018-09-06 | キヤノン株式会社 | 画像処理装置、光干渉断層撮像装置、画像処理方法、及びプログラム |
-
2019
- 2019-07-19 JP JP2019133788A patent/JP7446730B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010110656A (ja) * | 2010-02-15 | 2010-05-20 | Canon Inc | 断層像撮影装置、断層像撮影方法法、プログラム、及びプログラム記憶媒体 |
JP2012161427A (ja) * | 2011-02-04 | 2012-08-30 | Nidek Co Ltd | 眼科撮影装置 |
WO2017143300A1 (en) * | 2016-02-19 | 2017-08-24 | Optovue, Inc. | Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques |
JP2018015189A (ja) * | 2016-07-27 | 2018-02-01 | 株式会社トプコン | 眼科画像処理装置及び眼科撮影装置 |
JP2018138159A (ja) * | 2017-01-11 | 2018-09-06 | キヤノン株式会社 | 画像処理装置、光干渉断層撮像装置、画像処理方法、及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7535564B2 (ja) | 2022-03-28 | 2024-08-16 | オプトス ピーエルシー | Octaデータ処理の方法、コンピュータプログラム、及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7446730B2 (ja) | 2024-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7250653B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7341874B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2020036182A1 (ja) | 医用画像処理装置、医用画像処理方法及びプログラム | |
KR20210041046A (ko) | 의료용 화상 처리 장치, 의료용 화상 처리 방법, 컴퓨터 판독가능 매체, 및 학습 완료 모델 | |
JP7305401B2 (ja) | 画像処理装置、画像処理装置の作動方法、及びプログラム | |
US9615734B2 (en) | Ophthalmologic apparatus | |
WO2021029231A1 (ja) | 眼科装置、眼科装置の制御方法、及びプログラム | |
JP7362403B2 (ja) | 画像処理装置および画像処理方法 | |
WO2020183791A1 (ja) | 画像処理装置および画像処理方法 | |
US10165939B2 (en) | Ophthalmologic apparatus and ophthalmologic apparatus control method | |
JP7374615B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020075719A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7344847B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7009265B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2022155690A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7194136B2 (ja) | 眼科装置、眼科装置の制御方法、及びプログラム | |
JP2021164535A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2020050308A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2020054524A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7387812B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7246862B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP7446730B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7262929B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2021069667A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7488934B2 (ja) | 画像処理装置、画像処理装置の作動方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220330 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7446730 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |