JP2024004792A - 画像処理方法、画像処理装置、プログラム、及び記録媒体 - Google Patents

画像処理方法、画像処理装置、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP2024004792A
JP2024004792A JP2022104629A JP2022104629A JP2024004792A JP 2024004792 A JP2024004792 A JP 2024004792A JP 2022104629 A JP2022104629 A JP 2022104629A JP 2022104629 A JP2022104629 A JP 2022104629A JP 2024004792 A JP2024004792 A JP 2024004792A
Authority
JP
Japan
Prior art keywords
image
oct
machine learning
birefringence
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022104629A
Other languages
English (en)
Inventor
神之介 東
Shinnosuke Azuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2022104629A priority Critical patent/JP2024004792A/ja
Publication of JP2024004792A publication Critical patent/JP2024004792A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】偏光分離検出機能を持たないOCTモダリティで取得された画像から、複屈折由来アーティファクトが低減された画像を生成するための新たな技術を提供する。【解決手段】実施形態の1つの態様に係る装置の画像取得部は、サンプルのOCT画像を取得する。処理部は、物体の複屈折情報を含む第1の画像と当該物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習で構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像中の複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルを用いて処理を実行する。更に、処理部は、画像取得部により取得されたサンプルのOCT画像を機械学習モデルに入力し、このOCT画像の入力に基づき機械学習モデルから出力されたデノイズ画像を記憶又は提供する。【選択図】図7

Description

本開示は、光コヒーレンストモグラフィ(OCT)画像を処理するための方法、装置、プログラム、及び記録媒体に関する。
近年、レーザー光源等からの光ビームを用いて被測定物体(サンプル)の表面形態や内部形態を表す画像を生成するためのOCTが注目を集めている。OCTは、X線CT(Computed Tomography)のような生体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。例えば眼科分野においては、眼底や角膜等の画像を生成するための装置が実用化されている。
OCT画像には様々なアーティファクトが生じる。その1つとして、サンプルの複屈折性に由来するアーティファクトがある。複屈折性は、光の偏光及び伝搬方向に依存する屈折率を持つ物質の光学特性である。複屈折性を持つサンプルを透過する光線は、その偏光の状態によって2つの光線に分けられる。複屈折に由来するアーティファクト(複屈折由来アーティファクト)は、偏光を検出可能なOCTモダリティで生成されたOCT画像だけでなく、通常のOCT強度画像にも生じる。なお、偏光を検出可能なOCTモダリティ(偏光感受型OCT)には、例えば、特許文献1~4に記載されたものがある。
複屈折由来アーティファクトを除去するための技術として、OCT信号を2つの偏光成分に分離して検出し、検出された2つの偏光成分信号の強度を合成してOCT強度信号を生成する手法が知られている。この手法は、例えば、非特許文献1に記載されているように、偏光ビームスプリッターと2つの光検出器とを組み合わせた検出モジュール(偏光分離検出機能)を用いて実現される。
特許第4344829号明細書 特許第6256879号明細書 特許第6346410号明細書 特許第6579718号明細書
Shuichi Makita、Toshihiro Mino、Tastuo Yamaguchi、Mashiro Miura、Shinnosuke Azuma、 and Yoshiaki Yasuno、 "Clinical prototype of pigment and flow imaging optical coherence tomography for posterior eye investigation"、 Biomedical Optics Express、 Vol. 9、 Issue 9、 pp. 4372-4389 (2018)
本開示の目的の1つは、偏光分離検出機能を持たないOCTモダリティで取得された画像から、複屈折由来アーティファクトが低減された画像を生成するための新たな技術を提供することにある。
実施形態の1つの態様は、光コヒーレンストモグラフィ(OCT)画像を処理する方法であって、物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルを準備し、サンプルのOCT画像を取得し、前記サンプルの前記OCT画像を前記機械学習モデルに入力し、前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する。
実施形態の別の態様は、光コヒーレンストモグラフィ(OCT)画像を処理する装置であって、サンプルのOCT画像を取得する画像取得部と、物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルを用いて処理を実行する処理部とを含み、前記処理部は、前記画像取得部により取得された前記サンプルの前記OCT画像を前記機械学習モデルに入力し、前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する。
実施形態の更に別の態様は、光コヒーレンストモグラフィ(OCT)画像を処理するためのプログラムであって、コンピュータに、サンプルのOCT画像を取得する工程と、物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルに、前記サンプルの前記OCT画像を入力する工程と、前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する工程とを実行させる。
実施形態の更に別の態様は、光コヒーレンストモグラフィ(OCT)画像を処理するためのプログラムが記録された、コンピュータ可読な非一時的記録媒体であって、
前記プログラムは、コンピュータに、サンプルのOCT画像を取得する工程と、物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルに、前記サンプルの前記OCT画像を入力する工程と、前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する工程とを実行させる。
実施形態によれば、偏光分離検出機能を持たないOCTモダリティで取得された画像から複屈折由来アーティファクトが低減された画像を生成するための新たな技術を提供することが可能である。
実施形態の例示的な態様に係る画像処理装置(眼科装置)の構成の一例を表す概略図である。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の構成の一例を表す概略図である。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の構成の一例を表す概略図である。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の構成の一例を表す概略図である。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の構成の一例を表す概略図である。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の動作の一例を表すフローチャートである。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の動作の一例を表すフローチャートである。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の動作の一例を表すフローチャートである。 実施形態の例示的な態様に係る画像処理装置(眼科装置)の動作の一例を表すフローチャートである。
実施形態の幾つかの例示的な態様に係る画像処理方法、画像処理装置、プログラム、及び記録媒体について、図面を参照しながら詳細に説明する。本開示では、特に眼科分野への幾つかの応用例を説明するが、実施形態はそれらに限定されるものではなく、OCTを利用可能な分野であって複屈折由来アーティファクトが生じる又はその可能性のある分野への応用が可能である。
本開示において引用されている文献に記載された任意の事項や、他の任意の公知技術に関する事項を、実施形態に組み合わせることが可能である。また、本開示においては、特に言及しない限り、「画像データ」とそれに基づく可視化情報である「画像」とは区別されない。
実施形態に係る画像処理装置は、サンプルのOCT画像を取得する機能を有する。この機能を実現するために採用可能な構成は任意であってよい。幾つかの例示的な態様において、画像処理装置は、サンプルのOCT画像を取得するために、サンプルにOCTスキャンを適用してデータを収集し、収集されたデータを処理してOCT画像を構築するように構成される。このOCTスキャンに用いられるOCTの種類(OCTモダリティ)は任意であってよく、例えば、フーリエドメインOCT(スウェプトソースOCT、又は、スペクトラルドメインOCT)でもタイムドメインOCTでもよい。
また、幾つかの例示的な態様において、画像処理装置は、サンプルのOCT画像を外部から取得するように構成される。このような画像処理装置は、例えば、記憶装置に保存されているOCT画像を通信回線を介して受信するための通信デバイス、OCT装置により取得されたOCT画像を通信回線を介して受信するための通信デバイス、及び、記録媒体に記録されているOCT画像を読み出すためのデータリーダーのいずれかを備えていてよい。
更に、実施形態に係る画像処理装置は、取得されたOCT画像から、複屈折由来アーティファクトが低減された画像を生成する機能を有する。本開示に係る処理によって複屈折由来アーティファクトが低減された画像をデノイズ画像と呼ぶ。
デノイズ画像を生成するための画像処理機能は、予め作成された機械学習モデルを利用して実現される。実施形態に係る機械学習システムは、物体の複屈折情報を含む第1の画像と当該物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データ(教師データ、学習データ)を用いた機械学習によって構築されるものであり、OCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能するものである。実施形態の幾つかの態様において、物体の複屈折情報を含む第1の画像は、物体の複屈折性に由来する情報(例えば、複屈折由来アーティファクト)を含む画像であり、物体の複屈折情報を含まない第2の画像は、物体の複屈折性に由来する情報を含まない画像である。
実施形態に係る画像処理装置により生成されたデノイズ画像は、記憶され及び/又は提供される。幾つかの例示的な態様において、デノイズ画像は、画像処理装置の内部又は外部に配置されている記憶装置に保存される。画像処理装置の内部の記憶装置は、例えば、ハードディスクドライブ、ソリッドステートドライブなどであってよい。画像処理装置の外部の記憶装置は、例えば、データベースシステム、データ管理システムなどであってよい。このようなシステムの例として、医療分野の代表的な画像管理システムであるPicture archiving and communication system(PACS)がある。
また、幾つかの例示的な態様において、画像処理装置により生成されたデノイズ画像は、画像処理装置の内部又は外部に設けられたコンピュータに提供される。このコンピュータは、デノイズ画像を処理して新たな情報を生成する機能を有する。このコンピュータの機能の例として、デノイズ画像を解析して解析情報を生成する機能、デノイズ画像を処理して可視化情報を生成する機能、デノイズ画像を別の情報と組み合わせて新たな情報を生成する機能、デノイズ画像に基づき機械学習用の訓練データを生成する機能、デノイズ画像を含む訓練データ及び/又はデノイズ画像に基づく情報を含む訓練データを用いて機械学習を実行する機能、デノイズ画像及び/又はそれに基づく情報を用いて推論を実行する機能、これらの機能のうちの2つ以上の機能を少なくとも部分的に組み合わせた機能などがある。
本開示に係る要素の機能の少なくとも一部は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能の少なくとも一部を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能の少なくとも一部を実行するハードウェア、又は、開示された機能の少なくとも一部を実行するようにプログラムされたハードウェアである。ハードウェアは、本開示に記載されているハードウェアであってよく、或いは、本開示に記載されている機能の少なくとも一部を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。
<画像処理装置(眼科装置)の構成>
図1に示す眼科装置1は、実施形態に係る画像処理装置の1つの例示的な態様であり、サンプルのOCT画像を取得するために、サンプルにOCTスキャンを適用してデータを収集し、収集されたデータを処理してOCT画像を構築するように構成されている。本態様において、サンプルはヒトの生体眼(被検眼)である。
眼科装置1は、OCT装置と眼底カメラとを組み合わせた複合機であり、被検眼E(眼底Ef及び前眼部Ea)にOCTスキャンを適用する機能と、被検眼E(眼底Ef及び前眼部Ea)のデジタル写真撮影を行う機能とを備えている。
眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼の正面画像を取得するための各種の要素(光学系、機構など)が設けられている。OCTユニット100には、OCTスキャンのための各種の要素(光学系、機構など)の一部が設けられている。OCTスキャンのための他の幾つかの要素は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の処理(演算、制御など)を実行するように構成された1つ以上のプロセッサと1つ以上の記憶装置とを含む。更に、眼科装置1は、顎受け、額当てなどを含む。
アタッチメント400は、OCTスキャンを適用する部位を後眼部(眼底Ef)と前眼部Eaとの間で切り替えるためのレンズ群を含む。アタッチメント400は、例えば、特開2015-160103号公報に開示された光学ユニットであってよい。アタッチメント400は、対物レンズ22と被検眼Eとの間に配置可能である。眼底EfにOCTスキャンを適用するためにアタッチメント400は光路から退避され、前眼部EaにOCTスキャンを適用するためにアタッチメント400は光路に配置される。逆に、前眼部EaにOCTスキャンを適用するためにアタッチメント400は光路から退避され、眼底EfにOCTスキャンを適用するためにアタッチメント400は光路に配置される構成であってもよい。アタッチメント400の移動は、手動又は自動で行われる。OCTスキャンを適用する部位を切り替えるための要素は、このようなアタッチメントに限定されず、例えば、光路に沿って移動可能な1つ以上のレンズを含む構成であってもよい。
<眼底カメラユニット2>
眼底カメラユニット2には、被検眼Eのデジタル写真撮影を行うための要素(光学系、機構など)が設けられている。取得されるデジタル写真は、観察画像、撮影画像などの正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により取得され、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は赤外領域のフラッシュ光を用いた静止画像であり、診断、解析などに利用される。
眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22(及びアタッチメント400内の光学素子)により屈折されて被検眼Eを照明する。観察照明光の被検眼Eからの戻り光は、(アタッチメント400内の光学素子、及び)対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。撮影光学系30のフォーカス(焦点位置)は、典型的には、眼底Ef又は前眼部Eaに合致するように調整される。
撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って被検眼Eに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。
液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。固視標画像の表示位置を変更することによって、固視標による被検眼Eの固視位置を変更できる。これにより、被検眼Eの視線を所望の方向に誘導することができる。
アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
アライメントの手法は、アライメント指標を用いる手法に限定されない。例えば、幾つかの例示的な態様の眼科装置は、特開2013-248376号公報に記載されているように、前眼部を異なる方向から撮影して2つ以上の前眼部画像を取得し、これらの前眼部画像を解析して被検眼の3次元位置を求め、この3次元位置に基づき光学系を移動させるように構成されていてよい(ステレオアライメント)。
フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。フォーカス調整を行うために、反射棒67が照明光路に挿入されて傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。
孔開きミラー21とダイクロイックミラー55との間の撮影光路には、視度補正レンズ70及び71が選択的に挿入される。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。
ダイクロイックミラー46は、デジタル写真撮影用光路(照明光路及び撮影光路)にOCT用光路(測定アーム)を結合する。ダイクロイックミラー46は、OCTスキャン用の波長帯の光を反射し、デジタル写真撮影用の波長帯の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。
リトロリフレクタ41は、図1の矢印が示す方向(測定光LSの入射方向及び出射方向)に移動可能とされている。それにより、測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長の補正や、角膜形状や眼底形状に応じた光路長の補正や、干渉状態の調整などのために利用される。
分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。
OCT合焦レンズ43は、測定アームのフォーカス調整を行うために図1の矢印が示す方向(測定アームの光軸)に沿って移動可能とされている。それにより、測定アームのフォーカス状態(焦点の位置、焦点距離)が変更される。眼科装置1は、撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御可能であってよい。
光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSの進行方向(伝搬方向)を変化させるための偏向器である。光スキャナ44は、例えば、x方向のスキャンを行うための偏向器(x-スキャナ)と、y方向のスキャンを行うための偏向器(y-スキャナ)とを含む、2次元偏向器である。偏向器の種類は任意であってよく、例えばガルバノスキャナであってよい。
光スキャナ44は、後眼部OCTのためにアタッチメント400が測定アームから退避されているときには、被検眼Eの瞳孔に対して実質的に光学的に共役に配置され、前眼部OCTのためにアタッチメント400が測定アームに挿入されているときには、前眼部Eaの近傍位置(例えば、前眼部Eaとアタッチメント400との間の位置)に対して実質的に光学的に共役に配置される。
<OCTユニット100>
図2に示す例示的なOCTユニット100には、スウェプトソースOCTを適用するための光学系や機構が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光検出により生成される電気信号(検出信号)は、干渉光のスペクトルを表す信号(干渉信号)を含み、演算制御ユニット200(画像構築部220)に送られる。
光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏光コントローラ103に導かれてその偏光状態が調整され、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームなどと呼ばれ、参照光LRの光路は参照アームなどと呼ばれる。
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるための光学素子である。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長の補正や、角膜形状や眼底形状に応じた光路長の補正や、干渉状態の調整などに利用される。
リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏光コントローラ118に導かれてその偏光状態が調整される。偏光コントローラ118は、例えば、測定光LSと参照光LRとの干渉強度を最適化するために用いられる。偏光コントローラ118を通過した参照光LRは、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127によりコリメータレンズユニット40に導かれて平行光束に変換された後、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、リレーレンズ45、ダイクロイックミラー46、及び対物レンズ22(及び、アタッチメント400)を経由して、被検眼Eに投射される。被検眼Eに入射した測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光(後方散乱光、反射光など)は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を通じてファイバカプラ122に導かれる。
ファイバカプラ122は、光ファイバ128からの測定光LS(被検眼Eからの戻り光)と、光ファイバ121からの参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分割比(例えば1:1)で2つの光に分割することによって一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、一対のフォトディテクタにより生成される一対の電気信号の差分を出力する。出力された差分信号(検出信号)はデータ収集システム(DAQ、DAS)130に送られる。
データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、一方の分岐光に対して光学的遅延を印可し、遅延を受けた一方の分岐光と他方の分岐光とを合成し、得られた合成光を検出し、その検出結果に基づきクロックKCを生成する。データ収集システム130は、光源ユニット101から入力されるクロックKCに基づいて、検出器125から入力される検出信号のサンプリングを実行する。このサンプリングの結果は演算制御ユニット200に送られる。
本態様では、測定アーム長を変更するための要素(リトロリフレクタ41など)と、参照アーム長を変更するための要素(リトロリフレクタ114、参照ミラーなど)との双方が設けられているが、幾つかの例示的な態様では、これら2つの要素の一方のみが設けられていてもよい。
本態様では、参照光LRの偏光状態を変化させるための要素(偏光コントローラ118)が設けられている。幾つかの例示的な態様では、参照光LRの偏光状態を変化させるための要素の代わりに、測定光LSの偏光状態を変化させるための要素(偏光コントローラ)が設けられていてもよい。また、幾つかの例示的な態様では、参照光LRの偏光状態を変化させるための要素と、測定光LSの偏光状態を変化させるための要素との双方が設けられていてもよい。
図2のOCTユニット100に採用されているスウェプトソースOCTは、波長可変光源からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光を光検出器で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を構築する手法である。これに対し、スペクトラルドメインOCTは、低コヒーレンス光源(広帯域光源)からの光を測定光と参照光とに分割し、被検物からの測定光の戻り光を参照光と重ね合わせて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を構築する手法である。端的に言うと、スウェプトソースOCTは、干渉光のスペクトル分布を時分割で取得するOCT手法であり、スペクトラルドメインOCTは、干渉光のスペクトル分布を空間分割で取得するOCT手法である。実施形態に適用可能なOCT手法がスウェプトソースOCTに限定されないことは、当業者にとって明らかである。
<制御系・処理系>
眼科装置1の制御系及び処理系の構成例を図3に示す。制御部210、画像構築部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられている。図示は省略するが、眼科装置1は、通信デバイス、ドライブ装置(リーダー/ライター)を含んでいてもよい。
<制御部210>
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。主制御部211は、プロセッサを含み、眼科装置1の要素(図1~図5に示された要素)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。記憶部212は、ハードディスクドライブ、ソリッドステートドライブなどの記憶装置を含み、データを記憶する。
撮影合焦駆動部31Aは、主制御部211の制御の下に、撮影光路に設けられた撮影合焦レンズ31と照明光路に設けられたフォーカス光学系60とを移動する。リトロリフレクタ(RR)駆動部41Aは、主制御部211の制御の下に、測定アームに設けられたリトロリフレクタ41を移動する。OCT合焦駆動部43Aは、主制御部211の制御の下に、測定アームに設けられたOCT合焦レンズ43を移動する。リトロリフレクタ(RR)駆動部114Aは、主制御部211の制御の下に、参照アームに設けられたリトロリフレクタ114を移動する。移動機構150は、眼科装置1の光学系を3次元的に移動する(x方向、y方向、及びz方向に移動する)。挿脱機構400Aは、アタッチメント400の光路への挿入及び光路からの退避を行う。
<画像構築部220>
画像構築部220は、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、被検眼EのOCT画像データを構築する。構築されるOCT画像データは、1つ以上のAスキャン画像データであり、例えば、複数のAスキャン画像データからなるBスキャン画像データ(2次元断面像データ)である。画像構築部220は、プロセッサを含むハードウェアと、画像構築ソフトウェアとの協働によって実現される。
サンプリングデータからOCT画像データを構築するために、画像形成部220は、例えば、従来のスウェプトソースOCTと同様に、Aラインごとのサンプリングデータに基づくスペクトル分布に信号処理を施してAラインごとの反射強度プロファイル(Aラインプロファイル)を生成し、各Aラインプロファイルを画像化して複数のAスキャン画像データを生成し、これらAスキャン画像データをスキャンパターン(複数のスキャン点の配置)にしたがって配列する。Aラインプロファイルを生成するための上記信号処理には、ノイズリダクション、フィルタリング、高速フーリエ変換(FFT)などが含まれる。他のOCT手法を用いる場合には、その手法に応じた公知のOCT画像データ構築処理が実行される。
画像構築部220は、被検眼Eの3次元領域(ボリューム)を表現した3次元画像データを構築するように構成されてもよい。3次元画像データは、3次元座標系により画素の位置が定義された画像データであり、その例としてスタックデータやボリュームデータがある。スタックデータは、複数のスキャンラインに沿って得られた複数の断面像を、これらスキャンラインの位置関係にしたがって配列して得られた画像データである。ボリュームデータは、例えばスタックデータに補間処理やボクセル化処理などを適用することによって構築された、3次元的に配列されたボクセルを画素とする画像データであり、ボクセルデータとも呼ばれる。
画像構築部220は、このようにして構築されたOCT画像データから新たなOCT画像データを作成することができる。幾つかの例示的な態様において、画像構築部220は、3次元画像データにレンダリングを適用することができる。レンダリングの例として、ボリュームレンダリング、サーフェスレンダリング、最大値投影(MIP)、最小値投影(MinIP)、多断面再構成(MPR)などがある。
幾つかの例示的な態様において、画像構築部220は、3次元画像データからOCT正面画像を構築するように構成されてよい。例えば、画像構築部220は、3次元画像データをz方向(Aライン方向、深さ方向)に投影してプロジェクションデータを構築することができる。また、画像構築部220は、3次元画像データの部分データ(例えば、スラブ)からプロジェクションデータを構築することができる。この部分データは、例えば、画像セグメンテーション(単に、セグメンテーションとも呼ばれる)を用いて自動で指定され、又は、ユーザーによって手動で指定される。このセグメンテーションの手法は任意であってよく、例えば、エッジ検出等の画像処理、及び/又は、機械学習を利用したセグメンテーションを含んでいてよい。このセグメンテーションは、例えば、画像構築部220又はデータ処理部230により実行される。
眼科装置1は、OCTモーションコントラスト撮影(motion contrast imaging)を実行可能であってよい。OCTモーションコントラスト撮影は、眼内に存在する液体等の動きを抽出するイメージング技術である(例えば、特表2015-515894号公報を参照)。OCTモーションコントラスト撮影は、例えば、血管の描出を描出するためのOCTアンジオグラフィ(OCTA)に用いられる。
<データ処理部230>
データ処理部230は、被検眼Eの画像に対して特定のデータ処理を適用するように構成されている。データ処理部230は、例えば、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
本態様のデータ処理部230は、機械学習を利用して構築されたモデル(機械学習モデル、数理モデル、推論モデル)を用いて処理を実行する機能を有する。
この機械学習に用いられる訓練データは、物体の複屈折情報を含む第1の画像とこの物体の複屈折情報を含まない第2の画像とのペアの集合を含んでいる。つまり、この機械学習に用いられる訓練データは、同じ物体について取得された、複屈折情報を含むOCT画像と複屈折情報を含まないOCT画像とのペアを、複数個含んでいる。
本開示では、1つの物体について取得された第1の画像と第2の画像とのペアを画像ペアと呼ぶ。また、訓練データに含まれる画像ペアの集合を画像ペア集合と呼ぶ。
本態様において、訓練データに含まれる画像を収集するためにOCTスキャンが適用される物体は、ヒト生体眼であってよく、更に具体的には、ヒト生体眼の所定の構造(眼部位、眼組織、眼内人工物など)であってよい。眼部位や眼組織は、眼の任意の部位又は組織であってよく、その例として、眼底(後眼部)、前眼部、瞼、視神経乳頭、篩状板、黄斑、網膜、網膜のサブ組織(内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層など)、ブルッフ膜、脈絡膜、脈絡膜-強膜境界(CSI)、強膜、硝子体、角膜、角膜のサブ組織(角膜上皮、ボーマン膜、固有層、デュア層、デスメ膜、角膜内皮など)、結膜、シュレム管、線維柱帯、虹彩、水晶体、チン小帯、毛様体などがある。眼内人工物は、眼に移植された任意の物体であってよく、その例として、眼内レンズ(IOL)、眼内コンタクトレンズ(ICL)、低侵襲緑内障手術(MIGS)デバイスなどがある。
訓練データに含まれる画像ペア集合は、1つの物体から取得されたものでもよいが、幾つかの例示的な態様では、複数の物体から取得された画像ペア集合が用いられてよい。例えば、画像ペア集合は、第1の物体から取得された1つ以上のOCT画像ペア、第2の物体から取得された1つ以上のOCT画像ペア、・・・、第Kの物体から取得された1つ以上のOCT画像ペアを含んでいてよい(Kは2以上の整数)。
幾つかの例示的な態様の画像ペア集合は、OCTスキャンにより物体から取得された画像(無加工画像)のみからなる集合であってよい。また、幾つかの例示的な態様の画像ペア集合は、無加工画像に加工を施して得られた画像(加工画像)を含んでいてもよい。
訓練データの作成方法については、その幾つかの例を後述する。
本態様の機械学習モデルは、サンプル(被検眼E)にOCTスキャンを適用して得られたOCT画像の入力を受け、このOCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構成されている。
本態様のデータ処理部230の構成の幾つかの例、及び、データ処理部230により実行される処理の幾つかの例について、図4及び図5を参照して説明する。
図4に示すデータ処理部230Aは、図3のデータ処理部230の1つの構成例である。データ処理部230Aは、デノイズ画像生成部231を含んでいる。デノイズ画像生成部231は、被検眼EのOCT画像に基づいて、このOCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を生成するように構成されている。
デノイズ画像生成部231は、推論モデル2311を用いてデノイズ画像の生成を実行する。推論モデル2311は、被検眼EのOCT画像の入力を受けてデノイズ画像を出力するように前述の機械学習によって訓練されたニューラルネットワーク2312を含む。
推論モデル2311は、図4に示すようにデノイズ画像生成部231(データ処理部230)の内部に配置されていてもよいし、データ処理部230以外の眼科装置1の箇所(例えば、記憶部212内)に配置されていてもよいし、眼科装置1の外部に配置されていてもよい。後者の例として、眼科装置1によりアクセス可能なコンピュータ又は記憶装置の内部に推論モデル2311を配置してもよい。
推論モデル2311を構築する装置(推論モデル構築装置)は、眼科装置1に設けられていてもよいし、眼科装置1の周辺機器(コンピュータなど)に設けられてもよいし、他のコンピュータであってもよい。
図5に示すモデル構築部300は、推論モデル構築装置の例であり、学習処理部310とニューラルネットワーク320とを含む。
ニューラルネットワーク320は、典型的には、畳み込みニューラルネットワーク(CNN)を含む。図5の符号330は、この畳み込みニューラルネットワークの構造の一例を示している。
畳み込むニューラルネットワーク330の入力層には、画像が入力される。入力層の後ろには、畳み込み層とプーリング層とのペアが複数配置されている。図5に示す例には畳み込み層とプーリング層とのペアが3つ設けられているが、ペアの個数は任意であってよい。
畳み込み層では、画像から特徴(輪郭など)を把握するための畳み込み演算が行われる。畳み込み演算は、入力された画像に対する、この画像と同じ次元のフィルタ関数(重み係数、フィルタカーネル)の積和演算である。畳み込み層では、入力された画像の複数の部分にそれぞれ畳み込み演算を適用する。より具体的には、畳み込み層では、フィルタ関数が適用された部分画像の各ピクセルの値に、そのピクセルに対応するフィルタ関数の値(重み)を乗算して積を算出し、この部分画像の複数のピクセルにわたって積の総和を求める。このように得られた積和値は、出力される画像における対応ピクセルに代入される。フィルタ関数を適用する箇所(部分画像)を移動させながら積和演算を行うことで、入力された画像の全体についての畳み込み演算結果が得られる。このような畳み込み演算によれば、多数の重み係数を用いて様々な特徴が抽出された画像が多数得られる。つまり、平滑化画像やエッジ画像などの多数のフィルタ処理画像が得られる。畳み込み層により生成される多数の画像は特徴マップと呼ばれる。
プーリング層では、直前の畳み込み層により生成された特徴マップの圧縮(データの間引きなど)が行われる。より具体的には、プーリング層では、特徴マップ内の注目ピクセルの所定の近傍ピクセルにおける統計値を所定のピクセル間隔ごとに算出し、入力された特徴マップよりも小さな寸法の画像を出力する。なお、プーリング演算に適用される統計値は、例えば、最大値(max pooling)又は平均値(average pooling)である。また、プーリング演算に適用されるピクセル間隔は、ストライド(stride)と呼ばれる。
畳み込みニューラルネットワークは、畳み込み層とプーリング層との複数のペアによって処理を行うことにより、入力された画像から多くの特徴を抽出することができる。
畳み込み層とプーリング層との最後のペアの後ろには、全結合層が設けられている。図5に示す例においては2つの全結合層が設けられているが、全結合層の個数は任意であってよい。全結合層では、畳み込みとプーリングとの組み合わせによって圧縮された特徴量を用いて、画像分類、画像セグメンテーション、回帰などの処理を行う。最後の全結合層の後ろには、出力結果を提供する出力層が設けられている。
幾つかの例示的な態様において、畳み込みニューラルネットワークは、全結合層を含まなくてもよいし(例えば、全層畳み込みネットワーク(FCN))、及び/又は、サポートベクターマシンや再帰型ニューラルネットワーク(RNN)などを含んでいてもよい。また、ニューラルネットワーク320に対する機械学習は、転移学習を含んでいてもよい。つまり、ニューラルネットワーク320は、他の訓練データ(訓練画像)を用いた学習が既に行われてパラメータ調整が為されたニューラルネットワークを含んでいてもよい。また、モデル構築部300(学習処理部310)は、学習済みのニューラルネットワーク(ニューラルネットワーク320)にファインチューニングを適用可能に構成されてもよい。ニューラルネットワーク320は、公知のオープンソースのニューラルネットワークアーキテクチャを用いて構築されたものであってもよい。
学習処理部310は、訓練データを用いた機械学習をニューラルネットワーク320に適用する。ニューラルネットワーク320が畳み込みニューラルネットワークを含んでいる場合、学習処理部310によって調整されるパラメータは、例えば、畳み込み層のフィルタ係数と、全結合層の結合重み及びオフセットとを含む。
訓練データに含まれる画像の種類は、OCT画像に限定されない。例えば、訓練データは、OCT以外の眼科モダリティ(眼底カメラ、スリットランプ顕微鏡、SLO、手術用顕微鏡など)により取得された画像、任意の診療科の画像診断モダリティ(超音波診断装置、X線診断装置、X線CT装置、磁気共鳴イメージング(MRI)装置など)により取得された画像、実際の眼の画像を加工して作成された画像(加工画像データ)、コンピュータにより生成された画像、擬似的な画像、及び、これら以外の任意の画像のうちのいずれかを含んでいてもよい。また、データ拡張(データオーギュメンテーション)などの技術を利用して、訓練データに含まれるデータの個数を増加させてもよい。
ニューラルネットワーク2312を構築するための訓練の手法(機械学習の手法)は、例えば教師あり学習であるが、これに限定されるものではない。幾つかの例示的な態様では、ニューラルネットワーク2312を構築するための機械学習において、教師あり学習に加えて、又は、教師あり学習に代えて、教師なし学習、強化学習、半教師あり学習、トランスダクション、マルチタスク学習など、任意の公知の手法を利用することができる。
幾つかの例示的な態様では、入力画像に対してメタデータ(ラベル、タグ)を付すアノテーションによって生成された訓練データを用いて教師あり学習が実施される。このアノテーションでは、例えば、訓練データに含まれる画像に対して、その画像中の複屈折由来アーティファクトを示すラベルが付与される。画像中の複屈折由来アーティファクトの特定は、例えば、医師、技術者、コンピュータ、及び、他の推論モデルのうちの少なくとも1つによって実行されてよい。本例のアノテーションの対象となる画像、つまり、複屈折由来アーティファクトを示すアノテーション情報が付帯される画像は、物体の複屈折情報を含む画像(前述した第1の画像)である。
学習処理部310は、このような訓練データを用いた教師あり学習をニューラルネットワーク320に適用することによってニューラルネットワーク2312を構築することができる。この教師あり学習は、例えば、画像ペア集合に含まれる各画像ペア(物体の複屈折情報を含む第1の画像と、この物体の複屈折情報を含まない第2の画像とのペア)について、第1の画像の入力に対応する出力として第2の画像が得られるように実行される。本例によって構築されたニューラルネットワーク2312を含む推論モデル2311は、被検眼EのOCT画像の入力を受けて、このOCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能する。幾つかの例示的な態様では、推論モデル2311に入力されるOCT画像は、偏光分離検出機能を持たないOCTモダリティで取得された画像(例えば、通常のOCT強度画像)であり、これに対応して推論モデル2311から出力される画像は、この入力画像中の複屈折由来アーティファクトが低減されたデノイズ画像(通常のOCT強度画像のデノイズ画像)である。
複屈折由来アーティファクトを示すアノテーション情報が第1の画像に付されている画像ペア集合を含む訓練データを用いて教師あり学習が実行される場合、この教師あり学習は、例えば、画像ペア集合に含まれる各画像ペア(物体の複屈折情報を含み且つアノテーション情報が付帯された第1の画像と、この物体の複屈折情報を含まない第2の画像とのペア)について、第1の画像の入力に対応する出力として、この第1の画像に付帯されているアノテーション情報が示す複屈折由来アーティファクトが低減されるように且つ第2の画像が得られるように実行される。本例によって構築されたニューラルネットワーク2312を含む推論モデル2311は、被検眼EのOCT画像(例えば、通常のOCT強度画像)の入力を受けて、このOCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能する。本例によれば、アノテーション情報が複屈折由来アーティファクトの位置(領域、範囲)を示しているため、機械学習の効率の向上及び品質(正確度、精度、再現性など)の向上を図ることができる。
ニューラルネットワーク2312の特定のユニットに処理が集中することを避けるために、学習処理部310は、ニューラルネットワーク320の幾つかのユニットをランダムに選んで無効化し、残りのユニットを用いて学習を行ってもよい(ドロップアウト)。
推論モデル構築に用いられる手法は、ここに示した例に限定されない。幾つかの例示的な態様では、サポートベクターマシン、ベイズ分類器、ブースティング、k平均法、カーネル密度推定、主成分分析、独立成分分析、自己組織化写像、ランダムフォレスト、敵対的生成ネットワーク(GAN)など、任意の公知の手法を、推論モデルを構築するために利用することが可能である。
データ処理部230がOCT画像から生成可能な情報は、デノイズ画像に限定されない。例えば、データ処理部230は、次のいずれかの機能を有していてよい:OCT画像から複屈折由来アーティファクトを検出する機能;複屈折由来アーティファクトの属性情報を生成する機能;サンプル(被検眼E)の真の構造の像と複屈折由来アーティファクトとの弁別結果(弁別情報)を生成する機能;複屈折由来アーティファクトに関する画像セグメンテーション情報を生成する機能。各機能は、機械学習的アルゴリズム及び/又は非機械学習的アルゴリズムを用いて実現される。すなわち、各機能は、少なくとも部分的に機械学習モデルを用いて実現されてもよいし、少なくとも部分的に機械学習モデルを用いずに実現されてもよい。
複屈折由来アーティファクトの属性情報は、OCT画像中の複屈折由来アーティファクトに関する任意の性質(特徴)を表す情報であり、複屈折由来アーティファクトの位置、大きさ、形状、強さ、影響度など、複屈折由来アーティファクトに関する任意のパラメータについての情報であってよい。機械学習モデルを用いる場合、この機械学習モデルの構築に用いられる訓練データは、物体(ヒト生体眼)の複屈折情報を含む第1の画像中の複屈折由来アーティファクトの属性に関するアノテーションで生成されたアノテーション情報を含んでおり、この訓練データを用いて訓練された機械学習モデルは、OCT画像の入力を受けて属性情報を出力するように構成される。
弁別情報は、サンプルの真の構造に由来する像(構造由来像;眼組織の像、眼部位の像、眼内人工物の像など)と複屈折由来アーティファクトとを弁別する(識別する、区別する)ための処理によって得られる情報である。弁別情報は、例えば、OCT画像における任意の位置(任意の画素、任意の画素群、任意の画像領域など)に関する情報であり、その位置が構造由来像に相当するものであるか、或いは、複屈折由来アーティファクトに相当するものであるかを示す情報を含んでいる。幾つかの例示的な態様において、弁別情報は、眼のOCT画像における各画素に対して、構造由来像の画素であることを示す識別子、又は、複屈折由来アーティファクトの像の画素であることを示す識別子が割り当てられた情報(弁別リスト情報、弁別テーブル情報、弁別マップ情報など)であってよい。構造由来像の画素であることを示す識別子は、眼の組織(部位)の像であることを示す識別子と、眼に移植された人工物の像であることを示す識別子とを含んでいてもよい。また、眼の組織(部位)の像であることを示す識別子は、組織ごと(部位ごと)の識別子を含んでいてもよい。また、人工物の像であることを示す識別子は、人工物の種類ごとの識別子を含んでいてもよい。また、構造由来像の画素であることを示す識別子、及び、複屈折由来アーティファクトの像の画素であることを示す識別子のいずれとも異なる識別子を用いてもよい。その例として、弁別に失敗した画素を示す識別子、弁別結果の品質(確信度、信頼度、正確度など)を示す識別子などがある。機械学習モデルを用いる場合、この機械学習モデルの構築に用いられる訓練データは、物体(ヒト生体眼)の複屈折情報を含む第1の画像における構造由来像と複屈折由来アーティファクトとの弁別に関するアノテーションで生成されたアノテーション情報を含んでおり、この訓練データを用いて訓練された機械学習モデルは、OCT画像の入力を受けて弁別情報を出力するように構成される。
画像セグメンテーション情報は、OCT画像に対する画像セグメンテーションによって得られた情報を含む。画像セグメンテーションは、画像を複数のセグメント(複数の領域、複数の画素群)に分割する処理である。本態様の画像セグメンテーションに使用される手法は任意であってよく、例えば、セマンティックセグメンテーション、インスタンスセグメンテーション、パノプティックセグメンテーションなどであってよい。また、閾値処理、クラスタリング、デュアルクラスタリング、ヒストグラム、エッジ検出、リジョングローイング、偏微分方程式、変分法、グラフ分割、分水嶺(watershed)アルゴリズムなど、任意の公知のセグメンテーション法を利用又は組み合わせてもよい。機械学習モデルを用いる場合、この機械学習モデルの構築に用いられる訓練データは、物体(ヒト生体眼)の複屈折情報を含む第1の画像の画像セグメンテーションに関するアノテーションで生成されたアノテーション情報を含んでおり、この訓練データを用いて訓練された機械学習モデルは、OCT画像の入力を受けて画像セグメンテーション情報を出力するように構成される。
以上、データ処理部230の様々な例示的態様について説明したが、データ処理部230の態様はこれらの例示的態様に限定されるものではなく、また、データ処理部230を含む眼科装置1の態様もこれら例示的態様を用いる態様に限定されるものではない。
<ユーザーインターフェイス240>
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置1に接続された外部装置であってよい。
<眼科装置の動作>
眼科装置1の動作について幾つかの例を説明する。
<第1の動作例>
図6を参照して眼科装置1の動作の第1の例を説明する。本例は、機械学習的アルゴリズムを利用したデノイズ画像生成(複屈折由来アーティファクトリダクション)の動作例を提供する。
(S1:偏光感受型OCTでヒト生体眼のデータを取得する)
まず、訓練データの準備を行う。そのために、偏光感受型OCTでヒト生体眼のデータを取得する。典型的な態様では、多数のヒト生体眼のデータが収集され、機械学習モデル構築のために蓄積される。
偏光感受型OCTは、偏光を検出可能なOCTモダリティであり、偏波ダイバーシティ受信器(polarization diversity receiver)を備えたOCT装置によって実施される。偏波ダイバーシティ受信器は、例えば、上記の特許文献1~4及び非特許文献1のいずれかに記載されたものであってよいが、それに限定されない。また、本例では特許文献1~3に記載された装置のような偏光感受型OCTを用いてヒト生体眼のデータを取得しているが、実施形態はこれに限定されるものではなく、例えば、非特許文献1に記載された装置のように通常のOCT装置に偏波ダイバーシティ受信器を組み込んだだけのOCTモダリティを用いてヒト生体眼のデータを取得するようにしてもよい。
(S2:偏光感受画像と偏光非感受画像を生成する)
次に、ステップS1で取得されたヒト生体眼のOCTデータから、偏光感受画像及び偏光非感受画像を生成する。例えば、1つのOCTデータから、偏光感受画像と偏光非感受画像とのペアが生成される。つまり、1つのOCTデータから1つの画像ペアが生成される。典型的な態様では、多数のOCTデータから多数の画像ペアが生成され、画像ペア集合が形成される。
偏光感受画像の生成方法については、例えば、上記の特許文献3の(数21)を参照されたい。また、偏光非感受画像の作成方法については、例えば、上記の非特許文献1の数式(5)を参照されたい。偏光感受画像は、ヒト生体眼の複屈折情報を含む第1の画像の例である。また、偏光非感受画像は、ヒト生体眼の複屈折情報を含まない第2の画像の例である。
(S3:アノテーションを行う)
次に、ステップS2で生成された偏光感受画像に対してアノテーションが行われる。アノテーションでは、偏光感受画像から複屈折由来アーティファクトを特定し、特定された複屈折由来アーティファクトを示すアノテーション情報を生成し、生成されたアノテーション情報をこの偏光感受画像に付帯させる。
(S4:訓練データを作成する)
次に、ステップS2で生成された画像ペアと、ステップS3で偏光感受画像に付帯されたアノテーション情報とを含む訓練データが作成される。換言すると、ステップS3でアノテーション情報が付帯された偏光感受画像と、偏光非感受画像とのペアの集合(画像ペア集合)を含む訓練データが作成される。
全ての画像ペアにおける偏光感受画像にアノテーション情報が付されていてもよいし、一部の画像ペアにおける偏光感受画像にのみアノテーション情報が付されていてもよい。
訓練データに含まれる画像の種類は、偏光感受画像及び偏光非感受画像に限定されない。例えば、前述したように、訓練データは、画像ペア集合に加えて、OCT以外のモダリティで取得された眼の画像、眼の画像を加工して作成された画像、コンピュータグラフィクスで生成された画像、データ拡張で生成された画像、及び、擬似的な画像のいずれかを含んでいてもよい。
(S5:機械学習モデルを構築する)
次に、ステップS4で取得された訓練データを用いた機械学習をニューラルネットワークに適用することによって機械学習モデルが構築される。この機械学習モデルは、眼のOCT画像の入力を受け、このOCT画像中の複屈折由来アーティファクトが低減されたデノイズ画像を出力する。
(S6:機械学習モデルを眼科装置に提供する)
次に、ステップS5で取得された機械学習モデルが眼科装置1に提供される。この機械学習モデルは、図4の推論モデル2311として用いられる。
以上のステップS1~S6は、デノイズ画像生成を眼科装置1に実行させるための準備の例である。眼科装置1によるデノイズ画像生成の例を以下に説明する。なお、患者IDの入力、アライメント、フォーカス調整などのスキャン準備動作は、既に行われたものとする。
更に、デノイズ画像生成を行うための眼科装置1の動作モードの指定が行われてよい。この動作モードでは、眼科装置1は、例えば、通常のOCT強度画像を生成するためのOCTスキャンを被検眼Eに適用する。
(S7:被検眼のOCT画像を取得する)
眼科装置1は、被検眼EにOCTスキャンを適用してOCT画像(通常のOCT強度画像)を構築する。
(S8:OCT画像を機械学習モデルに入力する)
眼科装置1は、ステップS7で取得された被検眼EのOCT画像を推論モデル2311に入力する。
(S9:デノイズ画像を生成する)
推論モデル2311は、ステップS8で入力されたOCT画像からデノイズ画像を生成する。
(S10:デノイズ画像を記憶/提供する)
眼科装置1は、ステップS9で取得されたデノイズ画像を記憶又は提供する。
デノイズ画像の記憶は、例えば、眼科装置1の内部に配置されている記憶装置にデノイズ画像を記憶させること、及び/又は、眼科装置1の外部に配置されている記憶装置にデノイズ画像を記憶させることであってよい。
デノイズ画像の提供は、例えば、眼科装置1の内部に設けられたコンピュータにデノイズ画像を提供すること、眼科装置1の外部に設けられたコンピュータにデノイズ画像を提供すること、眼科装置1の内部に設けられた表示装置にデノイズ画像を提供すること、及び、眼科装置1の外部に設けられた表示装置にデノイズ画像を提供することのうちの1つ以上であってよい。
以上で、第1の動作例は終了となる(エンド)。
<第2の動作例>
図7を参照して眼科装置1の動作の第2の例を説明する。本動作例は、第1の動作例と同様に、機械学習的アルゴリズムを利用したデノイズ画像生成(複屈折由来アーティファクトリダクション)の例を提供するものであるが、アノテーションを行わない点において第1の動作例と異なっている。特に言及しない限り、第1の動作例と同様の工程や処理については詳しい説明を省略する。
まず、偏光感受型OCTでヒト生体眼のデータを取得し(S11)、取得されたヒト生体眼のOCTデータから偏光感受画像及び偏光非感受画像(画像ペア)を生成する(S12)。次に、本動作例では、第1の動作例のステップS3のようなアノテーションを行うことなく、訓練データが作成される(S13)。本動作例の訓練データは、ステップS12で複数のヒト生体眼について取得された複数の画像ペア(画像ペア集合)を含んでいる。第1の動作例と同様に、本動作例の訓練データに含まれる画像の種類は、偏光感受画像及び偏光非感受画像に限定されない。
次に、ステップS13で取得された訓練データを用いた機械学習をニューラルネットワークに適用することによって機械学習モデルが構築され(S14)、この機械学習モデルが眼科装置1に提供される(S15)。この機械学習モデルは、眼のOCT画像の入力を受け、このOCT画像中の複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能するものであり、図4の推論モデル2311として用いられる。
以上のステップS11~S15は、デノイズ画像生成を眼科装置1に実行させるための準備の例である。眼科装置1によるデノイズ画像生成の例を以下に説明する。患者IDの入力、アライメント、フォーカス調整などのスキャン準備動作は、既に行われたものとする。また、デノイズ画像生成を行うための眼科装置1の動作モードの指定が行われる。
眼科装置1は、被検眼EにOCTスキャンを適用してOCT画像を構築し(S16)、取得されたOCT画像を推論モデル2311に入力する(S17)。推論モデル2311は、入力されたOCT画像からデノイズ画像を生成する(S18)。そして、眼科装置1は、生成されたデノイズ画像を記憶又は提供する(S19)。
<第3の動作例>
図8を参照して眼科装置1の動作の第3の例を説明する。本動作例は、第1及び第2の動作例と同様に、機械学習的アルゴリズムを利用したデノイズ画像生成(複屈折由来アーティファクトリダクション)の例を提供するものであるが、アノテーションを行わない点と訓練データに含まれる画像の取得方法とにおいて第1の動作例と異なっている。特に言及しない限り、第1の動作例と同様の工程や処理については詳しい説明を省略する。
まず、偏光感受型OCTでヒト生体眼のデータを取得し(S21)、取得されたヒト生体眼のOCTデータから偏光感受画像を生成する(S22)。第1及び第2の動作例では、偏光感受型OCTで取得されたOCTデータから偏光感受画像及び偏光非感受画像の双方を生成するが、本態様では、偏光感受型OCTで取得されたOCTデータから偏光感受画像のみを生成する。
また、偏光非感受型OCTでヒト生体眼のデータを取得し(S23)、このOCTデータから画像(偏光非感受画像)を生成する(S24)。偏光非感受型OCTは、偏波ダイバーシティ受信器を備えていないOCT装置によって実施されるOCTモダリティである。
ステップS21~S24の工程の順序はこれに限定されない。例えば、ステップS21及びS22の工程よりも前に、ステップS23及びS24の工程を行ってもよい。また、ステップS21及びステップS23の工程を行った後に、ステップS22及びステップS24の工程を行ってもよい。
ステップS21の偏光感受型OCTとステップS23の偏光非感受型OCTとは、同じヒト生体眼に対して適用される。これにより、そのヒト生体眼についての偏光感受画像と偏光非感受画像とのペア(画像ペア)が得られる。典型的な態様では、ステップS21の偏光感受型OCTとステップS23の偏光非感受型OCTとが多数のヒト生体眼に適用され、多数の画像ペアが収集される。
次に、訓練データが作成される(S25)。本動作例の訓練データは、ステップS21~S24で複数のヒト生体眼について取得された複数の画像ペア(画像ペア集合)を含んでいる。第1の動作例と同様に、本動作例の訓練データに含まれる画像の種類は、偏光感受画像及び偏光非感受画像に限定されない。
次に、ステップS25で取得された訓練データを用いた機械学習をニューラルネットワークに適用することによって機械学習モデルが構築され(S26)、この機械学習モデルが眼科装置1に提供される(S27)。この機械学習モデルは、眼のOCT画像の入力を受け、このOCT画像中の複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能するものであり、図4の推論モデル2311として用いられる。
以上のステップS21~S27は、デノイズ画像生成を眼科装置1に実行させるための準備の例である。眼科装置1によるデノイズ画像生成の例を以下に説明する。患者IDの入力、アライメント、フォーカス調整などのスキャン準備動作は、既に行われたものとする。また、デノイズ画像生成を行うための眼科装置1の動作モードの指定が行われる。
眼科装置1は、被検眼EにOCTスキャンを適用してOCT画像を構築し(S28)、取得されたOCT画像を推論モデル2311に入力する(S29)。推論モデル2311は、入力されたOCT画像からデノイズ画像を生成する(S30)。そして、眼科装置1は、生成されたデノイズ画像を記憶又は提供する(S31)。
<第4の動作例>
図9を参照して眼科装置1の動作の第4の例を説明する。本動作例は、第1~第3の動作例と同様に、機械学習的アルゴリズムを利用したデノイズ画像生成(複屈折由来アーティファクトリダクション)の例を提供するものであるが、訓練データに含まれる画像の取得方法において第1の動作例と異なっている。また、第3の動作例に対する相違は、アノテーションを行う点にある。特に言及しない限り、第1の動作例と同様の工程や処理及び/又は第3の動作例と同様の工程や処理については詳しい説明を省略する。
まず、偏光感受型OCTでヒト生体眼のデータを取得し(S41)、取得されたヒト生体眼のOCTデータから偏光感受画像を生成し(S42)、生成された偏光感受画像に対してアノテーションを行う(S43)。
また、偏光非感受型OCTでヒト生体眼のデータを取得し(S44)、このOCTデータから画像(偏光非感受画像)を生成する(S45)。
ステップS41~S45の工程の順序はこれに限定されない。例えば、ステップS21~S23の工程よりも前に、ステップS44及びS45の工程を行ってもよい。また、ステップS41及びステップS44の工程を行った後に、ステップS42及びステップS45の工程を行い、その後にステップS43の工程を行ってもよい。
ステップS41の偏光感受型OCTとステップS44の偏光非感受型OCTとは、同じヒト生体眼に対して適用される。これにより、そのヒト生体眼についての偏光感受画像と偏光非感受画像とのペア(画像ペア)が得られる。典型的な態様では、ステップS41の偏光感受型OCTとステップS44の偏光非感受型OCTとが多数のヒト生体眼に適用され、多数の画像ペアが収集される。
次に、訓練データが作成される(S46)。本動作例の訓練データは、ステップS41、S42、S44、及びS45で複数のヒト生体眼について取得された複数の画像ペア(画像ペア集合)と、ステップS43で偏光感受画像に付帯されたアノテーション情報とを含んでいる。換言すると、本動作例の訓練データは、ステップS43でアノテーション情報が付帯された偏光感受画像と、偏光非感受画像とのペアの集合(画像ペア集合)を含んでいる。第1の動作例と同様に、本動作例の訓練データに含まれる画像の種類は、偏光感受画像及び偏光非感受画像に限定されない。
次に、ステップS46で取得された訓練データを用いた機械学習をニューラルネットワークに適用することによって機械学習モデルが構築され(S47)、この機械学習モデルが眼科装置1に提供される(S48)。この機械学習モデルは、眼のOCT画像の入力を受け、このOCT画像中の複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能するものであり、図4の推論モデル2311として用いられる。
以上のステップS41~S48は、デノイズ画像生成を眼科装置1に実行させるための準備の例である。眼科装置1によるデノイズ画像生成の例を以下に説明する。患者IDの入力、アライメント、フォーカス調整などのスキャン準備動作は、既に行われたものとする。また、デノイズ画像生成を行うための眼科装置1の動作モードの指定が行われる。
眼科装置1は、被検眼EにOCTスキャンを適用してOCT画像を構築し(S49)、取得されたOCT画像を推論モデル2311に入力する(S50)。推論モデル2311は、入力されたOCT画像からデノイズ画像を生成する(S51)。そして、眼科装置1は、生成されたデノイズ画像を記憶又は提供する(S52)。
<効果>
本態様の幾つかの効果について説明する。
本態様によれば、まず、物体(眼)の複屈折情報を含む第1の画像とこの物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを準備し、この訓練データを用いた機械学習によって機械学習モデル(推論モデル2311)を構築することができる。この機械学習モデルは、OCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように機能する。更に、本態様によれば、サンプル(被検眼E)のOCT画像を取得し、このOCT画像を機械学習モデル(推論モデル2311)に入力し、機械学習モデルから出力されたデノイズ画像を記憶又は提供することができる。
このように、本態様は、サンプルのOCT画像からデノイズ画像するように訓練された新規な機械学習モデルを用いることによって、換言すると、サンプルのOCT画像の複屈折由来アーティファクトリダクションを実行するように訓練された新規な機械学習モデルを用いることによって、偏光分離検出機能を持たないOCTモダリティ(眼科装置1)で取得された画像中の複屈折由来アーティファクトを低減することを可能にするものである。
すなわち、本態様は、物体の複屈折情報を含む第1の画像と物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって生成された機械学習モデルを採用するという新規な特徴により、偏光分離検出機能を持たないOCTモダリティ(眼科装置1)で取得された画像から、複屈折由来アーティファクトが低減されたデノイズ画像を生成することを可能にするものである。
なお、本態様において説明した様々な事項は、この複屈折由来アーティファクト低減機能の向上を図るための様々な例を提供するものである。
<プログラム及び記録媒体>
上記の態様に係る画像処理装置(眼科装置1)により実現されるOCT画像処理方法をコンピュータに実行させるプログラムを構成することができる。このプログラムに対して、上記の態様において説明した任意の事項を組み合わせることができる。
また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。このプログラムに対して、上記の態様において説明した任意の事項を組み合わせることができる。非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。
本開示において説明した実施形態及びその態様は例示に過ぎない。本開示に係る発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形(省略、置換、付加等)を施すことが可能である。
1 眼科装置
230 データ処理部
231 デノイズ画像生成部
2311 推論モデル

Claims (8)

  1. 光コヒーレンストモグラフィ(OCT)画像を処理する方法であって、
    物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルを準備し、
    サンプルのOCT画像を取得し、
    前記サンプルの前記OCT画像を前記機械学習モデルに入力し、
    前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する、
    方法。
  2. 前記第1の画像及び前記第2の画像は、偏波ダイバーシティ受信器を備えたOCT装置により前記物体から取得された同じデータに基づき生成され、
    前記第1の画像には、複屈折由来アーティファクトを示すアノテーション情報が付帯されている、
    請求項1の方法。
  3. 前記第1の画像及び前記第2の画像は、偏波ダイバーシティ受信器を備えたOCT装置により前記物体から取得された同じデータに基づき生成される、
    請求項1の方法。
  4. 前記第1の画像は、偏波ダイバーシティ受信器を備えた第1のOCT装置により前記物体から取得された第1のデータに基づき生成され、
    前記第2の画像は、偏波ダイバーシティ受信器を備えない第2のOCT装置により前記物体から取得された第2のデータに基づき生成される、
    請求項1の方法。
  5. 前記第1の画像には、複屈折由来アーティファクトを示すアノテーション情報が付帯されている、
    請求項1の方法。
  6. 光コヒーレンストモグラフィ(OCT)画像を処理する装置であって、
    サンプルのOCT画像を取得する画像取得部と、
    物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルを用いて処理を実行する処理部と
    を含み、
    前記処理部は、前記画像取得部により取得された前記サンプルの前記OCT画像を前記機械学習モデルに入力し、前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する、
    装置。
  7. 光コヒーレンストモグラフィ(OCT)画像を処理するためのプログラムであって、
    コンピュータに、
    サンプルのOCT画像を取得する工程と、
    物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルに、前記サンプルの前記OCT画像を入力する工程と、
    前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する工程と
    を実行させる、プログラム。
  8. 光コヒーレンストモグラフィ(OCT)画像を処理するためのプログラムが記録された、コンピュータ可読な非一時的記録媒体であって、
    前記プログラムは、コンピュータに、
    サンプルのOCT画像を取得する工程と、
    物体の複屈折情報を含む第1の画像と前記物体の複屈折情報を含まない第2の画像とのペアの集合を含む訓練データを用いた機械学習によって構築された機械学習モデルであってOCT画像の入力を受けて当該OCT画像における複屈折由来アーティファクトが低減されたデノイズ画像を出力するように構築された機械学習モデルに、前記サンプルの前記OCT画像を入力する工程と、
    前記サンプルの前記OCT画像の入力に基づき前記機械学習モデルから出力されたデノイズ画像を記憶又は提供する工程と
    を実行させる、記録媒体。

JP2022104629A 2022-06-29 2022-06-29 画像処理方法、画像処理装置、プログラム、及び記録媒体 Pending JP2024004792A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022104629A JP2024004792A (ja) 2022-06-29 2022-06-29 画像処理方法、画像処理装置、プログラム、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022104629A JP2024004792A (ja) 2022-06-29 2022-06-29 画像処理方法、画像処理装置、プログラム、及び記録媒体

Publications (1)

Publication Number Publication Date
JP2024004792A true JP2024004792A (ja) 2024-01-17

Family

ID=89539696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022104629A Pending JP2024004792A (ja) 2022-06-29 2022-06-29 画像処理方法、画像処理装置、プログラム、及び記録媒体

Country Status (1)

Country Link
JP (1) JP2024004792A (ja)

Similar Documents

Publication Publication Date Title
JP7250653B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7478216B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP7106728B2 (ja) 眼科装置
JP7348374B2 (ja) 眼科情報処理装置、眼科撮影装置、眼科情報処理方法、及びプログラム
JP7384987B2 (ja) 眼科装置
JP2021023686A (ja) 眼科装置、その制御方法、プログラム、及び、記録媒体
JP7194136B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP7378557B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP7215862B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
WO2022145129A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
US20220414845A1 (en) Ophthalmic apparatus, method of controlling the same, and recording medium
JP2024004792A (ja) 画像処理方法、画像処理装置、プログラム、及び記録媒体
JP6882242B2 (ja) 眼科装置およびその制御方法
JP2022132898A (ja) 眼科データ処理方法、眼科データ処理装置、その制御方法、眼科検査装置、その制御方法、プログラム、及び記録媒体
JP2024008246A (ja) 画像処理方法、画像処理装置、プログラム、及び記録媒体
WO2020054280A1 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
US20230419451A1 (en) Image processing method, image processing apparatus, and recording medium
JP2024003982A (ja) 画像処理方法、画像処理装置、プログラム、及び記録媒体
JP2020031873A (ja) 眼科装置、その制御方法、プログラム、及び記録媒体
JP7325675B2 (ja) 眼科撮影装置
WO2024004455A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
EP4233688A1 (en) Ophthalmic device, control method therefor, program, and recording medium
JP7355331B2 (ja) 走査型イメージング装置、その制御方法、画像処理装置、その制御方法、走査型イメージング方法、画像処理方法、プログラム、及び記録媒体
JP7236832B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2023066499A (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム