JP7472914B2 - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
JP7472914B2
JP7472914B2 JP2021553267A JP2021553267A JP7472914B2 JP 7472914 B2 JP7472914 B2 JP 7472914B2 JP 2021553267 A JP2021553267 A JP 2021553267A JP 2021553267 A JP2021553267 A JP 2021553267A JP 7472914 B2 JP7472914 B2 JP 7472914B2
Authority
JP
Japan
Prior art keywords
fundus image
image
point
dimensional fundus
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553267A
Other languages
English (en)
Other versions
JPWO2021079504A1 (ja
Inventor
真梨子 廣川
泰士 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2021079504A1 publication Critical patent/JPWO2021079504A1/ja
Application granted granted Critical
Publication of JP7472914B2 publication Critical patent/JP7472914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、画像処理方法、画像処理装置、及びプログラムに関する。
米国特許出願公開第2009/0136100号には、パノラマ眼底画像合成装置及び方法が開示されており、眼底を解析したり診断したりするために適切な画像表示方法が求められている。
本開示の技術の第1の態様は、プロセッサが行う画像処理であって、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する。
本開示の技術の第2の態様の画像処理装置は、メモリと、前記メモリに接続するプロセッサとを備え、前記プロセッサは、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する。
本開示の技術の第3の態様のプログラムは、コンピュータに、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、ことを実行させる。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 サーバ140の電気系の構成のブロック図である。 第1実施の形態のサーバ140のCPU262の機能のブロック図である。 第1実施の形態のサーバ140による画像処理のフローチャートである。 図5のステップ504の3D加工処理のフローチャートである。 UWF眼底画像G1を示す図である。 眼球と撮影画角を示す図である。 UWF眼底画像G1の点g1と、点g1に対応する眼球モデルM上の点m1とを示す図である。 UWF眼底画像G1の点mg1の画素が、点g1に対応する眼球モデルM上の点m1まで移動する経路L1を示す図である。 UWF眼底画像G1の点g1の画素が、経路L1に沿って、点md、・・・、mh、・・・mm、・・・m1まで、等速V0で移動する様子を示す図である。 動画データの各フレームを示す図である。 表示画面400Aの第1の表示パターンを示す図である。 動画データ表示部455Aに表示される画像を示す図である。 表示画面400Aの第2の表示パターンを示す図である。 表示画面400Aの第3の表示パターンを示す図である。 第2実施の形態のサーバ140のCPU262の機能のブロック図である。 第2実施の形態のサーバ140のサーバ140による画像処理のフローチャートである。 図17のステップ324の画像間の位置合わせ処理のフローチャートである。 UWF上方視眼底画像GUに線分LGUが設定された様子を示す図である。 UWF下方視眼底画像GDCに線分LGDが設定された様子を示す図である。 モンタージュ画像GMの生成を説明するための図である。 表示画面400Bの第1の表示態様を示す図である。 表示画面400Bの第2の表示態様を示す図である。 表示画面400Bの第3の表示態様を示す図である。 第1変形例のサーバ140による画像処理のフローチャートである。 第2変形例のサーバ140による画像処理のフローチャートである。 第3変形例のサーバ140による画像処理のフローチャートである。
[第1実施の形態]
以下、図面を参照して本開示の技術の第1の実施の形態を詳細に説明する。
図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「サーバ」という)140と、画像表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、患者の眼軸長を測定する。サーバ140は、眼科装置110によって患者の眼底が撮影されることにより得られた眼底画像を、患者のIDに対応して記憶する。ビューワ150は、サーバ140から取得した眼底画像などの医療情報を表示する。
眼科装置110、眼軸長測定器120、サーバ140、およびビューワ150は、ネットワーク130を介して、相互に接続されている。
次に、図2を参照して、眼科装置110の構成を説明する。
説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18、OCTユニット20、および撮影光学系19を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。
制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
また、制御装置16は、I/Oポート16Dに接続された画像処理装置16Gを備えている。画像処理装置16Gは、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。制御装置16はI/Oポート16Dに接続された通信インターフェース(I/F)16Fを備えている。眼科装置110は、通信インターフェース(I/F)16Fおよびネットワーク130を介して眼軸長測定器120、サーバ140、およびビューワ150に接続される。
上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、CPU16Aが出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、第1光学スキャナ22、第2光学スキャナ24、および広角光学系30を含む。
第1光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。第2光学スキャナ24は、OCTユニット20から射出された光をX方向、およびY方向に2次元走査する。第1光学スキャナ22および第2光学スキャナ24は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
広角光学系30は、共通光学系28を有する対物光学系(図2では不図示)、およびSLOユニット18からの光とOCTユニット20からの光を合成する合成部26を含む。
なお、共通光学系28の対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、視神経乳頭や黄斑が存在する眼底中心部だけでなく眼球の赤道部や渦静脈が存在する眼底周辺部の網膜を撮影することが可能となる。
楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底へ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。
内部照射角の200度は、本開示の技術の「所定値」の一例である。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像(図7Aを参照)と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。もちろん、内部照射角で160度未満の撮影画角で眼底を撮影することにより、UWFではないSLO画像を取得することができる。
眼科装置110の広角光学系で撮影されたUWF-SLO眼底画像は、眼球の網膜像を二次元平面にステレオ投影変換した画像である。眼底周辺部はステレオ投影変換によって眼底中心部に比べて距離や面積の歪が大きくなっている。よって、例えば渦静脈の眼底構造物や網膜剥離など、眼底周辺部や眼底赤道部に存在する構造物や病変領域の面積や形状が歪んで見える結果、これらの対象が周囲との関係において眼球上どの位置にあるのか、二次元眼底画像であるUWF-SLO眼底画像では把握しづらいという課題がある。
図7Bを用いて眼底赤道部174の説明をする。眼球(被検眼12)は、直径約24mmの眼球中心170とした球状の構造物である。その前極175と後極176を連ねる直線を眼球軸172と言い、眼球軸172に直交する平面が眼球表面と交わる線を緯線といい、緯線長が最大のものが赤道174である。赤道174の位置に相当する網膜や脈絡膜の部分を赤道部178とする。赤道部178は眼底周辺部の一部である。
SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
SLOユニット18は、複数の光源、例えば、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射または透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系56、52で反射して、それぞれ1つの光路に導かれる。
SLOユニット18は、G光、R光、およびB光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、さらに、白色光の光源をさらに備え、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
SLOユニット18から撮影光学系19に入射された光は、第1光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、被検眼12の後眼部に照射される。眼底により反射された反射光は、広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射される。
SLOユニット18は、被検眼12の後眼部(例えば、眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。
SLOユニット18は、複数の光源に対応して複数の光検出素子を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、およびビームスプリッタ58により反射したG光を検出するG光検出素子72を備えている。SLOユニット18は、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ64を透過し、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置16Gは、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。
UWF-SLO画像(後述するようにUWF眼底画像、オリジナル眼底画像ともいう)には、眼底がG色で撮影されて得られたUWF-SLO画像(G色眼底画像)と、眼底がR色で撮影されて得られたUWF-SLO画像(R色眼底画像)とがある。UWF-SLO画像には、眼底がB色で撮影されて得られたUWF-SLO画像(B色眼底画像)と、眼底がIRで撮影されて得られたUWF-SLO画像(IR眼底画像)とがある。
また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。
このようにUWF-SLO画像として、具体的には、B色眼底画像、G色眼底画像、R色眼底画像、IR眼底画像、RGBカラー眼底画像、RGカラー眼底画像がある。UWF-SLO画像の各画像データは、入力/表示装置16Eを介して入力された患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-SLO画像の各画像データと患者の情報とは、記憶装置254に、対応して記憶される。なお、患者の情報には、例えば、患者名ID、氏名、年齢、視力、右眼/左眼の区別等がある。患者の情報はオペレータが入力/表示装置16Eを介して入力する。
OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、広いFOV12Aでの眼底撮影を可能とする。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、第2光学スキャナ24によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30および第2光学スキャナ24を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。CPU16Aの制御下で動作する画像処理装置16Gは、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたOCT眼底画像をUWF-OCT画像と称する。もちろん、内部照射角で160度未満の撮影画角でOCTデータを取得することができる。
UWF-OCT画像の画像データは、患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-OCT画像の画像データと患者の情報とは、記憶装置254に、対応して記憶される。
なお、本実施の形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
次に、眼軸長測定器120を説明する。眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。
眼軸長測定器120は、第1のモードまたは第2のモードにより測定された眼軸長をサーバ140に送信する。第1のモードおよび第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長としてサーバ140に送信する。サーバ140は、患者の眼軸長を患者名IDに対応して記憶する。
次に、図3を参照して、サーバ140の電気系の構成を説明する。図3に示すように、サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、バス270により相互に接続されたCPU262、RAM266、ROM264、および入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、および通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、サーバ140は、眼科装置110、およびビューワ150と通信することができる。記憶装置254には、後述する画像処理プログラムが記憶されている。なお、画像処理プログラムを、ROM264に記憶してもよい。
画像処理プログラムは、本開示の技術の「プログラム」の一例である。記憶装置254、ROM264は、本開示の技術の「メモリ」、「コンピュータ可読記憶媒体」の一例である。CPU262は、本開示の技術の「プロセッサ」の一例である。
サーバ140の後述する処理部208(図5も参照)は、眼科装置110から受信した各データを、記憶装置254に記憶する。具体的には、処理部208は記憶装置254に、UWF-SLO画像の各画像データおよびUWF-OCT画像の画像データと患者の情報(上記のように患者名ID等)とを対応して記憶する。また、患者の被検眼に病変がある場合や病変部分に手術がされた場合には、眼科装置110の入力/表示装置16Eを介して病変の情報が入力され、サーバ140に送信され、記憶装置254に記憶される。病変の情報は患者の情報と対応付けられて記憶装置254に記憶される。病変の情報には、病変部分の位置の情報、病変の名称、病変部分に手術がされている場合には手術名や手術日時等がある。
ビューワ150は、CPU、RAM、ROM等を備えたコンピュータとディスプレイとを備え、ROMには、画像処理プログラムがインストールされており、ユーザの指示に基づき、コンピュータは、サーバ140から取得した眼底画像などの医療情報が表示されるようにディスプレイを制御する。
次に、図4を参照して、第1実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、画像取得機能、画像処理機能(3D動画生成機能、3D眼球画像生成機能、保存機能、および特徴部取得機能)、表示制御機能、および出力機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、図4に示すように、画像取得部1410、画像処理部1420(3D動画生成部1421、3D眼球画像生成部1422、保存部1423、および特徴部取得部1424)、表示制御部1430、および出力部1440として機能する。
次に、図5を用いて、サーバ140による画像処理を詳細に説明する。サーバ140のCPU262が画像処理プログラムを実行することで、図5のフローチャートに示された画像処理が実現される。当該画像処理は、眼科装置110によりUWF眼底画像(UWF-SLO画像)が、取得され、患者名IDと共にサーバ140に送信され、サーバ140が、患者名IDおよびUWF眼底画像を受信した場合に、スタートする。
ステップ502で、画像取得部1410は、記憶装置254から、患者名IDに対応するUWF眼底画像G1を取得する。UWF眼底画像G1は、例えば、RGBカラー眼底画像(図7A参照)である。
ステップ504で、画像処理部1420は、UWF眼底画像G1に対し、詳細には後述する3D加工処理(図6も参照)を実行する。
ステップ506で、表示制御部1430は、詳細には後述する表示画面(図12、図14、図15も参照)を生成する。
次に、図6を用いて、ステップ504の3D加工処理を説明する。
ステップ602で、3D動画生成部1421は、UWF眼底画像G1の各点に対応する眼球モデルM上の各点を取得する。
具体的には、3D動画生成部1421は、図8に示すように、UWF眼底画像G1を眼球モデルMへ投影する過程を示す複数のフレームからなる動画データを生成する。球面を平面に投影する方法はステレオ投影であるが、本実施の形態では、3D動画生成部1421は、平面から球面へのステレオ逆投影の過程を示す動画データを生成する。
具体的には、3D動画生成部1421は、まず、UWF眼底画像G1と眼球モデルMとの位置合わせを行う。具体的には、3D動画生成部1421は、UWF眼底画像G1の投影中心と眼球モデルMの投影中心が一致し、かつ、眼球モデルMの中心から投影面が水平になるように配置する。UWF眼底画像G1の中心gcを中心としたXY方向と、眼球モデルMの瞳孔中心mcを中心としたXY方向とを一致させる。
眼球モデルMとUWF眼底画像G1との位置合わせが完了後、3D動画生成部1421は、UWF眼底画像G1の各点を識別するタイムステップに関連する変数gを0にセットし、変数gを1インクリメントし、変数gで識別されるUWF眼底画像G1の点を、以下の変換式に従って、眼球モデルM上の点に変換する。これにより、変数gで識別されるUWF眼底画像G1の点に対応する眼球モデルM上の点が取得される。本実施例では、Z=-1の平面にUWF眼底画像G1を配置する。UWF眼底画像G1の点を(Xg,Yg、-1)とし、UWF眼底画像G1の点(Xg,Yg, -1)に対応する眼球モデルMの上の点を(Xmg,Ymg,Zmg)とすると、変換式は次の通りである。
Xmg=4Xg/(4+Xg+Yg
Ymg=4Yg/(4+Xg+Yg
Zmg=(-4+Xg+Yg)/(4+Xg+Yg
例えば、図8に示すように、変数g=1により識別されるUWF眼底画像G1の点g1(X1,Y1, -1)が眼球モデルM上の点m1(Xm1,Ym1,Zm1)に変換される。以上の変換を、UWF眼底画像G1の全ての点について実行する。ここで、点g1はUWF眼底画像G1の画素ごとに設定される。上記の変換は、UWF眼底画像G1の全ての画素について実行される。
なお、UWF眼底画像G1の全ての点(画素)ではなく、ユーザにより選択されたUWF眼底画像G1の網膜剥離などの病変を含む領域や、渦静脈を含む領域に対して、上記の変換を行ってもよい。
ステップ602で用いる眼球モデルは、デフォルトの眼球モデルを用いてもよい。しかし、本実施の形態では、3D動画生成部1421は、患者名IDに対応する眼軸長を記憶装置254から読み出し、デフォルトの眼球モデルの大きさを、読み出した眼軸長に応じて予め補正している。
また、本実施の形態では、3D動画生成部1421は、変換式を用いて、UWF眼底画像G1の各点に対応する眼球モデルM上の点を取得している。本開示の技術はこれに限定されない。予め眼球モデルに対する変換ルックアップテーブルを準備しておき、3D動画生成部1421は、当該テーブルを参照してUWF眼底画像G1の各点に対応する眼球モデルM上の点を取得するようにしてもよい。
ステップ604で、3D動画生成部1421は、UWF眼底画像の各点の画素が、眼球モデル上の対応する各点まで移動する軌跡を取得する。
具体的には、3D動画生成部1421は、変数gを0にセットし、変数gを1インクリメントし、変数gで識別されるUWF眼底画像G1の点と当該点に対応する眼球モデルM上の点とを結ぶ線を、経路として設定する。3D動画生成部1421は、変数gで識別されるUWF眼底画像G1の点の画素の所定時間毎の位置を算出する。なお、この所定時間は、後述する動画データにおけるフレームレートに従う時間である。
ここで、上記移動のパターンには、UWF眼底画像G1の各点の画素の移動の経路及び移動する速度の少なくとも一方が異なる複数のパターンがある。
上記経路は、直線でも曲線でもよいが、本実施の形態では直線としている。なお、ユーザに、直線、および曲線(例えば、上に凸の曲率が異なる複数の曲線、下に凸の曲率が異なる複数の曲線)の中から選択させてもよい。
また、速度は、上記移動中一定でも変化させてもよい。本実施の形態では、速度は、上記移動中、予め定められた速度V0で一定としている。速度についても、等速(複数の速度)、徐々に早くなる複数のパターン、徐々に遅くなる複数のパターンなどからオペレータに選択させてもよい。
より具体的には、例えば、変数g=1の場合、3D動画生成部1421は、変数g=1により識別されるUWF眼底画像G1の点g1を、図9に示すように、眼球モデルMのXYZ座標系の点mg1として、点g1の座標(X1,Y1)を、点mg1の座標(X1,Y1,-1)に変換する。一般的なステレオ投影変換ではZ=0にUWF眼底画像G1を配置するが、ここでは、図13のようにUWF眼底画像G1を残したまま変換動画を生成するので、意図的にZ=-1にUWF眼底画像G1を配置している。
3D動画生成部1421は、XYZ座標系において、点mg1(X1,Y1,-1)と、点m1(Xm1,Ym1,Zm1)との線分L1を設定する。
後述するように、本実施の形態では、点mg1(X1,Y1,-1)の画素が、点m1(Xm1,Ym1,Zm1)まで移動する過程を表す動画データが作成される。動画データが再生されると、点mg1(X1,Y1,-1)の画素が、線分L1を通って点m1(Xm1,Ym1,Zm1)まで移動することが表示される。よって、線分L1は、点mg1(X1,Y1,-1)の画素の移動の軌跡となる。なお、線分L1は経路L1とも言う。
本実施の形態では、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで、対応する経路に沿って、等速直線移動するパターンが予め定められている。当該パターンでは、例えば、図10に示すように、点mg1(X1,Y1,0)の画素が、経路L1に沿って、点md、・・・、mh、・・・mm、・・・m1まで、等速V0で移動する。3D動画生成部1421は、経路L1と速度V0とから、点mg1(X1,Y1,-1)の画素の所定時間毎の位置(XYZ座標系)を算出する。
3D動画生成部1421は、以上の処理を、変数gが、UWF眼底画像G1の点の総数になるまで実行する。これにより、UWF眼底画像G1の全ての点の画素の移動の経路に沿った位置が取得される。
なお、UWF眼底画像G1の各点の画素毎に、移動のパターンが異なるようにしてもよい。例えば、UWF眼底画像G1のある点の画素は、等速直線移動であるが、他の点の画素は、徐々に速度が遅くなりかつ上に凸の曲線の経路に沿って移動するようにしてもよい。
ステップ606で、3D動画生成部1421は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動する過程を示す動画データを生成する。
具体的には、まず、UWF眼底画像G1の各画素をデータ点とし、3次元座標のZ=-1となるXY平面に配置し、初期フレームが生成される(図11のf1に相当する処理である。図11は動画データの複数のフレームを説明するための図である。)。
次に、ステップ604で設定された軌跡のデータから、所定時間(Δt)経過後の位置に当該データ点を配置する。UWF眼底画像G1のデータ点すべてに対して当該データ点を配置することにより平面(曲面)を定義する。この平面のデータ点に対して画素データ(色と輝度のデータ)を入力し、所定時間(Δt)経過後の中間フレームが生成される(図11のfd、fh、fmに相当)。
続いて、中間フレームの生成を所定時間Δt1からΔtn(nは最終位置nとなるまでに生成されるフレーム数である)まで、同様に、フレーム作成を繰り返す。図11ではfnが最終フレームであり、各データ点が眼球モデルM上の点まで移動した状態のフレームである。
そして、フレーム1からnが完成したのち、フレーム番号、動画ファイル番号などを付加し、動画データが生成される。
平面の算出方法は線形補間、スプライン補間などを用いてもよい。平面の形状モデルは、サーフェイスモデルや空間格子モデルなどを用いてもよい。平面を算出せず、データ点に大きさをもたせ、散布図として表示してもよい。
上記のように本実施の形態では、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで、経路Lに沿って等速V0で移動する等速直線移動するパターンが予め定められている。よって、ステップ606では、動画データとして、UWF眼底画像G1の各点の画素が、各画素の点に対応する眼球モデルM上の点まで当該等速直線移動することを表す所定時間毎の複数のフレーム(静止画像)が生成される。
例えば、図11に示すように、最初のフレームF1は、UWF眼底画像G1と一致する。3D動画生成部1421は、計算された移動後の位置に、対応する各画素を配置することにより、所定時間後のフレームを生成する。3D動画生成部1421は、以上の処理を繰り返すことにより、図11に示すように、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動するまでの、所定時間毎のフレームfd、・・・、fh、・・・、fm、・・・frが生成される。
ステップ608で、3D眼球画像生成部1422は、3D眼球画像データを生成する。
3D眼底画像データは、UWF眼底画像G1を所定の眼球モデルに張り合わせるように変換し、変換したUWF眼底画像G1に虹彩や水晶体などの前眼部画像を合成して得られる、眼球のイメージ画像データである。3D眼球画像生成部1422は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像(動画の最終フレーム)を3D眼球画像としてもよい。
図5の画像処理とは別の処理で、特徴部取得部1424が、特徴部の情報を取得しておく。特徴部としては、眼底構造物として血管(例えば、網膜血管、脈絡膜血管等)、視神経乳頭、黄斑、渦静脈などがある。3D眼球画像生成部1422は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像に、特徴部取得部1424により取得された特徴部の画像を強調させることにより、3D眼底画像データを生成する。また、特徴部には病変領域も含まれる。病変領域は眼科医の診断により特定される。例えば、網膜剥離を含む領域を示すマークがUWF眼底画像G1に重畳表示されている。
このような特徴物の位置や領域は、UWF眼底画像G1上の座標データとして病変名や特徴物名と座標データを組み合わせて記憶装置254に保持されている。
ステップ606で、動画データを作成する際に、特徴物や病変の位置をマークしたUWF眼底画像G1から動画データを作成するようにしてもよい。
ステップ610で、保存部1423は、各データ(動画データ及び3D眼底画像データ)を、記憶装置2554に保存(記憶)する。
ステップ610の各データの保存処理が終了すると、図5のステップ504の3D加工処理が終了し、画像処理は、ステップ506に進み、表示制御部1430は、表示画面(図12、図14、および図15も参照)を生成し、画像処理が終了する。
ユーザ(例えば、眼科医等)は、患者の被検眼を診察する際、患者名IDをビューワ150に入力する。ビューワ150はサーバ140に、患者名IDに対応する被検眼の画像データ等を送信するように指示する。サーバ140の出力部1440は、患者名IDに対応する、患者名、患者の年齢、患者の視力、左眼か右眼かの情報、眼軸長、撮影日、および画像データ等を、患者名IDと共に、ビューワ150に送信する。
画像データ等には、UWF眼底画像、動画データ、3D眼底画像データ、特徴部の情報が含まれる。
患者名ID、患者名、患者の年齢、患者の視力、左眼か右眼かの情報、眼軸長、撮影日、および画像データを受信したビューワ150は、図12に示す表示画面400Aをディスプレイに表示する。
図12に示すように、表示画面400Aは、情報表示領域402と、画像表示領域404Aとを有する。
情報表示領域402には、患者ID表示領域412、患者名表示領域414、年令表示領域416、右眼/左眼表示領域418、眼軸長表示領域420、視力表示領域422、及び撮影日時表示領域424を有する。ビューワ150は、受信した情報に基づいて、患者ID表示領域412から撮影日時表示領域424の各表示領域に各々の情報を表示する。
画像表示領域404Aは、SLO画像表示領域452Aと、動画データ表示領域454A1とを有する。動画データ表示領域454A1は、動画データ表示部455A、再生ボタン456、及び表示経過表示部458を有する。
SLO画像表示領域452Aには、UWF眼底画像が表示される。再生ボタン456が操作されると、動画データ表示部455Aに動画データが表示されると共に、表示経過表示部458における、全体の動画データの中の既に表示された割合に対応する部分が、所定の色で塗りつぶされる。
動画データ表示部455Aにおける動画データの再生を説明する。再生ボタン456が操作される前は、図12、図13に示すように、UWF眼底画像G1が表示される。
再生ボタン456が操作されると、図13に示すように、まず、UWF眼底画像G1の正面視が表示され(映像a)、次に、UWF眼底画像G1が所定角度傾いた画像Gdが表示され(映像b)、更に、UWF眼底画像G1が更に傾いた斜視の画像Ghが表示(映像c)される。映像a、映像b、そして映像cが表示されていく過程は、2次元眼底画像の正面視から斜視への変換する第1過程である。
その後、画像Ghをそのまま残したうえで、ステレオ投影逆変換の初期状態を示した3次元眼底画像fhが重畳された映像dが表示される。そして、ステレオ投影逆変換の様子を示した映像が表示され、具体的には、最初のフレームf1、・・・フレームfh、・・・フレームfrまで表示される。そして、画像Gh上にステレオ投影逆変換の完了状態を示した3次元画像frが重畳した映像eが表示される。映像dから映像eが表示されていく過程は、水平視の2次元眼底画像に、ステレオ投影逆変換される3次元眼底画像が変化していく第2過程である。
最後に、映像eを回転させ、正面視のUWF眼底画像G1に正面視の三次元眼底画像fr重畳された画像Gzが表示される(映像f)。映像eから映像fが表示されていく過程は、水平視の2次元眼底画像と前記変換が完了した三次元眼底画像とを一体画像として回転させる第3過程である。
なお、動画データは、図11に示したように、UWF眼底画像G1がステレオ投影逆変換される過程だけの動画(図13のように画像Ghをそのまま残した動画ではなく、画像Ghを残さない動画)であってもよい。
動画データが表示される場合、予め定められた点、図13に示す例えでは、上下の各々の最外部の予め選択された4点について、各点の経路が表示される(図のL1、L2、L3とL4)。また、渦静脈や網膜剥離などの上述した特徴部の位置の経路を表示するようにしてもよい。
動画データ表示部455Aに動画データが表示され、画像Gzが表示されると、図14に示すように、動画データ表示領域454A1に、3D眼球画切替ボタン460が表示される。
3D眼球画切替ボタン460が操作されると、図15に示すように、動画データ表示領域454A1は、3D眼底画像表示領域454A2に切り替わる。3D眼底画像表示領域454A2には、3D眼球画像が表示される。上記のように、UWF眼底画像G1を所定の眼球モデルに張り合わせるように変換し、変換したUWF眼底画像G1に虹彩や水晶体などの前眼部画像を合成して得られる、眼球のイメージ画像データである。
3D眼底画像表示領域454A2には、3D動画切替ボタン462が表示される。3D動画切替ボタン462が操作されると、図12の表示画面400Aに切り替わる。
以上説明したように第1実施の形態は、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データを作成する。よって、ユーザは、UWF眼底画像の各点が、眼球モデル上の対応する各点まで、どのように移動するのかを知ることができる。従って、ユーザは、眼球モデル上の対応する各点は、UWF眼底画像のどの点なのかを知ることができる。
よって、UWF眼底画像から生成された動画データをユーザ(眼科医)が閲覧することにより、眼底周辺部や眼底赤道部の眼球上での位置や病変の大きさ(病変領域の面積)を、ユーザが直感的に把握することができる。また、眼科医が被検者(患者)に対して病変の位置や大きさなどの診断結果をわかりやすく説明できる。
また、第1実施の形態では、2次元のUWF眼底画像を眼球モデルに基づいて3次元眼底画像に変換する過程の動画を生成することを示した。これに限らず、前眼部の2次元の撮影された画像を眼球モデルに基づいて3次元前眼部画に変換する過程の動画を生成するようにしてもよい。例えば、水晶体の2次元平面画像を三次元の水晶体モデルに基づいて変換する動画を生成するようにしてもよい。水晶体の色素沈着などの部位を立体的にわかりやすく認識させ、緑内障手術の術式のプラニングに活用することができる。
[第2実施の形態]
次に、本開示の技術の第2実施の形態を説明する。第2実施の形態の構成は、第1の実施の形態の構成と略同様であるので、異なる部分(眼科装置110の固視機能とサーバ140のモンタージュ画像生成)のみを説明する。
まず、第2実施の形態の眼科装置110の固視機能を説明する。
眼科装置110の撮影装置14は、制御装置16により制御され、図示しない上固視灯及び下固視灯(さらに図示せぬ中央固視灯を含む)を点灯させる固視標制御装置を備えている。中央固視灯、上固視灯及び下固視灯の何れかを点灯させることにより被検眼12の向き(視線方向)を変えることができる。
次に、第2実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現されるモンタージュ画像生成機能について説明する。
図16には、第2実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能のブロック図が示されている。第2実施の形態の画像処理プログラムは、第1実施の形態と比較すると、画像処理機能において、モンタージュ画像生成機能が追加されている。よって、CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、モンタージュ画像生成部1425として更に機能する。
眼科装置110は、患者の視線を斜め上方向に向けるために、固視標制御装置を制御して上固視灯を点灯させる。これにより、患者の視線が斜め上方向、即ち、眼球中心から上固視灯に向かう方向に向けられる。上固視灯を点灯させるだけでなく、眼科装置110のオペレータが「上を向いてください」など患者の視線を斜め上方向にする指示を出すことで、被検眼の視線を斜め上方向に向いた状態にしてもよい。
眼科装置110は、患者の視線が斜め上方向に向けられている上方視の状態で、眼底を撮影する。UWF上方視眼底画像GUが得られる(図19Aも参照)。
眼科装置110は、患者の視線を斜め下方向に向けるために、固視標制御装置を制御して下固視灯を点灯させる。これにより、患者の視線が斜め下方向、即ち、眼球中心から下固視灯に向かう方向に向けられる。上固視灯を点灯させるだけでなく、眼科装置110のオペレータが「下を向いてください」など患者の視線を斜め下方向にする指示を出すことで、被検眼の視線を斜め下方向に向いた状態にしてもよい。
眼科装置110は、患者の視線が斜め下方向に向けられている下方視の状態で、眼底を撮影する。UWF下方視眼底画像GDが得られる。なお、図19Bには、後述する位置合わせされたUWF下方視眼底画像GDCが示されている。
UWF上方視眼底画像GUには、第1実施の形態と同様に、B色眼底画像(UWF上方視眼底画像B)、G色眼底画像(UWF上方視眼底画像G)、R色眼底画像(UWF上方視眼底画像R)、IR眼底画像(UWF上方視眼底画像IR)、RGBカラー眼底画像(UWF上方視眼底画像RGB)、RGカラー眼底画像(UWF上方視眼底画像RG)がある。
UWF下方視眼底画像GDも同様に、B色眼底画像(UWF下方視眼底画像B)、G色眼底画像(UWF下方視眼底画像G)、R色眼底画像(UWF下方視眼底画像R)、IR眼底画像(UWF下方視眼底画像IR)、RGBカラー眼底画像(UWF下方視眼底画像RGB)、RGカラー眼底画像(UWF下方視眼底画像RG)がある。
UWF上方視眼底画像GUとUWF下方視眼底画像GDとが、眼科装置110によりサーバ140に送信され、記憶装置254に記憶される。
図17には、第2実施の形態の画像処理のフローチャートが示されている。第2実施の形態の画像処理は、UWF上方視眼底画像GUとUWF下方視眼底画像GDとをサーバ140が受信した場合に、スタートする。
ステップ320で、画像取得部1410は、UWF上方視眼底画像とUWF下方視眼底画像を、記憶装置254から取得する。ステップ322で、モンタージュ画像生成部1425は、UWF上方視眼底画像とUWF下方視眼底画像に対して血管を強調する処理を施す。そして、所定の閾値で二値化する二値化処理を実行する。二値化処理により、眼底の血管が白く強調される。
ステップ324で、モンタージュ画像生成部1425は、UWF上方視眼底画像とUWF下方視眼底画像の位置合わせを行う。ステップ324の位置合わせ処理について、図18のフローチャートを用いて説明する。ここでは、UWF上方視眼底画像を基準としてUWF下方視眼底画像を変換する場合(つまり、UWF上方視眼底画像は変換しないで、UWF下方視眼底画像のみを変換する場合)を例に取り説明する。
図18のステップ340で、モンタージュ画像生成部1425は、UWF上方視眼底画像GUから画像処理により、上記位置合わせのための特徴点群1を抽出する。
特徴点群1は、眼底画像における複数の特徴点であり、図19Aに示すように、視神経乳頭ONHU、黄斑MU、および網膜血管の分岐点である。なお、脈絡膜血管の分岐点も特徴点として抽出するようにしてもよい。
特徴点は、視神経乳頭ONHU領域の最大輝度の画素、黄斑MU領域の最小輝度の画素、網膜血管や脈絡膜血管の分岐点に位置する画素であり、それらの画素の座標が特徴点データとして抽出される、また、網膜血管や脈絡膜血管の分岐点だけでなく、特徴的な血管走行パターンを含む領域を抽出し、該パターンを含む領域の中心点を特徴点としてもよい。
なお、網膜血管や脈絡膜血管の端点、屈曲点あるいは蛇行点を特徴点として抽出するようにしてもよい。
また特徴点は、特徴点検出を行うアルゴリズムであるSIFT(Scale Intevariant Feature Transform)やSURF(Speed Upped Robust Feature)などを用いて行うことができる。
ここで、位置合わせを高精度で行うために、抽出される特徴点の数は4つ以上が好ましい。UWF上方視眼底画像GUには、視神経乳頭と黄斑は被検眼に1つだけしか存在しない。よって、網膜血管や脈絡膜血管の分岐点を2か所以上抽出することにより、UWF上方視眼底画像GUから特徴点1を4つ以上抽出することができる。
眼底中心部に存在する視神経乳頭、黄斑、網膜血管や脈絡膜血管は、UWF上方視眼底画像GUとUWF下方視眼底画像GDの双方に撮影されているため位置合わせ用の特徴点の選択対象として好適である。すなわち、特徴点はUWF上方視眼底画像GUとUWF下方視眼底画像GDとの共通領域である眼底中心部から選択するのが良い。
そこで、ステップ340で、モンタージュ画像生成部1425は、眼底中心部であるUWF上方視眼底画像GUの中心より下側の領域を対象として、画像処理により特徴点群1を抽出する。
眼底周辺部に存在しているUWF上方視眼底画像GUに存在する渦静脈は、上記位置合わせ用の特徴点として選択対象から除外される。眼底周辺部はWF上方視眼底画像GUとUWF下方視眼底画像GDとの共通領域ではないため、眼底周辺部の構造物は特徴点の選択対象から除外される。
ステップ342で、モンタージュ画像生成部1425は、特徴点群1に対応する特徴点群2をUWF下方視眼底画像GDから抽出する。特徴点群2は、図19Bに示すように、視神経乳頭ONHD、黄斑MD、網膜血管の分岐点がある。同一眼であるので、視神経乳頭ONHDは視神経乳頭ONHUに対応し、黄斑MDは黄斑MUに対応している。UWF上方視眼底画像GUにおける上記分岐点は、UWF下方視眼底画像GDにおける血管の分岐点に対応している。UWF上方視眼底画像GUにおける分岐点の分岐パターンと同一の分岐パターンを持つ分岐個所が、画像認識処理などによりUWF下方視眼底画像GDから抽出される。
ステップ344で、モンタージュ画像生成部1425は、特徴点群1と特徴点群2を用いて、UWF下方視眼底画像GDを幾何変換する射影変換行列を生成する。この射影変換行列は、UWF下方視眼底画像GDをUWF上方視眼底画像GUに対応させるための行列である。 少なくとも4個の特徴点により射影変換行列が定まる。
ステップ346で、生成された射影変換行列を用いてUWF下方視眼底画像GDを変換し、変換後のUWF下方視眼底画像GDC(図19B参照)を得る。射影変換行列を用いた変換後では、特徴点群1と特徴点群2は同一位置に来ており、位置合わせ処理が実行されたこととなる。この変換によりUWF下方視眼底画像GDに比べてUWF下方視眼底画像GDCが大きくなっている(面積が増大している)。
上述では、UWF下方視眼底画像GDをUWF上方視眼底画像GUに対応させるための射影変換行列を生成し、UWF下方視眼底画像GDを変換した。この逆で、UWF上方視眼底画像GUをUWF下方視眼底画像GDに対応させるための射影変換行列を生成し、UWF上方視眼底画像GUを変換するようにしてもよい。
これで画像間の位置合わせ処理である図17のステップ324が完了し、画像処理はステップ326に進む。
図17のステップ326で、モンタージュ画像生成部1425は、UWF上方視眼底画像GU及び変換後のUWF下方視眼底画像GDCを合成し、モンタージュ画像GMを生成する。
具体的には、まず、モンタージュ画像生成部1425は、図19Aに示すように、UWF上方視眼底画像GUに視神経乳頭ONHUと黄斑MUとを通る線分LGUを設定する。同様に、モンタージュ画像生成部1425は、図19Bに示すように、変換後のUWF下方視眼底画像GDCに視神経乳頭ONHDと黄斑MDとを通る線分LGDを設定する。
次に、モンタージュ画像生成部1425は、UWF上方視眼底画像GUとUWF下方視眼底画像GDCとが重複する領域の重み付け処理を行う。図20に示すように、モンタージュ画像生成部1425は、UWF上方視眼底画像GUの線分LGUよりも上側領域である上側のUWF上方視眼底画像GUx領域の重みを「1」とする。モンタージュ画像生成部1425は、線分LGUよりも下側領域の重みを「0」とする。そして、モンタージュ画像生成部1425は、変換後のUWF下方視眼底画像の線分LGDよりも下側領域である下側のUWF下方視眼底画像GDCxの重みを「1」とし、線分LGDよりも上側領域出の重みを「0」する。
モンタージュ画像生成部1425は、UWF上方視眼底画像GUとUWF下方視眼底画像GDCに対して、このような重み付け処理を行うことにより、UWF上方視眼底画像GUxとUWF下方視眼底画像GDCxとが合成されたモンタージュ画像GMを生成する。図20に示されるように、線分LGは視神経乳頭OMHと黄斑Mを結ぶ線分であり、線分LGより上側がUWF上方視眼底画像GUxであり、線分LGより下側がUWF下方視眼底画像GDCxである。モンタージュ画像は、本開示の技術の「モンタージュ画像」の一例である。
なお、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの重複部分に関する重み付けは、上述の例に限らず、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの混合割合をさまざまな値に設定することができる。
このように、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの位置合わせを行い合成をする。この合成による、眼底の血管が不連続でなく、眼底周辺部または眼底赤道部に位置する渦静脈や渦静脈周辺の脈絡膜血管を解析、あるいは異常部や病変部などの解析のための眼底画像を得ることができる。
次にステップ328で、特徴部取得部1424は、モンタージュ画像GMを用いて渦静脈の位置や渦静脈付近の血管の血管径を解析する。解析によって得られた渦静脈情報としては、渦静脈の個数、渦静脈の位置、渦静脈につながる血管の本数、渦状膜周囲の血管の血管径などに関する情報が含まれる。
ステップ328の処理の後、ステップ504Sで、3D加工処理が実行される。第1実施の形態のステップ504では、画像処理部1420は、UWF眼底画像G1に対し3D加工処理(図6も参照)を実行する。これに対し、第2実施の形態のステップ504では、画像処理部1420は、モンタージュ画像GMに対し3D加工処理(図6も参照)を実行する。このように、処理の対象の画像が異なるだけなので、ステップ504Sの3D加工処理の説明を省略する。
ステップ504Sの後、ステップ506Sで、表示画面の生成処理が実行される。第2実施の形態の表示画面の詳細については後述する。
ステップ332で、出力部1440は、モンタージュ画像GMと渦静脈解析により得られた渦静脈解析情報とを、サーバ140の記億装置254に出力する。モンタージュ画像GMと渦静脈解析により得られた渦静脈解析情報とがサーバ140の記億装置254に記憶される。
ステップ332では更に、出力部1440は、表示画面400Bに対応する画像データをビューワ150へ出力する。
なお、表示制御部1430は、ディスプレイ256にモンタージュ画像GMを表示するように出力してもよい。
次に、第2実施の形態の表示画面400Bを説明する。第2実施の形態の表示画面400Bは、第1実施の形態の表示画面400Aと略同様であるので、異なる部分のみを説明する。
表示画面400Bは、画像表示領域404Aに代えて画像表示領域404Bを有する。画像表示領域404Bは、モンタージュ画像表示領域452Bと、動画データ表示領域454B1とを有する。
モンタージュ画像表示領域452Bには、モンタージュ画像が表示される。
再生ボタン456が操作されると、動画データ表示部455Bに動画データが表示され、表示経過表示部458に、全体の動画データの中の既に表示された割合を棒グラフで表示する。
動画データ表示部455Bにおける動画データの再生は、第1実施の形態と同様であるので、その説明を省略する。
動画データ表示部455に動画データが表示され、画像Gzが表示されると、図22に示すように、動画データ表示領域454B1に、3D眼球画切替ボタン460が表示される。3D眼球画切替ボタン460が操作されると、図23に示すように、動画データ表示領域454B1に代えて、3D眼底画像表示領域454B2に切り替わる。3D眼底画像表示領域454B2には、3D眼底画像が表示される。上位のように、モンタージュ画像の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像に、特徴部が強調された3D眼底画像が表示される。
以上説明したように第1実施の形態は、モンタージュ画像の各点から眼球モデル上の対応する各点まで移動する過程を表す動画データを作成する。よって、モンタージュ画像の各点が、眼球モデル上の対応する各点まで、どのように移動するのかを知ることができる。従って、眼球モデル上の対応する各点は、モンタージュ画像のどの点なのかを知ることができる。
また、モンタージュ画像は、第1実施の形態のUWF眼底画像よりも広い領域を有するので、眼球モデル上の対応する各点は、UWF眼底画像よりも広い領域のモンタージュ画像のどの点なのかを知ることができる。よって、モンタージュ画像から生成された動画データをユーザが閲覧することにより、渦静脈や網膜剥離などの病変の眼球上での位置を、ユーザが直感的に把握することができる。眼科医が被検者(患者)に対して眼底周辺部の病変の位置や大きさなどの診断結果をわかりやすく説明できる。
UWF上方視眼底画像及びUWF下方視眼底画像の取得、モンタージュ画像の作成の各方法としては、国際出願PCT/JP2019/021868に記載された方法でもよい。2019年05月31日に国際出願された国際出願PCT/JP2019/021868の開示は、その全体が参照により本明細書に取り込まれる。
次に、本開示の技術の種々の変形例を説明する。
以下の各変形例の構成は、第1実施の形態の構成と同様であるので、その説明を省略する。各変形例の作用は、第1実施の形態の作用と略同様であるので、以下、主として異なる部分を説明する。第1実施の形態では、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
(第1変形例)
図24を用いて、第1変形例の画像処理を説明する。
ステップ2402で、画像取得部1410が、記憶装置254から、患者名IDに対応する2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)を取得する。
ステップ2404で、3D動画生成部1421は、2次元眼底画像の各第1の点に対応する、眼軸長により補正された眼球モデルM上の各第2の点を取得する。
ステップ2406で、3D動画生成部1421は、各第1の点が、対応する第2の点から当該第1の点まで移動する過程を示すデータ(動画データ)を作成する。
ユーザは、UWF眼底画像の各第1の点が眼球モデル上の対応する各第2の点から第1の点まで、どのように移動するのかを知ることができる。
(第2変形例)
図25を用いて、第2変形例の画像処理を説明する。
第2変形例では、眼軸長により補正された眼球モデル上に2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)がステレオ逆投影されることにより3次元眼底画像のデータが、予め生成され、患者名IDに対応して記憶装置245に記憶されている。
ステップ2502で、画像取得部1410が、記憶装置254から、患者名IDに対応する3次元眼底画像のデータを取得する。
ステップ2504で、3D動画生成部1421は、3次元眼底画像の各第1の点に対応する2次元眼底画像上の各第2の点を取得する。
ステップ2506で、3D動画生成部1421は、各第1の点が対応する第2の点まで移動する過程を示すデータ(動画データ)を作成する。
ユーザは、3次元眼底画像の各第1の点が、2次元眼底画像上の対応する各第2の点まで、どのように移動するのかを知ることができる。
(第3変形例)
図26を用いて、第3変形例の画像処理を説明する。
第3変形例では、第2変形例と同様に、3次元眼底画像のデータが、予め生成され、患者名IDに対応して記憶装置245に記憶されている。
ステップ2602で、画像取得部1410が、記憶装置254から、患者名IDに対応する3次元眼底画像のデータを取得する。
ステップ2604で、3D動画生成部1421は、3次元眼底画像の各第1の点に対応する2次元眼底画像上の各第2の点を取得する。
ステップ2606で、3D動画生成部1421は、各第1の点が、対応する第2の点から当該第1の点まで移動する過程を示すデータ(動画データ)を作成する。
ユーザは、3次元眼底画像の各第1の点が、2次元眼底画像上の対応する各第2の点から第1の点まで、どのように移動するのかを知ることができる。
(その他の変形例)
上記各例における3次元眼底画像のデータは、眼球モデル上に2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)がステレオ逆投影されることによりえられる。本開示の技術はこれに限定されない。例えば、OCTボリュームデータ、OCTアンジオグラフィデータ、MRI、超音波で得られた三次元眼底画像データあるいは前眼部などの三次元画像データであってもよい。
第1実施の形態では、UWF眼底画像の全ての点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成され、第2実施の形態では、モンタージュ画像の全ての画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
ユーザにより選択された少なくとも1つの点の画素の上記移動する動画データが作成されてもよい。
この場合、ユーザは、UWF眼底画像又はモンタージュ画像の領域を指定することにより、当該領域の複数の点を選択するようにしてもよい。
さらに、ユーザは、上記領域として、眼球の上記特徴部を指定することができる。具体的には、ユーザは、特徴部として、例えば、水晶体、眼底構造物、および病変部分等を指定することができる。
第1実施の形態では、UWF眼底画像(UWF-SLO眼底画像)の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。第2実施の形態では、モンタージュ画像(UWF-SLO眼底画像の合成画像)の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
UWF-SLO画像またはモンタージュ画像(UWF-SLO眼底画像の合成画像)から得られた網膜血管画像または脈絡膜血管画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成されてもよい。
また、UWF-SLO画像ではない、例えば、眼底カメラにより得られた眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成されてもよい。
第1実施の形態及び第2実施の形態では、動画データが作成される。本開示の技術はこれに限定されない。例えば、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す少なくとも1枚の画像を作成するようにしてもよい。例えば、少なくともUWF眼底画像の点と眼球モデル上の対応する点との間の中間の位置に、UWF眼底画像の点の画素が位置する画像が作成されてもよい。
以上説明した各例では、図5及び図17の画像処理は、サーバ140が実行しているが、本開示の技術はこれに限定されない。例えば、眼科装置110またはビューワ150が実行したり、ネットワーク130に更に別の画像処理装置を接続させ、当該画像処理装置が実行したり、してもよい。
以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合と、コンピュータを利用したソフトウェア構成でない構成で画像処理が実現される場合とを含むので、以下の第1技術および第2技術を含む。
(第1技術)
2次元眼底画像を取得する画像取得部と、
前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得する点取得部と、
前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成する作成部と、
を含む画像処理装置。
なお、3D動画生成部1421は、「点取得部」、及び「作成部」の一例である。
(第2技術)
画像取得部が、2次元眼底画像を取得することと、
点取得部が、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得することと、
作成部が、前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成することと、
を含む画像処理方法。
以上の開示内容から以下の第3技術が提案される。
(第3技術)
画像処理するためのコンピュータープログラム製品であって、
前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
前記コンピュータ可読記憶媒体には、プログラムが格納されており、
前記プログラムは、
コンピュータに、
2次元眼底画像を取得し、
前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成する、
ことを実行させる、
コンピュータープログラム製品。
以上説明した画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。

Claims (35)

  1. プロセッサが行う画像処理方法であって、
    2次元眼底画像を取得し、
    前記2次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つである第1の点と、前記2次元眼底画像上の前記第1の点に対応する眼球モデル上の第2の点とを取得し、
    前記第1の点が前記第2の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する、
    画像処理方法。
  2. 前記所定位置は、前記第1の点が移動する前記経路上において所定時間毎に複数設定され、
    前記フレームを生成することは、前記所定時間毎に複数のフレームを生成することを含む、
    請求項1に記載の画像処理方法。
  3. 前記複数のフレームを生成することは、前記複数のフレームから構成される動画データを作成することを含む、
    請求項2に記載の画像処理方法。
  4. 前記動画データは、前記第1の点におけるフレーム、前記第1の点から前記第2の点までの間に複数設定される中間位置におけるフレーム、及び前記第2の点におけるフレームを含む、
    請求項3に記載の画像処理方法。
  5. 前記移動には、複数の移動パターンが予め定められており、
    前記経路は、前記複数の移動パターンの中の選択された移動パターンに従った経路を示す、
    請求項1から請求項4の何れか1項に記載の画像処理方法。
  6. 前記移動には、複数の移動パターンが予め定められており、
    前記移動パターンは、前記第1の点と前記第2の点とを結ぶ3次元空間における前記経路である、
    請求項1から請求項4の何れか一項に記載の画像処理方法。
  7. 前記経路は、前記第1の点と前記第2の点を結ぶ直線の経路である、
    請求項1から請求項5の何れか一項に記載の画像処理方法。
  8. 前記移動パターンは、前記第1の点が、前記第2の点まで移動する移動速度に関するデータが含まれる、
    請求項5又は請求項6に記載の画像処理方法。
  9. 前記第1の点は、前記2次元眼底画像上の複数の画素に対応する複数の点の中から選択された点である、
    請求項1から請求項8の何れか1項に記載の画像処理方法。
  10. 前記第1の点が、前記2次元眼底画像における指定された領域内の各画素に対応する各点である、
    請求項1から請求項9の何れか1項に記載の画像処理方法。
  11. 前記第1の点が、前記2次元眼底画像全体を構成する全ての画素の各画素に対応する各点である、
    請求項1から請求項10の何れか1項に記載の画像処理方法。
  12. 前記眼球モデルは、デフォルトの眼球モデルを、眼軸長に従って補正されたモデルである、
    請求項1から請求項11の何れか1項に記載の画像処理方法。
  13. 前記2次元眼底画像は、被検眼の視線を第1方向に向けた状態で撮影した第1方向眼底画像と、前記被検眼を前記第1方向と異なる第2方向に向けた状態で撮影した第2方向眼底画像と、を合成したモンタージュ画像である、
    請求項1から請求項12の何れか1項に記載の画像処理方法。
  14. 動画データを作成することは、前記動画データを出力することを含み、
    前記出力することは、前記動画データを前記2次元眼底画像に重畳した状態で出力することを含む、
    請求項3から請求項13の何れか一項に記載の画像処理方法。
  15. 前記2次元眼底画像は正面視の画像であり、
    前記重畳した状態で出力することは、
    前記正面視の2次元眼底画像を斜視の2次元眼底画像に変換させる第1過程と、
    前記動画データを前記斜視の2次元眼底画像に重畳した状態で出力することを含む、
    請求項14に記載の画像処理方法。
  16. メモリと、前記メモリに接続するプロセッサとを備え、
    前記プロセッサは、
    2次元眼底画像を取得し、
    前記2次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つである第1の点と、前記2次元眼底画像上の前記第1の点の位置に対応する眼球モデル上の第2の点とを取得し、
    前記第1の点が前記第2の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する、
    画像処理装置。
  17. コンピュータに、
    2次元眼底画像を取得し、
    前記2次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つである第1の点と、前記2次元眼底画像上の前記第1の点の位置に対応する眼球モデル上の第2の点とを取得し、
    前記第1の点が前記第2の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する
    ことを実行させるプログラム。
  18. 前記所定位置は、前記第1の点が移動する前記経路上において所定時間毎に複数設定され、
    前記フレームを生成することは、前記所定時間毎に複数のフレームを生成することを含む、
    請求項17に記載のプログラム。
  19. 前記複数のフレームを生成することは、前記複数のフレームから構成される動画データを作成することを含む、
    請求項18に記載のプログラム。
  20. 前記動画データは、前記第1の点におけるフレーム、前記第1の点から前記第2の点までの間に複数設定される中間位置におけるフレーム、及び前記第2の点におけるフレームを含む、
    請求項19に記載のプログラム。
  21. 前記移動には、複数の移動パターンが予め定められており、
    前記経路は、前記複数の移動パターンの中の選択された移動パターンに従った経路を示す、
    請求項17から請求項20の何れか1項に記載のプログラム。
  22. プロセッサが行う画像処理方法であって、
    2次元眼底画像を取得し、
    前記2次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つである第1の点と、前記2次元眼底画像上の前記第1の点の位置に対応する眼球モデル上の第2の点とを取得し、
    前記第1の点が、前記第2の点から前記第1の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する、
    画像処理方法。
  23. 前記フレームを出力することを更に含む、請求項22に記載の画像処理方法。
  24. プロセッサが行う画像処理方法であって、
    3次元眼底画像を取得し、
    前記3次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つの点である第1の点と、前記3次元眼底画像における第1の点の位置に対応する2次元眼底画像上の第2の点とを取得し、
    前記第1の点が前記第2の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する、
    画像処理方法。
  25. 前記2次元眼底画像は、前記3次元眼底画像をステレオ投影変換した画像である、
    請求項24に記載の画像処理方法。
  26. プロセッサが行う画像処理方法であって、
    3次元眼底画像を取得し、
    前記3次元眼底画像を構成する画素のそれぞれの画素に対応する点の少なくとも1つの点である第1の点と、前記3次元眼底画像における第1の点の位置に対応する2次元眼底画像上の第2の点とを取得し、
    前記第2の点が前記第1の点まで移動する経路を設定し、
    前記経路上の前記画素の所定位置においてフレームを生成する、
    画像処理方法。
  27. 前記2次元眼底画像は、前記3次元眼底画像をステレオ投影変換した画像である、請求項26に記載の画像処理方法。
  28. プロセッサが行う画像処理であって、
    被検眼の2次元眼底画像を取得し、
    前記2次元眼底画像を3次元眼底画像に変換する際に、前記2次元眼底画像に重畳された状態で、前記2次元眼底画像の全ての点の画素が、各画素の点に対応する3次元眼底画像上の点まで移動する過程を示す動画を生成する、ことを含む、
    画像処理方法。
  29. 前記3次元眼底画像は、前記被検眼に対応した眼球モデルに基づいて生成されることを特徴とする
    請求項28に記載の画像処理方法。
  30. 前記2次元眼底画像は正面視の画像であり、
    前記動画は、
    前記正面視の2次元眼底画像を斜視の2次元眼底画像に変化させる第1過程と、
    前記斜視の2次元眼底画像に重畳された状態で、前記2次元眼底画像を前記3次元眼底画像に変換する第2過程と、を含む、
    請求項28又は請求項29に記載の画像処理方法。
  31. 前記動画は、前記正面視の2次元眼底画像と前記変換が完了した3次元眼底画像とを一体画像として回転させる第3過程をさらに含む、
    請求項30に記載の画像処理方法。
  32. メモリと、前記メモリに接続するプロセッサとを備え、
    前記プロセッサは、
    被検眼の2次元眼底画像を取得し、
    前記2次元眼底画像を3次元眼底画像に変換する際に、前記2次元眼底画像に重畳された状態で、前記2次元眼底画像の全ての点の画素が、各画素の点に対応する3次元眼底画像上の点まで移動する過程を示す動画を生成する、ことを含む、
    画像処理装置。
  33. コンピュータに、
    被検眼の2次元眼底画像を取得し、
    前記2次元眼底画像を3次元眼底画像に変換する際に、前記2次元眼底画像に重畳された状態で、前記2次元眼底画像の全ての点の画素が、各画素の点に対応する3次元眼底画像上の点まで移動する過程を示す動画を生成する、ことを含む、
    ことを実行させるプログラム。
  34. 前記2次元眼底画像は正面視の画像であり、
    前記動画は、
    前記正面視の2次元眼底画像を斜視の2次元眼底画像に変化させる第1過程と、
    前記斜視の2次元眼底画像に重畳された状態で、前記2次元眼底画像を前記3次元眼底画像に変換する第2過程と、を含む、
    請求項33に記載のプログラム。
  35. 前記動画は、前記正面視の2次元眼底画像と前記変換が完了した3次元眼底画像とを一体画像として回転させる第3過程をさらに含む、
    請求項34に記載のプログラム。
JP2021553267A 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム Active JP7472914B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/041982 WO2021079504A1 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021079504A1 JPWO2021079504A1 (ja) 2021-04-29
JP7472914B2 true JP7472914B2 (ja) 2024-04-23

Family

ID=75619737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553267A Active JP7472914B2 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20230000337A1 (ja)
JP (1) JP7472914B2 (ja)
WO (1) WO2021079504A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000210260A (ja) 1999-01-22 2000-08-02 Mitsubishi Electric Corp 眼底画像システム
JP2002034924A (ja) 2000-07-19 2002-02-05 Tohoku Techno Arch Co Ltd ステレオ眼底画像からの眼底形状の3次元復元・表示
JP2006061196A (ja) 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
JP2009022308A (ja) 2007-07-17 2009-02-05 Kowa Co 画像処理装置
JP2010256988A (ja) 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
WO2019074077A1 (ja) 2017-10-13 2019-04-18 株式会社ニコン 眼科システム、画像信号出力方法、画像信号出力装置、プログラム、及び三次元眼底画像生成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000210260A (ja) 1999-01-22 2000-08-02 Mitsubishi Electric Corp 眼底画像システム
JP2002034924A (ja) 2000-07-19 2002-02-05 Tohoku Techno Arch Co Ltd ステレオ眼底画像からの眼底形状の3次元復元・表示
JP2006061196A (ja) 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
JP2009022308A (ja) 2007-07-17 2009-02-05 Kowa Co 画像処理装置
JP2010256988A (ja) 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
WO2019074077A1 (ja) 2017-10-13 2019-04-18 株式会社ニコン 眼科システム、画像信号出力方法、画像信号出力装置、プログラム、及び三次元眼底画像生成方法

Also Published As

Publication number Publication date
WO2021079504A1 (ja) 2021-04-29
JPWO2021079504A1 (ja) 2021-04-29
US20230000337A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
WO2013164943A1 (ja) 眼科装置
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
JP7134324B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP7090438B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2023120308A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
EP3984016A1 (en) Systems and methods for superimposing virtual image on real-time image
US20220230371A1 (en) Image processing method, image processing device and program memory medium
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2023022183A1 (ja) 眼科装置、制御方法、プログラム
JP7472914B2 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021149430A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2019047842A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018023818A (ja) 眼科観察装置
JP7050488B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2021168759A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021111840A1 (ja) 画像処理方法、画像処理装置、及びプログラム
US11954872B2 (en) Image processing method, program, and image processing device
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP2020031873A (ja) 眼科装置、その制御方法、プログラム、及び記録媒体
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
JP2019058493A (ja) レーザ治療装置、眼科情報処理装置、及び眼科システム
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2018023816A (ja) 眼科観察装置
JP7380013B2 (ja) 眼科装置、眼科装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7472914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150