JP7322948B2 - 動画処理装置、動画処理方法、および動画処理プログラム - Google Patents

動画処理装置、動画処理方法、および動画処理プログラム Download PDF

Info

Publication number
JP7322948B2
JP7322948B2 JP2021514711A JP2021514711A JP7322948B2 JP 7322948 B2 JP7322948 B2 JP 7322948B2 JP 2021514711 A JP2021514711 A JP 2021514711A JP 2021514711 A JP2021514711 A JP 2021514711A JP 7322948 B2 JP7322948 B2 JP 7322948B2
Authority
JP
Japan
Prior art keywords
eye
moving image
subject
removal
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514711A
Other languages
English (en)
Other versions
JPWO2020213085A1 (ja
Inventor
真梨子 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2020213085A1 publication Critical patent/JPWO2020213085A1/ja
Priority to JP2023117738A priority Critical patent/JP2023134744A/ja
Application granted granted Critical
Publication of JP7322948B2 publication Critical patent/JP7322948B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、動画処理装置、動画処理方法、および動画処理プログラムに関する。
特許文献1は、生体起因の変動を視認する画像処理装置、画像処理方法およびプログラムを開示する。特許文献1では、固視微動については考慮されていない。
国際公開第2019/003285号公報
開示技術の動画処理装置は、被検眼動画データを取得する取得部と、前記取得部によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の動きの除去をする除去する除去部と、前記除去部による前記位置ずれの除去および前記動きの除去後の前記被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調部と、前記強調部による強調後の被検眼動画データを出力する出力部と、を有する。
また、開示技術の動画処理装置は、被検眼動画データを取得する取得部と、前記取得部によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の色変化の除去をする除去部と、前記除去部による前記位置ずれの除去および前記色変化の除去後の前記被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調部と、前記強調部による強調後の被検眼動画データを出力する出力部と、を有する。
開示技術の動画処理方法は、プロセッサが、被検眼動画データを取得する取得処理と、前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の動きの除去をする除去処理と、前記除去処理による前記位置ずれの除去および前記動きの除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調処理と、前記強調処理による強調後の被検眼動画データを出力する出力処理と、を実行する。
また、開示技術の動画処理方法は、プロセッサが、被検眼動画データを取得する取得処理と、前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の色変化の除去をする除去処理と、前記除去処理による前記位置ずれの除去および前記色変化の除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調処理と、前記強調処理による強調後の被検眼動画データを出力する出力処理と、を実行する。
開示技術の動画処理プログラムは、プロセッサに、被検眼動画データを取得する取得処理と、前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに前記位置ずれの除去後の前記被検眼動画データから前記被検眼内の血管の動きの除去をする除去処理と、前記除去処理による前記位置ずれの除去および前記動きの除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調処理と、前記強調処理による強調後の被検眼動画データを出力する出力処理と、を実行させる。
また、開示技術の動画処理プログラムは、プロセッサに、被検眼動画データを取得する取得処理と、前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから前記被検眼内の血管の色変化の除去をする除去処理と、前記除去処理による前記位置ずれの除去および前記色変化の除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調処理と、前記強調処理による強調後の被検眼動画データを出力する出力処理と、を実行させる。
図1は、眼底動画における固視微動除去およびVideo Magnificaton(以下、動画強調と称する)例を示す説明図である。 図2は、眼科システムの一例を示すシステム構成図である。 図3は、動画処理装置のハードウェア構成例を示すブロック図である。 図4は、動画処理装置の機能的構成例を示すブロック図である。 図5は、動画処理装置による画像処理手順例を示すフローチャートである。 図6Aは、除去部の詳細な機能的構成例を示すブロック図である。 図6Bは、強調部の詳細な機能的構成例を示すブロック図である。 図7は、強調部による動画強調後の眼底動画データを示す説明図である。 図8は、眼底動画データの表示例1を示す説明図である。 図9は、眼底動画データの表示例2を示す説明図である。 図10は、眼底動画データの表示例3を示す説明図である。
<固視微動除去および動画強調例>
図1は、眼底動画における固視微動除去およびVideo Magnificaton(動画強調)例を示す説明図である。Tは時間軸を示す。時間軸Tの矢印が時間軸方向、すなわち、時間の進行方向を示す。(A)は、眼底動画データ100を示す。眼底動画データ100は、被験者の眼底の黄斑101、視神経乳頭102、および血管103を含む領域を撮像した動画データである。眼底動画データ100は、例として、時系列な眼底画像フレームF1~F4を含む。末尾の番号が小さいほど過去のフレームであることを示す。眼底画像フレームF1~F4を区別しない場合は、眼底画像フレームFと表記する。説明の便宜上、眼底画像フレームF4までとしたが、眼底画像フレームF4に後続する眼底画像フレームFも存在してもよい。
眼底画像フレームF1~F4は、画像データとして黄斑101、視神経乳頭102、および血管103を含む。黄斑101、視神経乳頭102、および血管103以外の他の組織については図示を省略する。眼底画像フレームF1を眼底画像フレームF2~F4との位置合わせのための基準フレームとする。眼底画像フレームF2~F4では、眼底画像フレームF1の黄斑101、視神経乳頭102、および血管103を点線で示す。
撮像装置が固定された状態で眼底が撮影されるので、眼球の固視微動により、眼底画像フレームF2~F4の黄斑101、視神経乳頭102、および血管103は、眼底画像フレームF1の黄斑101、視神経乳頭102、および血管103の位置からずれる。
固視微動とは、サッカードと呼ばれる短時間(20~80[ms]程度)で高速(100~500度/秒程度)の視線移動を繰り返す眼球運動である。固視微動の動特性により、固視微動は、眼球運動が比較的大きく速いマイクロサッカードと、大きくてゆっくりとしたドリフトと、小さくて高周波数のトレモアと、に分類される。
また、心拍により血管103を流れる血液の量が増減する。たとえば、眼底画像フレームF2,F4は、眼底画像フレームF1,F3よりも血管103を流れる血液の量が増加する。したがって、眼底画像フレームF2,F4の血管103は、眼底画像フレームF1,F3の血管103よりも太くなり、かつ、色が濃くなる。
(A)では、眼底画像フレームF1の血管103の色が最も薄く、眼底画像フレームF2,F4の血管103の色が最も濃いものとする。また、眼底画像フレームF3の血管103の色は、眼底画像フレームF1の血管103の色よりも濃く、眼底画像フレームF2,F4の血管103の色よりも薄いものとする。
動画像データVは、眼底画像フレームF1~F4を時間方向で再生した眼底動画データ100である。動画像データVは、眼底画像フレームF4の表示タイミングでの眼底動画データ100であるが、過去の眼底画像フレームF1~F3の黄斑101、視神経乳頭102、および血管103が残像として視認される。このため、ユーザである医者は、血管103の幅や色が心拍によって変化しているのか、固視微動にともなって変化しているのか、把握しにくい。つまり、実際に血管103の幅や色の変化と、固視微動に起因する血管のフレーム間の位置ずれや色変化を区別すことが難しい。
(B)は、(A)の眼底動画データ100から固視微動を除去した眼底動画データ110を示す。眼底動画データ110は、時系列な眼底画像フレームG1~G4を含む。眼底画像フレームG1~G4はそれぞれ、画像処理により、眼底画像フレームF1~F4から固視微動が除去されたフレームである。眼底画像フレームG1~G4を区別しない場合は、眼底画像フレームGと表記する。
固視微動に起因するフレーム間の位置ずれを補正することにより、固視微動が除去されているため、眼底画像フレームG2~G4の黄斑101、視神経乳頭102、および血管103はそれぞれ、眼底画像フレームF2~F4の点線で示した眼底画像フレームF1の黄斑101、視神経乳頭102、および血管103と同じ位置に表示される。一方、心拍による血管103の動きや色変化は除去されない。したがって、固視微動と血管103などの特定の組織の脈動や色変化との重畳が抑制され、医者などのユーザは、特定の組織の脈動や色変化を、固視微動の影響を受けずに観察することができる。
(C)は、(B)眼底動画データ110のうち特定の組織として血管103を動画強調の対象として処理を行い、血管103の太さの変化や色の変化を強調表示した眼底動画データ120を示す。眼底動画データ120は、時系列な眼底画像フレームH1~H4を含む。眼底画像フレームH1~H4はそれぞれ、画像処理により、眼底画像フレームG1~G4から動画強調されたフレームである。眼底画像フレームH1~H4を区別しない場合は、眼底画像フレームHと表記する。動画強調は、映像中の1ピクセル以下の微小な動きの変化やわずかな色や動きの変化を強調して表示する技術である。眼底動画に動画強調を行うことにより、心拍に起因する血管の太さ(動き)の変化や色の変化などを強調表示することができる。これにより、医者などのユーザは、心拍による血管103の色変化を容易に確認することができる。以下、固視微動を除去する仕組みについて説明する。
<眼科システム>
図2は、眼科システムの一例を示すシステム構成図である。眼科システム200は、眼科装置201としてのスリットランプ(細隙灯顕微鏡)202および手術用顕微鏡203と、管理サーバ204と、端末205と、がLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワーク206により通信可能に接続される。
スリットランプ202は、スリット光で被検眼を照明し、照明された被検眼断面を側方から撮影および観察する顕微鏡である。手術用顕微鏡203は、手術用に特化された顕微鏡である。いずれも被検眼動画データとして、眼底動画データ100,110,120を生成、送信、記憶、表示することができる。なお、患者の被検眼を撮影可能であれば、眼底カメラ、走査型レーザ検眼鏡(SLO:Sccaning Laser Ophthalmoscope)や光干渉断層計(OCT:Optical Coherence Tomography)のような眼科装置201でもよい。
管理サーバ204は、眼科装置201から眼底動画データを取得して格納したり、眼底動画データを、眼科装置201や端末205に送信する。端末205は、眼科装置201や管理サーバ204から眼底動画データを受信して再生したり、眼底動画データ100,110,120を眼科装置201や管理サーバ204に送信したりする。
眼科装置201、管理サーバ204および端末205のうち少なくとも1つは、図1で説明した固視微動除去を実行可能であり、また、眼科装置201、管理サーバ204および端末205のうち少なくとも1つは、図1で説明した動画強調を実行可能である。すなわち、固視微動除去および動画強調は同一の装置で実行されてもよく、異なる装置で実行されてもよい。
<コンピュータのハードウェア構成例>
つぎに、コンピュータのハードウェア構成例を示す。コンピュータは、図2に示した眼科装置201、管理サーバ204および端末205の総称である。なお、コンピュータが眼科装置201である場合、図示しない光源や光学系、センサを含む。
図3は、コンピュータのハードウェア構成例を示すブロック図である。コンピュータ300は、プロセッサ301と、記憶デバイス302と、入力デバイス303と、出力デバイス304と、通信インターフェース(通信IF)305と、を有する。プロセッサ301、記憶デバイス302、入力デバイス303、出力デバイス304、および通信IF305は、バス306により接続される。プロセッサ301は、コンピュータ300を制御する。記憶デバイス302は、プロセッサ301の作業エリアとなる。また、記憶デバイス302は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス302としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。入力デバイス303は、データを入力する。入力デバイス303としては、たとえば、キーボード、マウス、タッチパネル、テンキー、スキャナがある。出力デバイス304は、データを出力する。出力デバイス304としては、たとえば、ディスプレイ、プリンタがある。通信IF305は、ネットワーク206と接続し、データを送受信する。
<動画処理装置の機能的構成例>
図4は、動画処理装置の機能的構成例を示すブロック図であり、図5は、動画処理装置による画像処理手順例を示すフローチャートである。図4において、動画処理装置400は、取得部401と、除去部402と、強調部403と、出力部と、を有する。動画処理装置400は、コンピュータ300において除去部402および強調部403の少なくとも一方を有する。動画処理装置400は、1台のコンピュータ300または連携しあう複数のコンピュータ300により構成される。
取得部401、除去部402、強調部403、および出力部は、具体的には、たとえば、図3に示した記憶デバイス302に記憶されたプログラムをプロセッサ301に実行させることにより実現される。
取得部401は、動画処理装置400内部の記憶デバイス302または動画処理装置400外の他のコンピュータ300から、眼底動画データ100を取得する(ステップS501)。除去部402は、取得部401によって取得された眼底動画データ100に基づいて、眼底動画データ100から固視微動を除去する、つまり、固視微動によるフレーム間の眼底領域の位置のずれを補正し、固視微動の影響を動画データから除去する(ステップS502)。
強調部403は、除去部402によって固視微動の影響が除去された眼底動画データ110についてVMによる強調処理を実行する(ステップS503)。具体的には、たとえば、強調部403は、時間方向の特定の周波数成分を強調する。強調部403は、眼底動画データ100の眼底画像フレームFの各々について、眼底画像フレームF全体を強調してもよく、黄斑101、視神経乳頭102、血管103など特定の組織を含む領域を強調してもよい。
出力部404は、強調部403によって特定の組織が強調された眼底動画データ120を出力する(ステップS504)。具体的には、たとえば、出力部404は、動画処理装置400が有する表示装置に眼底動画データ120を表示したり、動画処理装置400から他のコンピュータ300に眼底動画データ120を送信したりする。
図6Aは、除去部402の詳細な機能的構成例を示すブロック図である。除去部402は、第1除去部601、第2除去部602および第3除去部603を有する。まず、第1除去部601について説明する。
第1除去部601は、強調部403において血管103などの特定の組織の動きおよび色変化を強調するために、固視微動を除去する。具体的には、たとえば、第1除去部601は固視微動除去部でもある。第1除去部601は、図1で説明したように、眼底画像フレームF1を基準フレームとし、他の眼底画像フレームF2~F4を比較対象フレームとして位置合わせを実行する。なお、ここでは、基準フレームを眼底画像フレームF1のうち最古の眼底画像フレームF1としたが、眼底画像フレームF2~F4のいずれかでもよい。リアルタイム性の向上を図る場合には、最古の眼底画像フレームF1とすればよい。
このフレーム間での位置合わせにより固視微動による眼底の位置ずれが補正されるため、補正後の動画データでは固視微動の影響が除去され、血管103、視神経乳頭102、黄斑101の位置はフレーム間で同じ位置になる。そのため、後述する強調部403で、拍動に起因する血管103の太さの変化や色の変化が強調されることになる。
基準フレームと比較対象フレームとの位置合わせは、たとえば、平行移動、回転、および拡縮による変形を含むアフィン変換行列を用いた非剛体位置合わせにより実行される。また、除去部402は、スケール不変特徴変換(Scale Invariant Feature Transform,SIFT)やSIFTを高速化したSpeeded Up Robust Features(SURF)といったアルゴリズムを適用してもよい。
また、第1除去部601は、基準フレームと比較対象フレームとの位置合わせについて、同一位置画素値の差分二乗和(SSD)、同一位置画素値の差分絶対値和(SAD)、相互情報量、相互相関を評価関数として用いてもよい。たとえば、相互情報量や相互相関を適用した場合、相関値が0よりも大きいほど基準フレームと比較対象フレームとは類似し、相関値が小さいほど基準フレームと比較対象フレームとは類似しない。
このように、基準フレームと比較対象フレームとの位置合わせを実行することにより、図1に示した比較対象フレームである眼底画像フレームF2~F4の黄斑101、視神経乳頭102、および血管103の位置が、点線で示した基準フレーム(眼底画像フレームF1)の黄斑101、視神経乳頭102、および血管103の位置に一致するようになる。したがって、眼底画像フレームF1~F4における黄斑101、視神経乳頭102、および血管103の位置が一致するため、眼底動画データ100から固視微動が除去される。
また、第1除去部601は、上述した相関値がしきい値以下となった比較対象フレームを眼底動画データ100から除去してもよい。相関値がしきい値以下となった比較対象フレームは、基準フレームとの類似性が低いため、固視微動の動特性の1つである、眼球運動が比較的大きく速いマイクロサッカードを示すフレームと言える。したがって、相関値がしきい値以下となった比較対象フレームを眼底動画データ100から除去することにより、第1除去部601は、マイクロサッカードが表示されない眼底動画データ110を生成することができる。
つぎに、第2除去部602について説明する。第2除去部602は、強調部403において血管103などの特定の組織の動きおよび色変化のうち色変化のみを強調するための除去処理を実行する。具体的には、たとえば、第2除去部602は、分解部621と、時間フィルタリング部622と、位相ノイズ除去部623と、減衰部624と、再構築部625と、を有する。
分解部621は、コンプレックスステアラブルピラミッド(complex steerable pyramids)のような既知のフィルタ処理を用いて、第1除去部601による固視微動除去後の眼底画像フレームGが入力される都度、眼底画像フレームGを、高周波成分hprと、低周波成分lprと、複数の直交成分と、に分解する。
すなわち、分解部621は、局所的な波の振幅(高周波成分hprと、低周波成分lpr)を当該波の位相(複数の直交成分)から分離する。分解部621は、高周波成分hprおよび低周波成分lprを再構築部625に出力し、複数の直交成分を時間フィルタリング部622に出力する。
時間フィルタリング部622は、眼底画像フレームFの位相(複数の直交成分)を、各位置、方向、スケールで独立して時間的にフィルタリングする。位相ノイズ除去部623は、振幅で重み付けされた空間平滑化を適用して位相のSN比を増加させる。
減衰部624は、時間フィルタリング部622で時間的にバンドパスされた位相を減衰させる。これにより、第1除去部601による位置合わせによって生じた誤差(心拍に相当)による特定の組織(たとえば、血管103)の動きを抑制する。再構築部625は、減衰部624からの出力と、高周波成分hprおよび低周波成分lprと、を用いて、眼底画像フレームGを再構築する。このように、再構築された眼底画像フレームGは、特定の組織の動きが抑制された画像フレームとなる。
つぎに、第3除去部603について説明する。強調部403において血管103などの特定の組織の動きおよび色変化のうち動きのみを強調するための除去処理を実行する。具体的には、たとえば、第3除去部603は、第1除去部601による固視微動除去後の眼底画像フレームGを蓄積し、連続する2つの眼底画像フレームG間で特定の組織(たとえば、血管103)の色濃度の差分がしきい値以上であるか否かを判断する。差分がしきい値以上である場合、連続する2つの眼底画像フレームGのうち特定の組織(たとえば、血管103)の色濃度が薄い方の眼底画像フレームGを除去する。
たとえば、図1の(B)で示した眼底画像フレームG1~G4の場合、眼底画像フレームG1,G2間で血管103の色濃度の差分がしきい値以上であるとする。この場合、第3除去部603は、血管103の色濃度が薄い方の眼底画像フレームG1を除去する。眼底画像フレームG2,G3間、および、眼底画像フレームG3,G4間では、血管103の色濃度の差分がしきい値以上でないものとする。したがって、眼底画像フレームG2,G3は除去されない。
図6Bは、強調部403の詳細な機能的構成例を示すブロック図である。強調部403は、空間分解部701、時間フィルタリング部702、増幅部703-1,703-2,…,703-n(nは2以上の整数)、加算部704-1,704-2,…,704-n、および、再構築部705を有する。増幅部703-1,703-2,…,703-nを区別しない場合には、単に増幅部703と表記する。加算部704-1,704-2,…,704-nを区別しない場合には、単に加算部704と表記する。まず、空間分解部701について説明する。
空間分解部701は、除去部402による固視微動除去後の眼底画像フレームGが入力される都度、眼底画像フレームGを、異なる複数の空間周波数帯域(帯域1、帯域2、…、帯域n)に分解する。バンドパスフィルタ(bandpasss)やコンプレックスステアラブルピラミッド(complex steerable pyramids)のような既知のフィルタ処理を用いることができる。帯域1、帯域2、…、帯域nの順で空間周波数が高くなっている。空間分解部701で帯域1に分解された画像データg1、帯域2に分解された画像データg2,…,帯域nに分解された画像データgnを時間フィルタリング部702に出力する。
つぎに、時間フィルタリング部702は、2次のIIR(Infinite Impulse Response)フィルタのような既知のフィルタ処理を用いて、画像データg1,g2,…,gnの各々から、人間の拍動の周波数である60~80[kHz]の周波数成分を抽出する。
時間フィルタリング部702を通過した画像データg1は、増幅部703-1で設定された強調係数に基づいて増幅される。強調係数は、たとえば、10倍に設定されており、画像データg1が10倍に振幅が増幅される。そして、増幅部703-1を通過した画像データg1は、加算部704-1で空間分解部701から出力された画像データ1gと加算され、再構築部705に出力される。同様にして、画像データg2についても増幅部703-2、加算部704-2を介して再構築部705に出力される。画像データgnについても増幅部703-n、加算部704-nを介して再構築部705に出力される。
増幅部703における強調係数は、除去部402による固視微動除去後の眼底画像フレームG全体で同じであるが、空間的に(画素ごとに)強調係数を設定するようにしてもよい。具体的には、人工知能などの画像処理またはユーザの指定により、視神経乳頭102や血管103などの強調領域を抽出し、抽出された強調領域の画素の強調係数を、眼底画像フレームG中のほかの領域とは異なる強調係数に設定するようにする。これにより眼底画像フレームG中の強調領域のみが動画強調される。
再構築部705では、加算部704-1,704-2,…,704-nから出力された画像データh1,h2,…,hnを用いて、眼底画像フレームGを再構築する。このように、再構築された眼底画像フレームGは、特定の組織について心拍に起因した周期的な変動が強調された画像フレームH1~H4となる。
ユーザ(眼科医など)は、入力デバイス303を介して、複数の動画強調モードを選択できる。動画強調モードは、動きと色変化の双方を強調する通常モード、色変化のみを強調する色強調モード、動きのみを強調する動き強調モードを少なくとも用意されている。通常モードが選択された場合、眼底動画データ100は、除去部402の第1除去部601で固視微動に起因するフレーム間の位置ずれが補正されて、強調部403で動画強調がなされる。
色強調モードが選択された場合、眼底動画データ100は、除去部402の第1除去部601で固視微動に起因するフレーム間の位置ずれが補正され、つづいて、第2除去部602により特定の組織の動きが除去される。そして、強調部403で動画強調がなされる。
動き強調モードが選択された場合、眼底動画データ100は、除去部402の第1除去部601で固視微動に起因するフレーム間の位置ずれが補正され、つづいて、第3除去部603により色変化が除去される。そして、強調部403で動画強調がなされる。
<動画強調後の眼底動画データ120>
図7は、強調部403による動画強調後の眼底動画データ120を示す説明図である。図7では、血管103のような特定の組織について心拍に起因した周期的な変動が強調される。血管103の色変化は、たとえば血液を送り出すときに血管103が濃く観察され、その後、血管103の色が薄まって観察される。血管103の動きは、たとえば、血液を送り出す時に膨張し(血管103の幅が太くなり)、その後、元に戻る。動脈より静脈のほうが動き及び色の変化が大きい傾向がある。
(A)は、第1除去部601による固視微動除去後の眼底動画データ110について動画強調した眼底動画データ120を示す。血管103の動きと色の変化の双方が強調された眼底動画データ120である。
(B)は、第1除去部601による固視微動除去および第2除去部602による特定の組織の動き除去後の眼底動画データ110について動画強調した眼底動画データ120を示す。特定の組織は血管103であり、血管103の色の変化のみが強調された眼底動画データ120である。
(C)は、第1除去部601による固視微動除去および第3除去部603による色変化を除去後の眼底動画データ110について動画強調した眼底動画データ120を示す。色の変化が除去(色濃度が薄い方の眼底画像フレームG1が除去)され、血管103の動きのみ(血管の太さの変化)が強調された眼底動画データ120である。
<眼底動画データの表示例>
つぎに、眼底動画データ100,110,120の表示例について図8~図10を用いて説明する。コンピュータ300は、たとえば、検査、治療、手術時にリアルタイムで眼底動画データ110,120を表示してもよく、記憶デバイス302に記憶された眼底動画データ110,120を読み出して再生することにより表示してもよい。なお、固視微動が除去されていない眼底動画データ100は、2次元の動画データでもよく3次元の動画データでもよい。
図8は、眼底動画データの表示例1を示す説明図である。表示画面800は、たとえば、動画データ表示領域801と、患者情報表示領域802と、パラメータ情報表示領域803と、を有する。動画データ表示領域801には、眼底動画データ100,120が表示される。したがって、ユーザは、ライブ映像である眼底動画データ100と、固視微動除去および動画強調後の眼底動画データ120とを比較しながら、視認することができる。
患者情報表示領域802には、患者情報が表示される。患者情報とは、氏名、住所など、患者を特定する情報である。患者とは、眼底動画データ100として撮影された被検眼を有する者である。
パラメータ情報表示領域803には、パラメータ情報が表示される。パラメータ情報は、たとえば、強調パラメータと、生体モニタリング情報と、を含む。強調パラメータは、強調部403による動画強調で用いられる強調する周波数領域や強調の程度を示すパラメータである。生体モニタリング情報は、患者の脈拍などの患者の生体をモニタリングした情報である。
図9は、眼底動画データの表示例2を示す説明図である。表示画面900は、たとえば、第1動画データ表示領域901と、第2動画データ表示領域902と、患者情報表示領域802と、パラメータ情報表示領域803と、を有する。
第1動画データ表示領域901には、固視微動除去前の眼底動画データ100が表示される。第1動画データ表示領域901はメイン画面であり、第2動画データ表示領域902よりも大きい。第2動画データ表示領域902には、固視微動除去および動画強調後の眼底動画データ120が表示される。第2動画データ表示領域902サブ画面であり、第1動画データ表示領域901よりも小さい。これにより、ユーザは、第1動画データ表示領域901を注視しつつ、必要に応じて第2動画データ表示領域902を視認することができる。
図10は、眼底動画データの表示例3を示す説明図である。表示画面1000は、たとえば、固視微動除去前の眼底動画データ100を表示する第1動画データ表示領域901と、固視微動除去および動画強調後の眼底動画データ120を表示する第2動画データ表示領域902と、を有する。第2動画データ表示領域902は、第1動画データ表示領域901の右上に重畳表示される。これにより、ユーザは、第1動画データ表示領域901を注視しつつ、必要に応じて第2動画データ表示領域902を視認することができる。
なお、眼科装置201にフットスイッチのような切替スイッチが設けられている場合、切替スイッチのON/OFFにより、動画データ表示領域801および第2動画データ表示領域902の表示内容が、眼底動画データ120から眼底動画データ110に、または、眼底動画データ110から眼底動画データ120に、切り替えられてもよい。これにより、動画強調前後の違いを視認することができる。
また、図9および図10において、切替スイッチのON/OFFにより、第1動画データ表示領域901に眼底動画データ120を表示させ、第2動画データ表示領域902に眼底動画データ100を表示させるように切り替えてもよい。これにより、ユーザは、眼底動画データ120をより大きなメイン画面で視認することができる。
また、眼科装置201の接眼レンズから眼底動画データを観察する場合、眼底動画データ110,120については、いずれか一方の眼のレンズからのみ観察可能としてもよい。たとえば、図10の場合、たとえば、右眼からは眼底動画データ100が観察され、左眼からは眼底動画データ100,120が観察される。
また、図8~図10の表示画面800,900,1000に、動画強調モードの切替を行うモード切替ボタンを表示し、ユーザが動画強調モードを動きと色変化の双方を強調する通常モード、色変化のみを強調する色強調モード、動きのみを強調する動き強調モードを選択できるようにしてもよい。選択された動画強調モードの眼底動画データ120が、動画データ表示領域801や第2動画データ表示領域902に表示される。
また、図8~図10の表示画面800,900,1000では、ライブ動画(固視微動除去前の眼底動画データ100)を表示するようにしたが、固視微動除去後の眼底動画データ120を表示しるようにしてもよい。
このように、固視微動除去後の動画強調前後の動画データについてユーザの観察自由度の向上を図ることができる。
なお、本発明は上記の内容に限定されるものではなく、これらを任意に組み合わせたものであってもよい。また、本発明の技術的思想の範囲で考えられるその他の態様も本発明の範囲に含まれる。
100,110,120 眼底動画データ、101 黄斑、102 視神経乳頭、103 血管、200 眼科システム、201 眼科装置、204 管理サーバ、205 端末、400 動画処理装置、401 取得部、402 除去部、403 強調部、404 出力部、601 第1除去部、602 第2除去部、603 第3除去部、621 分解部、622 時間フィルタリング部、623 位相ノイズ除去部、624 減衰部、625 再構築部、F,G,H 眼底画像フレーム

Claims (14)

  1. 被検眼動画データを取得する取得部と、
    前記取得部によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の動きの除去をする除去する除去部と、
    前記除去部による前記位置ずれの除去および前記動きの除去後の前記被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調部と、
    前記強調部による強調後の被検眼動画データを出力する出力部と、
    を有する動画処理装置。
  2. 被検眼動画データを取得する取得部と、
    前記取得部によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の色変化の除去をする除去部と、
    前記除去部による前記位置ずれの除去および前記色変化の除去後の前記被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調部と、
    前記強調部による強調後の被検眼動画データを出力する出力部と、
    を有する動画処理装置。
  3. 請求項1又は請求項2に記載の動画処理装置であって、
    前記除去部は、前記被検眼動画データを構成する時間軸方向の被検眼フレーム群のうち、第1被検眼フレームと、前記第1被検眼フレームとは異なる第2被検眼フレームと、の位置合わせにより、前記第1被検眼フレームと前記第2被検眼フレームとの間の固視微動に起因する位置ずれを除去する、動画処理装置。
  4. 請求項3に記載の動画処理装置であって、
    前記第1被検眼フレームと前記第2被検眼フレームは、時間軸方向に不連続なフレームである、動画処理装置。
  5. 請求項3または4に記載の動画処理装置であって、
    前記除去部は、前記第1被検眼フレームおよび前記第2被検眼フレームの特徴量に基づく位置合わせにより前記被検眼動画データから位置ずれを除去する、動画処理装置。
  6. 請求項5に記載の動画処理装置であって、
    前記除去部は、前記第1被検眼フレームとの相関値が所定値以下である特定の第2被検眼フレームを前記被検眼動画データから除去する、動画処理装置。
  7. 請求項3または4に記載の動画処理装置であって、
    前記除去部は、前記第1被検眼フレームおよび前記第2被検眼フレームの視神経乳頭または黄斑に基づく位置合わせにより、前記被検眼動画データから位置ずれを除去する、動画処理装置。
  8. 請求項1から7のいずれか一つに記載の動画処理装置であって、
    前記出力部は、前記強調部による強調後の被検眼動画データを表示装置に出力する、動画処理装置。
  9. 請求項8に記載の動画処理装置であって、
    前記出力部は、前記強調後の被検眼動画データと、前記強調部による強調前の被検眼動画データと、を前記表示装置に出力する、動画処理装置。
  10. 請求項9に記載の動画処理装置であって、
    前記強調前の被検眼動画データは、前記除去部による位置ずれ除去後の被検眼動画データである、動画処理装置。
  11. プロセッサが、
    被検眼動画データを取得する取得処理と、
    前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の動きの除去をする除去処理と、
    前記除去処理による前記位置ずれの除去および前記動きの除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調処理と、
    前記強調処理による強調後の被検眼動画データを出力する出力処理と、
    を実行する動画処理方法。
  12. プロセッサが、
    被検眼動画データを取得する取得処理と、
    前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから被検眼内の血管の色変化の除去をする除去処理と、
    前記除去処理による前記位置ずれの除去および前記色変化の除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調処理と、
    前記強調処理による強調後の被検眼動画データを出力する出力処理と、
    を実行する動画処理方法。
  13. プロセッサに、
    被検眼動画データを取得する取得処理と、
    前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに前記位置ずれの除去後の前記被検眼動画データから前記被検眼内の血管の動きの除去をする除去処理と、
    前記除去処理による前記位置ずれの除去および前記動きの除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な色変化を強調する強調処理と、
    前記強調処理による強調後の被検眼動画データを出力する出力処理と、
    を実行させる動画処理プログラム。
  14. プロセッサに、
    被検眼動画データを取得する取得処理と、
    前記取得処理によって取得された前記被検眼動画データを構成する複数の被検眼フレーム間の位置合わせにより、前記複数の被検眼フレーム間の固視微動に起因する位置ずれを除去し、さらに、前記位置ずれの除去後の前記被検眼動画データから前記被検眼内の血管の色変化の除去をする除去処理と、
    前記除去処理による前記位置ずれの除去および前記色変化の除去後の被検眼動画データから心拍の周波数成分を抽出し、前記被検眼内の血管において、前記心拍に起因した周期的な動きを強調する強調処理と、
    前記強調処理による強調後の被検眼動画データを出力する出力処理と、
    を実行させる動画処理プログラム。
JP2021514711A 2019-04-17 2019-04-17 動画処理装置、動画処理方法、および動画処理プログラム Active JP7322948B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023117738A JP2023134744A (ja) 2019-04-17 2023-07-19 動画処理装置、動画処理方法、および動画処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/016439 WO2020213085A1 (ja) 2019-04-17 2019-04-17 動画処理装置、動画処理方法、および動画処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023117738A Division JP2023134744A (ja) 2019-04-17 2023-07-19 動画処理装置、動画処理方法、および動画処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2020213085A1 JPWO2020213085A1 (ja) 2020-10-22
JP7322948B2 true JP7322948B2 (ja) 2023-08-08

Family

ID=72838120

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021514711A Active JP7322948B2 (ja) 2019-04-17 2019-04-17 動画処理装置、動画処理方法、および動画処理プログラム
JP2023117738A Pending JP2023134744A (ja) 2019-04-17 2023-07-19 動画処理装置、動画処理方法、および動画処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023117738A Pending JP2023134744A (ja) 2019-04-17 2023-07-19 動画処理装置、動画処理方法、および動画処理プログラム

Country Status (3)

Country Link
US (1) US20220215514A1 (ja)
JP (2) JP7322948B2 (ja)
WO (1) WO2020213085A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024060426A (ja) * 2022-10-19 2024-05-02 株式会社ナノルクス 眼観察装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010502394A (ja) 2006-09-06 2010-01-28 アイ・マーカー・システムズ,インコーポレイテッド 生理学的データを測定および分析する非侵襲性の眼モニタおよび方法
JP2013506523A (ja) 2009-10-06 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1の信号の少なくとも一つの周期的成分を特徴付けるための分析のため第1の信号を得るための方法及びシステム
JP2013198719A (ja) 2012-02-20 2013-10-03 Canon Inc 画像処理装置及び画像処理方法
JP2015527136A (ja) 2012-08-03 2015-09-17 ヴォルカノ コーポレイションVolcano Corporation 脈管を評価するための装置、システム、及び方法
JP2016120262A (ja) 2014-12-25 2016-07-07 カシオ計算機株式会社 診断支援装置並びに当該診断支援装置における画像処理方法及びそのプログラム
JP2018502677A (ja) 2014-10-29 2018-02-01 スペクトラル エムディー, インコーポレイテッドSpectral Md, Inc. 組織分類用の反射モードマルチスペクトル−時間分解型光学イメージング方法および装置
US20180096119A1 (en) 2015-03-27 2018-04-05 Samsung Electronics Co., Ltd. Biometric information acquisition method and device for same
WO2019003285A1 (ja) 2017-06-26 2019-01-03 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP2019042263A (ja) 2017-09-05 2019-03-22 株式会社トプコン 眼科システム、眼科撮影装置及び眼科情報処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201800A1 (en) * 2009-02-09 2010-08-12 Olympus Corporation Microscopy system
US20130010259A1 (en) * 2011-07-05 2013-01-10 Escalon Digital Vision, Inc. Region based vision tracking system for imaging of the eye for use in optical coherence tomography
JP6611593B2 (ja) * 2015-04-23 2019-11-27 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JPWO2016194718A1 (ja) * 2015-06-05 2018-03-29 ソニー株式会社 画像処理装置、画像処理方法、および手術システム
JP6746884B2 (ja) * 2015-09-02 2020-08-26 株式会社ニデック 眼科撮影装置及び眼科撮影プログラム
EP3414739B1 (en) * 2016-02-08 2020-04-08 Koninklijke Philips N.V. Device, system and method for pulsatility detection
WO2017203656A1 (ja) * 2016-05-26 2017-11-30 オリンパス株式会社 演算装置、画像処理装置および画像処理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010502394A (ja) 2006-09-06 2010-01-28 アイ・マーカー・システムズ,インコーポレイテッド 生理学的データを測定および分析する非侵襲性の眼モニタおよび方法
JP2013506523A (ja) 2009-10-06 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1の信号の少なくとも一つの周期的成分を特徴付けるための分析のため第1の信号を得るための方法及びシステム
JP2013198719A (ja) 2012-02-20 2013-10-03 Canon Inc 画像処理装置及び画像処理方法
JP2015527136A (ja) 2012-08-03 2015-09-17 ヴォルカノ コーポレイションVolcano Corporation 脈管を評価するための装置、システム、及び方法
JP2018502677A (ja) 2014-10-29 2018-02-01 スペクトラル エムディー, インコーポレイテッドSpectral Md, Inc. 組織分類用の反射モードマルチスペクトル−時間分解型光学イメージング方法および装置
JP2016120262A (ja) 2014-12-25 2016-07-07 カシオ計算機株式会社 診断支援装置並びに当該診断支援装置における画像処理方法及びそのプログラム
US20180096119A1 (en) 2015-03-27 2018-04-05 Samsung Electronics Co., Ltd. Biometric information acquisition method and device for same
WO2019003285A1 (ja) 2017-06-26 2019-01-03 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP2019042263A (ja) 2017-09-05 2019-03-22 株式会社トプコン 眼科システム、眼科撮影装置及び眼科情報処理装置

Also Published As

Publication number Publication date
JP2023134744A (ja) 2023-09-27
WO2020213085A1 (ja) 2020-10-22
US20220215514A1 (en) 2022-07-07
JPWO2020213085A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
JP7305401B2 (ja) 画像処理装置、画像処理装置の作動方法、及びプログラム
US9361667B2 (en) Image processing apparatus and method
WO2020183799A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
JP2020058800A (ja) 画像処理装置、画像処理方法及びプログラム
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10258301B2 (en) Digital subtraction angiography
EP2132704B1 (en) Filtering of image sequences
WO2020183791A1 (ja) 画像処理装置および画像処理方法
JP2023134744A (ja) 動画処理装置、動画処理方法、および動画処理プログラム
JP7388525B2 (ja) 眼科画像処理装置および眼科画像処理プログラム
JP2020163100A (ja) 画像処理装置および画像処理方法
WO2020075719A1 (ja) 画像処理装置、画像処理方法及びプログラム
WO2015129909A1 (en) Apparatus, method, and program for processing image
CN101663691A (zh) 不同预采集医学图像的时空扭曲
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
JP2024105697A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2020050308A1 (ja) 画像処理装置、画像処理方法及びプログラム
CN111526779B (zh) 图像处理方法、图像处理程序、图像处理装置、图像显示装置、以及图像显示方法
Janatka et al. Surgical video motion magnification with suppression of instrument artefacts
CN116898465A (zh) X射线ct装置、图像处理装置以及ct图像的活动补正图像重构方法
Mengko et al. Image Processing in Retinal Angiography: Extracting Angiographical Features without the Requirement of Contrast Agents.
WO2022196583A1 (ja) グレード評価装置、眼科撮影装置、プログラム、記録媒体、およびグレード評価方法
JP2021069667A (ja) 画像処理装置、画像処理方法及びプログラム
Richer et al. Noise-free one-cardiac-cycle OCT videos for local assessment of retinal tissue deformation
JP2019042264A (ja) 眼科撮影装置及び眼科情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7322948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150