CN111989030B - 图像处理方法、程序及图像处理装置 - Google Patents

图像处理方法、程序及图像处理装置 Download PDF

Info

Publication number
CN111989030B
CN111989030B CN201980025772.1A CN201980025772A CN111989030B CN 111989030 B CN111989030 B CN 111989030B CN 201980025772 A CN201980025772 A CN 201980025772A CN 111989030 B CN111989030 B CN 111989030B
Authority
CN
China
Prior art keywords
image
image processing
fundus
processing method
vortex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980025772.1A
Other languages
English (en)
Other versions
CN111989030A (zh
Inventor
田边泰士
广川真梨子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of CN111989030A publication Critical patent/CN111989030A/zh
Application granted granted Critical
Publication of CN111989030B publication Critical patent/CN111989030B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

计算关于涡静脉位置与眼底图像的特征点之间的位置关系的特征量。提供一种图像处理方法,包括:解析脉络膜血管图像,推定涡静脉位置的步骤;和计算特征量的步骤,该特征量表示所述涡静脉位置与眼底的特定部位的位置之间的位置关系。

Description

图像处理方法、程序及图像处理装置
技术领域
本公开的技术涉及图像处理方法、程序及图像处理装置。
背景技术
在日本特开平7-136122号公报中,公开了通过眼底图像检测视神经乳头部和黄斑部的位置的技术。一直以来,寻求使用眼底图像来进行眼底疾病的解析。
发明内容
本公开的技术的第1方式的图像处理方法包括:解析脉络膜血管图像,推定涡静脉位置的步骤;和计算特征量的步骤,所述特征量表示所述涡静脉位置与眼底的特定部位的位置之间的位置关系。
本公开的技术的第2方式的程序使计算机执行第1方式的图像处理方法。
本公开的技术的第3方式的图像处理装置是具备存储装置和处理装置的眼科装置,所述存储装置存储用于使处理装置执行图像处理方法的程序,所述处理装置通过执行存储于所述存储装置的程序来执行所述图像处理方法,所述图像处理方法是第1方式的图像处理方法。
本公开的技术的第4方式的图像处理装置具备执行图像处理方法的处理装置,所述处理装置执行:解析脉络膜血管图像,推定涡静脉位置的步骤;和计算特征量的步骤,所述特征量表示所述涡静脉位置与眼底的特定部位的位置之间的位置关系。
附图说明
图1是眼科系统100的框图。
图2是表示眼科装置110的整体结构的概略结构图。
图3是管理服务器140的电气系统的结构的框图。
图4是管理服务器140的CPU162的功能框图。
图5是图像处理程序的流程图。
图6A是图5的步骤212的VV特征量的计算处理中的VV距离计算处理程序的流程图。
图6B是图5的步骤212的VV特征量的计算处理中的VV角度计算处理程序的流程图。
图7是表示脉络膜血管图像的图。
图8是表示黄斑M的位置、视神经乳头ONH的位置、及VV的位置的图。
图9是表示四象限反正切函数的图。
图10是表示黄斑的位置M、视神经乳头ONH的位置O、VV的位置V位于以眼球中心C为中心的球体表面的图。
图11是表示脉络膜血管解析模式的显示画面300的图。
图12是表示点击涡静脉及黄斑/乳头图标338而显示出涡静脉、黄斑及视神经乳头间的位置等的显示画面300的图。
图13是表示点击过程观察图表图标346而显示出过程观察图表350的显示画面300的图。
图14是表示点击散布图显示图标348而显示出散布图352A的显示画面300的图。
图15是表示点击散布图显示图标348而显示出其他散布图352B的显示画面300的图。
具体实施方式
以下,参照附图对本发明的实施方式进行详细说明。另外,在下文中,为便于说明,将激光扫描检眼镜(Scanning Laser Ophthalmoscope)称为“SLO”。
参照图1对眼科系统100的结构进行说明。如图1所示,眼科系统100具备眼科装置110、眼轴长度测定器120、管理服务器装置(以下称为“管理服务器”)140和图像显示装置(以下称为“图像观测器”)150。眼科装置110获取眼底图像。眼轴长度测定器120测定患者的眼轴长度。管理服务器140与患者的ID对应地存储由眼科装置110拍摄多个患者的眼底而得到的多个眼底图像及眼轴长度。
眼科装置110、眼轴长度测定器120、管理服务器140、图像观测器150经由网络130而相互连接。
另外,其他眼科设备(OCT(Optical Coherence Tomography,光学相干层析成像)测定、视场测定、眼压测定等的检查设备)和/或进行使用了人工智能的图像解析的诊断支援装置也可以经由网络130与眼科装置110、眼轴长度测定器120、管理服务器140及图像观测器150连接。
接下来,参照图2对眼科装置110的结构进行说明。如图2所示,眼科装置110具备控制单元20、显示/操作单元30及SLO单元40,拍摄被检眼12的后眼部(眼底)。而且,还可以具备获取眼底的OCT数据的未图示的OCT单元。
控制单元20具备CPU22、存储器24及通信接口(I/F)26等。显示/操作单元30是对拍摄得到的图像进行显示、受理包括拍摄指示在内的各种指示的图形用户界面,具备显示器32及触摸面板等输入/指示设备34。
SLO单元40具备G光(绿色光:波长530nm)的光源42、R光(红色光:波长650nm)的光源44、IR光(红外线(近红外光):波长800nm)的光源46。光源42、44、46受控制单元20命令,发出各种光。
SLO单元40具备将来自光源42、44、46的光反射或使其透射而引导到1个光路的光学系统50、52、54、56。光学系统50、56是反射镜,光学系统52、54是分光器。G光在光学系统50、54反射,R光从光学系统52、54透射,IR光在光学系统52、56反射,这些光分别被引导到一条光路。
SLO单元40具备广角光学系统80,其将来自光源42、44、46的光在被检眼12的整个后眼部(眼底)呈二维状进行扫描。SLO单元40具备分光器58,其将来自被检眼12的后眼部(眼底)的光中的G光反射并使G光以外的光透射。SLO单元40具备分光器60,其将从分光器58透射后的光中的R光反射且使R光以外的光透射。SLO单元40具备分光器62,其从分光器60透射后的光中的IR光反射。SLO单元40具备对由分光器58反射的G光进行检测的G光检测元件72、对由分光器60反射的R光进行检测的R光检测元件74、以及对由分光器62反射的IR光进行检测的IR光检测元件76。
广角光学系统80具备:将来自光源42、44、46的光沿X方向扫描的由多面镜(polygon mirror)构成的X方向扫描装置82;将来自光源42、44、46的光沿Y方向扫描的由扫描振镜(galvanometer mirror)构成的Y方向扫描装置84;以及包含未图示的狭缝镜(slitmirror)及椭球镜并使所扫描的光成为广角的光学系统86。通过光学系统86,将眼底的视场角(FOV:Field of View)设为与现有技术相比更大的角度,能够对与现有技术相比更大范围的眼底区域进行拍摄。具体地说,能够对以来自被检眼12外部的外部光照射角计为约120度(以将被检眼12的眼球中心O作为基准位置、并通过利用扫描光对被检眼12的眼底进行照射而实质能够拍摄的内部光照射角计,为200度左右)的大范围的眼底区域进行拍摄。光学系统86也可以代替狭缝镜及椭球镜而为使用多个透镜组的结构。X方向扫描装置82及Y方向扫描装置84的各扫描装置也可以利用使用MEMS镜而构成的二维扫描器。
在作为光学系统86而使用包含狭缝镜及椭球镜的系统的情况下,也可以为使用国际申请PCT/JP2014/084619、国际申请PCT/JP2014/084630所记载的利用了椭球镜的系统的结构。2014年12月26日提出国际申请的国际申请PCT/JP2014/084619(国际公开WO2016/103484)的公开内容及2014年12月26日提出国际申请的国际申请PCT/JP2014/084630(国际公开WO2016/103489)的公开内容各自通过参照而整体被引入到本说明书中。
此外,将眼科装置110沿水平面设置的情况下的水平方向设为“X方向”,将相对于水平面垂直的垂直方向设为“Y方向”,将连结被检眼12的前眼部的瞳孔中心和眼球中心的方向设为“Z方向”。因此,X方向、Y方向及Z方向相互垂直。
彩色眼底图像是通过以G光及R光同时对被检眼12的眼底进行拍摄而得到的。更详细地说,控制单元20以同时发光的方式控制光源42、44,在被检眼12的整个眼底,利用广角光学系统80使G光及R光进行扫描。并且,由G光检测元件72检测从被检眼12的眼底反射的G光,由眼科装置110的CPU22生成第2眼底图像(G色眼底图像)的图像数据。同样地,由R光检测元件74检测从被检眼12的眼底反射的R光,由眼科装置110的CPU22生成第1眼底图像(R色眼底图像)的图像数据。另外,在照射了IR光的情况下,由IR光检测元件76检测从被检眼12的眼底反射的IR光,由眼科装置110的CPU22生成IR眼底图像的图像数据。
眼科装置110的CPU22以规定比率将第1眼底图像(R色眼底图像)和第2眼底图像(G色眼底图像)混合,并作为彩色眼底图像显示于显示器32。此外,也可以不显示彩色眼底图像而显示第1眼底图像(R色眼底图像)、第2眼底图像(G色眼底图像)或IR眼底图像。
第1眼底图像(R色眼底图像)的图像数据、第2眼底图像(G色眼底图像)的图像数据、IR眼底图像的图像数据经由通信IF166被从眼科装置110发送至管理服务器140。各种眼底图像被用于生成脉络膜血管图像。
图1的眼轴长度测定器120具有对被检眼12的眼轴方向(Z方向)的长度即眼轴长度进行测定的第1模式和第2模式这两种模式。第1模式在将来自未图示的光源的光引导至被检眼12后,接收来自眼底的反射光与来自角膜的反射光的干涉光,并基于表示接收到的干涉光的干涉信号测定眼轴长度。第2模式是使用未图示的超声波测定眼轴长度的模式。眼轴长度测定器120向管理服务器140发送通过第1模式或第2模式测定出的眼轴长度。也可以通过第1模式及第2模式测定眼轴长度,该情况下,将通过两种模式测定出的眼轴长度的平均值作为眼轴长度向管理服务器140发送。眼轴长度作为被检者的数据之一,作为患者信息保存于管理服务器140,并被用于眼底图像解析。
接下来,参照图3对管理服务器140的结构进行说明。如图3所示,管理服务器140具备控制单元160及显示/操作单元170。控制单元160具备:包含CPU162的计算机、作为存储装置的存储器164、及通信接口(I/F)166等。另外,存储器164中存储有图像处理程序。显示/操作单元170是显示图像、受理各种指示等的图形用户界面,具备显示器172及触摸面板等输入/指示设备174。
图像观测器150的结构与管理服务器140相同,因而省略其说明。
接下来,参照图4,对通过管理服务器140的CPU162执行图像处理程序而实现的各种功能进行说明。图像处理程序包括图像处理功能、显示控制功能及处理功能。CPU162执行具有该各功能的图像处理程序,由此,如图4所示,CPU162作为图像处理部182、显示控制部184及处理部186而发挥作用。
接下来,使用图5详细地说明基于管理服务器140进行的图像处理。管理服务器140的CPU162执行图像处理程序,从而实现图5的流程图所示的图像处理。
在管理服务器140基于由眼科装置110拍摄得到的眼底图像的图像数据生成了脉络膜血管图像时执行图像处理程序。
脉络膜血管图像以如下方式生成。
首先,对包含于第1眼底图像(R色眼底图像)和第2眼底图像(G色眼底图像)的信息进行说明。
眼睛的构造是由构造不同的多个层覆盖玻璃体。多个层中,从玻璃体侧的最内侧至外侧包括视网膜、脉络膜、巩膜。R光从视网膜通过而到达至脉络膜。因而,第1眼底图像(R色眼底图像)中包括存在于视网膜的血管(视网膜血管)的信息和存在于脉络膜的血管(脉络膜血管)的信息。与之相对地,G光仅到达至视网膜。因而,第2眼底图像(G色眼底图像)中包括存在于视网膜的血管(视网膜血管)的信息。因而,能够从第2眼底图像(G色眼底图像)提取出视网膜血管,从第1眼底图像(R色眼底图像)除去视网膜血管从而得到脉络膜血管图像。
接下来,对脉络膜血管图像的生成方法进行说明。管理服务器140的图像处理部182通过对第2眼底图像(G色眼底图像)实施黑帽过滤(black-hat filter)处理,而从第2眼底图像(G色眼底图像)提取出视网膜血管。接下来,图像处理部182使用从第2眼底图像(G色眼底图像)提取出的视网膜血管,通过修复处理,从第1眼底图像(R色眼底图像)除去视网膜血管。也就是说,使用从第2眼底图像(G色眼底图像)提取出的视网膜血管的位置信息进行将第1眼底图像(R色眼底图像)的视网膜血管构造涂成与周围的像素相同的值的处理。然后,图像处理部182通过对被除去了视网膜血管的第1眼底图像(R色眼底图像)的图像数据实施自适应直方图均衡化处理(CLAHE,Contrast Limited Adaptive HistogramEqualization),从而在第1眼底图像(R色眼底图像)中对脉络膜血管进行强调。由此,得到图7所示的脉络膜血管图像。所生成的脉络膜血管图像被存储于存储器164。
此外,根据第1眼底图像(R色眼底图像)和第2眼底图像(G色眼底图像)生成了脉络膜血管图像,但接下来,图像处理部182也可以使用第1眼底图像(R色眼底图像)或以IR光拍摄得到的IR眼底图像来生成脉络膜血管图像。关于生成脉络膜眼底图像的方法,2018年3月20日提出申请的日本特愿2018-052246的公开内容通过参照而整体被引入到本说明书中。
在图像处理程序开始时,在图5的步骤202中,处理部186从存储器164读出脉络膜血管图像(参照图7)和G色眼底图像作为眼底图像。
在步骤204中,图像处理部182从G色眼底图像推定黄斑的位置。具体而言,因为黄斑在G色眼底图像中为暗的区域,所以图像处理部182检测上述读出的G色眼底图像中像素值最小的规定数量的像素的区域来作为黄斑的位置。
在步骤206中,图像处理部182从G色眼底图像检测视神经乳头的位置。具体而言,图像处理部182对上述读出的G色眼底图像进行预先确定的视神经乳头的图像的模式匹配,由此,在G色眼底图像中检测出视神经乳头。此外,视神经乳头是在G色眼底图像中最亮的区域,因此,也可以检测上述读出的G色眼底图像中像素值最大的规定数量的像素的区域来作为视神经乳头的位置。
另外,脉络膜血管图像通过如上述那样对R色眼底图像及G色眼底图像进行处理而生成。因而,在G眼底图像的坐标系与脉络膜血管图像的坐标系重叠时,G眼底图像的坐标系的各位置与脉络膜血管图像的坐标系的各位置相同。因而,与从G色眼底图像检测到的黄斑及视神经乳头各自的位置相当的脉络膜血管图像上的各位置是黄斑及视神经乳头各自的位置。
因而,在步骤204的处理中,也可以代替G色眼底图像而从脉络膜血管图像检测黄斑的位置。同样地,在步骤206的处理中,也可以代替G色眼底图像而从脉络膜眼底图像检测视神经乳头的位置。
在步骤208中,图像处理部182在脉络膜血管图像中检测涡静脉(Vortex Vein(以下称为“VV”))位置。此处,涡静脉VV是流入脉络膜的血流的流出路径,在眼球的赤道部的靠近后极处存在4至6个。
图像处理部182求出脉络膜血管图像中的各像素的血管行进方向。具体而言,图像处理部182对所有像素反复进行下述处理。即,图像处理部182设定由以像素为中心的周围多个像素构成的区域(单元)。然后,基于计算对象像素的周围像素的亮度值,计算单元的各像素的亮度的梯度方向(以大于等于0度且小于180度的角度示出。另外,0度定义为直线(水平线)的方向)。对单元内的所有像素进行该梯度方向的计算。
接着,为了生成具有梯度方向为0度、20度、40度、60度、80度、100度、120度、140度、160度这9个直条(bin)(各直条的组距为20度)的直方图,对与各直条对应的梯度方向的单元内的像素数进行计数。直方图的1个直条的组距相当于20度,对0度的直条设定具有0度以上且小于10度和170度以上且小于180度的梯度方向的、单元内的像素数(计数值)。20度的直条设定有具有10度以上且小于30度的梯度方向的、单元内的像素数(计数值)。同样地,还设定有40度、60度、80度、100度、120度、140度、160度的直条的计数值。直方图的直条数量为9,因此,像素的血管行进方向用9种方向的某个来定义。另外,通过缩窄直条的组距、增多直条的数量,能够提高血管行进方向的分析能力。对各直条的计数值(直方图的纵轴)进行标准化,生成针对解析点的直方图。
接下来,图像处理部182根据直方图确定解析点的血管行进方向。具体而言,确定计数值最小的角度(假设为60度)的直条,将所确定的直条的梯度方向即60度确定为像素的血管行进方向。另外,计数值最小的梯度方向成为血管行进方向的原因如下。在血管行进方向上亮度梯度小,另一方面,在其以外的方向上亮度梯度大(例如在血管和血管以外的地方处亮度差大)。因而,若生成了各像素的亮度梯度的直方图,则相对于血管行进方向的直条的计数值较小。以同样的方式对脉络膜血管图像的各像素生成直方图,计算各像素的血管行进方向。计算出的各像素的血管行进方向被存储于存储器164。
然后,图像处理部182在脉络膜血管图像上以等间隔设定纵向M个、横向N个、合计L个假想颗粒的初始位置。例如,M=10,N=50,设定合计L=500个初始位置。
进一步,图像处理部182获取最初的位置(L个初始位置中的某一个)的血管行进方向,使假想颗粒沿着所获取的血管行进方向移动规定距离,在移动到的位置处,再次获取血管行进方向,使假想颗粒沿所获取的血管行进方向移动规定距离。像这样以预先设定的移动次数反复使假想颗粒沿血管行进方向移动规定距离。在全部L个位置处执行以上处理。在对全部L个假想颗粒以所设定的移动次数进行了以上处理的时点,检测假想颗粒聚集一定个数以上的点来作为VV位置。
然后,将检测到的VV的个数、VV位置信息(表示脉络膜血管图像中的VV位置的坐标)存储于存储器164。
在步骤210中,图像处理部182将变量n加1,选择通过变量n识别的VV(1个)。n的初始值为零。
在步骤212中,图像处理部182对各个VV计算与距离相关的第1特征量(VV距离)和与角度相关的第2特征量(VV角度)。第1特征量是VV与眼底的特征性构造物的距离,是黄斑与VV的距离或视神经乳头与VV的距离。第2特征量是由VV、眼底的特征性第1构造物、和第2构造物这三点确定的角度,是VV-黄斑-视神经乳头所成的角度或者VV-黄斑-视神经乳头所成的角度。
在步骤214中,图像处理部182判断变量n与检测到的VV的总数N是否相等,从而判断是否对所有VV完成了处理。在没有判断为对所有VV完成了处理的情况下,图像处理返回步骤210,变量n加1,重复上述处理(步骤210至214)。
在判断为对所有VV完成了处理的情况下,图5的流程图的图像处理结束。
接下来,对步骤212中的两种VV特征量即第1特征量(VV距离)和第2特征量(VV角度)的计算处理进行说明。步骤212的计算处理包括图6A所示的VV距离计算处理和图6B所示的VV角度计算处理。
首先,参照图6A对VV距离的计算处理进行说明。
在步骤221中,图像处理部182获取脉络膜眼底图像中的视神经乳头ONH、黄斑M、VV位置的各坐标。
接下来,在步骤223中,图像处理部182将视神经乳头ONH、黄斑M、VV位置的各坐标投影到图10所示的虚拟球面上。图10所示的虚拟球面是将眼球的中心设为C、半径设为R(眼轴长度设为2R)的球面。在该球面上,将VV的位置设为V、视神经乳头ONH的位置设为O、黄斑的位置设为M进行投影。
将该虚拟球面考虑为眼球模型,在步骤225中,图像处理部182计算球面上的2点间的大圆距离来作为VV距离。也就是说,将以通过球的中心O的方式将球切开时的切口定义为大圆,大圆距离定义为连结球面上的距离测量对象的2地点(VV位置:V与视神经乳头位置:O;或者VV位置:V与黄斑:M)的大圆的弧的长度。在将VV位置:V的虚拟球面上的纬度经度设为(纬度θ1,经度φ1)、视神经乳头位置:O的纬度经度设为(纬度θ2,经度φ2)时,在本步骤223中,图像处理部182根据球面三角法的公式计算出VV位置与视神经乳头位置之间的VV距离,即大圆距离OV。
【数学式1】
在本步骤225中,在将VV距离设为黄斑位置M与VV位置V的距离的情况下,图像处理部182也可以采用同样的方式计算出VV位置与黄斑位置之间的距离,即大圆距离MV。
在步骤227中,图像处理部182将计算出的VV距离,即VV位置与视神经乳头位置之间的VV距离(大圆距离OV)及VV位置与黄斑位置之间的距离(大圆距离MV)存储于存储器164。
在图6A所示的流程结束后,VV特征量计算处理进至图6B的VV角度计算处理。
接下来,对VV角度的计算处理进行说明。
如图8所示,VV角度包括黄斑M的位置-视神经乳头ONH的位置-VV的位置所成的角度θ、和视神经乳头ONH的位置-黄斑M的位置-VV的位置所成的角度。
黄斑M的位置-视神经乳头ONH的位置-VV的位置所成的角度θ的计算方法包括根据如下的正形投影来计算的方法和根据球面三角法来计算的方法。
首先,参照图6B对根据正形投影计算角度θ的方法进行说明。
在通常的根据内积计算的方法中,无法区分计算出的角度的正负,无法区分是位于上半球的VV(图8的(x3,y3))还是位于下半球的VV‘((x3,-y3))。此外,在使用反正切函数的方法中,虽能够区分正负,但θ的计算方向总是一定的(例如逆时针旋转),因此,在以解剖学的特征(鼻侧、耳侧)为基准的情况下,左右眼处的上下半球的值相反。于是,在本实施方式中,使用左右眼调整符号fsign来调整计算出的角度的正负。
在图6B的步骤222中,图像处理部182计算左右眼调整符号fsign。如图8所示,将黄斑M的位置设为(x1,y1),视神经乳头ONH的位置设为(x2,y2),VV的位置设为(x3,y3)。
左右眼调整符号fsign设定为:
fsign=+1(x1>x2的情况)
fsign=-1(x1<x2的情况)。
这是因为基于黄斑与视神经乳头的位置,在解剖学上,能够将x1>x2的判断为左眼,将x1<x2的判断为右眼。此外,如果在x1=x2的情况下,设为fsign=+1。
在步骤224中,图像处理部182基于矢量的内积和外积的定义,使用数学式2和数学式3来计算cosθ及sinθ。此处,黄斑M的位置-视神经乳头ONH的位置-VV的位置所成的角度θ为矢量OM(连结视神经乳头位置O与黄斑位置M的矢量)与矢量OV(连结视神经乳头位置O与涡静脉位置V的矢量)所成的角。
【数学式2】
【数学式3】
在步骤226中,图像处理部182以如下方式计算四象限反正切函数表示的θ。
【数学式4】
θ=atan2(sinθ,cosθ)
如图9所示,通过四象限反正切函数求出的θ不仅考虑了y/x的值,还考虑了四个象限各自的x的符号。
在步骤228中,图像处理部182以如下方式使用fsign对计算出的θ的符号进行左右眼修正。在步骤230中,图像处理部182将像这样求出的θ的值作为VV角度存储到存储器164中。也能够以同样的方式求出视神经乳头ONH的位置-黄斑M的位置-VV的位置所成的角度。
【数学式5】
θ=θ·fsign
接下来,对根据球面三角法计算角度θ的方法进行说明。
如图10所示,黄斑的位置M、视神经乳头ONH的位置O、VV的位置V位于以眼球中心C为中心、以眼轴长度为2R时的半径R的球的表面。在将以黄斑的位置M、视神经乳头ONH的位置O、VV的位置V为顶点的三角形OMV的、顶角O的角度设为α时,则
【数学式6】
【数学式7】
能够计算出α(其中,α处于[0,π]的范围内)。
为了将α的值变更为θ(开区间[-π,π]的范围内),考虑gsign(黄斑M与视神经乳头ONH的位置关系,VV的位置V与黄斑M的位置关系)={1,-1},通过θ=α·gsign来计算。将像这样求出的θ的值作为VV角度存储到存储器164中。
图像处理程序包括根据图6B所示的正形投影计算VV角度的程序、和根据上述球面三角法计算的程序的某一个。
接下来,对脉络膜血管解析模式的显示画面的数据进行说明。管理服务器140具有以下的脉络膜血管解析模式的显示画面的数据。
首先,如上所述,从眼科装置110向管理服务器140发送眼底图像(第1眼底图像(R色眼底图像)及第2眼底图像(G色眼底图像))的图像数据,管理服务器140具有眼底图像(第1眼底图像(R色眼底图像)及第2眼底图像(G色眼底图像))的图像数据。管理服务器140具有脉络膜血管图像(参照图7)的图像数据、VV的位置、视神经乳头ONH的位置、黄斑M的位置、及VV的特征量。如上所述VV的特征量具有视神经乳头ONH的位置与VV的位置的距离、黄斑的位置与VV的位置的距离、黄斑M的位置-视神经乳头ONH的位置-VV的位置所成的角度θ、及视神经乳头ONH的位置-黄斑M的位置-VV的位置所成的角度。
此外,在拍摄患者的眼底时,对眼科装置110输入患者的个人信息。个人信息中包括患者的ID、姓名、年龄、及视力等。此外,在拍摄患者的眼底时,还输入表示眼底被拍摄的眼睛是右眼还是左眼的信息。而且,在拍摄患者的眼底时,还输入有拍摄日期时间。从眼科装置110向管理服务器140发送个人信息、右眼及左眼的信息以及拍摄日期时间的数据。管理服务器140具有个人信息、右眼及左眼的信息以及拍摄日期时间的数据。管理服务器140具有眼轴长度的数据。
如上所述管理服务器140具有以上的脉络膜血管解析模式的显示画面的数据。
另外,存在身处图像观测器150所设的房间中的医生在对患者进行诊断时,想要知道脉络膜血管的状态的情况。该情况下,医生经由图像观测器150向管理服务器140发送指示,其对脉络膜血管解析模式的显示画面的数据的发送进行指示。接收到该指示的管理服务器140向图像观测器150发送脉络膜血管解析模式的显示画面的数据。接收到脉络膜血管解析模式的显示画面的数据的图像观测器150基于脉络膜血管解析模式的显示画面的数据,在显示器上显示图11所示的脉络膜血管解析模式的显示画面300。
在图像观测器150的后文所述的显示画面上显示有图标或按钮,该图标或按钮用于指示后文所述的图像的生成。眼科医生点击图标等时,从图像观测器150向图像管理服务器140发送与所点击的图标等对应的指示信号。接收到来自图像观测器150的指示信号的管理服务器140生成与指示信号对应的图像,并将所生成的图像的图像数据发送至图像观测器150。从图像管理服务器140接收到图像数据的图像观测器150基于所接收的图像数据在显示器上显示图像。管理服务器140中的显示画面的生成处理通过利用CPU162而工作的显示画面生成程序来进行。
管理服务器140是本公开的技术的“图像处理装置”的一例。
此处,对图11所示的脉络膜血管解析模式的显示画面300进行说明。如图11所示,脉络膜血管解析模式的显示画面300具有显示患者的个人信息的个人信息显示栏302、图像显示栏320、及脉络膜解析工具显示栏330。
个人信息显示栏302具有患者ID显示栏304、患者姓名显示栏306、年龄显示栏308、眼轴长度显示栏310、视力显示栏312、及患者选择图标314。在患者ID显示栏304、患者姓名显示栏306、年龄显示栏308、眼轴长度显示栏310、及视力显示栏312显示各信息。另外,在点击患者选择图标314时,在图像观测器150的显示器172显示患者一览,供用户(眼科医生等)选择要解析的患者。
图像显示栏320具有拍摄日期显示栏322N1、右眼信息显示栏324R、左眼信息显示栏324L、RG图像显示栏326、脉络膜血管图像显示栏328、及信息显示栏342。另外,RG图像是对第1眼底图像(R色眼底图像)和第2眼底图像(G色眼底图像)按规定比例(例如,1:1)合成各像素值的大小而得到的图像。
脉络膜解析工具显示栏330包括对图像观测器150指示处理的多个脉络膜解析工具,例如涡静脉位置解析图标332、对称性图标334、血管直径图标336、涡静脉及黄斑/乳头图标338、及脉络膜解析报告图标340。涡静脉位置解析图标332指示对涡静脉位置进行确定。对称性图标334指示对涡静脉的对称性进行解析。血管直径图标336指示对脉络膜血管的直径进行解析的工具的执行。涡静脉及黄斑/乳头图标338指示对涡静脉、黄斑及视神经乳头间的位置等进行解析。脉络膜解析报告图标340指示脉络膜解析报告的显示。
图11所示的例子中,能够显示在拍摄日2018年3月10日、2017年12月10日、2017年9月10拍摄通过患者ID:123456识别的患者的右眼眼底(324R点亮)的情况下的、RG图像及脉络膜图像。另外,点击拍摄日期显示栏322N1,显示在2018年3月10日拍摄得到的RG图像及脉络膜图像。而且,在图像显示栏320显示有过程观察图表图标346、散布图显示图标348。
在图11所示的显示画面300中点击涡静脉及黄斑/乳头图标338时,如图12所示,显示有涡静脉、黄斑及视神经乳头间的位置等。在图12所示的例子中,在两处检测到了VV,在信息显示栏342显示有“在两处检测到了涡静脉”这一消息。在RG图像显示栏326的RG图像及脉络膜血管图像显示栏328的脉络膜血管图像上重叠有视神经乳头、黄斑及VV的各位置。在RG图像显示栏326的RG图像及脉络膜血管图像显示栏328的脉络膜血管图像上重叠有视神经乳头ONH的位置与VV1、VV2的位置的距离(VV1距离=11.1mm,VV2距离=15.4mm)。在RG图像显示栏326的RG图像及脉络膜血管图像显示栏328的脉络膜血管图像上重叠有黄斑M的位置-视神经乳头ONH的位置-VV1、VV2的位置所成的角度(VV1角度=60度,VV2角度=-62度)。
在图12的显示画面300中点击了过程观察图表图标346时,显示图13所示的过程观察图表350。在图13所示的例子中,在信息显示栏342显示有“对涡静脉1进行了图表化”这一消息。在过程观察图表350显示有涡静脉1(VV1)的各拍摄日(2018年3月10日、2017年12月10日、2017年9月10)的VV1距离、VV1角度的过程观察图表。
在图12的显示画面300中点击了散布图显示图标348时,显示图14所示的散布图352A。在散布图352A中,按照以上下方向的轴、耳侧-鼻侧的轴为基准的位置关系,显示有VV位置。散布图不限于图14所示的散布图352A,也可以按照图15所示的以下述角度为基准的位置关系,显示散布图352B,该散布图352B中显示有VV位置,所述角度是以眼底图像的中心为中心、以从该中心朝向眼底的右侧的水平方向的线为基准的角度。另外,图14及图15中的脉络膜血管图像显示栏328的显示内容没有变化。
如以上说明那样,在本实施方式中,计算关于涡静脉位置与黄斑及视神经乳头之间的位置关系的特征量(VV的定量值),将VV的特征量重叠到眼底图像(RG图像和/或脉络膜血管图像)上来显示VV特征量(VV角度和VV距离)。
在本实施方式中,能够显示VV特征量(VV角度和VV距离)。通过用距离和角度的数值来显示作为眼底的特征性构造的黄斑和/或视神经乳头的位置与VV位置的关系,能够辅助眼科医生进行的眼底的诊断。
接下来,对本公开的技术的各种变形例进行说明。
<第1变形例>
在上述实施方式中,求出视神经乳头ONH的位置与VV的位置的距离及角度并重叠于眼底图像,但本公开的技术不限定于此,也可以将视神经乳头ONH的位置与VV的位置的距离或者角度的某一个重叠在眼底图像上。黄斑M的位置和VV的位置也同样。
<第2变形例>
在上述实施方式中,视神经乳头ONH的位置与VV的位置的距离是球面上的距离,但本公开的技术不限定于此,也可以是视神经乳头ONH的位置与VV的位置的直线距离。另外,在第1变形例中,黄斑M的位置与VV的位置的距离也可以是直线距离。
<第3变形例>
在上述实施方式中,管理服务器140预先执行图5所示的图像处理程序,但本公开的技术不限定于此。例如,也可以采用如下方式。在点击了图11所示的涡静脉及黄斑/乳头图标338的情况下,图像观测器150向管理服务器140发送指令。与此相应地,管理服务器140执行图5的图像处理程序,图像观测器150显示图12的显示画面。
<第4变形例>
在上述实施方式中,对通过眼科装置110获取内部光照射角为200度左右的眼底图像的例子进行了说明。但本公开的技术不限定于此,也可以是通过以内部照射角计为100度以下的眼科装置拍摄得到的眼底图像,即使是将多个眼底图像合成得到的剪辑图像也可以适用本公开的技术。
<第5变形例>
在上述实施方式中,通过具备SLO拍摄单元的眼科装置110拍摄了眼底图像,但也可以是基于能够拍摄脉络膜血管的眼底相机拍摄得到的眼底图像,即使是通过OCT血管造影得到的图像也可以适用本公开的技术。
<第6变形例>
在上述实施方式中,管理服务器140执行图像处理程序。本公开的技术不限定于此。例如,也可以是眼科装置110或图像观测器150执行图像处理程序。在眼科装置110执行图像处理程序的情况下,图像处理程序存储于存储器24。此外,在图像观测器150执行图像处理程序的情况下,图像处理程序存储于图像观测器150的存储器164。
<第7变形例>
在上述实施方式中,以具备眼科装置110、眼轴长度测定器120、管理服务器140及图像观测器150的眼科系统100为例进行了说明,但本公开的技术不限定于此。例如,作为第1例,也可以省略眼轴长度测定器120,而眼科装置110还具有眼轴长度测定器120的功能。另外,作为第2例,眼科装置110也可以还具有管理服务器140及图像观测器150中的至少一方的功能。例如,在眼科装置110具有管理服务器140的功能的情况下,能够省略管理服务器140。该情况下,眼科装置110或图像观测器150执行图像处理程序。另外,在眼科装置110具有图像观测器150的功能的情况下,能够省略图像观测器150。作为第3例,也可以省略管理服务器140,而由图像观测器150执行管理服务器140的功能。
<第8变形例>
在上述实施方式中,作为第1眼底图像,使用以R光拍摄得到的R色眼底图像,但也可以使用以IR光拍摄得到的IR眼底图像。也就是说,因为使用R光或IR光,所以使用的是到达覆盖眼球的玻璃体且包括位于从玻璃体侧的最内侧至外侧的构造不同的视网膜及脉络膜在内的多个层中的该脉络膜的光。
<第9变形例>
在上述实施方式中,通过以G光及R光同时拍摄被检眼12的眼底而得到眼底图像。本公开的技术不限定于此。例如,也可以以G光和R光错开时间地拍摄被检眼12的眼底。该情况下,预先进行第1眼底图像(R色眼底图像)与第2眼底图像(G色眼底图像)的对位。
<其他变形例>
在上述实施方式中所说明的数据处理原则上是一个例子。因此,当然也可以在不脱离主旨的范围内删除不需要的步骤、追加新的步骤、或替换处理顺序。
另外,在上述实施方式中,例示了通过利用计算机的软件结构而实现数据处理的情况,但本公开的技术并不限定于此。例如,也可以代替利用了计算机的软件结构而仅通过FPGA(Field-Programmable Gate Array,现场可编程门阵列)或ASIC(ApplicationSpecific Integrated Circuit,应用型专用集成电路)等硬件结构执行数据处理。也可以是数据处理中的一部分处理由软件结构执行,其余处理由硬件结构执行。

Claims (13)

1.一种图像处理方法,包括:
解析脉络膜血管图像,检测涡静脉位置的步骤;和
计算特征量的步骤,所述特征量表示所述涡静脉位置与作为眼底上的特征性构造的位置的特定位置之间的位置关系。
2.如权利要求1所述的图像处理方法,其中,
所述特征量是所述涡静脉位置与所述特定位置之间的距离。
3.如权利要求1所述的图像处理方法,其中,
所述特定位置为第1特定位置和第2特定位置,
所述特征量是由第1线段和第2线段规定的角度,其中,所述第1线段是连结所述涡静脉位置和所述第1特定位置得到的线段,所述第2线段是连结所述第1特定位置和所述第2特定位置得到的线段。
4.如权利要求3所述的图像处理方法,其中,
所述特征量包括所述涡静脉位置与所述第1特定位置之间的距离。
5.如权利要求1所述的图像处理方法,其中,
所述特定位置为视神经乳头或黄斑的位置。
6.如权利要求3所述的图像处理方法,其中,
所述第1特定位置为视神经乳头的位置,所述第2特定位置为黄斑的位置。
7.如权利要求1所述的图像处理方法,其中,
检测所述涡静脉位置的步骤包括基于涡静脉血管的血管行进方向来推定涡静脉位置的步骤。
8.如权利要求1所述的图像处理方法,其中,
计算所述特征量的步骤包括将所述涡静脉和所述特定位置的各坐标投影到虚拟球面上的步骤,
计算表示所述虚拟球面上的所述涡静脉和所述特定位置的位置关系的特征量。
9.如权利要求1所述的图像处理方法,其中,
还包括生成在眼底图像上重叠地显示所述特征量所得到的图像的步骤。
10.如权利要求1所述的图像处理方法,其中,
还包括生成在眼底图像上重叠地显示连结所述涡静脉位置和所述特定位置的线段所得到的图像的步骤。
11.如权利要求3所述的图像处理方法,其中,
还包括生成特征量重叠眼底图像的步骤,
其中,所述特征量重叠眼底图像是在眼底图像上重叠地显示第1线段、第2线段、表示所述涡静脉位置与所述第1特定位置之间的距离的数值和表示由所述第1线段和所述第2线段规定的角度的数值所得到的图像,所述第1线段是连结所述涡静脉位置与所述第1特定位置得到的线段,所述第2线段是连结所述第1特定位置与所述第2特定位置得到的线段。
12.一种存储介质,其存储有程序,所述程序用于使计算机执行图像处理方法,所述图像处理方法包括:
解析脉络膜血管图像,检测涡静脉位置的步骤;和
计算特征量的步骤,所述特征量表示所述涡静脉位置与作为眼底上的特征性构造的位置的特定位置之间的位置关系。
13.一种图像处理装置,具备:
存储装置,其存储用于使处理装置执行图像处理方法的程序;和
处理装置,其通过执行存储于所述存储装置的程序而执行所述图像处理方法,
所述图像处理方法包括:
解析脉络膜血管图像,检测涡静脉位置的步骤;和
计算特征量的步骤,所述特征量表示所述涡静脉位置与作为眼底上的特征性构造的位置的特定位置之间的位置关系。
CN201980025772.1A 2018-04-18 2019-04-18 图像处理方法、程序及图像处理装置 Active CN111989030B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-080274 2018-04-18
JP2018080274 2018-04-18
PCT/JP2019/016653 WO2019203310A1 (ja) 2018-04-18 2019-04-18 画像処理方法、プログラム、及び画像処理装置

Publications (2)

Publication Number Publication Date
CN111989030A CN111989030A (zh) 2020-11-24
CN111989030B true CN111989030B (zh) 2024-03-01

Family

ID=68240053

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980025772.1A Active CN111989030B (zh) 2018-04-18 2019-04-18 图像处理方法、程序及图像处理装置

Country Status (5)

Country Link
US (2) US11526987B2 (zh)
JP (1) JPWO2019203310A1 (zh)
CN (1) CN111989030B (zh)
DE (1) DE112019001996T5 (zh)
WO (1) WO2019203310A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115052514A (zh) 2019-12-05 2022-09-13 株式会社尼康 图像处理方法、图像处理装置、以及程序
WO2021210281A1 (ja) * 2020-04-14 2021-10-21 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198532B1 (en) * 1991-02-22 2001-03-06 Applied Spectral Imaging Ltd. Spectral bio-imaging of the eye
EP1992277A1 (en) * 2007-05-14 2008-11-19 Institut National De La Sante Et De La Recherche Medicale (Inserm) Optical device and method for acquiring images of eye structures
JP2016043155A (ja) * 2014-08-26 2016-04-04 株式会社トプコン 眼底解析装置
JP2018020224A (ja) * 2017-11-08 2018-02-08 キヤノン株式会社 画像処理装置、眼科システム、画像処理装置の制御方法及び画像処理プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3508112B2 (ja) * 1993-09-21 2004-03-22 株式会社トプコン 眼底疾患解析装置
US5868134A (en) 1993-09-21 1999-02-09 Kabushiki Kaisha Topcon Retinal disease analyzer
US6416777B1 (en) * 1999-10-21 2002-07-09 Alcon Universal Ltd. Ophthalmic drug delivery device
US6585374B2 (en) * 2000-03-22 2003-07-01 Canon Kabushiki Kaisha Ophthalmologic apparatus
US8356901B2 (en) * 2010-03-05 2013-01-22 Richard R Spaide Systems and methods for widefield mapping of the retina
JP6146952B2 (ja) * 2012-01-27 2017-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム。
MX2015005839A (es) * 2012-11-08 2015-12-17 Clearside Biomedical Inc Metodos y dispositivos para el tratamiento de trastornos oculares en sujetos humanos.
JP6112949B2 (ja) * 2013-04-12 2017-04-12 キヤノン株式会社 眼科装置、眼科装置の制御方法、プログラム
EP3009064A4 (en) * 2013-06-14 2017-02-22 National University Corporation Nagoya University Optical tomography device
WO2015054672A1 (en) * 2013-10-10 2015-04-16 The Regents Of The University Of California Ocular cellscope apparatus
WO2018005888A1 (en) * 2016-06-29 2018-01-04 Ace Vision Group, Inc. 3-dimensional model creation using whole eye finite element modeling of human ocular structures
JP2018057828A (ja) * 2016-10-05 2018-04-12 キヤノン株式会社 画像処理装置及び画像処理方法
CN112004457A (zh) * 2018-04-18 2020-11-27 株式会社尼康 图像处理方法、程序、图像处理装置及眼科系统
WO2019203311A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、及び画像処理装置
US20220230307A1 (en) * 2019-05-31 2022-07-21 Nikon Corporation Image processing method, image processing device, image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198532B1 (en) * 1991-02-22 2001-03-06 Applied Spectral Imaging Ltd. Spectral bio-imaging of the eye
EP1992277A1 (en) * 2007-05-14 2008-11-19 Institut National De La Sante Et De La Recherche Medicale (Inserm) Optical device and method for acquiring images of eye structures
JP2016043155A (ja) * 2014-08-26 2016-04-04 株式会社トプコン 眼底解析装置
JP2018020224A (ja) * 2017-11-08 2018-02-08 キヤノン株式会社 画像処理装置、眼科システム、画像処理装置の制御方法及び画像処理プログラム

Also Published As

Publication number Publication date
JPWO2019203310A1 (ja) 2021-04-22
US20210035294A1 (en) 2021-02-04
WO2019203310A1 (ja) 2019-10-24
DE112019001996T5 (de) 2020-12-31
US20230084582A1 (en) 2023-03-16
CN111989030A (zh) 2020-11-24
US11526987B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
JP7279711B2 (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
CN111970957B (zh) 图像处理方法、计算机可读的存储介质及图像处理装置
US20230084582A1 (en) Image processing method, program, and image processing device
WO2021106987A1 (ja) 医用画像処理装置、光干渉断層撮影装置、医用画像処理方法、及びプログラム
WO2022036302A1 (en) Systems and methods for superimposing virtual image on real-time image
JP2023120308A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2023158161A (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
JP2000210260A (ja) 眼底画像システム
JP7163921B2 (ja) 画像信号出力装置及び方法、画像データ変換装置及び方法、およびプログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP2021168759A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021111840A1 (ja) 画像処理方法、画像処理装置、及びプログラム
US11954872B2 (en) Image processing method, program, and image processing device
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
US20240127473A1 (en) Image processing method, image processing device, and program
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021074961A1 (ja) 画像処理方法、画像処理装置、およびプログラム
JP2018164613A (ja) 眼科装置
JP2018015019A (ja) 眼科装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant