CN114762058A - 基于多个机器学习模型的人工晶状体选择 - Google Patents
基于多个机器学习模型的人工晶状体选择 Download PDFInfo
- Publication number
- CN114762058A CN114762058A CN202080082624.6A CN202080082624A CN114762058A CN 114762058 A CN114762058 A CN 114762058A CN 202080082624 A CN202080082624 A CN 202080082624A CN 114762058 A CN114762058 A CN 114762058A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- data set
- learning model
- operative
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000003384 imaging method Methods 0.000 claims description 33
- 230000002980 postoperative effect Effects 0.000 claims description 25
- 210000004087 cornea Anatomy 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 11
- 230000001886 ciliary effect Effects 0.000 claims description 10
- 210000002159 anterior chamber Anatomy 0.000 claims description 9
- 238000002604 ultrasonography Methods 0.000 claims description 8
- 230000004323 axial length Effects 0.000 claims description 7
- 239000012530 fluid Substances 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 208000002177 Cataract Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012014 optical coherence tomography Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/10—Eye inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/14—Eye parts, e.g. lenses or corneal implants; Artificial eyes
- A61F2/16—Intraocular lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30052—Implant; Prosthesis
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Ophthalmology & Optometry (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Transplantation (AREA)
- Vascular Medicine (AREA)
- Urology & Nephrology (AREA)
- Geometry (AREA)
- Robotics (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Prostheses (AREA)
- Eye Examination Apparatus (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
一种用于选择人工晶状体的方法和系统,所述系统具有控制器,所述控制器具有处理器和有形的非暂态存储器。多个机器学习模型可由所述控制器选择性地执行。所述控制器被配置成接收所述眼睛的至少一个术前图像,并经由第一输入机器学习模型提取第一数据集。所述控制器被配置成接收所述眼睛的多个生物特征参数,并经由第二输入机器学习模型提取第二数据集。组合所述第一数据集和所述第二数据集以产生混合数据集。所述控制器被配置成经由输出机器学习模型基于所述混合数据集生成至少一个输出因子。部分地基于所述至少一个输出因子来选择人工晶状体。
Description
背景技术
本披露内容总体上涉及一种用于使用多个机器学习模型来选择要植入到眼睛中的人工晶状体的系统和方法。人类晶状体通常是透明的,因此光线可以很容易地穿过它。然而,许多因素可能导致晶状体中的区域变得浑浊和致密,从而对视觉质量产生负面影响。这种情况可以经由白内障手术(即选择人造晶状体以植入患者的眼睛)得到纠正。事实上,白内障手术是世界各地进行的常见手术。白内障手术临床结果的一个重要驱动因素是选择合适的人工晶状体。目前,有几种计算器使用关于患者眼睛的各种术前信息来预测要植入的晶状体屈光力。然而,现有的计算器不使用眼睛的完整术前图像作为输入数据。
发明内容
本文披露了一种用于选择要植入到眼睛中的人工晶状体的系统和方法,所述系统具有控制器,所述控制器具有处理器和有形的非暂态存储器。所述系统采用综合的、多管齐下的方法,并且包括控制器,所述控制器具有处理器和有形的非暂态存储器,所述存储器上记录有指令。所述控制器被配置成选择性地执行多个机器学习模型,包括第一输入机器学习模型、第二输入机器学习模型和输出机器学习模型。所述多个机器学习模型中的每一个可以是相应的回归模型。在一个示例中,输出机器学习模型包括多层感知器网络。
所述处理器对所述指令的执行使得所述控制器接收所述眼睛的至少一个术前图像。所述控制器被配置成经由所述第一输入机器学习模型,部分地基于所述至少一个术前图像提取第一数据集。在一个示例中,所述眼睛的至少一个术前图像是超声生物显微镜图像。所述第一数据集可以包括所述眼睛的多个术前尺寸。所述多个术前尺寸可以包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、第一赤道面位置、第二赤道面位置、第三赤道面位置、虹膜直径、从角膜的第一表面到术前晶状体的后表面的轴向长度以及睫状突直径中的一个或多个。可替代地,所述多个术前尺寸可以包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、虹膜直径、从角膜第一表面到术前晶状体的后表面的轴向长度以及睫状突直径中的每一个。
所述控制器进一步被配置成接收所述眼睛的多个生物特征参数,并经由所述第二输入机器学习模型,部分地基于所述多个生物特征参数提取第二数据集。所述多个生物特征参数可以包括K平坦因子和K陡峭因子。所述第一数据集和所述第二数据集被组合以获得混合数据集。在一个示例中,所述术前图像是从第一成像设备获得的,并且所述多个生物特征参数是从第二成像设备获得的,所述第二成像设备不同于所述第一成像设备。例如,所述第一成像设备可以是超声设备,并且所述第二成像设备可以是光学相干断层扫描设备。
所述控制器被配置成经由所述输出机器学习模型基于所述混合数据集生成至少一个输出因子。部分地基于所述输出因子来选择人工晶状体。所述输出因子可以是显性等效球镜度数(MRSE)。所述多个机器学习模型可以包括第三输入机器学习模型。在生成所述输出因子之前,所述控制器可以被配置成访问相应的术前和术后图像的历史对,并经由所述第三输入机器学习模型,部分地基于所述历史对来提取第三数据集。在生成所述输出因子之前,将所述第三数据集添加到所述混合数据集。
所述人工晶状体可以包括与一个或多个支撑结构邻接的光学区。所述人工晶状体可以包括至少部分地填充有流体的内腔。所述流体被配置成在内腔中移动,以改变所述人工晶状体的屈光力。应当理解,可以采用本领域技术人员可获得的任何类型的人工晶状体。
通过以下结合附图对实施本披露内容的最佳模式的详细描述,本披露内容的上述特征和优点以及其他特征和优点将显而易见。
附图说明
图1是用于选择要植入到眼睛中的人工晶状体的系统的示意性图示,该系统具有控制器;
图2是示例人工晶状体的示意性立体图;
图3是可由图1的控制器执行的方法的示意性流程图;
图4是眼睛的示例术前图像的示意性局部截面图;
图5是眼睛的示例术后图像的示意性局部截面图;
图6是可由图1的控制器执行的多层感知器算法的示意性示例;以及
图7是图1的控制器的支持向量回归(SVR)技术的示意性示例。
具体实施方式
参考附图,其中相同的附图标记指代相同的部件,图1示意性地展示了用于选择要植入的人工晶状体的系统10。图2示出了人工晶状体12的示例。然而,可以采用本领域技术人员可获得的任何类型的人工晶状体。系统10采用了利用多个机器学习模型的稳健的、多管齐下的方法。如下所述,系统10利用丰富的图像数据和数值数据两者来优化人工晶状体12的选择。
参考图2,人工晶状体12包括光学区14,该光学区限定了第一表面16和第二表面18。光学区14可以与一个或多个支撑结构(比如第一支撑结构20和第二支撑结构22)邻接,这些支撑结构被配置成支持人工晶状体12的定位和保持。人工晶状体12可以限定至少部分地填充有流体F的内腔24。该流体F被配置成可以在内腔24内移动,以改变人工晶状体12的厚度(和屈光力)。应当理解,人工晶状体12可以采取许多不同的形式,并且包括多个部件和/或替代的部件。
参考图1,系统10包括控制器C,该控制器具有至少一个处理器P和至少一个存储器M(或者非暂态、有形计算机可读存储介质),该存储器上记录有用于执行选择人工晶状体12的方法100的指令。下面参考图3示出并描述方法100。图4示出了眼睛E的示例术前图像200。图5示出了眼睛E的示例术后图像300。
现在参考图1,控制器C可以被配置成经由短程网络28与比如第一成像设备30等各种实体通信。第一成像设备30可以是超声机、磁共振成像机或本领域技术人员可获得的其他成像设备。短程网络28可以是无线的或者可以包括物理部件。短程网络28可以是以各种方式实施的总线,比如局域网形式的串行通信总线。局域网可以包括但不限于控制器局域网(CAN)、具有灵活数据速率的控制器局域网(CAN-FD)、以太网、蓝牙、WIFI和其他形式的数据连接。短程网络28可以是BluetoothTM连接,其被定义为短程无线电技术(或无线技术),旨在简化互联网设备之间以及设备与互联网之间的通信。BluetoothTM是用于短距离传输固定和移动电子设备数据的开放式无线技术标准,并且创建在2.4GHz频带内运行的个人网络。可以采用其他类型的连接。
参考图1,控制器C可以与第二成像设备32、显示模块和/或用户界面34以及数据库36通信。另外,控制器C可以被配置成经由长程网络44与远程服务器40和/或云单元42通信。远程服务器40可以是由比如研究所、公司、大学和/或医院等组织维护的私有或公共信息源。云单元42可以包括托管在互联网上的一个或多个服务器,以存储、管理和处理数据。长程网络44可以是使用无线分布方法链接多个设备的无线局域网(LAN)、连接几个无线LAN的无线城域网(MAN)或覆盖比如相邻城镇和城市等大区域的无线广域网(WAN)。可以采用其他类型的连接。
如图1所示,控制器C可以被配置成通过移动应用46从远程服务器40接收无线通信和向该远程服务器发射无线通信。移动应用46可以经由短程网络28与控制器C通信,从而可以访问控制器C中的数据。在一个示例中,移动应用46物理连接(例如,有线连接)到控制器C。在另一个示例中,移动应用46嵌入到控制器C中。可以采用本领域技术人员可用的远程服务器40和移动应用46(“app”)的电路系统和部件。
控制器C被专门编程以选择性地执行多个机器学习模型48。控制器C可以经由短程网络28、长程网络44和/或移动应用46访问多个机器学习模型48。可替代地,多个机器学习模型48可以嵌入到控制器C中。多个机器学习模型48可以被配置成找到使相应成本函数最小化的参数、权重或结构。多个机器学习模型48中的每一个可以是相应的回归模型。在一个示例中,参考图1,多个机器学习模型48包括第一输入机器学习模型50、第二输入机器学习模型52、第三输入机器学习模型54和输出机器学习模型56。
多个机器学习模型48可以包括神经网络算法。如本领域技术人员所理解的,神经网络被设计成识别模式,并大体上模仿人脑。这些模式由神经网络从被变换或转换为数值形式并嵌入到向量或矩阵中的现实世界数据(例如,图像、声音、文本、时间序列等)中识别出来。神经网络可以使用深度学习映射来将输入向量x与输出向量y匹配。换句话说,多个机器学习模型48中的每一个都学习使得f(x)映射到y的激活函数f。训练过程使神经网络能够关联适当的激活函数f(x),以将输入向量x变换为输出向量y。在简单线性回归模型的情况下,学习了两个参数:偏差和斜率。偏差是输入向量x为0时输出向量y的水平,并且斜率是输入向量x每增加一个单位时输出向量y的预测增加速率或减少速率。一旦分别训练了多个机器学习模型48,就可以用输入向量x的给定新值来计算输出向量y的估计值。
多个机器学习模型48可以包括多层感知器网络。参考图6,示出了多层感知器网络400的示例。多层感知器网络400是具有至少三层节点N的前馈人工神经网络,包括输入层402、一个或多个隐藏层408(比如第一隐藏层404和第二隐藏层406)和输出层410。每个层由被配置成执行输入的线性和的仿射变换的节点N构成。节点N是以相应的偏差和相应的加权链接为特征的神经元。输入层402中的节点N接收输入,对它们进行归一化,并将它们转发给第一隐藏层404中的节点N。后续层中的每个节点N计算前一层的输出的线性组合。具有三个层的网络将形成激活函数f(x)=f(3)(f(2)(f(1)(x)))。对于输出层410中的相应的节点N,激活函数f可以是线性的。对于第一隐藏层404和第二隐藏层406,激活函数f可以是S形函数。使用S形函数的线性组合来逼近表征输出向量y的连续函数。可以采用其他类型的神经网络。
多个机器学习模型48可以包括支持向量回归(SVR)模型。图7示出了数据点502的支持向量回归模型500的示例。支持向量回归模型500被配置成找到函数(图7中的超平面504),该函数使得数据点502在该函数的条带506内,即,在第一边界线508和第二边界线510内。参考图7,超平面504可以被定义为将输入向量x与输出向量y进行匹配(即,预测目标值)的线。超平面504是个性化的,以使条带506最大化并使预定义的误差最小化。如果存在位于条带506之外的点(比如外部点512),则可以向支持向量回归模型500中引入惩罚。在确定超平面504之前,支持向量回归模型500可以使用核函数来将较低维度的数据集映射成较高维度的数据集。可以采用本领域技术人员可获得的其他机器学习模型。
现在参考图3,示出了可由图1的控制器C执行的方法100的流程图。方法100不需要以本文列举的特定顺序应用,并且可以省略一些框。存储器M可以存储控制器可执行指令集,并且处理器P可以执行存储在存储器M中的控制器可执行指令集。
根据图3的框102,控制器C被配置成接收眼睛的至少一个术前图像。图4中示出了眼睛E的示例术前图像200。图4没有按比例绘制。图4展示了角膜203的上表面202、角膜203的下表面204、术前晶状体206、虹膜208和睫状肌210。术前图像200可以经由超声生物显微镜技术获得。超声生物显微镜技术可以采用约35MHz与100MHz之间的相对高频的换能器,其组织穿透深度在约4mm与5mm之间。可以采用其他成像方式,包括但不限于光学相干断层扫描和磁共振成像。可以使用单个图像或一系列图像来训练多个机器学习模型48。
根据图3的框104,方法100包括经由第一输入机器学习模型50部分地基于至少一个术前图像(比如图4所示的示例术前图像200)提取第一数据集。第一数据集可以以三维矩阵的形式呈现。这提供了利用丰富图像数据的技术优势。参考图4,第一数据集可以包括多个术前尺寸,比如前房深度212、晶状体厚度214、晶状体直径216和沟到沟直径218。该多个术前尺寸可以包括第一赤道面位置220(从晶状体前极进行测量)、第二赤道面位置222(相对于前房深度212进行测量)和第三赤道面位置224(相对于晶状体后极进行测量)。参考图4,该多个术前尺寸可以进一步包括虹膜直径226、从角膜203到术前晶状体206的后表面的轴向长度228和睫状突直径230。
根据图3的框106,控制器C被配置成接收多个生物特征参数,其可以包括眼睛E的术前尺寸,比如K平坦因子、K陡峭因子和平均K因子。该多个生物特征参数可以进一步包括前房深度212、晶状体厚度214、晶状体直径216、睫状突直径230和沟到沟直径218。该多个生物特征参数可以进一步包括与人工晶状体12相关的参数,比如晶状体屈光力和厚度。在一个示例中,术前图像200是从第一成像设备30获得的,并且该多个生物特征参数是从第二成像设备32获得的,其中,第二成像设备32不同于第一成像设备30。例如,第一成像设备30可以是超声设备,并且第二成像设备32可以是光学相干断层扫描设备。应当理解,可以采用其他成像方式。在另一个示例中,术前图像200和该多个生物特征参数是通过相同的成像方式获得的。
根据图3的框108,方法100包括经由第二输入机器学习模型52部分地基于多个生物特征参数提取第二数据集。第二数据集可以以三维向量的形式呈现。根据图3的框110,控制器C被配置成组合第一数据集和第二数据集以获得混合数据集。
可选地,根据框112,方法100可以包括访问相应的术前图像和术后图像(比如分别在图4和图5中示出的术前图像200和术后图像300)的历史对。图5展示了角膜303的上表面302、角膜303的下表面304、虹膜308和睫状肌310。图5中还示出了植入的人工晶状体12、第一表面16、第二表面18、第一支撑结构20和第二支撑结构22。图5没有按比例绘制。术后图像300可以经由超声生物显微镜技术或本领域技术人员可用的其他成像方式获得。参考图1,控制器C可以被配置成经由短程网络28从数据库36获得历史对。控制器C可以被配置成经由长程网络44从远程服务器40获得历史对。
根据框114,控制器C被配置成经由第三输入机器学习模型54,部分地基于历史对的比较来提取第三数据集。第三数据集被添加到混合数据集中。在一个示例中,第三输入机器学习模型54是深度学习神经网络,其被配置成对术前图像200中的术前测量值(x)进行分类,以确定建议的晶状体屈光力(f(x)),并随后确定可能因使用建议的人工晶状体屈光力而导致的估计误差。第三输入机器学习模型54可以被配置成使成本函数最小化,该成本函数被定义为预测显性等效球镜度数(基于术前图像200)与术后显性等效球镜度数(基于术后图像300)之间的均方误差。
历史对的比较可能需要跟踪术前图像200与术后图像300之间特定参数的变化。例如,比较可以包括评估图4所示的第一距离d1和图5所示的第二距离d2之间的差异。第一距离d1是术前图像200中的术前晶状体206的中心240与角膜203的上表面202上的参考点242之间的距离。第二距离d2是术后图像300中的植入的人工晶状体12的中心340与角膜303的上表面302上的参考点342之间的距离。也可以采用其他参数。
根据图3的框116,方法100包括经由输出机器学习模型56基于混合数据集生成至少一个输出因子。参考图6,输出机器学习模型56可以是全连接感知器模型,该全连接感知器模型使得每个节点N的参数独立于其他节点,即,每个节点N以唯一的一组权重为特征。参考图6,输出机器学习模型56可以生成多个输出,比如第一输出因子412和第二输出因子414。第一输出因子412可以是显性等效球镜度数(MRSE)。第二输出因子414可以是未矫正远距离视力(UCDVA)。
可选地,在根据框116生成输出因子之前,控制器C可以被配置成部分地基于多个术前尺寸获得一个或多个估算的术后变量。估算的术后变量可以包括术后晶状体厚度和术后晶状体位置。将估算的术后变量添加到混合数据集,并将其视为输出机器学习模型56的附加输入,以在框116中生成输出因子。估算的术后变量可以从几何模型或本领域技术人员可获得的人工晶状体屈光力计算公式(比如SRK/T公式、Holladay公式、Hoffer Q公式、Olsen公式和Haigis公式)中获得。估算的术后变量可以从本领域技术人员可用的其他估计方法中获得。
根据图3的框118,方法100包括部分地基于在框116中生成的至少一个输出因子来选择人工晶状体12。在多个输出因子的情况下,控制器C可以被配置成使用多个输出因子的加权平均值或其他统计方法(例如,神经网络)来确定要植入的人工晶状体12的正确屈光力。
总之,系统10和方法100优化了人工晶状体12的选择过程,并且能够实现更大的预测成功率,尤其是对于具有不规则生物特征的眼睛。在模型训练和模型执行过程期间,系统10和方法100可以应用于广泛的成像方式。
图1的控制器C包括计算机可读介质(也称为处理器可读介质),该计算机可读介质包括参与提供可以由计算机(例如,由计算机的处理器)读取的数据(例如,指令)的非暂态(例如,有形)介质。这种介质可以采取多种形式,包括但不限于非易失性介质和易失性介质。非易失性介质可以包括例如光盘或磁盘以及其他持久性存储器。易失性介质可以包括例如动态随机存取存储器(DRAM),其可以构成主存储器。这样的指令可以通过一个或多个传输介质来传输,包括同轴电缆、铜线和光纤,包括包含耦合到计算机的处理器的系统总线的线。一些形式的计算机可读介质包括,例如,软盘、软磁盘、硬盘、磁带、其他磁介质、CD-ROM、DVD、其他光学介质、穿孔卡、纸带、其他具有孔图案的物理介质、RAM、PROM、EPROM、FLASH-EEPROM、其他存储芯片或盒、或计算机可以读取的其他介质。
本文描述的查找表、数据库、数据储存库或其他数据存储可以包括用于存储、访问和检索各种数据的各种机制,包括分层数据库、文件系统中的文件集、专有格式的应用程序数据库、关系数据库管理系统(RDBMS)等。每个这样的数据存储可以被包括在采用诸如上述那些之一的计算机操作系统的计算设备中,并且可以经由网络以各种方式中的一种或多种来访问。文件系统可以从计算机操作系统访问,并且可以包括以各种格式存储的文件。RDBMS可以采用结构化查询语言(SQL),以及用于创建、存储、编辑和执行所存储的过程的语言,比如上面提到的PL/SQL语言。
具体实施方式和附图或图对于本披露内容是支持性的和描述性的,但是本披露内容的范围仅由权利要求限定。虽然已经详细描述了用于实施所要求保护的披露内容的一些最佳模式和其他实施例,但是存在各种替代设计和实施例来实践所附权利要求中限定的披露内容。此外,附图中所示的实施例或本说明书中提到的各种实施例的特性不一定要被理解为彼此独立的实施例。而是,在实施例的一个示例中描述的每个特性可以与来自其他实施例的一个或多个其他期望的特性相结合,从而产生没有用文字描述或参考附图描述的其他实施例。因此,这样的其他实施例落入所附权利要求的范围框架内。
Claims (20)
1.一种用于选择要植入到眼睛中的人工晶状体的系统,所述系统包括:
控制器,所述控制器具有处理器和有形的非暂态存储器,所述存储器上记录有指令;
其中,所述控制器被配置成选择性地执行多个机器学习模型,包括第一输入机器学习模型、第二输入机器学习模型和输出机器学习模型;
其中,所述处理器对所述指令的执行使得所述控制器:
接收所述眼睛的至少一个术前图像,并经由所述第一输入机器学习模型,部分地基于所述至少一个术前图像提取第一数据集;
接收所述眼睛的多个生物特征参数,并经由所述第二输入机器学习模型,部分地基于所述多个生物特征参数提取第二数据集;
组合所述第一数据集和所述第二数据集以获得混合数据集;
经由所述输出机器学习模型,基于所述混合数据集生成至少一个输出因子;以及
部分地基于所述至少一个输出因子来选择所述人工晶状体。
2.如权利要求1所述的系统,其中:
所述至少一个输出因子是显性等效球镜度数(MRSE)。
3.如权利要求1所述的系统,其中:
所述至少一个术前图像是从第一成像设备获得的,并且所述多个生物特征参数是从第二成像设备获得的,所述第一成像设备不同于所述第二成像设备。
4.如权利要求1所述的系统,其中:
所述多个机器学习模型包括第三输入机器学习模型,并且在生成所述至少一个输出因子之前,所述控制器被配置成:
访问相应的术前图像和术后图像的历史对;
经由所述第三输入机器学习模型,部分地基于所述历史对来提取第三数据集;以及
在生成所述至少一个输出因子之前,将所述第三数据集添加到所述混合数据集。
5.如权利要求1所述的系统,其中:
所述人工晶状体包括与一个或多个支撑结构邻接的光学区;并且
所述人工晶状体包括至少部分地填充有流体的内腔,所述流体被配置成在所述内腔中移动以改变所述人工晶状体的屈光力。
6.如权利要求1所述的系统,其中:
所述至少一个术前图像是超声生物显微镜图像。
7.如权利要求1所述的系统,其中:
所述多个机器学习模型中的每一个是相应的回归模型;并且
所述输出机器学习模型包括多层感知器网络。
8.如权利要求1所述的系统,其中:
所述多个生物特征参数包括K平坦因子和K陡峭因子。
9.如权利要求1所述的系统,其中:
所述第一数据集包括所述眼睛的多个术前尺寸;并且
所述多个术前尺寸包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、第一赤道面位置、第二赤道面位置、第三赤道面位置、虹膜直径、从角膜的第一表面到术前晶状体的后表面的轴向长度以及睫状突直径中的一个或多个。
10.如权利要求1所述的系统,其中,在生成所述至少一个输出因子之前,所述控制器被配置成:
部分地基于所述多个术前尺寸获得一个或多个估算的术后变量,所述一个或多个估算的术后变量包括术后晶状体厚度和术后晶状体位置;以及
在生成所述至少一个输出因子之前,将所述一个或多个估算的术后变量添加到所述混合数据集。
11.如权利要求1所述的系统,其中:
所述第一数据集包括所述眼睛的多个术前尺寸;并且
所述多个术前尺寸包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、虹膜直径、从角膜的第一表面到术前晶状体的后表面的轴向长度、睫状突直径、第一赤道面位置、第二赤道面位置和第三赤道面位置中的每一个。
12.一种用于选择要植入到眼睛中的人工晶状体的方法,所述方法包括:
经由具有处理器和有形的非暂态存储器的控制器接收所述眼睛的至少一个术前图像;
经由所述控制器选择性地执行多个机器学习模型,所述多个机器学习模型包括第一输入机器学习模型、第二输入机器学习模型和输出机器学习模型;
经由所述第一输入机器学习模型,部分地基于所述至少一个术前图像提取第一数据集;
经由所述控制器接收所述眼睛的多个生物特征参数;
经由所述第二输入机器学习模型,部分地基于所述多个生物特征参数提取第二数据集;
经由所述控制器组合所述第一数据集和第二数据集以获得混合数据集;
经由所述输出机器学习模型,基于所述混合数据集生成至少一个输出因子;以及
部分地基于所述至少一个输出因子来选择所述人工晶状体。
13.如权利要求12所述的方法,进一步包括,在生成所述至少一个输出因子之前:
经由所述控制器访问相应的术前图像和术后图像的历史对;
将第三输入机器学习模型包括在所述多个机器学习模型中;
经由所述第三输入机器学习模型,部分地基于所述历史对的比较来提取第三数据集;以及
在生成所述至少一个输出因子之前,将所述第三数据集添加到所述混合数据集。
14.如权利要求12所述的方法,其中:
所述人工晶状体包括与一个或多个支撑结构邻接的光学区;并且
所述人工晶状体包括至少部分地填充有流体的内腔,所述流体被配置成在所述内腔中移动以改变所述人工晶状体的屈光力。
15.如权利要求12所述的方法,其中:
所述多个机器学习模型中的每一个是相应的回归模型;并且
所述输出机器学习模型包括多层感知器网络。
16.如权利要求12所述的方法,其中:
所述多个生物特征参数包括K平坦因子和K陡峭因子。
17.如权利要求12所述的方法,其中:
所述第一数据集包括所述眼睛的多个术前尺寸;并且
所述多个术前尺寸包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、第一赤道面位置、第二赤道面位置、第三赤道面位置、虹膜直径、从角膜的第一表面到术前晶状体的后表面的轴向长度以及睫状突直径中的一个或多个。
18.如权利要求12所述的方法,其中:
所述第一数据集包括所述眼睛的多个术前尺寸;并且
所述多个术前尺寸包括前房深度、晶状体厚度、晶状体直径、沟到沟直径、虹膜直径、从角膜的第一表面到术前晶状体的后表面的轴向长度以及睫状突直径中的每一个。
19.如权利要求12所述的方法,进一步包括:
从第一成像设备获得所述至少一个术前图像,以及从第二成像设备获得所述多个生物特征参数,所述第一成像设备不同于所述第二成像设备。
20.一种用于选择要植入到眼睛中的人工晶状体的系统,所述系统包括:
控制器,所述控制器具有处理器和有形的非暂态存储器,所述存储器上记录有指令;
其中,所述控制器被配置成选择性地执行多个机器学习模型,包括第一输入机器学习模型、第二输入机器学习模型、第三输入机器学习模型和输出机器学习模型;
其中,所述处理器对所述指令的执行使得所述控制器:
接收所述眼睛的至少一个术前图像,并经由所述第一输入机器学习模型,部分地基于所述至少一个术前图像提取第一数据集;
接收所述眼睛的多个生物特征参数,并经由所述第二输入机器学习模型,部分地基于所述多个生物特征参数提取第二数据集;
访问相应的术前和术后图像的历史对,并经由所述第三输入机器学习模型,部分地基于所述历史对来提取第三数据集;
组合所述第一数据集、所述第二数据集和所述第三数据集以获得混合数据集;
经由所述输出机器学习模型,基于所述混合数据集生成至少一个输出因子;以及
部分地基于所述至少一个输出因子来选择所述人工晶状体;并且
其中,所述至少一个术前图像是从第一成像设备获得的,并且所述多个生物特征参数是从第二成像设备获得的,所述第一成像设备不同于所述第二成像设备。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962912682P | 2019-10-09 | 2019-10-09 | |
US62/912,682 | 2019-10-09 | ||
PCT/IB2020/059386 WO2021070061A1 (en) | 2019-10-09 | 2020-10-06 | Selection of intraocular lens based on a plurality of machine learning models |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114762058A true CN114762058A (zh) | 2022-07-15 |
Family
ID=72896017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080082624.6A Pending CN114762058A (zh) | 2019-10-09 | 2020-10-06 | 基于多个机器学习模型的人工晶状体选择 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11547484B2 (zh) |
EP (1) | EP4042440A1 (zh) |
JP (1) | JP2022552478A (zh) |
CN (1) | CN114762058A (zh) |
AU (1) | AU2020361728A1 (zh) |
CA (1) | CA3152707A1 (zh) |
WO (1) | WO2021070061A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117238514A (zh) * | 2023-05-12 | 2023-12-15 | 中山大学中山眼科中心 | 一种人工晶状体屈光力预测方法、系统、设备及介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11890184B2 (en) * | 2017-09-29 | 2024-02-06 | John Gregory LADAS | Systems, apparatuses, and methods for intraocular lens selection using artificial intelligence |
USD968619S1 (en) * | 2020-02-07 | 2022-11-01 | Biotech Vision Care Pvt. Ltd. | Intraocular lens |
US20230148859A1 (en) * | 2021-11-11 | 2023-05-18 | Johnson & Johnson Surgical Vision, Inc. | Prediction of iol power |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019135198A1 (en) * | 2018-01-05 | 2019-07-11 | Novartis Ag | Systems and methods for intraocular lens selection |
-
2020
- 2020-10-06 AU AU2020361728A patent/AU2020361728A1/en active Pending
- 2020-10-06 JP JP2022521372A patent/JP2022552478A/ja active Pending
- 2020-10-06 US US17/064,254 patent/US11547484B2/en active Active
- 2020-10-06 WO PCT/IB2020/059386 patent/WO2021070061A1/en unknown
- 2020-10-06 EP EP20792744.3A patent/EP4042440A1/en active Pending
- 2020-10-06 CN CN202080082624.6A patent/CN114762058A/zh active Pending
- 2020-10-06 CA CA3152707A patent/CA3152707A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117238514A (zh) * | 2023-05-12 | 2023-12-15 | 中山大学中山眼科中心 | 一种人工晶状体屈光力预测方法、系统、设备及介质 |
CN117238514B (zh) * | 2023-05-12 | 2024-05-07 | 中山大学中山眼科中心 | 一种人工晶状体屈光力预测方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021070061A1 (en) | 2021-04-15 |
JP2022552478A (ja) | 2022-12-16 |
EP4042440A1 (en) | 2022-08-17 |
CA3152707A1 (en) | 2021-04-15 |
AU2020361728A1 (en) | 2022-04-14 |
US11547484B2 (en) | 2023-01-10 |
US20210106385A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11547484B2 (en) | Selection of intraocular lens based on a plurality of machine learning models | |
US20210369106A1 (en) | Selection of intraocular lens based on a predicted subjective outcome score | |
US20240120094A1 (en) | Theory-motivated domain control for ophthalmological machine-learning-based prediction method | |
JP7579864B2 (ja) | 眼内レンズを寸法決めするための機械学習支援パイプラインのためのコンピュータ実装方法、処理パイプラインシステムおよびコンピュータプログラム製品 | |
US20230057389A1 (en) | Physically motivated machine learning system for an optimized intraocular lens calculation | |
JP7402262B2 (ja) | 機器の作動方法、システム、およびコンピュータプログラム製品 | |
US20230281856A1 (en) | System and method for obtaining profile of eye lens capsule | |
US11931104B2 (en) | Vision quality assessment based on machine learning model and wavefront analysis | |
JP2024514199A (ja) | 白内障手術用眼内レンズ(iol)のパラメータを特定する方法及びシステム | |
US20230148859A1 (en) | Prediction of iol power | |
US20240090995A1 (en) | Methods and systems for determining intraocular lens parameters for ophthalmic surgery using an emulated finite elements analysis model | |
JP2023554338A (ja) | 学習モデルに基づく眼の光干渉断層撮影画像の拡張 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |