CN111931737B - 一种角膜镜异常判断方法和系统 - Google Patents

一种角膜镜异常判断方法和系统 Download PDF

Info

Publication number
CN111931737B
CN111931737B CN202011036857.0A CN202011036857A CN111931737B CN 111931737 B CN111931737 B CN 111931737B CN 202011036857 A CN202011036857 A CN 202011036857A CN 111931737 B CN111931737 B CN 111931737B
Authority
CN
China
Prior art keywords
keratoscope
image data
user terminal
protein
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011036857.0A
Other languages
English (en)
Other versions
CN111931737A (zh
Inventor
陈洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hansang Nanjing Technology Co ltd
Original Assignee
Hansong Nanjing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hansong Nanjing Technology Co ltd filed Critical Hansong Nanjing Technology Co ltd
Priority to CN202011036857.0A priority Critical patent/CN111931737B/zh
Publication of CN111931737A publication Critical patent/CN111931737A/zh
Application granted granted Critical
Publication of CN111931737B publication Critical patent/CN111931737B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45CPURSES; LUGGAGE; HAND CARRIED BAGS
    • A45C11/00Receptacles for purposes not provided for in groups A45C1/00-A45C9/00
    • A45C11/005Contact lens cases
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45CPURSES; LUGGAGE; HAND CARRIED BAGS
    • A45C11/00Receptacles for purposes not provided for in groups A45C1/00-A45C9/00
    • A45C11/04Spectacle cases; Pince-nez cases
    • A45C11/043Spectacle cases; Pince-nez cases with cleaning means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/013Instruments for compensation of ocular refraction ; Instruments for use in cornea removal, for reshaping or performing incisions in the cornea
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B08CLEANING
    • B08BCLEANING IN GENERAL; PREVENTION OF FOULING IN GENERAL
    • B08B13/00Accessories or details of general applicability for machines or apparatus for cleaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及角膜镜状态检测领域,特别涉及一种角膜镜异常判断方法和系统。该方法包括:向角膜镜上添加蛋白质着色剂;获取添加蛋白质着色剂的角膜镜的图像数据并发送图像数据至用户终端;用户终端基于图像数据获取反馈信息;用户终端基于反馈信息发出更换角膜镜和/或建议就医的提示;或控制角膜镜收纳盒对角膜镜上的蛋白质着色剂进行清洗;其中,反馈信息基于服务端的训练完成的深度学习模型处理获得。该方法通过服务端基于深度学习模型更加准确的基于蛋白质分布情况判断角膜镜和眼部状态,并且使用者可以直观的获知角膜镜和眼部的状态,以及获取更换角膜镜或就医的提示。

Description

一种角膜镜异常判断方法和系统
技术领域
本说明书涉及角膜镜状态检测领域,特别涉及一种角膜镜异常判断方法和系统。
背景技术
角膜镜又称角膜塑形镜,随着近视及其他角膜变形带来的视力问题,角膜塑形镜是一个有效办法。它被医学界公认有效的近视矫正手段之一,可以有效控制近视的进一步发展,以作为屈光不正(近视眼)的一种矫正方式,对于青少年来说,它能控制近视程度的加深。角膜塑形镜是利用眼睑的压力,使得镜片压迫角膜表面的角膜上皮细胞和泪液层,使得角膜表面发生形变,从而改变视力。
角膜镜采用透气性硬质角膜接触镜材料制作而成,由于其属于可重复使用的眼镜,需要经常确认镜片是否存在异常,避免对眼部造成伤害。
发明内容
本说明书实施例之一提供一种角膜镜异常判断方法,其中所述角膜镜使用后收纳于角膜镜收纳盒中。该方法包括:向所述角膜镜上添加蛋白质着色剂;获取所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端;所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果;所述用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或控制所述角膜镜收纳盒对所述角膜镜上的蛋白质着色剂进行清洗;其中,所述反馈信息由所述用户终端将所述图像数据处理后发送至服务端,基于所述服务端的训练完成的深度学习模型处理获得。
在一些实施例中,所述深度学习模型通过以下方式获得:获取训练样本;所述训练样本包括多个被染色的角膜镜图像;提取每个所述训练样本的特征信息;获取每个所述训练样本的标签,所述标签包括更换角膜镜、建议就医和/或者无需处理;基于所述训练样本和所述标签训练初始深度学习模型,得到训练完成的所述深度学习模型。
在一些实施例中,所述训练样本的特征信息包括角膜镜形状、角膜镜被染色的蛋白质在所述角膜镜上的分布情况、以及被染色蛋白质颜色深浅程度。
在一些实施例中,还包括:所述用户终端对所述图像数据进行预处理,以减小所述图像数据的尺寸;将所述预处理后的所述图像数据发送至服务端。
在一些实施例中,所述蛋白质着色剂包括考马斯亮蓝或聚丙烯酰胺凝胶。
在一些实施例中,所述角膜镜收纳盒基于控制信号添加着色剂;基于添加时间提示用户终端和/或者角膜镜收纳盒进行拍照,得到所述添加蛋白质着色剂的角膜镜的图像数据。
本说明书实施例之一提供一种角膜镜异常判断系统,该系统包括:染色模块,用于向所述角膜镜上添加蛋白质着色剂;图像获取模块,用于所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端;反馈获取模块,用于所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果;反馈执行模块,用于所述用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或控制所述角膜镜收纳盒对所述角膜镜上的蛋白质着色剂进行清洗;其中,所述反馈信息由所述用户终端将所述图像数据处理后发送至服务端,基于所述服务端的训练完成的深度学习模型处理获得。
本说明书实施例之一提供一种角膜镜异常判断装置,包括处理器,所述处理器用于执行上述方法。
本说明书实施例之一提供一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行上述方法。
附图说明
本说明书将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书一些实施例所示的角膜镜异常判断系统的应用场景示意图;
图2是根据本说明书一些实施例所示的角膜镜异常判断方法的示例性流程图;
图3是根据本说明书一些实施例所示的用户终端对图像数据进行预处理的示例性流程图;
图4是根据本说明书一些实施例所示的深度学习模型训练过程的示例性流程图;
图5是根据本说明书的一些实施例所示的角膜镜异常判断系统示例性系统框图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书一些实施例所示的角膜镜异常判断系统的应用场景示意图。
图1所示为根据本说明书一些实施例所示的一种角膜镜异常判断系统100的应用场景示意图。
如图1所示,在应用场景中可以包括角膜镜收纳盒110、处理器120、存储设备130、用户终端140和网络150。
在一些实施例中,系统100的一个或者多个组件可以通过网络150传送数据至信息识别与提示系统100的其他组件。例如,处理器120可以通过网络150获取用户终端140、角膜镜收纳盒110和存储设备130中的信息和/或数据,或者可以通过网络150将信息和/或数据发送到用户终端140、角膜镜收纳盒110和存储设备130。
在一些实施例中,角膜镜收纳盒110可以采集角膜镜的图像,处理器120可以接收来自角膜镜收纳盒110的图像数据,基于深度学习模型判断角膜镜状态,处理器120还可以将角膜镜状态返回给用户终端140。
上述方式仅为方便理解,本系统亦可以其他可行的操作方式实施本说明书中的方法。
在一些实施例中,角膜镜收纳盒110、用户终端140以及其他可能的系统组成部分中可以包括存储设备130。在一些实施例中,存储设备130可以是服务平台的数据库。
在一些实施例中,角膜镜收纳盒110、用户终端140以及其他可能的系统组成部分中可以包括处理器120。在一些实施例中,处理器120可以由于深度学习模型的训练和执行。
在一些实例中,可以在不同的设备上分别进行不同的功能,比如数据的筛选、查询、预处理、模型的训练、模型的执行等等,本说明书对此不作限制。
角膜镜收纳盒110可以用于数据获取、处理和/或输出、定位等功能。角膜镜收纳盒110可以包含一个或多个子功能设备(例如单个传感设备或多个传感设备组成的传感系统设备)。在一些实施例中,角膜镜收纳盒110可以包括但不限于射频感应单元、NFC通信单元、图像采集单元、音频输出单元等或其任意组合。例如,角膜镜收纳盒110可以是隐形眼镜收纳盒改造得到。
处理器120可以处理从其他设备或系统组成部分中获得的数据和/或信息。处理器可以基于这些数据、信息和/或处理结果执行程序指令,以执行一个或多个本说明书中描述的功能。在一些实施例中,处理器120可以包含一个或多个子处理设备(例如,单核处理设备或多核多芯处理设备)。仅作为示例,处理器120可以包括中央处理器(CPU)、专用集成电路(ASIC)、专用指令处理器(ASIP)、图形处理器(GPU)、物理处理器(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编辑逻辑电路(PLD)、控制器、微控制器单元、精简指令集电脑(RISC)、微处理器等或以上任意组合。
存储设备130可以用于存储数据和/或指令。存储设备130可以包括一个或多个存储组件,每个存储组件可以是一个独立的设备,也可以是其他设备的一部分。在一些实施例中,存储设备130可包括随机存取存储器(RAM)、只读存储器(ROM)、大容量存储器、可移动存储器、易失性读写存储器等或其任意组合。示例性的,大容量储存器可以包括磁盘、光盘、固态磁盘等。在一些实施例中,所述存储设备130可在云平台上实现。仅作为示例,所述云平台可以包括私有云、公共云、混合云、社区云、分布云、内部云、多层云等或其任意组合。
数据指对信息的数字化表示,可以包括各种类型,比如二进制数据、文本数据、图像数据、视频数据等。指令指可控制设备或器件执行特定功能的程序。
用户终端140指用户所使用的一个或多个终端设备或软件。用户终端140可以包括处理单元、显示单元、输入/输出单元、感知单元、存储单元等。感知单元可以包括但不限于光传感器、距离传感器、加速度传感器、陀螺仪传感器、声音探测器等或其任意组合。
在一些实施例中,用户终端140可以是移动设备140-1、平板计算机140-2、膝上型计算机140-3、台式计算机140-4等其他具有输入和/或输出功能的设备中的一种或其任意组合。在一些实施例中,使用用户终端140的可以是一个或多个用户,可以包括直接使用服务的用户,也可以包括其他相关用户。
在一些实施例中,移动装置140-1可包括可穿戴设备和智能移动装置等或其任意组合。在一些实施例中,可穿戴智能设备包括:智能手镯、智能鞋袜、智能眼镜、智能头盔、智能手表、智能衣服、智能背包、智能配件等或其任意组合。在一些实施例中,智能移动设备可以包括智能电话、个人数字助理(PDA)、游戏设备、导航设备、手持终端(POS)等或其任意组合。
上述示例仅用于说明所述用户终端140设备范围的广泛性而非对其范围的限制。
网络150可以连接系统的各组成部分和/或连接系统与外部资源部分。网络150使得各组成部分之间,以及与系统之外其他部分之间可以进行通讯,促进数据和/或信息的交换。在一些实施例中,网络150可以是有线网络或无线网络中的任意一种或多种。例如,网络150可以包括电缆网络、光纤网络、电信网络、互联网、局域网络(LAN)、广域网络(WAN)、无线局域网络(WLAN)、城域网(MAN)、公共交换电话网络(PSTN)、蓝牙网络、紫蜂网络(ZigBee)、近场通信(NFC)、设备内总线、设备内线路、线缆连接等或其任意组合。各部分之间的网络连接可以是采用上述一种方式,也可以是采取多种方式。在一些实施例中,网络可以是点对点的、共享的、中心式的等各种拓扑结构或者多种拓扑结构的组合。在一些实施例中,网络150可以包括一个或以上网络接入点。例如,网络150可以包括有线或无线网络接入点,例如基站和/或网络交换点150-1、150-2、…,通过这些进出系统100的一个或多个组件可连接到网络150上以交换数据和/或信息。
在一些实施例中,角膜镜在使用过程中需要定期复查,通常是使用者在使用过程中出现不适或一定时间(如一周或一个月)需要到医院使用专业的设备进行检测,以确定角膜镜是否需要换新。该方式要求必须使用专业设备,并且使用者定期去医院会造成时间成本增加的问题。
研究发现,角膜镜佩戴后上面残留的附着蛋白质能够一定程度上反应眼部的健康程度,而蛋白质在角膜镜上不容易看出,因此在一些实施例中,提供了一种将蛋白质进行染色,然后将染色后的图像发送至云端分析,根据分析结果进行进一步处理的方法。
图2是根据本说明书一些实施例所示的角膜镜异常判断方法的示例性流程图。
如图2所示,在一些实施例中,该角膜镜异常判断方法200中的一个或多个操作可以通过图1所示的系统100实现。在一些实施例中,使用者将角膜镜摘下后,收纳于角膜镜收纳盒中。
步骤210,向所述角膜镜上添加蛋白质着色剂。在一些实施例中,步骤210由染色模块510执行。
利用蛋白质的分布情况,可以在一定程度上帮助判断角膜镜的使用状况和眼部的健康程度。在一些实施例中,为了更好的观察,采用蛋白质着色剂对佩戴过并且暂时未清洗的角膜镜上的蛋白质进行染色,蛋白质着色剂快速与角膜镜上附着的蛋白质(如泪蛋白)反应,生成与蛋白质染色剂不同的颜色,以体现出蛋白质在角膜镜上的分布情况。
在一些实施例中,可以通过角膜镜收纳盒自动向角膜镜上添加蛋白质着色剂。仅作为示例,角膜镜收纳盒可以检测到每一次有角膜镜放置于角膜镜收纳盒中时,由角膜镜收纳盒自动向角膜镜添加蛋白质着色剂。在一些实施例中,根据蛋白质着色剂的用量和用法不同,蛋白质着色剂可以是喷洒至角膜镜表面,或滴于角膜镜用于与角膜接触的一侧。
在一些实施例中,角膜镜收纳盒可以并不是每次收纳角膜镜时都进行染色。进一步的,在一些实施例中,角膜镜收纳盒可以基于控制信号添加着色剂。在一些实施例中,控制信号可以由用户终端发出,还可以是其他设备发出,如角膜镜收纳盒可以基于时间(如隔日或每周一次)或收纳次数(如每收纳3次角膜镜,下一次进行染色)发出控制信号。通过控制信号进行染色,能够避免每一次收纳时都染色的问题,节约蛋白质着色剂的用量,并简化收纳流程。
在一些实施例中,可以是使用者手动向角膜镜上添加蛋白质着色剂。具体的,在一些实施例中,使用者将角膜镜使用后收纳于角膜镜收纳盒中,将角膜镜与角膜接触的一面向上放置,然后将蛋白质着色剂添加至角膜镜上,使蛋白质着色剂与角膜镜上蛋白质进行反应。
在一些实施例中,蛋白质着色剂为考马斯亮蓝或聚丙烯酰胺凝胶。考马斯亮蓝和聚丙烯酰胺凝胶具备容易保存,且不具有毒性的特点,其染色原理和操作分别对应考马斯亮蓝蛋白质测定法和SDS-PAGE蛋白质测定法,在此不过多赘述。在一些实施例中,考马斯亮蓝或聚丙烯酰胺凝胶和浓度和用量可以根据染色步骤的实际情况进行调整,本说明书不做限制。此外,在一些其他实施例中,还可以采用其他任何能够与蛋白质反应的着色剂,以及使用其他染色方式。
步骤220,获取所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端。在一些实施例中,步骤220可以由图像获取模块520执行。
在一些实施例中,获取染色后的角膜镜图像数据以便于基于大数据和深度学习模型对角膜镜的状态进行分析。
在一些实施例中,获取染色后的角膜镜图像的方式可以包括,使用用户终端直接获取或通过角膜镜收纳盒进行自动拍照。需要说明的是,在一些实施例中,通过用户终端(如手机、平板电脑等)直接拍照获取添加蛋白质着色剂的角膜镜的图像数据时,优选的,将染色后的角膜镜保留在角膜镜收纳盒中进行拍照。
在一些实施例中,角膜镜收纳盒进行自动拍照可以通过在角膜镜收纳盒中设置的摄像头完成。在一些实施例中,摄像头可以预先设置成对准角膜镜收纳盒中收纳角膜镜的区域内,也可以将摄像头设置成可活动的方式,使用者通过调整该摄像头位置进行自动拍照。在一些实施例中,摄像头获取的图像数据需要传输至用户终端,传输的方式可以包括有线传输和无线传输等。在一些实施例中,有线传输可以是在角膜镜收纳盒上设置数据线接口,通过数据线将摄像头获取的图像数据传输至用户终端。在一些实施例中,无线传输方式可以包括但不仅限于WiFi、蓝牙、Zigbee、NFC等。在本说明书的一些实施例中,通过蓝牙连接实现角膜镜收纳盒和用户终端的无线连接。
在一些实施例中,角膜镜收纳盒可以基于添加时间提示用户终端和/或者角膜镜收纳盒进行拍照,得到所述添加蛋白质着色剂的角膜镜的图像数据。仅作为示例,添加时间可以是添加着色剂的时间,在添加后间隔一定反应时间(如30秒、1分钟、5分钟或10分钟等),以便于染色稳定,根据蛋白质着色剂的不同具体的间隔时间也不同,在此不做限制。
图3是根据本说明书一些实施例所示的用户终端对图像数据进行预处理的示例性流程图。
步骤222,所述用户终端对所述图像数据进行预处理,以减小所述图像数据的尺寸。
在一些实施例中,对图像数据进行预处理以减小所述图像数据的尺寸,可以在一定程度上减少传输压力,并减少服务端的计算量,加快服务端响应速度。
在一些实施例中,预处理的方式包括图像去噪和卷积计算等。具体的,图像去噪可以包括均值滤波、高斯滤波、双边滤波和中值滤波中的一个或多个,较少由拍摄设备或光线较暗导致的图像中噪声较多的情况。
在一些实施例中,卷积计算用于在不损失图像特征的前提下,减小图像数据的尺寸,减少传输压力,并加快用户终端上传图像数据的时间。在一些实施例中,卷积计算可以由服务端进行。
步骤224,将所述预处理后的所述图像数据发送至服务端。
在一些实施例中,预处理后的图像数据通过网络与发送至服务端,该网络可以电缆网络、光纤网络、电信网络、互联网、局域网络(LAN)、广域网络(WAN)、无线局域网(WLAN)、城域网(MAN)、公共交换电话网络(PSTN)、蓝牙网络、紫蜂网络(ZigBee)、近场通信(NFC)、设备内总线、设备内线路、线缆连接等或其任意组合。
步骤230,所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果。在一些实施例中,步骤230可以由反馈获取模块530执行。
在一些实施例中,反馈信息由用户终端将图像数据处理后发送至服务端,基于服务端的训练完成的深度学习模型处理获得。通过训练完成的深度学习模型处理图像数据,能够更好的根据蛋白质染色情况推断出角膜镜或使用者眼部的健康情况。
对角膜镜上蛋白质进行染色,除了能够体现出蛋白质在角膜镜上的分布情况外,根据染色的深浅还能够判断一个位置上蛋白质沉积的多少。因而在一些实施例中,基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果可以包括眼部蛋白质分泌异常、角膜镜形状/表面异常或无异常等。
图4是根据本说明书一些实施例所示的深度学习模型训练过程的示例性流程图。
在一些实施例中,服务端的深度学习模型可以通过以下方式获得:
步骤310,获取训练样本。
在一些实施例中,可以获取多个被染色的角膜镜图像作为训练样本,获取训练样本的方式可以是从服务平台获取(如角膜镜状态在线判断平台)。例如训练样本可以是其他用户历史上传的被染色的角膜镜图像。
在一些实施例中,被染色的角膜图像中还可以包括角膜镜收纳盒的图像,由于不同设备由于设备本身或环境光线的影响,拍摄的被染色的角膜镜图像颜色可能会有一定程度上不同,而角膜镜收纳盒的颜色是能够获知的,因此图像中的角膜镜收纳盒可以帮助对图像颜色进行一定程度上的校正,使分析结果更加准确。
步骤320,提取每个所述训练样本的特征信息。
在一些实施例中,训练样本的特征信息包括角膜镜形状、角膜镜被染色的蛋白质在所述角膜镜上的分布情况、以及被染色蛋白质颜色深浅程度。
在一些实施例中,可以采用各种算法进行特征提取,包括但不限于局部二值模式(LPB)特征提取算法、方向梯度直方图(HOG)特征提取算法、Haar特征提取算法等。
步骤330,获取每个所述训练样本的标签。
在一些实施例中,针对一个训练样本可以对应一个或多个标签。参见步骤230相关描述可以得知,分析结果可以包括眼部蛋白质分泌异常、角膜镜形状/表面异常或无异常等,相应的,每个训练样本的标签可以包括更换角膜镜、建议就医和/或者无需处理。例如,在一些实施例中,标签可以包括眼部健康标签和镜片状态标签,仅作为示例,无需处理对应的图像的标签可以表示为“眼部健康1、镜片状态1”,建议就医对应的图像标签可以表示为“眼部健康0、镜片状态1”或“眼部健康0、镜片状态0”。
在一些实施例中,标签的获取方式可以是人工标记,还可以是其他方式,本实施例不做限制。
步骤340,基于所述训练样本和所述标签训练初始深度学习模型,得到训练完成的所述深度学习模型。
在一些实施例中,深度学习模型可以基于上述样本,通过常用的方法进行训练,更新模型参数。例如,可以基于梯度下降法进行训练。在一些实施例中,深度学习模型可以包括DNN模型、CNN模型、RNN模型、LSTM网络模型等中的一种或任意几种的组合。
在一些实施例中可以根据多个训练样本以及训练样本的标签之间的差异(例如,分类是否一致),确定所述损失函数。所述损失函数的函数形式可以包括指数损失函数、平方损失函数、对数损失函数等。
在一些实施例中,当训练的深度学习模型满足预设条件时,训练结束,此时可指定参数最新更新后的初始深度学习模型为所述训练好的深度学习模型。其中,预设条件可以是损失函数结果收敛或小于预设阈值等。
步骤240,用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或控制所述角膜镜收纳盒对所述角膜镜上的蛋白质着色剂进行清洗。在一些实施例中,步骤240可以由反馈执行模块540执行。
在一些实施例中,根据反馈信息中眼部蛋白质分泌异常、角膜镜形状/表面异常或无异常等结果,可以相应的进行提示或清洗步骤。具体的,在一些实施例中,当反馈蛋白质分泌异常时,用户终端发出建议就医的提示;当反馈角膜镜的形状或表面存在异常时,用户终端发出更换角膜镜的提示;当反馈无异常时,控制角膜镜收纳盒对角膜镜上的蛋白质着色剂进行清洗,清洗后利用角膜镜收纳盒进行收纳。在一些实施例中,继续采用蓝牙连接作为示例,用户终端可以通过蓝牙发送控制信号,控制角膜镜收纳盒对角膜镜进行清洗。
在一些实施例中,反馈信息可以包括提示信息或控制指令,也可以包括服务端生成的包含有角膜镜分析结果相关的信息或可视化的分析结果。例如,在提醒用户更换角膜镜时,可以在用户终端上给出需要更换的原因(如屈光度不足、表面划伤)或用眼提示。
在一些实施例中,可以由角膜镜收纳盒直接获取反馈信息,并通过角膜镜收纳盒上设置的显示屏或指示灯,以提示使用者更换角膜镜、建议就医或对蛋白质着色剂进行清洗。在一些实施例中,角膜收纳盒可以直接通过无线连接与服务端连接,以上传图像数据或获取反馈信息。
在一些实施例中,对角膜镜的清洗可以通过角膜镜收纳盒内的清洗装置实现,清洗装置可以包括微气泡发生器或超声波发生器等。在一些实施例中,清洗装置可以在没有反馈信息的情况下由使用者自行启动,对角膜镜进行清洁,此外还可以通过用户终端的控制信号启动该清洗装置。
在一些实施例中,在进行清洗前或清洗后,根据实际情况可能需要向角膜镜收纳盒中添加护理液。护理液可以通过在角膜镜收纳盒中设置护理液暂时存放空间,在需要时投放并在耗尽时提醒用户添加。在一些实施例中,添加护理液可以是角膜收纳盒通过声、光提醒用户或通过用户终端提醒用户添加护理液至角膜收纳盒中。
在一些实施例中,染色后的角膜镜还可以通过手动清洗的方式清除污渍以及蛋白质着色剂。手动清洗完成后,可选择的向角膜收纳盒中添加护理液并将角膜镜收纳于该角膜收纳盒中。
应当注意的是,上述有关角膜镜异常判断方法200的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
图5是根据本说明书的一些实施例所示的角膜镜异常判断系统示例性系统框图。
如图5所示,角膜镜异常判断系统500可以包括染色模块510、图像获取模块520、反馈获取模块530和反馈执行模块540。这些模块也可以作为应用程序或一组由处理引擎读取和执行的指令实现。此外,模块可以是硬件电路和应用/指令的任何组合。例如,当处理引擎或处理器执行应用程序/一组指令时,模块可以是处理器的一部分。
染色模块510可以用于向所述角膜镜上添加蛋白质着色剂。
关于蛋白质着色剂的更多描述可以在本说明书的其他地方(如步骤210及其相关描述中)找到,在此不作赘述。
图像获取模块520可以用于所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端;
关于图像数据的更多描述可以在本说明书的其他地方(如步骤220及其相关描述中)找到,在此不作赘述。
反馈获取模块530可以用于所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果;
关于反馈信息的更多描述可以在本说明书的其他地方(如步骤230及其相关描述中)找到,在此不作赘述。
反馈执行模块540可以用于所述用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或控制所述角膜镜收纳盒对所述角膜镜上的蛋白质着色剂进行清洗;
关于提示和清洗的更多描述可以在本说明书的其他地方(如步骤240及其相关描述中)找到,在此不作赘述。
应当理解,图5所示的装置及其模块可以利用各种方式来实现。例如,在一些实施例中,装置及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行装置,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和装置可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本说明书的装置及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于基于隐私保护的加密系统及其模块的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该装置的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子装置与其他模块连接。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书实施例可能带来的有益效果包括但不限于:(1)通过服务端基于深度学习模型,能够更加准确的基于蛋白质分布情况判断角膜镜和眼部状态;(2)使用者可以在用户终端或者角膜镜显示设备上直观的获知角膜镜和眼部的状态,以及获取更换或就医的提示;(3)角膜镜收纳盒在角膜镜无异常时自动对角膜镜进行清洗并提供收纳功能。
需要说明的是,不同实施例可能产生的有益效果不同,在不同的实施例里,可能产生的有益效果可以是以上任意一种或几种的组合,也可以是其他任何可能获得的有益效果。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。

Claims (8)

1.一种角膜镜异常判断方法,其中所述角膜镜使用后收纳于角膜镜收纳盒中,该方法包括:
所述角膜镜收纳盒基于用户终端发出的控制信号向所述角膜镜上添加蛋白质着色剂;
获取所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端;所述添加蛋白质着色剂的角膜镜的图像数据基于添加时间提示所述用户终端进行拍照得到;
所述用户终端对所述图像数据进行预处理,以减小所述图像数据的尺寸;所述预处理包括图像去噪和卷积计算;
将所述预处理后的所述图像数据发送至服务端;
所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果;
所述用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或所述用户终端控制所述角膜镜收纳盒中设置的护理液暂时存放空间向角膜镜收纳盒中加入护理液,以便于对所述角膜镜上的蛋白质着色剂进行清洗;
其中,所述反馈信息由所述用户终端将所述图像数据处理后发送至所述服务端,基于所述服务端的训练完成的深度学习模型处理获得。
2.根据权利要求1所述的方法,其中,所述深度学习模型通过以下方式获得:
获取训练样本;所述训练样本包括多个被染色的角膜镜图像;
提取每个所述训练样本的特征信息;
获取每个所述训练样本的标签,所述标签包括更换角膜镜、建议就医和/或者无需处理;
基于所述训练样本和所述标签训练初始深度学习模型,得到训练完成的所述深度学习模型。
3.根据权利要求2所述的方法,其中:
所述训练样本的特征信息包括角膜镜形状、角膜镜被染色的蛋白质在所述角膜镜上的分布情况、以及被染色蛋白质颜色深浅程度。
4.根据权利要求1所述的方法,其中:
所述蛋白质着色剂包括考马斯亮蓝或聚丙烯酰胺凝胶。
5.一种角膜镜异常判断系统,其包括:
染色模块,用于所述角膜镜收纳盒基于用户终端发出的控制信号向所述角膜镜上添加蛋白质着色剂;
图像获取模块,用于所述添加蛋白质着色剂的角膜镜的图像数据并发送所述图像数据至用户终端;所述添加蛋白质着色剂的角膜镜的图像数据基于添加时间提示所述用户终端进行拍照得到;
反馈获取模块,用于所述用户终端基于所述图像数据获取反馈信息;所述反馈信息用于至少反映基于所述角膜镜基于所述蛋白质着色剂得到的染色情况的分析结果;
反馈执行模块,用于所述用户终端基于所述反馈信息发出更换角膜镜和/或建议就医的提示;或用于所述用户终端控制所述角膜镜收纳盒中设置的护理液暂时存放空间向角膜镜收纳盒中加入护理液,以便于对所述角膜镜上的蛋白质着色剂进行清洗;
其中,所述反馈信息由所述用户终端将所述图像数据处理后发送至服务端,基于所述服务端的训练完成的深度学习模型处理获得;所述用户终端对所述图像数据进行预处理,以减小所述图像数据的尺寸;所述预处理包括图像去噪和卷积计算;将所述预处理后的所述图像数据发送至服务端。
6.根据权利要求5所述的系统,其中,所述深度学习模型通过以下方式获得:
获取训练样本;所述训练样本包括多个被染色的角膜镜图像;
提取每个所述训练样本的特征信息;
获取每个所述训练样本的标签,所述标签包括更换角膜镜、建议就医和/或者无需处理;
基于所述训练样本和所述标签训练初始深度学习模型,得到训练完成的所述深度学习模型。
7.一种角膜镜异常判断装置,其包括至少一个处理器以及至少一个存储器;所述至少一个存储器用于存储计算机指令;所述至少一个处理器用于执行所述计算机指令中的至少部分指令以实现如权利要求1~4中任意一项所述的方法。
8.一种计算机可读存储介质,所述存储介质存储有计算机指令,当所述计算机指令被处理器执行后,能够实现如权利要求1~4任一项所述的方法。
CN202011036857.0A 2020-09-28 2020-09-28 一种角膜镜异常判断方法和系统 Active CN111931737B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011036857.0A CN111931737B (zh) 2020-09-28 2020-09-28 一种角膜镜异常判断方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011036857.0A CN111931737B (zh) 2020-09-28 2020-09-28 一种角膜镜异常判断方法和系统

Publications (2)

Publication Number Publication Date
CN111931737A CN111931737A (zh) 2020-11-13
CN111931737B true CN111931737B (zh) 2021-07-27

Family

ID=73334951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011036857.0A Active CN111931737B (zh) 2020-09-28 2020-09-28 一种角膜镜异常判断方法和系统

Country Status (1)

Country Link
CN (1) CN111931737B (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101881892A (zh) * 2010-06-24 2010-11-10 陈迪生 一种新型硬性透气角膜接触镜
AU2016315938B2 (en) * 2015-08-31 2022-02-24 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
CN109740488A (zh) * 2018-12-27 2019-05-10 武汉大学 一种基于深度学习的内镜清洗消毒质量控制系统及方法

Also Published As

Publication number Publication date
CN111931737A (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
CN109803574B (zh) 具有显示器、透镜、照明器和图像传感器的可穿戴设备
EP1515179B1 (en) System and method for manufacturing spectacle lens, program and recording medium therefor
JP5921533B2 (ja) 観察者の視覚障害を補正するための表示を表現するシステム、方法、およびそのプログラムを格納している記憶媒体
CN108720851A (zh) 一种驾驶状态检测方法、移动终端及存储介质
US11178389B2 (en) Self-calibrating display device
EP3312717A1 (en) User device and computer program stored in computer-readable medium for controlling display
CN107341335B (zh) 监测成员群组的行为的方法
CN112313564A (zh) 用于确定眼科设备的方法和相关联的系统
KR20210089222A (ko) 시력-관련 파라미터의 시간 경과에 따른 진화를 예측하는 방법 및 장치
CN110610768B (zh) 一种用眼行为的监测方法及服务器
KR20210088654A (ko) 시력-관련 파라미터의 시간 경과에 따른 진화를 예측하기 위한 모델을 구축하는 방법 및 장치
EP2823451B1 (en) Method for ordering a spectacle lens and associated system
CN110222597A (zh) 基于微表情调节屏幕显示的方法及装置
CN107847124B (zh) 用于监测至少一个显示设备的使用者的视觉能力修改参数的监测部件及方法
CN115019380A (zh) 基于眼部图像的斜视智能识别方法、装置、终端及介质
CN111931737B (zh) 一种角膜镜异常判断方法和系统
CN110573936A (zh) 用于确定眼科镜片的特定视近焦度的方法
US20200394704A1 (en) Facial measurement system for remote frame styling
WO2023079062A1 (en) Devices and methods for determining data related to a progression of refractive values of a person
US20230263388A1 (en) Eye examination device, system and method
KR102149148B1 (ko) 검안 데이터를 공유하는 안경 렌즈 가공 장치 및 방법
JP2022546789A (ja) 視力矯正手術の推薦方法及び装置
CN112674714A (zh) 一种通过滤镜与外设结合的手机检影验光方法
US11326980B2 (en) Method for determining a parameter of an optical device comprising at least an optical lens
CN116862865A (zh) 一种眼底图像质量检测方法、系统及图像处理设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: No.8, Kangping street, Jiangning Economic and Technological Development Zone, Nanjing, Jiangsu, 211106

Patentee after: Hansang (Nanjing) Technology Co.,Ltd.

Address before: No.8, Kangping street, Jiangning Economic and Technological Development Zone, Nanjing, Jiangsu, 211106

Patentee before: HANSONG (NANJING) TECHNOLOGY CO.,LTD.

CP01 Change in the name or title of a patent holder