CN117152827A - 一种近视预测模型的训练方法、近视预测方法及装置 - Google Patents

一种近视预测模型的训练方法、近视预测方法及装置 Download PDF

Info

Publication number
CN117152827A
CN117152827A CN202311036050.0A CN202311036050A CN117152827A CN 117152827 A CN117152827 A CN 117152827A CN 202311036050 A CN202311036050 A CN 202311036050A CN 117152827 A CN117152827 A CN 117152827A
Authority
CN
China
Prior art keywords
fundus
training
time points
feature
myopia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311036050.0A
Other languages
English (en)
Inventor
李美燕
杨卫明
周行涛
魏若妍
王璘
马彤
张大磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eye and ENT Hospital of Fudan University
Beijing Airdoc Technology Co Ltd
Original Assignee
Eye and ENT Hospital of Fudan University
Beijing Airdoc Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eye and ENT Hospital of Fudan University, Beijing Airdoc Technology Co Ltd filed Critical Eye and ENT Hospital of Fudan University
Priority to CN202311036050.0A priority Critical patent/CN117152827A/zh
Publication of CN117152827A publication Critical patent/CN117152827A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种近视预测模型的训练方法、近视预测方法、装置、计算机可读存储介质及电子设备,该训练方法包括:对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;将同一训练对象在同一时间点对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到不同时间点分别对应的拼接特征;基于不同时间点分别对应的拼接特征,构建输入特征序列;并将输入特征序列输入预设深度学习模型,得到视力预测结果;基于视力预测结果和标注数据对预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。该近视预测模型预测出的视力预测结果稳定性和准确性较高。

Description

一种近视预测模型的训练方法、近视预测方法及装置
技术领域
本发明涉及近视预测技术领域,且更具体地,涉及一种近视预测模型的训练方法、近视预测方法及装置。
背景技术
近视是临床眼科门诊最常见的疾病,近年来,近视呈现低龄化特点,越来越多的青少年存在近视问题,近视已经严重影响青少年的视觉健康。因此为了尽早采取有效的干预措施,对青少年近视的发展状态进行预测至关重要。目前,在对青少年近视的发展状态进行预测时,常常采用经验法,经验法严重依赖于预测人的经验,主观性强,稳定性和准确性较差。
发明内容
本发明提供了一种近视预测模型的训练方法、装置、计算机可读存储介质及电子设备,以解决现有技术中视力预测稳定性和准确性较差的技术问题。
根据本发明的第一方面,提供了一种近视预测模型的训练方法,包括:
对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点对应的拼接特征;
基于不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果;
基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
可选地,所述基于不同时间点分别对应的所述拼接特征,构建输入特征序列,包括:
针对每一训练对象:
在不同时间点中选取预测时间点,并在不同时间点中确定出在所述预测时间点之前的在先时间点;
确定各个在先时间点与所述预测时间点间的时间差;
以各个在先时间点分别对应的所述拼接特征和所述时间差为序列元素,构建所述输入特征序列。
可选地,所述对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的目标眼底结构特征,包括:
针对每一眼底图像:
对所述眼底图像进行分割处理或检测处理,得到至少一个眼底结构区域;
对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征;
基于各个第一眼底结构特征,得到所述目标眼底结构特征。
可选地,所述方法还包括:
获取第二眼底结构特征,所述第二眼底结构特征为数值型特征;
所述基于各个第一眼底结构特征,得到所述目标眼底结构特征,包括:
基于各个第一眼底结构特征和所述第二眼底结构特征,得到所述目标眼底结构特征。
可选地,在所述对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征的步骤前,所述方法还包括:
获取训练对象在不同时间点对应的原始眼底图像;
在所述原始眼底图像中存在目标眼底图像的情况下,在所述原始眼底图像中删除所述目标眼底图像,以得到所述训练对象在不同时间点分别对应的眼底图像;所述目标眼底图像中包含预设外部因素。
根据本发明的第二方面,提供了一种近视预测方法,包括:
对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点对应的拼接特征;
基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是上述的近视预测模型的训练方法训练得到。
根据本发明的第三方面,提供了一种近视预测模型的训练装置,包括:
特征提取模块,用于对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块,用于针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点对应的拼接特征;
特征输入模块,用于基于不同时间点分别对应的拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果;
模型训练模块,用于基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
根据本发明的第四方面,提供了一种近视预测装置,包括:
特征提取模块,用于对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块,用于针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点对应的拼接特征;
视力预测模块,用于基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是上述的近视预测模型的训练方法训练得到。
根据本发明的第五方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述方法。
根据本发明的第六方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述方法。
与现有技术相比,本发明提供的近视预测模型的训练方法、近视预测方法、装置、计算机可读存储介质及电子设备,至少包括以下有益效果:
本发明的技术方案通过对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征。然后将同一训练对象在同一时间点对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到每一训练对象在每一时间点分别对应的拼接特征。进一步基于不同时间点分别对应的拼接特征,构建输入特征序列,并将输入特征序列输入预设深度学习模型,得到视力预测结果;进而基于视力预测结果和标注数据对预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。该近视预测模型引入不同时间点的全眼底特征、目标眼底结构特征和个人生物学信息向量,有利于近视预测模型学习到视力变化趋势,该近视预测模型可以对视力进行准确的预测,避免引入人为因素,提高视力预测结果的客观性和稳定性。
附图说明
为了更清楚地说明本发明的技术方案,下面将对本发明的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一示例性实施例提供的近视预测模型的训练方法的流程示意图;
图2是本发明一示例性实施例提供的近视预测模型的训练方法中获取全眼底特征的示意图;
图3是本发明一示例性实施例提供的近视预测模型的训练方法中获取目标眼底结构特征的示意图;
图4是本发明一示例性实施例提供的近视预测模型的训练方法中获取拼接特征的示意图;
图5是本发明一示例性实施例提供的近视预测模型的训练方法中预设深度学习模型的结构示意图;
图6是本发明一示例性实施例提供的近视预测方法的流程示意图;
图7是本发明一示例性实施例提供的近视预测模型的训练装置的结构示意图;
图8是本发明一示例性实施例提供的近视预测装置的结构示意图;
图9是本发明一示例性实施例提供的电子设备的结构图。
具体实施方式
下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有创造性劳动前提下所获得的所有其他实施例,都属于本实施例保护的范围。
示例性方法
图1是本发明一示例性实施例提供的近视预测模型的训练方法的流程示意图,至少包括如下步骤:
步骤11,对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征。
其中,训练对象可以为青少年,数量可以为一个或若干个。当数量为一个时,训练出的近视预测模型专用于为某个青少年进行视力预测,主要用于近视预测,当数量为若干个时,训练出的近视预测模型可以为广大的青少年进行视力预测。
眼底图像是通过无创、非接触式的方式对训练对象的眼底进行拍摄得到的图像,眼底图像中包括但不限于眼球中的黄斑、视盘、视杯等部位。
全眼底特征是基于眼底图像的整体得到的图像特征,全眼底特征是为了获得眼底的整体信息。
目标眼底结构特征是基于眼底图像中各个目标部位得到的结构特征,目标部位可以为预先指定的重要部位,例如视杯、视盘以及黄斑等部位,目标眼底结构特征是眼底图像中的重要部位对应的特征,具有突出重要作用。
具体地,定期对若干个青少年进行眼底图像采集,得到青少年在不同时间点分别对应的眼底图像,对得到的眼底图像进行特征提取,得到全眼底特征和目标眼底结构特征。
在一实施例中,对训练对象在不同时间点分别对应的眼底图像进行第一次特征提取,得到不同时间点分别对应的全眼底特征;对训练对象在不同时间点分别对应的眼底图像进行第二次特征提取,得到不同时间点分别对应的目标眼底结构特征。也就是说全眼底特征和目标眼底结构特征是基于不同的特征提取操作获取的。
在一实施例中,可以利用一经过海量样本训练的第一任务模型获取全眼底特征。具体地,将每一训练对象在不同时间点分别对应的眼底图像,输入该第一任务模型,如图2所示,该第一任务模型包括编码器和分类层,眼底图像经过编码器后得到隐特征向量,将隐特征向量输入分类层,分类层输出标签信息。其中,抽取分类层前的隐特征向量作为全眼底特征。分类层输出的标签信息包括但不限于目标人物的年龄、性别以及是否患有多重眼底疾病(例如糖尿病视网膜、青光眼、年龄相关黄斑并别等),或是否包含多种眼底结构或病灶(视网膜激光斑、微血管瘤、玻璃膜疣等)。通过第一任务模型,准确地获取到全眼底特征。
在一实施例中,可以利用第二任务模型获取目标眼底结构特征,第二任务模型包括切片编码器以及分类器,将眼底图像输入第二任务模型,通过第二任务模型中的切片编码器,获取眼底图像对应的多个局部切片特征;根据标签信息确定多个局部切片特征中的多个阳性样本特征;对多个阳性样本特征进行特征融合,以得到目标眼底结构特征。此时,标签信息可以包括不同部分的病变的概率值,若概率值大于预设概率阈值,则确定该局部切片特征为阳性样本特征;反之,则确定该局部切片特征为阴性样本特征。通过第二任务模型,准确地获取到目标眼底结构特征。
在一实施例中,可以利用分割处理或检测处理,与特征提取相结合的方式获取目标眼底结构特征。即对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的目标眼底结构特征可以包括:
针对每一眼底图像:对所述眼底图像进行分割处理或检测处理,得到至少一个眼底结构区域;对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征;基于各个第一眼底结构特征,得到所述目标眼底结构特征。
具体地,将每一眼底图像输入分割模型或检测模型,以对每一眼底图像进行分割处理或检测处理,得到每一眼底图像分别对应的至少一个眼底结构区域;对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征,将属于同一眼底图像的各个第一眼底结构特征进行特征拼接,得到目标眼底结构特征。
示例性地,如图3所示,将眼底图像输入检测模型或分割模型,得到检测模型或分割模型输出的眼底结构区域,包括眼底结构区域1、眼底结构区域2、…、眼底结构区域n,将眼底结构区域1、眼底结构区域2、…、眼底结构区域n输入特征提取方进行特征提取,得到各个第一眼底结构特征,然后将属于同一眼底图像的各个第一眼底结构特征进行拼接,得到重要眼底结构特征即目标眼底结构特征。
其中,在对各个眼底结构区域进行特征提取时,可以使用其他大型训练集(例如ImageNet)上训练的可作为特征提取器的模型(例如VGG模型);也可以利用一些无监督方法(例如MOCO,SimCLR)对提取到的某个眼底结构区域进行对比学习,从而无监督地得到第一眼底结构特征;还可以利用自编码器学习得到压缩的第一眼底结构特征。
在一实施例中,可以利用分割处理或检测处理,与特征提取相结合的方式获取第一眼底结构特征,并对第一眼底结构特征和第二眼底结构特征进行综合考虑得到目标眼底结构特征。即对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的目标眼底结构特征可以包括:
针对每一眼底图像:对所述眼底图像进行分割处理或检测处理,得到至少一个眼底结构区域;对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征;获取第二眼底结构特征,所述第二眼底结构特征为数值型特征;基于各个第一眼底结构特征和所述第二眼底结构特征,得到所述目标眼底结构特征。
具体地,不仅对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征。进一步获取数值型特征即第二眼底结构特征,数值型特征例如豹纹占眼底区域的比例,这类特征需要利用临床信息根据任务进行设计,可以认为是一种高层次的特征。
在一种可能的实现方式中,数值型特征的种类是预先设置的,数值型特征对应的具体特征值可以通过对每张图像进行识别获取,例如,识别出豹纹区域的面积和全眼底结构的面积,利用豹纹区域的面积和全眼底结构的面积的比值,得到一个数值型特征。通过对第一眼底结构特征和第二眼底结构特征进行综合考虑,确定准确性更高、表达能力更强的目标眼底结构特征。
在一实施例中,在步骤11前,所述方法还包括:
步骤15,获取训练对象在不同时间点对应的原始眼底图像;
步骤16,在所述原始眼底图像中存在目标眼底图像的情况下,在所述原始眼底图像中删除所述目标眼底图像,以得到所述训练对象在不同时间点分别对应的眼底图像;所述目标眼底图像中包含预设外部因素。
其中,原始眼底图像是指进行数据筛选前的眼底图像。
预设外部因素是指预先进行设置可以导致视力损伤的外力因素。例如,眼部外伤、视神经损坏、眼部手术等均可能会导致视力损伤,因此可以这些因素预先设置为外部因素。
具体地,在获取到原始眼底图像后,对原始眼底图像进行数据筛选,若在原始眼底图像中存在包含预设外部因素的目标眼底图像,则在原始眼底图像中删除该目标眼底图像,得到数据筛选后的训练对象在不同时间点分别对应的眼底图像。
在一种可能的实现方式中,对获取的各个原始眼底图像进行图像识别,识别出存在预设外部因素的目标眼底图像。在另一种可能的实现方式中,确定各个原始眼底图像对应的诊断信息,在诊断信息包含预设外部因素时,将该原始眼底图像确定为目标眼底图像。在又一种可能的实现方式中,对获取的各个原始眼底图像进行图像识别,确定图像识别结果,基于图像识别结果和各个原始眼底图像对应的诊断信息,在原始眼底图像中确定出目标眼底图像,将图像识别结果和诊断信息进行综合考虑,可以在原始眼底图像中准确地识别出目标眼底图像。
进一步地,在所述原始眼底图像中删除所述目标眼底图像,以得到所述训练对象在不同时间点分别对应的眼底图像,包括:
确定目标眼底图像对应的时间点,确定与所述目标眼底图像属于同一训练对象,且位于目标眼底图像对应的时间点之后在后眼底图像,在原始眼底图像中删除目标眼底图像和在后眼底图像。
在本实施例中,对全部的眼底图像即原始眼底图像进行数据筛选,通过排除外部因素导致的视力损害的情况,确定数据的准确性和可靠性。
步骤12,针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点分别对应的拼接特征。
其中,个人生物学信息向量用于指示训练对象的生物学特征,例如年龄、性别、身高、体重、病史等。在一种可能的实现方式中,通过离散化和归一化等预处理方法,将获取到训练对象的生物学特征处理成向量形式,得到个人生物学信息向量。
具体地,如图4所示,针对每一训练对象的每一时间点,将该训练对象在该时间点对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到该训练对象在该时间点对应的拼接特征。
在一种可能的实现方式中,周期性对训练对象进行访问,记录训练对象的个人生物学信息,并采集该训练对象的眼底图像,因此可以获取到训练对象在不同时间点分别对应的眼底图像和个人生物学信息。对个人生物学信息进行处理,得到个人生物学信息向量,对训练对象的眼底图像进行特征提取,得到全眼底特征和目标眼底结构特征,因此每一训练对象在每一时间点均会对应有3个数据,即全眼底特征、目标眼底结构特征和个人生物学信息向量,对同一训练对象在同一时间对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到每一训练对象在每一时间点的拼接特征。
示例性地,对于训练对象A,将训练对象A在第一个时间点分别对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到训练对象A第一个时间点对应的拼接特征;将训练对象A在第二个时间点分别对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到训练对象A第二个时间点对应的拼接特征;对于训练对象B,将训练对象B在第一个时间点分别对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到训练对象B第一个时间点对应的拼接特征;将训练对象B在第二个时间点分别对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到训练对象B第二个时间点对应的拼接特征。
步骤13,基于不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果。
其中,预设深度学习模型为预先搭建的数学模型。示例性地,预设深度学习模型可以为循环神经网络,循环神经网络是一种适用于序列数据处理的神经网络模型,能够捕捉序列中的时序依赖关系,可以有效地处理输入数据的可变长度,并利用序列中的拼接特征进行预测。
图5示出了一种可能的预设深度学习模型的结构,图5所示的预设深度学习模型的计算方法可以如下所示:
At=g(V·St)
St=f(U·Ft+W·St-1)
其中,St表征t时刻的隐藏层中间变量,St-1表征t-1时刻的隐藏层中间变量,V、W、U为网络权重,At表征t时刻的视力预测结果。在输入拼接特征F时,与该拼接特征对应的时间差进行拼接,以使得在预设深度学习模型中引入时间信息,通过引入时间信息进一步提升网络对于视力变化的预测性能。当然,也可以利用如LSTM(长短期记忆网络)或Transformer等作为预设深度学习模型。
具体地,根据不同时间点分别对应的拼接特征,确定输入特征序列,并将该输入特征序列输入至预设深度学习模型,得到预设深度学习模型的输出结果即视力预测结果。需要说明的是,一个输入特征序列对应一个视力预测结果,一个或多个输入特征序列可以对应于一个训练对象。也就是说一个训练对象不同时间点分别对应的拼接特征,可以确定出一个或多个输入特征序列,相应地,得到一个或多个视力预测结果,该视力预测结果可以指示训练对象是否近视、近视度数、训练对象的近视变化程度等。
在一实施例中,针对每一训练对象在不同时间点分别对应的拼接特征,所述步骤13,包括:
步骤131,在不同时间点中选取预测时间点,并在不同时间点中确定出在所述预测时间点之前的在先时间点;
步骤132,确定各个在先时间点与所述预测时间点间的时间差;
步骤133,以各个在先时间点分别对应的所述拼接特征和所述时间差为序列元素,构建所述输入特征序列。
具体地,在不同时间点中随机选取出预测时间点,并在不同时间点中确定出在预测时间点之前的在先时间点。针对每一在先时间点,计算在先时间点与预测时间点间的时间差。从而针对每一训练对象,在每一在先时间点会对应有一个拼接特征,一个时间差,将该拼接特征和该时间差作为一个序列元素,构建出该训练对象对应的输入特征序列。
示例性的,基于不同时间点对应的拼接特征,确定特征时间对,记作(F,T),则一个训练对象在不同时间点的拼接特征的集合记作:
{(F1,T1),(F2,T2),L,(Fn,Tn)}
其中,T1表征第一个时间点,F1表征第一个时间点对应的拼接特征;T2表征第二个时间点,F2表征第二个时间点对应的拼接特征;Tn表征第n个时间点,Fn表征第n个时间点对应的拼接特征。
随机选取一个预测时间点Tm,(1<m≤n),则可以构建出如下所示的输入特征序列:
Seq={(F1,Δt1),(F2,Δt2),L,(Fm-1,Δtm-1)},
Δt1=T1-Tm
Δt2=T2-Tm
Δtm-1=Tm-1-Tm
其中,Δt1表征第一个时间点与预测时间点间的时间差,Δt2表征第二个时间点与预测时间点间的时间差,Δtm-1表征第m-1个时间点与预测时间点间的时间差,Tm-1表征与预测时间点相邻的上一个时间点。
进一步地,在以各个在先时间点分别对应的所述拼接特征和所述时间差为序列元素,构建所述输入特征序列的步骤后,所述方法还包括:确定所述输入特征序列的子集,将所述子集作为一个输入特征序列。也就是说,在进行输入特征序列构建时,不仅可以将包括各个在先时间点分别对应的拼接特征和时间差的序列作为一个输入特征序列,还可以将包括部分在先时间点分别对应的拼接特征和时间差的序列作为一个输入特征序列,从而可以实现数据的扩增和稀疏化,提升近视预测模型的预测能力。
步骤14,基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
其中,训练结束条件为预先设置的用于指示训练结束的条件,例如训练轮次达到一设定值,或近视预测模型收敛、或近视预测模型的精度达到一设定值。
具体地,以视力预测结果为预测值,以标注数据(如标准训练对象是否近视,近视度数,以及与时间差相对应的近视变化程度)为真实值,确定预设深度学习模型对应的损失值,根据该损失值,对预设深度学习模型的模型参数进行调整,直至得到符合训练结束条件的近视预测模型。
在上述实施例中,通过对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征。然后将同一训练对象在同一时间点对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到每一训练对象在每一时间点分别对应的拼接特征。进一步基于不同时间点分别对应的拼接特征,构建输入特征序列,并将输入特征序列输入预设深度学习模型,得到视力预测结果;进而基于视力预测结果和标注数据对预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。该近视预测模型引入不同时间点的全眼底特征、目标眼底结构特征和个人生物学信息向量,有利于近视预测模型学习到视力变化趋势,对视力进行准确的预测,避免引入人为因素,提高视力预测结果的客观性和稳定性。
图6是本发明一示例性实施例提供的近视预测模型的训练方法的流程示意图,至少包括如下步骤:
步骤61,对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
步骤62,针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点对应的拼接特征;
步骤63,基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是根据上述的近视预测模型的训练方法训练得到。
具体地,目标对象为待预测的青少年。获取目标对象在不同时间点分别对应的眼底图像,不同时间点为在目标预测时间点以前的时间点,对获取的眼底图像进行特征提取,得到目标对象在不同时间点分别对应的全眼底特征和目标眼底结构特征。然后将目标对象同一时间点对应的全眼底特征、目标眼底结构特征和个人生物学信息向量进行拼接,得到不同时间点分别对应的拼接特征。确定出目标预测时间点,确定目标预测时间点与不同时间点间的时间差,基于不同时间点对应的拼接特征和时间差,构建出输入特征序列,将该输入特征序列输入至已训练的近视预测模型,得到视力预测结果。该视力预测结果是基于不同时间点的眼底图像和个人生物学信息向量,利用准确学习到视力变化趋势的近视预测模型进行预测得到,具有客观性,且稳定性和准确性较高。
示例性装置
基于与本发明方法实施例相同的构思,本发明实施例还提供了一种近视预测模型的训练装置。
图7示出了本发明一示例性实施例提供的近视预测模型的训练装置的结构示意图,包括:
特征提取模块71,用于对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块72,用于针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点对应的拼接特征;
特征输入模块73,用于基于不同时间点分别对应的拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果;
模型训练模块74,用于基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
在本发明一示例性实施例中,所述特征输入模块,进一步用于针对每一训练对象:在不同时间点中选取预测时间点,并在不同时间点中确定出在所述预测时间点之前的在先时间点;确定各个在先时间点与所述预测时间点间的时间差;以各个在先时间点分别对应的所述拼接特征和所述时间差为序列元素,构建所述输入特征序列。
在本发明一示例性实施例中,所述特征提取模块,包括:
分割处理或检测处理单元,用于针对每一眼底图像,对所述眼底图像进行分割处理或检测处理,得到至少一个眼底结构区域;
特征提取单元,用于对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征;
特征确定单元,用于基于各个第一眼底结构特征,得到所述目标眼底结构特征。
在本发明一示例性实施例中,所述特征提取模块,还包括:
特征获取单元,用于获取第二眼底结构特征,所述第二眼底结构特征为数值型特征;
特征确定单元,具体用于基于各个第一眼底结构特征和所述第二眼底结构特征,得到所述目标眼底结构特征。
在本发明一示例性实施例中,所述装置还包括:
图像获取模块,用于获取训练对象在不同时间点对应的原始眼底图像;
图像筛选模块,用于在所述原始眼底图像中存在目标眼底图像的情况下,在所述原始眼底图像中删除所述目标眼底图像,以得到所述训练对象在不同时间点分别对应的眼底图像;所述目标眼底图像中包含预设外部因素。
图8示出了本发明一示例性实施例提供的近视预测模型的训练装置的结构示意图,包括:
特征提取模块81,用于对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块82,用于针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点分别对应的拼接特征;
视力预测模块83,用于基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是根据上述的近视预测模型的训练方法训练得到。
示例性电子设备
图9图示了根据本发明实施例的电子设备的框图。
如图9所示,电子设备90包括一个或多个处理器91和存储器92。
处理器91可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备90中的其他组件以执行期望的功能。
存储器92可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器91可以运行所述程序指令,以实现上文所述的本发明的各个实施例的近视预测模型的训练方法或近视预测方法以及/或者其他期望的功能。
在一个示例中,电子设备90还可以包括:输入装置93和输出装置94,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
当然,为了简化,图9中仅示出了该电子设备90中与本发明有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备90还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
第六方面,除了上述方法和设备以外,本发明的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的近视预测模型的训练方法或近视预测方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本发明的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的近视预测模型的训练方法或近视预测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,在本发明中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本发明的各个实施例必须具备的。另外,上述发明的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本发明为必须采用上述具体的细节来实现。
本发明中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本发明的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。
提供所发明的方面的以上描述以使本领域的任何技术人员能够做出或者使用本发明。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本发明的范围。因此,本发明不意图被限制到在此示出的方面,而是按照与在此发明的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本发明的实施例限制到在此发明的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种近视预测模型的训练方法,其特征在于,包括:
对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点对应的拼接特征;
基于不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果;
基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
2.根据权利要求1所述的方法,其特征在于,所述基于不同时间点分别对应的所述拼接特征,构建输入特征序列,包括:
针对每一训练对象:
在不同时间点中选取预测时间点,并在不同时间点中确定出在所述预测时间点之前的在先时间点;
确定各个在先时间点与所述预测时间点间的时间差;
以各个在先时间点分别对应的所述拼接特征和所述时间差为序列元素,构建所述输入特征序列。
3.根据权利要求1所述的方法,其特征在于,所述对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的目标眼底结构特征,包括:
针对每一眼底图像:
对所述眼底图像进行分割处理或检测处理,得到至少一个眼底结构区域;
对每一眼底结构区域进行特征提取,得到每一眼底结构区域对应的第一眼底结构特征;
基于各个第一眼底结构特征,得到所述目标眼底结构特征。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取第二眼底结构特征,所述第二眼底结构特征为数值型特征;
所述基于各个第一眼底结构特征,得到所述目标眼底结构特征,包括:
基于各个第一眼底结构特征和所述第二眼底结构特征,得到所述目标眼底结构特征。
5.根据权利要求1-4任一项所述的方法,其特征在于,在所述对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征的步骤前,所述方法还包括:
获取训练对象在不同时间点对应的原始眼底图像;
在所述原始眼底图像中存在目标眼底图像的情况下,在所述原始眼底图像中删除所述目标眼底图像,以得到所述训练对象在不同时间点分别对应的眼底图像;所述目标眼底图像中包含预设外部因素。
6.一种近视预测方法,其特征在于,包括:
对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点对应的拼接特征;
基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是根据权利要求1-5任一项所述的近视预测模型的训练方法训练得到。
7.一种近视预测模型的训练装置,其特征在于,包括:
特征提取模块,用于对训练对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块,用于针对每一训练对象的每一时间点,将所述训练对象在所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述训练对象在所述时间点对应的拼接特征;
特征输入模块,用于基于不同时间点分别对应的拼接特征,构建输入特征序列;并将所述输入特征序列输入预设深度学习模型,得到视力预测结果;
模型训练模块,用于基于所述视力预测结果和标注数据对所述预设深度学习模型进行训练,得到符合训练结束条件的近视预测模型。
8.一种近视预测装置,其特征在于,包括:
特征提取模块,用于对目标对象在不同时间点分别对应的眼底图像进行特征提取,得到不同时间点分别对应的全眼底特征和目标眼底结构特征;
特征拼接模块,用于针对每一时间点,将所述时间点对应的所述全眼底特征、所述目标眼底结构特征和个人生物学信息向量进行拼接,得到所述时间点对应的拼接特征;
视力预测模块,用于基于目标预测时间点和不同时间点分别对应的所述拼接特征,构建输入特征序列;并将所述输入特征序列输入近视预测模型,得到视力预测结果;
其中,所述近视预测模型是根据权利要求1-5任一项所述的近视预测模型的训练方法训练得到。
9.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-6任一项所述方法。
10.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-6任一项所述的方法。
CN202311036050.0A 2023-08-16 2023-08-16 一种近视预测模型的训练方法、近视预测方法及装置 Pending CN117152827A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311036050.0A CN117152827A (zh) 2023-08-16 2023-08-16 一种近视预测模型的训练方法、近视预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311036050.0A CN117152827A (zh) 2023-08-16 2023-08-16 一种近视预测模型的训练方法、近视预测方法及装置

Publications (1)

Publication Number Publication Date
CN117152827A true CN117152827A (zh) 2023-12-01

Family

ID=88911095

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311036050.0A Pending CN117152827A (zh) 2023-08-16 2023-08-16 一种近视预测模型的训练方法、近视预测方法及装置

Country Status (1)

Country Link
CN (1) CN117152827A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117711567A (zh) * 2023-12-12 2024-03-15 广州视域光学科技股份有限公司 基于ai学习的近视防控系统及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117711567A (zh) * 2023-12-12 2024-03-15 广州视域光学科技股份有限公司 基于ai学习的近视防控系统及方法

Similar Documents

Publication Publication Date Title
CN109447183B (zh) 预测模型训练方法、装置、设备以及介质
Gayathri et al. Diabetic retinopathy classification based on multipath CNN and machine learning classifiers
KR101822404B1 (ko) Dnn 학습을 이용한 세포이상 여부 진단시스템
KR102289277B1 (ko) 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법
CN112133441B (zh) 一种mh术后裂孔状态预测模型的建立方法和终端
CN111862020B (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
KR102320580B1 (ko) 딥러닝을 이용한 근시 진행 예측 방법 및 시스템
CN111080643A (zh) 基于眼底图像的糖尿病及相关疾病的分类方法及设备
CN117152827A (zh) 一种近视预测模型的训练方法、近视预测方法及装置
CN111048210A (zh) 基于眼底图像评估疾病风险的方法及设备
CN111696100A (zh) 基于眼底影像确定吸烟程度的方法及设备
Thomas et al. Intelligent prediction approach for diabetic retinopathy using deep learning based convolutional neural networks algorithm by means of retina photographs
CN111028218A (zh) 眼底图像质量判定模型训练方法、装置和计算机设备
US20230245772A1 (en) A Machine Learning System and Method for Predicting Alzheimer&#39;s Disease Based on Retinal Fundus Images
Parra-Mora et al. Epiretinal membrane detection in optical coherence tomography retinal images using deep learning
Toğaçar et al. Use of dominant activations obtained by processing OCT images with the CNNs and slime mold method in retinal disease detection
CN114882014B (zh) 基于双模型的眼底图像质量评价方法、装置及相关介质
Murugan et al. An abnormality detection of retinal fundus images by deep convolutional neural networks
CN111047590A (zh) 基于眼底图像的高血压分类方法及设备
CN116612879B (zh) 诊断结果预测方法、装置、电子设备及存储介质
Leopold et al. Segmentation and feature extraction of retinal vascular morphology
US11817216B2 (en) Search method and information processing system
KR101744800B1 (ko) 의료 정보 제공 시스템
CN114864093B (zh) 基于眼底图像进行疾病预测的装置、方法及存储介质
CN115526882A (zh) 一种医学图像的分类方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination