CN116842360A - 图文匹配方法、装置、设备及介质 - Google Patents

图文匹配方法、装置、设备及介质 Download PDF

Info

Publication number
CN116842360A
CN116842360A CN202310725095.2A CN202310725095A CN116842360A CN 116842360 A CN116842360 A CN 116842360A CN 202310725095 A CN202310725095 A CN 202310725095A CN 116842360 A CN116842360 A CN 116842360A
Authority
CN
China
Prior art keywords
image
text
matching
training
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310725095.2A
Other languages
English (en)
Inventor
刘羲
蒋恒智
舒畅
陈又新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202310725095.2A priority Critical patent/CN116842360A/zh
Publication of CN116842360A publication Critical patent/CN116842360A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及涉及医疗领域的人工智能技术,揭露一种图文匹配方法、装置、设备以及介质,可用于病情识别时将诊断的病理图像与其对应的病情描述文本相匹配,所述方法包括:获取训练图像集及训练文本集;对训练图像集进行图像编码,得到图像特征集;对训练文本集进行文本编码,得到文本特征集;对图像特征集及文本特征集进行拼接,得到拼接图文特征集;对拼接图文特征集进行匹配,得到预测图文匹配结果集;根据获取的真实图文匹配结果集与预测图文匹配结果集的损失值,调整图文匹配模型中的参数,得到训练完成的图文匹配模型;利用训练完成的图文匹配模型对图像集及文本集进行图文匹配,得到匹配结果。本发明可以提高图文匹配的效率及准确率。

Description

图文匹配方法、装置、设备及介质
技术领域
本发明涉及人工智能领域,尤其涉及一种图文匹配方法、装置、设备及存储介质。
背景技术
图文匹配是指将具有相同或相似语义的图像与文本进行匹配,例如,在医疗领域中的图文匹配可以辅助病情识别,具体可以通过诊断病理图像,生成或者检索到最贴近该病理图像的概括性病情描述文本。
传统的图文匹配方法通常使用CLIP(Contrastive Language-Image Pre-training,对比文本-图像预训练模型)进行图文匹配,并在CLIP加入了目标检测的框架。比如先用目标检测的框架检测出病理图像中的各个不同的物体,再去和病情描述文本中的有价值的词去匹配,使得图文匹配时的时间复杂度大幅提升,导致病理图像与病情描述文本的图文匹配的效率下降,并且通过CLIP进行病理图像与病情描述文本的图文匹配时,由于病理图像和其对应的病情描述文本的交融信息不够准确,导致病理图像与病情描述文本的图文匹配的准确率较低。
发明内容
本发明提供一种图文匹配方法、装置、设备及存储介质,其主要目的是提高病理图像与病情描述文本之间的图文匹配的效率及准确率。
为实现上述目的,本发明提供了一种图文匹配方法,包括:
获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
可选地,所述利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集,包括:
利用所述图像编码器的分割层对所述训练图像集进行分块操作,得到多个图像块;
利用所述图像编码器的移动窗口层对多个所述图像块进行窗口划分,得到多个移位特征图像块;
利用所述图像编码器的掩码自注意力机制层对多个所述移位特征图像块进行自注意力掩码,得到所述训练图像集的图像特征集。
可选地,所述利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集,包括:
获取所述拼接图文特征集中的正图文特征及负图文特征,利用所述图文匹配层计算所述正图文特征及所述负图文特征的第一图文匹配系数;
根据前一时刻的拼接图文特征集,利用所述图文匹配层计算当前时刻图像特征与当前时刻文本特征的第二图文匹配系数;
将所述第一图文匹配系数与所述第二图文匹配系数进行融合,得到目标图文匹配系数;
在所述目标图文匹配系数满足预设匹配系数时,将所述目标图文匹配系数输入预设的激活函数,得到所述训练图像集及所述训练文本集的预测图文匹配结果集。
可选地,所述利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集,包括:
利用所述图文融合层中的注意力机制对所述图像特征集及所述文本特征集进行注意力权重计算,得到多个权重值,并对多个权重值进行加权运算,得到不同层次的单层拼接图文特征集;
对不同层次的单层拼接图文特征集进行特征权重分配,得到拼接图文特征集。
可选地,所述利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集,包括:
利用所述文本编码器的多头注意力机制对所述训练文本集进行位置编码,得到所述训练文本集的文本位置向量集;
对多个所述文本位置向量集进行解码操作,得到所述训练文本集的文本特征集。
可选地,所述计算对所述拼接图文特征集进行匹配时产生的目标损失函数,包括:
计算所述拼接图文特征进行第一图文匹配时产生的第一损失函数;
计算所述拼接图文特征进行第二图文匹配时产生的第二损失函数;
结合所述第一损失函数及所述第二损失函数得到所述目标损失函数。
为了解决上述问题,本发明还提供一种图文匹配装置,所述装置包括:
第一获取模块,用于获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
第二获取模块,用于获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
图像特征提取模块,用于利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
文本特征提取模块,用于利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
图文融合模块,用于利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
图文匹配模块,用于利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
模型训练模块,用于计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
最终图文匹配模块,用于获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的图文匹配方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的图文匹配方法。
本发明实施例中,在获取训练图像集、训练文本集以及真实图文匹配结果集之后,首先通过利用图像编码器对训练图像集进行图像编码,得到训练图像集的图像特征集,可以无需使用目标检测的框架检测图像各个不同的物体,并利用图像编码器中移动窗口机制增加了相邻窗口之间的联系,以提高图像特征提取的细粒度,并通过图像编码器的注意力机制将计算量从图像大小的平方关系降为线性关系,降低了图像特征提取的时间复杂度,便于后续提高图文匹配的效率;其次,通过利用文本编码器对训练文本集进行文本编码,可以提取训练文本集更深层的文本特征,并通过图文融合层实现文本特征及图像特征的深层交互,以提高图像特征与文本特征交互的准确率;最后,通过利用图文匹配层实现对拼接图文特征集中的特征进行逐个匹配,提高图文匹配的细粒度,从而提高图文匹配的准确率,并根据损失值训练图文匹配模型,得到训练完成的图文匹配模型,再利用训练完成的图文匹配模型进行图文匹配,可以提高图文匹配的效率及准确率。因此本发明实施例提出的图文匹配方法、装置、设备及存储介质可以提高病理图像与病情描述文本之间的图文匹配的效率及准确率。
附图说明
图1为本发明一实施例提供的图文匹配方法的流程示意图;
图2为本发明一实施例提供的图文匹配方法中一个步骤的详细流程示意图;
图3为本发明一实施例提供的图文匹配方法中一个步骤的详细流程示意图;
图4为本发明一实施例提供的图文匹配装置的模块示意图;
图5为本发明一实施例提供的实现图文匹配方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种图文匹配方法。所述图文匹配方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述图文匹配方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示的本发明一实施例提供的图文匹配方法的流程示意图,在本发明实施例中,所述图文匹配方法包括以下步骤S1-S8:
S1、获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集。
本发明实施例中,所述训练图像集是指与训练文本集中描述场景相关的图像集合,例如,可以包括不同类型的医学影像,且所述训练图像集包含的对象所属类型为病灶图,即机体上发生病变的部分,其中,医学影像是指为了医疗或医学研究,以非侵入方式取得的内部组织,例如,胃部、腹部、心脏、膝盖、脑部的影像,比如,训练图像集可以是包括各类疾病的切片图、CT(Computed Tomography,电子计算机断层扫描)图、MRI(MagneticResonance Imaging,磁共振成像)及US(ultrasonic,超声)图像等。所述训练文本集是指描述训练图像集的概括性文本集合,可以是包括不同类型病理图像对应的病理描述文本,比如,训练文本集可以包括对各类疾病切片图、CT图及B超图等图像的概括性病理描述文本。
本发明实施例中,所述真实图文匹配结果集是指训练文本集与训练图像集对应的真实、准确的图文匹配结果集合,可以通过标注工具标注训练文本集及训练图像集对应的真实分类结果。
S2、获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层。
其中,所述图像编码器的作用为对输入的训练图像集进行多尺度的图像特征提取,以提取细粒度较高的图像特征,且所述图像编码器可以为Swin Transformer网络;所述文本编码器的作用为对输入的训练文本集进行文本特征提取,且所述文本编码器可以为Bert网络;所述图文融合层的作用为实现文本特征及图像特征的拼接,以获取高细粒度的图文融合信息;所述图文匹配层的作用为对高细粒度的图文融合信息进行图文匹配,以提高图文特征匹配的准确率。
S3、利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集。
本发明实施例中,所述图像特征集是指包含图像颜色、边缘、网格、纹理及语义的图像特征集合;所述图像编码器可以为Swin Transformer网络,即一种带移动窗口的自注意力模型,包括分割层、移动窗口层及掩码自注意力机制层。
本发明实施例中,通过使用划分窗口的方法将自注意力的计算限制在一个局部的窗口中,同时使用移动窗口机制增加了相邻窗口之间的联系,不仅扩大了图像特征提取时的感受野,还提高了图像特征提取的细粒度,并且通过掩码自注意力机制层将计算量从图像大小的平方关系降为线性关系,大大地减少了运算量,无需增加目标检测的框架检测图像中各个不同的物体,降低了图像特征提取的时间复杂度,便于后续提高图文匹配的效率。
作为本发明的一个实施例,参考图2所示,所述利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集,包括以下步骤S31-S33:
S31、利用所述图像编码器的分割层对所述训练图像集进行分块操作,得到多个图像块;
S32、利用所述图像编码器的移动窗口层对多个所述图像块进行窗口划分,得到多个移位特征图像块;
S33、利用所述图像编码器的掩码自注意力机制层对多个所述移位特征图像块进行自注意力掩码,得到所述训练图像集的图像特征集。
其中,本发明实施例通过分割层可以将训练图像集的原始二维图像转化为互不重叠的初始图像块序列,以得到图像编码器可以直接处理的序列数据,并通过LinearEmbedding对初始图像块序列进行操作,可以得到包含图像位置信息的图像块。
本发明一实施例中,通过移动窗口层可以对多个图像块实现循环移位,使得相邻的图像块可以进行信息交互,增多了局部图像块间的信息交互,扩大了图像特征的感受野,不仅实现多尺度的图像特征提取,还提高了图像特征提取的细粒度。
进一步地,由于多个移位特征图像块相比多个图像块的数量增加,而且每个移位特征图像块的大小并不完全相同,使得图像特征提取的计算复杂度增加,通过掩码自注意力机制层对多个移位特征图像块进行自注意力掩码操作,可以实现一次前向计算过程就能计算出所有移位特征图像块的自注意力值,将计算量从图像大小的平方关系降为线性关系,大大地减少了运算量,降低图像特征提取的时间复杂度,便于降低后续图文匹配的时间复杂度。
S4、利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集。
本发明实施例中,所述文本编码器可以为Bert网络,通过利用所述文本编码器对所述训练文本集进行文本编码,可以提取训练文本集更深层的文本特征,提高文本特征提取的准确率。
作为本发明的一个实施例,所述利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集,包括:
利用所述文本编码器的多头注意力机制对所述训练文本集进行位置编码,得到所述训练文本集的文本位置向量集;对多个所述文本位置向量集进行解码操作,得到所述训练文本集的文本特征集。
其中,通过对训练文本集中的每个文本字符的位置进行Embedding操作,可以得到包含每个文本字符位置信息的文本位置向量集。
本发明一实施例中,通过对多个文本位置向量集进行解码操作,可以实现对训练文本集进行特征提取,提高提取训练文本集的文本特征集的准确率。
S5、利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集。
本发明实施例中,所述拼接图文特征集是指图像特征集与文本特征集进行交互后的特征集合。
本发明实施例中,通过利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集,可以实现文本特征及图像特征的深层交互,提高图像特征与文本特征交互的准确率,便于后续提高图文匹配的准确率。
作为本发明的一个实施例,所述利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集,包括:
利用所述图文融合层中的注意力机制对所述图像特征集及所述文本特征集进行注意力权重计算,得到多个权重值,并对多个权重值进行加权运算,得到不同层次的单层拼接图文特征集;对不同层次的单层拼接图文特征集进行特征权重分配,得到拼接图文特征集。
其中,通过注意力机制中预设的转换参数(包括Query(查询参数)、Key(键值参数)及Value(数值参数))分别对图像特征集及文本特征集进行点乘操作,可以得到多个权重值(包括查询向量、键值向量及数值向量),并分别将查询向量、键值向量及数值向量与预设的训练矩阵Wquery、Wkey、Wvalue进行点乘,得到多个拼接图文特征注意力分数,即该分数表示多个不同层次的单层拼接图文特征集。
进一步地,本发明实施例中,通过对所有单层拼接图文特征集进行线性函数(如Softmax函数)进行激活,得到每个单层拼接图文特征集的权重值,对每个单层拼接图文特征集的权重值与每个层次的拼接图文特征注意力分数进行加权求和所得的结果即表示最终融合的拼接图文特征集。
S6、利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集。
本发明实施例中,所述图文匹配层的作用是对拼接的图文融合信息进行图文匹配。所述预测图文匹配结果集是指预设的图文匹配模型预测的与每张图像都有相应文本相匹配的集合。比如,有一双肾B超图的病理图像,预测的病理匹配文本可以为该B超图中的病灶文本描述,包括右肾可见多发强回声光团,最大0.8cm,左肾可见多个强回声光团,最大1.0cm;B超结果:右肾囊实性占位,伴多发结石、左肾结石。
本发明实施例中,通过利用所述图文匹配层对所述拼接图文特征集进行匹配,可以对拼接图文特征集中的特征进行逐个匹配,提高图文匹配的细粒度,从而提高图文匹配的准确率。
作为本发明的一个实施例,参考图3所示,所述利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集,包括以下步骤S61-S64:
S61、获取所述拼接图文特征集中的正图文特征及负图文特征,利用所述图文匹配层计算所述正图文特征及所述负图文特征的第一图文匹配系数;
S62、根据前一时刻的拼接图文特征集,利用所述图文匹配层计算当前时刻图像特征与当前时刻文本特征的第二图文匹配系数;
S63、将所述第一图文匹配系数与所述第二图文匹配系数进行融合,得到目标图文匹配系数;
S64、在所述目标图文匹配系数满足预设匹配系数时,将所述目标图文匹配系数输入预设的激活函数,得到所述训练图像集及所述训练文本集的预测图文匹配结果集。
其中,所述正图文特征表示拼接图文特征集中相同下标的图像特征与文本特征的集合,可以表示为(xi,yi),即第i个文本特征与第i个图像特征;所述负图文特征表示拼接图文特征集中不同下标的图像特征与文本特征的集合,可以表示为(xi,yj),即第i个文本特征与第j个图像特征;通过对正图文特征及负图文特征进行图文匹配,可以逐个对正图文特征及负图文特征进行匹配,以提高图文匹配的细粒度。
本发明一实施例中,由于对正图文特征及负图文特征进行匹配,只能学习到文本中整个句子和图片的相似度,通过根据前一时刻的所述拼接图文特征集,利用所述图文匹配层计算当前时刻图像特征与当前时刻文本特征的第二图文匹配系数,可以预测下一个与图像匹配的文本Token,以得到跟图片匹配的更高级语义,进一步提高图文匹配的细粒度。
本发明一实施例中,所述预设匹配系数可以为0.8;所述激活函数可以为Relu函数。
S7、计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型。
作为本发明的一个实施例,所述计算对所述拼接图文特征集进行匹配时产生的目标损失函数,包括:
计算所述拼接图文特征进行第一图文匹配时产生的第一损失函数;计算所述拼接图文特征进行第二图文匹配时产生的第二损失函数;结合所述第一损失函数及所述第二损失函数得到所述目标损失函数。
其中,所述第一损失函数为:
其中,L1表示第一损失函数;N表示一个batch的大小,即拼接图文特征集的训练批次;与/>都表示正图文特征,区别在于/>表示基于文本特征进行图像匹配的正图文特征,/>表示基于图像特征进行文本匹配的正图文特征(在图文匹配时,由于图像与文本的特征数量不一定是对称的,所以基于文本特征进行图像匹配的正图文特征与基于图像特征进行文本匹配的正图文特征不一定相同);/>与/>都表示负图文特征,区别在于/>表示基于文本特征进行图像匹配的负图文特征,/>表示基于图像特征进行文本匹配的负图文特征;/>表示T个文本特征内的第i个文本特征;/>表示I个图像特征内的第i个图像特征;yj表示第j个图像特征;xj表示第j个文本特征;σ为固定参数。
进一步地,所述第二损失函数可以为:
其中,L2表示第二损失函数;T表示时刻t的取值范围;P表示第二图文匹配概率;yt表示t时刻的图像特征;x表示文本特征;y<t表示图像特征的取值范围在t时刻之前,目的是为了预测下一时刻与图像特征匹配的文本特征。
本发明实施例中,所述目标损失函数可以通过下述公式进行计算:
Loss=L1+L2
其中,Loss表示目标损失函数,L1表示第一损失函数;L2表示第二损失函数。
本发明实施例中,可以利用下述预设损失函数计算所述预测图文匹配结果集的损失值:
Loss=mglogmp+(1-mg)log(1-mp)
其中,Loss表示损失值,mg表示预测图文匹配结果集,mp表示真实图文匹配结果集。
进一步地,本发明实施例中预设的图文匹配模型的参数包括权重参数和偏置参数,可以采用梯度下降算法调整预设的图文匹配模型的参数,如随机梯度下降算法。
本发明一实施例中,所述预设阈值可以为0.8。
S8、获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
本发明实施例中,所述待匹配的图像集及文本集可以为病理图像与对应的病理描述文本的集合。
本发明实施例中,若将待匹配的图像集输入训练完成的图文匹配模型中,可以获取相匹配的目标文本;若将待匹配的文本集输入训练完成的图文匹配模型中,可以获取相匹配的目标图像。
本发明实施例中,在获取训练图像集、训练文本集以及真实图文匹配结果集之后,首先通过利用图像编码器对训练图像集进行图像编码,得到训练图像集的图像特征集,可以无需使用目标检测的框架检测图像各个不同的物体,并利用图像编码器中移动窗口机制增加了相邻窗口之间的联系,以提高图像特征提取的细粒度,并通过图像编码器的注意力机制将计算量从图像大小的平方关系降为线性关系,降低了图像特征提取的时间复杂度,便于后续提高图文匹配的效率;其次,通过利用文本编码器对训练文本集进行文本编码,可以提取训练文本集更深层的文本特征,并通过图文融合层实现文本特征及图像特征的深层交互,以提高图像特征与文本特征交互的准确率;最后,通过利用图文匹配层实现对拼接图文特征集中的特征进行逐个匹配,提高图文匹配的细粒度,从而提高图文匹配的准确率,并根据损失值训练图文匹配模型,得到训练完成的图文匹配模型,再利用训练完成的图文匹配模型进行图文匹配,可以提高图文匹配的效率及准确率。因此本发明实施例提出的图文匹配方法可以提高病理图像与病情描述文本之间的图文匹配的效率及准确率。
如图4所示,本发明所述图文匹配装置100可以安装于电子设备中。根据实现的功能,所述图文匹配装置可以包括第一获取模块101、第二获取模块102、图像特征提取模块103、文本特征提取模块104、图文融合模块105、图文匹配模块106、模型训练模块107、最终图文匹配模块108,本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
详细地,本发明实施例中所述图文匹配装置100中所述的各模块在使用时采用与上述图1至图3中所述的图文匹配方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
本发明实施例中,在获取训练图像集、训练文本集以及真实图文匹配结果集之后,首先通过利用图像编码器对训练图像集进行图像编码,得到训练图像集的图像特征集,可以无需使用目标检测的框架检测图像各个不同的物体,并利用图像编码器中移动窗口机制增加了相邻窗口之间的联系,以提高图像特征提取的细粒度,并通过图像编码器的注意力机制将计算量从图像大小的平方关系降为线性关系,降低了图像特征提取的时间复杂度,便于后续提高图文匹配的效率;其次,通过利用文本编码器对训练文本集进行文本编码,可以提取训练文本集更深层的文本特征,并通过图文融合层实现文本特征及图像特征的深层交互,以提高图像特征与文本特征交互的准确率;最后,通过利用图文匹配层实现对拼接图文特征集中的特征进行逐个匹配,提高图文匹配的细粒度,从而提高图文匹配的准确率,并根据损失值训练图文匹配模型,得到训练完成的图文匹配模型,再利用训练完成的图文匹配模型进行图文匹配,可以提高图文匹配的效率及准确率。因此本发明实施例提出的图文匹配装置可以提高图文匹配的效率及准确率。
如图5所示,是本发明实现图文匹配方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如图文匹配程序。
其中,所述存储器11至少包括一种类型的介质,所述介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、本地磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如图文匹配程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如图文匹配程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信总线12可以是外设部件互连标准(PerIPheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述通信总线12总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的图文匹配程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携待所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的介质、设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种图文匹配方法,其特征在于,所述方法包括:
获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
2.如权利要求1所述的图文匹配方法,其特征在于,所述利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集,包括:
利用所述图像编码器的分割层对所述训练图像集进行分块操作,得到多个图像块;
利用所述图像编码器的移动窗口层对多个所述图像块进行窗口划分,得到多个移位特征图像块;
利用所述图像编码器的掩码自注意力机制层对多个所述移位特征图像块进行自注意力掩码,得到所述训练图像集的图像特征集。
3.如权利要求1所述的图文匹配方法,其特征在于,所述利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集,包括:
获取所述拼接图文特征集中的正图文特征及负图文特征,利用所述图文匹配层计算所述正图文特征及所述负图文特征的第一图文匹配系数;
根据前一时刻的拼接图文特征集,利用所述图文匹配层计算当前时刻图像特征与当前时刻文本特征的第二图文匹配系数;
将所述第一图文匹配系数与所述第二图文匹配系数进行融合,得到目标图文匹配系数;
在所述目标图文匹配系数满足预设匹配系数时,将所述目标图文匹配系数输入预设的激活函数,得到所述训练图像集及所述训练文本集的预测图文匹配结果集。
4.如权利要求1所述的图文匹配方法,其特征在于,所述利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集,包括:
利用所述图文融合层中的注意力机制对所述图像特征集及所述文本特征集进行注意力权重计算,得到多个权重值,并对多个权重值进行加权运算,得到不同层次的单层拼接图文特征集;
对不同层次的单层拼接图文特征集进行特征权重分配,得到拼接图文特征集。
5.如权利要求1-4中任一项所述的图文匹配方法,其特征在于,所述利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集,包括:
利用所述文本编码器的多头注意力机制对所述训练文本集进行位置编码,得到所述训练文本集的文本位置向量集;
对多个所述文本位置向量集进行解码操作,得到所述训练文本集的文本特征集。
6.如权利要求1-4中任一项所述的图文匹配方法,其特征在于,所述计算对所述拼接图文特征集进行匹配时产生的目标损失函数,包括:
计算所述拼接图文特征进行第一图文匹配时产生的第一损失函数;
计算所述拼接图文特征进行第二图文匹配时产生的第二损失函数;
结合所述第一损失函数及所述第二损失函数得到所述目标损失函数。
7.一种图文匹配装置,其特征在于,所述装置包括:
第一获取模块,用于获取训练图像集、训练文本集以及所述训练图像集及所述训练文本集对应的真实图文匹配结果集;
第二获取模块,用于获取预设的图文匹配模型,所述预设的图文匹配模型包括图像编码器、文本编码器、图文融合层以及图文匹配层;
图像特征提取模块,用于利用所述图像编码器对所述训练图像集进行图像编码,得到所述训练图像集的图像特征集;
文本特征提取模块,用于利用所述文本编码器对所述训练文本集进行文本编码,得到所述训练文本集的文本特征集;
图文融合模块,用于利用所述图文融合层对所述图像特征集及所述文本特征集进行拼接,得到拼接图文特征集;
图文匹配模块,用于利用所述图文匹配层对所述拼接图文特征集进行匹配,得到所述训练图像集及所述训练文本集的预测图文匹配结果集;
模型训练模块,用于计算对所述拼接图文特征集进行匹配时产生的目标损失函数,并根据所述真实图文匹配结果集及所述目标损失函数,计算所述预测图文匹配结果集的损失值,并根据所述损失值调整所述图文匹配模型中的参数,直至所述损失值满足预设阈值,得到训练完成的图文匹配模型;
最终图文匹配模块,用于获取待匹配的图像集及文本集,利用所述训练完成的图文匹配模型对所述待匹配的图像集及文本集进行图文匹配,得到目标图文匹配结果。
8.如权利要求7所述的图文匹配装置,其特征在于,所述图像特征提取模块,具体用于:
利用所述图像编码器的分割层对所述训练图像集进行分块操作,得到多个图像块;
利用所述图像编码器的移动窗口层对多个所述图像块进行窗口划分,得到多个移位特征图像块;
利用所述图像编码器的掩码自注意力机制层对多个所述移位特征图像块进行自注意力掩码,得到所述训练图像集的图像特征集。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一项所述的图文匹配方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的图文匹配方法。
CN202310725095.2A 2023-06-16 2023-06-16 图文匹配方法、装置、设备及介质 Pending CN116842360A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310725095.2A CN116842360A (zh) 2023-06-16 2023-06-16 图文匹配方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310725095.2A CN116842360A (zh) 2023-06-16 2023-06-16 图文匹配方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN116842360A true CN116842360A (zh) 2023-10-03

Family

ID=88168123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310725095.2A Pending CN116842360A (zh) 2023-06-16 2023-06-16 图文匹配方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN116842360A (zh)

Similar Documents

Publication Publication Date Title
US20210264599A1 (en) Deep learning based medical image detection method and related device
Qayyum et al. Medical image retrieval using deep convolutional neural network
Rajaraman et al. Training deep learning algorithms with weakly labeled pneumonia chest X-ray data for COVID-19 detection
CN111932529B (zh) 一种图像分类分割方法、装置及系统
CN113283446B (zh) 图像中目标物识别方法、装置、电子设备及存储介质
Ates et al. Dual cross-attention for medical image segmentation
Oktay Human identification with dental panoramic radiographic images
CN111696084B (zh) 细胞图像分割方法、装置、电子设备及可读存储介质
US11935213B2 (en) Laparoscopic image smoke removal method based on generative adversarial network
Fan et al. GFNet: Automatic segmentation of COVID-19 lung infection regions using CT images based on boundary features
Liu et al. A framework for automatic burn image segmentation and burn depth diagnosis using deep learning
Chen et al. Reworking multilabel brain tumor segmentation: an automated framework using structured kernel sparse representation
Chauhan et al. Convolution neural network for effective burn region segmentation of color images
CN116129141A (zh) 医学数据处理方法、装置、设备、介质和计算机程序产品
CN116450829A (zh) 医疗文本分类方法、装置、设备及介质
Zeng et al. DEA-UNet: a dense-edge-attention UNet architecture for medical image segmentation
CN116705304A (zh) 基于图像文本的多模态任务处理方法、装置、设备及介质
CN116758397A (zh) 基于深度学习的单模态诱导的多模态预训练方法及系统
CN112216379A (zh) 一种基于智能联合学习的疾病诊断系统
Kim et al. An open medical platform to share source code and various pre-trained weights for models to use in deep learning research
Tan et al. SwinUNeLCsT: Global–local spatial representation learning with hybrid CNN–transformer for efficient tuberculosis lung cavity weakly supervised semantic segmentation
CN117012370A (zh) 多模态疾病辅助推理系统、方法、终端及存储介质
CN115908464B (zh) 一种舌体图像分割方法及系统
CN116719904A (zh) 基于图文结合的信息查询方法、装置、设备及存储介质
CN115662565A (zh) 一种融合标签信息的医学影像报告生成方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination