CN114842239A - 一种基于超声视频的乳腺病灶属性预测方法及装置 - Google Patents

一种基于超声视频的乳腺病灶属性预测方法及装置 Download PDF

Info

Publication number
CN114842239A
CN114842239A CN202210350880.XA CN202210350880A CN114842239A CN 114842239 A CN114842239 A CN 114842239A CN 202210350880 A CN202210350880 A CN 202210350880A CN 114842239 A CN114842239 A CN 114842239A
Authority
CN
China
Prior art keywords
ultrasonic
video
videos
pictures
edges
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210350880.XA
Other languages
English (en)
Other versions
CN114842239B (zh
Inventor
马璐
丁佳
吕晨翀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Yizhun Intelligent Technology Co ltd
Original Assignee
Beijing Yizhun Medical AI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yizhun Medical AI Co Ltd filed Critical Beijing Yizhun Medical AI Co Ltd
Priority to CN202210350880.XA priority Critical patent/CN114842239B/zh
Publication of CN114842239A publication Critical patent/CN114842239A/zh
Application granted granted Critical
Publication of CN114842239B publication Critical patent/CN114842239B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本公开提供了一种基于超声视频的乳腺病灶属性预测方法及装置,包括获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;根据超声视频的属性信息和图片的属性信息,计算超声视频和图片的相似度,选取相似度最强的多组超声视频和图片;针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频;构建样本集,样本集包括所有融合超声视频,根据样本集对初始模型进行训练,得到预测模型;获取目标超声视频,通过预测模型对所目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。

Description

一种基于超声视频的乳腺病灶属性预测方法及装置
技术领域
本公开涉及医学图像领域,尤其涉及一种基于超声视频的乳腺病灶属性预测方法及装置。
背景技术
目前,乳腺超声视频病灶属性分类都是采用超声视频或者静态图片或两者结合进行预测的,相比于仅使用静态图进行预测,使用超声视频能够更好的利用超声扫描时的病灶的形态变化信息。然而想要实现较好的分类预测效果,需要依赖大量的超声视频,而超声视频的大量收集较为困难,耗费人力较多,相比之下,静态图片的收集则容易许多。而现有的两者结合进行预测的方法,主要为将静态图片和超声视频联合训练,该方法除了通过静态图片进行训练数据量的补足,并不能很好的提升超声视频的属性分类效果。
发明内容
本公开提供一种基于超声视频的乳腺病灶属性预测方法及装置,以至少解决现有技术中存在的以上技术问题。
本公开一方面提供一种基于超声视频的乳腺病灶属性预测方法,包括:
获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;
根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片;
针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频;
构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型;
获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
在一可实施方式中,所述属性信息包括描述病灶属性级别的分级标准数据、描述病灶形状的形状数据、用于描述病灶生长是否平行的方向数据和用于描述病灶边缘是否清晰的边缘数据。
在一可实施方式中,所述计算所述超声视频和所述图片的相似度,包括:
确定所述超声视频和所述图片的每种属性信息的相似度;
将所有属性信息的相似度相加,得到所述超声视频和所述图片的相似度。
在一可实施方式中,所述选取相似度最强的多组超声视频和图片,包括:
基于所述获取的乳腺的多个超声视频和多张图片,创建与所述超声视频对应的超声视频节点以及与所述图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图;其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度;
基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边;每条侯选边所连接的超声视频节点和图片节点互不重合;
按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
在一可实施方式中,所述基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边,包括:
构建所述二分图的第一有向图,所述第一有向图中所有边的起点均为超声视频节点,终点均为图片节点,或者,所有边的起点均为图片节点,终点均为超声视频节点;
在所述第一有向图上增加源点和汇点,所述源点分别与每个起点连接并指向所有起点,所述汇点分别与每个终点连接并指向汇点,得到第二有向图;所述第二有向图中所述源点和所述起点之间的边的权重为第一设定值,所述终点和所述汇点之间的边的权重为第二设定值;
计算所述第二有向图中每条路径的权重,所述路径为从所述源点到所述汇点之间的路径;
按照路径权重从大到小的顺序选取设定数量的多条路径;
将选取的路径中的所有超声视频节点和图片节点之间的边,作为侯选边。
在一可实施方式中,所述将该组中的图片与超声视频进行融合,包括:
获取超声视频的每一帧图像,将图片分别与所述每一帧图像进行图像融合。
本公开另一方面提供一种基于超声视频的乳腺病灶属性预测装置,包括:
获取模块,用于获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;
计算模块,用于根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片;
所述计算模块,还用于针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频;
处理模块,用于构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型;
预测模块,用于获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
在一可实施方式中,所述选取相似度最强的多组超声视频和图片时,所述计算模块,还用于基于所述获取的乳腺的多个超声视频和多张图片,创建与所述超声视频对应的超声视频节点以及与所述图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图;其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度;
基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边;每条侯选边所连接的超声视频节点和图片节点互不重合;
按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
本公开再一方面提供一种电子设备,包括:存储器和处理器,所述存储器存储由所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述基于超声视频的乳腺病灶属性预测方法。
本公开还一方面提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述基于超声视频的乳腺病灶属性预测方法。
基于上述方案,本公开提供一种基于超声视频的乳腺病灶属性预测方法,获取具有动态特征的乳腺的超声视频和数据易得且具有静态特征的乳腺的图片,以及超声视频和图片各自对应的属性信息,计算超声视频和图片之间的相似度,选取相似度最强的多组超声视频和图片,通过融合手段,将同组内的图片与超声视频的每一帧图像进行图像融合,得到既具有动态特征又具有静态特征的融合超声视频,通过将融合超声视频作为样本集对初始模型进行训练,得到可以用于对目标超声视频进行乳腺病灶的属性预测的预测模型,提高了乳腺病灶属性分类的预测效果。
附图说明
图1所示为本公开一实施例提供的基于超声视频的乳腺病灶属性预测方法的流程示意图;
图2所示为本公开另一实施例提供的超声视频节点和图片节点的二分图示意图;
图3所示为本公开另一实施例提供的基于超声视频的乳腺病灶属性预测方法的流程示意图;
图4所示为本公开一实施例提供的基于超声视频的乳腺病灶属性预测装置示意图。
具体实施方式
为使本公开的目的、特征、优点能够更加的明显和易懂,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而非全部实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
为了提高乳腺病灶属性分类的预测效果,如图1所示,本公开一实施例提供了一种基于超声视频的乳腺病灶属性预测方法,包括:
步骤101,获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息。
在一示例中,属性信息包括描述病灶级别的BIRADS(分级标准数据)、描述病灶形状的形状数据、描述病灶生长是否平行的方向数据和描述病灶边缘是否清晰的边缘数据,属性信息还包括回声数据和后方回声数据等,在此不做具体限定。
其中,BIRADS通常分为0级、1级、2级、3级、4A级、4B级、4C级、5级和6级。由于0级或1级代表乳腺无病灶,也因此该类超声视频和图片不具备病灶属性信息,只需获取具有病灶的超声视频和图片,故对应的BIRADS均在2级至6级之间。
形状数据通常分为椭圆形、圆形、大分叶状、欠规则形和不规则形。
平行数据通常包括平行或不平行两种。
边缘数据用于描述病灶边缘的清晰程度,为进一步描述和定义边缘数据,还包括具体的边缘信息,如病灶边缘是否出现高回声晕、病灶边缘是否成角、病灶边缘是否为微分叶形态以及病灶边缘是否具有毛刺等,用于综合判断以描述病灶边缘的清晰程度。
步骤102,根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片。
在一示例中,超声视频和图片的相似度,用于体现超声视频与图片之间属性信息的相似性关系,由于超声视频和图片均具有多种属性信息,因此先确定超声视频和图片的每种属性信息的相似度,再将所有属性信息的相似度相加,以得到超声视频和图片的相似度。
应该理解的是,每组的超声视频和图片的数量相等,且相似度最强的多组指的是按照相似度从大到小进行排序的前k组。
步骤103,针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频。
在一示例中,每组超声视频和图片均对应一个超声视频和一张图片,而一个超声视频由多帧图像构成。例如,一个超声视频具有30帧图像,将图片分别与30帧图像进行融合,得到30帧融合图像,30帧融合图像则构成融合超声视频。
步骤104,构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型。
将步骤103得到的所有融合超声视频作为训练模型的样本集,有多少条匹配边,则有对应的多少融合超声视频。同时,在一示例中,样本集还可包括步骤101中获取的乳腺的多个超声视频,以便更好的利用数据,扩增样本数量。
在一示例中,初始模型可为基于I3D(Inflated 3D ConvNet,膨胀3D卷积网络)的模型,此处仅为举例,具体使用的模型在此不做具体限定。
步骤105,获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
获取目标超声视频,通过预测模型进行预测,可确定目标超声视频所对应的乳腺病灶的属性。需要注意的是,预测模型预测的结果为乳腺病灶的属性,该处的属性指如BIRADS、形状数据、方向数据和边缘数据的分类结果。例如,经过预测模型的预测,确定目标超声视频的乳腺病灶的属性结果为:BIRADS为3级,形状为圆形,方向为不平行,边缘为清晰。
在一示例中,步骤102,选取相似度最强的多组超声视频和图片,包括:
基于获取的乳腺的多个超声视频和多张图片,创建与超声视频对应的超声视频节点以及与图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图。其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度。
基于每条边的权重,从二分图的所有边中筛选出多条侯选边;每条侯选边所连接的超声视频节点和图片节点互不重合。
按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
为了选取相似度最强的多组超声视频和图片,需要构建超声视频和图片的二分图。二分图又称作二部图,是图论中的一种特殊模型,如果顶点可分割为两个互不相交的子集,并且图中的每条边所管理的两个顶点分别属于这两个不同的子集,则该图为一个二分图。
如图2所示,本示例中的二分图,每个视频节点均分别与每个图片节点之间建立边,并可通过最大匹配算法获取侯选边,且可根据实际情况,设定匹配边的数量为k,则按照侯选边的权重从大到小的顺序选取前k个侯选边作为匹配边。
在一示例中,从二分图的所有边中筛选出多条侯选边,包括构建二分图的第一有向图,第一有向图中所有边的起点均为超声视频节点,终点均为图片节点,或者,所有边的起点均为图片节点,终点均为超声视频节点。
在第一有向图上增加源点和汇点,源点分别与每个起点连接并指向所有起点,汇点分别与每个终点连接并指向汇点,得到第二有向图。第二有向图中源点和起点之间的边的权重为第一设定值,终点和汇点之间的边的权重为第二设定值。
计算第二有向图中每条路径的权重,路径为从源点到汇点之间的路径;按照路径权重从大到小的顺序选取设定数量的多条路径。
将选取的路径中的所有超声视频节点和图片节点之间的边,作为侯选边。
通过建立有向图,增加源点和汇点,可以模拟网络结构,根据有向图的节点和边的权重,将二分图的最大匹配问题转化为求解网络结构的流量问题。通过二分图构建第一有向图,方向为单向,即只能从视频节点指向图片节点,或从图片节点指向视频节点。也因此,从边中选取侯选边的过程,即为求解网络结构的最大流的过程,而二分图中,求解的最大流的侯选边结果即为最大匹配算法获取的结果。
应该理解的是,第一设定值和第二设定值可以根据实际情况进行设定。
在一示例中,步骤203,将该组中的图片与超声视频进行融合,包括:
获取超声视频的每一帧图像,将图片分别与所述每一帧图像进行图像融合
在一示例中,超声视频由多帧图像构成,以帧为单位获取超声视频的每一帧图像,得到多帧图像,将同组内的图片分别与每一帧图像进行图像融合,得到多帧融合图像,多帧融合图像构成该组的融合超声视频。
下面通过另一具体的示例对上述的方案进行说明,如图3所示,包括:
步骤201,获取乳腺的多个超声视频和图片,以及各自对应的多个属性信息。
属性信息包括BIRADS(分级标准数据)、形状数据、方向数据和边缘数据等。
步骤202,构建超声视频和图片的二分图。
在一示例中,创建与超声视频对应的超声视频节点以及与图片对应的图片节点,并建立每个超声视频节点和每个图片节点之间的边,得到二分图。例如有n个超声视频,m张图片,则二分图中包含了m+n个节点,m*n条边。
步骤203,基于超声视频和图片对应的属性信息,计算二分图每条边的权重。
在一示例中,边的权重指示该条边所连接的超声视频和图片之间的相似度,而超声视频和图片之间的相似度根据超声视频和所述图片的每种属性信息的相似度得到。
在一示例中,按照如下的多个公式,分别计算超声视频和图片的每种属性信息的相似度。
例如,按照如下公式计算,得到超声视频和图片的BIRADS的相似度:
wbirads(iv,ip)=-exp(|birads2label(iv)-birads2label(ip)|)
wbirads(iv,ip)为第i条边所连接的超声视频和图片的分级标准的相似度;iv为第i条边所连接的视频;ip为第i条边所连接的图片;birads2label为将BIRADS映射为整数等级的函数,例如,birads2label={″BIRADS=2″:0,″BIRADS=3″:1,″BIRADS=4A″:2,″BIRADS=4B″::3,,″BIRADS=4C″:4,″BIRADS=5″:5,″BIRADS=6″:5},表示当BIRADS为2时,birads21abel返回0,当BIRADS为3时,birads21abel返回1,BIRADS为4A时,birads21abel返回2,以此类推;exp表示以常数e为底的指数函数。
例如,按照如下公式计算,得到超声视频和图片的形状数据的相似度:
wshape(iv,ip)=shape_rule(iv,ip)
wshape(iv,ip)为第i条边所连接的超声视频和图片的形状数据的相似度;iv为第i条边所连接的视频;ip为第i条边所连接的图片;shape_rule为判断两者形状信息是否相同的函数,不同则返回1,相同则返回0。例如,病灶的形状分为椭圆形、圆形、大分叶状、欠规则形和不规则形,将椭圆形和圆形划分为形状信息相同的集合A,将大分叶状和欠规则形划分为形状信息相同的集合B,不规则形单独为一个集合C,则shape_rule函数用于判断iv和ip是否处于同一个集合中。若iv属于集合A,ip属于集合B或集合C,则wshape(iv,ip)返回1;若iv属于集合A,ip也属于集合A,则wshape(iv,ip)返回0。
例如,按照如下公式计算,得到超声视频和图片的方向数据的相似度:
worientation(iv,ip)=I(ivorientation==iporientation)
worientation(iv,ip)为第i条边所连接的超声视频和图片的方向数据的相似度;iv为第i条边所连接的视频;ip为第i条边所连接的图片;I为indicator函数(I.),用于判断是和否,判断是则返回1,判断否则返回0。例如,方向数据只包括平行和不平行两种,当iv的方向数据和ip的方向数据均为平行或不平行时,I返回1,任一个平行而另一个不平行时,I返回0。
例如,按照如下公式计算,得到超声视频和图片的边缘数据的相似度:
wmargin(iv,ip)=I(echohalo(iv,ip))+I(angular(iv,ip))
+I(microlobulated(iv,ip))+I(spiculated(iv,ip))
wmargin(iv,ip)为第i条边所连接的超声视频和图片的方向数据的相似度;iv为第i条边所连接的视频;ip为第i条边所连接的图片;I为indicator函数I(.),用于判断是和否,判断是则返回1,判断否则返回0;echohalo(iv,ip)表示病灶边缘是否均出现高回声晕,angular(iv,ip)表示病灶边缘是否都成角,microlobulated(iv,ip)表示病灶边缘是否都具有微分叶,spiculated(iv,ip)表示病灶边缘是否都具有边缘毛刺。例如,若iv出现高回声晕,ip未出现高回声晕,则I(echohalo(iv,ip))返回0,若iv和ip都出现高回声晕或都未出现高回声晕,则I(echohalo(iv,ip))返回1,其他情况以此类推。应该理解的是,高回声晕成角、微分叶和毛刺等信息都用于描述边缘,是边缘数据的具体信息,因此也属于可以获取到的属性信息。
在一示例中,按照如下公式,计算超声视频和图片之间的相似度,确定边的权重:
d(iv,ip)=wbirads(iv,ip)·(α·wshape(iv,ip)+β·worientation(iv,ip)+
γ·wmargin(iv,ip))
d(iv,ip)为第i条边所连接的超声视频和图片的相似度,wbirads(iv,ip)为第i条边所连接的超声视频和图片的BIRADS的相似度,wshape(iv,ip)为第i条边所连接的超声视频和图片的形状数据的相似度,worientation(iv,ip)为第i条边所连接的超声视频和图片的方向数据的相似度,wmargin(iv,ip)为第i条边所连接的超声视频和图片的方向数据的相似度,α、β、γ均为超参数,用于平衡几种属性信息的大小关系。
步骤204,基于每条边的权重,从所有边中筛选出匹配边,并根据匹配边确定多组超声视频和图片。
为了更加方描述超声视频与图片之间的数据结构,构建二分图的第一有向图,该示例中,以第一有向图中所有边的起点均为超声视频节点,终点均为图片节点为例。
在第一有向图上增加源点和汇点,源点分别与每个超声视频节点连接并指向所有超声视频节点,汇点分别与每个图片节点连接并指向汇点,得到第二有向图;第二有向图中源点和超声视频节点之间的边的权重为第一设定值,图片和汇点之间的边的权重为第二设定值,第一设定值和第二设定值根据实际情况设定。
根据Dinic算法计算第二有向图的最大流,即计算第二有向图中每条路径的权重,路径为从源点到汇点之间的路径;按照路径权重从大到小的顺序选取设定数量的多条路径。
将选取的路径中的所有超声视频节点和图片节点之间的边,作为从所有边中筛选得到的侯选边,将侯选边的权重从大到小排序,选取排名前k个的侯选边作为匹配边。
获取匹配边所连接的超声视频和图片,多个匹配边确定多组超声视频和图片。
例如,共有50条候选边,每条侯选边所连接的超声视频节点和图片节点互不重合,获取权重排名靠前的40条候选边作为匹配边,每条匹配边均对应一组超声视频和图片,一组超声视频和图片包括一个超声视频和一张图片,因此可得到40组超声视频和图片。
步骤205,将每组对应的超声视频和图片进行融合,得到融合超声视频。
获取超声视频的每一帧图像,将同组的图片与每一帧图像进行图像融合。
在一示例中,图像融合的方法为mixup(mixup是基于领域风险最小化原则的数据增强方法,使用线性差值得到新样本数据)。获取超声视频的每一帧图像,将该组的图片通过mixup融合方法将图片与同组的超声视频的每一帧图像进行融合,既保留了视频的动态特性,又融合了图片的静态空间特征,得到融合超声视频。
在一示例中,图像融合的具体公式如下:
Bv=RLnet(Iv,Ip)
λ=fchead1(Bv)
η=fchead2(Bv)
Ii=λIv+ηIp
Rlnet为包含5层3x3的卷积神经网络,Iv为第I组超声视频的任一帧图像,IP为第I组图片;fchead1和fchead2为两个依次连接的神经网络全连接层;λ、η为融合系数;Ii为第I组超声融合视频的第i帧融合图像。
步骤206,构建样本集,样本集包括所有融合超声视频以及乳腺的多个超声视频,根据所述样本集对预设模型进行训练,得到预测模型;
ai=λav+ηap
outputi=model(Ii)
loss=computeloss(outputi,ai)
ai为第I组超声融合视频的第i帧融合图像的BIRADS,av为第I组超声视频的任一帧图像的BIRADS,ap为第I组图片的BIRADS,outputi为模型的输出结果,loss为损失函数,model为I3D模型。
根据mixup融合算法利用图片的特征增强和丰富了超声视频的特征的细节效果,超声融合视频由多帧融合图像构成,融合图像既具有图片的静态病灶特征,又具有超声视频因获取方式所带来的扫描过程中病灶的形态变化信息,将融合超声视频作为样本对模型进行训练,可有效提升预测模型的预测结果。
在一示例中,本公开还提供了一种具体的实验的对比结果,获取了1565个乳腺的超声视频构建数据集,每个超声视频的平均长度为96.40秒,每秒30帧图像,将数据集划分为训练集、验证集以及测试集。以BIRADS预测的准确性以及其他属性信息预测的平均准确性作为评价指标,与现有技术中只利用超声视频进行训练的预测结果和将超声视频与图片联合训练的预测结果做对比,如下表所示:
BIRADS预测准确率(%) 其他属性分类平均准确率(%)
使用超声视频训练 92.34 81.32
使用超声视频+图片联合训练 93.29 83.62
使用融合超声视频+超声视频 95.45 88.62
如上表所示,本公开的方法取得的预测准确率相对其他两种较高。
为了实现上述的方案,本公开一实施例还提供了一装置,如图4所示,该装置包括:
获取模块10,用于获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;
所述属性信息包括描述病灶属性级别的分级标准数据、描述病灶形状的形状数据、用于描述病灶生长是否平行的方向数据和用于描述病灶边缘是否清晰的边缘数据。
计算模块20,用于根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片。所述计算模块20,还用于确定所述超声视频和所述图片的每种属性信息的相似度;将所有属性信息的相似度相加,得到所述超声视频和所述图片的相似度。
所述计算模块20,还用于基于所述获取的乳腺的多个超声视频和多张图片,创建与所述超声视频对应的超声视频节点以及与所述图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图。其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度;基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边。每条侯选边所连接的超声视频节点和图片节点互不重合;按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
所述计算模块20,还用于构建所述二分图的第一有向图,所述第一有向图中所有边的起点均为超声视频节点,终点均为图片节点,或者,所有边的起点均为图片节点,终点均为超声视频节点。在所述第一有向图上增加源点和汇点,所述源点分别与每个起点连接并指向所有起点,所述汇点分别与每个终点连接并指向汇点,得到第二有向图。所述第二有向图中所述源点和所述起点之间的边的权重为第一设定值,所述终点和所述汇点之间的边的权重为第二设定值。计算所述第二有向图中每条路径的权重,所述路径为从所述源点到所述汇点之间的路径。按照路径权重从大到小的顺序选取设定数量的多条路径,将选取的路径中的所有超声视频节点和图片节点之间的边,作为侯选边。
处理模块30,用于针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频。获取超声视频的每一帧图像,将图片分别与所述每一帧图像进行图像融合。
所述处理模块30,还用于构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型。
预测模块40,获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
本发明还提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本发明所述的基于超声视频的乳腺病灶属性预测方法。
本发明还一方面提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现本发明所述的基于超声视频的乳腺病灶属性预测方法。
除了上述方法和装置以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种基于超声视频的乳腺病灶属性预测方法,其特征在于,包括:
获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;
根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片;
针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频;
构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型;
获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
2.根据权利要求1所述的基于超声视频的乳腺病灶属性预测方法,其特征在于,所述属性信息包括描述病灶属性级别的分级标准数据、描述病灶形状的形状数据、用于描述病灶生长是否平行的方向数据和用于描述病灶边缘是否清晰的边缘数据。
3.根据权利要求1或2所述的基于超声视频的乳腺病灶属性预测方法,其特征在于,所述计算所述超声视频和所述图片的相似度,包括:
确定所述超声视频和所述图片的每种属性信息的相似度;
将所有属性信息的相似度相加,得到所述超声视频和所述图片的相似度。
4.根据权利要求1所述的基于超声视频的乳腺病灶属性预测方法,其特征在于,所述选取相似度最强的多组超声视频和图片,包括:
基于所述获取的乳腺的多个超声视频和多张图片,创建与所述超声视频对应的超声视频节点以及与所述图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图;其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度;
基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边;每条侯选边所连接的超声视频节点和图片节点互不重合;
按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
5.根据权利要求4所述的基于超声视频的乳腺病灶属性预测方法,其特征在于,所述基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边,包括:
构建所述二分图的第一有向图,所述第一有向图中所有边的起点均为超声视频节点,终点均为图片节点,或者,所有边的起点均为图片节点,终点均为超声视频节点;
在所述第一有向图上增加源点和汇点,所述源点分别与每个起点连接并指向所有起点,所述汇点分别与每个终点连接并指向汇点,得到第二有向图;所述第二有向图中所述源点和所述起点之间的边的权重为第一设定值,所述终点和所述汇点之间的边的权重为第二设定值;
计算所述第二有向图中每条路径的权重,所述路径为从所述源点到所述汇点之间的路径;
按照路径权重从大到小的顺序选取设定数量的多条路径;
将选取的路径中的所有超声视频节点和图片节点之间的边,作为侯选边。
6.根据权利要求1所述的基于超声视频的乳腺病灶属性预测方法,其特征在于,所述将该组中的图片与超声视频进行融合,包括:
获取超声视频的每一帧图像,将图片分别与所述每一帧图像进行图像融合。
7.一种基于超声视频的乳腺病灶属性预测装置,其特征在于,包括:
获取模块,用于获取乳腺的多个超声视频和多张图片,以及各自对应的属性信息;
计算模块,用于根据所述超声视频的属性信息和所述图片的属性信息,计算所述超声视频和所述图片的相似度,选取相似度最强的多组超声视频和图片;
所述计算模块,还用于针对选取的每组超声视频和图片,将该组中的图片与超声视频进行融合,得到相应的融合超声视频;
处理模块,用于构建样本集,所述样本集包括所有融合超声视频,根据所述样本集对初始模型进行训练,得到预测模型;
预测模块,用于获取目标超声视频,通过所述预测模型对所述目标超声视频进行预测,确定目标超声视频对应的乳腺病灶的属性。
8.根据权利要求7所述的基于超声视频的乳腺病灶属性预测装置,其特征在于,所述选取相似度最强的多组超声视频和图片时,所述计算模块,还用于基于所述获取的乳腺的多个超声视频和多张图片,创建与所述超声视频对应的超声视频节点以及与所述图片对应的图片节点,并建立每个超声视频节点与每个图片节点之间的边,得到二分图;其中,每个边的权重指示该条边所接连的超声视频和图片之间的相似度;
基于每条边的权重,从所述二分图的所有边中筛选出多条侯选边;每条侯选边所连接的超声视频节点和图片节点互不重合;
按照侯选边的权重从大到小的顺序选取设定数量的候选边作为匹配边,每条匹配边连接一组超声视频和图片,获取所有匹配边所连接的超声视频和图片作为所述相似度最强的多组超声视频和图片。
9.一种电子设备,其特征在于,包括:存储器和处理器,所述存储器存储由所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-6任一项所述的基于超声视频的乳腺病灶属性预测方法。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述权利要求1-6任一项所述的基于超声视频的乳腺病灶属性预测方法。
CN202210350880.XA 2022-04-02 2022-04-02 一种基于超声视频的乳腺病灶属性预测方法及装置 Active CN114842239B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210350880.XA CN114842239B (zh) 2022-04-02 2022-04-02 一种基于超声视频的乳腺病灶属性预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210350880.XA CN114842239B (zh) 2022-04-02 2022-04-02 一种基于超声视频的乳腺病灶属性预测方法及装置

Publications (2)

Publication Number Publication Date
CN114842239A true CN114842239A (zh) 2022-08-02
CN114842239B CN114842239B (zh) 2022-12-23

Family

ID=82563315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210350880.XA Active CN114842239B (zh) 2022-04-02 2022-04-02 一种基于超声视频的乳腺病灶属性预测方法及装置

Country Status (1)

Country Link
CN (1) CN114842239B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398854A (zh) * 2008-10-24 2009-04-01 清华大学 一种视频片段检索方法和系统
CN104574329A (zh) * 2013-10-09 2015-04-29 深圳迈瑞生物医疗电子股份有限公司 超声融合成像方法、超声融合成像导航系统
CN109886243A (zh) * 2019-03-01 2019-06-14 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质、设备以及系统
CN109977262A (zh) * 2019-03-25 2019-07-05 北京旷视科技有限公司 从视频中获取候选片段的方法、装置及处理设备
CN110288653A (zh) * 2019-07-15 2019-09-27 中国科学院深圳先进技术研究院 一种多角度超声图像融合方法、系统及电子设备
CN110584714A (zh) * 2019-10-23 2019-12-20 无锡祥生医疗科技股份有限公司 超声融合成像方法、超声装置及存储介质
CN111539930A (zh) * 2020-04-21 2020-08-14 浙江德尚韵兴医疗科技有限公司 基于深度学习的动态超声乳腺结节实时分割与识别的方法
CN111583320A (zh) * 2020-03-17 2020-08-25 哈尔滨医科大学 融合深度卷积网络和影像组学特征的乳腺癌超声图分型方法、系统及存储介质
CN112203122A (zh) * 2020-10-10 2021-01-08 腾讯科技(深圳)有限公司 基于人工智能的相似视频处理方法、装置及电子设备
CN113255756A (zh) * 2021-05-20 2021-08-13 联仁健康医疗大数据科技股份有限公司 图像融合方法、装置、电子设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398854A (zh) * 2008-10-24 2009-04-01 清华大学 一种视频片段检索方法和系统
CN104574329A (zh) * 2013-10-09 2015-04-29 深圳迈瑞生物医疗电子股份有限公司 超声融合成像方法、超声融合成像导航系统
CN109886243A (zh) * 2019-03-01 2019-06-14 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质、设备以及系统
CN109977262A (zh) * 2019-03-25 2019-07-05 北京旷视科技有限公司 从视频中获取候选片段的方法、装置及处理设备
CN110288653A (zh) * 2019-07-15 2019-09-27 中国科学院深圳先进技术研究院 一种多角度超声图像融合方法、系统及电子设备
CN110584714A (zh) * 2019-10-23 2019-12-20 无锡祥生医疗科技股份有限公司 超声融合成像方法、超声装置及存储介质
CN111583320A (zh) * 2020-03-17 2020-08-25 哈尔滨医科大学 融合深度卷积网络和影像组学特征的乳腺癌超声图分型方法、系统及存储介质
CN111539930A (zh) * 2020-04-21 2020-08-14 浙江德尚韵兴医疗科技有限公司 基于深度学习的动态超声乳腺结节实时分割与识别的方法
CN112203122A (zh) * 2020-10-10 2021-01-08 腾讯科技(深圳)有限公司 基于人工智能的相似视频处理方法、装置及电子设备
CN113255756A (zh) * 2021-05-20 2021-08-13 联仁健康医疗大数据科技股份有限公司 图像融合方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GEORGIOS PILIKOS ET AL: "Deep Learning for Multi-View Ultrasonic Image Fusion", 《ARXIV》 *
ZHIYU FANG ET AL: "An Ultrasound Image Fusion Method for Stereoscopic Laparoscopic Augmented Reality", 《PROCEEDINGS OF THE 2019 IEEE INTERNATIONAL CONFERENCE ON REAL-TIME COMPUTING AND ROBOTICS》 *

Also Published As

Publication number Publication date
CN114842239B (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN106095893B (zh) 一种跨媒体检索方法
US10885323B2 (en) Digital image-based document digitization using a graph model
CN107569248B (zh) 一种乳腺机设备的曝光方法及乳腺机设备
TW202004559A (zh) 梯度提升決策樹(gbdt)模型的特徵解釋方法和裝置
US20180041765A1 (en) Compact video representation for video event retrieval and recognition
CN108198172B (zh) 图像显著性检测方法和装置
CN110909868A (zh) 基于图神经网络模型的节点表示方法和装置
CN114067109A (zh) 谷物检测方法及检测设备、存储介质
JP2020101856A (ja) コンピュータ、構成方法、及びプログラム
CN112001401A (zh) 实例分割网络的训练模型及训练方法,实例分割网络
CN111639230B (zh) 一种相似视频的筛选方法、装置、设备和存储介质
CN111753870B (zh) 目标检测模型的训练方法、装置和存储介质
CN109086830A (zh) 基于样本惩罚的典型关联分析近重复视频检测方法
JP2012022419A (ja) 学習データ作成装置、学習データ作成方法及びプログラム
CN108829699B (zh) 一种热点事件的聚合方法和装置
CN114463603A (zh) 图像检测模型的训练方法、装置、电子设备及存储介质
US20220083587A1 (en) Systems and methods for organizing an image gallery
CN114842239B (zh) 一种基于超声视频的乳腺病灶属性预测方法及装置
Hueting et al. Seethrough: finding chairs in heavily occluded indoor scene images
KR20200023673A (ko) 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크
Jahangiri et al. Information pursuit: A Bayesian framework for sequential scene parsing
CN114996490A (zh) 电影推荐方法、系统、存储介质及设备
CN111984812B (zh) 一种特征提取模型生成方法、图像检索方法、装置及设备
Hershberger et al. Summarizing spatial data streams using clusterhulls
CN115935579A (zh) 语言模型的预训练方法、商品信息处理方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Room 3011, 2nd Floor, Building A, No. 1092 Jiangnan Road, Nanmingshan Street, Liandu District, Lishui City, Zhejiang Province, 323000

Patentee after: Zhejiang Yizhun Intelligent Technology Co.,Ltd.

Address before: No. 1202-1203, 12 / F, block a, Zhizhen building, No. 7, Zhichun Road, Haidian District, Beijing 100083

Patentee before: Beijing Yizhun Intelligent Technology Co.,Ltd.

CP03 Change of name, title or address