CN113034437A - 视频处理方法及装置、电子设备和存储介质 - Google Patents

视频处理方法及装置、电子设备和存储介质 Download PDF

Info

Publication number
CN113034437A
CN113034437A CN202110219426.6A CN202110219426A CN113034437A CN 113034437 A CN113034437 A CN 113034437A CN 202110219426 A CN202110219426 A CN 202110219426A CN 113034437 A CN113034437 A CN 113034437A
Authority
CN
China
Prior art keywords
target object
segmentation
neural network
video
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110219426.6A
Other languages
English (en)
Inventor
李嘉辉
黄晓迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Priority to CN202110219426.6A priority Critical patent/CN113034437A/zh
Publication of CN113034437A publication Critical patent/CN113034437A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及一种视频处理方法及装置、电子设备和存储介质。所述方法包括:获取视频帧序列;对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果;根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合;以及根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果。通过上述过程,可以提高阴道镜视频中是否包含阴道病变以及病变位置的预测精度。

Description

视频处理方法及装置、电子设备和存储介质
技术领域
本公开涉及视频处理技术领域,尤其涉及一种视频处理方法及装置、电子设备和存储介质。
背景技术
在阴道镜检查时,医生通过光学镜头捕捉到的画面对病人做出诊断,以画面中拍摄到的阴道内部病变区域为依据。由于阴道镜深入患者体内会引发病人不适,该检查通常不能持续太久,短时间内让医生敏感地发现病灶有时会很困难。
因此,如何利用阴道镜采集的视频来辅助医生及时准确地检测到病灶,成为目前亟待解决的问题。
发明内容
本公开提出了一种视频处理技术方案。
根据本公开的一方面,提供了一种视频处理方法,包括:
获取视频帧序列;对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果;根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合;以及根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果。
在一种可能的实现方式中,所述对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果,包括:从所述视频帧序列中选定至少一帧图像帧,作为待分割帧;对所述待分割帧通过至少一种方式进行第一分割,得到所述待分割帧的至少一个第一分割子结果;对所述待分割帧的至少一个第一分割子结果进行处理,得到所述待分割帧的第一分割结果;以及统计至少一帧待分割帧的第一分割结果,作为所述视频帧序列的所述第一分割结果。
在一种可能的实现方式中,所述根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合,包括:根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的N帧图像帧,作为选定帧,其中,N为正整数;以及将所述选定帧构成的集合作为所述选定帧集合。
在一种可能的实现方式中,所述根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合,包括:根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的M帧图像帧,作为选定帧,其中,M为正整数;以及从M帧选定帧中,随机选定N帧构成选定帧集合,N为正整数。
在一种可能的实现方式中,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果,包括:对所述选定帧集合中的所述目标对象进行分类,得到分类结果;对所述选定帧集合中的所述目标对象进行第二分割,得到第二分割结果;以及根据所述分类结果和/或所述第二分割结果,生成所述视频帧序列中的所述目标对象的所述预测结果。
在一种可能的实现方式中,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果,包括:对所述选定帧集合通过至少一种方式进行所述目标对象的预测,得到至少一个预测子结果;以及对所述至少一个预测子结果进行处理,生成所述视频帧序列中的所述目标对象的所述预测结果。
在一种可能的实现方式中,所述对所述视频帧序列中的图像帧进行基于目标对象的第一分割,包括:将所述视频帧序列中的至少一帧图像帧输入至少一个第一神经网络,其中,所述第一神经网络通过第一训练图像进行训练。
在一种可能的实现方式中,所述第一训练图像包含目标对象第一分割标注,以及所述通过第一训练图像训练所述第一神经网络,包括:将所述第一训练图像输入初始第一神经网络,对所述初始第一神经网络进行训练,得到中间第一神经网络;将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像;将所述第二训练图像输入中间第一神经网络,对所述中间第一神经网络进行训练,得到训练后的第一神经网络。
在一种可能的实现方式中,所述将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像,包括:将所述第一训练图像输入所述中间第一神经网络,得到所述中间第一神经网络的输出图像;遍历所述第一训练图像中的像素点,分别确定被遍历的像素点在所述第一训练图像中属于所述目标对象的第一概率,以及在所述输出图像中属于所述目标对象的第二概率;将所述第一概率与第二概率中概率值高的概率作为所述被遍历的像素点的概率,并基于所述被遍历的像素点的概率对所述目标对象第一分割标注进行更新,以得到所述第二训练图像。
在一种可能的实现方式中,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,包括:将所述选定帧集合输入至少一个第二神经网络,其中,所述第二神经网络通过第三训练图像集合进行训练,所述第三训练图像集合包含目标对象类别标注和/或目标对象第二分割标注。
在一种可能的实现方式中,所述视频帧序列包括阴道镜视频帧序列,所述目标对象包括病灶对象。
根据本公开的一方面,提供了一种视频处理装置,包括:
视频帧序列获取模块,用于获取视频帧序列;第一分割模块,用于对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果;选定模块,用于根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合;以及预测模块,用于根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果。
在一种可能的实现方式中,所述第一分割模块用于:从所述视频帧序列中选定至少一帧图像帧,作为待分割帧;对所述待分割帧通过至少一种方式进行第一分割,得到所述待分割帧的至少一个第一分割子结果;对所述待分割帧的至少一个第一分割子结果进行处理,得到所述待分割帧的第一分割结果;以及统计至少一帧待分割帧的第一分割结果,作为所述视频帧序列的所述第一分割结果。
在一种可能的实现方式中,所述选定模块用于:根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的N帧图像帧,作为选定帧,其中,N为正整数;以及将所述选定帧构成的集合作为所述选定帧集合。
在一种可能的实现方式中,所述选定模块用于:根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的M帧图像帧,作为选定帧,其中,M为正整数;以及从M帧选定帧中,随机选定N帧构成选定帧集合,N为正整数。
在一种可能的实现方式中,所述预测模块用于:对所述选定帧集合中的所述目标对象进行分类,得到分类结果;对所述选定帧集合中的所述目标对象进行第二分割,得到第二分割结果;以及根据所述分类结果和/或所述第二分割结果,生成所述视频帧序列中的所述目标对象的所述预测结果。
在一种可能的实现方式中,所述预测模块用于:对所述选定帧集合通过至少一种方式进行所述目标对象的预测,得到至少一个预测子结果;以及对所述至少一个预测子结果进行处理,生成所述视频帧序列中的所述目标对象的所述预测结果。
在一种可能的实现方式中,所述第一分割模块用于:将所述视频帧序列中的至少一帧图像帧输入至少一个第一神经网络,其中,所述第一神经网络通过第一训练图像进行训练。
在一种可能的实现方式中,所述第一训练图像包含目标对象第一分割标注,以及所述通过第一训练图像训练所述第一神经网络,包括:将所述第一训练图像输入初始第一神经网络,对所述初始第一神经网络进行训练,得到中间第一神经网络;将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像;将所述第二训练图像输入中间第一神经网络,对所述中间第一神经网络进行训练,得到训练后的第一神经网络。
在一种可能的实现方式中,所述将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像,包括:将所述第一训练图像输入所述中间第一神经网络,得到所述中间第一神经网络的输出图像;遍历所述第一训练图像中的像素点,分别确定被遍历的像素点在所述第一训练图像中属于所述目标对象的第一概率,以及在所述输出图像中属于所述目标对象的第二概率;将所述第一概率与第二概率中概率值高的概率作为所述被遍历的像素点的概率,并基于所述被遍历的像素点的概率对所述目标对象第一分割标注进行更新,以得到所述第二训练图像。
在一种可能的实现方式中,所述预测模块用于:将所述选定帧集合输入至少一个第二神经网络,其中,所述第二神经网络通过第三训练图像集合进行训练,所述第三训练图像集合包含目标对象类别标注和/或目标对象第二分割标注。
在一种可能的实现方式中,所述视频帧序列包括阴道镜视频帧序列,所述目标对象包括病灶对象。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行上述视频处理方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述视频处理方法。
在本公开实施例中,通过对获取的视频帧序列中的图像帧进行基于目标对象的第一分割,来得到视频帧序列的第一分割结果,从而利用第一分割结果对视频帧序列中的图像帧进行选择,得到选定帧集合来用于最终的目标对象预测。通过上述过程,可以基于视频帧序列中至少部分图像帧的分割结果,来筛选出预测效果更好的选定帧集合,从而使得基于选定帧集合进行目标对象预测得到的预测结果更准确,提高预测精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出根据本公开一实施例的视频处理方法的流程图。
图2示出根据本公开一实施例的第一训练图像的示意图。
图3示出根据本公开一实施例的第一训练图像的示意图。
图4示出根据本公开一实施例的第二训练图像的生成过程示意图。
图5示出根据本公开一实施例的第二训练图像的生成过程示意图。
图6示出根据本公开一实施例的第二训练图像的生成过程示意图。
图7示出根据本公开一实施例的第二训练图像的生成过程示意图。
图8示出根据本公开一实施例的第二训练图像的生成过程示意图。
图9示出根据本公开一实施例的视频处理装置的框图。
图10示出根据本公开实施例的一种电子设备的框图。
图11示出根据本公开实施例的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的视频处理方法的流程图,该方法可以应用于视频处理装置,视频处理装置可以为终端设备、服务器或者其他处理设备等。其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。
在一些可能的实现方式中,该视频处理方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
如图1所示,所述视频处理方法可以包括:
步骤S11,获取视频帧序列。
步骤S12,对视频帧序列中的图像帧进行基于目标对象的第一分割,得到视频帧序列的第一分割结果。
步骤S13,根据第一分割结果,从视频帧序列中,选定包含目标对象的至少部分图像帧作为选定帧集合。
步骤S14,根据选定帧集合,对视频帧序列中的目标对象进行预测,生成预测结果。
其中,目标对象可以是视频中任何需要被预测的对象。其实现形式可以根据本公开实施例中提出的视频处理方法的具体应用场景灵活决定。
本公开实施例提出的视频处理方法可以根据实际需求灵活应用于各种场景。举例来说,在一种可能的实现方式中,本公开实施例提出的方法,可以应用于通过阴道镜拍摄视频的场景中,在这种情况下,目标对象可以是阴道镜视频中所拍摄的阴道内的某些组织对象,或是阴道中的病变对象等。因此,在一种可能的实现方式中,视频帧序列可以包括阴道镜视频帧序列,目标对象可以包括病灶对象。
在一些可能的实现方式中,本公开实施例提出的方法,也可以应用于其他场景,比如通过胃镜拍摄视频、通过肠镜拍摄视频或是通过B型超声波(B超)拍摄视频等,相应地,目标对象可以随着场景的变化而发生变化,比如本公开实施例提出的方法应用于胃镜视频的情况下,目标对象可以是胃部内的组织或病变等,应用于肠镜视频的情况下,目标对象可以是结肠或大肠内的组织或病变等,应用于B超视频的情况下,目标对象可以是B超检查对象中的组织或病变等,比如腹部、盆腔或是泌尿系统中的各类组织或病变等等。
为了便于描述,后续各公开实施例均以视频处理方法用于通过阴道镜拍摄的视频,目标对象为阴道中的病变对象为例进行描述,视频处理方法应用于其他场景,目标对象为其他对象的情况,可以根据后续各公开实施例进行灵活扩展,不再一一展开。
视频帧序列可以是包含目标对象的帧序列,其实现形式同样可以根据视频处理方法的具体应用场景灵活决定。在一种可能的实现方式中,在本公开实施例提出的方法应用于通过阴道镜拍摄视频的场景中的情况下,视频帧序列可以是通过阴道镜采集的阴道视频帧序列。
视频帧序列中包含的图像帧的数量在本公开实施例中也不做限定,可以根据视频帧序列的获取方式以及实际情况灵活决定。进一步地,视频帧序列中的各图像帧是否包含目标对象,其实现方式也可以根据实际情况灵活决定。在一种可能的实现方式中,视频帧序列中的每一图像帧均可以包含目标对象;在一种可能的实现方式中,视频帧序列中也可能仅有部分图像帧包含目标对象;在一种可能的实现方式中,视频帧序列中的每一图像帧也可以均不包含目标对象。
视频帧序列的获取方式同样可以根据实际情况灵活决定,在一种可能的实现方式中,可以通过实时图像采集的方式来获取视频帧序列,在一种可能的实现方式中,也可以通过读取已完成拍摄的视频的方式来获取视频帧序列等,根据实际情况灵活选择即可。如上述各公开实施例所述,在一种可能的实现方式中,可以通过阴道镜拍摄的方式来获取视频帧序列,相应地,在一个示例中,可以通过阴道镜对阴道进行实时视频采集的方式来获取视频帧序列,在一个示例中,也可以在阴道镜对阴道进行视频采集完成后,通过读取完整的采集视频的方式,来获取视频帧序列。
在获取视频帧序列以后,可以通过步骤S12,对视频帧序列中的图像帧进行目标对象的第一分割,来得到第一分割结果,其中,第一分割可以是对图像帧中的目标对象进行的分割,其具体的分割方式以及得到的第一分割结果的形式,可以根据实际情况灵活,详见下述各公开实施例,在此先不做展开。
在得到第一分割结果以后,还可以通过步骤S13,根据第一分割结果来从视频帧序列中选定包含目标对象的至少部分图像帧来作为选定帧集合,其中,选定帧集合中的图像帧,可以是根据第一分割结果所确定的,包含目标对象的图像帧,具体选定帧集合中图像帧的数量,以及选定的具体方式,可以根据实际情况进行灵活选择,详见下述各公开实施例。
在确定选定帧集合以后,可以通过步骤S14,来根据选定帧集合实现对视频帧序列中目标对象的预测,从而得到预测结果。对目标对象进行预测的方式可以根据实际情况灵活选择,比如可以通过目标对象分类或是目标对象分割等方式来实现,详见下述各公开实施例,在此先不做展开。
在本公开实施例中,通过对获取的视频帧序列中的图像帧进行目标对象的第一分割,来得到视频帧序列的第一分割结果,从而利用第一分割结果对视频帧序列中的图像帧进行选择,得到选定帧集合来用于最终的目标对象预测。通过上述过程,可以基于视频帧序列中至少部分图像帧的分割结果,来筛选出预测效果更好的选定帧集合,从而使得基于选定帧集合进行目标对象预测得到的预测结果更准确,提高预测精度。
如上述各公开实施例所述,步骤S12的实现方式可以根据实际情况灵活选择。在一种可能的实现方式中,步骤S12可以包括:
步骤S121,从视频帧序列中选定至少一帧图像帧,作为待分割帧;
步骤S122,对待分割帧通过至少一种方式进行第一分割,得到待分割帧的至少一个第一分割子结果;
步骤S123,对待分割帧的至少一个第一分割子结果进行处理,得到待分割帧的第一分割结果;以及,
步骤S124,统计至少一帧待分割帧的第一分割结果,作为视频帧序列的第一分割结果。
其中,待分割帧可以是从视频帧序列中选定的图像帧,在一种可能的实现方式中,待分割帧可以是视频帧序列中选定的图像帧的二维图像,在一种可能的实现方式中,待分割帧也可以是视频帧序列中选定的图像帧的三维图像,后续各公开实施例均以待分割帧为二维图像为例进行说明。选定待分割帧的方式在本公开实施例中不做限制,在一种可能的实现方式中,可以从视频帧序列中随机选定一帧或多帧图像帧作为待分割帧;在一种可能的实现方式中,也可以对视频帧序列以某种方式进行采样,来选定一帧或多帧待分割帧;在一种可能的实现方式中,也可以分别选定视频帧序列中的每一图像帧作为待分割帧。待分割帧的数量在本公开实施例中不做限定,根据实际情况进行灵活选择即可。
在选定待分割帧以后,可以通过步骤S122,对待分割帧通过至少一种方式进行第一分割,从而基于不同的方式得到待分割帧的至少一个第一分割子结果。其中,第一分割可以将待分割帧中的目标对象与目标对象以外的背景进行区分,从而确定待分割帧中目标对象所在的区域。第一分割的方式在本公开实施例中不做限定,在一种可能的实现方式中,可以通过对待分割帧进行特征提取等方式来实现第一分割;在一种可能的实现方式中,也可以采用分割神经网络来实现第一分割,具体采用何种分割神经网络可以根据实际情况灵活选择,在本公开实施例中不做限制。
如上述公开实施例所述,步骤S122中,可以通过至少一种方式,对待分割帧进行第一分割,其中,具体选择几种方式,以及选择哪几种第一分割的手段,在本公开实施例中不做限定,可以根据实际情况灵活选择。在一种可能的实现方式中,可以选择多种分割神经网络,作为多种第一分割方式,对待分割帧进行分割,其中,多种分割神经网络可以是具有不同的神经网络结构或是神经网络参数等,具体如何选择这些分割神经网络,在本公开实施例中不做限定。
在通过多种方式对待分割帧进行第一分割的情况下,各第一分割方式可以对应得到相应的第一分割子结果。根据得到的第一分割子结果,可以通过步骤S123,对至少一个第一分割子结果进行处理,得到待分割帧的第一分割结果。
其中,对至少一个第一分割子结果进行处理的方式在本公开实施例中不做限定,可以根据第一分割的各种方式,以及第一分割子结果的数量等因素共同灵活决定。在一种可能的实现方式中,在仅通过一种第一分割方式对待分割帧进行第一分割,得到一个第一分割子结果的情况下,可以将得到的第一分割子结果直接作为第一分割结果。在一种可能的实现方式中,在通过多种分割方式对待分割帧进行第一分割,得到多个第一分割子结果的情况下,可以将得到的多个第一分割子结果进行加权平均,或是选择多个第一分割子结果的交集或并集等方式,来得到第一分割结果。在一种可能的实现方式中,在通过多种分割神经网络,来实现待分割帧的多种第一分割方式的情况下,可以对多个分割神经网络进行集成,并对集成的神经网络进行任意的蒸馏、剪枝或是量化等。其中,蒸馏可以是用参数量较小的神经网络模型来拟合参数量较大的神经网络模型的输出;剪枝可以是在尽量不影响神经网络输出结果的情况下,将具有较大规模的神经网络中的计算模块进行删除;量化可以是将神经网络中的参数精度降低,比如用int4精度的参数,替代float32精度的参数等。在这种情况下,各分割神经网络输出的第一分割子结果,可以按照其集成、蒸馏、剪枝或是量化的方式,进行相应的处理,从而得到第一分割结果。
在得到了待分割帧的第一分割结果以后,可以通过步骤S124,统计至少一帧待分割帧的第一分割结果,来作为视频帧序列的第一分割结果。其中,统计的待分割帧的数量在本公开实施例中不做限制,在一种可能的实现中,可以统计每个待分割帧的第一分割结果,在一种可能的实现方式中,也可以进一步从待分割帧中选定一帧或多帧,并将选定的待分割帧的第一分割结果作为视频帧序列的第一分割结果等。
通过从视频帧序列中选定至少一帧图像帧,作为待分割帧,并对待分割帧通过至少一种方式进行第一分割,得到待分割帧的至少一个第一分割子结果,从而对至少一个第一分割子结果进行处理来得到待分割帧的第一分割结果,并统计至少一帧待分割帧的第一分割结果作为视频帧序列的第一分割结果。通过上述过程,可以利用多种方式,实现对视频帧序列中单个图像帧的分割,从而使得单帧分割的结果更加准确,分割方式更加灵活,继而使得利用第一分割结果确定的选定帧集合中目标对象的信息更加全面,利用选定帧集合进行预测得到的预测结果更加准确。
如上述各公开实施例所述,第一分割的方式可以根据实际情况进行灵活选择,比如可以通过分割神经网络来实现。因此,在一种可能的实现方式中,步骤S12可以包括:
将视频帧序列中的至少一帧图像帧输入至少一个第一神经网络,其中,第一神经网络通过第一训练图像进行训练。
其中,第一神经网络可以是上述公开实施例提到的分割神经网络,其具体的实现方式在本公开实施例中不做限定,任何可以实现图像分割的网络均可以作为第一神经网络的实现形式,根据实际情况灵活选择即可。输入至第一神经网络中的视频帧序列中的图像帧可以是上述公开实施例中提到的待分割帧,也可以是视频帧序列中的任意图像帧等,本公开实施例中步骤S12的实现方式可以相互结合或是独立实现,在此不做限制。
通过上述公开实施例可以看出,在一种可能的实现方式中,第一神经网络可以通过第一训练图像进行训练。其中,第一训练图像可以是任意包含有目标对象的图像,其实现形式可以根据实际情况灵活选择,在本公开实施例中不做限定。在一种可能的实现方式中,第一训练图像的实现形式可以参考视频帧序列中的各图像帧。
如上述各公开实施例所述,在一种可能的实现方式中,可以通过不同的方式进行第一分割,因此,可以通过将视频帧输入至少一个第一神经网络,来实现目标对象的第一分割。其中,在第一神经网络的数量为多个的情况下,不同的第一神经网络可以具有不同的结构或参数,训练不同第一神经网络的第一训练图像可以相同,也可以不同。
通过将视频帧序列中的图像帧输入至少一个第一神经网络,且第一神经网络可以通过第一训练图像进行训练。通过上述过程,可以利用第一训练图像,训练得到具有较好目标对象分割功能的第一神经网络,从而使得第一分割的结果更加准确,继而提升整个视频处理的精度。
在一种可能的实现方式中,第一训练图像可以包含目标对象第一分割标注,其中,目标对象第一分割标注可以是在第一训练图像中对目标对象进行的标注。如上述各公开实施例所述,视频帧序列可以包括阴道镜视频帧序列,目标对象可以包括病灶对象,在这种情况下,第一训练图像可以是阴道镜所拍摄的图像,可以为视频中的单帧图像帧,也可以为拍摄的静态图像等;相应地,第一训练图像包含的目标对象第一分割标注,可以为图像中标注的病灶区域等。目标对象第一分割标注的标注方式在本公开实施例中不做限制,可以根据实际情况灵活选择,在一种可能的实现方式中,可以通过专业人士对第一训练图像中的目标对象进行手动标注等。图2和图3示出根据本公开一实施例的第一训练图像的示意图,其中图2为阴道镜拍摄的图像,图3为对图2进行标注所得到的目标对象第一分割标注,从图3中可以看出,利用不同颜色可以将图像中目标对象与非目标对象的部分进行区分,从而实现目标对象的标注。
第一神经网络的训练过程可以根据实际情况灵活决定。在一种可能的实现方式中,可以利用相关技术中已有的任意神经网络训练方法,对第一神经网络进行训练。在一种可能的实现方式中,通过第一训练图像,训练第一神经网络,可以包括:
将第一训练图像输入初始第一神经网络,对初始第一神经网络进行训练,得到中间第一神经网络;
将第一训练图像输入中间第一神经网络,根据中间第一神经网络的输出,对第一训练图像包含的目标对象第一分割标注进行更新,得到第二训练图像;
将第二训练图像输入中间第一神经网络,对中间第一神经网络进行训练,得到训练后的第一神经网络。
其中,初始第一神经网络可以是根据分割需求,建立的第一神经网络的初始模型,其实现形式在本公开实施例中不做限定,任何可以实现分割的神经网络模型,均可以作为初始第一神经网络的实现形式。在一种可能的实现方式中,初始第一神经网络可以是U-Net、V-Net或是R-CNN等常见的神经网络模型等。
通过上述公开实施例可以看出,在一种可能的实现方式中,可以通过第一训练图像对初始第一神经网络进行训练,来得到训练后的中间第一神经网络。
在一种可能的实现方式中,中间第一神经网络可以直接作为训练好的第一神经网络。在一种可能的实现方式中,也可以对中间第一神经网络进行进一步训练。对中间第一神经网络的训练方式不局限于下述各公开实施例,也可以根据实际情况灵活选择或扩展训练方式。
基于上述公开实施例可以看出,在一种可能的实现方式中,在得到中间第一神经网络以后,可以将第一训练图像输入到中间第一神经网络,来得到中间第一神经网络的输出结果,并基于中间第一神经网络的输出结果对第一训练图像中的目标对象第一分割标注进行更新,来得到第二训练图像。并利用更新后的第二训练图像,对中间第一神经网络进行训练,从而得到训练后的第一神经网络。
图4~图6示出根据本公开一实施例的第二训练图像的生成过程示意图。其中图4为阴道镜拍摄的图像,图5为对图4进行标注所得到的目标对象第一分割标注,图6为将图4输入至中间第一神经网络后得到的输出图像,其中,图5中的白色区域为目标对象第一分割标注,即标注出的目标对象的所在区域,图6中颜色为非黑色的区域为中间第一神经网络分割所确定的目标对象的所在区域,通过对比图5和图6可以看出,图5中目标对象所在的区域未被完全标注出,因此,可以通过上述公开实施例中提到的方法,根据图6对图5进行更新,来得到第二训练图像。
通过上述过程,可以利用训练后的中间第一神经网络对第一训练图像中的目标对象进行分割,并基于中间第一神经网络的分割结果,对第一训练图像中原有的目标对象第一分割标注进行更新,从而使得更新后的第二训练图像,相对于原始的第一训练图像,具有更高的目标对象标注精度。因此,利用更新的第二训练图像对中间第一神经网络进行训练,所得到的训练后的第一神经网络,可以具有更加准确的分割效果,从而提升得到的第一分割结果的精度,进一步提升了视频处理的精度。
如何根据中间第一神经网络的输出,来对第一训练图像中的目标对象第一分割标注进行更新,其更新的方式在本公开实施例中不做限定。在一种可能的实现方式中,可以比较中间第一神经网络的输出,与第一训练图像中目标对象第一分割标注的准确度。从而将目标对象分割更准确的图像作为第二训练图像。
在一种可能的实现方式中,将第一训练图像输入中间第一神经网络,根据中间第一神经网络的输出,对目标对象第一分割标注进行更新,得到第二训练图像,包括:
将第一训练图像输入中间第一神经网络,得到中间第一神经网络的输出图像;
遍历第一训练图像中的像素点,分别确定被遍历的像素点在第一训练图像中属于目标对象的第一概率,以及在输出图像中属于目标对象的第二概率;
将第一概率与第二概率中概率值高的概率作为被遍历的像素点的概率,并基于被遍历的像素点的概率对目标对象第一分割标注进行更新,得到第二训练图像。
其中,输出图像可以是第一训练图像经过中间第一神经网络的分割后,所得到的输出图像,输出图像中各像素点可以通过像素值等信息,表明其属于目标对象的概率。
在一种可能的实现方式中,可以遍历第一训练图像中的像素点。其中,在一种可能的实现方式中,可以对第一训练图像中的各像素点进行遍历;在一种可能的实现方式中,也可以是对第一训练图像中属于目标对象的像素点进行遍历。被遍历的像素点,一方面可以根据第一训练图像中目标对象第一分割标注,确定其在第一训练图像中属于目标对象的概率,这一概率可称为第一概率;另一方面可以根据其在输出图像中对应的像素点,确定其在输出图像中属于目标对象的概率,这一概率可称为第二概率。
在一种可能的实现方式中,对于第一训练图像和输出图像中对应的同一像素点,可以将第一概率和第二概率中数值较高的概率值,作为该像素点属于目标对象的概率值。图7和图8示出根据本公开一实施例的第二训练图像的生成过程示意图。其中图7为阴道镜拍摄的图像,图8为通过上述公开实施例中方式所得到的与图7对应的第二训练图像,从图中可以看出,在一个示例中,生成的训练图像中既包含目标对象第一分割标注(图中纯白色的区域),也包含中间第一神经网络进行分割后所得到的目标对象的分割结果(图中显示为渐变色的区域)。
通过上述过程,可以尽可能减少在第一训练图像内,属于目标对象的像素点未被标注的情况,从而使得得到的第二训练图像具有更准确的目标对象第一分割标注,基于第二训练图像训练得到的第一神经网络,可以具有更精确的分割能力,继而提升整个视频处理过程的精度。
在得到第一分割结果以后,可以通过步骤S13,根据第一分割结果来从视频帧序列中进行选定,得到选定帧集合。其中,步骤S13的实现方式在本公开实施例中不做限定,即选定的方式不做限定,可以根据实际情况灵活选择。在一种可能的实现方式中,步骤S13可以包括:
根据第一分割结果,确定视频帧序列中包含目标对象的面积最大的N帧图像帧,作为选定帧,其中,N为正整数;以及,
将选定帧构成的集合作为选定帧集合。
如上述公开实施例所述,第一分割可以将待分割帧中的目标对象与目标对象以外的背景进行区分,因此,通过第一分割确定的第一分割结果,可以反映图像帧中是否包含目标对象,以及目标对象在视频帧中所占的面积。
通过上述过程可以看出,在一种可能的实现方式中,可以根据第一分割结果,确定视频帧序列中各图像帧所包含的目标对象的面积。因此,在一种可能的实现方式中,可以根据视频帧序列中各图像帧所包含的目标对象的面积大小,来确定选定帧。通过上述公开实施例可以看出,在一种可能的实现方式中,可以将包含目标对象的面积最大的N帧图像帧来作为选定帧。其中,N的数量在本公开实施例中不做限定,可以为一个,也可以为多个,具体如何可以根据实际情况进行灵活设定,在一个示例中,N的数量可以为16,即可以将视频帧序列中包含目标对象的面积最大的16帧图像帧作为选定帧。并在确定选定帧以后,可以将选定帧构成的集合作为选定帧集合。
通过根据第一分割结果,将视频帧序列中包含目标对象的面积最大的N帧图像帧作为选定帧,并将选定帧构成的集合作为选定帧集合。通过上述过程,可以从视频帧序列中选出包含目标对象的信息较多的帧来用于后续的目标对象预测,从而提升目标对象预测结果的准确性。
在一种可能的实现方式中,步骤S13也可以包括:
根据第一分割结果,确定视频帧序列中包含目标对象的面积最大的M帧图像帧,作为选定帧,其中,M为正整数;以及,
从M帧选定帧中,随机选定N帧构成选定帧集合,N为正整数。
通过上述公开实施例也可以看出,在一种可能的实现方式中,还可以先从视频帧序列中选定包含目标对象的面积最大的M帧图像帧,来作为选定帧,继而再从M帧选定帧中,随机选定其中的N帧构成选定帧集合。其中,M的数量也可以根据实际情况灵活选择,在一种可能的实现方式中,M可以为不小于N的整数。
通过上述方式,可以先将含目标对象的面积最大的多帧图像帧选出,再从中随机选定需要数量的图像帧作为选定帧,这种方式可以在第一分割结果准确度有偏差的情况下,仍可以选出符合要求的选定帧,从而提高后续基于选定帧集合进行预测的准确度,即提升视频处理的准确度。
在通过上述任意公开实施例确定选定帧集合以后,可以通过步骤S14,根据选定帧集合,对视频帧序列中的目标对象进行预测,来生成预测结果。其中,预测的方式在本公开实施例中不做限定,在一种可能的实现方式中,可以获取视频帧序列中选定帧的三维图像,并对这些三维图像选定帧构成的选定帧集合,进行三维图像分割,从而在选定帧集合中分割出目标对象的位置,并将三维图像分割的结果作为目标对象的预测结果。在一种可能的实现方式中,也可以对选定帧集合直接进行分类处理,来确定选定帧集合中是否包含目标对象,并将分类结果作为目标对象的预测结果。
在一种可能的实现方式中,步骤S14也可以包括:
对选定帧集合中的目标对象的进行分类,得到分类结果;
对选定帧集合中的目标对象进行第二分割,得到第二分割结果;以及,
根据分类结果和/或第二分割结果,生成视频帧序列中的目标对象的预测结果。
通过上述公开实施例可以看出,在一种可能的实现方式中,根据选定帧集合进行预测,可以既包含分类,又包含第二分割。其中,分类可以是对选定帧集合中的目标对象的属性进行分类,即判断选定帧集合中是否包含目标对象,或是进一步地,根据选定帧集合中包含目标对象的情况,对视频帧序列反应的情况进行判断,举例来说,在视频帧序列为阴道镜视频帧序列,目标对象包括病灶对象的情况下,分类结果可以是阴道镜视频中是否包含病灶,也可以是直接根据阴道镜视频中的病灶情况,判断是否存在阴道病变等。分类的具体方式在本公开实施例中不做限制,在一种可能的实现方式中,可以通过分类神经网络,对选定帧集合进行处理,从而得到分类结果。分类神经网络的实现方式在本公开实施例中也不做限定,任何可以对图像中的目标对象进行分类的神经网络,均可以作为分类神经网络的实现形式。
判断选定帧集合是否包含目标对象,判断的方式也可以根据实际情况灵活选择,在一种可能的实现方式中,可以直接对选定帧结合进行总体分类,确定选定帧集合整体是否包含目标对象;在一种可能的实现方式中,可以对选定帧集合中的每帧分别进行分类,在超过预设数量(预设数量的值可以根据实际情况灵活设定)的选定帧的分类结果均为包含目标对象的情况下,可以认为选定帧集合包含目标对象。
第二分割可以是上述公开实施例中提到的,基于视频帧序列中选定帧的三维图像,所进行的三维图像分割。第二分割的方式可以与上述公开实施例中提到的第一分割方式相同,也可以不同,具体如何选择可以根据实际情况灵活选择。在一种可能的实现方式中,第一分割可以是对单帧图像进行的二维图像分割,而第二分割则可以是对多帧三维图像所组成的选定帧序列,进行的三维图像分割。在一种可能的实现方式中,第二分割也可以通过分割神经网络来实现,分割神经网络的实现方式可以与第一分割对应的分割神经网络实现方式相同,也可以不同,具体如何选择,可以根据实际情况灵活确定。
在一种可能的实现方式中,还可以通过一个神经网络同时实现对选定帧集合的分类与第二分割,在这种情况下,该神经网络可以具有分类和第二分割两个分支,具体这些分支的结构,以及两个分支所共用的神经网络层的结构,其实现方式同样可以根据实际情况灵活选择,在本公开实施例中不做限定。
在得到分类结果和第二分割结果以后,可以根据分类结果和/或第二分割结果,生成视频帧序列中目标对象的预测结果。其中,在根据分类结果和第二分割结果生成视频帧序列中目标对象的预测结果的情况下,预测结果可以包含两部分:一是视频帧序列中是否包含目标对象,二是目标对象在视频帧序列中各视频帧的具体位置。
通过上述过程,可以利用选定帧集合,进一步进行分类和第二分割,从而更加准确地确定视频帧序列中是否包含有目标对象,以及目标对象的具体位置,从而可以对目标对象进行更好地识别,得到更好的视频处理效果。
在一种可能的实现方式中,步骤S14也可以包括:
对选定帧集合通过至少一种方式进行目标对象的预测,得到至少一个预测子结果;以及,
对至少一个预测子结果进行处理,生成视频帧序列中的目标对象的预测结果。
其中,对选定帧集合通过至少一种方式进行的目标对象的预测,可以是上述公开实施例中提到的分类方式,也可以是上述公开实施例中提到的第二分割方式,或是上述公开实施例中提到的分类与第二分割的组合方式。进一步地,还可以通过不同种类的分类方式、不同种类的分割方式或是不同种类的分类和分割等组合方式,来对选定帧集合进行目标对象的预测。具体选择哪些方式,以及选择方式的数量,在本公开实施例中不做限定。
通过不同的预测方式对选定帧集合进行预测,可以得到分别与各预测方式分别对应的预测子结果。对这些预测子结果进行处理,可以生成最终的预测结果。其中,对预测子结果进行处理的方式在本公开实施例中不做限定,具体可以参考对至少一个第一分割子结果进行处理来得到第一分割结果的方式。在一种可能的实现方式中,对选定帧集合进行的不同方式的预测,也可以通过不同的神经网络进行实现,在这种情况下,不同的神经网络之间也可以进行上述公开实施例中提到的蒸馏、量化或是剪枝等操作,相应地,各神经网络输出的预测子结果,也可以基于其执行的蒸馏、量化或是剪枝等操作类型进行处理,从而得到预测结果。
通过对选定帧集合通过至少一种方式进行预测来得到至少一个预测子结果,并对至少一个预测子结果进行处理,得到预测结果。通过上述过程,可以利用不同的预测方式来综合实现视频帧序列中目标对象的预测,从而提高预测的准确度,继而提升视频处理的精度。
如上述公开实施例中,对目标对象进行预测可以通过神经网络进行实现,因此,在一种可能的实现方式中,步骤S14可以包括:
将选定帧集合输入至少一个第二神经网络,其中,第二神经网络通过第三训练图像集合进行训练,第三训练集合包含目标对象类别标注和/或目标对象第二分割标注。
其中,第二神经网络可以是上述公开实施例中提到的分类网络,也可以是上述公开实施例中提到的第二分割神经网络,或是上述公开实施例中提到的,具有分类和第二分割两个分支的神经网络。
由于第二神经网络实现的是对选定帧集合中目标对象的预测,因此,用于训练第二神经网络的训练图像,也可以是训练图像集合。通过上述公开实施例可以看出,在一种可能的实现方式中,可以通过第三训练图像集合,对第二神经网络进行训练。
其中,第三训练图像集合中包含的训练图像,可以是包含目标对象类别标注和/或目标对象第二分割标注的第三训练图像。其中,目标对象类别标注可以是反映第三训练图像中目标对象所属类别的标注,在一些可能的实现方式中,目标对象类别标注也可以是反映第三训练图像是否包含目标对象的标注;目标对象第二分割标注可以是反映第三训练图像中目标对象位置的标注,具体包含哪些标注,可以根据第二神经网络具体实现的功能来确定。获取目标对象类别标注和/或目标对象第二分割标注的方式在本公开实施例中不做限定,在一种可能的实现方式中,可以是通过专业人员的评判所进行的手动标注;在一种可能的实现方式中,在视频帧序列为阴道镜视频,目标对象为病灶对象的情况下,目标对象类别标注可以通过阴道镜视频所检测的病人的液基薄层细胞检测结果(TCT,Thinprepcytologic test)、组织病理结果以及随访结果中的至少一种,来进行确定。
进一步地,第三训练图像集合中第三训练图像的选定方式,也可以参考上述公开实施例中提到的获取选定帧集合的方式。举例来说,在一种可能的实现方式中,可以将包含上述各类标注的多张第三训练图像,通过训练后的第一神经网络,分别得到每张第三训练图像的第一分割结果,然后从第一分割结果中显示包含目标对象的面积最大的M张第三训练图像中,随机选定N张训练图像,组成第三训练图像集合,用于第二神经网络的训练。如上述公开实施例所述,M和N的数量可以根据实际情况灵活确定,在一个示例中,在上述获取选定帧集合的方式用于训练的情况下,M的取值可以为32,N的取值可以为16;在一种可能的实现方式中,也可以从包含上述各类标注的多张第三训练图像中,直接根据标注确定含有目标对象面积最大的M张第三训练图像,并从这M张训练图像中随机选定N张组成第三训练图像集合。
通过将选定帧集合输入至少一个第二神经网络,且第二神经网络可以通过包含目标对象类别标注和/或目标对象第二分割标注的第三训练图像集合进行训练,通过上述过程,可以利用包含目标对象类别标注和/或目标对象第二分割标注的第三训练图像集合,训练得到具有较好目标对象预测功能的第二神经网络,从而使得预测的结果更加准确,继而提升整个视频处理的精度
应用场景示例
在阴道镜检查时,医生通过光学镜头捕捉到的画面对病人做出诊断,以画面中拍摄到的阴道内部病变区域为依据。由于阴道镜深入患者体内会引发病人不适,该检查通常不能持续太久。如何在短时间内通过阴道镜视频尽快发现病灶,成为目前一个亟待解决的问题。
本公开应用示例提出一种视频处理方法,可以在阴道镜视频检查的过程中,尽快发现病灶。在一个示例中,本公开应用示例中提出的视频处理过程如下:
阴道镜通过在体内移动采集阴道镜视频。采集到的阴道镜视频帧序列可以传输到视频处理装置(比如图像处理器GPU、计算机或是服务器等)中。
视频处理装置在接收到视频帧序列后,可以首先对视频帧序列中的各图像帧,通过第一神经网络进行第一分割,得到第一分割结果。
根据第一分割结果,可以确定与第一分割结果对应的图像帧中,包含的病灶区域的大小,在一个示例中,可以将图像帧中包含病灶区域面积最大的16帧,作为选定帧,并组成选定帧集合。
在得到选定帧集合后,可以将选定帧集合通过第二神经网络,分别进行分类和第二分割,得到分类结果和第二分割结果,作为预测结果。
其中分类结果可以表明选定帧集合是否包含病灶,进一步地,可以表明视频帧序列中是否包含病灶;第二分割结果可以表明选定帧集合中每一图像帧内分割出的病灶区域。分类结果和第二分割结果可以传递给显示界面进行显示,同时显示界面还可以实时显示阴道镜视频当前采集到的视频影像,如果显示界面中显示有病灶以及病灶的位置,医生可以对病灶对应的阴道镜视频进行仔细观察,来详细检查是否真的存在病灶。
在一种可能的实现方式中,第一神经网络可以通过包含病灶分割标注的第一训练图像进行训练,训练的过程可以参考上述各公开实施例,比如可以先利用带有病灶标注的第一训练图像,对初始第一神经网络进行训练,得到中间第一神经网络,再将第一训练图像通过中间第一神经网络得到输出图像,输出图像中各像素点的像素值可以表示该像素点属于病灶区域的概率,然后根据输出图像中各像素点的像素值,对第一训练图像的病灶分割标注进行更新,将第一训练图像中属于病灶区域但是未被标注出的像素点,按照输出图像的像素值进行标注,从而得到第二训练图像。得到的第二训练图像可以对中间第一神经网络进行训练,从而得到训练后的第一神经网络。
第二神经网络可以通过第三训练图像集合进行训练,在一个示例中,可以对一个视频帧序列,取出病灶分割面积最大的头部16个帧,组成[C,H,W,16]的三维图像集合,并以该视频帧序列对应的病人的TCT、组织病理以及随访等结果来进行标注。
通过上述公开应用示例可以看出,在一个示例中,视频处理装置可以包含第一神经网络和第二神经网络,来实现视频的第一分割、分类和第二分割。在一种可能的实现方式中,视频处理装置可以包含多个结构不同的第一神经网络和第二神经网络,这些神经网络可以通过相同或不同的训练数据进行训练后再集成,得到集成模型后,再通过进一步地蒸馏、剪枝或量化部署到视频处理装置中。
需要说明的是,本公开实施例的图像处理方法不限于应用在上述阴道镜视频的处理中,可以应用于任意的视频处理,比如B超或是CT等,本公开对此不作限定。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了图像处理装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种图像处理方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图9示出根据本公开实施例的视频处理装置的框图。该视频处理装置可以为终端设备、服务器或者其他处理设备等。其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal DigitalAssistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。
在一些可能的实现方式中,该视频处理装置可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
如图9所示,所述视频处理装置20可以包括:
视频帧序列获取模块21,用于获取视频帧序列。
第一分割模块22,用于对视频帧序列中的图像帧进行基于目标对象的第一分割,得到视频帧序列的第一分割结果。
选定模块23,用于根据第一分割结果,从视频帧序列中,选定包含目标对象的至少部分图像帧作为选定帧集合。
预测模块24,用于根据选定帧集合,对视频帧序列中的目标对象进行预测,生成预测结果。
在一种可能的实现方式中,第一分割模块用于:从视频帧序列中选定至少一帧图像帧,作为待分割帧;对待分割帧通过至少一种方式进行第一分割,得到待分割帧的至少一个第一分割子结果;对待分割帧的至少一个第一分割子结果进行处理,得到待分割帧的第一分割结果;以及统计至少一帧待分割帧的第一分割结果,作为视频帧序列的第一分割结果。
在一种可能的实现方式中,选定模块用于:根据第一分割结果,确定视频帧序列中包含目标对象的面积最大的N帧图像帧,作为选定帧,其中,N为正整数;以及将选定帧构成的集合作为选定帧集合。
在一种可能的实现方式中,选定模块用于:根据第一分割结果,确定视频帧序列中包含目标对象的面积最大的M帧图像帧,作为选定帧,其中,M为正整数;以及从M帧选定帧中,随机选定N帧构成选定帧集合,N为正整数。
在一种可能的实现方式中,预测模块用于:对选定帧集合中的目标对象进行分类,得到分类结果;对选定帧集合中的目标对象进行第二分割,得到第二分割结果;以及根据分类结果和/或第二分割结果,生成视频帧序列中的目标对象的预测结果。
在一种可能的实现方式中,预测模块用于:对选定帧集合通过至少一种方式进行目标对象的预测,得到至少一个预测子结果;以及对至少一个预测子结果进行处理,生成视频帧序列中的目标对象的预测结果。
在一种可能的实现方式中,第一分割模块用于:将视频帧序列中的至少一帧图像帧输入至少一个第一神经网络,其中,第一神经网络通过第一训练图像进行训练。
在一种可能的实现方式中,第一训练图像包含目标对象第一分割标注,以及通过第一训练图像训练第一神经网络,包括:将第一训练图像输入初始第一神经网络,对初始第一神经网络进行训练,得到中间第一神经网络;将第一训练图像输入中间第一神经网络,根据中间第一神经网络的输出,对目标对象第一分割标注进行更新,得到第二训练图像;将第二训练图像输入中间第一神经网络,对中间第一神经网络进行训练,得到训练后的第一神经网络。
在一种可能的实现方式中,将第一训练图像输入中间第一神经网络,根据中间第一神经网络的输出,对目标对象第一分割标注进行更新,得到第二训练图像,包括:将第一训练图像输入中间第一神经网络,得到中间第一神经网络的输出图像;遍历第一训练图像中的像素点,分别确定被遍历的像素点在第一训练图像中属于目标对象的第一概率,以及在输出图像中属于目标对象的第二概率;将第一概率与第二概率中概率值高的概率作为被遍历的像素点的概率,并基于被遍历的像素点的概率对目标对象第一分割标注进行更新,以得到第二训练图像。
在一种可能的实现方式中,预测模块用于:将选定帧集合输入至少一个第二神经网络,其中,第二神经网络通过第三训练图像集合进行训练,第三训练图像集合包含目标对象类别标注和/或目标对象第二分割标注。
在一种可能的实现方式中,视频帧序列包括阴道镜视频帧序列,目标对象包括病灶对象。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,当计算机可读代码在设备上运行时,设备中的处理器执行用于实现如上任一实施例提供的图像处理方法的指令。
本公开实施例还提供了另一种计算机程序产品,用于存储计算机可读指令,指令被执行时使得计算机执行上述任一实施例提供的图像处理方法的操作。
电子设备可以被提供为终端、服务器或其它形态的设备。
图10示出根据本公开实施例的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图10,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图11示出根据本公开实施例的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图11,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (14)

1.一种视频处理方法,其特征在于,包括:
获取视频帧序列;
对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果;
根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合;以及
根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果,包括:
从所述视频帧序列中选定至少一帧图像帧,作为待分割帧;
对所述待分割帧通过至少一种方式进行第一分割,得到所述待分割帧的至少一个第一分割子结果;
对所述待分割帧的至少一个第一分割子结果进行处理,得到所述待分割帧的第一分割结果;以及
统计至少一帧待分割帧的第一分割结果,作为所述视频帧序列的所述第一分割结果。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合,包括:
根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的N帧图像帧,作为选定帧,其中,N为正整数;以及
将所述选定帧构成的集合作为所述选定帧集合。
4.根据权利要求1或2所述的方法,其特征在于,所述根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合,包括:
根据所述第一分割结果,确定所述视频帧序列中包含所述目标对象的面积最大的M帧图像帧,作为选定帧,其中,M为正整数;以及
从M帧选定帧中,随机选定N帧构成选定帧集合,N为正整数。
5.根据权利要求1至4中任意一项所述的方法,其特征在于,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果,包括:
对所述选定帧集合中的所述目标对象进行分类,得到分类结果;
对所述选定帧集合中的所述目标对象进行第二分割,得到第二分割结果;以及
根据所述分类结果和/或所述第二分割结果,生成所述视频帧序列中的所述目标对象的所述预测结果。
6.根据权利要求1至5中任意一项所述的方法,其特征在于,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果,包括:
对所述选定帧集合通过至少一种方式进行所述目标对象的预测,得到至少一个预测子结果;以及
对所述至少一个预测子结果进行处理,生成所述视频帧序列中的所述目标对象的所述预测结果。
7.根据权利要求1至6中任意一项所述的方法,其特征在于,所述对所述视频帧序列中的图像帧进行基于目标对象的第一分割,包括:
将所述视频帧序列中的至少一帧图像帧输入至少一个第一神经网络,其中,所述第一神经网络通过第一训练图像进行训练。
8.根据权利要求7所述的方法,其特征在于,所述第一训练图像包含目标对象第一分割标注,以及所述通过第一训练图像训练所述第一神经网络,包括:
将所述第一训练图像输入初始第一神经网络,对所述初始第一神经网络进行训练,得到中间第一神经网络;
将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像;
将所述第二训练图像输入中间第一神经网络,对所述中间第一神经网络进行训练,得到训练后的第一神经网络。
9.根据权利要求8所述的方法,其特征在于,所述将所述第一训练图像输入所述中间第一神经网络,根据所述中间第一神经网络的输出,对所述目标对象第一分割标注进行更新,得到第二训练图像,包括:
将所述第一训练图像输入所述中间第一神经网络,得到所述中间第一神经网络的输出图像;
遍历所述第一训练图像中的像素点,分别确定被遍历的像素点在所述第一训练图像中属于所述目标对象的第一概率,以及在所述输出图像中属于所述目标对象的第二概率;
将所述第一概率与第二概率中概率值高的概率作为所述被遍历的像素点的概率,并基于所述被遍历的像素点的概率对所述目标对象第一分割标注进行更新,以得到所述第二训练图像。
10.根据权利要求1至9中任意一项所述的方法,其特征在于,所述根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,包括:
将所述选定帧集合输入至少一个第二神经网络,其中,所述第二神经网络通过第三训练图像集合进行训练,所述第三训练图像集合包含目标对象类别标注和/或目标对象第二分割标注。
11.根据权利要求1至10中任意一项所述的方法,其特征在于,所述视频帧序列包括阴道镜视频帧序列,所述目标对象包括病灶对象。
12.一种视频处理装置,其特征在于,包括:
视频帧序列获取模块,用于获取视频帧序列;
第一分割模块,用于对所述视频帧序列中的图像帧进行基于目标对象的第一分割,得到所述视频帧序列的第一分割结果;
选定模块,用于根据所述第一分割结果,从所述视频帧序列中,选定包含所述目标对象的至少部分图像帧作为选定帧集合;以及
预测模块,用于根据所述选定帧集合,对所述视频帧序列中的所述目标对象进行预测,生成预测结果。
13.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至11中任意一项所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至11中任意一项所述的方法。
CN202110219426.6A 2021-02-26 2021-02-26 视频处理方法及装置、电子设备和存储介质 Withdrawn CN113034437A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110219426.6A CN113034437A (zh) 2021-02-26 2021-02-26 视频处理方法及装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110219426.6A CN113034437A (zh) 2021-02-26 2021-02-26 视频处理方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN113034437A true CN113034437A (zh) 2021-06-25

Family

ID=76461915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110219426.6A Withdrawn CN113034437A (zh) 2021-02-26 2021-02-26 视频处理方法及装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN113034437A (zh)

Similar Documents

Publication Publication Date Title
CN109670397B (zh) 人体骨骼关键点的检测方法、装置、电子设备及存储介质
CN109829920B (zh) 图像处理方法及装置、电子设备和存储介质
US20210326587A1 (en) Human face and hand association detecting method and a device, and storage medium
CN106651955B (zh) 图片中目标物的定位方法及装置
CN111899268B (zh) 图像分割方法及装置、电子设备和存储介质
CN109922372B (zh) 视频数据处理方法及装置、电子设备和存储介质
US20210279473A1 (en) Video processing method and apparatus, electronic device, and storage medium
CN110852325B (zh) 图像的分割方法及装置、电子设备和存储介质
CN111523346A (zh) 图像识别方法及装置、电子设备和存储介质
CN111833344A (zh) 医学图像的处理方法及装置、电子设备和存储介质
CN113139471A (zh) 目标检测方法及装置、电子设备和存储介质
WO2023050690A1 (zh) 图像处理方法、装置、电子设备、存储介质和程序
CN111798498A (zh) 图像处理方法及装置、电子设备和存储介质
CN111724361A (zh) 实时显示病灶的方法及装置、电子设备和存储介质
CN111652107A (zh) 对象计数方法及装置、电子设备和存储介质
CN112613447A (zh) 关键点检测方法及装置、电子设备和存储介质
KR20220012407A (ko) 이미지 분할 방법 및 장치, 전자 기기 및 저장 매체
CN106469446B (zh) 深度图像的分割方法和分割装置
CN115512116A (zh) 图像分割模型优化方法、装置、电子设备及可读存储介质
CN111882527B (zh) 图像处理方法及装置、电子设备和存储介质
CN115457024A (zh) 冷冻电镜图像处理方法、装置、电子设备及存储介质
CN110796630B (zh) 图像处理方法及装置、电子设备和存储介质
CN113034437A (zh) 视频处理方法及装置、电子设备和存储介质
CN115170424A (zh) 一种心脏超声影像伪影去除方法及装置
CN110659726B (zh) 一种图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210625