CN113902760A - 视频分割中物体边缘优化方法、系统、装置及存储介质 - Google Patents
视频分割中物体边缘优化方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN113902760A CN113902760A CN202111216139.6A CN202111216139A CN113902760A CN 113902760 A CN113902760 A CN 113902760A CN 202111216139 A CN202111216139 A CN 202111216139A CN 113902760 A CN113902760 A CN 113902760A
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- segmentation
- edge
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 143
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000005457 optimization Methods 0.000 title claims description 40
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 37
- 230000002452 interceptive effect Effects 0.000 claims abstract description 16
- 238000009432 framing Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 9
- 238000009499 grossing Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 238000012805 post-processing Methods 0.000 abstract description 5
- 230000033001 locomotion Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉技术领域,具体涉及一种视频分割中物体边缘优化方法、系统、装置及存储介质。该方法包括:获取交互式视频分帧处理后的视频帧序列Ii,i=0,...N;通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,...N;根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。本发明是一个交互式视频分割中保持物体边缘时空连续性的后处理方法,能够显著提升物体视频分割任务中,提升物体边缘的时序稳定性,能够在实际中和不同的粗分割算法结合使用,自由度较大。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种视频分割中物体边缘优化方法、系统、装置和存储介质。
背景技术
在交互式视频分割系统中,一般会要求用户在视频关键帧上提供一个比较精确的,待分割物体的mask(掩膜),然后系统用自动算法将后继视频帧中的对应的物体分割出来,如图3所示。专业的视频处理软件提供了很多专业的画图工具(例如样条曲线工具)帮助用户创建关键帧上的mask(掩膜),用这类工具制作的物体掩膜质量一般很高,体现在物体的边缘非常平滑,从前景到背景的过渡非常自然。
但是,目前自动视频物体分割的算法大多聚焦于比较准确的把物体区域分割出来,并未对物体边缘做太多处理。很多算法往往只能产生二值化的物体分割结果。这样自动分割的结果往往存在如下两个很严重的边缘问题:
(1)物体边缘缺乏从前景到背景的渐变,边缘生硬,不整齐,容易产生毛刺现象。
(2)物体边缘在相邻帧之间不一致,缺乏时序一致性,导致分割结果存在边缘闪烁。这种现象尤其在物体或者物体的某个部分静止不动,或者缓慢运动时尤其突出。
由于以上因素的存在,导致目前自动分割视频物体分割的结果很难直接在对物体边缘分割质量较高的应用中,例如影视的后期制作中直接使用。
发明内容
为解决现有技术中视频自动分割的结果中物体边缘容易产生毛刺现象,分割结果存在边缘闪烁的严重边缘问题。本发明提供了一种视频分割中物体边缘优化方法、系统、装置和存储介质,能够显著提升物体分割边缘的时空一致性,大大减少分割边缘的抖动问题,使得分割结果可以用于影视后期制作。
本发明采用以下技术方案实现:
一种视频分割中物体边缘优化方法,包括:
获取交互式视频分帧处理后的视频帧序列Ii,i=0,…N;
通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…N;
根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列mi的物体边缘,得到优化后的物体掩膜m′i。
优选地,所述首帧视频帧的物体掩膜M0由用户输入的掩膜,在进行物体边缘优化时不进行修改。
优选的,所述视频帧序列Ii中物体分割的分割算法为自动视频分割算法,所述自动视频分割算法中,当前视频帧的分割参考给定的首帧视频帧的图像和分割结果以及已分割的多帧视频帧的图像和分割结果。
优选地,逐帧优化所述初始物体掩膜序列Mi的物体边缘的方法,包括:
输入首帧视频帧的图像I0和给定的首帧视频帧掩膜M0;
从第二帧视频帧开始逐帧沿视频帧序列Ii处理;
当处理第i帧视频帧的时候,根据前一帧视频帧的图像Ii-1和和优化后的掩膜M′i-1以及当前帧的图像Ii,以及初始物体掩膜序列Mi进行处理,得到第i帧视频帧优化后掩膜M′i。
进一步的,所述对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi的方法,包括:
获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点的采样,边缘点记为bj,j=1,…,M;
其中,两个相邻边缘点沿着边缘的距离记为d,对于每一个边缘点bj,取一个以所述边缘点bj为中心的图像区域rj,图像区域rj的长度和宽度均为2d。
进一步的,物体边缘的图像区域rj的获取方法为在前一帧视频帧上通过滑窗移动图像区域rj的方式取得匹配框rk。
进一步的,所述滑窗移动用于将一个固定大小的窗口在一个更大范围的搜索区域里面移动,从所述搜索区域的左上角开始,每次将窗口右移一个像素,扫描完一行之后下移一个像素;其中,所述窗口的长宽为2d,所述搜索区域的长宽设为3d。
进一步的,对于每一个所述匹配框rk的位置,计算所述匹配框rk的匹配区域以及图像区域rj,在第i-1帧和第i帧之间的匹配度S(rj,rk),所述匹配度的计算公式为:
S(rj,rk)=a·|It(rj)-It-1(rk))|2+(1-a)·|M′t(rj)-Mt-1(rk))|2
其中,第一项是局部颜色空间相似度,可以在任意常用的颜色空间里面进行运算,比如RGB空间或者YUV空间。第二项是局部掩膜的相似度,在前一帧取优化后的局部掩膜,在当前帧取待优化的局部掩膜。为了使两项具有可比较性,颜色相似度和掩膜相似度均归一化到[0,1]之间。a为[0,1]之间的一个权重系数,在搜索范围内找到S(rj,rk)的最小值,如果S(rj,rk)的最小值小于一个预先定义的阈值,则认为匹配有效。
进一步的,当匹配无效时,重复所述获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点采样的步骤,缩小物体边缘的图像区域rj的长度和宽度,直至满足匹配条件。
进一步的,当匹配有效时,对物体的边缘做两帧视频帧图像之间的融合,在局部区域进行逐像素的线性加权平均,线性加权平均M′i(rj)的计算公式为:
M′i(rj)=(1-b)·Mi(rj)+b·Mt-1(rk)
其中,b为一个插值系数,设置为b=exp(-S(rj,rk)/σ),σ是一个较小的常数,比如0.05;当匹配误差S(rj,rk)越小,约接近0时,b接近于1,融合时前一帧的占比就越大,也就是将前一帧的局部掩膜更多拷贝到当前帧的对应位置,这样时序的稳定性就保持得越好;当匹配误差S(rj,rk)越接近于1时,b越接近于0,则前一帧的局部掩膜不参与当前帧的局部掩膜的修改,因为这个时候局部匹配是不可靠的。
进一步的,当匹配无效时,对Mi(rj)的物体分割边缘进行平滑处理,方法包括:
将Mi(rj)内部的分割边缘点连成曲线,对曲线进行高斯平滑操作,并重新将曲线转化为二值的分割掩膜;这一步主要是使二值化的分割边缘变得更加平滑,减少分割边缘的毛刺现象;
对获得的所述二值的分割掩膜进行图像域的高斯平滑操作,生成从前景到背景渐变的掩膜,也就是图像处理中对二值化分割结果的羽化操作。
进一步的,每个边缘点bj为中心的图像区域rj,均为单独进行的操作。
本发明还包括一种视频分割中物体边缘优化系统,所述视频分割中物体边缘优化系统采用前述视频分割中物体边缘优化方法实现物体分割边缘的时空一致性,减少抖动产生的毛刺现象及边缘闪烁;所述视频分割中物体边缘优化系统包括:
视频分帧处理模块,用于将获取的交互式视频进行分帧处理后得到视频帧序列Ii,i=0,…N;
物体分割模块,用于通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…N;
物体边缘优化模块,用于根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
本发明还包括一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现视频分割中物体边缘优化方法的步骤。
本发明还包括一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现视频分割中物体边缘优化方法的步骤。
本发明提供的技术方案,具有如下有益效果:
本发明能够显著提升物体视频分割任务中,提升物体边缘的时序稳定性。本发明考虑到了人眼的视觉特性,只是对于局部静止或者缓慢运动的边缘区域进行比较强的时域融合,因此既能在这些区域显著提升时域稳定性,又能避免在运动剧烈的区域进行错误的时域融合而产生新的瑕疵。同时,本发明是一个交互式视频分割中保持物体边缘时空连续性的后处理方法,能够在实际中和不同的粗分割算法结合使用,自由度较大。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例1的一种视频分割中物体边缘优化方法的流程图。
图2为本发明实施例1的一种视频分割中物体边缘优化方法中逐帧优化物体边缘的流程图。
图3为本发明实施例1的一种视频分割中物体边缘优化方法中视频第一帧视频帧的局部示意图。
图4为图3中视频分割中物体边缘优化方法中用户提供的第一帧分割结果的示意图。
图5为本发明实施例1的一种视频分割中物体边缘优化方法中视频第二帧视频帧的相同位置,人物有轻微运动的局部示意图。
图6为图5中视频分割中物体边缘优化方法中自动计算的第二帧分割结果的示意图。
图7本发明实施例1的一种视频分割中物体边缘优化方法中经过优化后的第二帧视频帧的分割结果示意图。
图8本发明实施例1的一种视频分割中物体边缘优化方法中第i-1帧分割结果的滑窗搜索区域和匹配区域rk的示意图。
图9本发明实施例1的一种视频分割中物体边缘优化方法中第i帧分割结果的当前区域rj的示意图。
图10本发明实施例2的一种视频分割中物体边缘优化系统的系统框图。
图11为本发明实施例3提供的一种计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供的一种视频分割中物体边缘优化方法、系统、装置及存储介质,针对图元绘制、场景布置类常用交互中,场景规模较大情况下,视频自动分割的结果中物体边缘容易产生毛刺现象,分割结果存在边缘闪烁的严重边缘问题,本发明可以作为一个算法工具,用于交互式的视频图像分割系统中,用以提升物体分割的边缘稳定性,减少用户交互,满足影视后期制作对于分割边缘的要求,以下将结合具体实施例加以说明。
实施例1
如图1所示,本实施例提供一种视频分割中物体边缘优化方法,该方法包括如下步骤:
S1、获取交互式视频分帧处理后的视频帧序列Ii,i=0,…N。
在本实施例中,所述交互式视频在分帧处理后,得到的视频帧按照时间戳进行排序,生成视频帧序列,标记为Ii,i=0,…N。
S2、通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…N。
在本实施例中,所述视频帧序列Ii中物体分割的分割算法为自动视频分割算法。自动分割算法有很多种。传统方法是逐帧传播的,也就是给定首帧掩膜,自动计算第二帧掩膜,然后把第二帧掩膜作为算法输入,再计算第三帧掩膜。代表性的算法为中的算法。在本实施例中,所述自动视频分割算法中,当前视频帧的分割参考给定的首帧视频帧的图像和分割结果以及已分割的多帧视频帧的图像和分割结果。
在本发明实施例中,不限于具体使用哪种初始分割方法。例如,将图5的视频帧采用自动分割算法产生的结果如图6所示,可以看到这样的结果对大致的物体分割还是比较准确的,但是边缘质量很差,本发明的目的就是改进粗分割结果的物体边缘。
S3、根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
在本实施例中,所述首帧视频帧的物体掩膜M0由用户输入的掩膜,在进行物体边缘优化时不进行修改。其中,首帧视频帧的高精度物体掩膜为用户给定,记为M0,其采用自动分割算法产生的结果如图4所示,其是采用如图3所示的视频帧进行采用自动分割算法完成物体分割。
在本实施例中,逐帧优化所述初始物体掩膜序列Mi的物体边缘的方法,包括:
S301、输入首帧视频帧的图像I0和给定的首帧视频帧掩膜M0;
S302、从第二帧视频帧开始逐帧沿视频帧序列Ii处理;
S303、当处理第i帧视频帧的时候,根据前一帧视频帧的图像Ii-1和和优化后的掩膜M′i-1以及当前帧的图像Ii,以及初始物体掩膜序列Mi进行处理,得到第i帧视频帧优化后掩膜M′i。
在本实施例中,从第二帧起,逐帧进行优化掩膜Mi的物体边缘,得到优化后的物体掩膜M′i,参见图7所示。从第二帧开始是因为首帧的mask(掩膜)是用户给定的,不进行修改。对于第二帧,其输入为首帧的图像I0和用户给定的首帧掩膜M0。因为是逐帧往后处理,处理第i帧的时候,其输入为:前一帧的图像Ii-1(参考图3所示)和优化后的掩膜M′i-1(参考图4所示),以及当前帧的图像Ii(参考图5所示)以及初始物体掩膜序列Mi(参考图6所示)。具体步骤如下:
所述对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi的方法,包括:
获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点的采样,边缘点记为bj,j=1,…,M;
其中,两个相邻边缘点沿着边缘的距离记为d,对于每一个边缘点bj,取一个以所述边缘点bj为中心的图像区域rj,图像区域rj的长度和宽度均为2d。
在本实施例中,对初始物体掩膜序列Mi提取物体边缘,沿着物体的边缘进行等距离边缘点的采样,记为bj,j=1,…,M。这里两个相邻边缘点沿着边缘的距离记为d,这是一个事先定义的值。对于每一个边缘点bj,取一个以其为中心的图像区域rj,rj的长度和宽度均为2d。
其中,所述物体边缘的图像区域rj的获取方法为在前一帧视频帧上通过滑窗移动图像区域rj的方式取得匹配框rk。其中,所述滑窗移动是图像处理里面的一个常见操作,所述滑窗移动用于将一个固定大小的窗口在一个更大范围的搜索区域里面移动,从所述搜索区域的左上角开始,每次将窗口右移一个像素,扫描完一行之后下移一个像素;其中,所述窗口的长宽为2d,所述搜索区域的长宽设为3d,如图8和图9所示,其中,图8中位于外圈的矩形框表示滑窗搜索区域,位于内圈的矩形框表示匹配区域rk;图9中矩形框表示当前区域rj,圆点表示当前边缘采样点bj。
在本实施例中,对于每一个所述匹配框rk的位置,计算所述匹配框rk的匹配区域以及图像区域rj,在第i-1帧和第i帧之间的匹配度S(rj,rk),所述匹配度的计算公式为:
S(rj,rk)=a·|It(rj)-It-1(rk))|2+(1-a)·|M′t(rj)-Mt-1(rk))|2
其中,第一项是局部颜色空间相似度,可以在任意常用的颜色空间里面进行运算,比如RGB空间或者YUV空间。第二项是局部掩膜的相似度,在前一帧取优化后的局部掩膜,在当前帧取待优化的局部掩膜。为了使两项具有可比较性,颜色相似度和掩膜相似度均归一化到[0,1]之间。a为[0,1]之间的一个权重系数,在搜索范围内找到S(rj,rk)的最小值,如果S(rj,rk)的最小值小于一个预先定义的阈值,则认为匹配有效。
如果无法找到有效匹配或当匹配无效时,重复所述获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点采样的步骤,缩小物体边缘的图像区域rj的长度和宽度(例如长宽均为d),重新再实施物体边缘的图像区域rj的获取方法为在前一帧视频帧上通过滑窗移动图像区域rj的方式取得匹配框rk的搜索过程。因为搜索框变小,更容易找到满足条件的匹配,直至满足匹配条件。这样处理能够更好的应对物体边缘可能产生的局部形变。
在本实施例中,如果找到有效匹配,说明物体局部边缘的运动和变化都比较小,这个时候需要对边缘做一个两帧之间的融合,也就是两帧图像之间,在局部区域进行逐像素的线性加权平均,来提升局部边缘的时序稳定性。
因此,当匹配有效时,对物体的边缘做两帧视频帧图像之间的融合,在局部区域进行逐像素的线性加权平均,线性加权平均M′i(rj)的计算公式为:
M′i(rj)=(1-b)·Mi(rj)+b·Mt-1(rk)
其中,b为一个插值系数,设置为b=exp(-S(rj,rk)/σ),σ是一个较小的常数,比如0.05;当匹配误差S(rj,rk)越小,约接近0时,b接近于1,融合时前一帧的占比就越大,也就是将前一帧的局部掩膜更多拷贝到当前帧的对应位置,这样时序的稳定性就保持得越好;当匹配误差S(rj,rk)越接近于1时,b越接近于0,则前一帧的局部掩膜不参与当前帧的局部掩膜的修改,因为这个时候局部匹配是不可靠的。
在本实施例中,如果没有找到有效匹配,说明物体局部的运动和形变比较大,这个时候时序平滑性的要求变弱,空域平滑性要求变强,因此需要对Mi(rj)的物体分割边缘进行平滑。
因此,当匹配无效时,对Mi(rj)的物体分割边缘进行平滑处理,方法包括:
将Mi(rj)内部的分割边缘点连成曲线,对曲线进行高斯平滑操作,并重新将曲线转化为二值的分割掩膜,这一步主要是使二值化的分割边缘变得更加平滑,减少分割边缘的毛刺现象;
对获得的所述二值的分割掩膜进行图像域的高斯平滑操作,生成从前景到背景渐变的掩膜,也就是图像处理中对二值化分割结果的羽化操作。
在本实施例中,每个边缘点bj为中心的图像区域rj,均为单独进行的操作。对于每个物体边缘窗口rj单独进行的操作。实际中相邻窗口之间是有重叠的,对于一个掩膜边缘的像素,如果它被多个窗口覆盖,那么最终它的值是其参与多个窗口运算结果的一个线性加权平均,每个窗口的权重和这个像素到其窗口中心的距离成正比。
本实施例能够显著提升物体视频分割任务中,提升物体边缘的时序稳定性。本发明考虑到了人眼的视觉特性,只是对于局部静止或者缓慢运动的边缘区域进行比较强的时域融合,因此既能在这些区域显著提升时域稳定性,又能避免在运动剧烈的区域进行错误的时域融合而产生新的瑕疵。同时,本发明是一个交互式视频分割中保持物体边缘时空连续性的后处理方法,能够在实际中和不同的粗分割算法结合使用,自由度较大。
实施例2
如图10所示,在本发明的实施例中提供了一种视频分割中物体边缘优化系统包括视频分帧处理模块11、物体分割模块12以及物体边缘优化模块13。
所述视频分帧处理模块11,用于将获取的交互式视频进行分帧处理后得到视频帧序列Ii,i=0,…N;在交互式视频在分帧处理后,得到的视频帧按照时间戳进行排序,生成视频帧序列。
所述物体分割模块12,用于通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…N。所述视频帧序列Ii中物体分割的分割算法为自动视频分割算法。在分割时,即可以采用逐帧传播的方法进行自动视频分割,也就是给定首帧掩膜,自动计算第二帧掩膜,然后把第二帧掩膜作为算法输入,再计算第三帧掩膜。代表性的算法为中的算法。也可以采用当前视频帧的分割参考给定的首帧视频帧的图像和分割结果以及已分割的多帧视频帧的图像和分割结果,本发明的目的就是改进粗分割结果的物体边缘,不限于具体使用哪种初始分割方法。
所述物体边缘优化模块13用于根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
其中,逐帧优化所述初始物体掩膜序列Mi的物体边缘时,第二帧,其输入为首帧的图像I0和用户给定的首帧掩膜M0。通过输入首帧视频帧的图像I0和给定的首帧视频帧掩膜M0;从第二帧视频帧开始逐帧沿视频帧序列Ii处理。当处理第i帧视频帧的时候,根据前一帧视频帧的图像Ii-1和和优化后的掩膜M′i-1以及当前帧的图像Ii,以及初始物体掩膜序列Mi进行处理,得到第i帧视频帧优化后掩膜M′i。
对于物体边缘的图像区域rj的获取方法为在前一帧视频帧上通过滑窗移动图像区域rj的方式取得匹配框rk,计算所述匹配框rk的匹配区域以及图像区域rj,在第i-1帧和第i帧之间的匹配度,所述匹配度的计算公式为:
S(rj,rk)=a·|It(rj)-It-1(rk))|2+(1-a)·|M′t(rj)-Mt-1(rk))|2
其中,第一项是局部颜色空间相似度,可以在任意常用的颜色空间里面进行运算,比如RGB空间或者YUV空间。第二项是局部掩膜的相似度,在前一帧取优化后的局部掩膜,在当前帧取待优化的局部掩膜。为了使两项具有可比较性,颜色相似度和掩膜相似度均归一化到[0,1]之间。a为[0,1]之间的一个权重系数,在搜索范围内找到S(rj,rk)的最小值,如果S(rj,rk)的最小值小于一个预先定义的阈值,则认为匹配有效。
其中,视频分割中物体边缘优化系统在执行时采用如前述的一种视频分割中物体边缘优化方法的步骤,因此,本实施例中对视频分割中物体边缘优化系统的运行过程不再详细介绍。
实施例3
请参阅图11,图11示出了本申请实施例提供的计算机设备的结构示意图,在本发明的实施例中提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例1中的步骤:
获取交互式视频分帧处理后的视频帧序列Ii,i=0,…N;
通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…N;
根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
如图11所示,本实施例中,该计算机设备100可以为智能手机或平板电脑。计算机设备100可以包括RF(Radio Frequency,射频)电路110、包括有一个或一个以上(图中仅示出一个)计算机可读存储介质的存储器120、输入单元130、显示单元140、传感器150、音频电路160、传输模块170、包括有一个或者一个以上(图中仅示出一个)处理核心的处理器180以及电源190等部件。本领域技术人员可以理解,图11中示出的计算机设备100结构并不构成对计算机设备100的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路110用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯。RF电路110可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。RF电路110可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。
存储器120可用于存储软件程序以及模块,如上述实施例中视频分割中物体边缘优化方法对应的程序指令/模块,处理器180通过运行存储在存储器120内的软件程序以及模块,从而执行各种功能应用以及数据处理,可以根据计算机设备所处的当前场景来自动选择振动提醒模式来进行视频分割中物体边缘优化,既能够保证会议等场景不被打扰,又能保证用户可以感知来电,提升了计算机设备的智能性。存储器120可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器120可进一步包括相对于处理器180远程设置的存储器,这些远程存储器可以通过网络连接至计算机设备100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入单元130可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元130可包括触敏表面131以及其他输入设备132。触敏表面131,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面131上或在触敏表面131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触采样点,再送给处理器180,并能接收处理器180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面131。除了触敏表面131,输入单元130还可以包括其他输入设备132。具体地,其他输入设备132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元140可用于显示由用户输入的信息或提供给用户的信息以及计算机设备100的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元140可包括显示面板141,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板141。进一步的,触敏表面131可覆盖显示面板141,当触敏表面131检测到在其上或附近的触摸操作后,传送给处理器180以确定触摸事件的类型,随后处理器180根据触摸事件的类型在显示面板141上提供相应的视觉输出。虽然在图11中,触敏表面131与显示面板141是作为两个独立的部件来实现输入和输出功能,但是在某些实施例中,可以将触敏表面131与显示面板141集成而实现输入和输出功能。
计算机设备100还可包括至少一种传感器150,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板141的亮度,接近传感器可在计算机设备100移动到耳边时,关闭显示面板141和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于计算机设备100还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路160、扬声器161,传声器162可提供用户与计算机设备100之间的音频接口。音频电路160可将接收到的音频数据转换后的电信号,传输到扬声器161,由扬声器161转换为声音信号输出;另一方面,传声器162将收集的声音信号转换为电信号,由音频电路160接收后转换为音频数据,再将音频数据输出处理器180处理后,经RF电路110以发送给比如另一终端,或者将音频数据输出至存储器120以便进一步处理。音频电路160还可能包括耳塞插孔,以提供外设耳机与计算机设备100的通信。
计算机设备100通过传输模块170(例如Wi-Fi模块)可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了传输模块170,但是可以理解的是,其并不属于计算机设备100的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器180是计算机设备100的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器120内的软件程序和/或模块,以及调用存储在存储器120内的数据,执行计算机设备100的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器180可包括一个或多个处理核心;在一些实施例中,处理器180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器180中。
计算机设备100还包括给各个部件供电的电源190,在一些实施例中,电源可以通过电源管理系统与处理器180逻辑相连,从而通过电源管理系统实现管理放电、以及功耗管理等功能。电源190还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
实施例4
在本发明的实施例中提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤:
获取交互式视频分帧处理后的视频帧序列Ii,i=0,…N;
通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,…M;
根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
需要说明的是,对本申请所述视频分割中物体边缘优化方法而言,本领域普通测试人员可以理解实现本申请实施例所述视频分割中物体边缘优化方法的全部或部分流程,是可以通过计算机程序来控制相关的硬件来完成,所述计算机程序可存储于一计算机可读存储介质中,如存储在计算机设备的存储器中,并被该计算机设备内的至少一个处理器执行,在执行过程中可包括如所述视频分割中物体边缘优化方法的实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)等。
对本申请实施例的所述视频分割中物体边缘优化装置而言,其各功能模块可以集成在一个处理芯片中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中,所述存储介质譬如为只读存储器,磁盘或光盘等
综上所述,本发明能够显著提升物体视频分割任务中,提升物体边缘的时序稳定性。本发明考虑到了人眼的视觉特性,只是对于局部静止或者缓慢运动的边缘区域进行比较强的时域融合,因此既能在这些区域显著提升时域稳定性,又能避免在运动剧烈的区域进行错误的时域融合而产生新的瑕疵。同时,本发明是一个交互式视频分割中保持物体边缘时空连续性的后处理方法,能够在实际中和不同的粗分割算法结合使用,自由度较大。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视频分割中物体边缘优化方法;其特征在于,该视频分割中物体边缘优化方法包括:
获取交互式视频分帧处理后的视频帧序列Ii,i=0,...N;
通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,...N;
根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
2.如权利要求1所述的视频分割中物体边缘优化方法,其特征在于:所述视频帧序列Ii中物体分割的分割算法为自动视频分割算法,所述自动视频分割算法中,当前视频帧的分割参考给定的首帧视频帧的图像和分割结果以及已分割的多帧视频帧的图像和分割结果。
3.如权利要求2所述的视频分割中物体边缘优化方法,其特征在于:所述逐帧优化所述初始物体掩膜序列Mi的物体边缘的方法,包括:
输入首帧视频帧的图像I0和给定的首帧视频帧掩膜M0;
从第二帧视频帧开始逐帧沿视频帧序列Ii处理;
当处理第i帧视频帧的时候,根据前一帧视频帧的图像Ii-1和和优化后的掩膜M′i-1以及当前帧的图像Ii,以及初始物体掩膜序列Mi进行处理,得到第i帧视频帧优化后掩膜M′i。
4.如权利要求3所述的视频分割中物体边缘优化方法,其特征在于:所述对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi的方法,包括:
获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点的采样,边缘点记为bj,j=1,...,M;
其中,两个相邻边缘点沿着边缘的距离记为d,对于每一个边缘点bj,取一个以所述边缘点bj为中心的图像区域rj,图像区域rj的长度和宽度均为2d。
5.如权利要求4所述的视频分割中物体边缘优化方法,其特征在于:所述物体边缘的图像区域rj的获取方法为在前一帧视频帧上通过滑窗移动图像区域rj的方式取得匹配框rk。
6.如权利要求5所述的视频分割中物体边缘优化方法,其特征在于:对于每一个所述匹配框rk的位置,计算所述匹配框rk的匹配区域以及图像区域rj,在第i-1帧和第i帧之间的匹配度S(rj,rk),所述匹配度的计算公式为:
S(rj,rk)=a·|It(rj)-It-1(rk))|2+(1-a)·|M′t(rj)-Mt-1(rk))|2
其中,第一项是局部颜色空间相似度,第二项是局部掩膜的相似度,在前一帧取优化后的局部掩膜,在当前帧取待优化的局部掩膜,为了使第一项和第二项具有可比较性,颜色相似度和掩膜相似度均归一化到[0,1]之间;其中,a为[0,1]之间的一个权重系数,在搜索范围内找到S(rj,rk)的最小值,如果S(rj,rk)的最小值小于一个预先定义的阈值,则认为匹配有效;
当匹配无效时,重复所述获取视频帧序列中第i帧视频帧的图像Ii,沿着所述图像Ii中物体的边缘进行等距离边缘点采样的步骤,缩小物体边缘的图像区域rj的长度和宽度,直至满足匹配条件。
7.如权利要求6所述的视频分割中物体边缘优化方法,其特征在于:当匹配有效时,对物体的边缘做两帧视频帧图像之间的融合,在局部区域进行逐像素的线性加权平均,线性加权平均的计算公式为:
M′i(rj)=(1-b)·Mi(rj)+b·Mt-1(rk)
其中,b为一个插值系数,设置为b=exp(-S(rj,rk)/σ),σ是一个较小的常数;当匹配误差S(rj,rk)越小,约接近0时,b接近于1,融合时前一帧的占比就越大,即将前一帧的局部掩膜更多的拷贝到当前帧的对应位置,时序的稳定性就保持得越好;当匹配误差S(rj,rk)越接近于1时,b越接近于0,则前一帧的局部掩膜不参与当前帧的局部掩膜的修改;
当匹配无效时,对Mi(rj)的物体分割边缘进行平滑处理,方法包括:
将Mi(rj)内部的分割边缘点连成曲线,对曲线进行高斯平滑操作,并重新将曲线转化为二值的分割掩膜;
对获得的所述二值的分割掩膜进行图像域的高斯平滑操作,生成从前景到背景渐变的掩膜。
8.一种视频分割中物体边缘优化系统,其特征在于:所述视频分割中物体边缘优化系统采用权利要求1-7中任意一项所述视频分割中物体边缘优化方法实现物体分割边缘的时空一致性,减少抖动产生的毛刺现象及边缘闪烁;所述视频分割中物体边缘优化系统包括:
视频分帧处理模块,用于将获取的交互式视频进行分帧处理后得到视频帧序列Ii,i=0,...N;
物体分割模块,用于通过分割算法对视频帧序列Ii中物体分割,得到初始物体掩膜序列Mi,i=1,...N;
物体边缘优化模块,用于根据给定的首帧视频帧的物体掩膜M0,从第二帧视频帧起,逐帧优化所述初始物体掩膜序列Mi的物体边缘,得到优化后的物体掩膜M′i。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111216139.6A CN113902760B (zh) | 2021-10-19 | 2021-10-19 | 视频分割中物体边缘优化方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111216139.6A CN113902760B (zh) | 2021-10-19 | 2021-10-19 | 视频分割中物体边缘优化方法、系统、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113902760A true CN113902760A (zh) | 2022-01-07 |
CN113902760B CN113902760B (zh) | 2022-05-17 |
Family
ID=79193003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111216139.6A Active CN113902760B (zh) | 2021-10-19 | 2021-10-19 | 视频分割中物体边缘优化方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113902760B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933687A (zh) * | 2015-07-09 | 2015-09-23 | 武汉大学 | 一种考虑变化区域的接缝线多尺度羽化算法 |
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
US20170295372A1 (en) * | 2016-04-06 | 2017-10-12 | Intel Corporation | Method and system of video coding using an image data correction mask |
CN108805898A (zh) * | 2018-05-31 | 2018-11-13 | 北京字节跳动网络技术有限公司 | 视频图像处理方法和装置 |
CN109146772A (zh) * | 2018-08-03 | 2019-01-04 | 深圳市飘飘宝贝有限公司 | 一种图片处理方法、终端和计算机可读存储介质 |
CN110517246A (zh) * | 2019-08-23 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111105382A (zh) * | 2019-12-31 | 2020-05-05 | 北京大学 | 视频修复方法 |
CN111464834A (zh) * | 2020-04-07 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种视频帧处理方法、装置、计算设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574837A (zh) * | 2014-10-13 | 2016-05-11 | Tcl集团股份有限公司 | 一种图像相似性匹配方法及装置 |
CN108596940B (zh) * | 2018-04-12 | 2021-03-30 | 北京京东尚科信息技术有限公司 | 一种视频分割方法和装置 |
CN110866480B (zh) * | 2019-11-07 | 2021-09-17 | 浙江大华技术股份有限公司 | 对象的跟踪方法及装置、存储介质、电子装置 |
CN112487974A (zh) * | 2020-11-30 | 2021-03-12 | 叠境数字科技(上海)有限公司 | 视频流多人分割方法、系统、芯片及介质 |
-
2021
- 2021-10-19 CN CN202111216139.6A patent/CN113902760B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933687A (zh) * | 2015-07-09 | 2015-09-23 | 武汉大学 | 一种考虑变化区域的接缝线多尺度羽化算法 |
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
US20170295372A1 (en) * | 2016-04-06 | 2017-10-12 | Intel Corporation | Method and system of video coding using an image data correction mask |
CN108805898A (zh) * | 2018-05-31 | 2018-11-13 | 北京字节跳动网络技术有限公司 | 视频图像处理方法和装置 |
CN109146772A (zh) * | 2018-08-03 | 2019-01-04 | 深圳市飘飘宝贝有限公司 | 一种图片处理方法、终端和计算机可读存储介质 |
CN110517246A (zh) * | 2019-08-23 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111105382A (zh) * | 2019-12-31 | 2020-05-05 | 北京大学 | 视频修复方法 |
CN111464834A (zh) * | 2020-04-07 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种视频帧处理方法、装置、计算设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113902760B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107230182B (zh) | 一种图像的处理方法、装置以及存储介质 | |
CN110163806B (zh) | 一种图像处理方法、装置以及存储介质 | |
CN108076290B (zh) | 一种图像处理方法及移动终端 | |
CN109743504B (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN112529784B (zh) | 图像畸变校正方法及装置 | |
WO2022166765A1 (zh) | 图像处理方法、移动终端及存储介质 | |
US20130279763A1 (en) | Method and apparatus for providing a mechanism for gesture recognition | |
CN109462745B (zh) | 一种白平衡处理方法及移动终端 | |
CN112669197A (zh) | 图像处理方法、装置、移动终端及存储介质 | |
CN108776822B (zh) | 目标区域检测方法、装置、终端及存储介质 | |
CN105704369A (zh) | 一种信息处理方法及装置、电子设备 | |
CN108156374A (zh) | 一种图像处理方法、终端及可读存储介质 | |
CN111031253A (zh) | 一种拍摄方法及电子设备 | |
CN110908517B (zh) | 图像编辑方法、装置、电子设备及介质 | |
CN109639981B (zh) | 一种图像拍摄方法及移动终端 | |
CN113255396A (zh) | 图像处理模型的训练方法及装置、图像处理方法及装置 | |
US11006108B2 (en) | Image processing apparatus, method for processing image and computer-readable recording medium | |
WO2021185142A1 (zh) | 图像处理方法、电子设备及存储介质 | |
CN112598678A (zh) | 一种图像处理方法、终端及计算机可读存储介质 | |
CN110930372B (zh) | 一种图像处理方法、电子设备及计算机可读存储介质 | |
CN113902760B (zh) | 视频分割中物体边缘优化方法、系统、装置及存储介质 | |
WO2023108444A1 (zh) | 图像处理方法、智能终端及存储介质 | |
CN108198195B (zh) | 一种对焦的方法、终端及计算机可读存储介质 | |
US20220086357A1 (en) | Video recording method and terminal | |
CN114333001A (zh) | 图像处理方法、智能终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: A1-603, Building A, Kexing Science Park, No. 15 Keyuan Road, Science Park Community, Yuehai Street, Nanshan District, Shenzhen City, Guangdong Province, 518035 Patentee after: Shenzhen 666 Network Service Co.,Ltd. Address before: 518000 a1-603, building a, Kexing Science Park, No. 15, Keyuan Road, Science Park community, Yuehai street, Nanshan District, Shenzhen, Guangdong Patentee before: SHENZHEN PIAOPIAO BAOBEI CO.,LTD. |
|
CP03 | Change of name, title or address |