WO2020034672A1 - 一种确定图像中用户的感兴趣区域的方法及装置 - Google Patents
一种确定图像中用户的感兴趣区域的方法及装置 Download PDFInfo
- Publication number
- WO2020034672A1 WO2020034672A1 PCT/CN2019/086369 CN2019086369W WO2020034672A1 WO 2020034672 A1 WO2020034672 A1 WO 2020034672A1 CN 2019086369 W CN2019086369 W CN 2019086369W WO 2020034672 A1 WO2020034672 A1 WO 2020034672A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- identified
- region
- target
- target object
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Abstract
本申请公开了一种确定图像中用户的感兴趣区域的方法及装置,包括:获取携带有表征目标对象的轮廓的标签的待识别图像,至少基于所述待识别图像获得感兴趣区域确定模型;获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。由此可见,利用本申请实施例提供的确定图像中用户的感兴趣区域的方法及装置,可以根据携带有表征目标对象的轮廓的标签的待识别图像,获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出目标图像中的目标对象,无需人工确定目标图像中目标对象所在的区域,节省了人力,提高了确定目标对象的准确率。
Description
本申请涉及领域图像识别领域,特别是涉及一种确定图像中用户的感兴趣区域的方法及装置。
在一些场景中,可能需要确定用户的感兴趣区域。例如,确定某一视频图像中用户是否对飞鸟所在的区域感兴趣,因此,可以统计用户关注飞鸟的次数,从而确定用户是否对飞鸟所在的区域感兴趣。
目前,统计一个视频图像中用户注视飞鸟的次数,需要人工进行操作,将视频图像划分成一帧一帧的图像,确定出每一帧图像中飞鸟所在的区域,并相应的判断用户的注视点是否在飞鸟所在的区域。采用人工统计的方式,需要人工确定每一帧图像中飞鸟所在的区域,一方面耗费人力,另一方面,确定飞鸟所在的区域的准确性取决于人工统计过程中,统计人员的专注度。
也就是说,采用传统的人工统计确定用户的感兴趣区域,不仅耗费人力,而且准确度低。
发明内容
本申请至少部分实施例提供了一种确定图像中用户的感兴趣区域的方法及装置,以至少部分地解决相关技术中如何准确快速的确定图像中用户的感兴趣区域的问题。
在本申请其中一实施例中,提供了一种确定图像中用户的感兴趣区域的方法,包括:
获取携带有表征目标对象的轮廓的标签的待识别图像;
至少基于所述待识别图像获得感兴趣区域确定模型;
获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
可选的,所述目标图像和所述待识别图像为同一视频中的图像。
可选的,在至少基于所述待识别图像获得所述感兴趣区域确定模型之前,还包括:
对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像;
所述基于所述待识别图像获得感兴趣区域确定模型,包括:
基于所述待识别图像和所述处理后待识别图像,获得所述感兴趣区域确定模型。
可选的,所述对所述待识别图像进行处理,包括以下任意一项或多项:
改变所述待识别图像的亮度、增加所述待识别图像的噪声、对所述待识别图像进行翻转、对所述待识别图像进行裁剪和对所述待识别图像进行缩放。
可选的,所述待识别图像包括:
在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
可选的,所述方法还包括:
获取用户的注视点;
若所述注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值;
其中,所述目标区域为所述目标图像中,所述目标对象的轮廓内的区域。
在本申请其中一实施例中,还提供了一种确定图像中用户的感兴趣区域的装置,包括:
第一获取单元,设置为获取携带有表征目标对象的轮廓的标签的待识别图像;
模型获得单元,设置为至少基于所述待识别图像获得感兴趣区域确定模型;
确定单元,设置为获取目标图像,将所述目标图像输入所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
可选的,所述目标图像和所述待识别图像为同一视频中的图像。
可选的,所述装置还包括:
处理单元,设置为对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像;
所述模型获得单元,设置为:
基于所述待识别图像和所述处理后的待识别图像,获得所述感兴趣区域确定模型。
可选的,所述对所述待识别图像进行处理,包括以下任意一项或多项:
改变所述待识别图像的亮度、增加所述待识别图像的噪声、对所述待识别图像进行翻转、对所述待识别图像进行裁剪和对所述待识别图像进行缩放。
可选的,所述待识别图像包括:
在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
可选的,所述装置还包括:
第二获取单元,设置为获取用户的注视点;
关注指标增加单元,设置为若所述注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值;
其中,所述目标区域为所述目标图像中,所述目标对象的轮廓内的区域。
与相关技术相比,本申请至少部分实施例具有以下优点:
采用本申请其中一实施例提供的确定图像中用户的感兴趣区域的方法,获取携带有表征目标对象的轮廓的标签的待识别图像,至少基于所述待识别图像获得感兴趣区域确定模型;获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型得到所述目标图像中用于表征所述目标对象的轮廓的像素点。由此可见,利用上述确定图像中用户的感兴趣区域的方法,可以根据携带有表征目标对象的轮廓的标签的待识别图像,获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出目标图像中的目标对象,无需人工确定目标图像中目标对象所在的区域,节省了人力,提高了确定目标对象的准确率。
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请其中一实施例的一种确定图像中用户的感兴趣区域的方法的流程图。
图2是根据本申请其中一示例性实施例的一种确定用户对所述目标对象的关注程度的方法的流程图。
图3是根据本申请其中一实施例的另一种确定图像中用户的感兴趣区域的方法的流程图。
图4是根据本申请其中一实施例的一种确定图像中用户的感兴趣区域的装置的结构框图。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
目前,在一些场景中,可能需要确定用户的感兴趣区域。例如,确定某一视频图像中用户是否对飞鸟所在的区域感兴趣,因此,可以统计用户关注飞鸟的次数,从而确定用户是否对飞鸟所在的区域感兴趣。
通常,统计一个视频图像中用户注视飞鸟的次数,需要人工进行操作,将视频图像划分成一帧一帧的图像,确定出每一帧图像中飞鸟所在的区域,并相应的判断用户的注视点是否在飞鸟所在的区域。采用人工统计的方式,需要人工确定每一帧图像中飞鸟所在的区域,一方面耗费人力,另一方面,确定飞鸟所在的区域的准确性取决于人工统计过程中,统计人员的专注度。
也就是说,采用传统的人工统计确定用户的感兴趣区域,不仅耗费人力,而且准确度低。
为了解决上述问题,本申请其中一实施例提供一种确定图像中用户的感兴趣区域的方法及装置,该方法包括:获取携带有表征目标对象的轮廓的标签的待识别图像,至少基于所述待识别图像获得感兴趣区域确定模型;获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型得到所述目标图像中用于表征所述目标对象的轮廓的像素点。
由此可见,利用本申请其中一实施例提供的确定图像中用户的感兴趣区 域的方法,可以根据携带有表征目标对象的轮廓的标签的待识别图像获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出目标图像中的目标对象,无需人工确定目标图像中目标对象所在的区域,节省了人力,提高了确定目标对象的准确率。
下面结合附图,详细说明本申请的各种非限制性实施方式。
图1是根据本申请其中一实施例的一种确定图像中用户的感兴趣区域的方法的流程图,如图1所示,在本实施例中,所述方法例如可以通过如下步骤S101-S103实现。
在步骤S101中:获取携带有表征目标对象的轮廓的标签的待识别图像。
需要说明的是,本申请实施例不具体限定所述目标对象,目标对象可以是所述待识别图像中包括的对象。例如,所述目标对象可以为所述待识别图像中包括的飞鸟。又如,所述目标对象可以为所述待识别图像中的某一人物。再如,所述目标对象可以为所述待识别图像中的某一动物例如小狗。
另外,所述携带有表征目标对象的轮廓的标签,可以是,表征所述目标对象的轮廓的像素点携带有第一标签,例如,第一标签用二进制数“00”表示。所述待识别图像中除了表征所述目标对象的轮廓的像素点之外的其它像素点,携带有与所述第一标签不同的标签,例如,携带有第二标签(例如,第二标签用二进制数“01”表示),又如,携带有第二标签和第三标签(例如,第二标签用二进制数“11”表示)。
进一步地,本申请实施例不具体限定所述待识别图像。所述待识别图像可以包括一张图像,也可以包括一组图像。
在步骤S102中:至少基于所述待识别图像获得感兴趣区域确定模型。
本申请实施例不具体限定基于所述待识别图像获得感兴趣区域确定模型的具体实现方式。作为一种示例,可以采用支持向量机(Support Vector Machine,SVM)对所述待识别图像进行训练,从而得到所述感兴趣区域确定模型。
在步骤S103中:获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
需要说明的是,在本申请实施例的一种可选实施方式中,所述目标图像和所述待识别图像为同一视频中的图像。例如,所述待识别图像为所述视频中的第1帧图像,所述目标图像可以为所述视频中的任意一帧图像。
可以理解的是,由于所述感兴趣区域确定模型,是基于携带有表征目标对象的轮廓的标签的待识别图像获得的,因此,所述感兴趣区域确定模型可以准确的得到所述目标图像中所述目标对象的轮廓,即准确的得到所述目标图像中用于表征所述目标对象的轮廓的像素点。例如,将所述目标图像输入到感兴趣区域确定模型中,该感兴趣区域确定模型会输出所述目标对象的各个像素点的标签,则可以根据各个像素点的标签确定用于表征所述目标对象的轮廓的像素点。例如,可以将像素点标签为“00”的像素点确定为表征所述目标对象的轮廓的像素点。
由此可见,利用本申请实施例提供的确定图像中用户的感兴趣区域的方法,可以根据携带有表征目标对象的轮廓的标签的待识别图像,获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出目标图像中的目标对象,无需人工确定目标图像中目标对象所在的区域,节省了人力,提高了确定目标对象的准确率。
当所述目标图像和所述待识别图像为同一视频中的图像时,该方法可以根据视频中一帧携带有表征目标对象的轮廓的标签的待识别图像,获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出该视频中其它帧图像中的目标对象,无需人工定每一帧图像中飞鸟所在的区域,节省了人力,提高了从该视频中确定目标对象的准确率。
为了提高所述感兴趣区域确定模型识别出所述视频中的目标对象的准确度,在本申请实施例的一种可选实施方式中,还可以对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像。从而基于所述待识别图像和所述处理后的待处理图像获得所述感兴趣区域确定模型。
可以理解的是,对所述待处理图像进行处理,并基于所述待识别图像和所述处理后的待处理图像获得所述感兴趣区域确定模型,由此可以使得获得 所述感兴趣区域确定模型的样本增加,从而使得所述感兴趣区域确定模型更加精确,从而可以提高所述感兴趣区域确定模型识别出所述视频中的目标对象的准确度。
需要说明的是,本申请实施例不具体限定对所述待识别图像进行处理的方式,作为一种示例,所述对所述待识别图像进行处理,可以包括以下五种处理方式中的任意一种或多种。
第一种处理方式:改变所述待识别图像的亮度。
由于所述待识别图像中包括所述目标对象,因此,改变所述待识别图像的亮度之后,所述目标对象所在区域的图像的亮度也发生了改变。
所述视频中各个帧图像的亮度可能不完全相同。也就是说,待识别图像和目标图像的亮度可能不同。因此,为了使得所述感兴趣区域确定模型能够识别出所述视频中各种亮度的图像中的目标对象,可以改变所述待识别图像的亮度。基于亮度改变之后的待识别图像和所述待识别图像获得所述感兴趣区域确定模型。
第二种处理方式:增加所述待识别图像的噪声。
图像的噪声越大,图像的特征可能更不明显。所述视频中各个帧图像的噪声可能不完全相同。也就是说,待识别图像和目标图像的噪声可能不同。因此,若待识别图像的图像噪声比较小,目标图像的图像噪声比较大,则基于待识别图像的感兴趣区域确定模型,可能不能识别出目标图像中的目标对象。
因此,为了使得所述感兴趣区域确定模型能够识别出所述视频中各种噪声的目标图像中的目标对象,可以增加所述待识别图像的噪声。基于增加噪声之后的待识别图像和所述待识别图像获得所述感兴趣区域确定模型。
第三种处理方式:对所述待识别图像进行翻转。
第四种处理方式:对所述待识别图像进行裁剪。
关于第三种处理方式和所述第四种处理方式,需要说明的是,所述目标对象在所述视频中可能是动态变化的。目标对象在所述视频中动态变化时,各个帧图像中目标对象的形态可能并不完全相同。也就是说,目标对象在所述视频中动态变化时,各个帧图像中所述目标对象的轮廓可能并不完全相同。
因此,为了使得所述感兴趣区域确定模型能够识别出所述视频中各种形态的目标对象。
一方面,可以对所述待识别图像进行翻转,从而使得所述待识别图像中的目标对象所在区域的图像被翻转。使得所述翻转之后的待识别图像中的目标对象,可以对应所述目标对象的不同形态。并基于翻转之后的待识别图像和所述待识别图像获得所述感兴趣区域确定模型。
另一方面,考虑到在一些状态下,所述目标对象的一部分可能被另一部分遮挡住。例如,在某一帧图像中,飞鸟的一只翅膀被飞鸟的身体遮挡。因此,可以对所述待识别图像进行裁剪,从而使得所述待识别图像中的目标对象所在区域的图像被裁剪。使得所述裁剪之后的待识别图像中的目标对象,可以对应所述目标对象的不同形态。并基于裁剪之后的待识别图像和所述待识别图像获得所述感兴趣区域确定模型。
第五种处理方式:对所述待识别图像进行缩放。
由于所述待识别图像中包括所述目标对象,因此,对所述待识别图像进行缩放之后,也就是对所述目标对象所在区域的图像进行了缩放。
所述视频中各个帧图像的中所述目标对象与所述帧图像的比例可能不同。也就是说,所述视频中各个帧图像中所述目标对象所占的区域大小可能不同。例如,对于与目标对象的特写镜头相关的帧图像,所述目标对象所占的比例可能比较大。对于与全景镜头相关的帧图像,所述目标对象所占的比例可能比较小。
因此,为了使得所述感兴趣区域确定模型能够尽可能识别出所述视频中所有的目标对象,可以对所述待识别图像进行缩放。基于缩放之后的待识别图像和所述待识别图像获得所述感兴趣区域确定模型。
如前文所述,所述待识别图像可以包括一张图像,也可以包括一组图像。考虑到实际应用中,目标对象在三维立体空间中各个角度对应的轮廓可能不同。因此,为了提高所述感兴趣区域确定模型识别出所述视频中的目标对象的准确度,在本申请实施例的一种可选实施方式中,所述待识别图像可以包括:在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
需要说明的是,确定出视频中各个帧图像中的目标对象之后,本申请实施例还可以进一步确定用户对所述目标对象的关注程度。
图2是根据本申请其中一示例性实施例的一种确定用户对所述目标对象的关注程度的方法的流程图,如图2所示,该方法可以通过如下步骤S201-S202实现。
在步骤S201中:获取用户的注视点。
需要说明的是,本申请实施例不具体限定获取用户的注视点的具体实现方式。作为一种示例,可以通过拍摄用户的眼部图像,分析所述用户的眼部图像中所述用户的眼球的位置,从而获取所述用户的注视点。
在步骤S202中:若所述用户的注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值。其中,所述目标区域为所述目标图像中所述目标对象的轮廓内的区域。
若所述用户的注视点在所述目标图像中所述目标对象的轮廓内的区域之内,则表示所述用户正在观看所述目标对象。此时,可以将所述用户对所述目标对象的关注指标增加预设数值。
另外,所述关注指标用于表征所述用户对所述目标对象的关注程度。所述关注指标越高,说明所述用户对所述目标对象的关注程度越高。
本申请实施例不具体限定所述预设数值,所述预设数值可以根据实际情况确定。作为一种示例,所述预设数值可以为1。
由此可见,利用本申请实施例提供的方法,可以确定用户对所述目标对象的关注程度。
以上实施例介绍了一种确定图像中用户的感兴趣区域的方法,以下结合具体场景介绍该方法。
图3是根据本申请其中一实施例的另一种确定图像中用户的感兴趣区域的方法的流程图,如图3所示,在该场景中,需要确定用户对视频中飞鸟的关注程度。
该方法可以通过如下步骤S301-S305实现。
在步骤S301中:获取携带有表征飞鸟的轮廓的标签的待识别图像。
在步骤S302中:对所述待识别图像进行处理,得到携带有表征处理后的飞鸟的轮廓的标签的处理后的待识别图像。
在步骤S303中:基于所述待识别图像和所述处理后的待识别图像,获得感兴趣区域确定模型。
在步骤S304中:获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征飞鸟的轮廓的像素点。
在步骤S305中:获取用户的注视点,若确定所述用户的注视点在所述目标图像中,所述目标对象的轮廓内的区域内,将所述用户对所述目标对象的关注指标增加1。
需要说明的是,本申请实施例不具体限定步骤S305中的获取用户的注视点与步骤S304之间的执行顺序。也就是说,步骤S305中的获取用户的注视点可以与S304同时执行,也可以在S304之前执行。
此外,在实际应用中,S301-S303可以只执行一次。对所述视频中的每一帧图像,可以作为目标图像,均执行一次S304和S305,最终得到用户对飞鸟的关注程度。
基于以上实施例提供的确定图像中用户的感兴趣区域的方法,本申请其中一实施例还提供一种确定图像中用户的感兴趣区域的装置。
图4是根据本申请其中一实施例的一种确定图像中用户的感兴趣区域的装置的结构框图,如图4所示,所述装置400可以具体包括:第一获取单元410、模型获得单元420和确定单元430。
第一获取单元410,设置为获取携带有表征目标对象的轮廓的标签的待识别图像;
模型获得单元420,设置为至少基于所述待识别图像获得感兴趣区域确定模型;
确定单元430,设置为获取目标图像;将所述目标图像输入到所述感兴趣 区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
可选的,所述目标图像和所述待识别图像为同一视频中的图像。
可选的,所述装置400还包括:
处理单元,设置为对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像;
所述模型获得单元420,设置为:
基于所述待识别图像和所述处理后的待识别图像,获得所述感兴趣区域确定模型。
可选的,所述对所述待识别图像进行处理,包括以下任意一项或多项:
改变所述待识别图像的亮度、增加所述待识别图像的噪声、对所述待识别图像进行翻转、对所述待识别图像进行裁剪和对所述待识别图像进行缩放。
可选的,所述待识别图像包括:
在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
可选的,所述装置400还包括:
第二获取单元,设置为获取用户的注视点;
关注指标增加单元,设置为若所述用户的注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值;
其中,所述目标区域为所述目标图像中,所述目标对象的轮廓内的区域。
关于所述装置400的各单元的具体描述,可以参考以上方法实施例中的描述部分,在此不再赘述。
由此可见,利用本申请其中一实施例提供的确定图像中用户的感兴趣区域的装置,可以根据携带有表征目标对象的轮廓的标签的待识别图像,获得感兴趣区域确定模型,从而根据该感兴趣区域确定模型准确的确定出目标图像中的目标对象,无需人工确定目标图像中目标对象所在的区域,节省了人力,提高了确定目标对象的准确率。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性 变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (12)
- 一种确定图像中用户的感兴趣区域的方法,包括:获取携带有表征目标对象的轮廓的标签的待识别图像;至少基于所述待识别图像获得感兴趣区域确定模型;获取目标图像,将所述目标图像输入到所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
- 根据权利要求1所述的方法,其中,所述目标图像和所述待识别图像为同一视频中的图像。
- 根据权利要求1所述的方法,其中,在至少基于所述待识别图像获得所述感兴趣区域确定模型之前,还包括:对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像;至少基于所述待识别图像获得所述感兴趣区域确定模型,包括:基于所述待识别图像和所述处理后待识别图像,获得所述感兴趣区域确定模型。
- 根据权利要求3所述的方法,其中,对所述待识别图像进行处理,包括以下任意一项或多项:改变所述待识别图像的亮度、增加所述待识别图像的噪声、对所述待识别图像进行翻转、对所述待识别图像进行裁剪和对所述待识别图像进行缩放。
- 根据权利要求1所述的方法,其中,所述待识别图像包括:在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
- 根据权利要求1-5任意一项所述的方法,其中,所述方法还包括:获取用户的注视点;若所述注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值;其中,所述目标区域为所述目标图像中,所述目标对象的轮廓内的区域。
- 一种确定图像中用户的感兴趣区域的装置,包括:第一获取单元,设置为获取携带有表征目标对象的轮廓的标签的待识别图像;模型获得单元,设置为至少基于所述待识别图像获得感兴趣区域确定模型;确定单元,设置为获取目标图像,将所述目标图像输入所述感兴趣区域确定模型中,利用所述感兴趣区域确定模型确定所述目标图像中用于表征所述目标对象的轮廓的像素点。
- 根据权利要求7所述的装置,其中,所述目标图像和所述待识别图像为同一视频中的图像。
- 根据权利要求7所述的装置,其中,所述装置还包括:处理单元,设置为对所述待识别图像进行处理,得到携带有表征处理后的目标对象的轮廓的标签的处理后的待识别图像;所述模型获得单元,设置为:基于所述待识别图像和所述处理后的待识别图像,获得所述感兴趣区域确定模型。
- 根据权利要求9所述的装置,其中,所述对所述待识别图像进行处理,包括以下任意一项或多项:改变所述待识别图像的亮度、增加所述待识别图像的噪声、对所述待识别图像进行翻转、对所述待识别图像进行裁剪和对所述待识别图像进行缩放。
- 根据权利要求7所述的装置,其中,所述待识别图像包括:在三维立体空间中从多个角度拍摄所述目标对象得到的图像。
- 根据权利要求7-11任意一项所述的装置,其中,所述装置还包括:第二获取单元,设置为获取用户的注视点;关注指标增加单元,设置为若所述注视点在目标区域内,则将所述用户对所述目标对象的关注指标增加预设数值;其中,所述目标区域为所述目标图像中,所述目标对象的轮廓内的区域。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810935451.2A CN109165646A (zh) | 2018-08-16 | 2018-08-16 | 一种确定图像中用户的感兴趣区域的方法及装置 |
CN201810935451.2 | 2018-08-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020034672A1 true WO2020034672A1 (zh) | 2020-02-20 |
Family
ID=64896004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2019/086369 WO2020034672A1 (zh) | 2018-08-16 | 2019-05-10 | 一种确定图像中用户的感兴趣区域的方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109165646A (zh) |
WO (1) | WO2020034672A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165646A (zh) * | 2018-08-16 | 2019-01-08 | 北京七鑫易维信息技术有限公司 | 一种确定图像中用户的感兴趣区域的方法及装置 |
CN112114657B (zh) * | 2019-06-21 | 2023-10-17 | 北京七鑫易维科技有限公司 | 一种注视点信息采集方法及系统 |
CN112585944A (zh) * | 2020-01-21 | 2021-03-30 | 深圳市大疆创新科技有限公司 | 跟随方法、可移动平台、装置和存储介质 |
CN112541907A (zh) * | 2020-12-17 | 2021-03-23 | 推想医疗科技股份有限公司 | 一种图像识别方法、装置、服务器及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101140623A (zh) * | 2007-09-29 | 2008-03-12 | 华为技术有限公司 | 一种基于支持向量机的视频对象识别方法及系统 |
CN102880877A (zh) * | 2012-09-28 | 2013-01-16 | 中科院成都信息技术有限公司 | 一种基于轮廓特征的目标识别方法 |
CN105787482A (zh) * | 2016-02-26 | 2016-07-20 | 华北电力大学 | 一种基于深度卷积神经网络的特定目标轮廓图像分割方法 |
CN106681484A (zh) * | 2015-11-06 | 2017-05-17 | 北京师范大学 | 结合眼动跟踪的图像目标分割系统 |
CN107944442A (zh) * | 2017-11-09 | 2018-04-20 | 北京智芯原动科技有限公司 | 基于改进卷积神经网络的对象检测装置及方法 |
CN109165646A (zh) * | 2018-08-16 | 2019-01-08 | 北京七鑫易维信息技术有限公司 | 一种确定图像中用户的感兴趣区域的方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106388B (zh) * | 2011-11-15 | 2017-02-08 | 中国科学院深圳先进技术研究院 | 图像识别方法和系统 |
CN102521595B (zh) * | 2011-12-07 | 2014-01-15 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN102800103B (zh) * | 2012-06-18 | 2015-02-18 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
CN103886589B (zh) * | 2014-02-27 | 2017-11-03 | 四川农业大学 | 面向目标的自动化高精度边缘提取方法 |
CN104199544B (zh) * | 2014-08-28 | 2018-06-22 | 华南理工大学 | 基于视线跟踪的广告定向投放方法 |
CN105868708B (zh) * | 2016-03-28 | 2019-09-20 | 锐捷网络股份有限公司 | 一种图像目标识别方法及装置 |
US20180077345A1 (en) * | 2016-09-12 | 2018-03-15 | Canon Kabushiki Kaisha | Predictive camera control system and method |
CN107133584A (zh) * | 2017-04-27 | 2017-09-05 | 贵州大学 | 基于眼动跟踪的隐式意图识别分类方法 |
-
2018
- 2018-08-16 CN CN201810935451.2A patent/CN109165646A/zh active Pending
-
2019
- 2019-05-10 WO PCT/CN2019/086369 patent/WO2020034672A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101140623A (zh) * | 2007-09-29 | 2008-03-12 | 华为技术有限公司 | 一种基于支持向量机的视频对象识别方法及系统 |
CN102880877A (zh) * | 2012-09-28 | 2013-01-16 | 中科院成都信息技术有限公司 | 一种基于轮廓特征的目标识别方法 |
CN106681484A (zh) * | 2015-11-06 | 2017-05-17 | 北京师范大学 | 结合眼动跟踪的图像目标分割系统 |
CN105787482A (zh) * | 2016-02-26 | 2016-07-20 | 华北电力大学 | 一种基于深度卷积神经网络的特定目标轮廓图像分割方法 |
CN107944442A (zh) * | 2017-11-09 | 2018-04-20 | 北京智芯原动科技有限公司 | 基于改进卷积神经网络的对象检测装置及方法 |
CN109165646A (zh) * | 2018-08-16 | 2019-01-08 | 北京七鑫易维信息技术有限公司 | 一种确定图像中用户的感兴趣区域的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109165646A (zh) | 2019-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020034672A1 (zh) | 一种确定图像中用户的感兴趣区域的方法及装置 | |
US11727663B2 (en) | Method and apparatus for detecting face key point, computer device and storage medium | |
CN108230252B (zh) | 图像处理方法、装置以及电子设备 | |
JP6961797B2 (ja) | プレビュー写真をぼかすための方法および装置ならびにストレージ媒体 | |
JP5864783B2 (ja) | 操作者不在画像キャプチャのための方法および装置 | |
WO2020215898A1 (zh) | 三维重建方法及装置、系统、模型训练方法、存储介质 | |
WO2018219180A1 (zh) | 确定人脸图像质量的方法和装置、电子设备和计算机存储介质 | |
WO2020252910A1 (zh) | 图像畸变修正方法、装置、电子设备及可读存储介质 | |
US10887548B2 (en) | Scaling image of speaker's face based on distance of face and size of display | |
US11132544B2 (en) | Visual fatigue recognition method, visual fatigue recognition device, virtual reality apparatus and storage medium | |
WO2020151156A1 (zh) | 视频流播放方法、系统、计算机装置及可读存储介质 | |
WO2021008205A1 (zh) | 图像处理 | |
CN111008935A (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
CN112949418A (zh) | 说话对象的确定方法、装置、电子设备及存储介质 | |
CN106067167A (zh) | 图像处理方法及装置 | |
JP2018081402A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5882929B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
WO2020222785A1 (en) | Facial action unit detection | |
WO2018013227A1 (en) | Method and system for smart group portrait | |
WO2020244076A1 (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN110363132B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
JP2014102713A (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
WO2023010796A1 (zh) | 图像处理方法及相关装置 | |
CN110781712B (zh) | 一种基于人脸检测与识别的人头空间定位方法 | |
US20160235288A1 (en) | Ophthalmic image capture systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19850422 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 26.05.2021) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19850422 Country of ref document: EP Kind code of ref document: A1 |