CN112381055A - 第一人称视角图像识别方法、装置及计算机可读存储介质 - Google Patents
第一人称视角图像识别方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112381055A CN112381055A CN202011392225.8A CN202011392225A CN112381055A CN 112381055 A CN112381055 A CN 112381055A CN 202011392225 A CN202011392225 A CN 202011392225A CN 112381055 A CN112381055 A CN 112381055A
- Authority
- CN
- China
- Prior art keywords
- image
- person
- images
- person perspective
- visual angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000000007 visual effect Effects 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 238000002372 labelling Methods 0.000 claims abstract description 12
- 238000010276 construction Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 238000012805 post-processing Methods 0.000 abstract description 3
- 230000002349 favourable effect Effects 0.000 abstract description 2
- 230000015654 memory Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种第一人称视角图像识别方法,该方法包括:S1:获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;S2:根据是否包含手部特征以及手部特征信息对图像进行分类及标注;S3:对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;S4:将图像训练样本输入预先构建的神经网络进行训练得到第一视角图像识别模型;S5:将待识别图像输入第一视角图像识别模型;S6:根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像。与现有技术相比,本发明方案可自动识别图像是否为第一人称视角,应用在视频上时可以自动判断当前视频帧是否为第一人称视角,免除了用于手动判断的需要,用户只需提供输入的视频帧,就可以自动区分该视频帧是否为第一人称视角,有利于对视频的后期处理,具有处理速度快且准确率高的优点。
Description
技术领域
本申请涉及视频识别技术领域,具体涉及第一人称视角图像识别方法装置及计算机可读存储介质。
背景技术
第一人称视角简称第一视角(POV,Point of View),原来的意思是一种视点人物写作手法,简单来说,就是将相机安装在特定的人或动物上,记录从该特定的人或动物的视角所看到的一切,第一视角常用于游戏,其在游戏中的定义是:以游戏操作者本人的视角观看整场游戏演示,相当于站在操作者身后看,自己所见即为操作者所见。同样地,“第一人称视角视频”是指通过用户穿戴的拍摄装置拍摄的第一视角(用户视角)下的视频数据。
随着可穿戴的拍摄设备的普及,使用者既可以把可穿戴拍摄设备佩戴在身上,在登山、冲浪、蹦极等极限运动中拍摄出“第一人称视角”的视频,也可以直接使用可穿戴拍摄设备直接拍摄非“第一人称视角”的视频。由于视角的差异会造成这两种视频在拍摄内容上的明显差异,比如,“第一人称视角”的视频更具代入感,更能让视频观看者更直观地感受拍摄者在拍摄视频时的感受,因此,对这两种视频的后期处理方式截然不同。
然而,视频帧是否为“第一人称视角”,在图像上的区别并不明显,通过传统的计算机视觉方法进行区分,会相对繁琐,而且准确率不高。
因此,有必要对现有的第一视角视频检测方法进行改进。
发明内容
本发明旨在解决现有第一视角视频检测方法存在的缺陷,提供用于第一人称视角图像识别方法、装置及计算机可读存储介质。
第一方面,本发明公开了一种第一人称视角图像识别方法,该方法包括:S1:获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;S2:根据是否包含手部特征以及手部特征信息对图像进行分类及标注;S3:对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;S4:将图像训练样本输入预先构建的神经网络进行训练得到第一视角图像识别模型;S5:将待识别图像输入第一视角图像识别模型;S6:根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像;其中,所述第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。
第二方面,本发明公开了一种第一人称视角图像识别装置,该装置包括:获取模块,用于获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;分类及标注模块,用于根据是否包含手部特征以及手部特征信息对图像进行分类及标注;增强处理模块,用于对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;训练模块,用于将图像训练样本输入预先构建的神经网络进行训练得到第一人称视角图像识别模型;输入模块,用于将待识别图像输入第一人称视角图像识别模型;判断模块,用于根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像;其中,所述第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。
第三方面,本发明公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有可执行指令,所述可执行指令被处理器执行时以实现上述第一人称视角图像识别方法。
与现有技术相比,本发明方案可自动识别图像是否为第一人称视角,应用在视频上时可以自动判断当前视频帧是否为第一人称视角,免除了用于手动判断的需要,用户只需提供输入的视频帧,就可以自动区分该视频帧是否为第一人称视角,有利于对视频的后期处理,具有处理速度快且准确率高的优点。
附图说明
图1是本发明实施例1中的第一人称视角图像识别模型构建方法的流程图。
图2是本发明实施例1中分为第一类的典型图像示例。
图3是本发明实施例1中分为第二类的典型图像示例。
图4是本发明实施例1中分为第三类的典型图像示例。
图5是本发明实施例1中分为第四类的典型图像示例。
图6是本发明实施例1中的图像训练样本缩放前后的对比示意图。
图7是本发明实施例2中的第一人称视角识别装置的结构框图。
图8是本发明实施例1中的待识别视频帧的处理过程的流程图。
具体实施方式
为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例1
如图1至图6所示,本实施例中的第一人称视角图像识别模型构建方法包括以下步骤。
S1:获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像。
本实施例中,获取的图像为可穿戴拍摄装置拍摄的照片或视频帧;第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。在本实施例中,可以预先构建一个图像数据集,该数据集中包含有将可穿戴拍摄装置固定在拍摄者身上拍摄的照片(即第一人称视角图像)以及将可穿戴拍摄装置作为普通相机来拍摄的照片(即非第一人称视角图像)。
S2:根据是否包含手部特征以及手部特征信息对图像进行分类及标注。
本步骤通过人工对图像进行分类及标注,其分类及标注的依据为:可穿戴拍摄装置作为普通相机来拍摄照片或视频时,拍摄者的手部特征(如手臂、手指等)一般不会出现在照片或视频中(自拍除外),而将可穿戴拍摄装置固定在拍摄者身上(如衣服、帽子或头带上)来拍摄照片或视频时,手部特征往往会出现在照片或视频中。基于上述原理,本步骤中将可穿戴拍摄装置拍摄的照片或视频帧按以下特征进行分类:将包含有从图像边缘伸出的手指或手臂特征的图像分为第一类,并标记为第一人称视角图像,如图2所示,为该类图像的典型示例;将包含自拍照的图像分为第二类,并标记为第一人称视角图像,如图3所示,为该类图像的典型示例;将包含完整的手臂和手指特征的图像分为第三类,并标记为非第一人称视角,如图4所示,为该类图像的典型示例;将不包含手臂或手指特征的图像分为第四类,并标记为非第一人称视角,如图5所示,为该类图像的典型示例。由上可知,上述分类及标注只是本实施例中的分类方式,本领域一般技术人员还可根据手部特征的位置、在图中的所在比例等特征对分类及标准进行进一步的细化或优化,从而分类的类别数量也对应发生变化。
S3:对分类及标注后的图像进行增强处理以获得多样化的图像训练样本。
本步骤的主要目的是为了使用较少的照片或视频帧来获得更多的图像训练样本,也就是一张图像可以通过增强处理后可以获得多张图像训练样本,需要注意的是,各图像训练样本的类别和标注与原图像一致。具体地,可以对分类及标注后图像的进行图像缩放、中心裁剪、随机水平翻转以及随机小幅度改变图像亮度、对比度、饱和度和色调。需要注意的是,在本实施例中,因为检测器需要检测从图像下方伸出来的手指或手臂,而旋转会破环这样的情况,因此在增加处理阶段去除常规数据增强所用的旋转操作;另外,为避免完全裁掉图像边缘的手部特征,本实施例中将常规数据增强所用的随机裁剪改为中心裁剪。
S4:将图像训练样本输入预先构建的神经网络进行训练得到第一视角图像识别模型。
在本实施例中的神经网络为MobilenNetV2模型,其训练过程包括以下子步骤。
S41:将所述图像训练样本缩放成预设的尺寸。
首先将可穿戴拍摄装置拍摄的照片或视频帧输入预先构建的神经网络,接着利用torchvision库里的 transforms.Resize 把照片或视频帧的大小缩放成 224x224的图像,如图6所示,在不影响图像中关键特征(手部特征)的情况下,大幅缩小输入图像的尺寸,提高后续模型进行训练和推理的速度。
S42:对缩放后的图像训练样本进行归一化处理。
本步骤中,利用 transforms.Normalize 对缩放后的图像进行归一化,提高模型的检测性能。其具体过程为I' = (I - E) / STD,其中I为原图像,E为在数据集中估算出来的图像均值,STD 为在数据集中估算出来的图像标准差。
S43:将归一化处理后的图像训练样本输入预先构建的神经网络进行训练。
由于本实施例中训练数据不大,在本步骤中使用dropout对神经网络进行训练,以缓解过拟合。
S44:对神经网络的训练达到预设条件后完成第一视角图像识别模型的构建。
本实施例中的预设条件为对所述神经网络训练预定的轮数,当然,还可以对模型进行检测或测试,在模型的相关参数达到设定的阈值后停止训练,从而完成第一视角图像识别模型的构建。
此外,本实施例中还可以基于其他神经网络构建第一视角图像识别模型,比如VGG网络,深度残差网络模型(ResNet,Deep Residual Network),GoogleNet系列模型(如Inception V1-V4),SqueezeNet网络模型,ShuffNet系列网络模型等等。
S5:将待识别图像输入第一人称视角图像识别模型。
在本实施例中将所述待识别图像缩放成预设的尺寸后再输入第一人称视角图像识别模型。具体地,如图6所示,利用 torchvision库里的 transforms.Resize 把照片或视频帧的大小缩放成 224x224的图像。当然,也可以将待识别图像直接输入第一人称视角图像识别模型。
S6:根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像。
如图8所示,本实施例中的待识别视频帧的处理过程如下:将待识别图像经过多次的卷积层和最大池化层处理之后,通过全局平均池化层聚合全局的空间信息,得到长度为1280的特征向量,再经过全连接层进行最后的分类,得到长度为4(即分类数量,如果是其他数量的分类,则长度对应变化)的输出向量,然后经过softmax激活函数后得到待识别图像在每个类别的概率分布并输出。在本实施例中,概率分布p=[p0,p1,p2,p3],p0+p1+p2+p3=1,其中,p0代表视频帧为实施例1中的第一类别图像的概率,p1代表视频帧为实施例1中的第二类别图像的概率,p2代表视频帧为实施例1中的第三类别图像的概率,p3代表视频帧为实施例1中的第四类别图像的概率。然后根据该视频帧的实际获得的概率分布p=[p0,p1,p2,p3]判断待识别图像是否为第一人称视角图像,判断依据之一为:p0+p1>p2+p3。
在对视频帧进行判断时,可以根据连续多个视频帧的概率分布结果来判断该视频是否为第一人称视角视频。比如,如果视频中的判断为第一人称视角的视频帧的比例大于设定阈值(如60%),则判断该视频为第一人称视角视频。
实施例2
如图7所示,本实施例揭示了一种第一人称视角图像识别装置,包括:获取模块,用于获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;分类及标注模块,用于根据是否包含手部特征以及手部特征信息对图像进行分类及标注;增强处理模块,用于对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;训练模块,用于将图像训练样本输入预先构建的神经网络进行训练得到第一人称视角图像识别模型;输入模块,用于将待识别图像输入第一人称视角图像识别模型;判断模块,用于根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像;其中,所述第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。
实施例3
本实施例提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有可执行指令,所述可执行指令被处理器执行时以实施例1中的第一人称视角图像识别方法。
需要说明的是,上述实施例中的可执行指令可以但不一定对应于文件系统中的文件,可以被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,存储介质可以是计算机可读存储介质,例如,铁电存储器(FRAM,Ferromagnetic Random Access Memory)、只读存储器(ROM,Read OnlyMemory)、可编程只读存储器(PROM,Programmable Read Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read Only Memory)、带电可擦可编程只读存储器(EEPROM,Electrically Erasable Programmable Read Only Memory)、闪存、磁表面存储器、光盘、或光盘只读存储器(CD-ROM,Compact Disk-Read Only Memory)等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.一种第一人称视角图像识别方法,其特征在于,包括:
S1:获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;
S2:根据是否包含手部特征以及手部特征信息对图像进行分类及标注;
S3:对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;
S4:将图像训练样本输入预先构建的神经网络进行训练得到第一人称视角图像识别模型;
S5:将待识别图像输入第一人称视角图像识别模型;
S6:根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图像;
其中,所述第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。
2.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述步骤S2为:将包含有从图像边缘伸出的手指或手臂特征的图像分为第一类,并标记为第一人称视角图像;将包含自拍照的图像分为第二类,并标记为第一人称视角图像;将包含完整的手臂和手指特征的图像分为第三类,并标记为非第一人称视角;将不包含手臂或手指特征的图像分为第四类,并标记为非第一人称视角。
3.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述步骤S3中的增强处理包括:对分类及标注后图像的进行图像缩放、中心裁剪、随机水平翻转以及随机小幅度改变图像亮度、对比度、饱和度和色调。
4.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述神经网络为MobileNetV2、VGG、ResNet、GoogleNet、SqueezeNet或ShuffNet之一。
5.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述步骤S4包括:
S41:将所述图像训练样本缩放成预设的尺寸;
S42:对缩放后的图像训练样本进行归一化处理;
S43:将归一化处理后的图像训练样本输入预先构建的神经网络进行训练;
S44:对神经网络的训练达到预设条件后完成第一人称视角图像识别模型的构建。
6.根据权利要求5所述的第一人称视角图像识别方法,其特征在于,所述步骤S43包括使用dropout对神经网络进行训练。
7.根据权利要求5所述的第一人称视角图像识别方法,其特征在于,所述步骤S44中的预设条件为对所述神经网络训练预定的轮数。
8.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述步骤S5包括:将所述待识别图像缩放成预设的尺寸后再输入第一人称视角图像识别模型。
9.根据权利要求1所述的第一人称视角图像识别方法,其特征在于,所述待识别图像在所述第一人称角度模型中的处理过程为:将待识别图像经过多次的卷积层和最大池化层处理之后,通过全局平均池化层聚合全局的空间信息,得到长度为1280的特征向量,再经过全连接层进行最后的分类,得到长度为分类数量的输出向量,然后经过softmax激活函数后得到待识别图像在每个类别的概率分布并输出。
10.一种第一人称视角图像识别装置,其特征在于,包括:
获取模块,用于获取包含多张第一人称视角的图像以及多张不包含第一人称视角的图像;
分类及标注模块,用于根据是否包含手部特征以及手部特征信息对图像进行分类及标注;
增强处理模块,用于对分类及标注后的图像进行增强处理以获得多样化的图像训练样本;
训练模块,用于将图像训练样本输入预先构建的神经网络进行训练得到第一视角图像识别模型;
输入模块,用于将待识别图像输入第一视角图像识别模型;
判断模块,用于根据第一视角图像识别模型的输出判断待识别图像是否为第一人称视角图;
其中,所述第一人称视角图像为至少包含拍摄者手部特征的照片或视频帧。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有可执行指令,所述可执行指令被处理器执行时以实现权利要求1至9任一项所述的第一人称视角图像识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011392225.8A CN112381055A (zh) | 2020-12-03 | 2020-12-03 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
PCT/CN2021/135527 WO2022117096A1 (zh) | 2020-12-03 | 2021-12-03 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011392225.8A CN112381055A (zh) | 2020-12-03 | 2020-12-03 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112381055A true CN112381055A (zh) | 2021-02-19 |
Family
ID=74589811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011392225.8A Pending CN112381055A (zh) | 2020-12-03 | 2020-12-03 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112381055A (zh) |
WO (1) | WO2022117096A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022117096A1 (zh) * | 2020-12-03 | 2022-06-09 | 影石创新科技股份有限公司 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7171042B2 (en) * | 2000-12-04 | 2007-01-30 | Intel Corporation | System and method for classification of images and videos |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN110348572B (zh) * | 2019-07-09 | 2022-09-30 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN111062871B (zh) * | 2019-12-17 | 2023-01-24 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、计算机设备及可读存储介质 |
CN111814810A (zh) * | 2020-08-11 | 2020-10-23 | Oppo广东移动通信有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN112381055A (zh) * | 2020-12-03 | 2021-02-19 | 影石创新科技股份有限公司 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
-
2020
- 2020-12-03 CN CN202011392225.8A patent/CN112381055A/zh active Pending
-
2021
- 2021-12-03 WO PCT/CN2021/135527 patent/WO2022117096A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022117096A1 (zh) * | 2020-12-03 | 2022-06-09 | 影石创新科技股份有限公司 | 第一人称视角图像识别方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022117096A1 (zh) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matern et al. | Exploiting visual artifacts to expose deepfakes and face manipulations | |
CN109325933B (zh) | 一种翻拍图像识别方法及装置 | |
US20200380279A1 (en) | Method and apparatus for liveness detection, electronic device, and storage medium | |
US10832069B2 (en) | Living body detection method, electronic device and computer readable medium | |
WO2020098250A1 (zh) | 字符识别方法、服务器及计算机可读存储介质 | |
CN106897658B (zh) | 人脸活体的鉴别方法和装置 | |
JP6994588B2 (ja) | 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
CN111738243B (zh) | 人脸图像的选择方法、装置、设备及存储介质 | |
US9613296B1 (en) | Selecting a set of exemplar images for use in an automated image object recognition system | |
CN110059666B (zh) | 一种注意力检测方法及装置 | |
CN109299658B (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN109413510B (zh) | 视频摘要生成方法和装置、电子设备、计算机存储介质 | |
CN109522775B (zh) | 人脸属性检测方法、装置及电子设备 | |
WO2021051547A1 (zh) | 暴力行为检测方法及系统 | |
CN112149570B (zh) | 多人活体检测方法、装置、电子设备及存储介质 | |
CN112633221A (zh) | 一种人脸方向的检测方法及相关装置 | |
CN112036209A (zh) | 一种人像照片处理方法及终端 | |
CN113255557A (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN106874922B (zh) | 一种确定业务参数的方法及装置 | |
CN110516572B (zh) | 一种识别体育赛事视频片段的方法、电子设备及存储介质 | |
TWI786592B (zh) | 圖像處理電路及由設備執行的圖像增強方法 | |
CN112381055A (zh) | 第一人称视角图像识别方法、装置及计算机可读存储介质 | |
KR101961462B1 (ko) | 객체 인식 방법 및 장치 | |
CN116958795A (zh) | 翻拍图像的识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |