CN112183173B - 一种图像处理方法、装置及存储介质 - Google Patents
一种图像处理方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112183173B CN112183173B CN201910606329.5A CN201910606329A CN112183173B CN 112183173 B CN112183173 B CN 112183173B CN 201910606329 A CN201910606329 A CN 201910606329A CN 112183173 B CN112183173 B CN 112183173B
- Authority
- CN
- China
- Prior art keywords
- detected
- image
- target detection
- image processing
- overlapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 33
- 238000003860 storage Methods 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 247
- 238000012545 processing Methods 0.000 claims abstract description 114
- 230000009471 action Effects 0.000 claims abstract description 62
- 238000000034 method Methods 0.000 claims description 38
- 230000001815 facial effect Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 210000000697 sensory organ Anatomy 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 17
- 210000001508 eye Anatomy 0.000 description 15
- 238000004590 computer program Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种图像处理方法,包括:提取目标视频中的待检测图像,其中,待检测图像包括至少连续的两帧图像;确定待检测图像中的待检测特征点和目标检测区域;对待检测特征点的遮挡状态进行检测;对待检测图像中的相邻图像帧目标检测区域的重合度进行检测;根据待检测特征点的遮挡情况检测结果和目标检测区域的重合度的检测结果,识别待检测图像中的人物动作信息。本公开还提供了一种图像处理装置及存储介质。
Description
技术领域
本公开涉及视频中人物动作识别技术,尤其涉及一种图像处理方法、装置及存储介质。
背景技术
在视频拍摄过程中,用户经常会在镜头前做出各种不同的动作,以增加趣味感和互动性。这就对视频中人物动作的识别的效率提出了更高的要求,然而,相关技术在采用机器学习模型从视频中识别部分动作时,构建神经网络成本过高,机器学习模型的训练耗时较长,难以适用于实时视频中对人物动作的识别的要求。
发明内容
有鉴于此,本公开实施例提供一种图像处理方法、装置及存储介质。
本公开实施例的技术方案是这样实现的:
本公开实施例提供一种图像处理方法,包括:
提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;
确定所述待检测图像中的待检测特征点和目标检测区域;
对所述待检测特征点的遮挡状态进行检测;
对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;
根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。
上述方案中,所述确定所述待检测图像中的待检测特征点和目标检测区域,包括:
对所述待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;
对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;
确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。
上述方案中,所述对所述待检测特征点的遮挡状态进行检测,包括:
在所述待检测图像中生成人脸检测框与肢体检测框;
对所述人脸检测框与肢体检测框的重叠区域进行检测;
对所述肢体检测框与所述待检测特征点的重叠进行检测。
上述方案中,所述对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测,包括:
确定所述待检测图像中的目标检测区域的重叠面积;
根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。
上述方案中,所述根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,包括:
当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且所述肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。
上述方案中,所述方法还包括:
当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;
对所述固定帧数的待检测图像所对应的图像的状态进行检测;
当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
上述方案中,所述根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,包括:
当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。
本公开实施例还提供了一种图像处理装置,包括:
图像传输模块,用于提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;
图像处理模块,用于确定所述待检测图像中的待检测特征点和目标检测区域;
所述图像处理模块,用于对所述待检测特征点的遮挡状态进行检测;
所述图像处理模块,用于对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;
所述图像处理模块,用于根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。
上述方案中,
所述图像处理模块,用于对所述待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;
所述图像处理模块,用于对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;
所述图像处理模块,用于确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。
上述方案中,
所述图像处理模块,用于在所述待检测图像中生成人脸检测框与肢体检测框;
所述图像处理模块,用于对所述人脸检测框与肢体检测框的重叠区域进行检测;
所述图像处理模块,用于对所述肢体检测框与所述待检测特征点的重叠进行检测。
上述方案中,
所述图像处理模块,用于确定所述待检测图像中的目标检测区域的重叠面积;
所述图像处理模块,用于根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。
上述方案中,
所述图像处理模块,用于当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且所述肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。
上述方案中,
所述图像处理模块,用于当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;
所述图像处理模块,用于对所述固定帧数的待检测图像所对应的图像的状态进行检测;
所述图像处理模块,用于当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
上述方案中,
所述图像处理模块,用于当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。
本公开实施例还提供了一种图像处理装置,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述可执行指令时,实现本公开所提供的图像处理方法。
本公开还提供了一种存储介质,存储有可执行指令,所述可执行指令被执行时,用于实现本公开所提供的图像处理方法。
本公开实施例提供了一种图像处理方法、服务器及存储介质,本公开实施例具有如下技术效果:
通过提取目标视频中的待检测图像,确定待检测图像中的待检测特征点和目标检测区域;对所述待检测特征点的遮挡状态进行检测;对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。可以实现快速对视频中的人物动作信息进行识别,同时根据待检测特征点的遮挡情况检测结果和目标检测区域的重合度的检测结果,确定待检测图像中的人物动作的种类,避免通过神经网络对视频中人物动作识别速度慢的缺陷,减少了用户的等待时间,提升了用户的使用体验。
附图说明
图1为本公开实施例提供的图像处理方法的应用场景示意图;
图2为本公开实施例提供的图像处理装置200的一个可选的硬件结构示意图;
图3为本公开实施例提供的图像处理装置的一个可选的组成结构示意图;
图4为本公开实施例提供的图像处理方法一个可选的流程示意图;
图5为本公开实施例中从视频中提取目标图像的示意图;
图6为通过本公开实施例提供的图像处理方法对人脸五官定位的示意图;
图7为本公开实施例提供的图像处理方法的前端示意图;
图8为本公开实施例提供的图像处理方法的前端示意图;
图9为本公开实施例提供的图像处理方法一个可选的流程示意图;
图10为本公开实施例提供的图像处理方法的前端示意图;
图11为本公开实施例提供的图像处理方法的前端示意图。
具体实施方式
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,所描述的实施例不应视为对本公开的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
除非另有定义,本公开所使用的所有的技术和科学术语与属于本公开的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本公开实施例的目的,不是旨在限制本公开。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者服务器不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者服务器所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的方法或者服务器中还存在另外的相关要素(例如方法中的步骤或者服务器中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的图像处理方法包含了一系列的步骤,但是本公开实施例提供的图像处理方法不限于所记载的步骤,同样地,本公开实施例提供的终端包括了一系列单元,但是本公开实施例提供的终端不限于包括所明确记载的单元,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的单元。需要说明,在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
对本公开实施例进行进一步详细说明之前,对本公开实施例中涉及的名词和术语进行说明,本公开实施例中涉及的名词和术语适用于如下的解释。
1)目标视频,电子设备在不同使用环境中所拍摄的视频,用户可以在视频的拍摄过程中。
2)特征点,(Facial landmark detection)在对视频中的待检测图像中的人物动作信息进行检测的过程中,需要对人脸区域的不同的特征点的遮挡情况进行检测,其中待检测图像中的人物的人脸五官为优选特征点,或者,根据待检测图像中的人物动作选取不同的人脸特征点。
3)客户端,终端中实现特定功能的载体,例如移动客户端(APP)是移动终端中特定功能的载体,例如执行线上直播(视频推流)的功能或者是在线视频的播放功能。
下面说明实现本公开实施例的装置的示例性应用,本公开实施例提供的装置可以实施为平板电脑、笔记本电脑、中央处理器等各种类型的带有图形处理器GPU的电子设备。
现在将参考附图描述实现本公开实施例的图像处理方法的使用场景。参见图1,图1为本公开实施例提供的图像处理方法的应用场景示意图,为实现支撑一个示例性应用,实现本公开实施例的服务器可以是视频服务器,以视频服务器30为例,用户终端10(示例性示出了用户终端10-1和用户终端10-2)通过网络20连接视频服务器30,网络20可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输,通过终端10的图形处理器能够对终端10所拍摄的目标视频进行处理,并通过所述网络20将经过处理的目标视频向所述视频服务器30发送。
终端10用于提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;确定所述待检测图像中的待检测特征点和目标检测区域;对所述待检测特征点的遮挡状态进行检测;对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息;用户终端10通过图形界面110(示例性示出了图形界面110-1和图形界面110-2)显示向用户展示经过图像处理的包括待检测图像的目标视频,以实现根据所识别的待检测图像中的人物动作信息对所述目标视频进行不同的显示效果处理,视频服务器30用于配合用户终端10在图像处理过程中提供图像处理的后台数据支持,以实现终端的图像处理应用中的不同功能,例如向所述视频服务器30推送经过人物动作识别的目标视频。
基于上述图1所示的图像处理方法的使用环境,首先说明实现本公开实施例的图像处理装置,所图像处理装置服务器可以提供为硬件、软件或者软硬件结合的方式。下面说明本公开实施例提供的图像处理装置的各种示例性实施。
下面先说明图像处理装置的软硬件结合的实施。具体地,现在将参考附图描述实现本公开实施例的图像处理装置的硬件结构,下面参考图2,图2为本公开实施例提供的图像处理装置200的一个可选的硬件结构示意图。
本公开实施例中的图像处理装置200可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(PDA,Personal Digital Assistant)、平板电脑(PAD,Portable Android Device)、便携式多媒体播放器(PMP,Por table Media Player)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字电视(TV,Television)、台式计算机等等的带有图像处理装置功能的各类型电子设备。图2示出的图像处理装置200仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,图像处理装置200可以包括处理装置(例如中央处理器、图形处理器等)201,其中图形处理器能够执行卡尔曼滤波算法和暗通道去雾算法,所述其可以根据存储在只读存储器(ROM,Read Only Memory)202中的程序或者从存储装置208加载到随机访问存储器(RAM,Random Access Memory)203中的程序而执行各种适当的动作和处理。在RAM203中,还存储有图像处理装置200操作所需的各种程序和数据。处理装置201、ROM 202以及RAM203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
通常,以下装置可以连接至I/O接口205:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置206;包括例如液晶显示器(LCD,LiquidCrystal Display)、扬声器、振动器等的输出装置207;包括例如磁带、硬盘等的存储装置208;以及通信装置209。通信装置209可以允许图像处理装置200与其他设备进行无线或有线通信以交换数据。虽然图2示出了具有各种装置的图像处理装置200,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置209从网络上被下载和安装,或者从存储装置208被安装,或者从ROM 202被安装。在该计算机程序被处理装置201执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、RAM、ROM、可擦式可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、光纤、便携式紧凑磁盘只读存储器(CD-ROM,Compact Disc Read-Only Memory)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、射频(RF,Radio Frequency)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述图像处理装置中所包含的;也可以是单独存在,而未装配入该图像处理装置中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该图像处理装置执行时,使得该图像处理装置:提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;确定所述待检测图像中的待检测特征点和目标检测区域;对所述待检测特征点的遮挡状态进行检测;对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或图像处理装置上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN,Local Area Network)或广域网(WAN,Wide Area Network)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
作为图像处理装置的硬件实施或软件实施的示例,图像处理装置可以提供为一系列在信号/信息/数据层面存在耦合关系的模块,下面将结合图3进行说明。参见图3,图3为本公开实施例提供的图像处理装置的一个可选的组成结构示意图,示出了实现图像处理装置包括的一系列模块,但是图像处理装置的模块结构不仅仅限于图3所示,例如,可以对其中的模块根据所实现的不同功能而进一步拆分或者合并。
下面说明图像处理装置的纯硬件实施,图像处理装置可以为用于运行应用程序的各种类型的图像处理装置客户端,例如:短视频图像处理装置客户端,图3为本公开实施例提供的图像处理装置的一个可选的功能结构示意图;如图3所示,图像处理装置300包括:图像传输模块301、图像处理模块302。下面对各模块的功能进行详细说明。
图像传输模块301,用于提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;图像处理模块302,用于确定所述待检测图像中的待检测特征点和目标检测区域;所述图像处理模块302,用于对所述待检测特征点的遮挡状态进行检测;所述图像处理模块302,用于对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;所述图像处理模块302,用于根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。
在本公开的一些实施例中,图像处理模块302,用于对所述待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;所述图像处理模块302,用于对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;所述图像处理模块302,用于确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。
在本公开的一些实施例中,图像处理模块302,用于在所述待检测图像中生成人脸检测框与肢体检测框;所述图像处理模块302,用于对所述人脸检测框与肢体检测框的重叠区域进行检测;所述图像处理模块302,用于对所述肢体检测框与所述待检测特征点的重叠进行检测。
在本公开的一些实施例中,图像处理模块302,用于确定所述待检测图像中的目标检测区域的重叠面积;所述图像处理模块302,用于根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。
在本公开的一些实施例中,所述图像处理模块302,用于当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且所述肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。
在本公开的一些实施例中,所述图像处理模块302,用于当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;所述图像处理模块302,用于对所述固定帧数的待检测图像所对应的图像的状态进行检测;所述图像处理模块302,用于当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
在本公开的一些实施例中,所述图像处理模块302,用于当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。
结合图3示出的图像处理装置300说明本公开实施例提供的图像处理方法,参见图4,图4为本公开实施例提供的图像处理方法一个可选的流程示意图,可以理解地,图4所示的步骤可以由运行图像处理装置300的终端执行,例如图像处理装置300可以是耦合到终端内部/外部接口中的功能模块;图4所示的步骤也可以由运行图像处理装置300的服务器执行,例如图像处理装置300可以是耦合到服务器内部/外部接口的功能模块。下面针对图4示出的步骤进行说明。
步骤401:提取目标视频中的待检测图像;
其中,所述待检测图像包括至少连续的两帧图像,在视频拍摄过程中,用户能够跟随视频的拍摄执行不同的动作,因此通过包括至少连续的两帧图像对视频中人物动作信息进行识别。
步骤402:确定所述待检测图像中的待检测特征点和目标检测区域。
在本公开的一些实施例中,确定待检测图像中的待检测特征点和目标检测区域,可以通过以下方式实现:
对待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。其中,图5为本公开实施例中从视频中提取目标图像的示意图,如图5所示,当视频的拍摄环境光线较暗时,可以对待检测图像中进行暗道去雾处理,形成增强图像,所形成的增强图像可以包括人脸特征和/或肢体特征,具体步骤包括:
确定所述待检测图像的暗通道值;确定所述待检测图像的灰度值;基于所述待检测图像的暗通道值、去雾调节值和所述灰度值确定所述待检测图像的大气光值;根据所述待检测图像的大气光值和第四调节值对所述待检测图像进行处理,以形成增强图像。其中,记所述暗通道值为Dark_channel,所述待检测图像的灰度值为Mean_H和Mean_V,所述待检测图像的大气光值为AirLight;所述去雾调节值为P,第四调节值为A,待增强图像为Input,其取相反数的结果为IR,对于任意一幅输入图像,取其暗通道图像灰度值最大的0.1%的像素点对应于原输入图像的像素位置的每个通道的灰度值的平均值,从而计算出每个通道的大气光值,即大气光值AirLight是一个三元素向量,每一个元素对应于每一个颜色通道。因此,在本公开的一些实施例中,所述方法还包括:
确定所述待检测图像的每个像素点三个通道中的最小值;
将所述去雾图像的每个像素点三个通道中的最小值赋值给所述暗通道的图像中对应的像素点。
其中,通过公式:Dark_channel=min(Input_R,Input_G,Input_B);可以确定所述待检测图像的暗通道值。
在确定所述待检测图像的过程中,首先由公式:Mean_H=间隔采用取每一行的平均值存到一张图像的第一列,之后由公式:Mean_V=将Mean_H的第一列取平均得到全图平均的近似,其余列不做处理,以确定所述待检测图像的灰度值。
在对所述大气光值AirLight的确定过程中,可以通过公式:
AirLight=min(min(p*Mean_V,0.9)*均值滤波后的Input,Input),确定相应的大气光值AirLight。
其中,图6为通过本公开实施例提供的图像处理方法对人脸五官定位的示意图,例如可以利用人脸检测技术确定人脸的顶点坐标(例如图5中方框左上角顶点坐标),然后确定出图像中人脸的长和宽(x,y,长,宽;顶点横坐标,顶点纵坐标,人脸长度,人脸宽度),基于此可以从人脸图像中确定出人脸区域图像;之后对人脸区域图像进行归一化处理。图6中给出了待检测特征点的示意图,其中对待检测图像中的人脸的五官位置进行定位,从五官位置中确定相适配的待检测特征点的结果为:嘴巴包括12个特征点,鼻子包括8个特征点,眼睛包括14个特征点(其中,左眼7个特征点,右眼7个特征点),眉毛包括14个特征点(其中,左眉7个特征点,右眉7个特征点),耳朵6个特征点(其中,左耳7个特征点,右耳7个特征点)。
步骤403:对所述待检测特征点的遮挡状态进行检测。
在本公开的一些实施例中,对所述待检测特征点的遮挡状态进行检测,可以通过以下方式实现:
在所述待检测图像中生成人脸检测框与肢体检测框;对所述人脸检测框与肢体检测框的重叠区域进行检测;对所述肢体检测框与所述待检测特征点的重叠进行检测。
步骤404:对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测。
在本公开的一些实施例中,所述对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测,包括:
确定所述待检测图像中的目标检测区域的重叠面积;根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。其中,在视频拍摄过程中,不同的人物动作在实现过程中,目标检测区域的重叠面积会不断的变化,相邻图像帧中的目标检测区域的重叠趋势也随着不同的人物动作,例如:当人物动作为“捂眼”时,作为目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积由初始状态的无重叠(重叠面积为“0”),逐渐变化至肢体检测框与人脸检测框中的“眼睛“特征点完全重叠,最后目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积再次变为无重叠(重叠面积为“0”)。
步骤405:根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。
在本公开的一些实施例中,根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,可以通过以下方式实现:
当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且所述肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。图7为本公开实施例提供的图像处理方法的前端示意图,其中,第一动作为“飞吻”,具体的,在待检测图像中生成人脸检测框与肢体检测框,其中,所生成的人脸检测框可以为嘴唇框,用于检测待检测图像中人脸的上下唇峰和左右唇角,所生成的肢体检测框可以为矩形手框,以检测待检测图像中的人物的手势。其中,在提取目标视频中的待检测图像时,可以从人物的手势离开人脸(即矩形手框和嘴唇框重合面积0)的起始帧开始,在目标视频中对之前的15帧连续图像检测,如果所获取的连续15帧检测中,有8帧满足下条件:1、目标检测区域的重叠面积的重叠面积超过阈值(优选值50%),且变化趋势往下,或成波峰形。2、矩形手框和眼角特征点、鼻梁特征点无重合(通过条件2可以排除其目标视频中人物的动作信息为向上挥手),则判断起始帧处发生了飞吻操作,可以触发后续动作。由此,当待检测图像中的目标检测区域的重叠面积超过50%时,相邻图像帧中的目标检测区域的重叠趋势为持续减小并且所述肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作即“飞吻”。
在本公开的一些实施例中,所述方法还包括:
当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;
对所述固定帧数的待检测图像所对应的图像的状态进行检测;
当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
在本公开的一些实施例中,根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,可以通过以下方式实现:
当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。其中,图8为本公开实施例提供的图像处理方法的前端示意图,其中,第二动作为“捂脸”,具体的,在待检测图像中生成人脸检测框与肢体检测框,其中,所生成的人脸检测框可以为面积为4cm*5cm的矩形检测框,用于检测待检测图像中人脸全部面积,所生成的肢体检测框可以为矩形手框,以检测待检测图像中的人物的手势。由于对“捂脸”这一动作的识别过程中,人脸识别失败率较高(即确定待检测图像中的待检测特征点和目标检测区域失败),因此,需要调取所缓存的固定帧数的所述待检测图像;对固定帧数的待检测图像所对应的图像的状态进行检测;当固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。其中,在提取目标视频中的待检测图像时,可以从人物的手势离开人脸(即矩形手框和嘴唇框重合面积0)的起始帧开始,在目标视频中对之前的15帧连续图像检测,如果所获取的连续15帧检测中,有8帧满足下条件:1、重合面积呈现“从0开始变化至较大值、然后下降为0”的正态分布趋势(即矩形手框、人脸检测框的重合面积的变化趋势为从0>最大>逐渐减小>重合面积为0)2、重合面积最大时,待检测图像中的人脸的五官位置的五官特征点都被遮挡。由此,则该起始帧是手从面部松开且面部完全显露的时间点。
图9为本公开实施例提供的图像处理方法一个可选的流程示意图,可以理解地,图9所示的步骤可以由运行图像处理装置300的终端执行,例如图像处理装置300可以是耦合到终端内部/外部接口中的功能模块;图9所示的步骤也可以由运行图像处理装置300的服务器执行,例如图像处理装置300可以是耦合到服务器内部/外部接口的功能模块。下面针对图9示出的步骤进行说明。
步骤901:提取目标视频中的待检测图像;
其中,所述待检测图像包括至少连续的两帧图像,在视频拍摄过程中,用户能够跟随视频的拍摄执行不同的动作,因此通过包括至少连续的两帧图像对视频中人物动作信息进行识别。
步骤902:判断是否能够确定待检测图像中的待检测特征点和目标检测区域,如果是,执行步骤903,否则,执行步骤904。
步骤903:确定所述待检测图像中的待检测特征点和目标检测区域。
步骤904:调取所缓存的固定帧数的所述待检测图像。
步骤905:对所述固定帧数的待检测图像所对应的图像的状态进行检测。
步骤906:当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
步骤907:对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;
步骤908:根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息。
在本公开的一些实施例中,检测图像中的人物动作还包括:第三动作“捂眼”和第四动作“捂嘴”。图10为本公开实施例提供的图像处理方法的前端示意图其中如图10所示,当人物动作为“捂眼”时,作为目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积由初始状态的无重叠(重叠面积为“0”),逐渐变化至肢体检测框与人脸检测框中的“眼睛”特征点完全重叠,最后目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积再次变为无重叠(重叠面积为“0”);同时,重合面积最大时,只有“眼睛”的特征点被完全遮挡。图11为本公开实施例提供的图像处理方法的前端示意图,如图11所示,当人物动作为“捂嘴”时,作为目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积由初始状态的无重叠(重叠面积为“0”),逐渐变化至肢体检测框与人脸检测框中的“嘴巴“特征点完全重叠,最后目标检测区域的人脸特征和肢体特征的重叠区域的重叠面积再次变为无重叠(重叠面积为“0”);同时,重合面积最大时,只有“嘴巴”的特征点被遮挡。通过调取所缓存的固定帧数的待检测图像,可以调取所缓存的100帧连续图像,所生成的人脸检测框可以为面积为4cm*5cm的矩形检测框,用于检测待检测图像中人脸特征,所生成的肢体检测框可以为矩形手框,以检测待检测图像中的人物的手势。当相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线从0增加至15%,然后下降为0”的趋势,并且在目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官中的“眼睛”的特征点被完全遮挡时,确定待检测图像中的人物动作信息为第三动作“捂眼”;当相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线从0增加至20%,然后下降为0”的趋势,并且在目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官中的“嘴巴”的特征点被完全遮挡时,确定待检测图像中的人物动作信息为第四动作“捂嘴”。
本领域内的技术人员应明白,本公开实施例可提供为方法、系统、或计算机程序产品。因此,本公开实施例可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开实施例是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序操作实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序操作到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的操作产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的服务器。
这些计算机程序操作也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的操作产生包括操作服务器的制造品,该操作服务器实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序操作也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的操作提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本公开的较佳实施例而已,并非用于限定本公开的保护范围,凡在本公开的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本公开的保护范围之内。
Claims (14)
1.一种图像处理方法,其特征在于,所述方法包括:
提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;
确定所述待检测图像中的待检测特征点和目标检测区域;
对所述待检测特征点的遮挡状态进行检测;
对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;
根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息;
其中,所述根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,包括:
当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。
2.根据权利要求1所述的方法,其特征在于,所述确定所述待检测图像中的待检测特征点和目标检测区域,包括:
对所述待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;
对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;
确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。
3.根据权利要求1所述的方法,其特征在于,所述对所述待检测特征点的遮挡状态进行检测,包括:
在所述待检测图像中生成人脸检测框与所述肢体检测框;
对所述人脸检测框与所述肢体检测框的重叠区域进行检测;
对所述肢体检测框与所述待检测特征点的重叠进行检测。
4.根据权利要求3所述的方法,其特征在于,所述对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测,包括:
确定所述待检测图像中的目标检测区域的重叠面积;
根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;
对所述固定帧数的待检测图像所对应的图像的状态进行检测;
当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
6.根据权利要求5所述的方法,其特征在于,所述根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息,包括:
当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。
7.一种图像处理装置,其特征在于,所述装置包括:
图像传输模块,用于提取目标视频中的待检测图像,其中,所述待检测图像包括至少连续的两帧图像;
图像处理模块,用于确定所述待检测图像中的待检测特征点和目标检测区域;
所述图像处理模块,用于对所述待检测特征点的遮挡状态进行检测;
所述图像处理模块,用于对所述待检测图像中的相邻图像帧目标检测区域的重合度进行检测;
所述图像处理模块,用于根据所述待检测特征点的遮挡情况检测结果和所述目标检测区域的重合度的检测结果,识别所述待检测图像中的人物动作信息;
所述图像处理模块,用于当所述待检测图像中的目标检测区域的重叠面积超过第一阈值、所述相邻图像帧中的目标检测区域的重叠趋势为持续减小,并且肢体检测框与眼部特征点和鼻梁特征点无重合时,确定所述待检测图像中的人物动作信息为第一动作。
8.根据权利要求7所述的装置,其特征在于,
所述图像处理模块,用于对所述待检测图像进行去噪处理,以形成包括人脸特征和肢体特征的待检测图像;
所述图像处理模块,用于对所述待检测图像中的人脸的五官位置进行定位,从所述五官位置中确定相适配的待检测特征点;所述图像处理模块,用于确定所述人脸特征和所述肢体特征的重叠区域为目标检测区域。
9.根据权利要求8所述的装置,其特征在于,
所述图像处理模块,用于在所述待检测图像中生成人脸检测框与所述肢体检测框;
所述图像处理模块,用于对所述人脸检测框与所述肢体检测框的重叠区域进行检测;
所述图像处理模块,用于对所述肢体检测框与所述待检测特征点的重叠进行检测。
10.根据权利要求9所述的装置,其特征在于,
所述图像处理模块,用于确定所述待检测图像中的目标检测区域的重叠面积;
所述图像处理模块,用于根据所确定的目标检测区域的重叠面积,确定所述相邻图像帧中的目标检测区域的重叠趋势,以实现对所述相邻图像帧目标检测区域的重合度进行检测。
11.根据权利要求10所述的装置,其特征在于,
所述图像处理模块,用于当确定所述待检测图像中的待检测特征点和目标检测区域失败时,触发调取所缓存的固定帧数的所述待检测图像;
所述图像处理模块,用于对所述固定帧数的待检测图像所对应的图像的状态进行检测;
所述图像处理模块,用于当所述固定帧数的待检测图像中的目标检测区域处于稳定状态时,对所述固定帧数的待检测图像中的待检测特征点和目标检测区域进行检测。
12.根据权利要求11所述的装置,其特征在于,
所述图像处理模块,用于当所述相邻图像帧中的目标检测区域的重叠趋势符合预设变化曲线、所述目标检测区域的重合度处于最大值状态,并且所述肢体检测框对待检测图像中的人脸的五官完全遮挡时,确定所述待检测图像中的人物动作信息为第二动作。
13.一种图像处理装置,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述可执行指令时,实现如权利要求1至6任一项所述的图像处理方法。
14.一种存储介质,其特征在于,存储有可执行指令,所述可执行指令被
执行时,用于实现如权利要求1至6任一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910606329.5A CN112183173B (zh) | 2019-07-05 | 2019-07-05 | 一种图像处理方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910606329.5A CN112183173B (zh) | 2019-07-05 | 2019-07-05 | 一种图像处理方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183173A CN112183173A (zh) | 2021-01-05 |
CN112183173B true CN112183173B (zh) | 2024-04-09 |
Family
ID=73918775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910606329.5A Active CN112183173B (zh) | 2019-07-05 | 2019-07-05 | 一种图像处理方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183173B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836682B (zh) * | 2021-03-04 | 2024-05-28 | 广东建邦计算机软件股份有限公司 | 视频中对象的识别方法、装置、计算机设备和存储介质 |
CN113326777B (zh) * | 2021-05-31 | 2024-10-15 | 沈阳康慧类脑智能协同创新中心有限公司 | 基于单目摄像机的眼部识别追踪的方法和装置 |
CN113723363B (zh) * | 2021-07-28 | 2024-10-18 | 宁波星巡智能科技有限公司 | 基于连续帧的婴幼儿睡眠检测方法、装置、设备及介质 |
CN114332826B (zh) * | 2022-03-10 | 2022-07-08 | 浙江大华技术股份有限公司 | 一种车辆图像识别方法、装置、电子设备和存储介质 |
CN116185233A (zh) * | 2022-12-29 | 2023-05-30 | 深圳市创易联合科技有限公司 | 触摸屏的压感识别方法、触摸屏和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097379A (ja) * | 2008-10-16 | 2010-04-30 | Denso Corp | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
JP2010225089A (ja) * | 2009-03-25 | 2010-10-07 | Toyota Motor Corp | 運転者監視装置 |
JP2011130328A (ja) * | 2009-12-21 | 2011-06-30 | Sony Corp | 画像処理装置および方法、並びにプログラム |
CN107633204A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
CN108399367A (zh) * | 2018-01-31 | 2018-08-14 | 深圳市阿西莫夫科技有限公司 | 手部动作识别方法、装置、计算机设备及可读存储介质 |
CN109284707A (zh) * | 2018-09-12 | 2019-01-29 | 首都师范大学 | 动目标检测方法及装置 |
CN109584507A (zh) * | 2018-11-12 | 2019-04-05 | 深圳佑驾创新科技有限公司 | 驾驶行为监测方法、装置、系统、交通工具和存储介质 |
CN109684974A (zh) * | 2018-12-18 | 2019-04-26 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5895703B2 (ja) * | 2012-05-22 | 2016-03-30 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
-
2019
- 2019-07-05 CN CN201910606329.5A patent/CN112183173B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097379A (ja) * | 2008-10-16 | 2010-04-30 | Denso Corp | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
JP2010225089A (ja) * | 2009-03-25 | 2010-10-07 | Toyota Motor Corp | 運転者監視装置 |
JP2011130328A (ja) * | 2009-12-21 | 2011-06-30 | Sony Corp | 画像処理装置および方法、並びにプログラム |
CN107633204A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
CN108399367A (zh) * | 2018-01-31 | 2018-08-14 | 深圳市阿西莫夫科技有限公司 | 手部动作识别方法、装置、计算机设备及可读存储介质 |
CN109284707A (zh) * | 2018-09-12 | 2019-01-29 | 首都师范大学 | 动目标检测方法及装置 |
CN109584507A (zh) * | 2018-11-12 | 2019-04-05 | 深圳佑驾创新科技有限公司 | 驾驶行为监测方法、装置、系统、交通工具和存储介质 |
CN109684974A (zh) * | 2018-12-18 | 2019-04-26 | 北京字节跳动网络技术有限公司 | 活体检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112183173A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112183173B (zh) | 一种图像处理方法、装置及存储介质 | |
US11455830B2 (en) | Face recognition method and apparatus, electronic device, and storage medium | |
CN108491775B (zh) | 一种图像修正方法及移动终端 | |
US11443438B2 (en) | Network module and distribution method and apparatus, electronic device, and storage medium | |
CN110070063B (zh) | 目标对象的动作识别方法、装置和电子设备 | |
CN111696176B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN110072047B (zh) | 图像形变的控制方法、装置和硬件装置 | |
EP4243398A1 (en) | Video processing method and apparatus, electronic device, and storage medium | |
CN111582090A (zh) | 人脸识别方法、装置及电子设备 | |
CN110070551A (zh) | 视频图像的渲染方法、装置和电子设备 | |
CN114630057B (zh) | 确定特效视频的方法、装置、电子设备及存储介质 | |
CN111915496B (zh) | 一种图像处理方法、装置及存储介质 | |
KR20150085919A (ko) | 영상 처리 방법 및 그 전자 장치 | |
CN109981989B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN111507142A (zh) | 人脸表情图像处理方法、装置和电子设备 | |
US11810336B2 (en) | Object display method and apparatus, electronic device, and computer readable storage medium | |
CN110047126B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN112511890A (zh) | 视频图像处理方法、装置及电子设备 | |
CN112733575B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN117319725A (zh) | 字幕的显示方法、装置、设备及介质 | |
CN110263743B (zh) | 用于识别图像的方法和装置 | |
CN112950516A (zh) | 图像局部对比度增强的方法及装置、存储介质及电子设备 | |
CN110868634A (zh) | 一种视频处理方法及电子设备 | |
CN111353929A (zh) | 图像处理方法、装置和电子设备 | |
US11237671B1 (en) | Temporal filter touch detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |