CN105100894B - 面部自动标注方法及系统 - Google Patents
面部自动标注方法及系统 Download PDFInfo
- Publication number
- CN105100894B CN105100894B CN201510524543.8A CN201510524543A CN105100894B CN 105100894 B CN105100894 B CN 105100894B CN 201510524543 A CN201510524543 A CN 201510524543A CN 105100894 B CN105100894 B CN 105100894B
- Authority
- CN
- China
- Prior art keywords
- face
- video
- camera
- content
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 38
- 230000001815 facial effect Effects 0.000 claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000007405 data analysis Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 6
- 239000000956 alloy Substances 0.000 claims description 3
- 229910045601 alloy Inorganic materials 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims 2
- 230000004807 localization Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000003064 k means clustering Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本发明公开了一种面部自动标注方法及系统。其中,所述方法包括:将输入视频分割为不同的视频帧集合后通过摄像机获取内容及镜头边界检测算法在视频帧集合中提取时间及空间信息。并通过抓取社会网络中的弱标记面部图像来收集弱标记数据。然后结合迭代优化聚类算法的面部检测来滤除所述弱标记数据中的噪声,生成包含有已优化标记图像的标记数据库作为训练数据。依据存储在标记数据库中的已优化标记图像,在输入视频中寻找并标记包含面部图像,与所述标记数据库中任一已优化标记图像相匹配的目标视频帧。通过半监督学习算法,对输入视频中尚未标记的面部轨迹进行标记来完成视频面部的标注。最后,输出包含有已标注面部图像的输入视频。
Description
技术领域
本发明涉及视频信息和面部标注技术领域,特别涉及一种在社会网络数据视频中采用半监督学习的面部自动标注方法及系统。
背景技术
随着视频采集设备的快速发展,近几年,网络宽带迅速的增长和在线和离线以各种形式的视频共享社会网络视频内容急剧增加。随着上述发展趋势,在广泛的,各种应用范围中,在大量的视频进行标注具有很大的需求。手动进行视频标注耗时耗力。因此,在最近几年,视频的自动标注得到很多关注。在视频中,面部是最重要和出现最频繁的对象,然而,对人体自动标注可以在许多方面,例如安全性、丰富的内容生成、医学分析、视频文件和存档方面的应用。
但是,对于计算机而言,在视频中进行面部标注,其问题在于使用具有已知标识的预设的先验知识集合(例如,作为训练数据的己标记图像)在视频序列中定位和识别特定的面部(如给定的面部标识)。面部识别(Face Recognition,FR)是面部标注的重要组成部分。一般而言,有两种类型的面部识别,其中一种是在约束环境下进行FR,从而使面部识别能够相对稳定和静态的背景下进行;而另一种则是在无约束环境下进行FR,导致面部识别需要在非稳定的动态变化背景下进行。由于在方向、亮度以及形状等方面存在大量的变化,在无约束环境下进行面部识别是很有挑战性的。由于视频内在的多样性,在视频中进行面部标注属于无约束环境的类型。为了提高标注的准确率,通常采用一些带多种类型的框架、特征以及分类的方法,其通常也包括使用一些手动操作产生的训练数据(如,已标记的图像)。
本发明公开了一种直接解决如上所述一个或者更多问题的方法和系统。
发明内容
本发明公开了一种通过在社会网络数据中采用半监督学习实现视频面部自动标注方法。所述方法包括将一段输入视频分割为多个不同的视频帧集合,然后通过摄像机获取内容及镜头边界检测算法在所述视频帧集合中提取时间及空间信息。并且,通过抓取社会网络中的弱标记面部图像从而收集弱标记数据。所述方法还包括:结合迭代优化聚类算法的面部检测滤除所述弱标记数据中的噪声,生成包含有已优化标记图像的标记数据库作为训练数据,并依据存储在所述标记数据库中的已优化标记图像,在所述输入视频中寻找并标记包含一个或者多个面部图像,与所述标记数据库中的已优化标记图像相匹配的目标视频帧。进一步的,还包括通过半监督学习算法,对输入视频中尚未标记的面部轨迹进行标记从而标注在所述输入视频中的面部图像,并且输出包含有已标注面部图像的输入视频。
本发明公开了一种通过在社会网络数据中采用半监督学习实现视频面部自动标注系统。所述系统包括摄像机获取内容检测模块,用于通过摄像机获取内容及镜头边界检测算法分别在一段输入视频形成的多个视频帧集合中提取时间及空间信息。所述系统还包括:社会网络数据分析模块,用于通过抓取社会网络中的弱标记面部图像收集弱标记数据,并通过结合迭代优化聚类算法的面部检测滤除所述弱标记数据中的噪声,以及生成包含有已优化标记图像的标记数据库作为训练数据,以及面部匹配模块,用于依据存储在所述标记数据库中的已优化标记图像,在所述输入视频中寻找并标记包含一个或者多个面部图像,与所述标记数据库中的已优化标记图像相匹配的目标视频帧。进一步的,还包括主动半监督学习模块,用于对输入视频中尚未标记的面部轨迹进行标记从而标注在所述输入视频中的面部图像和输出模块,用于输出包含有已标注面部图像的输入视频。
本发明的其他方面,所属技术领域技术人员能够依据本发明的权利要求书、说明书以及附图有效实施并充分公开。
附图说明
图1为本发明具体实施例的工作系统的示意图。
图2为本发明具体实施例的计算系统的示意图。
图3为本发明具体实施例的自动视频面部标注系统的结构示意图。
图4为本发明具体实施例的通过社会网络数据,在视频中利用半监督学习,完成面部自动标注的方法的方法流程图。
图5为本发明具体实施例的摄像机获取内容检测方法的示意图。
图6为本发明具体实施例的将视频流分割为不同的视频组成成分的示意图。
具体实施例
附图中展示的部分将被引用以具体说明,阐述本发明具体技术实施方案。说明书中引用的数字代表附图的相应部分。
图1为本发明具体实施方式中的工作系统100。如图1所示,所述工作系统100包括:电视机102,遥控器104,服务器106,用户108,网络系统110。当然还可以包括其他合适的设备。
电视机102可以是任何合适类型的电视机,例如等离子电视,LCD电视,背投式电视,智能电视或者非智能电视。电视机102还可以包括计算系统,例如个人电脑,掌上电脑或者智能手机等。进一步的,所述电视机102还可以是任何由遥控器104控制的,能够在一个到多个频道中演示多个节目的内容演示设备。
所述遥控器104可以是任何合适类型的能够遥控操作电视机102的遥控器,例如配套的电视遥控器,通用电视遥控器,掌上电脑,智能手机或者其他能够实现遥控功能的智能设备。遥控器104还可以包括其他不同类型的设备,例如动作感应遥控设备,图像感应遥控设备以及其他一些简单输入设备,例如键盘,鼠标,声控输入设备等。
具体的,所述服务器106可以是任何用于提供个人信息内容给用户108的一个或者多个计算机服务器。所述服务器106还用于辅助在遥控器104和电视机102之间进行通信连接,数据存储和数据处理。电视机102,遥控器104以及服务器106通过网络系统110建立通信连接,例如有线网络,手机网络,或者其他具体的网络。
用户108使用遥控器104控制电视机102播放不同的节目或者进行其他用户感兴趣的活动。如果电视机102配备有动作感应或者图像感应装置,用户还可以简单的使用手势动作进行控制。用户108可以是一个人也可以是多个,例如全部家庭成员在一起观看电视节目。
电视机102,遥控器104和/或服务器106可以在一个合适的电子计算平台实现其功能。图2为本发明具体实施方式中的一种可用于实现上述设备102、104和/或106的功能的计算系统200的结构框图。
如图2所示,所述计算系统200包括处理模块202,存储媒体204,监视器206,通信模块208,数据库210以及外围设备212。所述计算系统可以减省上述设备,也可以添加一些其他类型的设备,而不限于上述设备。
所述处理模块202可以是任何合适的处理器或处理器组。具体的,所述处理模块202可以为能够进行多线程处理的多核心处理器。存储媒体204可以是任何合适的存储设备,例如ROM,RAM,闪存或者大容量存储器,例如CD-ROM,硬盘等。存储媒体204用于存储由处理器202执行的,为进行各种数据处理而预设的计算机运行程序。
所述外围设备212具体包括:各种类型的传感器以及输入,输出设备,例如键盘,鼠标。通信模块208具体包括:各类网络交互设备,用于在设备间通过网络系统建立连接。数据库210具体包括一到多个用于存储不同数据以及对数据进行一些处理,例如搜索数据的数据库。
在实际操作中,电视机102,遥控器106和/或服务器104可以为用户108完成面部自动标注的方法。所述面部自动标注方法可以通过社会网络数据,利用半监督学习方法,自动地完成对视频的“标记”。
图3为本发明具体实施例的面部自动标注系统的结构框图。如图3所示,所述面部自动标注系统300具体包括:输入视频302,“摄像机获取内容”检测模块304,社会网络数据分析模块306,主动半监督学习模块308,面部配对模块310以及输出模块312。上述系统可以减省所述设备,也可以添加一些其他类型的设备,而不限于所述设备。所述系统300(如多个功能模块组成的)具体可以由硬件实现其功能,也可以由软件实现其功能,还可以结合硬件和软件一起实现其功能。
所述输入视频302具体可以是任何类型的视频内容或者视频资源。输入视频302的内容包括视频数据以及元数据。输入视频的一系列视频帧包含了视频的内容并用于其他模块进行其他处理。所述输入视频也可以为一幅的图片。将输入视频划分成多个不同的视频帧集合。
所述“摄像机获取内容”检测模块304可以用于通过“摄像机获取内容”(cameratake)和镜头边界检测算法在输入视频的多个视频帧集合中提取时间和空间信息。
所述“摄像机获取内容”检测模块304还可以包括“摄像机获取内容”子模块3042,面部检测子模块3044和面部轨迹子模块3046。也可以包括其他相关的部件和装置。
“摄像机获取内容”子模块3042可以用于将原始的以交错形式组成的视频分离为一系列视频序列,其中每一视频序列均与一个“已记录的摄像机”对应。所述“已记录的摄像机”通过记录源于输入视频帧的每一摄像机,与初始的摄像机设置一致。
面部检测子模块3044用于在视频帧序列中自动的定位面部的位置。
面部轨迹子模块3046用于通过对每一“摄像机获取内容”中的每一视频帧的处理,来获取视频中的面部轨迹。一个新的面部轨迹则通过检测每一“摄像机获取内容”中的第一个面部图像来完成初始化。对于每一“摄像机获取内容”中的其余视频帧,如果在连续的视频帧之间检测到的两个面部之间的差异超过预定的阈值,则初始化一个新的面部轨迹,否则将这一面部加入到当前面部轨迹中。
社会网络数据分析模块306用于通过从社会网络中抓取弱标记面部图像来收集弱标记数据,然后应用脸部检测以及迭代优化聚类算法来消除噪声,并生成标记数据库作为训练数据。
社会网络数据分析模块306具体可以包括搜索引擎3062,面部检测子模块3064,弱标签面部子模块3066,迭代优化聚类子模块3068和面部标签优化子模块3069。也可以包括其它部件或装置。
所述搜索引擎3062可以是一种公众搜索引擎,例如谷歌图片搜索、百度贴吧社区,或者收藏与电影相关照片的内部数据库。对于给定的电影和一系列进行面部标注的演员,每个演员的(例如,目标演员)的名字和电影的名字作为关键词在社会网络中进行查询。
所述面部检测子模块3064用于从社会网络中获取的一系列信息中的每一张图片中自动的定位面部的位置。
所述弱标签面部模块3066用于通过滤除噪声从而获取只与电影相关的每个演员的面部图像并存储获得的面部图像。
所述迭代优化聚类子模块3068用于采用迭代优化聚类算法优化标记的面部图像。也就是说,在迭代优化聚类子模块3068可应用迭代优化聚类算法,选择其中最大的聚类从而获取所述目标演员的图像并滤除噪声。
所述面部标签优化子模块3069用于存储优化后的标记面部图像。
进一步的,面部配对模块310用于依据标记的图像和尺度不变特征转换的(SIFT)匹配技术,在视频中出现过的面部图像中找到正确的视频帧。
所述主动半监督学习模块308用于通过半监督学习算法标记剩余未标记的面部轨迹。主动半监督学习模块308包括未标记的面部轨迹数据库3082,已标记面部数据库3084和面部识别子模块3086。所述未标记的面部轨迹数据库3082可以用于储存未标记的面部轨迹。所述已标记的面部数据库3084可以用于储存已标记的面部轨迹。面部识别模块3086用于在无约束环境中进行面部识别并且标记剩余未标记的面部轨迹。
所述输出模块312用于输出已标注的面部。上述特定的模块可以合并或者省略,也可以加入其它不同的模块。
图4为通过社会网络数据,在视频中利用半监督学习,完成面部自动标注的方法400的流程图。
如图4所述,首先将一段输入视频分割成多个不同的视频帧集合(S402)。由于视频事实上是一个连续的视频帧序列,并且考虑到一般的帧率(例如,25帧/秒),连续的视频帧之间的变化是比较小的。所以,可以应用一些分组或聚类技术,将整个视频分割成为多个不同的视频帧集合,用于作进一步的处理,而不是处理单独每个视频帧。所述视频帧集合内的视频帧为对于后续处理而言相类似的视频帧。
图6为将视频流分割为不同的视频组成成分的示意图。如图6所示,视频流可以分割为多个场景,场景可以分割为多个镜头,镜头还可以进一步分割为多个视频帧等等。视频帧能够进一步划分为对象和可以被提取以供进一步处理的视频帧特征,这个过程通过所述“摄像机获取内容”检测模块304完成。
在获取输入视频序列后,视频序列被简化为与通过记录输入视频帧中的每一摄像机,与初始摄像机设置一致的“已记录摄像机设置”相对应的视频帧序列(S404)。
一般的电影视频序列是一个由多个镜头以交错形式组成,并且每一“摄像机获取内容”均通过一给定的摄像机设置连续记录形成。在此使用术语“已记录的摄像机”,表示对采用不同摄像机参数设置获取的,在视频序列或者视频流中的视频帧。所述“已记录的摄像机”的概念源自于视频编辑中视频重构的“摄像机获取内容”(camera take)。典型的视频序列是一个由多个镜头以交错形式组成,并且在给定的摄像机设置下,“摄像机获取内容”是一个连续的记录过程。通过记录输入视频帧的每一个摄像机,所述原始的镜头交错形式可以被分离为与初始摄像机设置一致的“已记录摄像机设置”对应的一系列视频帧序列。
在摄像机记录模块完成上述摄像机记录操作后,在同一摄像机设置下拍摄的,相似重复的照片可以被省略,从而在降低流量的同时将识别正确率维持在可接受的水平。也就是说,摄像机记录的操作可以用于对视频帧中不同的摄像机拍摄图像进行记录,从而简化视频帧并将简化后的视频帧提供给后续处理步骤。
图5为本发明具体实施例的“摄像机获取内容”检测方法的流程图。如图5所示,“摄像机获取内容”检测方法可以包括如下步骤。
“摄像机获取内容”是由同一摄像机拍摄的一系列连续的视频帧。所述“摄像机获取内容”可以分割为一系列片段并且与其他摄像机的“摄像机获取内容”交错组合构成视频序列中的一个事件或者故事。基于在同一个镜头中的两个连续的视频帧在可视内容方面具有极高相似性的假设,可以使用相似性指标来计算视频帧之间的差异性,例如使用颜色直方图(或者用于节省计算量消耗的原始像素值)作为两个视频帧之间相似程度的测量方法。(S4042)。可选地,使用多种不同的相似度计算方法实现不同的计算复杂度以及计算速度。
在视频序列中检测镜头(S4044)。如果视频帧的差别超过一个合适的界限,则生成一个新镜头。对于所述合适的界限的选择而言,如果没有选择合适的界限,则会导致产生过多或者过少的片段,具体与视频节目的类型(如真人秀,戏剧等等)相关。为了生成所述合适的界限并进一步优化检测结果,可以增加一些约束条件,例如镜头持续时间。
选出能够代表镜头可视内容的关键帧(S4046)。亦即,使用预设的算法在镜头中选出能够最好的代表对应镜头视频内容的关键帧。例如,选择了镜头中的第一帧作为关键帧用于进行后续处理。也可以使用其他合适的方法选出(或者生成)最具有代表性的一个或者多个视频帧。
进一步的,确定每个“摄像机获取内容”(S4048)。每个检测到的镜头(由关键帧所表示)与每个检测到的“摄像机获取内容”的最后一个镜头进行配对。如果满足一预定的匹配指标,则将当前的镜头加入到配对的“摄像机获取内容”的最后。这是基于一个镜头与具有最接近时间关系的另一个镜头相邻的可能性最大的假设。最初的,在一段具体的时间区间中,假设第一个镜头为“摄像机获取内容”。所述配对的策略依据不同的视频播放需求,从SIFT特征点匹配改变为视频帧差异程度匹配。另外,还可以使用摄像机退出(cameraretirement)策略。亦即,在一段特定的时间区间内,无法找到与某一“摄像机获取内容”相匹配的图像时,考虑将这一“摄像机获取内容”“退出”并且从已记录的摄像机列表中删除。如图5所示,检测并确定具体的“摄像机获取内容”/摄像机记录编号#1,#2,#3。
继续参阅图4,在确定“摄像机获取内容”后,检测在每一视频帧中的面部(S406)。对于面部标注,检测每一视频帧中的面部可以在应用面部识别前有效的获得面部轨迹。亦即,可以在“摄像机获取内容”的每一视频帧中进行面部检测。所述面部检测可以自动的在一系列视频帧中定位面部的位置。例如,可以使用经典的viola-jones面部识别算法来进行面部检测。
假设视频由N个视频帧组成,每个视频帧由Fi(i=1,...,N)表示,Ai,a表示在Fi中的第a个面部(α=1,...,Xi,其中Xi为在Fi中的面部总数)。对于每一视频帧Fi,Ai,a在某位置的出现概率可以通过使用矩形框(bounding box)Bi,a计算得出。其中,x,y表示所述矩形框的左上角在垂直和水平坐标轴上的位置,w,h分别表示矩形框的宽度和高度。在每个“摄像机获取内容”的每一视频帧中进行面部检测后,矩形框Bi,a即可确定。
在同一“摄像机获取内容”中检测到的面部组可以作为一个面部轨迹。通过这种方法,在整个视频中生成面部轨迹。(S408)
特别的,一个新的面部轨迹由每一“摄像机获取内容”中检测到的第一个面部进行初始化。对于“摄像机获取内容”的其他视频帧,如果源自于两个连续的视频帧的检测到的面部之间的距离超过预设的阈值,则初始化一个新的面部轨迹,否则,将这一检测到的面部加入到当前面部轨迹中。
使用大量的网络弱标记面部图像来代替手动标记面部图像从而准备训练数据的方法。这些弱标记面部图像通常会包括一些噪声,(例如,其他人的图像)。通过从社会网络中抓取弱标记面部图像而获得所述弱标记数据(S410)。例如,对于一部给定的电影以及一系列的演员的面部标注,每个演员(即目标演员)的名字以及电影的名字可以用来作为公共搜索引擎(例如,google图像搜索或者百度贴吧社区)或者具有电影相关图片的内部数据库进行查询搜索的关键词,然后获得一系列的照片。由于社会网络的搜索结果是依据图片的文本描述自然生成。因此,这些照片搜索结果一般大部分为目标演员的图片而很少包含其他演员的照片,其中每张照片均会包含一个或者多个演员的面部图像。
在前述步骤中的具体的获取结果中的每一张图像上应用面部检测技术。因此,每个演员均有与其对应的检测到的面部图像集合。但是,这些面部图像集合包含有三种类型的噪声:(1)在与所述电影不相关的背景图像中出现目标演员的面部的电影非相关面部图像。(这些面部图像与电影中出现的对应的演员面部图像在姿态、亮度、结构以及形状等方面具有很大的差异,应当从训练数据中剔除);(2)错误标记为目标图像的其他演员的面部图像;(3)由于面部检测器错误导致的无面部图像。
使用迭代优化聚类算法来滤除上述噪声并生成标记数据库作为训练数据。(S412)
由于社会网络的内在属性,所述每一演员对应的面部图像集合由占大部分的目标演员图像以及占少部分的上述三种类型的噪声所组成。因此,可以使用迭代优化聚类算法对已标记面部图像进行优化(S414)。使用上述算法并选择最大的聚类从而获取目标演员的图像并消除噪声。
所述迭代优化聚类算法的工作过程如下所述。用特征向量(如局部二值模式)表示每一面部。使用第一张面部图像对新的分类标签进行初始化,然后在每一个尚未标记的面部图像集合中循环执行上述操作,并且所述面部识别在最接近的邻近图像之间预设的距离阈值内执行。所述面部识别(FR)可以认为是在矩形框Bi,a上的分类问题。亦即,为每个集合{Ci}标记一个类别标签,其中{Ci}(i=1,...,K)表示可能进行标注的人或者角色的已标记的分类类别。
若无法符合阈值,则创建一个新的分类标签来更新模型。在第一次迭代后,选出每个聚类中的代表性面部(如中心点)并淘汰掉较小的聚类。然后,重复执行上述步骤进行下一迭代,直至收敛(即聚类结果不再改变)。
进一步的,存储从前述步骤获得的每个演员与电影相关的图像(S416)。
基于所述标记的图像以及SIFT匹配技术,可以找出在电影中出现的那些面部的正确的视频帧(S418)。亦即,执行面部匹配程序来决定在每个“摄像机获取内容”中的面部与存储的面部之间的匹配关系。存储的面部图像完成标记后,所述那些面部图像出现的正确的视频帧的标记是百分百可信的(假设视频帧匹配完全正确)。
在执行完上述步骤以后,可以生成面部轨迹并且这些轨迹中与已标记的,在线电影相关的面部数据相匹配的一小部分也可以被标记。
在视频中进行面部标注还包括从视频中获取面部轨迹(例如,使用轨迹、位置信息等等)以及在不同面部轨迹中进行面部识别。但是,与现有目标在于一系列静态图像的面部识别不同的是,视频中包含了丰富的时间及空间信息。利用所述时间及空间信息,对剩余的,未标记的面部轨迹进行标记是一个半监督学习问题。特别的,它也是一个部分已标记数据的聚类问题。亦即,在每个聚类中,至少有一个已标记的数据点。
在本发明一些具体实施例中,通过主动半监督学习对所有的面部轨迹进行标记从而完成面部标注(S420)。通过“摄像机获取内容”以及镜头边界检测算法提取时间性及空间性信息,并将提取信息应用于求解带约束条件的半监督学习问题,从而极大的提高聚类的准确性。所述问题及解法具体如下所述。
令R={Ri}表示视频中的面部轨迹。其中(i=1,...,M),M为视频中的面部轨迹的总数。对于每一个面部图像,选择对面部自身标识敏感,而在姿态、亮度、以及面部形态改变时基本不变的特征向量(例如局部二值模式(LBP))。实验研究表明:使用面部轨迹的主要趋势的代表能够有效的简化计算量的同时在每一面部轨迹中变化微小,维持良好的代表性。因此,通过平均在每一面部轨迹中的所有面部的显著性特征向量生成每一面部轨迹的重点特征。令S表示具有P个特征的面部轨迹的重点面部特征。所以Si,j表示对于第i个面部轨迹重点特征的第j个特征维度的值。K表示最终聚类结果的聚类类别总数(例如,需要标注的人的数量),并且Ci表示标记在第i个面部的聚类的标签,其中,1≤Ci≤K。基于k-均值聚类算法的定义,不包含任何约束的目标函数可以通过如下算式表示:
对于带约束的聚类,多个聚类中的相似项目需要满足一些额外的约束,更具体的,基于视频的时间以及空间信息,所述约束具体如下:
(1)cannot-link约束用以表示两个实体为cannot-link关系时,不能设置在同一个聚类中。所述面部轨迹包括在同一个视频帧中没有交集的,包含有完全不同的定义的检测面部。对于在视频中的每一个视频帧Fi,所述没有交集的面部通过矩形框Bi,x(i=1,...,N)表示,其中i表示视频帧的序号,Cx表示用于标记的聚类标签。亦即,所述面部关系为“cannot-link”的约束可以用如下算式表示:
(2)Must-link约束用以表示两个实体为must-link关系时,应当设置在同一个聚类中。若两个面部轨迹的重点特征在矩形框的位置方面上具有相同的变化,并且上述两个面部轨迹属于同一个“摄像机获取内容”。那么,这两个面部轨迹的重点特征具有相同的定义,must-link关系面部的约束可以表示如下:
其中,overlap是一个衡量两个矩形框之间重叠程度的函数,θ为一个预设的参数,判断两个矩形框之间是否达到重叠标准,CameraTake是一个用于表示两个视频帧是否属于同一个“摄像机获取内容”的指示函数。
因此,根据公式(2)和(3),上述两种cannot-link以及must-link的约束均可以通过公式表示。cannot-link以及must-link约束均表示两个数据实体之间的关系。这些约束可以用作某带约束的聚类算法的指导,从而使形成的聚类中的数据集合能够满足特定的must-link和cannot-link约束。
因此,结合公式(1)、(2)和(3),所述目标函数可以定义如下:
其中,wi,j表示违反“must-link”约束的罚分的权重;(1-wi,j)表示违反“cannot-link”约束的罚分的权重;Z表示所有关系为“must-link”的面部轨迹对的集合,所以(Si,*,Sj,*)∈Z表示Si,*和Sj,*必须分入同一个聚类中;并且,C表示所有关系为“cannot-link”的面部轨迹对的集合,所以(Si,*,Sj,*)∈C表示Si,*和Sj,*必须分入不同的聚类中。
在带强约束的聚类中,问题在于将目标函数最小化从而满足所述强约束。亦即,对所有的面部轨迹标记标签Ci从而使公式(4)最小化。将公式(4)定义的目标函数最小化亦相当于使隐马尔科夫随机场的配置后验概率最大化,所述最大化可以通过量度基于成对约束的K-均值聚类(MPCKMeans)算法求解。所述MPCK-Means是一种从K均值聚类算法(K-Means)结合度量学习以及成对约束衍生而来的半监督学习算法。
在对所有面部轨迹完成标记后,及视频中的面部标注完成后,输出带面部标注的视频。(S422)例如,可以向用户播放所述带面部标注的视频,或者将所述带面部标注的视频提供给其他程序或者设备进行后续的处理。
通过使用本发明上述具体实施例的方法及其系统,还可以实现其他更多的应用。例如,所述面部标注技术可以应用新的视频领域,其中在视频中的关键人物的面部可以实现自动检测以及标注从而便利于多种多媒体内容的管理任务,例如新视频的集锦,浏览以及回放。
应当理解的是,本发明所述的自动面部标注模型不仅限于电视机使用场景,所述方法及系统还可以用于任何具有播放功能的设备,例如智能手机、掌上电脑、个人电脑、智能手表等等。本发明所述的方法还可以作为其他系统的核心功能,例如基于视频内容的推荐系统、基于视频内容的回放系统等等。
进一步的,尽管本发明的自动面部标注方法只公开了上述的使用对象,但与本发明相似的概念以及方法均可以应用于其他标注系统,例如图像标注等。将本发明所述系统和方法应用于不同领域,进行改进,替换,调整的具体技术实施方案都是本领域普通技术人员不需要通过创造性劳动就能实现的。
Claims (18)
1.一种面部自动标注方法,其特征在于,所述方法包括:
将一段输入视频分割为多个不同的视频帧集合;
通过摄像机获取内容及镜头边界检测算法在所述视频帧集合中提取时间及空间信息;
通过抓取社会网络中的弱标记面部图像从而收集弱标记数据;
通过结合迭代优化聚类算法的面部检测滤除所述弱标记数据中的噪声;
生成包含有已优化标记图像的标记数据库作为训练数据;
依据存储在所述标记数据库中的已优化标记图像,在所述输入视频中寻找并标记包含一个或者多个面部图像的,与所述标记数据库中的已优化标记图像相匹配的目标视频帧;
通过半监督学习算法,对输入视频中尚未标记的面部轨迹进行标记从而标注在所述输入视频中的面部图像;并且
输出包含有已标注面部图像的输入视频;
所述半监督学习算法具体包括:
不包含约束的目标函数通过如下算式表示:
2.根据权利要求1所述的方法,其特征在于,所述通过摄像机获取内容及镜头边界检测算法在所述视频帧集合中提取时间及空间信息的步骤具体包括:
将初始的交错形式的视频分离为一系列视频序列,通过记录源于输入视频帧中包含的摄像机设置,将每一视频序列分别与初始的摄像机设置一致的已记录摄像机设置设置对应;
在一系列视频帧中进行面部定位,确定面部的位置,并且
通过在每一摄像机获取内容的视频帧中进行面部定位,从视频中提取面部轨迹。
3.根据权利要求2所述的方法,其特征在于,所述通过在每一摄像机获取内容的视频帧中进行面部定位,从视频中提取面部轨迹的步骤具体包括:利用每一摄像机获取内容的第一个已检测面部初始化一个新的面部轨迹;对于每一摄像机获取内容余下的视频帧,当分别来自于连续的视频帧的两个已检测面部的距离超过预设的阈值时,初始化一个新的面部轨迹;当分别来自于连续的视频帧的两个检测到的面部的距离没有超过预设的阈值时,则将所述面部加入到当前面部轨迹中。
4.根据权利要求1所述的方法,其特征在于,所述通过结合迭代优化聚类算法的面部检测滤除所述弱标记数据中的噪声的步骤具体包括:
在其中一个社会网络以及内部数据库中进行关键词检索;
在社会网络检索结果的集合的每个图像中自动地定位面部的位置;
通过滤除搜索结果图像中的噪声获取只与电影相关的每个演员的面部图像;
存储所述只与电影相关的每个演员的面部图像;
使用迭代优化聚类算法优化已标记面部图像;并且
将优化后的已标记面部图像存储到标记数据库中作为训练数据。
5.根据权利要求2所述的方法,其特征在于,所述将初始的交错形式的视频分离为一系列视频序列,每一视频序列均与通过记录源于输入视频帧的每一摄像机,与初始的摄像机设置一致的“已记录的摄像机”对应的步骤具体包括:
使用颜色的差异性来衡量两个视频帧之间的相似程度;
在一段视频序列中检测多个镜头;
选出用于代表镜头视频内容的关键帧;并且
确定一个摄像机获取内容。
6.根据权利要求5所述的方法,其特征在于,所述在一段视频序列中检测多个镜头的步骤还包括:
当视频帧的差异超出预设界限时,定义为一个新的镜头;其中,所述预设界限以视频节目的类型为基础,利用约束生成预设界限;并利用所述预设界限进一步优化检测结果。
7.根据权利要求5所述的方法,其特征在于,所述将初始的交错形式的视频分离为一系列视频序列,每一视频序列均与通过记录源于输入视频帧的每一摄像机,与初始的摄像机设置一致的“已记录的摄像机”对应的步骤具体包括:
匹配每个检测到的镜头和每个摄像机获取内容中的最后一个镜头,其中,所述镜头由镜头的关键帧表示;并且
当满足预定的匹配标准时,将所述检测到的镜头加入到对应的摄像机获取内容的末端。
10.一种面部自动标注系统,其特征在于,所述系统包括:
摄像机获取内容检测模块,用于通过摄像机获取内容及镜头边界检测算法分别在一段输入视频形成的多个视频帧集合中提取时间及空间信息;
社会网络数据分析模块,用于通过抓取社会网络中的弱标记面部图像收集弱标记数据,并通过结合迭代优化聚类算法的面部检测滤除所述弱标记数据中的噪声,以及生成包含有已优化标记图像的标记数据库作为训练数据;
面部匹配模块,用于依据存储在所述标记数据库中的已优化标记图像,在所述输入视频中寻找并标记包含一个或者多个面部图像,与所述标记数据库中的已优化标记图像相匹配的目标视频帧;
主动半监督学习模块,用于通过半监督学习算法对输入视频中尚未标记的面部轨迹进行标记从而标注在所述输入视频中的面部图像;以及
输出模块,用于输出包含有已标注面部图像的输入视频;
所述主动半监督学习模块具体用于:
不包含任何约束的目标函数通过如下算式表示:
11.根据权利要求10所述的系统,其特征在于,所述摄像机获取内容检测模块具体包括:
摄像机获取内容子模块,用于将初始的交错形式的视频分离为一系列视频序列,通过记录源于输入视频帧中包含的摄像机设置,将每一视频序列分别与初始的摄像机设置一致的已记录摄像机设置设置对应;
面部检测子模块,用于自动地定位面部在一系列视频帧中的位置;
面部轨迹子模块,用于通过在每一摄像机获取内容的每一视频帧中进行所述自动定位处理,在视频中提取面部轨迹。
12.根据权利要求11所述的系统,其特征在于,所述面部轨迹子模块具体用于:
利用每一摄像机获取内容的第一个已检测面部初始化一个新的面部轨迹;对于每一摄像机获取内容余下的视频帧,当分别来自于连续的视频帧的两个已检测面部的距离超过预设的阈值时,初始化一个新的面部轨迹;当分别来自于连续的视频帧的两个已检测面部的距离没有超过预设的阈值时,则将所述面部加入到当前面部轨迹中。
13.根据权利要求10所述的系统,其特征在于,所述社会网络数据分析模块具体包括:
搜索引擎,用于在其中一个社会网络以及内部数据库中进行关键词检索;面部检测子模块,用于在社会网络检索结果的集合的每个图像中自动地定位面部的位置;
弱标记面部子模块,用于通过滤除搜索结果图像中的噪声获取纯粹与电影相关的每个演员的面部图像以及存储所述纯粹与电影相关的每个演员的面部图像;
迭代优化聚类子模块,用于使用迭代优化聚类算法优化已标记面部图像;以及
优化标记面部子模块,用于将优化后的已标记面部图像存储到标记数据库中作为训练数据。
14.根据权利要求11所述的系统,其特征在于,所述摄像机获取内容子模块具体用于:
使用颜色的差异性来衡量两个视频帧之间的相似程度;
在一段视频序列中检测多个镜头;
选出最能代表镜头视频内容的关键帧;并且
确定一个摄像机获取内容。
15.根据权利要求14所述的系统,其特征在于,所述摄像机获取内容子模块还用于:
当视频帧的差异超出预设界限时,定义为一个新的镜头;其中,所述预设界限以视频节目的类型为基础,并应用多个特定的约束最终生成预设界限;并利用所述预设界限进一步优化检测结果。
16.根据权利要求14所述的系统,其特征在于,所述摄像机获取内容子模块还用于:
匹配每个检测到的镜头和每个摄像机获取内容中的最后一个镜头,其中,所述镜头由镜头的关键帧表示;并且
当满足预定的匹配标准时,将所述检测到的镜头加入到对应的摄像机获取内容的末端。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/468,800 US9176987B1 (en) | 2014-08-26 | 2014-08-26 | Automatic face annotation method and system |
US14/468,800 | 2014-08-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105100894A CN105100894A (zh) | 2015-11-25 |
CN105100894B true CN105100894B (zh) | 2020-05-05 |
Family
ID=54352729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510524543.8A Active CN105100894B (zh) | 2014-08-26 | 2015-08-24 | 面部自动标注方法及系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9176987B1 (zh) |
CN (1) | CN105100894B (zh) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9652745B2 (en) * | 2014-06-20 | 2017-05-16 | Hirevue, Inc. | Model-driven evaluator bias detection |
US9811882B2 (en) * | 2014-09-30 | 2017-11-07 | Electronics And Telecommunications Research Institute | Method and apparatus for processing super resolution image using adaptive preprocessing filtering and/or postprocessing filtering |
US9858679B2 (en) * | 2014-11-04 | 2018-01-02 | Hewlett-Packard Development Company, L.P. | Dynamic face identification |
CN105893920B (zh) * | 2015-01-26 | 2019-12-27 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法和装置 |
WO2016172870A1 (zh) * | 2015-04-29 | 2016-11-03 | 北京旷视科技有限公司 | 视频监控方法、视频监控系统以及计算机程序产品 |
US9875443B2 (en) * | 2015-06-18 | 2018-01-23 | TCL Research America Inc. | Unified attractiveness prediction framework based on content impact factor |
US9430697B1 (en) * | 2015-07-03 | 2016-08-30 | TCL Research America Inc. | Method and system for face recognition using deep collaborative representation-based classification |
US10860837B2 (en) * | 2015-07-20 | 2020-12-08 | University Of Maryland, College Park | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition |
US9928875B2 (en) * | 2016-03-22 | 2018-03-27 | Nec Corporation | Efficient video annotation with optical flow based estimation and suggestion |
CN107452021A (zh) * | 2016-04-19 | 2017-12-08 | 深圳正谱云教育技术有限公司 | 基于单镜头图像动态识别的摄像机自动跟踪系统及其方法 |
CN108268510B (zh) * | 2016-12-30 | 2022-01-28 | 华为技术有限公司 | 一种图像标注方法和装置 |
CN106960216A (zh) * | 2017-02-24 | 2017-07-18 | 北京农业智能装备技术研究中心 | 一种农机作业机具类型的识别方法和装置 |
CN108734049A (zh) * | 2017-04-13 | 2018-11-02 | 佳能株式会社 | 图像处理方法和装置以及图像处理系统 |
US10997395B2 (en) * | 2017-08-14 | 2021-05-04 | Amazon Technologies, Inc. | Selective identity recognition utilizing object tracking |
TWI636426B (zh) * | 2017-08-23 | 2018-09-21 | 財團法人國家實驗研究院 | Method of tracking a person's face in an image |
CN107657269A (zh) * | 2017-08-24 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 一种用于训练图片提纯模型的方法和装置 |
CN108235114A (zh) * | 2017-11-02 | 2018-06-29 | 深圳市商汤科技有限公司 | 视频流的内容解析方法和系统、电子设备、存储介质 |
CN108875821A (zh) * | 2018-06-08 | 2018-11-23 | Oppo广东移动通信有限公司 | 分类模型的训练方法和装置、移动终端、可读存储介质 |
CN108924644B (zh) * | 2018-06-20 | 2021-11-26 | 阿里巴巴(中国)有限公司 | 视频片段提取方法及装置 |
CN109086697A (zh) * | 2018-07-20 | 2018-12-25 | 腾讯科技(深圳)有限公司 | 一种人脸数据处理方法、装置及存储介质 |
CN109299732B (zh) * | 2018-09-12 | 2020-05-05 | 北京三快在线科技有限公司 | 无人驾驶行为决策及模型训练的方法、装置及电子设备 |
CN109376764B (zh) * | 2018-09-13 | 2021-12-07 | 北京字节跳动网络技术有限公司 | 基于聚类的数据收集方法、装置和计算机可读存储介质 |
US10963700B2 (en) * | 2018-09-15 | 2021-03-30 | Accenture Global Solutions Limited | Character recognition |
CN109472217B (zh) * | 2018-10-19 | 2021-08-31 | 广州慧睿思通信息科技有限公司 | 智能化运动训练模型构建方法及装置、训练方法及装置 |
CN111382620B (zh) * | 2018-12-28 | 2023-06-09 | 阿里巴巴集团控股有限公司 | 视频标签添加方法、计算机存储介质和电子设备 |
CN109816700B (zh) * | 2019-01-11 | 2023-02-24 | 佰路得信息技术(上海)有限公司 | 一种基于目标识别的信息统计方法 |
CN109815861B (zh) * | 2019-01-11 | 2023-04-28 | 舟山魔墙科技有限公司 | 一种基于人脸识别的用户行为信息统计方法 |
US10984246B2 (en) * | 2019-03-13 | 2021-04-20 | Google Llc | Gating model for video analysis |
CN110135263A (zh) * | 2019-04-16 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 人像属性模型构建方法、装置、计算机设备和存储介质 |
CN110245267B (zh) * | 2019-05-17 | 2023-08-11 | 天津大学 | 多用户视频流深度学习共享计算复用方法 |
US11423694B2 (en) | 2019-06-19 | 2022-08-23 | Samsung Electronics Company, Ltd. | Methods and systems for dynamic and incremental face recognition |
CN110853124B (zh) * | 2019-09-17 | 2023-09-08 | Oppo广东移动通信有限公司 | 生成gif动态图的方法、装置、电子设备及介质 |
US11144766B2 (en) | 2019-09-25 | 2021-10-12 | Sony Group Corporation | Method for fast visual data annotation |
CN110796201B (zh) * | 2019-10-31 | 2023-07-11 | 达闼机器人股份有限公司 | 一种标注框的修正方法、电子设备及存储介质 |
CN111400550A (zh) * | 2019-12-30 | 2020-07-10 | 深圳市商汤科技有限公司 | 一种目标运动轨迹构建方法、设备以及计算机存储介质 |
CN111275097B (zh) * | 2020-01-17 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 视频处理方法及系统、图片处理方法及系统、设备、介质 |
CN111626091B (zh) * | 2020-03-09 | 2023-09-22 | 咪咕文化科技有限公司 | 人脸图像标注方法、装置及计算机可读存储介质 |
CN113449543B (zh) * | 2020-03-24 | 2022-09-27 | 百度在线网络技术(北京)有限公司 | 视频检测方法、装置、设备、以及存储介质 |
CN111402298A (zh) * | 2020-03-30 | 2020-07-10 | 南京财经大学 | 基于目标检测与轨迹分析的粮库视频数据压缩方法 |
US20210319226A1 (en) * | 2020-04-14 | 2021-10-14 | Nec Laboratories America, Inc. | Face clustering in video streams |
CN113742520B (zh) * | 2020-05-29 | 2023-11-07 | 北京大学 | 基于半监督学习的密集视频描述算法的视频查询检索方法 |
CN111986150B (zh) * | 2020-07-17 | 2024-02-09 | 万达信息股份有限公司 | 一种数字病理图像的交互式标注精细化方法 |
CN112153343B (zh) * | 2020-09-25 | 2022-09-02 | 北京百度网讯科技有限公司 | 电梯安全监控方法、装置、监控摄像头和存储介质 |
CN112668411A (zh) * | 2020-12-15 | 2021-04-16 | 南京中兴力维软件有限公司 | 基于sgan的视频流标记方法、装置、系统及存储介质 |
CN113221857A (zh) * | 2021-06-16 | 2021-08-06 | 深圳大学 | 一种基于草图交互的模型变形方法及装置 |
US20230316726A1 (en) * | 2022-03-27 | 2023-10-05 | Deep Sentinel Corp. | Using guard feedback to train ai models |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6137544A (en) * | 1997-06-02 | 2000-10-24 | Philips Electronics North America Corporation | Significant scene detection and frame filtering for a visual indexing system |
CN1360699A (zh) * | 1999-02-22 | 2002-07-24 | 西门子共同研究公司 | 创建和链接视频文档的方法与设备 |
CN1477566A (zh) * | 2003-07-18 | 2004-02-25 | 北京大学计算机科学技术研究所 | 一种对镜头进行基于内容的视频检索的方法 |
CN1987892A (zh) * | 2005-12-23 | 2007-06-27 | 北京海鑫科金高科技股份有限公司 | 基于数据流形的人脸自动识别方法 |
CN101137986A (zh) * | 2005-03-10 | 2008-03-05 | 皇家飞利浦电子股份有限公司 | 音频和/或视频数据的概括 |
CN101833569A (zh) * | 2010-04-08 | 2010-09-15 | 中国科学院自动化研究所 | 一种对电影人脸图像进行自动标识的方法 |
CN101902617A (zh) * | 2010-06-11 | 2010-12-01 | 公安部第三研究所 | 一种用dsp和fpga实现视频结构化描述的装置及方法 |
CN102799637A (zh) * | 2012-06-27 | 2012-11-28 | 北京邮电大学 | 一种电视节目内部自动生成主要人物摘要的方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7242988B1 (en) * | 1991-12-23 | 2007-07-10 | Linda Irene Hoffberg | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US8352400B2 (en) * | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7006881B1 (en) * | 1991-12-23 | 2006-02-28 | Steven Hoffberg | Media recording device with remote graphic user interface |
US6655015B2 (en) * | 2001-03-30 | 2003-12-02 | David G. Kraenzle | DPA automated assembly and packaging machine |
US7027054B1 (en) * | 2002-08-14 | 2006-04-11 | Avaworks, Incorporated | Do-it-yourself photo realistic talking head creation system and method |
US7903870B1 (en) * | 2006-02-24 | 2011-03-08 | Texas Instruments Incorporated | Digital camera and method |
US8064639B2 (en) * | 2007-07-19 | 2011-11-22 | Honeywell International Inc. | Multi-pose face tracking using multiple appearance models |
US8520979B2 (en) * | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
CN103299324B (zh) | 2010-11-11 | 2016-02-17 | 谷歌公司 | 使用潜在子标记来学习用于视频注释的标记 |
-
2014
- 2014-08-26 US US14/468,800 patent/US9176987B1/en active Active
-
2015
- 2015-08-24 CN CN201510524543.8A patent/CN105100894B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6137544A (en) * | 1997-06-02 | 2000-10-24 | Philips Electronics North America Corporation | Significant scene detection and frame filtering for a visual indexing system |
CN1360699A (zh) * | 1999-02-22 | 2002-07-24 | 西门子共同研究公司 | 创建和链接视频文档的方法与设备 |
CN1477566A (zh) * | 2003-07-18 | 2004-02-25 | 北京大学计算机科学技术研究所 | 一种对镜头进行基于内容的视频检索的方法 |
CN101137986A (zh) * | 2005-03-10 | 2008-03-05 | 皇家飞利浦电子股份有限公司 | 音频和/或视频数据的概括 |
CN1987892A (zh) * | 2005-12-23 | 2007-06-27 | 北京海鑫科金高科技股份有限公司 | 基于数据流形的人脸自动识别方法 |
CN101833569A (zh) * | 2010-04-08 | 2010-09-15 | 中国科学院自动化研究所 | 一种对电影人脸图像进行自动标识的方法 |
CN101902617A (zh) * | 2010-06-11 | 2010-12-01 | 公安部第三研究所 | 一种用dsp和fpga实现视频结构化描述的装置及方法 |
CN102799637A (zh) * | 2012-06-27 | 2012-11-28 | 北京邮电大学 | 一种电视节目内部自动生成主要人物摘要的方法 |
Non-Patent Citations (1)
Title |
---|
《Highly accurate video object identification utilizing hint information》;Liang Peng等;《2014 International Conference on Computing, Networking and Communications (ICNC)》;20140410;第317-321页 * |
Also Published As
Publication number | Publication date |
---|---|
US9176987B1 (en) | 2015-11-03 |
CN105100894A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105100894B (zh) | 面部自动标注方法及系统 | |
JP7317919B2 (ja) | 外観検索のシステムおよび方法 | |
Cong et al. | Towards scalable summarization of consumer videos via sparse dictionary selection | |
US10140575B2 (en) | Sports formation retrieval | |
US8705810B2 (en) | Detecting and indexing characters of videos by NCuts and page ranking | |
US8781179B2 (en) | System and method to assign a digital image to a face cluster | |
CN105590091B (zh) | 一种面部识别方法及其系统 | |
CN104994426B (zh) | 节目视频识别方法及系统 | |
US20160379055A1 (en) | Graph-based framework for video object segmentation and extraction in feature space | |
US9177208B2 (en) | Determining feature vectors for video volumes | |
Demirkus et al. | Robust semi-automatic head pose labeling for real-world face video sequences | |
Lin et al. | Visual-attention-based background modeling for detecting infrequently moving objects | |
US20130108177A1 (en) | Image matching using motion manifolds | |
Meng et al. | Object instance search in videos via spatio-temporal trajectory discovery | |
Han et al. | Personalized video summarization with human in the loop | |
Li et al. | Videography-based unconstrained video analysis | |
CN111209897A (zh) | 视频处理的方法、装置和存储介质 | |
JP5116017B2 (ja) | 動画検索方法およびシステム | |
Ji et al. | News videos anchor person detection by shot clustering | |
Ren et al. | Activity-driven content adaptation for effective video summarization | |
Duan et al. | Nonparametric motion characterization for robust classification of camera motion patterns | |
Zhou et al. | Modeling perspective effects in photographic composition | |
e Souza et al. | Survey on visual rhythms: A spatio-temporal representation for video sequences | |
Presti et al. | A data association algorithm for people re-identification in photo sequences | |
Deotale et al. | Optimized hybrid RNN model for human activity recognition in untrimmed video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 516006 TCL technology building, No.17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co., Ltd Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL RESEARCH AMERICA Inc. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |