CN104169842A - 用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器 - Google Patents

用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器 Download PDF

Info

Publication number
CN104169842A
CN104169842A CN201380013687.6A CN201380013687A CN104169842A CN 104169842 A CN104169842 A CN 104169842A CN 201380013687 A CN201380013687 A CN 201380013687A CN 104169842 A CN104169842 A CN 104169842A
Authority
CN
China
Prior art keywords
video
face
frame
user
focus area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380013687.6A
Other languages
English (en)
Other versions
CN104169842B (zh
Inventor
M·法加达尔-科斯马
M·卡萨斯-桑切斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Origin Asset Group Co ltd
Original Assignee
Alcatel Lucent SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcatel Lucent SAS filed Critical Alcatel Lucent SAS
Publication of CN104169842A publication Critical patent/CN104169842A/zh
Application granted granted Critical
Publication of CN104169842B publication Critical patent/CN104169842B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种用于控制在会议情形等中使用的与用户(12)相关联的视频界面(4)的方法,包括:捕获源自所述用户(12)的视频流的帧(11);识别所述视频帧(11)内所述用户(12)的面部(10);检测所述视频帧(11)内所述用户(12)的所述面部(10)的朝向;以及提供指示所述面部(10)的所述朝向的控制信号。本发明还涉及一种用于操作视频界面(4)的方法,包括:上述控制方法的步骤;基于控制信号将面部(10)的朝向映射到所述视频界面(4)的焦点区域(15);以及突出所述焦点区域(15)。本发明进一步涉及用于执行上述方法的面部朝向检测器(6)和视频会议服务器(5)。

Description

用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器
技术领域
本发明涉及用于控制在会议情形等中使用的与用户相关联的视频界面的方法。本发明还涉及用于操作在会议情形等中使用的与用户相关联的视频界面的方法。本发明进一步涉及面部朝向检测器,其包括用于接收视频流的视频输入和用于提供指示视频流内面部的朝向的控制信号的信令输出,其中面部朝向检测器适于执行上述方法。本发明还涉及用于向用户提供用户界面的视频会议服务器,其中,视频会议服务器适于执行上述方法。
背景技术
对彼此地域分离的人们的通信的需求日益增长。为了便于通信和信息的交换,视频会议正变得越来越重要,以允许用户彼此交谈,看见彼此和/或交换任何类型的信息。为了提高会议结果,希望用户可以在类似会议的情形下讨论任何问题,在该情形下用户可以自然地彼此交互。
视频会议通常基于不同用户之间的IP连接,其用于将信息从一个参加者传输到另一个。该信息通常包括能够看到和听到用户的音频/视频流,还包括将要在会议参加者之间共享的任何类型的数字文件。因此,视频会议的每个用户具有用于在本地生成用户的音频/视频流的视频摄像机,所生成的音频/视频流被提供给其它用户,并且每个用户还使用视频界面,其在本地显示在接口设备上以用于再现用户的音频/视频流和在会议中使用的任何类型的数据。
视频会议服务器被提供以在视频会议的所有用户之间分发信息。因此,视频会议服务器将视频界面提供给用户,用户可使用任何类型的接口设备以参加视频会议,例如,用于再现音频/视频信息的屏幕和扬声器的组合。信息可例如以用户的音频/视频流的个体流(individual streams)的形式提供,或者作为包括个体流和附加文件(如果适用)的单一流(single steram)提供。
在这种会议情形等中,用户与视频界面的交互用于改善所接收信息的表现。一个可能性是依靠连接到视频接口设备的输入设备(例如鼠标)的交互。正如已知的,鼠标可用作来自个人计算机的人机接口,以突出和操作部分视频界面,其中用户专心于或者配置视频会议本身。对于沉浸式(immersive)会议,这是不能令人满意的,因为它打破了自然交互的感觉。它要求用户随时专心于交互设备的操作,以便实现所期望的交互,并且将用户的焦点从类似会议情形的实际会议流程转移开。视频会议服务器接收来自用户的控制输入,并相应地更新他们各自的视频界面。
另一种用于在会议情形中交互的方法基于注视控制。注视控制是指监控人类眼睛的位置,以便确定屏幕的用户聚焦的区域。注视控制依靠用户的眼睛的监控,其具有若干缺点,阻碍了该控制对于沉浸式视频会议等情形的一般使用。首先,注视控制要求高分辨率摄像机,因此并不适合于目前所用的许多普通摄像机,例如,带有摄像机的普通膝上型电脑或智能电话,其不能为注视控制提供足够的分辨率。此外,视频摄像机的视频流通常被编码以用于通过IP连接传输。特别是在低带宽或高延迟的连接中,视频流的质量会降低,这对注视控制的准确性和性能具有负面影响。诸如眼镜或太阳眼镜的眼睛佩戴物的使用也可阻碍注视控制的使用。由于注视控制要求高质量的视频信息,因此,也要求高计算能力以处理该信息。因此,注视控制只能用提供所要求的计算能力的特定硬件来执行。
发明内容
因此,本发明的目的是提供用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器和视频会议服务器,其克服上述的缺点和限制。
该目的通过独立权利要求实现。有利的实施例在从属权利要求中给出。
具体地,提供了用于控制在会议情形等中使用的与用户相关联的视频界面的方法,其包括:捕获源自用户的视频流的帧;识别视频帧内用户的面部;检测视频帧内用户的面部的朝向;以及提供指示面部的朝向的控制信号。
进一步地,提供了用于操作在会议情形等中使用的与用户相关联的视频界面的方法,其包括:执行如上所述的用于控制视频界面的方法;基于控制信号将面部的朝向映射到视频界面的焦点区域;以及突出焦点区域。
此外,提供了面部朝向检测器,其包括:用于接收视频流的视频输入;以及用于提供指示视频流内面部的朝向的控制信号的信令输出;其中,面部朝向检测器适于执行上述方法。
此外,提供了用于向用户提供用户界面的视频会议服务器,其中,视频会议服务器适于执行上述方法。
基本思想是检测面部的朝向以用于控制和操作视频界面。面部的朝向的检测可被执行而无需强大的硬件要求,例如,生成具有特定分辨率的视频流,或者提供特定计算能力。面部的朝向的检测可基于低分辨率摄像机进行,这种摄像机是大多数膝上型电脑、智能电话或其它数据处理设备的一部分。即使提供给面部检测器的视频流是被编码的,也可适用。在会议情形等中,假定人位于摄像机的前面,以使得即使是数据低质量的视频流,也可显示足够的细节以用于面部的朝向的检测。眼睛佩戴物或其它面部佩戴物的使用仅仅部分遮盖面部,这使得面部的朝向的检测能够基于没被眼睛佩戴物或其它面部佩戴物遮盖的面部的部分。该方法适合于在云内使用或者由位于因特网中的服务器使用,因为视频流可以低数据速率提供以用于执行面部的朝向的检测。对于视频流的传输不存在高带宽要求。
面部朝向检测器是一种设备,其可以在用户侧本地提供,例如与用于直接将视频流传递给面部朝向检测器的视频摄像机整体连接。因此,视频摄像机可提供指示面部的朝向的控制信号以及其视频流。此外,面部朝向检测器可位于远离用户的地方,例如,作为位于因特网中的网络设备。面部朝向检测器可被实现为云服务。
面部朝向检测器要求用于接收视频流的视频输入,其可以是任何类型的合适输入。视频流可以例如直接从视频摄像机经由已知的模拟视频连接器或者从视频摄像机作为数字视频流经由IP连接而被提供为模拟或数字视频流。
视频会议服务器产生如上所述的视频界面。视频界面的操作由用户的面部的朝向来控制。用户通常位于显示视频界面的显示器的前面,该视频界面例如可以是视频屏幕或视频屏幕的投影。视频摄像机通常位于视频界面处并面向用户,以使得用户的本地视频流可被提供给视频会议服务器。采用该假设,控制信号可指示面部的朝向,仅仅作为例如预定义坐标系统中的一种矢量或位置。指示面部的朝向的控制信号被视频会议服务器用于提供面部的朝向到视频界面的区域的映射,其中该区域也称为焦点区域。
焦点区域被认为是用户最感兴趣的区域,并因此被突出以便于接收在该区域中显示的信息。焦点区域可以仅仅通过显示器的点或者通过显示器的具有任何形状的区域来表示。例如,焦点区域可以是具有某一直径的圆形区域、或者方形或矩形区域。焦点区域也可以利用在视频界面上显示的视频会议的项目来定义。这种项目例如是视频会议的用户的视频流的表现、或者是由包括本地用户的视频会议的用户提供的任何类型的信息的再现。在这种情况下,面部的朝向被映射到最匹配面部的朝向的项目。
面部检测器可例如使用HAAR分类器执行,其被应用在视频流的视频帧上。HAAR分类器对视频帧内多个面部的检测进行标记,并提供边界框作为面部的标识。优选地,具有最大尺寸的边界框被选择为用户的面部以用于进一步处理。因此,即使多个人与视频流中可见的用户在一起,也可以可靠地检测用户的面部的朝向。面部特征的标识优选使用例如Sobel或Canny的边缘算子,并应用SIFT特征检测器或“用于跟踪的好特征(goodfeatures to track)”算法。
优选实施例还包括执行皮肤识别以用于验证视频帧内至少一个面部的标识的步骤。优选地,基于颜色的皮肤分割被应用于帧以用于执行例如由HAAR分类器识别的面部的真实性检查。因为所识别的面部的出现必须匹配皮肤颜色光谱,因此,可拒绝面部的错误出现。
根据优选实施例,检测视频帧内用户的面部的朝向的步骤包括以下步骤:标识视频帧内所识别的面部的至少一个面部特征;将视频帧内至少一个面部特征的当前位置与其在先前视频帧中的位置进行比较;根据视频帧内至少一个面部特征与其在先前视频帧中的位置的比较,导出面部朝向。面部特征是指面部的容易跟踪的部分,例如鼻尖、下巴、嘴角或其它。将要用于本方法的面部特征的数量和种类可以根据例如视频流质量或者可用处理能力来自由选择。原则上,本方法用单个面部特征已经有效。然而,更多数量的面部特征可增加面部的朝向的检测的可靠性和准确性。为了检测面部的朝向,这些面部特征的位置在不同的视频帧之间跟踪。视频帧可以是连续的视频帧或者有延迟的视频帧。处理的视频帧越少,计算的工作量就越低,然而,连续视频帧的处理可增加面部的朝向的检测的可靠性。基于不同的面部特征的位置的差异,可导出面部朝向。在评估多个面部特征时,面部朝向可被提供为不同面部特征的朝向的变化的平均值。
优选实施例还包括初始化所识别的面部的面部朝向的步骤。初始化可在视频会议开始时执行,或者在会议期间的任何时间执行。此外,初始化也可在视频会议期间在面部的检测丢失时执行。初始化能够实现用户的面部的可靠检测,并将用户的面部的朝向设置为预定义值,例如,指示面部朝向中心区域的空(NULL)值。
根据优先实施例,将视频帧内至少一个面部特征的当前位置与其在先前视频帧中的位置进行比较的步骤包括:应用光流估计方法。优选地,光流估计方法是金字塔Lukas-Kanade光流估计方法。该方法容易移植到不同平台上,并进一步适合于基于GPU的执行,以使得该方法在基于云的实现中执行良好。
根据优选实施例,根据视频帧内的至少一个面部特征与其在先前视频帧中的位置的比较而导出面部朝向的步骤包括:基于至少一个对每个面部特征包含一个矢量的矢量场计算朝向矢量。矢量场优选地包括表示面部的旋转的旋转分量、表示面部朝向或远离摄像机移动的散度分量、以及表示平行于视频摄像机的平面的平移运动的辐射分量。优选地,这三个分量通过面部特征的光流集合的Helmholtz-Hodge分解而获得。进一步优选地,可采用Kalman滤波器以减少噪声影响。
根据优选实施例,将面部的朝向映射到焦点区域的步骤包括:根据视频界面提供虚拟网格,以及将虚拟网格的至少一个网孔映射到焦点区域。即使没有关于由用户用于再现视频界面的显示器的知识,虚拟网格也可被提供并用于计算。焦点区域的突出优选地包括突出网格的至少一个网孔。因此,控制信号可通过标识一个网孔来指示面部的朝向。虚拟网格的网孔可根据视频会议的项目来设计。
在优选实施例中,突出焦点区域的步骤包括:执行焦点区域的放大操作。放大或扩大可对焦点区域本身或者对焦点区域和周围区域执行。优选地,放大操作针对在视频界面上显示的视频会议的全部项目执行。
根据优选实施例,突出焦点区域的步骤包括:执行除了焦点区域外的区域的缩小操作。根据放大操作,缩小操作可在焦点区域本身或者焦点区域和周围区域的周围执行。优选地,缩小也基于在视频界面上显示的项目。缩小可在本地例如在焦点区域周围的边界区域中或者在视频界面的除了焦点区域以外的整个剩余区域上执行。优选地,放大和缩小可被组合以用于有效地突出焦点区域。
在优选实施例中,突出焦点区域的步骤包括在视频界面的高亮区域中显示焦点区域的内容。根据放大,焦点区域本身或者焦点区域和周围区域可在高亮区域中显示。高亮区域允许操作视频界面而无需修改其主要部分。例如,视频界面的至少一部分,例如视频界面的边界区域或者边框,可显示视频会议的所有项目,而视频界面的另一个部分,例如其中心区域,显示与焦点区域对应的项目。在可选实施例中,焦点区域的内容可被移动到高亮区域。
根据优选实施例,视频会议服务器还包括上述面部朝向检测器。
附图说明
现参考附图并仅以示例的方式描述根据本发明的装置和/或方法的一些实施例,其中:
图1示出根据实施例的用于控制和操作视频界面的方法的流程图;
图2是说明根据上述方法的检测面部的朝向的图;
图3是说明根据上述方法的突出与焦点区域对应的视频界面的项目的图;
图4是说明根据上述方法的基于矢量场导出面部的朝向的图;
图5是说明根据上述方法的突出与焦点区域对应的视频界面的项目的另一个图;
图6示出根据第一实施例的包括视频摄像机、视频会议服务器和面部朝向检测器的视频会议系统的示意图。
具体实施方式
图6示出根据第一实施例的视频会议系统1的示意图。在该实施例中,视频会议系统1包括视频接口设备2和数字视频摄像机3。视频接口设备2在该实施例中是LCD显示器,其再现从视频会议服务器5提供的视频界面4。视频会议系统1进一步包括面部朝向检测器6。视频接口设备2、数字视频摄像机3、视频会议服务器5和面部朝向检测器6经由IP连接7连接。在可选实施例中,面部朝向检测器6与视频会议服务器5整体地提供。
面部朝向检测器6经由IP连接器8从数字视频摄像机3接收视频流。如以下详细描述的,面部朝向检测器6检测面部10的朝向,并经由IP连接器8将指示面部的朝向的控制信号提供给视频会议服务器5。因此,面部朝向检测器6的IP连接器8充当用于从数字视频摄像机3接收数字视频流的视频输入,以及用于提供指示在视频帧中显示的面部10的朝向的控制信号的信令输出。
视频会议服务器5产生视频界面4,即,会议流内视频会议的再现,并经由IP连接7提供给视频接口设备2,其中示出了视频界面4的再现。
图1示出了根据实施例的方法的流程图。方法以步骤S100开始。步骤S100包括方法的初始化,其包括初始化面部识别和在视频流中显示的面部10的朝向,如以下详细说明的。
在初始化步骤S100,对数字视频摄像机3的视频帧11应用例如配置了Intel的OpenCV库的正面面部HAAR分类器。与时刻t0与t1对应的个体视频帧11在图2中示出。视频帧11显示如由会议情形中的数字视频摄像机3提供的视频会议的本地用户12,其中该本地用户12位于数字视频摄像机3的前面并面向视频接口设备2上的视频界面2。初始化包括用户12的面部10的检测和面部10的初始位置。面部检测使用正面面部HAAR分类器实施。训练普通正面面部HAAR分类器的方式要求用户12的面部10必须笔直地朝向数字视频摄像机3,以便发生检测。
对于每个视频帧11,HAAR分类器提供面部出现的列表作为一组边界框BBi,i=1..n,其中n表示所检测的面部出现的数量。每个BBi被表示为四元组<X,Y,W,H>,其中<X,Y>表示帧中BB中心的坐标,<W,H>表示其在图像像素中的尺寸(宽度,高度)。图2示出指示视频帧11内用户12的面部10的边界框BB。
此外,将基于颜色的皮肤识别和分割应用于视频帧11,并通过所连接部件分析来确定皮肤碎片。然后,根据以下公式选择最大的边界框BBmax
BBmax=arg maxBB{A(BBi)|SRi>TSR},i=1..n   (1)
其中:
-SRi=皮肤比(skin ratio)=标记为皮肤的像素的数量/框区域中像素的总数;
-A(BBi)=BBi.W×BBi.H=边界框面积泛函;
-TSR=专用皮肤比阈值(例如,0.8);
-arg max=最大化函数的参数。
这确保了如果在场景中有多个人面向数字视频摄像机3,则只有最靠近数字视频摄像机3的人将被选择以用于进一步处理。由于来自Haar分类器的错误正面识别而导致的错误出现可以被拒绝,因为出现必须匹配皮肤颜色光谱。因此,皮肤识别提供了视频帧11内至少一个面部10的标识的验证。
如果在视频帧11中发现BBmax,面部朝向矢量V0被初始化为:
-原点=<BBmax.X,BBmax.Y>;
-方向=垂直于帧平面;
-大小=BBmax.H/像素中的帧高度。
在步骤S110,该方法继续相对于初始化而检测视频帧11中最大的面部10,如上所述的。
在步骤S120,执行面部特征14的跟踪。因此,在图2中被标记为I0的发生了初始面部检测的视频帧11通过边缘算子(例如,Sobel或Canny)传递以提供发生了初始面部检测的视频帧11(也称为I0)的边缘图像E0。边缘图像E0包括一组边缘13。在初始面部检测后的任何时间t,当前视频帧11被称为It,而Et是其对应的边缘图像。
可被跟踪的面部特征14的特征集合F0通过将SIFT特征检测器或者Shi和Tomasi的称为“用于跟踪的好特征”算法的算法应用于由BBmax定义的感兴趣区域(ROI)内的E0来获得,如图2中所示的。
然后,特征集合F0在下一个边缘图像E1中通过使用光流算法来跟踪,例如,金字塔Lukas-Kanade光流估计方法。一般地,关于边缘图像Et的特征集合Ft通过使用光流算法估计来自集合Ft-1的每个面部特征14的位置来产生。
特征集合Ft数学上表示为:
Ft={fi|i=1...nt}   (2)
其中,称为fi的每个被跟踪的面部特征14被表示为四元组<x,y,x’,y’>,其中,<x,y>表示集合Ft-1中面部特征14的先前位置,<x’,y’>表示新估计的位置。考虑到Δx=x’–x和Δy=y’–y,很明显地,面部特征14可以用矢量Vf i的形式表示,其中:
-原点=<x,y>;
-方向=arctg(Δy/Δx);
-速率=sqrt((Δx)2+(Δy)2)。
算法必须确保面部特征14在被跟踪一定数量的视频帧11后仍然属于用户12的面部10。这通过去除由于噪声或累积误差而造成的异常值(其是错误估计的特征),并周期性地再生特征集合Ft以避免在去除异常值后特征集合Ft基数的减少来实现。
异常值通过相对于帧差异ΔIt=It–It-1约束特征集合Ft来去除。过滤特征集合Ft中的面部特征14,以使得:
Ft={fi|ΔIt(fi.x',fi.y')≠0}   (3)
特征集合Ft根据以下算法周期性地再生(在若干Nf帧后):
-对于特征集合Ft,当t是Nf的倍数时,计算凸多边形C(Ft);
-C(Ft)被设置为用于边缘图像Et的ROI;
-对于在先前所考虑的ROI内的Et再计算可被跟踪的面部特征14的集合Ft’;
-在t+1处,从Ft’开始计算跟踪。
由于用于基于GPU执行的金字塔Lukas-Kanade流估计方法的可移植性,因此,该方法执行得非常快,并适合于服务器侧的实现。
在步骤S130,验证所跟踪的面部特征14的集合Ft是否由于用户12的面部10移动到数字视频摄像机3的覆盖区域之外而丢失。如果所跟踪的面部特征14的集合Ft丢失,则方法返回到步骤S110,检测最大的面部10。否则,方法继续步骤S140。
在步骤S140,根据当前分析的视频帧11更新面部朝向矢量Vt。光流算法的输出被建模为在域Ω(几乎处处都是利普希茨(Lipschitz)连续)中的矢量场u,其中可跟踪特征的集合Ft根据下式而类似于矢量场u:
u = { V i &OverBar; f | f i &Element; F t }
在本方案中,域Ω由在其中计算了光流的边界框BB所定义的感兴趣区域给出。每个矢量场u可如下被分解(在某一组情况下,其中在该例中遇见这些情况)成3个矢量场,其也在图4中示出:
u=d+r+h
其中:
d=无旋分量(即是无旋场),
r=无散度(纯旋转)场,
h=谐波场(即是梯度)。
执行由公式(3)给出的所跟踪的面部特征14的光流集合Ft的Helmholtz-Hodge分解。Helmholtz-Hodge分解产生三个分量:
-旋转分量,表示面部10的旋转;
-散度分量,表示面部10朝向数字视频摄像机3或者远离它的移动;以及
-梯度分量,表示平行于摄像机平面的纯平移运动。
Helmholtz-Hodge分解使用从存在于解决线性系统中的流体动力学中受到启发的无网格算法(meshless algorithm)来执行。
然后,矢量场Ft的旋转、散度和谐波分量被投影为围绕以头部为中心的参考框架的旋转。这些旋转即是:
-滚动(roll):围绕x轴旋转,
-倾斜(pitch):围绕y轴旋转,
-偏转(yaw):围绕z轴旋转,
并被表示为{Δp,Δq,Δr}三元组,其存储相对先前已知的脸部朝向Vt-1的角度偏差。用这些值更新Vt-1给出了当前的头部姿态的,其也采用角度的形式表示为{p,q,r}三元组。
使用这三个旋转分量直接作为头部姿态的指示符(即,用户12的面部10正聚焦到的点)可被改进以减少噪声的影响。噪声源自基于像素的表示的不准确和视频摄像机3的非线性。
为了消除噪声影响,采用Kalman滤波器。直接跟踪头部姿态矢量的Kalman滤波器会涉及奇点(由于{p,q,r}三元组的角度表示),因此,按照四元数进行公式化。四元数是R4={q1,q2,q3,q4}中的矢量,表示围绕以头部为中心的参考框架的旋转。四元数和经典R3矢量之间的转换是简单的,并对于本领域技术人员是已知的。
Kalman符号可以通过应用简化的假设而从飞行动力学中采用并改编,其中该假设是对头部的绝对位置不感兴趣,而仅仅关注它的姿态矢量。因此,离散Kalman滤波器的内部状态仅仅由四元数朝向建模。矩阵[A]和[B]从刚体的力学中采用并改变,误差矩阵[Q]、[P]和[R](过程、估计和测量误差协方差或噪声)被定义为[Q]=σI4x4,[P]仅对于t=0是必需的,并被选择为对角线上的大值的矩阵(例如105),这在数学上说明了相对于例如状态跟踪,测量在跟踪器的早期是非常重要的。矩阵[R]是:
其中,σ是实验确定的。
在该步骤的最后部分,从Kalman滤波器获得的结果给出在三维空间中Vt矢量的方向,而面部10的边界框BB与视频帧11的大小之间的比率给出其大小|Vt|。这种方式得到的矢量Vt是对用户12的面部10的朝向的指示,其可以从面部检测器6利用控制信号提供给视频会议服务器5。
在步骤S150,确定显示器4的焦点区域15。焦点区域15对应于视频界面4上用户12正聚焦的位置。因此,以面部为中心的朝向矢量Vt被投影到具有N×M个格17(也称为网孔)的虚拟网格16上。如图2中所示,虚拟网格16覆盖在视频帧11之上。计算投影是简单的,仅仅考虑矢量的X轴和Y轴分量VX t和VY t
由Vt在XY平面上的投影指向的网孔17表示视频界面4上的焦点区域15。此外,Af i用于确定在视频界面4上显示的沉浸式通信交互式场景20中的项目18、19,如在图3和5中示出并在下面进一步说明的。
在沉浸式视频会议中,每个用户12或参加者Pi被呈现了其交互式场景20,其被标记为Si并可被定制。交互式场景20显示项目18、19,包括其它用户12的视频流屏幕18、称为{Pj,j=1..N,j<>i}的共享文件19和它自己的视频流屏幕18。每个视频流都经过裁剪算法,该算法将用户12的轮廓从背景中分离并在视频流中提供。该布局的目的是向每个用户12提供在同一个房间并面对其它出席者的印象。所有的处理在云中的视频会议服务器5上执行。处理流水线(PPL)保持具有每个用户12的位置的记录,每个交互式场景20(Si)中的Pj被表示为边界框BBj
通过经过上述算法监控每个用户12(Pi)的面部朝向,PPL计算焦点区域15(Af i),并将它覆盖在交互式场景20(Si)之上,如图3所示。用户12必须将其面部在某一时间间隔T内对准焦点区域15的方向,以便被登记为面部10的朝向的变化。一旦面部10的朝向被登记,则PPL检查与交互式场景20中项目18、19的边界框的最大交集。
BBf=arg maxBB{∩(BBj)=Af i∩BBj|j≠i}
然后,在步骤S170,突出由BBf表示的所聚焦的项目18、19。因此,如果所聚焦的项目18、19是视频流屏幕18,则视频流屏幕18与各自的用户12(Pi)的面部朝向矢量|Vi|的大小成比例地被放大。该缩放可通过缩小其它用户12的比例并通过平滑且短暂的过渡动画而将其在场景20(Si)中重新排列来实现,如图3所示。由于PPL不断监控|Vi|,因此,所聚焦的视频流屏幕18的比例可以随着摄像机前的本地用户12(Pi)更靠近或者更远离视频接口设备2来调整。如果所聚焦的项目18、19是文件19,则其在交互式场景20中的位置被与|Vi|成比例地缩放,直到文件19占据整个交互式场景20,如图5所示的。如果在文件19已被缩放到整个场景尺寸后,|Vi|仍然增加(Pi移动得非常靠近视频接口设备2),并且|Vi|>Tzoom(其中Tzoom是专用阈值),则执行对文件19内容的缩放,如在图5中进一步所示的。
在根据焦点区域15来突出项目18、19后,方法返回到步骤120。
本发明可以体现在其它具体的装置和/或方法中。所描述的实施例在所有方面都只是说明性的,而不是限制性的。特别地,本发明的范围由所附的权利要求指明,而不是由在此的说明书和附图指明。所有在权利要求的等同的含义和范围内的改变都被包括在其范围之内。

Claims (14)

1.一种用于控制在会议情形等中使用的与用户(12)相关联的视频界面(4)的方法,包括以下步骤:
捕获源自所述用户(12)的视频流的帧(11);
识别所述视频帧(11)内所述用户(12)的面部(10);
检测所述视频帧(11)内所述用户(12)的所述面部(10)的朝向;以及
提供指示所述面部(10)的所述朝向的控制信号。
2.根据权利要求1所述的方法,还包括以下步骤:
执行皮肤识别以用于验证所述视频帧(11)内至少一个面部(10)的标识。
3.根据权利要求1所述的方法,其中,所述检测所述视频帧(11)内所述用户(12)的所述面部(10)的朝向的步骤包括以下步骤:
标识所述视频帧(11)内所识别的面部(10)的至少一个面部特征(14);
将所述视频帧(11)内所述至少一个面部特征(14)的当前位置与其在先前视频帧(11)中的位置进行比较;以及
根据所述视频帧(11)内所述至少一个面部特征(14)与其在先前视频帧(11)中的位置的比较,导出面部朝向。
4.根据权利要求3所述的方法,还包括以下步骤:
初始化所述所识别的面部(10)的所述面部朝向。
5.根据权利要求3所述的方法,其中,所述将所述视频帧(11)内所述至少一个面部特征(14)的当前位置与其在先前视频帧(11)中的位置进行比较的步骤包括:应用光流估计方法。
6.根据权利要求3所述的方法,其中,所述根据所述视频帧(11)内所述至少一个面部特征(14)与其在先前视频帧(11)中的位置的比较来导出面部朝向的步骤包括:基于至少一个矢量场计算朝向矢量(Vt),其中所述矢量场对于每个面部特征(14)包含一个矢量。
7.一种用于操作在会议情形等中使用的与用户(12)相关联的视频界面(4)的方法,包括以下步骤:
执行根据前述任一方法权利要求的用于控制视频界面(4)的方法;
基于控制信号将面部(10)的朝向映射到所述视频界面(4)的焦点区域(15);以及
突出所述焦点区域(15)。
8.根据权利要求7所述的方法,其中,所述将面部(10)的朝向映射到焦点区域(15)的步骤包括:
根据视频界面(2)提供虚拟网格(16);以及
将所述虚拟网格(16)的至少一个网孔(17)映射到所述焦点区域(15)。
9.根据权利要求7所述的方法,其中,所述突出所述焦点区域(15)的步骤包括:执行所述焦点区域(15)的放大操作。
10.根据权利要求7所述的方法,其中,所述突出所述焦点区域(15)的步骤包括:执行除了所述焦点区域(15)以外的区域的缩小操作。
11.根据权利要求7所述的方法,其中,所述突出所述焦点区域(15)的步骤包括:在所述视频界面(2)的高亮区域中显示所述焦点区域(15)的内容。
12.一种面部朝向检测器(6),包括:
用于接收视频流的视频输入(8);以及
用于提供控制信号的信令输出(8),其中所述控制信号指示所述视频流内面部(10)的朝向;
其中,所述面部朝向检测器(6)用于执行根据权利要求1至6的任意一项的方法。
13.一种用于向用户(12)提供用户界面(4)的视频会议服务器(5),其中,所述视频会议服务器(5)用于执行根据权利要求1至11的任意一项的方法。
14.根据权利要求13所述的视频会议服务器(5),还包括:根据权利要求12的面部朝向检测器(6)。
CN201380013687.6A 2012-03-12 2013-03-05 用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器 Expired - Fee Related CN104169842B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12290086.3 2012-03-12
EP12290086.3A EP2639674B1 (en) 2012-03-12 2012-03-12 Method for control of a video interface, face orientation detector, and video conferencing server
PCT/EP2013/054331 WO2013135523A1 (en) 2012-03-12 2013-03-05 Method for control of a video interface, method for operation of a video interface, face orientation detector, and video conferencing server

Publications (2)

Publication Number Publication Date
CN104169842A true CN104169842A (zh) 2014-11-26
CN104169842B CN104169842B (zh) 2017-04-05

Family

ID=47780079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380013687.6A Expired - Fee Related CN104169842B (zh) 2012-03-12 2013-03-05 用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器

Country Status (6)

Country Link
US (1) US9402053B2 (zh)
EP (1) EP2639674B1 (zh)
JP (1) JP2015517239A (zh)
KR (1) KR20140122275A (zh)
CN (1) CN104169842B (zh)
WO (1) WO2013135523A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995495A (zh) * 2019-12-17 2021-06-18 佛山市云米电器科技有限公司 显示设备的摄像头调节方法、显示设备及存储介质
WO2022000158A1 (en) * 2020-06-29 2022-01-06 Plantronics, Inc Videoconference user interface layout based on face detection
WO2024002321A1 (zh) * 2022-06-30 2024-01-04 武汉联影智融医疗科技有限公司 一种面部朝向确定方法及装置、面部重建方法及装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2602692A1 (en) * 2011-12-05 2013-06-12 Alcatel Lucent Method for recognizing gestures and gesture detector
US10531048B2 (en) 2016-12-15 2020-01-07 Motorola Solutions, Inc. System and method for identifying a person, object, or entity (POE) of interest outside of a moving vehicle
US10726602B2 (en) * 2017-02-03 2020-07-28 Sony Corporation Apparatus and method to generate realistic three-dimensional (3D) model animation
US10423821B2 (en) * 2017-10-25 2019-09-24 Microsoft Technology Licensing, Llc Automated profile image generation based on scheduled video conferences
KR20220126107A (ko) * 2021-03-08 2022-09-15 삼성전자주식회사 화상 회의를 제공하는 전자 장치 및 그 방법
KR20230142194A (ko) 2022-04-01 2023-10-11 주식회사 네트워크전자 비디오 인터페이스 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070263077A1 (en) * 2006-04-20 2007-11-15 Dhuey Michael J System and Method for Dynamic Control of Image Capture in a Video Conference System
US20080266385A1 (en) * 2007-04-30 2008-10-30 Matthew David Smith Automatically calibrating a video conference system
US20100205667A1 (en) * 2009-02-06 2010-08-12 Oculis Labs Video-Based Privacy Supporting System
CN101808220A (zh) * 2010-02-05 2010-08-18 苏州科达科技有限公司 一种视频会议系统中控制视频模式的控制方法及相应装置
US20110018963A1 (en) * 2009-07-22 2011-01-27 Robinson Ian N Video collaboration

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4898026B2 (ja) 2001-06-29 2012-03-14 本田技研工業株式会社 ステレオカメラを使用した顔・視線認識装置
CN100446038C (zh) * 2002-12-11 2008-12-24 皇家飞利浦电子股份有限公司 用于校正视频电话图像中头部姿态的方法和装置
JP4111080B2 (ja) * 2003-06-27 2008-07-02 日産自動車株式会社 脇見状態検出装置
JP4305752B2 (ja) * 2003-10-24 2009-07-29 ソニー株式会社 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム
JP4496060B2 (ja) * 2004-11-11 2010-07-07 日本電信電話株式会社 遷移支援方法及び映像音声通信システム
JP4160997B1 (ja) * 2007-06-01 2008-10-08 Sky株式会社 操作画像再生装置及び操作画像再生プログラム
JP2009080573A (ja) * 2007-09-25 2009-04-16 E Compute Kk 表示手法
JP2010224677A (ja) * 2009-03-19 2010-10-07 Seiko Epson Corp 画像評価方法、画像評価プログラムおよび印刷装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070263077A1 (en) * 2006-04-20 2007-11-15 Dhuey Michael J System and Method for Dynamic Control of Image Capture in a Video Conference System
US20080266385A1 (en) * 2007-04-30 2008-10-30 Matthew David Smith Automatically calibrating a video conference system
US20100205667A1 (en) * 2009-02-06 2010-08-12 Oculis Labs Video-Based Privacy Supporting System
US20110018963A1 (en) * 2009-07-22 2011-01-27 Robinson Ian N Video collaboration
CN101808220A (zh) * 2010-02-05 2010-08-18 苏州科达科技有限公司 一种视频会议系统中控制视频模式的控制方法及相应装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995495A (zh) * 2019-12-17 2021-06-18 佛山市云米电器科技有限公司 显示设备的摄像头调节方法、显示设备及存储介质
WO2022000158A1 (en) * 2020-06-29 2022-01-06 Plantronics, Inc Videoconference user interface layout based on face detection
US11877084B2 (en) 2020-06-29 2024-01-16 Hewlett-Packard Development Company, L.P. Video conference user interface layout based on face detection
WO2024002321A1 (zh) * 2022-06-30 2024-01-04 武汉联影智融医疗科技有限公司 一种面部朝向确定方法及装置、面部重建方法及装置

Also Published As

Publication number Publication date
WO2013135523A1 (en) 2013-09-19
JP2015517239A (ja) 2015-06-18
EP2639674A1 (en) 2013-09-18
KR20140122275A (ko) 2014-10-17
CN104169842B (zh) 2017-04-05
US20150077504A1 (en) 2015-03-19
EP2639674B1 (en) 2016-06-01
US9402053B2 (en) 2016-07-26

Similar Documents

Publication Publication Date Title
CN104169842A (zh) 用于控制视频界面的方法、用于操作视频界面的方法、面部朝向检测器以及视频会议服务器
US8044989B2 (en) Mute function for video applications
US9503687B2 (en) Personalized meeting event capture using egocentric tracking in smart spaces
JP2017507557A (ja) 高解像度の動画ストリームを自身の端末で視聴するユーザの体感品質を向上するためのプロセス
US11048464B2 (en) Synchronization and streaming of workspace contents with audio for collaborative virtual, augmented, and mixed reality (xR) applications
EP3912338B1 (en) Sharing physical writing surfaces in videoconferencing
Chou et al. Automated lecture recording system
Stearns et al. Automated person detection in dynamic scenes to assist people with vision impairments: An initial investigation
Wulff et al. LectureSight: an open source system for automatic camera control for lecture recordings
US9424555B2 (en) Virtual conferencing system
Kurata et al. VizWear: Toward human-centered interaction through wearable vision and visualization
Sun et al. Video Conference System in Mixed Reality Using a Hololens
CN113507599B (zh) 基于大数据分析的教育云服务平台
CN111800599B (zh) 基于智能眼镜进行数据流获取和显示的方法及智能眼镜
Lee et al. Viewpoint stabilization for live collaborative video augmentations
Zhang et al. Semantic saliency driven camera control for personal remote collaboration
Zhang Computer vision technologies for remote collaboration using physical whiteboards, projectors and cameras
Leroy et al. 3d head pose estimation for tv setups
Yang et al. Automatic Region of Interest Prediction from Instructor’s Behaviors in Lecture Archives
Friedland et al. Anthropocentric video segmentation for lecture webcasts
Krajčinović et al. People movement tracking based on estimation of ages and genders
De la Torre et al. Learning to track multiple people in omnidirectional video
Yip Face and eye rectification in video conference using artificial neural network
Xu et al. Adapting computer vision algorithms to real-time peer-to-peer e-learning: Review, issues and solutions
CN115908218A (zh) Xr场景的第三视角拍摄方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190703

Address after: American New York

Patentee after: Origin Asset Group Co.,Ltd.

Address before: French Boulogne Billancourt

Patentee before: ALCATEL LUCENT

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170405