JP2015517239A - ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ - Google Patents
ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ Download PDFInfo
- Publication number
- JP2015517239A JP2015517239A JP2014561363A JP2014561363A JP2015517239A JP 2015517239 A JP2015517239 A JP 2015517239A JP 2014561363 A JP2014561363 A JP 2014561363A JP 2014561363 A JP2014561363 A JP 2014561363A JP 2015517239 A JP2015517239 A JP 2015517239A
- Authority
- JP
- Japan
- Prior art keywords
- video
- face
- orientation
- user
- focus area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
Abstract
Description
BBmax=arg maxBB{A(BBi)|SRi>TSR},i=1..n (1)
ただし:
− SRi=肌比=肌というラベルが付けられたピクセルの数/ボックス領域内のピクセルの総数であり、
− A(BBi)=BBi.W×BBi.H=境界ボックス領域関数であり、
− TSR=アプリケーション特有の肌比閾値(例えば、0.8)であり、
− arg max=その関数を最大化する引数である。
− 原点=<BBmax.X,BBmax.Y>
− 向き=フレーム平面に対して垂直
− 大きさ=BBmax.H/ピクセル単位のフレーム高
ステップS110で、方法は、初期設定に関連して前述したとおり、ビデオフレーム11内の最大の顔10の検出に進む。
Ft={fi|i=1..nt} (2)
であり、fiとも呼ばれる、追跡される各顔特徴14が、4つ組<x,y,x’,y’>として表され、ただし、<x,y>は、セットFt−1の中の顔特徴14の前の位置を表し、さらに<x’,y’>は、新たに推定された位置を表す。Δx=x’−xおよびΔy=y’−yを考慮すると、顔特徴14は:
− 原点=<x,y>であり、
− 向き=arctg(Δy/Δx)であり、
− 速度=sqrt((Δx)2+(Δy)2)である、
ベクトルVf iの形態で表され得ることが直ちに明白である。
Ft={fi|ΔIt(fi.x’,fi.y’)≠0} (3)
であるようにフィルタリングされる。
− tがNfの倍数である特徴セットFtに関して、凸多角形C(Ft)が計算され、
− C(Ft)が、輪郭線画像Etに関するROIとして設定され、
− 追跡され得る顔特徴14のセットFt’が、前に考慮されたROI内のEtに関して再計算され、
− t+1で、追跡が、Ft’から開始して計算される。
u=d+r+h
ただし、
d=カールのない成分であり(すなわち、非回転場であり)、
r=発散のない(純回転)場であり、さらに
h=調和的場である(すなわち、勾配である)。
− 顔10の回転を表す回転成分、
− デジタルビデオカメラ3に近づく、またはデジタルビデオカメラ3から遠ざかる顔10の動きを表す発散成分、および
− カメラ平面に平行である純粋な平行移動を表す勾配成分。
− ロール:x軸の周りの回転
− ピッチ、y軸の周りの回転
− ヨー、z軸の周りの回転
であり、既に知られている顔向きVt−1からの角度差を格納する{Δp,Δq,Δr}3つ組として表現される。Vt−1をこれらの値で更新することが、{p,q,r}3つ組として、やはり角度形態で表される現在の頭部姿勢をもたらす。
ただし、σは、実験によって決定される。
BBf=arg maxBB{∩(BBj)=Af i∩BBj|j≠i}
BBfで表される、注目されるアイテム18、19が、次に、ステップS170で強調表示される。したがって、注目されるアイテム18、19が、ビデオストリーム画面18である場合、ビデオストリーム画面18が、それぞれのユーザ12、Piの顔向きベクトルの大きさ|Vi|に比例して拡大される。この拡大縮小には、図3に示されるとおり、滑らかで短い遷移アニメーションを介して、その他のユーザら12のスケールを縮小すること、および場面20、Siにおいてその他のユーザら12を並べ替えることが伴うことが可能である。PPLは、|Vi|を常時、監視するので、注目されるビデオストリーム画面18のスケールは、カメラの前のローカルユーザ12(Pi)がビデオインターフェースデバイス2に、より近づくにつれ、またはビデオインターフェースデバイス2から、より遠ざかるにつれ、調整されることが可能である。注目される項目18、19が文書19である場合、図5に示されるとおり、対話場面20における文書19の位置が、文書19が対話場面20全体を占有するまで、|Vi|に比例して拡大される。|Vi|が、文書19が全場面サイズにまで拡大された後に、依然として増大し(Piが、ビデオインターフェースデバイス2に非常に近づき)、|Vi|>Tzoom(ただし、Tzoomは、アプリケーション特有の閾値である)となる場合、図5にさらに示されるとおり、文書19の内容に対するズームが、実行される。
Claims (14)
- 会議状況などにおいて使用するためのユーザ(12)に関連付けられたビデオインターフェース(4)を制御するための方法であって、
ユーザ(12)を出所とするビデオストリームのフレーム(11)をキャプチャするステップと、
ビデオフレーム(11)内でユーザ(12)の顔(10)を認識するステップと、
ビデオフレーム(11)内でユーザ(12)の顔(10)の向きを検出するステップと、
顔(10)の向きを示す制御信号をもたらすステップとを備える、方法。 - ビデオフレーム(11)内で少なくとも1つの顔(10)の識別を検証するために肌認識を実行するさらなるステップを備える、請求項1に記載の方法。
- ビデオフレーム(11)内でユーザ(12)の顔(10)の向きを検出するステップが、
ビデオフレーム(11)内の認識された顔(10)の少なくとも1つの顔特徴(14)を識別するステップと、
ビデオフレーム(11)内の少なくとも1つの顔特徴(14)の現在の位置を、前のビデオフレーム(11)における顔特徴の位置と比較するステップと、
ビデオフレーム(11)内の少なくとも1つの顔特徴(14)と前のビデオフレーム(11)における顔特徴の位置の比較から顔の向きを導き出すステップとを備える、請求項1に記載の方法。 - 認識された顔(10)の顔の向きを初期設定するさらなるステップを備える、請求項3に記載の方法。
- ビデオフレーム(11)内の少なくとも1つの顔特徴(14)の現在の位置を、前のビデオフレーム(11)における顔特徴の位置と比較するステップが、オプティカルフロー推定法の適用を備える、請求項3に記載の方法。
- ビデオフレーム(11)内の少なくとも1つの顔特徴(14)と前のビデオフレーム(11)における顔特徴の位置の比較から顔の向きを導き出すステップが、各顔特徴(14)につき1つのベクトルを包含する少なくとも1つのベクトル場に基づいて向きベクトル(Vt)を計算するステップを備える、請求項3に記載の方法。
- 会議状況などにおいて使用するためのユーザ(12)に関連付けられたビデオインターフェース(4)を動作させるための方法であって、
請求項1から6のいずれかに記載のビデオインターフェース(4)を制御するための方法を実行するステップと、
制御信号に基づく顔(10)の向きをビデオインターフェース(4)のフォーカス領域(15)にマップするステップと、
フォーカス領域(15)を強調表示するステップとを備える、方法。 - 顔(10)の向きをフォーカス領域(15)にマップするステップが、
ビデオインターフェース(2)に従って仮想グリッド(16)をもたらすステップと、
仮想グリッド(16)の少なくとも1つのメッシュ(17)をフォーカス領域(15)にマップするステップとを備える、請求項7に記載の方法。 - フォーカス領域(15)を強調表示するステップが、フォーカス領域(15)のアップスケーリング動作を実行するステップを備える、請求項7に記載の方法。
- フォーカス領域(15)を強調表示するステップが、フォーカス領域(15)を除外した領域のダウンスケーリング動作を実行するステップを備える、請求項7に記載の方法。
- フォーカス領域(15)を強調表示するステップは、ビデオインターフェース(2)の強調表示領域においてフォーカス領域(15)の内容を示すステップを備える、請求項7に記載の方法。
- ビデオストリームを受け取るためのビデオ入力(8)と、ビデオストリーム内の顔(10)の向きを示す制御信号をもたらすように構成されたシグナリング出力(8)とを備える、顔向き検出器(6)であって、
請求項1から6のいずれかに記載の方法を実行するように構成された、顔向き検出器(6)。 - ユーザ(12)にユーザインターフェース(4)を提供するためのビデオ会議サーバ(5)であって、
請求項1から11のいずれかに記載の方法を実行するように構成された、ビデオ会議サーバ(5)。 - 請求項12に記載の顔向き検出器(6)をさらに備える、請求項13に記載のビデオ会議サーバ(5)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12290086.3 | 2012-03-12 | ||
EP12290086.3A EP2639674B1 (en) | 2012-03-12 | 2012-03-12 | Method for control of a video interface, face orientation detector, and video conferencing server |
PCT/EP2013/054331 WO2013135523A1 (en) | 2012-03-12 | 2013-03-05 | Method for control of a video interface, method for operation of a video interface, face orientation detector, and video conferencing server |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015517239A true JP2015517239A (ja) | 2015-06-18 |
JP2015517239A5 JP2015517239A5 (ja) | 2016-05-26 |
Family
ID=47780079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014561363A Pending JP2015517239A (ja) | 2012-03-12 | 2013-03-05 | ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ |
Country Status (6)
Country | Link |
---|---|
US (1) | US9402053B2 (ja) |
EP (1) | EP2639674B1 (ja) |
JP (1) | JP2015517239A (ja) |
KR (1) | KR20140122275A (ja) |
CN (1) | CN104169842B (ja) |
WO (1) | WO2013135523A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2602692A1 (en) * | 2011-12-05 | 2013-06-12 | Alcatel Lucent | Method for recognizing gestures and gesture detector |
US10531048B2 (en) | 2016-12-15 | 2020-01-07 | Motorola Solutions, Inc. | System and method for identifying a person, object, or entity (POE) of interest outside of a moving vehicle |
US10726602B2 (en) * | 2017-02-03 | 2020-07-28 | Sony Corporation | Apparatus and method to generate realistic three-dimensional (3D) model animation |
US10423821B2 (en) * | 2017-10-25 | 2019-09-24 | Microsoft Technology Licensing, Llc | Automated profile image generation based on scheduled video conferences |
CN112995495A (zh) * | 2019-12-17 | 2021-06-18 | 佛山市云米电器科技有限公司 | 显示设备的摄像头调节方法、显示设备及存储介质 |
WO2022000158A1 (en) * | 2020-06-29 | 2022-01-06 | Plantronics, Inc | Videoconference user interface layout based on face detection |
KR20220126107A (ko) * | 2021-03-08 | 2022-09-15 | 삼성전자주식회사 | 화상 회의를 제공하는 전자 장치 및 그 방법 |
KR20230142194A (ko) | 2022-04-01 | 2023-10-11 | 주식회사 네트워크전자 | 비디오 인터페이스 방법 |
CN117372322A (zh) * | 2022-06-30 | 2024-01-09 | 武汉联影智融医疗科技有限公司 | 人脸朝向的确定方法及装置、人脸图像的重建方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2005018654A (ja) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | 脇見状態検出装置 |
JP2005130251A (ja) * | 2003-10-24 | 2005-05-19 | Sony Corp | 映像配信システム |
JP2006139028A (ja) * | 2004-11-11 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | 遷移支援方法及び映像音声通信システム |
JP2008299737A (ja) * | 2007-06-01 | 2008-12-11 | Sky Kk | 操作画像再生装置及び操作画像再生プログラム |
JP2009080573A (ja) * | 2007-09-25 | 2009-04-16 | E Compute Kk | 表示手法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004053795A2 (en) * | 2002-12-11 | 2004-06-24 | Koninklijke Philips Electronics N.V. | Method and apparatus for correcting a head pose in a video phone image |
US7710450B2 (en) * | 2006-04-20 | 2010-05-04 | Cisco Technology, Inc. | System and method for dynamic control of image capture in a video conference system |
US8174558B2 (en) * | 2007-04-30 | 2012-05-08 | Hewlett-Packard Development Company, L.P. | Automatically calibrating a video conference system |
WO2010101697A2 (en) * | 2009-02-06 | 2010-09-10 | Oculis Labs, Inc. | Video-based privacy supporting system |
JP2010224677A (ja) * | 2009-03-19 | 2010-10-07 | Seiko Epson Corp | 画像評価方法、画像評価プログラムおよび印刷装置 |
US8179417B2 (en) * | 2009-07-22 | 2012-05-15 | Hewlett-Packard Development Company, L.P. | Video collaboration |
CN101808220A (zh) | 2010-02-05 | 2010-08-18 | 苏州科达科技有限公司 | 一种视频会议系统中控制视频模式的控制方法及相应装置 |
-
2012
- 2012-03-12 EP EP12290086.3A patent/EP2639674B1/en not_active Not-in-force
-
2013
- 2013-03-05 JP JP2014561363A patent/JP2015517239A/ja active Pending
- 2013-03-05 KR KR1020147025401A patent/KR20140122275A/ko not_active Application Discontinuation
- 2013-03-05 CN CN201380013687.6A patent/CN104169842B/zh not_active Expired - Fee Related
- 2013-03-05 US US14/384,883 patent/US9402053B2/en active Active
- 2013-03-05 WO PCT/EP2013/054331 patent/WO2013135523A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2005018654A (ja) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | 脇見状態検出装置 |
JP2005130251A (ja) * | 2003-10-24 | 2005-05-19 | Sony Corp | 映像配信システム |
JP2006139028A (ja) * | 2004-11-11 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | 遷移支援方法及び映像音声通信システム |
JP2008299737A (ja) * | 2007-06-01 | 2008-12-11 | Sky Kk | 操作画像再生装置及び操作画像再生プログラム |
JP2009080573A (ja) * | 2007-09-25 | 2009-04-16 | E Compute Kk | 表示手法 |
Also Published As
Publication number | Publication date |
---|---|
CN104169842A (zh) | 2014-11-26 |
CN104169842B (zh) | 2017-04-05 |
KR20140122275A (ko) | 2014-10-17 |
US9402053B2 (en) | 2016-07-26 |
EP2639674A1 (en) | 2013-09-18 |
EP2639674B1 (en) | 2016-06-01 |
US20150077504A1 (en) | 2015-03-19 |
WO2013135523A1 (en) | 2013-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015517239A (ja) | ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ | |
US9947141B2 (en) | Method of image processing for an augmented reality application | |
CN108229284B (zh) | 视线追踪及训练方法和装置、系统、电子设备和存储介质 | |
US10157477B2 (en) | Robust head pose estimation with a depth camera | |
Gorodnichy et al. | Nouse ‘use your nose as a mouse’perceptual vision technology for hands-free games and interfaces | |
US10013805B2 (en) | Control of enhanced communication between remote participants using augmented and virtual reality | |
US20160358383A1 (en) | Systems and methods for augmented reality-based remote collaboration | |
US10755438B2 (en) | Robust head pose estimation with a depth camera | |
US9348422B2 (en) | Method for recognizing gestures and gesture detector | |
US20170316582A1 (en) | Robust Head Pose Estimation with a Depth Camera | |
US11165992B1 (en) | System and method for generating a composited video layout of facial images in a video conference | |
WO2016149579A1 (en) | Emotion recognition in video conferencing | |
AU2015253557A1 (en) | Facial expression tracking | |
US11048464B2 (en) | Synchronization and streaming of workspace contents with audio for collaborative virtual, augmented, and mixed reality (xR) applications | |
JP2013504918A (ja) | 画像処理システム | |
WO2022110591A1 (zh) | 基于连麦直播的直播画面处理方法、装置及电子设备 | |
US20200404078A1 (en) | Adaptive backchannel synchronization for virtual, augmented, or mixed reality (xr) applications in edge cloud architectures | |
US20230231983A1 (en) | System and method for determining directionality of imagery using head tracking | |
Gelb et al. | Augmented reality for immersive remote collaboration | |
JP7395855B2 (ja) | 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム | |
Funes Mora et al. | Eyediap database: Data description and gaze tracking evaluation benchmarks | |
Kumano et al. | Collective first-person vision for automatic gaze analysis in multiparty conversations | |
EP4113982A1 (en) | Method for sensing and communicating visual focus of attention in a video conference | |
KR101844367B1 (ko) | 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치 | |
Yip | Face and eye rectification in video conference using artificial neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160401 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20160401 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160906 |