CN107257403A - 使用交互化身的通信 - Google Patents

使用交互化身的通信 Download PDF

Info

Publication number
CN107257403A
CN107257403A CN201710032311.XA CN201710032311A CN107257403A CN 107257403 A CN107257403 A CN 107257403A CN 201710032311 A CN201710032311 A CN 201710032311A CN 107257403 A CN107257403 A CN 107257403A
Authority
CN
China
Prior art keywords
computing device
user
incarnation
animation
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710032311.XA
Other languages
English (en)
Inventor
童晓峰
李文龙
杜杨洲
W.胡
Y.张
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Priority to CN201710032311.XA priority Critical patent/CN107257403A/zh
Publication of CN107257403A publication Critical patent/CN107257403A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

大体上本公开描述视频通信系统,其用动画呈现的化身替换参与用户的实际实况图像。方法可包括:选择化身;发起通信;检测用户输入;识别用户输入;基于用户输入识别动画命令;生成化身参数;以及传送动画命令和化身参数中的至少一个。

Description

使用交互化身的通信
技术领域
下列公开涉及视频通信,并且更特定地涉及使用交互化身的视频通信。
背景技术
在移动设备中可用的种类日益增加的功能性已经对用户造成除简单电话外还经由视频来通信的期望。例如,用户可发起“视频通话”、“视频会议”等,其中设备中的拍摄装置和麦克风捕捉用户的音频和视频,其实时被传送到一个或多个其他接收者,例如其他移动设备、台式计算机、视频会议系统等。视频的通信可牵涉传送大量数据(例如,根据拍摄装置的技术、处理捕捉的图像数据所采用的特定视频编解码器,等)。考虑到现有2G/3G无线技术的带宽限制,和新兴4G无线技术的仍然有限的带宽,实施并发视频通话的许多设备用户可超出现有无线通信基础设施中的可用带宽,这可能负面影响视频通话的质量。
附图说明
要求保护的主旨的各种实施例的特征和优势将随着下列详细说明进行以及在参考图(其中类似的数字指示类似的部件)时变得明显,并且其中:
图1A图示根据本公开的各种实施例的示例的设备到设备系统;
图1B图示根据本公开的各种实施例的示例虚拟空间系统;
图2图示根据本公开的各种实施例的示例设备;
图3图示根据本公开的至少一个实施例的示例系统实现;以及
图4是根据本公开的至少一个实施例的示例操作的流程图。
尽管下列详细说明将参考说明性实施例而进行,其许多备选、修改和变化对于本领域内技术人员将是明显的。
具体实施方式
一般,该公开描述用于使用交互化身的视频通信的系统和方法。使用化身(如与实况图像不同)使要传送的数据的量大大减少,并且从而,化身通信需要较少的带宽。交互化身配置成通过基于用户输入修改选择的化身的显示来增强用户体验。此外,可捕捉用户语音并且将其变换来产生化身语音。化身语音然后可与用户语音相关,但可掩饰用户的身份。音频变换可包括,例如移调(pitch shifting)和/或时间延展。
在一个实施例中,在耦合于拍摄装置、麦克风和扬声器的设备中激活应用。该应用可配置成允许用户选择化身用于在远程设备上、虚拟空间中等显示。设备然后可配置成发起与至少一个其他设备、虚拟空间等的通信。例如,通信可通过2G、3G、4G蜂窝连接而建立。备选地或另外,通信可经由WiFi连接通过因特网建立。在建立通信后,拍摄装置可配置成开始捕捉图像和/或到物体的距离并且麦克风可配置成开始捕捉声音(例如,用户语音),并且将用户语音转换成用户语音信号。
然后可确定是否检测到用户输入。该用户输入可被用户输入设备捕捉。用户输入包括由触敏显示器捕捉的触摸事件和由拍摄装置(例如,配置成捕捉到物体的距离的深度拍摄装置和/或web拍摄装置)捕捉的手势。从而,用户输入设备包括触敏显示器和/或拍摄装置。如果检测到用户输入,可识别该用户输入。对于触摸事件,用户输入标识符可与触摸类型以及一个或多个触摸位点有关。对于手势(例如,张开的手),用户输入标识符可与手势标识符有关。然后可基于用户输入识别动画命令。动画命令对应于与用户输入关联的期望响应,例如响应于显示的化身的面部上的单击而改变显示的化身的面部的颜色。
然后可生成化身参数。化身参数可基于面部检测、头部移动和/或动画命令而生成。化身参数从而可包括基于例如面部检测和头部移动的被动组成,和基于动画命令的交互组成。化身参数可能用于使化身在至少一个其他设备上、在虚拟空间内等动画地呈现。在一个实施例中,化身参数可基于面部检测、头部移动和动画命令而生成。在该实施例中,所得的动画包括基于面部检测的被动动画和基于动画命令由交互动画修改的头部移动。从而,化身动画可包括基于例如面部检测和头部移动的被动动画,和基于用户输入的交互动画。
然后可传送动画命令和化身参数中的至少一个。在一个实施例中,接收远程动画命令和远程化身参数中的至少一个。该远程动画命令可促使设备基于远程动画命令确定化身参数以便使显示的化身动画地呈现。远程化身参数可促使设备基于接收的远程化身参数使显示的化身动画地呈现。
音频通信可伴随着化身动画。在建立通信后,麦克风可配置成捕捉音频输入(声音)(例如用户语音),并且将捕捉的声音转换成对应的音频信号(例如,用户语音信号)。在实施例中,用户语音信号可变换成化身语音信号,其然后可被编码和传送。接收的化身语音信号然后可由扬声器转换回声音(例如,化身语音)。化身语音从而可基于用户语音并且可保存内容但可更改与捕捉的语音关联的光谱数据。例如,变换包括但不限于,移调、时间延展和/或转换重放速率。
用户输入设备(例如,触敏显示器和/或拍摄装置)可配置成捕捉用户输入,其配置成基于至少一个其他设备上的用户输入使化身动画地呈现。用户驱动的动画(基于动画命令)可以是基于面部表情和/或头部移动的动画的补充。动画命令可包括但不限于,化身的显示取向中的改变、面部特征失真、改变特征来表达情感,等。与基于面部检测/跟踪的动画相似或作为对其的补充,动画命令从而可修改化身动画。动画命令可导致有时间限制的动画并且可基于来自远程用户的输入,其中所得的动画在本地用户的显示化身上图示。
从而,有限带宽视频通信系统可使用化身来实现。音频可被变换并且视频可基于检测的用户输入和识别的动画命令而动画地呈现来增强用户对化身通信的体验。此外,匿名可使用化身而得到保持,其包括如本文描述的音频变换。
图1A图示与本公开的各种实施例一致的设备到设备系统100。系统100一般可包括经由网络122而通信的设备102和112。设备102包括至少拍摄装置104、麦克风106、扬声器107和触敏显示器108。设备112包括至少拍摄装置114、麦克风116、扬声器117和触摸显示器118。网络122包括至少服务器124。
设备102和112可包括能够有线和/或无线通信的各种硬件平台。例如,设备102和112可包括但不限于,视频会议系统、台式计算机、便携式计算机、平板计算机、智能电话(例如,基于的电话、基于的电话、基于的电话,等)、蜂窝手持机等。拍摄装置104和114包括用于捕捉代表环境(其包括一个或多个人)的数字图像的任何设备,并且可具有足够的分辨率用于面部分析和/或手势识别,如本文描述的。例如,拍摄装置104和114可包括静态拍摄装置(例如,配置成捕捉静态照片的拍摄装置)或视频拍摄装置(例如,配置成捕捉移动图像(其由多个帧组成)的拍摄装置)。拍摄装置104和114可配置成使用可见光谱中的光或利用电磁波谱(不限于红外光谱、紫外光谱)的其他部分来操作。在一个实施例中,拍摄装置104和114可配置成检测从拍摄装置的深度,即到物体和/或该物体上的点的距离。拍摄装置104和114可分别并入设备102和112内,或可以是配置成经由有线或无线通信与设备102和112通信的单独设备。拍摄装置104和114的特定示例可包括如可与计算机、视频监视器等关联的有线(例如,通用串行总线(USB)、以太网、火线等)或无线(例如,WiFi、Bluetooth,等)web拍摄装置、深度拍摄装置、移动设备拍摄装置(例如在例如之前论述的示例设备中集成的手机或智能电话拍摄装置)、集成便携式计算机拍摄装置、集成平板计算机拍摄装置(例如,Galaxy及类似物),等。
设备102和112可进一步包括麦克风106和116以及扬声器107和117。麦克风106和116包括配置成感测(即,捕捉)声音并且将感测的声音转换成对应音频信号的任何设备。麦克风106和116可分别在设备102和112内集成,或可经由有线或无线通信(例如在上文关于拍摄装置104和114的示例中描述的)而与设备交互。扬声器107和117包括配置成将音频信号转换成对应声音的任何设备。扬声器107和117可分别在设备102和112内集成,或可经由有线或无线通信(例如在上文关于拍摄装置104和114的示例中描述的)而与设备交互。触敏显示器108和118包括配置成显示文本、静态图像、移动图像(例如,视频)、用户界面、图形等并且配置成感测例如点击、滑动等触摸事件的任何设备。触摸事件可包括触摸类型和触摸位点。触敏显示器108和118可分别在设备102和112内集成,或可经由有线或无线通信(例如在上文关于拍摄装置104和114的示例中描述的)而与设备交互。在一个实施例中,显示器108和118配置成分别显示化身110和120。如本文引用的,化身限定为采用二维(2D)或三维(3D)的用户的图形表示。化身不必与用户的相貌相像,并且从而,尽管化身可以是逼真表示,它们还可以采取图、卡通、草图等的形式。在系统100中,设备102可显示代表设备112的用户(例如,远程用户)的化身110,并且同样,设备112可显示代表设备102的用户的化身120。这样,用户可看到其他用户的表示而不必交换对于采用实时图像的设备到设备通信所牵涉的大量信息。此外,化身可基于用户输入而动画地呈现。采用该方式,用户可与本地和/或远程化身的显示交互,由此增强用户体验。所得的动画可比可能仅使用面部检测和跟踪提供更广泛的动画。此外,用户可主动选择动画。
如本文提及的,化身音频(即,声音)限定为变换的用户音频(声音)。例如,声音输入可包括用户的话音(即,用户语音),并且对应的化身音频可包括变换的用户语音。化身音频可与用户音频有关。例如,化身语音可对应于用户语音的移调、时间延展和/或其他变换。化身语音可与人语音相像或可对应于卡通人物,等。在系统100中,设备102可发出代表设备112的远程用户的化身音频并且相似地,设备112可发出代表由设备102捕捉的音频(例如,设备102的本地用户的语音)的化身音频。这样,用户可听见可被变换的其他用户话音的表示。
网络122可包括各种第二代(2G)、第三代(3G)、第四代(4G)基于蜂窝的数据通信技术、Wi-Fi无线数据通信技术,等。网络122包括至少一个服务器124,其配置成在使用这些技术时建立并且维持通信连接。例如,服务器124可配置成支持因特网相关通信协议,像用于创建、修改和终止双方(单播)和多方(多播)会话的会话发起协议(SIP)、用于呈现允许在字节流连接顶部建立协议的框架的交互连接性建立协议(ICE)、用于允许应用通过网络接入翻译器(NAT)操作来发现其他NAT、IP地址和端口(被分配给连接到远程主机的应用用户数据报协议(UDP)连接)的存在的网络接入翻译器或NAT的会话穿越实用性协议(STUN)、用于允许NAT或防火墙后面的元件通过传输控制协议(TCP)或UDP连接来接收数据的在NAT周围使用中继器的穿越(TURN),等。
图1B图示与本公开的各种实施例一致的虚拟空间系统126。系统126可采用设备102、设备112和服务器124。设备102、设备112和服务器124可继续采用与在图1A中图示的相似的方式通信,但用户交互可在虚拟空间128中而不是采用设备到设备格式发生。如本文提及的,虚拟空间可限定为物理位点的数字模拟。例如,虚拟空间128可与户外位点(像城市、道路、人行道、田地、森林、岛等)或内部位点(像办公室、住宅、学校、购物中心、商店,等)相像。由化身表示的用户可表现为如现实世界中那样在虚拟空间128中交互。虚拟空间128可在耦合于因特网的一个或多个服务器上存在,并且可由第三方维持。虚拟空间的示例包括虚拟办公室、虚拟会议室、虚拟世界(像Second)、大型多人在线角色扮演游戏(MMORPG)(像World of)、大型多人在线真实游戏(MMORLG)(像Sims)等。在系统126中,虚拟空间128可包含对应于不同用户的多个化身。显示器108和118可显示虚拟空间(VS)128的封装(例如,较小)版本,而不是显示化身。例如,显示器108可显示对应于设备102的用户的化身在虚拟空间128中所“看到”的事物的透视图。相似地,显示器118可显示对应于设备112的用户的化身在虚拟空间128中所“看到”的事物的透视图。化身可能在虚拟空间128中看到的事物的示例包括但不限于,虚拟结构(例如,建筑)、虚拟车辆、虚拟物体、虚拟动物、其他化身等。
图2图示根据本公开的各种实施例的示例设备102。尽管仅描述一个设备102,设备112(例如,远程设备)可包括配置成提供相同或相似功能的资源。如之前论述的,示出设备102包括拍摄装置104、麦克风106、扬声器107和触敏显示器108。拍摄装置104、麦克风106和触敏显示器108可对拍摄装置、音频和触屏框架模块200提供输入,并且拍摄装置、音频和触屏框架模块200可对扬声器107提供输出(例如,音频信号)。拍摄装置、音频和触屏框架模块200可包括定制、专用、已知和/或之后开发的音频和视频处理代码(或指令集),其一般被明确定义并且能操作成控制至少拍摄装置104、麦克风106、扬声器107和触敏显示器108。例如,拍摄装置、音频和触屏框架模块200可促使拍摄装置104、麦克风106、扬声器107和触敏显示器108记录图像、到物体的距离、声音和/或触摸,可处理图像、声音、音频信号和/或触摸,可促使图像和/或声音再现,可向扬声器107提供音频信号,等。拍摄装置、音频和触屏框架模块200可根据设备102并且更特定地根据在设备102中运行的操作系统(OS)而改变。示例操作系统包括OS、OS,等。扬声器107可从拍摄装置、音频和触屏框架模块200接收音频信息并且可配置成再现本地声音(例如,以便提供用户话音的音频反馈(变换或未变换的))和远程声音(例如,参加电话、视频通话或在虚拟空间中交互的其他方的声音(变换或未变换的))。
面部检测和跟踪模块202可配置成识别并且跟踪由拍摄装置104提供的图像内的头部、面部和/或面部区域。例如,面部检测模块204可包括定制、专用、已知和/或之后开发的面部检测代码(或指令集)、硬件和/或固件,其一般被明确定义并且能操作成接收标准格式图像(例如,但不限于,RGB彩色图像)并且至少在一定程度上识别图像中的面部。面部检测和跟踪模块202还可配置成通过一系列图像(例如,以每秒24个帧的视频帧)来跟踪检测的面部并且基于检测的面部确定头部位置。可由面部检测/跟踪模块202采用的已知跟踪系统可包括粒子滤波、均值偏移、卡尔曼滤波等,其中的每个可利用边缘分析、平方和差值分析、特征点分析、直方图分析、肤色分析等。
特征提取模块204可配置成识别由面部检测模块202检测的面部中的特征(例如,例如眼睛、眉毛、鼻子、嘴等面部标志的位点和/或形状)。在一个实施例中,化身动画可直接基于感测的面部动作(例如,面部特征中的改变)而没有面部表情识别。化身面部上的对应特征点可遵循或模仿真实人的面部的移动,其称为“表达克隆”或“表现驱动的面部动画”。特征提取模块204可包括定制、专用、已知和/或之后开发的面部特性识别代码(或指令集),其一般被明确定义并且能操作成从拍摄装置104接收标准格式图像(例如,但不限于,RGB彩色图像)并且至少在一定程度上提取图像中的一个或多个面部特性。这样的已知面部特性系统可包括但不限于,科罗拉多州立大学的CSU面部识别评估系统。
特征提取模块204还可配置成识别与检测的特征关联的表情(例如,识别之前检测的面部是否愉快、悲伤、微笑、皱眉、惊讶、激动等)。从而,特征提取模块204可进一步包括定制、专用、已知和/或之后开发的面部表情检测和/或识别代码(或指令集),其一般被明确定义并且能操作成检测和/或识别面部中的表情。例如,特征提取模块204可确定面部特征(例如,眼睛、嘴、脸颊、牙齿等)的大小和/或位置并且可将这些面部特征与面部特征数据库比较,该面部特征数据库包括具有对应面部特征分类(例如,微笑、皱眉、激动、悲伤等)的多个样本面部特征。
音频变换模块206配置成将用户的话音变换成化身话音,即变换的用户话音。变换包括调整节奏(例如,时间延展)、音调(例如,移调)和重放速率。例如,音频变换模块206可包括定制、专用、已知和/或之后开发的音频变换代码(或指令集),其一般被明确定义并且能操作成接收代表用户话音的话音数据并且将该话音数据转换成变换的话音数据。话音数据可与基于由麦克风106捕捉并且被拍摄装置、音频和触屏框架模块200处理的声音的音频信号有关。这样的已知话音变换系统包括但不限于SoundTouch开源音频处理库,配置成调整音频流或音频文件的节凑、音调(pitch)和重放速率。
音频变换模块206可包括多个预定义话音风格,其对应于与变换用户的话音关联的变换参数。例如,变换参数可配置成维持具有不同音调和/或节凑的人类发声变换话音输出。音调可移到女人或像孩子的话音的较高频率,音调可移到男人话音的较低频率,节凑可向上或向下调整来增加或减小语音的速度,等。在另一个示例中,变换参数可配置成产生变换的话音输出,其对应于像动物的话音(例如,猫)和/或卡通人物型话音。这可通过调整用户语音的音调、其他频率分量和/或采样参数而实现。
用户可在发起通信之前选择期望的音频变换输出和/或可在通信期间选择期望的音频变换。音频变换模块206可配置成响应于来自用户的请求提供样本音频变换输出。在实施例中,音频变换模块206可包括这样的实用程序(utility),其允许用户选择音频变换参数来产生定制音频变换输出。该实用程序可配置成基于用户的话音输入来提供样本变换音频输出。用户然后可调整音频变换参数(例如,通过试错法)直到实现合适的变换输出。与对于用户合适的输出关联的音频变换参数然后可被存储和/或利用以用于化身通信,如本文描述的。
触摸检测模块208配置成从拍摄装置、音频和触屏框架模块200接收触摸数据并且基于接收的触摸数据识别触摸事件。触摸事件标识符可包括触摸类型和/或触摸位点。触摸类型可包括单击、双击、点击并按住、点击并移动、收缩和延展、滑动等。触摸位点可包括触摸起始位点、触摸结束位点和/或中间移动触摸位点等。触摸位点可对应于触敏显示器108的坐标。触摸检测模块208可包括定制、专用、已知和/或之后开发的触摸检测代码(或指令集),其一般被明确定义并且能操作成接收触摸数据并且识别触摸事件。
手势检测模块210配置成从拍摄装置、音频和触屏框架模块200接收深度和/或图像数据、基于接收的深度和/或图像数据识别对应的手势以及基于识别的手势确定手势标识符。深度对应于从拍摄装置到物体的距离。手势标识符与识别的手势有关。手势检测模块210可包括定制、专用、已知和/或之后开发的手势检测代码(或指令集),其一般被明确定义并且能操作成基于接收的深度和/或图像数据识别手势。
例如,手势检测模块210可包括预定义手势的数据库。这些预定义手势可包括至少一些相对普通、相对简单的手势,其包括张开的手、紧握的手(即,拳头)、挥手、用手做圆周运动、使手从右到左地移动、使手从左到右地移动等。从而,手势可包括静止、非移动的手部手势、主动移动手部手势和/或其组合。在实施例中,手势检测模块210可包括训练实用程序,其配置成允许用户定制预定义手势和/或训练新的手势。定制手势和/或新的手势然后可与手势标识符关联并且该手势标识符可与动画命令关联,如本文描述的。例如,用户可从动画命令的预定义列表中选择动画命令以与手势关联。
从而,动画命令与对用户输入的期望响应有关。动画命令可与识别的用户输入(例如,触摸事件标识符和/或手势标识符)关联。采用该方式,用户可与显示的化身交互和/或可做手势以便修改显示的化身的动画。
化身选择模块212配置成允许设备102的用户选择化身用于在远程设备上显示。化身选择模块212可包括定制、专用、已知和/或之后开发的用户界面构造代码(或指令集),其一般被明确定义并且能操作成向用户呈现不同的化身使得用户可选择这些化身中的一个。在一个实施例中,一个或多个化身可在设备102中预定义。预定义化身允许所有设备具有相同的化身,并且在交互期间仅化身的选择(例如,预定义化身的识别)需要传达到远程设备或虚拟空间,这使需要交换的信息的量减少。在建立通信之前选择化身,但也可在有效通信过程中改变化身。从而,在通信期间的任何点发送或接收化身选择,并且接收设备根据接收的化身选择改变显示的化身,这可以是可能的。
化身控制模块214配置成基于到设备102的用户输入来接收用户输入标识符。该用户输入标识符可包括由触摸检测模块208基于触摸事件数据确定的触摸事件标识符或由手势检测模块210确定的手势标识符。触摸事件数据包括触摸类型和触摸位点。触摸位点可对应于与触敏显示器108关联的坐标。触摸位点可映射到显示的化身上的一个或多个点,例如映射到特征(例如,鼻端、嘴、嘴唇、耳朵、眼睛,等)。显示的化身上的点可与化身动画的期望响应(即,化身命令)有关。
化身控制模块214配置成基于用户输入标识符(即,识别的用户输入)确定动画命令。动画命令配置成识别期望的化身动画。例如,期望的动画包括改变显示的化身面部的颜色、改变显示的化身的特征的大小(例如,使鼻子更大)、递眼色(winking)、眨眼、微笑、去除特征(例如,耳朵)等。从而,化身控制模块214配置成接收用户输入标识符并且基于该用户输入标识符确定动画命令。
化身控制模块214配置成基于动画命令实现化身动画。在实施例中,对于在远程设备(例如,设备112)上显示的交互动画,动画命令可被传送并且远程化身控制模块然后可实现动画。在另一个实施例中,可传送化身参数,其配置成用于化身动画的立即实现。
实现的基于动画命令的交互动画可具有有限持续时间,在其之后化身动画可回到如本文描述的基于例如面部检测和跟踪的被动动画。实现的影响特征大小的交互动画可配置成逐渐改变大小并且逐渐回到初始大小。另外或备选地,影响特征大小的动画可配置成具有效应梯度。也就是说,大小改变的相对幅度可取决于相对于例如关键顶点的位点。显示的化身上更接近关键顶点的点可比显示的化身上相对更远的点经历更大的改变。
从而,化身控制模块214可基于用户输入来接收用户输入标识符,并且可基于该用户输入标识符确定动画命令并且可基于该动画命令实现动画。基于动画命令的交互动画在时间上可局限于一段时间(持续时间)和/或可包括效应梯度。动画在该时段后可回到基于面部检测和跟踪的被动化身动画。
化身控制模块214配置成生成用于使化身动画地呈现的参数。本文所称的动画可限定为更改图像/模型的外观。动画包括基于例如面部表情和/或头部移动的被动动画和基于用户输入的交互动画。单个动画(其可包括被动和交互动画)可更改2D静态图像的外观,或多个动画可依次出现来模拟图像中的运动(例如,头部转动、点头、眨眼、讲话、皱眉、微笑、发笑、递眼色、眨眼,等)。对于3D模型的动画示例包括使3D线框模型变形、应用纹理映射以及重新计算正常用于渲染的模型顶点。检测的面部和/或提取的面部特征的位置中的改变可转换成这样的参数,其促使化身的特征与用户面部的特征相像。在一个实施例中,检测的面部的一般表情可转换成促使化身展现相同表情的一个或多个参数。化身的表情还可夸大来突出表情。对选择的化身的知悉在化身参数一般可应用于预定义化身中的全部时可不是必需的。然而,在一个实施例中,化身参数对于选择的化身可以是特定的,并且从而,如果选择另一个化身则可更改化身参数。例如,人像化身可需要与动物化身、卡通化身等不同的参数设置(例如,可更改不同的化身特征)来证明像快乐、悲伤、生气、惊讶等情感。
化身控制模块214可包括定制、专用、已知和/或之后开发的图形处理代码(或指令集),其一般被明确定义并且能操作成生成用于使化身动画地呈现的参数,该化身由化身选择模块212基于由面部检测和跟踪模块202检测的面部/头部位置、特征提取模块204检测的面部特征和/或由触摸检测模块208和/或手势检测模块210确定的用户输入标识符来选择。对于基于面部特征的动画方法,2D化身动画可利用例如图像扭曲或图像变形来进行,而3D化身动画可利用自由变形(FFD)或通过利用在头部的3D模型中限定的动画结构来进行。Oddcast是可用于2D化身动画的软件资源的示例,而FaceGen是可用于3D化身动画的软件资源的示例。
例如,对于包括延长3D化身显示的鼻子的交互动画,关键顶点vk可与鼻子的尖端有关地限定(例如,选择)。对于关键顶点vk可限定关联的3D运动矢量dk(dx,dy,dz)和作用半径R。作用半径R内的其他顶点可在交互动画中改变(即,移动),而作用半径R外部的顶点可根据交互动画而保持不变。交互动画可具有关联的持续时间,即动画时间T,其可延续多个帧。时间效应参数ηt可基于时间t和动画时间T而限定为:
相对更接近vk的作用半径R内的顶点可比相对更远离关键顶点vk的顶点改变得相对更大。对于顶点vi的空间效应参数ηi可限定为:
并且顶点vi在时间t的运动矢量可限定为交互动画呈现的化身的新的坐标则是其中对应于基于面部检测和跟踪(即被动动画)的顶点vi的坐标。
从而,可对于显示的化身(其包括修改被动动画的交互动画)实现动画。交互动画可在总持续时间方面受限制并且动画效应的幅度可在该持续时间内改变。交互动画可配置成仅影响化身的一部分并且效应对于更靠近关键顶点的点更大。在已经完成交互动画后,动画可基于如本文描述的面部检测和跟踪而持续。
另外,在系统100中,动画控制模块214可接收远程化身选择和远程化身参数,其可用于在远程设备处显示对应于用户的化身并且使其动画地呈现。动画可包括被动动画以及交互动画。化身控制模块可促使显示模块216在显示器108上显示化身110。显示模块216可包括定制、专用、已知和/或之后开发的图形处理代码(或指令集),其一般被明确定义并且能操作成根据示例设备到设备实施例在显示器108上显示化身并且使其动画地呈现。例如,化身控制模块214可接收远程化身选择并且可解释该远程化身选择以对应于预定化身。显示模块216然后可在显示器108上显示化身110。此外,可解释在化身控制模块214中接收的远程化身参数,并且命令可提供给显示模块216来使化身110动画地呈现。在一个实施例中,超过两个用户可参加视频通话。当超过两个用户在视频通话中交互时,显示器108可划分或分割以允许对应于远程用户的超过一个化身同时显示。备选地,在系统126中,化身控制模块214可接收信息,该信息促使显示模块216显示对应于设备102的用户的化身在虚拟空间128中所“看到”的事物(例如,从化身的视角)。例如,显示器108可显示在虚拟空间128中表示的建筑、对象、动物、其他化身等。
在一个实施例中,化身控制模块214可配置成促使显示模块216显示“反馈”化身218。反馈化身218代表选择的化身如何在远程设备上、'在虚拟空间中等出现。特别地,反馈化身218表现为由用户选择的化身并且可使用由化身控制模块214生成的相同参数而动画地呈现。这样,用户可确认远程用户在他们的交互期间所看到的。反馈化身218还可用于显示由到设备112的远程用户输入引起的交互动画。从而,本地用户可与他或她的反馈化身(例如,化身218和设备102的用户)交互来促使向设备112上的远程用户所显示的他或她关联的化身的交互动画。本地用户可相似地与远程用户的显示化身(例如,化身110)交互来促使在设备112上显示的远程用户的反馈化身的交互动画。
通信模块220配置成传送并且接收用于选择化身、显示化身、使化身动画地呈现、显示虚拟地方角度等的信息。通信模块220可包括定制、专用、已知和/或之后开发的通信处理代码(或指令集),其一般被明确定义并且能操作成传送化身选择、化身参数、动画命令、交互化身参数并且接收远程化身选择、远程化身参数、远程动画命令和远程交互化身参数。通信模块220还可传送并且接收对应于基于化身的交互的音频信息。通信模块220可经由如之前描述的网络122传送并且接收上文的信息。
处理器222配置成执行与设备102以及其中包括的模块中的一个或多个关联的操作。
图3图示根据至少一个实施例的示例系统实现。设备102'配置成经由WiFi连接300而无线通信(例如,在工作中),服务器124'配置成经由因特网302协商设备102'与112'之间的连接,并且装置112'配置成经由另一个WiFi连接304而无线通信(例如,在家)。在一个实施例中,基于设备到设备化身的视频通话应用在装置102'中激活。在化身选择之后,应用可允许选择至少一个远程设备(例如,设备112')。应用然后可促使设备102'发起与设备112'的通信。通信可随着设备102'经由企业接入点(AP)306向设备112'传送连接建立请求而发起。企业AP 306可以是可在商业环境中使用的AP,并且从而可支持比家庭AP 314更高的数据吞吐量和更多的并发无线客户端。企业AP 306可从设备102'接收无线信号并且可经由网关308通过各种商业网络进行传送连接建立请求。连接建立请求然后可穿过防火墙310,其可配置成控制流入和流出WiFi网络300的信息。
设备102'的连接建立请求然后可由服务器124'处理。服务器124'可配置成用于IP地址的注册、目的地地址的验证和NAT穿越使得连接建立请求可被指引到因特网302上的正确目的地。例如,服务器124'可从设备102'接收的连接建立请求中的信息解析计划的目的地(例如,远程设备112'),并且可因此将信号路由通过正确的NAT、端口并且到目的地IP地址。根据网络配置,这些操作可仅必须在连接建立期间执行。在一些实例中,操作可在视频通话期间重复以便向NAT提供使连接保持活动的通知。在已经建立连接后,媒体和信号路径312可直接将视频(例如,化身选择和/或化身参数)和音频信息运送到家庭AP 314。设备112'然后可接收连接建立请求并且可配置成确定是否接受该请求。确定是否接受请求可包括例如向设备112'的用户呈现视觉叙述,询问是否接受来自设备102'的连接请求。如果设备112'的用户接受连接(例如,接受视频通话),可建立连接。拍摄装置104'和114'可分别配置成然后开始捕捉设备102'和112'的相应用户的图像,以供在使由每个用户选择的化身动画呈现中使用。麦克风106'和116'可配置成然后开始捕捉来自每个用户的音频。在设备102'与112'之间开始信息交换时,显示器108'和118'可显示对应于设备102'和112'的用户的化身并且使其动画地呈现。
图4图示与本公开的实施例一致的示范性操作的流程图400。这些操作可例如由设备102和/或112执行。特别地,流程图400描绘配置成实现化身动画(其包括被动动画和/或交互动画)和/或音频变换以用于通过网络的设备之间的通信的示范性操作。假设面部检测和跟踪、特征提取和被动化身动画如本文描述的那样实现和操作。
可在操作402选择化身模型。该化身模型可包括视频化身选择和音频变换选择。可显示多个视频化身模型,用户可从其中选择期望的化身。在实施例中,选择视频化身模型可包括关联的音频变换。例如,像猫的化身可与像猫的音频变换关联。在另一个实施例中,音频变换可独立于视频化身选择而选择。
化身模型(其包括音频变换)可在激活通信之前选择,但也可在有效通信的过程期间改变。从而,在通信期间的任何点发送或接收化身选择和/或改变音频变换选择,并且接收设备根据接收的化身选择改变显示的化身,这可以是可能的。
可在操作404激活化身通信。例如,用户可启动这样的应用,其配置成使用如本文描述的化身来传达音频和视频。操作404可包括配置通信并且建立连接。通信配置包括识别参与视频通话的至少一个远程设备或虚拟空间。例如,用户可从存储在应用内、与设备中的另一个系统关联地存储(例如,智能电话、手机等中的联系人列表)、远程存储(例如在因特网上(例如,在像Facebook、LinkedIn、Yahoo、Google+、MSN等的社交媒体网站中))的远程用户/设备列表选择。备选地,用户可选择在像Second Life的虚拟空间中上线。
在操作406,设备中的拍摄装置然后可开始捕捉图像和/或深度并且设备中的麦克风可开始捕捉声音。图像可以是静态图像或实况视频(例如,依次捕捉的多个图像)。深度可与图像一起捕捉或可独立捕捉。深度对应于在拍摄装置的视场中从拍摄装置到物体(和物体上的点)的距离。是否检测到用户输入可在操作408确定。用户输入包括由图像和/或深度拍摄装置捕捉的手势和在触敏显示器上检测的触摸输入。如果检测到用户输入,可在操作410识别该用户输入。用户输入标识符包括触摸标识符或手势标识符。该触摸标识符可基于触敏显示器上的触摸而确定并且可包括触摸类型和触摸位点。手势标识符可基于捕捉的图像和/或深度数据而确定并且可包括识别手势。
动画命令可在操作412识别。该动画命令可配置成使在远程设备上显示的用户选择的化身动画地呈现或使也在远程用户的设备上显示的用户的反馈化身动画呈现。动画命令对应于与用户输入关联的期望响应。例如,触摸显示的化身的面部(用户输入)可导致显示的化身的面部的颜色改变(由动画命令识别的期望响应)。动画命令可基于识别的用户输入而识别。例如,每个用户输入可与用户输入标识符和动画命令的数据库中的动画命令有关(例如,关联)。
操作414包括生成化身参数。这些化身参数包括被动组成并且可包括交互组成。如果未检测到用户输入,化身参数可包括被动组成。如果检测到用户输入,化身参数是否可包括交互组成取决于动画命令并且因此取决于用户输入。对于对应于动画命令(其配置成使用户的选择化身动画地呈现)的用户输入,动画命令可与仅包括被动组成的化身参数一起传送或可在传送之间应用于化身参数使得传送的化身参数包括被动和交互组成两者。对于对应于动画命令(其配置成使在远程用户的设备上显示的远程用户的反馈化身动画地呈现)的输入,可仅传送动画命令。
操作416包括变换并且编码捕捉的音频。捕捉的音频可转换成音频信号(例如,用户语音信号)。用户语音信号可根据操作402的化身选择的音频变换部分来变换。变换的用户语音信号对应于化身语音信号。化身语音信号可使用已知技术来编码以用于通过网络传送到远程设备和/或虚拟空间。可在操作418传送变换且编码的音频。操作418可进一步包括传送动画命令和化身参数中的至少一个。传送动画命令配置成允许远程设备通过根据动画命令修改化身参数来使本地显示的化身动画地呈现。在传送之前已经根据动画命令修改的传送的化身参数可直接用于使在远程设备上显示的化身动画地呈现。也就是说,对由动画命令表示的化身参数的修改可本地或远程执行。
操作420包括接收远程编码音频,其可以是变换的音频。操作420进一步包括接收远程动画命令和远程化身参数中的至少一个。该远程动画命令可用于修改化身参数,其对应于远程用户的显示化身或本地用户的显示的反馈化身。动画命令和化身参数配置成导致化身动画,其基于用户输入而被修改。接收的音频可在操作422解码和播放并且化身可在操作424显示和动画地呈现。
显示的化身的动画可基于如本文描述的检测且识别的用户输入。在设备到设备通信(例如,系统100)实例中,远程化身选择或远程化身参数中的至少一个可从远程设备接收。对应于远程用户的化身然后可基于接收的远程化身选择而显示,并且可基于接收的远程化身参数而动画地呈现。在虚拟地方交互(例如,系统126)的实例中,可接收这样的信息,其允许设备显示对应于设备用户的化身所看到的事物。
通信是否完成可在操作426确定。如果完成通信,程序流可在操作428结束。如果通信未完成,程序流可进行到操作406:捕捉图像、深度和/或音频。
尽管图4图示根据实施例的各种操作,要理解不是图4中描述的操作中的全部对于其他实施例都是必需的。确实,在本文充分预想在本公开的其他实施例中,在图4中描绘的操作和/或本文描述的其他操作可采用未专门在图中的任一个中示出但仍完全与本公开一致这一方式组合。从而,针对未确切在一个图中示出的特征和/或操作的权利要求认为在本公开的范围和内容内。
如在本文的任何实施例中使用的,术语“应用”可在代码或指令中体现,这些代码或指令可在例如主机处理器等可编程电路或其他可编程电路上执行。
如在本文的任何实施例中使用的,术语“模块”可指应用、软件、固件和/或电路,其配置成执行前面提到的操作中的任一个。软件可体现为在至少一个非暂时性计算机可读存储介质上记录的软件封装、代码、指令、指令集和/或数据。固件可体现为在存储器设备中硬编码(例如,非易失性)的代码、指令或指令集和/或数据。
如在本文的任何实施例中使用的“电路”可单独或采用任何组合地包括例如硬接线电路、可编程电路(例如计算机处理器,其包括一个或多个个体指令处理核)、状态机电路和/或存储由可编程电路执行的指令的固件。模块可以共同或单独体现为电路,其形成较大系统(例如,集成电路(IC)、片上系统(SoC)、台式计算机、便携式计算机、平板计算机、服务器、智能电话等)的一部分。
本文描述的操作中的任一个可在包括一个或多个存储介质的系统中实现,该一个或多个存储介质其上可以独立地或组合地存储有指令,这些指令在被一个或多个处理器执行时执行方法。在这里,处理器可包括,例如服务器CPU、移动设备CPU和/或其他可编程电路。而且,规定本文描述的操作可跨多个物理设备(例如在超过一个不同的物理位点处的处理结构)分布。存储介质可包括任何类型的有形介质:例如任何类型的盘,其包括硬盘、软盘、光盘、压缩盘只读存储器(CD-ROM)、压缩盘可重写(CD-RW)和磁光盘;例如只读存储器(ROM)、随机存取存储器(RAM)(例如动态和静态RAM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、闪速存储器、固态盘(SSD)等半导体器件;磁或光卡;或适合于存储电子指令的任何类型的介质。其他实施例可实现为由可编程控制设备执行的软件模块。存储介质可以是非暂时性的。
从而,本公开提供用于交互地使得用于实施视频通信的化身动画地呈现而不是实况图像的方法和系统。与发送实况图像相比,化身的使用使交换的信息的量减少。系统和方法进一步配置成通过例如移调和/或时间延展捕捉的音频信号来将用户语音变换成化身语音。化身的交互动画可基于检测的用户输入,其包括触摸和手势。交互动画配置成修改基于面部检测和跟踪而确定的动画。
根据一个方面,提供一种系统。该系统可包括:用户输入设备,其配置成捕捉用户输入;通信模块,其配置成传送并且接收信息;和一个或多个存储介质。另外,该一个或多个存储介质其上独立地或组合地存储有指令,这些指令在由一个或多个处理器执行时促成下列操作,其包括:选择化身;发起通信;检测用户输入;识别用户输入;基于用户输入识别动画命令;生成化身参数;以及传送动画命令和化身参数中的至少一个。
另一个示例系统包括前面的部件并且进一步包括麦克风,其配置成捕捉声音并且将捕捉的声音转换成对应的音频信号,并且指令在由一个或多个处理器执行时促成下列额外操作:捕捉用户语音并且将用户语音转换成对应的用户语音信号;将该用户语音信号变换成化身语音信号;以及传送该化身语音信号。
另一个示例系统包括前面的部件并且进一步包括拍摄装置,其配置成捕捉图像,并且指令在由一个或多个处理器执行时促成下列额外操作:捕捉图像;检测该图像中的面部;从面部提取特征;以及将特征转换成化身参数。
另一个示例系统包括前面的部件并且进一步包括显示器,并且指令在由一个或多个处理器执行时促成下列额外操作:显示至少一个化身;接收远程动画命令和远程化身参数中的至少一个;以及基于该远程动画命令和远程化身参数中的至少一个使一个显示的化身动画地呈现。
另一个示例系统包括前面的部件并且进一步包括扬声器,其配置成将音频信号转换成声音,并且指令在由一个或多个处理器执行时促成下列额外操作:接收远程化身语音信号;以及将该远程化身语音信号转换成化身语音。
另一个示例系统包括前面的部件并且用户输入设备是拍摄装置,其配置成捕捉距离,并且用户输入是手势。
另一个示例系统包括前面的部件并且用户输入设备是触敏显示器并且用户输入是触摸事件。
另一个示例系统包括前面的部件并且变换包括移调和时间延展中的至少一个。
根据另一个方面,提供一种方法。该方法可包括:选择化身;发起通信;检测用户输入;识别用户输入;基于用户输入识别动画命令;基于动画命令生成化身参数;以及传送动画命令和化身参数中的至少一个。
另一个示例方法包括前面的操作并且进一步包括:捕捉用户语音并且将该用户语音转换成对应的用户语音信号;将该用户语音信号变换成化身语音信号;以及传送该化身语音信号。
另一个示例方法包括前面的操作并且进一步包括:捕捉图像;检测该图像中的面部;从面部提取特征;以及将特征转换成化身参数。
另一个示例方法包括前面的操作并且进一步包括:显示至少一个化身;接收远程动画命令和远程化身参数中的至少一个;以及基于该远程动画命令和远程化身参数中的至少一个使一个显示的化身动画地呈现。
另一个示例方法包括前面的操作并且进一步包括:接收远程化身语音信号;以及将该远程化身语音信号转换成化身语音。
另一个示例方法包括前面的操作并且用户输入是手势。
另一个示例方法包括前面的操作并且用户输入是触摸事件。
另一个示例方法包括前面的操作并且变换包括移调和时间延展中的至少一个。
根据另一个方面,提供一种系统。该系统可包括一个或多个存储介质,其上独立地或组合地存储有指令,这些指令在由一个或多个处理器执行时促成下列操作,其包括:选择化身;发起通信;检测用户输入;识别用户输入;基于用户输入识别动画命令;生成化身参数;以及传送动画命令和化身参数中的至少一个。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且还包括:捕捉用户语音并且将该用户语音转换成对应的用户语音信号;将该用户语音信号变换成化身语音信号;以及传送该化身语音信号。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且还包括:捕捉图像;检测该图像中的面部;从面部提取特征;以及将特征转换成化身参数。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且还包括:显示至少一个化身;接收远程动画命令和远程化身参数中的至少一个;以及基于该远程动画命令和远程化身参数中的至少一个使一个显示的化身动画地呈现。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且还包括:接收远程化身语音信号;以及将该远程化身语音信号转换成化身语音。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且用户输入是手势。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且用户输入是触摸事件。
另一个示例系统包括指令,其在由一个或多个处理器执行时促成前面的操作并且变换包括移调和时间延展中的至少一个。
本文已经采用的术语和表达用作说明的术语并且无限制,并且在这样的术语和表达的使用中没有意图要排除示出和描述的特征(或其部分)的任何等同,并且认识到各种修改在权利要求的范围内是可能的。因此,权利要求意在涵盖所有这样的等同。

Claims (62)

1.一个或多个非暂时计算机可读存储设备,具有存储在其上的指令,所述指令在由第一计算设备的至少一个处理器执行时促成操作,其包括:
启用第一化身的选择;
识别所述第一计算设备的用户的一个或多个面部特征;
生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第二计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
2.如权利要求1所述的一个或多个存储设备,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个视频图像来识别。
3.如权利要求1所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
处理所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
4.如权利要求1所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
启用第二化身的选择;
生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第二计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
促使在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第二选择的化身的出现。
5.如权利要求1所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
6.如权利要求5所述的一个或多个存储设备,其中所述一个或多个语音效果包括移调语音效果。
7.如权利要求1所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
促使在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第一选择的化身的出现。
8.一种第一计算设备,其包括:
存储器电路,用于存储指令和数据;
显示设备,用于显示化身;以及
处理器电路,用于处理一个或多个指令来执行操作,其包括:
启用第一化身的选择;
识别所述第一计算设备的用户的一个或多个面部特征;
生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第一计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
9.如权利要求8所述的第一计算设备,其进一步包括:
视频拍摄装置设备,用于捕捉所述第一计算设备的用户的一个或多个视频图像,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个捕捉的视频图像来识别。
10.如权利要求8所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
11.如权利要求8所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
启用第二化身的选择;
生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第一计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
促使在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第二选择的化身的出现。
12.如权利要求8所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
13.如权利要求12所述的第一计算设备,其中所述一个或多个语音效果包括移调语音效果。
14.如权利要求8所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
促使在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第一选择的化身的出现。
15.一种方法,其包括:
由第一计算设备启用第一化身的选择;
由所述第一计算设备识别所述第一计算设备的用户的一个或多个面部特征;
由所述第一计算设备生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第二计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
由所述第一计算设备基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
16.如权利要求15所述的方法,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个视频图像来识别。
17.如权利要求15所述的方法,其进一步包括:
由所述第一计算设备处理所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
18.如权利要求15所述的方法,其进一步包括:
由所述第一计算设备启用第二化身的选择;
由所述第一计算设备生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第二计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
由所述第一计算设备在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第二选择的化身的出现。
19.如权利要求15所述的方法,其进一步包括:
由所述第一计算设备将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
20.如权利要求19所述的方法,其中所述一个或多个语音效果包括移调语音效果。
21.如权利要求15所述的方法,其进一步包括:
由所述第一计算设备在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第一选择的化身的出现。
22.一种第一计算设备,其包括:
化身选择模块,用于启用第一化身的选择;
特征提取模块,用于识别所述第一计算设备的用户的一个或多个面部特征;以及
化身控制模块,用于:
生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第一计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
23.如权利要求22所述的第一计算设备,其进一步包括面部检测和跟踪模块,用于检测和跟踪所述第一计算设备的用户的面部。
24.如权利要求22所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
25.如权利要求22所述的第一计算设备,其中所述化身选择模块进一步用于启用第二化身的选择。
26.如权利要求25所述的第一计算设备,其中所述化身控制模块进一步用于生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第一计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征。
27.如权利要求26所述的第一计算设备,其进一步包括显示模块,用于在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第二选择的化身的出现。
28.如权利要求22所述的第一计算设备,其进一步包括音频变换模块,用于将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
29.如权利要求28所述的第一计算设备,其中所述一个或多个语音效果包括移调语音效果。
30.如权利要求22所述的第一计算设备,其进一步包括显示模块,用于在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第一选择的化身的出现。
31.如权利要求22所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的一个或多个视频图像,其中所述一个或多个面部特征待从所述计算设备的用户的一个或多个捕捉的视频图像来识别。
32.一个或多个非暂时计算机可读存储设备,具有存储在其上的指令,所述指令在由第一计算设备的至少一个处理器执行时促成操作,其包括:
启用第一化身的选择;
识别所述第一计算设备的用户的一个或多个面部特征;
生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第二计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
33.如权利要求32所述的一个或多个存储设备,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个视频图像来识别。
34.如权利要求32所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
处理所述第一计算设备的用户的音频信息,以便传送到所述第二计算设备。
35.如权利要求32所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
启用第二化身的选择;
生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第二计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
促使在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第二选择的化身的出现。
36.如权利要求32所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
37.如权利要求32所述的一个或多个存储设备,其中所述指令在由所述第一计算设备的至少一个处理器执行时促成额外操作,其包括:
促使在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第一选择的化身的出现。
38.如权利要求32所述的一个或多个存储设备,其中所述一个或多个语音效果包括移调语音效果。
39.一种第一计算设备,其包括:
存储器电路,用于存储指令和数据;
显示设备,用于显示化身;以及
处理器电路,用于处理一个或多个指令来执行操作,其包括:
启用第一化身的选择;
识别所述第一计算设备的用户的一个或多个面部特征;
生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第一计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
40.如权利要求39所述的第一计算设备,其进一步包括:
视频拍摄装置设备,用于捕捉所述第一计算设备的用户的一个或多个视频图像,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个捕捉的视频图像来识别。
41.如权利要求39所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
42.如权利要求39所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
启用第二化身的选择;
生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第一计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
促使在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第二选择的化身的出现。
43.如权利要求39所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
44.如权利要求39所述的第一计算设备,其中所述处理器用于处理一个或多个指令来执行额外操作,其包括:
促使在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第一选择的化身的出现。
45.如权利要求39所述的第一计算设备,其中所述一个或多个语音效果包括移调语音效果。
46.一种方法,其包括:
由第一计算设备启用第一化身的选择;
由所述第一计算设备识别所述第一计算设备的用户的一个或多个面部特征;
由所述第一计算设备生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第二计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
由所述第一计算设备将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
47.如权利要求46所述的方法,其中所述一个或多个面部特征待从所述第一计算设备的用户的一个或多个视频图像来识别。
48.如权利要求46所述的方法,其进一步包括:
由所述第一计算设备处理所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
49.如权利要求46所述的方法,其进一步包括:
由所述第一计算设备启用第二化身的选择;
由所述第一计算设备生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第二计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
由所述第一计算设备在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第二选择的化身的出现。
50.如权利要求46所述的方法,其进一步包括:
由所述第一计算设备基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
51.如权利要求46所述的方法,其进一步包括:
由所述第一计算设备在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第二计算设备上观察第一选择的化身的出现。
52.如权利要求46所述的方法,其中所述一个或多个语音效果包括移调语音效果。
53.一种计算设备,其包括:
化身选择模块,用于启用第一化身的选择;
特征提取模块,用于识别所述第一计算设备的用户的一个或多个面部特征;
化身控制模块,用于生成待传送到第二计算设备的信息,用于促使第一选择的化身在所述第一计算设备的显示器上动画地出现,其中所述信息基于所述第一计算设备的用户的所识别的一个或多个面部特征;以及
音频变换模块,用于将所述第一计算设备的用户的声音信息变换成待传送到所述第二计算设备的目标声音信息,其中所述变换用于使用一个或多个语音效果来使得所述第一计算设备的用户的声音信息失真。
54.如权利要求53所述的第一计算设备,其进一步包括面部检测和跟踪模块,用于检测和跟踪所述第一计算设备的用户的面部。
55.如权利要求53所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的音频信息以便传送到所述第二计算设备。
56.如权利要求53所述的第一计算设备,其中所述化身选择模块进一步用于启用第二化身的选择。
57.如权利要求56所述的第一计算设备,其中所述化身控制模块进一步用于生成待传送到所述第二计算设备的第二信息,用于促使第二选择的化身在所述第一计算设备的显示器上动画地出现,其中所述第二信息基于所述第一计算设备的用户的所识别的一个或多个面部特征。
58.如权利要求57所述的第一计算设备,其进一步包括显示模块,用于在所述第一计算设备上显示第二选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第二选择的化身的出现。
59.如权利要求53所述的第一计算设备,其中所述化身控制模块进一步用于基于用户输入命令启用第一选择的化身的动画,其中所述用户输入命令与所述一个或多个面部特征分离并且所述用户输入命令要在用户输入设备由所述第一计算设备的用户控制时由所述用户输入设备生成。
60.如权利要求53所述的第一计算设备,其进一步包括显示模块,用于在所述第一计算设备上显示第一选择的化身以使所述第一计算设备的用户能够在所述第一计算设备上观察第一选择的化身的出现。
61.如权利要求53所述的第一计算设备,其中所述一个或多个语音效果包括移调语音效果。
62.如权利要求53所述的第一计算设备,其进一步包括音频捕捉设备,用于捕捉所述第一计算设备的用户的一个或多个视频图像,其中所述一个或多个面部特征待从所述计算设备的用户的一个或多个捕捉的视频图像来识别。
CN201710032311.XA 2012-04-09 2012-04-09 使用交互化身的通信 Pending CN107257403A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710032311.XA CN107257403A (zh) 2012-04-09 2012-04-09 使用交互化身的通信

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710032311.XA CN107257403A (zh) 2012-04-09 2012-04-09 使用交互化身的通信
PCT/CN2012/000458 WO2013152453A1 (en) 2012-04-09 2012-04-09 Communication using interactive avatars
CN201280071927.3A CN104170318B (zh) 2012-04-09 2012-04-09 使用交互化身的通信

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280071927.3A Division CN104170318B (zh) 2012-04-09 2012-04-09 使用交互化身的通信

Publications (1)

Publication Number Publication Date
CN107257403A true CN107257403A (zh) 2017-10-17

Family

ID=49326981

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201280071927.3A Active CN104170318B (zh) 2012-04-09 2012-04-09 使用交互化身的通信
CN201710032311.XA Pending CN107257403A (zh) 2012-04-09 2012-04-09 使用交互化身的通信

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201280071927.3A Active CN104170318B (zh) 2012-04-09 2012-04-09 使用交互化身的通信

Country Status (4)

Country Link
US (8) US9386268B2 (zh)
CN (2) CN104170318B (zh)
TW (2) TWI646844B (zh)
WO (1) WO2013152453A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010530A1 (en) 2018-07-10 2020-01-16 Microsoft Technology Licensing, Llc Automatically generating motions of an avatar
CN110806865A (zh) * 2019-11-08 2020-02-18 百度在线网络技术(北京)有限公司 动画生成方法、装置、设备及计算机可读存储介质

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9930310B2 (en) 2009-09-09 2018-03-27 Apple Inc. Audio alteration techniques
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
WO2013152454A1 (en) 2012-04-09 2013-10-17 Intel Corporation System and method for avatar management and selection
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US10410180B2 (en) * 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
CN109584868B (zh) 2013-05-20 2022-12-13 英特尔公司 用于虚拟个人助理系统的自然人-计算机交互
CN104184760B (zh) * 2013-05-22 2018-08-07 阿里巴巴集团控股有限公司 通讯过程中的信息交互方法、客户端及服务器
US10567865B2 (en) * 2013-10-16 2020-02-18 Voyetra Turtle Beach, Inc. Electronic headset accessory
CN104735389B (zh) * 2013-12-23 2018-08-31 联想(北京)有限公司 信息处理方法和信息处理设备
US9779593B2 (en) 2014-08-15 2017-10-03 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
US20160118036A1 (en) 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
US20150334346A1 (en) * 2014-05-16 2015-11-19 Elwha Llc Systems and methods for automatically connecting a user of a hands-free intercommunication system
US9407738B2 (en) * 2014-04-14 2016-08-02 Bose Corporation Providing isolation from distractions
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US9918176B2 (en) * 2014-05-13 2018-03-13 Lenovo (Singapore) Pte. Ltd. Audio system tuning
CN105396289A (zh) * 2014-09-15 2016-03-16 掌赢信息科技(上海)有限公司 实时游戏和多媒体会话过程中实现特效的方法及装置
US9633463B2 (en) 2014-09-24 2017-04-25 Intel Corporation User gesture driven avatar apparatus and method
JP2016118991A (ja) * 2014-12-22 2016-06-30 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
EP3275122A4 (en) * 2015-03-27 2018-11-21 Intel Corporation Avatar facial expression and/or speech driven animations
WO2016161553A1 (en) * 2015-04-07 2016-10-13 Intel Corporation Avatar generation and animations
KR102381687B1 (ko) * 2015-07-30 2022-03-31 인텔 코포레이션 감정 증강형 아바타 애니메이션
CN105159687B (zh) * 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US10607386B2 (en) 2016-06-12 2020-03-31 Apple Inc. Customized avatars and associated framework
CN106101858A (zh) * 2016-06-27 2016-11-09 乐视控股(北京)有限公司 一种视频生成方法及装置
CN107846565B (zh) * 2016-09-19 2019-10-18 北京字节跳动网络技术有限公司 视频通话中的互动方法及其系统
JP6698216B2 (ja) 2016-09-23 2020-05-27 アップル インコーポレイテッドApple Inc. アバターの作成及び編集に関する米国特許商標局への特許出願
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
US10587565B2 (en) * 2017-02-10 2020-03-10 International Business Machines Corporation Automatic response system based on body language
US9990926B1 (en) 2017-03-13 2018-06-05 Intel Corporation Passive enrollment method for speaker identification systems
US10861210B2 (en) 2017-05-16 2020-12-08 Apple Inc. Techniques for providing audio and video effects
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
CN110490093B (zh) * 2017-05-16 2020-10-16 苹果公司 表情符号录制和发送
KR20230144661A (ko) * 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
KR102331988B1 (ko) * 2017-05-16 2021-11-29 애플 인크. 이모지 레코딩 및 전송
US10845956B2 (en) * 2017-05-31 2020-11-24 Snap Inc. Methods and systems for voice driven dynamic menus
US11869150B1 (en) 2017-06-01 2024-01-09 Apple Inc. Avatar modeling and generation
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
GB201710840D0 (en) * 2017-07-05 2017-08-16 Jones Maria Francisca Virtual meeting participant response indication method and system
WO2019023397A1 (en) * 2017-07-28 2019-01-31 Baobab Studios Inc. SYSTEMS AND METHODS FOR ANIMATIONS AND INTERACTIVITY OF REAL-TIME COMPLEX CHARACTERS
US20190172240A1 (en) * 2017-12-06 2019-06-06 Sony Interactive Entertainment Inc. Facial animation for social virtual reality (vr)
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DE102018207518A1 (de) * 2018-05-15 2019-11-21 Siemens Aktiengesellschaft Verfahren und System zum Animieren eines 3D-Avatars
CN108830917B (zh) * 2018-05-29 2023-04-18 努比亚技术有限公司 一种信息生成方法、终端及计算机可读存储介质
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
WO2020013891A1 (en) * 2018-07-11 2020-01-16 Apple Inc. Techniques for providing audio and video effects
CN109147017A (zh) * 2018-08-28 2019-01-04 百度在线网络技术(北京)有限公司 动态图像生成方法、装置、设备及存储介质
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
KR20200034039A (ko) * 2018-09-14 2020-03-31 엘지전자 주식회사 로봇 및 그 동작 방법
US10706347B2 (en) 2018-09-17 2020-07-07 Intel Corporation Apparatus and methods for generating context-aware artificial intelligence characters
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11727724B1 (en) 2018-09-27 2023-08-15 Apple Inc. Emotion detection
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
DE102018220275A1 (de) * 2018-11-26 2020-05-28 Volkswagen Aktiengesellschaft Verfahren zur Durchführung einer Videokonferenz, Vorrichtung zur Verwendung bei dem Verfahren sowie dessen Umsetzung im Fahrzeug
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN109841225B (zh) * 2019-01-28 2021-04-30 北京易捷胜科技有限公司 声音替换方法、电子设备和存储介质
CN113874894A (zh) 2019-03-20 2021-12-31 莫希丁·埃尔·塔玛梅·科利 面向教育的交互式和互连智能计算平台
WO2020203999A1 (ja) * 2019-04-01 2020-10-08 住友電気工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
US11289067B2 (en) * 2019-06-25 2022-03-29 International Business Machines Corporation Voice generation based on characteristics of an avatar
US11628374B2 (en) * 2019-07-11 2023-04-18 Disney Enterprises, Inc. Virtual puppeteering using a portable device
US11830182B1 (en) * 2019-08-20 2023-11-28 Apple Inc. Machine learning-based blood flow tracking
US11967018B2 (en) 2019-12-20 2024-04-23 Apple Inc. Inferred shading
TWI829944B (zh) * 2020-02-27 2024-01-21 未來市股份有限公司 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法
US11335121B2 (en) * 2020-03-31 2022-05-17 Snap Inc. Global configuration interface for default self-images
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
WO2021252160A1 (en) 2020-06-08 2021-12-16 Apple Inc. Presenting avatars in three-dimensional environments
US11475652B2 (en) 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
US11502861B2 (en) * 2020-08-17 2022-11-15 T-Mobile Usa, Inc. Simulated auditory space for online meetings
US11438551B2 (en) * 2020-09-15 2022-09-06 At&T Intellectual Property I, L.P. Virtual audience using low bitrate avatars and laughter detection
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN114787759A (zh) * 2020-10-14 2022-07-22 住友电气工业株式会社 交流支持程序、交流支持方法、交流支持系统、终端装置以及非语言表达程序
US11076128B1 (en) * 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
CN112363658B (zh) * 2020-10-27 2022-08-12 维沃移动通信有限公司 视频通话的互动方法和装置
CN113099159A (zh) * 2021-03-26 2021-07-09 上海电气集团股份有限公司 一种远程会议的控制方法及装置
GB2606173A (en) * 2021-04-28 2022-11-02 Sony Interactive Entertainment Europe Ltd Computer-implemented method for controlling a virtual avatar
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11765320B2 (en) 2021-08-11 2023-09-19 Google Llc Avatar animation in virtual conferencing
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
US12009938B2 (en) 2022-07-20 2024-06-11 Katmai Tech Inc. Access control in zones
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US12022235B2 (en) 2022-07-20 2024-06-25 Katmai Tech Inc. Using zones in a three-dimensional virtual environment for limiting audio and video
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1532775A (zh) * 2003-03-19 2004-09-29 ���µ�����ҵ��ʽ���� 可视电话终端
US20100018382A1 (en) * 2006-04-21 2010-01-28 Feeney Robert J System for Musically Interacting Avatars
CN101690071A (zh) * 2007-06-29 2010-03-31 索尼爱立信移动通讯有限公司 在视频会议和其他通信期间控制化身的方法和终端
US20100211397A1 (en) * 2009-02-18 2010-08-19 Park Chi-Youn Facial expression representation apparatus
US20110296324A1 (en) * 2010-06-01 2011-12-01 Apple Inc. Avatars Reflecting User States

Family Cites Families (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4149930A (en) 1975-01-22 1979-04-17 Fulgurltwerke Seelze Und Eichriede In Luthe Bel Hannover Adolf Oesterheld Method and apparatus for making asbestos-cement boards
CN1009333B (zh) 1986-10-08 1990-08-29 大庆石油管理局油田建设设计研究院 原油消泡剂及其制备方法
US6477239B1 (en) 1995-08-30 2002-11-05 Hitachi, Ltd. Sign language telephone device
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
JP3863216B2 (ja) 1996-05-22 2006-12-27 富士通株式会社 感情表現装置
US7076118B1 (en) * 1997-12-05 2006-07-11 Sharp Laboratories Of America, Inc. Document classification system
US6169789B1 (en) 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system
JP3771989B2 (ja) 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
US5953700A (en) 1997-06-11 1999-09-14 International Business Machines Corporation Portable acoustic interface for remote access to automatic speech/speaker recognition server
US6307576B1 (en) 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
KR100530812B1 (ko) 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
US7606936B2 (en) 1998-05-29 2009-10-20 Research In Motion Limited System and method for redirecting data to a wireless device over a plurality of communication paths
US6072496A (en) 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US7003501B2 (en) 2000-02-11 2006-02-21 Maurice Ostroff Method for preventing fraudulent use of credit cards and credit card information, and for preventing unauthorized access to restricted physical and virtual sites
US7716133B1 (en) 2000-03-10 2010-05-11 Ncr Corporation Self service terminal
US6545682B1 (en) 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
KR20030029638A (ko) 2000-07-24 2003-04-14 아이매틱 인터페이시즈, 인크. 무표정 얼굴 이미지를 사용하여 아바타 애니메이션 변환을생성하기 위한 방법 및 시스템
US7870599B2 (en) 2000-09-05 2011-01-11 Netlabs.Com, Inc. Multichannel device utilizing a centralized out-of-band authentication system (COBAS)
US8812319B2 (en) 2001-01-31 2014-08-19 Ibiometrics, Inc. Dynamic pass phrase security system (DPSS)
US7116330B2 (en) 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
JP2002283261A (ja) 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
DE10129662A1 (de) * 2001-06-20 2003-01-09 Philips Corp Intellectual Pty Kommunikationssystem mit Systemkomponenten zur Feststellung der Urheberschaft eines Kommunikationsbeitrages
JP2003046109A (ja) 2001-08-01 2003-02-14 Kazumi Sonomoto 集光性のある凸レンズを付帯し、充電効率を高めるソーラー充電法
JP2003244425A (ja) 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd 伝送画像の修飾パターンの登録方法および装置ならびに再生方法および装置
US7196733B2 (en) 2002-01-28 2007-03-27 Canon Kabushiki Kaisha Apparatus for receiving broadcast data, method for displaying broadcast program, and computer program
US20040128350A1 (en) * 2002-03-25 2004-07-01 Lou Topfl Methods and systems for real-time virtual conferencing
AU2003217528A1 (en) 2002-03-26 2003-10-08 So-Woon Kim System and method for 3-dimension simulation of glasses
CN1313979C (zh) 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US7779076B2 (en) 2002-05-31 2010-08-17 Aol Inc. Instant messaging personalization
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7386799B1 (en) 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
EP1574023A1 (en) 2002-12-12 2005-09-14 Koninklijke Philips Electronics N.V. Avatar database for mobile video communications
US7106358B2 (en) 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US20040179037A1 (en) 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
GB0311208D0 (en) 2003-05-15 2003-06-18 British Telecomm Feature based caricaturing
JP2005018305A (ja) 2003-06-25 2005-01-20 Oki Electric Ind Co Ltd 画像配信システムおよび画像コミュニケーション機能付情報処理装置
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
KR100983745B1 (ko) 2003-09-27 2010-09-24 엘지전자 주식회사 이동 통신 단말기의 아바타 생성 서비스 방법
JP2005173772A (ja) 2003-12-09 2005-06-30 Oki Electric Ind Co Ltd 画像通信システムおよび画像生成方法
US7752270B2 (en) 2004-01-21 2010-07-06 At&T Mobility Ii Llc Linking sounds and emoticons
US7447211B1 (en) 2004-03-23 2008-11-04 Avaya Inc. Method and apparatus of establishing a communication channel using protected network resources
US7940932B2 (en) 2004-04-08 2011-05-10 Texas Instruments Incorporated Methods, apparatus, and systems for securing SIM (subscriber identity module) personalization and other data on a first processor and secure communication of the SIM data to a second processor
US7176956B2 (en) 2004-05-26 2007-02-13 Motorola, Inc. Video enhancement of an avatar
JP4172793B2 (ja) 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US7804997B2 (en) 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
TWM290286U (en) 2004-11-22 2006-05-01 Wavetronex Inc Storage and applied devices based on images obtained from object tracking and recognition technology
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
KR101141643B1 (ko) 2005-03-07 2012-05-04 엘지전자 주식회사 캐리커쳐 생성 기능을 갖는 이동통신 단말기 및 이를 이용한 생성 방법
US7564476B1 (en) 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
US20060294465A1 (en) 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
US7587079B2 (en) 2005-07-21 2009-09-08 Xerox Corporation Check printing auditing systems and methods
WO2008091485A2 (en) 2007-01-23 2008-07-31 Euclid Discoveries, Llc Systems and methods for providing personal video services
EP1768387B1 (en) 2005-09-22 2014-11-05 Samsung Electronics Co., Ltd. Image capturing apparatus with image compensation and method therefor
JP2007220004A (ja) 2006-02-20 2007-08-30 Funai Electric Co Ltd テレビおよび認証装置
CN101035242A (zh) * 2006-03-07 2007-09-12 南京Lg新港显示有限公司 利用化身的向导方法及其装置
CN201000895Y (zh) 2006-12-22 2008-01-02 张耀明 主动风冷聚光太阳能电池组件
US7969461B2 (en) 2006-03-30 2011-06-28 Polycom, Inc. System and method for exchanging connection information for videoconferencing units using instant messaging
US20070230794A1 (en) * 2006-04-04 2007-10-04 Logitech Europe S.A. Real-time automatic facial feature replacement
US20070295382A1 (en) 2006-06-23 2007-12-27 Eugene Oak Solar super structure with cooling system
CN101098241A (zh) 2006-06-26 2008-01-02 腾讯科技(深圳)有限公司 虚拟形象实现方法及其系统
US8726195B2 (en) * 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
CN100416612C (zh) 2006-09-14 2008-09-03 浙江大学 基于视频流的三维动态人脸表情建模方法
US20080136814A1 (en) 2006-09-17 2008-06-12 Chang Woo Chu System and method for generating 3-d facial model and animation using one video camera
CN100527170C (zh) 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
US8079905B2 (en) 2006-11-06 2011-12-20 Igt Remote wager gaming system using a video game console
CN1972274A (zh) 2006-11-07 2007-05-30 搜图科技(南京)有限公司 基于互联网和移动应用的人脸图像变化处理系统及方法
US20080214168A1 (en) 2006-12-21 2008-09-04 Ubiquity Holdings Cell phone with Personalization of avatar
US8199152B2 (en) 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
CN101669328A (zh) 2007-02-09 2010-03-10 达丽星网络有限公司 用于电信网络中的多媒体内容适配的方法和装置
JP5219184B2 (ja) 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
FR2917931A1 (fr) 2007-06-22 2008-12-26 France Telecom Procede et systeme de mise en relation entre des personnes dans un systeme de telecommunications.
GB2450757A (en) 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
CN101110937A (zh) 2007-08-07 2008-01-23 宇龙计算机通信科技(深圳)有限公司 一种可视电话通话过程中的信息发送方法及系统
US20090055484A1 (en) * 2007-08-20 2009-02-26 Thanh Vuong System and method for representation of electronic mail users using avatars
US8390628B2 (en) 2007-09-11 2013-03-05 Sony Computer Entertainment America Llc Facial animation using motion capture data
CN101378237A (zh) 2007-10-16 2009-03-04 吴宣瑚 一种太阳能光伏发电装置
US20090128579A1 (en) 2007-11-20 2009-05-21 Yiling Xie Method of producing test-wearing face image for optical products
FR2924864B1 (fr) 2007-12-11 2010-08-20 Photowatt Internat Module photovoltaique avec un echangeur thermique
US9191497B2 (en) 2007-12-13 2015-11-17 Google Technology Holdings LLC Method and apparatus for implementing avatar modifications in another user's avatar
CN101472158A (zh) 2007-12-27 2009-07-01 上海银晨智能识别科技有限公司 基于人脸检测的网络摄像装置及图像形成方法
CN101217511A (zh) 2008-01-03 2008-07-09 腾讯科技(深圳)有限公司 个人形象管理系统和管理方法
CN101499128B (zh) 2008-01-30 2011-06-29 中国科学院自动化研究所 基于视频流的三维人脸动作检测和跟踪方法
JP2009199417A (ja) 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法
WO2009108645A1 (en) 2008-02-27 2009-09-03 Sony Computer Entertainment America Inc. Methods for capturing depth data of a scene and applying computer actions
US8340452B2 (en) 2008-03-17 2012-12-25 Xerox Corporation Automatic generation of a photo guide
US8832552B2 (en) * 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
US8374422B2 (en) 2008-04-14 2013-02-12 Xid Technologies Pte Ltd. Face expressions identification
TW200945074A (en) 2008-04-22 2009-11-01 Ein Si & S Co Ltd Method and system for providing content (3)
US7953255B2 (en) * 2008-05-01 2011-05-31 At&T Intellectual Property I, L.P. Avatars in social interactive television
CN105327509B (zh) 2008-06-02 2019-04-19 耐克创新有限合伙公司 创建化身的系统和方法
CN201226500Y (zh) 2008-06-03 2009-04-22 王勤文 太阳能发电模块
US20090315893A1 (en) 2008-06-18 2009-12-24 Microsoft Corporation User avatar available across computing applications and devices
USH2253H1 (en) 2008-06-26 2011-05-03 Pixar Multiple personality articulation for animated characters
CN101354795A (zh) 2008-08-28 2009-01-28 北京中星微电子有限公司 基于视频的三维人脸动画驱动方法和系统
US20100070858A1 (en) 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Interactive Media System and Method Using Context-Based Avatar Configuration
CN101677389A (zh) 2008-09-17 2010-03-24 深圳富泰宏精密工业有限公司 图片传输系统及方法
US8224652B2 (en) 2008-09-26 2012-07-17 Microsoft Corporation Speech and text driven HMM-based body animation synthesis
CA2745094A1 (en) 2008-12-04 2010-07-01 Total Immersion Software, Inc. Systems and methods for dynamically injecting expression information into an animated facial mesh
US8581838B2 (en) 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
JP5208810B2 (ja) 2009-02-27 2013-06-12 株式会社東芝 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
KR101597286B1 (ko) * 2009-05-07 2016-02-25 삼성전자주식회사 아바타 영상 메시지를 생성하는 장치 및 방법
KR101671900B1 (ko) 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
US8260262B2 (en) 2009-06-22 2012-09-04 Mourad Ben Ayed Systems for three factor authentication challenge
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
EP2309307B1 (en) 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
US9134816B2 (en) 2009-11-11 2015-09-15 Erik Dahlkvist Method for using virtual facial and bodily expressions
US8819244B2 (en) 2010-04-07 2014-08-26 Apple Inc. Apparatus and method for establishing and utilizing backup communication channels
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
EP2558176B1 (en) 2010-04-13 2018-11-07 Sony Computer Entertainment America LLC Calibration of portable devices in a shared virtual space
CN101826217A (zh) 2010-05-07 2010-09-08 上海交通大学 人脸动画快速生成方法
US8692830B2 (en) 2010-06-01 2014-04-08 Apple Inc. Automatic avatar creation
US20110304629A1 (en) 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
CN102087750A (zh) 2010-06-13 2011-06-08 湖南宏梦信息科技有限公司 一种动漫特效的制作方法
US8452721B2 (en) 2010-06-15 2013-05-28 Nvidia Corporation Region of interest tracking for fluid simulation
JP5460499B2 (ja) 2010-07-12 2014-04-02 日本放送協会 画像処理装置およびコンピュータプログラム
CN101924924A (zh) 2010-07-28 2010-12-22 厦门雅迅网络股份有限公司 一种无线远程视频监控的自适应传输方法及传输系统
US20120058747A1 (en) 2010-09-08 2012-03-08 James Yiannios Method For Communicating and Displaying Interactive Avatar
US8638364B2 (en) 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
US8830226B2 (en) 2010-09-28 2014-09-09 Apple Inc. Systems, methods, and computer-readable media for integrating a three-dimensional asset with a three-dimensional model
US9519396B2 (en) 2010-09-28 2016-12-13 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
US20120130717A1 (en) 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
KR20120059994A (ko) 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
US9734637B2 (en) 2010-12-06 2017-08-15 Microsoft Technology Licensing, Llc Semantic rigging of avatars
CN102158816A (zh) 2010-12-10 2011-08-17 上海合合信息科技发展有限公司 建立通话时将设定图像在对方电子设备上显示的方法
US8665307B2 (en) 2011-02-11 2014-03-04 Tangome, Inc. Augmenting a video conference
US20140043329A1 (en) 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
CN102176197A (zh) 2011-03-23 2011-09-07 上海那里网络科技有限公司 一种使用虚拟化身和实时影像进行实时互动的方法
DE102011015730A1 (de) 2011-03-31 2012-10-04 Land Rheinland-Pfalz, vertreten durch das Landeskriminalamt Rheinland-Pfalz Phantombilddatenbank (3D)
CN102157007A (zh) 2011-04-11 2011-08-17 北京中星微电子有限公司 一种表演驱动的制作人脸动画的方法和装置
US9330483B2 (en) 2011-04-11 2016-05-03 Intel Corporation Avatar facial expression techniques
CN102214288B (zh) * 2011-06-15 2013-03-06 清华大学 基于化身的隐私保护方法
US20130004028A1 (en) 2011-06-28 2013-01-03 Jones Michael J Method for Filtering Using Block-Gabor Filters for Determining Descriptors for Images
KR101819535B1 (ko) 2011-06-30 2018-01-17 삼성전자주식회사 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치
JP6039915B2 (ja) 2011-07-08 2016-12-07 株式会社ドワンゴ ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
US20130019154A1 (en) 2011-07-11 2013-01-17 Collegenet, Inc. Systems and methods for collecting multimedia form responses
CN102254336B (zh) 2011-07-14 2013-01-16 清华大学 人脸视频合成方法及装置
EP2748765B1 (en) 2011-08-25 2022-12-14 Cornell University Retinal encoder for machine vision
CN102271241A (zh) 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及系统
US20130109302A1 (en) * 2011-10-31 2013-05-02 Royce A. Levien Multi-modality communication with conversion offloading
US8947493B2 (en) 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
WO2013074153A1 (en) 2011-11-17 2013-05-23 University Of Southern California Generating three dimensional models from range sensor data
US10013787B2 (en) 2011-12-12 2018-07-03 Faceshift Ag Method for facial animation
US8854397B2 (en) 2011-12-13 2014-10-07 Facebook, Inc. Photo selection for mobile devices
US9990770B2 (en) 2011-12-20 2018-06-05 Intel Corporation User-to-user communication enhancement with augmented reality
US9398262B2 (en) 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
US9008633B2 (en) 2012-02-17 2015-04-14 Apple Inc. Methods to determine availability of user based on mobile phone status
US20130219166A1 (en) 2012-02-20 2013-08-22 Motorola Mobility, Inc. Hardware based identity manager
US8661549B2 (en) 2012-03-02 2014-02-25 Apple Inc. Method and apparatus for obfuscating program source codes
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
JP5790568B2 (ja) 2012-03-28 2015-10-07 株式会社デンソー メッセージ装飾入力システム
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
WO2013152454A1 (en) 2012-04-09 2013-10-17 Intel Corporation System and method for avatar management and selection
US20140198121A1 (en) 2012-04-09 2014-07-17 Xiaofeng Tong System and method for avatar generation, rendering and animation
US20130286161A1 (en) 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
US8848068B2 (en) 2012-05-08 2014-09-30 Oulun Yliopisto Automated recognition algorithm for detecting facial expressions
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9425974B2 (en) 2012-08-15 2016-08-23 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US9936165B2 (en) 2012-09-06 2018-04-03 Intel Corporation System and method for avatar creation and synchronization
US9314692B2 (en) 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
US9124386B2 (en) 2012-09-28 2015-09-01 Saurabh Dadu System, device, and method for securing voice authentication and end-to-end speech interaction
US10319249B2 (en) 2012-11-21 2019-06-11 Laureate Education, Inc. Facial expression recognition in educational learning systems
US20140153832A1 (en) 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images
CN103873642A (zh) 2012-12-10 2014-06-18 北京三星通信技术研究有限公司 记载通话记录的方法及设备
US9466142B2 (en) 2012-12-17 2016-10-11 Intel Corporation Facial movement based avatar animation
US8970656B2 (en) 2012-12-20 2015-03-03 Verizon Patent And Licensing Inc. Static and dynamic video calling avatars
CN103093490B (zh) 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
WO2014139118A1 (en) 2013-03-14 2014-09-18 Intel Corporation Adaptive facial expression calibration
WO2014169346A1 (en) 2013-04-19 2014-10-23 Commonwealth Scientific And Industrial Research Organisation System and method of tracking an object
US9589357B2 (en) 2013-06-04 2017-03-07 Intel Corporation Avatar-based video encoding
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
CA3231419A1 (en) 2013-08-02 2015-02-05 Soul Machines Limited System for neurobehavioural animation
GB201315142D0 (en) 2013-08-23 2013-10-09 Ucl Business Plc Audio-Visual Dialogue System and Method
US9317954B2 (en) 2013-09-23 2016-04-19 Lucasfilm Entertainment Company Ltd. Real-time performance capture with on-the-fly correctives
CN103593650B (zh) 2013-10-28 2017-01-25 浙江大学 一种基于表情识别系统生成艺术图像的方法
US9489760B2 (en) 2013-11-14 2016-11-08 Intel Corporation Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices
US9300901B2 (en) 2013-12-04 2016-03-29 Disney Enterprises, Inc. Augmenting physical appearance using illumination
CN103942822B (zh) 2014-04-11 2017-02-01 浙江大学 一种基于单视频摄像机的面部特征点跟踪和人脸动画方法
US9672416B2 (en) 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US9576175B2 (en) 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
US9277180B2 (en) 2014-06-30 2016-03-01 International Business Machines Corporation Dynamic facial feature substitution for video conferencing
US9911220B2 (en) 2014-07-28 2018-03-06 Adobe Systes Incorporated Automatically determining correspondences between three-dimensional models
CN107004288B (zh) 2014-12-23 2022-03-01 英特尔公司 非面部特征的面部动作驱动的动画
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
WO2016101124A1 (en) 2014-12-23 2016-06-30 Intel Corporation Sketch selection for rendering 3d model avatar
US9576190B2 (en) 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
US10386996B2 (en) 2015-06-11 2019-08-20 Microsoft Technology Licensing, Llc Communicating emotional information via avatar animation
KR102381687B1 (ko) 2015-07-30 2022-03-31 인텔 코포레이션 감정 증강형 아바타 애니메이션
US20170118145A1 (en) 2015-10-21 2017-04-27 Futurefly Ltd. Method of using emoji to control and enrich 3d chat environments
EP3371778A4 (en) 2015-11-06 2019-06-26 Mursion, Inc. CONTROL SYSTEM FOR VIRTUAL FIGURES
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1532775A (zh) * 2003-03-19 2004-09-29 ���µ�����ҵ��ʽ���� 可视电话终端
US20100018382A1 (en) * 2006-04-21 2010-01-28 Feeney Robert J System for Musically Interacting Avatars
CN101690071A (zh) * 2007-06-29 2010-03-31 索尼爱立信移动通讯有限公司 在视频会议和其他通信期间控制化身的方法和终端
US20100211397A1 (en) * 2009-02-18 2010-08-19 Park Chi-Youn Facial expression representation apparatus
US20110296324A1 (en) * 2010-06-01 2011-12-01 Apple Inc. Avatars Reflecting User States

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010530A1 (en) 2018-07-10 2020-01-16 Microsoft Technology Licensing, Llc Automatically generating motions of an avatar
CN111316203A (zh) * 2018-07-10 2020-06-19 微软技术许可有限责任公司 自动生成形象的动作
CN111316203B (zh) * 2018-07-10 2022-05-31 微软技术许可有限责任公司 自动生成形象的动作
US11983807B2 (en) 2018-07-10 2024-05-14 Microsoft Technology Licensing, Llc Automatically generating motions of an avatar
CN110806865A (zh) * 2019-11-08 2020-02-18 百度在线网络技术(北京)有限公司 动画生成方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
TWI637637B (zh) 2018-10-01
US20140152758A1 (en) 2014-06-05
US20240031534A1 (en) 2024-01-25
US20230283748A1 (en) 2023-09-07
CN104170318B (zh) 2018-06-01
US20170111614A1 (en) 2017-04-20
TW201733345A (zh) 2017-09-16
TW201733346A (zh) 2017-09-16
US9386268B2 (en) 2016-07-05
US20220232190A1 (en) 2022-07-21
US11303850B2 (en) 2022-04-12
CN104170318A (zh) 2014-11-26
US20210105438A1 (en) 2021-04-08
US20190320144A1 (en) 2019-10-17
TWI646844B (zh) 2019-01-01
WO2013152453A1 (en) 2013-10-17
US11595617B2 (en) 2023-02-28
US20170039751A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
CN104170318B (zh) 使用交互化身的通信
US9357174B2 (en) System and method for avatar management and selection
US9398262B2 (en) Communication using avatar
US9936165B2 (en) System and method for avatar creation and synchronization
TWI642306B (zh) 用於化身的產生、渲染以及動畫化之系統與方法
TWI583198B (zh) 使用互動化身的通訊技術
TWI682669B (zh) 使用互動化身的通訊技術(五)
TW202107250A (zh) 使用互動化身的通訊技術(七)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171017