CN109474801A - 一种交互对象的生成方法、装置及电子设备 - Google Patents

一种交互对象的生成方法、装置及电子设备 Download PDF

Info

Publication number
CN109474801A
CN109474801A CN201811123907.1A CN201811123907A CN109474801A CN 109474801 A CN109474801 A CN 109474801A CN 201811123907 A CN201811123907 A CN 201811123907A CN 109474801 A CN109474801 A CN 109474801A
Authority
CN
China
Prior art keywords
sub
interactive object
light
target user
light intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811123907.1A
Other languages
English (en)
Other versions
CN109474801B (zh
Inventor
奥利维尔·菲永
李建亿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pacific Future Technology Hangzhou Co ltd
Original Assignee
Pacific Future Technology (shenzhen) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pacific Future Technology (shenzhen) Co Ltd filed Critical Pacific Future Technology (shenzhen) Co Ltd
Publication of CN109474801A publication Critical patent/CN109474801A/zh
Application granted granted Critical
Publication of CN109474801B publication Critical patent/CN109474801B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供一种交互对象的生成方法、装置及电子设备,包括:实时获取音频信息,检测所述音频信息是否存在预设关键词;若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。能够将用户视频过程中的沟通内容生成交互对象,实时显示在对方用户的视频图像界面中,同时交互对象的光影效果能够与对方用户所处的场景保持一致,丰富了用户视频聊天过程的交互体验,增加了聊天内容与视频场景的互动关联性。

Description

一种交互对象的生成方法、装置及电子设备
技术领域
本发明涉及互联网应用技术领域,尤其涉及一种交互对象的生成方法、装置及电子设备。
背景技术
随着互联网技术的发展,即时通话的方式也是多种多样,人们可以随时随地通过视频的方式进行沟通。然而,发明人在实现本发明的过程中发现:用户在进行视频的过程中,一般仅能够通过双方对话的形式进行互动,或者在视频聊天界面上呈现与当前场景无关联的弹幕信息,使得用户在视频聊天过程中的交互比较单一,缺乏与场景的关联性。
此外,网络视频越来越多的通过移动装置自拍完成,但是移动装置的摄像头获取视频或图片的效果不但受周围环境光的影响,也受到拍摄稳定度的影响,幅度较大的抖动会影响拍摄质量且不利于后续图像或视频的处理,移动装置的支架或自拍杆也使用灵活度也不能满足要求。
发明内容
本发明实施例提供的交互对象的生成方法、装置及电子设备,用以至少解决相关技术中的上述问题。
本发明实施例一方面提供了一种交互对象的生成方法,包括:
实时获取音频信息,检测所述音频信息是否存在预设关键词;若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
进一步地,所述方法还包括:预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系。
进一步地,所述对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息,包括:提取所述人脸图像中鼻部区域的子图像;基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度;获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
进一步地,所述基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度,包括:将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心;将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度;计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重;根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
进一步地,所述在所述视频界面上显示根据所述光线信息渲染后的所述交互对象,包括:在所述视频界面上查找与所述交互对象对应的目标位置;根据所述目标位置和所述光线角度确定所述交互对象的阴影位置;根据所述交互对象和所述光线强度调整所述交互对象的对比度并在所述阴影位置生成所述交互对象的阴影。
本发明实施例的另一方面提供了一种交互对象的生成装置,包括:
检测模块,用于实时获取音频信息,检测所述音频信息是否存在预设关键词;获取模块,用于若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;处理模块,用于在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;显示模块,用于在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
进一步地,所述装置还包括建立模块,所述建立模块用于预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系。
进一步地,所述处理模块包括:提取单元,用于提取所述人脸图像中鼻部区域的子图像;比较单元,用于基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度;获取单元,用于获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
进一步地,所述比较单元用于,将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心;将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度;计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重;根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
进一步地,所述显示模块用于,在所述视频界面上查找与所述交互对象对应的目标位置;根据所述目标位置和所述光线角度确定所述交互对象的阴影位置;根据所述交互对象和所述光线强度调整所述交互对象的对比度并在所述阴影位置生成所述交互对象的阴影。
本发明实施例的又一方面提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述任一项交互对象的生成方法。
进一步的,所述电子设备还包括图像获取模块,所述图像获取模块包括镜头、自动聚焦音圈马达、机械防抖器以及图像传感器,所述镜头固装在所述自动聚焦音圈马达上,所述镜头用于获取图像,所述图像传感器将所述镜头获取的图像传输至所述识别模块,所述自动聚焦音圈马达安装在所述机械防抖器上,所述处理模块根据镜头内的陀螺仪检测到的镜头抖动的反馈驱动所述机械防抖器的动作,实现镜头的抖动补偿。
进一步的,所述机械防抖器包括活动板、活动框、弹性回复机构、基板以及补偿机构;所述活动板的中部设有供所述镜头穿过的通孔,所述自动聚焦音圈马达安装在所述活动板上,所述活动板安装在所述活动框内,所述活动板的相对两侧与所述活动框相对两侧的内壁滑动配合,以使所述活动板可沿着第一方向往复滑动;所述活动框的尺寸小于所述基板的尺寸,所述活动框的相对两侧分别通过两个弹性回复机构与所述基板相连接,所述基板的中部也设有所述镜头穿过的通孔;所述补偿机构在所述处理模块的驱动下带动所述活动板和活动板上的镜头动作,以实现镜头的抖动补偿;所述补偿机构包括驱动轴、齿轮、齿轮轨道以及限位轨道,所述驱动轴安装在所述基板上,所述驱动轴与所述齿轮传动连接;所述齿轮轨道设置在所述活动板上,所述齿轮安装在所述齿轮轨道内,所述齿轮转动时通过所述齿轮轨道使得所述活动板能够产生向第一方向的位移和第二方向的位移,其中所述第一方向与所述第二方向垂直;所述限位轨道设置在所述活动板上或所述基板上,所述限位轨道用于防止所述齿轮脱离所述齿轮轨道。
进一步的,所述活动板一侧设有一腰型孔,所述腰型孔沿其周向设有多个与所述齿轮相啮合的齿,所述腰型孔和多个所述齿共同构成所述齿轮轨道,所述齿轮位于所述腰型孔内并与所述齿相啮合;所述限位轨道设置在所述基板上,所述活动板底部设有位于所述限位轨道内的限位件,所述限位轨道使所述限位件在其中的运动轨迹呈腰型。
进一步的,所述限位件为设置在所述活动板底面上的凸起。
进一步的,所述齿轮轨道包括设置在所述活动板上的多个圆柱凸起,多个所述圆柱凸起沿所述第二方向均匀间隔布设,所述齿轮与多个所述凸起相啮合;所述限位轨道为设置在所述活动板上的第一弧形限位件和第二弧形限位件,所述第一弧形限位件和第二弧形限位件分别设置在所述齿轮轨道沿第一方向上的相对两侧,所述第一弧形限位件和第二弧形限位件及多个所述凸起相配合使得所述活动板的运动轨迹呈腰型。
进一步的,所述弹性回复机构包括伸缩弹簧。
进一步的,所述图像获取模块包括手机和用于安装所述手机的支架。
进一步的,所述支架包括手机安装座和可伸缩的支撑杆;所述手机安装座包括可伸缩的连接板和安装于连接板相对两端的折叠板组,所述支撑杆的一端与所述连接板中部通过阻尼铰链相连接;所述折叠板组包括第一板体、第二板体及第三板体,其中,所述第一板体的相对两端中的一端与所述连接板相铰接,所述第一板体的相对两端中的另一端与所述第二板体的相对两端中的一端相铰接;所述第二板体相对两端的另一端与所述第三板体相对两端中的一端相铰接;所述第二板体设有供手机边角插入的开口;所述手机安装座用于安装手机时,所述第一板体、第二板体和第三板体折叠呈直角三角形状态,所述第二板体为直角三角形的斜边,所述第一板体和所述第三板体为直角三角形的直角边,其中,所述第三板体的一个侧面与所述连接板的一个侧面并排贴合,所述第三板体相对两端中的另一端与所述第一板体相对两端中的一端相抵。
进一步的,所述第三板体的一个侧面设有第一连接部,所述连接板与所述第三板体相贴合的侧面设有与所述第一连接部相配合的第一配合部,所述支架手机安装座用于安装手机时,所述第一连接部和所述第一配合部卡合连接。
进一步的,所述第一板体相对两端中的一端设有第二连接部,所述第三板体相对两端中的另一端设有与所述第二连接部相配合的第二配合部,所述支架手机安装座用于安装手机时,所述第二连接部和所述第二配合部卡合连接。
进一步的,所述支撑杆的另一端可拆卸连接有底座。
由以上技术方案可见,本发明实施例提供的交互对象的生成方法、装置及电子设备,能够将用户视频过程中的沟通内容生成交互对象,实时显示在对方用户的视频图像界面中,同时交互对象的光影效果能够与对方用户所处的场景保持一致,使得交互对象与对方用户的视频图像界面实现融合,丰富了用户视频聊天过程的交互体验,增加了聊天内容与视频场景的互动关联性。手机摄像头的防抖动硬件结构和手机自拍支架也进一步增强了拍摄效果,更利于后续的图像或视频处理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例提供的交互对象的生成方法流程图;
图2为本发明一个实施例提供的步骤S103具体流程图;
图3为本发明一个实施例提供的步骤S103具体流程图;
图4为本发明一个实施例提供的交互对象的生成装置结构图;
图5为本发明一个实施例提供的交互对象的生成装置结构图;
图6为执行本发明方法实施例提供的交互对象的生成方法的电子设备的硬件结构示意图;
图7为本发明一个实施例提供的图像获取模块的结构示意图;
图8为本发明一个实施例提供的第一种机械防抖器的结构示意图;
图9为本发明一个实施例提供的第一种活动板的底面结构示意图;
图10为本发明一个实施例提供的第二种机械防抖器的结构示意图;
图11为本发明一个实施例提供的第二种活动板的底面结构示意图;
图12为本发明一个实施例提供的支架的结构图;
图13为本发明一个实施例提供的支架的一个状态示意图;
图14为本发明一个实施例提供的支架的另一个状态示意图;
图15为本发明一个实施例提供的安装座与手机相连接时的结构状态图。
具体实施方式
为了使本领域的人员更好地理解本发明实施例中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明实施例一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本发明实施例保护的范围。
首先介绍一下本发明实施例的应用场景,当两个或多个用户之间进行视频聊天时,会在终端屏幕上显示各个用户的视频界面,每个用户的视频界面显示该用户以及该用户当前所处的场景。在本发明实施例中,会实时获取每个用户输出的音频信息,当某个用户(例如用户A)的音频信息中涉及到可以通过交互对象展现的关键词时,将该关键词通过交互对象展示在其他用户的视频界面上,丰富了视频聊天过程的交互性。同时该交互对象会根据每个其他用户所处场景的光影条件进行调整,实现交互对象与每个用户所处场景光影效果的融合。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互结合。图1为本发明实施例提供的交互对象的生成方法流程图。如图1所示,本发明实施例提供的交互对象的生成方法,包括:
步骤S101,实时获取音频信息,检测所述音频信息是否存在预设关键词。
具体地,当两个用户或多个用户之间进行视频聊天时,实时获取每个用户的音频信息,并对该音频信息进行识别得到该音频信息对应的文本信息,依据该文本信息确定是否存在预设关键词。现有的语音识别方法有很多,包括采用人工神经网络模型、马尔科夫模型进行语音识别,本发明在此不做赘述。
作为本发明实施例可选的实施方式,在进行本步骤之前,预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系。
具体地,关键词可以是名词(例如建筑物、景物、动物、明星名字、视频名字等),表示情感的形容词等,该交互对象可以是表情图标、虚拟人物、虚拟动物、图片等等,交互对象信息库中的关键词、以及关键词对应的交互对象可以根据时下热点信息进行实时的替换和补充,本发明在此不做限制。也就是说,当用户输出的音频信息中包括关键词时,即在与该用户聊天的其他用户的视频界面图像中显示该关键词对应的交互对象,增加视频过程中的交互性。
在本步骤中,在用户之间聊天的音频信息转化成文本信息后,基于上述交互对象信息库,查找文本信息中是否存在关键词,若存在关键词,则执行步骤S102。
步骤S102,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户。
基于交互对象信息库中存储的交互对象与所述关键词的对应关系,获取步骤S101中关键词对应的交互对象。示例性地,例如用户A在与用户B进行视频聊天,当用户A说“最近播放的如懿传很好看”,若“如懿传”是预设的关键词,则可以根据交互对象信息库中的对应关系找到“如懿传”对应的交互对象,该交互对象可以是“如懿传”的宣传图片、如懿传里某个角色的虚拟形象等。
同时,由于该音频信息是在视频聊天中的用户发给其他用户的,该交互对象也是需要在这些显示其他用户的视频界面中展示的,因此可以首先通过该音频信息确定发出该音频信息对应的第一用户,将除了第一用户的其他用户确定为该音频信息对应的目标用户。其中,目标用户可以是一个或者是多个。
步骤S103,在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息。
在确定了交互对象后,需要将该交互对象显示在各个目标用户的视频界面上。因此,需要根据每个目标用户的视频界面上的光照信息,分别对交互对象进行光照渲染。
首先,确定显示该目标用户的视频界面图像,并在该目标用户的视频界面图像中截取该目标用的人脸图像;然后,再通过该人脸图像确定该目标用户所处场景的光线信息。
具体地,光线信息包括但不限于光线角度和光线强度。如图2所示,确定光线信息的过程包括如下子步骤:
步骤S1031,提取所述人脸图像中鼻部区域的子图像。
由于人脸五官中的鼻子是凸出于人脸的,鼻部区域的明暗更容易受到环境光的影响,也更能代表目标用户所处场景的光线。因此本实施例提取人脸特征中的鼻子,得到人脸图像中鼻部区域的子图像。
步骤S1032,基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度。
具体地,根据子图像的图像矩来确定其对应的光强加权中心。图像矩是一个从数字图形中计算出来的矩集,通常描述了该图像的全局特征,并提供大量的关于该图像不同类型的几何特征信息,比如大小、位置、方向及形状等,例如,一阶矩与形状有关、二阶矩显示了曲线围绕直线平均值的扩展程度、三阶矩则是关于平均值的对称性测量,由二阶矩和三阶矩可以导出一组共有7个不变阶矩,不变阶矩是图像统计特征,其可以据此对图像进行分类操作,属于本领域的公知常识,本发明在此不再赘述。
可选地,在确定了子图片的光强加权中心之后,将其与进行比较(该加权中心即为人脸图像的几何中心),将人脸图像的加权中心的坐标位置与子图片的光强加权中心的坐标位置进行比较,从几何中心到光强加权中心的方向即是真实场景环境光的光线方向,同时,我们可以通过选择坐标原点来建立坐标系,得到该向量与X轴的夹角,作当前场景的环境光的光线角度。此外,也可以通过其他非专有算法来对光线角度进行计算,本发明在此不做限制。需要说明的是,在本发明实施例中,环境光将被认为是单向的和均匀的。
可选地,如图3所示,本过程包括如下步骤:
步骤S1032a,将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心。
步骤S1032b,将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度。
步骤S1032c,计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重。
步骤S1032d,根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
具体地,子区域的数量可以根据图片的尺寸进行确定。首先,可以将子图像平均分成四份,得到四个子区域,按照上述步骤确定每个子区域的子光强加权中心、以及每个子区域的子光线角度;其次,对于每一张子图片,根据其中的明暗对比度信息等获得该子图片对应的光线强度,在得到每个子区域的子光照强度后,将每个子区域的子光照强度作为该子区域的子光线角度的权重;最后,对四个子区域的子光线角度根据其分别对应的权重进行加和求平均值的计算,得到平均光线角度,将该平均光线角度确定为目标用户所处场景的光线角度。
步骤S1033,获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
对于每一张子图片,根据其中的对比度信息等获得该子图片对应的光线强度。由于光线强度是标量,不需要进行矢量加和,因此仅需要对各子图片的光线强度加和求得平均值,该平均值即为目标用户所处场景的平均光线强度。
步骤S104,在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
在确定了每个目标用户所处场景的光线信息(光线角度和光线强度)后,在本步骤中根据该光线信息对交互对象进行光照渲染。
作为本发明实施例的可选实施方式,本步骤包括:在所述视频界面上查找与所述交互对象对应的目标位置;根据所述目标位置和所述光线角度确定所述交互对象的阴影位置;根据所述交互对象和所述光线强度调整所述交互对象的对比度并在所述阴影位置生成所述交互对象的阴影。
具体地,目标位置的选择方法可以有很多,例如该目标位置为不遮挡目标用户脸部的位置,或者是与该视频界面中对象相关联的位置。示例性地,例如视频界面中显示有沙发,用户输出的音频信息为“沙发好可爱”,交互对象为关键词“可爱”对应的表情标识,则该表情标识的目标位置就是该沙发的位置。根据交互对象所在的目标位置和光线方向,通过建立简单的几何关系,即可得到该交互对象对应的阴影显示的位置。确定了阴影位置后,即可在该位置根据交互对象的形状生成阴影,同时根据光线强度调整交互对象的对比度,使其与光线强度一致,实现交互对象与所处的场景相融合。
在完成了上述步骤之后,即可在显示目标用户的视频界面上显示交互对象,即目标用户在视频界面上除了看见自己的头像之外,还可以看到与听到的音频信息相关的交互对象,丰富了视频聊天的交互性。
本发明实施例提供的交互对象的生成方法,能够将用户视频过程中的沟通内容生成交互对象,实时显示在对方用户的视频图像界面中,同时交互对象的光影效果能够与对方用户所处的场景保持一致,使得交互对象与对方用户的视频图像界面实现融合,丰富了用户视频聊天过程的交互体验,增加了聊天内容与视频场景的互动关联性。
图4为本发明实施例提供的交互对象的生成装置结构图。如图3所示,该装置具体包括:检测模块100、获取模块200、处理模块300和显示模块400。其中,
检测模块100,用于实时获取音频信息,检测所述音频信息是否存在预设关键词;获取模块200,用于若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;处理模块300,用于在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;显示模块400,用于在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
本发明实施例提供的交互对象的生成装置具体用于执行图1所示实施例提供的所述方法,其实现原理、方法和功能用途等与图1所示实施例类似,在此不再赘述。
图5为本发明实施例提供的交互对象的生成装置结构图。如图5所示,该装置具体包括:建立模块500、检测模块100、获取模块200、处理模块300和显示模块400。其中,
建立模块500用于预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系;检测模块100,用于实时获取音频信息,检测所述音频信息是否存在存储于所述交互对象信息库中的预设关键词;获取模块200,用于若存在所述预设关键词,根据所述交互对象与所述关键词的对应关系获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;处理模块300,用于在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;显示模块400,用于在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
进一步地,处理模块300包括:提取单元310、比较单元320和获取单元330。其中,
提取单元310,用于提取所述人脸图像中鼻部区域的子图像;比较单元320,用于基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度;获取单元330,用于获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
可选地,比较单元320具体用于,将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心;将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度;计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重;根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
可选地,显示模块400用于,在所述视频界面上查找与所述交互对象对应的目标位置;根据所述目标位置和所述光线角度确定所述交互对象的阴影位置;根据所述交互对象和所述光线强度调整所述交互对象的对比度并在所述阴影位置生成所述交互对象的阴影。
本发明实施例提供的交互对象的生成装置具体用于执行图1-图3所示实施例提供的所述方法,其实现原理、方法和功能用途和图1-图3所示实施例类似,在此不再赘述。
上述这些本发明实施例的交互对象的生成装置可以作为其中一个软件或者硬件功能单元,独立设置在上述电子设备中,也可以作为整合在处理器中的其中一个功能模块,执行本发明实施例的交互对象的生成方法。
图6为执行本发明方法实施例提供的交互对象的生成方法的电子设备的硬件结构示意图。根据图6所示,该电子设备包括:
一个或多个处理器610以及存储器620,图6中以一个处理器610为例。执行所述的交互对象的生成方法的设备还可以包括:输入装置630和输出装置630。
处理器610、存储器620、输入装置630和输出装置640可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器620作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的所述交互对象的生成方法对应的程序指令/模块。处理器610通过运行存储在存储器620中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现所述交互对象的生成方法。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据本发明实施例提供的交互对象的生成装置的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器620,还可以包括非易失性存储器620,例如至少一个磁盘存储器620件、闪存器件、或其他非易失性固态存储器620件。在一些实施例中,存储器620可选包括相对于处理器66远程设置的存储器620,这些远程存储器620可以通过网络连接至所述交互对象的生成装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可接收输入的数字或字符信息,以及产生与交互对象的生成装置的用户设置以及功能控制有关的键信号输入。输入装置630可包括按压模组等设备。
所述一个或者多个模块存储在所述存储器620中,当被所述一个或者多个处理器610执行时,执行所述交互对象的生成方法。
本发明实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器。
(5)其他具有数据交互功能的电子装置。
具体的,电子设备中包括图像获取模块,如图7所示,本实施例的所述图像获取模块包括镜头1000、自动聚焦音圈马达2000、机械防抖器3000以及图像传感器4000,所述镜头1000固装在所述自动聚焦音圈马达2000上,所述镜头1000固装在所述自动聚焦音圈马达2000上,所述镜头1000用于获取图像,所述图像传感器4000将所述镜头1000获取的图像传输至所述识别模块,所述自动聚焦音圈马达2000安装在所述机械防抖器3000上,所述处理模块根据镜头1000内的陀螺仪检测到的镜头1000抖动的反馈驱动所述机械防抖器3000的动作,实现镜头1000的抖动补偿。
现有的防抖器大多由通电线圈在磁场中产生洛伦磁力驱动镜头1000移动,而要实现光学防抖,需要在至少两个方向上驱动镜头1000,这意味着需要布置多个线圈,会给整体结构的微型化带来一定挑战,而且容易受外界磁场干扰,进而影响防抖效果,因此公开号为CN106131435A的中国专利提供了一种微型光学防抖摄像头模组,其通过温度变化实现记忆合金丝的拉伸和缩短,以此拉动自动聚焦音圈马达2000移动,实现镜头1000的抖动补偿,微型记忆合金光学防抖致动器的控制芯片可以控制驱动信号的变化来改变记忆合金丝的温度,以此控制记忆合金丝的伸长和缩短,并且根据记忆合金丝的电阻来计算致动器的位置和移动距离。当微型记忆合金光学防抖致动器上移动到指定位置后反馈记忆合金丝此时的电阻,通过比较这个电阻值与目标值的偏差,可以校正微型记忆合金光学防抖致动器上的移动偏差。
但是申请人发现,由于抖动的随机性和不确定性,仅仅依靠上述技术方案的结构是无法实现在多次抖动发生的情况下能够对镜头1000进行精确的补偿,这是由于形状记忆合金的升温和降温均需要一定的时间,当抖动向第一方向发生时,上述技术方案可以实现镜头1000对第一方向抖动的补偿,但是当随之而来的第二方向的抖动发生时,由于记忆合金丝来不及在瞬间变形,因此容易造成补偿不及时,无法精准实现对多次抖动和不同方向的连续抖动的镜头1000抖动补偿,因此需要对其结构上进行改进。
结合附图8-11所示,本实施例对光学防抖器进行改进,将其设计为机械防抖器3000,其具体结构如下:
本实施例的所述机械防抖器3000包括活动板3100、活动框3200、弹性回复机构3300、基板3400以及补偿机构3500;所述活动板3100和基板3400的中部均设有供所述镜头穿过的通孔3700,所述自动聚焦音圈马达安装在所述活动板3100上,所述活动板3100安装在所述活动框3200内,由图中可以看出,本实施例的活动板3100的左右方向的宽度与活动框3200的内部宽度大致相同,使得所述活动板3100的相对两侧(左右两侧)与所述活动框3200相对两侧(左右两侧)的内壁滑动配合,以使所述活动板3100在活动框3200内可沿着第一方向往复滑动,本实施例的第一方向即图中的上下方向。
具体的,本实施例的所述活动框3200的尺寸小于所述基板3400的尺寸,所述活动框3200的相对两侧分别通过两个弹性回复机构3300与所述基板3400相连接,本实施例的弹性回复机构3300为伸缩弹簧或者其他弹性件,而且需要说明的是,本实施例的弹性回复机构3300只允许其具有沿着图中左右方向(即下述的第二方向)伸缩和回弹的能力,无法沿着第一方向运动,设计弹性回复机构3300的目的也是在于当活动框3200发生补偿位移后便于活动框3200带动活动板3100复位,而具体的动作过程本实施例会在下述的工作过程进行具体描述。
本实施例的所述补偿机构3500在所述处理模块的驱动(可以是处理模块发送的动作指令)下带动所述活动板3100和活动板3100上的镜头动作,以实现镜头的抖动补偿。
具体的,本实施例的所述补偿机构3500包括驱动轴3510、齿轮3520、齿轮轨道3530以及限位轨道3540,所述驱动轴3510安装在所述基板3400上,具体是安装在基板3400的上表面,所述驱动轴3510与所述齿轮3520传动连接,驱动轴3510可以通过微型电机(图中未示出)等结构驱动,并且微型电机受控于上述的处理模块;所述齿轮轨道3530设置在所述活动板3100上,所述齿轮3520安装在所述齿轮轨道3530内并沿着所述齿轮轨道3530的预设方向运动,所述齿轮3520转动时通过所述齿轮轨道3530使得所述活动板3100能够产生向第一方向的位移和第二方向的位移,其中所述第一方向与所述第二方向垂直;所述限位轨道3540设置在所述活动板3100上或所述基板3400上,所述限位轨道3540用于防止所述齿轮3520脱离所述齿轮轨道3530。
具体的,本实施例的齿轮轨道3530和限位轨道3540具有以下两种结构形式:
如图7-9所示,本实施例的所述活动板3100下侧设有一腰型孔3550,所述腰型孔3550沿其周向(即腰型孔3550的环绕方向)设有多个与所述齿轮3520相啮合的齿3560,所述腰型孔3550和多个所述齿3560共同构成所述齿轮轨道3530,所述齿轮3520位于所述腰型孔3550内并与所述齿3560相啮合,使得齿轮3520在转动时能够带动齿轮轨道3530运动,进而直接带动活动板3100的运动;而为了使得齿轮3520在转动时时刻能够保证与齿轮轨道3530时刻保持啮合,本实施例将所述限位轨道3540设置在所述基板3400上,所述活动板3100底部设有安装在所述限位轨道3540内的限位件3570,所述限位轨道3540使所述限位件3570在其中的运动轨迹呈腰型,即限位件3570在现为轨道内的运动轨迹与活动板3100的运动轨迹相同,具体的,本实施例的所述限位件3570为设置在所述活动板3100底面上的凸起。
再结合附图10和11所示,本实施例的所述齿轮轨道3530还可以由设置在所述活动板3100上的多个圆柱凸起3580组成,多个所述圆柱凸起3580沿所述第二方向均匀间隔布设,所述齿轮3520与多个所述凸起相啮合;而所述限位轨道3540为设置在所述活动板3100上的第一弧形限位件3590和第二弧形限位件3600,所述第一弧形限位件3590和第二弧形限位件3600分别设置在所述齿轮轨道3530沿第一方向上的相对两侧,防,在活动板3100运动至预设位置时,齿轮3520位于齿轮轨道3530的一侧,齿轮3520容易脱离圆柱凸起3580组成的齿轮轨道3530,因此通过第一弧形限位件3590或第二弧形限位件3600可以起到引导作用,使得活动板3100能够沿着齿轮轨道3530的预设方向运动,即所述第一弧形限位件3590和第二弧形限位件3600及多个所述凸起相配合使得所述活动板3100的运动轨迹呈腰型。
下面结合上述结构对本实施例的机械防抖器3000的工作过程进行详细的描述,以镜头1000两次抖动为例,两次抖动方向相反,且需要使得活动板3100向第一方向运动补偿一次,并随后向第二方向运动补偿一次。需要活动板3100向第一方向运动补偿时,陀螺仪事先将检测到的镜头1000抖动方向和距离反馈给所述处理模块,处理模块计算出需要活动板3100的运动距离,进而使得驱动轴3510带动齿轮3520转动,齿轮3520通过与齿轮轨道3530和限位轨道3540的配合,处理模块无线发送驱动信号,进而带动活动板3100向第一方向运动至补偿位置,补偿后再次通过驱动轴3510带动活动板3100复位,在复位过程中,弹性回复机构3300也为活动板3100的复位提供复位力,更加便于活动板3100恢复到初始位置。需要活动板3100向第二方向运动补偿时,处理方式与上述第一方向的补偿步骤相同,这里不过多赘述。
当然上述仅仅为简单的两次抖动,当发生多次抖动时,或者抖动的方向并非往复运动时,可以通过驱动多个补偿组件以补偿抖动,其基础工作过程与上述描述原理相同,这里不过多赘述,另外关于陀螺仪的检测反馈、处理模块向驱动轴3510发送控制指令等均为现有技术,这里也不过多描述。
结合上述说明可知,本实施例提供的机械补偿器不仅不会受到外界磁场干扰,防抖效果好,而且可以实现在多次抖动发生的情况下能够对镜头1000进行精确的补偿,补偿及时准确。另外,采用本实施例的机械防抖器不仅结构简单,各个部件所需的安装空间小,便于整个防抖器的集成化,而且具有较高的补偿精度。
具体的,本实施例的所述电子设备包括手机和用于安装所述手机的支架。电子设备包含支架的目的是由于图像获取环境的不确定性,因此需要使用支架对电子设备进行支撑和固定。
另外,申请人发现,现有的手机支架仅仅具有支撑手机的功能,而不具有自拍杆的功能,因此申请人对支架做出第一步改进,将手机支架5000和支撑杆5200相结合,结合附图12所示,本实施例的所述支架5000包括手机安装座5100和可伸缩的支撑杆5200,支撑杆5200与手机安装座5100的中部(具体为下述基板3200的中部)通过阻尼铰链相连接,使得支撑杆5200在转动至图13的状态时,支架5000可形成自拍杆结构,而支撑杆5200在转动至图14的状态时,支架5000可形成手机支架5000结构。
而结合上述支架结构申请人又发现,手机安装座5100与支撑杆5200结合后占用空间较大,即使支撑杆5200可伸缩,但是手机安装座5100无法进行结构的变化,体积不会进一步缩小,无法将其放入衣兜或者小型的包内,造成支架5000携带不便的问题,因此本实施例对支架5000做出第二步改进,使得支架5000的整体收容性得到进一步的提高。
结合图12-15所示,本实施例的所述手机安装座5100包括可伸缩的连接板5110和安装于连接板5110相对两端的折叠板组5120,所述支撑杆5200与所述连接板5110中部通过阻尼铰链相连接;所述折叠板组5120包括第一板体5121、第二板体5122及第三板体5123,其中,所述第一板体5121的相对两端中的一端与所述连接板5110相铰接,所述第一板体5121的相对两端中的另一端与所述第二板体5122的相对两端中的一端相铰接;所述第二板体5122相对两端的另一端与所述第三板体5123相对两端中的一端相铰接;所述第二板体5122设有供手机边角插入的开口5130。
结合附图15所示,所述手机安装座5100用于安装手机时,所述第一板体5121、第二板体5122和第三板体5123折叠呈直角三角形状态,所述第二板体5122为直角三角形的斜边,所述第一板体5121和所述第三板体5123为直角三角形的直角边,其中,所述第三板体5123的一个侧面与所述连接板5110的一个侧面并排贴合,所述第三板体5123相对两端中的另一端与所述第一板体5121相对两端中的一端相抵,该结构可以使得三个折叠板处于自锁状态,并且将手机下部的两个边角插入到两侧的两个开口5130时,手机6000的下部两侧位于两个直角三角形内,通过手机、连接板5110和折叠板组5120件的共同作可以完成手机6000的固定,三角形状态在外力情况下无法打开,只有从开口5130抽出手机后才能解除折叠板组5120件的三角形状态。
而在手机安装座5100不处于工作状态时,将连接板5110缩小至最小长度,并且将折叠板组5120件与连接板5110相互折叠,用户可以将手机安装座5100折叠呈最小体积,而由于支撑杆5200的可伸缩性,因此可以将整个支架5000收容呈体积最小的状态,提高了支架5000的收荣幸,用户甚至可以直接将支架5000放入衣兜或小的手包内,十分方便。
优选的,本实施例还在所述第三板体5123的一个侧面设有第一连接部,所述连接板5110与所述第三板体5123相贴合的侧面设有与所述第一连接部相配合的第一配合部,所述支架5000手机安装座5100用于安装手机时,所述第一连接部和所述第一配合部卡合连接。具体的,本实施例的第一连接部为一个凸条或凸起(图中未示出),第一配合部为开设在连接板5110上的卡槽(图中未示出)。该结构不仅提高了折叠板组5120件处于三角形状态时的稳定性,而且在需要将手机安装座5100折叠至最小状态时也便于折叠板组5120件与连接板5110的连接。
优选的,本实施例还在所述第一板体5121相对两端中的一端设有第二连接部,所述第三板体5123相对两端中的另一端设有与所述第二连接部相配合的第二配合部,所述支架5000手机安装座5100用于安装手机时,所述第二连接部和所述第二配合部卡合连接。第二连接部可以是凸起(图中未示出),第二配合部为与凸起相配合的开口5130或卡槽(图中未示出)。该结构提高了叠板组件处于三角形状态时的稳定性
另外,本实施例还可以在所述支撑杆5200的另一端可拆卸连接有底座(图中未示出),在需要固定手机并且使手机6000具有一定高度时,可以将支撑杆5200拉伸呈一定长度,并通过底座将支架5000置于一个平面上,再将手机放置到手机安装座5100内,完成手机的固定;而支撑杆5200和底座的可拆卸连接可以使得两者可以单独携带,进一步提高了支架5000的收容性和携带的方便性。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
本发明实施例提供了一种非暂态计算机可读存存储介质,所述计算机存储介质存储有计算机可执行指令,其中,当所述计算机可执行指令被电子设备执行时,使所述电子设备上执行上述任意方法实施例中的交互对象的生成方法。
本发明实施例提供了一种计算机程序产品,其中,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,其中,当所述程序指令被电子设备执行时,使所述电子设备执行上述任意方法实施例中的交互对象的生成方法。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,所述计算机可读记录介质包括用于以计算机(例如计算机)可读的形式存储或传送信息的任何机制。例如,机器可读介质包括只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪速存储介质、电、光、声或其他形式的传播信号(例如,载波、红外信号、数字信号等)等,该计算机软件产品包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明实施例的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种交互对象的生成方法,其特征在于,包括:
实时获取音频信息,检测所述音频信息是否存在预设关键词;
若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;
在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;
在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系。
3.根据权利要求1或2所述的方法,其特征在于,所述对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息,包括:
提取所述人脸图像中鼻部区域的子图像;
基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度;
获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
4.根据权利要求3所述的方法,其特征在于,所述基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度,包括:
将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心;
将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度;
计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重;
根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
5.根据权利要求4所述的方法,其特征在于,所述在所述视频界面上显示根据所述光线信息渲染后的所述交互对象,包括:
在所述视频界面上查找与所述交互对象对应的目标位置;
根据所述目标位置和所述光线角度确定所述交互对象的阴影位置;
根据所述交互对象和所述光线强度调整所述交互对象的对比度并在所述阴影位置生成所述交互对象的阴影。
6.一种交互对象的生成装置,其特征在于,包括:
检测模块,用于实时获取音频信息,检测所述音频信息是否存在预设关键词;
获取模块,用于若存在所述预设关键词,获取所述预设关键词对应的交互对象,并确定所述音频信息对应的目标用户;
处理模块,用于在显示所述目标用户的视频界面中截取所述目标用户的人脸图像,对所述人脸图像进行分析处理,得到所述目标用户所处场景的光线信息;
显示模块,用于在所述视频界面上显示根据所述光线信息渲染后的所述交互对象。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括建立模块,所述建立模块用于预先建立交互对象信息库,所述交互对象信息库中存储有多个交互对象、多个关键词以及所述交互对象与所述关键词的对应关系。
8.根据权利要求6或7所述的装置,其特征在于,所述处理模块包括:
提取单元,用于提取所述人脸图像中鼻部区域的子图像;
比较单元,用于基于光线确定所述子图像的光强加权中心,将所述光强加权中心与所述人脸图像的加权中心进行比较,得到所述目标用户所处场景的光线角度;
获取单元,用于获取所述子图片的光线强度,根据所述子图片的光线强度得到所述目标用户所处场景的平均光线强度。
9.根据权利要求8所述的装置,其特征在于,所述比较单元用于,将所述子图像分为若干个子区域,确定各所述子区域的子光强加权中心;将各所述子光强加权中心与所述人脸图像的加权中心进行比较,得到各所述子区域的子光线角度;计算各所述子区域的子光照强度,根据所述子区域的子光照强度确定所述子区域的子光线角度的权重;根据各所述子光线角度及所述子光线角度的权重,计算得到所述光线角度。
10.一种电子设备,其特征在于,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的交互对象的生成方法。
CN201811123907.1A 2018-09-20 2018-09-26 一种交互对象的生成方法、装置及电子设备 Active CN109474801B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CNPCT/CN2018/106786 2018-09-20
PCT/CN2018/106786 WO2020056691A1 (zh) 2018-09-20 2018-09-20 一种交互对象的生成方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN109474801A true CN109474801A (zh) 2019-03-15
CN109474801B CN109474801B (zh) 2020-07-07

Family

ID=65663158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811123907.1A Active CN109474801B (zh) 2018-09-20 2018-09-26 一种交互对象的生成方法、装置及电子设备

Country Status (2)

Country Link
CN (1) CN109474801B (zh)
WO (1) WO2020056691A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188115A (zh) * 2020-09-29 2021-01-05 咪咕文化科技有限公司 一种图像处理方法、电子设备及存储介质
CN112492400A (zh) * 2019-09-12 2021-03-12 阿里巴巴集团控股有限公司 互动方法、装置、设备以及通信方法、拍摄方法
CN113407850A (zh) * 2021-07-15 2021-09-17 北京百度网讯科技有限公司 一种虚拟形象的确定和获取方法、装置以及电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016505B (zh) * 2020-09-03 2024-05-28 平安科技(深圳)有限公司 基于人脸图像的活体检测方法、设备、存储介质及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110052118A (ko) * 2009-11-12 2011-05-18 연세대학교 산학협력단 프레넬 렌즈의 그루브각 최적화 방법 및 이를 이용한 프레넬 제조방법 및 프레넬 렌즈
CN102396003A (zh) * 2009-04-17 2012-03-28 设计代码公司 用于向计算机图形中的对象添加阴影的方法
US8359303B2 (en) * 2007-12-06 2013-01-22 Xiaosong Du Method and apparatus to provide multimedia service using time-based markup language
CN105681684A (zh) * 2016-03-09 2016-06-15 北京奇虎科技有限公司 基于移动终端的图像实时处理方法及装置
CN106303658A (zh) * 2016-08-19 2017-01-04 百度在线网络技术(北京)有限公司 应用于视频直播的交互方法和装置
CN107845132A (zh) * 2017-11-03 2018-03-27 太平洋未来科技(深圳)有限公司 虚拟对象色彩效果的渲染方法和装置
CN107909057A (zh) * 2017-11-30 2018-04-13 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN108537155A (zh) * 2018-03-29 2018-09-14 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102377975A (zh) * 2010-08-10 2012-03-14 华为终端有限公司 用于视频通信的视频处理方法、装置及系统
WO2016019014A1 (en) * 2014-07-29 2016-02-04 LiveLocation, Inc. 3d-mapped video projection based on on-set camera positioning
US20170124753A1 (en) * 2015-11-03 2017-05-04 Electronic Arts Inc. Producing cut-out meshes for generating texture maps for three-dimensional surfaces
CN105554429A (zh) * 2015-11-19 2016-05-04 掌赢信息科技(上海)有限公司 一种视频通话显示方法及视频通话设备
CN107911643B (zh) * 2017-11-30 2020-10-27 维沃移动通信有限公司 一种视频通信中展现场景特效的方法和装置
CN108525298B (zh) * 2018-03-26 2020-08-04 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8359303B2 (en) * 2007-12-06 2013-01-22 Xiaosong Du Method and apparatus to provide multimedia service using time-based markup language
CN102396003A (zh) * 2009-04-17 2012-03-28 设计代码公司 用于向计算机图形中的对象添加阴影的方法
KR20110052118A (ko) * 2009-11-12 2011-05-18 연세대학교 산학협력단 프레넬 렌즈의 그루브각 최적화 방법 및 이를 이용한 프레넬 제조방법 및 프레넬 렌즈
CN105681684A (zh) * 2016-03-09 2016-06-15 北京奇虎科技有限公司 基于移动终端的图像实时处理方法及装置
CN106303658A (zh) * 2016-08-19 2017-01-04 百度在线网络技术(北京)有限公司 应用于视频直播的交互方法和装置
CN107845132A (zh) * 2017-11-03 2018-03-27 太平洋未来科技(深圳)有限公司 虚拟对象色彩效果的渲染方法和装置
CN107909057A (zh) * 2017-11-30 2018-04-13 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN108537155A (zh) * 2018-03-29 2018-09-14 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112492400A (zh) * 2019-09-12 2021-03-12 阿里巴巴集团控股有限公司 互动方法、装置、设备以及通信方法、拍摄方法
CN112188115A (zh) * 2020-09-29 2021-01-05 咪咕文化科技有限公司 一种图像处理方法、电子设备及存储介质
CN112188115B (zh) * 2020-09-29 2023-10-17 咪咕文化科技有限公司 一种图像处理方法、电子设备及存储介质
CN113407850A (zh) * 2021-07-15 2021-09-17 北京百度网讯科技有限公司 一种虚拟形象的确定和获取方法、装置以及电子设备

Also Published As

Publication number Publication date
WO2020056691A1 (zh) 2020-03-26
CN109474801B (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN109474801B (zh) 一种交互对象的生成方法、装置及电子设备
CN109151340B (zh) 视频处理方法、装置及电子设备
CN109521869B (zh) 一种信息交互方法、装置及电子设备
CN108614638B (zh) Ar成像方法和装置
CN108596827B (zh) 三维人脸模型生成方法、装置及电子设备
CN109214351B (zh) 一种ar成像方法、装置及电子设备
CN109218697B (zh) 一种视频内容关联界面的呈现方法、装置及电子设备
EP3509288B1 (en) Information processing terminal
KR102087690B1 (ko) 임의의 위치 및 임의의 시간으로부터 비디오 컨텐츠를 재생하기 위한 방법 및 장치
CN108966017B (zh) 视频生成方法、装置及电子设备
CN108377398B (zh) 基于红外的ar成像方法、系统、及电子设备
CN109285216B (zh) 基于遮挡图像生成三维人脸图像方法、装置及电子设备
EP3937154A1 (en) Method for video interaction and electronic device
CN108537870B (zh) 图像处理方法、装置及电子设备
CN108632536B (zh) 一种相机控制方法及装置、终端、存储介质
CN113655887B (zh) 一种虚拟现实设备及静态录屏方法
CN108287895B (zh) 一种基于显性框调节的搜题方法及系统、手持拍照设备
CN104702848B (zh) 显示取景信息的方法及装置
CN109447924B (zh) 一种图片合成方法、装置及电子设备
CN116794922A (zh) 移动影院的控制方法、装置、设备及存储介质
KR20190061165A (ko) 광고를 포함하는 360°비디오 생성 시스템 및 방법
CN115482565A (zh) 用户影像数据处理方法、装置及系统
US20240295919A1 (en) Method and system for hosting a metaverse virtual conference
CN114138104A (zh) 电子设备的控制方法、装置及电子设备
CN118042273A (zh) 数据处理方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240910

Address after: Room 3011, 3rd Floor, Building A, No. 266 Tinglan Street, Qiaosi Street, Linping District, Hangzhou City, Zhejiang Province 311101

Patentee after: Pacific Future Technology (Hangzhou) Co.,Ltd.

Country or region after: China

Address before: 518000 area w, 1st floor, lingchuang Tianxia, Yannan Road, Meiban Avenue, Bantian street, Longgang District, Shenzhen City, Guangdong Province

Patentee before: Pacific future technology (Shenzhen) Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right