CN112560605A - 交互方法、装置、终端、服务器和存储介质 - Google Patents
交互方法、装置、终端、服务器和存储介质 Download PDFInfo
- Publication number
- CN112560605A CN112560605A CN202011399864.7A CN202011399864A CN112560605A CN 112560605 A CN112560605 A CN 112560605A CN 202011399864 A CN202011399864 A CN 202011399864A CN 112560605 A CN112560605 A CN 112560605A
- Authority
- CN
- China
- Prior art keywords
- image frame
- frame data
- human body
- body part
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本公开实施例涉及一种交互方法、装置、终端、服务器和存储介质,其中,该方法可以包括:采集用户的第一图像帧数据并展示;识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息;确定第一图像帧数据上动作图标的展示位置,并在展示位置展示动作图标;采集用户的第二图像帧数据并展示;确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息;根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。本公开实施例可以根据用户人体部位的位置动态调整动作图标的展示位置,准确评估用户人体部位的状态信息,提高了用户的交互体验。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种交互方法、装置、终端、服务器和存储介质。
背景技术
目前,肢体识别技术作为计算机视觉处理技术的一个分支,应用领域日益广泛,例如,基于视频的健身训练、基于视频的舞蹈教学和基于视频的游戏体验等。如何将针对摄像头采集的用户图像的肢体识别结果,应用于对用户肢体动作的引导和评估中,提高用户的动作体验,仍是当前待解决的问题。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种交互方法、装置、终端、服务器和存储介质。
第一方面,本公开实施例提供了一种交互方法,应用于客户端,包括:
采集用户的第一图像帧数据并展示;
识别所述第一图像帧数据中的至少一个人体部位,并确定所述人体部位的位置信息;
基于所述至少一个人体部位的位置信息,以及与所述人体部位对应的动作图标的预设位置信息,确定所述动作图标的展示位置,并在所述展示位置展示所述动作图标;
采集所述用户的第二图像帧数据并展示;其中,所述第二图像帧数据是所述第一图像帧数据之后预设时间点的图像帧数据;
确定所述第二图像帧数据中与所述动作图标关联的目标人体部位以及所述目标人体部位的状态信息;
根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果。
第二方面,本公开实施例还提供了一种交互方法,应用于服务器,包括:
获取多个候选视频,并提取所述多个候选视频中各图像帧的人体部位位置数据;
基于预设的规则对所述多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;
查找所述多个候选视频中至少一个图像帧中的目标人体部位在所述标准位置数据集中的位置数据;
利用所述查找的位置数据确定与所述目标人体部位对应的动作图标的预设位置信息,以参与确定所述动作图标在客户端展示的图像帧数据中的展示位置。
第三方面,本公开实施例还提供了一种交互装置,配置于客户端,包括:
第一采集模块,用于采集用户的第一图像帧数据并展示;
第一确定模块,用于识别所述第一图像帧数据中的至少一个人体部位,并确定所述人体部位的位置信息;
展示位置确定模块,用于基于所述至少一个人体部位的位置信息,以及与所述人体部位对应的动作图标的预设位置信息,确定所述动作图标的展示位置,并在所述展示位置展示所述动作图标;
第二采集模块,用于采集所述用户的第二图像帧数据并展示;其中,所述第二图像帧数据是所述第一图像帧数据之后预设时间点的图像帧数据;
第二确定模块,用于确定所述第二图像帧数据中与所述动作图标关联的目标人体部位以及所述目标人体部位的状态信息;
评估模块,用于根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果。
第四方面,本公开实施例还提供了一种交互装置,配置于服务器,包括:
位置数据提取模块,用于获取多个候选视频,并提取所述多个候选视频中各图像帧的人体部位位置数据;
标准位置数据集确定模块,用于基于预设的规则对所述多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;
位置数据查找模块,用于查找所述多个候选视频中至少一个图像帧中的目标人体部位在所述标准位置数据集中的位置数据;
预设位置信息确定模块,用于利用所述查找的位置数据确定与所述目标人体部位对应的动作图标的预设位置信息,以参与确定所述动作图标在客户端展示的图像帧数据中的展示位置。
第五方面,本公开实施例还提供了一种终端,包括存储器、处理器和摄像头,其中:
所述摄像头用于实时采集用户的图像帧数据;
所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,所述处理器执行本公开实施例提供的任一交互方法。
第六方面,本公开实施例还提供了一种服务器,包括存储器和处理器,其中:所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,所述处理器执行本公开实施例提供的任一交互方法。
第七方面,本公开实施例还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时,所述处理器执行本公开实施例提供的任一交互方法。
本公开实施例提供的技术方案与现有技术相比至少具有如下优点:在本公开实施例中,客户端可以调用摄像头实时采集用户的第一图像帧数据和第二图像帧数据并进行展示,其中,第一图像帧数据为在先采集的图像帧数据,首先实时识别第一图像帧数据中的人体部位并确定人体部位的位置信息,然后结合动作图标的预设位置信息,确定动作图标在第一图像帧数据上的准确展示位置,即随着人体部位位置的变化,动作图标在第一图像帧数据上的展示位置可以实时调整(或称为修正);最后,根据第二图像帧数据中与动作图标关联的目标人体部位的状态信息与动作图标的匹配度,确定评估结果。本公开实施例实现了将摄像头采集的用户图像帧数据和该图像帧数据中待展示的动作图标进行有效结合,根据用户人体部位的位置动态调整动作图标的展示位置,准确评估用户人体部位的状态信息,提高了用户的交互体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的一种交互方法的流程图;
图2为本公开实施例提供的展示有动作图标的图像帧数据的一种示意图;
图3为本公开实施例提供的另一种交互方法的流程图;
图4为本公开实施例提供的展示有动作图标和引导视频动画的图像帧数据的一种示意图;
图5为本公开实施例提供的展示有评估结果动画的图像帧数据的一种示意图;
图6为本公开实施例提供的同屏展示分享视频的一种示意图;
图7为本公开实施例提供的另一种交互方法的流程图;
图8为本公开实施例提供的一种交互装置的结构示意图;
图9为本公开实施例提供的另一种交互装置的结构示意图;
图10为本公开实施例提供的一种终端的结构示意图;
图11为本公开实施例提供的一种服务器的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
图1为本公开实施例提供的一种交互方法的流程图,应用于客户端中。该方法可以适用于如何将摄像头实时采集的用户图像帧数据和该图像帧数据上待展示的动作图标进行结合,并对实时采集的用户图像帧数据中人体部位的状态信息进行评估的情况。并且,该方法可以由配置于客户端的交互装置执行,该装置可以采用软件和/或硬件实现。本公开实施例中提及的客户端可以包括任意的具有视频交互功能的客户端,安装客户端的终端设备可以包括但不限于智能手机、平板电脑和笔记本等。
在本公开实施例中,用户人体部位的状态信息的类型可以包括但不限于与舞蹈游戏、舞蹈训练、健身动作以及教学动作等相关的人体部位的状态信息,即本公开实施例可以适用于游戏、健身和教学等多种应用场景中。
如图1所示,本公开实施例提供的交互方法可以包括:
S101、采集用户的第一图像帧数据并展示。
示例性的,用户可以预先选择将要完成的整套动作视频内容,并在开始执行相关动作之前,通过触控客户端界面上的图像采集控件(或者视频录制控件),触发图像采集请求,客户端响应于该图像采集请求,调用摄像头实时采集用户的图像帧数据,并在界面上展示。其中,第一图帧数据可以是摄像头实时采集的任意图像帧数据,用词“第一”不带有任何顺序上的限定含义。
S102、识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息。
其中,在第一图像帧数据中识别的人体部位包括头部、胳膊、手部、脚部和腿部中的至少一种。可以利用人体识别技术实时识别采集的用户图像帧数据中的人体部位,并同时确定人体部位的位置信息,该位置信息具体可以是人体部位上关键点的位置信息。关于人体识别技术的实现原理可以参考现有技术,本公开实施例不作具体限定。
S103、基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置,并在展示位置展示动作图标。
动作图标的预设位置信息用于对动作图标在用户图像帧数据中的展示位置进行约束,并可以由服务器在开发阶段预先确定,然后下发至客户端中。动作图标的预设位置信息可以包括动作图标的待展示位置与对应的人体部位的相对位置信息。
客户端可以基于用户的第一图像帧数据的采集时间信息(或者视频录制时间信息),确定当前采集的第一图像帧数据中是否需要展示动作图标。例如,针对录制一段时长为30秒的舞蹈动作视频的情况,预先设定当视频录制到第5秒、第15秒和第25秒等时刻时,需要在实时采集的用户图像帧数据中展示动作图标,因此在用户完成该舞蹈动作过程中,客户端可以基于用户的当前图像帧数据的采集时间信息或者舞蹈动作视频的当前录制时间信息,确定当前图像帧数据中是否需要展示动作图标。并且,图像帧数据的采集时间信息与视频录制时间信息可以相互确定,假设客户端将采集的第一帧用户图像数据的采集时间信息记为0秒,则当前图像帧数据的采集时间即视频的录制时间。
客户端还可以基于预先确定的特定图像帧数据与动作图标的展示对应关系,确定当前图像帧数据中是否需要展示动作图标,例如如果客户端采集到展示有指定肢体动作的用户图像帧数据时,则在该图像帧数据中展示动作图标,该指定肢体动作为前述展示对应关系中指定的图像帧数据中需要存在的肢体动作。
在用户图像帧数据的实时采集过程中,客户端基于第一图像帧数据中识别的人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,动态确定动作图标在用户图像帧数据中的展示位置,从而确保动作图标在用户图像帧数据中的准确展示。以舞蹈游戏场景为例,动作图标的预设位置信息还可以称为谱面信息,其中定义了人体部位与动作图标的相对位置信息,动作图标还可以被称为音符点。
可选的,动作图标的预设位置信息可以是基于与动作图标对应的人体部位在标准数据集中的位置数据得到。具体的,针对一段完整的动作视频,其中需要展示动作图标的图像帧数据可以根据动作图标的展示需求(例如在视频录制的指定时刻展示动作图标)而预先确定。以一段时长为20秒的舞蹈游戏为例,在游戏开发阶段,开发人员可以预先确定当舞蹈游戏进行至第N秒时,在用户图像帧数据中的预设部位,例如肩膀处,展示动作图标,然后开发人员基于第N秒的图像帧数据中预设部位在标准数据集中的位置数据,确定动作图标与该预设部位的相对位置信息,作为动作图标的预设位置信息。
标准数据集是基于预设的规则对多个(指至少两个)候选视频中同一图像帧的人体部位位置数据进行融合得到。多个候选视频中的同一图像帧(例如各个候选视频中的第N帧)上呈现相同的人体部位状态信息,例如呈现相同的人体部动作信息,例如针对同一舞蹈的不同人录制的舞蹈视频即可作为候选视频。各个候选视频中各帧图像数据中人体部位位置数据可以利用动作捕捉系统进行动作捕捉得到。示例性的,服务器可以确定每个候选视频的权重值;然后基于每个候选视频的权重值,对多个候选视频中同一图像帧的人体部位位置数据进行加权平均计算,得到标准位置数据集。每个候选视频的权重值可以根据视频交互信息和/或视频发布者信息进行确定,例如视频交互信息量越高,视频权重值越大;视频发布者如果为高知名度人物,则视频权重值越大。
进一步的,多个候选视频可以是基于预设视频筛选信息得到,预设视频筛选信息包括视频交互信息和/或视频发布者信息,视频交互信息包括视频的点赞量和/或评论量。示例性的,在本公开实施例中,针对呈现相同的人体部位状态信息的视频,可以在互联网数据中筛选出点赞量超过点赞阈值、评论量超过评论阈值、以及由知名度较高的人发布的视频,作为候选视频。各个阈值可以灵活取值。
通过将多个候选视频中同一图像帧的人体部位位置数据进行融合处理,得到标准位置数据集,可以综合不同人的人体部位位置特点,对视频中展示的人体部位位置信息进行合理优化,提高视频的参考价值,并且优化动作图标的展示位置,同时,还有助于提高大众对优化后的视频效果的认可度和接受度。
此外,在保证界面视觉效果的情况下,动作图标可以采用任意可用的样式展示在用户图像帧数据中,展示样本中可以包括动作图标的形状、颜色、动态效果以及静态效果等信息,可以根据实际情况进行预先设计,本公开实施例不作具体限定。
图2为本公开实施例提供的展示有动作图标的图像帧数据的一种示意图,用于对本公开实施例进行示例性说明,不应理解为对本公开实施例的具体限定。如图2所示,用户的当前图像帧数据中展示有圆形的第一动作图标21和箭头形状的第二动作图标22。第一动作图标21可以用于引导用户将手部移动至第一动作图标21的位置,第二动作图标22可以用于引导用户将手部按照箭头方向进行划动。每张图像帧数据中可展示的动作图标数量,本公开实施例不作具体限定。
S104、采集用户的第二图像帧数据并展示;其中,第二图像帧数据是第一图像帧数据之后预设时间点的图像帧数据。
第二图像帧数据和第一图像帧数据之间的采集间隔本公开实施例不作具体限定,即预设时间点的具体取值可以灵活设置。第二图像帧数据或第一图像帧数据并非专指代特定的一帧图像数据,均可以用于指代多帧图像数据,只是图像采集存在先后顺序。随着用户图像帧数据的实时采集,第一图像帧数据和第二图像帧数据中展示的用户人体部位的状态信息可以不断变化。并且,展示在第一图像帧数据中的动作图标,基于已经确定的动作图标的展示位置,可以继续展示第二图像帧数据中,也可以不展示。
在本公开实施例中,由于实时采集用户的图像帧数据,第一用户图像帧数据和第二图像帧数据之间的采集时间间隔通常很小,因此,基于已经确定的动作图标的展示位置,继续展示第二图像帧数据中,也不会引起动作图标展示位置的较大变动,即动作图标在第一图像帧数据和第二图像帧数据中的展示位置具有一定程度上的一致性。当然,采集用户的第二图像帧数据后,也可以继续识别第二图像帧数据中的至少一个人体部位,并确定人体部位的位置信息,然后基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标在第二图像帧数据中的展示位置,并进行展示。
可选的,动作图标包括表情图标,在展示第一图像帧数据或者展示第二图像帧数据的过程中,还包括:
识别第一图像帧数据或者第二图像帧数据中的用户表情,并确定与用户表情匹配的表情图标;
基于第一图像帧数据或者第二图像帧数据上形成用户表情的五官的位置信息,确定表情图标的展示位置,并将表情图标展示在确定的展示位置。
例如,如果基于人脸表情识别技术,识别第一图像帧数据或者第二图像帧数据中的用户表情为嘟嘴,则确定与嘟嘴匹配的表情图标为“爱心”或“吻”,然后基于用户嘴的位置,确定嘴部的预设区域(具体可以灵活设置)作为“爱心”或“吻”的展示位置,将“爱心”或“吻”的特效图标展示在该预设区域内,从而提高交互的趣味性。
S105、确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息。
第二图像帧数据中与动作图标关联的目标人体部位与用户预先选择的将要完成的动作视频内容有关。可选的,客户端可以基于背景音乐的播放时间信息或者第二图像帧数据的采集时间信息,确定第二图像帧数据中与动作图标关联的目标人体部位,该人体部位可以包括头部、胳膊、手部、脚部和腿部中的至少一种。例如,在背景音乐的播放至第N秒,或者第二图像帧数据的采集时间为第N秒时,确定第二图像帧数据中与动作图标关联的目标人体部位为用户的手部。
其中,目标人体部位的状态信息包括人体部位的位置信息和/或人体部位形成的动作信息。例如,在背景音乐的播放至第N秒,或者第二图像帧数据的采集时间为第N秒时,用户手部放在用户肩膀处,或者用户手部呈现OK手势,或者用户手部呈现拍手动作等。
S106、根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。
在本公开实施例中,针对每个动作图标,均可以预先设置其在图像帧数据中的预设位置信息以及关联的人体部位的标准动作信息,即根据人体部位的状态信息的不同,人体部位的状态信息与动作图标的匹配度可以包括位置匹配度和动作匹配度,因此,客户端可以基于多个维度的匹配结果,确定第二图像帧数据中用户的评估结果。匹配度越高,评估结果越好。评估结果可以展示在第二图像帧数据中。评估结果可以采用数字、文字和/或英文等形式实现,并且在展示过程中还可以添加动态特效,以提升界面视觉效果。
在用户图像帧数据的实时采集过程中,客户端确定当前图像帧数据中用户的评估结果后,还可以结合在前采集的图像帧数据中用户的评估结果,确定用户的累计评估结果,并进行展示。当然,如果当前图像帧数据中用户的评估结果较差,也可以将已经累计的评估结果清零。
可选的,以与动作图标关联的目标人体部位的状态信息包括人体部位的位置信息为例,根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果,包括:
确定动作图标在第二图像帧数据中的有效响应区域;
确定目标人体部位的位置信息和动作图标的有效响应区域的位置匹配度,并根据位置匹配度确定评估结果。
其中,动作图标的有效响应区域可以根据动作图标的展示位置和/或展示样式确定,例如可以基于动作图标的展示位置确定预设面积大小以及预设形状的区域作为动作图标的有效响应区域,或者可以将动作图标的展示样式对应的形状区域确定为其有效响应区域,或者可以基于动作图标的形状区域,将面积小于或者面积大于其形状区域的预设形状的区域确定为其有效响应区域;或者,同时基于动作图标的展示位置和展示样式确定其有效响应区域,具体可以灵活设置。关于动作图标的有效响应区域如何确定,可以是由服务器预先确定。
如果目标人体部位处于动作图标的有效响应区域内,且该人体部位的位置与该有效响应区域中心的距离小于第一距离阈值(取值可灵活设置),则该人体部位的位置与动作图标的有效响应区域的位置匹配度较高,否则一项不满足时则位置匹配度较差。位置匹配度较高,评估结果越优。
当然,其他可用于确定目标人体部位与动作图标的位置匹配度的方式,本领域技术人员也可以灵活采用。例如,还可以直接计算动作图标在第一图像帧数据或第二图像帧数据中的展示位置坐标,与第二图像帧数据中目标人体部位的位置坐标之间的距离,如果计算的距离值小于第二距离阈值(取值可灵活设置),则第二图像帧数据中关联人体部位与动作图标的位置匹配度较高,相应的评估结果较优;如果计算的距离值大于或等于第二距离阈值,则则第二图像帧数据中关联人体部位与动作图标的位置匹配度较差,相应的评估结果较差。
可选的,以与动作图标关联的目标人体部位的状态信息包括人体部位形成的动作信息为例,根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果,包括:
确定动作图标对应的标准动作信息;其中,不同动作图标对应的标准动作信息可以预先在服务器中确定;
确定第二图像帧数据中目标人体部位形成的动作信息和标准动作信息的动作匹配度,并根据动作匹配度确定评估结果。
其中,人体部位形成的动作信息包括但不限于舞蹈游戏类动作信息。示例性的,可以基于关键点匹配技术,确定第二图像帧数据中目标人体部位形成的动作信息和标准动作信息的动作匹配度,例如针对OK手势,可以分别提取用户手部呈现OK手势时的关键点坐标,然后与标准OK手势对应的手部关键点坐标进行比对,确定动作匹配度。
在本公开实施例中,客户端可以调用摄像头实时采集用户的第一图像帧数据和第二图像帧数据并进行展示,其中,第一图像帧数据为在先采集的图像帧数据,首先实时识别第一图像帧数据中的人体部位并确定人体部位的位置信息,然后结合动作图标的预设位置信息,确定动作图标在第一图像帧数据上的准确展示位置,即随着人体部位位置的变化,动作图标在第一图像帧数据上的展示位置可以实时调整(或称为修正);最后,根据第二图像帧数据中与动作图标关联的目标人体部位的状态信息与动作图标的匹配度,确定评估结果。本公开实施例实现了将摄像头采集的用户图像帧数据和该图像帧数据中待展示的动作图标进行有效结合,根据用户人体部位的位置动态调整动作图标的展示位置,准确评估用户人体部位的状态信息,提高了用户的交互体验。
图3为本公开实施例提供的另一种交互方法的流程图,基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。
如图3所示,本公开实施例提供的交互方法可以包括:
S201、采集用户的第一图像帧数据并展示。
S202、识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息。
S203、基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置。
S204、基于背景音乐的播放时间信息或者基于第一图像帧数据的采集时间信息,确定动作图标的展示样式。
针对背景音乐的不同播放时间(例如播放至第3秒或者播放至第7秒),或者不同的图像帧数据采集时间(或者视频录制时间),以何种展示方式展示动作图标,在动作开发阶段已预先确定,因此,客户端可以根据当前背景音乐的播放时间信息或者第一图像帧数据的采集时间信息确定动作图标的当前展示样式。不同时间点的动作图标展示样式可以相同,也可以不同。
S205、在展示位置采用展示样式展示动作图标。
S206、采集用户的第二图像帧数据并展示;其中,第二图像帧数据是第一图像帧数据之后预设时间点的图像帧数据。
S207、在第二图像帧数据上展示引导信息,以引导用户改变与动作图标关联的目标人体部位的状态信息。
其中,引导信息包括引导视频动画、引导图片和引导指令中的至少一种。并且,引导指令还可以采用语音形式进行播放。引导信息可以是基于前述实施例中的标准数据集得到。以引导视频动画或引导图片为例,可以是通过将前述实施例中的标准数据集导入人体模型中,经过图像处理得到。具体的,开发人员可以基于现有的三维动画制作原理,利用服务器将标准数据集导入人体模型中,经过模型渲染生成引导视频动画,或者通过截图形式得到引导图片,然后由服务器下发至客户端中。
标准数据集中综合了不同人的人体部位位置特点,基于该标准数据集得到引导信息,可以提高引导信息的参考价值,提高大众对引导信息的认可度和接受度。
引导信息可以直接叠加展示在第二图像帧数据中,也可以采用独立的播放窗口等形式展示在第二图像帧数据中。引导信息在第二图像帧数据中的具体展示位置,本公开实施例不作限定,例如可以是图像的右下方、右上方、左上方或者左下方等。
进一步的,在用户图像帧数据的实时采集过程中,客户端还可以基于用户人体部位在图像帧数据中的位置,对引导信息的展示位置进行动态调整,以避免人体部位和引导信息的重叠展示,例如,如果客户端检测到用户肢体在第二图像帧数据中偏向右侧的位置,则可以将引导信息展示在第二图像帧数据中偏向左侧的位置。
图4为本公开实施例提供的展示有动作图标和引导视频动画的图像帧数据的一种示意图,用于对本公开实施例进行示例性说明,不应理解为对本公开实施例的具体限定。如图4所示,当前图像帧数据中展示有第一动作图标21和第二动作图标22;同时,在当前图像帧数据的左下方展示有引导视频动画23,引导用户完成正确的肢体动作。
S208、确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息。
S209、根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。
在上述技术方案的基础上,在根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果之后,还包括:
根据评估结果确定评估结果动画;评估结果动画(或称为动作判定动画)的具体实现可以灵活设置,本公开实施例不作具体限定;
利用动作图标的展示位置,确定评估结果动画在第二图像帧数据中的动画展示位置,并在动画展示位置展示评估结果动画。
示例性的,评估结果动画的展示位置可以与动作图标的展示位置重合也可以不重合。例如,在确定评估结果动画后,可以在动作图标的展示位置上展示评估结果动画,并同时将动作图标进行隐藏,从而产生一种特效切换变换的界面效果。
通过展示评估结果动画,可以提高界面视觉效果,提高用户录制视频的趣味性。图5为本公开实施例提供的展示有评估结果动画的图像帧数据的一种示意图,用于对本公开实施例进行示例性说明,不应理解为对本公开实施例的具体限定。如图5所示,用户手部肢体动作位置与肩膀处的动作图标的位置匹配度较高(也即与动作图标的有效响应区域的重合度较高),用户手部肢体动作的评估结果为完美,因此,在图像帧数据中展示一种圆形的评估结果动画51,该评估结果动画中展示有“完美”字样。评估结果动画51在展示过程中可以动态改变圆形的大小,并变换展示色彩等。展示有评估结果动画的图像帧数据可以作为有效的视频帧数据。
在上述技术方案的基础上,可选的,在根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果之后,还包括:
基于采集的第一图像帧数据和第二图像帧数据,生成第一分享视频;由于用户的图像帧数据属于实时采集的图像序列,因此,可以基于第一图像帧数据和第二图像帧数据得到一个完整的用户视频,并且动作图标、引导信息和评估结果动画等可以展示在分享视频中相应的图像帧数据中;
根据用户的视频分享操作,向服务器发送第一视频分享请求;其中,第一视频分享请求中携带第一分享视频和分享对象的用户标识,分享对象的用户标识用于服务器确定分享对象分享的第二分享视频;第二分享视频和第一分享视频可以是由不同人录制的针对相同动作内容的视频;分享对象的数量可以是一个或者多个,相应的,第二分享视频可以指代一个视频或者多个视频;
接收服务器返回的合成视频;其中,合成视频由服务器将第一分享视频和第二分享视频合成同屏展示后得到。关于视频合成的具体实现可以参考现有技术。同屏展示可以是左右分屏展示,也可以是上下分屏展示,根据参与视频分享的用户数量的不同,同屏展示方式不同。
示例性的,当前客户端生成第一分享视频后,可以根据当前用户触发的分享对象选择操作,由当前界面切换至分享对象选择界面,以供当前用户确定至少一个分享对象,获取当前用户选择的分享对象的用户标识后,再次切换至当前界面,根据当前用户触发的视频分享操作,生成第一视频分享请求并向服务器发送。针对分享对象控制的客户端而言,其也可以执行与前述操作相同的操作,实现将第二分享视频分享至服务器。并且,当前用户(即分享发起者)控制的客户端和分享对象控制的客户端可以在用户通信的基础上,同时向服务器发送视频分享请求。服务器完成视频合成后,可以将合成视频分别发送至当前用户控制的客户端和分享对象控制的客户端。
图6为本公开实施例提供的同屏展示分享视频的一种示意图,具体以两人参与视频分享为例,对本公开实施例进行示例性说明,不应理解为对本公开实施例的具体限定。如图6所示,用户A和用户B互为对方的分享对象,分享发起者控制的客户端和分享对象控制的客户端,可以同时展示两人的分享视频。在图6中,动作图标的展示位置为肩膀上方,用户A的手部展示在肩膀上方,即手部位置与动作图标的展示位置的匹配度较高,用户A的评估结果为完美;而用户B的手部展示在身体右侧,即手部位置与动作图标的展示位置的匹配度较低,用户B的评估结果为一般。并且,针对不同的评估结果,图6中分别展示了不同的评估结果动画,例如,针对用户A,评估结果动画为星形图案形成的动画,星形图案中展示有“完美”字样;针对用户B,评估结果动画为圆形图案形成的动画,圆形图案中展示有“一般”字样。
在上述技术方案的基础上,可选的,在展示第一图像帧数据之前,还包括:
根据用户的图像同步操作,由当前模式切换至图像同步分享模式;即在图像同步分享模式下,当前用户确定分享对象后,可以在展示本地实时获取的图像帧数据的同时,展示分享对象控制的客户端实时获取的图像帧数据,同屏展示效果可以参考图6所示的展示效果。
相应的,在展示第一图像帧数据和第二图像帧数据的过程中,还包括:
实时接收第一分享图像帧数据,并将第一分享图像帧数据和第一图像帧数据进行同屏展示;
实时接收第二分享图像帧数据,并将第二分享图像帧数据和第二图像帧数据进行同屏展示;
其中,第一分享图像帧数据和第二分享图像帧数据由分享对象实时分享,分享对象由用户预先确定。
示例性的,可以直接通过客户端与客户端之间的交互,实现第一分享图像帧数据和第二分享图像帧数据在不同客户端之间的同步展示;也可以通过服务器在两个客户端之间的数据中转,实现第一分享图像帧数据和第二分享图像帧数据在不同客户端之间的同步展示。
示例性的,分享对象可以是在当前用户触发视频同步操作之前或者之后确定,当前用户控制的客户端由当前模式切换至图像同步分享模式后,可以向服务器发送模式切换通知,该模式切换通知中可以携带分享对象的用户标识,以通知服务器将接收的分享对象实时分享的第一分享图像帧数据和第二分享图像帧数据,并实时发送至当前用户控制的客户端。同时,当前用户控制的客户端在展示实时获取的图像帧数据时,也实时将图像帧数据分享至服务器,以使得分享对象控制的客户端执行前述操作后,也可以同步展示当前用户的图像帧数据。动作图标、引导信息和评估结果动画等内容,在图像帧数据的同屏展示过程中,也可以同步展示。并且,当前用户控制的客户端和分享对象控制的客户端可以在用户之间相互通信的基础上,同时切换至图像同步分享模式。
在本公开实施例中,通过图像分享与合成,实现了不同用户的图像帧数据在同一客户端中的同屏展示,提高了图像交互或者视频交互的趣味性。
图7为本公开实施例提供的另一种交互方法的流程图,应用于服务器,该方法可以由配置于服务器的交互装置执行,该装置可以采用软件和/或硬件实现。
本公开实施例提供的应用于服务器的交互方法,可以与本公开实施例提供的应用于客户端的交互方法配合执行,以下实施例中未详细描述的内容,可以参考上述实施例中的解释。
如图7所示,本公开实施例提供的交互方法可以包括:
S301、获取多个候选视频,并提取多个候选视频中各图像帧的人体部位位置数据。
S302、基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集。
S303、查找多个候选视频中至少一个图像帧中的目标人体部位在标准位置数据集中的位置数据。
S304、利用查找的位置数据确定与目标人体部位对应的动作图标的预设位置信息,以参与确定动作图标在客户端展示的图像帧数据中的展示位置。
在确定动作图标的预设位置信息的同时,还可以基于与动作图标对应的目标人体部位在图像帧中形成的动作信息,确定动作图标对应的标准动作信息。
可选的,获取多个候选视频,并提取多个候选视频中各图像帧的人体部位位置数据,包括:
基于预设视频筛选信息,获取多个候选视频;其中,预设视频筛选信息包括视频交互信息和/或视频发布者信息,视频交互信息包括视频的点赞量和/或评论量;
提取多个候选视频中各图像帧的人体部位位置数据。
可选的,本公开实施例提供的交互方法还包括:
基于标准位置数据集生成引导信息;
向客户端发送引导信息,以使客户端在采集的用户图像帧数据上展示引导信息,并引导用户改变图像帧数据中与动作图标关联的目标人体部位的状态信息。
可选的,引导信息包括引导视频动画、引导图片和引导指令中的至少一种。
可选的,基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集,包括:
确定每个候选视频的权重值;
基于每个候选视频的权重值,对多个候选视频中同一图像帧的人体部位位置数据进行加权平均计算,得到标准位置数据集。
可选的,本公开实施例提供的交互方法还包括:
接收客户端发送第一视频分享请求;其中,第一视频分享请求中携带第一分享视频和分享对象的用户标识,第一分享视频由客户端基于采集的第一图像帧数据和第二图像帧数据生成;
基于分享对象的用户标识,确定分享对象分享的第二分享视频;其中,第二分享视频和第一分享视频可以包括展示相同状态信息的人体部位的图像帧;
将第一分享视频和第二分享视频合成同屏展示的合成视频;
将合成视频发送至客户端。
可选的,本公开实施例提供的交互方法还包括:
接收分享对象实时分享的第一分享图像帧数据;其中,分享对象由用户预先确定;
将第一分享图像帧数据实时发送至客户端,以使客户端将第一分享图像帧数据和本地采集的第一图像帧数据进行同屏展示;其中,第一分享图像帧数据与客户端本地采集的第一图像帧数据可以展示具有相同状态信息的人体部位;
接收分享对象实时分享的第二分享图像帧数据;其中,分享对象由用户预先确定;
将第二分享图像帧数据实时发送至客户端,以使客户端将第二分享图像帧数据和本地采集的第二图像帧数据进行同屏展示;其中,第二分享图像帧数据与客户端本地采集的第二图像帧数据可以展示具有相同状态信息的人体部位。
在本公开实施例中,服务器可以基于多个候选视频中各图像帧的人体部位的位置数据,确定出标准位置数据集,进而基于目标人体部位在标准位置数据集中的位置数据,确定与目标人体部位对应的动作图标的预设位置信息,然后下发至客户端中,使得客户端结合从当前展示的图像帧数据中识别的人体部位的位置信息,动态确定动作图标在图像帧数据中的准确展示位置,即达到随着用户人体部位的位置变化,动作图标在用户图像帧数据中的展示位置动态调整的效果;同时,客户端还基于实时采集的用户图像帧数据中与动作图标关联的目标人体部位的状态信息与动作图标的匹配度,确定评估结果。本公开实施例实现了将摄像头采集的用户图像帧数据和该图像帧数据中待展示的动作图标进行有效结合,根据用户人体部位的位置动态调整动作图标的展示位置,准确评估用户人体部位的状态信息,提高了用户的交互体验。此外,通过服务器和客户端的交互,客户端中可以同屏展示多人的分享视频,提高了视频分享的趣味性。
图8为本公开实施例提供的一种交互装置的结构示意图,该装置可以配置于客户端中,可以采用软件和/或硬件实现。本公开实施例中提及的客户端可以包括任意的具有视频交互功能的客户端,安装客户端的终端设备可以包括但不限于智能手机、平板电脑和笔记本等。
如图8所示,本公开实施例提供的交互装置400可以包括第一采集模块401、第一确定模块402、展示位置确定模块403、第二采集模块404、第二确定模块405和评估模块406,其中:
第一采集模块401,用于采集用户的第一图像帧数据并展示;
第一确定模块402,用于识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息;
展示位置确定模块403,用于基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置,并在展示位置展示动作图标;
第二采集模块404,用于采集用户的第二图像帧数据并展示;其中,第二图像帧数据是第一图像帧数据之后预设时间点的图像帧数据;
第二确定模块405,用于确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息;
评估模块406,用于根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。
可选的,目标人体部位的状态信息包括人体部位的位置信息和/或人体部位形成的动作信息。
可选的,评估模块406包括:
有效响应区域确定单元,用于确定动作图标在第二图像帧数据中的有效响应区域;
第一评估结果确定单元,用于确定目标人体部位的位置信息和动作图标的有效响应区域的位置匹配度,并根据位置匹配度确定评估结果。
可选的,评估模块406包括:
标准动作信息确定单元,用于确定动作图标对应的标准动作信息;
第二评估结果确定单元,用于确定第二图像帧数据中目标人体部位形成的动作信息和标准动作信息的动作匹配度,并根据动作匹配度确定评估结果。
可选的,动作图标的预设位置信息是基于与动作图标对应的人体部位在标准数据集中的位置数据得到;
标准数据集是基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合得到。
可选的,多个候选视频是基于预设视频筛选信息得到,预设视频筛选信息包括视频交互信息和/或视频发布者信息,视频交互信息包括视频的点赞量和/或评论量。
可选的,本公开实施例提供的交互装置400还包括:
引导信息展示模块,用于在第二图像帧数据上展示引导信息,以引导用户改变与动作图标关联的目标人体部位的状态信息。
可选的,引导信息包括引导视频动画、引导图片和引导指令中的至少一种。
可选的,展示位置确定模块403包括:
展示位置确定单元,用于基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置;
动作图标展示单元,用于在展示位置展示动作图标;
动作图标展示单元包括:
展示样式确定子单元,用于基于背景音乐的播放时间信息或者基于第一图像帧数据的采集时间信息,确定动作图标的展示样式;
动作图标展示子单元,用于在展示位置采用展示样式展示动作图标。
可选的,本公开实施例提供的交互装置400还包括:
评估结果动画确定模块,用于根据评估结果确定评估结果动画;
动画展示模块,用于利用动作图标的展示位置,确定评估结果动画在第二图像帧数据中的动画展示位置,并在动画展示位置展示评估结果动画。
可选的,第二确定模块405包括:
关联人体部位确定单元,用于确定第二图像帧数据中与动作图标关联的目标人体部位;
状态信息确定单元,用于确定目标人体部位的状态信息;
其中,关联人体部位确定单元具体用于:基于背景音乐的播放时间信息或者第二图像帧数据的采集时间信息,确定第二图像帧数据中与动作图标关联的目标人体部位。
可选的,动作图标包括表情图标,本公开实施例提供的交互装置400还包括:
用户表情识别模块,用于识别第一图像帧数据或者第二图像帧数据中的用户表情,并确定与用户表情匹配的表情图标;
表情图标展示模块,用于基于第一图像帧数据或者第二图像帧数据上形成用户表情的五官的位置信息,确定表情图标的展示位置,并将表情图标展示在确定的展示位置。
可选的,本公开实施例提供的交互装置400还包括:
第一分享视频生成模块,用于基于采集的第一图像帧数据和第二图像帧数据,生成第一分享视频;
分享请求发送模块,用于根据用户的视频分享操作,向服务器发送第一视频分享请求;其中,第一视频分享请求中携带第一分享视频和分享对象的用户标识,分享对象的用户标识用于服务器确定分享对象分享的第二分享视频;
合成视频接收模块,用于接收服务器返回的合成视频;其中,合成视频由服务器将第一分享视频和第二分享视频合成同屏展示后得到。
可选的,本公开实施例提供的交互装置400还包括:
模式切换模块,用于根据用户的图像同步操作,由当前模式切换至图像同步分享模式;
第一同屏展示模块,用于实时接收第一分享图像帧数据,并将第一分享图像帧数据和第一图像帧数据进行同屏展示;
第二同屏展示模块,用于实时接收第二分享图像帧数据,并将第二分享图像帧数据和第二图像帧数据进行同屏展示;
其中,第一分享图像帧数据和第二分享图像帧数据由分享对象实时分享,分享对象由用户预先确定。
可选的,人体部位形成的动作信息包括舞蹈游戏类动作信息。
可选的,在第一图像帧数据或者第二图像帧数据中识别的人体部位包括头部、胳膊、手部、脚部和腿部中的至少一种。
本公开实施例所提供的配置于客户端的交互装置可执行本公开实施例所提供的应用于客户端的任意交互方法,具备执行方法相应的功能模块和有益效果。本公开装置实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
图9为本公开实施例提供的另一种交互装置的结构示意图,该装置可以配置于服务器中,可以采用软件和/或硬件实现。
如图9所示,本公开实施例提供的交互装置500可以包括位置数据提取模块501、标准位置数据集确定模块502、位置数据查找模块503和预设位置信息确定模块504,其中:
位置数据提取模块501,用于获取多个候选视频,并提取多个候选视频中各图像帧的人体部位位置数据;
标准位置数据集确定模块502,用于基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;
位置数据查找模块503,用于查找多个候选视频中至少一个图像帧中的目标人体部位在标准位置数据集中的位置数据;
预设位置信息确定模块504,用于利用查找的位置数据确定与目标人体部位对应的动作图标的预设位置信息,以参与确定动作图标在客户端展示的图像帧数据中的展示位置。
可选的,位置数据提取模块501包括:
视频筛选单元,用于基于预设视频筛选信息,获取多个候选视频;其中,预设视频筛选信息包括视频交互信息和/或视频发布者信息,视频交互信息包括视频的点赞量和/或评论量;
位置数据提取单元,用于提取多个候选视频中各图像帧的人体部位位置数据。
可选的,本公开实施例提供的交互装置500还包括:
引导信息生成模块,用于基于标准位置数据集生成引导信息;
引导信息发送模块,用于向客户端发送引导信息,以使客户端在采集的用户图像帧数据上展示引导信息,并引导用户改变图像帧数据中与动作图标关联的目标人体部位的状态信息。
可选的,引导信息包括引导视频动画、引导图片和引导指令中的至少一种。
可选的,标准位置数据集确定模块502包括:
视频权重确定单元,用于确定每个候选视频的权重值;
标准位置数据集确定单元,用于基于每个候选视频的权重值,对多个候选视频中同一图像帧的人体部位位置数据进行加权平均计算,得到标准位置数据集。
可选的,本公开实施例提供的交互装置500还包括:
视频分享请求接收模块,用于接收客户端发送第一视频分享请求;其中,第一视频分享请求中携带第一分享视频和分享对象的用户标识,第一分享视频由客户端基于采集的第一图像帧数据和第二图像帧数据生成;
分享视频确定模块,用于基于分享对象的用户标识,确定分享对象分享的第二分享视频;其中,第二分享视频和第一分享视频可以包括展示相同状态信息的人体部位的图像帧;
视频合成模块,用于将第一分享视频和第二分享视频合成同屏展示的合成视频;
合成视频发送模块,用于将合成视频发送至客户端。
可选的,本公开实施例提供的交互装置500还包括:
第一分享图像接收模块,用于接收分享对象实时分享的第一分享图像帧数据;其中,分享对象由用户预先确定;
第一分享图像发送模块,用于将第一分享图像帧数据实时发送至客户端,以使客户端将第一分享图像帧数据和本地采集的第一图像帧数据进行同屏展示;其中,第一分享图像帧数据与客户端本地采集的第一图像帧数据可以展示具有相同状态信息的人体部位;
第二分享图像接收模块,用于接收分享对象实时分享的第二分享图像帧数据;其中,分享对象由用户预先确定;
第二分享图像发送模块,用于将第二分享图像帧数据实时发送至客户端,以使客户端将第二分享图像帧数据和本地采集的第二图像帧数据进行同屏展示;其中,第二分享图像帧数据与客户端本地采集的第二图像帧数据可以展示具有相同状态信息的人体部位。
本公开实施例所提供的配置于服务器的交互装置可执行本公开实施例所提供的应用于服务器的交互方法,具备执行方法相应的功能模块和有益效果。本公开装置实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
图10为本公开实施例提供的一种终端的结构示意图,用于对实现本公开实施例提供的交互方法的终端进行示例性说明。本公开实施例中的终端可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图10示出的终端仅仅是一个示例,不应对本公开实施例的功能和占用范围带来任何限制。
如图10所示,终端600包括一个或多个处理器601、存储器602和摄像头605。
摄像头605用于实时采集用户的图像帧数据。
处理器601可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制终端600中的其他组件以执行期望的功能。
存储器602可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器601可以运行程序指令,以实现本公开实施例提供的应用于客户端的交互方法,还可以实现其他期望的功能。在计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
其中,应用于客户端的交互方法可以包括:采集用户的第一图像帧数据并展示;识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息;基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置,并在展示位置展示动作图标;采集用户的第二图像帧数据并展示;其中,第二图像帧数据是第一图像帧数据之后预设时间点的图像帧数据;确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息;根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。
应当理解,终端600还可以执行本公开方法实施例提供的其他可选实施方案。
在一个示例中,终端600还可以包括:输入装置603和输出装置604,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置603还可以包括例如键盘、鼠标等等。
该输出装置604可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置604可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图10中仅示出了该终端600中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,终端600还可以包括任何其他适当的组件。
图11为本公开实施例提供的一种服务器的结构示意图,用于对实现本公开实施例提供的交互方法的服务器进行示例性说明。图11示出的服务器仅仅是一个示例,不应对本公开实施例的功能和占用范围带来任何限制。
如图11所示,服务器700包括一个或多个处理器701和存储器702。
处理器701可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制服务器700中的其他组件以执行期望的功能。
存储器702可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器701可以运行程序指令,以实现本公开实施例提供的应用于服务器的交互方法,还可以实现其他期望的功能。在计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
其中,应用于服务器的交互方法可以包括:获取多个候选视频,并提取多个候选视频中各图像帧的人体部位位置数据;基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;查找多个候选视频中至少一个图像帧中的目标人体部位在标准位置数据集中的位置数据;利用查找的位置数据确定与目标人体部位对应的动作图标的预设位置信息,以参与确定动作图标在客户端展示的图像帧数据中的展示位置。
应当理解,服务器700还可以执行本公开方法实施例提供的其他可选实施方案。
在一个示例中,服务器700还可以包括:输入装置703和输出装置704,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置703还可以包括例如键盘、鼠标等等。
该输出装置704可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置704可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图11中仅示出了该服务器700中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,服务器700还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,计算机程序指令在被处理器运行时使得处理器执行本公开实施例所提供的应用于客户端或应用于服务器的任意交互方法。
计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户终端或服务器上执行、部分地在用户终端或服务器上执行、作为一个独立的软件包执行、部分在用户终端或服务器上且部分在远程终端或服务器上执行、或者完全在远程终端或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,计算机程序指令在被处理器运行时使得处理器执行本公开实施例所提供的应用于客户端或应用于服务器的任意交互方法。
一方面,应用于客户端的交互方法可以包括:采集用户的第一图像帧数据并展示;识别第一图像帧数据中的至少一个人体部位,并确定人体部位的位置信息;基于至少一个人体部位的位置信息,以及与人体部位对应的动作图标的预设位置信息,确定动作图标的展示位置,并在展示位置展示动作图标;采集用户的第二图像帧数据并展示;其中,第二图像帧数据是第一图像帧数据之后预设时间点的图像帧数据;确定第二图像帧数据中与动作图标关联的目标人体部位以及目标人体部位的状态信息;根据第二图像帧数据中目标人体部位的状态信息与动作图标的匹配度,确定评估结果。
另一方面,应用于服务器的交互方法可以包括:获取多个候选视频,并提取多个候选视频中各图像帧的人体部位位置数据;基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;查找多个候选视频中至少一个图像帧中的目标人体部位在标准位置数据集中的位置数据;利用查找的位置数据确定与目标人体部位对应的动作图标的预设位置信息,以参与确定动作图标在客户端展示的图像帧数据中的展示位置。
应当理解,计算机程序指令在被处理器运行时,还可以使得处理器执行本公开方法实施例提供的其他可选实施方案。
计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (20)
1.一种交互方法,其特征在于,应用于客户端,包括:
采集用户的第一图像帧数据并展示;
识别所述第一图像帧数据中的至少一个人体部位,并确定所述人体部位的位置信息;
基于所述至少一个人体部位的位置信息,以及与所述人体部位对应的动作图标的预设位置信息,确定所述动作图标的展示位置,并在所述展示位置展示所述动作图标;
采集所述用户的第二图像帧数据并展示;其中,所述第二图像帧数据是所述第一图像帧数据之后预设时间点的图像帧数据;
确定所述第二图像帧数据中与所述动作图标关联的目标人体部位以及所述目标人体部位的状态信息;
根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果。
2.根据权利要求1所述的方法,其特征在于,所述目标人体部位的状态信息包括人体部位的位置信息和/或人体部位形成的动作信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果,确定评估结果,包括:
确定所述动作图标在所述第二图像帧数据中的有效响应区域;
确定所述目标人体部位的位置信息和所述动作图标的有效响应区域的位置匹配度,并根据所述位置匹配度确定所述评估结果。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果,包括:
确定所述动作图标对应的标准动作信息;
确定所述第二图像帧数据中所述目标人体部位形成的动作信息和所述标准动作信息的动作匹配度,并根据所述动作匹配度确定所述评估结果。
5.根据权利要求1所述的方法,其特征在于:
所述动作图标的预设位置信息是基于与所述动作图标对应的人体部位在标准数据集中的位置数据得到;
所述标准数据集是基于预设的规则对多个候选视频中同一图像帧的人体部位位置数据进行融合得到。
6.根据权利要求5所述的方法,其特征在于:
所述多个候选视频是基于预设视频筛选信息得到,所述预设视频筛选信息包括视频交互信息和/或视频发布者信息,所述视频交互信息包括视频的点赞量和/或评论量。
7.根据权利要求1所述的方法,其特征在于,在展示所述用户的第二图像帧数据的过程中,还包括:
在所述第二图像帧数据上展示引导信息,以引导用户改变所述目标人体部位的状态信息。
8.根据权利要求7所述的方法,其特征在于,所述引导信息包括引导视频动画、引导图片和引导指令中的至少一种。
9.根据权利要求1所述的方法,其特征在于,在所述展示位置展示所述动作图标,包括:
基于背景音乐的播放时间信息或者基于所述第一图像帧数据的采集时间信息,确定所述动作图标的展示样式;
在所述展示位置采用所述展示样式展示所述动作图标;
相应的,所述确定所述第二图像帧数据中与所述动作图标关联的目标人体部位,包括:
基于所述背景音乐的播放时间信息或者基于所述第二图像帧数据的采集时间信息,确定所述第二图像帧数据中与所述动作图标关联的目标人体部位。
10.根据权利要求1所述的方法,其特征在于,在所述根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果之后,还包括:
根据所述评估结果确定评估结果动画;
利用所述动作图标的展示位置,确定所述评估结果动画在所述第二图像帧数据中的动画展示位置,并在所述动画展示位置展示所述评估结果动画。
11.根据权利要求1所述的方法,其特征在于,所述动作图标包括表情图标,在展示所述第一图像帧数据或者展示所述第二图像帧数据的过程中,还包括:
识别所述第一图像帧数据或者所述第二图像帧数据中的用户表情,并确定与所述用户表情匹配的表情图标;
基于所述第一图像帧数据或者所述第二图像帧数据上形成所述用户表情的五官的位置信息,确定所述表情图标的展示位置,并将所述表情图标展示在确定的展示位置。
12.根据权利要求1所述的方法,其特征在于,在所述根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果之后,还包括:
基于采集的所述第一图像帧数据和所述第二图像帧数据,生成第一分享视频;
根据所述用户的视频分享操作,向服务器发送第一视频分享请求;其中,所述第一视频分享请求中携带所述第一分享视频和分享对象的用户标识,所述分享对象的用户标识用于所述服务器确定所述分享对象分享的第二分享视频;
接收所述服务器返回的合成视频;其中,所述合成视频由所述服务器将所述第一分享视频和所述第二分享视频合成同屏展示后得到。
13.根据权利要求1所述的方法,其特征在于,在展示所述第一图像帧数据之前,还包括:
根据所述用户的图像同步操作,由当前模式切换至图像同步分享模式;
相应的,在展示所述第一图像帧数据和所述第二图像帧数据的过程中,还包括:
实时接收第一分享图像帧数据,并将所述第一分享图像帧数据和所述第一图像帧数据进行同屏展示;
实时接收第二分享图像帧数据,并将所述第二分享图像帧数据和所述第二图像帧数据进行同屏展示;
其中,所述第一分享图像帧数据和所述第二分享图像帧数据由分享对象实时分享,所述分享对象由所述用户预先确定。
14.根据权利要求2所述的方法,其特征在于,所述人体部位形成的动作信息包括舞蹈游戏类动作信息。
15.一种交互方法,其特征在于,应用于服务器,包括:
获取多个候选视频,并提取所述多个候选视频中各图像帧的人体部位位置数据;
基于预设的规则对所述多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;
查找所述多个候选视频中至少一个图像帧中的目标人体部位在所述标准位置数据集中的位置数据;
利用所述查找的位置数据确定与所述目标人体部位对应的动作图标的预设位置信息,以参与确定所述动作图标在客户端展示的图像帧数据中的展示位置。
16.一种交互装置,其特征在于,配置于客户端,包括:
第一采集模块,用于采集用户的第一图像帧数据并展示;
第一确定模块,用于识别所述第一图像帧数据中的至少一个人体部位,并确定所述人体部位的位置信息;
展示位置确定模块,用于基于所述至少一个人体部位的位置信息,以及与所述人体部位对应的动作图标的预设位置信息,确定所述动作图标的展示位置,并在所述展示位置展示所述动作图标;
第二采集模块,用于采集所述用户的第二图像帧数据并展示;其中,所述第二图像帧数据是所述第一图像帧数据之后预设时间点的图像帧数据;
第二确定模块,用于确定所述第二图像帧数据中与所述动作图标关联的目标人体部位以及所述目标人体部位的状态信息;
评估模块,用于根据所述第二图像帧数据中所述目标人体部位的状态信息与所述动作图标的匹配度,确定评估结果。
17.一种交互装置,其特征在于,配置于服务器,包括:
位置数据提取模块,用于获取多个候选视频,并提取所述多个候选视频中各图像帧的人体部位位置数据;
标准位置数据集确定模块,用于基于预设的规则对所述多个候选视频中同一图像帧的人体部位位置数据进行融合,得到标准位置数据集;
位置数据查找模块,用于查找所述多个候选视频中至少一个图像帧中的目标人体部位在所述标准位置数据集中的位置数据;
预设位置信息确定模块,用于利用所述查找的位置数据确定与所述目标人体部位对应的动作图标的预设位置信息,以参与确定所述动作图标在客户端展示的图像帧数据中的展示位置。
18.一种终端,其特征在于,包括存储器、处理器和摄像头,其中:
所述摄像头用于实时采集用户的图像帧数据;
所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,所述处理器执行权利要求1-14中任一项所述的交互方法。
19.一种服务器,其特征在于,包括存储器和处理器,其中:
所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,所述处理器执行权利要求15所述的交互方法。
20.一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时,所述处理器执行权利要求1-14中任一项所述的交互方法,或者执行权利要求15所述的交互方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011399864.7A CN112560605B (zh) | 2020-12-02 | 2020-12-02 | 交互方法、装置、终端、服务器和存储介质 |
PCT/CN2021/127010 WO2022116751A1 (zh) | 2020-12-02 | 2021-10-28 | 交互方法、装置、终端、服务器和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011399864.7A CN112560605B (zh) | 2020-12-02 | 2020-12-02 | 交互方法、装置、终端、服务器和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560605A true CN112560605A (zh) | 2021-03-26 |
CN112560605B CN112560605B (zh) | 2023-04-18 |
Family
ID=75048069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011399864.7A Active CN112560605B (zh) | 2020-12-02 | 2020-12-02 | 交互方法、装置、终端、服务器和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112560605B (zh) |
WO (1) | WO2022116751A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113727147A (zh) * | 2021-08-27 | 2021-11-30 | 上海哔哩哔哩科技有限公司 | 直播间礼物赠送方法及装置 |
CN113723307A (zh) * | 2021-08-31 | 2021-11-30 | 上海掌门科技有限公司 | 基于俯卧撑检测的社交分享方法、设备及计算机可读介质 |
CN113742630A (zh) * | 2021-09-16 | 2021-12-03 | 阿里巴巴新加坡控股有限公司 | 图像处理方法、电子设备及计算机存储介质 |
CN113923361A (zh) * | 2021-10-19 | 2022-01-11 | 北京字节跳动网络技术有限公司 | 数据处理方法、装置、设备,以及计算机可读存储介质 |
CN113946210A (zh) * | 2021-09-16 | 2022-01-18 | 武汉灏存科技有限公司 | 动作交互展示系统及方法 |
WO2022116751A1 (zh) * | 2020-12-02 | 2022-06-09 | 北京字节跳动网络技术有限公司 | 交互方法、装置、终端、服务器和存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116150421B (zh) * | 2023-04-23 | 2023-07-18 | 深圳竹云科技股份有限公司 | 图像的展示方法、装置、计算机设备和存储介质 |
CN117455466B (zh) * | 2023-12-22 | 2024-03-08 | 南京三百云信息科技有限公司 | 一种汽车远程评估的方法及系统 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101564594A (zh) * | 2008-04-25 | 2009-10-28 | 财团法人工业技术研究院 | 交互式肢体动作复健方法与系统 |
CN102622509A (zh) * | 2012-01-21 | 2012-08-01 | 天津大学 | 基于单目视频的三维游戏交互系统 |
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
US20130302768A1 (en) * | 2012-05-09 | 2013-11-14 | Spencer Webb | Physical activity instructional apparatus |
CN104461012A (zh) * | 2014-12-25 | 2015-03-25 | 中国科学院合肥物质科学研究院 | 一种基于数字化场地和无线动作捕捉设备的舞蹈训练评估系统 |
CN104768455A (zh) * | 2012-09-11 | 2015-07-08 | L.I.F.E.公司 | 可穿戴式通信平台 |
CN104866108A (zh) * | 2015-06-05 | 2015-08-26 | 中国科学院自动化研究所 | 多功能舞蹈体验系统 |
CN105635669A (zh) * | 2015-12-25 | 2016-06-01 | 北京迪生数字娱乐科技股份有限公司 | 基于三维运动捕捉数据与实拍视频的动作对比系统及方法 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107349594A (zh) * | 2017-08-31 | 2017-11-17 | 华中师范大学 | 一种虚拟舞蹈系统的动作评价方法 |
CN108326878A (zh) * | 2017-01-18 | 2018-07-27 | 王怀亮 | 一种肢体动作电子转换设备、指令识别方法及录放方法 |
CN109389054A (zh) * | 2018-09-21 | 2019-02-26 | 北京邮电大学 | 基于自动图像识别和动作模型对比的智能镜子设计方法 |
CN109589563A (zh) * | 2018-12-29 | 2019-04-09 | 南京华捷艾米软件科技有限公司 | 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统 |
CN109618183A (zh) * | 2018-11-29 | 2019-04-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN110141850A (zh) * | 2019-01-30 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 动作控制方法、装置、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107920269A (zh) * | 2017-11-23 | 2018-04-17 | 乐蜜有限公司 | 视频生成方法、装置和电子设备 |
CN108833818B (zh) * | 2018-06-28 | 2021-03-26 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109068081A (zh) * | 2018-08-10 | 2018-12-21 | 北京微播视界科技有限公司 | 视频生成方法、装置、电子设备及存储介质 |
CN109600559B (zh) * | 2018-11-29 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN110888532A (zh) * | 2019-11-25 | 2020-03-17 | 深圳传音控股股份有限公司 | 人机交互方法、装置、移动终端及计算机可读存储介质 |
CN112560605B (zh) * | 2020-12-02 | 2023-04-18 | 北京字节跳动网络技术有限公司 | 交互方法、装置、终端、服务器和存储介质 |
-
2020
- 2020-12-02 CN CN202011399864.7A patent/CN112560605B/zh active Active
-
2021
- 2021-10-28 WO PCT/CN2021/127010 patent/WO2022116751A1/zh active Application Filing
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101564594A (zh) * | 2008-04-25 | 2009-10-28 | 财团法人工业技术研究院 | 交互式肢体动作复健方法与系统 |
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
CN102622509A (zh) * | 2012-01-21 | 2012-08-01 | 天津大学 | 基于单目视频的三维游戏交互系统 |
US20130302768A1 (en) * | 2012-05-09 | 2013-11-14 | Spencer Webb | Physical activity instructional apparatus |
CN104768455A (zh) * | 2012-09-11 | 2015-07-08 | L.I.F.E.公司 | 可穿戴式通信平台 |
CN104461012A (zh) * | 2014-12-25 | 2015-03-25 | 中国科学院合肥物质科学研究院 | 一种基于数字化场地和无线动作捕捉设备的舞蹈训练评估系统 |
CN104866108A (zh) * | 2015-06-05 | 2015-08-26 | 中国科学院自动化研究所 | 多功能舞蹈体验系统 |
CN105635669A (zh) * | 2015-12-25 | 2016-06-01 | 北京迪生数字娱乐科技股份有限公司 | 基于三维运动捕捉数据与实拍视频的动作对比系统及方法 |
CN108326878A (zh) * | 2017-01-18 | 2018-07-27 | 王怀亮 | 一种肢体动作电子转换设备、指令识别方法及录放方法 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107349594A (zh) * | 2017-08-31 | 2017-11-17 | 华中师范大学 | 一种虚拟舞蹈系统的动作评价方法 |
CN109389054A (zh) * | 2018-09-21 | 2019-02-26 | 北京邮电大学 | 基于自动图像识别和动作模型对比的智能镜子设计方法 |
CN109618183A (zh) * | 2018-11-29 | 2019-04-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN109589563A (zh) * | 2018-12-29 | 2019-04-09 | 南京华捷艾米软件科技有限公司 | 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统 |
CN110141850A (zh) * | 2019-01-30 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 动作控制方法、装置、电子设备及存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022116751A1 (zh) * | 2020-12-02 | 2022-06-09 | 北京字节跳动网络技术有限公司 | 交互方法、装置、终端、服务器和存储介质 |
CN113727147A (zh) * | 2021-08-27 | 2021-11-30 | 上海哔哩哔哩科技有限公司 | 直播间礼物赠送方法及装置 |
CN113723307A (zh) * | 2021-08-31 | 2021-11-30 | 上海掌门科技有限公司 | 基于俯卧撑检测的社交分享方法、设备及计算机可读介质 |
CN113742630A (zh) * | 2021-09-16 | 2021-12-03 | 阿里巴巴新加坡控股有限公司 | 图像处理方法、电子设备及计算机存储介质 |
CN113946210A (zh) * | 2021-09-16 | 2022-01-18 | 武汉灏存科技有限公司 | 动作交互展示系统及方法 |
CN113742630B (zh) * | 2021-09-16 | 2023-12-15 | 阿里巴巴新加坡控股有限公司 | 图像处理方法、电子设备及计算机存储介质 |
CN113946210B (zh) * | 2021-09-16 | 2024-01-23 | 武汉灏存科技有限公司 | 动作交互展示系统及方法 |
CN113923361A (zh) * | 2021-10-19 | 2022-01-11 | 北京字节跳动网络技术有限公司 | 数据处理方法、装置、设备,以及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022116751A1 (zh) | 2022-06-09 |
CN112560605B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560605B (zh) | 交互方法、装置、终端、服务器和存储介质 | |
CN109462776B (zh) | 一种视频特效添加方法、装置、终端设备及存储介质 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN110868635B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
TWI752502B (zh) | 一種分鏡效果的實現方法、電子設備及電腦可讀儲存介質 | |
WO2020107908A1 (zh) | 多用户视频特效添加方法、装置、终端设备及存储介质 | |
CN112396679B (zh) | 虚拟对象显示方法及装置、电子设备、介质 | |
KR101966040B1 (ko) | 댄스 게임 장치 및 이를 이용한 댄스 게임 방법 | |
TW202304212A (zh) | 直播方法、系統、電腦設備及電腦可讀儲存媒體 | |
US20200409471A1 (en) | Human-machine interaction system, method, computer readable storage medium and interaction device | |
CN112596694B (zh) | 一种房源信息的处理方法和装置 | |
WO2023030010A1 (zh) | 交互方法、电子设备及存储介质 | |
WO2021023047A1 (zh) | 人脸图像的处理方法、装置、终端及存储介质 | |
JPWO2018142756A1 (ja) | 情報処理装置及び情報処理方法 | |
CN113923462A (zh) | 视频生成、直播处理方法、设备和可读介质 | |
WO2022022485A1 (zh) | 内容提供及展示方法、装置、电子设备、存储介质 | |
CN111862280A (zh) | 虚拟角色控制方法、系统、介质及电子设备 | |
JP6730461B2 (ja) | 情報処理システム及び情報処理装置 | |
US20230209125A1 (en) | Method for displaying information and computer device | |
US10402068B1 (en) | Film strip interface for interactive content | |
CN109429077A (zh) | 视频处理方法和装置、用于视频处理的装置 | |
CN111651054A (zh) | 音效控制方法、装置、电子设备及存储介质 | |
CN116320534A (zh) | 视频制作方法及装置 | |
US10417356B1 (en) | Physics modeling for interactive content | |
CN111652986B (zh) | 舞台效果呈现方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |