CN110677707A - 交互视频的生成方法、生成装置、设备及可读介质 - Google Patents
交互视频的生成方法、生成装置、设备及可读介质 Download PDFInfo
- Publication number
- CN110677707A CN110677707A CN201910919758.8A CN201910919758A CN110677707A CN 110677707 A CN110677707 A CN 110677707A CN 201910919758 A CN201910919758 A CN 201910919758A CN 110677707 A CN110677707 A CN 110677707A
- Authority
- CN
- China
- Prior art keywords
- user
- video
- information
- interactive
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42202—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Biomedical Technology (AREA)
- Ecology (AREA)
- Biophysics (AREA)
- Analytical Chemistry (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Biodiversity & Conservation Biology (AREA)
- Neurosurgery (AREA)
- Emergency Management (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Remote Sensing (AREA)
- Chemical & Material Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种交互视频的生成方法、装置、设备及可读介质,所述方法包括:监听交互组件获取用户输入的交互参数;基于所述交互参数提取用户输入的特征信息或者交互变量;分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;基由用户正在观看的基础视频和所述反馈值生成交互视频;能够满足交互视频对多选项或用户个性化视频的需求,提高了交互视频的互动性,且改善了交互视频的用户体验。
Description
技术领域
本发明涉及交互技术领域,尤其涉及一种交互视频的生成方法及其应用的生成装置、设备及可读介质。
背景技术
随着宽带接入速度的提升和多媒体播放技术的成熟,交互式视频越来越多地出现在荧屏上,为人们的生活增添了乐趣。
交互式视频通常通过各种技术手段,将交互体验融入到线性的视频中。交互视频中通常选项不会太多不然准备的视频数据量是几何级的增长,因此使得交互视频的互动性受到限制,用户体验不好。另外,交互视频中某些画面与用户背景信息相关,相当于每个用户看到的交互视频都是其用户信息、用户观看过程中选择多重条件叠加组合,最终一个交互视频需要提前准备的视频成几何倍,从而造成服务器存储负载过大,降低服务器性能。
综上,由于受到当前视频数据量增长的限制,使得当前的交互视频中通常选项单一,导致其互动性受限,用户体验不好。
发明内容
有鉴于此,本发明提供了一种交互视频的生成方法、生成装置、设备及可读介质,用于解决现有技术中因交互视频交互选项单一,导致互动性受到限制,用户体验不好的问题。
本发明采用下述技术方案:
本发明提供了一种交互视频的生成方法,包括:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
优选地,监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
优选地,监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
优选地,监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置,获取用户的语音信息、人脸信息、动作信息、震感信息、用户生理状态信息或环境信息。
优选地,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
优选地,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频,
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算。
把透明度设置好的植入物视频叠加到原始视频的上面。
本发明还提供一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现以下步骤:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
本发明还提供一种交互视频的生成装置,包括:
监听模块,监听交互组件获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频。
优选地,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
优选地,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
优选地,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置,获取用户的语音信息、人脸信息、动作信息、震感信息、用户生理状态信息或环境信息。
优选地,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
优选地,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
本发明还提供一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备执行以下步骤:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
本发明采用的上述至少一个技术方案能够达到以下有益效果:本申请所述的技术方案,采用动态生成时将植入物品动态植入到视频中,不会造成视频的几何级增长,可以满足交互视频对多选项或用户个性化视频的需求,提高了交互视频的互动性,且改善了交互视频的用户体验。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本发明一实施例中交互视频的生成方法的流程图;
图2是本发明一实施例中交互视频的生成装置的结构示意图。
具体实施方式
为使本发明申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
本说明书一实施例提供了一种交互视频的生成方法、生成装置、设备及可读介质,以解决现有技术因交互视频交互选项单一,导致互动性受到限制,用户体验不好的问题。
图1为本说明书实施例提供的一种交互视频的生成方法的流程图,该方法如下所示。包括:
步骤S101:监听交互组件获取用户输入的交互参数;
其中,所述交互组件,包含:视频播放界面中的按钮选项、设置于终端设备中的传感器、以及设置于终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置。
所述传感器包括:麦克风、陀螺仪、震动光感器、惯性传感器、近红外传感器或者物联网传感器。所述语音采集装置包括麦克风,所述摄像装置包括可见光摄像头、三维摄像头、红外摄像头,所述环境信息采集装置可采集用户响应状态的时间、地点等信息。震动传感装置采集震感信息。
所述交互参数包括:按钮的操作次数、连续点击按钮的时间等;麦克风的分贝参数,陀螺仪监测到的用户跑步或行走步数,用户是否做过指定动作,用户心率等。
其中,监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
所述指定操作可以为,选择指定的按钮选项,点击指定按钮或者点击指定按钮的次数超过预设的值。
如:正在播放的视频中显示某主角在追逐小偷,此时播放界面中出现骑单车or跑过去追逐小偷的选项:如选择骑车,则切换到主角骑车去追逐小偷的剧情。
或者,通过多次点击,营造刺激感,满足点击次数,则改变交互变量V,影响剧情走向。又如:正在播放的视频中显示某主角不小心在悬崖边滑倒,在快要掉下去的时候,出现一条藤曼;此时播放界面中出现需要3s内连续点击10次的多次点击选项,若用户在规定时间内完成点击次数,改变交互变量V值,后续剧情为主角抓住藤曼爬上悬崖,安全脱离。如果在规定时间内未能完成交互点击次数,则后续剧情默认为主角跌落悬崖、失踪。
其中,监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
如:麦克风使用场景举例如下:如剧情为第一人称视角视频,视频内主角眼睛进沙子了,需要你帮忙吹吹眼睛,此时通过监听识别麦克风分贝等各参数,即可识别用户是否有真实的做出吹眼睛的动作。若识别动作完成,则主角好感度交互变量V会提升,影响后续剧情走向。利用陀螺仪和定位技术定位场景距离,如:剧情主角烦恼自己最近长胖了,需要运动,此时可在视频播放界面询问观众是否一起跟他去跑步;若用户同意,则会通过监听陀螺仪和定位装置,判断观众是否有参与跑步;若判断用户跑步或行走步数达到指定要求,则可以提升与主角的好友度,甚至可以开启与主角的更多默认视频,增加用户互动体验真实性。
此外,还可利用震动光感器、惯性传感器响应用户的动作输入。通过IOT传感器直接获取或通过运算惯性传感器获取用户是否执行挥动等动作。
其中,监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置,获取用户的语音信息、人脸信息、动作信息、震感信息、用户生理状态信息或环境信息。
本说明书实施例中,可通过配合设于终端设备的摄像头或麦克风或其他外置摄像头或麦克风,采集相关的用户信息作为输入。例:人脸识别使用场景下:如剧中主角正闷闷不乐,需要观众逗他开心或陪着他一起伤心,通过人脸识别判断用户现在是笑脸还是悲伤的表情值,来直接影响交互变量V,改变剧中主角的心情走向,陪着笑,主角也会得到安慰跟着开心起来。陪着悲伤,主角感到有观众的陪伴情绪慢慢的缓和。
又如,在人脸融合使用场景下:用户可以录制一组脸部表情的视频,通过终端上传,通过人脸融合服务的运算处理,将观众人脸抠出合成到指定视频的某角色身上。合成成功后,将改变交互变量V值,代表用户有进行某角色”饰演“。在观看互动视频的时候,观众可以看到自己”饰演“的某角色在视频中,增加用户新奇的互动体验感。
再如:可采集当前观众的语音,调用基于深度学习的语音识别,识别用户的讲话内容进行输入。通过一个基于深度学习的音节、音律、音调分析系统,根据语音的频率、音节、波形特征构建的语音情绪识别系统,分析用户当前的情绪,其喜怒哀乐,作为观众情绪变量输入。上述的深度学习模型,通过带标签的语音片段进行有监督学习训练得到。应用场景:互动剧中响应用户对剧中人员进行言语鼓励或模拟对话的效果。或根据用户当前的情绪,接下来将播放不同的剧情。
又如:还可采集当前观众的表情或人脸特征。基于人脸识别,比对观众与VIP库中人脸,识别观众的VIP身份及获取相应的注册信息。基于人脸的深度学习模型,分析采集到的观众人脸,分析观众的观影时间、观影年龄、男女比例、对当前画面的喜怒哀乐,并通过特定算法运算抽离出观众画像,并把采集到的数据汇入数据库。交互视频中的默认选项也会根据观众画像数据的不同而改变,不同观众播放不同的剧情。
再如,根据观众画像(观众个人背景信息)或交互过程中的喜好,交互视频中的植入广告物,也会不同。偏好喜欢A明星的用户,系统会根据其用户画像,合成A明星代言的商品或品牌的视频片段,整合到原视频中,用户所观看到的交互视频中场景的物体或场景中出现的品牌,多数是A明星代言的。或者喜欢运动的用户,看到的视频中场景的摆设物,多数是运动类的产品。
步骤S102:基于所述交互参数提取用户输入的特征信息或者交互变量;
本说明书实施例中,可通过本地服务器对交互组件获取的交互参数进行处理,过滤并识别用户的输入,并转化成特征信息或交互变量,作为输入数据。
所述特征信息,包括观众的人脸、情绪、语音、手势、震感信息或用户生理特征信息如:心跳、脉搏,或者用户所处的环境信息如时间、地点等特征。如:通过人脸识别判断用户现在是笑脸还是悲伤的表情值。
交互变量如观众情绪变量等。
步骤S103:分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
本说明书实施例中,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
具体地,数据库存储交互视频的交互变量V及用户信息及预设的参数,通过Kafla收集用户输入操作日志,并通过Spark Streaming+SQL实时数据流进行处理分析,通过数据模型结合交互变量V与用户画像进行决策,输出反馈值,影响后续剧情、广告内容等。这里提到的预设的参数是指,例如用户M喜欢明星张某,那可以通过既定公式及参数进行计算得到用户M也有例如90%的概率喜欢明星谢某,而喜欢另一明星陈某的概率可能就只有10%,所以后续剧情播出的是包含明星张某和明星谢某一起时的片段,符合公众的视频口味,增强用户体验感。
步骤S104:基由用户正在观看的基础视频和所述反馈值生成交互视频;
本说明书实施例中,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频,
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
具体地,在拍摄或生成视频时已选定一条基础视频,系统再结合观众的选项,可实时动态生成一条供用户观看的新的视频流。同一条基础视频在生成时,需要生成2条视频,第一条是完全没有植入物体时拍摄或生成的原始视频,第2条是有一个标定物放入植入物所在的位置,用同样的方式及镜头拍摄或生成的标定视频。标定物可以是一个绿色或纯色的圆柱,大小比植入物稍大一些。同时,我们在绿布或蓝布技术拍摄或生成多个植入物的视频,视频的镜头走动方式及镜头参数、灯光需与标定视频及原始视频中的一样。通过勾像算法勾截出只有植入物的视频,该视频非植入物的部分均为透明背景。
需要实时合成视频时,系统调用需要合成的植入物的视频,把植入物与标定物的位置进行匹配,获得植入物视频所应在的标定视频画面中的x,y位置,同时,两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,植入物视频中的非重叠位置的像素的透明度设为0。然后,把透明度设置好的植入物视频叠加到原始视频的上面,层级比原始视频更高(更上层)。上述方式也适用于植入物并非真实拍摄或画出,而是三维建模软件中建出的三维物体。
图2为本说明书实施例提供的一种交互视频的生成装置的结构示意图,该装置如下所示,包括:
监听模块,监听交互组件获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频。
本说明书实施例中,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
本说明书实施例中,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
本说明书实施例中,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置或摄像装置或震动传感装置或脉搏传感装置或环境信息(时间、地点)装置获取用户的人脸信息、手势信息或者语音信息或震动传感或脉搏传感或用户环境信息(时间、地点)。
本说明书实施例中,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
本说明书实施例中,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
本说明书实施例还提供一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以下步骤:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
本说明书实施例还提供一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备执行以下步骤:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种交互视频的生成方法,其特征在于,包括:
监听交互组件获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频。
2.根据权利要求1所述的交互视频的生成方法,其特征在于,监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
3.根据权利要求1所述的交互视频的生成方法,其特征在于,监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
4.根据权利要求1所述的交互视频的生成方法,其特征在于,监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置,获取用户的语音信息、人脸信息、动作信息、震感信息、用户生理状态信息或环境信息。
5.根据权利要求1所述的交互视频的生成方法,其特征在于,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息和预设参数,输出反馈值。
6.根据权利要求1所述的交互视频的生成方法,其特征在于,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频,
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
7.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现权利要求1至6中任一项所述的方法。
8.一种交互视频的生成装置,其特征在于,包括:
监听模块,监听交互组件获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频。
9.根据权利要求8所述的交互视频的生成装置,其特征在于,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听视频播放界面中按钮组件的一个或多个指定操作,获取用户输入的交互参数。
10.根据权利要求8所述的交互视频的生成装置,其特征在于,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过监听设置于终端设备中的传感器获取用户输入的交互参数。
11.根据权利要求8所述的交互视频的生成装置,其特征在于,所述监听模块监听交互组件获取用户输入的交互参数,包括:
通过终端设备中的语音采集装置、摄像装置、震动传感装置、脉搏传感装置或环境信息采集装置,获取用户的语音信息、人脸信息、动作信息、震感信息、用户生理状态信息或环境信息。
12.根据权利要求8所述的交互视频的生成装置,其特征在于,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
13.根据权利要求8所述的交互视频的生成装置,其特征在于,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
14.一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令
被该处理器执行时,触发该设备执行权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919758.8A CN110677707A (zh) | 2019-09-26 | 2019-09-26 | 交互视频的生成方法、生成装置、设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919758.8A CN110677707A (zh) | 2019-09-26 | 2019-09-26 | 交互视频的生成方法、生成装置、设备及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110677707A true CN110677707A (zh) | 2020-01-10 |
Family
ID=69079366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910919758.8A Pending CN110677707A (zh) | 2019-09-26 | 2019-09-26 | 交互视频的生成方法、生成装置、设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110677707A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111711856A (zh) * | 2020-08-19 | 2020-09-25 | 深圳电通信息技术有限公司 | 交互视频的制作方法、装置、终端、存储介质及播放器 |
CN111741367A (zh) * | 2020-07-23 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置、电子设备及计算机可读存储介质 |
CN111918140A (zh) * | 2020-08-06 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 视频播放控制方法、装置、计算机设备及存储介质 |
CN112073799A (zh) * | 2020-08-31 | 2020-12-11 | 腾讯数码(天津)有限公司 | 虚拟资源管理方法及装置、计算机设备及可读存储介质 |
CN114296589A (zh) * | 2021-12-14 | 2022-04-08 | 北京华录新媒信息技术有限公司 | 一种基于影片观看体验的虚拟现实交互方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130094830A1 (en) * | 2011-10-17 | 2013-04-18 | Microsoft Corporation | Interactive video program providing linear viewing experience |
CN104376589A (zh) * | 2014-12-04 | 2015-02-25 | 青岛华通国有资本运营(集团)有限责任公司 | 一种替换影视剧人物的方法 |
CN106096062A (zh) * | 2016-07-15 | 2016-11-09 | 乐视控股(北京)有限公司 | 视频交互方法及装置 |
WO2017072595A1 (en) * | 2015-10-29 | 2017-05-04 | Screemo Ltd. | System, device, and method for generating campaigns between ip-connected devices and for dynamic modification thereof using machine learning |
CN107801101A (zh) * | 2016-09-02 | 2018-03-13 | 索尼公司 | 用于优化和高效的交互式体验的系统和方法 |
CN108124187A (zh) * | 2017-11-24 | 2018-06-05 | 互影科技(北京)有限公司 | 交互视频的生成方法及装置 |
CN109240564A (zh) * | 2018-10-12 | 2019-01-18 | 武汉辽疆科技有限公司 | 人工智能实现交互式多剧情动画分支的装置及方法 |
-
2019
- 2019-09-26 CN CN201910919758.8A patent/CN110677707A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130094830A1 (en) * | 2011-10-17 | 2013-04-18 | Microsoft Corporation | Interactive video program providing linear viewing experience |
CN104376589A (zh) * | 2014-12-04 | 2015-02-25 | 青岛华通国有资本运营(集团)有限责任公司 | 一种替换影视剧人物的方法 |
WO2017072595A1 (en) * | 2015-10-29 | 2017-05-04 | Screemo Ltd. | System, device, and method for generating campaigns between ip-connected devices and for dynamic modification thereof using machine learning |
CN106096062A (zh) * | 2016-07-15 | 2016-11-09 | 乐视控股(北京)有限公司 | 视频交互方法及装置 |
CN107801101A (zh) * | 2016-09-02 | 2018-03-13 | 索尼公司 | 用于优化和高效的交互式体验的系统和方法 |
CN108124187A (zh) * | 2017-11-24 | 2018-06-05 | 互影科技(北京)有限公司 | 交互视频的生成方法及装置 |
CN109240564A (zh) * | 2018-10-12 | 2019-01-18 | 武汉辽疆科技有限公司 | 人工智能实现交互式多剧情动画分支的装置及方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111741367A (zh) * | 2020-07-23 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置、电子设备及计算机可读存储介质 |
CN111741367B (zh) * | 2020-07-23 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置、电子设备及计算机可读存储介质 |
CN111918140A (zh) * | 2020-08-06 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 视频播放控制方法、装置、计算机设备及存储介质 |
CN111918140B (zh) * | 2020-08-06 | 2021-08-03 | 腾讯科技(深圳)有限公司 | 视频播放控制方法、装置、计算机设备及存储介质 |
CN111711856A (zh) * | 2020-08-19 | 2020-09-25 | 深圳电通信息技术有限公司 | 交互视频的制作方法、装置、终端、存储介质及播放器 |
CN111711856B (zh) * | 2020-08-19 | 2020-12-01 | 深圳电通信息技术有限公司 | 交互视频的制作方法、装置、终端、存储介质及播放器 |
CN112073799A (zh) * | 2020-08-31 | 2020-12-11 | 腾讯数码(天津)有限公司 | 虚拟资源管理方法及装置、计算机设备及可读存储介质 |
CN114296589A (zh) * | 2021-12-14 | 2022-04-08 | 北京华录新媒信息技术有限公司 | 一种基于影片观看体验的虚拟现实交互方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220148271A1 (en) | Immersive story creation | |
CN110677707A (zh) | 交互视频的生成方法、生成装置、设备及可读介质 | |
CN107645655B (zh) | 使用与人关联的表现数据使其在视频中表演的系统和方法 | |
TWI581128B (zh) | 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體 | |
CN102209184B (zh) | 电子装置、再现控制系统、再现控制方法 | |
US10541000B1 (en) | User input-based video summarization | |
JP4775671B2 (ja) | 情報処理装置および方法、並びにプログラム | |
US20160066036A1 (en) | Shock block | |
JP6056853B2 (ja) | 電子機器 | |
US20100195913A1 (en) | Method and System for Immersing Face Images into a Video Sequence | |
CN107172485A (zh) | 一种用于生成短视频的方法与装置 | |
US20210165481A1 (en) | Method and system of interactive storytelling with probability-based personalized views | |
CN111654715B (zh) | 直播的视频处理方法、装置、电子设备及存储介质 | |
US20120326993A1 (en) | Method and apparatus for providing context sensitive interactive overlays for video | |
WO2019169979A1 (zh) | 一种影视作品的制作方法、装置及设备 | |
TW201233413A (en) | Input support device, input support method, and recording medium | |
US20140331246A1 (en) | Interactive content and player | |
US20200104030A1 (en) | User interface elements for content selection in 360 video narrative presentations | |
de Lima et al. | Video-based interactive storytelling using real-time video compositing techniques | |
CN114630057B (zh) | 确定特效视频的方法、装置、电子设备及存储介质 | |
US11430158B2 (en) | Intelligent real-time multiple-user augmented reality content management and data analytics system | |
CN114286154A (zh) | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 | |
US20230030502A1 (en) | Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product | |
WO2020234939A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20200028830A (ko) | 실시간 cg 영상 방송 서비스 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200110 |