CN110708595A - 基于人工智能的交互视频生成方法、装置、设备及介质 - Google Patents

基于人工智能的交互视频生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN110708595A
CN110708595A CN201910920370.XA CN201910920370A CN110708595A CN 110708595 A CN110708595 A CN 110708595A CN 201910920370 A CN201910920370 A CN 201910920370A CN 110708595 A CN110708595 A CN 110708595A
Authority
CN
China
Prior art keywords
user
video
information
implant
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910920370.XA
Other languages
English (en)
Inventor
林云帆
蒋诗敏
林龙
符志成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910920370.XA priority Critical patent/CN110708595A/zh
Publication of CN110708595A publication Critical patent/CN110708595A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于人工智能的交互视频生成方法、装置、设备及可读介质,所述方法包括:监听语音采集装置和摄像装置和用户相关联的震动传感装置和用户所佩戴的脉搏传感装置中的至少一种获取用户输入的交互参数;基于所述交互参数提取用户输入的特征信息或者交互变量;分析所述特征信息或者交互变量、并结合用户信息输出反馈值;基由用户正在观看的基础视频和所述反馈值生成交互视频;能够满足交互视频对多选项或用户个性化视频的需求,提高了交互视频的互动性,且改善了交互视频的用户体验。

Description

基于人工智能的交互视频生成方法、装置、设备及介质
技术领域
本发明涉及交互技术领域,尤其涉及一种基于人工智能的交互视频生成方法及其应用的生成装置、设备及可读介质。
背景技术
随着宽带接入速度的提升和多媒体播放技术的成熟,交互式视频越来越多地出现在荧屏上,为人们的生活增添了乐趣。
交互式视频通常通过各种技术手段,将交互体验融入到线性的视频中。交互视频中通常选项不会太多不然准备的视频数据量是几何级的增长,因此使得交互视频的互动性受到限制,用户体验不好。另外,交互视频中某些画面与用户背景信息相关,相当于每个用户看到的交互视频都是其用户信息、用户观看过程中选择多重条件叠加组合,最终一个交互视频需要提前准备的视频成几何倍,从而造成服务器存储负载过大,降低服务器性能。
综上,由于受到当前视频数据量增长的限制,使得当前的交互视频中通常选项单一,导致其互动性受限,用户体验不好。
发明内容
有鉴于此,本发明提供了一种基于人工智能的交互视频生成方法、生成装置、设备及可读介质,用于解决现有技术中因交互视频交互选项单一,导致互动性受到限制,用户体验不好的问题。
本发明采用下述技术方案:
本发明提供一种基于人工智能的交互视频生成方法,包括:
监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、以及环境信息中的至少一种。
优选地,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
优选地,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频,
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
本发明还提供一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以下步骤:
监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、以及环境信息中的至少一种。
本发明还提供一种基于人工智能的交互视频生成装置,包括:
监听模块,监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、以及环境信息中的至少一种。
优选地,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
优选地,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
本发明还提供一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备执行权利以下步骤:
监听语音采集装置和摄像装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、以及环境信息中的至少一种。
本发明采用的上述至少一个技术方案能够达到以下有益效果:本申请所述的技术方案,采用动态生成时将植入物品动态植入到视频中,不会造成视频的几何级增长,可以满足交互视频对多选项或用户个性化视频的需求,提高了交互视频的互动性,且改善了交互视频的用户体验。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本发明一实施例中基于人工智能的交互视频生成方法的流程图;
图2是本发明一实施例中基于人工智能的交互视频生成装置的结构示意图。
具体实施方式
为使本发明申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
本说明书一实施例提供了一种基于人工智能的交互视频生成方法、装置、设备及可读介质,以解决现有技术因交互视频因需要多个选项与用户进行互动,导致其视频数据量激增的问题。
图1为本说明书实施例提供的一种基于人工智能的交互视频生成方法的流程图,该方法如下所示。包括:
步骤S101:监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
其中,所述所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、或环境信息中的至少一种。
本说明书实施例中,可通过配合设于终端设备的摄像头或麦克风或其他外置摄像头或麦克风,采集相关的用户信息作为输入。例:人脸识别使用场景下:如剧中主角正闷闷不乐,需要观众逗他开心或陪着他一起伤心,通过人脸识别判断用户现在是笑脸还是悲伤的表情值,来直接影响交互变量V,改变剧中主角的心情走向,陪着笑,主角也会得到安慰跟着开心起来。陪着悲伤,主角感到有观众的陪伴情绪慢慢的缓和。
又如,在人脸融合使用场景下:用户可以录制一组脸部表情的视频,通过终端上传,通过人脸融合服务的运算处理,将观众人脸抠出合成到指定视频的某角色身上。合成成功后,将改变交互变量V值,代表用户有进行某角色”饰演“。在观看互动视频的时候,观众可以看到自己”饰演“的某角色在视频中,增加用户新奇的互动体验感。
再如:可采集当前观众的语音,调用基于深度学习的语音识别,识别用户的讲话内容进行输入。通过一个基于深度学习的音节、音律、音调分析系统,根据语音的频率、音节、波形特征构建的语音情绪识别系统,分析用户当前的情绪,其喜怒哀乐,作为观众情绪变量输入。上述的深度学习模型,通过带标签的语音片段进行有监督学习训练得到。应用场景:互动剧中响应用户对剧中人员进行言语鼓励或模拟对话的效果。或根据用户当前的情绪,接下来将播放不同的剧情。
又如:还可采集当前观众的表情或人脸特征。基于人脸识别,比对观众与VIP库中人脸,识别观众的VIP身份及获取相应的注册信息。基于人脸的深度学习模型,分析采集到的观众人脸,分析观众的观影时间、观影年龄、男女比例、对当前画面的喜怒哀乐,并通过特定算法运算抽离出观众画像,并把采集到的数据汇入数据库。交互视频中的默认选项也会根据观众画像数据的不同而改变,不同观众播放不同的剧情。
再如,根据用户画像(用户个人背景信息)或交互过程中的喜好,交互视频中的植入广告物,也会不同。如:偏好喜欢A明星的用户,系统会根据其用户画像,合成A明星代言的商品或品牌的视频片段,整合到原视频中,用户所观看到的交互视频中场景的物体或场景中出现的品牌,多数是A明星代言的。或者喜欢运动的用户,看到的视频中场景的摆设物,多数是运动类的产品。
步骤S102:基于所述交互参数提取用户输入的特征信息或者交互变量;
本说明书实施例中,可通过本地服务器对交互组件获取的交互参数进行处理,过滤并识别用户的输入,并转化成特征信息或交互变量,作为输入数据。
所述特征信息,包括由观众的人脸、情绪、语音或者手势或震动传感或脉搏传感或环境信息(时间、地点)等特征。如:通过人脸识别判断用户现在是笑脸还是悲伤的表情值。
交互变量如观众情绪变量等。
步骤S103:分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
本说明书实施例中,分析所述特征信息或者交互变量、并结合用户信息及预设参数输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
具体地,数据库存储交互视频的交互变量V及用户信息及预设的参数,通过Kafla收集用户输入操作日志,并通过Spark Streaming+SQL实时数据流进行处理分析,通过数据模型结合交互变量V与用户画像进行决策,输出反馈值,影响后续剧情、广告内容等。这里提到的预设的参数是指,例如用户M喜欢明星张某,那可以通过既定公式及参数进行计算得到用户M也有例如90%的概率喜欢明星谢某,而喜欢另一明星陈某的概率可能就只有10%,所以后续剧情播出的是包含明星张某和明星谢某一起时的片段,符合公众的视频口味,增强用户体验感。
步骤S104:基由用户正在观看的基础视频和所述反馈值生成交互视频;
本说明书实施例中,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
具体地,在拍摄或生成视频时已选定一条基础视频,系统再结合观众的选项,可实时动态生成一条供用户观看的新的视频流。同一条基础视频在生成时,需要生成2条视频,第一条是完全没有植入物体时拍摄或生成的原始视频,第2条是有一个标定物放入植入物所在的位置,用同样的方式及镜头拍摄或生成的标定视频。标定物可以是一个绿色或纯色的圆柱,大小比植入物稍大一些。同时,我们在绿布或蓝布技术拍摄或生成多个植入物的视频,视频的镜头走动方式及镜头参数、灯光需与标定视频及原始视频中的一样。通过勾像算法勾截出只有植入物的视频,该视频非植入物的部分均为透明背景。
需要实时合成视频时,系统调用需要合成的植入物的视频,把植入物与标定物的位置进行匹配,获得植入物视频所应在的标定视频画面中的x,y位置,同时,两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,植入物视频中的非重叠位置的像素的透明度设为0。然后,把透明度设置好的植入物视频叠加到原始视频的上面,层级比原始视频更高(更上层)。上述方式也适用于植入物并非真实拍摄或画出,而是三维建模软件中建出的三维物体。
图2为本说明书实施例提供的一种交互视频的生成装置的结构示意图,该装置如下所示,包括:
监听模块,监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、或环境信息中的至少一种。所述用户生理状态信息包括用户的心跳、脉搏等信息;所述环境信息包括时间、地点等信息。
本说明书实施例中,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
本说明书实施例中,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
本说明书实施例还提供一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以下步骤:
监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、或环境信息中的至少一种。
本说明书实施例还提供一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备执行以下步骤:
监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、或环境信息中的至少一种。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (8)

1.一种基于人工智能的交互视频生成方法,其特征在于,包括:
监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
基于所述交互参数提取用户输入的特征信息或者交互变量;
分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
基由用户正在观看的基础视频和所述反馈值,生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、环境信息中的至少一种。
2.根据权利要求1所述的基于人工智能的交互视频生成方法,其特征在于,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,输出反馈值。
3.根据权利要求1所述的基于人工智能的交互视频生成方法,其特征在于,基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频,
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
4.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现权利要求1至3中任一项所述的方法。
5.一种基于人工智能的交互视频生成装置,其特征在于,包括:
监听模块,监听语音采集装置、摄像装置、震动传感装置、脉搏传感装置以及环境信息采集装置中的至少一种获取用户输入的交互参数;
提取模块,基于所述交互参数提取用户输入的特征信息或者交互变量;
分析模块,分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值;
生成模块,基由用户正在观看的基础视频和所述反馈值生成交互视频;
其中,所述交互参数包括人脸、手势、语音、震感信息、用户生理状态信息、或环境信息中的至少一种。
6.根据权利要求5所述的基于人工智能的交互视频生成装置,其特征在于,所述分析模块分析所述特征信息或者交互变量、并结合用户信息及预设参数,输出反馈值,包括:
调用用户输入操作日志,并根据特征信息或交互变量、以及用户信息及预设参数,从而输出反馈值。
7.根据权利要求5所述的基于人工智能的交互视频生成装置,其特征在于,所述生成模块基由用户正在观看的基础视频和所述反馈值生成交互视频,包括:
调用需要合成的植入物视频;
把植入物与标定物的位置进行匹配,获得植入物视频在标定视频画面中的x,y位置;
两视频对齐后,通过标定物与植入物之间的重叠位置,计算出植入物与环境的遮挡关系,将植入物视频中的非重叠位置的像素的透明度设为0,并以此对画面中的所有像素点逐个进行运算;
把透明度设置好的植入物视频叠加到原始视频的上面。
8.一种用于在用户设备端信息处理的设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备执行权利要求1至3中任一项所述的方法。
CN201910920370.XA 2019-09-26 2019-09-26 基于人工智能的交互视频生成方法、装置、设备及介质 Pending CN110708595A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910920370.XA CN110708595A (zh) 2019-09-26 2019-09-26 基于人工智能的交互视频生成方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910920370.XA CN110708595A (zh) 2019-09-26 2019-09-26 基于人工智能的交互视频生成方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN110708595A true CN110708595A (zh) 2020-01-17

Family

ID=69197682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910920370.XA Pending CN110708595A (zh) 2019-09-26 2019-09-26 基于人工智能的交互视频生成方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN110708595A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130094830A1 (en) * 2011-10-17 2013-04-18 Microsoft Corporation Interactive video program providing linear viewing experience
CN104376589A (zh) * 2014-12-04 2015-02-25 青岛华通国有资本运营(集团)有限责任公司 一种替换影视剧人物的方法
CN106096062A (zh) * 2016-07-15 2016-11-09 乐视控股(北京)有限公司 视频交互方法及装置
WO2017072595A1 (en) * 2015-10-29 2017-05-04 Screemo Ltd. System, device, and method for generating campaigns between ip-connected devices and for dynamic modification thereof using machine learning
CN107801101A (zh) * 2016-09-02 2018-03-13 索尼公司 用于优化和高效的交互式体验的系统和方法
CN108124187A (zh) * 2017-11-24 2018-06-05 互影科技(北京)有限公司 交互视频的生成方法及装置
CN109240564A (zh) * 2018-10-12 2019-01-18 武汉辽疆科技有限公司 人工智能实现交互式多剧情动画分支的装置及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130094830A1 (en) * 2011-10-17 2013-04-18 Microsoft Corporation Interactive video program providing linear viewing experience
CN104376589A (zh) * 2014-12-04 2015-02-25 青岛华通国有资本运营(集团)有限责任公司 一种替换影视剧人物的方法
WO2017072595A1 (en) * 2015-10-29 2017-05-04 Screemo Ltd. System, device, and method for generating campaigns between ip-connected devices and for dynamic modification thereof using machine learning
CN106096062A (zh) * 2016-07-15 2016-11-09 乐视控股(北京)有限公司 视频交互方法及装置
CN107801101A (zh) * 2016-09-02 2018-03-13 索尼公司 用于优化和高效的交互式体验的系统和方法
CN108124187A (zh) * 2017-11-24 2018-06-05 互影科技(北京)有限公司 交互视频的生成方法及装置
CN109240564A (zh) * 2018-10-12 2019-01-18 武汉辽疆科技有限公司 人工智能实现交互式多剧情动画分支的装置及方法

Similar Documents

Publication Publication Date Title
CN110677707A (zh) 交互视频的生成方法、生成装置、设备及可读介质
US9554188B2 (en) Shock block
EP3901785A1 (en) Content filtering in media playing devices
CN102209184B (zh) 电子装置、再现控制系统、再现控制方法
CN107645655B (zh) 使用与人关联的表现数据使其在视频中表演的系统和方法
CN109257645B (zh) 视频封面生成方法及装置
US10541000B1 (en) User input-based video summarization
CN111654715B (zh) 直播的视频处理方法、装置、电子设备及存储介质
US20210165481A1 (en) Method and system of interactive storytelling with probability-based personalized views
WO2019169979A1 (zh) 一种影视作品的制作方法、装置及设备
US20170242833A1 (en) Systems and Methods to Generate Comic Books or Graphic Novels from Videos
CN108521589A (zh) 视频处理方法和装置
de Lima et al. Video-based interactive storytelling using real-time video compositing techniques
KR101569929B1 (ko) 시청각 콘텐트의 인지 복잡도를 뷰어 관심 레벨로 조정하기 위한 장치 및 방법
CN114630057A (zh) 确定特效视频的方法、装置、电子设备及存储介质
CN114286154A (zh) 多媒体文件的字幕处理方法、装置、电子设备及存储介质
CN110647780A (zh) 一种数据处理方法、系统
CN110324702B (zh) 视频播放过程中的信息推送方法和装置
US20230030502A1 (en) Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product
CN112995530A (zh) 视频的生成方法、装置及设备
CN110708595A (zh) 基于人工智能的交互视频生成方法、装置、设备及介质
US11461948B2 (en) System and method for voice driven lip syncing and head reenactment
CN114035686B (zh) 融合触觉的多模态微动效广告情境构建方法
JP7466087B2 (ja) 推定装置、推定方法、及び、推定システム
CN106060394B (zh) 一种拍照方法、装置和终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200117