CN110750161A - 一种交互系统、方法、移动设备及计算机可读介质 - Google Patents
一种交互系统、方法、移动设备及计算机可读介质 Download PDFInfo
- Publication number
- CN110750161A CN110750161A CN201911025732.5A CN201911025732A CN110750161A CN 110750161 A CN110750161 A CN 110750161A CN 201911025732 A CN201911025732 A CN 201911025732A CN 110750161 A CN110750161 A CN 110750161A
- Authority
- CN
- China
- Prior art keywords
- module
- multimedia content
- interactive
- playing
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 216
- 238000000034 method Methods 0.000 title claims description 34
- 230000003993 interaction Effects 0.000 claims abstract description 265
- 238000004519 manufacturing process Methods 0.000 claims abstract description 55
- 239000000463 material Substances 0.000 claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 238000004088 simulation Methods 0.000 claims description 51
- 230000014509 gene expression Effects 0.000 claims description 50
- 210000001747 pupil Anatomy 0.000 claims description 23
- 238000006073 displacement reaction Methods 0.000 claims description 17
- 230000008921 facial expression Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000002513 implantation Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 2
- 230000008676 import Effects 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 39
- 230000009471 action Effects 0.000 description 34
- 238000007664 blowing Methods 0.000 description 30
- 230000000694 effects Effects 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 22
- 230000001960 triggered effect Effects 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000007654 immersion Methods 0.000 description 4
- 239000004576 sand Substances 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 125000001475 halogen functional group Chemical group 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000003826 tablet Substances 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种交互系统,其特征在于,包括:制作平台;若干交互式模块;组合编辑模块;所述制作平台用于制作并输出多媒体内容;所述交互式模块包括:素材播放模块、信息采集模块、人机互动模块;其中,所述素材播放模块,用于植入多媒体内容,并播放所述多媒体内容;所述信息采集模块,用于采集实时的用户信息;所述人机互动模块,用于根据所述用户信息与所述多媒体内容进行互动;所述组合编辑模块用于编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
Description
技术领域
本发明涉及交互技术领域,特别是涉及一种交互系统、方法、移动设备及计算机可读介质。
背景技术
随着智能计算机终端的普及、计算机图形图像的能力提升、人机交互技术的深入发展、网络通信传输的高效连接、人工智能技术的更新换代为更多的文化娱乐形式提供了基础,影视、游戏、社交等领域得到了前所未有的发展。电影电视除了在电影院和电视机上观看,也可以在手机、电脑上播放,产业规模也随之扩大,催生了网络大电影、网络剧、短视频等多种形态。现有的媒体通过移动终端、计算机等多媒体播放设备直接进行播放,用户被动接收,随着移动终端、计算机等多媒体设备的功能的更新,以及不同用户的兴趣也更加多样化,如今人们不再满足于只能被动观看,不能主动参与的传统影视节目,而是期望具有可以即时交互的可能性。尤其是,目前观看影视的用户具有各自不同的喜好,影视节目已经不再局限于只有一种支线和结局,开放式的影视剧情发展受到越来越多的欢迎,而如何根据用户的喜好进行情节的选择和反馈,进行更加深入的交互以使影视根据用户互动符合用户口味也是需要解决的问题。目前网络大电影、网络剧、短视频等新兴的媒体形式,已经不再局限于一种结局,开放式结局和多线情节成为新媒体形式的显著特点,但是在现有技术中,对于开放式结局只能通过用户点选等简单的互动方式播放,缺乏用户和媒体的深入交互。如何使用户在观看时深入进行交互满足用户需求是目前整个行业面临的问题。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种能够给用户带来较强沉浸感,可实现用户意图的交互系统、方法、移动设备以及计算机可读介质。
根据本发明的一个方面,提供了一种交互系统,该系统包括:制作平台;若干交互式模块;组合编辑模块;
所述制作平台用于制作并输出多媒体内容;
所述交互式模块包括:素材播放模块、信息采集模块、人机互动模块;
所述素材播放模块,植入多媒体内容,并播放所述多媒体内容;
所述信息采集模块,采集实时的用户信息;
所述人机互动模块,根据所述用户信息与所述多媒体内容进行互动;
所述组合编辑模块用于编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
所述多媒体内容包括视频和/或音频、模型动画。
进一步地,所述素材播放模块播放所述多媒体内容,所述多媒体内容播放到设定节点时,调用所述人机互动模块,所述信息采集模块实时采集用户的视角、面部表情、瞳孔状态等信息,所述人机互动模块根据所述用户信息进行用户与所述多媒体内容的互动,所述组合编辑模块按照制片计划,进行交互式多媒体内容的判断选择与输出。
进一步地,所述制作平台还具有存储模块,存储所述视频和/或音频、模型动画。
进一步地,所述制作平台还具有预览模块,预览所述组合编辑模块编辑好的多媒体内容。
进一步地,所述组合编辑模块将交互式多媒体内容输出至不同的内容平台。
进一步地,所述组合编辑模块,用于编辑整合素材播放模块的多媒体内容与人机互动模块的人机交互信息、输出控制交互式多媒体内容播放逻辑的文件。
进一步地,所述组合编辑模块,用于收集和分析人机互动模块的人机交互信息路径,并依据所述路径判断交互多媒体内容剧情走向。
进一步地,所述采集模块采集用户信息,当所述用户信息满足触发条件时,根据所触发条件播放相应的多媒体内容。
进一步地,所述采集模块包括用于采集包含用户人脸的图像的摄像头,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块控制所述制作平台的虚拟摄像机的指向与位移跟随所述图像中人脸的指向与位移,所述智能仿真播放模块控制所述制作平台中人脸模型的表情内容跟随所述图像中人脸的表情内容变化,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
优选地,所述采集用户人脸的图像,通过捕捉人脸位置、角度信息调整屏幕显示角度;
优选地,所述采集用户人脸图像,并进行表情识别,并根据表情识别进行交互多媒体内容剧情的切换。
优选地,所述根据表情识别进行交互多媒体内容剧情的切换,具体地,当前用户表情判断为微笑,则优先选择欢乐结局的交互多媒体内容剧情;当前用户表情判断为平静,则优先选择突变结局的交互多媒体内容剧情。
优选地,所述采集用户人脸图像,同时进行瞳孔识别。根据瞳孔视线进行交互多媒体内容剧情的切换。
具体地,首先确定瞳孔的固定视线方向,并确定固定位置;然后,根据瞳孔视线的注视时间是否超过阈值,确定是否进行当前位置处交互多媒体内容情节的选择和切换。所述阈值根据用户设置。
上述优选地,所述表情识别和瞳孔识别采用基于人工智能的识别方法。
进一步地,所述采集模块包括用于采集用户语音信息的麦克风,所述人机互动模块还包括语音互动模块,所述语音互动模块用于获取用户的语音信息,并在所述语音信息与预设语音相匹配时,触发设定操作。
进一步地,所述采集模块包括用于采集包含用户人脸的图像的摄像头,所述人机互动模块还包括AI机器人智能互动模块,所述AI机器人智能互动模块控制所述多媒体内容中设定的虚拟人物根据用户的语音、表情、操作等信息做出相关的动作。
进一步地,所述人机互动模块包括AR识别模块以及用于采集现实画面或识别码的装置,所述AR识别模块用于判断所述现实画面/识别码是否与设定画面/识别码相匹配,当所述现实画面/识别码与所述设定画面/识别码相匹配时,控制屏幕显示所述现实画面。
优选地,所述现实画面/识别码与设定画面/识别码匹配,包括:当切换到预设滤镜时,出现预设的目标,并且显示三维立体效果或显示虚拟图像与现实画面叠加的效果。
优选地,所述出现预设的目标,并伴随目标动画,并且所述目标动画用于展示包括但不限于:支线情节和/或模型切换、指定视频出现。
进一步地,所述人机互动模块将所述显示画面与预设的多媒体内容相结合,所述多媒体内容包括:视频、动画、三维模型、图片和音频等。
进一步地,所述人机互动模块还包括定位模块,用于对目标物品进行定位,具体地:为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;所述多媒体内容在播放的过程中,播放到设定节点,进行目标物品的识别和定位;通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果,依据所述交互结果进行交互多媒体内容剧情的切换。
优选地,所述目标物品为卡片、图片或图卡等多媒体内容相关的道具。
优选地,所述现实位置,可以是:GPS位置;固定位置,例如影院座位位置等;
进一步地,若现实位置是固定位置,如影院座位位置,则在数据库中预存影院中每一座位的实际位置,在目标物品上携带有唯一识别码及影院座位号,将目标物品上的唯一识别码、影院座位号与数据库中预存的所述每一座位的实际位置关联,通过所述关联关系实现对目标物品的定位。
所述定位步骤包括:根据情节的设定节点,确定需要定位的目标物品;通过特殊效果进行目标物品现实位置的定位显示。
所述特殊效果包括:灯光、灯束、声音、影像等。
优选地,所述交互结果包括:用户展示所述目标物品以实现画面匹配或用户不展示所述目标物品或用户展示的目标物品非预设的目标物品。
优选地,所述交互结果包括:用户携带所述目标物品以实现画面匹配或用户未携带所述目标物品或用户所携带的目标物品非预设的目标物品。
进一步地,所述人机互动模块包括控制模型触发模块,当所述控制模型触发模块被调用时,所述控制模型触发模块控制屏幕显示与多媒体内容相关的三维模型,并获取所述用户信息,当所述用户信息满足第一预设条件时,触发所述控制模型触发子模块执行动作,所述控制模型触发子模块执行的动作包括视频或动画的播放、三维模型或图片的显示或音频的播放。
进一步地,所述人机互动模块还包括多视角切换模块,所述多视角切换模块根据所述用户信息确定用户选择的视角,并播放在用户选择的视角下的多媒体内容。
进一步地,所述人机互动模块包括多支线情节选择模块,所述多支线情节选择模块根据所述用户信息确定并播放用户选择的预输出多媒体内容。
进一步地,所述人机互动模块包括智能情节匹配模块,用于根据用户在多支线情节选择模块中选择的预输出多媒体内容,确定当前情节走向;或用于根据用户的面部表情,确定当前的情节走向;或用于捕捉用户的瞳孔视线的指向,确定当前的情节走向。
进一步地,所述人机互动模块还包括无线设备交互模块,当所述无线设备交互模块被调用时,无线设备执行与所述多媒体内容情节相关的动作。
根据本发明的另一个方面,提供了一种交互方法,所述交互方法包括:制作平台制作并输出多媒体内容;素材播放模块植入多媒体内容,并播放所述多媒体内容;信息采集模块采集实时的用户信息;人机互动模块根据所述用户信息与所述多媒体内容进行互动;组合编辑模块编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
所述多媒体内容包括视频和/或音频、模型动画。
进一步地,所述素材播放模块播放所述多媒体内容,所述多媒体内容播放到设定节点时,调用所述人机互动模块,所述信息采集模块实时采集用户的视角、面部表情、瞳孔状态等信息,所述人机互动模块根据所述用户信息进行用户与所述多媒体内容的互动,所述组合编辑模块按照制片计划,进行交互式多媒体内容的判断选择与输出。
进一步地,所述制作平台还具有存储模块,存储所述视频和/或音频、模型动画。
进一步地,所述制作平台还具有预览模块,预览所述组合编辑模块编辑好的多媒体内容。
进一步地,所述组合编辑模块将交互式多媒体内容输出至不同的内容平台。
进一步地,所述组合编辑模块编辑整合素材播放模块的多媒体内容与人机互动模块的人机交互信息、输出控制交互式多媒体内容播放逻辑的文件。
进一步地,所述组合编辑模块收集和分析人机互动模块的人机交互信息路径,并依据所述路径判断交互多媒体内容情节。
进一步地,所述采集模块实时采集用户信息,当所述用户信息满足触发条件时,根据所触发条件播放相应的多媒体内容。
进一步地,所述采集模块包括用于采集包含用户人脸的图像的摄像头,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块控制所述制作平台的虚拟摄像机的指向与位移跟随所述图像中人脸的指向与位移,所述智能仿真播放模块控制所述制作平台中人脸模型的表情内容跟随所述图像中人脸的表情内容变化,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
优选地,所述采集用户人脸的图像,通过捕捉人脸位置、角度信息调整屏幕显示角度;
优选地,所述采集用户人脸图像,并进行表情识别,并根据表情识别进行预输出多媒体内容的切换。
优选地,所述根据表情识别进行预输出多媒体内容的切换,具体地,当前用户表情判断为微笑,则优先选择欢乐结局的预输出多媒体内容;当前用户表情判断为平静,则优先选择突变结局的预输出多媒体内容。
优选地,所述采集用户人脸图像,同时进行瞳孔识别,根据瞳孔视线进行预输出多媒体内容的切换。
具体地,首先确定瞳孔的固定视线方向,并确定固定位置;然后,根据瞳孔视线的注视时间是否超过阈值,确定是否进行当前位置处预输出多媒体内容的选择和切换。所述阈值根据用户设置。
上述优选地,所述表情识别和瞳孔识别采用基于人工智能的识别方法。
进一步地,所述采集模块包括用于采集用户语音信息的麦克风,所述人机互动模块还包括语音互动模块,所述语音互动模块获取用户的语音信息,并在所述语音信息与预设语音相匹配时,触发设定操作。
进一步地,所述采集模块包括用于采集包含用户人脸的图像的摄像头,所述人机互动模块还包括AI机器人智能互动模块,所述AI机器人智能互动模块控制所述多媒体内容中设定的虚拟人物根据用户的语音、表情、操作等信息做出相关的动作。
进一步地,所述人机互动模块包括AR识别模块以及用于采集现实画面或识别码的装置,所述AR识别模块用于判断所述现实画面/识别码是否与设定画面/识别码相匹配,当所述现实画面/识别码与所述设定画面/识别码相匹配时,控制屏幕显示所述现实画面。
优选地,所述现实画面/识别码与设定画面/识别码匹配,包括:当切换到预设滤镜时,出现预设的目标,并且显示三维立体效果或显示虚拟图像与现实画面叠加的效果。
优选地,所述出现预设的目标,并伴随目标动画,并且所述目标动画用于展示包括但不限于:支线情节和/或模型切换、指定视频出现。
进一步地,所述人机互动模块将所述显示画面与预设的多媒体内容相结合,所述多媒体内容包括:视频、动画、三维模型、图片和音频等。
进一步地,所述人机互动模块还包括定位模块,用于对目标物品进行定位,具体地:为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;所述多媒体内容在播放的过程中,播放到设定节点,进行目标物品的识别和定位;通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果,依据所述交互结果进行预输出多媒体内容的切换。
优选地,所述目标物品为卡片、图片或图卡等多媒体内容相关的道具。
优选地,所述现实位置,可以是:GPS位置;固定位置,例如影院座位位置等;
进一步地,若现实位置是固定位置,如影院座位位置,则在数据库中预存影院中每一座位的实际位置,在目标物品上携带有唯一识别码及影院座位号,将目标物品上的唯一识别码、影院座位号与数据库中预存的所述每一座位的实际位置关联,通过所述关联关系实现对目标物品的定位。
所述定位步骤包括:根据情节的设定节点,确定需要定位的目标物品;通过特殊效果进行目标物品现实位置的定位显示。
所述特殊效果包括:灯光、灯束、声音、影像等。
优选地,所述交互结果包括:用户展示所述目标物品以实现画面匹配或用户不展示所述目标物品或用户展示的目标物品非预设的目标物品。
优选地,所述交互结果包括:用户携带所述目标物品以实现画面匹配或用户未携带所述目标物品或用户所携带的目标物品非预设的目标物品。
进一步地,所述人机互动模块包括有控制模型触发模块,当所述控制模型触发模块被调用时,所述控制模型触发模块控制屏幕显示与多媒体内容相关的三维模型,并获取所述用户信息,当所述用户信息满足第一预设条件时,触发所述控制模型触发子模块执行动作,所述控制模型触发子模块执行的动作包括视频或动画的播放、三维模型或图片的显示或音频的播放。
进一步地,所述人机互动模块还包括多视角切换模块,所述多视角切换模块根据所述用户信息确定用户选择的视角,并播放在用户选择的视角下的多媒体内容。
进一步地,所述人机互动模块包括多支线情节选择模块,所述多支线情节选择模块根据所述用户信息确定并播放用户选择的交互多媒体内容。
进一步地,所述人机互动模块包括智能情节匹配模块,根据用户在多支线情节选择模块中选择的预输出多媒体内容,确定当前情节走向;或用于根据用户的面部表情,确定当前的情节走向;或用于捕捉用户的瞳孔视线的指向,确定当前的情节走向。
进一步地,所述人机互动模块还包括无线设备交互模块,当所述无线设备交互模块被调用时,无线设备执行与所述多媒体内容情节相关的动作。
根据本发明的另一个方面,还提供了一种交互方法,所述交互方法包括:为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;所述多媒体内容在播放的过程中,播放到设定节点,进行目标物品的识别和定位;通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果,依据所述交互结果进行交互多媒体内容的切换。
优选地,所述目标物品为卡片、图片或图卡等多媒体内容相关的道具。
优选地,所述现实位置,可以是:GPS位置;固定位置,例如影院座位位置等;
进一步地,若现实位置是固定位置,如影院座位位置,则在数据库中预存影院中每一座位的实际位置,在目标物品上携带有唯一识别码及影院座位号,将目标物品上的唯一识别码、影院座位号与数据库中预存的所述每一座位的实际位置关联,通过所述关联关系实现对目标物品的定位。
所述定位步骤包括:根据情节的设定节点,确定需要定位的目标物品;通过特殊效果进行目标物品现实位置的定位显示。
所述特殊效果包括:灯光、灯束、声音、影像等。
优选地,所述交互结果包括:用户展示所述目标物品或用户不展示所述目标物品或用户展示目标物品非目标物品。
优选地,所述交互结果包括:用户携带所述目标物品或用户未携带所述目标物品或用户所携带目标物品非指定目标物品。
根据本发明的另一个方面,还提供了一种交互装置,所述交互装置包括:配发模块,用于为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;识别定位模块,用于在所述多媒体内容的播放过程中,播放到设定节点,进行目标物品的识别和定位;指引模块,用于通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果;判断输出模块,用于依据所述交互结果进行交互多媒体内容的切换。
优选地,所述目标物品为卡片、图片或图卡等多媒体内容相关的道具。
优选地,所述现实位置,可以是:GPS位置;固定位置,例如影院座位位置等;
进一步地,若现实位置是固定位置,如影院座位位置,则在数据库中预存影院中每一座位的实际位置,在目标物品上携带有唯一识别码及影院座位号,将目标物品上的唯一识别码、影院座位号与数据库中预存的所述每一座位的实际位置关联,通过所述关联关系实现对目标物品的定位。
所述识别定位模块用于:根据情节的设定节点,确定需要定位的目标物品;通过特殊效果进行目标物品现实位置的定位显示。
所述特殊效果包括:灯光、灯束、声音、影像等。
优选地,所述交互结果包括:用户展示所述目标物品或用户不展示所述目标物品或用户展示目标物品非目标物品。
优选地,所述交互结果包括:用户携带所述目标物品或用户未携带所述目标物品或用户所携带目标物品非指定目标物品。
根据本发明的另一个方面,还提供了一种交互影视的制作方法,包括以下步骤:
开启制作软件;
将各个独立插件导入制作软件中,完成多媒体内容的植入、信息采集和人机互动设置;
在制作软件中,通过组合编辑模块,调用人机互动模块节点、多媒体内容节点、判断节点、末端节点各节点程序,并在节点路径中链接上述需要的素材播放模块、人机互动模块、信息采集模块。
设置交互多媒体内容,判断是否需要设置交互多媒体内容的分支播放,若需要,则,添加判断节点,依据观众对人机互动模块所积累的路径来判断下一预输出多媒体内容;或添加随机判断节点,随机匹配下一预输出多媒体内容;
根据影片需求将链接好模块的节点进行编辑,串联各人机互动模块节点、多媒体内容节点、判断节点,并以上述末端节点收尾;
通过制作软件,选择适配的平台进行输出。
根据本发明的另一个方面,还提供了一种交互式影视的制作装置,包括以下模块:
开启模块,用于开启制作软件;
导入模块,用于将各个独立插件导入制作软件中,完成多媒体内容的植入、信息采集和人机互动设置;
组合编辑模块,用于调用人机互动模块节点、多媒体内容节点、判断节点、末端节点各节点程序,并在节点路径中链接上述需要的素材播放模块、人机互动模块、信息采集模块。
分支判断模块,用于设置分支播放,判断是否需要设置交互多媒体内容的分支播放,若需要,则,添加判断节点,依据观众对人机互动模块所积累的路径来判断下一预输出多媒体内容;或添加随机判断节点,随机匹配下一预输出多媒体内容;
串联模块,用于根据影片需求将链接好模块的节点进行编辑,串联各人机互动模块节点、多媒体内容节点、判断节点,并以上述末端节点收尾;
输出模块,用于通过制作软件,选择适配的平台进行输出。
根据本发明的另一个方面,还提供了一种移动终端设备,包括并且不仅限于智能手机、平板电脑、笔记本电脑等具备上述交互系统或可执行相应交互方法的设备。
进一步地,所述移动终端具备传感器,所述传感器包括但不限于摄像头、麦克风、重力感应传感器、GPS、蓝牙、陀螺仪、网络信息采集元件等。
优选地,所述移动终端采用陀螺仪,所述采集模块包括用于获取设备姿态的陀螺仪元件,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块根据陀螺仪元件确定的设备姿态控制所述多媒体内容的虚拟摄像机的指向和位移,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
根据本发明的另一个方面,还提供了一种用于移动终端设备的方法,包括:制作平台制作并输出多媒体内容;素材播放模块植入多媒体内容,并播放所述多媒体内容;信息采集模块采集实时的用户信息;人机互动模块根据所述用户信息与所述视频和/或音频、模型动画进行互动;组合编辑模块编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
进一步地,所述移动终端具备多种传感器,所述传感器包括但不限于摄像头、麦克风、重力感应传感器、GPS、蓝牙、陀螺仪、网络信息采集元件等。
优选地,所述移动终端具有陀螺仪,所述采集模块包括用于获取设备姿态的陀螺仪元件,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块根据陀螺仪元件确定的设备姿态控制所述多媒体内容的虚拟摄像机的指向和位移,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
该方法可在包括并且不仅限于在智能手机、平板电脑、笔记本电脑上执行上述交互系统或执行相应交互方法。
根据本发明的另一个方面,还提供了一种计算机可读介质,包括存储单元及存储于其中的计算机程序,所述计算机程序用于执行上述各方法。
本发明的有益效果在于:1.通过本发明的交互式影视系统,可以快速制作出符合需要的影视节目,满足用户需求。2.通过本发明的交互式影视系统,可以使用户与影视进行深入交互,沉浸感更强。3.通过本发明的交互式影视系统,通过对用户信息的采集,自动判断情节走向,满足用户喜好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例交互影视系统结构示意图;
图2为本发明实施例吹气互动模块效果图;
图3为本发明实施例交互系统结构框图;
图4a和图4b为本发明实施例交互方法流程图;
图5为本发明实施例交互制作系统结构示意图;
图6a、图6b和图6c为本发明实施例交互制作方法流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述根据本发明实施例的一种能够给用户带来较强沉浸感,可实现强交互效果的人机交互影视系统。
图1为本发明实施例交互系统示意图,如图1所示:该系统包括制作平台、若干交互式模块和组合编辑模块;
所述制作平台用于制作并输出多媒体内容;
所述交互式模块包括:素材播放模块、信息采集模块、人机互动模块;
所述素材播放模块,植入多媒体内容,并播放所述多媒体内容;
所述信息采集模块,采集实时的用户信息;
所述人机互动模块,根据所述用户信息与所述多媒体内容进行互动;
所述组合编辑模块用于编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
所述多媒体内容包括视频和/或音频、模型动画。
实施例一(制作人机互动模块):
用户可以根据需要制作不同的人机互动模块。将视频、模型动画、图片、音频等多媒体内容导入本软件,利用文件I/O模块进行资源管理,并在用户界面中进行所有的基本操作。
本软件的三维场景管理模块提供一个三维立体场景、环境球与虚拟摄像机。环境球可以模拟不同环境下的光照条件,实现不同的光影效果;虚拟摄像机可以记录下三维立体场景中的内容,并将内容显示在交互式电影中。
三维立体场景中,用户可以放入不同的多媒体内容,并根据自己的需求调用不同模块的功能。例如,在制作控制模型触发模块时,用户可根据需要调用材质模块调整需要的模型材质、贴图;调用渲染模块为模块添加粒子特效并加以渲染;调用动画模块,使模块中控制的模型附带上模型动画;调用光效模块为模块中的三维模型添加光影效果;调用音频音效模块,使模块在观众操作时有声音;调用物理模拟模块,使模块中的三维模型具备物理特性;调用多媒体内容播放模块,使模块在操作时可以播放多媒体内容。
根据用户交互式电影的剧情需要,在制作人机互动模块时,还可以调用语音识别模块,使人机互动模块能够识别观众说的话;调用多控制器功能模块,使人机互动模块具备多控制器同时操作一部交互式电影的功能;添加人工智能模块,使模块具备AI识别人脸、AI智能匹配剧情(根据观众的操作)、AI智能互动等功能。
用户在制作完成人机互动模块后可将其保存为一种可重复使用的资源对象,并可将此对象独立输出为插件便于文件资源的管理。
实施例二(制作数字交互式电影):
用户可以根据交互式电影的剧情编辑多媒体内容和人机互动模块资源,并根据需要输出不同操作平台(Android、IOS、PC等)的文件格式。
本软件已利用决策树模块为用户编写了组合编辑模块,即一个可视化的编辑面板,用户可在编辑面板中根据需要调出不同类型的节点,并在编辑面板中以树状图的形式串联。用户在处理多媒体内容的播放时需用视频节点,处理人机互动的环节时需用模块节点,处理预输出多媒体内容时需用分数判断节点判断交互多媒体内容情节走向,剧情完结时需用末端节点作为结束。处理编辑完成后,交互式电影会依据节点树状图的逻辑进行播放。
利用组合编辑模块编辑交互式电影的播放逻辑时,用户可调用多媒体内容播放模块让数字交互式电影播放多媒体内容;
在编辑好组合编辑模块的节点树逻辑关系后,用户可在预览模块中预览编辑好的数字交互式电影。预览模块为用户提供一个预览窗口,用户可利用预览窗口预览编辑好的交互式电影,便于用户修改与电影效果预览;预览窗口可根据交互式电影播放平台的显示比例调整预览窗口的比例。
在用户确认交互式电影编辑完成后,可调用编译输出模块,将数字交互式电影程序通过虚拟机将脚本代码编译为CIL(通用中间语言Common Intermediate Language),再利用虚拟机将CIL编译为目标平台的原生代码。从而使数字交互式电影可以输出到不同的平台上播放。
所述基于制作平台的“组合编辑模块”,包含树状存储结构与编辑界面,用于调用多媒体内容,编辑交互式电影的播放逻辑。其编辑界面为树状结构,树状存储结构使用editor相关方法和类库绘制窗口、用户界面,通过动态申请空间寄存了所有依赖节点。用户在处理多媒体内容的播放时需用视频节点,处理人机互动的环节时需用模块节点,处理交互多媒体内容剧情时需用分数判断节点,剧情完结时需用末端节点作为结束。
编辑完成后“组合编辑模块”将之序列化为特定格式的节点文件。节点文件为每个节点实例化对应窗口,窗口位置信息亦存储在节点文件中。组合编辑模块可依据所有人机互动模块所反馈的路径进行分析,并依据路径对交互式电影的交互多媒体内容情节选择进行判断,为观众决定剧情走向。使用制作平台的树状存储结构文件时,依照下述步骤进行使用:双击节点文件-》绘制编辑器窗口-》复制当前节点到缓存中进行编辑-》读取并载入缓存节点-》绘制节点窗口-》绘制完成-》用户输入-》输入判断-》实时存储到节点缓存-》保存节点-》封装文件。
可选的,所述人机互动模块包括AR识别模块以及用于采集现实画面的摄像头,所述AR识别模块用于判断所述现实画面是否与设定画面相匹配,当所述现实画面与所述设定画面相匹配时,控制观影屏幕显示所述现实画面,并将预设的AR识别子模块与所述现实画面结合,所述AR识别子模块包括视频、动画、三维模型、图片和音频。
所述AR识别模块通过调用多媒体内容设备的摄像头,获取当前的显示画面,并传入后台的处理单元对其进行分析和重构,识别当前识别图的特征点。之后进行匹配,当匹配到识别图与设定的图片一致时,AR识别子模块即被启用。同时,AR识别模块会根据多媒体内容设备的数据分析虚拟的AR识别子模块和真实场景的相对位置,用算法实现AR子模块与真实场景的坐标系的融合计算,并将结果反馈到屏幕上。
所述AR识别模块会利用采集模块采集观众的点击信息,从而确定观众选定的画面模式(例如紫外光灯画面、热源画面、正常画面)。并可将获取到的当前显示画面归一化灰度值,映射到HLS色彩空间,之后根据算法计算出不同画面模式需要的像素色,并根据像素色相分配色彩。
可选的,当所述AR识别子模块为视频或动画时,所述AR识别模块在所述观众信息满足触发条件时,播放所述视频或动画,当所述AR识别子模块为图片或三维模型时,所述AR识别模块在所述观众信息满足触发条件时,显示所述图片或三维模型,当所述AR识别子模块为音频时,所述AR识别模块在所述观众信息满足触发条件时,播放所述音频。
可选的,所述互动模块包括控制模型触发模块,当所述控制模型触发模块被调用时,所述控制模型触发模块控制多媒体内容屏幕显示与多媒体内容相关的三维模型,并获取所述观众信息,当所述观众信息满足第一预设条件时,触发所述控制模型触发子模块动作,所述控制模型触发子模块的动作包括视频或动画的播放、三维模型或图片的显示或音频的播放。
所述控制模型触发模块通过虚拟摄像机的射线检测触发点,当检测到触发点后由程序出发控制模型触发子模块的动作。所述所述控制模型触发模块均遵守设定好的物理模拟规则。所述物理模拟规则由制作平台依靠算法模拟重力、摩擦力等附加在三维世界的坐标系中,使三维模型之间产生碰撞。
可选的,所述采集模块包括麦克风,所述互动模块包括吹气互动模块,当所述吹气互动模块被调用时,所述吹气互动模块在所述麦克风采集到的信号达到第二预设条件时,触发所述吹气互动子模块动作,所述吹气互动子模块的动作包括视频或动画的播放、三维模型或音频的播放。
所述吹气互动模块通过开启麦克风获取音频,并持续对获取到的音频进行采样并判断音高。若音高未达到设定的标准,则继续重复获取音频,判断音高的步骤;若音高达到了设定的标准,则关闭麦克风并播放吹气互动子模块动作。
可选的,所述采集模块包括用于采集包含观众人脸的图像的摄像头,还包含用于获取设备姿态的陀螺仪元件,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块控制所述多媒体内容的虚拟摄像头的指向跟随所述图像中人脸的朝向。智能仿真播放模块通过调用摄像头,识别人脸的面部特征点,并进行分析,进而确定好观众的人脸位置,之后智能仿真播放模块会根据确定好的人脸位置通过四元数运算匹配观众虚拟摄像机的位置与角度。当观众人脸产生位移与旋转时,智能仿真播放模块会通过算法将人脸的位移与旋转换算成虚拟摄像头的位移与旋转,四元数运算匹配观众虚拟摄像机的运动。
智能仿真播放模块根据观众的点击信息控制多媒体内容的播放。智能仿真播放模块会事先设置好分段多媒体内容的播放顺序、时长与点击位置,通过采集模块,获取到观众的点击信息,点击的位置正确时,就播放当前顺序与设定好时长的多媒体内容。
智能仿真播放模块根据陀螺仪元件确定的设备姿态控制所述多媒体内容的虚拟摄像机的指向和位移。通过利用采集模块采集多媒体观影设备的陀螺仪元件数据,并利用算法对数据进行处理、计算,使多媒体内容设备的姿态信息匹配成虚拟摄像机的指向和位移动作。
智能仿真播放模块控制所述制作平台中人脸模型的表情内容跟随所述图像中人脸的表情内容变化。智能仿真播放模块通过调用摄像头,检测人脸的出现,捕捉人脸的二维数据,并通过算法标记人脸的主要特征,记录下人脸的表情,将之转化成数据流实时传输给多媒体设备。多媒体设备利用数据流获取人脸的面部表情与动作,若多媒体设备搭载有红外摄像头,则红外摄像头会投射肉眼不可见的光点组成的点阵,点阵在人脸上发生变化,使点阵成为有深度的立体图案,有红外摄像头进行读取,并将点阵的变化转换成表情数据反馈给多媒体设备,从而辅助多媒体设备获取人脸的面部表情与动作。多媒体设备获取人脸的面部表情与动作后,会将得到的数据通过算法反馈在三维模型上,使屏幕中的三维模型做出与观众表情一样的面部表情。
可选的,所述人机互动模块包括多视角切换模块,所述多视角切换模块根据所述观众信息确定观众选择的视角,并播放在观众选择的视角下的多媒体内容。
所述多视角切换模块通过采集模块获取观众的点击信息,并将点击信息数据化后反馈给多视角切换模块的虚拟摄像机,虚拟摄像机会根据相应的点击信息移动到适合的位置。每一个位置上都会有对应的多媒体内容。虚拟摄像机会持续发射射线,射线检测触发点,检测到触发点之后就会使屏幕上播放相对应的多视角切换子模块内容,多视角切换子模块内容包括模型动画、音频、视频。
可选的,所述人机互动模块包括多支线情节选择模块,所述多支线情节选择模块根据所述观众信息确定并播放观众选择的预输出多媒体内容。
所述多支线情节选择模块,应用于影院端时实例化每位观众,并为每位观众分配控制器,并将控制器ID传入多支线情节选择模块,由多支线情节选择模块记录每个控制器事件。观众通过操作控制器,决定自己的选择。多支线情节选择模块通过汇总当时连通主机的控制器的事件结果,依据多数机制的算法来确定并播放观众选择的预输出多媒体内容。
所述多支线情节选择模块,应用于个人端时,引导观众对多处点击区域进行点击选择,通过多媒体内容设备屏幕获取观众的点击信息,并对点击的位置进行判断,若点击的位置正确则根据观众所选择的信息确定并播放观众选择的预输出多媒体内容。
可选的,所述采集模块包括用于采集观众语音信息的麦克风,所述人机互动模块包括语音互动模块,所述语音互动模块用于获取观众的语音信息,并利用人工智能算法判断所述语音信息与预设语音是否匹配,若匹配则返回结果,并触发设定操作。
可选的,所述人机互动模块包括无线设备交互模块,当所述无线设备交互模块被调用时,无线设备执行与所述多媒体内容情节相关的动作。
所述无线设备交互模块控制多媒体内容设备作为主设备,发出带有命令信息的ISM频段到副设备。副设备接受到信号后将信号数据转化为可识别的数据,从而使副设备工作。
可选的,所述采集模块包括用于采集包含观众人脸的图像的摄像头,所述人机互动模块包括AI机器人智能互动模块,所述AI机器人智能互动模块控制所述多媒体内推中设定人物模仿所述图像中观众的表情。
所述AI机器人智能互动模块可依据多媒体内容设备采集模块(麦克风、摄像头)采集到的观众面部信息、语音信息进行识别并依据人工智能算法,将信息实时转化成三维模型的指令信息,AI机器人智能互动模块的三维模型接收到指令信息后会依据信息的不同做出不同的语音、动作、表情等互动。
可选的,所述采集模块包括用于采集包含观众瞳孔的图像的摄像头,所述人机互动模块包括智能情节匹配模块,用于根据观众在多支线情节选择模块中选择的预输出多媒体内容,确定当前情节走向;或用于根据观众的面部表情,确定当前的情节走向;或用于捕捉观众的瞳孔视线的指向,确定当前的情节走向。
所述智能情节匹配模块,可利用算法对采集模块采集的信息对观众在多支线情节选择模块中选择信息、观众的观影时的面部表情、观众的瞳孔视线进行深度学习,与数据库中的人类情绪信息比对,从而分析出观众观影时的情绪曲线与喜好(面部表情、瞳孔实现、选择信息每项可独立分析,亦可整合分析)。并利用算法和观众的情绪曲线为观众自动设定后续交互式电影的预输出多媒体内容。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供的交互影视系统包括制作平台、基于“制作平台”的人机互动模块、基于“制作平台”的多媒体内容以及用于采集观众信息的采集模块,所述多媒体内容播放到设定节点时调用所述人机互动模块,所述人机互动模块根据所述观众信息进行观众与所述多媒体内容的互动。其中,人机互动模块可以包括AR识别模块、控制模型触发模块、吹气互动模块、智能仿真播放模块、多视角切换模块、多支线情节选择模块、语音互动模块、无线设备交互模块、AI机器人智能互动模块以及智能情节匹配模块等,能够实现观众与多媒体情节内容的交互。
实施例三
所述人机互动模块包括有AR识别模块以及用于采集现实画面或识别码的装置,所述AR识别模块用于判断所述现实画面/识别码是否与设定画面/识别码相匹配,当所述现实画面/识别码与所述设定画面/识别码相匹配时,控制屏幕显示所述现实画面。
优选地,所述现实画面/识别码与设定画面/识别码匹配,包括:当切换到预设滤镜时,出现预设的目标,并且显示三维立体效果或显示虚拟图像与现实画面叠加的效果。
优选地,所述出现预设的目标,并伴随目标动画,并且所述目标动画用于展示包括但不限于:支线情节和/或模型切换、指定视频出现。
进一步地,所述人机互动模块将所述显示画面与预设的多媒体内容相结合,所述多媒体内容包括:视频、动画、三维模型、图片和音频等。
进一步地,所述人机互动模块还包括定位模块,用于对目标物品进行定位,具体地:为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;所述多媒体内容在播放的过程中,播放到设定节点,进行目标物品的识别和定位;通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果,依据所述交互结果进行交互多媒体内容的切换。
优选地,所述目标物品为卡片、图片或图卡等多媒体内容相关的道具。
优选地,所述现实位置,可以是:GPS位置;固定位置,例如影院座位位置等;
进一步地,若现实位置是固定位置,如影院座位位置,则在数据库中预存影院中每一座位的实际位置,在目标物品上携带有唯一识别码及影院座位号,将目标物品上的唯一识别码、影院座位号与数据库中预存的所述每一座位的实际位置关联,通过所述关联关系实现对目标物品的定位。
所述定位步骤包括:根据情节的设定节点,确定需要定位的目标物品;通过特殊效果进行目标物品现实位置的定位显示。
所述特殊效果包括:灯光、灯束、声音、影像等。
优选地,所述交互结果包括:用户展示所述目标物品以实现画面匹配或用户不展示所述目标物品或用户展示的目标物品非预设的目标物品。
优选地,所述交互结果包括:用户携带所述目标物品以实现画面匹配或用户未携带所述目标物品或用户所携带的目标物品非预设的目标物品。
比如,侦探类相关影视,在观影时,提前发予每位观众一张与剧情相关的图卡,剧情进展到某物品失窃,播放现场的屏幕中出现一幅画,侦探认为这幅画上可能存在有与盗窃者相关的信息,于是开始寻找这幅画的线索;预先发给现场观众的图卡中有一张对应该幅画的图卡,基于图卡上识别码或座位号与数据库中各座位号实际位置的关联关系,识别并定位出该副画对应的图卡在现场的实际位置,调用AR识别模块或采集/识别装置(如移动设备摄像/扫描装置,或电影院中设置的用于采集图像的摄像头),采用预设的指引方式(如追光、声音等),指引对应观众采用上述识别设备识别手中的图卡,当AR识别模块确定采集到的图像为剧情设定的图像时,则将所述采集到的图像显示在观众观影屏幕上,并触发AR识别子模块的动作,比如,在摄像头采集到关于图卡的图像上叠加一放大镜的图像,即触发的AR识别子模块的动作为在现实图像上显示一虚拟图片,虚拟图片即为此处的AR识别子模块。在此之后,可以通过采集模块采集观众信息,比如,采集模块采集观众信息对移动端的屏幕的触屏信息,根据观众的触屏信息控制放大镜在现实图像上移动,并在放大镜移动在设定位置时,触发另一AR识别子模块的动作:在放大镜所在位置显示指纹图像,即在放大镜所在位置叠加一指纹图像。若AR识别模块判断采集到的图像不是剧情设定的图像或现场没有识别出该图卡的存在,则进展到另一支线剧情。
上述仅仅为一解释本发明AR识别模块工作过程的示例,当然,本发明AR识别模块不仅限于上述示例。比如,在AR识别模块确定摄像头采集的图像为正确的图像后,可以播放视频、动画、三维模型、音频等AR识别子模块。在这之后,还可以有其他操作,比如,当采集装置采集到的观众信息符合触发条件时,还可以触发其他AR识别子模块的动作:当AR识别子模块为视频或动画时,AR识别模块在观众信息满足触发条件时,播放视频或动画,当AR识别子模块为图片或三维模型时,AR识别模块在观众信息满足触发条件时,显示图片或三维模型,当AR识别子模块为音频时,AR识别模块在观众信息满足触发条件时,播放音频。
AR识别模块在调用时,添加黑场淡入淡出的功能。当交互式影视节目的AR互动环节开始时,AR识别模块会调用设备的摄像头,并黑场淡入进摄像头所捕捉的现实画面;当AR互动环节结束时,AR识别模块会反馈结束本环节的信号给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束AR互动环节进入下一环节。
通过调用观众的设备摄像头,获取识别的图片信息,并实时反馈到交互式影视节目,由交互式影视节目判定正确的图片信息(正确的图片信息指提前在“制作平台”设置好的由交互式影视节目来识别的识别图)。
当交互情节内容为三维模型时,识别图像后,观众手持多媒体设备(可以为移动终端)屏幕中识别图的位置会出现一个三维模型,观众可手持多媒体设备在现实空间中任意一点观察,观众也可点击多媒体设备屏幕中的三维模型,三维模型会根据观众的手指点击信息触发相应的三维模型动画,直至三维动画播放完成,AR互动环节结束。
当交互情节内容为视频时,识别图像后,屏幕中会出现视频载体(一个长方形的片),观众可手持设备在现实空间中任意一点观察,也可点击设备屏幕中视频载体,视频载体会根据观众的手指点击信息触发相应部分的视频直至视频结束,视频结束后AR互动环节即结束。
当交互情节内容为图片时,观众的多媒体设备摄像头捕捉并识别图像,判断识别图为“制作平台”后台所设置的图像后,屏幕中原识别图的位置会出现一张图片,观众可手持设备在现实空间中任意一点观察,图片出现一定的时间后,AR互动环节结束。
当交互情节内容为音频时,识别图像后,设备会播放音频,音频播放完成后,AR互动环节结束。
本程序功能在于为交互式影视节目的AR互动环节添加不同的画面显示模式,通过在“制作平台”中为AR识别模块添加现实画面中不同的显示蒙版,并导出交互式影视节目。当节目播放至AR互动环节时,观众通过点击设备屏幕上的虚拟按钮,发送手指的点击信息至交互式影视节目,交互式影视节目会根据手指点击信息的区别将设备的现实画面修改为不同的显示画面(如紫外光画面和热成像画面),从而实现紫外光画面、热成像仪画面、显示画面等多画面的模拟与调用。交互式影视节目在识别图像之前会先识别设备所处的蒙版画面,仅在蒙版画面和识别图均正确的前提下,交互情节内容才会出现,从而实现了不同画面模式下显示交互情节内容的功能(例如模拟印钞机照射纸币后,显示纸币防伪标的情况时,制作者即可在“制作平台”中设置AR识别模块仅能在紫外光画面模式下显示防伪标志的图片)。
实施例四
互动模块包括控制模型触发模块,当控制模型触发模块被调用时,控制模型触发模块控制观影屏幕显示与多媒体内容相关的三维模型,并获取观众信息,当观众信息满足第一预设条件时,触发控制模型触发子模块动作,控制模型触发模块的动作包括视频或动画的播放、三维模型或图片的显示或音频的播放。
当交互式影视节目播放到模型互动环节时,控制模型触发模块自动被调用。
当交互式影视节目的模型互动环节开始时,控制模型触发模块会调用屏幕,反馈开始信号,使屏幕黑场淡入进模型互动环节的画面;当模型互动环节结束时,控制模型触发模块会反馈结束本环节的信号给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束模型互动环节进入下一环节。比如,电影中有一个触发机关(花瓶)可以打开密室门的情节,这时,可以调用控制模型触发模块,当控制模型触发模块被调用时,会在观影屏幕上显示一个花瓶的三维模型,观众通过触屏可转动花瓶,当花瓶被转到设定位置时,触发控制模型触发子模块体动作:播放密室门被打开的多媒体内容。
在实施例中,当交互式影视节目的模型互动环节开始时,控制模型触发模块会调用设备屏幕,显示一个在“制作平台”中提前设定好的三维模型(三维模型上会与影片剧情相关,例如,当剧情是一位侦探在看一个机关)并收集观众的手指操作信息,控制模型触发模块根据相应条件,将三维模型旋转、放大、移动位置,所述相应条件为手指操作信息的不同。
控制模型触发模块的功能在于为交互式影视节目的模型互动环节添加触发交互情节内容功能,制作者在进行交互式电影模型互动环节的制作时,可在“制作平台”内自由的在三维模型的某个位置设置触发点,附着于三维模型的某一面上,并整合在交互式影视节目中导出。交互式影视节目会获取三维模型旋转的数值,并反馈在屏幕上,当触发点附着的三维模型的面正面朝向观众的视角时,交互式影视节目自动放映先前设置好的交互情节内容。当交互情节内容播放完后,模型互动环节结束。
控制模型触发模块还可以为互动环节添加模拟物体刚体碰撞的功能。交互式影视节目运行至模型互动环节时,根据观众观影设备的重力传感器、加速度传感器(观众信息采集模块)的数据,计算出水平方向的重力效果;观众观影设备的陀螺仪同时测定多个方向的位置、移动轨迹及加速度,从而计算出观众观影设备的姿态、位置等信息(可通过摇晃观影设备使模型互动环节里的模型做出反应),控制模型触发模块根据反馈的观影设备目前姿势、运动状态、位置等信息使模型互动环节里的模型模拟出现实世界中的物理状态。控制模型触发模块还会将计算出目前姿势、运动状态、位置等信息,应用于模型互动环节中模型的运动,观众通过摇晃、倾斜观影设备(手机),使手机的位置、姿势、旋转角度等信息发生变化,重力传感器、加速度传感器、陀螺仪等元件会收集这些信息,根据信息与算法使模型交互环节的三维模型模拟出现实世界的物理运动,使三维模型在观影设备屏幕中显示和现实空间中相似的物理碰撞。
比如,虚拟摄像机(“制作平台”的控制模型触发模块中用于获取场景中画面的程序)固定在模型前,并一直发出射线。模型的某一点放置一个激发器(激发器位置可调),随模型移动、旋转,当射线射中激发器即触发该模型的动画/视频(模型前有一平面,触发平面上的视频,该平面初始时是透明的,触发后开始播放视频)/音频。播放结束后延时数秒(时间可调),结束控制模型触发子模块的播放,进入下一环节(本功能模块仅针对移动端)。
激发器激发该模型的动画/视频/音频可由刚体碰撞的模型经过触发;例如,摄像机(“制作平台”中的虚拟摄像机)前有一盘子模型,盘子上有一小球,小球开始是静止于盘子上的。如果手机向左倾斜则盘子也向左倾斜(手机与盘子相对静止),小球就开始向左滚动,手机放平之后小球的运动慢慢停止(模拟实际情况)。当小球滚动到激发器的位置上时,激发器激发模型前平面的视频/音频/小球的模型动画。
实施例五
采集模块包括麦克风,互动模块包括吹气互动模块,当吹气互动模块被调用时,吹气互动模块在麦克风采集到的信号达到第二预设条件时,播放多媒体内容中设定道具动作的画面,设定道具的动作包括浮尘吹起或帷幕的掀开。
本模块仅应用于移动端交互式影视节目的放映,当交互式影视节目播放到吹气互动环节时,吹气互动模块自动被调用。
当交互式影视节目的吹气互动环节开始时,吹气互动模块会调用屏幕,反馈开始信号,使屏幕黑场淡入进吹气互动环节的画面;当吹气互动环节结束时,吹气互动模块会反馈结束本环节的信号,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束吹气互动环节进入下一环节。
交互式影视调用观影设备的麦克风,获取观众吹气的声波信息,并反馈给吹气互动模块,吹气互动模块根据相应条件,触发交互情节内容的播放。交互情节内容播放完后,吹气互动环节结束。
实施例中,如图2所示,吹气互动模块还可以添加光照模拟功能,交互式影视调用观影设备的陀螺仪、加速度传感器等元件计算出观影设备的水平方向以及多个方向的位置、移动轨迹及加速度,从而计算出观众多媒体内容设备的姿态、位置、旋转角度等信息,确定多媒体内容设备在现实世界的坐标和旋转值。并根据此信息,计算多媒体内容设备目前的旋转角度、姿态等。并将获取到的各项数值反馈给吹气互动模块,吹气互动模块根据陀螺仪反馈的各方向旋转数值模拟并显示吹气互动环节中所有交互情节内容的光照。当多媒体内容设备的陀螺仪元件获取的旋转角数值到达一定的区间时,交互情节内容会出现光晕和声音。
比如,移动端的交互式影视节目的封面交互,多媒体内容设备的屏幕上一开始可以是满屏的沙子(沙子是视频),观众吹出一口气,沙子退散一半,并漏出公司logo(公司logo是三维模型,在“制作平台”中采用金属,可反射提前设定好的环境光)。观众再吹出第二口气,沙子完全退散。此时,观众可以横屏状态下旋转多媒体内容设备,光本身不动,但会在公司logo的金属反射下不断变化(因为除了光不动,其他的内容均随多媒体内容设备的旋转而旋转,与多媒体内容设备相对静止),当旋转到一定的角度时,就会有光晕和叮的金属音出现。
在实施例中,所有的模型可同时由陀螺仪控制,随多媒体内容设备转动而转动,当多媒体内容设备翻转到特定角度时出现光晕并触发音效。
实施例六
采集模块包括用于采集包含观众人脸的图像的摄像头,人机互动模块包括智能仿真播放模块,智能仿真播放模块控制多媒体内容的虚拟摄像头的指向跟随图像中人脸的朝向。
当交互式影视节目的智能仿真播放环节开始时,智能仿真播放模块会调用屏幕,反馈开始信号,使屏幕黑场淡入进智能仿真播放环节的画面;当智能仿真播放环节结束时,智能仿真播放模块会反馈结束本环节的信号给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束人机互动环节进入下一环节。
智能仿真播放模块调用设备的摄像头,获取观众的人脸表情信息,并反馈给智能仿真播放模块,智能仿真播放模块根据获取到的表情信息,使设备屏幕上的人脸三维模型跟随观众的表情做出相同的表情,并定位观众的位置(多媒体内容设备的前置摄像头会实时开启,同时实时识别人脸,本程序通过摄像机或摄像头采集含有人脸的实时视频流,通过算法在视频流中检测和跟踪人脸,并与交互式影视节目中的虚拟摄像机关联,当观众移动自己位置时,人脸的定位信息也会跟着移动,手机前置摄像头会将捕捉到的画面信息反馈给智能仿真播放模块,智能仿真播放模块根据观众的位移利用算法计算交互式影视节目中的虚拟摄像机相应的位移),并随观众的移动而移动交互影视内容的视角。
智能仿真播放模块调用设备的屏幕,获取观众的手指点击信息,并反馈给智能仿真播放模块,使屏幕中的交互情节内容随观众的手指操作做出相应的反应,本模块应用于移动端和PC端。
实施例中,多媒体内容设备(横屏时)可通过上下左右旋转控制场景内的虚拟摄像头进行有限的上下左右移动。人机互动模块分为平面版与全景版。全景版承载视频的载体为多层球体,平面版为一个平面,二者功能相同。触发点独立于平面,可以自由放置,每个触发点可以触发不同平面上的视频、音频或者模型动画。触发点数量可调,必须依次点击才能触发。播放完最后的视频、声音、模型动画后,可以暂停数秒(时间可调)。每一层平面上的视频可以设置分级暂停(片上的视频一开始是自动播放的,播放到事先设定好的时间处暂停,暂停后的视频可经过三种方式触发继续播放。第一种为点击触发点进行触发,第二种为暂停一段时间后自动触发,第三种为凝视触发器进行触发;每一层的视频可暂停的次数可调。结束智能仿真播放模块后,整体画面的淡入淡出。
人脸识别移动虚拟摄像头:调用多媒体内容设备前置摄像头等元件,获取用户面部信息,使虚拟摄像机跟随面部进行上下左右的平移。此功能在多媒体内容设备屏幕右端的按钮,可供观众自由开启。
人脸识别控制模型旋转:调用多媒体内容设备前置摄像头等元件,获取用户面部信息,使屏幕中的人物模型随用户脸旋转而旋转(例如用户在多媒体内容设备前旋转脸部,屏幕中的人物模型的头部跟着用户脸部旋转)。
人脸识别控制模型表情:调用多媒体内容设备前置摄像头等元件,获取用户面部信息,使屏幕中的人物模型的表情随用户表情的改变而变化。
实施例七
人机互动模块包括多视角切换模块,多视角切换模块根据观众信息确定观众选择的视角,并播放在观众选择的视角下的影像。
当交互式影视节目播放到多视角触发切换环节时,多视角切换模块被调用。本程序主要应用于移动端。
多视角切换模块调用屏幕,反馈开始信号,使屏幕黑场淡入进多视角触发切换互动环节的画面;当多视角触发切换环节结束时,多视角触发切换模块会反馈结束本环节的信号(比如,多视角切换模块可以由三部分不同视角的视频组成,当点击多媒体内容设备屏幕上触发点时(触发点的设置会在“制作平台”中设置好),即切换到相对应视角的视频,每部分视频时长一样,当所有视频都结束时,即会反馈结束本环节的信号)给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束多视角触发切换互动环节进入下一环节。
多视角切换模块调用屏幕,获取观众的手指点击信息,并反馈给多视角切换模块,多视角切换模块依据相应的条件切换到观众所选定的交互情节内容中,从而达成观众自由切换视角的目的,所述相应条件为观众所点击的触发点。
实施例八
人机互动模块包括多支线情节选择模块,多支线情节选择模块根据观众信息确定并播放观众选择的预输出多媒体内容。
当交互式影视节目播放到多支线情节选择环节时,多支线情节选择模块自动被调用。多支线情节选择模块会调用屏幕,反馈开始信号,使屏幕黑场淡入进多支线情节选择环节的画面;当多支线情节选择环节结束时,多支线情节选择模块会反馈结束本环节的信号给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束多视角触发切换互动环节进入下一环节。
对于交互式电影移动观影端,多支线情节选择模块可以调用摄像头获取观众的行为选择信息或者根据观众手指点击屏幕的触屏行为确定其选择信息,播放相应的交互情节内容,并根据情节的不同进行路径选择和记录。
对于交互式电影影院观影端,可以为观众设置选择控制器,观众通过该控制器获取观众的行为选择信息,并反馈给交互式影视节目。交互式影视节目会根据相应条件选择多支线情节选择模块后的预输出多媒体内容,所述相应条件为观众点击选择数量的多少,可以以少数服从多数的原则进行后续交互多媒体内容的选择。
实施例九
采集模块包括用于采集观众语音信息的麦克风,人机互动模块包括语音互动模块,语音互动模块用于获取观众的语音信息,并在语音信息与预设语音相匹配时,触发设定操作。
当交互式影视节目播放到语音指令互动环节时,语音互动模块自动被调用。在该实施例中,语音互动模块会调用屏幕,反馈开始信号,使屏幕黑场淡入进语音互动环节的画面;当语音互动环节结束时,语音互动模块会反馈结束本环节的信号给交互式影视节目,交互式影视节目接收到信号后会让设备屏幕黑场淡出,并结束语音指令互动环节进入下一环节。
在该实施例中,语音互动模块可以通过麦克风获取观众的语音信息,并在确定该语音信息为设定的信息时,触发人机互动模块的动作,比如,播放预制的视频、动画、音频等。
在该实施例中,语音互动模块还可以调用屏幕,提示观众说出语音信息,获取观众手指点击开始按钮的信息,并反馈开始录音的指令给语音互动模块,开始录音;语音互动模块从观众的录音中获取观众语音信息,存储并处理、识别语音信息,并将识别出的观众语音通过算法转化成文字信息,反馈给观众的观影设备,令观众设备的屏幕上显示观众所说的语音文字信息。
实施例十
人机互动模块包括无线设备交互模块,当无线设备交互模块被调用时,无线设备执行与多媒体内容情节相关的动作。比如,电影中具有刮风的场景,此时,通过蓝牙调用无线设备交互模块电风扇,使其吹风。
实施例十一
采集模块包括用于采集包含观众人脸的图像的摄像头,人机互动模块包括AI机器人智能互动模块,AI机器人智能互动模块控制多媒体内容中设定人物模仿图像中观众的表情。
本模块具有为交互式影视节目添加点击行为与AI机器人互动的功能,AI机器人智能互动模块可以通过调用多媒体内容设备的屏幕,获取观众点击行为的信息,并反馈给交互影视节目,交互影视节目会根据点击行为的信息,通过人工智能算法将行为指令反馈给AI机器人智能互动模块,AI机器人智能互动模块依照指令,令AI机器人做出相应的动作、语音和表情,从而实现观众点击行为与AI机器人互动的功能。
本模块具有为交互式影视节目添加语音与AI机器人互动的功能,AI机器人智能互动模块可以通过调用多媒体内容设备的麦克风,获取观众的语音信息,并反馈给交互影视节目,交互影视节目会根据语音信息,通过人工智能算法将行为指令反馈给AI机器人智能互动模块,AI机器人智能互动模块会依照指令,令AI机器人做出相应的作、语音和表情,从而实现观众语音与AI机器人互动的功能。
本模块具有为交互式影视节目添加表情行为与AI机器人互动的功能,AI机器人智能互动模块通过调用多媒体内容设备的摄像头,获取观众的表情信息,并反馈给交互影视节目,交互影视节目会根据表情信息,通过人工智能算法将行为指令反馈给AI机器人智能互动模块,AI机器人智能互动模块会依照指令,令AI机器人做出相应的动作、语音和表情,从而实现观众表情与AI机器人互动的功能。
实施例十二
互动模块包括智能情节匹配模块,用于根据观众在多支线情节选择模块中选择的预输出多媒体内容,确定当前情节走向;或用于根据观众的面部表情,确定当前的情节走向。
智能情节匹配模块可以调用观众多媒体内容设备的前置摄像头,获取观众的表情信息,并反馈给交互式影视节目。交互式影视节目通过人工智能算法分析观众的表情信息(喜怒哀乐),分析观众情绪,并根据表情信息反馈给观众不同的预输出多媒体内容,从而达到通过识别表情为观众匹配交互多媒体内容的功能。
智能情节匹配模块可以根据观众在多支线情节选择模块中选择的预输出多媒体内容,通过人工智能算法分析观众的行为选择信息,推算观众的喜好信息,并根据喜好信息反馈给观众不同的预输出多媒体内容,从而达到通过行为选择为观众匹配后续剧情的功能。
智能情节匹配模块还可以调用观众多媒体内容设备的前置摄像头,获取观众的瞳孔信息,通过人工智能算法计算观众更喜欢看的多媒体内容部分,分析观众的喜好,从而为观众智能定制后续剧情。
本发明提供的交互影视系统包括“制作平台”、基于制作平台的视频音频以及模型动画的“素材播放模块”、基于制作平台的“人机互动模块”、基于制作平台的观众“信息采集模块”、基于制作平台的影视模块资源的“组合编辑模块”,所述制作平台在素材播放模块中植入视频音频和模型动画,所述素材播放模块运行到设定节点时调用所述人机互动模块,所述人机互动模块根据所述信息采集模块进行观众与所述素材播放模块的互动,最终由所述组合编辑模块按照制片计划,进行影视模块资源的统一规划与输出。其中,人机互动模块可以包括AR识别子模块、控制模型触发子模块、吹气互动模块、智能仿真播放模块、瞳孔追踪模块、多视角切换模块、多支线情节选择模块、语音人机互动模块、无线设备交互模块、AI虚拟角色互动模块以及智能情节匹配模块等,能够实现观众与影视内容的即时交互。
通过上述实施例,如附图2所示的本发明实施例吹气互动模块效果图:1.通过本发明的交互式影视系统,可以快速制作出符合需要的影视节目,满足用户需求。2.通过本发明的交互式影视系统,可以使用户与影视进行深入交互,沉浸感更强。3.通过本发明的交互式影视系统,通过对用户信息的采集,自动判断情节走向,满足用户喜好。
还可以将上述方法或系统置于移动终端中,借助移动终端特有的陀螺仪对虚拟摄像视角进行判断并基于判断结果调整显示结果。
还可以将上述方法或系统对应的计算机程序存储于计算机可读介质中,所述计算机程序在运行时,执行上述方法相对应的步骤。
虽然已经参考优选实施例对本发明进行了描述,但在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,各个实施例中所提到的各项技术特征均可以任意方式组合起来。以上仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (16)
1.一种交互系统,其特征在于,包括:制作平台;若干交互式模块;组合编辑模块;
所述制作平台用于制作并输出多媒体内容;
所述交互式模块包括:素材播放模块、信息采集模块、人机互动模块;
其中,所述素材播放模块,用于植入多媒体内容,并播放所述多媒体内容;
所述信息采集模块,用于采集实时的用户信息;
所述人机互动模块,用于根据所述用户信息与所述多媒体内容进行互动;
所述组合编辑模块用于编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出。
2.如权利要求1所述的一种交互影视系统,其特征在于,所述素材播放模块播放所述多媒体内容,所述多媒体内容播放到设定节点时,调用所述人机互动模块,基于人机互动模块的指令调用所述信息采集模块,采集用户信息,所述人机互动模块根据所述用户信息进行用户与所述多媒体内容的互动,所述组合编辑模块按照制片计划,进行交互式多媒体内容的选择与输出。
3.如权利要求1所述的一种交互影视系统,其特征在于,所述组合编辑模块收集和分析人机互动模块的人机交互信息路径,并依据所述路径对交互多媒体内容剧情走向进行判断、选择和输出。
4.如权利要求1所述的一种交互影视系统,其特征在于,所述采集模块采集用户信息,当所述用户信息满足触发条件时,根据所触发条件播放相应的多媒体内容。
5.如权利要求1所述的一种交互影视系统,其特征在于,所述采集模块包括用于采集包含用户人脸的图像的摄像头,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块控制所述制作平台的虚拟摄像机的指向与位移跟随所述图像中人脸的指向与位移,所述智能仿真播放模块控制所述制作平台中人脸模型的表情内容跟随所述图像中人脸的表情内容变化,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
6.如权利要求5所述的一种交互影视系统,其特征在于,采集用户人脸图像,并进行表情识别,并根据表情识别进行交互多媒体内容的切换;或,采集用户人脸图像,同时进行瞳孔识别,根据瞳孔视线进行交互多媒体内容剧情的切换。
7.如权利要求1所述的一种交互影视系统,其特征在于,所述人机互动模块包括AR识别模块以及用于采集现实画面的摄像头,所述AR识别模块用于判断所述现实画面/识别码是否与设定画面/识别码相匹配,当判断结果为匹配时,执行预设的操作。
8.如权利要求7所述的一种交互影视系统,其特征在于,所述显示画面与设定画面匹配,包括:切换到预设滤镜时,出现预设的目标,据此显示预设的三维立体图像,或将虚拟图像叠加显示到实际环境图像中;
所述出现预设的目标,并伴随目标动画,并且所述目标动画用于展示包括:支线情节和/或模型切换、指定视频出现。
9.一种交互方法,其特征在于,包括以下步骤:制作平台制作并输出多媒体内容;素材播放模块植入多媒体内容,并播放所述多媒体内容;信息采集模块采集实时的用户信息;人机互动模块根据所述用户信息与所述多媒体内容进行互动;组合编辑模块编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出;
所述多媒体内容包括视频和/或音频、模型动画;
进一步地,所述素材播放模块播放所述多媒体内容,所述多媒体内容播放到设定节点时,调用所述人机互动模块,所述信息采集模块实时采集用户的视角、面部表情、瞳孔状态等信息,所述人机互动模块根据所述用户信息进行用户与所述多媒体内容的互动,所述组合编辑模块按照制片计划,进行交互式多媒体内容的判断选择与输出。
10.一种交互方法,其特征在于,包括以下步骤:为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;所述多媒体内容在播放的过程中,播放到设定节点,进行目标物品的识别和定位;通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果,依据所述交互结果进行交互多媒体内容剧情的切换。
11.一种交互装置,其特征在于,包括:配发模块,用于为用户或用户终端配发目标物品,所述目标物品具有与现实位置一一对应的唯一识别码;识别定位模块,用于在所述多媒体内容的播放过程中,播放到设定节点,进行目标物品的识别和定位;指引模块,用于通过特定的指引方式指向识别和定位出的目标物品的现实位置,并提示相应用户给出交互结果;判断输出模块,用于依据所述交互结果进行交互多媒体内容剧情的切换。
12.一种交互影视的制作方法,其特征在于,包括以下步骤:
开启制作软件;
将各个独立插件导入制作软件中,完成多媒体内容的植入、信息采集和人机互动设置;
在制作软件中,通过组合编辑模块,调用人机互动模块节点、多媒体内容节点、判断节点、末端节点各节点程序,并在节点路径中链接上述需要的素材播放模块、人机互动模块、信息采集模块;
设置交互多媒体内容播放,判断是否需要设置交互多媒体内容播放,若需要,则,添加判断节点,依据观众对人机互动模块所积累的路径来判断下一预输出多媒体内容;或添加随机判断节点,随机匹配下一预输出多媒体内容;
根据影片需求将链接好模块的节点进行编辑,串联各人机互动模块节点、多媒体内容节点、判断节点,并以上述末端节点收尾;
通过制作软件,选择适配的平台进行输出。
13.一种交互式影视的制作装置,其特征在于,包括:
开启模块,用于开启制作软件;
导入模块,用于将各个独立插件导入制作软件中,完成多媒体内容的植入、信息采集和人机互动设置;
组合编辑模块,用于调用人机互动模块节点、多媒体内容节点、判断节点、末端节点各节点程序,并在节点路径中链接上述需要的素材播放模块、人机互动模块、信息采集模块:
分支判断模块,用于设置分支播放,判断是否需要设置交互多媒体内容的分支播放,若需要,则,添加判断节点,依据观众对人机互动模块所积累的路径来判断下一预输出多媒体内容;或添加随机判断节点,随机匹配下一预输出多媒体内容;
串联模块,用于根据影片需求将链接好模块的节点进行编辑,串联各人机互动模块节点、多媒体内容节点、判断节点,并以上述末端节点收尾;
输出模块,用于通过制作软件,选择适配的平台进行输出。
14.一种移动终端设备,包括权利要求1-8、11、13任一所述的系统或装置、陀螺仪,所述采集模块包括用于获取设备姿态的陀螺仪元件,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块根据陀螺仪元件确定的设备姿态控制所述多媒体内容的虚拟摄像机的指向和位移,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
15.一种用于移动终端设备的方法,包括:制作平台制作并输出多媒体内容;素材播放模块植入多媒体内容,并播放所述多媒体内容;信息采集模块采集实时的用户信息;人机互动模块根据所述用户信息与所述视频和/或音频、模型动画进行互动;组合编辑模块编辑整合所述素材播放模块的多媒体内容、人机互动模块的人机交互信息以及播放转换文件,进行交互式多媒体内容的输出,
进一步地,所述移动终端具备多种传感器,所述传感器包括但不限于摄像头、麦克风、重力感应传感器、GPS、蓝牙、陀螺仪、网络信息采集元件等,
优选地,所述移动终端具有陀螺仪,所述采集模块包括用于获取设备姿态的陀螺仪元件,所述人机互动模块包括智能仿真播放模块,所述智能仿真播放模块根据陀螺仪元件确定的设备姿态控制所述多媒体内容的虚拟摄像机的指向和位移,所述人机互动模块根据用户的点击信息控制多媒体内容的播放。
16.一种计算机可读介质,包括存储单元及存储于其中的计算机程序,所述计算机程序用于执行权利要求9,10,12,15中任一的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911025732.5A CN110750161A (zh) | 2019-10-25 | 2019-10-25 | 一种交互系统、方法、移动设备及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911025732.5A CN110750161A (zh) | 2019-10-25 | 2019-10-25 | 一种交互系统、方法、移动设备及计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110750161A true CN110750161A (zh) | 2020-02-04 |
Family
ID=69280094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911025732.5A Pending CN110750161A (zh) | 2019-10-25 | 2019-10-25 | 一种交互系统、方法、移动设备及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110750161A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111513584A (zh) * | 2020-05-07 | 2020-08-11 | 珠海格力电器股份有限公司 | 基于语音交互的菜单显示方法、装置和烹饪设备 |
CN111773658A (zh) * | 2020-07-03 | 2020-10-16 | 珠海金山网络游戏科技有限公司 | 一种基于计算机视觉库的游戏交互方法及装置 |
CN112040296A (zh) * | 2020-09-06 | 2020-12-04 | 刘承昊 | 交互式内容播放平台 |
CN112190921A (zh) * | 2020-10-19 | 2021-01-08 | 珠海金山网络游戏科技有限公司 | 一种游戏交互方法及装置 |
CN112256128A (zh) * | 2020-10-22 | 2021-01-22 | 武汉科领软件科技有限公司 | 一种互动效果开发平台 |
CN113014943A (zh) * | 2021-03-03 | 2021-06-22 | 上海七牛信息技术有限公司 | 一种视频播放方法、视频播放器及视频直播系统 |
CN113900511A (zh) * | 2021-09-17 | 2022-01-07 | 广州励丰文化科技股份有限公司 | 投影交互系统及方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100079585A1 (en) * | 2008-09-29 | 2010-04-01 | Disney Enterprises, Inc. | Interactive theater with audience participation |
CN102671397A (zh) * | 2012-04-16 | 2012-09-19 | 宁波新文三维股份有限公司 | 7d影院及其交互方法 |
JP2012212237A (ja) * | 2011-03-30 | 2012-11-01 | Namco Bandai Games Inc | 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 |
CN103984406A (zh) * | 2013-02-08 | 2014-08-13 | 洪荣昭 | 互动游戏方法及系统 |
CN104246660A (zh) * | 2012-03-16 | 2014-12-24 | 英特尔公司 | 用于基于隐式用户输入和行为的媒体的动态适应的系统和方法 |
CN106303728A (zh) * | 2015-05-20 | 2017-01-04 | 深圳市定军山科技有限公司 | 一种互动式数字电影播放系统及方法 |
CN106303706A (zh) * | 2016-08-31 | 2017-01-04 | 杭州当虹科技有限公司 | 基于人脸和物件跟踪实现以主角跟随视角观看虚拟现实视频的方法 |
CN108073272A (zh) * | 2016-11-18 | 2018-05-25 | 北京智能管家科技有限公司 | 一种用于智能设备的播放控制方法及装置 |
CN108124187A (zh) * | 2017-11-24 | 2018-06-05 | 互影科技(北京)有限公司 | 交互视频的生成方法及装置 |
CN108156523A (zh) * | 2017-11-24 | 2018-06-12 | 互影科技(北京)有限公司 | 交互视频播放的互动方法及装置 |
CN108769814A (zh) * | 2018-06-01 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置及可读介质 |
-
2019
- 2019-10-25 CN CN201911025732.5A patent/CN110750161A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100079585A1 (en) * | 2008-09-29 | 2010-04-01 | Disney Enterprises, Inc. | Interactive theater with audience participation |
JP2012212237A (ja) * | 2011-03-30 | 2012-11-01 | Namco Bandai Games Inc | 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 |
CN104246660A (zh) * | 2012-03-16 | 2014-12-24 | 英特尔公司 | 用于基于隐式用户输入和行为的媒体的动态适应的系统和方法 |
CN102671397A (zh) * | 2012-04-16 | 2012-09-19 | 宁波新文三维股份有限公司 | 7d影院及其交互方法 |
CN103984406A (zh) * | 2013-02-08 | 2014-08-13 | 洪荣昭 | 互动游戏方法及系统 |
CN106303728A (zh) * | 2015-05-20 | 2017-01-04 | 深圳市定军山科技有限公司 | 一种互动式数字电影播放系统及方法 |
CN106303706A (zh) * | 2016-08-31 | 2017-01-04 | 杭州当虹科技有限公司 | 基于人脸和物件跟踪实现以主角跟随视角观看虚拟现实视频的方法 |
CN108073272A (zh) * | 2016-11-18 | 2018-05-25 | 北京智能管家科技有限公司 | 一种用于智能设备的播放控制方法及装置 |
CN108124187A (zh) * | 2017-11-24 | 2018-06-05 | 互影科技(北京)有限公司 | 交互视频的生成方法及装置 |
CN108156523A (zh) * | 2017-11-24 | 2018-06-12 | 互影科技(北京)有限公司 | 交互视频播放的互动方法及装置 |
CN108769814A (zh) * | 2018-06-01 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置及可读介质 |
Non-Patent Citations (1)
Title |
---|
张凌晓 等: "Visual C# 2010程序设计", 中国铁道出版社, pages: 19 - 20 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111513584A (zh) * | 2020-05-07 | 2020-08-11 | 珠海格力电器股份有限公司 | 基于语音交互的菜单显示方法、装置和烹饪设备 |
CN111513584B (zh) * | 2020-05-07 | 2021-04-23 | 珠海格力电器股份有限公司 | 基于语音交互的菜单显示方法、装置和烹饪设备 |
CN111773658A (zh) * | 2020-07-03 | 2020-10-16 | 珠海金山网络游戏科技有限公司 | 一种基于计算机视觉库的游戏交互方法及装置 |
CN111773658B (zh) * | 2020-07-03 | 2024-02-23 | 珠海金山数字网络科技有限公司 | 一种基于计算机视觉库的游戏交互方法及装置 |
CN112040296A (zh) * | 2020-09-06 | 2020-12-04 | 刘承昊 | 交互式内容播放平台 |
CN112190921A (zh) * | 2020-10-19 | 2021-01-08 | 珠海金山网络游戏科技有限公司 | 一种游戏交互方法及装置 |
CN112256128A (zh) * | 2020-10-22 | 2021-01-22 | 武汉科领软件科技有限公司 | 一种互动效果开发平台 |
CN113014943A (zh) * | 2021-03-03 | 2021-06-22 | 上海七牛信息技术有限公司 | 一种视频播放方法、视频播放器及视频直播系统 |
CN113900511A (zh) * | 2021-09-17 | 2022-01-07 | 广州励丰文化科技股份有限公司 | 投影交互系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110750161A (zh) | 一种交互系统、方法、移动设备及计算机可读介质 | |
US12001974B2 (en) | Augmented reality smartglasses for use at cultural sites | |
WO2022001593A1 (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
US9652046B2 (en) | Augmented reality system | |
US5790124A (en) | System and method for allowing a performer to control and interact with an on-stage display device | |
Sparacino et al. | Media in performance: Interactive spaces for dance, theater, circus, and museum exhibits | |
JP5859456B2 (ja) | プレゼンテーション用カメラ・ナビゲーション | |
US8633933B2 (en) | System and method of producing an animated performance utilizing multiple cameras | |
CN102622774B (zh) | 起居室电影创建 | |
US7791608B2 (en) | System and method of animating a character through a single person performance | |
JP2020039029A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
KR20010081193A (ko) | 모션 캡쳐 기능을 활용한 3차원 가상 현실 기법의 댄스게임 장치 | |
CN107291221A (zh) | 基于自然手势的跨屏幕自适应精度调整方法及装置 | |
CN113687720A (zh) | 一种多人联机的虚拟现实教育系统及其使用方法 | |
CN106909217A (zh) | 一种增强现实的全息投影交互方法、装置及系统 | |
KR102200239B1 (ko) | 실시간 cg 영상 방송 서비스 시스템 | |
Sénécal et al. | Modelling life through time: cultural heritage case studies | |
CN110933515A (zh) | 一种基于vr技术的全景视频播放控制方法 | |
Rauterberg | From gesture to action: Natural user interfaces | |
WO2023130715A1 (zh) | 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
US20240104870A1 (en) | AR Interactions and Experiences | |
Geigel et al. | Adapting a virtual world for theatrical performance | |
Li | Research on Physical Phenomenological Innovation Technology in Virtual Reality Movies | |
Jaimes-Larrarte | Computer Vision Interfaces for Interactive Art | |
Senior et al. | Computer vision interfaces for interactive art |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200204 |