CN106200900A - 基于识别区域在视频中触发虚拟现实交互的方法及系统 - Google Patents
基于识别区域在视频中触发虚拟现实交互的方法及系统 Download PDFInfo
- Publication number
- CN106200900A CN106200900A CN201610474834.5A CN201610474834A CN106200900A CN 106200900 A CN106200900 A CN 106200900A CN 201610474834 A CN201610474834 A CN 201610474834A CN 106200900 A CN106200900 A CN 106200900A
- Authority
- CN
- China
- Prior art keywords
- video
- region
- identification region
- mutual
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Abstract
本发明公开基于识别区域在视频中触发虚拟现实交互的方法,包括:在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容;对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容;当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。本发明实现了基于视频内容的交互。
Description
技术领域
本发明涉及智能触发交互的技术领域,更具体地,涉及一种基于识别区域在视频中触发虚拟现实交互的方法及系统。
背景技术
交互,即通过双方相互获取信息以进行通信交流互动的技术,例如,现在常用的人机交互技术,通过设备与人之间相互获取信息进行相关交流并控制操作的技术。而现有的人机交互过程是人与计算机之间使用某种对话语言,以一定的交互方式为完成确定任务的人与计算机之间的信息交换过程。人机交互功能主要靠可输入输出的外部设备和相应的软件来完成,如键盘显示、鼠标、各种模式识别设备等,与这些设备相应的软件就是操作系统提供人机交互功能的部分。人机交互部分的主要作用是控制有关设备的运行和理解并执行通过人机交互设备传来的有关的各种命令和要求。早期的人机交互设施是键盘显示器,操作员通过键盘打入命令,操作系统接到命令后立即执行并将结果通过显示器显示。
但是,随着智能化信息技术时代的到来,研究如何通过人体信息进行设备的智能化控制成为热门课题。例如,设备通过各种传感器检测人体的动作反应出用户的此时对设备的操作意愿,并根据用户的意愿操作动作产生相应的操作指令自动控制设备执行用户的意愿操作。现有技术中的智能操作都是人为输出或者对环境情况进行检测后产生的指令触发交互的,不是完全利用用户操作意愿进行相关操作的智能触发。而在现有技术中还没有基于用户意愿操作将画面内容与设定识别标识的识别区域进行配合触发交互的智能触发技术。在很多技术领域,人体的视觉在很大程度上反应了用户在相关操作上的意愿程度,例如,在视频领域,通过视觉在某些画面的停留时间长短判别出用户对该画面的兴趣程度,因此设置利用视觉对图像画面内容与识别标识进行交互控制成为一种简便、快捷的智能操控方式。
在新兴的虚拟现实(Virtual Reality,简称VR)的技术领域,虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,是一种创建多源信息融合的交互式三维动态视景和实体行为的仿真系统环境并使用户沉浸到该环境中的技术。用户可以通过VR显示设备(观看视频内容的虚拟现实设备)观看显示系统中播放的视频,显示系统可以为手机、平板电脑、电脑、电视等设备的显示系统。但是,在现有的VR技术操作模式中只能实现视频的播放、暂停等常规操作,不能实现基于视频内容的互动式操作。当用户通过穿戴VR显示设备观看视频时,就不能再使用传统的交互方式触发虚拟现实场景的交互,只能利用用户的视觉反应来控制视频播放中的交互,而现有技术中还没有实现基于视觉焦点和视频内容互动触发交互的技术。
因此,提供一种简便、快捷且准确地基于视频内容的互动触发虚拟现实交互的方法是本领域亟待解决的问题。
发明内容
有鉴于此,本发明提供了一种基于识别区域在视频中触发虚拟现实交互的方法及系统,解决了现有技术中不能实现基于视觉焦点和视频内容互动触发交互的问题。
为了解决上述技术问题,本发明提出一种基于识别区域在视频中触发虚拟现实交互的方法,包括:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容;
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容;
当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
进一步地,其中,在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,进一步为:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示。
进一步地,其中,对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,进一步为:
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,且所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向进行调整。
进一步地,其中,当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容,进一步为:
当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
进一步地,其中,所述启动触发倒计时,进一步为至多5秒倒计时。
另一方面,本发明还提供一种基于识别区域在视频中触发虚拟现实交互的系统,包括:交互对应识别区域生成模块、交互触发模块及反馈模块,其中
所述交互对应识别区域生成模块,用于在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容;
所述交互触发模块,用于对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容;
所述反馈模块,用于当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
进一步地,其中,所述交互对应识别区域生成模块,进一步用于:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示。
进一步地,其中,所述交互触发模块,进一步用于:
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,且所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向进行调整。
进一步地,其中,所述反馈模块,进一步用于:
当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
进一步地,其中,所述启动触发倒计时,进一步为至多5秒倒计时。
与现有技术相比,本发明的基于识别区域在视频中触发虚拟现实交互的方法及系统,实现了如下的有益效果:
(1)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,通过VR显示设备识别预先设置在视频中需进行交互的视频内容上的交互的识别区域并据此在视频显示区域内生成交互的识别区域图标,当用户头部运动导致视角发生变化时,VR显示设备检测到所述视角变化引起的视角位置移动后,相应地移动显示内容,通过所述显示内容的位置移动导致与所述显示内容相关的所述识别区域的位置移动,在所述识别区域的位置移动到与VR显示设备上设置的触发点配合满足触发条件时触发虚拟现实交互,实现了用户穿戴VR显示设备观看视频时基于视觉焦点和视频内容互动触发交互,不需要复杂的按键操作,仅通过用户的视觉反应便可控制基于视频内容的交互,提升了用户的使用体验。
(2)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,在用户使用VR显示设备观看视频时,还设置了在所述触发点与所述识别区域配合时生成启动触发倒计时的确认提醒,以确认是否触发所述视频内容上的交互,保证了准确地按照用户意愿触发所述视频内容上的交互,由此避免了用户误操作的发生。
(3)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,在用户使用VR显示设备观看视频时,针对带有交互的标识的视频内容生成的识别区域跟随所述视频内容的移动进行移动,保证了用户有触发所述视频内容对应的虚拟现实交互意愿时,通过用户的操作能控制所述触发点准确地与所述识别区域配合,从而提升了在视频播放过程中基于识别区域触发虚拟现实交互的准确性。
当然,实施本发明的任一产品必不特定需要同时达到以上所述的所有技术效果。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1为本发明实施例1所述的基于识别区域在视频中触发交互的方法的流程示意图;
图2为本发明实施例1所述触发点与所述识别区相配合触发交互的结构示意图;
图3为本发明实施例2所述的基于识别区域在视频中触发交互的方法的流程示意图;
图4A为本发明实施例2所述识别区在正在播放的所述视频显示区域内移动且未与所述触发点相配合的结构示意图;
图4B为本发明实施例2所述触发点与所述识别区相配合触发交互倒计时弹出倒计时提示框的结构示意图;
图5为本发明实施例3所述的基于识别区域在视频中触发交互的系统结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1
如图1所示,为本发明所述的基于识别区域在视频中触发虚拟现实交互的方法的流程示意图。本发明利用用户在观看视频内容的视觉反应控制触发针对所述视频内容上的交互的标识生成的需进行交互的识别区域,实现了穿戴VR显示设备观看视频时基于视觉焦点和视频内容互动触发交互。本实施例中所述的基于识别区域在视频中触发虚拟现实交互的方法包括以下步骤:
步骤101、在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容。
其中,所述识别区域是与所述视频内容相关且可触发的虚拟现实交互的标识区域,所述识别区域根据所述视频内容在视频显示区域的位移变化相应地进行移动。在显示系统中根据视频内容预先设置识别区域,用户在观看视频时根据所述识别区域即可获知在视频的所述视频内容上存在与该视频内容相关的虚拟现实交互。并且系统在设置所述识别区域时相应地设置所述识别区域对应的反馈内容,用于在通过用户操作致使触发所述识别区域时,能够调取该识别区域所对应的反馈内容。
所述识别区域生成之后附着到视频内容上,且在本发明中不特定限定所述识别区域的形状,可以是点、圆形、矩形、三角形、椭圆形或其它的规则与不规则的二维或三维图形。优选地,本实施例中所述的视频可以是全景视频,在显示系统播放全景视频的显示区域可以建立坐标系,而全景视频画面上的任意点都对应该坐标系中存在唯一的坐标,基于在全景视频画面中根据需进行交互的视频内容坐标可以设置识别区域的位置坐标。
步骤102、对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容。
步骤103、所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向(或方向)进行调整。
用户戴上所述设备后,设备由所述用户头部带动运动,所述设备方向的变化反应出了用户视觉焦点的变化,在所述设备上,检测所述视觉焦点变化引起的视角位置移动后,相应地移动视频在所述设备中的显示内容。如此便起到了通过用户头部动作控制视频播放视角移动的效果。而所述设备中的陀螺仪是现有技术中常用的检测设备运动方向的装置。
步骤104、当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
所述识别区域附着在所述视频内容上,因此所述识别区域会跟随相应的视频内容移动,在用户通过头部运动控制所述视频内容的位置移动到所述视频的显示区域内时,所述识别区域就刚好移动到正在播放的所述视频的显示区域内。
结合图2说明本实施例所述的基于识别区域在视频中触发虚拟现实交互的方法的应用,图2为本实施例中所述触发点与所述识别区相配合触发交互的结构示意图。如图2所示,在播放所述视频的设备的视频显示区域201内显示正在播放的所述视频,当所述识别区域203在正在播放的所述视频的显示区域202内,且所述触发点204所处位置在所述识别区域的边界范围内含边界时触发所述显示系统内设置的所述识别区域的反馈内容。其中,用户的左右眼在所述且所述显示区域202中分别看到左右的所述识别区域203。
所述反馈内容为在所述视频内容上需进行交互的交互内容,在本步骤中所述触发点与所述识别区域的位置关系满足触发所述视频内容上交互触发条件时获取相关的交互内容,即所述识别区域的反馈内容,并据此触发相应的交互场景。
本实施例所述的基于识别区域在视频中触发虚拟现实交互的方法,采用不需要通过设备按键操作触发交互的智能控制方式,在检测到所述触发点与在所述视频内容上预先设置的识别区域配合触发视频内容上的交互,从而实现了通过VR显示设备观看视频时基于视频内容的交互操作,提升了用户体验。
实施例2
如图3所示,为本实施例所述的基于识别区域在视频中触发虚拟现实交互的方法的流程示意图。本实施例在实施例1的基础上进一步说明了通过触发点控制视频的播放内容的视角位置调整以及所述触发点与识别区域配合触发交互的内容。本实施例中所述的基于识别区域在视频中触发虚拟现实交互的方法包括以下步骤:
步骤301、在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时配置该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示的内容。
基于该步骤的配置,使得所述识别区域移动到视频显示区域上时能够以图标显示的形式提醒用户在此处视频内容上存在虚拟现实的交互内容,而该步骤中还可以将所述图标配置为文字形式、图形形式或者文字和图形结合的形式;还可以将所述识别区域进行与所处空间位置相应的透视变换以增加合理性和真实性。
步骤302、对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容。
步骤303、所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向(或方向)进行调整。
用户穿戴播放所述视频的设备才能观看带有虚拟现实交互的视频,用户头部的运动会致使用户的视觉焦点发生空间位置上的变化,同时,用户头部的运动也带动播放所述视频的设备产生相对应的位置移动,因此,通过所述设备内置的陀螺仪可以检测到所述用户的头部的位置移动。
步骤304、播放所述视频的设备根据所述设备的方向变化相应地调整所述视频内容显示在所述设备屏幕上的区域。
通过所述视频的播放内容的视角位置调整,所述视频内容的位置也会发生相应的变化,而附着在所述视频内容上的识别区域也就进行相应地移动。
步骤305、判断所述识别区域是否移动到所述视频的显示区域内。
步骤306、当所述识别区域移动到所述视频的显示区域内,播放所述视频的设备获取所述识别区域的图标信息并显示所述识别区域的图标。
其中,所述识别区域的图标可以为显示在所述识别区域所附着的所述视频内容上的三维透视图标,并且在所述视频的显示区域内指定位置进行显示。
步骤307、当所述识别区域未移动到所述视频的显示区域内,在播放所述视频的设备上不显示所述识别区域的图标。
步骤308、在用户通过播放所述视频的设备看到所述识别区域的图标后继续通过头部的运动控制所述设备的方向发生变化后,所述设备内置的陀螺仪根据所述设备的方向调整所述视频内容显示在所述设备屏幕上的区域。
步骤309、播放所述视频的设备判断所述识别区域是否移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界。
步骤310、当所述识别区域移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时。
在所述触发点与所述识别区域相配合时,不会立即触发所述识别区域的反馈内容,而是先生成触发延迟的启动触发倒计时,使得用户在使用时有对操作进行确认的时间,以避免用户误操作的发生。
步骤311、当所述识别区域移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围外或部分位置处于所述识别区域的边界外时,不生成启动触发倒计时,也不触发所述显示系统内设置的所述识别区域的反馈内容。
步骤312、当所述识别区域移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时后,判断所述启动触发倒计时是否为0。
步骤313、当所述识别区域移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
步骤314、当所述识别区域移动到在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为非0时,不触发所述显示系统内设置的所述识别区域的反馈内容。
其中,在上述步骤中的所述启动触发倒计时,进一步为至多5秒倒计时。
在本实施例中,结合图4A和图4B说明本实施例所述的基于识别区域在视频中触发虚拟现实交互的方法的应用,图4A为本实施例中所述识别区在正在播放的所述视频显示区域内移动且未与所述触发点相配合的结构示意图,图4B为本实施例中所述触发点与所述识别区相配合触发交互倒计时弹出倒计时提示框的结构示意图。如图4A和图4B所示,在播放所述视频的设备的视频显示区域401内显示正在播放的所述视频,当所述识别区域403在正在播放的所述视频的显示区域402内,且所述触发点404所处位置在所述识别区域的边界范围内含边界时生成启动触发倒计时提示框405并进行显示,当所述启动触发倒计时提示框405中的倒计时为0时触发所述显示系统内设置的所述识别区域的反馈内容。其中,用户的左右眼在所述且所述显示区域402中分别看到左右的所述识别区域403。
通过本实施例所述的基于识别区域在视频中触发虚拟现实交互的方法,不需要用户再使用虚拟设备上的按键来触发VR交互,仅根据用户的在观看视频内容的视觉焦点的反应就可以触发对应的虚拟现实交互,避免了用户在结合视觉及按键操作中的繁杂性,提升了用户体验。
实施例3
如图5所示,为本实施例所述的基于识别区域在视频中触发虚拟现实交互的系统的结构示意图。本实施所述的基于识别区域在视频中触发虚拟现实交互的系统可以用于实现上述实施例中所述的基于识别区域在视频中触发虚拟现实交互的方法,该系统包括:交互对应识别区域生成模块501、交互触发模块502及反馈模块503。
其中,所述交互对应识别区域生成模块501与所述反馈模块503相藕接,用于在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容。
所述交互触发模块502与所述反馈模块503相藕接,用于对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容。
所述反馈模块503与所述交互对应识别区域生成模块501及所述交互触发模块502相藕接,用于当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
其中,所述交互对应识别区域生成模块501进一步用于在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示。
所述交互触发模块502进一步用于对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,且所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向(或方向)进行调整。
所述反馈模块503进一步用于当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
优选地,在上述的基于识别区域在视频中触发虚拟现实交互的系统中,所述启动触发倒计时进一步为至多5秒倒计时。
通过以上各个实施例可知,本发明的基于识别区域在视频中触发虚拟现实交互的方法及系统存在的有益效果是:
(1)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,通过VR显示设备识别预先设置在视频中需进行交互的视频内容上的交互的识别区域并据此在视频显示区域内生成交互的识别区域图标,当用户头部运动导致视角发生变化时,VR显示设备检测到该所述视角变化引起的视角位置移动后,相应地移动显示内容,通过所述显示内容的位置移动导致与所述显示内容相关的所述识别区域的位置移动,在所述识别区域与VR显示设备上设置的触发点配合满足触发条件时触发虚拟现实交互,实现了用户穿戴VR显示设备观看视频时基于视觉焦点和视频内容互动触发交互,不需要复杂的按键操作,仅通过用户的视觉反应便可控制基于视频内容的交互,提升了用户的使用体验。
(2)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,在用户使用VR显示设备观看视频时,还设置了在所述触发点与所述识别区域配合时生成启动触发倒计时的确认提醒,以确认是否触发所述视频内容上的交互,保证了准确地按照用户意愿触发所述视频内容上的交互,由此避免了用户误操作的发生。
(3)本发明所述的基于识别区域在视频中触发虚拟现实交互的方法及系统,在用户使用VR显示设备观看视频时,针对带有交互的标识的视频内容生成的识别区域跟随所述视频内容的移动进行移动,保证了用户有触发所述视频内容对应的虚拟现实交互意愿时,通过用户的操作能控制所述触发点准确地与所述识别区域配合,从而提升了在视频播放过程中基于识别区域触发虚拟现实交互的准确性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
虽然已经通过例子对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上例子仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员应该理解,可在不脱离本发明的范围和精神的情况下,对以上实施例进行修改。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于识别区域在视频中触发虚拟现实交互的方法,其特征在于,包括:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容;
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容;
当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
2.根据权利要求1所述的基于识别区域在视频中触发虚拟现实交互的方法,其特征在于,在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,进一步为:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示。
3.根据权利要求1所述的基于识别区域在视频中触发虚拟现实交互的方法,其特征在于,对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,进一步为:
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,且所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向进行调整。
4.根据权利要求1所述的基于识别区域在视频中触发虚拟现实交互的方法,其特征在于,当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容,进一步为:
当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
5.根据权利要求4所述的基于识别区域在视频中触发虚拟现实交互的方法,其特征在于,所述启动触发倒计时,进一步为至多5秒倒计时。
6.一种基于识别区域在视频中触发虚拟现实交互的系统,其特征在于,包括:交互对应识别区域生成模块、交互触发模块及反馈模块,其中
所述交互对应识别区域生成模块,用于在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容;
所述交互触发模块,用于对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容;
所述反馈模块,用于当所述识别区域在正在播放的所述视频的显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,触发所述显示系统内设置的所述识别区域的反馈内容。
7.根据权利要求6所述的基于识别区域在视频中触发虚拟现实交互的系统,其特征在于,所述交互对应识别区域生成模块,进一步用于:
在视频的显示系统中设置视频内容上需进行交互,且附着在所述视频内容上的识别区域以及该识别区域的反馈内容,同时该识别区域在所述视频的设备的视频显示区域上呈现为图标形式显示。
8.根据权利要求6所述的基于识别区域在视频中触发虚拟现实交互的系统,其特征在于,所述交互触发模块,进一步用于:
对播放所述视频的设备的视频显示区域划分为对等左右两部分,其中每个部分的对角线交叉点上设置触发点,所述触发点用于触发出现在所述视频显示区域内的所述识别区域对应的反馈内容,且所述视频内容显示在所述设备屏幕上的区域由所述设备内置的陀螺仪根据所述设备的朝向进行调整。
9.根据权利要求6所述的基于识别区域触发交互的系统,其特征在于,所述反馈模块,进一步用于:
当所述识别区域在正在播放的所述视频显示区域内,且所述触发点所处位置在所述识别区域的边界范围内含边界时,生成启动触发倒计时,所述启动触发倒计时为0时,触发所述显示系统内设置的所述识别区域的反馈内容。
10.根据权利要求9所述的基于识别区域触发交互的系统,其特征在于,所述启动触发倒计时,进一步为至多5秒倒计时。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610474834.5A CN106200900B (zh) | 2016-06-24 | 2016-06-24 | 基于识别区域在视频中触发虚拟现实交互的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610474834.5A CN106200900B (zh) | 2016-06-24 | 2016-06-24 | 基于识别区域在视频中触发虚拟现实交互的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106200900A true CN106200900A (zh) | 2016-12-07 |
CN106200900B CN106200900B (zh) | 2019-02-01 |
Family
ID=57461663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610474834.5A Active CN106200900B (zh) | 2016-06-24 | 2016-06-24 | 基于识别区域在视频中触发虚拟现实交互的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106200900B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803017A (zh) * | 2017-01-13 | 2017-06-06 | 杭州赛翁思科技有限公司 | 一种苯丙胺类药物成瘾人员的渴求度评估方法 |
CN108364353A (zh) * | 2017-12-27 | 2018-08-03 | 广东鸿威国际会展集团有限公司 | 引导观看者观看场景的三维直播流的系统和方法 |
CN108536277A (zh) * | 2017-03-06 | 2018-09-14 | 北京可见文化传播有限公司 | 在vr环境中激活与画面无关的交互元素的方法及系统 |
WO2018195879A1 (zh) * | 2017-04-27 | 2018-11-01 | 西安诺瓦电子科技有限公司 | 视频录制及处理系统以及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20130147836A1 (en) * | 2011-12-07 | 2013-06-13 | Sheridan Martin Small | Making static printed content dynamic with virtual data |
US20140063055A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
CN104641319A (zh) * | 2012-09-18 | 2015-05-20 | 高通股份有限公司 | 用于使头戴式显示器的使用对非用户较不明显的方法和系统 |
CN104793741A (zh) * | 2015-04-03 | 2015-07-22 | 深圳市虚拟现实科技有限公司 | 带眼球跟踪虚拟现实成像系统和方法 |
-
2016
- 2016-06-24 CN CN201610474834.5A patent/CN106200900B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20140063055A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US20130147836A1 (en) * | 2011-12-07 | 2013-06-13 | Sheridan Martin Small | Making static printed content dynamic with virtual data |
CN104641319A (zh) * | 2012-09-18 | 2015-05-20 | 高通股份有限公司 | 用于使头戴式显示器的使用对非用户较不明显的方法和系统 |
CN104793741A (zh) * | 2015-04-03 | 2015-07-22 | 深圳市虚拟现实科技有限公司 | 带眼球跟踪虚拟现实成像系统和方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803017A (zh) * | 2017-01-13 | 2017-06-06 | 杭州赛翁思科技有限公司 | 一种苯丙胺类药物成瘾人员的渴求度评估方法 |
CN106803017B (zh) * | 2017-01-13 | 2019-09-03 | 常山赛翁思智能科技有限公司 | 一种苯丙胺类药物成瘾人员的渴求度评估方法 |
CN108536277A (zh) * | 2017-03-06 | 2018-09-14 | 北京可见文化传播有限公司 | 在vr环境中激活与画面无关的交互元素的方法及系统 |
WO2018195879A1 (zh) * | 2017-04-27 | 2018-11-01 | 西安诺瓦电子科技有限公司 | 视频录制及处理系统以及方法 |
CN108364353A (zh) * | 2017-12-27 | 2018-08-03 | 广东鸿威国际会展集团有限公司 | 引导观看者观看场景的三维直播流的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106200900B (zh) | 2019-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2017203641B2 (en) | Interactive virtual reality platforms | |
TWI690842B (zh) | 基於手勢辨認的互動顯示方法和裝置 | |
CN105518575B (zh) | 与自然用户界面的双手交互 | |
JP5900393B2 (ja) | 情報処理装置、操作制御方法及びプログラム | |
WO2022066728A1 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
CN102830795B (zh) | 利用运动传感装置的远程控制 | |
JP2014501413A (ja) | ジェスチャ認識のためのユーザ・インタフェース、装置および方法 | |
US20130159940A1 (en) | Gesture-Controlled Interactive Information Board | |
CN106200900A (zh) | 基于识别区域在视频中触发虚拟现实交互的方法及系统 | |
KR101392936B1 (ko) | 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법 | |
CN109582147A (zh) | 一种用于呈现增强交互内容的方法以及用户设备 | |
Fang et al. | Head-mounted display augmented reality in manufacturing: A systematic review | |
CN104516654B (zh) | 操作处理方法和装置 | |
CN115496850A (zh) | 家居设备控制方法、智能穿戴设备和可读存储介质 | |
Kjeldsen et al. | Dynamically reconfigurable vision-based user interfaces | |
Zhang et al. | A novel human-3DTV interaction system based on free hand gestures and a touch-based virtual interface | |
Fourney et al. | Gesturing in the wild: understanding the effects and implications of gesture-based interaction for dynamic presentations | |
Feuerstack et al. | Model-based design and generation of a gesture-based user interface navigation control. | |
Liu et al. | COMTIS: Customizable touchless interaction system for large screen visualization | |
GB2533777A (en) | Coherent touchless interaction with steroscopic 3D images | |
KR101474873B1 (ko) | 비동작 신호 및 동작 신호에 기반한 제어 장치 및 그 장치 제어 방법 | |
US20240069642A1 (en) | Scissor hand gesture for a collaborative object | |
US20240071020A1 (en) | Real-world responsiveness of a collaborative object | |
US20240069643A1 (en) | Physical gesture interaction with objects based on intuitive design | |
US20240079031A1 (en) | Authoring tools for creating interactive ar experiences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |