CN111415421A - 虚拟物体控制方法、装置、存储介质及增强现实设备 - Google Patents
虚拟物体控制方法、装置、存储介质及增强现实设备 Download PDFInfo
- Publication number
- CN111415421A CN111415421A CN202010255559.4A CN202010255559A CN111415421A CN 111415421 A CN111415421 A CN 111415421A CN 202010255559 A CN202010255559 A CN 202010255559A CN 111415421 A CN111415421 A CN 111415421A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- action
- head
- augmented reality
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000009471 action Effects 0.000 claims abstract description 107
- 230000004424 eye movement Effects 0.000 claims abstract description 32
- 230000000875 corresponding effect Effects 0.000 claims abstract description 27
- 230000001276 controlling effect Effects 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims abstract description 12
- 210000003128 head Anatomy 0.000 claims description 113
- 230000033001 locomotion Effects 0.000 claims description 94
- 210000001508 eye Anatomy 0.000 claims description 93
- 230000008859 change Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 2
- 230000004886 head movement Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000003993 interaction Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004399 eye closure Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
本公开提供一种虚拟物体控制方法、虚拟物体控制装置、存储介质与增强现实设备,涉及增强现实技术领域。其中,所述虚拟物体控制方法包括:锁定增强现实场景中的虚拟物体;获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;通过解析包含眼部的多帧图像确定眼部动作;根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。本公开的技术方案避免了额外的操作,提高了对虚拟物体进行控制的便捷性和效率。
Description
技术领域
本公开涉及增强现实技术领域,尤其涉及一种虚拟物体控制方法、虚拟物体控制装置、计算机可读存储介质与增强现实设备。
背景技术
目前,对于AR(Augmented Reality,增强现实)设备生成的增强现实场景而言,为了提高交互感,需要按照实际需求来调整虚拟物体。
相关技术中,为了解决通过触摸屏幕来进行调整的不方便的问题,可以通过各种光学传感器获取用户的手势并识别,采用手势交互的方式来对虚拟物体进行控制。或者是可以通过麦克风获取用户的语音指令并识别,以便于通过语音交互的方式来对虚拟物体进行控制。
上述的交互方式中,增加了额外的操作,使得操作步骤较多并且在某些场景下不容易执行和实现,因此操作较复杂、具有一定的局限性且便捷性较差。另外,上述交互方式中可能会暴露用户的手势或者是语音,并且用户提供的手势以及语音差别较大,因此保密性较差且准确性较差。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种虚拟物体控制方法、虚拟物体控制装置、计算机可读存储介质与增强现实设备,进而至少在一定程度上克服相关技术中虚拟物体控制不方便以及具有局限性的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种虚拟物体控制方法,包括:锁定增强现实场景中的虚拟物体;获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;通过解析包含眼部的多帧图像确定眼部动作;根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
根据本公开的一个方面,提供一种虚拟物体控制装置,包括:虚拟物体确定模块,用于锁定增强现实场景中的虚拟物体;头部动作识别模块,用于获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;眼部动作识别模块,用于通过解析包含眼部的多帧图像确定眼部动作;调整控制模块,用于根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的虚拟物体控制方法。
根据本公开的一个方面,提供一种增强现实设备,包括:处理器;存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的虚拟物体控制方法。
本公开实施例中提供的虚拟物体控制方法、虚拟物体控制装置、计算机可读存储介质与增强现实设备,识别用户的头部动作以及眼部动作,根据参考动作与动作指令之间的映射关系将头部动作和/或眼部动作解析为对应的动作指令,并根据动作指令在增强现实场景中对虚拟物体的状态信息进行调整操作。一方面,由于可以通过头部动作和/或眼部动作来在增强现实场景对虚拟物体的状态信息进行调整,避免了需要手势控制或者是语音控制的操作,避免了额外的操作,减少了操作步骤且避免了应用场景或者是用户自身条件的限制,减小了局限性,增加了应用范围且提高了便捷性,过程简单且易于实施。另一方面,避免了手势和语音的差别而导致的难以实现的问题,提高了控制虚拟物体的准确性,并且不会暴露用户行为,提高了保密性,实用性较高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本示例性实施方式中用于实现虚拟物体控制方法的增强现实设备结构示意图;
图2示出本示例性实施方式中一种虚拟物体控制方法的流程图;
图3示出本示例性实施方式中识别头部动作的流程图;
图4示出本示例性实施方式中一种虚拟物体控制装置的结构框图;
图5示出本示例性实施方式中一种增强物体控制系统的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
相关技术中的技术方案,是基于手势和语音以及触控方式来对虚拟物体进行控制。基于手势的方案有如下缺点:某些场景下用户不便于使用手势。如用户手臂残疾,如设备较大,需要双手持握。即使以上问题不存在,抬手操作仍然在某些情况下受到环境和应用场景的限制,同时会加重用户的负担。基于语音的方案有如下缺点:不同用户的说话的口音差别较大,难以准确识别。同时对于某些发声功能障碍的用户来说,用语音操作完全不可能。并且在某些场景下,不便于发出声音,因此无法语音操作。触控方式主要缺点是在某些场合无法接触设备,因此使得触控操作无法进行。
为了解决上述技术问题,本公开的示例性实施方式提供一种增强现实设备。下面以图1中的增强现实设备100为例,对其内部的单元构造进行示例性说明。本领域技术人员应当理解,增强现实设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。各部件间的接口连接关系只是示意性示出,并不构成对增强现实设备100的结构限定。在另一些实施方式中,增强现实设备100也可以采用与图1不同的接口连接方式,或多种接口连接方式的组合。
如图1所示,增强现实设备100至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的虚拟物体控制方法。
具体的,如图1所示,增强现实设备100可以包括:处理器110、内部存储器121、外部存储器接口122、通用串行总线(Universal Serial Bus,USB)接口130、充电管理模块140、电源管理模块141、电池142、天线1、天线2、移动通信模块150、无线通信模块160、音频模块170、扬声器171、受话器172、麦克风173、耳机接口174、传感器模块180、显示屏190、摄像模组191、指示器192、马达193、按键194以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口195等。其中传感器模块180可以包括深度传感器1801、压力传感器1802、陀螺仪传感器1803、气压传感器1804、磁传感器1805、加速度传感器1806、距离传感器1807、接近光传感器1808、指纹传感器1809、温度传感器1810、触摸传感器1811、环境光传感器1812及骨传导传感器1813等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器110中还可以设置存储器,用于存储指令和数据。
USB接口130是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口130可以用于连接充电器为增强现实设备100充电,也可以用于增强现实设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他增强现实设备,例如AR设备等。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块141用于连接电池142、充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110、内部存储器121、显示屏190、摄像模组191和无线通信模块160等供电。
增强现实设备100的无线通信功能可以通过天线1、天线2、移动通信模块150、无线通信模块160、调制解调处理器以及基带处理器等实现。
移动通信模块150可以提供应用在增强现实设备100上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块160可以提供应用在增强现实设备100上的包括无线局域网(Wireless Local Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
增强现实设备100通过GPU、显示屏190及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏190和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
增强现实设备100可以通过ISP、摄像模组191、视频编解码器、GPU、显示屏190及应用处理器等实现拍摄功能。在一些实施例中,增强现实设备100可以包括1个或N个摄像模组191,N为大于1的正整数,若增强现实设备100包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。外部存储器接口122可以用于连接外部存储卡,例如Micro SD卡,实现扩展增强现实设备100的存储能力。
增强现实设备100可以通过音频模块170、扬声器171、受话器172、麦克风173、耳机接口174及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器171,也称“喇叭”,用于将音频电信号转换为声音信号。增强现实设备100可以通过扬声器171收听音乐,或收听免提通话。受话器172,也称“听筒”,用于将音频电信号转换成声音信号。当增强现实设备100接听电话或语音信息时,可以通过将受话器172靠近人耳接听语音。麦克风173,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风173发声,将声音信号输入到麦克风173。增强现实设备100可以设置至少一个麦克风173。耳机接口174用于连接有线耳机。
针对增强现实设备100包括的传感器,深度传感器1801用于获取景物的深度信息。压力传感器1801用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器1803可以用于确定增强现实设备100的动作姿态。气压传感器1804用于测量气压。磁传感器1805包括霍尔传感器。增强现实设备100可以利用磁传感器1805检测翻盖皮套的开合。加速度传感器1806可检测增强现实设备100在各个方向上(一般为三轴)加速度的大小。距离传感器1807用于测量距离。接近光传感器1808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器1809用于采集指纹。温度传感器1810用于检测温度。触摸传感器1811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏190提供与触摸操作相关的视觉输出。环境光传感器1812用于感知环境光亮度。骨传导传感器1813可以获取振动信号。
按键194包括开机键,音量键等。按键194可以是机械按键。也可以是触摸式按键。马达193可以产生振动提示。马达193可以用于来电振动提示,也可以用于触摸振动反馈。指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口195用于连接SIM卡。增强现实设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。
基于上述增强现实设备,本公开示例性实施方式提供一种虚拟物体控制方法。图2示出了该虚拟物体控制方法的流程图,可以包括以下步骤S210至S240,详细介绍如下:
参考图2中所示,在步骤S210中,锁定增强现实场景中的虚拟物体。
本公开实施例中,增强现实场景指的是借助计算机图形技术和可视化技术产生真实环境中不存在的虚拟对象或虚拟物体等,并将虚拟对象和虚拟物体准确放置在真实环境中,从而形成的交互场景。本公开实施例中的增强现实场景可以为单人AR场景或者是多人AR场景。
本公开实施例中,增强现实场景可以通过多种形式的增强现实设备而构建,增强现实设备的类型可以包括第一类型和第二类型。第一类型例如可以为相对静止的设备,例如手机、体感游戏机等增强现实设备。第二类型可以为需要用户佩戴的设备,例如增强现实眼镜以及增强现实头盔等等。对于第二类型的增强现实设备而言,其中还可以包括红外传感器,以用于判断增强现实设备是否处于佩戴状态。具体地,红外传感器包括设于增强现实设备一侧的发射器,和设于增强现实设备另一侧的接收器;发射器发射红外信号时,接收器可以接收到红外信号。当发射器和接收器之间存在遮挡物时,可以确定处于佩戴状态。即,当检测接收器接收到发射器发射的红外信号时,确定增强现实设备处于未佩戴状态;当检测接收器未接收到发射器发射的红外信号时,确定增强现实设备处于佩戴状态。在增强显示设备处于佩戴状态下,可以显示增强现实场景。
在对虚拟物体进行控制之前,首先可以锁定增强现实场景中的虚拟物体。此处的虚拟物体指的是待调整的物体模型。具体可以通过用户的眼睛的视线停留的位置确定待调整的虚拟物体,以锁定所述虚拟物体。例如,用户的眼睛的视线停留的位置为位置A,则可以将位置A处对应的虚拟物体A作为待调整的虚拟物体。在选择出待调整的虚拟物体时,可以通过眼部的切换动作(例如眨眼)切换虚拟物体。与此同时,在确定虚拟物体之后,可以控制虚拟物体的位置保持不变,以便于后续的头部和眼部控制操作。
在步骤S220中,获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作。
本公开实施例中,用户可以为使用增强现实设备的用户。此处获取头部动作主要用于实现无需大幅度动作。预设部位可以为用户的头部和眼部等无需大幅度动作的部位。获取用户的头部的位置指的是确定用户的头部在周围环境中目前所在的位置的坐标,以便于识别出用户的头部。进一步根据用户的头部的位置对用户的头部进行追踪识别,从而为识别出头部动作提供基础。在确定头部位置后,可以基于该位置准确地锁定用户的头部,从而基于头部的位置以及所述头部的姿态信息对用户的头部和眼部动作进行识别。
本公开实施例中,在识别头部动作时,可以基于位置获取第一预设时长内所述头部的姿态信息,并通过所述姿态信息的变化信息识别所述头部动作。第一预设时长可以为2秒或者是5秒等等,只要能够实现一个或多个头部动作即可。头部的姿态信息可以根据头部的位置以及所处角度而确定。头部的姿态信息的变化信息指的是头部的姿态信息在第一预设时长内所产生的变化情况,例如左移、上移等等。具体地,姿态信息可以通过IMU(Inertial measurement unit,惯性测量单元)获取。可以获取第一预设时长内的姿态信息序列,进而根据姿态信息序列中当前姿态信息与相邻的上一个姿态信息之间的差别确定头部动作。或者也可以通过其他方式来确定,此处不作特殊限定。头部动作可以包括但不限于朝各个方向的移动以及转动等等。
由于不同类型的增强现实设备的结构不同,且由于结构限制所能采集到的信息不同,因此可以根据增强现实设备的类型来使用不同的识别组件识别头部动作。识别组件可以包括增强现实设备中的摄像头或者是姿态传感器等等,此处不做限定。
图3中示意性示出了识别头部动作的流程图,参考图3中所示,可以包括步骤S310至步骤S330,其中:
在步骤S310中,判断增强现实设备的类型是否为第一类型;若是,则转至步骤S320;若否,则转至步骤S330。
在步骤S320中,通过增强现实设备的摄像头确定所述姿态信息的所述变化信息,以识别头部动作。
本公开实施例中,增强现实设备的摄像头可以为前置摄像头或者是至少一个后置摄像头,其中还可以包括深度摄像头。即,如果增强现实设备为手机、体感游戏机等相对静止的设备,则可以通过增强现实设备的摄像头采集包含用户的头部的图像,进而通过对包含头部的图像进行图像识别,以确定出第一预设时长内头部的姿态信息序列,进而可以根据姿态信息序列确定用户的头部动作。例如,通过增强现实设备,识别出在T1时刻,用户的头部动作为左转。
在步骤S330中,通过增强现实设备的姿态传感器确定所述姿态信息的所述变化信息,以识别头部动作。
本公开实施例中,若增强现实设备的类型为第二类型,则通过增强现实设备的姿态传感器识别头部动作。由于增强现实设备为第二类型时,增强现实设备可以穿戴于用户头部,无法通过增强现实设备的摄像头直接采集到包含用户的头部的图像,因此可以采用增强现实设备中配置的姿态传感器来确定出第一预设时长内头部的姿态信息序列,以对用户的头部动作进行识别。姿态传感器是基于MEMS(Microelectro Mechanical Systems,微机电系统)技术的高性能三维动作姿态测量系统。它包含三轴陀螺仪、三轴加速度计,三轴电子罗盘等动作传感器,通过内嵌的低功耗ARM处理器得到经过温度补偿的三维姿态与方位等数据。利用基于四元数的三维算法和特殊数据融合技术,实时输出以四元数、欧拉角表示的零漂移三维姿态方位数据。举例而言,通过增强现实设备的姿态传感器,可以确定在T2时刻用户的头部动作为低头。
图3中的技术方案,通过增强现实设备的类型来选择合适的方式和合适的识别组件来识别用户的头部动作,通过对不同类型的增强现实设备采用不同的识别组件来识别头部动作,能够提供更合适的识别方式,同时提高头部动作识别的准确性。
接下来,继续参考图2中所示,在步骤S230中,通过解析包含眼部的多帧图像确定眼部动作。
本公开实施例中,首先可以获取用户的眼部的位置,即确定用户的眼部在周围环境中目前所在的位置的坐标,以便于识别出用户的眼部。进一步根据用户的眼部的位置对用户的眼部进行追踪识别,从而为识别出眼部动作提供基础。眼部动作包括但不限于睁眼、闭眼以及长闭眼、连续闭眼等等。
本公开实施例中,获取眼部动作时,可以获取第二预设时长内的包含所述眼部的多帧图像;进而通过所述多帧图像中的所述眼部的状态和位置的变化序列,确定所述眼部动作。第二预设时长可以与第一预设时长相同或不同,也可以为2秒或者是5秒等等,只要能够实现一个或多个眼部动作即可。眼部的状态可以用睁眼和闭眼等动作以及持续时长表示,眼部的位置可以用眼球的位置来表示。眼部的状态和位置的变化序列指的是眼部的状态和位置在第二预设时长内所产生的变化情况,例如睁眼、上移等等。具体地,可以获取第二预设时长中包含眼部的多帧图像,将多帧图像按照时间序列进行排序,进而根据变化序列中当前状态和位置与相邻的上一个状态和位置之间的差别确定眼部动作。或者也可以通过其他方式来确定,此处不作特殊限定。
本公开实施例中,还可以通过增强现实设备的摄像头识别用户的眼部动作。在识别眼部动作时,无需根据增强现实设备进行区分,即所有的增强现实设备均可以通过自身配置的摄像头而识别用户的眼部动作。具体地,可以对眼部进行图像采集,得到包含用户的眼部的图像,并根据对包含眼部的图像的图像分析结果确定用户的眼部动作。举例而言,通过增强现实设备的摄像头,识别的在T1时刻用户的眼部动作为睁眼。本公开实施例中,通过增强现实设备的摄像头,能够准确地识别用户的眼部动作,提高动作识别的准确性和便捷性。
需要说明的是,本公开实施例中,可以先识别头部动作或先识别眼部动作,也可以同时识别头部动作和眼部动作,此处对执行顺序不作特殊限定。在识别头部动作和眼部动作时,还可以根据训练好的机器学习模型来进行自动识别,例如可以根据头部识别模型来确定头部动作,根据眼部识别模型来确定眼部动作等等。
继续参考图2中所示,在步骤S240中,根据参考动作与动作指令之间的映射关系,将所述头部动作和/或眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
本公开实施例中,动作指令可以为多个可以选择的操作指令,且动作指令可以作用于虚拟物体,以便于对虚拟物体的状态信息进行调整。举例而言,动作指令可以包括但不限于左移、右移、上移、下移以及放大、缩小、固定不变以及删除等调整虚拟物体的操作指令。参考动作可以包括眼部和头部可能发生的所有的动作,参考动作与动作指令之间的映射关系中,每一个参考动作(头部动作和眼部动作)均可以与一个动作指令对应。参考动作与动作指令之间的映射关系具体可以如表1所示,例如,头部动作为左转时,动作指令为控制虚拟物体左移;眼部动作为睁眼时,动作指令为控制虚拟物体放大。
表1
头部左转 | 控制虚拟物体向左移动 | 睁眼 | 控制虚拟物体放大 |
头部右转 | 控制虚拟物体向右移动 | 闭眼 | 控制虚拟物体缩小 |
抬头 | 控制虚拟物体向上移动 | 长闭眼 | 控制物体固定在当前位置 |
低头 | 控制虚拟物体向下移动 | 连续闭眼 | 删除虚拟物体 |
在识别到用户的头部动作和/或眼部动作之后,可以将识别到的头部动作和/或眼部动作与存储的参考动作相匹配,以确定识别到的动作是否与参考动作其中之一匹配。如果识别到的动作与参考动作其中之一匹配,则根据匹配成功的参考动作与动作指令之间的映射关系,将识别到的动作按照映射关系解析成对应的动作指令。举例而言,当识别到用户的头部动作为抬头时,解析得到的动作指令为控制虚拟物体向上移动。如果识别到的动作与参考动作中的任意一个匹配失败,则停止将识别到的动作按照映射关系解析成对应的动作指令,并且可以保持虚拟物体的状态信息不变。当然,为了提高交互的有效性,可以在匹配失败时,提供一提示信息对头部动作以及眼部动作进行提醒。提示信息可以为文字形式或者是动画形式或者是其他形式,此处不做具体限定。
本公开实施例中,在解析得到头部动作以及眼部动作对应的动作指令之后,可以根据该动作指令对虚拟物体进行控制。由于头部动作和眼部动作对虚拟物体的控制维度不同,因此可以结合头部动作和眼部动作中的一种或两种来对虚拟物体进行控制。
为了避免误操作,可以在检测到触发操作时,根据动作指令对虚拟物体进行调整。触发操作可以为用户眼睛的视线停留在某一虚拟物体处超过时长阈值(例如1分钟),或者是其他类型的触发操作,此处不做具体限定,只要能够避免误操作,实现虚拟物体的精准触发即可。
结合头部动作以及眼部动作对虚拟物体的状态信息进行调整可以包括以下几种情况:根据头部动作或眼部动作中的任意一种进行虚拟物体的调整,以及根据头部动作和眼部动作的组合进行虚拟物体的调整。状态信息可以包括位置信息以及显示状态中的一种或多种的组合,此处以状态信息为位置信息和显示状态为例进行说明。位置信息可以根据移动信息来表示,移动信息可以包括但不限于是否可移动,移动的方向以及移动的程度、倾斜角度等等。显示状态可以包括但不限于是否显示、显示的大小以及位置是否固定、显示的颜色以及数量等等。
本公开实施例中,可以根据头部动作对应的动作指令,控制虚拟物体进行移动,以调整移动信息。具体而言,可以根据头部动作的程度参数确定虚拟物体在对应移动方向上的移动距离。移动方向可以根据头部动作所对应的动作指令直接确定,例如当识别到用户的头部动作为抬头时,解析得到的动作指令为控制虚拟物体向上移动,则移动方向为向上。程度参数可以为头部动作的幅度和/或持续时长,以及头部动作的次数。基于此,可以基于抬头的幅度以及抬头的持续时长中的任意一种或者是两种的组合来确定将虚拟物体向上移动的移动距离,以便于根据移动距离来控制虚拟物体向上移动。其中,头部动作幅度与移动距离正相关,且持续时长也与移动距离正相关。除此之外,还可以根据头部动作的次数来控制虚拟物体的移动距离。其中,每次头部动作所对应的虚拟物体的移动距离是相同的,头部动作的次数可以与移动距离正相关,即头部动作执行几次,则按照相同的移动距离来移动几次,从而确定虚拟物体按照头部动作移动后的位置。需要补充的是,还可以通过其他操作(头部转圈)来调整虚拟物体的角度,以便于对虚拟物体进行旋转等等,此处不做详细描述。
进一步地,可以通过用户的眼部动作来对虚拟物体的显示状态进行调整。由于显示状态可以包括不同的形式,因此可以分别对显示状态中的各个形式进行调整。具体地,当显示状态为虚拟物体的大小时,可以根据眼部动作对应的动作指令以及眼部动作的次数对虚拟物体的大小进行调整。即,按照眼部动作对应的动作指令对虚拟物体的大小进行缩放,且根据眼部动作的次数确定缩放程度。每次执行同一个眼部动作的缩放程度是相同的,通过眼部动作的执行次数可以准确确定将虚拟对象缩放到倍数。举例而言,眼部动作为睁眼时,可以控制虚拟物体放大一倍;若眼部动作为闭眼时,可以控制虚拟物体连续缩小两倍。
除此之外,如果识别到用户的眼部动作为长闭眼,则可以控制虚拟物体固定在当前位置保持不变;如果识别到用户的眼部动作为连续闭眼,则可以删除虚拟物体,使得该虚拟物体不再展示在显示界面上。
需要补充的是,为了用户能够清楚地确定虚拟物体是否满足要求,可以在显示界面的任意位置处提供提示标识,该提示标识用于表示虚拟物体进行调整的具体细节,例如可以用箭头表示出调整方向,用文字标识表示调整程度以及详细信息等等,以为用户提供便捷。进一步地,在多人AR场景中,可以将该虚拟物体的状态信息作为锚点信息托管至云端,锚点信息中可以包括虚拟物体的调整信息、位置、大小等等,以便于其他用户下载、查看并进行操作等等。
综上所述,本公开实施例中,通过用户的头部动作和/或眼部动作等无需大幅度动作的预设部位的动作来对增强现实场景中的虚拟物体进行调整。通过头部动作可以对虚拟物体进行移动,通过眼部动作可以对虚拟物体的大小进行缩放,由于头部动作和眼部动作对于所有用户而言,不存在差异性,其操作方式具有普适性,能够准确地调节虚拟物体的大小、位置以及是否显示等参数。对于手臂残疾和发声功能障碍等不方便的用户而言,可以通过眼部和头部无障碍控制增强现实场景中虚拟物体的移动和大小,为更多的用户使用增强现实设备或软件带来方便,提高了便捷性和应用范围。对于无上述障碍的人来说,头部和眼部动作比手势控制更方便,无须进行手部操作和语音控制,可以更快进入操作状态,并且可以应用于各种不适合手势交互或语音交互的场景中,因此应用范围更广,提高了普适性。由于头部和眼部动作属于幅度较小的动作,因此并不会被识别出用户在使用增强现实设备或软件,提高了保密性,且提高了操作的安全性。同时也避免了由于用户身体原因或者是应用场景等原因对交互方式造成的局限性,能够极大程度地增加应用范围和便捷性。也能够避免由于用户的手势或者是语音差别较大从而导致的无法识别的问题,提高了虚拟物体交互的准确性以及可操作性。
本公开示例性实施方式还提供一种虚拟物体控制装置,可以配置于上述增强现实设备。如图4所示,该虚拟物体控制装置400可以包括:
虚拟物体确定模块401,用于锁定增强现实场景中的虚拟物体;
头部动作识别模块402,用于获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;
眼部动作识别模块403,用于通过解析包含眼部的多帧图像确定眼部动作;
调整控制模块404,用于根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
在本公开的一种示例性实施例中,头部动作识别模块包括:识别控制模块,用于基于所述位置获取第一预设时长内所述头部的姿态信息,并通过所述姿态信息的变化信息识别所述头部动作。
在本公开的一种示例性实施例中,识别控制模块包括:第一识别模块,用于若所述增强现实设备的类型为第一类型,则通过所述增强现实设备的摄像头确定所述姿态信息的所述变化信息,以识别所述头部动作;第二识别模块,用于若所述增强现实设备的类型为第二类型,则通过所述增强现实设备的姿态传感器确定所述姿态信息的所述变化信息,以识别所述头部动作。
在本公开的一种示例性实施例中,眼部动作识别模块包括:图像获取模块,用于获取第二预设时长内的包含所述眼部的多帧图像;识别控制模块,用于通过所述多帧图像中的所述眼部的状态和位置的变化序列,确定所述眼部动作。
在本公开的一种示例性实施例中,调整控制模块包括:物体移动模块,用于根据所述头部动作对应的动作指令,控制所述虚拟物体进行移动;和/或物体状态调整模块,用于根据所述眼部动作对应的动作指令,对所述虚拟物体的显示状态进行控制。
在本公开的一种示例性实施例中,物体移动模块被配置为:根据所述头部动作的程度参数确定所述虚拟物体的移动距离。
在本公开的一种示例性实施例中,物体状态调整模块被配置为:根据所述眼部动作对应的动作指令,以及所述眼部动作的次数,对所述虚拟物体的大小进行缩放。
本公开实施例中,在上述虚拟物体控制方法的基础上,还提供了一种虚拟物体控制系统500,参考图5中所示,该系统包括动作识别系统501、指令解析系统502以及响应显示系统503,其中:
动作识别系统,接收用户的头部动作和眼部动作,通过增强现实设备的摄像头或者姿态传感器获取用户的头部位置、眼部位置,并识别用户的头部动作以及识别用户的眼部动作。
指令解析系统,根据动作识别系统识别的动作组合,将动作组合解析为相应的动作指令。具体的指令包含不限于控制虚拟物体左移、右移、上移、下移、固定、放大、缩小、删除。
响应显示系统,根据解析的运动指令在增强现实场景中调整虚拟物体的状态信息,并在响应显示系统的显示区域上对虚拟物体上做出相应的显示。此处的响应显示系统包括不限于手机、投影屏幕、体感游戏机等。
需要说明的是,上述虚拟物体控制装置以及上述虚拟物体控制系统中各部分的具体细节在虚拟物体控制方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
需要补充的是,本公开实施例提供的技术方案也可以应用于虚拟现实设备,一般的,虚拟现实设备与增强现实设备的显示单元有所区别,虚拟现实设备的显示单元为微型显示器,不具有透过功能,而显示单元的透过功能对实现本方案没有任何影响。因此,将本示例性实施方式中的增强现实设备替换为虚拟现实设备,方案仍然可以正常实现,基于虚拟现实设备实现本公开的技术方案,应当属于本公开的保护范围。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的示例性实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (10)
1.一种虚拟物体控制方法,其特征在于,包括:
锁定增强现实场景中的虚拟物体;
获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;
通过解析包含眼部的多帧图像确定眼部动作;
根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
2.根据权利要求1所述的虚拟物体控制方法,其特征在于,所述基于所述位置以及所述头部的姿态信息识别头部动作,包括:
基于所述位置获取第一预设时长内所述头部的姿态信息,并通过所述姿态信息的变化信息识别所述头部动作。
3.根据权利要求2所述的虚拟物体控制方法,其特征在于,所述通过所述姿态信息的变化信息识别所述头部动作,包括:
若所述增强现实设备的类型为第一类型,则通过所述增强现实设备的摄像头确定所述姿态信息的所述变化信息,以识别所述头部动作;
若所述增强现实设备的类型为第二类型,则通过所述增强现实设备的姿态传感器确定所述姿态信息的所述变化信息,以识别所述头部动作。
4.根据权利要求1所述的虚拟物体控制方法,其特征在于,所述通过解析包含眼部的多帧图像确定眼部动作,包括:
获取第二预设时长内的包含所述眼部的多帧图像;
通过所述多帧图像中的所述眼部的状态和位置的变化序列,确定所述眼部动作。
5.根据权利要求1所述的虚拟物体控制方法,其特征在于,所述根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整,包括:
根据所述头部动作对应的动作指令,控制所述虚拟物体进行移动;和/或
根据所述眼部动作对应的动作指令,对所述虚拟物体的显示状态进行控制。
6.根据权利要求5所述的虚拟物体控制方法,其特征在于,所述根据所述头部动作对应的动作指令,控制所述虚拟物体进行移动,包括:
根据所述头部动作的程度参数确定所述虚拟物体的移动距离。
7.根据权利要求5所述的虚拟物体控制方法,其特征在于,所述显示状态包括所述虚拟物体的大小;所述根据所述眼部动作对应的动作指令,对所述虚拟物体的显示状态进行控制,包括:
根据所述眼部动作对应的动作指令,以及所述眼部动作的次数,对所述虚拟物体的大小进行缩放。
8.一种虚拟物体控制装置,其特征在于,包括:
虚拟物体确定模块,用于锁定增强现实场景中的虚拟物体;
头部动作识别模块,用于获取用户的头部的位置,并基于所述位置以及所述头部的姿态信息识别头部动作;
眼部动作识别模块,用于通过解析包含眼部的多帧图像确定眼部动作;
调整控制模块,用于根据参考动作与动作指令之间的映射关系,将所述头部动作和/或所述眼部动作解析为对应的动作指令,并根据所述动作指令对所述增强现实场景中所述虚拟物体的状态信息进行调整。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的虚拟物体控制方法。
10.一种增强现实设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的虚拟物体控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010255559.4A CN111415421B (zh) | 2020-04-02 | 2020-04-02 | 虚拟物体控制方法、装置、存储介质及增强现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010255559.4A CN111415421B (zh) | 2020-04-02 | 2020-04-02 | 虚拟物体控制方法、装置、存储介质及增强现实设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111415421A true CN111415421A (zh) | 2020-07-14 |
CN111415421B CN111415421B (zh) | 2024-03-19 |
Family
ID=71491718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010255559.4A Active CN111415421B (zh) | 2020-04-02 | 2020-04-02 | 虚拟物体控制方法、装置、存储介质及增强现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111415421B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113050792A (zh) * | 2021-03-15 | 2021-06-29 | 广东小天才科技有限公司 | 虚拟对象的控制方法、装置、终端设备及存储介质 |
WO2023240447A1 (zh) * | 2022-06-14 | 2023-12-21 | 北京小米移动软件有限公司 | 一种头部动作的检测方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140375680A1 (en) * | 2013-06-24 | 2014-12-25 | Nathan Ackerman | Tracking head movement when wearing mobile device |
CN106507090A (zh) * | 2016-11-04 | 2017-03-15 | 广州大西洲科技有限公司 | 一种主从遥视系统 |
CN106527709A (zh) * | 2016-10-28 | 2017-03-22 | 惠州Tcl移动通信有限公司 | 一种虚拟场景调整方法及头戴式智能设备 |
CN106527696A (zh) * | 2016-10-31 | 2017-03-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种实现虚拟操作的方法以及可穿戴设备 |
CN106873778A (zh) * | 2017-01-23 | 2017-06-20 | 深圳超多维科技有限公司 | 一种应用的运行控制方法、装置和虚拟现实设备 |
-
2020
- 2020-04-02 CN CN202010255559.4A patent/CN111415421B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140375680A1 (en) * | 2013-06-24 | 2014-12-25 | Nathan Ackerman | Tracking head movement when wearing mobile device |
CN106527709A (zh) * | 2016-10-28 | 2017-03-22 | 惠州Tcl移动通信有限公司 | 一种虚拟场景调整方法及头戴式智能设备 |
CN106527696A (zh) * | 2016-10-31 | 2017-03-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种实现虚拟操作的方法以及可穿戴设备 |
CN106507090A (zh) * | 2016-11-04 | 2017-03-15 | 广州大西洲科技有限公司 | 一种主从遥视系统 |
CN106873778A (zh) * | 2017-01-23 | 2017-06-20 | 深圳超多维科技有限公司 | 一种应用的运行控制方法、装置和虚拟现实设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113050792A (zh) * | 2021-03-15 | 2021-06-29 | 广东小天才科技有限公司 | 虚拟对象的控制方法、装置、终端设备及存储介质 |
WO2023240447A1 (zh) * | 2022-06-14 | 2023-12-21 | 北京小米移动软件有限公司 | 一种头部动作的检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111415421B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
JP6572600B2 (ja) | 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム | |
US20200202161A1 (en) | Information processing apparatus, information processing method, and program | |
CN110968190B (zh) | 用于触摸检测的imu | |
CN112907725A (zh) | 图像生成、图像处理模型的训练、图像处理方法和装置 | |
KR20180055243A (ko) | 이동단말기 및 그 제어방법 | |
KR20150142516A (ko) | 글래스 타입 단말기 및 그것의 제어 방법 | |
CN111370025A (zh) | 音频识别方法、装置及计算机存储介质 | |
CN111415421B (zh) | 虚拟物体控制方法、装置、存储介质及增强现实设备 | |
CN111432245B (zh) | 多媒体信息的播放控制方法、装置、设备及存储介质 | |
CN111027490A (zh) | 人脸属性识别方法及装置、存储介质 | |
CN109831817B (zh) | 终端控制方法、装置、终端及存储介质 | |
CN111437600A (zh) | 剧情展示方法、装置、设备及存储介质 | |
KR101537624B1 (ko) | 이동단말기 및 그 제어방법 | |
KR20160019279A (ko) | 이동단말기 및 그 제어방법 | |
KR101695695B1 (ko) | 이동단말기 및 그 제어방법 | |
KR20190018906A (ko) | 증강현실이나 가상현실에 기초하여 가상의 인체 장기를 렌더링하는 이동 단말기 및 이를 이용하는 시스템 | |
KR20170073985A (ko) | 이동 단말기 및 그 제어 방법 | |
CN113325948B (zh) | 隔空手势的调节方法及终端 | |
WO2019142621A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111401283A (zh) | 面部识别方法及装置、电子设备及存储介质 | |
KR20160084208A (ko) | 이동 단말기 및 그 제어 방법 | |
KR20160007048A (ko) | 전자 디바이스 및 그 제어방법 | |
KR101685340B1 (ko) | 휴대 단말기 및 그 동작 방법 | |
CN112835445B (zh) | 虚拟现实场景中的交互方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |