WO2023124113A1 - 三维空间中的交互方法、装置、存储介质及电子装置 - Google Patents

三维空间中的交互方法、装置、存储介质及电子装置 Download PDF

Info

Publication number
WO2023124113A1
WO2023124113A1 PCT/CN2022/112861 CN2022112861W WO2023124113A1 WO 2023124113 A1 WO2023124113 A1 WO 2023124113A1 CN 2022112861 W CN2022112861 W CN 2022112861W WO 2023124113 A1 WO2023124113 A1 WO 2023124113A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
virtual
real
dimensional space
cells
Prior art date
Application number
PCT/CN2022/112861
Other languages
English (en)
French (fr)
Inventor
罗迤宝
崔巧云
王进军
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Priority to EP22913398.8A priority Critical patent/EP4345760A1/en
Publication of WO2023124113A1 publication Critical patent/WO2023124113A1/zh

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

一种三维空间中的交互方法、装置、存储介质及电子装置,方法包括:在目标增强现实设备上显示目标增强现实三维画面,并在目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,现实三维空间被栅格化,虚拟三维空间被栅格化,两者之间具有映射关系(S202);获取目标对象在现实三维空间中的目标移动轨迹(S204);确定目标移动轨迹经过的现实单元格集合(S206);确定与经过的现实单元格集合对应的经过的第一虚拟单元格集合(S208);根据第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作(S210)。

Description

三维空间中的交互方法、装置、存储介质及电子装置
相关申请的交叉引用
本公开基于2021年12月31日提交的发明名称为“三维空间中的交互方法、装置、存储介质及电子装置”的中国专利申请CN202111679046.7,并且要求该专利申请的优先权,通过引用将其所公开的内容全部并入本公开。
技术领域
本公开实施例涉及人机交互技术领域,具体而言,涉及一种三维空间中的交互方法、装置、存储介质及电子装置。
背景技术
近些年,随着计算机技术的广泛应用及普及化,人机交互技术也逐渐成为了研究热点,例如,增强现实(Augmented Reality,简称AR)、虚拟显示(Virtual Reality,简称VR)技术也得到了快速发展,目前用于AR或VR场景互操作主要使用在游戏场景中,比较成熟的系统包含微软的kinect,任天堂的wii体感手柄,健身环等设备,这些设备的共同点都是基于2D平面的位置,对VR或者AR场景进行互操作确认,kinect这类系统仅适用于二维的虚拟空间和现实空间的互联操作,这样的交互方法大大限制了其应用场景。
针对相关技术中存在的交互方法的应用范围窄的技术问题,目前尚未提出有效的解决方案。
发明内容
本公开实施例提供了一种三维空间中的交互方法、装置、存储介质及电子装置,以至少解决相关技术中存在的交互方法的应用范围窄的技术问题。
根据本公开的一个实施例,提供了一种三维空间中的交互方法,包括:在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三维空间中的目标移动轨迹;在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
根据本公开的另一个实施例,提供了一种三维空间中的交互装置,包括:第一显示模块, 设置为在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;第一获取模块,设置为在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三维空间中的目标移动轨迹;第一确定模块,设置为在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;第二确定模块,设置为根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;第三确定模块,设置为根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;第二显示模块,设置为在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
根据本公开的又一个实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本公开的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
附图说明
此处所说明的附图用来提供对本公开的进一步理解,构成本申请的一部分,本公开的示例性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
图1是本公开实施例的三维空间中的交互方法的移动终端硬件结构框图;
图2是根据本公开实施例的三维空间中的交互方法的流程图;
图3是根据本公开实施例的现实空间与虚拟空间关系示意图;
图4是根据本公开实施例的目标虚拟交互对象的响应范围示意图;
图5是根据本公开一种具体实施例的三维空间的交互方法整体流程图;
图6是根据本公开另一种具体实施例的三维空间的交互方法整体流程图;
图7是根据本公开具体实施例的初始化模块工作流程图;
图8是根据本公开具体实施例的测距对象锁定模块工作流程图;
图9是根据本公开具体实施例的三维坐标系对应模块工作流程图;
图10是根据本公开一种具体实施例的确认反馈模块工作示例图;
图11是根据本公开另一种具体实施例的确认反馈模块工作示例图;
图12是根据本公开实施例的三维空间中的交互装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本公开方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例中所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,图1是本公开实施例的三维空间中的交互方法的移动终端硬件结构框图,如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和设置为存储数据的存储器104,其中,上述移动终端还可以包括设置为通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可设置为存储计算机程序,例如,应用软件的软件程序以及模块,如本公开实施例中的三维空间中的交互方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至移动终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106设置为经由一个网络接收或者发送数据。上述的网络具体实例可包括移动终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,简称为RF)模块,其设置为通过无线方式与互联网进行通讯。
在本实施例中提供了一种三维空间中的交互方法,图2是根据本公开实施例的三维空间中的交互方法的流程图,如图2所示,该流程包括如下步骤:
步骤S202,在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;
步骤S204,在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三 维空间中的目标移动轨迹;
步骤S206,在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;
步骤S208,根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;
步骤S210,根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;
步骤S212,在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
通过上述步骤,通过获取目标对象在现实三维空间中的目标移动轨迹,再确定目标移动轨迹所经过的现实单元格集合,然后依据预先建立的现实三维空间与虚拟三维空间之间的映射关系,确定出与现实单元格集合所对应的虚拟三维空间的第一虚拟单元格集合,再根据第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象,其中,第二虚拟单元格集合中包括目标虚拟交互对象所占的虚拟单元格,当目标移动轨迹触发目标虚拟交互对象的目标交互操作时,目标增强现实设备上则显示执行目标交互操作所对应的画面,即通过现实三维空间中的目标对象的操作,以实现触发虚拟三维空间的目标虚拟交互对象的目标交互操作的目的,并在目标增强现实设备上显示执行与目标交互操作所对应的画面。通过本实施例,实现了在三维空间中的交互操作,解决了相关技术中存在的交互方法的应用范围窄的技术问题,达到了拓宽交互方法的应用范围的效果。
其中,上述步骤的执行主体可以为交互系统,例如,人机交互系统,或三维交互系统,或AR交互系统(或设备),或VR交互系统(或设备),上述步骤的执行主体还可以是其他的具备类似处理能力的处理设备或处理单元等,但不限于此。下面以AR交互系统执行上述操作为例(仅是一种示例性说明,在实际操作中还可以是其他的设备或模块来执行上述操作)进行说明:
在上述实施例中,在目标增强现实设备上显示目标增强现实三维画面,例如,目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与虚拟三维空间中的虚拟三维画面叠加形成的三维画面,并在目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,例如,以游戏场景为例,目标虚拟交互对象可以是虚拟界面中的确认键,或道具,或其它用于与用户进行交互的对象,在实际应用中,可预先建立现实三维空间与虚拟三维空间之间的映射关系,可选地,现实三维空间被栅格化成一组现实单元格,虚拟三维空间被栅格化成一组虚拟单元格,这样一组现实单元格与一组虚拟单元格之间具有映射关系;当在现实三维空间中识别到目标对象时,获取目标对象在现实三维空间中的目标移动轨迹,例如,目标对象可以是光学卡,或光标卡,或者光学卡与光标卡集成于一起的,或测距卡,或光学标贴,或超宽带(Ultra Wide Band,简称UWB)标签,或毫米波转发信标点等,还可以是佩戴有上述某类卡或标签的用户,例如,用户的手指上佩戴有光学卡或光学标贴等,在实际应用中,AR交互系统需配置采集模块,以用于采集现实三维空间中目标对象的空间数据,例如角度,或距离,或其它数据,以确定目标对象在现实三维空间中的坐标,采集模块可以包括一种或多种测距模块,例如,可包括UWB模块,毫米波测距模块及光学测距模块中的一种模块或多种模块,当然,还可以包括其它采集模块,在实际应用中,可根据不同的应用场景选用不同 的测距模块或测距模块组合;然后,在现实三维空间的一组现实单元格中可确定出目标移动轨迹经过的现实单元格集合,再根据一组现实单元格与一组虚拟单元格之间的映射关系,在一组虚拟单元格中确定出与经过的现实单元格集合对应的经过的第一虚拟单元格集合,即第一虚拟单元格集合是现实三维空间中的现实单元格集合映射到虚拟三维空间中所对应的单元格集合,或者可理解为是现实三维空间中的目标对象的运动轨迹映射到虚拟三维空间后的移动轨迹,例如,虚拟三维空间中的光标的移动轨迹,该移动轨迹所经过的虚拟单元格即为上述第一虚拟单元格集合;然后,再根据第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作,其中,第二虚拟单元格集合包括目标虚拟交互对象在一组虚拟单元格中所占的虚拟单元格,例如,目标虚拟交互对象可能仅占一个虚拟单元格,也可能占多个虚拟单元格;在目标移动轨迹触发目标虚拟交互对象的目标交互操作的情况下,例如,对目标虚拟交互对象的操作可以是单击或双击或其它方式,在目标增强现实设备上显示执行目标交互操作所对应的画面,例如,在确定触发目标虚拟交互对象的目标交互操作时,在目标增强现实设备上显示执行与目标交互操作所对应的画面,即对现实三维空间中的目标对象的目标移动轨迹进行了响应,实现了在三维空间中的交互操作,解决了相关技术中存在的交互方法的应用范围窄的技术问题,达到了拓宽交互方法的应用范围的效果。
图3是根据本公开实施例的现实空间与虚拟空间关系示意图,如图3所示,图3中左侧对应为现实三维空间的栅格图,图3中右侧对应为虚拟三维空间的栅格图,需要说明的是,在实际应用中,现实三维空间中栅格化后的最小现实单元格的尺寸与虚拟三维空间中栅格化后的最小虚拟单元格的尺寸可以相同,也可以不同,图3中左图中的A(左图中的上表面)对应为上述目标对象,图3中右图中的B(右图中的上表面)对应为现实三维空间中的目标对象映射至虚拟三维空间中的对象,例如,可用光标表示,或者可用卡通人物或形象表示,而图3的左图中目标对象从A移动至C,即从A所在的单元格移动至C所在的单元格,对应为上述实施例中目标对象的目标移动轨迹,该目标移动轨迹映射至虚拟三维空间中后对应为图3的右图中从B移动至C′,C′表示上述目标虚拟交互对象,在目标移动轨迹(如A→C)触发目标虚拟交互对象的目标交互操作的情况下,例如,对目标虚拟交互对象的操作可以是单击或双击或其它方式,然后在目标增强现实设备上显示执行目标交互操作所对应的画面,例如,可以是对目标虚拟交互对象进行确认后的响应,在实际应用中,还可以同时用声音,光或触感等方式来提示操作者。
在一个可选的实施例中,所述获取所述目标对象在所述现实三维空间中的目标移动轨迹,包括:获取目标采集模块在一组时刻中的每个时刻对所述目标对象进行测距得到的测距信息;根据在所述每个时刻上获取到的测距信息,确定所述每个时刻上所述目标对象在所述现实三维空间中的位置;将所述每个时刻上所述目标对象在所述现实三维空间中的位置拟合成所述目标移动轨迹。例如,可通过目标采集模块在一段时间内的多个时刻对目标对象进行测距以得到一组测距信息,测距信息可以是根据目标采集模块所采集的视频数据中所包括的多帧图像所获得的,可选地,可以是在一段时间内按预定周期定时获取目标对象的测距信息,然后,确定每个时刻上述目标对象在现实三维空间中的位置,例如,图3中的现实三维空间中的现实单元格,这样在一段时间内可能经过多个单元格,将多个单元格所在的位置拟合成曲线即可得到目标对象的目标移动轨迹,在本实施例中,目标采集模块可以是一个测距模块,也可 以是多个测距模块。通过本实施例,实现了确定目标对象在现实三维空间中的目标移动轨迹的目的。
在一个可选的实施例中,所述根据在所述每个时刻上获取到的测距信息,确定所述每个时刻上所述目标对象在所述现实三维空间中的位置,包括:对于所述每个时刻上获取到的测距信息,执行以下操作,其中,在执行以下操作时,所述每个时刻为当前时刻:在所述目标采集模块为一个测距模块、且在所述当前时刻上获取到的所述测距信息表示所述目标对象与所述现实三维空间中的预设标记点之间的当前距离时,根据所述预设标记点在所述现实三维空间中的位置以及所述测距信息表示的所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置;在所述目标采集模块包括多个测距模块、所述当前时刻上获取到的所述测距信息包括所述多个测距模块在所述当前时刻上分别对所述目标对象进行测距得到的多个测距信息、且所述多个测距信息中的每个测距信息表示所述目标对象与所述现实三维空间中的所述预设标记点之间的当前距离的情况下,根据所述预设标记点在所述现实三维空间中的位置以及所述多个测距信息表示的多个所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的多个位置;根据所述当前时刻上所述目标对象在所述现实三维空间中的所述多个位置,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置。在本实施例中,在目标采集模块为一个测距模块以及在当前时刻获取的测距信息表示目标对象与预设标记点之间的当前距离时,预设标记点可为现实三维空间中的坐标原点或现实三维空间中的某个参考点,可根据预设标记点在现实三维空间中的位置及上述当前距离,确定出当前时刻目标对象在现实三维空间中的位置;在目标采集模块为多个测距模块、且在当前时刻获取的测距信息中包括多个测距模块对目标对象进行测距所得到的多个测距信息,以及每个测距信息均表示目标对象与预设标记点之间的当前距离时,预设标记点可为现实三维空间中的坐标原点或现实三维空间中的某个参考点,可根据预设标记点在现实三维空间中的位置及上述每个测距信息所表示的多个当前距离,确定出当前时刻目标对象在现实三维空间中的多个位置,然后再根据目标对象在现实三维空间中的多个位置,确定出当前时刻目标对象在现实三维空间中的位置,例如,在实际应用中,可对多个位置进行平均计算以确定出目标对象的最终的位置,或者,可对多个位置加权平均算法进行计算以确定出目标对象的最终位置。通过本实施例,实现了确定每个时刻目标对象在现实三维空间中的位置的目的。
在一个可选的实施例中,所述根据所述当前时刻上所述目标对象在所述现实三维空间中的所述多个位置,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置,包括:对所述现实三维空间中所述多个位置的三维坐标进行平均,得到第一目标三维坐标,将所述现实三维空间中所述第一目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置;或者对所述现实三维空间中所述多个位置的三维坐标进行加权平均,得到第二目标三维坐标,将所述现实三维空间中所述第二目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置。在本实施例中,可通过对现实三维空间中的多个位置采用平均计算的方法,以确定出当前时刻目标对象在现实三维空间中的位置;或者,通过对现实三维空间中的多个位置采用加权平均算法进行计算,以确定出当前时刻目标对象在现实三维空间中的位置,例如,当目标采集模块中包括多个测距模块,而对于某些应用场景,若光学测距模块不适用的话,则将光学测距模块部分的加权系数取很小的值或取零,同理,若毫米波测距模块对于某些应用场景不适用的话,也可相应地降 低该模块对应的加权系数或将该模块对应的加权系数取零,这样可实现针对不同应用场景灵活地将不同测距模块的测距数据进行综合的目的,达到提高测距数据的可靠性的目的。通过本实施例,通过采用多个测距模块对目标对象进行测距,并对测得的多个测距信息进行综合运算(如平均计算或加权平均计算)以确定出目标对象的位置,可实现提高确定目标对象的位置的准确性的目的,从而达到减小空间系统误差的效果。
在一个可选的实施例中,所述在目标增强现实设备上显示目标增强现实三维画面之前,所述方法还包括:获取与所述目标增强现实设备关联的目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,其中,所述目标采集模块设置为对所述目标对象进行测距,得到测距信息,所述测距信息用于确定所述目标对象在所述现实三维空间中的目标移动轨迹;根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格。在本实施例中,可预先获取目标采集模块的硬件资源信息以及目标增强现实设备的处理能力信息,再根据目标采集模块的硬件资源信息以及目标增强现实设备的处理能力信息,对现实三维空间进行栅格化,以及对虚拟三维空间进行栅格化,例如,在实际应用中,可通过软件对目标采集模块和/或目标增强现实设备等进行初始化,例如,可对系统处理模块CPU,GPU等进行初始化,再启动硬件跑分程序对目标采集模块和/或目标增强现实设备的硬件运算能力和3D显示能力以及当前网络运行能力,还可对图像处理能力等进行评估,整合网络运行能力,运算能力,图像处理能力,3D显示能力运算出一个通用的分值,即对系统的硬件能力进行整合,再确定采用相应的栅格,以对现实三维空间进行栅格化,及对虚拟三维空间进行栅格化。通过本实施例,实现了结合系统中的硬件能力以确定相应的栅格化标准的目的,这样可实现栅格化与目标采集模块及目标增强显示设备的处理能力相匹配的目的,进而达到提高系统运行的效率和准确率的效果。
在一个可选的实施例中,所述根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,包括:根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,确定目标处理能力参数的取值;按照与所述目标处理能力参数的取值对应的第一单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值与所述第一单元格尺寸呈负相关;或者,按照与所述目标处理能力参数的取值所在的取值范围对应的第二单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值所在的取值范围的边界值与所述第二单元格尺寸呈负相关。在本实施例中,根据目标采集模块的硬件资源信息以及目标增强现实设备的处理能力信息,确定目标处理能力参数的取值,例如,整合当前网络运行能力,运算能力,图像处理能力,3D显示能力运算出一个通用的分值,再按照该取值设置相对应的第一单元格尺寸,对现实三维空间进行栅格化,以及对虚拟三维空间进行栅格化,从而得到一组现实单元格和一组虚拟单元格,其中,目标处理能力参数的取值与第一单元格尺寸呈负相关,即目标处理能力参数的取值越大,则上述第一单元格尺寸可根据需要取越小的值,即可实现栅格更精细化的目的;或者,按照目标处理能力参数的取值范围设置相应的第二单元格尺寸,再对现实三维空间进 行栅格化,以及对虚拟三维空间进行栅格化,同理,取值范围的边界值与第二单元格尺寸呈负相关,即取值范围的边界值越大,则上述第二单元格尺寸可根据需要取越小的值,即可实现栅格更精细化的目的。通过本实施例,实现了依据目标处理能力参数的取值确定栅格化中的单位栅格尺寸的目的。
在一个可选的实施例中,所述在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合,包括:在所述一组现实单元格中查找所述目标移动轨迹中的位置所在的单元格,得到所述现实单元格集合。在本实施例中,通过在一组现实单元格中查找目标移动轨迹中的位置所在的单元格,从而得到现实单元格集合,即确定出目标移动轨迹所经过的现实单元格集合,再基于现实三维空间与虚拟三维空间之间的映射关系,可确定出虚拟三维空间中光标(或其它与现实空间中的目标对象相对应的对象,如卡通人物,或卡通形象)的移动轨迹所经过的第一虚拟单元格集合。通过本实施例,实现了在现实三维空间中确定目标移动轨迹所经过的现实单元格集合的目的,从而可进一步实现确定虚拟三维空间中光标的移动轨迹的目的。
在一个可选的实施例中,所述根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,包括:在所述虚拟三维空间中为所述目标虚拟交互对象设置了目标响应范围、且所述目标响应范围在所述虚拟三维空间中包括第三虚拟单元格集合的情况下,检测所述第一虚拟单元格集合中的虚拟单元格是否位于所述第三虚拟单元格集合的内部,其中,在所述虚拟三维空间中,所述第二虚拟单元格集合位于所述第三虚拟单元格集合的内部;在检测到所述第一虚拟单元格集合中的虚拟单元格子集位于所述第三虚拟单元格集合的内部的情况下,根据所述第一虚拟单元格集合中的所述虚拟单元格子集与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作;或者在所述虚拟三维空间中并未为所述目标虚拟交互对象设置有所述目标响应范围的情况下,根据所述第一虚拟单元格集合与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作。在本实施例中,当虚拟三维空间中为目标虚拟交互对象设置了目标响应范围、且目标响应范围在虚拟三维空间中包括第三虚拟单元格集合时,例如,第三虚拟单元格集合为在虚拟三维空间中与目标虚拟交互对象之间的距离为目标阈值(例如,为1个虚拟单元格,或5个虚拟单元格,或其它值)的多个虚拟单元格,再检测第一虚拟单元格集合中的虚拟单元格是否位于第三虚拟单元格集合的内部,如果检测到第一虚拟单元格集合中包括的虚拟单元格子集(如一个或多个虚拟单元格)位于第三虚拟单元格集合的内部的情况下,根据虚拟单元格子集与第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作,即通过本实施例,在虚拟三维空间中为目标虚拟交互对象(如图标)设置一个响应区域,只有当光标移动到该响应区域时再监控目标对象的操作,例如确认动作或按键响应,这样可避免实际操作中可能存在的误操作的问题,以达到提高交互效率的目的;可选地,若虚拟三维空间中并未为目标虚拟交互对象(如图标)设置有目标响应范围的情况下,可直接根据第一虚拟单元格集合与第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作。图4是根据本公开实施例的目标虚拟交互对象的响应范围示意图,图4中B为随着现实三维空间中的目标对象的移动而移动的光标,C′表示上述目标虚拟交互对象,而图中所示阴影部分的虚拟单元格 区域对应为上述相应区域,图4中以与目标虚拟交互对象之间的距离为1个虚拟单元格为响应区域,需要说明的是,图4中仅为一种示例,在实际应用中,可根据不同应用场景的需要,可设置其它的响应范围,例如,以与目标虚拟交互对象之间的距离为5个或10个虚拟单元格为响应区域。通过本实施例,实现了根据第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作的目的。
在一个可选的实施例中,所述根据所述第一虚拟单元格集合中的所述虚拟单元格子集与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,包括:判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者确定所述第一虚拟单元格集合中的所述虚拟单元格子集位于所述第二虚拟单元格集合中的虚拟单元格的数量;在所述虚拟单元格子集中位于所述第二虚拟单元格集合中的虚拟单元格的数量大于或等于预定数量阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格、且所述虚拟单元格子集中的所述虚拟单元格在所述第二虚拟单元格集合中的停留时长大于或等于预定时长阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作。在本实施例中,可通过判断上述虚拟单元格子集是否位于第二虚拟单元格集合中,以确定目标移动轨迹是否触发了目标虚拟交互对象的目标交互操作,例如,当判断出虚拟单元格子集中存在位于第二虚拟单元格集合中的虚拟单元格时,则确定目标移动轨迹触发了目标虚拟交互对象的所述目标交互操作;可选地,还可通过确定上述第一虚拟单元格集合中的虚拟单元格子集位于第二虚拟单元格集合中的虚拟单元格的数量,来确定目标移动轨迹是否触发了目标虚拟交互对象的目标交互操作,例如,当确定虚拟单元格子集中位于第二虚拟单元格集合中的虚拟单元格的数量大于或等于预定数量阈值(例如2个,或3个,或其它数量)时,则确定目标移动轨迹触发了目标虚拟交互对象的所述目标交互操作,通过本实施例,可避免实际操作中可能存在的误操作的问题,以达到提高交互效率的目的;可选地,还可当判断出第一虚拟单元格集合中的虚拟单元格子集中存在位于第二虚拟单元格集合中的虚拟单元格、且虚拟单元格子集中的虚拟单元格在第二虚拟单元格集合中的停留时长大于或等于预定时长阈值的情况下,例如,虚拟三维空间的光标移动至目标虚拟交互对象所在的第二虚拟单元格集合中时,并且待光标在第二虚拟单元格集合中停留时长大于或等于预定时长阈值(如1s或0.5s或其它时长)时,则确定目标移动轨迹触发了目标虚拟交互对象的目标交互操作。通过本实施例,可通过设置不同方式来确定目标移动轨迹是否触发目标虚拟交互对象的目标交互操作,可实现依据不同应用场景灵活设置不同交互操作方式的目的,达到了拓宽交互方法的应用范围的效果。
在一个可选的实施例中,所述方法还包括:在所述目标增强现实设备的日志信息中查找所述目标对象与所述目标虚拟交互对象之间的交互日志;根据所述目标对象与所述目标虚拟交互对象之间的交互日志,确定所述目标对象与所述目标虚拟交互对象之间的异常交互操作;根据所述异常交互操作,对所述目标交互操作的触发条件进行调整。在本实施例中,通过查找目标对象与目标虚拟交互对象之间的交互日志,以确定出所发生的异常交互操作,然后根 据异常交互操作,对目标交互操作的触发条件进行调整,例如,在实际应用中,可记录失误操作以便对现实三维空间与虚拟三维空间之间的映射方式方程进行修改,从而达到对复杂控制的层递式的优化的效果。
显然,上述所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。下面结合具体实施例对本公开进行具体说明。
图5是根据本公开一种具体实施例的三维空间的交互方法整体流程图,如图5所示,该流程包括以下步骤:
S502,利用初始化模块进行初始化,即对交互系统中包括的硬件进行初始化启动,例如,硬件可包括目标采集模块及目标增强现实设备等;
S504,利用测距对象锁定模块对测距对象(对应于前述现实三维空间中的目标对象)进行锁定,针对测距标准点,作为三维空间感知的跟踪点,即锁定标点位置,并测距标点的运动轨迹等,当目标采集模块包括多个测距模块时,以及将多组测距数据做平均误差处理,即整合得到复合的测距数据,以达到更好的和现实的拟合度;
S506,利用三维坐标系对应模块对复合的测距数据进行运算,平均三维坐标系误差,拟合控制运动曲线和虚拟三维显示界面的互动;
S508,通过移动单位设定模块按系统能力设定移动限制区域,即具体在使用在那种方式更合适操作,还可以根据用户的具体操作来做调节,比如在控制图标确认动作是一种驱动规律,在设计作图操作中又是另一种驱动规律。根据不同的操作模式,运动的轨迹和用户习惯各有不同;例如,以图标确认为实施例,当光标现实趋近图标时,防止光标逼近图标(目标)有误操作,图标(目标)会在三维空间内画出一个响应范围(或响应区域),只有光标进入到响应区域才会监控确认动作或按键响应,这样提高了确认效率;由于在三维现实的环境中操作,用户使用场景便于识别,是的根据不同使用场景细化控制方式变得比类似鼠标操作要容易的多,可以更为智能的提高用户体验;这里的移动单位设定不像鼠标操作那样做线性设定,是一种包含适配动作识别的智能化设定,为的是适配不同应用场景的最佳互动体验。
S510,通过动作或测距传感器捕捉模块对目标对象的动作进行进一步捕捉,例如,以图表确认为例,当目标对象(如手指)的移动映射到虚拟三维空间中显示光标已接触到虚拟交互对象(或上述响应区域)时,再进一步捕捉目标对象的动作,以确定是否对确认动作进行响应,这样可提高确认的效率;
S512,通过确认反馈模块控制运动的最终确认,该执行过程可在手持端的设备中执行,也可以是单独的手势操作。
可选地,对于有些应用场景,对确认是否触发交互操作的精确度要求不是很高的情况下,可按照图6所示流程实施,图6是根据本公开另一种具体实施例的三维空间的交互方法整体流程图,以一个包含UWB模块,毫米波,光学复合测距的系统为实施例,该系统包含了初始化模块,测距对象锁定模块,三维坐标系对应模块,移动单位设定模块及确认反馈模块,该流程与图5中的流程相比,省略掉S510中的步骤,例如,在实际应用中,当目标对象(如手指)的移动映射到虚拟三维空间中显示光标已接触到虚拟交互对象(或上述响应区域)时,即认为触发目标交互操作,而其它步骤分别与图5中步骤相同,具体包括以下步骤:
S602,利用初始化模块进行初始化,即对交互系统中包括的硬件进行初始化启动,例如,硬件可包括目标采集模块及目标增强现实设备等;
S604,利用测距对象锁定模块对测距对象(对应于前述现实三维空间中的目标对象)进行锁定,针对测距标准点,作为三维空间感知的跟踪点,即锁定标点位置,并测距标点的运动轨迹等,当目标采集模块包括多个测距模块时,以及将多组测距数据做平均误差处理,即整合得到复合的测距数据,以达到更好的和现实的拟合度;
S606,利用三维坐标系对应模块对复合的测距数据进行运算,平均三维坐标系误差,拟合控制运动曲线和虚拟三维显示界面的互动;
S608,通过移动单位设定模块按系统能力设定移动限制区域,即具体在使用在那种方式更合适操作,还可以根据用户的具体操作来做调节,比如在控制图标确认动作是一种驱动规律,在设计作图操作中又是另一种驱动规律。根据不同的操作模式,运动的轨迹和用户习惯各有不同;例如,以图标确认为实施例,当光标现实趋近图标时,防止光标逼近图标(目标)有误操作,图标(目标)会在三维空间内画出一个响应范围(或响应区域),只有光标进入到响应区域才会监控确认动作或按键响应,这样提高了确认效率;由于在三维现实的环境中操作,用户使用场景便于识别,是的根据不同使用场景细化控制方式变得比类似鼠标操作要容易的多,可以更为智能的提高用户体验;这里的移动单位设定不像鼠标操作那样做线性设定,是一种包含适配动作识别的智能化设定,为的是适配不同应用场景的最佳互动体验。
S610,通过确认反馈模块控制运动的最终确认,该执行过程可在手持端的设备中执行,也可以是单独的手势操作。
下面对上述步骤中涉及到的不同模块的执行过程进行说明:
图7是根据本公开具体实施例的初始化模块工作流程图,初始化模块是启动本系统的第一个模块,其主要功能是识别参与三维采集的硬件设备,识别采集设备的硬件运算能力和现实设备的三维现实能力,对硬件达到的能力统一整合。该流程包括以下步骤:
S702,软件初始化;
S704,检测测距硬件模块,以包含UWB模块,毫米波,光学三个测距模块的复合测距系统为例,在检测硬件模块会检测到这三个测距的模块并对硬件进行初始化启动;
S706,硬件采集计算,图像硬件处理,硬件检测,即检测其它硬件模块并对其它硬件进行初始化启动;
可分别用这三个模块针对标志点进行测距,并建立相应的三维坐标系,并根据测试数据平均三维坐标系的相对位置,以减小空间系统误差;
S708,启动硬件跑分程序,以评估网络运行能力,硬件运算能力,图像处理能力及3D显示能力等;
S710,以得到网络能力得分;
S712,得到计算图像能力得分;
S714,综合得分,即整合当前网络运行能力,计算能力,图像处理能力,3D显示能力运算出一个通用的分值,再映射相对应的处理栅格(2D中的栅格概念,在三维空间类似单位立方块概念)。
图8是根据本公开具体实施例的测距对象锁定模块工作流程图,此模块主要针对测距标准点,作为三维空间感知跟踪点,标点可以是一个光学标贴,或者一个UWB标签,或者一个毫米波转发信标点,(不限于以上几种形式)或者是这几种标贴的复合产品,主要是为三维测距提供准确标点,该流程包括以下步骤:
S802,初始化测距模组(对应于前述测距模块);
S804,锁定标点位置;
S806,测距标点运动轨迹;
S808,将运动轨迹转化成对显示光标的驱动信息;
S810,整合其他测距模块数据,当系统中包括多个测距模块时,该步骤中可将多个测距模块的测距数据进行整合,这样可实现测距标点的跟踪会更准确,可得到更准确的跟踪标点轨迹;
该模块操作类似kinect操作中通过挥手或者测距卡来标定跟踪点一样,只是本实施例采用了光学标贴,或者一个UWB标签,或者一个毫米波转发信标点,跟踪会更准确,无需做光学外形识别,就能很好的跟踪标点轨迹,并且可以把多种测距数据做平均误差处理,达到更好的和现实的拟合度的效果。
图9是根据本公开具体实施例的三维坐标系对应模块工作流程图,三维坐标系对应模块主要把复合的测距数据对应进行运算,平均三维坐标系误差,拟合控制运动曲线和显示界面的互动,该流程包括以下步骤:
S902,根据前述初始化模块工作流程中的S714所得到的综合得分,告知采集系统选择3D栅格采样信息,即基于采集模块的硬件能力确定3D栅格采样信息;
S904,确定对应分值区域的3D显示最小栅格,即确定出与分值区域相对应的最小显示栅格单位,即所能显示的最小栅格尺寸;
S906,开始采集及映射现实,即边采集测距信息边将将现实三维空间的测距结果映射至虚拟三维空间;
S908,将现实三维空间的测距结果进行封装,以输出标准格式数据。
在上述步骤中完成了三维现实的格式设定和控制单位处理栅格(2D中的栅格概念,在三维空间类似单位立方块概念),由此完成了实时运动和三维虚拟现实的操作和反馈场景。
下面对前述步骤S512或步骤S610中的确认反馈模块的确认过程进行说明,图10是根据本公开一种具体实施例的确认反馈模块工作示例图,该示例以单独的手势操作为例,该过程包括以下步骤:
S1002,模块的初始化;
S1004,模块进行休眠定时状态;
S1006,进行加速度检测,即对目标对象(如手指)运动的加速度进行检测;
S1008,进行手势识别;
S1010,判断是否为有效手势;
S1012,当判断结果为是有效手势的情况下,发送信息编码,即对手势操作进行确认,然后进入休眠定时状态,而当判断结果为否的情况下,即不是有效手势的情况下,继续进行手势动作的加速度检测。
图11是根据本公开另一种具体实施例的确认反馈模块工作示例图,该示例以手持端的设备执行确认为例,该过程包括以下步骤:
S1102,模块的初始化;
S1104,模块进行休眠定时状态;
S1106,进行信号检测,以检测操作动作;
S1108,拟合操作动作的曲线;
S1110,判断是否为有效编码;
S1112,当判断结果为是的情况下,向主机传输控制信号,然后进入休眠定时状态,而当判断结果为否的情况下,即操作动作为无效的情况下,继续进行信号检测。
在本公开的上述实施例中,对光标(提示点)的操作是在三维采样数据下的反馈操作;本公开实施例在系统开启后需要对现实场景做出初始化识别测距硬件和做现实操作三维画面能力匹配,不同于现骨干技术中的鼠标操作界面的同质化;本公开实施例在完成初始化后软件会对显示的三维空间单位栅格化(类似像素的立方格),以这些单位栅格作为光标(提示点)运行最小单位,而这种栅格化依赖于采集设备的采样能力以及显示设备的处理能力,系统通过移动单位设定模块对此进行平衡运算;在本公开实施例中,由于为了防止光标逼近图标(目标)有误操作,图标(目标)会在三维空间内画出一个响应范围,只有光标进入到响应区域才会监控确认动作或按键响应,这样提高了确认效率;确认反馈模块会根据画面的响应及时用声,光,触感等设备提示操作者,并记录失误操作以便对映射方式方程进行修改,以达到对复杂控制的层递式的优化的效果;此外,在本公开实施例中,作为三维空间感知跟踪点,标点可以是一个光学标贴,或者一个UWB标签,或者一个毫米波转发信标点,(不限于以上几种形式)或者是这几种标贴的复合产品,主要是为三维测距提供准确标点,通过标点在三维空间的运动轨迹来映射控制轨迹。
相关技术中微软的kinect系统解决的现实空间和虚拟现实空间的映射交互问题,但由于摄像头的分辨率以及交互是在2D界面上操作的,因此有确认速度慢,无法做精细化操作,缺乏对复杂应用场景的反馈机制,而相对于现有技术,本公开弥补了kinect系统的缺点,是一种在高精度三维测距基础上的空间映射交互,利用了更为先进的测距测角技术,例如(UWB,毫米波等)建立了标准的虚拟和现实空间的映射。在此基础上采用手部动作跟踪或外设装置来做确认的一种交互方式,解决了交互效率问题。本公开是一种在三维空间完成类似鼠标可以精细化操作的交互系统。
通过本公开实施例,基于高精度坐标系对应的AR(VR)交互方式,和目前的kinect系统相比,是利用硬件采集三维数据映射虚拟现实坐标系,而kinect是以双目(或多目)系统用算法合成三维系统,本公开实施例的交互方式是基于高精度对应坐标系的,在此系统相比现有技术kinect单一(双目系统)构建的三维系统有更高的精度,而且确认界面是在三维空间的确认,而不是在2D面的位移确认。因此本公开从及时性以及跟虚拟现实的映射的准确性上都有较大的优势。另外,从体验的角度看,本公开实施例的交互方式可以实现在3D场景下的图标双击,动作趋近,触摸控制等更趋近现实的操作体验,交互方式在确认速度和确认精度上也有较高的提升。是在3D采集系统精准提升后的操作系统跟随升级的一种交互方式。在这个实现过程中程序高度依赖实时测量的三维空间数据,并根据动作和目标的趋近程度调整测算精细化单元(2D中的栅格概念,在三维空间类似单位立方块概念),以便对趋近目标的手(手柄或传感器)的更精细化的操作做出反馈。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如 ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例所述的方法。
在本实施例中还提供了一种三维空间中的交互装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图12是根据本公开实施例的三维空间中的交互装置的结构框图,如图12所示,该装置包括:
第一显示模块1202,设置为在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;
第一获取模块1204,设置为在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三维空间中的目标移动轨迹;
第一确定模块1206,设置为在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;
第二确定模块1208,设置为根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;
第三确定模块1210,设置为根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;
第二显示模块1212,设置为在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
在一个可选的实施例中,上述获取模块1204包括:第一获取单元,设置为获取目标采集模块在一组时刻中的每个时刻对所述目标对象进行测距得到的测距信息;第一确定单元,设置为根据在所述每个时刻上获取到的测距信息,确定所述每个时刻上所述目标对象在所述现实三维空间中的位置;拟合单元,设置为将所述每个时刻上所述目标对象在所述现实三维空间中的位置拟合成所述目标移动轨迹。
在一个可选的实施例中,上述第一确定单元包括:执行子单元,设置为对于所述每个时刻上获取到的测距信息,执行以下操作,其中,在执行以下操作时,所述每个时刻为当前时刻:在所述目标采集模块为一个测距模块、且在所述当前时刻上获取到的所述测距信息表示所述目标对象与所述现实三维空间中的预设标记点之间的当前距离时,根据所述预设标记点在所述现实三维空间中的位置以及所述测距信息表示的所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置;在所述目标采集模块包括多个测距模块、所述当前时刻上获取到的所述测距信息包括所述多个测距模块在所述当前时刻上分别对所述目标 对象进行测距得到的多个测距信息、且所述多个测距信息中的每个测距信息表示所述目标对象与所述现实三维空间中的所述预设标记点之间的当前距离的情况下,根据所述预设标记点在所述现实三维空间中的位置以及所述多个测距信息表示的多个所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的多个位置;根据所述当前时刻上所述目标对象在所述现实三维空间中的所述多个位置,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置。
在一个可选的实施例中,上述执行子单元可通过如下方式确定所述当前时刻上所述目标对象在所述现实三维空间中的位置:对所述现实三维空间中所述多个位置的三维坐标进行平均,得到第一目标三维坐标,将所述现实三维空间中所述第一目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置;或者对所述现实三维空间中所述多个位置的三维坐标进行加权平均,得到第二目标三维坐标,将所述现实三维空间中所述第二目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置。
在一个可选的实施例中,上述装置还包括:第二获取模块,设置为在目标增强现实设备上显示目标增强现实三维画面之前,获取与所述目标增强现实设备关联的目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,其中,所述目标采集模块设置为对所述目标对象进行测距,得到测距信息,所述测距信息用于确定所述目标对象在所述现实三维空间中的目标移动轨迹;栅格化模块,设置为根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格。
在一个可选的实施例中,上述栅格化模块包括:第二确定单元,设置为根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,确定目标处理能力参数的取值;第一栅格化单元,设置为按照与所述目标处理能力参数的取值对应的第一单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值与所述第一单元格尺寸呈负相关;或者,第二栅格化单元,设置为按照与所述目标处理能力参数的取值所在的取值范围对应的第二单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值所在的取值范围的边界值与所述第二单元格尺寸呈负相关。
在一个可选的实施例中,上述第一确定模块1206包括:查找单元,设置为在所述一组现实单元格中查找所述目标移动轨迹中的位置所在的单元格,得到所述现实单元格集合。
在一个可选的实施例中,上述第三确定模块1210包括:第一检测单元,设置为在所述虚拟三维空间中为所述目标虚拟交互对象设置了目标响应范围、且所述目标响应范围在所述虚拟三维空间中包括第三虚拟单元格集合的情况下,检测所述第一虚拟单元格集合中的虚拟单元格是否位于所述第三虚拟单元格集合的内部,其中,在所述虚拟三维空间中,所述第二虚拟单元格集合位于所述第三虚拟单元格集合的内部;第三确定单元,设置为在检测到所述第一虚拟单元格集合中的虚拟单元格子集位于所述第三虚拟单元格集合的内部的情况下,根据所述第一虚拟单元格集合中的所述虚拟单元格子集与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作;或者,第四确 定单元,设置为在所述虚拟三维空间中并未为所述目标虚拟交互对象设置有所述目标响应范围的情况下,根据所述第一虚拟单元格集合与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作。
在一个可选的实施例中,上述第三确定单元包括:第一判断子单元,设置为判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;第一确定子单元,设置为在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者,第二确定子单元,设置为确定所述第一虚拟单元格集合中的所述虚拟单元格子集位于所述第二虚拟单元格集合中的虚拟单元格的数量;第三确定子单元,设置为在所述虚拟单元格子集中位于所述第二虚拟单元格集合中的虚拟单元格的数量大于或等于预定数量阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者,第二判断子单元,设置为判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;第四确定子单元,设置为在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格、且所述虚拟单元格子集中的所述虚拟单元格在所述第二虚拟单元格集合中的停留时长大于或等于预定时长阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作。
在一个可选的实施例中,上述装置还包括:查找模块,设置为在所述目标增强现实设备的日志信息中查找所述目标对象与所述目标虚拟交互对象之间的交互日志;第四确定模块,设置为根据所述目标对象与所述目标虚拟交互对象之间的交互日志,确定所述目标对象与所述目标虚拟交互对象之间的异常交互操作;调整模块,设置为根据所述异常交互操作,对所述目标交互操作的触发条件进行调整。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
本公开的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被处理器运行时执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本公开的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本公开的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者 将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本公开不限制于任何特定的硬件和软件结合。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (13)

  1. 一种三维空间中的交互方法,包括:
    在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;
    在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三维空间中的目标移动轨迹;
    在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;
    根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;
    根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;
    在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
  2. 根据权利要求1所述的方法,其中,所述获取所述目标对象在所述现实三维空间中的目标移动轨迹,包括:
    获取目标采集模块在一组时刻中的每个时刻对所述目标对象进行测距得到的测距信息;
    根据在所述每个时刻上获取到的测距信息,确定所述每个时刻上所述目标对象在所述现实三维空间中的位置;
    将所述每个时刻上所述目标对象在所述现实三维空间中的位置拟合成所述目标移动轨迹。
  3. 根据权利要求2所述的方法,其中,所述根据在所述每个时刻上获取到的测距信息,确定所述每个时刻上所述目标对象在所述现实三维空间中的位置,包括:
    对于所述每个时刻上获取到的测距信息,执行以下操作,其中,在执行以下操作时,所述每个时刻为当前时刻:
    在所述目标采集模块为一个测距模块、且在所述当前时刻上获取到的所述测距信息表示所述目标对象与所述现实三维空间中的预设标记点之间的当前距离时,根据所述预设标记点在所述现实三维空间中的位置以及所述测距信息表示的所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置;
    在所述目标采集模块包括多个测距模块、所述当前时刻上获取到的所述测距信息包括 所述多个测距模块在所述当前时刻上分别对所述目标对象进行测距得到的多个测距信息、且所述多个测距信息中的每个测距信息表示所述目标对象与所述现实三维空间中的所述预设标记点之间的当前距离的情况下,根据所述预设标记点在所述现实三维空间中的位置以及所述多个测距信息表示的多个所述当前距离,确定所述当前时刻上所述目标对象在所述现实三维空间中的多个位置;根据所述当前时刻上所述目标对象在所述现实三维空间中的所述多个位置,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置。
  4. 根据权利要求3所述的方法,其中,所述根据所述当前时刻上所述目标对象在所述现实三维空间中的所述多个位置,确定所述当前时刻上所述目标对象在所述现实三维空间中的位置,包括:
    对所述现实三维空间中所述多个位置的三维坐标进行平均,得到第一目标三维坐标,将所述现实三维空间中所述第一目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置;或者
    对所述现实三维空间中所述多个位置的三维坐标进行加权平均,得到第二目标三维坐标,将所述现实三维空间中所述第二目标三维坐标所表示的位置确定为所述当前时刻上所述目标对象在所述现实三维空间中的位置。
  5. 根据权利要求1所述的方法,其中,所述在目标增强现实设备上显示目标增强现实三维画面之前,所述方法还包括:
    获取与所述目标增强现实设备关联的目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,其中,所述目标采集模块设置为对所述目标对象进行测距,得到测距信息,所述测距信息用于确定所述目标对象在所述现实三维空间中的目标移动轨迹;
    根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格。
  6. 根据权利要求5所述的方法,其中,所述根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,包括:
    根据所述目标采集模块的硬件资源信息以及所述目标增强现实设备的处理能力信息,确定目标处理能力参数的取值;
    按照与所述目标处理能力参数的取值对应的第一单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值与所述第一单元格尺寸呈负相关;或者,
    按照与所述目标处理能力参数的取值所在的取值范围对应的第二单元格尺寸,对所述现实三维空间进行栅格化,得到所述一组现实单元格,并对所述虚拟三维空间进行栅格化,得到一组虚拟单元格,其中,所述目标处理能力参数的取值所在的取值范围的边界值与所述第二单元格尺寸呈负相关。
  7. 根据权利要求1所述的方法,其中,所述在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合,包括:
    在所述一组现实单元格中查找所述目标移动轨迹中的位置所在的单元格,得到所述现实单元格集合。
  8. 根据权利要求1至7中任一项所述的方法,其中,所述根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,包括:
    在所述虚拟三维空间中为所述目标虚拟交互对象设置了目标响应范围、且所述目标响应范围在所述虚拟三维空间中包括第三虚拟单元格集合的情况下,检测所述第一虚拟单元格集合中的虚拟单元格是否位于所述第三虚拟单元格集合的内部,其中,在所述虚拟三维空间中,所述第二虚拟单元格集合位于所述第三虚拟单元格集合的内部;在检测到所述第一虚拟单元格集合中的虚拟单元格子集位于所述第三虚拟单元格集合的内部的情况下,根据所述第一虚拟单元格集合中的所述虚拟单元格子集与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作;或者
    在所述虚拟三维空间中并未为所述目标虚拟交互对象设置有所述目标响应范围的情况下,根据所述第一虚拟单元格集合与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作。
  9. 根据权利要求8所述的方法,其中,所述根据所述第一虚拟单元格集合中的所述虚拟单元格子集与所述第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,包括:
    判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者
    确定所述第一虚拟单元格集合中的所述虚拟单元格子集位于所述第二虚拟单元格集合中的虚拟单元格的数量;在所述虚拟单元格子集中位于所述第二虚拟单元格集合中的虚拟单元格的数量大于或等于预定数量阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作;或者
    判断所述第一虚拟单元格集合中的所述虚拟单元格子集是否位于所述第二虚拟单元格集合中;在判断出所述虚拟单元格子集中存在位于所述第二虚拟单元格集合中的虚拟单元格、且所述虚拟单元格子集中的所述虚拟单元格在所述第二虚拟单元格集合中的停留时长大于或等于预定时长阈值的情况下,确定所述目标移动轨迹触发了所述目标虚拟交互对象的所述目标交互操作。
  10. 根据权利要求1至7中任一项所述的方法,其中,所述方法还包括:
    在所述目标增强现实设备的日志信息中查找所述目标对象与所述目标虚拟交互对象之 间的交互日志;
    根据所述目标对象与所述目标虚拟交互对象之间的交互日志,确定所述目标对象与所述目标虚拟交互对象之间的异常交互操作;
    根据所述异常交互操作,对所述目标交互操作的触发条件进行调整。
  11. 一种三维空间中的交互装置,包括:
    第一显示模块,设置为在目标增强现实设备上显示目标增强现实三维画面,并在所述目标增强现实三维画面中的虚拟三维空间中显示目标虚拟交互对象,其中,所述目标增强现实三维画面是对现实三维空间拍摄得到的现实三维画面与所述虚拟三维空间中的虚拟三维画面叠加形成的三维画面,所述现实三维空间被栅格化成一组现实单元格,所述虚拟三维空间被栅格化成一组虚拟单元格,所述一组现实单元格与所述一组虚拟单元格之间具有映射关系;
    第一获取模块,设置为在所述现实三维空间中识别到目标对象时,获取所述目标对象在所述现实三维空间中的目标移动轨迹;
    第一确定模块,设置为在所述一组现实单元格中确定所述目标移动轨迹经过的现实单元格集合;
    第二确定模块,设置为根据所述一组现实单元格与所述一组虚拟单元格之间的映射关系,在所述一组虚拟单元格中确定与所述经过的现实单元格集合对应的经过的第一虚拟单元格集合;
    第三确定模块,设置为根据所述第一虚拟单元格集合和第二虚拟单元格集合之间的位置关系,确定所述目标移动轨迹是否触发所述目标虚拟交互对象的目标交互操作,其中,所述第二虚拟单元格集合包括所述目标虚拟交互对象在所述一组虚拟单元格中所占的虚拟单元格;
    第二显示模块,设置为在所述目标移动轨迹触发所述目标虚拟交互对象的所述目标交互操作的情况下,在所述目标增强现实设备上显示执行所述目标交互操作所对应的画面。
  12. 一种计算机可读的存储介质,所述计算机可读的存储介质包括存储的程序,其中,所述程序被处理器运行时执行上述权利要求1至10中任一项所述的方法。
  13. 一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至10中任一项所述的方法。
PCT/CN2022/112861 2021-12-31 2022-08-16 三维空间中的交互方法、装置、存储介质及电子装置 WO2023124113A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22913398.8A EP4345760A1 (en) 2021-12-31 2022-08-16 Interaction method and apparatus in three-dimensional space, storage medium, and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111679046.7 2021-12-31
CN202111679046.7A CN116414223A (zh) 2021-12-31 2021-12-31 三维空间中的交互方法、装置、存储介质及电子装置

Publications (1)

Publication Number Publication Date
WO2023124113A1 true WO2023124113A1 (zh) 2023-07-06

Family

ID=86997389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/112861 WO2023124113A1 (zh) 2021-12-31 2022-08-16 三维空间中的交互方法、装置、存储介质及电子装置

Country Status (3)

Country Link
EP (1) EP4345760A1 (zh)
CN (1) CN116414223A (zh)
WO (1) WO2023124113A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
US20160071320A1 (en) * 2013-05-30 2016-03-10 Charles Anthony Smith HUD Object Design and Method
US20180350136A1 (en) * 2017-05-31 2018-12-06 TeMAVR, LLC Systems and associated methods for creating a viewing experience
US20190317974A1 (en) * 2018-04-16 2019-10-17 Stops.com Ltd. Systems and methods for tagging objects for augmented reality
CN112862935A (zh) * 2021-03-16 2021-05-28 天津亚克互动科技有限公司 游戏角色的运动处理方法及装置、存储介质、计算机设备
CN113117327A (zh) * 2021-04-12 2021-07-16 网易(杭州)网络有限公司 增强现实互动控制方法、装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
US20160071320A1 (en) * 2013-05-30 2016-03-10 Charles Anthony Smith HUD Object Design and Method
US20180350136A1 (en) * 2017-05-31 2018-12-06 TeMAVR, LLC Systems and associated methods for creating a viewing experience
US20190317974A1 (en) * 2018-04-16 2019-10-17 Stops.com Ltd. Systems and methods for tagging objects for augmented reality
CN112862935A (zh) * 2021-03-16 2021-05-28 天津亚克互动科技有限公司 游戏角色的运动处理方法及装置、存储介质、计算机设备
CN113117327A (zh) * 2021-04-12 2021-07-16 网易(杭州)网络有限公司 增强现实互动控制方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN116414223A (zh) 2023-07-11
EP4345760A1 (en) 2024-04-03

Similar Documents

Publication Publication Date Title
TWI786313B (zh) 目標跟蹤方法、裝置、介質以及設備
US11054912B2 (en) Three-dimensional graphical user interface for informational input in virtual reality environment
CN110517319B (zh) 一种相机姿态信息确定的方法及相关装置
US10019074B2 (en) Touchless input
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
WO2020228643A1 (zh) 交互控制方法、装置、电子设备及存储介质
US20140009384A1 (en) Methods and systems for determining location of handheld device within 3d environment
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
CN104205083B (zh) 一种用于基于云的数据处理的方法和设备
US20220148279A1 (en) Virtual object processing method and apparatus, and storage medium and electronic device
TW201346640A (zh) 影像處理裝置及電腦程式產品
JP2013165366A (ja) 画像処理装置、画像処理方法及びプログラム
EP2996067A1 (en) Method and device for generating motion signature on the basis of motion signature information
WO2014194148A2 (en) Systems and methods involving gesture based user interaction, user interface and/or other features
US20220157032A1 (en) Multi-modality localization of users
KR101169583B1 (ko) 가상마우스 구동방법
CN110456903B (zh) 三维绘画方法、装置、存储介质、处理器及终端
WO2023124113A1 (zh) 三维空间中的交互方法、装置、存储介质及电子装置
Duan et al. Depth camera in human-computer interaction: An overview
CN115047966A (zh) 交互方法、电子设备与交互系统
CN112529770A (zh) 图像处理方法、装置、电子设备和可读存储介质
CN103793053A (zh) 一种便携式终端的手势投影方法及装置
KR20120047746A (ko) 가상마우스 구동방법
CN116152289A (zh) 一种目标对象的跟踪方法、相关装置、设备以及存储介质
WO2013176574A1 (en) Methods and systems for mapping pointing device on depth map

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22913398

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022913398

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022913398

Country of ref document: EP

Effective date: 20231229