CN117576288A - 一种多场景处理数据的方法、装置、设备和可读存储介质 - Google Patents

一种多场景处理数据的方法、装置、设备和可读存储介质 Download PDF

Info

Publication number
CN117576288A
CN117576288A CN202311600419.6A CN202311600419A CN117576288A CN 117576288 A CN117576288 A CN 117576288A CN 202311600419 A CN202311600419 A CN 202311600419A CN 117576288 A CN117576288 A CN 117576288A
Authority
CN
China
Prior art keywords
scene
input information
glasses
current environment
environment image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311600419.6A
Other languages
English (en)
Inventor
张吉松
夏勇峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Beehive Century Technology Co ltd
Original Assignee
Beijing Beehive Century Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Beehive Century Technology Co ltd filed Critical Beijing Beehive Century Technology Co ltd
Priority to CN202311600419.6A priority Critical patent/CN117576288A/zh
Publication of CN117576288A publication Critical patent/CN117576288A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供一种多场景处理数据的方法、装置、设备和可读存储介质,该方法包括,接收AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;根据输入信息,执行对应用场景下场景内容对应的操作。通过该方法可以达到提高多场景处理数据的效率的效果。

Description

一种多场景处理数据的方法、装置、设备和可读存储介质
技术领域
本申请涉及数据处理的领域,具体而言,涉及一种多场景处理数据的方法、装置、设备和可读存储介质。
背景技术
目前,传统的AR眼镜在不同场景进行数据处理以及场景渲染时,通常是通过AR眼镜自身携带的处理器完成,并且在收集数据时,通常是通过AR眼镜上的设备获取外界输入的数据,根据外界数据渲染虚拟场景。
但是,传统的AR眼镜在处理数据时,很难发挥自身携带的多种功能,在数据处理的过程中效率也会很低。
因此,如何提高多场景处理数据的效率,是一个需要解决的技术问题。
发明内容
本申请实施例的目的在于提供一种多场景处理数据的方法,通过本申请的实施例的技术方案可以达到提高多场景处理数据的效率的效果。
第一方面,本申请实施例提供了一种多场景处理数据的方法,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,所述方法由所述超级笔记本电脑执行,包括,接收AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;根据输入信息,执行对应用场景下场景内容对应的操作。
本申请在上述实施例中,通过AR眼镜结合专为AR眼镜设计的超级笔记本电脑,通过AR眼镜和超级笔记本电脑共同收集外界环境数据以及用户输入数据,最终由超级笔记本电脑实现不同场景下数据的处理,可以达到提高多场景处理数据的效率的效果。
在一些实施例中,预设目标场景为虚拟现实游戏场景、虚拟办公场景、虚拟教育培训场景、虚拟保健场景和虚拟媒体场景中的一个场景。
本申请在上述实施例中,可以在上述不同的场景实现数据的快速处理,提供不同场景下的场景体验。
在一些实施例中,叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景,包括:通过头部追踪技术,获取用户的头部动作;识别头部动作,确定用户在当前环境图像中注视的目标区域;将预设目标场景渲染至目标区域内,得到应用场景。
本申请在上述实施例中,通过头部追踪技术,可以确定用户在场景中注视的区域,针对该区域实现虚拟场景的渲染,实现灵活渲染的效果。
在一些实施例中,根据输入信息,执行对应用场景下场景内容对应的操作,包括:识别输入信息,得到用户的操作指令;根据操作指令执行对场景内容对应的操作。
本申请在上述实施例中,可以通过分析用户的操作指令,实现不同应用场景下的操作,实现场景交互的作用。
在一些实施例中,在根据输入信息,执行对应用场景下场景内容对应的操作之后,还包括:通过超级笔记本电脑的显示屏显示最终场景内容;或者向AR眼镜发送最终场景内容,以便于AR眼镜渲染最终场景内容。
本申请在上述实施例中,可以通过AR眼镜或者超级笔记本电脑实现最终场景内容的显示,以便于用于可以获取最终的场景信息以及后续的操作。
第二方面,本申请实施例提供了一种多场景处理数据的方法,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,方法由AR眼镜执行,包括,获取当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或者语音输入信息;向超级笔记本电脑发送当前环境图像和输入信息。
本申请在上述实施例中,通过AR眼镜结合专为AR眼镜设计的超级笔记本电脑,AR眼镜收集外界环境数据以及用户输入数据,最终由超级笔记本电脑实现不同场景下数据的处理,可以达到提高多场景处理数据的效率的效果。
在一些实施例中,在向超级笔记本电脑发送当前环境图像和输入信息之后,还包括:接收超级笔记本电脑发送的最终场景内容;通过AR眼镜渲染最终场景内容。
本申请在上述实施例中,可以在超级笔记本电脑处理完数据接收数据,实现最终应用场景的渲染,以便于用户可以更好的查看场景内容以及后续的操作。
第三方面,本申请实施例提供了一种多场景处理数据的装置,包括:
接收模块,用于接收增强现实AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;
叠加模块,用于叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;
执行模块,用于根据输入信息,执行对应用场景下场景内容对应的操作。
可选的,预设目标场景为虚拟现实游戏场景、虚拟办公场景、虚拟教育培训场景、虚拟保健场景和虚拟媒体场景中的一个场景。
可选的,叠加模块具体用于:
通过头部追踪技术,获取用户的头部动作;
识别头部动作,确定用户在当前环境图像中注视的目标区域;
将预设目标场景渲染至目标区域内,得到应用场景。
可选的,执行模块具体用于:
识别输入信息,得到用户的操作指令;
根据操作指令执行对场景内容对应的操作。
可选的,所述装置还包括:
显示模块,用于所述执行模块在根据输入信息,执行对应用场景下场景内容对应的操作之后,通过超级笔记本电脑的显示屏显示最终场景内容;
或者
向AR眼镜发送最终场景内容,以便于AR眼镜渲染最终场景内容。
第四方面,本申请实施例提供了一种多场景处理数据的装置,包括:
获取模块,用于获取当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或者语音输入信息;
发送模块,用于向超级笔记本电脑发送当前环境图像和输入信息。
可选的,所述装置还包括:
显示模块,用于所述发送模块在向超级笔记本电脑发送当前环境图像和输入信息之后,接收超级笔记本电脑发送的最终场景内容;
通过AR眼镜渲染最终场景内容。
第五方面,本申请实施例提供一种电子设备,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如上述第一方面或第二方面提供的所述方法中的步骤。
第六方面,本申请实施例提供一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如上述第一方面或第二方面提供的所述方法中的步骤。
本申请的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种多场景处理数据的方法的流程图;
图2为本申请实施例提供的另一种多场景处理数据的方法的流程图;
图3为本申请实施例提供的一种多场景处理数据的装置的示意框图;
图4为本申请实施例提供的另一种多场景处理数据的装置的示意框图;
图5为本申请实施例提供的一种多场景处理数据的装置的结构示意框图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和显示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
首先对本申请实施例中涉及的部分用语进行说明,以便于本领域技术人员理解。
AR:增强现实(Augmented Reality)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
本申请应用于数据处理的场景,具体场景为通过AR眼镜与超级笔记本电脑连接,共同收集外界输入的数据,超级笔记本电脑进行数据的处理以及场景的叠加,实现最终场景内容的渲染。
目前,传统的AR眼镜在不同场景进行数据处理以及场景渲染时,通常是通过AR眼镜自身携带的处理器完成,并且在收集数据时,通常是通过AR眼镜上的设备获取外界输入的数据,根据外界数据渲染虚拟场景。但是,传统的AR眼镜在处理数据时,很难发挥自身携带的多种功能,在数据处理的过程中效率也会很低。
为此本申请通过接收AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;根据输入信息,执行对应用场景下场景内容对应的操作。通过AR眼镜结合专为AR眼镜设计的超级笔记本电脑,通过AR眼镜和超级笔记本电脑共同收集外界环境数据以及用户输入数据,最终由超级笔记本电脑实现不同场景下数据的处理,可以达到提高多场景处理数据的效率的效果。
本申请实施例中,执行主体可以为多场景处理数据系统中的多场景处理数据设备,实际应用中,多场景处理数据设备可以为终端设备和服务器等电子设备,在此不做限制。
下面结合图1对本申请实施例的多场景处理数据的方法进行详细描述。
请参看图1,图1为本申请实施例提供的一种多场景处理数据的方法的流程图,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,图1所示的方法由所述超级笔记本电脑执行,如图1所示的多场景处理数据的方法包括:
步骤110:接收AR眼镜发送的当前环境图像以及用户的输入信息。
其中,输入信息包括动作输入信息和/或语音输入信息,动作输入信息包括用户的手势动作、头部动作以及眼部动作等信息。当前环境图像也可以是当前环境影像截取到的图像。超级笔记本电脑可以获取用户输入的信息,进而分析用户的操作指令,实现AR眼镜内应用程序的控制。
步骤120:叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景。
其中,应用场景包括当前环境下的场景内容以及预设目标场景下的内容。
在本申请的一些实施例中,预设目标场景为虚拟现实游戏场景、虚拟办公场景、虚拟教育培训场景、虚拟保健场景和虚拟媒体场景中的一个场景。
本申请在上述过程中,可以在上述不同的场景实现数据的快速处理,提供不同场景下的场景体验。
其中,预设目标场景还可以是其它场景,例如,餐厅服务场景、音乐厅唱歌场景以及虚拟开车场景等,本申请不限于此。用户可以提供对应场景下的操作,实现不同场景的交互,例如,获取用户的游戏操作实现虚拟场景下的游戏娱乐。
在本申请的一些实施例中,叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景,包括:通过头部追踪技术,获取用户的头部动作;识别头部动作,确定用户在当前环境图像中注视的目标区域;将预设目标场景渲染至目标区域内,得到应用场景。
本申请在上述过程中,通过头部追踪技术,可以确定用户在场景中注视的区域,针对该区域实现虚拟场景的渲染,实现灵活渲染的效果。
其中,头部动作可以是头部倾斜的角度,也可以是眼镜注视的角度。头部追踪技术可以使用惯性测量单元(IMU)和摄像头或红外传感器,IMU可以通过加速度计和陀螺仪来检测头部的加速度和旋转变化,从而实现对头部动作的追踪。
步骤130:根据输入信息,执行对应用场景下场景内容对应的操作。
其中,对应用场景下场景内容对应的操作,例如,虚拟现实游戏场景中的游戏操作、虚拟办公场景中鼠标键盘的操作、虚拟教育培训场景的黑板操作、虚拟保健场景的健身器材的操作和虚拟媒体场景的选择电影或游戏操作等。
在本申请的一些实施例中,根据输入信息,执行对应用场景下场景内容对应的操作,包括:识别输入信息,得到用户的操作指令;根据操作指令执行对场景内容对应的操作。
本申请在上述过程中,可以通过分析用户的操作指令,实现不同应用场景下的操作,实现场景交互的作用。
其中,识别输入信息,得到用户的操作指令可以识别用户的动作,确定用户选择的操作选项获取操作指令,也可以识别用户的语音,将语音转化为文本,确定文本的含义得到操作指令。
在本申请的一些实施例中,在根据输入信息,执行对应用场景下场景内容对应的操作之后,还包括:通过超级笔记本电脑的显示屏显示最终场景内容;或者向AR眼镜发送最终场景内容,以便于AR眼镜渲染最终场景内容。
本申请在上述过程中,可以通过AR眼镜或者超级笔记本电脑实现最终场景内容的显示,以便于用于可以获取最终的场景信息以及后续的操作。
其中,超级笔记本可以是专门为AR眼镜设计的超级笔记本电脑,超级笔记本电脑可以与AR眼镜为一体,携带于AR眼镜上,也可以说超级笔记本电脑为AR眼镜的一部分,此外,超级笔记本电脑也可以是单独的一个设备,单独的进行数据的处理。超级笔记本电脑和AR眼镜可以通过有线或者无线的方式连接。超级笔记本电脑可以配备环境感知传感器,通过感知当前环境的光线和温度等信息,为渲染最终场景内容提供更准确的数据。超级笔记本可以配备单独的处理器和显卡,实现数据处理的高效计算。超级笔记本电脑也可以连接多场景下的应用设备,例如,摄像头和传感器等,以便于能够获取不同场景下的数据。
在上述图1所示的过程中,本申请通过接收AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;根据输入信息,执行对应用场景下场景内容对应的操作。通过AR眼镜结合专为AR眼镜设计的超级笔记本电脑,通过AR眼镜和超级笔记本电脑共同收集外界环境数据以及用户输入数据,最终由超级笔记本电脑实现不同场景下数据的处理,可以达到提高多场景处理数据的效率的效果。
下面结合图2对本申请实施例的多场景处理数据的实施方法进行详细描述。
请参看图2,图2为本申请实施例提供的另一种多场景处理数据的的实施方法的流程图,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,图2所示的方法由AR眼镜执行,如图2所示的多场景处理数据的实施方法包括:
步骤210:获取当前环境图像以及用户的输入信息。
其中,输入信息包括动作输入信息和/或者语音输入信息。
步骤220:向超级笔记本电脑发送当前环境图像和输入信息。
在本申请的一些实施例中,在向超级笔记本电脑发送当前环境图像和输入信息之后,还包括:接收超级笔记本电脑发送的最终场景内容;通过AR眼镜渲染最终场景内容。
本申请在上述过程中,可以在超级笔记本电脑处理完数据接收数据,实现最终应用场景的渲染,以便于用户可以更好的查看场景内容以及后续的操作。
此外,图2所示的具体方法和步骤可以参看图1所示的方法,此处不在过多赘述。
在上述图2所示的过程中,本申请通过AR眼镜结合专为AR眼镜设计的超级笔记本电脑,AR眼镜收集外界环境数据以及用户输入数据,最终由超级笔记本电脑实现不同场景下数据的处理,可以达到提高多场景处理数据的效率的效果。
前文通过图1-图2描述了多场景处理数据的方法,下面结合图3-图4描述多场景处理数据的装置。
请参照图3,为本申请实施例中提供的一种多场景处理数据的装置300的示意框图,该装置300可以是电子设备上的模块、程序段或代码。该装置300与上述图1方法实施例对应,能够执行图1方法实施例涉及的各个步骤,该装置300具体的功能可以参见下文中的描述,为避免重复,此处适当省略详细描述。
可选的,所述装置300包括:
接收模块310,用于接收增强现实AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;
叠加模块320,用于叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;
执行模块330,用于根据输入信息,执行对应用场景下场景内容对应的操作。
可选的,预设目标场景为虚拟现实游戏场景、虚拟办公场景、虚拟教育培训场景、虚拟保健场景和虚拟媒体场景中的一个场景。
可选的,叠加模块具体用于:
通过头部追踪技术,获取用户的头部动作;识别头部动作,确定用户在当前环境图像中注视的目标区域;将预设目标场景渲染至目标区域内,得到应用场景。
可选的,执行模块具体用于:
识别输入信息,得到用户的操作指令;根据操作指令执行对场景内容对应的操作。
可选的,所述装置还包括:
显示模块,用于所述执行模块在根据输入信息,执行对应用场景下场景内容对应的操作之后,通过超级笔记本电脑的显示屏显示最终场景内容;或者向AR眼镜发送最终场景内容,以便于AR眼镜渲染最终场景内容。
请参照图4,为本申请实施例中提供的另一种多场景处理数据的装置400的示意框图,该装置400可以是电子设备上的模块、程序段或代码。该装置400与上述图2方法实施例对应,能够执行图2方法实施例涉及的各个步骤,该装置400具体的功能可以参见下文中的描述,为避免重复,此处适当省略详细描述。
可选的,所述装置400包括:
获取模块410,用于获取当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或者语音输入信息;
发送模块420,用于向超级笔记本电脑发送当前环境图像和输入信息。
可选的,所述装置还包括:
显示模块,用于所述发送模块在向超级笔记本电脑发送当前环境图像和输入信息之后,接收超级笔记本电脑发送的最终场景内容;通过AR眼镜渲染最终场景内容。
请参照图5为本申请实施例中提供的一种多场景处理数据的装置的结构示意框图,该装置可以包括存储器510和处理器520。可选的,该装置还可以包括:通信接口530和通信总线540。该装置与上述图1或图2方法实施例对应,能够执行图1或图2方法实施例涉及的各个步骤,该装置具体的功能可以参见下文中的描述。
具体的,存储器510,用于存储计算机可读指令。
处理器520,用于处理存储器存储的可读指令,能够执行图1或图2方法中的各个步骤。
通信接口530,用于与其他节点设备进行信令或数据的通信。例如:用于与服务器或者终端的通信,或者与其它设备节点进行通信,本申请实施例并不限于此。
通信总线540,用于实现上述组件直接的连接通信。
其中,本申请实施例中设备的通信接口530用于与其他节点设备进行信令或数据的通信。存储器510可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatilememory),例如至少一个磁盘存储器。存储器510可选的还可以是至少一个位于远离前述处理器的存储装置。存储器510中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器520执行时,电子设备执行上述图1或图2所示方法过程。处理器520可以用于装置300或装置400上,并且用于执行本申请中的功能。示例性地,上述的处理器520可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,本申请实施例并不局限于此。
本申请实施例还提供一种可读存储介质,所述计算机程序被处理器执行时,执行如图1或图2所示方法实施例中电子设备所执行的方法过程。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
综上所述,本申请实施例提供一种多场景处理数据的方法、装置、电子设备和可读存储介质,该方法包括,接收AR眼镜发送的当前环境图像以及用户的输入信息,其中,输入信息包括动作输入信息和/或语音输入信息;叠加当前环境图像和预设目标场景,得到预设目标场景下的应用场景;根据输入信息,执行对应用场景下场景内容对应的操作。通过该方法可以达到提高多场景处理数据的效率的效果。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (11)

1.一种多场景处理数据的方法,其特征在于,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,所述方法由所述超级笔记本电脑执行,所述方法包括:
接收所述AR眼镜发送的当前环境图像以及用户的输入信息,其中,所述输入信息包括动作输入信息和/或语音输入信息;
叠加所述当前环境图像和预设目标场景,得到所述预设目标场景下的应用场景;
根据所述输入信息,执行对所述应用场景下场景内容对应的操作。
2.根据权利要求1所述的方法,其特征在于,所述预设目标场景为虚拟现实游戏场景、虚拟办公场景、虚拟教育培训场景、虚拟保健场景和虚拟媒体场景中的一个场景。
3.根据权利要求1或2所述的方法,其特征在于,所述叠加所述当前环境图像和预设目标场景,得到所述预设目标场景下的应用场景,包括:
通过头部追踪技术,获取所述用户的头部动作;
识别所述头部动作,确定所述用户在所述当前环境图像中注视的目标区域;
将所述预设目标场景渲染至所述目标区域内,得到所述应用场景。
4.根据权利要求1或2所述的方法,其特征在于,所述根据所述输入信息,执行对所述应用场景下场景内容对应的操作,包括:
识别所述输入信息,得到所述用户的操作指令;
根据所述操作指令执行对所述场景内容对应的操作。
5.根据权利要求1或2所述的方法,其特征在于,在所述根据所述输入信息,执行对所述应用场景下场景内容对应的操作之后,所述方法还包括:
通过所述超级笔记本电脑的显示屏显示最终场景内容;
或者
向所述AR眼镜发送所述最终场景内容,以便于所述AR眼镜渲染所述最终场景内容。
6.一种多场景处理数据的方法,其特征在于,应用于包括增强现实AR眼镜和超级笔记本电脑的多场景处理数据的系统,所述方法由所述AR眼镜执行,所述方法包括:
获取当前环境图像以及用户的输入信息,其中,所述输入信息包括动作输入信息和/或者语音输入信息;
向所述超级笔记本电脑发送所述当前环境图像和所述输入信息。
7.根据权利要求1或2所述的方法,其特征在于,在所述向所述超级笔记本电脑发送所述当前环境图像和所述输入信息之后,所述方法还包括:
接收所述超级笔记本电脑发送的最终场景内容;
通过所述AR眼镜渲染所述最终场景内容。
8.一种多场景处理数据的装置,其特征在于,包括:
接收模块,用于接收增强现实AR眼镜发送的当前环境图像以及用户的输入信息,其中,所述输入信息包括动作输入信息和/或语音输入信息;
叠加模块,用于叠加所述当前环境图像和预设目标场景,得到所述预设目标场景下的应用场景;
执行模块,用于根据所述输入信息,执行对所述应用场景下场景内容对应的操作。
9.一种多场景处理数据的装置,其特征在于,包括:
获取模块,用于获取当前环境图像以及用户的输入信息,其中,所述输入信息包括动作输入信息和/或者语音输入信息;
发送模块,用于向超级笔记本电脑发送所述当前环境图像和所述输入信息。
10.一种电子设备,其特征在于,包括:
存储器和处理器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如权利要求1-5或6-7中任一项所述方法中的步骤。
11.一种计算机可读存储介质,其特征在于,包括:
计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1-5或6-7中任一项所述的方法。
CN202311600419.6A 2023-11-28 2023-11-28 一种多场景处理数据的方法、装置、设备和可读存储介质 Pending CN117576288A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311600419.6A CN117576288A (zh) 2023-11-28 2023-11-28 一种多场景处理数据的方法、装置、设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311600419.6A CN117576288A (zh) 2023-11-28 2023-11-28 一种多场景处理数据的方法、装置、设备和可读存储介质

Publications (1)

Publication Number Publication Date
CN117576288A true CN117576288A (zh) 2024-02-20

Family

ID=89891500

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311600419.6A Pending CN117576288A (zh) 2023-11-28 2023-11-28 一种多场景处理数据的方法、装置、设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN117576288A (zh)

Similar Documents

Publication Publication Date Title
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
Cao et al. Mobile augmented reality: User interfaces, frameworks, and intelligence
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
TWI654539B (zh) 虛擬實境交互方法、裝置與系統
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN103907139B (zh) 信息处理装置、信息处理方法和程序
EP2782027A1 (en) Apparatus and method providing augmented reality contents based on web information structure
Wilson et al. Walking in place using the Microsoft Kinect to explore a large VE
KR20150039252A (ko) 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
CN110720215B (zh) 提供内容的设备和方法
CN110473293A (zh) 虚拟对象处理方法及装置、存储介质和电子设备
CN109035415B (zh) 虚拟模型的处理方法、装置、设备和计算机可读存储介质
CN112927259A (zh) 基于多相机的裸手追踪显示方法、装置及系统
CN113190109A (zh) 头戴式显示设备的输入控制方法、装置及头戴式显示设备
CN114782661B (zh) 下半身姿态预测模型的训练方法及装置
Haggag et al. An adaptable system for rgb-d based human body detection and pose estimation: Incorporating attached props
CN112861808B (zh) 动态手势识别方法、装置、计算机设备及可读存储介质
Huang et al. Intelligent video surveillance of tourist attractions based on virtual reality technology
CN114092670A (zh) 一种虚拟现实显示方法、设备以及存储介质
Afif et al. Vision-based tracking technology for augmented reality: a survey
US20240046583A1 (en) Real-time photorealistic view rendering on augmented reality (ar) device
Ali et al. Augmented reality based online application for e-shopping
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质
CN117576288A (zh) 一种多场景处理数据的方法、装置、设备和可读存储介质
JP2023512359A (ja) 関連対象検出方法、及び装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination