CN106125937B - 一种信息处理方法和处理器 - Google Patents

一种信息处理方法和处理器 Download PDF

Info

Publication number
CN106125937B
CN106125937B CN201610509982.6A CN201610509982A CN106125937B CN 106125937 B CN106125937 B CN 106125937B CN 201610509982 A CN201610509982 A CN 201610509982A CN 106125937 B CN106125937 B CN 106125937B
Authority
CN
China
Prior art keywords
operating gesture
gesture
display
area
electronic equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610509982.6A
Other languages
English (en)
Other versions
CN106125937A (zh
Inventor
许奔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201610509982.6A priority Critical patent/CN106125937B/zh
Publication of CN106125937A publication Critical patent/CN106125937A/zh
Application granted granted Critical
Publication of CN106125937B publication Critical patent/CN106125937B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种信息处理方法,包括:捕捉用户针对显示对象执行的第一操作手势,该显示对象包括至少一个虚拟对象;基于第一操作手势满足预设条件,生成搜索标识;基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。采用该方法,用户在使用电子设备时,其能够对显示对象进行手势操作,而电子设备捕捉到该操作手势后,在判断该操作手势满足预设条件时,生成搜索标识,并基于该搜索标识对该显示对象的内容进行搜索,由于其显示对象中包含有虚拟对象,则其对显示对象的内容执行搜索也包含了对虚拟对象的内容进行搜索。采用该方法,能方便的实现对虚拟对象进行内容搜索。

Description

一种信息处理方法和处理器
技术领域
本发明涉及电子设备领域,更具体的说,是涉及一种信息处理方法和处理器。
背景技术
随着电子技术的发展,AR(Augmented Reality,增强现实)/VR(Virtual Reality,虚拟现实)作为一种将虚拟物体或虚拟信息叠加到真实世界的技术,广泛应用到军事、医疗、建筑、教育、工程、影视、娱乐等领域。
用户在使用该AR/VR设备时,无法对某一虚拟对象进行搜索,用户对虚拟对象中的具体内容进行定位时,需要执行多次操作、耗时较长,导致用户体验较差。
发明内容
有鉴于此,本发明实施例提供了一种信息处理方法,解决了对虚拟对象进行搜索的问题。
为实现上述目的,本发明实施例提供如下技术方案:
一种信息处理方法,所述方法应用于电子设备,包括:
捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
判断所述第一操作手势是否满足预设条件,得到第一判断结果;
基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
上述的方法,优选的,所述捕捉用户针对显示对象执行的第一操作手势,包括:
捕捉用户在物理空间中的第一操作手势;
依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。
上述的方法,优选的,判断所述第一操作手势是否满足预设条件,包括:
分析所述第一操作手势对应的轨迹;
如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。
上述的方法,优选的,判断所述第一操作手势是否满足预设条件,包括:
分析所述第一操作手势在物理空间中的空间坐标;
如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。
上述的方法,优选的,所述基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识,包括:
分析所述第一操作手势在物理空间中的坐标范围;
依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
在所述第一区域显示所述搜索标识。
上述的方法,优选的,所述基于所述搜索标识,对所述至少一个显示对象的内容进行搜索,包括:
捕捉用户在物理空间中的第二操作手势;
识别所述第二操作手势,得到输入字符;
依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
上述的方法,优选的,如果所述第一区域中不包含显示对象,所述基于所述搜索标识,对所述至少一个显示对象的内容进行搜索,包括:
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;
基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
上述的方法,优选的,如果所述第一区域中不包含显示对象,所述基于所述搜索标识,对所述至少一个显示对象的内容进行搜索,包括:
捕捉用户在物理空间中的第二操作手势;
依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
建立所述输入字符与所述搜索标识之间的关联关系;
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
上述的方法,优选的,还包括:
依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;
如果所述至少一个显示对象支持搜索,执行所述在所述第一区域显示所述搜索标识步骤。
本发明实施例还提供一种电子设备,包括:
采集装置,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
处理装置,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
上述的电子设备,优选的,所述采集装置用于:
捕捉用户在物理空间中的第一操作手势;
依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。
上述的电子设备,优选的,所述处理装置,用于:
分析所述第一操作手势对应的轨迹;
如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。
上述的电子设备,优选的,所述处理装置,用于:
分析所述第一操作手势在物理空间中的空间坐标;
如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。
上述的电子设备,优选的,所述处理装置,用于:
分析所述第一操作手势在物理空间中的坐标范围;
依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
在所述第一区域显示所述搜索标识。
上述的电子设备,优选的,所述处理装置,用于:
控制采集装置捕捉用户在物理空间中的第二操作手势;
识别所述第二操作手势,得到输入字符;
依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
上述的电子设备,优选的,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;
基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
上述的电子设备,优选的,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第二操作手势;
依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
建立所述输入字符与所述搜索标识之间的关联关系;
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
上述的电子设备,优选的,所述处理装置,还用于:
依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;
如果所述至少一个显示对象支持搜索,执行所述基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识步骤。
本发明实施例还提供一种电子设备,包括:
捕捉模块,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
判断模块,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;
生成模块,用于基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
搜索模块,用于基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
经由上述的技术方案可知,本发明实施例提供了一种信息处理方法及电子设备,用户通过对显示对象进行手势操作,电子设备捕捉到该操作手势后,在判断该操作手势满足预设条件时,生成搜索标识,并基于该搜索标识对该显示对象的内容进行搜索,由于其显示对象中包含有虚拟对象,则其对显示对象的内容执行搜索也包含了对虚拟对象的内容进行搜索。采用该方法,用户方便的实现对虚拟对象进行内容搜索,提升了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种信息处理方法实施例1的流程图;
图2为本发明提供的一种信息处理方法实施例2的流程图;
图3为本发明提供的一种信息处理方法实施例3的流程图;
图4为本发明提供的一种信息处理方法实施例4的流程图;
图5为本发明提供的一种信息处理方法实施例4中显示场景示意图;
图6为本发明提供的一种信息处理方法实施例5的流程图;
图7为本发明提供的一种信息处理方法实施例5中一显示场景示意图;
图8为本发明提供的一种信息处理方法实施例5中另一显示场景示意图;
图9为本发明提供的一种信息处理方法实施例6的流程图;
图10为本发明提供的一种信息处理方法实施例7的流程图;
图11为本发明提供的一种信息处理方法实施例7中显示场景示意图;
图12为本发明提供的一种信息处理方法实施例8的流程图;
图13为本发明提供的一种信息处理方法实施例8中显示场景示意图;
图14为本发明提供的一种信息处理方法实施例9的流程图;
图15为本发明提供的一种电子设备实施例1的结构示意图;
图16为本发明提供的一种电子设备实施例2的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅附图1,为本发明提供的一种信息处理方法实施例1的流程图,该方法应用于电子设备中,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备,该电子设备中可以采用AR/VR技术。
其中,该方法包括以下步骤:
步骤S101:捕捉用户针对显示对象执行的第一操作手势;
其中,所述显示对象包括至少一个虚拟对象。
具体实施中,该电子设备采用AR技术时,该电子设备中的显示对象包括真实对象和虚拟对象,该虚拟对象可以为用户预先设置的;该电子设备采用VR技术时,该电子设备中的显示对象只有虚拟对象。
其中,该电子设备可以通过外接的摄像头、用户握持的手柄等捕捉用户的操作手势。
步骤S102:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
其中,电子设备中预设条件,用于判断该第一手势是否满足条件,以生成搜索标识,对该显示对象的内容进行搜索。
具体的,该预设条件可以为特定的手势动作,当该第一操作手势与该特定的手势动作相应时,则可以生成搜索标识。
后续实施例中会针对该判断的过程做详细解释,本实施例中不做详述。
步骤S103:基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
其中,当该第一操作手势满足预设条件时,调用搜索程序,生成搜索标识。
其中,该电子设备中设置有搜索程序,该搜索程序被调用的条件为该第一操作手势满足预设条件。
步骤S104:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,该搜索标识可以为一个搜索框,用户可以通过在该搜索框中输入搜索信息,以实现对该显示对象的内容进行搜索。
需要说明的是,基于搜索标识能够实现对电子设备的显示场景中的一个特定显示对象的内容进行搜索,也能够实现对该显示场景中全部的显示对象的内容进行搜索,后续实施例中会做详细解释,本实施例中不做详述。
综上,本实施例中提供的一种信息处理方法,用户通过对显示对象进行手势操作,电子设备捕捉到该操作手势后,在判断该操作手势满足预设条件时,生成搜索标识,并基于该搜索标识对该显示对象的内容进行搜索,由于其显示对象中包含有虚拟对象,则其对显示对象的内容执行搜索也包含了对虚拟对象的内容进行搜索。采用该方法,用户方便的实现对虚拟对象进行内容搜索,提升了用户体验。
请参阅附图2,为本发明提供的一种信息处理方法实施例2的流程图,该方法包括以下步骤:
步骤S201:捕捉用户在物理空间中的第一操作手势;
具体实施中,用户的手在物理空间中移动,以实现输入该第一操作手势。
具体的,对用户在该物理空间中的第一操作手势进行捕捉,可以通过多种方式实现。
例如,该第一操作手势为用户握持手柄实现,则可以通过接收手柄发送的六轴传感器信息得到该第一操作手势;或者,设置有对物理空间中的图像进行采集的摄像头,接收该摄像头采集的图像,对该图像进行分析即可得到该第一操作手势。
步骤S202:依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作;
其中,该物理空间与电子设备的虚拟空间之间具有一映射关系。
具体实施中,该物理空间与该虚拟空间均采用三维坐标,且该三维的三个轴向(x轴、y轴、z轴)一致,而深度方向该物理空间和虚拟空间可以采用不同的原点,即二者之间可能具有深度差值。
具体的,基于该映射关系,将该第一操作手势在该物理空间中的三维坐标,映射至该电子设备的显示场景对应的虚拟空间中,以确定该第一操作手势是针对该显示场景中的虚拟对象的操作,以实现在后续步骤中对该虚拟对象的搜索。
例如,该第一操作手势的某一个分解动作在该物理空间中的坐标为(1,2,5),相应的,将该分解动作映射在虚拟空间中的坐标也可以为相应的(1,2,5),进而将该虚拟空间中的坐标添加到该电子设备的显示场景中。
具体实施中,该显示场景中可以相应的显示该第一操作手势映射的操作,可以不显示,本申请中不做限制。
需要说明的是,具体实施中,该电子设备为AR设备时,其能够直接观看到该显示场景中的真实对象也能够看到该显示场景中的虚拟对象,也可以针对该真实对象进行操作;电子设备为VR设备时,其在该显示场景中显示的均是虚拟对象,则其只需针对虚拟对象进行操作即可。
步骤S203:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
步骤S204:基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
步骤S205:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,步骤S203-205与实施例1中的步骤S102-104一致,本实施例中不做赘述。
综上,本实施例中提供的一种信息处理方法中,该捕捉用户针对显示对象执行的第一操作手势,包括:捕捉用户在物理空间中的第一操作手势;依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。采用该方法,通过映射关系,能够将在物理空间中的第一操作手势映射到显示场景中的虚拟对象的操作,以实现对该虚拟对象的搜索。
请参阅附图3,为本发明提供的一种信息处理方法实施例3的流程图,该方法包括以下步骤:
步骤S301:捕捉用户针对显示对象执行的第一操作手势;
其中,步骤S301与实施例1中的步骤S101一致,本实施例中不做赘述。
步骤S302:分析所述第一操作手势对应的轨迹;
步骤S303:如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件;
其中,该调用搜索程序的条件为用户执行的第一操作手势对应的轨迹与预设轨迹匹配。
具体实施中,该预设轨迹可以为直线、圆形等特定图案。
具体的,对该第一操作手势进行分析,得到其对应的轨迹,该轨迹可以为三维的轨迹,如xyz三个轴上的坐标均产生变化;该轨迹可以为二维的轨迹,即其中一个轴上的坐标维持不变,另外两个轴上的坐标变化;该轨迹还可以为以维的轨迹,即在该物理空间中画一条直线,只有一个轴上的坐标变化,另外两个轴上的坐标不变。
需要说明的是,本申请中不对该轨迹是否为三维轨迹做限制。
具体的,该第一操作手势为一维、二维甚至三维轨迹,其形成轨迹形状与该预设轨迹匹配即可,无需严格限制其是否为与预设轨迹完全相同。
其中,该第一操作手势映射到所述电子设备的显示场景中,其可以对应该显示场景中的某显示对象的显示区域,则生成的搜索标识可以针对该显示对象的内容进行搜索;
其中,该第一操作手势映射到所述电子设备的显示场景中,其也可以对应该显示场景中的空白区域,该空白区域是指无显示对象的显示区域,则生成的搜索标识可以针对该显示场景中所有显示对象的内容进行搜索。
步骤S304:生成搜索标识;
步骤S305:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,步骤S304-305与实施例1中的步骤S103-104一致,本实施例中不做赘述。
综上,本实施例中提供的一种信息处理方法中,该判断所述第一操作手势是否满足预设条件,包括:分析所述第一操作手势对应的轨迹;如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。采用该方法,用户执行在物理空间中画出特定的图案,形成第一操作手势,即可实现生成搜索标识进行搜索。
请参阅附图4,为本发明提供的一种信息处理方法实施例4的流程图,该方法包括以下步骤:
步骤S401:捕捉用户针对显示对象执行的第一操作手势;
其中,步骤S401与实施例1中的步骤S101一致,本实施例中不做赘述。
步骤S402:分析所述第一操作手势在物理空间中的空间坐标;
其中,该物理空间与电子设备的虚拟空间之间具有一映射关系。
具体的,基于该映射关系,将该第一操作手势在该物理空间中的三维坐标,映射至该电子设备的显示场景对应的虚拟空间中,以确定该第一操作手势是针对该显示场景中的虚拟对象的操作,以实现在后续步骤中对该虚拟对象的搜索。
具体实施中,捕捉到该第一操作手势后,对该第一操作手势在该物理空间中的空间坐标进行分析,则基于该物理空间中的空间坐标即可得到其在电子设备的显示场景中的虚拟空间中的坐标。
步骤S403:如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件;
其中,该第一操作手势在物理空间中的空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,是指基于显示场景中的平面(深度值为定值的面),该操作手势的坐标与该显示对象的坐标发生重合。
其中,该在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,表征该第一操作手势为维持在某一区域内,即用户针对该显示对象进行长按的动作。
具体实施中,该预设阈值可以采用百分比或者坐标系的几个单位值,如变化率小于10%,或者变化率小于1个单位值,则认为该第一操作手势未发生位置变化。
具体实施中,该显示对象在电子设备的显示场景中占用的空间可能不只是一个点,也可能为一组能够组成特定形状的点集合,则相应的该第一操作手势映射到电子设备的显示场景中时,其可能与该显示场景中的某一显示对象占用的空间范围相重合,或者有相重合的区域。
其中,该预设时间、预设阈值采用的数值可以用由户或者开发商设置,本申请中不对该预设时间、预设阈值采用的具体数值做限制。
如图5所示的显示场景示意图,其中,该显示场景501中包括显示对象502,用户的操作手势在该显示场景中对应的操作区域503,在该显示场景中,该显示对象502与该操作区域503相对重合,当该操作手势维持在该操作区域503中一段时间(如2秒),则可以生成搜索标识,以实现对该显示对象的内容进行搜索。
步骤S404:生成搜索标识;
步骤S405:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,步骤S404-405与实施例1中的步骤S103-104一致,本实施例中不做赘述。
综上,本实施例中提供的一种信息处理方法中,该判断所述第一操作手势是否满足预设条件,包括:分析所述第一操作手势在物理空间中的空间坐标;如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。采用该方法,用户执行在物理空间中针对特定的显示对象进行长按即可实现生成搜索标识,以实现对该显示对象的内容进行搜索。
请参阅附图6,为本发明提供的一种信息处理方法实施例5的流程图,该方法包括以下步骤:
步骤S601:捕捉用户针对显示对象执行的第一操作手势;
步骤S602:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
其中,步骤S601-602与实施例1中的步骤S101-102一致,本实施例中不做赘述。
步骤S603:分析所述第一操作手势在物理空间中的坐标范围;
其中,该物理空间与电子设备的虚拟空间之间具有一映射关系。
具体的,基于该映射关系,将该第一操作手势在该物理空间中的三维坐标,映射至该电子设备的显示场景对应的虚拟空间中,以确定该第一操作手势是针对该显示场景中的虚拟对象的操作,以实现在后续步骤中对该虚拟对象的搜索。
具体实施中,捕捉到该第一操作手势后,对该第一操作手势在该物理空间中的空间坐标进行分析,则基于该物理空间中的空间坐标即可得到其在电子设备的显示场景中的虚拟空间中的坐标。
步骤S604:依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
具体实施中,依据该物理空间中的空间坐标,该第一操作手势在电子设备的显示场景中的虚拟空间中的坐标,以实现将该第一操作手势映射到电子设备的显示场景中。
其中,该第一操作手势在物理空间中的坐标范围,与该电子设备的显示场景中的第一区域相对应。
步骤S605:在所述第一区域显示所述搜索标识;
其中,用户在物理空间中执行了该第一操作手势后,该第一操作手势映射到该电子设备的显示场景中的第一区域,相应的,在该第一区域显示搜索标识,以提示用户当前针对该第一区域的对象进行搜索。
需要说明的是,该第一区域中有显示对象时,该第一区域的对象是指该第一区域中显示对象;该第一区域中无显示对象时,该第一区域的对象是指该第一区域对应的显示场景中的各个显示对象。
例如,该搜索标识为一个搜索框时,将该搜索框在该第一区域中进行显示。
如图7所示的为一显示场景示意图,其中,该显示场景701中包括显示对象702-703,用户的操作手势在该显示场景中对应的第一区域704,在该显示场景中,该显示对象702的显示区域与该第一区域704相对重合,在该第一区域704生成搜索框705,以实现对该显示对象的内容进行搜索。
如图8所示的为另一显示场景示意图,其中,该显示场景801中包括显示对象802-803,用户的操作手势在该显示场景中对应的第一区域804,在该显示场景中,该第一区域804未与任何显示对象的显示区域重合,在该第一区域804生成搜索框805,以实现对该显示对象的内容进行搜索。
步骤S606:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,步骤S606与实施例1中的步骤S104一致,本实施例中不做赘述。
综上,本实施例中提供的一种信息处理方法中,该基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识,包括:分析所述第一操作手势在物理空间中的坐标范围;依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;在所述第一区域显示所述搜索标识。采用该方法,在第一操作手势映射在电子设备的显示场景中的第一区域显示搜索标识,以提示用户当前针对该第一区域的对象进行搜索。
请参阅附图9,为本发明提供的一种信息处理方法实施例6的流程图,该方法包括以下步骤:
步骤S901:捕捉用户针对显示对象执行的第一操作手势;
步骤S902:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
步骤S903:基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
其中,步骤S901-903与实施例1中的步骤S101-103一致,本实施例中不做赘述。
步骤S904:捕捉用户在物理空间中的第二操作手势;
其中,在显示区域中生成搜索标识后,用户可以通过在物理空间中执行第二操作手势,实现输入待搜索的字符内容。
具体实施中,该第二操作手势的捕捉方式与步骤S901中捕捉第一操作手势相同。
步骤S905:识别所述第二操作手势,得到输入字符;
其中,电子设备中设置有识别规则,依据该识别规则,能够对用户执行的第二操作手势对应的内容进行识别。
具体的,对该第二操作手势进行识别,得到输入字符。
具体实施中,可以将该物理空间中的第二操作手势,映射至该电子设备的显示场景对应的虚拟空间中,并基于电子设备的显示场景中,识别该第二操作手势。
其中,用户在执行该第二操作手势过程中,可以将该第二操作手势同步映射到该电子设备的显示场景中,以使得用户能够视觉感知自己执行的手势。
步骤S906:依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
具体的,建立该输入字符、搜索标识以及该显示对象之间的关系,依据该输入字符对该显示对象的内容进行搜索。
具体实施中,可以将搜索的结果在该电子设备的显示场景中进行显示。
具体实施中,该搜索标识在无显示对象的区域时,对该显示场景中的全部显示对象的内容进行搜索;搜索标识在某一个显示对象的区域时,对该区域对应的显示对象的内容进行搜索。
综上,本实施例中提供的一种信息处理方法中,该基于所述搜索标识,对所述至少一个显示对象的内容进行搜索,包括:捕捉用户在物理空间中的第二操作手势;识别所述第二操作手势,得到输入字符;依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。采用该方法,能够基于用户输入的第二操作手势得到输入字符,实现对电子设备的显示场景中的显示对象的内容进行搜索。
请参阅附图10,为本发明提供的一种信息处理方法实施例7的流程图,该方法包括以下步骤:
步骤S1001:捕捉用户针对显示对象执行的第一操作手势;
步骤S1002:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
步骤S1003:分析所述第一操作手势在物理空间中的坐标范围;
步骤S1004:依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
步骤S1005:在所述第一区域显示所述搜索标识;
其中,步骤S1001-1005与实施例5中的步骤S601-605一致,本实施例中不做赘述。
步骤S1006:捕捉用户在物理空间中的第三操作手势;
其中,如果该第一区域中不包含显示对象时,但是需要对该电子设备的显示场景中的一特定显示对象的内容进行搜索,则需要将该搜索标识移动至该目标显示对象处。
具体的,用户可以通过在物理空间中执行第三操作手势,目的是拖动该搜索标识。
具体实施中,该第二操作手势的捕捉方式与步骤S1001中捕捉第一操作手势相同。
步骤S1007:依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势;
具体实施中,将该第三操作手势中的每个坐标点,映射到该电子设备的显示场景的虚拟空间中,得到该第三操作手势在电子设备的显示场景中的虚拟空间中的各个坐标,以实现将该第三操作手势映射到电子设备的显示场景中。
其中,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
具体实施中,虚拟手势可以为一段线段,也可以为一段曲线,只要其满足起点与所述搜索标识的显示区域对应和终点与第一显示对象的显示区域相关的条件即可,本申请中不对虚拟手势对应的手势轨迹形状做限制。
步骤S1008:基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域;
其中,所述第二区域中包含第一显示对象。
其中,基于该虚拟手势,将该搜索标识移动至该第一显示对象的显示区域中。
具体实施中,该搜索标识的移动过程中,该搜索标识可以跟随该虚拟手势。
具体实施中,可以采用特定的启动手势,如双击该搜索标识,启动移动搜索标识的操作。
需要说明的是,本申请中不对启动移动搜索标识的操作具体形式做限制。
如图11所示的为显示场景示意图,其中,该显示场景1101中包括显示对象1102-1103和搜索框1104,用户的操作手势在该显示场景中对应的轨迹1105,在该显示场景中,该搜索框1104基于该操作手势拖动至该显示对象1102处,图中以虚线方式表示该轨迹以及该搜索框的目的位置,该搜索框移动至目的位置后,能够输入待搜索的字符,实现对该显示对象1102的内容进行搜索。
步骤S1009:基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
具体的,建立该输入字符、搜索标识以及该显示对象之间的关系,依据该输入字符对该第一显示对象的内容进行搜索。
具体实施中,可以将搜索的结果在该电子设备的显示场景中进行显示。
综上,本实施例中提供的一种信息处理方法中,包括:捕捉用户在物理空间中的第三操作手势;依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。采用该方法,将未处于显示对象对应区域的搜索标志移动至显示对象对应区域中,并在后续步骤中输入字符,以实现对该电子设备的显示场景中的一特定显示对象的内容进行搜索。
请参阅附图12,为本发明提供的一种信息处理方法实施例8的流程图,该方法包括以下步骤:
步骤S1201:捕捉用户针对显示对象执行的第一操作手势;
步骤S1202:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
步骤S1203:分析所述第一操作手势在物理空间中的坐标范围;
步骤S1204:依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
步骤S1205:在所述第一区域显示所述搜索标识;
其中,步骤S1201-1205与实施例5中的步骤S601-605一致,本实施例中不做赘述。
步骤S1206:捕捉用户在物理空间中的第二操作手势;
其中,如果该第一区域中不包含显示对象时,但是需要对该电子设备的显示场景中的一特定显示对象的内容进行搜索,则需要将该搜索标识移动至该目标显示对象处。
其中,在显示区域中完成拖动该搜索标识至第二区域后,用户可以通过在物理空间中执行第二操作手势,实现输入待搜索的字符内容。
具体实施中,该第二操作手势的捕捉方式与步骤S1201中捕捉第一操作手势相同。
步骤S1207:依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
其中,电子设备中设置有识别规则,依据该识别规则,能够对用户执行的第二操作手势对应的内容进行识别。
具体的,对该第二操作手势进行识别,得到输入字符。
具体实施中,可以将该物理空间中的第二操作手势,映射至该电子设备的显示场景对应的虚拟空间中,并基于电子设备的显示场景中,识别该第二操作手势。
其中,用户在执行该第二操作手势过程中,可以将该第二操作手势同步映射到该电子设备的显示场景中,以使得用户能够视觉感知自己执行的手势。
步骤S1208:建立所述输入字符与所述搜索标识之间的关联关系;
具体的,建立该输入字符与搜索标识之间的关系,以实现在后续步骤中将该搜索标识拖动至目标位置后,基于该输入字符该输入字符对该第一显示对象的内容进行搜索。
步骤S1209:捕捉用户在物理空间中的第三操作手势;
其中,如果该第一区域中不包含显示对象时,但是需要对该电子设备的显示场景中的一特定显示对象的内容进行搜索,则需要将该搜索标识移动至该目标显示对象处。
具体的,用户可以通过在物理空间中执行第三操作手势,目的是拖动该搜索标识。
具体实施中,该第三操作手势的捕捉方式与步骤S1201中捕捉第一操作手势相同。
步骤S1210:依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势;
其中,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
具体实施中,将该第三操作手势中的每个坐标点,映射到该电子设备的显示场景的虚拟空间中,得到该第三操作手势在电子设备的显示场景中的虚拟空间中的各个坐标,以实现将该第三操作手势映射到电子设备的显示场景中。
具体实施中,虚拟手势可以为一段线段,也可以为一段曲线,只要其满足起点与所述搜索标识的显示区域对应和终点与第一显示对象的显示区域相关的条件即可,本申请中不对虚拟手势对应的手势轨迹形状做限制。
步骤S1211:基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
其中,基于该虚拟手势,将该搜索标识移动至该第二显示对象的显示区域中。
具体实施中,该搜索标识的移动过程中,该搜索标识可以跟随该虚拟手势。
具体实施中,可以采用特定的启动手势,如双击该搜索标识,启动移动搜索标识的操作。
需要说明的是,本申请中不对启动移动搜索标识的操作具体形式做限制。
如图13所示的为显示场景示意图,其中,该显示场景1301中包括显示对象1302-1303和搜索框1304,基于用户的操作手势在该搜索框中输入字符“新案”,而用户的操作手势在该显示场景中对应的轨迹1305,在该显示场景中,该搜索框1304基于该操作手势拖动至该显示对象1302处,图中以虚线方式表示该轨迹以及该搜索框的目的位置,该搜索框移动至目的位置后,能够基于其中的搜索字符,实现对该显示对象1302的内容进行搜索。
步骤S1212:依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
具体的,建立该输入字符、搜索标识以及该第二显示对象之间的关系,依据该输入字符对该第二显示对象的内容进行搜索。
具体实施中,可以将搜索的结果在该电子设备的显示场景中进行显示。
综上,本实施例中提供的一种信息处理方法中,包括:捕捉用户在物理空间中的第二操作手势;依据预设的识别规则识别所述第二操作手势,识别得到输入字符;建立所述输入字符与所述搜索标识之间的关联关系;捕捉用户在物理空间中的第三操作手势;依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。采用该方法,将未处于显示对象对应区域的搜索标识中添加输入字符,并将搜索标识移动至显示对象对应区域中,以实现对该电子设备的显示场景中的一特定显示对象的内容进行搜索。
请参阅附图14,为本发明提供的一种信息处理方法实施例9的流程图,该方法包括以下步骤:
步骤S1401:捕捉用户针对显示对象执行的第一操作手势;
步骤S1402:判断所述第一操作手势是否满足预设条件,得到第一判断结果;
步骤S1403:分析所述第一操作手势在物理空间中的坐标范围;
步骤S1404:依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
其中,步骤S1401-1404与实施例6中的步骤S601-604一致,本实施例中不做赘述。
步骤S1405:依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域;
其中,所述显示区域中对应至少一个显示对象。
其中,该物理空间与电子设备的虚拟空间之间具有一映射关系。
具体的,基于该映射关系,将该第一操作手势在该物理空间中的三维坐标,映射至该电子设备的显示场景对应的虚拟空间中,以确定该第一操作手势是针对该显示场景中的虚拟对象的操作,以实现在后续步骤中对该虚拟对象的搜索。
具体实施中,可以基于步骤S1403实现中对该第一操作手势在该物理空间中的空间坐标进行分析,则基于该物理空间中的空间坐标即可得到其在电子设备的显示场景中的虚拟空间中的坐标,进而可得到该第一操作手势映射到电子设备的显示场景中的显示区域。
步骤S1406:如果所述至少一个显示对象支持搜索,在所述第一区域显示所述搜索标识;
其中,该至少一个显示对象中的任一个支持搜索,即可在第一区域显示搜索标识。
具体的,当该第一操作手势映射到所述电子设备的显示场景中的某显示对象的显示区域,则只需判断该显示对象是否支持搜索;
具体的,该第一操作手势映射到所述电子设备的显示场景中的空白区域,该空白区域是指无显示对象的显示区域,则可判断该显示场景中的全部显示对象是否支持搜索,当有一个显示对象支持搜索,即可在第一区域显示搜索标识。
步骤S1407:基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
其中,步骤S1406-1407与实施例6中的步骤S605-606一致,本实施例中不做赘述。
综上,本实施例中提供的一种信息处理方法中,还包括:依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;如果所述至少一个显示对象支持搜索,执行所述在所述第一区域显示所述搜索标识步骤。采用该方法,确定该显示区域中包含的显示对象支持搜索,才针对该显示对象显示搜索标识,以实现对该显示对象的内容进行搜索。
上述本发明提供的实施例中详细描述了一种信息处理方法,对于本发明的信息处理方法可采用多种形式的装置实现,因此本发明还提供了一种应用该信息处理方法的电子设备,下面给出具体的实施例进行详细说明。
请参阅附图15,为本发明提供的一种电子设备实施例1的结构示意图,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备,该电子设备中可以采用AR/VR技术。
其中,该电子设备包括以下结构:采集装置1501和处理装置1502;
其中,该采集装置1501,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
具体实施中,该采集装置可以为电子设备的摄像头,也可以为具有通信能力的装置,该具有通信能力的装置用于从外部采集结构中获取相依的信息,进而实现捕捉该第一操作手势。
例如,该外部采集结构可以为手柄或者摄像头,该手柄发送六轴传感器信息给采集装置;该外接的摄像头将其采集的图像发送给采集装置。
其中,该处理装置1502,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
具体实施中,该处理装置1502可以采用电子设备中的具有信息处理能力的结构,如CPU(central processing unit,中央处理器)、EC(Embedded Controller,嵌入式控制器)等。
优选的,所述采集装置用于:
捕捉用户在物理空间中的第一操作手势;
依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。
优选的,所述处理装置,用于:
分析所述第一操作手势对应的轨迹;
如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。
优选的,所述处理装置,用于:
分析所述第一操作手势在物理空间中的空间坐标;
如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。
优选的,所述处理装置,用于:
分析所述第一操作手势在物理空间中的坐标范围;
依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
在所述第一区域显示所述搜索标识。
优选的,所述处理装置,用于:
控制采集装置捕捉用户在物理空间中的第二操作手势;
识别所述第二操作手势,得到输入字符;
依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
优选的,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;
基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
优选的,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第二操作手势;
依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
建立所述输入字符与所述搜索标识之间的关联关系;
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
优选的,所述处理装置,还用于:
依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;
如果所述至少一个显示对象支持搜索,执行所述基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识步骤。
综上,本实施例中提供的一种电子设备,用户通过对显示对象进行手势操作,电子设备捕捉到该操作手势后,在判断该操作手势满足预设条件时,生成搜索标识,并基于该搜索标识对该显示对象的内容进行搜索,由于其显示对象中包含有虚拟对象,则其对显示对象的内容执行搜索也包含了对虚拟对象的内容进行搜索。采用该电子设备,用户方便的实现对虚拟对象进行内容搜索,提升了用户体验。
请参阅附图16,为本发明提供的一种电子设备实施例2的结构示意图,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备,该电子设备中可以采用AR/VR技术。
其中,该电子设备包括以下结构:捕捉模块1601、判断模块1602、生成模块1603和搜索模块1604;
其中,该捕捉模块1601,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
其中,该判断模块1602,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;
其中,该生成模块1603,用于基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
其中,该搜索模块1604,用于基于所述搜索标识,对所述至少一个显示对象的内容进行搜索。
综上,本实施例中提供的一种电子设备,用户通过对显示对象进行手势操作,电子设备捕捉到该操作手势后,在判断该操作手势满足预设条件时,生成搜索标识,并基于该搜索标识对该显示对象的内容进行搜索,由于其显示对象中包含有虚拟对象,则其对显示对象的内容执行搜索也包含了对虚拟对象的内容进行搜索。采用该电子设备,用户方便的实现对虚拟对象进行内容搜索,提升了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例提供的装置而言,由于其与实施例提供的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所提供的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所提供的原理和新颖特点相一致的最宽的范围。

Claims (19)

1.一种信息处理方法,其特征在于,所述方法应用于采用增强现实/虚拟现实技术的电子设备,包括:
捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
判断所述第一操作手势是否满足预设条件,得到第一判断结果;
基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索。
2.根据权利要求1所述的方法,其特征在于,所述捕捉用户针对显示对象执行的第一操作手势,包括:
捕捉用户在物理空间中的第一操作手势;
依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。
3.根据权利要求1所述的方法,其特征在于,判断所述第一操作手势是否满足预设条件,包括:
分析所述第一操作手势对应的轨迹;
如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。
4.根据权利要求1所述的方法,其特征在于,判断所述第一操作手势是否满足预设条件,包括:
分析所述第一操作手势在物理空间中的空间坐标;
如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识,包括:
分析所述第一操作手势在物理空间中的坐标范围;
依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
在所述第一区域显示所述搜索标识。
6.根据权利要求1所述的方法,其特征在于,所述基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索,包括:
捕捉用户在物理空间中的第二操作手势;
识别所述第二操作手势,得到输入字符;
依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
7.根据权利要求5所述的方法,其特征在于,如果所述第一区域中不包含显示对象,所述基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索,包括:
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;
基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
8.根据权利要求5所述的方法,其特征在于,如果所述第一区域中不包含显示对象,所述基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索,包括:
捕捉用户在物理空间中的第二操作手势;
依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
建立所述输入字符与所述搜索标识之间的关联关系;
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第二显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
9.根据权利要求5所述的方法,其特征在于,还包括:
依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;
如果所述至少一个显示对象支持搜索,执行所述在所述第一区域显示所述搜索标识步骤。
10.一种电子设备,其特征在于,所述电子设备采用增强现实/虚拟现实技术包括:
采集装置,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
处理装置,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索。
11.根据权利要求10所述的电子设备,其特征在于,所述采集装置用于:
捕捉用户在物理空间中的第一操作手势;
依据预设的映射关系,将所述第一操作手势映射到所述电子设备的显示场景中对所述虚拟对象的操作。
12.根据权利要求10所述的电子设备,其特征在于,所述处理装置,用于:
分析所述第一操作手势对应的轨迹;
如果所述轨迹与预设轨迹匹配,判定所述第一操作手势满足预设条件。
13.根据权利要求10所述的电子设备,其特征在于,所述处理装置,用于:
分析所述第一操作手势在物理空间中的空间坐标;
如果所述空间坐标与电子设备的显示场景中所述显示对象占用的空间范围依据预设的映射关系对应,且在预设时间内所述第一操作手势的空间坐标变化率小于预设阈值,判定所述第一操作手势满足预设条件。
14.根据权利要求10-13任一项所述的电子设备,其特征在于,所述处理装置,用于:
分析所述第一操作手势在物理空间中的坐标范围;
依据预设的映射关系,将所述坐标范围映射到所述电子设备的显示场景中的第一区域;
在所述第一区域显示所述搜索标识。
15.根据权利要求10所述的电子设备,其特征在于,所述处理装置,用于:
控制采集装置捕捉用户在物理空间中的第二操作手势;
识别所述第二操作手势,得到输入字符;
依据所述输入字符和所述搜索标识,对所述搜索标识对应的显示对象的内容进行搜索。
16.根据权利要求14所述的电子设备,其特征在于,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第一显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第一显示对象;
基于所述搜索标识,对所述第二区域中的所述第一显示对象的内容进行搜索。
17.根据权利要求14所述的电子设备,其特征在于,如果所述第一区域中不包含显示对象,所述处理装置,用于:
捕捉用户在物理空间中的第二操作手势;
依据预设的识别规则识别所述第二操作手势,识别得到输入字符;
建立所述输入字符与所述搜索标识之间的关联关系;
捕捉用户在物理空间中的第三操作手势;
依据预设的映射关系将所述第三操作手势映射到所述电子设备的显示场景,得到虚拟手势,所述虚拟手势的起点与所述搜索标识的显示区域对应,所述虚拟手势的终点与第二显示对象的显示区域相关;
基于所述虚拟手势,将所述搜索标识从第一区域移动至第二区域,所述第二区域中包含第二显示对象;
依据所述输入字符与所述搜索标识之间的关联关系,对所述第二显示对象的内容进行搜索。
18.根据权利要求14所述的电子设备,其特征在于,所述处理装置,还用于:
依据所述第一操作手势在物理空间中的空间坐标范围以及预设的映射关系,分析得到所述第一操作手势映射到所述电子设备的显示场景中的显示区域,所述显示区域中对应至少一个显示对象;
如果所述至少一个显示对象支持搜索,执行所述基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识步骤。
19.一种电子设备,其特征在于,所述电子设备采用增强现实/虚拟现实技术,包括:
捕捉模块,用于捕捉用户针对显示对象执行的第一操作手势,所述显示对象包括至少一个虚拟对象;
判断模块,用于判断所述第一操作手势是否满足预设条件,得到第一判断结果;
生成模块,用于基于第一判断结果表征所述第一操作手势满足预设条件,生成搜索标识;
搜索模块,用于基于所述搜索标识,对所述至少一个虚拟对象的内容进行搜索。
CN201610509982.6A 2016-06-30 2016-06-30 一种信息处理方法和处理器 Active CN106125937B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610509982.6A CN106125937B (zh) 2016-06-30 2016-06-30 一种信息处理方法和处理器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610509982.6A CN106125937B (zh) 2016-06-30 2016-06-30 一种信息处理方法和处理器

Publications (2)

Publication Number Publication Date
CN106125937A CN106125937A (zh) 2016-11-16
CN106125937B true CN106125937B (zh) 2019-05-31

Family

ID=57468031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610509982.6A Active CN106125937B (zh) 2016-06-30 2016-06-30 一种信息处理方法和处理器

Country Status (1)

Country Link
CN (1) CN106125937B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688421A (zh) * 2017-08-29 2018-02-13 上海与德科技有限公司 一种在触控设备上显示3d界面的控制方法和系统
CN109905754B (zh) * 2017-12-11 2021-05-07 腾讯科技(深圳)有限公司 虚拟礼物收取方法、装置及存储设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455590A (zh) * 2013-08-29 2013-12-18 百度在线网络技术(北京)有限公司 在触屏设备中进行检索的方法和装置
CN103797481A (zh) * 2011-09-21 2014-05-14 微软公司 基于手势的搜索
CN103959287A (zh) * 2011-10-25 2014-07-30 谷歌公司 基于手势的搜索
CN103984709A (zh) * 2014-04-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种在任意界面进行搜索的方法及装置
CN104699700A (zh) * 2013-12-05 2015-06-10 腾讯科技(深圳)有限公司 搜索方法及装置
CN105426086A (zh) * 2015-12-23 2016-03-23 小米科技有限责任公司 页面中搜索功能框的显示处理方法及装置
CN105446642A (zh) * 2015-11-13 2016-03-30 上海斐讯数据通信技术有限公司 视频内容的自动搜索方法、系统及具有触摸屏的电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103797481A (zh) * 2011-09-21 2014-05-14 微软公司 基于手势的搜索
CN103959287A (zh) * 2011-10-25 2014-07-30 谷歌公司 基于手势的搜索
CN103455590A (zh) * 2013-08-29 2013-12-18 百度在线网络技术(北京)有限公司 在触屏设备中进行检索的方法和装置
CN104699700A (zh) * 2013-12-05 2015-06-10 腾讯科技(深圳)有限公司 搜索方法及装置
CN103984709A (zh) * 2014-04-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种在任意界面进行搜索的方法及装置
CN105446642A (zh) * 2015-11-13 2016-03-30 上海斐讯数据通信技术有限公司 视频内容的自动搜索方法、系统及具有触摸屏的电子设备
CN105426086A (zh) * 2015-12-23 2016-03-23 小米科技有限责任公司 页面中搜索功能框的显示处理方法及装置

Also Published As

Publication number Publication date
CN106125937A (zh) 2016-11-16

Similar Documents

Publication Publication Date Title
US10863168B2 (en) 3D user interface—360-degree visualization of 2D webpage content
CN109952610B (zh) 图像修改器的选择性识别和排序
CN112243583B (zh) 多端点混合现实会议
US9823821B2 (en) Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
US8811667B2 (en) Terminal device, object control method, and program
CN102906671B (zh) 手势输入装置及手势输入方法
EP2814000B1 (en) Image processing apparatus, image processing method, and program
CN111897431B (zh) 展示方法及装置、显示设备、计算机可读存储介质
US11003305B2 (en) 3D user interface
Badam et al. Supporting visual exploration for multiple users in large display environments
JP2013225245A (ja) 画像処理装置、画像処理方法及びプログラム
KR20210023680A (ko) 증강 현실 환경에서의 콘텐트 생성
EP3276951A1 (en) Image processing system, image processing method, and program
JP2013165366A (ja) 画像処理装置、画像処理方法及びプログラム
RU2768526C2 (ru) Реальное присутствие рукописного ввода для сотрудничества в реальном времени
KR20120010041A (ko) 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템
CN106125937B (zh) 一种信息处理方法和处理器
US10623713B2 (en) 3D user interface—non-native stereoscopic image conversion
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
CN111488090A (zh) 交互方法、装置、交互系统、电子设备及存储介质
JP2017016166A (ja) 画像処理装置及び画像処理方法
CN111524240A (zh) 场景切换方法、装置及增强现实设备
Rahman et al. Mobile pointme based pervasive gaming interaction with learning objects annotated physical atlas
JP5520772B2 (ja) 立体画像の表示システム及び表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant