CN105912102B - 一种信息处理方法和电子设备 - Google Patents

一种信息处理方法和电子设备 Download PDF

Info

Publication number
CN105912102B
CN105912102B CN201610201588.6A CN201610201588A CN105912102B CN 105912102 B CN105912102 B CN 105912102B CN 201610201588 A CN201610201588 A CN 201610201588A CN 105912102 B CN105912102 B CN 105912102B
Authority
CN
China
Prior art keywords
virtual objects
virtual
target object
electronic equipment
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610201588.6A
Other languages
English (en)
Other versions
CN105912102A (zh
Inventor
许奔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201610201588.6A priority Critical patent/CN105912102B/zh
Publication of CN105912102A publication Critical patent/CN105912102A/zh
Application granted granted Critical
Publication of CN105912102B publication Critical patent/CN105912102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种信息处理方法,包括:基于虚拟场景的观看视角,确定目标对象在虚拟场景中的显示状态符合预设条件时,得到目标对象对应的第一虚拟对象和第二虚拟对象;基于第一虚拟对象、第二虚拟对象生成与虚拟场景相匹配的第三虚拟对象并输出。该方法中,基于虚拟场景的观看视角,对其视角中出现的用户自身作为目标对象进行虚拟模型的计算,得到对应的第一虚拟对象,进而获取相应的第二虚拟对象,再将第一虚拟对象和第二虚拟对象进行处理得到与该虚拟场景匹配的第三虚拟对象,将处于观看视角中的用户本体同步进行虚拟化处理,以使得在用户视野中,实现对用户自身进行了相应的虚拟,从用户看来,用户自身与场景匹配,提高了用户体验。

Description

一种信息处理方法和电子设备
技术领域
本发明涉及电子设备领域,更具体的说,是涉及一种信息处理方法和电子设备。
背景技术
随着电子技术的发展,AR(Augmented Reality,增强现实)作为一种新兴应用应运而生。
该AR是利用计算机生成一种逼真的视、听、力、触和动等感觉的虚拟环境,通过各种传感设备使用户“沉浸”到该环境中,实现用户和环境直接进行自然交互。它可以模拟真实的现场景观,是以交互性和构想为基本特征的计算机高级人机界面。使用者不仅能够通过虚拟现实系统感受到在客观物理世界中所经历的“身临其境”的逼真性而且能够突破空间、时间以及其它客观限制感受到在真实世界中无法亲身经历的体验。
但是,现有的AR在针对场景构建虚实结合场景时,只能针对场景的虚拟化处理,无法对用户自身进行相应的虚拟,导致用户体验较差。
发明内容
有鉴于此,本发明提供了一种信息处理方法,解决了现有技术中只能针对场景的虚拟化处理,无法对用户自身进行相应的虚拟的问题。
为实现上述目的,本发明提供如下技术方案:
一种信息处理方法,所述方法应用于电子设备,所述方法包括:
基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
依据所述第一虚拟对象获取第二虚拟对象;
对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;
基于所述观看视角,输出显示所述第三虚拟对象。
上述的方法,优选的,判断所述显示状态是否符合预设条件,包括:
对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件。
上述的方法,优选的,判断所述显示状态是否符合预设条件,包括:
获取电子设备的姿态信息;
基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;
若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件。
上述的方法,优选的,所述依据所述第一虚拟对象获取第二虚拟对象,包括:
依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。
上述的方法,优选的,所述基于所述观看视角,输出显示所述第三虚拟对象,包括:
基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
上述的方法,优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,还包括:
基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;
依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。
上述的方法,优选的,所述依据所述第一虚拟对象获取第二虚拟对象之后,所述对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象之前,还包括:
获取所述目标对象对应的用户参数;
若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。
上述的方法,优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,还包括:
接收切换指令;
依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
一种电子设备,包括:
摄像头,用于基于观看视角,将虚拟场景进行图像采集
处理器,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;依据所述第一虚拟对象获取第二虚拟对象;对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;基于所述观看视角,输出显示所述第三虚拟对象;
显示器,用于基于所述第三虚拟对象进行显示。
上述的电子设备,优选的,所述处理器用于:
对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件。
上述的电子设备,优选的,所述处理器用于:
获取电子设备的姿态信息;
基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;
若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件。
上述的电子设备,优选的,所述处理器用于:
依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。
上述的电子设备,优选的,所述处理器用于:
基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
上述的电子设备,优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;
依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。
上述的电子设备,优选的,所述依据所述第一虚拟对象获取第二虚拟对象之后,所述对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象之前,所述处理器还用于:
获取所述目标对象对应的用户参数;
若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。
上述的电子设备,优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
接收切换指令;
依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
一种电子设备,包括:
分析模块,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
计算模块,用于若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
获取模块,用于依据所述第一虚拟对象获取第二虚拟对象;
处理模块,用于对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;
输入模块,用于基于所述观看视角,输出显示所述第三虚拟对象。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种信息处理方法,包括:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;依据所述第一虚拟对象获取第二虚拟对象;对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;基于所述观看视角,输出显示所述第三虚拟对象。采用该方法,基于虚拟场景的观看视角,对其视角中出现的用户自身作为目标对象进行虚拟模型的计算,得到其对应的第一虚拟对象,进而获取相应的第二虚拟对象,再将第一虚拟对象和第二虚拟对象进行处理得到与该虚拟场景匹配的第三虚拟对象,该方法中,将处于观看视角中的用户本体同步进行虚拟化处理,以使得在用户视野中,实现对用户自身进行了相应的虚拟,从用户看来,用户自身与场景匹配,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种信息处理方法实施例1的流程图;
图2为本发明提供的一种信息处理方法实施例2的流程图;
图3为本发明提供的一种信息处理方法实施例3的流程图;
图4为本发明提供的一种信息处理方法实施例4的流程图;
图5为本发明提供的一种信息处理方法实施例5的流程图;
图6为本发明提供的一种信息处理方法实施例6的流程图;
图7为本发明提供的一种信息处理方法实施例7的流程图;
图8为本发明提供的一种信息处理方法实施例8的流程图;
图9为本发明提供的一种电子设备实施例1的结构示意图;
图10为本发明提供的一种电子设备实施例2的结构示意图;
图11为本发明提供的一种电子设备实施例3的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅附图1,为本发明提供的一种信息处理方法实施例1的流程图,该方法应用于电子设备,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备。
其中,该方法包括以下步骤:
步骤S101:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
具体实施中,用户使用该电子设备,对虚拟场景进行观看。
其中,基于该观看设备提供的对于该虚拟场景的观看视角,分析确定目标对象在该虚拟场景中的显示状态。
其中,该目标对象包括用户的自身的部分或者整体,如肩膀、手臂、手、身体、腿、脚等中的至少一个部分;该目标对象还可以包括真实世界中的其他对象,如其他人或者物等。
具体的,该虚拟场景中,基于该观看视角,确定该目标对象的显示状态。
其中,该显示状态可以包括:显示和不显示。
具体的,该显示可以视为该目标对象出现在该观看视角下的视野中;该不显示可以视为该目标对象未出现在该观看视角下的视野中。
步骤S102:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
其中,该显示状态符合预设条件可以包括:该目标对象出现在该虚拟场景,该判断显示状态是否符合预设条件的具体步骤在后续实施例中会做详细说明,本实施例中不做详述。
则,在该目标对象的显示状态符合预设条件时,对该目标对象在该虚拟场景中的虚拟模型进行计算,以得到第一虚拟对象。
具体实施中,该目标对象的虚拟模型可以网格模型,该虚拟模型可以是透明模型或非透明模型。该虚拟模型可以是为该目标对象进行建模过程中对应的模型,其仅是用于表示该目标对象的形状以及细节、尺寸等。
需要说明的是,该网络模型并不必真正显示出来给用户看到。
然后,基于该虚拟模型,获得相应的第一虚拟对象,该第一虚拟对象是与该目标对象对应的虚拟对象,如该目标对象为手时,该虚拟对象就是该手对应的虚拟对象,具体可以为手的影像。
需要说明的是,该第一虚拟对象可以为与当前使用的用户的身体部分完全相同的虚拟对象,如该目标对象为用户的手臂,则该第一虚拟对象可以表示该手臂的结构,且该手臂的结构表面有袖子。
第一虚拟对象可以为与当前使用的用户的身体部分结构相同的虚拟对象,如该目标对象为用户的手臂,则该第一虚拟对象仅表示该手臂的结构,而不对用户穿的衣服的袖子部分进行对应。
步骤S103:依据所述第一虚拟对象获取第二虚拟对象;
其中,该电子设备中针对于用户的身体部分预设有第二虚拟对象。
例如,针对身体部分中的手,预设有手套、戒指、手链、护腕等与手相关的第二虚拟对象,具体实施中,还可细化为与手背和手心分别对应的第二虚拟对象。
则,在确定了第一虚拟对象后,在该电子设备中预存储的信息中获取相应的第二虚拟对象。
步骤S104:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
其中,该第三虚拟对象与所述虚拟场景相匹配。
具体,将第一虚拟对象和第二虚拟对象进行合成,以得到与该观看视角下的虚拟场景相匹配的第三虚拟对象。
其中,该对第一虚拟对象、第二虚拟对象进行处理的过程,可以为将该第一虚拟对象和第二虚拟对象按照形状等条件进行合成。
例如,该第一虚拟对象为手,该第二虚拟对象为手套时,该合成的过程,是将该手套与该手合成到一起,得到的第三虚拟对象为戴手套的手。
需要说明的是,该合成过程中,需要结合用户的观看视角,以使得合成结果更加真实。
步骤S105:基于所述观看视角,输出显示所述第三虚拟对象。
其中,合成该第三虚拟对象后,基于该用户的观看视角,输出显示该第三虚拟对象值观看设备中,以使得用户在查看该虚拟场景时,同步查看到该第三虚拟对象。
具体实施中,该生成的第三虚拟对象可以为三维立体的结构,则基于该观看视角,能够调整输入的第三虚拟对象的角度,以使得用户查看到内容的体验更加真实。
综上,本实施例提供的一种信息处理方法中,基于虚拟场景的观看视角,对其视角中出现的用户自身作为目标对象进行虚拟模型的计算,得到其对应的第一虚拟对象,进而获取相应的第二虚拟对象,再将第一虚拟对象和第二虚拟对象进行处理得到与该虚拟场景匹配的第三虚拟对象,该方法中,将处于观看视角中的用户本体同步进行虚拟化处理,以使得在用户视野中,实现对用户自身进行了相应的虚拟,从用户看来,用户自身与场景匹配,提高了用户体验。
请参阅附图2,为本发明提供的一种信息处理方法实施例2的流程图,该方法包括以下步骤:
步骤S301:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
其中,步骤S201与实施例1中的步骤S101一致,本实施例中不做赘述。
步骤S202:对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
具体的,若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件;若所述图像信息中不包含所述目标对象,判定所述显示状态不符合预设条件。
其中,该AR场景中,可能会基于观看角度对用户所在的真实环境场景进行采集,则采集得到的为真实环境的图像信息。
其中,该采集的图像信息中含有该目标对象时,则可以确定需要对该目标对象进行处理,否则,不需进行处理。
具体的,对该观看角度采集的图像信息进行分析,判断该图像信息中是否含有该目标对象。
具体实施中,可以预先设置目标对象的各个角度的预设图像,当该预设图像与该采集的图像信息中的某部分图像匹配时,则可判断该图像信息中含有该目标对象。
其中,当该图像信息中包含该目标对象时,则为提高用户体验,针对该目标对象进行后续步骤,则该显示状态符合预设条件。
步骤S203:若所述图像信息中包含所述目标对象,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S204:依据所述第一虚拟对象获取第二虚拟对象;
步骤S205:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S206:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S203-206与实施例1中的步骤S102-105一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该判断所述显示状态是否符合预设条件,包括:对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件;若所述图像信息中不包含所述目标对象,判定所述显示状态不符合预设条件。采用该方法,通过对基于观看角度采集图像信息进行分析,即可确定该显示状态是否符合预设条件,简单易行。
请参阅附图3,为本发明提供的一种信息处理方法实施例3的流程图,该方法包括以下步骤:
步骤S301:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
其中,步骤S301与实施例1中的步骤S101一致,本实施例中不做赘述。
步骤S302:获取电子设备的姿态信息;
其中,用户使用该电子设备对虚拟场景进行观看时,会根据想要的观看角度等对该电子设备的姿态进行调整。
例如,用户想要查看右肩时,则将该电子设备的姿态调整至查看右肩对应的姿态,即向右下角度倾斜;又如,用户想要查看双脚时,则将该电子设备的姿态调整至查看双脚对应的姿态,即向下倾斜的俯视角度。
其中,该电子设备中可以设置六向陀螺仪,以用于对该电子设备的姿态信息进行检测。
则,可以获取该六向陀螺仪的检测结果,实现获取该电子设备姿态信息。
步骤S303:基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;
具体的,对该电子设备的姿态信息进行分析,得到该电子设备的姿态,如该姿态为向左下35°、向下80°等。
其中,该电子设备中还预设查看目标对象的姿态条件,如向左下30°-60°为查看左肩的姿态、向下70°-90°为查看双脚的姿态。
然后,将分析得到的该电子设备的姿态与该预设查看目标对象的姿态条件进行比对,当该预设查看目标对象的姿态条件中有与该电子设备的姿态匹配的,则可确定该电子设备的姿态满足预设查看目标对象的姿态条件。
具体的,若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件;若电子设备的姿态不满足预设查看目标对象的姿态条件,判定所述显示状态不符合预设条件。
具体实施中,该电子设备中还可以预设查看目标对象的姿态条件,如查看右肩的姿态信息、查看左臂的姿态信息、查看胸口的姿态信息、查看双脚的姿态信息等。
则,只需将该姿态信息与预设的查看身体部位对应的姿态信息进行比对,当该姿态信息满足查看身体任一部位对应的姿态信息对应,则可确定该电子设备的姿态满足预设查看目标对象的姿态条件。
步骤S304:若电子设备的姿态满足预设查看目标对象的姿态条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S305:依据所述第一虚拟对象获取第二虚拟对象;
步骤S306:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S307:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S304-307与实施例1中的步骤S102-105一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该判断所述显示状态是否符合预设条件,包括:获取电子设备的姿态信息;基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件;若电子设备的姿态不满足预设查看目标对象的姿态条件,判定所述显示状态不符合预设条件。采用该方法,通过对电子设备的姿态信息进行分析,即可确定该显示状态是否符合预设条件,简单易行。
请参阅附图4,为本发明提供的一种信息处理方法实施例4的流程图,该方法包括以下步骤:
步骤S401:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
步骤S402:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S403:依据所述第一虚拟对象获取第二虚拟对象;
步骤S404:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
其中,步骤S401-404与实施例1中的步骤S101-104一致,本实施例中不做赘述。
步骤S405:基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
其中,该AR场景中,会基于观看角度将图像信息在显示区域进行显示,以使得用户看到该图像。
其中,该显示区域可以为手机等具有屏幕的设备的屏幕,也可以为头盔、眼镜等设备中具有显示功能的镜片等结构。
其中,该AR场景,在该显示区域中显示相应的虚拟/实际图像,其中,步骤S402中确定该虚拟场景中具有目标对象,进而可确定该目标对象的显示区域。
则,在显示区域中显示图像时,将该第三虚拟对象在该目标对象的对应区域中进行显示。
需要说明的是,由于基于该观看视角,将该第三虚拟对象在该目标对象的对应区域进行显示,则用户通过该电子设备能够查看到内容为该虚拟场景中该目标对象的对应区域的内容该第三虚拟对象,而无该目标对象。
需要说明的是,由于该第三虚拟对象与虚拟场景相匹配,则用户基于观看视角,查看到的内容为用户自身与场景匹配。
例如,该用户查看的内容中,在该虚拟场景中,用户手腕佩戴有与该虚拟场景配合的护腕,而用户自身其实并未戴护腕。
综上,本实施例提供的一种信息处理方法中,该基于所述观看视角,输出显示所述第三虚拟对象,包括:基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。采用该方法,通过将该第三虚拟对象在目标对象相同的位置进行显示,以使得用户查看到的内容中为该虚拟场景中该目标对象的对应区域的内容该第三虚拟对象,而无该目标对象,查看到的内容中用户自身与场景匹配。
请参阅附图5,为本发明提供的一种信息处理方法实施例5的流程图,该方法包括以下步骤:
步骤S501:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
步骤S502:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
其中,步骤S501-504与实施例1中的步骤S101-102一致,本实施例中不做赘述。
步骤S503:依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象;
其中,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象;
其中,获得第一虚拟对象后,在该数据库中查找在虚拟场景中与该第一虚拟对象匹配的第二虚拟对象。
具体的,该数据库的虚拟对象可以分为多个虚拟场景,且每个虚拟场景中包含多个虚拟对象。
例如,该虚拟场景为某一游戏场景,该第一虚拟对象为用户的手,则在该数据库中查找的第二虚拟对象可以为手套、戒指等。
作为一个具体示例,该游戏场景为跳舞游戏时,该第二虚拟对象可以根据舞蹈的风格选择相应的第二虚拟对象,如舞蹈为街舞时,则可以选择戒指等配饰;如该游戏场景为对抗游戏时,则该第二虚拟对象可以根据对抗游戏的类型选择相应的第二虚拟对象,如游戏为CS(Counter-Strike,反恐精英)时,则可以选择战术手套。
需要说明的是,具体实施中,为增加体验灵活度,在每个虚拟场景中,针对身体的某一部分可以有多个虚拟对象。
例如,某一场景中,设置有手对应的多个手套,具体可以按照不同的颜色、风格、材质等进行设置,则用户可以根据自己的喜好,选择不同的手套形式。
需要说明的是,由于该预设的数据库,在确定了第一虚拟对象后,无需实时根据该第一虚拟对象进行数据处理,以临时生成该第二虚拟对象,而是从该数据库中直接获取已设置的第二虚拟对象,数据处理量较小。
步骤S504:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S505:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S504-505与实施例1中的步骤S104-105一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该依据所述第一虚拟对象获取第二虚拟对象,包括:依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。采用该方法,电子设备中预设有包含多个虚拟场景的多个虚拟对象的数据库,基于该第一虚拟对象,在该数据库中可查找与虚拟场景匹配的第二虚拟对象,无需临时生成第二虚拟对象,数据处理量较小。
请参阅附图6,为本发明提供的一种信息处理方法实施例6的流程图,该方法包括以下步骤:
步骤S601:基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;
需要说明的是,本实施例针对的为生成数据库的过程。
具体的,针对各个观看角度,对用户本体的各个部位作为目标对象进行采集,得到待分析图像信息。
具体实施中,该预设角度范围可以为用户查看自身时,其对应的预设角度范围,如俯仰角可以为(-90°,0°],其中0°表示用户平视,该-90°表示用户低头以实现视线与地面垂直;如水平角可以为(-90°,90°),其中0°表示用户直视前方,该-90°表示在水平方向左侧能够达到的最大视角,90°表示在水平方向右侧能够达到的最大视角。
需要说明的是,该预设角度范围值仅是作为示例,本申请中不对其取值做限制,具体实施中,也可根据实际情况进行调整。
步骤S602:依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库;
其中,基于该结构分析条件对该待分析图像信息进行分析,即可分析得到该待分析图像中相应部分的结构数据。
进一步的,根据该结构数据进行相应的数据计算,得到该部位对应的虚拟对象。
其中,由于该待分析图像信息中针对多个身体部位,则该得到的为多个部位对应的虚拟对象。
具体实施中,可以根据该角度范围中不同的观看视角,生成相应的虚拟对象;还可以针对同一部位,以及该部位对应的各个观看视角采集的待分析图像,生成该部位的三维虚拟对象,则后续步骤中,仅需根据观看角度调整该三维虚拟对象的展示角度即可。
具体实施中,还可针对不同的观看角度,将用户本体的各个部位的姿态进行调整,得到相应的待分析图像信息,并针对各个部位的不同姿态生成相应的虚拟对象,以实现提高用户体验。
需要说明的是,由于人体的各个部分之间具有一定的比例关系。而在数据库中设置第二虚拟对象时,可以针对人体的各个部分的第二虚拟对象组成一个集合,以实现同一用户的各个部分的第二虚拟对象可以被快速获取到。
例如,当在后续步骤中确定了手掌的第二虚拟对象后,可以锁定该手掌对应的人体各个部分对应的虚拟对象的集合,以实现用户在使用过程中,针对其他部分获取第二虚拟对象时,能够直接定位该集合并从该集合中获取到。
步骤S603:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
步骤S604:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S605:依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象;
步骤S606:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S607:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S607-607实施例5中的步骤S504-505一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,还包括:基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。采用该方法,能够实现基于用户能够使用的角度范围,预先构建虚拟对象的数据库。
请参阅附图7,为本发明提供的一种信息处理方法实施例7的流程图,该方法包括以下步骤:
步骤S701:基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;
步骤S702:依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库;
步骤S703:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
步骤S704:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S705:依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象;
其中,步骤S701-705实施例6中的步骤S601-605一致,本实施例中不做赘述。
步骤S706:获取所述目标对象对应的用户参数;
其中,该目标对象对应的用户参数是包含该目标对象不同位置的尺寸、形状等的参数。
例如,该目标对象为手时,该用户参数为该手的宽度长度、各个手指的长度宽度、各个手指之间的距离、指节的距离等数值。
其中,在步骤S704中,计算得到该目标低下在该虚拟场景中的虚拟模型过程中,即可分析得到该目标对象的用户参数。
步骤S707:若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配;
其中,该第二虚拟对象是针对数据库生成过程中对应的第一人体生成,由于各个人体之间尺寸不同,则使用该电子设备用户的尺寸可能与该第一人体的尺寸不同,则此时该用户参数与第二虚拟对象之间参数可能会出现不匹配的情况。
例如,该使用电子设备的用户是一个孩子,其身高较小,相应的,其手脚手臂等的尺寸也较小;而该第一人体是成人,其身高较高,相应的,其手脚手臂等的尺寸也较大,则当该用户的参数与该第二虚拟对象之间的参数不匹配。
因此,为了防止用户看到的第三虚拟对象远大于自己身体部分,则需要对该第二虚拟对象的参数进行调整。
其中,该缩放规则是基于被缩放结构的参数和缩放目标的参数比值,调整被缩放结构的参数。
需要说明的是,当在数据库中人体的各个部分的第二虚拟对象组成一个集合时,当对第二虚拟对象进行缩放时,同理对其所属集合中的各个部分进行缩放后,另存为一个集合。
其中,当确定了该用户参数后,基于预设的缩放规则,调整该第二虚拟对象的参数,以使其满足当前使用的参数。
具体实施中,当出现使用的用户有身体残缺时,还可以实时获取其与标准参数不同身体参数,对其生成相应的第二虚拟对象,并将该第二虚拟对象存储至数据中,以提高用户体验。
步骤S708:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S709:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S708-709实施例6中的步骤S606-607一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,还包括:获取所述目标对象对应的用户参数;若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。采用该方法,通过对第二虚拟对象的参数进行调整,以使得述第二虚拟对象与用户身体部分对应的目标对象匹配,以实现不同体型的用户均可使用应用该方法的电子设备,提高了用户体验。
请参阅附图8,为本发明提供的一种信息处理方法实施例8的流程图,该方法包括以下步骤:
步骤S801:接收切换指令;
其中,该切换指令可以根据用户在电子设备的预设输入区域输入切换操作生成。
步骤S802:依据所述切换指令,将所述电子设备由第一模式切换为第二模式;
其中,该第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
需要说明的是,为实现用户身体部分在查看时,在用户视野中,实现对用户自身进行相应的虚拟,从用户看来,用户自身与场景匹配的目的,则需要该电子设备的数据处理实时性较高。但是,该实时性较高需要对观看角度对应的视野中的图像进行高频率的采集,才能实现用户观看体验较高。
而较高频率的采集图像采集以及图像处理,导致电子设备的负载较高。
为此,本实施例中提供了第一模式和第二模式两种模式,用户根据自己需求,设置不同模式。
具体实施中,当用户想要更高的体验时,可以控制电子设备为第二模式,以使得在用户视野中,实现对用户自身进行相应的虚拟,从用户看来,用户自身与场景匹配;当用户对使用要求不高时,不需要对自身进行虚拟,可以采用第一模式,在保证体验的同时,降低信息处理量。
步骤S803:基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
步骤S804:若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
步骤S805:依据所述第一虚拟对象获取第二虚拟对象;
步骤S806:对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象;
步骤S807:基于所述观看视角,输出显示所述第三虚拟对象。
其中,步骤S803-807实施例1中的步骤S101-105一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,还包括:接收切换指令;依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。采用该方法,基于用户选择确定是否执行虚拟用户自身的步骤,以减小电子设备的数据处理量。
上述本发明提供的实施例中详细描述了一种信息处理方法,对于本发明的信息处理方法可采用多种形式的装置实现,因此本发明还提供了一种应用该信息处理方法的电子设备,下面给出具体的实施例进行详细说明。
请参阅附图9,为本发明提供的一种电子设备实施例1的结构示意图,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备。
其中,该电子设备包括以下结构:摄像头901、处理器902和显示器903;
其中,该摄像头901,用于基于观看视角,将虚拟场景进行图像采集
其中,该处理器902,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;依据所述第一虚拟对象获取第二虚拟对象;对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;基于所述观看视角,输出显示所述第三虚拟对象;
具体实施中,该处理器902可以为电子设备中具有信息处理能力的芯片等结构,如CPU(Central Processing Unit,中央处理器)、EC(Embedded Controller,嵌入式处理器)等。
其中,该显示器903,用于基于所述第三虚拟对象进行显示。
具体实施中,该电子设备为穿戴式设备,如头盔时,该显示器可以为头盔中设置的眼镜部分。
优选的,所述处理器用于:
对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件;
若所述图像信息中不包含所述目标对象,判定所述显示状态不符合预设条件。
所述处理器用于:依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。
优选的,所述处理器用于:
基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
基于预设角度范围,将用户本体的至少一个部位作为目标对象采集的待分析图像信息;
依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。
优选的,所述依据所述第一虚拟对象获取第二虚拟对象之后,所述对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象之前,所述处理器还用于:
获取所述目标对象对应的用户参数;
若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。
优选的,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
接收切换指令;
依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
综上,本实施例提供的一种电子设备中,基于虚拟场景的观看视角,对其视角中出现的用户自身作为目标对象进行虚拟模型的计算,得到其对应的第一虚拟对象,进而获取相应的第二虚拟对象,再将第一虚拟对象和第二虚拟对象进行处理得到与该虚拟场景匹配的第三虚拟对象。该电子设备中,将处于观看视角中的用户本体同步进行虚拟化处理,以使得在用户视野中,实现对用户自身进行了相应的虚拟,从用户看来,用户自身与场景匹配,提高了用户体验。
请参阅附图10,为本发明提供的一种电子设备实施例2的结构示意图,该电子设备包括以下结构:摄像头1001、处理器1002、显示器1003和传感器1004;
其中,该摄像头1001、处理器1002、显示器1003的结构功能与实施例1中的相应结构功能一致,本实施例中不做赘述。
其中,该传感器1004,用于采集电子设备的姿态信息;
具体实施中,该传感器可以为六向陀螺仪。
则所述处理器1002还用于:获取电子设备的姿态信息;基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件;若电子设备的姿态不满足预设查看目标对象的姿态条件,判定所述显示状态不符合预设条件。
综上,本实施例提供的一种电子设备中,通过对电子设备的姿态信息进行获取及分析,即可确定该显示状态是否符合预设条件,简单易行。
请参阅附图11,为本发明提供的一种电子设备实施例3的结构示意图,该电子设备具体可以为台式机、笔记本、平板电脑、手机、智能电视、智能手表、穿戴式设备等形式的电子设备。
其中,该电子设备包括以下结构:分析模块1101、计算模块1102、获取模块1103、处理模块1104和输入模块1105;
其中,该分析模块1101,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
其中,该计算模块1102,用于若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
其中,该获取模块1103,用于依据所述第一虚拟对象获取第二虚拟对象;
其中,该处理模块1104,用于对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;
其中,该输入模块1105,用于基于所述观看视角,输出显示所述第三虚拟对象。
综上,本实施例提供的一种电子设备中,基于虚拟场景的观看视角,对其视角中出现的用户自身作为目标对象进行虚拟模型的计算,得到其对应的第一虚拟对象,进而获取相应的第二虚拟对象,再将第一虚拟对象和第二虚拟对象进行处理得到与该虚拟场景匹配的第三虚拟对象。该电子设备中,将处于观看视角中的用户本体同步进行虚拟化处理,以使得在用户视野中,实现对用户自身进行了相应的虚拟,从用户看来,用户自身与场景匹配,提高了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例提供的装置而言,由于其与实施例提供的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所提供的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所提供的原理和新颖特点相一致的最宽的范围。

Claims (15)

1.一种信息处理方法,其特征在于,所述方法应用于电子设备,所述方法包括:
基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
依据所述第一虚拟对象获取第二虚拟对象;
对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;
基于所述观看视角,输出显示所述第三虚拟对象;
其中,判断所述显示状态是否符合预设条件,包括:
获取电子设备的姿态信息;
基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;
若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件。
2.根据权利要求1所述的方法,其特征在于,判断所述显示状态是否符合预设条件,包括:
对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件。
3.根据权利要求1所述的方法,其特征在于,所述依据所述第一虚拟对象获取第二虚拟对象,包括:
依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。
4.根据权利要求1所述的方法,其特征在于,所述基于所述观看视角,输出显示所述第三虚拟对象,包括:
基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
5.根据权利要求3所述的方法,其特征在于,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,还包括:
基于预设角度范围,将用户本体的至少一个部位作为目标对象进行采集,得到待分析图像信息;
依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。
6.根据权利要求5所述的方法,其特征在于,所述依据所述第一虚拟对象获取第二虚拟对象之后,所述对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象之前,还包括:
获取所述目标对象对应的用户参数;
若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。
7.根据权利要求1所述的方法,其特征在于,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,还包括:
接收切换指令;
依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
8.一种电子设备,其特征在于,包括:
摄像头,用于基于观看视角,将虚拟场景进行图像采集
处理器,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;依据所述第一虚拟对象获取第二虚拟对象;对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;基于所述观看视角,输出显示所述第三虚拟对象;
显示器,用于基于所述第三虚拟对象进行显示;
其中,所述处理器用于:
获取电子设备的姿态信息;基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件。
9.根据权利要求8所述的电子设备,其特征在于,所述处理器用于:
对基于所述观看视角采集的图像信息进行分析,判断所述图像信息中是否包含所述目标对象;
若所述图像信息中包含所述目标对象,判定所述显示状态符合预设条件。
10.根据权利要求8所述的电子设备,其特征在于,所述处理器用于:
依据所述第一虚拟对象,在预设数据库中查找与所述虚拟场景匹配的第二虚拟对象,所述数据库中存储有至少一个虚拟场景中的至少一个虚拟对象。
11.根据权利要求8所述的电子设备,其特征在于,所述处理器用于:
基于所述观看视角,在与所述目标对象相同的位置显示所述第三虚拟对象,以使得所述第三虚拟对象在所述虚拟场景中遮挡所述目标对象。
12.根据权利要求10所述的电子设备,其特征在于,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
基于预设角度范围,将用户本体的至少一个部位作为目标对象进行采集,得到待分析图像信息;
依据预设的结构分析条件和所述待分析图像信息,为用户本体的每个部位生成相应的虚拟对象,基于至少一个虚拟对象组成预设数据库。
13.根据权利要求12所述的电子设备,其特征在于,所述依据所述第一虚拟对象获取第二虚拟对象之后,所述对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象之前,所述处理器还用于:
获取所述目标对象对应的用户参数;
若所述用户参数与所述第二虚拟对象之间参数不匹配,依据预设的缩放规则和所述用户参数,调整所述第二虚拟对象的参数,以使得所述第二虚拟对象与所述目标对象匹配。
14.根据权利要求8所述的电子设备,其特征在于,所述基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态之前,所述处理器还用于:
接收切换指令;
依据所述切换指令,将所述电子设备由第一模式切换为第二模式,所述第二模式的图像信息采集频率大于所述第一模式的图像信息采集频率。
15.一种电子设备,其特征在于,包括:
分析模块,用于基于虚拟场景的观看视角,确定目标对象在所述虚拟场景中的显示状态;
计算模块,用于若所述显示状态符合预设条件,计算所述目标对象在所述虚拟场景中的虚拟模型,获得第一虚拟对象;
获取模块,用于依据所述第一虚拟对象获取第二虚拟对象;
处理模块,用于对所述第一虚拟对象、所述第二虚拟对象进行处理,生成第三虚拟对象,所述第三虚拟对象与所述虚拟场景相匹配;
输入模块,用于基于所述观看视角,输出显示所述第三虚拟对象;
其中,判断所述显示状态是否符合预设条件,包括:
获取电子设备的姿态信息;基于所述姿态信息,判断所述电子设备的姿态是否满足预设查看目标对象的姿态条件;若电子设备的姿态满足预设查看目标对象的姿态条件,判定所述显示状态符合预设条件。
CN201610201588.6A 2016-03-31 2016-03-31 一种信息处理方法和电子设备 Active CN105912102B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610201588.6A CN105912102B (zh) 2016-03-31 2016-03-31 一种信息处理方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610201588.6A CN105912102B (zh) 2016-03-31 2016-03-31 一种信息处理方法和电子设备

Publications (2)

Publication Number Publication Date
CN105912102A CN105912102A (zh) 2016-08-31
CN105912102B true CN105912102B (zh) 2019-02-05

Family

ID=56744558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610201588.6A Active CN105912102B (zh) 2016-03-31 2016-03-31 一种信息处理方法和电子设备

Country Status (1)

Country Link
CN (1) CN105912102B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844190B (zh) * 2016-09-20 2020-11-06 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置
US10659279B2 (en) * 2016-10-04 2020-05-19 Htc Corporation Method and device for displaying video corresponding to physical object
CN106647742B (zh) * 2016-10-31 2019-09-20 纳恩博(北京)科技有限公司 移动路径规划方法及装置
CN118605978A (zh) * 2018-08-29 2024-09-06 华为技术有限公司 一种虚拟机器人形象的呈现方法及装置
KR20210107631A (ko) * 2018-12-25 2021-09-01 소니그룹주식회사 영상 재생 장치, 재생 방법 및 프로그램
CN111667590B (zh) * 2020-06-12 2024-03-22 上海商汤智能科技有限公司 一种互动合影方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入
CN103493106A (zh) * 2011-03-29 2014-01-01 高通股份有限公司 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上
CN105183147A (zh) * 2015-08-03 2015-12-23 众景视界(北京)科技有限公司 头戴式智能设备及其建模三维虚拟肢体的方法
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102902355B (zh) * 2012-08-31 2015-12-02 中国科学院自动化研究所 移动设备的空间交互方法
CN104281260A (zh) * 2014-06-08 2015-01-14 朱金彪 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入
CN103493106A (zh) * 2011-03-29 2014-01-01 高通股份有限公司 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上
CN105359063A (zh) * 2013-06-09 2016-02-24 索尼电脑娱乐公司 利用追踪的头戴式显示器
CN105183147A (zh) * 2015-08-03 2015-12-23 众景视界(北京)科技有限公司 头戴式智能设备及其建模三维虚拟肢体的方法

Also Published As

Publication number Publication date
CN105912102A (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
CN105912102B (zh) 一种信息处理方法和电子设备
CN111460875B (zh) 图像处理方法及装置、图像设备及存储介质
KR102641655B1 (ko) 3차원 공간에서 가상 객체들 선택
CN103793060B (zh) 一种用户交互系统和方法
KR20220018559A (ko) 자가-햅틱 가상 키보드를 갖는 인공 현실 시스템
KR102461232B1 (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
CN112783328A (zh) 提供虚拟空间的方法、提供虚拟体验的方法、程序以及记录介质
KR20220012990A (ko) 인공 현실 시스템들을 위한 팔 응시-구동 사용자 인터페이스 요소 게이팅
US9013396B2 (en) System and method for controlling a virtual reality environment by an actor in the virtual reality environment
KR20220018561A (ko) 사용자 인터페이스 요소들을 게이팅하기 위한 개인 어시스턴트 요소를 갖는 인공 현실 시스템들
CN106843507A (zh) 一种虚拟现实多人互动的方法及系统
CN103744518A (zh) 立体交互方法及其显示装置和系统
JP2016101229A (ja) 歩行解析システムおよび歩行解析プログラム
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
KR20220016984A (ko) 디지트-매핑된 자가-햅틱 입력 방법을 갖는 인공 현실 시스템
KR20120134488A (ko) 제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치
Punpongsanon et al. Extended LazyNav: Virtual 3D ground navigation for large displays and head-mounted displays
CN206819290U (zh) 一种虚拟现实多人互动的系统
Bikos et al. An interactive augmented reality chess game using bare-hand pinch gestures
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
CN109643182A (zh) 信息处理方法、装置、云处理设备及计算机程序产品
CN113315963A (zh) 扩展现实显示方法、装置、系统和存储介质
CN106066689B (zh) 基于ar或vr系统的人机交互方法和装置
US10345595B2 (en) Head mounted device with eye tracking and control method thereof
WO2022044581A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant