CN109634413A - 对虚拟环境进行观察的方法、设备及存储介质 - Google Patents

对虚拟环境进行观察的方法、设备及存储介质 Download PDF

Info

Publication number
CN109634413A
CN109634413A CN201811478458.2A CN201811478458A CN109634413A CN 109634413 A CN109634413 A CN 109634413A CN 201811478458 A CN201811478458 A CN 201811478458A CN 109634413 A CN109634413 A CN 109634413A
Authority
CN
China
Prior art keywords
scene
virtual
virtual objects
environment
view mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811478458.2A
Other languages
English (en)
Other versions
CN109634413B (zh
Inventor
刘柏君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201811478458.2A priority Critical patent/CN109634413B/zh
Publication of CN109634413A publication Critical patent/CN109634413A/zh
Priority to PCT/CN2019/115623 priority patent/WO2020114176A1/zh
Priority to JP2021514085A priority patent/JP7191210B2/ja
Priority to KR1020217006432A priority patent/KR20210036392A/ko
Priority to SG11202103706SA priority patent/SG11202103706SA/en
Priority to US17/180,018 priority patent/US11783549B2/en
Application granted granted Critical
Publication of CN109634413B publication Critical patent/CN109634413B/zh
Priority to US18/351,780 priority patent/US20230360343A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种对虚拟环境进行观察的方法、设备及存储介质,涉及虚拟环境领域。该方法包括:显示应用程序的第一环境画面,第一环境画面中包括处于第一场景中的虚拟对象;接收移动操作,移动操作用于将虚拟对象从第一场景转移至第二场景;根据移动操作将第一观察方式调整为第二观察方式;显示应用程序的第二环境画面,第二环境画面中包括处于第二场景中的虚拟对象。通过针对虚拟对象所处的不同的场景对在虚拟环境中观察虚拟对象的方式进行变换,以与场景适配的观察方式对处于该场景中的虚拟对象进行观察,避免出现不同的场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。

Description

对虚拟环境进行观察的方法、设备及存储介质
技术领域
本申请实施例涉及虚拟环境领域,特别涉及一种对虚拟环境进行观察的方法、设备及存储介质。
背景技术
在智能终端中,通常安装有由虚拟引擎开发的应用程序。在该支持虚拟环境的应用程序中,虚拟对象、虚拟物体、地面等显示元素的显示是以模型的方式来实现的。其中,虚拟物体包括虚拟房屋、虚拟水塔、虚拟山坡、虚拟草地、虚拟家具等,用户可以控制虚拟对象在虚拟环境中进行虚拟作战。
通常,在对虚拟环境进行观察时,是通过摄像机模型以虚拟对象为观察中心对虚拟环境进行观察,并且摄像机模型是在虚拟环境中与虚拟对象相隔一定距离且拍摄方向朝向该虚拟对象的三维模型。
然而,由于虚拟环境中通常会包括不同的观察场景,如:昏暗场景、明亮场景、室内场景、室外场景,以上述观察方式对虚拟环境进行观察时,会导致在多个观察场景下观察方式不兼容的问题,如:在室内场景下该观察方式有较大的视线被室内家具遮挡的概率,在昏暗场景下该观察方式无法清晰呈现虚拟环境中的虚拟物品,上述不兼容问题都会影响作战过程,用户需要多次调整虚拟对象的观察角度、或者调整终端本身的屏幕显示亮度。
发明内容
本申请实施例提供了一种对虚拟环境进行观察的方法、设备及存储介质,可以解决观察方式与观察场景不兼容而影响作战过程,用户需要多次调整虚拟对象的观察角度、或者调整终端本身的屏幕显示亮度以适应作战过程的问题。所述技术方案如下:
一方面,提供了一种对虚拟环境进行观察的方法,所述方法包括:
显示应用程序的第一环境画面,所述第一环境画面中包括处于第一场景中的虚拟对象,所述第一环境画面是在所述虚拟环境中以第一观察方式对所述虚拟环境进行观察的画面;
接收移动操作,所述移动操作用于将所述虚拟对象从所述第一场景转移至第二场景,所述第一场景和所述第二场景为两种不同的观察场景,所述观察场景与对所述虚拟环境进行观察的至少一个观察方式对应;
根据所述移动操作将所述第一观察方式调整为第二观察方式,其中,所述第一观察方式与所述第一场景对应,所述第二观察方式与所述第二场景对应;
显示应用程序的第二环境画面,所述第二环境画面中包括处于第二场景中的所述虚拟对象,所述第二环境画面是在所述虚拟环境中以所述第二观察方式对所述虚拟环境进行观察的画面。
另一方面,提供了一种对虚拟环境进行观察的装置,所述装置包括:
显示模块,用于显示应用程序的第一环境画面,所述第一环境画面中包括处于第一场景中的虚拟对象,所述第一环境画面是在所述虚拟环境中以第一观察方式对所述虚拟环境进行观察的画面;
接收模块,用于接收移动操作,所述移动操作用于将所述虚拟对象从所述第一场景转移至第二场景,所述第一场景和所述第二场景为两种不同的观察场景,所述观察场景与对所述虚拟环境进行观察的至少一个观察方式对应;
调整模块,用于根据所述移动操作将所述第一观察方式调整为第二观察方式,其中,所述第一观察方式与所述第一场景对应,所述第二观察方式与所述第二场景对应;
所述显示模块,还用于显示应用程序的第二环境画面,所述第二环境画面中包括处于第二场景中的所述虚拟对象,所述第二环境画面是在所述虚拟环境中以所述第二观察方式对所述虚拟环境进行观察的画面。
另一方面,提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述的对虚拟环境进行观察的方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述的对虚拟环境进行观察的方法。
另一方面,提供了一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得计算机执行如上述本申请实施例中任一所述的对虚拟环境进行观察的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过针对虚拟对象所处的不同的观察场景,对在虚拟环境中观察虚拟对象的方式进行变换,以与观察场景适配的观察方式对处于该观察场景中的虚拟环境进行观察,如:在室内场景中以更近的观察距离对虚拟环境进行观察,在昏暗场景中通过夜视仪对虚拟环境进行观察等,以此避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战过程的问题,如:由于观察距离较远,在室内场景中易产生视线遮挡的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的电子设备的结构框图;
图2是本申请一个示例性实施例提供的计算机系统的结构框图;
图3是本申请一个示例性实施例提供摄像机模型对虚拟环境进行观察的示意图;
图4是本申请一个示例性实施例提供对虚拟环境进行观察的方法流程图;
图5是基于图4示出的实施例提供的相关技术中室内外场景中对虚拟环境进行观察的示意图;
图6是基于图4示出的实施例提供的本申请中室内外场景中对虚拟环境进行观察的示意图;
图7是基于图4示出的实施例提供的另一个本申请中室内外场景中对虚拟环境进行观察的示意图;
图8是基于图4示出的实施例提供的另一个相关技术中室内外场景中对虚拟环境进行观察的示意图;
图9是基于图4示出的实施例提供的另一个本申请中室内外场景中对虚拟环境进行观察的示意图;
图10是本申请另一个示例性实施例提供对虚拟环境进行观察的方法流程图;
图11是基于图10示出的实施例提供的垂直射线检测的示意图;
图12是基于图10示出的实施例提供的另一个垂直射线检测的示意图;
图13是基于图10示出的实施例提供的另一个垂直射线检测的示意图;
图14是本申请另一个示例性实施例提供对虚拟环境进行观察的方法流程图;
图15是基于图14示出的实施例提供的水平射线检测的示意图;
图16是本申请另一个示例性实施例提供对虚拟环境进行观察的方法流程图;
图17是本申请一个示例性实施例提供的对虚拟环境进行观察的装置结构框图;
图18是本申请另一个示例性实施例提供的对虚拟环境进行观察的装置结构框图;
图19是本申请一个示例性实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例涉及的若干个名词进行解释:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的三维环境,还可以是纯虚构的三维环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,下述实施例以虚拟环境是三维虚拟环境来举例说明,但对此不加以限定。可选地,该虚拟环境还用于至少两个虚拟角色之间的虚拟环境对战。可选地,该虚拟环境还用于至少两个虚拟角色之间使用虚拟枪械进行对战。可选地,该虚拟环境还用于在目标区域范围内,至少两个虚拟角色之间使用虚拟枪械进行对战,该目标区域范围会随虚拟环境中的时间推移而不断变小。
虚拟对象:是指在虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物中的至少一种。可选地,当虚拟环境为三维虚拟环境时,虚拟对象是基于动画骨骼技术创建的三维立体模型。每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
观察场景:是与对虚拟环境进行观察的至少一个观察方式对应的场景。可选地,该观察场景与采用虚拟对象的目标视角对虚拟环境进行观察的至少一种观察方式对应时,该观察方式的视角类型相同,观察角度、观察距离、观察配置(如:是否开启夜视仪)中的至少一个参数不同;该观察场景采用与虚拟对象的目标观察角度对虚拟环境进行观察的至少一种观察方式对应时,该观察方式的观察角度相同,观察视角、观察距离以及观察配置中的至少一个参数不同;该观察场景采用与虚拟对象的目标观察距离对虚拟环境进行观察的至少一种观察方式对应时,该观察方式的观察距离相同,观察视角、观察角度以及观察配置中的至少一个参数不同;该观察参数采用与虚拟对象的目标观察配置对虚拟环境进行观察的至少一种观察方式对应时,该观察方式的观察配置相同,观察视角、观察角度以及观察距离中的至少一个参数不同。可选地,该观察场景为对应有特定的观察方式对虚拟环境进行观察的场景,可选地,该观察场景对应有场景特征,与该观察场景对应的观察方式是针对场景特征设定的方式,可选地,该场景特征包括光线条件特征、场景高度特征、场景中虚拟物体集中程度特征中的至少一种。可选地,虚拟环境中的观察场景可以分为多种种类,多个观察场景可以叠加实现为一个新的观察场景,示意性的,该观察场景包括:室内场景、室外场景、昏暗场景、明亮场景、房区场景、山地场景、防空洞场景、物品堆集场景中的至少一种,其中,室内场景可以与昏暗场景叠加实现为一个新的在室内的昏暗的场景,如:未开灯的室内,房区场景可以与山地场景叠加实现为一个新的在山地上的房区场景。
摄像机模型:摄像机模型是在三维虚拟环境中位于虚拟对象周围的三维模型,当采用第一人称视角时,该摄像机模型位于虚拟对象的头部附近或者位于虚拟对象的头部,当采用第三人称视角时,该摄像机模型可以位于虚拟对象的后方并与虚拟对象进行绑定,也可以位于与虚拟对象相距预设距离的任意位置,通过该摄像机模型可以从不同角度对位于三维虚拟环境中的虚拟环境进行观察,可选地,该第三人称视角为第一人称的过肩视角时,摄像机模型位于虚拟对象(比如虚拟人物的头肩部)的后方。可选地,该摄像机模型在三维虚拟环境中不会进行实际显示,即,在用户界面显示的三维虚拟环境中无法识别到该摄像机模型。
本申请中的终端可以是台式计算机、膝上型便携计算机、手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器等等。该终端中安装和运行有支持虚拟环境的应用程序,比如支持三维虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、TPS游戏、FPS游戏、MOBA游戏中的任意一种。可选地,该应用程序可以是单机版的应用程序,比如单机版的3D游戏程序,也可以是网络联机版的应用程序。
图1示出了本申请一个示例性实施例提供的电子设备的结构框图。该电子设备100包括:操作系统120和应用程序122。
操作系统120是为应用程序122提供对计算机硬件的安全访问的基础软件。
应用程序122是支持虚拟环境的应用程序。可选地,应用程序122是支持三维虚拟环境的应用程序。该应用程序122可以是虚拟现实应用程序、三维地图程序、军事仿真程序、第三人称射击游戏(Third-Personal Shooting Game,TPS)、第一人称射击游戏(First-person shooting game,FPS)、MOBA游戏、多人枪战类生存游戏中的任意一种。该应用程序122可以是单机版的应用程序,比如单机版的3D游戏程序。
图2示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统200包括:第一设备220、服务器240和第二设备260。
第一设备220安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、TPS游戏、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第一设备220是第一用户使用的设备,第一用户使用第一设备220控制位于虚拟环境中的第一虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷中的至少一种。示意性的,第一虚拟对象是第一虚拟人物,比如仿真人物角色或动漫人物角色。
第一设备220通过无线网络或有线网络与服务器240相连。
服务器240包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。服务器240用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器240承担主要计算工作,第一设备220和第二设备260承担次要计算工作;或者,服务器240承担次要计算工作,第一设备220和第二设备260承担主要计算工作;或者,服务器240、第一设备220和第二设备260三者之间采用分布式计算架构进行协同计算。
第二设备260安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第二设备260是第二用户使用的设备,第二用户使用第二设备260控制位于虚拟环境中的第二虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷中的至少一种。示意性的,第二虚拟对象是第二虚拟人物,比如仿真人物角色或动漫人物角色。
可选地,第一虚拟人物和第二虚拟人物处于同一虚拟环境中。可选地,第一虚拟人物和第二虚拟人物可以属于同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。可选地,第一虚拟人物和第二虚拟人物也可以属于不同队伍、不同组织、或具有敌对性的两个团体。
可选地,第一设备220和第二设备260上安装的应用程序是相同的,或两个设备上安装的应用程序是不同控制系统平台的同一类型应用程序。第一设备220可以泛指多个设备中的一个,第二设备260可以泛指多个设备中的一个,本实施例仅以第一设备220和第二设备260来举例说明。第一设备220和第二设备260的设备类型相同或不同,该设备类型包括:游戏主机、台式计算机、智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器和膝上型便携计算机中的至少一种。以下实施例以设备是台式计算机来举例说明。
本领域技术人员可以知晓,上述设备的数量可以更多或更少。比如上述设备可以仅为一个,或者上述设备为几十个或几百个,或者更多数量。本申请实施例对设备的数量和设备类型不加以限定。
可选地,摄像机模型位于与虚拟对象相距预设距离的任意位置。可选地,一个虚拟对象对应一个摄像机模型,该摄像机模型可以以虚拟对象为旋转中心进行旋转,如:以虚拟对象的任意一点为旋转中心对摄像机模型进行旋转,摄像机模型在旋转过程中的不仅在角度上有转动,还在位移上有偏移,旋转时摄像机模型与该旋转中心之间的距离保持不变,即,将摄像机模型在以该旋转中心作为球心的球体表面进行旋转,其中,虚拟对象的任意一点可以是虚拟对象的头部、躯干、或者虚拟对象周围的任意一点,本申请实施例对此不加以限定。可选地,摄像机模型在对虚拟环境进行观察时,该摄像机模型的视角方向为该摄像机模型所在球面的切面上的垂线指向虚拟对象的方向。
可选地,该摄像机模型还可以在虚拟对象的不同方向以预设的角度对虚拟环境进行观察。
示意性的,请参考图3,在虚拟对象31中确定一点作为旋转中心32,摄像机模型围绕该旋转中心32进行旋转,可选地,该摄像机模型配置有一个初始位置,该初始位置为虚拟对象后上方的位置(比如脑部的后方位置)。示意性的,如图3所示,该初始位置为位置33,当摄像机模型旋转至位置34或者位置35时,摄像机模型的视角方向随摄像机模型的转动而进行改变。
图4是本申请一个示例性实施例提供的对虚拟环境进行观察的方法,以该方法应用在如图1所示的终端100中为例进行说明,如图4所示,该方法包括:
步骤401,显示应用程序的第一环境画面,第一环境画面是在虚拟环境中以第一观察方式对虚拟环境进行观察的画面。
可选地,该第一环境画面中包括处于第一场景中的虚拟对象。
可选地,虚拟对象在虚拟环境中属于至少一个场景,示意性的,虚拟环境中的场景包括室内场景、室外场景、昏暗场景以及明亮场景中的至少一种,由于室内场景和室外场景为两种独立互补的观察场景,即虚拟对象若不是在室内场景中,即在室外场景中。
可选地,该第一观察方式为与第一场景对应的观察方式。可选地,每个观察场景对应一种观察方式,该对应关系是预先设置好的。可选地,当虚拟环境中的某个位置对应不止一种观察场景时,虚拟对象在该位置处时,对该虚拟环境观察的观察方式可以是上述不止一种观察场景对应的观察方式的叠加,也可以是上述不止一种观察场景对应的观察方式中的其中一种观察方式,其中,在多种观察方式中对一种观察方式进行选择时,可以对不同的观察方式设置优先级,并根据优先级选择优先级较高的观察方式对处于该位置的虚拟环境进行观察,也可以在多种观察方式中随机选择一种观察方式对该虚拟环境进行观察。
示意性的,室内场景对应的观察方式为在与虚拟对象相隔第一距离的位置对虚拟环境进行观察,昏暗场景对应的观察方式为通过夜视仪对虚拟环境进行观察,则当虚拟对象处于室内且昏暗的场景时,也可以在与虚拟对象相隔第一距离的位置通过夜视仪对虚拟环境进行观察,也可以仅通过夜视仪而在于虚拟对象相隔第二距离的位置(该第二距离为默认距离)对虚拟环境进行观察。
步骤402,接收移动操作,移动操作用于将虚拟对象从第一场景转移至第二场景。
可选地,第一场景和第二场景为两种不同的观察场景。
可选地,第一场景和第二场景为独立互补的两个观察场景,即虚拟对象若不处于第一场景,则处于第二场景。示意性的,第一场景为室外场景,第二场景为室内场景;或,第一场景为明亮场景,第二场景为昏暗场景;或,第一场景为物品堆集场景,第二场景为野地场景。
示意性的,根据移动操作将虚拟对象从第一场景转移至第二场景可以实现为根据移动操作将虚拟对象从室外转移至室内;则该第一场景为室外场景,第二场景为室内场景,另外,由于室外场景同时也可以实现为明亮场景,室内场景同时也可以实现为昏暗场景,也即第一场景为明亮场景,第二场景为昏暗场景。
可选地,当上述终端为具有触摸显示屏的移动终端时,该移动操作可以是用户在触摸显示屏上进行滑动后生成的,也可以是用户对移动终端的物理按键进行按压后生成的;当上述终端为台式电脑、便携式膝上笔记本电脑时,该移动操作可以是终端接收到外部输入设备输入的信号对应的操作,如:用户通过操作鼠标作为移动操作向终端发送移动信号,或用户通过操作键盘作为移动操作向终端发送移动信号。
步骤403,根据移动操作将第一观察方式调整为第二观察方式,其中,第一观察方式与第一场景对应,第二观察方式与第二场景对应。
可选地,观察方式中对应的参数包括:观察角度、观察距离、是否开启夜视仪、观察视角人称中的至少一种。
可选地,终端每隔预设时间对虚拟对象在虚拟环境中所处的观察场景进行检测,可选地,该检测过程包括如下情况中的至少一种:
第一,第一场景为室外场景,第二场景为室内场景,则通过碰撞检测方式对虚拟对象在虚拟环境中所处的观察场景进行检测,并当检测到虚拟对象根据移动操作从室外场景移动至室内场景时,将第一观察方式调整为第二观察方式;
可选地,该第一观察方式为摄像机模型在距离虚拟对象第一距离处对虚拟环境进行观察的方式,第二观察方式为摄像机模型在距离虚拟对象第二距离处对虚拟环境进行观察的方式,该摄像机模型为在虚拟环境中围绕虚拟对象进行观察的三维模型,第一距离大于第二距离,也即,将摄像机模型与虚拟对象之间的距离从第一距离调整为第二距离。
示意性的,相关技术中,虚拟对象无论处于室外场景还是处于室内场景,对该虚拟对象进行观察的观察距离都是一致的,请参考图5,在室内场景下,对虚拟对象51进行观察时摄像机模型50与虚拟对象51之间的距离为a,在室外场景下,对虚拟对象51进行观察时摄像机模型50与虚拟对象51之间的距离也是a。其中,摄像机模型50与虚拟对象51之间的距离可以认为是摄像机模型50与虚拟对象51的物理中心点之间的距离,也可以是认为是摄像机模型50与虚拟对象51中的任意一点之间的距离。以该方式对虚拟环境进行观察时,较易产生在摄像机模型与虚拟对象之间的虚拟物体对摄像机模型对虚拟环境进行观察的视线进行遮挡,导致影响作战过程的问题。
而本申请涉及的上述方式请参考图6,在室内场景下,对虚拟对象61进行观察时摄像机模型60与虚拟对象61之间的距离为a,在室外场景下,对虚拟对象61进行观察时摄像机模型60与虚拟对象61之间的距离为b,其中,b<a。
可选地,该第一观察方式还可以是摄像机模型以第一视角对虚拟环境进行观察的方式,第二观察方式为摄像机模型以第二视角对虚拟环境进行观察的方式,其中,第一视角的方向与虚拟环境中水平方向的夹角小于第二视角的方向与水平方向的夹角,也即,根据移动操作将摄像机模型观察虚拟对象的角度从第一视角旋转至第二视角。
示意性的,请参考图7,在室内场景下,对虚拟对象71进行观察时摄像机模型70与水平方向73之间的角度为α,在室外场景下,对虚拟对象71进行观察时摄像机模型70与虚拟对象71之间的角度为β,其中,α<β。
可选地,该第一观察方式还可以是第三人称观察方式,第二观察方式为第一人称观察方式,也即,根据移动操作将观察视角由第三人称视角转换为第一人称视角。
第二,第一场景为明亮场景,第二场景为昏暗场景,则通过色彩检测方式对虚拟对象在虚拟环境中所处的观察场景进行检测,并当检测到虚拟对象根据移动操作从明亮场景移动至昏暗场景时,将第一观察方式调整为第二观察方式;
可选地,该第一观察方式为关闭夜视仪的观察方式,也即不通过夜视仪对虚拟对象以及虚拟环境进行观察,而第二观察方式为开启夜视仪的观察方式,也即通过夜视仪对虚拟环境进行观察。
可选地,该色彩检测方式用于对显示界面中的像素点进行检测,当像素点的平均灰度值大于预设阈值时,则认为该虚拟对象从第一场景移动至第二场景。
第三,第一场景为野地场景,第二场景为物品堆集场景,则通过场景标识验证方式对虚拟对象在虚拟环境中所处的观察场景进行检测,并当检测到虚拟对象根据移动操作从野地场景移动至物品堆集场景时,将第一观察方式调整为第二观察方式。
可选地,虚拟对象所处的位置对应的坐标对应有场景标识,根据该场景标识对虚拟对象所处的场景进行验证。
可选地,该第一观察方式为摄像机模型在距离虚拟对象第一距离处对虚拟环境进行观察的方式,第二观察方式为摄像机模型在距离虚拟对象第二距离处对虚拟环境进行观察的方式,该摄像机模型为在虚拟环境中围绕虚拟对象进行观察的三维模型,第一距离大于第二距离,也即,将摄像机模型与虚拟对象之间的距离从第一距离调整为第二距离。
可选地,该第一观察方式还可以是摄像机模型以第一视角对虚拟环境进行观察的方式,第二观察方式为摄像机模型以第二视角对虚拟环境进行观察的方式,其中,第一视角的方向与虚拟环境中水平方向的夹角小于第二视角的方向与水平方向的夹角,也即,根据移动操作将摄像机模型观察虚拟对象的角度从第一视角旋转至第二视角。
可选地,该第一观察方式还可以是第三人称观察方式,第二观察方式为第一人称观察方式,也即,根据移动操作将观察视角由第三人称视角转换为第一人称视角。
步骤404,显示应用程序的第二环境画面,第二环境画面是在虚拟环境中以第二观察方式对虚拟环境进行观察的画面。
可选地,第二环境画面中包括处于第二场景中的虚拟对象。
示意性的,结合上述第一场景为室外场景,第二场景为室内场景,且调整摄像机模型与虚拟对象之间的距离为例,对第一环境画面和第二环境画面进行或说明。首先,对相关技术中,虚拟对象在室外场景和室内场景的环境画面进行说明,请参考图8,在室内场景下,第一画面81中包括虚拟对象82,根据虚拟门83以及虚拟柜子84可知该虚拟对象82处于室内场景下;而在室外场景下,第二画面85中包括虚拟对象82,根据虚拟云86可知该虚拟对象82处于室外场景下,该第二画面85中还包括虚拟物体87,该虚拟物体87对虚拟对象82的下方形成了遮挡。其次,对本申请中涉及的方案对应的第一环境画面和第二环境画面进行说明,如图9所示,在室内场景下,第一环境画面91中包括虚拟对象92,根据虚拟门93以及虚拟柜子94可知该虚拟对象92处于室内场景下;而在室外场景下,第二环境画面95中包括虚拟对象92,根据虚拟云96可知该虚拟对象92处于室外场景下,而第二画面85中对虚拟对象形成遮挡的虚拟物体87,由于第二环境画面95是摄像机模型以更近的距离观察虚拟对象92时生成的,故该虚拟物体87在第二环境画面95中未能显示,也即该虚拟物体87对虚拟对象或摄像机模型的视线未形成遮挡。
综上所述,本实施例提供的对虚拟环境进行观察的方式,通过针对虚拟对象所处的不同的观察场景对在虚拟环境中观察虚拟对象的方式进行变换,以与观察场景适配的观察方式对处于该观察场景中的虚拟对象进行观察,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
在一个可选的实施例中,第一场景为室外场景,第二场景为室内场景,终端通过碰撞检测方式对虚拟对象在虚拟环境中所处的观察场景进行检测,且该碰撞检测方式为垂直射线检测。图10是本申请另一个示例性实施例提供的对虚拟环境进行观察的方法,以该方法应用在如图1所示的终端100中为例进行说明,如图10所示,该方法包括:
步骤1001,显示应用程序的第一环境画面。
可选地,第一环境画面中包括处于第一场景中的虚拟对象,该第一环境画面是在虚拟环境中以第一观察方式对虚拟环境进行观察的画面。
可选地,虚拟对象在虚拟环境中属于至少一个场景,示意性的,虚拟环境中的观察场景包括室内场景和室外场景中的任意一种,由于室内场景和室外场景为两种独立互补的观察场景,即虚拟对象若不是在室内场景中,即在室外场景中。
步骤1002,接收移动操作。
可选地,该移动操作用于将虚拟对象从第一场景转移至第二场景,其中,第一场景为室外场景,第二场景为室内场景,也即该移动操作用于将虚拟对象从室外场景转移至室内场景。
步骤1003,从虚拟对象中的目标点为起始点,沿虚拟环境中的垂直向上方向做垂直射线检测。
可选地,该目标点可以是虚拟对象中的物理中心点、头部对应的点、手臂对应的点、腿部对应的点中的任意一种,也可以是虚拟对象中的任意一点,还可以是虚拟对象之外与虚拟对象对应的任意一点。
可选地,该垂直射线检测还可以是沿虚拟环境中的垂直向下方式做的射线。
示意性的,请参考图11,坐标系111为虚拟环境中的所应用的三维坐标系,其中,z轴所指向的方向即为虚拟环境中的垂直向上方向,从虚拟对象112的目标点113为起始点,沿垂直向上方向做垂直射线114进行检测。值得注意的是,图11中以垂直射线114为例进行说明,实际应用场景中,该垂直射线114可以不显示在环境画面中。
步骤1004,接收垂直射线检测返回的第一检测结果。
可选地,该第一检测结果用于表示虚拟对象的垂直向上方向被碰撞的虚拟物体。
可选地,该第一检测结果中包括垂直射线检测碰撞的第一个虚拟物体的物体标识,和/或,垂直射线检测碰撞第一个虚拟物体时射线的长度。
可选地,当垂直射线检测中并未碰撞到任何虚拟物体时,则该第一检测结果为空。
步骤1005,根据第一检测结果确定虚拟对象所处的观察场景。
可选地,根据第一检测结果中包括的内容,根据第一检测结果确定虚拟对象所处的观察场景的方式包括如下方式中的任意一种:
第一,第一检测结果中包括垂直射线检测碰撞的第一个虚拟物体的物体标识,则当第一检测结果中的物体标识为虚拟房屋标识时,确定虚拟对象所处的观察场景为室内场景;
可选地,当第一检测结果为空,或第一检测结果中的物体标识为其他物体标识,如:虚拟云标识、虚拟树标识等,则确定虚拟对象所处的观察场景为室外场景,即,当第一检测结果中的物体标识为除虚拟房屋标识之外的其他标识时,确定虚拟对象所处的观察场景为室外场景。
示意性的,请参考图12和图13,图12中虚拟对象120处于室内场景,从该虚拟对象120的目标点121向垂直向上方向做垂直射线检测,该垂直射线122碰撞中虚拟房屋后返回房屋标识后,终端确定该虚拟对象120处于虚拟房屋中,也即处于室内场景;而图13中的虚拟对象130处于室外场景,从该虚拟对象130的目标点131向垂直向上方向做垂直射线检测,该垂直射线132未碰撞到虚拟物体,故返回空值(英文:null)后,确定该虚拟对象130处于室外场景。
值得注意的是,上述图12中的垂直射线122以及图13中的垂直射线132皆为示意所作,实际应用中并不存在。
第二,第一检测结果中吧垂直射线检测碰撞第一个虚拟物体时射线的长度,则当第一检测结果中射线的长度在预设长度内时,确定虚拟对象所处的观察场景为室内场景,当第一检测结果中射线的长度超出预设长度时,确定虚拟对象所处的观察场景为室外场景。
示意性的,房屋最高的层高为2m,则该预设长度为2m,当第一检测结果中射线的长度在2m以内时,确定虚拟对象处于室内场景,当第一检测结果中射线的长度超出2m时,确定虚拟对象处于室外场景。
值得注意的是,上述步骤1003至步骤1005的执行贯穿在环境画面显示的全过程,即针对每一帧环境画面对虚拟对象所处的观察场景进行检测。示意性的,每一秒包括30帧环境画面,则每一秒终端需要进行30次对虚拟对象所处的观察场景进行的检测。
步骤1006,当检测到虚拟对象根据移动操作从室外场景转移至室内场景时,将第一观察方式调整为第二观察方式。
其中,第一观察方式与第一场景对应,第二观察方式与第二场景对应。
步骤1007,显示应用程序的第二环境画面。
可选地,第二环境画面中包括处于第二场景中的虚拟对象,第二环境画面是在虚拟环境中以第二观察方式对虚拟环境进行观察的画面。
综上所述,本实施例提供的对虚拟环境进行观察的方式,通过针对虚拟对象所处的不同的观察场景对在虚拟环境中观察虚拟对象的方式进行变换,以与观察场景适配的观察方式对处于该观察场景中的虚拟对象进行观察,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
本实施例提供的方法,通过垂直射线检测判断虚拟对象所处的观察场景,以便捷且准确的方式对虚拟对象所处的观察场景进行检测,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
在一个可选的实施例中,第一场景为室外场景,第二场景为室内场景,终端通过碰撞检测方式对虚拟对象在虚拟环境中所处的观察场景进行检测,且该碰撞检测方式为水平射线检测。图14是本申请另一个示例性实施例提供的对虚拟环境进行观察的方法,以该方法应用在如图1所示的终端100中为例进行说明,如图14所示,该方法包括:
步骤1401,显示应用程序的第一环境画面。
可选地,第一环境画面中包括处于第一场景中的虚拟对象,该第一环境画面是在虚拟环境中以第一观察方式对虚拟环境进行观察的画面。
可选地,虚拟对象在虚拟环境中属于至少一个观察场景,示意性的,虚拟环境中的观察场景包括室内场景和室外场景中的任意一种,由于室内场景和室外场景为两种独立互补的观察场景,即虚拟对象若不是在室内场景中,即在室外场景中。
步骤1402,接收移动操作。
可选地,该移动操作用于将虚拟对象从第一场景转移至第二场景,其中,第一场景为室外场景,第二场景为室内场景,也即该移动操作用于将虚拟对象从室外场景转移至室内场景。
步骤1403,从虚拟对象中的目标点为起始点,沿虚拟环境中的水平方向做至少三条方向互不相同的检测射线。
可选地,该目标点可以是虚拟对象中的物理中心点、头部对应的点、手臂对应的点、腿部对应的点中的任意一种,也可以是虚拟对象中的任意一点,还可以是虚拟对象之外与虚拟对象对应的任意一点。
可选地,该至少三条检测射线中每两条检测射线之间的夹角大于预设夹角。示意性的,每两条检测射线之间的最小夹角为90°,则至多4条检测射线,当三条检测射线时,可以每两条射线之间的夹角为120°,也可以两个夹角为90°,第三个夹角为180°,还可以是每个夹角都大于或者等于90°的任意组合。
示意性的,请参考图15,图15中示出的为对虚拟对象1501的俯视图,其中,从虚拟对象1501的目标点1502为起始点,沿水平方向做检测射线1503、检测射线1504以及检测射线1505,其中,检测射线1503与检测射线1504之间的夹角为90°,检测射线1504与检测射线1505之间的夹角为110°,检测射线1503与检测射线1505之间的夹角为160°。
步骤1404,接收至少三条检测射线返回的第二检测结果。
可选地,该第二检测结果用于表示检测射线在水平方向上碰撞的虚拟物体。
步骤1405,根据第二检测结果确定虚拟对象所处的观察场景。
可选地,根据第二检测结果确定虚拟对象所处的观察场景的方式包括如下方式中的任意一种:
第一,第二检测结果中包括至少三条检测射线碰撞第一个虚拟物体时的射线长度,若至少三条检测射线中,不少于半数的检测射线碰撞第一个虚拟物体时的射线长度在预设长度以内,则确定虚拟对象处于室内场景;若至少三条检测射线中,超出半数的检测射线碰撞第一个虚拟物体时的射线长度产出预设长度,则确定虚拟对象所处的观察场景为室外场景;
第二,第二检测结果中包括至少三条射线碰撞的第一个虚拟物体的物体标识,若至少三条检测射线中,不少于半数的检测射线碰撞的第一个虚拟物体的物体标识为房屋标识时,确定虚拟对象处于室内场景;若至少三条检测射线中,超出半数的检测射线碰撞的第一个虚拟物体的物体标识不是房屋标识时,确定虚拟对象处于室外场景。
值得注意的是,上述步骤1403至步骤1405的执行贯穿在环境画面显示的全过程,即针对每一帧环境画面对虚拟对象所处的观察场景进行检测。示意性的,每一秒包括30帧环境画面,则每一秒终端需要进行30次对虚拟对象所处的观察场景进行的检测。
步骤1406,当检测到虚拟对象根据移动操作从室外场景转移至室内场景时,将第一观察方式调整为第二观察方式。
其中,第一观察方式与第一场景对应,第二观察方式与第二场景对应。
步骤1407,显示应用程序的第二环境画面。
可选地,第二环境画面中包括处于第二场景中的虚拟对象,第二环境画面是在虚拟环境中以第二观察方式对虚拟环境进行观察的画面。
综上所述,本实施例提供的对虚拟环境进行观察的方式,通过针对虚拟对象所处的不同的观察场景对在虚拟环境中观察虚拟对象的方式进行变换,以与观察场景适配的观察方式对处于该观察场景中的虚拟对象进行观察,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
本实施例提供的方法,通过水平射线检测判断虚拟对象所处的观察场景,以便捷且准确的方式对虚拟对象所处的观察场景进行检测,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
图16是本申请另一个示例性实施例提供的对虚拟环境进行观察的方法,如图16所示,该方法包括:
步骤1601,客户端针对每帧图像对虚拟对象所处的观察场景进行检测。
示意性的,每一秒包括30帧环境画面,则每一秒终端需要进行30次对虚拟对象所处的观察场景进行的检测。
步骤1602,用户控制客户端中的虚拟对象进入室内。
可选地,终端接收到移动操作,该移动操作用于控制虚拟对象在虚拟环境中进行移动。
步骤1603,客户端通过射线检测到虚拟对象处于室内场景。
步骤1604,将摄像机模型与虚拟对象之间的距离从第一距离调整为第二距离。
可选地,第一距离大于第二距离,也即,当虚拟对象从室外场景运动至室内场景时,减小摄像机模型与虚拟对象之间的距离。
步骤1605,用户控制客户端中的虚拟对象运动至室外。
步骤1606,客户端通过射线检测到虚拟对象处于室外场景。
步骤1607,将摄像机模型与虚拟对象之间的距离从第二距离调整为第一距离。
综上所述,本实施例提供的对虚拟环境进行观察的方式,通过针对虚拟对象所处的不同的观察场景对在虚拟环境中观察虚拟对象的方式进行变换,以与观察场景适配的观察方式对处于该场景中的虚拟对象进行观察,避免出现由于观察方式单一而导致的在不同的观察场景下以同一种观察方式观察虚拟对象时,由于观察角度、观察距离、观察配置不恰当而影响作战的问题。
本实施例提供的方法,当虚拟对象处于室内场景时,缩短摄像机模型与虚拟对象之间的距离,以减小虚拟物体对视线进行遮挡的情况产生。
图17是本申请一个示例性实施例提供的对虚拟环境进行观察的装置结构框图,该装置可以实现在如图1所示的终端100中,所述装置包括:
显示模块1710,用于显示应用程序的第一环境画面,所述第一环境画面中包括处于第一场景中的虚拟对象,所述第一环境画面是在所述虚拟环境中以第一观察方式对所述虚拟环境进行观察的画面;
接收模块1720,用于接收移动操作,所述移动操作用于将所述虚拟对象从所述第一场景转移至第二场景,所述第一场景和所述第二场景为两种不同的观察场景,所述观察场景与对所述虚拟环境进行观察的至少一个观察方式对应;
调整模块1730,用于根据所述移动操作将所述第一观察方式调整为第二观察方式,其中,所述第一观察方式与所述第一场景对应,所述第二观察方式与所述第二场景对应;
所述显示模块1710,还用于显示应用程序的第二环境画面,所述第二环境画面中包括处于第二场景中的所述虚拟对象,所述第二环境画面是在所述虚拟环境中以所述第二观察方式对所述虚拟环境进行观察的画面。
在一个可选的实施例中,如图18所示,所述第一场景为室外场景,所述第二场景为室内场景,所述调整模块1730,包括:
检测单元1731,用于通过碰撞检测方式对所述虚拟对象在所述虚拟环境中所处的观察场景进行检测;
调整单元1732,用于当检测到所述虚拟对象根据所述移动操作从所述室外场景转移至所述室内场景时,将所述第一观察方式调整为所述第二观察方式。
在一个可选的实施例中,所述第一观察方式为摄像机模型在距离所述虚拟对象第一距离处对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型在距离所述虚拟对象第二距离处对所述虚拟环境进行观察的方式,所述摄像机模型为在所述虚拟环境中围绕所述虚拟对象进行观察的三维模型,所述第一距离大于所述第二距离;
所述调整单元1732,还用于将所述摄像机模型与所述虚拟对象之间的距离从所述第一距离调整为所述第二距离。
在一个可选的实施例中,所述第一观察方式为摄像机模型以第一视角对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型以第二视角对所述虚拟环境进行观察的方式,所述摄像机模型为围绕所述虚拟对象进行观察的三维模型,所述第一视角的方向与虚拟环境中水平方向的夹角小于所述第二视角的方向与所述水平方向的夹角;
所述调整单元1732,还用于根据所述移动操作将所述摄像机模型观察所述虚拟对象的角度从所述第一视角旋转至所述第二视角。
在一个可选的实施例中,所述碰撞检测方式为垂直射线检测;
所述检测单元1731,还用于从所述虚拟对象中的目标点为起始点,沿所述虚拟环境中的垂直向上方向做所述垂直射线检测;接收所述垂直射线检测返回的第一检测结果,所述第一检测结果用于表示所述虚拟对象的垂直向上方向被碰撞的虚拟物体;根据所述第一检测结果确定所述虚拟对象所处的观察场景。
在一个可选的实施例中,所述第一检测结果包括所述垂直射线检测碰撞的第一个虚拟物体的物体标识;
所述检测单元1731,还用于当所述第一检测结果中的所述物体标识为虚拟房屋标识时,确定所述虚拟对象所处的观察场景为所述室内场景;
所述检测单元1731,还用于当所述第一检测结果中的所述物体标识为除所述虚拟房屋标识之外的其他标识时,确定所述虚拟对象所处的观察场景为所述室外场景。
在一个可选的实施例中,所述第一检测结果包括所述垂直射线检测碰撞第一个虚拟物体时射线的长度;
所述检测单元1731,还用于当所述第一检测结果中所述射线的长度在预设长度以内时,确定所述虚拟对象所处的观察场景为所述室内场景;
所述检测单元1731,还用于当所述第一检测结果中所述射线的长度超出所述预设长度时,确定所述虚拟对象所处的观察场景为所述室外场景。
在一个可选的实施例中,所述碰撞检测方式为水平射线检测;
所述检测单元1731,还用于从所述虚拟对象中的目标点为起始点,沿所述虚拟环境中的水平方向做至少三条方向互不相同的检测射线,且每两条所述检测射线之间的夹角大于预设夹角;接收至少三条所述检测射线返回的第二检测结果,所述第二检测结果用于表示所述检测射线在水平方向上碰撞的虚拟物体;根据所述第二检测结果确定所述虚拟对象所处的观察场景。
在一个可选的实施例中,所述第二检测结果中包括至少三条所述检测射线碰撞第一个虚拟物体时的射线长度;
所述检测单元1731,还用于若至少三条所述检测射线中,不少于半数的检测射线碰撞第一个虚拟物体时的所述射线长度在预设长度以内,确定所述虚拟对象处于所述室内场景;
所述检测单元1731,还用于若至少三条所述检测射线中,超出半数的检测射线碰撞第一个虚拟物体时的所述射线长度超出预设长度,确定所述虚拟对象处于所述室外场景。
需要说明的是,上述实施例中的接收模块1720、调整模块1730可以由处理器实现也可以有处理器和存储器协同实现;上述实施例中的显示模块1710可以由显示屏实现,也可以由处理器和显示屏协同实现。
图19示出了本发明一个示例性实施例提供的终端1900的结构框图。该终端1900可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1900包括有:处理器1901和存储器1902。
处理器1901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1901可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1901所执行以实现本申请中方法实施例提供的对虚拟环境进行观察的方法。
在一些实施例中,终端1900还可选包括有:外围设备接口1903和至少一个外围设备。处理器1901、存储器1902和外围设备接口1903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1903相连。具体地,外围设备包括:射频电路1904、触摸显示屏1905、摄像头1906、音频电路1907、定位组件1908和电源1909中的至少一种。
外围设备接口1903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1901和存储器1902。在一些实施例中,处理器1901、存储器1902和外围设备接口1903被集成在同一芯片或电路板上;在一些其他实施例中,处理器1901、存储器1902和外围设备接口1903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1905用于显示UI(UserInterface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1905是触摸显示屏时,显示屏1905还具有采集在显示屏1905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1901进行处理。此时,显示屏1905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1905可以为一个,设置终端1900的前面板;在另一些实施例中,显示屏1905可以为至少两个,分别设置在终端1900的不同表面或呈折叠设计;在再一些实施例中,显示屏1905可以是柔性显示屏,设置在终端1900的弯曲表面上或折叠面上。甚至,显示屏1905还可以设置成非矩形的不规则图形,也即异形屏。显示屏1905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1906用于采集图像或视频。可选地,摄像头组件1906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1901进行处理,或者输入至射频电路1904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1901或射频电路1904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1907还可以包括耳机插孔。
定位组件1908用于定位终端1900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1909用于为终端1900中的各个组件进行供电。电源1909可以是交流电、直流电、一次性电池或可充电电池。当电源1909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1900还包括有一个或多个传感器1910。该一个或多个传感器1910包括但不限于:加速度传感器1911、陀螺仪传感器1912、压力传感器1913、指纹传感器1914、光学传感器1915以及接近传感器1916。
加速度传感器1911可以检测以终端1900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1911可以用于检测重力加速度在三个坐标轴上的分量。处理器1901可以根据加速度传感器1911采集的重力加速度信号,控制触摸显示屏1905以横向视图或纵向视图进行用户界面的显示。加速度传感器1911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1912可以检测终端1900的机体方向及转动角度,陀螺仪传感器1912可以与加速度传感器1911协同采集用户对终端1900的3D动作。处理器1901根据陀螺仪传感器1912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1913可以设置在终端1900的侧边框和/或触摸显示屏1905的下层。当压力传感器1913设置在终端1900的侧边框时,可以检测用户对终端1900的握持信号,由处理器1901根据压力传感器1913采集的握持信号进行左右手识别或快捷操作。当压力传感器1913设置在触摸显示屏1905的下层时,由处理器1901根据用户对触摸显示屏1905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1914用于采集用户的指纹,由处理器1901根据指纹传感器1914采集到的指纹识别用户的身份,或者,由指纹传感器1914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1914可以被设置终端1900的正面、背面或侧面。当终端1900上设置有物理按键或厂商Logo时,指纹传感器1914可以与物理按键或厂商Logo集成在一起。
光学传感器1915用于采集环境光强度。在一个实施例中,处理器1901可以根据光学传感器1915采集的环境光强度,控制触摸显示屏1905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1905的显示亮度;当环境光强度较低时,调低触摸显示屏1905的显示亮度。在另一个实施例中,处理器1901还可以根据光学传感器1915采集的环境光强度,动态调整摄像头组件1906的拍摄参数。
接近传感器1916,也称距离传感器,通常设置在终端1900的前面板。接近传感器1916用于采集用户与终端1900的正面之间的距离。在一个实施例中,当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变小时,由处理器1901控制触摸显示屏1905从亮屏状态切换为息屏状态;当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变大时,由处理器1901控制触摸显示屏1905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图19中示出的结构并不构成对终端1900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如图4、图10、图14以及图16任一所述的对虚拟环境进行观察的方法。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种对虚拟环境进行观察的方法,其特征在于,所述方法包括:
显示应用程序的第一环境画面,所述第一环境画面中包括处于第一场景中的虚拟对象,所述第一环境画面是在所述虚拟环境中以第一观察方式对所述虚拟环境进行观察的画面;
接收移动操作,所述移动操作用于将所述虚拟对象从所述第一场景转移至第二场景,所述第一场景和所述第二场景为两种不同的观察场景,所述观察场景与对所述虚拟环境进行观察的至少一个观察方式对应;
根据所述移动操作将所述第一观察方式调整为第二观察方式,其中,所述第一观察方式与所述第一场景对应,所述第二观察方式与所述第二场景对应;
显示所述应用程序的第二环境画面,所述第二环境画面中包括处于所述第二场景中的所述虚拟对象,所述第二环境画面是在所述虚拟环境中以所述第二观察方式对所述虚拟环境进行观察的画面。
2.根据权利要求1所述的方法,其特征在于,所述第一场景为室外场景,所述第二场景为室内场景,所述根据所述移动操作将所述第一观察方式调整为第二观察方式,包括:
通过碰撞检测方式对所述虚拟对象在所述虚拟环境中所处的所述观察场景进行检测;
当检测到所述虚拟对象根据所述移动操作从所述室外场景转移至所述室内场景时,将所述第一观察方式调整为所述第二观察方式。
3.根据权利要求2所述的方法,其特征在于,所述第一观察方式为摄像机模型在距离所述虚拟对象第一距离处对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型在距离所述虚拟对象第二距离处对所述虚拟环境进行观察的方式,所述摄像机模型为在所述虚拟环境中围绕所述虚拟对象进行观察的三维模型,所述第一距离大于所述第二距离;
所述将所述第一观察方式调整为所述第二观察方式,包括:
将所述摄像机模型与所述虚拟对象之间的距离从所述第一距离调整为所述第二距离。
4.根据权利要求2所述的方法,其特征在于,所述第一观察方式为摄像机模型以第一视角对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型以第二视角对所述虚拟环境进行观察的方式,所述摄像机模型为围绕所述虚拟对象进行观察的三维模型,所述第一视角的方向与虚拟环境中水平方向的夹角小于所述第二视角的方向与所述水平方向的夹角;
所述根据所述移动操作将所述第一观察方式调整为所述第二观察方式,包括:
根据所述移动操作将所述摄像机模型观察所述虚拟对象的角度从所述第一视角旋转至所述第二视角。
5.根据权利要求2至4任一所述的方法,其特征在于,所述碰撞检测方式为垂直射线检测;
所述通过碰撞检测方式对所述虚拟对象在所述虚拟环境中所处的所述观察场景进行检测,包括:
从所述虚拟对象中的目标点为起始点,沿所述虚拟环境中的垂直向上方向做所述垂直射线检测;
接收所述垂直射线检测返回的第一检测结果,所述第一检测结果用于表示所述虚拟对象的所述垂直向上方向被碰撞的虚拟物体;
根据所述第一检测结果确定所述虚拟对象所处的观察场景。
6.根据权利要求5所述的方法,其特征在于,所述第一检测结果包括所述垂直射线检测碰撞的第一个虚拟物体的物体标识;
所述根据所述第一检测结果确定所述虚拟对象所处的观察场景,包括:
当所述第一检测结果中的所述物体标识为虚拟房屋标识时,确定所述虚拟对象所处的所述观察场景为所述室内场景;
当所述第一检测结果中的所述物体标识为除所述虚拟房屋标识之外的其他标识时,确定所述虚拟对象所处的所述观察场景为所述室外场景。
7.根据权利要求5所述的方法,其特征在于,所述第一检测结果包括所述垂直射线检测碰撞第一个虚拟物体时射线的长度;
所述根据所述第一检测结果确定所述虚拟对象所处的所述观察场景,包括:
当所述第一检测结果中所述射线的长度在预设长度以内时,确定所述虚拟对象所处的观察场景为所述室内场景;
当所述第一检测结果中所述射线的长度超出所述预设长度时,确定所述虚拟对象所处的观察场景为所述室外场景。
8.根据权利要求2至4任一所述的方法,其特征在于,所述碰撞检测方式为水平射线检测;
所述通过碰撞检测方式对所述虚拟对象在所述虚拟环境中所处的所述观察场景进行检测,包括:
从所述虚拟对象中的目标点为起始点,沿所述虚拟环境中的水平方向做至少三条方向互不相同的检测射线,且每两条所述检测射线之间的夹角大于预设夹角;
接收至少三条所述检测射线返回的第二检测结果,所述第二检测结果用于表示所述检测射线在所述水平方向上碰撞的虚拟物体;
根据所述第二检测结果确定所述虚拟对象所处的所述观察场景。
9.根据权利要求8所述的方法,其特征在于,所述第二检测结果中包括至少三条所述检测射线碰撞第一个虚拟物体时的射线长度;
所述根据所述第二检测结果确定所述虚拟对象所处的所述观察场景,包括:
若至少三条所述检测射线中,不少于半数的所述检测射线碰撞第一个虚拟物体时的所述射线长度在预设长度以内,确定所述虚拟对象处于所述室内场景;
若至少三条所述检测射线中,超出半数的所述检测射线碰撞所述第一个虚拟物体时的所述射线长度超出所述预设长度,确定所述虚拟对象处于所述室外场景。
10.一种对虚拟环境进行观察的装置,其特征在于,所述装置包括:
显示模块,用于显示应用程序的第一环境画面,所述第一环境画面中包括处于第一场景中的虚拟对象,所述第一环境画面是在所述虚拟环境中以第一观察方式对所述虚拟环境进行观察的画面;
接收模块,用于接收移动操作,所述移动操作用于将所述虚拟对象从所述第一场景转移至第二场景,所述第一场景和所述第二场景为两种不同的观察场景,所述观察场景与对所述虚拟环境进行观察的至少一个观察方式对应;
调整模块,用于根据所述移动操作将所述第一观察方式调整为第二观察方式,其中,所述第一观察方式与所述第一场景对应,所述第二观察方式与所述第二场景对应;
所述显示模块,还用于显示所述应用程序的第二环境画面,所述第二环境画面中包括处于所述第二场景中的所述虚拟对象,所述第二环境画面是在所述虚拟环境中以所述第二观察方式对所述虚拟环境进行观察的画面。
11.根据权利要求10所述的装置,其特征在于,所述第一场景为室外场景,所述第二场景为室内场景,所述调整模块,包括:
检测单元,用于通过碰撞检测方式对所述虚拟对象在所述虚拟环境中所处的所述观察场景进行检测;
调整单元,用于当检测到所述虚拟对象根据所述移动操作从所述室外场景转移至所述室内场景时,将所述第一观察方式调整为所述第二观察方式。
12.根据权利要求11所述的装置,其特征在于,所述第一观察方式为摄像机模型在距离所述虚拟对象第一距离处对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型在距离所述虚拟对象第二距离处对所述虚拟环境进行观察的方式,所述摄像机模型为在所述虚拟环境中围绕所述虚拟对象进行观察的三维模型,所述第一距离大于所述第二距离;
所述调整单元,还用于将所述摄像机模型与所述虚拟对象之间的距离从所述第一距离调整为所述第二距离。
13.根据权利要求11所述的装置,其特征在于,所述第一观察方式为摄像机模型以第一视角对所述虚拟环境进行观察的方式,所述第二观察方式为所述摄像机模型以第二视角对所述虚拟环境进行观察的方式,所述摄像机模型为围绕所述虚拟对象进行观察的三维模型,所述第一视角的方向与虚拟环境中水平方向的夹角小于所述第二视角的方向与所述水平方向的夹角;
所述调整单元,还用于根据所述移动操作将所述摄像机模型观察所述虚拟对象的角度从所述第一视角旋转至所述第二视角。
14.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至9任一所述的对虚拟环境进行观察的方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至9任一所述的对虚拟环境进行观察的方法。
CN201811478458.2A 2018-12-05 2018-12-05 对虚拟环境进行观察的方法、设备及存储介质 Active CN109634413B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201811478458.2A CN109634413B (zh) 2018-12-05 2018-12-05 对虚拟环境进行观察的方法、设备及存储介质
PCT/CN2019/115623 WO2020114176A1 (zh) 2018-12-05 2019-11-05 对虚拟环境进行观察的方法、设备及存储介质
JP2021514085A JP7191210B2 (ja) 2018-12-05 2019-11-05 仮想環境の観察方法、デバイス及び記憶媒体
KR1020217006432A KR20210036392A (ko) 2018-12-05 2019-11-05 가상 환경 관찰 방법, 기기 및 저장 매체
SG11202103706SA SG11202103706SA (en) 2018-12-05 2019-11-05 Virtual environment viewing method, device and storage medium
US17/180,018 US11783549B2 (en) 2018-12-05 2021-02-19 Method for observing virtual environment, device, and storage medium
US18/351,780 US20230360343A1 (en) 2018-12-05 2023-07-13 Method for observing virtual environment, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811478458.2A CN109634413B (zh) 2018-12-05 2018-12-05 对虚拟环境进行观察的方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109634413A true CN109634413A (zh) 2019-04-16
CN109634413B CN109634413B (zh) 2021-06-11

Family

ID=66071135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811478458.2A Active CN109634413B (zh) 2018-12-05 2018-12-05 对虚拟环境进行观察的方法、设备及存储介质

Country Status (6)

Country Link
US (2) US11783549B2 (zh)
JP (1) JP7191210B2 (zh)
KR (1) KR20210036392A (zh)
CN (1) CN109634413B (zh)
SG (1) SG11202103706SA (zh)
WO (1) WO2020114176A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110585707A (zh) * 2019-09-20 2019-12-20 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
WO2020114176A1 (zh) * 2018-12-05 2020-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
CN111784844A (zh) * 2020-06-09 2020-10-16 当家移动绿色互联网技术集团有限公司 观察虚拟对象的方法、装置、存储介质及电子设备
WO2024001504A1 (zh) * 2022-06-29 2024-01-04 腾讯科技(深圳)有限公司 画面显示方法、装置、设备、存储介质及程序产品

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112843716A (zh) * 2021-03-17 2021-05-28 网易(杭州)网络有限公司 虚拟物体提示与查看方法、装置、计算机设备及存储介质
US11801448B1 (en) 2022-07-01 2023-10-31 Datadna, Inc. Transposing virtual content between computing environments

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140200060A1 (en) * 2012-05-08 2014-07-17 Mediatek Inc. Interaction display system and method thereof
CN105278676A (zh) * 2014-06-09 2016-01-27 伊默森公司 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法
CN106237616A (zh) * 2016-10-12 2016-12-21 大连文森特软件科技有限公司 基于在线可视化编程的vr器械格斗类游戏制作体验系统
CN106600709A (zh) * 2016-12-15 2017-04-26 苏州酷外文化传媒有限公司 基于装修信息模型的vr虚拟装修方法
CN108665553A (zh) * 2018-04-28 2018-10-16 腾讯科技(深圳)有限公司 一种实现虚拟场景转换的方法及设备
CN108717733A (zh) * 2018-06-07 2018-10-30 腾讯科技(深圳)有限公司 虚拟环境的视角切换方法、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6283857B1 (en) * 1996-09-24 2001-09-04 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
US10151599B1 (en) * 2003-03-13 2018-12-11 Pamala Meador Interactive virtual reality tour
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
GB2462095A (en) * 2008-07-23 2010-01-27 Snell & Wilcox Ltd Processing of images to represent a transition in viewpoint
JP6085411B2 (ja) * 2011-06-02 2017-02-22 任天堂株式会社 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
US8979652B1 (en) * 2014-03-27 2015-03-17 TECHLAND Sp. z o. o Natural movement in a virtual environment
JP2014184300A (ja) * 2014-04-28 2014-10-02 Copcom Co Ltd ゲームプログラム、及びゲーム装置
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP2016171989A (ja) * 2015-03-16 2016-09-29 株式会社スクウェア・エニックス プログラム、記録媒体、情報処理装置及び制御方法
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2017180990A1 (en) * 2016-04-14 2017-10-19 The Research Foundation For The State University Of New York System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data
WO2018020735A1 (ja) * 2016-07-28 2018-02-01 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10372970B2 (en) * 2016-09-15 2019-08-06 Qualcomm Incorporated Automatic scene calibration method for video analytics
US10389935B2 (en) * 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
JP6789830B2 (ja) * 2017-01-06 2020-11-25 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法
EP3542252B1 (en) * 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
US10726626B2 (en) * 2017-11-22 2020-07-28 Google Llc Interaction between a viewer and an object in an augmented reality environment
CN107977141B (zh) * 2017-11-24 2021-03-23 网易(杭州)网络有限公司 交互控制方法、装置、电子设备及存储介质
CN109634413B (zh) * 2018-12-05 2021-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
US20200285784A1 (en) * 2019-02-27 2020-09-10 Simulation Engineering, LLC Systems and methods for generating a simulated environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140200060A1 (en) * 2012-05-08 2014-07-17 Mediatek Inc. Interaction display system and method thereof
CN105278676A (zh) * 2014-06-09 2016-01-27 伊默森公司 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法
CN106237616A (zh) * 2016-10-12 2016-12-21 大连文森特软件科技有限公司 基于在线可视化编程的vr器械格斗类游戏制作体验系统
CN106600709A (zh) * 2016-12-15 2017-04-26 苏州酷外文化传媒有限公司 基于装修信息模型的vr虚拟装修方法
CN108665553A (zh) * 2018-04-28 2018-10-16 腾讯科技(深圳)有限公司 一种实现虚拟场景转换的方法及设备
CN108717733A (zh) * 2018-06-07 2018-10-30 腾讯科技(深圳)有限公司 虚拟环境的视角切换方法、设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020114176A1 (zh) * 2018-12-05 2020-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
US11783549B2 (en) 2018-12-05 2023-10-10 Tencent Technology (Shenzhen) Company Limited Method for observing virtual environment, device, and storage medium
CN110585707A (zh) * 2019-09-20 2019-12-20 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
CN110585707B (zh) * 2019-09-20 2020-12-11 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
CN111784844A (zh) * 2020-06-09 2020-10-16 当家移动绿色互联网技术集团有限公司 观察虚拟对象的方法、装置、存储介质及电子设备
CN111784844B (zh) * 2020-06-09 2024-01-05 北京五一视界数字孪生科技股份有限公司 观察虚拟对象的方法、装置、存储介质及电子设备
WO2024001504A1 (zh) * 2022-06-29 2024-01-04 腾讯科技(深圳)有限公司 画面显示方法、装置、设备、存储介质及程序产品

Also Published As

Publication number Publication date
US11783549B2 (en) 2023-10-10
US20230360343A1 (en) 2023-11-09
US20210201591A1 (en) 2021-07-01
JP7191210B2 (ja) 2022-12-16
WO2020114176A1 (zh) 2020-06-11
JP2021535806A (ja) 2021-12-23
CN109634413B (zh) 2021-06-11
SG11202103706SA (en) 2021-05-28
KR20210036392A (ko) 2021-04-02

Similar Documents

Publication Publication Date Title
JP7264993B2 (ja) 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム
CN108717733B (zh) 虚拟环境的视角切换方法、设备及存储介质
JP7143007B2 (ja) 仮想アイテム転送方法、装置、電子デバイスおよびコンピュータプログラム
CN109634413A (zh) 对虚拟环境进行观察的方法、设备及存储介质
CN110755841B (zh) 虚拟环境中道具的切换方法、装置、设备及可读存储介质
CN109529319B (zh) 界面控件的显示方法、设备及存储介质
CN110115838A (zh) 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN109876438A (zh) 用户界面显示方法、装置、设备及存储介质
CN108671543A (zh) 虚拟场景中的标记元素显示方法、计算机设备及存储介质
CN110465073A (zh) 虚拟环境中视角调整的方法、装置、设备及可读存储介质
CN110045827B (zh) 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
WO2019205881A1 (zh) 虚拟环境中的信息显示方法、装置、设备及存储介质
CN110917616B (zh) 虚拟场景中的方位提示方法、装置、设备及存储介质
CN110694273A (zh) 控制虚拟对象使用道具的方法、装置、终端及存储介质
CN111035918A (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111389005B (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN111273780B (zh) 基于虚拟环境的动画播放方法、装置、设备及存储介质
CN108786110A (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN109821237A (zh) 视角转动的方法、装置、设备及存储介质
CN108744511A (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN110533756A (zh) 贴附型装饰物的设置方法、装置、设备及存储介质
CN109806583A (zh) 用户界面显示方法、装置、设备及系统
CN111035929B (zh) 基于虚拟环境的淘汰信息反馈方法、装置、设备及介质
CN113134232A (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN110585708B (zh) 虚拟环境中从飞行器着陆的方法、装置及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant