CN111158469A - 视角切换方法、装置、终端设备及存储介质 - Google Patents
视角切换方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN111158469A CN111158469A CN201911288804.5A CN201911288804A CN111158469A CN 111158469 A CN111158469 A CN 111158469A CN 201911288804 A CN201911288804 A CN 201911288804A CN 111158469 A CN111158469 A CN 111158469A
- Authority
- CN
- China
- Prior art keywords
- virtual
- visual angle
- information
- switching
- picture corresponding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 205
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000008859 change Effects 0.000 claims description 18
- 238000009877 rendering Methods 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 16
- 230000002452 interceptive effect Effects 0.000 abstract description 8
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 239000003550 marker Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 241000283973 Oryctolagus cuniculus Species 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 241000555745 Sciuridae Species 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 241000282376 Panthera tigris Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种视角切换方法、装置、终端设备及存储介质。该方法应用于终端设备,该方法包括:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。本申请通过切换不同的视角显示不同视角对应的虚拟画面,从而使得用户可以以不同的视角观察同一虚拟场景,提升交互体验。
Description
技术领域
本申请涉及计算机技术领域,更具体地,涉及一种视角切换方法、装置、终端设备及存储介质。
背景技术
近年来,随着科技的进步,增强现实(AR,Augmented Reality)和虚拟现实(VR,Virtual Reality)等技术已逐渐成为国内外研究的热点。以增强现实为例,增强现实是通过计算机系统提供的信息增加用户对现实世界感知的技术,其将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,来增强或修改对现实世界环境或表示现实世界环境的数据的感知。在AR/VR技术中,通常通过用户的位置移动,在不同的地方观察同一虚拟场景。
发明内容
本申请实施例提出了一种视角切换方法、装置、终端设备及存储介质,以解决上述问题。
第一方面,本申请实施例提供了一种视角切换方法,应用于终端设备,该方法包括:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
第二方面,本申请实施例提供了一种视角切换装置,应用于终端设备,该装置包括:画面生成模块,用于生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;指令接收模块,用于接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;信息获取模块,用于获取第二视角在虚拟场景中的位置及方向信息;画面获取模块,用于基于位置及方向信息,获取第二视角对应的虚拟画面;画面切换模块,用于将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
第三方面,本申请实施例提供了一种终端设备,包括:一个或多个处理器;存储器;其中存储器中存储有一个或多个应用程序,一个或多个应用程序被配置为由一个或多个处理器执行,一个或多个程序配置用于执行上述第二方面提供的视角切换方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,程序代码可被处理器调用执行上述第二方面提供的视角切换方法。
本申请实施例提供的方案,生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。从而通过切换不同的视角显示不同视角对应的虚拟画面,使得用户可以以不同的视角观察同一虚拟场景,提升交互体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请实施例提供的显示系统的示意图;
图2示出了本申请实施例提供的一视角切换方法的流程示意图;
图3示出了本申请实施例提供的又一视角切换方法的流程示意图;
图4示出了本申请的图3所示的实施例提供的视角切换方法的步骤S260的流程示意图;
图5示出了本申请实施例提供的一种虚拟画面的显示示意图;
图6示出了本申请实施例提供的又一种虚拟画面的显示示意图;
图7示出了本申请实施例提供的另一视角切换方法的流程示意图;
图8示出了本申请实施例提供的再一视角切换方法的流程示意图;
图9示出了本申请实施例提供的视角切换装置的结构框图;
图10示出了本申请实施例用于执行根据本申请实施例的视角切换方法的终端设备的结构框图;
图11示出了本申请实施例的用于保存或者携带实现根据本申请实施例的视角切换方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
在AR/VR技术中,通常通过用户的位置移动,在不同的地方观察同一虚拟场景。而通过切换不同的视角对虚拟场景观察的方式,一般是以第一人称或第三人称的视角之间的切换对不同地方进行观察,视角切换方式较为单调,仅可以显示第一人称或第三人称这两种视角对应的虚拟画面,而无法显示更多视角的虚拟画面,进而使得用户的交互体验较差。
发明人经过研究,提出了本申请实施例中的视角切换方法、装置、终端设备及存储介质,通过切换不同的视角显示不同视角对应的虚拟画面,使得用户可以以不同的视角观察同一虚拟场景,提升交互体验。
下面对本申请实施例提供的视角切换方法的应用场景进行介绍。
请参见图1,示出了本申请实施例提供的一种显示系统10,包括终端设备100。在一些实施例中,终端设备100可以是头戴显示装置、手机、平板电脑、个人计算机等,其中,头戴显示装置可以为一体式头戴显示装置,也可以为与外置电子设备连接的头戴显示装置。终端设备100也可以是与外接式/接入式头戴显示装置连接的手机等智能终端,即终端设备100可作为头戴显示装置的处理和存储设备,插入或者接入外接式头戴显示装置,通过头戴显示装置对虚拟内容200进行显示。
显示系统还可以包括标记物,终端设备100可以通过识别标记物,获取终端设备与标记物之间的相对空间位置关系,进而终端设备100可以获取虚拟内容200的显示位置,并在该显示位置显示虚拟内容200。
本申请实施例中的终端设备100生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。在接收到视角切换指令时,可以根据指令对视角进行切换,从而显示在不同视角下渲染的虚拟内容200。终端设备100可获取视角切换指令对应的视角作为第二视角,并获取第二视角在虚拟景中的位置及方向信息。终端设备100可根据该位置及方向信息获取第二视角对应的虚拟画面,并将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
请参阅图2,图2示出了本申请实施例提供的一视角切换方法的流程示意图。下面将针对图2所示的实施例进行详细的阐述,方法具体可以包括以下步骤:
步骤S110:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。
在一些实施方式中,终端设备可以生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示,其中,虚拟场景可以是森林虚拟场景、可以是模拟手术场景、也可以是虚拟游戏场景,在此不做限定。具体地,第一视角对应的虚拟画面,可以通过获取第一视角在虚拟场景中的位置及方向信息,基于第一视角在虚拟场景中的位置及方向信息,获取第一视角对应的虚拟画面。其中,第一视角可以是进入虚拟场景时的初始视角,初始视角可以指终端设备的位置,即用户的视角,也可以是切换后的视角,在此不做限定。
在一些实施方式中,终端设备生成虚拟场景中的第一视角对应的虚拟画面后,可以将第一视角对应的虚拟画面进行显示。具体地,终端设备构建并渲染出第一视角对应的虚拟画面后,可以获取虚拟画面的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及对应的像素点坐标等,终端设备可根据该显示数据生成第一视角对应的虚拟画面,并将虚拟画面通过显示屏或投射模组投射到显示镜片上,从而显示出第一视角对应的虚拟画面。
步骤S120:接收视角切换指令,获取与视角切换指令对应的视角作为第二视角。
在一些实施方式中,终端设备可以接收视角切换指令,获取与视角切换指令对应的视角作为第二视角。终端设备接收到视角切换指令,可以是与终端设备通信连接的交互装置检测到用户的操控操作时,交互装置根据该操控操作生成视角切换指令,并将该视角切换指令发送至终端设备,从而终端设备获取到视角切换指令。其中,交互装置可以是手持控制器、键盘、鼠标、触控板等。作为一种具体实施方式中,用户的操控操作可以包括作用于交互装置上的某个按键或组合键的按压操作,或是触控屏的单指滑动、点击、按压、多指配合滑动等手势操控,在此不作限定,例如,还可以是键盘、鼠标和触控屏中的多种组合操作。作为另一种具体实施方式中,用户的操控操作可以是利用控制器选择显示界面上的对应的栏位,进而生成视角切换指令。
在另一些实施方式中,用户也可以不借助于交互装置,而是通过手势、声音。因此,上述终端设备获取到视角切换指令,也可以是终端设备在获取到用户的语音数据或者获取到包含用户手势的图像时,根据该语音数据或图像,获取对应的视角切换指令。其中,用户的手势可以是手臂或手指的上移、下移、左移、右移等,也可以是手指做出的“1、2、3、握拳、五指张开”等固定手势,在此不作限定。用户的语音数据可以是用户发出的“切换为俯瞰视角”等语音口令,在此不做限定。
在一些实施例中,视角切换指令对应的视角可以是俯瞰视角、第一人称视角、第三人称视角,也可以是虚拟场景中的不同的虚拟对象对应的视角,在此不做限定。
步骤S130:获取第二视角在虚拟场景中的位置及方向信息。
终端设备在获取到第二视角后,可以获取第二视角在虚拟场景中的位置及方向信息。在一些实施例中,第二视角在虚拟场景中的位置及方向信息可以是预先存储在终端设备,也可以是存储在服务器,在此不作限定。在一些实施方式中,第二视角在虚拟场景中的位置及方向信息,可以是第二视角在虚拟场景的世界坐标系的空间坐标,其中,世界坐标系的原点可以是固定的,例如,终端设备可通过扫描平面,以平面作为原点建立世界坐标系,也可设置标记物,通过识别标记物,获取终端设备与标记物之间的相对空间位置关系,并将标记物作为原点建立世界坐标系。
步骤S140:基于位置及方向信息,获取第二视角对应的虚拟画面。
在一些实施方式中,终端设备可以基于上述获取的位置及方向信息,获取第二视角对应的虚拟画面。具体地,可以预先设置有第二视角在虚拟场景中的位置及方向信息对应的虚拟画面对应的数据,其中,该虚拟画面对应的数据,可以包括虚拟画面的模型数据,模型数据为用于渲染虚拟画面的数据。例如,模型数据可以包括用于建立虚拟画面对应的模型的颜色、模型顶点坐标、模型轮廓数据等。根据虚拟画面对应的数据可以渲染生成虚拟画面。因此,可以基于第二视角在虚拟场景中的位置及方向信息,获取到第二视角对应的虚拟画面。
在一些实施方式中,虚拟空间中可设置有第一虚拟相机,该第一虚拟相机可用于模拟人眼所在的位置,第一虚拟相机可渲染三维的虚拟场景,从而对虚拟场景进行显示。在进入虚拟场景时,第一视角可为初始视角,该初始视角可为第一虚拟相机的视角,终端设备显示的虚拟画面可为第一虚拟相机渲染的虚拟场景的画面,也即,根据人眼(相当于终端设备)在虚拟场景中的空间位置所渲染的虚拟画面。虚拟空间中还可设置有第二虚拟相机,第二虚拟相机的视角即为第二视角。终端设备在获取第二视角在虚拟场景中的位置及方向信息后,可根据该位置及方向信息设置第二虚拟相机,并通过第二虚拟相机对虚拟场景进行渲染,相当于利用第二虚拟相机对虚拟场景进行“拍摄”,从而得到在第二视角下的虚拟画面。
举例进行说明,终端设备显示AR的3D海底世界,当前显示的第一视角的画面为以用户视角看海底世界的画面,该画面通过第一虚拟相机进行渲染。用户可对视角进行切换,如切换成海底世界中游动的3D虚拟乌龟的视角,则可将第二虚拟相机设置在3D虚拟乌龟的眼睛所在的位置,其朝向即为3D虚拟乌龟的眼睛看的方向,并通过第二虚拟相机渲染第二视角下的画面,即以3D虚拟乌龟的视角看海底世界的画面。3D虚拟乌龟在3D海底世界中游动时,第二虚拟相机的位置和方向会随之发生变化,实时对第二视角下的画面进行渲染。当用户再次进行视角切换时,如切换到3D海底世界的最上方的视角,则可将第二虚拟相机重新设置在3D海底世界的最上方的位置,其方向可以向下,从而可渲染出在3D海底世界的最上方看海底世界的画面等。
步骤S150:将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
在一些实施例中,终端设备可以将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。具体地,终端设备可以将第一视角对应的虚拟画面替换为第二视角对应的虚拟画面,从而实现切换的操作;终端设备也可以将第二视角对应的虚拟画面覆盖在第一视角对应的虚拟画面上,实现虚拟画面切换的操作,具体实施方式在此不做限定。
上述实施例提供的视角切换方法,生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。从而通过切换不同的视角显示不同视角对应的虚拟画面,使得用户可以以不同的视角观察同一虚拟场景,提升交互体验。
请参阅图3,图3示出了本申请实施例提供的又一视角切换方法的流程示意图。下面将针对图3所示的实施例进行详细的阐述,方法具体可以包括以下步骤:
步骤S210:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。
其中,步骤S210的具体描述请参阅步骤S110,在此不再赘述。
步骤S220:接收虚拟对象选择指令,从多个虚拟对象中确定与虚拟对象选择指令对应的虚拟对象作为目标虚拟对象。
在一些实施例中,虚拟场景中可以包括多个虚拟对象,例如,在森林虚拟场景,可以包括狮子、老虎、大象等多个虚拟对象,在虚拟动画场景中,可以包括多个动画人物。因此,可以选择虚拟场景中的虚拟对象,以虚拟对象的视角观察该虚拟场景。具体地,可以接收虚拟对象选择指令,从多个虚拟对象中确定与虚拟对象选择指令对应的虚拟对象作为目标虚拟对象。
在一些实施方式中,可以在与终端设备通信连接的交互装置检测到用户的操控操作时,交互装置根据该操控操作生成虚拟对象选择指令,并将该虚拟对象选择指令发送至终端设备,从而终端设备获取到虚拟对象选择指令。其中,交互装置可以是手持控制器、键盘、鼠标、触控板等。作为一种具体实施方式中,用户的操控操作可以包括作用于交互装置上的某个按键或组合键的按压操作,或是触控屏的单指滑动、点击、按压、多指配合滑动等手势操控,在此不作限定,例如,还可以是键盘、鼠标和触控屏中的多种组合操作。作为另一种具体实施方式中,用户的操控操作可以是利用控制器点击虚拟场景中的虚拟对象,进而生成虚拟对象选择指令。
在另一些实施方式中,用户也可以不借助于交互装置,而是通过手势、声音。因此,也可以在终端设备在获取到用户的语音数据或者获取到包含用户手势的图像时,根据该语音数据或图像,获取对应的虚拟对象选择指令。其中,用户的手势可以是手臂或手指的上移、下移、左移、右移等,也可以是手指做出的“1、2、3、握拳、五指张开”等固定手势,在此不作限定。用户的语音数据可以是用户发出的“选择大象”等语音口令,在此不做限定。
步骤S230:获取目标虚拟对象的视角作为第二视角。
在一些实施例中,当根据用户的选择,从多个虚拟对象中选取了目标虚拟对象后,可以获取目标虚拟对象的视角作为第二视角。例如,在模拟手术场景中,用户选择的虚拟对象为手术刀,则可以从多个虚拟对象中确定与虚拟对象选择指令对应的虚拟对象,即目标虚拟对象为手术刀,于是可以将手术刀的视角作为第二视角。
在一些实施方式中,将目标虚拟对象的视角作为第二视角观察虚拟场景,可以是模仿动物的眼睛真正看到的世界,例如,当目标虚拟对象为鱼时,可以是模仿鱼眼看到的世界;进一步地,也可以是模仿人眼看到的世界,只是视角位置的变化。具体方式在此不做限定。
步骤S240:获取目标虚拟对象在虚拟场景中的空间位置信息。
在一些实施方式中,可以获取目标虚拟对象在虚拟场景中的空间位置信息。具体地,终端设备中可以存储有目标虚拟对象在虚拟场景中的空间位置信息。在一些实施方式,目标虚拟对象在虚拟场景中的空间位置信息可以存储在服务器中。
步骤S250:基于空间位置信息获取第二视角在虚拟场景中的位置及方向信息。
在一些实施例中,终端设备可以基于空间位置信息获取第二视角在虚拟场景中的位置及方向信息。其中,空间位置信息可以包括目标虚拟对象在虚拟场景中的位置及方向信息。在一些实施方式中,可以将目标虚拟对象在虚拟场景中的位置及方向信息作为第二视角在虚拟场景中的位置及方向信息。在一些实施方式中,可以根据目标虚拟对象在虚拟场景中的位置及方向信息,获得目标虚拟对象的视角在虚拟场景中的位置及方向信息,将目标虚拟对象的视角在虚拟场景中的位置及方向信息作为第二视角在虚拟场景中的位置及方向信息。例如,当虚拟对象为动物或人物时,虚拟对象的视角在虚拟场景中的位置及方向信息可以动物或人物的双眼在虚拟场景中的位置及方向信息。
步骤S260:基于位置及方向信息,获取第二视角对应的虚拟画面。
在一个实施例中,请参阅图4,图4示出了本申请的图3所示的实施例提供的视角切换方法的步骤S260的流程示意图。下面将针对图4所示的流程进行详细的阐述,方法具体可以包括以下步骤:
步骤S261:获取目标虚拟对象的体型信息。
在一些实施例中,目标虚拟对象可以包括体型信息,而目标虚拟对象的体型的大小可能会影响虚拟画面的显示效果,当目标虚拟对象的体型较大时,以目标虚拟对象的视角观察到的虚拟画面会变小,当目标虚拟对象的体型较小时,以目标虚拟对象的视角观察到的虚拟画面会相应变大。因此,终端设备可以获取目标虚拟对象的体型信息。其中,目标虚拟对象的体型信息可以存储在终端设备本地,也可以存储在服务器,在此不做限定。
步骤S262:基于位置及方向信息以及体型信息,获取第二视角对应的虚拟画面。
在一些实施方式中,可以基于位置及方向信息,获取第二视角对应的虚拟画面,再根据获取的体型信息,将第二视角对应的虚拟画面对应放大或缩小,从而得到最终的第二视角对应的虚拟画面。
在一些实施方式中,可以预先存储有位置及方向信息以及体型信息,与虚拟画面的对应关系,从而可以根据获取的位置及方向信息以及体型信息,查找得到对应的虚拟画面,将查找到的虚拟画面作为第二视角对应的虚拟画面。
步骤S270:将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
其中,步骤S270的具体描述请参阅步骤S150,在此不再赘述。
在一些实施方式中,步骤S270之后可以执行步骤S280-步骤S300:
步骤S280:获取预先设置的目标虚拟对象的剧情信息。
在一些实施例中,虚拟场景中还可以包括每个虚拟对象的剧情信息,即每个虚拟对象的故事,因此,终端设备可以获取预先设置的目标虚拟对象的剧情信息。具体地,终端设备可以获取存储在终端设备本地的预先设置的目标虚拟对象的剧情信息,也可以从服务器获取预先设置的目标虚拟对象的剧情信息,在此不做限定。
步骤S290:提取剧情信息中的动作信息。
在一些实施方式中,剧情信息可以是目标虚拟对象对应的故事信息,其中,剧情信息可以包括目标虚拟对象的心理活动信息,也可以包括目标虚拟对象的动作信息。在本实施例中,终端设备可以提取剧情信息中的动作信息。例如,在森林虚拟场景中,目标虚拟对象为兔子,可以获取到兔子的剧情信息为“去找小松鼠玩”,于是可以提取剧情信息中的动作信息“找”、“玩”等。
步骤S300:基于动作信息生成指导信息,基于指导信息对虚拟场景中的操作进行指导。
在一些实施例中,根据获取到的剧情信息,提取得到剧情信息中的动作信息后,终端设备可以基于动作信息生成指导信息,基于指导信息对虚拟场景中的操作进行指导。例如,在森岭虚拟场景中,目标虚拟对象为兔子,可以获取到兔子的剧情信息为“去找小松鼠玩”,于是可以提取剧情信息中的动作信息“找”、“玩”。根据提取的动作信息“找”,并结合“找”对应的对象,可以生成从兔子所在的位置到小松鼠所在的位置的路线作为指导信息,从而使得用户可以根据生成的路线更快的找到小松鼠的位置。当找到小松鼠后,可以根据提取的动作信息“玩”,生成对应的交互信息作为指导信息,使得用户可以基于交互信息与小松鼠进行交互以达到玩耍的效果。
在一些实施方式中,步骤S270之后还可以执行步骤S310-步骤S330:
步骤S310:接收与终端设备连接的控制器发送的控制指令。
在一些实施例中,用户可以通过控制器控制虚拟对象的移动,以使得用户观看的视角发生变化,可以观察到更多视角的虚拟画面。因此,终端设备可以接收与终端设备连接的控制器发送的控制指令。
在一些实施方式中,终端设备接收到与终端设备连接的控制器发送的控制指令,可以是控制器检测到用户的操控操作时,控制器根据该操控操作生成控制指令,并将该控制指令发送至终端设备,从而终端设备接收到控制指令。。
步骤S320:根据控制指令,控制目标虚拟对象移动。
在一些实施方式中,终端设备可以根据控制指令,控制目标虚拟对象移动。例如,控制指令为向前移动时,可以控制目标虚拟对象向前移动。
步骤S330:基于目标虚拟对象的移动,更新目标虚拟对象的视角和第二视角对应的虚拟画面。
在一些实施例中,终端设备可以基于目标虚拟对象的移动,更新目标虚拟对象的视角和第二视角对应的虚拟画面。具体地,可以基于目标虚拟对象的移动,重新获取目标虚拟对象在虚拟场景中的空间位置。基于重新获取的目标虚拟对象的空间位置,重新确定第二视角的位置及方向信息,并获取重新确定的第二视角对应的虚拟画面,实现对目标虚拟对象的视角和第二视角对应的虚拟画面的更新。在一些实施方式中,虚拟空间中可以设置有第三虚拟相机,第三虚拟相机可以是第二视角,可以获取第二视角的位置及方向信息,并根据该位置及方向信息设置第三虚拟相机。可以通过第三虚拟相机对虚拟场景进行渲染,相当于利用第三虚拟相机对虚拟场景进行“拍摄”,从而得到第二视角对应的虚拟画面。当目标虚拟对象移动时,第二视角的位置及方向会随之发生变化,此时,可以将第三虚拟相机重新设置在移动后的第二视角的位置及方向上,并利用第三虚拟相机重新对虚拟场景进行“拍摄”,从而得到更新后的第二视角对应的虚拟画面。
作为一种具体的实施方式中,终端设备显示AR的3D海底世界,目标虚拟对象为3D虚拟海豚时,可以将第三虚拟相机设置在3D虚拟海豚的眼睛所在的位置,其朝向即为3D虚拟海豚的眼睛看的方向,并通过第三虚拟相机渲染第二视角下的画面,即以3D虚拟海豚的视角看海底世界的画面。当3D虚拟海豚在3D海底世界中游动时,第二虚拟相机的位置和方向会随之发生变化,可以获取移动后的3D虚拟海豚的位置,将第三虚拟相机重新设置在移动后的3D虚拟海豚的眼睛所在的位置,从而可以渲染出以移动后3D虚拟海豚的视角看海底世界的画面。
在一些实施方式中,还可以从外部视角记录用户根据操控操作控制目标虚拟对象移动的操作,以方便用户后面观察。其中,外部视角可以是通过设置外置的摄像头,因此,可以通过外置的摄像头采集用户的图像以此记录用户在虚拟场景中的操作,即根据操控操作控制目标虚拟对象移动的操作。
作为一种具体的实施方式中,用户可以看到虚拟场景中第一视角生成的虚拟画面,即可以是以用户的视角生成的虚拟画面,如图5所示,其中,虚拟场景中包括鸟、猫、狗以及猪这四个虚拟对象。当用户选择了虚拟对象鸟,则可以以鸟的视角作为第二视角,并获取鸟的视角对应的虚拟画面,并将第一视角生成的虚拟画面切换为鸟的视角对应的虚拟画面,即将图5所示的虚拟画面切换为图6所示的虚拟画面。上述实施例提供的视角切换方法,生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收虚拟对象选择指令,从多个虚拟对象中确定与虚拟对象选择指令对应的虚拟对象作为目标虚拟对象;获取目标虚拟对象的视角作为第二视角;获取目标虚拟对象在虚拟场景中的空间位置信息;基于空间位置信息获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。上述实施例可以将虚拟画面切换为用户选择的虚拟对象的视角对应的虚拟画面,从而用户可以以虚拟场景中不同虚拟对象的视角观察该虚拟场景,进而体验到该虚拟场景的更多细节。
请参阅图7,图7示出了本申请实施例提供的另一视角切换方法的流程示意图。下面将针对图7所示的实施例进行详细的阐述,方法具体可以包括以下步骤:
步骤S410:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。
步骤S420:接收视角切换指令,获取与视角切换指令对应的视角作为第二视角。
步骤S430:获取第二视角在虚拟场景中的位置及方向信息。
步骤S440:基于位置及方向信息,获取第二视角对应的虚拟画面。
步骤S450:将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
其中,步骤S410-步骤S450的具体描述请参阅步骤S110-步骤S150,在此不再赘述。
步骤S460:接收作用于终端设备的移动指令。
在一些实施例中,终端设备可以接收作用于终端设备的移动指令。具体地,作用于终端设备的移动指令可以是由携带该终端设备的用户头部的移动所触发的。终端设备检测到用户头部的移动时,根据头部的移动生成移动指令。例如,用户的头部向左转动,可以生成向左转动的移动指令。
步骤S470:基于移动指令确定终端设备的位置及姿态信息,并根据位置及姿态信息确定终端设备在虚拟场景中的位置及姿态变化。
在一些实施例中,可以基于移动指令确定终端设备的位置及姿态信息,并根据位置及姿态信息确定终端设备在虚拟场景中的位置及姿态变化。其中,姿态信息可以是穿戴设备相对终端设备的朝向及旋转角度。作为一种具体的实施方式,可根据移动指令获得信标与终端设备的相对位置及旋转信息,以及信标在现实空间的空间坐标系中的空间坐标,进行坐标之间的转换,可得到终端设备的位置及姿态信息,进而获取基于移动指令之前,终端设备的位置及姿态信息,与当前的终端设备的位置及姿态信息进行计算,得到终端设备在现实空间中的位置及姿态变化,进一步地,将终端设备在现实空间中的位置及姿态变化转化为虚拟场景中的位置及姿态变化。
在一些实施方式中,终端设备可包括惯性测量单元,用以检测终端设备的姿态信息。其中,惯性测量单元可以检测终端设备的三自由度信息,三自由度信息可包括终端设备沿空间中三个直角坐标轴的转动自由度,上述三个直角坐标轴对应的转动自由度可构成终端设备的姿态信息。因此,可以通过终端设备上的惯性测量单元的感应数据,来得到惯性测量单元检测到的终端设备的姿态信息。
作为另一种方式,终端设备可包括图像传感器,可通过图像传感器采集到的标记物图像以及终端设备上的惯性测量单元的感应数据,精确得到终端设备的位置及姿态信息。
步骤S480:基于位置及姿态变化调整第二视角在虚拟场景中的位置及方向信息。
在一些实施例中,终端设备可以基于位置及姿态变化调整第二视角在虚拟场景中的位置及方向信息。具体地,可以根据终端设备的位置及姿态变化,确定第二视角在终端设备移动前后的位置及方向信息的变化。在一些实施方式中,可以将终端设备的位置及姿态变化作为第二视角的位置及方向信息的变化。根据第二视角的位置及方向信息的变化以及第二视角在终端设备移动前的位置及方向信息,调整得到第二视角在虚拟场景中的位置及方向。
步骤S490:根据第二视角调整后的位置及方向信息重新获取虚拟画面,并将当前显示的虚拟画面更新为重新获取的虚拟画面。
在一些实施例中,终端设备可以根据第二视角调整后的位置及方向信息重新获取虚拟画面,并将当前显示的虚拟画面更新为重新获取的虚拟画面。在检测到终端设备在虚拟场景中的位置及姿态信息发生变化时,可以根据终端设备在虚拟场景中的位置及姿态变化,调整第二视角在虚拟场景中的位置及方向信息。进一步地,可以根据第二视角调整后的位置及方向信息,重新确定虚拟画面的显示数据以及虚拟画面的显示位置,并将重新确定的虚拟画面的显示数据显示于重新确定的虚拟画面的显示位置,实现对虚拟画面的更新。
上述实施例提供的视角切换方法,通过控制终端设备移动,使得第二视角的位置及方向信息相应调整变化,从而获取变化后的第二视角对应的虚拟画面,使得用户可以通过移动终端设备获取第二视角下不同的虚拟画面,操作简便,提高与虚拟内容的交互性。
请参阅图8,图8示出了本申请实施例提供的再一视角切换方法的流程示意图。下面将针对图8所示的实施例进行详细的阐述,方法具体可以包括以下步骤:
步骤S510:生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。
步骤S520:接收视角切换指令,获取与视角切换指令对应的视角作为第二视角。
步骤S530:获取第二视角在虚拟场景中的位置及方向信息。
步骤S540:基于位置及方向信息,获取第二视角对应的虚拟画面。
其中,步骤S510-步骤S540的具体描述请参阅步骤S110-步骤S140,在此不再赘述。
步骤S550:基于位置及方向信息,确定第二视角对应的虚拟画面的显示位置。
在一些实施例中,终端设备可以基于位置及方向信息,确定第二视角对应的虚拟画面的显示位置。
在一些实施方式中,终到端设备可以根据获取的位置及方向信息以及虚拟画面在现实空间的叠加位置,获取虚拟画面的渲染位置,即第二视角对应的虚拟画面的显示位置,然后根据画面数据以及渲染位置,渲染虚拟画面。其中,该渲染位置可以是虚拟画面的渲染坐标,以实现虚拟画面渲染于渲染位置处,渲染坐标指的是虚拟画面在虚拟空间中以预设原点(例如世界坐标原点、虚拟摄像头原点等)的三维空间坐标。具体的,终端设备可以根据相对空间位置信息以及虚拟画面在现实空间的叠加位置,获取叠加位置的空间位置坐标,再将该空间位置坐标转换为虚拟空间中的空间坐标。
步骤S560:根据显示位置渲染并显示第二视角对应的虚拟画面。
在一些实施方式中,终端设备得到用于虚拟空间中渲染虚拟画面的渲染坐标之后,终端设备可以根据获取到的待显示的虚拟画面对应的内容数据,构建三维的虚拟画面,以及根据上述渲染坐标渲染该虚拟画面,其中,渲染坐标即为显示位置。
在一些实施方式中,根据显示位置可以对虚拟画面进行显示。具体地,终端设备构建并渲染出虚拟画面后,可以将渲染后的虚拟画面转化为显示画面,获取相应的显示数据,该显示数据可以包括显示画面中各个像素点的RGB值及对应的像素点坐标等,终端设备可根据该显示数据生成显示画面,并将显示画面通过显示屏或投射模组投射到显示镜片上,从而显示出虚拟画面。
上述实施例提供的视角切换方法,生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示;接收视角切换指令,获取与视角切换指令对应的视角作为第二视角;获取第二视角在虚拟场景中的位置及方向信息;基于位置及方向信息,获取第二视角对应的虚拟画面;基于位置及方向信息,确定第二视角对应的虚拟画面的显示位置;根据显示位置渲染并显示第二视角对应的虚拟画面。上述实施例通过根据第二视角的位置及方向信息,确定第二视角对应的虚拟画面的显示位置,根据显示位置渲染并显示第二视角对应的虚拟画面,从而提升第二视角对应的虚拟画面的显示效果。
请参阅图9,图9示出了本申请实施例提供的视角切换装置900的模块框图。下面将针对图9所示的框图进行阐述,视角切换装置900包括:画面生成模块910、指令接收模块920、信息获取模块930、画面获取模块940以及画面切换模块950,其中:
画面生成模块910,用于生成虚拟场景中的第一视角对应的虚拟画面,并将第一视角对应的虚拟画面进行显示。
指令接收模块920,用于获取与视角切换指令对应的视角作为第二视角。
进一步地,虚拟场景中包括多个虚拟对象,指令接收模块920包括:选择指令接收子模块以及第二视角获取子模块,其中:
选择指令接收子模块,用于接收虚拟对象选择指令,从多个虚拟对象中确定与虚拟对象选择指令对应的虚拟对象作为目标虚拟对象。
第二视角获取子模块,用于获取目标虚拟对象的视角作为第二视角。
信息获取模块930,用于获取第二视角在虚拟场景中的位置及方向信息。
进一步地,信息获取模块930还包括:位置信息获取子模块以及信息获取子模块,其中:
位置信息获取子模块,用于获取目标虚拟对象在虚拟场景中的空间位置信息。
信息获取子模块,用于基于空间位置信息获取第二视角在虚拟场景中的位置及方向信息。
画面获取模块940,用于基于位置及方向信息,获取第二视角对应的虚拟画面。
进一步地,画面获取模块940包括:体型信息获取子模块以及画面获取子模块,其中:
体型信息获取子模块,用于获取目标虚拟对象的体型信息。
画面获取子模块,用于基于位置及方向信息以及体型信息,获取第二视角对应的虚拟画面。
画面切换模块950,用于将第一视角对应的虚拟画面切换为第二视角对应的虚拟画面。
进一步地,画面切换模块950包括:位置确定子模块以及画面显示子模块,其中:
位置确定子模块,用于基于位置及方向信息,确定第二视角对应的虚拟画面的显示位置。
画面显示子模块,用于根据显示位置渲染并显示第二视角对应的虚拟画面。
进一步地,视角切换装置900还包括:剧情信息获取模块、动作信息提取模块以及指导信息生成模块,其中:
剧情信息获取模块,用于获取预先设置的目标虚拟对象的剧情信息。
动作信息提取模块,用于提取剧情信息中的动作信息。
指导信息生成模块,用于基于动作信息生成指导信息,基于指导信息对虚拟场景中的操作进行指导。
进一步地,视角切换装置900还包括:控制指令接收模块、移动控制模块以及画面更新模块,其中:
控制指令接收模块,用于接收与终端设备连接的控制器发送的控制指令。
移动控制模块,用于根据控制指令,控制目标虚拟对象移动。
视角更新模块,用于基于目标虚拟对象的移动,更新目标虚拟对象的视角和第二视角对应的虚拟画面。
进一步地,视角切换装置900还包括:移动指令接收模块、变化确定模块、信息调整模块以及画面更新模块,其中:
移动指令接收模块,用于接收作用于终端设备的移动指令。
变化确定模块,用于基于移动指令确定终端设备的位置及姿态信息,并根据位置及姿态信息确定终端设备在虚拟场景中的位置及姿态变化。
信息调整模块,用于基于位置及姿态变化调整第二视角在虚拟场景中的位置及方向信息。
画面更新模块,用于根据第二视角调整后的位置及方向信息重新获取虚拟画面,并将当前显示的虚拟画面更新为重新获取的虚拟画面。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参考图10,其示出了本申请实施例提供的一种终端设备的结构框图,终端设备100可以包括一个或多个如下部件:处理器110、存储器120、图像传感器130,其中存储器120中存储有一个或多个应用程序,一个或多个应用程序被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个终端设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端设备100在使用中所创建的数据等。
在本申请实施例中,图像传感器130用于采集现实物体的图像以及采集目标场景的场景图像。图像传感器130可以为红外相机,也可以是可见光相机,具体类型在本申请实施例中并不作为限定。
在一个实施例中,电子设备为头戴显示装置,除了包括上述的处理器、存储器及图像传感器外,还可包括如下一个或多个部件:显示模组、光学模组、通信模块以及电源。
显示模组可包括显示控制单元。显示控制单元用于接收处理器渲染后的虚拟内容的显示图像,然后将该显示图像显示并投射至光学模组上,使用户能够通过光学模组观看到虚拟内容。其中,显示装置可以是显示屏或投射装置等,可用于显示图像。
光学模组可采用离轴光学系统或波导光学系统,显示装置显示的显示图像经光学模组后,能够被投射至用户的眼睛。用户在通过光学模组看到显示装置投射的显示图像的同时。在一些实施方式中,用户还能够透过光学模组观察到现实环境,感受虚拟内容与现实环境叠加后的增强现实效果。
通信模块可以是蓝牙、WiFi(Wireless-Fidelity,无线保真)、ZigBee(紫峰技术)等模块,头戴显示装置可通过通信模块与电子设备建立通信连接。与电子设备通信连接的头戴显示装置,可以与电子设备进行信息以及指令的交互。例如,头戴显示装置可以通过通信模块接收电子设备的发送的图像数据,根据所接收的图像数据生成虚拟世界的虚拟内容进行显示。
电源可为整个头戴显示装置进行供电,保证头戴显示装置各个部件的正常运行。
请参考图11,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质1100可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质1100包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质1100具有执行上述方法中的任何方法步骤的程序代码1110的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1110可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种视角切换方法,其特征在于,应用于终端设备,所述方法包括:
生成虚拟场景中的第一视角对应的虚拟画面,并将所述第一视角对应的虚拟画面进行显示;
接收视角切换指令,获取与所述视角切换指令对应的视角作为第二视角;
获取所述第二视角在所述虚拟场景中的位置及方向信息;
基于所述位置及方向信息,获取所述第二视角对应的虚拟画面;
将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面。
2.根据权利要求1所述的方法,其特征在于,所述虚拟场景中包括多个虚拟对象,所述接收视角切换指令,获取与所述视角切换指令对应的视角作为第二视角,包括:
接收虚拟对象选择指令,从所述多个虚拟对象中确定与所述虚拟对象选择指令对应的虚拟对象作为目标虚拟对象;
获取所述目标虚拟对象的视角作为第二视角;
所述获取所述第二视角在所述虚拟场景中的位置及方向信息,包括:
获取所述目标虚拟对象在所述虚拟场景中的空间位置信息;
基于所述空间位置信息获取所述第二视角在所述虚拟场景中的位置及方向信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述位置及方向信息,获取所述第二视角对应的虚拟画面,包括:
获取所述目标虚拟对象的体型信息;
基于所述位置及方向信息以及体型信息,获取所述第二视角对应的虚拟画面。
4.根据权利要求2所述的方法,其特征在于,所述将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面之后,还包括:
获取预先设置的所述目标虚拟对象的剧情信息;
提取所述剧情信息中的动作信息;
基于所述动作信息生成指导信息,基于所述指导信息对所述虚拟场景中的操作进行指导。
5.根据权利要求2所述的方法,其特征在于,所述将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面之后,还包括:
接收与所述终端设备连接的控制器发送的控制指令;
根据所述控制指令,控制所述目标虚拟对象移动;
基于所述目标虚拟对象的移动,更新所述目标虚拟对象的视角和所述第二视角对应的虚拟画面。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面之后,还包括:
接收作用于所述终端设备的移动指令;
基于所述移动指令确定所述终端设备的位置及姿态信息,并根据所述位置及姿态信息确定所述终端设备在所述虚拟场景中的位置及姿态变化;
基于所述位置及姿态变化调整所述第二视角在所述虚拟场景中的位置及方向信息;
根据所述第二视角调整后的位置及方向信息重新获取虚拟画面,并将当前显示的虚拟画面更新为重新获取的虚拟画面。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面,包括:
基于所述位置及方向信息,确定第二视角对应的虚拟画面的显示位置;
根据所述显示位置渲染并显示所述第二视角对应的虚拟画面。
8.一种视角切换装置,其特征在于,应用于终端设备,所述装置包括:
画面生成模块,用于生成虚拟场景中的第一视角对应的虚拟画面,并将所述第一视角对应的虚拟画面进行显示;
指令接收模块,用于接收视角切换指令,获取与所述视角切换指令对应的视角作为第二视角;
信息获取模块,用于获取所述第二视角在所述虚拟场景中的位置及方向信息;
画面获取模块,用于基于所述位置及方向信息,获取所述第二视角对应的虚拟画面;
画面切换模块,用于将所述第一视角对应的虚拟画面切换为所述第二视角对应的虚拟画面。
9.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器,其中,所述存储器中存储有一个或多个应用程序,所述一个或多个应用程序被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-7任一项所述的方法。
10.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911288804.5A CN111158469A (zh) | 2019-12-12 | 2019-12-12 | 视角切换方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911288804.5A CN111158469A (zh) | 2019-12-12 | 2019-12-12 | 视角切换方法、装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111158469A true CN111158469A (zh) | 2020-05-15 |
Family
ID=70557143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911288804.5A Pending CN111158469A (zh) | 2019-12-12 | 2019-12-12 | 视角切换方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111158469A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111710047A (zh) * | 2020-06-05 | 2020-09-25 | 北京有竹居网络技术有限公司 | 一种信息展示方法、装置和电子设备 |
CN111803946A (zh) * | 2020-07-22 | 2020-10-23 | 网易(杭州)网络有限公司 | 游戏中的镜头切换方法、装置和电子设备 |
CN112732095A (zh) * | 2021-03-31 | 2021-04-30 | 深圳盈天下视觉科技有限公司 | 一种显示方法、装置、头戴式显示设备和存储介质 |
CN112770018A (zh) * | 2020-12-07 | 2021-05-07 | 深圳市大富网络技术有限公司 | 一种3d动画立体显示方法、装置及计算机可读存储介质 |
CN112791417A (zh) * | 2020-12-31 | 2021-05-14 | 上海米哈游天命科技有限公司 | 游戏画面的拍摄方法、装置、设备及存储介质 |
CN113298599A (zh) * | 2020-09-18 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 对象显示方法、装置及设备 |
CN113691779A (zh) * | 2021-08-25 | 2021-11-23 | 济南大学 | 一种ar系统中增强呈现方式的方法 |
CN113873188A (zh) * | 2021-11-24 | 2021-12-31 | 江苏汇博机器人技术股份有限公司 | 一种机器人装配仿真工作站 |
CN113923435A (zh) * | 2021-08-26 | 2022-01-11 | 北京城市网邻信息技术有限公司 | 一种信息展示方法、设备及存储介质 |
CN113961066A (zh) * | 2021-09-23 | 2022-01-21 | 北京城市网邻信息技术有限公司 | 视角的切换方法、装置、电子设备及可读介质 |
CN114095785A (zh) * | 2020-08-25 | 2022-02-25 | 上海哔哩哔哩科技有限公司 | 视频播放方法、装置及计算机设备 |
CN114745598A (zh) * | 2022-04-12 | 2022-07-12 | 北京字跳网络技术有限公司 | 视频数据展示方法、装置、电子设备及存储介质 |
CN115016688A (zh) * | 2022-06-28 | 2022-09-06 | 维沃移动通信有限公司 | 虚拟信息显示方法、装置和电子设备 |
WO2023179400A1 (zh) * | 2022-03-22 | 2023-09-28 | 北京有竹居网络技术有限公司 | 房屋三维模型的展示方法、展示装置、终端和存储介质 |
WO2023197777A1 (zh) * | 2022-04-14 | 2023-10-19 | 腾讯科技(深圳)有限公司 | 虚拟道具的使用方法、装置、设备、介质及程序产品 |
WO2024051633A1 (zh) * | 2022-09-06 | 2024-03-14 | 北京有竹居网络技术有限公司 | 场景视角调整方法、装置、终端及存储介质 |
CN118118643A (zh) * | 2024-04-15 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376424A (zh) * | 2018-02-09 | 2018-08-07 | 腾讯科技(深圳)有限公司 | 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质 |
CN108499105A (zh) * | 2018-04-16 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 在虚拟环境中进行视角调整的方法、装置及存储介质 |
CN109542222A (zh) * | 2018-11-13 | 2019-03-29 | 深圳市创凯智能股份有限公司 | 三维视角控制方法、装置、设备以及可读存储介质 |
CN110227254A (zh) * | 2019-06-21 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 视角切换控制方法和装置、存储介质及电子装置 |
-
2019
- 2019-12-12 CN CN201911288804.5A patent/CN111158469A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376424A (zh) * | 2018-02-09 | 2018-08-07 | 腾讯科技(深圳)有限公司 | 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质 |
CN108499105A (zh) * | 2018-04-16 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 在虚拟环境中进行视角调整的方法、装置及存储介质 |
CN109542222A (zh) * | 2018-11-13 | 2019-03-29 | 深圳市创凯智能股份有限公司 | 三维视角控制方法、装置、设备以及可读存储介质 |
CN110227254A (zh) * | 2019-06-21 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 视角切换控制方法和装置、存储介质及电子装置 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111710047A (zh) * | 2020-06-05 | 2020-09-25 | 北京有竹居网络技术有限公司 | 一种信息展示方法、装置和电子设备 |
CN111803946A (zh) * | 2020-07-22 | 2020-10-23 | 网易(杭州)网络有限公司 | 游戏中的镜头切换方法、装置和电子设备 |
CN111803946B (zh) * | 2020-07-22 | 2024-02-09 | 网易(杭州)网络有限公司 | 游戏中的镜头切换方法、装置和电子设备 |
CN114095785A (zh) * | 2020-08-25 | 2022-02-25 | 上海哔哩哔哩科技有限公司 | 视频播放方法、装置及计算机设备 |
CN114095785B (zh) * | 2020-08-25 | 2023-11-24 | 上海哔哩哔哩科技有限公司 | 视频播放方法、装置及计算机设备 |
CN113298599A (zh) * | 2020-09-18 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 对象显示方法、装置及设备 |
CN113298599B (zh) * | 2020-09-18 | 2022-08-02 | 阿里巴巴集团控股有限公司 | 对象显示方法、装置及设备 |
CN112770018A (zh) * | 2020-12-07 | 2021-05-07 | 深圳市大富网络技术有限公司 | 一种3d动画立体显示方法、装置及计算机可读存储介质 |
CN112791417A (zh) * | 2020-12-31 | 2021-05-14 | 上海米哈游天命科技有限公司 | 游戏画面的拍摄方法、装置、设备及存储介质 |
CN112732095A (zh) * | 2021-03-31 | 2021-04-30 | 深圳盈天下视觉科技有限公司 | 一种显示方法、装置、头戴式显示设备和存储介质 |
CN113691779A (zh) * | 2021-08-25 | 2021-11-23 | 济南大学 | 一种ar系统中增强呈现方式的方法 |
CN113691779B (zh) * | 2021-08-25 | 2024-04-05 | 济南大学 | 一种ar系统中增强呈现方式的方法 |
CN113923435B (zh) * | 2021-08-26 | 2022-08-05 | 北京城市网邻信息技术有限公司 | 一种信息展示方法、设备及存储介质 |
CN113923435A (zh) * | 2021-08-26 | 2022-01-11 | 北京城市网邻信息技术有限公司 | 一种信息展示方法、设备及存储介质 |
CN113961066B (zh) * | 2021-09-23 | 2022-07-12 | 北京城市网邻信息技术有限公司 | 视角的切换方法、装置、电子设备及可读介质 |
CN113961066A (zh) * | 2021-09-23 | 2022-01-21 | 北京城市网邻信息技术有限公司 | 视角的切换方法、装置、电子设备及可读介质 |
CN113873188A (zh) * | 2021-11-24 | 2021-12-31 | 江苏汇博机器人技术股份有限公司 | 一种机器人装配仿真工作站 |
WO2023179400A1 (zh) * | 2022-03-22 | 2023-09-28 | 北京有竹居网络技术有限公司 | 房屋三维模型的展示方法、展示装置、终端和存储介质 |
CN114745598B (zh) * | 2022-04-12 | 2024-03-19 | 北京字跳网络技术有限公司 | 视频数据展示方法、装置、电子设备及存储介质 |
CN114745598A (zh) * | 2022-04-12 | 2022-07-12 | 北京字跳网络技术有限公司 | 视频数据展示方法、装置、电子设备及存储介质 |
WO2023197777A1 (zh) * | 2022-04-14 | 2023-10-19 | 腾讯科技(深圳)有限公司 | 虚拟道具的使用方法、装置、设备、介质及程序产品 |
CN115016688A (zh) * | 2022-06-28 | 2022-09-06 | 维沃移动通信有限公司 | 虚拟信息显示方法、装置和电子设备 |
WO2024051633A1 (zh) * | 2022-09-06 | 2024-03-14 | 北京有竹居网络技术有限公司 | 场景视角调整方法、装置、终端及存储介质 |
CN118118643A (zh) * | 2024-04-15 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111158469A (zh) | 视角切换方法、装置、终端设备及存储介质 | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
JP6276882B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7095602B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
CN106873767B (zh) | 一种虚拟现实应用的运行控制方法和装置 | |
CN111766937B (zh) | 虚拟内容的交互方法、装置、终端设备及存储介质 | |
CN111078003B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
KR20180133507A (ko) | 시야 주위의 시각적 아우라 | |
EP2394710B1 (en) | Image generation system, image generation method, and information storage medium | |
EP2394711A1 (en) | Image generation system, image generation method, and information storage medium | |
US20140068526A1 (en) | Method and apparatus for user interaction | |
WO2015025442A1 (ja) | 情報処理装置および情報処理方法 | |
WO2005119591A1 (ja) | 表示制御方法および装置、プログラム、並びに携帯機器 | |
CN110442245A (zh) | 基于物理键盘的显示方法、装置、终端设备及存储介质 | |
US11049325B2 (en) | Information processing apparatus, information processing method, and program | |
JP2011258158A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
EP3751422A1 (en) | Information processing device, information processing method, and program | |
KR101983233B1 (ko) | 깊이맵을 활용한 증강현실 영상표시 시스템 및 그 방법 | |
CN111913674B (zh) | 虚拟内容的显示方法、装置、系统、终端设备及存储介质 | |
CN111913639B (zh) | 虚拟内容的交互方法、装置、系统、终端设备及存储介质 | |
CN111913560B (zh) | 虚拟内容的显示方法、装置、系统、终端设备及存储介质 | |
CN111399630A (zh) | 虚拟内容交互方法、装置、终端设备及存储介质 | |
CN111913565B (zh) | 虚拟内容控制方法、装置、系统、终端设备及存储介质 | |
JP5213913B2 (ja) | プログラム及び画像生成システム | |
US20210005021A1 (en) | Mixed reality system user interface placement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200515 |
|
RJ01 | Rejection of invention patent application after publication |