CN108563395A - 3d视角交互方法及装置 - Google Patents
3d视角交互方法及装置 Download PDFInfo
- Publication number
- CN108563395A CN108563395A CN201810424845.1A CN201810424845A CN108563395A CN 108563395 A CN108563395 A CN 108563395A CN 201810424845 A CN201810424845 A CN 201810424845A CN 108563395 A CN108563395 A CN 108563395A
- Authority
- CN
- China
- Prior art keywords
- visual angle
- target structures
- view
- angular field
- change action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供一种3D视角交互方法及装置,应用于浏览器,所述方法包括:响应触发视角改变的请求;获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件;根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。如此,可以在视角改变时自动地触发与目标构筑物的交互,使得用户不需要频繁进行操作模式的切换,提高了交互流程的流畅度,方便用户使用。
Description
技术领域
本申请涉及图像交互处理技术领域,具体而言,涉及一种3D视角交互方法及装置。
背景技术
随着数据处理和图像处理技术的不断发展,3D显示被应用在各个领域。在3D显示场景中,用户可以通过视角或视点控制操作控制视角或视点,以多方位地观察3D显示场景中的构筑物。在一些3D显示场景中,用户作为操作者,可能需要用户与某一个或多个3D构筑物互动,在现有技术中,常通过站在操作者的角度,通过鼠标点击选取的方式选择需要交互的目标来触发交互事件。这种操作模式使得视角或视点的操作模式与选择交互目标的操作模式是分离的,用户需要频繁进行操作模式的切换,导致交互流程不流畅,使用十分不便。
发明内容
为了克服现有技术中的上述不足,本申请的目的在于提供一种3D视角交互方法,应用于浏览器,所述方法包括:
响应触发视角改变的请求;
获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件;
根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
可选地,在上述方法中,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内;获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的视角事件的步骤,包括:
检测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内;
若所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内,则触发针对该目标构筑物的视角进入事件;
若所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内,则触发针对该目标构筑物的视角离开事件。
可选地,在上述方法中,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合;获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的视角事件的步骤,包括:
检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合;
若所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合,则触发针对该目标构筑物的视角聚焦事件;
若所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合,则触发针对该目标构筑物的视角失焦事件。
可选地,在上述方法中,所述响应触发视角改变的请求的步骤包括:
监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化;
响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
可选地,在上述方法中,所述根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作的步骤,包括:
在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
本申请的另一目的在于提供一种3D视角交互装置,应用于浏览器,所述装置包括:
请求接收模块,用于响应触发视角改变的请求;
事件触发模块,用于获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件;
执行模块,用于根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
可选地,在上述装置中,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内;所述事件触发模块包括:
第一检测子模块,用于检测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内;
第一触发子模块,用于在所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内时,触发针对该目标构筑物的视角进入事件;
第二触发子模块,用于在所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内时,触发针对该目标构筑物的视角离开事件。
可选地,在上述装置中,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合;所述事件触发模块包括:
第二检测子模块,用于检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合;
第三触发子模块,用于在所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合时,触发针对该目标构筑物的视角聚焦事件;
第四触发子模块,用于在所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合时,触发针对该目标构筑物的视角失焦事件。
可选地,在上述装置中,所述请求接收模块具体用于监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化;响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
可选地,在上述装置中,所述执行模块具体用于在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
相对于现有技术而言,本申请具有以下有益效果:
本申请提供的3D视角交互方法及装置,通过根据执行视角改变动作后视角范围与目标构筑物的第一相互关系与执行视角改变操作前视角范围与目标构筑物的第二相互关系,触发针对目标构筑物的视角事件,在根据不同的视角事件与该目标构筑物进行相应的交互动作。如此,可以在视角改变时自动地触发与目标构筑物的交互,使得用户不需要频繁进行操作模式的切换,提高了交互流程的流畅度,方便用户使用。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的示意图;
图2为本申请实施例提供的3D视角交互方法的流程示意图;
图3为本申请实施例提供的3D视角交互装置的功能模块示意图之一;
图4为本申请实施例提供的3D视角交互装置的功能模块示意图之二。
图标:100-电子设备;110-3D视角交互装置;111-请求接收模块;112-事件触发模块;1121-第一检测子模块;1122-第一触发子模块;1123-第二触发子模块;1124-第二检测子模块;1125-第三触发子模块;1126-第四触发子模块;113-执行模块;120-存储器;130-处理器;140-显示单元;150-操作接收单元。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
本实施例提供一种电子设备100,所述电子设备100可以为智能手机、个人电脑(personal computer,PC)、平板电脑、个人数字助理(personal digital assistant,PDA)、移动上网设备(mobile Internet device,MID)等。所述电子设备100包括3D视角交互装置110、存储器120、处理器130、显示单元140及操作接收单元150。
所述存储器120、处理器130、显示单元140以及操作接收单元150各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述3D视角交互装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器120中或固化在所述电子设备100的操作系统(operating system,OS)中的软件功能模块。所述处理器130用于执行所述存储器120中存储的可执行模块,例如所述3D视角交互装置110所包括的软件功能模块及计算机程序等。
其中,所述存储器120可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器120用于存储程序,所述处理器130在接收到执行指令后,执行所述程序。
所述显示单元140用于在所述处理器130的控制下输出图像,例如,输入3D场景的图像。
所述操作接收单元150用于接收用户操作或外部触发,例如,接收可能导致所述3D场景中视角变化的用户的操作或外部触发。在本实施例中,所述操作接收单元150可以是,但不仅限于,鼠标、键盘、重力感应装置或加速度感应装置等。
在本实施例中,所述电子设备可以基于浏览器为用户提供一个3D显示场景,在该3D场景中包括至少一个3D的构筑物。各构筑物上预先定义了一些不同的视野时间。
请参照图2,图2为应用于图1所示的电子设备100的一种应用信息获取方法的流程图,以下将对所述方法包括各个步骤进行详细阐述。
步骤S110,响应触发视角改变的请求。
具体地,在本实施例中,所述电子设备100可以监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化。
在监听到所述状态变化时,响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
步骤S120,获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件。
可选地,在本实施例中,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内。
所述电子设备100检可以测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内。
若所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内,则触发针对该目标构筑物的视角进入事件。
例如,某一个目标构筑物可能原本不在所述视角范围内,但是在进行视角移动或视角范围放大/缩小的操作后,该目标构筑物可能出现在所述视角范围内。当所述电子设备100检测到这种情况时,则产生针对该目标构筑物的视角进入事件。
若所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内,则触发针对该目标构筑物的视角离开事件。
例如,某一个目标构筑物可能原本在所述视角范围内,但是在进行视角移动或视角范围放大/缩小的操作后,该目标构筑物可能不在所述视角范围内了。当所述电子设备100检测到这种情况时,则产生针对该目标构筑物的视角离开事件。
可选地,在本实施例中,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合。例如,所述视角焦点可以为所述视角范围的中心点。
所述电子设备100可以检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合。
若所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合,则触发针对该目标构筑物的视角聚焦事件。
例如,某一个目标构筑物可能原本不与所述视角焦点重合,但是在进行视角移动或视角范围放大/缩小的操作后,该目标构筑物可能与所述视角焦点重合了。当所述电子设备100检测到这种情况时,则产生针对该目标构筑物的视角聚焦事件。
若所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合,则触发针对该目标构筑物的视角失焦事件。
例如,某一个目标构筑物可能原本与所述视角焦点重合,但是在进行视角移动或视角范围放大/缩小的操作后,该目标构筑物可能不与所述视角焦点重合了。当所述电子设备100检测到这种情况时,则产生针对该目标构筑物的视角失焦事件。
步骤S130,根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
在本实施例中,在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
例如,当触发了针对某一目标构筑物的视角进入事件时,调用相应的互动函数,向操作者提示将该目标构筑物的出现提示。当触发了针对某一目标构筑物的视角离开事件时,调用相应的互动函数,向操作者提示将该目标构筑物的消失提示。
再例如,当触发了针对某一目标构筑物的视角聚焦事件时,调用相应的互动函数,使操作者开始与该目标构筑物进行交互。当触发了针对某一目标构筑物的视角失焦事件时,调用相应的互动函数,使操作者结束与该目标构筑物进行交互。
基于上述设计,本实施例提供的3D视角交互方法,在目标构筑物的角度来触发视角事件,可以在视角改变的过程中自动的触发与目标构筑物的交互,而不需要用户进行其他的操作,可以提高交互流程的流畅度。
请参照图3,本实施例还提供一种应用于图1所示电子设备100的3D视角交互装置110,该装置包括请求接收模块111、事件触发模块112及执行模块113。
所述请求接收模块111,用于响应触发视角改变的请求。
本实施例中,所述请求接收模块111可用于执行图2所示的步骤S110,关于所述请求接收模块111的具体描述可参对所述步骤S110的描述。
所述事件触发模块112,用于获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件。
本实施例中,所述事件触发模块112可用于执行图2所示的步骤S120,关于所述事件触发模块112的具体描述可参对所述步骤S120的描述。
所述执行模块113,用于根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
本实施例中,所述执行模块113可用于执行图2所示的步骤S130,关于所述执行模块113的具体描述可参对所述步骤S130的描述。
可选地,在本实施例中,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内。所述事件触发模块112包括第一检测子模块1121、第一触发子模块1122及第二触发子模块1123。
所述第一检测子模块1121,用于检测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内。
所述第一触发子模块1122,用于在所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内时,触发针对该目标构筑物的视角进入事件。
所述第二触发子模块1123,用于在所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内时,触发针对该目标构筑物的视角离开事件。
可选地,在本实施例中,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合。所述事件触发模块112包括第二检测子模块1124、第三触发子模块1125及第四触发子模块1126。
所述第二检测子模块1124,用于检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合。
所述第三触发子模块1125,用于在所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合时,触发针对该目标构筑物的视角聚焦事件。
所述第四触发子模块1126,用于在所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合时,触发针对该目标构筑物的视角失焦事件。
可选地,在本实施例中,所述请求接收模块111具体用于监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化。响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
可选地,在本实施例中,所述执行模块113具体用于在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
综上所述,本申请提供的3D视角交互方法及装置,通过根据执行视角改变动作后视角范围与目标构筑物的第一相互关系与执行视角改变操作前视角范围与目标构筑物的第二相互关系,触发针对目标构筑物的视角事件,在根据不同的视角事件与该目标构筑物进行相应的交互动作。如此,可以在视角改变时自动地触发与目标构筑物的交互,使得用户不需要频繁进行操作模式的切换,提高了交互流程的流畅度,方便用户使用。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种3D视角交互方法,其特征在于,应用于浏览器,所述方法包括:
响应触发视角改变的请求;
获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件;
根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
2.根据权利要求1所述的方法,其特征在于,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内;获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的视角事件的步骤,包括:
检测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内;
若所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内,则触发针对该目标构筑物的视角进入事件;
若所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内,则触发针对该目标构筑物的视角离开事件。
3.根据权利要求1所述的方法,其特征在于,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合;获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的视角事件的步骤,包括:
检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合;
若所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合,则触发针对该目标构筑物的视角聚焦事件;
若所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合,则触发针对该目标构筑物的视角失焦事件。
4.根据权利要求1所述的方法,其特征在于,所述响应触发视角改变的请求的步骤包括:
监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化;
响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
5.根据权利要求1所述的方法,其特征在于,所述根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作的步骤,包括:
在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
6.一种3D视角交互装置,其特征在于,应用于浏览器,所述装置包括:
请求接收模块,用于响应触发视角改变的请求;
事件触发模块,用于获得执行视角改变动作后的视角范围与目标构筑物的第一相互关系,获得执行所述视角改变动作前的所述视角范围与所述目标构筑物的第二相互关系,并根据所述第一相互关系及所述第二相互关系触发针对该目标构筑物的相应的视角事件;
执行模块,用于根据在所述目标构筑物上触发视角事件,与该目标构筑物进行相应的交互动作。
7.根据权利要求6所述的装置,其特征在于,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否出现在所述视角范围内;所述事件触发模块包括:
第一检测子模块,用于检测所述执行视角改变动作后所述目标构筑物是否出现在所述视角范围内,并检测所述执行视角改变动作前所述目标构筑物是否出现在所述视角范围内;
第一触发子模块,用于在所述执行视角改变动作后所述目标构筑物出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物没有出现在所述视角范围内时,触发针对该目标构筑物的视角进入事件;
第二触发子模块,用于在所述执行视角改变动作后所述目标构筑物没有出现在所述视角范围内,且执行所述视角改变动作前所述目标构筑物出现在所述视角范围内时,触发针对该目标构筑物的视角离开事件。
8.根据权利要求6所述的装置,其特征在于,所述视角范围具有一个或多个视角焦点,所述视角范围与目标构筑物的相互关系包括所述目标构筑物是否与所述视角范围的视角焦点重合;所述事件触发模块包括:
第二检测子模块,用于检测所述执行视角改变动作后所述目标构筑物是否与所述视角焦点重合,并检测所述执行视角改变动作前所述目标构筑物是否与所述视角焦点重合;
第三触发子模块,用于在所述执行视角改变动作后所述目标构筑物与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物没有与所述视角焦点重合时,触发针对该目标构筑物的视角聚焦事件;
第四触发子模块,用于在所述执行视角改变动作后所述目标构筑物没有与所述视角焦点重合,且执行所述视角改变动作前所述目标构筑物与所述视角焦点重合时,触发针对该目标构筑物的视角失焦事件。
9.根据权利要求6所述的装置,其特征在于,所述请求接收模块具体用于监听鼠标、键盘、重力感应装置或加速度感应装置中的一个或多个的状态变化;响应因所述状态变化触发的视角改变的请求,执行视角改变动作,重新渲染当前视角范围内的图像。
10.根据权利要求6所述的装置,其特征在于,所述执行模块具体用于在触发所述目标构筑物的视角事件时,根据触发的所述视角事件的类型调用交互动作函数,以与该目标构筑物进行相应的交互动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810424845.1A CN108563395A (zh) | 2018-05-07 | 2018-05-07 | 3d视角交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810424845.1A CN108563395A (zh) | 2018-05-07 | 2018-05-07 | 3d视角交互方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108563395A true CN108563395A (zh) | 2018-09-21 |
Family
ID=63538036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810424845.1A Pending CN108563395A (zh) | 2018-05-07 | 2018-05-07 | 3d视角交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108563395A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104076915A (zh) * | 2013-03-29 | 2014-10-01 | 英业达科技有限公司 | 依参观者视线调整三维模型的展示系统及方法 |
US20170337746A1 (en) * | 2016-04-20 | 2017-11-23 | 30 60 90 Corporation | System and method for enabling synchronous and asynchronous decision making in augmented reality and virtual augmented reality environments enabling guided tours of shared design alternatives |
CN107515674A (zh) * | 2017-08-08 | 2017-12-26 | 山东科技大学 | 一种基于虚拟现实与增强现实的采矿操作多交互实现方法 |
CN107957775A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的数据对象交互方法及装置 |
CN107957774A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的交互方法及装置 |
CN107977834A (zh) * | 2016-10-21 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 一种虚拟现实/增强现实空间环境中的数据对象交互方法及装置 |
-
2018
- 2018-05-07 CN CN201810424845.1A patent/CN108563395A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104076915A (zh) * | 2013-03-29 | 2014-10-01 | 英业达科技有限公司 | 依参观者视线调整三维模型的展示系统及方法 |
US20170337746A1 (en) * | 2016-04-20 | 2017-11-23 | 30 60 90 Corporation | System and method for enabling synchronous and asynchronous decision making in augmented reality and virtual augmented reality environments enabling guided tours of shared design alternatives |
CN107957775A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的数据对象交互方法及装置 |
CN107957774A (zh) * | 2016-10-18 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 虚拟现实空间环境中的交互方法及装置 |
CN107977834A (zh) * | 2016-10-21 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 一种虚拟现实/增强现实空间环境中的数据对象交互方法及装置 |
CN107515674A (zh) * | 2017-08-08 | 2017-12-26 | 山东科技大学 | 一种基于虚拟现实与增强现实的采矿操作多交互实现方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103399632B (zh) | 一种手势控制的方法和移动终端 | |
CN103634316A (zh) | 一种账号登录方法及电子设备 | |
CN104318145A (zh) | 一种隐私保护的方法和系统 | |
CN110109598A (zh) | 一种动画交互实现方法、装置及电子设备 | |
CN106462713B (zh) | 终端的界面显示方法和终端 | |
CN105573522B (zh) | 一种移动终端的操作方法及移动终端 | |
CN111324275B (zh) | 显示画面中元素的播报方法及装置 | |
CN106909377A (zh) | 一种热区页面处理方法及装置 | |
CN105245518A (zh) | 网址劫持的检测方法及装置 | |
CN111796884B (zh) | 一种访问控制方法、装置、设备和计算机可读存储介质 | |
US20170104740A1 (en) | Mobile-optimized captcha system based on multi-modal gesture challenge and mobile orientation | |
CN111857136A (zh) | 一种目标地图的处理方法和装置 | |
CN107292596A (zh) | 防自动刷红包的装置与方法及服务端 | |
US20170060334A1 (en) | Method and apparatus for controlling touch device, and touch device | |
JP2018508866A (ja) | モバイル端末のアプリケーションページを表示する方法及び装置 | |
CN106896931A (zh) | 一种输入法纠错方法和装置 | |
CN103514396B (zh) | 移动通讯终端上的文件/应用程序处理方法及装置 | |
CN108227919B (zh) | 用户手指位置信息的确定方法及装置、投影仪、投影系统 | |
CN109873980A (zh) | 视频监控方法、装置及终端设备 | |
CN106468954B (zh) | 一种锁屏播放多媒体数据的方法及移动终端 | |
CN106482742B (zh) | 计步数据的获取方法及装置 | |
CN111399721B (zh) | 显示界面触发搜索的方法、装置、存储介质以及和终端 | |
CN103530550B (zh) | 移动通讯终端上的文件/应用程序处理方法及装置 | |
CN106390458B (zh) | 网页游戏挂机方法及服务器、移动终端、浏览器客户端 | |
CN108563395A (zh) | 3d视角交互方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 311501, Unit 1, Building 5, Courtyard 1, Futong East Street, Chaoyang District, Beijing Applicant after: Beijing Zhichuangyu Information Technology Co., Ltd. Address before: Room 311501, Unit 1, Building 5, Courtyard 1, Futong East Street, Chaoyang District, Beijing Applicant before: Beijing Knows Chuangyu Information Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180921 |
|
RJ01 | Rejection of invention patent application after publication |