CN114546141B - 一种基于ue5的适用于gis应用的相机控制方法 - Google Patents

一种基于ue5的适用于gis应用的相机控制方法 Download PDF

Info

Publication number
CN114546141B
CN114546141B CN202210438988.4A CN202210438988A CN114546141B CN 114546141 B CN114546141 B CN 114546141B CN 202210438988 A CN202210438988 A CN 202210438988A CN 114546141 B CN114546141 B CN 114546141B
Authority
CN
China
Prior art keywords
point
scene
camera
coordinate
gis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210438988.4A
Other languages
English (en)
Other versions
CN114546141A (zh
Inventor
郎云洁
赵浩宇
邹天涌
雷思成
余东海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Sudi Technology Co ltd
Original Assignee
Chengdu Roushui Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Roushui Technology Co ltd filed Critical Chengdu Roushui Technology Co ltd
Priority to CN202210438988.4A priority Critical patent/CN114546141B/zh
Publication of CN114546141A publication Critical patent/CN114546141A/zh
Application granted granted Critical
Publication of CN114546141B publication Critical patent/CN114546141B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于UE5的适用于GIS应用的相机控制方法,该控制方法包括分别控制场景移动、场景旋转与场景缩放的控制方法;通过基于大地坐标系,以地球质量中心为轴心的曲面平移,通过射线检测判断相机与鼠标控制点对应碰撞点的距离来确定平移、旋转与缩放各个操作需求的位置关系,以此来实现任意位置的自由浏览,结合UE5引擎出色的渲染能力、强大数据承载力,极大的提高GIS应用的渲染效果,很大程度上提升了可视化体验感;有利于快速搭建项目,省去了场景控制这个核心模块的开发,极大地提升了开发效率。

Description

一种基于UE5的适用于GIS应用的相机控制方法
技术领域
本发明涉及城市信息模型的技术领域,具体涉及一种基于UE5的适用于GIS应用的相机控制方法。
背景技术
目前,CIM(城市信息模型)相关产品大部分都是建立在Web(网页浏览)端,基于Cesium的GIS(地理信息系统)框架结合WebGL进行业务开发。但存在性能和可视化体验感不好等问题。
基于传统方案开发CIM(城市信息模型)相关应用存在的问题,使用UE5引擎开发CIM(城市信息模型)相关应用成为新的解决方案,能有效弥补Web(网页浏览)端存在的问题。但UE5引擎(虚幻引擎5)更多的是针对游戏领域,在引擎内部相机的控制都是基于局部平面坐标系,多以第一人称视角的相机控制逻辑,无法满足基于地球的大尺度GIS(地理信息系统)场景的控制。因此亟需一种基于UE5的适用于GIS(地理信息系统)应用的相机控制方法。
发明内容
针对现有技术中的缺陷,本发明提供一种基于UE5的适用于GIS应用的相机控制方法,有利于快速搭建项目,省去了传统中场景控制模块的开发,提升工作效率,且通过UE5的渲染,和数据承载能力提升了可视化效果,提升其可视化体验感。
为达到上述目的,本发明提供了一种基于UE5的适用于GIS应用的相机控制方法,该控制方法包括分别控制场景移动、场景旋转与场景缩放的控制方法,具体如下:
S10、场景移动
S11:获取平移控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,获取该坐标垂直当前视角的法向量V1
S12:以当前空间位置为起始点,并以步骤S11中的法向量V1为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P1,由此计算出起始点到碰撞点的距离D1,该距离D1能够决定场景移动的步长;
S13:获得步长后,当控制点移动时获取到控制点在移动方向上移动的单位向量N1,以该向量N1确定相机需要旋转的方向,通过步长确定旋转的速度,最终实现GIS场景移动。
S20、场景旋转
S21:获取旋转控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,同时获取该坐标垂直当前视角的法向量V2
S22:以当前空间位置为起始点,并以步骤S21中的法向量V2为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P2,同时计算出起始点到碰撞点的距离D2
S23:将相机的旋转轴心设置到碰撞点位置处,以轴心到步骤S22中的距离D2为轴长,结合控制点的偏移值O,通过矩阵变换,实现GIS场景的任意点为轴心的旋转。
S30、场景缩放
S31:获取缩放控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,同时获取该坐标垂直当前视角的法向量V3
S32:以当前空间位置为起始点,并以步骤S31中的法向量V3为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P3,同时计算出起始点到碰撞点的距离D3,D3能够作为缩放速度的系数;
S33:通过碰撞点的坐标P3和相机当前坐标P4求出指向控制点的单位向量V4
S34:确认控制点后视点发生偏移时,相机以视点偏移值作为单次缩放的步长系数S,用步骤S33中的单位向量V4确定相机偏移的方向,结合步长S和距离D3,最后实现GIS场景中以任意点为缩放中心的缩放操作。
UE5引擎在基于局部平面坐标系的应用中,相机的位移控制逻辑相对简单,通常是通过获取鼠标的拖动位移值来控制相机的偏移,从而使相机的位置发生对应的变化,达到场景平移的目的。
本发明在实现局部坐标系相机平移的基础上,实现了基于大地坐标系的相机平移逻辑。
此改进主要需要解决如何在地球球面移动的问题,球体是曲面,这里的移动是无法通过平面移动逻辑来实现的,所以球面的移动本质是实现基于球心为旋转中心的旋转。
本发明不仅包含了局部平面坐标系的平移,也有效的实现了在基于地球坐标系的场景中任意位置的移动。
在UE5引擎中的旋转通常是以第一人称的角色视角的旋转,通过挂靠在角色视线起点的相机来控制视角的旋转,实现比较简单。区别于第一人称的固定轴心点,GIS(地理信息系统)场景的轴心点是不固定的,而是跟随鼠标控制点而确定的。
其中需要解决如何将旋转控制点作为旋转轴心,并通过矩阵变换为相机的旋转。本发明实现在GIS场景中的任意角度,任意位置的自由浏览。
UE5引擎中的常规基于局部坐标系的应用,在做镜头缩放操作时,通常是通过传递鼠标滚轮的值,将该值设为相机沿当前向前法向量方向的位置偏移参数,实现场景的缩放。
其中需要解决如何以控制点为缩放中心实现GIS(地理信息系统)场景缩放。
GIS(地理信息系统)场景中的缩放是基于大地坐标系,以鼠标控制点为中心的场景缩放,通过射线检测判断相机与鼠标控制点对应碰撞点的距离来确定缩放的速度,实现通过缩放快速的到达或离开任意指定的位置并进行自由的浏览。
本发明的有益效果:使用这种基于UE5的适用于GIS(地理信息系统)应用的相机控制方法,可以实现在基于UE5开发GIS应用中能够有一套通用的相机控制方法,属于GIS项目中的刚性需求,有利于快速搭建项目。满足对GIS场景的任意坐标位置的自由浏览,快速定位到世界坐标系中的任意项目所在地,并进行自由浏览。使用该控制方法,再结合UE5引擎出色的渲染能力、强大数据承载力,极大的提高GIS应用的渲染效果,很大程度上提升了可视化体验感。对于开发者而言也省去了场景控制这个核心模块的开发,很大程度上提升了开发效率。为GIS应用开发领域提供了有效的解决方案。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明中UE5引擎中GIS场景的相机平移控制方法流程图;
图2本发明中平移控制方法的具体实施例图;
图3为本发明中UE5引擎中GIS场景的相机旋转控制方法流程图;
图4本发明中平旋转控制方法的具体实施例图;
图5为本发明中UE5引擎中GIS场景的相机缩放控制方法流程图;
图6本发明中缩放控制方法的具体实施例图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
需要说明的是:在UE5引擎在基于局部平面坐标系的应用中,相机的控制逻辑相对简单,通常是通过获取鼠标的拖动位移值来控制相机的偏移,从而使相机的位置发生对应的变化,达到场景平移的目的(鼠标移动->获取移动值->将值添加到相机的偏移量->场景移动)。
在UE5引擎中的旋转通常是以第一人称的角色视角的旋转,通过挂靠在角色视线起点的相机来控制视角的旋转,实现比较简单,其基本逻辑是:直接获取鼠标的上下/左右(MoveUp/MoveRight)偏移值,将偏移赋值于相机的旋转量最后实现场景的旋转。
UE5引擎中的常规基于局部坐标系的应用,在做镜头缩放操作时,通常是通过传递鼠标滚轮的值,将该值设为相机沿当前向前法向量(Forward Vector)方向的位置偏移参数,实现场景的缩放。
而在GIS(地理信息系统)场景中,场景的基本对象为地球球体,因为地球是有曲率存在的,所以本发明解决了GIS场景的的各类操作如何能够基于UE5引擎来控制。具体如下:
在GIS(地理信息系统)场景中的旋转是基于大地坐标系,以鼠标控制点为轴心的旋转,实现GIS(地理信息系统)场景的任意角度,任意位置的自由浏览。区别于第一人称的固定轴心点,GIS(地理信息系统)场景的轴心点是不固定的,而是跟随鼠标控制点而确定的。具体实现有以下步骤:
S10、场景移动
如图1、图2所示,在GIS(地理信息系统)场景中的旋转是基于大地坐标系,以鼠标控制点为轴心的旋转,实现GIS(地理信息系统)场景的任意角度,任意位置的自由浏览。区别于第一人称的固定轴心点,GIS(地理信息系统)场景的轴心点是不固定的,而是跟随鼠标控制点而确定的。具体实现有以下步骤:
Step11:当鼠标(或触控)确定平移起始点时,获取鼠标当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,获取该坐标垂直当前视角的法向量V1
Step12:从当前空间位置为起始点,以Step11中的法向量为发射方向发射一条射线,射线碰撞到地面某点时获取碰撞点的坐标P1,此刻可计算出起始点到碰撞点的距离D1,该距离将决定场景移动的步长。
Step13:获得移动步长后,当鼠标移动时获取到鼠标移动方向的单位向量N1,以该向量确定相机需要旋转的方向,步长确定旋转的速度,最终实现GIS(地理信息系统)场景中的平移(Move)操作。
S20、场景旋转
如图3、图4所示,在GIS(地理信息系统)场景中的旋转是基于大地坐标系,以鼠标控制点为轴心的旋转,实现GIS(地理信息系统)场景的任意角度,任意位置的自由浏览。区别于第一人称的固定轴心点,GIS(地理信息系统)场景的轴心点是不固定的,而是跟随鼠标控制点而确定的。具体实现有以下步骤:
Step21:当鼠标(或触控)确定场景中的某点为旋转轴心时,获取鼠标当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,获取该坐标垂直当前视角的法向量V2
Step22:从当前空间位置为起始点,以Step21中的法向量为发射方向发射一条射线,射线碰撞到地面某点时获取碰撞点的坐标P2,同时计算出起始点到碰撞点的距离D2
Step23:将相机的旋转轴心设置到碰撞点位置,以轴心到Step2中的距离D2为轴长,结合鼠标的偏移值O,通过矩阵变换,实现场景的任意点为轴心的旋转;
S30、场景缩放
如图5、图6所示,GIS(地理信息系统)场景中的缩放是基于大地坐标系,以鼠标控制点为中心的场景缩放,通过射线检测判断相机与鼠标控制点对应碰撞点的距离来确定缩放的速度,实现通过缩放快速的到达或离开任意指定的位置并进行自由的浏览。具体步骤如下:
Step31:当鼠标确定缩放控制点时,获取鼠标当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,同时获取该坐标垂直当前视角的法向量V3
Step32:从当前空间位置为起始点,以Step31中的法向量V3为发射方向发射一条射线,射线碰撞到地面某点时获取碰撞点的坐标P,同时计算出起始点到碰撞点的距离D3,D3可作为缩放速度的系数之一;
Step33:通过碰撞点的坐标P3和相机当前坐标P4求出指向控制点的单位向量V4
Step34:鼠标确认控制点后滚轮发生偏移时,相机以滚轮偏移值作为单次缩放的步长系数S,用Step33中的单位向量V4确定相机偏移的方向,结合步长S和距离D3,最后实现GIS(地理信息系统)场景中沿任意点为缩放中心的缩放操作。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (3)

1.一种基于UE5的适用于GIS应用的相机控制方法,其特征在于,包括分别控制场景移动、场景旋转与场景缩放的控制方法,具体如下:
S10、场景移动
S11:获取平移控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,获取该坐标垂直当前视角的法向量V1
S12:以当前空间位置为起始点,并以步骤S11中的法向量V1为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P1由此计算出起始点到碰撞点的距离D1,该距离D1能够决定场景移动的步长;
S13:获得步长后,当控制点移动时获取到控制点在移动方向上移动的单位向量N1,以该向量N1确定相机需要旋转的方向,通过步长确定旋转的速度,最终实现GIS场景移动;
S20、场景旋转
S21:获取旋转控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,同时获取该坐标垂直当前视角的法向量V2
S22:以当前空间位置为起始点,并以步骤S21中的法向量V2为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P2同时计算出起始点到碰撞点的距离D2
S23:将相机的旋转轴心设置到碰撞点位置处,以轴心到步骤S22中的距离D2为轴长,结合控制点的偏移值O,通过矩阵变换,实现GIS场景的任意点为轴心的旋转;
S30、场景缩放
S31:获取缩放控制点在当前的屏幕坐标位置,并将屏幕位置转化为对应的空间坐标位置,同时获取该坐标垂直当前视角的法向量V3
S32:以当前空间位置为起始点,并以步骤S31中的法向量V3为发射方向发射一条射线,射线与目标曲面碰撞并获取碰撞点的坐标P3,同时计算出起始点到碰撞点的距离D3,D3能够作为缩放速度的系数;
S33:通过碰撞点的坐标P3和相机当前坐标P4求出指向控制点的单位向量V4
S34:确认控制点后视点发生偏移时,相机以视点偏移值作为单次缩放的步长系数S,用步骤S33中的单位向量V4确定相机偏移的方向,结合步长S和距离D3,最后实现GIS场景中以任意点为缩放中心的缩放操作。
2.根据权利要求1所述的一种基于UE5的适用于GIS应用的相机控制方法,其特征在于,所述控制点包括以鼠标或触控方式进行操作时确定的控制点。
3.根据权利要求1所述的一种基于UE5的适用于GIS应用的相机控制方法,其特征在于,所述目标曲面为三维地球表面。
CN202210438988.4A 2022-04-25 2022-04-25 一种基于ue5的适用于gis应用的相机控制方法 Active CN114546141B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210438988.4A CN114546141B (zh) 2022-04-25 2022-04-25 一种基于ue5的适用于gis应用的相机控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210438988.4A CN114546141B (zh) 2022-04-25 2022-04-25 一种基于ue5的适用于gis应用的相机控制方法

Publications (2)

Publication Number Publication Date
CN114546141A CN114546141A (zh) 2022-05-27
CN114546141B true CN114546141B (zh) 2022-07-12

Family

ID=81667698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210438988.4A Active CN114546141B (zh) 2022-04-25 2022-04-25 一种基于ue5的适用于gis应用的相机控制方法

Country Status (1)

Country Link
CN (1) CN114546141B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013185617A1 (zh) * 2012-06-11 2013-12-19 华为技术有限公司 视频获取方法、设备及系统
WO2018076038A1 (en) * 2016-10-31 2018-05-03 Victoria Link Limited A rendering process and system
CN110379014A (zh) * 2019-07-30 2019-10-25 招商局重庆交通科研设计院有限公司 基于bim+vr技术的交互式道路仿真方法及平台
US10931889B1 (en) * 2020-05-22 2021-02-23 Disney Enterprises, Inc. System and method for providing landscape and portrait oriented images of a common scene on separate feeds with independent image controls
CN112632683A (zh) * 2020-12-30 2021-04-09 苏州美房云客软件科技股份有限公司 基于虚幻引擎的数字孪生城市空间定位方法、装置及存储介质
CN113436307A (zh) * 2021-08-27 2021-09-24 速度时空信息科技股份有限公司 基于osgEarth影像数据到UE4场景的映射算法
WO2021250734A1 (ja) * 2020-06-08 2021-12-16 日本電信電話株式会社 座標変換装置、座標変換方法、及び座標変換プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679687A (zh) * 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 一种智能跟踪高速球机的目标跟踪的方法
CN104748746B (zh) * 2013-12-29 2017-11-03 刘进 智能机姿态测定及虚拟现实漫游方法
CN112749244A (zh) * 2020-12-30 2021-05-04 苏州美房云客软件科技股份有限公司 基于虚幻引擎的数字孪生城市空间坐标系实现方法、装置及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013185617A1 (zh) * 2012-06-11 2013-12-19 华为技术有限公司 视频获取方法、设备及系统
WO2018076038A1 (en) * 2016-10-31 2018-05-03 Victoria Link Limited A rendering process and system
CN110379014A (zh) * 2019-07-30 2019-10-25 招商局重庆交通科研设计院有限公司 基于bim+vr技术的交互式道路仿真方法及平台
US10931889B1 (en) * 2020-05-22 2021-02-23 Disney Enterprises, Inc. System and method for providing landscape and portrait oriented images of a common scene on separate feeds with independent image controls
WO2021250734A1 (ja) * 2020-06-08 2021-12-16 日本電信電話株式会社 座標変換装置、座標変換方法、及び座標変換プログラム
CN112632683A (zh) * 2020-12-30 2021-04-09 苏州美房云客软件科技股份有限公司 基于虚幻引擎的数字孪生城市空间定位方法、装置及存储介质
CN113436307A (zh) * 2021-08-27 2021-09-24 速度时空信息科技股份有限公司 基于osgEarth影像数据到UE4场景的映射算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于Arcball的数字地球交互漫游方法研究;申闫春等;《计算机仿真》;20101015(第10期);230-233 *
基于UE4引擎的营区规划可视化应用;张斌等;《科技传播》;20180410(第07期);70-71 *

Also Published As

Publication number Publication date
CN114546141A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
KR102590841B1 (ko) 가상 오브젝트 구동 방법, 장치, 전자기기 및 판독 가능 저장매체
EP2279497B1 (en) Swoop navigation
CN102538802B (zh) 三维导航显示方法以及相关装置
CA2818695C (en) Guided navigation through geo-located panoramas
CN100573592C (zh) 一种在图形处理器上拾取三维几何图元的方法
CN107369205B (zh) 一种移动终端城市二三维联动显示方法
CN112233215B (zh) 轮廓渲染方法、装置、设备及存储介质
CN104915979A (zh) 跨移动平台实现沉浸式虚拟现实的系统
JP2013534656A (ja) 適応的で革新的なモバイルデバイスのストリートビュー
CN105095314A (zh) 一种兴趣点的标注方法、终端、导航服务器及导航系统
CN107330980A (zh) 一种基于无标志物的虚拟家具布置系统
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
WO2013173948A1 (zh) 一种在三维虚拟现实场景中的物体空间摆位方法及装置
CN114546141B (zh) 一种基于ue5的适用于gis应用的相机控制方法
CN115328304A (zh) 一种2d-3d融合的虚拟现实交互方法及设备
CN114299209A (zh) 水面渲染方法、装置、存储介质及计算机设备
CN113052753B (zh) 全景拓扑结构的生成方法、装置、设备及可读存储介质
CN108694257A (zh) 在Web浏览器中浏览BIM模型时能对观察点进行准确定位的方法
CN104768018A (zh) 一种基于深度图的快速视点预测方法
KR100915084B1 (ko) 가상공간에서의 캐릭터 이동 전환 방법 및 시스템
CN117021117B (zh) 一种基于混合现实的移动机器人人机交互与定位方法
Wang et al. Visual-perception-driven Urban Three-dimensional Scene Data Scheduling Method.
CN105597313B (zh) 一种球状场景展示方法和展示装置
CN108647222B (zh) 一种线路三维漫游热点图标定位方法及系统
CN113093901B (zh) 全景画面显示方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220830

Address after: 400000 1-2, building 24, No. 7, Jinchang Road, North New Area, Chongqing

Patentee after: Chongqing SUDI Technology Co.,Ltd.

Address before: 610000 No. 1610, floor 16, unit 1, building 1, No. 1700, north section of Tianfu Avenue, Chengdu hi tech Zone, Chengdu pilot Free Trade Zone, Sichuan Province

Patentee before: Chengdu roushui Technology Co.,Ltd.

TR01 Transfer of patent right