CN111325842B - 地图构建方法、重定位方法及装置、存储介质和电子设备 - Google Patents

地图构建方法、重定位方法及装置、存储介质和电子设备 Download PDF

Info

Publication number
CN111325842B
CN111325842B CN202010142780.9A CN202010142780A CN111325842B CN 111325842 B CN111325842 B CN 111325842B CN 202010142780 A CN202010142780 A CN 202010142780A CN 111325842 B CN111325842 B CN 111325842B
Authority
CN
China
Prior art keywords
point information
key frame
characteristic point
feature
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010142780.9A
Other languages
English (en)
Other versions
CN111325842A (zh
Inventor
曾凡涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010142780.9A priority Critical patent/CN111325842B/zh
Publication of CN111325842A publication Critical patent/CN111325842A/zh
Priority to EP21765065.4A priority patent/EP4113451A4/en
Priority to PCT/CN2021/071890 priority patent/WO2021175022A1/zh
Priority to US17/823,927 priority patent/US20220415010A1/en
Application granted granted Critical
Publication of CN111325842B publication Critical patent/CN111325842B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

本公开提供了一种地图构建方法、重定位方法、地图构建装置、重定位装置、计算机可读存储介质和电子设备,涉及增强现实技术领域。该地图构建方法包括:获取目标关键帧,对目标关键帧进行特征提取,得到目标关键帧的特征点信息,并确定与目标关键帧的特征点信息对应的语义信息;获取目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;根据特征匹配结果生成局部地图点信息,以结合局部地图点信息构建地图。本公开可以提高增强现实方案中特征匹配的精确度,进而提升建图与重定位过程的准确度。

Description

地图构建方法、重定位方法及装置、存储介质和电子设备
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种地图构建方法、重定位方法、地图构建装置、重定位装置、计算机可读存储介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种把虚拟世界和现实世界融合的技术,该技术已广泛应用到教育、游戏、医疗、物联网、智能制造等多个领域。
在多人AR技术中,建图和重定位的方案均涉及到特征匹配的过程,特征匹配对AR体验起着至关重要的作用。然而,由于建图设备与重定位设备之间的视角变化、距离变化以及环境因素等影响,可能会出现特征误匹配的问题,导致建图和重定位的鲁棒性不高,最终影响多人AR的用户体验。
发明内容
本公开提供一种地图构建方法、重定位方法、地图构建装置、重定位装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服在多人AR方案中特征匹配精确度不高的问题。
根据本公开的第一方面,提供了一种地图构建方法,包括:获取目标关键帧,对目标关键帧进行特征提取,得到目标关键帧的特征点信息,并确定与目标关键帧的特征点信息对应的语义信息;获取目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;根据特征匹配结果生成局部地图点信息,以结合局部地图点信息构建地图。
根据本公开的第二方面,提供了一种重定位方法,包括:获取当前帧,对当前帧进行特征提取,得到当前帧的特征点信息,并确定与当前帧的特征点信息对应的语义信息;从用于构建地图的关键帧集合中检索出与当前帧相似的关键帧,获取关键帧的特征点信息以及对应的语义信息;确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合特征匹配结果计算当前帧在建图设备坐标系下的位姿;利用当前帧在建图设备坐标系下的位姿以及当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系。
根据本公开的第三方面,提供了一种地图构建装置,包括:目标关键帧处理模块,用于获取目标关键帧,对目标关键帧进行特征提取,得到目标关键帧的特征点信息,并确定与目标关键帧的特征点信息对应的语义信息;第一信息获取模块,用于获取目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;匹配结果确定模块,用于确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;地图构建模块,用于根据特征匹配结果生成局部地图点信息,以结合局部地图点信息构建地图。
根据本公开的第四方面,提供了一种重定位装置,包括:当前帧处理模块,用于获取当前帧,对当前帧进行特征提取,得到当前帧的特征点信息,并确定与当前帧的特征点信息对应的语义信息;第二信息获取模块,用于从用于构建地图的关键帧集合中检索出与当前帧相似的关键帧,获取关键帧的特征点信息以及对应的语义信息;第一位姿计算模块,用于确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合特征匹配结果计算当前帧在建图设备坐标系下的位姿;第二位姿计算模块,用于利用当前帧在建图设备坐标系下的位姿以及当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系。
根据本公开的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的地图构建方法或重定位方法。
根据本公开的第六方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的地图构建方法或重定位方法。
在本公开的一些实施例所提供的技术方案中,基于地图构建方案,确定出目标关键帧的特征点信息及对应的语义信息,确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,根据特征匹配结果生成局部地图点信息,以便结合局部地图点信息构建地图。基于重定位方案,确定当前帧与相似关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合特征匹配结果计算当前帧在建图设备坐标系下的位姿,利用此位姿以及当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系,完成重定位。一方面,在建图和重定位方案中结合语义信息进行特征匹配,可以减少误匹配的情况,提高了特征匹配的精确度,增强了建图和重定位的鲁棒性,进而显著地提升了多人AR的用户体验;另一方面,本公开建图和重定位的方案不限制执行端,可以由参与多人AR的终端设备执行本公开建图和重定位的过程,还可以由云端执行具体的操作过程。在云端执行本公开方案的情况下,由于计算资源的约束较小,因此,大大扩展了多人AR的应用场景。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的地图构建方案或重定位方案的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的地图构建方法的流程图;
图4示意性示出了根据本公开一个实施例的地图构建整个过程的流程图;
图5示意性示出了根据本公开的示例性实施方式的重定位方法的流程图;
图6示意性示出了根据本公开一个实施例的重定位整个过程的流程图;
图7示意性示出了根据本公开的示例性实施方式的地图构建装置的方框图;
图8示意性示出了根据本公开的示例性实施方式的重定位装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”、“第三”、“第四”等仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的地图构建方案或重定位方案的示例性系统架构的示意图。
如图1所示,实现本公开多人AR方案的系统架构可以包括建图设备11、重定位设备12和云端13。
针对本公开地图构建的示例性方案:
建图设备11可以通过其配置的摄像头111获取到图像信息,并通过惯性测量单元112获取到惯性信息。将图像信息和惯性信息发送给即时定位与地图构建单元113,即时定位与地图构建单元113可以将图像信息和对应的位姿发送给云端13的建图模块132。
云端13的建图模块132可以判断该帧数据是否可作为关键帧(为了区别描述,记作目标关键帧),在可以作为目标关键帧时,对该目标关键帧进行特征提取,得到目标关键帧的特征点信息,并利用语义分割的方式确定出该特征点信息对应的语义信息。建图模块132可以获取上一个关键帧的特征点信息和对应的语义信息。接下来,建图模块132可以确定目标关键帧与上一个关键帧之间的语义信息匹配且特征点信息匹配的特征匹配结果,并根据该特征匹配结果生成局部地图点信息,在对各图像帧均执行上述操作后,即可构建出地图。
针对本公开重定位的示例性方案:
重定位设备12可以通过其配置的摄像头121获取到当前帧图像,并通过惯性测量单元122获取到对应的惯性信息,即时定位与地图构建单元123可以将当前帧图像和对应的位姿发送给云端13的重定位模块133。
云端13的重定位模块133可以对当前帧进行特征提取,得到当前帧的特征点信息,并利用语义分割的方式确定该特征点信息对应的语义信息。重定位模块133可以从建图的关键帧集合中检索出与当前帧相似的关键帧,并获取该关键帧的特征点信息和对应的语义信息。接下来,重定位模块133可以确定当前帧与关键帧之间的语义信息匹配且特征点信息匹配的特征匹配结果,并结合该特征匹配结果计算当前帧在建图设备11的坐标系下的位姿,鉴于可以获取到当前帧在重定位设备12的坐标系下的位姿,因此,可以求解出重定位设备12与建图设备11之间的相对位姿关系,即完成重定位。
另外,建图设备11可以通过应用程序114配置锚点,并将锚点信息发送给云端13的锚点管理模块131。重定位设备12可以通过应用程序124将配置的锚点信息发送给云端13的锚点管理模块131。由此,基于重定位模块133确定出的相对位姿关系,即可以实现在建图设备11和重定位设备12上均同时呈现由建图设备11配置的虚拟对象和由重定位设备12配置的虚拟对象,进而实现多人AR的交互过程。
在上面的示例性描述中,本公开的地图构建方案和重定位方案均由云端13实现,也就是说,下面所述方法的各步骤由云端13执行,方法对应的装置可以配置在云端13中。由此,避免了终端设备执行处理过程计算能力受限制的问题。
虽然在下面的详细描述中,以云端执行方案的过程进行说明。然而,需要注意的是,本公开的地图构建方案可以由上述建图设备11实现,也就是说,下面所述的地图构建方法的各步骤可以由建图设备11执行,对应的地图构建装置可以配置于建图设备11。另外,本公开的重定位方案可以由上述重定位设备12实现,也就是说,下面所述的重定位方法的各步骤可以由重定位设备12执行,对应的重定位装置可以配置于重定位设备12。
在这种情况下,本公开示例性方案可以没有云端13的参与,直接由建图设备11和重定位设备12实现。另外,需要注意的是,建图设备11与重定位设备12并非绝对的限制,在一些情况下,建图设备11需要进行重定位操作时可作为重定位设备,重定位设备12在进入新的场景进行建图时,可作为建图设备。
本公开对建图设备和重定位设备的类型不做限制,可以例如是手机、平板电脑、AR头盔、AR眼镜等。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开所述的建图设备和重定位设备可以配置为如图2所示的电子设备。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的地图构建方法或重定位方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803、气压传感器2804、磁传感器2805、加速度传感器2806、距离传感器2807、接近光传感器2808、指纹传感器2809、温度传感器2810、触摸传感器2811、环境光传感器2812及骨传导传感器2813等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200包括的传感器,深度传感器2801用于获取景物的深度信息。压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器2803可以用于确定电子设备200的运动姿态。气压传感器2804用于测量气压。磁传感器2805包括霍尔传感器。电子设备200可以利用磁传感器2805检测翻盖皮套的开合。加速度传感器2806可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器2807用于测量距离。接近光传感器2808可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器2809用于采集指纹。温度传感器2810用于检测温度。触摸传感器2811可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器2812用于感知环境光亮度。骨传导传感器2813可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
下面将以云端执行地图和重定位过程为例对本公开示例性方案进行说明。
图3示意性示出了本公开的示例性实施方式的地图构建方法的流程图。参考图3,所述地图构建方法可以包括以下步骤:
S32.获取目标关键帧,对目标关键帧进行特征提取,得到目标关键帧的特征点信息,并确定与目标关键帧的特征点信息对应的语义信息。
在本公开的示例性实施方式中,建图设备在扫描场景时,可以向云端输出图像帧和对应的位姿信息,该位姿信息可以例如是6DOF(6 Degrees Of Freedom,6自由度)位姿信息。
云端在获取到图像帧时,可以判断该图像帧是否可以作为关键帧。如果可以作为关键帧,则可以将该图像帧称为目标关键帧,以与下述其他关键帧进行区分。
判断一图像帧是否可以作为目标关键帧的条件可以包括下述一种或多种的组合:第一,云端可以判断该图像帧与上一个关键帧之间相机的基线距离是否满足于预设距离要求,如果满足,则可以将该图像帧作为目标关键帧,其中,预设距离要求可以跟根据实际精度需要自行设计,本公开对此不做限制;第二,云端可以预估该图像帧的特征点的数量,如果特征点的数量大于数量阈值,则可以将该图像帧作为目标关键帧,其中,本公开对数量阈值的具体取值不做限制,例如,可以设定为500;第三,云端可以判断该图像帧与上一个关键帧之间相机的旋转角度是否满足预设角度要求,如果满足,则可以将该图像帧作为目标关键帧,其中,本公开对预设角度要求所包含的角度范围也不做限制,保证与上一个关键帧之间存在足够的视差即可。
需要说明的是,在本公开一些实施例中,可以结合上述三种条件进行判断,以确保地图构建的可实施性和准确性。
云端在确定出目标关键帧后,可以对目标关键帧进行特征提取,得到目标关键帧的特征点信息。
根据本公开的一些实施例,云端可以调取特征提取算法及特征描述子。其中,特征提取算法可以包括但不限于FAST特征点检测算法、DOG特征点检测算法、Harris特征点检测算法、SIFT特征点检测算法、SURF特征点检测算法等。特征描述子可以包括但不限于BRIEF特征点描述子、BRISK特征点描述子、FREAK特征点描述子等。
具体的,可以将特征提取算法与特征描述子进行组合,以确定出特征提取模式,例如,特征提取模式可以为FAST特征点检测算法和BRIEF特征点描述子,也可以为DOG特征点检测算法和FREAK特征点描述子。
随后,云端可以基于该特征提取模式对目标关键帧进行特征提取,以得到特征点信息。
另外,还可以利用多组不同的特征提取模式对目标关键帧进行特征提取,以得到不同类型的特征点信息,这些不同类型的特征点信息均可以作为确定出的目标关键帧的特征点信息。
根据本公开的另一些实施例,可以利用机器学习模型来提取目标关键帧的特征点信息,其中,该机器学习模型可以例如是训练后的卷积神经网络。具体的,可以将目标关键帧输入卷积神经网络,卷积神经网络的输出或处理构成中产生的特征图即可对应特征点信息。
鉴于一些建图的场景中可能存在运动对象,如果将运动对象也作为地图构建的一部分,则随着运动对象移动或离开场景,会对随后的重定位过程产生影响。本公开所述运动对象可以例如是人、动物等活体,亦或者是一些移动或明显具有运动属性的物体,本公开对此不做限制。
在这种情况下,如果目标关键帧中存在运动对象,则可以确定出目标关键帧的非运动对象区域。其中,非运动对象区域为不包含运动对象的区域。接下来,云端可以对目标关键帧的非运动对象区域进行特征提取,将提取到的特征点信息作为目标关键帧的特征点信息。可以理解的是,上述处理过程,相当于将运动对象从目标关键帧中剔除,再进行特征提取。
针对确定运动对象的过程,根据本公开的一个实施例,首先,可以对目标关键帧进行对象识别,例如,可以通过分类模型或直接通过特征比对的方式来进行对象识别,本公开对此不做限制。接下来,计算识别出的对象与预设运动对象集合中对象的相似度,如果识别出的的对象与预设运动对象集合中对象的相似度大于相似度阈值,则将识别出的对象确定为运动对象。
针对确定运动对象的过程,根据本公开的另一个实施例,从视频帧图像中获取目标关键帧之前若干帧图像,通过对这些图像进行比对,确定图像中各对象之间相对位置的变化,如果一对象相对其他对象位置发生了变化,则可以将该对象确定为运动对象。
此外,云端还可以确定与目标关键帧的特征点信息对应的语义信息。
在本公开的示例性实施方式中,首先,可以对目标关键帧进行语义分割,以将目标关键帧划分为多个语义区域。例如,可以采用基于深度学习的图像语义分割方法(ImageSemantic Segmentation based on Deep Learning,ISSbDL)来实现对目标关键帧的语义分割。具体可以采用如Segment模型来实现语义分割。
接下来,按语义区域为目标关键帧的像素添加语义标注。这里的语义标注可以是对象类别无关的标识,例如,桌子对应像素的语义标注为1、墙面对应像素的语义标注为2,等等。另外,还可以对目标关键帧进行语义识别,确定出各对象的含义后,添加对应的标注,此时,桌子对应像素的语义标注可能为“zhuozi”。
在确定出目标关键帧上各像素的语义标注的情况下,云端可以确定目标关键帧的特征点信息中各特征点的像素位置信息,可以根据各特征点的像素位置信息获取对应的语义标注,以确定出目标关键帧的特征点信息对应的语义信息。
在本公开的确定目标关键帧的特征点信息对应的语义信息的另一个示例性实施方式中,如果目标关键帧存在运动对象,则可以仅对非运动对象区域进行语义分割,而非上述将整个目标关键帧进行语义分割。在实施例中,鉴于语义分割模型的输入尺寸是固定的,因此,可以先对目标关键帧中运动对象对应的像素重新赋值,例如,均赋值为0。再将赋值后的目标关键帧输入语义分割模型中,以得到与目标关键帧的特征点信息对应的语义信息。
S34.获取目标关键帧的上一个关键帧的特征点信息以及对应的语义信息。
本领域技术人员容易理解的是,在对目标关键帧的上一个关键帧进行处理时,也会执行上述步骤S32中提取特征点信息及语义信息的过程,在此不再赘述。
在确定上一个关键帧的特征点信息以及对应的语义信息之后后,可以存储在云端。在进行到对目标关键帧的处理阶段,可以直接获取上一个关键帧的特征点信息以及对应的语义信息。
S36.确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果。
根据本公开的一些实施例,首先,云端可以将目标关键帧的特征点信息对应的语义信息与上一个关键帧的特征点信息对应的语义信息进行匹配,也就是说,确定对应位置的语义信息是否相同。由此,可以确定出目标关键帧的特征点信息中与上一个关键帧语义匹配的特征点信息,作为第一特征点信息。并确定出上一个关键帧的特征点信息中与目标关键帧语义匹配的特征点信息,作为第二特征点信息;接下来,可以将第一特征点信息与第二特征点信息进行匹配,以得到特征匹配结果。
在这些实施例中,通过先进行算法相对简单的语义匹配,再进行相对复杂的特征点匹配,由此,可以有效节省计算资源。
根据本公开的另一些实施例,首先,云端可以将目标关键帧的特征点信息与上一个关键帧的特征点信息进行匹配,确定出目标关键帧的特征点信息中与上一个关键帧特征点匹配的第三特征点信息,并确定出上一个关键帧的特征点信息中与目标关键帧特征点匹配的第四特征点信息;接下来,获取第三特征点信息对应的语义信息以及第四特征点信息对应的语义信息,并将第三特征点信息对应的语义信息与第四特征点对应的语义信息进行匹配,得到特征匹配结果。
根据本公开的又一些实施例,可以同时进行目标关键帧与上一个关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为特征匹配结果。
S38.根据特征匹配结果生成局部地图点信息,以结合局部地图点信息构建地图。
在本公开的示例性实施方式中,可以对步骤S36确定出的特征匹配结果进行三角化处理,生成与目标关键帧和上一个关键帧相关的局部地图点信息。其中,三角化也被称为三角测量(Triangulation),是指通过在两处观察同一个点的夹角来确定该点的距离。通过三角化的处理,可以得到匹配的特征对应的三维空间信息。
上面的处理仅是针对一个目标关键帧进行的,得到的是该目标关键帧对应的地图点信息。
采用类似的方法,在云端对所有确定出的关键帧均执行上述目标关键帧的处理过程后,可以获取所有关键帧对应的局部地图点信息。接下来,云端对所有关键帧及局部地图点信息进行全局非线性优化,相当于三维信息及位姿信息均被优化,以生成完整的地图信息,建图过程完毕。
关于全局非线性优化,每个关键帧均对应地图上三维坐标信息,将三维坐标信息映射到关键帧上,这些三维坐标信息存在匹配的二维信息,再将位姿信息映射到关键帧上,结合二维信息进行残差处理,利用残差的总和构建代价函数,不断进行迭代处理,在残差小于一阈值时,优化完成。
此外,需要说明的是,云端可以实时接收建图设备发送的图像数据及位姿数据,执行上述处理过程。云端还可以在接收完建图设备发送的所有图像数据及位姿数据后,再开始逐帧进行处理。本公开对此不做限制。
下面将参考图4对本公开一个实施例的地图构造方法的整个过程进行说明。
在步骤S402中,云端获取一图像帧;在步骤S404中,判断该图像帧是否可以作为目标关键帧,在可以作为目标关键帧时,执行步骤S406,在不可作为目标关键帧时,返回步骤S402。
在步骤S406中,云端可以对目标关键帧进行特征提取,得到特征点信息,并结合语义分割方法确定出特征点信息对应的语义信息。其中,如果目标关键帧中存在运动对象,则可以将运动对象从目标关键帧中剔除后再执行特征提取的操作。
在步骤S408中,云端将目标关键帧与上一个关键帧进行语义匹配和特征点匹配,得到特征匹配结果。
在步骤S410中,云端利用特征匹配结果进行三角化处理,得到局部地图点信息。
在步骤S412中,云端判断是否建图设备上传的所有图像帧均处理完成,如果未完成,则返回步骤S402。如果完成,则执行步骤S414。
在步骤S414中,云端执行全局非线性优化,得到地图数据,由此,地图构建完毕。
此外,云端还可以接收建图设备发送的锚点信息并存储,以便随后执行多人AR的虚拟对象配置操作。
综上所述,基于本公开示例性实施方式的地图构建方法,一方面,在建图中结合语义信息进行特征匹配,可以减少误匹配的情况,提高了特征匹配的精确度,提升了建图准确性,有助于优化多人AR的用户体验;另一方面,本公开建图方案不限制执行端,可以由建图设备执行本公开建图的过程,还可以由云端执行具体的操作过程。在云端执行本公开方案的情况下,由于计算资源的约束较小,因此,大大扩展了多人AR的应用场景。
进一步的,本示例实施方式中还提供了一种重定位方法。
图5示意性示出了本公开的示例性实施方式的重定位方法的流程图。参考图5,所述重定位方法可以包括以下步骤:
S52.获取当前帧,对当前帧进行特征提取,得到当前帧的特征点信息,并确定与当前帧的特征点信息对应的语义信息。
在本公开的示例性实施方式中,重定位设备在获取到当前帧后,可以向云端输出当前帧的图像信息和位姿信息。
根据本公开的一些实施例,云端可以调取特征提取算法及特征描述子,确定特征提取模式,利用特征提取模式对当前帧进行特征提取。另外,还可以利用多组不同类型的特征提取模式对当前帧进行特征提取,本公开对此不做限制。
根据本公开的另一些实施例,可以利用机器学习模型来提取当前帧的特征点信息,其中,该机器学习模型可以例如是训练后的卷积神经网络。具体的,可以将当前帧输入卷积神经网络,卷积神经网络的输出或处理构成中产生的特征图即可对应特征点信息。
鉴于当前帧的场景中可能存在运动对象,为了避免误匹配,在提取特征点信息之前,需要将运动对象从当前帧中剔除。
具体的,如果当前帧中存在运动对象,则可以确定出当前帧的非运动对象区域。其中,非运动对象区域为不包含运动对象的区域。接下来,云端可以对当前帧的非运动对象区域进行特征提取,将提取到的特征点信息作为当前帧的特征点信息。
针对确定运动对象的过程,根据本公开的一个实施例,首先,可以对当前帧进行对象识别,例如,可以通过分类模型或直接通过特征比对的方式来进行对象识别,本公开对此不做限制。接下来,计算识别出的对象与预设运动对象集合中对象的相似度,如果识别出的的对象与预设运动对象集合中对象的相似度大于相似度阈值,则将识别出的对象确定为运动对象。
此外,云端还可以确定与当前帧的特征点信息对应的语义信息。
在本公开的示例性实施方式中,首先,可以对当前帧进行语义分割,以将当前帧划分为多个语义区域。例如,可以采用基于深度学习的图像语义分割方法来实现对当前帧的语义分割。具体可以采用如Segment模型来实现语义分割。
接下来,按语义区域为当前帧的像素添加语义标注。这里的语义标注可以是对象类别无关的标识,例如,桌子对应像素的语义标注为1、墙面对应像素的语义标注为2,等等。另外,还可以对当前帧进行语义识别,确定出各对象的含义后,添加对应的标注,此时,桌子对应像素的语义标注可能为“zhuozi”。
在确定出当前帧上各像素的语义标注的情况下,云端可以确定当前帧的特征点信息中各特征点的像素位置信息,可以根据各特征点的像素位置信息获取对应的语义标注,以确定出当前帧的特征点信息对应的语义信息。
在本公开的确定当前帧的特征点信息对应的语义信息的另一个示例性实施方式中,如果当前帧存在运动对象,则可以仅对非运动对象区域进行语义分割,而非上述将整个当前帧进行语义分割。在实施例中,鉴于语义分割模型输入尺寸是固定的,因此,可以先对当前帧中运动对象对应的像素重新赋值,例如,均赋值为0。再将赋值后的当前帧输入语义分割模型中,以得到与当前帧的特征点信息对应的语义信息。
S54.从用于构建地图的关键帧集合中检索出与当前帧相似的关键帧,获取关键帧的特征点信息以及对应的语义信息。
云端可以从建图时存储的关键帧集合中检索出与当前帧相似的关键帧。本公开示例性实施方式对检索相似的关键帧的过程不做限制,例如,可以将当前帧转换为向量,获取各预存关键帧的向量,计算向量间的距离来确定相似度,在相似度满足要求时,认为该关键帧是与当前帧相似的关键帧。
基于上述地图构建方法已确定出的关键帧的特征点信息以及对应的语义信息,在确定出与当前帧相似的关键帧后,云端可以直接获取该关键帧的特征点信息以及对应的语义信息。
S56.确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合特征匹配结果计算当前帧在建图设备坐标系下的位姿。
根据本公开的一些实施例,首先,云端可以将当前帧的特征点信息对应的语义信息与关键帧的特征点信息对应的语义信息进行匹配,也就是说,确定对应位置的语义信息是否相同。由此,可以确定出当前帧的特征点信息中与关键帧语义匹配的特征点信息,作为第五特征点信息。并确定出关键帧的特征点信息中与当前帧语义匹配的特征点信息,作为第六特征点信息;接下来,可以将第五特征点信息与第六特征点信息进行匹配,以得到特征匹配结果。
在这些实施例中,通过先进行算法相对简单的语义匹配,再进行相对复杂的特征点匹配,可以有效节省计算资源。
根据本公开的另一些实施例,首先,云端可以将当前帧的特征点信息与关键帧的特征点信息进行匹配,确定出当前帧的特征点信息中与关键帧特征点匹配的第七特征点信息,并确定出关键帧的特征点信息中与当前帧特征点匹配的第八特征点信息;接下来,获取第七特征点信息对应的语义信息以及第八特征点信息对应的语义信息,并将第七特征点信息对应的语义信息与第八特征点对应的语义信息进行匹配,得到特征匹配结果。
根据本公开的又一些实施例,可以同时进行当前帧与关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为特征匹配结果。
在确定出特征匹配结果后,云端可以结合该特征匹配结果计算当前帧在建图设备坐标系下的位姿。
首先,特征匹配结果将当前帧与关键帧进行了二维信息到二维信息上的关联,而关键帧的特征点信息在建图设备坐标系下的三维地图点信息是已确定出的,由此,可以将当前帧的特征点信息与关键帧在建图设备坐标系下的三维地图点信息相关联,这样可以得到点对信息。
接下来,可以利用该点对信息计算当前帧在建图设备坐标系下的位姿。具体的,可以将该点对信息作为输入,求解透视n点(Perspective-n-Point,PnP)问题,即可得到当前帧在建图设备坐标系下的位姿。其中,PnP是机器视觉领域的经典方法,可以根据物体上的n个特征点来确定摄像头与物体间的相对位姿。具体可以根据物体上的n个特征点来确定摄像头与物体间的旋转矩阵和平移向量。另外,可以例如将n确定为大于等于4。
另外,针对计算当前帧在建图设备坐标系下的位姿的过程,本公开还可以结合迭代最近点(Iterative Closest Point,ICP)的方法确定出,本公开对此类过程不做特殊限制。
S58.利用当前帧在建图设备坐标系下的位姿以及当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系。
在步骤S56确定出当前帧在建图设备坐标系下的位姿的情况下,可以结合当前帧在重定位设备坐标系下的位姿,计算出建图设备与重定位设备之间的相对位姿关系。
下面将参考图6对本公开一个实施例的重定位方法的整个过程进行说明。
在步骤S602中,云端获取重定位设备发送的当前帧;在步骤S604中,云端可以对当前帧进行特征提取,得到特征点信息,并结合语义分割方法确定出特征点信息对应的语义信息。其中,如果当前帧中存在运动对象,则可以将运动对象从当前帧中剔除后再执行特征提取的操作。
在步骤S606中,云端可以从预先存储的用于建图的关键帧集合中检索出与当前帧相似的关键帧;在步骤S608中,云端可以获取该关键帧的特征点信息和对应的语义信息。
在步骤S610中,云端可以将当前帧与关键帧进行语义匹配和特征点匹配,得到特征匹配结果;在步骤S612中,云端可以利用特征匹配结果求解PnP,求解的结果可以是当前帧在建图设备坐标系下的位姿。
在步骤S614中,云端可以根据PnP求解结果得到建图设备与重定位设备之间的相对位姿关系。
在确定了建图设备与重定位设备之间的相对位姿关系后,云端可以将建图设备配置的虚拟对象转换到重定位设备上进行显示。重定位设备也可以配置虚拟对象,将该虚拟对象通过云端发送给建图设备进行显示,由此,可以进一步实现多人AR的交互过程。
综上所述,基于本公开示例性实施方式的重定位方法,一方面,在重定位过程中结合语义信息进行特征匹配,可以减少误匹配的情况,提高了特征匹配的精确度,提升了重定位的鲁棒性,有助于优化多人AR的用户体验;另一方面,本公开重定位方案不限制执行端,可以由建图设备执行本公开重定位的过程,还可以由云端执行具体的操作过程。在云端执行本公开方案的情况下,由于计算资源的约束较小,因此,大大扩展了多人AR的应用场景。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种地图构建装置。
图7示意性示出了本公开的示例性实施方式的地图构建装置的方框图。参考图7,根据本公开的示例性实施方式的地图构建装置7可以包括目标关键帧处理模块71、第一信息获取模块73、匹配结果确定模块75和地图构建模块77。
具体的,目标关键帧处理模块71可以用于获取目标关键帧,对目标关键帧进行特征提取,得到目标关键帧的特征点信息,并确定与目标关键帧的特征点信息对应的语义信息;第一信息获取模块73可以用于获取目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;匹配结果确定模块75可以用于确定目标关键帧与上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;地图构建模块77可以用于根据特征匹配结果生成局部地图点信息,以结合局部地图点信息构建地图。
根据本公开的示例性实施例,目标关键帧处理模块71可以被配置为执行:如果目标关键帧中存在运动对象,则确定出目标关键帧的非运动对象区域;其中,非运动对象区域为不包含运动对象的区域;对目标关键帧的非运动对象区域进行特征提取,将提取到的特征点信息作为目标关键帧的特征点信息。
根据本公开的示例性实施例,目标关键帧处理模块71确定运动对象的过程可以被配置为执行:对目标关键帧进行对象识别;计算识别出的对象与预设运动对象集合中对象的相似度;如果识别出的对象与预设运动对象集合中对象的相似度大于相似度阈值,则将识别出的对象确定为运动对象。
根据本公开的示例性实施例,目标关键帧处理模块71确定与目标关键帧的特征点信息对应的语义信息可以被配置为执行:对目标关键帧进行语义分割,以将目标关键帧划分为多个语义区域;按语义区域为目标关键帧的像素添加语义标注;确定目标关键帧的特征点信息中各特征点的像素位置信息,根据各特征点的像素位置信息获取对应的语义标注,以确定出目标关键帧的特征点信息对应的语义信息。
根据本公开的示例性实施例,匹配结果确定模块75可以被配置为执行:将目标关键帧的特征点信息对应的语义信息与上一个关键帧的特征点信息对应的语义信息进行匹配,确定出目标关键帧的特征点信息中与上一个关键帧语义匹配的第一特征点信息,并确定出上一个关键帧的特征点信息中与目标关键帧语义匹配的第二特征点信息;将第一特征点信息与第二特征点信息进行匹配,得到特征匹配结果。
根据本公开的示例性实施例,匹配结果确定模块75还可以被配置为执行:将目标关键帧的特征点信息与上一个关键帧的特征点信息进行匹配,确定出目标关键帧的特征点信息中与上一个关键帧特征点匹配的第三特征点信息,并确定出上一个关键帧的特征点信息中与目标关键帧特征点匹配的第四特征点信息;获取第三特征点信息对应的语义信息以及第四特征点信息对应的语义信息;将第三特征点信息对应的语义信息与第四特征点信息对应的语义信息进行匹配,得到特征匹配结果。
根据本公开的示例性实施例,地图构建模块77根据特征匹配结果生成局部地图点信息的过程可以被配置为执行:对特征匹配结果进行三角化处理,生成与目标关键帧和上一个关键帧相关的局部地图点信息。
根据本公开的示例性实施例,地图构建模块77结合局部地图点信息构建地图的过程可以被配置为执行:获取包括目标关键帧在内的所有关键帧对应的局部地图点信息;对所有关键帧以及对应的局部地图点信息进行全局非线性优化,以生成地图数据。
根据本公开的示例性实施例,将一图像帧确定为目标关键帧的条件包括以下一种或多种的组合:图像帧与上一个关键帧之间相机的基线距离满足预设距离要求;图像帧的特征点数量大于数量阈值;图像帧与上一个关键帧之间相机的旋转角度满足预设角度要求。
由于本公开实施方式的地图构建装置的各个功能模块与上述地图构建方法实施方式中相同,因此在此不再赘述。
进一步的,本示例实施方式中还提供了一种重定位装置。
图8示意性示出了本公开的示例性实施方式的重定位装置的方框图。参考图8,根据本公开的示例性实施方式的重定位装置8可以包括当前帧处理模块81、第二信息获取模块83、第一位姿计算模块85和第二位姿计算模块87。
具体的,当前帧处理模块81可以用于获取当前帧,对当前帧进行特征提取,得到当前帧的特征点信息,并确定与当前帧的特征点信息对应的语义信息;第二信息获取模块83可以用于从用于构建地图的关键帧集合中检索出与当前帧相似的关键帧,获取关键帧的特征点信息以及对应的语义信息;第一位姿计算模块85可以用于确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合特征匹配结果计算当前帧在建图设备坐标系下的位姿;第二位姿计算模块87可以用于利用当前帧在建图设备坐标系下的位姿以及当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系。
根据本公开的示例性实施例,当前帧处理模块81可以被配置为执行:如果当前帧中存在运动对象,则确定出当前帧的非运动对象区域;其中,非运动对象区域为不包含运动对象的区域;对当前帧的非运动对象区域进行特征提取,将提取到的特征点信息作为当前帧的特征点信息。
根据本公开的示例性实施例,当前帧处理模块81确定运动对象的过程可以被配置为执行:对当前帧进行对象识别;计算识别出的对象与预设运动对象集合中对象的相似度;如果识别出的对象与预设运动对象集合中对象的相似度大于相似度阈值,则将识别出的对象确定为运动对象。
根据本公开的示例性实施例,当前帧处理模块81确定与当前帧的特征点信息对应的语义信息的过程可以被配置为执行:对当前帧进行语义分割,以将当前帧划分为多个语义区域;按语义区域为当前帧的像素添加语义标注;确定当前帧的特征点信息中各特征点的像素位置信息,根据各特征点的像素位置信息获取对应的语义标注,以确定出当前帧的特征点信息对应的语义信息。
根据本公开的示例性实施例,第一位姿计算模块85确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果的过程可以被配置为执行:将当前帧的特征点信息对应的语义信息与关键帧的特征点信息对应的语义信息进行匹配,确定出当前帧的特征点信息中与关键帧语义匹配的第五特征点信息,并确定出关键帧的特征点信息中与当前帧语义匹配的第六特征点信息;将第五特征点信息与第六特征点信息进行匹配,得到特征匹配结果。
根据本公开的示例性实施例,第一位姿计算模块85确定当前帧与关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果的过程还可以被配置为执行:将当前帧的特征点信息与关键帧的特征点信息进行匹配,确定出当前帧的特征点信息中与关键帧特征点匹配的第七特征点信息,并确定出关键帧的特征点信息中与当前帧特征点匹配的第八特征点信息;获取第七特征点信息对应的语义信息以及第八特征点信息对应的语义信息;将第七特征点信息对应的语义信息与第八特征点信息对应的语义信息进行匹配,得到特征匹配结果。
根据本公开的示例性实施例,第一位姿计算模块85结合特征匹配结果计算当前帧在建图设备坐标系下的位姿的过程可以被配置为执行:基于特征匹配结果以及关键帧的特征点信息在建图设备坐标系下的三维地图点信息,将当前帧的特征点信息与关键帧在建图设备坐标系下的三维地图点信息相关联,得到点对信息;利用点对信息计算当前帧在建图设备坐标系下的位姿。
由于本公开实施方式的重定位装置的各个功能模块与上述重定位方法实施方式中相同,因此在此不再赘述。
基于上述地图构建装置和重定位装置,一方面,在建图和重定位方案中结合语义信息进行特征匹配,可以减少误匹配的情况,提高了特征匹配的精确度,增强了建图和重定位的鲁棒性,进而显著地提升了多人AR的用户体验;另一方面,本公开建图和重定位的方案不限制执行端,可以由参与多人AR的终端设备执行本公开建图和重定位的过程,还可以由云端执行具体的操作过程。在云端执行本公开方案的情况下,由于计算资源的约束较小,因此,大大扩展了多人AR的应用场景。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (16)

1.一种地图构建方法,其特征在于,包括:
获取目标关键帧,对所述目标关键帧进行特征提取,得到所述目标关键帧的特征点信息,并确定与所述目标关键帧的特征点信息对应的语义信息;
获取所述目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;
确定所述目标关键帧与所述上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;
根据所述特征匹配结果生成局部地图点信息,以结合所述局部地图点信息构建地图;
其中,确定所述特征匹配结果的过程包括以下任意一种:
将所述目标关键帧的特征点信息对应的语义信息与所述上一个关键帧的特征点信息对应的语义信息进行匹配,确定出所述目标关键帧的特征点信息中与所述上一个关键帧语义匹配的第一特征点信息,并确定出所述上一个关键帧的特征点信息中与所述目标关键帧语义匹配的第二特征点信息,将所述第一特征点信息与所述第二特征点信息进行匹配,得到所述特征匹配结果;
将所述目标关键帧的特征点信息与所述上一个关键帧的特征点信息进行匹配,确定出所述目标关键帧的特征点信息中与所述上一个关键帧特征点匹配的第三特征点信息,并确定出所述上一个关键帧的特征点信息中与所述目标关键帧特征点匹配的第四特征点信息,获取所述第三特征点信息对应的语义信息以及所述第四特征点信息对应的语义信息,将所述第三特征点信息对应的语义信息与所述第四特征点信息对应的语义信息进行匹配,得到所述特征匹配结果;
同时进行所述目标关键帧与所述上一个关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为所述特征匹配结果。
2.根据权利要求1所述的地图构建方法,其特征在于,对所述目标关键帧进行特征提取,得到所述目标关键帧的特征点信息,包括:
如果所述目标关键帧中存在运动对象,则确定出所述目标关键帧的非运动对象区域;其中,所述非运动对象区域为不包含所述运动对象的区域;
对所述目标关键帧的非运动对象区域进行特征提取,将提取到的特征点信息作为所述目标关键帧的特征点信息。
3.根据权利要求2所述的地图构建方法,其特征在于,所述地图构建方法还包括:
对所述目标关键帧进行对象识别;
计算识别出的对象与预设运动对象集合中对象的相似度;
如果所述识别出的对象与所述预设运动对象集合中对象的相似度大于相似度阈值,则将所述识别出的对象确定为运动对象。
4.根据权利要求2所述的地图构建方法,其特征在于,确定与所述目标关键帧的特征点信息对应的语义信息包括:
对所述目标关键帧进行语义分割,以将所述目标关键帧划分为多个语义区域;
按所述语义区域为所述目标关键帧的像素添加语义标注;
确定所述目标关键帧的特征点信息中各特征点的像素位置信息,根据各所述特征点的像素位置信息获取对应的语义标注,以确定出所述目标关键帧的特征点信息对应的语义信息。
5.根据权利要求2所述的地图构建方法,其特征在于,根据所述特征匹配结果生成局部地图点信息包括:
对所述特征匹配结果进行三角化处理,生成与所述目标关键帧和所述上一个关键帧相关的局部地图点信息。
6.根据权利要求5所述的地图构建方法,其特征在于,结合所述局部地图点信息构建地图包括:
获取包括所述目标关键帧在内的所有关键帧对应的局部地图点信息;
对所述所有关键帧以及对应的局部地图点信息进行全局非线性优化,以生成地图数据。
7.根据权利要求1所述的地图构建方法,其特征在于,将一图像帧确定为所述目标关键帧的条件包括以下一种或多种的组合:
所述图像帧与所述上一个关键帧之间相机的基线距离满足预设距离要求;
所述图像帧的特征点数量大于数量阈值;
所述图像帧与所述上一个关键帧之间相机的旋转角度满足预设角度要求。
8.一种重定位方法,其特征在于,包括:
获取当前帧,对所述当前帧进行特征提取,得到所述当前帧的特征点信息,并确定与所述当前帧的特征点信息对应的语义信息;
从用于构建地图的关键帧集合中检索出与所述当前帧相似的关键帧,获取所述关键帧的特征点信息以及对应的语义信息;
确定所述当前帧与所述关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合所述特征匹配结果计算所述当前帧在建图设备坐标系下的位姿;
利用所述当前帧在所述建图设备坐标系下的位姿以及所述当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系;
其中,确定所述特征匹配结果的过程包括以下任意一种:
将所述当前帧的特征点信息对应的语义信息与所述关键帧的特征点信息对应的语义信息进行匹配,确定出所述当前帧的特征点信息中与所述关键帧语义匹配的第五特征点信息,并确定出所述关键帧的特征点信息中与所述当前帧语义匹配的第六特征点信息,将所述第五特征点信息与所述第六特征点信息进行匹配,得到所述特征匹配结果;
将所述当前帧的特征点信息与所述关键帧的特征点信息进行匹配,确定出所述当前帧的特征点信息中与所述关键帧特征点匹配的第七特征点信息,并确定出所述关键帧的特征点信息中与所述当前帧特征点匹配的第八特征点信息,获取所述第七特征点信息对应的语义信息以及所述第八特征点信息对应的语义信息,将所述第七特征点信息对应的语义信息与所述第八特征点信息对应的语义信息进行匹配,得到所述特征匹配结果;
同时进行所述当前帧与所述关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为所述特征匹配结果。
9.根据权利要求8所述的重定位方法,其特征在于,对所述当前帧进行特征提取,得到所述当前帧的特征点信息,包括:
如果所述当前帧中存在运动对象,则确定出所述当前帧的非运动对象区域;其中,所述非运动对象区域为不包含所述运动对象的区域;
对所述当前帧的非运动对象区域进行特征提取,将提取到的特征点信息作为所述当前帧的特征点信息。
10.根据权利要求9所述的重定位方法,其特征在于,所述重定位方法还包括:
对所述当前帧进行对象识别;
计算识别出的对象与预设运动对象集合中对象的相似度;
如果所述识别出的对象与所述预设运动对象集合中对象的相似度大于相似度阈值,则将所述识别出的对象确定为运动对象。
11.根据权利要求9所述的重定位方法,其特征在于,确定与所述当前帧的特征点信息对应的语义信息包括:
对所述当前帧进行语义分割,以将所述当前帧划分为多个语义区域;
按所述语义区域为所述当前帧的像素添加语义标注;
确定所述当前帧的特征点信息中各特征点的像素位置信息,根据各所述特征点的像素位置信息获取对应的语义标注,以确定出所述当前帧的特征点信息对应的语义信息。
12.根据权利要求9所述的重定位方法,其特征在于,结合所述特征匹配结果计算所述当前帧在建图设备坐标系下的位姿包括:
基于所述特征匹配结果以及所述关键帧的特征点信息在所述建图设备坐标系下的三维地图点信息,将所述当前帧的特征点信息与所述关键帧在所述建图设备坐标系下的三维地图点信息相关联,得到点对信息;
利用所述点对信息计算所述当前帧在所述建图设备坐标系下的位姿。
13.一种地图构建装置,其特征在于,包括:
目标关键帧处理模块,用于获取目标关键帧,对所述目标关键帧进行特征提取,得到所述目标关键帧的特征点信息,并确定与所述目标关键帧的特征点信息对应的语义信息;
第一信息获取模块,用于获取所述目标关键帧的上一个关键帧的特征点信息以及对应的语义信息;
匹配结果确定模块,用于确定所述目标关键帧与所述上一个关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果;
地图构建模块,用于根据所述特征匹配结果生成局部地图点信息,以结合所述局部地图点信息构建地图;
其中,所述匹配结果确定模块确定所述特征匹配结果的过程包括以下任意一种:
将所述目标关键帧的特征点信息对应的语义信息与所述上一个关键帧的特征点信息对应的语义信息进行匹配,确定出所述目标关键帧的特征点信息中与所述上一个关键帧语义匹配的第一特征点信息,并确定出所述上一个关键帧的特征点信息中与所述目标关键帧语义匹配的第二特征点信息,将所述第一特征点信息与所述第二特征点信息进行匹配,得到所述特征匹配结果;
将所述目标关键帧的特征点信息与所述上一个关键帧的特征点信息进行匹配,确定出所述目标关键帧的特征点信息中与所述上一个关键帧特征点匹配的第三特征点信息,并确定出所述上一个关键帧的特征点信息中与所述目标关键帧特征点匹配的第四特征点信息,获取所述第三特征点信息对应的语义信息以及所述第四特征点信息对应的语义信息,将所述第三特征点信息对应的语义信息与所述第四特征点信息对应的语义信息进行匹配,得到所述特征匹配结果;
同时进行所述目标关键帧与所述上一个关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为所述特征匹配结果。
14.一种重定位装置,其特征在于,包括:
当前帧处理模块,用于获取当前帧,对所述当前帧进行特征提取,得到所述当前帧的特征点信息,并确定与所述当前帧的特征点信息对应的语义信息;
第二信息获取模块,用于从用于构建地图的关键帧集合中检索出与所述当前帧相似的关键帧,获取所述关键帧的特征点信息以及对应的语义信息;
第一位姿计算模块,用于确定所述当前帧与所述关键帧之间语义信息匹配且特征点信息匹配的特征匹配结果,并结合所述特征匹配结果计算所述当前帧在建图设备坐标系下的位姿;
第二位姿计算模块,用于利用所述当前帧在所述建图设备坐标系下的位姿以及所述当前帧在重定位设备坐标系下的位姿,计算建图设备与重定位设备之间的相对位姿关系;
其中,所述第一位姿计算模块确定所述特征匹配结果的过程包括以下任意一种:
将所述当前帧的特征点信息对应的语义信息与所述关键帧的特征点信息对应的语义信息进行匹配,确定出所述当前帧的特征点信息中与所述关键帧语义匹配的第五特征点信息,并确定出所述关键帧的特征点信息中与所述当前帧语义匹配的第六特征点信息,将所述第五特征点信息与所述第六特征点信息进行匹配,得到所述特征匹配结果;
将所述当前帧的特征点信息与所述关键帧的特征点信息进行匹配,确定出所述当前帧的特征点信息中与所述关键帧特征点匹配的第七特征点信息,并确定出所述关键帧的特征点信息中与所述当前帧特征点匹配的第八特征点信息,获取所述第七特征点信息对应的语义信息以及所述第八特征点信息对应的语义信息,将所述第七特征点信息对应的语义信息与所述第八特征点信息对应的语义信息进行匹配,得到所述特征匹配结果;
同时进行所述当前帧与所述关键帧的语义匹配和特征点信息匹配,并取二者匹配的交集,作为所述特征匹配结果。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的地图构建方法或者如权利要求8至12中任一项所述的重定位方法。
16.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至7中任一项所述的地图构建方法或者如权利要求8至12中任一项所述的重定位方法。
CN202010142780.9A 2020-03-04 2020-03-04 地图构建方法、重定位方法及装置、存储介质和电子设备 Active CN111325842B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010142780.9A CN111325842B (zh) 2020-03-04 2020-03-04 地图构建方法、重定位方法及装置、存储介质和电子设备
EP21765065.4A EP4113451A4 (en) 2020-03-04 2021-01-14 CARD CONSTRUCTION METHOD AND APPARATUS, REPOSITIONING METHOD AND APPARATUS, STORAGE MEDIA AND ELECTRONIC DEVICE
PCT/CN2021/071890 WO2021175022A1 (zh) 2020-03-04 2021-01-14 地图构建方法、重定位方法及装置、存储介质和电子设备
US17/823,927 US20220415010A1 (en) 2020-03-04 2022-08-31 Map construction method, relocalization method, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010142780.9A CN111325842B (zh) 2020-03-04 2020-03-04 地图构建方法、重定位方法及装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN111325842A CN111325842A (zh) 2020-06-23
CN111325842B true CN111325842B (zh) 2023-07-28

Family

ID=71167402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010142780.9A Active CN111325842B (zh) 2020-03-04 2020-03-04 地图构建方法、重定位方法及装置、存储介质和电子设备

Country Status (4)

Country Link
US (1) US20220415010A1 (zh)
EP (1) EP4113451A4 (zh)
CN (1) CN111325842B (zh)
WO (1) WO2021175022A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325842B (zh) * 2020-03-04 2023-07-28 Oppo广东移动通信有限公司 地图构建方法、重定位方法及装置、存储介质和电子设备
CN111780764B (zh) * 2020-06-30 2022-09-02 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置
CN111795704B (zh) * 2020-06-30 2022-06-03 杭州海康机器人技术有限公司 一种视觉点云地图的构建方法、装置
CN112614185B (zh) * 2020-12-29 2022-06-21 浙江商汤科技开发有限公司 地图构建方法及装置、存储介质
CN113192133B (zh) * 2021-04-13 2022-08-05 浙江大学 基于语义平面的单目即时定位与致密语义地图构建方法
CN113188557B (zh) * 2021-04-28 2023-10-20 江苏方天电力技术有限公司 一种融合语义特征的视觉惯性组合导航方法
KR20220152736A (ko) * 2021-05-10 2022-11-17 삼성전자주식회사 시청자 환경 기반 ar 서비스 제공 방법 및 장치
CN113537171B (zh) * 2021-09-16 2021-12-21 北京易航远智科技有限公司 一种slam地图的划分方法
CN114166204A (zh) * 2021-12-03 2022-03-11 东软睿驰汽车技术(沈阳)有限公司 基于语义分割的重定位方法、装置和电子设备
CN114543808A (zh) * 2022-02-11 2022-05-27 杭州萤石软件有限公司 室内重定位方法、装置、设备及存储介质
CN114627365B (zh) * 2022-03-24 2023-01-31 北京易航远智科技有限公司 场景重识别方法、装置、电子设备及存储介质
CN114926601B (zh) * 2022-07-21 2022-10-28 广州乐软网络科技有限公司 一种面向对象的地图构建方法及系统
CN116481515B (zh) * 2023-06-16 2023-09-05 北京集度科技有限公司 一种地图生成方法、装置、计算机设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人
CN109947886A (zh) * 2019-03-19 2019-06-28 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN110189373A (zh) * 2019-05-30 2019-08-30 四川长虹电器股份有限公司 一种基于视觉语义信息的快速重定位方法及装置
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110457414A (zh) * 2019-07-30 2019-11-15 Oppo广东移动通信有限公司 离线地图处理、虚拟对象显示方法、装置、介质和设备
CN110738673A (zh) * 2019-10-21 2020-01-31 哈尔滨理工大学 基于实例分割的视觉slam方法
CN110766716A (zh) * 2019-09-10 2020-02-07 中国科学院深圳先进技术研究院 一种空间未知运动目标的信息获取方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150098616A1 (en) * 2013-10-03 2015-04-09 Qualcomm Incorporated Object recognition and map generation with environment references
CN111325842B (zh) * 2020-03-04 2023-07-28 Oppo广东移动通信有限公司 地图构建方法、重定位方法及装置、存储介质和电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人
CN109947886A (zh) * 2019-03-19 2019-06-28 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN110189373A (zh) * 2019-05-30 2019-08-30 四川长虹电器股份有限公司 一种基于视觉语义信息的快速重定位方法及装置
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110457414A (zh) * 2019-07-30 2019-11-15 Oppo广东移动通信有限公司 离线地图处理、虚拟对象显示方法、装置、介质和设备
CN110766716A (zh) * 2019-09-10 2020-02-07 中国科学院深圳先进技术研究院 一种空间未知运动目标的信息获取方法及系统
CN110738673A (zh) * 2019-10-21 2020-01-31 哈尔滨理工大学 基于实例分割的视觉slam方法

Also Published As

Publication number Publication date
EP4113451A4 (en) 2023-07-19
CN111325842A (zh) 2020-06-23
EP4113451A1 (en) 2023-01-04
WO2021175022A1 (zh) 2021-09-10
US20220415010A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
CN111325842B (zh) 地图构建方法、重定位方法及装置、存储介质和电子设备
CN112270754B (zh) 局部网格地图构建方法及装置、可读介质和电子设备
CN111445583B (zh) 增强现实处理方法及装置、存储介质和电子设备
US12020385B2 (en) Augmented reality processing method, storage medium, and electronic device
CN110807361B (zh) 人体识别方法、装置、计算机设备及存储介质
CN111429517A (zh) 重定位方法、重定位装置、存储介质与电子设备
CN111815666B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111784765B (zh) 物体测量、虚拟对象处理方法及装置、介质和电子设备
CN111476783B (zh) 基于人工智能的图像处理方法、装置、设备及存储介质
EP4243390A1 (en) Virtual object display method and apparatus, and storage medium and electronic device
CN110059652B (zh) 人脸图像处理方法、装置及存储介质
CN111311758A (zh) 增强现实处理方法及装置、存储介质和电子设备
CN111243105B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN110706339B (zh) 三维人脸重建方法及装置、电子设备和存储介质
CN111935486A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN112581358B (zh) 图像处理模型的训练方法、图像处理方法及装置
CN111027490A (zh) 人脸属性识别方法及装置、存储介质
CN111766606A (zh) Tof深度图像的图像处理方法、装置、设备及存储介质
CN114022532A (zh) 身高测量方法、身高测量装置和终端
CN111982293B (zh) 体温测量方法、装置、电子设备及存储介质
CN112233146B (zh) 位置推荐方法及装置、计算机可读存储介质和电子设备
CN111462335B (zh) 基于虚拟对象交互的设备控制方法及装置、介质和设备
CN111310701B (zh) 手势识别方法、装置、设备及存储介质
CN113743517A (zh) 模型训练方法、图像深度预测方法及装置、设备、介质
CN115221888A (zh) 实体提及的识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant