CN117115481A - 一种定位方法、电子设备及介质 - Google Patents
一种定位方法、电子设备及介质 Download PDFInfo
- Publication number
- CN117115481A CN117115481A CN202310444615.2A CN202310444615A CN117115481A CN 117115481 A CN117115481 A CN 117115481A CN 202310444615 A CN202310444615 A CN 202310444615A CN 117115481 A CN117115481 A CN 117115481A
- Authority
- CN
- China
- Prior art keywords
- image
- color
- target area
- electronic device
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000003086 colorant Substances 0.000 claims description 28
- 238000005192 partition Methods 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 abstract description 15
- 238000001514 detection method Methods 0.000 description 40
- 239000010410 layer Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种定位方法、电子设备及介质,涉及计算机技术领域,该方法可以应用于电子设备,该方法包括:获取待定位图像;确定待定位图像中目标区域的颜色,所述目标区域为所述待定位图像中的平面区域;将所述待定位图像与目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果;根据匹配结果,确定待定位图像对应的位置。该方法能够提高视觉定位的准确度。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种定位方法、电子设备及介质。
背景技术
随着计算机技术的发展,尤其是视觉算法的快速发展,增强现实(AR,AugmentedReality)技术也被广泛地应用在各种领域,例如室内定位等。其中,视觉定位系统在AR技术中是重要的一环、尤其是室内AR导航的兴起,解决了用户在室内复杂环境或不熟悉环境中,寻找目的地的难题。例如,在商场寻找商铺、在地下停车场寻找车辆。
AR导航过程中需要进行视觉定位,但是在存在大量重复纹理的场景下(例如,地下停车场),会导致视觉定位准确度低。
发明内容
本申请提供的一种定位方法、电子设备及介质,能够提高视觉定位的准确度。
为达到上述目的,本申请采用如下技术方案:
第一方面,本申请提供了一种定位方法,该方法可以由电子设备执行,也可以是电子设备和服务器协同执行,本申请以电子设备执行为例,具体地,该方法包括:
电子设备获取待定位图像,然后确定待定位图像中目标区域的颜色,所述目标区域为所述待定位图像中的平面区域,例如可以是墙体区域,也可以是地面区域,也可以是墙体区域和地面区域,在不同的情况下,目标区域不同。接着,电子设备可以将待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,所述目标区域的颜色所对应的数据库中的图像包括位置信息,根据所述匹配结果,确定所述待定位图像对应的位置。
该方法中,电子设备进行视觉定位过程中,先利用待定位图像中墙体对应的颜色确定对应的数据库,从而减少图像匹配过程中的待比对图像的数量,即,先进行了初筛,然后再利用初筛后对应的数据库进行匹配,如此,结合了图像的颜色信息,提高了定位的准确度。与传统的方案相比,该方案引入了图像的颜色信息,如此,能够避免进行图像匹配后,得到颜色不同,而空间结构或布局相同的结果,进而提高了定位的准确度。
在一些可能的实现方式中,电子设备可以获取所述待定位图像的目标区域的多个像素点对应的色相的值、饱和度的值、色明度的值,然后根据所述多个像素点对应的色相的值、饱和度的值、色明度的值,确定所述多个像素点对应的颜色,再根据所述多个像素点对应的颜色,确定目标区域的颜色。
在一些可能的实现方式中,电子设备可以根据预先设定的像素值与色相的值、饱和度的值、色明度的值之间的第一映射关系,确定所述多个像素点对应的像素值;再根据所述多个像素点对应的像素值,以及预先设定的颜色与像素值之间的第二映射关系,确定所述多个像素点对应的颜色。
在一些可能的实现方式中,电子设备可以将个数最多或比例最大的像素点所对应的颜色作为目标区域的颜色。
在一些可能的实现方式中,电子设备所述将所述待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,可以是:电子设备根据所述待定位图像与所述目标区域的颜色所对应的数据库中的图像的相似度,确定相似度排序前M的图像,其中M为正整数。
在一些可能的实现方式中,电子设备还可以根据所述目标区域的颜色,以及颜色和停车场分区的第三映射关系,确定所述目标区域的颜色对应的停车场分区;然后根据所述待定位图像与所述停车场分区对应的数据库中的图像的相似度,确定相似度排序前M的图像。
在一些可能的实现方式中,所述待定位图像还包括停车位区域;
所述停车位区域停有车辆时,所述目标区域为墙体区域;或,
所述停车位区域未停有车辆时,所述目标区域为墙体区域和/或地面区域。
在一些可能的实现方式中,所述目标区域为墙体区域和所述地面区域,所述墙体区域的颜色与所述地面区域的颜色相同。
第二方面,本申请实施例提供了一种电子设备,包括:摄像头、处理器和存储器;所述摄像头采集图像;其中,在所述存储器中存储有一个或多个计算机程序,所述一个或多个计算机程序包括指令;当所述指令被所述处理器执行时,使得所述电子设备执行如第一方面中任一项所述的方法。
第三方面,本申请提供了一种计算机存储介质,包括计算机指令,当计算机指令在电子设备上运行时,电子设备执行如第一方面中任一项的方法。
第四方面,本申请提供了一种计算机程序产品,包括指令;当指令被电子设备运行时,使得电子设备执行上述第一方面中任一项的方法。
本申请的技术方案具有如下有益效果:
本申请提供了一种定位方法,该方法可以应用于电子设备,电子设备获取待定位图像后,先对该图像进行平面检测,确定该图像中的目标区域,然后,再确定目标区域的颜色,从该目标区域的颜色对应的数据库中进行图像匹配,得到匹配结果,基于该匹配结果进行定位。该方法中,电子设备通过颜色信息,对数据库进行了区分,与传统方案中在整个数据库中进行图像匹配相比,在目标区域的颜色对应的数据库中进行图像匹配,能够缩小图像匹配的范围,不仅提高匹配效率,而且还能够减少因图像纹理相似而分区不同的错误匹配结果,进而提高匹配准确度。可见,本申请的方案中引入了颜色信息,能够避免图像匹配后,得到颜色不同,而空间结构或布局相同的结果,进而提高了定位的准确度。
应当理解的是,本申请中对技术特征、技术方案、有益效果或类似语言的描述并不是暗示在任意的单个实施例中可以实现所有的特点和优点。相反,可以理解的是对于特征或有益效果的描述意味着在至少一个实施例中包括特定的技术特征、技术方案或有益效果。因此,本说明书中对于技术特征、技术方案或有益效果的描述并不一定是指相同的实施例。进而,还可以任何适当的方式组合本实施例中所描述的技术特征、技术方案和有益效果。本领域技术人员将会理解,无需特定实施例的一个或多个特定的技术特征、技术方案或有益效果即可实现实施例。在其他实施例中,还可在没有体现所有实施例的特定实施例中识别出额外的技术特征和有益效果。
附图说明
图1为本申请实施例提供的一种电子设备的组成示例图;
图2为本申请实施例提供的一种电子设备的软件结构框图;
图3为本申请实施例提供的一种应用场景的示意图;
图4为本申请实施例提供的一种定位方法的流程图;
图5为本申请实施例提供的一种图像获取界面的示意图;
图6为本申请实施例提供的一种拍摄界面的示意图;
图7为本申请实施例提供的一种图库界面的示意图;
图8为本申请实施例提供的一种目标区域的示意图;
图9为本申请实施例提供的又一种目标区域的示意图;
图10为本申请实施例提供的一种停车场的分区示意图。
具体实施方式
本申请说明书和权利要求书及附图说明中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而不是用于限定特定顺序。
在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
为了下述各实施例的描述清楚简洁,首先给出相关技术的简要介绍:
AR,即增强现实,增强现实技术的出现,能够将计算机技术带到现实生活中。AR是虚拟影像和现实影像的融合,具有虚拟现实融合、实时交互、三维注册等特征,其中,三维注册也称作三维配准,强调计算机生成的虚拟影像与现实环境的对应关系。
为了确保现实环境和虚拟影响能够更佳的融合,视觉定位(VPS,VisualPositioning System)技术发挥着重要作用。但是,在存在大量重复纹理的场景下,该VPS技术将会失效,无法准确地进行定位。例如在地下停车场中,不同的停车区域仅在墙体颜色上存在差别,而在空间结构或者布局上难以区分。
采用目前的技术方案,在一些场景中,会存在定位错误的情况。例如,通过停车位附近的墙体颜色对停车场进行分区的场景,待定位图像中墙体颜色为红色,通过传统方式可能从数据库中找到多个与待定位图像的空间结构或布局相似的图像,例如可以包括墙体颜色为蓝色的图像,也可以包括墙体颜色为红色的图像。由于现有技术中,未考虑颜色信息对定位的影响,因此,可能会将墙体颜色为蓝色的图像对应的位置,作为该待定位图像的位置,进而导致定位出现错误。可见,传统方案中的视觉定位的准确度较低。
有鉴于此,本申请提供了一种定位方法,该方法可以应用于电子设备,电子设备可以获取待定位图像,然后确定图像中目标区域,例如目标区域可以是墙体区域,然后在确定该墙体区域对应的颜色,接着,将待定位图像与该墙体区域对应的颜色所对应的数据库中的图像进行匹配,基于匹配结果,确定待定位图像对应的位置。
可见,该方法中,电子设备进行视觉定位过程中,先利用待定位图像中墙体对应的颜色确定对应的数据库,从而减少图像匹配过程中的待比对图像的数量,即,先进行了初筛,然后再利用初筛后对应的数据库进行匹配,如此,结合了图像的颜色信息,提高了定位的准确度。与传统的方案相比,该方案引入了图像的颜色信息,如此,能够避免进行图像匹配后,得到颜色不同,而空间结构或布局相同的结果,进而提高了定位的准确度。
在一些实施例中,电子设备可以是手机、平板电脑、桌面型、膝上型、笔记本电脑、超级移动个人计算机(Ultra-mobile Personal Computer,UMPC)、手持计算机、上网本、个人数字助理(Personal Digital Assistant,PDA)、可穿戴电子设备、智能手表等设备,本申请对上述电子设备的具体形式不做特殊限制。在本实施例中,电子设备的结构可以如图1所示,图1为本申请实施例提供的一种电子设备的结构示意图。
如图1所示,电子设备可以包括处理器110,内部存储器121,传感器模块180,摄像头193,显示屏194等。其中传感器模块180可以包括陀螺仪传感器180B,加速度传感器180E,距离传感器180F,触摸传感器180K,等。
可以理解的是,本实施例示意的结构并不构成对电子设备的具体限定。在另一些实施例中,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。例如,在本申请中,处理器可以获取待定位图像;确定所述待定位图像中目标区域的颜色,所述目标区域为所述待定位图像中的平面区域;将所述待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,所述目标区域的颜色所对应的数据库中的图像包括位置信息;根据所述匹配结果,确定所述待定位图像对应的位置。该方法能够提高视觉定位的准确度。
其中,控制器可以是电子设备的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
可以理解的是,本实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备的结构限定。在本申请另一些实施例中,电子设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oled,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备的显示屏194上可以显示一系列图形用户界面(graphical userinterface,GUI),这些GUI都是该电子设备的主屏幕。一般来说,电子设备的显示屏194的尺寸是固定的,只能在该电子设备的显示屏194中显示有限的控件。控件是一种GUI元素,它是一种软件组件,包含在应用程序中,控制着该应用程序处理的所有数据以及关于这些数据的交互操作,用户可以通过直接操作(direct manipulation)来与控件交互,从而对应用程序的有关信息进行读取或者编辑。一般而言,控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。。
电子设备可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备可以包括1个或N个摄像头193,N为大于1的正整数。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备的各种功能应用以及数据处理。例如,在本实施例中,处理器110可以通过执行存储在内部存储器121中的指令,使电子设备执行一下步骤:获取待定位图像;确定所述待定位图像中目标区域的颜色,所述目标区域为所述待定位图像中的平面区域;将所述待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,所述目标区域的颜色所对应的数据库中的图像包括位置信息;根据所述匹配结果,确定所述待定位图像对应的位置。
内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备的各种功能应用以及数据处理。
陀螺仪传感器180B可以用于确定电子设备的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
加速度传感器180E可检测电子设备在各个方向上(一般为三轴)加速度的大小。当电子设备静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备可以利用距离传感器180F测距以实现快速对焦。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备的表面,与显示屏194所处的位置不同。
另外,在上述部件之上,运行有操作系统。例如苹果公司所开发的iOS操作系统,谷歌公司所开发的Android开源操作系统,微软公司所开发的Windows操作系统等。在该操作系统上可以安装运行应用程序。
电子设备的操作系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明电子设备的软件结构。
如图2所示,该图为本申请实施例提供的一种电子设备的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用层可以包括一系列应用程序包。应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
框架层为应用层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。框架层包括一些预先定义的函数。框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用层和框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
需要说明的是,本申请实施例虽然以Android系统为例进行说明,但是其基本原理同样适用于基于iOS、Windows等操作系统的电子设备。
为了使得本申请的技术方案更加清楚、易于理解,下面先对本申请实施例提供的定位方法的应用场景进行介绍。
如图3所示,该图为本申请实施例提供的一种应用场景的示意图。
在该场景中,用户301可以在室内停车场内,利用电子设备302在室内停车场进行拍摄,进而得到待定位图像303,该待定位图像303包括墙体区域3031和停车位区域3032。
在一些示例中,停车场可以通过墙体的颜色进行分区,电子设备可以对该待定位图像303进行平面检测,进而得到该待定位图像303中的平面部分,即,墙体区域3031。接着,电子设备可以确定该墙体区域3031对应的颜色,从而该墙体区域3031的颜色对应的数据库中进行图像匹配,最后,基于匹配结果,确定该待定位图像303对应的位置,进而实现定位。接着,电子设备可以向用户展示其所拍摄的待定位图像303所对应的位置,例如可以是电子设备拍摄图像时的位置,也可以是用户通过电子设备拍摄图像的位置。其中,不同分区对应的数据库可以是预先构建的,例如,当针对墙体颜色分为红区、绿区和黄区的情况下,可以预先构建红区数据库、绿区数据库以及黄区数据库。
在一种场景中,用户在将车辆停入停车位后,待定位图像可以是用户对停车位进行拍摄的图像,用户再次进入停车场时,可以基于先前拍摄的待定位图像,确定用户车辆所停的位置。在另一种场景中,用户也可能在停车场迷失方向,待定位图像可以是用户对停车场拍摄的图像,电子设备可以基于用户拍摄的待定位图像确定其自身的位置,进而实现与目的地之间的路线规划等。
需要说明的是,本申请实施例中,通过墙体的颜色对停车场进行分区仅仅是示例性介绍,也可以通过停车位的颜色以及墙体的颜色(该种方式中,停车位的颜色与墙体的颜色相同)对停车场进行分区。
在上述多种场景中,室内停车场的空间结构和布局比较接近,仅依靠图像所展示的空间结构和布局会存在定位不准确的问题,本申请的方案中,引入了颜色信息,先通过待定位图像的颜色信息,对数据库进行初筛,从而确定与该颜色对应的数据库,再从该数据库中进行图像匹配,能够提高图像匹配的准确度,进而提高定位的准确度。
下面结合附图,对本申请实施例提供的定位方法进行介绍,如图4所示,该图为本申请实施例提供的一种定位方法的流程图,该方法包括:
S401、电子设备获取待定位图像。
待定位图像可以是用于表征用户当前所处位置的图像,通过该待定位图像与数据库中已标记位置的图像进行比对,以确定待定位图像所对应的位置,即用户或电子设备所处的位置。
电子设备可以通过多种方式获取待定位图像,如图5所示,该图为本申请实施例提供的一种图像获取界面的示意图。该图像获取界面包括拍摄控件501和图库控件502。其中,拍摄控件501是指通过实时拍摄的方式获取待定位图像,图库控件502是指通过从电子设备本地上传的方式获取待定位图像。
在一些实施例中,用户可以点击拍摄控件501,电子设备响应于用户对拍摄控件501的点击操作,电子设备可以呈现拍摄界面。如图6所示,该图为本申请实施例提供的一种拍摄界面的示意图。该拍摄界面包括快门控件601和预览画面602,用户可以通过点击快门控件601,电子设备可以响应于对快门控件601的点击操作进行取景(或称为成像),进而获取待定位图像。其中,预览画面602用于对电子设备的摄像头采集的图像进行预览。
在另一些示例中,用户也可以点击图库控件502,电子设备响应于用户对图库控件502的点击操作,电子设备可以呈现图库界面。如图7所示,该图为本申请实施例提供的一种图库界面的示意图。该图库界面包括提交控件701以及多个候选图像702,用户可以从多个候选图像702中选择任一个图像,然后点击提交控件701,电子设备可以响应于用户对提交控件701的点击操作,获取用户所选中的候选图像,进而得到待定位图像。
S402、电子设备对该待定位图像进行平面检测,得到平面检测结果。
平面检测结果用于表示图像的哪些区域是平面。在一些示例中,电子设备确定待定位图像后,可以通过预设算法对待定位图像进行平面检测,得到该平面检测结果。在另一些示例中,电子设备也可以将待定位图像发送到云端服务器,由云端服务器通过预设算法对待定位图像进行平面检测,得到平面检测结果,然后云端服务器将该平面检测结果发送给电子设备,进而电子设备得到平面检测结果。
需要说明的是,在电子设备本地进行平面检测,能够在无网络的情况下进行,是电子设备更能够适应室内停车场等信号较差的环境;通过云端服务器进行平面检测,云端服务器的算力高于电子设备,能够提高检测效率。上述示例中所介绍的检测方式仅仅是示例性说明,本领域技术人员可以基于实际需要选择合适的检测方式。
其中,预设算法可以是PlaneRCNN(3D Plane Detection and Reconstructionfrom a Single Image,单幅图像的三维平面检测与重建)算法。该PlaneRCNN算法包括三部分,第一部分是基于Mask R-CNN(一种实例分割的算法)的平面检测网络,第二部分是分割细化网络,第三部分是翘曲损失模块。本申请实施例可以通过第一部分的平面检测网络,对待定位图像进行平面检测,进而得到平面检测结果。
在一些实施例中,电子设备可以在确定待定位图像后,提取分离图像中的特征点(例如是图像中明暗、强弱、颜色变化较大的点,特征点通常位于边角位置),利用VIO和IMU计算并跟踪这些特征点的三维空间信息,在跟踪过程中,对特征点信息进行处理,并将空间中位置相近或者符合一定规律的特征点构建成平面,如果构建成功,则检测出了平面。平面检测结果可以包括平面位置、方向和边界信息等。其中,IMU(Inertial Measurement Unit)为惯性测量单元,VIO(Viausl Inertial Odometry)是一种融合视觉与IME实现里程计算的技术。
需要说明的是,以上仅仅是对平面检测的方式进行示例性说明,本领域技术人员可以基于实际需要选择合适的方式对待定位图像进行平面检测,进而得到平面检测结果。
S403、电子设备根据平面检测结果,确定待定位图像的目标区域的颜色。
目标区域可以是墙体区域、地面区域等平面区域,目标区域可以预先设定,例如可以预先设定目标区域为墙体区域、也可以预先设定目标区域为地面区域,也可以预先设定目标区域为墙体区域和地面区域。其中,地面区域可以是指停车位的区域。
下面分不同的情况,来介绍目标区域的确定方式。
第一种:待定位图像中的停车位停有车辆。
在一些实施例中,电子设备可以通过目标检测算法,来对待定位图像进行检测,来确定待定位图像中的停车位区域是否停有车辆。在该待定位图像中的停车位区域停有车辆的情况下,目标区域为墙体区域。
在一些示例中,电子设备可以通过墙体检测模型,来检测待定位图像中的墙体区域,电子设备也可以通过上述预设算法(PlaneRCNN)对待定位图像进行深度检测,根据深度检测结果,确定待定位图像中的墙体区域。其中,电子设备也可以将待定位图像传输给云端服务器,云端服务器对待定位图像中的墙体区域进行识别,并将墙体区域在待定位图像中的位置发送给电子设备。在另一些示例中,电子设备也可以将平面检测结果中面积最大的平面对应的区域作为目标区域。
如图8所示,该图为本申请实施例提供的一种目标区域的示意图。电子设备对该待定位图像进行平面检测后,可以得到第一平面区域801、第二平面区域802、第三平面区域803等,其中,墙体区域为第一平面区域801,此时,将该第一平面区域801作为目标区域。
需要说明的是,上述确定墙体区域的方式,仅仅是示例性介绍,本领域技术人员可以基于实际需要设计墙体区域的确定方式。
第二种:待定位图像中的停车位未停有车辆。
类似地,电子设备可以通过目标检测算法,来对待定位图像进行检测,来确定待定位图像中的停车位区域是否停有车辆。在该待定位图像中的停车位区域未停有车辆的情况下,目标区域为墙体区域和/或地面区域。为了便于理解,下文以目标区域为墙体区域和地面区域为例,进行介绍,在另一些示例中目标区域也可以是地面区域。
需要说明的是,在第二种情况中,室内停车场的同一分区下的停车位与墙体的颜色一致。
在一些示例中,电子设备可以通过墙体-地面检测模型,来检测待定位图像中的墙体区域,电子设备也可以通过上述预设算法(PlaneRCNN)对待定位图像进行深度检测,根据深度检测结果,确定待定位图像中的墙体区域和地面区域。其中,电子设备也可以将待定位图像传输给云端服务器,云端服务器对待定位图像中的墙体区域和地面区域进行识别,并将墙体区域和地面区域在待定位图像中的位置发送给电子设备。在另一些示例中,电子设备还可以将平面检测结果中面积由大到小的排名前N(例如N可以是2)的平面对应的区域作为目标区域。
需要说明的是,上述确定墙体区域和地面区域的方式,仅仅是示例性介绍,本领域技术人员可以基于实际需要设计墙体区域和地面区域的确定方式。
如图9所示,该图为本申请实施例提供的又一种目标区域的示意图。电子设备对该待定位图像进行平面检测后,可以得到第四平面区域901、第五平面区域902、第六平面区域903等,其中,第四平面区域901为地面区域,第五平面区域902为墙体区域,此时,将该第四平面区域901和第五平面区域902作为目标区域。
接着,电子设备可以对待定位图像中的颜色进行提取,
电子设备可以先提取该待定位图像的各个像素点对应的R(红)、G(绿)、B(蓝)的值,然后将R、G、B的值转换为H(hue,色相)、S(Saturation,饱和度)、V(Value,色明度)的值。
需要说明的是,上述示例中,仅仅是以各个像素点进行处理为例,在另一些示例中,也可以对多个像素点进行处理。后文中提及术语“各个”的情况下,“各个”仅为举例,也可以是“多个”,后续不再赘述。
在一些示例中,电子设备可以通过如下公式,得到H的值:
其中,H1为中间变量。
在一些示例中,电子设备可以通过如下公式,得到S的值:
其中,max(R,G,B)表征R,G,B中的最大值,min(R,G,B)表征R,G,B中的最小值。
在一些示例中,电子设备可以通过如下公式,得到V的值:
其中,max(R,G,B)表征R,G,B中的最大值。
电子设备在确定待定位图像的H、S和V的值后,可以按照预先设定的像素值与色相的值、饱和度的值、色明度的值之间的第一映射关系,确定mask图的像素值。
在一些示例中,第一映射关系如下公式所示:
其中,maskpixel为mask图的像素值;第一H阈值、/>为第二H阈值、/>为第三H阈值、/>第四H阈值、/>第五H阈值、/>第六H阈值、/>第七H阈值、/>第八H阈值、第九H阈值、/>第十H阈值;/>第一S阈值、/>第二S阈值、/>第三S阈值、/>第四S阈值、/>第五S阈值、/>第六S阈值、/>第七S阈值、/>第八S阈值、/>第九S阈值、第十S阈值;/>第一V阈值、/>第二V阈值、/>第三V阈值、/>第四V阈值、/>第五V阈值、/>第六V阈值、/>第七V阈值、/>第八V阈值、/>第九V阈值、/>第十V阈值;“other”表示H、S和V不再上述区间范围内时,mask图的像素值为255。
需要说明的是,上述预设规则仅仅是示例性介绍,本领域技术人员,可以基于实际需要对各个H的阈值、各个S的阈值以及各个V的阈值进行调整。
在一些示例中,可以预先设定颜色与mask图的像素值之间的第二映射关系。例如,可以按照如下表1所示,进行设置。
表1:
颜色 | 紫色 | 橙色 | 绿色 | 蓝色 | 红色 | 其他 |
像素值 | 0 | 50 | 100 | 150 | 200 | 255 |
如表1所示,mask图的像素值为0时,对应的颜色为紫色,mask图的像素值为50时,对应的颜色为橙色,mask图的像素值为100时,对应的颜色为绿色,mask图的像素值为150时,对应的颜色为蓝色,mask图的像素值为200时,对应的颜色为红色,mask图的像素值为255时,对应的颜色为其他。
需要说明的是,表1仅仅是对颜色与mask图的像素值之间的第二映射关系的示例性介绍,本领域技术人员可以根据实际需要,设定更多的颜色或更少的颜色,进而改动第二映射关系。
基于此,电子设备在得到待定位图像的每个像素点对应的像素值后,可以确定基于上述表1所示第二映射关系,确定该像素点对应的颜色,进而电子设备可以输出该待定位图像的每个像素点的颜色。
电子设备确定目标区域以及待定位图像中每个像素点的颜色后,可以确定该目标区域对应的颜色。
在一些实施例中,电子设备可以对目标区域中像素点所对应的颜色进行统计,得到各个颜色所对应的像素点的个数或比例,电子设备可以将个数最多或比例最大的像素点所对应的颜色作为目标区域的颜色。举例说明,目标区域中像素点的个数为100个,其中,紫色的像素点个数为90个,橙色的像素点个数为5个,绿色的像素点个数为3个,蓝色的像素点个数为2个,紫色的像素点的个数最多、所占比例最大,电子设备将紫色,作为目标区域的颜色。
在另一些实施例中,电子设备确定目标区域后,可以对该目标区域的颜色进行提取,进而得到该目标区域的颜色。
需要说明的是,电子设备对目标区域的颜色进行提取的过程,与上述实施例中对整张待定位图像的颜色进行提取的过程类似,此处不再赘述。
S404、电子设备将待定位图像与目标区域的颜色对应的数据库中图像进行匹配,得到匹配结果。
目标区域的颜色所对应的数据库中的图像包括位置信息。在一些实施例中,可以预先设定不同颜色对应的数据库。例如,可以设定紫色对应的数据库、橙色对应的数据库、绿色对应的数据库、蓝色对应的数据库以及红色对应的数据库。其中,不同的颜色可以对应于停车场的不同分区,如图10所示,该图为本申请实施例提供的一种停车场的分区示意图。其中,该停车场的分区可以包括:紫色分区1001、橙色分区1002、绿色分区1003、蓝色分区1004和红色分区1005。其中,紫色分区1001的停车位和/或墙体对应的颜色为紫色、橙色分区1002的停车位和/或墙体对应的颜色为橙色、绿色分区1003的停车位和/或墙体对应的颜色为绿色、蓝色分区1004的停车位和/或墙体对应的颜色为蓝色、红色分区1005的停车位和/或墙体对应的颜色为红色。如此,不同颜色对应的数据库也可以是停车场的不同分区对应的数据库。
电子设备在确定目标区域对应的颜色后,电子设备可以根据目标区域的颜色,以及颜色和停车场分区的第三映射关系,确定目标区域的颜色对应的停车场分区,然后利用停车场分区对应的数据库,进行图像匹配的过程。与传统方案中在停车场的整个数据库中进行图像匹配相比,在目标区域的颜色对应的数据库中进行图像匹配,能够缩小图像匹配的范围,不仅提高匹配效率,而且还能够减少因图像纹理相似而分区不同的错误匹配结果,进而提高匹配准确度。
在另一些实施例中,电子设备可以将待定位图像发送给云端服务器,在云端服务器存储有各个分区对应的数据库,云端服务器基于目标区域的颜色对应的数据库,对待定位图像进行图像匹配,进而得到图像匹配结果,然后将匹配结果发送给电子设备,进而电子设备可以获取上述匹配结果。
下面以电子设备的角度,介绍图像匹配的过程:
电子设备可以对待定位图像进行特征提取,得到该待定位图像的特征向量,电子设备还可以预先获取数据库中每个图像对应的特征向量,接着,电子设备基于待定位图像的特征向量与数据库中每个图像对应的特征向量进行相似度计算,然后根据相似度由大到小进行排序,得到排序前M的图像,其中M为正整数,例如,M为5,当然M也可以是20、30等。其中,匹配结果可以是上述前M个图像。
S405、电子设备根据匹配结果,确定待定位图像对应的位置。
在一些实施例中,电子设备可以通过PnP算法,计算电子设备的位姿,基于电子设备的位姿,对待定位图像进行定位。其中,PnP(Perspective-n-Points)是指3D到2D点对的物体运动定位,即已知物体在世界坐标系下的坐标,以及物体在摄像头的图像平面的像素坐标,求解摄像头的位姿。其中,摄像头可以是电子设备上的摄像头,该摄像头的位姿可以是电子设备的位姿。
在一些示例中,电子设备可以根据前M个图像的特征向量进行特征匹配,得到特征点,然后基于得到的特征点计算电子设备的位姿。为了进一步提高计算效率,电子设备可以得到4个特征点,利用其中的3个特征点计算出4组解,每一组解对应一个位姿信息,基于位姿信息,计算电子设备的位姿,然后利用第4个特征点以及电子设备的位姿计算位姿的误差,将误差最小的一组解对应的位姿,作为电子设备的位姿。电子设备在确定自身的位姿后,可以基于自身的位姿,确定该待定位图像对应的位置。
在另一些实施例中,可以预先为数据库中的图像设置对应的位置,例如,数据库中的图像1对应位置1,图像2对应位置2等,电子设备在得到匹配结果后,可以获取前M个图像,进而能够得到该前M个图像对的M个位置。电子设备可以基于M个位置,对待定位图像进行定位。例如,电子设备可以将M个位置的中心作为电子设备的位置,以实现对待定位图像进行定位。
基于上述内容描述,本申请实施例提供了一种定位方法,该方法可以应用于电子设备,电子设备获取待定位图像后,先对该图像进行平面检测,确定该图像中的目标区域,然后,再确定目标区域的颜色,从该目标区域的颜色对应的数据库中进行图像匹配,得到匹配结果,基于该匹配结果进行定位。该方法中,电子设备通过颜色信息,对数据库进行了区分,与传统方案中在整个数据库中进行图像匹配相比,在目标区域的颜色对应的数据库中进行图像匹配,能够缩小图像匹配的范围,不仅提高匹配效率,而且还能够减少因图像纹理相似而分区不同的错误匹配结果,进而提高匹配准确度。可见,本申请的方案中引入了颜色信息,能够避免图像匹配后,得到颜色不同,而空间结构或布局相同的结果,进而提高了定位的准确度。
本实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中包括指令,当上述指令在电子设备上运行时,使得该电子设备执行图4中的相关方法步骤,以实现上述实施例中的方法。
本实施例还提供了一种包含指令的计算机程序产品,当该计算机程序产品在电子设备上运行时,使得该电子设备执行如图4中的相关方法步骤,以实现上述实施例中的方法。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种定位方法,其特征在于,应用于电子设备,所述方法包括:
获取待定位图像;
确定所述待定位图像中目标区域的颜色,所述目标区域为所述待定位图像中的平面区域;
将所述待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,所述目标区域的颜色所对应的数据库中的图像包括位置信息;
根据所述匹配结果,确定所述待定位图像对应的位置。
2.根据权利要求1所述的方法,其特征在于,所述确定所述待定位图像中目标区域的颜色,包括:
获取所述待定位图像的目标区域的多个像素点对应的色相的值、饱和度的值、色明度的值;
根据所述多个像素点对应的色相的值、饱和度的值、色明度的值,确定所述多个像素点对应的颜色;
根据所述多个像素点对应的颜色,确定目标区域的颜色。
3.根据权利要求2所述的方法,其特征在于,所述根据所述多个像素点对应的色相的值、饱和度的值、色明度的值,确定所述多个像素点对应的颜色,包括:
根据预先设定的像素值与色相的值、饱和度的值、色明度的值之间的第一映射关系,确定所述多个像素点对应的像素值;
根据所述多个像素点对应的像素值,以及预先设定的颜色与像素值之间的第二映射关系,确定所述多个像素点对应的颜色。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述根据所述多个像素点对应的颜色,确定目标区域的颜色,包括:
将个数最多或比例最大的像素点所对应的颜色作为目标区域的颜色。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述将所述待定位图像与所述目标区域的颜色所对应的数据库中的图像进行匹配,得到匹配结果,包括:
根据所述待定位图像与所述目标区域的颜色所对应的数据库中的图像的相似度,确定相似度排序前M的图像,其中M为正整数。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
根据所述目标区域的颜色,以及颜色和停车场分区的第三映射关系,确定所述目标区域的颜色对应的停车场分区;
所述根据所述待定位图像与所述目标区域的颜色所对应的数据库中的图像的相似度,确定相似度排序前M的图像,包括:
根据所述待定位图像与所述停车场分区对应的数据库中的图像的相似度,确定相似度排序前M的图像。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述待定位图像还包括停车位区域;
所述停车位区域停有车辆时,所述目标区域为墙体区域;或,
所述停车位区域未停有车辆时,所述目标区域为墙体区域和/或地面区域。
8.根据权利要求7所述的方法,其特征在于,所述目标区域为墙体区域和所述地面区域,所述墙体区域的颜色与所述地面区域的颜色相同。
9.一种电子设备,其特征在于,包括:摄像头、处理器和存储器;
所述摄像头采集图像;
其中,在所述存储器中存储有一个或多个计算机程序,所述一个或多个计算机程序包括指令;当所述指令被所述处理器执行时,使得所述电子设备执行如权利要求1-8任一项所述的方法。
10.一种计算机存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,所述电子设备执行如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310444615.2A CN117115481A (zh) | 2023-04-14 | 2023-04-14 | 一种定位方法、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310444615.2A CN117115481A (zh) | 2023-04-14 | 2023-04-14 | 一种定位方法、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117115481A true CN117115481A (zh) | 2023-11-24 |
Family
ID=88807996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310444615.2A Pending CN117115481A (zh) | 2023-04-14 | 2023-04-14 | 一种定位方法、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117115481A (zh) |
-
2023
- 2023-04-14 CN CN202310444615.2A patent/CN117115481A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11079841B2 (en) | Enabling augmented reality using eye gaze tracking | |
CN113810587B (zh) | 一种图像处理方法及装置 | |
US8850337B2 (en) | Information processing device, authoring method, and program | |
US10346684B2 (en) | Visual search utilizing color descriptors | |
KR102173123B1 (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
CN103377487B (zh) | 信息处理设备、显示控制方法以及程序 | |
US20170013195A1 (en) | Wearable information system having at least one camera | |
US20220398767A1 (en) | Pose determining method and apparatus, electronic device, and storage medium | |
CN104036476A (zh) | 用于提供增强现实的方法以及便携式终端 | |
WO2012045914A1 (en) | Generating a spatial arrangement | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
CN110991491A (zh) | 图像标注方法、装置、设备及存储介质 | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
WO2022152116A1 (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN112749613A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN114332648B (zh) | 一种位置标识方法及电子设备 | |
KR20200127928A (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
CN113378605A (zh) | 多源信息融合方法及装置、电子设备和存储介质 | |
CN117115481A (zh) | 一种定位方法、电子设备及介质 | |
Porzi et al. | An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone | |
EP4026092A1 (en) | Scene lock mode for capturing camera images | |
CN116664684B (zh) | 定位方法、电子设备及计算机可读存储介质 | |
CN111833403B (zh) | 用于空间定位的方法和装置 | |
US20230267691A1 (en) | Scene change detection with novel view synthesis | |
CN117671004A (zh) | 穿戴设备姿态估计方法、电子设备、存储介质和穿戴系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |