CN111652103A - 室内定位方法、装置、设备以及存储介质 - Google Patents
室内定位方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111652103A CN111652103A CN202010463444.4A CN202010463444A CN111652103A CN 111652103 A CN111652103 A CN 111652103A CN 202010463444 A CN202010463444 A CN 202010463444A CN 111652103 A CN111652103 A CN 111652103A
- Authority
- CN
- China
- Prior art keywords
- indoor
- image
- target
- determining
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000005457 optimization Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种室内定位方法、装置、设备以及存储介质,涉及图像处理技术领域,尤其涉及室内导航技术领域。具体实现方案为:根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;根据所述目标特征点的标识索引所述目标特征点的三维空间位置;其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。本申请实施例的技术方案,提高了室内定位的自动化程度和鲁棒性。
Description
技术领域
本申请实施例涉及图像处理技术领域,尤其涉及室内导航技术领域。具体地,本申请实施例涉及室内定位方法、装置、设备以及存储介质。
背景技术
室内定位指的是获取采集设备在室内环境里的位置。采集设备一般指手机、机器人等携带相机等传感器的设备。和室外定位相比,在室内卫星信号较弱,不能直接通过卫星定位获取准确位置。
但是,无论是在商场消费的顾客,还是室内服务机器人均需要室内位置,以实现对顾客进行室内导航,或使得室内服务机器人更好的在室内环境下工作。
发明内容
本申请实施例提供了一种室内定位方法、装置、设备以及存储介质。
第一方面,本申请实施例提供了一种室内定位方法,该方法包括:
根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;
根据所述目标特征点的标识索引所述目标特征点的三维空间位置;
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
第二方面,本申请实施例还提供了一种室内定位装置,该装置包括:
标识获取模块,用于根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;
位置获取模块,用于根据所述目标特征点的标识索引所述目标特征点的三维空间位置;
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;
定位模块,用于根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
第三方面,本申请实施例还提供一种电子设备,该设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例中任一项所述的方法。
第四方面,本申请实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请实施例中任一项所述的方法。
本申请实施例的技术方案,提高了室内定位的自动化程度和鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请第一实施例提供的一种室内定位方法的流程图;
图2是本申请第二实施例提供的一种室内定位方法的流程图;
图3是本申请第三实施例提供的一种室内定位方法的流程图;
图4是本申请第四实施例提供的一种室内定位方法的流程图;
图5是本申请第六实施例提供的一种室内定位装置的结构示意图;
图6是根据本申请实施例的室内定位方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
第一实施例
图1是本申请第一实施例提供的一种室内定位方法的流程图。本实施例可适用于通过用户采集的室内环境图像对用户进行室内定位的情况。该方法可以由一种室内定位装置来执行,该装置可以由软件和/或硬件的方式实现。参见图1,本申请实施例提供的室内定位方法包括:
S110、根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识。
其中,第一室内图像是用户采集的待进行室内定位的图像。
目标物体是进行室内定位所依据的物体。
在一个实施例中,目标物体可以是具有明显图像特征,且室内场景出现频率高的物体。
示例性地,目标物体可以是海报、招牌和广告牌等。
目标特征点是指位于目标物体上的特征点。
在一个实施例中,目标特征点可以是目标物体上的颜色特征点、形状特征点和纹理特征点等中的至少一种。
示例性地,若目标物体是矩形物体,则目标特征点可以是矩形物体的四个角点。
第一图像位置是指目标特征点在第一室内图像中的位置。
S120、根据所述目标特征点的标识索引所述目标特征点的三维空间位置。
目标特征点的三维空间位置也可以理解为目标特征点在室内空间中的位置。
所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的。
第二室内图像是采集的室内环境的图像,该图像可以与第一室内图像相同,也可以不同。
第二图像位置是目标特征点在第二室内图像中的位置。
所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态,可以预先确定,也可以实时确定。
在一个实施例中,第二图像位置可以通过对第二室内图像进行目标特征点检测获得。
可选地,第二图像位置也可以基于模板匹配检测目标特征点获得,也可以基于神经网络检测目标特征点获得,本实施例对此并不进行任何限定。
第二室内图像的相机姿态可以通过采集第二室内图像的相机参数获得。
为避免获取相机参数的麻烦,第二室内图像的相机姿态还可以根据所述第二室内图像建立室内环境的点云数据,以得到所述第二室内图像的相机姿态。
因为在基于三维重建算法,将第二室内图像转换为室内环境的点云数据的过程中,会产出第二室内图像的相机姿态。
所述目标物体在所述第二室内图像中的姿态的确定可以描述为:
对相邻两帧第二室内图像做三角测量;
利用测量结果进行平面方程拟合,利用拟合得到的平面方程描述所述目标物体在所述第二室内图像中的姿态。
可选地,上述确定目标特征点的三维空间位置的步骤可以实时实现,也可以预先实现。
S130、根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
其中,用户的室内位置是指用户在室内环境中的位置。
在一个实施例中,根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置,可以包括:
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定所述第一室内图像的相机位姿;
根据所述相机位姿确定用户的室内位置。
其中第一室内图像的相机位置也即用户的室内位置。
本实施例的一个典型的应用场景是:用户在逛商城或展览馆,以及参加其他室内活动时,若用户不知道自己所在位置,此时用户可以通过手机拍摄周围环境图像;基于本实施例提供的室内定位方法,根据拍摄的室内环境图像,可以实现对用户的自动定位。
本申请实施例的技术方案,通过根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定目标特征点的三维空间位置,从而实现目标特征点的三维空间位置的自动确定。进而根据目标特征点的第一图像位置和目标特征点的三维空间位置,确定用户的室内位置,从而提高室内定位的自动化程度。
此外,因为目标物体特征点受光照等外界因素影响较小,所以该方法的鲁棒性高。
在一个实施例中,根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置,可以包括:
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定所述第一室内图像的相机位姿;
根据所述相机位姿确定用户的室内位置。
其中第一室内图像的相机位置也即用户的室内位置。
第二实施例
图2是本申请第二实施例提供的一种室内定位方法的流程图。本实施例是在上述实施例的基础上,以上述确定目标特征点的三维空间位置的步骤预先实现为例,对步骤“根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及目标物体在所述第二室内图像中的姿态,确定所述目标特征点的三维空间位置”的具体优化。参见图2,本申请实施例提供的室内定位方法包括:
S210、根据目标物体在第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态。
在一个实施例中,目标物体在第二室内图像中的姿态可以利用目标物体的平面方程描述。根据目标物体在第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态,可以描述为:
从目标物体的至少一个平面方程中,选择一个平面方程,用于描述目标物体在三维空间中的姿态。
为提高目标物体在三维空间中姿态的准确率,所述根据所述目标物体在所述第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态,包括:
根据所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的至少一个姿态,确定所述目标物体在三维空间中的姿态。
也即,利用第二室内图像的相机姿态,对目标物体的平面方程进行优化,利用优化后的平面方程描述所述目标物体在三维空间中的姿态。
其中,优化算法可以是任意优化算法。典型地,优化算法可以是光束法平差(BundleAdjustment,BA)算法。
利用BA算法实现平面优化的过程可以描述为:
将所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的至少一个姿态作为BA算法的输入,经过BA算法的计算,得到所述目标物体在三维空间中的姿态。
S220、根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标物体上目标特征点的三维空间位置。
在一个实施例中,所述根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置,包括:
将所述目标物体关联平面方程中的空间特征参数,作为所述目标物体在三维空间中的姿态信息;
根据所述目标物体在三维空间中的姿态信息、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
其中,空间特征参数是描述目标物体平面空间特征的常数。
通常平面方程为:Ax+By+Cz+D=0,其中A、B、C和D为空间特征参数。
在一个实施例中,可以依据如下公式求解目标特征点的三维空间位置坐标:
n×X+d=0 (1)
X=R-1(μ×x-t) (2)
其中,等式(1)是所述目标物体的平面方程,用于描述所述目标物体在三维空间中的姿态,n=(A,B,C),d=D,n和d是所述平面方程中描述平面空间特征的常数,X是所述目标特征点的三维空间位置坐标,R和t用于描述所述第二室内图像的相机姿态,R是旋转参数,t是平移参数,x是所述第二图像位置,μ是辅助参数。
S230、根据用户采集的第一室内图像,获取所述目标特征点的第一图像位置和所述目标特征点的标识。
S240、根据所述目标特征点的标识索引所述目标特征点的三维空间位置。
S250、根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
可选地,S210和S220的执行主体可以与S230、S240和S250的执行主体相同,也可以不同。
本申请实施例的技术方案,通过根据目标物体在第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态,从而实现目标物体在三维空间中姿态的确定。
第三实施例
图3是本申请第三实施例提供的一种室内定位方法的流程图。本实施例是在上述实施例的基础上,对步骤“根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置”的具体优化。参见图3,本申请实施例提供的室内定位方法包括:
S310、将用户采集的第一室内图像输入预先训练的信息检测模型,输出目标物体上目标特征点的第一图像位置。
其中所述信息检测模型通过如下方式构建:
检测室内样本图像中的所述目标物体以及所述目标物体上所述目标特征点的第一图像位置;
利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型。
室内样本图像是采集的室内环境图像,该图像可以与第一室内图像相同,也可以不同。
可选地,对目标物体的检测可以使用任意目标检测算法。
示例性地,目标检测算法可以是模板匹配或神经网络等。
在一个实施例中,若所述目标物体是位于墙壁上的目标形状的物体,则检测所述室内样本图像中的所述目标物体,包括:
确定所述室内样本图像中像素点在三维空间中的法向量;
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定所述室内样本图像中的墙壁掩模;
检测所述室内样本图像中目标形状的物体;
利用所述墙壁掩模,从检测得到的目标形状的物体中确定位于墙壁上的所述目标物体。
其中,目标形状可以是任意形状。为使目标物体覆盖室内环境中的更多物体,目标形状可以是矩形。
墙壁掩模是指用于覆盖室内样本图像中墙壁部分的图像。
在一个实施例中,所述根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定所述室内样本图像中的墙壁掩模,可以包括:
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定法向量和重力方向垂直的目标像素点;
根据所述目标像素点确定所述室内样本图像中的墙壁掩模。
其中,根据所述目标像素点确定所述室内样本图像中的墙壁掩模包括:将目标像素点组成的图像作为墙壁掩模。
S320、根据所述第一室内图像获取所述目标特征点的标识。
S330、根据所述目标特征点的标识索引所述目标特征点的三维空间位置。
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的。
在一个实施例中,根据所述第一室内图像获取所述目标特征点的标识,可以包括:
将第一室内图像输入上述信息检测模型,输出所述目标特征点的标识。
S340、根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
本实施例对S310和S320的执行顺序不做限定。可选的,S320可以先于S310执行。
本申请实施例的技术方案,通过自动确定模型的训练数据,从而实现模型的自动获取,进而利用自动训练得到的模型,实现对目标特征点的第一图像位置的自动确定。
为实现对训练样本的扩充,若所述目标物体为平面物体,则所述利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型,包括:
将所述目标物体作为前景,对所述前景进行变换;
将随机图片作为背景,合成变换后的所述前景和所述背景,得到至少一个新样本图像;
根据所述室内样本图像、所述至少一个新样本图像和所述目标特征点的第一图像位置,构造训练样本集;
利用构造的训练样本集对所述初始模型进行训练,得到所述信息检测模型。
其中对前景的变换可以是对目标物体的任意角度和/或任意位置的变换。该变换可以基于仿射变换实现,也可以基于射影变换实现。
随机图片是随机选择或生成的图片。
新样本图像是通过合成得到的图像。
根据所述室内样本图像、所述至少一个新样本图像和所述目标特征点的第一图像位置,构造训练样本集可以包括:
将所述室内样本图像和所述至少一个新样本图像作为样本,将所述目标特征点的第一图像位置作为样本标签,构造训练样本集。
第四实施例
图4是本申请第四实施例提供的一种室内定位方法的流程图。本实施例是在上述实施例的基础上,对步骤“根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置”的具体优化。参见图4,本申请实施例提供的室内定位方法包括:
S410、根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识。
S420、根据所述目标特征点的标识索引所述目标特征点的三维空间位置。
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的。
S430、根据所述第一室内图像确定辅助特征点。
其中辅助特征点是基于其他特征点检测方法确定的特征点。其他特征点检测方法是除目标特征点检测方法以外的其他方法。
在一个实施例中,所述根据所述第一室内图像确定辅助特征点,可以包括:
根据所述第一室内图像,建立室内环境的点云数据,并确定数据点在所述第一室内图像中的第一特征点;
提取所述第一室内图像的第二特征点;
匹配所述第一特征点和所述第二特征点;
将匹配一致的特征点作为所述辅助特征点。
示例性地,可以基于尺度不变特征变换(Scale-invariant feature transform,SIFT)算法实现对第一室内图像中第二特征点的提取。
S440、根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,以及所述辅助特征点的图像位置和所述辅助特征点的三维空间位置,确定用户的室内位置。
本申请实施例的技术方案,通过融合目标特征点的定位结果和辅助特征点的定位结果,从而在保证定位鲁棒性的同时,提高用户室内位置的准确率。
为进一步提高定位的准确率,辅助特征点的数量大于目标特征点的数量,以利用丰富的辅助特征点实现对用户的准确定位。
第五实施例
本实施例是在上述实施例的基础上,以目标物体是平面矩形物体为例提出的一种可选方案。示例性地,平面矩形物体可以是海报、招牌或广告牌。本申请实施例提供的室内定位方法包括:预处理部分和实时应用部分。
其中实时应用部分的逻辑可以描述如下:
根据用户采集的第一室内图像,建立室内环境的点云数据以及各数据点在所述第一室内图像中的特征点;
提取所述第一室内图像的特征点;
匹配提取得到的特征点与点云数据中各数据点在所述第一室内图像中的特征点;
将匹配一致的特征点作为辅助特征点;
将所述第一室内图像输入预先训练的信息检测模型,输出目标物体上目标特征点的标识和所述目标特征点的第一图像位置;
根据所述目标特征点的标识,从预存数据中索引所述目标特征点对应的三维空间位置;
根据所述辅助特征点的图像位置和所述辅助特征点的三维空间位置,以及所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定所述第一室内图像的相机位姿,从而实现用户的室内定位。
本实施例对辅助特征点和目标特征点的确定顺序不做限定。可选地,可以先确定目标特征点,再确定辅助特征点。
其中,预处理部分的逻辑可以描述如下:
将室内样本图像输入预先训练的结构检测模型,输出每个像素点在三维空间中的法向量;
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定法向量和重力方向垂直的目标像素点,以获得所述室内样本图像中的墙壁掩模;
基于矩形框检测模型,从所述室内样本图像中检测矩形物体;
利用墙壁掩模,从检测出的矩形物体中筛选出位于墙壁上的候选物体;
对相邻两帧样本图像做三角测量,利用测量结果进行平面方程拟合,确定候选物体是否是平面物体;
若是,则将该候选物体作为目标物体;
基于图像匹配算法确定检测出的目标物体是否是同一物体;
对相同目标物体进行相同标识的标注;
根据室内样本图像的相机姿态以及目标物体在室内样本图像中的姿态,确定目标物体在三维空间的位姿;
根据目标物体在三维空间的位姿,确定所述目标特征点的三维空间位置,并将该位置与所述目标特征点的特征标识关联存储;
将上述目标物体进行不同角度、不同位置的射影变换,得到新样本图像;
将所述室内样本图像、所述新样本图像、目标物体的标识和目标特征点在室内样本图像中的第二图像坐标作为训练样本集;
利用得到的训练样本集对初始模型进行训练,得到所述信息检测模型。
本方案通过融合目标特征点和辅助特征点的进行室内定位,因为辅助特征点的数量大,所以基于辅助特征点实现的室内定位准确率高,但鲁棒性低。因为目标特征点的数量相对较少,所以基于目标特征点实现的室内定位的准确率相对较低,但是因为该特征点受室内环境因素影响较小,所以基于目标特征点实现的室内定位的鲁棒性相对较高。二者的融合,使得本申请实施例既提高了室内定位的准确率,又提高了室内定位的鲁棒性。
此外,本方案中矩形框检测模型的维护成本比其它目标物体检测模型的维护成本低。因为其它目标物体检测模型在新增物体类别时需要人工采集、标注数据做训练。而本方案里,由于矩形框检测模型实现了对形状为矩形的一类物体的检测,即便增加其他类别的矩形物体时也不需要重新训练,从而大大降低了模型的维护成本。
第六实施例
图5是本申请第六实施例提供的一种室内定位装置的结构示意图。参见图5,本申请实施例提供的室内定位装置500,包括:标识获取模块501、位置获取模块502和定位模块503。
其中,标识获取模块501,用于根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;
位置获取模块502,用于根据所述目标特征点的标识索引所述目标特征点的三维空间位置;
所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;
定位模块503,用于根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
本申请实施例的技术方案,通过根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定目标特征点的三维空间位置,从而实现目标特征点的三维空间位置的自动确定。进而根据目标特征点的第一图像位置和目标特征点的三维空间位置,确定用户的室内位置,从而提高室内定位的自动化程度。此外,因为目标物体特征点受光照等外界因素影响较小,所以该方法的鲁棒性高。
进一步地,所述装置,还包括:
姿态确定模块,用于根据所述目标特征点的标识索引所述目标特征点的三维空间位置之前,根据所述目标物体在所述第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态;
位置确定模块,用于根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
进一步地,所述位置确定模块,包括:
信息确定单元,用于将所述目标物体关联平面方程中的空间特征参数,作为所述目标物体在三维空间中的姿态信息;
位置确定单元,用于根据所述目标物体在三维空间中的姿态信息、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
进一步地,所述姿态确定模块,包括:
姿态确定单元,用于根据所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的至少一个姿态,确定所述目标物体在三维空间中的姿态。
进一步地,所述位置获取模块,包括:
位置获取单元,用于将所述第一室内图像输入预先训练的信息检测模型,输出所述目标特征点的第一图像位置;
其中所述信息检测模型通过如下方式构建:
检测室内样本图像中的所述目标物体以及所述目标物体上所述目标特征点的第一图像位置;
利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型。
进一步地,若所述目标物体是位于墙壁上的目标形状的物体,则所述位置获取单元,包括:
向量确定子单元,用于确定所述室内样本图像中像素点在三维空间中的法向量;
掩模确定子单元,用于根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定所述室内样本图像中的墙壁掩模;
物体检测子单元,用于检测所述室内样本图像中目标形状的物体;
物体确定子单元,用于利用所述墙壁掩模,从检测得到的目标形状的物体中确定位于墙壁上的所述目标物体。
进一步地,所述掩模确定子单元,具体用于:
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定法向量和重力方向垂直的目标像素点;
根据所述目标像素点确定所述室内样本图像中的墙壁掩模。
进一步地,若所述目标物体为平面物体,则所述物体确定子单元,包括:
候选选择器,用于从检测得到的目标形状的物体中,确定出位于墙壁上的候选物体;
平面判断器,用于根据相邻两帧室内样本图像确定所述候选物体是否是平面物体;
目标选择器,用于若是,则将所述候选物体作为所述目标物体。
进一步地,所述平面判断器,具体用于:
对相邻两帧室内样本图像做三角测量;
利用测量结果进行平面方程拟合;
根据拟合结果确定所述候选物体是否是平面物体。
进一步地,若所述目标物体为平面物体,则所述位置获取单元,包括:
变换子单元,用于将所述目标物体作为前景,对所述前景进行变换;
合成子单元,用于将随机图片作为背景,合成变换后的所述前景和所述背景,得到至少一个新样本图像;
样本集构造子单元,用于根据所述室内样本图像、所述至少一个新样本图像和所述目标特征点的第一图像位置,构造训练样本集;
模型训练子单元,用于利用构造的训练样本集对所述初始模型进行训练,得到所述信息检测模型。
进一步地,所述定位模块,包括:
特征点确定单元,用于根据所述第一室内图像确定辅助特征点;
定位单元,用于根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,以及所述辅助特征点的图像位置和所述辅助特征点的三维空间位置,确定用户的室内位置。
进一步地,所述特征点确定单元,包括:
点云建立子单元,用于根据所述第一室内图像,建立室内环境的点云数据,并确定数据点在所述第一室内图像中的第一特征点;
特征点提取子单元,用于提取所述第一室内图像的第二特征点;
特征点匹配子单元,用于匹配所述第一特征点和所述第二特征点;
特征点确定子单元,用于将匹配一致的特征点作为所述辅助特征点。
进一步地,所述定位模块,包括:
位姿确定单元,用于根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定所述第一室内图像的相机位姿;
定位单元,用于根据所述相机位姿确定用户的室内位置。
第七实施例
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的室内定位方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的室内定位方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的室内定位方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的室内定位方法对应的程序指令/模块(例如,附图5所示的标识获取模块501、位置获取模块502和定位模块503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的室内定位方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据室内定位电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至室内定位电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
室内定位方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与室内定位电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
本申请实施例的技术方案,提高了室内定位的自动化程度和鲁棒性。应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (20)
1.一种室内定位方法,包括:
根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;
根据所述目标特征点的标识索引所述目标特征点的三维空间位置;
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
2.根据权利要求1所述的方法,其中,所述根据所述目标特征点的标识索引所述目标特征点的三维空间位置之前,所述方法还包括:
根据所述目标物体在所述第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态;
根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
3.根据权利要求2所述的方法,其中,所述根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置,包括:
将所述目标物体关联平面方程中的空间特征参数,作为所述目标物体在三维空间中的姿态信息;
根据所述目标物体在三维空间中的姿态信息、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
4.根据权利要求2所述的方法,其中,所述根据所述目标物体在所述第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态,包括:
根据所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的至少一个姿态,确定所述目标物体在三维空间中的姿态。
5.根据权利要求1-4中任一所述的方法,其中,所述根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置,包括:
将所述第一室内图像输入预先训练的信息检测模型,输出所述目标特征点的第一图像位置;
其中所述信息检测模型通过如下方式构建:
检测室内样本图像中的所述目标物体以及所述目标物体上所述目标特征点的第一图像位置;
利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型。
6.根据权利要求5所述的方法,其中,若所述目标物体是位于墙壁上的目标形状的物体,则检测所述室内样本图像中的所述目标物体,包括:
确定所述室内样本图像中像素点在三维空间中的法向量;
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定所述室内样本图像中的墙壁掩模;
检测所述室内样本图像中目标形状的物体;
利用所述墙壁掩模,从检测得到的目标形状的物体中确定位于墙壁上的所述目标物体。
7.根据权利要求6所述的方法,其中,所述根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定所述室内样本图像中的墙壁掩模,包括:
根据所述室内样本图像的相机姿态和所述室内样本图像中像素点在三维空间中的法向量,确定法向量和重力方向垂直的目标像素点;
根据所述目标像素点确定所述室内样本图像中的墙壁掩模。
8.根据权利要求6所述的方法,其中,若所述目标物体为平面物体,则所述利用所述墙壁掩模,从检测得到的目标形状的物体中确定位于墙壁上的所述目标物体,包括:
从检测得到的目标形状的物体中,确定出位于墙壁上的候选物体;
根据相邻两帧室内样本图像确定所述候选物体是否是平面物体;
若是,则将所述候选物体作为所述目标物体。
9.根据权利要求8所述的方法,其中,所述根据相邻两帧室内样本图像确定所述候选物体是否是平面物体,包括:
对相邻两帧室内样本图像做三角测量;
利用测量结果进行平面方程拟合;
根据拟合结果确定所述候选物体是否是平面物体。
10.根据权利要求5所述的方法,其中,若所述目标物体为平面物体,则所述利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型,包括:
将所述目标物体作为前景,对所述前景进行变换;
将随机图片作为背景,合成变换后的所述前景和所述背景,得到至少一个新样本图像;
根据所述室内样本图像、所述至少一个新样本图像和所述目标特征点的第一图像位置,构造训练样本集;
利用构造的训练样本集对所述初始模型进行训练,得到所述信息检测模型。
11.根据权利要求1-4中任一所述的方法,其中,所述根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置,包括:
根据所述第一室内图像确定辅助特征点;
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,以及所述辅助特征点的图像位置和所述辅助特征点的三维空间位置,确定用户的室内位置。
12.根据权利要求11所述的方法,其中,所述根据所述第一室内图像确定辅助特征点,包括:
根据所述第一室内图像,建立室内环境的点云数据,并确定数据点在所述第一室内图像中的第一特征点;
提取所述第一室内图像的第二特征点;
匹配所述第一特征点和所述第二特征点;
将匹配一致的特征点作为所述辅助特征点。
13.根据权利要求1-4中任一所述的方法,其中,所述根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置,包括:
根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定所述第一室内图像的相机位姿;
根据所述相机位姿确定用户的室内位置。
14.一种室内定位装置,包括:
标识获取模块,用于根据用户采集的第一室内图像,获取目标物体上目标特征点的第一图像位置和所述目标特征点的标识;
位置获取模块,用于根据所述目标特征点的标识索引所述目标特征点的三维空间位置;
其中所述目标特征点的三维空间位置,是根据所述目标特征点在第二室内图像中的第二图像位置、所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的姿态确定的;
定位模块,用于根据所述目标特征点的第一图像位置和所述目标特征点的三维空间位置,确定用户的室内位置。
15.根据权利要求14所述的装置,所述装置还包括:
姿态确定模块,用于根据所述目标特征点的标识索引所述目标特征点的三维空间位置之前,根据所述目标物体在所述第二室内图像中的姿态,确定所述目标物体在三维空间中的姿态;
位置确定模块,用于根据所述目标物体在三维空间中的姿态、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
16.根据权利要求15所述的装置,所述位置确定模块,包括:
信息确定单元,用于将所述目标物体关联平面方程中的空间特征参数,作为所述目标物体在三维空间中的姿态信息;
位置确定单元,用于根据所述目标物体在三维空间中的姿态信息、所述第二室内图像的相机姿态以及所述第二图像位置,确定所述目标特征点的三维空间位置。
17.根据权利要求15所述的装置,所述姿态确定模块,包括:
姿态确定单元,用于根据所述第二室内图像的相机姿态以及所述目标物体在所述第二室内图像中的至少一个姿态,确定所述目标物体在三维空间中的姿态。
18.根据权利要求14-17中任一所述的装置,所述标识获取模块,包括:
位置获取单元,用于将所述第一室内图像输入预先训练的信息检测模型,输出所述目标特征点的第一图像位置;
其中所述信息检测模型通过如下方式构建:
检测室内样本图像中的所述目标物体以及所述目标物体上所述目标特征点的第一图像位置;
利用所述室内样本图像和所述目标特征点的第一图像位置,对初始模型进行训练,得到所述信息检测模型。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-13中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-13中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010463444.4A CN111652103B (zh) | 2020-05-27 | 2020-05-27 | 室内定位方法、装置、设备以及存储介质 |
US17/118,901 US20210374977A1 (en) | 2020-05-27 | 2020-12-11 | Method for indoor localization and electronic device |
KR1020200179236A KR102566300B1 (ko) | 2020-05-27 | 2020-12-21 | 실내 측위 방법, 장치, 장비 및 저장 매체 |
JP2020215110A JP7164589B2 (ja) | 2020-05-27 | 2020-12-24 | 室内測位方法、装置、機器および記憶媒体 |
EP20217451.2A EP3916355A1 (en) | 2020-05-27 | 2020-12-28 | Method and apparatus for indoor localization, electronic device, storage medium and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010463444.4A CN111652103B (zh) | 2020-05-27 | 2020-05-27 | 室内定位方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652103A true CN111652103A (zh) | 2020-09-11 |
CN111652103B CN111652103B (zh) | 2023-09-19 |
Family
ID=72349718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010463444.4A Active CN111652103B (zh) | 2020-05-27 | 2020-05-27 | 室内定位方法、装置、设备以及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210374977A1 (zh) |
EP (1) | EP3916355A1 (zh) |
JP (1) | JP7164589B2 (zh) |
KR (1) | KR102566300B1 (zh) |
CN (1) | CN111652103B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634366A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 位置信息的生成方法、相关装置及计算机程序产品 |
WO2023168957A1 (zh) * | 2022-03-11 | 2023-09-14 | 上海商汤智能科技有限公司 | 姿态确定方法、装置、电子设备、存储介质及程序 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332232B (zh) * | 2022-03-11 | 2022-05-31 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107223082A (zh) * | 2017-04-21 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
CN107782322A (zh) * | 2016-08-26 | 2018-03-09 | 光禾感知科技股份有限公司 | 室内定位方法与系统及其室内地图建立装置 |
CN108717710A (zh) * | 2018-05-18 | 2018-10-30 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
US20190265722A1 (en) * | 2018-02-23 | 2019-08-29 | Crown Equipment Corporation | Systems and methods for optical target based indoor vehicle navigation |
CN111199564A (zh) * | 2019-12-23 | 2020-05-26 | 中国科学院光电研究院 | 智能移动终端的室内定位方法、装置与电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10739142B2 (en) * | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
JP6821154B2 (ja) * | 2016-11-16 | 2021-01-27 | 株式会社岩根研究所 | 基準映像地図を用いた自己位置姿勢標定装置 |
CN108062776B (zh) * | 2018-01-03 | 2019-05-24 | 百度在线网络技术(北京)有限公司 | 相机姿态跟踪方法和装置 |
US11276194B2 (en) * | 2018-03-29 | 2022-03-15 | National University Corporation NARA Institute of Science and Technology | Learning dataset creation method and device |
JP2019215647A (ja) * | 2018-06-12 | 2019-12-19 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法及びプログラム。 |
WO2020075252A1 (ja) * | 2018-10-11 | 2020-04-16 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
KR20190121275A (ko) * | 2019-10-07 | 2019-10-25 | 엘지전자 주식회사 | 실내 측위 시스템, 장치 및 방법 |
-
2020
- 2020-05-27 CN CN202010463444.4A patent/CN111652103B/zh active Active
- 2020-12-11 US US17/118,901 patent/US20210374977A1/en not_active Abandoned
- 2020-12-21 KR KR1020200179236A patent/KR102566300B1/ko active IP Right Grant
- 2020-12-24 JP JP2020215110A patent/JP7164589B2/ja active Active
- 2020-12-28 EP EP20217451.2A patent/EP3916355A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107782322A (zh) * | 2016-08-26 | 2018-03-09 | 光禾感知科技股份有限公司 | 室内定位方法与系统及其室内地图建立装置 |
CN107223082A (zh) * | 2017-04-21 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
US20190265722A1 (en) * | 2018-02-23 | 2019-08-29 | Crown Equipment Corporation | Systems and methods for optical target based indoor vehicle navigation |
CN108717710A (zh) * | 2018-05-18 | 2018-10-30 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
CN111199564A (zh) * | 2019-12-23 | 2020-05-26 | 中国科学院光电研究院 | 智能移动终端的室内定位方法、装置与电子设备 |
Non-Patent Citations (2)
Title |
---|
翟敬梅;刘坤;徐晓;: "室内移动机器人自主导航系统设计与方法" * |
邢关生;张慧;刘卫朋;孙鹤旭;: "基于Kinect的特定人员鲁棒识别与定位" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634366A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 位置信息的生成方法、相关装置及计算机程序产品 |
CN112634366B (zh) * | 2020-12-23 | 2023-10-17 | 北京百度网讯科技有限公司 | 位置信息的生成方法、相关装置及计算机程序产品 |
WO2023168957A1 (zh) * | 2022-03-11 | 2023-09-14 | 上海商汤智能科技有限公司 | 姿态确定方法、装置、电子设备、存储介质及程序 |
Also Published As
Publication number | Publication date |
---|---|
CN111652103B (zh) | 2023-09-19 |
KR102566300B1 (ko) | 2023-08-10 |
JP7164589B2 (ja) | 2022-11-01 |
US20210374977A1 (en) | 2021-12-02 |
KR20210146770A (ko) | 2021-12-06 |
JP2021190083A (ja) | 2021-12-13 |
EP3916355A1 (en) | 2021-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111722245B (zh) | 定位方法、定位装置和电子设备 | |
CN112652016B (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
CN111986178A (zh) | 产品缺陷检测方法、装置、电子设备和存储介质 | |
CN111652103B (zh) | 室内定位方法、装置、设备以及存储介质 | |
CN111612852B (zh) | 用于验证相机参数的方法和装置 | |
CN112330730B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111462029B (zh) | 视觉点云与高精地图融合方法、装置和电子设备 | |
CN111767853B (zh) | 车道线检测方法和装置 | |
CN111401251B (zh) | 车道线提取方法、装置、电子设备及计算机可读存储介质 | |
CN110702139B (zh) | 一种时延标定方法、装置、电子设备和介质 | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
CN112241716B (zh) | 训练样本的生成方法和装置 | |
CN111275827A (zh) | 基于边缘的增强现实三维跟踪注册方法、装置和电子设备 | |
CN112509058B (zh) | 外参的计算方法、装置、电子设备和存储介质 | |
CN111311743B (zh) | 三维重建精度测试方法、测试装置和电子设备 | |
CN111462179B (zh) | 三维物体跟踪方法、装置及电子设备 | |
CN112000901B (zh) | 一种提取地理位置点空间关系的方法和装置 | |
CN111932611B (zh) | 物体位置获取方法和装置 | |
CN111311654B (zh) | 一种相机位置的配准方法、装置、电子设备及存储介质 | |
CN111783611A (zh) | 无人车的定位方法、装置、无人车及存储介质 | |
CN113468926A (zh) | 一种取放行为的识别方法、装置及电子设备 | |
CN115773759A (zh) | 自主移动机器人的室内定位方法、装置、设备及存储介质 | |
CN112200190B (zh) | 兴趣点的位置确定方法、装置、电子设备和存储介质 | |
CN112381877B (zh) | 定位融合、室内定位方法、装置、设备及介质 | |
CN110689575B (zh) | 图像采集器标定方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |