CN110555876A - 用于确定位置的方法和装置 - Google Patents

用于确定位置的方法和装置 Download PDF

Info

Publication number
CN110555876A
CN110555876A CN201810538266.XA CN201810538266A CN110555876A CN 110555876 A CN110555876 A CN 110555876A CN 201810538266 A CN201810538266 A CN 201810538266A CN 110555876 A CN110555876 A CN 110555876A
Authority
CN
China
Prior art keywords
image
user
target
place
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810538266.XA
Other languages
English (en)
Other versions
CN110555876B (zh
Inventor
应倩
赵晨
张永杰
马晓昕
吴中勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810538266.XA priority Critical patent/CN110555876B/zh
Publication of CN110555876A publication Critical patent/CN110555876A/zh
Application granted granted Critical
Publication of CN110555876B publication Critical patent/CN110555876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了用于确定位置的方法和装置。该方法的一具体实施方式包括:响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息;从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域;确定面部图像区域在目标图像中的位置;基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。该实施方式实现了利用用户的面部信息来对用户进行的定位。

Description

用于确定位置的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于确定位置的方法和装置。
背景技术
目前,常用的定位方法包括:卫星定位、无线定位和蓝牙定位。常用的卫星定位方法是利用GPS(Global Positioning System,全球定位系统)提供的导航服务进行定位。无线定位方法主要是基于无线网络,利用RFID(Radio frequency Identification,射频识别)和传感器等设备进行定位。蓝牙定位主要是利用蓝牙信标实现定位。其中,无线定位和蓝牙定位通常用于室内定位。
发明内容
本申请实施例提出了用于确定位置的方法和装置。
第一方面,本申请实施例提供了一种用于确定位置的方法,该方法包括:响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息;从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域;确定面部图像区域在目标图像中的位置;基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
在一些实施例中,基于面部图像区域在目标图像中的位置,确定用户在场所中的位置包括:基于预先构建的、图像中的图像区域在所在的图像中的位置与图像中的图像区域的实际位置之间的对应关系,确定与面部图像区域在目标图像中的位置对应的实际位置作为用户在场所中的位置,其中,实际位置表示图像区域指示的场所中的位置。
在一些实施例中,对应关系通过如下步骤构建:获取拍摄设备拍摄的图像,将图像划分为至少一个图像区域,得到图像区域集合;确定图像区域集合中的图像区域在图像中的位置和图像区域的实际位置;将图像区域集合中的图像区域在图像中的位置和图像区域的实际位置关联存储,得到对应关系。
在一些实施例中,该方法还包括:确定用户在场所中的位置是否满足预设的触发条件;若确定满足预设的触发条件,获取与用户在场所中的位置对应的预设的虚拟物体;以及在目标终端设备上展示虚拟物体。
在一些实施例中,该方法还包括:接收目标终端设备发送的、用户在场所中拍摄的视频;基于视频和用户在场所中的位置,获取用户在场所中的位置的三维地图;以及将三维地图发送至目标终端设备。
第二方面,本申请实施例提供了一种用于确定位置的装置,该装置包括:面部信息获取单元,被配置成响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息;目标图像选取单元,被配置成从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域;图像区域位置确定单元,被配置成确定面部图像区域在目标图像中的位置;用户位置确定单元,被配置成基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
在一些实施例中,用户位置确定单元进一步被配置成:基于预先构建的、图像中的图像区域在所在的图像中的位置与图像中的图像区域的实际位置之间的对应关系,确定与面部图像区域在目标图像中的位置对应的实际位置作为用户在场所中的位置,其中,实际位置表示图像区域指示的场所中的位置。
在一些实施例中,对应关系通过如下步骤构建:获取拍摄设备拍摄的图像,将图像划分为至少一个图像区域,得到图像区域集合;确定图像区域集合中的图像区域在图像中的位置和图像区域的实际位置;将图像区域集合中的图像区域在图像中的位置和图像区域的实际位置关联存储,得到对应关系。
在一些实施例中,该装置还包括:触发确定单元,被配置成确定用户在场所中的位置是否满足预设的触发条件;虚拟物体获取单元,被配置成若确定满足预设的触发条件,获取与用户在场所中的位置对应的预设的虚拟物体;虚拟物体展示单元,被配置成在目标终端设备上展示虚拟物体。
在一些实施例中,该装置还包括:用户视频接收单元,被配置成接收目标终端设备发送的、用户在场所中拍摄的视频;地图获取单元,被配置成基于视频和用户在场所中的位置,获取用户在场所中的位置的三维地图;地图发送单元,被配置成将三维地图发送至目标终端设备。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于确定位置的方法和装置,通过响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息。然后,从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取与面部信息匹配的面部图像区域。之后,基于选取的面部图像区域在所在的图像中的位置确定用户在场所中的位置,从而实现了利用用户的面部信息来实现用户的定位。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于确定位置的方法的一个实施例的流程图;
图3是根据本申请的用于确定位置的方法的一个应用场景的示意图;
图4是根据本申请的用于确定位置的方法的又一个实施例的流程图;
图5是根据本申请的用于确定位置的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于确定位置的方法或用于确定位置的装置的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如摄像类应用、网页浏览器应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如可以接收终端设备101、102、103发送的信息获取请求,然后根据接收到的请求,得到结果信息,并将结果信息返回至终端设备。
需要说明的是,本申请实施例所提供的用于确定位置的方法一般由服务器105执行,相应地,用于确定位置的装置一般设置于服务器105中。
还需要指出的是,终端设备101、102、103中也可以安装有图像和/或视频处理类应用,终端设备101、102、103也可以基于图像和/或视频处理类应用对图像进行处理,此时,用于确定位置的方法也可以由终端设备101、102、103执行,相应地,用于确定位置的装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100可以不存在服务器105和网络104。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于确定位置的方法的一个实施例的流程200。该方法包括以下步骤:
步骤201,响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息。
在本实施例中,用于确定位置的方法的执行主体(如图1所示的服务器105)响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息。其中,目标终端设备可以包括与执行主体通信连接的终端设备。使用目标终端设备的用户可以通过目标终端设备发送信息获取请求。信息获取请求可以包括客户端向执行主体发送的任意网络请求。
实践中,在目标终端设备中可以安装有能够与上述执行主体交互的客户端应用。具体地,用户可以通过操作客户端应用向执行主体发送信息获取请求。例如,用户可以通过点击客户端应用提供的选项或链接、或者用户可以在客户端应用提供的输入框中输入信息,从而触发终端设备向执行主体发送与用户操作相关的信息获取请求。
应当可以理解,不同的客户端应用可能具有不同的操作方式。例如,用户还可以通过手势、触控笔、摇晃终端设备、打开终端设备的摄像头等各种操作来使用客户端应用,进而触发终端设备向执行主体发送与用户操作相关的信息获取请求。
在本实施例中,目标终端设备关联的用户可以指使用该目标终端设备的用户,也可以指上述执行主体中预先存储的与该目标终端设备对应的用户。
需要指出的是,上述执行主体还可以与一些检测装置通信连接。从而当检测装置检测到用户处于监控区域内,那么可以自动对用户的面部信息的采集,并将采集到的面部信息发送至上述执行主体。例如,在一些重要安全场所(例如地铁站等),可以在地铁站各个入口处设置检测装置,只要检测到用户进入,就相当于接收到用户使用的终端设备发送的信息获取请求,同时还可以利用检测设备采集用户的面部信息。
在本实施例中,用户的面部信息可以包括与用户的面部相关的各种信息。举例来说,面部信息可以包括包含用户面部的图像或画像。面部信息也可以包括利用人脸识别技术、人脸处理算法或人脸处理软件等对用户的面部或面部图像处理而提取到的脸部特征。例如,面部信息可以包括面部的几何特征(如面部的眼睛、鼻子、嘴巴和下巴之间结构关系的几何描述)、纹理特征(实践中,可以将面部划分为多个区域,提取每个区域的纹理特征)、颜色特征等。
实践中,上述执行主体可以利用各种方法获取目标终端设备关联的用户的面部信息。例如,上述执行主体可以预先存储目标终端设备与使用该设备的用户的面部信息的对应关系。从而,根据目标终端设备,查询对应的用户的面部信息。或者目标终端设备发送的信息获取请求中也可以携带有用户的面部信息。
或者上述执行主体在接收到信息获取请求之后,可以向目标终端设备发送面部信息获取请求,然后由用户上传包含用户面部的面部图像或者其它面部信息。或者上述执行主体还可以在客户端应用中集成面部信息获取功能,从而用户通过目标终端设备上的客户端应用得到面部信息,然后发送至上述执行主体。
步骤202,从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域。
在本实施例中,上述执行主体可以从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像。其中,用户所在的场所可以包括任何实际的场所。例如,场所可以包括景点或景区、学校、办公楼、家、地铁站等任意用户可以进入的场所。拍摄设备可以包括各种能够拍摄图像或拍摄视频的设备。例如,摄像头或摄像机等。
实践中,上述执行主体可以与拍摄设备通信连接。上述执行主体中可以安装有视频采集卡或控制拍摄设备的相关软件,从而能够实时地获取或监控到拍摄设备拍摄的图像。拍摄设备也可以拍摄视频并将视频返回至上述执行主体,而上述执行主体可以对接收到的视频进行分析处理,得到至少一个图像。
在本实施例中,目标图像包含与面部信息匹配的面部图像区域。其中,图像区域可以包括图像的部分或者整体,即可以将一个图像划分为不同的区域。实践中,根据不同的应用场景,可以有不同的划分方式。划分后得到的各区域的形状、大小可以相同,也可以不同。例如,可以将一个图像平均划分为若干个区域,也可以只在图像中划分一个或多个想要的区域。面部图像区域可以指包含有面部的部分或整体图像的图像区域。
在本实施例中,与面部信息匹配的面部图像区域可以指面部图像区域中的面部指示的用户和面部信息指示的用户相同。具体地,根据不同的面部信息,可能有多种不同的匹配方式。
举例来说,若面部信息是用户的面部图像,那么可以将该面部图像与摄像设备拍摄的图像进行一一比对。对于摄像设备拍摄的一个图像,可以首先根据该图像中包含的面部将该图像划分为若干个图像区域。每个图像区域中可以包含有一个面部图像。然后可以计算面部信息包括的面部图像分别与上述得到的各个面部图像的相似度。实践中,可以利用现有的图像相似度算法、图像相似度计算应用软件或者用于计算图像相似度的神经网络模型等来确定面部信息包括的面部图像分别与摄像设备拍摄的各图像的相似度。之后,可以进一步选取与面部信息包括的面部图像的相似度大于一定阈值的面部图像所在的图像作为目标图像。
举例来说,若面部信息是用户面部的几何特征,那么针对摄像设备拍摄的一个图像,可以首先提取该图像中的一个或多个面部图像,然后进一步检测并提取各个面部图像的几何特征。之后,将提取的几何特征与面部信息包括的几何特征进行比对,选取匹配度在一定阈值之上的提取的几何特征对应的面部图像所在的图像作为目标图像。
实践中,根据不同的应用需求,对得到的包含与面部信息匹配的面部图像区域的图像还可以进一步地进行筛选以得到目标图像。例如,想要用户在某个时间段内的图像,那么可以首先对摄像设备拍摄的图像进行筛选,挑选出拍摄时间在对应时间段内的图像,然后再从这些图像中选取包含与面部信息匹配的面部图像区域的图像。例如,想要用户在发送信息获取请求时的图像,那么可以首先挑选出在发送信息获取请求时,摄像设备拍摄的图像,然后再从这些图像中选取包含与面部信息匹配的面部图像区域的图像。
步骤203,确定面部图像区域在目标图像中的位置。
在本实施例中,上述执行主体可以确定面部图像区域在目标图像中的位置。实践中,根据具体的应用场景,图像区域在所在的图像中的位置的表示方法以及表示精度可以有多种。进一步地,针对不同的图像区域在所在的图像中的位置的表示方法,对应可能有不同的确定图像区域在所在的图像中的位置的方法。
举例来说,可以用像素坐标来表示图像区域在所在的图像中的位置。具体地,若图像区域包含有多个像素,那么可以利用多种不同的方法来确定图像区域对应的像素坐标。例如,若图像区域的形状是规则形状,那么可以选取图像区域的几何中心的像素的坐标作为图像区域在所在的图像中的位置。若图像区域的形状是不规则形状,那么选取与图像区域最接近的规则形状的图像区域(如图像区域的内/外接多边形、内/外接圆等)的几何中心的像素的坐标作为图像区域在所在的图像中的位置,还可以计算图像区域中包含的各个像素的坐标的平均值作为图像区域在所在的图像中的位置。
举例来说,还可以简单地用标号标记图像区域在所在的图像中的位置。具体地,一个包含若干个图像区域的图像,可以将每个图像区域进行标号,然后将每个图像区域的标号作为该图像区域的位置。
实践中,可以预先将目标图像划分为若干个图像区域,并且标记每个图像区域在目标图像中的位置。然后可以通过检测面部图像区域位于或较多的覆盖目标图像中预先划分的哪个图像区域中,之后,可以将其位于或较多覆盖的图像区域在目标图像中的位置作为面部图像区域在目标图像中的位置。
步骤204,基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
在本实施例中,上述执行主体可以基于上述步骤203确定的面部图像区域在目标图像中的位置,利用各种方法来进一步确定用户在场所中的位置。
在本实施例的一些可选的实现方式中,上述执行主体可以预先构建拍摄设备拍摄的图像中的图像区域在所在的图像中的位置与图像区域的实际位置之间的对应关系。其中,实际位置表示图像区域指示的场所中的位置。此时,面部图像区域在目标图像中的位置对应的实际位置即可以表示用户在场所中的位置。
实践中,若拍摄设备的拍摄角度是固定不动的,即该拍摄设备拍摄的各个图像都指示场所中的相同地方或相同位置。因此,可以任意选取一个该拍摄设备拍摄的图像,然后构建该图像中的图像区域在该图像中的位置与图像区域的实际位置之间的对应关系。若拍摄设备的拍摄角度是变化的,那么可以针对每个角度选择一个该角度拍摄到的图像,然后构建该角度的图像中的图像区域在该图像中的位置与图像区域的实际位置之间的对应关系。
实践中,可以首先确定拍摄目标图像的拍摄设备或者拍摄目标图像的拍摄设备和拍摄角度。然后,在该拍摄设备拍摄的图像中的图像区域在该图像中的位置与图像区域的实际位置之间的对应关系中进行查找,得到面部图像区域在目标图像中的位置对应的实际位置。具体地,上述执行主体可以直接接收到拍摄每个图像的拍摄设备和拍摄角度,或者也可以通过分析图像,得到拍摄图像的拍摄设备和拍摄角度。例如根据图像中包含的图像内容来确定拍摄图像的拍摄设备和拍摄角度。
实践中,根据具体地应用需求,可能有不同的查找方式。例如,还可以先在所有存储的对应关系中查找与面部图像区域在目标图像中的位置对应的实际位置。然后在查找结果中进一步地筛选出符合需求的实际位置。
在本实施例的一些可选的实现方式中,上述对应关系可以按照如下步骤构建:首先,获取拍摄设备拍摄的图像,将图像划分为至少一个图像区域。然后,确定各图像区域在该图像中的位置和各图像区域指示的实际位置。之后,将每个图像区域在图像中的位置和该图像区域指示的实际位置关联存储,就可以得到图像中的图像区域在图像中的位置与图像区域的实际位置之间的对应关系。
在本实施例的一些可选的实现方式中,上述执行主体可以预先获取场所的三维地图。然后可以先找出拍摄目标图像的拍摄设备的拍摄范围内的三维地图。然后将目标图像与拍摄设备的拍摄范围内的三维地图进行匹配,从而根据面部图像区域在目标图像中的位置,得到用户在场所中的位置。例如,可以首先将拍摄设备的拍摄范围内的三维地图调整到与目标图像相同的显示角度。然后,将拍摄设备的拍摄范围内的三维地图上和面部图像区域在目标图像中的位置处指示的场所中的位置作为用户在场所中的位置。
在本实施例的一些可选的实现方式中,上述执行主体可以预先获取场所中各拍摄设备的位置,即个拍摄设备在场所中的实际位置。然后将拍摄设备拍摄的图像划分为若干个图像区域。接着,可以利用仿射变换确定并存储各图像区域指示的场所中的实际位置与摄像设备的实际位置的变换关系,例如变换矩阵。之后,可以根据面部图像区域在目标图像中的位置所在的图像区域查找到与其对应的变换关系,然后根据摄像设备的实际位置与查找到的变换关系,求解出面部图像区域在目标图像中的位置所在的图像区域指示的场所中的实际位置作为用户在场所中的位置。
实践中,还可以根据确定的大量的各图像区域指示的场所中的实际位置与摄像设备的实际位置的变换关系,利用拟合方法或者数据拟合或数据处理软件得到图像区域在所在图像中的位置与图像区域的实际位置的变换关系的函数关系。之后,即可以利用得到的函数关系求解出与面部图像区域在目标图像中的位置对应的变换关系。然后,根据摄像设备的实际位置与求解出的变换关系,得到面部图像区域在目标图像中的位置指示的场所中的实际位置作为用户在场所中的位置。
继续参见图3,图3是根据本实施例的用于确定位置的方法的应用场景的一个示意图。在图3的应用场景中,用户可以使用安装有能够与执行主体交互的客户端应用的手机301,并通过操作客户端应用向目标终端设备发送信息获取请求。执行主体302接收到信息获取请求之后,可以利用预先存储的终端设备和终端设备关联的用户的面部图像对应表303查找发送信息获取请求的终端设备对应的面部图像304。
然后,执行主体302可以获取用户所在的场所中的拍摄设备305拍摄的图像306中选取目标图像307。目标图像包含与面部图像304匹配的面部图像区域,且目标图像的拍摄时间为接收到信息获取请求的时间。那么执行主体302可以首先获取在接收到信息获取请求的时间时,区域中的拍摄设备305拍摄到的图像。然后利用面部图像304进行匹配,找出包含与面部信息匹配的面部图像区域的目标图像307。
之后,执行主体302可以选取面部图像区域包含的各像素的坐标的平均值作为面部图像区域在目标图像中的位置308。然后,执行主体302可以查找预先构建的、存储有拍摄设备305拍摄的图像中的图像区域在该图像中的位置和图像区域的实际位置之间的对应关系的位置对应表309,从其中查找与面部图像区域在目标图像中的位置308对应的实际位置,并将该实际位置作为用户在场所中的位置310。
本申请的上述实施例提供的方法通过响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息。然后,从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取与面部信息匹配的面部图像区域。之后,基于选取的面部图像区域在所在的图像中的位置确定用户在场所中的位置,从而实现了利用用户的面部信息来实现用户的定位。
进一步参考图4,其示出了用于确定位置的方法的又一个实施例的流程400,包括以下步骤:
步骤401,响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息。
步骤402,从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域。
步骤403,确定面部图像区域在目标图像中的位置。
步骤404,基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
上述步骤401-404的具体的执行过程可参考图2对应实施例中的步骤201-204的相关说明,在此不再赘述。
步骤405,确定用户在场所中的位置是否满足预设的触发条件。
在本实施例中,上述执行主体可以根据步骤404确定的用户在场所中的位置判断是否符合预设的触发条件。其中,触发条件可以包括根据不同的应用需求进行设置的各种与用户在场所中的位置相关的条件。
举例来说,可以预先在场所中设置一些基准位置,然后可以根据基准位置和用户在场所中的位置关系来设置触发条件。例如触发条件可以设置为用户在场所中的位置与任一基准位置之间的距离小于一米,或者用户在场所中的位置位于以基准位置为圆心、半径为两米的圆形区域内。
举例来说,在一些户外游戏或实景体验区域,可以在特定位置设置一些游戏特效或者触发一定的交互。例如,可以在位置的坐标的横坐标为纵坐标的二倍处设置交互装置。那么触发条件就可以是用户在场所中的位置的坐标的横坐标为纵坐标的二倍。
步骤406,若确定满足预设的触发条件,获取与用户在场所中的位置对应的预设的虚拟物体。
在本实施例中,若上述步骤406判断用户在场所中的位置满足预设的触发条件,上述执行主体可以获取与用户在场所中的位置对应的预设的虚拟物体。其中,虚拟物体可以包括虚拟的各类型物体,例如虚拟图像、虚拟产品、虚拟形象、虚拟交互装置等。
实践中,执行主体中可以预先存储有场所中的位置与虚拟物体的对应关系。因此,上述执行主体可以通过查找上述对应关系得到与用户在场所中的位置对应的虚拟物体。上述执行主体还可以在同一位置处设置多个虚拟物体,然后可以根据用户的信息(例如根据用户的面部信息判断用户的性别、年龄)选择其中一个虚拟物体。上述执行主体还可以根据设置的算法,实时的生成虚拟物体。例如,根据用户的面部信息生成与用户面部类似的虚拟物体。
步骤407,在目标终端设备上展示虚拟物体。
在本实施例中,上述执行主体在步骤406中获取到虚拟物体之后,还可以在目标终端设备上进行展示,从而使得虚拟物体能够呈现给使用目标终端设备关联的用户,或者进一步地实现与用户的交互。实践中,上述执行主体可以向目标终端设备下发虚拟物体,而目标终端设备可以通过其上安装的客户端应用接收并显示虚拟物体。
实践中,可以根据具体的应用场景,设置不同的虚拟物体和交互方式。举例来说,在一些游览景区中,可以预先在每个分叉路口设置虚拟路牌,并设置触发条件为用户位于分叉路口预设范围之内。那么当用户位于某个分叉路口的预设范围之内时,可以触发在目标终端设备上显示该路口的虚拟路牌。在景区的热门景点处,还可以在目标终端设备上展示虚拟留言墙,用户可以在上面签名或者输入游览心得。
举例来说,在一些博物馆或展览馆中,可以预先在不同的展区设置不同的虚拟形象。当用户位于某个展区时触发展示该展区的虚拟形象。进一步地,用户还可通过与虚拟形象进行交互,获取展区中的各展品的相关信息。
举例来说,上述执行主体还可以利用向目标终端设备下发虚拟物体的方式投放广告。例如,当用户在场所中的位置满足触发条件之后,上述执行主体可以获取该位置处对应的投放广告(例如虚拟动画)并在目标终端设备上进行展示。
在本实施例的一些可选的实现方式中,上述执行主体可以接收目标终端设备发送、用户在场所中拍摄的视频。然后,基于接收的视频和上述确定的用户在场所中的位置,获取用户在场所中的位置的三维地图,并将三维地图发送至目标终端设备。
实践中,上述执行主体可以预先存储场所的三维地图。在执行主体接收到目标终端设备发送的、用户在场所中拍摄的视频之后,可以对视频进行分析处理。之后,可以根据分析结果,以及上述确定的用户在场所中的位置,获取用户在场所中的位置的三维地图。
举例来说,上述执行主体可以首先根据用户在场所中的位置,从预先存储的场所的三维地图中获取距离用户在场所中的位置处的预定范围之内的场所的三维地图。然后分析接收到的视频,判断视频的拍摄内容所覆盖的场所区域是否显示在上述获取的三维地图中。
若在,那么可以将上述获取的三维地图作为用户在场所中的位置的三维地图,并发送至目标终端设备。若不在,那么获取上述获取的三维地图没有显示的、视频内容所覆盖的场所的三维地图。之后,可以根据预先存储的场所的三维地图,将两次获取的三维地图进行融合,得到包含两次获取的三维地图的三维地图,并将融合后得到的三维地图作为用户在场所中的位置的三维地图发送至目标终端设备。
举例来说,上述执行主体可以分析接收到的视频,通过提取视频的拍摄内容中出现的景物(例如区域中的标志性建筑、路牌等),计算用户拍摄该视频的拍摄位置。之后,可以进一步判断计算出的拍摄位置与确定的用户在场所中的位置的误差。若两者的误差小于一定阈值,那么可以获取距离用户在场所中的位置处的预定范围之内的场所的三维地图,并发送至目标终端设备。若两者的误差不小于一定阈值,那么可以首先计算两者的平均值。然后获取距离平均值指示的位置处的预定范围之内的场所的三维地图作为用户在场所中的位置的三维地图,并发送至目标终端设备。
实践中,目标终端设备接收到上述执行主体发送的三维地图之后,还可以进一步地对三维地图进行处理,并展示处理后的三维地图。例如,目标终端设备上安装的客户端应用可以利用现有的如增强现实算法,将接收到的三维地图叠加在用户所在的场所中,并在目标终端设备上展示,还可以进一步与目标终端设备的用户进行交互。
从图4中可以看出,与图2对应的实施例相比,本实施例中的信息推送方法的流程400突出了在确定用户在场所中的位置之后,还可以进一步确定该位置是否满足预设的触发条件,若满足触发条件,能够获取并在目标终端设备上展示与该位置对应的虚拟物体,从而有助于提升用户的交互体验。另外,还可以根据终端设备发送的、用户拍摄的场所的视频和用户在场所中的位置,将该位置处的三维地图发送至终端设备。终端设备可以利用增强现实算法将将接收到的三维地图叠加在用户所在的场所中,并在终端设备上展示,从而使得终端设备的用户能够看到叠加了三维地图指示的真实场所的、所在位置的三维地图,并进行互动。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了用于确定位置的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于确定位置的装置500包括面部信息获取单元501、目标图像选取单元502、图像区域位置确定单元503和用户位置确定单元504。其中,面部信息获取单元501,被配置成响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息;目标图像选取单元502,被配置成从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域;图像区域位置确定单元503,被配置成确定面部图像区域在目标图像中的位置;用户位置确定单元504,被配置成基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
在本实施例中,用于确定位置的装置500中:面部信息获取单元501、目标图像选取单元502、图像区域位置确定单元503和用户位置确定单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,用户位置确定单元504进一步被配置成:基于预先构建的、图像中的图像区域在所在的图像中的位置与图像中的图像区域的实际位置之间的对应关系,确定与面部图像区域在目标图像中的位置对应的实际位置作为用户在场所中的位置,其中,实际位置表示图像区域指示的场所中的位置。
在本实施例的一些可选的实现方式中,对应关系通过如下步骤构建:获取拍摄设备拍摄的图像,将图像划分为至少一个图像区域,得到图像区域集合;确定图像区域集合中的图像区域在图像中的位置和图像区域的实际位置;将图像区域集合中的图像区域在图像中的位置和图像区域的实际位置关联存储,得到对应关系。
在本实施例的一些可选的实现方式中,用于确定位置的装置500还包括:触发确定单元(图中未示出),被配置成确定用户在场所中的位置是否满足预设的触发条件;虚拟物体获取单元(图中未示出),被配置成若确定满足预设的触发条件,获取与用户在场所中的位置对应的预设的虚拟物体;虚拟物体展示单元(图中未示出),被配置成在目标终端设备上展示虚拟物体。
在本实施例的一些可选的实现方式中,用于确定位置的单元500还包括:用户视频接收单元(图中未示出),被配置成接收目标终端设备发送的、用户在场所中拍摄的视频;地图获取单元(图中未示出),被配置成基于视频和用户在场所中的位置,获取用户在场所中的位置的三维地图;地图发送单元,被配置成将三维地图发送至目标终端设备。
本申请的上述实施例提供的装置,响应于接收到目标终端设备发送的信息获取请求,面部信息获取单元501获取目标终端设备关联的用户的面部信息。然后,目标图像选取单元502从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取与面部信息匹配的面部图像区域。然后,用户位置确定单元504基于图像区域位置确定单元503确定的面部图像区域在目标图像中的位置,确定用户在场所中的位置,从而实现了利用用户的面部信息来实现用户的定位。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括获取单元、选取单元、图像区域位置确定单元和用户位置确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:响应于接收到目标终端设备发送的信息获取请求,获取目标终端设备关联的用户的面部信息;从用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,目标图像包含与面部信息匹配的面部图像区域;确定面部图像区域在目标图像中的位置;基于面部图像区域在目标图像中的位置,确定用户在场所中的位置。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种用于确定位置的方法,包括:
响应于接收到目标终端设备发送的信息获取请求,获取所述目标终端设备关联的用户的面部信息;
从所述用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,所述目标图像包含与所述面部信息匹配的面部图像区域;
确定所述面部图像区域在所述目标图像中的位置;
基于所述面部图像区域在所述目标图像中的位置,确定所述用户在所述场所中的位置。
2.根据权利要求1所述的方法,所述基于所述面部图像区域在所述目标图像中的位置,确定所述用户在所述场所中的位置包括:
基于预先构建的、所述图像中的图像区域在所在的图像中的位置与所述图像中的图像区域的实际位置之间的对应关系,确定与所述面部图像区域在所述目标图像中的位置对应的实际位置作为所述用户在所述场所中的位置,其中,实际位置表示图像区域指示的所述场所中的位置。
3.根据权利要求2所述的方法,其中,所述对应关系通过如下步骤构建:
获取所述拍摄设备拍摄的图像,将图像划分为至少一个图像区域,得到图像区域集合;
确定所述图像区域集合中的图像区域在图像中的位置和图像区域的实际位置;
将所述图像区域集合中的图像区域在图像中的位置和图像区域的实际位置关联存储,得到所述对应关系。
4.根据权利要求1-3之一所述的方法,所述方法还包括:
确定所述用户在所述场所中的位置是否满足预设的触发条件;
若确定满足预设的触发条件,获取与所述用户在所述场所中的位置对应的预设的虚拟物体;以及
在所述目标终端设备上展示所述虚拟物体。
5.根据权利要求1-3之一所述的方法,其中,所述方法还包括:
接收所述目标终端设备发送的、所述用户在所述场所中拍摄的视频;
基于所述视频和所述用户在所述场所中的位置,获取所述用户在所述场所中的位置的三维地图;以及
将所述三维地图发送至所述目标终端设备。
6.一种用于确定位置的装置,其中,所述装置包括:
面部信息获取单元,被配置成响应于接收到目标终端设备发送的信息获取请求,获取所述目标终端设备关联的用户的面部信息;
目标图像选取单元,被配置成从所述用户所在的场所中的拍摄设备拍摄的至少一个图像中选取目标图像,其中,所述目标图像包含与所述面部信息匹配的面部图像区域;
图像区域位置确定单元,被配置成确定所述面部图像区域在所述目标图像中的位置;
用户位置确定单元,被配置成基于所述面部图像区域在所述目标图像中的位置,确定所述用户在所述场所中的位置。
7.根据权利要求6所述的装置,所述用户位置确定单元进一步被配置成:
基于预先构建的、所述图像中的图像区域在所在的图像中的位置与所述图像中的图像区域的实际位置之间的对应关系,确定与所述面部图像区域在所述目标图像中的位置对应的实际位置作为所述用户在所述场所中的位置,其中,实际位置表示图像区域指示的所述场所中的位置。
8.根据权利要求7所述的装置,其中,所述对应关系通过如下步骤构建:
获取所述拍摄设备拍摄的图像,将图像划分为至少一个图像区域,得到图像区域集合;
确定所述图像区域集合中的图像区域在图像中的位置和图像区域的实际位置;
将所述图像区域集合中的图像区域在图像中的位置和图像区域的实际位置关联存储,得到所述对应关系。
9.根据权利要求6-8之一所述的装置,所述装置还包括:
触发确定单元,被配置成确定所述用户在所述场所中的位置是否满足预设的触发条件;
虚拟物体获取单元,被配置成若确定满足预设的触发条件,获取与所述用户在所述场所中的位置对应的预设的虚拟物体;
虚拟物体展示单元,被配置成在所述目标终端设备上展示所述虚拟物体。
10.根据权利要求6-8之一所述的装置,其中,所述装置还包括:
用户视频接收单元,被配置成接收所述目标终端设备发送的、所述用户在所述场所中拍摄的视频;
地图获取单元,被配置成基于所述视频和所述用户在所述场所中的位置,获取所述用户在所述场所中的位置的三维地图;
地图发送单元,被配置成将所述三维地图发送至所述目标终端设备。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201810538266.XA 2018-05-30 2018-05-30 用于确定位置的方法和装置 Active CN110555876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810538266.XA CN110555876B (zh) 2018-05-30 2018-05-30 用于确定位置的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810538266.XA CN110555876B (zh) 2018-05-30 2018-05-30 用于确定位置的方法和装置

Publications (2)

Publication Number Publication Date
CN110555876A true CN110555876A (zh) 2019-12-10
CN110555876B CN110555876B (zh) 2022-05-03

Family

ID=68733913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810538266.XA Active CN110555876B (zh) 2018-05-30 2018-05-30 用于确定位置的方法和装置

Country Status (1)

Country Link
CN (1) CN110555876B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625101A (zh) * 2020-06-03 2020-09-04 上海商汤智能科技有限公司 一种展示控制方法及装置
CN111698646A (zh) * 2020-06-08 2020-09-22 浙江商汤科技开发有限公司 一种定位方法及装置
CN111739095A (zh) * 2020-06-24 2020-10-02 支付宝(杭州)信息技术有限公司 基于图像识别的定位方法、装置和电子设备
CN111770312A (zh) * 2020-07-13 2020-10-13 深圳市元黎技术有限公司 一种安防监控方法及安防监控系统
CN113449546A (zh) * 2020-03-24 2021-09-28 南宁富桂精密工业有限公司 室内定位方法与装置及计算机可读储存媒体

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101661329A (zh) * 2009-09-22 2010-03-03 北京中星微电子有限公司 智能终端的操作控制方法及装置
JP2012112782A (ja) * 2010-11-24 2012-06-14 Navitime Japan Co Ltd ナビゲーション装置、ナビゲーションシステム、ナビゲーションサーバ、ナビゲーション方法、および、プログラム
CN103049734A (zh) * 2011-10-12 2013-04-17 杜惠红 一种在公共场所找人的方法及系统
CN103051705A (zh) * 2012-12-19 2013-04-17 中兴通讯股份有限公司 目标人的确定方法、装置及移动终端
CN105163281A (zh) * 2015-09-07 2015-12-16 广东欧珀移动通信有限公司 一种室内定位方法及用户终端
CN105929827A (zh) * 2016-05-20 2016-09-07 北京地平线机器人技术研发有限公司 移动机器人及其定位方法
CN106679668A (zh) * 2016-12-30 2017-05-17 百度在线网络技术(北京)有限公司 导航方法和装置
CN107024980A (zh) * 2016-10-26 2017-08-08 阿里巴巴集团控股有限公司 基于增强现实的用户位置定位方法及装置
US20180066953A1 (en) * 2014-05-08 2018-03-08 Brown University Navigation methods and apparatus for the visually impaired
CN107798720A (zh) * 2016-08-30 2018-03-13 中兴通讯股份有限公司 一种地图绘制方法及其装置、移动终端
CN108038880A (zh) * 2017-12-20 2018-05-15 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN108064388A (zh) * 2017-11-16 2018-05-22 深圳前海达闼云端智能科技有限公司 人物搜寻方法、装置、终端及云端服务器
CN108062416A (zh) * 2018-01-04 2018-05-22 百度在线网络技术(北京)有限公司 用于在地图上生成标签的方法和装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101661329A (zh) * 2009-09-22 2010-03-03 北京中星微电子有限公司 智能终端的操作控制方法及装置
JP2012112782A (ja) * 2010-11-24 2012-06-14 Navitime Japan Co Ltd ナビゲーション装置、ナビゲーションシステム、ナビゲーションサーバ、ナビゲーション方法、および、プログラム
CN103049734A (zh) * 2011-10-12 2013-04-17 杜惠红 一种在公共场所找人的方法及系统
CN103051705A (zh) * 2012-12-19 2013-04-17 中兴通讯股份有限公司 目标人的确定方法、装置及移动终端
US20180066953A1 (en) * 2014-05-08 2018-03-08 Brown University Navigation methods and apparatus for the visually impaired
CN105163281A (zh) * 2015-09-07 2015-12-16 广东欧珀移动通信有限公司 一种室内定位方法及用户终端
CN105929827A (zh) * 2016-05-20 2016-09-07 北京地平线机器人技术研发有限公司 移动机器人及其定位方法
CN107798720A (zh) * 2016-08-30 2018-03-13 中兴通讯股份有限公司 一种地图绘制方法及其装置、移动终端
CN107024980A (zh) * 2016-10-26 2017-08-08 阿里巴巴集团控股有限公司 基于增强现实的用户位置定位方法及装置
CN106679668A (zh) * 2016-12-30 2017-05-17 百度在线网络技术(北京)有限公司 导航方法和装置
CN108064388A (zh) * 2017-11-16 2018-05-22 深圳前海达闼云端智能科技有限公司 人物搜寻方法、装置、终端及云端服务器
CN108038880A (zh) * 2017-12-20 2018-05-15 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN108062416A (zh) * 2018-01-04 2018-05-22 百度在线网络技术(北京)有限公司 用于在地图上生成标签的方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HISATO KAWAJI 等: "An image-based Indoor Positioning for Digital Museum Applications", 《MULTIMODAL LOCATION ESTIMATION OF VIDEOS AND IMAGES》 *
JASON ZHI LIANG 等: "Image-Based Positioning of Mobile Devices in Indoor Environments", 《MULTIMODAL LOCATION ESTIMATION OF VIDEOS AND IMAGES》 *
陈岷 等: "基于图像匹配的高精度室内定位技术研究", 《北京测绘》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449546A (zh) * 2020-03-24 2021-09-28 南宁富桂精密工业有限公司 室内定位方法与装置及计算机可读储存媒体
CN111625101A (zh) * 2020-06-03 2020-09-04 上海商汤智能科技有限公司 一种展示控制方法及装置
CN111625101B (zh) * 2020-06-03 2024-05-17 上海商汤智能科技有限公司 一种展示控制方法及装置
CN111698646A (zh) * 2020-06-08 2020-09-22 浙江商汤科技开发有限公司 一种定位方法及装置
CN111739095A (zh) * 2020-06-24 2020-10-02 支付宝(杭州)信息技术有限公司 基于图像识别的定位方法、装置和电子设备
CN111770312A (zh) * 2020-07-13 2020-10-13 深圳市元黎技术有限公司 一种安防监控方法及安防监控系统

Also Published As

Publication number Publication date
CN110555876B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN110555876B (zh) 用于确定位置的方法和装置
US11393173B2 (en) Mobile augmented reality system
TWI615776B (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
CN108921894B (zh) 对象定位方法、装置、设备和计算机可读存储介质
US8872851B2 (en) Augmenting image data based on related 3D point cloud data
EP2418621A1 (en) Apparatus and method for providing augmented reality information
CN108594999B (zh) 用于全景图像展示系统的控制方法和装置
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
CN108174152A (zh) 一种目标监控方法及目标监控系统
Anagnostopoulos et al. Gaze-Informed location-based services
US20190213790A1 (en) Method and System for Semantic Labeling of Point Clouds
CN110033423B (zh) 用于处理图像的方法和装置
CN111242704B (zh) 用于在现实场景中叠加直播人物影像的方法和电子设备
CN109978753B (zh) 绘制全景热力图的方法和装置
CN108985421B (zh) 编码信息的生成方法和识别方法
JP2018049624A (ja) ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム
CN108898678B (zh) 增强现实方法和装置
US20180181596A1 (en) Method and system for remote management of virtual message for a moving object
CN112422653A (zh) 基于位置服务的场景信息推送方法、系统、存储介质及设备
CN110673717A (zh) 用于控制输出设备的方法和装置
CN108171801A (zh) 一种实现增强现实的方法、装置和终端设备
CN109034214B (zh) 用于生成标记的方法和装置
CN109752001B (zh) 导航系统、方法和装置
CN110662015A (zh) 用于显示图像的方法及装置
Jiao et al. A hybrid fusion of wireless signals and RGB image for indoor positioning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant