CN108151709A - 应用于终端的定位方法和装置 - Google Patents

应用于终端的定位方法和装置 Download PDF

Info

Publication number
CN108151709A
CN108151709A CN201611108431.5A CN201611108431A CN108151709A CN 108151709 A CN108151709 A CN 108151709A CN 201611108431 A CN201611108431 A CN 201611108431A CN 108151709 A CN108151709 A CN 108151709A
Authority
CN
China
Prior art keywords
camera
information
user
viewfinder range
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611108431.5A
Other languages
English (en)
Other versions
CN108151709B (zh
Inventor
胡旷
黄金胜
郑婷婷
李佳
来翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201611108431.5A priority Critical patent/CN108151709B/zh
Publication of CN108151709A publication Critical patent/CN108151709A/zh
Application granted granted Critical
Publication of CN108151709B publication Critical patent/CN108151709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了应用于终端的定位方法和装置。该方法的一具体实施方式包括:在用户终端的摄像头开启的状态下确定待定位对象的位置;根据位置,判断待定位对象是否在摄像头的取景范围内;当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。通过增强现实技术在用户当前通过摄像头采集的图像中标注待定位对象,使得用户可以确定真实环境中待定位对象的真实位置,提升定位的精确度。

Description

应用于终端的定位方法和装置
技术领域
本申请涉及计算机领域,具体涉及终端技术领域,尤其涉及应用于终端的定位方法和装置。
背景技术
互联网的快速发展为人们的生活和工作提供了便利。用户之间在通过网络进行交互的过程中,经常需要确定彼此的位置。目前,通常采用语音、文字进行交互确定彼此的位置。
然而,受到视角、道路环境复杂等因素的影响,使用语音、文字难以准确描述出彼此的位置,导致无法准确地确定彼此的位置。
发明内容
本申请提供了应用于终端的定位方法和装置,用于解决上述背景技术部分存在的技术问题。
第一方面,本申请提供了应用于终端的定位方法,该方法包括:在用户终端的摄像头开启的状态下确定待定位对象的位置;根据位置,判断待定位对象是否在摄像头的取景范围内;当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。
第二方面,本申请提供了应用于终端的定位装置,该装置包括:确定单元,配置用于在用户终端的摄像头开启的状态下确定待定位对象的位置;判断单元,配置用于根据位置,判断待定位对象是否在摄像头的取景范围内;标注单元,配置用于当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。
本申请提供的应用于终端的定位方法和装置,通过在用户终端的摄像头开启的状态下确定待定位对象的位置;根据位置,判断待定位对象是否在摄像头的取景范围内;当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。通过增强现实技术在用户当前通过摄像头采集的图像中标注待定位对象,使得用户可以确定真实环境中待定位对象的真实位置,提升定位的精确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是可以应用于本申请的应用于终端的定位方法或装置的示例性系统架构图;
图2示出了根据本申请的应用于终端的定位方法的一个实施例的流程图;
图3示出了提示用户移动摄像头的一个示例性效果图;
图4示出了待定位对象未被遮挡情况下标注待定位对象的一个效果示意图;
图5示出了待定位对象被遮挡情况下标注待定位对象的一个效果示意图;
图6示出了根据本申请的应用于终端的定位方法的另一个实施例的流程图;
图7示出了计算用于判断是否需要开启定位功能的预设阈值的一个示例性原理图;
图8示出了根据本申请的应用于终端的定位装置的一个实施例的结构示意图;
图9是具有根据本申请的应用于终端的定位装置的终端设备的方框示意图;
图10示出了具有根据本申请的应用于终端的定位装置的终端设备的硬件结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用于本申请的应用于终端的定位方法或装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供传输链路的介质。网络104可以包括各种连接类型,例如有线、无线传输链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯应用,例如、打车类应用、即时通讯类应用等。
终端设备101、102、103可以是具有显示屏并且支持网络通信的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
终端设备101、102、103可以具有定位功能。该定位功能可以确定诸如车辆的待定位对象的位置,根据待定位对象的位置,在摄像头采集的图像中对待定位对象进行诸如高亮显示的标注。服务器105(例如云服务器)可以利用大数据技术对海量的诸如终端设备101、102、103的用户所在的交通状况、待定位对象所在位置的交通状况等信息进行分析,计算出上述定位功能的开启阈值。
请参考图2,其示出了根据本申请的应用于终端的定位方法的一个实施例的流程200。本申请实施例所提供的应用于终端的定位方法可以由图1中的终端设备101、102、103执行,相应地,应用于终端的定位装置可以设置于终端设备101、102、103中。该方法包括以下步骤:
步骤201,在用户终端的摄像头开启的状态下确定待定位对象的位置。
在本实施例中,当用户期望了解待定位对象的位置时,可以在用户终端的摄像头开启的状态下确定待定位对象的位置。
以用户通过打车应用叫车为例,待定位对象为出租车,当用户希望了解出租车的当前位置时,可以开启摄像头。同时,可以获取出租车的位置的GPS坐标。例如,出租车司机使用的终端的打车应用通过终端的操作系统提供的GPS接口读取出租车的位置的GPS坐标,将GPS坐标通过无线网络发送给用户使用的终端的打车应用,确定出租车的位置。
步骤202,根据待定位对象的位置,判断待定位对象是否在摄像头的取景范围内。
在本实施例中,可以根据通过步骤201确定出的待定位对象的位置,判断待定位对象是否在摄像头的取景范围内。摄像头的取景范围可以由摄像头的拍摄角度和摄像头的视角确定。摄像头的拍摄角度可以为用户手持终端时终端所朝向的角度。
在本实施例的一些可选的实现方式中,根据待定位对象的位置,判断待定位对象是否在摄像头的取景范围内包括:计算待定位对象的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离连线的边界线的夹角;当夹角不大于视角时,确定待定位对象在取景范围内;当夹角大于视角时,确定待定位对象不在取景范围内。
在本实施例中,在开启终端的摄像头之后,用户可以手持终端朝向一个角度,该角度为摄像头的拍摄角度。可以判断待定位对象是否在摄像头的取景范围内,判断待定位对象是否在摄像头的取景范围内可以相当于判断以当前摄像头的拍摄角度进行拍摄时,是否可以拍摄到待定位对象。
以待定位对象为车辆为例,可以将用户当前所处的位置作为摄像头的位置。在判断车辆是否在摄像头的取景范围内时,摄像头的视角为以摄像头的位置为顶点,由被拍摄目标的物像可通过摄像头的最大范围的两条边界线构成的夹角。可以计算车辆的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离连线的边界线的夹角。当夹角不大于视角时,确定待定位对象在摄像头的取景范围内;当夹角大于视角时,可以确定待定位对象不在摄像头的取景范围内。
在本实施例的一些可选的实现方式中,在待定位对象被确定为不在摄像头的取景范围内时;还包括:确定摄像头的移动方向,以使待定位对象在移动后的摄像头的取景范围内;生成用于指示用户移动摄像头的移动方向的提示信息;显示提示信息,以提示用户按照提示信息指示的移动方向移动摄像头。
在本实施例中,当待定位对象不在摄像头的取景范围内时,例如用户手持终端朝向的角度无法拍摄到待定位对象时,可以进一步确定摄像头的移动方向,提示用户向确定出的移动方向移动摄像头,直到待定位对象位于摄像头的取景范围内,即可以拍摄到待定位对象。例如,当待定位对象的位置在构成摄像头的视角的边界线的左侧时,可以确定摄像头的移动方向为向右侧移动。
请参考图3,其示出了提示用户移动摄像头的一个示例性效果图。
用户开启终端的摄像头时,摄像头朝向一个角度。摄像头朝向的角度无法拍摄到车辆,此时,可以确定为了拍摄到车辆应移动的角度。当车辆的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离连线的边界线的夹角大于摄像头的视角,并且车辆的位置与摄像头的位置的连线在边界线的左侧时,可以确定摄像头的移动方向为向右侧移动,提示用户向右侧移动摄像头。在用户向屏幕右侧移动摄像头,当车辆的位置位于摄像头的取景范围内时,可以取消提示信息。
步骤203,当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。
在本实施例中,当通过步骤202判断出待定位对象在摄像头的取景范围内时,可以采用增强现实(Augmented Reality,简称AR)方式在摄像头采集的图像中待定位对象对应的位置标注待定位对象。例如,采用增强现实方式在摄像头采集的图像中加入指向待定位对象的箭头来标注待定位对象。
在本实施例的一些可选的实现方式中,采用增强现实方式在摄像头采集的图像中标注待定位对象包括:当待定位对象被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在图像中显示表示待定位对象的图标和通勤信息,通勤信息包括:待定位对象的位置与用户所在位置之间的距离、用户所在位置移动到待定位对象所在位置的时间;当待定位对象未被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在图像中高亮显示指向待定位对象的图标和通勤信息。
在本实施例中,当待定位对象在摄像头的取景范围内时,可以判断在当前摄像头采集的图像中待定位对象是否被其他对象遮挡。
以待定位对象为车辆为例,当车辆在摄像头的取景范围内时,即以当前的拍摄角度可以拍摄到车辆时,在当前摄像头采集的图像中的车辆即被映射到摄像头采集的图像中的车辆被图像中的其他对象遮挡时,可以在摄像头采集的图像中车辆对应的位置上采用增强现实方式显示表示车辆的图标和车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间等通勤信息。在当前摄像头采集的图像中的车辆未被图像中的其他对象遮挡时,可以在摄像头采集的图像中与车辆对应的位置附近采用增强现实方式高亮显示指向车辆的图标和车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间等通勤信息。
请参考图4,其示出了待定位对象未被遮挡情况下标注待定位对象的一个效果示意图。
在图4中,示出了采用增强现实方式在摄像头采集的图像中显示的高亮的指向待定位对象即车辆的图标401、通勤信息402、车辆的位置相对于与用户当前的位置的角度403。通勤信息402包含车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间。
请参考图5,其示出了待定位对象被遮挡情况下标注待定位对象的一个效果示意图。
在图5中,示出了采用增强现实方式在摄像头采集的图像中显示的表示待注对象即车辆的图标501、通勤信息502、车辆的位置相对于与用户当前的位置的角度503。通勤信息502包含车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间。
请参考图6,示出了根据本申请的应用于终端的定位方法的另一个实施例的流程600。本申请实施例所提供的应用于终端的定位方法可以由图1中的终端设备101、102、103执行。该方法包括以下步骤:
步骤601,采用机器学习模型判断是否开启定位功能。
在本实施例中,可以通过机器学习模型判断是否需要开启定位功能即以增强现实方式在摄像头采集的图像中相应的位置标注待定位对象的功能。
以待定位对象为车辆为例,当用户通过打车应用叫车时,可以通过机器学习模型根据用户的位置、车辆出租车当前所在位置的交通状况、用户当前所在的区域的交通状况等判断是否开启定位功能。
在本实施例中,在通过机器学习模型判断是否开启定位功能之前,可以预先利用海量的用户的历史打车信息作为训练样本,对机器学习模型进行训练,计算出用于判断是否需要开启定位功能的预设阈值。
请参考图7,其示出了计算用于判断是否需要开启定位功能的预设阈值的一个示例性原理图。
以用户为候车人,通过打车应用叫车为例,在判断是否需要开启定位功能之前,可以通过大数据平台以机器学习方式预先根据海量的候车人所在的经纬度信息、车辆的实时路况例如车流密度、车辆行驶速度、车头方向等、候车人所在地的交通状况例如交通事件、天气状况、人车直线距离之间间隔的楼宇数量等、道路历史数据例如在候车人所在位置打车的难易程度的反馈信息,计算出用于判断是否需要开启定位功能的预设阈值。
在本实施例中,在通过机器学习模型判断是否开启定位功能时,可以获取用户的打车信息,打车信息可以包括但不限于:用户的位置信息、车辆所在位置的路况信息、指示用户的位置的交通状况的交通状况信息。在通过机器学习模型判断是否开启定位功能时,可以生成打车信息对应的向量,向量中的每一个分量对应打车信息中的一项。将打车信息对应的向量作为机器学习模型的输入向量,得到输出结果,输出结果为需要采用增强现实方式标注待定位对象的概率。然后,可以判断输出结果对应的概率是否大于预设阈值。当输出结果对应的概率大于预设阈值时,可以生成用于触发采用增强现实方式标注待定位对象的定位指令。
步骤602,在用户终端的摄像头开启的状态下确定待定位对象的位置。
在本实施例中,当通过步骤601采用机器学习模型确定开启定位功能时,可以生成定位指令。可以响应于生成定位指令,在用户终端的摄像头开启的状态下,确定待定位对象的位置。
步骤603,根据待定位对象的位置,判断待定位对象是否在摄像头的取景范围内。
在本实施例中,当通过步骤602确定判断待定位对象在摄像头的取景范围内时,可以采用增强现实方式在摄像头采集的图像中标注待定位对象。
步骤604,当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。
以待定位对象为车辆为例,当车辆被图像中的其他对象遮挡时,可以在摄像头采集的图像中车辆对应的位置采用增强现实方式显示表示车辆的图标和车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间等通勤信息。当车辆未被图像中的其他对象遮挡时,可以在摄像头采集的图像中与车辆对应的位置附近采用增强现实方式高亮显示指向车辆的图标和车辆的位置与用户所在位置之间的距离、用户所在位置移动到车辆所在位置的时间等通勤信息。
请参考图8,作为对上述各图所示方法的实现,本申请提供了一种应用于终端的定位装置的一个实施例,该装置实施例与图2所示的方法实施例相对应。
如图8所示,本实施例的应用于终端的定位装置800包括:确定单元801,判断单元802,标注单元803。其中,确定单元801配置用于在用户终端的摄像头开启的状态下确定待定位对象的位置;判断单元802配置用于根据位置,判断待定位对象是否在摄像头的取景范围内;标注单元803配置用于当待定位对象在摄像头的取景范围内时,采用增强现实方式在摄像头采集的图像中标注待定位对象。
在本实施例中,确定单元801可以在用户终端的摄像头开启的状态下确定待定位对象例如车辆的位置。
在本实施例中,判断单元802可以根据通过步骤201确定出的待定位对象的位置,判断待定位对象是否在摄像头的取景范围内。摄像头的取景范围可以由摄像头的拍摄角度和摄像头的视角确定。摄像头的拍摄角度可以为用户手持终端时终端所朝向的角度。
在本实施例中,当通过判断单元802判断出待定位对象在摄像头的取景范围内时时,标注单元803可以采用增强现实方式在摄像头采集的图像中标注待定位对象。
在本实施例的一些可选的实现方式中,判断单元802包括:计算子单元(未示出),配置用于确定待定位对象的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离连线的边界线的夹角;取景范围确定子单元,配置用于当夹角不大于视角时,确定待定位对象在取景范围内;当夹角大于视角时,确定待定位对象不在取景范围内。
在本实施例的一些可选的实现方式中,装置800还包括:移动方向确定单元(未示出),配置用于当待定位对象不在摄像头的取景范围内时,确定摄像头的移动方向;提示信息生成单元(未示出),配置用于生成用于指示用户向移动方向移动摄像头的提示信息;显示单元(未示出),配置用于显示提示信息,以提示用户向移动方向移动摄像头使得待定位对象在移动后的摄像头的取景范围内。
在本实施例的一些可选的实现方式中,标注单元803配置用于当待定位对象被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在图像中显示表示待定位对象的图标和通勤信息,通勤信息包括:待定位对象的位置与用户所在位置之间的距离、用户所在位置移动到待定位对象所在位置的时间;当待定位对象未被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在图像中高亮显示指向待定位对象的图标和通勤信息。
在本实施例的一些可选的实现方式中,装置800还包括:打车信息获取单元(未示出),配置用于当待定位对象为车辆时,在用户终端的摄像头开启的状态下确定待定位对象的位置之前,获取车辆对应的打车信息,打车信息包括:用户的位置信息、车辆所在位置的路况信息、指示用户的位置的交通状况的交通状况信息;向量生成单元(未示出),配置用于生成与打车信息对应的向量,其中,向量中的每一个分量对应打车信息中的一项;学习单元(未示出),配置用于将向量作为机器学习模型的输入向量,得到输出结果,输出结果为需要采用增强现实方式标注待定位对象的概率,机器学习模型预先采用历史打车信息作为训练样本进行训练而生成;定位指令生成单元,配置用于在输出结果对应的概率大于预设阈值时,生成用于触发采用增强现实方式标注待定位对象的定位指令。
在本实施例的一些可选的实现方式中,确定单元801配置用于响应于生成定位指令,在用户终端的摄像头开启的状态下确定待定位对象的位置。
本发明实施例还提供了一种终端设备,该终端设备可以包括图8对应实施例中所描述的应用于终端的定位装置。
下面参考图9,其是具有根据本申请的应用于终端的定位装置的终端设备的方框示意图。
在图9中,示出了终端设备901、应用于终端的定位装置902。终端设备901包含应用于终端的定位装置902。
下面参考图10,其示出了具有根据本申请的应用于终端的定位装置的终端设备1000的硬件结构示意图。
如图10所示,终端设备1000包括中央处理单元(CPU)1001、存储器1002、显示单元1003,其中,CPU 1001、存储器1002、显示单元1003通过总线1004彼此相连。在此,根据本申请的应用于终端的定位方法可以被实现为计算机程序,并且存储在存储器1002中。终端1000中的CPU 1001通过调用存储器1002中存储的上述计算机程序,在显示单元1003显示摄像头采集的图像,图像中包含以增强现实方式显示的指向待定位对象的图标或表示待定位对象的图标。
作为另一方面,本申请还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中所述装置中所包含的非易失性计算机存储介质;也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当所述一个或者多个程序被一个设备执行时,使得所述设备:在用户终端的摄像头开启的状态下确定待定位对象的位置;根据所述位置,判断待定位对象是否在摄像头的取景范围内;当待定位对象在摄像头的取景范围内时,采用增强现实方式在所述摄像头采集的图像中标注待定位对象。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (14)

1.一种应用于终端的定位方法,其特征在于,所述方法包括:
在用户终端的摄像头开启的状态下确定待定位对象的位置;
根据所述位置,判断所述待定位对象是否在摄像头的取景范围内;
当所述待定位对象在摄像头的取景范围内时,采用增强现实方式在所述摄像头采集的图像中标注所述待定位对象。
2.根据权利要求1所述的方法,其特征在于,根据所述位置,判断所述待定位对象是否在摄像头的取景范围内包括:
计算所述待定位对象的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离所述连线的边界线的夹角;
当所述夹角不大于所述视角时,确定所述待定位对象在取景范围内;
当所述夹角大于所述视角时,确定所述待定位对象不在取景范围内。
3.根据权利要求2所述的方法,其特征在于,在所述待定位对象被确定为不在摄像头的取景范围内时;所述方法还包括:
确定摄像头的移动方向;
生成用于指示用户向所述移动方向移动摄像头的提示信息;
显示所述提示信息,以提示用户向所述移动方向移动摄像头使得所述待定位对象在移动后的摄像头的取景范围内。
4.根据权利要求3所述的方法,其特征在于,采用增强现实方式在所述摄像头采集的图像中标注所述待定位对象包括:
当所述待定位对象被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在所述图像中显示表示所述待定位对象的图标和通勤信息,所述通勤信息包括:所述待定位对象的位置与用户所在位置之间的距离、用户所在位置移动到所述待定位对象所在位置的时间;
当所述待定位对象未被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在所述图像中高亮显示指向所述待定位对象的图标和通勤信息。
5.根据权利要求1-4中任一所述的方法,其特征在于,所述待定位对象是车辆;以及
在用户终端的摄像头开启的状态下确定待定位对象的位置之前,所述方法还包括:
获取所述车辆对应的打车信息,所述打车信息包括:所述用户的位置信息、车辆所在位置的路况信息、指示所述用户所在位置的交通状况的交通状况信息;
生成与所述打车信息对应的向量,其中,所述向量中的每一个分量对应所述打车信息中的一项;
将所述向量作为机器学习模型的输入向量,得到输出结果,所述输出结果为需要采用增强现实方式标注所述待定位对象的概率,所述机器学习模型预先采用历史打车信息作为训练样本进行训练而生成;
在所述输出结果对应的概率大于预设阈值时,生成用于触发采用增强现实方式标注所述待定位对象的定位指令。
6.根据权利要求5所述的方法,其特征在于,在用户终端的摄像头开启的状态下获取待定位对象的位置信息包括:
响应于生成所述定位指令,在用户终端的摄像头开启的状态下确定待定位对象的位置。
7.一种应用于终端的定位装置,其特征在于,所述装置包括:
确定单元,配置用于在用户终端的摄像头开启的状态下确定待定位对象的位置;
判断单元,配置用于根据所述位置,判断所述待定位对象是否在摄像头的取景范围内;
标注单元,配置用于当所述待定位对象在摄像头的取景范围内时,采用增强现实方式在所述摄像头采集的图像中标注所述待定位对象。
8.根据权利要求7所述的装置,其特征在于,所述判断单元包括:
计算子单元,配置用于计算所述待定位对象的位置与摄像头的位置的连线与构成摄像头的视角的两条边界线中远离所述连线的边界线的夹角;
取景范围确定子单元,配置用于当所述夹角不大于所述视角时,确定所述待定位对象在取景范围内;当所述夹角大于所述视角时,确定所述待定位对象不在取景范围内。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
移动方向确定单元,配置用于当待定位对象不在摄像头的取景范围内时,确定摄像头的移动方向;
提示信息生成单元,生成用于指示用户向所述移动方向移动摄像头的提示信息;
显示单元,用于显示所述提示信息,以提示用户向所述移动方向移动摄像头使得待定位对象在移动后的摄像头的取景范围内。
10.根据权利要求9所述的装置,其特征在于,所述标注单元配置用于:
当所述待定位对象被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在所述图像中显示表示所述待定位对象的图标和通勤信息,所述通勤信息包括:所述待定位对象的位置与用户所在位置之间的距离、用户所在位置移动到所述待定位对象所在位置的时间;
当所述待定位对象未被摄像头采集的图像中的其他对象遮挡时,采用增强现实方式在所述图像中高亮显示指向所述待定位对象的图标和通勤信息。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
打车信息获取单元,配置用于当所述待定位对象为车辆时,在用户终端的摄像头开启的状态下确定所述待定位对象的位置之前,获取车辆对应的打车信息,所述打车信息包括:所述用户的位置信息、车辆所在位置的路况信息、指示所述用户所在位置的交通状况的交通状况信息;
向量生成单元,配置用于生成与所述打车信息对应的向量,其中,所述向量中的每一个分量对应打车信息中的一项;
学习单元,配置用于将所述向量作为机器学习模型的输入向量,得到输出结果,所述输出结果为需要采用增强现实方式标注待定位对象的概率,所述机器学习模型预先采用历史打车信息作为训练样本进行训练而生成;
定位指令生成单元,配置用于在所述输出结果对应的概率大于预设阈值时,生成用于触发采用增强现实方式标注所述待定位对象的定位指令。
12.根据权利要求11所述的装置,其特征在于,所述确定单元配置用于:
响应于所生成的定位指令,在用户终端的摄像头开启的状态下确定所述待定位对象的位置。
13.一种终端设备,其特征在于,包括如权利要求7-12中任一权利要求所述的应用于终端的定位装置。
14.一种设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1到6中任一所述的方法。
CN201611108431.5A 2016-12-06 2016-12-06 应用于终端的定位方法和装置 Active CN108151709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611108431.5A CN108151709B (zh) 2016-12-06 2016-12-06 应用于终端的定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611108431.5A CN108151709B (zh) 2016-12-06 2016-12-06 应用于终端的定位方法和装置

Publications (2)

Publication Number Publication Date
CN108151709A true CN108151709A (zh) 2018-06-12
CN108151709B CN108151709B (zh) 2020-07-10

Family

ID=62471113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611108431.5A Active CN108151709B (zh) 2016-12-06 2016-12-06 应用于终端的定位方法和装置

Country Status (1)

Country Link
CN (1) CN108151709B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110191316A (zh) * 2019-05-20 2019-08-30 联想(上海)信息技术有限公司 一种信息处理方法及装置、设备、存储介质
CN112637495A (zh) * 2020-12-21 2021-04-09 维沃移动通信有限公司 拍摄方法、装置、电子设备及可读存储介质
CN116310186A (zh) * 2023-05-10 2023-06-23 深圳智筱视觉科技有限公司 一种基于地理位置的ar虚拟空间定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130085653A (ko) * 2012-01-20 2013-07-30 엘지전자 주식회사 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
JP2014013989A (ja) * 2012-07-04 2014-01-23 Alpine Electronics Inc 拡張現実システム
CN103546861A (zh) * 2013-09-16 2014-01-29 常州优趣信息科技有限公司 一种基于ar技术的智能手机定位系统及其方法
CN103826299A (zh) * 2014-03-05 2014-05-28 上海永畅信息科技有限公司 基于无线信号感知的室内增强现实实现方法
CN104504753A (zh) * 2014-12-18 2015-04-08 深圳先进技术研究院 一种基于增强现实的互联网三维ip地图系统及方法
CN104596523A (zh) * 2014-06-05 2015-05-06 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
CN105827820A (zh) * 2015-12-25 2016-08-03 维沃移动通信有限公司 一种移动终端的防偷窥方法及移动终端
CN105976636A (zh) * 2016-05-31 2016-09-28 上海美迪索科电子科技有限公司 一种利用增强现实技术的停车场寻车系统及其寻车方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130085653A (ko) * 2012-01-20 2013-07-30 엘지전자 주식회사 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
JP2014013989A (ja) * 2012-07-04 2014-01-23 Alpine Electronics Inc 拡張現実システム
CN103546861A (zh) * 2013-09-16 2014-01-29 常州优趣信息科技有限公司 一种基于ar技术的智能手机定位系统及其方法
CN103826299A (zh) * 2014-03-05 2014-05-28 上海永畅信息科技有限公司 基于无线信号感知的室内增强现实实现方法
CN104596523A (zh) * 2014-06-05 2015-05-06 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
CN104504753A (zh) * 2014-12-18 2015-04-08 深圳先进技术研究院 一种基于增强现实的互联网三维ip地图系统及方法
CN105827820A (zh) * 2015-12-25 2016-08-03 维沃移动通信有限公司 一种移动终端的防偷窥方法及移动终端
CN105976636A (zh) * 2016-05-31 2016-09-28 上海美迪索科电子科技有限公司 一种利用增强现实技术的停车场寻车系统及其寻车方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110191316A (zh) * 2019-05-20 2019-08-30 联想(上海)信息技术有限公司 一种信息处理方法及装置、设备、存储介质
CN112637495A (zh) * 2020-12-21 2021-04-09 维沃移动通信有限公司 拍摄方法、装置、电子设备及可读存储介质
CN116310186A (zh) * 2023-05-10 2023-06-23 深圳智筱视觉科技有限公司 一种基于地理位置的ar虚拟空间定位方法

Also Published As

Publication number Publication date
CN108151709B (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN113179368B (zh) 一种车辆定损的数据处理方法、装置、处理设备及客户端
CN103812931B (zh) 一种用户信息共享方法、装置及系统
US10740964B2 (en) Three-dimensional environment modeling based on a multi-camera convolver system
CN112258567B (zh) 物体抓取点的视觉定位方法、装置、存储介质及电子设备
CN109325488A (zh) 用于辅助车辆定损图像拍摄的方法、装置及设备
US20160182422A1 (en) Gallery of Messages from Individuals with a Shared Interest
TW201947451A (zh) 車輛定損的交互處理方法、裝置、處理設備及客戶端
TW201947528A (zh) 車輛損傷識別的處理方法、處理設備、客戶端及伺服器
CN108663967A (zh) 用于提供拖车信息的方法和设备
CN109540148A (zh) 基于slam地图的定位方法及系统
CN110516518A (zh) 一种非机动车违法载人检测方法、装置及电子设备
CN108151709A (zh) 应用于终端的定位方法和装置
CN105030491B (zh) 一种导盲方法及导盲系统
US20170085656A1 (en) Automatic absolute orientation and position
CN108682010A (zh) 车辆损伤识别的处理方法、处理设备、客户端及服务器
CN108180909A (zh) 相对位置确定方法、装置及电子设备
CN108156384A (zh) 图像处理方法、装置、电子设备及介质
CN108646280A (zh) 一种定位方法、装置及用户终端
CN110263615A (zh) 车辆拍摄中的交互处理方法、装置、设备及客户端
CN108460051A (zh) 车位地图生成方法、装置及系统
CN109635870A (zh) 数据处理方法和装置
CN108171801A (zh) 一种实现增强现实的方法、装置和终端设备
CN111325088B (zh) 信息处理系统、记录介质以及信息处理方法
CN113176839A (zh) 基于地理位置的车辆互动方法、装置、计算机设备和介质
CN112950443A (zh) 基于图像贴纸的自适应隐私保护方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant