CN112533135B - 行人定位方法及装置、服务器、存储介质 - Google Patents
行人定位方法及装置、服务器、存储介质 Download PDFInfo
- Publication number
- CN112533135B CN112533135B CN202011294442.3A CN202011294442A CN112533135B CN 112533135 B CN112533135 B CN 112533135B CN 202011294442 A CN202011294442 A CN 202011294442A CN 112533135 B CN112533135 B CN 112533135B
- Authority
- CN
- China
- Prior art keywords
- visual
- target user
- fusion
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000000007 visual effect Effects 0.000 claims abstract description 196
- 238000012544 monitoring process Methods 0.000 claims abstract description 27
- 230000004927 fusion Effects 0.000 claims description 134
- 238000004590 computer program Methods 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 8
- 230000006855 networking Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Navigation (AREA)
Abstract
本申请提供一种行人定位方法及装置、服务器、存储介质,该方法包括确定用户终端移动网络位置信息、定位精度以及用户的面部信息并发送给监控管理平台,获取监控管理平台反馈的目标用户的视觉位置信息,将用户终端的移动网络位置和目标用户的视觉位置信息进行融合得到目标用户的融合位置信息,并将目标用户的融合位置信息发送给智能网联信息收发平台,以使连接所述智能网联信息收发平台的智能网联用户终端能够获取到自身附近用户的融合位置信息。通过上述方式利用移动网络的高覆盖率定位到移动网络覆盖下的用户终端的移动网络位置,摄像头根据用户的面部信息搜寻该用户的视觉位置,通过将移动网络位置和视觉位置进行融合得到该用户的精确位置。
Description
技术领域
本发明涉及定位技术领域,尤其涉及一种行人定位方法及装置、服务器、存储介质。
背景技术
目前对道路上行人的定位方式为单一地移动网络定位或单一地通过摄像头定位。
其中,移动网络定位包含不同定位方式,然而其中各定位方式的定位精度不统一,并且基于移动网络的高精度定位方式尚未成熟。不仅如此,移动网络定位还存在受高楼影响,难以实现经确定位。例如,通过移动网络定位获取到该用户的当前位置,且该用户当前位于高层商场内,通过移动网络定位并不能进一步确定该用户位于该商场的哪一楼层。
其中,单一地通过摄像头定位并不能实现行人的无死角感知和定位。
发明内容
本发明实施例提供一种行人定位方法及装置、服务器、存储介质,通过该行人定位方法可以将通过移动网络定位获取到的用户终端的移动网络位置和通过视觉定位获取到的使用上述用户终端的用户的视觉位置进行融合,以得到该用户的融合位置信息。通过上述方式可以利用移动网络的高覆盖率定位到移动网络覆盖下的用户终端的移动网络位置,进而确定该移动网络位置附近的摄像头根据该用户终端的对应用户的面部信息搜寻该用户的视觉位置,通过将上述移动网络位置和上述视觉位置进行融合得到该用户的精确位置。
第一方面,本发明实施例提供一种行人定位方法,所述方法包括:
确定用户终端的状态信息,并将所述用户终端的状态信息发送给监控管理平台,其中所述用户终端的状态信息包括所述用户终端的移动网络位置信息、所述移动网络位置信息的定位精度以及目标用户的面部信息,其中所述目标用户为使用所述用户终端的用户;以及
获取所述监控管理平台基于所述用户终端的状态信息反馈的所述目标用户的视觉位置信息,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息,并将所述目标用户的融合位置信息发送给智能网联信息收发平台,以使连接所述智能网联信息收发平台的智能网联用户终端能够获取到所述智能网联用户终端附近的所述目标用户的融合位置信息。
进一步地,所述目标用户的视觉位置信息包括单一视觉位置信息或融合视觉位置信息;
在所述将所述用户终端的移动网络位置和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息前,所述方法还包括:
若确定获取到的所述目标用户的视觉位置信息中包含多个摄像头提供的单一视觉位置信息,则将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息。
进一步地,所述将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息包括:
通过第一方式确定所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度;
其中,P1表示所述融合视觉位置的定位精度,pi表示所述第i个摄像头的视觉定位精度;
将所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度作为所述目标用户的融合视觉位置信息。
进一步地,所述将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息包括:
通过第二方式确定所述目标用户的融合视觉位置以及融合视觉定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
其中,P1表示所述融合视觉定位精度,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
将所述目标用户的融合视觉位置以及融合视觉定位精度作为所述目标用户的融合视觉位置信息。
进一步地,所述用户终端的移动网络位置信息包括:所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2;
将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息;
其中,通过第三方式确定所述目标用户的融合位置以及所述融合位置的定位精度:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置;
其中,P3表示所述融合位置的定位精度;
将所述目标用户的融合位置和所述融合位置的定位精度作为所述目标用户的融合位置信息。
进一步地,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置;
其中,通过第四方式确定所述目标用户的融合位置:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置,m表示定位权重;
其中,P3表示所述融合位置的定位精度,m表示定位权重;
将所述目标用户的融合位置和所述二融合位置的定位精度作为所述目标用户的融合位置信息。
进一步地,所述将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的单一视觉位置(a1,b1)以及融合视觉定位精度p1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息。
第二方面,本发明实施例还提供一种行人定位控制装置,上述装置包括:
处理器和存储器,所述存储器用于存储至少一条指令,所述指令由所述处理器加载并执行时以实现上述第一方面提供的数据同步控制方法。
第三方面,本发明实施例还提供一种服务器,上述服务器包括上述第二方面提供的行人定位控制装置。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面提供的行人定位方法。
通过上述技术方案,通过该行人定位方法可以将通过移动网络定位获取到的用户终端的移动网络位置和通过视觉定位获取到的使用上述用户终端的用户的视觉位置进行融合,以得到该用户的融合位置信息。通过上述方式可以利用移动网络的高覆盖率定位到移动网络覆盖下的用户终端的移动网络位置,进而确定该移动网络位置附近的摄像头根据该用户终端的对应用户的面部信息搜寻该用户的视觉位置,通过将上述移动网络位置和上述视觉位置进行融合得到该用户的精确位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的应用场景示意图;
图2为本发明一个实施例提供的行人定位方法的流程示意图;
图3为本发明实施例提供的目标范围的示意图;
图4为本发明实施例提供的视觉定位的示意图;
图5为本发明实施例提供的行人定位控制装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的应用场景示意图,如图1所示,该应用场景中可以包括用户10、用户终端20、基站30、基站计算服务器40、监控管理平台50、摄像头60、智能网联信息收发平台70以及智能网联用户终端80。
其中,用户10所携带的用户终端20在连接移动网络后,向该用户终端20传输无线信号的基站30可以通过基站计算服务器40对该用户终端20进行移动网络定位,以得到该用户终端20的移动网络位置。该基站计算服务器40可以将该用户终端20的移动网络位置及其定位精度连同相应用户10的面部信息(用户注册阶段已获取)发送给监控管理平台50。
该监控管理平台50用于管理部署在用户公共环境的多个摄像60头,并且该监控管理平台50存储有各个摄像头60的安装位置以及相应拍摄视野。进而该监控管理平台50可以根据基站计算服务器40发送的用户终端20的移动网络位置及其定位精度确定一个目标范围,进而根据该目标范围的位置信息确定可以拍摄到该目标范围的相应摄像头60。进一步地,可以拍摄到该目标范围的相应摄像头60根据基站计算服务器40发送的相应用户10的面部信息对拍摄画面内的用户进行面部识别以锁定到相应用户10,进而通过视觉定位获取到相应用户10的视觉位置信息。该监控管理平台50将用户10的视觉位置信息反馈给基站计算服务器40。
基站计算服务器40将用户终端20的移动网络位置和用户10的视觉位置信息进行融合得到用户10的融合位置信息,并将用户10的融合位置信息发送给智能网联信息收发平台70,以使连接所述智能网联信息收发平台70的智能网联用户终端80(如无人驾驶车辆)能够获取到所述智能网联用户终端80附近的相应用户10的融合位置信息。
图2为本发明一个实施例提供的行人定位方法,如图2所示,上述方法可以包括以下步骤:
步骤201:获取用户终端20的状态信息,并将该状态信息发送给监控管理平台50。
其中,结合图1和图2所示,用户10所携带的用户终端20连接移动网络后,基站计算服务器40可以通过移动网络定位的方式确定该用户终端20的移动网络位置信息。具体地,该基站计算服务器40可以通过小区定位法、信号到达角定位法、时间提前量定位法电波传播时间定位法、到达时间差定位法、辅助GPS定位法等定位方式对用户终端20进行移动定位并得到用户终端20的移动网络位置信息。其中,上述各定位方式的定位精度不同,因此,基站计算服务器40确定的用户终端20的移动网络位置信息中除用户终端的移动网络位置外还包括相应定位方式的定位精度。
在一种可实现的方式中,基站计算服务器40采用定位精度较高的移动定位方式,例如定位精度为米级的移动定位方式。
在基站计算服务器40确定用户终端20的移动网络位置以及相应定位精度后,进一步获取使用该用户终端20的用户的面部信息。其中,用户在注册SIM卡阶段通过实名注册提供了用户的个人信息,其中包含用户的面部信息(如用户的身份证的证件照)。例如,基站计算服务器40可以通过用户终端的电话号码在实名认证平台获取用户的面部信息。进一步地,基站计算服务器40将用户终端20的移动网络位置、定位精度以及相应用户10的面部发送给监控管理平台50。
图3为本发明一个实施例提供的目标范围的示意图,结合图2和图3所示,监控管理平台50可以根据接收到的用户终端20的移动网络位置和定位精度确定一个目标范围。具体地,该监控管理平台50部署在相应区域的多个摄像头60的监控视频,并且监控管理平台50中存储有各个摄像头60的安装位置(可以具体到大地坐标位置)以及各个摄像头60的拍摄视野的划线标定。
具体地,该监控管理平台50可以以接收到的用户终端20的移动网络位置(a,b)为中心,以定位精度c为半径确定一个圆形的目标范围。进一步地将该目标范围与多个摄像头60的安装位置以及拍摄视野进行比对得到能够拍摄到该目标区域的摄像头60。
图4为本发明一个实施例提供的视觉定位的示意图,如图4所示,在确定能够拍摄到该目标范围的摄像头60后,通过相应摄像头60基于用户的面部信息进行人脸识别以在拍摄画面中搜索到相应用户。
具体地,如图4所示,当用户10进入摄像头60的拍摄视野后,摄像头60通过面部识别搜索到相应用户后,进一步通过视觉定位确定该用户的视觉位置信息。其中,该摄像头60可以将其拍摄区域通过虚拟网格进行划分,确定目标用户所占据的网格并根据相应网格位置确定用户视觉位置,进一步地,监控管理平台50还可以将摄像头提供的用户占据网格位置转换为大地坐标位置。进而监控管理平台50将用户10的视觉位置信息(包括上述转换后的用户10所在的大地坐标位置以及上述视觉定位的定位精度)反馈给基站计算服务器40。其中,若目标范围内有多个摄像头60拍摄到用户10并提供了用户占据网格位置,监控管理平台50将多个摄像头60提供的用户占据网格位置分别转换为相应的大地坐标位置,并将转换得到的上述多个大地坐标位置以及监控管理平台50的上述视觉定位的定位精度作为用户10的视觉位置信息发送给基站计算服务器40。
步骤202:获取监控管理平台50反馈的相应用户10的视觉位置信息,并将用户终端20的移动网络位置信息和上述相应用户10的视觉位置信息进行融合得到该用户的融合位置信息。
其中,基站计算服务器40获取到监控管理平台50反馈的用户10的视觉位置信息后,确定该视觉位置信息中包括用户10的单个大地位置信息或多个大地位置信息。
具体地,在上述视觉位置信息中包括多个大地位置信息的情况下,基站计算服务器可以将上述多个大地位置信息进行融合以得到用户10的融合视觉位置信息。
在一种实现方式中,可以通过第一方式确定所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度;
其中,P1表示所述融合视觉位置的定位精度,pi表示所述第i个摄像头的视觉定位精度;
将所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度作为所述目标用户的融合视觉位置信息。
在另一种实现方式中,可以通过第二方式确定所述目标用户的融合视觉位置以及融合视觉定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
其中,P1表示所述融合视觉定位精度,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
将所述目标用户的融合视觉位置以及融合视觉定位精度作为所述目标用户的融合视觉位置信息。
在一种实现方式中,所述用户终端的移动网络位置信息包括:所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2;
将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息;
其中,通过第三方式确定所述目标用户的融合位置以及所述融合位置的定位精度:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置;
其中,P3表示所述融合位置的定位精度;
将所述目标用户的融合位置和所述融合位置的定位精度作为所述目标用户的融合位置信息。
在另一种实现方式中,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置;
其中,通过第四方式确定所述目标用户的融合位置:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置,m表示定位权重;
其中,P3表示所述融合位置的定位精度,m表示定位权重;
将所述目标用户的融合位置和所述二融合位置的定位精度作为所述目标用户的融合位置信息。
在一种实施方式中,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的单一视觉位置(a1,b1)以及融合视觉定位精度p1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息。
步骤203:将融合得到该用户的融合位置信息发送给智能网联信息收发平台,以使智能网联用户终端能够获取到自身附近行人的融合位置信息。
其中,基站计算服务器40确定用户10的融合位置信息后,可以将上述用户10的融合位置信息发送给智能网联信息收发平台70。该智能网联信息收发平台可以根据用户10的融合位置信息进一步确定用户的运动轨迹以及运动模式,或者根据上述信息(用户10的融合位置信息、运动轨迹以及运动模式)创建用户10的行为画像。进而将用户10的融合位置信息、运动轨迹、运动模式以及行为画像中的一者或多者提供至需求相应信息的连接智能网联信息收发平台70的智能网联用户终端80。例如,该智能网联用户终端80为无人驾驶车辆,该无人驾驶车辆可以通过在智能网联信息收发平台上获取车辆周围的用户10的融合位置信息,以根据车辆行进方向上用户10的融合位置信息控制车辆行驶时进行相应用户10进行避让,确保车辆安全行驶。
图5为本发明另一个实施例提供的行人定位控制装置,如图5所示,该装置可以包括处理器501和存储器502,所述存储器502用于存储至少一条指令,所述指令由所述处理器501加载并执行以下步骤:
确定用户终端的状态信息,并将所述用户终端的状态信息发送给监控管理平台,其中所述用户终端的状态信息包括所述用户终端的移动网络位置信息、所述移动网络位置信息的定位精度以及目标用户的面部信息,其中所述目标用户为使用所述用户终端的用户;以及
获取所述监控管理平台基于所述用户终端的状态信息反馈的所述目标用户的视觉位置信息,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息,并将所述目标用户的融合位置信息发送给智能网联信息收发平台,以使连接所述智能网联信息收发平台的智能网联用户终端能够获取到所述智能网联用户终端附近的所述目标用户的融合位置信息。
进一步地,所述目标用户的视觉位置信息包括单一视觉位置信息或融合视觉位置信息;
在所述将所述用户终端的移动网络位置和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息前,所述方法还包括:
若确定获取到的所述目标用户的视觉位置信息中包含多个摄像头提供的单一视觉位置信息,则将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息。
进一步地,所述将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息包括:
通过第一方式确定所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度;
其中,P1表示所述融合视觉位置的定位精度,pi表示所述第i个摄像头的视觉定位精度;
将所述目标用户的融合视觉位置以及所述融合视觉位置的定位精度作为所述目标用户的融合视觉位置信息。
进一步地,所述将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息包括:
通过第二方式确定所述目标用户的融合视觉位置以及融合视觉定位精度:
其中,(A1,B1)表示所述目标用户的融合视觉位置,(ai,bi)表示第i个摄像头提供的所述目标用户的单一视觉位置,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
其中,P1表示所述融合视觉定位精度,pi表示所述第i个摄像头的视觉定位精度,m表示定位权重;
将所述目标用户的融合视觉位置以及融合视觉定位精度作为所述目标用户的融合视觉位置信息。
进一步地,所述用户终端的移动网络位置信息包括:所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2;
将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息;
其中,通过第三方式确定所述目标用户的融合位置以及所述融合位置的定位精度:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置;
其中,P3表示所述融合位置的定位精度;
将所述目标用户的融合位置和所述融合位置的定位精度作为所述目标用户的融合位置信息。
进一步地,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置;
其中,通过第四方式确定所述目标用户的融合位置:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置,m表示定位权重;
其中,P3表示所述融合位置的定位精度,m表示定位权重;
将所述目标用户的融合位置和所述二融合位置的定位精度作为所述目标用户的融合位置信息。
进一步地,所述将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的单一视觉位置(a1,b1)以及融合视觉定位精度p1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息。
本发明实施例还提供一种服务器,且该服务器中包括图5所示的实施例中的行人定位控制装置。
其中,该服务器可以为移动边缘计算(Mobile Edge Computing,MEC)设备。
另一方面,本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面提供的行人定位方法。
可以理解的是,所述应用可以是安装在终端上的应用程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本发明实施例对此不进行限定。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(Processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种行人定位方法,其特征在于,所述方法包括:
确定用户终端的状态信息,并将所述用户终端的状态信息发送给监控管理平台,其中所述用户终端的状态信息包括所述用户终端的移动网络位置信息、所述移动网络位置信息的定位精度以及目标用户的面部信息,其中所述目标用户为使用所述用户终端的用户;以及
获取所述监控管理平台基于所述用户终端的移动网络位置信息、所述移动网络位置信息的定位精度以及目标用户的面部信息反馈的所述目标用户的视觉位置信息,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息,并将所述目标用户的融合位置信息发送给智能网联信息收发平台,以使连接所述智能网联信息收发平台的智能网联用户终端能够获取到所述智能网联用户终端附近的所述目标用户的融合位置信息。
2.根据权利要求1所述的方法,其特征在于,所述目标用户的视觉位置信息包括单一视觉位置信息或融合视觉位置信息;
在所述将所述用户终端的移动网络位置和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息前,所述方法还包括:
若确定获取到的所述目标用户的视觉位置信息中包含多个摄像头提供的单一视觉位置信息,则将所述多个摄像头提供的单一视觉位置信息进行融合得到所述融合视觉位置信息。
5.根据权利要求3或4所述的方法,其特征在于,所述用户终端的移动网络位置信息包括:所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2;
将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息;
其中,通过第三方式确定所述目标用户的融合位置以及所述融合位置的定位精度:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置;
其中,P3表示所述融合位置的定位精度;
将所述目标用户的融合位置和所述融合位置的定位精度作为所述目标用户的融合位置信息。
6.根据权利要求5所述的方法,其特征在于,将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的融合视觉位置(A1,B1)以及融合视觉定位精度P1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置;
其中,通过第四方式确定所述目标用户的融合位置:
其中,(A3,B3)表示所述目标用户的融合位置,(Ai,Bi)表示待融合的所述目标用户的融合视觉位置和所述用户终端的移动网络位置,m表示定位权重;
其中,P3表示所述融合位置的定位精度,m表示定位权重;
将所述目标用户的融合位置和所述融合位置的定位精度作为所述目标用户的融合位置信息。
7.根据权利要求2所述的方法,其特征在于,所述将所述用户终端的移动网络位置信息和所述目标用户的视觉位置信息进行融合得到所述目标用户的融合位置信息包括:将所述目标用户的单一视觉位置(a1,b1)以及融合视觉定位精度p1与所述用户终端的移动网络位置(A2,B2)以及移动定位精度P2进行融合,以确定所述目标用户的融合位置信息。
8.一种行人定位控制装置,其特征在于,所述装置包括:
处理器和存储器,所述存储器用于存储至少一条指令,所述指令由所述处理器加载并执行时以实现如权利要求1-7中任意一项所述的数据同步控制方法。
9.一种服务器,其特征在于,所述服务器包括:权利要求8所述的行人定位控制装置。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任意一项所述的行人定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011294442.3A CN112533135B (zh) | 2020-11-18 | 2020-11-18 | 行人定位方法及装置、服务器、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011294442.3A CN112533135B (zh) | 2020-11-18 | 2020-11-18 | 行人定位方法及装置、服务器、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112533135A CN112533135A (zh) | 2021-03-19 |
CN112533135B true CN112533135B (zh) | 2022-02-15 |
Family
ID=74981247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011294442.3A Active CN112533135B (zh) | 2020-11-18 | 2020-11-18 | 行人定位方法及装置、服务器、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112533135B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924927A (zh) * | 2010-08-10 | 2010-12-22 | 中兴通讯股份有限公司 | 联合视频监控方法及系统 |
CN110375739A (zh) * | 2019-06-26 | 2019-10-25 | 中国科学院深圳先进技术研究院 | 一种移动端视觉融合定位方法、系统及电子设备 |
CN111479224A (zh) * | 2020-03-09 | 2020-07-31 | 深圳市广道高新技术股份有限公司 | 高精度轨迹恢复方法、系统及电子设备 |
CN111741435A (zh) * | 2019-03-19 | 2020-10-02 | 华为技术有限公司 | 目标物体的监控方法和装置 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108271115A (zh) * | 2016-12-30 | 2018-07-10 | 中国移动通信集团内蒙古有限公司 | 一种区域人口密度的估计方法及装置 |
CN106550195A (zh) * | 2017-01-19 | 2017-03-29 | 深圳前海弘稼科技有限公司 | 一种信息获取方法及获取设备 |
CN109817022B (zh) * | 2019-02-13 | 2022-03-22 | 腾讯科技(深圳)有限公司 | 一种获取目标对象位置的方法、终端、汽车及系统 |
CN109688544B (zh) * | 2019-02-25 | 2020-11-06 | 北京化工大学 | 一种基于多移动终端的无线定位系统和方法 |
-
2020
- 2020-11-18 CN CN202011294442.3A patent/CN112533135B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101924927A (zh) * | 2010-08-10 | 2010-12-22 | 中兴通讯股份有限公司 | 联合视频监控方法及系统 |
CN111741435A (zh) * | 2019-03-19 | 2020-10-02 | 华为技术有限公司 | 目标物体的监控方法和装置 |
CN110375739A (zh) * | 2019-06-26 | 2019-10-25 | 中国科学院深圳先进技术研究院 | 一种移动端视觉融合定位方法、系统及电子设备 |
CN111479224A (zh) * | 2020-03-09 | 2020-07-31 | 深圳市广道高新技术股份有限公司 | 高精度轨迹恢复方法、系统及电子设备 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112533135A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI770544B (zh) | 視訊與無線電熔合為主的準確室內定位的設備及其儲存媒體 | |
US7991194B2 (en) | Apparatus and method for recognizing position using camera | |
US20180059659A1 (en) | Delivery System and Delivery Method | |
CN108347691B (zh) | 一种定位方法及设备 | |
CN110164135B (zh) | 一种定位方法、定位装置及定位系统 | |
WO2013162140A1 (ko) | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 | |
CN103155001A (zh) | 用于多用户扩增现实的在线基准生成和跟踪 | |
US11416719B2 (en) | Localization method and helmet and computer readable storage medium using the same | |
CN104936283A (zh) | 室内定位方法、服务器和系统 | |
CN111623765B (zh) | 基于多模态数据的室内定位方法及系统 | |
CN103245337B (zh) | 一种获取移动终端位置的方法、移动终端和位置检测系统 | |
CN113115216B (zh) | 室内定位方法、业务管理服务器及计算机存储介质 | |
CN106470478B (zh) | 一种定位数据处理方法、装置和系统 | |
US20220377285A1 (en) | Enhanced video system | |
KR102074684B1 (ko) | 위치정보와 방향정보를 기반으로 한 ar 또는 vr 영상 제공 방법 | |
KR20160120895A (ko) | 영상과 위치정보를 연계한 데이터베이스를 구축하는 방법, 상기 데이터베이스를 활용하여 측위하는 방법, 및 상기 방법들을 수행하는 전자 장치 | |
CN112422653A (zh) | 基于位置服务的场景信息推送方法、系统、存储介质及设备 | |
CN112533135B (zh) | 行人定位方法及装置、服务器、存储介质 | |
CN103591953B (zh) | 一种基于单摄像头的人员定位方法 | |
KR101601726B1 (ko) | 복수의 영상 획득 장치를 포함하는 모바일 단말기의 위치 및 자세 결정 방법 및 시스템 | |
CN114782496A (zh) | 一种对象的跟踪方法、装置、存储介质及电子装置 | |
CN105157681B (zh) | 室内定位方法、装置和摄像机以及服务器 | |
KR101943431B1 (ko) | 코드를 이용한 서비스 제공 방법과 그를 위한 서비스 제공 장치, 코드 처리 장치 | |
CN110264521A (zh) | 一种基于双目摄像头的定位方法及系统 | |
CN116839577A (zh) | 目标的移动路径检测方法、装置、设备、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 101500 room 106-266, building 2, courtyard 8, Xingsheng South Road, Miyun District, Beijing Applicant after: Unicom Zhiwang Technology Co.,Ltd. Address before: 101500 room 106-266, building 2, courtyard 8, Xingsheng South Road, Miyun District, Beijing Applicant before: Unicom Intelligent Network Technology Co., Ltd |
|
GR01 | Patent grant | ||
GR01 | Patent grant |