CN113177463A - 一种移动场景下的目标定位方法及装置 - Google Patents

一种移动场景下的目标定位方法及装置 Download PDF

Info

Publication number
CN113177463A
CN113177463A CN202110458535.3A CN202110458535A CN113177463A CN 113177463 A CN113177463 A CN 113177463A CN 202110458535 A CN202110458535 A CN 202110458535A CN 113177463 A CN113177463 A CN 113177463A
Authority
CN
China
Prior art keywords
image
client
clustering
cluster
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110458535.3A
Other languages
English (en)
Inventor
张旖旎
董江雪
张梦鹿
李婷婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202110458535.3A priority Critical patent/CN113177463A/zh
Publication of CN113177463A publication Critical patent/CN113177463A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/02Banking, e.g. interest calculation or account maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Finance (AREA)
  • Artificial Intelligence (AREA)
  • Accounting & Taxation (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种移动场景下的目标定位方法及装置,涉及人工智能领域,也可用于金融领域,包括:对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。本申请能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,最终得到客户目标定位图像。

Description

一种移动场景下的目标定位方法及装置
技术领域
本申请涉及人工智能领域,可以用于金融领域,具体是一种移动场景下的目标定位方法及装置。
背景技术
当前,信息技术发展迅猛,银行业在智能化发展方向上有着广阔的前景。在客户到银行办理业务的过程中,如何准确地把握客户需求,为客户提供便捷及有针对性的服务,提高客户体验是银行业务人员的迫切需求,同时也是银行业在未来智能化发展过程中的一项挑战。
当客户在银行办理业务时,通过对客户进行移动定位以及采集连续图像可以进行客户行为模式分析,从而提高对客户业务办理服务过程中的针对性。通过客户行为模式进行分析,同时科学开展客户需求分析可以准确识别客户需求,量化客户的敏感度,有针对性地细化客户服务策略,有效控制线下服务的人工成本,提升企业的公众形象。
为达到以上目的,现有技术往往采用基于灰度图像匹配算法以及聚类分析算法。但如果目标(客户)移动过程中有障碍物阻挡等情况出现,则采用基于灰度图像匹配算法匹配到的图像可能不准确,造成定位模糊。同时,大多数聚类分析算法在数据存在孤立点时将会变得非常脆弱。
发明内容
针对现有技术中的问题,本申请提供一种移动场景下的目标定位方法及装置,能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,最终得到客户目标定位图像。
为解决上述技术问题,本申请提供以下技术方案:
第一方面,本申请提供一种移动场景下的目标定位方法,包括:
对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;
对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
进一步地,所述对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
对所述客户行为图像进行数据子集随机划分;
分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
根据所述簇对各数据子集进行聚类,得到聚类图像。
进一步地,所述对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
对所述客户行为图像进行数据子集随机划分;
分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像。
进一步地,所述根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像,包括:
根据预先设定的层级及所述簇对各数据子集进行分层聚类,得到新簇;
在每一新簇中,各代表点向所述新簇的中心移动,得到所述新簇的形状及移动特性;
根据所述形状及移动特性确定分层聚类图像。
进一步地,所述根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像,包括:
对所述聚类图像中经过矩阵变换得到的各像素点进行定位,确定各像素点对应的特征点及所述特征点的主方向;
根据所述主方向确定所述特征点的描述子;
根据所述聚类图像对应的描述子及预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;所述模板图像为每个簇的中心图像。
进一步地,对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像,包括:
计算所述客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
根据预先设定的迭代轮次及所述投影误差更新最优内点集,得到所述客户目标定位图像。
进一步地,预先建立的误匹配点剔除模型的步骤,包括:
从所述客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
计算所述客户初始定位图像中剩余的像素点与所述参数模型之间的距离;
根据预先设定的距离阈值及所述距离将所述像素点划分为局内点及局外点;
迭代划分所述局内点及局外点的步骤,将所述局内点最多的参数模型作为误匹配点剔除模型。
第二方面,本申请提供一种移动场景下的目标定位装置,包括:
聚类图像生成单元,用于对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
初始定位图像生成单元,用于根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;
目标定位图像生成单元,用于对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
进一步地,所述聚类图像生成单元,包括:
子集划分模块,用于对所述客户行为图像进行数据子集随机划分;
簇确定模块,用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
聚类图像生成模块,用于根据所述簇对各数据子集进行聚类,得到聚类图像。
进一步地,所述聚类图像生成单元,还包括:
子集划分模块,还用于对所述客户行为图像进行数据子集随机划分;
簇确定模块,还用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
分层聚类图像生成模块,用于根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像。
进一步地,所述分层聚类图像生成模块,包括:
新簇确定子模块,用于根据预先设定的层级及所述簇对各数据子集进行分层聚类,得到新簇;
形状移动特性确定子模块,用于在每一新簇中,各代表点向所述新簇的中心移动,得到所述新簇的形状及移动特性;
分层聚类图像生成子模块,用于根据所述形状及移动特性确定分层聚类图像。
进一步地,所述初始定位图像生成单元,包括:
特征点主方向确定模块,用于对所述聚类图像中经过矩阵变换得到的各像素点进行定位,确定各像素点对应的特征点及所述特征点的主方向;
描述子确定模块,用于根据所述主方向确定所述特征点的描述子;
初始定位图像生成模块,用于根据所述聚类图像对应的描述子及预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;所述模板图像为每个簇的中心图像。
进一步地,目标定位图像生成单元,包括:
投影误差计算模块,用于计算所述客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
客户目标定位图像生成模块,用于根据预先设定的迭代轮次及所述投影误差更新最优内点集,得到所述客户目标定位图像。
进一步地,所述的移动场景下的目标定位装置,还包括:
参数模型确定单元,用于从所述客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
距离计算单元,用于计算所述客户初始定位图像中剩余的像素点与所述参数模型之间的距离;
局内局外区分单元,用于根据预先设定的距离阈值及所述距离将所述像素点划分为局内点及局外点;
剔除模型确定单元,用于迭代划分所述局内点及局外点的步骤,将所述局内点最多的参数模型作为误匹配点剔除模型。
第三方面,本申请提供一种电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述移动场景下的目标定位方法的步骤。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述移动场景下的目标定位方法的步骤。
针对现有技术中的问题,本申请提供的移动场景下的目标定位方法及装置,能够将聚类算法与图像匹配相结合,采集多场景环境下的客户在业务办理过程的客户行为图像,并对其进行聚类分析,将聚类后的图像进行关联性匹配,从而降低误匹配率,提高客户行为模式分析的准确性,以便在了解客户行为模式的前提下,为客户提供更适合的产品与服务,提升客户的满意度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中移动场景下的目标定位方法的流程图;
图2为本申请实施例中得到聚类图像的流程图之一;
图3为本申请实施例中得到聚类图像的流程图之二;
图4为本申请实施例中得到各分层聚类图像的流程图;
图5为本申请实施例中得到客户初始定位图像;
图6为本申请实施例中得到客户目标定位图像;
图7为本申请实施例中预先建立的误匹配点剔除模型的流程图;
图8为本申请实施例中移动场景下的目标定位装置的结构图之一;
图9为本申请实施例中聚类图像生成单元的结构图之一;
图10为本申请实施例中聚类图像生成单元的结构图之二;
图11为本申请实施例中分层聚类图像生成模块的结构图;
图12为本申请实施例中初始定位图像生成单元的结构图;
图13为本申请实施例中目标定位图像生成单元的结构图;
图14为本申请实施例中移动场景下的目标定位装置的结构图之二;
图15为本申请实施例中的电子设备的结构示意图;
图16为本申请实施例中的基于聚类分析与差分图像匹配的目标定位模型整体架构图;
图17为本申请实施例中的尺度空间构建示意图;
图18为本申请实施例中的样本选取与模型建立示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请提供的移动场景下的目标定位方法及装置,可用于金融领域,也可用于除金融领域之外的任意领域,本申请提供的移动场景下的目标定位方法及装置的应用领域不做限定。
参见图1,为了能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,最终得到客户目标定位图像,本申请提供一种移动场景下的目标定位方法,包括:
S101:对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
需要说明的是,本申请提供的移动场景下的目标定位方法基于Cure(ClusteringUsing Representative)聚类算法、Surf(Speeded Up Robust Feature)图像匹配算法及RANSAC(Random Sample Consensus)随机抽样一致算法实现,适用于多种目标移动场景,能够在目标移动场景下定位目标。
具体地,在一实施例中,本申请提供的方法可以用于对在银行网点中办理银行业务的客户进行目标(客户)定位,以便业务人员在后续基于定位信息分析客户的行为模式。
在对某一段时间内来银行网点办理业务的客户进行目标定位前,首先需要采集该时间段内在银行网点办理业务的客户对应的客户行为图像。客户行为图像可以是采集到的连续视频图像中的各帧。针对连续视频图像中的各帧,可以利用聚类算法及图像匹配算法进行处理,得到客户在该段时间内的目标定位信息。继而业务人员可以分析其运动情况及行为方式,并将所得到的运动情况及行为方式作为客户行为信息传入银行业务后台系统,供业务人员后期在了解了客户的行为信息后,有针对性地向客户提供业务办理服务,从而提高客户业务办理的效率及满意度。
具体地,在获取到业务办理过程的客户行为图像后,可以利用Cure聚类算法按照客户办理业务时所处的业务环境进行聚类,得到聚类图像。所谓业务环境是指,客户在网点大厅办理业务时客户的周边环境。根据业务环境对客户行为图像进行聚类可使得含有相似或相关业务环境的客户行为图像聚为一类,进而在这一类中完成图像匹配,达到快速匹配精确匹配的目的。
S102:根据预先确定的模板图像匹配聚类图像,得到客户初始定位图像;
可以理解的是,本申请实施例采用Surf图像匹配算法完成聚类图像匹配。Surf图像匹配算法为一基于特征的图像匹配算法。该算法通过构建尺度空间可以完成特征点提取,然后利用提取到的特征点将经过聚类后的客户行为图像进行特征匹配,从而完成客户初始定位。所谓客户初始定位是指得到未进行误匹配点剔除的客户定位图像的过程。
需要说明的是,常见的基于灰度的图像匹配算法计算复杂,且实时性不高。本申请实施例采用的图像匹配算法对于图像中多目标的定位有着很好的行为描述效果,可以实现连续图像中各帧图像的匹配,利于最终从匹配信息中获取需要的目标行为信息。
S103:对客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
可以理解的是,本申请实施例采用RANSAC(Random Sample Consensus)随机抽样一致算法来完成误匹配点的剔除。所谓误匹配点是指明显不应属于某一聚类却包含在某一聚类中的点。
具体地,虽然经过上述图像匹配步骤能够得到客户初始定位图像,但由于图像采集过程中可能存在噪声,导致在特征点选取的过程中出现误差,造成图像匹配的不准确。因此,需要利用RANSAC算法来剔除误匹配点,保证匹配的准确性,最终得到客户目标定位图像。
综上所述,参见图16,针对连续时间段内采集的大批量图像,本申请实施例可以利用Cure聚类算法将图像进行聚类。针将每个聚类层上的图像分别利用Surf算法完成尺度空间建立与特征点提取。针对每个图像上提取到的特征点按照采集图像的先后顺序依次进行图像匹配。在这个过程中,将RANSAC算法应用于匹配后的特征点,通过参数模型创建可以剔除误匹配点,得到精确的匹配结果,最终得到连续时间段内目标的移动情况以及行为信息。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够将聚类算法与图像匹配相结合,采集多场景环境下的客户在业务办理过程的客户行为图像,并对其进行聚类分析,将聚类后的图像进行关联性匹配,从而降低误匹配率,提高客户行为模式分析的准确性,以便在了解客户行为模式的前提下,为客户提供更适合的产品与服务,提升客户的满意度。
参见图2,对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
S201:对客户行为图像进行数据子集随机划分;
可以理解的是,本申请实施例采用Cure聚类算法完成客户行为图像的聚类。Cure聚类算法能够选择数据空间中固定数目且具有代表性的点,并将这些点聚为一类。通常,每个聚类都包括多于一个的代表点,因此Cure聚类算法对于孤立点的处理更加优秀。
考虑到在实际业务场景中采集到的客户行为图像可能是连续视频图像中的各帧,数量较大。为了便于后续聚类处理,需要对客户行为图像进行数据子集随机划分。
子集划分可以采用如下方法进行:每隔一段时间在采集到的客户行为图像中抽取一个随机样本S作为子集。举例而言,可设定为每5分钟作为一个时间间隔,图像采集频率也可限定在一秒钟3~5次。
需要说明的是,大多数聚类算法在处理相似大小的聚类或存在孤立点的样本时往往比较脆弱,本申请实施例采用Cure聚类算法实现对客户行为图像的聚类。相较于基于质心的策略与基于代表对象的策略,Cure聚类算法选择了中间策略,兼顾了基于质心的策略与基于代表对象的策略,保证了聚类的可靠性。
S202:分别在各数据子集上运行Cure聚类算法,得到各数据子集对应的簇;
可以理解的是,划分子集主要是为了便于在聚类中确定簇。在处理大数据量信息时,利用数据分割算法(Partitioning)可以将样本划分为几个部分,然后有针对性地对各个部分的对象进行局部聚类,形成子集。这样做保证了聚类过程的高效性及可靠性。分别在各数据子集上运行Cure聚类算法,可以得到各数据子集对应的簇。
举例而言,将上述时间间隔5分钟内获取到的客户行为图像随机抽样得到子集,然后将这个子集利用数据分割算法随机分割为N个部分。N的取值取决于该子集的大小,例如可以设定子集中图像个数为1000时,N的取值为4。
S203:根据簇对各数据子集进行聚类,得到聚类图像。
可以理解的是,Cure聚类算法把每个数据点看成一个簇,将聚类最近的簇相结合,直到簇的个数达到预设的K个为止。簇为数学概念,指一群有相似性质的点。在本申请实施例中,簇指有相似属性的像素点的集合。根据簇对各数据子集进行聚类,可以得到聚类图像。所得到的聚类图像可以理解为具有相似或相关环境背景的多组图像。其中每一组图像所显示的客户周边环境相似或相关。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像。
参见图3,对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
S301:对客户行为图像进行数据子集随机划分;
S302:分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
S303:根据簇对各数据子集进行分层聚类,得到各分层聚类图像。
可以理解的是,利用Cure聚类算法可以对客户行为图像进行层次聚类。进行层次聚类可理解为将所有客户行为图像的相似度划分为多个层次,将相似度属于同一层次的客户行为图像聚在一起。与S203中不同的是,本实施例在完成S301(也就是S201)及S302(也就是S202)后,需要通过不断的样本抽取与聚类分析得到所有客户行为图像的分层聚类图像。
进行层次聚类有利于接下来根据预先确定的模板图像匹配聚类图像,提高匹配结果的准确性,最终得到客户初始定位图像,在实际业务场景中可以很大程度上保证匹配的实时性。
综上所述,在实际业务场景中,可以根据预先划分的不同层级,将一段时间内采集到的大量客户行为图像利用Cure层次聚类算法进行聚类。每一层次都为相似图像的集合。通过该步处理,可以实现客户行为图像的有序分层,提高接下来图像匹配步骤的匹配效率。
从上述描述可知,本申请提供的移动场景下的目标定位方法,对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到分层聚类图像。
参见图4,根据簇对各数据子集进行分层聚类,得到各分层聚类图像,包括:
S401:根据预先设定的层级及簇对各数据子集进行分层聚类,得到新簇;
S402:向所述新簇的中心移动所述新簇中的所述分层聚类图像的各代表点,得到新簇的形状及移动特性;
S403:根据形状及移动特性确定分层聚类图像。
需要说明的是,所谓预先设定的层级是依前文所述对不同相似度进行划分,具体划分层级可依实际业务场景进行设定。
在完成图像分层聚类后,还可以对每个数据子集的离群点进行剔除,以消除异常值的影响,增强后续图像匹配的精确度。
Cure聚类算法在消除异常值影响时可以分为两步:
第一步为粗筛,即剔除掉在坐标系中距离正常值相对较远的离群点,完成异常值剔除。如果不进行剔除,离群点会导致所在聚类中对象数目增大速度放缓,甚至不增长,不利于聚类。
第二步为细筛,在进行到该步骤时,由于离群点所占的比重相对很小,离群点相较于正常簇的粒度大小相差很大,很容易就能被识别出来,识别出后即可将其剔除。
还需说明的是,本实施例中的“各代表点”是指每个图像中具有局部图像信息代表性的像素点。“形状及移动特性”是指采集到的客户行为图像中具有代表性的像素点聚集形成的形状以及他们向簇中心移动时在x方向及y方向上各移动了多少,移动的角度如何,从而组成其移动特性。通过簇中点的移动,在达到稳定之后,这些点所在的层级即表明了这些点所在的图像在哪个层级。
根据各点距离簇中心的距离,即x方向及y方向的距离,可以得到距离最远的点。相对于其他点而言,这些点计算出的距离有很大的差距,因此应该作为离群点剔除。
综上所述,对采集到的客户行为图像按照子集进行划分,每一次的聚类操作都会对离群点也就是异常值进行剔除,从而保证聚类的准确性。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够根据簇对各数据子集进行分层聚类,得到各分层聚类图像。
参见图5,根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像,包括:
S501:对聚类图像中经过矩阵变换得到的各像素点进行精准定位,确定各像素点对应的特征点及特征点的主方向;
可以理解的是,此步骤是分别对经过聚类分析后的各层级聚类图像进行匹配,匹配对象仍然为一时间段内在网点采集到的客户行为图像。下述各步骤均按照Surf算法规定的步骤进行,对应的实际场景即为对客户行为图像进行特征点提取与特征点匹配。
首先,参见图17,通过海森矩阵(Hessian Matrix)建立倒金字塔尺度空间。该尺度空间的构建特点为:将盒式滤波器尺寸逐渐增大,同一组图像使用的滤波器尺寸相同,不断增大尺度空间因子A,在这个过程中图像大小始终不变。
Figure BDA0003041392320000111
det(Happrox)=LxxLyy-(0.9Lxy)2 (3-2)
按照公式(3-2),通过海森矩阵的行列式近似构成图像的变换图,也就是对聚类图像进行矩阵变换。
由于Surf算法使用的是盒式滤波器,为了平衡误差,可以将经验值规定为0.9,如公式(3-2)所示。其中,L为像素点大小,Lxx为x方向像素点之积,即Lxx=Lx×Lx,Lxy、Lyy的定义与Lxx相似。det(H)指矩阵H的行列式。
经过上一步骤处理后的每个像素点与其上下相邻的两个领域的像素点进行数值比较,确定其方向最大值,精确定位特征点。也就是将每个像素点与其相邻尺度空间内的26个点进行比较,对各自的尺度空间内方向矢量比较短的点进行过滤。这里26个点为Surf算法固定取点个数,上邻域9个点,下邻域9个点,本身所在尺度层级周围8个点,共9+9+8=26个点。
以上一步骤得到的特征点为中心,计算该特征点所在范围内60°扇形以内所有像素点在x和y方向的响应总和,从而形成新的矢量。将该特征点所在范围的圆内的各像素点均采取上述操作,可以得到多个矢量值,将这些矢量中的最大值作为该特征点的主方向。
S502:根据主方向确定特征点的描述子;
可以理解的是,在特征点周围选取一个正方形框,将该框分为16个子区域,每个子区域内统计25个像素的水平方向和垂直方向的haar小波。计算水平方向矢量之和、垂直方向矢量之和、水平方向绝对值之和及垂直方向绝对值之和。这四个方向值作为该特征点的描述信息,即描述子。
S503:根据聚类图像对应的描述子,以每个簇的中心图像作为模板图像匹配聚类图像,得到客户初始定位图像。
可以理解的是,作为图像匹配的基础操作,尺度空间的建立会对特征描述子的生成产生影响。由于图像之间的匹配是不同图像之间特征描述子的匹配,因此尺度空间的建立又很大程度上会影响匹配的准确性。
在得到每个图像的特征描述子后,可以分别将待匹配图像与模板图像进行特征点匹配。所谓模板图像,在本申请实施例中取每个簇的中心图像作为模板图像。
经过特征点匹配后,每个聚类层中的待匹配图像都与模板图像建立了对应关系,每两个图像之间像素点的对应关系标识在该图像采集时刻。相对于模板图像采集时刻目标的运动情况,通过每个层级上各个特征点匹配信息的输出,可以得到连续时间内该目标的运动信息,借此进行目标点行为方式提取。
所谓图像采集时刻是指,例如,图像A在t时刻采集,图像B在t+t1时刻采集,这两个图像的对应关系就表明了t+t1时刻采集图像时,目标点相对于t时刻的运动情况,即t1时间段内该目标点的运动情况。
经过图像匹配,可以得到每一层级上图像的匹配点信息。这些匹配点信息标志着在图像采集时间段内,该网点客户在进行业务办理及等待过程中的行为轨迹变化及行为方式变化,代表每一位客户在该时间段内的行为模式。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像。
参见图6,对客户初始定位图像进行误匹配点剔除,得到客户目标定位图像,包括:
S601:计算客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
S602:根据预先设定的迭代轮次及投影误差更新最优内点集,得到客户目标定位图像。
可以理解的是,受客户行为图像所呈现的业务环境的影响,初步匹配结果不可避免地会存在误差。因此,剔除误匹配点保证匹配的准确性对于最终得到更精确的匹配结果至关重要。
参见图18,本申请实施例采用RANSAC(Random Sample Consensus)随机抽样一致算法来实现误匹配点的剔除。RANSAC算法假设数据的分布可以用一些模型参数进行解释,这些参数称为“局内点”。如果给定一组“局内点”,则可以得到参数模型,进而可以将满足该参数模型的观测数据中的“局内点”找出。基于这种思想可以确定已经匹配的点是否存在匹配误差,从而剔除误匹配点,提高匹配准确率。
具体地,从上一步获取到的匹配点数据集中随机抽出4个样本数据,计算出变换矩阵,记为模型M;然后,计算数据集中所有数据与模型M的投影误差;最后,根据投影误差值更新最优内点集,更新过程针对每一数据集迭代进行,直至达到预设迭代轮次结束。
通过RANSAC算法可以将误匹配点提出,提高匹配过程的准确性,从而得到该段时间内更加准确的客户行为方式变化信息。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够对客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
参见图7,预先建立的误匹配点剔除模型的步骤,包括:
S701:从客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
S702:计算客户初始定位图像中剩余的像素点相距参数模型的距离;
S703:根据预先设定的距离阈值将像素点分为局内点及局外点;
S704:迭代执行将局内点最多的参数模型作为误匹配点剔除模型。
可以理解的是,本申请实施例从匹配点数据集中至少随机选择四个不共线的数据点,计算出单应性矩阵,即得到模型M。其中,参数模型M可理解为一界定“局内点”与“局外点”的阈值,“局外点”最终将被剔除;然后,计算匹配点数据集中剩余数据点距参数M的投影距离。迭代预设轮次K次,将“局内点”最多的模型作为拟合结果,删除“局外点”,确定参数模型M。
需要说明的是,利用选择的四个点可以得到这四个点对应的单应性矩阵。这个矩阵即为参数模型M的数学形式。单应性矩阵是指一个平面到另一个平面的投影矩阵,是计算机视觉中用于图像校正的常用矩阵。从上述描述可知,本申请提供的移动场景下的目标定位方法,能够预先建立的误匹配点剔除模型。
通过分析客户行为模式可以科学地开展特定客户需求分析,从而准确地识别客户需求,量化客户的敏感程度,支撑有针对性的精细化客户服务策略,有效地控制线下服务的人工成本,提升银行的公众形象。
基于同一发明构思,本申请实施例还提供了一种移动场景下的目标定位装置,可以用于实现上述实施例所描述的方法,如下面的实施例所述。由于移动场景下的目标定位装置解决问题的原理与移动场景下的目标定位方法相似,因此移动场景下的目标定位装置的实施可以参见基于软件性能基准确定方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的系统较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
参见图8,为了能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,最终得到客户目标定位图像,本申请提供一种移动场景下的目标定位装置,包括:
聚类图像生成单元801,用于对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
初始定位图像生成单元802,用于根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;
目标定位图像生成单元803,用于对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
参见图9,所述聚类图像生成单元801,包括:
子集划分模块901,用于对所述客户行为图像进行数据子集随机划分;
簇确定模块902,用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
聚类图像生成模块903,用于根据所述簇对各数据子集进行聚类,得到聚类图像。
参见图10,所述聚类图像生成单元801,还包括:
子集划分模块1001,还用于对所述客户行为图像进行数据子集随机划分;
簇确定模块1002,还用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
分层聚类图像生成模块1003,用于根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像。
参见图11,所述分层聚类图像生成模块1003,包括:
新簇确定子模块1101,用于根据预先设定的层级及所述簇对各数据子集进行分层聚类,得到新簇;
形状移动特性确定子模块1102,用于向所述新簇的中心移动所述新簇中的所述分层聚类图像的各代表点,得到所述新簇的形状及移动特性;
分层聚类图像生成子模块1103,用于根据所述形状及移动特性确定分层聚类图像。
参见图12,所述初始定位图像生成单元802,包括:
特征点主方向确定模块1201,用于对所述聚类图像中经过矩阵变换得到的各像素点进行精准定位,确定各像素点对应的特征点及所述特征点的主方向;
描述子确定模块1202,用于根据所述主方向确定所述特征点的描述子;
初始定位图像生成模块1203,用于根据所述聚类图像对应的描述子及预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;所述模板图像为每个簇的中心图像。
参见图13,所述目标定位图像生成单元803,包括:
投影误差计算模块1301,用于计算所述客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
客户目标定位图像生成模块1302,用于根据预先设定的迭代轮次及所述投影误差更新最优内点集,得到所述客户目标定位图像。
参见图14,所述的移动场景下的目标定位装置,还包括:
参数模型确定单元1401,用于从所述客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
距离计算单元1402,用于计算所述客户初始定位图像中剩余的像素点相距所述参数模型的距离;
局内局外区分单元1403,用于根据预先设定的距离阈值将所述像素点分为局内点及局外点;
剔除模型确定单元1404,用于迭代划分所述局内点及局外点的步骤,将所述局内点最多的参数模型作为误匹配点剔除模型。
从硬件层面来说,为了能够对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,最终得到客户目标定位图像,本申请提供一种用于实现所述移动场景下的目标定位方法中的全部或部分内容的电子设备的实施例,所述电子设备具体包含有如下内容:
处理器(Processor)、存储器(Memory)、通讯接口(Communications Interface)和总线;其中,所述处理器、存储器、通讯接口通过所述总线完成相互间的通讯;所述通讯接口用于实现所述移动场景下的目标定位装置与核心业务系统、用户终端以及相关数据库等相关设备之间的信息传输;该逻辑控制器可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该逻辑控制器可以参照实施例中的移动场景下的目标定位方法的实施例,以及移动场景下的目标定位装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。
可以理解的是,所述用户终端可以包括智能手机、平板电子设备、网络机顶盒、便携式计算机、台式电脑、个人数字助理(PDA)、车载设备、智能穿戴设备等。其中,所述智能穿戴设备可以包括智能眼镜、智能手表、智能手环等。
在实际应用中,移动场景下的目标定位方法的部分可以在如上述内容所述的电子设备侧执行,也可以所有的操作都在所述客户端设备中完成。具体可以根据所述客户端设备的处理能力,以及用户使用场景的限制等进行选择。本申请对此不作限定。若所有的操作都在所述客户端设备中完成,所述客户端设备还可以包括处理器。
上述的客户端设备可以具有通讯模块(即通讯单元),可以与远程的服务器进行通讯连接,实现与所述服务器的数据传输。所述服务器可以包括任务调度中心一侧的服务器,其他的实施场景中也可以包括中间平台的服务器,例如与任务调度中心服务器有通讯链接的第三方服务器平台的服务器。所述的服务器可以包括单台计算机设备,也可以包括多个服务器组成的服务器集群,或者分布式装置的服务器结构。
图15为本申请实施例的电子设备9600的系统构成的示意框图。如图15所示,该电子设备9600可以包括中央处理器9100和存储器9140;存储器9140耦合到中央处理器9100。值得注意的是,该图15是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
一实施例中,移动场景下的目标定位方法功能可以被集成到中央处理器9100中。其中,中央处理器9100可以被配置为进行如下控制:
S101:对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
S102:根据预先确定的模板图像匹配聚类图像,得到客户初始定位图像;
S103:对客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够将聚类算法与图像匹配相结合,采集多场景环境下的客户在业务办理过程的客户行为图像,并对其进行聚类分析,将聚类后的图像进行关联性匹配,从而降低误匹配率,提高客户行为模式分析的准确性,以便在了解客户行为模式的前提下,为客户提供更适合的产品与服务,提升客户的满意度。
在另一个实施方式中,移动场景下的目标定位装置可以与中央处理器9100分开配置,例如可以将数据复合传输装置移动场景下的目标定位装置配置为与中央处理器9100连接的芯片,通过中央处理器的控制来实现移动场景下的目标定位方法的功能。
如图15所示,该电子设备9600还可以包括:通讯模块9110、输入单元9120、音频处理器9130、显示器9160、电源9170。值得注意的是,电子设备9600也并不是必须要包括图15中所示的所有部件;此外,电子设备9600还可以包括图15中没有示出的部件,可以参考现有技术。
如图15所示,中央处理器9100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器9100接收输入并控制电子设备9600的各个部件的操作。
其中,存储器9140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器9100可执行该存储器9140存储的该程序,以实现信息存储或处理等。
输入单元9120向中央处理器9100提供输入。该输入单元9120例如为按键或触摸输入装置。电源9170用于向电子设备9600提供电力。显示器9160用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
该存储器9140可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器9140还可以是某种其它类型的装置。存储器9140包括缓冲存储器9141(有时被称为缓冲器)。存储器9140可以包括应用/功能存储部9142,该应用/功能存储部9142用于存储应用程序和功能程序或用于通过中央处理器9100执行电子设备9600的操作的流程。
存储器9140还可以包括数据存储部9143,该数据存储部9143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器9140的驱动程序存储部9144可以包括电子设备的用于通讯功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通讯模块9110即为经由天线9111发送和接收信号的发送机/接收机9110。通讯模块(发送机/接收机)9110耦合到中央处理器9100,以提供输入信号和接收输出信号,这可以和常规移动通讯终端的情况相同。
基于不同的通讯技术,在同一电子设备中,可以设置有多个通讯模块9110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通讯模块(发送机/接收机)9110还经由音频处理器9130耦合到扬声器9131和麦克风9132,以经由扬声器9131提供音频输出,并接收来自麦克风9132的音频输入,从而实现通常的电信功能。音频处理器9130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器9130还耦合到中央处理器9100,从而使得可以通过麦克风9132能够在本机上录音,且使得可以通过扬声器9131来播放本机上存储的声音。
本申请的实施例还提供能够实现上述实施例中的执行主体为服务器或客户端的移动场景下的目标定位方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的执行主体为服务器或客户端的移动场景下的目标定位方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
S101:对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
S102:根据预先确定的模板图像匹配聚类图像,得到客户初始定位图像;
S103:对客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
从上述描述可知,本申请提供的移动场景下的目标定位方法,能够将聚类算法与图像匹配相结合,采集多场景环境下的客户在业务办理过程的客户行为图像,并对其进行聚类分析,将聚类后的图像进行关联性匹配,从而降低误匹配率,提高客户行为模式分析的准确性,以便在了解客户行为模式的前提下,为客户提供更适合的产品与服务,提升客户的满意度。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (16)

1.一种移动场景下的目标定位方法,其特征在于,包括:
对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;
对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
2.根据权利要求1所述的移动场景下的目标定位方法,其特征在于,所述对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
对所述客户行为图像进行数据子集随机划分;
分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
根据所述簇对各数据子集进行聚类,得到聚类图像。
3.根据权利要求1所述的移动场景下的目标定位方法,其特征在于,所述对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像,包括:
对所述客户行为图像进行数据子集随机划分;
分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像。
4.根据权利要求3所述的移动场景下的目标定位方法,其特征在于,所述根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像,包括:
根据预先设定的层级及所述簇对各数据子集进行分层聚类,得到新簇;
向所述新簇的中心移动所述新簇中的所述分层聚类图像的各代表点,得到所述新簇的形状及移动特性;
根据所述形状及移动特性确定分层聚类图像。
5.根据权利要求1所述的移动场景下的目标定位方法,其特征在于,所述根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像,包括:
对所述聚类图像中经过矩阵变换得到的各像素点进行定位,确定各像素点对应的特征点及所述特征点的主方向;
根据所述主方向确定所述特征点的描述子;
根据所述聚类图像对应的描述子及预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;所述模板图像为每个簇的中心图像。
6.根据权利要求1所述的移动场景下的目标定位方法,其特征在于,对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像,包括:
计算所述客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
根据预先设定的迭代轮次及所述投影误差更新最优内点集,得到所述客户目标定位图像。
7.根据权利要求6所述的移动场景下的目标定位方法,其特征在于,预先建立误匹配点剔除模型的步骤,包括:
从所述客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
计算所述客户初始定位图像中剩余的像素点与所述参数模型之间的距离;
根据预先设定的距离阈值及所述距离将所述像素点划分为局内点及局外点;
迭代划分所述局内点及局外点的步骤,将所述局内点最多的参数模型作为误匹配点剔除模型。
8.一种移动场景下的目标定位装置,其特征在于,包括:
聚类图像生成单元,用于对获取到的业务办理过程的客户行为图像按照业务环境进行聚类,得到聚类图像;
初始定位图像生成单元,用于根据预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;
目标定位图像生成单元,用于对所述客户初始定位图像进行误匹配点剔除,得到客户目标定位图像。
9.根据权利要求8所述的移动场景下的目标定位装置,其特征在于,所述聚类图像生成单元,包括:
子集划分模块,用于对所述客户行为图像进行数据子集随机划分;
簇确定模块,用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
聚类图像生成模块,用于根据所述簇对各数据子集进行聚类,得到聚类图像。
10.根据权利要求8所述的移动场景下的目标定位装置,其特征在于,所述聚类图像生成单元,还包括:
子集划分模块,还用于对所述客户行为图像进行数据子集随机划分;
簇确定模块,还用于分别在各数据子集上运行聚类算法,得到各数据子集对应的簇;
分层聚类图像生成模块,用于根据所述簇对各数据子集进行分层聚类,得到各分层聚类图像。
11.根据权利要求10所述的移动场景下的目标定位装置,其特征在于,所述分层聚类图像生成模块,包括:
新簇确定子模块,用于根据预先设定的层级及所述簇对各数据子集进行分层聚类,得到新簇;
形状移动特性确定子模块,用于向所述新簇的中心移动所述新簇中的所述分层聚类图像的各代表点,得到所述新簇的形状及移动特性;
分层聚类图像生成子模块,用于根据所述形状及移动特性确定分层聚类图像。
12.根据权利要求8所述的移动场景下的目标定位装置,其特征在于,所述初始定位图像生成单元,包括:
特征点主方向确定模块,用于对所述聚类图像中经过矩阵变换得到的各像素点进行定位,确定各像素点对应的特征点及所述特征点的主方向;
描述子确定模块,用于根据所述主方向确定所述特征点的描述子;
初始定位图像生成模块,用于根据所述聚类图像对应的描述子及预先确定的模板图像匹配所述聚类图像,得到客户初始定位图像;所述模板图像为每个簇的中心图像。
13.根据权利要求8所述的移动场景下的目标定位装置,其特征在于,所述目标定位图像生成单元,包括:
投影误差计算模块,用于计算所述客户初始定位图像与预先建立的误匹配点剔除模型之间的投影误差;
客户目标定位图像生成模块,用于根据预先设定的迭代轮次及所述投影误差更新最优内点集,得到所述客户目标定位图像。
14.根据权利要求13所述的移动场景下的目标定位装置,其特征在于,还包括:
参数模型确定单元,用于从所述客户初始定位图像中选择四个数据点进行拟合,得到参数模型;
距离计算单元,用于计算所述客户初始定位图像中剩余的像素点与所述参数模型之间的距离;
局内局外区分单元,用于根据预先设定的距离阈值及所述距离将所述像素点划分为局内点及局外点;
剔除模型确定单元,用于迭代划分所述局内点及局外点的步骤,将所述局内点最多的参数模型作为误匹配点剔除模型。
15.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7任一项所述的移动场景下的目标定位方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7任一项所述的移动场景下的目标定位方法的步骤。
CN202110458535.3A 2021-04-27 2021-04-27 一种移动场景下的目标定位方法及装置 Pending CN113177463A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110458535.3A CN113177463A (zh) 2021-04-27 2021-04-27 一种移动场景下的目标定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110458535.3A CN113177463A (zh) 2021-04-27 2021-04-27 一种移动场景下的目标定位方法及装置

Publications (1)

Publication Number Publication Date
CN113177463A true CN113177463A (zh) 2021-07-27

Family

ID=76926446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110458535.3A Pending CN113177463A (zh) 2021-04-27 2021-04-27 一种移动场景下的目标定位方法及装置

Country Status (1)

Country Link
CN (1) CN113177463A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法
CN114358166B (zh) * 2021-12-29 2023-11-07 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法

Similar Documents

Publication Publication Date Title
CN111046744B (zh) 一种关注区域检测方法、装置、可读存储介质及终端设备
CN112528977B (zh) 目标检测方法、装置、电子设备和存储介质
CN113255694B (zh) 训练图像特征提取模型和提取图像特征的方法、装置
CN111950723B (zh) 神经网络模型训练方法、图像处理方法、装置及终端设备
WO2019213459A1 (en) System and method for generating image landmarks
JP7425147B2 (ja) 画像処理方法、テキスト認識方法及び装置
CN108491816A (zh) 在视频中进行目标跟踪的方法和装置
CN103353881B (zh) 一种应用程序搜索方法及装置
CN112328715A (zh) 视觉定位方法及相关模型的训练方法及相关装置、设备
CN105792131A (zh) 一种定位方法及系统
CN110427915A (zh) 用于输出信息的方法和装置
CN112950640A (zh) 视频人像分割方法、装置、电子设备及存储介质
CN111199169A (zh) 图像处理方法和装置
CN110163095B (zh) 回环检测方法、回环检测装置及终端设备
CN111191553A (zh) 人脸跟踪方法、装置及电子设备
CN114169425A (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN113177463A (zh) 一种移动场景下的目标定位方法及装置
CN106033613B (zh) 目标跟踪方法及装置
CN111310595B (zh) 用于生成信息的方法和装置
CN110717405B (zh) 人脸特征点定位方法、装置、介质及电子设备
CN111127481A (zh) 基于tof图像联通区域的图像识别方法及装置
CN115690845A (zh) 一种运动轨迹预测方法及装置
CN116363641A (zh) 一种图像处理方法、装置及电子设备
CN111968030B (zh) 信息生成方法、装置、电子设备和计算机可读介质
CN115082828A (zh) 基于支配集的视频关键帧提取方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination