CN110991528A - 一种线下新零售门店客流多属性单模型识别方法 - Google Patents

一种线下新零售门店客流多属性单模型识别方法 Download PDF

Info

Publication number
CN110991528A
CN110991528A CN201911214045.8A CN201911214045A CN110991528A CN 110991528 A CN110991528 A CN 110991528A CN 201911214045 A CN201911214045 A CN 201911214045A CN 110991528 A CN110991528 A CN 110991528A
Authority
CN
China
Prior art keywords
network
loss
model
attribute
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911214045.8A
Other languages
English (en)
Inventor
胡玉琛
林博
仇文彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Zunyi Business Information Consulting Co Ltd
Original Assignee
Shanghai Zunyi Business Information Consulting Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Zunyi Business Information Consulting Co Ltd filed Critical Shanghai Zunyi Business Information Consulting Co Ltd
Priority to CN201911214045.8A priority Critical patent/CN110991528A/zh
Publication of CN110991528A publication Critical patent/CN110991528A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种线下新零售门店客流多属性单模型识别方法,包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;其优点表现在:通过本方法实现的单模型对购物场景的识别分析,提议提高优化品牌店铺运营效率和店铺管理效率,优化运营营销策略、提高销售转换率、提升服务效率和消费体验等助力零售产业的升级。

Description

一种线下新零售门店客流多属性单模型识别方法
技术领域
本发明涉及客流多属性单模型识别技术领域,具体地说,是一种线下新零售门店客流多属性单模型识别方法。
背景技术
随着近几年人工智能概念的火速传播,人工智能的应用场景在各行各业中也不断地推出。结合当前的零售产业来说,传统零售企业也希望借助人工智能的场景落地实现产业的升级,于是催生出诸如新零售、智慧零售等一系列商业概念。俨然,新零售已成为当前零售行业的风口亮点。尤其以亚马逊、阿里巴巴等推出的线下无人零售店,通过计算机视觉技术,利用人脸识别等技术,可以实现无人管理,扫脸支付等商业行为。
在传统线下零售场景中,已经存在通过监控摄像进行客流计数统计等功能,但是更多的监控摄像依然更多的只是应用于安全事务中,对于零售产业的升级并没有起到推动作用。而市场上已经存在的新零售解决方案,大部分集中在客流分析统计、用户画像构建等应用方面,真正针对导购行为、消费者行为识别分析与洞察零售行业的痛点与创新并没有实质性的进展。很多品牌店铺依旧采用传统的问卷调查、寻找分析咨询公司等昂贵的手段进行优化店铺运营效率和店铺管理效率。
与此同时,监控摄像只能作为单一的功能使用,即人脸识别的监控摄像只能进行人脸识别,车辆识别的监控摄像只能进行车辆识别。那么在当前线下新零售的场景中,针对多方位、多功能的需求,大量监控摄像的部署成为企业高昂的成本。
因此,如何在控制成本的情况下,基于监控摄像对线下零售品牌店铺场景,围绕零售场景中的两大核心人员——消费者与店铺导购,对其身份、属性、行为等进行智能识别和分析,提出新零售的解决方案非常有必要。
中国专利文献:CN108921054A,公开日:2018.11.30,公开了一种基于语义分割的行人多属性识别方法,本发明方法在线下训练阶段,首先选择比较普遍的行人属性,在行人属性数据集上训练行人多属性识别模型。该模型有三条输出分支,其中两条分支采用语义分割结合特征融合策略分别输出颜色属性和类型属性。第三条分支输出性别属性。综合模型的三条分支输出得到行人多属性。在线上查询阶段,用行人多属性识别模型对行人图像库提取属性,然后就可以通过属性查询库中有该属性的行人图像。
中国专利文献:CN107886073A,公开日:2018.04.06,公开了一种基于卷积神经网络的细粒度车辆多属性识别方法,包括以下步骤:设计神经网络结构,包括卷积层、池化层和全连接层,其中卷积层与池化层负责特征提取,在最后一层全连接层通过计算目标损失函数输出分类结果;利用细粒度车辆数据集和标签数据集进行神经网络的训练,训练方式为有监督学习,并利用随机梯度下降算法进行权重矩阵和偏移量的调整;训练好的神经网络模型,用于进行车辆属性识别。
但是关于本发明的一种线下新零售门店客流多属性单模型识别方法目前还未见报道。
发明内容
本发明的目的是,提供一种通过单个模型在单个监控摄像中够实现多人物的多重属性识别,识别的结果可以通过后续的有效分析手段,进而提高品牌店铺运营和管理效率,实现零售产业升级的一种线下新零售门店客流多属性单模型识别方法。
为实现上述目的,本发明采取的技术方案是:
一种线下新零售门店客流多属性单模型识别方法,所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失。回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
Figure BDA0002298981790000031
其中,m表示训练集的样本数量,
Figure BDA0002298981790000033
表示第i张图像中人物的真实位置向量,loci表示第i张图像中人物的预测位置向量;
Figure BDA0002298981790000032
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
Figure BDA0002298981790000041
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal
Ltotal=PL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别。
所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络。
所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%。
所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、 ResNet-101网络以及Google Inception网络。
所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
本发明优点在于:
1、由于只要单模型就能识别人物的多重属性,可以避免使用多个摄像进行功能的多重扩展部署,因此可以实现低成本的监控摄像部署。
2、本方法实现的单模型可以识别消费者的多重属性,因此可以深度洞察消费者的行为需求,建立消费者用户画像,优化线下门店的消费体验。
3、本方法实现的单模型可以识别门店雇员的多重属性,因此可以判断分析门店雇员的工作表现,提升门店运营的服务表现。
4、本方法实现的单模型通过对消费者以及门店雇员的识别判断,能够分析出热门商品与长尾商品,热门商品展位与冷门展位,帮助店铺铺货管理。
5、通过本方法实现的单模型对购物场景的识别分析,提议提高优化品牌店铺运营效率和店铺管理效率,优化运营营销策略、提高销售转换率、提升服务效率和消费体验等助力零售产业的升级。
附图说明
附图1是一种线下新零售门店客流多属性单模型识别方法的组成模块图。
附图2是一种线下新零售门店客流多属性单模型识别方法的实现流程图。
附图3是一种线下新零售门店客流多属性单模型识别方法的识别流程示意图。
附图4是一种线下新零售门店客流多属性单模型识别方法的多属性识别网络组成模块图。
具体实施方式
下面结合实施例并参照附图对本发明作进一步描述。
实施例1
请参照附图1、附图3,附图1是本实施例的一种线下新零售门店客流多属性单模型识别方法的组成模块图,附图3是本实施例的一种线下新零售门店客流多属性单模型识别方法的识别流程示意图。所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
请参照附图4,附图4是本实施例的一种线下新零售门店客流多属性单模型识别方法的多属性识别网络组成模块图。
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失。回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
Figure BDA0002298981790000071
其中,m表示训练集的样本数量,
Figure BDA0002298981790000074
表示第i张图像中人物的真实位置向量,loci表示第i张图像中人物的预测位置向量;
Figure BDA0002298981790000072
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
Figure BDA0002298981790000073
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal
Ltotal=PL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
实施例2
请参照附图2,附图2是一种线下新零售门店客流多属性单模型识别方法的实现流程图。
所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
需要说明的是:
所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别;所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络;所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%;所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、ResNet-101网络以及Google Inception网络;所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明原理的前提下,还可以做出若干改进和补充,这些改进和补充也应视为本发明的保护范围。

Claims (7)

1.一种线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失;回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
Figure FDA0002298981780000021
其中,m表示训练集的样本数量,
Figure FDA0002298981780000022
表示第i张图像中人物的真实位置向量,loci表示第i张图像中人物的预测位置向量;
Figure FDA0002298981780000023
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
Figure FDA0002298981780000024
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal
Ltotal=βL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
2.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
3.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别。
4.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络。
5.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%。
6.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、ResNet-101网络以及Google Inception网络。
7.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
CN201911214045.8A 2019-12-02 2019-12-02 一种线下新零售门店客流多属性单模型识别方法 Pending CN110991528A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911214045.8A CN110991528A (zh) 2019-12-02 2019-12-02 一种线下新零售门店客流多属性单模型识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911214045.8A CN110991528A (zh) 2019-12-02 2019-12-02 一种线下新零售门店客流多属性单模型识别方法

Publications (1)

Publication Number Publication Date
CN110991528A true CN110991528A (zh) 2020-04-10

Family

ID=70089208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911214045.8A Pending CN110991528A (zh) 2019-12-02 2019-12-02 一种线下新零售门店客流多属性单模型识别方法

Country Status (1)

Country Link
CN (1) CN110991528A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257791A (zh) * 2020-10-26 2021-01-22 重庆邮电大学 一种基于cnn和pca的多属性分类任务的分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583942A (zh) * 2018-11-07 2019-04-05 浙江工业大学 一种基于密集网络的多任务卷积神经网络顾客行为分析方法
CN109871804A (zh) * 2019-02-19 2019-06-11 上海宝尊电子商务有限公司 一种店铺人流识别分析的方法和系统
US20190205643A1 (en) * 2017-12-29 2019-07-04 RetailNext, Inc. Simultaneous Object Localization And Attribute Classification Using Multitask Deep Neural Networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205643A1 (en) * 2017-12-29 2019-07-04 RetailNext, Inc. Simultaneous Object Localization And Attribute Classification Using Multitask Deep Neural Networks
CN109583942A (zh) * 2018-11-07 2019-04-05 浙江工业大学 一种基于密集网络的多任务卷积神经网络顾客行为分析方法
CN109871804A (zh) * 2019-02-19 2019-06-11 上海宝尊电子商务有限公司 一种店铺人流识别分析的方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈宗海: "《系统仿真技术及其应用》", pages: 394 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257791A (zh) * 2020-10-26 2021-01-22 重庆邮电大学 一种基于cnn和pca的多属性分类任务的分类方法

Similar Documents

Publication Publication Date Title
Pan et al. Study on convolutional neural network and its application in data mining and sales forecasting for E-commerce
CN109658194A (zh) 一种基于视频追踪的客户推荐方法及系统
CN114550053A (zh) 一种交通事故定责方法、装置、计算机设备及存储介质
CN112528110A (zh) 确定实体业务属性的方法及装置
CN114331512B (zh) 一种可视化数据建模及大数据画像的方法
CN111784405A (zh) 基于人脸智能识别knn算法的线下门店智能导购方法
Melegrito et al. Abandoned-cart-vision: Abandoned cart detection using a deep object detection approach in a shopping parking space
CN116468460A (zh) 基于人工智能的消费金融客户画像识别系统及其方法
CN115545832A (zh) 商品搜索推荐方法及其装置、设备、介质
Wang et al. An enhanced multi-modal recommendation based on alternate training with knowledge graph representation
Iyer et al. Sign Language Detection using Action Recognition
CN110991528A (zh) 一种线下新零售门店客流多属性单模型识别方法
CN116823321B (zh) 一种电商用经济管理数据分析方法及系统
Suman et al. Age gender and sentiment analysis to select relevant advertisements for a user using cnn
Xu Mt-resnet: a multi-task deep network for facial attractiveness prediction
CN115618079A (zh) 会话推荐方法、装置、电子设备及存储介质
CN109493186A (zh) 确定推送信息的方法和装置
CN114519600A (zh) 一种融合相邻节点方差的图神经网络ctr预估算法
CN114463085A (zh) 自动化营销的通用沟通互动方法、装置、电子设备及存储介质
CN114255377A (zh) 一种智能货柜的差异商品检测分类方法
KR20220014543A (ko) 이용자와 판매자의 자발적 참여로 선순환 연결되는 온라인 플랫폼의 방법과 시스템
Matrouk et al. MapReduce Framework Based Sequential Association Rule Mining with Deep Learning Enabled Classification in Retail Scenario
Mamatha et al. Visual Sentiment Classification of Restaurant Review Images using Deep Convolutional Neural Networks
Lee Automatically learning user needs from online reviews for new product design
Ghose et al. Real-time purchase prediction using retail video analytics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200410