CN109165982A - 用户购买信息的确定方法和装置 - Google Patents
用户购买信息的确定方法和装置 Download PDFInfo
- Publication number
- CN109165982A CN109165982A CN201810991044.3A CN201810991044A CN109165982A CN 109165982 A CN109165982 A CN 109165982A CN 201810991044 A CN201810991044 A CN 201810991044A CN 109165982 A CN109165982 A CN 109165982A
- Authority
- CN
- China
- Prior art keywords
- user
- purchase
- characteristic
- server
- mood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000001815 facial effect Effects 0.000 claims abstract description 123
- 230000036651 mood Effects 0.000 claims description 163
- 238000004422 calculation algorithm Methods 0.000 claims description 47
- 238000010801 machine learning Methods 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 16
- 230000001755 vocal effect Effects 0.000 description 16
- 238000003062 neural network model Methods 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 13
- 230000002996 emotional effect Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- SBNFWQZLDJGRLK-UHFFFAOYSA-N phenothrin Chemical compound CC1(C)C(C=C(C)C)C1C(=O)OCC1=CC=CC(OC=2C=CC=CC=2)=C1 SBNFWQZLDJGRLK-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0281—Customer communication at a business location, e.g. providing product or service information, consulting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Economics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例提供一种用户购买信息的确定方法和装置,该方法包括:获取用户的人脸图像和/或声音数据;根据该人脸图像和/或该声音数据确定所述用户的购买特性;向终端发送反馈消息,该反馈消息包括:该用户的购买特性。本申请实施例提供一种用户购买信息的确定方法和装置,可以高效快速的确定用户的购买特性。
Description
技术领域
本申请实施例涉及计算机技术领域,尤其涉及一种用户购买信息的确定方法和装置。
背景技术
在销售领域,销售者合理的判断消费者对商品的购买特性以决定是否继续向消费者推荐该商品或者可能推荐什么价位的商品,对交易是否可以成功具有重要的意义。其中,购买特性可为购买概率或者购买分值。
目前,销售者是通过观察消费者在购买过程中的脸色和/或声音,揣摩后判断消费者对商品的购买特性。该方法,一是需要销售者实时观察消费者的脸色和/或声音,影响销售者对商品的介绍且对购买特性的判断效率低,二是容易对购买特性判断错误。
如何高效准确的判断消费者对商品的购买特性是亟待解决的问题。
发明内容
本申请实施例提供一种用户购买信息的确定方法和装置,可以高效准确的判断消费者对商品的购买特性。
第一方面,本申请实施例提供一种用户购买信息的确定方法,包括:
服务器获取用户的人脸图像和/或声音数据;
所述服务器根据所述人脸图像和/或所述声音数据确定所述用户的购买特性;
所述服务器向终端发送反馈消息,所述反馈消息包括:所述用户的购买特性。
在一种可能的设计中,所述服务器根据所述人脸图像确定用户的购买特性,包括:
所述服务器根据所述人脸图像确定所述用户的第一情绪;
所述服务器根据所述第一情绪确定所述用户的购买特性。
在一种可能的设计中,所述服务器根据所述人脸图像确定所述用户的第一情绪,包括:
所述服务器根据所述人脸图像和第一机器学习模型,采用第一机器学习算法确定所述第一情绪。
在一种可能的设计中,所述服务器根据所述第一情绪确定所述用户的购买特性,包括:所述服务器根据存储的第一对应关系,确定所述第一情绪对应购买特性为用户的购买特性,所述第一对应关系包括多个情绪,以及每个情绪对应的购买特性。
在一种可能的设计中,所述服务器根据所述声音数据确定所述用户的购买特性,包括:
所述服务器根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述服务器根据所述声音数据确定所述用户的第二情绪,包括:
所述服务器根据所述声音数据和第二机器学习模型,采用第二机器学习算法确定所述第二情绪。
在一种可能的设计中,所述服务器根据所述第二情绪确定所述用户的购买特性,包括:所述服务器根据存储的第二对应关系,确定所述第二情绪对应购买特性为用户的购买特性,所述第二对应包括多个情绪,以及每个情绪对应的购买特性。
在一种可能的设计中,所述服务器根据所述人脸图像和所述声音数据确定所述用户的购买特性,包括:
所述服务器根据所述人脸图像确定所述用户的第一情绪,并根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述服务器根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性,包括:
所述服务器根据所述第一情绪确定所述用户的第一购买特性;
所述服务器根据所述第二情绪确定所述用户的第二购买特性;
所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性。
在一种可能的设计中,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器确定所述人脸图像的优先级和所述声音数据的优先级;
所述服务器将述人脸图像和所述声音数据中优先级高的一项对应的购买特性确定为所述用户最终的购买特性。
在一种可能的设计中,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器将所述第一购买特性或所述第二购买特性确定为所述用户最终的购买特性。
在一种可能的设计中,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器将所述第一购买特性乘以第一权重值,得到第一目标购买特性;
所述服务器将所述第二购买特性乘以第二权重值,得到第二目标购买特性;
根据所述第一目标购买特性和第二目标购买特性,确定所述用户最终的购买特性。
第二方面,本申请实施例提供一种用户购买信息的确定方法,其特征在于,包括:
终端获取第一用户的人脸图像和/或声音数据;
所述终端将所述人脸图像和/或所述声音数据发送至服务器,以使服务器获取确定所述第一用户的购买特性;
所述终端从所述服务器接收反馈消息,所述反馈消息包括:所述第一用户的购买特性。
在一种可能的设计中,所述购买特性包括:购买概率或者购买分值;
若所述终端确定所述购买特性低于预设阈值,则输出提示语音,所述提示语音用于提示第二用户所述购买特性低于预设阈值。
第三方面,本申请提供一种服务器,包括:处理器,所述处理器与存储器耦合;
所述存储器用于,存储计算机程序;
所述处理器,调用所述存储器中存储的计算机程序,用于:
获取用户的人脸图像和/或声音数据;
根据所述人脸图像和/或所述声音数据确定所述用户的购买特性;
向终端发送反馈消息,所述反馈消息包括:所述用户的购买特性。
在一种可能的设计中,所述处理器具体用于:
根据所述人脸图像确定所述用户的第一情绪;
根据所述第一情绪确定所述用户的购买特性。
在一种可能的设计中,所述处理器具体用于:
根据所述声音数据确定所述用户的第二情绪;
根据所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述处理器具体用于:
根据所述人脸图像确定所述用户的第一情绪,并根据所述声音数据确定所述用户的第二情绪;
根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述处理器具体用于:
根据所述第一情绪确定所述用户的第一购买特性;
根据所述第二情绪确定所述用户的第二购买特性;
根据所述第一购买特性和所述第二购买特性确定用户最终的购买特性。
第三方面,本申请提供一种终端,包括:处理器,所述处理器与存储器耦合;
所述存储器用于,存储计算机程序;
所述处理器,调用所述存储器中存储的计算机程序,用于:
获取第一用户的人脸图像和/或声音数据;
将所述人脸图像和/或所述声音数据发送至服务器,以使服务器获取确定所述第一用户的购买特性;
从所述服务器接收反馈消息,所述反馈消息包括:所述第一用户的购买特性。
在一种可能的设计中,所述购买特性包括:购买概率或者购买分值;
所述处理器还用于:若确定所述购买特性低于预设阈值,则输出提示语音,所述提示语音用于提示第二用户所述购买特性低于预设阈值。
第五方面,本申请实施例提供一种可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,第一方面任一可能的设计的方法被执行。
第六方面,本申请实施例提供一种程序产品,该程序产品包括计算机指令(即计算机程序),该计算机指令存储在可读存储介质中。服务器的至少一个处理器可以从可读存储介质读取该计算机指令,至少一个处理器执行该计算机指令使得服务器实施前述第一方面任一可能的设计的方法。
第七方面,本申请实施例提供一种可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,第二方面任一可能的设计的方法被执行。
第八方面,本申请实施例提供一种程序产品,该程序产品包括计算机指令(即计算机程序),该计算机指令存储在可读存储介质中。终端的至少一个处理器可以从可读存储介质读取该计算机指令,至少一个处理器执行该计算机指令使得终端实施前述第二方面任一可能的设计的方法。
本申请中,服务器根据用户的人脸图像和/或声音数据,确定用户的购买特性,并将该购买特性作为反馈信息的至少部分发送至与销售相关的用户的终端,可以快速准确的确定用户的购买特性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的用户购买信息的确定方法的交互图一;
图2为本申请实施例提供的时间购买特性曲线示意图一;
图3为本申请实施例提供的时间情绪曲线示意图;
图4为本申请实施例提供的用户购买信息的确定方法的交互图二;
图5为本申请实施例提供的时间购买特性曲线示意图二;
图6为本申请实施例提供的用户购买信息的确定方法的交互图三;
图7为本申请实施例提供的用户购买信息的确定装置的结构示意图一;
图8为本申请实施例提供的用户购买信息的确定装置的结构示意图二;
图9为本申请实施例提供的用户购买信息的确定装置的结构示意图三;
图10为本申请实施例提供的服务器的结构示意图;
图11为本申请实施例提供的终端的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
图1为本申请实施例提供的用户购买信息的确定方法的交互图一,参见图1,本实施例的方法包括:
步骤S101、第一终端采集用户的人脸图像;
步骤S102、第一终端发送人脸图像至服务器;
步骤S103、服务器根据人脸图像确定用户的购买特性;
步骤S104、服务器向第二终端发送反馈信息,该反馈信息中包括该购买特性。
步骤S105、第二终端显示该反馈信息。
具体地,本实施例的应用场景为用户选购物品的场景或者为商务谈判的场景,第一终端可为代售物品所在的场所内的摄像头等拍摄设备或者商务谈判的场所内的摄像头等拍摄设备。可以理解的是,第一终端可以是固定在可以拍摄到消费者人脸图像的位置的设备,还可以销售者或谈判中的某一用户佩戴的可移动的且能够拍摄到消费者或者谈判甲方中的各用户人脸图像的设备。
第一终端和第二终端可能相同,也可能不相同。
本实施例中的购买特性可为一购买概率或者一购买分值。比如服务器确定的用户的购买概率为90%,则说明用户购买相应商品的可能性很大,其它用户(销售者)确定可以继续向用户推荐该商品或者推荐同等价位以及低于该价位的商品给该用户,成交的可能性比较大。
又比如,服务器确定的购买分值为40分,在100分为满分的情况下,说明用户购买相应商品的可能性比较小,其它用户(销售者)可以停止向用户推荐该商品,开始推荐低于该价位的相关商品给该用户,以提高成交的可能性。
下面结合具体的场景对本实施的用户购买信息的确定方法进行说明。
具体地,用户进入商店后,商店内的第一终端每隔预设时长获取一次用户的人脸图像,将用户的人脸图像发送至服务器。服务器接收到后,服务器根据人脸图像确定用户的购买特性。在本实施例中,第一终端采集到的用户的人脸图像称为第一人脸图像。预设时长可为100ms~1s之间的任一。
具体地,对于每张第一人脸图像,服务器接收到第一人脸图像后,服务器根据第一人脸图像确定用户的购买特性,包括:服务器根据第一人脸图像确定用户的第一情绪,服务器根据该第一情绪确定用户的购买特性。
其中,服务器根据第一人脸图像确定用户的第一情绪,包括:服务器根据第一人脸图像和第一机器学习模型,采用第一机器学习算法确定第一情绪。
具体地,将该第一人脸图像的该特征向量作为第一机器学习模型的输入,采用该第一机器学习算法,得到一输出,该输出为一标签,该标签用于指示该用户的情绪。情绪比如可为:一般开心、十分开心、惊喜,惊吓、淡定、忧伤等等。其中,第一人脸图像的该特征向量可以是第一人脸图像的局部二值模式(Local Binary Patterns,简称LBP)值得到的向量,获取第一人脸图像的LBP值是现有技术中的方法,此处不再赘述。当然,还可以通过其它的方法获取第一人脸图像的特征向量。
其中,标签可为一指示用户的情绪的字符串,比如标签-000,指示一般开心的情绪,标签-001指示十分开心的情绪,标签-010指示惊喜的情绪,标签-100指示惊吓的情绪,标签-110指示忧伤的情绪,标签-101指示淡定的情绪。
对于第一机器学习模型:第一机器学习模型是采用第一机器学习模型对应的第一机器学习算法基于多个训练样本得到的,训练样本包括第二人脸图像的特征向量。可以理解的是,获取第一终端采集的第一人脸图像的特征向量的方法需要和获取第二人脸图像的特征向量的方法相同。
可选地,第一机器学习算法可为神经网络算法,则第一机器学习模型为神经网络模型。神经网络算法可为如下中的任一种:循环神经网络(Recurrent Neural Networks,简称RNN)算法、反向传播(Back Propagation,简称BP)神经网络算法、卷积神经网络算法、栈自动编码机(Stacked AutoEncoder,简称SAE)神经网络算法、长短时记忆神经网络(LongShort Term Memory Network,LSTM)算法。神经网络算法并不限于上述举例中的算法,还可为其它的神经网络算法。
可以理解的是,第一机器学习算法与第一机器学习模型是一一对应的,即若机器学习算法为卷积神经网络算法,则第一机器学习模型为卷积神经网络模型。下面对第一机器学习模型为神经网络模型时的获取方法进行说明。
基于多个训练样本得到神经网络模型的方法为:
a1、获取多个训练样本,每个训练样本包括一张第二人脸图像的特征向量;
a2、获取各训练样本各自的标签,标签用于指示训练样本对应的情绪;
a3、根据各训练样本包括的特征向量,采用神经网络算法对所有训练样本进行训练,得到神经网络模型。
具体地,对于a1:获取多个训练样本,每个训练样本包括一张第二人脸图像的特征向量,可以理解的是,获取第二人脸图像的特征向量的方法需要和获取第一终端采集的第一人脸图像的特征向量的方法相同。
每张第二人脸图像会对应得到一个训练样本,因此,先要获取K张第二人脸图像,K的值应该尽可能的大,每张第二人脸图像中的表情应该能够判断判别用户的情绪,也就是说每张第二人脸图像对应一种情绪,K张图像对应的情绪的类别应当尽可能的包括所有类别的情绪,且每种情绪的第二人脸图像应当有多张。
示例性地,获取第二人脸图像a的特征向量,得到训练样本a,获取第二人脸图像b的特征向量,得到训练样本b,获取第二人脸图像c的特征向量,得到训练样本c,获取第二人脸图像d的特征向量,得到训练样本d,等等,基于K张第二人脸图像一共可得到K个训练样本。
对于a2:根据训练样本对应的第二人脸图像中用户的情绪,为每个训练样本分配一个标签,比如,训练样本a对应的第二人脸图像中用户的情绪为一般开心,则训练样本a的标签可为标签1,标签1用于指示一般开心的情绪,训练样本b对应第二人脸图像中用户的情绪为惊喜,则训练样本b的标签可为标签2,标签2用于指示惊喜的情绪。
对于a3:对于第一个进行训练的训练样本e,将训练样本e对应的特征向量作为神经网络的输入向量,将训练样本e的标签作为期望输出,神经网络各神经元之间的连接权值和对应的偏置值赋予初始值;采用相应的神经网络算法,得到训练样本e对应的实际输出,根据实际输出和期望输出,调整神经网络各神经元之间的连接权值和对应的偏置值,得到更新后的各神经元之间的连接权值和对应的偏置值。
对于第二个进行训练的训练样本f,将训练样本f对应的特征向量作为神经网络的输入向量,将训练样本f的标签作为期望输出,此次训练过程或者学习过程,初始采用的神经网络各层神经元之间的连接权值和对应的偏置值为训练样本e训练完毕后,得到的更新后的各神经元之间的连接权值和对应的偏置值;采用相应的神经网络算法,得到训练样本f对应的实际输出,根据实际输出和期望输出,再次调整神经网络各神经元之间的连接权值和对应的偏置值,得到更新后的各神经元之间的连接权值和对应的偏置值。
对于第三个进行训练的训练样本g,将训练样本g对应的特征向量作为神经网络的输入向量,将训练样本g的标签作为期望输出,此次训练过程或者学习过程,初始采用的神经网络各层神经元之间的连接权值和对应的偏置值为训练样本f训练完毕后,得到的更新后的各神经元之间的连接权值和对应的偏置值;采用相应的神经网络算法,得到训练样本g对应的实际输出,根据实际输出和期望输出,再次调整神经网络各神经元之间的连接权值和对应的偏置值,得到更新后的各神经元之间的连接权值和对应的偏置值。
重复执行上述训练过程,训练的精度满足要求后,停止训练过程,每个训练样本至少被训练一次。则最后一次训练对应的神经网络以及各层神经元之间的连接权值和对应的偏置值即为神经网络模型。
在得到神经网络模型后,服务器便可根据神经网络模型和第一人脸图像的特征向量,采用相应的神经网络算法,得到一标签,该标签指示该第一人脸图像对应的情绪,也就是采集该张第一人脸图像时,相应用户的情绪。
可以理解的是,若第一终端和第二终端相同,服务器在得到第一机器学习模型后,可以把第一机器学习模型发送至第一终端,第一终端根据采集的第一人脸图像得到购买特性。一般情况下,第一终端和第二终端不相同。
在得到第一人脸图像对应的情绪后,根据该情绪确定用户的购买特性,包括:根据存储的对应关系,确定该情绪对应购买特性为用户的购买特性,该对应关系为多个情绪与多个购买特性之间的对应关系,即对应关系包括多个情绪,以及每个情绪对应的购买特性。具体地,在购买特性为购买概率时,每个情绪对应一个购买概率;比如情绪的被分成了10种,则设置10种购买概率,按照情绪从坏到好的顺序,被分配的购买概率逐渐增加。可以认为惊喜的情绪好于十分开心的情绪,忧伤的情绪坏于失落的情绪。
示例性地,情绪被分成了10种,分别为A、B、C、D、E、F、G、H、I、J,A~J对应的情绪从坏到好,则A对应的购买概率可为5%,B对应的购买概率可为15%,C对应的购买概率可为25%,D对应的购买概率可为35%,E对应的购买概率可为45%,F对应的购买概率可为55%,G对应的购买概率可为65%,H对应的购买概率可为75%,I对应的购买概率可为85%,J对应的购买概率可为95%。
若得到第一人脸图像对应的情绪为一般开心,一般开心对应的购买概率为75%,则确定用户的当前的购买特性为购买概率75%。
由于第一终端每间隔预设时长就会采集一张该用户的第一人脸图像,在成交前,第一终端会采集到该用户的多张第一人脸图像,服务器根据每张人脸图像均会得到一个购买特性,因此,在一种方式中,服务器发送至第二终端并在第二终端显示的反馈信息包括时间购买特性曲线,横轴表示时间,纵轴表示购买特性。一个时间购买特性曲线是根据当前已经拍摄到的同一个用户的各第一人脸图像对应的情绪所对应的购买特性以及采集相应第一人脸图像的时间得到的。其中,采集相应第一人脸图像的时间可由第一终端在发送该第一人脸图像时发送至服务器。
可以理解的是,在用户离开商店前,由于第一终端没有停止采集该用户的第一人脸图像,服务器会基于第一终端发送的第一人脸图像不断的得到购买特性,因此,该用户对应的时间购买特性曲线是随着时间的变化逐渐变化的,即服务器会实时将最新的时间购买特性曲线发送至第二终端,第二终端显示的是最新的时间购买特性曲线。
图2为本申请实施例提供的时间购买特性曲线示意图;参见图2,该图中的时间购买特性曲线展示了用户从进店到当前时刻的时间范围内用户的购买概率。比如在14:00时,用户的购买概率最高,可达到95%。
此外,服务器发送至第二终端的反馈信息还可包括用户的时间情绪曲线,横轴表示时间,纵轴表示情绪。一个时间情绪曲线是根据当前已经拍摄到的同一个用户的各第一人脸图像对应的情绪以及采集相应第一人脸图像的时间得到的。
可以理解的是,在用户离开商店前,由于第一终端没有停止采集该用户的第一人脸图像,服务器会基于第一终端发送的第一人脸图像不断的得到用户的情绪,因此,该用户对应的时间情绪曲线是随着时间的变化逐渐变化的,即服务器会实时将最新的时间情绪曲线发送至第二终端,第二终端显示的是最新的时间情绪曲线。
图3为本申请实施例提供的时间情绪曲线示意图;参见图3,该图中的时间购买特性曲线展示了用户从进店到当前时刻的时间范围内用户的情绪变化。比如在14:00时,用户的情绪为惊喜。
进一步地,在实际应用过程中可以设置一阈值(比如阈值为购买概率60%),当第二终端确定购买特性低于预设阈值时,第二终端可输出提示语音,提示语音用于提示用户购买特性低于预设阈值,也就是提示销售者可停止向用户推荐该商品;当第二终端确定购买特性高于预设阈值时,第二终端不输出提示语音,销售者会继续向消费者推荐该商品,或者推荐一些与该商品相关的同等价位或低于该商品价位的产品。
本实施例中,服务器根据用户的人脸图像,确定用户的购买特性,并将该购买特性作为反馈信息的至少部分发送至与销售相关的用户的终端,可以快速准确的确定用户的购买特性。
图4为本申请实施例提供的用户购买信息的确定方法的交互图二,参见图4,本实施例的方法包括:
步骤S201、第一终端采集用户的声音数据;
步骤S202、第一终端发送声音数据至服务器;
步骤S203、服务器根据声音数据确定用户的购买特性;
步骤S204、服务器向第二终端发送反馈信息,该反馈信息中包括该购买特性。
步骤S205、第二终端显示该反馈信息。
具体地,本实施例中与上一实施例不相同的是,本实施例中采集的是用户的声音数据。
本实施例的应用场景同上一实施例的应用场景。本实施例的第一终端可为待售物品所在的场所内能够录音的设备或者商务谈判的场所内能够录音的设本实施例中的购买特性同上一实施例的购买特性。
第一终端和第二终端可能相同,也可能不相同。
下面结合具体的场景对本实施的用户购买信息的确定方法进行说明。
具体地,用户进入商店后,商店内的第一终端每隔第一预设时长在第二预设时长内获取一次用户的声音数据,或者一直获取用户的声音数据,并将获取的该用户的声音数据发送至服务器。服务器接收到后,服务器根据声音数据确定用户的购买特性。在本实施例中,若第一终端每隔第一预设时长在第二预设时长内获取一次用户的声音数据,则第一终端每次获取的声音数据称为第一声音数据,第一预设时长可为0.5s~4s之间,第二预设时长可为0.5s~3s之间。若第一终端一直获取用户的声音数据,则第一终端每间隔第三预设时长向服务器发送一次声音数据,则一个第三预设时长内的声音数据称为第一声音数据;第三预设时长可为0.2s~1s之间。
具体地,对于每个第一声音数据,服务器接收到第一声音数据后,服务器根据第一声音数据确定用户的购买特性,包括:服务器根据第一声音数据确定用户的第二情绪,服务器根据该第二情绪确定用户的购买特性。
其中,服务器根据第一声音数据确定用户的第二情绪,可包括:服务器根据第一声音数据和第二机器学习模型,采用第二机器学习算法确定第二情绪。
具体地,在一种方式中,将该第一声音数据的声纹特征向量作为第二机器学习模型的输入,采用该第二机器学习算法,得到一输出,该输出为一标签,该标签用于指示该用户的情绪。情绪比如可为:一般开心、十分开心、惊喜,惊吓、淡定、忧伤等等。声纹特征向量即为第一声音数据的声纹特征组成的向量,第一声音数据的声纹特征向量可为第一声音数据包括的各帧语音帧对应的声纹特征组成的一个声纹特征向量;还可以是第一声音数据中每帧语音的声纹特征组成一组声纹特征向量,第一声音数据的声纹特征向量包括多组声纹特征向量。
其中,标签可为一指示用户的情绪的字符串,比如标签-000,指示一般开心的情绪,标签-001指示十分开心的情绪,标签-010指示惊喜的情绪,标签-100指示惊吓的情绪,标签-110指示忧伤的情绪,标签-101指示淡定的情绪。
对于第二机器学习模型:第二机器学习模型是采用第二机器学习模型对应的第二机器学习算法基于多个训练样本得到的,训练样本包括第二声音数据的声纹特征向量,第二声音数据对应的声纹特征向量与第一声音数据对应的声纹特征向量的含义相同。即获取第一终端采集的第一声音数据的特征向量的方法需要和获取第二声音数据的特征向量的方法相同。
可选地,第二机器学习算法可为神经网络算法,第二机器学习模型为神经网络模型。神经网络算法可为如下中的任一种:循环神经网络(Recurrent Neural Networks,简称RNN)算法、反向传播(Back Propagation,简称BP)神经网络算法、卷积神经网络算法、栈自动编码机(Stacked AutoEncoder,简称SAE)神经网络算法、长短时记忆神经网络(LongShort Term Memory Network,LSTM)算法。神经网络算法并不限于上述举例中的算法,还可为其它的神经网络算法。
可以理解的是,第二机器学习算法与第二机器学习模型是一一对应的,即若机器学习算法为LSTM算法,则第二机器学习模型为LSTM模型。下面对第二机器学习模型为神经网络模型时,神经网络模型的获取方法进行说明。
基于多个训练样本得到神经网络模型的方法为:
b1、获取多个训练样本,每个训练样本包括第二声音数据的特征向量;
b2、获取各训练样本各自的标签,标签用于指示训练样本对应的情绪;
b3、根据各训练样本包括的特征向量,采用神经网络算法对所有训练样本进行训练,得到神经网络模型。
具体地,对于b1:获取多个训练样本,每个训练样本包括一个第二声音数据的声纹特征向量,可以理解的是,获取第二声音数据的声纹特征向量的方法需要和获取第一终端采集的第一声音数据的声纹特征向量的方法相同。
对于b2:根据训练样本对应的第二声音数据所对应的用户的情绪,为每个训练样本分配一个标签,比如,训练样本a对应的第二声音数据所对应的用户的情绪为一般开心,则训练样本a的标签可为标签1,标签1用于指示一般开心的情绪。
对于b3:参照上一实施例中的a3,此处不再赘述。
重复执行上述训练过程,训练的精度满足要求后,停止训练过程,每个训练样本至少被训练一次。则最后一次训练对应的神经网络以及各层神经元之间的连接权值和对应的偏置值即为神经网络模型。
在得到神经网络模型后,服务器便可根据神经网络模型和第一声音数据对应的声纹特征向量,采用相应的神经网络算法,得到一标签,该标签指示该第一声音数据对应的情绪,也就是采集该第一声音数据时,相应用户的情绪。
可以理解的是,若第一终端和第二终端相同,服务器在得到第二机器学习模型后,可以把第二机器学习模型发送至第一终端,第一终端根据采集的第一声音数据得到购买特性。一般情况下,第一终端和第二终端不相同。
在得到第一声音数据对应的情绪后,根据该情绪确定用户的当前购买特性,包括:根据存储的对应关系,确定该情绪对应购买特性为用户的购买特性,该对应关系为多个情绪与多个购买特性之间的对应关系,即对应关系包括多个情绪,以及每个情绪对应的购买特性。具体地,在购买特性为购买分值时,每个情绪对应一个购购买分值;比如情绪的被分成了10种,则设置10种购买分值,按照情绪从坏到好的顺序,被分配的购买分值逐渐增加。可以认为惊喜的情绪好于十分开心的情绪,忧伤的情绪坏于失落的情绪。
示例性地,情绪被分成了10种,分别为A、B、C、D、E、F、G、H、I、J,A~J对应的情绪从坏到好,则A对应的购买分值可为5分,B对应的购买分值可为15分,C对应的购买分值可为25分,D对应的购买分值可为35分,E对应的购买分值可为45分,F对应的购买分值可为55分,G对应的购买分值可为65分,H对应的购买分值可为75分,I对应的购买分值可为85分,J对应的购买分值可为95分。
若得到第一声音数据对应的情绪为一般开心,一般开心对应的购买分值为75分,则确定用户的当前的购买特性为75分。
由于服务器每间隔一段时间就会获取到一个第一声音数据,在成交前,服务器会获取到该用户的多个第一声音数据,服务器根据每个声音数据均会得到一个购买特性,因此,在一种方式中,服务器发送至第二终端并在第二终端显示的反馈信息包括时间购买特性曲线,横轴表示时间,纵轴表示购买特性。一个时间购买特性曲线是根据当前已经获取的同一个用户的各第一声音数据对应的情绪所对应的购买特性以及采集相应第一声音数据的时间得到的。其中,采集相应第一声音数据的时间可由第一终端在发送该第一声音数据时发送至服务器。
可以理解的是,在用户离开商店前,由于第一终端没有停止采集该用户的第一声音数据,服务器会基于第一终端发送的第一声音数据不断的得到购买特性,因此,该用户对应的时间购买特性曲线是随着时间的变化逐渐变化的,即服务器会实时将最新的时间购买特性曲线发送至第二终端,第二终端显示的是最新的时间购买特性曲线。
图5为本申请实施例提供的时间购买特性曲线示意图;参见图5,该图中的时间购买特性曲线展示了用户从进店到当前时刻的时间范围内用户的购买分值的变化。比如在15:00时,购买分值最高,可达到95分。
进一步地,在实际应用过程中可以设置一阈值(比如阈值为购买分值为60分),当第二终端确定购买特性低于预设阈值时,第二终端可输出提示语音,提示语音用于提示用户购买特性低于预设阈值,也就是提示销售者可停止向用户推荐该商品;当第二终端确定购买特性高于预设阈值时,第二终端不输出提示语音,销售者会继续向消费者推荐该商品,或者推荐一些与该商品相关的同等价位或低于该商品价位的产品。
本实施例中,服务器根据用户的声音数据,确定用户的购买特性,并将该购买特性作为反馈信息的至少部分发送至与销售相关的用户的终端,可以快速准确的确定用户的购买特性。
图6为本申请实施例提供的用户购买信息的确定方法的交互图三,参见图6,本实施例的方法包括:
步骤S301、第一终端采集用户的人脸图像;
步骤S302、第一终端发送人脸图像至服务器;
步骤S303、第二终端采集用户的声音数据;
步骤S304、第二终端发送声音数据至服务器;
步骤S305、服务器根据人脸图像和声音数据确定用户的购买特性;
步骤S306、服务器向第三终端发送反馈信息,该反馈信息中包括该购买特性。
步骤S307、第三终端显示该反馈信息。
具体地,第一终端、第二终端、第三终端可均不相同,可至少两个相同。
步骤S301~步骤S302参照图1所示的实施例,本实施例中不再赘述。步骤S303~步骤S304参照图4所示的实施例,本实施例中不再赘述。
对于步骤S305、服务器根据人脸图像和声音数据确定用户的购买特性,包括:服务器根据人脸图像确定用户的第一情绪,并根据声音数据确定用户的第二情绪;服务器根据所述用户的第一情绪和第二情绪确定用户的购买特性。
其中,服务器根据人脸图像确定用户的第一情绪,并根据声音数据确定用户的第二情绪,参见上述实施例的阐述,本实施例中不再赘述。
服务器根据用户的第一情绪和第二情绪确定用户的购买特性,包括:服务器根据第一情绪确定用户的第一购买特性;服务器根据第二情绪确定用户的第二购买特性;服务器根据该第一购买特性和该第二购买特性确定用户最终的购买特性。
其中,服务器根据第一情绪确定用户的第一购买特性,服务器根据第二情绪确定用户的第二购买特性参见上述实施例的阐述,本实施例中不再赘述。
服务器根据该第一购买特性和该第二购买特性确定用户最终的购买特性,具有如下几种可实现的实施方式。
第一种实施方式为:服务器将第一购买特性乘以第一权重值,得到第一目标购买特性,服务器将第二购买特性乘以第二权重值,得到第二目标购买特性;服务器根据第一目标购买特性和第二目标购买特性,确定用户最终的购买特性。
其中,第一权重值可为0.5,第二权重值可为0.5。
用户最终的购买特性为第一目标购买特性和第二目标购买特性之和。
第二种实施方式为:服务器获取人脸图像的优先级和声音数据的优先级,服务器将人脸图像和声音数据中优先级高的一项对应的购买特性确定为用户最终的购买特性。
其中,人脸图像的优先级和声音数据的优先级可以是服务器中预先存储的,也可以是第三终端发送至服务器的。若人脸图像的优先级高于声音数据的优先级,则采用第一购买特性作为用户最终的购买特性,若人脸图像的优先级低于声音数据的优先级,则采用第二购买特性作为用户最终的购买特性。
可以理解的是,若服务器中预先存储了人脸图像的优先级和声音数据的优先级,且人脸图像的优先级高于声音数据的优先级,则服务器可只根据人脸图像获取第一购买特性,也可即根据人脸图像获取第一购买特性,也根据声音数据获取第二购买特性。
若服务器中预先存储了人脸图像的优先级和声音数据的优先级,且人脸图像的优先级低于声音数据的优先级,则服务器可只根据声音数据获取第二购买特性,也可即根据人脸图像获取第一购买特性,也根据声音数据获取第二购买特性。
第三种实施方式为:服务器将第一购买特性或第二购买特性确定为用户最终的购买特性。
服务器根据实际情况选择第一购买特性或第二购买特性作为用户最终的购买特性。比如,第二终端还会发送第二终端的位置至服务器,服务器若确定为第二终端的位置为超市等预设场所,则将第一购买特性确定为用户最终的购买特性;此时,服务器存储有一字段集,位置中包括该字段集中的字段的场所均确定为预设场所,比如,超市为该字段集中的一个字段。
对于步骤S306~S307,参照上述实施例中的相关步骤,本实施例中不再赘述。
本实施例中,服务器根据用户的声音数据和人脸图像,确定用户的购买特性,并将该购买特性作为反馈信息的至少部分发送至与销售相关的用户的终端,进一步提高了的确定用户的购买特性的效率和准确度。
图7为本申请实施例提供的用户购买信息的确定装置的结构示意图一,如图7所示,本实施例的装置可以包括:获取模块51和发送模块52;
获取模块51,用于获取用户的人脸图像和/或声音数据;
获取模块51,还用于根据所述人脸图像和/或所述声音数据确定所述用户的购买特性;
发送模块52,用于向终端发送反馈消息,所述反馈消息包括:所述用户的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
根据所述人脸图像确定所述用户的第一情绪;
根据所述第一情绪确定所述用户的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器根据所述人脸图像和第一机器学习模型,采用第一机器学习算法确定所述第一情绪。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器根据所述声音数据和第二机器学习模型,采用第二机器学习算法确定所述第二情绪。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器根据所述人脸图像确定所述用户的第一情绪,并根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器根据所述第一情绪确定所述用户的第一购买特性;
所述服务器根据所述第二情绪确定所述用户的第二购买特性;
所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器确定所述人脸图像的优先级和所述声音数据的优先级;
所述服务器将述人脸图像和所述声音数据中优先级高的一项对应的购买特性确定为所述用户最终的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器将所述第一购买特性或所述第二购买特性确定为所述用户最终的购买特性。
在一种可能的设计中,所述获取模块51,具体用于:
所述服务器将所述第一购买特性乘以第一权重值,得到第一目标购买特性;
所述服务器将所述第二购买特性乘以第二权重值,得到第二目标购买特性;
根据所述第一目标购买特性和第二目标购买特性,确定所述用户最终的购买特性。
本实施例的装置,可以用于执行上述方法实施例中服务器对应的的技术方案,其实现原理和技术效果类似,此处不再赘述。
图8为本申请实施例提供的用户购买信息的确定装置的结构示意图二,如图8所示,本实施例的装置可以包括:获取模块61、发送模块62和接收模块63;
获取模块61,用于获取第一用户的人脸图像和/或声音数据;
发送模块62,用于将所述人脸图像和/或所述声音数据发送至服务器,以使服务器获取确定所述第一用户的购买特性;
接收模块63,用于从所述服务器接收反馈消息,所述反馈消息包括:所述第一用户的购买特性。
本实施例的装置,可以用于执行上述方法实施例中终端对应的技术方案,其实现原理和技术效果类似,此处不再赘述。
图9为本申请实施例提供的用户购买信息的确定装置的结构示意图三,如图9所示,本实施例的装置在图8所示装置结构的基础上,进一步地,还可以包括:输出模块64,用于若所述购买特性低于预设阈值,则输出提示语音,所述提示语音用于提示第二用户所述购买特性低于预设阈值;所述购买特性包括:购买概率或者购买分值。
本实施例的装置,可以用于执行上述方法实施例中终端对应的技术方案,其实现原理和技术效果类似,此处不再赘述。
图10为本申请实施例提供的服务器的结构示意图四,包括:处理器21,所述处理器21与存储器22耦合;
所述存储器22用于,存储计算机程序;
所述处理器21用于,执行所述存储器中存储的计算机程序,以使得所述服务器执行上述方法实施例中服务器对应的方法。
图11为本申请实施例提供的终端的结构示意图五,包括:处理器31,所述处理器31与存储器32耦合;
所述存储器32用于,存储计算机程序;
所述处理器31用于,执行所述存储器中存储的计算机程序,以使得所述终端执行上述方法实施例中终端对应的方法。
本申请实施例提供一种可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,如上述任一方法实施例中服务器对应的方法被执行。
本申请实施例提供一种可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,如上述任一方法实施例中终端对应的方法被执行。
应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请实施例的技术方案,而非对其限制;尽管参照前述各实施例对本申请实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请实施例方案的范围。
Claims (20)
1.一种用户购买信息的确定方法,其特征在于,包括:
服务器获取用户的人脸图像和/或声音数据;
所述服务器根据所述人脸图像和/或所述声音数据确定所述用户的购买特性;
所述服务器向终端发送反馈消息,所述反馈消息包括:所述用户的购买特性。
2.根据权利要求1所述的方法,其特征在于,所述服务器根据所述人脸图像确定用户的购买特性,包括:
所述服务器根据所述人脸图像确定所述用户的第一情绪;
所述服务器根据所述第一情绪确定所述用户的购买特性。
3.根据权利要求2所述的方法,其特征在于,所述服务器根据所述人脸图像确定所述用户的第一情绪,包括:
所述服务器根据所述人脸图像和第一机器学习模型,采用第一机器学习算法确定所述第一情绪。
4.根据权利要求1所述的方法,其特征在于,所述服务器根据所述声音数据确定所述用户的购买特性,包括:
所述服务器根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述第二情绪确定所述用户的购买特性。
5.根据权利要求4所述的方法,其特征在于,所述服务器根据所述声音数据确定所述用户的第二情绪,包括:
所述服务器根据所述声音数据和第二机器学习模型,采用第二机器学习算法确定所述第二情绪。
6.根据权利要求1所述的方法,其特征在于,所述服务器根据所述人脸图像和所述声音数据确定所述用户的购买特性,包括:
所述服务器根据所述人脸图像确定所述用户的第一情绪,并根据所述声音数据确定所述用户的第二情绪;
所述服务器根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性。
7.根据权利要求6所述的方法,其特征在于,所述服务器根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性,包括:
所述服务器根据所述第一情绪确定所述用户的第一购买特性;
所述服务器根据所述第二情绪确定所述用户的第二购买特性;
所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性。
8.根据权利要求7所述的方法,其特征在于,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器确定所述人脸图像的优先级和所述声音数据的优先级;
所述服务器将述人脸图像和所述声音数据中优先级高的一项对应的购买特性确定为所述用户最终的购买特性。
9.根据权利要求7所述的方法,其特征在于,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器将所述第一购买特性或所述第二购买特性确定为所述用户最终的购买特性。
10.根据权利要求7所述的方法,其特征在于,所述服务器根据所述第一购买特性和所述第二购买特性确定所述用户最终的购买特性,包括:
所述服务器将所述第一购买特性乘以第一权重值,得到第一目标购买特性;
所述服务器将所述第二购买特性乘以第二权重值,得到第二目标购买特性;
根据所述第一目标购买特性和第二目标购买特性,确定所述用户最终的购买特性。
11.一种用户购买信息的确定方法,其特征在于,包括:
终端获取第一用户的人脸图像和/或声音数据;
所述终端将所述人脸图像和/或所述声音数据发送至服务器,以使服务器获取确定所述第一用户的购买特性;
所述终端从所述服务器接收反馈消息,所述反馈消息包括:所述第一用户的购买特性。
12.根据权利要求11所述的方法,其特征在于,所述购买特性包括:购买概率或者购买分值;
若所述终端确定所述购买特性低于预设阈值,则输出提示语音,所述提示语音用于提示第二用户所述购买特性低于预设阈值。
13.一种服务器,其特征在于,包括:处理器,所述处理器与存储器耦合;
所述存储器用于,存储计算机程序;
所述处理器,调用所述存储器中存储的计算机程序,用于:
获取用户的人脸图像和/或声音数据;
根据所述人脸图像和/或所述声音数据确定所述用户的购买特性;
向终端发送反馈消息,所述反馈消息包括:所述用户的购买特性。
14.根据权利要求13所述的服务器,其特征在于,所述处理器具体用于:
根据所述人脸图像确定所述用户的第一情绪;
根据所述第一情绪确定所述用户的购买特性。
15.根据权利要求13所述的服务器,其特征在于,所述处理器具体用于:
根据所述声音数据确定所述用户的第二情绪;
根据所述第二情绪确定所述用户的购买特性。
16.根据权利要求13所述的服务器,其特征在于,所述处理器具体用于:
根据所述人脸图像确定所述用户的第一情绪,并根据所述声音数据确定所述用户的第二情绪;
根据所述用户的第一情绪和所述第二情绪确定所述用户的购买特性。
17.根据权利要求16所述的服务器,其特征在于,所述处理器具体用于:
根据所述第一情绪确定所述用户的第一购买特性;
根据所述第二情绪确定所述用户的第二购买特性;
根据所述第一购买特性和所述第二购买特性确定用户最终的购买特性。
18.一种终端,其特征在于,包括:处理器,所述处理器与存储器耦合;
所述存储器用于,存储计算机程序;
所述处理器,调用所述存储器中存储的计算机程序,用于:
获取第一用户的人脸图像和/或声音数据;
将所述人脸图像和/或所述声音数据发送至服务器,以使服务器获取确定所述第一用户的购买特性;
从所述服务器接收反馈消息,所述反馈消息包括:所述第一用户的购买特性。
19.根据权利要求18所述的终端,其特征在于,所述购买特性包括:购买概率或者购买分值;
所述处理器还用于:若确定所述购买特性低于预设阈值,则输出提示语音,所述提示语音用于提示第二用户所述购买特性低于预设阈值。
20.一种可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,权利要求1~10或者11~12任一所述的方法被执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810991044.3A CN109165982A (zh) | 2018-08-28 | 2018-08-28 | 用户购买信息的确定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810991044.3A CN109165982A (zh) | 2018-08-28 | 2018-08-28 | 用户购买信息的确定方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109165982A true CN109165982A (zh) | 2019-01-08 |
Family
ID=64893152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810991044.3A Pending CN109165982A (zh) | 2018-08-28 | 2018-08-28 | 用户购买信息的确定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109165982A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858958A (zh) * | 2019-01-17 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于微表情的目标客户定位方法、装置、设备及存储介质 |
CN110491416A (zh) * | 2019-07-26 | 2019-11-22 | 广东工业大学 | 一种基于lstm和sae的电话语音情感分析与识别方法 |
CN113010784A (zh) * | 2021-03-17 | 2021-06-22 | 北京十一贝科技有限公司 | 用于生成预测信息的方法、装置、电子设备和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001100888A (ja) * | 1999-09-30 | 2001-04-13 | Sony Corp | 情動入力装置及び方法、情動駆動型の情報処理システム、ならびに、プログラム記録媒体 |
CN106886909A (zh) * | 2015-12-15 | 2017-06-23 | 中国电信股份有限公司 | 用于商品选购的方法和系统 |
CN107784114A (zh) * | 2017-11-09 | 2018-03-09 | 广东欧珀移动通信有限公司 | 表情图像的推荐方法、装置、终端及存储介质 |
CN107844990A (zh) * | 2017-10-31 | 2018-03-27 | 努比亚技术有限公司 | 一种用于智能门店的信息管理方法及其系统、终端设备 |
CN108154398A (zh) * | 2017-12-27 | 2018-06-12 | 广东欧珀移动通信有限公司 | 信息显示方法、装置、终端及存储介质 |
-
2018
- 2018-08-28 CN CN201810991044.3A patent/CN109165982A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001100888A (ja) * | 1999-09-30 | 2001-04-13 | Sony Corp | 情動入力装置及び方法、情動駆動型の情報処理システム、ならびに、プログラム記録媒体 |
CN106886909A (zh) * | 2015-12-15 | 2017-06-23 | 中国电信股份有限公司 | 用于商品选购的方法和系统 |
CN107844990A (zh) * | 2017-10-31 | 2018-03-27 | 努比亚技术有限公司 | 一种用于智能门店的信息管理方法及其系统、终端设备 |
CN107784114A (zh) * | 2017-11-09 | 2018-03-09 | 广东欧珀移动通信有限公司 | 表情图像的推荐方法、装置、终端及存储介质 |
CN108154398A (zh) * | 2017-12-27 | 2018-06-12 | 广东欧珀移动通信有限公司 | 信息显示方法、装置、终端及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858958A (zh) * | 2019-01-17 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于微表情的目标客户定位方法、装置、设备及存储介质 |
CN110491416A (zh) * | 2019-07-26 | 2019-11-22 | 广东工业大学 | 一种基于lstm和sae的电话语音情感分析与识别方法 |
CN110491416B (zh) * | 2019-07-26 | 2022-02-25 | 广东工业大学 | 一种基于lstm和sae的电话语音情感分析与识别方法 |
CN113010784A (zh) * | 2021-03-17 | 2021-06-22 | 北京十一贝科技有限公司 | 用于生成预测信息的方法、装置、电子设备和介质 |
CN113010784B (zh) * | 2021-03-17 | 2024-02-06 | 北京十一贝科技有限公司 | 用于生成预测信息的方法、装置、电子设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109165982A (zh) | 用户购买信息的确定方法和装置 | |
CN111144933B (zh) | 商品推荐方法、装置、电子设备及存储介质 | |
CN111402013A (zh) | 一种商品搭配推荐方法、系统、装置及存储介质 | |
US20210390365A1 (en) | Aspect Pre-selection using Machine Learning | |
CN113256397B (zh) | 基于大数据的商品推荐方法、系统及计算机可读存储介质 | |
US20230252991A1 (en) | Artificial Assistant System Notifications | |
CN109213859A (zh) | 一种文本检测方法、装置及系统 | |
KR20200143991A (ko) | 텍스트의 내용 및 감정 분석에 기반한 답변 추천 시스템 및 방법 | |
CN111768239A (zh) | 道具推荐方法、装置、系统、服务器和存储介质 | |
CN107958001A (zh) | 一种智能问答的实现方法及装置 | |
CN112966568A (zh) | 一种视频客服服务质量分析方法及装置 | |
CN114218488A (zh) | 基于多模态特征融合的信息推荐方法、装置及处理器 | |
CN116894711A (zh) | 商品推荐理由生成方法及其装置、电子设备 | |
CN115146047A (zh) | 信息处理方法、设备、存储介质及程序产品 | |
CN111523914B (zh) | 用户满意度的评测方法、装置、系统和数据显示平台 | |
CN112053205A (zh) | 通过机器人情绪识别的产品推荐方法及装置 | |
CN112785390B (zh) | 推荐处理方法、装置、终端设备以及存储介质 | |
KR102071198B1 (ko) | 캐릭터, 프로그래밍 파일 및 프로그래밍 명령어 관리를 위한 지식 공유 플랫폼의 제어 방법, 장치 및 시스템 | |
KR102059017B1 (ko) | 지식 공유 플랫폼의 제어 방법, 장치 및 시스템 | |
WO2020162833A1 (en) | Method and system for generating content data | |
WO2021200502A1 (ja) | 情報処理装置及び情報処理方法 | |
CN114862496A (zh) | 一种基于用户个性化建模的会话推荐方法、装置及介质 | |
CN114117106A (zh) | 基于儿童绘本的智能交互方法、装置、设备和存储介质 | |
CN113779276A (zh) | 用于检测评论的方法和装置 | |
CN116485505B (zh) | 基于用户表现公平性训练推荐模型的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190108 |
|
RJ01 | Rejection of invention patent application after publication |