CN107767038A - 基于语音的支付评价方法、客户端及系统 - Google Patents
基于语音的支付评价方法、客户端及系统 Download PDFInfo
- Publication number
- CN107767038A CN107767038A CN201710924685.2A CN201710924685A CN107767038A CN 107767038 A CN107767038 A CN 107767038A CN 201710924685 A CN201710924685 A CN 201710924685A CN 107767038 A CN107767038 A CN 107767038A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- voice messaging
- scoring item
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 76
- 230000010365 information processing Effects 0.000 claims abstract description 7
- 230000008921 facial expression Effects 0.000 claims description 41
- 230000002996 emotional effect Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 13
- 230000036651 mood Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 230000033764 rhythmic process Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 11
- 230000006870 function Effects 0.000 description 13
- 238000000605 extraction Methods 0.000 description 4
- 206010053238 Amimia Diseases 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/322—Aspects of commerce using mobile devices [M-devices]
- G06Q20/3223—Realising banking transactions through M-devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了基于语音的支付评价方法、客户端及系统,涉及支付技术领域。一种支付客户端,包括:信息采集电路,用以采集用户在支付操作过程中的语音信息;信息处理电路,用以识别前述语音信息,获取该语音信息对应的评价项信息;评价操作电路,用以将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。利用本发明,能够在用户进行支付操作过程中,通过对用户语音信息的识别操作,便利地完成支付中的评价。
Description
技术领域
本发明涉及支付技术领域。
背景技术
在用户进行交易的时候,需要进行支付操作。支付的方式并不限定,常用的支付方式,包括用货币进行支付,以及用物品进行交换等。其中,近年来通过移动终端的形式进行的支付操作,如国内的支付宝等工具形式,应用也日益普及。无论哪一种支付方式,都有可能需要用户进行相应的评价操作。
在当前的技术条件下,用户进行评价的方式,通常是点选特定的评价选择项,或者通过写入评语的方式进行评价操作。
当前的评价操作较为麻烦,如果能够更加便利的话,会给用户带来便利。
发明内容
本发明的目的在于:克服现有技术的不足,提供了一种基于语音的支付评价方法、客户端及系统。利用本发明,能够在用户进行支付操作过程中,通过对用户语音信息的识别操作,便利地完成支付中的评价。
为实现上述目标,本发明提供了如下技术方案:
一种基于语音的支付评价方法,包括步骤:
采集用户在支付操作过程中的语音信息;
识别前述语音信息,获取该语音信息对应的评价项信息;
将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
进一步,在用户进行语音支付操作时,采集用户的语音信息。
进一步,获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的文字信息;
将该文字信息作为对应的评价项信息。
进一步,获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的文字信息;
分析前述文字信息中包含的评价倾向性,基于该评价倾向性获取对应的评价项信息。
进一步,用户与商家或服务方之间具有语音交互信息的情况下,获取前述语音交互信息,识别所述语音交互信息中的文字信息,分析该文字信息中用户方的评价倾向性,基于该评价倾向性获取对应的评价项信息。
进一步,获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别;
获取前述情绪类别对应的评价项信息。
优选的,识别所述语音信息中的情绪信息的方式为如下方式一种或多种:
方式一,分析语音信息中用户的音量变化,根据音量变化分析情绪信息;
方式二,分析语音信息中的音调变化,根据音调变化分析情绪信息;
方式三,分析语音信息中的语速信息,根据语音信息分析情绪信息;
方式四,分析语音信息中的节奏变化,根据节奏变化分析情绪信息。
进一步,识别前述语音信息,获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中用户的音量信息;
基于预设的音量与评价项信息之间的对应关系,获取该音量对应的评价项信息。
进一步,所述评价项信息对应有表情图像信息,将该评价项信息和其对应的表情图像信息作为评价信息输出。
进一步,获取用户的人脸图像信息,将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。
进一步,根据用户的语音信息,判定该用户的年龄段信息,或者根据该用户的身份认证信息,获取该用户的年龄段信息;
获取前述年龄段对应的统计图像信息,将所述统计图像信息作为该用户评价信息的特征图像信息输出。
进一步,针对各年龄段,预设有每个年龄段对应的统计图像信息,所述统计图像信息能够反应该年龄段用户的典型特征。
本发明还提供了一种支付客户端,包括:
信息采集电路,用以采集用户在支付操作过程中的语音信息;
信息处理电路,连接信息采集电路,用以识别前述语音信息,获取该语音信息对应的评价项信息;
评价操作电路,连接信息处理电路,用以将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
进一步,所述信息处理电路包括文字信息子电路,用以识别所述语音信息中的文字信息,将该文字信息作为对应的评价项信息。
进一步,所述信息处理电路包括情绪信息子电路,用以识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别,并获取前述情绪类别对应的评价项信息。
优选的,所述情绪信息子电路包括声音音量分析分电路、声音音调分析分电路、声音语速分析分电路和/或声音节奏分析分电路。
进一步,所述支付客户端还包括评价分级电路,其用以针对评价项信息设置相应的级别,输出评价信息时显示该评价项信息的级别。
本发明还提供了一种评价操作系统,包括:
用以采集用户在支付操作过程中的语音信息的支付客户端,所述支付客户端能够将采集的语音信息发送至系统服务器;
所述系统服务器能够识别前述语音信息,获取该语音信息对应的评价项信息,并将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
进一步,所述评价操作系统还包括受方客户端,所述受方客户端对应于商家或服务方设置,能够接收系统服务器的评价信息并输出显示。
本发明由于采用以上技术方案,与现有技术相比,作为举例,具有以下的优点和积极效果:利用本发明,能够在用户进行支付操作过程中,通过对用户表情的识别操作,便利地完成支付中的评价。
附图说明
图1为本发明实施例提供的进行评价操作的方法流程图。
图2为本发明实施例提供的支付客户端的模块结构图。
图3至图8为本发明实施例提供的通过支付客户端进行评价操作的示例图。
图9至图10为本发明实施例提供的评价操作系统的模块结构图。
附图标记说明:
客户端100,信息采集电路110,信息处理电路120,评价操作电路130;
用户终端200,用户界面210,支付触发控件211,语音采集提示信息212,支付提示信息213,评价信息214;
系统300;支付客户端310,信息采集电路311;系统服务器320,信息处理电路321,评价操作电路322,评价分级电路323;
系统400,支付客户端410,系统服务器420,受方客户端430。
具体实施方式
以下结合附图和具体实施例对本发明提供的基于语音的支付评价方法、客户端及系统作进一步详细说明。应当注意的是,下述实施例中描述的技术特征或者技术特征的组合不应当被认为是孤立的,它们可以被相互组合从而达到更好的技术效果。在下述实施例的附图中,各附图所出现的相同标号代表相同的特征或者部件,可应用于不同实施例中。因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
需说明的是,本说明书所附图中所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定发明可实施的限定条件,任何结构的修饰、比例关系的改变或大小的调整,在不影响发明所能产生的功效及所能达成的目的下,均应落在发明所揭示的技术内容所能涵盖的范围内。本发明的优选实施方式的范围包括另外的实现,其中可以不按所述的或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
实施例
参见图1所示,公开了一种基于语音的支付评价方法。所述方法包括如下步骤:
S100,采集用户在支付操作过程中的语音信息。
所述支付操作,可以是基于现金的支付操作,也可以是基于刷卡服务的支付操作,也可以是基于移动支付的支付操作,或者其他类型的支付操作。
所述的支付操作过程,在本实施例中,可以包括用户准备支付、启动支付、进行支付、支付后整理支付相关用品的整个过程。采集用户的语音信息的时机,可以是上述任意一个阶段,作为举例而非限制,比如在用户准备支付的阶段采集用户的语音信息,或者在向用户显示支付成功后,采集用户的语音信息。
采集用户在支付操作过程中的语音信息的设备,可以是商家或服务方提供的,也可以是用户自身携带的移动终端。
本实施例中,是用户通过自身携带的移动终端进行移动支付操作。在移动支付操作过程中,通过前述移动终端采集用户的语音信息。
所述移动终端,作为举例而非限制,可以为手机、掌上电脑、平板电脑等各种常用的移动终端,以及各种智能穿戴式电子设备,比如智能眼镜、智能手表等。在本实施例中,采用手机作为移动终端,所述手机具有声音采集结构和显示结构。
优选的,本实施例中,在用户进行语音支付操作时,采集用户的语音信息。
S200,识别前述语音信息,获取该语音信息对应的评价项信息。
基于语音识别技术,识别前述语音信息。语音识别技术主要是基于对语音的物理属性、生理属性和社会属性三个个基本属性的分析。
语音的物理属性,主要包括音高、音长、音强和音色4个要素。音高是指声音的高低,主要决定于发音体振动速度的快慢;音长是指声音的长短,主要决定于发音体振动时间的久暂;音强是指声音的强弱,主要决定于发音体振动幅度的大小;音色是指声音的特色,主要决定于发音物体振动所形成的音波波纹曲折形式不同。
语音的生理属性,主要指发音器官对语音的影响,包括肺和气管、候头和声带以及口腔、鼻腔和咽腔等发音气官。
语音的社会属性,主要表现在3个方面,一是语音与意义之间并无必然联系,它们的对应关系是社会成员约定俗成的;二是各种语言或方言都有自己的语音系统;三是语音具有区别意义的作用。
通常而言,语音识别的基本过程可以包括:语音信号的预处理、特征提取、模式匹配三个步骤。
预处理通常可以包括语音信号采样、反混叠带通滤波、去除个体发音差异和设备、环境引起的噪声影响等,并涉及到语音识别基元的选取和端点检测问题。
特征提取,用于提取语音中反映本质特征的声学参数,如平均能量、平均跨零率、共振峰等。提取的特征参数必须满足以下的要求:提取的特征参数能有效地代表语音特征,具有很好的区分性;各阶参数之间有良好的独立性;特征参数要计算方便,最好有高效的算法,以保证语音识别的实时实现。在训练阶段,将特征参数进行一定的处理后,为每个词条建立一个模型,保存为模板库。在识别阶段,语音信号经过相同的通道得到语音特征参数,生成测试模板,与参考模板进行匹配,将匹配分数最高的参考模板作为识别结果。同时,还可以在很多先验知识的帮助下,提高识别的准确率。
模式匹配,是整个语音识别系统的核心,它是根据一定规则(如某种距离测度)以及专家知识(如构词规则、语法规则、语义规则等),计算输入特征与库存模式之间的相似度(如匹配距离、似然概率),判断出输入语音的语意信息。
本实施例中,获取该语音信息对应的评价项信息的方式可以为:识别所述语音信息中的文字信息;将该文字信息作为对应的评价项信息。作为举例而限制,比如在支付操作过程中采集到了用户的语音信息“这个商品比我之前买的优惠了很多呀,真是太开心了”,对该语音信息的文字信息进行识别后,直接将上述文字信息作为该用户对此次购物的评价项信息。
或者,获取该语音信息对应的评价项信息的方式为:识别所述语音信息中的文字信息;分析前述文字信息中包含的评价倾向性,基于该评价倾向性获取对应的评价项信息。
作为举例而限制,比如在支付操作过程中采集并识别了用户的语音信息:“这个包子比以前小了太多了呀”,上述文字信息中包含的评价倾向性为负面性评价。于是,基于该评价倾向性,获取对应的评价项信息:对此次购物不满意呀。
优选的,用户与商家或服务方之间具有语音交互信息的情况下,获取前述语音交互信息,识别所述语音交互信息中的文字信息,分析该文字信息中用户方的评价倾向性,基于该评价倾向性获取对应的评价项信息。
作为举例而限制,比如在支付操作过程中采集并识别了如下语音对话:
用户:“这个包子比以前小了太多了呀”。
卖包子的商家:“虽然包子变小了,但我们引进了新的制作工艺,包子比以前更可口了哦”。
用户:“噢,这样啊”。
上述文字信息中包含的评价倾向性为中立性评价。于是,基于该评价倾向性,获取对应的评价项信息:对此次购物一般满意。
本实施例的另一实施方式中,获取该语音信息对应的评价项信息的方式,还可以为如下方式:识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别;获取前述情绪类别对应的评价项信息。
此实施方式与前述实施方式的区域在于,并非基于语音信息中的文字信息获取评价项信息,而是基于语音信息中包含的情绪信息,获取用户的评价项信息。
声音能在一定程度上反应人的情绪,比如通常而言,急躁而大声的语音往往代表说话者比较愤怒,而欢快而柔和的语音往往代表说话者比较开心。据此,可以通过分析用户语音信息中的情绪信息来获知用户的评价信息。
优选的,识别所述语音信息中的情绪信息的方式为如下方式一种或多种:
方式一,分析语音信息中用户的音量变化,根据音量变化分析情绪信息。
方式二,分析语音信息中的音调变化,根据音调变化分析情绪信息。
方式三,分析语音信息中的语速信息,根据语音信息分析情绪信息。
方式四,分析语音信息中的节奏变化,根据节奏变化分析情绪信息。
本实施例的另一实施方式中,识别前述语音信息,获取该语音信息对应的评价项信息的方式为:识别所述语音信息中用户的音量信息;基于预设的音量与评价项信息之间的对应关系,获取该音量对应的评价项信息。
本方式中,是预先建立音量与评价项之间的对应关系。作为举例而非限制,比如将声音基于音量分为5个等级,从低往高依次为:低音、中低音、中音、中高音和高音。而低音、中低音、中音、中高音和高音分别对应的评价项信息依次为:对此次服务很满意、对此次比较满意、对此次服务一般满意、对此次服务不满意、此次服务糟透了。
识别所述语音信息中用户的音量属于前述哪个音量等级后,即可基于音量等级与评价项信息之间的对应关系,获取该音量等级对应的评价项信息。
S300,将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
将前述获取的评价项信息,作为用户对此次支付操作的评价信息输出。
而本实施例的另一实施方式中,所述评价信息,还可以包括表情图像信息。
具体的,所述评价项信息对应有表情图像信息,将该评价项信息和其对应的表情图像信息作为评价信息输出。作为举例而非限制,比如根据评价项信息:对此次服务很满意、对此次比较满意、对此次服务一般满意、对此次服务不满意、此次服务糟透了,分别设置有对应的表情图像:大笑、微笑、无表情、皱眉、发火。则在输出评价项信息时,获取该评价项信息对应的表情图像一起输出。表情图像可以在评价项信息之前、之后或之中输出。
或者,基于用户的人脸图像来获取表情图像。具体的,可以获取用户的人脸图像信息,将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。该方式无需预设表情图像与评价项信息的对应关系,而是基于现场用户的人脸图像生成表情图像后输出。
所述表情图像,可以为静态图像,也可以为动态图像。
本实施例中,还能够在评价信息中显示用户的年龄特征。
针对各年龄段,预设有每个年龄段对应的统计图像信息,所述统计图像信息能够反应该年龄段用户的典型特征。具体的,可采用如下方式:根据用户的语音信息,判定该用户的年龄段信息,或者根据该用户的身份认证信息,获取该用户的年龄段信息;获取前述年龄段对应的统计图像信息,将所述统计图像信息作为该用户评价信息的特征图像信息输出。
作为举例而非限制,比如用户年龄在15-28岁年龄段的,显示代表青少年形象的统计图像;用户年龄在28-38岁年龄段的,显示代表青年形象的统计图像;用户年龄在38-58岁年龄段的,显示中年形象的统计图像;用户年龄在58岁年龄段以上的,显示老年形象的统计图像。
优选的,获取前述统计图像信息的方式为:基于用户的人脸图像获取语音信息,根据所述人脸图像判定该用户的年龄段信息,或者根据该用户的身份认证信息,获取该用户的年龄段信息;分析各年龄段用户的语音信息,获取各年龄段的语音信息的典型特征;基于每个年龄段的典型特征生成人脸图像,将该人脸图像作为该年龄段对应的统计图像信息。
参见图2,为本发明的另一实施例,提供了一种支付客户端。
所述支付客户端,可以是专用于支付功能的客户端,也可以具有支付功能相应结构的其他综合性客户端,比如即时通信客户端、购物客户端、浏览器客户端等。
所述客户端100包括信息采集电路110,信息处理电路120和评价操作电路130。
所述信息采集电路110,用以采集用户在支付操作过程中的语音信息。优选的,所述信息采集电路110能够在用户进行语音支付操作时,采集用户的语音信息。
所述信息处理电路120,连接信息采集电路110,用以识别前述语音信息,获取该语音信息对应的评价项信息。
所述评价操作电路130,连接信息处理电路120,用以将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
本实施例中,所述信息处理电路120可以包括文字信息子电路和情绪信息子电路。
所述文字信息子电路,用以识别所述语音信息中的文字信息,将该文字信息作为对应的评价项信息。
所述情绪信息子电路,用以识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别,并获取前述情绪类别对应的评价项信息。优选的,所述情绪信息子电路包括声音音量分析分电路、声音音调分析分电路、声音语速分析分电路和/或声音节奏分析分电路。
本实施例中,所述客户端100还可以包括评价信息输出电路和评价分级电路。
所述评价信息输出电路可以包括评价项输出子电路和表情图像输出子电路。所述评价项输出子电路用以输出用户的评价项信息。所述表情图像输出子电路用以在评价项信息之前或之后或之中输出用户的表情图像信息。
具体的,比如每个评价项信息均各自对应有表情图像信息。作为举例而非限制,比如根据评价项信息:对此次服务很满意、对此次比较满意、对此次服务一般满意、对此次服务不满意、此次服务糟透了,分别设置有对应的表情图像:大笑、微笑、无表情、皱眉、发火。则在输出评价项信息时,获取该评价项信息对应的表情图像一起输出。表情图像可以在评价项信息之前、之后或之中输出。
或者,基于用户的人脸图像来获取表情图像。具体的,可以获取用户的人脸图像信息,将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。该方式无需预设表情图像与评价项信息的对应关系,而是基于现场用户的人脸图像生成表情图像后输出。
所述表情图像,可以为静态图像,也可以为动态图像。
所述评价分级电路,用以针对评价项信息设置相应的级别,并将该评价项信息的级别对应着评价项信息显示。如此,在输出评价信息时,可以显示该评价项信息的级别。
作为举例而非限制,比如根据用户的评价项信息:对此次服务很满意、对此次比较满意、对此次服务一般满意、对此次服务不满意、此次服务糟透了,将用户的评价分为5级,依次分别为:五星,四星,三星,二星,一星。在显示评价信息时,一并显示该评价信息对应的级别。
所述客户端100还可以包括用户特征显示电路。
所述用户特征显示电路,能够在评价信息中显示用户的年龄特征。具体的,针对各年龄段,预设有每个年龄段对应的统计图像信息,所述统计图像信息能够反应该年龄段用户的典型特征。
实施时,可采用如下方式:基于用户的人脸图像获取语音信息,根据所述人脸图像判定该用户的年龄段信息,或者根据该用户的身份认证信息,获取该用户的年龄段信息;获取前述年龄段对应的统计图像信息,将所述统计图像信息作为该用户评价信息的特征图像信息输出。
作为举例而非限制,比如用户年龄在15-28岁年龄段的,显示代表青少年形象的统计图像;用户年龄在28-38岁年龄段的,显示代表青年形象的统计图像;用户年龄在38-58岁年龄段的,显示中年形象的统计图像;用户年龄在58岁以上年龄段的,显示老年形象的统计图像。
结合图3至图8对本实施例的实施方式进行详细描述。
参见图3所示,用户在购买了商品或服务后,通过携带的用户终端200向商家或服务方进行支付操作。所述用户终端200,在本实施例中优选为手机。
用过通过用户终端200启动支付功能,用户终端200向用户输出用户界面210,用户界面200上显示有支付触发控件211,该控件被触发后,即进入了支付进程。
本实施例中,采用语音识别技术进行支付操作。因此,在触发支付触发控件211后,直接启动了语音信息采集功能。参见图4所示,用户界面210中显示了语音采集提示信息212,向用户提示正在采集语音,并显示了当前采集语音的品质。
参见图5所示,对前述语音进行识别,识别通过验证后,进行支付。
同时,支付客户端根据用户的语音信息,识别了该语音信息中的文字信息“这个商品比我之前买的优惠了很多呀,真是太开心了”,对该语音信息的文字信息进行识别后,直接将上述文字信息作为该用户对此次购物的评价项信息。输出支付成功消息的同时,将前述评价项信息输出。
继续参见图6所示,所述评价信息214还显示了用户的评价项信息的级别——五星。
参见图7所示,所述评价信息,除评价项信息外,还可以包括表情图像信息。当前述评价项信息对应有表情图像信息时,在输出评价项信息时,获取该评价项信息对应的表情图像一起输出。表情图像可以在评价项信息之前、之后或之中输出,图7中示例了在评价项信息之后输出表情图像的方式。
参见图8所示,在评价信息214中还能够显示用户的年龄特征。参见图8中卡通图像表情后面的人头特征图像。该人头特征图像,为该用户所属的年龄段对应的统计图像信息,所述统计图像信息能够反应该年龄段用户的典型特征。比如根据图8所示的评价信息,可推定该评价信息由青少年做出的。
参见图9所示,本发明的另一实施例,公开了一种评价操作系统。
所述评价操作系统300包括支付客户端310和系统服务器320。
所述支付客户端310,用以采集用户在支付操作过程中的语音信息的,并将采集的语音信息发送至系统服务器320。
所述系统服务器320,能够识别前述语音信息,获取该语音信息对应的评价项信息;并将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。优选的,所述系统服务器还能够针对评价项信息设置相应的级别。
所述支付客户端310,可以是专用于支付功能的客户端,也可以具有支付功能相应结构的其他综合性客户端,比如即时通信客户端、购物客户端、浏览器客户端等。
具体的,所述支付客户端310可以包括信息采集电路311。
所述信息采集电路311,用以采集用户在支付操作过程中的语音信息,并将采集的语音信息发送至系统服务器320。
所述系统服务器320可以包括信息处理电路321,评价操作电路322和评价分级电路323。
所述信息处理电路321,用以接收支付客户端310发送的语音信息,识别前述语音信息,获取该语音信息对应的评价项信息。
所述评价操作电路322,连接信息处理电路321,用以将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
所述评价分级电路323,连接评价操作电路322,用以针对评价项信息设置相应的级别,并将该评价项信息的级别对应着评价项信息显示。如此,在输出评价信息时,可以显示该评价项信息的级别。
本实施例中,支付客户端310还可以包括评价信息输出电路。
所述评价信息输出电路可以包括评价项输出子电路和表情图像输出子电路。所述评价项输出子电路用以输出用户的评价项信息。所述表情图像输出子电路用以在评价项信息之前或之后或之中输出用户的表情图像信息。
具体的,比如每个评价项信息均各自对应有表情图像信息。作为举例而非限制,比如根据评价项信息:对此次服务很满意、对此次比较满意、对此次服务一般满意、对此次服务不满意、此次服务糟透了,分别设置有对应的表情图像:大笑、微笑、无表情、皱眉、发火。则在输出评价项信息时,获取该评价项信息对应的表情图像一起输出。表情图像可以在评价项信息之前、之后或之中输出。
或者,基于用户的人脸图像来获取表情图像。具体的,可以获取用户的人脸图像信息,将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。该方式无需预设表情图像与评价项信息的对应关系,而是基于现场用户的人脸图像生成表情图像后输出。
所述表情图像,可以为静态图像,也可以为动态图像。
参见图10所示,为本发明实施例提供的另一种评价操作系统。该实施例与上述实施的区域在于,该评价操作系统还包括面向商家或服务方的受方客户端。
所述评价操作系统400包括支付客户端410,系统服务器420和受方客户端430。
所述支付客户端410,用以采集用户在支付操作过程中的语音信息的,并将采集的语音信息发送至系统服务器420。
所述系统服务器420,能够识别前述语音信息,获取该语音信息对应的评价项信息;并将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
所述受方客户端430,对应于商家或服务方设置,能够接收系统服务420的评价信息并输出显示。
所述支付客户端410、受方客户端430还可以包括评价信息输出电路。
所述评价信息输出电路可以包括评价项输出子电路和表情图像输出子电路。
所述评价项输出子电路用以输出用户的评价项信息。所述表情图像输出子电路用以在评价项信息之前或之后或之中输出用户的表情图像信息。具体的,比如所述支付客户端和/或受方客户端能够获取用户的人脸图像信息,并将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。
在上面的描述中,虽然本公开内容的各方面的所有组件可以被解释为被装配或被操作地连接为一个电路,但是本公开内容并不旨在将其自身限于这些方面。而是,在本公开内容的目标保护范围内,各组件可以以任意数目选择性地且操作性地进行合并。这些组件中的每个组件自身还可以实现成硬件,同时各个组件可以部分地合并或选择性地总体合并且实现成具有用于执行硬件等同体的功能的程序模块的计算机程序。用以构建这种程序的代码或代码段可以由本领域技术人员容易地导出。这种计算机程序可以储存在计算机可读介质中,其可以被运行以实现本公开内容的各方面。计算机可读介质可以包括磁记录介质、光学记录介质以及载波介质。
另外,像“包括”、“囊括”以及“具有”的术语应当默认被解释为包括性的或开放性的,而不是排他性的或封闭性,除非其被明确限定为相反的含义。所有技术、科技或其他方面的术语都符合本领域技术人员所理解的含义,除非其被限定为相反的含义。在词典里找到的公共术语应当在相关技术文档的背景下不被太理想化或太不实际地解释,除非本公开内容明确将其限定成那样。
虽然已出于说明的目的描述了本公开内容的示例方面,但是本领域技术人员应当意识到,上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明的优选实施方式的范围包括另外的实现,其中可以不按所述出或讨论的顺序来执行功能。本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。
Claims (19)
1.一种基于语音的支付评价方法,其特征在于包括步骤:
采集用户在支付操作过程中的语音信息;
识别前述语音信息,获取该语音信息对应的评价项信息;
将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
2.根据权利要求1所述的方法,其特征在于:在用户进行语音支付操作时,采集用户的语音信息。
3.根据权利要求1所述的方法,其特征在于:获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的文字信息;
将该文字信息作为对应的评价项信息。
4.根据权利要求1所述的方法,其特征在于:获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的文字信息;
分析前述文字信息中包含的评价倾向性,基于该评价倾向性获取对应的评价项信息。
5.根据权利要求4所述的方法,其特征在于:用户与商家或服务方之间具有语音交互信息的情况下,获取前述语音交互信息,识别所述语音交互信息中的文字信息,分析该文字信息中用户方的评价倾向性,基于该评价倾向性获取对应的评价项信息。
6.根据权利要求1所述的方法,其特征在于:获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别;
获取前述情绪类别对应的评价项信息。
7.根据权利要求6所述的方法,其特征在于:识别所述语音信息中的情绪信息的方式为如下方式一种或多种,
方式一,分析语音信息中用户的音量变化,根据音量变化分析情绪信息;
方式二,分析语音信息中的音调变化,根据音调变化分析情绪信息;
方式三,分析语音信息中的语速信息,根据语音信息分析情绪信息;
方式四,分析语音信息中的节奏变化,根据节奏变化分析情绪信息。
8.根据权利要求1所述的方法,其特征在于:识别前述语音信息,获取该语音信息对应的评价项信息的方式为,
识别所述语音信息中用户的音量信息;
基于预设的音量与评价项信息之间的对应关系,获取该音量对应的评价项信息。
9.根据权利要求1所述的方法,其特征在于:所述评价项信息对应有表情图像信息,将该评价项信息和其对应的表情图像信息作为评价信息输出。
10.根据权利要求9所述的方法,其特征在于:获取用户的人脸图像信息,将人脸图像信息转为对应的卡通表情图像后,与前述评价项信息一起输出。
11.根据权利要求1所述的方法,其特征在于:
根据用户的语音信息,判定该用户的年龄段信息,或者根据该用户的身份认证信息,获取该用户的年龄段信息;
获取前述年龄段对应的统计图像信息,将所述统计图像信息作为该用户评价信息的特征图像信息输出。
12.根据权利要求11所述的方法,其特征在于:针对各年龄段,预设有每个年龄段对应的统计图像信息,所述统计图像信息能够反应该年龄段用户的典型特征。
13.一种支付客户端,其特征在于包括:
信息采集电路,用以采集用户在支付操作过程中的语音信息;
信息处理电路,连接信息采集电路,用以识别前述语音信息,获取该语音信息对应的评价项信息;
评价操作电路,连接信息处理电路,用以将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
14.根据权利要求13所述的支付客户端,其特征在于:所述信息处理电路包括文字信息子电路,用以识别所述语音信息中的文字信息,将该文字信息作为对应的评价项信息。
15.根据权利要求13所述的支付客户端,其特征在于:所述信息处理电路包括情绪信息子电路,用以识别所述语音信息中的情绪信息,获取该情绪信息对应的情绪类别,并获取前述情绪类别对应的评价项信息。
16.根据权利要求15所述的支付客户端,其特征在于:所述情绪信息子电路包括声音音量分析分电路、声音音调分析分电路、声音语速分析分电路和/或声音节奏分析分电路。
17.根据权利要求13所述的支付客户端,其特征在于:还包括评价分级电路,其用以针对评价项信息设置相应的级别,输出评价信息时显示该评价项信息的级别。
18.一种评价操作系统,其特征在于包括:
用以采集用户在支付操作过程中的语音信息的支付客户端,所述支付客户端能够将采集的语音信息发送至系统服务器;
所述系统服务器能够识别前述语音信息,获取该语音信息对应的评价项信息,并将前述评价项信息,作为用户进行该支付操作的部分或全部评价信息。
19.根据权利要求18所述的评价操作系统,其特征在于还包括:
受方客户端,所述受方客户端对应于商家或服务方设置,能够接收系统服务器的评价信息并输出显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710924685.2A CN107767038A (zh) | 2017-10-01 | 2017-10-01 | 基于语音的支付评价方法、客户端及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710924685.2A CN107767038A (zh) | 2017-10-01 | 2017-10-01 | 基于语音的支付评价方法、客户端及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107767038A true CN107767038A (zh) | 2018-03-06 |
Family
ID=61267935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710924685.2A Pending CN107767038A (zh) | 2017-10-01 | 2017-10-01 | 基于语音的支付评价方法、客户端及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767038A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109243451A (zh) * | 2018-10-22 | 2019-01-18 | 武汉科技大学 | 一种基于机器人语音交互的网络销售方法及系统 |
CN109432773A (zh) * | 2018-08-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 游戏场景的处理方法、装置、电子设备与存储介质 |
CN113407265A (zh) * | 2021-05-07 | 2021-09-17 | 上海纽盾科技股份有限公司 | 等保测评中基于ar的数据采集方法、装置及系统 |
CN113409067A (zh) * | 2021-05-07 | 2021-09-17 | 支付宝(杭州)信息技术有限公司 | 一种用户交互方法、装置以及设备 |
WO2022041177A1 (zh) * | 2020-08-29 | 2022-03-03 | 深圳市永兴元科技股份有限公司 | 通信消息处理方法、设备及即时通信客户端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847268A (zh) * | 2010-04-29 | 2010-09-29 | 北京中星微电子有限公司 | 一种基于人脸图像的卡通人脸图形生成方法和装置 |
CN103455932A (zh) * | 2013-05-09 | 2013-12-18 | 陈飞 | 基于购物反馈信息的个性化设计及销售辅助装置及方法 |
CN105654250A (zh) * | 2016-02-01 | 2016-06-08 | 百度在线网络技术(北京)有限公司 | 一种满意度自动测评的方法和装置 |
CN105810205A (zh) * | 2014-12-29 | 2016-07-27 | 中国移动通信集团公司 | 一种语音处理方法及装置 |
KR20160142949A (ko) * | 2015-06-03 | 2016-12-14 | (주)감성과학연구센터 | 컨택 센터를 위한 감성 분석 장치 및 그 방법 |
JP2017135642A (ja) * | 2016-01-29 | 2017-08-03 | 株式会社日立システムズ | 電話音声モニタリング評価システム |
-
2017
- 2017-10-01 CN CN201710924685.2A patent/CN107767038A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847268A (zh) * | 2010-04-29 | 2010-09-29 | 北京中星微电子有限公司 | 一种基于人脸图像的卡通人脸图形生成方法和装置 |
CN103455932A (zh) * | 2013-05-09 | 2013-12-18 | 陈飞 | 基于购物反馈信息的个性化设计及销售辅助装置及方法 |
CN105810205A (zh) * | 2014-12-29 | 2016-07-27 | 中国移动通信集团公司 | 一种语音处理方法及装置 |
KR20160142949A (ko) * | 2015-06-03 | 2016-12-14 | (주)감성과학연구센터 | 컨택 센터를 위한 감성 분석 장치 및 그 방법 |
JP2017135642A (ja) * | 2016-01-29 | 2017-08-03 | 株式会社日立システムズ | 電話音声モニタリング評価システム |
CN105654250A (zh) * | 2016-02-01 | 2016-06-08 | 百度在线网络技术(北京)有限公司 | 一种满意度自动测评的方法和装置 |
Non-Patent Citations (4)
Title |
---|
李君涵: ""针对视频的人脸卡通化方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 2017, pages 138 - 2961 * |
梁汝英 等: "《消费者行为学》", vol. 1, 31 August 2004, 重庆大学出版社, pages: 136 - 137 * |
潘红艳 等: ""人脸动画综述"", 《计算机应用研究》, vol. 25, no. 2, pages 327 - 331 * |
许静: ""交互式人物卡通化方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》, vol. 2, no. 2016, pages 138 - 2961 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109432773A (zh) * | 2018-08-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 游戏场景的处理方法、装置、电子设备与存储介质 |
CN109243451A (zh) * | 2018-10-22 | 2019-01-18 | 武汉科技大学 | 一种基于机器人语音交互的网络销售方法及系统 |
WO2022041177A1 (zh) * | 2020-08-29 | 2022-03-03 | 深圳市永兴元科技股份有限公司 | 通信消息处理方法、设备及即时通信客户端 |
CN113407265A (zh) * | 2021-05-07 | 2021-09-17 | 上海纽盾科技股份有限公司 | 等保测评中基于ar的数据采集方法、装置及系统 |
CN113409067A (zh) * | 2021-05-07 | 2021-09-17 | 支付宝(杭州)信息技术有限公司 | 一种用户交互方法、装置以及设备 |
CN113407265B (zh) * | 2021-05-07 | 2023-04-07 | 上海纽盾科技股份有限公司 | 等保测评中基于ar的数据采集方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767038A (zh) | 基于语音的支付评价方法、客户端及系统 | |
CN110853618B (zh) | 一种语种识别的方法、模型训练的方法、装置及设备 | |
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
CN110838286B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN110265040A (zh) | 声纹模型的训练方法、装置、存储介质及电子设备 | |
CN110853617B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN109146450A (zh) | 支付方法、客户端、电子设备、存储介质和服务器 | |
CN107657017A (zh) | 用于提供语音服务的方法和装置 | |
CN107767869A (zh) | 用于提供语音服务的方法和装置 | |
CN109545192A (zh) | 用于生成模型的方法和装置 | |
CN109145145A (zh) | 一种数据更新方法、客户端及电子设备 | |
CN109147770A (zh) | 声音识别特征的优化、动态注册方法、客户端和服务器 | |
CN109215643A (zh) | 一种交互方法、电子设备及服务器 | |
WO2020253128A1 (zh) | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 | |
CN107707745A (zh) | 用于提取信息的方法和装置 | |
CN108734096A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN109801634A (zh) | 一种声纹特征的融合方法及装置 | |
CN109285548A (zh) | 信息处理方法、系统、电子设备、和计算机存储介质 | |
CN109545193A (zh) | 用于生成模型的方法和装置 | |
CN107610706A (zh) | 语音搜索结果的处理方法和处理装置 | |
CN111445900A (zh) | 一种语音识别的前端处理方法、装置及终端设备 | |
WO2021169365A1 (zh) | 声纹识别的方法和装置 | |
CN109920409A (zh) | 一种声音检索方法、装置、系统及存储介质 | |
CN112735371A (zh) | 一种基于文本信息生成说话人视频的方法及装置 | |
CN109994106A (zh) | 一种语音处理方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |