CN106296302B - 一种语音数据处理方法、装置、用具和系统 - Google Patents
一种语音数据处理方法、装置、用具和系统 Download PDFInfo
- Publication number
- CN106296302B CN106296302B CN201610686305.1A CN201610686305A CN106296302B CN 106296302 B CN106296302 B CN 106296302B CN 201610686305 A CN201610686305 A CN 201610686305A CN 106296302 B CN106296302 B CN 106296302B
- Authority
- CN
- China
- Prior art keywords
- user
- voice data
- voice
- acquisition
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 230000001755 vocal effect Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 30
- 238000012790 confirmation Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/202—Interconnection or interaction of plural electronic cash registers [ECR] or to host computer, e.g. network details, transfer of information from host to ECR or from ECR to ECR
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/387—Payment using discounts or coupons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0238—Discounts or incentives, e.g. coupons or rebates at point-of-sale [POS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/12—Hotels or restaurants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
Abstract
本发明提供一种语音数据处理方法、装置、用具和系统,属于语音数据处理技术领域,其可解决现有的公共场所内顾客说话的音量分贝较大引起的噪音增加的问题。本发明的语音数据处理方法,包括:对餐厅的全部用户进行音量采集,生成全部用户的采集数据;从全部用户的采集数据中提取出使用用具的使用者的音量;根据使用者的音量生成语音数据;将所述语音数据发送至服务器,以供所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算。
Description
技术领域
本发明属于语音数据处理技术领域,具体涉及一种语音数据处理方法、装置、用具和系统。
背景技术
现今,由于公共场所内的人流量较大,很多顾客为了使同行的人清楚的听到自己所说的内容,只能将说话的音量增大,但这无疑会导致公共场所中的噪音增加,这种情况给其他顾客带来的体验和心理感受非常不好,甚至还会导致该公共场所因此而失掉大量顾客,同时,还存在因顾客之间的吵闹而对周边居民的正常生活造成困扰的问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种能够减小公共场所内的噪音分贝的语音数据处理方法、装置、用具和系统。
解决本发明技术问题所采用的技术方案是一种语音数据处理方法,包括:
对餐厅的全部用户进行音量采集,生成全部用户的采集数据;
从全部用户的采集数据中提取出使用用具的使用者的音量;
根据使用者的音量生成语音数据;
将所述语音数据发送至服务器,以供所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算。
其中,在所述对餐厅的全部用户进行音量采集,生成全部用户的采集数据之前,还包括:
向点餐装置提供第一标识,形成所述用具与餐桌之间的第二关联关系,所述第二关联关系包括所述用具和所述餐桌之间的对应关系;
所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算包括:
所述服务器根据所述第二关联关系查询出与餐桌对应的全部用具,统计出所述全部用具对应的使用者的语音数据;
所述服务器根据所述餐桌上的全部用具对应的使用者的语音数据生成打折比例;
所述服务器根据所述打折比例对所述使用者进行结算。
其中,在对餐厅的全部用户进行音量采集,生成全部用户的采集数据之前,还包括:
每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据;
根据所述声纹数据形成所述用具与所述使用者之间的第一关联关系,所述第一关联关系包括第二标识和使用者标识之间的对应关系,第二标识用于标识所述用具,使用者标识用于标识所述使用者;
根据所述第一关联关系确定出与用具对应的使用者。
其中,所述声纹数据包括:时间值和归属声纹特征;
所述根据所述声纹数据形成第二标识与使用者标识之间的第一关联关系包括:
将每个所述声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据;
确认出所述包含最小时间值的声纹数据对应的用户为使用者;
将所述第二标识和所述使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
其中,所述语音数据为所述使用者的最大音量值或音量平均值。
其中,在所述每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据之前,还包括:
检测环境温度,以根据所述环境温度设置预设时间。
其中,所述预设时间小于等于0.1毫秒。
作为另一技术方案,本发明还提供一种语音数据处理装置,包括:
第一采集模块,用于对餐厅的全部用户进行音量采集,生成全部用户的采集数据;
提取模块,用于从全部用户的采集数据中提取出使用用具的使用者的音量;
生成模块,用于根据使用者的音量生成语音数据;
发送模块,用于将所述语音数据发送至服务器,以供所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算。
其中,所述语音数据处理装置还包括:
第一关联模块,用于向点餐装置提供第一标识,形成所述用具与餐桌之间的第二关联关系,以供所述服务器根据所述第二关联关系查询出与餐桌对应的全部用具,统计出所述全部用具对应的使用者的语音数据,并根据所述餐桌上的全部用具对应的使用者的语音数据生成打折比例,根据所述打折比例对所述使用者进行结算;所述第二关联关系包括所述用具和所述餐桌之间的对应关系。
其中,所述语音数据处理装置还包括:
第二采集模块,用于每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据;
第二关联模块,用于根据所述声纹数据形成所述用具与所述使用者之间的第一关联关系,所述第一关联关系包括第二标识和使用者标识之间的对应关系,第二标识用于标识所述用具,使用者标识用于标识所述使用者;
确定模块,用于根据所述第一关联关系确定出与用具对应的使用者。
其中,所述声纹数据包括:时间值和归属声纹特征;
第二关联模块包括:
筛选模块,用于将每个所述声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据;
确认模块,用于确认出所述包含最小时间值的声纹数据对应的用户为使用者;
绑定模块,用于将所述第二标识和所述使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
其中,所述语音数据为所述使用者的最大音量值或音量平均值。
其中,所述语音数据处理装置还包括:
检测模块,用于检测环境温度,以根据所述环境温度设置预设时间。
其中,所述预设时间小于等于0.1毫秒。
作为另一技术方案,本发明还提供一种用具,包括用具本体和上述任意一项所述的语音数据处理装置,所述语音数据处理装置位于所述用具本体上。
其中,所述用具为筷子。
作为另一技术方案,本发明还提供一种语音数据处理系统,包括:服务器和上述的用具;
所述服务器,用于接收所述用具发送的语音数据,根据所述语音数据生成打折比例并根据所述打折比例对使用者进行结算。
本发明的语音数据处理方法、装置、用具和系统中,该处理方法包括:对餐厅的全部用户进行音量采集,生成全部用户的采集数据,从全部用户的采集数据中提取出使用用具的使用者的音量,根据使用者的音量生成语音数据;将语音数据发送至服务器,以供服务器根据语音数据生成打折比例并根据打折比例对使用者进行结算,通过这一方法,可以根据用户的语音数据,让餐厅的经营者能够根据服务器对顾客的交谈声音做出客观的评价,从而辅助以餐费打折等手段,促使顾客主动降低交谈时的音量,以达到降低整体环境噪音和改善用餐环境的目的。
本发明的语音数据处理方法、装置、用具和系统适用于降低餐厅等人流量较大的公共场所的噪声。
附图说明
图1为本发明的实施例1的语音数据处理方法的流程示意图;
图2为本发明的实施例1的语音数据处理方法的具体实施方案的示意图;
图3为本发明的实施例2的语音数据处理装置的结构示意图;
图4为本发明的实施例3的用具的结构示意图;
图5为本发明的实施例4的语音数据处理系统的结构示意图;
其中,附图标记为:1、第一采集模块;2、提取模块;3、生成模块;4、发送模块;5、第一关联模块;6、第二采集模块;7、第二关联模块;71、筛选模块;72、确认模块;73、绑定模块;8、确定模块;9、检测模块;100、语音数据处理装置;101、用具本体;200、用具;300、服务器。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。
实施例1:
请参照图1,本实施例提供一种语音数据处理方法,包括:
步骤100,用具向点餐装置提供第一标识,形成用具与餐桌之间的第二关联关系,第二关联关系包括用具和餐桌之间的对应关系。
需要说明的是,第一标识为用具的身份标识,也就是说,每个用具都有与其匹配的唯一的第一标识,第一标识可以是RFID芯片、二维码或其他类型的标识,点餐装置只要设置有与第一标识类型匹配且可以读取第一标识的读取模块(如摄像头等)即可,当点餐装置读取了用具的第一标识后,餐厅服务员可在点餐装置上手动填入餐桌号码,从而可以在该用具所在的餐桌与该用具之间建立第二关联关系。
当然,一个用具只能对应于一个与其建立第二关联关系的餐桌,但一个餐桌可以同时与多个餐具建立第二关联关系。
步骤101,用具每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据。
也就是说,每隔预设时间,每个用具就会对餐厅内的全部用户同时进行声纹采集,而后生成每个用户的声纹数据。
步骤102,用具根据声纹数据形成用具与使用者之间的第一关联关系,第一关联关系包括第二标识和使用者标识之间的对应关系,第二标识用于标识用具,使用者标识用于标识使用者。其中,声纹数据包括:时间值和归属声纹特征,具体地,使用者标识为归属声纹特征。
步骤102具体包括:
步骤1021,用具将每个声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据。
需要说明的是,时间值是指接收到某一声音时距离预设时间初始时的时间差。例如,某一用户发出声音,餐厅内所有用具都采集到了该声音,但由于每个用具与该用户之间的距离不同,因此,每个用具采集到该声音的时间点不同,有的用具可能经过0.02毫秒采集到,有的用具可能经过0.03毫秒采集到,因此,在所有声纹数据中必然存在一个包括最小时间值的声纹数据,在所有用具中也必然存在一个采集到该声音的时间点最短的用具。
步骤1022,用具确认出包含最小时间值的声纹数据对应的用户为使用者。
具体地,对于一个用具来说,其从多个声纹数据中筛选出的包含最小时间值的声纹数据必然是离该用具最近的一个用户的声纹数据,因此,用具确认该出包含最小时间值的声纹数据对应的用户为其使用者。
步骤1023,用具将第二标识和使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
第二标识设置在用具上或用具中,第二标识作为用具的身份特征,且每个用具都具有唯一的第二标识。当用具确认出其使用者时,会将其第二标识与该使用者的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
步骤103,用具根据第一关联关系确定出与用具对应的使用者。
也就是说,通过将第二标识与归属声纹特征绑定的方式将该包括该第二标识的用具与包括该归属声纹特征的声纹数据所对应的使用者进行绑定。
步骤104,用具对餐厅的全部用户进行音量采集,生成全部用户的采集数据。
由于餐厅是一个开放式的环境,因此,各种声音汇集,为了减少用具的采集量,可以预先在用具中存储服务员等餐厅工作人员的声纹特征,当用具采集到工作人员的采集数据后可直接忽略。需要说明的是,采集数据并不是某一用的使用者一个人的,而是餐厅内所有用户的。
步骤105,用具从全部用户的采集数据中提取出使用用具的使用者的音量。
具体地,用具根据其使用者的归属声纹特征,在采集数据中进行查询,从而在全部用户的采集数据中提取出该用具使用者的音量。
步骤106,用具根据使用者的音量生成语音数据。
其中,语音数据为使用者的最大音量值或音量平均值。
需要说明的是,用具只要在采集数据中提取到其使用者的音量,就会对该音量进行存储并按照语音数据的类型生成语音数据。例如,若语音数据为音量平均值,则用具会对其使用者的全部音量进行存储,并在使用者结束用餐时,按照平均值公式计算出其音量平均值;若语音数据为最大音量值,则用具会对其使用者的全部音量进行存储,并在使用者结束用餐时,从所有音量中筛选出最大音量值。当然,语音数据的类型并不局限于此,还可以是使用者的最小音量值或音量累计值等,只要是能够用于统计使用者的音量信息的数据即可,在此不再赘述。
步骤107,用具将语音数据发送至服务器,以供服务器根据语音数据生成打折比例并根据打折比例对使用者进行结算。
步骤107具体包括:
步骤1071,用具将语音数据发送至服务器。
具体地,用具将生成的使用者的语音数据发送至服务器。
步骤1072,服务器根据第二关联关系查询出与餐桌对应的全部用具,统计出全部用具对应的使用者的语音数据。
具体地,服务器接收到用具发送的语音数据后,根据第二关联关系查询出与该用具对应的餐桌,并查询该餐桌是否还对应有其他用具,当查询出该餐桌对应的全部用具后,对全部用具对应的使用者的语音数据进行统计。
步骤1073,服务器根据餐桌上的全部用具对应的使用者的语音数据生成打折比例。
可以理解的是,服务器是按照预先设定的打折公式生成打折比例的。
步骤1074,服务器根据打折比例对使用者进行结算。
优选地,在步骤101之前还可以包括步骤100a。
步骤100a,检测环境温度,以根据环境温度设置预设时间。
之所以通过检测环境对预设时间进行设置,是由于当环境温度不同时,声音在环境中的传播速度会发生改变,虽然变化幅度不大,但也会影响声音传播的每米时间差,从而影响预设时间的大小,根据环境温度设置预设时间,能够增加用具确定其使用者的精准度。
需要说明的是,步骤100a可以在步骤101之前执行,也可以在步骤100之前执行,对本实施例的语音数据处理方法并无影响,可根据实际情况进行设置,在此不再赘述。
优选地,预设时间小于等于0.1毫秒。
请参照图2,下面以用具为筷子提供一具体例子对本实施例的语音数据处理方法进行说明,其中,C1~C8为餐厅内用餐的用户,W1为服务员,P为点餐装置,T1和T2分别为餐桌,S1~S8为筷子,以筷子S1进行详细说明。本实施例的具体方案为:
S1,当用户C1~C4落座后,服务员W1用点餐装置P识别餐桌T1上筷子S1~S4的第一标识,从而将筷子S1~S4与餐桌T1绑定,形成第二关联关系;S2,筷子S1每隔0.1毫秒对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据;S3,筷子S1将每个声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据,从图2中可以看出,由于用户C1~C8距离筷子S1的距离不同,因此,声音在传播时,用户C6的声纹数据中的时间值必然是最大的,用户C1的声纹数据中的时间值必然是最小的,因此,筷子S1将其第二标识与用户C1的归属声纹特征进行绑定,形成第一关联关系,从而将筷子S1与用户C1进行绑定,进而确认出用户C1为筷子S1的使用者;S4,筷子S1对对餐厅的全部用户进行音量采集,生成全部用户的采集数据,并根据C1的归属声纹特征从采集数据中提取出用户C1的音量;S5,筷子S1根据用户C1的音量生成语音数据,并将用户C1的语音数据发送至服务器;S6,服务器根据第二关联关系查询出与筷子S1对应的餐桌T1,并查询餐桌T1还对应的其他筷子S2~S4,对与餐桌T1对应的全部筷子S1~S4对应的使用者的语音数据进行统计;S7,服务器根据统计后的餐桌T1的全部语音数据按照预先设定的打折公式生成打折比例,对使用者进行结算,例如打7折等。
需要说明的是,当使用者发出敲击盘子或其他声音时,也会根据时间值归属到对应的使用者的音量值中。服务器实际上是餐厅的收银服务器,当收银服务器生成打折比例后,其能够直接显示打折后的优化价格,以供餐厅管理者对用户进行收费。因此,通过上述方法,餐厅管理者在用户用餐前预先告知用户可以通过降低说话音量的方式获取打折优惠,从而使用户在用餐时主动降低说话音量,进而降低餐厅内的整体噪声,为所有用户提供更加舒适的就餐环境。
本实施例的语音数据处理方法,包括:对餐厅的全部用户进行音量采集,生成全部用户的采集数据,从全部用户的采集数据中提取出使用用具的使用者的音量,根据使用者的音量生成语音数据;将语音数据发送至服务器,以供服务器根据语音数据生成打折比例并根据打折比例对使用者进行结算,通过这一方法,可以根据用户的语音数据,让餐厅的经营者能够根据服务器对顾客的交谈声音做出客观的评价,从而辅助以餐费打折等手段,促使顾客主动降低交谈时的音量,以达到降低整体环境噪音和改善用餐环境的目的。
实施例2:
请参照图3,本实施例提供一种语音数据处理装置,包括:第一采集模块1、提取模块2、生成模块3、发送模块4、第一关联模块5、第二采集模块6、第二关联模块7、确定模块8和检测模块9。
第一采集模块1用于对餐厅的全部用户进行音量采集,生成全部用户的采集数据。
由于餐厅是一个开放式的环境,因此,各种声音汇集,为了减少用具的采集量,可以预先在用具中存储服务员等餐厅工作人员的声纹特征,当用具采集到工作人员的采集数据后可直接忽略。需要说明的是,采集数据并不是某一用的使用者一个人的,而是餐厅内所有用户的。
提取模块2用于从全部用户的采集数据中提取出使用用具的使用者的音量。
具体地,用具的提取模块2根据其使用者的归属声纹特征,在采集数据中进行查询,从而在全部用户的采集数据中提取出该用具使用者的音量。
生成模块3用于根据使用者的音量生成语音数据。
其中,语音数据为使用者的最大音量值或音量平均值。
需要说明的是,用具的提取模块2只要在采集数据中提取到其使用者的音量,用具就会对该音量进行存储并按照语音数据的类型生成语音数据。例如,若语音数据为音量平均值,则用具会对其使用者的全部音量进行存储,并在使用者结束用餐时,按照平均值公式计算出其音量平均值;若语音数据为最大音量值,则用具会对其使用者的全部音量进行存储,并在使用者结束用餐时,从所有音量中筛选出最大音量值。当然,语音数据的类型并不局限于此,还可以是使用者的最小音量值或音量累计值等,只要是能够用于统计使用者的音量信息的数据即可,在此不再赘述。
发送模块4用于将语音数据发送至服务器,以供服务器根据语音数据生成打折比例并根据打折比例对使用者进行结算。
具体地,用具的发送模块4将生成的使用者的语音数据发送至服务器;然后,服务器接收到用具的发送模块4发送的语音数据后,根据第二关联关系查询出与该用具对应的餐桌,并查询该餐桌是否还对应有其他用具,当查询出该餐桌对应的全部用具后,对全部用具对应的使用者的语音数据进行统计;而后,服务器按照预先设定的打折公式生成打折比例;最后,服务器根据打折比例对使用者进行结算。
第一关联模块5用于向点餐装置提供第一标识,形成用具与餐桌之间的第二关联关系,以供服务器根据第二关联关系查询出与餐桌对应的全部用具,统计出全部用具对应的使用者的语音数据,并根据餐桌上的全部用具对应的使用者的语音数据生成打折比例,根据打折比例对使用者进行结算;第二关联关系包括用具和餐桌之间的对应关系。
需要说明的是,第一标识为用具的身份标识,也就是说,每个用具都有与其匹配的唯一的第一标识,第一标识可以是RFID芯片、二维码或其他类型的标识,点餐装置只要设置有与第一标识类型匹配且可以读取第一标识的读取模块(如摄像头等)即可,当点餐装置读取了用具的第一标识后,餐厅服务员可在点餐装置上手动填入餐桌号码,从而可以在该用具所在的餐桌与该用具之间建立第二关联关系。
当然,一个用具只能有一个与其建立第二关联关系的餐桌,但一个餐桌可以同时与多个餐具建立第二关联关系。
第二采集模块6用于每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据。
也就是说,每隔预设时间,每个用具的第二采集模块6就会对餐厅内的全部用户同时进行声纹采集,而后生成每个用户的声纹数据。
第二关联模块7用于根据声纹数据形成用具与使用者之间的第一关联关系,第一关联关系包括第二标识和使用者标识之间的对应关系,第二标识用于标识用具,使用者标识用于标识使用者。
其中,声纹数据包括:时间值和归属声纹特征,具体地,使用者标识为归属声纹特征。
第二关联模块7包括:筛选模块71、确认模块72和绑定模块73。
筛选模块71用于将每个声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据。
需要说明的是,时间值是指接收到某一声音时距离预设时间初始时的时间差。例如,某一用户发出声音,餐厅内所有用具都采集到了该声音,但由于每个用具与该用户之间的距离不同,因此,每个用具采集到该声音的时间点不同,有的用具可能经过0.02毫秒采集到,有的用具可能经过0.03毫秒采集到,因此,在所有声纹数据中必然存在一个包括最小时间值的声纹数据,在所有用具中也必然存在一个采集到该声音的时间点最短的用具。
确认模块72用于确认出包含最小时间值的声纹数据对应的用户为使用者。
具体地,对于一个用具来说,其从多个声纹数据中筛选出的包含最小时间值的声纹数据必然是离该用具最近的一个用户的声纹数据,因此,用具的确认模块72能够确认该出包含最小时间值的声纹数据对应的用户为其使用者。
绑定模块73用于将第二标识和使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
第二标识设置在用具中或用具上,第二标识作为用具的身份特征,且每个用具都具有唯一的第二标识。当用具的确认模块72确认出其使用者时,会将其第二标识与该使用者的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系。
确定模块8用于根据第一关联关系确定出与用具对应的使用者。
也就是说,确定模块8通过将第二标识与归属声纹特征绑定的方式将该包括该第二标识的用具与包括该归属声纹特征的声纹数据所对应的使用者进行绑定。
检测模块9用于检测环境温度,以根据环境温度设置预设时间。
之所以设置检测模块9通过检测环境对预设时间进行设置,是由于当环境温度不同时,声音在环境中的传播速度会发生改变,虽然变化幅度不大,但也会影响声音传播的每米时间差,从而影响预设时间的大小,根据环境温度设置预设时间,能够增加用具确定其使用者的精准度。
优选地,预设时间小于等于0.1毫秒。
本实施例的语音数据处理装置用于实现实施例1的语音数据处理方法,详细描述可参照实施例1的语音数据处理方法,在此不再赘述。
本实施例的语音数据处理装置,用于实现实施例1的语音数据处理方法,其可以根据用户的语音数据,让餐厅的经营者能够根据服务器对顾客的交谈声音做出客观的评价,从而辅助以餐费打折等手段,促使顾客主动降低交谈时的音量,以达到降低整体环境噪音和改善用餐环境的目的。
实施例3:
请参照图4,本实施例提供一种用具,包括用具本体101和实施例2的语音数据处理装置100,语音数据处理装置100位于用具本体101上。
可以理解的是,语音数据处理装置100与用具本体101的位置关系并不局限于此,语音数据处理装置100可以设置在用具本体101内部,也可以设置在用具本体101的外部,还可以通过其他方式连接在一起,在此不再赘述。
优选地,用具为筷子。
当然,该用具并不局限于筷子,还可以为用户用餐时使用的其他餐具,在此不再赘述。
本实施例的用具包括实施例2的语音数据处理装置,详细描述可参照实施例2的语音数据处理装置,在此不再赘述。
本实施例的用具,包括实施例2的语音数据处理装置,其可以根据用户的语音数据,让餐厅的经营者能够根据服务器对顾客的交谈声音做出客观的评价,从而辅助以餐费打折等手段,促使顾客主动降低交谈时的音量,以达到降低整体环境噪音和改善用餐环境的目的。
实施例4:
请参照图5,本实施例提供一种语音数据处理系统,包括:用具200和服务器300。
服务器300用于接收用具200发送的语音数据,根据语音数据生成打折比例并根据打折比例对使用者进行结算。
本实施例的语音数据处理系统包括实施例3的用具,详细描述可参照实施例3的用具,在此不再赘述。
本实施例的语音数据处理系统,包括实施例3的用具,其可以根据用户的语音数据,让餐厅的经营者能够根据服务器对顾客的交谈声音做出客观的评价,从而辅助以餐费打折等手段,促使顾客主动降低交谈时的音量,以达到降低整体环境噪音和改善用餐环境的目的。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (13)
1.一种语音数据处理方法,其特征在于,包括:
每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据;所述声纹数据包括时间值和归属声纹特征;
将每个所述声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据;
确认出所述包含最小时间值的声纹数据对应的用户为使用者;
将第二标识和所述使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系;所述第一关联关系包括第二标识和使用者标识之间的对应关系,所述第二标识用于标识用具,所述使用者标识用于标识所述使用者;
根据所述第一关联关系确定出与用具对应的使用者;
对餐厅的全部用户进行音量采集,生成全部用户的采集数据;
从全部用户的采集数据中提取出使用用具的使用者的音量;
根据使用者的音量生成语音数据;
将所述语音数据发送至服务器,以供所述服务器根据所述语音数据生成打折比例,并根据所述打折比例对所述使用者进行结算。
2.根据权利要求1所述的语音数据处理方法,其特征在于,在所述对餐厅的全部用户进行音量采集,生成全部用户的采集数据之前,还包括:
向点餐装置提供第一标识,形成所述用具与餐桌之间的第二关联关系,所述第二关联关系包括所述用具和所述餐桌之间的对应关系;
所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算包括:
所述服务器根据所述第二关联关系查询出与餐桌对应的全部用具,统计出所述全部用具对应的使用者的语音数据;
所述服务器根据所述餐桌上的全部用具对应的使用者的语音数据生成打折比例;
所述服务器根据所述打折比例对所述使用者进行结算。
3.根据权利要求1所述的语音数据处理方法,其特征在于,所述语音数据为所述使用者的最大音量值或音量平均值。
4.根据权利要求1所述的语音数据处理方法,其特征在于,在所述每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据之前,还包括:
检测环境温度,以根据所述环境温度设置预设时间。
5.根据权利要求4所述的语音数据处理方法,其特征在于,所述预设时间小于等于0.1毫秒。
6.一种语音数据处理装置,其特征在于,包括:
第二采集模块,用于每隔预设时间对餐厅内的全部用户进行声纹采集,生成每个用户的声纹数据;所述声纹数据包括:时间值和归属声纹特征;
第二关联模块,用于根据所述声纹数据形成用具与使用者之间的第一关联关系,所述第一关联关系包括第二标识和使用者标识之间的对应关系,第二标识用于标识用具,使用者标识用于标识所述使用者;
第二关联模块包括:
筛选模块,用于将每个所述声纹数据中时间值进行比较,筛选出包含最小时间值的声纹数据;
确认模块,用于确认出所述包含最小时间值的声纹数据对应的用户为使用者;
绑定模块,用于将所述第二标识和所述使用者对应的声纹数据中的归属声纹特征进行绑定,以形成第一关联关系
确定模块,用于根据所述第一关联关系确定出与用具对应的使用者;
第一采集模块,用于对餐厅的全部用户进行音量采集,生成全部用户的采集数据;
提取模块,用于从全部用户的采集数据中提取出使用用具的使用者的音量;
生成模块,用于根据使用者的音量生成语音数据;
发送模块,用于将所述语音数据发送至服务器,以供所述服务器根据所述语音数据生成打折比例并根据所述打折比例对所述使用者进行结算。
7.根据权利要求6所述的语音数据处理装置,其特征在于,还包括:
第一关联模块,用于向点餐装置提供第一标识,形成所述用具与餐桌之间的第二关联关系,以供所述服务器根据所述第二关联关系查询出与餐桌对应的全部用具,统计出所述全部用具对应的使用者的语音数据,并根据所述餐桌上的全部用具对应的使用者的语音数据生成打折比例,根据所述打折比例对所述使用者进行结算;所述第二关联关系包括所述用具和所述餐桌之间的对应关系。
8.根据权利要求6所述的语音数据处理装置,其特征在于,所述语音数据为所述使用者的最大音量值或音量平均值。
9.根据权利要求6所述的语音数据处理装置,其特征在于,还包括:
检测模块,用于检测环境温度,以根据所述环境温度设置预设时间。
10.根据权利要求9所述的语音数据处理装置,其特征在于,所述预设时间小于等于0.1毫秒。
11.一种用具,其特征在于,包括用具本体和权利要求6至10任意一项所述的语音数据处理装置,所述语音数据处理装置位于所述用具本体上。
12.根据权利要求11所述的用具,其特征在于,所述用具为筷子。
13.一种语音数据处理系统,其特征在于,包括:服务器和权利要求11或12所述的用具;
所述服务器,用于接收所述用具发送的语音数据,根据所述语音数据生成打折比例并根据所述打折比例对使用者进行结算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610686305.1A CN106296302B (zh) | 2016-08-18 | 2016-08-18 | 一种语音数据处理方法、装置、用具和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610686305.1A CN106296302B (zh) | 2016-08-18 | 2016-08-18 | 一种语音数据处理方法、装置、用具和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106296302A CN106296302A (zh) | 2017-01-04 |
CN106296302B true CN106296302B (zh) | 2019-07-09 |
Family
ID=57679848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610686305.1A Active CN106296302B (zh) | 2016-08-18 | 2016-08-18 | 一种语音数据处理方法、装置、用具和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106296302B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
CN102831890A (zh) * | 2011-06-15 | 2012-12-19 | 镇江佳得信息技术有限公司 | 一种对文本无关的声纹进行识别的方法 |
CN103139351A (zh) * | 2011-11-24 | 2013-06-05 | 联想(北京)有限公司 | 音量控制方法、装置及通信终端 |
CN103229233A (zh) * | 2010-12-10 | 2013-07-31 | 松下电器产业株式会社 | 用于识别说话人的建模设备和方法、以及说话人识别系统 |
CN104485102A (zh) * | 2014-12-23 | 2015-04-01 | 智慧眼(湖南)科技发展有限公司 | 声纹识别方法和装置 |
WO2015194115A1 (ja) * | 2014-06-16 | 2015-12-23 | パナソニックIpマネジメント株式会社 | 接客評価装置、接客評価システム及び接客評価方法 |
CN105280187A (zh) * | 2015-11-13 | 2016-01-27 | 上海斐讯数据通信技术有限公司 | 一种家庭情绪管理的装置和方法 |
-
2016
- 2016-08-18 CN CN201610686305.1A patent/CN106296302B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103229233A (zh) * | 2010-12-10 | 2013-07-31 | 松下电器产业株式会社 | 用于识别说话人的建模设备和方法、以及说话人识别系统 |
CN102831890A (zh) * | 2011-06-15 | 2012-12-19 | 镇江佳得信息技术有限公司 | 一种对文本无关的声纹进行识别的方法 |
CN103139351A (zh) * | 2011-11-24 | 2013-06-05 | 联想(北京)有限公司 | 音量控制方法、装置及通信终端 |
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
WO2015194115A1 (ja) * | 2014-06-16 | 2015-12-23 | パナソニックIpマネジメント株式会社 | 接客評価装置、接客評価システム及び接客評価方法 |
CN104485102A (zh) * | 2014-12-23 | 2015-04-01 | 智慧眼(湖南)科技发展有限公司 | 声纹识别方法和装置 |
CN105280187A (zh) * | 2015-11-13 | 2016-01-27 | 上海斐讯数据通信技术有限公司 | 一种家庭情绪管理的装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106296302A (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422308B2 (ja) | 情報提供方法、サーバ、音声認識装置、及び情報提供プログラム | |
CN106384273B (zh) | 恶意刷单检测系统及方法 | |
CN106658564B (zh) | 一种家庭用户的识别方法及装置 | |
CN105956801A (zh) | 快递代收方法 | |
CN104915795A (zh) | 一种酒店自助入住管理系统和方法 | |
EP1596556A3 (en) | User profile service | |
CN104427109B (zh) | 使用语音创建联系人项的方法及电子设备 | |
CN102438205B (zh) | 一种基于移动用户行为的业务推送的方法与系统 | |
US20130304538A1 (en) | Consumer feedback collection system | |
CN110705926A (zh) | 一种物流对象配送信息的获取方法、装置和系统 | |
US20210320997A1 (en) | Information processing device, information processing method, and information processing program | |
CN104754151A (zh) | 一种银行排号通讯方法及系统 | |
JP2024023949A (ja) | 情報提供方法、情報提供システム、及びマルチデバイス | |
CN110264313A (zh) | 一种基于互联网的上门服务系统 | |
CN106296302B (zh) | 一种语音数据处理方法、装置、用具和系统 | |
CN110390581A (zh) | 业务处理的方法及装置、系统、存储介质、电子装置 | |
CN104660773B (zh) | 一种骚扰电话处理方法和骚扰电话处理装置 | |
CN104484330B (zh) | 基于分档关键词阈值组合评估的垃圾评论预选方法及装置 | |
CN106982284A (zh) | 骚扰电话号码的识别方法及装置 | |
JP6312569B2 (ja) | 連携相手決定方法、及び連携相手決定装置 | |
CN205680206U (zh) | 一种艾滋病匿名自助检测服务系统 | |
CN110337063A (zh) | 目标用户终端识别方法、装置、存储介质及计算机设备 | |
CN105787789A (zh) | 货币汇率展示方法和装置 | |
CN205563704U (zh) | 餐桌服务系统 | |
KR101794140B1 (ko) | 혼잡도 알림 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |