CN113965929A - 一种硬件绑定方法 - Google Patents
一种硬件绑定方法 Download PDFInfo
- Publication number
- CN113965929A CN113965929A CN202111225745.4A CN202111225745A CN113965929A CN 113965929 A CN113965929 A CN 113965929A CN 202111225745 A CN202111225745 A CN 202111225745A CN 113965929 A CN113965929 A CN 113965929A
- Authority
- CN
- China
- Prior art keywords
- voiceprint
- binding
- model
- bound
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/16—Hidden Markov models [HMM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
- H04W12/068—Authentication using credential vaults, e.g. password manager applications or one time password [OTP] applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
- H04W12/33—Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/50—Secure pairing of devices
Abstract
本发明提供了一种硬件绑定方法,包括:在手表中进入绑定页面,发出第一绑定声纹;打开手机APP,进入绑定页面,并发出第二绑定声纹;通过声纹模型识别第一绑定声纹和第二绑定声纹,并获得声纹匹配结果及检验码;将校验码在手机APP中通过页面显示;由用户在页面显示中确认校验码后,完成绑定。本发明提出的一种硬件绑定方法,基于声纹匹配,使得手表绑定手机APP时,通过APP和手表端发送相同规则的声纹来完成绑定,无需进行手动输入信息或者扫描二维码等操作,不仅交互简单,而且容易完成绑定。
Description
技术领域
本发明涉及通信技术领域,特别涉及一种硬件绑定方法。
背景技术
随着信息技术的发展,很多企业推出了多种智能硬件,伴随着这些智能硬件电子设备的问世,为了方便使用与管理,用户往往会将智能硬件电子设备与用户终端进行绑定,从而便于用户使用硬件服务。目前,智能硬件电子设备绑定用户终端存在交互复杂的问题,用户在将智能硬件电子设备与用户终端进行绑定时,要么通过手动输入智能硬件电子设备的设备号和校验码进行绑定,要么通过扫描二维码进行指引操作完成绑定,但是这对于不熟悉电子产品的用户来说,操作比较繁琐,甚至无法顺利完成绑定。因此,本发明提出一种硬件绑定方法,以手表绑定手机APP为例,基于声纹匹配,使得手表绑定手机APP时,通过APP和手表端发送相同规则的声纹来完成绑定,无需进行手动输入信息或者扫描二维码等操作,不仅交互简单,而且容易完成绑定。
发明内容
本发明的目的在于提供一种硬件绑定方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种硬件绑定方法,包括:
在手表中进入绑定页面,发出第一绑定声纹;
打开手机APP,进入绑定页面,并发出第二绑定声纹;
通过声纹模型识别所述第一绑定声纹和第二绑定声纹,并获得声纹匹配结果及检验码;
将所述校验码在所述手机APP中通过页面显示;
由用户在所述页面显示中确认所述校验码后,完成绑定。
进一步地,所述第一绑定声纹是根据手表设备号、验证码和安顿特别标识综合结合生成的。
进一步地,所述第二绑定声纹的生成结合手机设备号、APP用户ID、绑定角色ID和安顿特别标识生成。
进一步地,所述声纹模型包括:声纹识别模型和声纹匹配模型;所述声纹识别模型针对所述第一绑定声纹和第二绑定声纹进行识别,分别得到第一绑定声纹识别结果和第二绑定声纹识别结果;所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配,获得声纹匹配结果。
进一步地,所述声纹模型是通过算法进行限制,而且所述声纹模型是由声纹初步模型进行模型训练之后得到的。
进一步地,所述声纹模型是由声纹初步模型训练之后得到的过程包括:
建立声纹初步模型;
确定模型训练数据;
通过声纹初步模型对模型训练数据进行处理,同时获取模型误差;
将模性误差最小时对应的声纹初步模型作为声纹模型。
进一步地,所述声纹识别模型为神经网络模型;所述声纹初步模型中声纹识别模型进行模型训练的过程包括:
在所述模型训练数据中提取声纹特征;
将所述声纹特征输入所述声纹初步模型中声纹识别模型的域分类器中,并得到所述声纹识别模型的输出信息;
基于所述域分类器的分类结果和所述声纹初步模型的输出信息,同时获取损失函数。
进一步地,所述损失函数为初步声纹识别模型中神经网络模型的分类损失函数、重构损失函数、差异损失函数和相似性损失函数的综合加权函数。
进一步地,所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配之前,针对所述第一绑定声纹识别结果和第二绑定声纹识别结果进行预处理;所述预处理包括将所述第一绑定声纹识别结果和第二绑定声纹识别结果进行标准化处理,获得标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息。
进一步地,所述获得声纹匹配结果的过程包括:
判断标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数是否相等;
当标准第一绑定声纹识别结果信息对应声纹的帧数与标准第二绑定声纹识别结果信息对应声纹的帧数不相等时,针对较少帧数的绑定声纹识别结果信息进行扩张,使标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数相同;
针对声纹的帧数相同的标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息进行匹配,得到声纹匹配结果;
当时所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值满足预设标准时,则声纹匹配结果为匹配成功,否则,声纹匹配结果为失败。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明所述的一种硬件绑定方法的步骤示意图;
图2为本发明所述的一种硬件绑定方法的流程示意图;
图3为本发明所述的一种硬件绑定方法的连接示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1、图2和图3所示,本发明实施例提供了一种硬件绑定方法,包括:
步骤一、在手表中进入绑定页面,发出第一绑定声纹;
步骤二、打开手机APP,进入绑定页面,并发出第二绑定声纹;
步骤三、通过声纹模型识别所述第一绑定声纹和第二绑定声纹,并获得声纹匹配结果及检验码;
步骤四、将所述校验码在所述手机APP中通过页面显示;
步骤五、由用户在所述页面显示中确认所述校验码后,完成绑定。
上述技术方案中,在将手表与手机APP进行绑定时,分别将手表和手机APP进入绑定页面,并使得手表发出第一绑定声纹,以及使得手机APP发出第二绑定声纹,然后针对第一绑定声纹和第二绑定声纹通过声纹模型进行识别与匹配,从而获得声纹匹配结果,在得到声纹匹配结果的同时还跟据声纹识别结果产生校验码,并将校验码在手机APP上以页面形式显示出来,进而使得用户在页面上进行确认校验码后完成手表与手机APP的绑定。上述技术方案无需进行繁琐的交互操作就能够实现手表与手机APP的绑定,即使不熟悉电子产品的用户也能够完成绑定,而且将校验码通过手机APP以页面形式显示出来由用户确认后才能完成绑定,从而能够避免绑定错误,将附近的其它不是目标的电子产品进行绑定,进而提高绑定的准确性。
本发明提供的一个实施例中,所述第一绑定声纹是根据手表设备号、验证码和安顿特别标识综合结合生成的。
上述技术方案中,手表发出的第一绑定声纹是结合手表设备号、验证码和安顿特别标识生成的,从而使得第一绑定声纹中具有手表的特性,避免其他电子设备发出相同的绑定声纹,进而避免绑定错误。
本发明提供的一个实施例中,所述第二绑定声纹的生成结合手机设备号、APP用户ID、绑定角色ID和安顿特别标识生成。
上述技术方案中,手机APP进入绑定页面后使其发出第二绑定声纹,其第二绑定声纹是根据手机设备号、APP用户ID、绑定角色ID和安顿特别标识生成的,从而使得第二绑定声纹能够更好地与第一绑定声纹进行适配,从而使得绑定成功之后手机APP中即可匹配上对应的信息。
本发明提供的一个实施例中,所述声纹模型包括:声纹识别模型和声纹匹配模型;所述声纹识别模型针对所述第一绑定声纹和第二绑定声纹进行识别,分别得到第一绑定声纹识别结果和第二绑定声纹识别结果;所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配,获得声纹匹配结果。
上述技术方案中,声纹模型中至少包括声纹识别模型和声纹匹配模型两部分,声纹识别模型用于对第一绑定声纹和第二绑定声纹进行识别,从而输出第一绑定声纹识别结果和第二绑定声纹识别结果,然后通过声纹匹配模型将第一绑定声纹识别结果与第二绑定声纹识别结果进行匹配,进而得到声纹匹配结果。上述技术方案通过声纹模型能够使得第一绑定声纹和第二绑定声纹输出相同的信息指标,进而去除不重要信息的干扰,便于进行声纹匹配,从而降低出错概率。
本发明提供的一个实施例中,所述声纹模型是通过算法进行限制,而且所述声纹模型是由声纹初步模型进行模型训练之后得到的。
上述技术方案中,声纹模型是由算法程序写入和进行定义限定的,以代码的形式将声纹模型的算法程序植入到手表与手机APP的绑定过程中,能够加速绑定的过程,还能够使得对声纹的处理具有统一的标准。此外,在建立声纹初步模型之后通过模型训练获得声纹模型,使得声纹模型够更加准确的对第一绑定声纹和第二绑定声纹,从而使得声纹匹配结果的误差更小。
本发明提供的一个实施例中,所述声纹模型是由声纹初步模型训练之后得到的,其过程包括:
建立声纹初步模型;
确定模型训练数据;
通过声纹初步模型对模型训练数据进行处理,同时获取模型误差;
将模性误差最小时对应的声纹初步模型作为声纹模型。
上述技术方案中,声纹模型得到的过过程依次按着如下步骤:建立声纹初步模型,选择大量声纹作为模型训练数据,通过模型训练数据对声纹初步模型进行目标训练,在进行目标训练的同时获取声纹初步模型针对模型训练数据中的每一个数据进行训练时的模型误差,分析获取到的所有模型训练数据对应的模型误差,将模性误差最小时对应的声纹初步模型作为声纹模型。通过上述技术方案使得声纹模型在对第一绑定声纹和第二绑定声纹进行识别处理时误差最小化,从而降低手表与手机APP绑定过程中出现错误的概率。
本发明提供的一个实施例中,所述声纹识别模型为神经网络模型;所述声纹初步模型中声纹识别模型进行模型训练的过程包括:
在所述模型训练数据中提取声纹特征;
将所述声纹特征输入所述声纹初步模型中声纹识别模型的域分类器中,并得到所述声纹识别模型的输出信息;
基于所述域分类器的分类结果和所述声纹初步模型的输出信息,同时获取损失函数。
上述技术方案中,声纹初步模型中声纹识别模型进行模型训练时,首先在模型训练数据中将训练数据中每条声纹的声纹特征提取出来,然后依次将每条声纹的声纹特征输入到声纹初步模型中声纹识别模型,并通过声纹识别模型输出信息,输出信息即为声纹的识别信息,而且同时将声纹识别模型识别过程中的损失函数进行确定。上述技术方案通过损失函数反映声纹初步模型中声纹识别模型针对模型训练数据进行识别过程中优化进程,从而在当损失函数呈现收敛状态时,对应的声纹识别模型确定为训练后的最终声纹识别模型,进而使得声纹模型中的声纹识别模型不仅准确度更高,而且识别效率高。
本发明提供的一个实施例中,所述损失函数为初步声纹识别模型中神经网络模型的分类损失函数、重构损失函数、差异损失函数和相似性损失函数的综合加权函数。
上述技术方案中,声纹初步模型中声纹识别模型在模型训练的过程获取的损失函数是对分类损失函数、重构损失函数、差异损失函数和相似性损失函数综合分析得到的。上述技术方案损失函数全面考虑了声纹识别模型的神经网络模型中分类损失函数、重构损失函数、差异损失函数和相似性损失函数,从而能够使得训练后的声纹识别模型误差更小,精度更高。
本发明提供的一个实施例中,所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配之前,针对所述第一绑定声纹识别结果和第二绑定声纹识别结果进行预处理;所述预处理包括将所述第一绑定声纹识别结果和第二绑定声纹识别结果进行标准化处理,获得标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息。
上述技术方案中,在声纹匹配模型根据第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配之前,对第一绑定声纹识别结果和第二绑定声纹识别结果进行预处理,通过预处理使得预处理得到的标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息具有相同的标准准则,有利于获得匹配结果,避免在计算匹配结果时因为第一绑定声纹识别结果中的信息和第二绑定声纹识别结果中对应的信息量纲不同而导致匹配结果出现错误。
本发明提供的一个实施例中,所述获得声纹匹配结果的过程包括:
判断标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数是否相等;
当标准第一绑定声纹识别结果信息对应声纹的帧数与标准第二绑定声纹识别结果信息对应声纹的帧数不相等时,针对较少帧数的绑定声纹识别结果信息进行扩张,使标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数相同;
针对声纹的帧数相同的标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息进行匹配,得到声纹匹配结果;
当时所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值满足预设标准时,则声纹匹配结果为匹配成功,否则,声纹匹配结果为失败。
上述技术方案中,在获得声纹匹配结果时,首先,确定标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数多少,并判断判断标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数是否相等,从而获得判断结果;然后,根据判断结果在标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数不相等时针对声纹的帧数较少的绑定声纹识别结果信息进行扩张,使其扩张成与声纹帧数较多的绑定声纹识别结果信息一样多;然后,再计算标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值,如果标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数是相等的,则无需进行扩张直接计算标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值;最后,根据所述匹配值得到声纹匹配结果。其中,在标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数不相等时,首先,根据如下公式进行扩张处理;
上述公式中,W(t)表示扩张后的第t帧的绑定声纹识别结果信息,w(s)表示较少帧数中第s帧的绑定声纹识别结果信息,T表示标准第一绑定声纹识别结果信息对应声纹的帧数与标准第二绑定声纹识别结果信息对应声纹的帧数中的较大值,S表示标准第一绑定声纹识别结果信息对应声纹的帧数与标准第二绑定声纹识别结果信息对应声纹的帧数中的较小值,w(s+1)表示较少帧数中第s+1帧的绑定声纹识别结果信息;
然后通过下述公式计算所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值;
上述公式中,D(R,W)表示所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值,d(W(t),R(t))表示所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息第t帧之间的距离测度,R(t)表示较多帧数中第t帧的绑定声纹识别结果信息;
最后,根据所述匹配值得到声纹匹配结果,当所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值D(R,W)的取值为大于95%的数值时,则声纹匹配结果为匹配成功,当所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值D(R,W)的取值为小于等于95%的数值时,声纹匹配结果为失败。
上述技术方案无需人为进行计算或者操作就能够实现,而且能够快速得到声纹匹配结果,而且在上述过程中逐帧进行匹配,不仅误差小,而且效果佳,并且在扩张时既使得扩张后较少帧数绑定声纹识别结果信息与较多帧数绑定声纹识别结果信息一样多,而且不失扩张前的属性,进而在不改变本质的情况下便捷了匹配值的计算,从而提升匹配结果确定的速度与提高标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值的精确度。
本领域技术人员应当理解的是,本发明中的第一、第二指的是不同应用阶段而已。
本领域技术用户员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种硬件绑定方法,其特征在于,包括:
在手表中进入绑定页面,发出第一绑定声纹;
打开手机APP,进入绑定页面,并发出第二绑定声纹;
通过声纹模型识别所述第一绑定声纹和第二绑定声纹,并获得声纹匹配结果及检验码;
将所述校验码在所述手机APP中通过页面显示;
由用户在所述页面显示中确认所述校验码后,完成绑定。
2.根据权利要求1所述的硬件绑定方法,其特征在于,所述第一绑定声纹是根据手表设备号、验证码和安顿特别标识综合结合生成的。
3.根据权利要求1所述的硬件绑定方法,其特征在于,所述第二绑定声纹的生成结合手机设备号、APP用户ID、绑定角色ID和安顿特别标识生成。
4.根据权利要求1所述的硬件绑定方法,其特征在于,所述声纹模型包括:声纹识别模型和声纹匹配模型;所述声纹识别模型针对所述第一绑定声纹和第二绑定声纹进行识别,分别得到第一绑定声纹识别结果和第二绑定声纹识别结果;所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配,获得声纹匹配结果。
5.根据权利要求4所述的硬件绑定方法,其特征在于,所述声纹模型是通过算法进行限制,而且所述声纹模型是由声纹初步模型进行模型训练之后得到的。
6.根据权利要求5所述的硬件绑定方法,其特征在于,所述声纹模型是由声纹初步模型训练之后得到的,其过程包括:
建立声纹初步模型;
确定模型训练数据;
通过声纹初步模型对模型训练数据进行处理,同时获取模型误差;
将模性误差最小时对应的声纹初步模型作为声纹模型。
7.根据权利要求6所述的硬件绑定方法,其特征在于,所述声纹识别模型为神经网络模型;所述声纹初步模型中声纹识别模型进行模型训练的过程包括:
在所述模型训练数据中提取声纹特征;
将所述声纹特征输入所述声纹初步模型中声纹识别模型的域分类器中,并得到所述声纹识别模型的输出信息;
基于所述域分类器的分类结果和所述声纹初步模型的输出信息,同时获取损失函数。
8.根据权利要求7所述的硬件绑定方法,其特征在于,所述损失函数为初步声纹识别模型中神经网络模型的分类损失函数、重构损失函数、差异损失函数和相似性损失函数的综合加权函数。
9.根据权利要求4所述的硬件绑定方法,其特征在于,所述声纹匹配模型根据所述第一绑定声纹识别结果和第二绑定声纹识别结果进行匹配之前,针对所述第一绑定声纹识别结果和第二绑定声纹识别结果进行预处理;所述预处理包括将所述第一绑定声纹识别结果和第二绑定声纹识别结果进行标准化处理,获得标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息。
10.根据权利要求9所述的硬件绑定方法,其特征在于,所述获得声纹匹配结果的过程包括:
判断标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数是否相等;
当标准第一绑定声纹识别结果信息对应声纹的帧数与标准第二绑定声纹识别结果信息对应声纹的帧数不相等时,针对较少帧数的绑定声纹识别结果信息进行扩张,使标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息对应声纹的帧数相同;
针对声纹的帧数相同的标准第一绑定声纹识别结果信息和标准第二绑定声纹识别结果信息进行匹配,得到声纹匹配结果;
当时所述标准第一绑定声纹识别结果信息与所述标准第一绑定声纹识别结果信息之间的匹配值满足预设标准时,则声纹匹配结果为匹配成功,否则,声纹匹配结果为失败。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111225745.4A CN113965929A (zh) | 2021-10-21 | 2021-10-21 | 一种硬件绑定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111225745.4A CN113965929A (zh) | 2021-10-21 | 2021-10-21 | 一种硬件绑定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113965929A true CN113965929A (zh) | 2022-01-21 |
Family
ID=79465784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111225745.4A Pending CN113965929A (zh) | 2021-10-21 | 2021-10-21 | 一种硬件绑定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113965929A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105119953A (zh) * | 2015-07-08 | 2015-12-02 | 北京合盒互动科技有限公司 | App绑定音视频处理终端的方法及装置 |
CN106911633A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种数据传输方法及装置 |
CN110474902A (zh) * | 2019-08-14 | 2019-11-19 | 中国工商银行股份有限公司 | 账户绑定的方法、系统、计算设备和介质 |
CN111246439A (zh) * | 2020-01-09 | 2020-06-05 | 广东小天才科技有限公司 | 一种绑定手表的方法及终端 |
CN113438640A (zh) * | 2021-05-20 | 2021-09-24 | 深圳市声扬科技有限公司 | 设备配对连接方法、装置、系统及存储介质 |
-
2021
- 2021-10-21 CN CN202111225745.4A patent/CN113965929A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105119953A (zh) * | 2015-07-08 | 2015-12-02 | 北京合盒互动科技有限公司 | App绑定音视频处理终端的方法及装置 |
CN106911633A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种数据传输方法及装置 |
CN110474902A (zh) * | 2019-08-14 | 2019-11-19 | 中国工商银行股份有限公司 | 账户绑定的方法、系统、计算设备和介质 |
CN111246439A (zh) * | 2020-01-09 | 2020-06-05 | 广东小天才科技有限公司 | 一种绑定手表的方法及终端 |
CN113438640A (zh) * | 2021-05-20 | 2021-09-24 | 深圳市声扬科技有限公司 | 设备配对连接方法、装置、系统及存储介质 |
Non-Patent Citations (1)
Title |
---|
张有为等: "《人机自然交互》", 防工业出版社, pages: 176 - 177 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1704668B1 (en) | System and method for providing claimant authentication | |
CN111444951B (zh) | 样本识别模型的生成方法、装置、计算机设备和存储介质 | |
CN111626371B (zh) | 一种图像分类方法、装置、设备及可读存储介质 | |
CN111444952A (zh) | 样本识别模型的生成方法、装置、计算机设备和存储介质 | |
CN109002784B (zh) | 街景识别方法和系统 | |
CN110890088B (zh) | 语音信息反馈方法、装置、计算机设备和存储介质 | |
CN110348471B (zh) | 异常对象识别方法、装置、介质及电子设备 | |
CN113435196B (zh) | 意图识别方法、装置、设备及存储介质 | |
EP3486902A1 (en) | Identity vector processing method and computer device | |
CN111427990A (zh) | 一种智慧校园教学辅助的智能考试控制系统及方法 | |
CN113053395B (zh) | 发音纠错学习方法、装置、存储介质及电子设备 | |
CN113965929A (zh) | 一种硬件绑定方法 | |
CN111833068A (zh) | 基于声纹识别的身份核验系统及方法 | |
CN111275540A (zh) | 一种消费信贷审批方法、装置及终端设备 | |
CN115578101A (zh) | 网点用户身份识别方法及装置 | |
CN115375965A (zh) | 一种目标场景识别的预处理方法、目标场景识别方法 | |
CN113628077B (zh) | 生成不重复考题的方法、终端及可读存储介质 | |
CN110399615B (zh) | 交易风险监控方法及装置 | |
CN114297409A (zh) | 模型训练方法、信息抽取方法及装置、电子设备、介质 | |
CN114218428A (zh) | 音频数据聚类方法、装置、设备及存储介质 | |
CN111163236B (zh) | 客服系统验密优化方法和装置 | |
CN116434313B (zh) | 基于多人脸识别模块的人脸识别方法 | |
CN111401509B (zh) | 一种终端类型的识别方法和装置 | |
JP2895486B2 (ja) | 文字認識方法及び装置 | |
CN113794809A (zh) | 业务处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |