CN113345434A - 网约车用户报警方法、装置、计算机设备及存储介质 - Google Patents
网约车用户报警方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113345434A CN113345434A CN202110604636.7A CN202110604636A CN113345434A CN 113345434 A CN113345434 A CN 113345434A CN 202110604636 A CN202110604636 A CN 202110604636A CN 113345434 A CN113345434 A CN 113345434A
- Authority
- CN
- China
- Prior art keywords
- voice
- language
- user
- recognized
- secret
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000012795 verification Methods 0.000 claims abstract description 28
- 238000001228 spectrum Methods 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000009432 framing Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/016—Personal emergency signalling and security systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Game Theory and Decision Science (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明用于人工智能领域,涉及区块链领域,公开了一种网约车用户报警方法、装置、计算机设备及存储介质,其中,方法部分包括:获取用户终端发送的与预设暗语对应的待识别语音并进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征,获取预设暗语的暗语注册信息,暗语注册信息存储于区块链数据库,根据暗语注册信息的暗语文本、暗语语音特征和暗语声纹特征,对待识别文本、语音特征和声纹特征进行验证,若验证通过,则生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警;本发明的暗语报警方式能减少恶意者的警惕,确保了用户语音与暗语的匹配性,从而减少误报,保证报警的及时性和准确性,进而保证用户的乘车安全。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种网约车用户报警方法、装置、计算机设备及存储介质。
背景技术
随着互联网技术和共享经济的快速发展,网约车行业也日渐被普通市民接受、依赖。网约车是网络预约出租汽车的简称,用户可以通过移动设备在网上直接与网约车驾驶员进行预约,网约车驾驶员接单后到指定地点接乘客到目的地,网约车的驾驶员和车辆需要经过登记和审核,在满足用户多样化的出行需求的基础下,保证用户安全。
但网约车仍旧存在很大的风险,当网约车上的用户遇到危及人身安全的情况时,一般仅能通过直接电话报警的方式快速发出求救信号,但这种方法会暴露出报警的意图,反而会刺激对方,增大安全风险。因此,现有的报警措施难以对用户的人身安全进行有效的保障。
发明内容
本发明提供一种网约车用户报警方法、装置、计算机设备及存储介质,以解决现有的报警措施难以对用户的人身安全进行有效的保障的技术问题。
一种网约车用户报警方法,包括:
获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
一种网约车用户报警装置,包括:
第一获取模块,用于获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
处理模块,用于对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
第二获取模块,用于获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
验证模块,用于根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
报警模块,用于若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述网约车用户报警方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述网约车用户报警方法的步骤。
上述网约车用户报警方法、装置、计算机设备及存储介质所提供的一个技术方案中,通过获取用户终端发送的与预设暗语对应的待识别语音,预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息,并对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征,然后获取预设暗语的暗语注册信息,暗语注册信息包括预设暗语的暗语文本、暗语语音特征和暗语声纹特征,暗语注册信息存储于区块链数据库,根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证,若验证通过,则生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警,报警信息包括用户的位置信息;本发明通过预先设置安全、隐蔽性高的报警暗语,当网约车用户遇到危险时,用户发出与暗语对应的语音信息即可进行报警,隐蔽的暗语报警方式能够减少恶意者的警惕,并对用户发出的语音从多角度进行了验证,确保了用户语音信息与暗语的匹配性,从而减少了误报的可能,保证了报警的及时性和准确性,进而保证了用户的乘车安全。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中网约车用户报警方法的一应用环境示意图;
图2是本发明一实施例中网约车用户报警方法的一流程示意图;
图3是图2中步骤S50的一实现流程示意图;
图4是图2中步骤S40的一实现流程示意图;
图5是图2中步骤S20的一实现流程示意图;
图6是图5中步骤S21的一实现流程示意图;
图7是本发明一实施例中暗语注册信息的一流程示意图;
图8是本发明一实施例中暗语注册信息的另一流程示意图;
图9是本发明一实施例中网约车用户报警装置的一结构示意图;
图10是本发明一实施例中计算机设备的一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的网约车用户报警方法,可应用在如图1所示的应用环境中,其中,用户终端通过网络与服务器进行通信。服务器获取用户通过用户终端发送的与预设暗语对应的待识别语音,其中,预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息,并对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征,并获取预设暗语的暗语注册信息,暗语注册信息包括预设暗语的暗语文本、暗语语音特征和暗语声纹特征,然后服务器根据暗语文本、暗语语音特征和暗语声纹特征,并对待识别语音的待识别文本、语音特征和声纹特征进行验证,若验证通过,则生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警,报警信息包括用户的位置信息;通过预先设置安全、隐蔽性高的报警暗语,当网约车用户遇到危险时,用户发出与暗语对应的语音信息即可进行报警,隐蔽的暗语报警方式能够减少恶意者的警惕,并对用户发出的语音从多角度进行了验证,确保了用户语音信息与暗语的匹配性,从而减少了误报的可能,保证了报警的及时性和准确性,最终进一步提高了网约车场景中报警功能的人工智能化,提高了用户乘车的安全性。
其中,用户的预设暗语、暗语注册信息和网约车信息等相关数据存储在服务器的区块链数据库中,在执行网约车用户报警方法时,可以直接将相关信息进提取,方便快捷。
本实施例中的区块链数据库存储于区块链网络中,用于存储网约车用户报警方法中用到、生成的数据,如预设暗语、暗语注册信息和网约车信息等相关数据。本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。将数据库部署于区块链可提高数据存储的安全性。
其中,用户终端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种网约车用户报警方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:获取用户终端发送的与预设暗语对应的待识别语音。
在用户乘坐网约车的过程中,获取用户终端发送的与预设暗语对应的待识别语音,其中,预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息。
其中,待识别语音的获取方式有两种:
第一种:用户在乘坐网约车遇到危险情况时,打开用户终端中的相应APP,在用户终端的暗语报警界面录入与预设暗语对应的待识别语音。
第二种:用户在乘坐网约车时,用户终端实时获取周围的语音信息,根据语音信息的声纹识别码(如uuid声纹),确定该声纹识别码对应的用户是否注册有预设暗语,若该声纹识别码对应的用户注册有预设暗语,则将该语音信息作为与预设暗语对应的待识别语音,解决用户无法进入暗语报警界面进行语音输入的问题。
S20:对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征。
在获取用户终端发送的与预设暗语对应的待识别语音之后,对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征。即将用户的待识别语音转化问文本字符串,获得待识别语音的待识别文本,并将待识别语音进行语音特征提取和声纹特征提取,以获得待识别语音的语音特征和声纹特征。
S30:获取预设暗语的暗语注册信息,暗语注册信息包括预设暗语的暗语文本、暗语语音特征和暗语声纹特征。
用户终端将待识别语音发送至网约车平台的服务器,服务器根据声纹特征确定该待识别语音的声纹识别码,通过区块链数据库中存储的声纹识别码查询用户在网约车平台注册并存储的预设暗语,并获取存储在数据库中的用户的预设暗语的暗语注册信息,其中,预设暗语的暗语注册信息包括预设暗语的暗语文本、暗语语音特征和暗语声纹特征,暗语注册信息存储于区块链数据库。
S40:根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证。
在获取待识别语音的待识别文本、语音特征和声纹特征,并获取预设暗语的暗语文本、暗语语音特征和暗语声纹特征之后,根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证,以确定用户终端发送的待识别语音是否为用户的预设暗语。从待识别文本、语音特征和声纹特征多个角度,对待识别语音与预设暗语进行匹配,可以充分确认用户的报警意图,减少错误报警的可能。
在根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证之后,若验证未通过,表示用户终端发送的待识别语音不为用户的预设暗语,则不触发报警功能。
S50:若验证通过,则生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警。
在根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证之后,若验证通过,表示用户终端发送的待识别语音为用户的预设暗语,则触发报警功能,根据用户信息和用户的位置信息生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警。其中,报警信息包括但不限于用户实时的位置信息,预设报警平台为公安部门报警平台。将包含用户实时的位置信息的报警信息发送至公安部报警平台,触发110报警,警务人员可以根据提供的位置信息及时介入追踪与抓捕,及时保障网约车用户的人身和财产的安全。
本实施例中,通过获取用户终端发送的与预设暗语对应的待识别语音,预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息,并对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征,然后获取预设暗语的暗语注册信息,暗语注册信息包括预设暗语的暗语文本、暗语语音特征和暗语声纹特征,暗语注册信息存储于区块链数据库,根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证,若验证通过,则生成用户对应的报警信息,并将报警信息发送至预设报警平台进行报警,报警信息包括用户的位置信息;本发明通过预先设置安全、隐蔽性高的报警暗语,当网约车用户遇到危险时,用户发出与暗语对应的语音信息即可进行报警,隐蔽的暗语报警方式能够减少恶意者的警惕,并对用户发出的语音从多角度进行了验证,确保了用户语音信息与暗语的匹配性,从而减少了误报的可能,保证了报警的及时性和准确性,进而保证了用户的乘车安全。
在一实施例中,如图3所示,步骤S50中,即生成用户对应的报警信息,具体包括如下步骤:
S51:确定用户的身份信息和用户所在网约车的车辆信息。
在根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本、语音特征和声纹特征进行验证之后,若验证通过,服务器则从区块链数据库中获取用户的身份信息和用户所在网约车的车辆信息。其中,车辆信息包括驾驶员信息、车牌号、车型和车辆颜色等信息。其中,用户的身份信息包括用户姓名、性别、年龄、职业和身份证号码等信息。
S52:确定用户的位置信息。
同时,服务器还会确定用户的位置信息,其中,位置信息为对用户终端或者网约车进行实时定位获得的位置信息。
S53:根据用户的身份信息、位置信息和驾驶员信息生成报警信息。
在获取户的身份信息、位置信息和用户所在网约车的车辆信息之后,根据用户的身份信息、位置信息和驾驶员信息生成报警信息,即报警信息中至少包括了用户的身份信息、位置信息和驾驶员信息,以便后续进行追踪。
其中,在报警成功之后,服务器会以预设的时间间隔向预设报警平台会推送用户的位置信息,便于相关人员及时对用户或者网约车进行追踪,从而保证用户人身安全。其中,报警信息还可以包括报警原因和报警的缓急程度,以便警务人员及时获知警情,并采集对应的应对措施。报警原因可以由用户在用户终端进行文字输入,也可以由用户终端提供多个报警原因选项,用户进行选择;缓急程度可以根据时间设定,如白天的缓急程度比夜晚的缓急程度低,也可以根据报警原因确定。
本实施例中,通过确定用户的身份信息和用户所在网约车的车辆信息,车辆信息包括驾驶员信息,并确定用户的位置信息,位置信息为对用户终端或者网约车进行定位获得的位置信息,然后根据用户的身份信息、位置信息和驾驶员信息生成报警信息,明确了生成用户对应的报警信息的具体过程,为用户的报警和后续的追踪提供了基础。
在一实施例中,如图4所示,步骤S40中,即根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本信息、语音特征和声纹特征进行验证,具体包括如下步骤:
S41:将待识别语音的语音特征和声纹特征作为待验证特征,并将暗语语音特征和暗语声纹特征作为注册特征。
在获取待识别语音的语音特征和声纹特征之后,将待识别语音的语音特征和声纹特征作为待验证特征,并将暗语语音特征和暗语声纹特征作为注册特征。
S42:确定待验证特征与注册特征是否匹配。
对待验证特征与注册特征进行匹配,以确定待识别语音和设置的预设暗语是否为同一用户。若待验证特征与注册特征匹配,则表示待识别语音和设置的预设暗语为同一用户,若待验证特征与注册特征不匹配,则表示待识别语音和设置的预设暗语可能为不同用户,则无法进行报警。
其中,若待验证特征与注册特征不匹配,可以向用户展示注册页面,提示用户录入暗语语音进行预设暗语注册并完善相关信息,注册成功后,用户退出注册页面,即可在暗语报警页面进行暗语报警,为未能预先设置报警暗语的用户提供紧急报警服务,保障用户安全。
具体地,确定待验证特征与注册特征是否匹配,包括:特征打分模型根据注册特征与待验证特征的差异,对待验证特征进行打分,再根据归整公式得到一个0到100之间的一个数值,获得待验证特征的特征得分;确定待验证特征的特征得分是否处于预设得分范围内;若待验证特征的特征得分处于预设得分范围内,则确定待验证特征与注册特征匹配;若待验证特征的特征得分未处于预设得分范围内,则确定待验证特征与注册特征不匹配。其中,特征打分模型为根据网约车报警场景下的语音数据、预设暗语数据进行训练获得的深度学习模型。本实施例中明确了确定待验证特征与注册特征是否匹配的具体步骤,采用网约车报警场景下相关数据训练得到的特征打分模型,保证了模型的准确性,进而保证了待验证特征与注册特征匹配的准确性,后验证过程的准确性提供了基础。
S43:若待验证特征与注册特征匹配,则根据暗语文本计算待识别文本的字准确率。
在确定待验证特征与注册特征是否匹配之后,若待验证特征与注册特征匹配,表示待识别语音和设置的预设暗语为同一用户,则将暗语文本与待识别文本进行比对,并计算待识别文本的字准确率,以确定待识别语音是否为用户的预设暗语。
具体地,在待识别语音转换为待识别文本之后,就得到待识别语音对应的一组文本字符串,对应的,预设暗语的暗语文本也为一组文本字符串,将两组文本字符串进行比对,计算待识别文本的字错率,即可以计算待识别文本相对暗语文本的字准确率。
其中,字准确率的计算公式为:
WER=(S+D+I)/N=(S+D+I)/(S+D+H);
W.Acc=1-WER=(N-D-S-I)/N=(H-I)/N;
其中,WER(Word error rate)为字错率,是语音识别领域的关键性评估指标,WER越低表示效果越好;W.Acc(Word Accuracy)为字准确率;
S为替换的字数,即相同位置处待识别文本与暗语文本不同的字数,如待识别语音为你好呀,可能被识别为:你好丫;
D为删除的字数,即待识别文本比暗语文本少掉的字数,如待识别语音为你好呀,可能被识别为:你好;
I为插入的字数,之间插入的字数(如空格),如待识别语音为你好呀,可能被识别为:你丫好呀;
H为正确的字数;N为S、D和H之和,需要注意的是这并不等于原句总字数或者识别结果字数。
例如,暗语文本为:今天天气怎么样,待识别文本为:惊天田天气,则H=3,D=3,S=1,I=1,N=7,则:WER=(S+D+I)/N=5/7=71.43%;W.Acc=1-W.Err=28.57%,可知,即待识别文本的字准确率为28.57%。
S44:确定待识别文本的字准确率是否处于预设范围内。
在根据暗语文本计算待识别文本的字准确率之后,确定待识别文本的字准确率是否处于预设范围内。
例如,预设范围内为[70%,100%],若待识别文本的字准确率为28.57%,则待识别文本的字准确率未处于预设范围内,表示待识别语音不是预设暗语,验证不通过;若待识别文本的字准确率为80.57%,则待识别文本的字准确率未处于预设范围内,表示待识别语音是预设暗语,验证通过。
S45:若待识别文本的字准确率处于预设范围内,则确定验证通过。
在确定待识别文本的字准确率是否处于预设范围内之后,若待识别文本的字准确率处于预设范围内,表示待识别语音为用户的预设暗语,则确定验证通过,可以触发报警功能。
本实施例中,通过将待识别语音的语音特征和声纹特征作为待验证特征,并将暗语语音特征和暗语声纹特征作为注册特征,确定待验证特征与注册特征是否匹配,若待验证特征与注册特征匹配,则根据暗语文本计算待识别文本的字准确率,确定待识别文本的字准确率是否处于预设范围内,若待识别文本的字准确率处于预设范围内,则确定验证通过,明确了根据暗语文本、暗语语音特征和暗语声纹特征,对待识别语音的待识别文本信息、语音特征和声纹特征进行验证的具体过程,为待识别语音与预设暗语的验证过程提供了基础,从多个角度确保了待识别语音与预设暗语的匹配性,减少误报的可能,从而保证了报警触发的准确性。
在一实施例中,如图5所示,步骤S20中,即对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征,具体包括如下步骤:
S21:对待识别语音进行处理,以获得待识别语音的梅尔频率倒谱系数,作为待识别语音的语音特征。
在获取用户的待识别语音之后,对待识别语音进行梅尔频率倒谱处理,以获得待识别语音的梅尔频率倒谱系数,作为待识别语音的语音特征。
其中,梅尔倒谱系数(Mel-scale Frequency Cepstral Coefficients,简称MFCC)是在Mel标度频率域提取出来的倒谱参数,Mel标度描述了人耳频率的非线性特性。梅尔频率倒谱系数为语言信号的能量在不同频率范围的分布。梅尔频率倒谱系数可以有效体现语音的音素的属性,并有效识别不同人的声音属性,即识别人发出语音信息的语音特征。
S22:对待识别语音进行声纹识别处理,以获得待识别语音的声纹特征。
在获取用户的待识别语音之后,对待识别语音进行声纹识别处理,以获得待识别语音的声纹特征。将待识别语音输入声纹提取模型,获取声纹提取模型输出的声纹特征向量,获得识别语音的声纹特征。
S23:将待识别语音转换为文本,以获取待识别语音的待识别文本。
在获取用户的待识别语音之后,还需要将待识别语音转换为文本,以获取待识别语音的待识别文本。
本实施例中,通过对待识别语音进行处理,以获得待识别语音的梅尔频率倒谱系数,作为待识别语音的语音特征,并对待识别语音进行声纹识别处理,以获得待识别语音的声纹特征,然后将待识别语音转换为文本,以获取待识别语音的待识别文本,明确了对待识别语音进行处理,以获取待识别语音的待识别文本、语音特征和声纹特征的具体过程,为后续对待识别语音与预设暗语进行验证提供了基础。
在一实施例中,如图6所示,步骤S21中,即对待识别语音进行处理,以获得待识别语音的梅尔频率倒谱系数,具体包括如下步骤:
S211:对待识别语音进行预处理以获得多帧语音信号,预处理包括预加重、分帧和加窗。
在获取用户的待识别语音之后,对待识别语音进行预处理以获得多帧语音信号,其中,预处理包括预加重、分帧和加窗。
其中,预加重处理其实是将待识别语音通过一个高通滤波器,获得预加重后的待识别语音。预加重的目的是提升待识别语音的高频部分,使语音信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。同时,也是为了消除发生过程中声带和嘴唇的效应,来补偿语音信号受到发音系统所抑制的高频部分,也为了突出高频的共振峰。
再将预加重后的待识别语音进行分帧操作,获得多帧语音信号。分帧处理比较简单,是为了后续进行快速傅里叶变换。例如,先将N个采样点集合成一个观测单位,通常情况下N的值可以为256或512,涵盖的时间约为20~30ms左右。为了避免相邻两帧的变化过大,因此会让两相邻帧之间有一段重叠区域,此重叠区域包含了M个取样点,通常M的值约为N的1/2或1/3。通常语音识别所采用语音信号的采样频率为8KHz或16KHz,以8KHz来说,若帧长度为256个采样点,则对应的时间长度是256/8000×1000=32ms。
本实施例中,上述N、M、采样频率和时间等取值均为示例性说明,在其他实施例中,上述参数还可以是其他数值,在此不再赘述。
然后,将每一帧的语音信号进行加窗操作,加窗的类型有四种,分别是汉宁窗(hanning)、汉明窗(hamming)、波维窗(povey)以及矩形窗(rectangular),本实施例中,使用的是汉明窗,将每一帧的语音信号乘以汉明窗,获得加窗后的多帧语音信号,以增加帧左端和右端的连续性,克服泄露现象。
S212:对多帧语音信号中的各帧语音信号进行傅里叶变换,获得各帧语音信号对应的频谱。
由于语音信号在时域上的变换通常很难看出语音信号的特性,所以通常将它转换为频域上的能量分布来观察,不同的能量分布,就能代表不同语音的特性,所以在乘上汉明窗后,每帧还必须再经过快速傅里叶变换以得到在频谱上的能量分布。对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧语音信息对应的频谱。
S213:将各帧语音信号对应的频谱进行梅尔滤波,获得得到梅尔频谱。
在获得各帧语音信号对应的频谱之后,对各帧语音信号的频谱取模平方得到多帧语音信号的功率谱,然后在多帧语音信号的功率谱上,通过梅尔滤波器进行滤波,获得得到梅尔频谱。
其中,梅尔滤波器为一组带有mel标度的三角形滤波器组,采用三角带通滤波器对频谱进行滤波有两个主要目的:对频谱进行平滑化,并消除谐波的作用,突显语音的共振峰;此外,还可以降低运算量。
S214:在梅尔频谱上进行倒谱分析,获得梅尔频率倒谱系数,倒谱分析包括对数运算和离散余弦变换。
在获得梅尔频谱之后,在梅尔频谱上进行倒谱分析,获得梅尔频率倒谱系数,其中,倒谱分析包括对数运算和离散余弦变换。先对梅尔频谱进行对数运算,使得每一帧语音特征就多了一维,包括一个对数能量和剩下的倒频谱参数。此外,若要加入其它语音特征以测试识别率,也可以在此阶段加入,这些常用的其它语音特征包含音高、过零率以及共振峰等。在对梅尔频谱件对数运算之后,进行离散余弦变换处理,即进行动态差分参数的提取(包括一阶差分和二阶差分),获得梅尔频率倒谱系数。标准的倒谱参数MFCC只反映了语音参数的静态特性,语音的动态特性可以用这些静态特征的差分谱来描述。实验证明:把动、静态特征结合起来才能有效提高系统的识别性能。
本实施例中,通过对待识别语音进行预处理以获得多帧语音信号,预处理包括预加重、分帧和加窗,然后对多帧语音信号中的各帧语音信号进行傅里叶变换,获得各帧语音信号对应的频谱,再将各帧语音信号对应的频谱进行梅尔滤波,获得得到梅尔频谱,最后在梅尔频谱上进行倒谱分析,获得梅尔频率倒谱系数,倒谱分析包括对数运算和离散余弦变换,明确了对待识别语音进行处理,以获得待识别语音的梅尔频率倒谱系数的具体过程,即明确了待识别语音的语音特征的获取过程,为后续语音特征验证提供了基础。
在一实施例中,如图7所示,步骤S30之前,即获取预设暗语的暗语注册信息之后,需要用户预先录入预设暗语并进行注册,然后根据用户录入的预设暗语进行处理,以获得预设暗语的暗语注册信息,具体地,预设暗语的暗语注册信息通过如下方式获取:
S01:接收到用户指令,并确定用户指令的类型。
用户在需要进行录入预设暗语时,打开用户终端上对应的app,并点击对应按钮或者图标以向用户终端输出用户指令,用户终端将用户指令发送至服务,服务器接收到用户指令之后,需要确定用户指令的类型。其中,用户指令的类型包括暗语注册指令和暗语更新指令。
S02:若用户指令的类型为暗语注册指令,则提示用户录入暗语语音进行滑动注册,以获得到符合注册条件的语音信息,作为用户的预设暗语。
在确定用户指令的类型之后,若用户指令的类型为暗语注册指令,表示用户需要进行暗语注册,服务器控制用户终端显示注册界面,并提示用户录入暗语语音进行滑动注册,当滑动到足够的有效帧的语音信息时,则获取到符合注册条件的语音信息,作为用户的预设暗语。
S03:对预设暗语进行处理,以获得预设暗语的暗语文本、暗语语音特征和暗语声纹特征。
在获取用户的预设暗语之后,对预设暗语进行处理,以获得预设暗语的暗语文本、暗语语音特征和暗语声纹特征。其中,获得预设暗语的暗语文本、暗语语音特征和暗语声纹特征的过程,与上述处理待识别语音以获得待识别语音的语音文本、语音特征和声纹特征的过程相同,在此不再赘述。
S04:将预设暗语的暗语文本、暗语语音特征和暗语声纹特征作为预设暗语的暗语注册信息,并与用户的声纹识别码一并存储至网约车平台的区块链数据库中。
在获得预设暗语的暗语文本、暗语语音特征和暗语声纹特征之后,需要根据暗语声纹特征确定用户的声纹识别码(uuid声纹),然后将预设暗语的暗语文本、暗语语音特征和暗语声纹特征作为预设暗语的暗语注册信息,并与用户的声纹识别码一并存储至网约车平台的区块链数据库中,以便后续用户需要进行网约车报警时调用。在服务器存储用户的暗语注册信息和声纹识别码之后,提示用户注册成功。
其中,在确定用户的uuid声纹之后,需要根据uuid声纹查询用户是否已经注册,若区块链数据库中已存在相同的uuid声纹,则表示用户意见注册,无需再次注册,则服务器提示用户已经注册并控制用户终端跳转到暗语更新页面,以提示用户可以进行暗语更新。本实施例可以通过uuid声纹确认用户是否注册,避免用户重复注册,造成系统紊乱。
本实施例中,通过接收到用户指令,并确定用户指令的类型,若用户指令的类型为暗语注册指令,则提示用户录入暗语语音进行滑动注册,以获得到符合注册条件的语音信息,作为用户的预设暗语,对预设暗语进行处理,以获得预设暗语的暗语文本、暗语语音特征和暗语声纹特征,将预设暗语的暗语文本、暗语语音特征和暗语声纹特征作为预设暗语的暗语注册信息,并与用户的声纹识别码一并存储至网约车平台的区块链数据库中,明确了预设暗语的暗语注册信息的具体获取过程,为后续的安全报警提供了基础。
在一实施例中,如图8所示,步骤S01之后,即确定用户指令的类型之后,所述方法还具体包括如下步骤:
S05:若用户指令的类型为暗语更新指令,则根据用户的声纹识别码确定用户是否为注册用户。
在确定用户指令的类型之后,若用户指令的类型为暗语更新指令,表示用户可能已注册,但需要更新预设暗语,则需要提示用户录入一段语音以确定用户的uuid声纹,并根据用户的确定用户是否为注册用户。若区块链数据库中已存在相同的uuid声纹,则表示用户已经注册,为注册用户,用户可以更新预设暗语。
S06:若用户为注册用户,则提示用户录入更新暗语语音进行滑动更新,以获得到符合更新条件的语音信息,作为用户的更新暗语。
在根据用户的uuid声纹确定用户是否为注册用户之后,若用户为注册用户,则服务器控制用户终端跳转到暗语更新页面,并提示用户录入更新暗语语音进行滑动更新,当滑动到语音的有效帧足够时,以获得到符合更新条件的语音信息,作为用户的更新暗语。
S07:对更新暗语进行处理,以获得更新暗语的暗语文本、暗语语音特征和暗语声纹特征。
在获取用户的更新暗语之后,对更新暗语进行处理,以获得更新暗语的暗语文本、暗语语音特征和暗语声纹特征。其中,获得更新暗语的暗语文本、暗语语音特征和暗语声纹特征的过程,与上述处理待识别语音以获得待识别语音的语音文本、语音特征和声纹特征的过程相同,在此不再赘述。
S08:删除区块链数据库中存储的用户的暗语注册信息,并将更新暗语的暗语文本、暗语语音特征和暗语声纹特征,更新为预设暗语的暗语注册信息。
在获得更新暗语的暗语文本、暗语语音特征和暗语声纹特征,需要删除区块链数据库中存储的用户的暗语注册信息,并将更新暗语的暗语文本、暗语语音特征和暗语声纹特征,更新为预设暗语的暗语注册信息,并提示用户更新成功。
本实施例中,在确定用户指令的类型之后,若用户指令的类型为暗语更新指令,则根据用户的声纹识别码确定用户是否为注册用户,若用户为注册用户,则提示用户录入更新暗语语音进行滑动更新,以获得到符合更新条件的语音信息,作为用户的更新暗语,对更新暗语进行处理,以获得更新暗语的暗语文本、暗语语音特征和暗语声纹特征,删除区块链数据库中存储的用户的暗语注册信息,并将更新暗语的暗语文本、暗语语音特征和暗语声纹特征,更新为预设暗语的暗语注册信息,提供了暗语更新功能,明确了用户对预设暗语进行更新的过程,可以让用户经常更新暗语,增加了预设暗语的安全性和隐蔽性,同时还提高了用户体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种网约车用户报警装置,该网约车用户报警装置与上述实施例中网约车用户报警方法一一对应。如图9所示,该网约车用户报警装置包括第一获取模块901、处理模块902、第二获取模块903、验证模块904和报警模块905。各功能模块详细说明如下:
第一获取模块901,用于获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
处理模块902,用于对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
第二获取模块903,用于获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
验证模块904,用于根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
报警模块905,用于若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
进一步地,所述验证模块904具体用于:
将所述待识别语音的语音特征和声纹特征作为待验证特征,并将所述暗语语音特征和暗语声纹特征作为注册特征;
确定所述待验证特征与所述注册特征是否匹配;
若所述待验证特征与所述注册特征是否匹配,则根据所述暗语文本计算所述待识别文本的字准确率;
确定所述待识别文本的字准确率是否处于预设范围内;
若所述待识别文本的字准确率处于预设范围内,则确定验证通过。
进一步地,所述处理模块902具体用于:
对所述待识别语音进行处理,以获得所述待识别语音的梅尔频率倒谱系数,作为所述待识别语音的语音特征;
对所述待识别语音进行声纹识别处理,以获得所述待识别语音的声纹特征;
将所述待识别语音转换为文本,以获取所述待识别语音的待识别文本。
进一步地,所述处理模块902具体还用于:
对所述待识别语音进行预处理以获得多帧语音信号,所述预处理包括预加重、分帧和加窗;
对所述多帧语音信号中的各帧语音信号进行傅里叶变换,获得所述各帧语音信号对应的频谱;
将所述各帧语音信号对应的频谱进行梅尔滤波,获得得到梅尔频谱;
在所述梅尔频谱上进行倒谱分析,获得所述梅尔频率倒谱系数,所述倒谱分析包括对数运算和离散余弦变换。
进一步地,所述第二获取模块902还具体用于:
接收到用户指令,并确定所述用户指令的类型;
若所述用户指令的类型为暗语注册指令,则提示所述用户录入暗语语音进行滑动注册,以获得到符合注册条件的语音信息,作为所述用户的预设暗语;
对所述预设暗语进行处理,以获得所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征;
将所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征作为所述预设暗语的暗语注册信息,并与所述用户的声纹识别码一并存储至所述网约车平台的区块链数据库中。
进一步地,所述确定所述用户指令的类型之后,所述第二获取模块902还具体用于:
若所述用户指令的类型为暗语更新指令,则根据所述用户的声纹识别码确定所述用户是否为注册用户;
若所述用户为注册用户,则提示所述用户录入更新暗语语音进行滑动更新,以获得到符合更新条件的语音信息,作为所述用户的更新暗语;
对所述更新暗语进行处理,以获得所述更新暗语的暗语文本、暗语语音特征和暗语声纹特征;
删除所述区块链数据库中存储的所述用户的暗语注册信息,并将所述更新暗语的暗语文本、暗语语音特征和暗语声纹特征,更新为所述预设暗语的暗语注册信息。
进一步地,所述报警模块905具体用于:
确定所述用户的身份信息和所述用户所在网约车的车辆信息,所述车辆信息包括驾驶员信息;
确定所述用户的位置信息,所述位置信息为对所述用户终端或者所述网约车进行定位获得的位置信息;
根据所述用户的身份信息、所述位置信息和所述驾驶员信息生成所述报警信息。
关于网约车用户报警装置的具体限定可以参见上文中对于网约车用户报警方法的限定,在此不再赘述。上述网约车用户报警装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储预设暗语的暗语注册信息、车辆信息、用户的身份信息和位置信息。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种网约车用户报警方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种网约车用户报警方法,其特征在于,包括:
获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
2.如权利要求1所述的网约车用户报警方法,其特征在于,所述根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本信息、语音特征和声纹特征进行验证,包括:
将所述待识别语音的语音特征和声纹特征作为待验证特征,并将所述暗语语音特征和暗语声纹特征作为注册特征;
确定所述待验证特征与所述注册特征是否匹配;
若所述待验证特征与所述注册特征匹配,则根据所述暗语文本计算所述待识别文本的字准确率;
确定所述待识别文本的字准确率是否处于预设范围内;
若所述待识别文本的字准确率处于预设范围内,则确定验证通过。
3.如权利要求1所述的网约车用户报警方法,其特征在于,所述对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征,包括:
对所述待识别语音进行处理,以获得所述待识别语音的梅尔频率倒谱系数,作为所述待识别语音的语音特征;
对所述待识别语音进行声纹识别处理,以获得所述待识别语音的声纹特征;
将所述待识别语音转换为文本,以获取所述待识别语音的待识别文本。
4.如权利要求3所述的网约车用户报警方法,其特征在于,所述对所述待识别语音进行处理,以获得所述待识别语音的梅尔频率倒谱系数,包括:
对所述待识别语音进行预处理以获得多帧语音信号,所述预处理包括预加重、分帧和加窗;
对所述多帧语音信号中的各帧语音信号进行傅里叶变换,获得所述各帧语音信号对应的频谱;
将所述各帧语音信号对应的频谱进行梅尔滤波,获得得到梅尔频谱;
在所述梅尔频谱上进行倒谱分析,获得所述梅尔频率倒谱系数,所述倒谱分析包括对数运算和离散余弦变换。
5.如权利要求1所述的网约车用户报警方法,其特征在于,所述预设暗语的暗语注册信息通过如下方式获取,包括:
接收到用户指令,并确定所述用户指令的类型;
若所述用户指令的类型为暗语注册指令,则提示所述用户录入暗语语音进行滑动注册,以获得到符合注册条件的语音信息,作为所述用户的预设暗语;
对所述预设暗语进行处理,以获得所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征;
将所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征作为所述预设暗语的暗语注册信息,并与所述用户的声纹识别码一并存储至所述网约车平台的区块链数据库中。
6.如权利要求5所述的网约车用户报警方法,其特征在于,所述确定所述用户指令的类型之后,所述方法还包括:
若所述用户指令的类型为暗语更新指令,则根据所述用户的声纹识别码确定所述用户是否为注册用户;
若所述用户为注册用户,则提示所述用户录入更新暗语语音进行滑动更新,以获得到符合更新条件的语音信息,作为所述用户的更新暗语;
对所述更新暗语进行处理,以获得所述更新暗语的暗语文本、暗语语音特征和暗语声纹特征;
删除所述区块链数据库中存储的所述用户的暗语注册信息,并将所述更新暗语的暗语文本、暗语语音特征和暗语声纹特征,更新为所述预设暗语的暗语注册信息。
7.如权利要求1-6任一项所述的网约车用户报警方法,其特征在于,所述生成所述用户对应的报警信息,包括:
确定所述用户的身份信息和所述用户所在网约车的车辆信息,所述车辆信息包括驾驶员信息;
确定所述用户的位置信息,所述位置信息为对所述用户终端或者所述网约车进行定位获得的位置信息;
根据所述用户的身份信息、所述位置信息和所述驾驶员信息生成所述报警信息。
8.一种网约车用户报警装置,其特征在于,包括:
第一获取模块,用于获取用户终端发送的与预设暗语对应的待识别语音,所述预设暗语为用户在网约车平台预先存储的用于触发报警的语音信息;
处理模块,用于对所述待识别语音进行处理,以获取所述待识别语音的待识别文本、语音特征和声纹特征;
第二获取模块,用于获取所述预设暗语的暗语注册信息,所述暗语注册信息包括所述预设暗语的暗语文本、暗语语音特征和暗语声纹特征,所述暗语注册信息存储于区块链数据库;
验证模块,用于根据所述暗语文本、暗语语音特征和暗语声纹特征,对所述待识别语音的待识别文本、语音特征和声纹特征进行验证;
报警模块,用于若验证通过,则生成所述用户对应的报警信息,并将所述报警信息发送至预设报警平台进行报警,所述报警信息包括所述用户的位置信息。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述网约车用户报警方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述网约车用户报警方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110604636.7A CN113345434A (zh) | 2021-05-31 | 2021-05-31 | 网约车用户报警方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110604636.7A CN113345434A (zh) | 2021-05-31 | 2021-05-31 | 网约车用户报警方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113345434A true CN113345434A (zh) | 2021-09-03 |
Family
ID=77473550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110604636.7A Pending CN113345434A (zh) | 2021-05-31 | 2021-05-31 | 网约车用户报警方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113345434A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115132188A (zh) * | 2022-09-02 | 2022-09-30 | 珠海翔翼航空技术有限公司 | 基于语音识别的预警方法、装置、终端设备及存储介质 |
CN115410601A (zh) * | 2022-11-01 | 2022-11-29 | 深圳市人马互动科技有限公司 | 人机对话场景中基于场景识别的语音交互方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105336094A (zh) * | 2015-10-29 | 2016-02-17 | 江西好帮手电子科技有限公司 | 一种基于暗语的车载报警方法及系统 |
CN107895576A (zh) * | 2017-11-10 | 2018-04-10 | 北京康力优蓝机器人科技有限公司 | 服务机器人的识别启动方法及装置 |
CN108766466A (zh) * | 2018-06-19 | 2018-11-06 | 河南孚点电子科技有限公司 | 一种基于语音信号报警的视频控制方法 |
CN109523747A (zh) * | 2018-12-10 | 2019-03-26 | 广州知弘科技有限公司 | 一种网络乘车的安全监控方法 |
CN111462448A (zh) * | 2020-05-20 | 2020-07-28 | 南京孝德智能科技有限公司 | 老人用的智能语音呼叫报警系统、方法及计算机可读介质 |
CN112550139A (zh) * | 2020-12-22 | 2021-03-26 | 东风汽车有限公司 | 汽车安全报警方法、存储介质及电子设备 |
CN112669820A (zh) * | 2020-12-16 | 2021-04-16 | 平安科技(深圳)有限公司 | 基于语音识别的考试作弊识别方法、装置及计算机设备 |
-
2021
- 2021-05-31 CN CN202110604636.7A patent/CN113345434A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105336094A (zh) * | 2015-10-29 | 2016-02-17 | 江西好帮手电子科技有限公司 | 一种基于暗语的车载报警方法及系统 |
CN107895576A (zh) * | 2017-11-10 | 2018-04-10 | 北京康力优蓝机器人科技有限公司 | 服务机器人的识别启动方法及装置 |
CN108766466A (zh) * | 2018-06-19 | 2018-11-06 | 河南孚点电子科技有限公司 | 一种基于语音信号报警的视频控制方法 |
CN109523747A (zh) * | 2018-12-10 | 2019-03-26 | 广州知弘科技有限公司 | 一种网络乘车的安全监控方法 |
CN111462448A (zh) * | 2020-05-20 | 2020-07-28 | 南京孝德智能科技有限公司 | 老人用的智能语音呼叫报警系统、方法及计算机可读介质 |
CN112669820A (zh) * | 2020-12-16 | 2021-04-16 | 平安科技(深圳)有限公司 | 基于语音识别的考试作弊识别方法、装置及计算机设备 |
CN112550139A (zh) * | 2020-12-22 | 2021-03-26 | 东风汽车有限公司 | 汽车安全报警方法、存储介质及电子设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115132188A (zh) * | 2022-09-02 | 2022-09-30 | 珠海翔翼航空技术有限公司 | 基于语音识别的预警方法、装置、终端设备及存储介质 |
CN115410601A (zh) * | 2022-11-01 | 2022-11-29 | 深圳市人马互动科技有限公司 | 人机对话场景中基于场景识别的语音交互方法 |
CN115410601B (zh) * | 2022-11-01 | 2022-12-30 | 深圳市人马互动科技有限公司 | 人机对话场景中基于场景识别的语音交互方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10476872B2 (en) | Joint speaker authentication and key phrase identification | |
AU2013203139B2 (en) | Voice authentication and speech recognition system and method | |
CN109243490A (zh) | 司机情绪识别方法及终端设备 | |
US20050096906A1 (en) | Method and system for verifying and enabling user access based on voice parameters | |
KR20210003307A (ko) | 심층신경망을 이용하는 종단 간 화자 인식 | |
AU2013203139A1 (en) | Voice authentication and speech recognition system and method | |
US9646613B2 (en) | Methods and systems for splitting a digital signal | |
CN113345434A (zh) | 网约车用户报警方法、装置、计算机设备及存储介质 | |
CN109473105A (zh) | 与文本无关的声纹验证方法、装置和计算机设备 | |
CN109462482B (zh) | 声纹识别方法、装置、电子设备及计算机可读存储介质 | |
CN110738998A (zh) | 基于语音的个人信用评估方法、装置、终端及存储介质 | |
US20190325880A1 (en) | System for text-dependent speaker recognition and method thereof | |
CN110379433A (zh) | 身份验证的方法、装置、计算机设备及存储介质 | |
Biagetti et al. | Speaker identification in noisy conditions using short sequences of speech frames | |
CN112951215A (zh) | 语音的智能客服回答方法、装置以及计算机设备 | |
CN112151016A (zh) | 一种保护隐私的语音交互系统及方法 | |
Isyanto et al. | Voice biometrics for Indonesian language users using algorithm of deep learning CNN residual and hybrid of DWT-MFCC extraction features | |
CN113436617B (zh) | 语音断句方法、装置、计算机设备及存储介质 | |
Kruthika et al. | Speech Processing and Analysis for Forensics and Cybercrime: A Systematic Review | |
CN113658599A (zh) | 基于语音识别的会议记录生成方法、装置、设备及介质 | |
CN110163630B (zh) | 产品监管方法、装置、计算机设备及存储介质 | |
CN113593580A (zh) | 一种声纹识别方法及装置 | |
Nguyen et al. | Vietnamese speaker authentication using deep models | |
Khanum et al. | A novel speaker identification system using feed forward neural networks | |
Muruganantham et al. | Biometric of speaker authentication using CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |