CN116206601A - 基于语音识别的点餐方法、装置、存储介质及电子设备 - Google Patents
基于语音识别的点餐方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116206601A CN116206601A CN202111446498.0A CN202111446498A CN116206601A CN 116206601 A CN116206601 A CN 116206601A CN 202111446498 A CN202111446498 A CN 202111446498A CN 116206601 A CN116206601 A CN 116206601A
- Authority
- CN
- China
- Prior art keywords
- dish
- names
- name
- user
- dishes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 88
- 230000000977 initiatory effect Effects 0.000 claims abstract description 12
- 238000004590 computer program Methods 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 15
- 235000013311 vegetables Nutrition 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 235000013305 food Nutrition 0.000 abstract description 10
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 241000251468 Actinopterygii Species 0.000 description 5
- 241000287828 Gallus gallus Species 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 235000007650 Aralia spinosa Nutrition 0.000 description 4
- 235000010149 Brassica rapa subsp chinensis Nutrition 0.000 description 4
- 235000000536 Brassica rapa subsp pekinensis Nutrition 0.000 description 4
- 241000499436 Brassica rapa subsp. pekinensis Species 0.000 description 4
- 241000949456 Zanthoxylum Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000000052 vinegar Substances 0.000 description 3
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 235000021419 vinegar Nutrition 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/12—Hotels or restaurants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供基于语音识别的点餐方法、装置、存储介质及电子设备。其中方法包括:获取开始点餐指令;响应所述开始点餐指令,以显示菜品列表供用户查看,并发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;获取第一菜品选择指令;响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;在接收用户确认目标菜品的指令后,生成点餐订单。本发明能够准确识别出用户所说的菜品并快读匹配,有利于提高语音点餐的效率。
Description
技术领域
本发明涉及语音点餐技术领域,特别是涉及基于语音识别的点餐方法、装置、存储介质及电子设备。
背景技术
随着语音技术的发展,语音交互已成为一种不可或缺的人机交互方式,很多智能设备都具备了这种语音交互能力,人们在与智能设备进行语音交互过程中,会经常遇到列表项选择的场景,目前大部分智能设备只支持用户说“第一个”类似的话术通过列表项索引来进行选择,有一部分智能设备还支持用户直接说列表项名称来进行选择,但会因为语音识别错误、列表项名称中包含无法说的字符或用户说了列表项中的部分内容而导致无法选中用户期望选中的列表项,这在通过语音点餐的场景下尤为突出。
在上述过程中,如果智能设备只支持用户通过列表项索引来进行选择,用户就需要时刻关注列表项的序号才能完成列表项选择操作,这在一些特殊情况下会给用户造成很大的麻烦:如在行车过程中会转移用户的视线,分散用户注意力,容易造成交通事故;如果智能设备只支持通过列表项名称全称来进行选择,用户也需要认真盯着屏幕说出全称,对于用户来说是一件更加难以做到的事情,用户同样也会遇到前一种情况下出现的问题;且如果对菜品名称的ASR识别错误的话,也会导致用户无法选中需要的菜品。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供基于语音识别的点餐方法、装置、存储介质及电子设备,用于解决现有技术中语音点餐效率较低的问题。
为实现上述目的及其他相关目的,本发明提供一种基于语音识别的点餐方法,包括以下步骤:获取开始点餐指令;响应所述开始点餐指令,以显示菜品列表供用户查看,并发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;获取第一菜品选择指令;响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;在接收用户确认目标菜品的指令后,生成点餐订单。
于本发明一实施例中,所述发起对所述菜品列表中各菜品名称的临时训练的步骤包括:获取全部或当前页面的菜品名称;去除各所述菜品名称中的特殊字符;将去除特殊字符后的各所述菜品名称分别进行分词处理;其中,每一所述菜品名称的分词包括菜品的全名和部分名称。
于本发明一实施例中,在所述将去除特殊字符后的各所述菜品名称分别进行分词处理的步骤之后,进行所述语音识别临时训练,包括以下步骤:基于各所述菜品名称及其菜名分词临时训练ASR识别引擎。
于本发明一实施例中,在所述将去除特殊字符后的各所述菜品名称分别进行分词处理的步骤之后,进行所述语义理解临时训练,包括以下步骤:基于各所述菜品名称及其菜名分词临时训练NLP服务模型。
于本发明一实施例中,所述基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称的步骤包括:基于所述临时训练的结果,识别所述第一菜品选择指令的菜品名称;将识别得到的菜品名称与所述菜品列表中的各菜品名称进行匹配,得到至少一个匹配成功的结果并予以显示。
于本发明一实施例中,所述得到至少一个匹配成功的结果并予以显示的步骤包括:若识别得到的菜品名称与所述菜品列表中的一菜品名称完全或部分匹配,则显示一个菜品名称;若识别得到的菜品名称与所述菜品列表中的至少两个菜品名称部分匹配,则显示至少两个菜品名称。
于本发明一实施例中,在所述显示至少两个菜品名称的步骤之后,所述方法还包括:获取第二菜品选择指令;基于所述第二菜品选择指令,从所述至少两个菜品名称中选出一匹配所述第二菜品选择指令的菜品名称,并予以显示。
于本发明一实施例中,在所述生成点餐订单的步骤之后,所述方法还包括:获取支付指令并进行支付,以完成点餐。
为实现上述目的及其他相关目的,本发明提供一种基于语音识别的点餐装置,包括:指令获取模块,用于获取开始点餐指令;获取第一菜品选择指令;菜品显示模块,用于响应所述开始点餐指令,以显示菜品列表供用户查看;响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;训练发起模块,用于发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;订单生成模块,用于在接收用户确认目标菜品的指令后,生成点餐订单。
为实现上述目的及其他相关目的,本发明提供一种计算机可读存储介质,其中存储有计算机程序,所述计算机程序被处理器加载执行时,实现如上任一所述的基于语音识别的点餐方法。
为实现上述目的及其他相关目的,本发明提供一种电子设备,包括:处理器及存储器;其中,所述存储器用于存储计算机程序;所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如上任一所述的基于语音识别的点餐方法。
如上所述,本发明的基于语音识别的点餐方法、装置、存储介质及电子设备,通过临时训练生成了专属于点餐的识别模型,利用该模型可以准确、快速地识别用户语音、理解用户意图,方便用户能够高效地实现网上点餐,减少点餐时间、提升点餐体验。
附图说明
图1显示为本发明一实施例中基于语音识别的点餐方法的流程示意图。
图2显示为本发明一实施例中临时训练实现方式的流程示意图。
图3显示为本发明另一实施例中基于语音识别的点餐方法的流程示意图。
图4显示为本发明一实施例中基于语音识别的点餐装置的模块示意图。
图5显示为本发明一实施例中电子设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图示中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
鉴于现有技术中语音点餐效率较低的问题,本申请提供一种基于语音识别的点餐方法,如图1所示,包括以下步骤:
S11:获取开始点餐指令;
S12:响应所述开始点餐指令,以显示菜品列表供用户查看,并发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;
S13:获取第一菜品选择指令;
S14:响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;
S15:在接收用户确认目标菜品的指令后,生成点餐订单。
以下将对本申请的基于语音识别的点餐方法做详细介绍。
步骤S11获取开始点餐指令。具体的,用户可以通过语音或触屏等方式向电子设备下达开始点餐的指令,执行本步骤的电子设备在收到用户发起的点餐指令后开启点餐流程。
步骤S12响应所述开始点餐指令,以显示菜品列表供用户查看,并发起对所述菜品列表中各菜品名称的临时训练。
详细而言,执行步骤S12的电子设备在获取开始点餐的指令后,将菜品列表显示在屏幕中,并且,发起对所述菜品列表中各菜品名称的临时训练,所述临时训练包括:语音识别临时训练和/或语义理解临时训练。
临时训练的目的在于形成点餐专属的语音识别模型,形成专属语音识别模型的优点在于不会影响电子设备原本采用的语音识别模型在其它应用场景下对通用词语的语音识别效果。比如,点餐时菜名的“辣鸡”和其它场景下的“垃圾”发音相似但不是指代同一个东西,若对电子设备原本采用的语音识别模型进行点餐场景的语音识别训练,则训练后的模型可能在识别非点餐场景的通用词语时会产生偏差。本申请的临时训练后的语音识别模型可以很好地避免发音相近的词汇在点餐场景与非点餐场景下被误以为是同一个东西的问题,有利于在点餐这一短暂性的行为中提高对菜品的识别准确率,同时,又不会影响电子设备原本采用的语音识别模型对通用词语的识别效果。
参见图2,以下将详细介绍本申请中临时训练的实现步骤,包括:
S21,获取全部或当前页面的菜品名称;
举例而言,菜品列表中总共包含100个纵向列出的菜品名称,这100个菜品名称被分成10页进行显示,每页显示10个菜品名称,执行本步骤的电子设备可以一次性获取这100个菜品名称进行临时训练,或者,每次仅获取当前页所显示的10个菜品名称来进行临时训练,比如:在用户查看第一页时获取第一页所显示的10个菜品名称来进行临时训练,在用户查看第十页时获取第十页所显示的10个菜品名称来进行临时训练等。通常情况下,用户点餐时会从当前页面中选择其中一个菜品名称,故利用用户正在查看的当前页的菜品名称进行临时训练所得到的训练结果会更加有利于准确识别出用户想要选择的目标菜品。
S22,去除各所述菜品名称中的特殊字符;
有些商家为了吸引顾客注意会在菜品名称中加入特殊字符,如外文字符、表情符号、拼音字符、数学符号等等。然而,在实际点餐的场景中,用户通常不认识这些特殊字符,或者认识也不知道它们的名称,难以用语言准确地说出这些特殊字符的名字,故这些特殊字符对电子设备识别目标菜品而言较无帮助。因此,在一实施例中,可在获取全部或当前页面的菜品名称后,将菜品名称中的特殊字符去除,无需将这些特殊字符加入到临时训练中。
S23,将去除特殊字符后的各所述菜品名称分别进行分词处理;其中,每一所述菜品名称的分词包括菜品的全名和部分名称。举例而言,菜品名称“青花椒酸菜鱼”被进行分词处理后得到的分词包括“青花椒酸菜鱼”、“花椒酸菜鱼”、“酸菜鱼”,在这些分词中“青花椒酸菜鱼”包括菜品的全名,而“花椒酸菜鱼”、“酸菜鱼”分别仅包含了该菜品的一部分名称。
S24,利用获得的菜品名称及其相应的分词进行临时训练,该临时训练也可称为一次性的训练,包括:语音识别临时训练和/或语义理解临时训练。
具体的,所述语音识别临时训练,即基于各所述菜品名称及其菜名分词临时训练ASR识别引擎。训练后的所述ASR识别引擎能够准确地识别出用户选择菜品的语音指令,从而提高对用户点餐语音的识别效率。比如,用户语音为“wo yao dian yi fen la ji”,训练后的ASR识别引擎可以准确地识别该用户语音并生成文本“我要点一份辣鸡”,而不是识别成“我要点一份垃圾”等其它发音相近的文本。
具体的,所述语义理解临时训练,即基于各所述菜品名称及其菜名分词临时训练NLP服务模型,该临时训练更新了NLP模型可理解的菜品范围。训练后的所述NLP服务模型能够从ASR识别生成的文本中准确地提取出菜名分词,从而准确地理解用户意图。
需说明的是,通常情况下,利用菜品的全名进行训练的难度大于利用菜品的部分名称进行训练的难度,例如,利用“青花椒酸菜鱼”进行训练的难度大于利用“酸菜鱼”进行训练的难度。若希望提高临时训练的速度,可优先选择利用菜品的部分名称进行训练。本领域技术人员可根据需要加以选择,本申请对此不做限定。
步骤S13获取第一菜品选择指令。具体的,用户说出想要选择的菜品名称,执行本步骤的电子设备获取该语音信息,即第一菜品选择指令,如“wo yao dian yi fen la ji”。
步骤S14响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认。
较佳的,执行本步骤的电子设备先利用训练后的识别ASR识别引擎识别所述第一菜品选择指令,如“我要点一份辣鸡”,再利用训练后的NLP服务模型识别用户意图,并从中提取出菜名分词“辣鸡”。
随后,执行本步骤的电子设备将得到的菜名分词,如“辣鸡”,与所述菜品列表中的各菜品名称进行匹配,从而得到至少一个匹配成功的结果并予以显示。
具体地,若识别得到的菜名分词与所述菜品列表中的一菜品名称完全或部分匹配,则显示一个菜品名称。比如,菜名分词为“酸菜鱼”,其只与菜品列表中的“酸菜鱼”完全匹配,则仅在屏幕中显示一个菜品名称,即“酸菜鱼”;又比如,菜名分词为“排骨”,其只与菜品列表中的“糖醋排骨”部分匹配,则仅在屏幕中显示一个菜品名称,即“糖醋排骨”。此外,若菜名分词与所述菜品列表中的至少两个菜品名称部分匹配,则显示至少两个菜品名称。比如,菜名分词为“排骨”,其与菜品列表中的“糖醋排骨”、“红烧排骨”都是部分匹配,那么,则在屏幕中同时显示“糖醋排骨”和“红烧排骨”这两个菜品名称,再让用户做最终的选择。
承接上述,电子设备在所述显示至少两个菜品名称的步骤之后,还执行以下步骤:获取第二菜品选择指令;基于所述第二菜品选择指令,从所述至少两个菜品名称中选出一匹配所述第二菜品选择指令的菜品名称,并予以显示。
承接上述举例,用户在做最终的选择时说出“糖醋排骨”和“红烧排骨”中的一个菜品名称,电子设备利用训练后的ASR识别引擎对该用户语音进行语音识别,从而确定用户选择的菜品名称是“糖醋排骨”或“红烧排骨”,并将用户最终的选择进行显示。
步骤S15在接收用户确认目标菜品的指令后,生成点餐订单。
具体的,用户可通过语音或触屏等方式发出确认信息,执行本步骤的电子设备在收到用户确认指令后生成点餐订单,并提示让用户付款。在获取用户发出的支付指令后提供微信、支付宝等付款方式供用户进行网上支付,从而完成点餐流程。
需要说明的是,本申请不对以上每个步骤的执行主体加以限定。在实际应用中,每个步骤可以由单独的电子设备负责执行,或者一个电子设备执行某一步骤的一部分,又或者,一个电子设备执行多个步骤。
如图3所示,显示为语音客户端、语音云端服务、ASR识别引擎、NLU服务共同协作以实现本申请方法的实施例。
于本实施例中,用户驾驶的车辆车机中包含语音交互系统,且已经通过WIFI或者4G连接网络。用户通过语音交互系统进行点餐,选择自己中意的店铺后系统显示菜品列表。用户快速浏览菜品或直接通过记忆中的菜品名称进行菜品选择,系统能够准确识别菜品名称,并完成菜品选择的操作。用户确认最终菜品后完成下单支付,从而完成点餐。详细流程阐述如下:
a)用户通过语音向语音客户端发起点餐;
b)语音客户端向语音云端服务获取菜品列表,并将其显示在车机屏幕中;
c)语音客户端获取车机当前显示的菜品列表,并将其上传至语音云端服务;此外,车机显示的菜品列表会随用户翻页而发生变化,语音客户端在每次检测到显示的菜品列表发生变化时,会将变化后的菜品列表上传至语音云端服务;
d)语音云端服务在接收菜品列表之后,先去除每个菜品名称中的特殊符号,再对每个菜品名称进行分词处理,并保留处理结果;
e)语音云端服务将处理后的菜品名称及其分词全部提交给ASR识别引擎进行临时训练,训练后的ASR识别引擎可准确识别用户点餐时的语音并生成语音文本;
f)语音云端服务将处理后的菜品名称及其分词全部提交给NLP服务进行临时训练,该临时训练即更新了NLP模型可识别的菜品范围,训练后的NLP模型可准确理解用户意图、快速地提取菜名分词;
g)用户通过语音向语音客户端下达选择某一菜品的指令;用户可通过菜品全称或菜品部分名称(不含特殊符号)进行菜品选择;
h)语音云端服务先通过训练强化后的ASR识别引擎对用户语音进行识别,再通过强化后的NLP服务模型进行语义理解,得到从用户语音中提取的菜名分词;
i)语音云端服务将该菜名分词与菜品列表中的菜品名称进行匹配;其中:
如果匹配结果为菜品列表中只有一个菜品名称完全或部分地包含了NLP服务模型提取出的菜品分词,则直接返回选中该菜品的处理结果;
如果匹配结果为菜品列表中有两个或两个以上的菜品名称与NLP服务提取出的菜品分词部分匹配,则将这两个或两个以上的菜品名称形成筛选列表,显示于界面,供用户进一步选择,可返回步骤g)重复之后的流程;除此之外,用户如需继续选择菜品,则重复步骤g之后的流程;
j)用户确认所点菜品后下单支付,完成整个点餐流程。
参阅图4,本实施例提供一种基于语音识别的点餐装置400,由于本实施例的技术原理与前述方法实施例的技术原理相似,因而不再对同样的技术细节做重复性赘述。本实施例的基于语音识别的点餐装置400包括如下模块:指令获取模块401、菜品显示模块402、训练发起模块403、订单生成模块404。
指令获取模块401,用于获取开始点餐指令;获取第一菜品选择指令;
菜品显示模块402,用于响应所述开始点餐指令,以显示菜品列表供用户查看;响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;
训练发起模块403,用于发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;
订单生成模块404,用于在接收用户确认目标菜品的指令后,生成点餐订单。可选的,在所述生成点餐订单之后,订单生成模块404还用于:获取支付指令并进行支付,以完成点餐。
本领域技术人员应当理解,图4实施例中的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个或多个物理实体上。且这些模块可以全部以软件通过处理元件调用的形式实现,也可以全部以硬件的形式实现,还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。
如图5所示,本申请还提供一种电子设备,所述电子设备为智能手机、平板电脑、便携式电脑、台式机、车机、智能电视等,用以执行前述实施例介绍的方法。
图5显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。如图5所示,电子设备以通用计算设备的形式表现,其组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
该电子设备典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备也可以与一个或多个外部设备14(例如键盘、扬声器、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备交互的设备通信,和/或与使得该电子设备能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与电子设备的其它模块通信。应当明白,尽管图中未示出,可以结合该电子设备使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
所属技术领域的技术人员知道,本发明的各个方面可以实现为系统、方法或计算机程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、驻留软件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。此外,在一些实施例中,本发明的各个方面还可以实现为在一个或多个计算机可读介质中的计算机程序产品的形式,该计算机可读介质中包含计算机可读的程序代码。
可以采用一个或多个计算机可读介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
应当理解,本发明的方法都可以由计算机程序指令实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些计算机程序指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。
也可以把这些计算机程序指令存储在计算机可读介质中,这些指令使得计算机、其它可编程数据处理装置、或其他设备以特定方式工作,从而,存储在计算机可读介质中的指令就产生出包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的指令的制造品(article of manufacture)。
也可以把计算机程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机或其它可编程装置上执行的指令提供实现流程图和/或框图中的一个或多个方框中规定的功能/动作的过程。
综上,本发明的基于语音识别的点餐方法、装置、存储介质及电子设备,能够准确识别出用户所说的菜品并进行快速匹配,有利于提高语音点餐的效率,克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (11)
1.一种基于语音识别的点餐方法,其特征在于,包括以下步骤:
获取开始点餐指令;
响应所述开始点餐指令,以显示菜品列表供用户查看,并发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;
获取第一菜品选择指令;
响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;
在接收用户确认目标菜品的指令后,生成点餐订单。
2.根据权利要求1所述的方法,其中,所述发起对所述菜品列表中各菜品名称的临时训练的步骤包括:
获取全部或当前页面的菜品名称;
去除各所述菜品名称中的特殊字符;
将去除特殊字符后的各所述菜品名称分别进行分词处理;其中,每一所述菜品名称的分词包括菜品的全名和部分名称。
3.根据权利要求2所述的方法,其中,在所述将去除特殊字符后的各所述菜品名称分别进行分词处理的步骤之后,进行所述语音识别临时训练,包括以下步骤:
基于各所述菜品名称及其菜名分词临时训练ASR识别引擎。
4.根据权利要求2所述的方法,其中,在所述将去除特殊字符后的各所述菜品名称分别进行分词处理的步骤之后,进行所述语义理解临时训练,包括以下步骤:
基于各所述菜品名称及其菜名分词临时训练NLP服务模型。
5.根据权利要求1所述的方法,其中,所述基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称的步骤包括:
基于所述临时训练的结果,识别所述第一菜品选择指令的菜品名称;
将识别得到的菜品名称与所述菜品列表中的各菜品名称进行匹配,得到至少一个匹配成功的结果并予以显示。
6.根据权利要求5所述的方法,其中,所述得到至少一个匹配成功的结果并予以显示的步骤包括:
若识别得到的菜品名称与所述菜品列表中的一菜品名称完全或部分匹配,则显示一个菜品名称;
若识别得到的菜品名称与所述菜品列表中的至少两个菜品名称部分匹配,则显示至少两个菜品名称。
7.根据权利要求6所述的方法,其中,在所述显示至少两个菜品名称的步骤之后,所述方法还包括:
获取第二菜品选择指令;
基于所述第二菜品选择指令,从所述至少两个菜品名称中选出一匹配所述第二菜品选择指令的菜品名称,并予以显示。
8.根据权利要求1所述的方法,其中,在所述生成点餐订单的步骤之后,所述方法还包括:获取支付指令并进行支付,以完成点餐。
9.一种基于语音识别的点餐装置,其特征在于,包括:
指令获取模块,用于获取开始点餐指令;获取第一菜品选择指令;
菜品显示模块,用于响应所述开始点餐指令,以显示菜品列表供用户查看;响应所述第一菜品选择指令,以基于所述临时训练的结果,显示至少一个匹配所述第一菜品选择指令的菜品名称供用户确认;
训练发起模块,用于发起对所述菜品列表中各菜品名称的临时训练;所述临时训练包括:语音识别临时训练和/或语义理解临时训练;
订单生成模块,用于在接收用户确认目标菜品的指令后,生成点餐订单。
10.一种计算机可读存储介质,其中存储有计算机程序,其特征在于,所述计算机程序被处理器加载执行时,实现如权利要求1至8中任一所述的基于语音识别的点餐方法。
11.一种电子设备,其特征在于,包括:处理器及存储器;其中,
所述存储器用于存储计算机程序;
所述处理器用于加载执行所述计算机程序,以使所述电子设备执行如权利要求1至8中任一所述的基于语音识别的点餐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111446498.0A CN116206601A (zh) | 2021-11-30 | 2021-11-30 | 基于语音识别的点餐方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111446498.0A CN116206601A (zh) | 2021-11-30 | 2021-11-30 | 基于语音识别的点餐方法、装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116206601A true CN116206601A (zh) | 2023-06-02 |
Family
ID=86508181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111446498.0A Pending CN116206601A (zh) | 2021-11-30 | 2021-11-30 | 基于语音识别的点餐方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116206601A (zh) |
-
2021
- 2021-11-30 CN CN202111446498.0A patent/CN116206601A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823659B2 (en) | Speech recognition through disambiguation feedback | |
US12067986B2 (en) | Embedded instructions for voice user interface | |
US11227585B2 (en) | Intent re-ranker | |
KR101909807B1 (ko) | 메시지 입력 방법 및 장치 | |
US11004444B2 (en) | Systems and methods for enhancing user experience by communicating transient errors | |
US8452602B1 (en) | Structuring verbal commands to allow concatenation in a voice interface in a mobile device | |
CN109348275B (zh) | 视频处理方法和装置 | |
JP6507316B2 (ja) | 外部データソースを用いた音声の再認識 | |
US10755702B2 (en) | Multiple parallel dialogs in smart phone applications | |
EP4235369A2 (en) | Modality learning on mobile devices | |
US11328708B2 (en) | Speech error-correction method, device and storage medium | |
US20160019816A1 (en) | Language Learning Tool | |
CN111666380A (zh) | 一种智能呼叫方法、装置、设备和介质 | |
JP2019528470A (ja) | 訂正済みタームを使用する音響モデルトレーニング | |
CN109947924B (zh) | 对话系统训练数据构建方法、装置、电子设备及存储介质 | |
US20210166687A1 (en) | Terminal device, server and controlling method thereof | |
JP2018063271A (ja) | 音声対話装置、音声対話システム、および、音声対話装置の制御方法 | |
CN111916062A (zh) | 语音识别方法、装置和系统 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
WO2024114389A1 (zh) | 用于交互的方法、装置、设备和存储介质 | |
CN106896936B (zh) | 词汇推送方法和装置 | |
CN112639796B (zh) | 具有音频反馈和词完成的多字符文本输入系统 | |
CN109144284B (zh) | 信息显示方法和装置 | |
CN114758649B (zh) | 一种语音识别方法、装置、设备和介质 | |
CN112542163A (zh) | 智能语音交互方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |