CN111639217A - 一种口语评级方法、终端设备及存储介质 - Google Patents
一种口语评级方法、终端设备及存储介质 Download PDFInfo
- Publication number
- CN111639217A CN111639217A CN202010396319.6A CN202010396319A CN111639217A CN 111639217 A CN111639217 A CN 111639217A CN 202010396319 A CN202010396319 A CN 202010396319A CN 111639217 A CN111639217 A CN 111639217A
- Authority
- CN
- China
- Prior art keywords
- sentence
- spoken language
- spoken
- matching degree
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 181
- 230000011218 segmentation Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Computational Linguistics (AREA)
- Educational Technology (AREA)
- Artificial Intelligence (AREA)
- Tourism & Hospitality (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种口语评级方法、终端设备及存储介质,该方法包括:获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句;输出所述第二参考语句,并获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。这样,用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句和第一参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句。
Description
技术领域
本申请涉及语音识别技术领域,尤其涉及一种口语评级方法、终端设备及存储介质。
背景技术
目前,free talk(自由讨论)作为英语课堂教学中常见的一种教学形式,其可以利用上课期间的几分钟时间让学生自由对话,实现了基于教材中的各类话题进行知识的拓展和延伸。但是,现有的free talk过程中需要人工确定自由对话的内容是否准确,从而降低了free talk的应用性。
发明内容
本申请实施例提供了一种口语评级方法、终端设备及存储介质,终端设备通过将第一语种的第一参考语句转换为第二语种的第二参考语句,并输出第二参考语句,使得用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句和第一参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句。
根据本申请实施例的第一方面,提供一种口语评级方法,包括:
获取第一语种的第一参考语句,以及将所述第一参考语句转化为第二语种的第二参考语句;
输出所述第二参考语句,并获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;
根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
在本申请的可选实施例中,所述根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级,包括:
获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;
根据所述第一匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,还包括:
获取所述第一参考语句对应不同表达方式的第三参考语句;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第三参考语句之间的第二匹配度;
所述根据所述第一匹配度对所述口语训练语句进行评级,包括:
根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,所述根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级,包括:
从所述第一匹配度和所述第二匹配度中获取最大匹配度;
根据预设评级对应关系,确定所述最大匹配度所属的目标匹配度范围对应的目标评级结果,所述预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
在本申请的可选实施例中,还包括:
当所述口语训练语句的目标评级结果满足预设指令识别条件时,获取所述口语训练语句中的指令语句信息;
执行所述指令语句信息指示的指令操作。
在本申请的可选实施例中,还包括:
当所述口语训练语句的目标评级结果不满足预设指令识别条件时,输出所述第一参考语句;或者,输出所述第一参考语句和所述口语训练语句。
根据本申请实施例的第二方面,提供一种终端设备,包括:
获取模块,用于获取第一语种的第一参考语句,以及将所述第一参考语句转化为第二语种的第二参考语句;
输出模块,用于输出所述第二参考语句;
获取模块,还用于获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;处理模块,用于根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
在本申请的可选实施例中,所述处理模块,进一步用于获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;
根据所述第一匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,所述获取模块,还用于获取所述第一参考语句对应不同表达方式的第三参考语句;以及,
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第三参考语句之间的第二匹配度;
所述处理模块,进一步用于根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,所述处理模块,进一步用于从所述第一匹配度和所述第二匹配度中获取最大匹配度;以及,
根据预设评级对应关系,确定所述最大匹配度所属的目标匹配度范围对应的目标评级结果,所述预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
在本申请的可选实施例中,所述获取模块,还用于当所述口语训练语句的目标评级结果满足预设指令识别条件时,获取所述口语训练语句中的指令语句信息;
所述处理模块,还用于执行所述指令语句信息指示的指令操作。
在本申请的可选实施例中,所述输出模块,还用于当所述口语训练语句的目标评级结果不满足预设指令识别条件时,输出所述第一参考语句;或者,输出所述第一参考语句和所述口语训练语句。
根据本申请实施例的第三方面,提供一种终端设备,包括处理器和存储器,所述处理器和存储器耦合,所述存储器用于存储计算机程序指令,当所述处理器执行所述计算机程序指令时,使得终端设备执行上述第一方面所述的口语评级方法。
根据本申请实施例的第四方面,提供一种计算机存储介质,所述计算机存储介质中存储有程序指令,当所述程序指令在终端设备上运行时,使得终端设备执行上述第一方面所述的口语评级方法。
根据本申请实施例的第五方面,提供一种芯片,所述芯片与终端设备中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,使得所述终端设备执行上述第一方面所述的口语评级方法。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请中获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句;输出所述第二参考语句,并获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
可见,终端设备通过将第一语种的第一参考语句转换为第二语种的第二参考语句,并输出第二参考语句,使得用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句和第一参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例和现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的第一种口语评级方法的流程示意图;
图2为本申请实施例提供的第二种口语评级方法的流程示意图;
图3为本申请实施例提供的第三种口语评级方法的流程示意图;
图4为本申请实施例提供的第四种口语评级方法的流程示意图;
图5为本申请实施例提供的一种终端设备的结构框图;
图6为本申请实施例提供的另一种终端设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,都应当属于本申请保护的范围。
下面对本申请实施例公开的口语评级方法进行详细介绍。
图1为本申请实施例提供的一种口语评级方法的流程示意图。所述方法可以应用于终端设备,示例性的,该终端设备可以包括手机、平板电脑、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、手持计算机、上网本、个人数字助理(personal digital assistant,PDA)、可穿戴设备(如手表、手腕、眼镜、头盔、头带等)等,本申请实施例对终端设备的具体形式不做特殊限制。
如图1所示,所述方法包括:
101、获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句。
可以理解的是,第一语种和第二语种为不同语种。例如,第一语种和第二语种可以为汉语、英语、法语、俄语、阿拉伯语与西班牙语等中的一种语种。
示例性的,第一语种可以为中文,第二语种可以为英文;或者,第一语种可以为英文,第二语种可以为中文,等等。
应理解,由于终端设备中安装有语种转换程序,故本步骤可以通过调用语种转换程序将第一参考语句转换为第二语种的第二参考语句。
在本申请的可选实施例中,终端设备中可以预先安装有口语训练程序,并且用户需要在口语训练程序中进行账户注册。其中,用户在账户注册的过程中需要输入账户相关信息。例如,账户相关信息可以包括账户标识、账户所属的年级、账户所在的地理位置、账户当前的学习进程等中的至少一种信息。这样,终端设备可以根据账户相关信息获取第一参考语句。
示例性的,终端设备可以根据账户所属的年级获取相应的教材信息;并根据账户当前的学习进程,从教材信息中获取待学习知识点的候选参考语句;接着可以从候选参考语句中获取第一参考语句。比如可以按照候选参考语句在教材信息中的教学优先级,获取第一参考语句,即可以将最高教学优先级的候选参考语句作为第一参考语句,其中,候选参考语句中设置有对应的教学优先级。
需要说明的是,当检测到待学习知识点中的候选参考语句全部学习完成后,可以将待学习知识点标记为已学习状态。需要说明的是,待学习知识点中的候选参考语句全部学习完成可以理解为:终端设备获取到候选参考语句对应的口语训练语句,或者;终端设备获取到候选参考语句对应的口语训练语句,且获取到的候选参考语句对应的口语训练语句的评级结果满足预设评级条件。示例性的,预设评级条件可以与步骤104中的预设指令识别条件相同,此处不再赘述。
102、输出第二参考语句,并获取第一语种的口语训练语句,口语训练语句与第二参考语句存在对应关系。
其中,口语训练语句为用户根据输出的第二参考语句输入的语句。
可以理解的是,终端设备可以将第二参考语句按照音频形式播放;或者,将第二参考语句按照文本形式展示;或者,将第二参考语句按照音频形式播放,以及按照文本形式展示。
应理解,由于用户在进行口语评级的过程中,可能存在注意力不集中,或者用户短暂离开等情况,从而导致用户漏听第二参考语句。在本申请实施例中,可以通过但不限于以下方式避免用户漏听:
方式一、终端设备可以在输出第二参考语句之前,输出提醒消息。示例性的,提醒消息可以为预设铃声、预设震动频率以及预设闪光灯中的至少一种。
可选地,在第一预设时间段内检测到用户对提醒消息的终止操作的情况下,输出第一参考语句;在第一预设时间段内未检测到用户对提醒消息的终止操作的情况下,终止流程。第一预设时间段的起始时刻可以为输出提醒消息的起始时刻。
方式二、终端设备中内置有摄像头,终端设备可以在输出第二参考语句之前,通过摄像头采集当前图像,并检测当前图像中是否存在目标对象,目标对象可以为终端设备所属的用户。若当前图像中存在目标对象,则输出第二参考语句;若当前图像中不存在目标对象,则继续通过摄像头采集新的图像,直至新的图像中存在目标对象。
方式三、终端设备中内置有人体检测传感器,终端设备可以通过人体检测传感器检测终端设备的预设位置范围内是否存在人体,若存在人体,则输出第二参考语句;若不存在人体,则继续通过人体检测传感器检测终端设备的预设位置范围内是否存在人体,直至检测到人体。
应理解,由于本申请需要对口语评级,故终端设备在第二预设时间段内检测是否存在语音输入的口语训练语句,第二预设时间段的起始时刻可以为输出第二参考语句的时刻。这样,可以避免终端设备的麦克风长期处于开启状态导致的电量损耗较大的问题。
进一步地,考虑到通过终端设备的麦克风采集第二预设时间段内的音频信息的过程中,音频信息中可能掺杂有噪声,故终端设备需要对音频信息进行去噪处理得到口语训练语句。
103、根据口语训练语句与第一参考语句,对口语训练语句进行评级。
在本申请实施例中,终端设备获取口语训练语句中的目标分词以及目标分词的目标位置信息;接着根据目标分词和目标位置信息,获取口语训练语句与第一参考语句之间的第一匹配度;然后根据第一匹配度对口语训练语句进行评级。
可选地,若第一语种为英文,则可以将口语训练语句中的单词作为目标分词;或者,在口语训练语句中存在词组的情况下,将口语训练语句中的词组作为目标分词,以及将口语训练语句中除词组外的单词均作为目标分词。
可选地,若第一语种为中文,则可以将口语训练语句中的每个词语作为目标分词,等等。
可以理解的是,本申请可以预先对目标分词和目标位置信息设置有对应的评级权重,即可以对目标分词设置第一评级权重,对目标位置信息设置第二评级权重。并且,本申请同样可以获取第一参考语句中的参考分词以及参考分词的参考位置信息;并获取参考分词与目标分词之间的分词匹配度,以及获取每个同一分词分别对应的参考位置信息和目标位置信息之间的位置匹配度,同一分词可以为参考分词与目标分词二者共同存在的分词;接着计算第一评级权重和分词匹配度之间的乘积得到分词评估值,根据第二评级权重和位置匹配度获取位置评估值;最后根据位置评估值和分词评估值获取口语训练语句的目标评级结果。
其中,第一评级权重与第二评级权重之间的和值可以为1。
应理解,获取参考分词与目标分词之间的分词匹配度可以包括:获取同一分词的第一总数量,且获取参考分词的第二数量,并计算第一数量与第二数量之间的比值得到分词匹配度。
获取每个同一分词分别对应的参考位置信息和目标位置信息之间的位置匹配度可以包括:若某个同一分词分别对应的参考位置信息和目标位置信息不同,则某个同一分词的位置匹配度可以为第一数值(例如0);若某个同一分词分别对应的参考位置信息和目标位置信息相同,则某个同一分词的位置匹配度可以为第二数值(例如1)。这样,可以获取到每个同一分词的位置匹配度。
根据第二评级权重和位置匹配度获取位置评估值可以包括:计算全部同一分词的位置匹配度之间的和值得到位置匹配度和值,并计算位置匹配度和值与同一分词的第一总数量之间的比值得到目标位置匹配度,接着计算目标匹配度与第二评级权重之间的乘积得到位置评估值。
根据位置评估值和分词评估值获取口语训练语句的目标评级结果可以包括:计算位置评估值和分词评估值之间的和值得到第一匹配度。此时,在一种可选实施例中,可以确定第一匹配度为目标评级结果;在另一种可选实施例中,根据预设评级对应关系,确定第一匹配度所属的目标匹配度范围对应的目标评级结果,预设评级对应关系包括匹配度范围与评级结果之间的对应关系。其中,预设评级关系的示例性说明可以参考后续步骤207,此处不进行赘述。上述对口语训练语句的方法只是示例性说明,本申请对此不做特殊限制。
采用本申请实施例所述的方法,终端设备通过将第一语种的第一参考语句转换为第二语种的第二参考语句,并输出第二参考语句,使得用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句和第一参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句。
图2为本申请实施例提供的一种口语评级方法的流程示意图。所述方法可以应用于终端设备,如图2所示,该方法包括:
201、获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句。
202、输出第二参考语句,并获取第一语种的口语训练语句,口语训练语句与第二参考语句存在对应关系。
203、获取口语训练语句中的目标分词以及目标分词的目标位置信息。
204、根据目标分词和目标位置信息,获取口语训练语句与第一参考语句之间的第一匹配度。
步骤201至步骤204的具体内容可以参考步骤101至步骤103中的内容,此处不再赘述。
205、获取第一参考语句对应不同表达方式的第三参考语句。
需要说明的是,本申请对步骤205的时限不做限制,例如步骤205可以在步骤204之前,或者,步骤205可以在步骤203之前,等等。
可以理解的是,由于同一语义的语句可以存在多种表达方式,因此,为了可以准确地对口语训练语句进行评级,本申请可以获取到第一参考语句对应的不同表达方式的第三参考语句。
示例性的,第一参考语句包括“It is a fine day today”,那么第三参考语句可以为以下至少一个“It's a beautiful day”、“Today is a great day”、“The weather isperfect today”以及“The weather is fine today”,上述示例只是示例性说明,本申请对此不做特殊限制。
206、根据目标分词和目标位置信息,获取口语训练语句与第三参考语句之间的第二匹配度。
其中,获取第二匹配度的过程可以参考步骤103中的第一匹配度的获取过程,此处不再赘述。
207、根据第一匹配度和第二匹配度对口语训练语句进行评级。
在本申请实施例中,可以从第一匹配度和第二匹配度中获取最大匹配度。此时,在一种可选实施例中,可以确定最大匹配度为口语训练语句的目标评级结果;在另一种可选实施例中,根据预设评级对应关系,确定最大匹配度所属的目标匹配度范围对应的目标评级结果,其中,预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
示例性的,预设评级对应关系包括:若匹配度范围为[0,60%],则对应的评级结果为不及格;若匹配度范围为(60%,80%],则对应的评级结果为及格;若匹配度范围为(80%,90%],则对应的评级结果为良好;若匹配度范围为(90%,1],则对应的评级结果为优秀。这样,若获取到的最大匹配度为85%,则可以确定评级结果为良好。上述示例只是示例性说明,本申请对此不做特殊限制。
采用本申请实施例所述的方法,终端设备通过将第一语种的第一参考语句转换为第二语种的第二参考语句,并输出第二参考语句,使得用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句、第一参考语句以及第三参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句,并且提高了口语评级的准确性。
在本申请的可选实施例中,在步骤103和步骤207之后还可以包括步骤104。
可选地,结合图1,如图3所示,该方法还包括:
104、判断口语训练语句的目标评级结果是否满足预设指令识别条件。
当口语训练语句的目标评级结果满足预设指令识别条件时,执行步骤105和步骤106;
当口语训练语句的目标评级结果不满足预设指令识别条件时,执行步骤107。
可以理解的是,本申请实施例可以应用于训练终端设备中的语音识别器的场景,故可以根据终端设备的用户输入的口语训练语句进行指令识别。
但是,考虑到用户输入的口语训练语句可能存在较多词语引用错误、语法错误等问题,故为了提高用户输入的正确率,可以在口语训练语句的目标评级结果满足预设指令识别条件的情况下,进行后续的指令识别;在口语训练语句的目标评级结果不满足预设指令识别条件的情况下,进行后续的参考语句的输出。
其中,若目标评级结果为匹配度(即图1所示实施例中的第一匹配度或者图2所示实施例中的最大匹配度),则预设指令识别条件可以包括:目标评级结果大于等于预设匹配度阈值。
若目标评级结果为第一匹配度所属的目标匹配度范围对应的目标评级结果(或者最大匹配度所属的目标匹配度范围对应的目标评级结果),则预设指令识别条件可以包括:目标评级结果为预设评级结果。示例性的,预设评级结果包括良好和优秀。
105、获取口语训练语句中的指令语句信息。
在本申请的可选实施例中,可以预先采集有指令语句样本。这样,本步骤可以从口语训练语句中获取与指令语句样本相同的指令语句信息。
需要说明的是,若确定口语训练语句中不存在指令语句样本,则可以获取新的第一参考语句,并返回步骤101。
106、执行指令语句信息指示的指令操作。
示例性的,指令语句信息包括“开启摄像头”,则终端设备可以启动摄像头应用程序;指令语句信息包括“呼叫AA”,则终端设备可以启动通话应用程序,并呼叫AA的手机号;指令语句信息包括“播放一首睡眠曲”,则终端设备可以启动音乐应用程序,并随机播放一首睡眠曲,等等。
107、输出第一参考语句。
可以理解的是,通过输出第一参考语句,以便用户可以对第一参考语句进行学习,以提高输入的准确率。
可选地,步骤107可以替换为:输出第一参考语句和口语训练语句。
应理解,为了使得用户更清楚地区分口语训练语句中的口语错误,可以将第一参考语句和口语训练语句依次进行输出,加强学习。
进一步地,可以将第一参考语句和口语训练语句按照不同预设的声音进行输出,便于用户区分两个语句。
另外,结合图2所示实施例,本步骤还可以输出第一参考语句和第三参考语句;或者,输出第一参考语句、第三参考语句和口语训练语句。
采用本申请实施例所述的方法,终端设备通过将第一语种的第一参考语句转换为第二语种的第二参考语句,并输出第二参考语句,使得用户可以根据第二参考语句进行第一语种的口语训练,从而终端设备根据口语训练语句和第一参考语句进行口语评级,实现了智能口语训练,无需人工识别口语训练语句。另外,可以通过口语训练语句进行指令识别,并根据识别到的指令语句信息进行指令操作。此外,若确定口语训练语句无法进行指令识别,则可以通过输出参考语句以便用户进行学习,从而提高学习准确率。
在本申请的可选实施例中,在步骤101或者步骤201之前,还可以包括以下步骤。
可选地,结合图1,如图4所示,该方法还包括:
108、判断当前时刻是否在预设的口语训练时间段内。
若当前时刻在口语训练时间段内,则返回执行步骤101;
若当前时刻不在口语训练时间段内,则执行步骤109。
可以理解的是,口语训练时间段可以为用户预先设定的时间段,例如,将下午5:30~6:30作为口语训练时间段。
109、检测是否接收到口语训练指令。
若接收到口语训练指令,则返回执行步骤101;
若未接收到口语训练指令,则返回执行步骤108。
应理解,口语训练指令可以为语音指令,或者,触发指令等。
可见,通过本申请实施例所述的方法,终端设备可以在预设的口语训练时间段内自动获取第一参考语句,以便进行口语评级,减少了人工参与。
在本申请的可选实施例中,若当前时刻在口语训练时间段内,则可以继续检测终端设备的当前显示界面是否包括第一语种的文本信息,若包括,则步骤101可以替换为:从当前显示界面包括的文本信息中获取第一参考语句;若不包括,则可以按照步骤101中所述的方法获取第一参考语句。
可以理解的是,若当前显示界面包括多个文本信息,则从当前显示界面包括的文本信息中获取第一参考语句可以包括:按照文本信息的训练优先级,从多个文本信息中获取最高训练优先级的文本信息,并将最高训练优先级的文本信息作为第一参考语句。示例性的,训练优先级可以按照用户对文本信息的点击量进行排序得到,其中,点击量越大,训练优先级越高。当然,训练优先级还可以按照其他参数进行排序,例如,点击率,同样地,点击率越高,训练优先级越高。
在本申请的另一可选实施例中,若当前时刻在口语训练时间段内,则可以启动终端设备的摄像头采集目标对象对应的待训练图像,示例性的,该目标对象可以为书本或者电视等显示有信息的对象。这样,步骤101可以替换为:从待训练图像中获取第一语种的第一参考语句。
进一步地,考虑到待训练图像中可能包括多个语句,为了可以准确地识别到需要进行口语训练的第一参考语句,在本申请实施例中,当终端设备对目标对象进行图像采集时,用户可以利用指示物体(例如用户的手指或者笔等)对目标对象中的第一参考语句进行指示。这样,终端设备采集到的待训练图像存在有指示物体,并识别指示物体所在的指示位置,从而根据指示位置从待训练图像中获取第一语种的第一参考语句。
在本申请的又一可选实施例中,在步骤101之前,还可以包括:获取终端设备的历史浏览信息以及历史浏览信息对应的信息类型,获取用户对同一信息类型的总访问量。由于总访问量越大,则说明用户对该同一信息类型越感兴趣,从而更加利于用户针对该同一信息类型进行口语训练。这样,终端设备可以根据总访问量将信息类型进行排序得到访问量排序结果,若总访问量越大,排序越靠前,则可以从访问量排序结果中获取最靠前的总访问量所属的目标同一信息类型,此时,步骤101可以替换为:根据目标同一信息类型获取第一语种的第一参考语句。
示例性的,信息类型可以包括汽车类型、科技类型、时尚类型、美食类型以及旅游类型等。这样,可以根据用户的兴趣爱好进行口语训练,使得口语训练更加具备针对性,从而利用用户提高学习兴趣。
图5为本申请实施例示出的一种终端设备的结构框图,如图5所示,包括:
获取模块501,用于获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句;
输出模块502,用于输出所述第二参考语句;
获取模块501,还用于获取第一语种的口语训练语句,口语训练语句与第二参考语句存在对应关系;处理模块503,用于根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
在本申请的可选实施例中,处理模块503,进一步用于获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;
根据所述第一匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,获取模块501,还用于获取所述第一参考语句对应不同表达方式的第三参考语句;以及,
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第三参考语句之间的第二匹配度;
处理模块503,进一步用于根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级。
在本申请的可选实施例中,处理模块503,进一步用于从所述第一匹配度和所述第二匹配度中获取最大匹配度;以及,
根据预设评级对应关系,确定最大匹配度所属的目标匹配度范围对应的目标评级结果,所述预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
在本申请的可选实施例中,获取模块501,还用于当所述口语训练语句的目标评级结果满足预设指令识别条件时,获取所述口语训练语句中的指令语句信息;
处理模块503,还用于执行指令语句信息指示的指令操作。
在本申请的可选实施例中,输出模块502,还用于当所述口语训练语句的目标评级结果不满足预设指令识别条件时,输出所述第一参考语句;或者,输出所述第一参考语句和所述口语训练语句。
终端设备的具体内容可以参考上述口语评级方法的实施例所述的内容,此处不再赘述。
图6示出的是与本发明实施例提供的终端相关的终端设备的部分结构的框图。参考图6,终端设备包括:射频(Radio Frequency,RF)电路610、存储器620、输入单元630、显示单元640、传感器650、音频电路660、无线保真(wireless fidelity,WiFi)模块670、处理器680、以及电源690等部件。本领域技术人员可以理解,图6中示出的终端设备结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图6对终端设备的各个构成部件进行具体的介绍:
RF电路610可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器680处理;另外,将设计上行的数据发送给基站。通常,RF电路610包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,LNA)、双工器等。此外,RF电路610还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General Packet RadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器620可用于存储软件程序以及模块,处理器680通过运行存储在存储器620的软件程序以及模块,从而执行终端设备的各种功能应用以及数据处理。存储器620可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端设备的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元630可用于接收输入的数字或字符信息,以及产生与终端设备的用户设置以及功能控制有关的键信号输入。具体地,输入单元630可包括触控面板631以及其他输入设备632。触控面板631,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板631上或在触控面板631附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板631可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器680,并能接收处理器680发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板631。除了触控面板631,输入单元630还可以包括其他输入设备632。具体地,其他输入设备632可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元640可用于显示由用户输入的信息或提供给用户的信息以及终端设备的各种菜单。显示单元640可包括显示面板641,可选的,可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板641。进一步的,触控面板631可覆盖显示面板641,当触控面板631检测到在其上或附近的触摸操作后,传送给处理器680以确定触摸事件的类型,随后处理器680根据触摸事件的类型在显示面板641上提供相应的视觉输出。虽然在图6中,触控面板631与显示面板641是作为两个独立的部件来实现终端设备的输入和输入功能,但是在某些实施例中,可以将触控面板631与显示面板641集成而实现终端设备的输入和输出功能。
终端设备还可包括至少一种传感器650,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板641的亮度,接近传感器可在终端设备移动到耳边时,关闭显示面板641和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别终端设备姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端设备还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路660、扬声器661,传声器662可提供用户与终端设备之间的音频接口。音频电路660可将接收到的音频数据转换后的电信号,传输到扬声器661,由扬声器661转换为声音信号输出;另一方面,传声器662将收集的声音信号转换为电信号,由音频电路660接收后转换为音频数据,再将音频数据输出处理器680处理后,经RF电路610以发送给比如另一终端设备,或者将音频数据输出至存储器620以便进一步处理。
WiFi属于短距离无线传输技术,终端设备通过WiFi模块670可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了WiFi模块670,但是可以理解的是,其并不属于终端设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器680是终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分,通过运行或执行存储在存储器620内的软件程序和/或模块,以及调用存储在存储器620内的数据,执行终端设备的各种功能和处理数据,从而对终端设备进行整体监控。可选的,处理器680可包括一个或多个处理单元;优选的,处理器680可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器680中。
终端设备还包括给各个部件供电的电源690(比如电池),优选的,电源可以通过电源管理系统与处理器680逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,终端设备还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本发明实施例中,该终端设备所包括的处理器680还具有以下功能:
获取第一语种的第一参考语句,以及将第一参考语句转化为第二语种的第二参考语句;输出所述第二参考语句,并获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
可选地,处理器680还具有以下功能:
获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;根据所述第一匹配度对所述口语训练语句进行评级。
可选地,处理器680还具有以下功能:
获取所述第一参考语句对应不同表达方式的第三参考语句;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第三参考语句之间的第二匹配度;以及,
根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级。
可选地,处理器680还具有以下功能:
从所述第一匹配度和所述第二匹配度中获取最大匹配度;
根据预设评级对应关系,确定最大匹配度所属的目标匹配度范围对应的目标评级结果,所述预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
可选地,处理器680还具有以下功能:
当所述口语训练语句的目标评级结果满足预设指令识别条件时,获取所述口语训练语句中的指令语句信息;
执行指令语句信息指示的指令操作。
可选地,处理器680还具有以下功能:
当所述口语训练语句的目标评级结果不满足预设指令识别条件时,输出所述第一参考语句;或者,输出所述第一参考语句和所述口语训练语句。
在本申请所提供的几个实施例中,应该理解到,所揭露的口语评级方法和终端设备,可以通过其它的方式实现。例如,以上所描述的终端设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种口语评级方法,其特征在于,包括:
获取第一语种的第一参考语句,以及将所述第一参考语句转化为第二语种的第二参考语句;
输出所述第二参考语句,并获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;
根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
2.根据权利要求1所述的方法,其特征在于,所述根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级,包括:
获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;
根据所述第一匹配度对所述口语训练语句进行评级。
3.根据权利要求2所述的方法,其特征在于,还包括:
获取所述第一参考语句对应不同表达方式的第三参考语句;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第三参考语句之间的第二匹配度;
所述根据所述第一匹配度对所述口语训练语句进行评级,包括:
根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一匹配度和所述第二匹配度对所述口语训练语句进行评级,包括:
从所述第一匹配度和所述第二匹配度中获取最大匹配度;
根据预设评级对应关系,确定所述最大匹配度所属的目标匹配度范围对应的目标评级结果,所述预设评级对应关系包括匹配度范围与评级结果之间的对应关系。
5.根据权利要求1所述的方法,其特征在于,还包括:
当所述口语训练语句的目标评级结果满足预设指令识别条件时,获取所述口语训练语句中的指令语句信息;
执行所述指令语句信息指示的指令操作。
6.根据权利要求5所述的方法,其特征在于,还包括:
当所述口语训练语句的目标评级结果不满足预设指令识别条件时,输出所述第一参考语句;或者,输出所述第一参考语句和所述口语训练语句。
7.一种终端设备,其特征在于,包括:
获取模块,用于获取第一语种的第一参考语句,以及将所述第一参考语句转化为第二语种的第二参考语句;
输出模块,用于输出所述第二参考语句;
所述获取模块,还用于获取所述第一语种的口语训练语句,所述口语训练语句与所述第二参考语句存在对应关系;
处理模块,用于根据所述口语训练语句与所述第一参考语句,对所述口语训练语句进行评级。
8.根据权利要求7所述的终端设备,其特征在于,所述处理模块,进一步用于获取所述口语训练语句中的目标分词以及所述目标分词的目标位置信息;
根据所述目标分词和所述目标位置信息,获取所述口语训练语句与所述第一参考语句之间的第一匹配度;
根据所述第一匹配度对所述口语训练语句进行评级。
9.一种终端设备,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,所述存储器用于存储计算机程序指令,当所述处理器执行所述计算机程序指令时,使得终端设备执行权利要求1至6中任一所述的口语评级方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有程序指令,当所述程序指令在终端设备上运行时,使得终端设备执行如权利要求1至6中任一所述的口语评级方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010396319.6A CN111639217A (zh) | 2020-05-12 | 2020-05-12 | 一种口语评级方法、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010396319.6A CN111639217A (zh) | 2020-05-12 | 2020-05-12 | 一种口语评级方法、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111639217A true CN111639217A (zh) | 2020-09-08 |
Family
ID=72332729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010396319.6A Pending CN111639217A (zh) | 2020-05-12 | 2020-05-12 | 一种口语评级方法、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639217A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117393002A (zh) * | 2023-12-11 | 2024-01-12 | 深圳市妙语教育科技有限公司 | 基于人工智能的朗读质量测评方法及相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739867A (zh) * | 2008-11-19 | 2010-06-16 | 中国科学院自动化研究所 | 运用计算机对口语翻译质量进行评分的方法 |
CN106057023A (zh) * | 2016-06-03 | 2016-10-26 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
WO2018120889A1 (zh) * | 2016-12-28 | 2018-07-05 | 平安科技(深圳)有限公司 | 输入语句的纠错方法、装置、电子设备及介质 |
CN108831212A (zh) * | 2018-06-28 | 2018-11-16 | 深圳语易教育科技有限公司 | 一种口语教学辅助装置及方法 |
CN109039647A (zh) * | 2018-07-19 | 2018-12-18 | 深圳乐几科技有限公司 | 终端及其口语学习方法 |
-
2020
- 2020-05-12 CN CN202010396319.6A patent/CN111639217A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739867A (zh) * | 2008-11-19 | 2010-06-16 | 中国科学院自动化研究所 | 运用计算机对口语翻译质量进行评分的方法 |
CN106057023A (zh) * | 2016-06-03 | 2016-10-26 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
WO2018120889A1 (zh) * | 2016-12-28 | 2018-07-05 | 平安科技(深圳)有限公司 | 输入语句的纠错方法、装置、电子设备及介质 |
CN108831212A (zh) * | 2018-06-28 | 2018-11-16 | 深圳语易教育科技有限公司 | 一种口语教学辅助装置及方法 |
CN109039647A (zh) * | 2018-07-19 | 2018-12-18 | 深圳乐几科技有限公司 | 终端及其口语学习方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117393002A (zh) * | 2023-12-11 | 2024-01-12 | 深圳市妙语教育科技有限公司 | 基于人工智能的朗读质量测评方法及相关装置 |
CN117393002B (zh) * | 2023-12-11 | 2024-03-05 | 深圳市妙语教育科技有限公司 | 基于人工智能的朗读质量测评方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108735216B (zh) | 一种基于语义识别的语音搜题方法及家教设备 | |
CN108021572B (zh) | 回复信息推荐方法和装置 | |
CN108877780B (zh) | 一种语音搜题方法及家教设备 | |
CN110570840B (zh) | 一种基于人工智能的智能设备唤醒方法和装置 | |
CN108763552B (zh) | 一种基于家教机的学习方法及家教机 | |
CN110795538B (zh) | 一种基于人工智能的文本评分方法和相关设备 | |
CN112751648B (zh) | 丢包数据恢复方法和相关装置、设备及存储介质 | |
CN111723855A (zh) | 一种学习知识点的显示方法、终端设备及存储介质 | |
CN109920309B (zh) | 手语转换方法、装置、存储介质和终端 | |
CN111522592A (zh) | 一种基于人工智能的智能终端唤醒方法和装置 | |
CN106327342B (zh) | 一种表情包的处理方法及终端 | |
CN112086094B (zh) | 一种纠正发音的方法、终端设备及计算机可读存储介质 | |
CN113220848A (zh) | 用于人机交互的自动问答方法、装置和智能设备 | |
CN110837734A (zh) | 文本信息处理方法、移动终端 | |
CN108595107B (zh) | 一种界面内容处理方法及移动终端 | |
CN108897508B (zh) | 一种基于分屏显示的语音搜题方法及家教设备 | |
CN111639209B (zh) | 一种书本内容的搜索方法、终端设备及存储介质 | |
CN111639217A (zh) | 一种口语评级方法、终端设备及存储介质 | |
CN108920539B (zh) | 一种搜索问题答案的方法及家教机 | |
CN116955610A (zh) | 一种文本数据的处理方法、装置以及存储介质 | |
CN109086448B (zh) | 一种基于性别特征信息的语音搜题方法及家教设备 | |
CN107957789B (zh) | 一种文本输入方法及移动终端 | |
CN107613109B (zh) | 移动终端的输入方法、移动终端和计算机存储介质 | |
CN110929882A (zh) | 一种基于人工智能的特征向量计算方法和相关装置 | |
CN108491471B (zh) | 一种文本信息的处理方法、移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200908 |