CN111554292A - 在移动终端中进行人机交互的方法及其装置 - Google Patents
在移动终端中进行人机交互的方法及其装置 Download PDFInfo
- Publication number
- CN111554292A CN111554292A CN202010440500.2A CN202010440500A CN111554292A CN 111554292 A CN111554292 A CN 111554292A CN 202010440500 A CN202010440500 A CN 202010440500A CN 111554292 A CN111554292 A CN 111554292A
- Authority
- CN
- China
- Prior art keywords
- user
- mobile terminal
- voice
- network
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000003993 interaction Effects 0.000 title claims abstract description 37
- 230000002159 abnormal effect Effects 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 44
- 230000004044 response Effects 0.000 claims abstract description 22
- 238000007405 data analysis Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 claims description 26
- 230000006399 behavior Effects 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 11
- 230000036316 preload Effects 0.000 claims description 4
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 4
- 238000013499 data model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Abstract
提供一种在移动终端中进行人机交互的方法及其装置。所述方法可包括:响应于用户语音命令,预测移动终端的后续网络状态;当预测出移动终端的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中;当移动终端进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
Description
技术领域
本公开涉及移动通信和语音处理领域。更具体地,本公开涉及一种在移动终端中进行人机交互的方法及其装置的方法及装置。
背景技术
随着语音识别技术的飞速发展,基于语音识别的各种人机交互应用应运而生。例如,通过向移动终端(例如,手机)输入语音来进行语音搜索、通过向移动终端输入语音来进行对电子设备的控制、通过向移动终端输入语音来进行问答式聊天等。
当用户与移动终端或移动终端中的语音助手进行交互时,如果用户移动至网络状态差或者无网络区域,则移动终端/语音助手在该区域无法正常获取网络信号,此时用户无法正常与移动终端/语音助手进行语音交流/人机交互,甚至会直接退出人机交互,从而给用户带来不便。
发明内容
本公开的示例性实施例在于提供一种用于在移动终端中进行人机交互的方法及其装置,使得语音助手在网络状态差或者无网络的情况下能够完成与用户当前话题的交互。
根据本公开的示例性实施例,提供一种在移动终端中进行人机交互的方法。所述方法可包括以下步骤:响应于用户语音命令,预测移动终端的后续网络状态;当预测出移动终端的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中;并且当移动终端进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
可选地,所述方法还可包括:当预测出移动终端的后续网络状态正常时,使用云端语音引擎来执行语音识别。
可选地,所述方法还可包括:当移动终端的网络状态由异常状态恢复为正常状态时,确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果;并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别。
可选地,所述方法还可包括:将先前语音识别的结果与重新执行的语音识别的结果进行比较;基于比较的结果来确定是否向用户发送补充提示消息,其中,当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。
可选地,预测移动终端的后续网络状态的步骤可包括:使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,确定移动终端的后续网络状态异常,否则,确定移动终端的后续网络状态正常。
可选地,所述预测模型可基于用户信息训练出,其中,用户信息至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
可选地,将与用户语音命令相关的话题数据下载到本地语音数据库中的步骤可包括:分析当前用户语音命令的话题类型;获取与当前用户语音命令的话题类型相关的数据分析模型;并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中。
可选地,执行语音识别的步骤可包括:通过本地语音数据库对待处理的用户语音命令进行语义识别;并且基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析。
可选地,与用户语音命令相关的话题数据可包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。
可选地,预测移动终端的后续网络状态的步骤可包括:根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态。
可选地,所述方法还包括响应于确定移动终端在特定时间段内会处于网络异常状态,根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
根据本公开的另一示例性实施例,提供一种在移动终端中进行人机交互的装置。所述装置可包括网络预测模块和语音处理模块。其中,网络预测模块可响应于用户语音命令,预测移动终端的后续网络状态。语音处理模块可当预测出移动终端的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中,并且当移动终端进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
可选地,语音处理模块可当预测出移动终端的后续网络状态正常时,使用云端语音引擎来执行语音识别。
可选地,语音处理模块可当移动终端的网络状态由异常状态恢复为正常状态时,确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果,并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别。
可选地,语音处理模块可分析当前用户语音命令的话题类型,获取与当前用户语音命令的话题类型相关的数据分析模型,并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中。
可选地,网络预测模块可使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,确定移动终端的后续网络状态异常,否则,确定移动终端的后续网络状态正常。
可选地,网络预测模块可根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态。
可选地,与用户语音命令相关的话题数据可包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。
可选地,语音处理模块可将先前语音识别的结果与重新执行的语音识别的结果进行比较,基于比较的结果来确定是否向用户发送补充提示消息,其中,当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。
可选地,所述预测模型可基于用户信息训练出,其中,用户信息至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
可选地,语音处理模块可通过本地语音数据库对待处理的用户语音命令进行语义识别,基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析,并且根据解析后的用户语音命令来执行语音处理。
可选地,语音处理模块可响应于确定移动终端在特定时间段内会处于网络异常状态,根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
根据本公开的示例性实施例,提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现根据本公开的示例性实施例的用于移动终端的接入网络小区的方法。
根据本公开的示例性实施例,提供一种计算装置,包括:处理器;存储器,存储有计算机程序,当所述计算机程序被处理器执行时,实现根据本公开的示例性实施例的用于移动终端的接入网络小区的方法。
本公开根据用户当前所处位置、周边环境及用户的行为习惯等判断用户后续的网络状态,提前下载/准备语音助手与用户当前正在交流的话题或者相关的内容,使得语音助手在网络状态差或者无网络时,仍然可通过提前下载的数据模型进行语音命令处理,从而降低用户在网络过渡区域的不适感。
将在接下来的描述中部分阐述本公开总体构思另外的方面和/或优点,还有一部分通过描述将是清楚的,或者可以经过本公开总体构思的实施而得知。
附图说明
通过下面结合示例性地示出实施例的附图进行的描述,本公开示例性实施例的上述和其他目的和特点将会变得更加清楚,其中:
图1示出根据本公开示例性实施例的在移动终端中进行人机交互的方法的流程图;
图2示出根据本公开另一示例性实施例的在移动终端中进行人机交互的方法的流程图;
图3示出根据本公开示例性实施例的在移动终端中进行人机交互的装置的框图;
图4示出根据本公开另一示例性实施例的在移动终端中进行人机交互的装置的框图;和
图5示出根据本公开示例性实施例的计算装置的示意图。
具体实施方式
提供参照附图的以下描述以帮助对由权利要求及其等同物限定的本公开的实施例的全面理解。包括各种特定细节以帮助理解,但这些细节仅被视为是示例性的。因此,本领域的普通技术人员将认识到在不脱离本公开的范围和精神的情况下,可对描述于此的实施例进行各种改变和修改。此外,为了清楚和简洁,省略对公知的功能和结构的描述。
现将详细参照本公开的示例性实施例,所述实施例的示例在附图中示出,其中,相同的标号始终指的是相同的部件。以下将通过参照附图来说明所述实施例,以便解释本公开。
在下文中,根据本公开的各种实施例,将参照附图对本公开的装置以及方法进行描述。
图1示出根据本公开示例性实施例的在移动终端中进行人机交互的方法的流程图。其中,图1示出的用于在移动终端中进行人机交互的方法可在与移动终端连接的网络端或在移动终端本地执行。
移动终端可以是任何具有语音接收、语音识别和执行命令等功能的可进行人机交互的电子设备,例如,用户可通过诸如安装在移动终端设备的语音助手(例如,Samsung的bixby、Apple的Siri等)来进行人机交互,但本申请不限于此。
在本公开的示例性实施例中,移动终端可包括例如但不限于便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置等。根据本公开的实施例,移动终端不限于以上所述的那些移动终端。
参照图1,在步骤S101,移动终端可通过其麦克风从用户接收用户的语音命令。例如,用户可向移动终端发起语音命令至语音助手。
在步骤S102,响应于用户发起的语音命令,预测移动终端的后续网络状态。在本公开的示例性实施例中,可使用预测训练的预测模型来预测移动终端的后续网络状态。也就是说,可使用预测模型来预测用户是否会进入网络状态异常区域。例如,可基于用户信息来训练预测模型,其中,用户信息可至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息等。
例如,在预测移动终端的后续网络状态时,可通过预测模型来预测移动终端的途经区域和与途经区域相应的途经网络状态信息。具体地,在通过预测模型预测移动终端的途经区域和与途经区域相应的途经网络信息时,可使用人工神经网络模型将用户信息作为预测模型的输入,在预测模型中预测移动终端的途经区域以及与途经区域对应的途经网络信息,并输出预测结果。然而,还可使用其他人工智能学习算法来训练预测模型,本公开不限于此。
在本公开的示例性实施例中,用户信息可包括从当前驻留网络小区或从互联网中,充分利用现有的通信技术手段收集的各类信息,包括但不限于:
i.网络小区信息,是基于目前的通讯网络方案收集的;移动终端在进行网络小区搜索并完成网络小区驻留的过程中,网络小区会通过系统广播消息通知移动终端当前网络小区的参数,包括但不限于PLMN(Public Land Mobile Network)、LAC(Location AreaCode)/TAC(Tracking Area Code)、RAT(Radio Access Technologies)、Cell ID(CellIdentity)、PSC(Primary Scrambling Code)/PCI(Physical Cell Identity)、ARFCN(Absolute Radio Frequency Channel Number)、相邻网络小区信息等,同时,移动终端会周期性检测当前位置接收到的网络小区信号强度RSSI、RSCP/ECIO、RSRP、RSRQ等,并反馈给移动网络进行移动调度;
ii.移动终端信息,是仅用于识别特定的移动终端,收集的移动终端信息包括但不限于:国际移动设备识别码(International Mobile Equipment Identity,简称IMEI)、国际移动用户识别码(International Mobile Subscriber Identification Number,简称IMSI)等;IMEI和IMSI是全球惟一的标志信息,移动终端生产时惟一分配并且是固化在移动终端上的,不同的移动终端可通过此类信息相互区别;
iii.用户行为信息和用户历史路径信息,用户行为信息中包括用户习惯信息,收集的用户习惯信息不应涉及个人隐私侵犯,仅通过移动终端使用状态识别用户日常行为习惯。用户行为信息和用户历史路径信息包括但不限于:用户长时间驻留的网络小区位置、用户主要活动区域范围、用户经常移动路径、用户经常移动的时间段、终端重复性出现网络状态改变的位置、终端发生网络状态改变的原因等;此类信息需要通过归纳统计的方法进行收集,比如移动终端在某一时间段内没有发生网络小区切换,并且信号强度没有发生明显变化,辅助GPS定位功能等相关信息,如果该时间段是晚上并且是长期重复的,可归纳统计后识别为用户的家庭住所,如果时间段是白天并且是长期重复的,可归纳统计后识别为用户的工作地点;如果用户每天都用几乎在相同的时间段内从家庭住所移动到工作地点,或者从工作地点移动到家庭住所,可归纳统计后识别为用户上班路线或下班路线;用户的上、下班移动过程中经过的网络小区串联起来,辅助GPS定位功能,可归纳统计为用户的移动路径;用户移动路径中出现的没有网络服务区域,移动终端需要记录信息,记录的信息包括但不限于进入位置、进入时间、恢复位置、恢复时间、移动终端状态等信息。用户行为信息的收集,需要基于移动终端当前的网络状态、变化后的网络状态、位置、时间、状态变化等可能通过现有技术手段获取的信息,通过预先设置的逻辑进行归纳统计后识别为用户的一组行为习惯,信息收集面越广泛,用户行为习惯归纳统计得越准确,智能预测程度越高;
iv.交通路网信息,是用于感知用户在移动过程中的准确路线及需要的时间,包括但不限于:移动路线、移动速度、前进道路路况、使用的交通工具、可能需要的时间等;移动终端在不断地移动过程中,会不断切换不同的网络小区,把所有移动过程中经过的网络小区串连起来,作为用户的移动路径,过程中辅助GPS定位信息或网络小区定位信息(类似EGPS定位)并结合网络地图信息进行路径修正,从而描绘出一条精确的用户移动路径。例如,用户从一个网络小区移动到另一个网络小区,根据计算得到的移动距离和花费的时间,可推断出用户的移动速度,这样可进一步推断出用户是乘车或者步行,通过GPS定位信息或网络小区位置信息能够得到当前移动终端的具体位置信息,根据当前具体位置信息和用户移动路径信息,可从地图中标识出用户正在使用的路径路线,结合利用现有的网络地图路况预测信息,可预知前方路况情况,计算到达目的地的可能时间等;
v.用户日程信息,是用户未来一段时间内的各个行程的时间和地点。
vi.其它相关信息,是从互联网中收集尽可能多的相关的各类信息,包括但不限于:运营商预告的网络小区变更及调整、用户投诉较多的网络小区、已知的信号盲区或信号极差的区域、极端天气的影响等;通过自动网络搜索方式、用户信息共享、运营商信息共享等多种技术手段可尽可能多地收集会影响到通讯网络、信号发射、现有问题等信息,从而为预测提供可靠依据。
作为示例,通过使用网络小区信息,可得到移动终端当前驻留网络小区的网络参数。通过使用用户行为信息,可根据移动终端移动过程中经过的网络小区及相关状态的变化,通过预先制定的逻辑进行归纳总结得到用户习惯集合。通过使用移动终端信息,可得到移动终端信息的分类信息。
因此,在预测移动终端的途经区域时,可根据对用户行为信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息等的分析结果学习地图路网、起点位置、目标位置等信息,以预测用户的移动路径。在预测与途经区域相应的途经网络信息时,可根据对网络小区信息、移动终端信息等的分析结果预测移动路径前进方向会发生网络状态改变的网络小区或区域。这里,途经网络信息可包括:途经网络小区信息、途经网络小区网络信号强度、途经网络小区网络覆盖范围、途经网络连接速度、途经网络类型、途经网络接入状态等。此外,还可预测移动终端从当前位置移动目标位置的距离和时间,可输入目标网络小区的网络参数,比如支持的网络制式、频点集、网络小区标识等信息。
例如,当预测途经区域为无网络区域时,可预测无网络的途经区域的下一个到达有网络的途经区域的网络信息。此外,还可根据途经网络信息进行网络搜索。
在本公开的示例性实施例中,在预测移动终端的途经区域和与途经区域相应的途经网络信息时,可在网络端和/或本地预测移动终端的途经区域和与途经区域相应的途经网络信息。
当使用上述用户信息训练预测模型后,可使用预测模型来预测移动终端的后续网络状态。此外,在接入网络之后,还可根据移动终端当前接入的网络小区信息、当前位置等信息对预测模型进行实时更新。
可选地,还可直接利用用户日程信息来预测移动终端在未来一段时间内的网络状态。例如,可根据用户的日程安排,预计在预定时间内用户可能长时间处于无网络区域(诸如山区等)。
当预测出移动终端的后续网络状态异常时,进步到步骤S103。否则,进入到步骤S104。这里,网络状态异常可指网络信号差、网络状态不好和/或无网络的情况。
在步骤103,将与用户的语音命令相关的话题数据下载到本地语音数据库中。具体地,首先,可使用例如云端语音引擎分析当前用户语音命令的话题类型,获取与当前用户语音命令的话题类型相关的数据分析模型,然后将获取的话题类型和相关的数据分析模型存储于本地语音数据库中。与用户语音命令相关的话题数据可包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。例如,可根据用户当前的交互内容,通过语义分析方法对该交互内容进行分析,提取关键词,搜索与提取的关键词相关的其他关键词,然后使用搜索到的其他关键词来预测后续交互内容相关话题,以获得与预测出的后续交互内容有关的话题数据。
作为示例,可利用云端语音引擎通过语义分析方法对用户的语音命令进行语音分析,得到语音命令的话题类型,然后根据语音命令的话题类型从云端服务器中找出与该话题类型相应的数据分析模型(诸如与该话题类型相应的数据包),然后将数据分析模型存储在移动终端的本地语音数据库。此外,如果确定本地语音数据库中已存在与当前用户语音命令相同或相似的数据分析模型,则可不再将相同或相似的数据分析模型存储在本地语音数据库中。
当预测出电子设备的后续网络状态正常时,在步骤S104,可使用云端语音引擎来执行语音识别。也就是说,当预测出后续网络状态正常时,可不需要下载相关的语音数据模型,而是直接通过云端语音引擎实时地进行语音识别和分析。例如,可实时地通过云端语音引擎从服务器获得相应的数据分析模型,使用该数据分析模型对用户发出的语音命令进行识别和分析,以获取用户期望的人机交互,诸如语音交流或语音控制。
在步骤S105,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别。具体地,可通过本地语音数据库对待处理的用户语音命令进行语义识别,然后基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析。
作为示例,当用户和携带的移动终端进入网络状态异常(不好)的区域时和/或当网络数据反馈速度慢或者无反馈时,在用户再次发起语音命令后,移动终端可使用本地语音数据库来进行语音识别和分析,以获取用户期望的人机交互。例如,当用户进入网络状态不好的区域或者网络数据反馈速度慢或者无反馈时,可将用户的语音命令经由本地语音数据库进行语义识别,将本地语音命令识别结果发送至提前下载的数据分析模型中进行命令解析。
在步骤S106,根据语音识别的结果来执行语音处理。移动终端可根据语音识别的结果来执行与用户的语音命令相关的动作,以实现人机交互。例如,移动终端将分析/识别结果(诸如用户期望的语音交流数据或语音控制数据)发送给移动终端的执行模块,使得执行模块执行与用户发起的语音命令相关联的动作。
可选地,当使用预测模型或用户日程信息确定移动终端在特定时间段内会处于网络异常状态时,可根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中,以便于用户在该特定时间段内进行人机交互。例如,可以根据用户的日程,预计在预定时间内用户可能长时间处于无网络区域(如高铁、山区等),提前根据用户的喜好预加载关联的数据,以方便用户使用或交互。
图2示出根据本公开另一示例性实施例的在移动终端中进行人机交互的方法的流程图。图2的方法可应用于以下情况:将用户的语音命令与语音处理结果保存在移动终端的存储器中,待网络恢复后,再次进行语音数据分析。然而,本公开不限于此。
参照图2,在步骤S201,确定当前网络状态是否恢复正常。用户可能会暂时处于网络状态异常/不好的区域,因此,需要确定用户当前使用的网络信号是否处于正常水平。例如,移动终端会周期性检测当前位置接收到的网络小区信号强度RSSI、RSCP/ECIO、RSRP、RSRQ等中的至少一个,当接收到的网络小区信号强度RSSI、RSCP/ECIO、RSRP、RSRQ等中的至少一个满足预定阈值时,可确定用户当前所述区域的网络状态正常/良好。
在确定当前网络状态依然处于异常状态时,继续使用本地语音数据库进行人机交互。在确定当前网络状态恢复正常状态时,进入到步骤S202。
当移动终端的网络状态由异常状态恢复为正常状态时,在步骤S202,确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果。当存储器中不存在用户的语音命令和/或先前语音识别的结果时,可在用户发起语音命令后,使用云端语音引起来进行人机交互。如果存储器中存在用户的语音命令和/或先前语音识别的结果,则进行到步骤S203。
在步骤S203,根据存储的用户语音命令使用云端语音引擎来重新执行语音识别。
在步骤S204,将先前语音识别的结果与重新执行的语音识别的结果进行比较,当比较结果不一致时,进行到步骤S205。
在步骤S205,基于比较的结果向用户通过比较结果并发送补充提示消息。
当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。如果重新执行的语音识别结果(诸如使用云端语音引擎的语音处理结果)与先前语音识别结果(诸如保存在存储器中的本地语音处理结果)存在差别,则可由移动终端向用户发送更多的相关信息,以向用户进行补充提示。
以上已经结合图1至图2对根据本公开示例性实施例的在移动终端中进行人机交互的方法进行了描述。在下文中,将参照图3和图4对根据本公开示例性实施例的在移动终端中进行人机交互的装置及其单元进行描述。
图3示出根据本公开示例性实施例的在移动终端中进行人机交互的装置的框图。参照图3,在移动终端中进行人机交互的装置300可包括网络预测模块301和语音处理模块302。装置300中的每个模块可由一个或多个模块来实现,并且对应模块的名称可根据模块的类型而变化。在各种实施例中,可省略装置300中的一些模块,或者还可包括另外的模块。此外,根据本公开的各种实施例的模块/元件可以被组合以形成单个实体,并且因此可等效地执行相应模块/元件在组合之前的功能。
网络预测模块301可响应于用户语音命令来预测移动终端的后续网络状态。具体地,网络预测模块301可使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,网络预测模块301可确定移动终端的后续网络状态异常,否则,网络预测模块301可确定移动终端的后续网络状态正常。网络预测模块301可基于用户信息来训练预测模型。用户信息可至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
可选地,网络预测模块301可根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态。
当预测出移动终端的后续网络状态正常时,语音处理模块302可使用云端语音引擎来执行语音识别。
当预测出移动终端的后续网络状态异常时,语音处理模块302可将与用户语音命令相关的话题数据下载到本地语音数据库中,并且响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
作为示例,语音处理模块302可分析当前用户语音命令的话题类型,获取与当前用户语音命令的话题类型相关的数据分析模型,并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中。其中,与用户语音命令相关的话题数据可包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。语音处理模块302可通过本地语音数据库对待处理的用户语音命令进行语义识别,基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析,然后根据解析后的用户语音命令来执行语音处理。
可选地,语音处理模块302可响应于确定移动终端在特定时间段内会处于网络异常状态,根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
当移动终端的网络状态由异常状态恢复为正常状态时,语音处理模块302可确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果,并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别。
作为示例,语音处理模块302可将先前语音识别的结果与重新执行的语音识别的结果进行比较,基于比较的结果来确定是否向用户发送补充提示消息。当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。
图4示出根据本公开另一示例性实施例的在移动终端中进行人机交互的装置的框图。
参照图4,在移动终端中进行人机交互的装置400可包括预测网络状态模块401、关联话题模型数据下载模块402以及本地语音处理模块403。
预测网络状态模块401可响应于用户语音命令来预测移动终端的后续网络状态。例如,预测网络状态模块401可使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,预测网络状态模块401可确定移动终端的后续网络状态异常,否则,预测网络状态模块401可确定移动终端的后续网络状态正常。
预测网络状态模块401可基于用户信息使用人工神经网络算法来训练预测模型。用户信息可至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
可选地,预测网络状态模块401可根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态。
当预测出移动终端的后续网络状态异常时,关联话题模型数据下载模块402可将与用户语音命令相关的话题数据下载到本地语音数据库中。例如,关联话题模型数据下载模块402可分析当前用户语音命令的话题类型,获取与当前用户语音命令的话题类型相关的数据分析模型,并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中。其中,与用户语音命令相关的话题数据可包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。
本地语音处理模块403可响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。例如,本地语音处理模块403可通过本地语音数据库对待处理的用户语音命令进行语义识别,基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析,然后根据解析后的用户语音命令来执行语音处理。
可选地,当预测网络状态模块401确定移动终端在特定时间段内会处于网络异常状态,关联话题模型数据下载模块402可根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
当预测网络状态模块401确定移动终端的网络状态由异常状态恢复为正常状态时,本地语音处理模块403可确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果,并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别,并且将先前语音识别的结果与重新执行的语音识别的结果进行比较,以向用户发送比较结果和提示信息。
图5示出根据本公开示例性实施例的计算装置的示意图。
参照图5,根据本公开示例性实施例的计算装置500,包括存储器501和处理器502,存储器501上存储有计算机程序,当所述计算机程序被处理器502执行时,实现根据本公开的示例性实施例的用于在移动终端中进行人机交互的方法。
作为示例,当所述计算机程序被处理器502执行时,可实现以下步骤:响应于用户语音命令,预测电子设备的后续网络状态,当预测出电子设备的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中,当电子设备进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
本公开实施例中的计算装置可以包括但不限于诸如移动电话、笔记本电脑、PDA(个人数字助理)、PAD(平板电脑)、台式计算机等的装置。图5示出的计算装置仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如这里所使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质中的可由机器(例如,移动装置)读取的一个或更多个指令的软件。例如,在处理器的控制下,所述机器的处理器可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
本公开能够根据用户信息预测后续网络状态,并提前下载相关类型的数据模型,使得在用户处于网络状态不好的区域时能够继续为用户提供服务。
尽管已经参照其示例性实施例具体显示和描述了本公开,但是本领域的技术人员应该理解,在不脱离权利要求所限定的本公开的精神和范围的情况下,可以对其进行形式和细节上的各种改变。
Claims (14)
1.一种在移动终端中进行人机交互的方法,其中,所述方法包括:
响应于用户语音命令,预测移动终端的后续网络状态;
当预测出移动终端的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中;
当移动终端进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
2.如权利要求1所述的方法,其中,所述方法还包括:
当预测出移动终端的后续网络状态正常时,使用云端语音引擎来执行语音识别,和/或
当移动终端的网络状态由异常状态恢复为正常状态时,确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果,并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别,和/或
其中,预测移动终端的后续网络状态的步骤包括:使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,确定移动终端的后续网络状态异常,否则,确定移动终端的后续网络状态正常,和/或
其中,预测移动终端的后续网络状态的步骤包括:根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态,和/或
其中,将与用户语音命令相关的话题数据下载到本地语音数据库中的步骤包括:分析当前用户语音命令的话题类型;获取与当前用户语音命令的话题类型相关的数据分析模型;并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中,和/或
其中,与用户语音命令相关的话题数据包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。
3.如权利要求2所述的方法,其中,所述方法还包括:
将先前语音识别的结果与重新执行的语音识别的结果进行比较;
基于比较的结果来确定是否向用户发送补充提示消息,
其中,当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。
4.如权利要求2所述的方法,其中,所述预测模型是基于用户信息训练出的,其中,用户信息至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
5.如权利要求2所述的方法,其中,执行语音识别的步骤包括:
通过本地语音数据库对待处理的用户语音命令进行语义识别;
基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析。
6.如权利要求2所述的方法,其中,响应于确定移动终端在特定时间段内会处于网络异常状态,根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
7.一种在移动终端中进行人机交互的装置,其中,所述装置包括:
网络预测模块,用于响应于用户语音命令,预测移动终端的后续网络状态;
语音处理模块,用于:
当预测出移动终端的后续网络状态异常时,将与用户语音命令相关的话题数据下载到本地语音数据库中;
当移动终端进入网络状态异常的区域时,响应于获取到待处理的用户语音命令使用本地语音数据库来执行语音识别,并且根据语音识别的结果来执行语音处理。
8.如权利要求7所述的装置,其中,语音处理模块还用于当预测出移动终端的后续网络状态正常时,使用云端语音引擎来执行语音识别,和/或
其中,语音处理模块还用于当移动终端的网络状态由异常状态恢复为正常状态时,确定移动终端的存储器中是否存储有用户语音命令以及先前语音识别的结果,并且根据存储的用户语音命令使用云端语音引擎来重新执行语音识别,和/或
其中,语音处理模块还用于分析当前用户语音命令的话题类型;获取与当前用户语音命令的话题类型相关的数据分析模型;并且将获取的话题类型和相关的数据分析模型存储于本地语音数据库中,和/或
其中,网络预测模块还用于使用预先训练的预测模型来预测用户是否会进入网络状态异常区域,其中,当预测出用户会进入网络状态异常区域时,确定移动终端的后续网络状态异常,否则,确定移动终端的后续网络状态正常,和/或
其中,网络预测模块还用于根据用户日程来确定移动终端在特定时间段内是否会处于网络异常状态,和/或
其中,与用户语音命令相关的话题数据包括与用户和移动终端的当前交互内容有关的话题数据和/或与根据当前交互内容预测出的后续交互内容有关的话题数据。
9.如权利要求8所述的装置,其中,语音处理模块还用于:
将先前语音识别的结果与重新执行的语音识别的结果进行比较;
基于比较的结果来确定是否向用户发送补充提示消息,
其中,当先前语音识别的结果与重新执行的语音识别的结果不同时,向用户发送补充提示消息,否则,不发送补充提示消息。
10.如权利要求8所述的装置,其中,所述预测模型是基于用户信息训练出的,其中,用户信息至少包括网络小区信息、移动终端信息、用户行为信息、用户历史路径信息和用户日程信息。
11.如权利要求8所述的装置,其中,语音处理模块还用于:
通过本地语音数据库对待处理的用户语音命令进行语义识别;
基于语义识别的结果使用存储于本地语音数据库中的相关的数据分析模型对待处理的用户语音命令进行命令解析;
根据解析后的用户语音命令来执行语音处理。
12.如权利要求8所述的装置,其中,语音处理模块还用于响应于确定移动终端在特定时间段内会处于网络异常状态,根据用户偏好来预先加载用户感兴趣的话题数据,并将该话题数据存储于本地语音数据库中。
13.一种存储有计算机程序的计算机可读存储介质,其中,当所述计算机程序被处理器执行时,实现权利要求1至6中任一项所述的在移动终端中进行人机交互的方法。
14.一种计算装置,包括:
处理器;
存储器,存储有计算机程序,当所述计算机程序被处理器执行时,实现权利要求1至6中任一项所述的在移动终端中进行人机交互的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010440500.2A CN111554292A (zh) | 2020-05-22 | 2020-05-22 | 在移动终端中进行人机交互的方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010440500.2A CN111554292A (zh) | 2020-05-22 | 2020-05-22 | 在移动终端中进行人机交互的方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111554292A true CN111554292A (zh) | 2020-08-18 |
Family
ID=72008424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010440500.2A Pending CN111554292A (zh) | 2020-05-22 | 2020-05-22 | 在移动终端中进行人机交互的方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111554292A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112151017A (zh) * | 2020-11-24 | 2020-12-29 | 北京声智科技有限公司 | 语音处理方法、装置、系统、设备及存储介质 |
CN112489660A (zh) * | 2020-11-19 | 2021-03-12 | 中国第一汽车股份有限公司 | 一种车载语音识别方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261366A (zh) * | 2015-08-31 | 2016-01-20 | 努比亚技术有限公司 | 语音识别方法、语音引擎及终端 |
CN105845139A (zh) * | 2016-05-20 | 2016-08-10 | 北方民族大学 | 一种离线语音控制方法和装置 |
CN110022235A (zh) * | 2019-04-18 | 2019-07-16 | 维沃移动通信有限公司 | 信息处理方法、终端和服务器 |
CN110910886A (zh) * | 2019-12-17 | 2020-03-24 | 广州三星通信技术研究有限公司 | 人机交互方法及装置 |
-
2020
- 2020-05-22 CN CN202010440500.2A patent/CN111554292A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261366A (zh) * | 2015-08-31 | 2016-01-20 | 努比亚技术有限公司 | 语音识别方法、语音引擎及终端 |
CN105845139A (zh) * | 2016-05-20 | 2016-08-10 | 北方民族大学 | 一种离线语音控制方法和装置 |
CN110022235A (zh) * | 2019-04-18 | 2019-07-16 | 维沃移动通信有限公司 | 信息处理方法、终端和服务器 |
CN110910886A (zh) * | 2019-12-17 | 2020-03-24 | 广州三星通信技术研究有限公司 | 人机交互方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489660A (zh) * | 2020-11-19 | 2021-03-12 | 中国第一汽车股份有限公司 | 一种车载语音识别方法、装置、设备及存储介质 |
CN112151017A (zh) * | 2020-11-24 | 2020-12-29 | 北京声智科技有限公司 | 语音处理方法、装置、系统、设备及存储介质 |
CN112151017B (zh) * | 2020-11-24 | 2021-02-23 | 北京声智科技有限公司 | 语音处理方法、装置、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110784628B (zh) | 图像数据的采集处理方法、系统及智能摄像头、服务器 | |
CN111556441B (zh) | 用于移动终端的接入网络小区的方法及装置 | |
CN109219953B (zh) | 一种闹钟提醒方法、电子设备及计算机可读存储介质 | |
US20150186426A1 (en) | Searching information using smart glasses | |
CN105677924A (zh) | 数据搜索装置和方法 | |
CN103514266A (zh) | 一种面向移动终端的网络信息投放方法和系统 | |
CN111554292A (zh) | 在移动终端中进行人机交互的方法及其装置 | |
CN106295861A (zh) | 天气预报信息的获取方法、装置和设备 | |
CN107786746B (zh) | 交通应用的控制方法、装置以及系统、存储介质 | |
CN111553464A (zh) | 基于超网络的图像处理方法、装置及智能设备 | |
CN110929176A (zh) | 一种信息推荐方法、装置及电子设备 | |
CN112183953A (zh) | 客服资源的分配方法、装置、电子设备和存储介质 | |
US20120147179A1 (en) | Method and system for providing intelligent access monitoring, intelligent access monitoring apparatus | |
CN106331060B (zh) | 一种基于wifi进行布控的方法和系统 | |
CN113691483B (zh) | 异常用户设备的检测方法、装置、设备及存储介质 | |
CN107708064A (zh) | 一种车载设备定位手机的方法和系统 | |
US20190147860A1 (en) | Method and apparatus for identifying information | |
CN111278105B (zh) | 无线网络定位方法和相关装置 | |
CN113962232A (zh) | 模拟卡切换方法及装置、计算机可读介质和移动终端 | |
CN113904851A (zh) | 网络信息处理方法、用户面功能系统、介质和电子设备 | |
CN112269730A (zh) | 异常日志检测方法、异常日志检测装置及存储介质 | |
US20190182792A1 (en) | Network connection control method by using a user context | |
US11455837B2 (en) | Adaptive inference system and operation method therefor | |
CN115361651B (zh) | 终端定位方法、装置、电子设备及存储介质 | |
CN115022965B (zh) | 小区定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200818 |