CN109376669A - 智能助手的控制方法、移动终端及计算机可读存储介质 - Google Patents
智能助手的控制方法、移动终端及计算机可读存储介质 Download PDFInfo
- Publication number
- CN109376669A CN109376669A CN201811280677.XA CN201811280677A CN109376669A CN 109376669 A CN109376669 A CN 109376669A CN 201811280677 A CN201811280677 A CN 201811280677A CN 109376669 A CN109376669 A CN 109376669A
- Authority
- CN
- China
- Prior art keywords
- user
- intelligent assistant
- assistant
- preset
- prediction result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000004044 response Effects 0.000 claims abstract description 69
- 230000002452 interceptive effect Effects 0.000 claims abstract description 60
- 230000005540 biological transmission Effects 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 28
- 230000008921 facial expression Effects 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 11
- 210000005036 nerve Anatomy 0.000 claims description 7
- 230000003993 interaction Effects 0.000 abstract description 14
- 230000002618 waking effect Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000006854 communication Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Telephone Function (AREA)
Abstract
本发明公开了一种智能助手的控制方法,该方法包括:接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;基于所述开启状态,接收用户发送的交互指令;根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;判断所述预测结果是否满足预设的智能助手响应条件;若满足,则控制所述智能助手响应所述交互指令。本发明还公开了一种移动终端和一种计算机可读存储介质。本发明能够简化智能助手的唤醒方式,避免繁琐的操作给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升用户的使用体验。
Description
技术领域
本发明涉及移动终端技术领域,尤其涉及智能助手的控制方法、移动终端及计算机可读存储介质。
背景技术
智能助手是安装在智能终端的智能应用,通过根据用户的指令与用户交互,帮助用户解决问题,让智能终端变得更加的智能化;然而现有的智能助手在使用时都需要用户首先按压物理按键开启智能助手,或使用特定的语音唤醒词来唤醒智能助手,执行完一个命令后智能助手就退出了,下一次使用时用户又需要再次通过上述方式开启或唤醒智能助手才能使用;其操作繁琐,会给用户带来较大的不便,并且使用特定的语音唤醒词来唤醒智能助手,容易使用户在公共场合感到尴尬,人机交互不够自然,降低了用户的使用体验。
发明内容
本发明的主要目的在于提出一种智能助手的控制方法、移动终端及计算机可读存储介质,旨在简化智能助手的唤醒方式,避免繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然。
为实现上述目的,本发明提供一种智能助手的控制方法,应用于移动终端,所述智能助手的控制方法包括如下步骤:
接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;
基于所述开启状态,接收用户发送的交互指令;
根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
判断所述预测结果是否满足预设的智能助手响应条件;
若满足,则控制所述智能助手响应所述交互指令。
可选地,所述姿态信息包括人脸表情信息,所述根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
根据预设条件获取所述用户当前的人脸表情信息,将所述人脸表情信息输入至预设的第一神经网络模型进行预测,得到预测结果。
可选地,所述判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
判断所述预测结果包括的针对预设表情类型的概率数值是否大于第一预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
可选地,所述姿态信息包括手势动作信息,所述根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
根据预设条件获取所述用户当前的手势动作信息,将所述手势动作信息输入至预设的第二神经网络模型进行预测,得到预测结果。
可选地,所述判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
判断所述预测结果包括的针对预设动作类型的概率数值是否大于第二预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
可选地,所述智能助手具有姿态识别模式及语音识别模式,所述基于所述开启状态,接收用户发送的交互指令的步骤之后还包括:
判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式;
若所述智能助手当前的响应模式为姿态识别模式,则执行步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
若所述智能助手当前的响应模式为语音识别模式,则判断所述交互指令中是否包含预设的语音关键词,若包含,则执行步骤:控制所述智能助手响应所述交互指令。
可选地,所述基于所述开启状态,接收用户发送的交互指令的步骤之后还包括;
获取所述移动终端当前的周围环境噪音参数;
判断所述周围环境噪音参数是否大于预设的噪音阈值;
若大于,则控制所述智能助手当前的响应模式为姿态识别模式,并进入步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
若小于,则进入步骤:判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式。
可选地,所述接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态的步骤之后还包括:
接收用户发送的退出指令,基于所述退出指令退出所述智能助手。
此外,为实现上述目的,本发明还提供一种移动终端,所述移动终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的智能助手控制程序,所述智能助手控制程序被所述处理器执行时实现如上所述的智能助手控制方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能助手控制程序,所述智能助手控制程序被处理器执行时实现如上所述的智能助手控制方法的步骤。
本发明通过接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;基于所述开启状态,接收用户发送的交互指令;根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;判断所述预测结果是否满足预设的智能助手响应条件;若满足,则控制所述智能助手响应所述交互指令;由此,改善了现有技术中用户使用智能助手时,每次都需要首先按压物理按键开启智能助手或使用特定的语音关键词来唤醒智能助手才能使用所带来的操作不便及用户体验差的问题,本发明通过上述方案,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
附图说明
图1为实现本发明各个实施例的一种移动终端的硬件结构示意图;
图2为本发明实施例提供的一种通信网络系统架构图;
图3为本发明智能助手的控制方法一实施例的场景示意图;
图4为本发明智能助手的控制方法第一实施例的流程示意图;
图5为本发明智能助手的控制方法第二实施例的流程示意图;
图6为本发明智能助手的控制方法第三实施例的流程示意图;
图7为本发明智能助手的控制方法第四实施例的流程示意图;
图8为本发明智能助手的控制方法第五实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
WiFi属于短距离无线传输技术,移动终端通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用软件(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用软件等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
基于上述移动终端硬件结构,提出本发明移动终端的各个实施例。
请参照图1,在本发明移动终端的一实施例中,该移动终端包括:存储器109、处理器110和存储在所述存储器109上并可在所述处理器110上运行的智能助手的控制程序,所述智能助手的控制程序被所述处理器110执行时实现以下步骤:
接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;
基于所述开启状态,接收用户发送的交互指令;
根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
判断所述预测结果是否满足预设的智能助手响应条件;
若满足,则控制所述智能助手响应所述交互指令。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
根据预设条件获取所述用户当前的人脸表情信息,将所述人脸表情信息输入至预设的第一神经网络模型进行预测,得到预测结果。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
判断所述预测结果包括的针对预设表情类型的概率数值是否大于第一预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
根据预设条件获取所述用户当前的手势动作信息,将所述手势动作信息输入至预设的第二神经网络模型进行预测,得到预测结果。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
判断所述预测结果包括的针对预设动作类型的概率数值是否大于第二预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式;
若所述智能助手当前的响应模式为姿态识别模式,则执行步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
若所述智能助手当前的响应模式为语音识别模式,则判断所述交互指令中是否包含预设的语音关键词,若包含,则执行步骤:控制所述智能助手响应所述交互指令。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
获取所述移动终端当前的周围环境噪音参数;
判断所述周围环境噪音参数是否大于预设的噪音阈值;
若大于,则控制所述智能助手当前的响应模式为姿态识别模式,并进入步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果。
进一步地,所述智能助手的控制程序被所述处理器110执行时还实现以下步骤:
接收用户发送的退出指令,基于所述退出指令退出所述智能助手。
本发明移动终端的具体实施例与下述智能助手的控制方法的各具体实施例基本相同,在此不作赘述。
为了便于理解本发明实施例,下面对本发明的移动终端所基于的通信网络系统进行描述。
请参阅图2,图2为本发明实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的LTE系统,该LTE系统包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
具体地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。其中,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户服务器)2032,其它MME2033,SGW(Serving Gate Way,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。其中,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子系统)或其它IP业务等。
虽然上述以LTE系统为例进行了介绍,但本领域技术人员应当知晓,本发明不仅仅适用于LTE系统,也可以适用于其他无线通信系统,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络系统等,此处不做限定。
基于上述移动终端硬件结构以及通信网络系统,提出本发明智能助手的控制方法各个实施例。
本发明提供一种智能助手的控制方法。
参照图4,图4为本发明智能助手的控制方法第一实施例的流程示意图,所述方法包括:
步骤S10,接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;
本发明实施例智能助手的控制方法应用于移动终端,移动终端安装有智能助手,参照图3,图3为本发明智能助手的控制方法一实施例的场景示意图;现有技术中,用户每次使用智能助手时,都需要首先通过移动终端的物理按键开启智能助手,或通过智能助手的开启按钮开启智能助手,或使用特定的语音关键词来唤醒智能助手后才能对智能助手发送交互指令,而智能助手在执行完一个命令后就退出了,下一次用户需要使用时又需要再次开启或唤醒才能使用,操作繁琐,在本实施例中,移动终端接收到用户发送的开启指令后,移动终端根据所述开启指令开启智能助手并保持智能助手一直处于开启状态直至移动终端接收到来自用户的退出指令,移动终端才对智能助手执行退出操作;在智能助手处于开启的过程中,用户需要与智能助手交互时,即可直接对移动终端发送交互指令交互,不需要再每次都执行开启操作,所述开启指令可以是语音开启指令,也可以是通过智能助手的开启按键开启,作为一种实施方式,所述语音开启指令可以根据用户的个性化需求自行设置,本实施例不做具体限制。
步骤S20,基于所述开启状态,接收用户发送的交互指令;
在智能助手开启的状态下,当用户需要使用智能助手时,根据使用需求,用户发送交互指令到移动终端,所述交互指令可以是用户发出的语音指令或是手势动作指令,也可以是用户通过移动终端输入的文字指令等。
步骤S30,根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
移动终端在接收到用户发送的交互指令后,根据预设条件获取所述用户当前的姿态信息,作为一种实施方式,所述预设条件可以是当移动终端检测到与用户的距离小于某个范围,且移动终端的摄像头可以采集到用户的姿态信息,进一步地,若当前手机正面朝向用户,则移动终端通过前置摄像头获取所述用户当前的姿态图像,若当前手机背面朝向用户,则移动终端通过后置摄像头获取所述用户当前的姿态图像;再将获取到的所述姿态图像输入至预设的预测模型中进行预测,得到预测结果。
作为一种实施方式,姿态信息可以是用户表情信息,预测模型可以是经过用户表情训练的神经网络模型,当输入用户表情图像至预测模型,预测模型即可输出一个针对于预设表情类型的概率值作为预测结果,预设表情类型对应于智能助手的响应条件,即当检测到用户的交互指令并检测预测出用户当前的表情为预设表情类型时,智能助手响应用户的交互指令;姿态信息也可以是用户的手势动作信息,预测模型对应的可以是经过用户动作训练的神经网络模型,当输入用户动作图像至预测模型,预测模型即可输出一个针对于预设动作类型的概率值作为预测结果,预设动作类型对应于智能助手的响应条件,即当检测到用户的交互指令并检测预测出用户当前的手势动作为预设动作类型时,智能助手响应用户的交互指令。
步骤S40,判断所述预测结果是否满足预设的智能助手响应条件;
预测模型通过对用户当前的姿态信息进行预测,得到预测结果,移动终端判断所述预测结果是否满足预设的智能助手响应条件。
若所述预测结果满足预设的智能助手响应条件,则执行步骤:步骤S50,控制所述智能助手响应所述交互指令;
若预测结果满足智能助手的响应条件,移动终端控制智能助手响应所述交互指令,基于用户姿态信息的人机交互,避免了生硬的语音关键词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
移动终端接收到用户发送的交互指令后,若移动终端判断出用户当前的姿态信息满足智能助手的响应条件时,移动终端就控制智能助手响应用户的交互指令,作为一种实施方式,预设的智能助手响应条件可以是在移动终端接收到用户发送的交互指令后,若检测到用户当前的人脸表情为与预设的智能助手响应条件对应的表情类型相一致时,例如微笑,则移动终端控制智能助手响应用户的交互指令;预设的智能助手唤醒条件也可以是当移动终端接收到用户发送的交互指令后,若移动终端检测到用户当前的手势动作为与预设的智能助手响应条件对应的动作类型相一致时,例如用户比出某一特定手势,则控制智能助手响应用户的交互指令。
本实施例通过接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;基于所述开启状态,接收用户发送的交互指令;根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;判断所述预测结果是否满足预设的智能助手响应条件;若满足,则控制所述智能助手响应所述交互指令;由此,改善了现有技术中用户使用智能助手时,每次都需要首先按压物理按键开启智能助手或使用特定的语音关键词来唤醒智能助手才能使用所带来的操作不便及用户体验差的问题,本发明通过上述方案,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
进一步地,参照图5,图5为本发明智能助手的控制方法第二实施例的流程示意图。基于上述图4所示的实施例,所述姿态信息包括人脸表情信息,步骤S30,根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
步骤S31,根据预设条件获取所述用户当前的人脸表情信息,将所述人脸表情信息输入至预设的第一神经网络模型进行预测,得到预测结果。
在本实施例中,所述姿态信息包括人脸表情信息,智能助手处于开启状态,接收到用户发送的交互指令后,移动终端通过前置摄像头或后置摄像头采集所述用户当前的人脸表情图像,来判断用户当前的人脸表情是否满足智能助手响应条件对应的人脸表情类型,若满足,智能助手则响应用户的交互指令。
具体地,移动终端将采集到的所述用户当前的人脸表情图像输入至预设的第一神经网络模型进行预测,本实施例第一神经网络模型为预先经过人脸表情训练后收敛的深度神经网络模型,其可以根据输入的人脸图像输出一个针对预设表情类型的概率值,例如,预设需要预测的表情类型为“微笑”,当接收到所述采集到的当前用户的人脸表情图像后,模型输出一个所述用户当前的人脸表情图像相较于“微笑”的概率数值,概率数值越大,则所述用户当前的人脸表情图像越接近预设表情类型,第一神经网络模型预设的需要预测的表情类型与智能助手响应条件对应的人脸表情类型要求一致。
步骤S40,判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
步骤S41,判断所述预测结果包括的针对预设表情类型的概率数值是否大于第一预设阈值;
根据用户需求的智能助手的响应灵敏度,设置第一预设阈值,当预测结果中包括的针对预设表情类型的概率数值大于第一预设阈值时,即所述用户当前的人脸表情图像与智能助手响应条件对应的人脸表情类型的差异在允许误差范围内。
若大于,则执行步骤:步骤S50,控制所述智能助手响应所述交互指令。
如上述举例中所述,第一神经网络模型预设的需要预测的表情类型与智能助手响应条件对应的表情类型一致,如均为“微笑”时,当预测结果中包括的针对预设表情类型的概率数值大于第一预设阈值时,则判断当前用户的表情类型为“微笑”时,则满足智能助手的响应条件,控制所述智能助手响应所述交互指令。
本实施例通过上述方案,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
进一步地,参照图6,图6为本发明智能助手的控制方法第三实施例的流程示意图。基于上述图4所示的实施例,所述姿态信息包括手势动作信息,步骤S30,根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
步骤S32,根据预设条件获取所述用户当前的手势动作信息,将所述手势动作信息输入至预设的第二神经网络模型进行预测,得到预测结果。
在本实施例中,所述姿态信息包括手势动作信息,智能助手处于开启状态,接收到用户发送的交互指令后,移动终端通过前置摄像头或后置摄像头采集所述用户当前的手势动作图像,来判断用户当前的手势动作是否满足智能助手响应条件对应的手势动作类型,若满足,智能助手则响应用户的交互指令。
具体地,移动终端将采集到的所述用户当前的手势动作图像输入至预设的第二神经网络模型进行预测,本实施例第二神经网络模型为预先经过用户手势动作训练后收敛的深度神经网络模型,其可以根据输入的手势动作输出一个针对预设动作类型的概率值,例如,第二神经网络模型预设需要预测的动作类型为:用户用手摸自己的耳朵,当接收到所述采集到的当前用户的手势动作图像后,模型输出一个所述用户当前的手势动作图像相较于“用户用手摸自己的耳朵”的动作的概率数值,概率数值越大,则所述用户当前的手势动作图像越接近预设动作类型,第二神经网络模型预设的需要预测的动作类型与智能助手响应条件对应的用户手势动作类型要求一致。
步骤S40,判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
步骤S42,判断所述预测结果包括的针对预设动作类型的概率数值是否大于第二预设阈值;
根据需求的智能助手的响应灵敏度,设置第二预设阈值,当预测结果中包括的针对预设动作类型的概率数值大于第二预设阈值时,即所述用户当前的手势动作图像与智能助手响应条件对应的动作类型的差异在允许误差范围内。
若大于,则执行步骤:步骤S50,控制所述智能助手响应所述交互指令。
如上述举例中所述,第二神经网络模型预设的需要预测的动作类型与智能助手响应条件对应的动作类型要求一致,如均为“用户用手摸自己的耳朵”时,当预测结果中包括的针对预设动作类型的概率数值大于第二预设阈值时,则判断出当前用户的动作类型为用户用手摸自己的耳朵,即满足智能助手的响应条件,控制所述智能助手响应所述交互指令。
本实施例通过上述方案,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
进一步地,参照图7,图7为本发明智能助手的控制方法第四实施例的流程示意图。基于上述图4所示的实施例,所述智能助手具有姿态识别模式及语音识别模式,步骤S20,基于所述开启状态,接收用户发送的交互指令的步骤之后还包括:
S21,判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式;
具体地,在本实施例中,用户可以结合使用场景等因素的不同在移动终端自行选择智能助手的响应模式:姿态识别模式还是语音识别模式。
若所述智能助手当前的响应模式为姿态识别模式,则执行步骤:S30,根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
作为一种实施方式,当用户在公共场合时,选择姿态识别模式,可以避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
若所述智能助手当前的响应模式为语音识别模式,则进入步骤S22,判断所述交互指令中是否包含预设的语音关键词,若包含,则执行步骤:步骤S50,控制所述智能助手响应所述交互指令。
作为一种实施方式,当移动终端与用户距离范围较大,移动终端不能通过摄像头采集用户的姿态信息进行姿态识别时,可以选择语音识别模式,移动终端预设有语音关键词,接收到用户发送的语音交互指令后,移动终端判断所述交互指令中是否包含预设的语音关键词,若包含,则执控制所述智能助手响应所述交互指令,由此对于移动终端距离用户范围较大,移动终端不能通过摄像头采集用户的姿态来识别以使用智能助手的情况给出了一种实施方式。
进一步地,参照图8,图8为本发明智能助手的控制方法第五实施例的流程示意图。基于上述图7所示的实施例,步骤S20,基于所述开启状态,接收用户发送的交互指令的步骤之后还包括;
步骤S23,获取所述移动终端当前的周围环境噪音参数;
根据移动终端的使用环境来自动切换智能助手的响应模式,提升用户的使用体验。
步骤S24,判断所述周围环境噪音参数是否大于预设的噪音阈值;
若移动终端当前所处的环境噪音超过了预设的噪音阈值,表明移动终端使用环境是比较嘈杂的环境,此时若使用语音识别模式,移动终端的识别准确性会大大降低。
若大于,则步骤S25,控制所述智能助手当前的响应模式为姿态识别模式,并进入步骤:步骤S30,根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果。
所述周围环境噪音参数大于预设的噪音阈值,即当判断出移动终端使用环境是嘈杂的环境时,移动终端基于当前环境自动控制所述智能助手的响应模式为姿态识别模式,当智能助手处于开启状态且接收到用户的交互指令后,进入姿态识别模式。
若小于,则进入步骤:步骤S21,判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式。
进一步地,若移动终端当前所处的环境噪音低于预设的噪音阈值,表明移动终端当前的使用环境是比较安静的环境,周围环境对于移动终端的语音识别不会存在较大的干扰。
若判断出移动终端周围环境噪音参数小于预设的噪音阈值,则进入步骤:步骤S21,判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式,由用户自行选择智能助手的响应模式,即进入上述图7所示的实施例的步骤,具体请参照上述图7所示的实施例,此处不再一一赘述。
本实施例通过上述方案,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然。
进一步的,基于上述实施例,步骤S10,接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态的步骤之后还包括步骤:
接收用户发送的退出指令,基于所述退出指令退出所述智能助手。
区别于现有技术中,本发明实施例通过上述方式,改善了现有技术中用户使用智能助手时,每次都需要首先按压物理按键开启智能助手或使用特定的语音关键词来唤醒智能助手才能使用所带来的操作不便及用户体验差的问题,简化了智能助手的使用步骤,避免了繁琐的操作过程给用户带来的不便,避免生硬的语音唤醒词给用户带来的尴尬,使人机交互更加自然、提升了用户的使用体验。
本发明还提供一种移动终端,所述移动终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的智能助手的控制程序,所述智能助手的控制程序被所述处理器执行时实现如上所述的智能助手的控制方法的步骤,其中在所述处理器上运行的智能助手的控制程序被执行时所实现的方法可参照本发明智能助手的控制方法实施例,在此不再赘述。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有智能助手的控制程序,所述智能助手的控制程序被处理器执行时实现如上所述的智能助手的控制方法的步骤,其中在所述处理器上运行的智能助手的程序被执行时所实现的方法可参照本发明智能助手的方法实施例,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种智能助手的控制方法,其特征在于,应用于移动终端,所述智能助手的控制方法包括如下步骤:
接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态;
基于所述开启状态,接收用户发送的交互指令;
根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
判断所述预测结果是否满足预设的智能助手响应条件;
若满足,则控制所述智能助手响应所述交互指令。
2.如权利要求1所述的智能助手的控制方法,其特征在于,所述姿态信息包括人脸表情信息,所述根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
根据预设条件获取所述用户当前的人脸表情信息,将所述人脸表情信息输入至预设的第一神经网络模型进行预测,得到预测结果。
3.如权利要求2所述的智能助手的控制方法,其特征在于,所述判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
判断所述预测结果包括的针对预设表情类型的概率数值是否大于第一预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
4.如权利要求1所述的智能助手的控制方法,其特征在于,所述姿态信息包括手势动作信息,所述根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果的步骤包括:
根据预设条件获取所述用户当前的手势动作信息,将所述手势动作信息输入至预设的第二神经网络模型进行预测,得到预测结果。
5.如权利要求4所述的智能助手的控制方法,其特征在于,所述判断所述预测结果是否满足预设的智能助手响应条件的步骤包括:
判断所述预测结果包括的针对预设动作类型的概率数值是否大于第二预设阈值;
若大于,则执行步骤:控制所述智能助手响应所述交互指令。
6.如权利要求1至5中任一项所述的智能助手的控制方法,其特征在于,所述智能助手具有姿态识别模式及语音识别模式,所述基于所述开启状态,接收用户发送的交互指令的步骤之后还包括:
判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式;
若所述智能助手当前的响应模式为姿态识别模式,则执行步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
若所述智能助手当前的响应模式为语音识别模式,则判断所述交互指令中是否包含预设的语音关键词,若包含,则执行步骤:控制所述智能助手响应所述交互指令。
7.如权利要求6所述的智能助手的控制方法,其特征在于,所述基于所述开启状态,接收用户发送的交互指令的步骤之后还包括;
获取所述移动终端当前的周围环境噪音参数;
判断所述周围环境噪音参数是否大于预设的噪音阈值;
若大于,则控制所述智能助手当前的响应模式为姿态识别模式,并进入步骤:根据预设条件获取所述用户当前的姿态信息,将所述姿态信息输入至预设的预测模型进行预测,得到预测结果;
若小于,则进入步骤:判断所述智能助手当前的响应模式为姿态识别模式还是语音识别模式。
8.如权利要求7所述的智能助手的控制方法,其特征在于,所述接收用户发送的开启指令,响应于所述开启指令开启智能助手,并在接收到用户发送的退出指令之前保持所述智能助手于开启状态的步骤之后还包括:
接收用户发送的退出指令,基于所述退出指令退出所述智能助手。
9.一种移动终端,其特征在于,所述移动终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的智能助手控制程序,所述智能助手控制程序被所述处理器执行时实现如权利要求1至8中任一项所述的智能助手控制方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能助手控制程序,所述智能助手控制程序被处理器执行时实现如权利要求1至8中任一项所述的智能助手控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811280677.XA CN109376669A (zh) | 2018-10-30 | 2018-10-30 | 智能助手的控制方法、移动终端及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811280677.XA CN109376669A (zh) | 2018-10-30 | 2018-10-30 | 智能助手的控制方法、移动终端及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109376669A true CN109376669A (zh) | 2019-02-22 |
Family
ID=65390833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811280677.XA Pending CN109376669A (zh) | 2018-10-30 | 2018-10-30 | 智能助手的控制方法、移动终端及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376669A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110944056A (zh) * | 2019-11-29 | 2020-03-31 | 深圳传音控股股份有限公司 | 交互方法、移动终端及可读存储介质 |
CN113362816A (zh) * | 2020-03-02 | 2021-09-07 | Oppo广东移动通信有限公司 | 增强现实交互方法、装置、系统、存储介质与电子设备 |
WO2022088964A1 (zh) * | 2020-10-31 | 2022-05-05 | 华为技术有限公司 | 一种电子设备的控制方法和装置 |
WO2024093515A1 (zh) * | 2022-11-04 | 2024-05-10 | 荣耀终端有限公司 | 一种语音交互方法及相关电子设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102929554A (zh) * | 2012-10-26 | 2013-02-13 | 北京金和软件股份有限公司 | 通过解锁手势来执行移动手持设备的信息的处理方法 |
CN103106401A (zh) * | 2013-02-06 | 2013-05-15 | 北京中科虹霸科技有限公司 | 具有人机交互机制的移动终端虹膜识别装置和方法 |
CN103531201A (zh) * | 2013-09-29 | 2014-01-22 | 上海云视科技有限公司 | 终端语音命名唤醒方法和系统 |
CN103795864A (zh) * | 2014-01-29 | 2014-05-14 | 华为技术有限公司 | 移动终端前后摄像头的选择方法和移动终端 |
CN106648054A (zh) * | 2016-10-08 | 2017-05-10 | 河海大学常州校区 | 一种基于RealSense的陪伴机器人的多模式交互方法 |
CN106782540A (zh) * | 2017-01-17 | 2017-05-31 | 联想(北京)有限公司 | 语音设备及包括所述语音设备的语音交互系统 |
CN107734370A (zh) * | 2017-10-18 | 2018-02-23 | 北京地平线机器人技术研发有限公司 | 信息交互方法、信息交互装置和电子设备 |
US20180131904A1 (en) * | 2013-06-26 | 2018-05-10 | Touchcast LLC | Intelligent virtual assistant system and method |
CN108133708A (zh) * | 2017-12-04 | 2018-06-08 | 维沃移动通信有限公司 | 一种语音助手的控制方法、装置及移动终端 |
US20180232645A1 (en) * | 2017-02-14 | 2018-08-16 | Microsoft Technology Licensing, Llc | Alias resolving intelligent assistant computing device |
CN108406776A (zh) * | 2018-05-09 | 2018-08-17 | 科沃斯商用机器人有限公司 | 安全交互方法、安全交互装置及服务机器人 |
CN108427310A (zh) * | 2018-05-17 | 2018-08-21 | 深圳市零度智控科技有限公司 | 智能家居控制方法、装置及计算机可读存储介质 |
CN108536293A (zh) * | 2018-03-29 | 2018-09-14 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN108646920A (zh) * | 2018-05-16 | 2018-10-12 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
CN108681402A (zh) * | 2018-05-16 | 2018-10-19 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
-
2018
- 2018-10-30 CN CN201811280677.XA patent/CN109376669A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102929554A (zh) * | 2012-10-26 | 2013-02-13 | 北京金和软件股份有限公司 | 通过解锁手势来执行移动手持设备的信息的处理方法 |
CN103106401A (zh) * | 2013-02-06 | 2013-05-15 | 北京中科虹霸科技有限公司 | 具有人机交互机制的移动终端虹膜识别装置和方法 |
US20180131904A1 (en) * | 2013-06-26 | 2018-05-10 | Touchcast LLC | Intelligent virtual assistant system and method |
CN103531201A (zh) * | 2013-09-29 | 2014-01-22 | 上海云视科技有限公司 | 终端语音命名唤醒方法和系统 |
CN103795864A (zh) * | 2014-01-29 | 2014-05-14 | 华为技术有限公司 | 移动终端前后摄像头的选择方法和移动终端 |
CN106648054A (zh) * | 2016-10-08 | 2017-05-10 | 河海大学常州校区 | 一种基于RealSense的陪伴机器人的多模式交互方法 |
CN106782540A (zh) * | 2017-01-17 | 2017-05-31 | 联想(北京)有限公司 | 语音设备及包括所述语音设备的语音交互系统 |
US20180232645A1 (en) * | 2017-02-14 | 2018-08-16 | Microsoft Technology Licensing, Llc | Alias resolving intelligent assistant computing device |
CN107734370A (zh) * | 2017-10-18 | 2018-02-23 | 北京地平线机器人技术研发有限公司 | 信息交互方法、信息交互装置和电子设备 |
CN108133708A (zh) * | 2017-12-04 | 2018-06-08 | 维沃移动通信有限公司 | 一种语音助手的控制方法、装置及移动终端 |
CN108536293A (zh) * | 2018-03-29 | 2018-09-14 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN108406776A (zh) * | 2018-05-09 | 2018-08-17 | 科沃斯商用机器人有限公司 | 安全交互方法、安全交互装置及服务机器人 |
CN108646920A (zh) * | 2018-05-16 | 2018-10-12 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
CN108681402A (zh) * | 2018-05-16 | 2018-10-19 | Oppo广东移动通信有限公司 | 识别交互方法、装置、存储介质及终端设备 |
CN108427310A (zh) * | 2018-05-17 | 2018-08-21 | 深圳市零度智控科技有限公司 | 智能家居控制方法、装置及计算机可读存储介质 |
Non-Patent Citations (5)
Title |
---|
中国支付清算协会: "《移动支付安全与实践》", 30 June 2018, 中国金融出版社 * |
张代君: "后4G时代,智能终端的关键技术", 《信息通信技术》 * |
李麟: "《智慧银行 未来银行服务新模式》", 30 November 2017, 中国金融出版社 * |
洪涛: "《物联网经济学》", 30 November 2011, 中国铁道出版社 * |
王炳锡: "《实用语音识别基础》", 31 January 2005, 国防工业出版社 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110944056A (zh) * | 2019-11-29 | 2020-03-31 | 深圳传音控股股份有限公司 | 交互方法、移动终端及可读存储介质 |
CN113362816A (zh) * | 2020-03-02 | 2021-09-07 | Oppo广东移动通信有限公司 | 增强现实交互方法、装置、系统、存储介质与电子设备 |
WO2022088964A1 (zh) * | 2020-10-31 | 2022-05-05 | 华为技术有限公司 | 一种电子设备的控制方法和装置 |
CN114449110A (zh) * | 2020-10-31 | 2022-05-06 | 华为技术有限公司 | 一种电子设备的控制方法和装置 |
CN114449110B (zh) * | 2020-10-31 | 2023-11-03 | 华为技术有限公司 | 一种电子设备的控制方法和装置 |
WO2024093515A1 (zh) * | 2022-11-04 | 2024-05-10 | 荣耀终端有限公司 | 一种语音交互方法及相关电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175062A (zh) | 一种移动终端的屏幕刷新帧率方法、移动终端及存储介质 | |
CN109407957A (zh) | 屏幕触摸控制方法、终端及计算机可读存储介质 | |
CN109085990A (zh) | 一种手势控制方法、移动终端及计算机可读存储介质 | |
CN109376669A (zh) | 智能助手的控制方法、移动终端及计算机可读存储介质 | |
CN110022401A (zh) | 一种控制参数设置方法、终端及计算机可读存储介质 | |
CN108881635A (zh) | 屏幕亮度调节方法、移动终端及计算机可读存储介质 | |
CN110531919A (zh) | 一种指纹触控映射控制方法、终端及计算机可读存储介质 | |
CN109117105A (zh) | 一种协同桌面交互调控方法、设备及计算机可读存储介质 | |
CN109462700A (zh) | 一种通话方法、移动终端及计算机可读存储介质 | |
CN108958625A (zh) | 一种屏幕交互调控方法、设备及计算机可读存储介质 | |
CN110096213A (zh) | 基于手势的终端操作方法、移动终端及可读存储介质 | |
CN109976641A (zh) | 基于截屏图片的操作方法、终端和计算机可读存储介质 | |
CN110045830A (zh) | 应用操作方法、装置及计算机可读存储介质 | |
CN109739346A (zh) | 一种按键模拟方法、双屏终端及计算机可读存储介质 | |
CN109889651A (zh) | 一种通知消息处理方法、终端及计算机可读存储介质 | |
CN109669512A (zh) | 一种显示控制方法、折叠屏终端及计算机可读存储介质 | |
CN109389394A (zh) | 一种多屏支付控制方法、设备及计算机可读存储介质 | |
CN110096173A (zh) | 移动终端控制方法、移动终端及计算机可读存储介质 | |
CN109800097A (zh) | 通知消息提醒方法、存储介质和移动终端 | |
CN109711850A (zh) | 一种安全支付方法、设备及计算机可读存储介质 | |
CN109669616A (zh) | 一种侧屏交互控制方法、设备及计算机可读存储介质 | |
CN109683796A (zh) | 一种交互控制方法、设备及计算机可读存储介质 | |
CN109889660A (zh) | 临时信息记录方法、存储介质和移动终端 | |
CN109753220A (zh) | 防误触方法、移动终端及计算机可读存储介质 | |
CN109151201A (zh) | 一种防沉迷方法、移动终端以及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190222 |
|
RJ01 | Rejection of invention patent application after publication |