CN108304155A - 一种人机交互控制方法 - Google Patents
一种人机交互控制方法 Download PDFInfo
- Publication number
- CN108304155A CN108304155A CN201810079615.6A CN201810079615A CN108304155A CN 108304155 A CN108304155 A CN 108304155A CN 201810079615 A CN201810079615 A CN 201810079615A CN 108304155 A CN108304155 A CN 108304155A
- Authority
- CN
- China
- Prior art keywords
- file
- audio
- instruction
- human
- man
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/14—Details of searching files based on file metadata
- G06F16/148—File search processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/14—Details of searching files based on file metadata
- G06F16/156—Query results presentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明属于人机交互技术领域,公开了一种人机交互控制方法,解决了现有的人机交互控制方法导致的用户沉浸感差、教育意义不大等问题。本发明首先通过红外线传感器实时检测预设范围内是否有人;接着控制音频输入模块与控制人机交互界面运行;接着将检测到的音频操作指令与预存的音频指令文件进行匹配,匹配成功后,实时获取成功匹配的音频操作指令;接着判断来自人机交互界面的动作操作指令是否为有效指令,实时获取有效的动作操作指令;接着将获取的指令转换成可进行索引的文件信息,并根据文件信息查找匹配的文件;最后将查找到的文件进行输出。本发明保证了指令的准确性,增加了儿童与系统之间的交互频率,提高了教育意义。
Description
技术领域
本发明属于人机交互技术领域,具体涉及一种人机交互控制方法。
背景技术
人机交互是决定计算机系统“友善性”的一个重要因素,人机交互功能主要依赖可输入输出的外部设备和相应的软件来完成,人机交互部分的主要作用是控制有关设备的运行和理解并执行通过人机交互设备传来的有关的各种命令和要求。随着智能产品对各个年龄段的普及,人们对于人机交互的使用频率越来越高,对系统的人机交互的要求也越来越高。
但是现有人机交互控制方法主要针对的年龄段是青少年及以上,对于10岁以下的儿童没有进行专门设计,但是在儿童成长阶段,观看视频及收听语音是一种非常重要的教育方式,现有的用于观看视频及收听语音的系统只是作为一个输出器,没有过多的人机交互,儿童只能被动地看或听预存的文件,无法与儿童在这个过程中产生互动,导致整个系统的使用过程乏味且教育意义不大。
发明内容
为了解决现有技术存在的上述问题,本发明目的在于提供一种人机交互控制方法。
本发明所采用的技术方案为:
一种人机交互控制方法,其特征在于:包括以下步骤:
S1.通过红外线传感器实时检测预设范围内是否有人;
S2.当S1中的检测结果为否时,重复步骤S1,当S1中的检测结果为是时,控制音频输入模块开始运行,并控制人机交互界面显示预设画面;
S3.将音频输入模块检测到的音频操作指令与预存的音频指令文件进行匹配,匹配成功后,实时获取成功匹配的音频操作指令;
S4.判断来自人机交互界面的动作操作指令是否为有效指令,实时获取有效的动作操作指令;
S5.将获取的音频操作指令和/或动作操作指令转换成可进行索引的文件信息,并根据文件信息查找匹配的文件;
S6.将步骤S5中查找到的文件通过人机交互界面和/或音频输出模块进行输出;
步骤S3与步骤S4是同步运行的步骤。
作为优选,上述的人机交互控制方法还包括以下步骤:
S7.人机交互界面和/或音频输出模块输出文件时,监控文件输出进度,当输出进度到达预设的选择节点时,通过人机交互界面和/或音频输出模块输出当前选择节点对应的互动文件;
S8.输出互动文件后,通过人机交互界面和/或音频输出模块实时检测互动语音操作指令和/或互动动作操作指令,并重复步骤S3与步骤S4;
S9.判断在预设等待时间内是否有互动音频操作指令和/或互动动作操作指令产生;
S10.如S9中的判断结果为是,则重复步骤S5,如S9中的判断结果为否,则继续通过人机交互界面和/或音频输出模块输出互动文件后预设的第一顺位的选项文件。
作为优选,所述的步骤S10中选项文件输出结束后,通过人机交互界面和音频输出模块输出结束提示信息,然后重复步骤S1。
作为优选,任一互动文件包括2个以上的互动选项;任一互动选项均有唯一对应的位置标签及唯一对应的选项文件。
作为优选,所述的文件信息包括名称、存储地址、标签及存储时间中的一种或几种。
作为优选,所述的步骤S5中,当音频操作指令转换的文件信息与动作操作指令转换的文件信息不一致时,执行动作操作指令转换的文件信息。
作为优选,根据音频操作指令与动作操作指令控制网络通信单元或本地音源单元,然后分别从云服务器或本地存储设备查找对应的文件。
作为优选,为每个音频操作指令与每个动作操作指令分别配置唯一对应的时间标签,并将每个音频操作指令与其对应的时间标签及每个动作操作指令与其对应的时间标签存入云服务器或本地存储设备。
本发明的有益效果为:
1)通过感应触发的方式,避免了儿童在使用系统时的不便,且人机交互界面和音频输入模块双重识别控制指令,方便及时获取到指令,并保证指令的准确性,同时选择节点的设置增加了儿童与系统之间的交互频率,使得儿童沉浸感更强;
2)通过人机交互界面和音频输入模块采集环境中产生的指令,使得系统的操作难度降低,适用于在各个年龄段的儿童中推行使用,且本发明使得系统的趣味性显著增加,进一步增加了儿童自主学习的能力,提高了教育意义;
3)本发明通过网络通信单元与本地音源单元的结合,使得系统能够分别从云服务器及本地存储设备获取所需的文件,使得文件可以共享,且提高了文件的存储量,方便用户找到合适的文件,适于推广使用。
附图说明
图1是本发明的结构框图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步阐释。
实施例:
本实施例提供一种人机交互控制方法,具体步骤如下:
S1.通过红外线传感器实时检测预设范围内是否有人;
由此避免了用户需要做出开机、打开人机界面及音频输入模块等操作,节省操作步骤,系统智能化程度更高。
S2.当S1中的检测结果为否时,重复步骤S1,当S1中的检测结果为是时,控制音频输入模块开始运行,并控制人机交互界面显示预设画面;
由此使得在有用户进入预设的使用距离后,在最短时间内做好获取指令的准备,用户也可以直接开始发送指令,避免激活指令采集模块耗费过长时间,影响正常使用。
S3.将音频输入模块检测到的音频操作指令与预存的音频指令文件进行匹配,匹配成功后,实时获取成功匹配的音频操作指令;
音频输入模块包括音频检测装置(可以但不仅限于为麦克风)及语音识别装置(可以但不仅限于为语音识别芯片),由此实现上述的检测功能及识别功能,语音识别装置与预存有音频指令文件的存储器通信集成,由此可以缩短音频操作指令的匹配时间。
S4.判断来自人机交互界面的动作操作指令是否为有效指令,实时获取有效的动作操作指令;
人机交互界面可以但不仅限于为触摸显示屏或集成有触摸板的显示屏,由此用户可以通过操作触摸板或触摸显示屏输入下一步的操作指令。
有效指令可以包括有效文字指令、有效选择指令及有效条件指令,其中,文字指令、选择指令及条件指令均需与预存的文字指令文件匹配后才能判定位有效指令。
步骤S3与步骤S4是同步运行的步骤,由此使得音频检测与动作检测同步执行,避免了先后执行造成的指令遗漏及匹配时间过长。
S5.将获取的音频操作指令和/或动作操作指令转换成可进行索引的文件信息,并根据文件信息查找匹配的文件;转换时,采用关键字提取的方式;
本实施例中,文件信息包括名称、存储地址、标签及存储时间中的一种或几种,由此使得每一个文件都有一个以上的方式可以被快速找到,使得文件查找时间大大缩短。
本实施例中,当音频操作指令转换的文件信息与动作操作指令转换的文件信息不一致时,执行动作操作指令转换的文件信息;由此避免了环境噪音对指令执行造成的干扰,避免错误指令的执行,同时避免选择指令造成的时间延误,用户可以在系统初始设置的时候选择上述不一致情况出现时默认执行的指令为音频操作指令还是动作操作指令。
S6.将步骤S5中查找到的文件通过人机交互界面和/或音频输出模块进行输出;
当查找到的文件为音频时,通过音频输出模块输出,人机交互界面输出预设背景图片;当查找到的文件为图片时,通过人机交互界面输出,音频输出模块暂停运行;当查找到的文件为视频时,通过音频输出模块及人机交互界面输出;由此保证了不同格式的文件均能通过相应的硬件进行输出,使得用户体验度更佳。
本实施例中,上述的人机交互控制方法还包括以下步骤:
S7.人机交互界面和/或音频输出模块输出文件时,监控文件输出进度,当输出进度到达预设的选择节点时,通过人机交互界面和/或音频输出模块输出当前选择节点对应的互动文件;
本实施例中,任一互动文件包括2个以上的互动选项;任一互动选项均有唯一对应的位置标签及唯一对应的选项文件;互动选项及对应选项文件的设置,使得每一个文件可以根据指令的选择不同而呈现不一样的文件,如:在儿童应用时,使得每一个故事文件可以根据指令的不同而呈现不同的情节及结局,增加互动性。
S8.输出互动文件后,通过人机交互界面和/或音频输出模块实时检测互动语音操作指令和/或互动动作操作指令,并重复步骤S3与步骤S4,进行互动语音操作指令的匹配及互动动作操作指令的有效判定。
S9.判断在预设等待时间内是否有互动音频操作指令和/或互动动作操作指令产生;
设置预设等待时间的目的是避免用户没有反馈或用户输入的指令有误时,等待时间过长影响文件输出的连贯性。
S10.如S9中的判断结果为是,则重复步骤S5,如S9中的判断结果为否,则继续通过人机交互界面和/或音频输出模块输出互动文件后预设的第一顺位的选项文件;本实施例中,步骤S10中选项文件输出结束后,通过人机交互界面和音频输出模块输出结束提示信息,然后重复步骤S1,其中,选项文件输出结束是指当前选项文件中不存在预设的选择节点,且当前选项文件已输出100%。
如有互动音频操作指令和/或互动动作操作指令产生,则可以通过执行互动音频操作指令和/或互动动作操作指令查找到对应的选项文件进行输出。
如没有互动音频操作指令和/或互动动作操作指令产生,则选择第一顺位的选项文件,第一顺位的选项文件是指与当前互动文件对应的选项文件中标志位为1的选项文件,由此保证了文件输出的连贯性,且避免未匹配指令和/或无效指令导致的文件输出中断,影响用户体验度。
本实施例中,根据音频操作指令与动作操作指令控制网络通信单元或本地音源单元,然后分别从云服务器或本地存储设备查找对应的文件,由此使得系统能够分别从云服务器及本地存储设备获取所需的文件,使得文件可以共享,且提高了文件的存储量,方便用户找到合适的文件;同时,为每个音频操作指令与每个动作操作指令分别配置唯一对应的时间标签,并将每个音频操作指令与其对应的时间标签及每个动作操作指令与其对应的时间标签存入云服务器或本地存储设备,当需要读取历史指令时,从云服务器或本地存储设备中读取即可,由此便于后期数据查看及反查。
本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。
Claims (8)
1.一种人机交互控制方法,其特征在于:包括以下步骤:
S1.通过红外线传感器实时检测预设范围内是否有人;
S2.当S1中的检测结果为否时,重复步骤S1,当S1中的检测结果为是时,控制音频输入模块开始运行,并控制人机交互界面显示预设画面;
S3.将音频输入模块检测到的音频操作指令与预存的音频指令文件进行匹配,匹配成功后,实时获取成功匹配的音频操作指令;
S4.判断来自人机交互界面的动作操作指令是否为有效指令,实时获取有效的动作操作指令;
S5.将获取的音频操作指令和/或动作操作指令转换成可进行索引的文件信息,并根据文件信息查找匹配的文件;
S6.将步骤S5中查找到的文件通过人机交互界面和/或音频输出模块进行输出;
步骤S3与步骤S4是同步运行的步骤。
2.根据权利要求1所述的人机交互控制方法,其特征在于:还包括以下步骤:
S7.人机交互界面和/或音频输出模块输出文件时,监控文件输出进度,当输出进度到达预设的选择节点时,通过人机交互界面和/或音频输出模块输出当前选择节点对应的互动文件;
S8.输出互动文件后,通过人机交互界面和/或音频输出模块实时检测互动语音操作指令和/或互动动作操作指令,并重复步骤S3与步骤S4;
S9.判断在预设等待时间内是否有互动音频操作指令和/或互动动作操作指令产生;
S10.如S9中的判断结果为是,则重复步骤S5,如S9中的判断结果为否,则继续通过人机交互界面和/或音频输出模块输出互动文件后预设的第一顺位的选项文件。
3.根据权利要求2所述的人机交互控制方法,其特征在于:所述的步骤S10中选项文件输出结束后,通过人机交互界面和音频输出模块输出结束提示信息,然后重复步骤S1。
4.根据权利要求3所述的人机交互控制方法,其特征在于:任一互动文件包括2个以上的互动选项;任一互动选项均有唯一对应的位置标签及唯一对应的选项文件。
5.根据权利要求1所述的人机交互控制方法,其特征在于:所述的文件信息包括名称、存储地址、标签及存储时间中的一种或几种。
6.根据权利要求1所述的人机交互控制方法,其特征在于:所述的步骤S5中,当音频操作指令转换的文件信息与动作操作指令转换的文件信息不一致时,执行动作操作指令转换的文件信息。
7.根据权利要求1至6任一所述的人机交互控制方法,其特征在于:根据音频操作指令与动作操作指令控制网络通信单元或本地音源单元,然后分别从云服务器或本地存储设备查找对应的文件。
8.根据权利要求7所述的人机交互控制方法,其特征在于:为每个音频操作指令与每个动作操作指令分别配置唯一对应的时间标签,并将每个音频操作指令与其对应的时间标签及每个动作操作指令与其对应的时间标签存入云服务器或本地存储设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810079615.6A CN108304155A (zh) | 2018-01-26 | 2018-01-26 | 一种人机交互控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810079615.6A CN108304155A (zh) | 2018-01-26 | 2018-01-26 | 一种人机交互控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108304155A true CN108304155A (zh) | 2018-07-20 |
Family
ID=62866737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810079615.6A Pending CN108304155A (zh) | 2018-01-26 | 2018-01-26 | 一种人机交互控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108304155A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492368A (zh) * | 2018-10-26 | 2019-03-19 | 东南大学 | 一种适用于智能设备语音命令应答的二次鉴权方法 |
CN110262662A (zh) * | 2019-06-20 | 2019-09-20 | 河北识缘信息科技发展有限公司 | 一种智能人机交互方法 |
WO2020051893A1 (zh) * | 2018-09-14 | 2020-03-19 | 郑永利 | 互动系统、方法及处理装置 |
CN111324202A (zh) * | 2020-02-19 | 2020-06-23 | 中国第一汽车股份有限公司 | 一种交互方法、装置、设备及存储介质 |
CN111676658A (zh) * | 2019-02-25 | 2020-09-18 | 青岛海尔洗衣机有限公司 | 衣物处理设备交互界面的交互方法 |
CN113534958A (zh) * | 2021-07-24 | 2021-10-22 | 深圳供电局有限公司 | 一种基于多轮对话的人机交互控制系统及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102354349A (zh) * | 2011-10-26 | 2012-02-15 | 华中师范大学 | 提高孤独症儿童社会互动能力的人机互动多模态早期干预系统 |
CN102707797A (zh) * | 2011-03-02 | 2012-10-03 | 微软公司 | 通过自然用户界面控制多媒体系统中的电子设备 |
US20130163090A1 (en) * | 2011-12-22 | 2013-06-27 | Mattel, Inc. | Augmented Reality Head Gear |
CN103869966A (zh) * | 2012-12-17 | 2014-06-18 | 力格设计实业有限公司 | 体感家居用电产品控制设备及其系统 |
CN103914129A (zh) * | 2013-01-04 | 2014-07-09 | 云联(北京)信息技术有限公司 | 一种人机交互系统及方法 |
CN104049724A (zh) * | 2013-03-13 | 2014-09-17 | 腾讯科技(深圳)有限公司 | 触控事件的声音生成方法及装置 |
CN106909217A (zh) * | 2017-01-17 | 2017-06-30 | 深圳市幻实科技有限公司 | 一种增强现实的全息投影交互方法、装置及系统 |
CN107103795A (zh) * | 2017-06-28 | 2017-08-29 | 广州播比网络科技有限公司 | 一种故事机的交互式播放方法 |
-
2018
- 2018-01-26 CN CN201810079615.6A patent/CN108304155A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102707797A (zh) * | 2011-03-02 | 2012-10-03 | 微软公司 | 通过自然用户界面控制多媒体系统中的电子设备 |
CN102354349A (zh) * | 2011-10-26 | 2012-02-15 | 华中师范大学 | 提高孤独症儿童社会互动能力的人机互动多模态早期干预系统 |
US20130163090A1 (en) * | 2011-12-22 | 2013-06-27 | Mattel, Inc. | Augmented Reality Head Gear |
CN103869966A (zh) * | 2012-12-17 | 2014-06-18 | 力格设计实业有限公司 | 体感家居用电产品控制设备及其系统 |
CN103914129A (zh) * | 2013-01-04 | 2014-07-09 | 云联(北京)信息技术有限公司 | 一种人机交互系统及方法 |
CN104049724A (zh) * | 2013-03-13 | 2014-09-17 | 腾讯科技(深圳)有限公司 | 触控事件的声音生成方法及装置 |
CN106909217A (zh) * | 2017-01-17 | 2017-06-30 | 深圳市幻实科技有限公司 | 一种增强现实的全息投影交互方法、装置及系统 |
CN107103795A (zh) * | 2017-06-28 | 2017-08-29 | 广州播比网络科技有限公司 | 一种故事机的交互式播放方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020051893A1 (zh) * | 2018-09-14 | 2020-03-19 | 郑永利 | 互动系统、方法及处理装置 |
CN109492368A (zh) * | 2018-10-26 | 2019-03-19 | 东南大学 | 一种适用于智能设备语音命令应答的二次鉴权方法 |
CN111676658A (zh) * | 2019-02-25 | 2020-09-18 | 青岛海尔洗衣机有限公司 | 衣物处理设备交互界面的交互方法 |
CN111676658B (zh) * | 2019-02-25 | 2022-12-09 | 青岛海尔洗衣机有限公司 | 衣物处理设备交互界面的交互方法 |
CN110262662A (zh) * | 2019-06-20 | 2019-09-20 | 河北识缘信息科技发展有限公司 | 一种智能人机交互方法 |
CN111324202A (zh) * | 2020-02-19 | 2020-06-23 | 中国第一汽车股份有限公司 | 一种交互方法、装置、设备及存储介质 |
CN113534958A (zh) * | 2021-07-24 | 2021-10-22 | 深圳供电局有限公司 | 一种基于多轮对话的人机交互控制系统及方法 |
CN113534958B (zh) * | 2021-07-24 | 2023-08-22 | 深圳供电局有限公司 | 一种基于多轮对话的人机交互控制系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304155A (zh) | 一种人机交互控制方法 | |
CN108877791B (zh) | 基于视图的语音交互方法、装置、服务器、终端和介质 | |
KR102429436B1 (ko) | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 | |
CN110334347B (zh) | 基于自然语言识别的信息处理方法、相关设备及存储介质 | |
EP3719630A1 (en) | Apparatus control system, apparatus control method, and program | |
KR101897492B1 (ko) | 디스플레이 장치 및 이의 하이퍼링크 실행 방법 및 음성 인식 방법 | |
CN109618202B (zh) | 控制外设的方法、电视及可读存储介质 | |
US10846475B2 (en) | Emoji input method and device thereof | |
CN107357787B (zh) | 语义交互方法、装置及电子设备 | |
CN112492442A (zh) | 一种蓝牙耳机的连接切换方法、装置、设备及存储介质 | |
CN112735418B (zh) | 一种语音交互的处理方法、装置、终端及存储介质 | |
CN104795068A (zh) | 机器人的唤醒控制方法及其控制系统 | |
CN110047481A (zh) | 用于语音识别的方法和装置 | |
CN105869635B (zh) | 一种语音识别方法及系统 | |
CN110992955A (zh) | 一种智能设备的语音操作方法、装置、设备及存储介质 | |
WO2020055071A1 (en) | System and method for dynamic trend clustering | |
CN112286485B (zh) | 通过语音控制应用的方法、装置、电子设备与存储介质 | |
CN112163086A (zh) | 多意图的识别方法、显示设备 | |
CN109448727A (zh) | 语音交互方法以及装置 | |
CN112466296A (zh) | 语音交互的处理方法、装置、电子设备及存储介质 | |
Torad et al. | A voice controlled smart home automation system using artificial intelligent and internet of things | |
CN114155855A (zh) | 语音识别方法、服务器以及电子设备 | |
CN111933149A (zh) | 语音交互方法、穿戴式设备、终端及语音交互系统 | |
WO2022100283A1 (zh) | 显示设备、控件触发方法及滚动文本检测方法 | |
KR102599948B1 (ko) | 전자 장치 및 그의 와이파이 연결 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180720 |