CN112631429B - 一种虚拟现实场景下的注视点语音交互装置及方法 - Google Patents
一种虚拟现实场景下的注视点语音交互装置及方法 Download PDFInfo
- Publication number
- CN112631429B CN112631429B CN202011584799.5A CN202011584799A CN112631429B CN 112631429 B CN112631429 B CN 112631429B CN 202011584799 A CN202011584799 A CN 202011584799A CN 112631429 B CN112631429 B CN 112631429B
- Authority
- CN
- China
- Prior art keywords
- pitch
- voice
- instruction
- virtual reality
- yaw
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims description 9
- 230000003213 activating effect Effects 0.000 claims abstract description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 11
- 238000005070 sampling Methods 0.000 claims description 21
- 230000002159 abnormal effect Effects 0.000 claims description 10
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。所述语音交互模块接入第三方语音识别模块的方式执行语音交互。本发明增加适用于虚拟现实用户界面的语音交互方案,并使用注视点唤醒方式取代现有语音产品中主流的唤醒词唤醒及按键唤醒方式,提高虚拟现实多模交互的用户体验。
Description
技术领域
本发明属于虚拟现实交互技术、语音交互技术领域,具体是一种虚拟现实场景下的注视点语音交互方法。
背景技术
在相关技术领域中,已存在基于注视点交互相关技术,但此类技术多基于手机、电脑等相对普及的设备终端实现,然而传统的注视点预测方式主要适用于手机、电脑等终端设备使用,并不适用于虚拟现实头戴设备终端。
CN202010394171.2公开了一种注视点显示方法及相关装置,其是基于摄像头数据的注视点预测,而使用摄像头进行注视点预测需要耗费的运算资源相对较高,且不适用于虚拟现实的通用设备执行条件。CN201611027164.9公开了虚拟现实系统、语音交互方法及装置,该专利存在引发误操作的情况。
基于虚拟现实设备的注视点交互研究仍处于初期阶段,现有虚拟现实交互采用手柄交互及头瞄交互,而语音交互作为一种简便的交互方式未实现。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提供了一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,
所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。
所述语音交互模块接入第三方语音识别模块的方式执行语音交互。
进一步的,所述注视点预测模块以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测。
进一步的,该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a)。
进一步的,所述交互意图决策模块首先设定可用于触发语音交互的虚拟现实界面的区域范围,其次设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定区域范围的边界范围条件,则判断用户存在针对该区域的语音交互意图,并激活语音交互。
进一步的,所述区域范围为有边界的平面区域,可为多边形、圆形或任意闭环边界图形。
进一步的,所述区域范围为矩形边界范围,该边界范围满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
进一步的,所述语音交互模块建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈等。同时设定语音交互结束条件,如交互时间到达限定范围、注视点脱离预设范围等。
进一步的,用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息。若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
本发明还提供了一种虚拟现实场景下的注视点语音交互方法,包括如下步骤:
步骤一、使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
步骤二、预测当前用户的意图,并判断当前用户行为是否适合激活语音交互的意图,若判断用户行为适合语音交互意图,则激活语音交互;
步骤三、用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
本发明在以往基于注视点的交互方式基础上增加了对用户意图的判断,通过二次校验用户当前所处的虚拟现实场景条件,降低语音交互的误触发概率;从虚拟现实头戴设备终端可采集的通用数据出发,采用适合于虚拟现实场景的注视点预测方法,且对硬件运算能力要求较低。
本发明增加适用于虚拟现实用户界面的语音交互方案,并使用注视点唤醒方式取代现有语音产品中主流的唤醒词唤醒及按键唤醒方式,使用意向性操作弱化语音交互启动时的硬感知,提高虚拟现实多模交互的用户体验。
附图说明
图1是本发明的注视点语音交互装置使用场景示意图;
图2是触发语音交互的虚拟现实界面的矩形区域示意图;
图3是本发明的虚拟现实场景下的注视点语音交互模块及流程图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1-3所示,本发明的虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块。
本发明实施例使用的虚拟现实头戴设备可以是:全志VR9以上性能SoC,包含电子罗盘、陀螺仪、麦克风、显示器等基础硬件。
所述注视点预测模块用于预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置,由于虚拟现实头戴设备并未搭载眼动仪等专用设备用于直接判断注视点,故以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点或运动轨迹进行趋势预测,将预测结果输入意图决策模块。
该预测算法通过虚拟现实头戴硬件设备进行数据采样,主要使用虚拟现实头戴硬件设备中的电子罗盘传感器元件,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,可得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a)
交互意图决策模块对两方面进行判断,一为当前用户行为是否适合激活语音交互的意图,二为语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。
首先需设定可用于触发语音交互的虚拟现实界面的区域范围,该范围为有边界平面区域,可为多边形、圆形或任意闭环边界图形。以矩形边界范围为例,该边界需满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
此外还需设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定的边界范围条件,则判断当前用户行为适合激活语音交互的意图,并激活语音交互。
所述语音交互模块接入第三方语音识别模块的方式执行。首先建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈等,同时设定语音交互结束条件,包括交互时间到达限定范围、注视点脱离预设范围等。
用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息。若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
Claims (7)
1.一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,其特征在于:
所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策;
所述语音交互模块接入第三方语音识别模块的方式执行语音交互;
所述注视点预测模块以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测;
该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a);
其中,〖pitch〗_1、〖pitch〗_2、…〖pitch〗_n为第1、2、…n个采样点角度的俯仰角,〖yaw〗_1、〖yaw〗_2、…〖yaw〗_n为第1、2、…n个采样点角度的偏航角。
2.如权利要求1所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述交互意图决策模块首先设定可用于触发语音交互的虚拟现实界面的区域范围,其次设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定区域范围的边界范围条件,则判断用户存在针对该区域的语音交互意图,并激活语音交互。
3.如权利要求2所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述区域范围为有边界的平面区域,所述平面区域为任意闭环边界图形。
4.如权利要求2或3所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述区域范围为矩形边界范围,该边界范围满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,〖yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
5.如权利要求1所述的虚拟现实场景下的注视点语音交互装置,其特征在于:所述语音交互模块建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈;同时设定语音交互结束条件,所述音交互结束条件为交互时间到达限定范围、注视点脱离预设范围。
6.如权利要求5所述的虚拟现实场景下的注视点语音交互装置,其特征在于:用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈;若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
7.一种虚拟现实场景下的注视点语音交互方法,包括如下步骤:
步骤一、使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测;
该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a);
其中,〖pitch〗_1、〖pitch〗_2、…〖pitch〗_n为第1、2、…n个采样点角度的俯仰角,〖yaw〗_1、〖yaw〗_2、…〖yaw〗_n为第1、2、…n个采样点角度的偏航角;
步骤二、预测当前用户的意图,并判断当前用户行为是否适合激活语音交互的意图,若判断用户行为适合语音交互意图,则激活语音交互;
步骤三、用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈;若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011584799.5A CN112631429B (zh) | 2020-12-28 | 2020-12-28 | 一种虚拟现实场景下的注视点语音交互装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011584799.5A CN112631429B (zh) | 2020-12-28 | 2020-12-28 | 一种虚拟现实场景下的注视点语音交互装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112631429A CN112631429A (zh) | 2021-04-09 |
CN112631429B true CN112631429B (zh) | 2022-06-21 |
Family
ID=75285715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011584799.5A Active CN112631429B (zh) | 2020-12-28 | 2020-12-28 | 一种虚拟现实场景下的注视点语音交互装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112631429B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655927B (zh) * | 2021-08-24 | 2024-04-26 | 亮风台(上海)信息科技有限公司 | 一种界面交互方法与设备 |
CN115981517B (zh) * | 2023-03-22 | 2023-06-02 | 北京同创蓝天云科技有限公司 | Vr多端协同交互方法及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106558310A (zh) * | 2016-10-14 | 2017-04-05 | 北京百度网讯科技有限公司 | 虚拟现实语音控制方法及装置 |
CN108958463A (zh) * | 2017-05-26 | 2018-12-07 | 深圳纬目信息技术有限公司 | 一种带有眼控和语音识别的头戴式设备和交互方法 |
CN109478097A (zh) * | 2016-06-16 | 2019-03-15 | Smi创新传感技术有限公司 | 用于提供关于用户行为的基于眼睛追踪的信息的方法和系统、客户端设备、服务器和计算机程序产品 |
CN110460837A (zh) * | 2018-05-07 | 2019-11-15 | 苹果公司 | 具有中央凹显示器和注视预测的电子设备 |
CN112102826A (zh) * | 2020-08-31 | 2020-12-18 | 南京创维信息技术研究院有限公司 | 一种控制语音设备多端唤醒的系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6298558B1 (ja) * | 2017-05-11 | 2018-03-20 | 株式会社コロプラ | 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
-
2020
- 2020-12-28 CN CN202011584799.5A patent/CN112631429B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109478097A (zh) * | 2016-06-16 | 2019-03-15 | Smi创新传感技术有限公司 | 用于提供关于用户行为的基于眼睛追踪的信息的方法和系统、客户端设备、服务器和计算机程序产品 |
CN106558310A (zh) * | 2016-10-14 | 2017-04-05 | 北京百度网讯科技有限公司 | 虚拟现实语音控制方法及装置 |
CN108958463A (zh) * | 2017-05-26 | 2018-12-07 | 深圳纬目信息技术有限公司 | 一种带有眼控和语音识别的头戴式设备和交互方法 |
CN110460837A (zh) * | 2018-05-07 | 2019-11-15 | 苹果公司 | 具有中央凹显示器和注视预测的电子设备 |
CN112102826A (zh) * | 2020-08-31 | 2020-12-18 | 南京创维信息技术研究院有限公司 | 一种控制语音设备多端唤醒的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112631429A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112631429B (zh) | 一种虚拟现实场景下的注视点语音交互装置及方法 | |
EP3180675B1 (en) | Identifying gestures using motion data | |
CN109154858B (zh) | 智能电子设备及其操作方法 | |
CN106843879A (zh) | 应用程序的显示方法及移动终端 | |
US12115439B2 (en) | System and method for using fingerprints to determine commands in a video game | |
CN108595230A (zh) | 应用程序预加载方法、装置、存储介质及终端 | |
KR20170056681A (ko) | 디바이스 기초 인증 시스템 및 방법 | |
CN111783747B (zh) | 指纹采集方法、装置、存储介质及电子设备 | |
WO2020124994A1 (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN110110146A (zh) | 基于人工智能的视频短片搜索方法、装置、介质和设备 | |
CN113194281A (zh) | 视频解析方法、装置、计算机设备和存储介质 | |
CN110737476B (zh) | 一种终端重启方法及装置 | |
CN107786979A (zh) | 一种多终端共享通信方法及系统 | |
WO2016145827A1 (zh) | 终端的控制方法及装置 | |
CN113342170A (zh) | 手势控制方法、装置、终端和存储介质 | |
CN113032075A (zh) | 一种信息处理方法及电子装置 | |
CN116737290B (zh) | 指关节敲击事件的识别方法及电子设备 | |
CN114648315A (zh) | 虚拟面试的方法、装置、设备及存储介质 | |
CN111723783B (zh) | 一种内容识别方法和相关装置 | |
WO2022057093A1 (zh) | 可穿戴设备及其屏幕唤醒方法、可读存储介质 | |
CN107168519B (zh) | 智能可穿戴设备的控制方法及装置 | |
CN112784912A (zh) | 图像识别方法及装置、神经网络模型的训练方法及装置 | |
CN110568989A (zh) | 业务处理方法、业务处理装置、终端及介质 | |
CN118409661B (zh) | 基于显示屏的手势控制方法、装置、设备及存储介质 | |
CN110996374B (zh) | 一种无线网络控制方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |