CN112631429B - 一种虚拟现实场景下的注视点语音交互装置及方法 - Google Patents

一种虚拟现实场景下的注视点语音交互装置及方法 Download PDF

Info

Publication number
CN112631429B
CN112631429B CN202011584799.5A CN202011584799A CN112631429B CN 112631429 B CN112631429 B CN 112631429B CN 202011584799 A CN202011584799 A CN 202011584799A CN 112631429 B CN112631429 B CN 112631429B
Authority
CN
China
Prior art keywords
pitch
voice
instruction
virtual reality
yaw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011584799.5A
Other languages
English (en)
Other versions
CN112631429A (zh
Inventor
张潇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
E Surfing Reading Culture Communications Co Ltd
Original Assignee
E Surfing Reading Culture Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E Surfing Reading Culture Communications Co Ltd filed Critical E Surfing Reading Culture Communications Co Ltd
Priority to CN202011584799.5A priority Critical patent/CN112631429B/zh
Publication of CN112631429A publication Critical patent/CN112631429A/zh
Application granted granted Critical
Publication of CN112631429B publication Critical patent/CN112631429B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。所述语音交互模块接入第三方语音识别模块的方式执行语音交互。本发明增加适用于虚拟现实用户界面的语音交互方案,并使用注视点唤醒方式取代现有语音产品中主流的唤醒词唤醒及按键唤醒方式,提高虚拟现实多模交互的用户体验。

Description

一种虚拟现实场景下的注视点语音交互装置及方法
技术领域
本发明属于虚拟现实交互技术、语音交互技术领域,具体是一种虚拟现实场景下的注视点语音交互方法。
背景技术
在相关技术领域中,已存在基于注视点交互相关技术,但此类技术多基于手机、电脑等相对普及的设备终端实现,然而传统的注视点预测方式主要适用于手机、电脑等终端设备使用,并不适用于虚拟现实头戴设备终端。
CN202010394171.2公开了一种注视点显示方法及相关装置,其是基于摄像头数据的注视点预测,而使用摄像头进行注视点预测需要耗费的运算资源相对较高,且不适用于虚拟现实的通用设备执行条件。CN201611027164.9公开了虚拟现实系统、语音交互方法及装置,该专利存在引发误操作的情况。
基于虚拟现实设备的注视点交互研究仍处于初期阶段,现有虚拟现实交互采用手柄交互及头瞄交互,而语音交互作为一种简便的交互方式未实现。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提供了一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,
所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。
所述语音交互模块接入第三方语音识别模块的方式执行语音交互。
进一步的,所述注视点预测模块以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测。
进一步的,该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a)。
进一步的,所述交互意图决策模块首先设定可用于触发语音交互的虚拟现实界面的区域范围,其次设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定区域范围的边界范围条件,则判断用户存在针对该区域的语音交互意图,并激活语音交互。
进一步的,所述区域范围为有边界的平面区域,可为多边形、圆形或任意闭环边界图形。
进一步的,所述区域范围为矩形边界范围,该边界范围满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
进一步的,所述语音交互模块建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈等。同时设定语音交互结束条件,如交互时间到达限定范围、注视点脱离预设范围等。
进一步的,用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息。若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
本发明还提供了一种虚拟现实场景下的注视点语音交互方法,包括如下步骤:
步骤一、使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
步骤二、预测当前用户的意图,并判断当前用户行为是否适合激活语音交互的意图,若判断用户行为适合语音交互意图,则激活语音交互;
步骤三、用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
本发明在以往基于注视点的交互方式基础上增加了对用户意图的判断,通过二次校验用户当前所处的虚拟现实场景条件,降低语音交互的误触发概率;从虚拟现实头戴设备终端可采集的通用数据出发,采用适合于虚拟现实场景的注视点预测方法,且对硬件运算能力要求较低。
本发明增加适用于虚拟现实用户界面的语音交互方案,并使用注视点唤醒方式取代现有语音产品中主流的唤醒词唤醒及按键唤醒方式,使用意向性操作弱化语音交互启动时的硬感知,提高虚拟现实多模交互的用户体验。
附图说明
图1是本发明的注视点语音交互装置使用场景示意图;
图2是触发语音交互的虚拟现实界面的矩形区域示意图;
图3是本发明的虚拟现实场景下的注视点语音交互模块及流程图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1-3所示,本发明的虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块。
本发明实施例使用的虚拟现实头戴设备可以是:全志VR9以上性能SoC,包含电子罗盘、陀螺仪、麦克风、显示器等基础硬件。
所述注视点预测模块用于预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置,由于虚拟现实头戴设备并未搭载眼动仪等专用设备用于直接判断注视点,故以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点或运动轨迹进行趋势预测,将预测结果输入意图决策模块。
该预测算法通过虚拟现实头戴硬件设备进行数据采样,主要使用虚拟现实头戴硬件设备中的电子罗盘传感器元件,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,可得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a)
交互意图决策模块对两方面进行判断,一为当前用户行为是否适合激活语音交互的意图,二为语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策。
首先需设定可用于触发语音交互的虚拟现实界面的区域范围,该范围为有边界平面区域,可为多边形、圆形或任意闭环边界图形。以矩形边界范围为例,该边界需满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
此外还需设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定的边界范围条件,则判断当前用户行为适合激活语音交互的意图,并激活语音交互。
所述语音交互模块接入第三方语音识别模块的方式执行。首先建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈等,同时设定语音交互结束条件,包括交互时间到达限定范围、注视点脱离预设范围等。
用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息。若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈。若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。

Claims (7)

1.一种虚拟现实场景下的注视点语音交互装置,包括注视点预测模块、交互意图决策模块、语音交互模块和第三方语音识别模块,其特征在于:
所述注视点预测模块用于使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;
所述交互意图决策模块用于当前用户行为是否适合激活语音交互的意图,以及语音识别后的指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策;
所述语音交互模块接入第三方语音识别模块的方式执行语音交互;
所述注视点预测模块以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测;
该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a);
其中,〖pitch〗_1、〖pitch〗_2、…〖pitch〗_n为第1、2、…n个采样点角度的俯仰角,〖yaw〗_1、〖yaw〗_2、…〖yaw〗_n为第1、2、…n个采样点角度的偏航角。
2.如权利要求1所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述交互意图决策模块首先设定可用于触发语音交互的虚拟现实界面的区域范围,其次设定判断周期c ms和采样周期d ms,若预测注视点在判断周期内的c/d次采样中均满足设定区域范围的边界范围条件,则判断用户存在针对该区域的语音交互意图,并激活语音交互。
3.如权利要求2所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述区域范围为有边界的平面区域,所述平面区域为任意闭环边界图形。
4.如权利要求2或3所述的虚拟现实场景下的注视点语音交互装置,其特征在于:
所述区域范围为矩形边界范围,该边界范围满足注视点的俯仰角pitch,偏航角yaw在如下范围:
(〖pitch〗_x<pitch<〖pitch〗_y,〖yaw〗_x<yaw<〖yaw〗_y),其中〖pitch〗_x,〖pitch〗_y分别为俯仰角pitch的上下限的位置,〖yaw〗_x,〖yaw〗_y分别为偏航角yaw左右限的位置。
5.如权利要求1所述的虚拟现实场景下的注视点语音交互装置,其特征在于:所述语音交互模块建立语音指令集,包含单条指令,单条指令包含的字段有指令编号、指令标识符、指令参数、指令操作响应、正向反馈和负向反馈;同时设定语音交互结束条件,所述音交互结束条件为交互时间到达限定范围、注视点脱离预设范围。
6.如权利要求5所述的虚拟现实场景下的注视点语音交互装置,其特征在于:用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈;若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
7.一种虚拟现实场景下的注视点语音交互方法,包括如下步骤:
步骤一、使用预测算法预测当前用户在使用虚拟现实头戴设备时视觉注视点所在位置及运动趋势;以当前用户的头部空间朝向作为基础数据依据,使用预测算法进行注视点所在位置及运动趋势预测;
该预测算法具体如下:
通过虚拟现实头戴硬件设备进行数据采样,用于采集用户当前头部在虚拟现实系统中的指向角度,即俯仰角pitch,偏航角yaw;设定预测周期为a ms,采样周期为b ms,该预测周期内共获得n个采样点角度,得出单一预测周期中的注视点为:
(((〖pitch〗_1+〖pitch〗_2+…+〖pitch〗_n)*b)/a,((〖yaw〗_1+〖yaw〗_2+…+〖yaw〗_n)*b)/a);
其中,〖pitch〗_1、〖pitch〗_2、…〖pitch〗_n为第1、2、…n个采样点角度的俯仰角,〖yaw〗_1、〖yaw〗_2、…〖yaw〗_n为第1、2、…n个采样点角度的偏航角;
步骤二、预测当前用户的意图,并判断当前用户行为是否适合激活语音交互的意图,若判断用户行为适合语音交互意图,则激活语音交互;
步骤三、用户激活语音交互后通过开启麦克风传感器记录语音数据,满足语音交互结束条件后则将语音数据同步至第三方语音识别模块,等待回调信息;若正常回调,则识别回调数据中是否存在能够匹配语音指令集中的指令标识符和指令参数,如存在,则判断该指令与行为输入的意图是否冲突,并按既定优先级策略与用户历史行为偏好进行执行指令的决策,执行对应指令响应,并根据指令执行结果在虚拟现实用户界面中进行正向反馈或负向反馈;若回调异常或无能够匹配语音指令集的指令识别符,则在虚拟现实用户界面中进行异常反馈。
CN202011584799.5A 2020-12-28 2020-12-28 一种虚拟现实场景下的注视点语音交互装置及方法 Active CN112631429B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011584799.5A CN112631429B (zh) 2020-12-28 2020-12-28 一种虚拟现实场景下的注视点语音交互装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011584799.5A CN112631429B (zh) 2020-12-28 2020-12-28 一种虚拟现实场景下的注视点语音交互装置及方法

Publications (2)

Publication Number Publication Date
CN112631429A CN112631429A (zh) 2021-04-09
CN112631429B true CN112631429B (zh) 2022-06-21

Family

ID=75285715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011584799.5A Active CN112631429B (zh) 2020-12-28 2020-12-28 一种虚拟现实场景下的注视点语音交互装置及方法

Country Status (1)

Country Link
CN (1) CN112631429B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655927B (zh) * 2021-08-24 2024-04-26 亮风台(上海)信息科技有限公司 一种界面交互方法与设备
CN115981517B (zh) * 2023-03-22 2023-06-02 北京同创蓝天云科技有限公司 Vr多端协同交互方法及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106558310A (zh) * 2016-10-14 2017-04-05 北京百度网讯科技有限公司 虚拟现实语音控制方法及装置
CN108958463A (zh) * 2017-05-26 2018-12-07 深圳纬目信息技术有限公司 一种带有眼控和语音识别的头戴式设备和交互方法
CN109478097A (zh) * 2016-06-16 2019-03-15 Smi创新传感技术有限公司 用于提供关于用户行为的基于眼睛追踪的信息的方法和系统、客户端设备、服务器和计算机程序产品
CN110460837A (zh) * 2018-05-07 2019-11-15 苹果公司 具有中央凹显示器和注视预测的电子设备
CN112102826A (zh) * 2020-08-31 2020-12-18 南京创维信息技术研究院有限公司 一种控制语音设备多端唤醒的系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6298558B1 (ja) * 2017-05-11 2018-03-20 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109478097A (zh) * 2016-06-16 2019-03-15 Smi创新传感技术有限公司 用于提供关于用户行为的基于眼睛追踪的信息的方法和系统、客户端设备、服务器和计算机程序产品
CN106558310A (zh) * 2016-10-14 2017-04-05 北京百度网讯科技有限公司 虚拟现实语音控制方法及装置
CN108958463A (zh) * 2017-05-26 2018-12-07 深圳纬目信息技术有限公司 一种带有眼控和语音识别的头戴式设备和交互方法
CN110460837A (zh) * 2018-05-07 2019-11-15 苹果公司 具有中央凹显示器和注视预测的电子设备
CN112102826A (zh) * 2020-08-31 2020-12-18 南京创维信息技术研究院有限公司 一种控制语音设备多端唤醒的系统和方法

Also Published As

Publication number Publication date
CN112631429A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112631429B (zh) 一种虚拟现实场景下的注视点语音交互装置及方法
EP3180675B1 (en) Identifying gestures using motion data
CN109154858B (zh) 智能电子设备及其操作方法
CN106843879A (zh) 应用程序的显示方法及移动终端
US12115439B2 (en) System and method for using fingerprints to determine commands in a video game
CN108595230A (zh) 应用程序预加载方法、装置、存储介质及终端
KR20170056681A (ko) 디바이스 기초 인증 시스템 및 방법
CN111783747B (zh) 指纹采集方法、装置、存储介质及电子设备
WO2020124994A1 (zh) 活体检测方法、装置、电子设备及存储介质
CN110110146A (zh) 基于人工智能的视频短片搜索方法、装置、介质和设备
CN113194281A (zh) 视频解析方法、装置、计算机设备和存储介质
CN110737476B (zh) 一种终端重启方法及装置
CN107786979A (zh) 一种多终端共享通信方法及系统
WO2016145827A1 (zh) 终端的控制方法及装置
CN113342170A (zh) 手势控制方法、装置、终端和存储介质
CN113032075A (zh) 一种信息处理方法及电子装置
CN116737290B (zh) 指关节敲击事件的识别方法及电子设备
CN114648315A (zh) 虚拟面试的方法、装置、设备及存储介质
CN111723783B (zh) 一种内容识别方法和相关装置
WO2022057093A1 (zh) 可穿戴设备及其屏幕唤醒方法、可读存储介质
CN107168519B (zh) 智能可穿戴设备的控制方法及装置
CN112784912A (zh) 图像识别方法及装置、神经网络模型的训练方法及装置
CN110568989A (zh) 业务处理方法、业务处理装置、终端及介质
CN118409661B (zh) 基于显示屏的手势控制方法、装置、设备及存储介质
CN110996374B (zh) 一种无线网络控制方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant