CN111050266A - 一种基于耳机检测动作进行功能控制的方法及系统 - Google Patents
一种基于耳机检测动作进行功能控制的方法及系统 Download PDFInfo
- Publication number
- CN111050266A CN111050266A CN201911330275.0A CN201911330275A CN111050266A CN 111050266 A CN111050266 A CN 111050266A CN 201911330275 A CN201911330275 A CN 201911330275A CN 111050266 A CN111050266 A CN 111050266A
- Authority
- CN
- China
- Prior art keywords
- action
- earphone
- neural network
- control based
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Otolaryngology (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于耳机检测动作进行功能控制的方法,包括:所述耳机通过传感器采集佩戴者动作信息;基于所述动作信息,采用神经网络算法和先验规则识别目标动作;所述目标动作识别结果用于控制与所述耳机相应的终端功能。本发明的基于耳机检测动作进行功能控制的方法及系统,将人工智能人类先验知识进行结合,大大提高动作识别的准确性,同时减少对人工标定数据的大量需求。
Description
技术领域
本发明属于媒体播放设备技术领域,特别涉及一种基于耳机检测动作进行功能控制的方法及系统。
背景技术
耳机作为一种便携式媒体播放设备给人们的工作和生活带来了极大方便。在佩戴耳机使用电子设备进行工作和娱乐的过程中,经常会需要对设备执行一些功能控制,如音乐播放、暂停、上一曲、下一曲等。传统的功能控制通过设备上的实体按键或者是触摸屏上的虚拟按键与设备交互。
为了更加便利的控制耳机相关的功能操作,简化按键或消除按键成为改进耳机控制的方向。现有技术中多采用光学识别人体运动来进行相应的功能控制,如微软的Kinect,是Xbox外接的3D体感设备,可通过光学方式,感知用户体态。但这种设备价格较高,同时携带不便,进而也不便利用到耳机控制中。
现有技术中也存在使用运动传感器感知佩戴者动作的技术。但一般通过有限的预设动作进行简单的识别匹配,而人体运动的方式复杂繁多,因此,很难做到智能的识别与控制,错误动作率高。
因此,如何实现智能地基于耳机检测动作进行功能控制,是亟待解决的问题。
发明内容
针对上述问题,本发明提供一种基于耳机检测动作进行功能控制的方法,包括:
所述耳机通过传感器采集佩戴者动作信息;
基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
所述目标动作识别结果用于控制与所述耳机相应的终端功能。
进一步地,
所述动作信息为原始动作序列;
所述采用神经网络算法和先验规则识别目标动作包括:
对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;
基于所述原始动作序列,根据先验规则识别,得到姿态计算结果;
根据所述子动作识别结果、所述姿态计算结果和所述原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。
进一步地,
在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练所述第一神经网络模型进行监督性学习。
进一步地,
所述根据先验规则识别,得到姿态计算结果包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。
进一步地,
所述第二神经网络模型为LSTM模型,所述LSTM模型预先经过设定权重的训练,用于根据多个相关子动作序列识别表示佩戴者意图的目标动作。
进一步地,
所述目标动作识别结果用于控制与所述耳机相应的终端功能包括:
根据与所述耳机信号连接的终端应用确定工作模式;
在媒体播放模式下,根据所述目标动作识别结果控制媒体播放动作;
在非播放模式下,将所述目标动作识别结果转换为系统操作动作映射发送到所述终端应用,控制终端应用功能。
本发明还一种基于耳机检测动作进行功能控制的系统,包括:
传感单元,用于设置在耳机中,采集佩戴者动作信息;
动作识别单元,用于基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
输出单元,用于将目标动作识别结果输出到与所述耳机相应的被控制终端能。
进一步地,
所述动作信息为原始动作序列;
所述动作识别单元包括:
第一识别单元,所述第一识别单元用于对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;
第二识别单元,所述第二识别单元用于基于所述原始动作序列,根据先验规则识别,得到姿态计算结果;
第三识别单元,所述第三识别单元用于根据所述子动作识别结果、所述姿态计算结果和所述原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。
进一步地,
所述第一识别单元在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练所述第一神经网络模型进行监督性学习。
进一步地,
所述第二识别单元根据先验规则识别,得到姿态计算结果包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。
本发明的基于耳机检测动作进行功能控制的方法及系统,将人工智能人类先验知识进行结合,大大提高动作识别的准确性,同时减少对人工标定数据的大量需求。对用户而言不增加新的高成本的专用设备即可获得较大的体验提升;方便根据需要和用户使用数据更新数据处理程序,持续提升识别的准确度和扩展产品的丰富性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的一种耳机系统架构示意图;
图2示出了根据本发明实施例的点头动作的子动作构成与IMU的输出值示意图;
图3示出了根据本发明实施例的基于耳机检测动作进行功能控制的方法步骤示意图;
图4示出了根据本发明实施例的基于耳机检测动作进行功能控制的方法流程示意图;
图5示出了根据本发明实施例的基于耳机检测动作进行功能控制的系统结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在佩戴耳机使用电子设备进行工作和娱乐的过程中,经常会需要对设备执行一些功能控制。一种常用的情景时,使用耳机接听音频播放,功能控制包括:播放、暂停、上一曲、下一曲、音量调节等。常规操作方式是通过设备上的实体按键或者是触摸屏上的虚拟按键与设备交互。
本发明实施例提供一种基于耳机检测动作进行功能控制的方法,利用耳机中的传感器,通过融合算法获取用户头部动作,绑定到对应的控制功能上,从而给用户带来更好的使用体验。在媒体播放模式下能够对媒体播放功能进行控制,示例性地,通过左右甩头来控制上一曲/下一曲切换,通过点头来控制播放/暂停。并在另外的非媒体播放模式下,根据相应的连接应用,通过耳机控制应用操作,如控制娱乐游戏的动作操作,示例性地,通过左右探头来控制游戏中的人物进行探头射击。
如图1所示,是根据本发明实施例的一种耳机系统架构示意图,耳机包括处理器(CPU)、传感器设备、音频输入单元、音频输出单元和通信适配单元。音频输入单元与处理器相连,用于从连接的终端,如手机获取音频数据;音频输出单元与处理器相连,用于将音频数据输出为耳机端的声音;传感器与处理器相连,用于采集佩戴者的动作信息,本发明实施例中,通过IMU(惯性测量单元,包括加速度计,陀螺仪等)对头部的动作序列进行识别,在常规耳机中内置传感器设备识别耳机(即佩戴者)的运动动作,包括加速度、角速率等。本发明对嵌入耳机的传感器不做限制,只要能识别耳机物理运动即可。系统还包括通信适配设备,用来将处理器与终端连接,示例性地,可以选择蓝牙、有线等连接方式。处理器用于控制音频输入输出、传感器数据采集、终端应用连接控制等,进一步地,处理器在本发明实施例中还可以用于处理传感器采集的动作信息,进行姿态计算、子动作识别、动作识别等。
动作序列是一个连续的过程,从人类语言角度,由一系列不同的子动作组成。例如,点头的动作序列由以下三个子动作(sub action)构成:
(1)头部保持基本水平状态(零位);
(2)头部向前倾斜一定角度(约10deg~90deg);
(3)短时间内头部回到原位;
示例性地,图2曲线示出了IMU识别到的点头过程中加速度变化。
向右方甩头的动作序列由以下4个子动作构成:
(1)头部保持水平(零位);
(2)头部向左侧倾斜(约10deg~80deg);
(3)头部向右侧快速摆动(30deg~80deg,角速度足够快);
(4)头部回到零位。
上述动作分解是根据人类先验规则进行的粗略的子动作分解,实际上子动作之间的衔接、持续时间等细微而多变,要将传感器采集的连续的物理参量准确识别为与用户意图一致的目标动作,仅仅通过准确的语言规则描述是无法实现的。
如图3所示,本发明实施例的基于耳机检测动作进行功能控制的方法包括:
1)耳机通过传感器采集佩戴者动作信息;
2)基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
3)目标动作识别结果用于控制与所述耳机相应的终端功能。
具体地,耳机与终端应用建立连接后,启动采集过程,实时采集IMU的传感数据,即动作信息;
在2)中,本发明实施例中采用神经网络算法和先验规则相结合的方式,识别目标动作,目标动作为预设的佩戴者有意识的控制动作,如向左甩头动作,用于控制切换到上一曲。本发明采用上述两种处理相结合方式识别目标动作,相对于传统的物理特征提取,基于先验人工规则筛选目标动作的方式,准确性高,更符合动作的连续变化规律。同时,相对于单纯采用深度学习方法识别动作,可以大大缩小训练数据的需求,简化难以理解的网络识别模型,提高动作序列识别的准确度。下面对本发明的动作识别过程及优势做进一步说明。
如图4所示,本发明实施例中,将上述动作信息为原始动作序列输入;原始动作序列为包括一系列具有先后时序的瞬时动作,IMU采集数据的间隔很小,在一次点头动作中,佩戴者的头部连续运动,IMU示例性地,可以采集到头部经过10度-15度-20度-25度等多个瞬时状态。
采用神经网络算法和先验规则识别目标动作包括:
1)对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;第一神经网络模型为LSTM模型,LSTM(Long-Short Term Memory,长短期记忆网络)是一种循环神经网络(RNN,即Recurrent Neural Network),用于学习有效的特征并且对时域的动态过程建模,实现端到端(End-to-End)的行为识别及检测。第一神经网络模型LSTM1用于识别子动作,如点头、低头、平视、头左偏、右偏等;
在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练第一神经网络模型进行监督性学习。人工标注数据可以根据多种用户运动场景,多种幅度、速度的运动方式进行动作序列标注,如子动作拆分,目标动作定义等。本发明实施例中,采用基于人工标注数据进行监督性学习,可以大大提供训练的效率和针对性,在人工标注数据过程中,可以应用专业的先验知识,对于满足指定的一个或多个阈值的数据标定为有效动作,从而在模型训练期就将部分先验规则应用到模型中,提高模型识别的准确性。
2)另一方面,基于原始动作序列,根据先验规则识别,得到姿态计算结果,包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。姿态计算模块负责计算姿态角度,如点头动作的最终点头角度;同时根据人工规则,预判低头、偏头的角度是否超过阈值,某路传感器输出是否大于阈值,持续时间是否足够等。具体实施中,人工规则即先验规则通过传统的嵌入程序逻辑控制即可。本发明实施例中,阈值判断包括但不限于动作幅度和持续时间,对一个子动作的阈值限定可以包括多个。示例性地,对于一个偏头动作,如果头部向左或向右的旋转角速度(或加速度)小于指定阈值,即动作缓慢,且从旋转到最大角度到回正之间的间隔超过阈值,则认为该动作为仅仅为佩戴者转头普通动作,不具有控制功能的意图;再例如,当识别到点头动作最大幅度小于5度时,直接将该系列动作判断为用户非意图活动。上述姿态计算的结果,即对系列动作信息的判断,输出到后续的LSTM2模型,以提高模型识别的效率和准确性。
姿态计算采用传统算法计算耳机的姿态;LSTM1模型侧重于根据动作序列的连续性,提取相关特征,对动作进行分类识别。本发明实施例,将两种方式相结合,大大降低了错误识别和控制的几率,作为后续目标动作识别模型LSTM2的输入,提供了最终目标动作识别的效率,简化了识别模型逻辑。
3)根据子动作识别结果、姿态计算结果和原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。
第二神经网络模型LSTM模型,第二神经网络模型LSTM2预先经过设定权重的训练,用于根据多个相关子动作序列识别表示佩戴者意图的目标动作。示例性地,权重训练包括空域注意力权重和时域注意力,对用户动作的关键时点和加速度关键值进行权重设置,从而在一系列连续原始序列中,提权关键动作,加强关键动作时点的在子动作识别中的作用,提高识别效率和准确性。
本发明实施例中,LSTM2基于连续动作序列进行模式(动作)识别,是一个迭代循环的计算过程,在迭代过程中,根据子动作识别结果和姿态计算结果作为限定或影响迭代方向的条件,从而可以更快更准确地完成目标动作识别。相比于对原始动作直接进行迭代计算识别,本发明的方法将动作完整动作识别拆分为子动作识别和连贯目标动作识别两个模型,简化了识别逻辑,提高了准确性,通过先验规则的限定,降低了错误率。
目标动作识别结果用于控制与所述耳机相应的终端功能,具体地,根据与耳机信号连接的终端应用确定工作模式,本发明实施例中,工作模式包括媒体播放模式和非播放模式,耳机与终端信号连接后,在媒体播放模式下,根据目标动作识别结果控制媒体播放动作;在非播放模式下,将所述目标动作识别结果转换为系统操作动作映射发送到所述终端应用,控制终端应用功能。示例性地,在播放音乐的过程中,通过点头进行暂停/播放控制,在用户进行指定的射击游戏界面时,通过左右探头动作转换为系统操作映射,如手机系统的向左滑屏、向右滑屏等系统操作,即通过操作映射的输出激发终端底层执行与向左向右滑屏相应的处理程序,来控制游戏中的人物进行探头射击。
基于相同的发明构思,本发明实施例还提供一种基于耳机检测动作进行功能控制的系统,如图5所示,系统包括:
传感单元,用于设置在耳机中,采集佩戴者动作信息;
动作识别单元,用于基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
输出单元,用于将目标动作识别结果输出到与所述耳机相应的被控制终端能。
其中,动作信息为原始动作序列;
动作识别单元包括:
第一识别单元,所述第一识别单元用于对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;第一识别单元在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练所述第一神经网络模型进行监督性学习。本发明实施例中,第一识别单元为LSTM模型,其具体工作方式可根据上述方法实施例中LSTM1得出,不再赘述。
第二识别单元,所述第二识别单元用于基于所述原始动作序列,根据先验规则识别,得到姿态计算结果;第二识别单元根据先验规则识别,得到姿态计算结果包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。
第三识别单元,所述第三识别单元用于根据所述子动作识别结果、所述姿态计算结果和所述原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。本发明实施例中,第三识别单元为LSTM模型,其具体工作方式可根据上述方法实施例中LSTM2得出,不再赘述。
本发明实施例中,传感单元和输出单元设置在耳机中,耳机与终端通过有线或无线方式连接。对于动作识别单元设置的位置不做限制。在一个实施例中,可以将动作识别单元设置在耳机中,在这种情况下,只需要通过耳机就可以完全实现系统功能,即通过头部动作控制连接的终端应用。并且降低了与终端通信的频率。同时,支持动作识别单元程序升级,以便优化识别效率和效果。在另外的实施例中,将动作识别单元各子单元(第一识别单元、第二识别单元、第三识别单元)部分或全部地设置在用于与耳机连接的终端上,以便充分利用终端CPU进行快速高效的识别。
本发明实施例中的系统同样可以根据识别结果控制终端应用的音视频播放或非播放模式下的终端操作映射。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于耳机检测动作进行功能控制的方法,其特征在于,包括:
所述耳机通过传感器采集佩戴者动作信息;
基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
所述目标动作识别结果用于控制与所述耳机相应的终端功能。
2.根据权利要求1所述的基于耳机检测动作进行功能控制的方法,其特征在于,
所述动作信息为原始动作序列;
所述采用神经网络算法和先验规则识别目标动作包括:
对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;
基于所述原始动作序列,根据先验规则识别,得到姿态计算结果;
根据所述子动作识别结果、所述姿态计算结果和所述原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。
3.根据权利要求2所述的基于耳机检测动作进行功能控制的方法,其特征在于,
在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练所述第一神经网络模型进行监督性学习。
4.根据权利要求2所述的基于耳机检测动作进行功能控制的方法,其特征在于,
所述根据先验规则识别,得到姿态计算结果包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。
5.根据权利要求2所述的基于耳机检测动作进行功能控制的方法,其特征在于,
所述第二神经网络模型为LSTM模型,所述LSTM模型预先经过设定权重的训练,用于根据多个相关子动作序列识别表示佩戴者意图的目标动作。
6.根据权利要求1-5中任一项所述的基于耳机检测动作进行功能控制的方法,其特征在于,所述目标动作识别结果用于控制与所述耳机相应的终端功能包括:
根据与所述耳机信号连接的终端应用确定工作模式;
在媒体播放模式下,根据所述目标动作识别结果控制媒体播放动作;
在非播放模式下,将所述目标动作识别结果转换为系统操作动作映射发送到所述终端应用,控制终端应用功能。
7.一种基于耳机检测动作进行功能控制的系统,其特征在于,包括:
传感单元,用于设置在耳机中,采集佩戴者动作信息;
动作识别单元,用于基于所述动作信息,采用神经网络算法和先验规则识别目标动作;
输出单元,用于将目标动作识别结果输出到与所述耳机相应的被控制终端能。
8.根据权利要求7所述的基于耳机检测动作进行功能控制的系统,其特征在于,
所述动作信息为原始动作序列;
所述动作识别单元包括:
第一识别单元,所述第一识别单元用于对所述原始动作序列采用第一神经网络模型进行深度特征提取,得到子动作识别结果;
第二识别单元,所述第二识别单元用于基于所述原始动作序列,根据先验规则识别,得到姿态计算结果;
第三识别单元,所述第三识别单元用于根据所述子动作识别结果、
所述姿态计算结果和所述原始动作系列,采用第二神经网络模型进行识别,得到所述目标动作识别结果。
9.根据权利要求8所述的基于耳机检测动作进行功能控制的系统,其特征在于,
所述第一识别单元在采用第一神经网络模型进行深度特征提取前,根据人工标注数据,训练所述第一神经网络模型进行监督性学习。
10.根据权利要求8所述的基于耳机检测动作进行功能控制的系统,其特征在于,
所述第二识别单元根据先验规则识别,得到姿态计算结果包括:判断所述原始动作序列中的动作幅度和持续时间是否满足相应的动作阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330275.0A CN111050266B (zh) | 2019-12-20 | 2019-12-20 | 一种基于耳机检测动作进行功能控制的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330275.0A CN111050266B (zh) | 2019-12-20 | 2019-12-20 | 一种基于耳机检测动作进行功能控制的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111050266A true CN111050266A (zh) | 2020-04-21 |
CN111050266B CN111050266B (zh) | 2021-07-30 |
Family
ID=70238347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911330275.0A Active CN111050266B (zh) | 2019-12-20 | 2019-12-20 | 一种基于耳机检测动作进行功能控制的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111050266B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111831116A (zh) * | 2020-07-01 | 2020-10-27 | 深圳大学 | 一种基于ppg信息的智能设备交互方法 |
CN113691902A (zh) * | 2020-05-19 | 2021-11-23 | 罗伯特·博世有限公司 | 耳机佩戴状态检测方法、设备和耳机 |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044163A (en) * | 1996-06-21 | 2000-03-28 | Siemens Audiologische Technik Gmbh | Hearing aid having a digitally constructed calculating unit employing a neural structure |
EP1083769A1 (en) * | 1999-02-16 | 2001-03-14 | Yugen Kaisha GM & M | Speech converting device and method |
EP1349419A2 (en) * | 2002-03-27 | 2003-10-01 | Samsung Electronics Co., Ltd. | Orthogonal circular microphone array system and method for detecting three-dimensional direction of sound source using the same |
CN105491483A (zh) * | 2015-11-30 | 2016-04-13 | 歌尔声学股份有限公司 | 用于耳机的佩戴状态检测方法、系统及耳机 |
CN106528035A (zh) * | 2015-09-09 | 2017-03-22 | 三星电子株式会社 | 控制声音的设备和方法及训练类型识别模型的设备和方法 |
CN106548210A (zh) * | 2016-10-31 | 2017-03-29 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法及装置 |
CN107079228A (zh) * | 2014-10-15 | 2017-08-18 | 唯听助听器公司 | 操作助听器系统的方法和助听器系统 |
US20170323540A1 (en) * | 2016-05-09 | 2017-11-09 | Coban Technologies, Inc. | Systems, apparatuses and methods for triggering actions based on data capture and characterization |
US20170319123A1 (en) * | 2016-05-06 | 2017-11-09 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders |
CN107403178A (zh) * | 2017-08-08 | 2017-11-28 | 方超 | 手势采集系统 |
CN107735796A (zh) * | 2016-10-31 | 2018-02-23 | 深圳市大疆创新科技有限公司 | 动作识别方法、网络训练方法、装置及设备 |
CN107808143A (zh) * | 2017-11-10 | 2018-03-16 | 西安电子科技大学 | 基于计算机视觉的动态手势识别方法 |
CN108322840A (zh) * | 2018-02-06 | 2018-07-24 | 深圳市埃微信息技术有限公司 | 蓝牙耳机的跑步姿势及步态分析方法及设备 |
CN108540669A (zh) * | 2018-04-20 | 2018-09-14 | Oppo广东移动通信有限公司 | 无线耳机、基于耳机检测的控制方法及相关产品 |
CN108600887A (zh) * | 2018-04-23 | 2018-09-28 | Oppo广东移动通信有限公司 | 基于无线耳机的触摸控制方法及相关产品 |
CN108737922A (zh) * | 2018-05-21 | 2018-11-02 | 深圳市沃特沃德股份有限公司 | 蓝牙耳机播放控制方法及蓝牙耳机 |
CN108764059A (zh) * | 2018-05-04 | 2018-11-06 | 南京邮电大学 | 一种基于神经网络的人体行为识别方法及系统 |
CN108897857A (zh) * | 2018-06-28 | 2018-11-27 | 东华大学 | 面向领域的中文文本主题句生成方法 |
CN109195015A (zh) * | 2018-08-21 | 2019-01-11 | 北京奇艺世纪科技有限公司 | 一种视频播放控制方法及装置 |
US20190043524A1 (en) * | 2018-02-13 | 2019-02-07 | Intel Corporation | Vibration sensor signal transformation based on smooth average spectrums |
KR101982812B1 (ko) * | 2017-11-20 | 2019-05-27 | 김정근 | 헤드셋 및 그의 음질 향상 방법 |
CN110286774A (zh) * | 2019-07-03 | 2019-09-27 | 中国科学技术大学 | 一种基于手腕运动传感器的手语识别方法 |
-
2019
- 2019-12-20 CN CN201911330275.0A patent/CN111050266B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044163A (en) * | 1996-06-21 | 2000-03-28 | Siemens Audiologische Technik Gmbh | Hearing aid having a digitally constructed calculating unit employing a neural structure |
EP1083769A1 (en) * | 1999-02-16 | 2001-03-14 | Yugen Kaisha GM & M | Speech converting device and method |
EP1349419A2 (en) * | 2002-03-27 | 2003-10-01 | Samsung Electronics Co., Ltd. | Orthogonal circular microphone array system and method for detecting three-dimensional direction of sound source using the same |
CN107079228A (zh) * | 2014-10-15 | 2017-08-18 | 唯听助听器公司 | 操作助听器系统的方法和助听器系统 |
CN106528035A (zh) * | 2015-09-09 | 2017-03-22 | 三星电子株式会社 | 控制声音的设备和方法及训练类型识别模型的设备和方法 |
CN105491483A (zh) * | 2015-11-30 | 2016-04-13 | 歌尔声学股份有限公司 | 用于耳机的佩戴状态检测方法、系统及耳机 |
US20170319123A1 (en) * | 2016-05-06 | 2017-11-09 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders |
US20170323540A1 (en) * | 2016-05-09 | 2017-11-09 | Coban Technologies, Inc. | Systems, apparatuses and methods for triggering actions based on data capture and characterization |
CN107735796A (zh) * | 2016-10-31 | 2018-02-23 | 深圳市大疆创新科技有限公司 | 动作识别方法、网络训练方法、装置及设备 |
CN106548210A (zh) * | 2016-10-31 | 2017-03-29 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法及装置 |
CN107403178A (zh) * | 2017-08-08 | 2017-11-28 | 方超 | 手势采集系统 |
CN107808143A (zh) * | 2017-11-10 | 2018-03-16 | 西安电子科技大学 | 基于计算机视觉的动态手势识别方法 |
KR101982812B1 (ko) * | 2017-11-20 | 2019-05-27 | 김정근 | 헤드셋 및 그의 음질 향상 방법 |
CN108322840A (zh) * | 2018-02-06 | 2018-07-24 | 深圳市埃微信息技术有限公司 | 蓝牙耳机的跑步姿势及步态分析方法及设备 |
US20190043524A1 (en) * | 2018-02-13 | 2019-02-07 | Intel Corporation | Vibration sensor signal transformation based on smooth average spectrums |
CN108540669A (zh) * | 2018-04-20 | 2018-09-14 | Oppo广东移动通信有限公司 | 无线耳机、基于耳机检测的控制方法及相关产品 |
CN108600887A (zh) * | 2018-04-23 | 2018-09-28 | Oppo广东移动通信有限公司 | 基于无线耳机的触摸控制方法及相关产品 |
CN108764059A (zh) * | 2018-05-04 | 2018-11-06 | 南京邮电大学 | 一种基于神经网络的人体行为识别方法及系统 |
CN108737922A (zh) * | 2018-05-21 | 2018-11-02 | 深圳市沃特沃德股份有限公司 | 蓝牙耳机播放控制方法及蓝牙耳机 |
CN108897857A (zh) * | 2018-06-28 | 2018-11-27 | 东华大学 | 面向领域的中文文本主题句生成方法 |
CN109195015A (zh) * | 2018-08-21 | 2019-01-11 | 北京奇艺世纪科技有限公司 | 一种视频播放控制方法及装置 |
CN110286774A (zh) * | 2019-07-03 | 2019-09-27 | 中国科学技术大学 | 一种基于手腕运动传感器的手语识别方法 |
Non-Patent Citations (2)
Title |
---|
S.DHANANJAY KUMAR,DP SUBHA: "Prediction of Depression from EEG Signal Using Long Short Term Memory(LSTM)", 《 2019 3RD INTERNATIONAL CONFERENCE ON TRENDS IN ELECTRONICS AND INFORMATICS (ICOEI)》 * |
郑誉煌,许柳飞: "基于卷积神经网络的人体动作识别研究", 《计算机科学研究》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113691902A (zh) * | 2020-05-19 | 2021-11-23 | 罗伯特·博世有限公司 | 耳机佩戴状态检测方法、设备和耳机 |
CN111831116A (zh) * | 2020-07-01 | 2020-10-27 | 深圳大学 | 一种基于ppg信息的智能设备交互方法 |
WO2022001791A1 (zh) * | 2020-07-01 | 2022-01-06 | 深圳大学 | 一种基于ppg信息的智能设备交互方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111050266B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11398067B2 (en) | Virtual reality presentation of body postures of avatars | |
US11858118B2 (en) | Robot, server, and human-machine interaction method | |
KR102334942B1 (ko) | 돌봄 로봇을 위한 데이터 처리 방법 및 장치 | |
CN110544488B (zh) | 一种多人语音的分离方法和装置 | |
CN102789313B (zh) | 一种用户交互系统和方法 | |
US11113515B2 (en) | Information processing device and information processing method | |
US10572017B2 (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
CN111050266B (zh) | 一种基于耳机检测动作进行功能控制的方法及系统 | |
KR102241414B1 (ko) | 머신 러닝 모델을 이용한 특정 움직임에 대한 피드백을 제공하는 전자 장치 및 그 동작 방법 | |
CN105396289A (zh) | 实时游戏和多媒体会话过程中实现特效的方法及装置 | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JPWO2019138619A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113365085B (zh) | 一种直播视频生成方法及装置 | |
Arsenault et al. | Gesture recognition using Markov Systems and wearable wireless inertial sensors | |
WO2020110547A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JPWO2020090223A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
KR101652705B1 (ko) | 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법 | |
CN115793844A (zh) | 一种基于imu面部手势识别的真无线耳机交互方法 | |
WO2023016385A1 (zh) | 一种音频数据的处理方法、装置、移动设备以及音频系统 | |
EP3611612A1 (en) | Determining a user input | |
KR20190027726A (ko) | 제스쳐를 이용하는 단말 제어 방법 | |
CN115047966A (zh) | 交互方法、电子设备与交互系统 | |
Anbarsanti et al. | Dance learning and recognition system based on hidden Markov model. a case study: aceh traditional dance | |
CN111278611A (zh) | 信息处理设备、信息处理方法和程序 | |
CN114519779B (zh) | 动作生成模型训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |