CN109308133A - 智能交互投影互动技术 - Google Patents

智能交互投影互动技术 Download PDF

Info

Publication number
CN109308133A
CN109308133A CN201811054137.XA CN201811054137A CN109308133A CN 109308133 A CN109308133 A CN 109308133A CN 201811054137 A CN201811054137 A CN 201811054137A CN 109308133 A CN109308133 A CN 109308133A
Authority
CN
China
Prior art keywords
projection
operator
condition
action
keyboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811054137.XA
Other languages
English (en)
Inventor
薛爱凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Win Win Time Technology Co Ltd
Original Assignee
Shenzhen Win Win Time Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Win Win Time Technology Co Ltd filed Critical Shenzhen Win Win Time Technology Co Ltd
Priority to CN201811054137.XA priority Critical patent/CN109308133A/zh
Publication of CN109308133A publication Critical patent/CN109308133A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及智能交互投影互动技术,实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作。本发明的有益效果是:智能手机连接投影外设,同时投影触控键盘和屏幕,同时根据用户个体特征、使用习惯、环境特征、调整敏感度、对比度、音效等信息,根据使用感知进行有监督的方式进行传统机器学习与深度学习融合的方法,形成自适应用户使用习惯和环境特征的智能交互投影模型。

Description

智能交互投影互动技术
技术领域
本发明涉及智能交互投影互动技术。
背景技术
随着摩尔定律的发展,高端智能手机计算性能与普通台式机已基本相当,但是台式机机并没有被小巧轻便的智能手机完全取代。在办公场景下,更大屏幕和键盘发挥了为用户体验发挥了重要的作用,在智能化发展的今天如何实现人机智能交互是非常有必要的。
发明内容
为克服现有技术所存在的缺陷,本发明提供智能交互投影互动技术,能够解决上述技术问题。
本发明通过以下技术方案来实现上述目的:
智能交互投影互动技术,按照下述步骤依次进行:
步骤一:实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,进而判断翻身、推动、起床等睡眠等特征,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
在本实施例中,所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
在本实施例中,所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
在本实施例中,所述智能手机和所述投影外设通过网络连接便于信息传递。
在本实施例中,操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
在本实施例中,所述红外摄像头安装在投影外设上。
在本实施例中,所述红外摄像头带有图像捕捉系统便于捕捉人的手指。
本发明的有益效果是:
本发明通过智能手机连接投影外设,同时投影触控键盘和屏幕,同时根据用户个体特征、使用习惯、环境特征、调整敏感度、对比度、音效等信息,根据使用感知进行有监督的方式进行传统机器学习与深度学习融合的方法,形成自适应用户使用习惯和环境特征的智能交互投影模型,在数据处理过程中,进行自适应调整及分层分级的数据处理。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明:
如图1所示,智能交互投影互动技术,按照下述步骤依次进行:
步骤一:实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,进而判断翻身、推动、起床等睡眠等特征,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
在本实施例中,所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
在本实施例中,所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
在本实施例中,所述智能手机和所述投影外设通过网络连接便于信息传递。
在本实施例中,操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
在本实施例中,所述红外摄像头安装在投影外设上。
在本实施例中,所述红外摄像头带有图像捕捉系统便于捕捉人的手指
最后所应说明的是:以上实施例仅用以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应该理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.智能交互投影互动技术,其特征在于:按照下述步骤依次进行:
步骤一:使用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
2.根据权利要求1所述的智能交互投影互动技术,其特征在于:所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
3.根据权利要求2所述的智能交互投影互动技术,其特征在于:所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
4.根据权利要求1所述的智能交互投影互动技术,其特征在于:所述智能手机和所述投影外设通过网络连接便于信息传递。
5.根据权利要求1所述的智能交互投影互动技术,其特征在于:操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
6.根据权利要求2所述的智能交互投影互动技术,其特征在于:所述红外摄像头安装在投影外设上。
7.根据权利要求6所述的智能交互投影互动技术,其特征在于:所述红外摄像头带有图像捕捉系统便于捕捉人的手指。
CN201811054137.XA 2018-09-07 2018-09-07 智能交互投影互动技术 Pending CN109308133A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811054137.XA CN109308133A (zh) 2018-09-07 2018-09-07 智能交互投影互动技术

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811054137.XA CN109308133A (zh) 2018-09-07 2018-09-07 智能交互投影互动技术

Publications (1)

Publication Number Publication Date
CN109308133A true CN109308133A (zh) 2019-02-05

Family

ID=65224668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811054137.XA Pending CN109308133A (zh) 2018-09-07 2018-09-07 智能交互投影互动技术

Country Status (1)

Country Link
CN (1) CN109308133A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609887A (zh) * 2021-04-26 2021-11-05 中国石油大学(华东) 深度学习与浅层学习决策融合的海面溢油检测方法
CN114201129A (zh) * 2020-09-18 2022-03-18 比亚迪股份有限公司 智能设备的屏幕投影方法、装置、存储介质及终端

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020070921A1 (en) * 2000-12-13 2002-06-13 Feldman Stephen E. Holographic keyboard
CN101158885A (zh) * 2007-10-22 2008-04-09 李玫 一种可自定义键盘及其实现方法
CN102541420A (zh) * 2010-12-31 2012-07-04 上海优熠电子科技有限公司 一种自适应虚拟键盘系统
CN103019004A (zh) * 2012-11-22 2013-04-03 中兴通讯股份有限公司 一种手机补光灯投影方法及装置
CN103584840A (zh) * 2013-11-25 2014-02-19 天津大学 基于脑电、心率变异及两者相干性的自动睡眠分期方法
CN106210438A (zh) * 2016-08-31 2016-12-07 蒋欣飏 一种基于全息投影的信息发布方法及系统
CN106971059A (zh) * 2017-03-01 2017-07-21 福州云开智能科技有限公司 一种基于神经网络自适应健康监测的可穿戴设备
CN106998374A (zh) * 2017-04-12 2017-08-01 江苏农林职业技术学院 一种可触控的投影手机
CN107102728A (zh) * 2017-03-28 2017-08-29 北京犀牛数字互动科技有限公司 基于虚拟现实技术的显示方法及系统
US20180048755A1 (en) * 2009-03-09 2018-02-15 Robotarmy Corporation Electronic device input/output system and method
CN107753026A (zh) * 2017-09-28 2018-03-06 古琳达姬(厦门)股份有限公司 针对脊柱腿部健康的智能鞋自适应监测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020070921A1 (en) * 2000-12-13 2002-06-13 Feldman Stephen E. Holographic keyboard
CN101158885A (zh) * 2007-10-22 2008-04-09 李玫 一种可自定义键盘及其实现方法
US20180048755A1 (en) * 2009-03-09 2018-02-15 Robotarmy Corporation Electronic device input/output system and method
CN102541420A (zh) * 2010-12-31 2012-07-04 上海优熠电子科技有限公司 一种自适应虚拟键盘系统
CN103019004A (zh) * 2012-11-22 2013-04-03 中兴通讯股份有限公司 一种手机补光灯投影方法及装置
CN103584840A (zh) * 2013-11-25 2014-02-19 天津大学 基于脑电、心率变异及两者相干性的自动睡眠分期方法
CN106210438A (zh) * 2016-08-31 2016-12-07 蒋欣飏 一种基于全息投影的信息发布方法及系统
CN106971059A (zh) * 2017-03-01 2017-07-21 福州云开智能科技有限公司 一种基于神经网络自适应健康监测的可穿戴设备
CN107102728A (zh) * 2017-03-28 2017-08-29 北京犀牛数字互动科技有限公司 基于虚拟现实技术的显示方法及系统
CN106998374A (zh) * 2017-04-12 2017-08-01 江苏农林职业技术学院 一种可触控的投影手机
CN107753026A (zh) * 2017-09-28 2018-03-06 古琳达姬(厦门)股份有限公司 针对脊柱腿部健康的智能鞋自适应监测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114201129A (zh) * 2020-09-18 2022-03-18 比亚迪股份有限公司 智能设备的屏幕投影方法、装置、存储介质及终端
CN113609887A (zh) * 2021-04-26 2021-11-05 中国石油大学(华东) 深度学习与浅层学习决策融合的海面溢油检测方法

Similar Documents

Publication Publication Date Title
Cheng et al. Real-time human activity recognition using conditionally parametrized convolutions on mobile and wearable devices
Abreu et al. Evaluating sign language recognition using the myo armband
CN109325454B (zh) 一种基于YOLOv3的静态手势实时识别方法
Wu et al. Orientation independent activity/gesture recognition using wearable motion sensors
CN110221699B (zh) 一种前置摄像头视频源的眼动行为识别方法
Alrubayi et al. A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques
CN116226691B (zh) 用于手势姿态感知的智能戒指数据处理方法
CN112560723B (zh) 一种基于形态识别与速度估计的跌倒检测方法及系统
CN107390867B (zh) 一种基于安卓手表的人机交互系统
KR102637133B1 (ko) 온-디바이스 활동 인식
CN108932060A (zh) 手势立体互动投影技术
CN109308133A (zh) 智能交互投影互动技术
Alhersh et al. Learning human activity from visual data using deep learning
Akbari et al. An autoencoder-based approach for recognizing null class in activities of daily living in-the-wild via wearable motion sensors
Sun A survey on dynamic sign language recognition
CN111797856B (zh) 建模方法、装置、存储介质及电子设备
Robert et al. A review on computational methods based automated sign language recognition system for hearing and speech impaired community
CN114970640B (zh) 一种基于知识蒸馏的手势识别方法及系统
CN111797289A (zh) 模型处理方法、装置、存储介质和电子设备
Modzelewski et al. Hand gesture recognition interface for visually impaired and blind people
Khan et al. Electromyography based Gesture Recognition: An Implementation of Hand Gesture Analysis Using Sensors
Nguyen Bayesian nonparametric extraction of hidden contexts from pervasive honest signals
Tiwari et al. Volume Controller using Hand Gestures
CN115438691B (zh) 一种基于无线信号的小样本手势识别方法
Singla et al. Improving accuracy using ML/DL in vision based techniques of ISLR

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190205