CN109308133A - 智能交互投影互动技术 - Google Patents
智能交互投影互动技术 Download PDFInfo
- Publication number
- CN109308133A CN109308133A CN201811054137.XA CN201811054137A CN109308133A CN 109308133 A CN109308133 A CN 109308133A CN 201811054137 A CN201811054137 A CN 201811054137A CN 109308133 A CN109308133 A CN 109308133A
- Authority
- CN
- China
- Prior art keywords
- projection
- operator
- condition
- action
- keyboard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000003993 interaction Effects 0.000 title claims abstract description 23
- 230000001133 acceleration Effects 0.000 claims abstract description 19
- 230000002093 peripheral effect Effects 0.000 claims abstract description 16
- 230000007613 environmental effect Effects 0.000 claims abstract description 6
- 230000009471 action Effects 0.000 claims description 27
- 230000003068 static effect Effects 0.000 claims description 21
- 238000012706 support-vector machine Methods 0.000 claims description 18
- 230000002452 interceptive effect Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000010079 rubber tapping Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000002068 genetic effect Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 230000008447 perception Effects 0.000 abstract 1
- 238000011161 development Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及智能交互投影互动技术,实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作。本发明的有益效果是:智能手机连接投影外设,同时投影触控键盘和屏幕,同时根据用户个体特征、使用习惯、环境特征、调整敏感度、对比度、音效等信息,根据使用感知进行有监督的方式进行传统机器学习与深度学习融合的方法,形成自适应用户使用习惯和环境特征的智能交互投影模型。
Description
技术领域
本发明涉及智能交互投影互动技术。
背景技术
随着摩尔定律的发展,高端智能手机计算性能与普通台式机已基本相当,但是台式机机并没有被小巧轻便的智能手机完全取代。在办公场景下,更大屏幕和键盘发挥了为用户体验发挥了重要的作用,在智能化发展的今天如何实现人机智能交互是非常有必要的。
发明内容
为克服现有技术所存在的缺陷,本发明提供智能交互投影互动技术,能够解决上述技术问题。
本发明通过以下技术方案来实现上述目的:
智能交互投影互动技术,按照下述步骤依次进行:
步骤一:实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,进而判断翻身、推动、起床等睡眠等特征,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
在本实施例中,所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
在本实施例中,所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
在本实施例中,所述智能手机和所述投影外设通过网络连接便于信息传递。
在本实施例中,操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
在本实施例中,所述红外摄像头安装在投影外设上。
在本实施例中,所述红外摄像头带有图像捕捉系统便于捕捉人的手指。
本发明的有益效果是:
本发明通过智能手机连接投影外设,同时投影触控键盘和屏幕,同时根据用户个体特征、使用习惯、环境特征、调整敏感度、对比度、音效等信息,根据使用感知进行有监督的方式进行传统机器学习与深度学习融合的方法,形成自适应用户使用习惯和环境特征的智能交互投影模型,在数据处理过程中,进行自适应调整及分层分级的数据处理。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明:
如图1所示,智能交互投影互动技术,按照下述步骤依次进行:
步骤一:实用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,进而判断翻身、推动、起床等睡眠等特征,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
在本实施例中,所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
在本实施例中,所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
在本实施例中,所述智能手机和所述投影外设通过网络连接便于信息传递。
在本实施例中,操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
在本实施例中,所述红外摄像头安装在投影外设上。
在本实施例中,所述红外摄像头带有图像捕捉系统便于捕捉人的手指
最后所应说明的是:以上实施例仅用以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应该理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.智能交互投影互动技术,其特征在于:按照下述步骤依次进行:
步骤一:使用智能手机连接投影外设,通过投影外设同时投影触控键盘和屏幕到桌面上,操作者佩戴有加速度传感单元使用桌面上的投影键盘进行操作;
步骤二:根据操作者的年龄、性别、学历、职业建立一级静态特征标签库,用于表征整体人群中对应画像人群的习惯属性特征,然后根据外界环境光线分为200流明、600流明、1000流明、2000流明作为光线四个刻度,划分为5个等级并根据手指连续敲击键盘速度(间隔不超过3s视为连续):分为20次/分钟、30次/分钟、50次/分钟、80次/分钟,划分为5个等级建立二级动态特征标签库。
步骤三:采集操作者的一级静态特征标签库并根据步骤一中操作者的操作速率采集当下二级动态标签匹配在整体人群中对应投影互动模型,进行互动光线亮度和键盘反应灵敏度等级的匹配;
步骤四:通过操作者携带的加速度传感单元所采集的加速度信息分析操作者操作过程的运动状态并采用小波包分解、差分算法分别从提取频域时域特征,用SVM进行识别,其中时频可表征动作周期性、变化率和加速度等整体特征,频域可表征谱特性等细节特征;
步骤五:根据模糊C均值法从步骤四提取的动作频域特征的多个小波包中挑选最小最优小波包集合,再用模糊C均值法基于模糊隶属度排序从挑选出的集合中挑选最小最优小波包分解系数,得到最小最优动作频域特征子集,再与动作时域特征组合,得到融合后的动作特征集,之后采用SVM进行动作识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别动作样本。假设动作数据库中已经注册了个人n类动作样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤六:使用分层分级降维建模,利用所述加速度传感器的输出数据,并利用中值滤波判断人体运动类型,分层判断人体是否静止运动、运动部位、类型,分级抽样判断主要特征、全面验证重点特征的影响,建模时,首先通过加速度计输出合成幅值,处于给定的上下阈值之间,则判定人体静止;反之,则判定人运动,所述加速度计输出合成幅值为:
所述上下阈值分别为:tha min=8m/s,tha max=11m/s,第一条件为:
如果第一条件判断为静止,则不进行第二、第三条件的判断,加速度计输出的局部方差,低于给定的阈值,则判定该身体局部静止;反之,则判定该身体局部运动,所述第二条件计算公式为:
其中,thσa=0.5,如果第二条件判断为该身体局部静止,则不进行第三条件的判断,反之,所述第三条件计算公式为:
其中,thamax=50,然后进行运动的状态进行抽样计算并提取特征参数;
步骤七:将根据步骤一到步骤六采集的信息建模后,然后将个体特征、使用习惯、环境特征、调整敏感度、对比度、音效计入建模信息并通过控制模块控制调节相应输出元素;
步骤八:不断重复上述采样次数,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程。
2.根据权利要求1所述的智能交互投影互动技术,其特征在于:所述步骤一的操作者连续敲击键盘的速度通过红外摄像头检测手指所遮挡的红外线进行检测计算。
3.根据权利要求2所述的智能交互投影互动技术,其特征在于:所述步骤六中的提取特征参数的原始运动向量组(F1,F2,…,Fm),m小于9,提取矩阵为:
其中原始向量F1蕴含信息量最多,具有最大方差,称为第一主成分,F2,…,Fm依次递减,称为第二主成分、″″″、第m主成分。因此主成分分析的过程可以看做是确定权重系数aik(i=1,″″″,m;k=1,″″″9)的过程。
4.根据权利要求1所述的智能交互投影互动技术,其特征在于:所述智能手机和所述投影外设通过网络连接便于信息传递。
5.根据权利要求1所述的智能交互投影互动技术,其特征在于:操作者佩戴的所述加速度传感单元佩戴形体包含但不限于戒指、手环。
6.根据权利要求2所述的智能交互投影互动技术,其特征在于:所述红外摄像头安装在投影外设上。
7.根据权利要求6所述的智能交互投影互动技术,其特征在于:所述红外摄像头带有图像捕捉系统便于捕捉人的手指。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811054137.XA CN109308133A (zh) | 2018-09-07 | 2018-09-07 | 智能交互投影互动技术 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811054137.XA CN109308133A (zh) | 2018-09-07 | 2018-09-07 | 智能交互投影互动技术 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109308133A true CN109308133A (zh) | 2019-02-05 |
Family
ID=65224668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811054137.XA Pending CN109308133A (zh) | 2018-09-07 | 2018-09-07 | 智能交互投影互动技术 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109308133A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609887A (zh) * | 2021-04-26 | 2021-11-05 | 中国石油大学(华东) | 深度学习与浅层学习决策融合的海面溢油检测方法 |
CN114201129A (zh) * | 2020-09-18 | 2022-03-18 | 比亚迪股份有限公司 | 智能设备的屏幕投影方法、装置、存储介质及终端 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020070921A1 (en) * | 2000-12-13 | 2002-06-13 | Feldman Stephen E. | Holographic keyboard |
CN101158885A (zh) * | 2007-10-22 | 2008-04-09 | 李玫 | 一种可自定义键盘及其实现方法 |
CN102541420A (zh) * | 2010-12-31 | 2012-07-04 | 上海优熠电子科技有限公司 | 一种自适应虚拟键盘系统 |
CN103019004A (zh) * | 2012-11-22 | 2013-04-03 | 中兴通讯股份有限公司 | 一种手机补光灯投影方法及装置 |
CN103584840A (zh) * | 2013-11-25 | 2014-02-19 | 天津大学 | 基于脑电、心率变异及两者相干性的自动睡眠分期方法 |
CN106210438A (zh) * | 2016-08-31 | 2016-12-07 | 蒋欣飏 | 一种基于全息投影的信息发布方法及系统 |
CN106971059A (zh) * | 2017-03-01 | 2017-07-21 | 福州云开智能科技有限公司 | 一种基于神经网络自适应健康监测的可穿戴设备 |
CN106998374A (zh) * | 2017-04-12 | 2017-08-01 | 江苏农林职业技术学院 | 一种可触控的投影手机 |
CN107102728A (zh) * | 2017-03-28 | 2017-08-29 | 北京犀牛数字互动科技有限公司 | 基于虚拟现实技术的显示方法及系统 |
US20180048755A1 (en) * | 2009-03-09 | 2018-02-15 | Robotarmy Corporation | Electronic device input/output system and method |
CN107753026A (zh) * | 2017-09-28 | 2018-03-06 | 古琳达姬(厦门)股份有限公司 | 针对脊柱腿部健康的智能鞋自适应监测方法 |
-
2018
- 2018-09-07 CN CN201811054137.XA patent/CN109308133A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020070921A1 (en) * | 2000-12-13 | 2002-06-13 | Feldman Stephen E. | Holographic keyboard |
CN101158885A (zh) * | 2007-10-22 | 2008-04-09 | 李玫 | 一种可自定义键盘及其实现方法 |
US20180048755A1 (en) * | 2009-03-09 | 2018-02-15 | Robotarmy Corporation | Electronic device input/output system and method |
CN102541420A (zh) * | 2010-12-31 | 2012-07-04 | 上海优熠电子科技有限公司 | 一种自适应虚拟键盘系统 |
CN103019004A (zh) * | 2012-11-22 | 2013-04-03 | 中兴通讯股份有限公司 | 一种手机补光灯投影方法及装置 |
CN103584840A (zh) * | 2013-11-25 | 2014-02-19 | 天津大学 | 基于脑电、心率变异及两者相干性的自动睡眠分期方法 |
CN106210438A (zh) * | 2016-08-31 | 2016-12-07 | 蒋欣飏 | 一种基于全息投影的信息发布方法及系统 |
CN106971059A (zh) * | 2017-03-01 | 2017-07-21 | 福州云开智能科技有限公司 | 一种基于神经网络自适应健康监测的可穿戴设备 |
CN107102728A (zh) * | 2017-03-28 | 2017-08-29 | 北京犀牛数字互动科技有限公司 | 基于虚拟现实技术的显示方法及系统 |
CN106998374A (zh) * | 2017-04-12 | 2017-08-01 | 江苏农林职业技术学院 | 一种可触控的投影手机 |
CN107753026A (zh) * | 2017-09-28 | 2018-03-06 | 古琳达姬(厦门)股份有限公司 | 针对脊柱腿部健康的智能鞋自适应监测方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114201129A (zh) * | 2020-09-18 | 2022-03-18 | 比亚迪股份有限公司 | 智能设备的屏幕投影方法、装置、存储介质及终端 |
CN113609887A (zh) * | 2021-04-26 | 2021-11-05 | 中国石油大学(华东) | 深度学习与浅层学习决策融合的海面溢油检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cheng et al. | Real-time human activity recognition using conditionally parametrized convolutions on mobile and wearable devices | |
Abreu et al. | Evaluating sign language recognition using the myo armband | |
CN109325454B (zh) | 一种基于YOLOv3的静态手势实时识别方法 | |
Wu et al. | Orientation independent activity/gesture recognition using wearable motion sensors | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
Alrubayi et al. | A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques | |
CN116226691B (zh) | 用于手势姿态感知的智能戒指数据处理方法 | |
CN112560723B (zh) | 一种基于形态识别与速度估计的跌倒检测方法及系统 | |
CN107390867B (zh) | 一种基于安卓手表的人机交互系统 | |
KR102637133B1 (ko) | 온-디바이스 활동 인식 | |
CN108932060A (zh) | 手势立体互动投影技术 | |
CN109308133A (zh) | 智能交互投影互动技术 | |
Alhersh et al. | Learning human activity from visual data using deep learning | |
Akbari et al. | An autoencoder-based approach for recognizing null class in activities of daily living in-the-wild via wearable motion sensors | |
Sun | A survey on dynamic sign language recognition | |
CN111797856B (zh) | 建模方法、装置、存储介质及电子设备 | |
Robert et al. | A review on computational methods based automated sign language recognition system for hearing and speech impaired community | |
CN114970640B (zh) | 一种基于知识蒸馏的手势识别方法及系统 | |
CN111797289A (zh) | 模型处理方法、装置、存储介质和电子设备 | |
Modzelewski et al. | Hand gesture recognition interface for visually impaired and blind people | |
Khan et al. | Electromyography based Gesture Recognition: An Implementation of Hand Gesture Analysis Using Sensors | |
Nguyen | Bayesian nonparametric extraction of hidden contexts from pervasive honest signals | |
Tiwari et al. | Volume Controller using Hand Gestures | |
CN115438691B (zh) | 一种基于无线信号的小样本手势识别方法 | |
Singla et al. | Improving accuracy using ML/DL in vision based techniques of ISLR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190205 |