CN109189277A - 一种使用触控红外的投影自动编写呈现技术 - Google Patents
一种使用触控红外的投影自动编写呈现技术 Download PDFInfo
- Publication number
- CN109189277A CN109189277A CN201811060669.4A CN201811060669A CN109189277A CN 109189277 A CN109189277 A CN 109189277A CN 201811060669 A CN201811060669 A CN 201811060669A CN 109189277 A CN109189277 A CN 109189277A
- Authority
- CN
- China
- Prior art keywords
- projection
- force
- touch
- point
- curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
- G06F2218/06—Denoising by applying a scale-space analysis, e.g. using wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Telephone Function (AREA)
Abstract
本发明涉及使用触控红外的投影自动编写呈现技术,通过智能手机控制可折叠的投影手环投放电子书,并通过采集指尖触控信息特征构建完善个人在不同环境下的画像模型。本发明的有益效果是:对不同用户的手势习惯、不同的投影环境、人眼视觉和姿势的捕捉,将对触控敏感性形成一套适合个人在不同情境下的画像模型,并在云端生成相应画像情境下模型,形成个性化的个人阅读体验,并且方便携带。
Description
技术领域
本发明涉及一种使用触控红外的投影自动编写呈现技术。
背景技术
书籍作为人类知识宝库的沉淀形式,历史以来发挥了重要的作用,从古代的竹简到纸质的书籍,到近年来出现的PAD形态的电子书,书籍朝着越来越轻便,越来越便携的方向发展,但是目前电子屏形式的电子书不够个性化,并且pad携带也不方便,随着投影技术的发展,电子书可以投影到平面上,如何将个性化的电子书阅读体验与投影技术相结合是目前发展的方向。
发明内容
为克服现有技术所存在的缺陷,本发明提供一种使用触控红外的投影自动编写呈现技术,能够解决上述技术问题。
本发明通过以下技术方案来实现上述目的:
一种使用触控红外的投影自动编写呈现技术,按照下述步骤依次进行:
步骤一:使用者将可折叠的投影手环佩戴在手上,需要观看电子书时将可折叠的投影手环伸直,智能手机中的电子书通过控制可折叠的投影手环将内容投放到白纸上;
步骤二:使用者通过手指在投影后的白纸上进行操作(如翻页),可折叠的投影手环内部的激光发射器出射的光线照射到手指后手指所遮挡的部分光线,可折叠的投影手环内部的红外摄像头会根据光信号采集触摸的位置和识别各种不同的手势,获取场景图像后传递到智能手机进行分析,智能手机分析触摸信号后作出相应的指令动作。
步骤三:将激光发射器不断地摆动扫描,通过红外摄像头不断地采集扫描图像并传递给智能手机;
步骤四:对步骤三中的图像信号进行预处理,通过三维扫描仪构建对象的三维模型,设定初始边界条件,根据边界条件进行三维模型区域分解,分解得到与并行计算中总进程数相等的子模型数目,以初始边界条件为计算条件,当计算过程中初始的边界条件发生改变则重新启动边界设置程序,重新对该子模型进行计算,直到边界稳定或计算子结果为常数,读入当前进程中对应的输入文件,利用并行特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统,如果边界条件发生改变重新启动边界设置程序,再进行计算,直到边界稳定或者计算子结果定常为止;每完成一定时间步的计算,进行一次输出文件的读写操作;
步骤五:选用小波变换阈值法对步骤一的采集过程中电路因为使用者抽动而产生的电磁干扰(即高频噪声)进行去噪。
步骤六:采用小波包分解、差分算法分别从压力的三方向(左右、前后、垂直)提取频域时域特征,用SVM进行识别;
步骤七:对特征融合建模,评估摄像头的光线传感器获得的光线值等级、运动类型、用户设置的重要类型获得光感质量用户5分评价体系,通过有监督分类算法-以历史最佳数据为监督因子对比,建立主观感受与环境参数自适应投影调节模型,然后识别建模,采用SVM进行识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别样本。假设数据库中已经注册了个人n类样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤八:对计算子结果合并处理,主进程分别读入当前时间步内各个进程的输出文件,将采集到的所述多路视频流进行拼合处理,以生成携带所述时间戳的全景视频流,然后按照区域分解的算法将结果合并还原,将结果以ASCLL格式暂存,作为下一次投影的参考数据。
步骤九:每次使用智能手机控制可折叠的投影手环进行电子书投影都进行上述步骤采样,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程,实现智能手机投影对使用者个性化模型的自适应完善,让智能手机提供使用者更加舒适个性化的阅读环境。
在本实施例中,所述步骤一中的可折叠的投影手环有完全和伸直两种形态,平时弯曲戴在手腕上,伸直后夹在任意一张当投影幕布的纸上,将投影内容投影于纸上,作为可触控的投影电子书。
在本实施例中,所述步骤二中的红外摄像头由红外扫描激光器、摆动部件、电动机构成。
在本实施例中,所述步骤六中的时域特征提取是指将去噪后的作用力中的垂直力曲线用一阶差分法检测前后、垂直方向曲线的波峰点和波谷点,作为作用力曲线的关键点,将垂直方向曲线的波谷点作为作用力曲线的参考点,以垂直方向曲线的关键点的力值及力值出现的时相、相邻关键点作用力变化率和冲量和对应的前后方向曲线上的关键点处的力值、驱动冲量(力-时间曲线上居于0点以上的力与时间的积分)和制动冲量(力-时间曲线上居于0点以下的力与时间的积分),而频域特征提取是将作用力先按垂直力曲线上的参考点将作用力自动波形对齐,以提高频域特征对比性和分类能力:先用线性插值算法将作用力维数归一化到同一值,通过一阶差分算法搜索出归一化后作用力垂直方向力曲线上的波谷点,将波谷点作为参考点进行参照,用线性插值法将作用力中的左右、前后和垂直方向曲线波形对齐;将去噪后的作用力中的垂直力曲线用一阶差分算法检测出垂直方向的波谷点,作为作用力曲线的参考点;以参考点为基准,用线性插值法对作用力进行波形对齐,得到对齐后的作用力;再用L层小波包分解算法从作用力中提取出。
在本实施例中,所述步骤四中的特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统为:
其中,K(i)为局部刚度矩阵,U(i)为局部未知变量,f(i)为已知的局部外力向量,R(i)为局部元素标编号和整体元素编号之间映射的0-1矩阵;
表面自由度方程如下:
其中,为当前小区域内部自由度,当前小区域表面和其他区域接界部分自由度;
为当前小区域内部自由度对应的外力矢量;
为当前小区域表面自由度对应的外力矢量;
其他K分量为矩阵进行初等行列变换后对应的分块矩阵;运用平衡预条件迭代算法对表面自由度方程进行求解,得到uB将代入线性系统,采用直接法得到。
在本实施例中,所述摆动部件与所述激光扫描器机械连接便于带动摆动。
在本实施例中,所述红外摄像头与所述智能手机通过网络连接。
本发明的有益效果是:
本发明通过人工智能的自学习,对不同用户的手势习惯、不同的投影环境、人眼视觉和姿势的捕捉,将对触控敏感性形成一套适合个人在不同情境下的画像模型,并在云端生成相应画像情境下模型,形成个性化的个人阅读体验,并且方便携带。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明:
一种使用触控红外的投影自动编写呈现技术,按照下述步骤依次进行:
步骤一:使用者将可折叠的投影手环佩戴在手上,需要观看电子书时将可折叠的投影手环伸直,智能手机中的电子书通过控制可折叠的投影手环将内容投放到白纸上;
步骤二:使用者通过手指在投影后的白纸上进行操作(如翻页),可折叠的投影手环内部的激光发射器出射的光线照射到手指后手指所遮挡的部分光线,可折叠的投影手环内部的红外摄像头会根据光信号采集触摸的位置和识别各种不同的手势,获取场景图像后传递到智能手机进行分析,智能手机分析触摸信号后作出相应的指令动作。
步骤三:将激光发射器不断地摆动扫描,通过红外摄像头不断地采集扫描图像并传递给智能手机;
步骤四:对步骤三中的图像信号进行预处理,通过三维扫描仪构建对象的三维模型,设定初始边界条件,根据边界条件进行三维模型区域分解,分解得到与并行计算中总进程数相等的子模型数目,以初始边界条件为计算条件,当计算过程中初始的边界条件发生改变则重新启动边界设置程序,重新对该子模型进行计算,直到边界稳定或计算子结果为常数,读入当前进程中对应的输入文件,利用并行特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统,如果边界条件发生改变重新启动边界设置程序,再进行计算,直到边界稳定或者计算子结果定常为止;每完成一定时间步的计算,进行一次输出文件的读写操作;
步骤五:选用小波变换阈值法对步骤一的采集过程中电路因为使用者抽动而产生的电磁干扰(即高频噪声)进行去噪。
步骤六:采用小波包分解、差分算法分别从压力的三方向(左右、前后、垂直)提取频域时域特征,用SVM进行识别;
步骤七:对特征融合建模,评估摄像头的光线传感器获得的光线值等级、运动类型、用户设置的重要类型获得光感质量用户5分评价体系,通过有监督分类算法-以历史最佳数据为监督因子对比,建立主观感受与环境参数自适应投影调节模型,然后识别建模,采用SVM进行识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别样本。假设数据库中已经注册了个人n类样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤八:对计算子结果合并处理,主进程分别读入当前时间步内各个进程的输出文件,将采集到的所述多路视频流进行拼合处理,以生成携带所述时间戳的全景视频流,然后按照区域分解的算法将结果合并还原,将结果以ASCLL格式暂存,作为下一次投影的参考数据。
步骤九:每次使用智能手机控制可折叠的投影手环进行电子书投影都进行上述步骤采样,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程,实现智能手机投影对使用者个性化模型的自适应完善,让智能手机提供使用者更加舒适个性化的阅读环境。
在本实施例中,所述步骤一中的可折叠的投影手环有完全和伸直两种形态,平时弯曲戴在手腕上,伸直后夹在任意一张当投影幕布的纸上,将投影内容投影于纸上,作为可触控的投影电子书。
在本实施例中,所述步骤二中的红外摄像头由红外扫描激光器、摆动部件、电动机构成。
在本实施例中,所述步骤六中的时域特征提取是指将去噪后的作用力中的垂直力曲线用一阶差分法检测前后、垂直方向曲线的波峰点和波谷点,作为作用力曲线的关键点,将垂直方向曲线的波谷点作为作用力曲线的参考点,以垂直方向曲线的关键点的力值及力值出现的时相、相邻关键点作用力变化率和冲量和对应的前后方向曲线上的关键点处的力值、驱动冲量(力-时间曲线上居于0点以上的力与时间的积分)和制动冲量(力-时间曲线上居于0点以下的力与时间的积分),而频域特征提取是将作用力先按垂直力曲线上的参考点将作用力自动波形对齐,以提高频域特征对比性和分类能力:先用线性插值算法将作用力维数归一化到同一值,通过一阶差分算法搜索出归一化后作用力垂直方向力曲线上的波谷点,将波谷点作为参考点进行参照,用线性插值法将作用力中的左右、前后和垂直方向曲线波形对齐;将去噪后的作用力中的垂直力曲线用一阶差分算法检测出垂直方向的波谷点,作为作用力曲线的参考点;以参考点为基准,用线性插值法对作用力进行波形对齐,得到对齐后的作用力;再用L层小波包分解算法从作用力中提取出。
在本实施例中,所述步骤四中的特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统为:
其中,K(i)为局部刚度矩阵,U(i)为局部未知变量,f(i)为已知的局部外力向量,R(i)为局部元素标编号和整体元素编号之间映射的0-1矩阵;
表面自由度方程如下:
其中,为当前小区域内部自由度,当前小区域表面和其他区域接界部分自由度;
为当前小区域内部自由度对应的外力矢量;
为当前小区域表面自由度对应的外力矢量;
其他K分量为矩阵进行初等行列变换后对应的分块矩阵;运用平衡预条件迭代算法对表面自由度方程进行求解,得到uB将代入线性系统,采用直接法得到。
在本实施例中,所述摆动部件与所述激光扫描器机械连接便于带动摆动。
在本实施例中,所述红外摄像头与所述智能手机通过网络连接。
最后所应说明的是:以上实施例仅用以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应该理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.使用触控红外的投影自动编写呈现技术,其特征在于:按照下述步骤依次进行:
步骤一:使用者将可折叠的投影手环佩戴在手上,需要观看电子书时将可折叠的投影手环伸直,智能手机中的电子书通过控制可折叠的投影手环将内容投放到白纸上;
步骤二:使用者通过手指在投影后的白纸上进行操作(如翻页),可折叠的投影手环内部的激光发射器出射的光线照射到手指后手指所遮挡的部分光线,可折叠的投影手环内部的红外摄像头会根据光信号采集触摸的位置和识别各种不同的手势,获取场景图像后传递到智能手机进行分析,智能手机分析触摸信号后作出相应的指令动作。
步骤三:将激光发射器不断地摆动扫描,通过红外摄像头不断地采集扫描图像并传递给智能手机;
步骤四:对步骤三中的图像信号进行预处理,通过三维扫描仪构建对象的三维模型,设定初始边界条件,根据边界条件进行三维模型区域分解,分解得到与并行计算中总进程数相等的子模型数目,以初始边界条件为计算条件,当计算过程中初始的边界条件发生改变则重新启动边界设置程序,重新对该子模型进行计算,直到边界稳定或计算子结果为常数,读入当前进程中对应的输入文件,利用并行特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统,如果边界条件发生改变重新启动边界设置程序,再进行计算,直到边界稳定或者计算子结果定常为止;每完成一定时间步的计算,进行一次输出文件的读写操作;
步骤五:选用小波变换阈值法对步骤一的采集过程中电路因为使用者抽动而产生的电磁干扰(即高频噪声)进行去噪。
步骤六:采用小波包分解、差分算法分别从压力的三方向(左右、前后、垂直)提取频域时域特征,用SVM进行识别;
步骤七:对特征融合建模,评估摄像头的光线传感器获得的光线值等级、运动类型、用户设置的重要类型获得光感质量用户5分评价体系,通过有监督分类算法-以历史最佳数据为监督因子对比,建立主观感受与环境参数自适应投影调节模型,然后识别建模,采用SVM进行识别,采用非线性映射径向基核函数将线性不可分的低维空间映射到线性可分的高维空间。先训练分类器,再用分类器识别样本。假设数据库中已经注册了个人n类样本,将样本输入分类器训练,根据输入值判定是1~n中哪一类,如果超出1~n范围,则新注册类别n+1类,然后重新更新分类器;
步骤八:对计算子结果合并处理,主进程分别读入当前时间步内各个进程的输出文件,将采集到的所述多路视频流进行拼合处理,以生成携带所述时间戳的全景视频流,然后按照区域分解的算法将结果合并还原,将结果以ASCLL格式暂存,作为下一次投影的参考数据。
步骤九:每次使用智能手机控制可折叠的投影手环进行电子书投影都进行上述步骤采样,随着采样样本量的增加SVM分类器能够自适应不断优化完善每次输入新的样本,根据交叉验证法原理,计算SVM分类器识别率,进行适应度评估,不设定遗传算法的终止值,终止条件采用比高法,如果训练的识别率高于现有则设为最优参数,否则,执行选择、交叉和变异等操作进一步优化参数,不断完善操作者个体特征信息、环境以及投影设备之间的交互投影过程,实现智能手机投影对使用者个性化模型的自适应完善,让智能手机提供使用者更加舒适个性化的阅读环境。
2.根据权利要求1所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述步骤一中的可折叠的投影手环有完全和伸直两种形态,平时弯曲戴在手腕上,伸直后夹在任意一张当投影幕布的纸上,将投影内容投影于纸上,作为可触控的投影电子书。
3.根据权利要求2所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述步骤二中的红外摄像头由红外扫描激光器、摆动部件、电动机构成。
4.根据权利要求1所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述步骤六中的时域特征提取是指将去噪后的作用力中的垂直力曲线用一阶差分法检测前后、垂直方向曲线的波峰点和波谷点,作为作用力曲线的关键点,将垂直方向曲线的波谷点作为作用力曲线的参考点,以垂直方向曲线的关键点的力值及力值出现的时相、相邻关键点作用力变化率和冲量和对应的前后方向曲线上的关键点处的力值、驱动冲量(力-时间曲线上居于0点以上的力与时间的积分)和制动冲量(力-时间曲线上居于0点以下的力与时间的积分),而频域特征提取是将作用力先按垂直力曲线上的参考点将作用力自动波形对齐,以提高频域特征对比性和分类能力:先用线性插值算法将作用力维数归一化到同一值,通过一阶差分算法搜索出归一化后作用力垂直方向力曲线上的波谷点,将波谷点作为参考点进行参照,用线性插值法将作用力中的左右、前后和垂直方向曲线波形对齐;将去噪后的作用力中的垂直力曲线用一阶差分算法检测出垂直方向的波谷点,作为作用力曲线的参考点;以参考点为基准,用线性插值法对作用力进行波形对齐,得到对齐后的作用力;再用L层小波包分解算法从作用力中提取出。
5.根据权利要求1所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述步骤四中的特征曲线算法对控制方程中的非线性项进行线性化处理,得到正定、对称的局部线性系统为:
其中,K(i)为局部刚度矩阵,U(i)为局部未知变量,f(i)为已知的局部外力向量,R(i)为局部元素标编号和整体元素编号之间映射的0-1矩阵;
表面自由度方程如下:
其中,为当前小区域内部自由度,当前小区域表面和其他区域接界部分自由度;
为当前小区域内部自由度对应的外力矢量;
为当前小区域表面自由度对应的外力矢量;
其他K分量为矩阵进行初等行列变换后对应的分块矩阵;运用平衡预条件迭代算法对表面自由度方程进行求解,得到uB将代入线性系统,采用直接法得到。
6.根据权利要求3所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述摆动部件与所述激光扫描器机械连接便于带动摆动。
7.根据权利要求3所述的使用触控红外的投影自动编写呈现技术,其特征在于:所述红外摄像头与所述智能手机通过网络连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811060669.4A CN109189277A (zh) | 2018-09-11 | 2018-09-11 | 一种使用触控红外的投影自动编写呈现技术 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811060669.4A CN109189277A (zh) | 2018-09-11 | 2018-09-11 | 一种使用触控红外的投影自动编写呈现技术 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109189277A true CN109189277A (zh) | 2019-01-11 |
Family
ID=64910383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811060669.4A Pending CN109189277A (zh) | 2018-09-11 | 2018-09-11 | 一种使用触控红外的投影自动编写呈现技术 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109189277A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5274714A (en) * | 1990-06-04 | 1993-12-28 | Neuristics, Inc. | Method and apparatus for determining and organizing feature vectors for neural network recognition |
CN106292876A (zh) * | 2016-08-05 | 2017-01-04 | 陈嘉慧 | 智能手环 |
CN107102728A (zh) * | 2017-03-28 | 2017-08-29 | 北京犀牛数字互动科技有限公司 | 基于虚拟现实技术的显示方法及系统 |
CN107197223A (zh) * | 2017-06-15 | 2017-09-22 | 北京有初科技有限公司 | 微型投影设备和投影设备的手势控制方法 |
CN107753026A (zh) * | 2017-09-28 | 2018-03-06 | 古琳达姬(厦门)股份有限公司 | 针对脊柱腿部健康的智能鞋自适应监测方法 |
-
2018
- 2018-09-11 CN CN201811060669.4A patent/CN109189277A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5274714A (en) * | 1990-06-04 | 1993-12-28 | Neuristics, Inc. | Method and apparatus for determining and organizing feature vectors for neural network recognition |
CN106292876A (zh) * | 2016-08-05 | 2017-01-04 | 陈嘉慧 | 智能手环 |
CN107102728A (zh) * | 2017-03-28 | 2017-08-29 | 北京犀牛数字互动科技有限公司 | 基于虚拟现实技术的显示方法及系统 |
CN107197223A (zh) * | 2017-06-15 | 2017-09-22 | 北京有初科技有限公司 | 微型投影设备和投影设备的手势控制方法 |
CN107753026A (zh) * | 2017-09-28 | 2018-03-06 | 古琳达姬(厦门)股份有限公司 | 针对脊柱腿部健康的智能鞋自适应监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI594193B (zh) | 凝視追蹤之方法 | |
Kılıboz et al. | A hand gesture recognition technique for human–computer interaction | |
CN112970056A (zh) | 使用高速和精确的用户交互跟踪的人类-计算机接口 | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
Taylor et al. | Type-hover-swipe in 96 bytes: A motion sensing mechanical keyboard | |
Meena | A study on hand gesture recognition technique | |
JP2022525829A (ja) | 神経筋データに基づく制御スキームのためのシステムおよび方法 | |
CN111898407B (zh) | 一种基于人脸动作识别的人机交互操作系统 | |
Huang et al. | Deepfinger: A cascade convolutional neuron network approach to finger key point detection in egocentric vision with mobile camera | |
CN106774850A (zh) | 一种移动终端及其交互控制方法 | |
CN108932060A (zh) | 手势立体互动投影技术 | |
Thakur et al. | Vision based computer mouse control using hand gestures | |
Aditya et al. | Recent trends in HCI: A survey on data glove, LEAP motion and microsoft kinect | |
CN113031464B (zh) | 设备控制方法、装置、电子设备及存储介质 | |
Elakkiya et al. | Intelligent system for human computer interface using hand gesture recognition | |
Zahra et al. | Camera-based interactive wall display using hand gesture recognition | |
Khan et al. | A new 3D eyeball tracking system to enhance the usability of page scrolling | |
Halarnkar et al. | Gesture recognition technology: a review | |
CN109189277A (zh) | 一种使用触控红外的投影自动编写呈现技术 | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
Shin et al. | Welfare interface implementation using multiple facial features tracking for the disabled people | |
Younas et al. | Air-Writing Segmentation using a single IMU-based system | |
Khan et al. | Gesture recognition using Open-CV | |
Villaroman et al. | Improving accuracy in face tracking user interfaces using consumer devices | |
Mangaiyarkarasi et al. | Cursor control system using facial expressions for human-computer interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190111 |
|
RJ01 | Rejection of invention patent application after publication |