CN107728792B - 一种基于手势识别的增强现实三维绘图系统及绘图方法 - Google Patents
一种基于手势识别的增强现实三维绘图系统及绘图方法 Download PDFInfo
- Publication number
- CN107728792B CN107728792B CN201711145804.0A CN201711145804A CN107728792B CN 107728792 B CN107728792 B CN 107728792B CN 201711145804 A CN201711145804 A CN 201711145804A CN 107728792 B CN107728792 B CN 107728792B
- Authority
- CN
- China
- Prior art keywords
- state
- hand
- dimensional
- gesture
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000013519 translation Methods 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 28
- 230000003993 interaction Effects 0.000 claims description 25
- 230000003068 static effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000007797 corrosion Effects 0.000 claims description 3
- 238000005260 corrosion Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000011160 research Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000010422 painting Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于手势识别的增强现实三维绘图系统及绘图方法,该方法在增强现实的概念上实现了虚拟三维绘图与真实场景融合的效果,可以在计算机上与使用者进行实时交互。通过实时的手势识别和手部运动轨迹识别,本发明允许使用者对二维绘画平面进行平移、三维旋转、远近拉伸操作,并且将虚拟三维空间与实际三维空间融合,从而实现在真实三维空间绘画的效果。本发明可以应用在艺术创作、儿童教育和作品演示中。
Description
技术领域
本发明涉及计算机人机交互领域,尤其涉及一种基于手势识别的增强现实(Augmented Reality,AR)三维绘图系统及绘图方法。
背景技术
人机交互是当前信息行业关注的一个焦点,各国研究人员都将其作为研究的关键技术。经过数十年的发展,目前的人机交互技术,正逐渐由过去的以计算机为中心,逐步转移到以用户为中心,经历了从命令行界面、图形用户界面,到自然用户界面(NUI,NaturalUser Interface)的发展过程。在自然用户界面交互技术中,手势以其灵活、直观和易于学习的优势,成为相关人员的研究重点之一。
计算机图形绘制是人机交互中一个重要的研究方向,随着增强现实概念的提出和发展,人机交互对于非接触式交互的需求逐渐增大,Microsoft Kinect深度相机可以同时提供彩色图像和深度信息,并且相关的Kinect for Windows SDK可以实现图像信息的读取和用户骨架识别,为非接触式交互应用提供了很大便利。
非接触式三维空间绘图方法可以应用在儿童教育、作品展示和艺术创作中,但是目前计算机图形绘制还局限于基于鼠标和键盘的交互方式,而且没有增强现实概念下实时手势绘图的相关研究发表。
发明内容
针对现有技术的不足,本发明提供一种基于手势识别的增强现实三维绘图系统及绘图方法,该绘画系统能实现实时的、无鼠标键盘的纯手势人机交互,手势识别容错率高,操作方便。具体技术方案如下:
一种基于手势识别的增强现实三维绘图系统,其特征在于,该系统包括如下单元:
手部轨迹追踪单元,该单元对使用者双手进行实时跟踪,并且建立动态轨迹图;
静态手势识别单元,该单元对所述的手部轨迹追踪单元追踪到的手部信息进行实时识别,并且更新状态变量空间;
三维绘图单元,该单元将二维绘画轨迹映射到三维空间,根据手势对三维空间进行操作后将三维空间虚拟图像投影到二维现实场景图像中;
人机交互界面单元,该单元包括绘图界面和功能选择界面,实现实时的、无鼠标键盘的纯手势人机交互,所述的绘图界面显示提示信息和实时绘图效果,所述的功能选择界面提供功能选择;
状态变量空间单元,该单元为所述的手部轨迹追踪、静态手势识别、三维绘图、人机交互界面单元提供信息交互的平台,并且存储变量状态,所述的变量具体包括:
变量一:左手位置队列,队列长度固定为k,用以存储左手运动轨迹信息;
变量二:右手位置队列,队列长度固定为k,用以存储右手运动轨迹信息;
变量三:左手手势队列,队列长度固定为n,用以存储左手手势识别结果;
变量四:系统状态变量,所述的系统状态变量的取值为“绘图”、“三维旋转”、“平移”、“远近拉伸”、“功能选择”和“空状态”中的任意一种。
进一步地,所述的人机交互界面单元提供的功能选择包括AR模式、背景模式1、背景模式2、清空画布、撤销画笔、画笔设置、复原坐标系、使用说明、退出等九项功能。
进一步地,所述的AR模式用于展示使用者的现实图像和通过该系统生成的绘画图像。
一种如上所述的基于手势识别的增强现实三维绘图系统的绘图方法,其特征在于,该方法具体包括如下步骤:
步骤一:分别建立左、右手的位置队列,队列长度固定为k,用以存储手部轨迹信息;
步骤二:从Kinect深度相机提取图像的彩色信息、深度信息和使用者的骨骼信息,根据使用者的骨骼信息分别对左右手进行如下操作:
对于左手:
(1)分割出左手手部区域,将图像转换为二值图,然后对图像先进行腐蚀操作,后中值滤波;
(2)提取手部轮廓,以序号为横坐标、轮廓与手部质心的距离为纵坐标绘制边缘-质心距离序列曲线;
(3)提取边缘-质心距离序列曲线的尖峰,计算尖峰幅值大于阈值的尖峰数量,作为手指数目;
(4)根据手指数目确定当前手势,取值分别为“拳”、“一指”、“二指”、“三指”、“四指”、“掌”,将手势信息更新到状态变量空间单元的左手手势队列中;
(5)根据左手手势队列计算系统状态变量;
对于右手:
根据使用者的骨骼信息实时更新右手的位置队列,根据当前位置队列计算当前右手的运动速度和方向;
步骤三:根据所述的系统状态变量以及右手的运动速度和方向对绘画系统进行不同的操作:
操作一:如果系统状态为“绘图”,则根据右手位置和当前二维画板位置将二维点映射到三维绘图单元中存储的三维点云中,然后再将三维点云投影到当前二维图像窗口中,与Kinect采集的现实RGB图像一起展示,实现虚拟三维图像与实际三维空间融合的效果;
操作二:如果系统状态为“三维旋转”,则根据右手位置队列计算出当前右手运动速度和方向信息,对三维图像进行相同方向和速度的三维旋转操作;
操作三:如果系统状态为“平移”,则根据当前右手运动速度和方向信息对三维图像进行平移操作;
操作四:如果系统状态为“远近拉伸”,若判断右手为向上运动,则将三维图像向远离人体的方向移动,若判断右手为向下运动,则将三维图像向靠近人体的方向移动,移动速度与右手运动速度成正比;
操作五:如果系统状态为“空状态”,则不对图像空间进行操作;
进一步地,所述的对于左手的操作(5)根据左手手势队列计算系统状态变量具体为:
首先用状态滤波器计算当前左手手势,并根据左手手势,即状态滤波器的输出结果得到当前系统状态变量;
其中,所述的状态滤波器的计算步骤如下:
步骤一:建立容量为6的状态集合;
步骤二:遍历左手手势队列中的每个成员,根据成员状态对状态集合进行投票,一次状态出现等于一票;
步骤三:统计队列中每个状态的票数,票数最多且大于阈值的状态为当前状态,否则输出空状态;
步骤四:设置紧急状态,只要紧急状态票数大于紧急状态阈值,则无条件将状态设置为紧急状态。
进一步地,所述的状态滤波器的输出结果与当前系统状态变量的对应关系如下:
“一指”手势对应“绘画”状态,“二指”手势对应“三维旋转”状态,“三指”手势对应“远近拉伸”状态,“四指”手势对应“平移”状态,“掌”手势对应“功能选择”状态,“拳”手势对应“空状态”。
进一步地,所述的对绘画系统的绘图、映射、三维旋转、平移、远近拉伸操作皆通过OpenGL实现。
与现有技术相比,本发明的有益效果如下:
本发明使用Kinect深度相机,基于手势识别和三维绘图技术,实现了一种基于手势识别的增强现实概念下的三维画板,具有实时三维空间绘图功能,能实现无鼠标键盘的纯手势人机交互,手势识别容错率高,操作方便,可以应用在作品展示、艺术创作和儿童教育中。
附图说明
图1是基于手势识别的增强现实三维绘图系统的结构示意图;
图2是手部轨迹追踪和静态手势识别的流程图。
具体实施方式
如图1所示,一种基于手势识别的增强现实三维绘图系统,包括如下单元:
手部轨迹追踪单元,该单元对使用者双手进行实时跟踪,并且建立动态轨迹图;
静态手势识别单元,该单元对所述的手部轨迹追踪单元追踪到的手部信息进行实时识别,并且更新状态变量空间;
三维绘图单元,该单元将二维绘画轨迹映射到三维空间,根据手势对三维空间进行操作后将三维空间虚拟图像投影到二维现实场景图像中;
人机交互界面单元,该单元包括绘图界面和功能选择界面,实现实时的、无鼠标键盘的纯手势人机交互,所述的绘图界面显示提示信息和实时绘图效果,所述的功能选择界面提供功能选择;该人机交互界面单元提供的功能选择包括AR模式、背景模式1、背景模式2、清空画布、撤销画笔、画笔设置、复原坐标系、使用说明、退出等九项功能;其中的AR模式用于展示使用者的现实图像和通过该系统生成的绘画图像。
状态变量空间单元,该单元为所述的手部轨迹追踪、静态手势识别、三维绘图、人机交互界面单元提供信息交互的平台,并且存储变量状态,所述的变量具体包括:
变量一:左手位置队列,队列长度固定为k,用以存储左手运动轨迹信息;
变量二:右手位置队列,队列长度固定为k,用以存储右手运动轨迹信息;
变量三:左手手势队列,队列长度固定为n,用以存储左手手势识别结果;
变量四:系统状态变量,所述的系统状态变量的取值为“绘图”、“三维旋转”、“平移”、“远近拉伸”、“功能选择”和“空状态”中的任意一种。
一种如上所述的基于手势识别的增强现实三维绘图系统的绘图方法,具体包括如下步骤:
步骤一:分别建立左、右手的位置队列,队列长度固定为k,用以存储手部轨迹信息;
步骤二:从Kinect深度相机提取图像的彩色信息、深度信息和使用者的骨骼信息,根据使用者的骨骼信息分别对左右手进行如下操作(如图2所示):
对于左手:
(1)分割出左手手部区域,将图像转换为二值图,然后对图像先进行腐蚀操作,后中值滤波;
(2)提取手部轮廓,以序号为横坐标、轮廓与手部质心的距离为纵坐标绘制边缘-质心距离序列曲线;
(3)提取边缘-质心距离序列曲线的尖峰,计算尖峰幅值大于阈值的尖峰数量,作为手指数目;
(4)根据手指数目确定当前手势,取值分别为“拳”、“一指”、“二指”、“三指”、“四指”、“掌”,将手势信息更新到状态变量空间单元的左手手势队列中;
(5)根据左手手势队列用状态滤波器计算当前左手手势,并根据左手手势,即状态滤波器的输出结果得到当前系统状态变量,其中,状态滤波器的计算步骤如下:
步骤一:建立容量为6的状态集合;
步骤二:遍历左手手势队列中的每个成员,根据成员状态对状态集合进行投票,一次状态出现等于一票;
步骤三:统计队列中每个状态的票数,票数最多且大于阈值的状态为当前状态,否则输出空状态;
步骤四:设置紧急状态,只要紧急状态票数大于紧急状态阈值,则无条件将状态设置为紧急状态。
所述的状态滤波器的输出结果与当前系统状态变量的对应关系如下:
“一指”手势对应“绘画”状态,“二指”手势对应“三维旋转”状态,“三指”手势对应“远近拉伸”状态,“四指”手势对应“平移”状态,“掌”手势对应“功能选择”状态,“拳”手势对应“空状态”。
对于右手:
根据使用者的骨骼信息实时更新右手的位置队列,根据当前位置队列计算当前右手的运动速度和方向;
步骤三:根据所述的系统状态变量以及右手的运动速度和方向对绘画系统进行不同的操作:
操作一:如果系统状态为“绘图”,则根据右手位置和当前二维画板位置将二维点映射到三维绘图单元中存储的三维点云中,然后再将三维点云投影到当前二维图像窗口中,与Kinect采集的现实RGB图像一起展示,实现虚拟三维图像与实际三维空间融合的效果;
操作二:如果系统状态为“三维旋转”,则根据右手位置队列计算出当前右手运动速度和方向信息,对三维图像进行相同方向和速度的三维旋转操作;
操作三:如果系统状态为“平移”,则根据当前右手运动速度和方向信息对三维图像进行平移操作;
操作四:如果系统状态为“远近拉伸”,若判断右手为向上运动,则将三维图像向远离人体的方向移动,若判断右手为向下运动,则将三维图像向靠近人体的方向移动,移动速度与右手运动速度成正比;
操作五:如果系统状态为“空状态”,则不对图像空间进行操作;
上述对绘画系统的绘图、映射、三维旋转、平移、远近拉伸操作皆通过OpenGL实现。
Claims (7)
1.一种基于手势识别的增强现实三维绘图系统,其特征在于,该系统包括如下单元:
手部轨迹追踪单元,该单元对使用者双手进行实时跟踪,并且建立动态轨迹图;
静态手势识别单元,该单元对所述的手部轨迹追踪单元追踪到的手部信息进行实时识别,并且更新状态变量空间;
三维绘图单元,该单元将二维绘画轨迹映射到三维空间,根据手势对三维空间进行操作后将三维空间虚拟图像投影到二维现实场景图像中;
人机交互界面单元,该单元包括绘图界面和功能选择界面,实现实时的、无鼠标键盘的纯手势人机交互,所述的绘图界面显示提示信息和实时绘图效果,所述的功能选择界面提供功能选择;
状态变量空间单元,该单元为所述的手部轨迹追踪、静态手势识别、三维绘图、人机交互界面单元提供信息交互的平台,并且存储变量状态,所述的变量具体包括:
变量一:左手位置队列,队列长度固定为k,用以存储左手运动轨迹信息;
变量二:右手位置队列,队列长度固定为k,用以存储右手运动轨迹信息;
变量三:左手手势队列,队列长度固定为n,用以存储左手手势识别结果;
变量四:系统状态变量,所述的系统状态变量的取值为“绘图”、“三维旋转”、“平移”、“远近拉伸”、“功能选择”和“空状态”中的任意一种。
2.根据权利要求1所述的基于手势识别的三维绘图系统,所述的人机交互界面单元提供的功能选择包括AR模式、背景模式1、背景模式2、清空画布、撤销画笔、画笔设置、复原坐标系、使用说明、退出等九项功能。
3.根据权利要求2所述的基于手势识别的增强现实三维绘图系统,所述的AR模式用于展示使用者的现实图像和通过该系统生成的绘画图像。
4.一种如权利要求1所述的基于手势识别的增强现实三维绘图系统的绘图方法,其特征在于,该方法具体包括如下步骤:
步骤一:分别建立左、右手的位置队列,队列长度固定为k,用以存储手部轨迹信息;
步骤二:从Kinect深度相机提取图像的彩色信息、深度信息和使用者的骨骼信息,根据使用者的骨骼信息分别对左右手进行如下操作:
对于左手:
(1)分割出左手手部区域,将图像转换为二值图,然后对图像先进行腐蚀操作,后中值滤波;
(2)提取手部轮廓,以序号为横坐标、轮廓与手部质心的距离为纵坐标绘制边缘-质心距离序列曲线;
(3)提取边缘-质心距离序列曲线的尖峰,计算尖峰幅值大于阈值的尖峰数量,作为手指数目;
(4)根据手指数目确定当前手势,取值分别为“拳”、“一指”、“二指”、“三指”、“四指”、“掌”,将手势信息更新到状态变量空间单元的左手手势队列中;
(5)根据左手手势队列计算系统状态变量;
对于右手:
根据使用者的骨骼信息实时更新右手的位置队列,根据当前位置队列计算当前右手的运动速度和方向;
步骤三:根据所述的系统状态变量以及右手的运动速度和方向对绘画系统进行不同的操作:
操作一:如果系统状态为“绘图”,则根据右手位置和当前二维画板位置将二维点映射到三维绘图单元中存储的三维点云中,然后再将三维点云投影到当前二维图像窗口中,与Kinect采集的现实RGB图像一起展示,实现虚拟三维图像与实际三维空间融合的效果;
操作二:如果系统状态为“三维旋转”,则根据右手位置队列计算出当前右手运动速度和方向信息,对三维图像进行相同方向和速度的三维旋转操作;
操作三:如果系统状态为“平移”,则根据当前右手运动速度和方向信息对三维图像进行平移操作;
操作四:如果系统状态为“远近拉伸”,若判断右手为向上运动,则将三维图像向远离人体的方向移动,若判断右手为向下运动,则将三维图像向靠近人体的方向移动,移动速度与右手运动速度成正比;
操作五:如果系统状态为“空状态”,则不对图像空间进行操作。
5.根据权利要求4所述的基于手势识别的增强现实三维绘图系统的绘图方法,所述的对于左手的操作(5)根据左手手势队列计算系统状态变量具体为:
首先用状态滤波器计算当前左手手势,并根据左手手势,即状态滤波器的输出结果得到当前系统状态变量;
其中,所述的状态滤波器的计算步骤如下:
步骤一:建立容量为6的状态集合;
步骤二:遍历左手手势队列中的每个成员,根据成员状态对状态集合进行投票,一次状态出现等于一票;
步骤三:统计队列中每个状态的票数,票数最多且大于阈值的状态为当前状态,否则输出空状态;
步骤四:设置紧急状态,只要紧急状态票数大于紧急状态阈值,则无条件将状态设置为紧急状态。
6.根据权利要求5所述的基于手势识别的增强现实三维绘图系统的绘图方法,所述的状态滤波器的输出结果与当前系统状态变量的对应关系如下:
“一指”手势对应“绘画”状态,“二指”手势对应“三维旋转”状态,“三指”手势对应“远近拉伸”状态,“四指”手势对应“平移”状态,“掌”手势对应“功能选择”状态,“拳”手势对应“空状态”。
7.根据权利要求4所述的基于手势识别的增强现实三维绘图系统的绘图方法,所述的对绘画系统的绘图、映射、三维旋转、平移、远近拉伸操作皆通过OpenGL实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711145804.0A CN107728792B (zh) | 2017-11-17 | 2017-11-17 | 一种基于手势识别的增强现实三维绘图系统及绘图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711145804.0A CN107728792B (zh) | 2017-11-17 | 2017-11-17 | 一种基于手势识别的增强现实三维绘图系统及绘图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107728792A CN107728792A (zh) | 2018-02-23 |
CN107728792B true CN107728792B (zh) | 2020-08-11 |
Family
ID=61216245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711145804.0A Active CN107728792B (zh) | 2017-11-17 | 2017-11-17 | 一种基于手势识别的增强现实三维绘图系统及绘图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107728792B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875542B (zh) * | 2018-04-04 | 2021-06-25 | 北京旷视科技有限公司 | 一种人脸识别方法、装置、系统及计算机存储介质 |
CN108615261B (zh) * | 2018-04-20 | 2022-09-09 | 深圳市天轨年华文化科技有限公司 | 增强现实中图像的处理方法、处理装置及存储介质 |
CN108875579B (zh) * | 2018-05-15 | 2022-08-05 | 厦门大学 | 一种基于形态学的近景手势识别方法 |
CN108932053B (zh) * | 2018-05-21 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 基于手势的绘图方法、装置、存储介质和计算机设备 |
CN109102472A (zh) * | 2018-07-23 | 2018-12-28 | 上海滚滚文化传播有限公司 | 一种三维仿二维建模渲染后制作漫画特效的方法 |
CN109240494B (zh) * | 2018-08-23 | 2023-09-12 | 京东方科技集团股份有限公司 | 电子显示板的控制方法、计算机可读存储介质和控制系统 |
CN111083391A (zh) * | 2018-10-19 | 2020-04-28 | 舜宇光学(浙江)研究院有限公司 | 虚实融合系统及其方法 |
CN109471455A (zh) * | 2018-10-23 | 2019-03-15 | 深圳市盛世智能装备有限公司 | 摄像画图系统的平台控制方法、装置、设备及存储介质 |
CN110456903B (zh) * | 2018-11-09 | 2023-05-26 | 网易(杭州)网络有限公司 | 三维绘画方法、装置、存储介质、处理器及终端 |
CN111176427B (zh) * | 2018-11-12 | 2023-07-18 | 舜宇光学(浙江)研究院有限公司 | 基于手持式智能设备的三维空间绘画方法和手持式智能设备 |
CN110597442B (zh) * | 2019-09-20 | 2021-03-16 | 北京华捷艾米科技有限公司 | 一种手机ar绘画方法及装置 |
CN112985372B (zh) * | 2019-12-13 | 2024-06-14 | 南宁富联富桂精密工业有限公司 | 路径规划系统及其方法 |
CN111290579B (zh) * | 2020-02-10 | 2022-05-20 | Oppo广东移动通信有限公司 | 虚拟内容的控制方法、装置、电子设备及计算机可读介质 |
CN111862273A (zh) * | 2020-07-16 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 动画处理方法、装置、电子设备及存储介质 |
CN115239533A (zh) * | 2022-07-30 | 2022-10-25 | 谢幸杏 | 一种交互式在线英语教学系统及其使用方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5182202B2 (ja) * | 2009-04-14 | 2013-04-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN102142055A (zh) * | 2011-04-07 | 2011-08-03 | 上海大学 | 基于增强现实交互技术的真三维设计方法 |
CN103824322B (zh) * | 2014-01-14 | 2017-05-31 | 清华大学 | 利用透视关系交互创建三维曲线的方法及系统 |
US9971490B2 (en) * | 2014-02-26 | 2018-05-15 | Microsoft Technology Licensing, Llc | Device control |
JP6280005B2 (ja) * | 2014-08-28 | 2018-02-14 | 株式会社東芝 | 情報処理装置、画像投影装置および情報処理方法 |
CN104951073B (zh) * | 2015-06-19 | 2017-03-29 | 济南大学 | 一种基于虚拟界面的手势交互方法 |
-
2017
- 2017-11-17 CN CN201711145804.0A patent/CN107728792B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107728792A (zh) | 2018-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107728792B (zh) | 一种基于手势识别的增强现实三维绘图系统及绘图方法 | |
Goh et al. | 3D object manipulation techniques in handheld mobile augmented reality interface: A review | |
CN101807114B (zh) | 一种基于三维手势的自然交互方法 | |
KR101687017B1 (ko) | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 | |
Min et al. | Hand gesture recognition using hidden Markov models | |
Green et al. | SIGGRAPH'90 Workshop report: software architectures and metaphors for non-WIMP user interfaces | |
Bonnici et al. | Sketch-based interaction and modeling: where do we stand? | |
CN108509026B (zh) | 基于增强交互方式的远程维修支持系统及方法 | |
CN104571823B (zh) | 一种基于智能电视的非接触式虚拟人机交互方法 | |
CN110569817B (zh) | 基于视觉实现手势识别的系统和方法 | |
CN103823554A (zh) | 一种数字化虚实交互系统及方法 | |
Lee et al. | A wizard of oz study for an ar multimodal interface | |
CN104571510A (zh) | 一种3d场景中输入手势的系统和方法 | |
CN104460967A (zh) | 一种人体上肢骨骼手势识别方法 | |
CN106293099A (zh) | 手势识别方法及系统 | |
Gajjar et al. | Hand gesture real time paint tool-box: Machine learning approach | |
CN104484034A (zh) | 一种基于手势识别的手势运动基元过渡帧定位方法 | |
CN104239119A (zh) | 一种基于kinect实现电力培训仿真的方法及系统 | |
Krishnamurthi et al. | Assistive pointer device for limb impaired people: A novel Frontier Point Method for hand movement recognition | |
CN115713808A (zh) | 一种基于深度学习的手势识别系统 | |
Thalange et al. | Effect of thinning extent on ASL number recognition using open-finger distance feature measurement technique | |
Raees et al. | Thumb inclination-based manipulation and exploration, a machine learning based interaction technique for virtual environments | |
CN114926613A (zh) | 一种人体数据及空间定位的增强现实的方法及系统 | |
CN103699214A (zh) | 一种基于三维自然手势的三维跟踪和交互方法 | |
Dadiz et al. | Go-Mo (Go-Motion): An android mobile application detecting motion gestures for generating basic mobile phone commands utilizing KLT algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |