CN103258078A - 融合Kinect设备和Delmia环境的人机交互虚拟装配系统 - Google Patents
融合Kinect设备和Delmia环境的人机交互虚拟装配系统 Download PDFInfo
- Publication number
- CN103258078A CN103258078A CN 201310113138 CN201310113138A CN103258078A CN 103258078 A CN103258078 A CN 103258078A CN 201310113138 CN201310113138 CN 201310113138 CN 201310113138 A CN201310113138 A CN 201310113138A CN 103258078 A CN103258078 A CN 103258078A
- Authority
- CN
- China
- Prior art keywords
- delmia
- human
- assembling
- human body
- submodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其特征在于,包括数据连接的人机交互设备数据采集处理服务模块和Delmia环境下虚拟装配客户端处理模块,人机交互设备数据采集处理服务模块,用于人机交互设备数据采集处理服务模块,用于进行人体动作捕捉以及语音命令采集;Delmia环境下虚拟装配客户端处理模块,用于在Delmia环境下对人机交互设备数据采集处理服务模块采集到的数据进行数据整合以及数据驱动。本发明采用Kinect设备采集人体的空间位姿和语音信息,人体的空间位置用来驱动Delmia虚拟装配中的虚拟人和可活动装配部件,语音信息可以用来形成装配和系统控制指令,本发明造价低廉,适用性广泛。
Description
技术领域
本发明涉及虚拟装配过程中的人机交互技术领域,具体是一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统。
背景技术
虚拟装配广泛应用于飞机、汽车等领域,通过虚拟装配可视化和仿真校验,可以确定产品装配过程中最优的装配、拆卸和重组顺序,校验和修改装配流程,进行装配可行性、可制造性、可维护性分析。在装配过程中往往需要考虑人因工程,分析工人和仿真环境中其它物体的关系,从而得出了合理的装配序列及路径并检验了产品的装配过程装配可达性、可维修性和可视性。
Delmia本身包含有人体模块,装配功能强大而复杂。在利用虚拟人进行装配仿真时,人体的各种动作需要进行反复协调、不断调整装配位置,建模繁琐,费事费力。已有的动作捕捉系统,比如VICON,A.R.T等可以通过光学、电磁或者超声波来捕捉配置在人体上的传感器,从而获得人体各部件的位置。但是动作捕捉系统和虚拟装配结合的技术还不够成熟,动作捕捉大多限定在特殊的领域中,比如电影制作等,很少有直接用于虚拟装配系统中。目前已知的文献时Haption公司开发出了RTID(Real-Time Interaction for Delmia Human)模块,可以将这些捕捉系统来集成到Delmia环境中,来驱动人体运动,并实现装配动作。
然而,RTID给出的方案只能接口动作捕捉系统,其造价昂贵,配置复杂繁琐。中国专利[公开号:CNl02521464A]记录了基于Delmia环境下的沉浸式虚拟维修仿真系统虚拟人控制方法,提出了利用ShapeWarp(运动捕捉设备)无线光纤来进行动作捕捉,实时驱动Delmia虚拟人动作控制,和Haption的RTID模块类似,虽然捕捉精度高,但是应用面非常受限。
发明内容
本发明针对现有技术中存在的上述不足,提供了一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统。本发明考虑到RTID的缺陷并结合虚拟装配中考虑人体的装配需求,利用Kinect设备(体感交互设备)结合Delmia(数字制造解决方案)装配环境,提供了能够满足虚拟装配中精度要求且容易配置的人机交互虚拟装配系统。
本发明是通过以下技术方案实现的。
一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统,包括数据连接的人机交互设备数据采集处理服务模块和Delmia环境下虚拟装配客户端处理模块,其中:
-人机交互设备数据采集处理服务模块,用于进行人体动作捕捉以及语音命令采集;
-Delmia环境下虚拟装配客户端处理模块,用于在Delmia环境下对人机交互设备数据采集处理服务模块采集到的数据进行数据整合以及数据驱动。
所述人机交互设备数据采集处理服务模块,包括数据连接的信号采集子模块以及信号转换和服务子模块,其中:
-信号采集子模块,通过Kinect设备获取操作者身体姿态的三维信息和人的语音信号;
-信号转换和服务子模块,将信号采集子模块采集的人体位姿信息,转换为包含人体13个部位的六自由度信息,同时,将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令,通过服务接口向Delmia环境下虚拟装配客户端处理模块提供实时数据服务;
所述Delmia环境下虚拟装配客户端处理模块,包括数据连接的虚拟人动作匹配子模块、装配装配胖模型子模块以及语音命令控制子模块,其中:
-虚拟人动作匹配子模块,通过CAA Automation API方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,通过仿真循环,驱动人体进行运动;
-装配装配胖模型子模块,通过CAA Automation API方式将选定的人体手部位置映射成Delmia中可活动部件的装配路径,并将装配路径记录成模型的一种附加属性;
-语音命令控制子模块,将语音命令,通过CAA Automation API转换为Delmia的系统控制指令,并定制为特殊的装配指令。
所述人体13个部位包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指。
所述系统控制指令包括:放大、缩小、选择以及退出系统,所述特殊的装配指令包括记录装配路径、播放装配动画以及停止播放。
一种利用上述融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,包括以下步骤:
步骤l,通过人机交互设备数据采集处理服务模块进行人体动作捕捉和语音命令采集;
步骤2,利用Delmia环境下虚拟装配客户端处理模块对人机交互设备数据采集处理服务模块采集的数据进行数据整合和数据驱动;
步骤3,重复以上步骤,直至用户退出应用程序;
所述步骤l包括以下步骤:
步骤1.1,信号采集子模块利用Kinect设备,通过MS Kinect SDK编写专用程序对人体的动作进行实时捕捉,通过Kinect设备的深度相机获取人体的13处骨架信息作为人体位姿信息,并存储在内存中,其中每条信息通过时间戳来唯一记录信息;同时,利用MS Speech SDK获取Kinect设备记录的语音信息,生成语音文本字符串,记录在语音命令链表中,并通过时间戳唯一指定;
步骤1.2,信号转换和服务子模块将信号采集子模块采集的人体位姿信息,通过一个转换矩阵转换为包含人体13个部位的人体六自由度信息,该13个部位的人体六自由度信息对应Delmia中虚拟人的13个部位,将对应的人体六自由度信息加载到Delmia定义部位的质心上,不同比例的人体,质心位置不同;信号转换和服务子模块将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令;
所述步骤2包括以下步骤:
步骤2.1,虚拟人动作匹配子模块通过CAA Automation API方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,并通过调用Delmia的人体模块进行赋值,从而驱动人体进行运动;
步骤2.2,装配装配胖模型子模块通过CAA Automat ion API,加载装配模型,定义并指定可活动部件,同时在可活动部件上,添加属性、约束方式信息;选定人体手部位置映射成Delmia中可活动部件的位置,并且记录运动路径,添加到胖模型的属性中;调用人体动作和可活动部件的运动路径,实现人装配的过程;
步骤2.3,语音命令控制子模块通过CAA Automation API转换为Delmia的系统控制指令,并定制为特殊的装配指令。
所述时间戳按照1/24s增长。
所述人体13个部位以及Delmia中虚拟人的13个部位均包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指;
所述语言控制指令格式包括:ID号、语音命令描述、语音字符串、语音动作函数以及备注。
所述信号转换和服务子模块利用C#建立数据服务程序,不断监控信号采集子模块和Delmia环境下虚拟装配客户端处理模块的请求,实现客户服务器通信。
所述步骤2.1中,当虚拟人动作匹配子模块在驱动人体过程中出现误差时,通过调整转换矩阵中的第4行x,y,z值进行解决。
本发明相比现有技术,具有以下技术特点:
本发明提供的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其系统构架简单、可扩展,不需要佩戴任何传感器设备;Kinect设备支持多人动作捕捉,可以映射到Delmia的多个虚拟人身上。
本发明采用Kinect设备,该设备低廉可靠,接口开发软件免费,配置简单;Kinect提供的空间三维精度满足虚拟装配的需要,并且还能提供其他方案都没用语音命令。
本发明提出的虚拟装配胖模型,通过CAA Automation API将Delmia中的模型几何属性,附加上装配约束,装配属性信息,并且可以将人体部位动作扩展到可活动部件上,用作记录装配路径。
本发明融合了微软Kinect体感设备和Delmia虚拟装配环境下,形成了一种可以进行人机交互虚拟装配系统。具体的说,是一种利用微软Kinect体感设备采集人的三维空间位姿和语音命令,将这两类信息分别用来驱动Delmia环境中的虚拟人、可活动部件进行装配动作仿真和系统、装配过程的控制命令。使得用户装配时,将对真实产品一样进行实时装配操作,身临其境地进行装配。它属于虚拟装配过程中的人机交互技术领域。
本发明通过微软提供的MS Kinect SDK读取Kinect设备数据,采集操作者身体姿态的三维信息和人的语音信号,利用Delmia提供的CAA Automation APl对Delmia进行二次开发,并在Delmia建立虚拟装配胖模型,该模型可以记录装配的几何信息,还可以记录装配工艺属性信息、人体动作信息;实时处理这些数据,驱动定义在Delmia中虚拟人各个部件进行运动。同时也可以将某个部位的三维信息映射到虚拟装配环境中的可活动部件,记录其运动轨迹。从而达到动作捕捉和Delmia的实施融合。
附图说明
图1为本发明系统结构框架图;
图2为本发明Kinect设备人体可定义部位图;
图3为本发明胖模型示意图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
本实施公开了一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统,包括数据连接的人机交互设备数据采集处理服务模块和Delmia环境下虚拟装配客户端处理模块,其中:
-人机交互设备数据采集处理服务模块,用于进行人体动作捕捉以及语音命令采集;
-Delmia环境下虚拟装配客户端处理模块,用于在Delmia环境下对人机交互设备数据采集处理服务模块采集到的数据进行数据整合以及数据驱动。
进一步地,所述人机交互设备数据采集处理服务模块,包括数据连接的信号采集子模块以及信号转换和服务子模块,其中:
-信号采集子模块,通过Kinect设备获取操作者身体姿态的三维信息和人的语音信号;
-信号转换和服务子模块,将信号采集子模块采集的人体位姿信息,转换为包含人体13个部位的六自由度信息,同时,将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令,通过服务接口向Delmia环境下虚拟装配客户端处理模块提供实时数据服务;
所述Delmia环境下虚拟装配客户端处理模块,包括数据连接的虚拟人动作匹配子模块、装配装配胖模型子模块以及语音命令控制子模块,其中:
-虚拟人动作匹配子模块,通过CAA Automation APl方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,通过仿真循环,驱动人体进行运动;
-装配装配胖模型子模块,通过CAA Automat ion APl方式将选定的人体手部位置映射成Delmia中可活动部件的装配路径,并将装配路径记录成模型的一种附加属性;
-语音命令控制子模块,将语音命令,通过CAA Automation APl转换为Delmia的系统控制指令,并定制为特殊的装配指令。
进一步地,所述人体13个部位包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指;六自由度信息包括:X,Y,Z,H,P,R。
进一步地,所述系统控制指令包括:放大、缩小、选择以及退出系统,所述特殊的装配指令包括记录装配路径、播放装配动画以及停止播放。
本实施例提供的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其装配方法包括以下步骤:
步骤1,通过人机交互设备数据采集处理服务模块进行人体动作捕捉和语音命令采集:
步骤1.1,信号采集:信号采集子模块利用Kinect设备,通过Ms Kinect SDK编写专用程序对人体的动作进行实时捕捉,通过Kinect设备的深度相机获取人体的13处骨架信息作为人体位姿信息,并存储在内存中,其中每条信息通过时问戳来唯一记录信息;同时,利用MS Speech SDK获取Kinect设备记录的语音信息,生成语音文本字符串,记录在语音命令链表中,并通过时间戳唯一指定;
步骤1.2,信号转换和服务:信号转换和服务子模块将信号采集子模块采集的人体位姿信息,通过一个转换矩阵转换为包含人体13个部位的人体六自由度信息,该13个部位的人体六自由度信息对应Delmia中虚拟人的13个部位,将对应的人体六自由度信息加载到Delmia定义部位的质心上,不同比例的人体,质心位置不同;信号转换和服务子模块将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令;
步骤2,利用Delmia环境下虚拟装配客户端处理模块对人机交互设备数据采集处理服务模块采集的数据进行数据整合和数据驱动:
步骤2.1,虚拟人动作匹配:虚拟人动作匹配子模块通过CAA Automation APl方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,并通过调用Delmia的人体模块进行赋值,从而驱动人体进行运动;此步骤具体为,通过CAA Automation APl方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,通过调用DelmiaHuman模块的Body,DOF等类的方法进行赋值(如SetPostureValues,SetPositon等函数),从而驱动人体进行运动;如果出现误差,可以将调整步骤1.2中的转换矩阵的第4行x,y,z值来调整;
步骤2.2,装配胖模型建模:装配装配胖模型子模块通过CAA Automat i on API,加载装配模型,定义并指定可活动部件,同时在可活动部件上,添加属性、约束方式信息按照某个轴平移、旋转,约束平面等);选定人体手部位置映射成Delmia中可活动部件的位置,并且记录运动路径,添加到胖模型的属性中;调用人体动作和可活动部件的运动路径,实现人装配的过程;
步骤2.3,语音命令控制:语音命令控制子模块通过CAA Automati。n APl转换为Delmia的系统控制指令,并定制为特殊的装配指令;
步骤3,重复以上步骤,直至用户退出应用程序。
进一步地,所述时间戳按照1/24s增长。
进一步地,所述人体13个部位以及Delmia中虚拟人的13个部位均包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指;所述人体六自由度信息包括:X,Y,Z,H,P,R。
进一步地,所述语言控制指令格式包括:ID号、语音命令描述、语音字符串、语音动作函数以及备注。
进一步地,所述信号转换和服务子模块利用C#建立数据服务程序,不断监控信号采集子模块和Delmia环境下虚拟装配客户端处理模块的请求,实现客户服务器通信。
进一步地,所述步骤2.1中,当虚拟人动作匹配子模块在驱动人体过程中出现误差时,通过调整转换矩阵中的第4行x,y,z值进行解决。
上述CAA Automation APl为Delmia软件内置的应用开发接口;
上述MS Kinect SDK为Kinect设备的驱动程序;
上述MS Speech SDK为语音设备接口软件;
上述Kinect Develop Studio为开发Kinect设备提供的开发包。
具体为:
本实施例以微软第一代Kinect设备,Delmia采用V5R20版本,Kinect SDK 1.6为例进行说明。
使用一台Pc工作站,操作系统安装为Windows 7。按照Kinect SDK 1.6安装说明安装Kinect SDK 1.6,然后按照MS Speech SDK和Kinect Develop Studi0模块,将Kinect设备插到计算机上并运行;
信号采集子模块开始捕捉人体13个部位的人体六自由度信息,信号转换和服务子模块启动监听;
虚拟人动作匹配子模块链接Kinect设备数据,如果成功,数据将实时在窗口中滚动,然后即可启动“打开Delmia装配工程”按钮,Delmia加载工程,调出虚拟人,程序自动匹配虚拟人并驱动虚拟人运动;
装配装配胖模型子模块选择捕获的人体部位信息匹配到Delmia中的可活动对象ID上,运行即可实现部件运动,点击“记录”,即可将部件运动路径记录下来,用来进行虚拟装配。
点击语音命令控制子模块的“语音控制”按钮,即可实现定义好的几种命令对Delmia进行控制,发出“放大”声音,Delmia窗口将放大130%,发出“缩小”声音,Delmia窗口对象将缩小110%。
本实施例提供的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,采用Kinect设备进行虚拟装配,虚拟人和真实的人进行了关联,本实施例实施简单,部署方便。可以迅速开发基于Delmia的多种虚拟装配应用。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (9)
1.一种融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其特征在于,包括数据连接的人机交互设备数据采集处理服务模块和Delmia环境下虚拟装配客户端处理模块,其中:
一人机交互设备数据采集处理服务模块,用于进行人体动作捕捉以及语音命令采集;
一Delmia环境下虚拟装配客户端处理模块,用于在Delmia环境下对人机交互设备数据采集处理服务模块采集到的数据进行数据整合以及数据驱动。
2.根据权利要求1所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其特征在于,所述人机交互设备数据采集处理服务模块,包括数据连接的信号采集子模块以及信号转换和服务子模块,其中:
一信号采集子模块,通过Kinect设备获取操作者身体姿态的三维信息和人的语音信号;
一信号转换和服务子模块,将信号采集子模块采集的人体位姿信息,转换为包含人体13个部位的人体六自由度信息,同时,将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令,通过服务接口向Delmia环境下虚拟装配客户端处理模块提供实时数据服务;
所述Delmia环境下虚拟装配客户端处理模块,包括数据连接的虚拟人动作匹配子模块、装配装配胖模型子模块以及语音命令控制子模块,其中:
一虚拟人动作匹配子模块,通过CAA Automation API方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,通过仿真循环,驱动人体进行运动;
一装配装配胖模型子模块,通过CAA Automation API方式将选定的人体手部位置映射成Delmia中可活动部件的装配路径,并将装配路径记录成模型的一种附加属性;
一语音命令控制子模块,将语音命令,通过CAA Automation API转换为Delmia的系统控制指令,并定制为特殊的装配指令。
3.根据权利要求2所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其特征在于,所述人体13个部位包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指。
4.根据权利要求2所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统,其特征在于,所述系统控制指令包括:放大、缩小、选择以及退出系统,所述特殊的装配指令包括记录装配路径、播放装配动画以及停止播放。
5.一种利用权利要求l至4中任一项所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,其特征在于,包括以下步骤:
步骤1,通过人机交互设备数据采集处理服务模块进行人体动作捕捉和语音命令采集;
步骤2,利用Delmia环境下虚拟装配客户端处理模块对人机交互设备数据采集处理服务模块采集的数据进行数据整合和数据驱动;
步骤3,重复以上步骤,直至用户退出应用程序;
所述步骤l包括以下步骤:
步骤1.1,信号采集子模块利用Kinect设备,通过MS Kinect SDK编写专用程序对人体的动作进行实时捕捉,通过Kinect设备的深度相机获取人体的13处骨架信息作为人体位姿信息,并存储在内存中,其中每条信息通过时间戳来唯一记录信息;同时,利用Ms Speech SDK获取Kinect设备记录的语音信息,生成语音文本字符串,记录在语音命令链表中,并通过时间戳唯一指定;
步骤1.2,信号转换和服务子模块将信号采集子模块采集的人体位姿信息,通过一个转换矩阵转换为包含人体13个部位的人体六自由度信息,该13个部位的人体六自由度信息对应Delmia中虚拟人的13个部位,将对应的人体六自由度信息加载到Delmia定义部位的质心上,不同比例的人体,质心位置不同;信号转换和服务子模块将识别的语音信息转换成文本信息,通过已经定义的语音命令库,匹配为语言控制指令;
所述步骤2包括以下步骤:
步骤2.1,虚拟人动作匹配子模块通过CAA Automation API方式将实时的人体六自由度信息映射为Delmia中虚拟人相应的部位,并通过调用Delmia的人体模块进行赋值,从而驱动人体进行运动;
步骤2.2,装配装配胖模型子模块通过CAA Automat ion API,加载装配模型,定义并指定可活动部件,同时在可活动部件上,添加属性、约束方式信息;选定人体手部位置映射成Delmia中可活动部件的位置,并且记录运动路径,添加到胖模型的属性中;调用人体动作和可活动部件的运动路径,实现人装配的过程;
步骤2.3,语音命令控制子模块通过CAA Automation API转换为Delmia的系统控制指令,并定制为特殊的装配指令。
6.根据权利要求5所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,其特征在于,所述时问戳按照l/24s增长。
7.根据权利要求5所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,其特征在于,所述人体13个部位以及Delmia中虚拟人的13个部位均包括左手、左臂、左肩、右手、右臂、右肩、头部、胸部、臀部、左腿、左脚、右腿以及右脚,其中,所述左手和右手不包括手指;
所述语言控制指令格式包括:ID号、语音命令描述、语音字符串、语音动作函数以及备注。
8.根据权利要求5所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,其特征在于,所述信号转换和服务子模块利用C#建立数据服务程序,不断监控信号采集子模块和Delmia环境下虚拟装配客户端处理模块的请求,实现客户服务器通信。
9.根据权利要求5所述的融合Kinect设备和Delmia环境的人机交互虚拟装配系统的装配方法,其特征在于,所述步骤2.1中,当虚拟人动作匹配子模块在驱动人体过程中出现误差时,通过调整转换矩阵中的第4行x,y,z值来调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310113138.8A CN103258078B (zh) | 2013-04-02 | 2013-04-02 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310113138.8A CN103258078B (zh) | 2013-04-02 | 2013-04-02 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103258078A true CN103258078A (zh) | 2013-08-21 |
CN103258078B CN103258078B (zh) | 2016-03-02 |
Family
ID=48961992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310113138.8A Expired - Fee Related CN103258078B (zh) | 2013-04-02 | 2013-04-02 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103258078B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488286A (zh) * | 2013-09-02 | 2014-01-01 | 中山大学 | 一种通过手指关节弯曲度检测控制模拟人体的方法 |
CN103561258A (zh) * | 2013-09-25 | 2014-02-05 | 同济大学 | 一种Kinect深度视频时空联合修复方法 |
CN103713525A (zh) * | 2014-01-02 | 2014-04-09 | 南京航空航天大学 | 采用Kinect的航天器交会对接地面演示验证系统及方法 |
CN103942385A (zh) * | 2014-04-17 | 2014-07-23 | 北京航空航天大学 | 一种基于人体动作捕捉系统的飞机管路装配仿真方法 |
CN103942384A (zh) * | 2014-04-17 | 2014-07-23 | 北京航空航天大学 | 基于头盔显示器的动态飞机装配场景实时立体可视化方法 |
CN104133813A (zh) * | 2014-08-11 | 2014-11-05 | 南通大学 | 一种基于Kinect的海军旗语训练方法 |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104992417A (zh) * | 2015-06-30 | 2015-10-21 | 上海交通大学 | 基于Kinect的人脸视频目光修正方法及系统 |
WO2015180567A1 (zh) * | 2014-05-30 | 2015-12-03 | 阿里巴巴集团控股有限公司 | 一种智能显示终端与体感设备实现数据交互的方法及装置 |
CN105291138A (zh) * | 2015-11-26 | 2016-02-03 | 华南理工大学 | 一种增强虚拟现实浸入感的视觉反馈平台 |
CN106357497A (zh) * | 2016-11-10 | 2017-01-25 | 北京智能管家科技有限公司 | 用于智能家庭网络的控制系统 |
CN106529838A (zh) * | 2016-12-16 | 2017-03-22 | 湖南拓视觉信息技术有限公司 | 虚拟装配方法及装置 |
CN106774896A (zh) * | 2016-12-19 | 2017-05-31 | 吉林大学 | 一种坐式手工装配线模特值评测系统 |
CN106886750A (zh) * | 2017-01-04 | 2017-06-23 | 沈阳工业大学 | 基于Kinect的拆卸工具运动轨迹识别方法 |
CN107050848A (zh) * | 2016-12-09 | 2017-08-18 | 深圳市元征科技股份有限公司 | 基于体域网的体感游戏实现方法以及装置 |
CN107551551A (zh) * | 2017-08-09 | 2018-01-09 | 广东欧珀移动通信有限公司 | 游戏效果构建方法及装置 |
CN107632998A (zh) * | 2017-07-24 | 2018-01-26 | 电子科技大学 | 一种基于人体形态的多维数据可视化方法 |
CN108363984A (zh) * | 2018-03-06 | 2018-08-03 | 吉林大学 | 一种虚拟装配中疲劳度监测方法 |
CN108355347A (zh) * | 2018-03-05 | 2018-08-03 | 网易(杭州)网络有限公司 | 交互控制方法、装置、电子设备及存储介质 |
CN109636898A (zh) * | 2018-11-29 | 2019-04-16 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
CN113829343A (zh) * | 2021-09-23 | 2021-12-24 | 浙江工业大学 | 基于环境感知的实时多任务多人人机交互系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102500094B (zh) * | 2011-10-28 | 2013-10-30 | 北京航空航天大学 | 一种基于kinect的动作训练方法 |
CN102521464B (zh) * | 2011-12-26 | 2013-06-19 | 北京航空航天大学 | 基于delmia环境下的沉浸式虚拟维修仿真系统虚拟人控制方法 |
CN102929547A (zh) * | 2012-10-22 | 2013-02-13 | 四川长虹电器股份有限公司 | 智能终端无接触交互方法 |
-
2013
- 2013-04-02 CN CN201310113138.8A patent/CN103258078B/zh not_active Expired - Fee Related
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488286A (zh) * | 2013-09-02 | 2014-01-01 | 中山大学 | 一种通过手指关节弯曲度检测控制模拟人体的方法 |
CN103561258B (zh) * | 2013-09-25 | 2015-04-15 | 同济大学 | 一种Kinect深度视频时空联合修复方法 |
CN103561258A (zh) * | 2013-09-25 | 2014-02-05 | 同济大学 | 一种Kinect深度视频时空联合修复方法 |
CN103713525A (zh) * | 2014-01-02 | 2014-04-09 | 南京航空航天大学 | 采用Kinect的航天器交会对接地面演示验证系统及方法 |
CN103713525B (zh) * | 2014-01-02 | 2016-04-27 | 南京航空航天大学 | 采用Kinect的航天器交会对接地面演示验证系统及方法 |
CN103942385A (zh) * | 2014-04-17 | 2014-07-23 | 北京航空航天大学 | 一种基于人体动作捕捉系统的飞机管路装配仿真方法 |
CN103942384A (zh) * | 2014-04-17 | 2014-07-23 | 北京航空航天大学 | 基于头盔显示器的动态飞机装配场景实时立体可视化方法 |
CN103942385B (zh) * | 2014-04-17 | 2016-12-07 | 北京航空航天大学 | 一种基于人体动作捕捉系统的飞机管路装配仿真方法 |
WO2015180567A1 (zh) * | 2014-05-30 | 2015-12-03 | 阿里巴巴集团控股有限公司 | 一种智能显示终端与体感设备实现数据交互的方法及装置 |
CN105404385B (zh) * | 2014-05-30 | 2018-11-27 | 阿里巴巴集团控股有限公司 | 一种智能显示终端与体感设备实现数据交互的方法及装置 |
CN105404385A (zh) * | 2014-05-30 | 2016-03-16 | 阿里巴巴集团控股有限公司 | 一种智能显示终端与体感设备实现数据交互的方法及装置 |
CN104133813A (zh) * | 2014-08-11 | 2014-11-05 | 南通大学 | 一种基于Kinect的海军旗语训练方法 |
CN104133813B (zh) * | 2014-08-11 | 2017-02-15 | 南通大学 | 一种基于Kinect的海军旗语训练方法 |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104616336B (zh) * | 2015-02-26 | 2018-05-01 | 苏州大学 | 一种动画构建方法及装置 |
CN104992417A (zh) * | 2015-06-30 | 2015-10-21 | 上海交通大学 | 基于Kinect的人脸视频目光修正方法及系统 |
CN104992417B (zh) * | 2015-06-30 | 2017-12-19 | 上海交通大学 | 基于Kinect的人脸视频目光修正方法及系统 |
CN105291138A (zh) * | 2015-11-26 | 2016-02-03 | 华南理工大学 | 一种增强虚拟现实浸入感的视觉反馈平台 |
CN106357497A (zh) * | 2016-11-10 | 2017-01-25 | 北京智能管家科技有限公司 | 用于智能家庭网络的控制系统 |
CN107050848A (zh) * | 2016-12-09 | 2017-08-18 | 深圳市元征科技股份有限公司 | 基于体域网的体感游戏实现方法以及装置 |
CN106529838A (zh) * | 2016-12-16 | 2017-03-22 | 湖南拓视觉信息技术有限公司 | 虚拟装配方法及装置 |
CN106774896A (zh) * | 2016-12-19 | 2017-05-31 | 吉林大学 | 一种坐式手工装配线模特值评测系统 |
CN106774896B (zh) * | 2016-12-19 | 2018-03-13 | 吉林大学 | 一种坐式手工装配线模特值评测系统 |
CN106886750A (zh) * | 2017-01-04 | 2017-06-23 | 沈阳工业大学 | 基于Kinect的拆卸工具运动轨迹识别方法 |
CN107632998B (zh) * | 2017-07-24 | 2021-04-23 | 电子科技大学 | 一种基于人体形态的多维数据可视化方法 |
CN107632998A (zh) * | 2017-07-24 | 2018-01-26 | 电子科技大学 | 一种基于人体形态的多维数据可视化方法 |
CN107551551A (zh) * | 2017-08-09 | 2018-01-09 | 广东欧珀移动通信有限公司 | 游戏效果构建方法及装置 |
CN108355347A (zh) * | 2018-03-05 | 2018-08-03 | 网易(杭州)网络有限公司 | 交互控制方法、装置、电子设备及存储介质 |
CN108363984B (zh) * | 2018-03-06 | 2018-11-16 | 吉林大学 | 一种虚拟装配中疲劳度监测方法 |
CN108363984A (zh) * | 2018-03-06 | 2018-08-03 | 吉林大学 | 一种虚拟装配中疲劳度监测方法 |
CN109636898A (zh) * | 2018-11-29 | 2019-04-16 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
CN109636898B (zh) * | 2018-11-29 | 2023-08-22 | 维沃移动通信有限公司 | 3d模型生成方法及终端 |
CN113829343A (zh) * | 2021-09-23 | 2021-12-24 | 浙江工业大学 | 基于环境感知的实时多任务多人人机交互系统 |
CN113829343B (zh) * | 2021-09-23 | 2023-09-29 | 浙江工业大学 | 基于环境感知的实时多任务多人人机交互系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103258078B (zh) | 2016-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103258078A (zh) | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统 | |
CN111526118B (zh) | 一种基于混合现实的远程操作引导系统及方法 | |
Green et al. | Applying the Wizard-of-Oz framework to cooperative service discovery and configuration | |
CN111191322B (zh) | 一种基于深度感知手势识别的虚拟维修性仿真方法 | |
CN103312850B (zh) | 一种手机自动化测试系统及工作方法 | |
CN109918975A (zh) | 一种增强现实的处理方法、对象识别的方法及终端 | |
CN108170273A (zh) | 一种基于hololens眼镜的专家远程指导系统及实现方法 | |
CN103455657B (zh) | 一种基于Kinect的现场作业仿真方法及其系统 | |
CN110889161B (zh) | 一种声控建筑信息模型三维显示系统和方法 | |
CN110047150A (zh) | 一种基于增强现实的复杂设备操作运行在位仿真系统 | |
US20190266804A1 (en) | Virtual prototyping and assembly validation | |
CN113835522A (zh) | 手语视频生成、翻译、客服方法、设备和可读介质 | |
CN107203272A (zh) | 基于肌电感知技术的可穿戴增强现实作业指导系统及方法 | |
CN106502382A (zh) | 用于智能机器人的主动交互方法和系统 | |
Maza et al. | Multimodal interface technologies for UAV ground control stations: a comparative analysis | |
CN107643820B (zh) | Vr被动型机器人及其实现方法 | |
CN110599823A (zh) | 一种基于示教视频和解说语音融合的服务机器人示教方法 | |
CN110299138A (zh) | 一种增强现实装配工艺指导系统及方法 | |
Angleraud et al. | Sensor-based human–robot collaboration for industrial tasks | |
CN112380735A (zh) | 一种座舱工程虚拟评估装置 | |
KR101964192B1 (ko) | 시뮬레이션용 스마트 테이블 장치 | |
Raschke et al. | On the design of a task based human simulation system | |
CN105835064A (zh) | 一种智能机器人的多模态输出方法和智能机器人系统 | |
CN110543149A (zh) | 一种基于智能眼镜的航空座椅装退弹辅助系统及使用方法 | |
CN106570620B (zh) | 生产引导方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160302 Termination date: 20200402 |