CN101794349A - 机器人遥操作增强现实实验系统及方法 - Google Patents
机器人遥操作增强现实实验系统及方法 Download PDFInfo
- Publication number
- CN101794349A CN101794349A CN201010110452A CN201010110452A CN101794349A CN 101794349 A CN101794349 A CN 101794349A CN 201010110452 A CN201010110452 A CN 201010110452A CN 201010110452 A CN201010110452 A CN 201010110452A CN 101794349 A CN101794349 A CN 101794349A
- Authority
- CN
- China
- Prior art keywords
- robot
- teleoperation
- client
- server
- way video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种机器人遥操作增强现实实验系统及方法,该系统包括机器人、双路视频采集装置、服务器、客户端和显示装置。双路视频采集装置采集场景数据并将采集到的双路视频流发送至服务器;服务器接收双路视频流和机器人的姿态参数,并对数据进行处理传送给客户端;客户端对服务器传送的双路视频流和机器人姿态参数进行数据处理并建立虚拟互动模型,通过客户端发送指令对虚拟互动模型进行各类操作;客户端建立的虚拟互动模型在立体显示装置中动态显示。本发明的机器人遥操作增强现实实验系统及方法,建立了增强现实仿真试验的环境,能够以三维立体方式显示机器人与实际场景,并建立遥操作互动信息模型,进行相应实验操作。
Description
技术领域
本发明涉及一种遥操作实验系统,尤指一种机器人遥操作实验系统。
背景技术
现有的机器人遥操作实验系统是通过光学定位系统以二维图片的形式观测现实实验环境,其中的光学定位系统可按照光源不同分为三类:红外线定位、可见光定位和激光定位。其中应用最广泛的是使用明亮的红外线斑点来标定目标的位置。
定位系统中目标中心点是通过计算斑点图像的质点亮度来确定的。一个污点或者一个局部的闭塞会影响到质心的位置,从而引起一个明显的测量错误。并且,这种情况不会被检测到也不会对用户发出报警。左右视图及观察到的目标特性与模板中目标特性的误差比较大。同时,在工作环境中误导性的映射亮点将比X点(对象用一个可变的目标区域来标记,称作点x)更容易察觉。
不足的是,标记点与任何用于跟踪物体位置工具(如一个探针工具)之间的空间关系只能以平面二维的方式显示出来,不能向用户直观的以立体方式展现出来以便于进行动态的视觉比,这样导致使用不方便,不能对构图更加清晰的表示;难以鉴别相互之间只有微小区别的众多样本;当使用其它的定位仪器时,在外设中放置光学定位仪,随后会重复放置,导致安装复杂,且需要估测1~2米外模糊的边界;不能同时识别多组标记。
发明内容
针对现有技术存在的问题,本发明提供一种能够以三维立体方式显示机器人与实际场景,并建立遥操作互动信息模型,使整个增强现实系统具有了交互智能的机器人遥操作实验系统及方法。
为实现上述目的,本发明的机器人遥操作增强现实实验系统,包括机器人、双路视频采集装置、服务器、客户端和显示装置,其中,
机器人用于实现抓取物体的具体操作;
双路视频采集装置设置在机器人上,用于获取场景数据,输出双路视频流;
服务器用于接收双路视频采集装置输出的双路视频流和机器人的姿态参数并进行数据处理;
客户端用于接收服务器处理后的数据,通过该数据建立虚拟人-机-场景互动模型;
显示装置用于动态立体显示机器人与场景。
进一步,所述双路视频采集装置为两个CCD摄像机。
进一步,所述服务器包括机器人控制服务器和视频服务器,机器人控制服务器接收所述机器人姿态参数反馈,发送出机器人控制指令;视频服务器对所述双路视频采集装置进行滤波、压缩与发送处理。
进一步,所述客户端连接有模型数据库,模型数据库中针对常见物体或遥操作场景中的对象物体,保存其形态及属性的模型。
进一步,所述客户端接收服务器处理后的双路视频流进行视觉合成和对象识别。
进一步,所述显示装置为立体显示器,经所述客户端视觉合成的视频流能够在立体显示器中立体的动态显示。
进一步,所述虚拟人-机-场景互动模型基于所述客户端接收的双路视频流与所述模型数据库中的模型进行对象识别、匹配而建立。
基于上述实验系统的机器人遥操作的实验方法,具体步骤如下:1)双路视频采集装置采集场景数据并将采集到的双路视频流发送至服务器;2)服务器接收双路视频流和机器人的姿态参数,并对数据进行处理传送给客户端;3)客户端对服务器传送的双路视频流和机器人姿态参数进行双路视频影像合成、场景中对象物体的三维重构、影像融合处理,并建立虚拟人-机-场景互动模型,通过客户端发送指令对虚拟人-机-场景互动模型进行各类操作;4)客户端建立的虚拟人-机-场景互动模型在立体显示装置中动态显示。
进一步,所述双路视频影像合成具体为双路视频采集装置捕获的双路视频流采用直接线性变换法进行CCD的标定,针对步骤2)中滤波处理后的视频帧进行特征提取,并采用相位匹配算法进行图像匹配。
进一步,所述场景中对象物体的三维重构具体为通过影像合成建立对象物体的形状数据库来识别对象物体;针对常见物体或遥操作场景中可能的对象物体,建立其形态及属性数据库;物体识别采用数据库中的物体在特定投影方向上影像或特征去匹配被操作对象,匹配成功,则对象物体的维度和属性能够直接从数据库中提取出来;针对新物体或属性不能自主确定的物体,采用与所述客户端之间交互方式完善其属性项。
本发明的机器人遥操作增强现实实验系统及方法,建立了增强现实仿真试验的环境,其主要技术效果如下:
(1)具备双路视觉动态立体显示,实时显示帧数不小于24帧/秒;实现遥操作场景中多维信息的实时显示;能支持增强场景中对象物体基于认知知识的重构。
(2)基于双目视差的立体影像合成算法能实现动态实时,流迟延不大于1/24秒。
(3)物体形态认知知识库实现实时动态查询,具备知识获取及知识扩充功能。
(4)对象重构算法能支持常见及知识库已储存物体重构,类识别准确度95%以上,几何维度识别误差不大于10%。
(5)场景增效显示模型能容纳预定义属性的增效互动显示,包括对象物体的几何维度、物理特性、化学特性、电磁特性、声音特性等可感知或不可感知的属性的显示。
附图说明
图1为本发明的机器人遥操作实验系统的结构框图;
图2为本发明中两个CCD摄像机的针孔模型;
图3为基于双路视觉的视频影像合成流程;
图4为立体场景影像与虚拟三维物体的影响融合流程。
图5为互动信息模型示意图。
具体实施方式
如图1所示,本发明的机器人遥操作实验系统,包括机器人、双目摄像机、服务器、客户端和立体显示器,
1.机器人:实现抓取物体等具体操作。
2.双目摄像机:用来获取场景数据,输出双路视频流。
3.服务器:包括机器人控制服务器和视频服务器,其中机器人控制服务器接收机器人姿态参数反馈,发送出机器人控制指令;视频服务器对左右相机视频进行滤波/压缩与发送处理。
4.客户端:登录服务器实现远程操作。
5.立体显示器:实现双路视觉动态立体显示。
客户端连接有模型数据库,模型数据库中针对常见物体或遥操作场景中可能的对象物体,保存其形态及属性的模型。
结合附图1对本发明的实验系统的工作流程说明如下:双目摄像机采集场景数据并将采集到的双路视频流发送至服务器;服务器接收双路视频流和机器人的姿态参数,并对数据进行处理通过网络传送给客户端;客户端对服务器传送的双路视频流和机器人姿态参数进行双路视频影像合成、场景中对象物体的三维重构、影像融合处理,并建立机器人遥操作实验支撑环境,通过客户端发送机器人控制指令对虚拟人-机-场景互动模型进行各类操作;客户端建立的虚拟人-机-场景互动模型在立体显示装置中动态显示。
(1)基于视差的双路视频影像合成及立体显示算法研究
利用装载到机器人身上的双CCD系统捕获遥操作现场的动态视频流,经过Fourier滤波、压缩传送到处理器主机;基于Marr双目视觉合成理论,实现双路视频影像的动态合成及立体显示。双CCD针孔模型如图2所示。
基于双路视觉的立体影像合成方法包括:获取同步第一路和第二路视觉影像;对获取的所述第一路和第二路视觉影像执行影像公共视域截取;确定所述第一路视觉影像和所述第二路视觉影像的合成偏移距离;将所述第一路和第二路视觉影像分别调节所述合成偏移距离,并合成调节后的第一路和第二路视觉影像。
获取同步第一路和第二路视觉影像。第一路和第二路视觉影像分别模拟了输入观察者左眼和右眼的信号,当两路信号是同步的,才有可能进行影像合成,实现立体效果。所谓同步是指,第一路和第二路视觉影像所描述的场景必须是在同一时间针对同一场景摄取的。在一个实施例中,第一路和第二路视觉影像可以是静态存储在存储装置中的现成的影像,例如可以是首先通过双路相机、摄影机或其他摄像装置摄取影像,然后将这些影像存储在存储装置中利用上面合成方法进行离线合成。第一路和第二路视觉影像可以是通过虚拟显示或三维动画软件中利用双路摄像装置摄取的影像。
对获取的所述第一路和第二路视觉影像(由于双路视觉是模拟人的左右双眼,因此也可以称为左路和右路视觉影像)执行公共视域截取。公共视域是指,双路摄像装置所摄取的影像中所共有的区域。该步骤的作用是获取左路和右路视觉影像的公共部分,即把非公共部分的图片裁减掉。在具体实施中,可以通过观察来进行截取。通过这一步骤,为下一步将两个影像进行移动,从而为确定符合人眼视差特性的移动距离的计算提供了基础。只有符合人眼视差特性的两幅影像才有可能观察到立体影像效果。
对于场景中的任何一点,在双路视觉影像(例如,左眼影像或左影像和右眼影像或右影像)中对应着不同的点,因此,为了确定立体合成偏移距离,需要计算出场景中的点在左眼影像和右眼影像中的像点的坐标。像点坐标的计算是利用现有技术中的计算方法来实现的。
例如,像点的相关性可以利用下列等式计算得到:
其中,dmin和dmax表示最大和最小视距差(disparity);m是模板尺寸(mask size);Iright和Ileft是左右影像;x,y分别表示像点在左右影像中的坐标。其中,最大的视距限定了能被检测到的最近的物体,而视距为0是表示无穷远处的物体。减小视距范围可以加快系统的匹配点计算速度,并降低误匹配的几率。
在进行影像合成时,需要分别对第一路和第二路视觉影像进行偏移,该偏移量的大小直接决定了合成立体影像的效果。
根据心理学的研究,人在观察立体影像时,所允许的视差范围是有限的,利用视差角表示,视差角利用下面等式来表示:
β=2arctan(P/2f) (2)
其中,P是立体影像中左右对应像点在合成影像上的间距;f是观察者眼镜到屏幕之间的距离,P=D-delta,D为立体影像对的视差,即D=XL-XR,XL、XR分别为场景中的点在左眼影像和右眼影像中的像点的坐标。一般,β≤1.5°,当β>1.5°时,观察者不能观察到立体效果,看到的仅仅是两幅图。
由(2)式很容易得到
如下示出了执行合成计算的一个实施例。
为了确保合成的立体影像的视差角不大于最大视差角,确定合成偏移距离delta为下列数值:
其中,w表示立体影像对(即左右影像)的宽度;e表示左右相机的间距;f是观察者眼镜到屏幕之间的距离;φ表示相机的光圈。利用上面的公式,由此合成偏移距离delta就可以用视差角β来约束。由于β为一个角度范围,因此,可以确定适于合成立体图像的delta的范围,只要将左眼和右眼影像移动delta的距离,就适于能够合成立体影像的。由此,确定了满足人视觉要求的合成影像的移动偏移距离。
将第一路和第二路视觉影像分别调节合成偏移距离,并合成调节后的第一路和第二路视觉影像。
由此,即实现了立体影像的合成。由于对于每个镜头都有一定的视角,因此两个镜头平行光轴的布置有一定的范围限制,同时为了实现更好地立体效果。由于在上述合成方法中,优选地,所述相机或摄像装置的平行光轴之间的距离为30mm-150mm。例如可以为60mm,100mm,120mm,150mm等。
针对捕获的双路视频流采用直接线性变换法进行CCD的标定。针对滤波处理后的视频帧进行特征提取,并采用相位匹配算法进行图像匹配。相位作为匹配基元,本身反映信号的结构信息,对图像的高频噪声有很好的抑制作用,适于并行处理,能获得亚像素级精度的致密视差。但存在相位奇点和相位卷绕的问题,拟采用自适应滤波器加以解决。这一影像融合的算法处理管道如图3所示。
在图3所示的双路影像合成流程中,要实现动态化,就必须对CCD采集的原始场景信息进行预处理以减少噪声,提高影像匹配的精度。另外,由于视频流数据量大,要保证重建影像的动态实时性,就必须在算法中引入并行优化,使得每一帧的的影像合成计算时延能控制在1/24秒之内。
(2)基于自然特征的无标志物的对象物体的三维重构算法
实时对象物体的三维重构,我们采用以下方案开展研究:
1)采集要识别物体影像。在该步骤中。采集要识别物体影像,可以利用各种各样的影像摄取装置(如相机、摄像机等)获取场景中的物体影像。在一个实施例中,例如在遥控控制领域,远程机器人利用相机获取现场的照片,并将照片通过无线网络发送至控制台,工作人员可以通过图形界面选择机器人要操作的对象物体的影像。在另一个实施例中,例如在工厂自动化领域中,机械加工机器人根据加工制造的流程的程序控制从拍摄的现场场景中选择要识别的物体影像。
2)对影像进行预处理。在该步骤中,需要对所选取的物体影像进行滤波、去噪、畸变校正等操作,以去除掉物体影像的各种杂音,便于进行特征提取。在一个实施例中,可以省略掉该步骤。
3)对采集的物体影像进行特征提取,即提取影像特征。在该步骤中,特征提取是利用现有技术中常用的各种特征的方法,例如Canny算法及其改进算法进行特征提取,利用sift及其算法进行结构特征提取。为简单起见,不做详细说明。
4)提供物体模型知识库,该物体模型知识库包括N个物体模型,其中,N≥1。在该步骤中,可以在物体模型知识库中预先设置多个物体模型。在一个实施例中,例如,在工厂自动化中,机器人操作现场中,机器人所需要接触或操作的工具或对象相对是有限的,因此可以将这有限的工具或对象的模型建立起来,并存储在物体模型知识库中。另外,也可以在识别过程中,根据要求添加物体模型。
5)调取物体模型知识库中的第一物体模型。
6)对该提取的物体模型进行特征提取,即提取模型特征。提取模型的特征是利用现有技术中的方法来实现的,例如利用Canny算法。提取模型的特征可以提取模型的结构特征、形状特征、投影特征、边界特征等,例如可以利用背景技术中所使用的方法提取模型特征。
7)将影像特征与模型特征进行对比。将将影像特征与模型特征进行对比用来判断影像的特征与模型的特征的相似度,为了说明方便,利用匹配率来描述这个意义,匹配率用来描述两个特征之间的相似程度。例如匹配率越高,则两者越相似,匹配率为100%,则说明两者完全相同。在机器视觉过程中,可以设定某一个匹配率的临界值(或阀值),例如匹配率为70%、80%、90、95%、99%等,这样可以加快匹配判断的过程,不必将所有的特征完全匹配就能做出正确的结论,能够节省时间,提高效率。
对于对比的结果进行判定,并根据不同的判定结构执行不同的步骤:
8)如果影像特征与模型特征匹配率不小于设定临界值,则该要识别的物体被识别为该提取的物体模型或者记录被模型,作为备选模型。
9)如果影像特征与模型特征边界匹配率小于设定临界值,则从物体模型知识库中调取与第一物体模型不同的第二物体模型,在调取第二物体模型之前,首先判断是否第一物体模型是否为物体模型知识库中的最后一个模型,如果不是,调取下一个模型;并重复执行步骤6)提取模型特征、7)特征对比的步骤,遍历物体模型知识库中的第三、第四物体模型……第N物体模型,直至寻找到采集的影像特征与提取的模型特征相匹配的物体模型为止。
通过建立对象物体的形状知识库来识别对象物体,进而实现其三维重构。针对常见物体或遥操作场景中可能的对象物体,建立其形态及属性知识库。流视频场景中的物体识别可以采用图像识别的方法解决,即用知识库中的物体在特定投影方向上影像或特征的去匹配被操作对象。一旦匹配成功,则对象物体的维度和属性就可以直接从数据库中提取出来。要求物体形状知识库要有自我学习和扩展的能力。对于新物体或属性不能自主确定的物体,则采用交互方式完善其属性项。
(3)真实场景立体视觉影像与虚拟三维物体的动态无缝融合技术
把虚拟的三维物体融合在合成的立体视觉帧场景图像中,需要计算场景的深度信息和相关物体的遮挡关系。为确保遥操作过程的流畅,拟采用双目立体视觉提供粗略的目标深度信息,结合改进的图像分割算法,缩小虚拟三维物体与场景立体视觉影像帧内对象的相互位置的求解范围,进而实现在高速流媒体中对视频图像中的目标位置进行分割,突破而传统的目标分割算法难以在实时环境中得到令人满意结果的缺陷,完成真实场景立体视觉影像与虚拟三维对象物体的动态无缝融合。算法框图如图4所示。
在这一方面,我们会考虑充分利用课题依托单位现有的虚拟现实显示平台、及某特种机器人研究等软件和硬件基础。将相关的流视频压缩、机器人视觉深度定位、大规模虚拟显示技术等已有技术成果应用到新系统的开发中来,以加快本课题的研究进度。我们使用SuperD立体显示器实现最终显示场景。
(4)增强的人-机-场景中多维信息互动模型
通过分析与遥操作相关的信息计算及显示类别、显示方式、动态表达模型,建立根据操作需要定制的互动信息反馈机制。遥操作场景中多维信息包括:遥操作机器人定位及姿态参数、场景的环境物理化学及场信息、操作对象的维度与位置信息、物理化学属性信息。多维信息的来源可以是被操作对象物体匹配识别后提取自形态知识库的物体属性数据、由遥操作机器人上装置的各种传感器的探测数据等。将设计一个具有自学习能力的智能物体形态数据库来管理对象信息。
通过研究人-机互动心理、生理等人机功效机理,掌握遥操作过程必要的信息需求准则、找出场景数据对特定操作任务的互动映射规律,据此设计出用户友好信息定制界面并建立遥操作互动信息模型。遥操作增强场景中信息互动反映在:一方面是用户定制的场景及对象物体信息的实时反馈;另一方面是模型中基于知识的信息映射触发系统要求用户留意某些非用户定制的特定信息。从这一方面来说,互动信息模型使整个增强现实系统具有了交互智能。
互动信息的映射是由一个信息映射规则知识库支持的,该知识库用来记录多维信息映射的关联规则知识。这些知识能确保在遥操作增强现实系统中用户定制正确的信息。必要时,信息关联映射会帮助用户修正已发出的定制参数。图5是互动信息模型的示意图。
(5)遥操作增强现实支撑平台的测试
在上述基础上,已有的九自由度某特种机器人系统平台及SuperD立体显示系统来进行机器人特定作业的遥操作实验和整体调试,验证上述理论方法的正确性,并加以改进。测试主要内容包括:双CCD视觉流影像的立体合成及显示效果、基于形态知识匹配的对象物体的识别效率及其三维重建精度、以及多维互动信息模型的用户认可度、遥操作沉浸感及任务操作准确度等方面。
上面已经对本发明进行了说明。应该理解的是,上述说明仅仅是以示例的方式对本发明进行了说明,这些示例仅用于阐述本发明的原理而非对其保护范围进行限制。因此,在不背离本发明精神和范围的前提下,可以对其进行各种修改和变更。
Claims (10)
1.一种机器人遥操作增强现实实验系统,其特征在于,包括机器人、双路视频采集装置、服务器、客户端和显示装置,其中,
机器人用于实现抓取物体的具体操作;
双路视频采集装置设置在机器人上,用于获取场景数据,输出双路视频流;
服务器用于接收双路视频采集装置输出的双路视频流和机器人的姿态参数并进行数据处理;
客户端用于接收服务器处理后的数据,通过该数据建立虚拟人-机-场景互动模型;
显示装置用于动态立体显示机器人与场景。
2.如权利要求1所述的机器人遥操作增强现实实验系统,其特征在于,所述双路视频采集装置为两个CCD摄像机。
3.如权利要求1所述的机器人遥操作增强现实实验系统,其特征在于,所述服务器包括机器人控制服务器和视频服务器,机器人控制服务器接收所述机器人姿态参数反馈,发送出机器人控制指令;视频服务器对所述双路视频采集装置进行滤波、压缩与发送处理。
4.如权利要求1所述的机器人遥操作增强现实实验系统,其特征在于,所述客户端连接有模型数据库,模型数据库中针对常见物体或遥操作场景中的对象物体,保存其形态及属性的模型。
5.如权利要求1所述的机器人遥操作增强现实实验系统,其特征在于,所述客户端接收服务器处理后的双路视频流进行视觉合成和对象识别。
6.如权利要求4所述的机器人遥操作增强现实实验系统,其特征在于,所述显示装置为立体显示器,经所述客户端视觉合成的视频流能够在立体显示器中立体的动态显示。
7.如权利要求3所述的机器人遥操作增强现实实验系统,其特征在于,所述虚拟人-机-场景互动模型基于所述客户端接收的双路视频流与所述模型数据库中的模型进行对象识别、匹配而建立。
8.一种基于如权利要求1-7任一项所述实验系统的机器人遥操作的实验方法,具体步骤如下:1)双路视频采集装置采集场景数据并将采集到的双路视频流发送至服务器;2)服务器接收双路视频流和机器人的姿态参数,并对数据进行处理传送给客户端;3)客户端对服务器传送的双路视频流和机器人姿态参数进行双路视频影像合成、场景中对象物体的三维重构、影像融合处理,并建立虚拟人-机-场景互动模型,通过客户端发送指令对虚拟人-机-场景互动模型进行各类操作;4)客户端建立的虚拟人-机-场景互动模型在立体显示装置中动态显示。
9.如权利要求7所述的机器人遥操作的实验方法,其特征在于,所述双路视频影像合成具体为双路视频采集装置捕获的双路视频流采用直接线性变换法进行CCD的标定,针对步骤2)中滤波处理后的视频帧进行特征提取,并采用相位匹配算法进行图像匹配。
10.如权利要求7所述的机器人遥操作的实验方法,其特征在于,所述场景中对象物体的三维重构具体为通过影像合成建立对象物体的形状数据库来识别对象物体;针对常见物体或遥操作场景中可能的对象物体,建立其形态及属性数据库;物体识别采用数据库中的物体在特定投影方向上影像或特征去匹配被操作对象,匹配成功,则对象物体的维度和属性能够直接从数据库中提取出来;针对新物体或属性不能自主确定的物体,采用与所述客户端之间交互方式完善其属性项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101104527A CN101794349B (zh) | 2010-02-09 | 2010-02-09 | 机器人遥操作增强现实实验系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101104527A CN101794349B (zh) | 2010-02-09 | 2010-02-09 | 机器人遥操作增强现实实验系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101794349A true CN101794349A (zh) | 2010-08-04 |
CN101794349B CN101794349B (zh) | 2012-08-29 |
Family
ID=42587038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101104527A Expired - Fee Related CN101794349B (zh) | 2010-02-09 | 2010-02-09 | 机器人遥操作增强现实实验系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101794349B (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221884A (zh) * | 2011-06-15 | 2011-10-19 | 山东大学 | 一种基于摄像机实时定标的可视遥在装置及其工作方法 |
CN102306020A (zh) * | 2011-06-27 | 2012-01-04 | 中国科学院深圳先进技术研究院 | 虚拟建模物联云方法与系统 |
CN102892022A (zh) * | 2011-07-19 | 2013-01-23 | 株式会社东芝 | 图像处理系统、图像处理装置以及图像处理方法 |
CN103179401A (zh) * | 2013-03-19 | 2013-06-26 | 燕山大学 | 多智能体协同视频采集与图像信息拼接处理方法及装置 |
CN103488158A (zh) * | 2013-10-12 | 2014-01-01 | 中冶赛迪电气技术有限公司 | 一种基于机器视觉的虚拟人机操作界面系统及构建方法 |
CN103997443A (zh) * | 2013-02-20 | 2014-08-20 | 仁宝电脑工业股份有限公司 | 控制电子设备的方法与电子装置 |
TWI509530B (zh) * | 2013-10-28 | 2015-11-21 | Pixart Imaging Inc | 自主式行動載具以及自動跟隨系統 |
CN105303949A (zh) * | 2015-11-30 | 2016-02-03 | 中国矿业大学 | 一种基于煤矿巷道的机器人视觉实验环境系统 |
CN105975232A (zh) * | 2016-05-06 | 2016-09-28 | 深圳市吾悦科技有限公司 | 增强现实实时交互系统及方法 |
CN106182020A (zh) * | 2016-07-13 | 2016-12-07 | 上海航天控制技术研究所 | 一种基于同步机器人的机器人操作示教系统及方法 |
CN106471441A (zh) * | 2014-08-25 | 2017-03-01 | X开发有限责任公司 | 用于显示机器人设备动作的虚拟表示的增强现实的方法和系统 |
US9599988B2 (en) | 2013-10-28 | 2017-03-21 | Pixart Imaging Inc. | Adapted mobile carrier and auto following system |
CN106527177A (zh) * | 2016-10-26 | 2017-03-22 | 北京控制工程研究所 | 一种多功能一站式遥操作控制设计与仿真系统及方法 |
CN106791789A (zh) * | 2016-11-28 | 2017-05-31 | 深圳哈乐派科技有限公司 | 一种3d影像展示方法及一种机器人 |
CN106853638A (zh) * | 2016-12-30 | 2017-06-16 | 深圳大学 | 一种基于增强现实的人体生物信号远程控制系统及方法 |
CN106855919A (zh) * | 2016-12-22 | 2017-06-16 | 广东清立方科技有限公司 | 一种手术影像采集管理方法及一种手术影像采集装置 |
US9713871B2 (en) | 2015-04-27 | 2017-07-25 | Microsoft Technology Licensing, Llc | Enhanced configuration and control of robots |
CN107229343A (zh) * | 2017-07-01 | 2017-10-03 | 庄树新 | 一种基于vr操作的锂离子电池涂布设备的构建方法 |
CN107261490A (zh) * | 2017-07-06 | 2017-10-20 | 腾讯科技(深圳)有限公司 | 实现智能玩具互动的方法、客户端及智能玩具 |
CN107567610A (zh) * | 2015-04-27 | 2018-01-09 | 微软技术许可有限责任公司 | 附连控制元素的混合环境显示 |
CN107643820A (zh) * | 2016-07-20 | 2018-01-30 | 郎焘 | Vr被动型机器人及其实现方法 |
CN107656505A (zh) * | 2017-08-21 | 2018-02-02 | 杭州太若科技有限公司 | 使用增强现实设备控制人机协作的方法、装置和系统 |
CN107911687A (zh) * | 2017-12-11 | 2018-04-13 | 中国科学院长春光学精密机械与物理研究所 | 基于双目立体视觉的机器人遥操作辅助系统 |
CN108063825A (zh) * | 2017-12-26 | 2018-05-22 | 三星电子(中国)研发中心 | 一种远程协助方法 |
CN108687771A (zh) * | 2018-05-07 | 2018-10-23 | 浙江理工大学 | 一种基于v-rep平台的trs机器人自动操控方法 |
CN108762112A (zh) * | 2018-06-12 | 2018-11-06 | 哈尔滨理工大学 | 一种基于虚拟现实的工业机器人仿真与实时控制系统 |
CN109101942A (zh) * | 2018-08-27 | 2018-12-28 | 苏州健雄职业技术学院 | 一种智能现实互动交流传递机器人表情模拟方法及系统 |
CN110047148A (zh) * | 2019-04-10 | 2019-07-23 | 珠海梅西互动技术有限公司 | 一种虚拟机器人工作站的仿真互动可视化系统及实现方法 |
CN110134247A (zh) * | 2019-05-24 | 2019-08-16 | 威海海洋职业学院 | 一种基于vr的船舶运动姿态增强现实互动系统及方法 |
CN110287616A (zh) * | 2019-06-28 | 2019-09-27 | 中国科学院空间应用工程与技术中心 | 一种沉浸式空间微重力流体遥科学实验平行系统及方法 |
CN111300430A (zh) * | 2020-03-27 | 2020-06-19 | 梅其珍 | 双模协作机器人控制系统 |
CN111383348A (zh) * | 2020-03-17 | 2020-07-07 | 北京理工大学 | 一种虚拟现实远程同步控制机器人的方法 |
CN111448568A (zh) * | 2017-09-29 | 2020-07-24 | 苹果公司 | 基于环境的应用演示 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5363185A (en) * | 1992-12-23 | 1994-11-08 | The United States Of America As Represented By The Secretary Of The Air Force | Method and apparatus for identifying three-dimensional coordinates and orientation to a robot |
CN1233514C (zh) * | 2003-03-14 | 2005-12-28 | 南开大学 | 国际互联网的网上遥操作机器人对弈的控制系统 |
CN101308018B (zh) * | 2008-05-30 | 2010-09-15 | 汤一平 | 基于双目全方位视觉传感器的立体视觉测量装置 |
CN201325591Y (zh) * | 2008-08-28 | 2009-10-14 | 国核电站运行服务技术有限公司 | 耐辐照水下监测机器人 |
-
2010
- 2010-02-09 CN CN2010101104527A patent/CN101794349B/zh not_active Expired - Fee Related
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221884B (zh) * | 2011-06-15 | 2013-04-24 | 山东大学 | 一种基于摄像机实时定标的可视遥在装置及其工作方法 |
CN102221884A (zh) * | 2011-06-15 | 2011-10-19 | 山东大学 | 一种基于摄像机实时定标的可视遥在装置及其工作方法 |
CN102306020A (zh) * | 2011-06-27 | 2012-01-04 | 中国科学院深圳先进技术研究院 | 虚拟建模物联云方法与系统 |
CN102892022A (zh) * | 2011-07-19 | 2013-01-23 | 株式会社东芝 | 图像处理系统、图像处理装置以及图像处理方法 |
CN103997443A (zh) * | 2013-02-20 | 2014-08-20 | 仁宝电脑工业股份有限公司 | 控制电子设备的方法与电子装置 |
CN103179401A (zh) * | 2013-03-19 | 2013-06-26 | 燕山大学 | 多智能体协同视频采集与图像信息拼接处理方法及装置 |
CN103488158A (zh) * | 2013-10-12 | 2014-01-01 | 中冶赛迪电气技术有限公司 | 一种基于机器视觉的虚拟人机操作界面系统及构建方法 |
CN103488158B (zh) * | 2013-10-12 | 2015-08-05 | 中冶赛迪电气技术有限公司 | 一种基于机器视觉的虚拟人机操作界面系统及构建方法 |
TWI509530B (zh) * | 2013-10-28 | 2015-11-21 | Pixart Imaging Inc | 自主式行動載具以及自動跟隨系統 |
US9599988B2 (en) | 2013-10-28 | 2017-03-21 | Pixart Imaging Inc. | Adapted mobile carrier and auto following system |
CN106471441A (zh) * | 2014-08-25 | 2017-03-01 | X开发有限责任公司 | 用于显示机器人设备动作的虚拟表示的增强现实的方法和系统 |
CN107567610A (zh) * | 2015-04-27 | 2018-01-09 | 微软技术许可有限责任公司 | 附连控制元素的混合环境显示 |
US10449673B2 (en) | 2015-04-27 | 2019-10-22 | Microsoft Technology Licensing, Llc | Enhanced configuration and control of robots |
CN107567610B (zh) * | 2015-04-27 | 2021-03-19 | 微软技术许可有限责任公司 | 附连控制元素的混合环境显示 |
US10007413B2 (en) | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
US10099382B2 (en) | 2015-04-27 | 2018-10-16 | Microsoft Technology Licensing, Llc | Mixed environment display of robotic actions |
US9713871B2 (en) | 2015-04-27 | 2017-07-25 | Microsoft Technology Licensing, Llc | Enhanced configuration and control of robots |
CN105303949B (zh) * | 2015-11-30 | 2018-01-19 | 中国矿业大学 | 一种基于煤矿巷道的机器人视觉实验环境系统 |
CN105303949A (zh) * | 2015-11-30 | 2016-02-03 | 中国矿业大学 | 一种基于煤矿巷道的机器人视觉实验环境系统 |
CN105975232A (zh) * | 2016-05-06 | 2016-09-28 | 深圳市吾悦科技有限公司 | 增强现实实时交互系统及方法 |
CN106182020A (zh) * | 2016-07-13 | 2016-12-07 | 上海航天控制技术研究所 | 一种基于同步机器人的机器人操作示教系统及方法 |
CN107643820B (zh) * | 2016-07-20 | 2020-11-06 | 郎焘 | Vr被动型机器人及其实现方法 |
CN107643820A (zh) * | 2016-07-20 | 2018-01-30 | 郎焘 | Vr被动型机器人及其实现方法 |
CN106527177A (zh) * | 2016-10-26 | 2017-03-22 | 北京控制工程研究所 | 一种多功能一站式遥操作控制设计与仿真系统及方法 |
CN106791789A (zh) * | 2016-11-28 | 2017-05-31 | 深圳哈乐派科技有限公司 | 一种3d影像展示方法及一种机器人 |
CN106855919A (zh) * | 2016-12-22 | 2017-06-16 | 广东清立方科技有限公司 | 一种手术影像采集管理方法及一种手术影像采集装置 |
CN106853638A (zh) * | 2016-12-30 | 2017-06-16 | 深圳大学 | 一种基于增强现实的人体生物信号远程控制系统及方法 |
CN107229343A (zh) * | 2017-07-01 | 2017-10-03 | 庄树新 | 一种基于vr操作的锂离子电池涂布设备的构建方法 |
CN107261490A (zh) * | 2017-07-06 | 2017-10-20 | 腾讯科技(深圳)有限公司 | 实现智能玩具互动的方法、客户端及智能玩具 |
CN107656505A (zh) * | 2017-08-21 | 2018-02-02 | 杭州太若科技有限公司 | 使用增强现实设备控制人机协作的方法、装置和系统 |
CN111448568B (zh) * | 2017-09-29 | 2023-11-14 | 苹果公司 | 基于环境的应用演示 |
CN111448568A (zh) * | 2017-09-29 | 2020-07-24 | 苹果公司 | 基于环境的应用演示 |
CN107911687B (zh) * | 2017-12-11 | 2020-04-10 | 中国科学院长春光学精密机械与物理研究所 | 基于双目立体视觉的机器人遥操作辅助系统 |
CN107911687A (zh) * | 2017-12-11 | 2018-04-13 | 中国科学院长春光学精密机械与物理研究所 | 基于双目立体视觉的机器人遥操作辅助系统 |
CN108063825B (zh) * | 2017-12-26 | 2020-11-20 | 三星电子(中国)研发中心 | 一种远程协助方法 |
CN108063825A (zh) * | 2017-12-26 | 2018-05-22 | 三星电子(中国)研发中心 | 一种远程协助方法 |
CN108687771B (zh) * | 2018-05-07 | 2020-06-23 | 浙江理工大学 | 一种基于v-rep平台的trs机器人自动操控方法 |
CN108687771A (zh) * | 2018-05-07 | 2018-10-23 | 浙江理工大学 | 一种基于v-rep平台的trs机器人自动操控方法 |
CN108762112A (zh) * | 2018-06-12 | 2018-11-06 | 哈尔滨理工大学 | 一种基于虚拟现实的工业机器人仿真与实时控制系统 |
CN109101942B (zh) * | 2018-08-27 | 2021-06-04 | 苏州健雄职业技术学院 | 一种智能现实互动交流传递机器人表情模拟方法及系统 |
CN109101942A (zh) * | 2018-08-27 | 2018-12-28 | 苏州健雄职业技术学院 | 一种智能现实互动交流传递机器人表情模拟方法及系统 |
CN110047148A (zh) * | 2019-04-10 | 2019-07-23 | 珠海梅西互动技术有限公司 | 一种虚拟机器人工作站的仿真互动可视化系统及实现方法 |
CN110047148B (zh) * | 2019-04-10 | 2024-01-26 | 珠海惠中智能技术有限公司 | 一种虚拟机器人工作站的仿真互动可视化系统及实现方法 |
CN110134247A (zh) * | 2019-05-24 | 2019-08-16 | 威海海洋职业学院 | 一种基于vr的船舶运动姿态增强现实互动系统及方法 |
CN110287616A (zh) * | 2019-06-28 | 2019-09-27 | 中国科学院空间应用工程与技术中心 | 一种沉浸式空间微重力流体遥科学实验平行系统及方法 |
CN110287616B (zh) * | 2019-06-28 | 2023-11-17 | 中国科学院空间应用工程与技术中心 | 一种沉浸式空间微重力流体遥科学实验平行系统及方法 |
CN111383348A (zh) * | 2020-03-17 | 2020-07-07 | 北京理工大学 | 一种虚拟现实远程同步控制机器人的方法 |
CN111300430A (zh) * | 2020-03-27 | 2020-06-19 | 梅其珍 | 双模协作机器人控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101794349B (zh) | 2012-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101794349B (zh) | 机器人遥操作增强现实实验系统及方法 | |
CN112771539B (zh) | 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用 | |
US20220207849A1 (en) | Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications | |
Zollmann et al. | Augmented reality for construction site monitoring and documentation | |
CN109298629B (zh) | 在未绘制地图区域中引导移动平台的系统及方法 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN109084746A (zh) | 用于具有辅助传感器的自主平台引导系统的单目模式 | |
US8823855B2 (en) | User equipment and method for providing augmented reality (AR) service | |
CN103680291B (zh) | 基于天花板视觉的同步定位与地图绘制的方法 | |
JP4234343B2 (ja) | グラフィカル・モデルを用いた三次元物体の動的な視覚的位置合せ | |
CN110458897B (zh) | 多摄像头自动标定方法及系统、监控方法及系统 | |
EP2919093A1 (en) | Method, system, and computer for identifying object in augmented reality | |
WO2018191091A1 (en) | Identifying a position of a marker in an environment | |
CN104781849A (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
CN107357427A (zh) | 一种用于虚拟现实设备的手势识别控制方法 | |
Zollmann et al. | Interactive 4D overview and detail visualization in augmented reality | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
WO2018019272A1 (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN111753696A (zh) | 一种感知场景信息的方法、仿真装置、机器人 | |
Xin et al. | 3D augmented reality teleoperated robot system based on dual vision | |
Shalaby et al. | Algorithms and applications of structure from motion (SFM): A survey | |
Afif et al. | Orientation control for indoor virtual landmarks based on hybrid-based markerless augmented reality | |
CN112419482A (zh) | 深度点云融合的矿井液压支架群位姿三维重建方法 | |
CN107993247A (zh) | 追踪定位方法、系统、介质和计算设备 | |
Noreikis et al. | SnapTask: Towards efficient visual crowdsourcing for indoor mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120829 Termination date: 20130209 |