CN111300426B - 一种高智能人型机器人感测头的控制系统 - Google Patents
一种高智能人型机器人感测头的控制系统 Download PDFInfo
- Publication number
- CN111300426B CN111300426B CN202010197495.7A CN202010197495A CN111300426B CN 111300426 B CN111300426 B CN 111300426B CN 202010197495 A CN202010197495 A CN 202010197495A CN 111300426 B CN111300426 B CN 111300426B
- Authority
- CN
- China
- Prior art keywords
- detection result
- wide
- unit
- image detection
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明涉及一种智能机器人领域,尤其涉及一种高智能人型机器人感测头的控制系统。包括:一感测头设备,设置在所述高智能人型机器人的头部,包括:一激光传感模块;一宽基线模块;一窄基线模块;一广角模块;一处理设备,所述处理设备设置在所述高智能人型机器人上并分别与所述感测头设备、所述高智能人型机器人的四肢连接,用于接收所述距离检测结果、所述前方图像检测结果、所述下方图像检测结果和所述全景图像检测结果,构建所述高智能人型机器人的环境模型并生成一控制所述四肢运动的控制指令。上述技术方案的有益效果是:避免高智能人型机器人的感测头出现死角,减少环境成像模型与真实环境之间的误差,提高高智能人型机器人的操作准确性。
Description
技术领域
本发明涉及一种智能机器人领域,尤其涉及一种高智能人型机器人感测头的控制系统。
背景技术
目前的高智能人型机器人的感测头做的都比较粗糙,无法兼顾到激光检测和图像检测,更无法在图像检测领域兼顾宽基线、窄基线以及广角镜头等多个不同的图像检测方式,这样使得高智能人型机器人的感测头以及感测处理机制存在死角,无法契合真实情况,从而使得高智能人型机器人后续的计算和处理结果产生偏差。
发明内容
为解决上述的现有问题,现提供一种高智能人型机器人感测头的控制系统,其特征在于,所述控制系统中包括:
一激光传感模块,用于进行距离检测,得到距离检测结果并输出;
一宽基线模块,用于进行前方图像检测,得到前方图像检测结果并输出;
一窄基线模块,用于进行下方图像检测,得到下方图像检测结果并输出;
一广角模块,用于进行全景图像检测,得到全景图像检测结果并输出;
一定位设备,用于获取机器人的实时姿态与位置信息;
一处理设备,所述处理设备设置在所述高智能人型机器人上并分别与所述感测头设备、所述高智能人型机器人的四肢连接,用于接收所述距离检测结果、所述前方图像检测结果、所述下方图像检测结果和所述全景图像检测结果,构建所述高智能人型机器人的环境模型并生成一控制所述四肢运动的控制指令;
一供电设备,用于所述高智能人型机器人感测头的供电。
所述激光传感模块中包括:
多个激光单元,分别设置在所述头部的两侧上,用于进行距离检测,得到距离检测结果并输出;
激光处理单元,分别与所述处理设备、所有所述激光单元连接,用于根据所述处理设备控制所有所述激光单元,并且将所述距离检测结果输出至所述处理设备;
所述激光单元中包括第一激光单元和第二激光单元,两个所述激光单元均包括雷达和驱动雷达的编码器;
所述第一激光单元设置在头部的左侧上,通过左侧的雷达旋转能够得到左侧距离检测结果;
所述第二激光单元设置在头部的右侧上,通过右侧的雷达旋转能够得到右侧距离检测结果;
所述激光处理单元通过一传输线路与所述处理设备连接,用于根据所述处理设备控制所述第一激光单元和所述第二激光单元,并且将所述左侧距离检测结果和所述右侧距离检测结果包括在所述距离检测结果中输出至所述处理设备;
所述宽基线模块中包括:
多个宽基线相机单元,分别在所述头部的两侧设置,用于进行前方图像检测,得到前方图像检测结果并输出;
宽基线图像处理单元,分别与所述处理设备、所有所述宽基线相机单元连接,用于根据所述处理设备控制所有所述宽基线相机单元,并且将所述前方图像检测结果输出至所述处理设备;
所述窄基线模块中包括:
多个窄基线相机单元,分别设置在所述头部的两侧上,用于进行下方图像检测,得到下方图像检测结果并输出;
窄基线图像处理单元,分别与所述处理设备和所有所述窄基线相机单元连接,用于根据所述处理设备控制所述窄基线相机单元,并且将所述下方图像检测结果输出至所述处理设备;
所述广角模块中包括:
多个广角相机单元,分别设置在所述头部的两侧上,用于进行全景图像检测,得到全景图像检测结果并输出;
广角图像处理单元,分别与所述处理设备、所有所述广角相机单元连接,用于根据所述处理设备控制所述广角相机单元,并且将所述全景图像检测结果输出至所述处理设备;
所述广角图像处理单元上设置多个插拔端口,用于连接所述广角相机单元和所述广角图像处理单元。
优选的,所述宽基线模块中包括多个第一照明单元,所述窄基线模块中包括多个第二照明单元。
优选的,所述供电设备中包括:
一第一配电单元,所述第一配电单元分别与感测头设备连接,用于分别向所述激光传感模块、所述宽基线模块、所述窄基线模块和所述广角模块供电;
一第二配电单元,所述第二配电单元分别与所述第一照明单元和所述第二照明单元连接,用于分别向所述第一照明单元和所述第二照明单元供电。
优选的,所述定位设备中包括:
第一测量单元,用于获取所述高智能人型机器人的位置信息;
第二测量单元,用于获取所述高智能人型机器人在三轴加速计中的坐标信息;
所述处理设备与所述定位设备连接,用于根据所述位置信息和所述坐标信息,修正所述环境模型和所述控制指令。
上述技术方案的有益效果是:避免高智能人型机器人的感测头出现死角,减少环境成像模型与真实环境之间的误差,提高高智能人型机器人的操作准确性。
附图说明
图1是本发明中的一种优选实施例的激光传感模块的结构示意图;
图2是本发明中的一种优选实施例的宽基线模块的结构示意图;
图3是本发明中的一种优选实施例的窄基线模块的结构示意图;
图4是本发明中的一种优选实施例的广角模块的结构示意图;
图5是本发明中的一种优选实施例的处理设备的结构示意图;
图6是本发明中的一种优选实施例的供电设备的结构示意图;
图7是本发明中的一种优选实施例的定位设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
一种高智能人型机器人感测头的控制系统,控制系统中包括:
一感测头设备,设置在高智能人型机器人的头部,包括:
一激光传感模块1,用于进行距离检测,得到距离检测结果并输出;
一宽基线模块2,用于进行前方图像检测,得到前方图像检测结果并输出;
一窄基线模块3,用于进行下方图像检测,得到下方图像检测结果并输出;
一广角模块4,用于进行全景图像检测,得到全景图像检测结果并输出;一处理设备5,处理设备5设置在高智能人型机器人上并分别与感测头设备、高智能人型机器人的四肢连接,用于接收距离检测结果、前方图像检测结果、下方图像检测结果和全景图像检测结果,构建高智能人型机器人的环境模型并生成一控制四肢运动的控制指令。
具体地,在实际的操作控制中,如果机器人的环境较为复杂,并且此时的感测头设备存在视线死角,会影响到高智能人型机器人的具体操作,由此设置一感测头设备,用于无死角的感测高智能人型机器人的周围环境。感测头设备中包括:
激光传感模块1,通过控制雷达旋转实现距离检测,从而获取距离检测结果,以作为深度信息构建环境模型;
宽基线模块2,其中配置广阔的视野和基线,进行前方图像检测,能够获取前方图像检测结果,不仅能够用于构建环境模型,还能用于障碍物检测;
窄基线模块3,其中配置狭窄的视野和基线,进行前方图像检测,能够获取下方图像检测结果,不仅能够用于构建环境模型,还能用于机器人的四肢运动检测;
广角模块4,其中选用鱼眼相机,能够进行全景图像检测,得到全景图像检测结果,以此构建环境模型。
进一步地,处理设备5构建环境模型,不仅能够让操作人员明确当前的机器人所处的准确环境,还能对机器人进行精确控制。
本发明的一种较优实施例中,激光传感模块1,如图1所示,中包括:
多个激光单元11,分别设置在头部的两侧上,用于进行距离检测,得到距离检测结果并输出;
激光处理单元12,分别与处理设备5、所有激光单元11连接,用于根据处理设备5控制所有激光单元11,并且将距离检测结果输出至处理设备5。
具体地,激光单元11中包括第一激光单元111和第二激光单元112,两个激光单元均包括雷达113和驱动雷达的编码器114,第一激光单元111设置在头部的左侧上,通过左侧的雷达113旋转能够得到左侧距离检测结果;第二激光单元112设置在头部的右侧上,通过右侧的雷达113旋转能够得到右侧距离检测结果;激光处理单元12通过传输线路01与处理设备5连接,用于根据处理设备5控制第一激光单元111和第二激光单元112,并且将左侧距离检测结果和右侧距离检测结果包括在距离检测结果中输出至处理设备5。
本发明的一种较优实施例中,如图2所示,宽基线模块2中包括:
多个宽基线相机单元21,分别设置在头部的两侧上,用于进行前方图像检测,得到前方图像检测结果并输出;
宽基线图像处理单元22,分别与处理设备5、所有宽基线相机单元21连接,用于根据处理设备5控制所有宽基线相机单元21,并且将前方图像检测结果输出至处理设备5
具体地,宽基线相机单元21中包括第一相机单元211和第二相机单元212,其中的第一相机单元211设置在头部的左侧上,用于得到左前方图像检测结果;其中的第二相机单元212设置在头部的右侧上,用于得到右前方图像检测结果;宽基线图像处理单元22通过传输线路02与处理设备5连接,用于根据处理设备5控制第一相机单元211和第二相机单元212,并且将左前方图像检测结果和右前方图像检测结果包括在前方图像检测结果中输出至处理设备5。
本发明的一种较优实施例中,如图3所示,窄基线模块3中包括:
多个窄基线相机单元31,分别设置在头部的两侧上,用于进行下方图像检测,得到下方图像检测结果并输出;
窄基线图像处理单元32,分别与处理设备5和所有窄基线相机单元31连接,用于根据处理设备5控制窄基线相机单元31,并且将下方图像检测结果输出至处理设备5。
具体地,窄基线相机单元31中包括第三相机单元311和第四相机单元312,其中的第三相机单元311设置在头部的左侧上,用于得到左下方图像检测结果;其中的第四相机单元312设置在头部的右侧上,用于得到右下方图像检测结果;窄基线图像处理单元32通过传输线路03与处理设备5连接,用于根据处理设备5控制第三相机单元311和第四相机单元312,并且将左下方图像检测结果和右下方图像检测结果包括在下方图像检测结果中输出至处理设备5。
进一步地,在高智能人型机器人在控制过程中,会出现控制机器人操纵手爪抓取物件并带动物件移动、控制机器人向上攀爬等操作,因此设置窄基线模块3能够近距离获取此时的机器人的操作信息,以对处理设备5生成的控制指令进行修正。
本发明的一种较优实施例中,如图4所示,广角模块4中包括:
多个广角相机单元41,分别设置在头部的两侧上,用于进行全景图像检测,得到全景图像检测结果并输出;
广角图像处理单元42,分别与处理设备5、所有广角相机单元41连接,用于根据处理设备5控制广角相机单元41,并且将全景图像检测结果输出至处理设备5。
具体地,广角相机单元41中包括第一广角单元411和第一广角单元411,两个广角单元均为鱼眼相机,其中的第一广角单元411设置在头部的前方,用于得到前方全景图像检测结果;其中的第一广角单元411设置在头部的后方,用于得到后方全景图像检测结果;广角图像处理单元42通过传输线路04与处理设备5连接,用于根据处理设备5控制第一广角单元411和第一广角单元411,并且将前方全景图像检测结果和后方全景图像检测结果包括在全景图像检测结果中输出至处理设备5。
本发明的一种较优实施例中,广角图像处理单元42上设置多个插拔端口,用于连接广角相机单元41和广角图像处理单元42。
具体地,此处的插拔端口可为USB3.0传输端口,在操作人员需要获取全景图像时,将广角相机单元41插入插拔端口,开启广角相机单元41,即可通过广角相机单元41获取全景图像检测结果。
进一步地,广角模块4中还包括驱动盘槽43和驱动盘44,操作人员通过访问广角图像处理单元42获取全景图像检测结果,为增强数据的保密性,防止全景图像遭到恶意访问和篡改,广角图像处理单元42设置访问权限,驱动盘中保存访问者的信息和访问次数,以供操作人员查看分析。
进一步地,处理设备5,如图5所示,与激光传感模块1、宽基线模块2、窄基线模块3、广角模块4连接,根据构建环境模型,不仅能够让操作人员明确当前的机器人所处的准确环境,还能对机器人进行精确控制。
本发明的一种较优实施例中,如图6所示,控制系统中还包括一供电设备6,供电设备6中包括:
一第一配电单元61,第一配电单元61分别与感测头设备连接,用于分别向激光传感模块1、宽基线模块2、窄基线模块3和广角模块4供电。
具体地,在实际操作中需要向感测头设备供电,以实现感测头设备的正常工作,由此设置一供电设备6,供电设备6中包括的第一配电单元61和配电控制单元63,第一配电单元61通过供电线路PPS1与激光传感模块1连接,第一配电单元61通过供电线路PPS2与宽基线模块2中的宽基线图像处理单元22连接,第一配电单元61通过供电线路PPS3与窄基线模块3中的窄基线图像处理单元32连接,第一配电单元61通过供电线路PPS4与广角模块4中的广角图像处理单元42连接,以实现供电功能。
本发明的一种较优实施例中,宽基线模块2中包括多个第一照明单元,窄基线模块3中包括多个第二照明单元;
供电设备6中还包括:
一第二配电单元62,第二配电单元62分别与第一照明单元和第二照明单元连接,用于分别向第一照明单元和第二照明单元供电。
具体地,宽基线模块2和窄基线模块3中均设置照明单元,为宽基线相机单元21、宽基线相机单元21照明,以避免因环境过于昏暗而导致的图像误差,由此设置于供电设备6中设置一第二配电单元62,第一照明单元包括设置在左侧的第一照明单元213和设置在右侧的第一照明单元214,第二配电单元62通过供电线路PWM1与第一照明单元213连接,通过供电线路PWM2与第一照明单元214连接,第二照明单元包括设置在左侧的第二照明单元313和设置在右侧的第二照明单元314,第二配电单元62通过供电线路PWM3与第二照明单元313连接,第二配电单元62通过供电线路PWM4与第二照明单元314连接,以实现供电。
本发明的一种较优实施例中,如图7所示,控制系统中还包括一定位设备7,定位设备7中包括:
第一测量单元71,用于获取高智能人型机器人的位置信息;
第二测量单元72,用于获取高智能人型机器人在三轴加速计中的坐标信息。
处理设备5与定位设备7连接,用于根据位置信息和坐标信息,修正环境模型和控制指令。
具体地,考虑到高智能人型机器人的当前位置会影响到对环境模型的构建,采用一GPS天线作为第一测量单元71,获取高智能人型机器人的位置信息,采用一定位惯性测量单元作为第二测量单元72,获取高智能人型机器人在三轴加速计中的坐标信息,由此,定位设备7获取高智能人型机器人的当前的位置状态信息,通过感测头设备构建高智能人型机器人的环境模型,而位置状态信息则是在环境模型中高智能人型机器人的具体位置,通过当前的位置状态信息,可修正构建的机器人的环境模型,以便于操作人员能够更精确地控制高智能人型机器人。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (4)
1.一种高智能人型机器人感测头的控制系统,其特征在于,所述控制系统中包括:
一感测头设备,设置在所述高智能人型机器人的头部,包括:
一激光传感模块,用于进行距离检测,得到距离检测结果并输出;
一宽基线模块,用于进行前方图像检测,得到前方图像检测结果并输出;
一窄基线模块,用于进行下方图像检测,得到下方图像检测结果并输出;
一广角模块,用于进行全景图像检测,得到全景图像检测结果并输出;
一定位设备,用于获取机器人的坐标与位置信息;
一处理设备,所述处理设备设置在所述高智能人型机器人上并分别与所述感测头设备、所述高智能人型机器人的四肢连接,用于接收所述距离检测结果、所述前方图像检测结果、所述下方图像检测结果和所述全景图像检测结果,构建所述高智能人型机器人的环境模型并生成一控制所述四肢运动的控制指令;
一供电设备,用于所述高智能人型机器人感测头的供电;
所述激光传感模块中包括:
两个激光单元,分别设置在所述头部的两侧上,用于进行距离检测,得到距离检测结果并输出;
激光处理单元,分别与所述处理设备、所有所述激光单元连接,用于根据所述处理设备控制所有所述激光单元,并且将所述距离检测结果输出至所述处理设备;
所述两个激光单元包括第一激光单元和第二激光单元,两个所述激光单元均包括雷达和驱动雷达的编码器;
所述第一激光单元设置在头部的左侧上,通过左侧的雷达旋转能够得到左侧距离检测结果;
所述第二激光单元设置在头部的右侧上,通过右侧的雷达旋转能够得到右侧距离检测结果;
所述激光处理单元通过一传输线路与所述处理设备连接,用于根据所述处理设备控制所述第一激光单元和所述第二激光单元,并且将所述左侧距离检测结果和所述右侧距离检测结果包括在所述距离检测结果中输出至所述处理设备;
所述宽基线模块中包括:
多个宽基线相机单元,分别在所述头部的左右设置,用于进行前方图像检测,得到前方图像检测结果并输出;
宽基线图像处理单元,分别与所述处理设备、所有所述宽基线相机单元连接,用于根据所述处理设备控制所有所述宽基线相机单元,并且将所述前方图像检测结果输出至所述处理设备;
所述窄基线模块中包括:
多个窄基线相机单元,分别设置在所述头部的两侧上,用于进行下方图像检测,得到下方图像检测结果并输出;
窄基线图像处理单元,分别与所述处理设备和所有所述窄基线相机单元连接,用于根据所述处理设备控制所述窄基线相机单元,并且将所述下方图像检测结果输出至所述处理设备;
所述广角模块中包括:
多个广角相机单元,分别设置在所述头部的两侧上,用于进行全景图像检测,得到全景图像检测结果并输出;
广角图像处理单元,分别与所述处理设备、所有所述广角相机单元连接,用于根据所述处理设备控制所述广角相机单元,并且将所述全景图像检测结果输出至所述处理设备;
所述广角图像处理单元上设置多个插拔端口,用于连接所述广角相机单元和所述广角图像处理单元。
2.根据权利要求1所述的一种高智能人型机器人感测头的控制系统,其特征在于,所述宽基线模块中包括多个第一照明单元,所述窄基线模块中包括多个第二照明单元。
3.根据权利要求2所述的一种高智能人型机器人感测头的控制系统,其特征在于,所述供电设备中包括:
一第一配电单元,所述第一配电单元分别与感测头设备连接,用于分别向所述激光传感模块、所述宽基线模块、所述窄基线模块和所述广角模块供电;
一第二配电单元,所述第二配电单元分别与所述第一照明单元和所述第二照明单元连接,用于分别向所述第一照明单元和所述第二照明单元供电。
4.根据权利要求1所述的一种高智能人型机器人感测头的控制系统,其特征在于,所述定位设备中包括:
第一测量单元,用于获取所述高智能人型机器人的位置信息;
第二测量单元,用于获取所述高智能人型机器人在三轴加速计中的坐标信息;
所述处理设备与所述定位设备连接,用于根据所述位置信息和所述坐标信息,修正所述环境模型和所述控制指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010197495.7A CN111300426B (zh) | 2020-03-19 | 2020-03-19 | 一种高智能人型机器人感测头的控制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010197495.7A CN111300426B (zh) | 2020-03-19 | 2020-03-19 | 一种高智能人型机器人感测头的控制系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111300426A CN111300426A (zh) | 2020-06-19 |
CN111300426B true CN111300426B (zh) | 2022-05-31 |
Family
ID=71160674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010197495.7A Active CN111300426B (zh) | 2020-03-19 | 2020-03-19 | 一种高智能人型机器人感测头的控制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111300426B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN107803839A (zh) * | 2016-09-09 | 2018-03-16 | 广州零号软件科技有限公司 | 服务机器人720度全景技术应用系统与产品 |
CN207373187U (zh) * | 2017-11-10 | 2018-05-18 | 中新红外科技(武汉)有限公司 | 一种检测机器人 |
CN109151334A (zh) * | 2018-09-21 | 2019-01-04 | 中国计量大学 | 一种无人车相机系统 |
CN110605724A (zh) * | 2019-07-01 | 2019-12-24 | 青岛联合创智科技有限公司 | 一种智能养老陪伴机器人 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200836953A (en) * | 2007-03-07 | 2008-09-16 | shi-xiong Li | Uni-directional signal-transmitting and multi-receiving method of detecting obstacle for use in a parking radar and its device |
US20130054023A1 (en) * | 2011-08-30 | 2013-02-28 | 5D Robotics, Inc. | Asynchronous Data Stream Framework |
CN204009577U (zh) * | 2014-04-14 | 2014-12-10 | 南京师范大学 | 智能小车复合式避障系统 |
CN106054889B (zh) * | 2016-06-28 | 2019-05-10 | 深圳市三宝创新智能有限公司 | 一种机器人自主避障方法和装置 |
-
2020
- 2020-03-19 CN CN202010197495.7A patent/CN111300426B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107803839A (zh) * | 2016-09-09 | 2018-03-16 | 广州零号软件科技有限公司 | 服务机器人720度全景技术应用系统与产品 |
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN207373187U (zh) * | 2017-11-10 | 2018-05-18 | 中新红外科技(武汉)有限公司 | 一种检测机器人 |
CN109151334A (zh) * | 2018-09-21 | 2019-01-04 | 中国计量大学 | 一种无人车相机系统 |
CN110605724A (zh) * | 2019-07-01 | 2019-12-24 | 青岛联合创智科技有限公司 | 一种智能养老陪伴机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN111300426A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101988083B1 (ko) | 가동 타겟 오브젝트의 위치 탐색을 위한 시스템 및 방법 | |
JP6514681B2 (ja) | ロボット用多重知覚ステレオ視のための方法、システム、および装置 | |
CN111486788A (zh) | 缝隙测量系统及测量方法 | |
CN110378968A (zh) | 相机和惯性测量单元相对姿态的标定方法及装置 | |
KR101672732B1 (ko) | 객체 추적 장치 및 방법 | |
WO2020054408A1 (ja) | 制御装置、情報処理方法、およびプログラム | |
Borgmann et al. | Data processing and recording using a versatile multi-sensor vehicle | |
CN109857121A (zh) | 室内巡检移动机器人 | |
Csaba et al. | Differences between Kinect and structured lighting sensor in robot navigation | |
US20230186496A1 (en) | Vision Sensing Device and Method | |
Pfotzer et al. | Development and calibration of KaRoLa, a compact, high-resolution 3D laser scanner | |
CN111300426B (zh) | 一种高智能人型机器人感测头的控制系统 | |
KR101438514B1 (ko) | 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법 | |
JP2016017913A (ja) | 姿勢情報作成システム、姿勢情報作成方法及び姿勢情報作成プログラム | |
CN109660731B (zh) | 电子设备和移动平台 | |
CN109587304B (zh) | 电子设备和移动平台 | |
US20240201371A1 (en) | Three-dimensional ultrasonic imaging method and system based on lidar | |
CN110696003A (zh) | 基于slam技术和深度学习的水边救援机器人 | |
Newman et al. | Embedded mobile ros platform for slam application with rgb-d cameras | |
CN212193168U (zh) | 一种两侧设置激光雷达的机器人头部 | |
Lange et al. | Cost-efficient mono-camera tracking system for a multirotor UAV aimed for hardware-in-the-loop experiments | |
TW202201946A (zh) | 攝影系統及機器人系統 | |
US20220016773A1 (en) | Control apparatus, control method, and program | |
Mosnier et al. | A New Method for Projector Calibration Based on Visual Servoing. | |
Abdulov et al. | Research of visual positioning system for mobile robots remote automatic control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |