CN113110443B - 一种基于摄像头的机器人循迹及定位方法 - Google Patents

一种基于摄像头的机器人循迹及定位方法 Download PDF

Info

Publication number
CN113110443B
CN113110443B CN202110385904.0A CN202110385904A CN113110443B CN 113110443 B CN113110443 B CN 113110443B CN 202110385904 A CN202110385904 A CN 202110385904A CN 113110443 B CN113110443 B CN 113110443B
Authority
CN
China
Prior art keywords
robot
path
image
row
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110385904.0A
Other languages
English (en)
Other versions
CN113110443A (zh
Inventor
丁男
侯立帅
颜繁喆
李洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202110385904.0A priority Critical patent/CN113110443B/zh
Publication of CN113110443A publication Critical patent/CN113110443A/zh
Application granted granted Critical
Publication of CN113110443B publication Critical patent/CN113110443B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于摄像头的机器人循迹及定位方法,属于智能机器人控制技术领域。本发明通过对图像进行二值化、高斯滤波、腐蚀与膨胀等操作,为机器人脱离传感器实现循迹和定位提供了一种策略。本发明所述的基于摄像头的循迹策略降低了对物流机器人工作环境的要求,增强了机器人的环境适应能力,能够准确地获取行进路线,降低了出错率;基于摄像头的定位系统能够实现对机器人的远程监控,能够实时监视其工作状态,一旦出现错误能够及时地发现处理。

Description

一种基于摄像头的机器人循迹及定位方法
技术领域
本发明属于智能机器人控制技术领域,具体涉及一种基于摄像头的机器人循迹及定位方法,通过对图像进行二值化、高斯滤波、腐蚀与膨胀等操作,为机器人脱离传感器实现循迹和定位提供了一种策略。
背景技术
目前随着经济的快速发展,各行各业对智能机器人的数量需求越来越大,对智能机器人“智能”的要求也越来越高。与此同时也产生了许多技术问题急需解决,在多机器人智能仓储领域,如何提高机器人的“智能”水平是一个值得研究的问题,这需要机器人能快速平滑地追寻轨迹,搬运货物,让机器人拥有一双“眼睛”是一个不错的想法。如在物流仓储系统中的搬运机器人,在餐厅上菜的服务员机器人等,都需要一双“眼睛”来看清周围的道路,完成自己的任务。同时,多机器人混合运行的环境下,如何保证多机器人间的合作,以及有效定位及时让人们弄清机器人的运行状态,也是一个需要考虑的问题。
目前主流的只能搬运机器人都是使用单片机作为主控制器,利用多种传感器获取外界信息。姚思嘉等人设计的基于STM32的智能搬运机器人就是使用红外和超声波传感器实现机器人的循迹和定距等功能从而实现对物品的抓取,但这种方法存在的问题就是无法对周围环境做到一个直观的认识,比如当超声波传感器检测到前方有物体时,很难判断这是障碍物还是要抓取的物体,但利用摄像头进行采集图像、处理分析,就能很容易的解决这个问题。
而且单片机的处理能力及运算速度有限,循迹操作需要对采集到的图像做高斯拉普拉斯滤波、腐蚀膨胀时等操作,大量的数据运算会导致时间延迟很大,在机器人高速运转时很难保证即使完成图像处理,指引循迹,进而难以保证时效性,所以本发明引入处理运算能力更强、运算处理速度更高的树莓派来解决这一问题,能实现实时信息传递与处理,保证机器人完成高速平滑的循迹操作。
其次,随着目前的机器人数量需求的激增,单个机器人越来越难以完成一项任务,从而引入了多机器人系统,随之而来的问题就是对多个机器人信息的获取,首先想到的就是对机器人位置信息的获取。目前提出的主流方法有,许垚设计的采用AprilTag二维码作为人工路标进行移动机器人辅助定位。这种方法对机器人的位置信息进行了数值化的处理,不够直观。如果利用摄像头使用颜色识别和形状提取的技术对机器人进行识别特征,进而实现位置信息的获取,这种方法一方面更为直观,另一方面更加容易进行后续的控制。
发明内容
本发明的主要目的是结合智能物流仓储的背景,以Open Cv的图像分析方法为基础,建立一个可以通过摄像头实现单个机器人自动循迹和实时定位的系统。
为了达到上述目的,本发明采用的技术方案为:
一种基于摄像头的机器人循迹及定位方法,包括以下步骤:
第一步,通过机器人头部摄像头获取行进路线
机器人顶部摄像头对前方的路径进行拍照上传给树莓派,将摄像头采集的图像进行滤波、二值化、腐蚀、膨胀等处理获取机器人所处位置的环境灰度图,从灰度图中抓取行走路线,通过算法寻找路径中心,得到下一步的行进方向。
第二步,根据下一步的行进方向,控制机器人执行对应的运动命令
树莓派判断出下一步的行进方向之后通过串口向机器人底盘发送对应运动指令,底盘按照指令中的参数做出响应动作实现循迹。
第三步,通过场景顶部摄像头对系统场景进行提取
在场景的顶部悬吊一台摄像头能够采集到整个场景的图像,然后采用Open Cv中的轮廓提取算法提取场景轮廓并对其进行坐标分划。
第四步,对机器人特征进行识别,对机器人在场景中的位置进行定位
基于树莓派采用Open Cv中的颜色提取算法,对机器人的特征颜色进行提取,然后根据颜色块在图像中的像素位置进行坐标推算,从而得到机器人的实时位置。
第五步:根据机器人实时位置判断其工作状态是否偏离工作路线,进而对相应机器人进行纠错调整,使其回到工作路线。
本发明的有益效果为:本发明实现了通过摄像头实现物流机器人的自动循迹和定位。本发明所述的基于摄像头的循迹策略降低了对物流机器人工作环境的要求,增强了机器人的环境适应能力,能够准确地获取行进路线,降低了出错率;基于摄像头的定位系统能够实现对机器人的远程监控,能够实时监视其工作状态,一旦出现错误能够及时地发现处理。
附图说明
图1是系统设计框图。
图2是机器人物理模型。
图3是机器人循迹工作图。
图4是处理后的路径图像。
图5是前方需向左调整方向的路径图。
图6是前方需向右调整方向的路径图。
图7是机器人工作场景布局平面坐标图。
图8是定位工作场景示意图。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清晰,以下结合本发明的技术方案和附图作进一步详细描述。
一种利用摄像头实现机器人自动循迹及定位的方法,其系统总体框图如图1所示。该方法可分为两个环节,即自动循迹和机器人定位。具体步骤如下:
第一步:机器人通过摄像头获取路径信息
机器人物理模型如图2所示。机器人顶部摄像头对前方的路径进行拍照上传给树莓派背包,将其存储为480*640的图像,其工作模式如图3所示。
首先对采集的图像进行高斯滤波处理以减少图像中色彩尖锐的部分;再通过大律法二值化将图像转化为灰度图,从而得到一个由255和0两个元素组成的像素矩阵;之后将灰度图进行多次腐蚀和膨胀处理,以减少黑色路线中由于反光等原因产生的白色干扰,处理后的图像如图4所示;为了更加精确的判断下一步的行进方向,同时减少图像中其他环境因素的影响,再截取图像中央的一个窗口,计算方式如下:
Figure BDA0003014969420000041
其中,color表示截取窗口的像素矩阵,矩阵中0元素表示白色点,255元素表示黑色点,R表示窗口行数,L表示窗口列数。像素矩阵中的每一行都相当于当前路径的一个微元。
对像素矩阵的第0行和第(R-1)行进行元素遍历,分别记录第一个黑色点所在的列位置并统计黑色点的数目,进行如下计算:
n0=sum(color[0,:]==255
nR-1=sum(color[R-1,:]==255)
Figure BDA0003014969420000051
Figure BDA0003014969420000052
Figure BDA0003014969420000053
其中,n0、nR-1分别是第0行和第(R-1)行黑色点的个数,sum()为求和函数;j0、jR-1分别是第0行和第(R-1)行第一个黑色点所在的列位置;center是截取窗口的中间位置,用来表示机器人当前的朝向,center0、centerR-1分别表示第0行和第(R-1)行路径微元的中心位置。
接下来对路径走向进行判断:
①当满足下式时,前方需向左转向调整,如图5所示:
Figure BDA0003014969420000054
②当满足下式时,前方需向右转向调整,如图6所示:
Figure BDA0003014969420000055
③否则不需要进行转向调整
其中k表示转向调整阈值,即当前方路径中心和机器人当前朝向中心的差值大于k时,表示机器人朝向偏离前方路径方向需要进行转向调整,否则表示机器人朝向未偏离前方路径方向保持直行。当满足情况①,第(R-1)行路径微元中心向左偏离机器人超过k值,同时第0行路径微元中心向右偏离机器人超过k值,表示前方路径向左偏移;同理可得向右偏移的情况如②;否则表示前方路径需直行。
第二步:根据判断出的路径走向,控制机器人执行对应的运动命令
当树莓派通过对图像的分析计算判断出前方路径走向即第一步之后,树莓派向机器人底盘操作系统Arduino发送相应的运动指令,指令格式如下:
move_forward(v,t)
turn_right(v,t)
turn_left(v,t)
其中,move_forward、turn_right、turn_left分别表示直行、右转向调整和左转向调整,v表示行进速度,t表示执行时间。由此,机器人底盘实现根据路径方向改变行进方向的目的,从而实现了循迹运动。
第三步:对机器人在场景中进行定位
3.1通过顶部摄像头将机器人工作环境拍照上传至树莓派,在树莓派中通过编程对图像进行卷积滤波,将BGR图像转换为HSV格式,之后对其二值化,通过Open Cv中的内置函数findContours提取图像中的所有轮廓,从中将机器人的工作路径轮廓提取出来;通过Open Cv的内置函数boundingRect求解出工作路径轮廓的左上角O点坐标(x0,y0)以及工作路径轮廓的长度L和工作路径轮廓的宽度W,并以左上角作为坐标原点建立平面坐标系,场景布局平面坐标图如图7所示(findContours和boundingRect均为Open Cv中的内置函数算法)。
3.2机器人顶部具有颜色标识轮廓,依次遍历步骤3.1中提取出的轮廓,通过左上角坐标、长度和宽度推算出中心位置,将中心位置的色素值与机器人颜色标识像素值s比对,从而确定了代表机器人的轮廓及其中心位置,定位工作场景示意图如图8所示,推算过程如下:
Figure BDA0003014969420000061
Figure BDA0003014969420000062
其中,(x,y)为机器人轮廓左上角坐标,l为机器人轮廓长度,w为机器人轮廓宽度,(Cx,Cy)为轮廓中心点位置。
Figure BDA0003014969420000071
s′=color1[Cx,Cy]
其中,color1为图像的像素矩阵,s′即为轮廓中心点的像素值,将其与机器人颜色标识像素值s比对,若相等即找到了机器人的轮廓即中心位置点M。
之后通过坐标运算得到机器人在工作路径轮廓中的相对位置,表示如下:
Figure BDA0003014969420000072
由此得到了原点和机器人的坐标向量
Figure BDA0003014969420000073
从而实现了机器人定位。
第四步:根据机器人实时位置判断其工作状态是否偏离工作路线,进而对相应机器人进行纠错调整,使其回到工作路线。

Claims (2)

1.一种基于摄像头的机器人循迹及定位方法,其特征在于,该方法包括以下步骤:
第一步:机器人通过摄像头获取路径信息
机器人顶部摄像头对前方的路径进行拍照上传给树莓派,将其存储为480*640的图像;
首先对采集的图像进行高斯滤波处理以减少图像中色彩尖锐的部分;再通过大律法二值化将图像转化为灰度图,从而得到一个由255和0两个元素组成的像素矩阵;之后将灰度图进行多次腐蚀和膨胀处理,以减少黑色路线中由于反光产生的白色干扰;再截取图像中央的一个窗口,计算方式如下:
Figure FDA0003458391600000011
其中,color表示截取窗口的像素矩阵,矩阵中0元素表示白色点,255元素表示黑色点,R表示窗口行数,L表示窗口列数;像素矩阵中的每一行都相当于当前路径的一个微元;
对像素矩阵的第0行和第R-1行进行元素遍历,分别记录第一个黑色点所在的列位置并统计黑色点的数目,进行如下计算:
n0=sum(color[0,:]==255)
nR-1=sum(color[R-1,:]==255)
Figure FDA0003458391600000012
Figure FDA0003458391600000013
Figure FDA0003458391600000014
其中,n0、nR-1分别是第0行和第R-1行黑色点的个数,sum()为求和函数;j0、jR-1分别是第0行和第R-1行第一个黑色点所在的列位置;center是截取窗口的中间位置,用来表示机器人当前的朝向,center0、centerR-1分别表示第0行和第R-1行路径微元的中心位置;
接下来对路径走向进行判断:
①当满足下式时,前方需向左转向调整:
Figure FDA0003458391600000021
②当满足下式时,前方需向右转向调整:
Figure FDA0003458391600000022
③否则不需要进行转向调整
其中,k表示转向调整阈值,即当前方路径中心和机器人当前朝向中心的差值大于k时,表示机器人朝向偏离前方路径方向需要进行转向调整,否则表示机器人朝向未偏离前方路径方向保持直行;当满足情况①,第R-1行路径微元中心向左偏离机器人超过k值,同时第0行路径微元中心向右偏离机器人超过k值,表示前方路径向左偏移;同理向右偏移的情况如②;否则表示前方路径需直行;
第二步:根据判断出的路径走向,控制机器人执行对应的运动命令
当树莓派通过对图像的分析计算判断出前方路径走向之后,树莓派向机器人底盘发送相应的运动指令,机器人底盘按照运动指令中的参数做出响应动作,实现根据路径方向改变行进方向的目的,从而实现了循迹运动;
第三步:对机器人在场景中进行定位
3.1通过顶部摄像头将机器人工作环境拍照上传至树莓派,对图像进行卷积滤波,将BGR图像转换为HSV格式,之后对其二值化,通过Open Cv中的内置函数findContours提取图像中的所有轮廓,从中将机器人的工作路径轮廓提取出来;通过Open Cv的内置函数boundingRect求解出工作路径轮廓的左上角O点坐标(x0,y0)以及工作路径轮廓的长度L和工作路径轮廓的宽度W,并以左上角作为坐标原点建立平面坐标系;
3.2机器人顶部具有颜色标识轮廓,依次遍历步骤3.1中提取出的轮廓,通过左上角坐标、长度和宽度推算出中心位置,将中心位置的像素值与机器人颜色标识像素值s比对,从而确定了代表机器人的轮廓及其中心位置,推算过程如下:
Figure FDA0003458391600000031
Figure FDA0003458391600000032
其中,(x,y)为机器人轮廓左上角坐标,l为机器人轮廓长度,w为机器人轮廓宽度,(Cx,Cy)为轮廓中心点位置;
Figure FDA0003458391600000033
s′=color1[Cx,Cy]
其中,color1为图像的像素矩阵,s′即为轮廓中心点的像素值,将其与机器人颜色标识像素值s比对,若相等即找到了机器人的轮廓即中心位置点M;
之后通过坐标运算得到机器人在工作路径轮廓中的相对位置,表示如下:
Figure FDA0003458391600000034
由此得到了原点和机器人的坐标向量
Figure FDA0003458391600000035
从而实现了机器人定位;
第四步:根据机器人实时位置判断其工作状态是否偏离工作路线,进而对相应机器人进行纠错调整,使其回到工作路线。
2.根据权利要求1所述的一种基于摄像头的机器人循迹及定位方法,其特征在于,所述第二步中,运动指令格式如下:
move_forward(v,t)
turn_right(v,t)
turn_left(v,t)
其中,move_forward、turn_right、turn_left分别表示直行、右转向调整和左转向调整,v表示行进速度,t表示执行时间。
CN202110385904.0A 2021-04-12 2021-04-12 一种基于摄像头的机器人循迹及定位方法 Expired - Fee Related CN113110443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110385904.0A CN113110443B (zh) 2021-04-12 2021-04-12 一种基于摄像头的机器人循迹及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110385904.0A CN113110443B (zh) 2021-04-12 2021-04-12 一种基于摄像头的机器人循迹及定位方法

Publications (2)

Publication Number Publication Date
CN113110443A CN113110443A (zh) 2021-07-13
CN113110443B true CN113110443B (zh) 2022-04-12

Family

ID=76716045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110385904.0A Expired - Fee Related CN113110443B (zh) 2021-04-12 2021-04-12 一种基于摄像头的机器人循迹及定位方法

Country Status (1)

Country Link
CN (1) CN113110443B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114128461A (zh) * 2021-10-27 2022-03-04 江汉大学 穴盘育苗移栽机器人的控制方法及穴盘育苗移栽机器人
CN114200927A (zh) * 2021-11-12 2022-03-18 北京时代富臣智能科技有限公司 一种物流机器人系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226354A (zh) * 2013-02-27 2013-07-31 广东工业大学 基于光电导航的无人驾驶道路识别系统
CN104123535A (zh) * 2014-07-01 2014-10-29 北京联合大学 一种基于道路矫正的单目视觉机器人快速循迹的方法
CN207164584U (zh) * 2017-07-17 2018-03-30 西南交通大学 用于agv小车的全自动无人运行系统
DE102017126378A1 (de) * 2017-11-10 2019-05-16 Infineon Technologies Ag Verfahren zum Verarbeiten eines Rohbildes einer Time-of-Flight-Kamera, Bildverarbeitungsvorrichtung und Computerprogramm
CN211324756U (zh) * 2019-08-26 2020-08-25 西安工程大学 一种智能清扫机器人
CN212736032U (zh) * 2020-07-28 2021-03-19 南昌航空大学 防疫小助手智能机器人

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834309B (zh) * 2015-04-10 2018-08-21 浙江工业大学 基于目标跟踪控制策略的单移动机器人最优巡回控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226354A (zh) * 2013-02-27 2013-07-31 广东工业大学 基于光电导航的无人驾驶道路识别系统
CN104123535A (zh) * 2014-07-01 2014-10-29 北京联合大学 一种基于道路矫正的单目视觉机器人快速循迹的方法
CN207164584U (zh) * 2017-07-17 2018-03-30 西南交通大学 用于agv小车的全自动无人运行系统
DE102017126378A1 (de) * 2017-11-10 2019-05-16 Infineon Technologies Ag Verfahren zum Verarbeiten eines Rohbildes einer Time-of-Flight-Kamera, Bildverarbeitungsvorrichtung und Computerprogramm
CN211324756U (zh) * 2019-08-26 2020-08-25 西安工程大学 一种智能清扫机器人
CN212736032U (zh) * 2020-07-28 2021-03-19 南昌航空大学 防疫小助手智能机器人

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"农用机器人运动控制系统";张博等;《农业装备》;20190330;第351卷(第3期);全文 *
"基于ROS系统的摄像头循迹小车设计";王昊等;《信息技术与信息化》;20190228;全文 *
"基于树莓派的自动跟随行李箱";陈茜茹等;《自动化控制》;20190704;全文 *

Also Published As

Publication number Publication date
CN113110443A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN108280856B (zh) 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN110948492B (zh) 一种基于深度学习的三维抓取平台和抓取方法
US11741701B2 (en) Autonomous task performance based on visual embeddings
CN113110443B (zh) 一种基于摄像头的机器人循迹及定位方法
CN110084243B (zh) 一种基于二维码和单目相机的档案识别与定位方法
CN111199556A (zh) 基于摄像头的室内行人检测和跟踪方法
CN111445497B (zh) 一种基于尺度上下文回归的目标追踪与跟随方法
Zhang et al. Skeleton-RGB integrated highly similar human action prediction in human–robot collaborative assembly
Gong et al. Tracking and grasping of moving target based on accelerated geometric particle filter on colored image
Ismail et al. Vision-based system for line following mobile robot
Ma’arif et al. Vision-based line following robot in webots
CN115861780B (zh) 一种基于yolo-ggcnn的机械臂检测抓取方法
CN107437071B (zh) 一种基于双黄线检测的机器人自主巡检方法
CN114495109A (zh) 基于目标与场景文字匹配的抓取机器人及抓取方法和系统
CN114137984A (zh) 一种模块化传输平台及其控制方法和路径规划方法
CN117381793A (zh) 一种基于深度学习的物料智能检测视觉系统
CN112902981A (zh) 机器人导航方法和装置
CN116423520A (zh) 一种基于视觉和动态运动基元的机械臂轨迹规划方法
Kishor et al. Lane Detection for Autonomous Vehicles with Canny Edge Detection and General Filter Convolutional Neural Network
Shah et al. Comparing Traditional Computer Vision Algorithms and Deep Convolutional Neural Networks as Self Driving Algorithms for Use in Dynamic Conditions
Kuprešak et al. Solution for autonomous vehicle parking
Zhang et al. Research on Moving Arm Grasping Based on Computer Vision
Xin et al. Real-time dynamic system to path tracking and collision avoidance for redundant robotic arms
Chiu et al. Design of and research on the robot arm recovery grasping system based on machine vision
Zaidi et al. Lane Detection in Autonomous Driving: A Comprehensive Survey of Methods and Performance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220412

CF01 Termination of patent right due to non-payment of annual fee