CN103743394A - 一种基于光流的移动机器人避障方法 - Google Patents

一种基于光流的移动机器人避障方法 Download PDF

Info

Publication number
CN103743394A
CN103743394A CN201410006655.XA CN201410006655A CN103743394A CN 103743394 A CN103743394 A CN 103743394A CN 201410006655 A CN201410006655 A CN 201410006655A CN 103743394 A CN103743394 A CN 103743394A
Authority
CN
China
Prior art keywords
region
robot
row
ttc
represent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410006655.XA
Other languages
English (en)
Inventor
于乃功
徐丽
阮晓钢
陈焕朝
王琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410006655.XA priority Critical patent/CN103743394A/zh
Publication of CN103743394A publication Critical patent/CN103743394A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种基于光流的移动机器人避障方法,属于机器人导航避障应用技术领域;其特征在于根据机器人上的单目摄像头,获取图像序列,计算前后两帧图像的光流。当光流幅值超过阈值时,从光流中计算出TTC。并根据TTC构建1×N的障碍地图OM(obstacle map);然后设置阈值τ提取障碍地图元素值小于τ的连续列作为候选的安全区域。对每一区域计算其权重,取权重最大的区域作为最佳区域,计算其局部形心作为最佳前进方向;最后根据最佳前进方向控制机器人转向此方向,从而避开障碍物。本发明能使机器人在未知、复杂、充满障碍物的环境中分析障碍物的分布,并选择最安全的方向行走,能用于实时的机器人避障。

Description

一种基于光流的移动机器人避障方法
技术领域
本发明涉及一种单目视觉的基于光流的移动机器人避障方法,属于机器人导航避障应用技术领域。
背景技术
移动机器人是具有感知、思维和行动功能的机器,其在多种领域发挥了重要作用,比如清洁机器人、军事探测机器人。而要实现机器人自主作业,机器人必须能够避障。当前,有多种传感器可以用于机器人避障,比如利用超声波测距仪、激光雷达和红外传感器可以获取到障碍物的距离信息,进而实现避障。还可以利用安装在机器人上的一个或多个摄像头获取场景的图像,利用丰富的视觉信息完成避障。研究发现,视觉是人类获取信息的主要渠道,外界的信息有70%来自视觉,视觉传感器不需要安装发射和接收装置,简单轻便,而且,视觉工作在被动模式,具有隐蔽性。目前,视觉导航和避障方法成为研究的热点。
目前,基于视觉的导航技术主要有三种方法,分别为基于地图的导航、基于光流的导航和基于地貌的导航。基于光流的方法是受到大自然中飞行昆虫的启发,科学家们通过解剖学、神经生理学、电生理学的方法已经对飞行昆虫的视觉系统进行了大量的研究。研究发现,飞行昆虫的视觉感知器官-复眼与人类相比,两只复眼的距离很近,复眼的空间分辨率很低,但是复眼对时域非常敏感。基于以上特点,飞行昆虫并不是利用双目立体视觉来进行导航的。Srinivasan教授对蜜蜂做了大量的实验,证明蜜蜂是通过两眼中图像速度即光流进行导航的。
根据飞行昆虫的视觉导航机理,以Nicolas Franceschini为首的研究小组花了数年时间研究苍蝇的视觉系统和它们是如何检测并利用光流的,然后在实验的基础上研制出能够在避开障碍物的过程中不断接近目标的轮式机器人“robot mouche”。Srinivasan所在的研究小组通过研究蜜蜂的视觉行为,发现蜜蜂通过平衡映射在两侧眼睛上图像运动的速度(光流)来调节它们的飞行方向。他们在装有一个摄像头和两面镜子的轮式机器人“Corridor-following robot”上验证了这个机制。后来Srinivasan研究小组的Sobey受到昆虫飞行灵感的启发,提出一种使基于视觉的机器人在混乱的环境中安全行走的算法,并研制出的另外一个机器人“Obstacle-avoiding robot”。Santos-Victor等人研发了一个基于光流的视觉系统robee,该系统模拟了蜜蜂的视觉行为,认为昆虫的眼睛长在两侧的优势就在于它们的导航机制是基于运动产生的特征,而不是深度信息。在robee中,一个分开的双目视觉方法被用于模仿蜜蜂的中心反射(Centering Reflex)。
以上基于光流的导航避障方法,都是模拟蜜蜂的中心策略,通过平衡左右视场的光流幅值使机器人避开障碍物。这种方法只能适应简单的类似走廊的环境,机器人能在这种环境中沿着走廊的中心线行走,并不能满足复杂环境中的避障。
发明内容
本发明的目的在于提供了一种基于光流的移动机器人避障方法,针对上述中出现的不足,本方法根据前后两帧图像的光流构建障碍地图,然后从障碍地图中确定机器人前进的最佳(安全)方向,从而指导机器人转向此方向前进。此方法可实现移动机器人在复杂充满障碍物的环境中安全、无目的地漫游。
为实现上述目的,本发明采用的技术方案为一种基于光流的移动机器人避障方法,如图1所示,该方法是按以下步骤实现的;
S1机器人开机启动,进行初始化。
S2赋予机器人速度V(0m/s-0.15m/s)(速度不可设置的太大,否则违反了光流计算中小运动的假设),让机器人以速度V匀速向正前方运动,获得前后两帧图像。
S3计算两帧图像的光流和整幅图像中所有像素点的光流幅值总和。
S4判断幅值总和是否超过阈值δ(阈值δ应根据速度调整,速度越大,应设置相对较大的阈值);若是,转向步骤S5;若没有超过阈值,转向S2。
S5根据光流计算FOE(focus of expansion)和图像中每个像素点的TTC(time to contact);具体步骤包括
S5.1选取图像中n个点的光流按下式利用最小二乘法计算FOE(为了减少计算误差,尽量多选取一些点,但为了兼顾运算速度,点数不可选取的过多)。
(cx,cy)T=(ATA)-1ATb
其中(cx,cy)T是FOE(focus of expansion)的x、y坐标, A = v 1 - u 1 v 2 - u 2 . . . . . . v n - u n , b = v 1 x 1 - u 1 y 1 v 2 x 2 - u 2 y 2 . . . v n x n - u n y n ; 其中un、vn分别是选取的第n个像素点光流的水平和垂直分量,xn、yn是该像素点在图像平面的x和y坐标。
S5.2计算出FOE(focus of expansion)后,利用下式计算图像中每个像素点的TTC(time tocontact),
TTC i = ( x i - c x ) 2 + ( y i - c y ) u i 2 + v i 2
其中cx、cy是FOE的坐标,TTCi是图像中第i个像素点的TTC,ui、vi是该点光流的水平和垂直分量,xi、yi是该点在图像平面的x和y坐标。
S6根据TTC(time to contact)构建障碍地图;构建障碍地图按以下步骤进行,
S6.1将整个图像平面分成宽度相等的N列,对每一列包含的所有像素点的TTC倒数求平均;利用产生的N个值构建障碍地图
Figure BDA0000453827150000035
障碍地图元素值的计算如下式
m o k = Σ ( i , j ) ∈ k 1 / TTC ( i , j ) A k
其中,代表第k列的障碍地图元素值,k代表第k列,Ak表示该列包含的像素点总数,Σ(i,j)∈k1TTC(i,j)是对第k列包含的所有像素点的TTC倒数求和;
S6.2将此障碍地图元素值归一化到范围[0,1];
S7根据归一化的障碍地图确定机器人的最佳前进方向;其具体步骤为,
S7.1设置阈值τ(范围为0-0.5),提取障碍地图元素值小于τ的连续列作为候选的安全前进区域,并记下每个区域开始与结束列的位置;这样获得一个区域集R={r1,r2,...,rM},区域rm表示第m个区域,并用该区域开始与结束的列表示rm=[Sm,Em],Sm表示开始的列,Em表示结束的列。
S7.2对区域集R中的每一个区域,按下式计算该区域的权重。
W m = Σ i = S m E m ( 1 - m o i )
其中,Wm表示提取出的第m个区域rm的权重,Sm、Em分别是区域rm开始和结束的列,是区域rm包含的第i列的障碍地图值。
S7.3取权重最大的区域作为最佳前进区域rn(n=arg max Wm),rn表示最佳前进区域;并按下式计算该区域的局部形心作为最佳的前进方向,
D L = Σ i = S n E n i × ( 1 - m o i ) Σ i = S n E n ( 1 - m o i )
其中DL表示最佳的前进方向,[Sn,En]分别表示最佳前进区域rn开始与结束的列,i表示该区域rn包含的第i列,
Figure BDA0000453827150000042
为该列的障碍地图元素值。
S7.4得出最佳前进方向之后,需要将其转化成旋转角度以便于对机器人进行控制;为此,首先将DL归一化到范围[-1,1];假设机器人的最大转角为θ(范围0-360°),则旋转角度α为:
α=DL·θ
S8机器人做加速度为-a的匀减速运动直到速度变为零;然后根据步骤S7.4得到的角度α控制机器人旋转相应的角度。旋转完成后,转向S2。
本发明公开了一种基于光流的移动机器人避障方法,该方法能适应复杂环境,根据单目摄像头获取的图像序列分析障碍物分布,选择最佳前进方向。运用此方法,机器人可以在未知的充满障碍物的环境中避开障碍物,无碰撞的行走。
附图说明
图1是基于光流的移动机器人避障方法的流程图。
图2是构建的虚拟3D环境图,环境中充满了障碍物。
图3为在虚拟环境中行走的某一时刻获取的两帧图像中的后一帧。
图4为在图3时刻构建的障碍地图。
图5为根据图4的障碍地图选取的最佳区域及最佳前进方向,其中方框表示最佳区域,方框内的竖线表示最佳前进方向。
具体实施方式
本实施例以前述的技术方案为前提,利用matlab虚拟现实工具箱搭建了一个充满障碍物的虚拟的3D环境,如图2、图3、图4、图5所示,按照图1所示的流程图进行实施,具体实施方案为:
S1机器人开机启动,进行初始化。
S2赋予机器人速度V(0m/s-0.15m/s)(速度不可设置的太大,否则违反了光流计算中小运动的假设),让机器人以速度V匀速向正前方运动,获得前后两帧图像。该实施例中,机器人速度V=0.05m/s。
S3计算两帧图像的光流和整幅图像中所有像素点的光流幅值总和。该实施例中,采用HS算法计算光流,计算图像偏导数时采用的梯度算子依次为: f x = - 1 1 - 1 1 , f y = - 1 - 1 1 1 , ft为前后两帧4点像素差,平滑约束的影响因子α=1,邻域平均采用模板 h = 1 / 12 1 / 6 1 / 12 1 / 6 0 1 / 6 1 / 12 1 / 6 1 / 12 , 迭代次数λ=20次。
S4判断幅值总和是否超过阈值δ(阈值δ应根据速度调整,速度越大,应设置相对较大的阈值);若是,转向步骤S5;若没有超过阈值,转向S2。该实施例中,δ=12500。
S5根据光流计算FOE(focus of expansion)和图像中每个像素点的TTC(time to contact);具体步骤包括
S5.1选取图像中n个点的光流按下式利用最小二乘法计算FOE(为了减少计算误差,尽量多选取一些点,但为了兼顾运算速度,点数不可选取的过多)。
(cx,cy)T=(ATA)-1ATb
其中(cx,cy)T是FOE(focus of expansion)的x、y坐标, A = v 1 - u 1 v 2 - u 2 . . . . . . v n - u n , b = v 1 x 1 - u 1 y 1 v 2 x 2 - u 2 y 2 . . . v n x n - u n y n ; 其中un、vn分别是选取的第n个像素点光流的水平和垂直分量,xn、yn是该像素点在图像平面的x和y坐标。该实施例中,每20×20的区域中取第一个像素点的光流计算FOE。
S5.2计算出FOE(focus of expansion)后,利用下式计算图像中每个像素点的TTC(time tocontact),
TTC i = ( x i - c x ) 2 + ( y i - c y ) u i 2 + v i 2
其中cx、cy是FOE的坐标,TTCi是图像中第i个像素点的TTC,ui、vi是该点光流的水平和垂直分量,xi、yi是该点在图像平面的x和y坐标。
S6根据TTC(time to contact)构建障碍地图;构建障碍地图按以下步骤进行,
S6.1将整个图像平面分成宽度相等的N列,对每一列包含的所有像素点的TTC倒数求平均;利用产生的N个值构建障碍地图
Figure BDA0000453827150000055
障碍地图元素值的计算如下式
m o k = Σ ( i , j ) ∈ k 1 / TTC ( i , j ) A k
其中,
Figure BDA0000453827150000056
代表第k列的障碍地图元素值,k代表第k列,Ak表示该列包含的像素点总数,Σ(i,j)∈k1TTC(i,j)是对第k列包含的所有像素点的TTC倒数求和。该实施例中,将图像分成N=20列。
S6.2将此障碍地图元素值归一化到范围[0,1]。
S7根据归一化的障碍地图确定机器人的最佳前进方向;其具体步骤为,
S7.1设置阈值τ(范围为0-0.5),提取障碍地图元素值小于τ的连续列作为候选的安全前进区域,并记下每个区域开始与结束列的位置;这样获得一个区域集R={r1,r2,...,rM},区域rm表示第m个区域,并用该区域开始与结束的列表示rm=[Sm,Em],Sm表示开始的列,Em表示结束的列。该实施例中,设置阈值τ=0.3。
S7.2对区域集R中的每一个区域,按下式计算该区域的权重。
W m = Σ i = S m E m ( 1 - m o i )
其中,Wm表示提取出的第m个区域rm的权重,Sm、Em分别是区域rm开始和结束的列,
Figure BDA0000453827150000063
是区域rm包含的第i列的障碍地图值。
S7.3取权重最大的区域作为最佳前进区域rn(n=arg max Wm),rn表示最佳前进区域;并按下式计算该区域的局部形心作为最佳的前进方向,
D L = Σ i = S n E n i × ( 1 - m o i ) Σ i = S n E n ( 1 - m o i )
其中DL表示最佳的前进方向,[Sn,En]分别表示最佳前进区域rn开始与结束的列,i表示该区域rn包含的第i列,
Figure BDA0000453827150000064
为该列的障碍地图元素值。
S7.4得出最佳前进方向之后,需要将其转化成旋转角度以便于对机器人进行控制;为此,首先将DL归一化到范围[-1,1];假设机器人的最大转角为θ(范围0-360°),则旋转角度α为:
α=DL·θ
该实施例中,θ=π/3。
S8机器人做加速度为-a的匀减速运动直到速度变为零;然后根据步骤S7.4得到的角度α控制机器人旋转相应的角度。旋转完成后,转向S2。该实施例中,-a=0.05m/s2
让机器人以上述方法在虚拟环境中漫游,在实验观察的5min内机器人可以安全地绕过障碍物,无碰撞的行走。证明了本发明方法的有效性。

Claims (1)

1.一种基于光流的移动机器人避障方法,其特征在于,该方法是按以下步骤实现的,
S1机器人开机启动,进行初始化;
S2赋予机器人速度V,让机器人以速度V匀速向正前方运动,获得前后两帧图像;
S3计算两帧图像的光流和整幅图像中所有像素点的光流幅值总和;
S4判断幅值总和是否超过阈值δ;若是,转向步骤S5;若没有超过阈值,转向S2;
S5根据光流计算FOE和图像中每个像素点的TTC;具体步骤包括
S5.1选取图像中n个点的光流按下式利用最小二乘法计算FOE
(cx,cy)T=(ATA)-1ATb
其中(cx,cy)T是FOE的x、y坐标, A = v 1 - u 1 v 2 - u 2 . . . . . . v n - u n , b = v 1 x 1 - u 1 y 1 v 2 x 2 - u 2 y 2 . . . v n x n - u n y n ; 其中un、vn分别是选取的第n个像素点光流的水平和垂直分量,xn、yn是该像素点在图像平面的x和y坐标;
S5.2计算出FOE后,利用下式计算图像中每个像素点的TTC,
TTC i = ( x i - c x ) 2 + ( y i - c y ) u i 2 + v i 2
其中cx、cy是FOE的坐标,TTCi是图像中第i个像素点的TTC,ui、vi是该点光流的水平和垂直分量,xi、yi是该点在图像平面的x和y坐标;
S6根据TTC构建障碍地图;构建障碍地图按以下步骤进行,
S6.1将整个图像平面分成宽度相等的N列,对每一列包含的所有像素点的TTC倒数求平均;利用产生的N个值构建障碍地图
Figure FDA0000453827140000016
障碍地图元素值的计算如下式
m o k = Σ ( i , j ) ∈ k 1 / TTC ( i , j ) A k
其中,
Figure FDA0000453827140000017
代表第k列的障碍地图元素值,k代表第k列,Ak表示该列包含的像素点总数,Σ(i,j)∈k1TTC(i,j)是对第k列包含的所有像素点的TTC倒数求和;
S6.2将此障碍地图元素值归一化到范围[0,1];
S7根据归一化的障碍地图确定机器人的最佳前进方向;其具体步骤为,
S7.1设置阈值τ,提取障碍地图元素值小于τ的连续列作为候选的安全前进区域,并记下每个区域开始与结束列的位置;这样获得一个区域集R={r1,r2,...,rM},区域rm表示第m个区域,并用该区域开始与结束的列表示rm=[Sm,Em],Sm表示开始的列,Em表示结束的列;
S7.2对区域集R中的每一个区域,按下式计算该区域的权重,
W m = Σ i = S m E m ( 1 - m o i )
其中,Wm表示提取出的第m个区域rm的权重,Sm、Em分别是区域rm开始和结束的列,
Figure FDA0000453827140000025
是区域rm包含的第i列的障碍地图值;
S7.3取权重最大的区域作为最佳前进区域rn(n=arg max Wm),rn表示最佳前进区域;并按下式计算该区域的局部形心作为最佳的前进方向,
D L = Σ i = S n E n i × ( 1 - m o i ) Σ i = S n E n ( 1 - m o i )
其中DL表示最佳的前进方向,[Sn,En]分别表示最佳前进区域rn开始与结束的列,i表示该区域rn包含的第i列,
Figure FDA0000453827140000024
为该列的障碍地图元素值;
S7.4得出最佳前进方向之后,需要将其转化成旋转角度以便于对机器人进行控制;为此,首先将DL归一化到范围[-1,1];假设机器人的最大转角为θ,则旋转角度α为,
α=DL·θ
S8机器人做加速度为-a的匀减速运动直到速度变为零;然后根据步骤S7.4得到的角度α控制机器人旋转相应的角度;旋转完成后,转向S2。
CN201410006655.XA 2014-01-07 2014-01-07 一种基于光流的移动机器人避障方法 Pending CN103743394A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410006655.XA CN103743394A (zh) 2014-01-07 2014-01-07 一种基于光流的移动机器人避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410006655.XA CN103743394A (zh) 2014-01-07 2014-01-07 一种基于光流的移动机器人避障方法

Publications (1)

Publication Number Publication Date
CN103743394A true CN103743394A (zh) 2014-04-23

Family

ID=50500437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410006655.XA Pending CN103743394A (zh) 2014-01-07 2014-01-07 一种基于光流的移动机器人避障方法

Country Status (1)

Country Link
CN (1) CN103743394A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106155082A (zh) * 2016-07-05 2016-11-23 北京航空航天大学 一种基于光流的无人机仿生智能避障方法
CN106200672A (zh) * 2016-07-19 2016-12-07 深圳北航新兴产业技术研究院 一种基于光流的无人机避障方法
CN106647761A (zh) * 2016-12-30 2017-05-10 上海庆科信息技术有限公司 一种自移动扫地机及其控制方法
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN107065866A (zh) * 2017-03-24 2017-08-18 北京工业大学 一种基于改进光流算法的移动机器人导航方法
CN108475058A (zh) * 2016-02-10 2018-08-31 赫尔实验室有限公司 用于使用视觉和距离传感器数据来实现快速且可靠的接触时间估计以便进行自主导航的系统和方法
CN111368883A (zh) * 2020-02-21 2020-07-03 浙江大华技术股份有限公司 基于单目摄像头的避障方法、计算装置及存储装置
CN115431968A (zh) * 2022-11-07 2022-12-06 北京集度科技有限公司 车辆控制器、车辆及车辆控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541057A (zh) * 2010-12-29 2012-07-04 沈阳新松机器人自动化股份有限公司 一种基于激光测距仪的移动机器人避障方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541057A (zh) * 2010-12-29 2012-07-04 沈阳新松机器人自动化股份有限公司 一种基于激光测距仪的移动机器人避障方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ELIETE MARIA DE OLIVEIRA CALDEIRA: ""AN OPTICAL FLOW-BASED SENSING SYSTEM FOR REACTIVE MOBILE ROBOT NAVIGATION"", 《REVISTA CONTROLE & AUTOMAÇÃO/VOL.18 NO.3/JULHO, AGOSTO E SETEMBRO 2007》 *
ELIETE MARIA DE OLIVEIRA CALDEIRA: ""AN OPTICAL FLOW-BASED SENSING SYSTEM FOR REACTIVE MOBILE ROBOT NAVIGATION"", 《REVISTA CONTROLE & AUTOMAÇãO/VOL.18 NO.3/JULHO, AGOSTO E SETEMBRO 2007》, 31 December 2007 (2007-12-31) *
YUNG SIANG LIAU: ""Non-Metric Navigation for Mobile Robot Using Optical Flow"", 《 2012 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
杨国亮等: ""一种改进的光流算法"", 《计算机工程》 *
肖雪等: ""基于光流的自主移动机器人避障系统"", 《计算机工程》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN108475058A (zh) * 2016-02-10 2018-08-31 赫尔实验室有限公司 用于使用视觉和距离传感器数据来实现快速且可靠的接触时间估计以便进行自主导航的系统和方法
CN106155082A (zh) * 2016-07-05 2016-11-23 北京航空航天大学 一种基于光流的无人机仿生智能避障方法
CN106155082B (zh) * 2016-07-05 2019-02-15 北京航空航天大学 一种基于光流的无人机仿生智能避障方法
CN106200672A (zh) * 2016-07-19 2016-12-07 深圳北航新兴产业技术研究院 一种基于光流的无人机避障方法
CN106200672B (zh) * 2016-07-19 2019-08-27 深圳北航新兴产业技术研究院 一种基于光流的无人机避障方法
CN106647761A (zh) * 2016-12-30 2017-05-10 上海庆科信息技术有限公司 一种自移动扫地机及其控制方法
CN107065866A (zh) * 2017-03-24 2017-08-18 北京工业大学 一种基于改进光流算法的移动机器人导航方法
CN111368883A (zh) * 2020-02-21 2020-07-03 浙江大华技术股份有限公司 基于单目摄像头的避障方法、计算装置及存储装置
CN111368883B (zh) * 2020-02-21 2024-01-19 浙江大华技术股份有限公司 基于单目摄像头的避障方法、计算装置及存储装置
CN115431968A (zh) * 2022-11-07 2022-12-06 北京集度科技有限公司 车辆控制器、车辆及车辆控制方法

Similar Documents

Publication Publication Date Title
CN103743394A (zh) 一种基于光流的移动机器人避障方法
CN103925920B (zh) 一种基于图像透视的微型无人机室内自主导航方法
Pfeiffer et al. Efficient representation of traffic scenes by means of dynamic stixels
Eresen et al. Autonomous quadrotor flight with vision-based obstacle avoidance in virtual environment
Kendoul et al. Optic flow-based vision system for autonomous 3D localization and control of small aerial vehicles
Strydom et al. Visual odometry: autonomous uav navigation using optic flow and stereo
CN104880187B (zh) 一种基于双摄像机的飞行器光流检测装置的运动估计方法
WO2017088720A1 (zh) 规划最优跟随路径的方法、装置及计算机存储介质
Milde et al. Bioinspired event-driven collision avoidance algorithm based on optic flow
CN110163963B (zh) 一种基于slam的建图装置和建图方法
CN104390645B (zh) 一种基于视觉信息的智能轮椅室内导航方法
CN110488805A (zh) 一种基于3d立体视觉的无人车避障系统及方法
Agrawal et al. Inverse optical flow based guidance for UAV navigation through urban canyons
CN109254579B (zh) 一种双目视觉相机硬件系统、三维场景重建系统及方法
CN107065866A (zh) 一种基于改进光流算法的移动机器人导航方法
Dickmanns Developing the sense of vision for autonomous road vehicles at UniBwM
More et al. Visual odometry using optic flow for unmanned aerial vehicles
WO2018072908A1 (en) Controlling a vehicle for human transport with a surround view camera system
Liau et al. Non-metric navigation for mobile robot using optical flow
Tan et al. Flying guide dog: Walkable path discovery for the visually impaired utilizing drones and transformer-based semantic segmentation
von Stumberg et al. Autonomous exploration with a low-cost quadrocopter using semi-dense monocular slam
CN109933092B (zh) 飞行器避障方法、装置、可读存储介质和飞行器
CN106933233A (zh) 一种基于区间流场的无人机避障系统及方法
Liu et al. Binocular vision-based autonomous path planning for UAVs in unknown outdoor scenes
Schamm et al. Vision and ToF-based driving assistance for a personal transporter

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20140423

RJ01 Rejection of invention patent application after publication