CN113139949A - 一种机器人图像模糊度检测方法 - Google Patents
一种机器人图像模糊度检测方法 Download PDFInfo
- Publication number
- CN113139949A CN113139949A CN202110477454.8A CN202110477454A CN113139949A CN 113139949 A CN113139949 A CN 113139949A CN 202110477454 A CN202110477454 A CN 202110477454A CN 113139949 A CN113139949 A CN 113139949A
- Authority
- CN
- China
- Prior art keywords
- image
- edge
- point
- gradient
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims abstract description 9
- 230000001537 neural effect Effects 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims description 2
- 230000000644 propagated effect Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 241000282414 Homo sapiens Species 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Fuzzy Systems (AREA)
- Automation & Control Theory (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种机器人图像模糊度检测方法,包括以下步骤:S01、对于相机采集的图像,采用基于边缘分析的评价方法得到初步估计的图像模糊度;S02、获取图像帧对应时刻的相机角速度;S03、根据初步估计的图像模糊度和对应时刻相机的角速度,通过自适应神经模糊推理算法,得到最终估计的图像模糊度。本方案在保证算法实时性的情况下,提高了图像模糊度检测的准确性,适用于移动的机器人尤其是球形机器人的图像处理。
Description
技术领域
本发明涉及图像模糊度检测领域,尤其是涉及一种机器人图像模糊度检测方法。
背景技术
机器人是一种通过手动或者自动控制,模拟人类完成各种指令的一种智能化装置。机器人可以代替人体进行各种复杂精细的操作,也可以代替人类进入复杂、危险的环境进行探索作业,保证人员安全。机器人完成人类所提出的不同巡检、遍历等任务的首要的前提是需要获得自身的位置和姿态。因此对机器人的定位需求随即而来。机器人的定位主要是利用了移动机器人身上的不同传感器来获得机器人本体以及周围环境的不同信息,通过对这些信息进行相应的处理来获取机器人在环境中的位置和姿态。相机是主流的机器人平台装载的一种传感器,被用来采集图像,提供丰富的周围环境信息,通过感知周围环境进行机器人定位。
本方案针对的对象为移动机器人,由于机器人存在快速移动和旋转的运动情况,搭载在机器人平台上的相机采集的图像容易产生模糊,导致以相机为感知主体的定位方案容易出现较大的定位偏差。对图像进行模糊度检测,筛选并忽略模糊图像,可以有效提高定位精度。
现阶段,图像模糊度检测多是针对图像本身信息,采用基于边缘分析的评价方法、基于变换域的评价方法或基于像素信息统计的评价方法。这些方法并不适合处理机器人相机等处于移动状态的相机。
发明内容
本发明主要是解决现有技术所存在的不能准确处理移动状态下的相机的技术问题,提供一种与运动信息结合的机器人图像模糊度检测方法。
本发明针对上述技术问题主要是通过下述技术方案得以解决的:一种机器人图像模糊度检测方法,包括以下步骤:
S01、对于相机采集的图像,采用基于边缘分析的评价方法得到初步估计的图像模糊度;
S02、获取图像帧对应时刻的相机角速度;
S03、根据初步估计的图像模糊度和对应时刻相机的角速度,通过自适应神经模糊推理算法,得到最终估计的图像模糊度。
作为优选,所述步骤S01中,基于边缘分析的评价方法通过计算图像平均边缘宽度实现,包括以下步骤:
S101、进行图像边缘点检测:以点(x,y)为中心,在四个方向上计算3×3邻域内的灰度一阶导数,四个方向分别为0°、45°、90°和135°,取四个方向中梯度最大的为该点梯度,如果该点梯度大于阈值T,则认为该点为初步边缘点;重复本过程直至遍历图像的所有像素;图像边界点直接忽略不进行检测;阈值T为预设参数,一般T可以为150;
S102、对图像噪点进行处理:
取以初步边缘点M为中心的7×7邻域范围,计算此范围内所有初步边缘点(即使已经被判定为噪声点的初步边缘点也仍然进行计算)的梯度方向,梯度方向定义为:
G0°为初步边缘点在0°方向上的梯度,G90°为初步边缘点在90°方向上的梯度;将中心边缘点M的梯度方向与范围内其它各个初步边缘点的梯度方向逐一进行比较,如果两个梯度方向的差值Δφ(x,y)<90°,则认为中心边缘点M与该初步边缘点方向相近;如果范围内与中心边缘点M方向相近的初步边缘点数量大于3,则判断此中心边缘点M为真正的边缘点,否则认为此中心边缘点M为噪声点进行删除;重复本过程直至遍历所有初步边缘点;
S103、分块计算平均边缘宽度:
式中,ω(x,y)为分块内坐标是(x,y)的真正边缘点N的边缘宽度,n为分块内梯度方向小于梯度方向阈值的真正边缘点的个数;ω(x,y)由以下公式获得:
ωup(x,y)和ωdown(x,y)分别为边缘点N与局部灰度极大值和局部灰度极小值的距离,φ(x,y)<φmax,φmax为梯度方向阈值,一般取值为45°,梯度方向大于或等于梯度方向阈值的真正边缘点不处理,不计算宽度;
S104、计算整幅图像的平均边缘宽度,作为初步估计的图像模糊度。
本方案取的是竖直方向的灰度极大值和极小值间距,除以cos角得到边缘宽度。如果梯度方向远远偏离竖直方向,cos值很小,误差会很大,所以需要用梯度方向阈值限制梯度方向角。阈值取值可以根据实际效果调整。竖直方向的灰度值直接决定计算结果,而水平方向的灰度值对最终结果影响极小甚至完全没有改善,因此从加快运算速度的目的考虑,只提取竖直方向的像素灰度值进行计算。
作为优选,所述步骤S02中,图像帧对应时刻的相机角速度由与相机刚性连接的惯性传感器测量得到。
作为优选,所述步骤S03中,通过自适应神经模糊推理算法计算图像模糊度具体过程如下:
S311、通过隶属度函数对输入信号进行模糊化处理,输入信号包括图像平均边缘宽度和对应的相机运动角速度,本方案主要针对球形机器人,角速度对图像的影响为主要影响,平移速度可以忽略,因此只需要处理角速度,公式如下:
S312、将隶属度信号相乘,得到一条规则的可信度,网络有四条规则,分别是:
规则1:如果x隶属于A1并且y隶属于B1,则f1=p1x+q1y+r1;
规则2:如果x隶属于A1并且y隶属于B2,则f2=p2x+q2y+r2;
规则3:如果x隶属于A2并且y隶属于B1,则f3=p3x+q3y+r3;
规则4:如果x隶属于A2并且y隶属于B2,则f4=p4x+q4y+r4;
则第二层的节点Π的输出为:
S313、计算每条规则的归一化强度,第三层的节点N的输出为:
S314、模糊子空间的输出,节点的输出为:
式中pi、qi和ri为后件参数;
S315、计算最终输出:
作为优选,后件参数通过前向过程得到:
在自适应神经模糊推理系统的前向传递过程中,设前件参数固定不变,系统输出为后件参数的线性组合:
写成矩阵形式,有:
f=A·X
其中,X为后件参数构成的集合[p1,q1,r1,p2,q2,r2,p3,q3,r3,p4,q4,r4]T,设有P组输入输出,矩阵A为P×12大小的矩阵;当样本数量远大于参数数量,即P>>12时,使用最小二乘法,通过最小化均方误差‖AX-f‖2,得到后件参数的最佳估计:
X*=(ATA)-1ATf
其中,(ATA)-1AT为A的伪逆矩阵。
作为优选,前件参数通过反向过程得到:
根据前向过程计算得到的后件参数进行误差计算,再将误差信号逐层反向传播,由梯度下降法得到前件参数,参数更新规则为:
其中,梯度由链式法则计算:
ηa、ηb、ηc分别为参数ai、bi、ci的学习率,由训练集大小和结果收敛速度决定,一般可以设为0.5。
作为优选,局部灰度极大值和局部灰度极小值获得方式为:
提取分块内边缘点N所在竖直列的各像素灰度值构成灰度值曲线,提取灰度值曲线上的所有极大值点和极小值点,距离边缘点N最近的极大值点为局部灰度极大值,距离边缘点N最近的极小值点为局部灰度极小值;这里的灰度值曲线上的极大值点和极小值点就是一般数学概念上的极大值和极小值,即曲线的波峰点和波谷点,也就是先增后减产生极大值,先减后增产生极小值。
作为优选,计算整幅图像的平均边缘宽度具体为:
对全部分块进行平均边缘宽度计算后,根据计算结果对分块进行排序,对排序前γ位的平均边缘宽度求均值,得到整幅图像的平均边缘宽度;γ为预设参数,一般取值为12。
本发明带来的实质性效果是,利用图像中的边缘信息以及图像采集时刻的相机运动信息估计图像的模糊度,在保证算法实时性的情况下,提高了图像模糊度检测的准确性。
附图说明
图1是本发明的一种流程图;
图2是本发明的一种图像平均边缘宽度计算流程图;
图3是本发明的一种自适应神经模糊推理算法的网络结构图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:本实施例的一种机器人图像模糊度检测方法,基于相机的角速度,相机角速度通过与相机刚性连接的惯性测量器测量得到。
如图1所示,具体方法包括以下步骤:
S01、对于相机采集的图像,采用基于边缘分析的评价方法得到初步估计的图像模糊度;
S02、获取图像帧对应时刻的相机角速度;
S03、根据初步估计的图像模糊度和对应时刻相机的角速度,通过自适应神经模糊推理算法,得到最终估计的图像模糊度。
首先进行图像平均边缘宽度计算,如图2所示,图像平均边缘宽度计算包括以下步骤:
步骤1:图像边缘点检测。
以点(x,y)为中心,在四个方向上计算3×3邻域内的灰度一阶导数。四个方向分别为0°、45°、90°和135°。取四个方向中梯度最大的为该点梯度,则梯度值为:
G(x,y)=max(|G0°|,|G45°|,|G90°|,|G135°|)
其中,Gi通过相应方向的算子模板Mi计算得到。
即对于点(x,y),设灰度值为f(x,y),有:
G0°=(f(x+1,y+1)+2f(x+1,y)+f(x+1,y-1))-(f(x-1,y+1)+2f(x-1,y)+f(x-1,y-1))
G45°=(f(x+1,y)+2f(x+1,y+1)+f(x,y+1))-(f(x-1,y)+2f(x-1,y-1)+f(x,y-1))
G90°=(f(x+1,y+1)+2f(x,y+1)+f(x-1,y+1))-(f(x+1,y-1)+2f(x,y-1)+f(x-1,y-1))
G135°=(f(x-1,y)+2f(x-1,y+1)+f(x,y+1))-(f(x,y-1)+2f(x+1,y-1)+f(x+1,y))
使用上式对图像点邻域进行运算后,即可求得图像点的梯度幅度值G(x,y),设置阈值T,当G(x,y)>T时,认为该点为边缘点,本身实施例中T为150。
步骤2:图像噪点处理。
取以边缘点为中心的7×7邻域范围,计算与当前边缘点梯度方向相近的边缘点的数量N。梯度方向定义为:
若两个边缘点的梯度方向差值Δφ(x,y)<90°,则认为该边缘点与中心边缘点方向相近。当N>3时,判断中心边缘点为边缘点,否则该点为噪声点。
步骤3:分块计算平均边缘宽度
为了降低景深造成的图像不同区域模糊程度不一带来的影响,将图像分割为32×32像素的分块,对于每一分块计算平均边缘宽度。
设φmax为梯度方向阈值,本实施例中φmax为45°,当φ(x,y)<φmax时,计算边缘宽度为:
其中,ωup(x,y)和ωdown(x,y)分别为边缘点与局部灰度极大值和极小值的距离。
则平均边缘宽度为:
其中,n为分块内边缘点的总数量。
步骤4:整体模糊度计算
对全部分块进行平均边缘宽度计算后,根据计算结果对分块进行排序,对排序前γ位的平均边缘宽度求均值,得到整幅图像的平均边缘宽度。
局部灰度极大值和局部灰度极小值获得方式为:
提取分块内边缘点N所在竖直列的各像素灰度值构成灰度值曲线,提取灰度值曲线上的所有极大值点和极小值点,距离边缘点N最近的极大值点为局部灰度极大值,距离边缘点N最近的极小值点为局部灰度极小值。
通过对图像进行处理得到平均边缘宽度,通过对惯性传感器数据进行处理得到对应时间的相机运动角速度之后,经过自适应神经模糊推理算法,得到图像最终估计的模糊度。如图3所示,自适应神经模糊推理算法的网络结构包括以下五层:
第一层:负责输入信号的模糊化处理。对于有两个输入的自适应神经模糊推理系统,第一层的节点i的函数为:
其中,x(y)为节点i的输入,即图像平均边缘宽度和对应的相机运动角速度,Ai(Bi)为模糊集,本实施例中,A1为清晰,A2为模糊,B3为快,B4为慢,即模糊集Ai(Bi)的隶属度,表示输入x(y)隶属于模糊集Ai(Bi)的程度。隶属函数取钟形函数:
式中{ai,bi,ci}为待优化的参数集,通常被称为前件参数。
第二层:负责将隶属度信号相乘,得到一条规则的可信度。假设网络有四条规则,分别是:
规则1:If x is A1 and y is B1,then f1=p1x+q1y+r1
规则2:If x is A1 and y is B2,then f2=p2x+q2y+r2
规则3:If x is A2 and y is B1,then f3=p3x+q3y+r3
规则4:If x is A2 and y is B2,then f4=p4x+q4y+r4
则第二层的节点Π的输出为:
第三层:负责计算每条规则的归一化强度。第三层的节点N的输出为:
第四层:负责计算模糊子空间的输出,节点的输出为:
式中{pi,qi,ri}为该节点的参数集,通常被称为后件参数。
第五层:负责计算最终输出:
自适应神经模糊推理系统需要自适应调整的参数为第一层的前件参数{ai,bi,ci}与第四层的后件参数{pi,qi,ri}。采用最小二乘法和反向传播算法进行参数学习。
前向过程:在自适应神经模糊推理系统的前向传递过程中,设前件参数固定不变,系统输出为后件参数的线性组合:
写成矩阵形式,有:
f=A·X
其中,X为后件参数构成的集合[p1,q1,r1,p2,q2,r2,p3,q3,r3,p4,q4,r4]T,设有P组输入输出,矩阵A为P×12大小的矩阵。当样本数量远大于参数数量,即P>>12时,使用最小二乘法,通过最小化均方误差‖AX-f‖2,得到后件参数的最佳估计:
X*=(ATA)-1ATf
其中,(ATA)-1AT为A的伪逆矩阵。
反向过程:根据前向过程计算得到的后件参数进行误差计算,再将误差信号逐层反向传播,由梯度下降法得到前件参数。参数更新规则为:
其中,ηa、ηb、ηc分别为参数ai、bi、ci的学习率,本实施例中均为0.5,梯度由链式法则计算:
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
尽管本文较多地使用了角速度、边缘宽度等术语,但并不排除使用其它术语的可能性。使用这些术语仅仅是为了更方便地描述和解释本发明的本质;把它们解释成任何一种附加的限制都是与本发明精神相违背的。
Claims (8)
1.一种机器人图像模糊度检测方法,其特征在于,包括以下步骤:
S01、对于相机采集的图像,采用基于边缘分析的评价方法得到初步估计的图像模糊度;
S02、获取图像帧对应时刻的相机角速度;
S03、根据初步估计的图像模糊度和对应时刻相机的角速度,通过自适应神经模糊推理算法,得到最终估计的图像模糊度。
2.根据权利要求1所述的机器人图像模糊度检测方法,其特征在于,所述步骤S01中,基于边缘分析的评价方法通过计算图像平均边缘宽度实现,包括以下步骤:
S101、进行图像边缘点检测:以点(x,y)为中心,在四个方向上计算3×3邻域内的灰度一阶导数,四个方向分别为0°、45°、90°和135°,取四个方向中梯度最大的为该点梯度,如果该点梯度大于阈值T,则认为该点为初步边缘点;重复本过程直至遍历图像的所有像素;图像边界点直接忽略不进行检测;阈值T为预设参数;
S102、对图像噪点进行处理:
取以初步边缘点M为中心的7×7邻域范围,计算此范围内所有初步边缘点的梯度方向,梯度方向定义为:
G0°为初步边缘点在0°方向上的梯度,G90°为初步边缘点在90°方向上的梯度;将中心边缘点M的梯度方向与范围内其它各个初步边缘点的梯度方向逐一进行比较,如果两个梯度方向的差值Δφ(x,y)<90°,则认为中心边缘点M与该初步边缘点方向相近;如果范围内与中心边缘点M方向相近的初步边缘点数量大于3,则判断此中心边缘点M为真正的边缘点,否则认为此中心边缘点M为噪声点进行删除;重复本过程直至遍历所有初步边缘点;
S103、分块计算平均边缘宽度:
式中,ω(x,y)为分块内坐标是(x,y)的真正边缘点N的边缘宽度,n为分块内梯度方向小于梯度方向阈值的真正边缘点的个数;ω(x,y)由以下公式获得:
ωup(x,y)和ωdown(x,y)分别为边缘点N与局部灰度极大值和局部灰度极小值的距离,φ(x,y)<φmax,φmax为梯度方向阈值,梯度方向大于或等于梯度方向阈值的真正边缘点不处理,不计算宽度;
S104、计算整幅图像的平均边缘宽度,作为初步估计的图像模糊度。
3.根据权利要求1所述的机器人图像模糊度检测方法,其特征在于,所述步骤S02中,图像帧对应时刻的相机角速度由与相机刚性连接的惯性传感器测量得到。
4.根据权利要求1所述的机器人图像模糊度检测方法,其特征在于,所述步骤S03中,通过自适应神经模糊推理算法计算图像模糊度具体过程如下:
S311、通过隶属度函数对输入信号进行模糊化处理,输入信号包括图像平均边缘宽度和对应的相机运动角速度,公式如下:
S312、将隶属度信号相乘,得到一条规则的可信度,网络有四条规则,分别是:
规则1:如果x隶属于A1并且y隶属于B1,则f1=p1x+q1y+r1;
规则2:如果x隶属于A1并且y隶属于B2,则f2=p2x+q2y+r2;
规则3:如果x隶属于A2并且y隶属于B1,则f3=p3x+q3y+r3;
规则4:如果x隶属于A2并且y隶属于B2,则f4=p4x+q4y+r4;
则第二层的节点Π的输出为:
S313、计算每条规则的归一化强度,第三层的节点N的输出为:
S314、模糊子空间的输出,节点的输出为:
式中pi、qi和ri为后件参数;
S315、计算最终输出:
7.根据权利要求2所述的机器人图像模糊度检测方法,其特征在于,所述局部灰度极大值和局部灰度极小值获得方式为:
提取分块内边缘点N所在竖直列的各像素灰度值构成灰度值曲线,提取灰度值曲线上的所有极大值点和极小值点,距离边缘点N最近的极大值点为局部灰度极大值,距离边缘点N最近的极小值点为局部灰度极小值。
8.根据权利要求2或7所述的机器人图像模糊度检测方法,其特征在于,计算整幅图像的平均边缘宽度具体为:
对全部分块进行平均边缘宽度计算后,根据计算结果对分块进行排序,对排序前γ位的平均边缘宽度求均值,得到整幅图像的平均边缘宽度;γ为预设参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110477454.8A CN113139949B (zh) | 2021-04-30 | 2021-04-30 | 一种机器人图像模糊度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110477454.8A CN113139949B (zh) | 2021-04-30 | 2021-04-30 | 一种机器人图像模糊度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113139949A true CN113139949A (zh) | 2021-07-20 |
CN113139949B CN113139949B (zh) | 2023-04-07 |
Family
ID=76816511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110477454.8A Active CN113139949B (zh) | 2021-04-30 | 2021-04-30 | 一种机器人图像模糊度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113139949B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050231603A1 (en) * | 2004-04-19 | 2005-10-20 | Eunice Poon | Motion blur correction |
CN101485192A (zh) * | 2006-10-30 | 2009-07-15 | 松下电器产业株式会社 | 图像生成装置以及图像生成方法 |
CN103927723A (zh) * | 2014-04-18 | 2014-07-16 | 江南大学 | 基于神经模糊系统和边缘检测的图像滤波方法 |
CN105069753A (zh) * | 2015-07-30 | 2015-11-18 | 华中科技大学 | 一种面向移动终端的抖动模糊图像复原方法 |
CN106210505A (zh) * | 2015-05-29 | 2016-12-07 | 三星电机株式会社 | 图像校正电路、图像校正方法及相机模块 |
CN110166695A (zh) * | 2019-06-26 | 2019-08-23 | Oppo广东移动通信有限公司 | 摄像头防抖方法、装置、电子设备和计算机可读存储介质 |
CN110319772A (zh) * | 2019-07-12 | 2019-10-11 | 上海电力大学 | 基于无人机的视觉大跨度测距方法 |
CN110477825A (zh) * | 2019-08-30 | 2019-11-22 | 深圳飞科机器人有限公司 | 清洁机器人、自主充电方法、系统及可读存储介质 |
CN111953964A (zh) * | 2020-07-29 | 2020-11-17 | 欧菲微电子技术有限公司 | 一种模糊度检测方法及电子设备、存储介质 |
-
2021
- 2021-04-30 CN CN202110477454.8A patent/CN113139949B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050231603A1 (en) * | 2004-04-19 | 2005-10-20 | Eunice Poon | Motion blur correction |
CN101485192A (zh) * | 2006-10-30 | 2009-07-15 | 松下电器产业株式会社 | 图像生成装置以及图像生成方法 |
CN103927723A (zh) * | 2014-04-18 | 2014-07-16 | 江南大学 | 基于神经模糊系统和边缘检测的图像滤波方法 |
CN106210505A (zh) * | 2015-05-29 | 2016-12-07 | 三星电机株式会社 | 图像校正电路、图像校正方法及相机模块 |
CN105069753A (zh) * | 2015-07-30 | 2015-11-18 | 华中科技大学 | 一种面向移动终端的抖动模糊图像复原方法 |
CN110166695A (zh) * | 2019-06-26 | 2019-08-23 | Oppo广东移动通信有限公司 | 摄像头防抖方法、装置、电子设备和计算机可读存储介质 |
CN110319772A (zh) * | 2019-07-12 | 2019-10-11 | 上海电力大学 | 基于无人机的视觉大跨度测距方法 |
CN110477825A (zh) * | 2019-08-30 | 2019-11-22 | 深圳飞科机器人有限公司 | 清洁机器人、自主充电方法、系统及可读存储介质 |
CN111953964A (zh) * | 2020-07-29 | 2020-11-17 | 欧菲微电子技术有限公司 | 一种模糊度检测方法及电子设备、存储介质 |
Non-Patent Citations (3)
Title |
---|
NEEL JOSHI ET AL: "Image deblurring using inertial measurement sensors", 《ACM TRANSACTIONS ON GRAPHICS》 * |
王雷等: "一种符合视觉感知的视频运动模糊帧检测方法", 《中国科技论文》 * |
罗海驰等: "一种基于自适应神经模糊推理系统的图像滤波方法", 《计算机科学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113139949B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108196453B (zh) | 一种机械臂运动规划群体智能计算方法 | |
CN111652914B (zh) | 一种多传感器目标融合、追踪方法及系统 | |
CN111563878B (zh) | 一种空间目标定位方法 | |
CN110378325B (zh) | 一种机器人抓取过程中的目标位姿识别方法 | |
CN110928301A (zh) | 一种检测微小障碍的方法、装置及介质 | |
CN106780631A (zh) | 一种基于深度学习的机器人闭环检测方法 | |
CN113065431B (zh) | 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法 | |
CN112597877A (zh) | 一种基于深度学习的厂区人员异常行为检测方法 | |
CN109947093A (zh) | 一种基于双目视觉的智能避障算法 | |
CN110706208A (zh) | 一种基于张量均方最小误差的红外弱小目标检测方法 | |
CN110610130A (zh) | 一种多传感器信息融合的输电线路机器人导航方法及系统 | |
WO2024060978A1 (zh) | 关键点检测模型训练及虚拟角色驱动的方法和装置 | |
CN113076988B (zh) | 基于神经网络的移动机器人视觉slam关键帧自适应筛选方法 | |
Zobeidi et al. | Dense incremental metric-semantic mapping via sparse gaussian process regression | |
CN116485885A (zh) | 基于深度学习去除视觉slam前端动态特征点的方法 | |
CN113139949B (zh) | 一种机器人图像模糊度检测方法 | |
CN117021099A (zh) | 一种面向任意物体基于深度学习和图像处理的人机交互方法 | |
Fan et al. | Study on the edge detection algorithms of road image | |
CN112950787B (zh) | 一种基于图像序列的目标物体三维点云生成方法 | |
Bartolini et al. | Multiwindow least-squares approach to the estimation of optical flow with discontinuities | |
CN108534797A (zh) | 一种实时高精度视觉里程计方法 | |
CN108198204A (zh) | 一种零阈值的核密度估计运动目标检测方法 | |
Varkonyi-Koczy et al. | Soft-computing-based car body deformation and EES determination for car crash analysis systems | |
CN110910450A (zh) | 一种基于混合特征感知神经网络进行3d目标检测的方法 | |
Hassan et al. | Neural network-based real-time odometry using IMU for crane system and its application to large-scale 3D mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |