CN112215893B - 目标二维中心坐标点确定方法、装置、设备及测距系统 - Google Patents
目标二维中心坐标点确定方法、装置、设备及测距系统 Download PDFInfo
- Publication number
- CN112215893B CN112215893B CN202011170842.3A CN202011170842A CN112215893B CN 112215893 B CN112215893 B CN 112215893B CN 202011170842 A CN202011170842 A CN 202011170842A CN 112215893 B CN112215893 B CN 112215893B
- Authority
- CN
- China
- Prior art keywords
- designated area
- traversal
- search box
- target
- traversal search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 241000196324 Embryophyta Species 0.000 claims abstract description 31
- 238000003708 edge detection Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 238000009333 weeding Methods 0.000 abstract description 29
- 239000000284 extract Substances 0.000 abstract description 2
- 240000008042 Zea mays Species 0.000 description 11
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 11
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 11
- 235000005822 corn Nutrition 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 125000004432 carbon atom Chemical group C* 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 244000037666 field crops Species 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009967 tasteless effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于计算机视觉技术领域,提供一种目标二维中心坐标点确定方法、装置、设备及测距系统。目标二维中心坐标点确定方法包括:获取原始图像中的目标的轮廓边缘图像;对轮廓边缘图像进行第一遍历,并确定轮廓边缘图像中的第一指定区域;对第一指定区域进行第二遍历,并确定第二指定区域;在第二指定区域内选取符合第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在原始图像中的坐标。在农作物或杂草的轮廓边缘图像中,越接近目标中心位置单位区域内像素点越密集,本发明通过两次遍历提取像素点最密集的区域,并在该区域内选取一个像素点作为目标的二维中心坐标点,提高农田除草机器人对目标定位的准确度。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种目标二维中心坐标点确定方法、装置、设备及测距系统。
背景技术
为了实现田间农作物全生命周期绿色无公害的生长,以及农业的可持续性发展。众多科研工作者将研究的重心投入到农业移动机器人的全自动除草领域。农业移动机器人的出现与使用,不仅可以代替人类完成枯燥无味和重复性的农业作业,而且可以在不同户外环境中高效持续作业,还能够提高生产效率和有效解放了人类的双手。因此,在自然生长环境条件下,农业移动机器人如何准确快速的识别与清除田间农作物的杂草目标对于实现田间智能化管理起到重要作用。
现有的除草机器人,大多是通过图像识别农作物与杂草,然后按照预设的路径行走实现除草。
但是,现有除草机器人对杂草的定位准确度低,除草效果差。
发明内容
本发明实施例的目的在于提供一种目标二维中心坐标点确定方法,旨在解决现有除草机器人对杂草的定位准确度低,除草效果差的技术问题。
本发明实施例是这样实现的,所述目标二维中心坐标点确定方法包括:
获取原始图像中的目标的轮廓边缘图像;
对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多;
对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多;
在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标。
本发明实施例的另一目的在于提供一种目标二维中心坐标点确定装置,所述目标二维中心坐标点确定装置包括:
获取单元,用于获取原始图像中的目标的轮廓边缘图像;
第一遍历单元,用于对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多;
第二遍历单元,用于对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多;以及
坐标信息确定单元,用于在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标。
本发明实施例的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述目标二维中心坐标点确定方法的步骤。
本发明实施例的另一目的在于提供一种测距系统,用于多目标之间的立体测距,所述测距系统包括:深度相机Realsense D435i、距离计算单元以及上述的计算机设备;
所述计算机设备用于确定目标的二维中心坐标点;
所述深度相机Realsense D435i用于将位于像素坐标系下的目标二维中心坐标点转化为位于相机坐标系下的三维坐标点;
所述距离计算单元用于根据目标的三维坐标点信息计算目标与目标之间在三维立体空间中的距离:
其中,(fx,fy)为像素坐标系下目标的二维中心坐标点在所述原始图像中的坐标信息,camera_cx、camera_cy、camera_fx、camera_fy为获取的所述深度相机Realsense D435i的内参,可以通过深度相机标定完成相机内参的获取工作,(camera_cx,camera_cy)表示成像坐标系下的主点坐标,用于实现像素坐标系与成像坐标系间的转换,camera_fx和camera_fy表示深度相机的焦距,用于实现成像坐标系与相机坐标系间的转换,depth_scale为深度像素与现实单位比例,d为在深度相机Realsense D435i存储在彩色图像所对齐的深度图像中目标的二维中心坐标点(fx,fy)所对应的深度信息,(X,Y,Z)为通过坐标系转换生成位于相机坐标系下相对应的三维坐标点信息。
本发明所提供的一种目标二维中心坐标点确定方法,在农作物或杂草的轮廓边缘图像中,一般越接近目标中心位置单位区域内的像素点越密集,本发明通过对目标的轮廓边缘图像进行第一遍历,提取像素点最密集的第一指定区域,然后对第一指定区域进行第二遍历,在第一指定区域内进一步提取像素点最密集的第二指定区域,从而进一步缩小了目标二维中心坐标点的区域,当在第二指定区域内选取一个像素点作为目标的二维中心坐标点,提高了除草机器人对目标定位的准确度,进而提高机器人的除草效果。
附图说明
图1为本发明实施例提供的一种目标二维中心坐标点确定方法的应用系统结构框图;
图2为本发明实施例提供的一种目标二维中心坐标点确定方法的流程图;
图3为本发明实施例提供的一种获取目标的轮廓边缘图像的流程图;
图4为本发明实施例提供的一种确定所述第一指定区域的流程图;
图5为本发明实施例提供的一种确定所述第二指定区域的流程图;
图6为本发明实施例提供的一种目标二维中心坐标点确定装置的结构框图;
图7为一个实施例中计算机设备的内部结构框图;
图8为不同边缘检测算子提取的目标轮廓边缘图像;
图9为本发明实施例提供的一种目标二维中心坐标点确定方法确定目标二维中心坐标点的过程示意图。
图10为本发明实施例提供的一种回算目标二维中心坐标点在原始图像中的坐标信息的过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一xx脚本称为第二xx脚本,且类似地,可将第二xx脚本称为第一xx脚本。
图1为本发明实施例提供的一种目标二维中心坐标点确定方法的应用系统结构示意图,如图1所示,在该应用系统中,包括深度相机110以及计算机设备120以及除草机器人130。
深度相机110可以选用Realsense D435i,但并不局限于此。
计算机设备120可以是独立的物理服务器或终端,也可以是多个物理服务器构成的服务器集群,可以是提供云服务器、云数据库、云存储和CDN等基础云计算服务的云服务器。
除草机器人130至少包括移动机构、除草机构以及控制单元,本实施例对除草机器人的具体结构不做限制,除草机器人130的控制单元、计算机设备120以及深度相机110可以进行通信连接,本发明在此不做限制。
如图2所示,在一个实施例中,提出了一种目标二维中心坐标点确定方法,本发明实施例主要以该方法应用于上述图1中的计算机设备120来举例说明。一种目标二维中心坐标点确定方法,具体可以包括以下步骤:
步骤S202,获取原始图像中的目标的轮廓边缘图像。
在本发明实施例中,计算机设备120可以从其他外界设备上直接获取目标的轮廓边缘图像,也可以是计算机设备120中预存有目标的轮廓边缘图像,或者是计算机设备120通过对RGB彩色图像进行处理得到目标的轮廓边缘图像。以目标二维中心坐标点的确定方法应用于图1中的系统为例说明,则目标可以为杂草和农作物,通过分别确定杂草和农作物的二维中心坐标点,再将其位于像素坐标系下的二维中心坐标点转换为位于相机坐标系下的三维坐标点,从而可以计算出多个目标之间的空间立体距离,便于根据农作物与杂草之间的距离以及杂草与杂草之间距离规划除草机器人的除草路径以及控制除草机构进行除草作业,从而实现准确除草。
在本发明实施例中,深度相机110可以从彩色图像视频流中提取关键帧图像(640×480像素大小)作为RGB彩色图像发送给计算机设备120,该关键帧图像即为原始图像。计算机设备120可以对原始图像进行预处理,将原始图像压缩处理为500×400像素大小并导入训练完成的深度网络模型进行目标识别——识别彩色图像中的玉米和杂草,并分别剪切玉米的图像和杂草的图像,此时剪切后的玉米图像和杂草图像为原始图像中剪切的目标图像。如图9中的(c-5cut image),首先记录在原始图像中剪切出的目标图像的长L和宽WL×W为在原始图像中目标识别框的尺寸);然后对其进行放缩处理,放缩为640×480像素大小,最后对放缩后图像进行剪切处理,剪切中心区域为500×400像素大小。通过采用RGB颜色空间下的EXG方法对玉米图像和杂草图像进行灰度化处理,并利用OTSU算法对灰度化处理后的玉米图像和杂草图像进行处理得到其对应的二值化图像,然后利用边缘检测算法对玉米和杂草的轮廓提取,从而可以获取目标的轮廓边缘图像。其中边缘检测算法可以使用二阶边缘检测算子Canny算子和Laplacian算子或者一阶边缘检测算子:Sobel算子、Roberts算子和Prewitt算子等,但不限于此。不同边缘检测算子对应的目标轮廓边缘图像如图8所示,优选地,利用Canny算子的边缘检测算法提取的目标轮廓边缘图像最为清晰。
如图3所示,在本发明一个实施例中,以利用基于Canny算子的边缘检测算法对玉米和杂草的轮廓提取为例说明,利用基于Canny算子的边缘检测算法对玉米和杂草的轮廓提取又包括如下步骤:
步骤S302,利用经典的二阶边缘检测Canny算子对目标的二值化图像进行边缘检测;
步骤S304,利用Open CV中的cv.findContours库函数记录边缘检测后的所述目标的轮廓边缘坐标;
步骤S306,将所述目标的轮廓边缘坐标的RGB赋值为(255,255,255)。
本发明实施例优选利用经典的二阶边缘检测Canny算子对目标的二值化图像进行边缘检测,相比于其他的边缘检测算法能够得到更加完整有效的图像轮廓边缘信息,为目标二维中心坐标点的精准选取提供了保障。
步骤S204,对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多。
在本发明实施例中,第一预设条件为像素点的R、G、B数值大于预设值,例如可以设置像素点的R、G、B数值均大于250。在第一遍历过程中通过计算每个搜索框内R、G、B数值均大于250的像素点的数量,找到R、G、B数值大于250的像素点的数量最多的第一遍历搜索框,该第一遍历搜索框对应的区域即为第一指定区域,从而确定目标轮廓边缘图像中R、G、B数值大于250的像素点最密集的区域。对于农作物或者杂草,其中心位置一般应该为主干茎位置,而农作物或者杂草的枝叶一般都是从主干茎顶部向外延伸生长,根据农作物或杂草的轮廓边缘图像也可以看出其R、G、B数值大于250的像素点越密集的区域越接近目标的中心位置,确定第一指定区域相当于初步确定了目标中心位置的区域。
如图4所示,在本发明一个实施例中,步骤S204可以包括如下步骤:
在本发明实施例中,第一遍历可以为优先行向遍历或优先列向遍历,本实施例以按照优先行向前进的方式遍历为例说明,预先定义第一遍历的行向步长、列向步长以及第一遍历搜索框的大小等遍历参数,本实施例对第一遍历的遍历参数不做限制,例如,可以预先设定第一遍历的行向步长为5像素大小,列向步长为5像素大小,第一遍历搜索框的大小为100×100像素。例如,剪切的目标轮廓边缘图像的大小为500×400像素,则第一遍历中行向第一遍历搜索框的数量为81个,列向第一遍历搜索框的数量为61个。通过计算第一遍历中行向第一遍历搜索框的数量和列向第一遍历搜索框的数量便于确定第一指定区域对应的第一遍历搜索框的位置。在第一遍历中可以将在第一遍历中每一步的第一遍历搜索框看成在目标轮廓边缘图像中呈81×61的阵列排列,通过确定第一指定区域对应的第一遍历搜索框所在的行和列的位置从而可以确定其在目标轮廓边缘图像中的位置。
步骤S404,利用所述第一遍历搜索框对所述轮廓边缘图像按照优先行向前进的方式遍历,并依次存储所述第一遍历搜索框中符合所述第一预设条件的像素点的数量。
在本发明实施例,第一预设条件为像素点的R、G、B值大于250,通过遍历计算每一个第一遍历搜索框中的符合第一预设条件的像素点的数量并存储,从而可以通过对比找到符合第一预设条件的像素点的数量最多的第一遍历搜索框。
步骤S406,确定所述第一指定区域对应的所述第一遍历搜索框的位置序号位置序号是从数字1开始计数的正整数,所述第一指定区域对应的所述第一遍历搜索框为:包括符合所述第一预设条件的像素点的数量最多的第一遍历搜索框。
在本发明实施例中,第一遍历搜索框的位置序号指在第一遍历中按照优先行向的计数规则,该第一遍历搜索框是第个,即为该第一遍历搜索框的位置序号。例如,在第一遍历中,第100个第一遍历搜索框对应的位置序号即为100。
步骤S408,根据以及计算所述第一指定区域对应的所述第一遍历搜索框在所述轮廓边缘图像中的位置信息 和均是从数字0开始计数的自然数,用于表示所述第一遍历搜索框在所述轮廓边缘图像中所处的行和列的位置信息:
在本发明实施例中,第一指定区域对应的第一遍历搜索框在轮廓边缘图像中的位置信息指第一指定区域对应的第一遍历搜索框在81×61的阵列中位于第行,第列,其中,和均是从数字0开始计数的自然数。例如,第一指定区域对应的第一遍历搜索框的位置序号为100,则,为1,为18,从而可以确定第一指定区域对应的第一遍历搜索框在轮廓边缘图像中的位置为第1行第18列。
步骤S410,根据所述第一遍历搜索框在所述轮廓边缘图像中所处的行和列位置信息确定所述第一指定区域。
在本发明实施例中,已知第一指定区域对应的第一遍历搜索框在轮廓边缘图像中的位置,从而可以确定第一指定区域,具体地:可以根据第一指定区域对应的第一遍历搜索框在轮廓边缘图像中的位置确定该第一遍历搜索框的左上端点和右下端点的二维坐标信息,从而可以根据该第一遍历搜索框对角点的位置确定第一遍历搜索框对应的第一指定区域。第一指定区域对应的第一遍历搜索框左上端点和右下端点的二维坐标信息可以表示为:
其中,为所述第一指定区域对应的所述第一遍历搜索框左上端点的二维坐标,为所述第一指定区域对应的所述第一遍历搜索框右下端点的二维坐标,l1为所述第一遍历的行向步长,w1为所述第一遍历的列向步长,L1为所述第一遍历搜索框的行向尺寸大小,W1为所述第一遍历搜索框的列向尺寸大小。
步骤S206,对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多。
在本发明实施例中,第二预设条件为在第一指定区域内的像素点的R、G、B数值大于预设值,例如,第二预设条件可以为像素点的R、G、B数值均大于250。在第二遍历过程中通过计算每个第二遍历搜索框内R、G、B数值均大于250的像素点的数量,找到R、G、B数值大于250的像素点的数量最多的第二遍历搜索框,该第二遍历搜索框对应的区域即为第二指定区域,从而确定第一指定区域内R、G、B数值大于250的像素点最密集的区域,从而在第一指定区域的基础上进一步缩小了目标中心位置的区域,进一步提高了目标中心位置的定位。
如图5所示,在本发明一个实施例中,步骤S206可以包括如下步骤:
在本发明实施例中,第二遍历可以为优先行向遍历或优先列向遍历,本实施例以按照优先行向前进的方式遍历为例说明,预先定义第二遍历的行向步长、列向步长以及第二遍历搜索框的大小等遍历参数,本实施例对第二遍历的遍历参数不做限制,例如,可以预先设定第二遍历的行向步长为2像素大小,列向步长为2像素大小,遍历搜索框的大小为10×10像素。由于第一指定区域为其所对应的第一遍历搜索框对应区域,所以第一指定区域的大小为100×100像素,则在第二遍历中行向第二遍历搜索框的数量为46,列向第二遍历搜索框的数量也为46,通过计算第二遍历中行向第二遍历搜索框的数量和列向第二遍历搜索框的数量便于确定第二指定区域对应的第二遍历搜索框的位置。
步骤S504,利用所述第二遍历搜索框对所述第一指定区域按照优先行向前进的方式遍历,并依次存储所述第二遍历搜索框中符合所述第二预设条件的像素点的数量。
在本发明实施例中,第二预设条件为像素点的R、G、B值大于250,通过第二遍历计算每一个第二遍历搜索框中的符合第二预设条件的像素点的数量并存储,从而可以通过对比找到符合第二预设条件的像素点的数量最多的第二遍历搜索框。可以将第一遍历中计算的每一个第一遍历搜索框中的符合第一预设条件的像素点的数量和第二遍历中计算的每一个第二遍历搜索框中的符合第二预设条件的像素点的数量存储在不同的数据库中。
步骤S506,确定所述第二指定区域对应的所述第二遍历搜索框的位置序号位置序号是从数字1开始计数的正整数,所述第二指定区域对应的所述第二遍历搜索框为:包括符合所述第二预设条件的像素点的数量最多的第二遍历搜索框。
在本发明实施例中,第二遍历搜索框的位置序号指在第二遍历中按照优先行向的计数规则,该第二遍历搜索框是第个,即为该第二遍历搜索框的位置序号,例如,在第二遍历中,第50个第二遍历搜索框对应的位置序号即为50。
步骤S508,根据以及计算所述第二指定区域对应的所述第二遍历搜索框在所述第一指定区域中的位置信息 和均是从数字0开始计数的自然数,用于表示所述第二遍历搜索框在所述第一指定区域中所处的行和列的位置信息:
在本发明实施例中,第二指定区域对应的第二遍历搜索框在第一指定区域中的位置信息指第二指定区域对应的第二遍历搜索框在46×46的阵列中位于第行,第列,其中,和均是从数字0开始计数的自然数。例如,第二指定区域对应的第二遍历搜索框的位置序号为50,则,为1,为3,从而可以确定第一指定区域对应的第二遍历搜索框在第二指定区域中的位置为第1行第3列。
步骤S510,根据所述第二遍历搜索框在所述第一指定区域中所处的行和列的位置信息确定所述第二指定区域。
在本发明实施例中,已知第二指定区域对应的第二遍历搜索框在第一指定区域中的位置,从而可以确定第二指定区域。具体地,可以根据第二指定区域对应的第二遍历搜索框在轮廓边缘图像中位置确定该第二遍历搜索框的左上端点和右下端点的二维坐标信息,从而可以根据第二遍历搜索框对角点的位置确定第二遍历搜索框对应的第二指定区域,第二指定区域对应的第二遍历搜索框左上端点和右下端点的二维坐标信息可以表示为:
其中,为所述第二指定区域对应的所述第二遍历搜索框左上端点的二维坐标,为所述第二指定区域对应的所述第二遍历搜索框右下端点的二维坐标,l2为所述第二遍历的行向步长,w2为所述第二遍历的列向步长,L2为所述第二遍历搜索框的行向尺寸大小,W2为所述第二遍历搜索框的列向尺寸大小。
步骤S208,在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标。
在本发明实施例中,通过对第一指定区域进行第二遍历,在第一指定区域内找到符合第二预设条件最多的像素点的第二指定区域,相当于将目标二维中心坐标点的区域缩至第二指定区域内,从而可以从第二指定区域内随机选取一个符合第二预设条件的像素点作为目标二维中心坐标点。优选地,可以在第二指定区域内靠近中心位置处选取符合第二预设条件的像素点作为目标二维中心坐标点,进一步提高目标二维中心坐标点确定位置的准确度。
在本发明实施例中,在第一遍历和第二遍历中,不仅计算每一个遍历搜索框内符合第一、第二预设条件的像素点的数量,还可以获取每一个符合第一、第二预设条件的像素点的坐标,例如在第二指定区域内选取的作为目标二维中心坐标点的像素点的坐标为(fi,fj),则该像素点在原始图像中对应的二维坐标信息(fx,fy)为:
其中,L为原始图像中目标识别框的长度尺寸,W为原始图像中目标识别框的宽度尺寸(也可以理解为从原始图像中剪切出的目标图像的尺寸),70为对放缩处理后的图像进行剪切时长度方向单边剪切掉的尺寸大小,40为对放缩处理后的图像进行剪切时宽度方向单边剪切掉的尺寸大小,640×480为深度相机采集的原始图像的像素大小,500×400为对原始图像进行压缩处理后的像素大小,(xmin,ymin)为目标识别框在原始图像中左上端点的二维坐标,从而可以确定目标二维中心坐标点的坐标。
在本发明实施例中,为了便于理解回算目标二维中心坐标点在原始图像中的坐标,如图10所示,图10(a)显示了数据预处理部分的准备过程,同时在图像上标注了对应关键信息。其中,图10(a)中的下方图像为对原始图像进行压缩后的玉米与杂草目标识别结果图像,图10(a)中的上方图像为从目标识别结果图像中剪切玉米目标并的处理后结果图像。图10(b)介绍了该二次遍历算法的核心步骤流程以及标注了对应位置信息。图10(b)下方图像为遍历搜索框大小为100×100的局部区域放大图像,像素点坐标(fi,fj)位于x1-y1坐标系下,遍历搜索框(10×10)左上端和右下端二维坐标位于x2-y2坐标系下。图10(b)上方图像为保留有主要信息区域的玉米目标轮廓边缘图像,遍历搜索框(100×100)左上端和右下端二维坐标位于x3-y3坐标系下。图10(c)为利用公式将像素点坐标(fi,fj)回算为原始图像(也可以理解为关键帧图像)上对应的二维坐标信息(fx,fy)的显示结果,二维坐标信息(fx,fy)位于x4-y4坐标系下。
本发明实施例提供的一种目标二维中心坐标点确定方法,在农作物或杂草的轮廓边缘图像中,一般越接近目标中心位置单位区域内的像素点越密集,本发明通过对目标的轮廓边缘图像进行第一遍历,提取像素点最密集的第一指定区域,然后对第一指定区域进行第二遍历,在第一指定区域内进一步提取像素点最密集的第二指定区域,从而进一步缩小了目标二维中心坐标点的区域,当在第二指定区域内选取一个像素点作为目标的二维中心坐标点,提高了除草机器人对目标定位的准确度,进而提高机器人的除草效果。
如图6所示,在一个实施例中,提供了一种目标二维中心坐标点确定装置,该目标二维中心坐标点确定装置可以集成于上述的计算机设备120中,具体可以包括获取单元610、第一遍历单元620、第二遍历单元630以及坐标信息确定单元640。
获取单元610,用于获取原始图像中的目标的轮廓边缘图像;
第一遍历单元620,用于对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多。
第二遍历单元630,用于对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多。
坐标信息确定单元640,用于在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标。
在本发明实施例中,目标二维中心坐标点确定装置所包含第一遍历单元620、第一遍历单元620、第二遍历单元630以及坐标信息确定单元640的功能实现与上文的目标二维中心坐标点确定方法中的步骤S202、步骤S204、步骤S206以及步骤S208一一对应,对于该目标二维中心坐标点确定装置中的具体解释,以及相关的细化、优化的内容参见上文目标二维中心坐标点确定方法的具体实施例,此处不再赘述。
本发明实施例提供的一种目标二维中心坐标点确定装置,通过设置第一遍历单元620和第二遍历单元630,通过第一遍历单元620对目标轮廓边缘图像进行第一遍历,确定第一指定区域,再通过第二遍历单元630对第一指定区域进行第二遍历,确定第二指定区域,从而进一步缩小了目标二维中心坐标点的区域,当在第二指定区域内选取一个像素点作为目标的二维中心坐标点,提高了除草机器人对目标定位的准确度,进而提高机器人的除草效果。
图7示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的计算机设备120。如图7所示,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现目标二维中心坐标点确定方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行目标二维中心坐标点确定方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本发明相关的部分结构的框图,并不构成对本发明所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本发明提供的目标二维中心坐标点确定装置可以实现为一种计算机程序的形式,计算机程序可在如图7所示的计算机设备上运行。计算机设备的存储器中可存储组成该目标二维中心坐标点确定装置的各个程序模块,比如,图6所示的获取单元610、第一遍历单元620、第二遍历单元630以及坐标信息确定单元640。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的目标二维中心坐标点确定方法中的步骤。
例如,图7所示的计算机设备可以通过如图6所示的目标二维中心坐标点确定装置中的获取单元610执行步骤S202。计算机设备可通过第一遍历单元620执行步骤S204。计算机设备可通过第二遍历单元630执行步骤S206。计算机设备可通过坐标信息确定单元640执行步骤S208。
在本发明一个实施例中,本发明提出了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
步骤S202,获取原始图像中的目标的轮廓边缘图像;
步骤S204,对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多;
步骤S206,对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多;
步骤S208,在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标。
在本发明一个实施例中,本发明提供一种测距系统,用于多目标之间的空间立体测距,其特征在于,所述测距系统包括:深度相机Realsense D435i、距离计算单元以及上述的计算机设备120;
所述计算机设备用于确定目标的二维中心坐标点;
所述深度相机Realsense D435i用于将位于像素坐标系下的目标二维中心坐标点转化为位于相机坐标系下的三维坐标点;
所述距离计算单元用于根据目标的三维坐标点信息计算目标与目标之间在三维立体空间中的距离:
其中,(fx,fy)为像素坐标系下目标的二维中心坐标点在所述原始图像中的坐标信息,camera_cx、camera_cy、camera_fx、camera_fy为获取的所述深度相机Realsense D435i的内参,可以通过深度相机标定完成相机内参的获取工作,(camera_cx,camera_cy)表示成像坐标系下的主点坐标,用于实现像素坐标系与成像坐标系间的转换,camera_fx和camera_fy表示深度相机的焦距,用于实现成像坐标系与相机坐标系间的转换,depth_scale为深度像素与现实单位比例,d为在深度相机Realsense D435i存储在彩色图像所对齐的深度图像中目标的二维中心坐标点(fx,fy)所对应的深度信息,(X,Y,Z)为通过坐标系转换生成位于相机坐标系下相对应的三维坐标点信息。
在本发明实施例中,计算机设备中的处理器可以执行上述的目标二维中心坐标点的确定方法,从而确定目标的二维中心坐标点,目标的二维中心坐标点指目标二维中心坐标点在所述原始图像中的坐标。
在本发明实施例中,深度相机Realsense D435i、距离计算单元以及上述的计算机设备相互之间可以进行数据通信,本实施例对其相互之间的数据通信方式不做限制。
本发明实施例提供的一种测距系统,通过设置上述的计算机设备,可以准确获取目标的二维中心坐标点,再通过深度相机Realsense D435i将位于像素坐标系下的目标二维中心坐标点转化为位于相机坐标系下的三维坐标点,从而可以计算多目标之间的三维立体空间中的距离,提高多目标立体测距的准确性。当本发明实施例提供的测距系统应用于除草系统,可以准确获得农作物与杂草之间,以及杂草与杂草之间的立体距离,从而可以方便规划除草机器人的除草路径以及除草机构动作进行除草,提高除草作业的除草效果。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种目标二维中心坐标点确定方法,其特征在于,所述目标二维中心坐标点确定方法包括:
获取原始图像中的农作物或杂草的轮廓边缘图像;
对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多;
对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多;
在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标;
所述对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,包括:
利用所述第一遍历搜索框对所述轮廓边缘图像按照优先行向前进的方式遍历,并依次存储所述第一遍历搜索框中符合所述第一预设条件的像素点的数量;
根据所述第一遍历搜索框在所述轮廓边缘图像中所处的行和列位置信息确定所述第一指定区域;
所述对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,包括:
利用所述第二遍历搜索框对所述第一指定区域按照优先行向前进的方式遍历,并依次存储所述第二遍历搜索框中符合所述第二预设条件的像素点的数量;
根据所述第二遍历搜索框在所述第一指定区域中所处的行和列的位置信息确定所述第二指定区域;
第一预设条件为像素点的R、G、B数值大于预设值;
第二预设条件为在第一指定区域内的像素点的R、G、B数值大于预设值。
5.根据权利要求1所述的一种目标二维中心坐标点确定方法,其特征在于,获取农作物或杂草的轮廓边缘图像包括:
利用经典的二阶边缘检测Canny算子对目标的二值化图像进行边缘检测;
利用Open CV中的cv.findContours库函数记录边缘检测后的所述目标的轮廓边缘坐标;
将所述目标的轮廓边缘坐标的RGB赋值为(255,255,255)。
6.一种目标二维中心坐标点确定装置,其特征在于,所述目标二维中心坐标点确定装置包括:
获取单元,用于获取原始图像中的农作物或杂草的轮廓边缘图像;
第一遍历单元,用于对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,所述第一指定区域满足:该区域内符合第一预设条件的像素点的数量最多;
第二遍历单元,用于对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,所述第二指定区域满足:该区域内符合第二预设条件的像素点的数量最多;以及
坐标信息确定单元,用于在所述第二指定区域内选取符合所述第二预设条件的像素点作为目标二维中心坐标点,并回算目标二维中心坐标点在所述原始图像中的坐标;
所述对所述轮廓边缘图像进行第一遍历,并确定所述轮廓边缘图像中的第一指定区域,包括:
利用所述第一遍历搜索框对所述轮廓边缘图像按照优先行向前进的方式遍历,并依次存储所述第一遍历搜索框中符合所述第一预设条件的像素点的数量;
根据所述第一遍历搜索框在所述轮廓边缘图像中所处的行和列位置信息确定所述第一指定区域;
所述对所述第一指定区域进行第二遍历,并确定所述第一指定区域内的第二指定区域,包括:
利用所述第二遍历搜索框对所述第一指定区域按照优先行向前进的方式遍历,并依次存储所述第二遍历搜索框中符合所述第二预设条件的像素点的数量;
根据所述第二遍历搜索框在所述第一指定区域中所处的行和列的位置信息确定所述第二指定区域;
第一预设条件为像素点的R、G、B数值大于预设值;
第二预设条件为在第一指定区域内的像素点的R、G、B数值大于预设值。
7.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至5中任一项权利要求所述目标二维中心坐标点确定方法的步骤。
8.一种测距系统,用于多目标之间的立体测距,其特征在于,所述测距系统包括:深度相机Realsense D435i、距离计算单元以及权利要求7所述的计算机设备;
所述计算机设备用于确定目标的二维中心坐标点;
所述深度相机Realsense D435i用于将位于像素坐标系下的目标二维中心坐标点转化为位于相机坐标系下的三维坐标点;
所述距离计算单元用于根据目标的三维坐标点信息计算目标与目标之间在三维立体空间中的距离:
其中,(fx,fy)为像素坐标系下目标的二维中心坐标点在所述原始图像中的坐标信息,camera_cx、camera_cy、camera_fx、camera_fy为获取的所述深度相机Realsense D435i的内参,可以通过深度相机标定完成相机内参的获取工作,(camera_cx,camera_cy)表示成像坐标系下的主点坐标,用于实现像素坐标系与成像坐标系间的转换,camera_fx和camera_fy表示深度相机的焦距,用于实现成像坐标系与相机坐标系间的转换,depth_scale为深度像素与现实单位比例,d为在深度相机Realsense D435i存储在彩色图像所对齐的深度图像中目标的二维中心坐标点(fx,fy)所对应的深度信息,(X,Y,Z)为通过坐标系转换生成位于相机坐标系下相对应的三维坐标点信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011170842.3A CN112215893B (zh) | 2020-10-28 | 2020-10-28 | 目标二维中心坐标点确定方法、装置、设备及测距系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011170842.3A CN112215893B (zh) | 2020-10-28 | 2020-10-28 | 目标二维中心坐标点确定方法、装置、设备及测距系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112215893A CN112215893A (zh) | 2021-01-12 |
CN112215893B true CN112215893B (zh) | 2022-10-28 |
Family
ID=74057294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011170842.3A Active CN112215893B (zh) | 2020-10-28 | 2020-10-28 | 目标二维中心坐标点确定方法、装置、设备及测距系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215893B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578627B (zh) * | 2022-09-21 | 2023-05-09 | 凌度(广东)智能科技发展有限公司 | 一种单目图像边界识别方法、装置、介质及幕墙机器人 |
CN117649420B (zh) * | 2023-11-14 | 2024-07-23 | 北京医百科技有限公司 | 确定图像中目标区域的膨胀域的方法、装置及电子设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07167611A (ja) * | 1993-12-10 | 1995-07-04 | Glory Ltd | 硬貨中心位置決定方式 |
KR20000009660A (ko) * | 1998-07-27 | 2000-02-15 | 윤종용 | 부품의 중심 좌표를 구하는 방법 |
CN103761731A (zh) * | 2014-01-02 | 2014-04-30 | 河南科技大学 | 一种基于非下采样轮廓波变换的红外空中小目标检测方法 |
CN103793712A (zh) * | 2014-02-19 | 2014-05-14 | 华中科技大学 | 一种基于边缘几何特征的图像识别方法及系统 |
CN107240118A (zh) * | 2017-05-19 | 2017-10-10 | 成都信息工程大学 | 一种基于rgb颜色直方图的判别式跟踪方法 |
CN107273905A (zh) * | 2017-06-14 | 2017-10-20 | 电子科技大学 | 一种结合运动信息的目标主动轮廓跟踪方法 |
WO2018105530A1 (ja) * | 2016-12-08 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
CN109389601A (zh) * | 2018-10-19 | 2019-02-26 | 山东大学 | 基于像素间相似性的彩色图像超像素分割方法 |
CN109631758A (zh) * | 2019-01-02 | 2019-04-16 | 中国科学院上海光学精密机械研究所 | 样品中心的检测装置及检测方法 |
CN110349216A (zh) * | 2019-07-18 | 2019-10-18 | 合肥泰禾光电科技股份有限公司 | 货箱位置检测方法及装置 |
CN110599544A (zh) * | 2019-08-08 | 2019-12-20 | 佛山科学技术学院 | 一种基于机器视觉的工件定位方法及装置 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN111028257A (zh) * | 2019-11-06 | 2020-04-17 | 北京航空航天大学 | 微透镜子图像几何中心及边缘的提取方法及装置 |
CN111630565A (zh) * | 2018-09-10 | 2020-09-04 | 深圳配天智能技术研究院有限公司 | 图像处理方法、边缘提取方法、处理设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5953842B2 (ja) * | 2012-03-14 | 2016-07-20 | オムロン株式会社 | 画像検査方法および検査領域設定方法 |
-
2020
- 2020-10-28 CN CN202011170842.3A patent/CN112215893B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07167611A (ja) * | 1993-12-10 | 1995-07-04 | Glory Ltd | 硬貨中心位置決定方式 |
KR20000009660A (ko) * | 1998-07-27 | 2000-02-15 | 윤종용 | 부품의 중심 좌표를 구하는 방법 |
CN103761731A (zh) * | 2014-01-02 | 2014-04-30 | 河南科技大学 | 一种基于非下采样轮廓波变换的红外空中小目标检测方法 |
CN103793712A (zh) * | 2014-02-19 | 2014-05-14 | 华中科技大学 | 一种基于边缘几何特征的图像识别方法及系统 |
WO2018105530A1 (ja) * | 2016-12-08 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
CN107240118A (zh) * | 2017-05-19 | 2017-10-10 | 成都信息工程大学 | 一种基于rgb颜色直方图的判别式跟踪方法 |
CN107273905A (zh) * | 2017-06-14 | 2017-10-20 | 电子科技大学 | 一种结合运动信息的目标主动轮廓跟踪方法 |
CN111630565A (zh) * | 2018-09-10 | 2020-09-04 | 深圳配天智能技术研究院有限公司 | 图像处理方法、边缘提取方法、处理设备及存储介质 |
CN109389601A (zh) * | 2018-10-19 | 2019-02-26 | 山东大学 | 基于像素间相似性的彩色图像超像素分割方法 |
CN109631758A (zh) * | 2019-01-02 | 2019-04-16 | 中国科学院上海光学精密机械研究所 | 样品中心的检测装置及检测方法 |
CN110349216A (zh) * | 2019-07-18 | 2019-10-18 | 合肥泰禾光电科技股份有限公司 | 货箱位置检测方法及装置 |
CN110599544A (zh) * | 2019-08-08 | 2019-12-20 | 佛山科学技术学院 | 一种基于机器视觉的工件定位方法及装置 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
CN111028257A (zh) * | 2019-11-06 | 2020-04-17 | 北京航空航天大学 | 微透镜子图像几何中心及边缘的提取方法及装置 |
Non-Patent Citations (4)
Title |
---|
Fast Recognition and Precise Centroiding of Artificial Targets;Qiqiang Feng等;《2009 2nd International Congress on Image and Signal Processing》;20091030;1-4 * |
Image signal processing, analysis and detection for robotic system;Jiri Haska等;《2014 14th International Conference on Control, Automation and Systems (ICCAS 2014)》;20141218;1060-1063 * |
基于深度学习的机器人抓取位姿检测系统研究;徐焯基;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200215;第2020年卷(第2期);I140-308 * |
数码印花精准叠印系统及关键技术研究;任津雄;《中国博士学位论文全文数据库 信息科技辑》;20181215;第2018年卷(第12期);I138-96 * |
Also Published As
Publication number | Publication date |
---|---|
CN112215893A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7307743B2 (ja) | 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 | |
Gené-Mola et al. | Fruit detection and 3D location using instance segmentation neural networks and structure-from-motion photogrammetry | |
CN112380926B (zh) | 一种田间除草机器人除草路径规划系统 | |
CN114332415B (zh) | 基于多视角技术的输电线路廊道的三维重建方法及装置 | |
CN112215893B (zh) | 目标二维中心坐标点确定方法、装置、设备及测距系统 | |
Elfiky et al. | Automation of dormant pruning in specialty crop production: An adaptive framework for automatic reconstruction and modeling of apple trees | |
CN107563978A (zh) | 人脸去模糊方法及装置 | |
Xiang et al. | Field‐based robotic leaf angle detection and characterization of maize plants using stereo vision and deep convolutional neural networks | |
CN111696196A (zh) | 一种三维人脸模型重建方法及装置 | |
Lu et al. | Simultaneous direct depth estimation and synthesis stereo for single image plant root reconstruction | |
Xiang et al. | PhenoStereo: a high-throughput stereo vision system for field-based plant phenotyping-with an application in sorghum stem diameter estimation | |
Zou et al. | Density estimation method of mature wheat based on point cloud segmentation and clustering | |
CN111046730A (zh) | 植株数据处理方法、装置、计算机设备和存储介质 | |
Jiang et al. | Thin wire segmentation and reconstruction based on a novel image overlap-partitioning and stitching algorithm in apple fruiting wall architecture for robotic picking | |
CN107133260A (zh) | 一种地标图像的匹配识别方法和装置 | |
Saeed et al. | PeanutNeRF: 3D radiance field for peanuts | |
Xiang et al. | Research on plant growth tracking based on point cloud segmentation and registration | |
CN108109125A (zh) | 基于遥感图像的信息提取方法和装置 | |
Li et al. | Automatic reconstruction and modeling of dormant jujube trees using three-view image constraints for intelligent pruning applications | |
CN116071653A (zh) | 基于自然图像的树木多级枝干结构自动提取方法 | |
Chen et al. | A method for multi-target segmentation of bud-stage apple trees based on improved YOLOv8 | |
CN109241811B (zh) | 基于图像螺旋线的场景分析方法及使用该方法的场景目标监控系统 | |
Wang et al. | Visual measurement method of crop height based on color feature in harvesting robot | |
Wang | [Retracted] Target Recognition and Trajectory Planning of Apple Harvesting Robot considering Color Multimedia Image Segmentation Algorithm | |
Gao et al. | Aerial Image-based Inter-day Registration for Precision Agriculture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |