CN116820125B - 一种基于图像处理的无人播种机控制方法及系统 - Google Patents
一种基于图像处理的无人播种机控制方法及系统 Download PDFInfo
- Publication number
- CN116820125B CN116820125B CN202310672348.4A CN202310672348A CN116820125B CN 116820125 B CN116820125 B CN 116820125B CN 202310672348 A CN202310672348 A CN 202310672348A CN 116820125 B CN116820125 B CN 116820125B
- Authority
- CN
- China
- Prior art keywords
- convolution
- target
- real
- seeding
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000010899 nucleation Methods 0.000 claims abstract description 123
- 238000009331 sowing Methods 0.000 claims abstract description 116
- 238000003708 edge detection Methods 0.000 claims abstract description 28
- 238000010586 diagram Methods 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims description 30
- 230000004913 activation Effects 0.000 claims description 29
- 238000010606 normalization Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 230000010339 dilation Effects 0.000 claims description 4
- 230000003628 erosive effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012271 agricultural production Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01C—PLANTING; SOWING; FERTILISING
- A01C7/00—Sowing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P60/00—Technologies relating to agriculture, livestock or agroalimentary industries
- Y02P60/20—Reduction of greenhouse gas [GHG] emissions in agriculture, e.g. CO2
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Soil Sciences (AREA)
- Remote Sensing (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Environmental Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及图像处理技术领域,揭露了一种基于图像处理的无人播种机控制方法及系统,所述方法包括:获取无人播种机采集的实时图像,对实时图像进行边缘检测,得到实时图像的播种轮廓信息;提取轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算目标播种坐标,基于目标播种坐标提取实时图像中的目标播种区域;利用预构建的路况识别网络对目标播种区域进行多重串联卷积,得到目标播种区域的卷积特征图;根据卷积特征图计算实时图像对应的行进路况,根据行进路况识别无人播种机对应的播种状态;根据播种状态计算所述无人播种机的行进速度及行进方向,基于行进速度及行进方向对无人播种机进行控制。本发明可以提高无人播种控制的准确度。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于图像处理的无人播种机控制方法及系统。
背景技术
随着我国农业政策的调整以及科学技术的发展,农业逐渐向向规模化、农场化发展,但仍然有大部分的地区使用传统的生产模式进行农业生产,尤其是山区等复杂地形区域,机械化普及度不是很高,为了提高农业生产中的机械化程度,大量的无人播种机投入农业生产,能够有效地提高播种的效率同时降低大规模终种植的成本。
无人播种机会因为播种环境的不同影像无人机的移动,导致种子在农田中分布极不均匀,无人机播种的效果较差,但现有的无人机控制方法主要是通过采用多层认知框架的知识表示方法,描述无人机个体行为规划和联盟形成的过程,在高级认知活动和反应控制信号方面生成一个中介应用于无人机控制,或通过层级式空间表达方式将地图信息和环境实体抽取为概念图,并用逻辑本体语言存储相关领域知识推理环境实体,实现无人播种机的语义理解,通过语义理解的结构对无人播种机进行控制,但需要无人播种机能够理解构建的概念本体事实库指令术语,且进行交互控制的图像信息不够准确,导致语义理解的准确度较差,进而无人播种机的控制准确度较差。
发明内容
本发明提供一种基于图像处理的无人播种机控制方法及系统,其主要目的在于解决无人播种机控制准确度较差的问题。
为实现上述目的,本发明提供的一种基于图像处理的无人播种机控制方法,包括:
获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息;
利用预设的边缘检测公式对所述实时图像进行边缘检测,所述边缘检测公式表示为:
其中,P表示所述实时图像的播种轮廓信息,F表示所述实时图像,°表示对所述实时图像进行图开运算,表示对所述实时图像进行膨胀操作,·表示对所述实时图像进行团运算,Θ表示对所述实时图像进行腐蚀操作;
提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域;
利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图;
根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态;
根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制。
可选地,所述提取所述播种轮廓信息对应的轮廓坐标点,包括:
以所述实时图像中的中心像素点为原点构建所述实时图像的像素坐标系;
在所述像素坐标系中确定所述播种轮廓信息对应的像素点在所述像素坐标系中的轮廓坐标点。
可选地,所述基于所述目标播种坐标提取所述实时图像中的目标播种区域,包括:
提取所述目标播种坐标在水平方向上的坐标最大值和坐标最小值及垂直方向上的坐标最大值和坐标最小值;
根据所述水平方向上的坐标最大值和坐标最小值及所述垂直方向上的坐标最大值和坐标最小值计算所述目标播种坐标的零阶图像矩及二阶图像矩;
利用如下公式计算所述目标播种坐标的零阶图像矩及二阶图像矩:
其中,G00表示所述目标播种坐标的零阶图像矩,imin表示所述水平方向上的坐标最小值,imax表示所述水平方向上的坐标最大值,jmin表示所述垂直方向上的坐标最小值,jmax表示所述水平方向上的坐标最大值,I(i,j)表示所述目标播种坐标在水平坐标i,垂直坐标j处的坐标值,G21表示所述二阶图像矩在垂直方向上的值,G22表示所述二阶图像矩在水平方向上的值;
根据所述零阶图像矩及所述二阶图像矩计算所述目标播种坐标的中心点,根据所述中心点确定所述实时图像中的目标播种区域;
利用如下公式计算所述目标播种坐标的中心点:
本发明实施例中,所述(x,y)为所述目标播种坐标的中心点,G22表示所述二阶图像矩在水平方向上的值,G00表示所述目标播种坐标的零阶图像矩,G21表示所述二阶图像矩在垂直方向上的值。
可选地,所述利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图,包括:
利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图;
将所述第一卷积图与所述目标播种区域进行融合,得到第一融合卷积图,利用所述路况识别网络中的第二卷积块对所述第一融合图进行卷积,得到第二融合图;
对所述第二融合图进行迭代卷积,得到更新融合图,直至所述路况识别网络中的最后一个卷积块对所述更新融合图进行卷积,得到目标融合卷积图;
对所述目标融合卷积图进行全局平均池化及激活计算,得到所述目标播种区域的卷积特征图。
可选地,所述利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图,包括:
对所述目标播种区域进行批归一化及激活运算,得到第一激活卷积图;
利用所述第一卷积块中的第一卷积核对所述第一激活卷积图进行卷积,得到核卷积图;
对所述核卷积图进行批归一化处理及激活运算,得到第二激活卷积图,利用所述第一卷积块中的第二卷积核对所述第二激活卷积图进行卷积,得到第一卷积图。
可选地,所述根据所述卷积特征图计算所述实时图像对应的行进路况,包括:
对所述卷积特征图进行不同方向的坐标编码,得到不同方向的编码图,对所述不同方向的编码图进行特征图融合,得到坐标融合特征图;
对所述坐标融合特征图进行卷积变换,得到目标维度的维度特征图,根据所述维度特征图的维度数目对所述维度特征图进行分解,得到不同维度的张量特征图;
对所述不同维度的张量特征图进行激活运算,得到所述卷积特征图中每个卷积通道的通道权重;
将所述每个卷积通道的通道权重与所述卷积特征图进行对应通道相乘,得到注意力特征;
计算所述注意力特征对应的路况分类概率,选取所述路况分类概率最大值对应的行进路况作为所述实时图像对应的行进路况。
可选地,所述根据所述行进路况识别所述无人播种机对应的播种状态,包括:
计算所述行进路况与预构建的播种状态集中每个播种状态之间的相似度;
从所述播种状态集中选取相似度最大的播种状态作为所述无人播种机对应的播种状态。
可选地,所述根据所述播种状态计算所述无人播种机的行进速度及行进方向,包括:
根据所述播种状态在预构建的行进策略库中确定所述无人播种机对应的目标行进策略;
根据所述目标行进策略确定所述无人播种机的行进速度及行进方向。
可选地,所述基于所述行进速度及所述行进方向对所述无人播种机进行控制,包括:
根据所述行进速度及所述行进方向生成运动控制指令;
将所述运动控制指令发送给所述无人播种机的运动控制组件;其中,所述运动控制指令用于启动所述运动控制组件对所述无人播种机进行控制。
为了解决上述问题,本发明还提供一种基于图像处理的无人播种机控制系统,所述系统包括:
边缘检测模块,用于获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息;
利用预设的边缘检测公式对所述实时图像进行边缘检测,所述边缘检测公式表示为:
其中,P表示所述实时图像的播种轮廓信息,F表示所述实时图像,ο表示对所述实时图像进行图开运算,表示对所述实时图像进行膨胀操作,·表示对所述实时图像进行团运算,Θ表示对所述实时图像进行腐蚀操作;
目标播种区域提取模块,用于提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域;
目标播种区域卷积模块,用于利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图;
播种状态识别模块,用于根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态;
无人播种机控制模块,用于根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制。
本发明实施例通过获取无人播种机采集的实时图像的播种轮廓信息,能够识别实时图像中无人播种机需要进行播种的轮廓,进而能够更精确地提取出实时图像中的目标播种区域,以提高播种状态识别的精确度;利用预构建的路况识别网络对目标播种区域进行多重串联卷积,得到更精确的卷积特征图;从而根据卷积特征图能够计算实时图像对应的行进路况,提高无人播种机对应的播种状态的识别准确度,以更精确地对无人播种机进行控制;通过播种状态计算无人播种机的行进速度及行进方向,以对无人播种机进行及时的行进控制,实现人播种机的准确控制。因此本发明提出的基于图像处理的无人播种机控制方法及系统,可以解决无人播种机控制准确度较差的问题。
附图说明
图1为本发明一实施例提供的基于图像处理的无人播种机控制方法的流程示意图;
图2为本发明一实施例提供的提取目标播种区域的流程示意图;
图3为本发明一实施例提供的对目标播种区域进行多重串联卷积的流程示意图;
图4为本发明一实施例提供的基于图像处理的无人播种机控制系统的功能模块图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于图像处理的无人播种机控制方法。所述基于图像处理的无人播种机控制方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于图像处理的无人播种机控制方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于图像处理的无人播种机控制方法的流程示意图。在本实施例中,所述基于图像处理的无人播种机控制方法包括:
S1、获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息。
本发明实施例中,无人播种机采集的实时图像是无人播种机在播种工作时获取的图像,具体地,可以通过安装在无人播种机上的拍照设备进行定时拍照,得到实时图像,例如,10s进行一次图像采集,得到实时图像,以根据实时的播种情况对无人播种机进行控制,提高无人播种机的控制效果。
本发明另一可选实施例中,采集的实时图像中可能包括人员、天空、杂草等于播种无关的信息,因此需要对实时图像进行边缘检测,提取出实时图像中的播种耕地的播种轮廓信息,以对无人播种机的实时播种情况进行识别。
本发明是实施例中,所述对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息,包括:
利用预设的边缘检测公式对所述实时图像进行边缘检测,所述边缘检测公式表示为:
其中,P表示所述实时图像的播种轮廓信息,F表示所述实时图像,ο表示对所述实时图像进行图开运算,表示对所述实时图像进行膨胀操作,·表示对所述实时图像进行团运算,Θ表示对所述实时图像进行腐蚀操作。
本发明实施例中,通过B_1边缘检测算子对实时图像进行开运算以及膨胀操作,能够去除实时图像照片中的噪声信息,再通过B_2对实时图像进行膨胀及腐蚀能够有效地提高实时图像的图像轮廓,同时B_2的结构能够进行不同的线性走向,进而能够提取实时图像中不规则的图像轮廓,得到更精确地播种轮廓信息。
S2、提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域。
本发明实施例中,轮廓坐标点播种轮廓信息在实时图像中对应的像素点的坐标位置,根据轮廓的坐标位置确定无人播种机需要进行播种的区域,例如,地垄、播种的路径等目标播种坐标,进而根据目标播种目标提取对应的目标播种区域。
本发明实施例中,所述提取所述播种轮廓信息对应的轮廓坐标点,包括:
以所述实时图像中的中心像素点为原点构建所述实时图像的像素坐标系;
在所述像素坐标系中确定所述播种轮廓信息对应的像素点在所述像素坐标系中的轮廓坐标点。
本发明实施例中,以中心像素点构建像素坐标系,进而确定播种轮廓信息对应的像素点得到轮廓坐标点,通过轮廓坐标点计算出实时图像中的轮廓信息对应的目标播种坐标,进而聚义目标播种坐标得到实时图像中的目标播种区域。
本发明实施例中,参阅图2所示,所述基于所述目标播种坐标提取所述实时图像中的目标播种区域,包括:
S21、提取所述目标播种坐标在水平方向上的坐标最大值和坐标最小值及垂直方向上的坐标最大值和坐标最小值;
S22、根据所述水平方向上的坐标最大值和坐标最小值及所述垂直方向上的坐标最大值和坐标最小值计算所述目标播种坐标的零阶图像矩及二阶图像矩;
S23、根据所述零阶图像矩及所述二阶图像矩计算所述目标播种坐标的中心点,根据所述中心点确定所述实时图像中的目标播种区域。
本发明实施例中,所述零阶图像矩及二阶图像矩是指目标播种坐标中每个坐标值的加权平均值,通过零阶图像矩及二阶图像矩能够计算目标播种坐标的数据中心,进而确定实时图像中的目标播种区域,其中,二阶图像矩包括水平方向以及垂直方向的二值图像矩值,本发明实施例可以通过提取中心点预设范围内的目标播种坐标作为目标播种区域。
本发明实施例中,利用如下公式计算所述目标播种坐标的零阶图像矩及二阶图像矩:
其中,G00表示所述目标播种坐标的零阶图像矩,imin表示所述水平方向上的坐标最小值,imax表示所述水平方向上的坐标最大值,jmin表示所述垂直方向上的坐标最小值,jmax表示所述水平方向上的坐标最大值,I(i,j)表示所述目标播种坐标在水平坐标i,垂直坐标j处的坐标值,G21表示所述二阶图像矩在垂直方向上的值,G22表示所述二阶图像矩在水平方向上的值。
本发明实施例中,利用如下公式计算所述目标播种坐标的中心点:
本发明实施例中,所述(x,y)为所述目标播种坐标的中心点,G22表示所述二阶图像矩在水平方向上的值,G00表示所述目标播种坐标的零阶图像矩,G21表示所述二阶图像矩在垂直方向上的值。
本发明实施例中,通过实时图像中的目标播种区域,能够对无人播种机的播种区域进行更精确地识别,减小路况识别的识别范围,进而能够提高路况识别的准确度,进一步地提高播种状态识别的精确度。
S3、利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图。
本发明实施例中,所述路况识别网络是由多个卷积块以及池化层组成的,每个卷积块包括归一化层、激活函数以及不同卷积程度的卷积核,通过路况识别网络中的卷积块能够获取前面所有卷积块的输出作为额外输入,进而使得每个卷积块输入的特征图更多,提高卷积特征图的特征丰富性,进而提高路况识别网络的计算效率以及计算精确度。
本发明实施例中,参阅图3所示,所述利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图,包括:
S31、利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图;
S32、将所述第一卷积图与所述目标播种区域进行融合,得到第一融合卷积图,利用所述路况识别网络中的第二卷积块对所述第一融合图进行卷积,得到第二融合图;
S33、对所述第二融合图进行迭代卷积,得到更新融合图,直至所述路况识别网络中的最后一个卷积块对所述更新融合图进行卷积,得到目标融合卷积图;
S34、对所述目标融合卷积图进行全局平均池化及激活计算,得到所述目标播种区域的卷积特征图。
本发明实施例中,路况识别网络可以包括多个卷积块,例如,由4个卷积块构成路况识别网络,每个卷积块能够获取前面所有卷积块的输出作为额外输入,直至最后一个卷积块对前一个卷积块的融合特征图进行卷积,提高特征提取的特征丰富性,同时对目标融合卷积图进行全局平均池化及激活计算能够提高目标融合卷积图的卷积通道,进而增加卷积特征图中包含的图像特征,提高后续路况识别的准确度。
本发明实施例中,所述利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图,包括:
对所述目标播种区域进行批归一化及激活运算,得到第一激活卷积图;
利用所述第一卷积块中的第一卷积核对所述第一激活卷积图进行卷积,得到核卷积图;
对所述核卷积图进行批归一化处理及激活运算,得到第二激活卷积图,利用所述第一卷积块中的第二卷积核对所述第二激活卷积图进行卷积,得到第一卷积图。
本发明实施例中,第一卷积块由归一化层、ReLU激活函数、1*1的第一卷积核、归一化层、ReLU激活函数及3*3的第二卷积核构成,通过不同尺度的卷积核能够提取不同尺寸的特征信息,进而提高特征提取的准确度,通过第一卷积块能够对目标播种区域进行多重卷积,得到更精确的第一卷积图,具体地,路况识别网络中的多个卷积块具有相同的结构,在此不在赘述。
本发明实施例中,通过多重串联卷积能够丰富卷积特征包含的特征信息,进而得到更精确地提取目标卷积区域中的特征信息,得到特征信息更精确的卷积特征图,进而有效地提高后续路况识别的准确度。
S4、根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态。
本发明实施例中,所述实时图像对应的行进路况表示无人播种机在播种过程中行进方向上的行进状况,例如,前方是否有障碍物挡住行进路线、前方是否有坡度、是否需要转弯等,通过行进路况识别无人播种机需要对应的播种状态,例如,停止播种、降低速度、转弯、后退等,进而对无人播种机的播种以及行进状态进行更精确地控制。
本发明实施例中,所述根据所述卷积特征图计算所述实时图像对应的行进路况,包括:
对所述卷积特征图进行不同方向的坐标编码,得到不同方向的编码图,对所述不同方向的编码图进行特征图融合,得到坐标融合特征图;
对所述坐标融合特征图进行卷积变换,得到目标维度的维度特征图,根据所述维度特征图的维度数目对所述维度特征图进行分解,得到不同维度的张量特征图;
对所述不同维度的张量特征图进行激活运算,得到所述卷积特征图中每个卷积通道的通道权重;
将所述每个卷积通道的通道权重与所述卷积特征图进行对应通道相乘,得到注意力特征;
计算所述注意力特征对应的路况分类概率,选取所述路况分类概率最大值对应的行进路况作为所述实时图像对应的行进路况。
本发明实施例中,所述坐标编码是利用尺寸为(a,1)和(1,b)的卷积核沿水平坐标以及垂直坐标对卷积特征图进行编码,能够对卷积特征图中的特征的位置信息进行编码,以提高路况识别的准确度,再将不同方向的编码图进行融合,通过卷积变换改变坐标融合特征图的通道数,使得通道数与卷积特征图的通道数一致,进而根据通道的维度数目对所述维度特征图进行分解,得到不同通道维度的通道权重,进而将通道权重与对应通道相乘,以对卷积特征图进行通道加权,得到更精确的注意力特征。
本发明实施例中,可以通过softmax激活函数将注意力特征映射到预构建的特征空间,其中,特征空间由不同行进路况对应的特征构成,进而得到每个行进路况对应的路况分类概率,选取分类概率最大值对应的行进路况作为实时图像对应的行进路况,能够有效地提高行进路况识别的准确度,以更精确地对无人播种机进行控制。
本发明实施例中,所述根据所述行进路况识别所述无人播种机对应的播种状态,包括:
计算所述行进路况与预构建的播种状态集中每个播种状态之间的相似度;
从所述播种状态集中选取相似度最大的播种状态作为所述无人播种机对应的播种状态。
本发明实施例中,播种状态集可以是根据历史经验总结得到的每个行进路况对应的最优播种状态,例如,行进状况为前方有障碍物,则对应的最优播种状态为降低行进速度,同时减小无人播种机的播种频率,通过计算相似度能够计算得到行进状态对应的最优播种状态,以对无人播种机进行更精确地控制,具体地,可以将行进路况与播种状态集中每个播种状态转化为向量从而计算相似度。
S5、根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制。
本发明实施例中,所述无人播种机的行进速度及行进方向是播种状态下对应的无人播种机的行进速度以及行进方向。例如,是减速或停止掉头等,通过播种状态下对应的行进速度以及行进方向对无人播种机当前的行进速度以及行进方向进行调整,实现对无人播种机的精确控制,提高无人播种机的工作效率。
本发明实施例中,所述根据所述播种状态计算所述无人播种机的行进速度及行进方向,包括:
根据所述播种状态在预构建的行进策略库中确定所述无人播种机对应的目标行进策略;
根据所述目标行进策略确定所述无人播种机的行进速度及行进方向。
本发明实施例中,所述目标行进策略是播种状态无人播种机应该进行的行进策略,例如,行进速度应该是多少,行进的方向是否需要转弯或掉头以进行下一区域的播种,进而通过目标行进策略能够生成无人播种机的行进速度及行进方向,例如,播种状态为前方到达了播种的界限,需要进行减速转弯到下一播种区域,则根据目标行进策略能够确定减速转弯的行进速度以及角度,或前方是下坡,则目标行进策略为下坡时的速度大小,进而保证无人播种机处于安全、高效的工作状态。
本发明实施例中,无人播种机包括多个组件,例如,实时图像采集组件、运动控制组件、机械组件、行进组件、播种组件等,通过运动控制组件向行进组件发送运动指令,进而控制无人播种机中的机械组件以及行进组件进行对应的处理,例如,加大阻力以减速、控制轮子运动方向以进行行进方向的控制,通过不同的组件之间协同运作实现无人播种机的控制。
本发明实施例中,所述基于所述行进速度及所述行进方向对所述无人播种机进行控制,包括:
根据所述行进速度及所述行进方向生成运动控制指令;
将所述运动控制指令发送给所述无人播种机的运动控制组件;其中,所述运动控制指令用于启动所述运动控制组件对所述无人播种机进行控制。
本发明实施例中,通过对无人播种机进行控制能够根据实时图像及时地对无人播种机的行进方向及速度进行及时的控制,以保证无人播种机的高效、准确工作,实现无人播种机的准确控制。
本发明实施例通过获取无人播种机采集的实时图像的播种轮廓信息,能够识别实时图像中无人播种机需要进行播种的轮廓,进而能够更精确地提取出实时图像中的目标播种区域,以提高播种状态识别的精确度;利用预构建的路况识别网络对目标播种区域进行多重串联卷积,得到更精确的卷积特征图;从而根据卷积特征图能够计算实时图像对应的行进路况,提高无人播种机对应的播种状态的识别准确度,以更精确地对无人播种机进行控制;通过播种状态计算无人播种机的行进速度及行进方向,以对无人播种机进行及时的行进控制,实现人播种机的准确控制。因此本发明提出的基于图像处理的无人播种机控制方法,可以解决无人播种机控制准确度较差的问题。
如图4所示,是本发明一实施例提供的基于图像处理的无人播种机控制系统的功能模块图。
本发明所述基于图像处理的无人播种机控制系统400可以安装于电子设备中。根据实现的功能,所述基于图像处理的无人播种机控制系统400可以包括边缘检测模块401、目标播种区域提取模块402、目标播种区域卷积模块403、播种状态识别模块404及无人播种机控制模块405。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述边缘检测模块401,用于获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息;
所述目标播种区域提取模块402,用于提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域;
所述目标播种区域卷积模块403,用于利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图;
所述播种状态识别模块404,用于根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态;
所述无人播种机控制模块405,用于根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制。
详细地,本发明实施例中所述基于图像处理的无人播种机控制系统400中所述的各模块在使用时采用与上述图1至图3中所述的基于图像处理的无人播种机控制方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
本发明还提供一种电子设备,所述电子设备可以包括处理器、存储器、通信总线以及通信接口,还可以包括存储在所述存储器中并可在所述处理器上运行的计算机程序,如基于图像处理的无人播种机控制方法程序。
其中,所述处理器在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器内的程序或者模块(例如执行基于图像处理的无人播种机控制方法程序等),以及调用存储在所述存储器内的数据,以执行电子设备的各种功能和处理数据。
所述存储器至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于图像处理的无人播种机控制方法程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器以及至少一个处理器等之间的连接通信。
所述通信接口用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图中仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理系统与所述至少一个处理器逻辑相连,从而通过电源管理系统实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
具体地,所述处理器对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或系统、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或系统也可以由一个单元或系统通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案。
Claims (7)
1.一种基于图像处理的无人播种机控制方法,其特征在于,所述方法包括:
获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息;
利用预设的边缘检测公式对所述实时图像进行边缘检测,所述边缘检测公式表示为:
其中,P表示所述实时图像的播种轮廓信息,F表示所述实时图像,表示对所述实时图像进行图开运算,/>表示对所述实时图像进行膨胀操作,·表示对所述实时图像进行团运算,Θ表示对所述实时图像进行腐蚀操作;
提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域;
利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图;
根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态;
根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制;
所述基于所述目标播种坐标提取所述实时图像中的目标播种区域,包括:
提取所述目标播种坐标在水平方向上的坐标最大值和坐标最小值及垂直方向上的坐标最大值和坐标最小值;
根据所述水平方向上的坐标最大值和坐标最小值及所述垂直方向上的坐标最大值和坐标最小值计算所述目标播种坐标的零阶图像矩及二阶图像矩;
利用如下公式计算所述目标播种坐标的零阶图像矩及二阶图像矩:
其中,G00表示所述目标播种坐标的零阶图像矩,imin表示所述水平方向上的坐标最小值,imax表示所述水平方向上的坐标最大值,jmin表示所述垂直方向上的坐标最小值,jmax表示所述水平方向上的坐标最大值,I(i,j)表示所述目标播种坐标在水平坐标i,垂直坐标j处的坐标值,G21表示所述二阶图像矩在垂直方向上的值,G22表示所述二阶图像矩在水平方向上的值;
根据所述零阶图像矩及所述二阶图像矩计算所述目标播种坐标的中心点,根据所述中心点确定所述实时图像中的目标播种区域;
利用如下公式计算所述目标播种坐标的中心点:
所述(x,y)为所述目标播种坐标的中心点;
所述利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图,包括:
利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图;
将所述第一卷积图与所述目标播种区域进行融合,得到第一融合卷积图,利用所述路况识别网络中的第二卷积块对所述第一融合卷积图进行卷积,得到第二融合图;
对所述第二融合图进行迭代卷积,得到更新融合图,直至所述路况识别网络中的最后一个卷积块对所述更新融合图进行卷积,得到目标融合卷积图;
对所述目标融合卷积图进行全局平均池化及激活计算,得到所述目标播种区域的卷积特征图;
所述利用所述路况识别网络中的第一卷积块对所述目标播种区域进行卷积,得到第一卷积图,包括:
对所述目标播种区域进行批归一化及激活运算,得到第一激活卷积图;
利用所述第一卷积块中的第一卷积核对所述第一激活卷积图进行卷积,得到核卷积图;
对所述核卷积图进行批归一化处理及激活运算,得到第二激活卷积图,利用所述第一卷积块中的第二卷积核对所述第二激活卷积图进行卷积,得到第一卷积图。
2.如权利要求1所述的基于图像处理的无人播种机控制方法,其特征在于,所述提取所述播种轮廓信息对应的轮廓坐标点,包括:
以所述实时图像中的中心像素点为原点构建所述实时图像的像素坐标系;
在所述像素坐标系中确定所述播种轮廓信息对应的像素点在所述像素坐标系中的轮廓坐标点。
3.如权利要求1所述的基于图像处理的无人播种机控制方法,其特征在于,所述根据所述卷积特征图计算所述实时图像对应的行进路况,包括:
对所述卷积特征图进行不同方向的坐标编码,得到不同方向的编码图,对所述不同方向的编码图进行特征图融合,得到坐标融合特征图;
对所述坐标融合特征图进行卷积变换,得到目标维度的维度特征图,根据所述维度特征图的维度数目对所述维度特征图进行分解,得到不同维度的张量特征图;
对所述不同维度的张量特征图进行激活运算,得到所述卷积特征图中每个卷积通道的通道权重;
将所述每个卷积通道的通道权重与所述卷积特征图进行对应通道相乘,得到注意力特征;
计算所述注意力特征对应的路况分类概率,选取所述路况分类概率最大值对应的行进路况作为所述实时图像对应的行进路况。
4.如权利要求1所述的基于图像处理的无人播种机控制方法,其特征在于,所述根据所述行进路况识别所述无人播种机对应的播种状态,包括:
计算所述行进路况与预构建的播种状态集中每个播种状态之间的相似度;
从所述播种状态集中选取相似度最大的播种状态作为所述无人播种机对应的播种状态。
5.如权利要求1所述的基于图像处理的无人播种机控制方法,其特征在于,所述根据所述播种状态计算所述无人播种机的行进速度及行进方向,包括:
根据所述播种状态在预构建的行进策略库中确定所述无人播种机对应的目标行进策略;
根据所述目标行进策略确定所述无人播种机的行进速度及行进方向。
6.如权利要求1所述的基于图像处理的无人播种机控制方法,其特征在于,所述基于所述行进速度及所述行进方向对所述无人播种机进行控制,包括:
根据所述行进速度及所述行进方向生成运动控制指令;
将所述运动控制指令发送给所述无人播种机的运动控制组件;其中,所述运动控制指令用于启动所述运动控制组件对所述无人播种机进行控制。
7.一种基于图像处理的无人播种机控制系统,用于实现如权利要求1-6任意一项所述的基于图像处理的无人播种机控制方法,其特征在于,所述系统包括:
边缘检测模块,用于获取无人播种机采集的实时图像,对所述实时图像进行边缘检测,得到所述实时图像的播种轮廓信息;
目标播种区域提取模块,用于提取所述播种轮廓信息对应的轮廓坐标点,根据所述轮廓坐标点计算所述实时图像中的目标播种坐标,基于所述目标播种坐标提取所述实时图像中的目标播种区域;
目标播种区域卷积模块,用于利用预构建的路况识别网络对所述目标播种区域进行多重串联卷积,得到所述目标播种区域的卷积特征图;
播种状态识别模块,用于根据所述卷积特征图计算所述实时图像对应的行进路况,根据所述行进路况识别所述无人播种机对应的播种状态;
无人播种机控制模块,用于根据所述播种状态计算所述无人播种机的行进速度及行进方向,基于所述行进速度及所述行进方向对所述无人播种机进行控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310672348.4A CN116820125B (zh) | 2023-06-07 | 2023-06-07 | 一种基于图像处理的无人播种机控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310672348.4A CN116820125B (zh) | 2023-06-07 | 2023-06-07 | 一种基于图像处理的无人播种机控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116820125A CN116820125A (zh) | 2023-09-29 |
CN116820125B true CN116820125B (zh) | 2023-12-22 |
Family
ID=88123337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310672348.4A Active CN116820125B (zh) | 2023-06-07 | 2023-06-07 | 一种基于图像处理的无人播种机控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116820125B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136641A1 (zh) * | 2018-01-10 | 2019-07-18 | 深圳前海达闼云端智能科技有限公司 | 信息处理方法、装置、云处理设备以及计算机程序产品 |
CN111160153A (zh) * | 2019-12-17 | 2020-05-15 | 华南理工大学 | 一种基于图像处理的路面排水监测评估方法及系统 |
CN115424232A (zh) * | 2022-11-04 | 2022-12-02 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种路面坑槽的识别和评价方法、电子设备及存储介质 |
CN116030430A (zh) * | 2022-12-30 | 2023-04-28 | 重庆赛迪奇智人工智能科技有限公司 | 铁轨识别方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782481B (zh) * | 2019-10-18 | 2023-09-05 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 无人艇智能决策方法及系统 |
-
2023
- 2023-06-07 CN CN202310672348.4A patent/CN116820125B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136641A1 (zh) * | 2018-01-10 | 2019-07-18 | 深圳前海达闼云端智能科技有限公司 | 信息处理方法、装置、云处理设备以及计算机程序产品 |
CN111160153A (zh) * | 2019-12-17 | 2020-05-15 | 华南理工大学 | 一种基于图像处理的路面排水监测评估方法及系统 |
CN115424232A (zh) * | 2022-11-04 | 2022-12-02 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种路面坑槽的识别和评价方法、电子设备及存储介质 |
CN116030430A (zh) * | 2022-12-30 | 2023-04-28 | 重庆赛迪奇智人工智能科技有限公司 | 铁轨识别方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Morph-CNN: A Morphological Convolutional Neural Network for Image Classification;Dorra Mellouli 等;《International Publishing AG》;全文 * |
基于复杂路面环境的AGV视觉导航算法研究;陈熙鹏 等;《理论分析》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116820125A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lyu et al. | ChipNet: Real-time LiDAR processing for drivable region segmentation on an FPGA | |
CN109544598B (zh) | 目标跟踪方法、装置及可读存储介质 | |
CN111414953B (zh) | 点云分类方法和装置 | |
EP3679521A1 (en) | Segmenting objects by refining shape priors | |
CA3125794A1 (en) | Shadow and cloud masking for agriculture applications using convolutional neural networks | |
CN110689043A (zh) | 一种基于多重注意力机制的车辆细粒度识别方法及装置 | |
CN113537180B (zh) | 树障的识别方法、装置、计算机设备和存储介质 | |
CN117157678A (zh) | 用于基于图的全景分割的方法和系统 | |
US20220004740A1 (en) | Apparatus and Method For Three-Dimensional Object Recognition | |
CN108229658A (zh) | 基于有限样本的物体检测器的实现方法及装置 | |
Wang et al. | Polynomial regression network for variable-number lane detection | |
CN111401190A (zh) | 车辆检测方法、装置、计算机设备和存储介质 | |
CN113989287A (zh) | 城市道路遥感图像分割方法、装置、电子设备和存储介质 | |
CN116820125B (zh) | 一种基于图像处理的无人播种机控制方法及系统 | |
CN115757987B (zh) | 基于轨迹分析的伴随对象确定方法、装置、设备及介质 | |
Zhang et al. | Navigation path recognition between rows of fruit trees based on semantic segmentation | |
Biao et al. | Research on image semantic segmentation algorithm based on fully convolutional HED-CRF | |
Lu et al. | Farmland boundary extraction based on the AttMobile-DeeplabV3+ network and least squares fitting of straight lines | |
Tao et al. | 3d semantic vslam of indoor environment based on mask scoring rcnn | |
CN116958476B (zh) | 一种基于bim数据的建筑物可视化建模方法及系统 | |
Naali et al. | Spatial Reslution Sensitivity Analysis of Classifciation of SENTINEL-2 Images by Pre-Trained Deep Models from Big Earth Net Database | |
CN109886985B (zh) | 融合深度学习网络和分水岭算法的图像精确分割方法 | |
KR102638075B1 (ko) | 3차원 지도 정보를 이용한 의미론적 분할 방법 및 시스템 | |
WO2022267000A1 (en) | Methods and apparatus for scale recovery from monocular video | |
Hežeľová | Artificial neural network for precipitation nowcasting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |