CN116058195B - 一种叶菜生长环境光照调控方法、系统及装置 - Google Patents
一种叶菜生长环境光照调控方法、系统及装置 Download PDFInfo
- Publication number
- CN116058195B CN116058195B CN202310353974.7A CN202310353974A CN116058195B CN 116058195 B CN116058195 B CN 116058195B CN 202310353974 A CN202310353974 A CN 202310353974A CN 116058195 B CN116058195 B CN 116058195B
- Authority
- CN
- China
- Prior art keywords
- leaf
- training
- image
- growth environment
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 235000021384 green leafy vegetables Nutrition 0.000 title claims abstract description 325
- 230000012010 growth Effects 0.000 title claims abstract description 297
- 238000005286 illumination Methods 0.000 title claims abstract description 179
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000033228 biological regulation Effects 0.000 title claims abstract description 47
- 230000011218 segmentation Effects 0.000 claims abstract description 61
- 238000003709 image segmentation Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims description 141
- 238000001514 detection method Methods 0.000 claims description 23
- 230000001105 regulatory effect Effects 0.000 claims description 18
- 230000001502 supplementing effect Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 15
- 230000001276 controlling effect Effects 0.000 claims description 13
- 238000003064 k means clustering Methods 0.000 claims description 12
- 239000006260 foam Substances 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012800 visualization Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 230000008635 plant growth Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 24
- 230000004913 activation Effects 0.000 description 21
- 230000007613 environmental effect Effects 0.000 description 14
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 235000019879 cocoa butter substitute Nutrition 0.000 description 8
- 238000012417 linear regression Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 241000196324 Embryophyta Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000011049 filling Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000026267 regulation of growth Effects 0.000 description 5
- 235000013311 vegetables Nutrition 0.000 description 5
- 241000251468 Actinopterygii Species 0.000 description 4
- 238000004821 distillation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 229910052760 oxygen Inorganic materials 0.000 description 3
- 239000001301 oxygen Substances 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 238000004064 recycling Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 206010021033 Hypomenorrhoea Diseases 0.000 description 1
- 241000208822 Lactuca Species 0.000 description 1
- 235000003228 Lactuca sativa Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G7/00—Botany in general
- A01G7/06—Treatment of growing trees or plants, e.g. for preventing decay of wood, for tingeing flowers or wood, for prolonging the life of plants
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G22/00—Cultivation of specific crops or plants not otherwise provided for
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G22/00—Cultivation of specific crops or plants not otherwise provided for
- A01G22/15—Leaf crops, e.g. lettuce or spinach
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G7/00—Botany in general
- A01G7/04—Electric or magnetic or acoustic treatment of plants for promoting growth
- A01G7/045—Electric or magnetic or acoustic treatment of plants for promoting growth with electric lighting
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G9/00—Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
- A01G9/24—Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G31/00—Soilless cultivation, e.g. hydroponics
- A01G31/02—Special apparatus therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Environmental Sciences (AREA)
- Botany (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Forests & Forestry (AREA)
- Probability & Statistics with Applications (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Agronomy & Crop Science (AREA)
- Human Resources & Organizations (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
Abstract
本发明公开一种叶菜生长环境光照调控方法、系统及装置,涉及植物生长环境控制技术领域,所述方法包括:获取叶菜的生长环境图像和生长环境光照参数;将生长环境图像输入至图像分割模型中,得到初始像素分割图;利用CAM‑K算法,根据初始像素分割图确定叶菜叶面面积;将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;根据叶菜的生长指数,调整生长环境光照参数。本发明实现了叶菜生长环境光照的自动化智能调控。
Description
技术领域
本发明涉及植物生长环境控制技术领域,特别是涉及一种叶菜生长环境光照调控方法、系统及装置。
背景技术
当前,随着世界人口的增长与工业化的发展,人类活动范围的扩大和程度的加深对环境资源造成了很大的破坏,环境因素的变化自然对作物的生长有着不可避免的影响,暴雨、大风等极端天气会造成作物品质的不可控性。
随着水培技术的发展,水培叶菜比传统叶菜种植在操作方面更加省时省力,对环境因素可把控力度较大,并且突破了季节的限制,产量也变得更高。目前对于叶菜光照环境的调控,通过人工去判断叶菜生长状况和所处生长周期,然后再去人工调整补光灯的启停,并不能智能化判断叶菜生长状态,并根据其状态去智能调控补光灯的启停周期。
发明内容
本发明的目的是提供一种叶菜生长环境光照调控方法、系统及装置,实现了叶菜生长环境光照的自动化智能调控。
为实现上述目的,本发明提供了如下方案:
一种叶菜生长环境光照调控方法,所述方法包括:
获取叶菜的生长环境图像和生长环境光照参数;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
将所述生长环境图像输入至图像分割模型中,得到初始像素分割图;所述图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,所述第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图;
利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;所述CAM-K算法包括CAM算法和K-Means聚类算法;
将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;所述叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,所述第二训练数据集包括:多组第二训练数据,所述第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数;
根据所述叶菜的生长指数,调整所述生长环境光照参数。
可选地,所述图像分割模型的训练过程,具体包括:
获取多张所述训练用叶菜生长环境图;
对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图;
将多张所述训练用叶菜生长环境图作为输入,对应的训练用像素分割图作为输出,对所述Yolov7目标检测网络训练,得到所述图像分割模型。
可选地,利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积,具体包括:
利用所述CAM算法,对所述初始像素分割图进行CAM可视化,得到可视化后的像素分割图;
将所述可视化后的像素分割图和所述初始像素分割图进行叠加,得到叠加像素图;
利用所述K-Means聚类算法,对所述叠加像素图进行聚类,得到聚类图像;
根据所述聚类图像确定所述叶菜叶面面积。
可选地,所述叶菜生长指数预测模型的训练过程,具体包括:
获取所述第二训练数据中每株训练用叶菜在不同时刻的叶片面积和生长环境光照参数;
根据不同时刻的叶片面积和生长环境光照参数计算每株所述训练用叶菜的生长指数;
将所有所述叶片面积和对应的生长环境光照参数作为输入,所有训练用叶菜的生长指数作为标签,对所述长短期记忆网络进行训练,得到所述叶菜生长指数预测模型。
可选地,获取叶菜的生长环境图像,具体包括:
获取叶菜所处环境的RGB图像和对应的深度图像;
将叶菜所处环境的RGB图像和对应的深度图像确定为所述生长环境图像。
可选地,根据所述聚类图像确定所述叶菜叶面面积,具体包括:
确定所述聚类图像中标注为叶菜叶面的像素数量;
根据所述像素数量确定所述叶菜叶面面积。
一种叶菜生长环境光照调控系统,所述系统包括:
参数获取模块,用于获取叶菜的生长环境图像和生长环境光照参数;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
分割模块,用于将所述生长环境图像输入至图像分割模型中,得到初始像素分割图;所述图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,所述第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图;
面积确定模块,用于利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;所述CAM-K算法包括CAM算法和K-Means聚类算法;
生长指数预测模块,用于将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;所述叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,所述第二训练数据集包括:多组第二训练数据,所述第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数;
光照调整模块,用于根据所述叶菜的生长指数,调整所述生长环境光照参数。
一种叶菜生长环境光照调控装置,用于实现上述任一项所述的叶菜生长环境光照调控方法,其特征在于,所述叶菜生长环境光照调控装置包括:生长环境图像获取装置、生长环境光照参数获取装置、补光灯和控制装置;所述生长环境图像获取装置、所述生长环境光照参数获取装置和所述补光灯分别与所述控制装置连接;
所述生长环境图像获取装置用于获取叶菜的生长环境图像;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;
所述生长环境光照参数获取装置用于获取所述叶菜的生长环境光照参数;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
所述控制装置用于:
利用所述图像分割模型对所述叶菜生长环境图像进行分割,得到始像素分割图;
利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;
利用叶菜生长指数预测模型,基于所述叶菜叶面面积确定叶菜的生长指数;
根据所述叶菜的生长指数,调节所述补光灯,从而调整生长环境光照参数。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明公开了一种叶菜生长环境光照调控方法、系统及装置,获取叶菜的生长环境图像和生长环境光照参数;将生长环境图像输入至图像分割模型中,得到初始像素分割图;利用CAM-K算法,根据初始像素分割图确定叶菜叶面面积;将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;根据叶菜的生长指数,调整生长环境光照参数,实现了叶菜生长环境光照的自动化智能调控。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的叶菜生长环境光照调控方法流程示意图;
图2为利用CAM-K算法确定叶菜叶面面积流程图;
图3为多元线性回归模型流程图;
图4为LSTM多元时间序列预测模型流程图;
图5为本发明实施例2提供的叶菜生长环境光照调控系统结构示意图;
图6为本发明实施例3提供的叶菜生长环境光照调控装置结构示意图;
图7为叶菜生长环境光照调控装置整体架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种叶菜生长环境光照调控方法、系统及装置,旨在实现叶菜生长环境光照的自动化智能调控。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
图1为本发明实施例1提供的叶菜生长环境光照调控方法流程示意图。如图1所示,本实施例中的叶菜生长环境光照调控方法,包括:
步骤101:获取叶菜的生长环境图像和生长环境光照参数;生长环境图像中包括:叶菜和非叶菜;非叶菜包括:种植架和泡沫板;生长环境光照参数包括:光照强度、光照比例和光照周期。
具体的,生长环境图像包括RGB图像与深度图像,并对生长环境图像进行增强处理,提高图像的对比度。
步骤102:将生长环境图像输入至图像分割模型中,得到初始像素分割图。图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图。
步骤103:利用CAM-K算法,根据初始像素分割图确定叶菜叶面面积。CAM-K算法包括CAM算法和K-Means聚类算法。
步骤104:将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数。叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,第二训练数据集包括:多组第二训练数据,第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数。
步骤105:根据叶菜的生长指数,调整生长环境光照参数。
作为一种可选的实施方式,图像分割模型的训练过程,具体包括:
获取多张训练用叶菜生长环境图。
具体的,选定鱼菜共生集装箱内水培种植架叶菜培育场景,在多时间段内使用Kinect相机定时拍摄图像,该数据集中可能会包含场景中的多种对象,如种植架、叶菜、鱼池、水培种植板等多种对象。
对每张训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图。
具体的,本实施例中,采用人工进行标记得到的训练用像素分割图包括标注准确结果的图片和标注粗略的图片,其中类别参数为2种类别,叶菜类与非叶菜类,按6:2:2比例划分为训练集、测试集和验证集。
由于鱼菜共生集装箱内部的光照较暗,不利于目标检测网络提取到图像的纹理特征。因此,需要对数据集中的图像进行处理,增强图像的对比度。RGB图像和深度图像均进行处理,进行滤波操作,减少噪声点。针对RGB彩色图像,可以采用HSV(空间的彩色图像增强方法。
本实施例中,选用Mosaic数据增强、自适应锚框计算、自适应图片缩放等trick对经过数据增强后的图像进行处理,作为Yolov7目标检测网络的输入。Mosaic数据增强采用随机4张图片,按照随机缩放、随机裁剪、随机排布的方式进行拼接,主要用来解决小目标检测的问题,让网络的鲁棒性更好;自适应锚框计算,针对不同的数据集,都会有初始设定长宽的锚框,在网络训练中,网络在初始锚框的基础上输出预测框,进而和真实框Groundtruth进行比对,计算两者差距,再反向更新,迭代网络参数;自适应图片缩放,在项目实际使用时,由于不同图片的长宽比不同,因此缩放填充后,两端的黑边大小都不同,而如果填充的比较多,则存在信息冗余,影响推理速度,因此对原始图像自适应的添加最少的黑边,提升推理速度。
Yolov7网络的结构分为头部、骨架,输入的640×640大小的图像经过backbone骨架模块中的卷积的堆叠对特征进行提取,输出32倍降采样特征图,然后经过head输出模块,有三个输出层,每个输出层有三个anchor,分别对应特征图大小是80×80×512,40×40×1024,20×20×1024。训练后会产生最近一次的训练参数权重文件,将其中训练效果最好的参数权重文件保存下来。其中,对于检测网络骨架主要使用ELAN和MP结构,总共有50层,首先是经过4层卷积层CBS。CBS是Yolov7网络中的一个组合结构,包含Convolution层、Batchnormalization层、激活函数SiLU,简称CBS。SiLU激活函数是Swish激活函数的变体,Swish激活函数如公式(1)所示:
其中,β为常数或者可训练的参数,x为自变量参数,当β=1时,称作SiLU激活函数,如公式(2)所示:
检测网络骨架主要是用了较多的1×1和3×3的卷积,每个卷积的输出会作为下一个卷积的输入,同时还会和其他卷积的输出进行通道数的合并(Concat)操作,这样的结构提升了网络的精度。经过4个CBS后,特征图变为160×160×128大小,随后会经过ELAN模块,ELAN由多个CBS构成,其输入输出特征大小保持不变,通道数在开始的两个CBS会有变化,后面的几个输入通道都是和输出通道保持一致的,经过最后一个CBS输出为需要的网络骨架Backbone,经过4个CBS后,接入一个ELAN,然后是三个MP(Maxpooling的简称,最大池化)加ELAN的输出。MP模块有两个分支,作用是进行下采样:第一条分支先经过一个Maxpool,也就是最大池化,然后再经过一个1×1的卷积进行通道数的改变;第二条分支先经过一个1×1的卷积,做通道数的变化,然后再经过一个3×3卷积核、步长为2的卷积块,这个卷积块也是用来下采样的;最后把第一个分支和第二分支的结果加在一起,得到超级下采样的结果,对应大小分别为80×80×512,40×40×1024,20×20×1024。每一个MP有5层,ELAN有8层,所以整个Backbone的层数为4+8+13×3=51层,从0开始,最后一层就是第50层。
对于Backbone最后输出的32倍降采样特征图,之后经过SPPCSP(在SPP模块基础上在最后增加concat操作,与SPP模块之前的特征图进行融合,更加丰富了特征信息),通道数从1024变为512。先按照top down(自上而下)和之前的特征图进行融合,再按bottom-up(自下而上)去做融合。其中空间金字塔池化(Spatial Pyramid Pooling,SPP)的作用是能够增大感受野,使得算法适应不同的分辨率图像,它是通过最大池化来获得不同感受野。CSP模块,首先将特征分为两部分,其中的一个部分进行常规的处理,另外一个部分进行SPP结构的处理,最后把这两个部分合并在一起,这样子就能够减少一半的计算量,使得速度变得快,精度会提升。
对于损失函数,主要有坐标损失、目标置信度损失和分类损失三部分。其中,目标置信度损失和分类损失采用BCEWithLogitsLoss(BCEWithLogitsLoss是一组常用的带log二元交叉熵损失函数),坐标损失采用CIoU损失,BCEWithLogitsLoss函数如公式(3)所示:
假设有N个Batch(Batch是一个超参数,用于定义在更新内部模型参数之前要处理的样本数。将批处理视为循环迭代一个或多个样本并进行预测。训练数据集可以分为一个或多个Batch),每个Batch预测q个标签,则Loss(损失函数)为:
Loss = {l1,...,lN},lq=-[yq⋅log(σ(xq))+(1-yq)⋅log(1-σ(xq))](3)。
其中,lq表示第q个样本的Loss值,yq表示第q个样本的所属的真实类别标签,xq表示第q个样本的预测值;σ(xq)为Sigmoid函数,可以把xq映射到(0,1)的区间,Sigmoid函数如公式(4)所示:
IoU(Intersection of Union),在目标检测中表示为真实框和预测框的交并比(即真实框和预测框的交集和并集之比),定义如公式(5)所示:
当真实框与预测框完全重合时,IoU为1,因此在目标检测中边框回归损失函数定义如公式(6)所示:
LossIoU = 1-IoU (6)。
CIoU引入长宽比因子,CIoU可区分预测框和真实框的长宽比关系,具体定义如公式(7)、(8)所示:
LossCIoU = 1-CIoU(8)。
其中,d为预测框和真实框中心点的距离,c为最小外接矩形的对角线距离,v是长宽比的相似性因子,定义如公式(9)所示:
其中,Wb、Hb、Wp、Hp分别为真实框宽、高以及预测框宽、高。
采用正负样本匹配策略提取初筛Anchors(预定义的框)的信息,位置IoU、前背景目标、类别等,接着,计算Loss函数并构建cost矩阵,根据cost矩阵挑出前k个候选框,并去除重复候选框。利用验证集验证效果后,得到最终的网络模型参数。并在测试集中进行泛化能力测试。
将多张训练用叶菜生长环境图作为输入,对应的训练用像素分割图作为输出,对Yolov7目标检测网络训练,得到图像分割模型。
具体的,经过训练的图像分割模型精确率为量化的基准Ab,设置阈值σ,记量化后的图像分割模型精确率为Aq,则权值量化应满足的条件是|Ab-Aq|≤σ。
利用知识蒸馏技术,自动为模型添加训练逻辑;无需修改训练代码,仅拿训练好的模型和部分无标注数据,训练几十分钟,即可达到预期效果。具体步骤包括:首先构造教师模型,加载推理模型文件,并将推理模型在内存中复制一份,作为知识蒸馏中的教师模型,待量化模型则作为学生模型;其次添加loss,自动地分析模型结构,寻找适合添加蒸馏loss的层,会将每个head最后一个带可训练参数的卷积层作为蒸馏节点;最后蒸馏训练,教师模型通过蒸馏loss监督原模型的稀疏训练或量化训练,完成模型压缩的过程。将量化完毕后的模型进行调整,部署到嵌入式终端中。
作为一种可选的实施方式,步骤103,具体包括:
利用CAM算法,对初始像素分割图进行CAM可视化,得到可视化后的像素分割图。
将可视化后的像素分割图和初始像素分割图进行叠加,得到叠加像素图。
利用K-Means聚类算法,对叠加像素图进行聚类,得到聚类图像。
根据聚类图像确定叶菜叶面面积。
具体的,如图2所示,步骤103具体为:
将通过图像分割模型检测出的叶菜在图像中的四个坐标(top、left、bottom、right)暂存,然后使用opencv在带有坐标信息的叶菜图像上利用矩阵的方式进行目标截取,最后保存到本地,生成新的对象数据集。
S301:使用ResNet50体系结构的卷积层进行目标截取后得到的新数据集进行分类,并进行基于语义分割的图像标注。其中,分类是为了再次筛选,降低负样本数量,分类还是对叶菜和非叶菜进行分类,语义分割是指将图像中每个像素赋予一个类别标签,然后用不同的颜色来表示。得到的像素图结果用来后边的面积估算。
实现上述过程的架构是基于全卷积网络FCN结构的,FCN中包括一个高级的编码器-解码器架构,它将带有三个颜色通道的图像作为编码器的输入,公式(10)表示第一层的输入像素数据:
其中,,∀i = 1,2,...,n,∀j = 1,2,...,m,Xch是n×m的矩阵,表示输入的图像,n为图像样本总数;y是一维标签向量,每个图像样本都有m个特征(像素);y1表示第1个样本的所属的真实类别标签;yn表示第1个样本的所属的真实类别标签。该架构初始层为维度降低全局平均池化(GlobalAveragePooling2D),将每张图片的每个通道值各自加起来再求平均,最后结果是没有了宽高维度,只剩下个数与平均值两个维度,变成了多张单像素图片,如公式(11)所示。激活函数为Softmax,如公式(12)所示;优化函数为Adam,Adam本质上是带有动量项的RMSprop(root mean square prop:平方平均数),它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,它的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳,如公式(13)所示;损失函数为Categorical-Crossentropy(交叉熵损失函数),如公式(14)所示:
[B,H,W,C]->GlobalAveragePooling2D->[B,C](11)。
其中,B为批处理大小,全称为Batch;H为高度,全称为Height,表示图像垂直维度的像素数;W为宽度,全称为Width,表示图像水平维度的像素数;C为通道数,全称为Channel,表示一张图像中的通道数;为第i个输入信号xi的指数函数,/>第j个输入信号xj的指数函数。假设,Softmax(x)i为第i个神经元的输出;j的范围是[1,z],z为输出层神经元的数量。
对于长度为U的任意实向量,Softmax函数可以将其压缩为长度值在[0,1]范围内,并且向量中元素的总和为1的实向量。
其中,t为时间步,初始化为0;为指数衰减率,用于控制权重分配,通常取接近于1的值,默认为0.9;/>为指数衰减率,用于控制梯度平方的影响情况;gt表示时间步为t时的梯度;θ表示要更新的参数;mt表示对梯度的一阶矩估计;nt表示对梯度的二阶矩估计;/>表示对mt的校正;/>表示对nt的校正;/>表示初始学习率;/>表示矢量参数差值;/>表示为了维持数值稳定性而添加的常数。
其中,yi是第i个样本的所属类别真实标签;是第i个样本所属标签的预测值;outputsize是输出层网络的数量。根据公式(14)可以发现,因为yi要么是0,要么是1,而当yi等于0时,结果就是0,当且仅当yi等于1时,才会有结果,也就是说Categorical_Crossentropy只专注于一个结果,因而它一般配合Softmax做单标签分类。
完成图像分类后,为了识别每个对象标记图像中的主题区域,将执行分割,贯穿以下三个步骤:对象轮廓识别,将图像分割成段,将每个像素进行二进制分类。采用语义分割方法,首先将分类后的图像转换为224×224×3数组,作为FCN的主输入,随后,编码器作为一个特征提取器,将整个卷积层的像素处理成一个特征映射,初始的FCN层提取较低级别的特征,如对象边缘,而后续的层使用下采样将这些特征聚合为更高级别的对象特征。这些下采样的对象特征映射馈入后续的卷积层,用于解码操作,如公式(15)所示:
H(X) = F(X) + X(15)。
其中,X是输入;H(X)是预测值,等于X经映射处理后得到的F(X)和未经处理的X的合并输出,通过贯穿卷积层的主路径和捷径路径获得;F(X)是残差值。之后,这个解码部分对每个输入特征进行标记,并逐渐对原始图像的细节进行采样。FCN的输出是原始图像的像素级标记分割图,称为像素图。
S302:进行CAM可视化。在所有的CAM算法中,ResNet-50模型的最后一层被用来计算每个图像的类激活映射。类激活映射是使用特定激活对每个图像像素进行映射而得到的权重矩阵,该激活产生识别的类标签。除了类激活图,显著性图还能识别出对最终分类结果影响最大的像素点的位置。因此,结合类激活和显著性映射定位梯度加权类在他们的影响位置。采用三个类激活映射,分别为Grad-CAM、Grad-CAM++和ScoreCAM。
Grad-CAM是类激活和显著性映射的组合,它使用最后卷积层中的信息对特定标签类的像素重要性进行排序。为此,首先,每个类的梯度得分映射到每个图像特征,同时使用全局平均池(Global Average Pooling)获得它们相关的梯度权重,如公式(16)所示:
其中,为size是n×m的权重矩阵,它捕获了每个标签类c的重要特征映射m。Z为分离的激活映射,用于映射Am中的像素个数;(i,j)表示在激活图Am中的空间位置。yc为给每个映射像素的梯度评分,然后将得到的权重矩阵乘以最后一个卷积层,然后用最后的校正线性单元(ReLU)激活函数激活,如公式(17)所示:
在Grad-CAM定位图中添加梯度权重,以增强每个像素的强度,提高了图像中多次出现的对象的分类精度,如公式(19)所示:
激活图是使用Relu激活函数得到的,如公式(20)所示:
Score-CAM使用分类标签的评分权重,而不是来自最后一个卷积层的加权信息。这使得Score-CAM能够独立可视化机器视觉,具有更好的泛化能力,如公式(21)所示:
将激活映射归一化,得到处理后激活映射的掩码图像(Mm),如公式(22)所示:
每个CAM算法都添加了一个热图来说明整个图像的梯度加权像素类。将每种CAM算法生成的热图叠加在原始图像上,然后将K-Means聚类算法应用于叠加的叶菜分类图像上。
S303:在CAM可视化之后,使用叠加在原始层上的热图层来说明CAM结果,对叠加后的图像进一步进行K-Means聚类算法处理,以减少彩色像素的数量。
具体地,首先是初始化超参数,对尝试次数和颜色集群进行随机初始化。根据这些初始化的超参数,随机选取质心的K的个数,如公式(24)所示:
其次,计算每个颜色像素到其最近的聚类质心的距离,如公式(25)所示:
之后,进行颜色像素分配,嵌入式(25)中的距离矩阵,用于将每个颜色像素xj分类到其最近的聚类质心ck,同时创建k个聚类,如公式(26)所示:
D = {D1,D2,...,DK,}(26)。
其中,DK为第K簇的聚类误差,表示聚类中所有颜色像素到其质心的总距离。K-Means聚类算法的主要目标是最小化DK。为此,从Python环境中的Scikit-learn库中使用了标准的无惩罚K-Means公式。
最后,计算新的聚类质心集,为了进一步最小化聚类错误,使用公式(25)中的像素分配更新了聚类质心ck。因此,重复公式(25)到公式(26)之间的步骤,直到算法收敛到最小值。
S304:测量识别出的叶菜类的像素面积(经过前面对图像的处理,图像中叶菜部分已有颜色标注,统计出被测物体在图像上所占的像素数,即可求出其面积),并将面积信息存储在数据库中。
具体的,K-means算法完成了所有的尝试,颜色像素被分组为K个最主要的颜色,然后,将得到的颜色簇分为叶菜类和非叶菜类,测量识别出的叶菜类的像素面积,并将面积信息存储在数据库中。
作为一种可选的实施方式,叶菜生长指数预测模型的训练过程,具体包括:
获取第二训练数据中每株训练用叶菜在不同时刻的叶片面积和生长环境光照参数。
根据不同时刻的叶片面积和生长环境光照参数计算每株训练用叶菜的生长指数。
将所有叶片面积和对应的生长环境光照参数作为输入,所有训练用叶菜的生长指数作为标签,对长短期记忆网络进行训练,得到叶菜生长指数预测模型。
具体的,如图3所示,在实际操作中,叶菜生长指数预测模型的确定过程包括:
S401:通过多组叶菜生长全周期试验,估测叶菜叶面面积。
具体地,从每组栽培对象中随机抽取6株叶菜进行叶面积的测量。每7天对叶菜植株进行拍摄,在拍摄过程中从叶菜正上方对参照物与叶菜进行拍摄(俯视)。通过Kinect相机采集叶菜RGB图像与深度图像信息,采用滤波算法对整幅图像进行处理,修复信息无效区域和噪声信息。
S402:在叶菜各周期内采集叶菜生长环境数据。
具体地,叶菜生长环境数据包括光照强度、光质比例、光照周期与其他环境传感器测得的数据。
S403:将所采集的光照强度、光质比例、光照周期与其他环境传感器测得数据对该阶段所估测的叶菜叶面积进行多元线性回归分析。
具体地,将叶菜叶面积作为因变量,所采集的光照强度等环境数据作为多元自变量,对所述数据进行回归分析,得到相关系数,并可以据此估算得出回归方程。
S404:推导出光照强度等呈线性相关环境因素的权重值,得到主要环境影响因素。
进一步将经过多元线性回归模型得到的具有权重值的光照强度等线性相关因素数据与对应叶菜生长周期内的面积数据作为输入,输入到基于LSTM多元时间序列预测模型中,得到叶菜生长指数作为输出,如图4所示,具体包括:
通过多元线性回归分析可得在叶菜生长周期内,有效光照等环境因素与叶面积指数之间存在着较高的相关性。
S501,将分析得到的相关因素数据与叶菜叶面指数作为LSTM多元时间序列预测模型的输入。
S502,经过数据预处理、构建数据集、划分训练集和测试集、数据缩放加快收敛、训练LSTM模型、模型泛化、预测结果可视化。
具体地,首先将对数据进行预处理,数据格式标准化;其次构建数据集,将数据转换成数组类型进行保存,按照比例将数据集划分为训练集和测试集,并将训练集和测试集中的数据都缩放到[-1,1]之间,可以加快收敛;数据集构建完成后就可以开始训练LSTM模型,初始化LSTM模型并开始训练,设置神经元核心的个数,设置训练时输入数据的格式等等;最后进行模型的泛化与预测结果的可视化。
S503,输出所预测的叶菜生长指数。
具体地,由LSTM多元时间序列预测模型对其输入的环境数据与叶菜叶面面积数据进行数据处理与分析,得到对下一阶段叶菜叶面面积指数的预测,输出定义为叶菜的生长指数,通过上述步骤,可对叶菜生长状况进行分析评估。
作为一种可选的实施方式,获取叶菜的生长环境图像,具体包括:
获取叶菜所处环境的RGB图像和对应的深度图像。
将叶菜所处环境的RGB图像和对应的深度图像确定为生长环境图像。
作为一种可选的实施方式,根据聚类图像确定叶菜叶面面积,具体包括:
确定聚类图像中标注为叶菜叶面的像素数量。
根据像素数量确定叶菜叶面面积。
实施例2
图5为本发明实施例2提供的叶菜生长环境光照调控系统结构示意图。如图5所示,本实施例中的叶菜生长环境光照调控系统,包括:
参数获取模块201,用于获取叶菜的生长环境图像和生长环境光照参数;生长环境图像中包括:叶菜和非叶菜;非叶菜包括:种植架和泡沫板;生长环境光照参数包括:光照强度、光照比例和光照周期。
分割模块202,用于将生长环境图像输入至图像分割模型中,得到初始像素分割图;图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图。
面积确定模块203,用于利用CAM-K算法,根据初始像素分割图确定叶菜叶面面积;CAM-K算法包括CAM算法和K-Means聚类算法。
生长指数预测模块204,用于将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,第二训练数据集包括:多组第二训练数据,第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数。
光照调整模块205,用于根据叶菜的生长指数,调整生长环境光照参数。
实施例3
图6为本发明实施例3提供的叶菜生长环境光照调控装置结构示意图。如图6所示,本实施例中的叶菜生长环境光照调控装置,用于实现实施例1中的叶菜生长环境光照调控方法,叶菜生长环境光照调控装置包括:生长环境图像获取装置301、生长环境光照参数获取装置302、补光灯303和控制装置304;生长环境图像获取装置301、生长环境光照参数获取装置302和补光灯303分别与控制装置304连接。
生长环境图像获取装置301用于获取叶菜的生长环境图像;生长环境图像中包括:叶菜和非叶菜;非叶菜包括:种植架和泡沫板。
生长环境光照参数获取装置302用于获取叶菜的生长环境光照参数;生长环境光照参数包括:光照强度、光照比例和光照周期。
控制装置304用于:
利用图像分割模型对叶菜生长环境图像进行分割,得到始像素分割图。
利用CAM-K算法,根据初始像素分割图确定叶菜叶面面积。
利用叶菜生长指数预测模型,基于叶菜叶面面积确定叶菜的生长指数。
根据叶菜的生长指数,调节补光灯303,从而调整生长环境光照参数。
具体的,如图7所示,叶菜生长环境光照调控装置,具体包括:叶菜生长环境信息采集与调控装置和边缘端叶菜生长预测模型。
叶菜生长环境信息采集与调控装置设有多类别传感器(即生长环境光照参数获取装置)、Kinect相机(即生长环境图像获取装置)、电力线载波模块、智能开关、叶菜生长环境调控设备和控制装置(包括STM32F407核心控制器和JETSON XAVIER NX核心控制器模块)。
优选地,多类别传感器包括光照强度传感器、温度传感器、湿度传感器、pH传感器、溶解氧传感器、电导率传感器、浊度传感器;使用传感器采集叶菜生长环境的多维环境感知信息;多维环境感知信息包括生长环境信息和调控设备状态信息;生长环境信息包括含光照强度、温湿度、pH值、溶解氧浓度、电导率和浊度;调控设备状态信息包括设备(主要是补光灯)的电流值、电压值、表面温度值和电功率值。
优选地,Kinect相机,通过USB转串口与JETSON XAVIER NX核心控制器连接,放置于叶菜培养架顶部,Kinect相机可同时采集叶菜生长的RGB图像与深度图像,RGB图像可以用于目标检测,深度图像可直接反应叶菜可见表面的几何形状,利用深度图像可以进行对叶菜三维信息的目标检测与图像分割,将采集的叶菜的RGB图像和深度图像均发送至)传输给JETSON XAVIER NX核心控制器进行边缘端的图像处理。
优选地,电力线载波模块(电力线载波模块包括图7中的电力线载波器A、电力线、电力线载波器B,主要用于叶菜生长环境信息采集模块(各类传感器)与核心控制器的通讯连接,核心控制器与调控设备的通讯连接)是指利用高压电力线(在电力载波领域通常指35kV及以上电压等级)、中压电力线(指10kV电压等级)或低压配电线(380/220V用户线)作为信息传输媒介进行数据传输的一种特殊通信方式,叶菜生长环境信息基于电力线载波技术获取,并通过RS485总线与STM32F407和智能开关进行通信。
优选地,智能开关是指利用控制板和电子元器件的组合及编程,以实现电路智能开关控制的单元,接收到由电力线载波模块传输的信号,通过RS485总线控制补光灯等调控设备。
优选地,多类别调控设备包括补光灯、循环泵、空调、排气扇;补光灯将根据由边缘端叶菜生长预测模型传输给STM32F407核心控制器的光照强度、光质比例与光照周期的调控参数来调节光照强度、光质比例与光照周期(JETSON XAVIER NX核心控制器模块中是用于进行预测算法的部署,而STM32控制器是根据算法输出的结果去进行控制光照等调控设备);循环泵用来把鱼菜共生测控系统中鱼池的水进行循环利用作为叶菜的水培用水;空调用于调节生长环境温度;排气扇用于调节集装箱内温度及湿度,主要是调节湿度。循环泵主要是在该系统中对水培生菜进行补充水分,对系统中的水资源进行循环利用,不需要根据参数进行修改,需要利用智能开关去启停。
作为本发明的一种优选实施例,核心控制器为STM32F407系列开发板,该开发板配有较多串口、ADC采集速度与SPI通讯速度相对较快,实时性较高,并具有以太网模块,较多的通讯接口可以采集更多的外部信息及传感器数据,例如光照强度、温湿度、pH值、溶解氧浓度、电导率和浊度等数据信息。
优选地,JETSON XAVIER NX核心控制器模块搭载了特殊的AI核和图形处理器,支持AI系统的运行,可以在非常短的时间内处理大量数据,以实现边缘计算,是整个叶菜生长环境光照智能调控模型的边缘端信息处理核心,其作用为:其一,接受来自上位机的指令信号,由搭载的Kinect相机采集叶菜生长图像信息。其二,在该开发板中部署基于YOLOv7目标检测网络以及一种利用K-Means算法与基于深度学习的CAM可视化技术相结合的自动估计像素面积的框架,对叶菜进行目标检测、图像分割与图像处理等操作。其三,在该开发板中部署基于多元线性回归与LSTM多元时间序列的叶菜生长面积预测模型,能够通过所采集的多维环境感知信息与叶菜面积信息对下一步叶菜生长面积做出预测,从而得到叶菜的生长指数。其四,模块中存储了根据历史经验所获取的叶菜每个生长阶段的最佳生长数据与环境信息,并通过由基于多元线性回归与LSTM多元时间序列的叶菜生长面积预测模型得到的叶菜生长指数与其进行比较,从而做出叶菜生长调控决策,得到光照强度、光质比例与光照周期的调控参数。其五,能够将光照强度、光质比例与光照周期的调控参数传达给下位机进行对叶菜生长光环境的调控。
优选地,还包括叶菜水培种植架、Kinect相机固定器以及用于调控光照的补光灯组,Kinect相机固定在叶菜水培种植架上部,与补光灯组保持一定距离,避免采集图像信息时曝光。在叶菜水培种植架上通过铝合金等轻质金属材料搭载循环检测用的Kinect相机固定器。为了能够更好采集到叶菜的生长图像信息,该固定器可根据叶菜生长状况,实时调节高度,使Kinect相机能够拍摄到整个叶菜叶面。
Kinect相机主要用于拍摄水培种植架内叶菜整体叶面的图像,通过图像处理和机器视觉等方法对叶菜生长状态进行评估。
调控光照的补光灯组主要用于根据上述对叶菜生长状态的评估信息,调节叶菜生长环境内所需要的光照强度、光质比例与光照周期。
上位机应实现如下功能,(1)能够实时读取各传感器采集的多维环境数据、Kinect相机采集的RGB图像与深度图像数据。(2)能够发送相应控制指令,控制相应调控设备。(3)能够显示基于多元线性回归模型的相关性分析与基于LSTM多元时间序列的叶菜生长面积预测模型得到的叶菜生长指数与光照强度、光质比例与光照周期的调控参数。(4)能够向STM32F407核心控制器发送控制信息,控制设备启停。(5)在上位机中显示各设备的工作状态。
在利用控制装置实现控制参数的确定后,根据多组实验数据对比与专家经验,构建叶菜生长状态与光照强度、光质比例与光照周期等相关环境因素配比之间的关系,从而能够得到叶菜在各生长周期内达到的最佳生长数据与环境信息,并将该信息存储在控制装置中的数据库中。
通过采集多组实验数据对比与专家经验,可得到叶菜处不同生长周期时,叶菜达到生长最佳状态所需光照环境数据等相关环境数据,其中光照环境数据包括光照强度、光质比例(红光与蓝光比例)与光照周期(补光灯组启停时间占比)。
将上述所得到的叶菜在各生长周期内达到的最佳生长数据与环境信息数据作为历史经验构建规则表,存储于数据库中。
通过实验数据对构建的预测模型进行训练,修改模型参数,训练与验证表示叶菜生长最佳状态与光照强度、光质比例与光照周期等环境因素最佳配比之间的关系。
根据对叶菜叶面积的测算,评估是根据查询数据库中当前叶菜所处生长周期内所对应的叶菜叶面积,并结合数据库中的历史经验规则表,判断当前叶菜长势是否良好,结合当前由基于多元线性回归与LSTM多元时间序列的叶菜生长面积预测模型得到的叶菜生长指数与数据库中存储的对应阶段应达到的最佳生长数据进行比较,从而做出叶菜生长调控决策,得到光照强度、光质比例与光照周期的调控参数,将调控参数传达给下位机,下位机根据调控参数下发控制指令,调节补光灯组的光照强度、光质比例与光照周期,从而调节叶菜生长光照环境。
将调控参数传达给下位机STM32F407核心控制器,下位机根据调控参数下发控制指令,采用PWM技术,利用PWM控制信号,通过控制LED补光灯组的正向工作电流的占空比来调节LED补光灯组的光照强度与光质比例,利用定时器调节光照周期。
根据专家经验,叶菜类的光照补偿点为1500Lux以上,饱和点在2万Lux以上。在一定范围光照越强,光合作用越强,新陈代谢加快,生长速度加快,生长周期缩短。一天中光照时数不能低于5小时,光照度不能低于植物的光补偿点,处于开花结果阶段的叶菜平均光照度不能低于6000Lux,生长盛期的叶菜光照最好大于3000Lux。通过多组实验对比与专家经验结合,根据上述所得到的叶菜生长状态评估与叶菜生长调控决策,结合不同生长阶段与生长状况所需,进行光照强度的调控。
LED补光灯组是由620-680nm的红光和400-500nm的蓝光进行配比的,其红光对作物叶片生长有促进作用,蓝光对作物根茎生长有促进作用。根据专家经验,叶菜类在定植和育苗光质比例分别采用红蓝光6∶1和7∶1的比例最适合叶菜其生长。通过多组实验对比与专家经验结合,根据上述所得到的叶菜生长状态评估与叶菜生长调控决策,结合不同生长阶段与生长状况所需,进行光质比例的调控。
根据专家经验,叶菜在完全人工照明情况下,生长前期的光照周期为6h开,2h关,每天循环3次;生长后期的光照周期为14h开,10h关,每天循环2次。通过多组实验对比与专家经验结合,根据上述所得到的叶菜生长状态评估与叶菜生长调控决策,结合不同生长阶段与生长状况所需,利用定时器对叶菜的光照周期进行调控。
根据叶菜生长光环境的调控,记录当前叶菜生长数据、环境数据与相关设备工作状态,并更新至数据库中。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (6)
1.一种叶菜生长环境光照调控方法,其特征在于,所述方法包括:
获取叶菜的生长环境图像和生长环境光照参数;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
将所述生长环境图像输入至图像分割模型中,得到初始像素分割图;所述图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,所述第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图;
利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;所述CAM-K算法包括CAM算法和K-Means聚类算法;
将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;所述叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,所述第二训练数据集包括:多组第二训练数据,所述第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数;
根据所述叶菜的生长指数,调整所述生长环境光照参数;
获取叶菜的生长环境图像,具体包括:
获取叶菜所处环境的RGB图像和对应的深度图像;
将叶菜所处环境的RGB图像和对应的深度图像确定为所述生长环境图像;
所述图像分割模型的训练过程,具体包括:
获取多张所述训练用叶菜生长环境图;
对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图;
将多张所述训练用叶菜生长环境图作为输入,对应的训练用像素分割图作为输出,对所述Yolov7目标检测网络训练,得到所述图像分割模型;
其中,在对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图之前,还包括:
对每张训练用叶菜生长环境图依次进行滤波操作、Mosaic数据增强、自适应锚框计算和自适应图片缩放。
2.根据权利要求1所述的叶菜生长环境光照调控方法,其特征在于,利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积,具体包括:
利用所述CAM算法,对所述初始像素分割图进行CAM可视化,得到可视化后的像素分割图;
将所述可视化后的像素分割图和所述初始像素分割图进行叠加,得到叠加像素图;
利用所述K-Means聚类算法,对所述叠加像素图进行聚类,得到聚类图像;
根据所述聚类图像确定所述叶菜叶面面积。
3.根据权利要求1所述的叶菜生长环境光照调控方法,其特征在于,所述叶菜生长指数预测模型的训练过程,具体包括:
获取所述第二训练数据中每株训练用叶菜在不同时刻的叶片面积和生长环境光照参数;
根据不同时刻的叶片面积和生长环境光照参数计算每株所述训练用叶菜的生长指数;
将所有所述叶片面积和对应的生长环境光照参数作为输入,所有训练用叶菜的生长指数作为标签,对所述长短期记忆网络进行训练,得到所述叶菜生长指数预测模型。
4.根据权利要求2所述的叶菜生长环境光照调控方法,其特征在于,根据所述聚类图像确定所述叶菜叶面面积,具体包括:
确定所述聚类图像中标注为叶菜叶面的像素数量;
根据所述像素数量确定所述叶菜叶面面积。
5.一种叶菜生长环境光照调控系统,其特征在于,所述系统包括:
参数获取模块,用于获取叶菜的生长环境图像和生长环境光照参数;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
分割模块,用于将所述生长环境图像输入至图像分割模型中,得到初始像素分割图;所述图像分割模型是利用第一训练数据集对Yolov7目标检测网络进行训练得到的,所述第一训练数据集包括:多张训练用叶菜生长环境图和对应的训练用像素分割图;
面积确定模块,用于利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;所述CAM-K算法包括CAM算法和K-Means聚类算法;
生长指数预测模块,用于将叶菜叶面面积和生长环境光照参数输入至叶菜生长指数预测模型中,得到叶菜的生长指数;所述叶菜生长指数预测模型是利用第二训练数据集对长短期记忆网络进行训练得到的,所述第二训练数据集包括:多组第二训练数据,所述第二训练数据包括训练用叶菜在不同时刻的叶片面积、生长环境光照参数和生长指数;
光照调整模块,用于根据所述叶菜的生长指数,调整所述生长环境光照参数;
获取叶菜的生长环境图像,具体包括:
获取叶菜所处环境的RGB图像和对应的深度图像;
将叶菜所处环境的RGB图像和对应的深度图像确定为所述生长环境图像;
所述图像分割模型的训练过程,具体包括:
获取多张所述训练用叶菜生长环境图;
对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图;
将多张所述训练用叶菜生长环境图作为输入,对应的训练用像素分割图作为输出,对所述Yolov7目标检测网络训练,得到所述图像分割模型;
其中,在对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图之前,还包括:
对每张训练用叶菜生长环境图依次进行滤波操作、Mosaic数据增强、自适应锚框计算和自适应图片缩放。
6.一种叶菜生长环境光照调控装置,用于实现权利要求1-4任一项所述的叶菜生长环境光照调控方法,其特征在于,所述叶菜生长环境光照调控装置包括:生长环境图像获取装置、生长环境光照参数获取装置、补光灯和控制装置;所述生长环境图像获取装置、所述生长环境光照参数获取装置和所述补光灯分别与所述控制装置连接;
所述生长环境图像获取装置用于获取叶菜的生长环境图像;所述生长环境图像中包括:叶菜和非叶菜;所述非叶菜包括:种植架和泡沫板;
所述生长环境光照参数获取装置用于获取所述叶菜的生长环境光照参数;所述生长环境光照参数包括:光照强度、光照比例和光照周期;
所述控制装置用于:
利用所述图像分割模型对所述叶菜生长环境图像进行分割,得到始像素分割图;
利用CAM-K算法,根据所述初始像素分割图确定叶菜叶面面积;
利用叶菜生长指数预测模型,基于所述叶菜叶面面积确定叶菜的生长指数;
根据所述叶菜的生长指数,调节所述补光灯,从而调整生长环境光照参数;
获取叶菜的生长环境图像,具体包括:
获取叶菜所处环境的RGB图像和对应的深度图像;
将叶菜所处环境的RGB图像和对应的深度图像确定为所述生长环境图像;
所述图像分割模型的训练过程,具体包括:
获取多张所述训练用叶菜生长环境图;
对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图;
将多张所述训练用叶菜生长环境图作为输入,对应的训练用像素分割图作为输出,对所述Yolov7目标检测网络训练,得到所述图像分割模型;
其中,在对每张所述训练用叶菜生长环境图进行像素级标注,得到对应的训练用像素分割图之前,还包括:
对每张训练用叶菜生长环境图依次进行滤波操作、Mosaic数据增强、自适应锚框计算和自适应图片缩放。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310353974.7A CN116058195B (zh) | 2023-04-06 | 2023-04-06 | 一种叶菜生长环境光照调控方法、系统及装置 |
US18/382,282 US11978210B1 (en) | 2023-04-06 | 2023-10-20 | Light regulation method, system, and apparatus for growth environment of leafy vegetables |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310353974.7A CN116058195B (zh) | 2023-04-06 | 2023-04-06 | 一种叶菜生长环境光照调控方法、系统及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116058195A CN116058195A (zh) | 2023-05-05 |
CN116058195B true CN116058195B (zh) | 2023-07-04 |
Family
ID=86173545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310353974.7A Active CN116058195B (zh) | 2023-04-06 | 2023-04-06 | 一种叶菜生长环境光照调控方法、系统及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11978210B1 (zh) |
CN (1) | CN116058195B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116723614B (zh) * | 2023-07-19 | 2024-03-19 | 江苏中水东泽农业发展股份有限公司 | 一种基于ai的自适应鱼类繁殖环境光照控制方法 |
CN116757332B (zh) * | 2023-08-11 | 2023-12-05 | 北京市农林科学院智能装备技术研究中心 | 叶菜产量预测方法、装置、设备及介质 |
CN118334297A (zh) * | 2024-05-31 | 2024-07-12 | 东莞浩立自动化科技有限公司 | 基于环境光反馈的机器视觉光源动态调控方法及系统 |
CN118628942A (zh) * | 2024-08-08 | 2024-09-10 | 浙江工业大学 | 一种多维图像数据库的构建方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304194B2 (en) * | 2016-03-25 | 2019-05-28 | The Regents Of The University Of California | Method for quantifying produce shape |
US9928584B2 (en) * | 2016-07-11 | 2018-03-27 | Harvest Moon Automation Inc. | Inspecting plants for contamination |
IL259285B2 (en) * | 2018-05-10 | 2023-07-01 | Inspekto A M V Ltd | A system and method for detecting defects on objects in an image |
CN110503253A (zh) * | 2019-08-12 | 2019-11-26 | 北京环丁环保大数据研究院 | 一种种植环境自适应控制方法及装置 |
WO2022029771A1 (en) * | 2020-08-03 | 2022-02-10 | Inspekto A.M.V Ltd | Adaptive system and method for inspection of imaged items |
CN111862194B (zh) * | 2020-08-04 | 2022-06-03 | 江苏云脑数据科技有限公司 | 基于计算机视觉的深度学习植物生长模型分析方法及系统 |
CN112930926A (zh) * | 2021-01-28 | 2021-06-11 | 电凯(常州)新能源技术研究院有限公司 | 一种基于深度学习的植物生产参数调优方法 |
EP4284156A1 (en) * | 2021-01-28 | 2023-12-06 | Heliponix, LLC | System for monitoring enclosed growing environment |
CN113141940A (zh) * | 2021-06-01 | 2021-07-23 | 中国农业科学院蔬菜花卉研究所 | 一种用于日光温室果菜栽培的智能水分精准灌溉控制系统及方法 |
US20230152232A1 (en) * | 2021-11-17 | 2023-05-18 | The United States Of America, As Represented By The Secretary Of Agriculture | Active illumination-based multispectral contamination sanitation inspection system |
CN114269041A (zh) * | 2022-01-25 | 2022-04-01 | 中山职业技术学院 | 一种基于led植物补光智能控制方法及其系统 |
-
2023
- 2023-04-06 CN CN202310353974.7A patent/CN116058195B/zh active Active
- 2023-10-20 US US18/382,282 patent/US11978210B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN116058195A (zh) | 2023-05-05 |
US11978210B1 (en) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116058195B (zh) | 一种叶菜生长环境光照调控方法、系统及装置 | |
CN110479636B (zh) | 基于神经网络自动分拣烟叶的方法及装置 | |
CN109325495B (zh) | 一种基于深度神经网络建模的作物图像分割系统及方法 | |
CN110472575B (zh) | 一种基于深度学习和计算机视觉的串番茄成熟度检测方法 | |
CN106997475B (zh) | 一种基于并行卷积神经网络的害虫图像识别方法 | |
CN110517311A (zh) | 基于叶片病斑面积的病虫害监测方法 | |
CN107909008A (zh) | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 | |
CN113657326A (zh) | 一种基于多尺度融合模块和特征增强的杂草检测方法 | |
CN109344738A (zh) | 农作物病虫草害识别方法及装置 | |
CN116051996A (zh) | 一种基于多模态信息的二阶段农作物生长预测方法 | |
CN117456358A (zh) | 一种基于YOLOv5神经网络的植物病虫害检测方法 | |
KR102002632B1 (ko) | Iot 기반 과수 모니터링 시스템 및 방법 | |
CN117789037B (zh) | 作物生长期预测方法及装置 | |
CN116310338A (zh) | 一种基于实例和语义分割的单株荔枝红叶梢分割方法 | |
CN116958961A (zh) | 一种基于改进YOLOv8s的轻量级石榴识别方法 | |
CN115410087A (zh) | 一种基于改进YOLOv4的输电线路异物检测方法 | |
CN116958643A (zh) | 一种基于yolo网络的气传花粉致敏植物智慧识别方法 | |
CN116682106A (zh) | 一种基于深度学习的柑橘木虱智能检测方法及装置 | |
CN111027436A (zh) | 一种基于深度学习的东北黑木耳病虫害图像识别系统 | |
CN118097372A (zh) | 一种基于人工智能的作物生长可视化预测方法 | |
CN117475429A (zh) | 基于草菇生物特性关键环境参数的控制方法以及装置 | |
CN117456350A (zh) | 适于边缘计算场景的水稻叶面型病害多模态融合检测方法 | |
CN114511850B (zh) | 一种阳光玫瑰葡萄果实大小粒图像识别方法 | |
CN116109859A (zh) | 基于3d卷积的松材线虫病树识别方法 | |
CN114612898A (zh) | 一种基于YOLOv5网络的荔枝蒂蛀虫羽化率检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |