JP2022087038A - Vegetative state detection method - Google Patents

Vegetative state detection method Download PDF

Info

Publication number
JP2022087038A
JP2022087038A JP2021185666A JP2021185666A JP2022087038A JP 2022087038 A JP2022087038 A JP 2022087038A JP 2021185666 A JP2021185666 A JP 2021185666A JP 2021185666 A JP2021185666 A JP 2021185666A JP 2022087038 A JP2022087038 A JP 2022087038A
Authority
JP
Japan
Prior art keywords
vegetation
net
ndvi
detection method
state detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021185666A
Other languages
Japanese (ja)
Inventor
孝幸 内田
Takayuki Uchida
章浩 高橋
Akihiro Takahashi
桂一 宮▲崎▼
Keiichi Miyazaki
未来 小路丸
Miki Kojimaru
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Polytechnic University
Original Assignee
Tokyo Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Polytechnic University filed Critical Tokyo Polytechnic University
Publication of JP2022087038A publication Critical patent/JP2022087038A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To provide a vegetative state detection method that can detect a vegetative state under a protective net or an emergency net, by optical means, from above the protective net or the emergency net.SOLUTION: According to a vegetative state detection method, a multi-spectral camera 2 mounted on a UAV (unmanned aircraft) 1 is used to capture images in the infrared band and plural red bands from the sky over a farm, a field, a fruit tree or a mountain 102 covered with a protective net or an emergency net 101, a group of captured images is combined, and the NDVI (normalized difference vegetation index) is mapped onto the image.SELECTED DRAWING: Figure 1

Description

本発明は、防護網又は防災網の上方より、光学的手段によって、防護網又は防災網の下の植生状態を検出できる植生状態検出方法に関する。 The present invention relates to a vegetation state detection method capable of detecting a vegetation state under a protective net or a disaster prevention net by an optical means from above the protective net or a disaster prevention net.

従来、光学的手段(カメラ)及びリモートセンシングによる植生状態検出方法が提案されている(特許文献1)。また、近年、測量や地形把握などの分野では、UAV(Unmanned Aerial Vehicle:無人航空機)による空撮写真群から三次元点群データを得る自動作成手法が提案されている。 Conventionally, a vegetation state detection method by optical means (camera) and remote sensing has been proposed (Patent Document 1). Further, in recent years, in fields such as surveying and terrain grasping, an automatic creation method for obtaining three-dimensional point cloud data from aerial photograph groups by UAV (Unmanned Aerial Vehicle) has been proposed.

このようなUAVの技術の進展により、大面積の農場、圃場を適切にモニタできるようになり、植生状態を検出することにより、収穫や、農薬散布なども適材適所で対応することができるようになっている。 With such advances in UAV technology, it has become possible to appropriately monitor large-area farms and fields, and by detecting the vegetation state, it is possible to handle harvesting and spraying pesticides in the right place. It has become.

再表2019-017095号公報Re-table 2019-017095

従来の植生状態検出方法においては、農場、圃場に防護網(ネット)又は防災網(ネット)をかけた場合には、植生状態を十分な精度で検出することができなかった。これは、単に、網の格子部分が遮蔽物(影)となって見えず、開口した部分のみが見えるということではなく、網における光の反射や散乱が透過光の情報の割合を減らすことにあると考えられる。 In the conventional vegetation state detection method, when a protective net (net) or a disaster prevention net (net) is applied to a farm or a field, the vegetation state cannot be detected with sufficient accuracy. This does not mean that the grid part of the net is not visible as a shield (shadow) and only the open part is visible, but that the reflection and scattering of light in the net reduces the proportion of transmitted light information. It is believed that there is.

本発明は、このような従来事情に鑑みてなされたものであり、防護網又は防災網の上方より、光学的手段によって、防護網又は防災網の下の植生状態を検出できる植生状態検出方法を提供することを課題とする。 The present invention has been made in view of such conventional circumstances, and a vegetation state detection method capable of detecting a vegetation state under a protective net or a disaster prevention net by an optical means from above the protective net or a disaster prevention net. The challenge is to provide.

本発明の他の課題は、以下の記載によって明らかになる。 Other problems of the present invention will be clarified by the following description.

上記課題は以下の発明によって解決される。 The above problem is solved by the following invention.

(請求項1)
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の上空から、赤外及び赤の複数帯域の画像を撮影し、
前記撮影した画像群を統合し、NDVI(正規化植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
(請求項2)
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の上空から、赤外及び青の複数帯域の画像を撮影し、
前記撮影した画像群を統合し、HB-NDVI(青の植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
(請求項3)
前記防護網又は前記防災網は、太さが1mm乃至5mmの合成樹脂繊維撚り線からなる網であって、網のピッチが2mm乃至50mmである
ことを特徴とする請求項1又は2記載の植生状態検出方法。
(請求項4)
前記UAVは、GNSS位置測位により自身の位置を検出し、自身の位置と予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行する
ことを特徴とする請求項1、2又は3に記載の植生状態検出方法。
(請求項5)
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の側方から、赤外及び赤の複数帯域の画像を撮影し、
前記撮影した画像群から3D形状を構築するとともに、前記画像群を統合し、NDVI(正規化植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
(請求項6)
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の側方から、赤外及び青の複数帯域の画像を撮影し、
前記撮影した画像群から3D形状を構築するとともに、前記画像群を統合し、HB-NDVI(青の植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
(請求項7)
前記UAVは、果樹等の形状を深層学習したAIを用いた画像処理により果樹等を回避すべく航路を制御され、予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行する
ことを特徴とする請求項5又は6に記載の植生状態検出方法。
(請求項8)
前記NDVI又は前記HB-NDVIの数値に応じて色分けした画像を提示する
ことを特徴とする請求項1~7の何れかに記載の植生状態検出方法。
(Claim 1)
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures images of multiple bands of infrared and red from above farms, fields, fruit trees or mountains covered with protective or disaster prevention nets.
A vegetation state detection method characterized by integrating the photographed images and mapping an NDVI (normalized difference vegetation index) onto the images.
(Claim 2)
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures images of multiple bands of infrared and blue from above farms, fields, fruit trees or mountains covered with protective or disaster prevention nets.
A method for detecting a vegetation state, which comprises integrating the photographed images and mapping HB-NDVI (blue vegetation index) onto the images.
(Claim 3)
The vegetation according to claim 1 or 2, wherein the protective net or the disaster prevention net is a net made of synthetic resin fiber stranded wire having a thickness of 1 mm to 5 mm, and the pitch of the net is 2 mm to 50 mm. State detection method.
(Claim 4)
The UAV is characterized in that it detects its own position by GNSS positioning and executes automatic flight and automatic shooting based on its own position, map information prepared in advance, a planned flight area, and a planned shooting position. The vegetation state detection method according to claim 1, 2 or 3.
(Claim 5)
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures multiple bands of infrared and red from the side of a farm, field, fruit tree or mountain field covered with protective or disaster prevention nets.
A vegetation state detection method characterized in that a 3D shape is constructed from the captured image group, the image group is integrated, and an NDVI (normalized difference vegetation index) is mapped on the image.
(Claim 6)
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures multiple bands of infrared and blue from the side of a farm, field, fruit tree or mountain field covered with protective or disaster prevention nets.
A vegetation state detection method characterized in that a 3D shape is constructed from the captured image group, the image group is integrated, and HB-NDVI (blue vegetation index) is mapped on the image.
(Claim 7)
The UAV controls the route to avoid fruit trees by image processing using AI that deeply learns the shape of fruit trees, etc., and automatically based on the map information prepared in advance, the planned flight area, and the planned shooting position. The vegetation state detection method according to claim 5 or 6, wherein flight and automatic imaging are performed.
(Claim 8)
The vegetation state detection method according to any one of claims 1 to 7, wherein an image color-coded according to the numerical value of the NDVI or the HB-NDVI is presented.

本発明は、防護網又は防災網の上方より、光学的手段によって、防護網又は防災網の下の植生状態を検出できる植生状態検出方法を提供できる。 The present invention can provide a vegetation state detection method capable of detecting a vegetation state under a protective net or a disaster prevention net by an optical means from above the protective net or a disaster prevention net.

本発明の第1の実施形態に係る植生状態検出方法を示す側面図Side view which shows the vegetation state detection method which concerns on 1st Embodiment of this invention. 防護網又は防災網を示す正面図Front view showing protection net or disaster prevention net 白化した防護網又は防災網を示す正面図Front view showing bleached protection net or disaster prevention net 本発明の第1の実施形態に用いるマルチスペクトルカメラを示す正面図Front view showing a multispectral camera used in the first embodiment of the present invention. 本発明の第2の実施形態に係る植生状態検出方法を示す側面図Side view which shows the vegetation state detection method which concerns on 2nd Embodiment of this invention. 本発明の第2の実施形態において構築された上方より見た3D(立体)形状A 3D (three-dimensional) shape seen from above constructed in the second embodiment of the present invention. 本発明の第2の実施形態において構築された側方より見た3D(立体)形状3D (three-dimensional) shape seen from the side constructed in the second embodiment of the present invention. 撮影箇所を示す可視光画像(左)と撮影された画像をオルソ化してNDVI処理した画像(右)Visible light image showing the shooting location (left) and NDVI processed image of the shot image (right) 防護網を張った圃場のオルソ画像(左)とそのNDVI画像(右)Ortho image of a field with a protective net (left) and its NDVI image (right) クロロフィルの吸収スペクトルを示すグラフGraph showing absorption spectrum of chlorophyll レイリー散乱及びミー散乱を説明する図Diagram illustrating Rayleigh scattering and Mie scattering レイリー散乱及びミー散乱が起こる波長及び粒子半径を示すグラフGraph showing wavelength and particle radius where Rayleigh scattering and Mie scattering occur 網による太陽光の反射を示す平面図(a)及び縦断面図(b)Plan view (a) and vertical cross-sectional view (b) showing the reflection of sunlight by the net. 網による太陽光の散乱を示す平面図(a)及び縦断面図(b)Plan view (a) and vertical cross-sectional view (b) showing the scattering of sunlight by the net.

以下に図面を参照して本発明の実施例について詳細に説明する。 Examples of the present invention will be described in detail with reference to the drawings below.

〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る植生状態検出方法を示す側面図である。
[First Embodiment]
FIG. 1 is a side view showing a vegetation state detection method according to the first embodiment of the present invention.

本発明の実施形態に係る植生状態検出方法は、図1に示すように、UAV(無人航空機、例えばドローン(drone))1に搭載したマルチスペクトルカメラ2により、防護網又は防災網101に覆われた農場、圃場、果樹又は山野102の上空から撮影する。撮影は、できる限り低空(約10m)から行うことが好ましい。 As shown in FIG. 1, the vegetation state detection method according to the embodiment of the present invention is covered with a protective net or a disaster prevention net 101 by a multispectral camera 2 mounted on a UAV (unmanned aerial vehicle, for example, a drone) 1. Taken from the sky above the farm, field, fruit tree or mountain field 102. It is preferable to shoot from a low altitude (about 10 m) as much as possible.

撮影は、赤外及び赤の複数帯域の高精細画像を撮影し、撮影した高精細画像群を統合(オルソ化)する。次に、NDVI(正規化植生指数)をマッピングする画像技術によって、目的とした重み付け(着色)をした画像として提示する。ここで画像の提示とは、画像データの生成及び出力、又は送信、出力した画像データのディスプレイによる再生(画像の表示)、出力した画像データに基づく画像の印刷の何れをも含む。 In the photographing, high-definition images of a plurality of bands of infrared and red are photographed, and the captured high-definition image group is integrated (ortholithic). Next, it is presented as a target weighted (colored) image by an image technique that maps NDVI (normalized difference vegetation index). Here, the presentation of an image includes any of generation and output of image data, transmission, reproduction of the output image data on a display (display of an image), and printing of an image based on the output image data.

または、赤外及び青の複数帯域の高精細画像を撮影し、撮影した高精細画像群を統合(オルソ化)する。次に、HB-NDVI(青の植生指数)をマッピングする画像技術によって、目的とした重み付け(着色)をした画像として提示する。 Alternatively, high-definition images in a plurality of bands of infrared and blue are taken, and the taken high-definition images are integrated (orthogonalized). Next, it is presented as a target weighted (colored) image by an image technique that maps HB-NDVI (blue vegetation index).

従来、防護網又は防災網の下の農場、圃場、果樹又は山野の状態は、可視画像では観察できなかったが、本発明では、NIR(近赤外:~840nm)情報を用いたNDVI画像処理又はHB-NDVI画像処理を使用することにより、網の下の農場、圃場等の状態を観察できる。これにより、例えば、適材、適所の農業が可能となり、いわゆるスマート農業を実現する。 Conventionally, the state of a farm, a field, a fruit tree or a mountain field under a protective net or a disaster prevention net could not be observed with a visible image, but in the present invention, NDVI image processing using NIR (near infrared: ~ 840 nm) information is used. Alternatively, by using HB-NDVI image processing, the state of the farm, field, etc. under the net can be observed. This enables, for example, agriculture of the right person and the right place, and realizes so-called smart agriculture.

防護網又は防災網の下の植生状態検出では、網による光の反射や散乱により透過光の情報の割合が減ると考えられ、光の物体散乱は、その波長に強く依存し、短波長のものは散乱されやすく、長波長のものは散乱されにくいため、赤外を用いた解析が有効である。 In vegetation state detection under a protective net or disaster prevention net, it is thought that the proportion of transmitted light information decreases due to the reflection and scattering of light by the net, and the object scattering of light strongly depends on its wavelength and is of short wavelength. Is easy to scatter, and long wavelength ones are hard to be scattered, so analysis using infrared light is effective.

〔植生指数について〕
この実施形態では、指標化には、NDVI(Normalized Difference Vegetation Index(正規化植生指数))又はHB-NDVI(Half Blue Normalized Difference Vegetation Index(青の植生指数))を用いる。
[About the vegetation index]
In this embodiment, NDVI (Normalized Difference Vegetation Index) or HB-NDVI (Half Blue Normalized Difference Vegetation Index) is used for indexing.

NDVIは、一般的な植物の生育度や栄養素の判別に用いられるもので、以下の式1に示すように、近赤外線帯域及び赤の反射率値の合計に対する、近赤外線帯域及び赤の反射率値の差の比率である。これは、植生のクロロフィル含有量について一般的に使用される指標であり、植生の成長と栄養素に関する情報を提供する。この指標は、植生の成長状況と植生のカバレッジ(coverage:網羅率)を監視するために使用できる。
〔式1〕NDVI=(NIR-Red(赤:650nm))/(NIR+Red)
NDVI is used to discriminate general plant growth and nutrients, and as shown in Equation 1 below, the reflectance of the near-infrared band and red with respect to the sum of the reflectance values of the near-infrared band and red. The ratio of the difference between the values. It is a commonly used indicator of vegetation chlorophyll content and provides information on vegetation growth and nutrients. This indicator can be used to monitor vegetation growth and vegetation coverage.
[Equation 1] NDVI = (NIR-Red (red: 650 nm)) / (NIR + Red)

また、本発明では、以下の式2に示すように、近赤外線帯域及び青の反射率値の合計に対する、近赤外線帯域及び青の反射率値の差の比率であるHB-NDVIを用いることができる。この指標も、植生の成長状況と植生のカバレッジ(coverage:網羅率)を監視するために使用できる。
〔式2〕HB-NDVI=(NIR-0.5×Blue(青:450nm))/(NIR+0.5×Blue)
Further, in the present invention, as shown in Equation 2 below, HB-NDVI, which is the ratio of the difference between the near-infrared band and the blue reflectance value to the total of the near-infrared band and the blue reflectance value, can be used. can. This indicator can also be used to monitor vegetation growth and vegetation coverage.
[Equation 2] HB-NDVI = (NIR-0.5 × Blue (blue: 450 nm)) / (NIR + 0.5 × Blue)

NDVIは、反射の高いNIR(~840nm)と反射の低い(吸収の高い)Red(650nm)の対称的な箇所(帯域)を使う。植物の吸収は、図10に示すように、450nmと650nmに2箇所の帯域に吸収があるので、この観点に立てば、反射の低い(吸収の高い)Red(650nm)を青(450nm)に入れ替えてても同じ評価ができる。この場合、すでにある指標は、以下の式3に示すBNDVIであり、NDVIと同じ傾向を示す。
〔式3〕BNDVI=(NIR-Blue(青:450nm))/(NIR+Blue)
青の吸収ピークは、赤の吸収のピークに対して、1.5倍から3倍程度あるので、本発明では、BNDVIのBlueの値を半分にして、上記の式2に示すHB-NDVIを用いる。
The NDVI uses symmetrical points (bands) of NIR (~ 840 nm) with high reflection and Red (650 nm) with low reflection (high absorption). As shown in FIG. 10, the absorption of plants is absorbed in two bands at 450 nm and 650 nm. From this viewpoint, Red (650 nm) having low reflection (high absorption) is changed to blue (450 nm). The same evaluation can be made even if they are replaced. In this case, the existing index is BNDVI shown in the following formula 3, which shows the same tendency as NDVI.
[Equation 3] BNDVI = (NIR-Blue (blue: 450 nm)) / (NIR + Blue)
Since the blue absorption peak is about 1.5 to 3 times the red absorption peak, in the present invention, the Blue value of BNDVI is halved to obtain the HB-NDVI represented by the above formula 2. Use.

〔防護網又は防災網について〕
図2は、防護網又は防災網を示す正面図である。
図3は、白化した防護網又は防災網を示す正面図である。
[About protection nets or disaster prevention nets]
FIG. 2 is a front view showing a protection net or a disaster prevention net.
FIG. 3 is a front view showing a bleached protection net or a disaster prevention net.

防護網又は防災網101は、図2及び図3に示すように、典型的には、太さが1mm乃至5mmの合成樹脂繊維(例えば、ポリアミド樹脂)撚り線からなる網であって、網のピッチが2mm乃至50mmであるが、これらに限定されるものではない。 As shown in FIGS. 2 and 3, the protective net or the disaster prevention net 101 is typically a net made of stranded synthetic resin fibers (for example, polyamide resin) having a thickness of 1 mm to 5 mm. The pitch is 2 mm to 50 mm, but is not limited thereto.

網は、図3に示すように、経年劣化や細かい藻の付着により白化し、緑に近い色になる。 As shown in FIG. 3, the net becomes white due to aging and adhesion of fine algae, and becomes a color close to green.

〔UAV(無人航空機)について〕
UAVは、GNSS位置測位(例えば、GPS)により、自身の位置を検出する。位置検出は、RTK(Real Time Kinematic)位置補正技術(地上に設置した「基準局」からの位置情報データによって高い精度の測位を実現する技術)などにより、測位精度が向上され、cm(センチメートル)オーダの精度を有している。
[About UAV (Unmanned Aerial Vehicle)]
The UAV detects its position by GNSS positioning (eg GPS). Position detection is improved by RTK (Real Time Kinematic) position correction technology (technology that realizes high-precision positioning by position information data from "reference station" installed on the ground), and cm (centimeter). Has order accuracy.

UAVは、自身の位置と、予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行することができる。すなわち、UAVは、自動的に、予定された飛行区域内を、予定された航空路を経ながら、予定された箇所の撮影を行って戻ることができる。 The UAV can perform automatic flight and automatic shooting based on its own position and the map information, planned flight area, and planned shooting position prepared in advance. That is, the UAV can automatically take a picture of the scheduled location and return within the scheduled flight area while passing through the scheduled air route.

〔第2の実施形態〕
上述したUAV1では、防護網又は防災網101下の領域を飛行させると、果樹等102の枝に衝突する虞がある。UAV1が果樹等102の枝に衝突すると、全体の果樹等102の立体形状を構築できるだけの画像を撮影することができなくなる。
[Second Embodiment]
In the above-mentioned UAV1, if the area under the protection net or the disaster prevention net 101 is flown, there is a risk of collision with the branches of 102 such as fruit trees. When the UAV1 collides with a branch of a fruit tree or the like 102, it becomes impossible to take an image sufficient to construct a three-dimensional shape of the whole fruit tree or the like 102.

この実施形態で用いるUAVは、GNSS位置測位(例えば、GPS)を用いずに、AI(Artificial Intelligence:人工知能)を用いた画像処理により障害物を回避するように構成されたものである。AIは、果樹等の形状を深層学習(ディープラーニング:Deep learning)しており、この学習結果に基づいて、飛行中に撮影される果樹等の像を判定し、それが果樹等であることを判断するとともに、その果樹等に対する接近速度及び接近方向を算出する。さらに、AIは、接近する果樹等を回避する航路を算定し、UAVの航路を果樹等を回避すべく制御する。 The UAV used in this embodiment is configured to avoid obstacles by image processing using AI (Artificial Intelligence) without using GNSS positioning (for example, GPS). AI performs deep learning on the shape of fruit trees, etc., and based on this learning result, determines the image of fruit trees, etc. taken during flight, and determines that it is a fruit tree, etc. While making a judgment, the approach speed and approach direction to the fruit tree, etc. are calculated. Further, the AI calculates a route for avoiding the approaching fruit trees and controls the UAV route to avoid the fruit trees and the like.

UAVは、果樹等の障害物を回避しつつ、予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行することができる。すなわち、UAVは、自動的に、果樹等の障害物に衝突することなく、予定された飛行区域内を、予定された航空路を経ながら、予定された箇所の撮影を行って戻ることができる。 The UAV can execute automatic flight and automatic photography based on the map information, the planned flight area, and the planned shooting position prepared in advance while avoiding obstacles such as fruit trees. That is, the UAV can automatically take a picture of the planned location and return within the planned flight area without colliding with obstacles such as fruit trees, while passing through the planned air route. ..

図5は、本発明の第2の実施形態に係る植生状態検出方法を示す側面図である。 FIG. 5 is a side view showing a vegetation state detection method according to a second embodiment of the present invention.

この実施形態においては、図5に示すように、AIにより航路を制御されるUAVを用いて、防護網又は防災網101の下の果樹等102を側方から撮影する。 In this embodiment, as shown in FIG. 5, a UAV whose route is controlled by AI is used to photograph a fruit tree or the like 102 under a protective net or a disaster prevention net 101 from the side.

図6は、本発明の第2の実施形態において構築された上方より見た3D(立体)形状である。
図7は、本発明の第2の実施形態において構築された側方より見た3D(立体)形状である。
FIG. 6 is a 3D (three-dimensional) shape seen from above constructed in the second embodiment of the present invention.
FIG. 7 is a 3D (three-dimensional) shape seen from the side constructed in the second embodiment of the present invention.

UAVにより撮影された画像に基づいて、図6に示すように、上方より見た3D(立体)形状を構築することができる。また、図7に示すように、側方より見た3D形状を構築することができる。3D形状の構築は、例えば、SfMソフト(「MetaShape」など)によって行うことができる。構築された3D形状によって、防護網又は防災網101の下側からの情報が構築できる。 As shown in FIG. 6, a 3D (three-dimensional) shape seen from above can be constructed based on the image taken by the UAV. Further, as shown in FIG. 7, it is possible to construct a 3D shape viewed from the side. Construction of the 3D shape can be performed by, for example, SfM software (such as "MetaShape"). Information from the lower side of the protection net or the disaster prevention net 101 can be constructed by the constructed 3D shape.

撮影は、前述した第1の実施形態と同様に、赤外及び赤の複数帯域の高精細画像を撮影し、撮影した高精細画像群を統合(オルソ化)する。次に、NDVI(正規化植生指数)をマッピングする画像技術によって、目的とした重み付け(着色)をした画像として提示する。ここで画像の提示とは、画像データの生成及び出力、又は送信、出力した画像データのディスプレイによる再生(画像の表示)、出力した画像データに基づく画像の印刷の何れをも含む。 For imaging, as in the first embodiment described above, high-definition images in a plurality of bands of infrared and red are captured, and the captured high-definition image group is integrated (orthogonalized). Next, it is presented as a target weighted (colored) image by an image technique that maps NDVI (normalized difference vegetation index). Here, the presentation of an image includes any of generation and output of image data, transmission, reproduction of the output image data on a display (display of an image), and printing of an image based on the output image data.

または、赤外及び青の複数帯域の高精細画像を撮影し、撮影した高精細画像群を統合(オルソ化)する。次に、HB-NDVI(青の植生指数)をマッピングする画像技術によって、目的とした重み付け(着色)をした画像として提示する。 Alternatively, high-definition images in a plurality of bands of infrared and blue are taken, and the taken high-definition images are integrated (orthogonalized). Next, it is presented as a target weighted (colored) image by an image technique that maps HB-NDVI (blue vegetation index).

構築された3D形状データにおいて上述の統合(オルソ化)を行い、高精度位置測位の技術(例えば、RTK技術)を併用すれば、果樹等102における果実の位置座標を特定することができる。 If the above-mentioned integration (orthoration) is performed on the constructed 3D shape data and a high-precision positioning technique (for example, RTK technique) is used in combination, the position coordinates of the fruit in the fruit tree or the like 102 can be specified.

〔第3の実施形態〕
上述した第1の実施形態のように、防護網又は防災網の上空からの樹木等を撮影するとともに、上述した第2の実施形態のように、樹木等を側方から撮影し、これら撮影により取得される情報を重畳することにより、障害物が多く立体化が困難であった樹木等の3D情報(果実を含む)を、高精度、かつ、高精細に得ることができる。
[Third Embodiment]
As in the first embodiment described above, trees and the like are photographed from above the protection net or the disaster prevention net, and as in the second embodiment described above, the trees and the like are photographed from the side, and these photographs are taken. By superimposing the acquired information, 3D information (including fruits) of trees and the like, which have many obstacles and are difficult to be three-dimensionalized, can be obtained with high accuracy and high definition.

この3D情報(果実を含む)に基づいて、圃場における果実の育成予測(収穫量予測)及び育成管理を行うことができる。また、3D情報(果実を含む)を、他の収穫ロボットや自動収穫機に与えることにより、自動収穫を行うことができる。 Based on this 3D information (including fruits), it is possible to perform fruit growth prediction (yield amount prediction) and growth management in the field. Further, by giving 3D information (including fruits) to other harvesting robots and automatic harvesters, automatic harvesting can be performed.

〔実施例1〕
以下、本発明の実施例について説明する。
図1は、本発明の第1の実施形態に係る植生状態検出方法を示す側面図である。
図4は、本発明の第1の実施形態に用いるマルチスペクトルカメラを示す正面図である。
[Example 1]
Hereinafter, examples of the present invention will be described.
FIG. 1 is a side view showing a vegetation state detection method according to the first embodiment of the present invention.
FIG. 4 is a front view showing a multispectral camera used in the first embodiment of the present invention.

この実施例では、図1に示すように、マルチスペクトルカメラ2を搭載したUAV1を用いた。マルチスペクトルカメラ2は、図4に示すように、可視光(Vis-RGB)、青(B-450nm)、緑(G-560nm)、赤(R-650nm)、赤外端(RE-730nm)、近赤外(NIR-840nm)に感度帯域を有する6つのカメラを有している。UAV1は、DJI JAPAN 株式会社製「Phantom 4 Multispectral(商品名)」を用いた。このUAV1は、GPSによる位置検出及びRTKの位置補正信号を利用することが可能である。 In this embodiment, as shown in FIG. 1, a UAV 1 equipped with a multispectral camera 2 was used. As shown in FIG. 4, the multispectral camera 2 has visible light (Vis-RGB), blue (B-450 nm), green (G-560 nm), red (R-650 nm), and an infrared end (RE-730 nm). Has six cameras with a sensitivity band in the near infrared (NIR-840 nm). For UAV1, "Phantom 4 Multispectral (trade name)" manufactured by DJI JAPAN Co., Ltd. was used. This UAV1 can utilize the position detection by GPS and the position correction signal of RTK.

UAV1での撮影は、予め指定した区域を、できる限り低空(約10m)で自動で飛行し撮影するミッション飛行として、目的の解像度とオーバラップ率を得られるように設定し、自動撮影として行った。得られた画像群(それぞれの撮影点で6枚)に基づいて、NDVI(正規化植生指数)のマッピングを行った。 Shooting with UAV1 was performed as automatic shooting by setting the target resolution and overlap rate as a mission flight that automatically flies and shoots in a pre-designated area at the lowest possible altitude (about 10 m). .. NDVI (normalized difference vegetation index) mapping was performed based on the obtained image group (6 images at each shooting point).

図8は、撮影箇所を示す可視光画像(左)と撮影された画像をオルソ化してNDVI処理した画像(右)である。 FIG. 8 shows a visible light image (left) showing a shooting location and an NDVI-processed image (right) obtained by orthosing the shot image.

このNDVIでは、図8の右図の左縦軸に示すように、育成が良好な状況を赤色、不良な場合または土壌や無機物をグレーでマッピングしている。なお、図8では、モノクロ表示である。 In this NDVI, as shown in the left vertical axis of the right figure of FIG. 8, the situation where the growth is good is mapped in red, and the situation where the growth is bad or the soil or the inorganic substance is mapped in gray. In FIG. 8, it is a monochrome display.

図9は、防護網を張った圃場のオルソ画像(左)とそのNDVI画像(右)である。 FIG. 9 is an ortho image (left) and an NDVI image (right) of the field covered with a protective net.

果実園などの樹木では、着果から収穫までの間、防虫、防鳥、防雹、防風を目的として、図9の左図に示すように、網101をかける場合が多い。この場合、可視の画像では、網101に邪魔されて下の果樹等102の育成を観察することは困難である。これに対して、近赤外成分と赤成分を利用したNDVIをマッピングすることにより、図9の右図に示すように、明確に果樹等102の育成状況が判別できた。 In trees such as fruit gardens, a net 101 is often applied from fruit set to harvest for the purpose of insect repellent, bird proofing, hail proofing, and wind proofing, as shown in the left figure of FIG. In this case, in the visible image, it is difficult to observe the growth of the fruit trees and the like 102 below, which is obstructed by the net 101. On the other hand, by mapping the NDVI using the near-infrared component and the red component, as shown in the right figure of FIG. 9, the growing state of the fruit trees and the like 102 could be clearly discriminated.

ここで、防護網又は防災網の下の植生が、可視光の画像では検出が困難である理由を検討する。 Here, the reason why the vegetation under the protection net or the disaster prevention net is difficult to detect with the image of visible light will be examined.

図11は、レイリー散乱及びミー散乱を説明する図である。
図12は、レイリー散乱及びミー散乱が起こる波長及び粒子半径を示すグラフである。
FIG. 11 is a diagram illustrating Rayleigh scattering and Mie scattering.
FIG. 12 is a graph showing the wavelength and particle radius at which Rayleigh scattering and Mie scattering occur.

光の散乱には、図11に示すように、レイリー散乱とミー散乱が有名であるが、防護網及び防災網を構成する撚り線は、図12に示すように、これらの散乱が起こるような微細な太さではない。 Rayleigh scattering and Mie scattering are well-known as light scattering, as shown in FIG. 11, but the stranded wires constituting the protective network and the disaster prevention network are such that these scatterings occur as shown in FIG. It is not a fine thickness.

図13は、網による太陽光の反射を示す平面図(a)及び縦断面図(b)である。
図14は、網による太陽光の散乱を示す平面図(a)及び縦断面図(b)である。
FIG. 13 is a plan view (a) and a vertical sectional view (b) showing the reflection of sunlight by the net.
FIG. 14 is a plan view (a) and a vertical sectional view (b) showing the scattering of sunlight by the net.

図13及び図14に示すように、防護網又は防災網101に太陽光が照射している場合に、網を構成する撚り線(遮蔽部)による光の散乱は、波長に依存する。長波長光(赤~赤外)は、図13に示すように、散乱は弱いが、短波長光(青)は、図14に示すように、散乱が強くなる。 As shown in FIGS. 13 and 14, when the protective net or the disaster prevention net 101 is irradiated with sunlight, the scattering of light by the stranded wire (shielding portion) constituting the net depends on the wavelength. Long-wavelength light (red to infrared) has weak scattering as shown in FIG. 13, but short-wavelength light (blue) has strong scattering as shown in FIG.

防護網又は防災網101の下の農場、圃場等を上から撮影したとき、可視光では植生が検出困難であるのは、このような散乱光の影響と考えられる。ただし、網の開口部では、いずれの波長の光も通過する。したがって、NDVI画像又はHB-NDVI画像では、植生が検出できた。
また、インデックスマッピング(指標化)は、正規化した植生指数であり、各画素の成分を、利用した画素成分の和で除したものである。すなわち、各画素で、正規化処理により、光量補正が行われていることになる。このことは、原理上、影が出にくいことを意味している。
例えば、NDVIであれば、使うバンドは、NIRとRedであり、この差分(NIR-Red)を使った反射光量の和(NIR+Red)で除して、規格化している。後述するその他の指数であるGNDVI、LCI、OSAVIも、ほぼ同様に考えることができる。すなわち、各画素の成分を、利用した画素成分の和で除したものである。
結果として、網の部分の影について、これらの式が内包する正規化処理による光量補正によって、影はほぼ消え、通常の照明を反射した画像に近いものに補正される。
以上の通り、本実施例により本発明の効果を例証することができた。
When the farm, field, etc. under the protection net or disaster prevention net 101 are photographed from above, it is considered that the vegetation is difficult to detect with visible light due to the influence of such scattered light. However, light of any wavelength passes through the opening of the net. Therefore, vegetation could be detected in the NDVI image or the HB-NDVI image.
Further, the index mapping (indexing) is a normalized vegetation index, which is obtained by dividing the component of each pixel by the sum of the used pixel components. That is, each pixel is corrected for the amount of light by the normalization process. This means that, in principle, shadows are less likely to appear.
For example, in the case of NDVI, the bands used are NIR and Red, and the difference (NIR-Red) is divided by the sum of the reflected light amounts (NIR + Red) to standardize. Other indices described later, GNDVI, LCI, and OSAVI, can be considered in almost the same manner. That is, the component of each pixel is divided by the sum of the used pixel components.
As a result, the shadows of the part of the net are almost eliminated by the light amount correction by the normalization process included in these equations, and the shadows are corrected to be close to the image reflecting normal illumination.
As described above, the effects of the present invention could be illustrated by the present examples.

〔実施例2〕
この実施例では、マルチスペクトルカメラを搭載し、果樹等の形状を深層学習したAIを搭載したUAVを用いた。マルチスペクトルカメラは、前述した実施例1におけるものと同様である。AIは、学習結果に基づいて、飛行中に撮影される果樹等の像を判定し、それが果樹等であることを判断し、その果樹等に対する接近速度及び接近方向を算出するとともに、接近する果樹等を回避する航路を算定し、UAVの航路を果樹等を回避すべく制御する。
[Example 2]
In this embodiment, a UAV equipped with a multi-spectral camera and an AI that deeply learned the shape of a fruit tree or the like was used. The multispectral camera is the same as that in Example 1 described above. Based on the learning result, AI determines an image of a fruit tree, etc. taken during flight, determines that it is a fruit tree, etc., calculates the approach speed and approach direction to the fruit tree, etc., and approaches. The route to avoid fruit trees, etc. is calculated, and the route of UAV is controlled to avoid fruit trees, etc.

UAVでの撮影は、予め指定した区域を、果樹等の障害物を回避しつつ、自動で飛行して側方から撮影するミッション飛行として、目的の解像度とオーバラップ率を得られるように設定し、自動撮影として行った。得られた画像群(それぞれの撮影点で6枚)に基づいて、NDVI(正規化植生指数)のマッピングを行った。 Shooting with UAV is set so that the target resolution and overlap rate can be obtained as a mission flight that automatically flies and shoots from the side while avoiding obstacles such as fruit trees in the area specified in advance. , I went as an automatic shooting. NDVI (normalized difference vegetation index) mapping was performed based on the obtained image group (6 images at each shooting point).

図6は、実施例2において構築された上方より見た3D(立体)形状である。 FIG. 6 is a 3D (three-dimensional) shape seen from above constructed in the second embodiment.

果実園などの樹木では、着果から収穫までの間、防虫、防鳥、防雹、防風を目的として、網をかける場合が多い。この場合、可視の画像では、網に邪魔されて下の果樹等102の育成を観察することは困難である。これに対して、近赤外成分と赤成分を利用したNDVIをマッピングすることにより、図6に示すように、明確に果樹等102の育成状況が判別できた。 Trees such as fruit gardens are often netted for the purpose of insect repellent, bird repellent, hail repellent, and wind repellent from fruit set to harvest. In this case, in the visible image, it is difficult to observe the growth of the fruit trees and the like 102 below because of the obstruction by the net. On the other hand, by mapping the NDVI using the near-infrared component and the red component, as shown in FIG. 6, the growing state of the fruit trees and the like 102 could be clearly discriminated.

図7は、実施例2において構築された側方より見た3D(立体)形状である。 FIG. 7 is a 3D (three-dimensional) shape seen from the side constructed in the second embodiment.

このNDVIでは、側方から撮影しているので、図7に示すように、網に邪魔されることなく、明確に果樹等102の育成状況が判別できる。図7では、育成が良好な状況を赤色、不良な場合または土壌や無機物をグレーでマッピングしている。なお、図7では、モノクロ表示である。 In this NDVI, since the images are taken from the side, as shown in FIG. 7, the growing state of the fruit trees and the like 102 can be clearly discriminated without being disturbed by the net. In FIG. 7, the situation where the growth is good is mapped in red, and the situation where the growth is poor or the soil or inorganic substances are mapped in gray. In FIG. 7, it is a monochrome display.

〔本発明の効果等〕
これまで農場、圃場付近の地上から、人が経験や勘に頼って行われていた育成、管理及び収穫の選択を、本発明によれば、数十分の飛行(撮影)及び数十分の画像処理によって、定量的かつ継続的に、分析及び管理が可能である。
[Effects of the present invention, etc.]
According to the present invention, the selection of breeding, management and harvesting, which has been performed by humans from the ground near farms and fields based on their experience and intuition, can be changed to tens of minutes of flight (photographing) and tens of minutes. Image processing enables quantitative and continuous analysis and management.

本発明は、果実など防護(防災)網を農場、圃場にかけた事例全般、スマート農業関連における効果が主たる効果であるが、海岸、漁業などの事例を排除するものではない。また、上述の実施形態中に示した種々の特定は、例示であって、何ら本発明を限定するものではない。本発明は、これらには限定されないものとして解釈されるものである。 The present invention is mainly effective in cases where protective (disaster prevention) nets such as fruits are applied to farms and fields, and smart agriculture-related cases, but does not exclude cases such as coastal areas and fisheries. Moreover, the various specifications shown in the above-described embodiments are examples and do not limit the present invention in any way. The present invention is to be construed as not limited to these.

なお、上述の実施形態では、リモートセンシング(衛星画像での画像処理)の植生への適用で有名なNDVI(正規化植生指数)を用いているが、対象物によって異なる指標を用いれば、例えば、海岸や海上での浮遊したビニール、プラスチックなども適切な画像処理によって、その散乱や劣化状態を検出できる可能性がある。異なる指標としては、以下のようなものがある。 In the above-described embodiment, NDVI (normalized difference vegetation index), which is famous for applying remote sensing (image processing with satellite images) to vegetation, is used. However, if an index different depending on the object is used, for example, Floating vinyl, plastic, etc. on the coast or sea may be able to detect their scattering and deterioration state by appropriate image processing. The different indicators are as follows.

GNDVI:Green Normalized Difference Vegetation Index(緑正規化植生指数)
赤色を使用しないNDVIであり、葉緑素を判別するものである。GNDVIは、NDVIで使用される赤のバンドの代わりに緑のバンドを使用する。この緑色の帯は、表面のGNDVIを表しています。これは、緑色の植物キャノピーの被覆率の指標である。GNDVIは、植生に水分が不足しているか、栄養素が不足しているか、または成熟後のブロマス不況に苦しんでいるかを示す。
〔式4〕GNDVI=(NIR-Green(緑))/(NIR+Green)
GNDVI: Green Normalized Difference Vegetation Index
It is an NDVI that does not use red color, and discriminates chlorophyll. GNDVI uses a green band instead of the red band used in NDVI. This green band represents the surface GNDVI. This is an indicator of the coverage of the green plant canopy. GNDVI indicates whether the vegetation is deficient in water, deficient in nutrients, or suffering from the post-maturity Bromas recession.
[Equation 4] GNDVI = (NIR-Green) / (NIR + Green)

NDRE:Normalized Difference Red Edge正規化レッドエッジ指数
NDREは、NDVIで使用されている赤いエッジバンドに代えて、赤いエッジバンドを使用する。この赤のエッジバンドは、赤のスペクトルから近赤外スペクトルへの遷移ゾーンのスペクトル領域である。
NDREは、クロロフィルや糖分などの変数に基づいて植生を管理するために使用できる。
〔式5〕NDRE=(NIR-Red Edge)/(NIR+Red Edge)
NDRE: Normalized Difference Red Edge Normalized Difference Red Edge Index NDRE uses a red edge band instead of the red edge band used in NDVI. This red edge band is the spectral region of the transition zone from the red spectrum to the near infrared spectrum.
NDRE can be used to manage vegetation based on variables such as chlorophyll and sugar.
[Equation 5] NDRE = (NIR-Red Edge) / (NIR + Red Edge)

LCI:Leaf Chlorophyll Index(葉クロロフィル(葉緑素)指数)
植物のクロロフィル(葉緑素)の含有量に特化した指数である。葉のクロロフィル含有量は、植生の成長と収量を評価するための重要な指標となる。また、植物の栄養ストレス、病気、成長及び老化を評価する指標にもなる。
〔数6〕LCI=(NIR-Red Edge)/(NIR+Red)
LCI: Leaf Chlorophyll Index
It is an index specialized for the content of chlorophyll (chlorophyll) in plants. The chlorophyll content of leaves is an important indicator for assessing vegetation growth and yield. It is also an indicator for assessing plant nutritional stress, disease, growth and aging.
[Number 6] LCI = (NIR-Red Edge) / (NIR + Red)

OSAVI:Optimized Soil-adjusted Vegetation Index(肥料含有植生指数)
植物に吸収されている肥料の含有量を判定する指数である。なお、土壌調整植生指数は、NDVIおよび関連する観測データに基づいている。この指標は、植生に対する土壌条件の影響を取り除くために使用される。
〔式7〕OSAVI=(L+0.16)*(NIR-Red(赤))/(NIR+Red+0.16)
但し、Lは、植生被覆密度であり、0~1.0の値をとる。
OSAVI: Optimized Soil-adjusted Vegetation Index
It is an index to judge the content of fertilizer absorbed by plants. The soil-adjusted vegetation index is based on NDVI and related observational data. This indicator is used to remove the effects of soil conditions on vegetation.
[Equation 7] OSAVI = (L + 0.16) * (NIR-Red (red)) / (NIR + Red + 0.16)
However, L is a vegetation covering density and takes a value of 0 to 1.0.

1 UAV(無人航空機)
2 マルチスペクトルカメラ
101 防護網又は防災網
102 農場、圃場、果樹又は山野(果樹等)
1 UAV (unmanned aerial vehicle)
2 Multispectral camera 101 Protective net or disaster prevention net 102 Farm, field, fruit tree or mountain field (fruit tree, etc.)

Claims (8)

UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の上空から、赤外及び赤の複数帯域の画像を撮影し、
前記撮影した画像群を統合し、NDVI(正規化植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures images of multiple bands of infrared and red from above farms, fields, fruit trees or mountains covered with protective or disaster prevention nets.
A vegetation state detection method characterized by integrating the photographed images and mapping an NDVI (normalized difference vegetation index) onto the images.
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の上空から、赤外及び青の複数帯域の画像を撮影し、
前記撮影した画像群を統合し、HB-NDVI(青の植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures images of multiple bands of infrared and blue from above farms, fields, fruit trees or mountains covered with protective or disaster prevention nets.
A method for detecting a vegetation state, which comprises integrating the photographed images and mapping HB-NDVI (blue vegetation index) onto the images.
前記防護網又は前記防災網は、太さが1mm乃至5mmの合成樹脂繊維撚り線からなる網であって、網のピッチが2mm乃至50mmである
ことを特徴とする請求項1又は2記載の植生状態検出方法。
The vegetation according to claim 1 or 2, wherein the protective net or the disaster prevention net is a net made of synthetic resin fiber stranded wire having a thickness of 1 mm to 5 mm, and the pitch of the net is 2 mm to 50 mm. State detection method.
前記UAVは、GNSS位置測位により自身の位置を検出し、自身の位置と予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行する
ことを特徴とする請求項1、2又は3に記載の植生状態検出方法。
The UAV is characterized in that it detects its own position by GNSS positioning and executes automatic flight and automatic shooting based on its own position, map information prepared in advance, a planned flight area, and a planned shooting position. The vegetation state detection method according to claim 1, 2 or 3.
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の側方から、赤外及び赤の複数帯域の画像を撮影し、
前記撮影した画像群から3D形状を構築するとともに、前記画像群を統合し、NDVI(正規化植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures multiple bands of infrared and red from the side of a farm, field, fruit tree or mountain field covered with protective or disaster prevention nets.
A vegetation state detection method characterized in that a 3D shape is constructed from the captured image group, the image group is integrated, and an NDVI (normalized difference vegetation index) is mapped on the image.
UAV(無人航空機)に搭載したマルチスペクトルカメラにより、防護網又は防災網に覆われた農場、圃場、果樹又は山野の側方から、赤外及び青の複数帯域の画像を撮影し、
前記撮影した画像群から3D形状を構築するとともに、前記画像群を統合し、HB-NDVI(青の植生指数)を前記画像上にマッピングする
ことを特徴とする植生状態検出方法。
A multi-spectral camera mounted on a UAV (unmanned aerial vehicle) captures multiple bands of infrared and blue from the side of a farm, field, fruit tree or mountain field covered with protective or disaster prevention nets.
A vegetation state detection method characterized in that a 3D shape is constructed from the captured image group, the image group is integrated, and HB-NDVI (blue vegetation index) is mapped on the image.
前記UAVは、果樹等の形状を深層学習したAIを用いた画像処理により果樹等を回避すべく航路を制御され、予め用意されたマップ情報、予定飛行区域及び予定撮影位置とに基づいて、自動飛行及び自動撮影を実行する
ことを特徴とする請求項5又は6に記載の植生状態検出方法。
The UAV controls the route to avoid fruit trees by image processing using AI that deeply learns the shape of fruit trees, etc., and automatically based on the map information prepared in advance, the planned flight area, and the planned shooting position. The vegetation state detection method according to claim 5 or 6, wherein flight and automatic imaging are performed.
前記NDVI又は前記HB-NDVIの数値に応じて色分けした画像を提示する
ことを特徴とする請求項1~7の何れかに記載の植生状態検出方法。
The vegetation state detection method according to any one of claims 1 to 7, wherein an image color-coded according to the numerical value of the NDVI or the HB-NDVI is presented.
JP2021185666A 2020-11-30 2021-11-15 Vegetative state detection method Pending JP2022087038A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020198844 2020-11-30
JP2020198844 2020-11-30

Publications (1)

Publication Number Publication Date
JP2022087038A true JP2022087038A (en) 2022-06-09

Family

ID=81893982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021185666A Pending JP2022087038A (en) 2020-11-30 2021-11-15 Vegetative state detection method

Country Status (1)

Country Link
JP (1) JP2022087038A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4356721A1 (en) * 2022-10-19 2024-04-24 Krebs Paysagistes SA Apparatus for monitoring a health status of a tree
WO2024084424A1 (en) 2022-10-19 2024-04-25 Krebs Paysagistes Sa Apparatus for monitoring a health status of a tree

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4356721A1 (en) * 2022-10-19 2024-04-24 Krebs Paysagistes SA Apparatus for monitoring a health status of a tree
WO2024084424A1 (en) 2022-10-19 2024-04-25 Krebs Paysagistes Sa Apparatus for monitoring a health status of a tree

Similar Documents

Publication Publication Date Title
US11050979B2 (en) Systems and methods for agricultural monitoring
Lehmann et al. Open-source processing and analysis of aerial imagery acquired with a low-cost unmanned aerial system to support invasive plant management
Reinecke et al. The influence of drone monitoring on crop health and harvest size
Torres-Sánchez et al. Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis
Havens et al. Thermal imaging techniques to survey and monitor animals in the wild: a methodology
JP2022087038A (en) Vegetative state detection method
KR102091033B1 (en) Method for conjecturing agricultural produce using Smart drone system
Astapov et al. Unmanned aerial vehicles for estimation of vegetation quality
KR102579082B1 (en) METHOD FOR DETECTING A SARGASSUM USING MULTISPECTRAL IMAGES LOADED ON MANNED and UNMANNED AERIAL VEHICLES AND SYSTEM THEREOF
Tugi et al. Oil palm tree growth monitoring for smallholders by using unmanned aerial vehicle
Mihalache et al. The use of drones in modern agriculture
CN113514402B (en) System and method for predicting chlorophyll content of winter wheat
Papić et al. On Olive Groves Analysis using UAVs
Green et al. Comparison of DMC, UltraCam, and ADS40 imagery for benthic habitat and propeller scar mapping
Whiteside et al. Robust and repeatable ruleset development for hierarchical object-based monitoring of revegetation using high spatial and temporal resolution UAS data
Swanson et al. A multi-modal system for yield prediction in citrus trees
Goebel et al. Spectral Analysis of Images of Plants Under Stress Using a Close-Range Camera
Alsadik et al. UAV Remote Sensing for Smart Agriculture
Cerreta Ph D et al. Using Unmanned Aircraft Systems to Investigate the Detectability of Burmese Pythons in South Florida
Mihajlow et al. Drone video capture–a new method in precision agriculture
Šupčík et al. Grape yield prediction based on vine canopy morphology obtained by 3D point clouds from UAV images
Dean et al. Winter beans: the use of an unmanned aerial vehicle for monitoring and prediction of crop performance
Andrade et al. Estimate of vigor classes of Brachiaria ruziziensis using sensors boarded on UAV plataform.
Enciso et al. Unmanned Aerial System (UAS) for Precision Agriculture and Management Decisions
Matsumura et al. Unmanned Aerial Vehicle for fertilizer management and human health