JP6887142B2 - Field image analysis method - Google Patents
Field image analysis method Download PDFInfo
- Publication number
- JP6887142B2 JP6887142B2 JP2020511545A JP2020511545A JP6887142B2 JP 6887142 B2 JP6887142 B2 JP 6887142B2 JP 2020511545 A JP2020511545 A JP 2020511545A JP 2020511545 A JP2020511545 A JP 2020511545A JP 6887142 B2 JP6887142 B2 JP 6887142B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- drone
- field
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003703 image analysis method Methods 0.000 title claims description 22
- 238000012937 correction Methods 0.000 claims description 62
- 238000004458 analytical method Methods 0.000 claims description 44
- 238000010191 image analysis Methods 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 32
- 239000003814 drug Substances 0.000 claims description 31
- 229940079593 drug Drugs 0.000 claims description 28
- 239000000126 substance Substances 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 239000007921 spray Substances 0.000 claims description 7
- 238000005507 spraying Methods 0.000 claims description 5
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 36
- 229910052757 nitrogen Inorganic materials 0.000 description 18
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 8
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 229930002875 chlorophyll Natural products 0.000 description 6
- 235000019804 chlorophyll Nutrition 0.000 description 6
- 238000009313 farming Methods 0.000 description 6
- 238000010521 absorption reaction Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010223 real-time analysis Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 235000021466 carotenoid Nutrition 0.000 description 1
- 150000001747 carotenoids Chemical class 0.000 description 1
- 229930002868 chlorophyll a Natural products 0.000 description 1
- 229930002869 chlorophyll b Natural products 0.000 description 1
- NSMUHPMZFPKNMZ-VBYMZDBQSA-M chlorophyll b Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C=O)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 NSMUHPMZFPKNMZ-VBYMZDBQSA-M 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 239000003337 fertilizer Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- -1 on the leaves Chemical compound 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000005945 translocation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M7/00—Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/27—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Biochemistry (AREA)
- Mining & Mineral Resources (AREA)
- Environmental Sciences (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Wood Science & Technology (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Pest Control & Pesticides (AREA)
- Insects & Arthropods (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Agronomy & Crop Science (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Zoology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
- Catching Or Destruction (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本願発明は、圃場の画像、特に、ドローンによって撮影された圃場の画像の、生育状況分析のための処理方法とプログラムに関する。 The present invention relates to a processing method and a program for analyzing the growth condition of a field image, particularly a field image taken by a drone.
作物の生育状況分析の重要な分野として、稲や小麦等の作物の生長度を測定するために、葉への窒素吸収量を測定する方法が知られている。窒素吸収量は、作物の収穫量と食味に大きく影響する。窒素吸収量が適正量を超えている場合は、食味低下、環境汚染を招き、適正量を下回っている場合は収量低下を招くため、窒素吸収量を正確かつ効率的に測定できれば得られる価値は大きい。 As an important field of crop growth analysis, a method of measuring nitrogen absorption into leaves is known in order to measure the growth rate of crops such as rice and wheat. Nitrogen absorption has a great effect on crop yield and taste. If the amount of nitrogen absorbed exceeds the appropriate amount, it causes deterioration of taste and environmental pollution, and if it is less than the appropriate amount, it causes a decrease in yield. large.
窒素吸収量により葉の葉緑素(クロロフィルa、クロロフィルb、カロテノイド等)の密度が変化することを利用し、葉の透過光の特性を分析することで、葉緑素の密度を推定して葉への窒素吸収量を推定し、結果的に作物の生長度を測定する方法が知られている(たとえば、特許文献1)。しかし、この方法では、実際に圃場に出向き作物の葉を測定器に読み込ませて測定する必要があることから、特に多数のデータサンプルを得る際の効率が悪いという課題があった(典型的には、一圃場あたり1時間程度の時間を要していた)。 Utilizing the fact that the density of leaf chlorophyll (chlorophyll a, chlorophyll b, carotenoid, etc.) changes depending on the amount of nitrogen absorbed, the density of chlorophyll is estimated by analyzing the characteristics of transmitted light in the leaves, and nitrogen to the leaves is estimated. A method of estimating the absorption amount and measuring the growth degree of the crop as a result is known (for example, Patent Document 1). However, this method has a problem that it is inefficient especially when a large number of data samples are obtained because it is necessary to actually go to the field and read the leaves of the crop into a measuring instrument for measurement (typically). It took about 1 hour per field).
上記の測定の効率性を高めるために、圃場の作物を人工衛星、ドローン、または、上空に設置されたカメラ等から撮影し、特に近赤外線領域のスペクトラムを分析することで、窒素の吸収量を推定する方法も提案されている(たとえば、特許文献2)が、精度の点で課題があった。精度が低い理由としては、水面の画像と作物の画像の混在、透過光と反射光の混在、一次反射光と二次および三次反射光の混在、表面反射と内部反射の混在等があった。 In order to improve the efficiency of the above measurements, the amount of nitrogen absorbed is determined by photographing the crops in the field from artificial satellites, drones, or cameras installed in the sky, and especially by analyzing the spectrum in the near infrared region. A method for estimating has also been proposed (for example, Patent Document 2), but there is a problem in terms of accuracy. Reasons for low accuracy include a mixture of water surface images and crop images, a mixture of transmitted light and reflected light, a mixture of primary reflected light and secondary and tertiary reflected light, and a mixture of surface reflection and internal reflection.
精度が高い作物の生育分析を可能にする圃場画像分析方法とプログラムを提供する。 Provided are field image analysis methods and programs that enable highly accurate growth analysis of crops.
本願発明は、ドローンに搭載されたカメラにより撮影した圃場の画像データを取得する取得ステップと、前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態に応じて前記画像データを補正する補正ステップと、前記補正された画像データに基づいて前記圃場の作物の生育状況を分析する分析ステップとを含む圃場画像分析方法を提供することで上記課題を解決する。 The present invention corrects the image data according to the acquisition step of acquiring the image data of the field photographed by the camera mounted on the drone and the relative position of the sun and the camera or the state of sunlight at the time of photographing by the camera. The above problem is solved by providing a field image analysis method including a correction step to be performed and an analysis step for analyzing the growth state of crops in the field based on the corrected image data.
また、本願発明は、前記補正ステップでは、太陽光の照射方向と前記カメラの撮影方向の相対角度に応じて、前記画像データの光量を補正する、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 The present invention also provides the field image analysis method according to paragraph 0007, wherein in the correction step, the amount of light of the image data is corrected according to the relative angle between the irradiation direction of sunlight and the shooting direction of the camera. This solves the above problem.
また、本願発明は、前記補正ステップでは、前記画像データが前記カメラを太陽に対して順光側に向けて撮影されて取得された順光側画像データか逆光側に向けて撮影されて取得された逆光側画像データかに基づき前記分析ステップでの分析に用いられる画像データの補正量を変更する、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, according to the present invention, in the correction step, the image data is acquired by shooting the camera toward the front light side with respect to the sun, or by shooting the image data toward the back light side. The above problem is solved by providing the field image analysis method according to paragraph 0007, which changes the correction amount of the image data used for the analysis in the analysis step based on the backlit side image data.
また、本願発明は、前記補正ステップでは、前記分析ステップでの分析に用いられる画像データから前記カメラを太陽に対して順光側に向けて撮影されて取得された順光側画像データ、もしくは逆光側に向けて撮影されて取得された逆光側画像データを除外する、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, according to the present invention, in the correction step, the forward light side image data or the back light obtained by shooting the camera toward the forward light side with respect to the sun from the image data used for the analysis in the analysis step. The above problem is solved by providing the field image analysis method according to paragraph 0007, which excludes the backlit side image data acquired by being photographed toward the side.
前記補正ステップでは、前記画像データが前記順光側画像データか前記逆光側画像データかの判定を、前記画像データが撮影された時の前記ドローンの位置と時刻とに基づいて行なう、段落0008に記載の圃場画像分析方法を提供することで上記課題を解決する。 In the correction step, it is determined in paragraph 0008 whether the image data is the forward light side image data or the back light side image data based on the position and time of the drone when the image data is taken. The above problem is solved by providing the described field image analysis method.
また、本願発明は、前記補正ステップでは、太陽から直接前記カメラに入射する直接光の全入射光に占める割合に応じて前記画像データの補正内容を変更する、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, according to the present invention, the field image analysis method according to paragraph 0007, wherein in the correction step, the correction content of the image data is changed according to the ratio of the direct light directly incident on the camera directly from the sun to the total incident light. The above problem is solved by providing.
また、本願発明は、前記補正ステップでは、前記画像データの光量に応じて前記直接光の割合を推定する段落0012に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, the present invention solves the above problem by providing the field image analysis method described in paragraph 0012, which estimates the ratio of the direct light according to the amount of light of the image data in the correction step.
また、本願発明は、前記補正ステップでは、前記画像データ内の物体の影のコントラストの大きさに基づいて入射光に占める直接光の割合を推定する、段落0012に記載の圃場画像分析方法を提供することで上記課題を解決する。 The present invention also provides the field image analysis method according to paragraph 0012, wherein in the correction step, the ratio of direct light to the incident light is estimated based on the magnitude of the contrast of the shadow of the object in the image data. By doing so, the above problem is solved.
また、本願発明は、前記補正ステップでは、天空方向を撮影するカメラの画像に基づいて撮影時に前記カメラに入射する全入射光に占める前記直接光の割合を推定する、段落0012に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, in the correction step of the present invention, the field image according to paragraph 0012, in which the ratio of the direct light to the total incident light incident on the camera at the time of shooting is estimated based on the image of the camera that shoots the sky direction. The above problem is solved by providing an analysis method.
また、本願発明は、前記補正ステップでは、圃場画像中の前記ドローンの影の位置に基づいて撮影時の太陽の高度を推定し、推定した太陽の高度に応じて前記画像データを補正する、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, according to the present invention, in the correction step, the altitude of the sun at the time of photographing is estimated based on the position of the shadow of the drone in the field image, and the image data is corrected according to the estimated altitude of the sun. The above problem is solved by providing the field image analysis method according to 0007.
また、本願発明は、前記補正ステップでは、前記ドローンの影の位置の測定を旋回時に行なう、段落0016に記載の圃場画像分析方法を提供することで上記課題を解決する。 Further, the present invention solves the above problem by providing the field image analysis method according to paragraph 0016, which measures the position of the shadow of the drone at the time of turning in the correction step.
また、本願発明は、前記画像データの分析結果に基づいて、前記ドローンの薬剤散布の量を調整する薬剤量調整ステップを含む、段落0007に記載の圃場画像分析方法を提供することで上記課題を解決する。 The present invention also solves the above problem by providing the field image analysis method according to paragraph 0007, which includes a drug amount adjusting step for adjusting the amount of the drug sprayed on the drone based on the analysis result of the image data. Solve.
また、本願発明は、前記ドローンの飛行度に応じて、前記カメラの位置若しくは方向、または、薬剤散布ノズルの位置若しくは方向を調整する位置調整ステップを含む、段落0018に記載の 圃場画像分析方法を提供することで上記課題を解決する。 The invention of the present application also comprises the field image analysis method according to paragraph 0018, which includes a position adjustment step of adjusting the position or direction of the camera or the position or direction of the chemical spray nozzle according to the flight degree of the drone. By providing it, the above problems will be solved.
また、本願発明は、前記分析ステップは、前記画像データから近赤外線の反射率が所定の値以上である領域を排除するステップを含む、段落0007から段落0019に記載の圃場画像分析方法を提供することで上記課題を解決する。 The present invention also provides the field image analysis method according to paragraphs 0007 to 0019, wherein the analysis step includes a step of excluding a region in which the reflectance of near infrared rays is equal to or higher than a predetermined value from the image data. This solves the above problem.
また、本願発明は、ドローンに搭載されたカメラにより撮影した圃場の画像データを取得する画像データ取得部と、前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態に応じて前記画像データを補正する画像データ補正部と、 前記補正された画像データに基づいて前記圃場の作物の生育状態を分析する画像分析部とを有する圃場画像分析システムを提供することで上記課題を解決する。 Further, the present invention relates to an image data acquisition unit that acquires image data of a field photographed by a camera mounted on a drone, and the sun and the relative position of the camera or the state of sunlight at the time of photographing by the camera. The above problem is solved by providing a field image analysis system having an image data correction unit for correcting image data and an image analysis unit for analyzing the growth state of crops in the field based on the corrected image data. ..
また、本願発明は、前記画像データ補正部は、太陽光の照射方向と前記カメラの撮影方向の相対角度に応じて、前記画像データの光量を補正する、段落0021に記載の圃場画像分析システムを提供することで上記課題を解決する。 Further, according to the present invention, the field image analysis system according to paragraph 0021, wherein the image data correction unit corrects the amount of light of the image data according to a relative angle between the irradiation direction of sunlight and the shooting direction of the camera. By providing it, the above problems will be solved.
また、本願発明は、前記画像データ補正部は、前記画像データが前記カメラを太陽に対して順光側に向けて撮影した取得した順光側画像データか逆光側に向けて撮影された逆光側画像データかに基づき前記画像分析部での分析に用いられる画像データの補正量を変更する、段落0021に記載の圃場画像分析システムを提供することで上記課題を解決する。 Further, in the present invention, the image data correction unit uses the acquired forward light side image data in which the image data is taken with the camera facing the sun, or the back light side in which the image data is taken toward the back light side. The above problem is solved by providing the field image analysis system according to paragraph 0021, which changes the correction amount of the image data used for the analysis in the image analysis unit based on the image data.
また、本願発明は、前記画像データ補正部は、前記画像分析部での分析に用いられる画像データから前記カメラを太陽に対して順光側に向けて撮影されて取得された順光側画像データ、もしくは逆光側に向けて撮影されて取得された逆光側画像データを除外する段落0021に記載の圃場画像分析システムを提供することで上記課題を解決する。 Further, in the present invention, the image data correction unit obtains forward light side image data obtained by shooting the camera toward the forward light side with respect to the sun from the image data used for analysis by the image analysis unit. Alternatively, the above problem is solved by providing the field image analysis system according to paragraph 0021, which excludes the backlit side image data acquired by being photographed toward the backlit side.
前記画像データ補正部は、前記画像データが前記順光側画像データか前記逆光側画像データかの判定を、前記画像データが撮影された時の前記ドローンの位置と時刻とに基づいて行なう、段落0023に記載の圃場画像分析システムを提供することで上記課題を解決する。 The image data correction unit determines whether the image data is the forward light side image data or the back light side image data based on the position and time of the drone when the image data is taken. The above problem is solved by providing the field image analysis system according to 0023.
前記画像データ補正部は、太陽から直接前記カメラに入射する直接光の全入射光に占める割合に応じて前記画像データの補正内容を変更する、請求項15に記載の圃場画像分析システムを提供することで上記課題を解決する。 The field image analysis system according to claim 15, wherein the image data correction unit changes the correction content of the image data according to the ratio of the direct light directly incident on the camera directly from the sun to the total incident light. This solves the above problem.
また、本願発明は、前記画像データ補正部は、前記画像データ内の物体の影のコントラストの大きさに基づいて全入射光に占める直接光の割合を推定する、請求項20に記載の圃場画像分析システムを提供することで上記課題を解決する。 The field image according to claim 20, wherein the image data correction unit estimates the ratio of direct light to total incident light based on the magnitude of the contrast of the shadow of an object in the image data. The above problem is solved by providing an analysis system.
また、本願発明は、前記画像データ補正部は、天空方向を撮影するカメラの画像に基づいて撮影時に前記カメラで撮影される画像の前記直射光の割合を推定する、請求項20に記載の圃場画像分析システムを提供することで上記課題を解決する。 The field according to claim 20, wherein the image data correction unit estimates the ratio of the direct light of the image taken by the camera at the time of shooting based on the image of the camera that shoots the sky direction. The above problem is solved by providing an image analysis system.
また、本願発明は、前記画像データ補正部は、圃場画像中の前記ドローンの影の位置に基づいて撮影時の太陽の高度を推定し、推定した太陽の高度に応じて前記画像データを補正する、請求項15に記載の圃場画像分析システムを提供することで上記課題を解決する。 Further, in the present invention, the image data correction unit estimates the altitude of the sun at the time of shooting based on the position of the shadow of the drone in the field image, and corrects the image data according to the estimated altitude of the sun. The above problem is solved by providing the field image analysis system according to claim 15.
また、本願発明は、前記画像データ補正部は、前記ドローンの影の位置の測定を旋回時に行なう、請求項23に記載の圃場画像分析システムを提供することで上記課題を解決する。 The present invention also solves the above problem by providing the field image analysis system according to claim 23, wherein the image data correction unit measures the position of the shadow of the drone at the time of turning.
また、本願発明は、前記画像データの分析結果に基づいて、前記ドローンの薬剤散布の量を調整する薬剤量調整部を含む、請求項15に記載の圃場画像分析システムを提供することで上記課題を解決する。 The present invention also provides the field image analysis system according to claim 15, which includes a drug amount adjusting unit for adjusting the amount of the drug sprayed on the drone based on the analysis result of the image data. To solve.
また、本願発明は、前記ドローンの飛行度に応じて、前記カメラの位置若しくは方向、または、薬剤散布ノズルの位置若しくは方向を調整するノズル位置調整部を含む、請求項25に記載の圃場画像分析システムを提供することで上記課題を解決する。 The field image analysis according to claim 25, wherein the present invention includes a nozzle position adjusting unit that adjusts the position or direction of the camera or the position or direction of the chemical spray nozzle according to the flight degree of the drone. The above problem is solved by providing the system.
また、本願発明は、前記画像分析部は、前記画像データから近赤外線の反射率が所定の値以上である領域を排除する命令群を含む、請求項15ないし請求項26のいずれか1項に記載の圃場画像分析システムを提供することで上記課題を解決する。 Further, in the present invention, the image analysis unit includes a group of instructions for excluding a region in which the reflectance of near infrared rays is equal to or higher than a predetermined value from the image data, according to any one of claims 15 to 26. The above problem is solved by providing the described field image analysis system.
また、本願発明は、前記画像データ補正部及び前記画像分析部は、前記ドローン、または前記ドローンに操縦情報を入力する操縦器、またはその他の外部サーバに実装される、請求項15ないし請求項26のいずれか1項に記載の圃場画像分析システムを提供することで上記課題を解決する。 The invention of the present application also claims 15 to 26, wherein the image data correction unit and the image analysis unit are implemented in the drone, a pilot that inputs flight information to the drone, or another external server. The above problem is solved by providing the field image analysis system according to any one of the above.
精度が高い作物の生育分析を可能にする圃場画像分析方法とプログラムが提供される。 Field image analysis methods and programs that enable highly accurate crop growth analysis are provided.
図1に本願発明に係るドローン(100)の実施例の平面図を、図2にその底面図を、図3−aにその(進行方向側から見た)正面図、図3−bにその右側面図、図3−cに斜視図を示す。なお、本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、自律飛行型であるか手動操縦型であるか等)を問わず、複数の回転翼または飛行手段を有する飛行体全般を指すものとする。 FIG. 1 is a plan view of an embodiment of the drone (100) according to the present invention, FIG. 2 is a bottom view thereof, FIG. 3-a is a front view thereof (viewed from the traveling direction side), and FIG. 3-b is a top view thereof. A perspective view is shown in the right side view and FIG. 3-c. In the specification of the present application, the drone may be a power means (electric power, motor, etc.) and a maneuvering method (wireless or wired, autonomous flight type, manual maneuvering type, etc.). However, it shall refer to all aircraft having multiple rotors or means of flight.
回転翼(101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b)(ローターとも呼ばれる)は、ドローン(100)を飛行させるための手段であり、飛行の安定性、機体サイズ、および、バッテリー消費量のバランスを考慮し、8機(2段構成の回転翼が4セット)備えられていることが望ましい。 Rotors (101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b, 101-4a, 101-4b) (also known as rotors) are used to fly the drone (100). It is desirable to have eight aircraft (four sets of two-stage rotor blades) in consideration of the balance between flight stability, aircraft size, and battery consumption.
モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、102-4a、102-4b)は、回転翼(101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b)を回転させる手段(典型的には電動機だが発動機等であってもよい)であり、一つの回転翼に対して1機設けられていることが望ましい。1セット内の上下の回転翼(たとえば、101-1aと101-1b)、および、それらに対応するモーター(たとえば、102-1aと102-1b)は、ドローンの飛行の安定性等のために軸が同一直線上にあり、かつ、互いに反対方向に回転することが望ましい。 Motors (102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 102-4a, 102-4b) have rotary blades (101-1a, 101-1b, 101-2a). , 101-2b, 101-3a, 101-3b, 101-4a, 101-4b), which is a means (typically an electric motor, but may be a motor, etc.) for one rotary blade. It is desirable that one machine is installed. The upper and lower rotors (eg, 101-1a and 101-1b) in one set, and their corresponding motors (eg, 102-1a and 102-1b), are used for drone flight stability, etc. It is desirable that the axes are on the same straight line and rotate in opposite directions.
薬剤ノズル(103-1、103-2、103-3、103-4)は、薬剤を下方に向けて散布するための手段であり4機備えられていることが望ましい。薬剤タンク(104)は散布される薬剤を保管するためのタンクであり、重量バランスの観点からドローン(100)の重心に近い位置でかつ重心より低い位置に設けられていることが望ましい。薬剤ホース(105-1、105-2、105-3、105-4)は、薬剤タンク(104)と各薬剤ノズル(103-1、103-2、103-3、103-4)とを接続する手段であり、硬質の素材から成り、当該薬剤ノズルを支持する役割を兼ねていてもよい。ポンプ(106)は、薬剤をノズルから吐出するための手段である。 The drug nozzles (103-1, 103-2, 103-3, 103-4) are means for spraying the drug downward, and it is desirable that four drug nozzles are provided. The medicine tank (104) is a tank for storing the medicine to be sprayed, and it is desirable that the medicine tank (104) is provided at a position close to the center of gravity of the drone (100) and at a position lower than the center of gravity from the viewpoint of weight balance. The drug hose (105-1, 105-2, 1053, 105-4) connects the drug tank (104) and each drug nozzle (103-1, 103-2, 103-3, 103-4). It may be made of a hard material and also serve to support the drug nozzle. The pump (106) is a means for discharging the drug from the nozzle.
圃場撮影カメラ(107)は、ドローン(100)から圃場(農地)を撮影するためのカメラであり、機体の進行方向に対して後方にある圃場を撮影する向きに設置されていることが望ましい。また、圃場撮影カメラ(107)と機体の角度はステッピングモーター等の手段により可変となっていることが望ましい。 The field photographing camera (107) is a camera for photographing a field (agricultural land) from a drone (100), and it is desirable that the field photographing camera (107) is installed so as to photograph a field behind the traveling direction of the aircraft. Further, it is desirable that the angle between the field photographing camera (107) and the machine body is variable by means such as a stepping motor.
図4に本願発明に係るドローン(100)を使用した圃場撮影用システムの実施例の全体概念図を示す。本図は模式図であって、縮尺は正確ではない。操縦器(401)は、使用者(402)の操作によりドローン(100)に指令を送信し、また、ドローン(100)から受信した情報(たとえば、位置、薬剤量、電池残量、圃場撮影カメラ映像等)を表示するための手段であり、コンピューター・プログラムを稼働する一般的なタブレット端末等の携帯情報機器によって実現されてよい。本願発明に係るドローン(100)は自律飛行を行なうよう制御されることが望ましいが、離陸や帰還などの基本操作時、および、緊急時にはマニュアル操作が行なえるようになっていることが望ましい。操縦器(401)とドローン(100)はWi-Fi等による無線通信を行なうことが望ましい。 FIG. 4 shows an overall conceptual diagram of an embodiment of a field photography system using the drone (100) according to the present invention. This figure is a schematic view, and the scale is not accurate. The pilot (401) sends a command to the drone (100) by the operation of the user (402), and the information received from the drone (100) (for example, position, amount of drug, remaining battery level, field photography camera). It is a means for displaying an image, etc.), and may be realized by a portable information device such as a general tablet terminal that runs a computer program. The drone (100) according to the present invention is preferably controlled to perform autonomous flight, but it is desirable that it can be manually operated during basic operations such as takeoff and return, and in an emergency. It is desirable that the pilot (401) and drone (100) perform wireless communication via Wi-Fi or the like.
圃場(403)は、ドローン(100)による撮影の対象となる田圃や畑等である。実際には、圃場(403)の地形は複雑であり、事前に地形図が入手できない場合、あるいは、地形図と現場の状況が食い違っている場合がある。通常、圃場(403)は家屋、病院、学校、他作物圃場、道路、鉄道等と隣接している。また、圃場(403)内に、建築物や電線等の障害物が存在する場合もある。 The field (403) is a rice field, a field, or the like to be photographed by the drone (100). In reality, the topography of the field (403) is complicated, and the topographic map may not be available in advance, or the topographic map and the situation at the site may be inconsistent. Normally, the field (403) is adjacent to houses, hospitals, schools, other crop fields, roads, railroads, etc. In addition, obstacles such as buildings and electric wires may exist in the field (403).
基地局(404)は、Wi-Fi通信の親機機能等を提供する装置であり、RTK-GPS基地局としても機能し、ドローン(100)の正確な位置を提供できるようにすることが望ましい(Wi-Fi通信の親機機能とRTK-GPS基地局が独立した装置であってもよい)。営農クラウド(405)は、典型的にはクラウドサービス上で運営されているコンピューター群と関連ソフトウェアであり、操縦器(401)と携帯電話回線等で無線接続されていることが望ましい。営農クラウド(405)は、ドローン(100)が撮影した圃場(403)の画像を分析し、作物の生育状況を把握して、飛行ルートを決定するための処理を行なってよい。また、保存していた圃場(403)の地形情報等をドローン(100)に提供してよい。加えて、ドローン(100)の飛行および撮影映像の履歴を蓄積し、様々な分析処理を行なってもよい。 The base station (404) is a device that provides a master unit function for Wi-Fi communication, and it is desirable that it also functions as an RTK-GPS base station so that it can provide the accurate position of the drone (100). (The base unit function of Wi-Fi communication and the RTK-GPS base station may be independent devices). The farming cloud (405) is typically a group of computers and related software operated on a cloud service, and it is desirable that the farming cloud (405) is wirelessly connected to the controller (401) by a mobile phone line or the like. The farming cloud (405) may analyze the image of the field (403) taken by the drone (100), grasp the growing condition of the crop, and perform a process for determining the flight route. In addition, the topographical information of the stored field (403) may be provided to the drone (100). In addition, the history of the flight and captured images of the drone (100) may be accumulated and various analysis processes may be performed.
通常、ドローン(100)は圃場(403)の外部にある発着地点(406)から離陸し、圃場(403)に薬剤を散布した後に、あるいは、薬剤補充や充電等が必要になった時に発着地点(406)に帰還する。発着地点(406)から目的の圃場(403)に至るまでの飛行経路(侵入経路)は、営農クラウド(405)等で事前に保存されていてもよいし、使用者(402)が離陸開始前に入力してもよい。 Normally, the drone (100) takes off from the departure / arrival point (406) outside the field (403), sprays the chemicals on the field (403), or when it becomes necessary to replenish or charge the chemicals. Return to (406). The flight route (invasion route) from the departure / arrival point (406) to the target field (403) may be stored in advance in a farming cloud (405) or the like, or before the user (402) starts takeoff. You may enter in.
図5に本願発明に係る薬剤散布用ドローンの実施例の制御機能を表した模式図を示す。フライトコントローラー(501)は、ドローン全体の制御を司る構成要素であり、具体的にはCPU、メモリー、関連ソフトウェア等を含む組み込み型コンピューターであってよい。フライトコントローラー(501)は、操縦器(401)から受信した入力情報、および、後述の各種センサーから得た入力情報に基づき、ESC(Electronic Speed Control)等の制御手段を介して、モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-b)の回転数を制御することで、ドローン(100)の飛行を制御する。モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-b)の実際の回転数はフライトコントローラー(501)にフィードバックされ、正常な回転が行なわれているかを監視できる構成になっている。あるいは、回転翼(101)に光学センサー等を設けて回転翼(101)の回転がフライトコントローラー(501)にフィードバックされる構成でもよい。 FIG. 5 shows a schematic diagram showing a control function of an embodiment of the drug spraying drone according to the present invention. The flight controller (501) is a component that controls the entire drone, and may be an embedded computer including a CPU, memory, related software, and the like. The flight controller (501) is based on the input information received from the pilot (401) and the input information obtained from various sensors described later, via a control means such as ESC (Electronic Speed Control), and the motor (102-102-). The flight of the drone (100) is controlled by controlling the number of revolutions of 1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b). The actual rotation speed of the motors (102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b) is fed back to the flight controller (501) and is normal. It is configured so that it can monitor whether or not the rotation is being performed. Alternatively, the rotary blade (101) may be provided with an optical sensor or the like so that the rotation of the rotary blade (101) is fed back to the flight controller (501).
フライトコントローラー(501)が使用するソフトウェアは、機能拡張・変更、問題修正等のために記憶媒体等を通じて、または、Wi-Fi通信やUSB等の通信手段を通じて書き換え可能になっていることが望ましい。また、フライトコントローラー(501)が制御に使用する計算処理の一部が、操縦器(401)上、または、営農支援クラウド(405)上や他の場所に存在する別のコンピューターによって実行されてもよい。フライトコントローラー(501)は重要性が高いため、その構成要素の一部または全部が二重化されていてもよい。 It is desirable that the software used by the flight controller (501) be rewritable through a storage medium or the like for function expansion / change, problem correction, etc., or through communication means such as Wi-Fi communication or USB. Also, even if some of the calculations used by the flight controller (501) for control are performed by another computer located on the pilot (401), on the farming support cloud (405), or elsewhere. Good. Due to the high importance of the flight controller (501), some or all of its components may be duplicated.
バッテリー(502)は、フライトコントローラー(501)、および、ドローンのその他の構成要素に電力を供給する手段であり、例えば充電式である。バッテリー(502)はヒューズ、または、サーキットブレーカー等を含む電源ユニットを介してフライトコントローラー(501)に接続されている。バッテリー(502)は電力供給機能に加えて、その内部状態(蓄電量、積算使用時間等)をフライトコントローラー(501)に伝達する機能を有するスマートバッテリーであってもよい。 The battery (502) is a means of powering the flight controller (501) and other components of the drone, eg, rechargeable. The battery (502) is connected to the flight controller (501) via a fuse or a power supply unit including a circuit breaker or the like. The battery (502) may be a smart battery having a function of transmitting its internal state (storage amount, total usage time, etc.) to the flight controller (501) in addition to the power supply function.
フライトコントローラー(501)は、Wi-Fi子機機能(503)を介して、さらに、基地局(404)を介して操縦器(401)とやり取りを行ない、必要な指令を操縦器(401)から受信すると共に、必要な情報を操縦器(401)に送信できる。基地局(404)は、Wi-Fiによる通信機能に加えて、RTK-GPS基地局の機能も備えていてもよい。RTK基地局の信号とGPS測位衛星からの信号を組み合わせることで、GPSモジュール(504)により、ドローン(100)の絶対位置を数センチメートル程度の精度で測定可能となる。GPSモジュール(504)は重要性が高いため、二重化・多重化しており、また、特定のGPS衛星の障害に対応するため、冗長化されたそれぞれのGPSモジュール(504)は別の衛星を使用するよう制御されている。 The flight controller (501) communicates with the pilot (401) via the Wi-Fi slave unit function (503) and further via the base station (404), and issues necessary commands from the pilot (401). At the same time as receiving, the necessary information can be transmitted to the controller (401). The base station (404) may also have an RTK-GPS base station function in addition to the Wi-Fi communication function. By combining the signal from the RTK base station and the signal from the GPS positioning satellite, the GPS module (504) can measure the absolute position of the drone (100) with an accuracy of several centimeters. Since the GPS module (504) is so important, it is duplicated and multiplexed, and each redundant GPS module (504) uses a different satellite to cope with the failure of a specific GPS satellite. Is controlled.
6軸ジャイロセンサー(505)はドローン機体の互いに直交する3方向の加速度を測定する手段(さらに、加速度の積分により速度を計算する手段)である。また、6軸ジャイロセンサー(505)は、上述の3方向におけるドローン機体の姿勢角の変化、すなわち角速度を測定する手段である。地磁気センサー(506)は、地磁気の測定によりドローン機体の方向を測定する手段である。気圧センサー(507)は、気圧を測定する手段であり、間接的にドローンの高度も測定することもできる。レーザーセンサー(508)は、レーザー光の反射を利用してドローン機体と地表との距離を測定する手段であり、例えばIR(赤外線)レーザーを使用してよい。ソナー(509)は、超音波等の音波の反射を利用してドローン機体と地表との距離を測定する手段である。これらのセンサー類は、ドローンのコスト目標や性能要件に応じて取捨選択してよい。また、機体の傾きを測定するためのジャイロセンサー(角速度センサー)、風力を測定するための風力センサーなどが追加されていてもよい。また、これらのセンサー類は二重化または多重化されていることが望ましい。 The 6-axis gyro sensor (505) is a means for measuring the acceleration of the drone body in three directions orthogonal to each other (further, a means for calculating the velocity by integrating the acceleration). Further, the 6-axis gyro sensor (505) is a means for measuring the change in the attitude angle of the drone aircraft in the above-mentioned three directions, that is, the angular velocity. The geomagnetic sensor (506) is a means for measuring the direction of the drone body by measuring the geomagnetism. The barometric pressure sensor (507) is a means for measuring barometric pressure, and can also indirectly measure the altitude of the drone. The laser sensor (508) is a means for measuring the distance between the drone body and the ground surface by utilizing the reflection of the laser light, and for example, an IR (infrared) laser may be used. Sonar (509) is a means for measuring the distance between a drone aircraft and the surface of the earth by utilizing the reflection of sound waves such as ultrasonic waves. These sensors may be selected according to the cost target and performance requirements of the drone. In addition, a gyro sensor (angular velocity sensor) for measuring the inclination of the aircraft, a wind sensor for measuring wind power, and the like may be added. Further, it is desirable that these sensors are duplicated or multiplexed.
流量センサー(510)は薬剤の流量を測定するための手段であり、薬剤タンク(104)から薬剤ノズル(103)に至る経路の複数の場所に設けられている。液切れセンサー(511)は薬剤の量が所定の量以下になったことを検知するセンサーである。圃場撮影カメラ(107)は圃場(403)を撮影し、画像分析を行なうためのデータを取得する手段であり、マルチスペクトルカメラであることが望ましい。障害物検知カメラ(513)はドローン障害物を検知するためのカメラであり、画像特性とレンズの向きが圃場撮影カメラ(107)とは異なるため、圃場撮影カメラ(106)とは別の機器であることが望ましい。スイッチ(514)はドローン(100)の使用者(402)が様々な設定を行なうための手段である。障害物接触センサー(515)はドローン(100)、特に、そのローターやプロペラガード部分が電線、建築物、人体、立木、鳥、または、他のドローン等の障害物に接触したことを検知するためのセンサーである。カバーセンサー(516)は、ドローン(100)の操作パネルや内部保守用のカバーが開放状態であることを検知するセンサーである。薬剤注入口センサー(517)は薬剤タンク(104)の注入口が開放状態であることを検知するセンサーである。これらのセンサー類はドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。 The flow rate sensor (510) is a means for measuring the flow rate of the drug, and is provided at a plurality of locations on the path from the drug tank (104) to the drug nozzle (103). The liquid drainage sensor (511) is a sensor that detects that the amount of the drug has fallen below a predetermined amount. The field photographing camera (107) is a means for photographing the field (403) and acquiring data for performing image analysis, and is preferably a multispectral camera. The obstacle detection camera (513) is a camera for detecting drone obstacles, and since the image characteristics and the orientation of the lens are different from the field photography camera (107), it is a device different from the field photography camera (106). It is desirable to have. The switch (514) is a means for the user (402) of the drone (100) to make various settings. The obstacle contact sensor (515) detects that the drone (100), in particular its rotor or propeller guard, has come into contact with an obstacle such as an electric wire, building, human body, standing tree, bird, or other drone. It is a sensor of. The cover sensor (516) is a sensor that detects that the operation panel of the drone (100) and the cover for internal maintenance are in the open state. The drug inlet sensor (517) is a sensor that detects that the inlet of the drug tank (104) is in an open state. These sensors may be selected according to the cost target and performance requirements of the drone, and may be duplicated or multiplexed.
フライトコントローラー(501)はポンプ(106)に対して制御信号を送信し、薬剤吐出量の調整や薬剤吐出の停止を行なう。ポンプ(106)の現時点の状況(たとえば、回転数等)は、フライトコントローラー(501)にフィードバックされる構成となっていることが望ましい。 The flight controller (501) transmits a control signal to the pump (106) to adjust the drug discharge amount and stop the drug discharge. It is desirable that the current status of the pump (106) (for example, the number of revolutions) is fed back to the flight controller (501).
LED(517-2)は、ドローンの操作者に対して、ドローンの状態を知らせるための表示手段である。LEDに替えて、または、それに加えて液晶ディスプレイ等の表示手段を使用してもよい。ブザー(518)は、音声信号によりドローンの状態(特にエラー状態)を知らせるための出力手段である。Wi-Fi子機機能(519)は操縦器(401)とは別に、たとえば、ソフトウェアの転送などのために外部のコンピューター等と通信するためのオプショナルな構成要素である。Wi-Fi子機機能に替えて、または、それに加えて、赤外線通信、Bluetooth(登録商標)、ZigBee(登録商標)、NFC等の他の無線通信手段、または、USB接続などの有線通信手段を使用してもよい。スピーカー(520)は、録音した人声や合成音声等により、ドローンの状態(特にエラー状態)を知らせる出力手段である。天候状態によっては飛行中のドローン(100)の視覚的表示が見にくいことがあるため、そのような場合には音声による状況伝達が有効である。警告灯(521)はドローンの状態(特にエラー状態)を知らせるストロボライト等の表示手段である。ノズル位置調整機構(522)は、薬剤ノズル(103-1、103-2、103-3、103-4)の位置を変更するための手段であり、ステッピングモーターによって実現されていてよい。これらの入出力手段やは、ドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。 The LED (517-2) is a display means for informing the drone operator of the state of the drone. Display means such as a liquid crystal display may be used in place of or in addition to the LED. The buzzer (518) is an output means for notifying the state of the drone (particularly the error state) by an audio signal. The Wi-Fi slave unit function (519) is an optional component for communicating with an external computer or the like for transferring software, for example, apart from the control unit (401). Instead of or in addition to the Wi-Fi slave function, other wireless communication means such as infrared communication, Bluetooth (registered trademark), ZigBee (registered trademark), NFC, or wired communication means such as USB connection You may use it. The speaker (520) is an output means for notifying the state of the drone (particularly the error state) by means of recorded human voice, synthetic voice, or the like. Depending on the weather conditions, it may be difficult to see the visual display of the drone (100) in flight. In such cases, voice communication of the situation is effective. The warning light (521) is a display means such as a strobe light for notifying the state of the drone (particularly the error state). The nozzle position adjusting mechanism (522) is a means for changing the position of the chemical nozzles (103-1, 103-2, 103-3, 103-4), and may be realized by a stepping motor. These input / output means may be selected according to the cost target and performance requirements of the drone, and may be duplicated or multiplexed.
圃場の画像に基づいた作物の生育状況の分析には、赤色光(波長約680nm)と近赤外光(波長約780nm)の反射光による画像を取得してNDVI(Normalized Difference Vegetation Index)を計算することが有効である。一般に、NDVIは(IR − R)/(IR + R)という計算式により求められる(ここで、IRは近赤外光の反射率、Rは赤色光の反射率)である。IRとRは圃場の画像を周波数帯域毎に分析することにより得られるが、カメラにより得られる光量はその時点の環境光等に大きく影響されるため、単に光量のデータだけでは正確な分析を行なうことはできない。状況に応じた適切な補正を行なうことが必要である。 For analysis of crop growth based on field images, NDVI (Normalized Difference Vegetation Index) is calculated by acquiring images of reflected light of red light (wavelength about 680 nm) and near infrared light (wavelength about 780 nm). It is effective to do. Generally, NDVI is calculated by the formula (IR − R) / (IR + R) (where IR is the reflectance of near-infrared light and R is the reflectance of red light). IR and R can be obtained by analyzing the image of the field for each frequency band, but since the amount of light obtained by the camera is greatly affected by the ambient light at that time, accurate analysis is performed using only the amount of light data. It is not possible. It is necessary to make appropriate corrections according to the situation.
図6に本願発明に係る圃場画像分析の概要フローチャートを示す。圃場画像分析プログラムはドローン(100)の圃場撮影用カメラ(107)で撮影された作物の画像を入力として得る(S601)。画像入力は撮影済の圃場全体の画像データをまとめて行なってもよい(この場合には、画像を動画データとして記録し、後述の太陽光に関する情報を動画と同じタイムコードで記録しておくことが好ましい)が、現在撮影中の画像の一部をストリーミング方式(準リアルタイム方式)で入力してもよい。次に、撮影時の条件に応じて、使用する補正パラメーターを求める(S602)。補正情報は、太陽の位置等の撮影時の環境に応じて、事前の実験等によって得られたパラメーターの集合から選択したものであってよい。次に、選択されたパラメーターを使用して分析対象データの補正を行なう。典型的には、波長帯域を分割した区間(特に、赤色光と近赤外線光)ごとに所定の係数を乗ずること等により補正を行なってよい、たとえば、NDVIの計算式を(α*IR − β*R)/(α*IR + β*R)とし、αとβに所定の数値を代入することで補正を行なってよい。αとβに代入する具体的数値は、事前の実験により様々な太陽光の状態に適する補正数値を求めておき、後述の方法で求めた撮影時の太陽光の状態に合わせて適切なものを選択することが望ましいが、事前に用意した補正パラメーターのセットを選択するのではなく、撮影時の太陽光の状況に応じて随時計算を行なうなど、他の補正方法を使用してもよい。最後に、補正後の分析対象データに対して分析処理を行なう(上記のNDVIの計算に加えて前処理や後処理を行なってよい)(S604)。分析処理結果の情報はいったん保存して事後の分析に供してもよいが、ドローン(100)が飛行中にリアルタイムで参照できるようにしてもよい。 FIG. 6 shows an outline flowchart of the field image analysis according to the present invention. The field image analysis program takes as input an image of the crop taken by the field camera (107) of the drone (100) (S601). The image input may be performed by collecting the image data of the entire field that has been photographed (in this case, the image is recorded as moving image data, and the information on sunlight described later is recorded with the same time code as the moving image. However, a part of the image currently being photographed may be input by a streaming method (quasi-real-time method). Next, the correction parameters to be used are obtained according to the shooting conditions (S602). The correction information may be selected from a set of parameters obtained by a prior experiment or the like according to the environment at the time of photographing such as the position of the sun. Next, the selected parameters are used to correct the data to be analyzed. Typically, correction may be performed by multiplying a predetermined coefficient for each section (particularly red light and near-infrared light) in which the wavelength band is divided. For example, the calculation formula of NDVI is (α * IR − β). * R) / (α * IR + β * R), and correction may be performed by substituting predetermined values for α and β. As for the specific values to be substituted for α and β, the correction values suitable for various sunlight conditions are obtained by prior experiments, and the appropriate values are selected according to the sunlight conditions at the time of shooting obtained by the method described later. Although it is desirable to select it, other correction methods may be used, such as performing calculations at any time according to the sunlight conditions at the time of shooting, instead of selecting a set of correction parameters prepared in advance. Finally, analysis processing is performed on the corrected data to be analyzed (pre-processing and post-processing may be performed in addition to the above NDVI calculation) (S604). The information of the analysis processing result may be temporarily saved and used for the subsequent analysis, but the drone (100) may be able to refer to it in real time during the flight.
上述の補正用パラメーター決定処理(S602)、画像データ補正処理(S603)、分析画像対象データの分析処理(S604)の処理は営農クラウド(405)上や他の外部サーバ上で行なってもよいが、ドローン(100)が搭載するコンピューターや無線通信を介してドローンに操縦指令を入力する操縦器(401)が搭載するコンピューターにより実行してもよい。複数の場所にあるコンピューターが協調連携して処理を行なってもよい。分析処理は事後的に行なってもよいが、ドローン(100)の飛行中にリアルタイムで行なってもよい。リアルタイムで分析を行なうことにより、作物の生育状況に応じて薬剤散布を動的に調整できるという利点が生じる。 The above-mentioned correction parameter determination process (S602), image data correction process (S603), and analysis image target data analysis process (S604) may be performed on the farming cloud (405) or on another external server. , It may be executed by a computer mounted on the drone (100) or a computer mounted on the pilot (401) that inputs a control command to the drone via wireless communication. Computers in multiple locations may cooperate to perform processing. The analysis process may be performed ex post facto, or may be performed in real time during the flight of the drone (100). Real-time analysis has the advantage that the chemical application can be dynamically adjusted according to the growing conditions of the crop.
(透過光・反射光補正)
図7に本願発明に係る窒素量測定方法における反射光と透過光の分離の基本的考え方を表わした模式図を示す。図7−aは水平方向から見た図、図7−bは上空から見た図である。なお、ドローン(100)、作物(701)、および、太陽(702)、は模式的表現であり、その位置と大きさは実際の縮尺を表わすものではない。ドローン(100)のカメラ(103)が撮影する圃場(403)の作物(701)の画像は、ドローン(100)の現在位置から見て水平方向に太陽(702)側にある作物(701-1)(逆光側)については透過光が強く、ドローン(100)の現在位置から見て水平方向に太陽(701)の反対側にある作物(701-2)(順光側)については反射光が強い。(Transmitted light / reflected light correction)
FIG. 7 shows a schematic diagram showing the basic concept of separation of reflected light and transmitted light in the nitrogen content measuring method according to the present invention. FIG. 7-a is a view seen from the horizontal direction, and FIG. 7-b is a view seen from the sky. The drone (100), crop (701), and sun (702) are schematic representations, and their positions and sizes do not represent the actual scale. The image of the crop (701) in the field (403) taken by the camera (103) of the drone (100) is the crop (701-1) on the sun (702) side in the horizontal direction when viewed from the current position of the drone (100). ) (Backlight side) has strong transmitted light, and crops (701-2) (forward light side) on the opposite side of the sun (701) in the horizontal direction when viewed from the current position of the drone (100) have reflected light. strong.
ここで太陽の位置は、ドローン(100)が備える光センサーによって把握してもよいが、ドローン(100)またはその操縦装置が備える時計により得られる撮影時の時刻と日付から把握してもよい。また、圃場の画像において図7−bの703に相当する直線を境界として、太陽側と太陽の反対側では画像の明度に不連続な差異が生じるので、保存した画像を分析段階でコンピューターによって前処理することで把握してもよい。 Here, the position of the sun may be grasped by an optical sensor provided in the drone (100), or may be grasped from the time and date at the time of shooting obtained by the clock provided in the drone (100) or its control device. In addition, in the field image, there is a discontinuous difference in the brightness of the image on the sun side and the opposite side of the sun with the straight line corresponding to 703 in FIG. 7-b as the boundary. It may be grasped by processing.
把握した太陽(702)の方向に関する情報はカメラ(107)で撮影した作物(701)の動画像と対応付けて保存し、分析処理に供することが好ましい。加えて、GPS等の手段により測定した撮影時のドローン(100)の位置、および、光センサーにより測定した太陽光の特性の情報も作物(701)の動画像と対応付けて保存することが好ましい。保存された動画像は、ドローン(100)内のメモリーに一時的に保存して後に転送する、または、無線通信機能を通じて送信する等の方法により、分析用のコンピューターに送られ、分析の対象となる。コンピューターの画像処理プログラムにより、動画像中の各静止画フレームに波長によるフィルター処理を行ない、近赤外線量を測定することにより、作物中の窒素量を測定可能であるが、前述のとおり、単純に近赤外線の量を測定するだけでは、十分な精度が出せないため、補正処理を適用することで、精度が高い測定を行なうことができる。 It is preferable that the grasped information on the direction of the sun (702) is stored in association with the moving image of the crop (701) taken by the camera (107) and used for analysis processing. In addition, it is preferable to save the position of the drone (100) at the time of shooting measured by means such as GPS and the information of the characteristics of sunlight measured by the optical sensor in association with the moving image of the crop (701). .. The saved moving image is sent to the computer for analysis by a method such as temporarily saving it in the memory in the drone (100) and transferring it later, or transmitting it through the wireless communication function, and it is the object of analysis. Become. It is possible to measure the amount of nitrogen in a crop by filtering each still image frame in a moving image by wavelength with a computer image processing program and measuring the amount of near infrared rays. Since sufficient accuracy cannot be obtained only by measuring the amount of near infrared rays, it is possible to perform highly accurate measurement by applying the correction process.
ドローン(100)の現在位置から見て太陽(702)の側にある作物(701-1)の画像を窒素含有量測定の対象から除外することで、透過光の影響を排除し、反射光中心型の画像を撮影することができる。ドローン(100)は、人による操縦、または、自動制御により圃場(403)の上空をくまなく飛行することができるので、結果的に圃場(403)にあるすべての作物(701)の反射光中心の画像を得ることが可能である。反射光中心の画像の分析ではそれに合わせた補正パラメーターを使用することが望ましい。 By excluding the image of the crop (701-1) on the side of the sun (702) from the current position of the drone (100) from the target of nitrogen content measurement, the influence of transmitted light is eliminated and the reflected light center. You can take an image of the mold. The drone (100) can fly over the field (403) by human control or automatic control, resulting in the reflected light center of all crops (701) in the field (403). It is possible to obtain an image of. In the analysis of the image centered on the reflected light, it is desirable to use the correction parameters corresponding to it.
この方法で取得された画像では、作物から最初に反射した光(一次反射光)が中心になっており、反射光がさらに作物に反射したことによる生じる二次反射光、さらに、三次反射光の影響、および、透過光がさらに作物に反射した光の影響を相対的に軽減できるため、精度が高い窒素含有量の測定が可能となる。加えて、二次以上の反射光(複次反射光)では、赤色光の反射光の入射光に対する減衰率が50%以下であることが発明者の実験により明らかになっているため、赤色光のみを抽出した画像において赤色光が閾値より強い領域を画像から除いた後に、近赤外線の測定を行なうことで、より正確な窒素料の測定が行なえる。 In the image acquired by this method, the light first reflected from the crop (primary reflected light) is the center, and the secondary reflected light generated by the reflected light further reflected on the crop, and the tertiary reflected light. Since the influence and the influence of the transmitted light reflected on the crop can be relatively reduced, it is possible to measure the nitrogen content with high accuracy. In addition, in the case of secondary or higher reflected light (multiple reflected light), it has been clarified by the inventor's experiment that the attenuation rate of the reflected light of red light with respect to the incident light is 50% or less. More accurate measurement of nitrogen content can be performed by measuring near-infrared light after removing the region where the red light is stronger than the threshold value from the image obtained by extracting only the light.
逆に、ドローン(100)の現在位置から見て太陽(702)の反対側にある作物(701-2)の画像を窒素含有量測定の対象から除外することで、反射光の影響を排除し、透過光中心型の画像を撮影することができる。同様に、ドローン(100)を圃場(403)の上空をくまなく飛行させることで、圃場全体の透過光中心の画像を得ることが可能である。透過光中心の画像の分析ではそれに合わせた補正パラメーターを使用することが望ましい。作物の種類、および、太陽光の状況によっては、透過光中心の画像の分析が好ましいこともあるため、分析のためのコンピューター・プログラムは反射光中心の分析と透過光中心の分析の両方に対応可能なように作成しておくことが好ましい。 Conversely, by excluding the image of the crop (701-2) on the opposite side of the sun (702) from the current position of the drone (100) from the nitrogen content measurement, the effect of reflected light is eliminated. , It is possible to take a transmitted light center type image. Similarly, by flying the drone (100) over the field (403), it is possible to obtain an image of the center of transmitted light of the entire field. When analyzing an image centered on transmitted light, it is desirable to use correction parameters that match it. Depending on the type of crop and the sunlight conditions, it may be preferable to analyze the image of the transmitted light center, so the computer program for the analysis supports both the reflected light center analysis and the transmitted light center analysis. It is preferable to make it as possible.
逆光側の作物を撮影する場合に取得される画像は、順光側の作物を撮影する場合の取得画像よりも画像の輝度が低くなるため、太陽光の方向とドローン上のカメラの撮影方向の成す角度に応じて、画像データの輝度を調整することにより、逆光側の画像と順光側の画像の両方を生育診断の画像分析に利用することが可能となる。例えば、図8−aに示すようにドローン上のカメラの撮影方向(801)と太陽光の方向(802)との成す角度θを定義した場合、図8―bに示すように、角度θが0度と360度の状況で取得された画像データの輝度を大きくするように補正し、角度θが180度で取得された画像データの輝度は補正しない、または0度と360度の画像よりも輝度の補正量を小さくするようにしてよい。本実施形態において、太陽の方角は時刻と日付情報により推測を行うことができ、カメラの位置と方向の情報は、フライトコントローラー(501)から取得することができる。 The image acquired when shooting the crop on the backlit side has a lower brightness than the image acquired when shooting the crop on the forward light side, so the direction of sunlight and the shooting direction of the camera on the drone By adjusting the brightness of the image data according to the angle formed, both the image on the backlit side and the image on the forward light side can be used for image analysis of growth diagnosis. For example, when the angle θ formed by the shooting direction (801) of the camera on the drone and the direction of sunlight (802) is defined as shown in FIG. 8-a, the angle θ is as shown in FIG. 8-b. Corrected to increase the brightness of the image data acquired in the situation of 0 degrees and 360 degrees, and does not correct the brightness of the image data acquired at an angle θ of 180 degrees, or more than the images of 0 degrees and 360 degrees. The amount of brightness correction may be reduced. In the present embodiment, the direction of the sun can be estimated from the time and date information, and the information on the position and direction of the camera can be obtained from the flight controller (501).
上述の反射光と透過光の分離の方法に加えて、または、その方法に替えて以下の画像分析方法を行なうことにより、より精度が高い窒素吸収量の測定が可能である。 In addition to the above-mentioned method for separating reflected light and transmitted light, or by performing the following image analysis method in place of the method, it is possible to measure the nitrogen absorption amount with higher accuracy.
(分光特性補正)
窒素含有量のより正確な測定を行なうためには、ドローン(100)による圃場(403)撮影の時点において作物(701)を照らす太陽光の特性を把握し、それに合わせた補正の計算を行なうことが望ましい。天候により左右される太陽光の特性により、作物(201)による反射光および透過光も影響を受けるからである。特に、直接光と天空光(大気中の水蒸気や塵などによって拡散されるか、雲から反射されて地面に到達する光)の割合を測定することが好ましい。太陽光の特性はドローン(100)に備えた光センサー、あるいは、カメラで測定し、圃場の画像と対応づけて保存して分析に供してもよい。さらに、以下のような方法で太陽光の特性を間接的に推定し、それに合わせた補正を行なってもよい。特に、直接光の全入射光に占める割合に基づいた補正を行なうことが望ましい。(Spectroscopic characteristic correction)
In order to measure the nitrogen content more accurately, it is necessary to understand the characteristics of the sunlight illuminating the crop (701) at the time of shooting the field (403) with the drone (100) and calculate the correction accordingly. Is desirable. This is because the reflected and transmitted light of the crop (201) is also affected by the characteristics of sunlight, which is influenced by the weather. In particular, it is preferable to measure the ratio of direct light to sky light (light diffused by water vapor or dust in the atmosphere or reflected from clouds and reaching the ground). The characteristics of sunlight may be measured by an optical sensor provided in the drone (100) or a camera, and stored in association with an image of the field for analysis. Further, the characteristics of sunlight may be indirectly estimated by the following method and corrected accordingly. In particular, it is desirable to make corrections based on the ratio of direct light to total incident light.
圃場画像中の作物を含む物体の影のコントラスト(画像内の他の部分と比較した影の濃さ)を測定することにより直接光の光量、あるいは、入射光に占める直接光の割合を推定してもよい。前述の方法により分割した逆光側の作物(701-1)の画像と順光側の作物(701-2)の画像の全波長における反射率から直接光と天空光の割合を推定してもよい。直接光が強いときは逆光側と順光側の反射率の差が大きいことが明らかになっているからである。同様に、逆光側の作物(701-1)の画像の分光特性と順光側の作物(701-2)の画像の分光特性の差分から太陽光の特性を推定してもよい。画像全体の光量から直接光の割合を推定するようにしてもよい。 The amount of direct light or the ratio of direct light to the incident light is estimated by measuring the contrast of shadows of objects containing crops in the field image (shadow density compared to other parts of the image). You may. The ratio of direct light to sky light may be estimated from the reflectance at all wavelengths of the image of the crop on the backlit side (701-1) and the image of the crop on the forward light side (701-2) divided by the above method. .. This is because it has been clarified that the difference in reflectance between the backlight side and the forward light side is large when the direct light is strong. Similarly, the characteristics of sunlight may be estimated from the difference between the spectral characteristics of the image of the crop on the backlit side (701-1) and the spectral characteristics of the image of the crop on the forward light side (701-2). The ratio of direct light may be estimated from the amount of light in the entire image.
時刻から算出できる太陽高度と総光量の比率から直接光の割合を推定し、それに応じた補正を行なってもよい。たとえば、太陽の高度が高いのに総光量が少ない場合には、雲が厚く、直接光の割合が低いことを意味する。 The ratio of direct light may be estimated from the ratio of the solar altitude and the total amount of light that can be calculated from the time of day, and correction may be made accordingly. For example, if the sun is high but the total amount of light is low, it means that the clouds are thick and the proportion of direct light is low.
(太陽角補正)
分光特性(各波長帯域のヒストグラム)は、太陽の方向と高度にも大きく影響を受けるため、撮影時の時刻から把握した太陽の方向と高度に関する情報圃場の画像と共に記録し、それに応じて補正パラメーターを算出する、または、計算式自体を変更する等の手順を分析処理に取り込むことが望ましい。(Solar zenith correction)
Since the spectral characteristics (histogram of each wavelength band) are greatly affected by the direction and altitude of the sun, information on the direction and altitude of the sun grasped from the time of shooting is recorded together with the image of the field, and the correction parameters are adjusted accordingly. It is desirable to incorporate procedures such as calculating or changing the calculation formula itself into the analysis process.
代替の方法として、太陽の位置をドローン(100)の高度と機首方向、圃場撮影カメラ(107)で撮影された画像内の機体の影の位置から算出してもよい。ドローン(100)の高度は、GPS(504)や各種センサーにより把握できるため、三角測量の原理により、太陽の位置を把握可能である。影の位置の測定は、圃場上の物体を機体の影と誤認しないよう、機体をホバリング状態にして、水平方向に好ましくは360度回転させて行なうことが望ましい。360度回転させることは地磁気センサー(506)のキャリブレーションにも貢献する。代替の方法として、ドローン(100)が方向転換を行なう際に、自機の影の位置を測定するようにしてもよい。ドローン(100)が圃場上空をくまなく飛行するためには、いずれにせよ方向転換が必要となるため、この方法を採用することで、ドローン(100)の飛行時間を無駄にしないというメリットが生じる。 As an alternative method, the position of the sun may be calculated from the altitude and nose direction of the drone (100) and the position of the shadow of the aircraft in the image taken by the field camera (107). Since the altitude of the drone (100) can be grasped by GPS (504) and various sensors, the position of the sun can be grasped by the principle of triangulation. It is desirable to measure the position of the shadow by hovering the aircraft and rotating it horizontally, preferably 360 degrees, so that the object on the field is not mistaken for the shadow of the aircraft. Rotating 360 degrees also contributes to the calibration of the geomagnetic sensor (506). As an alternative method, the position of the shadow of the drone (100) may be measured when the drone (100) changes direction. In order for the drone (100) to fly all over the field, it is necessary to change direction anyway, so adopting this method has the advantage of not wasting the flight time of the drone (100). ..
ドローン(100)の飛行中にも太陽の位置は変化していくため、上記の影の位置の測定はドローン(100)の飛行中に定期的に行なうことが望ましい。所定の時間経過ごとに測定を行なってよく、さらに、着陸時および離陸時にいずれせよ必要となるホバリング時に影の位置の測定処理を行なってもよい。 Since the position of the sun changes during the flight of the drone (100), it is desirable to measure the position of the shadow above regularly during the flight of the drone (100). The measurement may be performed at predetermined time intervals, and the shadow position may be measured at the time of hovering, which is necessary at the time of landing and at the time of takeoff.
上記で説明した太陽光の状況に応じた補正に加えて、画像分析処理において以下のような追加的処理を行なってもよい。土および水面は近赤外線領域における入射光に対する反射光の減衰率が10%以下であるという特性を有する。上記方法で得た反射光中心の画像から近赤外線が閾値以上である領域を抽出すると、それが土および水面に相当する可能性が高いため、その領域を窒素蓄積量の測定から排除することで、測定の精度を高めることができる。 In addition to the correction according to the sunlight condition described above, the following additional processing may be performed in the image analysis processing. The soil and water surfaces have the characteristic that the attenuation rate of the reflected light with respect to the incident light in the near infrared region is 10% or less. If the region where the near infrared rays are above the threshold value is extracted from the image of the center of reflected light obtained by the above method, it is highly likely that it corresponds to the soil and water surfaces. , The accuracy of measurement can be improved.
また、赤色光の反射光の閾値により表面反射と内部反射を分離することが可能である。表面反射は葉の葉緑素の含有量にあまり影響されないため、画像から表面反射部分を削除してから近赤外線量の測定を行なうことで、より正確な葉緑素の含有量を測定できる。 Further, it is possible to separate the surface reflection and the internal reflection by the threshold value of the reflected light of the red light. Since the surface reflection is not so affected by the chlorophyll content of the leaf, the chlorophyll content can be measured more accurately by removing the surface reflection portion from the image and then measuring the near-infrared ray amount.
同様に、近赤外線光および赤色光の反射光の閾値により葉の反射と穂の反射を分離することが可能である。葉緑素の測定は葉を中心にして行なうことが必要であるため、画像から穂の部分を削除してから近赤外線量の測定を行なうことで、より正確な葉緑素の含有量を測定できる。 Similarly, it is possible to separate leaf reflection and ear reflection by the threshold of reflected light of near-infrared light and red light. Since it is necessary to measure chlorophyll mainly on the leaves, it is possible to measure the chlorophyll content more accurately by removing the ear portion from the image and then measuring the amount of near infrared rays.
同様に、赤色光の反射光の閾値により作物の上部にある葉の反射と下部にある葉の反射を分離することが可能であり、これにより上部の葉の窒素含有量と下部の葉の窒素含有量を独立して測定できる。この測定値に基づき、作物の窒素転流の状況を推定できる。 Similarly, the red light reflected light threshold can separate the upper leaf reflections from the lower leaf reflections of the crop, which allows the nitrogen content of the upper leaves and the nitrogen of the lower leaves. The content can be measured independently. Based on this measured value, the status of nitrogen translocation in crops can be estimated.
(同時散布の場合のカメラ角度)
本願発明に係るドローン(100)により、圃場撮影カメラ(107)による圃場の撮影、上述してきたような撮影画像の分析、そして、分析結果に基づいた適切な量の肥料等の薬剤散布を一回の飛行によりまとめて行なうようにしてもよい。これにより、圃場面積あたりのドローンの利用率を向上し、経済的なメリットが得られる。リアルタイム分析を行なう場合であっても、分析処理には多少の時間を要するため、圃場撮影カメラ(107)をドローン(100)の機体前方に向け、薬剤散布の調整、あるいは、可否の決定のための分析時間を確保することが望ましい。(Camera angle for simultaneous spraying)
With the drone (100) according to the present invention, the field is photographed by the field photographing camera (107), the photographed image as described above is analyzed, and an appropriate amount of chemicals such as fertilizer is sprayed once based on the analysis result. It may be done collectively by the flight of. As a result, the utilization rate of the drone per field area is improved, and an economic merit can be obtained. Even when performing real-time analysis, it takes some time for the analysis process, so point the field camera (107) toward the front of the drone (100) to adjust the chemical spraying or decide whether or not to apply it. It is desirable to secure the analysis time of.
この場合において、確保すべき分析時間はドローン(100)の飛行速度によって変わるため、圃場撮影カメラ(107)の角度をステッピングモーター等により調整可能とし、飛行速度に応じて自動的に調整することが望ましい。すなわち、飛行速度が速いときには、圃場撮影カメラ(107)を、前方を撮影する向きにし、飛行速度が遅いときには、圃場撮影カメラ(107)を、後方(機体直下に近い位置)を撮影する向きとすることが望ましい。圃場撮影カメラ(107)の角度調整に替えて、あるいは、加えて、薬剤散布ノズル(103)の位置をステッピングモーター等により調整可能とし、飛行速度に応じて自動的に調整することで分析に必要な時間を確保するようにしてもよい。すなわち、飛行速度が速いときには、薬剤散布ノズル(103)を、飛行方向のより後方側に位置させるようにしてよい。 In this case, the analysis time to be secured changes depending on the flight speed of the drone (100), so the angle of the field photography camera (107) can be adjusted by a stepping motor or the like and automatically adjusted according to the flight speed. desirable. That is, when the flight speed is high, the field camera (107) is oriented to shoot the front, and when the flight speed is slow, the field camera (107) is oriented to shoot the rear (a position close to directly under the aircraft). It is desirable to do. It is necessary for analysis by changing the angle adjustment of the field photography camera (107), or in addition, the position of the chemical spray nozzle (103) can be adjusted by a stepping motor or the like and automatically adjusted according to the flight speed. You may try to secure enough time. That is, when the flight speed is high, the chemical spray nozzle (103) may be positioned further rearward in the flight direction.
逆に、分析に求められる計算時間を推定し、それに応じて飛行速度を決定し、さらに、それに応じて薬剤散布量を調整するようにしてもよい。 Conversely, the calculation time required for the analysis may be estimated, the flight speed may be determined accordingly, and the amount of drug sprayed may be adjusted accordingly.
(本願発明による技術的に顕著な効果)
稲をはじめとする作物の生長度評価に必要な重要な窒素含有量を、ドローンという簡便な手段により、効率的かつ高精度で測定可能となる。測定機器を圃場まで運び多数のサンプルを測定する場合と比較して効率性が高い。また、衛星写真や単なる上空からの撮影画像による測定方法と比較して精度がはるかに高い。加えて、画像分析には太陽の位置や角度、天候などの環境条件を加味するため、さらに正確な分析が可能となる。(Technically remarkable effect of the present invention)
The nitrogen content, which is important for evaluating the growth of crops such as rice, can be measured efficiently and with high accuracy by a simple means called a drone. The efficiency is higher than when the measuring device is carried to the field and a large number of samples are measured. In addition, the accuracy is much higher than the measurement method using satellite photographs or simple images taken from the sky. In addition, image analysis takes into account environmental conditions such as the position and angle of the sun and the weather, enabling more accurate analysis.
Claims (13)
前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態に応じて前記画像データを補正する補正ステップと、
前記補正された画像データに基づいて前記圃場の作物の生育状況を分析する分析ステップとを含み、
前記補正ステップでは、前記画像データ内の物体の影のコントラストの大きさに基づいて入射光に占める直接光の割合を推定し、前記割合に応じて前記画像データの補正内容を変更する
圃場画像分析方法。 The acquisition step to acquire the image data of the field taken by the camera mounted on the drone,
A correction step of correcting the image data according to the relative position of the sun and the camera at the time of shooting by the camera or the state of sunlight, and a correction step.
Including an analysis step of analyzing the growth status of crops in the field based on the corrected image data.
In the correction step, the ratio of direct light to the incident light is estimated based on the magnitude of the contrast of the shadow of the object in the image data, and the correction content of the image data is changed according to the ratio. > Field image analysis method.
前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態に応じて前記画像データを補正する補正ステップと、
前記補正された画像データに基づいて前記圃場の作物の生育状況を分析する分析ステップとを含み、
前記補正ステップでは、圃場画像中の前記ドローンの影の位置に基づいて撮影時の太陽の高度を推定し、前記推定した太陽の高度に応じて前記画像データを補正する
圃場画像分析方法。 The acquisition step to acquire the image data of the field taken by the camera mounted on the drone,
A correction step for correcting the image data according to the relative position of the sun and the camera at the time of shooting by the camera or the state of the sunlight, and a correction step.
Includes an analysis step to analyze the growth of crops in the field based on the corrected image data.
In the correction step, the altitude of the sun at the time of shooting is estimated based on the position of the shadow of the drone in the field image, and the image data is corrected according to the estimated altitude of the sun. Method.
請求項2に記載の圃場画像分析方法。 In the correction step, the position of the shadow of the drone is measured at the time of turning.
The field image analysis method according to claim 2.
請求項1から請求項3のいずれか1項に記載の圃場画像分析方法。 A drug amount adjustment step for adjusting the amount of drug spraying of the drone based on the analysis result of the image data is further included.
The field image analysis method according to any one of claims 1 to 3.
請求項1から請求項4のいずれか1項に記載の圃場画像分析方法。 Includes a position adjustment step that adjusts the position or orientation of the camera or the position or orientation of the drug spray nozzle according to the flight altitude of the drone.
The field image analysis method according to any one of claims 1 to 4.
請求項1から請求項5に記載の圃場画像分析方法。 The analysis step includes a step of excluding a region where the near-infrared reflectance is equal to or higher than a predetermined value from the image data.
The field image analysis method according to claim 1 to 5.
前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態、および、前記画像データ内の物体の影のコントラストの大きさに基づいて推定された、全入射光に占める直接光の割合に応じて前記画像データを補正する画像データ補正部と、
前記補正された画像データに基づいて前記圃場の作物の生育状態を分析する画像分析部とを含む
圃場画像分析システム。 An image data acquisition unit that acquires image data of the field taken by the camera mounted on the drone,
The ratio of direct light to total incident light estimated based on the relative position or state of sunlight between the sun and the camera at the time of shooting by the camera, and the magnitude of the contrast of the shadow of an object in the image data. an image data correction unit which corrects the image data according to,
A field image analysis system including an image analysis unit that analyzes the growth state of crops in the field based on the corrected image data.
前記カメラによる撮影時の太陽と前記カメラの相対位置もしくは太陽光の状態、および、圃場画像中の前記ドローンの影の位置に基づいて推定された撮影時の太陽の高度に応じて前記画像データを補正する画像データ補正部と、
前記補正された画像データに基づいて前記圃場の作物の生育状態を分析する画像分析部とを含む
圃場画像分析システム。 An image data acquisition unit that acquires image data of the field taken by the camera mounted on the drone, and
The image data is obtained according to the relative position of the sun and the camera at the time of shooting by the camera or the state of sunlight, and the altitude of the sun at the time of shooting estimated based on the position of the shadow of the drone in the field image. Image data correction unit to be corrected and
A field image analysis system including an image analysis unit that analyzes the growth state of crops in the field based on the corrected image data.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193240 | 2018-10-12 | ||
JP2018193240 | 2018-10-12 | ||
PCT/JP2019/040454 WO2020075868A1 (en) | 2018-10-12 | 2019-10-15 | Cultivated field image analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020075868A1 JPWO2020075868A1 (en) | 2021-02-15 |
JP6887142B2 true JP6887142B2 (en) | 2021-06-16 |
Family
ID=70165071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511545A Active JP6887142B2 (en) | 2018-10-12 | 2019-10-15 | Field image analysis method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6887142B2 (en) |
WO (1) | WO2020075868A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434569B (en) * | 2020-11-09 | 2024-03-12 | 吉林化工学院 | Unmanned aerial vehicle thermal imaging system |
CN112565726B (en) * | 2020-12-10 | 2023-02-14 | 广州极飞科技股份有限公司 | Method for determining job prescription chart, job control method and related device |
WO2024180602A1 (en) * | 2023-02-27 | 2024-09-06 | 三菱電機株式会社 | Image analysis device, image analysis system, image analysis method, and image analysis program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5020444B2 (en) * | 2001-06-29 | 2012-09-05 | 独立行政法人農業・食品産業技術総合研究機構 | Crop growth measuring device, crop growth measuring method, crop growth measuring program, and computer-readable recording medium recording the crop growth measuring program |
JP3533524B2 (en) * | 2002-07-26 | 2004-05-31 | 株式会社五星 | Groundwater exploration methods |
JP5799123B2 (en) * | 2014-02-21 | 2015-10-21 | 株式会社日建設計 | Direct light presence / absence judgment device |
JP6520463B2 (en) * | 2015-06-26 | 2019-05-29 | 日産自動車株式会社 | Vehicle position determination device and vehicle position determination method |
JP2017206066A (en) * | 2016-05-16 | 2017-11-24 | 株式会社プロドローン | Unmanned aircraft for spraying chemical solution |
JP6906959B2 (en) * | 2017-01-12 | 2021-07-21 | 東光鉄工株式会社 | Fertilizer spraying method using a drone |
JP6783681B2 (en) * | 2017-02-09 | 2020-11-11 | 株式会社トプコン | Arithmetic logic unit, arithmetic method and program |
WO2018180954A1 (en) * | 2017-03-28 | 2018-10-04 | コニカミノルタ株式会社 | Image processing device, growth examination image creation system, and program |
-
2019
- 2019-10-15 JP JP2020511545A patent/JP6887142B2/en active Active
- 2019-10-15 WO PCT/JP2019/040454 patent/WO2020075868A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020075868A1 (en) | 2020-04-16 |
JPWO2020075868A1 (en) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6762629B2 (en) | Field crop photography method and drone for photography | |
CN111556986B (en) | Unmanned aerial vehicle, control method thereof and computer readable recording medium | |
JP6887142B2 (en) | Field image analysis method | |
WO2017065103A1 (en) | Small unmanned aircraft control method | |
CN103438869B (en) | A kind of large scale vegetation coverage aviation Dynamic Acquisition system | |
JP2023015200A (en) | Drone, drone control method, and drone control program | |
JP6889502B2 (en) | Drones, drone control methods, and drone control programs | |
JP7353630B2 (en) | Drone control system, drone control method, and drone | |
JP2022084735A (en) | Drone, drone control method, and drone control program | |
JP2021078359A (en) | Farm field management system, drone, spreader, water management system, and farm field management method | |
JP6982908B2 (en) | Driving route generator, driving route generation method, and driving route generation program, and drone | |
JP6973829B2 (en) | Field photography camera | |
JP7359464B2 (en) | Crop growing system | |
WO2021205559A1 (en) | Display device, drone flight propriety determination device, drone, drone flight propriety determination method, and computer program | |
WO2021152741A1 (en) | Crop-growing system | |
KR20190076227A (en) | Automatic Obstacle Avoidance and Full automatic flight control method of Agricultrual Drone | |
WO2021255940A1 (en) | Drone for diagnosing crop growth, and camera system for same | |
JP7075127B2 (en) | Field analysis method, field analysis program, field analysis device, drone system and drone | |
JP7011233B2 (en) | Spraying system and spraying management device | |
JP7411259B2 (en) | Plant pathology diagnosis system, plant pathology diagnosis method, plant pathology diagnosis device, and drone | |
WO2021255885A1 (en) | Spraying system, spraying method, and drone | |
JP7387195B2 (en) | Field management system, field management method and drone | |
JP7412037B2 (en) | How to define the drone system, controls and work area | |
WO2021224970A1 (en) | Positioning system, mobile body, speed estimating system, positioning method, and speed estimating method | |
WO2021191947A1 (en) | Drone system, drone, and obstacle detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210506 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6887142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S303 | Written request for registration of pledge or change of pledge |
Free format text: JAPANESE INTERMEDIATE CODE: R316303 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S803 | Written request for registration of cancellation of provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R316803 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S803 | Written request for registration of cancellation of provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R316803 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |