JP2023179319A - Plant information collection device, plant growth state determination device, and plant growth state determination program - Google Patents
Plant information collection device, plant growth state determination device, and plant growth state determination program Download PDFInfo
- Publication number
- JP2023179319A JP2023179319A JP2022092575A JP2022092575A JP2023179319A JP 2023179319 A JP2023179319 A JP 2023179319A JP 2022092575 A JP2022092575 A JP 2022092575A JP 2022092575 A JP2022092575 A JP 2022092575A JP 2023179319 A JP2023179319 A JP 2023179319A
- Authority
- JP
- Japan
- Prior art keywords
- plant
- image
- photographing
- information collection
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008635 plant growth Effects 0.000 title claims abstract description 38
- 238000005286 illumination Methods 0.000 claims abstract description 37
- 230000012010 growth Effects 0.000 claims description 46
- 239000002131 composite material Substances 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 241000196324 Embryophyta Species 0.000 abstract description 225
- 235000013399 edible fruits Nutrition 0.000 abstract description 97
- 241000218645 Cedrus Species 0.000 abstract description 34
- 235000014443 Pyrus communis Nutrition 0.000 abstract description 31
- 241000220324 Pyrus Species 0.000 abstract description 17
- 235000021017 pears Nutrition 0.000 abstract description 16
- 238000003384 imaging method Methods 0.000 abstract description 15
- 238000009826 distribution Methods 0.000 abstract description 5
- 238000003860 storage Methods 0.000 description 40
- 238000003306 harvesting Methods 0.000 description 37
- 240000001987 Pyrus communis Species 0.000 description 30
- 238000000034 method Methods 0.000 description 29
- 238000001514 detection method Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 238000004519 manufacturing process Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 235000009436 Actinidia deliciosa Nutrition 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 239000002420 orchard Substances 0.000 description 11
- 244000298697 Actinidia deliciosa Species 0.000 description 8
- 235000009434 Actinidia chinensis Nutrition 0.000 description 7
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 7
- 241000218691 Cupressaceae Species 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 241000271567 Struthioniformes Species 0.000 description 4
- 241000132456 Haplocarpha Species 0.000 description 3
- 244000141359 Malus pumila Species 0.000 description 3
- 235000021016 apples Nutrition 0.000 description 3
- 230000004883 flower formation Effects 0.000 description 3
- 244000144730 Amygdalus persica Species 0.000 description 2
- 235000006040 Prunus persica var persica Nutrition 0.000 description 2
- 241000219094 Vitaceae Species 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000021021 grapes Nutrition 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241000167854 Bourreria succulenta Species 0.000 description 1
- 241001672694 Citrus reticulata Species 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 241000872198 Serjania polyphylla Species 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 235000019693 cherries Nutrition 0.000 description 1
- 229930002875 chlorophyll Natural products 0.000 description 1
- 235000019804 chlorophyll Nutrition 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 235000020971 citrus fruits Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004720 fertilization Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Cultivation Of Plants (AREA)
Abstract
Description
本発明は、植物情報収集装置、植物育成状態判定装置、及び植物育成状態判定プログラムに係り、例えば、植物の育成状況等を判断するための情報を収集する植物情報収集装置に関する。 The present invention relates to a plant information collection device, a plant growth state determination device, and a plant growth state determination program, and for example, to a plant information collection device that collects information for determining the growth state of plants.
農作物や果実などの育成状況を判断する場合、従来から現状の目視と経験則による判断が広く行われているが、目視による判断は労力とコスト面で大きな負担となっている。
そこで最近では、対象となる果樹等の状態を撮影した画像を解析することで、果実等の育成状況についての各種情報を収集する技術が開発されている。
例えば、農作物の収量を衛星画像を用いて推定したり(特許文献1)、調査対象である圃場が撮影された空撮画像を用いて収量推計を実施している(特許文献2)。
When determining the growth status of agricultural crops, fruits, etc., it has been widely used to visually observe the current situation and use empirical rules, but visual judgment is a large burden in terms of labor and cost.
Therefore, recently, technology has been developed to collect various information about the growth status of fruit trees, etc. by analyzing images taken of the condition of target fruit trees, etc.
For example, the yield of agricultural products is estimated using satellite images (Patent Document 1), or the yield is estimated using an aerial image taken of a field that is a survey target (Patent Document 2).
しかし、植物を撮影した画像情報を使用して当該植物の育成状況を知る場合、特許文献記載技術を含め、従来では、対象植物を上方から撮影した画像が使用されている。
このため撮影した画像には、例えば、対象となる植物以外に地上の雑草が写り込んでしまうため、正確な育成状態を知ることができないという問題があった。
また、森林をその上から撮影する場合には樹木の上部だけしか撮影できなかった。
However, when determining the growth status of a plant using image information obtained by photographing the plant, conventional methods, including techniques described in patent documents, use images obtained by photographing the target plant from above.
For this reason, the photographed image includes, for example, weeds on the ground in addition to the target plant, so there is a problem in that it is not possible to accurately determine the state of growth.
Furthermore, when photographing a forest from above, only the upper parts of the trees could be photographed.
一方、従来果実の育成状況として収穫量を推定する場合、開花状態の植物を撮影し、その撮影画像から花の数を計数し、計数した花の総数の多少により収穫量を予想している。
しかし、開花後行われる摘花、摘果により残された果実の量が実際の収穫量であるため、摘花や摘果を反映した収穫量の推定はしていなかった。
On the other hand, conventionally, when estimating the yield based on the growth status of fruit, a plant in a flowering state is photographed, the number of flowers is counted from the photographed image, and the yield is estimated based on the total number of flowers counted.
However, since the actual yield is the amount of fruit left after flower thinning and fruit thinning, the harvest amount was not estimated to reflect flower thinning and fruit thinning.
植物の育成状況をより精度よく判断することが可能な植物情報を収集することを第1の目的とする。
また、開花状態に基づく、より適切な果実の収穫量を推定することを第2の目的とする。
The first purpose is to collect plant information that allows more accurate judgment of the growth status of plants.
The second objective is to estimate a more appropriate fruit yield based on the flowering state.
本発明は、上記第1の目的を達成するために、植物を地面側から照明する照明手段と、前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、前記撮影手段で撮影した画像の撮影位置情報を取得する位置情報取得手段と、前記撮影手段で撮影した画像と前記取得した撮影位置情報を出力する出力手段と、を備えたことを特徴とする植物情報収集装置を提供する。 In order to achieve the above first object, the present invention provides an illumination means for illuminating a plant from the ground side, a photographing means for photographing the growing state of the plant illuminated by the illumination means from the ground side, and the photographing means A plant information collection device comprising: a position information acquisition means for acquiring photographing position information of an image photographed by the photographing means; and an output means for outputting the image photographed by the photographing means and the acquired photographing position information. I will provide a.
本発明によれば、植物を地面側から照明する照明手段と、照明された植物の育成状態を地面側から撮影する撮影手段とを備えているので、日没後に照明された植物を地面側から撮影することで、植物の育成状況をより精度よく判断することが可能な植物情報を収集することができる。 According to the present invention, the illumination means for illuminating plants from the ground side and the photographing means for photographing the growing state of the illuminated plants from the ground side are provided, so that the illuminated plants can be viewed from the ground side after sunset. By taking pictures, it is possible to collect plant information that can be used to more accurately judge the growth status of plants.
以下、本発明の植物情報収集装置、植物育成状態判定装置(収穫量推定装置)における好適な実施の形態について、図1から図12を参照して詳細に説明する。
(1)実施形態の概要
本実施形態の植物情報収集装置では、日没後(好ましくは夜間、以下同じ)において、地面側から対象となる果樹等の植物に照明を当てた状態で地面側から撮影するものである。
このように対象植物を上空からではなく、地面側から撮影することで、地面上の雑草などの写り込みを回避するとともに、夜間に照明を当てた状態で撮影することで、逆光による黒つぶれ画像を回避することが可能になる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a plant information collection device and a plant growth state determination device (harvest amount estimation device) of the present invention will be described in detail below with reference to FIGS. 1 to 12.
(1) Overview of the embodiment In the plant information collection device of the present embodiment, a target plant such as a fruit tree is photographed from the ground side after sunset (preferably at night, the same applies hereinafter) with the target plant such as a fruit tree illuminated from the ground side. It is something to do.
In this way, by photographing the target plant from the ground side rather than from above, you can avoid the reflection of weeds on the ground, and by photographing at night under lighting, you can reduce the amount of shadows caused by backlighting. becomes possible to avoid.
植物情報収集装置1は、基台2上に照明とカメラが上方向きに配設され、移動部(無人走行車両(UGV))3で、対象となる圃場内を往復移動、又は、格子状移動(縦横の往復移動)をしながら所定間隔での撮影を行う。
照明とカメラはセットになっており、判断する植物の状態に応じた照明、カメラが使用される。
例えば、果樹や杉などの花の状態を可視画像として撮影する場合には、可視画像を撮影するRGBカメラと、LEDライトのセットが使用される。
一方、植生の分布状況や活性度を知るためにマルチスペクトル画像を撮影する場合には、マルチスペクトル(以下、MSという)カメラと、赤色光(Red)ライト、近赤外光(NIR)ライトのセットが使用される。
植物育成状態判定装置(収穫量推定装置)では、可視画像から果実の収穫量を推定する例として、例えば、梨の可視画像から梨の花叢数を係数し、1花叢での収穫果数を規定する判定条件を取得して、収穫量を推定する。
The plant
Lights and cameras are included, and the lights and cameras are used depending on the condition of the plants being judged.
For example, when photographing the state of flowers such as fruit trees and cedar trees as visible images, a set of an RGB camera for photographing visible images and an LED light is used.
On the other hand, when taking multispectral images to understand the distribution and activity of vegetation, a multispectral (hereinafter referred to as MS) camera, a red light (Red) light, and a near-infrared light (NIR) light are used. set is used.
In a plant growth state determination device (harvest amount estimation device), as an example of estimating the fruit yield from a visible image, for example, the number of pear flower clusters is calculated from a visible image of a pear, and the number of fruits harvested in one flower cluster is determined. Obtain the judgment conditions to estimate the yield.
(2)実施形態の詳細
図1は、植物情報収集装置の外観構成を表した図である。
図1に示すように、植物情報収集装置1は、基台2、移動部3、情報収集部4、制御部5、電源6、その他の各部を備えている。
基台2は、情報収集部4、制御部5が載置される部分であり、収集する情報(可視画像、MS画像)に応じた情報収集部4に交換可能になっている。
(2) Details of the embodiment FIG. 1 is a diagram showing the external configuration of a plant information collection device.
As shown in FIG. 1, the plant
The
移動部3は、対象となる植物(例えば梨園の梨の木)と地面との間を、決められた領域内で所定方向に移動することで、基台部を植物の地面側で移動させる移動手段として機能する。
本実施形態の移動部3は、無人走行車両(Unmanned Ground Vehicle)により構成されている。この移動部3は、制御部5の制御に基づき、前後の移動やUターン等の各種動作が行われることで、予め座標指定された領域内を往復移動、又は格子状の移動をする。なお、移動部3は、例えば、梨園やぶどう園等のように、対象植物が所定間隔で格子状に植えられている領域の場合、対象植物が植えられている各行間、各列間を往復移動する。
移動部3は、基台2を移動させる4つのタイヤを備えているが、タイヤに代えて各種圃場に対応させるためのキャタピラーを備えるようにしてもよい。
The moving unit 3 serves as a moving means for moving the base part on the ground side of the plant by moving in a predetermined direction within a predetermined area between the target plant (for example, a pear tree in a pear orchard) and the ground. Function.
The moving unit 3 of this embodiment is configured by an unmanned ground vehicle. The moving unit 3 performs various operations such as forward and backward movement and U-turns under the control of the
The moving unit 3 is equipped with four tires for moving the
本実施形態の移動部3は、無人走行車両で構成されるが、他に無人飛行を行うドローン(drone)や、人力で基台2を移動させるワゴン(wagon)を使用することも可能である。
いずれの場合も、情報収集部4は、基台2に対して上方の情報収集(撮影)が可能に配設される。
移動部3にドローンが使用される場合、対象植物の下側(地面側)を飛行するように制御部5で飛行制御が実行される。
一方、ワゴンが使用される場合、地上を移動するために3つ以上のタイヤ又は、キャタピラーが配置され、人力によりワゴンを押したり引くことで移動させる。この場合、ワゴンを移動させるためのハンドルを備えている。
The moving unit 3 of this embodiment is composed of an unmanned vehicle, but it is also possible to use a drone that flies unmanned or a wagon that moves the
In either case, the
When a drone is used as the moving unit 3, flight control is executed by the
On the other hand, when a wagon is used, three or more tires or caterpillars are arranged to move the wagon on the ground, and the wagon is moved by pushing or pulling it with human power. In this case, a handle is provided for moving the wagon.
情報収集部4は、植物情報を収集するための機器として、対象植物を撮影するカメラと、撮影領域を照明する照明装置のセット、及び、撮影位置情報を取得する位置検出装置40を備えている。
The
位置検出装置40は、RGBカメラ41、MSカメラ46が備えているGPS受信装置で検出される位置情報よりも高い精度、すなわち、cmレベルでの位置情報を取得する。位置検出装置40は、GNSS(Global Navigation Satellite System)受信部と、基準局受信部を備えている(図示しない)。
基準局受信部は、予め正確に測量された基準局の位置情報と、基準局で受信したGNSSの観測データを、基準局データとして基準局から受信する。
位置検出装置40は、制御部5からの観測指示に基づいて、自装置のGNSS受信部による観測データと、基準局から受信した基準局データとから、植物情報収集装置1の位置情報GNを求めて制御部5に供給し、制御部5は位置情報GNをRAMに保存する。
The
The reference station receiving unit receives from the reference station position information of the reference station that has been accurately surveyed in advance and GNSS observation data received by the reference station as reference station data.
Based on the observation instruction from the
なお、基準局は自身の位置情報とGNSSの観測データとから、GNSSの観測データに対する誤差情報を求めて位置検出装置40に送信するようにしてもよい。位置検出装置40では、GNSS受信部による観測データを基準局から受信する誤差情報を使用して補正することで正しい位置情報GNを求めて制御部5に供給する。
Note that the reference station may calculate error information for the GNSS observation data from its own position information and GNSS observation data, and transmit it to the
情報収集部4のカメラと照明装置は、対象植物を地面側から撮影や照明をするために上方向きに配設されている。
カメラと照明装置は、判断する植物の状態(収集する植物情報)に応じた照明、カメラが使用される。
例えば、果樹や杉などの花の状態を可視画像(RGB画像)で撮影する場合には、RGBカメラと、LEDライトのセットが使用される。
一方、植生の分布状況や活性度を知るためにマルチスペクトル画像を撮影する場合には、マルチスペクトル(以下、MSという)カメラと、赤色光(Red)ライト、近赤外光(NIR)ライトのセットが使用される。
The camera and illumination device of the information gathering
The camera and lighting device are used according to the condition of the plant to be determined (plant information to be collected).
For example, when photographing the state of flowers such as fruit trees and cedar trees as visible images (RGB images), a set of an RGB camera and an LED light is used.
On the other hand, when taking multispectral images to understand the distribution and activity of vegetation, a multispectral (hereinafter referred to as MS) camera, a red light (Red) light, and a near-infrared light (NIR) light are used. set is used.
電源6は、基台2の下部に配設され、移動部3の駆動用電源として、情報収集部4による画像撮影や照明用の電源として、また、制御部5による制御用電源として電力が供給される。
なお、電源6については、照明用の電源とそれ以外の電源の2つに分けて配設することも、さらに3つ以上に分けて配設することも可能である。
The
It should be noted that the
図2は、情報収集部4と制御部5の配置関係を表したものである。
図2に示すように、基台2上には、移動部3による移動方向を図面上方とした場合、前側(図面上側)に情報収集部4が、後側(図面下側)に制御部5が配置されている。
制御部5の所定位置、例えば、進行方向に向かって右手前側には照明用スイッチ50が配置されている。制御部5の詳細については後述する。
FIG. 2 shows the arrangement relationship between the
As shown in FIG. 2, on the
A
図2(a)は、対象植物の着花の状態を可視画像として撮影する場合の情報収集部4の配置関係を表している。
図2(a)に示すように、情報収集部4には、位置検出装置40、RGBカメラ41Aとその撮影範囲を照明するLEDライト42Aのセット、および、RGBカメラ41Bとその撮影範囲を照明するLEDライト42Bのセットが配置されている。
RGBカメラ41AとLEDライト42Aのセットは、その撮影範囲、照明範囲の中心を通る光軸が、鉛直線に対して移動部3の進行方向(斜め前方)に所定角度α(本実施形態ではα=30度)だけ傾斜するように配置され、これにより鉛直上方を含む斜め領域の撮影と照明が行われる。
一方、RGBカメラ41BとLEDライト42Bのセットは、各々の光軸が、鉛直線に対して進行方向の右側(斜め右方)に所定角度α(本実施形態ではα=30度)だけ傾斜するように配置され、これにより鉛直上方を含む右側領域の撮影と照明が行われる。
FIG. 2A shows the arrangement of the
As shown in FIG. 2(a), the
The set of
On the other hand, in the set of
LEDライト24A、24Bは可視光による照明を行うものであるが、必ずしもLEDライトである必要がなく、それ以外の照明手段により可視光を照射することも可能である。
なお、符号A、Bは、鉛直線に対する光軸の傾斜方向を示すものであり、使用するRGBカメラ41AとRGBカメラ41B、及び、LEDライト42AとLEDライト42Bはそれぞれ同一のものである。従って、特に光軸の傾斜方向に係わらず共通する事項について説明する場合には使用RGBカメラ41、LEDライト42というように符号A、Bを省略して説明することとする(以下他の図面についても同じ)。
Although the LED lights 24A and 24B provide illumination using visible light, they do not necessarily need to be LED lights, and it is also possible to emit visible light using other illumination means.
Note that the symbols A and B indicate the direction of inclination of the optical axis with respect to the vertical line, and the
図2(b)は、対象植物の育成状況をMS画像として撮影する場合の情報収集部4の配置関係を表している。
図2(b)に示すように、情報収集部4には位置検出装置40が同様に配置されると共に、MSカメラ46A、46Bとその撮影範囲を照明する赤色光(Red)ライト47A、47B、近赤外光(NIR)ライト48A、48Bが配設されている。
このMSカメラ46A、赤色光ライト47A、近赤外光ライト48Aは、その光軸が鉛直線に対して所定角度βだけ斜め前方に傾斜するように配置されている。
一方、MSカメラ46B、赤色光ライト47B、近赤外光ライト48Bは、その光軸が鉛直線に対して所定角度βだけ斜め右方に傾斜するように配置されている。
FIG. 2(b) shows the arrangement of the
As shown in FIG. 2(b), a
The
On the other hand, the
このように、RGBカメラ41とLEDライト42のセット、MSカメラ46と赤色光ライト47、近赤外光ライト48のセットが、斜め前方用と斜め右方用の2セットずつ配置されることで、撮影範囲を効率的に撮影することが可能になる。
なお、傾斜方向については、斜め前方と斜め左方、斜め後方と斜め右方、斜め後方と斜め左方とすることも可能である。
In this way, two sets of the
Note that the inclination directions can also be diagonally forward and diagonally left, diagonally backward and diagonally right, and diagonally rear and diagonally left.
RGBカメラ41とMSカメラ46は、照明された対象植物を、制御部5の制御によって所定間隔(所定時間t毎、又は/及び所定移動距離m毎)で撮影し、撮影した画像データ(可視画像、MS画像)を制御部5に供給するようになっている。
RGBカメラ41A、MSカメラ46Aが撮影した画像はa画像として、RGBカメラ41B、MSカメラ46Bが撮影した画像はb画像として保存される。
なお、MSカメラ46は、撮影毎に、赤色光(Red)ライトによる赤色光画像と、近赤外光(NIR)ライトによる近赤外光画像のセットからなるMS画像がa画像として制御部5に供給される。
またRGBカメラ41とMSカメラ46はGPS装置を内蔵しており、撮影した際の撮影位置GKを取得して、撮影画像と共に制御部5に供給する。
The
Images captured by the
In addition, the
Furthermore, the
ここで、カメラや照明の光軸を傾斜させる理由とその傾斜角α、βについて説明する。
本実施形態の植物情報収集装置1では、対象植物までの距離を自由に設定可能な上空からの撮影ではなく、対象植物を地面側から撮影しているため、撮影する距離に上限(植物の高さ未満)がある。
そこで、本実施形態では、カメラの光軸を鉛直線に対して傾斜角α、βだけ傾斜させることで、撮影範囲を広くすることが可能になっている。また、1の画像中により多くの特徴点(例えば枝と枝の分岐点や、節など)を含めることが可能になり、画像合成する際の処理精度と速度を向上させることが可能になる。
傾斜角α、βは使用する、画角の端面から内側50mm~400mmの範囲内に位置する角度となるように、カメラの画角に応じて決められる。
Here, the reason for tilting the optical axis of the camera and illumination and the tilt angles α and β will be explained.
In the plant
Therefore, in this embodiment, by tilting the optical axis of the camera with respect to the vertical line by the inclination angles α and β, it is possible to widen the photographing range. Furthermore, it becomes possible to include more feature points (for example, branching points between branches, nodes, etc.) in one image, and it becomes possible to improve processing accuracy and speed when composing images.
The inclination angles α and β are determined according to the angle of view of the camera to be used so that the angles are located within a range of 50 mm to 400 mm inside from the end face of the angle of view.
図3は、傾斜させたカメラによる撮影範囲と傾斜角α、βについて表した説明図で、斜め前方に傾斜したRGBカメラ41A、MSカメラ46Aについては植物情報収集装置1の進行方向に向かって右側から見た状態、斜め右方に傾斜したRGBカメラ41B、MSカメラ46Bについては植物情報収集装置1の後方から見た状態を表している。
図3では、一例として梨園を対象とし、カメラから梨棚までの高さをh=1500mmとした場合の撮影範囲を表したものである。
また図3では、鉛直線を符号Vで、カメラの光軸を符号Sで、カメラの撮影範囲の傾斜方向の撮影範囲の端部を示す範囲線をRR、その反対側の範囲線をRLで表している。
FIG. 3 is an explanatory diagram showing the photographing range of the tilted camera and the tilt angles α and β.The
In FIG. 3, as an example, a pear orchard is targeted, and the photographing range is shown when the height from the camera to the pear trellis is h=1500 mm.
In Fig. 3, the vertical line is denoted by V, the optical axis of the camera is denoted by S, the range line indicating the end of the photographing range in the tilt direction of the camera is denoted by RR, and the range line on the opposite side is denoted by RL. represents.
図3(a)はRGBカメラ41の撮影範囲を、(b)はMSカメラ46の撮影範囲を示している。
RGBカメラ41の画角は82度と広いため、図3(a)に示すように、鉛直線Vに対して光軸Sを傾斜角α=30度に傾斜させている。この傾斜により撮影範囲の傾斜方向の距離を約4699mmに伸すことができ、画角にして11度分だけの距離(約297mm)の領域が傾斜方向の反対側に確保される。
一方、MSカメラ46の画角は42度と狭いため、図3(b)に示すように、光軸Sを傾斜角β=20度に傾斜させている。この傾斜により撮影範囲の傾斜方向の距離を約1571mmに伸すことができ、画角にして4度分だけの距離(約111mm)の領域が傾斜方向の反対側に確保される。
なお、本実施形態では光軸の傾斜角をα=30度、β=20度に設定したが、傾斜角α、βは使用するカメラの画角に応じて、鉛直線上方が撮影範囲に含まれる傾斜角α、βが決定される。
3(a) shows the photographing range of the
Since the angle of view of the
On the other hand, since the angle of view of the
Note that in this embodiment, the inclination angle of the optical axis is set to α = 30 degrees and β = 20 degrees, but the inclination angles α and β depend on the angle of view of the camera used, and the shooting range includes the area above the vertical line. The inclination angles α and β are determined.
図1、図2に戻り、制御部5は、植物情報収集装置1の各種動作を制御する。
この制御部5には照明用スイッチ50が設けられている。本実施形態の照明用スイッチ50は、基台2上に配設された情報収集部4の照明(LEDライト42、赤色光ライト47及び近赤外光ライト48)と電源6との間に接続されて、ユーザ操作に基づいて照明のオン、オフが行われる。
なお、後述する撮影プログラムによる撮影処理の開始と連動して制御部5が照明の電源オン、オフを自動制御するようにしてもよい。この場合、照明用スイッチ50は不要である。
Returning to FIGS. 1 and 2, the
This
Note that the
図4は、制御部5の構成と、その制御対象の一部を表したものである。
図4に示すように制御部5は、CPU51、ROM52、RAM53、入出力部54、記憶部55、通信制御部56を備えている。
また制御部5のバスラインには、その制御対象である位置検出装置40、RGBカメラ41、MSカメラ46が接続されると共に、図示しない移動部3に駆動制御信号が供給される。
FIG. 4 shows the configuration of the
As shown in FIG. 4, the
Further, the
CPU51は、ROM52や記憶部55等の各種記憶部に記憶されたプログラムに従って、本実施形態における撮影処理等の各種の情報処理や制御を行う。
ROM52は、CPU51が各種制御や演算を行うための各種プログラム(システムのブートプログラムやOS(Operating System)などの基本プログラム等)や基本データが予め格納されたリードオンリーメモリである。
The
The
RAM53は、CPU51にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM53には、本実施形態による撮影処理等の各種処理を行うための各種エリアが確保可能になっている。
具体的にRAM53には、撮影情報531、可視画像532、MS画像533、位置情報GN534等が一時記憶領域として確保される。
The
Specifically, in the
撮影情報531は、撮影に必要な各種条件が保存される。すなわち、ユーザによって指定される梨園等の各種圃場における撮影領域と、撮影領域内での移動経路、及び、撮影画像種別(可視画像又は/及びMS画像)、撮影間隔sなどが保存される。
撮影情報531の撮影領域と移動経路は、記憶部55の移動領域552から読込まれるが、通信制御部56で受信することや、ユーザが入出力部54の操作で指定することも可能である。撮影領域は、複数の位置座標(x、y)で囲まれた領域で指定され、移動部3が本実施形態の無人走行車両で構成される場合やドローンで構成される場合に必要となる。ドローンで構成される場合には、高さの情報を含む座標(x、y、z)で領域が指定される。一方、人力で基台2を移動させるワゴンで移動部3が構成される場合には、撮影情報531は使用されない。
撮影画像種別は、情報収集部4に配置されているカメラの種別(RGBカメラ41又は/及び、MSカメラ46)に基づいて撮影前に判断されて撮影情報531に保存される。
撮影間隔sは、対象植物を撮影する間隔であり、使用するRGBカメラ41、MSカメラ46の画角により決定される。撮影間隔sは、移動部3の移動距離や移動時間で指定される。
The photographing information 531 stores various conditions necessary for photographing. That is, the photographing areas in various fields such as pear orchards specified by the user, the movement route within the photographing area, the type of photographed image (visible image or/and MS image), the photographing interval s, etc. are stored.
The shooting area and moving route of the shooting information 531 are read from the moving
The type of photographed image is determined before photographing based on the type of camera (
The photographing interval s is the interval at which the target plant is photographed, and is determined by the angle of view of the
可視画像532にはRGBカメラ41で撮影された可視画像等が保存される。
MS画像533にはMSカメラ46で撮影されたMS画像として、赤色光によるRed画像と近赤外光によるNIR画像等が保存される。
図4(b)は、可視画像532、MS画像533に保存されるデータについて表したものである。
図4(b)に示すように、RGBカメラ41とMSカメラ46(以下単に、両カメラ41、46という)で撮影された画像は、撮影番号で管理され、撮影番号毎に撮影位置GK、a画像、b画像が保存される。
A visible image captured by the
The
FIG. 4B shows data stored in the
As shown in FIG. 4(b), images shot by the
撮影番号は、CPU51から各カメラ41、46に撮影指示が出される毎に採番される。
撮影位置GKは、各カメラ41、46が備えるGPS装置で検出した撮影位置のデータである。本実施形態では、撮影位置GKをRGBカメラ41A、MSカメラ46Aから撮影位置GKを取得するが、他方のカメラBから取得することも可能であり、両カメラA、Bから取得した位置の中間地点を撮影位置GKとして保存するようにしてもよい。
The photographing number is assigned each time a photographing instruction is issued from the
The photographing position GK is data of a photographing position detected by a GPS device included in each
a画像は、RGBカメラ41A、MSカメラ46Aで撮影された斜め前方の画像データであり、b画像はRGBカメラ41B、MSカメラ46Bで撮影された斜め右方の画像データである。a画像とb画像は同時に撮影されるため、同じ撮影番号で管理されている。
なお、MS画像533のa画像、b画像には、赤色光ライトによる赤色光画像と、近赤外光ライトによる近赤外光画像のセットが保存される。
The a image is diagonally forward image data taken by the
Note that in the a image and the b image of the
位置情報GN534は、RGBカメラ41、MSカメラ46による撮影が行われる毎に位置検出装置40から供給される正確な位置情報GNが保存される。
位置情報GNは、可視画像532、MS画像533に保存される撮影番号と同じ撮影番号で保存、管理される。
As the
The position information GN is stored and managed using the same imaging number as the imaging number stored in the
入出力部54は、データの入力や出力を行い、例えば、ディスプレイ、タッチパネル、USB端子などを備えている。
ディスプレイは、出力装置としての液晶ディスプレイが使用され、入力供給からの入力結果や、RGBカメラ41、MSカメラ46による撮影範囲を表す地図情報や撮影画像等が表示される。またディスプレイには、タッチパネルから必要な各種操作を行うための各種操作キー(テンキー、操作アイコン等)を画像表示する。
タッチパネルは、ディスプレイの表面に配置される入力機器で、ディスプレイに画面表示された各種操作キーに対応した、ユーザのタッチ位置を特定し、当該タッチ位置に対応して表示された操作キーの入力を受け付ける。
The input/
As for the display, a liquid crystal display is used as an output device, and input results from the input supply, map information representing the photographing range by the
A touch panel is an input device placed on the surface of a display, and it identifies the user's touch position corresponding to the various operation keys displayed on the screen and inputs the operation key displayed corresponding to the touch position. accept.
USB端子は、外部記憶装置としてのUSBメモリを接続するためのインターフェイスである。
USB端子に接続されたUSBメモリは、植物情報収集装置1の記憶部55やRAM53に読込むためのデータが保存されたり、撮影情報531のデータを保存して外部に出力するためなどに使用される。
例えば、可視画像532、MS画像533、位置情報GN534に保存されている画像データや位置情報GNのデータが収集植物情報として、USB端子からUSBメモリに出力、保存される。
The USB terminal is an interface for connecting a USB memory as an external storage device.
The USB memory connected to the USB terminal is used to store data to be read into the
For example, the image data and position information GN data stored in the
記憶部55は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置等で構成されている。この記憶部55に使用される媒体としては、SSD(Solid State Drive)等の半導体記憶装置が使用されるが、ハードディスクや光磁気ディスク等を使用することも可能である。
記憶部55には、植物情報収集プログラム551、移動領域552、収集植物情報553が保存される。
植物情報収集プログラム551としては、撮影情報531に保存された撮影領域の範囲内で往復移動又は/及び格子状移動するように移動部3を制御する移動制御プログラムや、移動部3の移動距離又は/及び時間毎にRGBカメラ41やMSカメラ46で撮影をし、撮影した画像を保存する撮影プログラム等が保存されている。
移動制御プログラムについては、移動部3として無人走行車両が使用される場合には地上を走行するプログラムが、ドローンが使用される場合には地面から所定距離(例えば、地上30cm)だけ上方を飛行するプログラムが保存される。なお、移動部3として人力により移動するワゴンが使用される場合には、移動プログラムは不要である。
The
The
The plant
Regarding the movement control program, when an unmanned vehicle is used as the moving unit 3, the program runs on the ground, and when a drone is used, the program flies above the ground by a predetermined distance (for example, 30 cm above the ground). The program is saved. Note that if a wagon that is moved manually is used as the moving unit 3, the moving program is not necessary.
移動領域552には、撮影領域を指定するための地図データや領域の座標(x、y)からなる撮影領域や、当該撮影領域内を移動する移動経路の情報が保存されている。
これらの情報は、入出力部54に接続されたUSBメモリや、通信制御部56を介して外部の機器から取得して移動領域552に保存される。
本実施形態の移動部3が地上を走行する無人走行車両で構成されているので、複数の位置座標(x、y)で囲まれた領域で撮影領域が指定される。
但し、圃場の地図画像をディスプレイに表示して、その撮影範囲と移動経路をタッチパネルから指定することも可能である。この場合、CPU51は指定された撮影範囲と移動経路を移動領域552に保存する。
なお、移動部3がドローンで構成される場合、撮影領域には、飛行する地面からの高さ情報を含む座標(x、y、z)で指定される。また、人力で基台2を移動させるワゴンで移動部3が構成される場合には、移動領域552は使用されない。
The moving
This information is acquired from a USB memory connected to the input/
Since the moving unit 3 of this embodiment is composed of an unmanned vehicle that runs on the ground, the imaging area is specified in an area surrounded by a plurality of position coordinates (x, y).
However, it is also possible to display a map image of the field on the display and specify the shooting range and travel route from the touch panel. In this case, the
Note that when the moving unit 3 is composed of a drone, the shooting area is designated by coordinates (x, y, z) including height information from the ground over which the drone flies. Furthermore, if the moving unit 3 is configured with a wagon that moves the
収集植物情報553には、撮影情報531に保存されている全撮影領域における撮影が終了した後に、可視画像532、MS画像533、位置情報GN534、撮影情報531(移動領域552)が、収集した植物情報として保存される。
なお、本実施形態の植物情報収集装置1では収集した植物情報に基づいて、当該植物から推定される果実の収穫量や、植物の育成状態の判定を行わず、植物情報をUSBメモリ等の外部に出力する構成となっているため、収集植物情報553を記憶部55に保存しないようにすることも可能である。
The collected
Note that the plant
通信制御部56は、タブレット等の携帯端末装置やパーソナルコンピュータ等の各種外部電子機器との間を無線通信によりネットワーク接続するための制御装置である。
通信制御部56は、これら各種外部電子機器から植物情報収集装置1にアクセスすることが可能になっており、外部電子機器から撮影領域や移動経路等を受信したり、外部電子機器に対して収集した植物情報を送信する場合等に使用される。
The
The
次に、植物情報収集装置1により植物の情報を収集する処理動作について説明する。
図5は、植物情報収集の処理手順を表したフローチャートである。
最初に、ユーザは植物情報収集装置1の準備を行う(ステップ10)。
すなわちユーザは、収集する植物情報に対応した情報収集部4を基台2上にセットする。すなわち対象植物の着花状態を可視画像として撮影する場合には図2(a)で説明した情報収集部4を、対象植物の育成状況をMS画像として撮影する場合には図2(b)で説明した情報収集部4を植物情報収集装置1の基台2上にセットする。
そして、所定の情報収集部4をセットした植物情報収集装置1を、日没後に撮影対象である圃場に用意する。
なお、日没後に行うのは撮影時における、太陽光による逆光を回避するためであるため、少なくとも撮影の開始を日没後に行えばよく、情報収集部4のセット等は日没前に行うことは可能である。
Next, processing operations for collecting plant information by the plant
FIG. 5 is a flowchart showing the processing procedure for collecting plant information.
First, the user prepares the plant information collection device 1 (step 10).
That is, the user sets the
Then, the plant
Note that the purpose of shooting after sunset is to avoid backlighting due to sunlight during shooting, so at least the shooting should be started after sunset, and the setting of the
なお、本実施形態では移動部3として自動走行車両が使用されるが、人力で基台2を移動させるワゴンで移動部3が構成される場合には、植物情報収集装置1の準備(ステップ10)において、撮影予定の領域(例えば、4隅)の植物や支柱などに目印となるリボンやテープを巻付ける。
In this embodiment, an automatic vehicle is used as the moving unit 3, but if the moving unit 3 is configured with a wagon that moves the
植物情報収集装置1の準備が終了した後、ユーザは制御部5の照明用スイッチ50をオンにする(ステップ11)。
これにより、撮影終了して照明用スイッチ50がオフされるまでの間、照明用のLEDライト42、又は赤色光ライト47、近赤外光ライト48が点灯し、斜め前方、斜め右方の撮影範囲を継続的に照明する。
なお、本実施形態の植物情報収集装置1では、照明用スイッチ50によりライトが点灯するが、植物情報収集プログラム551に基づいて撮影開始直前にライトを点灯するようにしてもよい。
After the preparation of the plant
As a result, the illumination LED light 42, red light light 47, and near-infrared light light 48 are turned on until the
In the plant
次に、ユーザは植物情報収集プログラム551を起動する(ステップ12)。
すなわち、ユーザは入出力部54のディスプレイに表示された植物情報収集アイコンをタッチパネルで指定し、これにより制御部5のCPU51が植物情報収集プログラム551を起動する。
植物情報収集プログラム551の起動により、これ以降の各処理については、当該プログラムに従ってCPU51が植物情報収集装置1の各部を制御することで情報収集が行われる。
Next, the user starts the plant information collection program 551 (step 12).
That is, the user specifies the plant information collection icon displayed on the display of the input/
By starting the plant
まずCPU51は、撮影情報を取得する(ステップ13)。すなわち、CPU51は、撮影情報として撮影領域、移動経路、撮影画像種別、撮影間隔sを取得する。
具体的にCPU51は、記憶部55の移動領域552から撮影領域を特定する座標(x、y)と移動経路を収集情報として取得してRAM53の撮影情報531に保存する。
更にCPU51は、情報収集部4にRGBカメラ41が配置されていれば可視画像(RGB画像)を、MSカメラ46が配置されていればMS画像を撮影画像種別として撮影情報531に保存する。なお、CPU51は、両カメラ41、46が配置されていれば、可視画像とMS画像を保存する。
First, the
Specifically, the
Further, the
また、CPU51は、撮影画像種別に対応して、可視画像(RGB画像)の場合の撮影間隔s1、MS画像の場合の撮影間隔s2を取得する。
撮影間隔は、使用するカメラの画角に応じて決まり、本実施形態のカメラでは画角が広いRGBカメラ41の撮影間隔s1=2m、狭いMSカメラ46の撮影間隔s2=1mである。
但し、本実施形態では、移動部3を所定移動速度(=秒速1m)で移動させるので、可視画像では撮影間隔時間t1=2秒、MS画像では撮影間隔時間t2=1秒を撮影間隔として取得する。
なお、撮影間隔としてs1、s2を取得することも可能であるが、時間t1、t2をすることで撮影間隔に到達したか否かの判断が容易になる。
In addition, the
The shooting interval is determined according to the angle of view of the camera used, and in the camera of this embodiment, the shooting interval s1 of the
However, in this embodiment, since the moving unit 3 is moved at a predetermined moving speed (=1 m/s), the imaging interval is acquired as the imaging interval for the visible image, t1 = 2 seconds, and for the MS image, the imaging interval time t2 = 1 second. do.
Note that it is also possible to obtain s1 and s2 as the photographing interval, but by obtaining the times t1 and t2, it becomes easier to determine whether the photographing interval has been reached.
その後CPU51は、取得した移動経路に従って移動部3を撮影位置まで移動させる(ステップ14)。
本実施形態では上述したように、移動部3が移動経路に沿って所定速度で継続的に移動しているので、CPU51は、移動部3を移動させながら前回の撮影から撮影間隔時間t1、t2が経過する毎に撮影位置に到達したと判断している。
Thereafter, the
In this embodiment, as described above, since the moving unit 3 is continuously moving at a predetermined speed along the moving route, the
CPU51は、移動部3の撮影位置においてRGBカメラ41、MSカメラ46による撮影をする(ステップ15)。
具体的にCPU51は、情報収集部4にRGBカメラ41が配置されていれば、2秒毎に可視画像の撮影を指示する。そしてCPU51は、この撮影指示に基づいてRGBカメラ41Aで撮影されたa画像、RGBカメラ41Bで撮影されたb画像、及び撮影時にRGBカメラ41Aで検出した撮影位置GKを取得し、撮影指示毎に採番した撮影番号を付してRAM53の可視画像532に保存する(図4(b)参照)。
The
Specifically, if the
またCPU51は、MSカメラ46が配置されていれば、1秒毎にMS画像の撮影を指示する。そしてCPU51は、この撮影指示に基づいてMSカメラ46Aで撮影されたa画像、MSカメラ46Bで撮影されたb画像、及び撮影時にMSカメラ46Aで検出した撮影位置GKを取得し、撮影指示毎に採番した撮影番号を付してRAM53のMS画像533に保存する。
上述したように、MS画像533のa画像、b画像には、赤色光ライト47の照明による赤色光画像と、近赤外光ライト48の照明による近赤外光画像のセットが保存される。
Further, if the
As described above, a set of images a and b of the
なお、RGBカメラ41とMSカメラ46の両方が情報収集部4に配置されている場合、CPU51は、2秒毎にRGBカメラ41とMSカメラ46に同時に撮影指示をし、その中間(1秒後)にMSカメラ46に単独の撮影指示をする。この場合、MS画像は連続する撮影番号で保存され、RGB画像は連続する奇数の撮影番号で保存される。
RGBカメラ41に対する撮影指示とMSカメラ46に対する撮影指示を異なるタイミングにすることも可能であるが、移動部3による移動を撮影用に一時停止する場合には同じタイミングで撮影指示をするのが時間短縮上好ましい。
Note that when both the
Although it is possible to give the shooting instruction to the
本実施形態の植物情報収集装置1では、1回の撮影においてRGBカメラ41A、41Bによりa画像とb画像が同時に撮影され、同一の撮影番号で保存される。またMSカメラ46A、46Bによりa画像とb画像同時に撮影され、同一の撮影番号で保存される。
図6は、一例として、梨園における、RGBカメラ41の撮影地点と撮影されたa画像、b画像の撮影範囲を表したものである。
図6に示すように、梨園では複数の梨の木PLが格子状に規則正しく植えられており、植物情報収集装置1は梨の各列間を長矢印で示した移動経路上を往復移動する。この移動経路上の撮影位置p1、p2、…においてRGBカメラ41による撮影が行われる。
なお、梨の木PLは撮影範囲a1、b1等を説明するため木の位置だけを丸印で表している。
In the plant
FIG. 6 shows, as an example, the photographing point of the
As shown in FIG. 6, in the pear orchard, a plurality of pear trees PL are regularly planted in a grid pattern, and the plant
Note that for the pear tree PL, only the position of the tree is represented by a circle in order to explain the photographing ranges a1, b1, etc.
また図6に示すように、撮影位置p1において、RGBカメラ41Aで撮影した可視画像(a画像)を実線の撮影範囲a1で、RGBカメラ41Bで撮影した可視画像(b画像)を同じく実線の撮影範囲b1で表している。
一方、撮影位置p1から2m(2秒)移動した次の撮影位置p2において、RGBカメラ41Aによるa画像を点線の撮影範囲a2で、RGBカメラ41Bによるb画像を同じく点線の撮影範囲b2で表している。
このように、2台のRGBカメラ41A、41Bをそれぞれ斜め前方と斜め右方に傾斜させることで、1回の撮影で(a1+b1)、(a2+b2)の広い領域を撮影することが可能になる。
Further, as shown in FIG. 6, at the photographing position p1, the visible image (a image) photographed by the
On the other hand, at the next shooting position p2 moved 2 m (2 seconds) from the shooting position p1, an image a taken by the
In this way, by tilting the two
図7は、RGBカメラ41で撮影した可視画像を表したものである。
図7(a)は、RGBカメラ41Aで撮影した可視画像(a画像)で、斜め前方を撮影しているので梨の木の幹部分よりも枝先の多くが撮影されている。
一方、図7(b)はRGBカメラ41Bで撮影した可視画像(b画像)で、斜め右方向を撮影しているので、植物情報収集装置1の右側にある梨の木の幹周辺が撮影されている。
FIG. 7 shows a visible image taken by the
FIG. 7A is a visible image (image a) taken by the
On the other hand, FIG. 7(b) is a visible image (b image) taken by the
図5のフローチャートに戻り、CPU51は、位置検出装置40から位置情報GNを取得する(ステップ16)。
すなわち、CPU51は、RGBカメラ41、MSカメラ46に撮影指示をしたタイミングで、位置検出装置40に観測を指示する。
この観測指示に基づいて、位置検出装置40は植物情報収集装置1の正確な位置情報GNを観測して出力し、CPU51は出力された位置情報GNを取得してRAM53の位置情報GN534に保存する。
位置情報GNは、当該撮影指示と同時に出した撮影指示に対する撮影番号と同じ撮影番号で管理、保存される。
Returning to the flowchart of FIG. 5, the
That is, the
Based on this observation instruction, the
The position information GN is managed and stored using the same shooting number as the shooting number for the shooting instruction issued at the same time as the shooting instruction.
撮影とデータ保存が終了すると、CPU51は撮影情報531に保存された撮影領域内で全撮影が完了したか否かを、移動経路の終点に到達したか否かにより判断する(ステップ17)。
撮影が完了していない場合(ステップ17;N)、CPU51は、ステップ14に戻り移動部3の移動と撮影を継続する。
When the photographing and data storage are completed, the
If the photographing is not completed (
一方、撮影が完了している場合(ステップ17;Y)、CPU51は、撮影データ等による収集植物情報を出力する(ステップ18)。
ここで出力する収集植物情報は、RAM53の撮影情報531(又は移動領域552)、可視画像532、MS画像533、位置情報GN534に保存されている全ての画像データや位置情報GNのデータである。
収集植物情報の出力先としては、入出力部54に接続されているUSBメモリや、通信制御部56を介して接続された外部機器等である。またRAM53の収集植物情報は、記憶部55の収集植物情報553にも保存される。
収集植物情報を出力した後、CPU51は、植物情報収集処理を終了する。
On the other hand, if photographing has been completed (
The collected plant information output here is all the image data and position information GN data stored in the photographing information 531 (or moving area 552),
The collected plant information can be output to a USB memory connected to the input/
After outputting the collected plant information, the
次に、植物情報収集装置1から出力される収集植物情報(可視画像やMS画像等)を使用して、対象植物に対する育成状況の判断について説明する。
図8は、植物の育成状態を判定する植物育成状態判定装置(収穫量推定装置)の構成を表したものである。
図8に示すように、植物育成状態判定装置100は、CPU110、ROM120、RAM130、USB端子140、入力部150、表示装置160、通信制御部170、記憶部180を備えている。
Next, a description will be given of how to determine the growth status of a target plant using collected plant information (visible images, MS images, etc.) output from the plant
FIG. 8 shows the configuration of a plant growth state determination device (harvest amount estimation device) that determines the growth state of plants.
As shown in FIG. 8, the plant growth
CPU110は、ROM120や記憶部180等の各種記憶部に記憶されたプログラムに従って、本実施形態における植物の育成情報を判定する処理等の各種の情報処理や制御を行う。
ROM120は、CPU110が各種制御や演算を行うための各種プログラム(システムのブートプログラムやOS(Operating System)などの基本プログラム等)や基本データが予め格納されたリードオンリーメモリである。
The
The
RAM130は、CPU110にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM130には、本実施形態による撮影処理等の各種処理を行うための各種エリアが確保可能になっている。
具体的にRAM130には、可視画像132、MS画像133、位置情報GN134、特徴点136、合成画像137、判定結果138等が一時記憶領域として確保される。
可視画像132、MS画像133、位置情報GN134は、植物の育成状態を判定するために収集された収集植物情報である。この収集植物情報は、植物情報収集装置1の撮影情報531(又は移動領域552)、可視画像532、MS画像533に対応する情報で、収集された植物の育成状態の判定処理において、記憶部180の収集植物情報182から読み出して保存される。可視画像132、MS画像133は一方又は両方がRAM130に保存される。
Specifically, in the
The
位置情報GN134は、撮影位置に対応して複数存在する可視画像132やMS画像133を合成する際に使用される。
位置情報GN134は、可視画像132やMS画像133に含まれる撮影位置GKよりも正確な撮影位置を表す情報で、植物情報収集装置1の位置検出装置40で検出された位置情報GNである。
位置情報GN134は、可視画像132、MS画像133に保存されている各撮影画像の撮影番号と同一の撮影番号で管理されているので、同じ撮影番号の両画像132、133の位置情報GNに上書きされる。
The
The
Since the
特徴点136は、1箇所の圃場に対して複数箇所で撮影された各撮影画像(可視画像、MS画像)から抽出した特徴点が保存される。
特徴点136は、各撮影画像から画像処理によって抽出した、枝の分岐点Fや節Hなどの特徴点である。
特徴点136は、各撮影画像を合成する際に使用される。
The feature points 136 are stored as feature points extracted from each photographed image (visible image, MS image) taken at a plurality of locations in one field.
The feature points 136 are feature points such as branch points F and nodes H extracted from each captured image by image processing.
The feature points 136 are used when combining each captured image.
合成画像137は、各撮影画像から抽出した特徴点136に基づいて合成した可視画像132の合成画像とMS画像133の合成画像である。
この本実施形態の合成画像137は、収集植物情報を収集した圃場全体で1枚の画像に合成されたものであるが、圃場によっては予め区画された領域毎に合成画像137を作成することも可能である。
The
The
判定結果138は、合成画像137を使用して当該画像に写し出された植物の育成情報を判定した結果が保存される。
例えば、可視画像に写る花の状態から判定した果実の収穫量や、MS画像から植物の育成状況を把握するための正規化植生指数(NDVI)等が保存される。
As the
For example, the harvest amount of fruits determined from the state of flowers in visible images, the normalized vegetation index (NDVI) for understanding the growth status of plants from MS images, etc. are stored.
USB端子140は、外部記憶装置としてのUSBメモリを接続するためのインターフェイスであり、植物情報収集装置1で収集して出力された収集植物情報が保存されたUSBメモリが接続される。
入力部150は、表示装置160のディスプレイ表面に配置されたタッチパネルやキーボード等の各種入力機器である。入力部150は、育成状態を判定する対象データを指定したり、植物育成状態の判定に必要な条件等の判定情報の入力や指定をしたり、判定処理を開始する処理を指示したり、その他の各種入力操作に使用される。
表示装置160は、液晶ディスプレイ等の画像出力装置である。表示装置160には合成前後の可視画像やMS画像、正規化植生指数の分布状態を表すNDVI画像等が表示される。表示装置160には、またタッチパネルでの操作を可能にするための各種操作キー等も表示される。
The
The
The
通信制御部170は、タブレット等の携帯端末装置やパーソナルコンピュータ等の各種外部電子機器との間を無線通信によりネットワーク接続するための制御装置である。
本実施形態の通信制御部170は、植物情報収集装置1から無線通信により出力される収集植物情報を取得する場合にも使用される。
The
The
記憶部180は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置等で構成されている。
この記憶部180に使用される記憶媒体としては、主としてハードディスクや、SSD(Solid State Drive)等の半導体記憶装置、光磁気記憶媒体等の各種記憶媒体のうちの読み書き可能な記憶媒体を使用するようにしてもよい。
記憶部180には、育成状態判定プログラム181、収集植物情報182、判定条件183、植物育成状態判定情報184、その他のプログラムやデータが保存されている。
The
The storage medium used in this
The
育成状態判定プログラム181は、収集植物情報に基づいて果実の収穫量や、正規化植生指数等の各種植物の育成情報、更に、杉や桧の花粉量等について判定するためのプログラムである。育成状態判定プログラム181は、ユーザによって指定された判定対象植物や、後述の判定条件183から選択された条件に従って、収集植物情報182に保存されている撮影画像(可視画像、MS画像)を使用して対象植物の育成状態を判定する。
収集植物情報182は、植物情報収集装置1から出力される収集植物情報が保存される。この収集植物情報182は、育成状態判定プログラム181が実行されることで、RAM130の作業領域に保存される。
植物育成状態判定情報184は、果実の収穫量等の判定結果が保存される。この判定結果は、育成状態判定処理においてRAM130に保存された判定結果138が読み出されて植物育成状態判定情報184に保存される。
The growth
The collected
The plant growth
判定条件183は、育成状態判定プログラム181で使用される各種判定条件が保存されている。具体的に判定条件183には、可視画像から果実の収穫量を推定する果実毎の判定条件や、MS画像から正規化植生指数(NDVI)を算出する計算式、杉や桧の花粉量を推定する場合の推定条件等が保存される。
いずれの判定条件を使用するか否かについてはユーザが指定することになるが、ユーザの指定が無い場合には予め決められたデフォルトの判定条件が使用される。
判定条件183に保存される各種判定条件としては、デフォルトの条件が予め決められているが、ユーザによって適宜変更、追加することが可能になっている。
In the
The user specifies which judgment condition to use or not, but if there is no specification by the user, a predetermined default judgment condition is used.
Default conditions are predetermined as the various judgment conditions stored in the
ここで本実施形態で使用する、判定条件183に保存される判定条件、主として果実に対する判定条件について説明する。
一般に梨や林檎、桃、キウイ等の各種果実は、花の数を数えて果実の収穫量を予想している。
しかし、実際の果樹園では全ての花を結実させるのではなく、収穫までの途中段階で花や小さい果実を取り去る摘花、摘果を行うことで、最適(大きい、美味しい等)な果実を収穫している。
そこで本実施形態では、花の数を数えるのではなく、収穫用に残す花や果実に対応した花の状態を計数することで、より正確な収穫量を植物育成状態判定結果として推定している。
判定条件183には、果樹の場合は、花の状態から収穫量を推定するための条件が規定されている。
Here, the judgment conditions stored in the
In general, for various fruits such as pears, apples, peaches, and kiwis, the yield of fruits is estimated by counting the number of flowers.
However, in actual orchards, instead of letting all the flowers bear fruit, they perform flower thinning and fruit thinning, which removes flowers and small fruits midway through the harvest, to harvest the optimal fruit (large, delicious, etc.). There is.
Therefore, in this embodiment, rather than counting the number of flowers, by counting the state of flowers corresponding to flowers and fruits left for harvesting, a more accurate harvest amount is estimated as a result of determining the plant growth state. .
In the case of fruit trees, the
図9は、一例として、可視画像132に写されている果実の花から、梨やキウイ等の果実の収穫量を推定するための判定条件として、(a)は梨の判定条件、(b)はキウイの判定条件を表したものである。
図9(a)に示すように、梨の判定条件として、「枝先無果花叢数」、「花叢の果数」などが規定されている。
ここで最初の条件「枝先無果花叢数」は、枝の先端(枝先)から数えて、梨の収穫数としてカウントしない花叢の数であり、果実を実らせない花叢の数である。
次の条件「花叢の果数」は、1つの花叢に収穫を予定している果数で、1花叢に対してカウントする果実の数(収穫推定数)である。
「枝先無果花叢数」が条件1では2つ、条件2では3つ、条件3では3つ…と規定され、「花叢の果数」が条件1では1果、条件2では1果、条件3では2果…と規定されている。
FIG. 9 shows, as an example, determination conditions for estimating the yield of fruits such as pears and kiwis from the flowers of the fruit depicted in the
As shown in FIG. 9(a), the conditions for determining pear include "the number of fruitless flowers at the tip of a branch", "the number of fruits in the flower cluster", etc.
Here, the first condition "number of fruitless flower clusters at branch ends" is the number of flower clusters that are counted from the tip of the branch (branch tip) and is not counted as the number of harvested pears, and is the number of flower clusters that do not bear fruit.
The next condition "Number of fruits in a flower cluster" is the number of fruits scheduled to be harvested in one flower cluster, and is the number of fruits (estimated number of fruits to be harvested) counted for one flower cluster.
The "number of fruitless flowers at the tip of a branch" is defined as 2 in
ここで、梨の収穫と判定条件の既定との関係について説明する。
図10は、梨の開花状態を模式的に表したものである。
図10に示すように、梨は1つの花芽から複数の花が咲き、その花群を花叢(KS1、KS2…)という。
そして梨の場合、新芽の成長を促進させたり全体に栄養分を行きわたらせる目的で、枝の先端(枝先)側には果実を実らせないようにするために、枝先から枝の分岐点方向に向かってn個の花叢については、全花の摘花を行うことがある。
この枝先から全摘花を行う花叢の数が、「枝先無果花叢数」として規定されている。
例えば、判定条件1では「枝先無果花叢数」が「2つ」なので(図9(a))、枝先の花叢KS1と花叢KS2(図10)の2つが全摘花の対象となり、収穫推定数としてはカウント数0(カウント対象外)である。
Here, the relationship between the harvest of pears and the default determination conditions will be explained.
FIG. 10 schematically represents the flowering state of a pear.
As shown in FIG. 10, in a pear, a plurality of flowers bloom from one flower bud, and the flower group is called a flower cluster (KS1, KS2, etc.).
In the case of pears, for the purpose of promoting the growth of new shoots and distributing nutrients throughout the tree, in order to prevent fruit from growing on the tip of the branch (branch tip), the branch point is For n flower clusters in the direction, all flowers may be thinned.
The number of flower clusters from which all flowers are removed from the branch tips is defined as the "number of branch tip fruitless clusters."
For example, in
一方、1つの花叢に多数の果実を実らせると、大きな果実を収穫できなくなるため、収穫までの間に適時、各花叢に対して摘花、摘果を行い、最終的に1つの花叢から収穫する果数が「花叢の果数」として規定されている。
例えば、判定条件1では「花叢の果数」が「1果」なので(図9(a))、カウント対象外の花叢KS1と花叢KS2を除いた、花叢KS3に対して、梨の収穫推定数1がカウントされる。
なお、「枝先無果花叢数」で規定された枝先の花叢は、「花叢の果数」によるカウント対象外である。
On the other hand, if one flower cluster bears many fruits, it will not be possible to harvest large fruits. Therefore, flowers and fruits must be removed from each flower cluster at appropriate times until harvest, and the fruits that can be harvested from a single flower cluster must be removed at appropriate times until harvest. The number is defined as the "number of fruits in the flower cluster."
For example, in
Note that the flower cluster at the tip of a branch defined by the "number of fruitless flowers at the end of a branch" is not counted by the "number of fruits in a flower cluster".
図9(a)に規定した梨の判定条件は一例であり、その他の条件、例えば対象となる梨の種類(幸水、豊水、にっこり等)に対応した条件や、梨園独自の収穫方針による条件などを設定、追加することが可能になっている。
梨園独自の収穫方針として、例えば特定の領域において特大サイズの梨を収穫するため用の条件として、先端以外の花叢でも、複数(例えば、2、3、…5個)の花叢当り1果と規定したり、収穫対象として係数する花叢と花叢の間をBcm(例えば、20cm)以上と規定したりする。
このように、図9(a)を含めた各種梨の判定条件が規定されることで、ユーザが運営する梨園に適した判定条件を選択することで、より正確な収穫量を推定することが可能になる。
The judgment conditions for pears specified in Figure 9(a) are just an example, and other conditions may be used, such as conditions corresponding to the target pear type (Kosui, Hosui, Nikkori, etc.) or conditions based on the pear orchard's own harvesting policy. It is now possible to configure and add items such as.
As a pear orchard's own harvest policy, for example, as a condition for harvesting extra-large pears in a specific area, even in flower clusters other than the tips, one fruit per multiple (for example, 2, 3, ... 5) flower clusters is stipulated. Or, the distance between the flower clusters to be harvested may be defined as Bcm (for example, 20 cm) or more.
In this way, by specifying the judgment conditions for each type of pear, including those shown in Figure 9(a), it is possible to more accurately estimate the yield by selecting the judgment conditions suitable for the pear orchard operated by the user. It becomes possible.
次に、図9(b)に示したキウイの判定条件について説明する。
図9(b)に示すように、キウイの判定条件として、「対象」「果柄の果数」「葉数条件」「枝長条件」等が規定されている。
キウイは雌雄別木であるため、計数する「対象」として全て雌花が規定されている。
キウイの花の認定は、画像認識により、花の形と白色とから花の外形を特定し、更に、中央から外側に向う白い糸状の雌しべの有無により雌花を特定する。なお、中央部分に黄色の花粉が付いた花糸が球状に存在するのが雄花である。
Next, the criteria for determining kiwifruit shown in FIG. 9(b) will be explained.
As shown in FIG. 9(b), "target", "number of fruit on stalk", "leaf number condition", "branch length condition", etc. are defined as criteria for kiwifruit.
Kiwi is a male and female tree, so all female flowers are required to be counted.
Kiwi flowers are recognized by image recognition, which identifies the outer shape of the flower based on its shape and white color, and further identifies female flowers based on the presence or absence of white thread-like pistils extending outward from the center. A male flower has a spherical filament with yellow pollen attached to its center.
キウイは1つの果柄に通常3つの花が咲くので、1つの果柄に対して摘花、摘果によって残す(収穫する)キウイの数が「果柄の果数」として規定されている。
また、「葉数条件」は、キウイの葉の数に対して収穫する果数が規定され、例えば、条件1では葉数5枚当り1果のキウイを計数する。
枝長条件は、分岐した枝の長さに応じて収穫(計数)する果実の数で、例えば、条件3では、小の場合1果、中の場合2果、長の場合3果として規定されている。なお、小、中、長の区別も別途規定され、例えば、小は30cm未満、中は30cm以上80cm未満、長は80cm以上と規定されている。
Since kiwifruit usually have three flowers blooming on one fruit stalk, the number of kiwis left (harvested) by flower thinning and fruit thinning for one fruit stalk is defined as the "number of fruits on a fruit stalk."
Further, in the "leaf number condition", the number of fruits to be harvested relative to the number of kiwi leaves is defined. For example, in
The branch length condition is the number of fruits to be harvested (counted) according to the length of the branched branches. For example, in condition 3, it is defined as 1 fruit if small, 2 fruits if medium, and 3 fruits if long. There is. Note that the distinction between small, medium, and long is also specified separately. For example, small is defined as less than 30 cm, medium is defined as 30 cm or more and less than 80 cm, and length is defined as 80 cm or more.
なお図示しないが、判定条件183には、花の数(花数や花叢数、果柄等)に対して収穫する果実の数や、葉や枝に対するカウント条件などの各種判定条件が、桃、林檎、ブドウ等の果樹毎に規定されている。
Although not shown, the
次に、植物情報収集装置1で収集し出力された収集植物情報を使用して、当該植物の育成状態を判定する育成状態判定処理(収穫量推定処理)について説明する。
図11は、育成状態判定処理(収穫量推定処理)について表したフローチャートである。
当該処理の前提として、記憶部180の収集植物情報182若しくはUSB端子140に接続されたUSBメモリに植物情報収集装置1で収集した可視画像やMS画像を含む収集植物情報が保存され、又は通信制御部170を介して外部から収集植物情報を取得可能な状態になっているものとする。
またユーザの入力部150の操作により、育成状態判定プログラム181が起動しているものとする。
Next, a growth state determination process (harvest amount estimation process) that uses the collected plant information collected and output by the plant
FIG. 11 is a flowchart showing the growth state determination process (harvest amount estimation process).
As a premise of this processing, collected plant information including visible images and MS images collected by the plant
It is also assumed that the growth
図11に示すように、植物育成状態判定装置100のCPU110は、判定条件を取得する(ステップ20)。すなわち、CPU110は、表示装置160に判定条件を指定する画面を表示し、この表示に基づいてユーザが指定した判定条件を判定条件183から取得する。ここでは、仮にユーザが図9(a)に示した梨の判定条件1を指定したものとすると、CPU110は、指定された梨の判定条件1をRAM130の所定領域(図視しない)に保存する。
As shown in FIG. 11, the
次にCPU110は、撮影データを取得する(ステップ21)。
すなわちCPU110は、ユーザが指定した判定条件1に基づいて、収集植物情報182(又は、USBメモリ、通信制御部170)から対応する植物の収集植物情報を取得し、RAM130の可視画像132又は/及びMS画像133と位置情報GN134に保存する。
Next, the
That is, the
次にCPU110は、可視画像132、MS画像133の撮影位置修正を行う(ステップ22)。
すなわちCPU110は、可視画像132、MS画像133の各撮影画像に含まれている撮影位置GK(図4(b)参照)を、その撮影画像の撮影番号と同じ撮影番号で管理されている位置情報GN134の位置情報GNに変更(修正)する。
以下、撮影位置GKについて、位置情報GNで撮影位置を修正した後の表記を撮影位置GNとする。
Next, the
That is, the
Hereinafter, regarding the photographing position GK, the notation after correcting the photographing position using the position information GN will be referred to as the photographing position GN.
なお、本実施形態では、植物情報収集装置1のカメラが備えるGPS装置で取得する撮影位置GKの精度が低くて後述の画像合成(ステップ24)ができないため、精度が高い位置情報GNで修正している。
しかし、画像合成できる程度に精度が高い撮影位置GKが得られる場合には、植物情報収集装置1に位置検出装置40が搭載されず、撮影位置GKがそのまま使用される。
この場合、撮影位置修正のステップ22は省略される。
撮影位置GKが撮影位置GNに修正された状態の収集植物情報182を植物情報収集装置1から取得している場合にもステップ22が省略される。
In this embodiment, since the accuracy of the photographing position GK acquired by the GPS device included in the camera of the plant
However, when the photographing position GK is obtained with high precision to the extent that images can be synthesized, the
In this case, step 22 of correcting the photographing position is omitted.
Step 22 is also omitted when the collected
次にCPU110は、特徴点の抽出を行う(ステップ23)。
すなわちCPU110は、可視画像132、MS画像133の各撮影画像から特徴点を抽出し、抽出した特徴点に撮影番号を付して特徴点136に保存する。
撮影画像の特徴点は、例えば図10に示した対象植物の節Hや枝の分岐点F等が画像認識により抽出される。
なお、抽出する特徴点としては、植物情報収集装置1による撮影前に植物の枝や幹に所定の目印(例えば赤色のテープや紐など)を配設しておき、この目印を特徴点として抽出するようにしてもよい。この場合の目印は、植物情報収集装置1による撮影間隔と同程度に配置することが好ましい。本実施形態の場合、RGBカメラ41の撮影間隔s1=2m、狭いMSカメラ46の撮影間隔s2=1mの間隔で目印を配置する。
Next, the
That is, the
Feature points of the photographed image include, for example, nodes H of the target plant and branch points F of branches shown in FIG. 10, which are extracted by image recognition.
In addition, as the feature points to be extracted, predetermined landmarks (for example, red tape or strings) are placed on the branches and trunks of plants before photographing by the plant
抽出した特徴点は、対象となる撮影画像の撮影位置GNと、その撮影画像中における特徴点の位置とから、撮影した圃場の撮影領域の所定地点を原点とした座標で表される。
圃場の撮影領域は、収集植物情報182に含まれる撮影情報531(又は移動領域552、図4参照)から取得する。
原点としては、例えば、最初に撮影した地点(撮影番号001の位置情報GN)を使用する。
The extracted feature points are expressed by coordinates with a predetermined point in the photographed field of the photographed field as the origin, based on the photographing position GN of the target photographed image and the position of the feature point in the photographed image.
The photographing area of the field is acquired from the photographing information 531 (or moving
As the origin, for example, the first photographed point (location information GN of photographing number 001) is used.
特徴点の抽出は、各撮影画像の画像全体から抽出することも可能であるが、本実施形態では、画像の中央部が除かれた周辺領域を対象として抽出している。
図6に例示したように、植物情報収集装置1における撮影では前後する撮影及び、往復する撮影において、前後左右の撮影画像の一部が重なるように撮影しているので、この重なる範囲を周辺領域として特徴点を抽出する。
なお、本合成処理で使用する可視画像132、MS画像133は、植物情報収集装置1により対象となる植物を、日没後に照明をした状態で地面側から撮影している。このため、逆光状態での撮影画像ではないので、特徴点の抽出(及び画像の合成)を容易に行うことができる。
Although it is possible to extract feature points from the entire image of each photographed image, in this embodiment, the feature points are extracted from the peripheral area of the image except for the central part.
As illustrated in FIG. 6, in the photographing by the plant
Note that the
次にCPU110は、画像の合成を行う(ステップ24)。
すなわちCPU110は、抽出した各撮影画像の特徴点136と、撮影位置GKを使用して可視画像132、MS画像133の合成を行う。
より具体的に説明すると、CPU110は、まず可視画像132、MS画像133を、撮影番号と撮影時の移動経路とから、互いに隣接する撮影画像を求める。そして隣接する2枚の撮影画像の位置関係から、当該両撮影画像の撮影番号に対応する特徴点136のうち、画像が重なる周辺領域の特徴点136が一致するように位置合せを行う。
CPU110は、全ての撮影画像に対して隣接する撮影画像との位置合せをした、圃場全体の撮影画像を合成画像137に保存する。
Next, the
That is, the
More specifically, the
The
なお、撮影画像の合成については、撮影画像の位置合せをすることで単純に合成する場合のほか、可視画像132、MS画像133を合成することで、圃場全体を立体的に表すオルソ画像を作成するようにしてもよい。
オルソ画像の作成には、異なる撮影位置で撮影された画像を合成して3次元形状のオルソ画像を作成するSfM(Structure from Motion)ソフトを使用する。
Regarding the synthesis of captured images, in addition to simply compositing by aligning the captured images, it is also possible to create an ortho image that represents the entire field three-dimensionally by composing the
To create an orthogonal image, SfM (Structure from Motion) software is used to create a three-dimensional orthogonal image by combining images taken at different photographing positions.
次にCPU110は、育成状態の判定を行い(ステップ25)、処理を終了する。
すなわちCPU110は、可視画像132、MS画像133の合成画像137を使用して育成状態についての状態判定処理を行う。
図12は、状態判定処理(サブルーチン)を表すフローチャートである。
状態判定処理は、ステップ20で取得した判定条件に従って行われるが、ここでは、図9(a)の判定条件1が指定されたものとして、梨の収穫量を推定(判定)する場合について説明する。
Next, the
That is, the
FIG. 12 is a flowchart showing the state determination process (subroutine).
The state determination process is performed according to the determination conditions acquired in
最初に、CPU110は、花叢の抽出を行う(ステップ241)。
梨の場合、1つの花叢KS1、KS2、…に複数の花が咲き(図10参照)、1花叢当り1又は数個の梨を収穫対象としているので、花叢毎の収穫果数が判定条件として規定されている(図9(a)参照)。
そこで、CPU110は、可視画像132からの合成画像137から、個々の花を抽出するのではなく、複数の花群で構成される花叢を抽出する。花叢の抽出は、花叢全体の輪郭を抽出する等の周知の各画像認識技術が使用可能である。
First, the
In the case of pears, multiple flowers bloom in one flower cluster KS1, KS2, etc. (see Figure 10), and one or several pears per flower cluster are to be harvested, so the number of fruits harvested in each flower cluster is used as a judgment condition. (See FIG. 9(a)).
Therefore, the
本実施形態の植物情報収集装置1では、日没後に、地面側から、照明をした状態で撮影をしているので、図7に示されるように、黒色の背景に対象植物が写されている。また、昼間に対象植物の上部から撮影する場合のように、背景部分に雑草などが写されていない。
本実施形態の撮影画像(合成画像137)には、対象植物の背景に雑草等がなく、花や花叢の輪郭が明瞭になる黒色の背景になっているので、花や花叢の抽出を容易に行うことができる。
In the plant
In the photographed image (composite image 137) of this embodiment, there are no weeds in the background of the target plant, and the background is black with clear outlines of flowers and flower clusters, making it easy to extract flowers and flower clusters. It can be carried out.
次にCPU110は、対象花叢の計数を行う(ステップ242).
すなわちCPU110は、ステップ241で抽出した花叢に対して、ステップ20(図11)で取得した判定条件に基づいて、対象花叢の数を計数する。
判定条件として図9(a)の条件1が選択されている場合には、抽出した花叢のうち枝の先端の花叢とその1つ手前の花叢(図10の例では、花叢KS1と花叢KS2)を除外した数を対象果数として計数する。
Next, the
That is, the
When
次にCPU110は、収穫量を推定する(ステップ243)。
すなわちCPU110は、計数した対象花叢数をW、判定条件の「花叢の果数」をUとした場合、次の式(1)から対象果実の収穫量Tを推定する。
収穫量T=対象花叢数W×花叢果数U…(1)
例えば、図9(a)の条件1が指定されている場合、花叢の果数U=1果なので、CPU110は、収穫量T=対象花叢数W×1=Wを推定する。
Next, the
That is, the
Harvest amount T = Number of target flower clusters W x Number of flower clusters U... (1)
For example, when
最後にCPU110は、推定した収穫量Tを保存する(ステップ244)。
すなわちCPU110は、推定した梨の収穫量Tを、植物育成状態判定情報184として保存し、図11のメインルーチンにリターンして処理を終了する。
Finally, the
That is, the
以上、梨の収穫量を推定する育成状態判定処理について説明したが、キウイ、林檎、桃、ブドウ、サクランボ、蜜柑や八朔等の柑橘類などの他の果実についても、果実毎に規定された判定条件(ユーザが選択した判定条件、又はデフォルトとして決められている判定条件)に従って、果実の収穫量が推定される。 The growth status determination process for estimating the yield of pears has been described above, but other fruits such as kiwis, apples, peaches, grapes, cherries, citrus fruits such as mandarin oranges, and hassaku can also be evaluated using the determination conditions specified for each fruit. The harvest amount of fruit is estimated according to the determination condition selected by the user or the determination condition determined as a default.
また、植物情報収集装置1により収集された収集植物情報553のうち、可視画像532(可視画像132)を使用し、植物の育成状態として果実の収穫量を推定する場合について説明したが果実以外にも、可視画像(RGB画像)を使用して植物の育成状態を判定することが可能である。この場合にも、植物情報収集装置1により、当該植物を日没後に、地面側から、照明した状態で撮影した可視画像532(可視画像132)を、育成状態の判定に使用する。
In addition, although a case has been described in which the visible image 532 (visible image 132) is used among the collected
次に植物情報収集装置1と植物育成状態判定装置100による、第2実施形態について説明する。
この第2実施形態では、果実以外の例として、杉や桧の雄花の収集植物情報を収集し、杉雄花の着生状況(植物育成状態)を求め、翌年春の花粉量を推定するものである。
Next, a second embodiment using the plant
In this second embodiment, as an example other than fruits, plant information on male flowers of cedar and cypress is collected, the epiphytic status (plant growth status) of the male cedar flowers is determined, and the amount of pollen in the spring of the following year is estimated. .
杉や桧の花粉によるアレルギーが大きな問題となっており、花粉の飛散量が予報されている。この予報については、実際に花粉が飛散している時期において花粉数を調べて、花粉予報に用いている。花粉数は、野外に放置されたプレパラートに付着した花粉の数を人が顕微鏡で数えたり、ポンプで吸引した大気にレーザー光を照射することで大気中の花粉数を自動計測したりしている。
しかし、花粉が飛散している時期における花粉飛散状況を調べるものであり、花粉の飛散時期よりも前に飛散状況を推測し予報することはできない。
Allergies caused by cedar and cypress pollen have become a major problem, and the amount of pollen dispersed is predicted to increase. Regarding this forecast, pollen counts are investigated during the period when pollen is actually scattered and used for pollen forecasting. Pollen counts are measured by humans using a microscope to count the number of pollen particles that stick to prepared specimens left outdoors, or by automatically measuring the number of pollen particles in the air by shining a laser beam onto the air sucked in by a pump. .
However, this method examines the pollen scattering situation during the pollen scattering season, and it is not possible to estimate and predict the pollen scattering situation before the pollen scattering season.
そこで、花粉が飛散する前年において翌年春の花粉飛散量を予測する技術が提案されている(長野県林総セ研報第21号19頁~28頁「花粉生産量予測システム普及事業」/2006年12月、近藤、道治)。
しかしこの予測システムでは、双眼鏡で杉の木の樹冠を目視観察することで、個々の杉における雄花の着生状況を評価する必要があり時間を要す大変な作業であった。
また日中に双眼鏡による目視観察を行うため、太陽との位置関係を考慮しながら行う必要もあった。
Therefore, a technology has been proposed that predicts the amount of pollen scattered in the spring of the following year based on the previous year when the pollen is scattered (Nagano Prefecture Forest Research Center Report No. 21, pp. 19-28, "Pollen Production Prediction System Dissemination Project" / 2006) December, Kondo, Michiharu).
However, with this prediction system, it was necessary to visually observe the crowns of cedar trees using binoculars to evaluate the status of male flower formation on each cedar tree, which was a time-consuming and difficult task.
Additionally, since visual observations were to be made using binoculars during the day, it was necessary to consider the positional relationship with the sun.
そこで第2実施形態では、果実以外の例として、杉や桧の雄花の可視画像を撮影し、収集植物情報として出力し、この収集情報(可視画像)を画像処理することにより杉雄花の着生状況を判断し、翌年春の花粉量を推定するものである。
以下第2実施形態による植物情報収集装置1と植物育成状態判定装置100を使用した杉花粉量の推定について、第1実施形態で説明した処理と異なる点を中心に説明する。
Therefore, in the second embodiment, as an example other than fruits, visible images of male flowers of cedar and cypress are photographed, outputted as collected plant information, and this collected information (visible images) is image-processed to increase the epiphytic growth of male flowers of cedar. It assesses the situation and estimates the amount of pollen for the following spring.
The estimation of the amount of cedar pollen using the plant
この第2実施形態では、第1実施形態で説明したRGBカメラ41とLEDライト42のセットを搭載した植物情報収集装置1を使用して杉林内の撮影を行う。
この撮影は、杉の雄花が着生する11月から12月の、日没後に、移動領域552で指定された撮影領域と移動経路に従って、LEDライト42による照明をした状態で、所定間隔毎にRGBカメラ41で、地面側から、杉の可視画像を撮影する。
第2実施形態の移動部3は、人力で移動させるワゴンや無人飛行を行うドローンを使用することも可能であるが、第1実施形態と同様に、無人走行車両が使用される。但し、杉林内を移動するので、図1に示した4つのタイヤに代えてキャタピラーを備えた無人走行車両を使用することが好ましい。
In the second embodiment, a photograph of a cedar forest is taken using the plant
This photographing is carried out at predetermined intervals after sunset from November to December when the male cedar flowers are established, under illumination with the LED light 42, in accordance with the photographing area and movement route specified in the
Although it is possible to use a wagon that is moved manually or a drone that flies unmanned as the moving unit 3 of the second embodiment, an unmanned vehicle is used as in the first embodiment. However, since the vehicle moves within a cedar forest, it is preferable to use an unmanned vehicle equipped with caterpillars instead of the four tires shown in FIG.
また植物情報収集装置1の移動領域552には、第1実施形態と同様に撮影領域と移動経路が保存される。
但し、対象植物が規則正しく格子状に植えられている第1実施形態で説明した梨園と異なり、対象となる杉は任意位置に存在している。このため、第2実施形態では杉の木を避けながら撮影領域全体の杉を撮影できる移動経路が移動領域552に保存される。
Further, in the
However, unlike the pear orchard described in the first embodiment where the target plants are regularly planted in a grid pattern, the target cedars are located at arbitrary positions. Therefore, in the second embodiment, a moving route that allows the user to photograph the cedars in the entire photographing area while avoiding the cedar trees is stored in the moving
次に、植物情報収集装置1から出力される杉の収集植物情報553を取得して、植物育成状態判定装置100で杉花粉の飛散状況を推測する処理について説明する。
この第2実施形態において、記憶部180に保存される判定条件183としては、「本数」、「分類条件」、「重み」、「計算式」等が規定されている。
Next, a process of acquiring the collected
In the second embodiment, as the
「本数」は、撮影領域内に存在する調査対象となる杉の本数で40本と決められている。この40本は、撮影領域内に存在する予め決められた40本であるが、任意に抽出した40本を対象にすることも可能である。調査対象である40本が予め決められている場合には、調査対象であることを画像認識するための識別票が杉に付けられる。 The "number" is the number of cedar trees to be surveyed that exist within the photographing area, and is determined to be 40. These 40 lines are predetermined 40 lines that exist within the imaging area, but it is also possible to use 40 arbitrarily extracted lines as the target. When 40 trees are determined in advance to be surveyed, an identification tag is attached to each cedar tree for image recognition to identify the cedars as survey targets.
「分類条件」は、各杉の木における雄花の着生状況によって杉の木をA~Dに分類する為の条件である。分類A~Dは次の通り規定されている。
分類A:雄花が杉の樹冠の全面に着生し、かつ雄花群の密度が非常に高い個体
分類B:雄花が樹冠のほぼ全面に着生している個体
分類C:雄花が樹冠に疎らに着生、又は樹冠の限られた部分に着生している個体
分類D:雄花が観察されない個体
本実施形態では、分類A~Dについて、杉の木の樹冠部分から画像認識によって求まる雄花密度Qから決定する。雄花密度Qは、針葉部分である緑領域Gに対する雄花部分である黄色領域Yの割合いで、Q=(Y/G)×100である。
雄花密度Qは、40%以上である場合にA、10%以上~40%未満である場合にB、1%以上~10%未満である場合にC、1%未満である場合にDに分類するように規定されている。各分類に対応する雄花密度Qの密度範囲は、本実施形態で採用している一例であり、各観測地域の状況(寒冷地、温暖地、高地、平地等)などに応じて、密度範囲が条件1、条件2、…毎に決められ、図11のステップ20(判定条件取得)の際に決定するようになっている。
The "classification conditions" are conditions for classifying cedar trees into A to D based on the status of male flower formation on each cedar tree. Classifications A to D are defined as follows.
Classification A: Individuals with male flowers growing on the entire crown of the cedar tree and a very high density of male flower clusters Classification B: Individuals with male flowers growing on almost the entire crown of the tree Category C: Male flowers are scattered on the crown of the tree Individuals that are epiphytic or epiphytic on a limited part of the tree crown Class D: Individuals where male flowers are not observed In this embodiment, male flower density Q determined from the crown part of the cedar tree by image recognition for classifications A to D. Determine from. The male flower density Q is the ratio of the yellow area Y, which is the male flower part, to the green area G, which is the needle leaf part, and is Q=(Y/G)×100.
Male flower density Q is classified as A if it is 40% or more, B if it is 10% or more and less than 40%, C if it is 1% or more and less than 10%, and D if it is less than 1%. It is stipulated to do so. The density range of male flower density Q corresponding to each classification is an example adopted in this embodiment, and the density range may vary depending on the conditions of each observation region (cold region, warm region, highland, flatland, etc.). It is determined for each
「重み」は、各分類条件に付けられた重みの値で、分類Aが100、分類Bが50、分類Cが10、分類Dが0である。 "Weight" is a weight value given to each classification condition, and is 100 for classification A, 50 for classification B, 10 for classification C, and 0 for classification D.
「計算式」は、雄花指数Dを使用して、花粉生産量KHを算出する式である。
雄花指数Dは、雄花着生状態を表し、次の式(2)から算出される。
雄花指数D=(Aの本数×100)+(Bの本数×50)+(Cの本数×10)+(Dの本数×0)…(2)
The "calculation formula" is a formula for calculating the pollen production amount KH using the male flower index D.
The male flower index D represents the state of male flower formation and is calculated from the following equation (2).
Male flower index D = (Number of A x 100) + (Number of B x 50) + (Number of C x 10) + (Number of D x 0)...(2)
花粉生産量KHは、杉林内において発生(生産)される単位面積(1平方m)当りの雄花の数を推定する式であり、例えば、次の式(3)、式(4)がユーザにより選択される判定条件に規定されている。
最初の式(3)は次の通りである。
花粉生産量KH=0.1452×D+134.79…(3)
数式(3)における、決定係数R{2}(R{2}はRの2乗)は、R{2}=0.9177であり、雄花指数Dと花粉生産量KHとの間に強い相関関係が認められる。
The pollen production amount KH is a formula for estimating the number of male flowers generated (produced) per unit area (1 square meter) in a cedar forest.For example, the following formulas (3) and (4) can be calculated by the user. It is specified in the selected judgment condition.
The first equation (3) is as follows.
Pollen production amount KH=0.1452×D+134.79…(3)
In formula (3), the coefficient of determination R{2} (R{2} is the square of R) is R{2}=0.9177, and there is a strong correlation between the male flower index D and the pollen production KH. A relationship is recognized.
次の式(4)は次の通りである。
花粉生産量KH=0.9934×E+0.5842…(4)
式(4)における決定係数R{2}は0.9246であり、この式(4)においても雄花指数Dと花粉生産量KHとの間に強い相関関係が認められる。
なお、この式(4)において、Eは第2雄花指数で、分類Aの本数を調査対象数Z(=40本)で除算(Aの本数/Z)した値をAランク率として、次の式(5)で表される。
第2雄花指数E=雄花指数D×(1+Aランク率)…(5)
The following equation (4) is as follows.
Pollen production amount KH=0.9934×E+0.5842…(4)
The coefficient of determination R{2} in equation (4) is 0.9246, and a strong correlation is recognized between male flower index D and pollen production KH in equation (4) as well.
In addition, in this formula (4), E is the second male flower index, and the value obtained by dividing the number of classification A by the number of survey subjects Z (= 40) (number of A / Z) is the A rank rate, and the following It is expressed by formula (5).
Second male flower index E = male flower index D × (1 + A rank rate)... (5)
第2実施形態では、図11に示した育成状態判定処理のステップ20~ステップ24は実施形態と同様に処理される。
一方、図12の状態判定処理(図11のステップ25)においてCPU110は、まず、合成した可視画像から対象となる40本の杉の抽出を行う。
次にCPU110は、抽出した対象杉毎の雄花密度Qを画像解析により求め、A~Dに分類すると共に、各分類A~Dの本数を計数する。
更にCPU110は、判定条件として選択された式(3)又は式(4)を使用して単位面積当りの花粉生産量KHを推定し、植物育成状態判定情報184に保存して処理を終了する。
In the second embodiment, steps 20 to 24 of the growth state determination process shown in FIG. 11 are processed in the same manner as in the embodiment.
On the other hand, in the state determination process in FIG. 12 (step 25 in FIG. 11), the
Next, the
Further, the
以上第2実施形態による花粉生産量KHの推定は、例えば、市町村単位、都道府県単位というように、特定のまとまった領域内において複数箇所(複数の撮影領域)に対して行うことが好ましい。そして、複数の撮影領域に対して算出した花粉生産量KHを総合して、翌春における地方毎、領域毎の花粉飛散量を予想する。 The estimation of the pollen production amount KH according to the second embodiment is preferably performed at a plurality of locations (a plurality of imaging regions) within a specific area, for example, on a city, town or village basis or on a prefecture basis. Then, by integrating the pollen production amounts KH calculated for a plurality of photographic regions, the pollen scattering amount for each region and region in the next spring is predicted.
以上第2実施形態では、杉の花粉生産量KHを推定する場合について説明したが、桧の花粉生産量についても杉と同様にして求めることが可能である。
但し、判定条件183は桧に対する調査結果から求めた条件が使用される。
In the second embodiment, a case has been described in which the pollen production amount KH of cedar is estimated, but the pollen production amount of cypress can also be determined in the same manner as for cedar.
However, as the
以上、可視画像132を使用して梨の収穫量や花粉生産量を推定する場合について説明した。
次に、第3実施形態として、植物情報収集装置1で撮影したMS画像133を使用した植物の育成状態の判定について説明する。
第3実施形態では、植物育成状態の判定を可能にするため、MS画像133を使用して植物の育成状態をNDVI画像により可視化する。
すなわち、植物の葉の中に含まれるクロロフィルは、赤色の光を吸収する一方で、近赤外領域の波長は強く反射する特性がある。この植生が有する特性を活かし、MS画像(赤色光画像と近赤外光画像)における赤波長(Red)と近赤外波長(NIR)の値を用いて正規化植生指数(NDVI)を算出し、正規化植生指数の分布状態を表すNDVI画像を作成することで、植物の活性度の高低をNDVI値の色の違いや、濃淡の違いなどで可視化する。
例えば、本実施形態のNDVI画像では、正規化植生指数が高いほど植物の活性度が高いことを表し、緑の部分はNDVIの値が高いところ、赤の部分は低いところを表す。
The case where the
Next, as a third embodiment, determination of the growth state of a plant using the
In the third embodiment, in order to enable determination of the plant growth state, the
That is, chlorophyll contained in plant leaves has the characteristic of absorbing red light but strongly reflecting wavelengths in the near-infrared region. Taking advantage of the characteristics of this vegetation, the normalized vegetation index (NDVI) is calculated using the values of red wavelength (Red) and near-infrared wavelength (NIR) in MS images (red light image and near-infrared light image). By creating an NDVI image that represents the distribution state of the normalized vegetation index, the level of activity of plants can be visualized by different colors and shades of NDVI values.
For example, in the NDVI image of this embodiment, the higher the normalized vegetation index, the higher the activity level of the plants, and green parts represent areas where the NDVI value is high, and red areas represent areas where the NDVI value is low.
第3実施形態では、収集植物情報を使用して正規化植生指数を算出するが、異なる日時に収集した正規化植生指数から過去と現在との差分を抽出することで、撮影範囲である圃場内における植生の変化があった位置、範囲、程度を容易に確認することができる。
また、所定の間隔(例えば、1週間毎、10日毎、毎月等)で複数回算出することで、植物の育成状態の変化を含めて把握することができ、例えば、施肥のタイミングや範囲、収穫の時期などを把握する場合に有用である。
本実施形態によれば、植物情報収集装置1で収集した、日没後に地面側から照明をした状態で撮影したMS画像133を使用しているので、画像の背景に土壌が存在しないので、背景土壌の影響を回避することが可能になる。
In the third embodiment, a normalized vegetation index is calculated using the collected plant information, and by extracting the difference between the past and present from the normalized vegetation index collected on different dates and times, The location, range, and extent of changes in vegetation can be easily confirmed.
In addition, by calculating multiple times at predetermined intervals (for example, every week, every 10 days, every month, etc.), it is possible to understand changes in the growth status of plants, such as the timing and range of fertilization, harvest This is useful when understanding the timing of
According to this embodiment, since the
なお、植物情報収集装置1によるMS画像133の撮影は第1実施形態で説明しているので、この第3実施形態では、育成状態判定プログラム181による、MS画像133を使用した植物育成状態判定について説明する。
第3実施形態では、植物情報収集装置1のMSカメラ46では、赤色光ライト47で照射した赤色光による赤色光画像と、近赤外光ライト48の照射による近赤外光画像の二種類が各撮影位置で撮影されている。
そして、CPU110は、赤色光画像と近赤外光画像の各々について撮影位置修正から画像の合成までを行い(ステップ22~ステップ24)、状態判定処理(ステップ25)において、合成した両画像を使用して正規化植生指数(NDVI)画像を作成する。
In addition, since the photographing of the
In the third embodiment, the
Then, the
状態判定処理(ステップ25)において、CPU110は、MS画像133における赤色光画像と近赤外光画像の対応する画素毎に、赤色バンドのピクセル値Redと近赤外バンドのピクセル値NIRを取得し、各画素の正規化植生指数(NDVI)を次の式(6)から求め、RAM130の判定結果138に保存する。
NDVI=(NIR-Red)/(NIR+Red)…(6)
式(6)において、各画素におけるNDVIの値は、-1~+1の範囲となる。
In the state determination process (step 25), the
NDVI=(NIR-Red)/(NIR+Red)...(6)
In equation (6), the value of NDVI at each pixel is in the range of -1 to +1.
なお、次の式(7)によりデータの出力範囲を0~200の範囲に整数化(8ビット)することも可能である。
整数化NDVI=(NDVI+1.0)×100…(7)
Note that it is also possible to convert the data output range into an integer (8 bits) in the range of 0 to 200 using the following equation (7).
Integerized NDVI=(NDVI+1.0)×100...(7)
式(6)、(7)で求めたNDVI、整数化NDVIは、数値が大きいほど、植生が多いという結果になる。
そしてNDVI画像(正規化NDVI画像を含む、以下同じ)では、正規化植生指数が高いほど植物の活性度が高いことを表し、この活性度の高さを色の違いや、濃淡の違いなどで可視化する。
例えば、正規化植生指数を緑~赤の範囲で画像表示し、緑の部分は活性化植生指数の値が高いところを、赤の部分は低いところを表す。
The larger the numerical value of the NDVI and integerized NDVI calculated using equations (6) and (7), the more vegetation there is.
In NDVI images (including normalized NDVI images, the same applies hereinafter), the higher the normalized vegetation index, the higher the activity of plants. Visualize.
For example, the normalized vegetation index is displayed as an image in the range of green to red, with green areas representing areas where the activated vegetation index value is high and red areas representing areas where the value is low.
なお、植生の指標として、上記式(6)、(7)の他に、別の定義を使用することも可能である。
例えば、次の式(8)で表される比植生指標を求めて植物の育成状態の把握、判定を行うことも可能である。
比植生指標=NIR/Red…(8)
Note that, in addition to the above equations (6) and (7), other definitions can also be used as indicators of vegetation.
For example, it is also possible to obtain a specific vegetation index expressed by the following equation (8) to understand and judge the growing state of plants.
Specific vegetation index = NIR/Red…(8)
以上、本発明の植物情報収集装置1、植物育成状態判定装置100における実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各請求項に記載した範囲において各種の変形を行うことが可能である。
例えば、本実施形態の植物情報収集装置1では、図2(a)、(b)に示すように、判断する植物の状態(収集する植物情報)に応じて、基台2上の情報収集部4(カメラと照明)を変更する場合について説明した。
これに対し、基台2上に、位置検出装置40、RGBカメラ41A、41b、LEDライト42A、42B、MSカメラ46A、46B、赤色光ライト47A、47B、近赤外光ライト48A、48Bを配置するようにしてもよい。
これにより、情報収集部4を交換することなく、各種情報を収集することが可能になる。
Although the embodiments of the plant
For example, in the plant
On the other hand, a
This makes it possible to collect various types of information without replacing the
また説明した実施形態では、RAM53に保存した可視画像532又は/及びMS画像533、並びに位置情報GN534を植物情報としてUSBメモリ等の外部に出力し、植物育成状態判定装置100で各画像データに含まれる撮影位置GK(図4(b)参照)を正確な撮影位置を示す位置情報GNに変更する場合について説明した。
これに対して、植物情報収集装置1のCPU51が、可視画像532、MS画像533に含まれる撮影位置GKを、位置情報GNを使用して撮影位置GNに変更するようにしてもよい。
この場合、CPU51は、ステップ16(図5参照)において位置検出装置40から位置情報GNを取得する毎に、図4(b)で説明した撮影位置GKを撮影位置GNに変更する。
このため、位置情報GN534はRAM53に保存されず、外部出力され、記憶部55に保存される収集植物情報553にも位置情報GN534は含まれない。
Furthermore, in the described embodiment, the
On the other hand, the
In this case, each time the
Therefore, the position information GN534 is not stored in the
そして、植物育成状態判定装置100では、既に撮影位置GNに変更された収集植物情報182(可視画像132、MS画像133)を取得しているので、ステップ22の撮影位置修正の処理は不要である。
Since the plant growth
また、実施形態の植物情報収集装置1では、より正確な撮影位置を取得するために、位置検出装置40を配設したが、RGBカメラ41やMSカメラ46が精度の高い撮影位置GKを取得可能である場合には、当該両カメラの位置情報GKを使用するようにしてもよい。この場合、位置検出装置40は不要であり、位置情報GNによる撮影位置GKの変更も不要である。
In addition, in the plant
さらに実施形態では、植物情報収集装置1により画像データ等による植物情報を収集し、収集した植物情報を用いて収穫量や育成状況、花粉量等についての判定を植物育成状態判定装置100において行う場合について説明した。
これに対し、植物育成状態判定装置100の構成や判定機能を植物情報収集装置1が備えるようにし、植物情報収集装置1において植物情報の収集と、収集した植物情報を使用して植物の育成状態を判定するようにしてもよい。
Further, in the embodiment, the plant
In contrast, the plant
また説明した実施形態では、斜め前方と斜め右方に傾斜した2組のカメラと照明のセットを情報収集部4に配置し、梨園やぶどう園等のように、対象植物が所定間隔で格子状に植えられている領域において、対象植物が植えられている各行間、各列間を移動部3で往復移動しながら撮影する場合について説明した。
これに対し、情報収集部4に、斜め前方、斜め右方の2組に加え、更に斜め後方、斜め左方の2組の合計4組のカメラと照明のセットを配置した場合には、対象植物の各行間、各列間を1回移動(2列、2行で1往復)するようにしてもよい。
Furthermore, in the described embodiment, two sets of cameras and lights tilted diagonally forward and diagonally right are arranged in the
On the other hand, if the
なお、本実施形態については次のように構成することも可能である。
(1)構成1の実施形態では、植物を地面側から照明する照明手段と、前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、前記撮影手段で撮影した位置情報を取得する位置情報取得手段と、前記撮影手段で撮影した画像と前記取得した位置情報を出力する出力手段と、を備えたことを特徴とする植物情報収集装置を提供する。
(2)構成2の実施形態では、前記照明手段は、鉛直上方を基準にして所定方向に傾斜した方向を照明し、前記撮影手段は、前記所定方向に傾斜した方向を撮影する、ことを特徴とする構成1に記載の植物情報収集装置を提供する。
(3)構成3の実施形態では、前記所定方向の傾斜角度は20度から30度の範囲である、ことを特徴とする構成2に記載の植物情報収集装置を提供する。
(4)構成4の実施形態では、前記照明手段は第1照明装置と第2照明装置を有し、前記第1照明装置の前記傾斜した方向と、前記第2照明装置の前記傾斜した方向とが直行し、前記撮影手段は第1撮影装置と第2撮影装置を有し、前記第1撮影装置の前記傾斜した方向と、前記第2撮影装置の前記傾斜した方向とが直行している、ことを特徴とする構成2又は構成3に記載の植物情報収集装置を提供する。
(5)構成5の実施形態では、前記照明手段は、可視光を植物に照明し、前記撮影手段は、植物の可視画像を撮影する、ことを特徴とする構成1から構成4のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(6)構成6の実施形態では、前記照明手段は、赤色光と近赤外光を植物に照明し、前記撮影手段は、植物のマルチスペクトル画像を撮影する、ことを特徴とする構成1から構成4のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(7)構成7の実施形態では、前記照明手段、前記撮影手段、前記位置情報取得手段、及び前記出力手段を搭載する基台部と、前記基台部を植物の地面側で移動させる移動手段と、を具備したことを特徴とする構成1から構成6のうちのいずれか1の構成に記載の植物情報収集装置。
(8)構成8の実施形態では、前記移動手段は、地面上を転動するタイヤ、自動走行車両、ドローン、又は押されることで転動する車輪、であることを特徴とする構成7に記載の植物情報収集装置を提供する。
(9)構成9の実施形態では、前記撮影手段で撮影した画像から所定の特徴点を抽出する特徴点抽出手段と、前記位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、前記合成した画像を出力する合成画像出力手段と、を備えることを特徴とする構成1から構成8のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(10)構成10の実施形態では、構成1から構成9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得手段と、前記取得した画像から所定の特徴点を抽出する特徴点抽出手段と、前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定手段と、を備えることを特徴とする植物育成状態判定装置を提供する。
(11)構成11の実施形態では、構成1から構成9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得機能と、前記取得した画像から所定の特徴点を抽出する特徴点抽出機能と、前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成機能と、前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定機能と、をコンピュータに実現させるための植物育成状態判定プログラムを提供する。
Note that this embodiment can also be configured as follows.
(1) In the embodiment of
(2) The embodiment of
(3) The embodiment of configuration 3 provides the plant information collecting device according to
(4) In the embodiment of
(5) In the embodiment of
(6) In the embodiment of
(7) In the embodiment of configuration 7, a base section on which the illumination means, the photographing means, the position information acquisition means, and the output means are mounted, and a moving means for moving the base section on the ground side of the plant. A plant information collection device according to any one of
(8) In the embodiment of configuration 8, as described in configuration 7, the moving means is a tire that rolls on the ground, an automatic vehicle, a drone, or a wheel that rolls when pushed. We provide plant information collection equipment.
(9) In the embodiment of configuration 9, the feature point extraction means extracts predetermined feature points from the image photographed by the photographing means, and the image is synthesized by comparing the feature points of adjacent images with the position information. The present invention provides a plant information collection device according to any one of
(10) In the embodiment of configuration 10, an image information acquisition means for acquiring an image output from the plant information collection device according to any one of
(11) In the embodiment of configuration 11, an image information acquisition function that acquires an image output from the plant information collection device according to any one of
また果実の収穫量を推定する実施形態として次のように構成することも可能である。
(21)構成21の実施形態では、開花状態にある対象果樹を撮影した可視画像を取得する可視画像取得手段と、前記対象果樹に対して規定された、花と収穫果実数との関係を規定した判定条件を取得する条件取得手段と、前記取得した判定条件に従って、前記可視画像から花の状態を取得する花状態取得手段と、前記取得した判定条件に従って、前記取得した花状態に対応する果実の収穫量を推定する推定手段と、前記推定した収穫量を出力する出力手段と、を具備したことを特徴とする収穫量推定装置を提供する。
(22)構成22の実施形態では、前記可視画像取得手段は、日没後に前記対象果樹を照明した状態で地面側から撮影した可視画像を取得する、ことを特徴とする構成21に記載の収穫量推定装置を提供する。
(23)構成23の実施形態では、前記対象果樹を梨とし、前記条件取得手段は、花叢と収穫数との関係を梨の判定条件として取得し、前記花状態取得手段は、前記可視画像から花の状態として花叢数を取得し、前記推定手段は、取得した花叢数に対応する梨の収穫数を前記判定条件に従って推定する、ことを特徴とする構成21又は構成22に記載の収穫量推定装置を提供する。
(24)構成24の実施形態では、前記条件取得手段は、さらに枝の先端から所定数の花叢の収穫数をゼロとする判定条件を取得する、ことを特徴とする構成23に記載の収穫量推定装置を提供する。
(25)構成25の実施形態では、梨等の果樹を前記対象果樹として、果樹毎に花と収穫果実数との関係を規定した判定条件を記憶する条件記憶手段を備え、前記条件取得手段は、前記取得した可視画像に対応して指定された判定条件を取得する、ことを特徴とする構成21又は請求項22に記載の収穫量推定装置。
(26)構成26の実施形態では、前記条件記憶手段に記憶された判定条件は、各果樹に対して複数の判定条件が規定されている、ことを特徴とする構成25に記載の収穫量推定装置。
(27)構成27の実施形態では、開花状態にある対象果樹を撮影した可視画像を取得する可視画像取得機能と、前記対象果樹に対して規定された、花と収穫果実数との関係を規定した判定条件を取得する条件取得機能と、前記取得した判定条件に従って、前記可視画像から花の状態を取得する花状態取得機能と、前記取得した判定条件に従って、前記取得した花状態に対応する果実の収穫量を推定する推定機能と、前記推定した収穫量を出力する出力機能と、をコンピュータに実現させるための収穫量推定プログラムを提供する。
Furthermore, it is also possible to configure the following embodiment as an embodiment for estimating the yield of fruit.
(21) In the embodiment of configuration 21, a visible image acquisition means for acquiring a visible image of a target fruit tree in a flowering state, and a relationship between flowers and the number of harvested fruits defined for the target fruit tree are defined. a condition acquisition means for acquiring a determination condition obtained from the above-mentioned determination condition; a flower state acquisition means for acquiring a flower condition from the visible image according to the acquired determination condition; and a fruit corresponding to the acquired flower condition according to the acquired determination condition. A harvest amount estimating device is provided, comprising: an estimating means for estimating a harvest amount; and an output means for outputting the estimated harvest amount.
(22) In the embodiment of configuration 22, the harvesting according to configuration 21, wherein the visible image acquisition means acquires a visible image photographed from the ground side with the target fruit tree illuminated after sunset. A quantity estimation device is provided.
(23) In the embodiment of configuration 23, the target fruit tree is a pear, the condition acquisition means acquires the relationship between the flower cluster and the number of harvests as the determination condition for the pear, and the flower state acquisition means acquires the relationship between the flower cluster and the number of harvests from the visible image. Yield estimation according to configuration 21 or configuration 22, characterized in that the number of flower clusters is acquired as the state of flowers, and the estimating means estimates the harvested number of pears corresponding to the acquired number of flower clusters according to the determination condition. Provide equipment.
(24) In the embodiment of configuration 24, the condition acquisition means further acquires a determination condition that sets the number of harvests of a predetermined number of flower clusters from the tips of branches to zero, the yield amount according to configuration 23. An estimation device is provided.
(25) In the embodiment of configuration 25, the target fruit tree is a fruit tree such as a pear, and the condition storage means stores a determination condition that defines the relationship between flowers and the number of harvested fruits for each fruit tree, and the condition acquisition means 23. The harvest amount estimating device according to configuration 21 or claim 22, wherein a determination condition specified in correspondence with the acquired visible image is acquired.
(26) In the embodiment of configuration 26, the yield estimation according to configuration 25, wherein the determination conditions stored in the condition storage means include a plurality of determination conditions defined for each fruit tree. Device.
(27) In the embodiment of configuration 27, a visible image acquisition function that acquires a visible image of a target fruit tree in a flowering state, and a relationship between flowers and the number of harvested fruits defined for the target fruit tree are defined. a condition acquisition function that acquires a determination condition that has been obtained, a flower state acquisition function that acquires a flower state from the visible image according to the acquired determination condition, and a fruit that corresponds to the acquired flower state according to the acquired determination condition. The present invention provides a yield estimation program for causing a computer to realize an estimation function for estimating the yield of , and an output function for outputting the estimated yield.
1 植物情報収集装置
2 基台
3 移動部
4 情報収集部
5 制御部
6 電源
40 位置検出装置
41 RGBカメラ
42 LEDライト
46 MSカメラ
47 赤色光ライト
48 近赤外光ライト
50 照明用スイッチ
51 CPU
52 ROM
53 RAM
531 撮影情報
532 可視画像
533 MS画像
534 位置情報GN
54 入出力部
55 記憶部
551 植物情報収集プログラム
552 移動領域
553 収集植物情報
56 通信制御部
100 植物育成状態判定装置
110 CPU
120 ROM
130 RAM
132 可視画像
133 MS画像
134 位置情報GN
136 特徴点
137 合成画像
138 判定結果
140 USB端子
150 入力部
160 表示装置
170 通信制御部
180 記憶部
181 育成状態判定プログラム
182 収集植物情報
183 判定条件
184 植物育成状態判定情報
α 傾斜角
β 傾斜角
D、E 雄花指数
F 分岐点
G 緑領域
GK 撮影位置
GN 位置情報
H 節
KS1~KS3 花叢
PL 木
Q 雄花密度
R 決定係数
U 花叢の果数
RL、RR 範囲線
S 光軸
T 収穫量
s1、s2 撮影間隔
V 鉛直線
W 対象花叢数
KH 花粉生産量
p1、p2 撮影位置
1 Plant
52 ROM
53 RAM
531
54 Input/
120 ROM
130 RAM
132
136
Claims (11)
前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、
前記撮影手段で撮影した位置情報を取得する位置情報取得手段と、
前記撮影手段で撮影した画像と前記取得した位置情報を出力する出力手段と、
を備えたことを特徴とする植物情報収集装置。 illumination means for illuminating plants from the ground side;
Photographing means for photographing the growing state of the plants illuminated by the illumination means from the ground side;
position information acquisition means for acquiring position information photographed by the photographing means;
output means for outputting an image photographed by the photographing means and the acquired position information;
A plant information collection device comprising:
前記撮影手段は、前記所定方向に傾斜した方向を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。 The illumination means illuminates a direction inclined in a predetermined direction with respect to a vertically upward direction,
The photographing means photographs a direction inclined to the predetermined direction.
The plant information collection device according to claim 1, characterized in that:
ことを特徴とする請求項2に記載の植物情報収集装置。 The angle of inclination in the predetermined direction is in the range of 20 degrees to 30 degrees.
3. The plant information collection device according to claim 2.
前記撮影手段は第1撮影装置と第2撮影装置を有し、前記第1撮影装置の前記傾斜した方向と、前記第2撮影装置の前記傾斜した方向とが直行している、
ことを特徴とする請求項2に記載の植物情報収集装置。 The illumination means includes a first illumination device and a second illumination device, the inclined direction of the first illumination device and the inclined direction of the second illumination device are perpendicular to each other,
The photographing means has a first photographing device and a second photographing device, and the inclined direction of the first photographing device and the inclined direction of the second photographing device are perpendicular to each other.
3. The plant information collection device according to claim 2.
前記撮影手段は、植物の可視画像を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。 The illumination means illuminates the plant with visible light,
The photographing means photographs a visible image of the plant.
The plant information collection device according to claim 1, characterized in that:
前記撮影手段は、植物のマルチスペクトル画像を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。 The illumination means illuminates the plant with red light and near-infrared light,
The photographing means photographs a multispectral image of the plant.
The plant information collection device according to claim 1, characterized in that:
前記基台部を植物の地面側で移動させる移動手段と、
を具備したことを特徴とする請求項1に記載の植物情報収集装置。 a base portion on which the illumination means, the photographing means, the position information acquisition means, and the output means are mounted;
a moving means for moving the base on the ground side of the plant;
The plant information collection device according to claim 1, further comprising:
であることを特徴とする請求項7に記載の植物情報収集装置。 The moving means includes tires that roll on the ground, an automatic vehicle, a drone, or wheels that roll when pushed.
8. The plant information collection device according to claim 7.
前記位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、
前記合成した画像を出力する合成画像出力手段と、
を備えることを特徴とする請求項1に記載の植物情報収集装置。 feature point extraction means for extracting predetermined feature points from the image photographed by the photographing means;
image synthesis means for synthesizing images by comparing feature points of images with adjacent position information;
a composite image output means for outputting the composite image;
The plant information collection device according to claim 1, comprising:
前記取得した画像から所定の特徴点を抽出する特徴点抽出手段と、
前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、
前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定手段と、
を備えることを特徴とする植物育成状態判定装置。 Image information acquisition means for acquiring images and photographing position information output from the plant information collection device according to any one of claims 1 to 9;
Feature point extraction means for extracting predetermined feature points from the acquired image;
image synthesis means for synthesizing images by comparing feature points of images with adjacent shooting position information;
A growing state determining means for determining the growing state of the plant photographed by the plant information collecting device from the combined image;
A plant growth state determination device comprising:
前記取得した画像から所定の特徴点を抽出する特徴点抽出機能と、
前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成機能と、
前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定機能と、
をコンピュータに実現させるための植物育成状態判定プログラム。 an image information acquisition function that acquires an image and photographing position information output from the plant information collection device according to any one of claims 1 to 9;
a feature point extraction function that extracts predetermined feature points from the acquired image;
an image synthesis function that synthesizes images by comparing feature points of images with adjacent shooting position information;
a growth state determination function that determines the growth state of the plant photographed by the plant information collection device from the combined image;
A plant growth status determination program that allows computers to realize this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022092575A JP2023179319A (en) | 2022-06-07 | 2022-06-07 | Plant information collection device, plant growth state determination device, and plant growth state determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022092575A JP2023179319A (en) | 2022-06-07 | 2022-06-07 | Plant information collection device, plant growth state determination device, and plant growth state determination program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023179319A true JP2023179319A (en) | 2023-12-19 |
Family
ID=89199498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022092575A Pending JP2023179319A (en) | 2022-06-07 | 2022-06-07 | Plant information collection device, plant growth state determination device, and plant growth state determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023179319A (en) |
-
2022
- 2022-06-07 JP JP2022092575A patent/JP2023179319A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Torres-Sánchez et al. | Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis | |
US11647701B2 (en) | Plant treatment based on morphological and physiological measurements | |
US20230292647A1 (en) | System and Method for Crop Monitoring | |
BR112019009958A2 (en) | method and system for estimating crop yields | |
CN108140118A (en) | For identifying the method and information system of at least one plant plant being planted on arable land | |
WO2021258359A1 (en) | Method and apparatus for determining crop planting information, and computer storage medium | |
Iqbal et al. | Poppy crop capsule volume estimation using UAS remote sensing and random forest regression | |
KR102479284B1 (en) | Vegetation index acquisition unit and apparatus for monitoring plant comprising the same | |
CN106683092B (en) | Device and method for measuring and calculating crown canopy density of blueberries | |
Sangjan et al. | Phenotyping architecture traits of tree species using remote sensing techniques | |
Ma et al. | A method of calculating phenotypic traits for soybean canopies based on three-dimensional point cloud | |
JP2023179319A (en) | Plant information collection device, plant growth state determination device, and plant growth state determination program | |
JP2023179320A (en) | Yield estimation device and yield estimation program | |
Negrete | Artificial vision in Mexican agriculture, a new techlogy for increase food security | |
Kurtser et al. | RGB-D datasets for robotic perception in site-specific agricultural operations—A survey | |
Liakos et al. | Use of NDVI to predict yield variability in a commercial apple orchard | |
US20220222819A1 (en) | Crop view and irrigation monitoring | |
Engler et al. | PHENOquad: A new multi sensor platform for field phenotyping and screening of yield relevant characteristics within grapevine breeding research | |
Ouyang | The Applications of UAV and Ground Digital Imagery Analysis for Monitoring Grapevine Canopy in Vineyard | |
Moreno et al. | Image analysis aplications in precision agriculture | |
JP2023135998A (en) | Information processor, information processing method, and program | |
WO2024069631A1 (en) | Plant phenotyping | |
KR20230029351A (en) | Method for imaging and analysis of unmanned aerial vehicles for the observation of crop cultivation area and growth conditions | |
Raman | Sensor-Based Evaluation of Architectural Traits in Tree Fruits | |
Pizzitola | Assessing berry number for grapevine yield estimation by image analysis: case study with the white variety “Encruzado” |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20231020 |