JP2023179319A - Plant information collection device, plant growth state determination device, and plant growth state determination program - Google Patents

Plant information collection device, plant growth state determination device, and plant growth state determination program Download PDF

Info

Publication number
JP2023179319A
JP2023179319A JP2022092575A JP2022092575A JP2023179319A JP 2023179319 A JP2023179319 A JP 2023179319A JP 2022092575 A JP2022092575 A JP 2022092575A JP 2022092575 A JP2022092575 A JP 2022092575A JP 2023179319 A JP2023179319 A JP 2023179319A
Authority
JP
Japan
Prior art keywords
plant
image
photographing
information collection
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022092575A
Other languages
Japanese (ja)
Inventor
暁 河原
Akira Kawahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gs Works Co Ltd
Original Assignee
Gs Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gs Works Co Ltd filed Critical Gs Works Co Ltd
Priority to JP2022092575A priority Critical patent/JP2023179319A/en
Publication of JP2023179319A publication Critical patent/JP2023179319A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cultivation Of Plants (AREA)

Abstract

To accurately determine plant growth conditions and fruit yields.SOLUTION: After sunset, target plants such as fruit trees are imaged from the ground side while illuminated from the ground side. Imaging the target plants from the ground side, rather than from an aerial view, can avoid the reflections of weeds or the like on the ground, and imaging them with illumination at night can also avoid shadowy images due to backlight. When capturing visible images of floral conditions in fruit trees and cedar etc., a set of an RGB camera and LED light is used, and when capturing multispectral images to determine the vegetative distribution and vitality, a set of an MS camera, red light, and near-infrared light is employed. One way to estimate fruit yield from visible images is, for example, counting the number of pear flower clusters from visible images of pears, acquiring the criteria that define the number of harvested fruits per cluster, and then estimating the yield.SELECTED DRAWING: Figure 1

Description

本発明は、植物情報収集装置、植物育成状態判定装置、及び植物育成状態判定プログラムに係り、例えば、植物の育成状況等を判断するための情報を収集する植物情報収集装置に関する。 The present invention relates to a plant information collection device, a plant growth state determination device, and a plant growth state determination program, and for example, to a plant information collection device that collects information for determining the growth state of plants.

農作物や果実などの育成状況を判断する場合、従来から現状の目視と経験則による判断が広く行われているが、目視による判断は労力とコスト面で大きな負担となっている。
そこで最近では、対象となる果樹等の状態を撮影した画像を解析することで、果実等の育成状況についての各種情報を収集する技術が開発されている。
例えば、農作物の収量を衛星画像を用いて推定したり(特許文献1)、調査対象である圃場が撮影された空撮画像を用いて収量推計を実施している(特許文献2)。
When determining the growth status of agricultural crops, fruits, etc., it has been widely used to visually observe the current situation and use empirical rules, but visual judgment is a large burden in terms of labor and cost.
Therefore, recently, technology has been developed to collect various information about the growth status of fruit trees, etc. by analyzing images taken of the condition of target fruit trees, etc.
For example, the yield of agricultural products is estimated using satellite images (Patent Document 1), or the yield is estimated using an aerial image taken of a field that is a survey target (Patent Document 2).

しかし、植物を撮影した画像情報を使用して当該植物の育成状況を知る場合、特許文献記載技術を含め、従来では、対象植物を上方から撮影した画像が使用されている。
このため撮影した画像には、例えば、対象となる植物以外に地上の雑草が写り込んでしまうため、正確な育成状態を知ることができないという問題があった。
また、森林をその上から撮影する場合には樹木の上部だけしか撮影できなかった。
However, when determining the growth status of a plant using image information obtained by photographing the plant, conventional methods, including techniques described in patent documents, use images obtained by photographing the target plant from above.
For this reason, the photographed image includes, for example, weeds on the ground in addition to the target plant, so there is a problem in that it is not possible to accurately determine the state of growth.
Furthermore, when photographing a forest from above, only the upper parts of the trees could be photographed.

一方、従来果実の育成状況として収穫量を推定する場合、開花状態の植物を撮影し、その撮影画像から花の数を計数し、計数した花の総数の多少により収穫量を予想している。
しかし、開花後行われる摘花、摘果により残された果実の量が実際の収穫量であるため、摘花や摘果を反映した収穫量の推定はしていなかった。
On the other hand, conventionally, when estimating the yield based on the growth status of fruit, a plant in a flowering state is photographed, the number of flowers is counted from the photographed image, and the yield is estimated based on the total number of flowers counted.
However, since the actual yield is the amount of fruit left after flower thinning and fruit thinning, the harvest amount was not estimated to reflect flower thinning and fruit thinning.

特開2011-167163号公報Japanese Patent Application Publication No. 2011-167163 特開2015-49号公報JP 2015-49 Publication

植物の育成状況をより精度よく判断することが可能な植物情報を収集することを第1の目的とする。
また、開花状態に基づく、より適切な果実の収穫量を推定することを第2の目的とする。
The first purpose is to collect plant information that allows more accurate judgment of the growth status of plants.
The second objective is to estimate a more appropriate fruit yield based on the flowering state.

本発明は、上記第1の目的を達成するために、植物を地面側から照明する照明手段と、前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、前記撮影手段で撮影した画像の撮影位置情報を取得する位置情報取得手段と、前記撮影手段で撮影した画像と前記取得した撮影位置情報を出力する出力手段と、を備えたことを特徴とする植物情報収集装置を提供する。 In order to achieve the above first object, the present invention provides an illumination means for illuminating a plant from the ground side, a photographing means for photographing the growing state of the plant illuminated by the illumination means from the ground side, and the photographing means A plant information collection device comprising: a position information acquisition means for acquiring photographing position information of an image photographed by the photographing means; and an output means for outputting the image photographed by the photographing means and the acquired photographing position information. I will provide a.

本発明によれば、植物を地面側から照明する照明手段と、照明された植物の育成状態を地面側から撮影する撮影手段とを備えているので、日没後に照明された植物を地面側から撮影することで、植物の育成状況をより精度よく判断することが可能な植物情報を収集することができる。 According to the present invention, the illumination means for illuminating plants from the ground side and the photographing means for photographing the growing state of the illuminated plants from the ground side are provided, so that the illuminated plants can be viewed from the ground side after sunset. By taking pictures, it is possible to collect plant information that can be used to more accurately judge the growth status of plants.

植物情報収集装置の外観構成を表した図である。1 is a diagram showing the external configuration of a plant information collection device. 情報収集部と制御部の配置関係を表した配置図である。FIG. 2 is a layout diagram showing the layout relationship between an information collection unit and a control unit. 傾斜させたカメラによる撮影範囲と傾斜角α、βについて表した説明図である。FIG. 2 is an explanatory diagram showing a shooting range of a tilted camera and tilt angles α and β. 制御部の構成と、その制御対象の一部を表した説明図である。FIG. 2 is an explanatory diagram showing the configuration of a control unit and a part of its controlled objects. 植物情報収集の処理手順を表したフローチャートである。It is a flowchart showing a processing procedure for collecting plant information. 梨園における、RGBカメラの撮影地点と撮影されたa画像、b画像の撮影範囲を表した説明図である。FIG. 2 is an explanatory diagram showing the photographing point of an RGB camera and the photographing range of the photographed images a and b in Pear Garden. RGBカメラで撮影した可視画像を表した説明図である。FIG. 2 is an explanatory diagram showing a visible image taken with an RGB camera. 植物の育成状態を判定する植物育成状態判定装置(収穫量推定装置)の構成を表した説明図である。FIG. 2 is an explanatory diagram showing the configuration of a plant growth state determination device (harvest amount estimation device) that determines the growth state of a plant. 可視画像に写されている花から果実の収穫量を推定するための判定条件を表す説明図である。FIG. 2 is an explanatory diagram showing determination conditions for estimating the yield of fruit from flowers shown in a visible image. 梨の開花状態を模式的に表した説明図である。FIG. 2 is an explanatory diagram schematically showing the blooming state of a pear. 育成状態判定処理について表したフローチャートである。It is a flow chart showing growth state determination processing. 状態判定処理(サブルーチン)を表すフローチャートである。It is a flowchart showing state determination processing (subroutine).

以下、本発明の植物情報収集装置、植物育成状態判定装置(収穫量推定装置)における好適な実施の形態について、図1から図12を参照して詳細に説明する。
(1)実施形態の概要
本実施形態の植物情報収集装置では、日没後(好ましくは夜間、以下同じ)において、地面側から対象となる果樹等の植物に照明を当てた状態で地面側から撮影するものである。
このように対象植物を上空からではなく、地面側から撮影することで、地面上の雑草などの写り込みを回避するとともに、夜間に照明を当てた状態で撮影することで、逆光による黒つぶれ画像を回避することが可能になる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a plant information collection device and a plant growth state determination device (harvest amount estimation device) of the present invention will be described in detail below with reference to FIGS. 1 to 12.
(1) Overview of the embodiment In the plant information collection device of the present embodiment, a target plant such as a fruit tree is photographed from the ground side after sunset (preferably at night, the same applies hereinafter) with the target plant such as a fruit tree illuminated from the ground side. It is something to do.
In this way, by photographing the target plant from the ground side rather than from above, you can avoid the reflection of weeds on the ground, and by photographing at night under lighting, you can reduce the amount of shadows caused by backlighting. becomes possible to avoid.

植物情報収集装置1は、基台2上に照明とカメラが上方向きに配設され、移動部(無人走行車両(UGV))3で、対象となる圃場内を往復移動、又は、格子状移動(縦横の往復移動)をしながら所定間隔での撮影を行う。
照明とカメラはセットになっており、判断する植物の状態に応じた照明、カメラが使用される。
例えば、果樹や杉などの花の状態を可視画像として撮影する場合には、可視画像を撮影するRGBカメラと、LEDライトのセットが使用される。
一方、植生の分布状況や活性度を知るためにマルチスペクトル画像を撮影する場合には、マルチスペクトル(以下、MSという)カメラと、赤色光(Red)ライト、近赤外光(NIR)ライトのセットが使用される。
植物育成状態判定装置(収穫量推定装置)では、可視画像から果実の収穫量を推定する例として、例えば、梨の可視画像から梨の花叢数を係数し、1花叢での収穫果数を規定する判定条件を取得して、収穫量を推定する。
The plant information collection device 1 has a lighting and a camera arranged on a base 2 facing upward, and a moving part (unmanned vehicle (UGV)) 3 moves back and forth within the target field or moves in a grid pattern. (move back and forth vertically and horizontally) while taking pictures at predetermined intervals.
Lights and cameras are included, and the lights and cameras are used depending on the condition of the plants being judged.
For example, when photographing the state of flowers such as fruit trees and cedar trees as visible images, a set of an RGB camera for photographing visible images and an LED light is used.
On the other hand, when taking multispectral images to understand the distribution and activity of vegetation, a multispectral (hereinafter referred to as MS) camera, a red light (Red) light, and a near-infrared light (NIR) light are used. set is used.
In a plant growth state determination device (harvest amount estimation device), as an example of estimating the fruit yield from a visible image, for example, the number of pear flower clusters is calculated from a visible image of a pear, and the number of fruits harvested in one flower cluster is determined. Obtain the judgment conditions to estimate the yield.

(2)実施形態の詳細
図1は、植物情報収集装置の外観構成を表した図である。
図1に示すように、植物情報収集装置1は、基台2、移動部3、情報収集部4、制御部5、電源6、その他の各部を備えている。
基台2は、情報収集部4、制御部5が載置される部分であり、収集する情報(可視画像、MS画像)に応じた情報収集部4に交換可能になっている。
(2) Details of the embodiment FIG. 1 is a diagram showing the external configuration of a plant information collection device.
As shown in FIG. 1, the plant information collection device 1 includes a base 2, a moving section 3, an information collection section 4, a control section 5, a power source 6, and other sections.
The base 2 is a part on which an information collection section 4 and a control section 5 are placed, and can be replaced with an information collection section 4 according to the information to be collected (visible image, MS image).

移動部3は、対象となる植物(例えば梨園の梨の木)と地面との間を、決められた領域内で所定方向に移動することで、基台部を植物の地面側で移動させる移動手段として機能する。
本実施形態の移動部3は、無人走行車両(Unmanned Ground Vehicle)により構成されている。この移動部3は、制御部5の制御に基づき、前後の移動やUターン等の各種動作が行われることで、予め座標指定された領域内を往復移動、又は格子状の移動をする。なお、移動部3は、例えば、梨園やぶどう園等のように、対象植物が所定間隔で格子状に植えられている領域の場合、対象植物が植えられている各行間、各列間を往復移動する。
移動部3は、基台2を移動させる4つのタイヤを備えているが、タイヤに代えて各種圃場に対応させるためのキャタピラーを備えるようにしてもよい。
The moving unit 3 serves as a moving means for moving the base part on the ground side of the plant by moving in a predetermined direction within a predetermined area between the target plant (for example, a pear tree in a pear orchard) and the ground. Function.
The moving unit 3 of this embodiment is configured by an unmanned ground vehicle. The moving unit 3 performs various operations such as forward and backward movement and U-turns under the control of the control unit 5, thereby reciprocating or moving in a lattice pattern within a predetermined coordinate area. In addition, in the case of an area where target plants are planted in a grid pattern at predetermined intervals, such as a pear orchard or a vineyard, the moving unit 3 moves back and forth between each row and each column where target plants are planted. Moving.
The moving unit 3 is equipped with four tires for moving the base 2, but instead of tires, it may be equipped with caterpillars for adapting to various fields.

本実施形態の移動部3は、無人走行車両で構成されるが、他に無人飛行を行うドローン(drone)や、人力で基台2を移動させるワゴン(wagon)を使用することも可能である。
いずれの場合も、情報収集部4は、基台2に対して上方の情報収集(撮影)が可能に配設される。
移動部3にドローンが使用される場合、対象植物の下側(地面側)を飛行するように制御部5で飛行制御が実行される。
一方、ワゴンが使用される場合、地上を移動するために3つ以上のタイヤ又は、キャタピラーが配置され、人力によりワゴンを押したり引くことで移動させる。この場合、ワゴンを移動させるためのハンドルを備えている。
The moving unit 3 of this embodiment is composed of an unmanned vehicle, but it is also possible to use a drone that flies unmanned or a wagon that moves the base 2 manually. .
In either case, the information collecting section 4 is arranged so as to be able to collect (photograph) information above the base 2.
When a drone is used as the moving unit 3, flight control is executed by the control unit 5 so that the drone flies below the target plant (on the ground side).
On the other hand, when a wagon is used, three or more tires or caterpillars are arranged to move the wagon on the ground, and the wagon is moved by pushing or pulling it with human power. In this case, a handle is provided for moving the wagon.

情報収集部4は、植物情報を収集するための機器として、対象植物を撮影するカメラと、撮影領域を照明する照明装置のセット、及び、撮影位置情報を取得する位置検出装置40を備えている。 The information collection unit 4 includes, as equipment for collecting plant information, a camera that photographs the target plant, a set of lighting devices that illuminates the photographed area, and a position detection device 40 that acquires photographing position information. .

位置検出装置40は、RGBカメラ41、MSカメラ46が備えているGPS受信装置で検出される位置情報よりも高い精度、すなわち、cmレベルでの位置情報を取得する。位置検出装置40は、GNSS(Global Navigation Satellite System)受信部と、基準局受信部を備えている(図示しない)。
基準局受信部は、予め正確に測量された基準局の位置情報と、基準局で受信したGNSSの観測データを、基準局データとして基準局から受信する。
位置検出装置40は、制御部5からの観測指示に基づいて、自装置のGNSS受信部による観測データと、基準局から受信した基準局データとから、植物情報収集装置1の位置情報GNを求めて制御部5に供給し、制御部5は位置情報GNをRAMに保存する。
The position detection device 40 acquires position information with higher accuracy than the position information detected by the GPS receiving device included in the RGB camera 41 and the MS camera 46, that is, at the cm level. The position detection device 40 includes a GNSS (Global Navigation Satellite System) receiving section and a reference station receiving section (not shown).
The reference station receiving unit receives from the reference station position information of the reference station that has been accurately surveyed in advance and GNSS observation data received by the reference station as reference station data.
Based on the observation instruction from the control unit 5, the position detection device 40 determines and controls the position information GN of the plant information collection device 1 from the observation data by the GNSS receiving unit of the own device and the reference station data received from the reference station. The control unit 5 stores the position information GN in the RAM.

なお、基準局は自身の位置情報とGNSSの観測データとから、GNSSの観測データに対する誤差情報を求めて位置検出装置40に送信するようにしてもよい。位置検出装置40では、GNSS受信部による観測データを基準局から受信する誤差情報を使用して補正することで正しい位置情報GNを求めて制御部5に供給する。 Note that the reference station may calculate error information for the GNSS observation data from its own position information and GNSS observation data, and transmit it to the position detection device 40. The position detection device 40 corrects the observation data by the GNSS receiving unit using error information received from the reference station to obtain correct position information GN and supplies it to the control unit 5.

情報収集部4のカメラと照明装置は、対象植物を地面側から撮影や照明をするために上方向きに配設されている。
カメラと照明装置は、判断する植物の状態(収集する植物情報)に応じた照明、カメラが使用される。
例えば、果樹や杉などの花の状態を可視画像(RGB画像)で撮影する場合には、RGBカメラと、LEDライトのセットが使用される。
一方、植生の分布状況や活性度を知るためにマルチスペクトル画像を撮影する場合には、マルチスペクトル(以下、MSという)カメラと、赤色光(Red)ライト、近赤外光(NIR)ライトのセットが使用される。
The camera and illumination device of the information gathering section 4 are arranged upward in order to photograph and illuminate the target plant from the ground side.
The camera and lighting device are used according to the condition of the plant to be determined (plant information to be collected).
For example, when photographing the state of flowers such as fruit trees and cedar trees as visible images (RGB images), a set of an RGB camera and an LED light is used.
On the other hand, when taking multispectral images to understand the distribution and activity of vegetation, a multispectral (hereinafter referred to as MS) camera, a red light (Red) light, and a near-infrared light (NIR) light are used. set is used.

電源6は、基台2の下部に配設され、移動部3の駆動用電源として、情報収集部4による画像撮影や照明用の電源として、また、制御部5による制御用電源として電力が供給される。
なお、電源6については、照明用の電源とそれ以外の電源の2つに分けて配設することも、さらに3つ以上に分けて配設することも可能である。
The power source 6 is disposed at the bottom of the base 2 and supplies power as a power source for driving the moving section 3, as a power source for image capturing and illumination by the information collecting section 4, and as a power source for control by the control section 5. be done.
It should be noted that the power source 6 can be arranged separately into two, a power source for lighting and a power source other than that, or it can be further divided into three or more.

図2は、情報収集部4と制御部5の配置関係を表したものである。
図2に示すように、基台2上には、移動部3による移動方向を図面上方とした場合、前側(図面上側)に情報収集部4が、後側(図面下側)に制御部5が配置されている。
制御部5の所定位置、例えば、進行方向に向かって右手前側には照明用スイッチ50が配置されている。制御部5の詳細については後述する。
FIG. 2 shows the arrangement relationship between the information collection section 4 and the control section 5.
As shown in FIG. 2, on the base 2, when the moving direction of the moving unit 3 is set to the upper side of the drawing, an information collecting unit 4 is installed on the front side (upper side of the drawing), and a control unit 5 is installed on the rear side (lower side of the drawing). is located.
A lighting switch 50 is disposed at a predetermined position of the control unit 5, for example, on the front right side in the direction of travel. Details of the control unit 5 will be described later.

図2(a)は、対象植物の着花の状態を可視画像として撮影する場合の情報収集部4の配置関係を表している。
図2(a)に示すように、情報収集部4には、位置検出装置40、RGBカメラ41Aとその撮影範囲を照明するLEDライト42Aのセット、および、RGBカメラ41Bとその撮影範囲を照明するLEDライト42Bのセットが配置されている。
RGBカメラ41AとLEDライト42Aのセットは、その撮影範囲、照明範囲の中心を通る光軸が、鉛直線に対して移動部3の進行方向(斜め前方)に所定角度α(本実施形態ではα=30度)だけ傾斜するように配置され、これにより鉛直上方を含む斜め領域の撮影と照明が行われる。
一方、RGBカメラ41BとLEDライト42Bのセットは、各々の光軸が、鉛直線に対して進行方向の右側(斜め右方)に所定角度α(本実施形態ではα=30度)だけ傾斜するように配置され、これにより鉛直上方を含む右側領域の撮影と照明が行われる。
FIG. 2A shows the arrangement of the information collecting section 4 when photographing the flowering state of the target plant as a visible image.
As shown in FIG. 2(a), the information collection unit 4 includes a position detection device 40, a set of an LED light 42A that illuminates an RGB camera 41A and its photographing range, and a set of LED lights 42A that illuminates an RGB camera 41B and its photographic range. A set of LED lights 42B is arranged.
The set of RGB camera 41A and LED light 42A has an optical axis passing through the center of its imaging range and illumination range at a predetermined angle α (in this embodiment α = 30 degrees), thereby photographing and illuminating an oblique area including the vertically upward direction.
On the other hand, in the set of RGB camera 41B and LED light 42B, each optical axis is inclined at a predetermined angle α (α=30 degrees in this embodiment) to the right side (diagonally right side) in the direction of travel with respect to the vertical line. This arrangement allows imaging and illumination of the right side area including the vertically upper area.

LEDライト24A、24Bは可視光による照明を行うものであるが、必ずしもLEDライトである必要がなく、それ以外の照明手段により可視光を照射することも可能である。
なお、符号A、Bは、鉛直線に対する光軸の傾斜方向を示すものであり、使用するRGBカメラ41AとRGBカメラ41B、及び、LEDライト42AとLEDライト42Bはそれぞれ同一のものである。従って、特に光軸の傾斜方向に係わらず共通する事項について説明する場合には使用RGBカメラ41、LEDライト42というように符号A、Bを省略して説明することとする(以下他の図面についても同じ)。
Although the LED lights 24A and 24B provide illumination using visible light, they do not necessarily need to be LED lights, and it is also possible to emit visible light using other illumination means.
Note that the symbols A and B indicate the direction of inclination of the optical axis with respect to the vertical line, and the RGB cameras 41A and 41B and the LED lights 42A and 42B used are the same, respectively. Therefore, when explaining matters that are common regardless of the direction of inclination of the optical axis, the symbols A and B will be omitted, such as the RGB camera 41 and the LED light 42 used (hereinafter, regarding other drawings). is the same).

図2(b)は、対象植物の育成状況をMS画像として撮影する場合の情報収集部4の配置関係を表している。
図2(b)に示すように、情報収集部4には位置検出装置40が同様に配置されると共に、MSカメラ46A、46Bとその撮影範囲を照明する赤色光(Red)ライト47A、47B、近赤外光(NIR)ライト48A、48Bが配設されている。
このMSカメラ46A、赤色光ライト47A、近赤外光ライト48Aは、その光軸が鉛直線に対して所定角度βだけ斜め前方に傾斜するように配置されている。
一方、MSカメラ46B、赤色光ライト47B、近赤外光ライト48Bは、その光軸が鉛直線に対して所定角度βだけ斜め右方に傾斜するように配置されている。
FIG. 2(b) shows the arrangement of the information collecting section 4 when photographing the growth status of the target plant as an MS image.
As shown in FIG. 2(b), a position detection device 40 is similarly arranged in the information collection unit 4, and red lights 47A, 47B that illuminate MS cameras 46A, 46B and their photographing ranges, Near-infrared (NIR) lights 48A and 48B are provided.
The MS camera 46A, red light light 47A, and near-infrared light light 48A are arranged such that their optical axes are inclined forward by a predetermined angle β with respect to the vertical line.
On the other hand, the MS camera 46B, the red light light 47B, and the near-infrared light light 48B are arranged such that their optical axes are inclined to the right by a predetermined angle β with respect to the vertical line.

このように、RGBカメラ41とLEDライト42のセット、MSカメラ46と赤色光ライト47、近赤外光ライト48のセットが、斜め前方用と斜め右方用の2セットずつ配置されることで、撮影範囲を効率的に撮影することが可能になる。
なお、傾斜方向については、斜め前方と斜め左方、斜め後方と斜め右方、斜め後方と斜め左方とすることも可能である。
In this way, two sets of the RGB camera 41 and the LED light 42, the MS camera 46, the red light light 47, and the near-infrared light 48 are arranged, one for diagonally forward and one for diagonally to the right. , it becomes possible to efficiently photograph the photographing range.
Note that the inclination directions can also be diagonally forward and diagonally left, diagonally backward and diagonally right, and diagonally rear and diagonally left.

RGBカメラ41とMSカメラ46は、照明された対象植物を、制御部5の制御によって所定間隔(所定時間t毎、又は/及び所定移動距離m毎)で撮影し、撮影した画像データ(可視画像、MS画像)を制御部5に供給するようになっている。
RGBカメラ41A、MSカメラ46Aが撮影した画像はa画像として、RGBカメラ41B、MSカメラ46Bが撮影した画像はb画像として保存される。
なお、MSカメラ46は、撮影毎に、赤色光(Red)ライトによる赤色光画像と、近赤外光(NIR)ライトによる近赤外光画像のセットからなるMS画像がa画像として制御部5に供給される。
またRGBカメラ41とMSカメラ46はGPS装置を内蔵しており、撮影した際の撮影位置GKを取得して、撮影画像と共に制御部5に供給する。
The RGB camera 41 and the MS camera 46 photograph the illuminated target plant at predetermined intervals (every predetermined time t or/and every predetermined moving distance m) under the control of the control unit 5, and capture the photographed image data (visible image , MS images) are supplied to the control unit 5.
Images captured by the RGB camera 41A and MS camera 46A are saved as a images, and images captured by the RGB camera 41B and MS camera 46B are saved as b images.
In addition, the MS camera 46 outputs an MS image consisting of a set of a red light image using a red light (Red) light and a near-infrared light image using a near-infrared light (NIR) light to the control unit 5 as an a-image every time the image is captured. supplied to
Furthermore, the RGB camera 41 and the MS camera 46 have a built-in GPS device, acquire the photographing position GK at the time of photographing, and supply it to the control unit 5 together with the photographed image.

ここで、カメラや照明の光軸を傾斜させる理由とその傾斜角α、βについて説明する。
本実施形態の植物情報収集装置1では、対象植物までの距離を自由に設定可能な上空からの撮影ではなく、対象植物を地面側から撮影しているため、撮影する距離に上限(植物の高さ未満)がある。
そこで、本実施形態では、カメラの光軸を鉛直線に対して傾斜角α、βだけ傾斜させることで、撮影範囲を広くすることが可能になっている。また、1の画像中により多くの特徴点(例えば枝と枝の分岐点や、節など)を含めることが可能になり、画像合成する際の処理精度と速度を向上させることが可能になる。
傾斜角α、βは使用する、画角の端面から内側50mm~400mmの範囲内に位置する角度となるように、カメラの画角に応じて決められる。
Here, the reason for tilting the optical axis of the camera and illumination and the tilt angles α and β will be explained.
In the plant information collection device 1 of this embodiment, the target plant is photographed from the ground side, rather than from the sky, where the distance to the target plant can be freely set. (less than).
Therefore, in this embodiment, by tilting the optical axis of the camera with respect to the vertical line by the inclination angles α and β, it is possible to widen the photographing range. Furthermore, it becomes possible to include more feature points (for example, branching points between branches, nodes, etc.) in one image, and it becomes possible to improve processing accuracy and speed when composing images.
The inclination angles α and β are determined according to the angle of view of the camera to be used so that the angles are located within a range of 50 mm to 400 mm inside from the end face of the angle of view.

図3は、傾斜させたカメラによる撮影範囲と傾斜角α、βについて表した説明図で、斜め前方に傾斜したRGBカメラ41A、MSカメラ46Aについては植物情報収集装置1の進行方向に向かって右側から見た状態、斜め右方に傾斜したRGBカメラ41B、MSカメラ46Bについては植物情報収集装置1の後方から見た状態を表している。
図3では、一例として梨園を対象とし、カメラから梨棚までの高さをh=1500mmとした場合の撮影範囲を表したものである。
また図3では、鉛直線を符号Vで、カメラの光軸を符号Sで、カメラの撮影範囲の傾斜方向の撮影範囲の端部を示す範囲線をRR、その反対側の範囲線をRLで表している。
FIG. 3 is an explanatory diagram showing the photographing range of the tilted camera and the tilt angles α and β.The RGB camera 41A and the MS camera 46A tilted diagonally forward are on the right side in the direction of movement of the plant information collection device 1. The RGB camera 41B and the MS camera 46B tilted diagonally to the right are shown as seen from the rear of the plant information collection device 1.
In FIG. 3, as an example, a pear orchard is targeted, and the photographing range is shown when the height from the camera to the pear trellis is h=1500 mm.
In Fig. 3, the vertical line is denoted by V, the optical axis of the camera is denoted by S, the range line indicating the end of the photographing range in the tilt direction of the camera is denoted by RR, and the range line on the opposite side is denoted by RL. represents.

図3(a)はRGBカメラ41の撮影範囲を、(b)はMSカメラ46の撮影範囲を示している。
RGBカメラ41の画角は82度と広いため、図3(a)に示すように、鉛直線Vに対して光軸Sを傾斜角α=30度に傾斜させている。この傾斜により撮影範囲の傾斜方向の距離を約4699mmに伸すことができ、画角にして11度分だけの距離(約297mm)の領域が傾斜方向の反対側に確保される。
一方、MSカメラ46の画角は42度と狭いため、図3(b)に示すように、光軸Sを傾斜角β=20度に傾斜させている。この傾斜により撮影範囲の傾斜方向の距離を約1571mmに伸すことができ、画角にして4度分だけの距離(約111mm)の領域が傾斜方向の反対側に確保される。
なお、本実施形態では光軸の傾斜角をα=30度、β=20度に設定したが、傾斜角α、βは使用するカメラの画角に応じて、鉛直線上方が撮影範囲に含まれる傾斜角α、βが決定される。
3(a) shows the photographing range of the RGB camera 41, and FIG. 3(b) shows the photographing range of the MS camera 46.
Since the angle of view of the RGB camera 41 is as wide as 82 degrees, the optical axis S is inclined at an inclination angle α=30 degrees with respect to the vertical line V, as shown in FIG. 3(a). Due to this inclination, the distance of the photographing range in the direction of inclination can be extended to approximately 4699 mm, and an area corresponding to a distance of 11 degrees (approximately 297 mm) in terms of the angle of view is secured on the opposite side of the direction of inclination.
On the other hand, since the angle of view of the MS camera 46 is as narrow as 42 degrees, the optical axis S is inclined at an inclination angle β=20 degrees, as shown in FIG. 3(b). Due to this inclination, the distance of the photographing range in the direction of inclination can be extended to about 1571 mm, and an area corresponding to a distance corresponding to 4 degrees of angle of view (about 111 mm) is secured on the opposite side of the direction of inclination.
Note that in this embodiment, the inclination angle of the optical axis is set to α = 30 degrees and β = 20 degrees, but the inclination angles α and β depend on the angle of view of the camera used, and the shooting range includes the area above the vertical line. The inclination angles α and β are determined.

図1、図2に戻り、制御部5は、植物情報収集装置1の各種動作を制御する。
この制御部5には照明用スイッチ50が設けられている。本実施形態の照明用スイッチ50は、基台2上に配設された情報収集部4の照明(LEDライト42、赤色光ライト47及び近赤外光ライト48)と電源6との間に接続されて、ユーザ操作に基づいて照明のオン、オフが行われる。
なお、後述する撮影プログラムによる撮影処理の開始と連動して制御部5が照明の電源オン、オフを自動制御するようにしてもよい。この場合、照明用スイッチ50は不要である。
Returning to FIGS. 1 and 2, the control unit 5 controls various operations of the plant information collection device 1.
This control section 5 is provided with a lighting switch 50. The lighting switch 50 of this embodiment is connected between the lighting (LED light 42, red light light 47, and near-infrared light 48) of the information collection unit 4 disposed on the base 2 and the power source 6. The lighting is then turned on and off based on user operations.
Note that the control unit 5 may automatically control the power on and off of the illumination in conjunction with the start of photographing processing by a photographing program to be described later. In this case, the lighting switch 50 is not necessary.

図4は、制御部5の構成と、その制御対象の一部を表したものである。
図4に示すように制御部5は、CPU51、ROM52、RAM53、入出力部54、記憶部55、通信制御部56を備えている。
また制御部5のバスラインには、その制御対象である位置検出装置40、RGBカメラ41、MSカメラ46が接続されると共に、図示しない移動部3に駆動制御信号が供給される。
FIG. 4 shows the configuration of the control unit 5 and some of its controlled objects.
As shown in FIG. 4, the control section 5 includes a CPU 51, a ROM 52, a RAM 53, an input/output section 54, a storage section 55, and a communication control section 56.
Further, the position detection device 40, RGB camera 41, and MS camera 46 that are controlled by the control unit 5 are connected to the bus line of the control unit 5, and drive control signals are supplied to the moving unit 3 (not shown).

CPU51は、ROM52や記憶部55等の各種記憶部に記憶されたプログラムに従って、本実施形態における撮影処理等の各種の情報処理や制御を行う。
ROM52は、CPU51が各種制御や演算を行うための各種プログラム(システムのブートプログラムやOS(Operating System)などの基本プログラム等)や基本データが予め格納されたリードオンリーメモリである。
The CPU 51 performs various information processing and control such as photographing processing in this embodiment according to programs stored in various storage units such as the ROM 52 and the storage unit 55.
The ROM 52 is a read-only memory in which various programs (system boot program, basic programs such as an OS (Operating System), etc.) and basic data for the CPU 51 to perform various controls and calculations are stored in advance.

RAM53は、CPU51にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM53には、本実施形態による撮影処理等の各種処理を行うための各種エリアが確保可能になっている。
具体的にRAM53には、撮影情報531、可視画像532、MS画像533、位置情報GN534等が一時記憶領域として確保される。
The RAM 53 is a random access memory used by the CPU 51 as a working memory. In this RAM 53, various areas can be secured for performing various processes such as photographing processing according to this embodiment.
Specifically, in the RAM 53, photographing information 531, visible images 532, MS images 533, position information GN 534, etc. are secured as a temporary storage area.

撮影情報531は、撮影に必要な各種条件が保存される。すなわち、ユーザによって指定される梨園等の各種圃場における撮影領域と、撮影領域内での移動経路、及び、撮影画像種別(可視画像又は/及びMS画像)、撮影間隔sなどが保存される。
撮影情報531の撮影領域と移動経路は、記憶部55の移動領域552から読込まれるが、通信制御部56で受信することや、ユーザが入出力部54の操作で指定することも可能である。撮影領域は、複数の位置座標(x、y)で囲まれた領域で指定され、移動部3が本実施形態の無人走行車両で構成される場合やドローンで構成される場合に必要となる。ドローンで構成される場合には、高さの情報を含む座標(x、y、z)で領域が指定される。一方、人力で基台2を移動させるワゴンで移動部3が構成される場合には、撮影情報531は使用されない。
撮影画像種別は、情報収集部4に配置されているカメラの種別(RGBカメラ41又は/及び、MSカメラ46)に基づいて撮影前に判断されて撮影情報531に保存される。
撮影間隔sは、対象植物を撮影する間隔であり、使用するRGBカメラ41、MSカメラ46の画角により決定される。撮影間隔sは、移動部3の移動距離や移動時間で指定される。
The photographing information 531 stores various conditions necessary for photographing. That is, the photographing areas in various fields such as pear orchards specified by the user, the movement route within the photographing area, the type of photographed image (visible image or/and MS image), the photographing interval s, etc. are stored.
The shooting area and moving route of the shooting information 531 are read from the moving area 552 of the storage unit 55, but they can also be received by the communication control unit 56 or specified by the user by operating the input/output unit 54. . The imaging area is specified as an area surrounded by a plurality of position coordinates (x, y), and is necessary when the moving unit 3 is composed of the unmanned vehicle of this embodiment or a drone. In the case of a drone, the area is specified by coordinates (x, y, z) including height information. On the other hand, when the moving unit 3 is configured with a wagon that moves the base 2 manually, the photographing information 531 is not used.
The type of photographed image is determined before photographing based on the type of camera (RGB camera 41 and/or MS camera 46) arranged in the information collection unit 4, and is stored in the photographing information 531.
The photographing interval s is the interval at which the target plant is photographed, and is determined by the angle of view of the RGB camera 41 and MS camera 46 used. The photographing interval s is specified by the moving distance and moving time of the moving unit 3.

可視画像532にはRGBカメラ41で撮影された可視画像等が保存される。
MS画像533にはMSカメラ46で撮影されたMS画像として、赤色光によるRed画像と近赤外光によるNIR画像等が保存される。
図4(b)は、可視画像532、MS画像533に保存されるデータについて表したものである。
図4(b)に示すように、RGBカメラ41とMSカメラ46(以下単に、両カメラ41、46という)で撮影された画像は、撮影番号で管理され、撮影番号毎に撮影位置GK、a画像、b画像が保存される。
A visible image captured by the RGB camera 41 and the like are stored in the visible image 532.
The MS image 533 stores a Red image using red light, an NIR image using near-infrared light, and the like as MS images captured by the MS camera 46.
FIG. 4B shows data stored in the visible image 532 and MS image 533.
As shown in FIG. 4(b), images shot by the RGB camera 41 and the MS camera 46 (hereinafter simply referred to as both cameras 41 and 46) are managed by shooting numbers, and the shooting positions GK, a for each shooting number are The image and b image are saved.

撮影番号は、CPU51から各カメラ41、46に撮影指示が出される毎に採番される。
撮影位置GKは、各カメラ41、46が備えるGPS装置で検出した撮影位置のデータである。本実施形態では、撮影位置GKをRGBカメラ41A、MSカメラ46Aから撮影位置GKを取得するが、他方のカメラBから取得することも可能であり、両カメラA、Bから取得した位置の中間地点を撮影位置GKとして保存するようにしてもよい。
The photographing number is assigned each time a photographing instruction is issued from the CPU 51 to each camera 41, 46.
The photographing position GK is data of a photographing position detected by a GPS device included in each camera 41, 46. In this embodiment, the photographing position GK is acquired from the RGB camera 41A and the MS camera 46A, but it is also possible to acquire it from the other camera B, and the intermediate point between the positions acquired from both cameras A and B is also possible. may be stored as the photographing position GK.

a画像は、RGBカメラ41A、MSカメラ46Aで撮影された斜め前方の画像データであり、b画像はRGBカメラ41B、MSカメラ46Bで撮影された斜め右方の画像データである。a画像とb画像は同時に撮影されるため、同じ撮影番号で管理されている。
なお、MS画像533のa画像、b画像には、赤色光ライトによる赤色光画像と、近赤外光ライトによる近赤外光画像のセットが保存される。
The a image is diagonally forward image data taken by the RGB camera 41A and the MS camera 46A, and the b image is diagonally right image data taken by the RGB camera 41B and MS camera 46B. Since images a and b are shot at the same time, they are managed using the same shooting number.
Note that in the a image and the b image of the MS image 533, a set of a red light image produced by a red light light and a near infrared light image produced by a near infrared light light is stored.

位置情報GN534は、RGBカメラ41、MSカメラ46による撮影が行われる毎に位置検出装置40から供給される正確な位置情報GNが保存される。
位置情報GNは、可視画像532、MS画像533に保存される撮影番号と同じ撮影番号で保存、管理される。
As the position information GN 534, accurate position information GN supplied from the position detection device 40 every time an image is taken by the RGB camera 41 or the MS camera 46 is stored.
The position information GN is stored and managed using the same imaging number as the imaging number stored in the visible image 532 and MS image 533.

入出力部54は、データの入力や出力を行い、例えば、ディスプレイ、タッチパネル、USB端子などを備えている。
ディスプレイは、出力装置としての液晶ディスプレイが使用され、入力供給からの入力結果や、RGBカメラ41、MSカメラ46による撮影範囲を表す地図情報や撮影画像等が表示される。またディスプレイには、タッチパネルから必要な各種操作を行うための各種操作キー(テンキー、操作アイコン等)を画像表示する。
タッチパネルは、ディスプレイの表面に配置される入力機器で、ディスプレイに画面表示された各種操作キーに対応した、ユーザのタッチ位置を特定し、当該タッチ位置に対応して表示された操作キーの入力を受け付ける。
The input/output unit 54 inputs and outputs data, and includes, for example, a display, a touch panel, a USB terminal, and the like.
As for the display, a liquid crystal display is used as an output device, and input results from the input supply, map information representing the photographing range by the RGB camera 41 and the MS camera 46, photographed images, etc. are displayed. The display also displays images of various operation keys (numeric keys, operation icons, etc.) for performing various necessary operations from the touch panel.
A touch panel is an input device placed on the surface of a display, and it identifies the user's touch position corresponding to the various operation keys displayed on the screen and inputs the operation key displayed corresponding to the touch position. accept.

USB端子は、外部記憶装置としてのUSBメモリを接続するためのインターフェイスである。
USB端子に接続されたUSBメモリは、植物情報収集装置1の記憶部55やRAM53に読込むためのデータが保存されたり、撮影情報531のデータを保存して外部に出力するためなどに使用される。
例えば、可視画像532、MS画像533、位置情報GN534に保存されている画像データや位置情報GNのデータが収集植物情報として、USB端子からUSBメモリに出力、保存される。
The USB terminal is an interface for connecting a USB memory as an external storage device.
The USB memory connected to the USB terminal is used to store data to be read into the storage unit 55 or RAM 53 of the plant information collection device 1, or to store and output data of photographic information 531 to the outside.
For example, the image data and position information GN data stored in the visible image 532, MS image 533, and position information GN 534 are output and stored in a USB memory from the USB terminal as collected plant information.

記憶部55は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置等で構成されている。この記憶部55に使用される媒体としては、SSD(Solid State Drive)等の半導体記憶装置が使用されるが、ハードディスクや光磁気ディスク等を使用することも可能である。
記憶部55には、植物情報収集プログラム551、移動領域552、収集植物情報553が保存される。
植物情報収集プログラム551としては、撮影情報531に保存された撮影領域の範囲内で往復移動又は/及び格子状移動するように移動部3を制御する移動制御プログラムや、移動部3の移動距離又は/及び時間毎にRGBカメラ41やMSカメラ46で撮影をし、撮影した画像を保存する撮影プログラム等が保存されている。
移動制御プログラムについては、移動部3として無人走行車両が使用される場合には地上を走行するプログラムが、ドローンが使用される場合には地面から所定距離(例えば、地上30cm)だけ上方を飛行するプログラムが保存される。なお、移動部3として人力により移動するワゴンが使用される場合には、移動プログラムは不要である。
The storage unit 55 includes a readable and writable storage medium, and a drive device for reading and writing various information such as programs and data to and from the storage medium. As the medium used in the storage unit 55, a semiconductor storage device such as an SSD (Solid State Drive) is used, but a hard disk, a magneto-optical disk, etc. can also be used.
The storage unit 55 stores a plant information collection program 551, a movement area 552, and collected plant information 553.
The plant information collection program 551 includes a movement control program that controls the moving unit 3 to move back and forth and/or move in a grid pattern within the range of the photographic area stored in the photographic information 531, and a movement control program that controls the moving unit 3 to move in a reciprocating manner and/or to move in a grid pattern. A photographing program and the like for photographing with the RGB camera 41 and the MS camera 46 every time and storing the photographed images are stored.
Regarding the movement control program, when an unmanned vehicle is used as the moving unit 3, the program runs on the ground, and when a drone is used, the program flies above the ground by a predetermined distance (for example, 30 cm above the ground). The program is saved. Note that if a wagon that is moved manually is used as the moving unit 3, the moving program is not necessary.

移動領域552には、撮影領域を指定するための地図データや領域の座標(x、y)からなる撮影領域や、当該撮影領域内を移動する移動経路の情報が保存されている。
これらの情報は、入出力部54に接続されたUSBメモリや、通信制御部56を介して外部の機器から取得して移動領域552に保存される。
本実施形態の移動部3が地上を走行する無人走行車両で構成されているので、複数の位置座標(x、y)で囲まれた領域で撮影領域が指定される。
但し、圃場の地図画像をディスプレイに表示して、その撮影範囲と移動経路をタッチパネルから指定することも可能である。この場合、CPU51は指定された撮影範囲と移動経路を移動領域552に保存する。
なお、移動部3がドローンで構成される場合、撮影領域には、飛行する地面からの高さ情報を含む座標(x、y、z)で指定される。また、人力で基台2を移動させるワゴンで移動部3が構成される場合には、移動領域552は使用されない。
The moving area 552 stores map data for specifying a shooting area, a shooting area consisting of coordinates (x, y) of the area, and information about a moving route within the shooting area.
This information is acquired from a USB memory connected to the input/output unit 54 or an external device via the communication control unit 56 and is stored in the movement area 552.
Since the moving unit 3 of this embodiment is composed of an unmanned vehicle that runs on the ground, the imaging area is specified in an area surrounded by a plurality of position coordinates (x, y).
However, it is also possible to display a map image of the field on the display and specify the shooting range and travel route from the touch panel. In this case, the CPU 51 stores the specified photographing range and moving route in the moving area 552.
Note that when the moving unit 3 is composed of a drone, the shooting area is designated by coordinates (x, y, z) including height information from the ground over which the drone flies. Furthermore, if the moving unit 3 is configured with a wagon that moves the base 2 manually, the moving area 552 is not used.

収集植物情報553には、撮影情報531に保存されている全撮影領域における撮影が終了した後に、可視画像532、MS画像533、位置情報GN534、撮影情報531(移動領域552)が、収集した植物情報として保存される。
なお、本実施形態の植物情報収集装置1では収集した植物情報に基づいて、当該植物から推定される果実の収穫量や、植物の育成状態の判定を行わず、植物情報をUSBメモリ等の外部に出力する構成となっているため、収集植物情報553を記憶部55に保存しないようにすることも可能である。
The collected plant information 553 includes a visible image 532, an MS image 533, position information GN 534, and photographing information 531 (moving area 552) after the photographing in all the photographing areas stored in the photographing information 531 is completed. Saved as information.
Note that the plant information collecting device 1 of this embodiment does not judge the estimated fruit yield from the plant or the growing state of the plant based on the collected plant information, but stores the plant information on an external device such as a USB memory. Since the collected plant information 553 is configured to be output to the storage unit 55, it is also possible not to store the collected plant information 553 in the storage unit 55.

通信制御部56は、タブレット等の携帯端末装置やパーソナルコンピュータ等の各種外部電子機器との間を無線通信によりネットワーク接続するための制御装置である。
通信制御部56は、これら各種外部電子機器から植物情報収集装置1にアクセスすることが可能になっており、外部電子機器から撮影領域や移動経路等を受信したり、外部電子機器に対して収集した植物情報を送信する場合等に使用される。
The communication control unit 56 is a control device that connects a portable terminal device such as a tablet or various external electronic devices such as a personal computer to a network by wireless communication.
The communication control unit 56 is capable of accessing the plant information collection device 1 from these various external electronic devices, and receives information such as photographic areas and movement routes from the external electronic devices, and collects data from the external electronic devices. This is used when transmitting plant information.

次に、植物情報収集装置1により植物の情報を収集する処理動作について説明する。
図5は、植物情報収集の処理手順を表したフローチャートである。
最初に、ユーザは植物情報収集装置1の準備を行う(ステップ10)。
すなわちユーザは、収集する植物情報に対応した情報収集部4を基台2上にセットする。すなわち対象植物の着花状態を可視画像として撮影する場合には図2(a)で説明した情報収集部4を、対象植物の育成状況をMS画像として撮影する場合には図2(b)で説明した情報収集部4を植物情報収集装置1の基台2上にセットする。
そして、所定の情報収集部4をセットした植物情報収集装置1を、日没後に撮影対象である圃場に用意する。
なお、日没後に行うのは撮影時における、太陽光による逆光を回避するためであるため、少なくとも撮影の開始を日没後に行えばよく、情報収集部4のセット等は日没前に行うことは可能である。
Next, processing operations for collecting plant information by the plant information collecting device 1 will be described.
FIG. 5 is a flowchart showing the processing procedure for collecting plant information.
First, the user prepares the plant information collection device 1 (step 10).
That is, the user sets the information collection unit 4 corresponding to the plant information to be collected on the base 2. That is, when photographing the flowering state of the target plant as a visible image, the information collecting unit 4 described in FIG. The information collecting unit 4 described above is set on the base 2 of the plant information collecting device 1.
Then, the plant information collecting device 1 with a predetermined information collecting section 4 set therein is prepared in the field to be photographed after sunset.
Note that the purpose of shooting after sunset is to avoid backlighting due to sunlight during shooting, so at least the shooting should be started after sunset, and the setting of the information gathering section 4, etc. should be done before sunset. is possible.

なお、本実施形態では移動部3として自動走行車両が使用されるが、人力で基台2を移動させるワゴンで移動部3が構成される場合には、植物情報収集装置1の準備(ステップ10)において、撮影予定の領域(例えば、4隅)の植物や支柱などに目印となるリボンやテープを巻付ける。 In this embodiment, an automatic vehicle is used as the moving unit 3, but if the moving unit 3 is configured with a wagon that moves the base 2 manually, the preparation of the plant information collecting device 1 (step 10) ), wrap ribbons or tapes to serve as landmarks around plants, pillars, etc. in the area (for example, the four corners) where you plan to photograph.

植物情報収集装置1の準備が終了した後、ユーザは制御部5の照明用スイッチ50をオンにする(ステップ11)。
これにより、撮影終了して照明用スイッチ50がオフされるまでの間、照明用のLEDライト42、又は赤色光ライト47、近赤外光ライト48が点灯し、斜め前方、斜め右方の撮影範囲を継続的に照明する。
なお、本実施形態の植物情報収集装置1では、照明用スイッチ50によりライトが点灯するが、植物情報収集プログラム551に基づいて撮影開始直前にライトを点灯するようにしてもよい。
After the preparation of the plant information collection device 1 is completed, the user turns on the lighting switch 50 of the control unit 5 (step 11).
As a result, the illumination LED light 42, red light light 47, and near-infrared light light 48 are turned on until the lighting switch 50 is turned off after the shooting is completed, and the lighting switch 50 is turned off. Continuously illuminate the area.
In the plant information collection device 1 of this embodiment, the light is turned on by the illumination switch 50, but the light may be turned on immediately before starting photography based on the plant information collection program 551.

次に、ユーザは植物情報収集プログラム551を起動する(ステップ12)。
すなわち、ユーザは入出力部54のディスプレイに表示された植物情報収集アイコンをタッチパネルで指定し、これにより制御部5のCPU51が植物情報収集プログラム551を起動する。
植物情報収集プログラム551の起動により、これ以降の各処理については、当該プログラムに従ってCPU51が植物情報収集装置1の各部を制御することで情報収集が行われる。
Next, the user starts the plant information collection program 551 (step 12).
That is, the user specifies the plant information collection icon displayed on the display of the input/output unit 54 using the touch panel, and the CPU 51 of the control unit 5 starts the plant information collection program 551.
By starting the plant information collection program 551, information collection is performed by the CPU 51 controlling each part of the plant information collection device 1 according to the program in each subsequent process.

まずCPU51は、撮影情報を取得する(ステップ13)。すなわち、CPU51は、撮影情報として撮影領域、移動経路、撮影画像種別、撮影間隔sを取得する。
具体的にCPU51は、記憶部55の移動領域552から撮影領域を特定する座標(x、y)と移動経路を収集情報として取得してRAM53の撮影情報531に保存する。
更にCPU51は、情報収集部4にRGBカメラ41が配置されていれば可視画像(RGB画像)を、MSカメラ46が配置されていればMS画像を撮影画像種別として撮影情報531に保存する。なお、CPU51は、両カメラ41、46が配置されていれば、可視画像とMS画像を保存する。
First, the CPU 51 acquires photographing information (step 13). That is, the CPU 51 obtains the photographing area, moving route, photographed image type, and photographing interval s as photographing information.
Specifically, the CPU 51 acquires the coordinates (x, y) specifying the photographing area and the moving route from the movement area 552 of the storage unit 55 as collected information, and stores them in the photographing information 531 of the RAM 53.
Further, the CPU 51 saves a visible image (RGB image) in the photographing information 531 if the RGB camera 41 is disposed in the information collection unit 4, and an MS image as the photographed image type if the MS camera 46 is disposed. Note that if both cameras 41 and 46 are arranged, the CPU 51 stores the visible image and the MS image.

また、CPU51は、撮影画像種別に対応して、可視画像(RGB画像)の場合の撮影間隔s1、MS画像の場合の撮影間隔s2を取得する。
撮影間隔は、使用するカメラの画角に応じて決まり、本実施形態のカメラでは画角が広いRGBカメラ41の撮影間隔s1=2m、狭いMSカメラ46の撮影間隔s2=1mである。
但し、本実施形態では、移動部3を所定移動速度(=秒速1m)で移動させるので、可視画像では撮影間隔時間t1=2秒、MS画像では撮影間隔時間t2=1秒を撮影間隔として取得する。
なお、撮影間隔としてs1、s2を取得することも可能であるが、時間t1、t2をすることで撮影間隔に到達したか否かの判断が容易になる。
In addition, the CPU 51 obtains a photographing interval s1 for a visible image (RGB image) and a photographing interval s2 for an MS image, corresponding to the type of photographed image.
The shooting interval is determined according to the angle of view of the camera used, and in the camera of this embodiment, the shooting interval s1 of the RGB camera 41 with a wide angle of view is 2 m, and the shooting interval s2 of the narrow MS camera 46 is 1 m.
However, in this embodiment, since the moving unit 3 is moved at a predetermined moving speed (=1 m/s), the imaging interval is acquired as the imaging interval for the visible image, t1 = 2 seconds, and for the MS image, the imaging interval time t2 = 1 second. do.
Note that it is also possible to obtain s1 and s2 as the photographing interval, but by obtaining the times t1 and t2, it becomes easier to determine whether the photographing interval has been reached.

その後CPU51は、取得した移動経路に従って移動部3を撮影位置まで移動させる(ステップ14)。
本実施形態では上述したように、移動部3が移動経路に沿って所定速度で継続的に移動しているので、CPU51は、移動部3を移動させながら前回の撮影から撮影間隔時間t1、t2が経過する毎に撮影位置に到達したと判断している。
Thereafter, the CPU 51 moves the moving unit 3 to the photographing position according to the acquired movement route (step 14).
In this embodiment, as described above, since the moving unit 3 is continuously moving at a predetermined speed along the moving route, the CPU 51 determines the shooting interval time t1, t2 from the previous shooting while moving the moving unit 3. It is determined that the photographing position has been reached every time .

CPU51は、移動部3の撮影位置においてRGBカメラ41、MSカメラ46による撮影をする(ステップ15)。
具体的にCPU51は、情報収集部4にRGBカメラ41が配置されていれば、2秒毎に可視画像の撮影を指示する。そしてCPU51は、この撮影指示に基づいてRGBカメラ41Aで撮影されたa画像、RGBカメラ41Bで撮影されたb画像、及び撮影時にRGBカメラ41Aで検出した撮影位置GKを取得し、撮影指示毎に採番した撮影番号を付してRAM53の可視画像532に保存する(図4(b)参照)。
The CPU 51 performs photographing using the RGB camera 41 and the MS camera 46 at the photographing position of the moving unit 3 (step 15).
Specifically, if the RGB camera 41 is arranged in the information collection unit 4, the CPU 51 instructs to take a visible image every two seconds. Based on this shooting instruction, the CPU 51 acquires the a image shot by the RGB camera 41A, the b image shot by the RGB camera 41B, and the shooting position GK detected by the RGB camera 41A at the time of shooting, and for each shooting instruction. The assigned photographic number is attached and stored in the visible image 532 of the RAM 53 (see FIG. 4(b)).

またCPU51は、MSカメラ46が配置されていれば、1秒毎にMS画像の撮影を指示する。そしてCPU51は、この撮影指示に基づいてMSカメラ46Aで撮影されたa画像、MSカメラ46Bで撮影されたb画像、及び撮影時にMSカメラ46Aで検出した撮影位置GKを取得し、撮影指示毎に採番した撮影番号を付してRAM53のMS画像533に保存する。
上述したように、MS画像533のa画像、b画像には、赤色光ライト47の照明による赤色光画像と、近赤外光ライト48の照明による近赤外光画像のセットが保存される。
Further, if the MS camera 46 is arranged, the CPU 51 instructs to take an MS image every second. Based on this shooting instruction, the CPU 51 acquires the a image shot by the MS camera 46A, the b image shot by the MS camera 46B, and the shooting position GK detected by the MS camera 46A at the time of shooting, and for each shooting instruction. It is stored in the MS image 533 of the RAM 53 with the assigned imaging number.
As described above, a set of images a and b of the MS image 533 includes a red light image illuminated by the red light light 47 and a near-infrared light image illuminated by the near-infrared light 48.

なお、RGBカメラ41とMSカメラ46の両方が情報収集部4に配置されている場合、CPU51は、2秒毎にRGBカメラ41とMSカメラ46に同時に撮影指示をし、その中間(1秒後)にMSカメラ46に単独の撮影指示をする。この場合、MS画像は連続する撮影番号で保存され、RGB画像は連続する奇数の撮影番号で保存される。
RGBカメラ41に対する撮影指示とMSカメラ46に対する撮影指示を異なるタイミングにすることも可能であるが、移動部3による移動を撮影用に一時停止する場合には同じタイミングで撮影指示をするのが時間短縮上好ましい。
Note that when both the RGB camera 41 and the MS camera 46 are arranged in the information collection unit 4, the CPU 51 simultaneously instructs the RGB camera 41 and the MS camera 46 to take pictures every 2 seconds, and in the middle (1 second later). ), the MS camera 46 is instructed to take an individual photograph. In this case, MS images are saved with consecutive shooting numbers, and RGB images are saved with consecutive odd-numbered shooting numbers.
Although it is possible to give the shooting instruction to the RGB camera 41 and the shooting instruction to the MS camera 46 at different timings, when the movement of the moving unit 3 is temporarily stopped for shooting, it is best to give the shooting instructions at the same timing. Preferable for shortening.

本実施形態の植物情報収集装置1では、1回の撮影においてRGBカメラ41A、41Bによりa画像とb画像が同時に撮影され、同一の撮影番号で保存される。またMSカメラ46A、46Bによりa画像とb画像同時に撮影され、同一の撮影番号で保存される。
図6は、一例として、梨園における、RGBカメラ41の撮影地点と撮影されたa画像、b画像の撮影範囲を表したものである。
図6に示すように、梨園では複数の梨の木PLが格子状に規則正しく植えられており、植物情報収集装置1は梨の各列間を長矢印で示した移動経路上を往復移動する。この移動経路上の撮影位置p1、p2、…においてRGBカメラ41による撮影が行われる。
なお、梨の木PLは撮影範囲a1、b1等を説明するため木の位置だけを丸印で表している。
In the plant information collection device 1 of this embodiment, an a image and a b image are simultaneously shot by the RGB cameras 41A and 41B in one shooting, and are saved with the same shooting number. Also, images a and b are simultaneously photographed by the MS cameras 46A and 46B and saved with the same photographing number.
FIG. 6 shows, as an example, the photographing point of the RGB camera 41 and the photographing range of the photographed images a and b in Pear Garden.
As shown in FIG. 6, in the pear orchard, a plurality of pear trees PL are regularly planted in a grid pattern, and the plant information collection device 1 reciprocates between each row of pears along a path indicated by a long arrow. Photographing is performed by the RGB camera 41 at photographing positions p1, p2, . . . on this moving route.
Note that for the pear tree PL, only the position of the tree is represented by a circle in order to explain the photographing ranges a1, b1, etc.

また図6に示すように、撮影位置p1において、RGBカメラ41Aで撮影した可視画像(a画像)を実線の撮影範囲a1で、RGBカメラ41Bで撮影した可視画像(b画像)を同じく実線の撮影範囲b1で表している。
一方、撮影位置p1から2m(2秒)移動した次の撮影位置p2において、RGBカメラ41Aによるa画像を点線の撮影範囲a2で、RGBカメラ41Bによるb画像を同じく点線の撮影範囲b2で表している。
このように、2台のRGBカメラ41A、41Bをそれぞれ斜め前方と斜め右方に傾斜させることで、1回の撮影で(a1+b1)、(a2+b2)の広い領域を撮影することが可能になる。
Further, as shown in FIG. 6, at the photographing position p1, the visible image (a image) photographed by the RGB camera 41A is captured in the photographing range a1 indicated by the solid line, and the visible image (b image) photographed by the RGB camera 41B is similarly photographed by the solid line. It is represented by range b1.
On the other hand, at the next shooting position p2 moved 2 m (2 seconds) from the shooting position p1, an image a taken by the RGB camera 41A is represented by a shooting range a2 indicated by a dotted line, and an image b taken by the RGB camera 41B is represented by a shooting range b2 similarly indicated by a dotted line. There is.
In this way, by tilting the two RGB cameras 41A and 41B diagonally forward and diagonally to the right, respectively, it becomes possible to photograph wide areas (a1+b1) and (a2+b2) in one photographing.

図7は、RGBカメラ41で撮影した可視画像を表したものである。
図7(a)は、RGBカメラ41Aで撮影した可視画像(a画像)で、斜め前方を撮影しているので梨の木の幹部分よりも枝先の多くが撮影されている。
一方、図7(b)はRGBカメラ41Bで撮影した可視画像(b画像)で、斜め右方向を撮影しているので、植物情報収集装置1の右側にある梨の木の幹周辺が撮影されている。
FIG. 7 shows a visible image taken by the RGB camera 41.
FIG. 7A is a visible image (image a) taken by the RGB camera 41A, and since the image is taken diagonally forward, more of the branch tips than the trunk of the pear tree are photographed.
On the other hand, FIG. 7(b) is a visible image (b image) taken by the RGB camera 41B, and since the image is taken diagonally to the right, the area around the trunk of the pear tree on the right side of the plant information collection device 1 is taken. .

図5のフローチャートに戻り、CPU51は、位置検出装置40から位置情報GNを取得する(ステップ16)。
すなわち、CPU51は、RGBカメラ41、MSカメラ46に撮影指示をしたタイミングで、位置検出装置40に観測を指示する。
この観測指示に基づいて、位置検出装置40は植物情報収集装置1の正確な位置情報GNを観測して出力し、CPU51は出力された位置情報GNを取得してRAM53の位置情報GN534に保存する。
位置情報GNは、当該撮影指示と同時に出した撮影指示に対する撮影番号と同じ撮影番号で管理、保存される。
Returning to the flowchart of FIG. 5, the CPU 51 acquires the position information GN from the position detection device 40 (step 16).
That is, the CPU 51 instructs the position detection device 40 to perform observation at the timing when the RGB camera 41 and MS camera 46 are instructed to take a photograph.
Based on this observation instruction, the position detection device 40 observes and outputs accurate position information GN of the plant information collection device 1, and the CPU 51 acquires the output position information GN and stores it in the position information GN 534 of the RAM 53. .
The position information GN is managed and stored using the same shooting number as the shooting number for the shooting instruction issued at the same time as the shooting instruction.

撮影とデータ保存が終了すると、CPU51は撮影情報531に保存された撮影領域内で全撮影が完了したか否かを、移動経路の終点に到達したか否かにより判断する(ステップ17)。
撮影が完了していない場合(ステップ17;N)、CPU51は、ステップ14に戻り移動部3の移動と撮影を継続する。
When the photographing and data storage are completed, the CPU 51 determines whether all photographing has been completed within the photographing area stored in the photographing information 531, based on whether the end point of the moving route has been reached (step 17).
If the photographing is not completed (step 17; N), the CPU 51 returns to step 14 and continues moving the moving unit 3 and photographing.

一方、撮影が完了している場合(ステップ17;Y)、CPU51は、撮影データ等による収集植物情報を出力する(ステップ18)。
ここで出力する収集植物情報は、RAM53の撮影情報531(又は移動領域552)、可視画像532、MS画像533、位置情報GN534に保存されている全ての画像データや位置情報GNのデータである。
収集植物情報の出力先としては、入出力部54に接続されているUSBメモリや、通信制御部56を介して接続された外部機器等である。またRAM53の収集植物情報は、記憶部55の収集植物情報553にも保存される。
収集植物情報を出力した後、CPU51は、植物情報収集処理を終了する。
On the other hand, if photographing has been completed (step 17; Y), the CPU 51 outputs collected plant information based on photographic data and the like (step 18).
The collected plant information output here is all the image data and position information GN data stored in the photographing information 531 (or moving area 552), visible image 532, MS image 533, and position information GN 534 of the RAM 53.
The collected plant information can be output to a USB memory connected to the input/output section 54, an external device connected via the communication control section 56, or the like. The collected plant information in the RAM 53 is also stored in the collected plant information 553 in the storage unit 55.
After outputting the collected plant information, the CPU 51 ends the plant information collection process.

次に、植物情報収集装置1から出力される収集植物情報(可視画像やMS画像等)を使用して、対象植物に対する育成状況の判断について説明する。
図8は、植物の育成状態を判定する植物育成状態判定装置(収穫量推定装置)の構成を表したものである。
図8に示すように、植物育成状態判定装置100は、CPU110、ROM120、RAM130、USB端子140、入力部150、表示装置160、通信制御部170、記憶部180を備えている。
Next, a description will be given of how to determine the growth status of a target plant using collected plant information (visible images, MS images, etc.) output from the plant information collection device 1.
FIG. 8 shows the configuration of a plant growth state determination device (harvest amount estimation device) that determines the growth state of plants.
As shown in FIG. 8, the plant growth state determination device 100 includes a CPU 110, a ROM 120, a RAM 130, a USB terminal 140, an input section 150, a display device 160, a communication control section 170, and a storage section 180.

CPU110は、ROM120や記憶部180等の各種記憶部に記憶されたプログラムに従って、本実施形態における植物の育成情報を判定する処理等の各種の情報処理や制御を行う。
ROM120は、CPU110が各種制御や演算を行うための各種プログラム(システムのブートプログラムやOS(Operating System)などの基本プログラム等)や基本データが予め格納されたリードオンリーメモリである。
The CPU 110 performs various information processing and control, such as processing for determining plant growth information in this embodiment, according to programs stored in various storage units such as the ROM 120 and the storage unit 180.
The ROM 120 is a read-only memory in which various programs (system boot program, basic programs such as an OS (Operating System), etc.) and basic data are stored in advance for the CPU 110 to perform various controls and calculations.

RAM130は、CPU110にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM130には、本実施形態による撮影処理等の各種処理を行うための各種エリアが確保可能になっている。
具体的にRAM130には、可視画像132、MS画像133、位置情報GN134、特徴点136、合成画像137、判定結果138等が一時記憶領域として確保される。
可視画像132、MS画像133、位置情報GN134は、植物の育成状態を判定するために収集された収集植物情報である。この収集植物情報は、植物情報収集装置1の撮影情報531(又は移動領域552)、可視画像532、MS画像533に対応する情報で、収集された植物の育成状態の判定処理において、記憶部180の収集植物情報182から読み出して保存される。可視画像132、MS画像133は一方又は両方がRAM130に保存される。
RAM 130 is a random access memory used by CPU 110 as working memory. This RAM 130 can secure various areas for performing various processes such as photographing processing according to this embodiment.
Specifically, in the RAM 130, visible images 132, MS images 133, position information GN 134, feature points 136, composite images 137, determination results 138, etc. are secured as temporary storage areas.
The visible image 132, the MS image 133, and the position information GN 134 are collected plant information collected to determine the growing state of the plant. This collected plant information is information corresponding to the photographing information 531 (or moving area 552), visible image 532, and MS image 533 of the plant information collecting device 1, and is stored in the storage unit 180 in the process of determining the growing state of the collected plants. The collected plant information 182 is read out and saved. One or both of the visible image 132 and the MS image 133 are stored in the RAM 130.

位置情報GN134は、撮影位置に対応して複数存在する可視画像132やMS画像133を合成する際に使用される。
位置情報GN134は、可視画像132やMS画像133に含まれる撮影位置GKよりも正確な撮影位置を表す情報で、植物情報収集装置1の位置検出装置40で検出された位置情報GNである。
位置情報GN134は、可視画像132、MS画像133に保存されている各撮影画像の撮影番号と同一の撮影番号で管理されているので、同じ撮影番号の両画像132、133の位置情報GNに上書きされる。
The position information GN 134 is used when combining a plurality of visible images 132 and MS images 133 corresponding to the photographing position.
The positional information GN 134 is information representing a more accurate photographing position than the photographing position GK included in the visible image 132 or the MS image 133, and is the positional information GN detected by the position detecting device 40 of the plant information collecting device 1.
Since the position information GN 134 is managed with the same shooting number as the shooting number of each shot image stored in the visible image 132 and MS image 133, it is overwritten with the position information GN of both images 132 and 133 with the same shooting number. be done.

特徴点136は、1箇所の圃場に対して複数箇所で撮影された各撮影画像(可視画像、MS画像)から抽出した特徴点が保存される。
特徴点136は、各撮影画像から画像処理によって抽出した、枝の分岐点Fや節Hなどの特徴点である。
特徴点136は、各撮影画像を合成する際に使用される。
The feature points 136 are stored as feature points extracted from each photographed image (visible image, MS image) taken at a plurality of locations in one field.
The feature points 136 are feature points such as branch points F and nodes H extracted from each captured image by image processing.
The feature points 136 are used when combining each captured image.

合成画像137は、各撮影画像から抽出した特徴点136に基づいて合成した可視画像132の合成画像とMS画像133の合成画像である。
この本実施形態の合成画像137は、収集植物情報を収集した圃場全体で1枚の画像に合成されたものであるが、圃場によっては予め区画された領域毎に合成画像137を作成することも可能である。
The composite image 137 is a composite image of the visible image 132 and the MS image 133, which are composited based on the feature points 136 extracted from each captured image.
The composite image 137 of this embodiment is a composite image of the entire field where the collected plant information was collected, but depending on the field, the composite image 137 may be created for each pre-divided area. It is possible.

判定結果138は、合成画像137を使用して当該画像に写し出された植物の育成情報を判定した結果が保存される。
例えば、可視画像に写る花の状態から判定した果実の収穫量や、MS画像から植物の育成状況を把握するための正規化植生指数(NDVI)等が保存される。
As the determination result 138, the result of determining the growth information of the plant depicted in the image using the composite image 137 is stored.
For example, the harvest amount of fruits determined from the state of flowers in visible images, the normalized vegetation index (NDVI) for understanding the growth status of plants from MS images, etc. are stored.

USB端子140は、外部記憶装置としてのUSBメモリを接続するためのインターフェイスであり、植物情報収集装置1で収集して出力された収集植物情報が保存されたUSBメモリが接続される。
入力部150は、表示装置160のディスプレイ表面に配置されたタッチパネルやキーボード等の各種入力機器である。入力部150は、育成状態を判定する対象データを指定したり、植物育成状態の判定に必要な条件等の判定情報の入力や指定をしたり、判定処理を開始する処理を指示したり、その他の各種入力操作に使用される。
表示装置160は、液晶ディスプレイ等の画像出力装置である。表示装置160には合成前後の可視画像やMS画像、正規化植生指数の分布状態を表すNDVI画像等が表示される。表示装置160には、またタッチパネルでの操作を可能にするための各種操作キー等も表示される。
The USB terminal 140 is an interface for connecting a USB memory as an external storage device, and a USB memory in which collected plant information collected and output by the plant information collecting device 1 is stored is connected.
The input unit 150 is various input devices such as a touch panel and a keyboard arranged on the display surface of the display device 160. The input unit 150 specifies target data for determining the growth state, inputs and specifies determination information such as conditions necessary for determining the plant growth state, instructs processing to start the determination process, and performs other functions. Used for various input operations.
The display device 160 is an image output device such as a liquid crystal display. The display device 160 displays visible images before and after synthesis, MS images, NDVI images representing the distribution state of the normalized vegetation index, and the like. The display device 160 also displays various operation keys for enabling touch panel operations.

通信制御部170は、タブレット等の携帯端末装置やパーソナルコンピュータ等の各種外部電子機器との間を無線通信によりネットワーク接続するための制御装置である。
本実施形態の通信制御部170は、植物情報収集装置1から無線通信により出力される収集植物情報を取得する場合にも使用される。
The communication control unit 170 is a control device that connects various external electronic devices such as mobile terminal devices such as tablets and personal computers to a network through wireless communication.
The communication control unit 170 of this embodiment is also used when acquiring collected plant information output from the plant information collection device 1 by wireless communication.

記憶部180は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置等で構成されている。
この記憶部180に使用される記憶媒体としては、主としてハードディスクや、SSD(Solid State Drive)等の半導体記憶装置、光磁気記憶媒体等の各種記憶媒体のうちの読み書き可能な記憶媒体を使用するようにしてもよい。
記憶部180には、育成状態判定プログラム181、収集植物情報182、判定条件183、植物育成状態判定情報184、その他のプログラムやデータが保存されている。
The storage unit 180 includes a readable and writable storage medium, and a drive device for reading and writing various information such as programs and data to and from the storage medium.
The storage medium used in this storage unit 180 is mainly a readable/writable storage medium among various storage media such as a hard disk, a semiconductor storage device such as an SSD (Solid State Drive), and a magneto-optical storage medium. You can also do this.
The storage unit 180 stores a growth state determination program 181, collected plant information 182, determination conditions 183, plant growth state determination information 184, and other programs and data.

育成状態判定プログラム181は、収集植物情報に基づいて果実の収穫量や、正規化植生指数等の各種植物の育成情報、更に、杉や桧の花粉量等について判定するためのプログラムである。育成状態判定プログラム181は、ユーザによって指定された判定対象植物や、後述の判定条件183から選択された条件に従って、収集植物情報182に保存されている撮影画像(可視画像、MS画像)を使用して対象植物の育成状態を判定する。
収集植物情報182は、植物情報収集装置1から出力される収集植物情報が保存される。この収集植物情報182は、育成状態判定プログラム181が実行されることで、RAM130の作業領域に保存される。
植物育成状態判定情報184は、果実の収穫量等の判定結果が保存される。この判定結果は、育成状態判定処理においてRAM130に保存された判定結果138が読み出されて植物育成状態判定情報184に保存される。
The growth state determination program 181 is a program for determining the amount of fruit harvested, growth information of various plants such as normalized vegetation index, and the amount of pollen of cedar and cypress based on collected plant information. The growth state determination program 181 uses captured images (visible images, MS images) stored in the collected plant information 182 according to the determination target plant designated by the user and conditions selected from the determination conditions 183 described below. to determine the growth status of the target plant.
The collected plant information 182 stores collected plant information output from the plant information collection device 1. This collected plant information 182 is stored in the work area of the RAM 130 by executing the growth state determination program 181.
The plant growth state determination information 184 stores determination results such as the amount of fruit harvested. As for this determination result, the determination result 138 stored in the RAM 130 in the growth state determination process is read out and stored in the plant growth state determination information 184.

判定条件183は、育成状態判定プログラム181で使用される各種判定条件が保存されている。具体的に判定条件183には、可視画像から果実の収穫量を推定する果実毎の判定条件や、MS画像から正規化植生指数(NDVI)を算出する計算式、杉や桧の花粉量を推定する場合の推定条件等が保存される。
いずれの判定条件を使用するか否かについてはユーザが指定することになるが、ユーザの指定が無い場合には予め決められたデフォルトの判定条件が使用される。
判定条件183に保存される各種判定条件としては、デフォルトの条件が予め決められているが、ユーザによって適宜変更、追加することが可能になっている。
In the determination condition 183, various determination conditions used in the growth state determination program 181 are stored. Specifically, the judgment conditions 183 include judgment conditions for each fruit to estimate the yield of fruit from visible images, a calculation formula for calculating the normalized vegetation index (NDVI) from MS images, and estimation of pollen amount of cedar and cypress. Estimated conditions, etc. when doing so are saved.
The user specifies which judgment condition to use or not, but if there is no specification by the user, a predetermined default judgment condition is used.
Default conditions are predetermined as the various judgment conditions stored in the judgment conditions 183, but they can be changed or added as appropriate by the user.

ここで本実施形態で使用する、判定条件183に保存される判定条件、主として果実に対する判定条件について説明する。
一般に梨や林檎、桃、キウイ等の各種果実は、花の数を数えて果実の収穫量を予想している。
しかし、実際の果樹園では全ての花を結実させるのではなく、収穫までの途中段階で花や小さい果実を取り去る摘花、摘果を行うことで、最適(大きい、美味しい等)な果実を収穫している。
そこで本実施形態では、花の数を数えるのではなく、収穫用に残す花や果実に対応した花の状態を計数することで、より正確な収穫量を植物育成状態判定結果として推定している。
判定条件183には、果樹の場合は、花の状態から収穫量を推定するための条件が規定されている。
Here, the judgment conditions stored in the judgment conditions 183 used in this embodiment, mainly the judgment conditions for fruits, will be explained.
In general, for various fruits such as pears, apples, peaches, and kiwis, the yield of fruits is estimated by counting the number of flowers.
However, in actual orchards, instead of letting all the flowers bear fruit, they perform flower thinning and fruit thinning, which removes flowers and small fruits midway through the harvest, to harvest the optimal fruit (large, delicious, etc.). There is.
Therefore, in this embodiment, rather than counting the number of flowers, by counting the state of flowers corresponding to flowers and fruits left for harvesting, a more accurate harvest amount is estimated as a result of determining the plant growth state. .
In the case of fruit trees, the determination conditions 183 define conditions for estimating the yield from the state of flowers.

図9は、一例として、可視画像132に写されている果実の花から、梨やキウイ等の果実の収穫量を推定するための判定条件として、(a)は梨の判定条件、(b)はキウイの判定条件を表したものである。
図9(a)に示すように、梨の判定条件として、「枝先無果花叢数」、「花叢の果数」などが規定されている。
ここで最初の条件「枝先無果花叢数」は、枝の先端(枝先)から数えて、梨の収穫数としてカウントしない花叢の数であり、果実を実らせない花叢の数である。
次の条件「花叢の果数」は、1つの花叢に収穫を予定している果数で、1花叢に対してカウントする果実の数(収穫推定数)である。
「枝先無果花叢数」が条件1では2つ、条件2では3つ、条件3では3つ…と規定され、「花叢の果数」が条件1では1果、条件2では1果、条件3では2果…と規定されている。
FIG. 9 shows, as an example, determination conditions for estimating the yield of fruits such as pears and kiwis from the flowers of the fruit depicted in the visible image 132. (a) is the determination condition for pears, (b) represents the criteria for determining kiwifruit.
As shown in FIG. 9(a), the conditions for determining pear include "the number of fruitless flowers at the tip of a branch", "the number of fruits in the flower cluster", etc.
Here, the first condition "number of fruitless flower clusters at branch ends" is the number of flower clusters that are counted from the tip of the branch (branch tip) and is not counted as the number of harvested pears, and is the number of flower clusters that do not bear fruit.
The next condition "Number of fruits in a flower cluster" is the number of fruits scheduled to be harvested in one flower cluster, and is the number of fruits (estimated number of fruits to be harvested) counted for one flower cluster.
The "number of fruitless flowers at the tip of a branch" is defined as 2 in condition 1, 3 in condition 2, 3 in condition 3, etc., and the "number of fruits in the flower cluster" is 1 fruit in condition 1, 1 fruit in condition 2, etc. Condition 3 stipulates that there are 2 results.

ここで、梨の収穫と判定条件の既定との関係について説明する。
図10は、梨の開花状態を模式的に表したものである。
図10に示すように、梨は1つの花芽から複数の花が咲き、その花群を花叢(KS1、KS2…)という。
そして梨の場合、新芽の成長を促進させたり全体に栄養分を行きわたらせる目的で、枝の先端(枝先)側には果実を実らせないようにするために、枝先から枝の分岐点方向に向かってn個の花叢については、全花の摘花を行うことがある。
この枝先から全摘花を行う花叢の数が、「枝先無果花叢数」として規定されている。
例えば、判定条件1では「枝先無果花叢数」が「2つ」なので(図9(a))、枝先の花叢KS1と花叢KS2(図10)の2つが全摘花の対象となり、収穫推定数としてはカウント数0(カウント対象外)である。
Here, the relationship between the harvest of pears and the default determination conditions will be explained.
FIG. 10 schematically represents the flowering state of a pear.
As shown in FIG. 10, in a pear, a plurality of flowers bloom from one flower bud, and the flower group is called a flower cluster (KS1, KS2, etc.).
In the case of pears, for the purpose of promoting the growth of new shoots and distributing nutrients throughout the tree, in order to prevent fruit from growing on the tip of the branch (branch tip), the branch point is For n flower clusters in the direction, all flowers may be thinned.
The number of flower clusters from which all flowers are removed from the branch tips is defined as the "number of branch tip fruitless clusters."
For example, in Judgment Condition 1, the "number of branch tip fruitless flowers" is "2" (Figure 9(a)), so two flower clusters, KS1 and KS2 (Figure 10) at the tip of the branches, are subject to complete flower thinning and harvested. The estimated number is 0 (not counted).

一方、1つの花叢に多数の果実を実らせると、大きな果実を収穫できなくなるため、収穫までの間に適時、各花叢に対して摘花、摘果を行い、最終的に1つの花叢から収穫する果数が「花叢の果数」として規定されている。
例えば、判定条件1では「花叢の果数」が「1果」なので(図9(a))、カウント対象外の花叢KS1と花叢KS2を除いた、花叢KS3に対して、梨の収穫推定数1がカウントされる。
なお、「枝先無果花叢数」で規定された枝先の花叢は、「花叢の果数」によるカウント対象外である。
On the other hand, if one flower cluster bears many fruits, it will not be possible to harvest large fruits. Therefore, flowers and fruits must be removed from each flower cluster at appropriate times until harvest, and the fruits that can be harvested from a single flower cluster must be removed at appropriate times until harvest. The number is defined as the "number of fruits in the flower cluster."
For example, in judgment condition 1, the "number of fruits in a flower cluster" is "1 fruit" (Figure 9(a)), so the estimated number of harvested pears for the flower cluster KS3, excluding flower clusters KS1 and KS2, which are not counted. 1 is counted.
Note that the flower cluster at the tip of a branch defined by the "number of fruitless flowers at the end of a branch" is not counted by the "number of fruits in a flower cluster".

図9(a)に規定した梨の判定条件は一例であり、その他の条件、例えば対象となる梨の種類(幸水、豊水、にっこり等)に対応した条件や、梨園独自の収穫方針による条件などを設定、追加することが可能になっている。
梨園独自の収穫方針として、例えば特定の領域において特大サイズの梨を収穫するため用の条件として、先端以外の花叢でも、複数(例えば、2、3、…5個)の花叢当り1果と規定したり、収穫対象として係数する花叢と花叢の間をBcm(例えば、20cm)以上と規定したりする。
このように、図9(a)を含めた各種梨の判定条件が規定されることで、ユーザが運営する梨園に適した判定条件を選択することで、より正確な収穫量を推定することが可能になる。
The judgment conditions for pears specified in Figure 9(a) are just an example, and other conditions may be used, such as conditions corresponding to the target pear type (Kosui, Hosui, Nikkori, etc.) or conditions based on the pear orchard's own harvesting policy. It is now possible to configure and add items such as.
As a pear orchard's own harvest policy, for example, as a condition for harvesting extra-large pears in a specific area, even in flower clusters other than the tips, one fruit per multiple (for example, 2, 3, ... 5) flower clusters is stipulated. Or, the distance between the flower clusters to be harvested may be defined as Bcm (for example, 20 cm) or more.
In this way, by specifying the judgment conditions for each type of pear, including those shown in Figure 9(a), it is possible to more accurately estimate the yield by selecting the judgment conditions suitable for the pear orchard operated by the user. It becomes possible.

次に、図9(b)に示したキウイの判定条件について説明する。
図9(b)に示すように、キウイの判定条件として、「対象」「果柄の果数」「葉数条件」「枝長条件」等が規定されている。
キウイは雌雄別木であるため、計数する「対象」として全て雌花が規定されている。
キウイの花の認定は、画像認識により、花の形と白色とから花の外形を特定し、更に、中央から外側に向う白い糸状の雌しべの有無により雌花を特定する。なお、中央部分に黄色の花粉が付いた花糸が球状に存在するのが雄花である。
Next, the criteria for determining kiwifruit shown in FIG. 9(b) will be explained.
As shown in FIG. 9(b), "target", "number of fruit on stalk", "leaf number condition", "branch length condition", etc. are defined as criteria for kiwifruit.
Kiwi is a male and female tree, so all female flowers are required to be counted.
Kiwi flowers are recognized by image recognition, which identifies the outer shape of the flower based on its shape and white color, and further identifies female flowers based on the presence or absence of white thread-like pistils extending outward from the center. A male flower has a spherical filament with yellow pollen attached to its center.

キウイは1つの果柄に通常3つの花が咲くので、1つの果柄に対して摘花、摘果によって残す(収穫する)キウイの数が「果柄の果数」として規定されている。
また、「葉数条件」は、キウイの葉の数に対して収穫する果数が規定され、例えば、条件1では葉数5枚当り1果のキウイを計数する。
枝長条件は、分岐した枝の長さに応じて収穫(計数)する果実の数で、例えば、条件3では、小の場合1果、中の場合2果、長の場合3果として規定されている。なお、小、中、長の区別も別途規定され、例えば、小は30cm未満、中は30cm以上80cm未満、長は80cm以上と規定されている。
Since kiwifruit usually have three flowers blooming on one fruit stalk, the number of kiwis left (harvested) by flower thinning and fruit thinning for one fruit stalk is defined as the "number of fruits on a fruit stalk."
Further, in the "leaf number condition", the number of fruits to be harvested relative to the number of kiwi leaves is defined. For example, in condition 1, one kiwi fruit is counted for every five leaves.
The branch length condition is the number of fruits to be harvested (counted) according to the length of the branched branches. For example, in condition 3, it is defined as 1 fruit if small, 2 fruits if medium, and 3 fruits if long. There is. Note that the distinction between small, medium, and long is also specified separately. For example, small is defined as less than 30 cm, medium is defined as 30 cm or more and less than 80 cm, and length is defined as 80 cm or more.

なお図示しないが、判定条件183には、花の数(花数や花叢数、果柄等)に対して収穫する果実の数や、葉や枝に対するカウント条件などの各種判定条件が、桃、林檎、ブドウ等の果樹毎に規定されている。 Although not shown, the judgment conditions 183 include various judgment conditions such as the number of fruits to be harvested relative to the number of flowers (number of flowers, number of flower clusters, fruit stalks, etc.) and counting conditions for leaves and branches. Regulations are specified for each fruit tree, such as apples and grapes.

次に、植物情報収集装置1で収集し出力された収集植物情報を使用して、当該植物の育成状態を判定する育成状態判定処理(収穫量推定処理)について説明する。
図11は、育成状態判定処理(収穫量推定処理)について表したフローチャートである。
当該処理の前提として、記憶部180の収集植物情報182若しくはUSB端子140に接続されたUSBメモリに植物情報収集装置1で収集した可視画像やMS画像を含む収集植物情報が保存され、又は通信制御部170を介して外部から収集植物情報を取得可能な状態になっているものとする。
またユーザの入力部150の操作により、育成状態判定プログラム181が起動しているものとする。
Next, a growth state determination process (harvest amount estimation process) that uses the collected plant information collected and output by the plant information collection device 1 to determine the growth state of the plant will be described.
FIG. 11 is a flowchart showing the growth state determination process (harvest amount estimation process).
As a premise of this processing, collected plant information including visible images and MS images collected by the plant information collecting device 1 is stored in the collected plant information 182 of the storage unit 180 or a USB memory connected to the USB terminal 140, or communication control is performed. It is assumed that collected plant information can be acquired from the outside via the unit 170.
It is also assumed that the growth state determination program 181 has been activated by the user's operation on the input unit 150.

図11に示すように、植物育成状態判定装置100のCPU110は、判定条件を取得する(ステップ20)。すなわち、CPU110は、表示装置160に判定条件を指定する画面を表示し、この表示に基づいてユーザが指定した判定条件を判定条件183から取得する。ここでは、仮にユーザが図9(a)に示した梨の判定条件1を指定したものとすると、CPU110は、指定された梨の判定条件1をRAM130の所定領域(図視しない)に保存する。 As shown in FIG. 11, the CPU 110 of the plant growth state determination device 100 acquires determination conditions (step 20). That is, the CPU 110 displays a screen for specifying a determination condition on the display device 160, and acquires the determination condition specified by the user from the determination condition 183 based on this display. Here, assuming that the user specifies the pear determination condition 1 shown in FIG. .

次にCPU110は、撮影データを取得する(ステップ21)。
すなわちCPU110は、ユーザが指定した判定条件1に基づいて、収集植物情報182(又は、USBメモリ、通信制御部170)から対応する植物の収集植物情報を取得し、RAM130の可視画像132又は/及びMS画像133と位置情報GN134に保存する。
Next, the CPU 110 acquires photographic data (step 21).
That is, the CPU 110 acquires the collected plant information of the corresponding plant from the collected plant information 182 (or USB memory, communication control unit 170) based on the determination condition 1 specified by the user, and reads the visible image 132 and/or the visible image 132 of the RAM 130. The MS image 133 and position information are saved in the GN 134.

次にCPU110は、可視画像132、MS画像133の撮影位置修正を行う(ステップ22)。
すなわちCPU110は、可視画像132、MS画像133の各撮影画像に含まれている撮影位置GK(図4(b)参照)を、その撮影画像の撮影番号と同じ撮影番号で管理されている位置情報GN134の位置情報GNに変更(修正)する。
以下、撮影位置GKについて、位置情報GNで撮影位置を修正した後の表記を撮影位置GNとする。
Next, the CPU 110 corrects the photographing positions of the visible image 132 and the MS image 133 (step 22).
That is, the CPU 110 converts the photographing position GK (see FIG. 4(b)) included in each photographed image of the visible image 132 and the MS image 133 into position information managed using the same photographing number as that of the photographed image. Change (correct) the position information GN of GN134.
Hereinafter, regarding the photographing position GK, the notation after correcting the photographing position using the position information GN will be referred to as the photographing position GN.

なお、本実施形態では、植物情報収集装置1のカメラが備えるGPS装置で取得する撮影位置GKの精度が低くて後述の画像合成(ステップ24)ができないため、精度が高い位置情報GNで修正している。
しかし、画像合成できる程度に精度が高い撮影位置GKが得られる場合には、植物情報収集装置1に位置検出装置40が搭載されず、撮影位置GKがそのまま使用される。
この場合、撮影位置修正のステップ22は省略される。
撮影位置GKが撮影位置GNに修正された状態の収集植物情報182を植物情報収集装置1から取得している場合にもステップ22が省略される。
In this embodiment, since the accuracy of the photographing position GK acquired by the GPS device included in the camera of the plant information collecting device 1 is low and image synthesis (step 24) described below cannot be performed, the position information GN with high accuracy is corrected. ing.
However, when the photographing position GK is obtained with high precision to the extent that images can be synthesized, the position detecting device 40 is not installed in the plant information collection device 1, and the photographing position GK is used as is.
In this case, step 22 of correcting the photographing position is omitted.
Step 22 is also omitted when the collected plant information 182 with the photographing position GK corrected to the photographing position GN is acquired from the plant information collection device 1.

次にCPU110は、特徴点の抽出を行う(ステップ23)。
すなわちCPU110は、可視画像132、MS画像133の各撮影画像から特徴点を抽出し、抽出した特徴点に撮影番号を付して特徴点136に保存する。
撮影画像の特徴点は、例えば図10に示した対象植物の節Hや枝の分岐点F等が画像認識により抽出される。
なお、抽出する特徴点としては、植物情報収集装置1による撮影前に植物の枝や幹に所定の目印(例えば赤色のテープや紐など)を配設しておき、この目印を特徴点として抽出するようにしてもよい。この場合の目印は、植物情報収集装置1による撮影間隔と同程度に配置することが好ましい。本実施形態の場合、RGBカメラ41の撮影間隔s1=2m、狭いMSカメラ46の撮影間隔s2=1mの間隔で目印を配置する。
Next, the CPU 110 extracts feature points (step 23).
That is, the CPU 110 extracts feature points from each photographed image of the visible image 132 and the MS image 133, attaches a photographing number to the extracted feature points, and stores them as the feature points 136.
Feature points of the photographed image include, for example, nodes H of the target plant and branch points F of branches shown in FIG. 10, which are extracted by image recognition.
In addition, as the feature points to be extracted, predetermined landmarks (for example, red tape or strings) are placed on the branches and trunks of plants before photographing by the plant information collection device 1, and these landmarks are extracted as feature points. You may also do so. In this case, it is preferable that the marks are arranged at the same interval as the photographing interval by the plant information collection device 1. In the case of this embodiment, the marks are arranged at an interval of s1 = 2 m for the RGB camera 41 and 1 m for the narrow MS camera 46.

抽出した特徴点は、対象となる撮影画像の撮影位置GNと、その撮影画像中における特徴点の位置とから、撮影した圃場の撮影領域の所定地点を原点とした座標で表される。
圃場の撮影領域は、収集植物情報182に含まれる撮影情報531(又は移動領域552、図4参照)から取得する。
原点としては、例えば、最初に撮影した地点(撮影番号001の位置情報GN)を使用する。
The extracted feature points are expressed by coordinates with a predetermined point in the photographed field of the photographed field as the origin, based on the photographing position GN of the target photographed image and the position of the feature point in the photographed image.
The photographing area of the field is acquired from the photographing information 531 (or moving area 552, see FIG. 4) included in the collected plant information 182.
As the origin, for example, the first photographed point (location information GN of photographing number 001) is used.

特徴点の抽出は、各撮影画像の画像全体から抽出することも可能であるが、本実施形態では、画像の中央部が除かれた周辺領域を対象として抽出している。
図6に例示したように、植物情報収集装置1における撮影では前後する撮影及び、往復する撮影において、前後左右の撮影画像の一部が重なるように撮影しているので、この重なる範囲を周辺領域として特徴点を抽出する。
なお、本合成処理で使用する可視画像132、MS画像133は、植物情報収集装置1により対象となる植物を、日没後に照明をした状態で地面側から撮影している。このため、逆光状態での撮影画像ではないので、特徴点の抽出(及び画像の合成)を容易に行うことができる。
Although it is possible to extract feature points from the entire image of each photographed image, in this embodiment, the feature points are extracted from the peripheral area of the image except for the central part.
As illustrated in FIG. 6, in the photographing by the plant information collecting device 1, the photographed images are taken so that a part of the photographed images on the front, back, left and right sides overlap in the back and forth photographing and the back and forth photographing. Extract feature points as follows.
Note that the visible image 132 and MS image 133 used in this synthesis process are obtained by photographing the target plant from the ground side with the plant information collecting device 1 illuminated after sunset. Therefore, since the image is not taken in a backlit state, extraction of feature points (and image synthesis) can be easily performed.

次にCPU110は、画像の合成を行う(ステップ24)。
すなわちCPU110は、抽出した各撮影画像の特徴点136と、撮影位置GKを使用して可視画像132、MS画像133の合成を行う。
より具体的に説明すると、CPU110は、まず可視画像132、MS画像133を、撮影番号と撮影時の移動経路とから、互いに隣接する撮影画像を求める。そして隣接する2枚の撮影画像の位置関係から、当該両撮影画像の撮影番号に対応する特徴点136のうち、画像が重なる周辺領域の特徴点136が一致するように位置合せを行う。
CPU110は、全ての撮影画像に対して隣接する撮影画像との位置合せをした、圃場全体の撮影画像を合成画像137に保存する。
Next, the CPU 110 performs image composition (step 24).
That is, the CPU 110 synthesizes the visible image 132 and the MS image 133 using the extracted feature points 136 of each captured image and the captured position GK.
More specifically, the CPU 110 first determines adjacent photographed images of the visible image 132 and the MS image 133 from the photographing number and the travel route at the time of photographing. Then, based on the positional relationship between the two adjacent captured images, positioning is performed so that among the feature points 136 corresponding to the imaging numbers of both of the captured images, the feature points 136 in the surrounding area where the images overlap coincide with each other.
The CPU 110 stores, in a composite image 137, a photographed image of the entire field in which all photographed images are aligned with adjacent photographed images.

なお、撮影画像の合成については、撮影画像の位置合せをすることで単純に合成する場合のほか、可視画像132、MS画像133を合成することで、圃場全体を立体的に表すオルソ画像を作成するようにしてもよい。
オルソ画像の作成には、異なる撮影位置で撮影された画像を合成して3次元形状のオルソ画像を作成するSfM(Structure from Motion)ソフトを使用する。
Regarding the synthesis of captured images, in addition to simply compositing by aligning the captured images, it is also possible to create an ortho image that represents the entire field three-dimensionally by composing the visible image 132 and MS image 133. You may also do so.
To create an orthogonal image, SfM (Structure from Motion) software is used to create a three-dimensional orthogonal image by combining images taken at different photographing positions.

次にCPU110は、育成状態の判定を行い(ステップ25)、処理を終了する。
すなわちCPU110は、可視画像132、MS画像133の合成画像137を使用して育成状態についての状態判定処理を行う。
図12は、状態判定処理(サブルーチン)を表すフローチャートである。
状態判定処理は、ステップ20で取得した判定条件に従って行われるが、ここでは、図9(a)の判定条件1が指定されたものとして、梨の収穫量を推定(判定)する場合について説明する。
Next, the CPU 110 determines the growth state (step 25), and ends the process.
That is, the CPU 110 uses a composite image 137 of the visible image 132 and the MS image 133 to perform state determination processing regarding the growth state.
FIG. 12 is a flowchart showing the state determination process (subroutine).
The state determination process is performed according to the determination conditions acquired in step 20, but here, a case will be described in which the pear yield is estimated (determined) assuming that determination condition 1 in FIG. 9(a) is specified. .

最初に、CPU110は、花叢の抽出を行う(ステップ241)。
梨の場合、1つの花叢KS1、KS2、…に複数の花が咲き(図10参照)、1花叢当り1又は数個の梨を収穫対象としているので、花叢毎の収穫果数が判定条件として規定されている(図9(a)参照)。
そこで、CPU110は、可視画像132からの合成画像137から、個々の花を抽出するのではなく、複数の花群で構成される花叢を抽出する。花叢の抽出は、花叢全体の輪郭を抽出する等の周知の各画像認識技術が使用可能である。
First, the CPU 110 extracts a flower cluster (step 241).
In the case of pears, multiple flowers bloom in one flower cluster KS1, KS2, etc. (see Figure 10), and one or several pears per flower cluster are to be harvested, so the number of fruits harvested in each flower cluster is used as a judgment condition. (See FIG. 9(a)).
Therefore, the CPU 110 does not extract individual flowers from the composite image 137 obtained from the visible image 132, but extracts a flower cluster composed of a plurality of flower groups. To extract the flower cluster, various well-known image recognition techniques such as extracting the outline of the entire flower cluster can be used.

本実施形態の植物情報収集装置1では、日没後に、地面側から、照明をした状態で撮影をしているので、図7に示されるように、黒色の背景に対象植物が写されている。また、昼間に対象植物の上部から撮影する場合のように、背景部分に雑草などが写されていない。
本実施形態の撮影画像(合成画像137)には、対象植物の背景に雑草等がなく、花や花叢の輪郭が明瞭になる黒色の背景になっているので、花や花叢の抽出を容易に行うことができる。
In the plant information collection device 1 of this embodiment, since the photograph is taken from the ground side with lighting after sunset, the target plant is photographed against a black background, as shown in FIG. . Additionally, weeds and the like are not captured in the background, unlike when photographing from above the target plant during the day.
In the photographed image (composite image 137) of this embodiment, there are no weeds in the background of the target plant, and the background is black with clear outlines of flowers and flower clusters, making it easy to extract flowers and flower clusters. It can be carried out.

次にCPU110は、対象花叢の計数を行う(ステップ242).
すなわちCPU110は、ステップ241で抽出した花叢に対して、ステップ20(図11)で取得した判定条件に基づいて、対象花叢の数を計数する。
判定条件として図9(a)の条件1が選択されている場合には、抽出した花叢のうち枝の先端の花叢とその1つ手前の花叢(図10の例では、花叢KS1と花叢KS2)を除外した数を対象果数として計数する。
Next, the CPU 110 counts the number of target flower clusters (step 242).
That is, the CPU 110 counts the number of target flower clusters based on the determination conditions acquired in step 20 (FIG. 11) for the flower clusters extracted in step 241.
When condition 1 in FIG. 9(a) is selected as the determination condition, the flower cluster at the tip of the branch and the flower cluster one place before it among the extracted flower clusters (in the example of FIG. 10, the flower cluster KS1 and the flower cluster KS2) The number of fruits excluded is counted as the number of target fruits.

次にCPU110は、収穫量を推定する(ステップ243)。
すなわちCPU110は、計数した対象花叢数をW、判定条件の「花叢の果数」をUとした場合、次の式(1)から対象果実の収穫量Tを推定する。
収穫量T=対象花叢数W×花叢果数U…(1)
例えば、図9(a)の条件1が指定されている場合、花叢の果数U=1果なので、CPU110は、収穫量T=対象花叢数W×1=Wを推定する。
Next, the CPU 110 estimates the harvest amount (step 243).
That is, the CPU 110 estimates the harvest amount T of the target fruit from the following equation (1), where W is the counted number of target flower clusters and U is the determination condition "number of fruits in the flower cluster".
Harvest amount T = Number of target flower clusters W x Number of flower clusters U... (1)
For example, when condition 1 in FIG. 9A is specified, the number of fruits in the flower cluster U = 1 fruit, so the CPU 110 estimates the harvest amount T = the number of target flower clusters W x 1 = W.

最後にCPU110は、推定した収穫量Tを保存する(ステップ244)。
すなわちCPU110は、推定した梨の収穫量Tを、植物育成状態判定情報184として保存し、図11のメインルーチンにリターンして処理を終了する。
Finally, the CPU 110 stores the estimated harvest amount T (step 244).
That is, the CPU 110 saves the estimated pear yield T as the plant growth state determination information 184, returns to the main routine of FIG. 11, and ends the process.

以上、梨の収穫量を推定する育成状態判定処理について説明したが、キウイ、林檎、桃、ブドウ、サクランボ、蜜柑や八朔等の柑橘類などの他の果実についても、果実毎に規定された判定条件(ユーザが選択した判定条件、又はデフォルトとして決められている判定条件)に従って、果実の収穫量が推定される。 The growth status determination process for estimating the yield of pears has been described above, but other fruits such as kiwis, apples, peaches, grapes, cherries, citrus fruits such as mandarin oranges, and hassaku can also be evaluated using the determination conditions specified for each fruit. The harvest amount of fruit is estimated according to the determination condition selected by the user or the determination condition determined as a default.

また、植物情報収集装置1により収集された収集植物情報553のうち、可視画像532(可視画像132)を使用し、植物の育成状態として果実の収穫量を推定する場合について説明したが果実以外にも、可視画像(RGB画像)を使用して植物の育成状態を判定することが可能である。この場合にも、植物情報収集装置1により、当該植物を日没後に、地面側から、照明した状態で撮影した可視画像532(可視画像132)を、育成状態の判定に使用する。 In addition, although a case has been described in which the visible image 532 (visible image 132) is used among the collected plant information 553 collected by the plant information collecting device 1 to estimate the yield of fruit as the growing state of the plant, It is also possible to determine the growth state of a plant using a visible image (RGB image). In this case as well, the visible image 532 (visible image 132) taken by the plant information collection device 1 after sunset of the plant from the ground side in an illuminated state is used to determine the growing state.

次に植物情報収集装置1と植物育成状態判定装置100による、第2実施形態について説明する。
この第2実施形態では、果実以外の例として、杉や桧の雄花の収集植物情報を収集し、杉雄花の着生状況(植物育成状態)を求め、翌年春の花粉量を推定するものである。
Next, a second embodiment using the plant information collection device 1 and the plant growth state determination device 100 will be described.
In this second embodiment, as an example other than fruits, plant information on male flowers of cedar and cypress is collected, the epiphytic status (plant growth status) of the male cedar flowers is determined, and the amount of pollen in the spring of the following year is estimated. .

杉や桧の花粉によるアレルギーが大きな問題となっており、花粉の飛散量が予報されている。この予報については、実際に花粉が飛散している時期において花粉数を調べて、花粉予報に用いている。花粉数は、野外に放置されたプレパラートに付着した花粉の数を人が顕微鏡で数えたり、ポンプで吸引した大気にレーザー光を照射することで大気中の花粉数を自動計測したりしている。
しかし、花粉が飛散している時期における花粉飛散状況を調べるものであり、花粉の飛散時期よりも前に飛散状況を推測し予報することはできない。
Allergies caused by cedar and cypress pollen have become a major problem, and the amount of pollen dispersed is predicted to increase. Regarding this forecast, pollen counts are investigated during the period when pollen is actually scattered and used for pollen forecasting. Pollen counts are measured by humans using a microscope to count the number of pollen particles that stick to prepared specimens left outdoors, or by automatically measuring the number of pollen particles in the air by shining a laser beam onto the air sucked in by a pump. .
However, this method examines the pollen scattering situation during the pollen scattering season, and it is not possible to estimate and predict the pollen scattering situation before the pollen scattering season.

そこで、花粉が飛散する前年において翌年春の花粉飛散量を予測する技術が提案されている(長野県林総セ研報第21号19頁~28頁「花粉生産量予測システム普及事業」/2006年12月、近藤、道治)。
しかしこの予測システムでは、双眼鏡で杉の木の樹冠を目視観察することで、個々の杉における雄花の着生状況を評価する必要があり時間を要す大変な作業であった。
また日中に双眼鏡による目視観察を行うため、太陽との位置関係を考慮しながら行う必要もあった。
Therefore, a technology has been proposed that predicts the amount of pollen scattered in the spring of the following year based on the previous year when the pollen is scattered (Nagano Prefecture Forest Research Center Report No. 21, pp. 19-28, "Pollen Production Prediction System Dissemination Project" / 2006) December, Kondo, Michiharu).
However, with this prediction system, it was necessary to visually observe the crowns of cedar trees using binoculars to evaluate the status of male flower formation on each cedar tree, which was a time-consuming and difficult task.
Additionally, since visual observations were to be made using binoculars during the day, it was necessary to consider the positional relationship with the sun.

そこで第2実施形態では、果実以外の例として、杉や桧の雄花の可視画像を撮影し、収集植物情報として出力し、この収集情報(可視画像)を画像処理することにより杉雄花の着生状況を判断し、翌年春の花粉量を推定するものである。
以下第2実施形態による植物情報収集装置1と植物育成状態判定装置100を使用した杉花粉量の推定について、第1実施形態で説明した処理と異なる点を中心に説明する。
Therefore, in the second embodiment, as an example other than fruits, visible images of male flowers of cedar and cypress are photographed, outputted as collected plant information, and this collected information (visible images) is image-processed to increase the epiphytic growth of male flowers of cedar. It assesses the situation and estimates the amount of pollen for the following spring.
The estimation of the amount of cedar pollen using the plant information collection device 1 and the plant growth state determination device 100 according to the second embodiment will be described below, focusing on the differences from the processing described in the first embodiment.

この第2実施形態では、第1実施形態で説明したRGBカメラ41とLEDライト42のセットを搭載した植物情報収集装置1を使用して杉林内の撮影を行う。
この撮影は、杉の雄花が着生する11月から12月の、日没後に、移動領域552で指定された撮影領域と移動経路に従って、LEDライト42による照明をした状態で、所定間隔毎にRGBカメラ41で、地面側から、杉の可視画像を撮影する。
第2実施形態の移動部3は、人力で移動させるワゴンや無人飛行を行うドローンを使用することも可能であるが、第1実施形態と同様に、無人走行車両が使用される。但し、杉林内を移動するので、図1に示した4つのタイヤに代えてキャタピラーを備えた無人走行車両を使用することが好ましい。
In the second embodiment, a photograph of a cedar forest is taken using the plant information collecting device 1 equipped with the set of the RGB camera 41 and the LED light 42 described in the first embodiment.
This photographing is carried out at predetermined intervals after sunset from November to December when the male cedar flowers are established, under illumination with the LED light 42, in accordance with the photographing area and movement route specified in the movement area 552. An RGB camera 41 photographs a visible image of the cedar from the ground side.
Although it is possible to use a wagon that is moved manually or a drone that flies unmanned as the moving unit 3 of the second embodiment, an unmanned vehicle is used as in the first embodiment. However, since the vehicle moves within a cedar forest, it is preferable to use an unmanned vehicle equipped with caterpillars instead of the four tires shown in FIG.

また植物情報収集装置1の移動領域552には、第1実施形態と同様に撮影領域と移動経路が保存される。
但し、対象植物が規則正しく格子状に植えられている第1実施形態で説明した梨園と異なり、対象となる杉は任意位置に存在している。このため、第2実施形態では杉の木を避けながら撮影領域全体の杉を撮影できる移動経路が移動領域552に保存される。
Further, in the movement area 552 of the plant information collection device 1, a photographing area and a movement route are stored as in the first embodiment.
However, unlike the pear orchard described in the first embodiment where the target plants are regularly planted in a grid pattern, the target cedars are located at arbitrary positions. Therefore, in the second embodiment, a moving route that allows the user to photograph the cedars in the entire photographing area while avoiding the cedar trees is stored in the moving area 552.

次に、植物情報収集装置1から出力される杉の収集植物情報553を取得して、植物育成状態判定装置100で杉花粉の飛散状況を推測する処理について説明する。
この第2実施形態において、記憶部180に保存される判定条件183としては、「本数」、「分類条件」、「重み」、「計算式」等が規定されている。
Next, a process of acquiring the collected plant information 553 of cedar outputted from the plant information collecting device 1 and estimating the scattering state of cedar pollen using the plant growth state determining device 100 will be described.
In the second embodiment, as the determination conditions 183 stored in the storage unit 180, "number", "classification condition", "weight", "calculation formula", etc. are defined.

「本数」は、撮影領域内に存在する調査対象となる杉の本数で40本と決められている。この40本は、撮影領域内に存在する予め決められた40本であるが、任意に抽出した40本を対象にすることも可能である。調査対象である40本が予め決められている場合には、調査対象であることを画像認識するための識別票が杉に付けられる。 The "number" is the number of cedar trees to be surveyed that exist within the photographing area, and is determined to be 40. These 40 lines are predetermined 40 lines that exist within the imaging area, but it is also possible to use 40 arbitrarily extracted lines as the target. When 40 trees are determined in advance to be surveyed, an identification tag is attached to each cedar tree for image recognition to identify the cedars as survey targets.

「分類条件」は、各杉の木における雄花の着生状況によって杉の木をA~Dに分類する為の条件である。分類A~Dは次の通り規定されている。
分類A:雄花が杉の樹冠の全面に着生し、かつ雄花群の密度が非常に高い個体
分類B:雄花が樹冠のほぼ全面に着生している個体
分類C:雄花が樹冠に疎らに着生、又は樹冠の限られた部分に着生している個体
分類D:雄花が観察されない個体
本実施形態では、分類A~Dについて、杉の木の樹冠部分から画像認識によって求まる雄花密度Qから決定する。雄花密度Qは、針葉部分である緑領域Gに対する雄花部分である黄色領域Yの割合いで、Q=(Y/G)×100である。
雄花密度Qは、40%以上である場合にA、10%以上~40%未満である場合にB、1%以上~10%未満である場合にC、1%未満である場合にDに分類するように規定されている。各分類に対応する雄花密度Qの密度範囲は、本実施形態で採用している一例であり、各観測地域の状況(寒冷地、温暖地、高地、平地等)などに応じて、密度範囲が条件1、条件2、…毎に決められ、図11のステップ20(判定条件取得)の際に決定するようになっている。
The "classification conditions" are conditions for classifying cedar trees into A to D based on the status of male flower formation on each cedar tree. Classifications A to D are defined as follows.
Classification A: Individuals with male flowers growing on the entire crown of the cedar tree and a very high density of male flower clusters Classification B: Individuals with male flowers growing on almost the entire crown of the tree Category C: Male flowers are scattered on the crown of the tree Individuals that are epiphytic or epiphytic on a limited part of the tree crown Class D: Individuals where male flowers are not observed In this embodiment, male flower density Q determined from the crown part of the cedar tree by image recognition for classifications A to D. Determine from. The male flower density Q is the ratio of the yellow area Y, which is the male flower part, to the green area G, which is the needle leaf part, and is Q=(Y/G)×100.
Male flower density Q is classified as A if it is 40% or more, B if it is 10% or more and less than 40%, C if it is 1% or more and less than 10%, and D if it is less than 1%. It is stipulated to do so. The density range of male flower density Q corresponding to each classification is an example adopted in this embodiment, and the density range may vary depending on the conditions of each observation region (cold region, warm region, highland, flatland, etc.). It is determined for each condition 1, condition 2, etc., and is determined at step 20 (obtaining judgment conditions) in FIG.

「重み」は、各分類条件に付けられた重みの値で、分類Aが100、分類Bが50、分類Cが10、分類Dが0である。 "Weight" is a weight value given to each classification condition, and is 100 for classification A, 50 for classification B, 10 for classification C, and 0 for classification D.

「計算式」は、雄花指数Dを使用して、花粉生産量KHを算出する式である。
雄花指数Dは、雄花着生状態を表し、次の式(2)から算出される。
雄花指数D=(Aの本数×100)+(Bの本数×50)+(Cの本数×10)+(Dの本数×0)…(2)
The "calculation formula" is a formula for calculating the pollen production amount KH using the male flower index D.
The male flower index D represents the state of male flower formation and is calculated from the following equation (2).
Male flower index D = (Number of A x 100) + (Number of B x 50) + (Number of C x 10) + (Number of D x 0)...(2)

花粉生産量KHは、杉林内において発生(生産)される単位面積(1平方m)当りの雄花の数を推定する式であり、例えば、次の式(3)、式(4)がユーザにより選択される判定条件に規定されている。
最初の式(3)は次の通りである。
花粉生産量KH=0.1452×D+134.79…(3)
数式(3)における、決定係数R{2}(R{2}はRの2乗)は、R{2}=0.9177であり、雄花指数Dと花粉生産量KHとの間に強い相関関係が認められる。
The pollen production amount KH is a formula for estimating the number of male flowers generated (produced) per unit area (1 square meter) in a cedar forest.For example, the following formulas (3) and (4) can be calculated by the user. It is specified in the selected judgment condition.
The first equation (3) is as follows.
Pollen production amount KH=0.1452×D+134.79…(3)
In formula (3), the coefficient of determination R{2} (R{2} is the square of R) is R{2}=0.9177, and there is a strong correlation between the male flower index D and the pollen production KH. A relationship is recognized.

次の式(4)は次の通りである。
花粉生産量KH=0.9934×E+0.5842…(4)
式(4)における決定係数R{2}は0.9246であり、この式(4)においても雄花指数Dと花粉生産量KHとの間に強い相関関係が認められる。
なお、この式(4)において、Eは第2雄花指数で、分類Aの本数を調査対象数Z(=40本)で除算(Aの本数/Z)した値をAランク率として、次の式(5)で表される。
第2雄花指数E=雄花指数D×(1+Aランク率)…(5)
The following equation (4) is as follows.
Pollen production amount KH=0.9934×E+0.5842…(4)
The coefficient of determination R{2} in equation (4) is 0.9246, and a strong correlation is recognized between male flower index D and pollen production KH in equation (4) as well.
In addition, in this formula (4), E is the second male flower index, and the value obtained by dividing the number of classification A by the number of survey subjects Z (= 40) (number of A / Z) is the A rank rate, and the following It is expressed by formula (5).
Second male flower index E = male flower index D × (1 + A rank rate)... (5)

第2実施形態では、図11に示した育成状態判定処理のステップ20~ステップ24は実施形態と同様に処理される。
一方、図12の状態判定処理(図11のステップ25)においてCPU110は、まず、合成した可視画像から対象となる40本の杉の抽出を行う。
次にCPU110は、抽出した対象杉毎の雄花密度Qを画像解析により求め、A~Dに分類すると共に、各分類A~Dの本数を計数する。
更にCPU110は、判定条件として選択された式(3)又は式(4)を使用して単位面積当りの花粉生産量KHを推定し、植物育成状態判定情報184に保存して処理を終了する。
In the second embodiment, steps 20 to 24 of the growth state determination process shown in FIG. 11 are processed in the same manner as in the embodiment.
On the other hand, in the state determination process in FIG. 12 (step 25 in FIG. 11), the CPU 110 first extracts 40 target cedar trees from the synthesized visible image.
Next, the CPU 110 determines the male flower density Q of each extracted target cedar tree by image analysis, classifies it into A to D, and counts the number of flowers in each classification A to D.
Further, the CPU 110 estimates the pollen production amount KH per unit area using equation (3) or equation (4) selected as the determination condition, stores it in the plant growth state determination information 184, and ends the process.

以上第2実施形態による花粉生産量KHの推定は、例えば、市町村単位、都道府県単位というように、特定のまとまった領域内において複数箇所(複数の撮影領域)に対して行うことが好ましい。そして、複数の撮影領域に対して算出した花粉生産量KHを総合して、翌春における地方毎、領域毎の花粉飛散量を予想する。 The estimation of the pollen production amount KH according to the second embodiment is preferably performed at a plurality of locations (a plurality of imaging regions) within a specific area, for example, on a city, town or village basis or on a prefecture basis. Then, by integrating the pollen production amounts KH calculated for a plurality of photographic regions, the pollen scattering amount for each region and region in the next spring is predicted.

以上第2実施形態では、杉の花粉生産量KHを推定する場合について説明したが、桧の花粉生産量についても杉と同様にして求めることが可能である。
但し、判定条件183は桧に対する調査結果から求めた条件が使用される。
In the second embodiment, a case has been described in which the pollen production amount KH of cedar is estimated, but the pollen production amount of cypress can also be determined in the same manner as for cedar.
However, as the determination condition 183, the condition obtained from the investigation results for Hinoki is used.

以上、可視画像132を使用して梨の収穫量や花粉生産量を推定する場合について説明した。
次に、第3実施形態として、植物情報収集装置1で撮影したMS画像133を使用した植物の育成状態の判定について説明する。
第3実施形態では、植物育成状態の判定を可能にするため、MS画像133を使用して植物の育成状態をNDVI画像により可視化する。
すなわち、植物の葉の中に含まれるクロロフィルは、赤色の光を吸収する一方で、近赤外領域の波長は強く反射する特性がある。この植生が有する特性を活かし、MS画像(赤色光画像と近赤外光画像)における赤波長(Red)と近赤外波長(NIR)の値を用いて正規化植生指数(NDVI)を算出し、正規化植生指数の分布状態を表すNDVI画像を作成することで、植物の活性度の高低をNDVI値の色の違いや、濃淡の違いなどで可視化する。
例えば、本実施形態のNDVI画像では、正規化植生指数が高いほど植物の活性度が高いことを表し、緑の部分はNDVIの値が高いところ、赤の部分は低いところを表す。
The case where the visible image 132 is used to estimate the harvest amount and pollen production amount of pears has been described above.
Next, as a third embodiment, determination of the growth state of a plant using the MS image 133 captured by the plant information collection device 1 will be described.
In the third embodiment, in order to enable determination of the plant growth state, the MS image 133 is used to visualize the plant growth state using an NDVI image.
That is, chlorophyll contained in plant leaves has the characteristic of absorbing red light but strongly reflecting wavelengths in the near-infrared region. Taking advantage of the characteristics of this vegetation, the normalized vegetation index (NDVI) is calculated using the values of red wavelength (Red) and near-infrared wavelength (NIR) in MS images (red light image and near-infrared light image). By creating an NDVI image that represents the distribution state of the normalized vegetation index, the level of activity of plants can be visualized by different colors and shades of NDVI values.
For example, in the NDVI image of this embodiment, the higher the normalized vegetation index, the higher the activity level of the plants, and green parts represent areas where the NDVI value is high, and red areas represent areas where the NDVI value is low.

第3実施形態では、収集植物情報を使用して正規化植生指数を算出するが、異なる日時に収集した正規化植生指数から過去と現在との差分を抽出することで、撮影範囲である圃場内における植生の変化があった位置、範囲、程度を容易に確認することができる。
また、所定の間隔(例えば、1週間毎、10日毎、毎月等)で複数回算出することで、植物の育成状態の変化を含めて把握することができ、例えば、施肥のタイミングや範囲、収穫の時期などを把握する場合に有用である。
本実施形態によれば、植物情報収集装置1で収集した、日没後に地面側から照明をした状態で撮影したMS画像133を使用しているので、画像の背景に土壌が存在しないので、背景土壌の影響を回避することが可能になる。
In the third embodiment, a normalized vegetation index is calculated using the collected plant information, and by extracting the difference between the past and present from the normalized vegetation index collected on different dates and times, The location, range, and extent of changes in vegetation can be easily confirmed.
In addition, by calculating multiple times at predetermined intervals (for example, every week, every 10 days, every month, etc.), it is possible to understand changes in the growth status of plants, such as the timing and range of fertilization, harvest This is useful when understanding the timing of
According to this embodiment, since the MS image 133 collected by the plant information collection device 1 and photographed after sunset with lighting from the ground side is used, there is no soil in the background of the image, so the background It becomes possible to avoid the influence of soil.

なお、植物情報収集装置1によるMS画像133の撮影は第1実施形態で説明しているので、この第3実施形態では、育成状態判定プログラム181による、MS画像133を使用した植物育成状態判定について説明する。
第3実施形態では、植物情報収集装置1のMSカメラ46では、赤色光ライト47で照射した赤色光による赤色光画像と、近赤外光ライト48の照射による近赤外光画像の二種類が各撮影位置で撮影されている。
そして、CPU110は、赤色光画像と近赤外光画像の各々について撮影位置修正から画像の合成までを行い(ステップ22~ステップ24)、状態判定処理(ステップ25)において、合成した両画像を使用して正規化植生指数(NDVI)画像を作成する。
In addition, since the photographing of the MS image 133 by the plant information collection device 1 is explained in the first embodiment, in this third embodiment, the plant growth state determination using the MS image 133 by the growth state determination program 181 will be explained. explain.
In the third embodiment, the MS camera 46 of the plant information collection device 1 produces two types of images: a red light image by red light irradiated by the red light light 47 and a near-infrared light image by irradiation by the near-infrared light 48. Photographs were taken at each shooting position.
Then, the CPU 110 performs processing from correcting the photographing position to combining the images for each of the red light image and the near-infrared light image (steps 22 to 24), and uses both the combined images in the state determination process (step 25). to create a normalized vegetation index (NDVI) image.

状態判定処理(ステップ25)において、CPU110は、MS画像133における赤色光画像と近赤外光画像の対応する画素毎に、赤色バンドのピクセル値Redと近赤外バンドのピクセル値NIRを取得し、各画素の正規化植生指数(NDVI)を次の式(6)から求め、RAM130の判定結果138に保存する。
NDVI=(NIR-Red)/(NIR+Red)…(6)
式(6)において、各画素におけるNDVIの値は、-1~+1の範囲となる。
In the state determination process (step 25), the CPU 110 acquires the pixel value Red of the red band and the pixel value NIR of the near-infrared band for each corresponding pixel of the red light image and the near-infrared light image in the MS image 133. , the normalized vegetation index (NDVI) of each pixel is obtained from the following equation (6) and stored in the determination result 138 of the RAM 130.
NDVI=(NIR-Red)/(NIR+Red)...(6)
In equation (6), the value of NDVI at each pixel is in the range of -1 to +1.

なお、次の式(7)によりデータの出力範囲を0~200の範囲に整数化(8ビット)することも可能である。
整数化NDVI=(NDVI+1.0)×100…(7)
Note that it is also possible to convert the data output range into an integer (8 bits) in the range of 0 to 200 using the following equation (7).
Integerized NDVI=(NDVI+1.0)×100...(7)

式(6)、(7)で求めたNDVI、整数化NDVIは、数値が大きいほど、植生が多いという結果になる。
そしてNDVI画像(正規化NDVI画像を含む、以下同じ)では、正規化植生指数が高いほど植物の活性度が高いことを表し、この活性度の高さを色の違いや、濃淡の違いなどで可視化する。
例えば、正規化植生指数を緑~赤の範囲で画像表示し、緑の部分は活性化植生指数の値が高いところを、赤の部分は低いところを表す。
The larger the numerical value of the NDVI and integerized NDVI calculated using equations (6) and (7), the more vegetation there is.
In NDVI images (including normalized NDVI images, the same applies hereinafter), the higher the normalized vegetation index, the higher the activity of plants. Visualize.
For example, the normalized vegetation index is displayed as an image in the range of green to red, with green areas representing areas where the activated vegetation index value is high and red areas representing areas where the value is low.

なお、植生の指標として、上記式(6)、(7)の他に、別の定義を使用することも可能である。
例えば、次の式(8)で表される比植生指標を求めて植物の育成状態の把握、判定を行うことも可能である。
比植生指標=NIR/Red…(8)
Note that, in addition to the above equations (6) and (7), other definitions can also be used as indicators of vegetation.
For example, it is also possible to obtain a specific vegetation index expressed by the following equation (8) to understand and judge the growing state of plants.
Specific vegetation index = NIR/Red…(8)

以上、本発明の植物情報収集装置1、植物育成状態判定装置100における実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各請求項に記載した範囲において各種の変形を行うことが可能である。
例えば、本実施形態の植物情報収集装置1では、図2(a)、(b)に示すように、判断する植物の状態(収集する植物情報)に応じて、基台2上の情報収集部4(カメラと照明)を変更する場合について説明した。
これに対し、基台2上に、位置検出装置40、RGBカメラ41A、41b、LEDライト42A、42B、MSカメラ46A、46B、赤色光ライト47A、47B、近赤外光ライト48A、48Bを配置するようにしてもよい。
これにより、情報収集部4を交換することなく、各種情報を収集することが可能になる。
Although the embodiments of the plant information collecting device 1 and the plant growth state determining device 100 of the present invention have been described above, the present invention is not limited to the described embodiments, and various types can be used within the scope of each claim. Variations can be made.
For example, in the plant information collecting device 1 of this embodiment, as shown in FIGS. 2(a) and 2(b), the information collecting unit on the base 2 The case of changing 4 (camera and lighting) has been explained.
On the other hand, a position detection device 40, RGB cameras 41A, 41b, LED lights 42A, 42B, MS cameras 46A, 46B, red light lights 47A, 47B, and near-infrared light lights 48A, 48B are arranged on the base 2. You may also do so.
This makes it possible to collect various types of information without replacing the information collecting section 4.

また説明した実施形態では、RAM53に保存した可視画像532又は/及びMS画像533、並びに位置情報GN534を植物情報としてUSBメモリ等の外部に出力し、植物育成状態判定装置100で各画像データに含まれる撮影位置GK(図4(b)参照)を正確な撮影位置を示す位置情報GNに変更する場合について説明した。
これに対して、植物情報収集装置1のCPU51が、可視画像532、MS画像533に含まれる撮影位置GKを、位置情報GNを使用して撮影位置GNに変更するようにしてもよい。
この場合、CPU51は、ステップ16(図5参照)において位置検出装置40から位置情報GNを取得する毎に、図4(b)で説明した撮影位置GKを撮影位置GNに変更する。
このため、位置情報GN534はRAM53に保存されず、外部出力され、記憶部55に保存される収集植物情報553にも位置情報GN534は含まれない。
Furthermore, in the described embodiment, the visible image 532 and/or MS image 533 and position information GN 534 stored in the RAM 53 are outputted to an external device such as a USB memory as plant information, and included in each image data in the plant growth state determination device 100. A case has been described in which the photographing position GK (see FIG. 4(b)) is changed to position information GN indicating the accurate photographing position.
On the other hand, the CPU 51 of the plant information collection device 1 may change the photographing position GK included in the visible image 532 and the MS image 533 to the photographing position GN using the position information GN.
In this case, each time the CPU 51 acquires the position information GN from the position detection device 40 in step 16 (see FIG. 5), the CPU 51 changes the photographing position GK described in FIG. 4(b) to the photographing position GN.
Therefore, the position information GN534 is not stored in the RAM 53, and the collected plant information 553 that is output to the outside and stored in the storage unit 55 does not include the position information GN534.

そして、植物育成状態判定装置100では、既に撮影位置GNに変更された収集植物情報182(可視画像132、MS画像133)を取得しているので、ステップ22の撮影位置修正の処理は不要である。 Since the plant growth state determination device 100 has already acquired the collected plant information 182 (visible image 132, MS image 133) that has been changed to the photographing position GN, the process of correcting the photographing position in step 22 is not necessary. .

また、実施形態の植物情報収集装置1では、より正確な撮影位置を取得するために、位置検出装置40を配設したが、RGBカメラ41やMSカメラ46が精度の高い撮影位置GKを取得可能である場合には、当該両カメラの位置情報GKを使用するようにしてもよい。この場合、位置検出装置40は不要であり、位置情報GNによる撮影位置GKの変更も不要である。 In addition, in the plant information collecting device 1 of the embodiment, the position detection device 40 is provided in order to obtain a more accurate photographing position, but the RGB camera 41 or the MS camera 46 can obtain a highly accurate photographing position GK. In this case, the position information GK of both cameras may be used. In this case, the position detection device 40 is not necessary, and the photographing position GK does not need to be changed based on the position information GN.

さらに実施形態では、植物情報収集装置1により画像データ等による植物情報を収集し、収集した植物情報を用いて収穫量や育成状況、花粉量等についての判定を植物育成状態判定装置100において行う場合について説明した。
これに対し、植物育成状態判定装置100の構成や判定機能を植物情報収集装置1が備えるようにし、植物情報収集装置1において植物情報の収集と、収集した植物情報を使用して植物の育成状態を判定するようにしてもよい。
Further, in the embodiment, the plant information collection device 1 collects plant information based on image data, etc., and the plant growth state determination device 100 uses the collected plant information to make determinations on harvest amount, growth status, pollen amount, etc. explained.
In contrast, the plant information collection device 1 is equipped with the configuration and determination function of the plant growth state determination device 100, and the plant information collection device 1 collects plant information and uses the collected plant information to determine the plant growth state. may be determined.

また説明した実施形態では、斜め前方と斜め右方に傾斜した2組のカメラと照明のセットを情報収集部4に配置し、梨園やぶどう園等のように、対象植物が所定間隔で格子状に植えられている領域において、対象植物が植えられている各行間、各列間を移動部3で往復移動しながら撮影する場合について説明した。
これに対し、情報収集部4に、斜め前方、斜め右方の2組に加え、更に斜め後方、斜め左方の2組の合計4組のカメラと照明のセットを配置した場合には、対象植物の各行間、各列間を1回移動(2列、2行で1往復)するようにしてもよい。
Furthermore, in the described embodiment, two sets of cameras and lights tilted diagonally forward and diagonally right are arranged in the information collecting unit 4, and target plants are arranged in a grid pattern at predetermined intervals, such as in a pear orchard or vineyard. A case has been described in which the movable unit 3 moves back and forth between each row and each column where target plants are planted in an area where the target plants are planted.
On the other hand, if the information collection unit 4 is equipped with a total of four camera and lighting sets, two sets diagonally forward and diagonally to the right, and two further diagonally rear and diagonally left, the target It is also possible to move once between each row and each column of plants (one round trip for two rows and two rows).

なお、本実施形態については次のように構成することも可能である。
(1)構成1の実施形態では、植物を地面側から照明する照明手段と、前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、前記撮影手段で撮影した位置情報を取得する位置情報取得手段と、前記撮影手段で撮影した画像と前記取得した位置情報を出力する出力手段と、を備えたことを特徴とする植物情報収集装置を提供する。
(2)構成2の実施形態では、前記照明手段は、鉛直上方を基準にして所定方向に傾斜した方向を照明し、前記撮影手段は、前記所定方向に傾斜した方向を撮影する、ことを特徴とする構成1に記載の植物情報収集装置を提供する。
(3)構成3の実施形態では、前記所定方向の傾斜角度は20度から30度の範囲である、ことを特徴とする構成2に記載の植物情報収集装置を提供する。
(4)構成4の実施形態では、前記照明手段は第1照明装置と第2照明装置を有し、前記第1照明装置の前記傾斜した方向と、前記第2照明装置の前記傾斜した方向とが直行し、前記撮影手段は第1撮影装置と第2撮影装置を有し、前記第1撮影装置の前記傾斜した方向と、前記第2撮影装置の前記傾斜した方向とが直行している、ことを特徴とする構成2又は構成3に記載の植物情報収集装置を提供する。
(5)構成5の実施形態では、前記照明手段は、可視光を植物に照明し、前記撮影手段は、植物の可視画像を撮影する、ことを特徴とする構成1から構成4のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(6)構成6の実施形態では、前記照明手段は、赤色光と近赤外光を植物に照明し、前記撮影手段は、植物のマルチスペクトル画像を撮影する、ことを特徴とする構成1から構成4のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(7)構成7の実施形態では、前記照明手段、前記撮影手段、前記位置情報取得手段、及び前記出力手段を搭載する基台部と、前記基台部を植物の地面側で移動させる移動手段と、を具備したことを特徴とする構成1から構成6のうちのいずれか1の構成に記載の植物情報収集装置。
(8)構成8の実施形態では、前記移動手段は、地面上を転動するタイヤ、自動走行車両、ドローン、又は押されることで転動する車輪、であることを特徴とする構成7に記載の植物情報収集装置を提供する。
(9)構成9の実施形態では、前記撮影手段で撮影した画像から所定の特徴点を抽出する特徴点抽出手段と、前記位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、前記合成した画像を出力する合成画像出力手段と、を備えることを特徴とする構成1から構成8のうちのいずれか1の構成に記載の植物情報収集装置を提供する。
(10)構成10の実施形態では、構成1から構成9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得手段と、前記取得した画像から所定の特徴点を抽出する特徴点抽出手段と、前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定手段と、を備えることを特徴とする植物育成状態判定装置を提供する。
(11)構成11の実施形態では、構成1から構成9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得機能と、前記取得した画像から所定の特徴点を抽出する特徴点抽出機能と、前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成機能と、前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定機能と、をコンピュータに実現させるための植物育成状態判定プログラムを提供する。
Note that this embodiment can also be configured as follows.
(1) In the embodiment of configuration 1, an illumination means for illuminating the plant from the ground side, a photographing means for photographing the growing state of the plant illuminated by the illumination means from the ground side, and position information photographed by the photographing means. The present invention provides a plant information collection device characterized by comprising: a positional information acquisition means for acquiring a positional information; and an outputting means for outputting an image photographed by the photographing means and the acquired positional information.
(2) The embodiment of configuration 2 is characterized in that the illumination means illuminates a direction inclined in a predetermined direction with respect to a vertically upward direction, and the photographing means photographs a direction inclined in the predetermined direction. A plant information collecting device according to configuration 1 is provided.
(3) The embodiment of configuration 3 provides the plant information collecting device according to configuration 2, wherein the inclination angle in the predetermined direction is in a range of 20 degrees to 30 degrees.
(4) In the embodiment of configuration 4, the illumination means has a first illumination device and a second illumination device, and the inclined direction of the first illumination device and the inclined direction of the second illumination device are are perpendicular to each other, the photographing means has a first photographing device and a second photographing device, and the inclined direction of the first photographing device and the inclined direction of the second photographing device are perpendicular to each other. The present invention provides a plant information collection device according to configuration 2 or configuration 3, characterized in that:
(5) In the embodiment of configuration 5, any one of configurations 1 to 4, wherein the illumination means illuminates the plant with visible light, and the photographing means photographs a visible image of the plant. A plant information collection device according to configuration (1) is provided.
(6) In the embodiment of configuration 6, from configuration 1, wherein the illumination means illuminates the plant with red light and near-infrared light, and the photographing means photographs a multispectral image of the plant. A plant information collection device according to any one of configurations 4 is provided.
(7) In the embodiment of configuration 7, a base section on which the illumination means, the photographing means, the position information acquisition means, and the output means are mounted, and a moving means for moving the base section on the ground side of the plant. A plant information collection device according to any one of configurations 1 to 6, characterized in that the device comprises:
(8) In the embodiment of configuration 8, as described in configuration 7, the moving means is a tire that rolls on the ground, an automatic vehicle, a drone, or a wheel that rolls when pushed. We provide plant information collection equipment.
(9) In the embodiment of configuration 9, the feature point extraction means extracts predetermined feature points from the image photographed by the photographing means, and the image is synthesized by comparing the feature points of adjacent images with the position information. The present invention provides a plant information collection device according to any one of configurations 1 to 8, characterized in that the device includes an image synthesizing device that outputs the synthesized image, and a synthesized image output device that outputs the synthesized image.
(10) In the embodiment of configuration 10, an image information acquisition means for acquiring an image output from the plant information collection device according to any one of configurations 1 to 9 and photographing position information; a feature point extracting means for extracting feature points of the images; an image synthesizing means for synthesizing images by comparing feature points of adjacent images having the photographing position information; A plant growth state determination device is provided, comprising a growth state determination means for determining the growth state of a photographed plant.
(11) In the embodiment of configuration 11, an image information acquisition function that acquires an image output from the plant information collection device according to any one of configurations 1 to 9 and photographing position information, and a predetermined information from the acquired image are provided. a feature point extraction function that extracts feature points of images; an image synthesis function that synthesizes images by comparing feature points of adjacent images having the shooting position information; and an image synthesis function that synthesizes images from the synthesized images. To provide a plant growth state determination program for causing a computer to realize a growth state determination function for determining the growth state of a photographed plant.

また果実の収穫量を推定する実施形態として次のように構成することも可能である。
(21)構成21の実施形態では、開花状態にある対象果樹を撮影した可視画像を取得する可視画像取得手段と、前記対象果樹に対して規定された、花と収穫果実数との関係を規定した判定条件を取得する条件取得手段と、前記取得した判定条件に従って、前記可視画像から花の状態を取得する花状態取得手段と、前記取得した判定条件に従って、前記取得した花状態に対応する果実の収穫量を推定する推定手段と、前記推定した収穫量を出力する出力手段と、を具備したことを特徴とする収穫量推定装置を提供する。
(22)構成22の実施形態では、前記可視画像取得手段は、日没後に前記対象果樹を照明した状態で地面側から撮影した可視画像を取得する、ことを特徴とする構成21に記載の収穫量推定装置を提供する。
(23)構成23の実施形態では、前記対象果樹を梨とし、前記条件取得手段は、花叢と収穫数との関係を梨の判定条件として取得し、前記花状態取得手段は、前記可視画像から花の状態として花叢数を取得し、前記推定手段は、取得した花叢数に対応する梨の収穫数を前記判定条件に従って推定する、ことを特徴とする構成21又は構成22に記載の収穫量推定装置を提供する。
(24)構成24の実施形態では、前記条件取得手段は、さらに枝の先端から所定数の花叢の収穫数をゼロとする判定条件を取得する、ことを特徴とする構成23に記載の収穫量推定装置を提供する。
(25)構成25の実施形態では、梨等の果樹を前記対象果樹として、果樹毎に花と収穫果実数との関係を規定した判定条件を記憶する条件記憶手段を備え、前記条件取得手段は、前記取得した可視画像に対応して指定された判定条件を取得する、ことを特徴とする構成21又は請求項22に記載の収穫量推定装置。
(26)構成26の実施形態では、前記条件記憶手段に記憶された判定条件は、各果樹に対して複数の判定条件が規定されている、ことを特徴とする構成25に記載の収穫量推定装置。
(27)構成27の実施形態では、開花状態にある対象果樹を撮影した可視画像を取得する可視画像取得機能と、前記対象果樹に対して規定された、花と収穫果実数との関係を規定した判定条件を取得する条件取得機能と、前記取得した判定条件に従って、前記可視画像から花の状態を取得する花状態取得機能と、前記取得した判定条件に従って、前記取得した花状態に対応する果実の収穫量を推定する推定機能と、前記推定した収穫量を出力する出力機能と、をコンピュータに実現させるための収穫量推定プログラムを提供する。
Furthermore, it is also possible to configure the following embodiment as an embodiment for estimating the yield of fruit.
(21) In the embodiment of configuration 21, a visible image acquisition means for acquiring a visible image of a target fruit tree in a flowering state, and a relationship between flowers and the number of harvested fruits defined for the target fruit tree are defined. a condition acquisition means for acquiring a determination condition obtained from the above-mentioned determination condition; a flower state acquisition means for acquiring a flower condition from the visible image according to the acquired determination condition; and a fruit corresponding to the acquired flower condition according to the acquired determination condition. A harvest amount estimating device is provided, comprising: an estimating means for estimating a harvest amount; and an output means for outputting the estimated harvest amount.
(22) In the embodiment of configuration 22, the harvesting according to configuration 21, wherein the visible image acquisition means acquires a visible image photographed from the ground side with the target fruit tree illuminated after sunset. A quantity estimation device is provided.
(23) In the embodiment of configuration 23, the target fruit tree is a pear, the condition acquisition means acquires the relationship between the flower cluster and the number of harvests as the determination condition for the pear, and the flower state acquisition means acquires the relationship between the flower cluster and the number of harvests from the visible image. Yield estimation according to configuration 21 or configuration 22, characterized in that the number of flower clusters is acquired as the state of flowers, and the estimating means estimates the harvested number of pears corresponding to the acquired number of flower clusters according to the determination condition. Provide equipment.
(24) In the embodiment of configuration 24, the condition acquisition means further acquires a determination condition that sets the number of harvests of a predetermined number of flower clusters from the tips of branches to zero, the yield amount according to configuration 23. An estimation device is provided.
(25) In the embodiment of configuration 25, the target fruit tree is a fruit tree such as a pear, and the condition storage means stores a determination condition that defines the relationship between flowers and the number of harvested fruits for each fruit tree, and the condition acquisition means 23. The harvest amount estimating device according to configuration 21 or claim 22, wherein a determination condition specified in correspondence with the acquired visible image is acquired.
(26) In the embodiment of configuration 26, the yield estimation according to configuration 25, wherein the determination conditions stored in the condition storage means include a plurality of determination conditions defined for each fruit tree. Device.
(27) In the embodiment of configuration 27, a visible image acquisition function that acquires a visible image of a target fruit tree in a flowering state, and a relationship between flowers and the number of harvested fruits defined for the target fruit tree are defined. a condition acquisition function that acquires a determination condition that has been obtained, a flower state acquisition function that acquires a flower state from the visible image according to the acquired determination condition, and a fruit that corresponds to the acquired flower state according to the acquired determination condition. The present invention provides a yield estimation program for causing a computer to realize an estimation function for estimating the yield of , and an output function for outputting the estimated yield.

1 植物情報収集装置
2 基台
3 移動部
4 情報収集部
5 制御部
6 電源
40 位置検出装置
41 RGBカメラ
42 LEDライト
46 MSカメラ
47 赤色光ライト
48 近赤外光ライト
50 照明用スイッチ
51 CPU
52 ROM
53 RAM
531 撮影情報
532 可視画像
533 MS画像
534 位置情報GN
54 入出力部
55 記憶部
551 植物情報収集プログラム
552 移動領域
553 収集植物情報
56 通信制御部
100 植物育成状態判定装置
110 CPU
120 ROM
130 RAM
132 可視画像
133 MS画像
134 位置情報GN
136 特徴点
137 合成画像
138 判定結果
140 USB端子
150 入力部
160 表示装置
170 通信制御部
180 記憶部
181 育成状態判定プログラム
182 収集植物情報
183 判定条件
184 植物育成状態判定情報
α 傾斜角
β 傾斜角
D、E 雄花指数
F 分岐点
G 緑領域
GK 撮影位置
GN 位置情報
H 節
KS1~KS3 花叢
PL 木
Q 雄花密度
R 決定係数
U 花叢の果数
RL、RR 範囲線
S 光軸
T 収穫量
s1、s2 撮影間隔
V 鉛直線
W 対象花叢数
KH 花粉生産量
p1、p2 撮影位置
1 Plant information collection device 2 Base 3 Moving unit 4 Information collection unit 5 Control unit 6 Power source 40 Position detection device 41 RGB camera 42 LED light 46 MS camera 47 Red light light 48 Near-infrared light light 50 Lighting switch 51 CPU
52 ROM
53 RAM
531 Photography information 532 Visible image 533 MS image 534 Location information GN
54 Input/output section 55 Storage section 551 Plant information collection program 552 Movement area 553 Collected plant information 56 Communication control section 100 Plant growth state determination device 110 CPU
120 ROM
130 RAM
132 Visible image 133 MS image 134 Position information GN
136 Feature points 137 Composite image 138 Judgment result 140 USB terminal 150 Input section 160 Display device 170 Communication control section 180 Storage section 181 Growth state determination program 182 Collected plant information 183 Judgment condition 184 Plant growth state determination information α Tilt angle β Tilt angle D , E Male flower index F Branching point G Green area GK Photographing position GN Position information H Nodes KS1 to KS3 Floral cluster PL Tree Q Male flower density R Coefficient of determination U Number of fruits in the floral cluster RL, RR Range line S Optical axis T Harvest amount s1, s2 Photographing Interval V Vertical line W Number of target flower clusters KH Pollen production amount p1, p2 Photographing position

Claims (11)

植物を地面側から照明する照明手段と、
前記照明手段で照明された植物の育成状態を地面側から撮影する撮影手段と、
前記撮影手段で撮影した位置情報を取得する位置情報取得手段と、
前記撮影手段で撮影した画像と前記取得した位置情報を出力する出力手段と、
を備えたことを特徴とする植物情報収集装置。
illumination means for illuminating plants from the ground side;
Photographing means for photographing the growing state of the plants illuminated by the illumination means from the ground side;
position information acquisition means for acquiring position information photographed by the photographing means;
output means for outputting an image photographed by the photographing means and the acquired position information;
A plant information collection device comprising:
前記照明手段は、鉛直上方を基準にして所定方向に傾斜した方向を照明し、
前記撮影手段は、前記所定方向に傾斜した方向を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。
The illumination means illuminates a direction inclined in a predetermined direction with respect to a vertically upward direction,
The photographing means photographs a direction inclined to the predetermined direction.
The plant information collection device according to claim 1, characterized in that:
前記所定方向の傾斜角度は20度から30度の範囲である、
ことを特徴とする請求項2に記載の植物情報収集装置。
The angle of inclination in the predetermined direction is in the range of 20 degrees to 30 degrees.
3. The plant information collection device according to claim 2.
前記照明手段は第1照明装置と第2照明装置を有し、前記第1照明装置の前記傾斜した方向と、前記第2照明装置の前記傾斜した方向とが直行し、
前記撮影手段は第1撮影装置と第2撮影装置を有し、前記第1撮影装置の前記傾斜した方向と、前記第2撮影装置の前記傾斜した方向とが直行している、
ことを特徴とする請求項2に記載の植物情報収集装置。
The illumination means includes a first illumination device and a second illumination device, the inclined direction of the first illumination device and the inclined direction of the second illumination device are perpendicular to each other,
The photographing means has a first photographing device and a second photographing device, and the inclined direction of the first photographing device and the inclined direction of the second photographing device are perpendicular to each other.
3. The plant information collection device according to claim 2.
前記照明手段は、可視光を植物に照明し、
前記撮影手段は、植物の可視画像を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。
The illumination means illuminates the plant with visible light,
The photographing means photographs a visible image of the plant.
The plant information collection device according to claim 1, characterized in that:
前記照明手段は、赤色光と近赤外光を植物に照明し、
前記撮影手段は、植物のマルチスペクトル画像を撮影する、
ことを特徴とする請求項1に記載の植物情報収集装置。
The illumination means illuminates the plant with red light and near-infrared light,
The photographing means photographs a multispectral image of the plant.
The plant information collection device according to claim 1, characterized in that:
前記照明手段、前記撮影手段、前記位置情報取得手段、及び前記出力手段を搭載する基台部と、
前記基台部を植物の地面側で移動させる移動手段と、
を具備したことを特徴とする請求項1に記載の植物情報収集装置。
a base portion on which the illumination means, the photographing means, the position information acquisition means, and the output means are mounted;
a moving means for moving the base on the ground side of the plant;
The plant information collection device according to claim 1, further comprising:
前記移動手段は、地面上を転動するタイヤ、自動走行車両、ドローン、又は押されることで転動する車輪、
であることを特徴とする請求項7に記載の植物情報収集装置。
The moving means includes tires that roll on the ground, an automatic vehicle, a drone, or wheels that roll when pushed.
8. The plant information collection device according to claim 7.
前記撮影手段で撮影した画像から所定の特徴点を抽出する特徴点抽出手段と、
前記位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、
前記合成した画像を出力する合成画像出力手段と、
を備えることを特徴とする請求項1に記載の植物情報収集装置。
feature point extraction means for extracting predetermined feature points from the image photographed by the photographing means;
image synthesis means for synthesizing images by comparing feature points of images with adjacent position information;
a composite image output means for outputting the composite image;
The plant information collection device according to claim 1, comprising:
請求項1から請求項9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得手段と、
前記取得した画像から所定の特徴点を抽出する特徴点抽出手段と、
前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成手段と、
前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定手段と、
を備えることを特徴とする植物育成状態判定装置。
Image information acquisition means for acquiring images and photographing position information output from the plant information collection device according to any one of claims 1 to 9;
Feature point extraction means for extracting predetermined feature points from the acquired image;
image synthesis means for synthesizing images by comparing feature points of images with adjacent shooting position information;
A growing state determining means for determining the growing state of the plant photographed by the plant information collecting device from the combined image;
A plant growth state determination device comprising:
請求項1から請求項9のうちのいずれか1の植物情報収集装置から出力される画像と撮影位置情報を取得する画像情報取得機能と、
前記取得した画像から所定の特徴点を抽出する特徴点抽出機能と、
前記撮影位置情報が隣接する画像の特徴点を比較することで、画像を合成する画像合成機能と、
前記合成した画像から、前記植物情報収集装置で撮影された植物の育成状態を判定する育成状態判定機能と、
をコンピュータに実現させるための植物育成状態判定プログラム。
an image information acquisition function that acquires an image and photographing position information output from the plant information collection device according to any one of claims 1 to 9;
a feature point extraction function that extracts predetermined feature points from the acquired image;
an image synthesis function that synthesizes images by comparing feature points of images with adjacent shooting position information;
a growth state determination function that determines the growth state of the plant photographed by the plant information collection device from the combined image;
A plant growth status determination program that allows computers to realize this.
JP2022092575A 2022-06-07 2022-06-07 Plant information collection device, plant growth state determination device, and plant growth state determination program Pending JP2023179319A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022092575A JP2023179319A (en) 2022-06-07 2022-06-07 Plant information collection device, plant growth state determination device, and plant growth state determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022092575A JP2023179319A (en) 2022-06-07 2022-06-07 Plant information collection device, plant growth state determination device, and plant growth state determination program

Publications (1)

Publication Number Publication Date
JP2023179319A true JP2023179319A (en) 2023-12-19

Family

ID=89199498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022092575A Pending JP2023179319A (en) 2022-06-07 2022-06-07 Plant information collection device, plant growth state determination device, and plant growth state determination program

Country Status (1)

Country Link
JP (1) JP2023179319A (en)

Similar Documents

Publication Publication Date Title
Torres-Sánchez et al. Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis
US11647701B2 (en) Plant treatment based on morphological and physiological measurements
US20230292647A1 (en) System and Method for Crop Monitoring
BR112019009958A2 (en) method and system for estimating crop yields
CN108140118A (en) For identifying the method and information system of at least one plant plant being planted on arable land
WO2021258359A1 (en) Method and apparatus for determining crop planting information, and computer storage medium
Iqbal et al. Poppy crop capsule volume estimation using UAS remote sensing and random forest regression
KR102479284B1 (en) Vegetation index acquisition unit and apparatus for monitoring plant comprising the same
CN106683092B (en) Device and method for measuring and calculating crown canopy density of blueberries
Sangjan et al. Phenotyping architecture traits of tree species using remote sensing techniques
Ma et al. A method of calculating phenotypic traits for soybean canopies based on three-dimensional point cloud
JP2023179319A (en) Plant information collection device, plant growth state determination device, and plant growth state determination program
JP2023179320A (en) Yield estimation device and yield estimation program
Negrete Artificial vision in Mexican agriculture, a new techlogy for increase food security
Kurtser et al. RGB-D datasets for robotic perception in site-specific agricultural operations—A survey
Liakos et al. Use of NDVI to predict yield variability in a commercial apple orchard
US20220222819A1 (en) Crop view and irrigation monitoring
Engler et al. PHENOquad: A new multi sensor platform for field phenotyping and screening of yield relevant characteristics within grapevine breeding research
Ouyang The Applications of UAV and Ground Digital Imagery Analysis for Monitoring Grapevine Canopy in Vineyard
Moreno et al. Image analysis aplications in precision agriculture
JP2023135998A (en) Information processor, information processing method, and program
WO2024069631A1 (en) Plant phenotyping
KR20230029351A (en) Method for imaging and analysis of unmanned aerial vehicles for the observation of crop cultivation area and growth conditions
Raman Sensor-Based Evaluation of Architectural Traits in Tree Fruits
Pizzitola Assessing berry number for grapevine yield estimation by image analysis: case study with the white variety “Encruzado”

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231020