JP2023007457A - Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program - Google Patents

Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program Download PDF

Info

Publication number
JP2023007457A
JP2023007457A JP2022100397A JP2022100397A JP2023007457A JP 2023007457 A JP2023007457 A JP 2023007457A JP 2022100397 A JP2022100397 A JP 2022100397A JP 2022100397 A JP2022100397 A JP 2022100397A JP 2023007457 A JP2023007457 A JP 2023007457A
Authority
JP
Japan
Prior art keywords
chlorophyll
plant
amount
image
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022100397A
Other languages
Japanese (ja)
Inventor
堅治 羽藤
Kenji Hado
孝徳 相原
Takanori Aihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ehime University NUC
Original Assignee
Ehime University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ehime University NUC filed Critical Ehime University NUC
Publication of JP2023007457A publication Critical patent/JP2023007457A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To allow a measurer to measure the amount of chlorophyll in the entire target plant without using a chlorophyll meter.SOLUTION: Based on chlorophyll amount and color information for each of multiple locations of a first individual that is a particular type of plant and used as a sample, a learning estimation server calculates a model representing the relationship between the chlorophyll amount and color information for the plant (#702). Then, based on an image of a second individual of the plant subject to estimation, and the calculated model, the server estimates the amount of chlorophyll in a part captured in each image element of the image (#704).SELECTED DRAWING: Figure 13

Description

特許法第30条第2項適用申請有り 電気通信回線を通じての発表 発行者名 :MDPI 刊行物名 :Remote Sensing 巻数 :第13巻(Volume 13) 号数 :第4号(Issue 4) 公開年月日 :2021年2月13日 論文タイトル :A Robust Vegetation Index Based on Different UAV RGB Images to Estimate SPAD Values of Naked Barley Leaves URL :https://www.mdpi.com/2072-4292/13/4/686 https://www.mdpi.com/2072-4292/13/4/686/pdf [刊行物等] 刊行物での発表 発行者名 :生態工学会 刊行物名 :Eco-Engineering 巻数 :第33巻 号数 :第2号 発行年月 :2021年4月 論文タイトル :Assessment of naked barley leaf SPAD values using RGB values under different growth stages at both the leaf and canopy levels URL :https://www.jstage.jst.go.jp/article/seitaikogaku/33/2/33_31/_article/-char/ja/ [刊行物等] 学会での発表 学会名 :農業情報学会2022年度年次大会 発表日 :2022年5月22日 [刊行物等] 学会での発表 学会名 :日本生物環境工学会 オンライン次世代研究発表会 発表日 :2021年11月2日Patent Act Article 30, Paragraph 2 application filed Announcement via telecommunication line Publisher name: MDPI Publication name: Remote Sensing Volume: Volume 13 Issue: Issue 4 Publication date Date: February 13, 2021 Title: A Robust Vegetation Index Based on Different UAV RGB Images to Estimate SPAD Values of Naked Barley Leaves URL: https://www. mdpi. com/2072-4292/13/4/686 https://www. mdpi. com/2072-4292/13/4/686/pdf [Publications, etc.] Publication in publication Publisher name: Society for Ecological Engineering Publication name: Eco-Engineering Volume: Volume 33 Issue: Issue 2 Year of publication Month: April 2021 Article title: Assessment of naked barley leaf SPAD values using RGB values under different growth stages at both the leaf and canopy levels URL: https://www. j stage. jst. go. jp/article/seitaikogaku/33/2/33_31/_article/-char/ja/ [Publications, etc.] Presentation at academic conferences Academic name: Agricultural Information Society 2022 Annual Conference Publication date: May 22, 2022 [Published Materials, etc.] Presentation at an academic conference Name of academic conference: Japan Society for Environmental and Environmental Engineering Online Next Generation Research Presentation Date: November 2, 2021

本発明は、植物の葉緑素量を推定する技術に関する。 The present invention relates to a technique for estimating the amount of chlorophyll in plants.

光合成を行う植物は、成長するにつれて葉に含む葉緑素の量が変化する。この性質を利用し、圃場で栽培している農作物または花卉などの植物の収穫の時期および圃場への施肥の時期などを判断する際に、葉緑素量が参照されることがある。 Photosynthetic plants change the amount of chlorophyll in their leaves as they grow. Taking advantage of this property, the amount of chlorophyll is sometimes referred to when determining when to harvest plants such as crops or flowers cultivated in fields and when to fertilize fields.

葉緑素量は、従来、葉緑素計によって測定される。例えば、非特許文献1に記載される葉緑素計によると、親指くらいの大きさのクリップ状のヘッドで葉を挟むと、挟まれた葉の一部分に光を照射し、葉緑素量を表わすSPAD(Soil & Plant Analyzer Development)値をその反射光に基づいて算出する。 Chlorophyll content is conventionally measured by a chlorophyllometer. For example, according to the chlorophyll meter described in Non-Patent Document 1, when a leaf is pinched with a thumb-sized clip-shaped head, a part of the pinched leaf is irradiated with light, and SPAD (Soil & Plant Analyzer Development) value based on the reflected light.

葉緑素計「SPAD-502Plus」,コニカミノルタ社ウェブサイト内ウェブページ:https://www.konicaminolta.jp/instruments/products/color/chlorophyll/index.html,2021年6月4日検索Chlorophyll meter "SPAD-502Plus", Web page on Konica Minolta website: https://www.konicaminolta.jp/instruments/products/color/chlorophyll/index.html, Retrieved June 4, 2021

上述の通り、従来の葉緑素計によると、光が照射された部分の葉緑素量しか測定することができない。したがって、広大な面積の圃場で栽培されている植物の葉緑素量を測定するには、従来、多大な時間および人手が必要であった。 As described above, according to the conventional chlorophyll meter, only the amount of chlorophyll in the portion irradiated with light can be measured. Therefore, measuring the amount of chlorophyll in plants cultivated in vast fields has conventionally required a great deal of time and manpower.

本発明は、このような問題点に鑑み、葉緑素計を使用することなく測定者が対象の植物全体の葉緑素量を測定できるようにすることを、目的とする。 SUMMARY OF THE INVENTION In view of such problems, an object of the present invention is to enable a measurer to measure the chlorophyll content of the entire target plant without using a chlorophyll meter.

本発明の一形態に係る葉緑素量学習推定システムは、特定の種類の植物でありかつサンプルとして用いられる第一の個体の複数の位置それぞれの葉緑素量および色情報に基づいて当該植物の葉緑素量と色情報との関係を表わすモデルを算出するモデル算出手段と、前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、を有する。 A chlorophyll amount learning and estimating system according to one embodiment of the present invention is a specific type of plant and is based on the chlorophyll amount and color information of each of a plurality of positions of a first individual used as a sample. model calculation means for calculating a model representing a relationship with color information; and an image of the second individual which is a plant and is an object of estimation, and based on the model, the portion shown in each pixel of the image. an estimation means for estimating the chlorophyll amount.

本発明によると、測定者は葉緑素計を使用することなく対象の植物全体の葉緑素量を測定することができる。 According to the present invention, the measurer can measure the chlorophyll content of the whole target plant without using a chlorophyll meter.

葉緑素量推定システムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of a chlorophyll amount estimation system. 学習推定サーバのハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a learning estimation server. 学習推定サーバの機能的構成の例を示す図である。FIG. 4 is a diagram showing an example of a functional configuration of a learning inference server; 計測値データの例を示す図である。It is a figure which shows the example of measured value data. 中間データの例を示す図である。FIG. 4 is a diagram showing an example of intermediate data; 学習データの例を示す図である。FIG. 4 is a diagram showing an example of learning data; 線形モデル関数の例を示す図である。It is a figure which shows the example of a linear model function. ドローンによる圃場の撮影の様子の例を示す図である。It is a figure which shows the example of the state of the imaging|photography of the agricultural field by a drone. 圃場画像の例を示す図である。It is a figure which shows the example of an agricultural field image. 部分画像の例を示す図である。FIG. 10 is a diagram showing an example of a partial image; 複数の部分画像の位置関係の例を示す図である。FIG. 4 is a diagram showing an example of the positional relationship of multiple partial images; SPAD値分布マップの例を示す図である。It is a figure which shows the example of a SPAD value distribution map. 学習推定プログラムによる処理の全体的な流れの例を説明するフローチャートである。4 is a flowchart for explaining an example of the overall flow of processing by a learning estimation program; 学習処理の流れの例を説明するフローチャートである。10 is a flowchart for explaining an example of the flow of learning processing; 推定処理の流れの例を説明するフローチャートである。10 is a flowchart for explaining an example of the flow of estimation processing; 線形モデル関数の例を示す図である。It is a figure which shows the example of a linear model function.

図1は、葉緑素量推定システム5の全体的な構成の例を示す図である。図2は、学習推定サーバ1のハードウェア構成の例を示す図である。図3は、学習推定サーバ1の機能的構成の例を示す図である。 FIG. 1 is a diagram showing an example of the overall configuration of a chlorophyll amount estimation system 5. As shown in FIG. FIG. 2 is a diagram showing an example of the hardware configuration of the learning estimation server 1. As shown in FIG. FIG. 3 is a diagram showing an example of the functional configuration of the learning inference server 1. As shown in FIG.

葉緑素量推定システム5は、圃場で栽培されている植物の葉緑素量を航空写真に基づいてAI(Artificial Intelligence)によって推定するシステムであって、図1に示すように、学習推定サーバ1、第一のクライアント21、第二のクライアント22、ドローン31、葉緑素計32、測色計33、および通信回線4などによって構成される。 The chlorophyll amount estimation system 5 is a system for estimating the chlorophyll amount of plants cultivated in a field by AI (Artificial Intelligence) based on aerial photographs. client 21, second client 22, drone 31, chlorophyll meter 32, colorimeter 33, communication line 4, and the like.

学習推定サーバ1と第一のクライアント21および第二のクライアント22とは、通信回線4を介して互いに通信することができる。通信回線4として、インターネット、公衆回線、またはLAN(Local Area Network)などが用いられる。 The learning estimation server 1 , first client 21 and second client 22 can communicate with each other via the communication line 4 . As the communication line 4, the Internet, a public line, a LAN (Local Area Network), or the like is used.

ドローン31は、デジタルカメラおよび通信機能を備える小型のUAV(Unmanned Aerial Vehicle)であって、圃場を上空から撮影する。ドローン31として、市販のドローンが用いられる。 The drone 31 is a small UAV (Unmanned Aerial Vehicle) equipped with a digital camera and a communication function, and photographs a field from above. A commercially available drone is used as the drone 31 .

葉緑素計32は、植物の葉の葉緑素量を計測する。葉緑素計32として、市販の葉緑素計が用いられる。以下、コニカミノルタ社の葉緑素計「SPAD-502 Plus」が用いられる場合を例に説明する。この葉緑素計によると、葉緑素量を表わす値としてSPAD(Soil & Plant Analyzer Development)値が算出され、出力される。 The chlorophyll meter 32 measures the amount of chlorophyll in plant leaves. A commercially available chlorophyll meter is used as the chlorophyll meter 32 . A case where a chlorophyll meter "SPAD-502 Plus" manufactured by Konica Minolta Co., Ltd. is used will be described below as an example. According to this chlorophyll meter, a SPAD (Soil & Plant Analyzer Development) value is calculated and output as a value representing the amount of chlorophyll.

測色計33は、植物の葉の色を計測する。測色計33として市販の色彩色差計が用いられる。以下、コニカミノルタ社の色彩色差計「CR-400」が用いられる場合を例に説明する。この色彩色差計によると、色を表わす値として、CIE(Commission Internationale de l'Eclairage)のXYZ表色系の値(以下、「第一の表色値(X,Y,Z)」と記載する。)が算出され、出力される。 A colorimeter 33 measures the color of the leaves of the plant. A commercially available color difference meter is used as the colorimeter 33 . A case in which a Konica Minolta color difference meter “CR-400” is used will be described below as an example. According to this color difference meter, the value representing the color is the value of the XYZ color system of CIE (Commission Internationale de l'Eclairage) (hereinafter referred to as "first color value (X, Y, Z)") ) is calculated and output.

第一のクライアント21は、機械学習を学習推定サーバ1に実行させるための端末装置である。第二のクライアント22は、圃場で栽培されている植物の葉緑素量の推定を学習推定サーバ1に実行させるための端末装置である。第一のクライアント21、第二のクライアント22として、通信機能を有するコンピュータ、例えば、市販のパーソナルコンピュータ、タブレットコンピュータ、またはスマートフォンなどが用いられる。 The first client 21 is a terminal device for causing the learning estimation server 1 to perform machine learning. The second client 22 is a terminal device for causing the learning estimation server 1 to estimate the amount of chlorophyll in plants cultivated in fields. As the first client 21 and the second client 22, computers having communication functions, such as commercially available personal computers, tablet computers, or smartphones, are used.

学習推定サーバ1は、第一のクライアント21からの指令に基づいて機械学習を行い、または、第二のクライアント22からの指令に基づいて葉緑素量の推定を行う。学習推定サーバ1として、いわゆるサーバ装置またはクラウドサーバが用いられる。以下、学習推定サーバ1としてサーバ装置が用いられる場合を例に説明する。 The learning estimation server 1 performs machine learning based on instructions from the first client 21 , or estimates the amount of chlorophyll based on instructions from the second client 22 . A so-called server device or a cloud server is used as the learning estimation server 1 . A case where a server device is used as the learning estimation server 1 will be described below as an example.

学習推定サーバ1は、図2に示すように、本体10、ディスプレイ11、キーボード12、およびポインティングデバイス13などによって構成される。本体10は、プロセッサ101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、補助記憶装置104、ネットワークコントローラ105、および入出力インタフェース106などによって構成される。 The learning inference server 1, as shown in FIG. 2, includes a main body 10, a display 11, a keyboard 12, a pointing device 13, and the like. The main body 10 includes a processor 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, an auxiliary storage device 104, a network controller 105, an input/output interface 106, and the like.

ROM103または補助記憶装置104には、学習推定プログラム14(図3参照)がインストールされている。学習推定プログラム14は、葉緑素量の推定用のデータを機械学習によって生成したり、圃場の植物の葉緑素量を推定したりするためのプログラムである。学習推定プログラム14は、RAM102にロードされ、プロセッサ101によって実行される。 A learning estimation program 14 (see FIG. 3) is installed in the ROM 103 or the auxiliary storage device 104 . The learning estimation program 14 is a program for generating data for estimating the amount of chlorophyll by machine learning and estimating the amount of chlorophyll in plants in a field. The learning estimation program 14 is loaded into RAM 102 and executed by processor 101 .

ネットワークコントローラ105は、NIC(Network Interface Card)などの通信装置であって、第一のクライアント21および第二のクライアント22などと通信するために用いられる 。 The network controller 105 is a communication device such as a NIC (Network Interface Card), and is used to communicate with the first client 21, the second client 22, and the like.

入出力インタフェース106は、USB(Universal Serial Bus)などの規格に対応した入出力ボードであって、ディスプレイ11、キーボード12、およびポインティングデバイス13が接続される。 The input/output interface 106 is an input/output board conforming to standards such as USB (Universal Serial Bus), to which the display 11, the keyboard 12, and the pointing device 13 are connected.

ディスプレイ11は、コマンドまたは情報を入力するための画面およびプロセッサ101による処理の実行結果を示す画面などを表示する。キーボード12およびポインティングデバイス13は、コマンドまたは情報を入力するために用いられる。 The display 11 displays a screen for inputting commands or information, a screen showing execution results of processing by the processor 101, and the like. A keyboard 12 and pointing device 13 are used to enter commands or information.

学習推定プログラム14をプロセッサ101で実行することにより、図3に示す機械学習部15、モデルデータ記憶部16、および推定部17の各機能が実現される。以下、各機能について、キャベツの葉緑素量を推定する場合を例に、第一のクライアント21、第二のクライアント22、ドローン31、葉緑素計32、および測色計33の使い方とともに説明する。 By executing the learning estimation program 14 by the processor 101, each function of the machine learning unit 15, the model data storage unit 16, and the estimation unit 17 shown in FIG. 3 is realized. Hereinafter, each function will be described along with how to use the first client 21, the second client 22, the drone 31, the chlorophyll meter 32, and the colorimeter 33, taking the case of estimating the chlorophyll amount of cabbage as an example.

〔機械学習〕
図4は、計測値データ6Aの例を示す図である。図5は、中間データ6Cの例を示す図である。図6は、学習データ6Dの例を示す図である。図7は、線形モデル関数f(P)の例を示す図である。
[Machine learning]
FIG. 4 is a diagram showing an example of the measured value data 6A. FIG. 5 is a diagram showing an example of intermediate data 6C. FIG. 6 is a diagram showing an example of learning data 6D. FIG. 7 is a diagram showing an example of the linear model function f 2 (P).

作業者は、キャベツの幾つかの個体を用意する。これらの個体は、土壌の条件の異なる複数の圃場で栽培されたものが望ましい。例えば、土壌の条件の異なる6つの圃場から5個ずつ、キャベツの個体を用意する。 A worker prepares several individuals of cabbage. These individuals are desirably cultivated in a plurality of fields with different soil conditions. For example, five cabbage plants are prepared from each of six fields with different soil conditions.

そして、作業者は、これらの個体それぞれの葉の複数の位置のSPAD値Sおよび第一の表色値(X,Y,Z)を葉緑素計32および測色計33によって計測する。SPAD値Sは、葉緑素計32から第一のクライアント21へ送信され、第一の表色値(X,Y,Z)は、測色計33から第一のクライアント21へ送信される。 Then, the operator measures the SPAD values S and the first colorimetric values (X, Y, Z) at a plurality of positions on the leaves of each of these individuals using the chlorophyll meter 32 and the colorimeter 33 . The SPAD value S is sent from the chlorophyll meter 32 to the first client 21 and the first colorimetric values (X, Y, Z) are sent from the colorimeter 33 to the first client 21 .

これにより、第一のクライアント21には、図4に示すような、各個体(キャベツ)の複数の位置ごとのSPAD値Sおよび第一の表色値(X,Y,Z)が入力される。なお、個体識別子は、個体を識別するためのコードであり、位置識別子は、SPAD値Sおよび第一の表色値(X,Y,Z)が計測された位置を識別するためのコードである。いずれの識別子も、便宜的に付されたものであり、機械学習の際には使用されない。 As a result, SPAD values S and first colorimetric values (X, Y, Z) for a plurality of positions of each individual (cabbage) are input to the first client 21 as shown in FIG. . The individual identifier is a code for identifying an individual, and the position identifier is a code for identifying the position where the SPAD value S and the first colorimetric values (X, Y, Z) are measured. . Both identifiers are given for convenience and are not used during machine learning.

以下、同一の個体の同一の位置から葉緑素計32および測色計33によって計測されたSPAD値Sおよび第一の表色値(X,Y,Z)を示すデータを「計測値データ6A」と記載する。N個の個体それぞれからN個所ずつSPAD値Sおよび第一の表色値(X,Y,Z)が計測された場合は、第一のクライアント21は、(N×N)個の計測値データ6Aが得られる。サンプル数すなわち計測値データ6Aの個数は多い方が好ましいが、様々な濃さの位置から均等的に計測することによって計測値データ6Aを収集するのが望ましい。 Hereinafter, the data indicating the SPAD value S and the first colorimetric values (X, Y, Z) measured by the chlorophyll meter 32 and the colorimeter 33 from the same position of the same individual will be referred to as "measurement value data 6A". Describe. When the SPAD value S and the first colorimetric values (X, Y, Z) are measured at N 2 points each from each of N 1 individuals, the first client 21 has (N 1 ×N 2 ) Measured value data 6A is obtained. Although it is preferable that the number of samples, that is, the number of pieces of measured value data 6A is large, it is preferable to collect the measured value data 6A by evenly measuring from positions of various densities.

さらに、作業者は、SPAD値Sおよび第一の表色値(X,Y,Z)を計測した植物の識別情報(例えば、植物名)を入力する。本例では、「キャベツ」を入力する。 Furthermore, the operator inputs the SPAD value S and identification information (for example, plant name) of the plant whose first colorimetric values (X, Y, Z) are measured. In this example, "cabbage" is entered.

そして、第一のクライアント21は、ウェブブラウザによって機械学習用のウェブページへアクセスし、これらの計測値データ6Aを、機械学習の指令および入力された識別情報(植物名)を示す学習指令データ6Bとともに学習推定サーバ1へ送信する。 Then, the first client 21 accesses a web page for machine learning using a web browser, and converts these measured value data 6A to learning command data 6B indicating machine learning commands and input identification information (plant name). together with the learning estimation server 1.

学習推定サーバ1において、機械学習部15は、図3に示すように、計測値受付部151、色空間変換部152、特徴量算出部153、および回帰分析部154などによって構成される。 In the learning estimation server 1, the machine learning unit 15 is composed of a measured value reception unit 151, a color space conversion unit 152, a feature amount calculation unit 153, a regression analysis unit 154, and the like, as shown in FIG.

計測値受付部151は、計測値データ6Aおよび学習指令データ6Bを機械学習用のウェブページを介して第一のクライアント21から受け付ける。 The measured value reception unit 151 receives the measured value data 6A and the learning command data 6B from the first client 21 via the web page for machine learning.

すると、色空間変換部152は、それぞれの計測値データ6Aに示される第一の表色値(X,Y,Z)を、公知の変換式に従ってRGB表色系の値(以下、「第二の表色値(R,G,B)」と記載する。)に変換することによって、図5のような中間データ6Cを生成する。公知の変換式として、例えば次の(1)~(7)式のような式が用いられる。 Then, the color space conversion unit 152 converts the first colorimetric values (X, Y, Z) indicated in each measurement value data 6A to RGB colorimetric system values (hereinafter referred to as “second colorimetric values (R, G, B)”) to generate intermediate data 6C as shown in FIG. As well-known conversion formulas, for example, the following formulas (1) to (7) are used.

Figure 2023007457000002
Figure 2023007457000002

Figure 2023007457000003
Figure 2023007457000003

Figure 2023007457000004
Figure 2023007457000004

Figure 2023007457000005
Figure 2023007457000005

R=255×f(α(R)) … (5)
G=255×f(α(G)) … (6)
B=255×f(α(B)) … (7)
R=255×f 1 (α(R)) (5)
G=255×f 1 (α(G)) (6)
B=255×f 1 (α(B)) (7)

特徴量算出部153は、それぞれの中間データ6Cに示される第二の表色値(R,G,B)すなわち赤、緑、および青それぞれの明度を特徴量算出式に代入することによって特徴量Pを算出し、図6のような学習データ6Dを生成する。
キャベツの特徴量算出式として、例えば次の(8)式が用いられる。
P=(G-B)/(G+B) … (8)
The feature quantity calculation unit 153 calculates the feature quantity P is calculated to generate learning data 6D as shown in FIG.
For example, the following formula (8) is used as the cabbage feature amount calculation formula.
P=(GB)/(G+B) … (8)

例えば、1番目の学習データ6Dの特徴量P0101は、1番目の中間データ6Cに示される第二の表色値(R0101,B0101,G0101)を(8)式に代入し、
0101=(G0101-B0101)/(G0101+B0101
のように算出される。
For example, the feature amount P 0101 of the first learning data 6D is obtained by substituting the second colorimetric values (R 0101 , B 0101 , G 0101 ) shown in the first intermediate data 6C into the equation (8),
P 0101 =(G 0101 -B 0101 )/(G 0101 +B 0101 )
is calculated as

なお、ここでは、植物がキャベツである場合を例に説明しているが、植物は、キャベツおよびはだか麦などの農作物の種類に限らず、薔薇およびチューリップなどの観賞用の植物であってもよい。また、1つの特徴量算出式を複数の種類の植物において共通に使用することができる。例えば、(8)式をキャベツだけでなく玉ねぎ、レタス、ネギ、ニラ、および柑橘などの特徴量算出式として使用することができる。 Here, the case where the plant is cabbage is described as an example, but the plant is not limited to crops such as cabbage and barley, and may be ornamental plants such as roses and tulips. In addition, one feature quantity calculation formula can be commonly used for a plurality of types of plants. For example, formula (8) can be used as a feature quantity calculation formula not only for cabbage but also for onions, lettuce, green onions, Chinese chives, and citrus fruits.

ただし、玉ねぎおよびネギは、管状葉(筒状の葉)であるため光を透過しにくい。そこで、学習データの収集において葉緑素計32で葉緑素量を計測する際に、これらの葉を割いて薄くしなければならない。しかし、後述する推論のフェーズにおいては、葉緑素計32による計測を行うことなく、デジタルカメラで撮影された画像に基づいて特徴量Pを算出しSPAD値Sを推定することができるので、これらの葉を割く必要がない。そのほか、管状葉以外の葉であっても、分厚いことなどが原因で光を透過しにくい場合は、薄く割いて葉緑素量を計測すればよい。しかし、この場合も、後述する推論のフェーズにおいては、これらの葉を割くことなくSPAD値Sを推定することができる。 However, since onions and green onions have tubular leaves (tubular leaves), it is difficult for light to pass therethrough. Therefore, when measuring the amount of chlorophyll with the chlorophyll meter 32 in collecting learning data, these leaves must be split and thinned. However, in the inference phase, which will be described later, the feature amount P can be calculated and the SPAD value S can be estimated based on the image captured by the digital camera without the chlorophyll meter 32 measuring. there is no need to divide the In addition, even for leaves other than tubular leaves, if the thickness of the leaves makes it difficult for light to pass through, the amount of chlorophyll can be measured by splitting the leaves thinly. However, even in this case, the SPAD value S can be estimated without splitting these leaves in the inference phase, which will be described later.

回帰分析部154は、それぞれの学習データ6Dに示されるSPAD値Sおよび特徴量Pに基づいて回帰分析を行うことによって、SPAD値Sと特徴量Pとの相関関係を表わす線形モデル関数を生成する。この際に、SPAD値Sが目的変数(被説明変数)として用いられ、特徴量Pが説明変数として用いられる。 The regression analysis unit 154 generates a linear model function representing the correlation between the SPAD value S and the feature amount P by performing regression analysis based on the SPAD value S and the feature amount P indicated in each learning data 6D. . At this time, the SPAD value S is used as an objective variable (explained variable), and the feature amount P is used as an explanatory variable.

回帰分析の方法として、例えば最小二乗法などの公知の方法が用いられる。この場合に、SPAD値Sと特徴量Pとの相関関係が一次関数で表わされると考え、回帰分析部154は、最小二乗法を用いて一次関数の傾きおよび切片を算出することによって、図7に示すような線形モデル関数f(P)を生成する。 As a regression analysis method, a known method such as the least squares method is used. In this case, assuming that the correlation between the SPAD value S and the feature amount P is represented by a linear function, the regression analysis unit 154 uses the least squares method to calculate the slope and intercept of the linear function. Generate a linear model function f 2 (P) as shown in .

そして、回帰分析部154は、生成した線形モデル関数を示すモデルデータ6Eを、学習指令データ6Bに示される識別情報(本例では、「キャベツ」という植物名)と対応付けてモデルデータ記憶部16に記憶させる。 Then, the regression analysis unit 154 associates the model data 6E indicating the generated linear model function with the identification information (in this example, the plant name “cabbage”) indicated in the learning instruction data 6B, and stores the model data storage unit 16 in the model data storage unit 16. be memorized.

このような作業者の作業および各装置の処理によって、キャベツのモデルデータ6Eが生成されモデルデータ記憶部16に記憶される。 Model data 6E of cabbage is generated and stored in the model data storage unit 16 by the work of the worker and the processing of each device.

なお、学習推定サーバ1は、生成された線形モデル関数が有意であるか否かをRMSE(Root Mean Square Error)またはNRMSE(Normalized Mean Squared Logarithmic Error)によって確認してもよい。この場合は、RMSEまたはNRMSEが所定の値以下であれば有意であると判別し、そうでなければ有意でないと判別すればよい。 The learning estimation server 1 may check whether or not the generated linear model function is significant by RMSE (Root Mean Squared Error) or NRMSE (Normalized Mean Squared Logarithmic Error). In this case, if the RMSE or NRMSE is equal to or less than a predetermined value, it is determined to be significant, and otherwise it is determined to be non-significant.

例えば、回帰分析部154は、学習データ6Dの一部分(例えば、2割分)を検証用に選出する。以下、選出した学習データ6Dを「検証データ」と記載する。検証データは、モデルデータ6Eの生成のためには用いられない。 For example, the regression analysis unit 154 selects a portion (for example, half) of the learning data 6D for verification. The selected learning data 6D is hereinafter referred to as "verification data". Verification data is not used for generating model data 6E.

回帰分析部154は、ある1つの検証データに示されるRGB値(R,G,B)を特徴量算出式によって特徴量Pに変換する。それぞれの特徴量Pを、モデルデータ6Eに示される線形モデル関数に代入することによってSPAD値Sを算出する。算出したSPAD値Sおよびその検証データに示されるSPAD値SのRMSEまたはNRMSEを、両SPAD値Sの誤差として算出する。誤差が所定の値未満であれば「合格」と判別し、所定の値以上であれば「不合格」と判別する。残りの検証データについても同様に誤差を算出し、合否を判別する。検証データの個数に対する合格の個数が所定の割合(例えば、95%)以上であれば、その線形モデルが有意であると判別し、所定の割合未満であれば有意でないと判別する。 The regression analysis unit 154 converts the RGB values (R, G, B) indicated in one piece of verification data into a feature amount P using a feature amount calculation formula. The SPAD value S is calculated by substituting each feature amount P into the linear model function shown in the model data 6E. The RMSE or NRMSE of the calculated SPAD value S and the SPAD value S shown in its verification data is calculated as the error of both SPAD values S. If the error is less than a predetermined value, it is determined as "accepted", and if it is equal to or greater than the predetermined value, it is determined as "failed". Errors are similarly calculated for the rest of the verification data, and pass/fail determination is made. The linear model is determined to be significant if the number of passed tests with respect to the number of verification data is equal to or greater than a predetermined ratio (for example, 95%), and is determined to be insignificant if the ratio is less than the predetermined ratio.

そして、有意であれば、その線形モデル関数を示すデータを学習データ6Dとしてモデルデータ記憶部16に記憶させる。有意でなければ、その線形モデル関数を破棄し、サンプルのデータつまり計測値データ6Aを増やすなどして線形モデル関数を生成し直せばよい。 Then, if significant, data representing the linear model function is stored in the model data storage unit 16 as learning data 6D. If it is not significant, the linear model function is discarded and the sample data, that is, the measured value data 6A is increased to regenerate the linear model function.

キャベツ以外の種類の植物のモデルデータ6Eも同様の作業および処理によって生成され、その植物の識別情報と対応付けられてモデルデータ記憶部16に記憶される。 The model data 6E of plants other than cabbage are also generated by similar work and processing, and stored in the model data storage unit 16 in association with the identification information of the plants.

ただし、植物ごとに特徴量算出式が使い分けられる。例えば、はだか麦の特徴量算出式として、次の(9)式が用いられる。
P=G-B … (9)

〔推定〕
図8は、ドローン31による圃場800の撮影の様子の例を示す図である。図9は、圃場画像8Aの例を示す図である。図10は、部分画像8Cの例を示す図である。図11は、複数の部分画像8Cの位置関係の例を示す図である。図12は、SPAD値分布マップ8Fの例を示す図である。
However, the feature amount calculation formula is used properly for each plant. For example, the following formula (9) is used as the feature value calculation formula for naked barley.
P=GB … (9)

〔Estimated〕
FIG. 8 is a diagram showing an example of how a field 800 is photographed by the drone 31. As shown in FIG. FIG. 9 is a diagram showing an example of the field image 8A. FIG. 10 is a diagram showing an example of a partial image 8C. FIG. 11 is a diagram showing an example of the positional relationship of multiple partial images 8C. FIG. 12 is a diagram showing an example of the SPAD value distribution map 8F.

ユーザは、圃場で栽培されている植物の葉緑素量を、葉緑素量推定システム5に推定させることができる。以下、図8に示す圃場800で栽培されているキャベツの多数の個体の全体的なの葉緑素量を推定させる場合を例に、ユーザの作業および各装置の各部の処理について説明する。 The user can cause the chlorophyll amount estimation system 5 to estimate the chlorophyll amount of plants cultivated in the field. Hereinafter, the user's work and the processing of each part of each device will be described, taking as an example a case of estimating the overall chlorophyll amount of a large number of individuals of cabbage cultivated in a field 800 shown in FIG.

ユーザは、色基準カード801を圃場800の所定の位置にほぼ水平に置く。色基準カード801は、一般に「ホワイトカード」または「グレーカード」と呼ばれる、画像のホワイトバランスのための純粋な白色または18パーセントグレーなどの用紙またはボードである。 The user places the color reference card 801 at a predetermined position in the field 800 substantially horizontally. Color reference card 801 is a paper or board such as pure white or 18 percent gray for white balancing of images, commonly referred to as a "white card" or "gray card".

ユーザは、ドローン31を圃場800の上空に飛ばし、高さhからドローン31に圃場800を撮影させる。高さhは、50~120メートル程度である。以下、図9のような、圃場800の全体の画像である圃場画像8Aが、1回の撮影で得られた場合を例に説明する。圃場画像8Aには、色基準カード801の画像が色基準画像8Bとして含まれている。特許図面の制約のため、図9は圃場画像8Aとしてモノクロの画像であるが、実際はカラーの画像である。図10も同様である。 The user flies the drone 31 over the field 800 and makes the drone 31 photograph the field 800 from a height h1. The height h 1 is on the order of 50 to 120 meters. An example of a case where a field image 8A, which is an image of the entire field 800 as shown in FIG. 9, is obtained in one shot will be described below. The image of the color reference card 801 is included in the field image 8A as the color reference image 8B. Although FIG. 9 shows a monochrome image as the field image 8A due to limitations of patent drawings, it is actually a color image. FIG. 10 is also the same.

さらに、ユーザは、高さhよりも低い高さhからドローン31に圃場800を一部分ずつ撮影させる。hは、6メートル程度である。これにより、図10のような、圃場800の一部分の画像である部分画像8Cが得られる。部分画像8Cは、圃場画像8Aよりも低空で撮影されるので、圃場画像8Aよりも鮮明に圃場800の様子が写っている。 Further, the user causes the drone 31 to photograph the field 800 part by part from a height h2 lower than the height h1. h2 is on the order of 6 meters. As a result, a partial image 8C, which is an image of a portion of the field 800, as shown in FIG. 10, is obtained. Since the partial image 8C is captured at a lower altitude than the field image 8A, the field 800 is shown more clearly than the field image 8A.

以下、部分画像8Cとして、i×j枚の部分画像が得られた場合を例に説明する。各部分画像8Cを図11のように「部分画像8C11」、「部分画像8C12」、…、「部分画像8Cij」と区別して記載する。圃場800の各位置は、これらの部分画像8Cのいずれかに写っている。なお、隣り合う部分画像8Cには、圃場800の同じ部分が多少、重複して写っていても構わない。 A case where i×j partial images are obtained as the partial image 8C will be described below as an example. Each partial image 8C is described separately as "partial image 8C11 ", "partial image 8C12 ", ..., "partial image 8Cij " as shown in FIG. Each position of the field 800 is shown in one of these partial images 8C. It should be noted that the same portion of the field 800 may somewhat overlap in the adjacent partial images 8C.

ドローン31は、圃場画像8Aの画像データおよび部分画像8Cそれぞれの画像データを第二のクライアント22へ送信する。 The drone 31 transmits the image data of the field image 8A and the image data of each of the partial images 8C to the second client 22 .

これにより、第二のクライアント22は、圃場800全体の画像データおよび圃場800の各部分の画像データが得られる。さらに、ユーザは、圃場800で栽培されている植物の識別情報として、その植物の植物名を第二のクライアント22へ入力する。本例では、「キャベツ」という植物名を入力する。なお、第二のクライアント22は、学習推定サーバ1のモデルデータ記憶部16に記憶されている学習データ6Dそれぞれに対応する植物の種類の識別情報(植物名)をリストで表示し、ユーザは、リストの中から識別情報を選択してもよい。 Thereby, the second client 22 can obtain the image data of the entire field 800 and the image data of each part of the field 800 . Furthermore, the user inputs the plant name of the plant cultivated in the field 800 to the second client 22 as the identification information of the plant. In this example, the plant name "cabbage" is entered. The second client 22 displays a list of plant type identification information (plant names) corresponding to each of the learning data 6D stored in the model data storage unit 16 of the learning estimation server 1. You may select the identification information from the list.

すると、第二のクライアント22は、推定サービス用のウェブページへアクセスし、圃場画像8Aの画像データ、部分画像8Cそれぞれの画像データとともに、推定の指令および入力された識別情報(植物名)を示す推定指令データ6Fを学習推定サーバ1へ送信する。 Then, the second client 22 accesses the web page for the estimation service, and presents the image data of the field image 8A and the image data of the partial image 8C, as well as the instruction for estimation and the input identification information (plant name). The estimation command data 6F is transmitted to the learning estimation server 1.

学習推定サーバ1において、推定部17は、図3に示すように、画像データ受付部171、明度調整部172、ノイズ除去部173、SPAD値算出部174、分布マップ生成部175、および推定結果送信部176などによって構成される。 In the learning estimation server 1, as shown in FIG. 176 and the like.

画像データ受付部171は、圃場画像8Aの画像データ、部分画像8Cそれぞれの画像データ、および推定指令データ6Fを推定サービス用のウェブページを介して第二のクライアント22から受け付ける。 The image data reception unit 171 receives the image data of the field image 8A, the image data of each of the partial images 8C, and the estimation command data 6F from the second client 22 via the estimation service web page.

すると、明度調整部172は、圃場画像8Aのホワイトバランスの処理を次のように行う。 Then, the brightness adjustment unit 172 performs white balance processing of the field image 8A as follows.

圃場画像8Aの画像データがJPEG(Joint Photographic Experts Group)などの非RAWデータである場合は、色温度のデータが含まれていないので、圃場画像8Aに含まれる色基準画像8Bを使用する。具体的には、明度調整部172は、色基準画像8Bの色が本来の色(色基準カード801の色)になるように圃場画像8A全体を補正する。 If the image data of the field image 8A is non-RAW data such as JPEG (Joint Photographic Experts Group), color temperature data is not included, so the color reference image 8B included in the field image 8A is used. Specifically, the brightness adjustment unit 172 corrects the entire field image 8A so that the color of the color reference image 8B becomes the original color (the color of the color reference card 801).

一方、圃場画像8Aの画像データがRAWデータである場合は、明度調整部172は、所定の色温度になるように圃場画像8Aを補正する。なお、この場合も、非RAWデータである場合と同様に、色基準画像8Bの色が本来の色になるように圃場画像8Aを補正してもよい。 On the other hand, when the image data of the field image 8A is RAW data, the brightness adjustment unit 172 corrects the field image 8A so as to have a predetermined color temperature. Also in this case, as in the case of non-RAW data, the field image 8A may be corrected so that the color of the color reference image 8B becomes the original color.

以下、明度調整部172によって補正された圃場画像8Aを「第一の補正画像8D」と記載する。 Hereinafter, the field image 8A corrected by the brightness adjustment unit 172 is referred to as "first corrected image 8D".

ところで、圃場800には、通路が設けられている。また、隣り合うキャベツ同士の間などから土壌または雑草が見えることがある。したがって、圃場画像8Aには、通路、土壌、および雑草それぞれの画像が含まれることがある。さらに、キャベツに虫食いがあることがある。通路、土壌、および雑草は、キャベツの部分ではないので、SPAD値の推定の対象から除外すべきである。また、虫食いの部分は、葉緑素がないので除外すべきである。さらに、影になっている部分も除外すべきである。 By the way, the agricultural field 800 is provided with a passage. In addition, soil or weeds may be visible between adjacent cabbages. Therefore, the field image 8A may include images of paths, soil, and weeds. In addition, cabbage sometimes has worm-eaten. Pathways, soil, and weeds are not part of the cabbage and should be excluded from the estimation of SPAD values. Also, moth-eaten parts should be excluded as they lack chlorophyll. In addition, shadowed areas should be excluded.

そこで、ノイズ除去部173は、補正された圃場画像8Aすなわち第一の補正画像8Dから葉以外の部分の画素、すなわち通路、土壌、雑草、虫食い、または影を表わす画素を除去する処理を、例えば次のように行う。 Therefore, the noise removal unit 173 removes pixels of portions other than leaves, that is, pixels representing paths, soil, weeds, wormholes, or shadows, from the corrected field image 8A, that is, the first corrected image 8D. Do as follows.

ノイズ除去部173は、第一の補正画像8Dの中から葉、通路、土壌、雑草、虫食い、および影それぞれを表わす画素を判別する。これらの画素は、例えば、次のように判別すればよい。予め、葉、通路、土壌、雑草、虫食い、および影それぞれを表わす画素を多数、収集し、これらを分類するための分類器(学習済モデル)を機械学習によって生成しておく。そして、この分類器を用いて第一の補正画像8Dの各画素が葉、通路、土壌、雑草、虫食い、および影のうちのいずれを表わすものであるかを判別する。この際に、MLC(Maximum Likelihood Classifier)などの公知のアルゴリズムが用いられる。MLCを適用したソフトウェアとして、Harris Geospatial Solutions 社のENVI5.5が知られている。このソフトウェアによって判別してもよい。なお、学習推定サーバ1以外のシステムで作成された分類器を用いて判別してもよい。 The noise removal unit 173 determines pixels representing leaves, paths, soil, weeds, wormholes, and shadows from the first corrected image 8D. These pixels may be determined, for example, as follows. A large number of pixels representing leaves, paths, soil, weeds, wormholes, and shadows are collected in advance, and a classifier (learned model) for classifying these is generated by machine learning. This classifier is then used to determine whether each pixel of the first corrected image 8D represents leaves, paths, soil, weeds, wormholes, or shadows. At this time, a known algorithm such as MLC (Maximum Likelihood Classifier) is used. ENVI5.5 from Harris Geospatial Solutions is known as software to which MLC is applied. You may discriminate|determine by this software. A classifier created by a system other than the learning estimation server 1 may be used for determination.

以下、通路、土壌、雑草、虫食い、および影のいずれかを表わす画素を「ノイズ画素」と記載する。そして、ノイズ除去部173は、判別したノイズ画素を第一の補正画像8Dから除去する。 Pixels representing any of paths, soil, weeds, wormholes, and shadows are hereinafter referred to as "noise pixels." Then, the noise removal unit 173 removes the determined noise pixels from the first corrected image 8D.

または、ノイズ除去部173は、ノイズ画素を次のように第一の補正画像8Dから除去する。圃場800の各部分の部分画像8Cの中からノイズ画像(本例では、通路、土壌、雑草、虫食い、および影のいずれかを表わす画素)を判別する。判別の方法は、上述の通りである。 Alternatively, the noise removal unit 173 removes noise pixels from the first corrected image 8D as follows. A noise image (in this example, pixels representing any of path, soil, weeds, worm-eaten, and shadow) is discriminated from the partial image 8C of each portion of the field 800 . The determination method is as described above.

さらに、ノイズ除去部173は、部分画像8Cの中から判別したノイズ画素と同じ位置を表わす画素を第一の補正画像8Dの中から特定する。この「位置」は、圃場800の中の位置である。つまり、判別したノイズ画素が圃場800の中の位置(L,L)を表わす画素である場合は、ノイズ除去部173は、第一の補正画像8Dの中から位置(L,L)を表わす画素を特定する。この画素もノイズ画素であると、言える。そして、ノイズ除去部173は、特定したノイズ画素を第一の補正画像8Dから除去する。 Furthermore, the noise removal unit 173 identifies pixels in the first corrected image 8D that represent the same positions as the noise pixels identified in the partial image 8C. This “position” is a position within the field 800 . In other words, when the determined noise pixel is a pixel representing the position (L x , Ly ) in the field 800, the noise removal unit 173 removes the position (L x , Ly ) from the first corrected image 8D. ) are identified. It can be said that this pixel is also a noise pixel. Then, the noise removing section 173 removes the identified noise pixels from the first corrected image 8D.

この方法によると、部分画像8Cを使用せずに第一の補正画像8Dの中からノイズ画素を直接判別し除去する方法よりも、より確実にノイズ画素を除去することができる。ただし、部分画像8Cの画素と第一の補正画像8Dの画素との対応関係の情報が必要である。この情報は、公知の方法によって取得すればよいが、例えば次のように取得することができる。 According to this method, noise pixels can be removed more reliably than the method of directly determining and removing noise pixels from the first corrected image 8D without using the partial image 8C. However, information on the correspondence relationship between the pixels of the partial image 8C and the pixels of the first corrected image 8D is required. This information can be obtained by a known method, for example, as follows.

ドローン31によって圃場画像8Aおよび部分画像8Cそれぞれを撮影する際に、GPS(Global Positioning System)などの位置情報を取得しておく。そして、ノイズ除去部173は、取得した位置情報に基づいて、部分画像8Cの各画素が第一の補正画像8Dのどの画素に対応するかを算出する。 When each of the field image 8A and the partial image 8C is captured by the drone 31, position information such as GPS (Global Positioning System) is obtained. Then, the noise removing section 173 calculates which pixel of the first corrected image 8D each pixel of the partial image 8C corresponds to based on the acquired position information.

または、ノイズ除去部173は、部分画像8Cを、第一の補正画像8Dの縮尺(1画素当たりの実際の長さ)に合わせて縮小する。そして、縮小した部分画像8Cと第一の補正画像8Dとのマッチングを行うことによって、縮小した部分画像8Cの各画素が第一の補正画像8Dのどの画素に対応するのかを特定する。 Alternatively, the noise removing section 173 reduces the partial image 8C to match the reduced scale (actual length per pixel) of the first corrected image 8D. Then, by matching the reduced partial image 8C and the first corrected image 8D, each pixel of the reduced partial image 8C corresponds to which pixel of the first corrected image 8D.

以下、ノイズ画素が除去された第一の補正画像8Dを「第二の補正画像8E」と記載する。なお、推定の対象がはだか麦である場合は、穂の部分の画素をノイズ画素に加えてもよい。または、リンゴおよびミカンなどである場合は、果実ならびに木の幹および枝それぞれの部分の画素をノイズ画素に加えてもよい。 Hereinafter, the first corrected image 8D from which noise pixels have been removed will be referred to as "second corrected image 8E". If the estimation target is bare wheat, the pixels of the ears may be added to the noise pixels. Alternatively, in the case of apples, oranges, and the like, the pixels of the fruit and the trunk and branches of the tree may be added to the noise pixels.

SPAD値算出部174は、推定指令データ6Fに示される植物名のモデルデータ6Eに示される線形モデル関数に基づいて、第二の補正画像8Eの画素ごとにSPAD値Sを次のように算出する。 The SPAD value calculator 174 calculates the SPAD value S for each pixel of the second corrected image 8E as follows, based on the linear model function indicated in the plant name model data 6E indicated in the estimated command data 6F. .

SPAD値算出部174は、第二の補正画像8Eの画素ごとに、画素値(RGB値)をその植物名の植物の特徴量算出式によって特徴量Pを算出する。そして、算出した特徴量Pをその植物の線形モデル関数に代入することによって、SPAD値Sを算出する。 The SPAD value calculation unit 174 calculates a feature amount P for each pixel of the second corrected image 8E by using the feature amount calculation formula of the plant with the pixel value (RGB value) of the plant name. Then, the SPAD value S is calculated by substituting the calculated feature amount P into the linear model function of the plant.

本例では、その植物はキャベツなので、SPAD値算出部174は、(8)式によって各画素の特徴量Pを算出する。そして、キャベツのモデルデータ6Eに示される線形モデル関数(図7参照)に各画素の特徴量Pを代入することによって、各画素のSPAD値Sを算出する。例えば、第二の補正画像8Eに示される、ある画素のRGB値が(R,G,B)である場合は、その画素の特徴量Pとして、(G-B)/(G+B)を算出する。そして、その画素のSPAD値Sとして、f(P)を算出する。 In this example, the plant is cabbage, so the SPAD value calculation unit 174 calculates the feature amount P of each pixel using equation (8). Then, the SPAD value S of each pixel is calculated by substituting the feature amount P of each pixel into the linear model function (see FIG. 7) shown in the cabbage model data 6E. For example, when the RGB values of a certain pixel shown in the second corrected image 8E are (R a , G a , B a ), the characteristic amount P a of the pixel is (G a −B a )/ Calculate (G a + B a ). Then, f(P a ) is calculated as the SPAD value S a of that pixel.

分布マップ生成部175は、図12のような、SPAD値算出部174によって算出された第二の補正画像8Eの各画素のSPAD値Sの大きさをグレースケールで表わす分布マップ8Fを生成する。例えば、SPAD値Sの取り得る上限値(最大値)がSMAXであり、階調が256(0~255)であり、かつ画素数がUMAX×VMAXである分布マップを、SPAD値分布マップ8Fとして生成する場合は、SPAD値分布マップ8Fの座標(u,v)の画素の画素値は、(255/SMAX)×S(u,v)、になる。なお、小数点以下は、切り上げてもよいし、切り下げてもよいし、四捨五入してもよい。u=1,2,…,UMAXであり、v=1,2,…,VMAXである。 The distribution map generator 175 generates a distribution map 8F that expresses in grayscale the magnitude of the SPAD value S of each pixel of the second corrected image 8E calculated by the SPAD value calculator 174, as shown in FIG. For example, the upper limit (maximum value) of the SPAD value S is S MAX , the gradation is 256 (0 to 255), and the number of pixels is U MAX ×V MAX . When the map 8F is generated, the pixel value of the pixel at the coordinates (u, v) of the SPAD value distribution map 8F is (255/S MAX )×S (u, v) . In addition, decimal places may be rounded up, rounded down, or rounded off. u=1,2,...,U MAX and v=1,2,...,V MAX .

または、分布マップ生成部175は、カラースケールで各画素のSPAD値Sの大きさを表わすマップを分布マップ8Fとして生成してもよい。例えば最大値(つまり、255)を赤の明度100%で表わし、中間値(127)を緑の明度100%で表わし、最小値(0)を青の明度100%で表わしてもよい。 Alternatively, the distribution map generator 175 may generate a map representing the magnitude of the SPAD value S of each pixel on a color scale as the distribution map 8F. For example, the maximum value (ie, 255) may be represented by 100% red intensity, the intermediate value (127) by 100% green intensity, and the minimum value (0) by 100% blue intensity.

推定結果送信部176は、第二の補正画像8Eの各画素のSPAD値Sを示す推定結果データ6Gを、SPAD値分布マップ8Fの画像データとともに第二のクライアント22へ送信する。 The estimation result transmission unit 176 transmits the estimation result data 6G indicating the SPAD value S of each pixel of the second corrected image 8E to the second client 22 together with the image data of the SPAD value distribution map 8F.

第二のクライアント22は、学習推定サーバ1から推定結果データ6Gおよび分布マップ8Fの画像データを受信すると、推定結果データ6Gに示される各画素のSPAD値を表示する。または、分布マップ8Fを表示する。 When the second client 22 receives the estimation result data 6G and the image data of the distribution map 8F from the learning estimation server 1, it displays the SPAD value of each pixel shown in the estimation result data 6G. Alternatively, the distribution map 8F is displayed.

図13は、学習推定プログラム14による処理の全体的な流れの例を説明するフローチャートである。図14は、学習処理の流れの例を説明するフローチャートである。図15は、推定処理の流れの例を説明するフローチャートである。 FIG. 13 is a flowchart for explaining an example of the overall flow of processing by the learning estimation program 14. As shown in FIG. FIG. 14 is a flowchart illustrating an example of the flow of learning processing. FIG. 15 is a flowchart illustrating an example of the flow of estimation processing.

次に、学習推定サーバ1の全体的な処理の流れを、フローチャートを参照しながら説明する。学習推定サーバ1は、学習推定プログラム14に従って、図13に示す手順で処理を行う。 Next, the overall processing flow of the learning estimation server 1 will be described with reference to a flowchart. The learning estimation server 1 performs processing according to the procedure shown in FIG. 13 according to the learning estimation program 14 .

学習推定サーバ1は、学習指令データ6Bを計測値データ6Aとともに受信すると(図13の#701でYes)、図14に示す手順で機械学習を行う(#702)。 Upon receiving the learning command data 6B together with the measured value data 6A (Yes in #701 of FIG. 13), the learning estimation server 1 performs machine learning according to the procedure shown in FIG. 14 (#702).

学習推定サーバ1は、それぞれの計測値データ6Aに示されるXYZ値(X,Y,Z)をRGB値(R,G,B)に変換し(図14の#711)、学習指令データ6Bに示される識別情報の植物の特徴量算出式にRGB値(R,G,B)を代入することによって特徴量Pを算出する(#712)。 The learning estimation server 1 converts the XYZ values (X, Y, Z) indicated in each measurement value data 6A into RGB values (R, G, B) (#711 in FIG. 14), and converts them into the learning command data 6B. A feature amount P is calculated by substituting the RGB values (R, G, B) into the plant feature amount calculation formula of the identification information shown (#712).

そして、学習推定サーバ1は、回帰分析によって特徴量PとSPAD値Sとの関係を示す線形モデル関数を生成し(#713)、生成した線形モデル関数を示すデータを、その植物の識別情報と対応付けてモデルデータ6Eとして保存する(#714)。 Then, the learning estimation server 1 generates a linear model function indicating the relationship between the feature amount P and the SPAD value S by regression analysis (#713), and uses the data indicating the generated linear model function as the identification information of the plant. It is saved as model data 6E in correspondence (#714).

図13に戻って、学習推定サーバ1は、推定指令データ6Fを圃場画像8A(図9参照)の画像データおよび部分画像8C(図10参照)それぞれの画像データとともに受信すると(#703でYes)、図15に示す手順で推定(推論)の処理を行う(#704)。 Returning to FIG. 13, the learning estimation server 1 receives the estimation command data 6F together with the image data of the field image 8A (see FIG. 9) and the image data of the partial image 8C (see FIG. 10) (Yes in #703). , estimation (inference) processing is performed according to the procedure shown in FIG. 15 (#704).

学習推定サーバ1は、圃場画像8Aの明度を基準に基づいて調整することによって第一の補正画像8Dを生成する(図15の#721)。第一の補正画像8Dからノイズ画素を除去することによって第二の補正画像8Eを生成する(#722)。第二の補正画像8Eの各画素の画素値(RGB値)を、推定指令データ6Fに示される識別情報に対応するモデルデータ6Eの線形モデル関数に代入することによって、各画素の特徴量Pを算出する(#723)。各画素のSPAD値Sの大きさをグレースケールで表わす画像すなわち分布マップ8F(図12参照)を生成する(#724)。 The learning estimation server 1 generates the first corrected image 8D by adjusting the brightness of the field image 8A based on the reference (#721 in FIG. 15). A second corrected image 8E is generated by removing noise pixels from the first corrected image 8D (#722). By substituting the pixel value (RGB value) of each pixel of the second corrected image 8E into the linear model function of the model data 6E corresponding to the identification information indicated in the estimated command data 6F, the feature amount P of each pixel is obtained. Calculate (#723). An image, that is, a distribution map 8F (see FIG. 12) representing the magnitude of the SPAD value S of each pixel in grayscale is generated (#724).

そして、学習推定サーバ1は、第二の補正画像8Eの各画素の特徴量Pを示す推定結果データ6Gを推定指令データ6Fの画像データとともに、推定指令データ6Fの送信元へ返信(送信)する(#725)。 Then, the learning estimation server 1 returns (transmits) the estimation result data 6G indicating the feature amount P of each pixel of the second corrected image 8E to the transmission source of the estimation command data 6F together with the image data of the estimation command data 6F. (#725).

図13に戻って、学習推定サーバ1は、葉緑素量(SPAD値)の推定のサービスを提供している間(#705でYes)、学習指令データ6Bを受信するごとにステップ#702の処理を実行し、推定指令データ6Fを受信するごとにステップ#704の処理を実行する。 Returning to FIG. 13, while the learning estimation server 1 is providing the service of estimating the amount of chlorophyll (SPAD value) (Yes in #705), the processing of step #702 is performed each time learning command data 6B is received. , and the process of step #704 is executed each time the estimated command data 6F is received.

本実施形態によると、ユーザ(測定者)は、対象である植物全体の葉緑素量(SPAD値S)を、葉緑素計を使用することなく測定することができる。しかも、測定対象の写った画像の色温度を基準に合わせてSPAD値Sを推定するので、季節、時間帯、および天候などの条件を左右されにくく、安定的に推定することができる。 According to this embodiment, the user (measurer) can measure the chlorophyll amount (SPAD value S) of the entire target plant without using a chlorophyll meter. Moreover, since the SPAD value S is estimated based on the color temperature of the image of the object to be measured, it is less likely to be affected by conditions such as the season, time of day, and weather, and can be stably estimated.

本実施形態では、特徴量算出部153は、キャベツの特徴量Pとして(8)式の右辺の通り、(G-B)/(G+B)、を算出した。また、はだか麦の特徴量Pとして(9)式の右辺の通り、G-B、を算出した。このように、どちらの特徴量Pも、G-B、に基づいて算出される。 In the present embodiment, the feature amount calculation unit 153 calculates (GB)/(G+B) as the feature amount P of cabbage as shown on the right side of the equation (8). In addition, GB was calculated as the feature amount P of naked barley, as shown on the right side of equation (9). In this way, both feature amounts P are calculated based on GB.

はだか麦の特徴量Pは、次の(10)式によって算出されてもよい。
P=2G-R-B … (10)
The feature amount P of bare barley may be calculated by the following equation (10).
P=2G-R-B (10)

(10)式の右辺は、(G-B)+(G-R)、と変形される。つまり、(10)式による場合も、特徴量Pは、G-B、に基づいて算出される。 The right side of equation (10) is transformed into (GB)+(GR). In other words, the feature amount P is calculated based on GB also when using formula (10).

図16は、線形モデル関数f(P)の例を示す図である。植物の種類によっては、(8)~(10)式以外の式によって特徴量が算出され線形モデル関数が生成される。特徴量算出部153および回帰分析部154は、例えばトマトの葉の線形モデル関数f(P)を次のように生成する。 FIG. 16 is a diagram showing an example of the linear model function f 3 (P). Depending on the type of plant, the feature quantity is calculated by formulas other than the formulas (8) to (10) to generate the linear model function. The feature amount calculator 153 and the regression analysis unit 154 generate, for example, a tomato leaf linear model function f 3 (P) as follows.

作業者は、複数のトマトの株それぞれの葉の複数の位置のSPAD値Sおよび第一の表色値(X,Y,Z)を葉緑素計32および測色計33によって計測する。 The operator measures the SPAD values S and the first colorimetric values (X, Y, Z) at a plurality of positions on the leaves of each of the plurality of tomato plants using the chlorophyll meter 32 and the colorimeter 33 .

特徴量算出部153は、位置ごとの特徴量Pを、計測された第一の表色値(X,Y,Z)に基づいて(11)式によって算出する。
P=xy … (11)
ただし、x=X/(X+Y+Z)、であり、y=Y/(X+Y+Z)、である。

つまり、Yxy表色系の表色値xおよびyに基づいて特徴量Pを算出する。これにより、図6に示した学習データ6Dに相当する、位置ごとの特徴量PとSPAD値Sとの組合せのデータが得られる。
The feature amount calculation unit 153 calculates the feature amount P for each position using the equation (11) based on the measured first colorimetric values (X, Y, Z).
P=xy (11)
However, x=X/(X+Y+Z), and y=Y/(X+Y+Z).

That is, the feature amount P is calculated based on the color values x and y of the Yxy color system. As a result, the combination data of the feature amount P and the SPAD value S for each position, which corresponds to the learning data 6D shown in FIG. 6, is obtained.

回帰分析部154は、キャベツなどの場合と同様に、SPAD値Sおよび特徴量Pに基づいて回帰分析を行うことによって、SPAD値Sと特徴量Pとの相関関係を表わす線形モデル関数を生成する。すると、式(12)または図16に示すような線形モデル関数f(P)が得られる。
(P)=aP+b … (12)

aは負の値であって、図16の例においては、-809.33、である。bは正の値であり、図16の例においては、150.84、である。aが負の値なので、xとyとの積すなわち特徴量Pが大きいほど、SPAD値Sが小さい。
Regression analysis unit 154 generates a linear model function representing the correlation between SPAD value S and feature amount P by performing regression analysis based on SPAD value S and feature amount P, as in the case of cabbage. . Then, the linear model function f 3 (P) as shown in equation (12) or FIG. 16 is obtained.
f 3 (P)=aP+b (12)

a is a negative value, -809.33 in the example of FIG. b is a positive value, 150.84 in the example of FIG. Since a is a negative value, the SPAD value S decreases as the product of x and y, that is, the feature amount P increases.

そして、推定部17は、線形モデル関数f(P)に基づいてトマトのSPAD値Sを推定する。

学習推定サーバ1は、L表色系の値に基づいて特徴量P算出してもよい。例えば、Lを特徴量Pとして算出してもよい。または、aを特徴量Pとして算出してもよい。
Then, the estimation unit 17 estimates the SPAD value S of the tomato based on the linear model function f 3 (P).

The learning estimation server 1 may calculate the feature amount P based on the values of the L * a * b * color system. For example, L * may be calculated as the feature amount P. Alternatively, a * may be calculated as the feature amount P.

本実施形態では、機械学習部15、モデルデータ記憶部16、および推定部17を学習推定サーバ1に集約した場合を例に説明したが、複数の装置またはシステムに分散してもよい。例えば、機械学習部15を機械学習用のコンピュータまたはシステムによって実現し、モデルデータ記憶部16および推定部17を推論用のコンピュータまたはシステムによって実現してもよい。 In this embodiment, the case where the machine learning unit 15, the model data storage unit 16, and the estimation unit 17 are integrated into the learning estimation server 1 has been described as an example, but they may be distributed among a plurality of devices or systems. For example, the machine learning unit 15 may be realized by a machine learning computer or system, and the model data storage unit 16 and the estimation unit 17 may be realized by an inference computer or system.

本実施形態では、推定部17は、圃場800の上空から植物を撮影した画像に基づいてSPAD値Sを推定したが、植物を横から撮影した画像に基づいて推定してもよい。例えば、トマトの中段部分の葉のSPAD値を推定する場合に、横から撮影した画像に基づくのが有効的である。植物工場またはハウスで栽培される植物の葉のSPAD値を推定する場合にも、有効的である。 In the present embodiment, the estimation unit 17 estimates the SPAD value S based on the image of the plant photographed from above the field 800, but may be estimated based on the image of the plant photographed from the side. For example, when estimating the SPAD value of a leaf in the middle part of a tomato, it is effective to base it on an image taken from the side. It is also effective in estimating the SPAD value of leaves of plants grown in plant factories or greenhouses.

本実施形態では、学習推定サーバ1は、「キャベツ」および「はだか麦」などの種類ごとに機械学習および推定を行ったが、より具体的な種類に応じて機械学習および推定を行ってもよい。例えば、「冬キャベツ」、「春キャベツ」、「グリーンボール」、および「赤キャベツ」などの品種ごとに機械学習および推定を行ってもよい。トマトの場合も同様に、「大玉トマト」、「中玉トマト」、および「ミニトマト」などの品種ごとに機械学習および推定を行ってもよい。 In the present embodiment, the learning and estimation server 1 performs machine learning and estimation for each type such as "cabbage" and "naked barley", but may perform machine learning and estimation according to more specific types. For example, machine learning and inference may be performed for each variety such as "winter cabbage", "spring cabbage", "green ball", and "red cabbage". Similarly, in the case of tomatoes, machine learning and estimation may be performed for each variety such as "large tomato", "medium tomato", and "mini tomato".

または、種類と別の属性とを組み合わせて機械学習および推定を行ってもよい。例えば、キャベツの機械学習および推定を、栽培場所である圃場の土壌の性質ごとに行ってもよい。すなわち、学習推定サーバ1は、キャベツのモデルデータ6Eを、栽培場所である圃場の土壌の性質ごとに生成する。そして、推定の対象である圃場の土壌の性質に応じた学習データ6Dを用いて、その圃場で栽培されているキャベツのSPAD値Sを推定する。 Alternatively, the type and another attribute may be combined for machine learning and inference. For example, machine learning and estimation of cabbage may be performed for each property of the soil in the field where it is grown. That is, the learning estimation server 1 generates the model data 6E of cabbage for each property of the soil of the field where the cabbage is grown. Then, the SPAD value S of the cabbage cultivated in the field is estimated using the learning data 6D corresponding to the property of the soil of the field to be estimated.

上述の通り、本実施形態によると、季節、時間帯、および天候などの条件を左右されにくく、安定的に推定することができるが、ある種類または品種の植物(例えば、柑橘)については、正確性をより向上させるために、条件ごとに1つずつの線形モデル関数を用意して使い分けてもよい。例えば、晴天時、曇天時、および雨天時など天候それぞれの線形モデル関数を用意して使い分けてもよい。または、日出頃の時間帯、正午頃の時間帯、日没頃の時間帯など時間帯それぞれの線形モデル関数を用意して使い分けてもよい。 As described above, according to the present embodiment, it is possible to stably estimate without being affected by conditions such as season, time of day, and weather. In order to further improve performance, one linear model function may be prepared for each condition and used properly. For example, linear model functions for weather conditions such as fine weather, cloudy weather, and rainy weather may be prepared and used separately. Alternatively, a linear model function may be prepared for each time period, such as the time period around sunrise, the time period around noon, and the time period around sunset, and used accordingly.

本実施形態では、学習推定サーバ1は、圃場800の各部分(画素)の推定したSPAD値Sを、SPAD値分布マップ8F(図12参照)のような二次元のマップで表わしたが、三次元のマップによって表わしてもよい。例えば、三次元棒グラフで表わしてもよい。すなわち、圃場800を縦×横の平面で表わしSPAD値Sをその大きさに応じた高さの棒で表わしてもよい。 In the present embodiment, the learning estimation server 1 represents the estimated SPAD value S of each portion (pixel) of the field 800 in a two-dimensional map such as the SPAD value distribution map 8F (see FIG. 12). It may be represented by the original map. For example, it may be represented by a three-dimensional bar graph. In other words, the field 800 may be represented by a vertical×horizontal plane, and the SPAD value S may be represented by a bar having a height corresponding to its size.

学習推定サーバ1は、さらに、圃場800で栽培されている植物の収穫の時期を例えば次のように第二のクライアント22へ通知してもよい。 The learning estimation server 1 may further notify the second client 22 of the harvest time of the plants cultivated in the field 800, for example, as follows.

ユーザは、定期的に(例えば、毎日または数日ごとに)上述の通り圃場800の全体および各部分をドローン31に撮影させ、第二のクライアント22から学習推定サーバ1へ圃場画像8Aの画像データ、各部分の部分画像8Cの画像データ、および推定指令データ6Fを送信させる。学習推定サーバ1には、図3に示す機能に加えて、時期判別部および通知部を有する。 The user regularly (for example, every day or every few days) causes the drone 31 to photograph the entire field 800 and each part thereof as described above, and sends the image data of the field image 8A from the second client 22 to the learning estimation server 1. , the image data of the partial image 8C of each part, and the estimated command data 6F. In addition to the functions shown in FIG. 3, the learning estimation server 1 has a time determination unit and a notification unit.

学習推定サーバ1の推定部17は、これらのデータを受信すると、上述の通り第二の補正画像8Eを生成し、第二の補正画像8Eの各画素のSPAD値Sを推定する。時期判別部は、推定されたこれらのSPAD値Sの特徴がその植物に対応する所定の基準に達しているか否かを判別する。そして、所定の基準に達していると判別された場合は、通知部は、収穫の時期になったことを第二のクライアント22へ通知する。例えば、これらのSPAD値Sの平均値が所定の値を超えた場合に通知する。または、全画素の個数に対する所定の値よりも大きいSPAD値Sの画素の個数の割合が所定の値を超えた場合に通知する。 Upon receiving these data, the estimation unit 17 of the learning estimation server 1 generates the second corrected image 8E as described above, and estimates the SPAD value S of each pixel of the second corrected image 8E. The time determination unit determines whether or not the characteristics of these estimated SPAD values S meet predetermined standards corresponding to the plant. Then, when it is determined that the predetermined standard has been reached, the notification unit notifies the second client 22 that it is time to harvest. For example, notification is made when the average value of these SPAD values S exceeds a predetermined value. Alternatively, notification is made when the ratio of the number of pixels with a SPAD value S larger than a predetermined value to the number of all pixels exceeds a predetermined value.

学習推定サーバ1は、収穫の時期を通知する仕組みと同様の仕組みで、施肥の時期および播種の時期などを時期判別部によって判別し、通知部によって通知してもよい。または、時期判別部は、圃場800全体のSPAD値Sを示す値(例えば、平均値)を記録し続け、収穫の時期、施肥の時期、または播種の時期を予測してもよい。そして、通知部は、予測した時期を第二のクライアント22へ通知してもよい。 The learning estimation server 1 may determine the timing of fertilization, the timing of seeding, and the like by the timing determination unit and notify the timing by the notification unit in the same manner as the mechanism for notifying the timing of harvesting. Alternatively, the timing determining unit may continue to record the value (for example, average value) indicating the SPAD value S of the entire field 800 to predict the harvesting time, the fertilization time, or the seeding time. The notification unit may then notify the second client 22 of the predicted timing.

または、時期判別部は、第二のクライアント22以外へ通知してもよい。例えば、圃場800の責任者の端末装置へ通知してもよい。通知先は、作業に応じて設定しておいてもよい。つまり、収穫、施肥、および播種ごとに通知先を設定しておき、作業に応じた通知先へ通知してもよい。 Alternatively, the time determination unit may notify other than the second client 22 . For example, the terminal device of the person in charge of the field 800 may be notified. The notification destination may be set according to the work. In other words, notification destinations may be set for each of harvest, fertilization, and sowing, and notifications may be sent to notification destinations according to the work.

本実施形態では、学習推定サーバ1は、圃場画像8Aの色温度を調整してからノイズ画素を除去することによって第二の補正画像8Eを生成したが、先にノイズ画素を除去してから色温度を調整することによって生成してもよい。 In the present embodiment, the learning estimation server 1 generates the second corrected image 8E by removing noise pixels after adjusting the color temperature of the field image 8A. It may be produced by adjusting the temperature.

本実施形態では、学習推定サーバ1は、推定(推論)用のモデルとして、線形回帰分析によって線形モデル関数を生成したが、ディープラーニングによって学習済モデルを生成してもよい。そして、学習済モデルによってSPAD値Sを推定してもよい。 In this embodiment, the learning estimation server 1 generates a linear model function by linear regression analysis as a model for estimation (inference), but it may generate a trained model by deep learning. Then, the SPAD value S may be estimated by a trained model.

本実施形態では、学習推定サーバ1は、圃場で栽培されている多数の個体のSPAD値Sを推定したが、1つまたは数個の個体のSPAD値Sを推定してもよい。この場合は、ユーザは、ドローン31で圃場画像8Aを取得する代わりに、自らデジタルカメラを手に取って1つまたは数個の個体を近傍から撮影することによって個体の画像を取得すればよい。そして、学習推定サーバ1は、この画像の色温度を調整しノイズ画素を除去した後、SPAD値Sを推定すればよい。 In this embodiment, the learning estimation server 1 estimates the SPAD values S of many individuals cultivated in the field, but may estimate the SPAD values S of one or several individuals. In this case, instead of acquiring the field image 8A with the drone 31, the user may pick up the digital camera and take an image of one or several individuals from the vicinity to acquire an image of the individual. Then, the learning estimation server 1 may estimate the SPAD value S after adjusting the color temperature of this image and removing noise pixels.

その他、葉緑素量推定システム5、学習推定サーバ1、第一のクライアント21、第二のクライアント22の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。 In addition, the chlorophyll amount estimation system 5, the learning estimation server 1, the first client 21, the second client 22, the whole or the configuration of each part, the content of the processing, the order of the processing, the configuration of the data, etc. are within the scope of the present invention. can be changed accordingly.

1 学習推定サーバ(葉緑素量学習推定システム)
15 機械学習部(葉緑素量推定用モデル生成システム)
151 計測値受付部(取得手段)
152 色空間変換部(取得手段)
153 特徴量算出部(モデル算出手段)
154 回帰分析部(モデル算出手段)
16 モデルデータ記憶部(記憶手段)
17 推定部(葉緑素量推定システム)
171 画像データ受付部(取得手段)
172 明度調整部(補正画像生成手段)
173 ノイズ除去部(補正画像生成手段)
174 SPAD値算出部(推定手段)
6D 学習データ(葉緑素量、色情報)
6E モデルデータ(モデル)
8A 圃場画像
8E 第二の補正画像(画像、入力画像)
1 Learning estimation server (chlorophyll amount learning estimation system)
15 Machine learning part (model generation system for chlorophyll amount estimation)
151 measurement value reception unit (acquisition means)
152 color space converter (acquisition means)
153 feature quantity calculation unit (model calculation means)
154 Regression Analysis Department (Model Calculation Means)
16 model data storage unit (storage means)
17 Estimation unit (chlorophyll content estimation system)
171 image data reception unit (acquisition means)
172 Brightness adjustment unit (correction image generation means)
173 noise removal unit (corrected image generation means)
174 SPAD value calculation unit (estimation means)
6D learning data (chlorophyll content, color information)
6E model data (model)
8A Field image 8E Second corrected image (image, input image)

Claims (15)

特定の種類の植物でありかつサンプルとして用いられる第一の個体の複数の位置それぞれの葉緑素量および色情報に基づいて当該植物の葉緑素量と色情報との関係を表わすモデルを算出するモデル算出手段と、
前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、
を有することを特徴とする葉緑素量学習推定システム。
Model calculation means for calculating a model representing the relationship between the chlorophyll content and the color information of the plant based on the chlorophyll content and the color information at each of the plurality of positions of the first individual which is a specific type of plant and is used as a sample. When,
an estimating means for estimating the chlorophyll content of the portion reflected in each pixel of the image based on the image and the model of the second individual that is the plant and is the target of estimation;
A chlorophyll amount learning estimation system characterized by having
特定の種類の植物の個体の複数の位置それぞれの葉緑素量および色情報を取得する取得手段と、
前記取得手段によって取得された、前記複数の位置それぞれの葉緑素量および色情報に基づいて、前記植物の葉緑素量と色情報との関係を表わすモデルを算出するモデル算出手段と、
を有することを特徴とする葉緑素量推定用モデル生成システム。
Acquisition means for acquiring chlorophyll content and color information for each of a plurality of positions of an individual plant of a specific type;
model calculation means for calculating a model representing the relationship between the chlorophyll amount and color information of the plant based on the chlorophyll amount and color information at each of the plurality of positions acquired by the acquisition means;
A model generation system for estimating the amount of chlorophyll, characterized by comprising:
前記色情報は、緑の明度と青の明度との差を含む情報である、
請求項2に記載の葉緑素量推定用モデル生成システム。
The color information is information including the difference between the lightness of green and the lightness of blue.
The model generation system for estimating the amount of chlorophyll according to claim 2.
前記植物は葉緑素を有する植物である、
請求項2または請求項3に記載の葉緑素量推定用モデル生成システム。
The plant is a plant having chlorophyll,
The model generation system for estimating the amount of chlorophyll according to claim 2 or 3.
前記植物は、キャベツ、玉ねぎ、またははだか麦であり、
前記色情報は、緑の明度と青の明度との和に対する前記差の割合を含む情報である、
請求項4に記載の葉緑素量推定用モデル生成システム。
the plant is cabbage, onion, or barley;
The color information is information containing the ratio of the difference to the sum of the lightness of green and the lightness of blue.
The model generation system for estimating the amount of chlorophyll according to claim 4.
前記植物は、トマトであり、
前記色情報は、Yxy表色系の表色値xおよびyを含む情報である、
請求項4に記載の葉緑素量推定用モデル生成システム。
the plant is a tomato,
The color information is information containing color values x and y in the Yxy color system.
The model generation system for estimating the amount of chlorophyll according to claim 4.
特定の種類の植物でありかつサンプルとして用いられる第一の個体の複数の位置それぞれの葉緑素量および色情報に基づいて算出された、当該植物の葉緑素量と色情報との関係を表わすモデルを記憶する、記憶手段と、
前記植物でありかつ推定の対象である第二の個体の画像である入力画像および前記モデルに基づいて、当該入力画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、
を有することを特徴とする葉緑素量推定システム。
Stores a model representing the relationship between the chlorophyll amount and the color information of the plant, which is calculated based on the chlorophyll amount and the color information at each of a plurality of positions of the first individual which is a specific type of plant and is used as a sample. a storage means;
estimating means for estimating the chlorophyll content of the portion reflected in each pixel of the input image based on the input image that is the image of the second individual that is the plant and is the target of estimation and the model;
A chlorophyll amount estimation system characterized by having
前記第二の個体が複数栽培されている圃場を上空から撮影した圃場画像を取得する取得手段と、
前記圃場画像から葉以外の物に対応する画素であるノイズ画素を除去することによって補正画像を生成する補正画像生成手段と、
を有し、
前記推定手段は、前記補正画像を前記入力画像として、当該入力画像の各画素に写っている部分の葉緑素量を推定する、
請求項7に記載の葉緑素量推定システム。
Acquisition means for acquiring a field image of a field in which a plurality of the second individuals are cultivated, taken from above;
a corrected image generating means for generating a corrected image by removing noise pixels, which are pixels corresponding to objects other than leaves, from the field image;
has
The estimating means uses the corrected image as the input image, and estimates the amount of chlorophyll in the portion reflected in each pixel of the input image.
The chlorophyll amount estimation system according to claim 7.
前記補正画像生成手段は、前記補正画像として、色温度を基準に合わせて調整した画像を生成する、
請求項8に記載の葉緑素量推定システム。
The corrected image generating means generates an image adjusted according to a color temperature as the corrected image,
The chlorophyll amount estimation system according to claim 8.
前記推定手段によって推定された葉緑素量に基づいて、前記植物に関する作業の時期が訪れたか否かを判別する判別手段と、
前記時期が訪れたと判別された場合に、前記時期が訪れたことを通知する通知手段と、
を有する、
請求項7ないし請求項9のいずれかに記載の葉緑素量推定システム。
a determining means for determining whether or not the time for work on the plant has come based on the amount of chlorophyll estimated by the estimating means;
notification means for notifying that the time has come when it is determined that the time has come;
having
The chlorophyll amount estimation system according to any one of claims 7 to 9.
前記推定手段によって推定された葉緑素量に基づいて、前記植物に関する作業の時期を予測する予測手段と、
予測した前記時期を通知する通知手段と、
を有する、
請求項7ないし請求項9のいずれかに記載の葉緑素量推定システム。
Prediction means for predicting the timing of work on the plant based on the amount of chlorophyll estimated by the estimation means;
notification means for notifying the predicted time;
having
The chlorophyll amount estimation system according to any one of claims 7 to 9.
前記作業は、前記植物の収穫、前記植物への施肥、または前記植物の播種である、
請求項10に記載の葉緑素量推定システム。
the operation is harvesting the plant, fertilizing the plant, or sowing the plant;
The chlorophyll amount estimation system according to claim 10.
特定の種類の植物でありかつサンプルとして用いられる第一の個体の複数の位置それぞれの葉緑素量および色情報に基づいて当該植物の葉緑素量と色情報との関係を表わすモデルをコンピュータが算出し、
前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量をコンピュータが推定する、
ことを特徴とする葉緑素量推定方法。
A computer calculates a model representing the relationship between the chlorophyll content and the color information of the plant based on the chlorophyll content and color information at each of a plurality of positions of the first individual which is a specific type of plant and is used as a sample,
Based on the image of the second individual that is the plant and is the target of estimation and the model, a computer estimates the amount of chlorophyll in the portion reflected in each pixel of the image.
A method for estimating the amount of chlorophyll, characterized by:
特定の種類の植物の個体の複数の位置それぞれの葉緑素量および色情報を取得する取得処理をコンピュータに実行させ、
前記取得処理によって取得された、前記複数の位置それぞれの葉緑素量および色情報に基づいて、前記植物の葉緑素量と色情報との関係を表わすモデルを算出する算出処理を前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。
causing a computer to perform acquisition processing for acquiring chlorophyll content and color information at each of a plurality of positions of an individual of a specific type of plant;
causing the computer to perform a calculation process for calculating a model representing the relationship between the chlorophyll amount and color information of the plant based on the chlorophyll amount and color information at each of the plurality of positions acquired by the acquisition process;
A computer program characterized by:
特定の種類の植物でありかつ推定の対象である個体の画像である入力画像を取得する取得処理をコンピュータに実行させ、
前記植物でありかつサンプルとして用いられる個体の複数の位置それぞれの葉緑素量および色情報に基づいて算出された、当該植物の葉緑素量と色情報との関係を表わすモデルに基づいて、前記取得処理によって取得された前記入力画像の各画素に写っている部分の葉緑素量を推定する、推定処理を、前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。
causing a computer to perform acquisition processing for acquiring an input image, which is an image of an individual that is a specific type of plant and is an object to be estimated;
Based on the model representing the relationship between the chlorophyll amount and color information of the plant, which is calculated based on the chlorophyll amount and color information at each of the plurality of positions of the individual that is the plant and is used as a sample, by the acquisition process causing the computer to perform an estimation process for estimating the amount of chlorophyll in the portion captured in each pixel of the acquired input image;
A computer program characterized by:
JP2022100397A 2021-06-28 2022-06-22 Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program Pending JP2023007457A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021106586 2021-06-28
JP2021106586 2021-06-28

Publications (1)

Publication Number Publication Date
JP2023007457A true JP2023007457A (en) 2023-01-18

Family

ID=85108033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022100397A Pending JP2023007457A (en) 2021-06-28 2022-06-22 Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program

Country Status (1)

Country Link
JP (1) JP2023007457A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118135572A (en) * 2023-11-24 2024-06-04 Lef技术株式会社 Generating method, discriminating method, computer program, generating device, and discriminating device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118135572A (en) * 2023-11-24 2024-06-04 Lef技术株式会社 Generating method, discriminating method, computer program, generating device, and discriminating device

Similar Documents

Publication Publication Date Title
Assmann et al. Vegetation monitoring using multispectral sensors—best practices and lessons learned from high latitudes
Aggelopoulou et al. Yield prediction in apple orchards based on image processing
Heiskanen et al. Use of airborne lidar for estimating canopy gap fraction and leaf area index of tropical montane forests
Fitzgerald Characterizing vegetation indices derived from active and passive sensors
Zaman et al. Estimation of wild blueberry fruit yield using digital color photography
CN111462223B (en) Sentinel-2 image-based planting area identification method for soybeans and corns in Jianghuai region
Nguy-Robertson et al. Algorithms for estimating green leaf area index in C3 and C4 crops for MODIS, Landsat TM/ETM+, MERIS, Sentinel MSI/OLCI, and Venµs sensors
Varela et al. Spatio-temporal evaluation of plant height in corn via unmanned aerial systems
Solvin et al. Use of UAV photogrammetric data in forest genetic trials: measuring tree height, growth, and phenology in Norway spruce (Picea abies L. Karst.)
White et al. Determining a robust indirect measurement of leaf area index in California vineyards for validating remote sensing-based retrievals
Rasmussen et al. The challenge of reproducing remote sensing data from satellites and unmanned aerial vehicles (UAVs) in the context of management zones and precision agriculture
Mehdaoui et al. Exploitation of the red-edge bands of Sentinel 2 to improve the estimation of durum wheat yield in Grombalia region (Northeastern Tunisia)
Kefauver et al. RGB picture vegetation indexes for high-throughput phenotyping platforms (HTPPs)
Dhakar et al. Field scale wheat LAI retrieval from multispectral Sentinel 2A-MSI and LandSat 8-OLI imagery: effect of atmospheric correction, image resolutions and inversion techniques
Tarbell et al. A computer vision system for characterizing corn growth and development
Ovakoglou et al. Downscaling of MODIS leaf area index using landsat vegetation index
Carrasco-Benavides et al. Assessment of an automated digital method to estimate leaf area index (LAI) in cherry trees
JP2023007457A (en) Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program
Meivel et al. Monitoring of potato crops based on multispectral image feature extraction with vegetation indices
Tsele et al. Validation of LAI, chlorophyll and FVC biophysical estimates from sentinel-2 level 2 prototype processor over a heterogeneous savanna and grassland environment in South Africa
Arenas-Castro et al. Mapping wild pear trees (Pyrus bourgaeana) in Mediterranean forest using high-resolution QuickBird satellite imagery
Silva et al. Mapping two competing grassland species from a low-altitude Helium balloon
JP2021171057A (en) Crop related value derivation device and crop related value derivation method
Peerbhay et al. Can remote sensing detect, monitor and track baboon-damaged Pinus plantations located in South Africa?
Jia et al. Fractional vegetation cover estimation based on soil and vegetation lines in a corn-dominated area

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220715