JP2023007457A - Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program - Google Patents
Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program Download PDFInfo
- Publication number
- JP2023007457A JP2023007457A JP2022100397A JP2022100397A JP2023007457A JP 2023007457 A JP2023007457 A JP 2023007457A JP 2022100397 A JP2022100397 A JP 2022100397A JP 2022100397 A JP2022100397 A JP 2022100397A JP 2023007457 A JP2023007457 A JP 2023007457A
- Authority
- JP
- Japan
- Prior art keywords
- chlorophyll
- plant
- amount
- image
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 229930002875 chlorophyll Natural products 0.000 title claims abstract description 99
- 235000019804 chlorophyll Nutrition 0.000 title claims abstract description 99
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 title claims description 19
- 238000004590 computer program Methods 0.000 title claims 3
- 241000196324 Embryophyta Species 0.000 claims description 83
- 240000007124 Brassica oleracea Species 0.000 claims description 29
- 235000011301 Brassica oleracea var capitata Nutrition 0.000 claims description 29
- 235000003899 Brassica oleracea var acephala Nutrition 0.000 claims description 28
- 235000001169 Brassica oleracea var oleracea Nutrition 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 240000003768 Solanum lycopersicum Species 0.000 claims description 9
- 240000005979 Hordeum vulgare Species 0.000 claims description 8
- 235000007340 Hordeum vulgare Nutrition 0.000 claims description 8
- 235000007688 Lycopersicon esculentum Nutrition 0.000 claims description 8
- 238000003306 harvesting Methods 0.000 claims description 7
- 235000002732 Allium cepa var. cepa Nutrition 0.000 claims description 5
- 238000012821 model calculation Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 4
- 238000009331 sowing Methods 0.000 claims description 2
- 244000291564 Allium cepa Species 0.000 claims 1
- 230000006870 function Effects 0.000 description 32
- 238000010801 machine learning Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 239000002689 soil Substances 0.000 description 16
- 238000000611 regression analysis Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 10
- 238000012795 verification Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 241000234282 Allium Species 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004720 fertilization Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000010899 nucleation Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 244000000383 Allium odorum Species 0.000 description 1
- 235000018645 Allium odorum Nutrition 0.000 description 1
- 235000005338 Allium tuberosum Nutrition 0.000 description 1
- 244000178937 Brassica oleracea var. capitata Species 0.000 description 1
- 240000008415 Lactuca sativa Species 0.000 description 1
- 235000003228 Lactuca sativa Nutrition 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 235000004789 Rosa xanthina Nutrition 0.000 description 1
- 241000109329 Rosa xanthina Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 244000098338 Triticum aestivum Species 0.000 description 1
- 241000722921 Tulipa gesneriana Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000020971 citrus fruits Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000000243 photosynthetic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
特許法第30条第2項適用申請有り 電気通信回線を通じての発表 発行者名 :MDPI 刊行物名 :Remote Sensing 巻数 :第13巻(Volume 13) 号数 :第4号(Issue 4) 公開年月日 :2021年2月13日 論文タイトル :A Robust Vegetation Index Based on Different UAV RGB Images to Estimate SPAD Values of Naked Barley Leaves URL :https://www.mdpi.com/2072-4292/13/4/686 https://www.mdpi.com/2072-4292/13/4/686/pdf [刊行物等] 刊行物での発表 発行者名 :生態工学会 刊行物名 :Eco-Engineering 巻数 :第33巻 号数 :第2号 発行年月 :2021年4月 論文タイトル :Assessment of naked barley leaf SPAD values using RGB values under different growth stages at both the leaf and canopy levels URL :https://www.jstage.jst.go.jp/article/seitaikogaku/33/2/33_31/_article/-char/ja/ [刊行物等] 学会での発表 学会名 :農業情報学会2022年度年次大会 発表日 :2022年5月22日 [刊行物等] 学会での発表 学会名 :日本生物環境工学会 オンライン次世代研究発表会 発表日 :2021年11月2日Patent Act Article 30, Paragraph 2 application filed Announcement via telecommunication line Publisher name: MDPI Publication name: Remote Sensing Volume:
本発明は、植物の葉緑素量を推定する技術に関する。 The present invention relates to a technique for estimating the amount of chlorophyll in plants.
光合成を行う植物は、成長するにつれて葉に含む葉緑素の量が変化する。この性質を利用し、圃場で栽培している農作物または花卉などの植物の収穫の時期および圃場への施肥の時期などを判断する際に、葉緑素量が参照されることがある。 Photosynthetic plants change the amount of chlorophyll in their leaves as they grow. Taking advantage of this property, the amount of chlorophyll is sometimes referred to when determining when to harvest plants such as crops or flowers cultivated in fields and when to fertilize fields.
葉緑素量は、従来、葉緑素計によって測定される。例えば、非特許文献1に記載される葉緑素計によると、親指くらいの大きさのクリップ状のヘッドで葉を挟むと、挟まれた葉の一部分に光を照射し、葉緑素量を表わすSPAD(Soil & Plant Analyzer Development)値をその反射光に基づいて算出する。
Chlorophyll content is conventionally measured by a chlorophyllometer. For example, according to the chlorophyll meter described in
上述の通り、従来の葉緑素計によると、光が照射された部分の葉緑素量しか測定することができない。したがって、広大な面積の圃場で栽培されている植物の葉緑素量を測定するには、従来、多大な時間および人手が必要であった。 As described above, according to the conventional chlorophyll meter, only the amount of chlorophyll in the portion irradiated with light can be measured. Therefore, measuring the amount of chlorophyll in plants cultivated in vast fields has conventionally required a great deal of time and manpower.
本発明は、このような問題点に鑑み、葉緑素計を使用することなく測定者が対象の植物全体の葉緑素量を測定できるようにすることを、目的とする。 SUMMARY OF THE INVENTION In view of such problems, an object of the present invention is to enable a measurer to measure the chlorophyll content of the entire target plant without using a chlorophyll meter.
本発明の一形態に係る葉緑素量学習推定システムは、特定の種類の植物でありかつサンプルとして用いられる第一の個体の複数の位置それぞれの葉緑素量および色情報に基づいて当該植物の葉緑素量と色情報との関係を表わすモデルを算出するモデル算出手段と、前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、を有する。 A chlorophyll amount learning and estimating system according to one embodiment of the present invention is a specific type of plant and is based on the chlorophyll amount and color information of each of a plurality of positions of a first individual used as a sample. model calculation means for calculating a model representing a relationship with color information; and an image of the second individual which is a plant and is an object of estimation, and based on the model, the portion shown in each pixel of the image. an estimation means for estimating the chlorophyll amount.
本発明によると、測定者は葉緑素計を使用することなく対象の植物全体の葉緑素量を測定することができる。 According to the present invention, the measurer can measure the chlorophyll content of the whole target plant without using a chlorophyll meter.
図1は、葉緑素量推定システム5の全体的な構成の例を示す図である。図2は、学習推定サーバ1のハードウェア構成の例を示す図である。図3は、学習推定サーバ1の機能的構成の例を示す図である。
FIG. 1 is a diagram showing an example of the overall configuration of a chlorophyll
葉緑素量推定システム5は、圃場で栽培されている植物の葉緑素量を航空写真に基づいてAI(Artificial Intelligence)によって推定するシステムであって、図1に示すように、学習推定サーバ1、第一のクライアント21、第二のクライアント22、ドローン31、葉緑素計32、測色計33、および通信回線4などによって構成される。
The chlorophyll
学習推定サーバ1と第一のクライアント21および第二のクライアント22とは、通信回線4を介して互いに通信することができる。通信回線4として、インターネット、公衆回線、またはLAN(Local Area Network)などが用いられる。
The
ドローン31は、デジタルカメラおよび通信機能を備える小型のUAV(Unmanned Aerial Vehicle)であって、圃場を上空から撮影する。ドローン31として、市販のドローンが用いられる。
The
葉緑素計32は、植物の葉の葉緑素量を計測する。葉緑素計32として、市販の葉緑素計が用いられる。以下、コニカミノルタ社の葉緑素計「SPAD-502 Plus」が用いられる場合を例に説明する。この葉緑素計によると、葉緑素量を表わす値としてSPAD(Soil & Plant Analyzer Development)値が算出され、出力される。
The
測色計33は、植物の葉の色を計測する。測色計33として市販の色彩色差計が用いられる。以下、コニカミノルタ社の色彩色差計「CR-400」が用いられる場合を例に説明する。この色彩色差計によると、色を表わす値として、CIE(Commission Internationale de l'Eclairage)のXYZ表色系の値(以下、「第一の表色値(X,Y,Z)」と記載する。)が算出され、出力される。
A
第一のクライアント21は、機械学習を学習推定サーバ1に実行させるための端末装置である。第二のクライアント22は、圃場で栽培されている植物の葉緑素量の推定を学習推定サーバ1に実行させるための端末装置である。第一のクライアント21、第二のクライアント22として、通信機能を有するコンピュータ、例えば、市販のパーソナルコンピュータ、タブレットコンピュータ、またはスマートフォンなどが用いられる。
The
学習推定サーバ1は、第一のクライアント21からの指令に基づいて機械学習を行い、または、第二のクライアント22からの指令に基づいて葉緑素量の推定を行う。学習推定サーバ1として、いわゆるサーバ装置またはクラウドサーバが用いられる。以下、学習推定サーバ1としてサーバ装置が用いられる場合を例に説明する。
The
学習推定サーバ1は、図2に示すように、本体10、ディスプレイ11、キーボード12、およびポインティングデバイス13などによって構成される。本体10は、プロセッサ101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、補助記憶装置104、ネットワークコントローラ105、および入出力インタフェース106などによって構成される。
The
ROM103または補助記憶装置104には、学習推定プログラム14(図3参照)がインストールされている。学習推定プログラム14は、葉緑素量の推定用のデータを機械学習によって生成したり、圃場の植物の葉緑素量を推定したりするためのプログラムである。学習推定プログラム14は、RAM102にロードされ、プロセッサ101によって実行される。
A learning estimation program 14 (see FIG. 3) is installed in the
ネットワークコントローラ105は、NIC(Network Interface Card)などの通信装置であって、第一のクライアント21および第二のクライアント22などと通信するために用いられる 。
The
入出力インタフェース106は、USB(Universal Serial Bus)などの規格に対応した入出力ボードであって、ディスプレイ11、キーボード12、およびポインティングデバイス13が接続される。
The input/
ディスプレイ11は、コマンドまたは情報を入力するための画面およびプロセッサ101による処理の実行結果を示す画面などを表示する。キーボード12およびポインティングデバイス13は、コマンドまたは情報を入力するために用いられる。
The
学習推定プログラム14をプロセッサ101で実行することにより、図3に示す機械学習部15、モデルデータ記憶部16、および推定部17の各機能が実現される。以下、各機能について、キャベツの葉緑素量を推定する場合を例に、第一のクライアント21、第二のクライアント22、ドローン31、葉緑素計32、および測色計33の使い方とともに説明する。
By executing the learning estimation program 14 by the
〔機械学習〕
図4は、計測値データ6Aの例を示す図である。図5は、中間データ6Cの例を示す図である。図6は、学習データ6Dの例を示す図である。図7は、線形モデル関数f2(P)の例を示す図である。
[Machine learning]
FIG. 4 is a diagram showing an example of the measured
作業者は、キャベツの幾つかの個体を用意する。これらの個体は、土壌の条件の異なる複数の圃場で栽培されたものが望ましい。例えば、土壌の条件の異なる6つの圃場から5個ずつ、キャベツの個体を用意する。 A worker prepares several individuals of cabbage. These individuals are desirably cultivated in a plurality of fields with different soil conditions. For example, five cabbage plants are prepared from each of six fields with different soil conditions.
そして、作業者は、これらの個体それぞれの葉の複数の位置のSPAD値Sおよび第一の表色値(X,Y,Z)を葉緑素計32および測色計33によって計測する。SPAD値Sは、葉緑素計32から第一のクライアント21へ送信され、第一の表色値(X,Y,Z)は、測色計33から第一のクライアント21へ送信される。
Then, the operator measures the SPAD values S and the first colorimetric values (X, Y, Z) at a plurality of positions on the leaves of each of these individuals using the
これにより、第一のクライアント21には、図4に示すような、各個体(キャベツ)の複数の位置ごとのSPAD値Sおよび第一の表色値(X,Y,Z)が入力される。なお、個体識別子は、個体を識別するためのコードであり、位置識別子は、SPAD値Sおよび第一の表色値(X,Y,Z)が計測された位置を識別するためのコードである。いずれの識別子も、便宜的に付されたものであり、機械学習の際には使用されない。
As a result, SPAD values S and first colorimetric values (X, Y, Z) for a plurality of positions of each individual (cabbage) are input to the
以下、同一の個体の同一の位置から葉緑素計32および測色計33によって計測されたSPAD値Sおよび第一の表色値(X,Y,Z)を示すデータを「計測値データ6A」と記載する。N1個の個体それぞれからN2個所ずつSPAD値Sおよび第一の表色値(X,Y,Z)が計測された場合は、第一のクライアント21は、(N1×N2)個の計測値データ6Aが得られる。サンプル数すなわち計測値データ6Aの個数は多い方が好ましいが、様々な濃さの位置から均等的に計測することによって計測値データ6Aを収集するのが望ましい。
Hereinafter, the data indicating the SPAD value S and the first colorimetric values (X, Y, Z) measured by the
さらに、作業者は、SPAD値Sおよび第一の表色値(X,Y,Z)を計測した植物の識別情報(例えば、植物名)を入力する。本例では、「キャベツ」を入力する。 Furthermore, the operator inputs the SPAD value S and identification information (for example, plant name) of the plant whose first colorimetric values (X, Y, Z) are measured. In this example, "cabbage" is entered.
そして、第一のクライアント21は、ウェブブラウザによって機械学習用のウェブページへアクセスし、これらの計測値データ6Aを、機械学習の指令および入力された識別情報(植物名)を示す学習指令データ6Bとともに学習推定サーバ1へ送信する。
Then, the
学習推定サーバ1において、機械学習部15は、図3に示すように、計測値受付部151、色空間変換部152、特徴量算出部153、および回帰分析部154などによって構成される。
In the learning
計測値受付部151は、計測値データ6Aおよび学習指令データ6Bを機械学習用のウェブページを介して第一のクライアント21から受け付ける。
The measured
すると、色空間変換部152は、それぞれの計測値データ6Aに示される第一の表色値(X,Y,Z)を、公知の変換式に従ってRGB表色系の値(以下、「第二の表色値(R,G,B)」と記載する。)に変換することによって、図5のような中間データ6Cを生成する。公知の変換式として、例えば次の(1)~(7)式のような式が用いられる。
Then, the color space conversion unit 152 converts the first colorimetric values (X, Y, Z) indicated in each
R=255×f1(α(R)) … (5)
G=255×f1(α(G)) … (6)
B=255×f1(α(B)) … (7)
R=255×f 1 (α(R)) (5)
G=255×f 1 (α(G)) (6)
B=255×f 1 (α(B)) (7)
特徴量算出部153は、それぞれの中間データ6Cに示される第二の表色値(R,G,B)すなわち赤、緑、および青それぞれの明度を特徴量算出式に代入することによって特徴量Pを算出し、図6のような学習データ6Dを生成する。
キャベツの特徴量算出式として、例えば次の(8)式が用いられる。
P=(G-B)/(G+B) … (8)
The feature
For example, the following formula (8) is used as the cabbage feature amount calculation formula.
P=(GB)/(G+B) … (8)
例えば、1番目の学習データ6Dの特徴量P0101は、1番目の中間データ6Cに示される第二の表色値(R0101,B0101,G0101)を(8)式に代入し、
P0101=(G0101-B0101)/(G0101+B0101)
のように算出される。
For example, the feature amount P 0101 of the
P 0101 =(G 0101 -B 0101 )/(G 0101 +B 0101 )
is calculated as
なお、ここでは、植物がキャベツである場合を例に説明しているが、植物は、キャベツおよびはだか麦などの農作物の種類に限らず、薔薇およびチューリップなどの観賞用の植物であってもよい。また、1つの特徴量算出式を複数の種類の植物において共通に使用することができる。例えば、(8)式をキャベツだけでなく玉ねぎ、レタス、ネギ、ニラ、および柑橘などの特徴量算出式として使用することができる。 Here, the case where the plant is cabbage is described as an example, but the plant is not limited to crops such as cabbage and barley, and may be ornamental plants such as roses and tulips. In addition, one feature quantity calculation formula can be commonly used for a plurality of types of plants. For example, formula (8) can be used as a feature quantity calculation formula not only for cabbage but also for onions, lettuce, green onions, Chinese chives, and citrus fruits.
ただし、玉ねぎおよびネギは、管状葉(筒状の葉)であるため光を透過しにくい。そこで、学習データの収集において葉緑素計32で葉緑素量を計測する際に、これらの葉を割いて薄くしなければならない。しかし、後述する推論のフェーズにおいては、葉緑素計32による計測を行うことなく、デジタルカメラで撮影された画像に基づいて特徴量Pを算出しSPAD値Sを推定することができるので、これらの葉を割く必要がない。そのほか、管状葉以外の葉であっても、分厚いことなどが原因で光を透過しにくい場合は、薄く割いて葉緑素量を計測すればよい。しかし、この場合も、後述する推論のフェーズにおいては、これらの葉を割くことなくSPAD値Sを推定することができる。
However, since onions and green onions have tubular leaves (tubular leaves), it is difficult for light to pass therethrough. Therefore, when measuring the amount of chlorophyll with the
回帰分析部154は、それぞれの学習データ6Dに示されるSPAD値Sおよび特徴量Pに基づいて回帰分析を行うことによって、SPAD値Sと特徴量Pとの相関関係を表わす線形モデル関数を生成する。この際に、SPAD値Sが目的変数(被説明変数)として用いられ、特徴量Pが説明変数として用いられる。
The
回帰分析の方法として、例えば最小二乗法などの公知の方法が用いられる。この場合に、SPAD値Sと特徴量Pとの相関関係が一次関数で表わされると考え、回帰分析部154は、最小二乗法を用いて一次関数の傾きおよび切片を算出することによって、図7に示すような線形モデル関数f2(P)を生成する。
As a regression analysis method, a known method such as the least squares method is used. In this case, assuming that the correlation between the SPAD value S and the feature amount P is represented by a linear function, the
そして、回帰分析部154は、生成した線形モデル関数を示すモデルデータ6Eを、学習指令データ6Bに示される識別情報(本例では、「キャベツ」という植物名)と対応付けてモデルデータ記憶部16に記憶させる。
Then, the
このような作業者の作業および各装置の処理によって、キャベツのモデルデータ6Eが生成されモデルデータ記憶部16に記憶される。
なお、学習推定サーバ1は、生成された線形モデル関数が有意であるか否かをRMSE(Root Mean Square Error)またはNRMSE(Normalized Mean Squared Logarithmic Error)によって確認してもよい。この場合は、RMSEまたはNRMSEが所定の値以下であれば有意であると判別し、そうでなければ有意でないと判別すればよい。
The learning
例えば、回帰分析部154は、学習データ6Dの一部分(例えば、2割分)を検証用に選出する。以下、選出した学習データ6Dを「検証データ」と記載する。検証データは、モデルデータ6Eの生成のためには用いられない。
For example, the
回帰分析部154は、ある1つの検証データに示されるRGB値(R,G,B)を特徴量算出式によって特徴量Pに変換する。それぞれの特徴量Pを、モデルデータ6Eに示される線形モデル関数に代入することによってSPAD値Sを算出する。算出したSPAD値Sおよびその検証データに示されるSPAD値SのRMSEまたはNRMSEを、両SPAD値Sの誤差として算出する。誤差が所定の値未満であれば「合格」と判別し、所定の値以上であれば「不合格」と判別する。残りの検証データについても同様に誤差を算出し、合否を判別する。検証データの個数に対する合格の個数が所定の割合(例えば、95%)以上であれば、その線形モデルが有意であると判別し、所定の割合未満であれば有意でないと判別する。
The
そして、有意であれば、その線形モデル関数を示すデータを学習データ6Dとしてモデルデータ記憶部16に記憶させる。有意でなければ、その線形モデル関数を破棄し、サンプルのデータつまり計測値データ6Aを増やすなどして線形モデル関数を生成し直せばよい。
Then, if significant, data representing the linear model function is stored in the model
キャベツ以外の種類の植物のモデルデータ6Eも同様の作業および処理によって生成され、その植物の識別情報と対応付けられてモデルデータ記憶部16に記憶される。
The
ただし、植物ごとに特徴量算出式が使い分けられる。例えば、はだか麦の特徴量算出式として、次の(9)式が用いられる。
P=G-B … (9)
〔推定〕
図8は、ドローン31による圃場800の撮影の様子の例を示す図である。図9は、圃場画像8Aの例を示す図である。図10は、部分画像8Cの例を示す図である。図11は、複数の部分画像8Cの位置関係の例を示す図である。図12は、SPAD値分布マップ8Fの例を示す図である。
However, the feature amount calculation formula is used properly for each plant. For example, the following formula (9) is used as the feature value calculation formula for naked barley.
P=GB … (9)
〔Estimated〕
FIG. 8 is a diagram showing an example of how a
ユーザは、圃場で栽培されている植物の葉緑素量を、葉緑素量推定システム5に推定させることができる。以下、図8に示す圃場800で栽培されているキャベツの多数の個体の全体的なの葉緑素量を推定させる場合を例に、ユーザの作業および各装置の各部の処理について説明する。
The user can cause the chlorophyll
ユーザは、色基準カード801を圃場800の所定の位置にほぼ水平に置く。色基準カード801は、一般に「ホワイトカード」または「グレーカード」と呼ばれる、画像のホワイトバランスのための純粋な白色または18パーセントグレーなどの用紙またはボードである。
The user places the
ユーザは、ドローン31を圃場800の上空に飛ばし、高さh1からドローン31に圃場800を撮影させる。高さh1は、50~120メートル程度である。以下、図9のような、圃場800の全体の画像である圃場画像8Aが、1回の撮影で得られた場合を例に説明する。圃場画像8Aには、色基準カード801の画像が色基準画像8Bとして含まれている。特許図面の制約のため、図9は圃場画像8Aとしてモノクロの画像であるが、実際はカラーの画像である。図10も同様である。
The user flies the
さらに、ユーザは、高さh1よりも低い高さh2からドローン31に圃場800を一部分ずつ撮影させる。h2は、6メートル程度である。これにより、図10のような、圃場800の一部分の画像である部分画像8Cが得られる。部分画像8Cは、圃場画像8Aよりも低空で撮影されるので、圃場画像8Aよりも鮮明に圃場800の様子が写っている。
Further, the user causes the
以下、部分画像8Cとして、i×j枚の部分画像が得られた場合を例に説明する。各部分画像8Cを図11のように「部分画像8C11」、「部分画像8C12」、…、「部分画像8Cij」と区別して記載する。圃場800の各位置は、これらの部分画像8Cのいずれかに写っている。なお、隣り合う部分画像8Cには、圃場800の同じ部分が多少、重複して写っていても構わない。
A case where i×j partial images are obtained as the
ドローン31は、圃場画像8Aの画像データおよび部分画像8Cそれぞれの画像データを第二のクライアント22へ送信する。
The
これにより、第二のクライアント22は、圃場800全体の画像データおよび圃場800の各部分の画像データが得られる。さらに、ユーザは、圃場800で栽培されている植物の識別情報として、その植物の植物名を第二のクライアント22へ入力する。本例では、「キャベツ」という植物名を入力する。なお、第二のクライアント22は、学習推定サーバ1のモデルデータ記憶部16に記憶されている学習データ6Dそれぞれに対応する植物の種類の識別情報(植物名)をリストで表示し、ユーザは、リストの中から識別情報を選択してもよい。
Thereby, the
すると、第二のクライアント22は、推定サービス用のウェブページへアクセスし、圃場画像8Aの画像データ、部分画像8Cそれぞれの画像データとともに、推定の指令および入力された識別情報(植物名)を示す推定指令データ6Fを学習推定サーバ1へ送信する。
Then, the
学習推定サーバ1において、推定部17は、図3に示すように、画像データ受付部171、明度調整部172、ノイズ除去部173、SPAD値算出部174、分布マップ生成部175、および推定結果送信部176などによって構成される。
In the learning
画像データ受付部171は、圃場画像8Aの画像データ、部分画像8Cそれぞれの画像データ、および推定指令データ6Fを推定サービス用のウェブページを介して第二のクライアント22から受け付ける。
The image
すると、明度調整部172は、圃場画像8Aのホワイトバランスの処理を次のように行う。
Then, the brightness adjustment unit 172 performs white balance processing of the
圃場画像8Aの画像データがJPEG(Joint Photographic Experts Group)などの非RAWデータである場合は、色温度のデータが含まれていないので、圃場画像8Aに含まれる色基準画像8Bを使用する。具体的には、明度調整部172は、色基準画像8Bの色が本来の色(色基準カード801の色)になるように圃場画像8A全体を補正する。
If the image data of the
一方、圃場画像8Aの画像データがRAWデータである場合は、明度調整部172は、所定の色温度になるように圃場画像8Aを補正する。なお、この場合も、非RAWデータである場合と同様に、色基準画像8Bの色が本来の色になるように圃場画像8Aを補正してもよい。
On the other hand, when the image data of the
以下、明度調整部172によって補正された圃場画像8Aを「第一の補正画像8D」と記載する。
Hereinafter, the
ところで、圃場800には、通路が設けられている。また、隣り合うキャベツ同士の間などから土壌または雑草が見えることがある。したがって、圃場画像8Aには、通路、土壌、および雑草それぞれの画像が含まれることがある。さらに、キャベツに虫食いがあることがある。通路、土壌、および雑草は、キャベツの部分ではないので、SPAD値の推定の対象から除外すべきである。また、虫食いの部分は、葉緑素がないので除外すべきである。さらに、影になっている部分も除外すべきである。
By the way, the
そこで、ノイズ除去部173は、補正された圃場画像8Aすなわち第一の補正画像8Dから葉以外の部分の画素、すなわち通路、土壌、雑草、虫食い、または影を表わす画素を除去する処理を、例えば次のように行う。
Therefore, the
ノイズ除去部173は、第一の補正画像8Dの中から葉、通路、土壌、雑草、虫食い、および影それぞれを表わす画素を判別する。これらの画素は、例えば、次のように判別すればよい。予め、葉、通路、土壌、雑草、虫食い、および影それぞれを表わす画素を多数、収集し、これらを分類するための分類器(学習済モデル)を機械学習によって生成しておく。そして、この分類器を用いて第一の補正画像8Dの各画素が葉、通路、土壌、雑草、虫食い、および影のうちのいずれを表わすものであるかを判別する。この際に、MLC(Maximum Likelihood Classifier)などの公知のアルゴリズムが用いられる。MLCを適用したソフトウェアとして、Harris Geospatial Solutions 社のENVI5.5が知られている。このソフトウェアによって判別してもよい。なお、学習推定サーバ1以外のシステムで作成された分類器を用いて判別してもよい。
The
以下、通路、土壌、雑草、虫食い、および影のいずれかを表わす画素を「ノイズ画素」と記載する。そして、ノイズ除去部173は、判別したノイズ画素を第一の補正画像8Dから除去する。
Pixels representing any of paths, soil, weeds, wormholes, and shadows are hereinafter referred to as "noise pixels." Then, the
または、ノイズ除去部173は、ノイズ画素を次のように第一の補正画像8Dから除去する。圃場800の各部分の部分画像8Cの中からノイズ画像(本例では、通路、土壌、雑草、虫食い、および影のいずれかを表わす画素)を判別する。判別の方法は、上述の通りである。
Alternatively, the
さらに、ノイズ除去部173は、部分画像8Cの中から判別したノイズ画素と同じ位置を表わす画素を第一の補正画像8Dの中から特定する。この「位置」は、圃場800の中の位置である。つまり、判別したノイズ画素が圃場800の中の位置(Lx,Ly)を表わす画素である場合は、ノイズ除去部173は、第一の補正画像8Dの中から位置(Lx,Ly)を表わす画素を特定する。この画素もノイズ画素であると、言える。そして、ノイズ除去部173は、特定したノイズ画素を第一の補正画像8Dから除去する。
Furthermore, the
この方法によると、部分画像8Cを使用せずに第一の補正画像8Dの中からノイズ画素を直接判別し除去する方法よりも、より確実にノイズ画素を除去することができる。ただし、部分画像8Cの画素と第一の補正画像8Dの画素との対応関係の情報が必要である。この情報は、公知の方法によって取得すればよいが、例えば次のように取得することができる。
According to this method, noise pixels can be removed more reliably than the method of directly determining and removing noise pixels from the first corrected
ドローン31によって圃場画像8Aおよび部分画像8Cそれぞれを撮影する際に、GPS(Global Positioning System)などの位置情報を取得しておく。そして、ノイズ除去部173は、取得した位置情報に基づいて、部分画像8Cの各画素が第一の補正画像8Dのどの画素に対応するかを算出する。
When each of the
または、ノイズ除去部173は、部分画像8Cを、第一の補正画像8Dの縮尺(1画素当たりの実際の長さ)に合わせて縮小する。そして、縮小した部分画像8Cと第一の補正画像8Dとのマッチングを行うことによって、縮小した部分画像8Cの各画素が第一の補正画像8Dのどの画素に対応するのかを特定する。
Alternatively, the
以下、ノイズ画素が除去された第一の補正画像8Dを「第二の補正画像8E」と記載する。なお、推定の対象がはだか麦である場合は、穂の部分の画素をノイズ画素に加えてもよい。または、リンゴおよびミカンなどである場合は、果実ならびに木の幹および枝それぞれの部分の画素をノイズ画素に加えてもよい。
Hereinafter, the first corrected
SPAD値算出部174は、推定指令データ6Fに示される植物名のモデルデータ6Eに示される線形モデル関数に基づいて、第二の補正画像8Eの画素ごとにSPAD値Sを次のように算出する。
The
SPAD値算出部174は、第二の補正画像8Eの画素ごとに、画素値(RGB値)をその植物名の植物の特徴量算出式によって特徴量Pを算出する。そして、算出した特徴量Pをその植物の線形モデル関数に代入することによって、SPAD値Sを算出する。
The SPAD
本例では、その植物はキャベツなので、SPAD値算出部174は、(8)式によって各画素の特徴量Pを算出する。そして、キャベツのモデルデータ6Eに示される線形モデル関数(図7参照)に各画素の特徴量Pを代入することによって、各画素のSPAD値Sを算出する。例えば、第二の補正画像8Eに示される、ある画素のRGB値が(Ra,Ga,Ba)である場合は、その画素の特徴量Paとして、(Ga-Ba)/(Ga+Ba)を算出する。そして、その画素のSPAD値Saとして、f(Pa)を算出する。
In this example, the plant is cabbage, so the SPAD
分布マップ生成部175は、図12のような、SPAD値算出部174によって算出された第二の補正画像8Eの各画素のSPAD値Sの大きさをグレースケールで表わす分布マップ8Fを生成する。例えば、SPAD値Sの取り得る上限値(最大値)がSMAXであり、階調が256(0~255)であり、かつ画素数がUMAX×VMAXである分布マップを、SPAD値分布マップ8Fとして生成する場合は、SPAD値分布マップ8Fの座標(u,v)の画素の画素値は、(255/SMAX)×S(u,v)、になる。なお、小数点以下は、切り上げてもよいし、切り下げてもよいし、四捨五入してもよい。u=1,2,…,UMAXであり、v=1,2,…,VMAXである。
The
または、分布マップ生成部175は、カラースケールで各画素のSPAD値Sの大きさを表わすマップを分布マップ8Fとして生成してもよい。例えば最大値(つまり、255)を赤の明度100%で表わし、中間値(127)を緑の明度100%で表わし、最小値(0)を青の明度100%で表わしてもよい。
Alternatively, the
推定結果送信部176は、第二の補正画像8Eの各画素のSPAD値Sを示す推定結果データ6Gを、SPAD値分布マップ8Fの画像データとともに第二のクライアント22へ送信する。
The estimation
第二のクライアント22は、学習推定サーバ1から推定結果データ6Gおよび分布マップ8Fの画像データを受信すると、推定結果データ6Gに示される各画素のSPAD値を表示する。または、分布マップ8Fを表示する。
When the
図13は、学習推定プログラム14による処理の全体的な流れの例を説明するフローチャートである。図14は、学習処理の流れの例を説明するフローチャートである。図15は、推定処理の流れの例を説明するフローチャートである。 FIG. 13 is a flowchart for explaining an example of the overall flow of processing by the learning estimation program 14. As shown in FIG. FIG. 14 is a flowchart illustrating an example of the flow of learning processing. FIG. 15 is a flowchart illustrating an example of the flow of estimation processing.
次に、学習推定サーバ1の全体的な処理の流れを、フローチャートを参照しながら説明する。学習推定サーバ1は、学習推定プログラム14に従って、図13に示す手順で処理を行う。
Next, the overall processing flow of the learning
学習推定サーバ1は、学習指令データ6Bを計測値データ6Aとともに受信すると(図13の#701でYes)、図14に示す手順で機械学習を行う(#702)。
Upon receiving the learning
学習推定サーバ1は、それぞれの計測値データ6Aに示されるXYZ値(X,Y,Z)をRGB値(R,G,B)に変換し(図14の#711)、学習指令データ6Bに示される識別情報の植物の特徴量算出式にRGB値(R,G,B)を代入することによって特徴量Pを算出する(#712)。
The learning
そして、学習推定サーバ1は、回帰分析によって特徴量PとSPAD値Sとの関係を示す線形モデル関数を生成し(#713)、生成した線形モデル関数を示すデータを、その植物の識別情報と対応付けてモデルデータ6Eとして保存する(#714)。
Then, the learning
図13に戻って、学習推定サーバ1は、推定指令データ6Fを圃場画像8A(図9参照)の画像データおよび部分画像8C(図10参照)それぞれの画像データとともに受信すると(#703でYes)、図15に示す手順で推定(推論)の処理を行う(#704)。
Returning to FIG. 13, the learning
学習推定サーバ1は、圃場画像8Aの明度を基準に基づいて調整することによって第一の補正画像8Dを生成する(図15の#721)。第一の補正画像8Dからノイズ画素を除去することによって第二の補正画像8Eを生成する(#722)。第二の補正画像8Eの各画素の画素値(RGB値)を、推定指令データ6Fに示される識別情報に対応するモデルデータ6Eの線形モデル関数に代入することによって、各画素の特徴量Pを算出する(#723)。各画素のSPAD値Sの大きさをグレースケールで表わす画像すなわち分布マップ8F(図12参照)を生成する(#724)。
The learning
そして、学習推定サーバ1は、第二の補正画像8Eの各画素の特徴量Pを示す推定結果データ6Gを推定指令データ6Fの画像データとともに、推定指令データ6Fの送信元へ返信(送信)する(#725)。
Then, the learning
図13に戻って、学習推定サーバ1は、葉緑素量(SPAD値)の推定のサービスを提供している間(#705でYes)、学習指令データ6Bを受信するごとにステップ#702の処理を実行し、推定指令データ6Fを受信するごとにステップ#704の処理を実行する。
Returning to FIG. 13, while the learning
本実施形態によると、ユーザ(測定者)は、対象である植物全体の葉緑素量(SPAD値S)を、葉緑素計を使用することなく測定することができる。しかも、測定対象の写った画像の色温度を基準に合わせてSPAD値Sを推定するので、季節、時間帯、および天候などの条件を左右されにくく、安定的に推定することができる。 According to this embodiment, the user (measurer) can measure the chlorophyll amount (SPAD value S) of the entire target plant without using a chlorophyll meter. Moreover, since the SPAD value S is estimated based on the color temperature of the image of the object to be measured, it is less likely to be affected by conditions such as the season, time of day, and weather, and can be stably estimated.
本実施形態では、特徴量算出部153は、キャベツの特徴量Pとして(8)式の右辺の通り、(G-B)/(G+B)、を算出した。また、はだか麦の特徴量Pとして(9)式の右辺の通り、G-B、を算出した。このように、どちらの特徴量Pも、G-B、に基づいて算出される。
In the present embodiment, the feature
はだか麦の特徴量Pは、次の(10)式によって算出されてもよい。
P=2G-R-B … (10)
The feature amount P of bare barley may be calculated by the following equation (10).
P=2G-R-B (10)
(10)式の右辺は、(G-B)+(G-R)、と変形される。つまり、(10)式による場合も、特徴量Pは、G-B、に基づいて算出される。 The right side of equation (10) is transformed into (GB)+(GR). In other words, the feature amount P is calculated based on GB also when using formula (10).
図16は、線形モデル関数f3(P)の例を示す図である。植物の種類によっては、(8)~(10)式以外の式によって特徴量が算出され線形モデル関数が生成される。特徴量算出部153および回帰分析部154は、例えばトマトの葉の線形モデル関数f3(P)を次のように生成する。
FIG. 16 is a diagram showing an example of the linear model function f 3 (P). Depending on the type of plant, the feature quantity is calculated by formulas other than the formulas (8) to (10) to generate the linear model function. The
作業者は、複数のトマトの株それぞれの葉の複数の位置のSPAD値Sおよび第一の表色値(X,Y,Z)を葉緑素計32および測色計33によって計測する。
The operator measures the SPAD values S and the first colorimetric values (X, Y, Z) at a plurality of positions on the leaves of each of the plurality of tomato plants using the
特徴量算出部153は、位置ごとの特徴量Pを、計測された第一の表色値(X,Y,Z)に基づいて(11)式によって算出する。
P=xy … (11)
ただし、x=X/(X+Y+Z)、であり、y=Y/(X+Y+Z)、である。
つまり、Yxy表色系の表色値xおよびyに基づいて特徴量Pを算出する。これにより、図6に示した学習データ6Dに相当する、位置ごとの特徴量PとSPAD値Sとの組合せのデータが得られる。
The feature
P=xy (11)
However, x=X/(X+Y+Z), and y=Y/(X+Y+Z).
That is, the feature amount P is calculated based on the color values x and y of the Yxy color system. As a result, the combination data of the feature amount P and the SPAD value S for each position, which corresponds to the learning
回帰分析部154は、キャベツなどの場合と同様に、SPAD値Sおよび特徴量Pに基づいて回帰分析を行うことによって、SPAD値Sと特徴量Pとの相関関係を表わす線形モデル関数を生成する。すると、式(12)または図16に示すような線形モデル関数f3(P)が得られる。
f3(P)=aP+b … (12)
aは負の値であって、図16の例においては、-809.33、である。bは正の値であり、図16の例においては、150.84、である。aが負の値なので、xとyとの積すなわち特徴量Pが大きいほど、SPAD値Sが小さい。
f 3 (P)=aP+b (12)
a is a negative value, -809.33 in the example of FIG. b is a positive value, 150.84 in the example of FIG. Since a is a negative value, the SPAD value S decreases as the product of x and y, that is, the feature amount P increases.
そして、推定部17は、線形モデル関数f3(P)に基づいてトマトのSPAD値Sを推定する。
学習推定サーバ1は、L*a*b*表色系の値に基づいて特徴量P算出してもよい。例えば、L*を特徴量Pとして算出してもよい。または、a*を特徴量Pとして算出してもよい。
Then, the
The learning
本実施形態では、機械学習部15、モデルデータ記憶部16、および推定部17を学習推定サーバ1に集約した場合を例に説明したが、複数の装置またはシステムに分散してもよい。例えば、機械学習部15を機械学習用のコンピュータまたはシステムによって実現し、モデルデータ記憶部16および推定部17を推論用のコンピュータまたはシステムによって実現してもよい。
In this embodiment, the case where the
本実施形態では、推定部17は、圃場800の上空から植物を撮影した画像に基づいてSPAD値Sを推定したが、植物を横から撮影した画像に基づいて推定してもよい。例えば、トマトの中段部分の葉のSPAD値を推定する場合に、横から撮影した画像に基づくのが有効的である。植物工場またはハウスで栽培される植物の葉のSPAD値を推定する場合にも、有効的である。
In the present embodiment, the
本実施形態では、学習推定サーバ1は、「キャベツ」および「はだか麦」などの種類ごとに機械学習および推定を行ったが、より具体的な種類に応じて機械学習および推定を行ってもよい。例えば、「冬キャベツ」、「春キャベツ」、「グリーンボール」、および「赤キャベツ」などの品種ごとに機械学習および推定を行ってもよい。トマトの場合も同様に、「大玉トマト」、「中玉トマト」、および「ミニトマト」などの品種ごとに機械学習および推定を行ってもよい。
In the present embodiment, the learning and
または、種類と別の属性とを組み合わせて機械学習および推定を行ってもよい。例えば、キャベツの機械学習および推定を、栽培場所である圃場の土壌の性質ごとに行ってもよい。すなわち、学習推定サーバ1は、キャベツのモデルデータ6Eを、栽培場所である圃場の土壌の性質ごとに生成する。そして、推定の対象である圃場の土壌の性質に応じた学習データ6Dを用いて、その圃場で栽培されているキャベツのSPAD値Sを推定する。
Alternatively, the type and another attribute may be combined for machine learning and inference. For example, machine learning and estimation of cabbage may be performed for each property of the soil in the field where it is grown. That is, the learning
上述の通り、本実施形態によると、季節、時間帯、および天候などの条件を左右されにくく、安定的に推定することができるが、ある種類または品種の植物(例えば、柑橘)については、正確性をより向上させるために、条件ごとに1つずつの線形モデル関数を用意して使い分けてもよい。例えば、晴天時、曇天時、および雨天時など天候それぞれの線形モデル関数を用意して使い分けてもよい。または、日出頃の時間帯、正午頃の時間帯、日没頃の時間帯など時間帯それぞれの線形モデル関数を用意して使い分けてもよい。 As described above, according to the present embodiment, it is possible to stably estimate without being affected by conditions such as season, time of day, and weather. In order to further improve performance, one linear model function may be prepared for each condition and used properly. For example, linear model functions for weather conditions such as fine weather, cloudy weather, and rainy weather may be prepared and used separately. Alternatively, a linear model function may be prepared for each time period, such as the time period around sunrise, the time period around noon, and the time period around sunset, and used accordingly.
本実施形態では、学習推定サーバ1は、圃場800の各部分(画素)の推定したSPAD値Sを、SPAD値分布マップ8F(図12参照)のような二次元のマップで表わしたが、三次元のマップによって表わしてもよい。例えば、三次元棒グラフで表わしてもよい。すなわち、圃場800を縦×横の平面で表わしSPAD値Sをその大きさに応じた高さの棒で表わしてもよい。
In the present embodiment, the learning
学習推定サーバ1は、さらに、圃場800で栽培されている植物の収穫の時期を例えば次のように第二のクライアント22へ通知してもよい。
The learning
ユーザは、定期的に(例えば、毎日または数日ごとに)上述の通り圃場800の全体および各部分をドローン31に撮影させ、第二のクライアント22から学習推定サーバ1へ圃場画像8Aの画像データ、各部分の部分画像8Cの画像データ、および推定指令データ6Fを送信させる。学習推定サーバ1には、図3に示す機能に加えて、時期判別部および通知部を有する。
The user regularly (for example, every day or every few days) causes the
学習推定サーバ1の推定部17は、これらのデータを受信すると、上述の通り第二の補正画像8Eを生成し、第二の補正画像8Eの各画素のSPAD値Sを推定する。時期判別部は、推定されたこれらのSPAD値Sの特徴がその植物に対応する所定の基準に達しているか否かを判別する。そして、所定の基準に達していると判別された場合は、通知部は、収穫の時期になったことを第二のクライアント22へ通知する。例えば、これらのSPAD値Sの平均値が所定の値を超えた場合に通知する。または、全画素の個数に対する所定の値よりも大きいSPAD値Sの画素の個数の割合が所定の値を超えた場合に通知する。
Upon receiving these data, the
学習推定サーバ1は、収穫の時期を通知する仕組みと同様の仕組みで、施肥の時期および播種の時期などを時期判別部によって判別し、通知部によって通知してもよい。または、時期判別部は、圃場800全体のSPAD値Sを示す値(例えば、平均値)を記録し続け、収穫の時期、施肥の時期、または播種の時期を予測してもよい。そして、通知部は、予測した時期を第二のクライアント22へ通知してもよい。
The learning
または、時期判別部は、第二のクライアント22以外へ通知してもよい。例えば、圃場800の責任者の端末装置へ通知してもよい。通知先は、作業に応じて設定しておいてもよい。つまり、収穫、施肥、および播種ごとに通知先を設定しておき、作業に応じた通知先へ通知してもよい。
Alternatively, the time determination unit may notify other than the
本実施形態では、学習推定サーバ1は、圃場画像8Aの色温度を調整してからノイズ画素を除去することによって第二の補正画像8Eを生成したが、先にノイズ画素を除去してから色温度を調整することによって生成してもよい。
In the present embodiment, the learning
本実施形態では、学習推定サーバ1は、推定(推論)用のモデルとして、線形回帰分析によって線形モデル関数を生成したが、ディープラーニングによって学習済モデルを生成してもよい。そして、学習済モデルによってSPAD値Sを推定してもよい。
In this embodiment, the learning
本実施形態では、学習推定サーバ1は、圃場で栽培されている多数の個体のSPAD値Sを推定したが、1つまたは数個の個体のSPAD値Sを推定してもよい。この場合は、ユーザは、ドローン31で圃場画像8Aを取得する代わりに、自らデジタルカメラを手に取って1つまたは数個の個体を近傍から撮影することによって個体の画像を取得すればよい。そして、学習推定サーバ1は、この画像の色温度を調整しノイズ画素を除去した後、SPAD値Sを推定すればよい。
In this embodiment, the learning
その他、葉緑素量推定システム5、学習推定サーバ1、第一のクライアント21、第二のクライアント22の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
In addition, the chlorophyll
1 学習推定サーバ(葉緑素量学習推定システム)
15 機械学習部(葉緑素量推定用モデル生成システム)
151 計測値受付部(取得手段)
152 色空間変換部(取得手段)
153 特徴量算出部(モデル算出手段)
154 回帰分析部(モデル算出手段)
16 モデルデータ記憶部(記憶手段)
17 推定部(葉緑素量推定システム)
171 画像データ受付部(取得手段)
172 明度調整部(補正画像生成手段)
173 ノイズ除去部(補正画像生成手段)
174 SPAD値算出部(推定手段)
6D 学習データ(葉緑素量、色情報)
6E モデルデータ(モデル)
8A 圃場画像
8E 第二の補正画像(画像、入力画像)
1 Learning estimation server (chlorophyll amount learning estimation system)
15 Machine learning part (model generation system for chlorophyll amount estimation)
151 measurement value reception unit (acquisition means)
152 color space converter (acquisition means)
153 feature quantity calculation unit (model calculation means)
154 Regression Analysis Department (Model Calculation Means)
16 model data storage unit (storage means)
17 Estimation unit (chlorophyll content estimation system)
171 image data reception unit (acquisition means)
172 Brightness adjustment unit (correction image generation means)
173 noise removal unit (corrected image generation means)
174 SPAD value calculation unit (estimation means)
6D learning data (chlorophyll content, color information)
6E model data (model)
Claims (15)
前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、
を有することを特徴とする葉緑素量学習推定システム。 Model calculation means for calculating a model representing the relationship between the chlorophyll content and the color information of the plant based on the chlorophyll content and the color information at each of the plurality of positions of the first individual which is a specific type of plant and is used as a sample. When,
an estimating means for estimating the chlorophyll content of the portion reflected in each pixel of the image based on the image and the model of the second individual that is the plant and is the target of estimation;
A chlorophyll amount learning estimation system characterized by having
前記取得手段によって取得された、前記複数の位置それぞれの葉緑素量および色情報に基づいて、前記植物の葉緑素量と色情報との関係を表わすモデルを算出するモデル算出手段と、
を有することを特徴とする葉緑素量推定用モデル生成システム。 Acquisition means for acquiring chlorophyll content and color information for each of a plurality of positions of an individual plant of a specific type;
model calculation means for calculating a model representing the relationship between the chlorophyll amount and color information of the plant based on the chlorophyll amount and color information at each of the plurality of positions acquired by the acquisition means;
A model generation system for estimating the amount of chlorophyll, characterized by comprising:
請求項2に記載の葉緑素量推定用モデル生成システム。 The color information is information including the difference between the lightness of green and the lightness of blue.
The model generation system for estimating the amount of chlorophyll according to claim 2.
請求項2または請求項3に記載の葉緑素量推定用モデル生成システム。 The plant is a plant having chlorophyll,
The model generation system for estimating the amount of chlorophyll according to claim 2 or 3.
前記色情報は、緑の明度と青の明度との和に対する前記差の割合を含む情報である、
請求項4に記載の葉緑素量推定用モデル生成システム。 the plant is cabbage, onion, or barley;
The color information is information containing the ratio of the difference to the sum of the lightness of green and the lightness of blue.
The model generation system for estimating the amount of chlorophyll according to claim 4.
前記色情報は、Yxy表色系の表色値xおよびyを含む情報である、
請求項4に記載の葉緑素量推定用モデル生成システム。 the plant is a tomato,
The color information is information containing color values x and y in the Yxy color system.
The model generation system for estimating the amount of chlorophyll according to claim 4.
前記植物でありかつ推定の対象である第二の個体の画像である入力画像および前記モデルに基づいて、当該入力画像の各画素に写っている部分の葉緑素量を推定する、推定手段と、
を有することを特徴とする葉緑素量推定システム。 Stores a model representing the relationship between the chlorophyll amount and the color information of the plant, which is calculated based on the chlorophyll amount and the color information at each of a plurality of positions of the first individual which is a specific type of plant and is used as a sample. a storage means;
estimating means for estimating the chlorophyll content of the portion reflected in each pixel of the input image based on the input image that is the image of the second individual that is the plant and is the target of estimation and the model;
A chlorophyll amount estimation system characterized by having
前記圃場画像から葉以外の物に対応する画素であるノイズ画素を除去することによって補正画像を生成する補正画像生成手段と、
を有し、
前記推定手段は、前記補正画像を前記入力画像として、当該入力画像の各画素に写っている部分の葉緑素量を推定する、
請求項7に記載の葉緑素量推定システム。 Acquisition means for acquiring a field image of a field in which a plurality of the second individuals are cultivated, taken from above;
a corrected image generating means for generating a corrected image by removing noise pixels, which are pixels corresponding to objects other than leaves, from the field image;
has
The estimating means uses the corrected image as the input image, and estimates the amount of chlorophyll in the portion reflected in each pixel of the input image.
The chlorophyll amount estimation system according to claim 7.
請求項8に記載の葉緑素量推定システム。 The corrected image generating means generates an image adjusted according to a color temperature as the corrected image,
The chlorophyll amount estimation system according to claim 8.
前記時期が訪れたと判別された場合に、前記時期が訪れたことを通知する通知手段と、
を有する、
請求項7ないし請求項9のいずれかに記載の葉緑素量推定システム。 a determining means for determining whether or not the time for work on the plant has come based on the amount of chlorophyll estimated by the estimating means;
notification means for notifying that the time has come when it is determined that the time has come;
having
The chlorophyll amount estimation system according to any one of claims 7 to 9.
予測した前記時期を通知する通知手段と、
を有する、
請求項7ないし請求項9のいずれかに記載の葉緑素量推定システム。 Prediction means for predicting the timing of work on the plant based on the amount of chlorophyll estimated by the estimation means;
notification means for notifying the predicted time;
having
The chlorophyll amount estimation system according to any one of claims 7 to 9.
請求項10に記載の葉緑素量推定システム。 the operation is harvesting the plant, fertilizing the plant, or sowing the plant;
The chlorophyll amount estimation system according to claim 10.
前記植物でありかつ推定の対象である第二の個体の画像および前記モデルに基づいて、当該画像の各画素に写っている部分の葉緑素量をコンピュータが推定する、
ことを特徴とする葉緑素量推定方法。 A computer calculates a model representing the relationship between the chlorophyll content and the color information of the plant based on the chlorophyll content and color information at each of a plurality of positions of the first individual which is a specific type of plant and is used as a sample,
Based on the image of the second individual that is the plant and is the target of estimation and the model, a computer estimates the amount of chlorophyll in the portion reflected in each pixel of the image.
A method for estimating the amount of chlorophyll, characterized by:
前記取得処理によって取得された、前記複数の位置それぞれの葉緑素量および色情報に基づいて、前記植物の葉緑素量と色情報との関係を表わすモデルを算出する算出処理を前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。 causing a computer to perform acquisition processing for acquiring chlorophyll content and color information at each of a plurality of positions of an individual of a specific type of plant;
causing the computer to perform a calculation process for calculating a model representing the relationship between the chlorophyll amount and color information of the plant based on the chlorophyll amount and color information at each of the plurality of positions acquired by the acquisition process;
A computer program characterized by:
前記植物でありかつサンプルとして用いられる個体の複数の位置それぞれの葉緑素量および色情報に基づいて算出された、当該植物の葉緑素量と色情報との関係を表わすモデルに基づいて、前記取得処理によって取得された前記入力画像の各画素に写っている部分の葉緑素量を推定する、推定処理を、前記コンピュータに実行させる、
ことを特徴とするコンピュータプログラム。 causing a computer to perform acquisition processing for acquiring an input image, which is an image of an individual that is a specific type of plant and is an object to be estimated;
Based on the model representing the relationship between the chlorophyll amount and color information of the plant, which is calculated based on the chlorophyll amount and color information at each of the plurality of positions of the individual that is the plant and is used as a sample, by the acquisition process causing the computer to perform an estimation process for estimating the amount of chlorophyll in the portion captured in each pixel of the acquired input image;
A computer program characterized by:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021106586 | 2021-06-28 | ||
JP2021106586 | 2021-06-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023007457A true JP2023007457A (en) | 2023-01-18 |
Family
ID=85108033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022100397A Pending JP2023007457A (en) | 2021-06-28 | 2022-06-22 | Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023007457A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118135572A (en) * | 2023-11-24 | 2024-06-04 | Lef技术株式会社 | Generating method, discriminating method, computer program, generating device, and discriminating device |
-
2022
- 2022-06-22 JP JP2022100397A patent/JP2023007457A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118135572A (en) * | 2023-11-24 | 2024-06-04 | Lef技术株式会社 | Generating method, discriminating method, computer program, generating device, and discriminating device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Assmann et al. | Vegetation monitoring using multispectral sensors—best practices and lessons learned from high latitudes | |
Aggelopoulou et al. | Yield prediction in apple orchards based on image processing | |
Heiskanen et al. | Use of airborne lidar for estimating canopy gap fraction and leaf area index of tropical montane forests | |
Fitzgerald | Characterizing vegetation indices derived from active and passive sensors | |
Zaman et al. | Estimation of wild blueberry fruit yield using digital color photography | |
CN111462223B (en) | Sentinel-2 image-based planting area identification method for soybeans and corns in Jianghuai region | |
Nguy-Robertson et al. | Algorithms for estimating green leaf area index in C3 and C4 crops for MODIS, Landsat TM/ETM+, MERIS, Sentinel MSI/OLCI, and Venµs sensors | |
Varela et al. | Spatio-temporal evaluation of plant height in corn via unmanned aerial systems | |
Solvin et al. | Use of UAV photogrammetric data in forest genetic trials: measuring tree height, growth, and phenology in Norway spruce (Picea abies L. Karst.) | |
White et al. | Determining a robust indirect measurement of leaf area index in California vineyards for validating remote sensing-based retrievals | |
Rasmussen et al. | The challenge of reproducing remote sensing data from satellites and unmanned aerial vehicles (UAVs) in the context of management zones and precision agriculture | |
Mehdaoui et al. | Exploitation of the red-edge bands of Sentinel 2 to improve the estimation of durum wheat yield in Grombalia region (Northeastern Tunisia) | |
Kefauver et al. | RGB picture vegetation indexes for high-throughput phenotyping platforms (HTPPs) | |
Dhakar et al. | Field scale wheat LAI retrieval from multispectral Sentinel 2A-MSI and LandSat 8-OLI imagery: effect of atmospheric correction, image resolutions and inversion techniques | |
Tarbell et al. | A computer vision system for characterizing corn growth and development | |
Ovakoglou et al. | Downscaling of MODIS leaf area index using landsat vegetation index | |
Carrasco-Benavides et al. | Assessment of an automated digital method to estimate leaf area index (LAI) in cherry trees | |
JP2023007457A (en) | Chlorophyll amount learning estimation system, chlorophyll amount estimation model generation system, chlorophyll amount estimation system, chlorophyll amount estimation method, and computer program | |
Meivel et al. | Monitoring of potato crops based on multispectral image feature extraction with vegetation indices | |
Tsele et al. | Validation of LAI, chlorophyll and FVC biophysical estimates from sentinel-2 level 2 prototype processor over a heterogeneous savanna and grassland environment in South Africa | |
Arenas-Castro et al. | Mapping wild pear trees (Pyrus bourgaeana) in Mediterranean forest using high-resolution QuickBird satellite imagery | |
Silva et al. | Mapping two competing grassland species from a low-altitude Helium balloon | |
JP2021171057A (en) | Crop related value derivation device and crop related value derivation method | |
Peerbhay et al. | Can remote sensing detect, monitor and track baboon-damaged Pinus plantations located in South Africa? | |
Jia et al. | Fractional vegetation cover estimation based on soil and vegetation lines in a corn-dominated area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220715 |