JP2021096726A - 情報処理装置、コンピュータプログラム及び情報処理方法 - Google Patents

情報処理装置、コンピュータプログラム及び情報処理方法 Download PDF

Info

Publication number
JP2021096726A
JP2021096726A JP2019228800A JP2019228800A JP2021096726A JP 2021096726 A JP2021096726 A JP 2021096726A JP 2019228800 A JP2019228800 A JP 2019228800A JP 2019228800 A JP2019228800 A JP 2019228800A JP 2021096726 A JP2021096726 A JP 2021096726A
Authority
JP
Japan
Prior art keywords
data
growth
index data
information processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019228800A
Other languages
English (en)
Other versions
JP2021096726A5 (ja
Inventor
誠一 廣光
Seiichi HIROMITSU
誠一 廣光
桂久 阿部
Yoshihisa Abe
桂久 阿部
聡一郎 中田
Soichiro NAKADA
聡一郎 中田
あづさ 松本
Azusa Matsumoto
あづさ 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2019228800A priority Critical patent/JP2021096726A/ja
Priority to CN202080087141.5A priority patent/CN114828619A/zh
Priority to PCT/JP2020/047227 priority patent/WO2021125285A1/ja
Publication of JP2021096726A publication Critical patent/JP2021096726A/ja
Priority to US17/837,130 priority patent/US20220304257A1/en
Publication of JP2021096726A5 publication Critical patent/JP2021096726A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】農産物の生育状況に関する有益な情報を提供する情報処理装置を提供する。【解決手段】システムにおいて、情報処理装置(制御サーバ104、他のサーバ105〜108、110〜112の一部又は全部の機能を含む)は、圃場における特定の農作物の画像を取得するネットワークカメラと、圃場の環境に関する環境情報データを取得するセンサデバイス、気象情報サーバと、画像取得手段によって取得された農作物の画像に基づき農作物の生育指標データを生成する画像解析クラウドサーバと、指標データ生成手段によって生成された複数の日時の生育指標データと複数の日時の環境情報データを蓄積するデータ蓄積クラウドサーバと、蓄積手段に蓄積された複数の日時の生育指標データと複数の日時の環境情報データに基づき生育過程を表示するための表示データを生成するアプリケーションサーバと、を有する。【選択図】図1

Description

本発明は農作業の支援に適した情報処理装置等に関するものである。
従来の農業においては、伝統的に農業従事者の経験と知識や勘などに基づき農作物の生育状況の判断が行われてきた。一方、近年、IoT(Internet of Things)技術を用いて、環境センサや画像データなどの情報を取得し、生育状況を判断するためのシステムが考えられつつある。
しかしそのようなシステムにおいても、結局取得された画像データなどを総合的に判断するのは農業従事者であり、取得されたデータの蓄積が有益なデータとして十分に活用されたり共有されたりしていなかった。
特開2019−165655号公報
上記特許文献1には、農産物が栽培されている栽培所に設置され、栽培所における環境を示す環境情報を取得する環境情報センサと、前記栽培所に設置され、前記農産物の画像を撮像する撮像装置が記載されている。また、前記環境情報と、前記農産物の画像から得られる情報である画像情報と、に基づいて、前記農産物の適切な収穫までの所定の環境値の積算値である残積算値を判定する判定装置が記載されている。
しかし、特許文献1の技術では収穫時期を判定しているだけで、農作物の生育中に最適な生育を行うためのきめ細かな情報が不足している。従って天候の状況等によって生育状況が変化してもそれに対してどのような対策をするのが最適かは考慮されていない。
本発明は、上記のような従来技術の問題に対して、農産物の生育状況等に関する有益な情報を提供できる情報処理装置を得ることを目的としている。
上述の目的を達成するため、本発明の情報処理装置では、
圃場における特定の農作物の画像を取得する画像取得手段と、
前記圃場の環境に関する環境情報データを取得する環境情報取得手段と、
前記画像取得手段によって取得された前記農作物の画像に基づき前記農作物の生育指標データを生成する指標データ生成手段と、
前記指標データ生成手段によって生成された複数の日時の生育指標データと前記複数の日時の前記環境情報データを蓄積する蓄積手段と、
前記蓄積手段に蓄積された前記複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生育過程を表示するための表示データを生成する表示データ生成手段と、
を有することを特徴とする。
本発明によれば農産物の生育状況等に関する有益な情報を提供できる情報処理装置を実現できる。
本発明の実施例の情報処理装置を用いたシステムの全体構成図である。 画像解析クラウドサーバの機能ブロック図である。 制御サーバを中心とした動作フローを示すフローチャートである。 アプリケーションサーバにおいて生成される表示データに基づく表示画面の例を示す図である。 表示画面の他の例を示す図である。 表示画面の更に別の例を示す図である。 関連付けのためのフローチャートの例を示す図である。 関連付けのためのフローチャートの例の続きを示す図である。 関連付けをしたテーブルの例等を示す図である。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
図1は、本発明の実施例の情報処理装置を用いたシステムの全体構成図である。
以下、図1を参照して本発明の実施例における情報処理装置を用いたシステムの全体構成について説明する。
本実施例における情報処理装置を用いたシステムはネットワークカメラ101、複数のセンサデバイス102、ネットワーク(公衆回線)103、制御サーバ104、データ蓄積クラウドサーバ105、アプリケーションサーバ106を有する。
また、サービス提供管理サーバ107、課金決済サーバ108、サービス契約者のタブレット等の情報端末109、画像解析クラウドサーバ110、生育状況を学習するモデルクラウドサーバ111、気象情報サーバ112等を有する。
なお、実施例ではサーバやクラウドサーバの例を用いて説明しているが、サーバやクラウドサーバの形態をとらなくても良く、例えば各サーバやクラウドサーバの機能と同様の機能を有する電子機器であれば良い。
また、本実施例において、情報処理装置とは、制御サーバ104の機能を少なくとも含む装置であって、更に他のサーバ105〜108、110、111等の一部または全部の機能を含む装置であっても良い。
ネットワークカメラ101は固定カメラであっても良いし、ドローン等に搭載されたカメラであっても良く、有線または無線のネットワーク103を介して撮影画像を制御サーバ104等に送るためのネットワークインターフェースを持つ。
また、ネットワークカメラ101はネットワーク103を介して制御サーバ104から撮影指示などの制御信号を受信し、制御信号に基づき、ON/OFF制御や撮影動作や撮影画像の制御サーバへの送信動画等が実行される。ここで、ネットワークカメラ101は圃場における特定の農作物の画像を取得する画像取得手段として機能している。なお、画像取得手段は例えば予め記録媒体に記録された特定の農作物の画像を読み出すことによって取得する読出し装置を含む。
また制御サーバ104にはコンピュータとしてのCPUが内蔵されており、メモリに記憶されたコンピュータプログラムに基づきシステム内のネットワークカメラ、センサデバイス、その他の各装置の動作を制御する制御手段として機能している。
なお本実施例において、農作物の圃場の面積が大きい場合には、ネットワークカメラ101やセンサデバイス102は複数設置されていてもよい。
また、本実施例では対象物(農作物)として稲を農作物として栽培する例を用いて説明するが、イネ科の他の植物にも同様に適用できる。イネ科の植物(農作物)としては、例えば稲、ムギ(小麦、大麦)、キビ、アワ、ヒエ、トウモロコシ等を含む。なお、本実施例はイネ科植物の他に露地栽培のホウレンソウなどに適用することもできる。
後述するように、少なくとも1台のネットワークカメラ101は図4において圃場の様子として示されるように、圃場の所定位置の農作物を上から撮影するように構成されている。
なお、ネットワークカメラ101はドローンに搭載されたカメラでもよく、ドローンを使って例えば圃場の複数の所定位置(サンプル位置)の農作物を上から撮影するようにしても良い。また、ステレオカメラ等を用いて上から撮影した時の左右の撮影画像に基づいて測距することによって草丈を求めるようにしても良い。また、測距可能なカメラとして例えばステレオカメラ等をドローンや移動型ロボットに搭載して定点上部からの撮影と測距をしても良い。
なお、ネットワーク103は有線LANであっても無線LANであってもよいが、本実施例ではネットワーク103は無線LANであるものとする。
また、ネットワーク103は通信事業者が提供する移動体通信網であっても良い。その場合は、ネットワークカメラ101本体内の不図示のカードアダプタへSIMカードを挿入することによって公衆回線網へ接続可能となる。
複数のセンサデバイス102は、ネットワーク103を介して制御サーバ104と接続され、センサデバイスごとに制御サーバ104からのセンサデータ取得要求に応じてセンサデータを制御サーバ104に送信する。あるいは、各センサデバイスはそれぞれ異なるタイミングで、かつ所定の送信間隔でセンサデータをLPWA(Low Power Wide Area)通信規格等に従って制御サーバ104に送信するように構成されていても良い。
その場合、制御サーバ104はセンサデバイスから所定周期で送られてきたデータの内、所望のタイミングで送られてきたセンサデータを取捨選択すれば良い。本実施例のセンサデバイス102は複数種類のセンサデバイスを含み、圃場の環境に関する環境情報データを取得する環境情報取得手段として機能している。具体的には、例えば、圃場の緯度経度(や高度)に関するデータを取得できるように構成されている。更に、圃場の土壌の環境に関する環境情報データを取得するセンサデバイスを含む。
なお、圃場の緯度経度(や高度)に関するデータを取得するためのセンサデバイスは例えばGPSセンサなどを含み、このセンサデバイスは圃場の複数個所に配置されていても良いし、ネットワークカメラ101内部に配置されていても良い。
なお、ネットワークカメラ101はそれぞれ固有の識別情報としてのカメラID(カメラ識別情報)を有している。そしてそれらのカメラIDはネットワークカメラ101の筐体の外側に文字またはQRコード(登録商標)等で表示されている。
同様にセンサデバイス102はそれぞれ固有の識別情報としてのセンサID(センサ識別情報)を有している。そして本実施例ではそれらのセンサIDはセンサデバイス102の筐体の外側に文字またはQRコード(登録商標)等で表示されている。
ネットワークカメラ101とセンサデバイス102とは予めリンク(対応付け)あるいはペアリングしておくことが望ましい。
具体的な方法としては、例えばセンサデバイス102の筐体の外側に表示されている文字またはQRコード(登録商標)等から成るセンサIDを、ネットワークカメラ101で撮影する。それによって、撮影されたセンサデバイス102のセンサIDを画像認識し、撮影したネットワークカメラ101のカメラIDと対応付けることができる。
その際、例えばネットワークカメラ101で撮影した画像のヘッダ領域に認識したセンサデバイス102のセンサIDを書き込む。
それによって、ネットワークカメラ101で撮影した画像を制御サーバ104に送る際に、センサデバイス102のセンサIDとネットワークカメラ101のカメラIDを対応付けることができる。ここで、そのような画像ファイルのヘッダ領域への書き込み手段が対応付け手段として機能することになる。
あるいは、ネットワークカメラ101やセンサデバイス102や制御サーバ104が予めアプリケーションソフトを有するようにしても良い。そして、そのアプリケーションソフト画面上で、ユーザがセンサデバイス102のセンサIDとネットワークカメラ101のカメラIDを対応付けて登録するようにしても良い。
その場合には、カメラIDとセンサIDとはそれぞれの筐体の外側に表示されていなくても良い。この場合、前記ユーザが、前記カメラ識別情報と前記センサ識別情報を対応付けるための設定をするアプリケーションソフトが対応付け手段として機能する。
あるいはネットワークカメラ101のカメラIDとセンサデバイス102のセンサIDを同時にあるいは順次スマートフォン等に設けられた別のカメラで撮影してもよい。
そして、その画像を制御サーバ104に送信することで、ネットワークカメラ101のカメラIDとセンサデバイス102のセンサIDとを対応付けて登録することもできる。図7、図8のフローはそのようなペアリング(対応付け、リンク)方法についての詳細なフローチャートであり、後述する。
なお、カメラIDとセンサIDを対応付けする方法として上記のように筐体の外側に表示された文字IDやQRコード(登録商標)などを撮影して画像認識したりする方法の代わりに例えばBluetooth(登録商標)やNFCなどを用いてペアリングするようにしても良い。
ペアリングを事前にすることによって、例えば複数のネットワークカメラの内の特定のカメラで撮影した画像と、予め対応付けられたセンサデバイスのセンサデータとをリンクして(関連付けて)制御サーバでテーブルを用いて管理することができる。
図7、図8はペアリングの方法の例を示すフローチャートであり、図9はそのような関連付けをしたテーブルの例を示す図である。図7〜9については後述する。
そして、例えば特定のネットワークカメラ101で撮影した画像の画像ファイルのヘッダ領域に、対応付けられたセンサデバイスのセンサデータを効率的に記録することができる。従って、ネットワークカメラ101とセンサデバイス102が多数存在する場合に、画像データとセンサデータの関連付けを効率的に実行することができる。
なお、画像ファイルのヘッダ領域の一部に対応するセンサデバイスのIDが書き込まれることによって対応付けがなされている、同じ画像ファイルのそれとは別のヘッダ領域に前記センサデバイスのセンサデータが書き込まれることになる。
センサデバイス102が測定する圃場の土壌の環境に関する環境情報データは、例えば土壌の色、土壌の水分量、土壌中の所定の複数の化学物質(例えば窒素、リン酸、カリウム等)の量や割合、土壌のph値の少なくとも1つに関するデータを取得する。
また、センサデバイス102は圃場の気象情報等に関する一部のデータも取得できるように構成されていても良い。即ち、センサデバイス102は、例えば圃場の標高、降水量、降雨量、降雪量、気温、湿度、水田等の圃場の水位、水田等の圃場の水温、照度、日照時間、風速、気圧の少なくとも1つに関するデータを検出(測定)できるように構成されていても良い。
データ蓄積クラウドサーバ105は制御サーバ104からの指示に基づきデータを蓄積するためのクラウドサーバである。
そして、ネットワークカメラ101からの画像データ(画像ファイル)やセンサデバイス102からのセンサデータを、それらの取得日時のデータとリンクさせた状態で蓄積(記憶)する。なお、ここで、リンクとは画像ファイルのヘッダ領域に各種データを書き込む(記憶する)ことでリンク(関連付け)させるものを含む。なお、日時のデータは例えばネットワークカメラ101内のCPU等から取得しても良いし、センサデバイス102から取得しても良い。あるいはデータ蓄積クラウドサーバ105内のCPU等から取得しても良い。また、データ蓄積クラウドサーバ105は前記の画像が撮影された日時の気象データも気象情報サーバ112から取得する。
そしてデータ蓄積クラウドサーバ105は、制御サーバ104からの指示に基づき、ネットワークカメラ101からの撮影画像とセンサデータ、気象情報サーバ112からの気象情報データを画像解析クラウドサーバ110に送る。
画像解析クラウドサーバ110は制御サーバ104からの指示に基づきネットワークカメラ101からの画像を画像解析する。
モデルクラウドサーバ111は過去の農作物の画像、生育指標データ、環境情報データ(センサデータ、気象データ等)、日時等と生育状況の関係を統計的に学習する。そして、学習によって画像、生育指標データ、環境情報データ、日時等と生育状況とを関連付けた生育モデルデータを生成し保存している。
画像解析クラウドサーバ110はモデルクラウドサーバ111から過去の生育指標データおよび環境情報データとリンクした生育モデルデータを取得する。
そして画像解析クラウドサーバ110は、ネットワークカメラ101により得られた農作物の画像を解析して、解析結果として、前記農作物の生育指標データを生成する。更にこの生育指標データと環境情報データ(センサデータ、気象情報データ等)と日時データを生育モデルデータと比較/参照することによって、画像解析クラウドサーバ110は農作物の生育指標データを生成する。即ち、画像解析クラウドサーバ110は生育指標データを生成するための指標データ生成手段として機能する。また、特に各生育ステージ(例えば分げつ期等)に関する情報を生成する(生育ステージ)データ生成手段として機能する。
画像解析クラウドサーバ110が生成した生育指標データ(解析結果)はデータ蓄積クラウドサーバ105に送られて、前記画像やセンサデータや気象データや日時とリンクして(関連付けて)蓄積される。
その際、農作物の画像ファイルのそれぞれ所定のヘッダ領域に前記生育指標データとセンサデータと気象データと日時等をそれぞれ書き込んで蓄積(記憶)する。例えば、EXIF(Exchangeable Image File Format)規格で定められている画像ファイルのヘッダ領域に書き込む。
具体的にはEXIF規格のヘッダ領域の内のMaker Noteという、データタイプがUNDEFINEDとなっているデータ構造やサイズについて規定がない領域に書き込むのが望ましい。そして前記生育指標データ、センサデータ、気象データ、日時等をそれぞれのヘッダ領域に書き込むように割り振れば良い。また、画像ファイルのヘッダ領域ではなく、別途データプラットフォームを利用した通信を行う場合はWAGRI規格で定められているAPIフォーマットを利用しても良い。ここでAPIはApplication Programming Interfaceの略である。それによって、前記生育指標データとセンサデータと気象データの連携、共有や提供等相互利用を可能としても良い。
ここでWAGRIは農業データ連携基盤の名称である。以下、ここでは、画像ファイルのヘッダ領域を使う場合の実施例を記載する。
データ蓄積クラウドサーバ105は前記指標データ生成手段によって生成された複数の日時の画像データ、生育指標データ、複数の日時の環境情報データ、気象情報等を各日時データと共に関連付けて蓄積する蓄積手段として機能している。
データ蓄積クラウドサーバ105に一旦蓄積された複数の日時の農作物の撮影画像データ、生育指標データ、環境情報データ、それらの取得日時の情報等はアプリケーションサーバ106に送られる。アプリケーションサーバ106は、複数の日時の生育指標データと複数の日時の前記環境情報データに基づき生育過程(生育ステージ)に関する情報をグラフ化して表示させるための表示データを生成する。アプリケーションサーバ106はそのための表示データ生成手段あるいは生育ステージデータ生成手段として機能している。
気象情報サーバ112は制御サーバ104からの気象情報取得要求に応じて環境情報データとして気象情報をデータ蓄積クラウドサーバ105に送る。気象情報は例えば、天気、降水量、降雨量、降雪量、気温、湿度、日照時間、風速、気圧の少なくとも1つに関するデータを含む。前述したように、気象情報等の一部はセンサデバイス102から取得することもできる。気象情報サーバ112も圃場の環境(気象)に関する環境情報データを取得する環境情報取得手段の一部として機能している。
107はサービス提供管理サーバであり、課金決済サーバ108からの課金決済情報に基づき、どのような表示画面、データ、サービスを契約者(契約ユーザ)に提供するかの情報をアプリケーションサーバ106に送る。また、課金サービス内容についての情報を課金決済サーバ108に送る。
課金決済サーバ108は、契約者の情報端末109と通信をし、契約者に対する課金の決済情報を契約者の情報端末109から取得し、決済が完了したか否か等の情報を契約者の情報端末109に送る。
ここで、サービス提供管理サーバ107と課金決済サーバ108とアプリケーションサーバ106は、蓄積された生育指標データと環境情報データを課金に応じて所定の端末に提供可能にするための課金決済手段として機能している。
また複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生成した生育過程に関するデータを課金に応じて前記所定の端末に提供可能にする課金決済手段として機能している。
契約者の情報端末109から決済情報が課金決済サーバ108に送られると、その決済情報がサービス提供管理サーバ107に送られる。そして、その決済情報(支払いを完了したか否か等)に基づき画面、データ、サービス情報がアプリケーションサーバ106に送られる。
アプリケーションサーバ106はそれに応じて契約者の情報端末109に対して生育過
程をグラフ化して表示させるための表示データを送り、契約者の情報端末109で生育過程をグラフ化した表示画面が表示可能となる。なお、クラウドサーバ105〜108、110〜112や情報端末109もコンピュータを有することは言うまでもない。
図2は画像解析クラウドサーバ110の機能ブロック図であり、図2を用いて画像解析クラウドサーバ110の機能について説明する。
1101は入力部であり、データ蓄積クラウドサーバ105から撮影画像データ、各種センサデータ、気象情報データ、それぞれのデータを取得した日時データ等を取得する。
1102は葉色算出部であり農作物の葉の色を算出する。なお、穂の色も算出するようにしても良い。1103は茎数算出部であり、農作物の茎の数を算出する。
葉色は、所定の条件下で所定の範囲においてクロロフィル含有量との相関があると言われているSPAD値(Solid and Plant Analyzer Development)という単位に換算して表すようにしても良い。圃場における茎の数を画像から算出するために、本実施例においては葉の先端を点として葉の先端(葉先)をAI(人工知能)で学習させて認識し、葉の先端(葉先)の数をカウントし、それに基づき茎数を算出する。
これは過去の統計データ(学習データ)により葉の先端の数と茎数とに所定の相関関係が見いだせるためである。例えば、統計的には、葉先の数の約1/3を茎数として概算することができる。1104は草丈算出部であり、草丈(地面からの農作物の最大の高さ)を算出する。例えば農作物の側方にネットワークカメラ101の1つを配置し、農作物の横に設置した基準スケールと一緒に撮影することによって、草丈(地面からの農作物の最大の高さ)を算出することができる。
本実施例においてはこれらの葉色、茎数、草丈に関するデータを農作物の主要な生育指標データとしている。更に生育指標データとして、例えば単位面積当たりの植被率を含んでも良い。
またイネ科の農作物の場合には、茎数に対する穂の出た茎の割合、黄色に変色した穂の割合、穂の数、1穂当たりの籾数、茎の傾き、茎の曲がりの程度の少なくとも1つに関するデータを含んでも良い。それらの生育指標データの種類を増やすことによって、生育過程をグラフ化して表示する際の精度を向上することができる。
また、籾の膨らみや色などから算出される状態や成熟度合を生育指標データに入れても良い。これにより、整粒歩合を示せるようになる。ここで整粒歩合とは、一定量の玄米のなかに存在する整粒、すなわちきちんと整った形をしている米粒の割合を%で示したものである。
葉色算出部1102、茎数算出部1103、草丈算出部1104等の生育指標データおよび、入力部1101からのセンサデータや気象情報データ、日時データ等は生育ステージ判定部1105に供給される。
それとともに、生育状況を学習するモデルクラウドサーバ111にも供給されて保存され学習データとして使われる。
生育ステージ判定部1105においては、葉色、茎数、草丈等の生育指標データ、センサデータ、気象情報データ、日時データ等をモデルクラウドサーバ111の生育モデルデータと比較する。それによって農作物の画像が撮影されたときの生育ステージ(生育過程)を判定する。更に、モデルクラウドサーバ111の生育モデルデータを参照することによって単位面積当たりの収穫量の予想値や望ましい収穫予定日についても算出する。
そして出力部1106を介して葉色、茎数、草丈等の生育指標データ、生育ステージデータ、収穫予定日、単位面積当たりの収穫量等を解析結果としてデータ蓄積クラウドサーバ105に出力する。
図4はアプリケーションサーバ106において生成される表示データに基づく表示画面の例を示す図である。
アプリケーションサーバ106においては、データ蓄積クラウドサーバ105に蓄積された複数の日時の生育指標データと前記複数の日時の前記環境情報データ等に基づき生育過程をグラフ化して表示させるための表示データを生成する。更に、前記生育過程の表示と共に、所定の日時における前記圃場の画像または前記農作物の画像の少なくとも一方を表示させるための表示データを生成しても良い。
また、前記生育過程の表示と共に、収穫時期と単位面積当たりの収穫量の予想の少なくとも一方を表示するための表示データを生成しても良い。また、生育過程の表示データと共に、前記農作物の生育ステージ(例えば分げつ期等)に関する情報を表示させるための表示データを生成しても良い。これらの表示データは例えば情報端末109において図4に示すようなグラフ等として表示される。図4の表示内容については後述する。
次に図3を用いて制御サーバ104を中心とした動作フローを説明する。図3は制御サーバを中心とした動作フローを示すフローチャートである。
図1に示すシステムにおいて、制御サーバ104等を起動することによって図3のフローがスタートする。ステップS301において所定周期で圃場の撮影を、ネットワークカメラ101を用いて行う。所定周期は予め情報端末109のアプリケーションを介して例えば、「毎朝10時に取得」等制御サーバ104に設定をしておく。
ステップS302においてセンサデバイス102に対してデータ取得要求を送る。ステップS303において、ステップS301とS302の結果として撮影画像とセンサデータとを取得する。ステップS304において、撮影画像データの所定のヘッダ領域にメタデータとして撮影日時とセンサデータを書き込む。
ステップS305で、上記のヘッダにデータが書き込まれた撮影画像データをデータ蓄積クラウドサーバ105に送り、気象情報サーバ112からの気象情報データを撮影画像データの他のヘッダ領域に書き込む。
ステップS306において、画像解析クラウドサーバ110に対して、ヘッダに各種データが書き込まれた画像データを送らせるとともに、画像解析を指示する。ステップS307において、画像解析クラウドサーバ110はモデルクラウドサーバ111の生育モデルを比較/参照して画像解析を実行させる。
ステップS308において、画像解析クラウドサーバ110が解析した結果である生育指標データを画像のヘッダ領域に更に追加して、データ蓄積クラウドサーバ105に送らせる。
これによって画像ファイルの各ヘッダ領域に日時と環境データ(センサデータ)と生育指標データとがそれぞれ書き込まれた状態で、データ蓄積クラウドサーバ105に蓄積されていく。ステップS309で所定の契約ユーザから課金の支払いがあったか否かを判別し、課金があればステップS310に進む。課金がなければステップS301に戻りデータの蓄積を継続する。ステップS310では、課金に対して支払いを行った契約ユーザに所定期間の画像を提供するようにアプリケーションサーバ106に指示を出す。
この時、画像のヘッダ領域には上述の複数のデータの一部または全部が書き込まれている状態で提供する。課金の金額に応じて、ヘッダ領域に書き込まれているデータの一部をマスクして提供するようにしても良い。
ステップS311では課金としてオプション料金の支払いがあるか否かを判別する。Noの場合にはステップS313に進み、Yesの場合にはステップS312に進む。
ステップS312ではアプリケーションサーバ106で生育過程を表示するための表示データを生成させ、その生育過程を表示するための表示データを前記の所定期間の画像と共に契約ユーザに提供させる。
ステップS313では、契約ユーザのID(識別番号)と、支払い履歴と、提供したデータ等に関する履歴を課金決済サーバ108に保存させる。
ステップS314で図1のシステムがオフされたか否かを判別し、オフされていなければステップS301に戻り、データの蓄積を繰り返す。ステップS314でオフされたことが判別された場合にはフローを終了する。
このように、システム運営者は、過去の蓄積された有益な生育モデルデータを必要なユーザに提供することが可能になる。また逆に、ユーザは課金をすることによって、過去の蓄積された有益な生育モデルデータを入手することが可能になる。
次に図4を用いてアプリケーションサーバ106で生成される生育過程の表示例等を説明する。図4はアプリケーションサーバにおいて生成される表示データに基づく表示画面の例を示す図である。図5、図6は表示画面のそれぞれ他の例を示す図である。
アプリケーションサーバ106は、データ蓄積クラウドサーバ105から表示画面に必要なデータを取得する。
図4〜図6において、400は情報端末109の表示画面であり、401は生育過程を示すグラフ、402は現在の日時を示す表示領域である。403は、課金契約者名(契約ユーザ名やユーザID)等を表示する表示領域である。ここで課金契約者とは、蓄積された生育指標データと環境情報データ、さらには、生育過程データ等を課金に応じて所定の端末に提供するための契約を結んだ契約者を指す。
404は農作物の種別を表示する表示領域、405縦軸に表示される茎数のスケール、406は縦軸に表示される草丈のスケール、407は横軸に表示される月単位の時間軸のスケールである。408は稲の生育過程(生育ステージ)の概略を示すデータ、409は生育過程に応じて行うことが推奨される農作業の例を示す表示である。420は縦軸に表示されるSPAD値のスケール、421はSPAD値に換算する前の葉色のスケールである。
410aは草丈の生育過程を示すグラフであり、410bは草丈の生育モデルを示すグラフである。411aは茎の数の生育過程を示すグラフであり、411bは茎数の生育モデルを示すグラフである。412aはSPAD値の生育に伴う過程を示すグラフであり、412bはSPAD値の生育モデルを示すグラフである。422は茎の数の生育過程に応じた生育ステージ(例えば分げつ期等)に関する説明を表示している。
410a、411a、412aは、撮影した現時点の画像から算出した値のグラフを示している。また、410b、411b、412bは、過去の実測値や過去に算出した値を蓄積して統計処理してモデル化したグラフ(生育モデル)を示している。これらのグラフにより、撮影された画像から算出した値が、モデル化したグラフに対して順調に沿っている(差分が小さい)か、ズレているかを容易に比較、判断することが可能になっている。
図5、図6はそれぞれ図4のグラフ表示からメニュー選択等により切り替えられる表示画面の例をそれぞれ示す図である。図5、図6の413は現時点において行うことが推奨される農作業について強調表示したガイドである。図5の表示例においては「現在、分げつ期です、追肥をしてください。」と表示し、図6の表示例においては、「現在、整粒歩合75%です。収穫して下さい。」と表示している。
414は生育ステージがどのステージであるかを表示するための表示領域であり、415は主要な3つの生育指標データとしての葉色、茎数、草丈を数字表示するための表示領域である。この例では3つの生育指標データだけが表示されているが、例えばプルダウンメニュー等によってその他の生育指標データを表示できるようにしても良い。
なお、実施例では、例えばこれらの数字をユーザが適宜修正できるように構成されている。416は環境情報データを数値表示するための表示領域である。
この実施例では、環境情報データとして記憶、湿度、圃場の水位、圃場の水温、圃場の土壌のPh、照度、風速などが表示されているが、例えばプルダウンメニュー等によってその他の環境情報データを表示できるようにしても良い。417は画面上に表示されている数値を修正するためのモードに切り替えるボタンであり、このボタンをクリックまたはタッチすると画面上に表示されている数値を修正するための修正モードに切り替わる。ここでボタン417は表示データ生成手段によって生成された表示データの一部をユーザ入力により修正するための修正手段として機能している。
修正モードにおいては、領域415や416に表示された数値を変更できる。変更後に、再びボタン417をクリックまたはタッチすると修正モードから通常モードに切換わる。418はグラフと共に表示される圃場の画像または農作物の画像であり、少なくとも一方の画像を表示できる。419は移動可能なマーカ線であり、デフォルトではグラフ上の現在の日時の位置に表示されるが、これをマウスやタッチによって移動することもできる。
例えば、強風や天候状況などによって茎が曲がったり、倒れていたりする場合に、撮影画像からは適切な草丈が得られないことがある。この修正モードにおいて、手動で測定した値や姿勢を直して撮影して測定しなおした値を入れ直すことが可能になる。環境情報についても環境情報センサの故障等の場合に測り直した測定値や正常なセンサからの値を入力し後から修正することが可能になる。
このように、画像認識の結果、誤ったデータが取得された場合には、ユーザが修正することによって、生育過程のグラフ等をそれに応じて自動的に修正することができる。そして、生育過程のグラフ等の精度が落ちないようにすることが出来る。
図4において、マーカ線419を移動すると402の領域の日付表示がそれに応じて変化する。また、マーカ線419の移動後にメニュー選択で表示画面を図5、図6のように切り替えると、414〜416の表示領域の表示内容や、418の画像もその日時に合わせたものに変化する。
なお、以上の例では、図4の生育課程のグラフと、図5や図6の圃場の画像と各指標値の表示等を別の表示画面としたが、図4と図5、または図4と図6を同一画面上に表示するようにしても良い。
或いは、例えば、生育過程のグラフと共に、所定の日時における生育指標データと環境情報データの少なくとも一方を、農作物の種別と共に表示させるようにしても良い。
このように、本実施例では、契約ユーザは圃場から取得した農作物の画像や環境情報データ等にもとづき農作物の生育過程がグラフによって速やかに理解できる。そして、圃場に行かなくても、また農業の初心者であっても、現時点でどのような農作業を行うべきかが速やかかつ容易にわかる。
次に図7、図8は前述のペアリングの方法の例を示すフローチャートであり、図9はそのような関連付けをしたテーブルの例を示す図である。
図7において、ステップS700において情報端末109の電源をONし、ステップS701において、対応付けを行うためのアプリケーションを起動する。ステップS702において、ユーザIDを登録し、ステップS703において、GPS位置情報を取得し、ステップS704で例えば付属のカメラやスマートフォンのカメラ等で複数のセンサデバイス102のQRコード(登録商標)を撮影する。
ステップS705において、撮影された複数のセンサデバイス102のIDが登録されて画面に表示される。ステップS706において、付属のカメラやスマートフォンのカメラ等でネットワークカメラ101のQRコード(登録商標)を撮影し、ステップS707において、ネットワークカメラ101のIDが登録されて画面に表示される。ステップS708において、情報端末109が取得したGPSの位置情報と複数のセンサデバイス102のIDとネットワークカメラ101のIDとが合わせて制御サーバ104に送られる。
ステップS709において、初期設定動作を終了すし、図8のステップS710に進む。ステップS710において、制御サーバ104は、登録されたユーザIDと情報端末109が取得したGPS位置情報とネットワークカメラの101のIDと複数のセンサデバイス102のIDをテーブル化して保存する。ここで図9(A)はそのような関連付けをしたテーブルの例を示す図である。図9(A)においてはユーザID、情報端末ID、センサデバイスのGPS位置情報、センサデバイスID、ネットワークカメラIDを関連付けたテーブルの例を示している。
このテーブルの例では、ユーザIDのみが異なり、他の情報が同じ例が示されている。ここで各ユーザIDは図9(B)に示すように、異なるサービスプランに加入している。図9(B)では、ユーザID(0001)は圃場の画像をモニタリングするだけのプランに加入しており、ユーザID(0002)は蓄積された生育データを一括でダウンロードできるプランに加入している。ここで、図9(B)のようなユーザIDとサービスプランの対応を示すテーブルは例えばサービス提供管理サーバ107に保存されている。
ステップS710の次にステップS711に進み図3のフローチャートに示されるフローを実行する。アプリケーションサーバ106はステップS712において、ユーザがアプリケーションサーバにログインしたことを検出し、ステップS713において、ログイン情報に元にサービス提供管理サーバ107にそのユーザの受けられるサービス情報を問い合わせる。そしてステップS714において、制御サーバ104のステップS711の処理中に、制御サーバ104からサービスを提供するように指示が来たらステップS714の処理を実行する。
即ち、ステップS714において、ステップS713での問い合わせの結果受領したサービス情報に応じた表示用データを生成するためのデータを、データ蓄積クラウドサーバ105に要求して取得する。ステップS715で必要なデータをデータ蓄積クラウドサーバ105から取得し、ステップS716で取得したデータに基づき表示用の画面データを生成する。
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
例えば以上の実施例では生育過程データを高い精度で得るために環境情報データを積するようにしているが、簡略化したシステムでは、環境情報データを蓄積しなくても良い。
そして、生育過程をグラフ化して表示するにあたり環境情報データを考慮せずに、画像から取得した生育指標データ(葉色、茎数、草丈等)に基づき、生育過程をグラフ化して表示するための表示データを生成しても良い。しかも、その際に、葉色、茎数、草丈だけを生育指標データとして用いて生育過程を表示するための表示データを生成しても良い。
また、実施例ではモデルクラウドサーバにおいて学習されたモデルデータを参照して生育過程データを生成しているが、簡易的に、予め用意した関数(テーブル)等によって生育過程データを生成するようにしてもよい。
なお、実施例においては、複数のサーバによって処理を分割して実行している。しかし、例えば制御サーバ104の中に、データ蓄積クラウドサーバ105やアプリケーションサーバ106や画像解析クラウドサーバ110、モデルクラウドサーバ111等の機能の一部または全部を内蔵しても良い。
更には、サービス提供管理サーバ107や課金決済サーバ108の機能も内蔵しても良い。あるいは、これらの7つのサーバ104〜108、110、111等の2つ以上を適宜統合してサーバの数を減らしても良い。
また、カメラで撮影する対象は農作物に限らず、例えば人間等を含む生物等であっても良い。
なお、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して情報処理装置を構成する各サーバ等のコンピュータに供給するようにしてもよい。そしてそのサーバにおけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
101 ネットワークカメラ
102 センサデバイス
103 ネットワーク
104 制御サーバ
105 データ蓄積クラウドサーバ
106 アプリケーションサーバ
109 情報端末
110 画像解析クラウドサーバ

Claims (36)

  1. 圃場における特定の農作物の画像を取得する画像取得手段と、
    前記圃場の環境に関する環境情報データを取得する環境情報取得手段と、
    前記画像取得手段によって取得された前記農作物の画像に基づき前記農作物の生育指標データを生成する指標データ生成手段と、
    前記指標データ生成手段によって生成された複数の日時の生育指標データと前記複数の日時の前記環境情報データを蓄積する蓄積手段と、
    前記蓄積手段に蓄積された前記複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生育過程を表示するための表示データを生成する表示データ生成手段と、
    を有することを特徴とする情報処理装置。
  2. 前記蓄積手段は前記複数の日時の農作物の画像も蓄積することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示データ生成手段は生育過程をグラフ化して表示するための表示データを生成することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記表示データ生成手段は、所定の日時における前記生育指標データと前記環境情報データの少なくとも一方を、前記生育過程及び前記農作物の種別と共に表示させるための表示データを生成することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記生育指標データは前記農作物の茎数に関するデータを含むことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記指標データ生成手段は、前記画像取得手段によって取得された前記農作物の画像に基づき、農作物の葉先の数をカウントすることを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記指標データ生成手段は、前記葉先の数に基づき前記農作物の茎数に関するデータを算出することを特徴とする請求項6に記載の情報処理装置。
  8. 前記生育指標データは、草丈に関するデータを含むことを特徴とする請求項7に記載の情報処理装置。
  9. 前記生育指標データは前記農作物の葉色に関するデータを含むことを特徴とする請求項8に記載の情報処理装置。
  10. 前記生育指標データは単位面積当たりの植被率、茎数に対する穂の出た茎の割合、黄色に変色した穂の割合、穂の数、1穂当たりの籾数、茎の傾き、茎の曲がりの程度の少なくとも1つに関するデータを含むことを特徴とする請求項1に記載の情報処理装置。
  11. 前記表示データ生成手段は、前記生育過程の表示データと共に、所定の日時における前記圃場の画像または前記農作物の画像の少なくとも一方を表示させるための表示データを生成することを特徴とする請求項1に記載の情報処理装置。
  12. 前記表示データ生成手段は前記生育過程の表示データと共に、収穫時期と単位面積当たりの収穫量の予想の少なくとも一方を表示するための表示データを生成することを特徴とする請求項1に記載の情報処理装置。
  13. 前記特定の農作物はイネ科の植物であることを特徴とする請求項1に記載の情報処理装置。
  14. 前記表示データ生成手段によって生成された表示データの一部をユーザ入力により修正するための修正手段を有することを特徴とする請求項1に記載の情報処理装置。
  15. 前記表示データ生成手段は、前記生育過程の表示データと共に、前記農作物の生育ステージに関する情報を表示させるための表示データを生成することを特徴とする請求項13または14に記載の情報処理装置。
  16. 前記指標データ生成手段は、前記蓄積手段に蓄積された複数の日時の生育指標データと前記環境情報データを生育モデルデータと比較することによって前記農作物の生育指標データを生成することを特徴とする請求項1〜15のいずれか1項に記載の情報処理装置。
  17. 前記画像取得手段は、前記圃場の所定位置の前記農作物を上から撮影した画像を取得することを特徴とする請求項1に記載の情報処理装置。
  18. 前記蓄積手段に蓄積された前記生育指標データと前記環境情報データを課金に応じて所定の端末に提供可能とするための課金決済手段を有することを特徴とする請求項1に記載の情報処理装置。
  19. 前記課金決済手段は、前記蓄積手段に蓄積された前記複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生成した生育過程に関するデータを課金に応じて前記所定の端末に提供可能にすることを特徴とする請求項18に記載の情報処理装置。
  20. 前記環境情報データは前記圃場の土壌の環境に関するデータを含むことを特徴とする請求項1に記載の情報処理装置。
  21. 前記土壌の環境は前記圃場の土壌の色、土壌の水分量、土壌中の所定の複数の化学物質の割合、土壌のph値の少なくとも1つに関するデータを含むことを特徴とする請求項20に記載の情報処理装置。
  22. 前記環境情報データは前記圃場の気象情報に関するデータを含むことを特徴とする請求項1に記載の情報処理装置。
  23. 前記環境情報データは、前記圃場の緯度経度に関するデータを含むとともに、標高、天気、降水量、降雨量、降雪量、気温、湿度、圃場の水位、圃場の水温、照度、日照時間、風速、気圧の少なくとも1つに関するデータを含むことを特徴とする請求項1に記載の情報処理装置。
  24. 前記蓄積手段は、前記農作物の画像に基づき生成された前記農作物の生育指標データを前記画像ファイルとリンクして記憶することを特徴とする請求項1〜23のいずれか1項に記載の情報処理装置。
  25. 前記蓄積手段は、前記農作物の画像に基づき生成された前記農作物の生育指標データをEXIF規格のフォーマットに従って前記画像ファイルのヘッダ領域に記憶することを特徴とする請求項24に記載の情報処理装置。
  26. 前記蓄積手段は、前記農作物の画像に基づき生成された前記農作物の生育指標データをWAGRI規格のデータプラットフォームのAPIフォーマットに従って記憶することを特徴とする請求項24に記載の情報処理装置。
  27. 前記画像取得手段は前記農作物の画像を撮影するネットワークカメラまたは測距可能なカメラを含むことを特徴とする請求項1に記載の情報処理装置。
  28. 前記環境情報取得手段は、前記圃場の環境を測定することによって前記環境情報データを生成するセンサデバイスを含むことを特徴とする請求項1に記載の情報処理装置。
  29. 圃場におけるイネ科の農作物の画像を取得する画像取得手段と、
    前記画像取得手段によって取得された前記農作物の画像に基づき前記農作物の葉色、茎数、草丈に関する指標データを生成する指標データ生成手段と、
    前記指標データ生成手段によって生成された複数の日時の生育指標データを蓄積する蓄積手段と、
    前記蓄積手段に蓄積された前記複数の日時の生育指標データに基づき前記農作物の生育ステージに関する情報を生成する生育ステージデータ生成手段と、
    を有することを特徴とする情報処理装置。
  30. 圃場における特定の農作物の画像を取得する画像取得手段と、
    前記圃場の環境に関する環境情報データを取得する環境情報取得手段と、
    前記画像取得手段によって取得された前記農作物の画像に基づき前記農作物の生育指標データを生成する指標データ生成手段と、
    前記指標データ生成手段によって生成された複数の日時の生育指標データと前記複数の日時の前記環境情報データを蓄積する蓄積手段と、
    前記蓄積手段に蓄積された前記生育指標データと前記環境情報データを課金に応じて所定の端末に提供するための課金決済手段と、
    を有することを特徴とする情報処理装置。
  31. 前記課金決済手段は、前記蓄積手段に蓄積された前記複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生成した生育過程に関するデータを課金に応じて前記所定の端末に提供可能とすることを特徴とする請求項30に記載の情報処理装置。
  32. 前記画像取得手段は前記農作物の画像を撮影するカメラを含むとともに、前記カメラはカメラ識別情報を有し、前記環境情報取得手段は、前記圃場の環境を測定することによって前記環境情報データを生成するセンサデバイスを含むとともに、前記センサデバイスはセンサ識別情報を有することを特徴とする請求項30または31に記載の情報処理装置。
  33. 請求項1〜32のいずれか1項に記載の前記情報処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
  34. 圃場における特定の農作物の画像を取得する画像取得ステップと、
    前記圃場の環境に関する環境情報データを取得する環境情報取得ステップと、
    前記画像取得ステップによって取得された前記農作物の画像に基づき前記農作物の生育指標データを生成する指標データ生成ステップと、
    前記指標データ生成ステップによって生成された複数の日時の生育指標データと前記複数の日時の前記環境情報データを蓄積する蓄積ステップと、
    前記蓄積ステップで蓄積された前記複数の日時の生育指標データと前記複数の日時の前記環境情報データに基づき生育過程を表示するための表示データを生成する表示データ生成ステップと、
    を有することを特徴とする情報処理方法。
  35. 圃場におけるイネ科の農作物の画像を取得する画像取得ステップと、
    前記画像取得ステップによって取得された前記農作物の画像に基づき前記農作物の葉色、茎数、草丈に関する指標データを生成する指標データ生成ステップと、
    前記指標データ生成ステップによって生成された複数の日時の生育指標データを蓄積する蓄積ステップと、
    前記蓄積ステップで蓄積された前記複数の日時の生育指標データに基づき前記農作物の生育ステージに関する情報を生成する生育ステージデータ生成ステップと、
    を有することを特徴とする情報処理方法。
  36. 圃場における特定の農作物の画像を取得する画像取得ステップと、
    前記圃場の環境に関する環境情報データを取得する環境情報取得ステップと、
    前記画像取得ステップによって取得された前記農作物の画像に基づき前記農作物の生育指標データを生成する指標データ生成ステップと、
    前記指標データ生成ステップによって生成された複数の日時の生育指標データと前記複数の日時の前記環境情報データを蓄積する蓄積ステップと、
    前記蓄積ステップで蓄積された前記生育指標データと前記環境情報データを課金に応じて所定の端末に提供するための課金決済ステップと、
    を有することを特徴とする情報処理方法。



JP2019228800A 2019-12-19 2019-12-19 情報処理装置、コンピュータプログラム及び情報処理方法 Pending JP2021096726A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019228800A JP2021096726A (ja) 2019-12-19 2019-12-19 情報処理装置、コンピュータプログラム及び情報処理方法
CN202080087141.5A CN114828619A (zh) 2019-12-19 2020-12-17 信息处理设备、计算机程序和信息处理方法
PCT/JP2020/047227 WO2021125285A1 (ja) 2019-12-19 2020-12-17 情報処理装置、コンピュータプログラム及び情報処理方法
US17/837,130 US20220304257A1 (en) 2019-12-19 2022-06-10 Information processing device, storage medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019228800A JP2021096726A (ja) 2019-12-19 2019-12-19 情報処理装置、コンピュータプログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2021096726A true JP2021096726A (ja) 2021-06-24
JP2021096726A5 JP2021096726A5 (ja) 2023-01-30

Family

ID=76431754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019228800A Pending JP2021096726A (ja) 2019-12-19 2019-12-19 情報処理装置、コンピュータプログラム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP2021096726A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113628186A (zh) * 2021-08-09 2021-11-09 海南青峰生物科技有限公司 一种基于5g通讯及图像识别的测量水稻穗数的系统
JP7128337B1 (ja) 2021-09-30 2022-08-30 損害保険ジャパン株式会社 モニタリング装置、モニタリング方法、モニタリングプログラム、および契約管理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113628186A (zh) * 2021-08-09 2021-11-09 海南青峰生物科技有限公司 一种基于5g通讯及图像识别的测量水稻穗数的系统
JP7128337B1 (ja) 2021-09-30 2022-08-30 損害保険ジャパン株式会社 モニタリング装置、モニタリング方法、モニタリングプログラム、および契約管理システム
JP2023050586A (ja) * 2021-09-30 2023-04-11 損害保険ジャパン株式会社 モニタリング装置、モニタリング方法、モニタリングプログラム、および契約管理システム

Similar Documents

Publication Publication Date Title
US8417534B2 (en) Automated location-based information recall
EP3351089B1 (en) Image evaluation method
CN106022553B (zh) 用于农业活动监控和培训的系统和方法
US20220304257A1 (en) Information processing device, storage medium, and information processing method
US20170042081A1 (en) Systems, methods and apparatuses associated with soil sampling
CN106105551A (zh) 作物损耗数据的感测和显示
CN111008733B (zh) 一种作物生长管控方法和系统
CN202696660U (zh) 一站式农业信息实时采集装置
CN109843034B (zh) 用于谷田的产量预测
WO2019106733A1 (ja) 生育状況または病害虫発生状況の予測システム、方法およびプログラム
JP2018029568A (ja) 萎れ具合予測システム及び萎れ具合予測方法
JP2021096726A (ja) 情報処理装置、コンピュータプログラム及び情報処理方法
JP6704148B1 (ja) 農作物の収穫量予測プログラム及び農作物の品質予測プログラム
CN110321774B (zh) 农作物灾情评估方法、装置、设备及计算机可读存储介质
CN103164777A (zh) 一种作物育种田间性状的调查方法
US20220076014A1 (en) Information processing device, and information processing system
CN103985056A (zh) Wsn农田自由分区农产品生产履历采集方法及系统
JP7081536B2 (ja) 作物の倒伏リスク診断に用いる生育パラメータの測定推奨スポット提示方法、倒伏リスク診断方法、および情報提供装置
CN112330149A (zh) 一种作物管理系统、方法、装置及电子设备
JP2014026378A (ja) 端末装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム
KR20180086776A (ko) 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기 및 이를 포함하는 식물 생육정보 분석 시스템
CN203149656U (zh) 单/双子叶杂草识别喷药管理装置
JP2021096724A (ja) 情報処理装置、コンピュータプログラム及び情報処理方法
KR20140039936A (ko) 대상물 정보제공시스템 및 대상물 정보제공장치와 대상물 정보제공방법
CN115797764A (zh) 一种应用于耕地非农化监测的遥感大数据解译方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625