JP2022119267A - 農業支援システム、移動体、及び農業支援方法 - Google Patents

農業支援システム、移動体、及び農業支援方法 Download PDF

Info

Publication number
JP2022119267A
JP2022119267A JP2021016256A JP2021016256A JP2022119267A JP 2022119267 A JP2022119267 A JP 2022119267A JP 2021016256 A JP2021016256 A JP 2021016256A JP 2021016256 A JP2021016256 A JP 2021016256A JP 2022119267 A JP2022119267 A JP 2022119267A
Authority
JP
Japan
Prior art keywords
farm
server
information
support system
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021016256A
Other languages
English (en)
Inventor
卓也 松永
Takuya Matsunaga
雄希 前田
Yuki Maeda
立至 今枝
Tatsushi Imaeda
明博 忠政
Akihiro Tadamasa
晃久 林
Akihisa Hayashi
直晃 西澤
Naoaki Nishizawa
和英 今井
Kazuhide Imai
信二 岡戸
Shinji Okado
拓夢 富岡
Takumu Tomioka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Channel Solutions Corp
Original Assignee
Hitachi Channel Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Channel Solutions Corp filed Critical Hitachi Channel Solutions Corp
Priority to JP2021016256A priority Critical patent/JP2022119267A/ja
Publication of JP2022119267A publication Critical patent/JP2022119267A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】農作業者の負担を軽減しつつ、農場や農作物に関する多様なデータを取得する。【解決手段】農業支援システムは、ネットワークを介して通信可能に接続された、農場内を自律移動する移動体と、サーバと、ユーザの端末とを含んで構成される。移動体は、農場内の通路に沿った移動体の自律移動を制御する制御装置と、移動体の周囲の情報を取得する情報取得装置と、情報取得装置によって取得された移動体の周囲の情報をサーバへ送信する通信部と、を有する。サーバは、移動体から受信した情報に基づいて農場で生育される農作物の状況又は農場の状況を解析する解析部と、農作物の状況又は農場の状況を端末へ送信する通信部と、を有する。端末は、サーバから受信した農作物の状況又は農場の状況を出力する。【選択図】図1

Description

本発明は、農業支援システム、移動体、及び農業支援方法に関する。
近年、農作業の省力化や効率化を図り、既存の農業従事者の作業負荷を軽減すると共に、新規就農者の参入を促して農業技術の継承につなげる試みとして、スマート農業の導入が進められている。スマート農業では、ロボット技術や情報通信技術を活用して、農作業の省力化や効率化等を実現する。
例えば特許文献1には、農場や農作業ロボット等に配置されたカメラやセンサによって取得されたデータをサーバで解析し、農作業者及び農作業ロボットの作業を支援するための情報を出力するシステムが開示されている。特許文献1によれば、農場内を移動する農作業ロボットによって取得された農場や農作物に関する様々なデータに基づいて、農作業者及び農作業ロボットによる農作業を支援できる。
特開2019-82765号公報
しかしながら上記従来技術では、農作業ロボットは、農場における農作業者の作業状況をカメラによって撮影することを目的とすることから、農作業者の後方等に位置して農作業者と共に移動する。このため、農作業ロボットが農場や農作物に関するデータを取得する際には、農作業者が農場で作業していることが前提であり、農作業者が作業していない間はデータを取得することができず、農作業者の負担を軽減できないという問題がある。
本発明は、上記を考慮してなされたものであり、農作業者の負担を軽減しつつ、農場や農作物に関する多様なデータを取得できるようにすることを目的とする。
上記課題を解決するために、本発明では、ネットワークを介して通信可能に接続された、農場内を自律移動する移動体と、サーバと、ユーザの端末とを含んで構成される農業支援システムであって、前記移動体は、前記農場内の通路に沿った前記移動体の自律移動を制御する制御装置と、前記移動体の周囲の情報を取得する情報取得装置と、前記情報取得装置によって取得された前記移動体の周囲の情報を前記サーバへ送信する通信部と、を有し、前記サーバは、前記移動体から受信した前記情報に基づいて前記農場で生育される農作物の状況又は前記農場の状況を解析する解析部と、前記農作物の状況又は前記農場の状況を前記端末へ送信する通信部と、を有し、前記端末は、前記サーバから受信した前記農作物の状況又は前記農場の状況を出力することを特徴とする。
本発明によれば、農作業者の負担を軽減しつつ、農場や農作物に関する多様なデータを取得できる。
農業支援システムの構成図。 ロボットの機能ブロック図。 ロボットの外観図。 ロボットが走行する農場の平面図。 ロボットが農場の畝間を走行する様子を示す図。 ロボットが農場の畝間を走行する際の農作物の認識を示す図。 ロボットの監視装置によって取得される取得情報を説明するための図。 ロボットの監視装置によって取得される取得情報のデータフォーマットを示す図。 ロボットの外部センサ及び内部センサによって取得される取得情報を説明するための図。 ロボットの外部センサ及び内部センサによって取得される取得情報のデータフォーマットを示す図。 サーバの機能ブロック図。 端末の機能ブロック図。 ロボットの農場巡回を中心とする処理を示すシーケンス図。 ロボットの自律走行処理を示すフローチャート。 ロボットのバッテリーチェック処理を示すフローチャート。 ロボットの業務遂行処理を中心とする処理を示すシーケンス図。 端末の待ち受け画面を示す図。 端末の生育状況表示画面を示す図。 端末の収穫可能数表示画面を示す図。 端末の収穫可能数表示画面の詳細表示を示す図。 端末の病害虫被害状況表示画面を示す図。 端末の病害虫被害状況表示画面の詳細表示を示す図。 端末の土中水分量表示画面を示す図。 端末のマルチシート剥がれ状況表示画面を示す図。 端末のロボット位置一覧表示画面を示す図。 端末のスケジュール表示画面を示す図。
以下、図面に基づいて本発明の実施形態を説明する。以下の実施形態の説明及び各図は一例に過ぎず、本発明を限定するものではない。図示の各要素の数は一例であり、単数として示す要素が複数であっても、複数として示す要素が単数であってもよい。以下の実施形態の各図において、同一符号は、同一あるいは類似の機能を備えた要素又は処理を示し、後出の説明が省略される。また、各実施形態及び各変形例は、本発明の技術思想の範囲内で整合するように一部又は全部を組合せることができる。
以下の実施形態では、農場は、田、畑、果樹園、牧草地といった農作物を植栽し、畝及び畝間等の通路や、農作物間の通路が整備されている。農場は、付帯設備(温室やビニルハウス等)を含んでもよい。また、農場は、家畜の放牧地や畜舎といった畜産物を生育する設備や場所も含んでもよい。
(農業支援システムSのシステム構成)
図1は、農業支援システムSの構成図である。農業支援システムSは、ネットワークNを介して接続されているロボット1、サーバ2、及び端末3を含んで構成される。サーバ2は、クラウド上のサーバでも、オンプレミスのサーバでも何れでもよい。充電ステーション4は、充電ステーション4で待機中、及び/又は、農場5(図4)内を走行中のロボット1に対して、有線又は無線で電力を供給する。
(ロボット1の構成)
図2は、ロボット1の機能ブロック図である。図3は、ロボット1の外観図である。ロボット1は、サーバ2及び端末3と連携して、農場5の監視作業を行う移動体であり、農業支援ロボットである。ロボット1は、制御装置11、監視装置12、外部センサ12a、内部センサ12b、通信部13、アンテナ13a、GNSS(Global Navigation Satellite System)部14、モータ15、駆動軸15a、駆動輪15b、電源部16、及びバッテリ16aを含んで構成される。監視装置12、外部センサ12a、及び内部センサ12bを、情報取得装置と総称する。
ロボット1は、図3に例示するように、監視装置12、及び、一対の駆動軸15aのそれぞれの回転が伝達される一対の駆動輪15bを有する。ロボット1は、一対の駆動輪15bを独立に同方向及び逆方向に適切に回転制御されることで、前進、後退、ターン、カーブ走行、進行方向調整、障害物回避、停止等を行う。ロボット1は、各種センサでのセンサ情報取得といった農場及び農作物の監視を行うと共に、駆動輪15bでの踏みつけによる防草を行う。ロボット1は、この例に限らず、複数対の駆動輪や、クローラーを用いてもよい。
図2の説明に戻る。制御装置11は、マイクロプロセッサ等の演算処理装置であり、ロボット1の全体制御を行う。制御装置11は、外部センサ12aによって取得された外部センサデータ、又は、内部センサ12bによって取得された内部センサデータに基づいてモータ15を制御し、駆動軸15aを駆動する。
制御装置11は、監視装置12によって取得された監視データ、外部センサ12aによって取得された外部センサデータ、及び、内部センサ12bによって取得された内部センサデータを、必要に応じてエッジ処理してもよい。エッジ処理は、解析、データ圧縮、又はデータ削減である。例えば、制御装置11は、農作物の生育状況、病害虫被害、鳥獣被害、盗難被害等に該当する画像を画像認識により選別し、選別した画像のみをサーバ2へ送信する。制御装置11は、選別しなかった画像を破棄してもよい。
また、制御装置11は、監視装置12によって取得された監視データ(監視画像)を、畝間52の認識に用い、畝間52(図4)の自律走行の際の補助情報としてもよい。
また、制御装置11は、時刻、時間の計測や、割り込み処理を実行するためのタイマ111を含む。
監視装置12は、ロボット1の周辺の監視画像(監視データ)を取得するカメラ等である。監視装置12の取得情報の詳細については、図7Aを参照して後述する。
外部センサ12aは、ロボット1の外部の情報(外部センサデータ)を取得するセンサであり、深度センサ(LiDAR(Light Detection And Ranging)センサ、LADAR(Laser Detection And Ranging)センサ、ToF(Time of Flight)、ステレオカメラ等)、超音波センサ、近接センサ(赤外線センサ、磁気センサ等)、熱センサ(遠赤外線センサ等)、温度センサ、湿度センサ、CO濃度等の気体センサ、及び、照度センサ、を含む。外部センサ12aの取得情報の詳細については、図8Aを参照して後述する。
内部センサ12bは、ロボット1の自律移動の制御に用いる情報(内部センサデータ)を取得するセンサであり、ジャイロセンサ、加速度センサ、磁気センサ、温度センサ、電源電圧センサ、バッテリ残量センサ等を含む。内部センサ12bの取得情報の詳細については、図8Aを参照して後述する。
通信部13は、アンテナ13aを介して、外部のコンピュータ(サーバ2等)と無線通信したり、GNSS部14が自己位置情報を推定するために他のロボットや基地局と通信を行ったりするための通信インターフェースである。
GNSS部14は、測位衛星からロボット1の自己位置情報を取得する。GNSS部14は、自己位置推定機能の一例である。自己位置推定機能は、測位衛星から取得した自己位置情報と、監視装置12、外部センサ12a、及び内部センサ12bの取得情報のうちの少なくとも何れかに基づく畝間認識や、ロボット1の機体傾き等の情報とを併用し、また、他のロボットや基地局の情報があれば併用して、ロボット1の現在位置を推定する。
モータ15は、制御装置11の司令に従って駆動軸15aを駆動して駆動輪15bを回転させる。
電源部16は、ロボット1を動作させるために、ロボット1の制御装置11及び各部に対して、バッテリ16aに蓄電された電力を供給する。バッテリ16aは、有線又は無線によって充電ステーション4から供給された電力を蓄電する。
図4は、ロボット1が走行する農場5の平面図である。本実施形態では、1つの農場5に対して1台のロボット1が監視を担当するとする。しかし、これに限らず、1つの農場5に対して、複数台のロボット1がエリアを分割して監視を担当してもよい。あるいは、1つの農場5に対して、収集データ又は機能が異なる複数台のロボット1が監視を担当してもよい。
農場5は、ロボット1のホームポジションとなる充電ステーション4、農作物が植栽される畝51、及び畝間52を有する。果樹園などの様に畝51が無く農作物の間に通路がある場合もある。畝51は、土壌が剥き出しの場合や、農作物や土壌の保護等のためのマルチシートや不織布、刈り取った植物などで覆われている場合がある。
畝51及び畝間52は、トラクタ等を使って整備され、畝間52をロボット1が走行可能である。本実施形態では、隣接する畝51の間を畝間52とする。ロボット1は、1回の巡回走行において、図4に矢印で順路を示すように、充電ステーション4を出発し、農作物に乗り上げないように農作物の間や、畝51に乗り上げないように畝間52を通路としてデータ収集しながら走行する。ロボット1は、畝51の端部を検出するとターンして隣の畝51へ移って畝間52をデータ収集しながら走行することを繰り返し、最後に充電ステーション4に戻る。
図5は、ロボット1が農場5の畝間52を走行する様子を示す図である。図6は、ロボット1が農場5の畝間52を走行する際の農作物の認識を示す図である。ロボット1は、畝51に植栽されている農作物を、例えば図6に示す矩形領域のように画像認識する。サーバ2は、ロボット1で認識された画像の解析により、農場の状況監視(農作物の生育状況や病害虫被害、鳥獣被害、盗難被害等)を検知し、端末3のユーザへ任意の時間に、またはリアルタイムで通知される。
(ロボット1によって取得される取得情報)
図7A及び図7Bを参照して、ロボット1の監視装置12によって取得される取得情報を説明する。図7Aは、ロボット1の監視装置12によって取得される取得情報を説明するための図である。図7Bは、ロボット1の監視装置12によって取得される取得情報のデータフォーマットを示す図である。
監視装置12は、1又は複数のスチルカメラ及び/又はビデオカメラを含んで構成される。監視装置12によって取得されるロボット1の周辺の監視画像には、畝51に植栽されている農作物、畝間52を走行するロボット1の走行を妨害する障害物、及び、畝51の各画像(静止画像及び/又は動画像)が含まれる。
農作物の画像に基づく取得情報は、農作物の種類、大きさ(生育状況)、茎や葉の色、病害虫の有無や種類等である。障害物の画像に基づく取得情報は、畝間52に存在する雑草や石等の情報である。雑草は、踏み潰しによる防草対象として認識される。石は、衝突回避対象として認識される。農作物の茎や枝葉も認識される。畝51の画像に基づく取得情報は、畝51の形状、及び、畝51に張られているマルチシートや不織布の状態である。
農作物の画像、障害物の画像、及び畝51の画像に対するリンク情報(対応付けられる情報)は、取得時の位置情報、時刻、ロボット1の方向、ロボット1の傾き、及び取得した高さの情報である。ロボット1の位置情報は、グローバルな位置情報でも、農場5の識別情報と共に示すローカルな位置情報でもよい。
農作物の画像、障害物の画像、及び畝51の画像は、静止画像である場合には図7B(a)に例示するような監視データ1201として、ロボット1からサーバ2へ送信される。また、農作物の画像、障害物の画像、及び畝51の画像は、動画像である場合には図7B(b)に例示するような監視データ1202として、ロボット1からサーバ2へ送信される。サーバ2は、画像データに基づいて、農場5の農作物の生育状態や畝間52の障害物や畝51上のマルチシートや不織布の状態等を解析する。
農作物の画像の連携情報は、天気予報や外部センサ12aの取得情報である。農作物の画像の利用例として、農作物の画像から種類を判別し、生育状況を解析し、端末3を介して生育状況解析結果をユーザに通知したり、リンク情報や連携情報を用いて端末3の農場マップ上で生育状況を可視化したりする例がある。生育状況の解析は、サーバ2によって行われるが、ロボット1の制御装置11のエッジ処理によって行われてもよい。
障害物の画像の連携情報は、外部センサ12aの取得情報である。障害物の画像の利用例として、障害物の画像の取得情報から障害物の種類を判別し、障害物回避の制御が行われたり、対処不可の場合に端末3を介してユーザに通知したりする例がある。障害物の種類の判別は、サーバ2によって行われるが、ロボット1の制御装置11のエッジ処理によって行われてもよい。
畝51の画像の連携情報は、気象予報などである。畝51の画像の利用例として、畝51の画像の取得情報から、畝51の崩れやマルチシートや不織布の破れや剥がれを検出し、端末3を介してユーザに通知する例がある。さらに、予報される気温の低下等と共に端末3を介してユーザに通知する例がある。畝51の崩れやマルチシートや不織布の破れや剥がれの画像認識は、サーバ2によって行われるが、ロボット1の制御装置11のエッジ処理によって行われてもよい。
図8A及び図8Bを参照して、ロボット1の外部センサ12a及び内部センサ12bによって取得される取得情報を説明する。図8Aは、ロボット1の外部センサ12a及び内部センサ12bによって取得される取得情報を説明するための図である。図8Bは、ロボット1の外部センサ12a及び内部センサ12bによって取得される取得情報のデータフォーマットを示す図である。
外部センサ12aは、深度センサ、超音波センサ、近接センサ、熱センサ、温度センサ、湿度センサ、気温センサ、及び照度センサを含む。深度センサ、超音波センサ、及び近接センサの取得情報は距離情報であり、例えば畝51との距離や、障害物との距離である。
距離情報に対するリンク情報は、取得時の位置情報、時刻、ロボット1の方向、ロボット1の傾き、及び取得した高さの情報である。
距離情報の連携情報(連携対象)は、モータ15である。距離情報の利用例として、距離情報をモータ15の制御にフィードバックし、畝51や障害物にぶつからないよう畝間52を走行し、雑草を踏み潰すよう走行するようにロボット1を制御する例がある。
熱センサは、ロボット1の近傍の発熱体を検知する。温度センサは、農場5の気温を検知する。湿度センサは、農場5の湿度を検知する。気体センサは、農場5の気体(農作物の生育に関係する例えばCO等)の濃度を検知する。照度センサは、農場5の照度を検知する。
例えば、気温、湿度、及び照度は、図8B(a)に例示するような外部センサデータ1211として、ロボット1からサーバ2へ送信される。外部センサデータ1211に含まれる発熱体、気温、湿度、気体の濃度、照度といった環境情報は、適宜選択される。サーバ2は、外部センサデータ1211に基づいて、農場5の環境状態を解析する。
近傍の発熱体に対するリンク情報は、取得時の位置情報及び時刻である。近傍の発熱体の連携情報(連携対象)は、監視装置12及びモータ15である。近傍の発熱体の利用例として、監視装置12で、熱センサにより検知された発熱体を詳細に確認したり、熱センサにより検知された人や動物等の障害物を検出し回避しながら走行したりする例がある。
農場5の気温、農場5の湿度、農場5の気体の濃度、及び農場5の照度に対するリンク情報は、取得時の位置情報及び時刻である。農場5の気温、農場5の湿度、農場5の気体の濃度、及び農場5の照度の利用例として、生育状況の解析結果と連動し、生育状況と共に端末3を介してユーザに通知される例がある。
内部センサ12bは、ジャイロセンサ、加速度センサ、磁気センサ、内部温度センサ、及びその他センサを含む。ジャイロセンサの取得情報は、ロボット1の傾きである。加速度センサの取得情報は、ロボット1の速度や移動方向である。磁気センサの取得情報は、地磁気やロボット1の方向である。内部温度センサの取得情報は、ロボット1の内部温度である。その他センサの取得情報は、ロボット1の電源電圧やバッテリ16aの残量等である。
ロボット1の傾き、ロボット1の移動方向や速度、及び地磁気やロボット1の方向に対するリンク情報は、取得時の位置情報である。ロボット1の内部温度及びロボット1の電源電圧やバッテリ16aの残量等に対するリンク情報は、取得時刻である。これらの取得情報の連携情報は、モータ15である。
ロボット1の傾き、ロボット1の移動方向や速度、及び地磁気やロボット1の方向の利用例としては、農作物や障害物や畝51の側面への乗り上げを検知し、モータ15の制御へフィードバックし乗り上げを解消し、また、畝51に完全に乗り上げることを防ぐ例がある。ロボット1の内部温度の利用例としては、異常な温度の場合にロボット1を停止させる例がある。ロボット1の電源電圧やバッテリ16aの残量等の利用例としては、電源状況の監視を行い、バッテリ16aの残量が少なくなった場合に充電ステーション4に戻る例がある。
さらに、例えば、ロボット1の内部温度、電源電圧、及びバッテリ残量は、図8B(b)に例示するような内部センサデータ1221として、ロボット1からサーバ2へ送信される。サーバ2は、内部センサデータ1221に基づいて、ロボット1の停止等の遠隔制御を行うこともできる。
(サーバ2の構成)
図9は、サーバ2の機能ブロック図である。サーバ2は、管理対象の農場5の全てのロボット1及び端末3と連携して、監視データ1201、1202(図7B)に基づいて農場5の農作物の生育状況を解析する。また、サーバ2は、外部センサデータ1211(図8B(a))に基づいて農場5の環境を管理する。また、サーバ2は、内部センサデータ1221(図8B(b))に基づいてロボット1の状態を管理する。
サーバ2は、プロセッサ21、ストレージ22、メモリ23、入出力部24、及び通信部25を含んで構成される。プロセッサ21は、CPU(Central Processing Unit)等の演算処理装置である。サーバ2は、ロボット1及び端末3と連携し、ロボット1を制御し、ロボット1が取得した各種データの解析結果をユーザの端末3に提供するための農業支援プログラムを、プロセッサ21とメモリ23の協働により実行する。
プロセッサ21は、ロボット制御部211、データ取得部212、及び解析部213を有する。ロボット制御部211は、予め定められたスケジュール又は端末3を介したユーザ指示に応じて、ロボット1を起動し、データ収集等を行うべく農場5を自律走行させる制御を行う。自律走行に限らず、自律歩行等の移動方法であってもよい。予め定められたスケジュールは、ストレージ22に格納されている、又は、外部から入力される。ロボット制御部211は、ロボット1が走行した経路及び時刻を記録する。
データ取得部212は、ロボット1から送信された監視データ1201、1202、外部センサデータ1211、及び内部センサデータ1221を受信し、蓄積データ222としてストレージ22に格納する。解析部213は、データ取得部212によって取得された監視データ1201、1202、及び外部センサデータ1211に基づいて、農場5の農作物の生育状態や、農場5の環境状況を解析する。解析部213は、解析結果を、解析データ223としてストレージ22に格納する。また、解析部213は、農作物の状況及び農場の状況を端末3の入出力部34の表示画面に表示するための表示データを生成する。この表示データは、通信部25を介して端末3へ送信される。
ストレージ22は、補助記憶装置であり、農場マップ221、蓄積データ222、及び解析データ223を格納する。農場マップ221は、ロボット1が走行する農場5毎の地図情報(図4)である。農場5の地図情報は、人的作業により予め作成されたデータであってもよいし、航空写真から作成されたデータであってもよいし、ロボット1が農場5を初期走行した際の収集データ(農場5、畝51及び畝間52の距離情報等)に基づいて自動作成されたデータであってもよい。
蓄積データ222は、データ取得部212によって取得された監視データ1201、1202及び外部センサデータ1211を農場5毎の時系列で蓄積したデータである。解析データ223は、データ取得部212によって取得された監視データ1201、1202、及び外部センサデータ1211を解析した解析結果の時系列データである。
入出力部24は、キーボード等の入力装置及びディスプレイ等の出力装置を含む。通信部25は、サーバ2がネットワークNに有線又は無線で接続し、ロボット1及び端末3と通信を行うためのインターフェースである。
(端末3の構成)
図10は、端末3の機能ブロック図である。端末3は、農業支援システムSを利用して農場5での農業を行うユーザの端末であり、例えばタッチパネルを備えたタブレット端末、スマートフォン、あるいはパーソナルコンピュータ等である。ユーザは、端末3がネットワークNに接続できる限り、場所を問わず、農業支援システムSを利用できる。
端末3は、プロセッサ31、ストレージ32、メモリ33、入出力部34、及び通信部35を含んで構成される。端末3は、ロボット1及びサーバ2と連携して農業支援サービスをユーザに提供するための農業支援アプリケーションを、プロセッサ31とメモリ33の協働により実行する。
プロセッサ31は、取得部311、データ要求部312、及びロボット操作受付部313を有する。取得部311は、サーバ2からプッシュ通知で送信された、端末3のユーザが管理する農場5毎の農作物の生育状況や農場5の環境状況を取得し、解析結果321として入出力部34の表示画面に画面表示すると共に、ストレージ32に格納する。
データ要求部312は、解析結果321を閲覧したユーザの要求に応じて、サーバ2に対して解析結果321の詳細情報(農作物、農場設備等)の要求を送信する。例えばユーザは、端末3の表示画面に表示された農場5の農作物の生育状況や農場5の環境状況に関する詳細情報の要求を端末3へ入力する。データ要求部312は、詳細情報の要求を、サーバ2へ送信する。サーバ2は、要求された詳細情報を端末3へ応答する。サーバ2は、要求された詳細情報を保持しない場合は、目的の詳細情報を取得するようにロボット1を制御して移動させて必要情報を収集させ、収集情報を解析することで、詳細情報を端末3へ応答する。
ロボット操作受付部313は、予め定められたスケジュール外にロボット1を動作させて農場5の農作物や農場設備等の状況を確認するべく端末3へ入力されたユーザ要求をサーバ2へ送信する。つまり、ユーザは、端末3及びサーバ2を介して、任意のタイミングでロボット1を動作させて、目的業務を遂行させることができる。
ストレージ32は、補助記憶装置であり、解析結果321を格納する。入出力部34は、キーボード等の入力装置及びディスプレイ等の出力装置を含む。通信部35は、端末3がネットワークNに無線又は有線で接続し、ロボット1及びサーバ2と通信を行うためのインターフェースである。
(ロボット1の農場5内の農場巡回処理)
図11は、ロボット1の農場巡回を中心とする処理を示すシーケンス図である。農場巡回処理は、定期的又は端末3を操作するユーザの指示に応じて実行される。
先ずS201では、サーバ2(ロボット制御部211)は、ロボット1に対して起動指示を送信する。S101では、充電ステーション4で待機中のロボット1(制御装置11)は、S201の起動指示に応じて起動する。
次にS102では、ロボット1(制御装置11)は、ロボット1の動作チェックを行う。次にS103では、ロボット1(制御装置11)は、ロボット1の動作チェック結果を、サーバ2へ送信する。
S202では、サーバ2(ロボット制御部211)は、動作チェック結果を受信する。次にS203では、サーバ2(ロボット制御部211)は、S202で動作異常検出を受信した場合(S203Yes)に動作異常を端末3へ送信する。S301では、端末3(取得部311)は、動作異常を受信し、入出力部34の表示画面に表示する。S204が終了すると、サーバ2(ロボット制御部211)は、S211へ処理を移す。
一方、サーバ2(ロボット制御部211)は、S202で動作正常を受信した場合(S203No)にS205へ処理を移す。S205では、サーバ2(ロボット制御部211)は、農場マップ221を読み出し、予め定められたスケジュール(不図示)及び目的に従って、ロボット1が農場5内を定期巡回するルートを探索し、決定する。S206では、サーバ2(ロボット制御部211)は、S205で決定したルートデータをロボット1へ送信する。
S104では、ロボット1(制御装置11)は、サーバ2からルートデータを受信する。次にS105では、ロボット1(制御装置11)は、ルートデータに従って農場5内を自律走行し、監視装置12、外部センサ12a、及び内部センサ12bを使ってデータ収集する。監視装置12、外部センサ12a、及び内部センサ12bを使ったデータ収集の際に、端末3からのユーザ操作の割り込みを受け付けて、予め定められた動作以外の動作を行ってもよい。例えば、農作物の画像を取得する際に、予め定められた撮影方向の他、ユーザ操作の割り込みで指定された撮影方向からも農作物の画像を取得する等である。
そして、ロボット1(制御装置11)は、必要に応じてエッジ処理(収集したデータのデータ圧縮及び削減、あるいはロボット1側での解析処理)を行い、処理後のデータをサーバ2へ送信する。データ圧縮及び削減により、ロボット1からサーバ2への送信データ量を削減する。なお、農場5内で複数のロボット1が稼働する場合、複数のロボット1がエッジ側での解析処理を分散協調処理してもよい。
S207では、サーバ2(データ取得部212)は、S105で送信されたデータをロボット1から受信し、蓄積データ222としてストレージ22に蓄積する。そして、サーバ2(解析部213)は、受信したデータを解析し、解析データ223をストレージ22に蓄積する。
次にS208では、サーバ2(解析部213)は、S207で解析した解析データ223から農場5の異常(農作物や、農場設備、農場環境のトラブル)を検出したか否かを判定する。サーバ2(解析部213)は、農場5の異常を検出した場合(S208Yes)に農場異常報告を端末3へ送信する(S209)。ステップS302では、端末3(取得部311)は、動作異常報告を受信し、入出力部34の表示画面に表示する。S302の表示例は、図15~図20を参照して後述する。S209が終了すると、サーバ2(解析部213)は、S210へ処理を移す。
S210では、サーバ2(ロボット制御部211)は、ロボット1が農場5の終点(充電ステーション4)へ到着したか否かを判定する。サーバ2(ロボット制御部211)は、ロボット1が農場5の終点に到着した場合(S210Yes)に、終了指示をロボット1へ送信する(S211)。S106では、ロボット1(制御装置11)は、ロボット1の動作を終了する。一方、サーバ2(ロボット制御部211)は、ロボット1が農場5の終点に到着していない場合(S210No)に、ステップS207へ処理を移す。
(ロボット1の自律走行処理)
図12は、ロボット1の自律走行処理を示すフローチャートである。図12は、S105(図11)の自律走行の詳細処理である。ロボット1の自律走行には、データ収集及び防草を行う場合や、データ収集を行わず防草のみを行う場合がある。S111では、ロボット1(制御装置11)は、自律走行の際の機体制御に用いる自律走行用データを取得する。自律走行用データは、GNSS部14によって取得された自己位置情報、監視装置12、外部センサ12a、及び内部センサ12b等によって取得された各種の取得情報である。
次にS112では、ロボット1(制御装置11)は、GNSS部14によって取得された自己位置情報、監視装置12、外部センサ12a、及び内部センサ12bによる各種の取得情報を使って自己位置推定及びロボット1の周辺認識を実行する。次にS113では、ロボット1(制御装置11)は、S112で推定した自己位置、及び、認識した周辺環境に基づいて、ルートデータ上を走行する進路を計画する。次にS114では、ロボット1(制御装置11)は、ロボット1がS113で計画した進路を走行するようにモータ15を制御する。
(ロボット1のバッテリーチェック処理)
図13は、ロボット1のバッテリーチェック処理を示すフローチャートである。バッテリーチェック処理は、ロボット1の制御装置11のタイマ111によって定期的に割り込み実行される。
先ずS121では、制御装置11(タイマ111)は、バッテリ16aの残量が所定量以上の十分な量があるか否かを判定する。制御装置11(タイマ111)は、バッテリ16aの残量が十分でない場合(S121No)に、ロボット1は充電ステーション4に戻り(S122)、充電ステーション4からワイヤレス(あるいは有線でもよい)で電力の供給を受け、バッテリ16aを充電する(S123)。バッテリーチェック処理により、バッテリ16aが自動充電される。
(ロボット1の業務遂行処理)
図14は、ロボット1の業務遂行処理を中心とする処理を示すシーケンス図である。業務遂行処理は、端末3を操作するユーザによる、農場内で実施する業務の指定を含む指示に応じて実行される。なお、業務遂行処理においても、自律走行処理時と同様に、最初に、S101~S103、S201~S204、S301の一連の動作チェックが行われるが、ここでは説明を省略する。
業務遂行処理は、ユーザが、端末3に表示された農場5の農作物や設備の状況等を見て詳細を確認したい場合、あるいは、スケジュール外で農場5の農作物や設備の状況等を確認したい場合に、業務指示に応じて実行される。この業務指示には、農場5全体の巡回及びセンサ情報取得といった一般業務に限らず、農場5の特定箇所の農作物の詳細画像の取得、特定箇所の土中水分量の検知といった特定業務がある。
先ずS331では、端末3(ロボット操作受付部313)は、端末3へ入力されたユーザによる業務指示をサーバ2へ送信する。S231では、サーバ2(ロボット制御部211)は、S331で送信された業務指示を受信する。
次にS232では、サーバ2(ロボット制御部211)は、S231で受信した業務内容に応じたルート探索及び決定を、S205(図11)と同様に実行する。次にS233では、サーバ2(ロボット制御部211)は、ロボット1の業務指示及びS232で決定した農場5の移動のルートデータを、ロボット1へ送信する。
S131では、ロボット1(制御装置11)は、サーバ2から業務指示及びルートデータを受信する。次にS132は、ロボット1(制御装置11)は、S105(図11)と同様に、S131で受信した業務指示に従って自律走行、データ収集、データ解析、及び解析結果の送信を実行する。
S234では、サーバ2(データ取得部212)は、S132で送信されたデータをロボット1から受信し、蓄積データ222としてストレージ22に蓄積する。そして、サーバ2(解析部213)は、受信したデータを解析し、解析データ223をストレージ22に蓄積する。
次にS235では、サーバ2(解析部213)は、S234で解析した解析結果を端末3へ送信する。ステップS332では、端末3(取得部311)は、解析結果を受信し、入出力部34の表示画面に表示する。次にS333では、端末3(取得部311)は、業務終了か否かを判定し、業務終了の場合(S333Yes)にS334へ処理を移し、業務終了でない場合(S333No)にS331へ処理を移す。S334では、端末3(ロボット操作受付部313)は、端末3へ終了指示を送信する。
S236では、サーバ2(ロボット制御部211)は、終了指示を受信し、ロボット1へ転送する。
S133では、ロボット1(制御装置11)は、終了指示を受信し、ロボット1の動作を終了する(S134)。
なお、上記のロボット1の業務遂行処理の他、ユーザは、端末3を介して、ロボット1の監視装置12の取得画像を見ながらロボット1を直接操作できる。
(端末3の表示画面に表示される各画面)
以下、図15~図22を参照して、端末3で実行される農業アプリケーションが、ロボット1及びサーバ2と連携して表示する各画面について説明する。図15~図22に示す各図面は、生育不良の農作物や不織布及びマルチシート破れ等の異常を、検知時刻及び農場5内の発生位置情報をと共に記録しておき、端末3を介してユーザに可視化するためのものである。
(端末3の待ち受け画面34D1)
図15は、端末3の入出力部34の表示画面に表示される待ち受け画面34D1を示す図である。待ち受け画面34D1は、ホーム画面でもある。待ち受け画面34D1は、プルダウンメニュー34D11を備え、遷移先画面として「生育状況」、「収穫可能数」、「病害虫被害状況」、「土中水分量」、「マルチシート剥がれ状況」、「ロボット位置一覧」、「スケジュール」、「ホーム画面」等を選択できる。「ホーム画面」が選択されると、何れの画面からも待ち受け画面34D1へ画面遷移する。
待ち受け画面34D1は、日時表示と共に、取得データや解析結果に基づくプッシュ通知34D12を表示する。図15では、プッシュ通知34D12は、サーバ2で農場5の農作物の生育状況を解析した結果に基づいて、果実の収穫時期となり、約50個の果実が収穫可能となったことを、通知時刻と共に表示する。
(端末3の生育状況表示画面34D2)
待ち受け画面34D1のプルダウンメニュー34D11から「生育状況」を選択すると、図16に示すように端末3の表示画面に生育状況表示画面34D2が表示される。生育状況表示画面34D2では、農場5のマップ上に、農場5の方位表示と共に、農作物の生育状況の良否の解析結果を、カラースケール表示する。カラースケール表示とは、解析結果の各値を2色(例えば白及び黒)又は3色(例えば赤、緑、及び青)の基本色からなる画素値に変換し、農場5のマップ上におけるデータ分布を表現する表示方法である。
生育状況表示画面34D2は、拡大表示及び縮小表示が可能である。生育状況表示画面34D2から、農場5の農作物の生育状況の良否を、場所毎に認識できる。農作物の生育状況は、農作物の高さや、画像から判断できる農作物の繁茂状況を指標としてもよい。
(端末3の収穫可能数表示画面34D31)
待ち受け画面34D1のプルダウンメニュー34D11から「収穫可能数」を選択すると、図17Aに示すように端末3の表示画面に収穫可能数表示画面34D31が表示される。収穫可能数表示画面34D31では、農場5のマップ上に、例えば農作物の植栽位置毎に果実の収穫可能数の解析結果をカラースケール表示する。収穫可能数表示画面34D31は、拡大表示及び縮小表示が可能である。収穫可能数表示画面34D31から、農場5の農作物の果実の収穫可能数を、場所毎に認識できる。
ユーザが、収穫可能数表示画面34D31のうち詳細情報を参照したい箇所をタップすると、図17Bに示すように端末3の表示画面に収穫可能数表示画面34D31の詳細表示34D32が表示される。詳細表示34D32は、収穫可能な果実が識別可能なカラー画像を、「収穫最適数:3つ」という解説と共に表示する。詳細表示34D32は、死角となって見えない部分も補完して識別可能に表示する。図17Bでは、詳細表示34D32は、死角となって見えない果実も枠付き表示している。すなわち、サーバ2の解析部213は、農作物の状況及び農場5の状況における対象(図17Bの例では果実)の死角を補完する補完情報(図17Bの例では果実の枠線)を付加して、端末3の入出力部34の表示画面に表示するための表示データを生成する。補完情報は、例えば、複数アングルでの画像取得や、推論による画像認識によって作成できる。
(端末3の病害虫被害状況表示画面34D41)
待ち受け画面34D1のプルダウンメニュー34D11から「病害虫害被害状況」を選択すると、図18Aに示すように端末3の表示画面に病害虫被害状況表示画面34D41が表示される。病害虫被害状況表示画面34D41では、農場5のマップ上に、農作物の病害虫被害状況の解析結果をカラースケール表示する。病害虫被害状況表示画面34D41では、特に病害虫被害が深刻な箇所を丸囲み等で識別表示する。病害虫被害状況表示画面34D41は、拡大表示及び縮小表示が可能である。病害虫被害状況表示画面34D41から、農場5の農作物の病害虫の被害状況を、場所毎に認識できる。
ユーザが、病害虫被害状況表示画面34D41のうち詳細情報を参照したい箇所をタップすると、図18Bに示すように端末3の表示画面に病害虫被害状況表示画面34D41の詳細表示34D42が表示される。詳細表示34D42は、タップされた箇所において発生していると解析された病害虫の解説、及び、該当の病害虫の被害を被っている農作物の実際の画像を表示する。詳細表示34D42は、該当の病害虫の被害を軽減する農薬、肥料、農作物の品種等を紹介し、それらの購入サイトへのリンクボタンを表示する。このように、ユーザは、詳細表示34D42を見ながら、農場5に赴かなくても病害虫への対処を準備することができる。
(端末3の土中水分量表示画面34D51)
待ち受け画面34D1のプルダウンメニュー34D11から「土中水分量」を選択すると、図19に示すように端末3の表示画面に土中水分量表示画面34D51が表示される。土中水分量表示画面34D51では、農場5のマップ上に、畝51の土中水分量の解析結果をカラースケール表示する。土中水分量表示画面34D51は、拡大表示及び縮小表示が可能である。土中水分量表示画面34D51から、農場5の農作物の土中水分量を、場所毎に認識できる。
さらに図19に示すように、土中水分量表示画面34D51は、土中水分量が少ない箇所を識別表示し、「すぐに水やりをして下さい」という警告34D52を表示する。土中水分量表示画面34D51は、“土中水分量が少ない”という現状表示に限らない。例えば“土中水分量が少ない状況が2日続いている”という現状と、3日後までは降雨無しといった外部の気象予測とを連動させて、近い時間内に降雨が期待できず土中水分量が規定量を下回ることが予測され、警告34D52を表示する。逆に、土中水分量表示画面34D51は、現状の土中水分量は少ないが、天気予報から近い時間内に降雨が期待でき土中水分量が規定量を下回ることがないと予測される場合には、警告34D52を表示しない。
このように、サーバ2の解析部213は、農場5の農作物の生育状況や農場5の状況と、外部から取得される気象予報等の情報とを連携させて、将来の農場5の農作物の生育状況や農場5の状況を予測する。気象予報に基づき予測される将来の状況は、ある時間が経過後の農作物の生育状況、将来の収穫可能数量、将来の病害中被害、土中水分量、収穫時期、マルチシートや不織布の剥がれ(マルチシートや不織布が剥がれかけている上に強風が予測される場合)等である。
(端末3のマルチシート剥がれ状況表示画面34D61)
待ち受け画面34D1のプルダウンメニュー34D11から「マルチシート剥がれ状況」を選択すると、図20に示すように端末3の表示画面にマルチシート剥がれ状況表示画面34D61が表示される。マルチシート剥がれ状況表示画面34D61では、農場5のマップ上に、畝51のマルチシート剥がれ状況の解析結果をカラースケール表示する。マルチシート剥がれ状況表示画面34D61は、拡大表示及び縮小表示が可能である。マルチシート剥がれ状況表示画面34D61から、農場5のマルチシートの剥がれの異変の有無及び程度を、場所毎に認識できる。
さらに図20に示すように、マルチシート剥がれ状況表示画面34D61は、マルチシートの剥がれが著しい箇所を識別表示し、実際の状況を示す画像34D62を表示する。畝51に張られる不織布も同様である。マルチシート及び不織布は、農場5の設備の一例であり、マルチシート及び不織布の剥がれは、設備損傷の一例である。
(端末3のロボット位置一覧表示画面34D71)
待ち受け画面34D1のプルダウンメニュー34D11から「ロボット位置一覧」を選択すると、図21に示すように端末3の表示画面にロボット位置一覧表示画面34D71が表示される。ロボット位置一覧表示画面34D71では、農場5のマップ上に、端末3を所持しているユーザの農場内の現在位置表示34D72、農場5内を走行する複数のロボット1の現在位置表示34D73、34D74、34D75を表示する。現在位置表示34D73、34D74は該当のロボット1が正常動作していることを示し、現在位置表示34D75は該当のロボット1が故障していることを示す。
また、ロボット1の現在位置表示34D73、34D74、34D75と共に、各ロボット1の進路表示34D76、34D77、34D78を表示する。現在位置表示34D73、34D74、34D75、進路表示34D76、34D77、34D78は、リアルタイム更新される。ロボット位置一覧表示画面34D71は、拡大表示及び縮小表示が可能である。なお、ロボット位置一覧表示画面34D71は、生育状況表示画面34D2、収穫可能数表示画面34D31、病害虫被害状況表示画面34D41、土中水分量表示画面34D51、マルチシート剥がれ状況表示画面34D61といった農場5のマップを表示する画面にオーバーレイ表示してもよい。
(端末3のスケジュール編集画面34D8)
待ち受け画面34D1のプルダウンメニュー34D11から「スケジュール」を選択すると、図22に示すように端末3の表示画面にスケジュール編集画面34D8が表示される。スケジュール編集画面34D8では、ロボット1毎に稼働日及び走行ルートの管理及び設定を行うことができる。例えば図22中の「予約」表示は、走行ルートが設定され稼動が予約されていることを示す。また、図22中の「完了」表示は、「予約」された稼働日及び走行ルートで実際にロボット1が稼働し完了した場合に、「予約」表示から更新されて表示される。スケジュール編集画面34D8における各日の天気予報が表示されることから、端末3のユーザは、例えば雨の予報日を避けて晴れの予報日にロボット1の稼働日を設定することができる。また、このような天気予報と連動した稼働日の設定は、農業支援アプリケーションが自動で行ってもよい。
本実施形態では、ロボット1で収集したデータをサーバ2で解析して農場5の農作物の状況や農場の状況を端末3に表示する。よって、ユーザは、農場5に固定のセンサ類を設置しなくても、端末3を操作し、ロボット1を自律走行させるだけで、センサ情報に基づく農場管理を行うスマート農業を容易に実現できる。
また、本実施形態では、農場5は畝51及び畝間52が整備された農場、または農作物の間に通路が整備された農場であり、ロボット1は農作物の認識または畝間52の認識と自己位置推定とを併用して自律走行する。よって、農園5において畝51及び畝間52を整備するだけで、ロボット1を自律走行させ、センサ情報を収集することができ、スマート農業を容易に実現できる。
また、本実施形態では、ロボット1が収集したセンサ情報を、サーバ2へ送信する前に、ロボット1側で解析したりデータ圧縮又は削減したりするエッジ処理を行う。よって、サーバ2へ送信するデータを削減してトラフィックの負荷を軽減し、また、サーバ2側での解析処理の負荷を軽減できる。
また、本実施形態では、ロボット1は、自律走行の際、石等を障害物として認識して回避する一方で、雑草を回避不要な障害物と認識し回避しないので、雑草を踏み潰す防草を実施できる。また、畝51で生育されている農作物が生い茂って畝間52や通路へ溢出している枝葉や茎を農作物と認識し回避要否をサーバ2へ問い合わせることで、走行を継続できる。
また、本実施形態では、農作物の状況又は農場の状況を農場5の地図上に表示する。よって、農作物の状況や農場の状況が、農場5内における場所と共に一目瞭然となる。
また、本実施形態では、農作物の状況又は農場の状況を農場5の地図上にカラースケール表示する。よって、農作物の状況又は農場の状況のレベルを直感的に容易に把握できる。
また、本実施形態では、農作物の状況は、収穫時期、生育状況、収穫可能数量、又は病害虫被害状況であり、農場の状況は、土中水分量、設備損傷、又は農場内における自ロボット1とは異なる他のロボット1の位置情報である。よって、ユーザは、端末3の画面上で、これらの情報を容易に把握できる。
また、本実施形態では、農作物の状況及び農場の状況における対象の死角を補完する補完情報を付加して表示する。よって、農作物の状況及び農場の状況を示す画像のなかで死角になって見えづらい個所を分かりやすく表示できる。
また、本実施形態では、将来の農作物の生育状況又は農場の状況の予測結果を端末表示する。よって、ユーザに、将来発生する状況に対する事前準備を促すことができる。
また、本実施形態では、農作物の状況又は農場の状況の詳細情報を端末3に表示する。よって、端末3に表示される概要表示から、ユーザは、知りたい情報について詳細を把握することができる。
また、本実施形態では、サーバ2は、産物の状況又は農場の状況の詳細情報を保持していない場合に、ロボット1に農場5内を自律移動させて詳細情報を取得させて端末3に送信し、表示させる。よって、ユーザが知りたい情報を、オンデマンドで取得することができる。
また、本実施形態では、ザーバ2は、ユーザによって入力された操作指示、又は、予め定められた運行スケジュールに従ってロボット1を制御する。よって、ユーザは、スケジュール外でも、ロボット1を操作することができる。
また、本実施形態では、端末3でロボット1の運行スケジュールが編集可能である。よって、端末3のユーザは、天気予報や過去の稼働日等の情報を考慮してロボット1の稼働を自由に設定することができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、矛盾しない限りにおいて、ある実施形態の構成の一部を他の実施形態の構成で置き換え、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、又は分散をすることが可能である。また実施形態で示した構成及び処理は、処理効率又は実装効率に基づいて適宜分散又は統合することも可能である。
S:農業支援システム、1:ロボット、2:サーバ、3:端末、5:農場

Claims (15)

  1. ネットワークを介して通信可能に接続された、農場内を自律移動する移動体と、サーバと、ユーザの端末とを含んで構成される農業支援システムであって、
    前記移動体は、
    前記農場内の通路に沿った前記移動体の自律移動を制御する制御装置と、
    前記移動体の周囲の情報を取得する情報取得装置と、
    前記情報取得装置によって取得された前記移動体の周囲の情報を前記サーバへ送信する通信部と、を有し、
    前記サーバは、
    前記移動体から受信した前記情報に基づいて前記農場で生育される農作物の状況又は前記農場の状況を解析する解析部と、
    前記農作物の状況又は前記農場の状況を前記端末へ送信する通信部と、を有し、
    前記端末は、
    前記サーバから受信した前記農作物の状況又は前記農場の状況を出力する
    ことを特徴とする農業支援システム。
  2. 請求項1に記載の農業支援システムであって、
    前記農場は、前記農作物の間に前記通路が整備されており、または、畝と畝間に前記通路が整備されており、
    前記移動体において、
    前記制御装置は、前記情報に基づく前記農作物の認識または前記畝間の認識と、自己位置推定機能による自己位置推定結果とに基づいて、前記通路に沿った前記移動体の自律移動を制御する
    ことを特徴とする農業支援システム。
  3. 請求項1に記載の農業支援システムであって、
    前記移動体において、
    前記制御装置は、前記情報をエッジ処理して前記サーバへ送信する
    ことを特徴とする農業支援システム。
  4. 請求項1に記載の農業支援システムであって、
    前記移動体において、
    前記制御装置は、前記情報に基づいて前記通路上の障害物を認識し、前記移動体の自律移動の際、認識した障害物のうち、所定の障害物を回避するように前記移動体を制御する一方で、特定の障害物を回避しないように前記移動体を制御する
    ことを特徴とする農業支援システム。
  5. 請求項1に記載の農業支援システムであって、
    前記サーバにおいて、
    前記解析部は、前記農作物の状況又は前記農場の状況を前記農場の地図上に表示するための表示データを生成し、
    前記通信部は、前記表示データを前記端末へ送信し、
    前記端末は、
    前記サーバから受信した前記表示データに基づいて前記農場の地図上に前記農作物の状況又は前記農場の状況を表示する
    ことを特徴とする農業支援システム。
  6. 請求項5に記載の農業支援システムであって、
    前記サーバにおいて、
    前記解析部は、前記農作物の状況及び前記農場の状況を、前記農場の地図上にカラースケール表示するための前記表示データを生成する
    ことを特徴とする農業支援システム。
  7. 請求項5に記載の農業支援システムであって、
    前記農作物の状況は、収穫時期、生育状況、収穫可能数量、又は病害虫被害状況であり、
    前記農場の状況は、土中水分量、設備損傷、又は前記農場内における他の前記移動体の位置情報である
    ことを特徴とする農業支援システム。
  8. 請求項5に記載の農業支援システムであって、
    前記サーバにおいて、
    前記解析部は、前記農作物の状況及び前記農場の状況における対象の死角を補完する補完情報を付加して前記表示データを生成する
    ことを特徴とする農業支援システム。
  9. 請求項5に記載の農業支援システムであって、
    前記サーバにおいて、
    前記解析部は、前記移動体から受信した前記情報と、外部から取得した外部情報とを連携させて将来の前記農作物の生育状況又は前記農場の状況を予測し、予測結果を表示するための前記表示データを生成する
    ことを特徴とする農業支援システム。
  10. 請求項5に記載の農業支援システムであって、
    前記端末は、
    前記ユーザによって入力された前記農作物の状況又は前記農場の状況の詳細情報の要求を受け付け、
    前記要求を前記サーバへ送信し、
    前記サーバは、
    前記端末から前記要求を受信すると、該要求に該当する詳細情報を前記端末へ送信し、
    前記端末は、
    前記サーバから受信した詳細情報を表示する
    ことを特徴とする農業支援システム。
  11. 請求項10に記載の農業支援システムであって、
    前記サーバは、
    前記要求に該当する詳細情報を保持していない場合には、前記移動体を制御し、前記農場内を自律移動させて該詳細情報を取得させて前記サーバへ送信させ、
    前記移動体から受信した詳細情報を前記端末へ送信する
    ことを特徴とする農業支援システム。
  12. 請求項1に記載の農業支援システムであって、
    前記サーバは、
    前記ユーザによって前記端末から入力された操作指示、又は、予め定められたスケジュールに従って前記移動体を制御する移動体制御部を有する
    ことを特徴とする農業支援システム。
  13. 請求項12に記載の農業支援システムであって、
    前記端末は、
    前記ユーザによる前記スケジュールの入力を受け付け、入力された該スケジュールを前記サーバへ送信する
    ことを特徴とする農業支援システム。
  14. ネットワークを介してサーバと通信可能に接続され、農場内を自律移動する移動体であって、
    前記移動体の周囲の情報を取得する情報取得装置と、
    前記情報に基づく前記農場内の通路の認識と自己位置推定機能による自己位置推定結果とに基づいて、前記通路に沿った前記移動体の自律移動を制御する制御装置と、
    前記情報取得装置によって取得された前記移動体の周囲における前記農場の情報及び前記農場内で生育されている農作物の情報を前記サーバへ送信する通信部と
    を有することを特徴とする移動体。
  15. ネットワークを介して通信可能に接続された、農場内を自律移動する移動体と、サーバと、ユーザの端末とを含んで構成される農業支援システムが行う農業支援方法あって、
    前記移動体が、
    前記農場内の通路に沿った前記移動体の自律移動を制御し、
    前記移動体の周囲の情報を取得し、
    取得した前記移動体の周囲の情報を前記サーバへ送信し、
    前記サーバが、
    前記移動体から受信した前記情報に基づいて前記農場で生育される農作物の状況又は前記農場の状況を解析し、
    前記農作物の状況又は前記農場の状況を前記端末へ送信し、
    前記端末が、
    前記サーバから受信した前記農作物の状況又は前記農場の状況を出力する
    各処理を有することを特徴とする農業支援方法。
JP2021016256A 2021-02-04 2021-02-04 農業支援システム、移動体、及び農業支援方法 Pending JP2022119267A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021016256A JP2022119267A (ja) 2021-02-04 2021-02-04 農業支援システム、移動体、及び農業支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021016256A JP2022119267A (ja) 2021-02-04 2021-02-04 農業支援システム、移動体、及び農業支援方法

Publications (1)

Publication Number Publication Date
JP2022119267A true JP2022119267A (ja) 2022-08-17

Family

ID=82848435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016256A Pending JP2022119267A (ja) 2021-02-04 2021-02-04 農業支援システム、移動体、及び農業支援方法

Country Status (1)

Country Link
JP (1) JP2022119267A (ja)

Similar Documents

Publication Publication Date Title
US11666010B2 (en) Lawn monitoring and maintenance via a robotic vehicle
US10238026B2 (en) System for monitoring and controlling activities of at least one gardening tool within at least one activity zone
EP3826449B1 (en) Vehicle controllers for agricultural and industrial applications
US10402835B2 (en) Agricultural situational awareness tool
US20170082442A1 (en) Mission and path planning using images of crop wind damage
CA3132022C (en) Traveling path planning system and method of automatic harvester
WO2020206946A1 (zh) 自动收割机的倒伏行驶规划系统及其方法
US20210295230A1 (en) Assistance apparatus and assistance method
CN112956461A (zh) 一种基于图像识别的智能农业杀虫系统
KR102546183B1 (ko) 지능형 농장 관리 방법 및 시스템
Chatzisavvas et al. Autonomous Unmanned Ground Vehicle in Precision Agriculture–The VELOS project
JP2018183072A (ja) 牧草管理システム
US20240069545A1 (en) Operator directed autonomous system
CN110209154B (zh) 自动收割机的残留收割路径规划系统及其方法
JP2022119267A (ja) 農業支援システム、移動体、及び農業支援方法
CN113811903A (zh) 工作场所装备路径规划
KR20230051351A (ko) 스카우팅 드론과 오토로봇을 이용한 스마트 농업 시스템
JP2021193514A (ja) 作業車両の制御システム
JP7511410B2 (ja) 農作業支援システム
JP2016095811A (ja) 作業車両の移動システム
EP4350458A1 (en) Multi-machine collaboration method, scheduling device, and multi-machine collaboration system
WO2022264259A1 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
US20240142980A1 (en) Agronomy Data Utilization System And Method
WO2022264258A1 (ja) 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム
Tziridis et al. Information management and monitoring system for a grapes harvesting robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240814

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240910