JP2022185941A - Agricultural support system and movable body - Google Patents

Agricultural support system and movable body Download PDF

Info

Publication number
JP2022185941A
JP2022185941A JP2021093883A JP2021093883A JP2022185941A JP 2022185941 A JP2022185941 A JP 2022185941A JP 2021093883 A JP2021093883 A JP 2021093883A JP 2021093883 A JP2021093883 A JP 2021093883A JP 2022185941 A JP2022185941 A JP 2022185941A
Authority
JP
Japan
Prior art keywords
ridge
robot
ridges
moving body
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021093883A
Other languages
Japanese (ja)
Inventor
雄希 前田
Yuki Maeda
和英 今井
Kazuhide Imai
信二 岡戸
Shinji Okado
明博 忠政
Akihiro Tadamasa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Channel Solutions Corp
Original Assignee
Hitachi Channel Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Channel Solutions Corp filed Critical Hitachi Channel Solutions Corp
Priority to JP2021093883A priority Critical patent/JP2022185941A/en
Publication of JP2022185941A publication Critical patent/JP2022185941A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an agricultural support system and a movable body that when the movable body autonomously travels in a farm moves from a furrow to an adjacent furrow, are capable of reducing possibility of collapse of part of the furrow.SOLUTION: An agricultural support system includes a server and a robot that are configured to be communicable with each other, the robot being capable of traveling in a farm in which a plurality of row-like ridges and furrows are formed so as to be in parallel. The robot comprises a controller for controlling a motor so that the robot autonomously travels on a furrow. The controller is configured to control the motor so that the robot autonomously moves from one furrow to a furrow adjacent to the one furrow on the basis of results of detection on the left side and the right side of the mobile body.SELECTED DRAWING: Figure 19

Description

本発明は、農業支援システム及び移動体に関する。 The present invention relates to an agricultural support system and a mobile body.

近年、農作業の省力化や効率化を図り、既存の農業従事者の作業負荷を軽減すると共に、新規就農者の参入を促して農業技術の継承につなげる試みとして、スマート農業の導入が進められている。スマート農業では、ロボット技術や情報通信技術を活用することによって、農作業の省力化や効率化等が実現される。 In recent years, the introduction of smart agriculture has been promoted as an attempt to save labor and improve efficiency in agricultural work, reduce the workload of existing farmers, and promote the entry of new farmers to pass on agricultural technology. there is In smart agriculture, labor saving and efficiency improvement of agricultural work are realized by utilizing robot technology and information communication technology.

例えば特許文献1には、農場や農作業ロボット等に配置されたカメラやセンサによって取得されたデータをサーバで解析し、農作業者及び農作業ロボットの作業を支援するための情報を出力するシステム(以下、「従来システム」と称呼される。)が開示されている。 For example, in Patent Document 1, a system (hereinafter referred to as (referred to as the "conventional system").

従来システムは、農場内を移動する農作業ロボットによって取得された農場や農作物に関する様々なデータに基づいて、農作業者及び農作業ロボットによる農作業を支援できる。 Conventional systems can support farm work by farm workers and farm robots based on various data on farms and crops acquired by farm work robots that move within the farm.

特開2019-82765号公報JP 2019-82765 A

しかしながら、従来システムでは、農作業ロボットは、農場における農作業者の作業状況をカメラによって撮影することを目的とすることから、例えば農作業者の後方に位置して農作業者と共に移動する。このため、農作業ロボットが農場や農作物に関するデータを取得する際には、農作業者が農場で作業していることが前提であり、農作業者が作業していない間はデータを取得することができず、農作業者の負担を軽減できないという問題がある。この問題を解決するために、農作業者がいなくても、農場内を自律走行しながら農場のデータを取得する移動体を用いた農業支援システムが求められている。 However, in the conventional system, the farming robot is intended to photograph the work situation of the farmer on the farm with a camera, and therefore, for example, is positioned behind the farmer and moves with the farmer. For this reason, when agricultural robots acquire data on farms and crops, it is assumed that agricultural workers are working on the farm, and data cannot be acquired while agricultural workers are not working. , there is a problem that the burden on farm workers cannot be reduced. In order to solve this problem, there is a need for an agricultural support system using a mobile body that acquires farm data while autonomously traveling in the farm without the presence of a farm worker.

このような農業支援システムが適用される農場には、例えば、列状の複数の畝と、畝と畝との間の畝間とが交互に並ぶように形成される。移動体は、一つの畝間を走行し終わると隣接する畝間へ移動することを繰り返し、農場内の全ての畝間を自律的に走行する。しかし、移動体が一つの畝間を走行し終わり畝間から出た後、適切な位置で曲がることができなかった場合、移動体が畝と接触したり畝に乗り上げたりすることにより、畝の一部が崩壊してしまうことが生じ得る。 In a farm to which such an agricultural support system is applied, for example, a plurality of rows of ridges and ridges between the ridges are alternately formed. When the moving body finishes traveling between one furrow, it repeats moving to the adjacent furrow, and autonomously travels between all the furrows in the farm. However, if the moving object cannot turn in an appropriate position after traveling between one ridge and exiting the ridge, the moving object may contact or ride on the ridge, thereby causing a part of the ridge to be damaged. may collapse.

本発明は、上述した課題に対処するためになされた。即ち、本発明の目的の一つは、農場内を自律走行する移動体が、畝間から隣接する畝間へ移動する場合に、畝の一部が崩壊してしまう可能性を低下できる農業支援システム及び移動体を提供することにある。 The present invention has been made to address the above-mentioned problems. That is, one of the objects of the present invention is to provide an agricultural support system capable of reducing the possibility of a part of a ridge collapsing when a moving body autonomously traveling in a farm moves from a ridge to an adjacent ridge, and It is to provide a moving body.

上記課題を解決するために、本発明は、互いに通信可能に構成された、情報処理装置と、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体とを含む農業支援システムであって、前記移動体は、前記情報処理装置と通信可能な通信装置と、複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、前記移動体の周囲の物体に関する物体情報を取得することにより物体を検知する第1情報取得装置と、前記移動体の状態に関する移動体情報を取得する第2情報取得装置と、前記移動体の位置を示す自己位置情報を取得する位置情報取得装置と、前記移動体を所望の進行方向に走行させることが可能な走行装置と、前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、を備え、前記制御装置は、前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置が、前記移動体の左側及び右側に前記畝を検知している畝検知状態から前記移動体の左側及び右側に前記畝を検知していない畝未検知状態になった場合、前記移動体が、前記第1情報取得装置が前記畝未検知状態になった時点の位置から第1距離だけ直進して第1旋回位置まで移動し、前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進する第1直進動作を行うように、前記走行装置を制御し、更に、前記制御装置は、前記第1情報取得装置が、前記移動体の前記一方の側のみに前記畝を検知している状態から前記移動体の左側及び右側に前記畝を検知していない前記畝未検知状態になった場合、前記移動体が、前記畝未検知状態になった時点の位置から第2距離だけ直進して第2旋回位置まで移動し、前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進する第2直進動作を行うように、前記走行装置を制御する、ように構成されている。 In order to solve the above problems, the present invention includes an information processing device configured to be able to communicate with each other, and a mobile body capable of traveling through a farm formed with a plurality of rows of ridges and the spaces between the ridges. In the agricultural support system, the mobile unit stores a communication device capable of communicating with the information processing device, and a farm map corresponding to the farm, which includes ridge information including positions regarding a plurality of ridges and between the ridges. a storage unit, a first information acquisition device that detects an object by acquiring object information related to objects around the mobile object, and a second information acquisition device that acquires mobile object information related to the state of the mobile object; A position information acquisition device for acquiring self-position information indicating the position of the mobile object, a traveling device capable of causing the mobile object to travel in a desired traveling direction, the farm map, the object information, and the mobile object information. and a control device that controls the traveling device so that the moving body autonomously travels between the ridges based on the self-position information, and the control device controls the traveling device so that the moving body travels between the one ridges. when the first information acquisition device detects the ridges on the left and right sides of the moving body from the ridge detection state in which the ridges are detected on the left and right sides of the moving body, the ridges in which the ridges are not detected on the left and right sides of the moving body are undetected state, the moving body advances straight a first distance from the position at which the first information acquisition device entered the ridge non-detection state, moves to a first turning position, and moves to the first turning position. , and then performs a first rectilinear motion in which the ridges are aligned along the direction in which the ridges are aligned toward a position where the ridges are present only on one of the left side and the right side of the moving body. , the control device controls the traveling device, and further, the control device moves from a state in which the first information acquisition device detects the ridge only on the one side of the moving body to the left side and the right side of the moving body. When the ridge is not detected and the ridge is not detected, the moving body advances straight by a second distance from the position at the time when the ridge is not detected and moves to the second turning position. After turning at the second turning position, the traveling device is controlled so as to perform a second rectilinear movement in which the vehicle moves straight toward the ridge adjacent to the one ridge.

本発明は、互いに通信可能に構成された、情報処理装置と、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体とを含む農業支援システムであって、前記移動体は、前記情報処理装置と通信可能な通信装置と、複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、前記移動体の周囲の物体に関する物体情報を取得するための第1情報取得装置と、前記移動体の状態に関する移動体情報を取得するための第2情報取得装置と、前記移動体の位置を示す自己位置情報を取得する位置情報取得装置と、前記移動体を所望の進行方向に走行させることが可能な走行装置と、前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、を備え、前記農場には、第1旋回位置から第1所定距離だけ離れた位置に設置された第1マーカ及び第2旋回位置から第2所定距離だけ離れた位置に設置された第2マーカが設置され、前記制御装置は、前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置によって、前記物体情報として前記第1マーカと前記移動体との間の距離である第1マーカ距離を取得し、前記第1マーカ距離及び前記第1所定距離に基づいて、前記移動体が前記第1旋回位置に到達したと判定した場合、前記移動体が前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進するように、前記走行装置を制御し、前記第1情報取得装置によって、前記物体情報として前記第2マーカと前記移動体との間の距離である第2マーカ距離を取得し、前記第2マーカ距離及び前記第2所定距離に基づいて、前記移動体が前記第2旋回位置に到達したと判定した場合、前記移動体が前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進するように、前記走行装置を制御する、ように構成されている。 The present invention is an agricultural support system including an information processing device configured to be able to communicate with each other, and a mobile body capable of traveling on a farm formed so that a plurality of rows of ridges and the spaces between the ridges are aligned, The mobile body includes a communication device capable of communicating with the information processing device; a storage unit storing a farm map corresponding to the farm, including ridge information including positions regarding the plurality of ridges and between the ridges; a first information acquisition device for acquiring object information about objects around the mobile object, a second information acquisition device for acquiring mobile object information on the state of the mobile object, and self-position information indicating the position of the mobile object , a traveling device capable of causing the mobile body to travel in a desired direction, and based on the farm map, the object information, the mobile body information, and the self-location information, the a control device for controlling the travel device so that the moving body autonomously travels between the ridges, wherein the farm includes a first marker installed at a position separated by a first predetermined distance from a first turning position; A second marker is installed at a position separated from the second turning position by a second predetermined distance, and the control device is configured to obtain the first information while the moving body is traveling between the one ridges. The device acquires a first marker distance, which is the distance between the first marker and the moving body, as the object information, and determines whether the moving body is the moving body based on the first marker distance and the first predetermined distance. When it is determined that the first turning position has been reached, after the moving body turns at the first turning position, toward a position where the ridge exists only on one of the left side and the right side of the moving body. , the traveling device is controlled so as to move straight along the direction in which the plurality of ridges are arranged, and the distance between the second marker and the moving body is obtained as the object information by the first information acquisition device. When it is determined that the moving body has reached the second turning position based on the second marker distance and the second predetermined distance, the moving body is at the second turning position. After turning, the traveling device is controlled so as to move straight toward the ridge adjacent to the one ridge.

本発明は、外部の情報処理装置と互いに通信可能に構成され、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体であって、前記情報処理装置と通信可能な通信装置と、複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、前記移動体の周囲の物体に関する物体情報を取得することにより物体を検知する第1情報取得装置と、前記移動体の状態に関する移動体情報を取得する第2情報取得装置と、前記移動体の位置を示す位置情報を取得する位置情報取得装置と、前記移動体を所望の進行方向に走行させることが可能な走行装置と、前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、を備え、前記制御装置は、前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置が、前記移動体の左側及び右側に前記畝を検知している畝検知状態から前記移動体の左側及び右側に前記畝を検知していない畝未検知状態になった場合、前記移動体が、前記第1情報取得装置が前記畝未検知状態になった時点の位置から第1距離だけ直進して第1旋回位置まで移動し、前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進する第1直進動作を行うように、前記走行装置を制御し、更に、前記制御装置は、前記第1情報取得装置が、前記移動体の前記一方の側のみに前記畝を検知している状態から前記移動体の前記左側及び前記右側に前記畝を検知していない前記畝未検知状態になった場合、前記移動体が、前記畝未検知状態になった時点の位置から第2距離だけ直進して第2旋回位置まで移動し、前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進する第2直進動作を行うように、前記走行装置を制御する、ように構成されている。 According to the present invention, there is provided a mobile body that is configured to be able to communicate with an external information processing device and that is capable of traveling on a farm formed with a plurality of rows of ridges and between the ridges, and is capable of communicating with the information processing device. a storage unit storing a farm map corresponding to the farm, including ridge information including positions regarding the plurality of ridges and between the ridges; and acquiring object information about objects around the moving object. a first information acquisition device for detecting an object by means of the a traveling device capable of causing the mobile body to travel in a desired direction; and the mobile body autonomously traveling between the ridges based on the farm map, the object information, the mobile body information, and the self-location information. and a controller for controlling the traveling device, wherein the controller controls the first information acquisition device to control the left side and the right side of the mobile body when the mobile body is traveling between the ridges. from the ridge detection state in which the ridges are detected to the ridge undetected state in which the ridges are not detected on the left and right sides of the moving body, the moving body detects the ridges when the first information acquisition device detects the ridges. From the position at the time of the undetected state, it moves straight a first distance to a first turning position, turns at the first turning position, and then moves to only one of the left side and the right side of the moving body. The traveling device is controlled so as to perform a first straight movement operation in which the plurality of ridges are aligned toward a position where the ridge exists, and the control device is configured to acquire the first information. When the device changes from a state in which the ridge is detected only on the one side of the moving body to the ridge undetected state in which the ridge is not detected on the left side and the right side of the moving body, The moving body advances straight a second distance from the position at which the ridge is not detected, moves to a second turning position, turns at the second turning position, and then moves the moving body adjacent to the one ridge between the ridges. It is configured to control the traveling device so as to perform a second straight-advance motion to travel straight toward the ridge.

本発明によれば、農場内を自律走行する移動体が、畝間から隣接する畝間へ移動する場合に、畝の一部が崩壊してしまう可能性を低下できる。 ADVANTAGE OF THE INVENTION According to this invention, when the moving body which autonomously runs in a farm moves from between ridges to adjacent ridges, possibility that a part of ridge will collapse can be reduced.

図1は本発明の第1実施形態に係る農業支援システムの構成例を示す概略構成図である。FIG. 1 is a schematic configuration diagram showing a configuration example of an agriculture support system according to the first embodiment of the present invention. 図2はロボットの構成例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a configuration example of the robot. 図3はロボットの構成例を示す斜視図である。FIG. 3 is a perspective view showing a configuration example of the robot. 図4はロボットが走行する農場の例を示す平面図である。FIG. 4 is a plan view showing an example of a farm where robots run. 図5はロボットが農場の畝間を走行する様子を模式的に示す模式図である。FIG. 5 is a schematic diagram schematically showing how the robot runs between furrows in a farm. 図6は畝間の監視画像とサーバに保存された監視画像の関係を説明するための図である。FIG. 6 is a diagram for explaining the relationship between the monitoring image between ridges and the monitoring image saved in the server. 図7は畝間の監視画像とサーバに保存された監視画像の関係を説明するための図である。FIG. 7 is a diagram for explaining the relationship between the monitoring image between the ridges and the monitoring image saved in the server. 図8は畝間の監視画像とサーバに保存された監視画像の関係を説明するための図である。FIG. 8 is a diagram for explaining the relationship between the monitoring image between ridges and the monitoring image saved in the server. 図9はロボットの構成例を示す斜視図である。FIG. 9 is a perspective view showing a configuration example of the robot. 図10はロボットが農場の畝間を走行する様子を模式的に示す模式図である。FIG. 10 is a schematic diagram schematically showing how the robot runs between furrows in a farm. 図11はロボットが外部センサにより畝側面を検知しながら畝間を走行する様子を模式的に示す模式図である。FIG. 11 is a schematic diagram schematically showing how the robot travels between ridges while detecting the ridge side surface with an external sensor. 図12Aは外部センサの取り付け構造を説明するための図である。FIG. 12A is a diagram for explaining the mounting structure of the external sensor. 図12Bは外部センサの取り付け構造を説明するための図である。FIG. 12B is a diagram for explaining the mounting structure of the external sensor. 図12Cは外部センサの取り付け構造を可動式にしたロボットの構成例を示す図である。FIG. 12C is a diagram showing a configuration example of a robot having a movable attachment structure for external sensors. 図13は図12Cに示すロボットが、畝間を走行した場合のレーザ光の照射状態を示す図である。FIG. 13 is a diagram showing a state of laser light irradiation when the robot shown in FIG. 12C runs between ridges. 図14は図12Cに示すロボットが、畝間を走行した場合のレーザ光の照射状態を示す図である。FIG. 14 is a diagram showing a state of laser light irradiation when the robot shown in FIG. 12C runs between ridges. 図15は畝間のぬかるみで進行できないロボットの状態を示した図である。FIG. 15 is a diagram showing a state in which the robot cannot advance due to the mud between the ridges. 図16はロボットがぬかるみ脱出するときのロボットの動作を説明するためのフローチャートである。FIG. 16 is a flow chart for explaining the motion of the robot when it escapes from the mud. 図17はロボットの構成例を示す機能ブロック図である。FIG. 17 is a functional block diagram showing a configuration example of the robot. 図18は各種センサを説明するための表である。FIG. 18 is a table for explaining various sensors. 図19はロボットが隣接する畝間を移動するときの動作例を説明するための図である。FIG. 19 is a diagram for explaining an operation example when the robot moves between adjacent ridges. 図20はロボットが隣接する畝間を移動するときのロボットの動作を説明するためのフローチャートである。FIG. 20 is a flow chart for explaining the motion of the robot when it moves between adjacent ridges. 図21はロボットの構成例を示す機能ブロック図である。FIG. 21 is a functional block diagram showing a configuration example of the robot. 図22はロボットが隣接する畝間を移動するときの動作例を説明するための図である。FIG. 22 is a diagram for explaining an operation example when the robot moves between adjacent ridges. 図23はロボットが隣接する畝間を移動するときのロボットの動作を説明するためのフローチャートである。FIG. 23 is a flow chart for explaining the motion of the robot when it moves between adjacent ridges. 図24はロボットの畝間移動の動作例を説明するための図である。FIG. 24 is a diagram for explaining an example of movement of the robot between ridges. 図25はロボットが隣接する畝間を移動するときのロボットの動作を説明するためのフローチャートである。FIG. 25 is a flow chart for explaining the motion of the robot when it moves between adjacent ridges.

<<第1実施形態>>
以下、本発明の第1実施形態に係る農業支援システムSについて、図面を参照しながら説明する。
<<First Embodiment>>
Hereinafter, an agriculture support system S according to a first embodiment of the present invention will be described with reference to the drawings.

<構成>
図1は農業支援システムSの構成例を示す概略構成図である。図1に示すように、農業支援システムSは、ネットワークNを介して接続されているロボット101、サーバ102及び端末103を含む。なお、サーバ102は、クラウド上のサーバ及びオンプレミスのサーバの何れであってもよい。更に、サーバ102は、複数のサーバで構成されてもよい。
<Configuration>
FIG. 1 is a schematic configuration diagram showing a configuration example of an agriculture support system S. As shown in FIG. As shown in FIG. 1, the agricultural support system S includes a robot 101, a server 102 and a terminal 103 connected via a network N. Note that the server 102 may be either a cloud server or an on-premises server. Further, the server 102 may consist of multiple servers.

サーバ102は、例えば、CPU、ROM、RAM及びインターフェースI/F等を含むコンピュータ並びにデータの書き込み及び読み出し可能な記憶装置等を含む。サーバ102は、便宜上、「情報処理装置」とも称呼される場合がある。端末103は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末等の情報端末である。 The server 102 includes, for example, a computer including a CPU, a ROM, a RAM, an interface I/F, etc., a data writable and readable storage device, and the like. For convenience, the server 102 may also be called an "information processing device". The terminal 103 is, for example, an information terminal such as a personal computer, smart phone, or tablet terminal.

充電ステーション104は、農場118(後述の図4を参照。)に設置される。充電ステーション104は、充電ステーション104で待機中、及び/又は、農場118内を走行中のロボット101に対して、有線又は無線で電力を供給する。 Charging station 104 is located at farm 118 (see FIG. 4 below). Charging station 104 supplies power wired or wirelessly to robot 101 waiting at charging station 104 and/or traveling within farm 118 .

ロボット101は、サーバ102及び端末103と連携して農場118内を自律走行(自律移動)することによって、農場118の監視作業を行う移動体である。ロボット101は、農業を支援するための農業支援ロボットとして機能する。図2はロボット101の構成例を示す機能ブロック図である。図3はロボット101の外観を示す斜視図である。 The robot 101 is a mobile body that performs monitoring work of the farm 118 by autonomously traveling (autonomously moving) within the farm 118 in cooperation with the server 102 and the terminal 103 . The robot 101 functions as an agricultural support robot for supporting agriculture. FIG. 2 is a functional block diagram showing a configuration example of the robot 101. As shown in FIG. FIG. 3 is a perspective view showing the appearance of the robot 101. As shown in FIG.

図2及び図3に示すように、ロボット101は、制御装置105、監視装置106、外部センサ107、内部センサ108、通信部109、アンテナ110、GNSS(Global Navigation Satellite System)部111、モータ112、一対の駆動軸113、一対の駆動輪114、電源部115及びバッテリ116を含む。なお、外部センサ107は、便宜上、「第1情報取得装置」とも称呼される場合がある。内部センサ108は、便宜上、「第2情報取得装置」とも称呼される場合がある。 As shown in FIGS. 2 and 3, the robot 101 includes a control device 105, a monitoring device 106, an external sensor 107, an internal sensor 108, a communication unit 109, an antenna 110, a GNSS (Global Navigation Satellite System) unit 111, a motor 112, A pair of drive shafts 113 , a pair of drive wheels 114 , a power supply 115 and a battery 116 are included. For convenience, the external sensor 107 may also be referred to as a "first information acquisition device". For convenience, the internal sensor 108 may also be referred to as a "second information acquisition device".

制御装置105は、マイクロプロセッサ等の演算処理装置であり、ロボット101の全体制御(ロボット101の動作の制御)を行う。制御装置105は、例えば、CPU、ROM、RAM及びインターフェースI/F等を含む。制御装置105は、タイマ105aを含む。タイマ105aは、時刻及び/又は時間を計測するためや割り込み処理を実行するために使用される。 The control device 105 is an arithmetic processing device such as a microprocessor, and performs overall control of the robot 101 (control of the operation of the robot 101). The control device 105 includes, for example, a CPU, ROM, RAM, interface I/F, and the like. Controller 105 includes a timer 105a. The timer 105a is used to measure the time and/or duration and to execute interrupt processing.

制御装置105は、監視装置106、外部センサ107及び内部センサ108に接続される。制御装置105は、これらの監視装置106及び各センサのそれぞれが取得したデータを受信するように構成されている。 Controller 105 is connected to monitoring device 106 , external sensors 107 and internal sensors 108 . The control device 105 is configured to receive data acquired by each of the monitoring device 106 and each sensor.

監視装置106は、撮像装置(例えば、カメラ)である。監視装置106は、ロボット101の周辺の所定範囲(例えば前方の所定範囲)を撮像することによって、ロボット101の周辺の撮像画像である監視画像(監視データ)を取得し、制御装置105に送信する。 The monitoring device 106 is an imaging device (eg, camera). The monitoring device 106 acquires a monitoring image (monitoring data), which is a captured image of the periphery of the robot 101 , by capturing a predetermined range around the robot 101 (for example, a predetermined range in front), and transmits the monitoring image to the control device 105 . .

外部センサ107は、ロボット101の外部の情報(「外部センサデータ」とも称呼される。)を取得するためのセンサである。外部センサ107は、ロボット101の外部の情報を取得し、制御装置105に送信する。 The external sensor 107 is a sensor for acquiring information (also referred to as “external sensor data”) external to the robot 101 . The external sensor 107 acquires information from the outside of the robot 101 and transmits it to the control device 105 .

外部センサ107は、典型的には、深度センサ(LiDAR(Light Detection And Ranging)である。外部センサ107は、LADAR(Laser Detection And Ranging)センサ、ToF(Time of Flight)、ステレオカメラ、超音波センサ、近接センサ(赤外線センサ、磁気センサ等)、熱センサ(例えば遠赤外線センサ)、温度センサ、湿度センサ、気体の濃度(例えばCO濃度)を検出する気体センサ、照度センサ等であってもよい。 The external sensor 107 is typically a depth sensor (LiDAR (Light Detection And Ranging). The external sensor 107 is a LADAR (Laser Detection And Ranging) sensor, ToF (Time of Flight), a stereo camera, an ultrasonic sensor , proximity sensor (infrared sensor, magnetic sensor, etc.), heat sensor (e.g., far infrared sensor), temperature sensor, humidity sensor, gas sensor that detects gas concentration (e.g., CO2 concentration), illuminance sensor, etc. .

内部センサ108は、ロボット101の自律移動の制御に使用されるロボット101の状態に関する情報(「内部センサデータ」とも称呼される場合がある。)を取得するためのセンサである。内部センサ108は、例えば、ジャイロセンサ、加速度センサ、磁気センサ、温度センサ、電源電圧センサ及びバッテリ残量センサ等を含む。内部センサデータは、例えば、ロボット101の向き、ロボット101の傾き(傾斜角度)、ロボット101の加速度、ロボット101の速度、ロボット101の回転角度(旋回角度)及び地磁気等である。内部センサ108は、内部センサデータを取得し、制御装置105に送信する。 The internal sensor 108 is a sensor for acquiring information (sometimes referred to as “internal sensor data”) regarding the state of the robot 101 used for controlling autonomous movement of the robot 101 . The internal sensor 108 includes, for example, a gyro sensor, an acceleration sensor, a magnetic sensor, a temperature sensor, a power supply voltage sensor, a remaining battery level sensor, and the like. The internal sensor data includes, for example, the orientation of the robot 101, the tilt (inclination angle) of the robot 101, the acceleration of the robot 101, the speed of the robot 101, the rotation angle (turning angle) of the robot 101, geomagnetism, and the like. The internal sensor 108 acquires internal sensor data and transmits it to the control device 105 .

更に、制御装置105は、通信部109及びGNSS部111に接続されている。通信部109は、アンテナ110を介して、外部のコンピュータ(サーバ102等)と無線通信したり、GNSS部111が自己位置情報を推定(取得)するために他のロボットや基地局と通信を行ったりするための通信インターフェースである。 Furthermore, the control device 105 is connected to the communication section 109 and the GNSS section 111 . The communication unit 109 wirelessly communicates with an external computer (such as the server 102) via the antenna 110, and communicates with other robots and base stations for the GNSS unit 111 to estimate (acquire) self-position information. It is a communication interface for

GNSS部111は、測位衛星からロボット101の現在位置を示す自己位置情報を取得し、取得した自己位置情報を制御装置105に送信する。GNSS部111は、便宜上、「位置情報取得装置」とも称呼される場合がある。 The GNSS unit 111 acquires self-position information indicating the current position of the robot 101 from positioning satellites, and transmits the acquired self-position information to the control device 105 . For the sake of convenience, the GNSS unit 111 may also be referred to as a “positional information acquisition device”.

制御装置105は、自己位置情報に基づいて、ロボット101の現在位置を特定する。更に、制御装置105は、外部センサデータ及び内部センサデータに基づいて、畝に対する相対的な位置(例えば、畝間の幅方向における畝に対する相対的な位置)を特定する。 The control device 105 identifies the current position of the robot 101 based on the self-position information. Further, the control device 105 identifies relative positions to the ridges (for example, relative positions to the ridges in the width direction between the ridges) based on the external sensor data and the internal sensor data.

更に、制御装置105は、2つのモータ112に接続されている。2つのモータ112のそれぞれは、電源部115からモータ112に供給される電力によって、それぞれのモータ112に対応する駆動軸113を回転させる(駆動させる)トルクを発生する。モータ112は、このトルクによって、それぞれの駆動軸113に対応する駆動輪114を回転させることができる。制御装置105は、モータ112に指令を送り、モータ112に供給される電力を制御することによって、モータ112が発生するトルクの大きさ及び向きを調整することによって、駆動輪114の回転速度及び回転方向を自在に制御することができる。 Furthermore, the controller 105 is connected to two motors 112 . Each of the two motors 112 generates torque for rotating (driving) the drive shaft 113 corresponding to each motor 112 by electric power supplied to the motor 112 from the power supply section 115 . The motor 112 can rotate the drive wheel 114 corresponding to each drive shaft 113 with this torque. The control device 105 sends commands to the motor 112 and controls the power supplied to the motor 112 to adjust the magnitude and direction of the torque generated by the motor 112, thereby controlling the rotational speed and rotation of the drive wheels 114. You can freely control the direction.

なお、図3に示すように、左右の駆動輪114の表面114aは、特徴的な形状(例えば、V字の平面形状を有する凸部と凹部とが繰り返される形状)を有している。これにより、ロボット101は、駆動輪114の通過軌道に存在する草をより容易に踏み潰すことができる。左右の駆動輪114の地面との接触面積を多くするため、駆動輪114の幅はより広く設定されることが好ましい。駆動輪114は、草を踏み潰すという観点から、その重みで草を潰すことができる程度の重量を有していることが好ましい。 As shown in FIG. 3, the surfaces 114a of the left and right driving wheels 114 have a characteristic shape (for example, a V-shaped planar shape in which convex portions and concave portions are repeated). As a result, the robot 101 can more easily trample the grass existing on the passage path of the drive wheels 114 . In order to increase the contact area of the left and right drive wheels 114 with the ground, it is preferable that the width of the drive wheels 114 is set wider. From the viewpoint of trampling the grass, the drive wheels 114 preferably have a weight that can crush the grass.

電源部115は、ロボット101を動作させるために、ロボット101の制御装置105及び各部に対して、バッテリ116に蓄電された電力を供給する。バッテリ116は、有線又は無線によって充電ステーション104(図1を参照。)から供給された電力を蓄電する。 The power supply unit 115 supplies electric power stored in the battery 116 to the control device 105 and each unit of the robot 101 in order to operate the robot 101 . The battery 116 stores electric power supplied from the charging station 104 (see FIG. 1) by wire or wirelessly.

制御装置105は、モータ112を制御して駆動軸113を駆動することによって、ロボット101の走行を制御する。例えば、ロボット101が前方に直進する場合、制御装置105は、例えば、左側の駆動輪114(以下、「左輪」とも称呼される。)及び右側の駆動輪114(以下、「右輪」とも称呼される。)を同じ速度で、例えば、ロボット101が前進する方向に対応する前進回転方向に回転するように、駆動軸113を駆動する。 The control device 105 controls the running of the robot 101 by controlling the motor 112 to drive the drive shaft 113 . For example, when the robot 101 moves straight forward, the control device 105 controls, for example, the left driving wheel 114 (hereinafter also referred to as "left wheel") and the right driving wheel 114 (hereinafter also referred to as "right wheel"). ) at the same speed, for example, in the forward rotation direction corresponding to the direction in which the robot 101 moves forward.

例えば、ロボット101が後方に直進する場合、制御装置105は、例えば、左輪及び右輪を同じ速度で、ロボット101が後退する方向に対応する後進回転方向に回転するように、駆動軸113を駆動する。 For example, when the robot 101 moves straight backward, the control device 105 drives the drive shaft 113 so that the left wheel and the right wheel rotate at the same speed in the backward rotation direction corresponding to the direction in which the robot 101 moves backward. do.

例えば、ロボット101が右旋回方向に旋回する場合、制御装置105は、例えば、左輪が右輪よりも高速になり、且つ、左輪及び右輪が同じ前進回転方向で回転するようにモータ112を駆動する。例えば、ロボット101が左旋回方向に旋回する場合、制御装置105は、例えば、右輪が左輪よりも高速になり、且つ、左輪及び右輪が同じ前進回転方向で回転するようにモータ112を駆動する。ロボット101がその場で進行方向を変える場合、例えば、制御装置105は、右輪及び左輪を同じ速度で逆方向に回転するようにモータ112を駆動する。 For example, if the robot 101 turns in a right turning direction, the controller 105 may, for example, activate the motors 112 such that the left wheels are faster than the right wheels and the left and right wheels rotate in the same forward direction of rotation. drive. For example, when the robot 101 turns to the left, the controller 105 drives the motor 112 so that the right wheel is faster than the left wheel and the left and right wheels rotate in the same forward direction. do. When the robot 101 changes its traveling direction on the spot, for example, the control device 105 drives the motor 112 so that the right wheel and left wheel rotate at the same speed in opposite directions.

このように、制御装置105は、モータ112を制御することによって、ロボット101の動き(走行)を自在に制御することができる。即ち、制御装置105は、前進、後退、ターン、カーブ走行、進行方向調整、障害物回避、停止等を行うように、ロボット101の動きを自在に制御できる。なお、モータ112、駆動軸113及び駆動輪114は、便宜上、「走行装置」とも称呼される場合がある。 In this way, the control device 105 can freely control the movement (running) of the robot 101 by controlling the motor 112 . That is, the control device 105 can freely control the movement of the robot 101 so as to advance, retreat, turn, curve, adjust the traveling direction, avoid obstacles, stop, and the like. For convenience, the motor 112, the drive shaft 113 and the drive wheels 114 may also be referred to as a "travel device".

<ロボットの動作1(監視動作(データ収集)、防草動作、障害物回避動作)>
ロボット101は、農場118を自律走行しながら監視装置106を用いて、ロボット101の周辺を撮像することで、監視画像を取得することによって、農場118及び農作物を監視する。図4はロボット101が走行する農場118の平面図である。図5はロボット101が農場118の畝間120を走行する様子を模式的に示す模式図である。
<Robot operation 1 (monitoring operation (data collection), weed control operation, obstacle avoidance operation)>
The robot 101 monitors the farm 118 and crops by acquiring a monitoring image by capturing an image of the surroundings of the robot 101 using the monitoring device 106 while autonomously traveling on the farm 118 . FIG. 4 is a plan view of a farm 118 on which the robot 101 runs. FIG. 5 is a schematic diagram schematically showing how the robot 101 runs between the furrows 120 of the farm 118. As shown in FIG.

なお、図4及び図5の例では、1つの農場118に対して1台のロボット101が監視を担当するとする。しかし、これに限らず、1つの農場118に対して、複数台のロボット101がエリアを分割して監視を担当してもよい。あるいは、1つの農場118に対して、収集データ又は機能が異なる複数台のロボット101が監視を担当してもよい。 Note that in the examples of FIGS. 4 and 5, one robot 101 is in charge of monitoring one farm 118 . However, without being limited to this, a plurality of robots 101 may divide an area of one farm 118 and take charge of monitoring. Alternatively, one farm 118 may be monitored by a plurality of robots 101 with different collection data or functions.

農場118は、農作物が植栽される畝119及び畝間120を有する。なお、本明細書において、互いに隣接する列状の2つの畝119の間が、畝間120と称呼される。 Farm 118 has furrows 119 and interfurrows 120 in which crops are planted. In this specification, the space between two row-shaped ridges 119 adjacent to each other is referred to as a ridge gap 120 .

図5では図示していないが、農場118には、例えば果樹園の様に畝119が無く農作物の間に通路がある場合もある。なお、本明細書では、この場合、農作物の存在する領域が畝119に相当し、農作物の間の通路が畝間120に相当する。 Although not shown in FIG. 5, the farm 118 may not have ridges 119 and have pathways between crops, such as an orchard. In this specification, in this case, the area where the crops are present corresponds to the ridge 119 and the passage between the crops corresponds to the inter-ridge 120 .

更に、図5では、図示してはいないが、畝119は、土壌が剥き出しの場合や、農作物や土壌の保護等のためのマルチシートや不織布、刈り取った植物等で覆われている場合もある。 Furthermore, although not shown in FIG. 5, the ridges 119 may be covered with mulch sheets, non-woven fabrics, cut plants, etc. for protecting crops and soil. .

農場118には、ロボット101のホームポジションとなる充電ステーション104が設置されている。 A charging station 104 serving as the home position of the robot 101 is installed in the farm 118 .

ロボット101及び外部のサーバ102は、予め作成された例えば図4に示すような農場118の平面図をマップ情報(以下、「農場マップ」と称呼される。)として記憶している。例えば、農場マップは、ロボット101の制御装置105のROMに記憶されている。農場マップは、サーバ102が備える記憶装置にも記憶されている。農場マップを作成する場合、農場118内に畝119を作るときに、例えばトラクタの位置をトレースしたり、畝119を作った後にドローンで計測したり、ロボット101をリモートで実走させることで畝119及び畝間120の位置(畝情報)を測量する。そして、これらの測量結果に基づいて、農場マップが作成される。農場マップでは、畝119や畝間120の位置が、農場マップ上の位置情報(例えば、緯度、経度)と対応付けられている。従って、ロボット101及びサーバ102のそれぞれは、農場マップに基づいて、農場内の畝119の位置及び畝間120の位置等を特定することができる。 The robot 101 and the external server 102 store a plan view of a farm 118 created in advance, for example, as shown in FIG. 4, as map information (hereinafter referred to as "farm map"). For example, the farm map is stored in ROM of controller 105 of robot 101 . The farm map is also stored in a storage device included in server 102 . When creating a farm map, when creating a ridge 119 in the farm 118, for example, the position of the tractor can be traced, the ridge 119 can be measured with a drone after the ridge 119 is created, or the robot 101 can actually run remotely to create the ridge. 119 and the positions of ridges 120 (ridge information) are surveyed. A farm map is created based on these survey results. In the farm map, the positions of ridges 119 and between ridges 120 are associated with position information (for example, latitude and longitude) on the farm map. Therefore, each of the robot 101 and the server 102 can specify the position of the ridge 119 and the position of the space between the ridges 120 in the farm based on the farm map.

ロボット101は、充電ステーション104を出発点とし、図4中の矢印にて示す畝間120を含む経路(以下、「自律走行経路」と称呼される。)を回って再び充電ステーション104に戻るように、農場118内を自律走行する。 The robot 101 starts from the charging station 104 and returns to the charging station 104 by going around a route including the ridge 120 indicated by the arrow in FIG. , autonomously travels within the farm 118 .

このようなロボット101の自律走行は、農場マップ、外部センサデータ、内部センサデータ及び自己位置情報の少なくとも一つに基づいて、制御装置105がモータ112を制御することによって、行うことができる。 Such autonomous running of the robot 101 can be performed by the controller 105 controlling the motor 112 based on at least one of the farm map, external sensor data, internal sensor data, and self-location information.

例えば、ロボット101は、農場マップに基づいて、自律走行経路を設定し、自己位置情報に基づいて、自律走行経路に沿って走行する。 For example, the robot 101 sets an autonomous travel route based on a farm map, and travels along the autonomous travel route based on self-location information.

更に、ロボット101は、自律走行している間、外部センサデータ、内部センサデータ及び自己位置情報に基づいて、農作物に乗り上げないように農作物の間を通路として走行したり、畝119に乗り上げないように畝間120を通路として走行したりする。 Furthermore, while the robot 101 is autonomously traveling, based on the external sensor data, the internal sensor data, and the self-position information, the robot 101 runs between the crops as a passage so as not to run over the crops, or runs over the ridges 119 . In addition, the ridge 120 is used as a passageway.

ロボット101は、自律走行している間、監視装置106及び外部センサ107を用いて、農場118に関するデータを取得(収集)し、取得したデータをサーバ102に送信する。サーバ102は、データを取得すると、データを処理して管理する(保存する。)。 While autonomously traveling, the robot 101 acquires (collects) data about the farm 118 using the monitoring device 106 and the external sensor 107 and transmits the acquired data to the server 102 . After acquiring the data, the server 102 processes and manages (stores) the data.

以下では、図6を参照しながら、ロボット101のデータの処理及び送信並びにサーバ102のデータ処理について、より具体的に説明する。図6は畝間120の監視画像121とサーバ102に保存された監視画像121との関係を説明するための図である。 The data processing and transmission of the robot 101 and the data processing of the server 102 will be described in more detail below with reference to FIG. FIG. 6 is a diagram for explaining the relationship between the monitoring image 121 of the ridge 120 and the monitoring image 121 saved in the server 102. FIG.

ロボット101が自律走行している間、ロボット101は監視装置106によって、畝間120の監視画像121を取得する。なお、図6の畝間120の監視画像121には、ロボット101が走行中の畝間120と、畝間120の両側の畝119と、畝間120に存在する雑草122等の障害物とが存在している。 While the robot 101 is autonomously traveling, the robot 101 acquires a monitoring image 121 of the furrow 120 by the monitoring device 106 . In addition, in the monitoring image 121 of the ridge 120 in FIG. 6, the ridge 120 where the robot 101 is running, the ridges 119 on both sides of the ridge 120, and obstacles such as weeds 122 existing in the ridge 120 are present. .

ロボット101は、取得した畝間120の監視画像121と、畝間120の監視画像121を取得した時点の時刻(タイマ105aで取得した時刻)と自己位置情報(GNSS部111等で取得した自己位置情報)とを対応付ける。ロボット101は、通信部109を介して、対応付けた畝間120の監視画像121と自己位置情報と時刻とのデータセットをサーバ102に送信する。 The robot 101 acquires the monitoring image 121 of the ridge 120, the time when the monitoring image 121 of the ridge 120 was acquired (the time acquired by the timer 105a), and the self-location information (self-location information acquired by the GNSS unit 111 or the like). and The robot 101 transmits to the server 102 via the communication unit 109 the monitoring image 121 of the ridge 120 and the data set of the self-location information and the time.

サーバ102は、上述した通り、農場マップである農場マップデータ123を有している。サーバ102は、ロボット101からデータセットを受信すると、畝間120の監視画像121と、畝間120の監視画像121の取得時刻と、自己位置情報に対応する農場マップデータ123内の位置情報とを対応付けて、保存する。これにより、サーバ102は、畝間120の監視画像121が農場118内のどこでいつ取得された画像であるかを識別できる。即ち、サーバ102は、畝間120の監視画像121の取得時刻及び農場118内の取得位置を特定することができる。 Server 102 has farm map data 123, which is a farm map, as described above. When the data set is received from the robot 101, the server 102 associates the monitoring image 121 of the ridge 120, the acquisition time of the monitoring image 121 of the ridge 120, and the position information in the farm map data 123 corresponding to the self-position information. to save. This allows server 102 to identify where and when surveillance image 121 of furrow 120 was captured within farm 118 . That is, the server 102 can identify the acquisition time and the acquisition position within the farm 118 of the monitoring image 121 of the furrow 120 .

更に、図7を参照しながら、ロボット101のデータ処理及び送信並びにサーバ102のデータ処理について、より具体的に説明する。図7は畝間120の監視画像121とサーバ102に保存された監視画像121との関係を説明するための図である。 Furthermore, the data processing and transmission of the robot 101 and the data processing of the server 102 will be described more specifically with reference to FIG. FIG. 7 is a diagram for explaining the relationship between the monitoring image 121 of the ridge 120 and the monitoring image 121 saved in the server 102. FIG.

ロボット101は、畝間120の監視画像121を取得する際に、畝間120の監視画像121の取得位置と同じ位置に対応付けてサーバ102に保存されている畝間120の監視画像124を、制御装置105に読み出す処理も行っている。なお、以下では、説明の便宜上、制御装置105に読み出した畝間120の監視画像124は、「読み出し監視画像124」と称呼される。 When acquiring the monitoring image 121 between the ridges 120 , the robot 101 acquires the monitoring image 124 between the ridges 120 stored in the server 102 in association with the same position as the acquired position of the monitoring image 121 between the ridges 120 . It also performs processing to read out to For convenience of explanation, the monitor image 124 of the ridge 120 read by the control device 105 is hereinafter referred to as "read monitor image 124".

その後、ロボット101は、畝間120の監視画像121を取得すると、「取得した畝間120の監視画像121」と「読み出し監視画像124」とを比較する。ロボット101は、比較結果に基づいて、小さい障害物(例えば、雑草122)が存在するか否かを判定する。 After that, when the monitoring image 121 of the ridge 120 is acquired, the robot 101 compares the "obtained monitoring image 121 of the ridge 120" with the "read monitoring image 124". Robot 101 determines whether a small obstacle (eg, weeds 122) is present based on the comparison result.

例えば、ロボット101は、監視画像121及び読み出し監視画像124に基づいて、同位置に存在する障害物の高さを比較する。ロボット101は、比較した結果高さの差が所定の閾値より大きく、且つ、監視画像121の障害物の高さが所定の第1閾値より小さい場合、防草対象物体となる小さい障害物(雑草122)が存在すると判定する。更に、ロボット101は、監視画像121及び読み出し監視画像124に基づいて、監視画像121に新たに現れた障害物であって、且つ、その高さが所定の第1閾値より小さいと判定した場合、小さい障害物が存在すると判定する。 For example, the robot 101 compares heights of obstacles present at the same position based on the monitoring image 121 and the readout monitoring image 124 . The robot 101 detects a small obstacle (weeds 122) exists. Furthermore, when the robot 101 determines that the obstacle newly appears in the monitoring image 121 and that the height of the obstacle is smaller than a predetermined first threshold, based on the monitoring image 121 and the readout monitoring image 124 Determine that there is a small obstacle.

ロボット101は、小さい障害物が存在すると判定した場合、自律走行を継続する。これにより、ロボット101は、その駆動輪114が小さい障害物(雑草122)の上を通過することで、小さい障害物(雑草122)を踏みつける「防草」動作を行う。なお、新たに取得した畝間120の監視画像121は、上記と同様に処理され、サーバ102に保存される。 When the robot 101 determines that there is a small obstacle, it continues autonomous running. As a result, the robot 101 performs a "weed control" operation of stepping on a small obstacle (weeds 122) by passing the driving wheels 114 over the small obstacles (weeds 122). Note that the newly acquired monitoring image 121 of the furrow 120 is processed in the same manner as described above and stored in the server 102 .

更に、図8を参照しながら、ロボット101のデータの処理及び送信並びにサーバ102のデータ処理について、より具体的に説明する。図8は畝間120の監視画像121とサーバ102に保存された監視画像124との関係を説明するための図である。 Furthermore, the data processing and transmission of the robot 101 and the data processing of the server 102 will be described more specifically with reference to FIG. FIG. 8 is a diagram for explaining the relationship between the monitoring image 121 of the ridge 120 and the monitoring image 124 saved in the server 102. FIG.

既述したように、ロボット101は、畝間120の監視画像121を取得する際に、畝間120の監視画像121の取得位置と同じ位置に対応付けてサーバ102に保存されている畝間120の監視画像124を、制御装置105に読み出す処理も行っている。 As described above, when acquiring the monitoring image 121 between the ridges 120 , the robot 101 acquires the monitoring image 121 between the ridges 120 stored in the server 102 in association with the same position as the acquired position of the monitoring image 121 between the ridges 120 . 124 to the control device 105 is also performed.

その後、ロボット101は、畝間120の監視画像121を取得すると、「取得した畝間120の監視画像121」と「読み出し監視画像124」とを比較する。ロボット101は、比較結果に基づいて、大きい障害物(例えば、石125)が存在するか否かを判定する。例えば、ロボット101は、監視画像121及び読み出し監視画像124に基づいて、監視画像121には存在し、読み出し監視画像124には存在しない障害物を認識する。ロボット101は、認識した障害物の高さが、所定の第1閾値以上である場合、大きい障害物が存在すると判定する。 After that, when the monitoring image 121 of the ridge 120 is acquired, the robot 101 compares the "obtained monitoring image 121 of the ridge 120" with the "read monitoring image 124". Robot 101 determines whether a large obstacle (eg, stone 125) exists based on the comparison result. For example, the robot 101 recognizes obstacles that exist in the monitoring image 121 but not in the readout monitoring image 124 based on the monitoring image 121 and the readout monitoring image 124 . The robot 101 determines that a large obstacle exists when the height of the recognized obstacle is equal to or higher than a predetermined first threshold.

ロボット101は、大きい障害物が存在すると判定した場合、走行を停止する。なお、新たに取得した畝間120の監視画像121は、上記と同様に処理され、サーバ102に保存される。 The robot 101 stops traveling when it determines that a large obstacle exists. Note that the newly acquired monitoring image 121 of the furrow 120 is processed in the same manner as described above and stored in the server 102 .

ロボット101は、停止すると通信部109を用いて、ロボット101が停止したことを示す情報を、ネットワークNを介して、端末103に送信する。端末103は、ロボット101が停止したことを示す情報を受信すると、端末103のユーザにロボット101が停止したことを通知する。例えば、端末103は、端末103が有する表示画面にロボット101が停止したことを表す画像を表示することにより、ユーザにロボット101が停止したことを通知する。これにより、ユーザは、ロボット101から離れた位置にいる場合(例えば、農場118にいない場合)であっても、大きい障害物によってロボット101が停止したことを速やかに認識することができる。 When the robot 101 stops, the communication unit 109 is used to transmit information indicating that the robot 101 has stopped to the terminal 103 via the network N. FIG. Upon receiving the information indicating that the robot 101 has stopped, the terminal 103 notifies the user of the terminal 103 that the robot 101 has stopped. For example, the terminal 103 notifies the user that the robot 101 has stopped by displaying an image indicating that the robot 101 has stopped on the display screen of the terminal 103 . This allows the user to quickly recognize that the robot 101 has stopped due to a large obstacle even when the user is away from the robot 101 (for example, when not at the farm 118).

<効果>
以上説明したように、第1実施形態に係る農業支援システムSによれば、ロボット101が農場118内の畝間120を自律走行しながら農場118内を撮像する。これにより、農業支援システムSは、農業支援システムSのユーザ(農作業者)に負担をかけることなく、農場118及び農場118内の農作物に関する多様なデータを取得できる。更に、農業支援システムSによれば、障害物が、ロボット101が踏み付けることができるような大きさの小さい障害物である場合、ロボット101は防草動作を行う。障害物が、ロボット101が踏み付けることができないような大きさの大きい障害物である場合、ロボット101は走行を停止することにより、大きい障害物との衝突を回避する。これにより、農業支援システムSは、ロボット101が大きい障害物との衝突によって故障したり防草を中断したりすることを防止しつつ、自律的に防草を行うことができるので、ユーザの農作業(防草作業)の負担を軽減することができる。
<effect>
As described above, according to the agriculture support system S according to the first embodiment, the robot 101 takes an image of the inside of the farm 118 while autonomously traveling between the furrows 120 in the farm 118 . As a result, the agriculture support system S can acquire various data regarding the farm 118 and the crops in the farm 118 without imposing a burden on the user (farmer) of the agriculture support system S. Furthermore, according to the agricultural support system S, when the obstacle is small enough for the robot 101 to step on, the robot 101 performs a weed control operation. If the obstacle is too large for the robot 101 to step on, the robot 101 stops running to avoid colliding with the obstacle. As a result, the farming support system S can autonomously perform weed control while preventing the robot 101 from colliding with a large obstacle and interrupting the weed control, thereby preventing the user from performing agricultural work. The burden of (weed control work) can be reduced.

<<第2実施形態>>
本発明の第2実施形態に係る農業支援システムについて説明する。本発明の第2実施形態に係る農業支援システムは、図9に示すロボット200を用いている。ロボット200は、第1実施形態のロボット101と同様の構成を有し、外部センサ107として、障害物を検知可能な外部センサ201を備えることを特徴としている。この外部センサ201には、例えば、深度センサ(LiDAR(Light Detection And Ranging))、LADAR(Laser Detection And Ranging)センサ、ToF(Time of Flight)、ステレオカメラ等が使用可能である。本例では、外部センサ201には、水平方向にレーザ光を走査可能(スキャン可能)な二次元LiDARが使用されている。第2実施形態に係る農業支援システムは、以上の構成以外、第1実施形態と同様の構成を有する。
<<Second embodiment>>
An agriculture support system according to a second embodiment of the present invention will be described. An agricultural support system according to the second embodiment of the present invention uses a robot 200 shown in FIG. The robot 200 has the same configuration as the robot 101 of the first embodiment, and is characterized by having an external sensor 201 capable of detecting obstacles as the external sensor 107 . A depth sensor (LiDAR (Light Detection And Ranging)), a LADAR (Laser Detection And Ranging) sensor, a ToF (Time of Flight), a stereo camera, or the like can be used as the external sensor 201, for example. In this example, the external sensor 201 uses a two-dimensional LiDAR capable of scanning laser light in the horizontal direction. The agriculture support system according to the second embodiment has the same configuration as that of the first embodiment except for the above configuration.

図10はロボット200が農場118を走行する様子を模式的に示す模式図である。図10に示すように、ロボット200には、草(不図示)を踏み潰しながら、限られた幅の畝間120を畝119に接触したり、乗り上げたりすることなく、走行することが求められる。従って、ロボット200は、限られた幅の畝間120を畝119の畝側面208及び畝側面208に生じる障害物210(後述の図11を参照。)に接触しないような走行軌道211(ロボット200が畝間120に接触しないような畝119の幅方向の位置を結ぶ走行軌道211(後述の図11を参照。))に沿って正確に走行する必要がある。ロボット200が、このような走行軌道211から逸脱する場合、畝側面208や障害物210に接触したり、畝119に乗り上げたりすることで、畝側面208を削り畝119に損傷を与える恐れがある。 FIG. 10 is a schematic diagram schematically showing how the robot 200 runs on the farm 118. As shown in FIG. As shown in FIG. 10, the robot 200 is required to run between ridges 120 of a limited width while trampling grass (not shown) without contacting or running over the ridges 119 . Therefore, the robot 200 has a traveling track 211 (the robot 200 moves along the ridge 120) so as not to come into contact with the ridge side 208 of the ridge 119 and the obstacle 210 (see FIG. 11 to be described later) generated on the ridge side 208. It is necessary to accurately travel along a travel track 211 (see FIG. 11 described later) that connects the positions of the ridges 119 in the width direction so as not to contact the ridges 120 . When the robot 200 deviates from such a traveling track 211, there is a risk that the ridge side 208 will be scraped and the ridge 119 will be damaged by contacting the ridge side 208 or the obstacle 210 or riding on the ridge 119. .

これに対して、ロボット200は、外部センサ201を備えている。ロボット200は、外部センサ201によって、畝側面208に生じる障害物210との衝突を感知する。ロボット200は、障害物210を感知した場合、障害物210への衝突を避けるように走行し、畝119に損傷を与えないようにする。 In contrast, the robot 200 has an external sensor 201 . The robot 200 senses a collision with an obstacle 210 that occurs on the ridge side surface 208 by an external sensor 201 . When the robot 200 senses the obstacle 210 , the robot 200 runs so as to avoid colliding with the obstacle 210 so as not to damage the ridges 119 .

図11は外部センサ201により畝側面208及び障害物210を検知しながら畝間120を走行するロボット200を説明するための図である。 FIG. 11 is a diagram for explaining the robot 200 traveling between the ridges 120 while detecting the ridge side surface 208 and the obstacle 210 by the external sensor 201. FIG.

図11に示すように、ロボット200は、外部センサ201を用いて、ロボット200の前方(進行方向)の所定範囲に、レーザ光212を水平方向において左右にスキャンしながら照射する。ロボット200は、レーザ光212が畝側面208や障害物210に当たって跳ね返ってくる跳ね返り時間に基づいて、畝側面208や畝側面208から突出する障害物210のロボット200に対する距離及び方向を検出する。 As shown in FIG. 11, the robot 200 uses an external sensor 201 to irradiate a predetermined range in front of the robot 200 (direction of movement) with a laser beam 212 while scanning left and right in the horizontal direction. The robot 200 detects the distance and direction of the ridge side surface 208 and the obstacle 210 protruding from the ridge side surface 208 to the robot 200 based on the rebound time of the laser beam 212 that bounces off the ridge side surface 208 and the obstacle 210 .

更に、ロボット200は、外部センサ201からレーザ光212を継続的に照射しながら走行することにより、被照射範囲の畝側面208の形状及び障害物210の形状を認識する。即ち、ロボット200が外部センサ201からレーザ光212を継続的に照射しながら走行すると、レーザ光212が照射された被照射範囲の物体(畝側面208、障害物210)内で、レーザ光212の跳ね返り時間及びこれに基づくロボット200に対する物体の距離及び方向の差が生じる。ロボット200は、このレーザ光212の被照射範囲に生じるロボット200に対する物体の距離及び方向の差に基づいて、被照射範囲の物体(畝側面208及び障害物210)の形状を認識する。 Furthermore, the robot 200 recognizes the shape of the ridge side surface 208 and the shape of the obstacle 210 in the irradiated range by traveling while continuously emitting the laser light 212 from the external sensor 201 . That is, when the robot 200 travels while continuously irradiating the laser beam 212 from the external sensor 201, the laser beam 212 is emitted within the object (ridge side surface 208, obstacle 210) in the irradiated range irradiated with the laser beam 212. Differences in the bounce time and the distance and orientation of the object relative to the robot 200 based on this result. The robot 200 recognizes the shape of the object (ridge side surface 208 and obstacle 210) in the irradiated range based on the difference in the distance and direction of the object with respect to the robot 200 that occurs in the irradiated range of the laser beam 212 .

畝側面208や障害物210からの距離認識により、ロボット200は、ロボット200が存在している(走行中の)畝間120の幅方向のより細かい位置(畝119に対する相対位置)を推定(特定)することが可能となる。例えば、ロボット200は、畝間120の両側面からの距離をそれぞれ推定(特定)することにより、ロボット200の畝間120の幅方向におけるより細かい位置を正確に特定することができる。 By recognizing the distance from the ridge side 208 and the obstacle 210, the robot 200 estimates (specifies) a finer position (relative position to the ridge 119) in the width direction of the ridge 120 where the robot 200 exists (during running). It becomes possible to For example, the robot 200 can accurately identify a finer position in the width direction between the ridges 120 of the robot 200 by estimating (identifying) the distances from both sides of the ridges 120 .

よって、ロボット200は、畝間120の両側の畝側面208のそれぞれからロボット200までの距離(又はレーザ光212の反射時間)に基づいて、畝間120の幅方向の中心位置を結ぶ走行軌道211に沿って、走行することができる。 Therefore, the robot 200 moves along the traveling track 211 connecting the center positions in the width direction of the ridges 120 based on the distance (or the reflection time of the laser light 212) from each of the ridge side surfaces 208 on both sides of the ridges 120 to the robot 200. and can run.

具体的に述べると、ロボット200は、進行方向の所定範囲にレーザ光212を畝側面208や障害物210に照射して畝側面208や障害物210からの反射時間が均一となる位置(即ち、走行軌道211)を導き出す計算をしながら走行する。即ち、ロボット200は、制御装置105によって、畝側面208からの反射時間が均一となる位置を走行するように制御されることで畝間120の幅方向の中心を結ぶ走行軌道211に沿って走行することができる。 Specifically, the robot 200 irradiates the ridge side surface 208 and the obstacle 210 with the laser beam 212 in a predetermined range in the traveling direction, and illuminates the position where the reflection time from the ridge side surface 208 and the obstacle 210 is uniform (that is, It travels while performing calculations for deriving the travel trajectory 211). That is, the robot 200 is controlled by the control device 105 so as to travel along a position where the reflection time from the ridge side surface 208 is uniform, so that the robot 200 travels along the travel track 211 connecting the centers of the ridges 120 in the width direction. be able to.

更に、ロボット200は、畝間120に障害物210がある場合であっても、外部センサ201が検出した障害物210に対する距離及び障害物210の位置に基づいて、障害物210を避けつつ、畝間120の幅方向の中心に設定された走行軌道211に沿って走行することができる。 Furthermore, even if there is an obstacle 210 between the ridges 120, the robot 200 can move between the ridges 120 while avoiding the obstacle 210 based on the distance to the obstacle 210 detected by the external sensor 201 and the position of the obstacle 210. can run along the running track 211 set at the center in the width direction of the .

即ち、ロボット200は、畝間120に障害物210がある場合であっても、障害物210を避けつつ、畝間120の幅方向の中心に設定された走行軌道211に沿って走行することができる。従って、ロボット200は、例えば、畝間120が曲がりくねって湾曲した形状を有する場合であっても、畝間120の幅方向の中心の走行軌道211に沿って走行することができる。 That is, even if there is an obstacle 210 between the ridges 120, the robot 200 can avoid the obstacle 210 and travel along the traveling track 211 set at the center of the ridge 120 in the width direction. Therefore, the robot 200 can travel along the center travel track 211 in the width direction of the ridges 120 even when the ridges 120 have a meandering and curved shape, for example.

よって、ロボット200が畝間120を走行するときに、ロボット200が畝間120の畝側面208に接触したり障害物210に接触したりする可能性を低下することができる。その結果、ロボット200は、自律走行による畝119の損傷及び一部崩壊等を防ぐことができる。 Therefore, when the robot 200 travels between the ridges 120, the possibility of the robot 200 contacting the ridge side surface 208 of the ridge 120 or the obstacle 210 can be reduced. As a result, the robot 200 can prevent the ridges 119 from being damaged and partially collapsed due to autonomous travel.

図12A及び図12Bは、外部センサ201の取り付け構造を説明するための図である。図12A及び図12Bに示すように、ロボット200に搭載された外部センサ201のレーザ光212の出射方向を地面に対して水平にした場合、畝119の高さや形状が栽培作物により異なることに起因して以下に述べることが生じ得る。 12A and 12B are diagrams for explaining the attachment structure of the external sensor 201. FIG. As shown in FIGS. 12A and 12B, when the emission direction of the laser beam 212 of the external sensor 201 mounted on the robot 200 is horizontal with respect to the ground, the height and shape of the ridges 119 are different depending on the cultivated crops. As a result, the following may occur.

図12Aに示すように、畝119の高さがロボット200(より厳密にはレーザ光212の出射部201aの位置)より高い場合、畝119の畝側面208に対してレーザ光212を照射することができる。従って、この場合、ロボット200は、畝側面208(畝119)を認識できる。これに対して、図12Bに示すように、畝119の高さがロボット200より低い場合、畝119の畝側面208にレーザ光212が当たらなくなってしまう。従って、この場合、ロボット200は、畝側面208(畝119)を認識できなくなってしまう。 As shown in FIG. 12A, when the height of the ridge 119 is higher than the robot 200 (more precisely, the position of the emitting portion 201a of the laser beam 212), the ridge side surface 208 of the ridge 119 is irradiated with the laser beam 212. can be done. Therefore, in this case, the robot 200 can recognize the ridge side surface 208 (ridge 119). On the other hand, as shown in FIG. 12B , if the height of the ridge 119 is lower than that of the robot 200 , the ridge side surface 208 of the ridge 119 is not irradiated with the laser beam 212 . Therefore, in this case, the robot 200 cannot recognize the ridge side surface 208 (ridge 119).

このように、ロボット200に搭載された外部センサ201のレーザ光212の出射方向を地面に対して水平にした場合、栽培作物の種類に応じて変化する畝119の高さや形状に起因して、ロボット200が畝119の畝側面208を認識できないことが生じ得る。 In this way, when the emission direction of the laser light 212 of the external sensor 201 mounted on the robot 200 is set horizontally with respect to the ground, due to the height and shape of the ridges 119 that change according to the type of cultivated crop, It may occur that the robot 200 cannot recognize the ridge side 208 of the ridge 119 .

これに対して、ロボット200に対する外部センサ201の取り付け構造は、可動式にしてもよい。即ち、外部センサ201は、レーザ光212を出射する出射部201aの向きが自在に変えられるように、ロボット200に対して可動するように、ロボット200に取り付けられてもよい。 On the other hand, the attachment structure of the external sensor 201 to the robot 200 may be made movable. That is, the external sensor 201 may be attached to the robot 200 so as to be movable with respect to the robot 200 so that the direction of the emitting portion 201a that emits the laser beam 212 can be freely changed.

このように外部センサ201の取り付け構造を可動式にした場合、ロボット200は、畝119の高さや形状の変化に応じて、外部センサ201のレーザ光212の出射方向を自在に変えることができる。これにより、ロボット200は、外部センサ201によって、畝119の畝側面208をより確実に認識できる。よって、ロボット200は、色々な種類の栽培作物を有する畝119の認識に対応することができる。 When the mounting structure of the external sensor 201 is made movable in this way, the robot 200 can freely change the emission direction of the laser light 212 of the external sensor 201 according to the change in the height and shape of the ridge 119 . Thereby, the robot 200 can more reliably recognize the ridge side surface 208 of the ridge 119 by the external sensor 201 . Thus, the robot 200 is capable of recognizing ridges 119 with different types of cultivated crops.

図12Cは、外部センサ201の取り付け構造を可動式にしたロボット200の構成例を示す図である。外部センサ201は、地面に対して垂直なロボット200の垂直軸に対して自在に前方向に傾斜できるように、ロボット200に取り付けられている。即ち、外部センサ201は、その出射部201a(レーザ光212の出射方向)に対して垂直な外部センサ201の軸がロボット200の垂直軸に対して、所定の角度まで自在に前方向に傾斜できるように、ロボット200に取り付けられている。図12Cでは、外部センサ201を約30°だけ垂直軸に対して前方向に傾斜するように可動させた状態でロボット200に取り付けられた状態を示す。図12Cに示すように、外部センサ201が地面の垂直方向に対して前傾した状態で取り付けられることによって、レーザ光212の出射部201aは、斜め下方に向く。従って、ロボット200は、外部センサ201によって、ロボット200の高さ(より厳密にはレーザ光212の出射部201aの位置の高さ)より低い畝119の畝側面208にレーザ光212を照射できる。 FIG. 12C is a diagram showing a configuration example of the robot 200 in which the mounting structure of the external sensor 201 is movable. The external sensor 201 is mounted on the robot 200 so that it can tilt forward freely with respect to the vertical axis of the robot 200 perpendicular to the ground. That is, the axis of the external sensor 201 perpendicular to the emitting portion 201a (the emitting direction of the laser beam 212) can be freely tilted forward by a predetermined angle with respect to the vertical axis of the robot 200. is attached to the robot 200 as shown. In FIG. 12C, the external sensor 201 is shown attached to the robot 200 in a state where it can be tilted forward with respect to the vertical axis by about 30°. As shown in FIG. 12C, the external sensor 201 is attached in a state of being inclined forward with respect to the vertical direction of the ground, so that the emitting portion 201a of the laser beam 212 is directed obliquely downward. Therefore, the robot 200 can use the external sensor 201 to irradiate the ridge side surface 208 of the ridge 119 lower than the height of the robot 200 (more strictly, the height of the position of the laser beam 212 emitting portion 201a).

図13及び図14は、図12Cに示すロボット200が、畝間120を走行した場合のレーザ光212の照射状態を示す。図13及び図14に示す例では、ロボット200が、時刻t0から畝間120を矢印a1に示す方向に定速で走行しながら、一定時間間隔で(所定時間T1毎に)外部センサ201からレーザ光212を照射した場合のレーザ光212の照射状態を示す。 13 and 14 show the irradiation state of the laser beam 212 when the robot 200 shown in FIG. 12C travels between the ridges 120. FIG. In the example shown in FIGS. 13 and 14, the robot 200 travels between the ridges 120 in the direction indicated by the arrow a1 at a constant speed from time t0, and emits a laser beam from the external sensor 201 at regular time intervals (every predetermined time T1). 2 shows an irradiation state of a laser beam 212 when the laser beam 212 is irradiated.

外部センサ201は、その出射部201aの向きが斜め下方に向いた状態になっている。従って、図13及び図14に示すように、レーザ光212は、ロボット200の左側及び右側に存在する畝119の上端から下端(畝側面208と畝間120との間の境界)及び畝間120に亘って照射される。 The external sensor 201 is in a state in which the emitting portion 201a thereof faces obliquely downward. Therefore, as shown in FIGS. 13 and 14, the laser beam 212 extends from the top to the bottom of the ridges 119 on the left and right sides of the robot 200 (the boundaries between the ridge side surfaces 208 and the ridges 120) and the ridges 120. is irradiated.

従って、ロボット200は、畝間120の表面形状、畝間120に存在する物体(障害物)、畝側面208の形状(畝側面208に生じる障害物210も含む。)、及び、畝間120と畝側面208との間の境界(即ち、畝119の位置)をより確実に認識(検出)できる。よって、ロボット200は、畝間120と畝側面208との間の境界を認識することで湾曲した畝間120、畝間120にできた障害物210も検知して、認識した畝間120の中心を結ぶ走行軌道211に沿って畝間120を走行することができる。 Therefore, the robot 200 can determine the surface shape of the ridge 120, objects (obstacles) present in the ridge 120, the shape of the ridge side 208 (including the obstacle 210 occurring on the ridge side 208), and the ridge 120 and the ridge side 208. (that is, the position of the ridge 119) can be more reliably recognized (detected). Therefore, by recognizing the boundary between the ridge 120 and the ridge side surface 208, the robot 200 can also detect the curved ridge 120 and the obstacle 210 formed in the ridge 120, and detect the traveling trajectory connecting the center of the recognized ridge 120. 211 can be run through furrows 120 .

更に、上述したように、外部センサ201を前傾させることが可能な可動式構造にした場合、ロボット200は、外部センサ201として、安価な二次元LiDARを用いる場合であっても、より確実に畝119、畝間120及び障害物210を認識することができる。 Furthermore, as described above, if the external sensor 201 has a movable structure that can be tilted forward, the robot 200 can more reliably operate even if an inexpensive two-dimensional LiDAR is used as the external sensor 201. Ridges 119, ridges 120 and obstacles 210 can be discerned.

<ロボットの動作2(スタック解消動作)>
図15は畝間120のぬかるみ222に嵌ってスタックしたロボット200の状態を示した図である。作物が栽培される畝119の間である畝間120に、天候や人的介入によって、畝間120の表面が凹凸になり、その凹凸に水がたまることによって、水たまりや泥状の軟弱な状態な領域(即ち、ぬかるみ222)が、畝間120に生じ得る。
<Robot Operation 2 (Stuck Clearing Operation)>
FIG. 15 shows the state of the robot 200 stuck in the mud 222 between the ridges 120 . Between the ridges 119 between the ridges 119 where crops are grown, the surface of the ridges 120 becomes uneven due to weather or human intervention, and water accumulates on the unevenness, resulting in puddles or muddy soft areas. (ie, slush 222 ) may form between furrows 120 .

このような水たまり及びぬかるみ222が、ロボット200が走行する畝間120に存在する場合、これらによって、ロボット200の進行が妨げられる(例えば、スタックしてしまう)ことによって、ロボット200が進むことができなくなってしまう。 If such puddles and mud 222 are present in the furrow 120 in which the robot 200 is traveling, they will impede the progress of the robot 200 (for example, cause it to become stuck), thereby preventing the robot 200 from progressing. end up

例えば、図15に示すように、ロボット200が走行している畝間120にぬかるみ222が存在する場合、ロボット200がぬかるみ222に嵌り前進走行ができなくなる(即ち、ロボット200がスタック状態になってしまう。)ことが生じ得る。 For example, as shown in FIG. 15, if there is mud 222 between the ridges 120 in which the robot 200 is running, the robot 200 gets stuck in the mud 222 and cannot move forward (i.e., the robot 200 becomes stuck). ) can occur.

これに対して、ロボット200は、以下に述べるように、スタックを解消するための動作(スタック解消動作)を行う。図16はロボット200が実行するスタック解消動作の例を説明するためのフローチャートである。なお、図16に示すロボット200の各動作(処理)は、制御装置105によって実行される。 In response to this, the robot 200 performs an operation for removing the stack (stuck removal operation), as described below. FIG. 16 is a flow chart for explaining an example of the stack clearing operation executed by the robot 200. FIG. Note that each operation (process) of the robot 200 shown in FIG. 16 is executed by the control device 105 .

ロボット200は、ステップ260にて、前進走行の停止を検出すると、ステップ261に進む。ロボット200は、ステップ261にて、ロボット200の向きが進路方向(本例では、前方向)に向いている否かを判定する。ロボット200の向きが進路方向に向いていない場合、ロボット200は、ステップ261にて「No」と判定してステップ262に進む。ステップ262にて、ロボット200は、所定の距離だけ後退した後、旋回することによりロボット200の向きが進路方向になるように修正する。 The robot 200 proceeds to step 261 when detecting the stop of forward running in step 260 . At step 261, the robot 200 determines whether or not the robot 200 is oriented in the course direction (forward direction in this example). If the orientation of the robot 200 is not in the course direction, the robot 200 determines “No” in step 261 and proceeds to step 262 . At step 262, the robot 200 retreats by a predetermined distance, and then turns to correct the orientation of the robot 200 so that it is in the course direction.

ロボット200の向きが進路方向に向いている場合、ロボット200は、ステップ261にて「Yes」と判定してステップ263に進む。ステップ263にて、ロボット200は、ロボット200が傾斜していないか(ロボット200の傾きはないか)否かを判定する。 If the orientation of the robot 200 is in the course direction, the robot 200 determines “Yes” in step 261 and proceeds to step 263 . At step 263, the robot 200 determines whether or not the robot 200 is tilted (whether the robot 200 is tilted).

ロボット200が傾斜している場合、ロボット200は、ステップ263にて「No」と判定してステップ264に進み、ロボット200の姿勢が正常な姿勢(傾斜していない姿勢)となる位置に回帰した後、ステップ265に進む。 If the robot 200 is tilted, the robot 200 determines "No" in step 263, proceeds to step 264, and returns to a position where the posture of the robot 200 becomes a normal posture (non-tilted posture). Then go to step 265 .

ロボット200が傾斜していない場合、ロボット200は、ステップ263にて「Yes」と判定してステップ265に進み、駆動輪114が回転しているか否かを判定する。 If the robot 200 is not tilted, the robot 200 determines "Yes" in step 263 and proceeds to step 265 to determine whether the drive wheels 114 are rotating.

駆動輪114が回転していない場合、ロボット200は、ステップ265にて「No」と判定してステップ266に進み、その動作を停止する。 If the drive wheels 114 are not rotating, the robot 200 makes a "No" determination in step 265, proceeds to step 266, and stops its operation.

駆動輪114が回転している場合、ロボット200は、ステップ265にて「Yes」と判定してステップ267に進み、前進走行を試みてステップ267に進み、進路方向において、予想進路位置に変化がないか否かを判定する。なお、予想進路位置とは、ロボット200が走行すると予測される位置である。例えば、予想進路位置は、ロボット200の進行方向において、ロボット200の現時点の位置から所定距離だけ前方に離れた位置である。従って、ロボット200の位置が変化する(例えば、所定距離だけ前方に変化する。)と、予想進路位置も変化する(例えば、所定距離だけ前方に変化する。)。 If the drive wheels 114 are rotating, the robot 200 determines "Yes" in step 265, proceeds to step 267, attempts to move forward, proceeds to step 267, and determines that there is no change in the predicted course position in the course direction. Determine whether or not there is It should be noted that the predicted course position is a position where the robot 200 is predicted to travel. For example, the predicted course position is a position a predetermined distance ahead of the current position of the robot 200 in the traveling direction of the robot 200 . Therefore, when the position of the robot 200 changes (for example, forward by a predetermined distance), the predicted course position also changes (for example, forward by a predetermined distance).

予想進路位置に変化がある場合、ロボット200がスタック状態ではないか、或いは、既にスタックが解消されていると考えられるので、ロボット200は、ステップ268にて「No」と判定してステップ281に進む。ステップ281にて、ロボット200は、自己位置補正(即ち、走行軌道211からずれている場合、走行軌道211に戻るように位置を修正する。)を行う。その後、ロボット200は、ステップ282に進み、前進走行を再び開始する。 If there is a change in the predicted course position, it is considered that the robot 200 is not in a stuck state or that the stuck state has already been resolved. move on. At step 281, the robot 200 corrects its own position (that is, corrects the position so as to return to the traveling track 211 when deviated from the traveling track 211). The robot 200 then proceeds to step 282 and resumes forward travel.

予想進路位置に変化がない場合、ロボット200がスタック状態であることが考えられる。従って、この場合、ロボット200は、ステップ268にて「Yes」と判定してステップ270に進み、スタック解消処理を開始してステップ271に進む。ロボット200は、ステップ271に進み、2軸の駆動輪114の両方を同じ前進回転方向に回転させることと、後進回転方向に回転させることとを一定回数繰り返すことにより、前進及び後退を一定回数繰り返す第1動作を行う。 If there is no change in the predicted course position, it is conceivable that the robot 200 is stuck. Therefore, in this case, the robot 200 makes a “Yes” determination in step 268 , proceeds to step 270 , starts stack elimination processing, and proceeds to step 271 . The robot 200 advances to step 271 and repeats forward and backward rotations a predetermined number of times by rotating both of the two-axis drive wheels 114 in the same forward rotation direction and rotating them in the reverse rotation direction a predetermined number of times. Perform the first action.

ロボット200は、ステップ272に進み、第1動作の回転速度より駆動輪114の回転速度を低く設定し、2軸の駆動輪114の両方を同じ前進回転方向に回転させることと、後進回転方向に回転させることとを一定回数繰り返すことにより、前進及び後退を一定回数繰り返す第2動作を行う。 The robot 200 advances to step 272 to set the rotational speed of the driving wheels 114 lower than the rotational speed of the first operation, and rotates both of the driving wheels 114 on the two axes in the same forward rotational direction and in the reverse rotational direction. By repeating the rotation for a predetermined number of times, the second motion of repeating forward movement and backward movement for a predetermined number of times is performed.

ロボット200は、ステップ273に進み、予想進路位置に移動可能か否かを判定する。即ち、ロボット200は、予想進路位置への移動を試み、予想進路位置に移動できたか否かを判定する。 The robot 200 proceeds to step 273 and determines whether or not it can move to the predicted course position. That is, the robot 200 attempts to move to the predicted course position, and determines whether or not it has been able to move to the predicted course position.

ロボット200が予想進路位置に移動できない場合、ロボット200は、ステップ273にて「No」と判定してステップ274に進み、所定の角度の旋回を繰り返すスタック解消旋回動作の実行を開始する。ロボット200は、ステップ275に進み、2つの駆動輪114の一方を前進回転方向に回転させ、2つの駆動輪114の他方を後進回転方向に回転させることによって、所定の第1角度(45°)だけ第1旋回方向に旋回する。更に、ロボット200は、2つの駆動輪114の一方を後進回転方向に回転させ、2つの駆動輪114の他方を前進回転方向に回転させることによって、所定の第1角度(45°)だけ第1旋回方向とは反対の第2旋回方向に所定の第1角度(45°)だけ旋回する。更に、ロボット200は、所定の角度(90度)だけ第1旋回方向に旋回した後、第2旋回方向に所定の角度(90度)だけ旋回する。以上の第1スタック解消旋回動作を所定の回数だけ繰り返し行う。 If the robot 200 cannot move to the predicted course position, the robot 200 makes a "No" determination in step 273, proceeds to step 274, and starts execution of a stack elimination turning motion that repeats turns of a predetermined angle. The robot 200 advances to step 275 and rotates one of the two drive wheels 114 in the forward rotation direction and rotates the other of the two drive wheels 114 in the reverse rotation direction, thereby rotating a predetermined first angle (45°). turn in the first turning direction. Further, the robot 200 rotates one of the two drive wheels 114 in the backward rotation direction and rotates the other of the two drive wheels 114 in the forward rotation direction, thereby rotating the robot 200 to the first angle (45°) by a predetermined first angle (45°). It turns by a predetermined first angle (45°) in a second turning direction opposite to the turning direction. Further, after turning in the first turning direction by a predetermined angle (90 degrees), the robot 200 turns in the second turning direction by a predetermined angle (90 degrees). The above-described first stack elimination turning motion is repeated for a predetermined number of times.

ロボット200は、ステップ276に進み、駆動輪114の回転速度を所定の速度だけ変えた(例えば、所定の速度だけ低くした)こと以外は第1スタック解消旋回動作と同様の第2スタック解消旋回動作を、所定の回数だけ繰り返し行う。 The robot 200 proceeds to step 276 and performs a second destucking turn motion similar to the first destucking turning motion, except that the rotational speed of the drive wheels 114 is changed by a predetermined speed (eg, decreased by a predetermined speed). is repeated a predetermined number of times.

ロボット200は、ステップ277に進むと、予想進路位置に回帰可能(移動可能)か否かを再び判定する。即ち、ロボット200は、予想進路位置への移動を試み、予想進路位置に移動できたか否かを判定する。 After proceeding to step 277, the robot 200 determines again whether it is possible to return (movable) to the predicted course position. That is, the robot 200 attempts to move to the predicted course position, and determines whether or not it has been able to move to the predicted course position.

ロボット200が予想進路位置に移動できない場合、ロボット200は、ステップ277にて「No」と判定して、ステップ278に進み、上述の第1及び第2スタック旋回回避動作を更に所定回数だけ実行した後、ロボット200が予想進路位置に回帰可能であるか否かを判定することを、所定時間経過するか、或いは、第2スタック旋回回避動作を所定の回数だけ実行した後の時点にて予想進路位置に回帰可能であると判定されるまで繰り返し実行する。所定時間が経過した場合、ロボット200は、その動作を停止する。 If the robot 200 cannot move to the predicted course position, the robot 200 makes a "No" determination in step 277, proceeds to step 278, and executes the above-described first and second stack turning avoidance motions a predetermined number of times. Thereafter, whether or not the robot 200 can return to the predicted course position is determined after a predetermined time has elapsed or after the second stack turning avoidance operation has been performed a predetermined number of times. Execute repeatedly until it is determined that the position can be reverted to. When the predetermined time has passed, the robot 200 stops its operation.

ロボット200が予想進路位置に回帰可能であると判定した場合、スタックが解消されていると考えられるのでロボット200は、ステップ277に戻り、「Yes」と判定してステップ279に進み、スタック解消処理を終了して、ステップ281に進む。ステップ281にて、ロボット200は、自己位置補正を行う。その後、ロボット200は、ステップ282に進み、前進走行を再び開始する。 If it is determined that the robot 200 can return to the predicted course position, it is considered that the stuck state has been resolved. and go to step 281 . At step 281, the robot 200 corrects its own position. The robot 200 then proceeds to step 282 and resumes forward travel.

<効果>
第2実施形態に係る農業支援システムは、第1実施形態に係る農業支援システムSと同様の効果を奏する。更に、この農業支援システムによれば、ロボット200が例えばぬかるみ222にはまってスタックした場合であっても、ロボット200は、自律的にスタックを解消することができる。よって、この農業支援システムは、ユーザに負担をかけることなく、農場118のデータを収集することができる。
<effect>
The agricultural support system according to the second embodiment has the same effects as the agricultural support system S according to the first embodiment. Furthermore, according to this agricultural support system, even if the robot 200 gets stuck in the mud 222, for example, the robot 200 can autonomously remove the stuck. Therefore, this farming support system can collect data of the farm 118 without imposing a burden on the user.

<<第3実施形態>>
本発明の第3実施形態に係る農業支援システムについて説明する。本発明の第3実施形態に係る農業支援システムは、図17に示すロボット300を用いている。ロボット300は、制御装置105が記憶装置105bを更に備える点及び外部センサ107に代えて、右畝検知センサ301a及び左畝検知センサ301bを備えている点以外、第1実施形態のロボット101と同様の構成を有する。第3実施形態に係る農業支援システムは、以上の構成以外、第1実施形態と同様の構成を有する。
<<Third Embodiment>>
An agricultural support system according to a third embodiment of the present invention will be described. An agricultural support system according to the third embodiment of the present invention uses a robot 300 shown in FIG. The robot 300 is the same as the robot 101 of the first embodiment, except that the control device 105 further includes a storage device 105b and that instead of the external sensor 107, a right ridge detection sensor 301a and a left ridge detection sensor 301b are provided. has a configuration of The agriculture support system according to the third embodiment has the same configuration as that of the first embodiment except for the above configuration.

図18に示すように、右畝検知センサ301aは、ロボット300の周囲に存在する物体(例えば、畝、障害物等)とロボット300との相対関係についての情報(例えば、ロボット300と物体との間の距離(距離情報)、物体の方向)を取得し、取得した情報を制御装置105に送信する。右畝検知センサ301aは、物体とロボット300との相対関係についての情報を取得可能なセンサであり、例えば、超音波センサ、近接センサ(磁気センサ等)、光学センサ(赤外線センサ等)等である。 As shown in FIG. 18, the right ridge detection sensor 301a provides information about the relative relationship between the robot 300 and objects (for example, ridges, obstacles, etc.) existing around the robot 300 (for example, information about the relationship between the robot 300 and the object). The distance (distance information) and the direction of the object) are acquired, and the acquired information is transmitted to the control device 105 . The right ridge detection sensor 301a is a sensor that can acquire information about the relative relationship between an object and the robot 300, and is, for example, an ultrasonic sensor, a proximity sensor (magnetic sensor, etc.), an optical sensor (infrared sensor, etc.), or the like. .

左畝検知センサ301bは、ロボット300の周囲に存在する物体(例えば、畝、障害物)とロボット300と間の相対関係についての情報(例えば、ロボット300と物体との間の距離(距離情報)、物体の方向)を取得し、取得した情報を制御装置105に送信する。左畝検知センサ301bは、物体とロボット300との相対関係についての情報を取得可能なセンサであり、例えば、超音波センサ、近接センサ(磁気センサ等)、光学センサ(赤外線センサ等)等である。 The left ridge detection sensor 301b detects information about the relative relationship between the robot 300 and objects (for example, ridges and obstacles) existing around the robot 300 (for example, the distance between the robot 300 and the object (distance information) , direction of the object) and transmits the acquired information to the control device 105 . The left ridge detection sensor 301b is a sensor that can acquire information about the relative relationship between an object and the robot 300, and is, for example, an ultrasonic sensor, a proximity sensor (magnetic sensor, etc.), an optical sensor (infrared sensor, etc.), or the like. .

制御装置105は、右畝検知センサ301a及び左畝検知センサ301bから情報を取得すると、同時刻に他のセンサ等により取得された同一物体に関するリンク情報(例えば、位置情報、物体の方向、物体の傾き、物体の高さ等)とを対応付ける。なお、説明の便宜上、「右畝検知センサ301a及び左畝検知センサ301bから取得された情報」及び/又はリンク情報は、「物体情報」とも称呼される場合がある。制御装置105は、物体情報に基づいて、モータ112を制御する。例えば、制御装置105は、物体情報に基づいて、ロボット300が畝との接触や障害物との衝突を回避して走行するように、モータ112を制御する。 When information is acquired from the right ridge detection sensor 301a and the left ridge detection sensor 301b, the control device 105 acquires link information (for example, position information, direction of the object, direction of the object, etc.) related to the same object acquired by other sensors at the same time. inclination, height of an object, etc.). For convenience of explanation, "information acquired from right ridge detection sensor 301a and left ridge detection sensor 301b" and/or link information may also be referred to as "object information". The control device 105 controls the motor 112 based on the object information. For example, the control device 105 controls the motor 112 based on the object information so that the robot 300 runs while avoiding contact with ridges and collision with obstacles.

内部センサ108は、既述したように、例えば、ロボット300の傾き、ロボット300の移動方向、ロボット300の速度、地磁気、ロボット300の方向(向き)及びロボット300の回転角度(旋回角度)等を取得し、取得したこれらの情報を制御装置105に送信する。内部センサ108は、例えば、ジャイロセンサ、加速度センサ、磁気センサ等である。 As described above, the internal sensor 108 detects, for example, the tilt of the robot 300, the moving direction of the robot 300, the speed of the robot 300, geomagnetism, the direction (orientation) of the robot 300, the rotation angle (turning angle) of the robot 300, and the like. It acquires and transmits the acquired information to the control device 105 . The internal sensor 108 is, for example, a gyro sensor, an acceleration sensor, a magnetic sensor, or the like.

<ロボットの動作3(隣接する畝間への移動)>
図19はロボット300の隣接する畝間への移動の動作例を説明するための図である。図19に示すように、農場118には、畝A321a、畝B321b及び畝C321cが左から右に向かってこの順で並ぶように形成されている。隣接する畝A321a及び畝B321bの間には、畝間A322aが形成され、隣接する畝B321b及び畝C321cの間には、畝間B322bが形成されている。以下では、このような農場118において、ロボット300が畝間A322aから畝間B322bへ移動する例について説明する。なお、この例では、ロボット300が隣接する畝間B322bへ移動するときに、ロボット300が90°右旋回するようにしているが、ロボット300が隣接する畝間B322bへ移動するときに、ロボット300が270°左旋回するようにしてもよい。
<Action 3 of the robot (movement to adjacent ridge)>
FIG. 19 is a diagram for explaining an example of movement of the robot 300 between adjacent ridges. As shown in FIG. 19, on the farm 118, ridges A 321a, B 321b and C 321c are arranged in this order from left to right. Between adjacent ridges A321a and ridges B321b, ridges A322a are formed, and between adjacent ridges B321b and ridges C321c, ridges B322b are formed. An example in which the robot 300 moves from the furrow A322a to the furrow B322b in such a farm 118 will be described below. In this example, when the robot 300 moves to the adjacent ridge B322b, the robot 300 turns right by 90 degrees. You may make it 270-degree left turn.

図20はロボット300が畝間A322aから隣接する畝間B322bへ移動するときの動作例を説明するためのフローチャートである。なお、図20に示すロボット300の各動作(処理)は、制御装置105によって実行される。 FIG. 20 is a flowchart for explaining an operation example when the robot 300 moves from the ridge A 322a to the adjacent ridge B 322b. Each operation (process) of robot 300 shown in FIG. 20 is executed by control device 105 .

ステップ360にて、ロボット300は畝間A322aを直進している。ロボット300が畝間A322aを直進している(例えば畝間移動位置畝A323aに存在している)場合、ロボット300は、右畝検知センサ301aによって畝A321a(物体)を検知し、且つ、左畝検知センサ301bによって畝B321b(物体)を検知している状態になる。 At step 360, robot 300 is traveling straight through furrow A322a. When the robot 300 is traveling straight through the ridge A322a (for example, existing at the ridge moving position ridge A323a between the ridges), the robot 300 detects the ridge A321a (object) with the right ridge detection sensor 301a, and detects the ridge A321a (object) with the left ridge detection sensor. A ridge B321b (object) is detected by 301b.

ロボット300は、ステップ361に進み、直進しながら、右畝検知センサ301a及び左畝検知センサ301bが共に物体(畝A321a及び畝B321b)を検知していないか否かを判定する。 The robot 300 proceeds to step 361 and determines whether or not the right ridge detection sensor 301a and the left ridge detection sensor 301b both detect objects (ridge A 321a and ridge B 321b) while traveling straight.

ロボット300が畝間A322aの一端をこえて、右畝検知センサ301a及び左畝検知センサ301bが畝A321a及び畝B321bを検知できない位置まで直進する。すると、ロボット300は、右畝検知センサ301a及び左畝検知センサ301bが共に物体を検知していない未検知状態になる。 The robot 300 goes over one end of the ridge A322a and goes straight to a position where the right ridge detection sensor 301a and the left ridge detection sensor 301b cannot detect the ridge A321a and the ridge B321b. Then, the robot 300 enters an undetected state in which neither the right ridge detection sensor 301a nor the left ridge detection sensor 301b detects an object.

従って、ステップ361では、ロボット300が畝間A322aの一端をこえたか否かを判定するために、ロボット300は、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない未検知状態であるか否かを判定する。なお、畝A321a及び畝B321bの畝端は、形状の相違、崩れ等に起因して、これらの畝端の列方向の位置がずれている場合がある。このため、ロボット300は、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない未検知であるか否かを判定することによって、ロボット300が畝間A322aの一端をこえたか否かを判定している。 Therefore, in step 361, in order to determine whether the robot 300 has crossed one end of the ridge A 322a, the robot 300 detects an undetected object in which both the right ridge detection sensor 301a and the left ridge detection sensor 301b have not detected an object. state. The ridge ends of the ridge A 321a and the ridge B 321b may be misaligned in the column direction due to differences in shape, collapse, or the like. Therefore, the robot 300 determines whether or not the right ridge detection sensor 301a and the left ridge detection sensor 301b have not detected an object, thereby determining whether the robot 300 has crossed one end of the ridge A 322a. is determining whether or not

ステップ361にて、右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している場合、ロボット300は、ステップ361にて「No」と判定してステップ362に進む。 If at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object in step 361, the robot 300 makes a "No" determination in step 361 and proceeds to step 362.

ステップ362にて、ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つによって畝が検知できると想定される範囲(以下、「畝想定範囲」と称呼される。)外に存在するか否かを判定する。なお、ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝想定範囲を特定する。畝想定範囲は、例えば、畝間322aと畝間322aを延長させた場合の延長範囲(畝間A322aの端から延びる延長部分の範囲)とからなる範囲である。 At step 362, the robot 300 assumes that the ridge can be detected by at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b based on the self-location information acquired by the GNSS unit 111. It is determined whether or not it exists outside the range (hereinafter referred to as "assumed ridge range"). The robot 300 identifies the assumed ridge range based on the self-location information acquired by the GNSS unit 111 and the ridges, ridge ends, and inter-ridge positions of the farm map stored in the ROM of the control device 105 . The assumed ridge range is, for example, a range including the ridge 322a and the extended range when the ridge 322a is extended (range of the extended portion extending from the edge of the ridge A322a).

ロボット300が畝想定範囲外に存在するにも関わらず右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している(ステップ361にて「No」との判定)場合、ロボット300が以下に述べる状態にあることが考えられる。即ち、この場合、ロボット300は、畝A321a及び畝B321bの畝端から離れた位置にて、畝以外の物体(例えば障害物)を検知している状態にある可能性が高いことが考えられる。 If at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object (determined "No" in step 361) even though the robot 300 is outside the assumed ridge range, the robot It is conceivable that 300 is in the following states. That is, in this case, it is highly possible that the robot 300 is in a state of detecting an object (for example, an obstacle) other than the ridges at a position away from the ridge ends of the ridges A 321a and B 321b.

従って、ロボット300が畝想定範囲外に存在する場合、ロボット300は、畝間A322aから畝間B322bへ移動できない可能性があるので、ステップ362にて「Yes」と判定してステップ363に進み、異常判定(ロボット300が異常状態であるとの判定)を行う。なお、異常判定を行った場合、ロボット300は、その動作を停止する。 Therefore, if the robot 300 exists outside the expected range of the ridge, there is a possibility that the robot 300 cannot move from the ridge A 322a to the ridge B 322b. (Determination that the robot 300 is in an abnormal state) is performed. It should be noted that the robot 300 stops its operation when an abnormality determination is made.

これに対して、ロボット300が畝想定範囲内に存在する場合、右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知しており、ロボット300が畝間322aの端を完全にこえていないと考えられる。従って、この場合、ロボット300は、ステップ362にて「No」と判定してステップ360に進み、直進を継続する。 On the other hand, when the robot 300 exists within the assumed ridge range, at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object, and the robot 300 completely crosses the edge of the ridge 322a. Not likely. Therefore, in this case, the robot 300 determines "No" at step 362, proceeds to step 360, and continues straight ahead.

ステップ361にて、ロボット300が畝間322aの端を完全にこえて、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知しなくなった場合、ロボット300は、ステップ361にて「Yes」と判定してステップ364に進む。 In step 361, if the robot 300 has completely passed the end of the ridge 322a and both the right ridge detection sensor 301a and the left ridge detection sensor 301b no longer detect the object, the robot 300 responds in step 361 with "Yes ” and proceeds to step 364 .

ステップ364にて、ロボット300は、記憶装置105bに記憶しておいた一定の第1規定距離だけ直進する。なお、この一定の第1規定距離は便宜上「第1距離」とも称呼される場合がある。ロボット300が一定の第1規定距離だけ直進したか否かは内部センサ108によって取得された内部センサデータに基づいてロボット300の直進開始位置からの距離(例えば速度を時間で積分して距離)を測定し、測定した距離に基づいて判定される(後述する第2乃至第5規定距離に関しても同様。)。ロボット300は、GNSS部111によって取得した自己位置情報及び農場マップに基づいて、第1規定距離を特定して、特定した第1規定距離を記憶装置105bに記憶するようにしてもよい(後述する第2乃至第5規定距離に関しても同様。)。 At step 364, the robot 300 advances straight by the constant first specified distance stored in the storage device 105b. In addition, this fixed 1st prescribed distance may be called "1st distance" for convenience. Whether or not the robot 300 has traveled straight a certain first specified distance is determined based on the internal sensor data acquired by the internal sensor 108 by calculating the distance (for example, the distance obtained by integrating the speed over time) from the straight travel start position of the robot 300 . It is measured and determined based on the measured distance (the same applies to the second to fifth prescribed distances described later). The robot 300 may specify the first specified distance based on the self-location information and the farm map acquired by the GNSS unit 111, and store the specified first specified distance in the storage device 105b (described later). The same applies to the second to fifth prescribed distances.).

右畝検知センサ301a及び左畝検知センサ301bの両方が物体(畝A321a及び畝B321b)を検知しなくなった時点の位置(以下、「第1畝未検知位置」と称呼される。)で、ロボット300が右旋回方向に90°旋回した後に直進すると、駆動輪114が畝B321bに乗り上げてしまう恐れがある。このため、ロボット300は、第1畝未検知位置から進行方向に第1規定距離だけ離れた位置で、旋回する必要がある。従って、ロボット300は、ステップ364にて、第1規定距離だけ直進して、ロボット300が畝B321bに乗り上げることなく旋回することが可能な旋回位置A323bに移動する。 At the position when both the right ridge detection sensor 301a and the left ridge detection sensor 301b no longer detect the object (ridge A321a and ridge B321b) (hereinafter referred to as "first ridge undetected position"), the robot If the vehicle 300 goes straight after turning 90 degrees to the right, the drive wheels 114 may run over the ridge B321b. Therefore, the robot 300 needs to turn at a position separated from the first ridge undetected position by the first specified distance in the traveling direction. Therefore, in step 364, the robot 300 advances straight by the first prescribed distance and moves to the turning position A323b where the robot 300 can turn without riding on the ridge B321b.

その後、ロボット300は、ステップ365に進み、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していないか否かを判定する。これにより、ロボット300は、旋回位置A323bにて右畝検知センサ301a及び左畝検知センサ301bによってロボット300の左側及び右側に移動の妨げとなる障害物が存在しないことを確認する。 After that, the robot 300 proceeds to step 365 and determines whether or not both the right ridge detection sensor 301a and the left ridge detection sensor 301b have detected an object. As a result, the robot 300 confirms that there are no obstacles on the left and right sides of the robot 300 at the turning position A323b using the right ridge detection sensor 301a and the left ridge detection sensor 301b.

右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している場合、ロボット300の移動の妨げとなる障害物が存在する可能性が高いので、ロボット300は、ステップ365にて「No」と判定してステップ366に進む。ステップ366にて、ロボット300は、異常判定を行う。 If at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object, there is a high possibility that there is an obstacle that hinders the movement of the robot 300. A determination of “No” is made and the process proceeds to step 366 . At step 366, the robot 300 makes an abnormality determination.

右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない場合、ロボット300は、ステップ365にて「Yes」と判定してステップ367に進む。ステップ367にて、ロボット300は、旋回位置A323bにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ368に進む。即ち、ロボット300は、その向きが畝の列方向に対して垂直になるまでの旋回を、試みる。 When neither the right ridge detection sensor 301a nor the left ridge detection sensor 301b detects an object, the robot 300 makes a “Yes” determination in step 365 and proceeds to step 367 . In step 367, the robot 300 attempts to turn 90 degrees to the right by controlling the rotation of the driving wheels 114 at the turning position A323b, and proceeds to step 368. That is, the robot 300 attempts to turn until its orientation is perpendicular to the row direction of the ridges.

ステップ368にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 368, the robot 300 determines whether or not the robot 300 has turned right by 90 degrees based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ368にて「No」と判定してステップ369に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ367に進み、右旋回方向に90°旋回できるまで旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ368に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ステップ369に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 makes a "No" determination in step 368, proceeds to step 369, and waits for the predetermined time stored in the storage device 105b in advance. Retry within That is, in this case, the robot 300 proceeds to step 367 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds again to step 368 to determine whether the robot 300 has turned 90° in the right turning direction. If the robot 300 has not yet turned 90 degrees to the right, the process proceeds to step 369 to determine whether or not a certain period of time has elapsed since the timer 105a started counting.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、ステップ369にて「No」と判定して再びステップ367の動作及びステップ368の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" in step 369 and performs the operations of steps 367 and 368 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、「Yes」と判定してステップ370に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes", proceeds to step 370, and performs an abnormality determination.

ステップ368にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ368にて「Yes」と判定してステップ371に進み、記憶装置105bに記憶しておいた一定の第2規定距離だけ直進する。即ち、ロボット300は、畝A321a、畝B321b及び畝C321cが並ぶ方向に沿って、一定の第2規定距離だけ直進する。なお、この一定の第2規定距離は、旋回位置A323bから右畝検知センサ301aによって畝B321bの畝端が検知可能な位置(例えば、畝端移動位置A323c)までの距離に対応する。 In step 368, if the robot 300 was able to turn 90 degrees in the right turning direction, the robot 300 determines "Yes" in step 368, proceeds to step 371, and stores the result in the storage device 105b. Go straight for a second specified distance. That is, the robot 300 advances straight by a constant second prescribed distance along the direction in which the ridge A321a, the ridge B321b, and the ridge C321c are arranged. Note that this constant second specified distance corresponds to a distance from the turning position A323b to a position where the ridge end of the ridge B321b can be detected by the right ridge detection sensor 301a (for example, the ridge end movement position A323c).

その後、ロボット300は、ステップ372に進み、右畝検知センサ301aが物体(畝B321b)を検知しており、且つ、左畝検知センサ301bが物体を検知していないか否かを判定する。即ち、ロボット300は、右畝検知センサ301aのみが物体(畝B321b)を検知しているか否かを判定する。 After that, the robot 300 proceeds to step 372 and determines whether or not the right ridge detection sensor 301a has detected an object (ridge B321b) and the left ridge detection sensor 301b has not detected an object. That is, the robot 300 determines whether or not only the right ridge detection sensor 301a is detecting the object (ridge B321b).

右畝検知センサ301a及び左畝検知センサ301bの検知状態が、「右畝検知センサ301aのみが物体を検知している状態」ではない場合、ロボット300は、ステップ372にて「No」と判定してステップ373に進み、異常判定を行う。 If the detection state of the right ridge detection sensor 301a and the left ridge detection sensor 301b is not "a state in which only the right ridge detection sensor 301a is detecting an object", the robot 300 determines "No" in step 372. Then, the process proceeds to step 373 to determine abnormality.

右畝検知センサ301aのみが物体を検知している場合、ロボット300は、ステップ372にて「Yes」と判定してステップ374に進み、記憶装置105bに記憶しておいた一定の第3規定距離だけ直進する。 When only the right ridge detection sensor 301a detects the object, the robot 300 makes a "Yes" determination in step 372, proceeds to step 374, and detects the constant third specified distance stored in the storage device 105b. only go straight.

その後、ロボット300は、ステップ375に進み、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していないか否かを判定する。 After that, the robot 300 proceeds to step 375 and determines whether or not both the right ridge detection sensor 301a and the left ridge detection sensor 301b have detected an object.

右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している場合、ロボット300は、ステップ375にて「No」と判定してステップ376に進む。 When at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object, the robot 300 makes a “No” determination in step 375 and proceeds to step 376 .

ロボット300は、ステップ376に進むと、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が、畝間322bの畝間想定範囲内に存在するか否かを判定する。 When the robot 300 proceeds to step 376, based on the self-location information acquired by the GNSS section 111, the robot 300 determines whether or not the robot 300 exists within the assumed range between the ridges of the ridge 322b.

なお、畝間B322bの畝間想定範囲とは、旋回位置B323dを含むように畝間B322bを延長した場合の延長範囲(畝間B322bの端から延びる延長部分の範囲)であって、ロボット300がその範囲に存在する場合、右畝検知センサ301a及び左畝検知センサ301bが物体(畝)を検知していないことが想定される範囲である。ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝間想定範囲を特定する。 It should be noted that the assumed range between the ridges B322b is an extension range (a range of the extension portion extending from the end of the ridge B322b) when the ridge B322b is extended to include the turning position B323d, and the robot 300 exists in that range. In this case, it is assumed that the right ridge detection sensor 301a and the left ridge detection sensor 301b do not detect the object (ridge). The robot 300 identifies an assumed range between ridges based on the self-location information acquired by the GNSS unit 111 and the ridges, ridge ends, and positions between the ridges of the farm map stored in the ROM of the control device 105 .

ロボット300が、畝間322bの畝間想定範囲内に存在するにも関わらず、右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している場合(ステップ375にて「No」と判定)、ロボット300の周囲に、ロボット300の移動の妨げとなる障害物等が存在している可能性が高いことが考えられる。 When at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object even though the robot 300 exists within the assumed range between the ridges of the ridge 322b ("No" determination), there is a high possibility that an obstacle or the like that hinders the movement of the robot 300 exists around the robot 300 .

従って、この場合、ロボット300は、ステップ376にて「Yes」と判定してステップ377に進み、異常判定を行う。 Therefore, in this case, the robot 300 determines "Yes" in step 376, proceeds to step 377, and performs abnormality determination.

これに対して、ロボット300が、畝間322bの畝間想定範囲外に存在する場合、ロボット300はその時点では旋回位置B323dに到達していないと考えられる。従って、この場合、ロボット300は、ステップ376にて「No」と判定してステップ374に進み、再び、一定の第3規定距離だけ直進してステップ375に進む。 On the other hand, if the robot 300 exists outside the assumed range between the ridges of the ridge 322b, it is considered that the robot 300 has not reached the turning position B323d at that time. Accordingly, in this case, the robot 300 makes a “No” determination in step 376 and proceeds to step 374 , proceeds straight again by the constant third specified distance, and proceeds to step 375 .

ステップ375にて、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない場合、ロボット300は、ステップ375にて「Yes」と判定してステップ378に進み、記憶装置105bに記憶しておいた一定の第4規定距離だけ直進する。なお、この一定の第4規定距離は、便宜上「第2距離」とも称呼される場合がある。右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知しなくなった時点の位置(以下、「第2畝未検知位置」と称呼される。)で、ロボット300が右旋回方向に90°旋回して、直進すると、駆動輪114が畝B321bに乗り上げてしまう恐れがある。このため、ロボット300は、第2畝未検知位置から進行方向に第4規定距離だけ離れた位置で、旋回する必要がある。従って、ロボット300は、ステップ378にて、第4規定距離だけ直進して、ロボット300が畝に乗り上げることなく旋回することが可能な旋回位置B323dに移動する。 In step 375, if neither the right ridge detection sensor 301a nor the left ridge detection sensor 301b has detected an object, the robot 300 makes a "Yes" determination in step 375, proceeds to step 378, and stores the storage device 105b. Go straight ahead for a certain fourth specified distance stored in . In addition, this fixed 4th prescribed distance may be called "2nd distance" for convenience. At the position when both the right ridge detection sensor 301a and the left ridge detection sensor 301b no longer detect the object (hereinafter referred to as the "second ridge undetected position"), the robot 300 turns to the right. If the vehicle turns 90 degrees and goes straight, the drive wheels 114 may run over the ridge B321b. Therefore, the robot 300 needs to turn at a position separated from the second ridge undetected position by the fourth prescribed distance in the traveling direction. Therefore, in step 378, the robot 300 advances straight by the fourth prescribed distance and moves to a turning position B323d where the robot 300 can turn without running over a ridge.

その後、ロボット300は、ステップ379に進み、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していないか否かを判定する。これにより、ロボット300は、旋回位置B323dにて右畝検知センサ301a及び左畝検知センサ301bを用いてロボット300の左側及び右側に移動の妨げとなる障害物が存在しないことを確認する。 After that, the robot 300 proceeds to step 379 and determines whether or not both the right ridge detection sensor 301a and the left ridge detection sensor 301b have detected an object. As a result, the robot 300 uses the right ridge detection sensor 301a and the left ridge detection sensor 301b at the turning position B323d to confirm that there are no obstacles on the left and right sides of the robot 300 that hinder its movement.

右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知している場合、ロボット300は、ステップ379にて「No」と判定してステップ380に進み、異常判定を行う。 When at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b detects an object, the robot 300 determines "No" in step 379, proceeds to step 380, and performs abnormality determination.

右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない場合、ロボット300は、ステップ379にて「Yes」と判定してステップ381に進み、旋回位置B323dにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ382に進む。即ち、ロボット300は、その向きが畝の列方向に対して平行になるまでの旋回を試みて、ステップ382に進む。 If both the right ridge detection sensor 301a and the left ridge detection sensor 301b have not detected an object, the robot 300 makes a "Yes" determination in step 379, proceeds to step 381, and rotates the driving wheels at the turning position B323d. Attempt a 90° turn in the right turn direction by controlling the rotation of 114 and proceed to step 382 . That is, the robot 300 attempts to turn until its orientation is parallel to the row direction of the ridges, and proceeds to step 382 .

ステップ382にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 382, the robot 300 determines whether or not the robot 300 has turned right by 90 degrees based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ382にて「No」と判定してステップ383に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ381に進み、右旋回方向に90°旋回できるまで旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ382に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ロボット300はステップ382にて「No」と判定してステップ383に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 determines "No" in step 382, proceeds to step 383, and waits for the predetermined time stored in the storage device 105b in advance. Retry within That is, in this case, the robot 300 proceeds to step 381 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds to step 382 again to determine whether the robot 300 has turned 90 degrees to the right. If the robot 300 has not turned 90 degrees to the right, the robot 300 makes a "No" determination in step 382, proceeds to step 383, and checks whether a predetermined time has elapsed since the timer 105a started counting. judge.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、ステップ383にて「No」と判定して再びステップ381の動作及びステップ382の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" in step 383 and performs the operations of steps 381 and 382 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、ステップ383にて「Yes」と判定してステップ384に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes" in step 383, proceeds to step 384, and performs an abnormality determination.

ステップ382にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ382にて「Yes」と判定してステップ385に進み、記憶装置105bに記憶しておいた一定の第5規定距離だけ直進する。即ち、ロボット300は、畝間B322bに向かって、一定の第5規定距離だけ直進する。なお、この一定の第5規定距離は、例えば、旋回位置B323dから右畝検知センサ301a及び左畝検知センサ301bの両方によって、畝B321b及び畝C321cの検知が可能な位置(例えば、畝間移動位置B323e)までの距離に対応する。 In step 382, if the robot 300 was able to turn 90 degrees in the right turning direction, the robot 300 determines "Yes" in step 382, proceeds to step 385, and stores it in the storage device 105b. Go straight for a fixed fifth specified distance. That is, the robot 300 moves straight toward the ridge B322b by a fixed fifth specified distance. In addition, this constant fifth specified distance is, for example, a position where the ridge B321b and the ridge C321c can be detected by both the right ridge detection sensor 301a and the left ridge detection sensor 301b from the turning position B323d (for example, the inter-ridge movement position B323e ).

その後、ロボット300は、ステップ386に進み、右畝検知センサ301a及び左畝検知センサ301bの両方が物体(畝B321b及び畝C321c)を検知しているか否かを判定する。 After that, the robot 300 proceeds to step 386 and determines whether or not both the right ridge detection sensor 301a and the left ridge detection sensor 301b are detecting objects (ridge B321b and ridge C321c).

右畝検知センサ301a及び左畝検知センサ301bの少なくとも一つが物体を検知していない場合、ロボット300は、ステップ386にて「No」と判定してステップ387に進み、異常判定を行う。 If at least one of the right ridge detection sensor 301a and the left ridge detection sensor 301b does not detect an object, the robot 300 determines "No" in step 386, proceeds to step 387, and performs abnormality determination.

右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知している場合、ロボット300は、ステップ386にて「Yes」と判定してステップ388に進み、畝間322bへの移動を完了する。 If both the right ridge detection sensor 301a and the left ridge detection sensor 301b detect an object, the robot 300 makes a "Yes" determination in step 386, proceeds to step 388, and completes movement to the ridge 322b. .

なお、ロボット300は、上述した図20のフローチャートに対して、ステップ361とステップ364との間に以下に述べるステップ362Aが追加された動作を、実行するようにしてもよい。 Note that the robot 300 may perform an operation in which step 362A described below is added between steps 361 and 364 to the flowchart of FIG. 20 described above.

ステップ362A:ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が畝端想定範囲内に存在するか否かを判定する。
「畝端想定範囲」とは、例えば、畝間A322aと畝間A322aを延長させた場合の延長範囲とからなる範囲である。「畝端想定範囲」は、ロボット300がその範囲に存在する場合、右畝検知センサ301a及び左畝検知センサ301bによって畝A321a及び畝B321bのうちの少なくとも一つの畝端が検知できると想定される範囲である。ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝端想定範囲を特定する。
Step 362A: The robot 300 determines whether or not the robot 300 exists within the assumed ridge edge range based on the self-location information acquired by the GNSS section 111 .
The "assumed ridge end range" is, for example, a range including the ridge interval A322a and the extended range when the ridge interval A322a is extended. The “assumed ridge edge range” is assumed to be able to detect at least one ridge edge of ridges A 321a and ridges B 321b by the right ridge detection sensor 301a and the left ridge detection sensor 301b when the robot 300 exists within the range. Range. The robot 300 identifies an assumed ridge edge range based on the self-location information acquired by the GNSS unit 111 and the ridges, ridge edges, and positions between the ridges on the farm map stored in the ROM of the control device 105 .

ロボット300が、畝端想定範囲内に存在するにも関わらず、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない場合(ステップ361にて「Yes」と判定してステップ362Aに進む場合)、ロボット300に異常が生じている可能性がある。 When both the right ridge detection sensor 301a and the left ridge detection sensor 301b do not detect an object even though the robot 300 exists within the assumed ridge edge range (“Yes” is determined in step 361). When proceeding to step 362A), there is a possibility that the robot 300 is malfunctioning.

従って、この場合、ロボット300は、ステップ362Aにて「Yes」と判定してステップ363に進み、ロボット300が異常状態にあると判定する。 Therefore, in this case, the robot 300 determines "Yes" in step 362A, proceeds to step 363, and determines that the robot 300 is in an abnormal state.

ロボット300が、畝端想定範囲内に存在しない場合、ロボット300は、ステップ362Aにて「No」と判定してステップ364に進む。 If the robot 300 does not exist within the assumed ridge edge range, the robot 300 determines “No” in step 362A and proceeds to step 364 .

GNSS部111によって取得された自己位置情報及び農場マップに設定された畝端想定範囲に基づく判定処理(ステップ362A)が実行されることにより、ロボット300は、ロボット300が畝間A322aから出たことをより確実に判定することができる。更に、ロボット300は、ロボット300に異常状態が生じているか否かを判定できる。 By executing the determination process (step 362A) based on the self-location information acquired by the GNSS unit 111 and the assumed ridge end range set in the farm map, the robot 300 determines that the robot 300 has left the ridge A 322a. can be determined more reliably. Furthermore, the robot 300 can determine whether the robot 300 is in an abnormal state.

更に、ロボット300は、上述した図20のフローチャートに対して、ステップ375とステップ378との間に以下に述べるステップ376Aが追加された動作を、実行するようにしてもよい。 Furthermore, the robot 300 may perform an operation in which step 376A described below is added between steps 375 and 378 in the flowchart of FIG. 20 described above.

ステップ376A:ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が畝間B322bの畝間想定範囲外に存在するか否かを判定する。 Step 376A: Based on the self-location information acquired by the GNSS section 111, the robot 300 determines whether or not the robot 300 exists outside the assumed range between the ridges B322b.

ロボット300が、畝間B322bの畝間想定範囲外に存在するにも関わらず、右畝検知センサ301a及び左畝検知センサ301bの両方が物体を検知していない場合(ステップ375にて「Yes」と判定してステップ376Aに進む場合)、ロボット300に異常が生じている可能性がある。 When neither the right ridge detection sensor 301a nor the left ridge detection sensor 301b detects an object even though the robot 300 exists outside the assumed ridge range of the ridge B322b (determined as "Yes" and proceed to step 376A), there is a possibility that the robot 300 is malfunctioning.

従って、この場合、ロボット300は、ステップ376Aにて「Yes」と判定してステップ377に進み、ロボット300が異常状態にあると判定する。 Therefore, in this case, the robot 300 determines "Yes" in step 376A, proceeds to step 377, and determines that the robot 300 is in an abnormal state.

ロボット300が、畝間B322bの畝間想定範囲外に存在しない場合(即ち、ロボット322bが畝間B322bの畝間想定範囲内に存在する場合)、ロボット300は、ステップ376Aにて「No」と判定してステップ378に進む。 When the robot 300 does not exist outside the assumed range between the ridges of the ridge B322b (that is, when the robot 322b exists within the assumed range between the ridges of the ridge B322b), the robot 300 determines "No" in step 376A and proceeds to step 376A. Proceed to 378.

GNSS部111によって取得された自己位置情報及び農場マップに設定された畝間想定範囲に基づく判定処理(ステップ376A)が実行されることにより、ロボット300は、ロボット300が畝間B322bの畝間想定範囲内に入ったことをより確実に判定することができる。更に、ロボット300は、ロボット300に異常状態が生じているか否かを判定できる。 By executing the determination process (step 376A) based on the self-position information acquired by the GNSS unit 111 and the assumed ridge range set in the farm map, the robot 300 moves within the assumed ridge range of the ridge B322b. It is possible to determine with certainty that it has entered. Furthermore, the robot 300 can determine whether the robot 300 is in an abnormal state.

<効果>
第3実施形態に係る農業支援システムは、第1実施形態に係る農業支援システムと同様の効果を奏する。更に、この農業支援システムによれば、ロボット300が、右畝検知センサ301a及び左畝検知センサ301bの物体の検出結果に基づいて、畝間A322aを走行した後、適切な位置で曲がって隣接する畝間B322bへ移動することができる。従って、この農業支援システムは、農場118内を自律走行するロボット300が隣接する畝間B322bへ移動するときに、ロボット300が畝に接触することによって、畝の一部が崩壊してしまう可能性を低下できる。
<effect>
The agricultural support system according to the third embodiment has the same effect as the agricultural support system according to the first embodiment. Furthermore, according to this agricultural support system, the robot 300 travels between the ridges A322a based on the object detection results of the right ridge detection sensor 301a and the left ridge detection sensor 301b, and then turns at an appropriate position to extend between adjacent ridges. You can move to B322b. Therefore, this agricultural support system prevents the robot 300 from contacting the ridge when the robot 300 autonomously traveling in the farm 118 moves to the adjacent ridge B322b, which may cause a part of the ridge to collapse. can be lowered.

<<第4実施形態>>
本発明の第4実施形態に係る農業支援システムについて説明する。第4実施形態に係る農業支援システムでは、図21に示すように、ロボット300が、右畝検知センサ301a及び左畝検知センサ301bに代えて、深度センサ301d((LiDAR(Light Detection And Ranging))を備える。ロボット300は、深度センサ301dによるロボット300の左側及び右側に存在する物体(畝)の検知結果に基づいて、隣接する畝間へ移動するように制御される。なお、ロボット300は、深度センサ301dに代えて、LADAR(Laser Detection And Ranging)センサ、ToF(Time of Flight)、ステレオカメラ等を用いて、ロボット300の左側及び右側に存在する畝を検知するようにしてもよい。
<<Fourth Embodiment>>
An agricultural support system according to a fourth embodiment of the present invention will be described. In the agricultural support system according to the fourth embodiment, as shown in FIG. 21, the robot 300 has a depth sensor 301d ((LiDAR (Light Detection And Ranging)) instead of the right ridge detection sensor 301a and the left ridge detection sensor 301b. The robot 300 is controlled to move between adjacent ridges based on detection results of objects (ridges) present on the left and right sides of the robot 300 by the depth sensor 301d. A LADAR (Laser Detection And Ranging) sensor, a ToF (Time of Flight), a stereo camera, or the like may be used instead of the sensor 301d to detect the ridges present on the left and right sides of the robot 300. FIG.

<ロボットの動作4(隣接する畝間への移動)>
図22は深度センサ301dを使用したロボット300の隣接する畝間への移動の動作例を説明するための図である。図22には、図19と同様の畝A321a、畝B321b及び畝C321cが形成された農場118が示されている。以下では、このような農場118において、ロボット300が畝間A322aから畝間B322bへ移動する例について説明する。なお、この例では、ロボット300が隣接する畝間B322bへ移動するときに、ロボット300が90°右旋回するようにしているが、ロボット300が隣接する畝間B322bへ移動するときに、ロボット300が270°左旋回するようにしてもよい。
<Robot operation 4 (move to adjacent ridge)>
FIG. 22 is a diagram for explaining an operation example of movement of the robot 300 between adjacent ridges using the depth sensor 301d. FIG. 22 shows a farm 118 on which ridges A321a, B321b and C321c similar to those in FIG. 19 are formed. An example in which the robot 300 moves from the furrow A322a to the furrow B322b in such a farm 118 will be described below. In this example, when the robot 300 moves to the adjacent ridge B322b, the robot 300 turns right by 90 degrees. You may make it 270-degree left turn.

図23は図21に示すロボット300が畝間A322aから隣接する畝間B322bへ移動するときの動作例を説明するためのフローチャートである。なお、図23に示すロボット300の各動作(処理)は、制御装置105によって実行される。 FIG. 23 is a flow chart for explaining an operation example when the robot 300 shown in FIG. 21 moves from the ridge A 322a to the adjacent ridge B 322b. Each operation (process) of robot 300 shown in FIG. 23 is executed by control device 105 .

ステップ390にて、ロボット300は畝間A322aを直進している。ロボット300が畝間A322aを直進している(例えば畝間移動位置C333aに存在している)場合、ロボット300は、深度センサ301dによって、ロボット300の左側に存在する畝A321a(物体)及びロボット300の右側に存在する畝B321b(物体)を検知している状態になる。 At step 390, robot 300 is traveling straight through furrow A322a. When the robot 300 is traveling straight through the ridge A322a (for example, existing at the ridge moving position C333a), the robot 300 detects the ridge A321a (object) existing on the left side of the robot 300 and the right side of the robot 300 by the depth sensor 301d. A ridge B321b (object) existing in the state is detected.

ロボット300は、ステップ391に進み、直進しながら、深度センサ301dがロボット300の左側及び右側に存在する物体(畝A321a及び畝B321b)を検知していないか否かを判定する。 The robot 300 proceeds to step 391 and determines whether or not the depth sensor 301d detects objects (ridges A 321a and ridges B 321b) existing on the left and right sides of the robot 300 while traveling straight.

深度センサ301dがロボット300の左側及び右側の少なくとも一方の側に存在する物体(畝A321a及び畝B321bの少なくとも一つ)を検知している場合、ロボット300は、ステップ391にて「No」と判定してステップ392に進む。 If the depth sensor 301d detects an object (at least one of the ridge A 321a and the ridge B 321b) existing on at least one of the left side and the right side of the robot 300, the robot 300 determines "No" in step 391. and proceed to step 392.

ステップ392にて、ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が深度センサ301dによって畝が検知できると想定される範囲(「畝想定範囲」)外に存在するか否かを判定する。なお、既述した通り、ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝想定範囲を特定する。 At step 392, the robot 300 exists outside the range (“assumed ridge range”) where the depth sensor 301d can detect the ridge based on the self-location information acquired by the GNSS unit 111. Determine whether or not As described above, the robot 300 determines the assumed ridge range based on the self-position information acquired by the GNSS unit 111 and the ridges, ridge ends, and inter-ridge positions of the farm map stored in the ROM of the control device 105. Identify.

ロボット300が畝想定範囲外に存在する場合、ロボット300は、畝間A322aから畝間B322bへ移動できない可能性があるので、ステップ392にて「Yes」と判定してステップ393に進み、異常判定を行う。なお、異常判定を行った場合、ロボット300は、その動作を停止する。 If the robot 300 exists outside the expected ridge range, the robot 300 may not be able to move from the ridge interval A 322a to the ridge interval B 322b. . It should be noted that the robot 300 stops its operation when an abnormality determination is made.

これに対して、ロボット300が畝想定範囲外に存在しない場合、深度センサ301dが物体(畝A321a及び畝B321bの少なくとも一つ)を検知しており、ロボット300が畝間322aの端を完全にこえていないと考えられる。従って、この場合、ロボット300は、ステップ392にて「No」と判定してステップ390に進み、直進を継続する。 On the other hand, when the robot 300 does not exist outside the assumed ridge range, the depth sensor 301d detects an object (at least one of the ridge A 321a and the ridge B 321b), and the robot 300 completely crosses the edge of the ridge 322a. Not likely. Therefore, in this case, the robot 300 determines "No" in step 392, proceeds to step 390, and continues straight ahead.

ステップ391にて、ロボット300が畝間322aの端を完全にこえて、深度センサ301dが物体(畝A321a及び畝B321b)を検知しなくなった場合、ロボット300は、ステップ391にて「Yes」と判定してステップ394に進む。 In step 391, when the robot 300 completely crosses the end of the ridge 322a and the depth sensor 301d no longer detects the object (ridge A 321a and ridge B 321b), the robot 300 determines "Yes" in step 391. and proceed to step 394.

ステップ394にて、ロボット300は、記憶装置105bに記憶しておいた一定の第1規定距離だけ直進する。 At step 394, the robot 300 advances straight by a constant first prescribed distance stored in the storage device 105b.

その後、ロボット300は、ステップ395に進み、深度センサ301dがロボット300の左側及び右側に物体を検知していないか否かを判定する。これにより、ロボット300は、旋回位置C333bにて深度センサ301dを用いてロボット300の左側及び右側に移動の妨げとなる障害物が存在しないことを確認する。 After that, the robot 300 proceeds to step 395 and determines whether or not the depth sensor 301 d has detected objects on the left and right sides of the robot 300 . As a result, the robot 300 uses the depth sensor 301d at the turning position C333b to confirm that there are no obstacles on the left and right sides of the robot 300 that hinder its movement.

深度センサ301dがロボット300の左側及び右側の少なくとも一方の側に物体を検知している場合、ロボット300は、ステップ395にて「No」と判定してステップ396に進み、異常判定を行う。 If the depth sensor 301d detects an object on at least one of the left side and the right side of the robot 300, the robot 300 makes a "No" determination in step 395, proceeds to step 396, and performs an abnormality determination.

深度センサ301dがロボット300の左側及び右側に物体を検知していない場合、ロボット300は、ステップ395にて「Yes」と判定してステップ397に進み、旋回位置C333bにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ398に進む。 If the depth sensor 301d does not detect objects on the left and right sides of the robot 300, the robot 300 makes a "Yes" determination in step 395, proceeds to step 397, and rotates the driving wheels 114 at the turning position C333b. Attempt a 90° turn in the right turn direction by controlling , and proceed to step 398 .

ステップ398にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 398, the robot 300 determines whether or not the robot 300 has turned right by 90 degrees based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ398にて「No」と判定してステップ399に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ397に進み、右旋回方向に90°旋回できるまで、旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ398に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ステップ399に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 makes a "No" determination in step 398, proceeds to step 399, and waits for the predetermined time stored in the storage device 105b in advance. Retry within That is, in this case, the robot 300 proceeds to step 397 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds again to step 398 to determine whether the robot 300 has turned 90° in the right turning direction. If the robot 300 has not turned right by 90 degrees, the process proceeds to step 399 to determine whether or not a predetermined time has elapsed since the timer 105a started counting.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、「No」と判定して再びステップ397の動作及びステップ398の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" and performs the operations of steps 397 and 398 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、「Yes」と判定してステップ400に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes", proceeds to step 400, and performs an abnormality determination.

ステップ398にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ398にて「Yes」と判定してステップ401に進み、記憶装置105bに記憶しておいた一定の第2規定距離だけ直進する。なお、この一定の第2規定距離は、旋回位置C333bから深度センサ301dによって畝B321bの畝端が検知可能な位置(例えば、畝端移動位置B333c)までの距離に対応する。 At step 398, if the robot 300 was able to turn 90 degrees in the right turning direction, the robot 300 determines "Yes" at step 398, proceeds to step 401, and stores it in the storage device 105b. Go straight for a second specified distance. In addition, this constant second specified distance corresponds to a distance from the turning position C333b to a position where the ridge end of the ridge B321b can be detected by the depth sensor 301d (for example, the ridge end movement position B333c).

その後、ロボット300は、ステップ402に進み、深度センサ301dがロボット300の右側に存在する物体のみを検知しているか否かを判定する。 After that, the robot 300 proceeds to step 402 and determines whether or not the depth sensor 301d is detecting only the object existing on the right side of the robot 300 .

深度センサ301dの検知状態が、深度センサ301dがロボット300の右側に存在する物体のみを検知している状態でない場合、ロボット300は、ステップ402にて「No」と判定してステップ403に進み、異常判定を行う。 If the detection state of the depth sensor 301d is not the state where the depth sensor 301d is detecting only the object existing on the right side of the robot 300, the robot 300 determines "No" in step 402, proceeds to step 403, Abnormal judgment is performed.

深度センサ301dがロボット300の右側に存在する物体のみを検知している場合、ロボット300は、ステップ402にて「Yes」と判定してステップ404に進み、記憶装置105bに記憶しておいた一定の第3規定距離だけ直進する。 If the depth sensor 301d detects only the object existing on the right side of the robot 300, the robot 300 makes a "Yes" determination in step 402, proceeds to step 404, and determines the constant value stored in the storage device 105b. Go straight ahead for the third specified distance.

その後、ロボット300は、ステップ405に進み、深度センサ301がロボット300の左側及び右側に物体を検知していないか否かを判定する。 After that, the robot 300 proceeds to step 405 and determines whether or not the depth sensor 301 detects objects on the left and right sides of the robot 300 .

深度センサ301dがロボット300の左側及び右側の少なくとも一方の側に物体を検知している場合、ロボット300は、ステップ405にて「No」と判定してステップ406に進む。 If the depth sensor 301 d detects an object on at least one of the left and right sides of the robot 300 , the robot 300 determines “No” in step 405 and proceeds to step 406 .

ロボット300は、ステップ406に進むと、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が、畝間322bの畝間想定範囲内に存在するか否かを判定する。なお、既述した通り、ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝間想定範囲を特定する。 When the robot 300 proceeds to step 406, based on the self-location information acquired by the GNSS section 111, the robot 300 determines whether or not the robot 300 exists within the assumed ridge range of the ridge 322b. As described above, the robot 300 determines the estimated range between ridges based on the self-position information acquired by the GNSS unit 111 and the ridges, ridge ends, and positions between the ridges of the farm map stored in the ROM of the control device 105. Identify.

ロボット300が、畝間322bの畝間想定範囲内に存在するにも関わらず、深度センサ301dが物体を検知している場合(ステップ405にて「No」との判定)、ロボット300の周囲に、ロボット300の移動の妨げとなる障害物等が存在している可能性が高いことが考えられる。従って、この場合、ロボット300は、ステップ406にて「Yes」と判定してステップ407に進み、異常判定を行う。 When the depth sensor 301d detects an object even though the robot 300 exists within the assumed range between the ridges of the ridge 322b (determined as "No" in step 405), there are robots around the robot 300. It is conceivable that there is a high possibility that there is an obstacle or the like that hinders the movement of the robot 300 . Therefore, in this case, the robot 300 determines "Yes" in step 406, proceeds to step 407, and performs abnormality determination.

これに対して、ロボット300が、畝間322bの畝間想定範囲外に存在する場合、ロボット300は、ステップ406にて「No」と判定してステップ404に進み、再び第3規定距離だけ直進してステップ405に進む。 On the other hand, if the robot 300 exists outside the assumed range between the ridges of the ridge 322b, the robot 300 makes a "No" determination in step 406, proceeds to step 404, and proceeds straight again by the third prescribed distance. Go to step 405 .

ステップ405にて、深度センサ301dがロボット300の左側及び右側に物体を検知していない場合、ロボット300は、ステップ405にて「Yes」と判定してステップ408に進み、記憶装置105bに記憶しておいた一定の第4規定距離だけ直進する。深度センサ301dが物体を検知しなくなった時点の位置(「第2畝未検知位置」)で、ロボット300が旋回して、直進すると、駆動輪114が畝B321bに乗り上げてしまう恐れがある。このため、ロボット300は、第2畝未検知位置から進行方向に第4規定距離だけ離れた位置で、旋回する必要がある。従って、ロボット300は、ステップ408にて、第4規定距離だけ直進して、ロボット300が畝に乗り上げることなく旋回することが可能な旋回位置D333dに移動する。 In step 405, if the depth sensor 301d has not detected an object on the left or right side of the robot 300, the robot 300 makes a "Yes" determination in step 405, proceeds to step 408, and stores in the storage device 105b. Go straight ahead for a certain fourth specified distance. If the robot 300 turns and moves straight at the position when the depth sensor 301d no longer detects the object (“second ridge undetected position”), the drive wheels 114 may run over the ridge B321b. Therefore, the robot 300 needs to turn at a position separated from the second ridge undetected position by the fourth prescribed distance in the traveling direction. Accordingly, in step 408, the robot 300 advances straight by the fourth prescribed distance and moves to a turning position D333d where the robot 300 can turn without running over a ridge.

その後、ロボット300は、ステップ409に進み、深度センサ301dが物体を検知していないか否かを判定する。これにより、ロボット300は、旋回位置D333dにて深度センサ301dを用いてロボット300の左側及び右側に移動の妨げとなる障害物が存在しないことを確認する。 After that, the robot 300 proceeds to step 409 and determines whether or not the depth sensor 301d has detected an object. As a result, the robot 300 uses the depth sensor 301d at the turning position D333d to confirm that there are no obstacles on the left and right sides of the robot 300 that hinder its movement.

深度センサ301dがロボット300の左側及び右側の少なくとも一方の側に物体を検知している場合、ロボット300は、ステップ409にて「No」と判定してステップ410に進み、異常判定を行う。 If the depth sensor 301d detects an object on at least one of the left side and the right side of the robot 300, the robot 300 determines "No" in step 409, proceeds to step 410, and performs abnormality determination.

深度センサ301dがロボット300の左側及び右側に物体を検知していない場合、ロボット300は、ステップ409にて「Yes」と判定してステップ411に進み、旋回位置D333dにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ412に進む。 If the depth sensor 301d has not detected an object on the left or right side of the robot 300, the robot 300 makes a "Yes" determination in step 409, proceeds to step 411, and rotates the driving wheels 114 at the turning position D333d. Attempt a 90° turn in the right turn direction by controlling , and proceed to step 412 .

ステップ412にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 412, the robot 300 determines whether or not the robot 300 has turned 90 degrees to the right, based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ412にて「No」と判定してステップ413に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ411に進み、右旋回方向に90°旋回できるまで旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ412に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ロボット300はステップ412にて「No」と判定してステップ413に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 makes a "No" determination in step 412, proceeds to step 413, and waits for the predetermined time stored in the storage device 105b in advance. Retry within That is, in this case, the robot 300 proceeds to step 411 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds to step 412 again and determines whether the robot 300 has turned 90 degrees in the right turning direction. If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 determines "No" in step 412 and proceeds to step 413 to check whether a predetermined time has elapsed since the timer 105a started counting. judge.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、ステップ413にて「No」と判定して再びステップ411の動作及びステップ412の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" in step 413 and performs the operations of steps 411 and 412 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、ステップ413にて「Yes」と判定してステップ414に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes" in step 413, proceeds to step 414, and performs an abnormality determination.

ステップ412にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ412にて「Yes」と判定してステップ415に進み、記憶装置105bに記憶しておいた一定の第5規定距離だけ直進する。なお、この一定の第5規定距離は、例えば、旋回位置D333dから深度センサ301dによって、畝B321b及び畝C321cの検知が可能な位置(例えば、畝間移動位置D333e)までの距離に対応する。 In step 412, if the robot 300 was able to turn 90 degrees in the right turning direction, the robot 300 determines "Yes" in step 412, proceeds to step 415, and stores it in the storage device 105b. Go straight for a fixed fifth specified distance. Note that this constant fifth specified distance corresponds to, for example, the distance from the turning position D333d to a position where the ridges B321b and C321c can be detected by the depth sensor 301d (for example, the inter-ridge movement position D333e).

その後、ロボット300は、ステップ416に進み、深度センサ301dがロボット300の左側及び右側に物体(畝B321b及び畝C321c)を検知しているか否かを判定する。 After that, the robot 300 proceeds to step 416 and determines whether or not the depth sensor 301 d detects objects (ridges B 321 b and ridges C 321 c ) on the left and right sides of the robot 300 .

深度センサ301dがロボット300の左側及び右側の少なくとも一方の側に物体を検知していない場合、ロボット300は、ステップ416にて「No」と判定してステップ417に進み、異常判定を行う。 If the depth sensor 301d does not detect an object on at least one of the left side and the right side of the robot 300, the robot 300 makes a "No" determination in step 416, proceeds to step 417, and performs an abnormality determination.

深度センサ301dがロボット300の左側及び右側に物体(畝B321b及び畝C321c)を検知している場合、ロボット300は、ステップ416にて「Yes」と判定してステップ418に進み、畝間322bへの移動を完了する。 When the depth sensor 301d detects objects (ridges B321b and C321c) on the left and right sides of the robot 300, the robot 300 determines "Yes" in step 416, proceeds to step 418, and moves to the ridge 322b. Complete the move.

なお、ロボット300は、上述した図23のフローチャートに対して、ステップ391とステップ394との間に以下に述べるステップ392Aが追加された動作を、実行するようにしてもよい。 Note that the robot 300 may perform an operation in which step 392A described below is added between steps 391 and 394 in addition to the flowchart of FIG. 23 described above.

ステップ392A:ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が畝端想定範囲内に存在するか否かを判定する。
「畝端想定範囲」は、ロボット300がその範囲に存在する場合、深度センサ301dによって畝A321a及び畝B321bの少なくとも一つが検知できると想定される範囲である。既述した通り、ロボット300は、GNSS部111によって取得された自己位置情報並びに制御装置105のROMに格納された農場マップの畝、畝端及び畝間の位置に基づいて、畝端想定範囲を特定する。
Step 392A: The robot 300 determines whether or not the robot 300 exists within the assumed ridge edge range based on the self-location information acquired by the GNSS section 111 .
The “assumed ridge edge range” is a range where it is assumed that at least one of the ridges A 321a and ridges B 321b can be detected by the depth sensor 301d when the robot 300 exists in that range. As described above, the robot 300 identifies the assumed ridge edge range based on the self-location information acquired by the GNSS unit 111 and the ridges, ridge ends, and positions between the ridges of the farm map stored in the ROM of the control device 105. do.

ロボット300が、畝端想定範囲内に存在するにも関わらず、深度センサ301dがロボット300の左側及び右側に存在する物体(畝A321a及び畝B321b)を検知していない場合(ステップ391にて「Yes」と判定してステップ392Aに進む場合)、ロボット300に異常が生じている可能性がある。 When the depth sensor 301d does not detect objects (ridges A 321a and ridges B 321b) existing on the left and right sides of the robot 300 (the " Yes” and proceeds to step 392A), there is a possibility that the robot 300 has an abnormality.

従って、この場合、ロボット300は、ステップ392Aにて「Yes」と判定してステップ393に進み、ロボット300が異常状態にあると判定する。 Therefore, in this case, the robot 300 determines "Yes" in step 392A, proceeds to step 393, and determines that the robot 300 is in an abnormal state.

ロボット300が、畝端想定範囲内に存在しない場合、ロボット300は、ステップ392Aにて「No」と判定してステップ394に進む。 If the robot 300 does not exist within the assumed ridge edge range, the robot 300 determines “No” in step 392A and proceeds to step 394 .

GNSS部111によって取得された自己位置情報及び農場マップに設定された畝端想定範囲に基づく判定処理(ステップ392A)が実行されることにより、ロボット300は、ロボット300が畝間A322aから出たことをより確実に判定することができる。更に、ロボット300は、ロボット300に異常状態が生じているか否かを判定できる。 By executing the determination processing (step 392A) based on the self-location information acquired by the GNSS unit 111 and the assumed ridge end range set in the farm map, the robot 300 determines that the robot 300 has left the ridge A 322a. can be determined more reliably. Furthermore, the robot 300 can determine whether the robot 300 is in an abnormal state.

更に、ロボット300は、上述した図23のフローチャートに対して、ステップ405とステップ408との間に以下に述べるステップ406Aが追加された動作を、実行するようにしてもよい。 Further, the robot 300 may perform an operation in which Step 406A described below is added between Steps 405 and 408 to the flowchart of FIG. 23 described above.

ステップ406A:ロボット300は、GNSS部111によって取得された自己位置情報に基づいて、ロボット300が畝間B322bの畝間想定範囲外に存在するか否かを判定する。 Step 406A: Based on the self-location information acquired by the GNSS unit 111, the robot 300 determines whether or not the robot 300 exists outside the assumed range between the ridges B322b.

ロボット300が、畝間B322bの畝間想定範囲外に存在するにも関わらず、深度センサ301dがロボット300の左側及び右側に物体を検知していない場合(ステップ405にて「Yes」と判定してステップ406Aに進む場合)、ロボット300に異常が生じている可能性がある。 When the depth sensor 301d does not detect objects on the left and right sides of the robot 300 even though the robot 300 exists outside the assumed range between the ridges of the ridge B322b ("Yes" is determined in step 405, and step 406A), the robot 300 may be malfunctioning.

従って、この場合、ロボット300は、ステップ406Aにて「Yes」と判定してステップ407に進み、ロボット300が異常状態にあると判定する。 Therefore, in this case, the robot 300 determines "Yes" in step 406A, proceeds to step 407, and determines that the robot 300 is in an abnormal state.

ロボット300が、畝間B322bの畝間想定範囲外に存在しない場合(即ち、ロボット300が、畝間B322bの畝間想定範囲内に存在する場合)、ロボット300は、ステップ406Aにて「Yes」と判定してステップ408に進む。 When the robot 300 does not exist outside the assumed range between the ridges of the ridge B322b (that is, when the robot 300 exists within the assumed range between the ridges of the ridge B322b), the robot 300 determines "Yes" in step 406A. Proceed to step 408 .

GNSS部111によって取得された自己位置情報及び農場マップに設定された畝間想定範囲に基づく判定処理(ステップ406A)が実行されることにより、ロボット300は、ロボット300が畝間B322bの畝間想定範囲内に入ったことをより確実に判定することができる。更に、ロボット300は、ロボット300に異常状態が生じているか否かを判定できる。 By executing the determination processing (step 406A) based on the self-position information acquired by the GNSS unit 111 and the assumed ridge range set in the farm map, the robot 300 moves within the assumed ridge range of the ridge B322b. It is possible to determine with certainty that it has entered. Furthermore, the robot 300 can determine whether the robot 300 is in an abnormal state.

<効果>
第4実施形態に係る農業支援システムは、第3実施形態に係る農業支援システムと同様の効果を奏する。
<effect>
The agricultural support system according to the fourth embodiment has the same effect as the agricultural support system according to the third embodiment.

<<第5実施形態>>
本発明の第5実施形態に係る農業支援システムについて説明する。本発明の第5実施形態に係る農業支援システムは、図24に示すように、農場118内の所定位置に旋回する位置を示すマーカA351a及びマーカB351bを設置している。図21に示すロボット300が、監視装置106及び深度センサ301dによってマーカA351a及びマーカB351bを認識することによって、畝間A322aから畝間B322bへの移動動作を実行する。
<<Fifth Embodiment>>
An agricultural support system according to a fifth embodiment of the present invention will be described. The agricultural support system according to the fifth embodiment of the present invention, as shown in FIG. 24, has a marker A 351a and a marker B 351b that indicate a position to turn to a predetermined position in the farm 118. As shown in FIG. The robot 300 shown in FIG. 21 recognizes the marker A 351a and the marker B 351b by the monitoring device 106 and the depth sensor 301d, thereby executing the moving operation from the ridge A 322a to the ridge B 322b.

農場118において、マーカA351aは、畝間A322aを延ばした延長線上に設置されている。マーカB351bは、畝C321cを延ばした延長線上に設置されている。 In the farm 118, the marker A351a is installed on the extension of the furrow A322a. The marker B351b is installed on an extension of the ridge C321c.

ロボット300は、畝間322aを直進しながら深度センサ301dによってロボット300からマーカA351aまでの距離を測定する。ロボット300は、測定した距離が記憶装置105bに設定した一定の距離となった旋回位置E343bで右旋回方向に90°旋回する。 The robot 300 measures the distance from the robot 300 to the marker A351a by the depth sensor 301d while traveling straight through the ridge 322a. The robot 300 turns 90 degrees to the right turning direction at the turning position E343b where the measured distance becomes the fixed distance set in the storage device 105b.

その後、ロボット300は、直進しながら深度センサ301dによってロボット300からマーカB351bまでの距離を測定する。ロボット300は、測定した距離が記憶装置105bに設定した一定の距離となる旋回位置E343dで右旋回方向に90°旋回する。その後、ロボット300は、直進することにより、畝間B322bに入っていき、畝間A322aから畝間B322bへの移動を完了する。 After that, the robot 300 measures the distance from the robot 300 to the marker B351b by the depth sensor 301d while traveling straight. The robot 300 turns 90° in the right turning direction at a turning position E343d where the measured distance is the constant distance set in the storage device 105b. After that, the robot 300 goes straight to enter the ridge B322b and completes the movement from the ridge A322a to the ridge B322b.

なお、マーカA351a及びマーカB351bには、ユニークな情報を持たせることができる。例えばマーカの設置位置を示す情報を文字やQRコード(登録商標)等で記載しておき、監視装置106で読み取ることで、ロボット300は、ロボット300の正確な自己位置を取得することができる。更に、ロボット300は、読み取った情報に基づいてGNSS部311によって取得された自己位置情報に誤差が発生している判定した場合、自己位置情報の補正が可能となる。 Note that the marker A 351a and the marker B 351b can have unique information. For example, the robot 300 can acquire the accurate self-position of the robot 300 by writing information indicating the installation position of the marker in characters, a QR code (registered trademark), or the like and reading it with the monitoring device 106 . Further, when the robot 300 determines that the self-location information acquired by the GNSS unit 311 has an error based on the read information, the robot 300 can correct the self-location information.

<ロボットの動作5(隣接する畝間への移動)>
図25はマーカが設置された農場118におけるロボット300の隣接する畝間への移動の動作例を説明するためのフローチャートである。なお、ロボット300の各動作(処理)は、制御装置105によって実行される。
<Robot operation 5 (moving to adjacent ridge)>
FIG. 25 is a flowchart for explaining an operation example of movement of the robot 300 to adjacent furrows in the farm 118 where markers are installed. Each operation (process) of the robot 300 is executed by the control device 105 .

ステップ420にて、ロボット300は畝間A322aを直進している。ロボット300は、ステップ421に進み、監視装置106によってマーカA351aを認識してマーカA351aの前まで移動する。ロボット300は、深度センサ301dによってマーカA351aまでの距離を測定し、マーカA351aまでの距離と記憶装置105bに設定した距離に基づいて、ロボット300が旋回位置E343bに存在するか否かを判定する。 At step 420, robot 300 is traveling straight through furrow A322a. The robot 300 proceeds to step 421, recognizes the marker A351a by the monitoring device 106, and moves in front of the marker A351a. The robot 300 measures the distance to the marker A351a by the depth sensor 301d, and determines whether or not the robot 300 is at the turning position E343b based on the distance to the marker A351a and the distance set in the storage device 105b.

ロボット300が旋回位置E343bに存在しない場合、ロボット300は、ステップ421にて「No」と判定してステップ422に進み、GNSS部311によって取得された自己位置情報に基づいて、ロボット300が旋回位置E343bの想定範囲外に存在するか否かを判定する。なお、旋回位置E343bの想定範囲は、その範囲内でロボット300が存在する場合、ロボット300が深度センサ301dによってマーカA351aを認識できる範囲である。「旋回位置E343bの想定範囲」は、便宜上、「第1マーカ検知想定範囲」とも称呼される場合がある。 If the robot 300 does not exist at the turning position E343b, the robot 300 determines “No” in step 421 and proceeds to step 422. It is determined whether or not it exists outside the assumed range of E343b. The assumed range of the turning position E343b is a range in which the robot 300 can recognize the marker A351a by the depth sensor 301d when the robot 300 exists within the range. For the sake of convenience, the "assumed range of the turning position E343b" may also be referred to as the "assumed first marker detection range".

ロボット300が旋回位置E343bの想定範囲内に存在する場合、ロボット300はステップ422にて「No」と判定してステップ420に進み、再度ロボット300は直進し、旋回位置E343bまでの移動を試みる。 If the robot 300 is within the assumed range of the turning position E343b, the robot 300 makes a "No" determination in step 422, proceeds to step 420, and moves straight again to attempt movement to the turning position E343b.

ロボット300が旋回位置E343bの想定範囲外に存在する場合、ロボット300はステップ422にて「Yes」と判定してステップ423に進み、異常判定を行う。即ち、ロボット300がマーカA351aを認識できる想定範囲外に存在するにも関わらずマーカA351aを検知できてしまっている(ステップ421にて「No」との判定)ので、ロボット300は異常判定を行う。 If the robot 300 is outside the assumed range of the turning position E343b, the robot 300 makes a "Yes" determination in step 422, proceeds to step 423, and makes an abnormality determination. That is, since the robot 300 can detect the marker A 351a even though the robot 300 is outside the assumed range in which the marker A 351a can be recognized (determination of "No" in step 421), the robot 300 performs abnormality determination. .

ロボット300が旋回位置E343bに存在する場合、ロボット300は、ステップ421にて「Yes」と判定してステップ424に進み、旋回位置E343bにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ425に進む。 When the robot 300 is at the turning position E343b, the robot 300 determines “Yes” in step 421, proceeds to step 424, and controls the rotation of the driving wheels 114 at the turning position E343b to turn to the right. Attempt a 90° turn in the rotational direction and proceed to step 425 .

ステップ425にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 425, the robot 300 determines whether or not the robot 300 has turned right by 90 degrees based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ425にて「No」と判定してステップ426に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ424に進み、右旋回方向に90°旋回できるまで旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ425に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ステップ426に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 makes a "No" determination in step 425, proceeds to step 426, and waits for the predetermined time stored in the storage device 105b in advance. Retry within That is, in this case, the robot 300 proceeds to step 424 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds to step 425 again and determines whether the robot 300 has turned 90 degrees in the right turning direction. If the robot 300 has not yet turned 90 degrees to the right, the process proceeds to step 426 to determine whether or not a certain period of time has elapsed since the timer 105a started counting.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、「No」と判定して再びステップ424の動作及びステップ425の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" and performs the operations of steps 424 and 425 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、ステップ426にて「Yes」と判定してステップ427に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes" in step 426, proceeds to step 427, and performs an abnormality determination.

ステップ425にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ425にて「Yes」と判定してステップ428に進み、マーカB351bに向かって直進する。 At step 425, if the robot 300 has turned 90 degrees to the right, the robot 300 determines "Yes" at step 425, proceeds to step 428, and moves straight toward the marker B351b.

ロボット300は、ステップ429に進み、監視装置106によってマーカB351bを認識してマーカB351bの前まで移動する。ロボット300は、深度センサ301dによってマーカB351bまでの距離を測定し、マーカB351bまでの距離と記憶装置105bに設定した距離に基づいて、ロボット300が旋回位置F343dに存在するか否かを判定する。 The robot 300 proceeds to step 429, recognizes the marker B351b by the monitoring device 106, and moves in front of the marker B351b. The robot 300 measures the distance to the marker B351b by the depth sensor 301d, and determines whether or not the robot 300 is present at the turning position F343d based on the distance to the marker B351b and the distance set in the storage device 105b.

ロボット300が旋回位置F343dに存在しない場合、ロボット300は、ステップ429にて「No」と判定してステップ430に進み、GNSS部311によって取得された自己位置情報に基づいて、ロボット300が旋回位置F343dの想定範囲外に存在するか否かを判定する。なお、旋回位置F343dの想定範囲は、その範囲内にロボットが存在する場合、ロボット300が深度センサ301dによってマーカB351bを認識できる範囲である。旋回位置F343dの想定範囲は、便宜上、「第2マーカ検知想定範囲」とも称呼される場合がある。 If the robot 300 does not exist at the turning position F343d, the robot 300 determines “No” in step 429 and proceeds to step 430. It is determined whether or not it exists outside the assumed range of F343d. The assumed range of the turning position F343d is a range in which the robot 300 can recognize the marker B351b by the depth sensor 301d when the robot exists within that range. For convenience, the assumed range of the turning position F343d may also be referred to as the "second marker detection assumed range".

ロボット300が旋回位置F343dの想定範囲内に存在する場合、ロボット300はステップ430にて「No」と判定してステップ428に進み、再度ロボット300は直進し、旋回位置F343dまでの移動を試みる。 If the robot 300 is within the assumed range of the turning position F343d, the robot 300 makes a "No" determination in step 430, proceeds to step 428, and moves straight again to attempt movement to the turning position F343d.

ロボット300が旋回位置F343dの想定範囲外に存在する場合、ロボット300はステップ430にて「Yes」と判定してステップ431に進み、異常判定を行う。即ち、ロボット300がマーカB351bを認識できる想定範囲外に存在するにも関わらずマーカB351bを検知できてしまっている(ステップ429)ので、ロボット300は異常判定を行う。 If the robot 300 is outside the assumed range of the turning position F343d, the robot 300 makes a "Yes" determination in step 430, proceeds to step 431, and makes an abnormality determination. That is, since the robot 300 can detect the marker B 351b even though it is outside the assumed range where the marker B 351b can be recognized (step 429), the robot 300 determines an abnormality.

ロボット300が旋回位置F343dに存在する場合、ロボット300は、ステップ429にて「Yes」と判定してステップ432に進み、旋回位置F343dにて、駆動輪114の回転を制御することによって、右旋回方向に90°の旋回を試みてステップ433に進む。 When the robot 300 is present at the turning position F343d, the robot 300 determines “Yes” in step 429, proceeds to step 432, and controls the rotation of the drive wheels 114 at the turning position F343d to turn to the right. Attempt a 90° turn in the direction of rotation and proceed to step 433 .

ステップ433にて、ロボット300は、ロボット300が右旋回方向に90°旋回できたか否かを内部センサ301cによって取得された情報(内部センサデータ)に基づいて判定する。 At step 433, the robot 300 determines whether or not the robot 300 has turned 90 degrees to the right, based on the information (internal sensor data) acquired by the internal sensor 301c.

ロボット300が右旋回方向に90°旋回できていない場合、ロボット300は、ステップ433にて「No」と判定してステップ434に進み、あらかじめ記憶装置105bに記憶しておいた決められた時間内でリトライを実施する。即ち、この場合、ロボット300は、ステップ432に進み、右旋回方向に90°旋回できるまで旋回を試みる。なお、リトライに要した時間はタイマ105aにてカウントする。ロボット300は、再び、ステップ433に進み、ロボット300が右旋回方向に90°旋回できたか否かを判定する。ロボット300が右旋回方向に90°旋回できていない場合、ステップ434に進み、タイマ105aのカウント開始から一定時間が経過したか否かを判定する。 If the robot 300 has not been able to turn 90 degrees in the right turning direction, the robot 300 makes a "No" determination in step 433, proceeds to step 434, and waits for the predetermined time stored in advance in the storage device 105b. Retry within That is, in this case, the robot 300 proceeds to step 432 and attempts to turn until it can turn 90 degrees in the right turning direction. The time required for the retry is counted by the timer 105a. The robot 300 proceeds to step 433 again and determines whether or not the robot 300 has turned 90 degrees to the right. If the robot 300 has not been able to turn 90 degrees to the right, the process proceeds to step 434, and it is determined whether or not a certain period of time has elapsed since the timer 105a started counting.

タイマ105aのカウント開始から一定時間が経過していない場合、ロボット300は、「No」と判定して再びステップ432の動作及びステップ433の動作を行う。 If the predetermined time has not elapsed since the timer 105a started counting, the robot 300 determines "No" and performs the operations of steps 432 and 433 again.

タイマ105aのカウント開始から一定時間が経過した場合、ロボット300は、ステップ434にて「Yes」と判定してステップ435に進み、異常判定を行う。 If a certain period of time has elapsed since the timer 105a started counting, the robot 300 determines "Yes" in step 434, proceeds to step 435, and performs an abnormality determination.

ステップ433にて、ロボット300が右旋回方向に90°旋回できていた場合、ロボット300は、ステップ433にて「Yes」と判定してステップ446に進み、直進して畝間322bへの移動を完了する。 In step 433, if the robot 300 has turned 90 degrees in the right turning direction, the robot 300 determines "Yes" in step 433, advances to step 446, and proceeds straight to move to the ridge 322b. complete.

<効果>
第5実施形態に係る農業支援システムは、第1実施形態に係る農業支援システムと同様の効果を奏する。更に、この農業支援システムによれば、ロボット300が、ロボット300とマーカ(マーカA351a、マーカB351b)との間の距離に基づいて、畝間A322aを走行した後適切な位置で曲がることにより、隣接する畝間B322bへ移動することができる。従って、この農業支援システムは、農場118内を自律走行するロボット300が隣接する畝間B322bへ移動するときに、ロボット300が畝に接触することによって、畝の一部が崩壊してしまう可能性を低下できる。
<effect>
The agriculture support system according to the fifth embodiment has the same effect as the agriculture support system according to the first embodiment. Furthermore, according to this agricultural support system, the robot 300 travels between the furrows A322a based on the distance between the robot 300 and the markers (marker A351a, marker B351b), and then turns at an appropriate position to make the adjacent It can move to the ridge B322b. Therefore, this agricultural support system prevents the robot 300 from contacting the ridge when the robot 300 autonomously traveling in the farm 118 moves to the adjacent ridge B322b, which may cause a part of the ridge to collapse. can be lowered.

<<変形例>>
本発明は上記各実施形態に限定されることなく、本発明の範囲内において種々の変形例を採用することができる。更に、上記各実施形態の特徴は、本発明の範囲を逸脱しない限り、互いに組み合わせることが可能である。
<<Modification>>
The present invention is not limited to the above embodiments, and various modifications can be adopted within the scope of the present invention. Furthermore, the features of each of the above embodiments can be combined with each other without departing from the scope of the present invention.

例えば、上述の各実施形態において、ロボットは、複数対の駆動輪を備えた移動体やクローラーであってもよい。農場内に複数のロボットが存在する場合、一のロボットは、他のロボットの自己位置情報を含む情報を利用してもよい。 For example, in each of the above-described embodiments, the robot may be a mobile body or crawler equipped with multiple pairs of drive wheels. If there are multiple robots in the farm, one robot may use information including self-location information of the other robots.

101…ロボット、102…サーバ、103…端末、105…制御装置、106…監視装置、107…外部センサ、108…内部センサ、109…通信部、110…アンテナ、111…GNSS部、112…モータ、113…駆動軸、114…駆動輪、118…農場、119…畝、120…畝間、121…監視画像、123…農場マップデータ、301a…右畝検知センサ、301b…左畝検知センサ、322a…畝間A、322b…畝間B、S…農業支援システム DESCRIPTION OF SYMBOLS 101... Robot, 102... Server, 103... Terminal, 105... Control device, 106... Monitoring device, 107... External sensor, 108... Internal sensor, 109... Communication unit, 110... Antenna, 111... GNSS unit, 112... Motor, 113... drive shaft, 114... drive wheel, 118... farm, 119... furrow, 120... furrow, 121... monitoring image, 123... farm map data, 301a... right furrow detection sensor, 301b... left furrow detection sensor, 322a... furrow A, 322b ... Furrow B, S ... Agriculture support system

Claims (15)

互いに通信可能に構成された、情報処理装置と、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体とを含む農業支援システムであって、
前記移動体は、
前記情報処理装置と通信可能な通信装置と、
複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、
前記移動体の周囲の物体に関する物体情報を取得することにより物体を検知する第1情報取得装置と、
前記移動体の状態に関する移動体情報を取得する第2情報取得装置と、
前記移動体の位置を示す自己位置情報を取得する位置情報取得装置と、
前記移動体を所望の進行方向に走行させることが可能な走行装置と、
前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、
を備え、
前記制御装置は、
前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置が、前記移動体の左側及び右側に前記畝を検知している畝検知状態から前記移動体の左側及び右側に前記畝を検知していない畝未検知状態になった場合、
前記移動体が、前記第1情報取得装置が前記畝未検知状態になった時点の位置から第1距離だけ直進して第1旋回位置まで移動し、前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進する第1直進動作を行うように、前記走行装置を制御し、
更に、前記制御装置は、
前記第1情報取得装置が、前記移動体の前記一方の側のみに前記畝を検知している状態から前記移動体の左側及び右側に前記畝を検知していない前記畝未検知状態になった場合、
前記移動体が、前記畝未検知状態になった時点の位置から第2距離だけ直進して第2旋回位置まで移動し、前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進する第2直進動作を行うように、
前記走行装置を制御する、
ように構成された、
農業支援システム。
An agricultural support system including an information processing device configured to be able to communicate with each other, and a mobile body capable of traveling in a farm formed so that a plurality of rows of ridges and the spaces between the ridges are lined up,
The moving body is
a communication device capable of communicating with the information processing device;
a storage unit that stores a farm map corresponding to the farm, including ridge information including positions regarding the plurality of ridges and between the ridges;
a first information acquisition device that detects an object by acquiring object information about an object around the moving object;
a second information acquisition device that acquires mobile information about the state of the mobile;
a location information acquisition device that acquires self-location information indicating the location of the mobile object;
a traveling device capable of causing the moving body to travel in a desired traveling direction;
a control device that controls the traveling device so that the mobile body autonomously travels between the ridges based on the farm map, the object information, the mobile body information, and the self-location information;
with
The control device is
When the moving body is traveling between one of the ridges, the first information acquisition device detects the ridges on the left and right sides of the moving body from the ridge detection state to the left and right sides of the moving body. If the ridge is not detected in the above-mentioned ridge,
The moving body advances straight a first distance from the position at which the first information acquisition device enters the ridge non-detection state, moves to a first turning position, turns at the first turning position, and then moves to the first turning position. Controlling the traveling device so as to perform a first straight-ahead motion in which the ridges are aligned along the direction in which the plurality of ridges are aligned toward a position where the ridges are present only on one of the left side and the right side of the moving body. death,
Furthermore, the control device
The first information acquisition device changes from a state in which the ridge is detected only on the one side of the moving object to a ridge undetected state in which the ridge is not detected on the left and right sides of the moving object. case,
The moving body advances straight a second distance from the position at which the ridge is not detected, moves to a second turning position, turns at the second turning position, and then is adjacent to the one ridge. so as to perform a second straight motion that moves straight toward the ridge,
controlling the running gear;
configured as
Agricultural support system.
互いに通信可能に構成された、情報処理装置と、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体とを含む農業支援システムであって、
前記移動体は、
前記情報処理装置と通信可能な通信装置と、
複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、
前記移動体の周囲の物体に関する物体情報を取得するための第1情報取得装置と、
前記移動体の状態に関する移動体情報を取得するための第2情報取得装置と、
前記移動体の位置を示す自己位置情報を取得する位置情報取得装置と、
前記移動体を所望の進行方向に走行させることが可能な走行装置と、
前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、
を備え、
前記農場には、第1旋回位置から第1所定距離だけ離れた位置に設置された第1マーカ及び第2旋回位置から第2所定距離だけ離れた位置に設置された第2マーカが設置され、
前記制御装置は、
前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置によって、前記物体情報として前記第1マーカと前記移動体との間の距離である第1マーカ距離を取得し、
前記第1マーカ距離及び前記第1所定距離に基づいて、前記移動体が前記第1旋回位置に到達したと判定した場合、
前記移動体が前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進するように、前記走行装置を制御し、
前記第1情報取得装置によって、前記物体情報として前記第2マーカと前記移動体との間の距離である第2マーカ距離を取得し、
前記第2マーカ距離及び前記第2所定距離に基づいて、前記移動体が前記第2旋回位置に到達したと判定した場合、前記移動体が前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進するように、前記走行装置を制御する、
ように構成された、
農業支援システム。
An agricultural support system including an information processing device configured to be able to communicate with each other, and a mobile body capable of traveling in a farm formed so that a plurality of rows of ridges and the spaces between the ridges are lined up,
The moving body is
a communication device capable of communicating with the information processing device;
a storage unit that stores a farm map corresponding to the farm, including ridge information including positions regarding the plurality of ridges and between the ridges;
a first information acquisition device for acquiring object information about objects around the moving object;
a second information acquisition device for acquiring mobile body information about the state of the mobile body;
a location information acquisition device that acquires self-location information indicating the location of the mobile object;
a traveling device capable of causing the moving body to travel in a desired traveling direction;
a control device that controls the traveling device so that the mobile body autonomously travels between the ridges based on the farm map, the object information, the mobile body information, and the self-location information;
with
The farm is provided with a first marker installed at a position separated by a first predetermined distance from the first turning position and a second marker installed at a position separated by a second predetermined distance from the second turning position,
The control device is
While the moving object is running between the one ridges, the first information acquisition device acquires a first marker distance, which is the distance between the first marker and the moving object, as the object information. ,
If it is determined that the moving body has reached the first turning position based on the first marker distance and the first predetermined distance,
After the moving body turns at the first turning position, it moves straight along the direction in which the plurality of ridges are arranged toward a position where the ridges exist only on one of the left side and the right side of the moving body. so as to control the traveling device,
obtaining a second marker distance, which is the distance between the second marker and the moving body, as the object information by the first information obtaining device;
When it is determined that the moving body has reached the second turning position based on the second marker distance and the second predetermined distance, after the moving body turns at the second turning position, the one of the Controlling the traveling device so as to move straight toward the ridge adjacent to the ridge;
configured as
Agricultural support system.
請求項1又は請求項2に記載の農業支援システムにおいて、
前記情報処理装置は、前記農場マップが格納された記憶装置を更に備え、
前記移動体は、前記移動体の周辺を撮像して撮像画像を取得する撮像装置を更に備え、
前記制御装置は、
前記撮像装置から前記撮像画像を受信し、
前記撮像画像と、前記撮像画像を取得した時刻を示す時刻情報と、前記撮像画像を取得した位置を示す画像取得位置情報と、を対応付けたデータセットを、前記通信装置を介して前記情報処理装置に送信するように構成され、
前記情報処理装置は、
前記画像取得位置情報に基づいて、前記撮像画像と前記時刻情報とを前記農場マップに対応付けて前記記憶装置に保存する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1 or claim 2,
The information processing device further comprises a storage device storing the farm map,
The moving body further includes an imaging device that captures an image of the surroundings of the moving body and acquires a captured image,
The control device is
receiving the captured image from the imaging device;
a data set in which the captured image, time information indicating the time when the captured image was obtained, and image acquisition position information indicating the position at which the captured image was obtained are associated with each other; configured to send to the device,
The information processing device is
storing the captured image and the time information in the storage device in association with the farm map based on the image acquisition position information;
configured as
Agricultural support system.
請求項3に記載の農業支援システムにおいて、
前記制御装置は、
前記撮像装置から前記撮像画像を受信した場合、前記情報処理装置から前記通信装置を介して、前記情報処理装置の前記記憶装置に保存されている、前記撮像画像を取得した位置に対応する前記撮像画像である保存画像を前記情報処理装置から取得し、
前記撮像画像と前記保存画像とを比較することにより、前記撮像画像内に存在する物体が、防草対象物体及び障害物の何れであるか否かを判定し、
判定結果に基づいて、前記移動体の走行を制御する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 3,
The control device is
When the captured image is received from the imaging device, the imaging corresponding to the position where the captured image is acquired, which is stored in the storage device of the information processing device via the communication device from the information processing device Acquiring a stored image, which is an image, from the information processing device;
determining whether an object present in the captured image is a weed control target object or an obstacle by comparing the captured image with the stored image;
controlling travel of the moving body based on the determination result;
configured as
Agricultural support system.
請求項4に記載の農業支援システムにおいて、
前記制御装置は、
前記撮像画像内に存在する物体が、前記防草対象物体である場合、前記移動体の走行を継続し、
前記撮像画像内に存在する物体が、前記障害物である場合、前記移動体の走行を停止するように、前記走行装置を制御する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 4,
The control device is
if the object present in the captured image is the weed prevention target object, continuing the traveling of the moving object;
If the object present in the captured image is the obstacle, controlling the traveling device to stop traveling of the moving object;
configured as
Agricultural support system.
請求項1又は請求項2に記載の農業支援システムにおいて、
前記制御装置は、
前記移動体情報及び前記自己位置情報に基づいて、前記移動体がスタック状態にあると判定した場合、前記移動体がスタック状態を解消するための所定のスタック解消動作を前記移動体に実行させるように、前記走行装置を制御する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1 or claim 2,
The control device is
When it is determined that the mobile body is in a stuck state based on the mobile body information and the self-position information, the mobile body is caused to execute a predetermined stack elimination operation for eliminating the stuck state. to control the traveling device;
configured as
Agricultural support system.
請求項1又は請求項2に記載の農業支援システムにおいて、
前記移動体は、前記第1情報取得装置として、レーザ光を出射する出射部を備えたセンサを備え、
前記センサは、前記出射部の向きを自在に変えることができるように、前記移動体に対して可動するように前記移動体に取り付けられている、
農業支援システム。
In the agricultural support system according to claim 1 or claim 2,
The moving body includes, as the first information acquisition device, a sensor having an emission unit that emits a laser beam,
The sensor is attached to the moving body so as to be movable with respect to the moving body so that the direction of the emitting part can be freely changed.
Agricultural support system.
請求項1又は請求項2に記載の農業支援システムにおいて、
前記情報処理装置及び前記移動体と通信可能な情報端末を更に含み、
前記情報端末は、前記移動体から移動体の状態を示す情報を取得する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1 or claim 2,
further comprising an information terminal capable of communicating with the information processing device and the mobile body,
the information terminal acquires information indicating the state of the mobile object from the mobile object;
configured as
Agricultural support system.
請求項1又は請求項2に記載の農業支援システムにおいて、
前記制御装置は、
前記移動体の向きが前記畝の列方向に対して垂直になるまで、前記第1移動体が前記第1旋回位置で旋回するように、前記走行装置を制御し、
前記移動体の向きが前記畝の列方向に対して平行になるまで、前記第1移動体が前記第2旋回位置で旋回するように、前記走行装置を制御する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1 or claim 2,
The control device is
controlling the traveling device so that the first moving body turns at the first turning position until the direction of the moving body becomes perpendicular to the row direction of the ridges;
controlling the traveling device so that the first moving body turns at the second turning position until the direction of the moving body becomes parallel to the row direction of the ridges;
configured as
Agricultural support system.
請求項1に記載の農業支援システムにおいて、
前記制御装置は、
前記移動体が前記第1旋回位置で旋回する前に、前記第1情報取得装置が、前記移動体の左側及び右側に物体を検知していないか否かを判定し、
前記第1情報取得装置が、前記移動体の左側及び右側に物体を検知していない場合に、前記移動体が前記第1直進動作を行うように、前記走行装置を制御し、
前記第1情報取得装置が、前記移動体の左側及び右側の少なくとも一方の側に物体を検知している場合、前記移動体を停止させるように、前記走行装置を制御し、
前記移動体が前記第2旋回位置で旋回する前に、前記第1情報取得装置が、前記移動体の左側及び右側に物体を検知していないか否かを判定し、
前記第1情報取得装置が、前記移動体の左側及び右側に物体を検知していない場合に、前記移動体が前記第2直進動作を行うように、前記走行装置を制御し、
前記第1情報取得装置が、前記移動体の左側及び右側の少なくとも一方の側に物体を検知している場合、前記移動体を停止させるように、前記走行装置を制御する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1,
The control device is
determining whether or not the first information acquisition device detects objects on the left and right sides of the moving body before the moving body turns at the first turning position;
controlling the traveling device so that the moving body performs the first straight movement when the first information acquisition device does not detect objects on the left and right sides of the moving body;
controlling the traveling device to stop the moving body when the first information acquisition device detects an object on at least one of the left side and the right side of the moving body;
determining whether or not the first information acquisition device detects objects on the left and right sides of the moving body before the moving body turns at the second turning position;
controlling the traveling device so that the moving body performs the second straight movement when the first information acquisition device does not detect objects on the left and right sides of the moving body;
When the first information acquisition device detects an object on at least one of the left side and the right side of the moving body, controlling the traveling device so as to stop the moving body;
configured as
Agricultural support system.
請求項1に記載の農業支援システムにおいて、
前記制御装置は、前記自己位置情報及び前記農場マップに基づいて、前記一の前記畝間と前記一の前記畝間を延長した場合の延長範囲とからなる畝想定範囲であって、前記移動体が前記畝想定範囲に存在する場合、前記第1情報取得装置によって前記一の前記畝間を挟む2つの前記畝の少なくとも一つが検知できると想定される前記畝想定範囲を特定し、
前記自己位置情報に基づいて、前記移動体が前記畝想定範囲外に存在するか否かを判定し、
前記第1情報取得装置が、前記移動体の左側及び右側の少なくとも一方の側に前記畝以外の物体を検知している状態である場合において、前記移動体が前記畝想定範囲外に存在する場合、前記移動体が異常状態であると判定する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1,
Based on the self-location information and the farm map, the control device provides an assumed ridge range consisting of the one ridge interval and an extended range when the one ridge interval is extended, and If it exists in the assumed ridge range, specify the assumed ridge range where it is assumed that at least one of the two ridges sandwiching the one ridge can be detected by the first information acquisition device,
Determining whether or not the moving object exists outside the assumed ridge range based on the self-location information;
When the first information acquisition device detects an object other than the ridge on at least one of the left side and the right side of the moving body, and the moving body exists outside the assumed range of the ridge , determining that the moving object is in an abnormal state;
configured as
Agricultural support system.
請求項1に記載の農業支援システムにおいて、
前記制御装置は、
前記自己位置情報及び前記農場マップに基づいて、前記一の前記畝間及び前記一の前記畝間を延長した場合の延長範囲とからなる畝端想定範囲であって、前記移動体が前記畝端想定範囲に存在する場合、前記第1情報取得装置によって前記一の前記畝間を挟む2つの前記畝のうちの少なくとも一つの前記畝の畝端が検知できると想定される前記畝端想定範囲を特定し、
前記移動体が前記一の前記畝間を走行しているときに、前記第1情報取得装置が、前記畝検知状態から前記畝未検知状態になった場合、前記自己位置情報に基づいて、前記移動体が前記畝端想定範囲内に存在するか否かを判定し、
前記移動体が前記畝端想定範囲内に存在する場合、前記移動体が異常状態であると判定する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1,
The control device is
Based on the self-location information and the farm map, an assumed ridge edge range comprising the one ridge interval and an extended range when the one ridge interval is extended, wherein the moving object is the assumed ridge edge range , it is assumed that the ridge end of at least one of the two ridges sandwiching the one ridge can be detected by the first information acquisition device. Identify the assumed ridge end range,
When the first information acquisition device changes from the ridge detection state to the ridge non-detection state while the moving object is traveling between the one ridges, the moving object is determined based on the self-location information. Determining whether the body exists within the assumed range of the ridge end,
When the moving body exists within the assumed range of the ridge edge, it is determined that the moving body is in an abnormal state;
configured as
Agricultural support system.
請求項1に記載の農業支援システムにおいて、
前記制御装置は、
前記自己位置情報及び前記農場マップに基づいて、前記一の前記畝間に隣接する前記畝間を延長した場合の延長範囲であり、当該延長範囲内に前記移動体が存在する場合に前記第1情報取得装置によって前記畝が検知できないと想定される畝間想定範囲を特定し、
前記第1情報取得装置が、前記移動体の左側及び右側の少なくとも一方の側に前記畝以外の物体を検知している状態である場合において、前記移動体が前記畝間想定範囲内に存在する場合、前記移動体が異常状態であると判定する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 1,
The control device is
Based on the self-location information and the farm map, it is an extension range when the ridges adjacent to the one ridge are extended, and the first information is acquired when the moving body exists within the extension range. Identifying an assumed range between ridges where it is assumed that the ridges cannot be detected by the device,
When the first information acquisition device detects an object other than the ridge on at least one of the left side and the right side of the moving body, and the moving body exists within the assumed range between the ridges , determining that the moving object is in an abnormal state;
configured as
Agricultural support system.
請求項2に記載の農業支援システムにおいて、
前記制御装置は、
前記自己位置情報及び前記農場マップに基づいて、前記第1情報取得装置によって前記第1マーカが検知可能であると想定される第1マーカ検知想定範囲及び前記第1情報取得装置によって前記第2マーカが検知可能であると想定される第2マーカ検知想定範囲を特定し、
前記第1情報取得装置によって前記第1マーカ距離が取得できている場合において、前記移動体が前記第1旋回位置に到達したと判定される前に、前記自己位置情報に基づいて、前記移動体が前記第1マーカ検知想定範囲外に存在するか否かを判定し、
前記移動体が前記第1マーカ検知想定範囲外に存在する場合、前記移動体が異常状態であると判定し、
前記第1情報取得装置によって前記第2マーカ距離が取得できている場合において、前記移動体が前記第2旋回位置に到達したと判定される前に、前記自己位置情報に基づいて、前記移動体が前記第2マーカ検知想定範囲外に存在するか否かを判定し、
前記移動体が前記第2マーカ検知想定範囲外に存在する場合、前記移動体が異常状態であると判定する、
ように構成された、
農業支援システム。
In the agricultural support system according to claim 2,
The control device is
Based on the self-location information and the farm map, a first marker detection assumed range in which the first marker is assumed to be detectable by the first information acquisition device and the second marker by the first information acquisition device identifies the assumed detection range of the second marker that is assumed to be detectable,
When the first information acquisition device can acquire the first marker distance, before it is determined that the mobile body has reached the first turning position, based on the self-position information, the mobile body exists outside the assumed detection range of the first marker,
determining that the moving object is in an abnormal state when the moving object exists outside the first marker detection assumed range;
When the second marker distance can be acquired by the first information acquisition device, before it is determined that the mobile body has reached the second turning position, the mobile body determines based on the self-position information exists outside the second marker detection assumed range,
determining that the moving body is in an abnormal state when the moving body is outside the second marker detection range;
configured as
Agricultural support system.
外部の情報処理装置と互いに通信可能に構成され、複数の列状の畝及び畝間が並ぶように形成された農場を走行可能な移動体であって、
前記情報処理装置と通信可能な通信装置と、
複数の前記畝及び前記畝間に関する位置を含む畝情報を含む、前記農場に対応する農場マップが格納された記憶部と、
前記移動体の周囲の物体に関する物体情報を取得することにより物体を検知する第1情報取得装置と、
前記移動体の状態に関する移動体情報を取得する第2情報取得装置と、
前記移動体の位置を示す自己位置情報を取得する位置情報取得装置と、
前記移動体を所望の進行方向に走行させることが可能な走行装置と、
前記農場マップ、前記物体情報、前記移動体情報及び前記自己位置情報に基づいて、前記移動体が前記畝間を自律走行するように前記走行装置を制御する制御装置と、
を備え、
前記制御装置は、
前記移動体が一の前記畝間を走行しているときに、前記第1情報取得装置が、前記移動体の左側及び右側に前記畝を検知している畝検知状態から前記移動体の左側及び右側に前記畝を検知していない畝未検知状態になった場合、
前記移動体が、前記第1情報取得装置が前記畝未検知状態になった時点の位置から第1距離だけ直進して第1旋回位置まで移動し、前記第1旋回位置で旋回した後、前記移動体の左側及び右側のうちの一方の側のみに前記畝が存在する位置に向かって、複数の前記畝が並ぶ方向に沿って直進する第1直進動作を行うように、前記走行装置を制御し、
更に、前記制御装置は、
前記第1情報取得装置が、前記移動体の前記一方の側のみに前記畝を検知している状態から前記移動体の左側及び右側に前記畝を検知していない前記畝未検知状態になった場合、
前記移動体が、前記畝未検知状態になった時点の位置から第2距離だけ直進して第2旋回位置まで移動し、前記第2旋回位置で旋回した後、前記一の前記畝間に隣接する前記畝間に向かって直進する第2直進動作を行うように、
前記走行装置を制御する、
ように構成された、
移動体。
A mobile body configured to be able to communicate with an external information processing device and capable of traveling through a farm formed with a plurality of row-shaped ridges and the spaces between the ridges lined up,
a communication device capable of communicating with the information processing device;
a storage unit that stores a farm map corresponding to the farm, including ridge information including positions regarding the plurality of ridges and between the ridges;
a first information acquisition device that detects an object by acquiring object information about an object around the moving object;
a second information acquisition device that acquires mobile information about the state of the mobile;
a location information acquisition device that acquires self-location information indicating the location of the mobile object;
a traveling device capable of causing the moving body to travel in a desired traveling direction;
a control device that controls the traveling device so that the mobile body autonomously travels between the ridges based on the farm map, the object information, the mobile body information, and the self-location information;
with
The control device is
When the moving body is traveling between one of the ridges, the first information acquisition device detects the ridges on the left and right sides of the moving body from the ridge detection state to the left and right sides of the moving body. If the ridge is not detected in the above-mentioned ridge,
The moving body advances straight a first distance from the position at which the first information acquisition device enters the ridge non-detection state, moves to a first turning position, turns at the first turning position, and then moves to the first turning position. Controlling the traveling device so as to perform a first straight-ahead motion in which the ridges are aligned along the direction in which the plurality of ridges are aligned toward a position where the ridges are present only on one of the left side and the right side of the moving body. death,
Furthermore, the control device
The first information acquisition device changes from a state in which the ridge is detected only on the one side of the moving object to a ridge undetected state in which the ridge is not detected on the left and right sides of the moving object. case,
The moving body advances straight a second distance from the position at which the ridge is not detected, moves to a second turning position, turns at the second turning position, and then is adjacent to the one ridge. so as to perform a second straight motion that moves straight toward the ridge,
controlling the running gear;
configured as
Mobile.
JP2021093883A 2021-06-03 2021-06-03 Agricultural support system and movable body Pending JP2022185941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021093883A JP2022185941A (en) 2021-06-03 2021-06-03 Agricultural support system and movable body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021093883A JP2022185941A (en) 2021-06-03 2021-06-03 Agricultural support system and movable body

Publications (1)

Publication Number Publication Date
JP2022185941A true JP2022185941A (en) 2022-12-15

Family

ID=84441590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093883A Pending JP2022185941A (en) 2021-06-03 2021-06-03 Agricultural support system and movable body

Country Status (1)

Country Link
JP (1) JP2022185941A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117606477A (en) * 2023-10-19 2024-02-27 天津大学 Path planning method for multi-information fusion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117606477A (en) * 2023-10-19 2024-02-27 天津大学 Path planning method for multi-information fusion

Similar Documents

Publication Publication Date Title
CN112584697B (en) Autonomous machine navigation and training using vision system
ES2320023T3 (en) PROCEDURE FOR THE ANALYSIS OF SOIL SURFACES AND LAWN MAINTENANCE ROBOT TO PRACTICE THE PROCEDURE.
US9274524B2 (en) Method for machine coordination which maintains line-of-site contact
US20210029873A1 (en) Robotic Lawn Mowing Boundary Determination
KR101573027B1 (en) Intelligent unmaned robot for weeding
US20210364632A1 (en) Methods and Systems for Map Creation and Calibration of Localization Equipment in an Outdoor Environment
US20150163993A1 (en) Autonomous gardening vehicle with camera
CN108777938A (en) Combine harvester
EP3955079A1 (en) System and method for planning traveling path of automatic harvester
KR20110057544A (en) Apparatus for detecting a young rice palnt
AU2021306987A1 (en) Autonomous machine navigation using reflections from subsurface objects
JP2022185941A (en) Agricultural support system and movable body
KR101938660B1 (en) An robot apparatus for cutting grass
JP2016187305A (en) Mobile agricultural machine
EP4066076B1 (en) Autonomous machine navigation in various lighting environments
US20190054621A1 (en) Inertial Collision Detection Method For Outdoor Robots
JP2022183960A (en) Automatic travel method, automatic travel system and automatic travel program
JP7368341B2 (en) Patrol autonomous robot
US20240119842A1 (en) Methods and Systems for Coupling Vehicles
WO2004026538A1 (en) Method and device for automatic motion of a work vehicle
US20240069561A1 (en) Mapping objects encountered by a robotic garden tool
US20230280757A1 (en) Automatic Traveling Method, Automatic Traveling System, And Automatic Traveling Program
WO2024004575A1 (en) Work vehicle and method for controlling work vehicle
US20240155973A1 (en) Operation and installation for a robotic work tool
CA3160530A1 (en) Autonomous machine navigation in various lighting environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231228