JP7494023B2 - Agricultural robots - Google Patents

Agricultural robots Download PDF

Info

Publication number
JP7494023B2
JP7494023B2 JP2020109079A JP2020109079A JP7494023B2 JP 7494023 B2 JP7494023 B2 JP 7494023B2 JP 2020109079 A JP2020109079 A JP 2020109079A JP 2020109079 A JP2020109079 A JP 2020109079A JP 7494023 B2 JP7494023 B2 JP 7494023B2
Authority
JP
Japan
Prior art keywords
crop
sensing data
cultivation
arm
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020109079A
Other languages
Japanese (ja)
Other versions
JP2022006698A (en
Inventor
俊介 江戸
隼輔 宮下
倫祥 坂野
実 平岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2020109079A priority Critical patent/JP7494023B2/en
Priority to EP21829678.8A priority patent/EP4173464A1/en
Priority to PCT/JP2021/021864 priority patent/WO2021261246A1/en
Publication of JP2022006698A publication Critical patent/JP2022006698A/en
Application granted granted Critical
Publication of JP7494023B2 publication Critical patent/JP7494023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、農業用ロボットに関する。 The present invention relates to an agricultural robot.

従来、特許文献1に開示された農業用ロボットが知られている。
特許文献1に開示された農業用ロボットは、走行体に作物の収穫を行うことが可能なマニピュレータが設けられている。
2. Description of the Related Art Conventionally, an agricultural robot is known, as disclosed in Japanese Patent Application Laid-Open No. 2003-233696.
The agricultural robot disclosed in Patent Document 1 is provided with a manipulator on a running body that is capable of harvesting crops.

特開2011-229406号公報JP 2011-229406 A

さて、スイカ、メロン、カボチャ等の作物は様々なところで栽培(作付け)されるのが一般的である。ここで、農業用ロボットで作物の収穫などの作業を行う場合、作物を素早く探索することができれば、作業を効率化することができるものの、特許文献1の農業用ロボットでは、作物の探索を行うことが困難であった。
本発明は、作物の探索を効率よく行うことができる農業用ロボットを提供することを目的とする。
Now, crops such as watermelons, melons, pumpkins, etc. are generally cultivated (planted) in various places. When performing work such as harvesting crops using an agricultural robot, the work can be made more efficient if the robot can quickly search for the crops. However, the agricultural robot of Patent Document 1 has difficulty in searching for the crops.
An object of the present invention is to provide an agricultural robot capable of efficiently searching for crops.

農業用ロボットは、機体と、前記機体を走行可能に支持する走行装置とを含む走行体と、前記機体に着脱可能に装着された装着体、前記装着体に取り付けられたアーム及び前記アームの先端側に設けられたロボットハンドを含むマニピュレータと、前記機体に設けられ、回動可能に装着された第1光学式センサと、前記アーム及びロボットハンドのいずれかに設けられた第2光学式センサと、前記第1光学式センサで得られた第1センシングデータと、前記第2光学式センサで得られた第2センシングデータとに基づいて、作物を探索する作物探索部と、を備え、前記作物探索部は、前記第1光学式センサの回動角度と、前記第1センシングデータと、に基づいて、作物を栽培する施設内における前記作物の栽培位置として、当該栽培位置の向き及び当該栽培位置までの相対距離を示す位置を推定する位置推定部を含んでいる。
前記位置推定部は、前記第1センシングデータに含まれる前記作物の大きさと、基準フレームとを比較し、前記相対距離を演算する
The agricultural robot comprises a running body including a machine body and a running device that supports the machine body so that it can run, an attachment body that is detachably attached to the machine body, a manipulator including an arm attached to the attachment body and a robot hand provided at the tip of the arm, a first optical sensor that is rotatably attached to the machine body, a second optical sensor that is provided on either the arm or the robot hand, and a crop search unit that searches for crops based on first sensing data obtained by the first optical sensor and second sensing data obtained by the second optical sensor, and the crop search unit includes a position estimation unit that estimates a position indicating the orientation of the cultivation position and the relative distance to the cultivation position as the cultivation position of the crop within a facility for cultivating the crop, based on the rotation angle of the first optical sensor and the first sensing data.
The position estimation unit compares a size of the crop included in the first sensing data with a reference frame to calculate the relative distance .

前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含んでいる。
前記位置推定部で推定した前記栽培位置の周囲に前記走行体を移動させる制御装置を備えている。
The crop search unit includes a position identification unit that identifies a crop position, which is the position of the crop, based on the second sensing data when the moving body is positioned in the vicinity of the cultivation position estimated by the position estimation unit .
The vehicle is provided with a control device that moves the vehicle to the periphery of the cultivation position estimated by the position estimation unit.

前記位置特定部は、前記走行体を前記栽培位置の周囲に移動させて当該走行体を停止させたときの前記第2光学式センサから得られた第2センシングデータから前記作物位置を特定する。
前記位置特定部は、前記第2センシングデータに基づいて、前記第2光学式センサ及び走行体のいずれかと、前記作物との第1距離を演算し、前記演算した第1距離に基づいて前記作物位置を特定する。
The position identification unit identifies the crop position from second sensing data obtained from the second optical sensor when the moving body is moved to the periphery of the cultivation position and the moving body is stopped.
The position identification unit calculates a first distance between the crop and either the second optical sensor or the moving body based on the second sensing data, and identifies the crop position based on the calculated first distance.

前記第2光学式センサは、レーザセンサ、撮像装置及び分光分析装置のいずれか2以上を含んでいる。
前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含み、前記第1センシングデータ及び前記第2センシングデータのいずれかに、作物を識別する識別部材に識別情報が含まれている場合、前記識別部材の位置を前記作物の栽培位置及び前記作物の作物位置のいずれかに設定する。
The second optical sensor includes at least two of a laser sensor, an imaging device, and a spectroscopic analysis device.
The crop search unit includes a position identification unit that identifies a crop position, which is the position of the crop, based on the second sensing data when the moving body is positioned around the cultivation position estimated by the position estimation unit, and when either the first sensing data or the second sensing data includes identification information in an identification member that identifies a crop, the position of the identification member is set to either the cultivation position of the crop or the crop position of the crop.

前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含み、農業用ロボットは、前記第1センシングデータ及び前記第2センシングデータのいずれかに、作物を識別する識別部材に識別情報が含まれている場合、前記第1センシングデータ、前記第2センシングデータ及び前記識別情報に基づいて、作物位置及び前記識別情報に関連付けられた栽培情報を含む栽培マップを作成するマップ作成部を備えている。 The crop search unit includes a position identification unit that identifies a crop position, which is the position of the crop, based on the second sensing data when the mobile body is positioned around the cultivation position estimated by the position estimation unit, and the agricultural robot is equipped with a map creation unit that creates a cultivation map including the crop position and cultivation information associated with the identification information based on the first sensing data, the second sensing data, and the identification information when either the first sensing data or the second sensing data includes identification information in an identification member that identifies a crop.

本発明によれば、作物の探索を効率よく行うことができる。 The present invention allows for efficient crop exploration.

農業用ロボットの側面図である。FIG. 2 is a side view of the agricultural robot. 作業姿勢の状態の農業用ロボットの側面図である。FIG. 2 is a side view of the agricultural robot in a working posture. 機体及びマニピュレータの斜視図である。FIG. 2 is a perspective view of the fuselage and the manipulator. 機体及びマニピュレータの側面図である。FIG. 2 is a side view of the aircraft body and the manipulator. 走行装置の平面図である。FIG. 走行装置の側面図である。FIG. ロボットハンドの一部拡大図である。FIG. 2 is an enlarged view of a portion of the robot hand. 農業用ロボットの支援システムの全体図である。FIG. 1 is an overall view of an agricultural robot support system. 農業用ロボットを施設で走行させたルートを示す図である。FIG. 1 is a diagram showing the route that the agricultural robot traveled within the facility. 農業用ロボットにて作物の作業を行う様子を示す図である。FIG. 1 is a diagram showing a state in which an agricultural robot performs work on crops. 撮像画像H1(第1センシングデータH11)の一例を示す図である。FIG. 11 is a diagram showing an example of a captured image H1 (first sensing data H11). アームブラケットを中立位置MP1から回転させたときの光学式センサの光軸A20と角度θ1との関係を示す図である。13 is a diagram showing the relationship between the optical axis A20 of the optical sensor and the angle θ1 when the arm bracket is rotated from the neutral position MP1. FIG. 作物位置Znを求める方法を説明する説明図である。FIG. 11 is an explanatory diagram for explaining a method for determining the crop position Zn. 第2センシングデータH12を示す図である。FIG. 13 is a diagram showing second sensing data H12. 識別部材と作物との関係を示す図である。FIG. 4 is a diagram showing the relationship between an identification member and a crop. 栽培マップF2の一例を示す図である。FIG. 13 is a diagram showing an example of a cultivation map F2. 施設園芸の施設の内部の概略図である。FIG. 1 is a schematic diagram of the interior of a greenhouse facility. 施設園芸の施設の平面の概略図である。FIG. 1 is a schematic diagram of a floor plan of a greenhouse facility. 作物の栽培初期の施設園芸の施設の内部の斜視図である。FIG. 2 is a perspective view of the inside of a greenhouse horticulture facility in the early stage of crop cultivation. 作物の栽培中期又は後期の施設園芸の施設の内部の斜視図である。FIG. 2 is a perspective view of the inside of a greenhouse horticulture facility in the middle or late stages of crop cultivation.

以下、本発明の一実施形態について、図面を適宜参照しつつ説明する。
図1、図2は、農業用ロボット1を例示している。農業用ロボット1は、図17~図20に示すようなハウス等の施設園芸、植物工場等の施設において、栽培される作物2に対して作業(農作業)を行うロボットである。農業用ロボット1は、例えば、スイカ、メロン、カボチャ等の比較的重量のある作物2である重量野菜、果実等に対して作業を行う。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
1 and 2 show an example of an agricultural robot 1. The agricultural robot 1 is a robot that performs work (farming work) on crops 2 cultivated in facilities such as greenhouses and plant factories as shown in Figs. 17 to 20. The agricultural robot 1 performs work on heavy vegetables, fruits, etc., which are relatively heavy crops 2, such as watermelons, melons, pumpkins, etc.

まず、施設園芸の施設(施設園芸施設)を例にとり、施設について説明する。
図17~図20に示すように、施設100は、当該施設100を構成する構造物として、ハウス101と、ハウス101の内部に設置された機器102とを備えている。
ハウス101は、フレーム110と、被覆材111とを含んでいる。フレーム110は、例えば、I形鋼、H形鋼、C形鋼、角形鋼、丸形鋼等の様々な鋼材を組み合わせて、施設100の躯体を構成していて、複数の支柱部材110Aと、複数の連結部材110Bとを含んでいる。図17~図19に示すように、複数の支柱部材110Aは、地面等から起立した部材であって、横方向X1に所定の間隔で設置され且つ縦方向Y1に所定の間隔で設置されている。
First, we will explain facilities using greenhouse horticulture facilities (greenhouse horticulture facilities) as an example.
As shown in FIGS. 17 to 20, a facility 100 includes, as structures constituting the facility 100, a house 101 and equipment 102 installed inside the house 101.
The house 101 includes a frame 110 and a covering material 111. The frame 110 is made up of various steel materials, such as I-beam, H-beam, C-beam, square steel, and round steel, to form the framework of the facility 100, and includes a plurality of support members 110A and a plurality of connecting members 110B. As shown in Figures 17 to 19, the plurality of support members 110A are members that stand upright from the ground or the like, and are installed at predetermined intervals in the horizontal direction X1 and at predetermined intervals in the vertical direction Y1.

連結部材110Bは、横方向X1に離れた複数の支柱部材110Aの上端を互いに連結する。また、連結部材110Bは、縦方向Y1に離れた複数の支柱部材110Aを互いに連結する。
被覆材111は、少なくとも太陽光を取り入れ可能な透光性を有する部材であって、合成樹脂、ガラス等で構成されている。被覆材111は、例えば、フレーム110の外側から当該フレーム110の全体を覆っている。言い換えれば、被覆材111は、支柱部材110Aの外側、連結部材110Bの外側に配置されている。
The connecting members 110B connect the upper ends of the plurality of support members 110A spaced apart in the horizontal direction X1 to one another, and also connect the plurality of support members 110A spaced apart in the vertical direction Y1 to one another.
The covering material 111 is a translucent material that can at least take in sunlight, and is made of synthetic resin, glass, etc. The covering material 111 covers, for example, the entire frame 110 from the outside of the frame 110. In other words, the covering material 111 is disposed outside the support members 110A and outside the connecting members 110B.

機器102は、作物2を栽培する際に使用する様々な機器であって、ハウス101内の温度、湿度、空気流動等を調整することができる機器である。詳しくは、機器102は、換気扇102A、循環扇102B、熱交換装置102C等である。図17、図18に示すように、換気扇102Aは、ハウス101の出入口130側に設置され、外部の空気をハウス101内の空気を外部に排出したり、外部の空気をハウス101内に取り入れる。 The equipment 102 is various equipment used when cultivating the crop 2, and is equipment that can adjust the temperature, humidity, air flow, etc. inside the greenhouse 101. More specifically, the equipment 102 is a ventilation fan 102A, a circulation fan 102B, a heat exchanger 102C, etc. As shown in Figures 17 and 18, the ventilation fan 102A is installed on the entrance/exit 130 side of the greenhouse 101, and exhausts the air inside the greenhouse 101 to the outside, and takes in the outside air into the greenhouse 101.

循環扇102Bは、ハウス101内に設置されていて、ハウス101内の空気を所定の方向に循環させる。熱交換装置102Cはハウス101の温度を変更可能な装置であり、例えば、ヒートポンプ構成されている。上述した機器102は、一例であり、灌水機器、照明機器、噴霧機器などであってもよいし限定されない。
農業用ロボット1は、施設100内において、栽培場所105で栽培された作物2に対して様々な農作業、例えば、作物2の収穫、肥料散布、農薬散布などの農作業を行う。農業用ロボット1は、自立型のロボットである。
The circulation fan 102B is installed in the house 101 and circulates the air in the house 101 in a predetermined direction. The heat exchange device 102C is a device capable of changing the temperature of the house 101, and is configured as, for example, a heat pump. The above-mentioned device 102 is an example, and may be, but is not limited to, an irrigation device, a lighting device, a spray device, or the like.
The agricultural robot 1 performs various agricultural tasks, such as harvesting the crops 2, spraying fertilizer, and spraying pesticides, on the crops 2 cultivated in a cultivation area 105 within the facility 100. The agricultural robot 1 is an autonomous robot.

図1~図8は、農業用ロボット1を示している。図8は、農業用ロボットの支援システムを示している。
以下、農業用ロボット1及び農業用ロボットの支援システムについて詳しく説明する。以下の説明において、図1、図2に矢印A1で示す方向を前方、矢印A2で示す方向を後方、矢印A3で示す方向を前後方向として説明する。したがって、図2に矢印B1で示す方向(図1の手前側)が左方であり、図2に矢印B2で示す方向(図1の奥側)が右方である。また、前後方向A3に直交する水平方向を機体幅方向(図2の矢印B3方向)として説明する。
1 to 8 show an agricultural robot 1. Fig. 8 shows a support system for the agricultural robot.
The agricultural robot 1 and the agricultural robot support system will be described in detail below. In the following description, the direction indicated by the arrow A1 in Figures 1 and 2 will be referred to as the forward direction, the direction indicated by the arrow A2 as the rearward direction, and the direction indicated by the arrow A3 as the front-rear direction. Therefore, the direction indicated by the arrow B1 in Figure 2 (the front side in Figure 1) is the left, and the direction indicated by the arrow B2 in Figure 2 (the rear side in Figure 1) is the right. In addition, the horizontal direction perpendicular to the front-rear direction A3 will be referred to as the machine body width direction (the direction of the arrow B3 in Figure 2).

図1に示すように、農業用ロボット1は、自律走行する走行体3を有している。走行体3は、機体6と、機体6を走行可能に支持する走行装置7とを有している。
図3、図4に示すように、機体6は、メインフレーム6Aと、原動機フレーム6Bとを有している。メインフレーム6Aは、機体幅方向B3で間隔をあけて配置された一対の第1フレーム6Aaと、各第1フレーム6Aaの下方に間隔をあけて配置された一対の第2フレーム6Abとを有している。第1フレーム6Aaと第2フレーム6Abとは、複数の縦フレーム6Acによって連結されている。縦フレーム6Acは、左の第1フレーム6Aaと左の第2フレーム6Abとの前部間、右の第1フレーム6Aaと右の第2フレーム6Abとの前部間、左の第1フレーム6Aaと左の第2フレーム6Abとの後部間、右の第1フレーム6Aaと右の第2フレーム6Abとの後部間に設けられている。
1, the agricultural robot 1 has an autonomously traveling vehicle 3. The vehicle 3 has a machine body 6 and a traveling device 7 that supports the machine body 6 so that it can travel.
As shown in Figures 3 and 4, the machine body 6 has a main frame 6A and a prime mover frame 6B. The main frame 6A has a pair of first frames 6Aa spaced apart in the machine body width direction B3, and a pair of second frames 6Ab spaced apart below each of the first frames 6Aa. The first frames 6Aa and the second frames 6Ab are connected by a plurality of vertical frames 6Ac. The vertical frames 6Ac are provided between the front parts of the left first frame 6Aa and the left second frame 6Ab, between the front parts of the right first frame 6Aa and the right second frame 6Ab, between the rear parts of the left first frame 6Aa and the left second frame 6Ab, and between the rear parts of the right first frame 6Aa and the right second frame 6Ab.

左の第1フレーム6Aaと右の第1フレーム6Aaとは、第1フレーム6Aa間に配置された第1横フレーム6Ad~第5横フレーム6Ahによって連結されている。第1横フレーム6Ad~第5横フレーム6Ahは、第1フレーム6Aaの前端から後端にわたって前後方向A3で間隔をあけて並行状に配置されている。
第2フレーム6Abの前部同士は、第6横フレーム6Ajによって連結され、第2フレーム6Abの後部同士は、第7横フレーム6Akによって連結されている。
The left first frame 6Aa and the right first frame 6Aa are connected by a first horizontal frame 6Ad to a fifth horizontal frame 6Ah that are arranged between the first frames 6Aa. The first horizontal frames 6Ad to the fifth horizontal frames 6Ah are arranged in parallel and spaced apart from each other in the front-to-rear direction A3 from the front end to the rear end of the first frame 6Aa.
The front portions of the second frames 6Ab are connected to each other by a sixth horizontal frame 6Aj, and the rear portions of the second frames 6Ab are connected to each other by a seventh horizontal frame 6Ak.

原動機フレーム6Bは、メインフレーム6Aの下方側に配置されている。原動機フレーム6Bは、前フレーム6Baと、後フレーム6Bbと、複数の連結フレーム6Bcと、複数の取付フレーム6Bdとを有している。前フレーム6Baは、上部が、左及び右の第2フレーム6Abの前部に取り付けられている。後フレーム6Bbは、上部が、左及び右の第2フレーム6Abの前部に取り付けられている。複数の連結フレーム6Bcは、前フレーム6Baと後フレーム6Bbの下部間を連結している。複数の取付フレーム6Bdは、連結フレーム6Bcの前後方向A3中央部に固定されている。 The prime mover frame 6B is disposed below the main frame 6A. The prime mover frame 6B has a front frame 6Ba, a rear frame 6Bb, multiple connecting frames 6Bc, and multiple mounting frames 6Bd. The upper part of the front frame 6Ba is attached to the front parts of the left and right second frames 6Ab. The upper part of the rear frame 6Bb is attached to the front parts of the left and right second frames 6Ab. The multiple connecting frames 6Bc connect the lower parts of the front frame 6Ba and the rear frame 6Bb. The multiple mounting frames 6Bd are fixed to the center of the connecting frame 6Bc in the fore-and-aft direction A3.

図4に示すように、取付フレーム6Bdには、原動機(エンジン)E1が取り付けられている。原動機E1には、油圧ポンプP1が取り付けられている。油圧ポンプP1は、原動機E1で駆動される。また、原動機フレーム6Bには、油圧ポンプP1から吐出する作動油を貯留する作動油タンク(図示省略)が搭載されている。
図5に示すように、メインフレーム6A(機体6)には、走行装置7を制御する複数のコントロールバルブ(第1コントロールバルブCV1~第4コントロールバルブCV4)が搭載されている。
As shown in Fig. 4, a prime mover (engine) E1 is attached to the mounting frame 6Bd. A hydraulic pump P1 is attached to the prime mover E1. The hydraulic pump P1 is driven by the prime mover E1. In addition, a hydraulic oil tank (not shown) that stores hydraulic oil discharged from the hydraulic pump P1 is mounted on the prime mover frame 6B.
As shown in FIG. 5, a plurality of control valves (first control valve CV1 to fourth control valve CV4) that control the traveling device 7 are mounted on the main frame 6A (machine body 6).

図1、図2、図5に示すように、走行装置7は、4輪の車輪8を有する車輪型(4輪型)の走行装置7で構成されている。詳しくは、走行装置7は、機体6前部の左側に配置された第1車輪8La(左前輪)と、機体6前部の右側に配置された第2車輪8Ra(右前輪)と、機体6後部の左側に配置された第3車輪8Lb(左後輪)と、機体6後部の右側に配置された第4車輪8Rb(右後輪)とを備えている。なお、走行装置7は、少なくとも3輪の車輪8を有する車輪型走行装置で構成されていてもよい。また、走行装置7は、クローラ型の走行装置であってもよい。 As shown in Figures 1, 2 and 5, the traveling device 7 is configured as a wheel type (four-wheel type) traveling device 7 having four wheels 8. In detail, the traveling device 7 is equipped with a first wheel 8La (left front wheel) arranged on the left side of the front of the body 6, a second wheel 8Ra (right front wheel) arranged on the right side of the front of the body 6, a third wheel 8Lb (left rear wheel) arranged on the left side of the rear of the body 6, and a fourth wheel 8Rb (right rear wheel) arranged on the right side of the rear of the body 6. The traveling device 7 may be configured as a wheel type traveling device having at least three wheels 8. The traveling device 7 may also be a crawler type traveling device.

走行装置7は、車輪8を支持する車輪支持体9を有している。車輪支持体9は、車輪8に対応する数設けられている。つまり、走行装置7は、第1車輪8Laを支持する第1車輪支持体9La、第2車輪8Raを支持する第2車輪支持体9Ra、第3車輪8Lbを支持する第3車輪支持体9Lb及び第4車輪8Rbを支持する第4車輪支持体9Rbを有している。 The traveling device 7 has wheel supports 9 that support the wheels 8. The number of wheel supports 9 corresponds to the number of wheels 8. That is, the traveling device 7 has a first wheel support 9La that supports the first wheel 8La, a second wheel support 9Ra that supports the second wheel 8Ra, a third wheel support 9Lb that supports the third wheel 8Lb, and a fourth wheel support 9Rb that supports the fourth wheel 8Rb.

図5、図6に示すように、車輪支持体9は、走行フレーム10と、操向シリンダC1と、第1昇降シリンダC2と、第2昇降シリンダC3と、走行モータM1とを有している。
走行フレーム10は、主支持体10Aと、揺動フレーム10Bと、車輪フレーム10Cとを有している。主支持体10Aは、機体6に縦軸(上下方向に延伸する軸心)回りに可能に支持されている。詳しくは、主支持体10Aは機体6に固定された支持ブラケット11に上下方向に延伸する軸心を有する第1支軸12Aを介して回動可能に支持されている。
As shown in FIGS. 5 and 6, the wheel support 9 has a traveling frame 10, a steering cylinder C1, a first lifting cylinder C2, a second lifting cylinder C3, and a traveling motor M1.
The traveling frame 10 has a main support 10A, a swing frame 10B, and a wheel frame 10C. The main support 10A is supported on the machine body 6 so as to be rotatable around a vertical axis (an axis extending in the up-down direction). More specifically, the main support 10A is supported on a support bracket 11 fixed to the machine body 6 so as to be rotatable via a first support shaft 12A having an axis extending in the up-down direction.

図5に示すように、第1車輪支持体9Laを枢支する支持ブラケット11は機体6の前部左側に設けられ、第2車輪支持体9Raを枢支する支持ブラケット11は機体6の前部右側に設けられ、第3車輪支持体9Lbを枢支する支持ブラケット11は機体6の後部左側に設けられ、第4車輪支持体9Rbを枢支する支持ブラケット11は機体6の後部右側に設けられている。 As shown in FIG. 5, the support bracket 11 that pivots the first wheel support 9La is provided on the front left side of the aircraft body 6, the support bracket 11 that pivots the second wheel support 9Ra is provided on the front right side of the aircraft body 6, the support bracket 11 that pivots the third wheel support 9Lb is provided on the rear left side of the aircraft body 6, and the support bracket 11 that pivots the fourth wheel support 9Rb is provided on the rear right side of the aircraft body 6.

揺動フレーム10Bは、主支持体10Aに上下揺動可能に支持されている。詳しくは、揺動フレーム10Bは、上部が主支持体10Aに第2支軸12Bを介して横軸(機体幅方向B3に延伸する軸心)回りに回動可能に支持されている。
第1車輪支持体9La及び第2車輪支持体9Raの揺動フレーム10Bは前上部が主支持体10Aに枢支され、第3車輪支持体9Lb及び第4車輪支持体9Rbの揺動フレーム10Bは後上部が主支持体10Aに枢支されている。
The oscillating frame 10B is supported by the main support 10A so as to be able to oscillate up and down. More specifically, the upper part of the oscillating frame 10B is supported by the main support 10A via a second support shaft 12B so as to be able to rotate about a horizontal axis (an axis extending in the machine body width direction B3).
The swaying frames 10B of the first wheel support 9La and the second wheel support 9Ra are pivotally supported at their front upper portions to the main support 10A, and the swaying frames 10B of the third wheel support 9Lb and the fourth wheel support 9Rb are pivotally supported at their rear upper portions to the main support 10A.

車輪フレーム10Cは、揺動フレーム10Bに上下揺動可能に支持されている。詳しくは、車輪フレーム10Cは、揺動フレーム10Bに第3支軸12Cを介して横軸回りに回動可能に支持されている。
第1車輪支持体9La及び第2車輪支持体9Raの車輪フレーム10Cは後部が揺動フレーム10Bの後部に枢支され、第3車輪支持体9Lb及び第4車輪支持体9Rbの車輪フレーム10Cは前部が揺動フレーム10Bの前部に枢支されている。
The wheel frame 10C is supported by the swing frame 10B so as to be vertically swingable. More specifically, the wheel frame 10C is supported by the swing frame 10B so as to be rotatable about a horizontal axis via a third support shaft 12C.
The wheel frames 10C of the first wheel support 9La and the second wheel support 9Ra are pivotally supported at their rear portions to the rear portion of the oscillating frame 10B, and the wheel frames 10C of the third wheel support 9Lb and the fourth wheel support 9Rb are pivotally supported at their front portions to the front portion of the oscillating frame 10B.

操向シリンダC1、第1昇降シリンダC2及び第2昇降シリンダC3は、油圧シリンダによって構成されている。
操向シリンダC1は、機体6と主支持体10Aとの間に設けられている。詳しくは、操向シリンダC1の一端は、第1フレーム6Aaの前後方向A3中央部に固定されたシリンダブラケット14Aに枢支され、操向シリンダC1の他端は、主支持体10Aに固定されたシリンダブラケット14Bに枢支されている。操向シリンダC1を伸縮することにより走行フレーム10が第1支軸12A回りに揺動し、車輪8(第1車輪8La~第4車輪8Rb)の向きを変更する(操向する)ことができる。本実施形態の走行装置7にあっては、各車輪8を独立して操向可能である。
The steering cylinder C1, the first lift cylinder C2 and the second lift cylinder C3 are constituted by hydraulic cylinders.
The steering cylinder C1 is provided between the machine body 6 and the main support 10A. In detail, one end of the steering cylinder C1 is pivotally supported by a cylinder bracket 14A fixed to the center of the first frame 6Aa in the front-rear direction A3, and the other end of the steering cylinder C1 is pivotally supported by a cylinder bracket 14B fixed to the main support 10A. By extending and retracting the steering cylinder C1, the traveling frame 10 swings around the first support shaft 12A, and the direction of the wheels 8 (first wheel 8La to fourth wheel 8Rb) can be changed (steered). In the traveling device 7 of this embodiment, each wheel 8 can be steered independently.

第1昇降シリンダC2は、一端が揺動フレーム10Bに枢支され、他端が第1リンク機構15Aに枢支されている。第1リンク機構15Aは、第1リンク15aと第2リンク15bとを有している。第1リンク15aの一端は、主支持体10Aに枢支され、第2リンク15bの一端は揺動フレーム10Bに枢支されている。第1リンク15aと第2リンク15bとの他端は、第1昇降シリンダC2の他端に枢支されている。第1昇降シリンダC2を伸縮することにより揺動フレーム10Bが第2支軸12B回りに上下揺動する。 One end of the first lifting cylinder C2 is pivotally supported to the oscillating frame 10B, and the other end is pivotally supported to the first link mechanism 15A. The first link mechanism 15A has a first link 15a and a second link 15b. One end of the first link 15a is pivotally supported to the main support 10A, and one end of the second link 15b is pivotally supported to the oscillating frame 10B. The other ends of the first link 15a and the second link 15b are pivotally supported to the other end of the first lifting cylinder C2. By extending and retracting the first lifting cylinder C2, the oscillating frame 10B swings up and down around the second support shaft 12B.

第2昇降シリンダC3は、一端が揺動フレーム10Bの前部に枢支され、他端が第2リンク機構15Bに枢支されている。第2リンク機構15Bは、第1リンク15cと第2リンク15dとを有している。第1リンク15cの一端は、揺動フレーム10Bに枢支され、第2リンク15dの一端は車輪フレーム10Cに枢支されている。第1リンク15cと第2リンク15dとの他端は、第2昇降シリンダC3の他端に枢支されている。第2昇降シリンダC3を伸縮することにより車輪フレーム10Cが第3支軸12C回りに上下揺動する。 One end of the second lifting cylinder C3 is pivotally supported to the front of the oscillating frame 10B, and the other end is pivotally supported to the second link mechanism 15B. The second link mechanism 15B has a first link 15c and a second link 15d. One end of the first link 15c is pivotally supported to the oscillating frame 10B, and one end of the second link 15d is pivotally supported to the wheel frame 10C. The other ends of the first link 15c and the second link 15d are pivotally supported to the other end of the second lifting cylinder C3. By extending and retracting the second lifting cylinder C3, the wheel frame 10C swings up and down around the third support shaft 12C.

第1昇降シリンダC2による揺動フレーム10Bの上下揺動と、第2昇降シリンダC3による車輪フレーム10Cの上下揺動とを組み合わせることによって車輪8を平行状に昇降させることができる。
走行モータM1は、油圧モータによって形成されている。走行モータM1は、各車輪8に対応して設けられている。即ち、走行装置7は、第1車輪8Laを駆動する走行モータM1と、第2車輪8Raを駆動する走行モータM1と、第3車輪8Lbを駆動する走行モータM1と、第4車輪8Rbを駆動する走行モータM1とを有している。走行モータM1は、車輪8の機体幅方向B3の内方に配置され、車輪フレーム10Cに取り付けられている。走行モータM1は、油圧ポンプP1から吐出される作動油によって駆動され、正逆転可能である。走行モータM1を正逆転させることにより、車輪8の回転を正転方向と逆転方向とに切り換えることができる。
By combining the up and down swinging of the oscillating frame 10B by the first lifting cylinder C2 and the up and down swinging of the wheel frame 10C by the second lifting cylinder C3, the wheels 8 can be raised and lowered in a parallel manner.
The travel motor M1 is formed by a hydraulic motor. The travel motor M1 is provided corresponding to each wheel 8. That is, the travel device 7 has a travel motor M1 that drives the first wheel 8La, a travel motor M1 that drives the second wheel 8Ra, a travel motor M1 that drives the third wheel 8Lb, and a travel motor M1 that drives the fourth wheel 8Rb. The travel motor M1 is disposed inside the wheels 8 in the vehicle body width direction B3 and is attached to the wheel frame 10C. The travel motor M1 is driven by hydraulic oil discharged from the hydraulic pump P1 and can rotate forward and backward. By rotating the travel motor M1 forward and backward, the rotation of the wheels 8 can be switched between a forward direction and a reverse direction.

第2車輪支持体9Ra、第3車輪支持体9Lb及び第4車輪支持体9Rbは、第1車輪支持体9Laを構成する構成部品と同様の構成部品を有している。第2車輪支持体9Raは、第1車輪支持体9Laと左右対称に構成されている。第3車輪支持体9Lbは、第2車輪支持体9Raを機体6の中心を通る上下方向のセンタ軸心回りに180°回転させた形態を呈している。第4車輪支持体9Rbは、第1車輪支持体9Laをセンタ軸心回りに180°回転させた形態を呈している。 The second wheel support 9Ra, the third wheel support 9Lb, and the fourth wheel support 9Rb have components similar to those constituting the first wheel support 9La. The second wheel support 9Ra is configured symmetrically to the first wheel support 9La. The third wheel support 9Lb has a shape in which the second wheel support 9Ra is rotated 180° around a vertical central axis that passes through the center of the aircraft body 6. The fourth wheel support 9Rb has a shape in which the first wheel support 9La is rotated 180° around a central axis.

第1車輪支持体9Laに装備された油圧アクチュエータは、第1コントロールバルブCV1によって制御される。第2車輪支持体9Raに装備された油圧アクチュエータは、第2コントロールバルブCV2によって制御される。第3車輪支持体9Lbに装備された油圧アクチュエータは、第3コントロールバルブCV3によって制御される。第4車輪支持体9Rbに装備された油圧アクチュエータは、第4コントロールバルブCV4によって制御される。 The hydraulic actuator mounted on the first wheel support 9La is controlled by the first control valve CV1. The hydraulic actuator mounted on the second wheel support 9Ra is controlled by the second control valve CV2. The hydraulic actuator mounted on the third wheel support 9Lb is controlled by the third control valve CV3. The hydraulic actuator mounted on the fourth wheel support 9Rb is controlled by the fourth control valve CV4.

したがって、第1車輪8La~第4車輪8Rbは、それぞれ独立的に操向可能である。また、第1車輪8La~第4車輪8Rbは、それぞれ独立的に昇降可能である。
上記走行装置7にあっては、第1車輪8La~第4車輪8Rbを操向操作することで走行体3を操向することができる。第1車輪8La~第4車輪8Rbを正転させることで走行体3を前進させることができ、逆転させることにより走行体3を後進させることができる。第1車輪8La~第4車輪8Rbを昇降することにより走行体3を昇降することができる。第1車輪8La及び第2車輪8Raを第3車輪8Lb及び第4車輪8Rbに対して昇降することにより、或いは、第3車輪8Lb及び第4車輪8Rbを第1車輪8La及び第2車輪8Raに対して昇降することにより、機体6を前傾または後傾させることができる。第1車輪8La及び第3車輪8Lbを第2車輪8Ra及び第4車輪8Rbに対して昇降することにより、或いは、第2車輪8Ra及び第4車輪8Rbを第1車輪8La及び第3車輪8Lbに対して昇降することにより、機体6を、機体幅方向B3の一側が他側よりも高い傾斜状にすることができる。
Therefore, the first wheel 8La to the fourth wheel 8Rb can be steered independently of each other. Also, the first wheel 8La to the fourth wheel 8Rb can be raised and lowered independently of each other.
In the traveling device 7, the traveling body 3 can be steered by steering the first wheel 8La to the fourth wheel 8Rb. The traveling body 3 can be moved forward by rotating the first wheel 8La to the fourth wheel 8Rb forward, and can be moved backward by rotating the first wheel 8La to the fourth wheel 8Rb in the reverse direction. The traveling body 3 can be raised and lowered by raising and lowering the first wheel 8La to the fourth wheel 8Rb. The vehicle body 6 can be tilted forward or backward by raising and lowering the first wheel 8La and the second wheel 8Ra relative to the third wheel 8Lb and the fourth wheel 8Rb, or by raising and lowering the third wheel 8Lb and the fourth wheel 8Rb relative to the first wheel 8La and the second wheel 8Ra. By raising and lowering the first wheel 8La and the third wheel 8Lb relative to the second wheel 8Ra and the fourth wheel 8Rb, or by raising and lowering the second wheel 8Ra and the fourth wheel 8Rb relative to the first wheel 8La and the third wheel 8Lb, the body 6 can be inclined so that one side of the body width direction B3 is higher than the other side.

農業用ロボット1は、走行体3に装着されたマニピュレータ(作業部)4を備えている。マニピュレータ(作業部)4は、作業を行う部分であって、例えば、本実施形態では、少なくとも作物2の収穫を行うことが可能な装置である。
図3、図4に示すように、マニピュレータ4は、走行体3(機体6)に着脱可能に装着された装着体16と、装着体16に取り付けられたアーム17と、アーム17に設けられていて作物(対象物)2を把持可能なロボットハンド18とを備えている。
The agricultural robot 1 includes a manipulator (working unit) 4 attached to a traveling body 3. The manipulator (working unit) 4 is a part that performs work, and in this embodiment, for example, is a device that is capable of at least harvesting the crops 2.
As shown in Figures 3 and 4, the manipulator 4 comprises a mounting body 16 that is detachably attached to the running body 3 (machine body 6), an arm 17 attached to the mounting body 16, and a robot hand 18 provided on the arm 17 and capable of grasping a crop (target object) 2.

図1に示すように、装着体16は、本実施形態では、走行体3の後部に設けられている。なお、装着体16は、走行体3の前部に設けられていてもよい。つまり、走行体3における前後方向A3の中央部から一方側に偏倚して設けられていればよい。また、本実施形態では、農業用ロボット1は、走行体3を前方に進行させて収穫作業を行うので、装着体16は、進行方向とは反対側の方向である進行逆方向側に偏倚して設けられている。装着体16は、箱型に形成されていて走行体3に対して着脱可能である。 As shown in FIG. 1, in this embodiment, the attachment 16 is provided at the rear of the running body 3. The attachment 16 may also be provided at the front of the running body 3. In other words, it is sufficient that the attachment 16 is provided offset to one side from the center of the running body 3 in the front-to-rear direction A3. In this embodiment, the agricultural robot 1 performs harvesting work by moving the running body 3 forward, so the attachment 16 is provided offset to the reverse direction of travel, which is the direction opposite to the direction of travel. The attachment 16 is formed in a box shape and is detachable from the running body 3.

装着体16には、回動フレーム21が立設されている。回動フレーム21は、装着体16の内部に設けられた回動モータM2によって回動軸心J1の周囲を回動可能である。回動フレーム21を回動させることにより、ロボットハンド18を回動軸心J1を中心とする円周方向に移動(位置変更)させることができる。
図3、図4に示すように、アーム17は、回動フレーム21に上下揺動可能に支持されると共に長手方向の中途部で屈伸可能である。アーム17は、メインアーム29とサブアーム30とを有している。
A rotating frame 21 is provided upright on the mounting body 16. The rotating frame 21 can be rotated around a rotation axis J1 by a rotation motor M2 provided inside the mounting body 16. By rotating the rotating frame 21, the robot hand 18 can be moved (changed in position) in a circumferential direction around the rotation axis J1.
3 and 4, the arm 17 is supported by the rotating frame 21 so as to be able to swing up and down, and is also able to bend and stretch at a midpoint in the longitudinal direction.

メインアーム29は、回動フレーム21に上下揺動可能に枢支され、屈伸可能である。詳しくは、メインアーム29は、回動フレーム21に上下揺動可能に枢支された第1アーム部31と、第1アーム部31に揺動可能に枢支された第2アーム部32とを有し、第1アーム部31に対して第2アーム部32が揺動することで屈伸可能とされている。
第1アーム部31は、基部側31aがアームブラケット26に枢支されている。第1アーム部31は、図3に示すように、第1アームフレーム31L及び第2アームフレーム31Rを有している。第1アームフレーム31L及び第2アームフレーム31Rは、機体幅方向B3で並べて配置され且つ連結パイプ31A等で相互に連結されている。第1アームフレーム31Lと第2アームフレーム31Rとの基部側31a間にアームブラケット26の上部が挿入され、機体幅方向B3に延伸する軸心を有するアーム枢軸33A(第1アーム枢軸という)を介して第1アームフレーム31L及び第2アームフレーム31Rの基部側31aがアームブラケット26に第1アーム枢軸33Aの軸心回りに回動可能に支持されている。
The main arm 29 is pivotally supported on the rotating frame 21 so as to be swingable up and down, and is bendable and stretchable. In detail, the main arm 29 has a first arm portion 31 pivotally supported on the rotating frame 21 so as to be swingable up and down, and a second arm portion 32 pivotally supported on the first arm portion 31 so as to be swingable, and is bendable and stretchable as a result of the second arm portion 32 swinging relative to the first arm portion 31.
The base side 31a of the first arm portion 31 is pivotally supported by the arm bracket 26. As shown in Fig. 3, the first arm portion 31 has a first arm frame 31L and a second arm frame 31R. The first arm frame 31L and the second arm frame 31R are arranged side by side in the machine body width direction B3 and are connected to each other by a connecting pipe 31A or the like. The upper part of the arm bracket 26 is inserted between the base sides 31a of the first arm frame 31L and the second arm frame 31R, and the base sides 31a of the first arm frame 31L and the second arm frame 31R are supported by the arm bracket 26 to be rotatable around the axis of the first arm pivot 33A (referred to as the first arm pivot) having an axis extending in the machine body width direction B3.

第1アームフレーム31L及び第2アームフレーム31Rは中空部材で形成されている。第1アーム部31の長さは、走行体3(機体6)の前後方向A3の長さよりも短く形成されている。
図4に示すように、第1アーム部31は、基部側31aであって且つ第1アーム枢軸33Aよりも先端側31c寄りに、シリンダ取付部31bを有している。このシリンダ取付部31bとシリンダブラケット27のシリンダ取付部27aとにわたって第1アームシリンダ(第1油圧シリンダ)C4が設けられている。第1アームシリンダC4は、走行体3に設けた油圧ポンプP1から吐出される作動油によって駆動されて伸縮する。第1アームシリンダC4を伸縮させることで第1アーム部31が上下揺動する。第1アーム部31(アーム17)を上下揺動させることにより、ロボットハンド18を昇降させることができる。第1アームシリンダC4には、第1アームシリンダC4のストロークを検出する第1ストロークセンサが設けられている。
The first arm frame 31L and the second arm frame 31R are formed of hollow members. The length of the first arm portion 31 is shorter than the length of the traveling body 3 (machine body 6) in the front-rear direction A3.
As shown in Fig. 4, the first arm section 31 has a cylinder attachment section 31b on the base side 31a and closer to the tip side 31c than the first arm pivot 33A. A first arm cylinder (first hydraulic cylinder) C4 is provided between the cylinder attachment section 31b and the cylinder attachment section 27a of the cylinder bracket 27. The first arm cylinder C4 is driven by hydraulic oil discharged from a hydraulic pump P1 provided on the traveling body 3 to expand and contract. The first arm section 31 swings up and down by expanding and contracting the first arm cylinder C4. The robot hand 18 can be raised and lowered by swinging the first arm section 31 (arm 17) up and down. The first arm cylinder C4 is provided with a first stroke sensor that detects the stroke of the first arm cylinder C4.

図4に示すように、第1アーム部31の先端側31cには、枢支部材31Bが固定されている。詳しくは、枢支部材31Bは、基部31Baが第1アームフレーム31Lと第2アームフレーム31Rとの間に挿入されて第1アームフレーム31L及び第2アームフレーム31Rに固定されている。枢支部材31Bの基部31Baの下面側には、シリンダステー34が取り付けられている。枢支部材31Bの先端側31Bbは、第1アームフレーム31L及び第2アームフレーム31Rから前方に突出している。 As shown in FIG. 4, a pivot member 31B is fixed to the tip side 31c of the first arm portion 31. More specifically, the pivot member 31B is fixed to the first arm frame 31L and the second arm frame 31R with the base 31Ba inserted between them. A cylinder stay 34 is attached to the underside of the base 31Ba of the pivot member 31B. The tip side 31Bb of the pivot member 31B protrudes forward from the first arm frame 31L and the second arm frame 31R.

図3に示すように、第2アーム部32の長さは、第1アーム部31の長さよりも長く形成されている。第2アーム部32は、基部側32aが枢支部材31Bの先端側31Bbに枢支されている。第2アーム部32は、第3アームフレーム32L及び第4アームフレーム32Rを有している。第3アームフレーム32L及び第4アームフレーム32Rは、機体幅方向B3で並べて配置され且つ複数の連結プレート35によって相互に連結されている。第3アームフレーム32L及び第4アームフレーム32Rは中空部材で形成されている。第3アームフレーム32Lと第4アームフレーム32Rとの基部側32a間に枢支部材31Bの先端側31Bbが挿入されている。第3アームフレーム32L及び第4アームフレーム32R(第2アーム部32)は、機体幅方向B3に延伸する軸心を有するアーム枢軸(第2アーム枢軸という)33Bによって枢支部材31Bに枢支されている。 As shown in FIG. 3, the length of the second arm portion 32 is longer than the length of the first arm portion 31. The base side 32a of the second arm portion 32 is pivotally supported by the tip side 31Bb of the pivot member 31B. The second arm portion 32 has a third arm frame 32L and a fourth arm frame 32R. The third arm frame 32L and the fourth arm frame 32R are arranged side by side in the machine body width direction B3 and are connected to each other by a plurality of connecting plates 35. The third arm frame 32L and the fourth arm frame 32R are formed of hollow members. The tip side 31Bb of the pivot member 31B is inserted between the base side 32a of the third arm frame 32L and the fourth arm frame 32R. The third arm frame 32L and the fourth arm frame 32R (second arm portion 32) are pivotally supported by the pivot member 31B by an arm pivot (referred to as the second arm pivot) 33B having an axis extending in the machine body width direction B3.

第2アーム部32の基部側32aであって第2アーム枢軸33Bよりも先端側32b寄
りには、シリンダ取付部32cが設けられている。このシリンダ取付部32cとシリンダステー34とにわたって第2アームシリンダ(第2油圧シリンダ)C5が設けられている。第2アームシリンダC5は、走行体3に設けた油圧ポンプP1から吐出される作動油によって駆動されて伸縮する。第2アームシリンダC5を伸縮させることで第1アーム部31に対して第2アーム部32が揺動し、メインアーム29(アーム17)が屈伸(曲げたり伸ばしたりすること)する。なお、本実施形態では、メインアーム29は、最も伸びた状態で直線状となるが、最も伸びた状態で若干曲がっていてもよい。
A cylinder attachment portion 32c is provided on the base side 32a of the second arm portion 32, closer to the tip side 32b than the second arm pivot 33B. A second arm cylinder (second hydraulic cylinder) C5 is provided between the cylinder attachment portion 32c and the cylinder stay 34. The second arm cylinder C5 is driven by hydraulic oil discharged from a hydraulic pump P1 provided on the traveling body 3 to expand and contract. By expanding and contracting the second arm cylinder C5, the second arm portion 32 swings relative to the first arm portion 31, and the main arm 29 (arm 17) is bent and stretched (bended and stretched). In this embodiment, the main arm 29 is straight when fully extended, but may be slightly bent when fully extended.

また、第2アームシリンダC5を伸縮させることで走行体3に対してロボットハンド18を遠近方向に移動させることができる。詳しくは、第2アームシリンダC5を伸長させることでロボットハンド18を走行体3から遠ざける方向に移動させることができ、第2アームシリンダC5を収縮させることでロボットハンド18を走行体3に近づける方向に移動させることができる。 In addition, by extending and contracting the second arm cylinder C5, the robot hand 18 can be moved toward or away from the running body 3. In particular, by extending the second arm cylinder C5, the robot hand 18 can be moved in a direction away from the running body 3, and by contracting the second arm cylinder C5, the robot hand 18 can be moved in a direction toward the running body 3.

図4に示すように、第2アームシリンダC5には、第2アームシリンダC5のストロークを検出する第2ストロークセンサが設けられている。
サブアーム30は、第2アーム部32に突出及び後退可能に設けられている。したがって、サブアーム30を突出及び後退させることにより、アーム17の長さが伸縮可能である。サブアーム30は、角パイプによって直線状に形成されている。サブアーム30は、第3アームフレーム32Lと第4アームフレーム32Rとの先端側(前部)間に長手方向移動可能に支持されている。また、サブアーム30は、対向する連結プレート35の間に配置されていて連結プレート35にボルト等の固定具によって固定可能とされている。サブアーム30の一側面には、第3アームフレーム32Lに当接する突起30aが設けられ、他側面には、第4アームフレーム32Rに当接する突起30aが設けられている。突起30aによってサブアーム30のがたつきを抑制することができる。
As shown in FIG. 4, the second arm cylinder C5 is provided with a second stroke sensor that detects the stroke of the second arm cylinder C5.
The sub-arm 30 is provided on the second arm portion 32 so as to be capable of projecting and retracting. Therefore, the length of the arm 17 can be extended or contracted by projecting and retracting the sub-arm 30. The sub-arm 30 is formed in a straight line by a square pipe. The sub-arm 30 is supported between the tip side (front part) of the third arm frame 32L and the fourth arm frame 32R so as to be capable of moving in the longitudinal direction. The sub-arm 30 is also disposed between the opposing connecting plates 35 and can be fixed to the connecting plates 35 by a fastener such as a bolt. A protrusion 30a that abuts against the third arm frame 32L is provided on one side of the sub-arm 30, and a protrusion 30a that abuts against the fourth arm frame 32R is provided on the other side. The protrusion 30a can suppress rattling of the sub-arm 30.

サブアーム30は、最も後退させた位置(最後退位置)では、第3アームフレーム32Lと第4アームフレーム32Rとの間に没入する。なお、サブアーム30は、最後退位置で第2アーム部32から若干突出していてもよい。
図4に示すように、サブアーム30の先端側には、吊りプレート37が固定されている。吊りプレート37にロボットハンド18が枢支され、吊り下げられる(図1参照)。つまり、ロボットハンド18は、サブアーム30の先端側に揺動可能に取り付けられる。第2アーム部32の先端側には、サブアーム30の第2アーム部32からの突出量を測定(検出)する第3ストロークセンサが設けられている。
The sub-arm 30 is retracted between the third arm frame 32L and the fourth arm frame 32R at the most retracted position (rearmost retracted position). The sub-arm 30 may slightly protrude from the second arm portion 32 at the rearmost retracted position.
As shown in Fig. 4, a hanging plate 37 is fixed to the tip side of the sub-arm 30. The robot hand 18 is pivotally supported and suspended from the hanging plate 37 (see Fig. 1). In other words, the robot hand 18 is attached to the tip side of the sub-arm 30 so as to be able to swing. A third stroke sensor that measures (detects) the amount of protrusion of the sub-arm 30 from the second arm portion 32 is provided on the tip side of the second arm portion 32.

図1、図2に示すように、ロボットハンド18は、ベース部材18Aと、複数の把持ツメ18Bとを有している。ベース部材18Aの上面側には連結片63が設けられている。連結片63は吊りプレート37に枢支されている。つまり、ロボットハンド18はアーム17に吊り下げられている。複数の把持ツメ18Bは、ベース部材18Aの下面側に揺動可能に取り付けられている。ロボットハンド18は、複数の把持ツメ18Bが揺動することにより、把持ツメ18Bと把持ツメ18Bとの間で作物2を把持することが可能(図2参照)であると共に、把持した作物2を解放することが可能である。 As shown in Figures 1 and 2, the robot hand 18 has a base member 18A and multiple gripping claws 18B. A connecting piece 63 is provided on the upper surface side of the base member 18A. The connecting piece 63 is pivotally supported on the hanging plate 37. In other words, the robot hand 18 is suspended from the arm 17. The multiple gripping claws 18B are attached to the lower surface side of the base member 18A so as to be able to swing. By swinging the multiple gripping claws 18B, the robot hand 18 is able to grip the crop 2 between the gripping claws 18B and the gripping claws 18B (see Figure 2) and is also able to release the gripped crop 2.

図1、図2に示すように、農業用ロボット1は、光学式センサ5A、5Bを備えている。光学式センサ5A、5Bは、CCD(Charge Coupled Devices:電荷結合素子)イメージセンサを搭載したCCDカメラ、CMOS(Complementary Metal Oxide Semiconductor:相補性金属酸化膜半導体)イメージセンサを搭載したCMOSカメラ、赤外線カメラである。この実施形態では、光学式センサ5A、5Bは、撮像装置(CCDカメラ、CMOSカメラ、赤外線カメラ)である。光学式センサ5A、5Bは、レーザセンサ、即ち、ライダー(LiDAR: Light Detection And Ranging)であってもよい。レーザセンサ(ライダー)は、1秒間に何百万回ものパルス状の赤外線等を照射し、跳ね返って戻ってくるまでの時間を測定することで、走行体3周辺の3Dマップを構築することができるセンサである。この実施形態では、光学式センサ5A、5Bは、撮像装置(CCDカメラ、CMOSカメラ、赤外線カメラ)である。 1 and 2, the agricultural robot 1 is equipped with optical sensors 5A and 5B. The optical sensors 5A and 5B are a CCD camera equipped with a CCD (Charge Coupled Devices) image sensor, a CMOS camera equipped with a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an infrared camera. In this embodiment, the optical sensors 5A and 5B are imaging devices (CCD camera, CMOS camera, infrared camera). The optical sensors 5A and 5B may be laser sensors, that is, LiDAR (Light Detection And Ranging). The laser sensor (LIDAR) is a sensor that can construct a 3D map around the traveling object 3 by irradiating pulsed infrared rays or the like millions of times per second and measuring the time it takes for the rays to bounce back. In this embodiment, the optical sensors 5A and 5B are imaging devices (CCD camera, CMOS camera, infrared camera).

光学式センサ5Aは、回動フレーム21に取り付けられている。詳しくは、アームブラ
ケット26の上部に支柱40を介して取り付けられている。これに限定されることはなく、光学式センサ5Aは、走行体3等に取り付けてもよい。また、光学式センサ5Aは複数箇所に設けられていてもよい。つまり、農業用ロボット1は、光学式センサ5Aを複数有していてもよい。光学式センサ5Aは、走行体3の周囲を撮影可能であって、走行体3の周囲の情報を撮影によって取得する。
The optical sensor 5A is attached to the rotating frame 21. More specifically, it is attached to the upper part of the arm bracket 26 via a support 40. Without being limited to this, the optical sensor 5A may be attached to the running body 3 or the like. Furthermore, the optical sensor 5A may be provided in multiple locations. In other words, the agricultural robot 1 may have multiple optical sensors 5A. The optical sensor 5A is capable of photographing the surroundings of the running body 3 and acquires information about the surroundings of the running body 3 by photographing them.

光学式センサ5Bは、第2アーム部32の先端側に取り付けられている。光学式センサ5Bは、作物2を撮像することによって、例えば、作物2の大きさ、形、色、模様(スイカにあっては縞模様)、傷などの品質情報を取得することができる。
図1、図2に示すように、農業用ロボット1は、打音センサ50Cを備えている。打音センサ50Cは、作物2に打撃を与えた(作物2を叩いた)ときの打音を取得するセンサである。図7に示すように、打音センサ50Cは、ロボットハンド18(ベース部材18A)に設けられている。
The optical sensor 5B is attached to the tip side of the second arm portion 32. The optical sensor 5B captures an image of the crop 2, thereby obtaining quality information such as the size, shape, color, pattern (striped pattern in the case of a watermelon), and scratches of the crop 2.
1 and 2, the agricultural robot 1 is equipped with a hitting sound sensor 50C. The hitting sound sensor 50C is a sensor that acquires a hitting sound when a hit is given to the crop 2 (the crop 2 is hit). As shown in Fig. 7, the hitting sound sensor 50C is provided on the robot hand 18 (base member 18A).

打音センサ50Cは、打撃機構51と、録音機構52とを有している。打撃機構51は、把持ツメ18Bで把持された作物2に対して進退可能な打撃部材51Aを有している。打撃部材51Aは、当該打撃部材51Aを軸方向に移動させるアクチュエータ51Bに連結されている。アクチュエータ51Bは、例えば、電動であって、制御信号に応じて打撃部材51Aを軸方向に移動させることで、作物2に打撃を与えて打音を発生させる。録音機構52は、マイク(高指向性マイク)を有し、打撃部材51Aで作物2を打撃することによって発生した打音を録音(記録)する。 The impact sound sensor 50C has an impact mechanism 51 and a recording mechanism 52. The impact mechanism 51 has an impact member 51A that can move forward and backward with respect to the crop 2 gripped by the gripping claws 18B. The impact member 51A is connected to an actuator 51B that moves the impact member 51A in the axial direction. The actuator 51B is, for example, electrically powered, and moves the impact member 51A axially in response to a control signal to strike the crop 2 and generate an impact sound. The recording mechanism 52 has a microphone (highly directional microphone) and records (records) the impact sound generated by striking the crop 2 with the impact member 51A.

図8に示すように、農業用ロボット1は、制御装置41を有している。制御装置41は、例えば、CPU(Central Processing Unit)、EEPROM(Electrically Erasable Programmable Read-Only Memory)などを備えたマイクロコンピュータ等である。
制御装置41には、光学式センサ5A、5B、打音センサ50C、走行モータM1、回動モータM2が接続されている。また、制御装置41には、複数の制御弁42が接続されている。制御弁42は、第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D、第5制御弁42Eを含んでいる。
8, the agricultural robot 1 has a control device 41. The control device 41 is, for example, a microcomputer including a CPU (Central Processing Unit), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and the like.
The optical sensors 5A and 5B, the hammering sound sensor 50C, the travel motor M1, and the rotation motor M2 are connected to the control device 41. In addition, a plurality of control valves 42 are connected to the control device 41. The control valves 42 include a first control valve 42A, a second control valve 42B, a third control valve 42C, a fourth control valve 42D, and a fifth control valve 42E.

第1制御弁42Aは、操向シリンダC1を制御する弁、第2制御弁42Bは、第1昇降シリンダC2を制御する弁、第3制御弁42Cは、第2昇降シリンダC3を制御する弁、第4制御弁42Dは、第1アームシリンダC4を制御する弁、第5制御弁42Eは、第2アームシリンダC5を制御する弁である。
第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eは、例えば、制御装置41からの制御信号に基づいて作動する電磁弁である。より詳しくは、第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eは、制御信号によって複数の位置に切り換わる電磁弁(3位置切換電磁弁)である。
The first control valve 42A is a valve that controls the steering cylinder C1, the second control valve 42B is a valve that controls the first lifting cylinder C2, the third control valve 42C is a valve that controls the second lifting cylinder C3, the fourth control valve 42D is a valve that controls the first arm cylinder C4, and the fifth control valve 42E is a valve that controls the second arm cylinder C5.
The first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E are, for example, solenoid valves that operate based on a control signal from the control device 41. More specifically, the first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E are solenoid valves (three-position switching solenoid valves) that are switched to a plurality of positions by a control signal.

制御装置41が第1制御弁42Aに制御信号を出力すると、制御信号に応じて第1制御弁42Aが所定位置に切り換わる。制御装置41が第2制御弁42Bに制御信号を出力すると、制御信号に応じて第2制御弁42Bが所定位置に切り換わる。
また、制御装置41が第3制御弁42Cに制御信号を出力すると、制御信号に応じて第3制御弁42Cが所定位置に切り換わる。制御装置41が第4制御弁42Dに制御信号を出力すると、制御信号に応じて第4制御弁42Dが所定位置に切り換わる。制御装置41が第5制御弁42Eに制御信号を出力すると、制御信号に応じて第5制御弁42Eが所定位置に切り換わる。
When the control device 41 outputs a control signal to the first control valve 42A, the first control valve 42A switches to a predetermined position in response to the control signal. When the control device 41 outputs a control signal to the second control valve 42B, the second control valve 42B switches to a predetermined position in response to the control signal.
When the control device 41 outputs a control signal to the third control valve 42C, the third control valve 42C switches to a predetermined position in response to the control signal. When the control device 41 outputs a control signal to the fourth control valve 42D, the fourth control valve 42D switches to a predetermined position in response to the control signal. When the control device 41 outputs a control signal to the fifth control valve 42E, the fifth control valve 42E switches to a predetermined position in response to the control signal.

第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eには、油路46が接続され、当該油路46には、作動油を吐出する油圧ポンプP1が接続されている。
以上によれば、第1制御弁42Aの切り換わりによって、操向シリンダC1のボトム側又はロッド側への作動油の供給が切り換わり、操向シリンダC1が伸縮する。第2制御弁42Bの切り換わりによって、第1昇降シリンダC2のボトム側又はロッド側への作動油の供給が切り換わり、第1昇降シリンダC2が伸縮する。第3制御弁42Cの切り換わり
によって、第2昇降シリンダC3のボトム側又はロッド側への作動油の供給が切り換わり、第2昇降シリンダC3が伸縮する。
An oil passage 46 is connected to the first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E, and a hydraulic pump P1 that discharges hydraulic oil is connected to the oil passage 46.
According to the above, the first control valve 42A switches the supply of hydraulic oil to the bottom side or the rod side of the steering cylinder C1, causing the steering cylinder C1 to expand and contract. The second control valve 42B switches the supply of hydraulic oil to the bottom side or the rod side of the first lift cylinder C2, causing the first lift cylinder C2 to expand and contract. The third control valve 42C switches the supply of hydraulic oil to the bottom side or the rod side of the second lift cylinder C3, causing the second lift cylinder C3 to expand and contract.

また、第4制御弁42Dの切り換わりによって、第1アームシリンダC4のボトム側又はロッド側への作動油の供給が切り換わり、第1アームシリンダC4が伸縮する。第5制御弁42Eの切り換わりによって、第2アームシリンダC5のボトム側又はロッド側への作動油の供給が切り換わり、第2アームシリンダC5が伸縮する。
農業用ロボット1は、走行制御部41Aを有している。走行制御部41Aは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
Furthermore, the fourth control valve 42D switches the supply of hydraulic oil to either the bottom side or the rod side of the first arm cylinder C4, causing the first arm cylinder C4 to expand and contract. The fifth control valve 42E switches the supply of hydraulic oil to either the bottom side or the rod side of the second arm cylinder C5, causing the second arm cylinder C5 to expand and contract.
The agricultural robot 1 has a travel control unit 41A. The travel control unit 41A is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.

走行制御部41Aは、走行装置7を制御する。即ち、走行制御部41Aは、操向シリンダC1(第1制御弁42A)、走行モータM1を制御する。走行制御部41Aは、第1制御弁42Aに制御信号を出力して、操向シリンダC1を伸縮させることによって、走行装置7(機体6)の操舵方向の変更を行う。走行制御部41Aは、走行モータM1に制御信号を出力して、走行モータM1の回転数又は回転方向を変更することにより、走行装置7(機体6)の速度の変更、走行装置7(機体6)の進行方向の変更を行う。 The travel control unit 41A controls the travel device 7. That is, the travel control unit 41A controls the steering cylinder C1 (first control valve 42A) and the travel motor M1. The travel control unit 41A outputs a control signal to the first control valve 42A to expand and contract the steering cylinder C1, thereby changing the steering direction of the travel device 7 (machine 6). The travel control unit 41A outputs a control signal to the travel motor M1 to change the rotation speed or rotation direction of the travel motor M1, thereby changing the speed of the travel device 7 (machine 6) and changing the direction of travel of the travel device 7 (machine 6).

また、走行制御部41Aは、機体6の昇降、傾き等の制御を行ってもよい。例えば、走行制御部41Aは、第2制御弁42Bに制御信号を出力して、第1昇降シリンダC2を伸縮することによって、機体6の昇降、傾きの変更を行う。また、走行制御部41Aは、第3制御弁42Cに制御信号を出力して、第2昇降シリンダC3を伸縮することによって、機体6の昇降、傾きの変更を行う。 The travel control unit 41A may also control the elevation and inclination of the machine body 6. For example, the travel control unit 41A outputs a control signal to the second control valve 42B to extend and retract the first lifting cylinder C2, thereby elevating and lowering the machine body 6 and changing its inclination. The travel control unit 41A also outputs a control signal to the third control valve 42C to extend and retract the second lifting cylinder C3, thereby elevating and lowering the machine body 6 and changing its inclination.

以上のように、走行制御部41Aの制御によって、農業用ロボット1は、施設100など自立走行することができる。
農業用ロボット1は、作業制御部41Bを有している。作業制御部41Bは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
作業制御部41Bは、マニピュレータ(作業部)4を制御する。即ち、作業制御部41Bは、第1アームシリンダC4、第2アームシリンダC5、回動モータM2を制御する。作業制御部41Bは、第4制御弁42Dに制御信号を出力して、第1アームシリンダC4を伸縮させることによって、第1アーム部31の揺動を行う。作業制御部41Bは、第5制御弁42Eに制御信号を出力して、第2アームシリンダC5を伸縮させることによって、第2アーム部32の揺動を行う。また、作業制御部41Bは、回動モータM2に制御信号を出力することによって、回動モータM2の回転方向を変更することにより、マニピュレータ(作業部)4の回動を行う。
As described above, the agricultural robot 1 can travel independently within the facility 100 or the like by the control of the travel control unit 41A.
The agricultural robot 1 has a work control unit 41B. The work control unit 41B is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.
The work control unit 41B controls the manipulator (working unit) 4. That is, the work control unit 41B controls the first arm cylinder C4, the second arm cylinder C5, and the rotation motor M2. The work control unit 41B outputs a control signal to the fourth control valve 42D to extend and retract the first arm cylinder C4, thereby swinging the first arm unit 31. The work control unit 41B outputs a control signal to the fifth control valve 42E to extend and retract the second arm cylinder C5, thereby swinging the second arm unit 32. The work control unit 41B also outputs a control signal to the rotation motor M2 to change the rotation direction of the rotation motor M2, thereby rotating the manipulator (working unit) 4.

以上のように、作業制御部41Bは、ロボットハンド18を任意(所望)の位置に移動させることができる。詳しくは、回動フレーム21の回動による回動軸心J1を中心とする円周方向のロボットハンド18の移動、第1アーム部31の上下揺動によるロボットハンド18の昇降、第2アーム部32の揺動によるロボットハンド18の走行体3に対する遠近方向の移動によって、ロボットハンド18を目的の位置に移動させることができる。 As described above, the work control unit 41B can move the robot hand 18 to any (desired) position. In particular, the robot hand 18 can be moved to a desired position by moving the robot hand 18 in a circumferential direction around the rotation axis J1 by rotating the rotating frame 21, raising and lowering the robot hand 18 by swinging the first arm unit 31 up and down, and moving the robot hand 18 toward or away from the running body 3 by swinging the second arm unit 32.

作業制御部41Bは、アクチュエータ51B(打撃部材51A)を制御する。例えば、アクチュエータ51Bに制御信号を出力することで、アクチュエータ51Bを作動させ、打撃部材51Aによって作物2に対して打撃を与える制御(打撃制御)を行う。
農業用ロボット1は、作物探索部41Gを備えている。作物探索部41Gは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
The work control unit 41B controls the actuator 51B (the hitting member 51A). For example, the work control unit 41B outputs a control signal to the actuator 51B to operate the actuator 51B and perform control (impact control) to hit the crop 2 with the hitting member 51A.
The agricultural robot 1 includes a crop searching unit 41G. The crop searching unit 41G is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.

作物探索部41Gは、第1光学式センサ5Aで得られた第1センシングデータと、第2光学式センサ5Bで得られた第2センシングデータとに基づいて、作物2を探索する。光学式センサ5Aが撮像装置である場合、第1センシングデータは、撮像した撮像画像(画像データ)である。光学式センサ5Aがレーザセンサ(ライダー)である場合、第1センシングデータは、光学式センサ5Aからセンシングした対象物(物体)までの距離、方向を含むスキャンデータである。 The crop search unit 41G searches for the crop 2 based on the first sensing data obtained by the first optical sensor 5A and the second sensing data obtained by the second optical sensor 5B. If the optical sensor 5A is an imaging device, the first sensing data is the captured image (image data). If the optical sensor 5A is a laser sensor (lidar), the first sensing data is scan data including the distance and direction from the optical sensor 5A to the sensed target object (object).

光学式センサ5Bが撮像装置である場合、第2センシングデータは、撮像した撮像画像(画像データ)である。光学式センサ5Bがレーザセンサ(ライダー)である場合、第2センシングデータは、光学式センサ5Bからセンシングした対象物(物体)までの距離、
方向を含むスキャンデータである。
さて、図9に示すように、農業用ロボット1によって作業を行う場合、施設100内において、農業用ロボット1を栽培場所105の間の通路106を走行させる。例えば、作業時において、農業用ロボット1を作業開始点P11から作業終了点P12まで栽培場所105(通路106)に沿って農業用ロボット1を走行させる。
When the optical sensor 5B is an imaging device, the second sensing data is a captured image (image data). When the optical sensor 5B is a laser sensor (lidar), the second sensing data is a distance from the optical sensor 5B to a sensed object (object),
This is scan data that includes orientation.
9, when the agricultural robot 1 performs work, the agricultural robot 1 travels along a passage 106 between cultivation areas 105 in the facility 100. For example, during work, the agricultural robot 1 travels along the cultivation areas 105 (passage 106) from a work start point P11 to a work end point P12.

農業用ロボット1を走行させる際、作物探索部41Gは、第1センシングデータ(撮像画像、スキャンデータ)H10と、第2センシングデータ(撮像画像、スキャンデータ)K10と、に基づいて、作物2を探索する。
以下、作物探索部41Gについて詳しく説明する。
作物探索部41Gは、図8に示すように、位置推定部81と、位置特定部82とを有している。位置推定部81は、第1センシングデータH11に基づいて作物2を栽培する施設100内における作物2の栽培位置Dnを推定する。位置特定部82は、位置推定部81で推定した栽培位置Dnの周辺に農業用ロボット1(走行体3)を位置させたときの第2センシングデータH12に基づいて作物の位置である作物位置Znを特定する。
When the agricultural robot 1 travels, the crop searching unit 41G searches for the crop 2 based on the first sensing data (captured image, scan data) H10 and the second sensing data (captured image, scan data) K10.
The crop searching unit 41G will be described in detail below.
8, the crop searching unit 41G has a position estimation unit 81 and a position identification unit 82. The position estimation unit 81 estimates a cultivation position Dn of the crop 2 in the facility 100 for cultivating the crop 2 based on the first sensing data H11. The position identification unit 82 identifies a crop position Zn, which is the position of the crop, based on the second sensing data H12 when the agricultural robot 1 (traveling body 3) is positioned in the vicinity of the cultivation position Dn estimated by the position estimation unit 81.

図10に示すように、栽培場所105で栽培している作物2に対して作業を行うために、農業用ロボット1を進行方向に向けて自立走行をさせると、位置推定部81は、第1センシングデータH11を参照する。図11に示すように、位置推定部81は、参照した第1センシングデータH11に作物2のプロファイリングが含まれているか否かを判断する。具体的には、第1センシングデータH11が撮像画像である場合、撮像画像の特徴量のマッチング、パターンマッチング等により、撮像画像内に作物2が含まれているか否かを判断する。例えば、位置推定部81は、撮像画像から得られた特徴量と予め用意された作物の画像における特徴量とを比較し、両者の特徴量が一致すれば、撮像画像内に作物2があると判断し、両者の特徴量が一致しない場合は、撮像画像内に作物2があると判断しない。 As shown in FIG. 10, when the agricultural robot 1 is made to travel independently in the direction of travel in order to perform work on the crop 2 cultivated in the cultivation site 105, the position estimation unit 81 refers to the first sensing data H11. As shown in FIG. 11, the position estimation unit 81 determines whether the referenced first sensing data H11 includes profiling of the crop 2. Specifically, when the first sensing data H11 is a captured image, the position estimation unit 81 determines whether the captured image includes the crop 2 by matching the feature amount of the captured image, pattern matching, or the like. For example, the position estimation unit 81 compares the feature amount obtained from the captured image with the feature amount of a previously prepared image of the crop, and if the feature amounts of both match, it determines that the crop 2 is present in the captured image, and if the feature amounts of both do not match, it does not determine that the crop 2 is present in the captured image.

或いは、位置推定部81は、予め用意された作物2の表面の模様、輪郭、凸凹などを示す基準プロファイリングと、撮像画像から得られた画像プロファイリングとを比較し、基準プロファイリングと画像プロファイリングとが一致した場合は、撮像画像内に作物2等が含まれている判断し、基準プロファイリングとデータプロファイリングとが一致しなかった場合は、撮像画像内に作物2が含まれていないと判断する。 Alternatively, the position estimation unit 81 compares a previously prepared reference profiling indicating the surface pattern, contour, unevenness, etc. of the crop 2 with the image profiling obtained from the captured image, and if the reference profiling and the image profiling match, it determines that the captured image contains the crop 2, etc., and if the reference profiling and the data profiling do not match, it determines that the captured image does not contain the crop 2.

なお、第1センシングデータH11がスキャンデータである場合、位置推定部81は、スキャンデータで描写した描写体が、作物2であるか否かを判断する。この場合、位置推定部81は、描写体のデータプロファイリングと、基準プロファイリングとを比較し、基準プロファイリングとデータプロファイリングとが一致した場合は、スキャンデータ内に作物2が含まれていると判断し、基準プロファイリングとデータプロファイリングとが一致しなかった場合は、スキャンデータ内に作物2が含まれていないと判断する。 When the first sensing data H11 is scan data, the position estimation unit 81 determines whether the depicted object depicted in the scan data is a crop 2. In this case, the position estimation unit 81 compares the data profiling of the depicted object with the reference profiling, and if the reference profiling and the data profiling match, it determines that the scan data contains a crop 2, and if the reference profiling and the data profiling do not match, it determines that the scan data does not contain a crop 2.

図10に示すように、位置推定部81は、第1センシングデータH11に作物2が含まれていると判断した場合、作物2と農業用ロボット1(走行体3)との相対距離L10を演算する。図11に示すように、例えば、第1センシングデータH11が撮像画像H1である場合、位置推定部81は、撮像画像H1に含まれる被写体である作物2の画像(縦ピクセル、横ピクセル)H2の大きさと、基準フレーム(縦ピクセル、横ピクセル)F10の大きさとを比較する。作物2の画像H2が、基準フレームF10のよりも小さい場合、位置推定部81は、相対距離L10は、基準フレームF10に対応して定められた基準距離L11よりも長いと判断する。即ち、位置推定部81は、作物2は、農業用ロボット1(走行体3)から基準距離L11までの位置よりも遠い所にあると推定する。一方、作物2の画像H2の大きさが、基準フレームF10よりも大きい場合、位置推定部81は、相対距離L10は、基準距離L11よりも短いと判断する。即ち、位置推定部81は、作物2は、農業用ロボット1(走行体3)から基準距離L11までの位置よりも近い所にあると推定する。 As shown in FIG. 10, when the position estimation unit 81 determines that the first sensing data H11 includes the crop 2, it calculates the relative distance L10 between the crop 2 and the agricultural robot 1 (traveling body 3). As shown in FIG. 11, for example, when the first sensing data H11 is a captured image H1, the position estimation unit 81 compares the size of the image (vertical pixels, horizontal pixels) H2 of the crop 2, which is the subject included in the captured image H1, with the size of the reference frame (vertical pixels, horizontal pixels) F10. When the image H2 of the crop 2 is smaller than that of the reference frame F10, the position estimation unit 81 determines that the relative distance L10 is longer than the reference distance L11 determined corresponding to the reference frame F10. That is, the position estimation unit 81 estimates that the crop 2 is located farther away from the agricultural robot 1 (traveling body 3) than the reference distance L11. On the other hand, if the size of the image H2 of the crop 2 is larger than the reference frame F10, the position estimation unit 81 determines that the relative distance L10 is shorter than the reference distance L11. In other words, the position estimation unit 81 estimates that the crop 2 is closer to the agricultural robot 1 (traveling body 3) than the reference distance L11.

つまり、位置推定部81は、作物2の画像H2の大きさと基準フレームF10との大きさを比較し、作物2の画像H2の大きさと基準フレームF10との大きさとの比率と基準
距離L11に基づいて、現在の農業用ロボット1と作物2との相対距離L10を求める。図12に示すように、位置推定部81は、アームブラケット26を中立位置MP1から第1アーム枢軸33A周りに回転させている場合、光学式センサ5Aの光軸A20も中立位置MP1に対して、所定の角度θ1だけ回動していることになる。ここで、撮像画像H1において、光軸A20に対応するY軸方向のラインL20とした場合、位置推定部81は、作物2の画像H2の中心をラインL20に一致させたときの中立位置MP1に対する光学式センサ5Aの所定の角度θ1を演算し、演算した所定の角度θ1の方向であってラインL20上で且つ光学式センサ5Aの中心位置O2(回動軸心J1)から相対距離L10だけ離れた位置を、栽培位置Dnと推定する。
That is, the position estimation unit 81 compares the size of the image H2 of the crop 2 with the size of the reference frame F10, and obtains the current relative distance L10 between the agricultural robot 1 and the crop 2 based on the ratio of the size of the image H2 of the crop 2 to the size of the reference frame F10 and the reference distance L11. As shown in Fig. 12, when the arm bracket 26 is rotated around the first arm pivot 33A from the neutral position MP1, the position estimation unit 81 determines that the optical axis A20 of the optical sensor 5A also rotates by a predetermined angle θ1 with respect to the neutral position MP1. Here, when the line L20 in the Y-axis direction corresponding to the optical axis A20 is set in the captured image H1, the position estimation unit 81 calculates a predetermined angle θ1 of the optical sensor 5A with respect to the neutral position MP1 when the center of the image H2 of the crop 2 is aligned with the line L20, and estimates a position on the line L20 in the direction of the calculated predetermined angle θ1 and away from the center position O2 (rotation axis J1) of the optical sensor 5A by a relative distance L10 as the cultivation position Dn.

走行制御部41Aは、位置推定部81が推定した相対距離L10(栽培位置Dn)が現在の農業用ロボット1(走行体3)の位置から遠く、マニピュレータ(作業部)4の先端側(ロボットハンド18)が作物2に届かないと判断した場合には、農業用ロボット1(走行体3)を制御し、栽培位置Dnに近づくように、当該農業用ロボット1(走行体3)を栽培位置Dnへ向けて移動させる。走行制御部41Aは、マニピュレータ(作業部)4の先端側(ロボットハンド18)が作物2に届く位置、即ち、栽培位置Dnの周囲に近づくと、農業用ロボット1(走行体3)を停止させる。 When the travel control unit 41A determines that the relative distance L10 (cultivation position Dn) estimated by the position estimation unit 81 is far from the current position of the agricultural robot 1 (traveling body 3) and that the tip side (robot hand 18) of the manipulator (working unit) 4 cannot reach the crop 2, it controls the agricultural robot 1 (traveling body 3) to move the agricultural robot 1 (traveling body 3) toward the cultivation position Dn so as to approach the cultivation position Dn. The travel control unit 41A stops the agricultural robot 1 (traveling body 3) when the tip side (robot hand 18) of the manipulator (working unit) 4 approaches a position where it can reach the crop 2, i.e., when it approaches the periphery of the cultivation position Dn.

農業用ロボット1(走行体3)が栽培位置Dnの周囲に移動し、当該農業用ロボット1(走行体3)を停止させた場合、図13、図14に示すように、位置特定部82は、第2センシングデータH12を参照し、参照した第2センシングデータH12から、作物2の位置(作物位置)Znを特定する。位置特定部82は、第2センシングデータH12に基づいて、第2光学式センサ5Bと、作物2との第1距離(相対距離L15)を演算し、演算した第1距離(相対距離L15)に基づいて作物位置Znを特定する。 When the agricultural robot 1 (moving body 3) moves around the cultivation position Dn and is stopped, as shown in Figures 13 and 14, the position identification unit 82 refers to the second sensing data H12 and identifies the position (crop position) Zn of the crop 2 from the referenced second sensing data H12. The position identification unit 82 calculates the first distance (relative distance L15) between the second optical sensor 5B and the crop 2 based on the second sensing data H12, and identifies the crop position Zn based on the calculated first distance (relative distance L15).

図14に示すように、例えば、第2センシングデータH12が撮像画像H1である場合、位置特定部82は、撮像画像H1に含まれる作物2の画像H2の中心(X軸方向の中心)が撮像画像H1の中心に位置するように、即ち、第2光学式センサ5Bの光軸に対応するY軸方向のラインL21が作物2の画像H2の中心(X軸方向の中心)と一致するように、走行体3に対するアーム部(第1アーム部31及び第2アーム部32)の角度θ2を調整する。 As shown in FIG. 14, for example, when the second sensing data H12 is the captured image H1, the position identification unit 82 adjusts the angle θ2 of the arm unit (first arm unit 31 and second arm unit 32) relative to the traveling body 3 so that the center (center in the X-axis direction) of the image H2 of the crop 2 included in the captured image H1 is located at the center of the captured image H1, that is, so that the line L21 in the Y-axis direction corresponding to the optical axis of the second optical sensor 5B coincides with the center (center in the X-axis direction) of the image H2 of the crop 2.

位置特定部82は、作物2の画像H2の中心(X軸方向の中心)が撮像画像H1の中心に位置している状態で、作物2の画像H2の大きさと、基準フレームF11の大きさとを比較する。作物2の画像H2が、基準フレームF11のよりも小さい場合、位置特定部82は、相対距離L15は、基準フレームF11に対応して定められた基準距離L11よりも長いと判断する。即ち、位置特定部82は、作物2は、農業用ロボット1(走行体3)から基準距離L11までの位置よりも遠い所にあると推定する。一方、作物2の画像H2の大きさが、基準フレームF11よりも大きい場合、位置特定部82は、相対距離L15は、基準距離L11よりも短いと判断する。即ち、位置特定部82は、作物2は、農業用ロボット1(走行体3)から基準距離L11までの位置よりも近い所にあると推定する。 The position identification unit 82 compares the size of the image H2 of the crop 2 with the size of the reference frame F11 when the center (center in the X-axis direction) of the image H2 of the crop 2 is located at the center of the captured image H1. If the image H2 of the crop 2 is smaller than the reference frame F11, the position identification unit 82 determines that the relative distance L15 is longer than the reference distance L11 defined corresponding to the reference frame F11. That is, the position identification unit 82 estimates that the crop 2 is located farther from the agricultural robot 1 (traveling body 3) than the reference distance L11. On the other hand, if the size of the image H2 of the crop 2 is larger than the reference frame F11, the position identification unit 82 determines that the relative distance L15 is shorter than the reference distance L11. That is, the position identification unit 82 estimates that the crop 2 is located closer to the agricultural robot 1 (traveling body 3) than the reference distance L11.

位置特定部82は、作物2の画像H2の大きさと基準フレームF11との大きさを比較し、作物2の画像H2の大きさと基準フレームF11との大きさとの比率と基準距離L11に基づいて、第2光学式センサ5Bと、作物2との相対距離L15を求める。
位置特定部82は、回動軸心J1と第2光学式センサ5Bとの可動距離L16と、相対距離L15とを合計することにより、農業用ロボット1(走行体3)から作物2までの相対距離L10を演算する。また、位置特定部82は、相対距離L10(相対距離L15+可動距離L16)と走行体3に対するアーム部の角度θ2により、回動軸心J1を原点としたときの作物2の位置(作物位置)Zn(X座標:Zxn、Yxn、n=1,2,3・・・)を演算する。
The position identification unit 82 compares the size of the image H2 of the crop 2 with the size of the reference frame F11, and determines the relative distance L15 between the second optical sensor 5B and the crop 2 based on the ratio between the size of the image H2 of the crop 2 and the size of the reference frame F11 and the reference distance L11.
The position identification unit 82 calculates the relative distance L10 from the agricultural robot 1 (traveling body 3) to the crop 2 by summing the movable distance L16 between the rotation axis J1 and the second optical sensor 5B and the relative distance L15. The position identification unit 82 also calculates the position (crop position) Zn (X coordinate: Zxn, Yxn, n = 1, 2, 3 ...) of the crop 2 when the rotation axis J1 is set as the origin, using the relative distance L10 (relative distance L15 + movable distance L16) and the angle θ2 of the arm with respect to the traveling body 3.

なお、可動距離L16は、回動フレーム21に対する第1アーム部31の角度θ3、第1アーム部31と第2アーム部32との角度θ4、第1アーム部31の長さ、第2アーム部32の長さ(第2アーム部32のストローク)により演算することが可能である。例えば、角度θ3は、第1アーム枢軸33Aの回動を検出するセンサ又は第1アームシリンダ
C4のストロークを検出するセンサにより求めることができる。角度θ4は、第2アーム枢軸33Bの回動を検出するセンサ又は第2アームシリンダC5のストロークを検出するセンサにより求めることができる。
The movable distance L16 can be calculated from the angle θ3 of the first arm section 31 relative to the rotating frame 21, the angle θ4 between the first arm section 31 and the second arm section 32, the length of the first arm section 31, and the length of the second arm section 32 (the stroke of the second arm section 32). For example, the angle θ3 can be obtained by a sensor that detects the rotation of the first arm pivot 33A or a sensor that detects the stroke of the first arm cylinder C4. The angle θ4 can be obtained by a sensor that detects the rotation of the second arm pivot 33B or a sensor that detects the stroke of the second arm cylinder C5.

上述した実施形態では、第1センシングデータH11及び第2センシングデータH12が撮像画像H1であることを例にあげて説明をしたが、これに代えて、第1センシングデータH11及び第2センシングデータH12はスキャナデータであってもよい。位置推定部81は、スキャナデータに基づいて相対距離L10を演算することができ、位置特定部82もスキャナデータに基づいて相対距離L15を演算することができる。 In the above embodiment, an example has been described in which the first sensing data H11 and the second sensing data H12 are the captured image H1, but instead, the first sensing data H11 and the second sensing data H12 may be scanner data. The position estimation unit 81 can calculate the relative distance L10 based on the scanner data, and the position identification unit 82 can also calculate the relative distance L15 based on the scanner data.

なお、第2光学式センサ5Bは、レーザセンサ、撮像装置の他に、作物に照射した光の反射波を分光分析することで、作物2の成分等を検出することができる分光分析装置であってもよい。また、第2光学式センサ5Bは、レーザセンサ、撮像装置及び分光分析装置のいずれかを2以上を含むものであってもよい。
図15に示すように、作物2の近傍に作物2を識別する識別部材85を設置する場合がある。識別部材85は、作物2の二次元バーコード、数字、色等で示された識別情報(識別データ)を示すコード部85aと、コード部85aを支持する支柱、棒等の支持部材85bとを含んでいる。
The second optical sensor 5B may be a laser sensor, an imaging device, or a spectroscopic analysis device that detects components of the crop 2 by spectroscopically analyzing reflected waves of light irradiated onto the crop. The second optical sensor 5B may include two or more of a laser sensor, an imaging device, and a spectroscopic analysis device.
15 , an identification member 85 for identifying the crop 2 may be installed near the crop 2. The identification member 85 includes a code portion 85a showing identification information (identification data) of the crop 2, which is shown by a two-dimensional barcode, numbers, color, or the like, and a support member 85b, such as a post or rod, for supporting the code portion 85a.

作物探索部41Gは、第1センシングデータH11及び第2センシングデータH12のいずれかに、識別部材85のコード部85aが含まれている場合、識別部材85と走行体3との第2距離に基づいて、栽培位置Dn及び作物位置Znの推定を行ってもよい。識別情報には、作物2の苗を植え付けた植付日、作物2の収穫予定日などの栽培に関する情報(栽培情報)が関連付けられていて、識別情報を光学式センサ(第1光学式センサ5A、第2光学式センサ5B)により検出することにより、識別情報に対応する作物2の植付日、収穫予定日などが把握すること可能である。なお、例えば、栽培情報と識別情報とは互いに関連づけられて、サーバ、携帯端末等の外部機器に記憶されている。光学式センサ(第1光学式センサ5A、第2光学式センサ5B)が識別情報を検出したときに、農業用ロボット1の通信装置等が外部機器に接続することにより、農業用ロボット1は、外部機器から栽培情報を取得することができる。上述した実施形態では、栽培情報と識別情報とが関連付けられて、外部機器に記憶されていたが、制御装置41に記憶されていてもよい。 When the code portion 85a of the identification member 85 is included in either the first sensing data H11 or the second sensing data H12, the crop search unit 41G may estimate the cultivation position Dn and the crop position Zn based on the second distance between the identification member 85 and the traveling body 3. The identification information is associated with information on cultivation (cultivation information) such as the planting date when the seedlings of the crop 2 were planted and the planned harvest date of the crop 2, and by detecting the identification information with the optical sensor (first optical sensor 5A, second optical sensor 5B), it is possible to grasp the planting date, planned harvest date, etc. of the crop 2 corresponding to the identification information. For example, the cultivation information and the identification information are associated with each other and stored in an external device such as a server or a mobile terminal. When the optical sensor (first optical sensor 5A, second optical sensor 5B) detects the identification information, the agricultural robot 1 can acquire the cultivation information from the external device by connecting the communication device of the agricultural robot 1 to the external device. In the above-described embodiment, the cultivation information and the identification information are associated with each other and stored in an external device, but they may also be stored in the control device 41.

図15に示すように、作物2が葉などに覆われている場合、第1センシングデータH11及び第2センシングデータH12から作物2の形状(プロファイリング)を検出し難い場合がある。作物探索部41Gは、第1センシングデータH11及び第2センシングデータH12のいずれかを参照し、参照したセンシングデータに識別部材85が含まれている場合、作物2の代わりに、識別部材85の位置を、栽培位置Dn及び作物位置Znのいずれかとして推定する。 As shown in FIG. 15, when the crop 2 is covered with leaves or the like, it may be difficult to detect the shape (profiling) of the crop 2 from the first sensing data H11 and the second sensing data H12. The crop search unit 41G refers to either the first sensing data H11 or the second sensing data H12, and when the referenced sensing data includes an identification member 85, estimates the position of the identification member 85 as either the cultivation position Dn or the crop position Zn, instead of the crop 2.

具体的には、位置推定部81は、第1センシングデータH11に識別部材85が含まれていると判断した場合、識別部材85と農業用ロボット1(走行体3)との相対距離を演算する。位置推定部81は、作物2と農業用ロボット1(走行体3)との相対距離L10の代わりに、識別部材85と農業用ロボット1(走行体3)との相対距離を演算し、当該相対距離に基づいて、栽培位置Dnを求める。栽培位置Dnの求め方は、位置推定部81の説明において、作物2を「識別部材」に読み替え、作物2の画像を「識別部材85の画像」に読み替えればよく、作物2と同じである。 Specifically, when the position estimation unit 81 determines that the first sensing data H11 includes the identification member 85, it calculates the relative distance between the identification member 85 and the agricultural robot 1 (moving body 3). Instead of the relative distance L10 between the crop 2 and the agricultural robot 1 (moving body 3), the position estimation unit 81 calculates the relative distance between the identification member 85 and the agricultural robot 1 (moving body 3), and obtains the cultivation position Dn based on this relative distance. The method of obtaining the cultivation position Dn is the same as for the crop 2, and can be achieved by replacing the crop 2 with "identification member" and the image of the crop 2 with "image of the identification member 85" in the explanation of the position estimation unit 81.

位置特定部82は、第2センシングデータH12に識別部材85が含まれていると判断した場合、識別部材85と第2光学式センサ5Bとの相対距離を演算する。位置特定部82は、作物2と第2光学式センサ5Bとの相対距離L15の代わりに、識別部材85と第2光学式センサ5Bとの相対距離を演算し、当該相対距離に基づいて、作物位置Znを求める。作物位置Znの求め方は、位置特定部82の説明において、作物2を「識別部材」に読み替え、作物2の画像を「識別部材85の画像」に読み替えればよく、作物2と同じである。 When the position identification unit 82 determines that the second sensing data H12 includes the identification member 85, it calculates the relative distance between the identification member 85 and the second optical sensor 5B. Instead of the relative distance L15 between the crop 2 and the second optical sensor 5B, the position identification unit 82 calculates the relative distance between the identification member 85 and the second optical sensor 5B, and determines the crop position Zn based on this relative distance. The method of determining the crop position Zn is the same as for the crop 2, and can be achieved by replacing the crop 2 with "identification member" and the image of the crop 2 with "image of the identification member 85" in the explanation of the position identification unit 82.

図8に示すように、農業用ロボット1は、マップ作成部41Hを備えていてもよい。マップ作成部41Hは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
マップ作成部41Hは、第1センシングデータH11及び第2センシングデータH12のいずれかに、識別部材85bの識別情報が含まれている場合、図16に示すように、第1センシングデータH11、第2センシングデータH12及び識別部材85のコード部85a(識別部材85bの識別情報)に基づいて、作物位置Zn及び栽培情報を含む栽培マップF2を作成する。
8, the agricultural robot 1 may include a map creation unit 41H. The map creation unit 41H is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, or the like.
When either the first sensing data H11 or the second sensing data H12 includes identification information of the identification member 85b, the map creation unit 41H creates a cultivation map F2 including the crop position Zn and cultivation information based on the first sensing data H11, the second sensing data H12, and the code portion 85a of the identification member 85 (identification information of the identification member 85b), as shown in Figure 16.

具体的には、マップ作成部41Hは、上述したように、作業開始点P11から作業終了点P12まで栽培場所105に沿って農業用ロボット1を走行させた際に、作物探索部41Gが求めた作物位置Znを参照する。
次に、マップ作成部41Hは、図13に示すように、農業用ロボット1(走行体3)の位置、例えば、回動軸心J1の位置を車体位置Ri(i=1、2、3・・・)とし、車体位置Riに対して、参照した作物位置Zn(X座標:Zxn、Yxn、n=1,2,3・・・)を加算したり、除算することにより、施設100における作物位置Znaを求める。
Specifically, as described above, the map creation unit 41H refers to the crop position Zn determined by the crop search unit 41G when the agricultural robot 1 is caused to travel along the cultivation area 105 from the work start point P11 to the work end point P12.
Next, as shown in FIG. 13, the map creation unit 41H determines the position of the agricultural robot 1 (running body 3), for example, the position of the rotation axis J1, as the vehicle position Ri (i = 1, 2, 3, ...), and finds the crop position Zna in the facility 100 by adding or subtracting the referenced crop position Zn (X coordinate: Zxn, Yxn, n = 1, 2, 3, ...) from the vehicle position Ri.

ここで、車体位置Riは、例えば、出入口130からの現在の農業用ロボット1までの縦方向Y1における距離、或いは、出入口130から現在の農業用ロボット1までの横方向X1における距離にて求めることができる。或いは、車体位置Riは、作業開始点P11を施設100における原点として、作業開始点P11から現在の農業用ロボット1までの縦方向Y1における距離、或いは、作業開始点P11から現在の農業用ロボット1までの横方向X1における距離にて求めることができる。 Here, the vehicle body position Ri can be obtained, for example, by the distance in the vertical direction Y1 from the entrance/exit 130 to the current agricultural robot 1, or the distance in the horizontal direction X1 from the entrance/exit 130 to the current agricultural robot 1. Alternatively, the vehicle body position Ri can be obtained by taking the work start point P11 as the origin in the facility 100, and by the distance in the vertical direction Y1 from the work start point P11 to the current agricultural robot 1, or the distance in the horizontal direction X1 from the work start point P11 to the current agricultural robot 1.

なお、車体位置Riを求めるにあたって、出入口130及び作業開始点P11のいずれかを基準にする場合であっても、例えば、走行体3に進んだ距離を計測する距離計を設けることにより、現在の農業用ロボット1の位置を求めることが可能である。
また、マップ作成部41Hは、上述したように、作業開始点P11から作業終了点P12まで栽培場所105に沿って農業用ロボット1を走行させた際に、光学式センサ(第1光学式センサ5A、第2光学式センサ5B)が検出した識別情報を外部機器又は制御装置41から取得し、取得した識別情報から栽培情報を割り出し、図16に示すように、割り出した栽培情報と作物位置Znaとを対応付けた栽培マップF2を作成する。図16に示すように、栽培マップF2を表示する際には、作物位置Znaに作物2を示す図形を示す。
Furthermore, even if the vehicle body position Ri is determined based on either the entrance/exit 130 or the work starting point P11, it is possible to determine the current position of the agricultural robot 1, for example, by providing a rangefinder on the running body 3 that measures the distance traveled.
As described above, when the agricultural robot 1 is caused to travel along the cultivation site 105 from the work start point P11 to the work end point P12, the map creation unit 41H acquires, from the external device or the control device 41, the identification information detected by the optical sensors (first optical sensor 5A, second optical sensor 5B), determines cultivation information from the acquired identification information, and creates a cultivation map F2 in which the determined cultivation information is associated with the crop position Zna, as shown in Fig. 16. When displaying the cultivation map F2, a figure indicating the crop 2 is shown at the crop position Zna, as shown in Fig. 16.

農業用ロボット1は、機体6と、機体6を走行可能に支持する走行装置7とを含む走行体3と、機体6に着脱可能に装着された装着体16、装着体16に取り付けられたアーム17及びアーム17の先端側に設けられたロボットハンド18を含むマニピュレータ4と、機体6に設けられた第1光学式センサ5Aと、アーム17及びロボットハンド18のいずれかに設けられた第2光学式センサ5Bと、第1光学式センサ5Aで得られた第1センシングデータH11と、第2光学式センサ5Bで得られた第2センシングデータH12とに基づいて、作物2を探索する作物探索部41Gと、を備えている。これによれば、第1光学式センサ5Aによって機体6からセンシングした第1センシングデータH11と、アーム17及びロボットハンド18のいずれかからからセンシングした第2センシングデータH12との両方のセンシングによって、より作物2の探索を効率よく行うことができる。例えば、第1センシングデータH11では、作物2の大雑把な位置を把握し、第2センシングデータH12では、作物2の正確な位置を把握することができる。このように分けることで、走行体3とマニピュレータ4とをそれぞれ素早く作物2の位置まで移動させることが可能となる。 The agricultural robot 1 includes a traveling body 3 including a machine body 6 and a traveling device 7 that supports the machine body 6 so that it can travel, a mounting body 16 that is detachably mounted on the machine body 6, a manipulator 4 including an arm 17 attached to the mounting body 16 and a robot hand 18 provided on the tip side of the arm 17, a first optical sensor 5A provided on the machine body 6, a second optical sensor 5B provided on either the arm 17 or the robot hand 18, and a crop search unit 41G that searches for the crop 2 based on the first sensing data H11 obtained by the first optical sensor 5A and the second sensing data H12 obtained by the second optical sensor 5B. This makes it possible to more efficiently search for the crop 2 by sensing both the first sensing data H11 sensed from the machine body 6 by the first optical sensor 5A and the second sensing data H12 sensed from either the arm 17 or the robot hand 18. For example, the first sensing data H11 can be used to determine the rough position of the crop 2, and the second sensing data H12 can be used to determine the exact position of the crop 2. By dividing the data in this way, it becomes possible to quickly move the traveling body 3 and the manipulator 4 to the position of the crop 2.

作物探索部41Gは、第1センシングデータH11に基づいて作物2を栽培する施設100内における作物の栽培位置Dnを推定する位置推定部81と、位置推定部81で推定した栽培位置Dnの周辺に走行体3を位置させたときの第2センシングデータH12に基づいて作物の位置である作物位置Znを特定する位置特定部82とを含んでいる。これによれば、施設100内において、おおよその作物の位置である栽培位置Dnを把握することができ、正確な作物2の位置である作物位置Znを把握することができる。 The crop search unit 41G includes a position estimation unit 81 that estimates the cultivation position Dn of the crop in the facility 100 where the crop 2 is cultivated based on the first sensing data H11, and a position identification unit 82 that identifies the crop position Zn, which is the position of the crop, based on the second sensing data H12 when the traveling body 3 is positioned around the cultivation position Dn estimated by the position estimation unit 81. This makes it possible to grasp the cultivation position Dn, which is the approximate position of the crop, in the facility 100, and to grasp the crop position Zn, which is the exact position of the crop 2.

農業用ロボット1は、位置推定部81で推定した栽培位置Dnの周囲に走行体3を移動させる制御装置41を備えている。これによれば、施設100内において、おおよその作物の位置である栽培位置Dnに農業用ロボット1を効率よく移動させることができる。
位置特定部82は、走行体3を栽培位置Dnの周囲に移動させて当該走行体3を停止させたときの第2光学式センサ5Bから得られた第2センシングデータH12から作物位置Znを特定する。これによれば、作業時などに走行体3を移動後に停止させた場合、正確な作物2の位置である作物位置Znを簡単に求めることができ、走行体3を停止させた状態でマニピュレータ4の先端部側を求めた作物位置Znに位置させて、作物位置Znの作物2の作業を効率よく行うことができる。
The agricultural robot 1 includes a control device 41 that moves the traveling body 3 around the cultivation position Dn estimated by the position estimation unit 81. This allows the agricultural robot 1 to be efficiently moved to the cultivation position Dn, which is the approximate position of the crop, within the facility 100.
The position identification unit 82 identifies the crop position Zn from the second sensing data H12 obtained from the second optical sensor 5B when the traveling body 3 is moved to the periphery of the cultivation position Dn and the traveling body 3 is stopped. With this, when the traveling body 3 is stopped after moving during work or the like, the crop position Zn, which is the exact position of the crop 2, can be easily obtained, and with the traveling body 3 stopped, the tip side of the manipulator 4 can be positioned at the obtained crop position Zn, thereby efficiently working on the crop 2 at the crop position Zn.

位置特定部82は、第2センシングデータH12に基づいて、第2光学式センサ5B及び走行体3のいずれかと、作物2との第1距離(相対距離)L15を演算し、演算した第1距離(相対距離)L15に基づいて作物位置Znを特定する。これによれば、実際の作物2の位置と、誤差が少ない作物位置Znを求めることができる。
第2光学式センサ5Bは、レーザセンサ、撮像装置及び分光分析装置のいずれか2以上を含んでいる。これによれば、作物2の作物位置Znを正確に求めるだけでなく、品質などの作物2の状態を把握することができる。
The position identifying unit 82 calculates a first distance (relative distance) L15 between the crop 2 and either the second optical sensor 5B or the traveling body 3 based on the second sensing data H12, and identifies the crop position Zn based on the calculated first distance (relative distance) L15. This makes it possible to determine the actual position of the crop 2 and the crop position Zn with little error.
The second optical sensor 5B includes two or more of a laser sensor, an imaging device, and a spectroscopic analysis device. This makes it possible not only to accurately determine the crop position Zn of the crop 2, but also to grasp the condition of the crop 2, such as its quality.

作物探索部41Gは、第1センシングデータH11及び第2センシングデータH12のいずれかに、作物を識別する識別部材85bの識別情報が含まれている場合、識別部材85と走行体3との第2距離に基づいて、栽培位置Dn及び作物位置Znの推定を行う。これによれば、作物2を直接、センシングしなくても、識別部材85の有無をセンシングするだけで、簡単に作物2の位置(栽培位置Dn、作物位置Zn)を求めることができる。 When either the first sensing data H11 or the second sensing data H12 contains identification information of the identification member 85b that identifies the crop, the crop search unit 41G estimates the cultivation position Dn and the crop position Zn based on the second distance between the identification member 85 and the traveling body 3. This makes it possible to easily determine the position of the crop 2 (cultivation position Dn, crop position Zn) by simply sensing the presence or absence of the identification member 85 without directly sensing the crop 2.

農業用ロボット1は、第1センシングデータH11及び第2センシングデータH12のいずれかに、作物を識別する識別部材85bの識別情報が含まれている場合、第1センシングデータH11、第2センシングデータH12及び識別データに基づいて、作物位置Zn及び栽培情報を含む栽培マップF2を作成するマップ作成部41Hを備えている。これによれば、栽培マップF2によって、作物位置Znと栽培情報とを簡単に確認することができる。例えば、農業用ロボット1で作業を行う場合に、作物位置Znにて栽培情報に応じた作業を行うことができる。 The agricultural robot 1 is equipped with a map creation unit 41H that creates a cultivation map F2 including the crop position Zn and cultivation information based on the first sensing data H11, the second sensing data H12, and the identification data when either the first sensing data H11 or the second sensing data H12 includes identification information of an identification member 85b that identifies a crop. This makes it easy to check the crop position Zn and the cultivation information using the cultivation map F2. For example, when performing work using the agricultural robot 1, work can be performed at the crop position Zn according to the cultivation information.

以上、本発明の一実施形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 Although one embodiment of the present invention has been described above, the embodiment disclosed herein should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the above description, and is intended to include all modifications within the meaning and scope of the claims.

1 :農業用ロボット
2 :作物
3 :走行体
4 :マニピュレータ
5A :第1光学式センサ
5A :光学式センサ
5B :光学式センサ
5B :第2光学式センサ
6 :機体
7 :走行装置
16 :装着体
17 :アーム
18 :ロボットハンド
41 :制御装置
41G :作物探索部
41H :マップ作成部
81 :位置推定部
82 :位置特定部
85 :識別部材
85b :識別部材
100 :施設
Dn :栽培位置
F2 :栽培マップ
H11 :第1センシングデータ
H12 :第2センシングデータ
Zn :作物位置
1: Agricultural robot 2: Crop 3: Traveling body 4: Manipulator 5A: First optical sensor 5A: Optical sensor 5B: Optical sensor 5B: Second optical sensor 6: Machine body 7: Traveling device 16: Mounting body 17: Arm 18: Robot hand 41: Control device 41G: Crop search unit 41H: Map creation unit 81: Position estimation unit 82: Position specification unit 85: Identification member 85b: Identification member 100: Facility Dn: Cultivation position F2: Cultivation map H11: First sensing data H12: Second sensing data Zn: Crop position

Claims (9)

機体と、前記機体を走行可能に支持する走行装置とを含む走行体と、
前記機体に着脱可能に装着された装着体、前記装着体に取り付けられたアーム及び前記アームの先端側に設けられたロボットハンドを含むマニピュレータと、
前記機体に設けられ、回動可能に装着された第1光学式センサと、
前記アーム及びロボットハンドのいずれかに設けられた第2光学式センサと、
前記第1光学式センサで得られた第1センシングデータと、前記第2光学式センサで得られた第2センシングデータとに基づいて、作物を探索する作物探索部と、を備え、
前記作物探索部は、前記第1光学式センサの回動角度と、前記第1センシングデータと、に基づいて、作物を栽培する施設内における前記作物の栽培位置として、当該栽培位置の向き及び当該栽培位置までの相対距離を示す位置を推定する位置推定部を含んでいる農業用ロボット。
A traveling body including a machine body and a traveling device that supports the machine body so that the machine body can travel;
a manipulator including a mounting body detachably mounted on the aircraft body, an arm attached to the mounting body, and a robot hand provided on a tip side of the arm;
A first optical sensor provided on the aircraft body and rotatably mounted thereon;
a second optical sensor provided on either the arm or the robot hand;
a crop searching unit that searches for a crop based on first sensing data obtained by the first optical sensor and second sensing data obtained by the second optical sensor,
The agricultural robot includes a position estimation unit that estimates a cultivation position of the crop within a facility for cultivating the crop, the cultivation position indicating the orientation of the cultivation position and the relative distance to the cultivation position, based on the rotation angle of the first optical sensor and the first sensing data.
前記位置推定部は、前記第1センシングデータに含まれる前記作物の大きさと、基準フレームとを比較し、前記相対距離を演算する請求項1に記載の農業用ロボット。 The agricultural robot of claim 1, wherein the position estimation unit compares the size of the crop contained in the first sensing data with a reference frame and calculates the relative distance. 前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含んでいる請求項1に記載の農業用ロボット。 The agricultural robot according to claim 1, wherein the crop search unit includes a position identification unit that identifies a crop position, which is the position of the crop, based on the second sensing data when the mobile body is positioned in the vicinity of the cultivation position estimated by the position estimation unit. 前記位置推定部で推定した前記栽培位置の周囲に前記走行体を移動させる制御装置を備えている請求項3に記載の農業用ロボット。 The agricultural robot according to claim 3, further comprising a control device that moves the mobile body around the cultivation position estimated by the position estimation unit. 前記位置特定部は、前記走行体を前記栽培位置の周囲に移動させて当該走行体を停止させたときの前記第2光学式センサから得られた第2センシングデータから前記作物位置を特定する請求項4に記載の農業用ロボット。 The agricultural robot according to claim 4, wherein the position identification unit identifies the crop position from second sensing data obtained from the second optical sensor when the moving body is moved around the cultivation position and stopped. 前記位置特定部は、前記第2センシングデータに基づいて、前記第2光学式センサ及び走行体のいずれかと、前記作物との第1距離を演算し、前記演算した第1距離に基づいて前記作物位置を特定する請求項5に記載の農業用ロボット。 The agricultural robot according to claim 5, wherein the position identification unit calculates a first distance between the crop and either the second optical sensor or the traveling body based on the second sensing data, and identifies the crop position based on the calculated first distance. 前記第2光学式センサは、レーザセンサ、撮像装置及び分光分析装置のいずれか2以上を含んでいる請求項1~6のいずれかに記載の農業用ロボット。 The agricultural robot according to any one of claims 1 to 6, wherein the second optical sensor includes two or more of a laser sensor, an imaging device, and a spectroscopic analysis device. 前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含み、前記第1センシングデータ及び前記第2センシングデータのいずれかに、作物を識別する識別部材に識別情報が含まれている場合、前記識別部材の位置を前記作物の栽培位置及び前記作物の作物位置のいずれかに設定する請求項1~7のいずれかに記載の農業用ロボット。 The agricultural robot of any one of claims 1 to 7, wherein the crop search unit includes a position identification unit that identifies a crop position, which is the position of the crop, based on the second sensing data when the mobile body is positioned in the vicinity of the cultivation position estimated by the position estimation unit, and when either the first sensing data or the second sensing data includes identification information in an identification member that identifies a crop, the position of the identification member is set to either the cultivation position of the crop or the crop position of the crop. 前記作物探索部は、前記位置推定部で推定した前記栽培位置の周辺に前記走行体を位置させたときの前記第2センシングデータに基づいて作物の位置である作物位置を特定する位置特定部を含み、
前記第1センシングデータ及び前記第2センシングデータのいずれかに、作物を識別する識別部材に識別情報が含まれている場合、前記第1センシングデータ、前記第2センシングデータ及び前記識別情報に基づいて、作物位置及び前記識別情報に関連付けられた栽培情報を含む栽培マップを作成するマップ作成部を備えている請求項1~7のいずれかに記載の農業用ロボット。
the crop search unit includes a position identification unit that identifies a crop position, which is a position of a crop, based on the second sensing data when the traveling body is positioned in the vicinity of the cultivation position estimated by the position estimation unit,
An agricultural robot as described in any one of claims 1 to 7, further comprising a map creation unit that creates a cultivation map including a crop position and cultivation information associated with the identification information based on the first sensing data, the second sensing data, and the identification information when either the first sensing data or the second sensing data includes identification information in an identification component that identifies a crop.
JP2020109079A 2020-06-24 2020-06-24 Agricultural robots Active JP7494023B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020109079A JP7494023B2 (en) 2020-06-24 2020-06-24 Agricultural robots
EP21829678.8A EP4173464A1 (en) 2020-06-24 2021-06-09 Agricultural robot and assistance system for agricultural robot
PCT/JP2021/021864 WO2021261246A1 (en) 2020-06-24 2021-06-09 Agricultural robot and assistance system for agricultural robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109079A JP7494023B2 (en) 2020-06-24 2020-06-24 Agricultural robots

Publications (2)

Publication Number Publication Date
JP2022006698A JP2022006698A (en) 2022-01-13
JP7494023B2 true JP7494023B2 (en) 2024-06-03

Family

ID=80110556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109079A Active JP7494023B2 (en) 2020-06-24 2020-06-24 Agricultural robots

Country Status (1)

Country Link
JP (1) JP7494023B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013593A1 (en) 2004-08-06 2006-02-09 Valente Pali Precompressi Srl Automated fruit and vegetables picker
JP2018134059A (en) 2017-02-23 2018-08-30 パナソニック株式会社 Harvesting device and harvesting method
JP2020174546A (en) 2019-04-16 2020-10-29 本田技研工業株式会社 Harvesting method and fruit/vegetable harvesting device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013593A1 (en) 2004-08-06 2006-02-09 Valente Pali Precompressi Srl Automated fruit and vegetables picker
JP2018134059A (en) 2017-02-23 2018-08-30 パナソニック株式会社 Harvesting device and harvesting method
JP2020174546A (en) 2019-04-16 2020-10-29 本田技研工業株式会社 Harvesting method and fruit/vegetable harvesting device

Also Published As

Publication number Publication date
JP2022006698A (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11991940B2 (en) Method for autonomous detection of crop location based on tool depth and location
Radcliffe et al. Machine vision for orchard navigation
US11596139B2 (en) Method for autonomously weeding crops in an agricultural field
US9603300B2 (en) Autonomous gardening vehicle with camera
WO2021261246A1 (en) Agricultural robot and assistance system for agricultural robot
EP4070643A1 (en) Agricultural robot
JP2018525976A (en) Robotic vehicle for automatic processing of plant organisms and method of using a robot
US9485912B2 (en) Tree location sensing system for agricultural tree harvesters
EP3815510A1 (en) Plant removal apparatus and method
CN217716472U (en) Aerial mechanical sensor and control platform for farming and system thereof
JP7494023B2 (en) Agricultural robots
CN106908062B (en) A kind of self-propelled chlorophyll fluorescence Image Acquisition robot and its acquisition method
JP7471931B2 (en) Agricultural robots
WO2021261294A1 (en) Agricultural robot
JP7404169B2 (en) Agricultural robots and agricultural robot support systems
JP7408496B2 (en) agricultural robot
US20230292644A1 (en) Mobile autonomous agricultural system
JP2022006697A (en) Agricultural robot and support system of agricultural robot
KR20230063739A (en) fruit-harvesting robot
Burks et al. Opportunity of robotics in precision horticulture.
Kurita et al. Efficient searching for grain storage container by combine robot
Scarfe Development of an autonomous kiwifruit harvester: a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Industrial Automation at Massey University, Manawatu, New Zealand.
US20240033940A1 (en) Aerial sensor and manipulation platform for farming and method of using same
Kounalakis et al. A framework leveraging robotics and machine learning technologies for early disease and pest detection in greenhouse tomato crops
Xu et al. A review of high-throughput field phenotyping systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240522

R150 Certificate of patent or registration of utility model

Ref document number: 7494023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150