JP7408496B2 - agricultural robot - Google Patents

agricultural robot Download PDF

Info

Publication number
JP7408496B2
JP7408496B2 JP2020109081A JP2020109081A JP7408496B2 JP 7408496 B2 JP7408496 B2 JP 7408496B2 JP 2020109081 A JP2020109081 A JP 2020109081A JP 2020109081 A JP2020109081 A JP 2020109081A JP 7408496 B2 JP7408496 B2 JP 7408496B2
Authority
JP
Japan
Prior art keywords
crop
arm
frame
agricultural robot
wheel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020109081A
Other languages
Japanese (ja)
Other versions
JP2022006700A (en
Inventor
俊介 江戸
倫祥 坂野
惇平 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2020109081A priority Critical patent/JP7408496B2/en
Priority to PCT/JP2021/022292 priority patent/WO2021261294A1/en
Priority to EP21829595.4A priority patent/EP4173467A4/en
Publication of JP2022006700A publication Critical patent/JP2022006700A/en
Priority to US17/990,825 priority patent/US20230078003A1/en
Application granted granted Critical
Publication of JP7408496B2 publication Critical patent/JP7408496B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、農業用ロボットに関する。 The present invention relates to an agricultural robot.

従来、特許文献1に開示された農業用ロボットが知られている。
特許文献1に開示された農業用ロボットは、走行体に作物の収穫を行うことが可能なマニピュレータが設けられている。
Conventionally, an agricultural robot disclosed in Patent Document 1 has been known.
The agricultural robot disclosed in Patent Document 1 has a running body equipped with a manipulator that can harvest crops.

特開2011-229406号公報Japanese Patent Application Publication No. 2011-229406

さて、スイカ、メロン、カボチャ等の作物は様々なところで栽培(作付け)されるのが一般的である。農業用ロボットで作業を行うにあたって、適正に作物の姿勢を把握することが難しいのが実情である。
本発明は、作物の姿勢を簡単に把握することができる農業用ロボットを提供することを目的とする。
Now, crops such as watermelons, melons, and pumpkins are generally cultivated (planted) in various places. The reality is that when working with agricultural robots, it is difficult to properly grasp the posture of crops.
An object of the present invention is to provide an agricultural robot that can easily grasp the posture of crops.

農業用ロボットは、走行体と、前記走行体に設けられ、作物に関する作業を行う作業部と、前記走行体に設けられた光学式センサと、前記光学式センサで得られたセンシングデータに基づいて、前記作物を推定する作物推定部と、を備え、前記作物推定部は、前記センシングデータから得られた作物の表面状態である当該作物の模様を構成する線の間隔、線の角度、線の繋がり、線の形状、線の配列パターンのいずれかから作物を推定し、前記推定した作物の前記模様として表れた線から、前記作物の姿勢を推定する。
前記作物推定部は、前記センシングデータで示された作物に関し、前記作物の特徴部分と前記作物の模様の線とに基づいて、前記作物の姿勢を推定する。
The agricultural robot includes a traveling body, a working part provided on the traveling body for performing work related to crops, an optical sensor provided on the traveling body, and a system based on sensing data obtained by the optical sensor. , a crop estimating unit that estimates the crop, and the crop estimating unit estimates the interval between lines, the angle of the lines, and the angle of the lines constituting the pattern of the crop, which is the surface condition of the crop obtained from the sensing data. The crop is estimated from any of the connections, line shapes, and line arrangement patterns, and the posture of the crop is estimated from the lines that appear as the pattern of the estimated crop.
The crop estimating unit estimates a posture of the crop indicated by the sensing data based on characteristic parts of the crop and lines of a pattern of the crop.

前記作物推定部は、前記センシングデータで示された前記作物の模様の線の向きに基づいて、前記姿勢を推定する。
前記作物推定部は、前記センシングデータで示された前記作物の模様の線の長さに基づいて、前記姿勢を推定する。
前記作物推定部は、前記作物の特徴部分と前記模様との位置関係に基づいて、前記姿勢を推定する。
The crop estimating unit estimates the posture based on the direction of the line of the crop pattern indicated by the sensing data.
The crop estimation unit estimates the posture based on the length of the line of the crop pattern indicated by the sensing data.
The crop estimation unit estimates the posture based on a positional relationship between a characteristic part of the crop and the pattern.

前記作物推定部は、前記センシングデータに基づいて作物の輪郭と、前記作物の周囲に関して前記推定した作物の表面を隠す障害物とを推定する。
前記作業部は、前記作物推定部で推定した前記障害物を、前記作物から遠ざける作業を行う。
前記作物と前記作物の表面状態との関係を、深層学習することで表面状態モデルを生成するモデル生成部を備えている。
The crop estimating unit estimates a contour of the crop and an obstacle that hides the estimated surface of the crop with respect to the periphery of the crop based on the sensing data.
The work unit performs work to move the obstacle estimated by the crop estimation unit away from the crop.
The plant includes a model generation unit that generates a surface condition model by performing deep learning on the relationship between the crop and the surface condition of the crop.

本発明によれば、作物の姿勢を簡単に把握することができる。 According to the present invention, the posture of crops can be easily grasped.

農業用ロボットの側面図である。It is a side view of an agricultural robot. 作業姿勢の状態の農業用ロボットの側面図である。FIG. 2 is a side view of the agricultural robot in a working posture. 機体及びマニピュレータの斜視図である。It is a perspective view of a fuselage and a manipulator. 機体及びマニピュレータの側面図である。It is a side view of a fuselage and a manipulator. 走行装置の平面図である。It is a top view of a traveling device. 走行装置の側面図である。It is a side view of a traveling device. ロボットハンドの一部拡大図である。It is a partially enlarged view of the robot hand. 農業用ロボットの支援システムの全体図である。1 is an overall diagram of an agricultural robot support system. 農業用ロボットを施設で走行させたルートを示す図である。FIG. 2 is a diagram showing a route along which an agricultural robot travels through a facility. 農業用ロボットにて作物に対して作業を行う様子を示す図である。FIG. 2 is a diagram showing how an agricultural robot works on crops. センシングデータH11と部分データH13との関係を示す図である。It is a figure showing the relationship between sensing data H11 and partial data H13. 部分データH13の一例を示す図である。It is a figure which shows an example of partial data H13. 表面状態モデルとデータとの関係を示す図である。FIG. 3 is a diagram showing the relationship between a surface state model and data. 特徴部分として、へたを抽出した状態を示す図である。It is a figure which shows the state which extracted the stem as a characteristic part. 特徴部分として、へそを抽出した状態を示す図である。FIG. 3 is a diagram showing a state in which a navel is extracted as a characteristic part. 特徴部分として、へた及びへそを抽出した状態を示す図である。FIG. 3 is a diagram showing a state in which a belly button and a navel are extracted as characteristic parts. 作物の第1姿勢を示す図である。It is a figure showing the first posture of a crop. 作物の第2姿勢を示す図である。It is a figure which shows the 2nd attitude|position of a crop. 作物の第3姿勢を示す図である。It is a figure which shows the 3rd attitude|position of a crop. 作物の模様を示す線が上下方向(垂直方向)に延びている状態を示す図である。FIG. 3 is a diagram showing a state in which lines indicating patterns of crops extend in the vertical direction (vertical direction). 作物の模様を示す線が左右方向(水平方向)に延びている状態を示す図である。It is a figure which shows the state where the line showing the pattern of a crop extends in the left-right direction (horizontal direction). 作物の模様が標準的な長さ以下である場合を示す図である。It is a figure which shows the case where the pattern of a crop is below standard length. 作物の模様が標準的な長さを超えている場合を示す図である。It is a figure which shows the case where the pattern of a crop exceeds a standard length. 作物のへたを中心として、複数の線の長さの手前側が長く、奥側が短い場合を示す図である。It is a figure showing the case where the length of a plurality of lines is long on the front side and short on the back side, centering on the stem of the crop. 作物のへたを中心として、複数の線の長さの手前側が短く、奥側が長い場合を示す図である。It is a figure showing the case where the length of a plurality of lines is short on the front side and long on the back side, centering on the stem of the crop. 部分画像H16において作物の輪郭の一部が見えている状態を示す図である。It is a figure which shows the state where a part of outline of a crop is visible in the partial image H16. 部分画像H16において作物の輪郭の一部が見えている状態を示す図であって、図19Aとは異なる図である。19A is a diagram showing a state in which part of the outline of the crop is visible in the partial image H16, and is a diagram different from FIG. 19A. 部分画像H16において作物の輪郭が見えていない状態を示す図である。It is a figure which shows the state where the outline of a crop is not visible in the partial image H16. 障害物を作物から遠ざける作業を説明する説明図である。FIG. 2 is an explanatory diagram illustrating the work of moving obstacles away from crops. 施設園芸の施設の内部の概略図である。It is a schematic diagram of the inside of a facility for greenhouse horticulture. 施設園芸の施設の平面の概略図である。It is a schematic plan view of a facility for greenhouse horticulture. 作物の栽培初期の施設園芸の施設の内部の斜視図である。FIG. 2 is a perspective view of the inside of a facility for greenhouse horticulture in the early stages of crop cultivation. 作物の栽培中期又は後期の施設園芸の施設の内部の斜視図である。It is a perspective view of the inside of a facility for greenhouse horticulture during the middle or late stage of crop cultivation.

以下、本発明の一実施形態について、図面を適宜参照しつつ説明する。
図1、図2は、農業用ロボット1を例示している。農業用ロボット1は、図21~図24に示すようなハウス等の施設園芸、植物工場等の施設において、栽培される作物2に対して作業(農作業)を行うロボットである。農業用ロボット1は、例えば、スイカ、メロン、カボチャ等の比較的重量のある作物2である重量野菜、果実等に対して作業を行う。
An embodiment of the present invention will be described below with appropriate reference to the drawings.
1 and 2 illustrate an agricultural robot 1. FIG. The agricultural robot 1 is a robot that performs work (agricultural work) on crops 2 that are cultivated in facilities such as greenhouse horticulture, plant factories, etc. as shown in FIGS. 21 to 24. The agricultural robot 1 works on relatively heavy crops 2, such as heavy vegetables and fruits, such as watermelons, melons, and pumpkins, for example.

まず、施設園芸の施設(施設園芸施設)を例にとり、施設について説明する。
図21~図24に示すように、施設100は、当該施設100を構成する構造物として、ハウス101と、ハウス101の内部に設置された機器102とを備えている。
ハウス101は、フレーム110と、被覆材111とを含んでいる。フレーム110は、例えば、I形鋼、H形鋼、C形鋼、角形鋼、丸形鋼等の様々な鋼材を組み合わせて、施設100の躯体を構成していて、複数の支柱部材110Aと、複数の連結部材110Bとを含んでいる。図21~図23に示すように、複数の支柱部材110Aは、地面等から起立した部材であって、横方向X1に所定の間隔で設置され且つ縦方向Y1に所定の間隔で設置されている。
First, the facility will be explained using a facility for greenhouse horticulture (contained horticulture facility) as an example.
As shown in FIGS. 21 to 24, the facility 100 includes a house 101 and equipment 102 installed inside the house 101 as structures constituting the facility 100.
House 101 includes a frame 110 and covering material 111. The frame 110 constitutes the framework of the facility 100 by combining various steel materials such as I-beam steel, H-beam steel, C-beam steel, square steel, and round steel, and includes a plurality of support members 110A, It includes a plurality of connecting members 110B. As shown in FIGS. 21 to 23, the plurality of support members 110A are members that stand up from the ground, etc., and are installed at predetermined intervals in the horizontal direction X1 and at predetermined intervals in the vertical direction Y1. .

連結部材110Bは、横方向X1に離れた複数の支柱部材110Aの上端を互いに連結する。また、連結部材110Bは、縦方向Y1に離れた複数の支柱部材110Aを互いに連結する。
被覆材111は、少なくとも太陽光を取り入れ可能な透光性を有する部材であって、合成樹脂、ガラス等で構成されている。被覆材111は、例えば、フレーム110の外側か
ら当該フレーム110の全体を覆っている。言い換えれば、被覆材111は、支柱部材110Aの外側、連結部材110Bの外側に配置されている。
The connecting member 110B connects the upper ends of the plurality of support members 110A separated in the lateral direction X1 to each other. Further, the connecting member 110B connects the plurality of support members 110A separated in the vertical direction Y1 to each other.
The covering material 111 is a translucent member that can let in at least sunlight, and is made of synthetic resin, glass, or the like. For example, the covering material 111 covers the entire frame 110 from the outside of the frame 110. In other words, the covering material 111 is arranged outside the support member 110A and the connecting member 110B.

機器102は、作物2を栽培する際に使用する様々な機器であって、ハウス101内の温度、湿度、空気流動等を調整することができる機器である。詳しくは、機器102は、換気扇102A、循環扇102B、熱交換装置102C等である。図21、図22に示すように、換気扇102Aは、ハウス101の出入口130側に設置され、外部の空気をハウス101内の空気を外部に排出したり、外部の空気をハウス101内に取り入れる。

循環扇102Bは、ハウス101内に設置されていて、ハウス101内の空気を所定の方向に循環させる。熱交換装置102Cはハウス101の温度を変更可能な装置であり、例えば、ヒートポンプ構成されている。上述した機器102は、一例であり、灌水機器、照明機器、噴霧機器などであってもよいし限定されない。
The equipment 102 is a variety of equipment used when cultivating the crops 2, and is an equipment that can adjust the temperature, humidity, air flow, etc. within the house 101. Specifically, the devices 102 include a ventilation fan 102A, a circulation fan 102B, a heat exchange device 102C, and the like. As shown in FIGS. 21 and 22, the ventilation fan 102A is installed on the entrance/exit 130 side of the house 101, and exhausts outside air from inside the house 101 to the outside or takes outside air into the inside of the house 101.

The circulation fan 102B is installed inside the house 101 and circulates the air inside the house 101 in a predetermined direction. The heat exchange device 102C is a device that can change the temperature of the house 101, and is configured as a heat pump, for example. The device 102 described above is an example, and may be, but is not limited to, an irrigation device, a lighting device, a spray device, or the like.

農業用ロボット1は、施設100内において、栽培場所105で栽培された作物2に対して様々な農作業、例えば、作物2の収穫、肥料散布、農薬散布などの農作業を行う。農業用ロボット1は、自立型のロボットである。
図1~図8は、農業用ロボット1を示している。図8は、農業用ロボットの支援システムを示している。
The agricultural robot 1 performs various agricultural tasks on the crops 2 grown in the cultivation place 105 within the facility 100, such as harvesting the crops 2, spraying fertilizers, and spraying pesticides. The agricultural robot 1 is an independent robot.
1 to 8 show an agricultural robot 1. FIG. FIG. 8 shows an agricultural robot support system.

以下、農業用ロボット1及び農業用ロボットの支援システムについて詳しく説明する。以下の説明において、図1、図2に矢印A1で示す方向を前方、矢印A2で示す方向を後方、矢印A3で示す方向を前後方向として説明する。したがって、図2に矢印B1で示す方向(図1の手前側)が左方であり、図2に矢印B2で示す方向(図1の奥側)が右方である。また、前後方向A3に直交する水平方向を機体幅方向(図2の矢印B3方向)として説明する。 The agricultural robot 1 and the agricultural robot support system will be described in detail below. In the following description, the direction indicated by arrow A1 in FIGS. 1 and 2 is referred to as the front, the direction indicated by arrow A2 is referred to as backward, and the direction indicated by arrow A3 is referred to as the front-back direction. Therefore, the direction shown by the arrow B1 in FIG. 2 (the front side in FIG. 1) is the left side, and the direction shown by the arrow B2 in FIG. 2 (the back side in FIG. 1) is the right side. Further, the horizontal direction perpendicular to the longitudinal direction A3 will be described as the fuselage width direction (direction of arrow B3 in FIG. 2).

図1に示すように、農業用ロボット1は、自律走行する走行体3を有している。走行体3は、機体6と、機体6を走行可能に支持する走行装置7とを有している。
図3、図4に示すように、機体6は、メインフレーム6Aと、原動機フレーム6Bとを有している。メインフレーム6Aは、機体幅方向B3で間隔をあけて配置された一対の第1フレーム6Aaと、各第1フレーム6Aaの下方に間隔をあけて配置された一対の第2フレーム6Abとを有している。第1フレーム6Aaと第2フレーム6Abとは、複数の縦フレーム6Acによって連結されている。縦フレーム6Acは、左の第1フレーム6Aaと左の第2フレーム6Abとの前部間、右の第1フレーム6Aaと右の第2フレーム6Abとの前部間、左の第1フレーム6Aaと左の第2フレーム6Abとの後部間、右の第1フレーム6Aaと右の第2フレーム6Abとの後部間に設けられている。
As shown in FIG. 1, the agricultural robot 1 has a running body 3 that autonomously runs. The traveling body 3 includes a body 6 and a traveling device 7 that supports the body 6 so that the body 6 can travel.
As shown in FIGS. 3 and 4, the fuselage 6 includes a main frame 6A and a prime mover frame 6B. The main frame 6A includes a pair of first frames 6Aa spaced apart from each other in the body width direction B3, and a pair of second frames 6Ab spaced apart below each of the first frames 6Aa. ing. The first frame 6Aa and the second frame 6Ab are connected by a plurality of vertical frames 6Ac. The vertical frame 6Ac is located between the front portions of the left first frame 6Aa and the left second frame 6Ab, between the front portions of the right first frame 6Aa and the right second frame 6Ab, and between the left first frame 6Aa and the front portions. It is provided between the rear portions of the second frame 6Ab on the left and between the rear portions of the first frame 6Aa on the right and the second frame 6Ab on the right.

左の第1フレーム6Aaと右の第1フレーム6Aaとは、第1フレーム6Aa間に配置された第1横フレーム6Ad~第5横フレーム6Ahによって連結されている。第1横フレーム6Ad~第5横フレーム6Ahは、第1フレーム6Aaの前端から後端にわたって前後方向A3で間隔をあけて並行状に配置されている。
第2フレーム6Abの前部同士は、第6横フレーム6Ajによって連結され、第2フレーム6Abの後部同士は、第7横フレーム6Akによって連結されている。
The first frame 6Aa on the left and the first frame 6Aa on the right are connected by a first horizontal frame 6Ad to a fifth horizontal frame 6Ah arranged between the first frames 6Aa. The first lateral frame 6Ad to the fifth lateral frame 6Ah are arranged in parallel at intervals in the front-rear direction A3 from the front end to the rear end of the first frame 6Aa.
The front parts of the second frames 6Ab are connected to each other by a sixth horizontal frame 6Aj, and the rear parts of the second frames 6Ab are connected to each other by a seventh horizontal frame 6Ak.

原動機フレーム6Bは、メインフレーム6Aの下方側に配置されている。原動機フレーム6Bは、前フレーム6Baと、後フレーム6Bbと、複数の連結フレーム6Bcと、複数の取付フレーム6Bdとを有している。前フレーム6Baは、上部が、左及び右の第2フレーム6Abの前部に取り付けられている。後フレーム6Bbは、上部が、左及び右の第2フレーム6Abの前部に取り付けられている。複数の連結フレーム6Bcは、前フレーム6Baと後フレーム6Bbの下部間を連結している。複数の取付フレーム6Bdは、連結フレーム6Bcの前後方向A3中央部に固定されている。 The prime mover frame 6B is arranged below the main frame 6A. The prime mover frame 6B includes a front frame 6Ba, a rear frame 6Bb, a plurality of connection frames 6Bc, and a plurality of attachment frames 6Bd. The upper part of the front frame 6Ba is attached to the front parts of the left and right second frames 6Ab. The upper part of the rear frame 6Bb is attached to the front parts of the left and right second frames 6Ab. The plurality of connection frames 6Bc connect the lower portions of the front frame 6Ba and the rear frame 6Bb. The plurality of attachment frames 6Bd are fixed to the center portion of the connection frame 6Bc in the front-rear direction A3.

図4に示すように、取付フレーム6Bdには、原動機(エンジン)E1が取り付けられている。原動機E1には、油圧ポンプP1が取り付けられている。油圧ポンプP1は、原動機E1で駆動される。また、原動機フレーム6Bには、油圧ポンプP1から吐出する作動油を貯留する作動油タンク(図示省略)が搭載されている。
図5に示すように、メインフレーム6A(機体6)には、走行装置7を制御する複数のコントロールバルブ(第1コントロールバルブCV1~第4コントロールバルブCV4)が搭載されている。
As shown in FIG. 4, a prime mover (engine) E1 is attached to the mounting frame 6Bd. A hydraulic pump P1 is attached to the prime mover E1. Hydraulic pump P1 is driven by prime mover E1. Further, a hydraulic oil tank (not shown) that stores hydraulic oil discharged from the hydraulic pump P1 is mounted on the prime mover frame 6B.
As shown in FIG. 5, a plurality of control valves (first control valve CV1 to fourth control valve CV4) that control the traveling device 7 are mounted on the main frame 6A (airframe 6).

図1、図2、図5に示すように、走行装置7は、4輪の車輪8を有する車輪型(4輪型)の走行装置7で構成されている。詳しくは、走行装置7は、機体6前部の左側に配置された第1車輪8La(左前輪)と、機体6前部の右側に配置された第2車輪8Ra(右前輪)と、機体6後部の左側に配置された第3車輪8Lb(左後輪)と、機体6後部の右側に配置された第4車輪8Rb(右後輪)とを備えている。なお、走行装置7は、少なくとも3輪の車輪8を有する車輪型走行装置で構成されていてもよい。また、走行装置7は、クローラ型の走行装置であってもよい。 As shown in FIGS. 1, 2, and 5, the traveling device 7 includes a wheel-type traveling device 7 having four wheels 8. As shown in FIGS. Specifically, the traveling device 7 includes a first wheel 8La (left front wheel) disposed on the left side of the front part of the body 6, a second wheel 8Ra (right front wheel) disposed on the right side of the front part of the body 6, and a second wheel 8Ra (right front wheel) disposed on the right side of the front part of the body 6. The aircraft includes a third wheel 8Lb (left rear wheel) arranged on the left side of the rear part, and a fourth wheel 8Rb (right rear wheel) arranged on the right side of the rear part of the fuselage 6. Note that the traveling device 7 may be configured as a wheel type traveling device having at least three wheels 8. Moreover, the traveling device 7 may be a crawler type traveling device.

走行装置7は、車輪8を支持する車輪支持体9を有している。車輪支持体9は、車輪8に対応する数設けられている。つまり、走行装置7は、第1車輪8Laを支持する第1車輪支持体9La、第2車輪8Raを支持する第2車輪支持体9Ra、第3車輪8Lbを支持する第3車輪支持体9Lb及び第4車輪8Rbを支持する第4車輪支持体9Rbを有している。 The traveling device 7 has a wheel support 9 that supports wheels 8. The number of wheel supports 9 corresponding to the number of wheels 8 is provided. That is, the traveling device 7 includes a first wheel support 9La that supports the first wheel 8La, a second wheel support 9Ra that supports the second wheel 8Ra, a third wheel support 9Lb that supports the third wheel 8Lb, and a third wheel support 9Lb that supports the third wheel 8Lb. It has a fourth wheel support body 9Rb that supports four wheels 8Rb.

図5、図6に示すように、車輪支持体9は、走行フレーム10と、操向シリンダC1と、第1昇降シリンダC2と、第2昇降シリンダC3と、走行モータM1とを有している。
走行フレーム10は、主支持体10Aと、揺動フレーム10Bと、車輪フレーム10Cとを有している。主支持体10Aは、機体6に縦軸(上下方向に延伸する軸心)回りに可能に支持されている。詳しくは、主支持体10Aは機体6に固定された支持ブラケット11に上下方向に延伸する軸心を有する第1支軸12Aを介して回動可能に支持されている。
As shown in FIGS. 5 and 6, the wheel support 9 includes a running frame 10, a steering cylinder C1, a first lifting cylinder C2, a second lifting cylinder C3, and a running motor M1. .
The traveling frame 10 includes a main support body 10A, a swing frame 10B, and a wheel frame 10C. The main support body 10A is supported by the body 6 so as to be able to rotate around a vertical axis (an axis extending in the vertical direction). Specifically, the main support body 10A is rotatably supported by a support bracket 11 fixed to the body 6 via a first support shaft 12A having an axis extending in the vertical direction.

図5に示すように、第1車輪支持体9Laを枢支する支持ブラケット11は機体6の前部左側に設けられ、第2車輪支持体9Raを枢支する支持ブラケット11は機体6の前部右側に設けられ、第3車輪支持体9Lbを枢支する支持ブラケット11は機体6の後部左側に設けられ、第4車輪支持体9Rbを枢支する支持ブラケット11は機体6の後部右側に設けられている。 As shown in FIG. 5, the support bracket 11 that pivotally supports the first wheel support 9La is provided on the front left side of the fuselage 6, and the support bracket 11 that pivotally supports the second wheel support 9Ra is provided on the front left side of the fuselage 6. The support bracket 11 provided on the right side and pivotally supporting the third wheel support 9Lb is provided on the rear left side of the fuselage 6, and the support bracket 11 pivotally supporting the fourth wheel support 9Rb is provided on the rear right side of the fuselage 6. ing.

揺動フレーム10Bは、主支持体10Aに上下揺動可能に支持されている。詳しくは、揺動フレーム10Bは、上部が主支持体10Aに第2支軸12Bを介して横軸(機体幅方向B3に延伸する軸心)回りに回動可能に支持されている。
第1車輪支持体9La及び第2車輪支持体9Raの揺動フレーム10Bは前上部が主支持体10Aに枢支され、第3車輪支持体9Lb及び第4車輪支持体9Rbの揺動フレーム10Bは後上部が主支持体10Aに枢支されている。
The swing frame 10B is supported by the main support body 10A so as to be swingable up and down. Specifically, the swing frame 10B has an upper portion supported by the main support body 10A so as to be rotatable around a horizontal axis (an axis extending in the body width direction B3) via a second support shaft 12B.
The front upper part of the swing frame 10B of the first wheel support 9La and the second wheel support 9Ra is pivotally supported by the main support 10A, and the swing frame 10B of the third wheel support 9Lb and the fourth wheel support 9Rb is The rear upper part is pivotally supported by the main support body 10A.

車輪フレーム10Cは、揺動フレーム10Bに上下揺動可能に支持されている。詳しくは、車輪フレーム10Cは、揺動フレーム10Bに第3支軸12Cを介して横軸回りに回動可能に支持されている。
第1車輪支持体9La及び第2車輪支持体9Raの車輪フレーム10Cは後部が揺動フレーム10Bの後部に枢支され、第3車輪支持体9Lb及び第4車輪支持体9Rbの車輪フレーム10Cは前部が揺動フレーム10Bの前部に枢支されている。
The wheel frame 10C is supported by the swing frame 10B so as to be swingable up and down. Specifically, the wheel frame 10C is rotatably supported by the swing frame 10B via the third support shaft 12C around the horizontal axis.
The rear parts of the wheel frames 10C of the first wheel support body 9La and the second wheel support body 9Ra are pivoted to the rear part of the swinging frame 10B, and the wheel frames 10C of the third wheel support body 9Lb and the fourth wheel support body 9Rb are supported at the front. is pivotally supported on the front part of the swing frame 10B.

操向シリンダC1、第1昇降シリンダC2及び第2昇降シリンダC3は、油圧シリンダによって構成されている。
操向シリンダC1は、機体6と主支持体10Aとの間に設けられている。詳しくは、操向シリンダC1の一端は、第1フレーム6Aaの前後方向A3中央部に固定されたシリンダブラケット14Aに枢支され、操向シリンダC1の他端は、主支持体10Aに固定されたシリンダブラケット14Bに枢支されている。操向シリンダC1を伸縮することにより走行フレーム10が第1支軸12A回りに揺動し、車輪8(第1車輪8La~第4車輪8Rb)の向きを変更する(操向する)ことができる。本実施形態の走行装置7にあっては、各車輪8を独立して操向可能である。
The steering cylinder C1, the first elevating cylinder C2, and the second elevating cylinder C3 are constituted by hydraulic cylinders.
The steering cylinder C1 is provided between the aircraft body 6 and the main support body 10A. Specifically, one end of the steering cylinder C1 is pivotally supported by a cylinder bracket 14A fixed to the center part of the first frame 6Aa in the longitudinal direction A3, and the other end of the steering cylinder C1 is fixed to the main support 10A. It is pivotally supported by the cylinder bracket 14B. By expanding and contracting the steering cylinder C1, the traveling frame 10 swings around the first support shaft 12A, and the direction of the wheels 8 (first wheel 8La to fourth wheel 8Rb) can be changed (steering). . In the traveling device 7 of this embodiment, each wheel 8 can be independently steered.

第1昇降シリンダC2は、一端が揺動フレーム10Bに枢支され、他端が第1リンク機構15Aに枢支されている。第1リンク機構15Aは、第1リンク15aと第2リンク1
5bとを有している。第1リンク15aの一端は、主支持体10Aに枢支され、第2リンク15bの一端は揺動フレーム10Bに枢支されている。第1リンク15aと第2リンク15bとの他端は、第1昇降シリンダC2の他端に枢支されている。第1昇降シリンダC2を伸縮することにより揺動フレーム10Bが第2支軸12B回りに上下揺動する。
One end of the first elevating cylinder C2 is pivotally supported by the swing frame 10B, and the other end is pivotally supported by the first link mechanism 15A. The first link mechanism 15A includes a first link 15a and a second link 1.
5b. One end of the first link 15a is pivotally supported by the main support body 10A, and one end of the second link 15b is pivotally supported by the swing frame 10B. The other ends of the first link 15a and the second link 15b are pivotally supported by the other end of the first lifting cylinder C2. By expanding and contracting the first elevating cylinder C2, the swing frame 10B swings up and down about the second support shaft 12B.

第2昇降シリンダC3は、一端が揺動フレーム10Bの前部に枢支され、他端が第2リンク機構15Bに枢支されている。第2リンク機構15Bは、第1リンク15cと第2リンク15dとを有している。第1リンク15cの一端は、揺動フレーム10Bに枢支され、第2リンク15dの一端は車輪フレーム10Cに枢支されている。第1リンク15cと第2リンク15dとの他端は、第2昇降シリンダC3の他端に枢支されている。第2昇降シリンダC3を伸縮することにより車輪フレーム10Cが第3支軸12C回りに上下揺動する。 The second elevating cylinder C3 has one end pivoted to the front part of the swing frame 10B, and the other end pivoted to the second link mechanism 15B. The second link mechanism 15B has a first link 15c and a second link 15d. One end of the first link 15c is pivotally supported by the swing frame 10B, and one end of the second link 15d is pivotally supported by the wheel frame 10C. The other ends of the first link 15c and the second link 15d are pivotally supported by the other end of the second lifting cylinder C3. By expanding and contracting the second elevating cylinder C3, the wheel frame 10C swings up and down about the third support shaft 12C.

第1昇降シリンダC2による揺動フレーム10Bの上下揺動と、第2昇降シリンダC3による車輪フレーム10Cの上下揺動とを組み合わせることによって車輪8を平行状に昇降させることができる。
走行モータM1は、油圧モータによって形成されている。走行モータM1は、各車輪8に対応して設けられている。即ち、走行装置7は、第1車輪8Laを駆動する走行モータM1と、第2車輪8Raを駆動する走行モータM1と、第3車輪8Lbを駆動する走行モータM1と、第4車輪8Rbを駆動する走行モータM1とを有している。走行モータM1は、車輪8の機体幅方向B3の内方に配置され、車輪フレーム10Cに取り付けられている。走行モータM1は、油圧ポンプP1から吐出される作動油によって駆動され、正逆転可能である。走行モータM1を正逆転させることにより、車輪8の回転を正転方向と逆転方向とに切り換えることができる。
The wheels 8 can be raised and lowered in parallel by combining the vertical swinging of the swinging frame 10B by the first lifting cylinder C2 and the vertical swinging of the wheel frame 10C by the second lifting cylinder C3.
Travel motor M1 is formed by a hydraulic motor. A traveling motor M1 is provided corresponding to each wheel 8. That is, the traveling device 7 drives the traveling motor M1 that drives the first wheel 8La, the traveling motor M1 that drives the second wheel 8Ra, the traveling motor M1 that drives the third wheel 8Lb, and the fourth wheel 8Rb. It has a traveling motor M1. The traveling motor M1 is arranged inside the wheel 8 in the body width direction B3, and is attached to the wheel frame 10C. The travel motor M1 is driven by hydraulic oil discharged from the hydraulic pump P1, and is capable of forward and reverse rotation. By rotating the travel motor M1 in the forward and reverse directions, the rotation of the wheels 8 can be switched between the forward and reverse directions.

第2車輪支持体9Ra、第3車輪支持体9Lb及び第4車輪支持体9Rbは、第1車輪支持体9Laを構成する構成部品と同様の構成部品を有している。第2車輪支持体9Raは、第1車輪支持体9Laと左右対称に構成されている。第3車輪支持体9Lbは、第2車輪支持体9Raを機体6の中心を通る上下方向のセンタ軸心回りに180°回転させた形態を呈している。第4車輪支持体9Rbは、第1車輪支持体9Laをセンタ軸心回りに180°回転させた形態を呈している。 The second wheel support 9Ra, the third wheel support 9Lb, and the fourth wheel support 9Rb have the same components as those constituting the first wheel support 9La. The second wheel support 9Ra is configured symmetrically with the first wheel support 9La. The third wheel support 9Lb has a configuration obtained by rotating the second wheel support 9Ra by 180° around a vertical center axis passing through the center of the body 6. The fourth wheel support 9Rb is formed by rotating the first wheel support 9La by 180° around the center axis.

第1車輪支持体9Laに装備された油圧アクチュエータは、第1コントロールバルブCV1によって制御される。第2車輪支持体9Raに装備された油圧アクチュエータは、第2コントロールバルブCV2によって制御される。第3車輪支持体9Lbに装備された油圧アクチュエータは、第3コントロールバルブCV3によって制御される。第4車輪支持体9Rbに装備された油圧アクチュエータは、第4コントロールバルブCV4によって制御される。 The hydraulic actuator installed on the first wheel support 9La is controlled by the first control valve CV1. The hydraulic actuator installed on the second wheel support 9Ra is controlled by the second control valve CV2. The hydraulic actuator installed on the third wheel support body 9Lb is controlled by the third control valve CV3. The hydraulic actuator installed on the fourth wheel support body 9Rb is controlled by the fourth control valve CV4.

したがって、第1車輪8La~第4車輪8Rbは、それぞれ独立的に操向可能である。また、第1車輪8La~第4車輪8Rbは、それぞれ独立的に昇降可能である。
上記走行装置7にあっては、第1車輪8La~第4車輪8Rbを操向操作することで走行体3を操向することができる。第1車輪8La~第4車輪8Rbを正転させることで走行体3を前進させることができ、逆転させることにより走行体3を後進させることができる。第1車輪8La~第4車輪8Rbを昇降することにより走行体3を昇降することができる。第1車輪8La及び第2車輪8Raを第3車輪8Lb及び第4車輪8Rbに対して昇降することにより、或いは、第3車輪8Lb及び第4車輪8Rbを第1車輪8La及び第2車輪8Raに対して昇降することにより、機体6を前傾または後傾させることができる。第1車輪8La及び第3車輪8Lbを第2車輪8Ra及び第4車輪8Rbに対して昇降することにより、或いは、第2車輪8Ra及び第4車輪8Rbを第1車輪8La及び第3車輪8Lbに対して昇降することにより、機体6を、機体幅方向B3の一側が他側よりも高い傾斜状にすることができる。
Therefore, the first wheel 8La to the fourth wheel 8Rb can be independently steered. Further, the first wheel 8La to the fourth wheel 8Rb can be raised and lowered independently.
In the traveling device 7, the traveling body 3 can be steered by steering the first wheel 8La to the fourth wheel 8Rb. By rotating the first wheel 8La to the fourth wheel 8Rb in the normal direction, the traveling body 3 can be moved forward, and by rotating them in the reverse direction, the traveling body 3 can be moved backward. The traveling body 3 can be raised and lowered by raising and lowering the first wheel 8La to the fourth wheel 8Rb. By raising and lowering the first wheel 8La and the second wheel 8Ra with respect to the third wheel 8Lb and the fourth wheel 8Rb, or by raising and lowering the third wheel 8Lb and the fourth wheel 8Rb with respect to the first wheel 8La and the second wheel 8Ra. By moving up and down, the body 6 can be tilted forward or backward. By raising and lowering the first wheel 8La and third wheel 8Lb relative to the second wheel 8Ra and fourth wheel 8Rb, or by moving the second wheel 8Ra and fourth wheel 8Rb relative to the first wheel 8La and third wheel 8Lb. By raising and lowering the fuselage 6, the fuselage 6 can be tilted so that one side in the fuselage width direction B3 is higher than the other side.

農業用ロボット1は、走行体3に装着されたマニピュレータ(作業部)4を備えている。マニピュレータ(作業部)4は、作業を行う部分であって、例えば、本実施形態では、少なくとも作物2の収穫を行うことが可能な装置である。
図3、図4に示すように、マニピュレータ4は、走行体3(機体6)に着脱可能に装着された装着体16と、装着体16に取り付けられたアーム17と、アーム17に設けられていて作物(対象物)2を把持可能なロボットハンド18とを備えている。
The agricultural robot 1 includes a manipulator (work unit) 4 mounted on a running body 3. The manipulator (work unit) 4 is a part that performs work, and for example, in this embodiment, it is a device that can at least harvest the crops 2.
As shown in FIGS. 3 and 4, the manipulator 4 includes a mounting body 16 that is detachably attached to the traveling body 3 (aircraft body 6), an arm 17 attached to the mounting body 16, and an arm 17 provided on the arm 17. The robot hand 18 is equipped with a robot hand 18 that can grip the crop (object) 2 with a hand.

図1に示すように、装着体16は、本実施形態では、走行体3の後部に設けられている。なお、装着体16は、走行体3の前部に設けられていてもよい。つまり、走行体3における前後方向A3の中央部から一方側に偏倚して設けられていればよい。また、本実施形態では、農業用ロボット1は、走行体3を前方に進行させて収穫作業を行うので、装着体16は、進行方向とは反対側の方向である進行逆方向側に偏倚して設けられている。装着体16は、箱型に形成されていて走行体3に対して着脱可能である。 As shown in FIG. 1, the mounting body 16 is provided at the rear of the traveling body 3 in this embodiment. Note that the mounting body 16 may be provided at the front part of the traveling body 3. In other words, it is only necessary to provide it so as to be offset to one side from the central portion of the traveling body 3 in the front-rear direction A3. Furthermore, in this embodiment, the agricultural robot 1 performs harvesting work by moving the traveling body 3 forward, so the mounted body 16 is biased in the opposite direction of travel, which is the direction opposite to the direction of travel. It is provided. The mounting body 16 is formed in a box shape and can be attached to and detached from the traveling body 3.

装着体16には、回動フレーム21が立設されている。回動フレーム21は、装着体16の内部に設けられた回動モータM2によって回動軸心J1の周囲を回動可能である。回動フレーム21を回動させることにより、ロボットハンド18を回動軸心J1を中心とする円周方向に移動(位置変更)させることができる。
図3、図4に示すように、アーム17は、回動フレーム21に上下揺動可能に支持されると共に長手方向の中途部で屈伸可能である。アーム17は、メインアーム29とサブアーム30とを有している。
A rotating frame 21 is provided upright on the mounting body 16 . The rotation frame 21 can be rotated around a rotation axis J1 by a rotation motor M2 provided inside the mounting body 16. By rotating the rotation frame 21, the robot hand 18 can be moved (changed in position) in the circumferential direction around the rotation axis J1.
As shown in FIGS. 3 and 4, the arm 17 is supported by the rotating frame 21 so as to be able to swing up and down, and can be bent and extended at an intermediate portion in the longitudinal direction. The arm 17 has a main arm 29 and a sub arm 30.

メインアーム29は、回動フレーム21に上下揺動可能に枢支され、屈伸可能である。詳しくは、メインアーム29は、回動フレーム21に上下揺動可能に枢支された第1アーム部31と、第1アーム部31に揺動可能に枢支された第2アーム部32とを有し、第1アーム部31に対して第2アーム部32が揺動することで屈伸可能とされている。
第1アーム部31は、基部側31aがアームブラケット26に枢支されている。第1アーム部31は、図3に示すように、第1アームフレーム31L及び第2アームフレーム31Rを有している。第1アームフレーム31L及び第2アームフレーム31Rは、機体幅方向B3で並べて配置され且つ連結パイプ31A等で相互に連結されている。第1アームフレーム31Lと第2アームフレーム31Rとの基部側31a間にアームブラケット26の上部が挿入され、機体幅方向B3に延伸する軸心を有するアーム枢軸33A(第1アーム枢軸という)を介して第1アームフレーム31L及び第2アームフレーム31Rの基部側31aがアームブラケット26に第1アーム枢軸33Aの軸心回りに回動可能に支持されている。
The main arm 29 is pivotally supported by the rotating frame 21 so as to be able to swing up and down, and can be bent and extended. Specifically, the main arm 29 includes a first arm portion 31 that is pivotably supported on the rotating frame 21 so as to be able to swing up and down, and a second arm portion 32 that is pivotably supported on the first arm portion 31 so as to be pivotable. The second arm portion 32 swings relative to the first arm portion 31 to be able to bend and extend.
The first arm portion 31 has a base side 31a pivotally supported by the arm bracket 26. As shown in FIG. 3, the first arm section 31 has a first arm frame 31L and a second arm frame 31R. The first arm frame 31L and the second arm frame 31R are arranged side by side in the body width direction B3 and are connected to each other by a connecting pipe 31A or the like. The upper part of the arm bracket 26 is inserted between the base side 31a of the first arm frame 31L and the second arm frame 31R, and is inserted through an arm pivot 33A (referred to as a first arm pivot) having an axis extending in the body width direction B3. The base sides 31a of the first arm frame 31L and the second arm frame 31R are supported by the arm bracket 26 so as to be rotatable around the axis of the first arm pivot 33A.

第1アームフレーム31L及び第2アームフレーム31Rは中空部材で形成されている。第1アーム部31の長さは、走行体3(機体6)の前後方向A3の長さよりも短く形成されている。
図4に示すように、第1アーム部31は、基部側31aであって且つ第1アーム枢軸33Aよりも先端側31c寄りに、シリンダ取付部31bを有している。このシリンダ取付部31bとシリンダブラケット27のシリンダ取付部27aとにわたって第1アームシリンダ(第1油圧シリンダ)C4が設けられている。第1アームシリンダC4は、走行体3に設けた油圧ポンプP1から吐出される作動油によって駆動されて伸縮する。第1アームシリンダC4を伸縮させることで第1アーム部31が上下揺動する。第1アーム部31(アーム17)を上下揺動させることにより、ロボットハンド18を昇降させることができる。第1アームシリンダC4には、第1アームシリンダC4のストロークを検出する第1ストロークセンサが設けられている。
The first arm frame 31L and the second arm frame 31R are formed of hollow members. The length of the first arm portion 31 is formed shorter than the length of the traveling body 3 (body 6) in the longitudinal direction A3.
As shown in FIG. 4, the first arm portion 31 has a cylinder attachment portion 31b on the base side 31a and closer to the tip side 31c than the first arm pivot 33A. A first arm cylinder (first hydraulic cylinder) C4 is provided across this cylinder mounting portion 31b and the cylinder mounting portion 27a of the cylinder bracket 27. The first arm cylinder C4 is driven by hydraulic oil discharged from a hydraulic pump P1 provided in the traveling body 3, and expands and contracts. The first arm portion 31 swings up and down by expanding and contracting the first arm cylinder C4. By vertically swinging the first arm portion 31 (arm 17), the robot hand 18 can be raised and lowered. The first arm cylinder C4 is provided with a first stroke sensor that detects the stroke of the first arm cylinder C4.

図4に示すように、第1アーム部31の先端側31cには、枢支部材31Bが固定されている。詳しくは、枢支部材31Bは、基部31Baが第1アームフレーム31Lと第2アームフレーム31Rとの間に挿入されて第1アームフレーム31L及び第2アームフレーム31Rに固定されている。枢支部材31Bの基部31Baの下面側には、シリンダステー34が取り付けられている。枢支部材31Bの先端側31Bbは、第1アームフレーム31L及び第2アームフレーム31Rから前方に突出している。 As shown in FIG. 4, a pivot member 31B is fixed to the distal end side 31c of the first arm portion 31. As shown in FIG. Specifically, the base 31Ba of the pivot member 31B is inserted between the first arm frame 31L and the second arm frame 31R, and is fixed to the first arm frame 31L and the second arm frame 31R. A cylinder stay 34 is attached to the lower surface side of the base 31Ba of the pivot member 31B. A distal end side 31Bb of the pivot member 31B projects forward from the first arm frame 31L and the second arm frame 31R.

図3に示すように、第2アーム部32の長さは、第1アーム部31の長さよりも長く形成されている。第2アーム部32は、基部側32aが枢支部材31Bの先端側31Bbに枢支されている。第2アーム部32は、第3アームフレーム32L及び第4アームフレー
ム32Rを有している。第3アームフレーム32L及び第4アームフレーム32Rは、機体幅方向B3で並べて配置され且つ複数の連結プレート35によって相互に連結されている。第3アームフレーム32L及び第4アームフレーム32Rは中空部材で形成されている。第3アームフレーム32Lと第4アームフレーム32Rとの基部側32a間に枢支部材31Bの先端側31Bbが挿入されている。第3アームフレーム32L及び第4アームフレーム32R(第2アーム部32)は、機体幅方向B3に延伸する軸心を有するアーム枢軸(第2アーム枢軸という)33Bによって枢支部材31Bに枢支されている。
As shown in FIG. 3, the length of the second arm part 32 is longer than the length of the first arm part 31. A base side 32a of the second arm portion 32 is pivotally supported by a distal end side 31Bb of a pivot member 31B. The second arm portion 32 has a third arm frame 32L and a fourth arm frame 32R. The third arm frame 32L and the fourth arm frame 32R are arranged side by side in the body width direction B3 and are connected to each other by a plurality of connection plates 35. The third arm frame 32L and the fourth arm frame 32R are formed of hollow members. The distal end side 31Bb of the pivot member 31B is inserted between the base side 32a of the third arm frame 32L and the fourth arm frame 32R. The third arm frame 32L and the fourth arm frame 32R (second arm portion 32) are pivotally supported on the pivot member 31B by an arm pivot (referred to as a second arm pivot) 33B having an axis extending in the body width direction B3. ing.

第2アーム部32の基部側32aであって第2アーム枢軸33Bよりも先端側32b寄りには、シリンダ取付部32cが設けられている。このシリンダ取付部32cとシリンダステー34とにわたって第2アームシリンダ(第2油圧シリンダ)C5が設けられている。第2アームシリンダC5は、走行体3に設けた油圧ポンプP1から吐出される作動油によって駆動されて伸縮する。第2アームシリンダC5を伸縮させることで第1アーム部31に対して第2アーム部32が揺動し、メインアーム29(アーム17)が屈伸(曲げたり伸ばしたりすること)する。なお、本実施形態では、メインアーム29は、最も伸びた状態で直線状となるが、最も伸びた状態で若干曲がっていてもよい。 A cylinder attachment portion 32c is provided on the base side 32a of the second arm portion 32 and closer to the tip side 32b than the second arm pivot 33B. A second arm cylinder (second hydraulic cylinder) C5 is provided between the cylinder mounting portion 32c and the cylinder stay 34. The second arm cylinder C5 is driven by hydraulic oil discharged from a hydraulic pump P1 provided in the traveling body 3, and expands and contracts. By expanding and contracting the second arm cylinder C5, the second arm section 32 swings relative to the first arm section 31, and the main arm 29 (arm 17) bends and stretches (bends and extends). In this embodiment, the main arm 29 is straight in its most extended state, but may be slightly curved in its most extended state.

また、第2アームシリンダC5を伸縮させることで走行体3に対してロボットハンド18を遠近方向に移動させることができる。詳しくは、第2アームシリンダC5を伸長させることでロボットハンド18を走行体3から遠ざける方向に移動させることができ、第2アームシリンダC5を収縮させることでロボットハンド18を走行体3に近づける方向に移動させることができる。 Further, by expanding and contracting the second arm cylinder C5, the robot hand 18 can be moved in the distance direction with respect to the traveling body 3. Specifically, by extending the second arm cylinder C5, the robot hand 18 can be moved away from the traveling body 3, and by contracting the second arm cylinder C5, the robot hand 18 can be moved closer to the traveling body 3. can be moved to

図4に示すように、第2アームシリンダC5には、第2アームシリンダC5のストロークを検出する第2ストロークセンサが設けられている。
サブアーム30は、第2アーム部32に突出及び後退可能に設けられている。したがって、サブアーム30を突出及び後退させることにより、アーム17の長さが伸縮可能である。サブアーム30は、角パイプによって直線状に形成されている。サブアーム30は、第3アームフレーム32Lと第4アームフレーム32Rとの先端側(前部)間に長手方向移動可能に支持されている。また、サブアーム30は、対向する連結プレート35の間に配置されていて連結プレート35にボルト等の固定具によって固定可能とされている。サブアーム30の一側面には、第3アームフレーム32Lに当接する突起30aが設けられ、他側面には、第4アームフレーム32Rに当接する突起30aが設けられている。突起30aによってサブアーム30のがたつきを抑制することができる。
As shown in FIG. 4, the second arm cylinder C5 is provided with a second stroke sensor that detects the stroke of the second arm cylinder C5.
The sub-arm 30 is provided on the second arm portion 32 so as to be able to protrude and retreat. Therefore, by protruding and retracting the sub-arm 30, the length of the arm 17 can be expanded and contracted. The sub-arm 30 is formed into a straight line by a square pipe. The sub-arm 30 is supported so as to be movable in the longitudinal direction between the distal end sides (front parts) of the third arm frame 32L and the fourth arm frame 32R. Further, the sub-arm 30 is arranged between the opposing connecting plates 35 and can be fixed to the connecting plates 35 with a fixing device such as a bolt. One side of the sub-arm 30 is provided with a protrusion 30a that abuts the third arm frame 32L, and the other side is provided with a protrusion 30a that abuts the fourth arm frame 32R. The protrusion 30a can suppress wobbling of the sub-arm 30.

サブアーム30は、最も後退させた位置(最後退位置)では、第3アームフレーム32Lと第4アームフレーム32Rとの間に没入する。なお、サブアーム30は、最後退位置で第2アーム部32から若干突出していてもよい。
図4に示すように、サブアーム30の先端側には、吊りプレート37が固定されている。吊りプレート37にロボットハンド18が枢支され、吊り下げられる(図1参照)。つまり、ロボットハンド18は、サブアーム30の先端側に揺動可能に取り付けられる。第2アーム部32の先端側には、サブアーム30の第2アーム部32からの突出量を測定(検出)する第3ストロークセンサが設けられている。
At the most retracted position (most retracted position), the sub-arm 30 is inserted between the third arm frame 32L and the fourth arm frame 32R. Note that the sub-arm 30 may protrude slightly from the second arm portion 32 at the most retracted position.
As shown in FIG. 4, a suspension plate 37 is fixed to the tip side of the sub-arm 30. The robot hand 18 is pivotally supported and suspended from the suspension plate 37 (see FIG. 1). That is, the robot hand 18 is swingably attached to the tip side of the sub-arm 30. A third stroke sensor that measures (detects) the amount of protrusion of the sub-arm 30 from the second arm portion 32 is provided on the tip side of the second arm portion 32 .

図1、図2に示すように、ロボットハンド18は、ベース部材18Aと、複数の把持ツメ18Bとを有している。ベース部材18Aの上面側には連結片63が設けられている。連結片63は吊りプレート37に枢支されている。つまり、ロボットハンド18はアーム17に吊り下げられている。複数の把持ツメ18Bは、ベース部材18Aの下面側に揺動可能に取り付けられている。ロボットハンド18は、複数の把持ツメ18Bが揺動することにより、把持ツメ18Bと把持ツメ18Bとの間で作物2を把持することが可能(図2参照)であると共に、把持した作物2を解放することが可能である。 As shown in FIGS. 1 and 2, the robot hand 18 includes a base member 18A and a plurality of gripping claws 18B. A connecting piece 63 is provided on the upper surface side of the base member 18A. The connecting piece 63 is pivotally supported by the hanging plate 37. In other words, the robot hand 18 is suspended from the arm 17. The plurality of gripping claws 18B are swingably attached to the lower surface side of the base member 18A. The robot hand 18 is capable of grasping the crop 2 between the grasping claws 18B by swinging the plurality of grasping claws 18B (see FIG. 2), and also allows the grasped crop 2 to be held by the robot hand 18. It is possible to release it.

図1、図2に示すように、農業用ロボット1は、光学式センサ5A、5Bを備えている。光学式センサ5A、5Bは、CCD(Charge Coupled Devices:電荷結合素子)イメージセンサを搭載したCCDカメラ、CMOS(Complementary Metal Oxide Semiconductor:相補性金属酸化膜半導体)イメージセンサを搭載したCMOSカメラ、赤外線カメラ
である。この実施形態では、光学式センサ5A、5Bは、撮像装置(CCDカメラ、CMOSカメラ、赤外線カメラ)である。光学式センサ5A、5Bは、レーザセンサ、即ち、ライダー(LiDAR: Light Detection And Ranging)であってもよい。レーザセンサ(ライダー)は、1秒間に何百万回ものパルス状の赤外線等を照射し、跳ね返って戻ってくるまでの時間を測定することで、走行体3周辺の3Dマップを構築することができるセンサである。この実施形態では、光学式センサ5A、5Bは、撮像装置(CCDカメラ、CMOSカメラ、赤外線カメラ)である。
As shown in FIGS. 1 and 2, the agricultural robot 1 includes optical sensors 5A and 5B. The optical sensors 5A and 5B are a CCD camera equipped with a CCD (Charge Coupled Devices) image sensor, a CMOS camera equipped with a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an infrared camera. It is. In this embodiment, the optical sensors 5A, 5B are imaging devices (CCD camera, CMOS camera, infrared camera). The optical sensors 5A and 5B may be laser sensors, that is, lidar (Light Detection And Ranging). The laser sensor (lidar) can construct a 3D map around the traveling object 3 by emitting pulsed infrared rays millions of times per second and measuring the time it takes for it to bounce back. It is a sensor that can In this embodiment, the optical sensors 5A, 5B are imaging devices (CCD camera, CMOS camera, infrared camera).

光学式センサ5Aは、回動フレーム21に取り付けられている。詳しくは、アームブラケット26の上部に支柱40を介して取り付けられている。これに限定されることはなく、光学式センサ5Aは、走行体3等に取り付けてもよい。また、光学式センサ5Aは複数箇所に設けられていてもよい。つまり、農業用ロボット1は、光学式センサ5Aを複数有していてもよい。光学式センサ5Aは、走行体3の周囲を撮影可能であって、走行体3の周囲の情報を撮影によって取得する。 The optical sensor 5A is attached to the rotating frame 21. Specifically, it is attached to the upper part of the arm bracket 26 via a support 40. The present invention is not limited to this, and the optical sensor 5A may be attached to the traveling body 3 or the like. Moreover, the optical sensor 5A may be provided at multiple locations. That is, the agricultural robot 1 may have a plurality of optical sensors 5A. The optical sensor 5A is capable of photographing the surroundings of the traveling body 3, and acquires information about the surroundings of the traveling body 3 by photographing.

光学式センサ5Bは、第2アーム部32の先端側に取り付けられている。光学式センサ5Bは、作物2を撮像することによって、例えば、作物2の大きさ、形、色、模様(スイカにあっては縞模様)、傷などの品質情報を取得することができる。
図1、図2に示すように、農業用ロボット1は、打音センサ50Cを備えている。打音センサ50Cは、作物2に打撃を与えた(作物2を叩いた)ときの打音を取得するセンサである。図7に示すように、打音センサ50Cは、ロボットハンド18(ベース部材18A)に設けられている。
The optical sensor 5B is attached to the tip side of the second arm portion 32. By imaging the crop 2, the optical sensor 5B can acquire quality information such as the size, shape, color, pattern (striped pattern in the case of watermelons), and scratches of the crop 2, for example.
As shown in FIGS. 1 and 2, the agricultural robot 1 includes a hitting sound sensor 50C. The hitting sound sensor 50C is a sensor that acquires the hitting sound when the crop 2 is hit (hitting the crop 2). As shown in FIG. 7, the hitting sound sensor 50C is provided on the robot hand 18 (base member 18A).

打音センサ50Cは、打撃機構51と、録音機構52とを有している。打撃機構51は、把持ツメ18Bで把持された作物2に対して進退可能な打撃部材51Aを有している。打撃部材51Aは、当該打撃部材51Aを軸方向に移動させるアクチュエータ51Bに連結されている。アクチュエータ51Bは、例えば、電動であって、制御信号に応じて打撃部材51Aを軸方向に移動させることで、作物2に打撃を与えて打音を発生させる。録音機構52は、マイク(高指向性マイク)を有し、打撃部材51Aで作物2を打撃することによって発生した打音を録音(記録)する。 The hitting sound sensor 50C includes a hitting mechanism 51 and a recording mechanism 52. The striking mechanism 51 has a striking member 51A that can advance and retreat with respect to the crop 2 gripped by the gripping claws 18B. The striking member 51A is connected to an actuator 51B that moves the striking member 51A in the axial direction. The actuator 51B is, for example, electric and moves the striking member 51A in the axial direction in response to a control signal to strike the crop 2 and generate a striking sound. The recording mechanism 52 has a microphone (highly directional microphone) and records the hitting sound generated by hitting the crop 2 with the hitting member 51A.

図8に示すように、農業用ロボット1は、制御装置41を有している。制御装置41は、例えば、CPU(Central Processing Unit)、EEPROM(Electrically Erasable
Programmable Read-Only Memory)などを備えたマイクロコンピュータ等である。
制御装置41には、光学式センサ5A、5B、打音センサ50C、走行モータM1、回動モータM2が接続されている。また、制御装置41には、複数の制御弁42が接続されている。制御弁42は、第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D、第5制御弁42Eを含んでいる。
As shown in FIG. 8, the agricultural robot 1 includes a control device 41. The control device 41 includes, for example, a CPU (Central Processing Unit), an EEPROM (Electrically Erasable
A microcomputer, etc. equipped with a programmable read-only memory (programmable read-only memory), etc.
The control device 41 is connected to the optical sensors 5A and 5B, the hitting sound sensor 50C, the travel motor M1, and the rotation motor M2. Further, a plurality of control valves 42 are connected to the control device 41. The control valve 42 includes a first control valve 42A, a second control valve 42B, a third control valve 42C, a fourth control valve 42D, and a fifth control valve 42E.

第1制御弁42Aは、操向シリンダC1を制御する弁、第2制御弁42Bは、第1昇降シリンダC2を制御する弁、第3制御弁42Cは、第2昇降シリンダC3を制御する弁、第4制御弁42Dは、第1アームシリンダC4を制御する弁、第5制御弁42Eは、第2アームシリンダC5を制御する弁である。
第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eは、例えば、制御装置41からの制御信号に基づいて作動する電磁弁である。より詳しくは、第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eは、制御信号によって複数の位置に切り換わる電磁弁(3位置切換電磁弁)である。
The first control valve 42A is a valve that controls the steering cylinder C1, the second control valve 42B is a valve that controls the first lifting cylinder C2, and the third control valve 42C is a valve that controls the second lifting cylinder C3. The fourth control valve 42D is a valve that controls the first arm cylinder C4, and the fifth control valve 42E is a valve that controls the second arm cylinder C5.
The first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E are, for example, electromagnetic valves that operate based on a control signal from the control device 41. More specifically, the first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E are electromagnetic valves (3-position switching (Solenoid valve).

制御装置41が第1制御弁42Aに制御信号を出力すると、制御信号に応じて第1制御弁42Aが所定位置に切り換わる。制御装置41が第2制御弁42Bに制御信号を出力すると、制御信号に応じて第2制御弁42Bが所定位置に切り換わる。
また、制御装置41が第3制御弁42Cに制御信号を出力すると、制御信号に応じて第3制御弁42Cが所定位置に切り換わる。制御装置41が第4制御弁42Dに制御信号を出力すると、制御信号に応じて第4制御弁42Dが所定位置に切り換わる。制御装置41が第5制御弁42Eに制御信号を出力すると、制御信号に応じて第5制御弁42Eが所定
位置に切り換わる。
When the control device 41 outputs a control signal to the first control valve 42A, the first control valve 42A is switched to a predetermined position according to the control signal. When the control device 41 outputs a control signal to the second control valve 42B, the second control valve 42B is switched to a predetermined position in response to the control signal.
Further, when the control device 41 outputs a control signal to the third control valve 42C, the third control valve 42C is switched to a predetermined position according to the control signal. When the control device 41 outputs a control signal to the fourth control valve 42D, the fourth control valve 42D is switched to a predetermined position according to the control signal. When the control device 41 outputs a control signal to the fifth control valve 42E, the fifth control valve 42E is switched to a predetermined position according to the control signal.

第1制御弁42A、第2制御弁42B、第3制御弁42C、第4制御弁42D及び第5制御弁42Eには、油路46が接続され、当該油路46には、作動油を吐出する油圧ポンプP1が接続されている。
以上によれば、第1制御弁42Aの切り換わりによって、操向シリンダC1のボトム側又はロッド側への作動油の供給が切り換わり、操向シリンダC1が伸縮する。第2制御弁42Bの切り換わりによって、第1昇降シリンダC2のボトム側又はロッド側への作動油の供給が切り換わり、第1昇降シリンダC2が伸縮する。第3制御弁42Cの切り換わりによって、第2昇降シリンダC3のボトム側又はロッド側への作動油の供給が切り換わり、第2昇降シリンダC3が伸縮する。
An oil passage 46 is connected to the first control valve 42A, the second control valve 42B, the third control valve 42C, the fourth control valve 42D, and the fifth control valve 42E, and hydraulic oil is discharged to the oil passage 46. A hydraulic pump P1 is connected.
According to the above, by switching the first control valve 42A, the supply of hydraulic oil to the bottom side or the rod side of the steering cylinder C1 is switched, and the steering cylinder C1 expands and contracts. By switching the second control valve 42B, the supply of hydraulic oil to the bottom side or the rod side of the first lifting cylinder C2 is switched, and the first lifting cylinder C2 expands and contracts. By switching the third control valve 42C, the supply of hydraulic oil to the bottom side or the rod side of the second lifting cylinder C3 is switched, and the second lifting cylinder C3 expands and contracts.

また、第4制御弁42Dの切り換わりによって、第1アームシリンダC4のボトム側又はロッド側への作動油の供給が切り換わり、第1アームシリンダC4が伸縮する。第5制御弁42Eの切り換わりによって、第2アームシリンダC5のボトム側又はロッド側への作動油の供給が切り換わり、第2アームシリンダC5が伸縮する。
農業用ロボット1は、走行制御部41Aを有している。走行制御部41Aは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
Further, by switching the fourth control valve 42D, the supply of hydraulic oil to the bottom side or the rod side of the first arm cylinder C4 is switched, and the first arm cylinder C4 expands and contracts. By switching the fifth control valve 42E, the supply of hydraulic oil to the bottom side or the rod side of the second arm cylinder C5 is switched, and the second arm cylinder C5 expands and contracts.
The agricultural robot 1 has a travel control section 41A. The travel control unit 41A is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.

走行制御部41Aは、走行装置7を制御する。即ち、走行制御部41Aは、操向シリンダC1(第1制御弁42A)、走行モータM1を制御する。走行制御部41Aは、第1制御弁42Aに制御信号を出力して、操向シリンダC1を伸縮させることによって、走行装置7(機体6)の操舵方向の変更を行う。走行制御部41Aは、走行モータM1に制御信号を出力して、走行モータM1の回転数又は回転方向を変更することにより、走行装置7(機体6)の速度の変更、走行装置7(機体6)の進行方向の変更を行う。 The traveling control unit 41A controls the traveling device 7. That is, the travel control section 41A controls the steering cylinder C1 (first control valve 42A) and the travel motor M1. The travel control unit 41A changes the steering direction of the travel device 7 (airframe 6) by outputting a control signal to the first control valve 42A and expanding or contracting the steering cylinder C1. The traveling control unit 41A outputs a control signal to the traveling motor M1 to change the rotation speed or rotation direction of the traveling motor M1, thereby changing the speed of the traveling device 7 (aircraft body 6) and changing the speed of the traveling device 7 (aircraft body 6). ) to change the direction of travel.

また、走行制御部41Aは、機体6の昇降、傾き等の制御を行ってもよい。例えば、走行制御部41Aは、第2制御弁42Bに制御信号を出力して、第1昇降シリンダC2を伸縮することによって、機体6の昇降、傾きの変更を行う。また、走行制御部41Aは、第3制御弁42Cに制御信号を出力して、第2昇降シリンダC3を伸縮することによって、機体6の昇降、傾きの変更を行う。 Further, the traveling control unit 41A may control the elevation, descent, tilt, etc. of the aircraft body 6. For example, the traveling control unit 41A outputs a control signal to the second control valve 42B to expand and contract the first lifting cylinder C2, thereby changing the elevation and inclination of the aircraft body 6. Further, the traveling control unit 41A outputs a control signal to the third control valve 42C to expand and contract the second lifting cylinder C3, thereby changing the elevation and inclination of the aircraft body 6.

以上のように、走行制御部41Aの制御によって、農業用ロボット1は、施設100など自立走行することができる。
農業用ロボット1は、作業制御部41Bを有している。作業制御部41Bは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
作業制御部41Bは、マニピュレータ(作業部)4を制御する。即ち、作業制御部41Bは、第1アームシリンダC4、第2アームシリンダC5、回動モータM2を制御する。作業制御部41Bは、第4制御弁42Dに制御信号を出力して、第1アームシリンダC4を伸縮させることによって、第1アーム部31の揺動を行う。作業制御部41Bは、第5制御弁42Eに制御信号を出力して、第2アームシリンダC5を伸縮させることによって、第2アーム部32の揺動を行う。また、作業制御部41Bは、回動モータM2に制御信号を出力することによって、回動モータM2の回転方向を変更することにより、マニピュレータ(作業部)4の回動を行う。
As described above, the agricultural robot 1 can independently travel around the facility 100 under the control of the travel control unit 41A.
The agricultural robot 1 has a work control section 41B. The work control unit 41B is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.
The work control unit 41B controls the manipulator (work unit) 4. That is, the work control unit 41B controls the first arm cylinder C4, the second arm cylinder C5, and the rotation motor M2. The work control section 41B swings the first arm section 31 by outputting a control signal to the fourth control valve 42D to expand and contract the first arm cylinder C4. The work control section 41B swings the second arm section 32 by outputting a control signal to the fifth control valve 42E and expanding and contracting the second arm cylinder C5. Further, the work control unit 41B rotates the manipulator (work unit) 4 by outputting a control signal to the rotation motor M2 and changing the rotation direction of the rotation motor M2.

以上のように、作業制御部41Bは、ロボットハンド18を任意(所望)の位置に移動させることができる。詳しくは、回動フレーム21の回動による回動軸心J1を中心とする円周方向のロボットハンド18の移動、第1アーム部31の上下揺動によるロボットハンド18の昇降、第2アーム部32の揺動によるロボットハンド18の走行体3に対する遠近方向の移動によって、ロボットハンド18を目的の位置に移動させることができる。 As described above, the work control unit 41B can move the robot hand 18 to any (desired) position. Specifically, the movement of the robot hand 18 in the circumferential direction around the rotation axis J1 due to the rotation of the rotation frame 21, the lifting and lowering of the robot hand 18 due to the vertical swing of the first arm section 31, and the movement of the robot hand 18 in the circumferential direction around the rotation axis J1 due to the rotation of the rotation frame 21, and the movement of the robot hand 18 in the circumferential direction around the rotation axis J1 due to the rotation of the rotation frame 21; The robot hand 18 can be moved to a desired position by moving the robot hand 18 in the distance direction relative to the traveling body 3 due to the swinging of the robot hand 32 .

作業制御部41Bは、アクチュエータ51B(打撃部材51A)を制御する。例えば、アクチュエータ51Bに制御信号を出力することで、アクチュエータ51Bを作動させ、打撃部材51Aによって作物2に対して打撃を与える制御(打撃制御)を行う。
農業用ロボット1は、作物推定部141Iを備えている。作物推定部141Iは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。
The work control unit 41B controls the actuator 51B (impacting member 51A). For example, by outputting a control signal to the actuator 51B, the actuator 51B is actuated, and control for striking the crops 2 with the striking member 51A (blow control) is performed.
The agricultural robot 1 includes a crop estimation section 141I. The crop estimation unit 141I is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.

作物推定部141Iは、光学式センサ5A又は光学式センサ5Bで得られたセンシングデータに基づいて、少なくとも作物2の姿勢を推定する。光学式センサ5A又は光学式センサ5Bが撮像装置である場合、センシングデータは、撮像した撮像画像(画像データ)である。光学式センサ5A又は光学式センサ5Bがレーザセンサ(ライダー)である場合、センシングデータは、光学式センサ5A又は光学式センサ5Bからセンシングした対象物(物体)までの距離、方向を含むスキャンデータである。 The crop estimation unit 141I estimates at least the posture of the crop 2 based on sensing data obtained by the optical sensor 5A or the optical sensor 5B. When the optical sensor 5A or the optical sensor 5B is an imaging device, the sensing data is a captured image (image data). When the optical sensor 5A or optical sensor 5B is a laser sensor (lidar), the sensing data is scan data including the distance and direction from the optical sensor 5A or optical sensor 5B to the sensed object (object). be.

さて、図9に示すように、農業用ロボット1によって収穫などの作業を行う場合、施設100内において、農業用ロボット1を栽培場所105の間の通路106を走行させる。例えば、作業時において、農業用ロボット1を作業開始点P11から作業終了点P12まで栽培場所105(通路106)に沿って農業用ロボット1を走行させる。
農業用ロボット1を走行させる際、作物推定部141Iは、光学式センサ5A又は光学式センサ5Bで得られたセンシングデータ(撮像画像、スキャンデータ)H11を参照して、少なくとも作物2の姿勢を推定する。
Now, as shown in FIG. 9, when the agricultural robot 1 performs work such as harvesting, the agricultural robot 1 is moved along a passage 106 between cultivation sites 105 within the facility 100. For example, during work, the agricultural robot 1 is caused to travel along the cultivation place 105 (pathway 106) from a work start point P11 to a work end point P12.
When the agricultural robot 1 runs, the crop estimation unit 141I estimates at least the posture of the crop 2 by referring to the sensing data (captured image, scan data) H11 obtained by the optical sensor 5A or the optical sensor 5B. do.

以下、作物推定部141Iについて詳しく説明する。
作物推定部141Iは、データ抽出部185と、推定部186とを有している。データ抽出部185は、図11に示すようなセンシングデータ(撮像画像、スキャンデータ)H11に基づいて推定する作物2を特定し且つセンシングデータ(撮像画像、スキャンデータ)H11のうち特定した作物2の周囲のデータを部分データH13として抽出する。
The crop estimation unit 141I will be explained in detail below.
The crop estimation section 141I includes a data extraction section 185 and an estimation section 186. The data extraction unit 185 specifies the crop 2 to be estimated based on the sensing data (captured image, scan data) H11 as shown in FIG. Surrounding data is extracted as partial data H13.

図10に示すように、栽培場所105で栽培している作物2に対して作業を行うために、農業用ロボット1を進行方向に向けて自立走行をさせると、データ抽出部185は、センシングデータH11を参照し、推定する作物2の特定を行う。図11に示すように、データ抽出部185は、参照したセンシングデータH11に作物2の一部が含まれているか否かを判断する。具体的には、センシングデータH11が撮像画像である場合、撮像画像の特徴量のマッチング、パターンマッチング等により、撮像画像内において、推定する作物2を特定する。 As shown in FIG. 10, when the agricultural robot 1 is made to run autonomously in the direction of travel in order to work on the crops 2 being cultivated in the cultivation place 105, the data extraction unit 185 collects sensing data. With reference to H11, the estimated crop 2 is specified. As shown in FIG. 11, the data extraction unit 185 determines whether part of the crop 2 is included in the referenced sensing data H11. Specifically, when the sensing data H11 is a captured image, the crop 2 to be estimated is specified in the captured image by matching the feature amount of the captured image, pattern matching, or the like.

例えば、データ抽出部185は、撮像画像の所定範囲内の特徴量と予め用意された作物の画像における特徴量とを比較し、両者の特徴量が一致した場合、撮像画像の所定範囲内に作物2があると判断し、両者の特徴量が一致しない場合は、撮像画像の所定範囲内に作物2があると判断しない。
或いは、データ抽出部185は、予め用意された作物2の表面の模様、凸凹などを示す基準プロファイリングと、撮像画像の所定範囲内の画像プロファイリングとを比較し、基準プロファイリングと画像プロファイリングとが一致した場合は、撮像画像の所定範囲内に作物2等が含まれている判断し、基準プロファイリングとデータプロファイリングとが一致しなかった場合は、撮像画像の所定範囲内に作物2が含まれていないと判断する。
For example, the data extraction unit 185 compares the feature amount within a predetermined range of the captured image with the feature amount in a pre-prepared crop image, and if the two feature amounts match, the data extraction unit 185 If it is determined that there is a crop 2 and the feature amounts of the two do not match, it is not determined that there is a crop 2 within the predetermined range of the captured image.
Alternatively, the data extraction unit 185 compares a reference profiling prepared in advance showing the pattern, unevenness, etc. on the surface of the crop 2 and an image profiling within a predetermined range of the captured image, and determines that the reference profiling and the image profiling match. If so, it is determined that Crop 2, etc. is included within the predetermined range of the captured image, and if the reference profiling and data profiling do not match, it is determined that Crop 2 is not included within the predetermined range of the captured image. to decide.

なお、センシングデータH11がスキャンデータである場合、データ抽出部185は、スキャンデータで描写した描写体が、作物2であるか否かを判断する。この場合、データ抽出部185は、描写体の所定範囲内のデータプロファイリングと、基準プロファイリングとを比較し、基準プロファイリングとデータプロファイリングとが一致した場合は、スキャンデータ内に作物2が含まれていると判断し、基準プロファイリングとデータプロファイリングとが一致しなかった場合は、スキャンデータ内に作物2が含まれていないと判断する。 Note that when the sensing data H11 is scan data, the data extraction unit 185 determines whether the object depicted by the scan data is the crop 2 or not. In this case, the data extraction unit 185 compares the data profiling within a predetermined range of the depicted object with the reference profiling, and if the reference profiling and the data profiling match, it is determined that the crop 2 is included in the scan data. If the reference profiling and data profiling do not match, it is determined that crop 2 is not included in the scan data.

つまり、データ抽出部185は、撮像画像の特徴量のマッチング、パターンマッチング、描写体のパターンマッチングなどによって、センシングデータH11に作物2が存在するか否かを判断し、作物2が存在すると判断した場合に、存在すると判断した作物2を特定する。
図12に示すように、データ抽出部185は、センシングデータH11のうち特定した作物2(特定作物2a)の周囲を、部分データH13として抽出する。言い換えれば、センシング画像において、特定した作物2(特定作物2a)の周囲に対応する部分(部分画像)H16を抽出する。
That is, the data extraction unit 185 determines whether or not the crop 2 exists in the sensing data H11 by matching the feature amount of the captured image, pattern matching, pattern matching of the depicted object, etc., and determines that the crop 2 exists. In this case, identify the crop 2 that is determined to exist.
As shown in FIG. 12, the data extraction unit 185 extracts the area around the identified crop 2 (specific crop 2a) from the sensing data H11 as partial data H13. In other words, in the sensing image, a portion (partial image) H16 corresponding to the periphery of the specified crop 2 (specific crop 2a) is extracted.

推定部186は、データ抽出部185によって抽出した部分データH13(部分画像H
16)から得られた特定作物2aの表面状態W10から特定作物2aの種類などを推定する。
図13に示すように、推定部186は、作物2の種類と、作物2の表面状態W10とを学習したモデル(表面状態モデル)を用いて、部分データH13の特定作物2の種類を推定する。表面状態モデルは、数多くの作物2の表面状態W10と作物2の種類とが関連付けられた作物表面情報を、コンピュータに入力し、当該コンピュータにおいて、人工知能(AI)による深層学習を実行し、学習済みモデルを構築したものである。
The estimation unit 186 extracts the partial data H13 (partial image H) extracted by the data extraction unit 185.
16) The type of the specific crop 2a is estimated from the surface state W10 of the specific crop 2a obtained from step 16).
As shown in FIG. 13, the estimation unit 186 estimates the type of the specific crop 2 of the partial data H13 using a model (surface condition model) that has learned the type of the crop 2 and the surface condition W10 of the crop 2. . The surface state model inputs crop surface information in which the surface states W10 of many crops 2 and types of crops 2 are associated with each other into a computer, executes deep learning using artificial intelligence (AI) in the computer, and performs learning. This model is based on a previously used model.

具体的には、表面状態モデルでは、特定作物2aの表面状態W10として、部分データH13(部分画像H16)から得られた特定作物2aの模様から作物2の種類を推定する。例えば、図12に示すように、表面状態モデルは、特定作物2aの表面において、模様(図柄)を構成する線W11の間隔、線W11の角度、線W11の繋がり、線W11の形状、線W11の配列パターンから、特定作物2の種類を推定する。 Specifically, in the surface condition model, the type of crop 2 is estimated from the pattern of the specific crop 2a obtained from the partial data H13 (partial image H16) as the surface condition W10 of the specific crop 2a. For example, as shown in FIG. 12, the surface condition model includes, on the surface of the specific crop 2a, the interval between the lines W11 forming the pattern (design), the angle of the lines W11, the connection of the lines W11, the shape of the lines W11, the line W11 The type of specific crop 2 is estimated from the arrangement pattern.

また、推定部186は、表面状態モデルによって特定した作物2の部分データH13(部分画像H16)を参照し、図14A~図14Cに示すように、作物2の特徴部分W25と、作物2の表面状態(模様を構成する線W11)とに基づいて、作物2の姿勢を推定する。例えば、図14A、図14B、図14Cに示すように、推定部186は、部分画像H16から作物2のへたW25a、へそW25bの部分を特徴部分W25として抽出する。 Further, the estimation unit 186 refers to the partial data H13 (partial image H16) of the crop 2 specified by the surface condition model, and calculates the characteristic portion W25 of the crop 2 and the surface of the crop 2, as shown in FIGS. 14A to 14C. The posture of the crop 2 is estimated based on the state (line W11 forming the pattern). For example, as shown in FIGS. 14A, 14B, and 14C, the estimation unit 186 extracts the hem W25a and navel W25b of the crop 2 from the partial image H16 as the characteristic portion W25.

図14Aに示すように、推定部186は、特徴部分W25として、例えば、へたW25aが抽出され、且つ、複数の線W11の端部のそれぞれがへたW25aに近接している場合、図15Aに示すように、作物2は、へそW25bを栽培場所105の地面側で且つ、へたW25aを上向きにしている姿勢(第1姿勢)Z1であると推定する。
図14Bに示すように、推定部186は、特徴部分W25として、例えば、へそW25bが抽出され、且つ、複数の線W11の端部のそれぞれがへそW25bに近接している場合、図15Bに示すように、作物2は、へそW25bを農業用ロボット1に向け、へたW25aを農業用ロボット1から離れる方向に向けた姿勢(第1姿勢)Z1であると推定する。即ち、作物2は、へたW25aを基準にすると、農業用ロボット1に対して奥に向けて倒れている第2姿勢Z2の状態である。
As shown in FIG. 14A, if, for example, a stem W25a is extracted as the characteristic portion W25, and each of the ends of the plurality of lines W11 is close to the stem W25a, As shown in , it is estimated that the crop 2 is in a posture (first posture) Z1 in which the belly button W25b is on the ground side of the cultivation place 105 and the belly button W25a is facing upward.
As shown in FIG. 14B, when the navel W25b is extracted as the characteristic portion W25, and each of the ends of the plurality of lines W11 is close to the navel W25b, the estimating unit 186 extracts the characteristic portion W25 as shown in FIG. 15B. It is estimated that the crop 2 is in a posture (first posture) Z1 in which the belly button W25b is directed toward the agricultural robot 1 and the belly button W25a is directed away from the agricultural robot 1. In other words, the crop 2 is in the second posture Z2 in which it is tilted toward the back with respect to the agricultural robot 1, based on the stem W25a.

図14Cに示すように、推定部186は、特徴部分W25として、例えば、へたW25a及びへそW25bが抽出され、少なくとも1つの線W11がへたW25aとへそW25bとに向けて伸びている場合、図15Cに示すように、作物2は、農業用ロボット1に沿っている姿勢(第2姿勢)Z2であると推定する。即ち、作物2は、へたW25aを基準にすると、農業用ロボット1に対して真横に倒れている第3姿勢Z3の状態である。 As shown in FIG. 14C, the estimating unit 186 estimates that, for example, when the belly button W25a and the belly button W25b are extracted as the characteristic portion W25, and at least one line W11 extends toward the belly button W25a and the belly button W25b, As shown in FIG. 15C, it is estimated that the crop 2 is in a posture (second posture) Z2 along the agricultural robot 1. That is, the crop 2 is in the third posture Z3, lying right sideways with respect to the agricultural robot 1, based on the stem W25a.

なお、作物推定部141I(推定部186)は、作物2の表面の模様の向きに基づいて、姿勢を推定してもよい。図16Aに示すように、作物推定部141I(推定部186)は、部分画像H16において、表面の模様を構成する線W11の延びる方向(連続的に延びる長手方向)が、上下方向(垂直方向)である場合、作物2が第1姿勢Z1であると推定する。図16Bに示すように、作物推定部141I(推定部186)は、部分画像H16において、線W11の延びる方向が、左右方向(水平方向)である場合、作物2が第3姿勢Z3であると推定する。 Note that the crop estimating unit 141I (estimating unit 186) may estimate the posture based on the direction of the pattern on the surface of the crop 2. As shown in FIG. 16A, the crop estimating unit 141I (estimating unit 186) determines that in the partial image H16, the extending direction (continuously extending longitudinal direction) of the line W11 forming the surface pattern is the vertical direction (vertical direction). If so, it is estimated that the crop 2 is in the first posture Z1. As shown in FIG. 16B, the crop estimating unit 141I (estimating unit 186) determines that the crop 2 is in the third posture Z3 when the extending direction of the line W11 is the left-right direction (horizontal direction) in the partial image H16. presume.

また、作物推定部141I(推定部186)は、作物の表面の模様の長さに基づいて、姿勢を推定してもよい。図17Aに示すように、作物推定部141I(推定部186)は、部分画像H16において、線W11の長さL51が略同じ(所定範囲内)であって且つ標準的な作物2の長さ(基準)以下である場合、第1姿勢Z1又は第2姿勢Z2であると推定する。ここで、作物推定部141I(推定部186)は、光学式センサ5A、5Bにおいて、作物2を上方から撮像した場合、第1姿勢Z1であると推定し、作物2を側方(通路106側)から撮像した場合、第2姿勢Z2であると推定する。 Further, the crop estimating unit 141I (estimating unit 186) may estimate the posture based on the length of the pattern on the surface of the crop. As shown in FIG. 17A, the crop estimating unit 141I (estimating unit 186) determines that in the partial image H16, the length L51 of the line W11 is approximately the same (within a predetermined range) and the length of the standard crop 2 ( standard), it is estimated to be the first attitude Z1 or the second attitude Z2. Here, the crop estimating unit 141I (estimating unit 186) estimates that when the optical sensors 5A and 5B image the crop 2 from above, the crop 2 is in the first posture Z1, ), it is estimated that the second orientation is Z2.

図17Bに示すように、作物推定部141I(推定部186)は、部分画像H16において、複数の線W11のうち、最大の線の長さL52が標準的な作物2の長さ(基準)を超えている場合、第2姿勢Z2又は第3姿勢Z3であると推定する。ここで、作物推定部141I(推定部186)は、光学式センサ5A、5Bにおいて、作物2を上方から撮像
した場合、第2姿勢Z2であると推定し、作物2を側方(通路106側)から撮像した場合、第3姿勢Z3であると推定する。
As shown in FIG. 17B, the crop estimating unit 141I (estimating unit 186) determines that the maximum line length L52 among the plurality of lines W11 is the length (reference) of the standard crop 2 in the partial image H16. If it exceeds, it is estimated that it is the second attitude Z2 or the third attitude Z3. Here, the crop estimating unit 141I (estimating unit 186) estimates that the crop 2 is in the second posture Z2 when the optical sensors 5A and 5B image the crop 2 from above, ), it is estimated to be in the third orientation Z3.

作物推定部141I(推定部186)は、作物2の特徴部分W25と模様との位置関係に基づいて、姿勢を推定してもよい。
図18Aに示すように、作物推定部141I(推定部186)は、部分画像H16において、へたW25aを中心として、複数の線W11の長さL53の手前側が長く、複数の線W11の長さL53の奥側が短い場合、第1姿勢Z1であってやや奥側に斜めになっていると推定する。図18Bに示すように、作物推定部141I(推定部186)は、部分画像H16において、へたW25aを中心として、複数の線W11の長さL53の手前側が短く、複数の線W11の長さL53の手前側が短い場合、第1姿勢Z1であってやや手前側に斜めになっていると推定する。
The crop estimation unit 141I (estimation unit 186) may estimate the posture based on the positional relationship between the characteristic portion W25 of the crop 2 and the pattern.
As shown in FIG. 18A, the crop estimating unit 141I (estimating unit 186) calculates that in the partial image H16, the length L53 of the plurality of lines W11 is long on the near side and the length L53 of the plurality of lines W11 is the center of the stem W25a. If the back side of L53 is short, it is estimated that the first posture is Z1 and is slightly inclined toward the back side. As shown in FIG. 18B, the crop estimating unit 141I (estimating unit 186) calculates that in the partial image H16, the length L53 of the plurality of lines W11 is short on the near side, and the length L53 of the plurality of lines W11 is If the front side of L53 is short, it is estimated that it is in the first posture Z1 and is slightly inclined toward the front side.

また、推定部186は、特定作物2の種類を推定した推定結果に基づいて、部分データH13(部分画像H16)に含まれる特定作物2の輪郭R10を演算する。例えば、特定作物2の推定結果(例えば、作物2の種類)から、推定部186は、作物2の輪郭R10の基本形状(円形、四角、楕円形)、基準サイズL10を参照する。また、図19Aに示すように、推定部186は、例えば、部分データH13(部分画像H16)において、特定作物2の模様を構成する線W11のうち、直線状の線W11aを抽出する。ここで、推定部186は、線W11aの両端部W11bを部分データH13(部分画像H16)から得ることができた場合、線W11aの両端部W11bを通る円形状又は楕円形状の線を、特定作物2の輪郭R10とする。 Furthermore, the estimation unit 186 calculates the contour R10 of the specific crop 2 included in the partial data H13 (partial image H16) based on the estimation result of estimating the type of the specific crop 2. For example, based on the estimation result of the specific crop 2 (for example, the type of crop 2), the estimation unit 186 refers to the basic shape (circle, square, oval) of the outline R10 of the crop 2 and the reference size L10. Further, as shown in FIG. 19A, the estimation unit 186 extracts, for example, a straight line W11a from among the lines W11 forming the pattern of the specific crop 2 in the partial data H13 (partial image H16). Here, if both ends W11b of the line W11a can be obtained from the partial data H13 (partial image H16), the estimating unit 186 calculates a circular or elliptical line passing through both ends W11b of the line W11a for the specific crop. 2's contour R10.

図19Bに示すように、推定部186は、線W11aの一方の端部W11bを抽出した場合、一方の端部W11bから基準サイズの1/2の位置を、特定作物2の中心O10とし、中心O10から基準サイズの1/2を特定作物2の半径R1として、一方の端部W11aを通り且つ半径R1の円形状の線を、特定作物2の輪郭R10とする。
図19Cに示すように、推定部186は、線W11の端部W11aが部分データH13(部分画像H16)で構成する抽出画像枠に達している場合、抽出画像枠の特定作物2の模様から特定作物2の中心O10を推定し、半径R1の円形状の線を、特定作物2の輪郭R10とする。
As shown in FIG. 19B, when extracting one end W11b of the line W11a, the estimating unit 186 sets a position 1/2 of the reference size from the one end W11b as the center O10 of the specific crop 2, and The radius R1 of the specific crop 2 is set to 1/2 of the reference size from O10, and the circular line passing through one end W11a and having the radius R1 is defined as the outline R10 of the specific crop 2.
As shown in FIG. 19C, when the end W11a of the line W11 reaches the extraction image frame composed of the partial data H13 (partial image H16), the estimation unit 186 identifies the crop 2 from the pattern of the specific crop 2 in the extraction image frame. The center O10 of the crop 2 is estimated, and a circular line with a radius R1 is defined as the outline R10 of the specific crop 2.

なお、図19A~図19Cは一例であり、表面状態モデルが作物2の模様等から作物の種類だけでなく、作物の大きさを推定してもよい。
さらに、図19A~図19Cに示すように、推定部186は、部分データH13(部分画像H16)で得られた作物2の周囲に関して推定した作物2の表面を隠す障害物W20を推定してもよい。図19A~図19Cに示すように、例えば、推定部186は、作物2の表面において表面状態モデルが作物2の表面の模様と判断した以外の部分W21を抽出し、部分W21において、特定作物2の輪郭R10と重複する部分が、障害物W20の一部であると判断し、障害物W20の全体の輪郭W22を画像処理等により抽出する。
Note that FIGS. 19A to 19C are examples, and the surface state model may estimate not only the type of crop but also the size of the crop from the pattern of the crop 2.
Furthermore, as shown in FIGS. 19A to 19C, the estimating unit 186 estimates an obstacle W20 that hides the surface of the crop 2 estimated with respect to the periphery of the crop 2 obtained using the partial data H13 (partial image H16). good. As shown in FIGS. 19A to 19C, for example, the estimating unit 186 extracts a portion W21 on the surface of the crop 2 other than the surface condition model that is determined to be the pattern on the surface of the crop 2, and in the portion W21, It is determined that the portion overlapping with the outline R10 is part of the obstacle W20, and the entire outline W22 of the obstacle W20 is extracted by image processing or the like.

上述したように、推定部186が障害物W20の全体の輪郭W22を抽出、即ち、障害物W20を推定した場合、農業用ロボット1は、作物2の収穫時などに、障害物W20を作物2から遠ざける作業を行う。図20に示すように、作業制御部41Bは、マニピュレータ(作業部)4(ロボットハンド18)の収穫時の制御において、ロボットハンド18の先端を障害物W20に近づけ、ロボットハンド18の一部を障害物W20に当接し、先端部を当接させた状態でロボットハンド18を、障害物W20が作物2の表面から遠ざかる方向に移動させる。つまり、ロボットハンド18は、作物2の収穫時に、障害物W20を遠ざける動作する。 As described above, when the estimation unit 186 extracts the entire contour W22 of the obstacle W20, that is, estimates the obstacle W20, the agricultural robot 1 moves the obstacle W20 into the crop 2 during harvesting of the crop 2, etc. Take steps to move it away from the area. As shown in FIG. 20, in controlling the manipulator (work unit) 4 (robot hand 18) during harvesting, the work control unit 41B brings the tip of the robot hand 18 close to an obstacle W20 and moves a part of the robot hand 18 toward the obstacle W20. The robot hand 18 is moved in a direction in which the obstacle W20 moves away from the surface of the crop 2, with the tip thereof in contact with the obstacle W20. That is, the robot hand 18 operates to move the obstacle W20 away when harvesting the crops 2.

上述した実施形態では、農業用ロボット1が学習済みモデル(表面状態モデル)を有していることについて説明したが、農業用ロボット1は、表面状態モデルを生成するモデル生成部81Iを備えていてもよい。モデル生成部81Iは、制御装置41に設けられた電気電子回路、当該制御装置41に格納されたプログラム等である。 In the embodiment described above, it has been explained that the agricultural robot 1 has a learned model (surface state model), but the agricultural robot 1 is equipped with a model generation unit 81I that generates a surface state model. Good too . The model generation unit 81I is an electric/electronic circuit provided in the control device 41, a program stored in the control device 41, and the like.

まず、農業用ロボット1が作物2の収穫を行う際、制御装置41は、光学式センサ5A
又は光学式センサ5Bにて、作物2の表面をセンシングしたセンシングデータ(作物2の表面のデータ)を取得する。制御装置41は、作物2の収穫を行う毎に、作物2の表面のデータを取得し、データベース化して記憶する。モデル生成部81Iは、制御装置41が取得した数多くの作物2の表面のデータを、深層学習することによって、表面状態モデルを構築する。なお、モデル生成部81Iは、表面状態モデルの構築後も作物2の収穫を行う毎に、制御装置41から作物2の表面のデータを取得して、強化学習を続ける。
First, when the agricultural robot 1 harvests the crops 2, the control device 41 uses the optical sensor 5A.
Alternatively, sensing data (data on the surface of the crop 2) obtained by sensing the surface of the crop 2 with the optical sensor 5B is acquired. The control device 41 acquires data on the surface of the crops 2 every time the crops 2 are harvested, and stores the data in a database. The model generation unit 81I constructs a surface state model by performing deep learning on the surface data of a large number of crops 2 acquired by the control device 41. Note that even after constructing the surface state model, the model generation unit 81I acquires data on the surface of the crop 2 from the control device 41 every time the crop 2 is harvested, and continues reinforcement learning.

農業用ロボット1は、走行体3と、走行体3に設けられ、作物2に関する作業を行う作業部と、走行体3に設けられた光学式センサ5A、5Bと、光学式センサ5A、5Bで得られたセンシングデータに基づいて、作物2を推定する作物推定部141Iと、を備え、作物推定部141Iは、センシングデータから得られた作物2の表面状態に基づいて、作物2の姿勢を推定する。これによれば、栽培されている状態の作物2の姿勢がどのようであるかを簡単に把握することができる。ここで、作物2の姿勢に応じて、作物2に対するマニピュレータ(作業部)4の向きを変更することができ、作業性を向上させることができる。 The agricultural robot 1 includes a traveling body 3, a working part provided on the traveling body 3 and performing work related to the crops 2, optical sensors 5A and 5B provided on the traveling body 3, and optical sensors 5A and 5B. A crop estimating unit 141I estimates the crop 2 based on the obtained sensing data, and the crop estimating unit 141I estimates the posture of the crop 2 based on the surface state of the crop 2 obtained from the sensing data. do. According to this, it is possible to easily grasp the posture of the crop 2 under cultivation. Here, the orientation of the manipulator (working unit) 4 with respect to the crop 2 can be changed depending on the attitude of the crop 2, and work efficiency can be improved.

作物推定部141Iは、センシングデータで示された作物2に関し、作物2の特徴部分と作物2の表面状態とに基づいて、作物2の姿勢を推定する。これによれば、特徴部分と作物2の表面状態との関係で作物2の姿勢を推定することができる。例えば、作物2のへたW25a、作物2のへそW25bを特徴部分とした場合において、へたW25a、へそW25bの向いている方向と作物2の表面形状との関係により、作物2が上を向いたり、作物2が横を向いたりしているなどの姿勢を把握することができる。 The crop estimating unit 141I estimates the posture of the crop 2 indicated by the sensing data based on the characteristic parts of the crop 2 and the surface condition of the crop 2. According to this, the posture of the crop 2 can be estimated based on the relationship between the characteristic portion and the surface state of the crop 2. For example, when the stem W25a of the crop 2 and the navel W25b of the crop 2 are used as characteristic parts, the relationship between the direction of the stem W25a and the navel W25b and the surface shape of the crop 2 means that the crop 2 faces upward. It is possible to grasp the posture, such as whether the crop 2 is facing sideways, or whether the crop 2 is facing sideways.

作物推定部141Iは、センシングデータで示された作物2の表面の模様の向きに基づいて、姿勢を推定する。これによれば、作物2の表面の模様が上に向いているか、下を向いているか等によって、作物2の姿勢を簡単に把握することができる。
作物推定部141Iは、センシングデータで示された作物2の表面の模様の長さに基づいて、姿勢を推定する。これによれば、作物2をセンシングしたときの所定の表面の模様の長さが、長い又は短いなどといった長さにより作物2の姿勢を簡単に把握することができる。
The crop estimating unit 141I estimates the posture based on the direction of the pattern on the surface of the crop 2 indicated by the sensing data. According to this, the attitude of the crop 2 can be easily grasped by checking whether the pattern on the surface of the crop 2 is facing upward or downward.
The crop estimation unit 141I estimates the posture based on the length of the pattern on the surface of the crop 2 indicated by the sensing data. According to this, the posture of the crop 2 can be easily grasped based on the length of the predetermined surface pattern when the crop 2 is sensed, such as long or short.

作物推定部141Iは、作物2の特徴部分と模様との位置関係に基づいて、姿勢を推定する。これによれば、例えば、作物2のへたW25a、作物2のへそW25bを特徴部分とした場合において、へたW25a、へそW25bと、模様との位置によって簡単に作物2の姿勢を把握することができる。
作物推定部141Iは、センシングデータに基づいて作物2の輪郭と、作物2の周囲に関して推定した作物2の表面を隠す障害物W20とを推定する。これによれば、簡単に障害物W20の輪郭を推定することができ、どれくらいの大きさの障害物W20によって作物2の表面が覆われていたかを把握することができる。
The crop estimating unit 141I estimates the posture based on the positional relationship between the characteristic parts of the crop 2 and the pattern. According to this, for example, when the stem W25a of the crop 2 and the navel W25b of the crop 2 are used as characteristic parts, the posture of the crop 2 can be easily grasped by the positions of the stem W25a, the navel W25b, and the pattern. Can be done.
The crop estimating unit 141I estimates the outline of the crop 2 and the obstacle W20 that hides the estimated surface of the crop 2 with respect to the periphery of the crop 2 based on the sensing data. According to this, the outline of the obstacle W20 can be easily estimated, and it is possible to grasp how large the surface of the crop 2 is covered by the obstacle W20.

作業部4は、作物推定部141Iで推定した障害物W20を、作物2から遠ざける作業を行う。これによれば、農業用ロボット1によって作物2に対して作業を行う場合に、作業に邪魔な障害物W20を作物2から遠ざけることができ、作業を効率よく行うことができる。例えば、作業が収穫である場合には、障害物W20を除いたうえで、作業部4によって収穫を行うことができる。また、作業が作物2に打撃を加える場合、打撃時の音を収集する場合なども、障害物W20を除いたうえで、作物2に打撃を加える等の作業を行うことができる。 The work unit 4 performs work to move the obstacle W20 estimated by the crop estimation unit 141I away from the crops 2. According to this, when the agricultural robot 1 performs work on the crops 2, the obstacle W20 that obstructs the work can be kept away from the crops 2, and the work can be performed efficiently. For example, when the work is harvesting, the work unit 4 can harvest after removing the obstacle W20. Further, when the work is to strike the crops 2 or collect the sound of the strikes, the work such as striking the crops 2 can be performed after removing the obstacle W20.

作物2と作物2の表面状態との関係を、深層学習することで表面状態モデルを生成するモデル生成部81Iを備えている。これによれば、作物2と作物2の表面状態との関係を推定するモデルを簡単に作成することができる。
以上、本発明の一実施形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
It includes a model generation unit 81I that generates a surface condition model by performing deep learning on the relationship between the crops 2 and the surface conditions of the crops 2. According to this, a model for estimating the relationship between the crop 2 and the surface state of the crop 2 can be easily created.
Although one embodiment of the present invention has been described above, the embodiment disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the above description, and it is intended that all changes within the meaning and range equivalent to the claims are included.

1 :農業用ロボット
2 :作物
3 :走行体
4 :作業部
5A :光学式センサ
5B :光学式センサ
81I :モデル生成部
141I :作物推定部
186 :推定部
H11 :センシングデータ
R10 :輪郭
W10 :表面状態
W20 :障害物
W21 :部分
W22 :輪郭
W25 :特徴部分
1: Agricultural robot 2: Crops 3: Traveling body 4: Working section 5A: Optical sensor 5B: Optical sensor 81I: Model generation section 141I: Crop estimation section 186: Estimation section H11: Sensing data R10: Contour W10: Surface Status W20: Obstacle W21: Part W22: Contour W25: Characteristic part

Claims (8)

走行体と、
前記走行体に設けられ、作物に関する作業を行う作業部と、
前記走行体に設けられた光学式センサと、
前記光学式センサで得られたセンシングデータに基づいて、前記作物を推定する作物推定部と、
を備え、
前記作物推定部は、前記センシングデータから得られた作物の表面状態である当該作物の模様を構成する線の間隔、線の角度、線の繋がり、線の形状、線の配列パターンのいずれかから作物を推定し、前記推定した作物の前記模様として表れた線から、前記作物の姿勢を推定する農業用ロボット。
A running body,
a working section that is provided on the traveling body and performs work related to crops;
an optical sensor provided on the traveling body;
a crop estimation unit that estimates the crop based on sensing data obtained by the optical sensor;
Equipped with
The crop estimating unit calculates the crop surface condition from any of the line spacing, line angle, line connection, line shape, and line arrangement pattern constituting the pattern of the crop, which is the surface condition of the crop obtained from the sensing data. An agricultural robot that estimates a crop and estimates the posture of the crop from lines appearing as the pattern of the estimated crop.
前記作物推定部は、前記センシングデータで示された作物に関し、前記作物の特徴部分と前記作物の模様の線とに基づいて、前記作物の姿勢を推定する請求項1に記載の農業用ロボット。 The agricultural robot according to claim 1, wherein the crop estimating unit estimates the posture of the crop indicated by the sensing data based on characteristic parts of the crop and lines of a pattern of the crop. 前記作物推定部は、前記センシングデータで示された前記作物の模様の線の向きに基づいて、前記姿勢を推定する請求項1又は2に記載の農業用ロボット。 The agricultural robot according to claim 1 or 2, wherein the crop estimation unit estimates the posture based on the direction of lines of the crop pattern indicated by the sensing data. 前記作物推定部は、前記センシングデータで示された前記作物の模様の線の長さに基づいて、前記姿勢を推定する請求項1~3のいずれかに記載の農業用ロボット。 The agricultural robot according to any one of claims 1 to 3, wherein the crop estimation unit estimates the posture based on the length of a line of the crop pattern indicated by the sensing data. 前記作物推定部は、前記作物の特徴部分と前記模様との位置関係に基づいて、前記姿勢を推定する請求項1~4のいずれかに記載の農業用ロボット。 The agricultural robot according to any one of claims 1 to 4, wherein the crop estimation unit estimates the posture based on a positional relationship between a characteristic part of the crop and the pattern. 前記作物推定部は、前記センシングデータに基づいて作物の輪郭と、前記作物の周囲に関して前記推定した作物の表面を隠す障害物とを推定する請求項1~5のいずれかに記載の農業用ロボット。 The agricultural robot according to any one of claims 1 to 5, wherein the crop estimating unit estimates a contour of the crop and an obstacle that hides the estimated surface of the crop with respect to the periphery of the crop based on the sensing data. . 前記作業部は、前記作物推定部で推定した前記障害物を、前記作物から遠ざける作業を行う請求項6に記載の農業用ロボット。 The agricultural robot according to claim 6, wherein the work section performs a task of moving the obstacle estimated by the crop estimating section away from the crop. 前記作物と前記作物の表面状態との関係を、深層学習することで表面状態モデルを生成するモデル生成部を備えている請求項1~7のいずれかに記載の農業用ロボット。 The agricultural robot according to any one of claims 1 to 7, further comprising a model generation unit that generates a surface condition model by performing deep learning on the relationship between the crop and the surface condition of the crop.
JP2020109081A 2020-06-24 2020-06-24 agricultural robot Active JP7408496B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020109081A JP7408496B2 (en) 2020-06-24 2020-06-24 agricultural robot
PCT/JP2021/022292 WO2021261294A1 (en) 2020-06-24 2021-06-11 Agricultural robot
EP21829595.4A EP4173467A4 (en) 2020-06-24 2021-06-11 Agricultural robot
US17/990,825 US20230078003A1 (en) 2020-06-24 2022-11-21 Agricultural robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109081A JP7408496B2 (en) 2020-06-24 2020-06-24 agricultural robot

Publications (2)

Publication Number Publication Date
JP2022006700A JP2022006700A (en) 2022-01-13
JP7408496B2 true JP7408496B2 (en) 2024-01-05

Family

ID=80110575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109081A Active JP7408496B2 (en) 2020-06-24 2020-06-24 agricultural robot

Country Status (1)

Country Link
JP (1) JP7408496B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (en) 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Three-dimensional object recognition method and pin picking system using the method
WO2018211621A1 (en) 2017-05-17 2018-11-22 inaho株式会社 Agricultural work machine, agricultural work management system, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (en) 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Three-dimensional object recognition method and pin picking system using the method
WO2018211621A1 (en) 2017-05-17 2018-11-22 inaho株式会社 Agricultural work machine, agricultural work management system, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Inkyu Sa, Zongyuan Ge, Feras Dayoub, Ben Upcroft, Tristan Perez and Chris McCool,DeepFruits: A Fruit Detection System Using Deep Neural Networks,Sensors,2016年08月03日,Vol. 16, No. 8,1222
Yang-Yang Zheng, Jianlei Kong, Xue-bo Jin, Tingli Su, Ming-Jun Nie, and Yuting Bai,Real-Time Vegetables Recognition System based on Deep Learning Network for Agricultural Robots,2018 Chinese Automation Congress (CAC),2018年11月30日,pp. 2223 - 2228
佐藤治、高橋伸弥、横道政裕、福嶋浩紀,機械学習を用いたスイカ果実検出,第38回計測自動制御学会九州支部学術講演会予稿集,日本,公益社団法人計測自動制御学会九州支部,2019年11月30日,pp. 17 - 20

Also Published As

Publication number Publication date
JP2022006700A (en) 2022-01-13

Similar Documents

Publication Publication Date Title
JP7321910B2 (en) agricultural robot
Zhang et al. The use of agricultural robots in orchard management
JP7191808B2 (en) Robot hands and agricultural robots
WO2021261246A1 (en) Agricultural robot and assistance system for agricultural robot
KR20200095225A (en) An weed removal robot using image processor
JP7214612B2 (en) agricultural robot
CN113207675A (en) Airflow vibration type facility crop automatic pollination device and method
JP7408496B2 (en) agricultural robot
JP7404169B2 (en) Agricultural robots and agricultural robot support systems
JP7471931B2 (en) Agricultural robots
Chatzimichali et al. Design of an advanced prototype robot for white asparagus harvesting
JP7225081B2 (en) agricultural robot
WO2021261294A1 (en) Agricultural robot
JP7543006B2 (en) Agricultural robots
JP7494023B2 (en) Agricultural robots
US20230292644A1 (en) Mobile autonomous agricultural system
JP2021126721A (en) Robot hand and agricultural robot
JP7278931B2 (en) agricultural robot
JP7254687B2 (en) Robot hands and agricultural robots
JP7387484B2 (en) Robot hands and agricultural robots
CA3233366A1 (en) Autonomous robot platform for pest identification and control
CN216982989U (en) Automatic pollination device of air flow vibration type facility crop
JP2024140856A (en) Agricultural robots
Kurhade et al. Review on “Automation in Fruit Harvesting
JP2024140855A (en) Agricultural robots and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7408496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150