JP2020178659A - Harvester - Google Patents

Harvester Download PDF

Info

Publication number
JP2020178659A
JP2020178659A JP2019085785A JP2019085785A JP2020178659A JP 2020178659 A JP2020178659 A JP 2020178659A JP 2019085785 A JP2019085785 A JP 2019085785A JP 2019085785 A JP2019085785 A JP 2019085785A JP 2020178659 A JP2020178659 A JP 2020178659A
Authority
JP
Japan
Prior art keywords
obstacle
unit
field
aircraft
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019085785A
Other languages
Japanese (ja)
Other versions
JP7195543B2 (en
Inventor
飯田 訓久
Kunihisa Iida
訓久 飯田
諒 朝田
Ryo Asada
諒 朝田
隆志 中林
Takashi Nakabayashi
隆志 中林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Kyoto University NUC
Original Assignee
Kubota Corp
Kyoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp, Kyoto University NUC filed Critical Kubota Corp
Priority to JP2019085785A priority Critical patent/JP7195543B2/en
Publication of JP2020178659A publication Critical patent/JP2020178659A/en
Application granted granted Critical
Publication of JP7195543B2 publication Critical patent/JP7195543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Image Analysis (AREA)

Abstract

To provide a harvester capable of detecting an obstacle accurately.SOLUTION: A harvester includes: a distance information generation part for generating three-dimensional point group data using stereo-matching from a captured image acquired by a stereo camera unit 81 for imaging a front in an advancing direction of a machine body in a farm field; a farm field reaping information creation part for creating farm field reaping information including a border between a reaped field and an unreaped field, and height of farm crops from the three-dimensional point group data; obstacle estimation means for estimating whether an obstacle is present in the reaped field or in the unreaped field; and an obstacle detection part for executing masking processing for excluding the three-dimensional point group data within a height region of the crops in the unreaped field from an obstacle detection object, and calculating positional relationships between the obstacle and the machine body based on the three-dimensional point group data and an estimation result by the obstacle estimation means.SELECTED DRAWING: Figure 3

Description

本発明は、カメラによって取得された撮影画像を用いて、圃場における障害物を検出する収穫機に関する。 The present invention relates to a harvester that detects obstacles in a field using captured images acquired by a camera.

圃場には、運転者以外の作業者や動物や電柱などの障害物が存在している可能性があるので、圃場を作業走行する収穫機には、特許文献1に開示されているように、障害物を検出するための超音波式の障害物センサが備えられているものがある。障害物センサによって障害物が検出された場合、危険防止のためにエンジン等が停止される。 Since there is a possibility that workers other than the driver, animals, and obstacles such as utility poles exist in the field, the harvester that runs in the field is described in Patent Document 1, as disclosed in Patent Document 1. Some are equipped with an ultrasonic obstacle sensor for detecting obstacles. When an obstacle is detected by the obstacle sensor, the engine or the like is stopped to prevent danger.

特許文献2によるコンバインには、レーザースキャナが備えられている。このレーザースキャナは、刈取対象物が刈り取られることによって路面の大部分が露呈している領域に立ち入った人を検出するために、刈取部の右側部分に偏ってレーザーが照射されるように構成されている。また、特許文献2では、障害物を検出するために、レーザースキャナに代えて、ミリ波レーダを用いること、あるいはカメラ等を用いた画像処理を用いることも可能であると記載されている。 The combine according to Patent Document 2 is provided with a laser scanner. This laser scanner is configured so that the laser is biased toward the right side of the cutting section in order to detect a person who has entered the area where most of the road surface is exposed due to the cutting of the object to be cut. ing. Further, Patent Document 2 describes that it is possible to use a millimeter-wave radar or image processing using a camera or the like instead of a laser scanner in order to detect an obstacle.

特許文献3によるコンバインでは、機体に設けられた撮影部によって遂次取得された撮影画像が入力されることで、この撮影画像に写っている認識対象物が存在する存在領域がその推定確率ともに出力される。高い推定確率で認識対象物が推定されると、警告の報知や走行制御が行われる。この認識対象物の推定には機械学習が用いられているが、精度良く認識対象物を推定するには、その障害物検出制御ユニットに高度な学習機能と高い演算機能が要求される。 In the combine according to Patent Document 3, by inputting the photographed image sequentially acquired by the photographing unit provided in the airframe, the existence area where the recognition object shown in the photographed image exists is output together with the estimated probability. Will be done. When the recognition target is estimated with a high estimation probability, a warning is notified and running control is performed. Machine learning is used to estimate the recognition object, but in order to estimate the recognition object with high accuracy, the obstacle detection control unit is required to have an advanced learning function and a high calculation function.

特開平9−76850号公報Japanese Unexamined Patent Publication No. 9-76850 特開2017−176007号公報JP-A-2017-176007 特開2019−004773号公報Japanese Unexamined Patent Publication No. 2019-004773

小麦や稲や大豆などの農作物の収穫作業では、人などの障害物が部分的に農作物によって隠されてしまう可能性が高く、その場合、障害物検出精度が低下する。障害物を検出する毎に機体が停車し、検出された障害物の確認作業が頻繁に行われると、作業性が低下する。このような実情から、高い精度で障害物検出を行うことができる収穫機が要望されている。 In harvesting crops such as wheat, rice and soybeans, there is a high possibility that obstacles such as humans will be partially hidden by the crops, in which case the accuracy of obstacle detection will decrease. If the aircraft stops every time an obstacle is detected and the detection work of the detected obstacle is frequently performed, the workability is lowered. Under these circumstances, there is a demand for a harvester capable of detecting obstacles with high accuracy.

本発明による収穫機は、圃場の農作物を刈り取る収穫部を有し、圃場における機体の進行方向前方を撮影するステレオカメラユニットと、前記ステレオカメラユニットによって取得された撮影画像からステレオマッチングを用いて、圃場面を1つの基準面とする3次元座標系で展開された3次元点群データを生成する距離情報生成部と、前記3次元点群データから、前記収穫部によって刈り取られた既刈地と未刈地との境界及び前記農作物の高さを含む圃場刈取り情報を生成する圃場刈取り情報作成部と、障害物が前記既刈地と前記未刈地のいずれに存在するかを推定する障害物推定手段と、前記未刈地での前記農作物の高さ領域に入っている前記3次元点群データを障害物検出対象から除外するマスキング処理を行うとともに、前記3次元点群データと前記障害物推定手段による推定結果とに基づいて、前記障害物を検出するとともに前記障害物と前記機体との位置関係を算出する障害物検出部とを備える。 The harvester according to the present invention has a harvesting section for cutting agricultural products in the field, and uses a stereo camera unit that photographs the front of the aircraft in the traveling direction in the field and stereo matching from the captured image acquired by the stereo camera unit. A distance information generation unit that generates 3D point group data developed in a 3D coordinate system using a field scene as one reference plane, and a mowed land cut by the harvesting unit from the 3D point group data. A field mowing information creation unit that generates field mowing information including the boundary with the uncut land and the height of the agricultural product, and an obstacle that estimates whether the obstacle exists in the mowed land or the uncut land. The estimation means and the masking process for excluding the three-dimensional point group data in the height region of the agricultural product in the uncut land from the obstacle detection target are performed, and the three-dimensional point group data and the obstacle are performed. It is provided with an obstacle detection unit that detects the obstacle and calculates the positional relationship between the obstacle and the aircraft based on the estimation result by the estimation means.

この構成によれば、ステレオカメラユニットの左右一対のカメラによって取得された左右の撮影画像を用いてステレオマッチングが行われることで、3次元点群データが生成される。3次元点群データを構成する各点データは撮影画像の各点の位置座標を示すので、この3次元点群データの分布に基づいて、既刈地と未刈地との境界(圃場刈取り情報の1つ)及び農作物の高さ(圃場刈取り情報の他の1つ)の算出が可能である。既刈地は、農作物が収穫部によって刈り取られた圃場領域であり、未刈地は、農作物がまだ生育している圃場領域である。既刈地を示す点群と未刈地を示す点群との違いから、撮像画像における、既刈地と未刈地との境界、ないしは既刈地と未刈地の領域が算出される。農作物の高さは、未刈地における農作物を示す点群から算出可能である。さらに、未刈地に生育している農作物の領域(未刈地の表面積と農作物の高さとで求められる農作物空間)に入り込んでいる障害物は撮影画像には写らないので、その領域は、障害物検出対象から除外するマスキング処理の対象領域として取り扱う。さらには、障害物が既刈地と未刈地のいずれに存在するかの推定が可能な障害物推定手段が備えられているので、この障害物推定手段の推定結果と、生育している農作物の領域をマスキングした3次元点群データとに基づいて障害物が検出され、当該障害物と機体との位置関係が、高い信頼性をもって算出される。未刈地での障害物検出では、農作物空間が障害物の検出対象から除外されることで、無駄な検出(ノイズ)を回避することができる。また、既刈地での障害物検出では、実質的に圃場面から所定高さ上方の全領域が検出対象となり、既刈地に存在する種々の形態の障害物を検出することができる。 According to this configuration, three-dimensional point group data is generated by performing stereo matching using the left and right captured images acquired by the pair of left and right cameras of the stereo camera unit. Since each point data constituting the 3D point cloud data indicates the position coordinates of each point in the captured image, the boundary between the mowed land and the uncut land (field mowing information) based on the distribution of the 3D point cloud data. It is possible to calculate the height of the crop (one of the above) and the height of the crop (the other one of the field cutting information). The mowed land is the field area where the crops are cut by the harvesting section, and the uncut land is the field area where the crops are still growing. From the difference between the point cloud indicating the cut land and the point cloud indicating the uncut land, the boundary between the cut land and the uncut land or the area between the cut land and the uncut land in the captured image is calculated. The height of the crop can be calculated from the point cloud indicating the crop in the uncut land. Furthermore, obstacles that enter the area of crops growing on the uncut land (the crop space required by the surface area of the uncut land and the height of the crop) are not shown in the photographed image, so that area is an obstacle. Treated as the target area of masking processing to be excluded from the object detection target. Furthermore, since there is an obstacle estimation means that can estimate whether the obstacle exists in the mowed land or the uncut land, the estimation result of this obstacle estimation means and the growing crops An obstacle is detected based on the three-dimensional point cloud data masking the area of the above, and the positional relationship between the obstacle and the aircraft is calculated with high reliability. In obstacle detection on uncut land, useless detection (noise) can be avoided by excluding the crop space from the obstacle detection target. Further, in the obstacle detection on the mowed land, substantially the entire area above the predetermined height from the field scene is the detection target, and various types of obstacles existing on the mowed land can be detected.

本発明の好適な実施形態の1つでは、前記機体からの位置に基づいて規定される障害物警戒領域を設定する警戒領域設定部と、前記障害物検出部によって検出された前記障害物が前記障害物警戒領域に存在する場合、前記位置関係に応じて車速を変更する車速変更指令出力部が備えられている。この構成によれば、検出された障害物が障害物警戒領域に存在するとみなされると、当該障害物と機体との位置関係に応じて車速が変更される。したがって、機体と障害物との位置関係から所定時間内での干渉可能性が大きい場合と、干渉可能性が小さい場合とによって車速の変更度合を相違させることができる。その際、例えば、機体と障害物との位置関係から相対的に短い時間内での干渉可能性が大きい場合での車速の変更は、車速ゼロへの変更、つまり機体を停止にさせることになる。これにより、機体と障害物との位置関係から相対的に短い時間内での干渉可能性が小さい場合でも、機体を停止させ、作業性を低下させるようなことは、低減される。さらには、障害物警戒領域が機体に対する位置に基づいて規定されることから、カメラの撮影視野に入っている領域であっても、機体と障害物とが干渉する可能性がほとんど無視することができる領域に対しては、障害物警戒領域から外すことができる。これにより、障害物検出の効率が向上する。 In one of the preferred embodiments of the present invention, the warning area setting unit that sets the obstacle warning area defined based on the position from the aircraft, and the obstacle detected by the obstacle detection unit are described. When it exists in the obstacle warning area, it is provided with a vehicle speed change command output unit that changes the vehicle speed according to the positional relationship. According to this configuration, when the detected obstacle is considered to exist in the obstacle warning area, the vehicle speed is changed according to the positional relationship between the obstacle and the aircraft. Therefore, the degree of change in the vehicle speed can be different depending on whether the possibility of interference within a predetermined time is large or the possibility of interference is small due to the positional relationship between the aircraft and the obstacle. At that time, for example, changing the vehicle speed when there is a high possibility of interference within a relatively short time due to the positional relationship between the aircraft and the obstacle will change the vehicle speed to zero, that is, stop the aircraft. .. As a result, even when the possibility of interference within a relatively short time is small due to the positional relationship between the machine and the obstacle, it is possible to reduce the possibility of stopping the machine and reducing workability. Furthermore, since the obstacle warning area is defined based on the position with respect to the aircraft, the possibility of interference between the aircraft and obstacles can be almost ignored even in the area within the shooting field of view of the camera. Areas where it can be removed can be removed from the obstacle warning area. This improves the efficiency of obstacle detection.

障害物が既刈地と未刈地のいずれに存在するかの推定が可能な障害物推定手段は、撮影画像を入力とする機械学習ユニットによって実現することができる。圃場における障害物の検出では、機械学習のなかでも学習能力の高い深層学習が好ましい。このことから、本発明の好適な実施形態の1つでは、前記障害物推定手段が深層学習ユニットであり、前記深層学習ユニットは、前記ステレオカメラユニットを構成するいずれか1つのカメラからによって取得された撮影画像を用いて、障害物が見いだされる障害物領域を推定する。この構成では、撮影画像を入力することで、障害物(人や動物などの注目物体)の輪郭を示す障害物枠(バウンディングボックス)が出力される。この障害物枠を3次元点群データに当てはめることで、当該障害物枠で示された障害物の三次元位置、結果的には当該障害物と機体との位置関係が得られる。ステレオマッチングによる3次元点群データと、良好に学習された深層学習ユニットとを組み合わせることにより、刈取り前の農作物(生育中の農作物)の上端から突き出している人の顔の検出が可能となることが実験的にも確かめられている。 An obstacle estimation means capable of estimating whether an obstacle exists in a mowed land or an uncut land can be realized by a machine learning unit that inputs a captured image. In the detection of obstacles in the field, deep learning with high learning ability is preferable in machine learning. From this, in one of the preferred embodiments of the present invention, the obstacle estimation means is a deep learning unit, and the deep learning unit is acquired by any one camera constituting the stereo camera unit. The obstacle area where the obstacle is found is estimated using the captured image. In this configuration, by inputting a captured image, an obstacle frame (bounding box) showing the outline of an obstacle (an object of interest such as a person or an animal) is output. By applying this obstacle frame to the three-dimensional point cloud data, the three-dimensional position of the obstacle indicated by the obstacle frame, and as a result, the positional relationship between the obstacle and the aircraft can be obtained. By combining the 3D point cloud data by stereo matching and the well-learned deep learning unit, it is possible to detect the face of a person protruding from the upper end of the crop before cutting (growing crop). Has been confirmed experimentally.

コンバインの全体側面図である。It is an overall side view of a combine. 機体前部に装備されたステレオカメラによる障害物検出範囲を示す模式図である。It is a schematic diagram which shows the obstacle detection range by the stereo camera equipped in the front part of the fuselage. 障害物検出の流れを模式的に説明する説明図である。It is explanatory drawing explaining the flow of obstacle detection schematically. ステレオカメラによる障害物検出に用いられる第1警戒領域と第2警戒領域とを示す平面図である。It is a top view which shows the 1st warning area and the 2nd warning area used for obstacle detection by a stereo camera. コンバインにおける制御系の機能ブロック図である。It is a functional block diagram of a control system in a combine. 障害物検出制御の流れを示すフローチャートである。It is a flowchart which shows the flow of obstacle detection control.

以下、本発明に係る収穫機の一例としてのコンバインの実施形態を図面に基づいて説明する。収穫対象となる農作物は、小麦や稲などの植立穀稈である。この実施形態で、機体1の前後方向を定義するときは、作業状態における機体進行方向に沿って定義する。図1に符号(F)で示す方向が機体前側、図1に符号(B)で示す方向が機体後側である。機体1の左右方向を定義するときは、機体進行方向視で見た状態で左右を定義する。「上側(上方)」または「下側(下方)」は、機体1の鉛直方向(垂直方向)での位置関係であり、地上高さにおける関係を示す。 Hereinafter, an embodiment of the combine as an example of the harvester according to the present invention will be described with reference to the drawings. The crops to be harvested are planted culms such as wheat and rice. In this embodiment, when the front-rear direction of the machine body 1 is defined, it is defined along the machine body traveling direction in the working state. The direction indicated by reference numeral (F) in FIG. 1 is the front side of the aircraft, and the direction indicated by reference numeral (B) in FIG. 1 is the rear side of the aircraft. When defining the left-right direction of the aircraft 1, the left-right direction is defined as viewed in the direction of travel of the aircraft. “Upper side (upper side)” or “lower side (lower side)” is a positional relationship of the aircraft 1 in the vertical direction (vertical direction), and indicates a relationship at a height above the ground.

図1に示すように、コンバインでは、左右一対のクローラ走行装置10を備えた機体1の前部に横軸芯周りで昇降操作自在に収穫部である刈取部2が連結されている。左右それぞれのクローラ走行装置10の速度差によって、機体1は左右旋回可能となる。機体1の後部には、機体横幅方向に並ぶ状態で脱穀装置11と、穀粒を貯留する穀粒タンク12とが備えられている。機体1の前部右側箇所に搭乗運転部14が備えられ、この搭乗運転部14の下方に図示されていないエンジンが備えられている。 As shown in FIG. 1, in the combine, a harvesting portion 2 which is a harvesting portion is connected to the front portion of the machine body 1 provided with a pair of left and right crawler traveling devices 10 so as to be movable up and down around the horizontal axis. Due to the speed difference between the left and right crawler traveling devices 10, the machine body 1 can turn left and right. The rear part of the machine body 1 is provided with a threshing device 11 and a grain tank 12 for storing grains in a state of being lined up in the width direction of the machine body 1. A boarding operation unit 14 is provided on the right side of the front portion of the aircraft 1, and an engine (not shown) is provided below the boarding operation unit 14.

図1に示すように、脱穀装置11は、刈取部2で刈り取られて後方に搬送されてきた刈取穀稈を内部に受け入れて、穀稈の株元をフィードチェーン111と挟持レール112とによって挟持して搬送しながら穂先側を扱胴113にて脱穀処理する。そして、扱胴113の下方に備えられた選別部にて脱穀処理物に対する穀粒選別処理が実行され、そこで選別された穀粒が穀粒タンク12へ搬送され、貯留される。また、詳述はしないが、穀粒タンク12にて貯留される穀粒を外部に排出する穀粒排出装置13が備えられている。 As shown in FIG. 1, the threshing device 11 receives the harvested culm cut by the cutting unit 2 and transported to the rear inside, and sandwiches the stock of the culm by the feed chain 111 and the holding rail 112. The tip side is threshed by the culm 113 while being transported. Then, a grain sorting process for the threshed product is executed in a sorting section provided below the handling cylinder 113, and the grains sorted there are transported to the grain tank 12 and stored. Further, although not described in detail, a grain discharge device 13 for discharging grains stored in the grain tank 12 to the outside is provided.

刈取部2には、引起された植立穀稈の株元を切断するバリカン型の切断装置22、穀稈搬送装置23等が備えられている。穀稈搬送装置23は、株元が切断された縦姿勢の刈取穀稈を徐々に横倒れ姿勢に変更させながら、フィードチェーン111の始端部に向けて搬送する。 The cutting unit 2 is provided with a clipper-type cutting device 22 for cutting the root of the raised planted culm, a culm transporting device 23, and the like. The grain culm transport device 23 transports the harvested culm in the vertical position in which the stock root has been cut toward the start end of the feed chain 111 while gradually changing the cut culm to the sideways position.

搭乗運転部14の天井部には、衛星測位モジュール80も設けられている。衛星測位モジュール80には、GNSS(global navigation satellite system)信号(GPS信号を含む)を受信するための衛星用アンテナが含まれている。衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサからなる慣性航法ユニットを衛星測位モジュール80に組み込んでもよい。もちろん、慣性航法ユニットは別の場所に配置できる。 A satellite positioning module 80 is also provided on the ceiling of the boarding operation unit 14. The satellite positioning module 80 includes a satellite antenna for receiving GNSS (global navigation satellite system) signals (including GPS signals). In order to complement the satellite navigation by the satellite positioning module 80, an inertial navigation unit including a gyro acceleration sensor and a magnetic compass sensor may be incorporated in the satellite positioning module 80. Of course, the inertial navigation system can be placed elsewhere.

図2に示すように、コンバインの前部には、障害物検出のために、圃場における機体1の進行方向前方を撮影する左右一対のカメラを有するステレオカメラであるステレオカメラユニット81が備えられている。さらに、この実施形態では、ステレオカメラユニット81のいずれか一方のカメラによって取得された撮影画像は、深層学習などの機械学習アルゴリズムに用いられ、当該撮影画像に写っている人などの障害物が検出される。 As shown in FIG. 2, the front part of the combine is provided with a stereo camera unit 81, which is a stereo camera having a pair of left and right cameras for photographing the front of the aircraft 1 in the traveling direction in the field for obstacle detection. There is. Further, in this embodiment, the captured image acquired by one of the cameras of the stereo camera unit 81 is used for a machine learning algorithm such as deep learning, and an obstacle such as a person in the captured image is detected. Will be done.

図3に示された模式的な制御フロー図を用いて、以下に、障害物検出の一例を説明する。ステレオカメラユニット81を用いた障害物検出では、まず、ステレオカメラユニット81の左右のカメラで撮影画像が取得される(#a)。次に、取得された左右のカメラの撮影画像に対するステレオマッチング処理が行われる(#b)。ステレオマッチング処理を通じて、視差データが生成され、さらに距離画像が生成される(#c)。さらに、距離画像から圃場面を1つの基準面(底面)とする3次元座標系で展開された3次元点群データが生成される(#d)。 An example of obstacle detection will be described below with reference to the schematic control flow diagram shown in FIG. In the obstacle detection using the stereo camera unit 81, first, the captured images are acquired by the left and right cameras of the stereo camera unit 81 (#a). Next, stereo matching processing is performed on the acquired images taken by the left and right cameras (# b). Parallax data is generated through the stereo matching process, and a distance image is further generated (#c). Further, the three-dimensional point cloud data developed in the three-dimensional coordinate system with the field scene as one reference plane (bottom surface) is generated from the distance image (#d).

さらに、3次元点群データから、刈取部2によって刈り取られた既刈地と未刈地との境界及び植立穀稈の高さを含む圃場刈取り情報が生成される。この圃場刈取り情報の作成アルゴリズムの一例を以下に説明する。 Further, from the three-dimensional point cloud data, field cutting information including the boundary between the cut land and the uncut land cut by the cutting unit 2 and the height of the planted culm is generated. An example of the algorithm for creating the field cutting information will be described below.

3次元点群データをもとにして、走行方向前方の3次元空間(処理対象空間)が数値標高モデル化され、数値標高モデルを用いて未刈地の推定が行われる。さらに、この推定された未刈地に生育している植立穀稈の高さの推定も行われる。処理対象空間は、例えば、幅5m、奥行き5m、高さ3m程度である。処理対象空間は、その底面を、単位区画(例えば、2cm×2cm〜5cm×5cm)で格子状に区切り、この単位区画群を底面とする直方体をさらに高さ方向に区分けされることで、セル構造体となる。このセル構造体の各セルに3次元点群データで示される点群が割り当てられる。単位区画を底面とする直方体に属するセルに入った点群の代表高さ(例えば、最大高さや平均高さ)を、単位区画に割り当てることで、圃場面の凹凸(植立穀稈の高さや障害物の高さを含む)が表現された凹凸画像が得られる。この凹凸画像に対して、2値化処理、膨張・収縮処理、ラベリング処理が行われ、最終的に未刈地と既刈地の領域が推定される(#e)。図3では、未刈地領域が斜線で、既刈地領域がクロス線で、未刈地と既刈地との間の境界が太い実線で示されている。コンバインが直進状態であると仮定すれば、境界が直線で示される。未刈地領域における点群の代表高さの平均が、植立穀稈の高さ(例えば1m)となる。これにより、走行方向前方の処理対象空間が未刈地の植立穀稈が存在する穀稈存在空間と、未刈地の植立穀稈が存在しない穀稈上方空間と、既刈地の自由空間とに分けることができる(#f)。 Based on the 3D point cloud data, the 3D space (space to be processed) in front of the traveling direction is modeled numerically, and the uncut land is estimated using the digital elevation model. In addition, the height of planted culms growing on this estimated uncut land is also estimated. The processing target space is, for example, about 5 m in width, 5 m in depth, and 3 m in height. The bottom surface of the processing target space is divided into unit sections (for example, 2 cm x 2 cm to 5 cm x 5 cm) in a grid pattern, and a rectangular parallelepiped having this unit section group as the bottom surface is further divided in the height direction to form cells. It becomes a structure. A point cloud indicated by three-dimensional point cloud data is assigned to each cell of this cell structure. By assigning the representative height (for example, maximum height or average height) of the point cloud in the cell belonging to the rectangular parallelepiped with the unit section as the bottom to the unit section, the unevenness of the field scene (height of the planted culm) An uneven image expressing (including the height of an obstacle) is obtained. The uneven image is binarized, expanded / contracted, and labeled, and finally the areas of uncut land and uncut land are estimated (#e). In FIG. 3, the uncut area is shown by a diagonal line, the cut area is shown by a cross line, and the boundary between the uncut area and the cut area is shown by a thick solid line. Assuming that the combine is in a straight line, the boundary is indicated by a straight line. The average of the representative heights of the point clouds in the uncut area is the height of the planted culm (for example, 1 m). As a result, the space to be processed in front of the traveling direction is the space where the planted culm of the uncut land exists, the space above the culm where the planted culm of the uncut land does not exist, and the free of the culm. It can be divided into space (#f).

穀稈存在空間に存在する障害物は、植立穀稈に遮蔽されるので、検出不能である。したがって、穀稈存在空間において推定された障害物はノイズとみなされる。このため、未刈地での植立穀稈の高さ領域である穀稈存在空間に入っている3次元点群データはマスキング処理によって障害物検出対象から除外される。このマスキング処理は、障害物検出処理に先立って、穀稈存在空間に入っている3次元点群データを処理対象から外す方法と、しきい値比較によって外す方法が考えられるが、いずれの方法も、本願ではマスキング処理として取り扱われる。穀稈上方空間と既刈地の自由空間とにおける、障害物検出の最大高さは、2.5m程度とする。 Obstacles existing in the culm existence space are undetectable because they are shielded by the planted culm. Therefore, the estimated obstacle in the culm existence space is regarded as noise. Therefore, the three-dimensional point cloud data in the culm existence space, which is the height region of the planted culm in the uncut land, is excluded from the obstacle detection target by the masking process. Prior to the obstacle detection process, this masking process can be considered as a method of removing the three-dimensional point cloud data in the culm existence space from the processing target or a method of removing it by threshold comparison. , In the present application, it is treated as a masking process. The maximum height of obstacle detection in the space above the culm and the free space of the mowed land is about 2.5 m.

障害物検出対象となっている3次元点群データを用いた障害物検出(物体検出)は、フィルタ処理、2値化処理、膨張・収縮処理、ラベリング処理を通じて得られる点密度によって行われる。障害物検出のためのしきい値より大きい点密度となるセル群が障害物とみなされる。その際、遠方領域の点密度は近傍での点密度に比べて粗になるので、障害物検出のためのしきい値は、ステレオカメラユニット81から各区画までの距離の関数、例えば距離の二乗に反比例するように与えられる。 Obstacle detection (object detection) using the three-dimensional point cloud data that is the target of obstacle detection is performed by the point density obtained through filtering, binarization, expansion / contraction, and labeling. A group of cells having a point density higher than the threshold value for obstacle detection is regarded as an obstacle. At that time, since the point density in the distant region is coarser than the point density in the vicinity, the threshold value for obstacle detection is a function of the distance from the stereo camera unit 81 to each section, for example, the square of the distance. Is given in inverse proportion to.

この実施形態では、障害物が既刈地と未刈地のいずれに存在するかを推定する障害物推定手段が用いられている。この障害物推定手段は深層学習を用いたアルゴリズムにより実現され、これにより障害物が見いだされる障害物枠(障害物領域)が出力される(#g)。つまり、ステレオカメラユニット81を構成するいずれか1つのカメラからによって取得された撮影画像において障害物が見いだされる障害物枠のサイズと位置が深層学習アルゴリズムによる出力される。なお、この実施形態では、費用対効果などの理由で、深層学習アルゴリズムとしてYOLOが用いられている。 In this embodiment, an obstacle estimation means for estimating whether an obstacle exists in a mowed land or an uncut land is used. This obstacle estimation means is realized by an algorithm using deep learning, and an obstacle frame (obstacle area) in which an obstacle is found is output (#g). That is, the size and position of the obstacle frame in which the obstacle is found in the captured image acquired by any one of the cameras constituting the stereo camera unit 81 is output by the deep learning algorithm. In this embodiment, YOLO is used as a deep learning algorithm for reasons such as cost effectiveness.

この障害物検出処理では、ステレオマッチングによる障害物検出と、深層学習アルゴリズムによる障害物枠とが組み合わされる(#h)。ステレオマッチングによる障害物検出では、障害物検出のしきい値を上げ過ぎると実際の障害物が未検出となり、障害物検出のしきい値を下げ過ぎると障害物を誤検出するという問題を引き起こす。このような問題は、深層学習アルゴリズムによって撮影画像に写っている障害物を示す障害物枠の出力によって、障害物の存在する領域をその信頼率とともに、ステレオマッチングによる障害物検出アルゴリズムに与えることで、低減する。例えば、植立穀稈の上端から突き出した人の顔を正しく障害物として検出することや、植立穀稈近くの既刈地にしゃがんでいる人を正しく障害物として検出することが、実験的に可能であった。 In this obstacle detection process, obstacle detection by stereo matching and obstacle frame by a deep learning algorithm are combined (#h). In obstacle detection by stereo matching, if the threshold value for obstacle detection is raised too much, the actual obstacle will not be detected, and if the threshold value for obstacle detection is lowered too much, the obstacle will be erroneously detected. Such a problem is solved by giving the area where the obstacle exists to the obstacle detection algorithm by stereo matching together with the reliability rate by the output of the obstacle frame showing the obstacle shown in the captured image by the deep learning algorithm. , Reduce. For example, it is experimental to correctly detect the face of a person protruding from the upper end of the planted culm as an obstacle, and to correctly detect a person crouching on the mowed land near the planted culm as an obstacle. Was possible.

検出された障害物が機体1との干渉の恐れがある場合、障害物との干渉回避の制御が行われる。このために用いる障害物警戒領域は、図4に示すように、機体1の進行方向前方に広がる圃場面に対応する基準面(XY平面)上に規定される。ここでは、障害物警戒領域は、機体1との位置関係が異なる第1警戒領域(図4では濃く塗りつぶされ、符号Z1が付与されている)と第2警戒領域(図4では薄く塗りつぶされ、符号Z2が付与されている)とからなる。 When the detected obstacle may interfere with the aircraft 1, control of avoiding interference with the obstacle is performed. As shown in FIG. 4, the obstacle warning area used for this purpose is defined on the reference plane (XY plane) corresponding to the field scene extending forward in the traveling direction of the aircraft 1. Here, the obstacle warning area is the first warning area (darkly filled in FIG. 4 and given the code Z1) and the second warning area (lightly filled in FIG. 4) having different positional relationships with the aircraft 1. The symbol Z2 is assigned).

第1警戒領域は、刈取部2の作業幅と、機体1から機体1の進行方向前方への警戒距離(図4では符号L1で示されている)とによって規定される長方形から、ステレオカメラユニット81の画角によって決まる死角領域を切り取った先端楔状の領域である。言い換えると、第1警戒領域は、実質的にコンバインの走行軌跡幅である刈取部2の左右幅の一辺とし、機体1から進行方向前方への所定距離(警戒距離)を他辺とする長方形から、ステレオカメラユニット81の画角によって決まる死角領域を切り取った形状である。この第1警戒領域に存在する障害物は、コンバインの進行によりコンバインと接触することになる。したがって、その警戒距離は、コンバインの車速に応じて変更されるのが好ましいが、この実施形態では、作業走行速度が実質的に一定であるので、数mに設定されている。 The first warning area is a stereo camera unit from a rectangle defined by the working width of the cutting unit 2 and the warning distance (indicated by reference numeral L1 in FIG. 4) from the machine 1 to the front in the traveling direction of the machine 1. It is a tip wedge-shaped region obtained by cutting out a blind spot region determined by the angle of view of 81. In other words, the first warning area is from a rectangle whose left and right sides of the harvesting section 2, which is substantially the width of the combine's traveling locus, is a predetermined distance (warning distance) forward from the aircraft 1 in the traveling direction. , The shape is obtained by cutting out a blind spot region determined by the angle of view of the stereo camera unit 81. Obstacles existing in this first alert area come into contact with the combine as the combine progresses. Therefore, the warning distance is preferably changed according to the vehicle speed of the combine, but in this embodiment, since the working running speed is substantially constant, it is set to several meters.

第2警戒領域は、機体1の進行方向前方へ広がった平面における、ステレオカメラユニット81の画角によって決まる死角領域を切り取った先端楔状の領域から、第1警戒領域を切り取った形状である。コンバインの左右方向に関して、第1警戒領域の3倍程度の幅を有し、機体1の進行方向前方に関して、第1警戒領域の2倍弱の長さ(図4では符号L2で示されている)を有する。第2警戒領域の左右方向広がりは、コンバインの旋回を考慮して設定され、第2警戒領域の進行方向の広がりは、機体1と障害物との干渉までに時間的に余裕が、第1警戒領域より大きくなるように設定されている。 The second warning area is a shape obtained by cutting out the first warning area from the tip wedge-shaped area in which the blind spot area determined by the angle of view of the stereo camera unit 81 is cut out in the plane extending forward in the traveling direction of the aircraft 1. It has a width of about three times that of the first warning area in the left-right direction of the combine, and a little less than twice the length of the first warning area in front of the traveling direction of the aircraft 1 (indicated by reference numeral L2 in FIG. 4). ). The left-right spread of the second warning area is set in consideration of the turning of the combine, and the spread of the traveling direction of the second warning area has a margin in time until the aircraft 1 interferes with the obstacle, but the first warning area It is set to be larger than the area.

図5には、コンバインの制御系の機能ブロック図が示されている。この実施形態の制御系は、多数のECUと呼ばれる電子制御ユニットと、各種動作機器、センサ群やスイッチ群、それらの間のデータ伝送を行う車載LANなどの配線網から構成されている。報知デバイス84は、運転者等に障害物の検出結果や作業走行の状態などの警告を報知するためのデバイスであり、ブザー、ランプ、スピーカ、ディスプレイなどである。障害物の検出結果に関しては、障害物が第1警戒領域に存在している場合には、切迫した状態を示すような警告音や警告光や警告メッセージが緊急警戒報知として報知され、第1警戒領域に存在している場合には、緊急警戒報知よりは穏やかな注意音や注意光や注意メッセージが注意報知として報知される。 FIG. 5 shows a functional block diagram of the combine control system. The control system of this embodiment is composed of a large number of electronic control units called ECUs, various operating devices, sensor groups and switch groups, and a wiring network such as an in-vehicle LAN that transmits data between them. The notification device 84 is a device for notifying the driver or the like of a warning such as an obstacle detection result or a working running state, and is a buzzer, a lamp, a speaker, a display, or the like. Regarding the detection result of the obstacle, when the obstacle exists in the first warning area, a warning sound, a warning light, or a warning message indicating an imminent state is notified as an emergency warning notification, and the first warning is given. If it exists in the area, a gentle caution sound, a caution light, or a caution message is notified as a caution notification rather than an emergency warning notification.

通信部85は、外部の通信機器との間でデータ交換するために用いられる。制御ユニット6は、この制御系の中核要素であり、複数のECUの集合体として示されている。衛星測位モジュール80からの測位データ、および、ステレオカメラユニット81からの撮影画像は、配線網を通じて制御ユニット6に入力される。 The communication unit 85 is used for exchanging data with an external communication device. The control unit 6 is a core element of this control system and is shown as an aggregate of a plurality of ECUs. The positioning data from the satellite positioning module 80 and the captured image from the stereo camera unit 81 are input to the control unit 6 through the wiring network.

制御ユニット6は、入出力インタフェースとして、出力処理部6Bと入力処理部6Aとを備えている。出力処理部6Bは、車両走行機器群7Aおよび作業装置機器群7Bと接続している。車両走行機器群7Aには、車両走行に関する制御機器、例えばエンジン制御機器、変速制御機器、制動制御機器、操舵制御機器などが含まれている。作業装置機器群7Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における動力制御機器などが含まれている。 The control unit 6 includes an output processing unit 6B and an input processing unit 6A as input / output interfaces. The output processing unit 6B is connected to the vehicle traveling equipment group 7A and the working equipment group 7B. The vehicle traveling device group 7A includes control devices related to vehicle traveling, such as an engine control device, a shift control device, a braking control device, and a steering control device. The working equipment group 7B includes a cutting unit 2, a threshing device 11, a grain discharging device 13, a power control device in the grain transporting device 23, and the like.

入力処理部6Aには、走行系検出センサ群8Aや作業系検出センサ群8Bなどが接続されている。走行系検出センサ群8Aには、エンジン回転数調整具、アクセルペダル、ブレーキペダル、変速操作具などの状態を検出するセンサが含まれている。作業系検出センサ群8Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における装置状態および穀稈や穀粒の状態を検出するセンサが含まれている。 A traveling system detection sensor group 8A, a working system detection sensor group 8B, and the like are connected to the input processing unit 6A. The traveling system detection sensor group 8A includes sensors that detect the state of the engine speed adjuster, the accelerator pedal, the brake pedal, the speed change operation tool, and the like. The work system detection sensor group 8B includes a sensor for detecting the device state in the cutting unit 2, the grain removal device 11, the grain discharge device 13, and the grain transfer device 23, and the state of the grain and the grain.

制御ユニット6には、作業走行制御モジュール60、障害物検出ユニット50、車速変更指令出力部65、機体位置算出部66、報知部67が制御機能部として備えられている。なお、これらの制御機能部は、それぞれ別体で構成され、車載LAN等で接続される。 The control unit 6 is provided with a work travel control module 60, an obstacle detection unit 50, a vehicle speed change command output unit 65, an aircraft position calculation unit 66, and a notification unit 67 as control function units. It should be noted that these control function units are individually configured and connected by an in-vehicle LAN or the like.

報知部67は、制御ユニット6の各機能部からの要求に基づいて報知データを生成し、報知デバイス84に与える。機体位置算出部66は、衛星測位モジュール80から逐次送られてくる測位データに基づいて、機体1の地図座標(または圃場座標)である機体位置を算出する。 The notification unit 67 generates notification data based on a request from each functional unit of the control unit 6 and gives the notification data to the notification device 84. The aircraft position calculation unit 66 calculates the aircraft position, which is the map coordinates (or field coordinates) of the aircraft 1, based on the positioning data sequentially sent from the satellite positioning module 80.

この実施形態のコンバインは自動走行(自動操舵)と手動走行(手動操舵)の両方で走行可能である。作業走行制御モジュール60には、走行制御部61と作業制御部62とに加えて、作業走行指令部63および走行経路設定部64が備えられている。自動操舵で走行する自動走行モードと、手動操舵で走行する手動操舵モードとのいずれかを選択する走行モードスイッチ(非図示)が搭乗運転部14内に設けられている。この走行モードスイッチを操作することで、手動操舵走行から自動操舵走行への移行、あるいは自動操舵走行から手動操舵走行への移行が可能である。 The combine of this embodiment can travel in both automatic driving (automatic steering) and manual driving (manual steering). The work travel control module 60 includes a work travel command unit 63 and a travel route setting unit 64 in addition to the travel control unit 61 and the work control unit 62. A traveling mode switch (not shown) for selecting between an automatic traveling mode for traveling by automatic steering and a manual steering mode for traveling by manual steering is provided in the boarding operation unit 14. By operating this travel mode switch, it is possible to shift from manual steering running to automatic steering running, or from automatic steering running to manual steering running.

走行制御部61は、エンジン制御機能、操舵制御機能、車速制御機能などを有し、車両走行機器群7Aに走行制御信号を与える。作業制御部62は、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23などの動きを制御するために、作業装置機器群7Bに作業制御信号を与える。 The travel control unit 61 has an engine control function, a steering control function, a vehicle speed control function, and the like, and gives a travel control signal to the vehicle travel equipment group 7A. The work control unit 62 gives a work control signal to the work equipment group 7B in order to control the movements of the cutting unit 2, the threshing device 11, the grain discharge device 13, the grain culm transport device 23, and the like.

走行経路設定部64は、自動走行のための走行経路をメモリに展開する。メモリに展開された走行経路は、順次自動走行における目標走行経路として用いられる。この走行経路は、手動走行であっても、コンバインが当該走行経路に沿って走行するためのガイダンスのために利用することも可能である。 The travel route setting unit 64 develops a travel route for automatic travel in the memory. The travel route developed in the memory is used as a target travel route in sequential automatic driving. This travel route can be used for guidance for the combine to travel along the travel route even in manual travel.

作業走行指令部63は、自動走行指令として、自動操舵指令および車速指令を生成して、走行制御部61に与える。自動操舵指令は、走行経路設定部64によって走行経路と、機体位置算出部66によって算出された自機位置との間の方位ずれおよび位置ずれを解消するように生成される。自動走行時には、車速指令は、前もって設定されている車速値に基づいて生成される。手動走行時には、車速指令は、手動車速操作に基づいて生成される。但し、障害物検出などの緊急事態が発生した場合は、強制的な停止を含む車速変更や、エンジン停止などが自動的に行われる。 The work travel command unit 63 generates an automatic steering command and a vehicle speed command as automatic travel commands and gives them to the travel control unit 61. The automatic steering command is generated so as to eliminate the directional deviation and the positional deviation between the traveling route and the own aircraft position calculated by the aircraft position calculation unit 66 by the traveling route setting unit 64. During automatic driving, the vehicle speed command is generated based on the vehicle speed value set in advance. During manual driving, the vehicle speed command is generated based on the manual vehicle speed operation. However, in the event of an emergency such as obstacle detection, the vehicle speed will be changed, including a forced stop, and the engine will be stopped automatically.

自動走行モードが選択されている場合、作業走行指令部63によって与えられる自動走行指令に基づいて、走行制御部61は、操舵に関する車両走行機器群7Aや車速に関する車両走行機器群7Aを制御する。手動走行モードが選択されている場合、運転者による操作に基づいて、走行制御部61が制御信号を生成し、車両走行機器群7Aを制御する。 When the automatic driving mode is selected, the traveling control unit 61 controls the vehicle traveling equipment group 7A related to steering and the vehicle traveling equipment group 7A related to vehicle speed based on the automatic traveling command given by the work traveling command unit 63. When the manual driving mode is selected, the traveling control unit 61 generates a control signal based on the operation by the driver to control the vehicle traveling equipment group 7A.

障害物検出ユニット50では、図3を用いて説明したように、ステレオカメラユニット81によって取得された撮影画像が用いられ、ステレオマッチングによる障害物検出及び深層学習アルゴリズムによる障害物検出が同時に行われる。このため、障害物検出ユニット50には、画像取得部51と、距離情報生成部52と、圃場刈取り情報作成部53と、深層学習ユニット54と、障害物検出部55と、警戒領域設定部56とが含まれている。画像取得部51は、ステレオカメラユニット81から送られてきた左右の撮影画像を距離情報生成部52に与え、左右の撮影画像のうちのいずれか、例えば右の撮影画像を深層学習ユニット54に送る。距離情報生成部52は、左右の撮影画像からステレオマッチングを用いて、圃場面を1つの基準面とする3次元座標系で展開された3次元点群データを生成する。圃場刈取り情報作成部53は、3次元点群データから、刈取部2によって刈り取られた既刈地と未刈地との境界及び植立穀稈の高さを含む圃場刈取り情報を生成する。深層学習ユニット54は、障害物が既刈地と未刈地のいずれに存在するかを推定する機能を有する。学習済の深層学習ユニット54は、入力された撮影画像における障害物の存在を推定し、当該障害物の輪郭を示す障害物枠のサイズ及びその位置を推定結果として出力する。 In the obstacle detection unit 50, as described with reference to FIG. 3, the captured image acquired by the stereo camera unit 81 is used, and the obstacle detection by stereo matching and the obstacle detection by the deep learning algorithm are simultaneously performed. Therefore, the obstacle detection unit 50 includes an image acquisition unit 51, a distance information generation unit 52, a field cutting information creation unit 53, a deep learning unit 54, an obstacle detection unit 55, and a warning area setting unit 56. And are included. The image acquisition unit 51 gives the left and right captured images sent from the stereo camera unit 81 to the distance information generation unit 52, and sends one of the left and right captured images, for example, the right captured image, to the deep learning unit 54. .. The distance information generation unit 52 uses stereo matching from the left and right captured images to generate three-dimensional point cloud data developed in a three-dimensional coordinate system with the field scene as one reference plane. The field mowing information creation unit 53 generates field mowing information including the boundary between the mowed land and the uncut land mowed by the mowing unit 2 and the height of the planted culm from the three-dimensional point cloud data. The deep learning unit 54 has a function of estimating whether an obstacle exists in a mowed land or an uncut land. The trained deep learning unit 54 estimates the presence of an obstacle in the input captured image, and outputs the size and position of the obstacle frame showing the outline of the obstacle as an estimation result.

障害物検出部55は、3次元点群データと、圃場刈取り情報と、障害物枠のサイズ及びその位置とに基づいて、障害物を検出し、当該障害物と機体1との距離(障害物距離)を算出する。警戒領域設定部56は、機体1に対する位置に基づいて規定される障害物警戒領域を設定する。この実施形態では、障害物警戒領域は、図4を用いて述べたように、第1警戒領域と第2警戒領域に区分けられている。障害物検出部55は、検出される障害物が第1警戒領域と第2警戒領域とのどちらに存在するものであるかを判定し、障害物検出情報を生成する。なお、図5に示された障害物検出ユニット50を構成する構成要素は、主に説明目的で分けられており、当該構成要素の統合や、当該構成要素の分割は、自由に行われてよい。 The obstacle detection unit 55 detects an obstacle based on the three-dimensional point cloud data, the field cutting information, the size of the obstacle frame and its position, and the distance between the obstacle and the aircraft 1 (obstacle). Distance) is calculated. The warning area setting unit 56 sets an obstacle warning area defined based on the position with respect to the aircraft 1. In this embodiment, the obstacle warning area is divided into a first warning area and a second warning area as described with reference to FIG. The obstacle detection unit 55 determines whether the detected obstacle is in the first warning area or the second warning area, and generates obstacle detection information. The components constituting the obstacle detection unit 50 shown in FIG. 5 are mainly separated for the purpose of explanation, and the components may be integrated or the components may be freely divided. ..

障害物検出ユニット50で生成された障害物検出情報は、車速変更指令出力部65に送られる。車速変更指令出力部65は、受け取った障害物検出情報から、障害物が第1警戒領域に存在する場合には、車速変更値を含む第1車速変更指令を作業走行指令部63に出力し、障害物が第2警戒領域に存在する場合には、車速変更値を含む第2車速変更指令を作業走行指令部63に出力する。第1車速変更指令は、車速をゼロにする指令、つまり機体1を停止する命令である。もちろん、第1車速変更指令は、車速をゼロに近い値にする指令、あるいは、段階的に車速をゼロにする指令であってもよい。第2車速変更指令は、車速を微速、例えば時速1km程度に減速する減速値である。第2車速変更指令として、直前の車速の数分の1に減速するといった、直前車速に対する割合で決められた減速値であってもよい。いずれにせよ、第1車速変更指令による第1車速変更値は、第2車速変更指令による第2車速変更値より大きく、緊急避難のための指令となっている。車速変更指令出力部65によって決定された車速変更指令に基づいて、作業走行指令部63は、走行制御部61に制御指令を与えて、機体1を緊急的に減速させる。検出された障害物の存在が第1警戒領域から第2警戒領域に移行すれば、停止していた機体1は、第2車速変更指令で規定されている微速で前進する。さらには、障害物が警戒領域で、検出されなくなれば、通常の作業車速での走行に戻る。 The obstacle detection information generated by the obstacle detection unit 50 is sent to the vehicle speed change command output unit 65. From the received obstacle detection information, the vehicle speed change command output unit 65 outputs the first vehicle speed change command including the vehicle speed change value to the work travel command unit 63 when the obstacle exists in the first warning area. When the obstacle exists in the second warning area, the second vehicle speed change command including the vehicle speed change value is output to the work travel command unit 63. The first vehicle speed change command is a command to reduce the vehicle speed to zero, that is, a command to stop the aircraft 1. Of course, the first vehicle speed change command may be a command for setting the vehicle speed to a value close to zero, or a command for gradually reducing the vehicle speed to zero. The second vehicle speed change command is a deceleration value for decelerating the vehicle speed to a very small speed, for example, about 1 km / h. As the second vehicle speed change command, a deceleration value determined by a ratio to the immediately preceding vehicle speed, such as decelerating to a fraction of the immediately preceding vehicle speed, may be used. In any case, the first vehicle speed change value by the first vehicle speed change command is larger than the second vehicle speed change value by the second vehicle speed change command, and is a command for emergency evacuation. Based on the vehicle speed change command determined by the vehicle speed change command output unit 65, the work travel command unit 63 gives a control command to the travel control unit 61 to urgently decelerate the aircraft 1. If the presence of the detected obstacle shifts from the first warning area to the second warning area, the stopped aircraft 1 moves forward at a slow speed specified by the second vehicle speed change command. Furthermore, if the obstacle is not detected in the caution area, the vehicle returns to normal working vehicle speed.

次に、上述した制御系における、障害物検出と車速減速との制御の流れの一例を示すフローチャートが図6に示されている。この制御がスタートすれば、フラグや変数のリセットなどの初期設定が行われる(#01)。警戒領域の設定、つまり第1警戒領域と第2警戒領域が設定される(#02)。第1警戒領域が、車速によって変更される場合には、現在車速を取得して、その車速に基づいて、第1警戒領域が設定される。 Next, FIG. 6 shows a flowchart showing an example of the control flow of obstacle detection and vehicle speed deceleration in the above-mentioned control system. When this control starts, initial settings such as resetting flags and variables are performed (# 01). The alert area is set, that is, the first alert area and the second alert area are set (# 02). When the first warning area is changed by the vehicle speed, the current vehicle speed is acquired and the first warning area is set based on the vehicle speed.

ステレオカメラユニット81から撮影画像が取り込まれる(#03)。取り込まれた撮影画像を用いて、図3で示されたように障害物検出ユニット50による障害物検出処理が行われ、障害物が検出されると障害物検出情報が出力される(#04)。 The captured image is captured from the stereo camera unit 81 (# 03). As shown in FIG. 3, the obstacle detection unit 50 performs the obstacle detection process using the captured image, and when the obstacle is detected, the obstacle detection information is output (# 04). ..

障害物が検出されているかどうかの判定が行われ、障害物が検出されていると(#05Yes分岐)、障害物警戒領域における障害物の位置が、つまり障害物の二次元位置が算出される(#11)。 It is determined whether or not an obstacle is detected, and if an obstacle is detected (# 05Yes branch), the position of the obstacle in the obstacle warning area, that is, the two-dimensional position of the obstacle is calculated. (# 11).

障害物が第1警戒領域に入っているかどうかチェックされる(#12)。障害物が第1警戒領域に入っていれば(#12Yes分岐)、車速変更指令出力部65が第1車速変更指令として、停止指令を作業走行指令部63に与える(#13)。さらに停止フラグをONにする(#14)。なお、ステップ#14において、減速フラグがONであるときは(第2警戒領域から第1境界領域に障害物が移動したときは)、減速フラグをOFFにして停止フラグをONにする。これにより機体1は停止し、制御はステップ#02に戻る。 It is checked if the obstacle is in the first alert area (# 12). If the obstacle is in the first warning area (# 12Yes branch), the vehicle speed change command output unit 65 gives a stop command to the work travel command unit 63 as the first vehicle speed change command (# 13). Furthermore, the stop flag is turned ON (# 14). In step # 14, when the deceleration flag is ON (when an obstacle moves from the second warning area to the first boundary area), the deceleration flag is turned OFF and the stop flag is turned ON. As a result, the aircraft 1 is stopped, and the control returns to step # 02.

ステップ#12のチェックで障害物が第1警戒領域に入っていない場合(#12No分岐)、さらに、第2警戒領域に入っているかどうかチェックされる(#20)。障害物が第2警戒領域に入っていれば(#20Yes分岐)、車速変更指令出力部65が第2車速変更指令として、減速指令を作業走行指令部63に与える(#21)。さらに減速フラグをONにする(#22)。なお、ステップ#22において、停止フラグがONであるときは(第1警戒領域から第2境界領域に障害物が移動したときは)、停止フラグをOFFにして減速フラグをONにする。これにより機体1は微速走行し(時速1km程度)、制御はステップ#02に戻る。 If the obstacle is not in the first alert area (# 12No branch) in the check of step # 12, it is further checked whether or not it is in the second alert area (# 20). If the obstacle is in the second warning area (# 20Yes branch), the vehicle speed change command output unit 65 gives a deceleration command to the work travel command unit 63 as the second vehicle speed change command (# 21). Furthermore, the deceleration flag is turned ON (# 22). In step # 22, when the stop flag is ON (when an obstacle moves from the first warning area to the second boundary area), the stop flag is turned OFF and the deceleration flag is turned ON. As a result, the aircraft 1 travels at a very low speed (about 1 km / h), and the control returns to step # 02.

ステップ#20のチェックで障害物が第2警戒領域に入っていない場合(#20No分岐)、警戒領域には障害物が存在しないことになる。このように警戒領域には障害物が存在しない場合、あるいは、そもそも障害物が検出されなかった場合(#08No分岐)、停止フラグの状態と減速フラグとの状態がチェックされ、その状態に応じたフラグ内容の書き換えが行われる。具体的には、その際に、停止フラグがONであれば(#30Yes分岐)、停止フラグはOFFに書き換えられ(#31)、さらに、走行指令が有効となり、機体1は通常走行を行う(#32)。次いで、制御はステップ#02に戻る。その際に、停止フラグがONでなければ(#30No分岐)、減速フラグの内容がチェックされる(#40)。減速フラグがONであれば(#40Yes分岐)、減速フラグはOFFに書き換えられる(#41)、さらに、走行指令が有効となり、機体1は通常走行を行う(#42)。通常走行とは、障害物等が検出されていない際の作業走行であり、その車速は、障害物が第2警戒領域に存在している際の車速より、速い速度である。次いで、制御はステップ#02に戻る。減速フラグがOFFであれば(#40No分岐)、もちろん走行指令は有効であり、機体1は通常走行を行う(#43)そのまま、制御はステップ#02に戻る。 If the obstacle is not in the second warning area in the check of step # 20 (# 20 No branch), there is no obstacle in the warning area. In this way, when there is no obstacle in the warning area, or when no obstacle is detected in the first place (# 08No branch), the state of the stop flag and the state of the deceleration flag are checked, and the state corresponds to that state. The flag contents are rewritten. Specifically, at that time, if the stop flag is ON (# 30Yes branch), the stop flag is rewritten to OFF (# 31), the travel command becomes valid, and the aircraft 1 normally travels (# 30Yes branch). # 32). Control then returns to step # 02. At that time, if the stop flag is not ON (# 30No branch), the content of the deceleration flag is checked (# 40). If the deceleration flag is ON (# 40Yes branch), the deceleration flag is rewritten to OFF (# 41), the travel command becomes valid, and the aircraft 1 normally travels (# 42). The normal running is a work running when an obstacle or the like is not detected, and the vehicle speed is faster than the vehicle speed when the obstacle is in the second warning area. Control then returns to step # 02. If the deceleration flag is OFF (# 40 No branch), of course, the travel command is valid, and the aircraft 1 normally travels (# 43), and the control returns to step # 02 as it is.

このような障害物検出と車速変更との制御により、収穫機の機体1の進行方向前方の警戒領域に圃場作業者が進入すると、収穫機は停止または減速し、警戒領域から圃場作業者が出ていくと、収穫機は、再び通常の車速での作業走行に復帰する。 By controlling such obstacle detection and vehicle speed change, when a field worker enters the warning area in front of the machine 1 of the harvester in the traveling direction, the harvester stops or decelerates, and the field worker leaves the warning area. Then, the harvester returns to working at normal vehicle speed again.

この障害物検出に基づく車速減速の制御は、収穫機が自動走行であっても、手動走行であっても、実行させることが可能である。 The vehicle speed deceleration control based on this obstacle detection can be executed regardless of whether the harvester is automatically running or manually running.

上述した実施形態では、第1警戒領域と第2警戒領域とを設定し、障害物がそれぞれの警戒領域に存在した場合、機体1の停止、または通常走行より遅い車速への変更が行われた。これに代えて、警戒領域を3つ以上設け、それぞれの領域に応じて、機体1を停止または微速への変更が行われてもよい。さらには、警戒領域を無段階に設定し、機体1と障害物との距離に応じて、機体1の停止、あるいは通常走行より遅い車速への無段階の変更が行われてもよい。 In the above-described embodiment, the first warning area and the second warning area are set, and when an obstacle exists in each warning area, the aircraft 1 is stopped or the vehicle speed is changed to a speed slower than the normal running. .. Instead of this, three or more warning areas may be provided, and the aircraft 1 may be stopped or changed to a slow speed according to each area. Further, the warning area may be set steplessly, and the aircraft 1 may be stopped or the vehicle speed may be changed steplessly to a vehicle speed slower than the normal traveling according to the distance between the aircraft 1 and the obstacle.

なお、上記実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能であり、また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 The configuration disclosed in the above embodiment (including another embodiment, the same shall apply hereinafter) can be applied in combination with the configuration disclosed in other embodiments as long as there is no contradiction. The embodiments disclosed in the present specification are examples, and the embodiments of the present invention are not limited thereto, and can be appropriately modified without departing from the object of the present invention.

本発明は、圃場で作業走行を行う収穫機に適用される。 The present invention is applied to a harvester that runs a work in a field.

1 :機体
2 :刈取部(収穫部)
50 :障害物検出ユニット
51 :画像取得部
52 :距離情報生成部
53 :圃場刈取り情報作成部
54 :深層学習ユニット(障害物推定手段)
55 :障害物検出部
56 :警戒領域設定部
65 :車速変更指令出力部
81 :ステレオカメラユニット(ステレオカメラ)
1: Aircraft 2: Harvesting section (harvesting section)
50: Obstacle detection unit 51: Image acquisition unit 52: Distance information generation unit 53: Field mowing information creation unit 54: Deep learning unit (obstacle estimation means)
55: Obstacle detection unit 56: Warning area setting unit 65: Vehicle speed change command output unit 81: Stereo camera unit (stereo camera)

Claims (3)

圃場の農作物を刈り取る収穫部を有する収穫機であって、
圃場における機体の進行方向前方を撮影するステレオカメラユニットと、
前記ステレオカメラユニットによって取得された撮影画像からステレオマッチングを用いて、圃場面を1つの基準面とする3次元座標系で展開された3次元点群データを生成する距離情報生成部と、
前記3次元点群データから、前記収穫部によって刈り取られた既刈地と未刈地との境界及び前記農作物の高さを含む圃場刈取り情報を生成する圃場刈取り情報作成部と、
障害物が前記既刈地と前記未刈地のいずれに存在するかを推定する障害物推定手段と、
前記未刈地での前記農作物の高さ領域に入っている前記3次元点群データを障害物検出対象から除外するマスキング処理を行うとともに、前記3次元点群データと前記障害物推定手段による推定結果とに基づいて、前記障害物を検出するとともに前記障害物と前記機体との位置関係を算出する障害物検出部と、
を備えた収穫機。
A harvester that has a harvesting section that cuts crops in the field.
A stereo camera unit that captures the front of the aircraft in the field,
A distance information generator that uses stereo matching from the captured image acquired by the stereo camera unit to generate 3D point cloud data developed in a 3D coordinate system with a field scene as one reference plane.
From the three-dimensional point cloud data, a field cutting information creation unit that generates field cutting information including the boundary between the cut land and the uncut land cut by the harvesting part and the height of the crop,
An obstacle estimation means for estimating whether an obstacle exists in the mowed land or the uncut land, and
Masking processing is performed to exclude the three-dimensional point cloud data in the height region of the agricultural product in the uncut land from the obstacle detection target, and the three-dimensional point cloud data and the estimation by the obstacle estimation means are performed. An obstacle detection unit that detects the obstacle and calculates the positional relationship between the obstacle and the aircraft based on the result.
Harvesting machine equipped with.
前記機体からの位置に基づいて規定される障害物警戒領域を設定する警戒領域設定部と、
前記障害物検出部によって検出された前記障害物が前記障害物警戒領域に存在する場合、前記位置関係に応じて車速を変更する車速変更指令出力部が備えられている請求項1に記載の収穫機。
A warning area setting unit that sets an obstacle warning area defined based on the position from the aircraft,
The harvest according to claim 1, wherein when the obstacle detected by the obstacle detection unit exists in the obstacle warning area, a vehicle speed change command output unit for changing the vehicle speed according to the positional relationship is provided. Machine.
前記障害物推定手段が深層学習ユニットであり、前記深層学習ユニットは前記ステレオカメラユニットを構成するいずれか1つのカメラからによって取得された撮影画像を用いて障害物が見いだされる障害物領域を推定する請求項1または2に記載の収穫機。
The obstacle estimation means is a deep learning unit, and the deep learning unit estimates an obstacle region in which an obstacle is found by using a captured image acquired by any one of the cameras constituting the stereo camera unit. The harvester according to claim 1 or 2.
JP2019085785A 2019-04-26 2019-04-26 harvester Active JP7195543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085785A JP7195543B2 (en) 2019-04-26 2019-04-26 harvester

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085785A JP7195543B2 (en) 2019-04-26 2019-04-26 harvester

Publications (2)

Publication Number Publication Date
JP2020178659A true JP2020178659A (en) 2020-11-05
JP7195543B2 JP7195543B2 (en) 2022-12-26

Family

ID=73022612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085785A Active JP7195543B2 (en) 2019-04-26 2019-04-26 harvester

Country Status (1)

Country Link
JP (1) JP7195543B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022085683A (en) * 2020-11-27 2022-06-08 株式会社クボタ Implement
WO2022118771A1 (en) * 2020-12-02 2022-06-09 ヤンマーホールディングス株式会社 Automatic traveling system, automatic traveling method, and automatic traveling program
WO2022161748A1 (en) * 2021-01-27 2022-08-04 Zf Cv Systems Global Gmbh Operational safety of a agricultural implement
WO2023007835A1 (en) * 2021-07-30 2023-02-02 株式会社クボタ Management system, and method for managing access of agricultural machine to field
WO2023119996A1 (en) 2021-12-24 2023-06-29 株式会社クボタ Obstacle detection system, agricultural machine and obstacle detection method
WO2024004782A1 (en) * 2022-06-30 2024-01-04 株式会社クボタ Travel route management system
JP7482838B2 (en) 2021-06-28 2024-05-14 株式会社クボタ Work Support System

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238510A (en) * 1996-03-06 1997-09-16 Iseki & Co Ltd Plowing border detecting device for farm working vehicle
JPH10178815A (en) * 1996-12-25 1998-07-07 Iseki & Co Ltd Steering rotation controller for combine or the like
JP2014194729A (en) * 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method
WO2015163028A1 (en) * 2014-04-25 2015-10-29 日立建機株式会社 Road surface estimation device and road surface estimation system for mine work-vehicle
JP2018196349A (en) * 2017-05-24 2018-12-13 井関農機株式会社 Mobile agricultural machine
US20180376128A1 (en) * 2017-06-21 2018-12-27 Claas E-Systems Kgaa Mbh & Co Kg Agricultural working machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238510A (en) * 1996-03-06 1997-09-16 Iseki & Co Ltd Plowing border detecting device for farm working vehicle
JPH10178815A (en) * 1996-12-25 1998-07-07 Iseki & Co Ltd Steering rotation controller for combine or the like
JP2014194729A (en) * 2013-02-27 2014-10-09 Sharp Corp Circumferential environment recognition device, autonomous mobile system using the same, and circumferential environment recognition method
WO2015163028A1 (en) * 2014-04-25 2015-10-29 日立建機株式会社 Road surface estimation device and road surface estimation system for mine work-vehicle
JP2018196349A (en) * 2017-05-24 2018-12-13 井関農機株式会社 Mobile agricultural machine
US20180376128A1 (en) * 2017-06-21 2018-12-27 Claas E-Systems Kgaa Mbh & Co Kg Agricultural working machine

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022085683A (en) * 2020-11-27 2022-06-08 株式会社クボタ Implement
JP7399070B2 (en) 2020-11-27 2023-12-15 株式会社クボタ work equipment
WO2022118771A1 (en) * 2020-12-02 2022-06-09 ヤンマーホールディングス株式会社 Automatic traveling system, automatic traveling method, and automatic traveling program
WO2022161748A1 (en) * 2021-01-27 2022-08-04 Zf Cv Systems Global Gmbh Operational safety of a agricultural implement
JP7482838B2 (en) 2021-06-28 2024-05-14 株式会社クボタ Work Support System
WO2023007835A1 (en) * 2021-07-30 2023-02-02 株式会社クボタ Management system, and method for managing access of agricultural machine to field
WO2023119996A1 (en) 2021-12-24 2023-06-29 株式会社クボタ Obstacle detection system, agricultural machine and obstacle detection method
WO2024004782A1 (en) * 2022-06-30 2024-01-04 株式会社クボタ Travel route management system

Also Published As

Publication number Publication date
JP7195543B2 (en) 2022-12-26

Similar Documents

Publication Publication Date Title
JP7195543B2 (en) harvester
KR102589076B1 (en) harvest
WO2019124225A1 (en) Agricultural vehicle, work vehicle collision warning system, and work vehicle
JP7246641B2 (en) agricultural machine
WO2020261823A1 (en) Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
JP6904539B2 (en) Harvester
JP7174484B2 (en) agricultural vehicle
JP7071250B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6854713B2 (en) combine
US20190225214A1 (en) Advanced wild-life collision avoidance for vehicles
JP6745784B2 (en) Work vehicle
JP7069087B2 (en) Travel route generation system
KR20210123076A (en) Method for operation unmanned moving vehivle based on binary 3d space map
CN109211260B (en) Intelligent vehicle driving path planning method and device and intelligent vehicle
WO2020218464A1 (en) Harvester, obstacle determination program, recording medium on which obstacle determination program is recorded, obstacle determination method, agricultural work machine, control program, recording medium on which control program is recorded, and control method
JP2021007386A (en) Automatic travel system
WO2020261824A1 (en) Working vehicle, obstacle detection method, and obstacle detection program
CN111343853B (en) Agricultural operation vehicle, operation vehicle collision warning system and operation vehicle
JP7041889B2 (en) Head harvester combine
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
JP7080042B2 (en) Harvester collision warning system and harvester
JP2023005114A (en) Work support system
JP6765349B2 (en) Harvester
CN113291297A (en) Vehicle control device, vehicle control method, and storage medium
JP7565677B2 (en) Obstacle detection system for agricultural vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7195543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150