JP2022106892A - Field work vehicle - Google Patents

Field work vehicle Download PDF

Info

Publication number
JP2022106892A
JP2022106892A JP2022075732A JP2022075732A JP2022106892A JP 2022106892 A JP2022106892 A JP 2022106892A JP 2022075732 A JP2022075732 A JP 2022075732A JP 2022075732 A JP2022075732 A JP 2022075732A JP 2022106892 A JP2022106892 A JP 2022106892A
Authority
JP
Japan
Prior art keywords
field
traveling
automatic driving
area
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022075732A
Other languages
Japanese (ja)
Other versions
JP7353417B2 (en
Inventor
惇一 池端
Junichi Ikehata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2022075732A priority Critical patent/JP7353417B2/en
Publication of JP2022106892A publication Critical patent/JP2022106892A/en
Application granted granted Critical
Publication of JP7353417B2 publication Critical patent/JP7353417B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a field work vehicle provided with an automatic traveling arithmetic unit learned to input a field image and output automatic traveling information for automatically traveling a field.
SOLUTION: The field work vehicle includes: an automatic traveling arithmetic unit 4 that is learned to input a field image taken by a photographing unit 3 and output automatic traveling information for automatically traveling a field; and an automatic traveling control unit 52 that controls a traveling device 91 based on the automatic traveling information, wherein the automatic traveling arithmetic unit 4 is constructed by a convolution neural network and is learned to use an image group for second learning as teacher data created by adding an annotation to an image group for first learning that are the field images.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、圃場内を自動走行しながら作業を行う圃場作業車に関する。
に関する。
The present invention relates to a field work vehicle that performs work while automatically traveling in the field.
Regarding.

圃場内を自動走行する方法の1つでは、予め設定された自動走行用走行経路と、衛星測位によって得られた作業車位置とが用いられる。例えば、特許文献1に開示されたトラクタでは、最初に手動走行で圃場の外周付近を走行することにより作り出された既作業領域の内側に、自動走行によって作業されるべき作業対象領域が形成される。この作業対象領域をトラクタが走行するための走行経路が経路算出アルゴリズムに基づいて算出される。その後、トタクタに備えられた自動走行制御部では、目標となる走行経路と衛星測位データから算出された自車位置との間の位置ずれを算出し、この位置ずれが小さくなるように自動操舵指令が生成される。 In one of the methods of automatically traveling in the field, a preset traveling route for automatic traveling and a work vehicle position obtained by satellite positioning are used. For example, in the tractor disclosed in Patent Document 1, a work target area to be worked by automatic running is formed inside a working area created by first manually running around the outer periphery of the field. .. The travel route for the tractor to travel in this work target area is calculated based on the route calculation algorithm. After that, the automatic driving control unit provided in the totactor calculates the positional deviation between the target traveling route and the vehicle position calculated from the satellite positioning data, and automatically steers the vehicle so that this positional deviation becomes small. Is generated.

圃場内を自動走行するための他の1つの方法では、圃場作業車に搭載された撮影カメラによる撮影画像を画像処理することにより得られる圃場作業車の目標走行経路が利用される。例えば、特許文献2に開示された草刈機では、ゴルフ場などの芝生地における既刈地と未刈地との境界領域が撮影装置で撮影され、その撮影画像から既刈地と未刈地との間の境界線が算出され、この境界線に沿うように、車体が自動操舵される。 In another method for automatically traveling in the field, the target traveling route of the field work vehicle obtained by image processing the image taken by the photographing camera mounted on the field work vehicle is used. For example, in the mowing machine disclosed in Patent Document 2, the boundary area between the mowed land and the uncut land in a lawn such as a golf course is photographed by a photographing device, and the photographed image shows the mowed land and the uncut land. The boundary line between the two is calculated, and the vehicle body is automatically steered along this boundary line.

特開2018-116608号公報JP-A-2018-116608 特開2018-097526号公報Japanese Unexamined Patent Publication No. 2018-07526

特許文献1に開示されているような、衛星測位データを用いた自動走行を実施するためには、圃場の地図情報(圃場座標系または地球座標系)が用意され、この地図情報を用いて、圃場を網羅する走行経路が算出される。作業車は、この走行経路から自車位置がはずれないように自動走行される。自車位置は衛星測位を用いて算出されるが、衛星測位による自車位置算出では、山林や家屋によって衛星電波が遮られると、測位不能や測位精度低下が生じるという問題が生じる。 In order to carry out automatic traveling using satellite positioning data as disclosed in Patent Document 1, map information of the field (field coordinate system or earth coordinate system) is prepared, and using this map information, A travel route covering the field is calculated. The work vehicle is automatically driven so that the position of the own vehicle does not deviate from this travel route. The position of the own vehicle is calculated using satellite positioning, but in the calculation of the position of the own vehicle by satellite positioning, if the satellite radio wave is blocked by a forest or a house, there arises a problem that positioning is impossible or the positioning accuracy is lowered.

特許文献2に開示されているような、画像処理によって検出される既刈地(既作業地)と未刈地(未作業地)との間の境界線を目標走行経路とする自動走行は、衛星測位を用いた自動走行の代替案として有効である。しかしながら、圃場作業車の走行面となる圃場面は、芝生地などに比べて、凹凸が激しく、しかも、その状態も場所によって異なるので、これは操舵精度の悪化を導く。さらに、圃場に農作物や農作物の残滓が存在している場合、その状態が場所によって異なるので、そのような農作物の状態に応じた自動走行が要求される場合もある。 The automatic driving with the boundary line between the mowed land (worked land) and the uncut land (unworked land) detected by image processing as the target traveling route as disclosed in Patent Document 2 is It is an effective alternative to autonomous driving using satellite positioning. However, the field scene, which is the running surface of the field work vehicle, has more unevenness than the lawn, and the state also differs depending on the place, which leads to deterioration of steering accuracy. Further, when a crop or a residue of a crop is present in the field, the state of the crop varies depending on the location, so that automatic driving may be required according to the condition of the crop.

本発明の目的は、衛星測位を用いることなしに、かつ圃場の状態を考慮しながら自動走行できる圃場作業車を提供することである。 An object of the present invention is to provide a field work vehicle capable of automatically traveling without using satellite positioning and considering the state of the field.

圃場を自動走行する、本発明による圃場作業車は、少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、車速及び操舵量を調整するための走行機器と、前記圃場画像入力して、未作業領域と既作業領域との境界と圃場状態とに基づいて自動走行するための自動走行情報を出力するように学習された自動走行演算部と、前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部とを備える。 The field work vehicle according to the present invention that automatically travels in the field includes a photographing unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image, a traveling device for adjusting the vehicle speed and the steering amount, and the above. The automatic running calculation unit learned to input the field image and output the automatic running information for automatic running based on the boundary between the unworked area and the existing work area and the field state, and the automatic running information. It is provided with an automatic traveling control unit that controls the traveling device based on the above.

この構成では、撮影ユニットによって取得した圃場画像から未作業領域と既作業領域との境界が推定されることで目標となる車体の走行方向が決定され、同時に圃場画像から圃場状態が推定されることで、前記圃場状態に適合する目標となる走行挙動が決定され、目標となる走行方向と走行挙動とから自動走行情報が出力される。自動走行演算部は、未作業領域と既作業領域との境界だけでなく圃場状態も含めて最適な自動走行情報を出力するように学習されている。したがって、未作業領域と既作業領域との境界に沿うように走行機器が制御される際に、圃場状態(圃場面の状態や農作物の状態など)も考慮される。たとえば、走行前方に泥濘や凹凸などがあれば、操舵量を緩やかにして、スリップなどを抑制することも可能となる。 In this configuration, the target traveling direction of the vehicle body is determined by estimating the boundary between the unworked area and the existing work area from the field image acquired by the photographing unit, and at the same time, the field state is estimated from the field image. Then, the target traveling behavior suitable for the field condition is determined, and the automatic traveling information is output from the target traveling direction and the traveling behavior. The automatic driving calculation unit is learned to output optimum automatic driving information including not only the boundary between the unworked area and the existing work area but also the field state. Therefore, when the traveling equipment is controlled along the boundary between the unworked area and the existing work area, the field state (state of the field scene, state of the crop, etc.) is also taken into consideration. For example, if there is mud or unevenness in front of the vehicle, it is possible to slow down the steering amount and suppress slippage.

作業もれまたは重複作業(過剰オーバーラップ)を避けるためには、車体の目標経路からのずれを正確に捉え、そのずれを少なくする操舵量を求める必要がある。このために、未作業領域と既作業領域との境界を一本の線、つまり境界線で求めること、及びこの境界線に車体の操舵基準点を一致させる操舵指令を出力すること、が重要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記境界を示す境界線に対応する線状の目標走行経路を推定し、この線状の目標走行経路と自車とのずれを解消するための情報を含む。 In order to avoid work omissions or overlapping work (excessive overlap), it is necessary to accurately grasp the deviation from the target path of the vehicle body and obtain the steering amount to reduce the deviation. For this reason, it is important to find the boundary between the unworked area and the existing work area with a single line, that is, the boundary line, and to output a steering command that matches the steering reference point of the vehicle body with this boundary line. be. From this, in one of the preferred embodiments of the present invention, the automatic travel information estimates a linear target travel route corresponding to the boundary line indicating the boundary, and the linear target travel route and itself. Includes information to eliminate deviations from the car.

耕耘作業、田植作業、収穫作業など圃場では作業では、既に作業済みとなっている外周領域が車体の向きを変える方向転換領域として利用され、その外周領域の内側領域(未作業領域)に平行な線状の経路を、Uターン走行などの方向転換走行によってつないでいく走行形態が採用されている。このような走行パターンを、本発明による自動走行においても採用するためには、車体が車体の方向転換を行う必要がある外周領域に達すると、方向転換走行に移行する制御が必要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記既作業領域である車体方向転換可能領域に設定されている方向転換走行経路を目標走行経路として方向転換を行うための情報を含む。 In fields such as tilling work, rice planting work, and harvesting work, the outer peripheral area that has already been worked is used as a turning area that changes the direction of the vehicle body, and is parallel to the inner area (unworked area) of the outer peripheral area. A traveling mode in which linear routes are connected by a direction-changing traveling such as a U-turn traveling is adopted. In order to adopt such a traveling pattern also in the automatic traveling according to the present invention, it is necessary to control the vehicle body to shift to the direction-changing traveling when the vehicle body reaches the outer peripheral region where the vehicle body needs to change the direction. From this, in one of the preferred embodiments of the present invention, the automatic traveling information changes the direction with the direction-changing traveling route set in the vehicle body direction-changeable region, which is the already working area, as the target traveling route. Contains information to do.

圃場には、人や動物、さらには井戸や鉄塔などの走行障害物が存在する可能性があるので、自動走行を行うには、この走行障害物を検知して、走行障害物との接触を回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記自動走行演算部は、前記圃場画像から推定された走行障害物との接触を回避するための衝突回避情報を前記自動走行情報として出力する。 There may be people and animals, as well as running obstacles such as wells and steel towers in the field, so in order to perform automatic driving, detect these running obstacles and make contact with the running obstacles. Need to avoid. Therefore, in one of the preferred embodiments of the present invention, the automatic driving calculation unit uses collision avoidance information for avoiding contact with a traveling obstacle estimated from the field image as the automatic driving information. Output.

走行障害物が移動するものか、あるいは圃場に固定しているものかによって、対処策が異なってくる。圃場に固定している障害物に対しては、作業車が回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、非移動性障害物と推定された前記走行障害物を回避する回避走行情報が含まれている。 Countermeasures differ depending on whether the running obstacle is moving or fixed in the field. Work vehicles need to avoid obstacles that are fixed to the field. Therefore, in one of the preferred embodiments of the present invention, the collision avoidance information includes avoidance traveling information for avoiding the traveling obstacle presumed to be a non-movable obstacle.

圃場を移動する障害物は、時間経過にともなって作業車の走行先から外れて、走行障害物ではなくなる可能性がある。また、警報等によって、障害物を排除することも可能である。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている。 Obstacles moving in the field may move away from the destination of the work vehicle over time and become no longer a running obstacle. It is also possible to eliminate obstacles by an alarm or the like. Therefore, in one of the preferred embodiments of the present invention, the collision avoidance information includes at least deceleration, stoppage, and warning for avoiding contact with the traveling obstacle presumed to be a mobile obstacle. Contains information to do one.

手動走行で圃場作業が行われる場合、運転者は、現状の車速やエンジン回転数のなどを考慮して、これらを適切に変更操作することで、最適な作業走行を図っている。このような操作は自動走行においても有益である。このことから、本発明の好適な実施形態の1つでは、前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、前記自動走行情報には、操舵、車速、変速、制動、エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている。 When field work is performed by manual driving, the driver considers the current vehicle speed, engine speed, and the like, and appropriately changes and operates them to achieve optimum work driving. Such an operation is also useful in automatic driving. Therefore, in one of the preferred embodiments of the present invention, a traveling state detection unit that detects a traveling state from the state of the traveling device is provided, and the traveling state information indicating the traveling state is transmitted to the automatic traveling calculation unit. The input state information includes data indicating at least one of vehicle speed, shift position, engine speed, and engine load factor, and the automatic travel information includes steering, vehicle speed, shift, braking, and so on. A control command is included that commands a change in at least one of the engine speeds.

農業従事者の長年の経験と圃場作業車の技術改革とによって発達してきた農業において、圃場作業車の自動化を進めるためには、長年の経験を圃場作業車の自動走行制御に反映させる必要がある。このためには、制御系の中核に、農業従事者の経験を圃場作業車に学習させる機械学習を導入することが好適である。これにより、熟練した農業従事者の能力を圃場作業車に搭載したコンピュータ上で実現させることができる。このため、前記自動走行演算部は、畳み込みニューラルネットワークで構築され、学習用画像として第1学習用画像群と第2学習用画像群とを用いて学習されており、前記第1学習用画像群は、圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界を示すアノテーションと、前記境界に沿って自動走行するための走行経路に対する位置ずれを示すアノテーションとが付与された画像群である。アノテーションとは、対応撮影画像に対する意味づけである。例えば、圃場の撮影画像において、未作業領域と既作業領域との境界を指し示すこと、さらにはその境界から車体の走行経路に対する位置ずれとその位置ずれを解消するための操作を指し示すことが、アノテーションである。この機械学習には、第1の学習と第2の学習が含まれている。第1の学習は、圃場作業車からの視点で取得された生の撮影画像と、その撮影画像における未作業領域と前記既作業領域との間の境界を見つけ出して、その境界領域をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から境界領域を推定させる学習である。第2の学習は、生の撮影画像と、見つけ出された境界の位置からの車体の位置ずれ(目標走行ラインからのずれ)及び必要とされる位置ずれを解消する操作をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から車体の位置ずれ境界領域を推定させ、位置ずれを解消する操作を推定させる学習である。この学習により、自動走行演算部は、取得した圃場画像から、車体前方の境界線の位置、車体の位置ずれ、さらに、必要であれば、位置ずれの解消操作を出力することができる。 In agriculture, which has been developed through many years of experience of farmers and technological reform of field work vehicles, it is necessary to reflect many years of experience in the automatic running control of field work vehicles in order to promote automation of field work vehicles. .. For this purpose, it is preferable to introduce machine learning at the core of the control system so that the field work vehicle learns the experience of the agricultural worker. As a result, the ability of a skilled farmer can be realized on a computer mounted on a field work vehicle. Therefore, the automatic traveling calculation unit is constructed by a convolution neural network, and is trained using the first learning image group and the second learning image group as the learning image, and the first learning image group. Is an image group including the unworked area and the worked area of the field, and the second learning image group includes an annotation indicating the boundary between the unworked area and the worked area. It is a group of images to which an annotation indicating a positional deviation with respect to a traveling path for automatic traveling along the boundary is added. Annotation is a meaning for a corresponding photographed image. For example, in a photographed image of a field, pointing to a boundary between an unworked area and an existing working area, and further pointing to a position deviation from the boundary with respect to the traveling path of the vehicle body and an operation for eliminating the position deviation are annotations. Is. This machine learning includes a first learning and a second learning. In the first learning, the raw photographed image acquired from the viewpoint from the field work vehicle, the boundary between the unworked area and the already worked area in the photographed image are found, and the boundary area is shown as an annotation. It is a learning to estimate the boundary area from the raw photographed image by using the annotation image. The second learning is an annotation that shows the raw captured image and the operation to eliminate the position deviation of the vehicle body from the found boundary position (deviation from the target running line) and the required position deviation as annotations. This is learning to estimate the displacement boundary region of the vehicle body from a raw photographed image using an image, and to estimate an operation for eliminating the displacement. By this learning, the automatic traveling calculation unit can output the position of the boundary line in front of the vehicle body, the position deviation of the vehicle body, and, if necessary, the operation for eliminating the position deviation from the acquired field image.

車体の位置ずれが発生すると、車体を目標走行経路に一致させる操舵が行われる。この操舵による位置ずれの解消を迅速かつ効率的に行うためには、走行経路に対する横断方向のずれである横位置ずれと、走行経路の向きに対する車体方位のずれである方位ずれとを組み合わせて制御されることが好適である。これは、道路を走行する車両に比べて、圃場を走行する圃場作業車では、スリップが多く、車速が低いことに起因する。このことから、本発明の好適な実施形態の1つでは、前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれている。 When the vehicle body is displaced, steering is performed to match the vehicle body with the target traveling path. In order to eliminate the misalignment due to steering quickly and efficiently, control is performed by combining the lateral misalignment, which is the misalignment in the transverse direction with respect to the traveling path, and the azimuth deviation, which is the displacement of the vehicle body with respect to the direction of the traveling path. It is preferable to be done. This is because the field work vehicle traveling in the field has more slippage and the vehicle speed is lower than that of the vehicle traveling on the road. From this, in one of the preferred embodiments of the present invention, the misalignment includes a lateral position deviation, which is a deviation in the transverse direction with respect to the traveling path, and an orientation, which is a deviation in the vehicle body orientation with respect to the direction of the traveling path. The deviation is included.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第3学習用画像と第4学習用画像とが用いられており、前記第3学習用画像は、前記既作業領域における車体方向転換可能な領域を示す画像群であり、前記第4学習用画像は、前記車体方向転換可能な領域を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、現在の作業走行経路から車体を方向転換させて次の作業走行経路に移行するための方向転換用領域、及びその方向転換用領域での方向転換走行(旋回走行)のための情報が、圃場画像から推定できるようになる。 Further, in one of the preferred embodiments of the present invention, a third learning image and a fourth learning image are further used as the learning image, and the third learning image is the already working area. The fourth learning image is an image group to which an annotation indicating the vehicle body direction changeable region is added. In the automatic travel calculation unit learned using such a learning image, a direction change area for changing the direction of the vehicle body from the current work travel path and shifting to the next work travel route, and a direction change area thereof. Information for turning (turning) in the field can be estimated from the field image.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第5学習用画像と第6学習用画像とが用いられており、前記第5学習用画像は、前記圃場における走行障害となる物体が含まれている画像群であり、前記学習用画像は、前記走行障害となる物体を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、は、圃場画像から走行障害となる物体を推定することができ、この障害物との接触を回避するために必要な自動走行情報を出力することができる。 Further, in one of the preferred embodiments of the present invention, the fifth learning image and the sixth learning image are further used as the learning image, and the fifth learning image is a running image in the field. It is an image group including an object that becomes an obstacle, and the learning image is an image group to which an annotation indicating the object that becomes an obstacle is added. In the automatic driving calculation unit learned using such a learning image, can estimate an object that becomes a traveling obstacle from the field image, and the automatic driving information necessary for avoiding contact with the obstacle. Can be output.

圃場作業車の一例であるトラクタの側面図である。It is a side view of the tractor which is an example of a field work vehicle. 撮影カメラの取り付け位置を説明するためのトラクタの概略平面図である。It is the schematic plan view of the tractor for explaining the mounting position of a photographing camera. トラクタによる圃場作業の流れを説明する説明図である。It is explanatory drawing explaining the flow of the field work by a tractor. 制御系の機能ブロック図である。It is a functional block diagram of a control system. 自動走行演算部の機能ブロック図である。It is a functional block diagram of the automatic driving calculation unit. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the learning image used for the learning process of the 1st calculation part. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the learning image used for the learning process of the 1st calculation part. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the learning image used for the learning process of the 2nd calculation part. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the learning image used for the learning process of the 2nd calculation part. 自動走行演算部の学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of the automatic driving calculation unit. 自動走行演算部の別実施形態における機能ブロック図である。It is a functional block diagram in another embodiment of the automatic driving calculation unit.

次に、図面を用いて、本発明による圃場を自動走行する圃場作業車を説明する。図1で示された実施形態では、作業車は、圃場を自動走行するトラクタである。このトラクタは、前輪11と後輪12とによって支持された車体1の中央部に運転部20が設けられている。車体1の後部には油圧式の昇降機構23を介してロータリ耕耘装置である作業装置24が装備されている。前輪11は操向輪として機能し、その操舵角を変更することでトラクタの走行方向が変更される。前輪11の操舵角は操舵機構13の動作によって変更される。操舵機構13には自動操舵のための操舵モータ14が含まれている。手動走行の際には、前輪11の操舵は運転部20に配置されているステアリングホイール22の操作によって行われる。 Next, a field work vehicle that automatically travels in the field according to the present invention will be described with reference to the drawings. In the embodiment shown in FIG. 1, the work vehicle is a tractor that automatically travels in the field. The tractor is provided with a driving unit 20 at the center of the vehicle body 1 supported by the front wheels 11 and the rear wheels 12. The rear part of the vehicle body 1 is equipped with a working device 24 which is a rotary tilling device via a hydraulic elevating mechanism 23. The front wheel 11 functions as a steering wheel, and the traveling direction of the tractor is changed by changing the steering angle thereof. The steering angle of the front wheels 11 is changed by the operation of the steering mechanism 13. The steering mechanism 13 includes a steering motor 14 for automatic steering. During manual driving, the front wheels 11 are steered by operating the steering wheel 22 arranged in the driving unit 20.

このトラクタには、少なくとも車体1の走行先の領域を含む圃場を撮影して圃場画像を出力する撮影ユニット3が備えられている。この実施形態では、図2に示すように、撮影ユニット3には、前カメラ31と後カメラ32と左カメラ33と右カメラ34とを含む。
前カメラ31は、車体1の前部に配置され、車体1の前方を撮影する。後カメラ32は、車体1の後部に配置され、作業装置24を含む車体1の後方を撮影する。左カメラ33と右カメラ34とは、それぞれ、車体1の側部に配置され、車体1の左方と右方とを撮影する。前カメラ31と後カメラ32と左カメラ33と右カメラ34とからの撮影画像を視点変換して合成することにより、トラクタ上方を視点とする俯瞰画像が生成可能である。圃場画像として、前カメラ31による前方撮影画像、または、圃場画像、あるいはその両方が利用される。なお、前方撮影画像は前進の場合の車体進行領域を含む圃場画像として利用され、後進の場合には後カメラ32による後方撮影画像が車体進行領域を含む圃場画像として利用される。したがって、以下に述べる圃場画像には、前方撮影画像、後方撮影画像、俯瞰画像が含まれるものとする。
The tractor is provided with a photographing unit 3 that photographs a field including at least a traveling destination area of the vehicle body 1 and outputs a field image. In this embodiment, as shown in FIG. 2, the photographing unit 3 includes a front camera 31, a rear camera 32, a left camera 33, and a right camera 34.
The front camera 31 is arranged at the front portion of the vehicle body 1 and photographs the front of the vehicle body 1. The rear camera 32 is arranged at the rear of the vehicle body 1 and photographs the rear of the vehicle body 1 including the working device 24. The left camera 33 and the right camera 34 are arranged on the side of the vehicle body 1, respectively, and photograph the left side and the right side of the vehicle body 1. By converting the viewpoints of the images taken from the front camera 31, the rear camera 32, the left camera 33, and the right camera 34 and synthesizing them, it is possible to generate a bird's-eye view image with the upper part of the tractor as the viewpoint. As the field image, a front image taken by the front camera 31 and / or a field image is used. The forward captured image is used as a field image including the vehicle body traveling region in the case of forward movement, and the rearward captured image taken by the rear camera 32 is used as a field image including the vehicle body traveling region in the case of reverse movement. Therefore, it is assumed that the field image described below includes a front image, a rear image, and a bird's-eye view image.

トラクタによる圃場作業の一般的な手順が図3に示されている。この例では、トラクタが圃場に入ると(#a)、圃場の外周に沿って作業を行う周囲作業走行が手動または自動で行われ、圃場の最外周側に既作業領域である外周領域が形成される(#b)。周囲作業走行では、コーナ領域での方向転換走行が複雑であるため、手動走行が好ましい。コーナ領域以外は、実質的に直線走行であるので、自動走行が用いられる。その際、圃場の外周線となる、圃場面と畔や畝などとの境界線が、機械学習を用いた画像認識プログラムによってリアルタイムで認識され、その認識された境界線に作業装置24の作業端が沿うようにトラクタが自動操舵される。この周囲作業走行で形成される外周領域がトラクタの方向転換(Uターン走行)が可能となる大きさになれば、この未作業領域に対する自動作業走行が開始される。この自動作業走行には、直線状にトラクタを作業走行させる前進作業走行(#c)と、既作業領域で作業装置24を上昇させて非作業状態としてトラクタをUターンさせる車体方向転換走行(#d)とが含まれる。前進作業走行と車体方向転換走行とを繰り返すことで(#e)、圃場全体の作業が完了する。なお、前進作業走行では、画像認識対象が未作業領域と既作業領域との境界線であり、車体方向転換走行では、画像認識対象が圃場の境界線(外周線)及び未作業領域と既作業領域との境界線である。このため、前進作業走行と車体方向転換走行とで、異なる画像認識プログラムが用いられることが好ましい。その場合、前進作業走行用画像認識プログラムと車体方向転換走行用画像認識プログラムとの自動切替は、作業装置24の状態(例えば、下降状態と上昇状態、駆動状態と非駆動状態)に基づいて行うことができる。なお、圃場の種類によっては、外周領域の形状が前もって想定され、外周領域が未作業状態のままで、当該外周領域の内側の未作業領域に対して、#c、#d、#eが先に実施され、その後に#bが実施される。 A general procedure for field work with a tractor is shown in FIG. In this example, when the tractor enters the field (# a), the surrounding work running along the outer circumference of the field is performed manually or automatically, and the outer peripheral area, which is the existing work area, is formed on the outermost peripheral side of the field. Is done (# b). In the surrounding work running, the manual running is preferable because the turning run in the corner region is complicated. Since it is substantially straight running except for the corner area, automatic running is used. At that time, the boundary line between the field scene and the shore or ridge, which is the outer peripheral line of the field, is recognized in real time by an image recognition program using machine learning, and the work end of the work device 24 is recognized at the recognized boundary line. The tractor is automatically steered so that When the outer peripheral region formed by the surrounding work travel becomes large enough to enable the direction change (U-turn travel) of the tractor, the automatic work travel to the unworked region is started. This automatic work run includes a forward work run (# c) in which the tractor is made to work in a straight line, and a vehicle body direction change run (# c) in which the work device 24 is raised in the existing work area to make a U-turn of the tractor in a non-working state. d) and are included. By repeating the forward work run and the vehicle body direction change run (#e), the work of the entire field is completed. In the forward work run, the image recognition target is the boundary line between the unworked area and the existing work area, and in the vehicle body direction change run, the image recognition target is the boundary line (outer circumference line) of the field and the unworked area and the existing work. It is the boundary line with the area. Therefore, it is preferable that different image recognition programs are used for the forward work run and the vehicle body direction change run. In that case, the automatic switching between the forward work travel image recognition program and the vehicle body direction change travel image recognition program is performed based on the state of the work device 24 (for example, the descending state and the ascending state, the driven state and the non-driving state). be able to. Depending on the type of field, the shape of the outer peripheral region is assumed in advance, the outer peripheral region remains unworked, and # c, # d, and # e come first with respect to the unworked region inside the outer peripheral region. Is carried out, and then # b is carried out.

図4には、このトラクタに構築されている制御系が示されている。この実施形態の制御系には、車載ECU群からなる制御ユニット5、入出力信号処理ユニット50が含まれている。制御ユニット5には、通常の作業走行を実行する機能部に加えて、機械学習を応用して構築された自動走行演算部4が備えられている。入出力信号処理ユニット50には、トラクタの作業走行で取り扱われる入出力信号を処理する機能部が構築されている。制御ユニット5と入出力信号処理ユニット50とは、車載LANによって接続されている。 FIG. 4 shows a control system built on this tractor. The control system of this embodiment includes a control unit 5 including an in-vehicle ECU group and an input / output signal processing unit 50. The control unit 5 is provided with an automatic traveling calculation unit 4 constructed by applying machine learning, in addition to a functional unit that executes normal work traveling. The input / output signal processing unit 50 is constructed with a functional unit that processes input / output signals handled during the work running of the tractor. The control unit 5 and the input / output signal processing unit 50 are connected by an in-vehicle LAN.

入出力信号処理ユニット50には、走行機器群91、作業機器群92、報知デバイス群93、自動/手動切替操作具94、走行状態検出センサ群81、作業状態検出センサ群82が接続されている。走行機器群91には、操舵調節機器としての操舵モータ14(図1参照)をはじめ、車速調整機器としての変速調整器、エンジン回転調整器などが含まれている。作業機器群92には、作業装置24や昇降機構23(図1参照)を駆動するための制御機器が含まれている。報知デバイス群93には、ディスプレイ、スピーカ、ランプ、ブザーなどが含まれている。自動/手動切替操作具94は、自動操舵で走行する自動走行モードと手動操舵で走行する手動操舵モードとのいずれかを選択するスイッチである。 A traveling device group 91, a working device group 92, a notification device group 93, an automatic / manual switching operation tool 94, a traveling state detection sensor group 81, and a working state detection sensor group 82 are connected to the input / output signal processing unit 50. .. The traveling device group 91 includes a steering motor 14 (see FIG. 1) as a steering adjusting device, a speed change adjusting device as a vehicle speed adjusting device, an engine rotation adjusting device, and the like. The work equipment group 92 includes a control device for driving the work device 24 and the elevating mechanism 23 (see FIG. 1). The notification device group 93 includes a display, a speaker, a lamp, a buzzer, and the like. The automatic / manual switching operation tool 94 is a switch for selecting either an automatic traveling mode in which the vehicle travels by automatic steering or a manual steering mode in which the vehicle travels by manual steering.

走行状態検出センサ群81には、操舵量やエンジン回転数や変速位置などの走行状態を検出するセンサが含まれている。作業状態検出センサ群82には、作業装置24の姿勢や駆動状態を検出するセンサが含まれている。 The traveling state detection sensor group 81 includes a sensor that detects a traveling state such as a steering amount, an engine speed, and a shifting position. The work state detection sensor group 82 includes sensors that detect the posture and drive state of the work device 24.

入出力信号処理ユニット50には、そのほかに、撮影ユニット3が接続されている。撮影ユニット3には、上述した4つのカメラ31~34の撮影画像を画像処理して制御ユニット5での処理に適合する圃場画像を生成する画像処理部30が含まれている。撮影ユニット3から出力された圃場画像は、入出力信号処理ユニット50を介して制御ユニット5に入力される。 In addition, a photographing unit 3 is connected to the input / output signal processing unit 50. The photographing unit 3 includes an image processing unit 30 that processes images captured by the four cameras 31 to 34 described above to generate a field image suitable for processing by the control unit 5. The field image output from the photographing unit 3 is input to the control unit 5 via the input / output signal processing unit 50.

制御ユニット5は、手動走行制御部51、自動走行制御部52、作業制御部53、走行状態検知部54、作業状態検知部55、自動走行演算部4を備えている。手動走行制御部51は、手動走行モードにおいて、運転者による操作に基づいて、走行機器群91を制御する。自動走行制御部52は、自動走行モードにおいて、自動走行演算部4から出力される自動走行情報に基づいて走行機器群91を制御する。作業制御部53は、手動または自動で作業機器群92を制御する。走行状態検知部54は、走行状態検出センサ群81からの検出信号に基づいて走行状態を検知する。作業状態検知部55は、作業状態検出センサ群82からの検出信号に基づいて作業状態を検知する。 The control unit 5 includes a manual travel control unit 51, an automatic travel control unit 52, a work control unit 53, a travel state detection unit 54, a work state detection unit 55, and an automatic travel calculation unit 4. The manual travel control unit 51 controls the travel equipment group 91 based on the operation by the driver in the manual travel mode. In the automatic driving mode, the automatic driving control unit 52 controls the traveling equipment group 91 based on the automatic driving information output from the automatic driving calculation unit 4. The work control unit 53 manually or automatically controls the work equipment group 92. The traveling state detection unit 54 detects the traveling state based on the detection signal from the traveling state detection sensor group 81. The work state detection unit 55 detects the work state based on the detection signal from the work state detection sensor group 82.

自動走行演算部4は、学習済み状態において、前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力する。この実施形態では、自動走行演算部4は、図5に示すように、第1演算部41、第2演算部42、選択部40とから構成されている。第1演算部41は、第1前段演算部41aと第1後段演算部41bとを含む。第2演算部42は、第2前段演算部42aと第2後段演算部42bとを含む。 The automatic driving calculation unit 4 inputs the field image in the learned state, estimates the boundary between the unworked area and the worked area and the field state, and outputs the automatic driving information for automatic driving. .. In this embodiment, as shown in FIG. 5, the automatic driving calculation unit 4 includes a first calculation unit 41, a second calculation unit 42, and a selection unit 40. The first calculation unit 41 includes a first first stage calculation unit 41a and a first second stage calculation unit 41b. The second calculation unit 42 includes a second front-stage calculation unit 42a and a second second-stage calculation unit 42b.

第1前段演算部41aは、圃場画像から、未作業領域と既作業領域との境界を示す境界線と圃場状態とを推定する。第1後段演算部41bは、推定された境界線に対応する線状の目標走行経路(前進作業走行経路)をリアルタイムで算出する。その際、作業装置24の作業幅、作業オーバータップ量、車体基準点から作業装置24の作業端までの距離などが必要となるので、これらの作業装置仕様データは予め設定されている。さらに、第1前段演算部41aは、この目標走行経路(前進作業走行経路)に対する車体1の操舵基準点の位置ずれを演算し、この位置ずれを解消するための情報である第1自動走行情報を生成する。この位置ずれには、目標走行経路に対する横断方向の位置偏差である横位置ずれと、目標走行経路の方位と車体方位との間の角度偏差である方位ずれが含まれる。第1自動走行情報には、位置ずれを解消するための操舵量が含まれている。操舵量の生成時には、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第1前段演算部41a及び第1後段演算部41bは、一体化可能である。 The first first-stage calculation unit 41a estimates from the field image the boundary line indicating the boundary between the unworked area and the worked area and the field state. The first second-stage calculation unit 41b calculates a linear target travel route (forward work travel route) corresponding to the estimated boundary line in real time. At that time, since the work width of the work device 24, the amount of work overtap, the distance from the vehicle body reference point to the work end of the work device 24, and the like are required, these work device specification data are set in advance. Further, the first front-stage calculation unit 41a calculates the positional deviation of the steering reference point of the vehicle body 1 with respect to the target traveling route (forward work traveling route), and the first automatic traveling information is information for eliminating this positional deviation. To generate. This misalignment includes a lateral misalignment, which is a lateral displacement with respect to the target travel path, and an azimuth deviation, which is an angular deviation between the orientation of the target travel path and the vehicle body orientation. The first automatic driving information includes a steering amount for eliminating the misalignment. When generating the steering amount, the field conditions such as the slope of the field and the unevenness of the field scene are taken into consideration. The first first-stage calculation unit 41a and the first second-stage calculation unit 41b can be integrated.

第2前段演算部42aは、圃場画像から、既作業領域である車体方向転換可能領域を推定する。第2後段演算部42bは、当該車体方向転換可能領域に設定される方向転換走行経路を設定し、設定された方向転換走行経路に対する実際の方向転換軌跡との相違を旋回ずれとし、この旋回ずれを解消するための情報(操舵量)である第2自動走行情報を生成する。第2自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第2前段演算部42a及び第2後段演算部42bは、一体化可能である。 The second first-stage calculation unit 42a estimates the vehicle body direction changeable region, which is the work area, from the field image. The second rear-stage calculation unit 42b sets a direction-changing travel path set in the vehicle body direction changeable region, and sets a difference from the actual direction-change trajectory with respect to the set direction-change travel path as a turning deviation, and this turning deviation is defined as a turning deviation. The second automatic driving information, which is the information (steering amount) for eliminating the above, is generated. The field conditions such as the slope of the field and the unevenness of the field scene are also taken into consideration when generating the second automatic driving information. The second front-stage calculation unit 42a and the second rear-stage calculation unit 42b can be integrated.

選択部40は、第1自動走行情報の信頼度と第2自動走行情報の信頼度とを比較して、現時点で行わなければならない走行制御として適正度の高い方の情報を選択し、自動走行情報として出力して、自動走行制御部52に与える。あるいは、選択部40は、作業状態検知部55によって検知された作業状態に基づいて第1自動走行情報と第2自動走行情報のいずれかを選択してもよい。例えば、作業装置24の状態が下降状態または駆動状態あるいはその両方であれば、前進作業走行とみなされ、第1自動走行情報が選択される。作業装置24の状態が上昇状態または非駆動状態あるいはその両方であれば、方向転換走行とみなされ、第2自動走行情報が選択される。さらに別な方法として、作業状態検知部55によって検知された作業状態に基づいて第1前段演算部41aと第2前段演算部42aのいずれかの利用を決定するようにしてもよい。 The selection unit 40 compares the reliability of the first automatic driving information with the reliability of the second automatic driving information, selects the information with the higher appropriateness as the driving control that must be performed at the present time, and automatically travels. It is output as information and given to the automatic driving control unit 52. Alternatively, the selection unit 40 may select either the first automatic driving information or the second automatic driving information based on the work state detected by the work state detection unit 55. For example, if the state of the work device 24 is a lowered state, a driven state, or both, it is regarded as a forward work run, and the first automatic running information is selected. If the state of the working device 24 is an ascending state, a non-driving state, or both, it is regarded as a turning trip, and the second automatic running information is selected. As yet another method, the use of either the first pre-stage calculation unit 41a or the second pre-stage calculation unit 42a may be determined based on the work state detected by the work state detection unit 55.

なお、図5に示された自動走行演算部4では、付加的な機能として、走行状態検知部54によって検知された走行状態情報が、第1演算部41及び第2演算部42に入力されている。走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率などが含まれている。この機能を追加した場合、第1後段演算部41b及び第2後段演算部42bは、位置ずれを解消するための情報に加えて、第1自動走行情報及び第2自動走行情報に、車速制御指令、変速制御指令、制動制御指令、エンジン制御指令のうちの少なくとも1つを含ませることも可能である。これは、単に操舵量を調節するだけではなく、その他の走行状態(車速など)も調整することが、位置ずれの解消に有効な場合があるからである。 In the automatic traveling calculation unit 4 shown in FIG. 5, as an additional function, the traveling state information detected by the traveling state detection unit 54 is input to the first calculation unit 41 and the second calculation unit 42. There is. The running state information includes vehicle speed, shift position, engine speed, engine load factor, and the like. When this function is added, the first rear-stage calculation unit 41b and the second rear-stage calculation unit 42b add vehicle speed control commands to the first automatic driving information and the second automatic driving information in addition to the information for eliminating the misalignment. It is also possible to include at least one of a shift control command, a braking control command, and an engine control command. This is because not only adjusting the steering amount but also adjusting other traveling conditions (vehicle speed, etc.) may be effective in eliminating the misalignment.

第1演算部41は圃場画像から第1自動走行情報を出力する機械学習制御ユニットであり、第2演算部42は圃場画像から第2自動走行情報を出力する機械学習制御ユニットである。機械学習制御ユニットが圃場画像から圃場作業の状況を推定して適切な自動走行情報を出力するためには、学習処理が必要となる。この学習処理のため、図5では、学習処理ユニット6が自動走行演算部4に接続されている。なお、学習処理ユニット6は自動走行演算部4に内蔵されてもよい。また、トラクタの制御系以外のコンピュータシステムに構築された学習処理ユニット6と自動走行演算部4とがデータ交換して学習処理を実行するような学習システムを採用してもよい。この実施形態では、第1演算部41及び第2演算部42は、畳み込みニューラルネットワークで構築されており、畳み込みニューラルネットワークに適合する学習処理が学習処理ユニット6によって行われる。 The first calculation unit 41 is a machine learning control unit that outputs the first automatic running information from the field image, and the second calculation unit 42 is a machine learning control unit that outputs the second automatic running information from the field image. In order for the machine learning control unit to estimate the situation of field work from the field image and output appropriate automatic driving information, learning processing is required. For this learning process, in FIG. 5, the learning process unit 6 is connected to the automatic traveling calculation unit 4. The learning processing unit 6 may be built in the automatic traveling calculation unit 4. Further, a learning system may be adopted in which the learning processing unit 6 built in the computer system other than the control system of the tractor and the automatic traveling calculation unit 4 exchange data and execute the learning processing. In this embodiment, the first arithmetic unit 41 and the second arithmetic unit 42 are constructed by a convolutional neural network, and the learning process suitable for the convolutional neural network is performed by the learning processing unit 6.

学習処理ユニット6の構成は、公知であるので、ここでは詳しい説明は省略するが、誤差算出機能や重み調整機能を有する。学習処理ユニット6は、第1演算部41または第2演算部42と同様な畳み込みニューラルネットワークを備えてもよいし、直接、学習前の第1演算部41または第2演算部42と接続して、順次学習させてもよい。前者の場合は、学習処理の終了後に、重み係数などの学習済みデータが第1演算部41及び第2演算部42に設定される。 Since the configuration of the learning processing unit 6 is known, detailed description thereof will be omitted here, but it has an error calculation function and a weight adjustment function. The learning processing unit 6 may include a convolutional neural network similar to the first arithmetic unit 41 or the second arithmetic unit 42, or may be directly connected to the first arithmetic unit 41 or the second arithmetic unit 42 before learning. , May be sequentially learned. In the former case, the learned data such as the weighting coefficient is set in the first calculation unit 41 and the second calculation unit 42 after the learning process is completed.

この第1演算部41の学習処理では、多数の第1学習画像からなる第1学習画像群と、多数の第2学習画像からなる第2学習画像群とが用いられる。 In the learning process of the first calculation unit 41, a first learning image group composed of a large number of first learning images and a second learning image group composed of a large number of second learning images are used.

第1学習用画像群は、圃場の未作業領域と既作業領域とを含む画像群であり、この実施形態では、撮影ユニット3の画像処理部30で生成された俯瞰画像が用いられる。第2学習用画像群は、第1学習用画像群において認識されるべき特徴を示すアノテーションが付与された画像群である。図6及び図7の左側に第1学習用画像の一例が示されており、図6及び図7の右側に第2学習用画像群が示されている。図6の第1学習画像では、既作業領域に位置するトラクタの前方に未作業領域に広がっている情景が示されている。図6の第2学習画像では、走行経路の基準となる未作業領域と既作業領域との間の境界及び当該境界から求められる境界線を示すアノテーションと、作業走行の開始基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。図7の第1学習画像は、未作業領域に進入して作業領域と既作業領域との間の境界に沿って作業走行しているトラクタの俯瞰画像である。この第2学習画像では、走行経路(前進と後進)の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 The first learning image group is an image group including an unworked area and an existing work area of the field, and in this embodiment, a bird's-eye view image generated by the image processing unit 30 of the photographing unit 3 is used. The second learning image group is an image group to which an annotation indicating a feature to be recognized in the first learning image group is added. An example of the first learning image is shown on the left side of FIGS. 6 and 7, and the second learning image group is shown on the right side of FIGS. 6 and 7. In the first learning image of FIG. 6, a scene spreading in the unworked area is shown in front of the tractor located in the worked area. In the second learning image of FIG. 6, the boundary between the unworked area and the existing work area, which is the reference of the traveling route, and the annotation indicating the boundary line obtained from the boundary, the boundary, which is the starting reference of the working traveling, and the said. Annotation indicating the boundary line obtained from the boundary, annotation indicating the positional deviation when the boundary line is set as the target traveling path, annotation indicating that the surface state of the unworked area is moderately uneven, and the required steering amount. Annotation indicating that is attached. The first learning image of FIG. 7 is a bird's-eye view image of a tractor that has entered an unworked area and is working along a boundary between a work area and an existing work area. In this second learning image, an annotation indicating a boundary that serves as a reference for a traveling route (forward and backward) and a boundary line obtained from the boundary, an annotation indicating a positional deviation when the boundary line is used as a target traveling route, and an annotation indicating a positional deviation are not yet available. An annotation indicating that the surface condition of the work area is moderately uneven and an annotation indicating the required steering amount are added.

第2演算部42の学習処理には、学習用画像として第3学習用画像と第4学習用画像とが用いられる。第3学習用画像群も、圃場の未作業領域と既作業領域とを含む画像群であるが、その車体1の前方の既作業領域は車体方向転換可能な領域であり、第4学習用画像は、第3学習用画像群において認識されるべき車体方向転換可能な領域を示すアノテーションが付与された画像群である。図8及び図9の左側に第3学習用画像の一例が示されており、図8及び図9の右側に第4学習用画像群が示されている。図8の第3学習画像では、作業走行中のトラクタの前方に既作業領域に広がっている情景が示されている。図8の第4学習画像では、前方に広がっている既作業領域が車体方向転換可能領域であることを示すアノテーションと、その車体方向転換可能領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。さらに、第4学習画像には、車体方向転換可能領域が認識された場合に、その車体方向転換可能領域に設定される車体方向転換のための旋回走行経路が示されている。図9の第3学習画像は、車体方向転換のための旋回走行の終了付近での俯瞰画像である。図9の第4学習画像では、走行経路の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、既作業領域及び未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 In the learning process of the second calculation unit 42, a third learning image and a fourth learning image are used as learning images. The third learning image group is also an image group including an unworked area and an existing work area of the field, but the existing work area in front of the vehicle body 1 is an area in which the vehicle body direction can be changed, and the fourth learning image group. Is an image group to which an annotation indicating a vehicle body direction changeable region to be recognized in the third learning image group is added. An example of the third learning image is shown on the left side of FIGS. 8 and 9, and the fourth learning image group is shown on the right side of FIGS. 8 and 9. In the third learning image of FIG. 8, a scene spreading in the existing work area is shown in front of the tractor during the work running. In the fourth learning image of FIG. 8, an annotation indicating that the existing work area extending forward is a vehicle body direction changeable area and a surface state of the vehicle body direction changeable area are moderately uneven. Annotations and annotations indicating the required steering amount are added. Further, the fourth learning image shows a turning travel path for changing the vehicle body direction set in the vehicle body direction changeable region when the vehicle body direction changeable region is recognized. The third learning image of FIG. 9 is a bird's-eye view image near the end of the turning run for changing the direction of the vehicle body. In the fourth learning image of FIG. 9, an annotation indicating a boundary that serves as a reference for a traveling route and a boundary line obtained from the boundary, an annotation indicating a positional deviation when the boundary line is used as a target traveling route, an existing work area, and an annotation indicating that the boundary line is used as a target traveling route. An annotation indicating that the surface state of the unworked area is moderately uneven and an annotation indicating the required steering amount are added.

図10に、第1学習用画像群と第2学習用画像群とを用いて、第1演算部41が操舵量を示す第1自動走行情報を出力するように機能させるための学習処理の流れが示されている。 FIG. 10 shows a flow of learning processing for causing the first calculation unit 41 to function to output the first automatic running information indicating the steering amount by using the first learning image group and the second learning image group. It is shown.

まず、トラクタの試験走行やカメラ付きドローンによって取得された撮影画像、またはCG装置を用いて、第1学習用画像群を取得する(#01)。第1学習用画像群に対して注目すべき特徴領域を示すアノテーションを付与して第2学習用画像群を作成する(#02)。 First, the first learning image group is acquired by using the photographed image acquired by the test run of the tractor or the drone with a camera, or the CG device (# 01). An annotation indicating a notable feature region is added to the first learning image group to create a second learning image group (# 02).

第2学習用画像群から、順次、第2学習用画像を抽出して、第1演算部41を構成する畳み込みニューラルネットワークに入力する(#11)。第2学習用画像を用いて、畳み込みニューラルネットワークによって推定された自動走行情報を出力させる(#21)。
推定された自動走行情報と第2学習用画像に付与されているアノテーションで示される自動走行情報との差(誤差)を算出する(#22)。算出された誤差が最小値未満でなければ(#23No分岐)、重み係数を修正して(#24)、ステップ#21に戻り、誤差を縮小する処理を繰り返す。算出された誤差が最小値未満になれば(#23Yes分岐)、その時点の重み係数を記録する(#25)。
The second learning image is sequentially extracted from the second learning image group and input to the convolutional neural network constituting the first calculation unit 41 (# 11). Using the second learning image, the automatic driving information estimated by the convolutional neural network is output (# 21).
The difference (error) between the estimated automatic driving information and the automatic driving information indicated by the annotation attached to the second learning image is calculated (# 22). If the calculated error is not less than the minimum value (# 23No branch), the weighting coefficient is corrected (# 24), the process returns to step # 21, and the process of reducing the error is repeated. If the calculated error is less than the minimum value (# 23Yes branch), the weighting coefficient at that time is recorded (# 25).

用意されている全ての第2学習用画像を用いた学習処理が終了したかどうかチェックされる(#26)。まだ、学習処理に用いられる第2学習用画像が残っていれば(#26Yes分岐)、ステップ#11に戻って、学習処理を続行する。学習処理に用いられる第2学習用画像が残っていなければ(#26No分岐)、記録されている重み係数に基づいて、最終的な重み係数が決定され(#31)、当該重き係数が畳み込みニューラルネットワークである第1演算部41に設定される(#32)。第2学習用画像群から類似する画像をグループ化して、そのグループ毎に誤差が最小となる重み係数を割り当ててもよい。 It is checked whether or not the learning process using all the prepared second learning images is completed (# 26). If the second learning image used for the learning process still remains (# 26Yes branch), the process returns to step # 11 and the learning process is continued. If there is no second learning image used for the learning process (# 26No branch), the final weighting factor is determined based on the recorded weighting factor (# 31), and the weighting factor is a convolutional neural network. It is set in the first calculation unit 41 which is a network (# 32). Similar images may be grouped from the second learning image group, and a weighting coefficient that minimizes the error may be assigned to each group.

第3学習用画像群と第4学習用画像群とを用いた第2演算部42の学習処理も、上述した第1演算部41の学習処理に準じた方法で行われる。学習された第2演算部42は、前方の既作業領域が車体方向転換可能な領域であると認識された場合、車体方向転換のための旋回走行経路を設定し、方向転換して、次の目標走行経路に進入するための操舵量を示す第2自動走行情報を出力するように機能する。 The learning process of the second calculation unit 42 using the third learning image group and the fourth learning image group is also performed by a method similar to the learning process of the first calculation unit 41 described above. When the learned second calculation unit 42 recognizes that the existing work area in front is an area where the vehicle body direction can be changed, the learned second calculation unit 42 sets a turning travel path for changing the vehicle body direction, changes the direction, and then changes the direction to the next. It functions to output the second automatic driving information indicating the steering amount for entering the target traveling path.

〔別実施の形態〕
(1)上述した実施形態では、自動走行演算部4は、直線(緩やかな湾曲線を含む)状の作業走行を行うための第1自動走行情報を出力するように学習された第1演算部41と、適切な場所で方向転換走行を行うための第1自動走行情報を出力するように学習された第2演算部42とを備えていた。圃場作業車では、さらに、走行障害となる物体(走行障害物)との接触を自動的に回避する機能があれば、好都合である。図11には、走行障害物を回避する機能を有する第3演算部43が追加された自動走行演算部4のブロック図が示されている。第3演算部43は、第3前段演算部43aと第3後段演算部43bとを含む。第3前段演算部43aは、撮影ユニット3から送られてきた圃場画像(前方画像または俯瞰画像)から、走行障害物の存在を推定する。第3後段演算部43b推定された走行障害物と車体1との接触を回避するための回避走行情報(操舵量、減速指令、停車指令、警告など)を含む第3自動走行情報を生成して出力する。その際、操舵によって走行障害物を回避する場合には、回避走行経路を目標走行経路として設定する。なお、第3自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮されてもよい。第3前段演算部43a及び第3後段演算部43bは、一体化可能である。
[Another Embodiment]
(1) In the above-described embodiment, the automatic driving calculation unit 4 is a first calculation unit learned to output the first automatic driving information for performing work traveling in a straight line (including a gently curved line). It was provided with 41 and a second calculation unit 42 learned to output the first automatic driving information for performing a direction-changing driving at an appropriate place. In the field work vehicle, it would be convenient if there is a function of automatically avoiding contact with an object (running obstacle) that hinders running. FIG. 11 shows a block diagram of the automatic traveling calculation unit 4 to which the third calculation unit 43 having a function of avoiding a traveling obstacle is added. The third calculation unit 43 includes a third front-stage calculation unit 43a and a third rear-stage calculation unit 43b. The third first-stage calculation unit 43a estimates the presence of a traveling obstacle from the field image (front image or bird's-eye view image) sent from the photographing unit 3. Third rear stage calculation unit 43b Generates third automatic driving information including avoidance driving information (steering amount, deceleration command, stop command, warning, etc.) for avoiding contact between the estimated running obstacle and the vehicle body 1. Output. At that time, when avoiding a traveling obstacle by steering, the avoiding traveling route is set as the target traveling route. It should be noted that the field condition such as the slope of the field and the unevenness of the field scene may be taken into consideration when generating the third automatic traveling information. The third front-stage calculation unit 43a and the third rear-stage calculation unit 43b can be integrated.

第3前段演算部43a及び第3後段演算部43bは、畳み込みニューラルネットワークで構成されているので、学習処理が必要である。学習用画像は、圃場に走行障害物が存在している圃場画像(第5学習用画像群)と、当該圃場画像において認識されたるべき走行障害物を示すアノテーションや走行障害物回避のための走行を示すアノテーションが付与された画像群(第6学習用画像群)である。なお、走行障害物として、移動性障害物(人や動物)と非移動性障害物(鉄塔など)とが区別して認識されるように、それぞれ別の学習用画像が用意される。学習処理は、図10のフローチャートに準じて行われる。 Since the third first-stage calculation unit 43a and the third second-stage calculation unit 43b are composed of a convolutional neural network, learning processing is required. The learning image includes a field image (fifth learning image group) in which a running obstacle exists in the field, an annotation indicating a running obstacle to be recognized in the field image, and running for avoiding the running obstacle. This is an image group (sixth learning image group) to which an annotation indicating the above is added. Separate learning images are prepared so that mobile obstacles (humans and animals) and non-mobile obstacles (steel towers, etc.) can be recognized as traveling obstacles. The learning process is performed according to the flowchart of FIG.

(2)上述した実施形態では、第1自動走行情報、第2自動走行情報、第3自動走行情報に操舵量が含まれていたが、これに代えて、操舵量などの操作指令は、自動走行情報から操舵量を導出する別の演算部によって生成されるようにしてもよい。この場合、圃場情報から操舵量を推定させる学習は不要となる。 (2) In the above-described embodiment, the steering amount is included in the first automatic driving information, the second automatic driving information, and the third automatic driving information, but instead, the operation command such as the steering amount is automatically. It may be generated by another calculation unit that derives the steering amount from the traveling information. In this case, learning to estimate the steering amount from the field information becomes unnecessary.

(3)上述した実施形態では、自動走行演算部4を構築するための機械学習として畳み込みニューラルネットワークが用いられているが、それ以外の人工ニューラルネットワークが用いられてもよい。また、前段演算部と後段演算部とは、同じ形式の機械学習で構築されてもよいし、異なる形式の機械学習で構築されてもよい。 (3) In the above-described embodiment, the convolutional neural network is used as machine learning for constructing the automatic driving calculation unit 4, but other artificial neural networks may be used. Further, the first-stage calculation unit and the second-stage calculation unit may be constructed by the same type of machine learning, or may be constructed by different types of machine learning.

(4)学習処理ユニット6が各圃場作業車の制御系に備えられ、自動走行演算部4と接続されている場合には、手動走行中に撮影ユニット3で取得された撮影画像を学習用画像として用いることができる。アノテーションの付与は運転者によって行うことができる。
さらに、運転者による操作や走行軌跡などの情報から、自動的にアノテーション付与を行ってもよい。
(4) When the learning processing unit 6 is provided in the control system of each field work vehicle and is connected to the automatic driving calculation unit 4, the captured image acquired by the photographing unit 3 during manual driving is used as a learning image. Can be used as. Annotation can be added by the driver.
Further, annotation may be automatically added from information such as an operation by the driver and a traveling locus.

(5)上述した実施形態では、操舵指令に基づいて操舵輪である前輪11の操舵角を調節することで車体1の走行方向が変更された。クローラ式の走行機構を備えた作業車では、これに代えて、操舵指令に基づいて、左右のクローラの速度を調節することで、車体1の走行方向が変更される。 (5) In the above-described embodiment, the traveling direction of the vehicle body 1 is changed by adjusting the steering angle of the front wheels 11 which are the steering wheels based on the steering command. In the work vehicle provided with the crawler type traveling mechanism, the traveling direction of the vehicle body 1 is changed by adjusting the speeds of the left and right crawlers based on the steering command instead.

(6)上述した実施形態では、圃場作業車として、トラクタが取り扱われたが、田植機やコンバインなどの他の圃場作業車にも同様な自動走行演算部4を採用することができる。 (6) In the above-described embodiment, the tractor is treated as the field work vehicle, but the same automatic traveling calculation unit 4 can be adopted for other field work vehicles such as rice transplanters and combines.

本発明は、圃場を自動走行する圃場作業車に適用可能である。 The present invention is applicable to a field work vehicle that automatically travels in a field.

3 :撮影ユニット
30 :画像処理部
31 :前カメラ
32 :後カメラ
33 :左カメラ
34 :右カメラ
4 :自動走行演算部
40 :選択部
41 :第1演算部
41a :第1前段演算部
41b :第1後段演算部
42 :第2演算部
42a :第2前段演算部
42b :第2後段演算部
43 :第3演算部
43a :第3前段演算部
43b :第3後段演算部
5 :制御ユニット
50 :入出力信号処理ユニット
52 :自動走行制御部
54 :走行状態検知部
55 :作業状態検知部
6 :学習処理ユニット
3: Shooting unit 30: Image processing unit 31: Front camera 32: Rear camera 33: Left camera 34: Right camera 4: Automatic running calculation unit 40: Selection unit 41: First calculation unit 41a: First front stage calculation unit 41b: 1st second stage calculation unit 42: 2nd calculation unit 42a: 2nd front stage calculation unit 42b: 2nd second stage calculation unit 43: 3rd calculation unit 43a: 3rd first stage calculation unit 43b: 3rd second stage calculation unit 5: control unit 50 : Input / output signal processing unit 52: Automatic running control unit 54: Running state detection unit 55: Working state detection unit 6: Learning processing unit

Claims (11)

圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記境界に沿って自動走行するための情報である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the second learning image group created by adding an annotation to the first learning image group which is the field image as teacher data. The first learning image group is an image group including the unworked area and the worked area of the field, and the second learning image group includes the unworked area and the worked area. It is a group of images to which an annotation indicating the boundary between them is added.
The automatic traveling information is a field work vehicle which is information for automatically traveling along the boundary.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界に沿って自動走行するための走行経路に対する位置ずれを示すアノテーションとが付与された画像群であり、
前記自動走行情報は、前記境界に沿って自動走行するための走行経路に対する位置ずれである圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the second learning image group created by adding an annotation to the first learning image group which is the field image as teacher data. The first learning image group is an image group including the unworked area and the worked area of the field, and the second learning image group includes the unworked area and the worked area. It is a group of images to which an annotation indicating a positional deviation with respect to a traveling path for automatic traveling along the boundary between the images is added.
The automatic traveling information is a field work vehicle which is a positional deviation with respect to a traveling route for automatic traveling along the boundary.
前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれており、
前記自動走行情報は、前記横位置ずれと前記方位ずれである請求項2に記載の圃場作業車。
The misalignment includes a lateral misalignment, which is a cross-sectional deviation with respect to the traveling path, and an azimuth deviation, which is a vehicle body orientation deviation with respect to the direction of the traveling path.
The field work vehicle according to claim 2, wherein the automatic traveling information is the lateral position deviation and the orientation deviation.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記境界に沿って自動走行するための走行経路に対する位置ずれを解消するための操舵量を示すアノテーションとが付与された画像群であり、
前記自動走行情報は、前記位置ずれを解消するための操舵量である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the second learning image group created by adding an annotation to the first learning image group which is the field image as teacher data. The first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group is a running for automatically traveling along the boundary. It is a group of images to which an annotation indicating the steering amount for eliminating the misalignment with respect to the path is added.
The automatic traveling information is a field work vehicle which is a steering amount for eliminating the misalignment.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像群を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像群は、前記既作業領域のうち車体方向転換可能な領域を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記車体方向転換可能な領域である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the fourth learning image group created by adding an annotation to the third learning image group which is the field image as teacher data. The third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image group can change the vehicle body direction in the already working area. A group of images with an annotation indicating the area.
The automatic traveling information is a field work vehicle which is an area where the vehicle body direction can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像群を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像群は、前記既作業領域のうち車体方向転換可能な領域における車体方向転換のための旋回走行経路を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記車体方向転換可能な領域における車体方向転換のための旋回走行経路である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the fourth learning image group created by adding an annotation to the third learning image group which is the field image as teacher data. The third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image group can change the vehicle body direction in the already working area. It is a group of images with an annotation indicating a turning route for changing the direction of the vehicle body in the area.
The automatic traveling information is a field work vehicle which is a turning traveling route for changing the vehicle body direction in the area where the vehicle body direction can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像群を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像群は、前記既作業領域のうち車体方向転換可能な領域における車体方向転換のために必要な操舵量を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記車体方向転換可能な領域における車体方向転換のために必要な操舵量である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the fourth learning image group created by adding an annotation to the third learning image group which is the field image as teacher data. The third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image group can change the vehicle body direction in the already working area. It is a group of images with an annotation indicating the amount of steering required for changing the direction of the vehicle body in the area.
The automatic traveling information is a field work vehicle which is a steering amount required for changing the direction of the vehicle body in the region where the direction of the vehicle body can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の画像群であり、前記第2学習用画像群は、前記圃場における走行障害物及び当該走行障害物を回避する回避走行経路を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記走行障害物と前記車体との接触を回避するための回避走行情報である圃場作業車。
It is a field work vehicle that automatically travels in the field.
An imaging unit that photographs the field including at least the traveling region of the vehicle body and outputs a field image.
Traveling equipment for adjusting vehicle speed and steering amount,
An automatic driving calculation unit learned to input the field image, estimate the boundary between the unworked area and the existing working area, and the field state, and output the automatic driving information for automatic driving.
An automatic driving control unit that controls the traveling equipment based on the automatic driving information is provided.
The automatic running calculation unit is constructed by a convolutional neural network, and is trained using the second learning image group created by adding an annotation to the first learning image group which is the field image as teacher data. The first learning image group is an image group of the field, and the second learning image group is given an annotation indicating a running obstacle in the field and an avoidance running route for avoiding the running obstacle. It is a group of images
The automatic traveling information is a field work vehicle which is avoidance traveling information for avoiding contact between the traveling obstacle and the vehicle body.
前記回避走行情報には、非移動性障害物と推定された前記走行障害物を回避する情報が含まれている請求項8に記載の圃場作業車。 The field work vehicle according to claim 8, wherein the avoidance traveling information includes information for avoiding the traveling obstacle presumed to be a non-movable obstacle. 前記回避走行情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている請求項8または9に記載の圃場作業車。 The avoidance driving information includes information for performing at least one of deceleration, stopping, and warning for avoiding contact with the traveling obstacle presumed to be a mobile obstacle. The field work vehicle according to 9. 前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、
前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、
前記回避走行情報には、操舵、車速、変速、制動、前記エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている請求項8から10のいずれか一項に記載の圃場作業車。
A traveling state detection unit that detects a traveling state from the state of the traveling device is provided.
The running state information indicating the running state is input to the automatic running calculation unit, and the running state information includes data indicating at least one of the vehicle speed, the shift position, the engine speed, and the engine load factor.
The field according to any one of claims 8 to 10, wherein the avoidance running information includes a control command for commanding steering, vehicle speed, shifting, braking, and changing at least one of the engine speeds. Work vehicle.
JP2022075732A 2018-12-20 2022-05-02 Field work vehicle Active JP7353417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022075732A JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018238897A JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018238897A Division JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle

Publications (2)

Publication Number Publication Date
JP2022106892A true JP2022106892A (en) 2022-07-20
JP7353417B2 JP7353417B2 (en) 2023-09-29

Family

ID=71139573

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018238897A Active JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A Active JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018238897A Active JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle

Country Status (1)

Country Link
JP (2) JP7069001B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038295A1 (en) * 2003-10-17 2005-04-28 Jtekt Corporation Power transmission chain and power transmission device using the same
JP7069001B2 (en) * 2018-12-20 2022-05-17 株式会社クボタ Field work vehicle
JP2022060022A (en) * 2020-10-02 2022-04-14 株式会社クボタ Combine-harvester
WO2024095802A1 (en) * 2022-11-02 2024-05-10 株式会社クボタ Driving control system, work vehicle, and driving control method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101943A (en) * 2018-12-20 2020-07-02 株式会社クボタ Field working vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2723283B2 (en) * 1989-02-17 1998-03-09 ヤンマー農機株式会社 Control device in work vehicle
JP2944774B2 (en) * 1991-03-20 1999-09-06 ヤンマー農機株式会社 Image processing method for automatic traveling work machine
JP4293404B2 (en) 2000-03-02 2009-07-08 ダイセルノバフォーム株式会社 Foam molded body and method for producing the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101943A (en) * 2018-12-20 2020-07-02 株式会社クボタ Field working vehicle

Also Published As

Publication number Publication date
JP7353417B2 (en) 2023-09-29
JP2020101943A (en) 2020-07-02
JP7069001B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP7069001B2 (en) Field work vehicle
US11317557B2 (en) Automatic steering system and automatic steering method
EP3841859B1 (en) Harvester, surrounding condition detection system, surrounding condition detection program, recording medium recording the surrounding condition detection program and surrounding condition detection method
CN108334064B (en) Automatic driving operation vehicle
WO2017154715A1 (en) Work vehicle and travel region specification device
JP6507109B2 (en) Running area shape registration system for work vehicle
RU2720936C2 (en) Agricultural complex with system of control and direction of maneuvers and method implemented by such complex
KR102113414B1 (en) Path generation device
JP6437640B2 (en) Guidance control system for autonomous vehicles
JP6701002B2 (en) Driving support system and work vehicle
WO2016017408A1 (en) Work vehicle cooperation system
EP2784617A2 (en) Work vehicles coordinating system
EP3991531A1 (en) Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
JP6975668B2 (en) Automatic driving system for work vehicles
CN109922996A (en) Operation Van
JP7072496B2 (en) Control device for self-driving work vehicles
JP2021007386A (en) Automatic travel system
JP2019133701A (en) Travel area shape registration system
CN114265409A (en) Track information processing method and device and ground equipment
CN113039501A (en) Automatic travel control system, automatic travel control program, recording medium containing automatic travel control program, automatic travel control method, control device, control program, recording medium containing control program, and control method
JP6605375B2 (en) Autonomous traveling work vehicle
JP6659630B2 (en) Work vehicle coordination system
JP7004756B2 (en) Work vehicle coordination system
JP7206099B2 (en) Control device for self-driving work vehicle
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150