JP2020101943A - Field working vehicle - Google Patents

Field working vehicle Download PDF

Info

Publication number
JP2020101943A
JP2020101943A JP2018238897A JP2018238897A JP2020101943A JP 2020101943 A JP2020101943 A JP 2020101943A JP 2018238897 A JP2018238897 A JP 2018238897A JP 2018238897 A JP2018238897 A JP 2018238897A JP 2020101943 A JP2020101943 A JP 2020101943A
Authority
JP
Japan
Prior art keywords
traveling
field
image
automatic
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018238897A
Other languages
Japanese (ja)
Other versions
JP7069001B2 (en
Inventor
惇一 池端
Junichi Ikehata
惇一 池端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2018238897A priority Critical patent/JP7069001B2/en
Publication of JP2020101943A publication Critical patent/JP2020101943A/en
Priority to JP2022075732A priority patent/JP7353417B2/en
Application granted granted Critical
Publication of JP7069001B2 publication Critical patent/JP7069001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a field working vehicle which can automatically travel in consideration of a state of a field without using satellite positioning.SOLUTION: The field working vehicle comprises: a photographing unit 3 which photographs a field including at least an area where a vehicle body advances, and outputs a field image; a travel device which adjusts a vehicle speed and an amount of steering; an automatic travel operation unit 4 which is learned so as to receive the field image and output automatic travel information for automatic travel on the basis of a boundary between an unworked area and a worked area and a state of the field; and an automatic travel control unit 52 which controls the travel device on the basis of the automatic travel information.SELECTED DRAWING: Figure 5

Description

本発明は、圃場内を自動走行しながら作業を行う圃場作業車に関する。
に関する。
The present invention relates to a field work vehicle that performs work while automatically traveling in a field.
Regarding

圃場内を自動走行する方法の1つでは、予め設定された自動走行用走行経路と、衛星測位によって得られた作業車位置とが用いられる。例えば、特許文献1に開示されたトラクタでは、最初に手動走行で圃場の外周付近を走行することにより作り出された既作業領域の内側に、自動走行によって作業されるべき作業対象領域が形成される。この作業対象領域をトラクタが走行するための走行経路が経路算出アルゴリズムに基づいて算出される。その後、トタクタに備えられた自動走行制御部では、目標となる走行経路と衛星測位データから算出された自車位置との間の位置ずれを算出し、この位置ずれが小さくなるように自動操舵指令が生成される。 In one of the methods for automatically traveling in the field, a preset traveling route for automatic traveling and a work vehicle position obtained by satellite positioning are used. For example, in the tractor disclosed in Patent Document 1, a work target area to be worked by automatic running is formed inside an already-worked area created by first running near the outer circumference of a field by manual running. .. A travel route for the tractor to travel in the work target area is calculated based on a route calculation algorithm. After that, the automatic traveling control unit provided in the contactor calculates the positional deviation between the target traveling route and the own vehicle position calculated from the satellite positioning data, and issues an automatic steering command to reduce the positional deviation. Is generated.

圃場内を自動走行するための他の1つの方法では、圃場作業車に搭載された撮影カメラによる撮影画像を画像処理することにより得られる圃場作業車の目標走行経路が利用される。例えば、特許文献2に開示された草刈機では、ゴルフ場などの芝生地における既刈地と未刈地との境界領域が撮影装置で撮影され、その撮影画像から既刈地と未刈地との間の境界線が算出され、この境界線に沿うように、車体が自動操舵される。 Another method for automatically traveling in the field uses a target travel route of the field work vehicle that is obtained by performing image processing on an image captured by a shooting camera mounted on the field work vehicle. For example, in the lawn mower disclosed in Patent Document 2, a boundary area between the already-cut land and the uncut land in a grassy area such as a golf course is photographed by a photographing device, and the photographed image shows the already-cut and uncut land. A boundary line between the two is calculated, and the vehicle body is automatically steered along the boundary line.

特開2018−116608号公報JP, 2008-116608, A 特開2018−097526号公報JP, 2008-097526, A

特許文献1に開示されているような、衛星測位データを用いた自動走行を実施するためには、圃場の地図情報(圃場座標系または地球座標系)が用意され、この地図情報を用いて、圃場を網羅する走行経路が算出される。作業車は、この走行経路から自車位置がはずれないように自動走行される。自車位置は衛星測位を用いて算出されるが、衛星測位による自車位置算出では、山林や家屋によって衛星電波が遮られると、測位不能や測位精度低下が生じるという問題が生じる。 In order to carry out automatic traveling using satellite positioning data as disclosed in Patent Document 1, map information of a field (field coordinate system or earth coordinate system) is prepared, and using this map information, A travel route that covers the field is calculated. The work vehicle is automatically driven so that the position of the vehicle does not deviate from this travel route. The own vehicle position is calculated by using satellite positioning. However, in the own vehicle position calculation by satellite positioning, if satellite waves are blocked by forests or houses, there is a problem that positioning is impossible or positioning accuracy deteriorates.

特許文献2に開示されているような、画像処理によって検出される既刈地(既作業地)と未刈地(未作業地)との間の境界線を目標走行経路とする自動走行は、衛星測位を用いた自動走行の代替案として有効である。しかしながら、圃場作業車の走行面となる圃場面は、芝生地などに比べて、凹凸が激しく、しかも、その状態も場所によって異なるので、これは操舵精度の悪化を導く。さらに、圃場に農作物や農作物の残滓が存在している場合、その状態が場所によって異なるので、そのような農作物の状態に応じた自動走行が要求される場合もある。 Automatic traveling using the boundary line between the already-cut land (worked land) and the uncut land (unworked land) detected by image processing as the target traveling route, as disclosed in Patent Document 2, It is effective as an alternative to autonomous driving using satellite positioning. However, the field scene that is the traveling surface of the field work vehicle has more irregularities than a lawn or the like, and the state thereof also varies depending on the location, which leads to deterioration of steering accuracy. Furthermore, when agricultural products or agricultural product residues are present in the field, the state of the agricultural products varies depending on the location. Therefore, automatic driving depending on the state of such agricultural products may be required.

本発明の目的は、衛星測位を用いることなしに、かつ圃場の状態を考慮しながら自動走行できる圃場作業車を提供することである。 An object of the present invention is to provide a field work vehicle that can automatically travel without using satellite positioning and while considering the state of the field.

圃場を自動走行する、本発明による圃場作業車は、少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、車速及び操舵量を調整するための走行機器と、前記圃場画像入力して、未作業領域と既作業領域との境界と圃場状態とに基づいて自動走行するための自動走行情報を出力するように学習された自動走行演算部と、前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部とを備える。 A field work vehicle according to the present invention, which automatically travels in a field, includes a shooting unit for shooting the field including at least a traveling region of a vehicle body and outputting a field image, a traveling device for adjusting a vehicle speed and a steering amount, A field image is input, and an automatic travel calculation unit learned to output automatic travel information for automatic travel based on a boundary between an unworked area and an already-worked area and a field state, and the automatic travel information. And an automatic traveling control unit that controls the traveling device based on the traveling device.

この構成では、撮影ユニットによって取得した圃場画像から未作業領域と既作業領域との境界が推定されることで目標となる車体の走行方向が決定され、同時に圃場画像から圃場状態が推定されることで、前記圃場状態に適合する目標となる走行挙動が決定され、目標となる走行方向と走行挙動とから自動走行情報が出力される。自動走行演算部は、未作業領域と既作業領域との境界だけでなく圃場状態も含めて最適な自動走行情報を出力するように学習されている。したがって、未作業領域と既作業領域との境界に沿うように走行機器が制御される際に、圃場状態(圃場面の状態や農作物の状態など)も考慮される。たとえば、走行前方に泥濘や凹凸などがあれば、操舵量を緩やかにして、スリップなどを抑制することも可能となる。 In this configuration, the target traveling direction of the vehicle body is determined by estimating the boundary between the unworked area and the already-worked area from the field image acquired by the imaging unit, and at the same time, the field state is estimated from the field image. Then, the target traveling behavior suitable for the field condition is determined, and the automatic traveling information is output from the target traveling direction and the traveling behavior. The automatic traveling calculation unit is learned to output the optimum automatic traveling information including not only the boundary between the unworked area and the already-worked area but also the field condition. Therefore, when the traveling device is controlled so as to be along the boundary between the unworked area and the already-worked area, the field condition (field condition, crop condition, etc.) is also considered. For example, if there is mud or unevenness in front of the vehicle, it is possible to reduce the steering amount and suppress slippage.

作業もれまたは重複作業(過剰オーバーラップ)を避けるためには、車体の目標経路からのずれを正確に捉え、そのずれを少なくする操舵量を求める必要がある。このために、未作業領域と既作業領域との境界を一本の線、つまり境界線で求めること、及びこの境界線に車体の操舵基準点を一致させる操舵指令を出力すること、が重要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記境界を示す境界線に対応する線状の目標走行経路を推定し、この線状の目標走行経路と自車とのずれを解消するための情報を含む。 In order to avoid work leakage or overlapping work (excessive overlap), it is necessary to accurately grasp the deviation of the vehicle body from the target route and obtain the steering amount that reduces the deviation. For this reason, it is important to obtain the boundary between the unworked area and the already-worked area with a single line, that is, the boundary line, and to output a steering command for matching the steering reference point of the vehicle body with this boundary line. is there. From this, in one of the preferred embodiments of the present invention, the automatic travel information estimates a linear target travel route corresponding to the boundary line indicating the boundary, It contains information to eliminate the gap with the car.

耕耘作業、田植作業、収穫作業など圃場では作業では、既に作業済みとなっている外周領域が車体の向きを変える方向転換領域として利用され、その外周領域の内側領域(未作業領域)に平行な線状の経路を、Uターン走行などの方向転換走行によってつないでいく走行形態が採用されている。このような走行パターンを、本発明による自動走行においても採用するためには、車体が車体の方向転換を行う必要がある外周領域に達すると、方向転換走行に移行する制御が必要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記既作業領域である車体方向転換可能領域に設定されている方向転換走行経路を目標走行経路として方向転換を行うための情報を含む。 In field work such as plowing work, rice planting work, and harvesting work, the already worked outer peripheral area is used as a turning area for changing the direction of the vehicle body and is parallel to the inner area (unworked area) of the outer peripheral area. A traveling mode in which a linear route is connected by a direction change traveling such as a U-turn traveling is adopted. In order to adopt such a traveling pattern also in the automatic traveling according to the present invention, it is necessary to perform control to shift to the direction change traveling when the vehicle body reaches the outer peripheral area where the direction of the vehicle body needs to be changed. From this, in one of the preferred embodiments of the present invention, the automatic traveling information indicates that the direction change traveling route set in the vehicle body direction changeable region which is the already-worked region is used as the target traveling route. Contains information to do.

圃場には、人や動物、さらには井戸や鉄塔などの走行障害物が存在する可能性があるので、自動走行を行うには、この走行障害物を検知して、走行障害物との接触を回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記自動走行演算部は、前記圃場画像から推定された走行障害物との接触を回避するための衝突回避情報を前記自動走行情報として出力する。 Since there may be people, animals, and running obstacles such as wells and steel towers in the field, in order to carry out automatic driving, this running obstacle should be detected and contact with the running obstacle should be made. Need to avoid. From this, in one of the preferred embodiments of the present invention, the automatic traveling calculation unit uses, as the automatic traveling information, collision avoidance information for avoiding contact with a traveling obstacle estimated from the field image. Output.

走行障害物が移動するものか、あるいは圃場に固定しているものかによって、対処策が異なってくる。圃場に固定している障害物に対しては、作業車が回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、非移動性障害物と推定された前記走行障害物を回避する回避走行情報が含まれている。 Countermeasures differ depending on whether the moving obstacle is moving or fixed on the field. It is necessary for the work vehicle to avoid obstacles that are fixed in the field. Therefore, in one of the preferred embodiments of the present invention, the collision avoidance information includes avoidance traveling information for avoiding the traveling obstacle estimated to be a non-moving obstacle.

圃場を移動する障害物は、時間経過にともなって作業車の走行先から外れて、走行障害物ではなくなる可能性がある。また、警報等によって、障害物を排除することも可能である。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている。 Obstacles that move in the field may move away from the destination of the work vehicle over time, and may disappear as traveling obstacles. It is also possible to eliminate obstacles by an alarm or the like. From this, in one of the preferred embodiments of the present invention, the collision avoidance information includes at least deceleration, stoppage, and warning for avoiding contact with the traveling obstacle estimated to be a mobile obstacle. Contains information for doing one.

手動走行で圃場作業が行われる場合、運転者は、現状の車速やエンジン回転数のなどを考慮して、これらを適切に変更操作することで、最適な作業走行を図っている。このような操作は自動走行においても有益である。このことから、本発明の好適な実施形態の1つでは、前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、前記自動走行情報には、操舵、車速、変速、制動、エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている。 When the field work is performed by manual traveling, the driver appropriately operates the vehicle speed and the engine speed in consideration of the current vehicle speed and the like to achieve optimal work traveling. Such an operation is also useful in automatic driving. From this, in one of the preferred embodiments of the present invention, a traveling state detection unit that detects a traveling state from the state of the traveling device is provided, and traveling state information indicating the traveling state is stored in the automatic traveling calculation unit. The traveling state information includes data indicating at least one of a vehicle speed, a shift position, an engine speed, and an engine load factor. The automatic traveling information includes steering, vehicle speed, gear shifting, braking, A control command for instructing change of at least one of the engine speeds is included.

農業従事者の長年の経験と圃場作業車の技術改革とによって発達してきた農業において、圃場作業車の自動化を進めるためには、長年の経験を圃場作業車の自動走行制御に反映させる必要がある。このためには、制御系の中核に、農業従事者の経験を圃場作業車に学習させる機械学習を導入することが好適である。これにより、熟練した農業従事者の能力を圃場作業車に搭載したコンピュータ上で実現させることができる。このため、前記自動走行演算部は、畳み込みニューラルネットワークで構築され、学習用画像として第1学習用画像群と第2学習用画像群とを用いて学習されており、前記第1学習用画像群は、圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界を示すアノテーションと、前記境界に沿って自動走行するための走行経路に対する位置ずれを示すアノテーションとが付与された画像群である。アノテーションとは、対応撮影画像に対する意味づけである。例えば、圃場の撮影画像において、未作業領域と既作業領域との境界を指し示すこと、さらにはその境界から車体の走行経路に対する位置ずれとその位置ずれを解消するための操作を指し示すことが、アノテーションである。この機械学習には、第1の学習と第2の学習が含まれている。第1の学習は、圃場作業車からの視点で取得された生の撮影画像と、その撮影画像における未作業領域と前記既作業領域との間の境界を見つけ出して、その境界領域をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から境界領域を推定させる学習である。第2の学習は、生の撮影画像と、見つけ出された境界の位置からの車体の位置ずれ(目標走行ラインからのずれ)及び必要とされる位置ずれを解消する操作をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から車体の位置ずれ境界領域を推定させ、位置ずれを解消する操作を推定させる学習である。この学習により、自動走行演算部は、取得した圃場画像から、車体前方の境界線の位置、車体の位置ずれ、さらに、必要であれば、位置ずれの解消操作を出力することができる。 In agriculture, which has been developed through many years of experience of agricultural workers and technological reform of field work vehicles, in order to promote automation of field work vehicles, it is necessary to reflect many years of experience in automatic traveling control of field work vehicles. .. For this purpose, it is preferable to introduce machine learning that causes the field work vehicle to learn the experience of the farmer at the core of the control system. As a result, the ability of a skilled farmer can be realized on the computer mounted on the field work vehicle. Therefore, the automatic running calculation unit is constructed by a convolutional neural network, and is learned by using the first learning image group and the second learning image group as learning images. Is an image group including the unworked area and the already-worked area of a field, and the second learning image group is an annotation indicating the boundary between the unworked area and the already-worked area, It is an image group to which an annotation indicating a positional deviation with respect to a traveling route for automatically traveling along the boundary is added. The annotation is a meaning given to the corresponding captured image. For example, in a captured image of a field, pointing to the boundary between the unworked area and the already-worked area Is. This machine learning includes first learning and second learning. The first learning is to find a raw photographed image acquired from a viewpoint from a field work vehicle and a boundary between an unworked area and the already worked area in the photographed image, and show the boundary area as an annotation. It is learning to estimate the boundary area from the raw captured image using the annotation image. The second learning is an annotation that shows, as annotations, a raw captured image and an operation for eliminating the positional deviation of the vehicle body from the found boundary position (deviation from the target travel line) and the required positional deviation. This is a learning for estimating the position shift boundary area of the vehicle body from the raw captured image using the image and the operation for canceling the position shift. Through this learning, the automatic traveling calculation unit can output the position of the boundary line in front of the vehicle body, the displacement of the vehicle body, and, if necessary, the operation for canceling the displacement from the acquired field image.

車体の位置ずれが発生すると、車体を目標走行経路に一致させる操舵が行われる。この操舵による位置ずれの解消を迅速かつ効率的に行うためには、走行経路に対する横断方向のずれである横位置ずれと、走行経路の向きに対する車体方位のずれである方位ずれとを組み合わせて制御されることが好適である。これは、道路を走行する車両に比べて、圃場を走行する圃場作業車では、スリップが多く、車速が低いことに起因する。このことから、本発明の好適な実施形態の1つでは、前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれている。 When the displacement of the vehicle body occurs, steering is performed to match the vehicle body with the target travel route. In order to quickly and efficiently eliminate the positional deviation due to this steering, control is performed by combining lateral positional deviation, which is the lateral deviation with respect to the travel route, and azimuth deviation, which is the vehicle body azimuth deviation with respect to the direction of the travel path. Is preferably performed. This is because the field work vehicle that travels in the field has more slip and a lower vehicle speed than the vehicle that travels on the road. From this, in one of the preferred embodiments of the present invention, the positional displacement includes a lateral positional displacement that is a displacement in the transverse direction with respect to the travel route and an azimuth that is a displacement of the vehicle body orientation with respect to the direction of the travel route. The gap is included.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第3学習用画像と第4学習用画像とが用いられており、前記第3学習用画像は、前記既作業領域における車体方向転換可能な領域を示す画像群であり、前記第4学習用画像は、前記車体方向転換可能な領域を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、現在の作業走行経路から車体を方向転換させて次の作業走行経路に移行するための方向転換用領域、及びその方向転換用領域での方向転換走行(旋回走行)のための情報が、圃場画像から推定できるようになる。 Furthermore, in one of the preferred embodiments of the present invention, a third learning image and a fourth learning image are further used as the learning image, and the third learning image is the already-worked area. In the vehicle body direction changeable area, and the fourth learning image is an image group to which an annotation indicating the vehicle body direction changeable area is added. In the automatic traveling calculation unit learned by using such a learning image, a direction changing region for changing the direction of the vehicle body from the current work traveling route to the next work traveling route, and the direction changing region. It becomes possible to estimate the information for the turning travel (turning travel) in the field image.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第5学習用画像と第6学習用画像とが用いられており、前記第5学習用画像は、前記圃場における走行障害となる物体が含まれている画像群であり、前記学習用画像は、前記走行障害となる物体を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、は、圃場画像から走行障害となる物体を推定することができ、この障害物との接触を回避するために必要な自動走行情報を出力することができる。 Further, in one of preferred embodiments of the present invention, a fifth learning image and a sixth learning image are further used as the learning image, and the fifth learning image is traveled in the field. The learning image is an image group including an obstacle object, and the learning image is an image group to which an annotation indicating the obstacle object is added. In the automatic traveling calculation unit learned using such a learning image, can estimate an object that is a traveling obstacle from the field image, and the automatic traveling information necessary for avoiding contact with this obstacle can be estimated. Can be output.

圃場作業車の一例であるトラクタの側面図である。It is a side view of a tractor which is an example of a field work vehicle. 撮影カメラの取り付け位置を説明するためのトラクタの概略平面図である。It is a schematic plan view of the tractor for explaining the mounting position of the photographing camera. トラクタによる圃場作業の流れを説明する説明図である。It is explanatory drawing explaining the flow of the field work by a tractor. 制御系の機能ブロック図である。It is a functional block diagram of a control system. 自動走行演算部の機能ブロック図である。It is a functional block diagram of an automatic travel calculation unit. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the image for learning used for the learning process of a 1st calculating part. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the image for learning used for the learning process of a 1st calculating part. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the image for learning used for the learning process of a 2nd calculating part. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。It is a schematic diagram which shows the image for learning used for the learning process of a 2nd calculating part. 自動走行演算部の学習処理の一例を示すフローチャートである。It is a flow chart which shows an example of learning processing of an automatic run computing part. 自動走行演算部の別実施形態における機能ブロック図である。It is a functional block diagram in another embodiment of an automatic run computing part.

次に、図面を用いて、本発明による圃場を自動走行する圃場作業車を説明する。図1で示された実施形態では、作業車は、圃場を自動走行するトラクタである。このトラクタは、前輪11と後輪12とによって支持された車体1の中央部に運転部20が設けられている。車体1の後部には油圧式の昇降機構23を介してロータリ耕耘装置である作業装置24が装備されている。前輪11は操向輪として機能し、その操舵角を変更することでトラクタの走行方向が変更される。前輪11の操舵角は操舵機構13の動作によって変更される。操舵機構13には自動操舵のための操舵モータ14が含まれている。手動走行の際には、前輪11の操舵は運転部20に配置されているステアリングホイール22の操作によって行われる。 Next, a field work vehicle for automatically traveling in a field according to the present invention will be described with reference to the drawings. In the embodiment shown in FIG. 1, the work vehicle is a tractor that automatically travels in a field. In this tractor, a driving section 20 is provided in the center of the vehicle body 1 supported by the front wheels 11 and the rear wheels 12. A working device 24, which is a rotary cultivating device, is mounted on the rear portion of the vehicle body 1 via a hydraulic lifting mechanism 23. The front wheels 11 function as steering wheels, and the traveling direction of the tractor is changed by changing the steering angle. The steering angle of the front wheels 11 is changed by the operation of the steering mechanism 13. The steering mechanism 13 includes a steering motor 14 for automatic steering. During manual traveling, steering of the front wheels 11 is performed by operating a steering wheel 22 arranged in the driving unit 20.

このトラクタには、少なくとも車体1の走行先の領域を含む圃場を撮影して圃場画像を出力する撮影ユニット3が備えられている。この実施形態では、図2に示すように、撮影ユニット3には、前カメラ31と後カメラ32と左カメラ33と右カメラ34とを含む。前カメラ31は、車体1の前部に配置され、車体1の前方を撮影する。後カメラ32は、車体1の後部に配置され、作業装置24を含む車体1の後方を撮影する。左カメラ33と右カメラ34とは、それぞれ、車体1の側部に配置され、車体1の左方と右方とを撮影する。前カメラ31と後カメラ32と左カメラ33と右カメラ34とからの撮影画像を視点変換して合成することにより、トラクタ上方を視点とする俯瞰画像が生成可能である。圃場画像として、前カメラ31による前方撮影画像、または、圃場画像、あるいはその両方が利用される。なお、前方撮影画像は前進の場合の車体進行領域を含む圃場画像として利用され、後進の場合には後カメラ32による後方撮影画像が車体進行領域を含む圃場画像として利用される。したがって、以下に述べる圃場画像には、前方撮影画像、後方撮影画像、俯瞰画像が含まれるものとする。 The tractor is provided with a photographing unit 3 that photographs a field including at least a region where the vehicle body 1 is traveling and outputs a field image. In this embodiment, as shown in FIG. 2, the photographing unit 3 includes a front camera 31, a rear camera 32, a left camera 33, and a right camera 34. The front camera 31 is arranged in the front part of the vehicle body 1 and photographs the front of the vehicle body 1. The rear camera 32 is arranged at the rear portion of the vehicle body 1 and takes an image of the rear of the vehicle body 1 including the working device 24. The left camera 33 and the right camera 34 are respectively arranged on the sides of the vehicle body 1 and take images of the left side and the right side of the vehicle body 1. By converting the viewpoints of the captured images from the front camera 31, the rear camera 32, the left camera 33, and the right camera 34 and synthesizing them, it is possible to generate a bird's-eye view image with the viewpoint above the tractor. As the field image, a front image taken by the front camera 31, a field image, or both are used. The forward captured image is used as a field image including the vehicle body traveling region when moving forward, and the backward captured image by the rear camera 32 is used as a field image including the vehicle body traveling region when traveling backward. Therefore, it is assumed that the field image described below includes a front captured image, a rear captured image, and an overhead view image.

トラクタによる圃場作業の一般的な手順が図3に示されている。この例では、トラクタが圃場に入ると(#a)、圃場の外周に沿って作業を行う周囲作業走行が手動または自動で行われ、圃場の最外周側に既作業領域である外周領域が形成される(#b)。周囲作業走行では、コーナ領域での方向転換走行が複雑であるため、手動走行が好ましい。コーナ領域以外は、実質的に直線走行であるので、自動走行が用いられる。その際、圃場の外周線となる、圃場面と畔や畝などとの境界線が、機械学習を用いた画像認識プログラムによってリアルタイムで認識され、その認識された境界線に作業装置24の作業端が沿うようにトラクタが自動操舵される。この周囲作業走行で形成される外周領域がトラクタの方向転換(Uターン走行)が可能となる大きさになれば、この未作業領域に対する自動作業走行が開始される。この自動作業走行には、直線状にトラクタを作業走行させる前進作業走行(#c)と、既作業領域で作業装置24を上昇させて非作業状態としてトラクタをUターンさせる車体方向転換走行(#d)とが含まれる。前進作業走行と車体方向転換走行とを繰り返すことで(#e)、圃場全体の作業が完了する。なお、前進作業走行では、画像認識対象が未作業領域と既作業領域との境界線であり、車体方向転換走行では、画像認識対象が圃場の境界線(外周線)及び未作業領域と既作業領域との境界線である。このため、前進作業走行と車体方向転換走行とで、異なる画像認識プログラムが用いられることが好ましい。その場合、前進作業走行用画像認識プログラムと車体方向転換走行用画像認識プログラムとの自動切替は、作業装置24の状態(例えば、下降状態と上昇状態、駆動状態と非駆動状態)に基づいて行うことができる。なお、圃場の種類によっては、外周領域の形状が前もって想定され、外周領域が未作業状態のままで、当該外周領域の内側の未作業領域に対して、#c、#d、#eが先に実施され、その後に#bが実施される。 The general procedure for field work with a tractor is shown in FIG. In this example, when the tractor enters the field (#a), peripheral work traveling for performing work along the outer circumference of the field is performed manually or automatically, and an outer peripheral area that is an already-worked area is formed on the outermost peripheral side of the field. (#B). In the surrounding work traveling, the manual traveling is preferable because the turning traveling in the corner area is complicated. Except for the corner area, since the vehicle is traveling substantially straight, automatic traveling is used. At that time, the boundary line between the farm scene and the shore or ridge, which is the outer peripheral line of the farm field, is recognized in real time by the image recognition program using machine learning, and the work boundary of the work device 24 is recognized on the recognized boundary line. The tractor is automatically steered so that When the outer peripheral area formed by the peripheral work traveling becomes large enough to change the direction of the tractor (U-turn traveling), the automatic working traveling for the unworked area is started. This automatic work traveling includes forward work traveling (#c) for linearly traveling the tractor and vehicle body direction changing traveling (#c) for raising the work device 24 in the already-worked area to make the tractor U-turn in the non-working state. d) and are included. By repeating the forward work traveling and the vehicle body direction changing traveling (#e), the operation of the entire field is completed. It should be noted that in forward work traveling, the image recognition target is the boundary line between the unworked area and the already-worked area, and in the vehicle body turning traveling, the image recognition target is the boundary line (outer circumference line) of the field and the unworked area and the already-worked area. It is a boundary line with the area. Therefore, it is preferable that different image recognition programs are used for the forward work traveling and the vehicle body turning traveling. In this case, the automatic switching between the forward work traveling image recognition program and the vehicle body turning direction traveling image recognition program is performed based on the state of the work device 24 (for example, the descending state and the ascending state, the driving state and the non-driving state). be able to. Note that, depending on the type of field, the shape of the outer peripheral area is assumed in advance, and the outer peripheral area remains in the unworked state, and the unworked area inside the outer peripheral area is preceded by #c, #d, and #e. And then #b.

図4には、このトラクタに構築されている制御系が示されている。この実施形態の制御系には、車載ECU群からなる制御ユニット5、入出力信号処理ユニット50が含まれている。制御ユニット5には、通常の作業走行を実行する機能部に加えて、機械学習を応用して構築された自動走行演算部4が備えられている。入出力信号処理ユニット50には、トラクタの作業走行で取り扱われる入出力信号を処理する機能部が構築されている。制御ユニット5と入出力信号処理ユニット50とは、車載LANによって接続されている。 FIG. 4 shows a control system built in this tractor. The control system of this embodiment includes a control unit 5 including an in-vehicle ECU group and an input/output signal processing unit 50. The control unit 5 is provided with an automatic travel calculation unit 4 constructed by applying machine learning in addition to a functional unit that executes normal work travel. In the input/output signal processing unit 50, a functional unit that processes input/output signals handled during work traveling of the tractor is built. The control unit 5 and the input/output signal processing unit 50 are connected by an in-vehicle LAN.

入出力信号処理ユニット50には、走行機器群91、作業機器群92、報知デバイス群93、自動/手動切替操作具94、走行状態検出センサ群81、作業状態検出センサ群82が接続されている。走行機器群91には、操舵調節機器としての操舵モータ14(図1参照)をはじめ、車速調整機器としての変速調整器、エンジン回転調整器などが含まれている。作業機器群92には、作業装置24や昇降機構23(図1参照)を駆動するための制御機器が含まれている。報知デバイス群93には、ディスプレイ、スピーカ、ランプ、ブザーなどが含まれている。自動/手動切替操作具94は、自動操舵で走行する自動走行モードと手動操舵で走行する手動操舵モードとのいずれかを選択するスイッチである。 To the input/output signal processing unit 50, a traveling equipment group 91, a work equipment group 92, a notification device group 93, an automatic/manual switching operation tool 94, a traveling state detection sensor group 81, and a work state detection sensor group 82 are connected. .. The traveling device group 91 includes the steering motor 14 (see FIG. 1) as a steering adjusting device, a gear shift adjuster as a vehicle speed adjusting device, an engine speed adjuster, and the like. The work device group 92 includes control devices for driving the work device 24 and the elevating mechanism 23 (see FIG. 1). The notification device group 93 includes a display, a speaker, a lamp, a buzzer, and the like. The automatic/manual switching operation tool 94 is a switch that selects one of an automatic traveling mode in which the vehicle travels by automatic steering and a manual steering mode in which the vehicle travels by manual steering.

走行状態検出センサ群81には、操舵量やエンジン回転数や変速位置などの走行状態を検出するセンサが含まれている。作業状態検出センサ群82には、作業装置24の姿勢や駆動状態を検出するセンサが含まれている。 The traveling state detection sensor group 81 includes sensors that detect traveling states such as the steering amount, the engine speed, and the shift position. The work state detection sensor group 82 includes sensors that detect the posture and drive state of the work device 24.

入出力信号処理ユニット50には、そのほかに、撮影ユニット3が接続されている。撮影ユニット3には、上述した4つのカメラ31〜34の撮影画像を画像処理して制御ユニット5での処理に適合する圃場画像を生成する画像処理部30が含まれている。撮影ユニット3から出力された圃場画像は、入出力信号処理ユニット50を介して制御ユニット5に入力される。 In addition, the image pickup unit 3 is connected to the input/output signal processing unit 50. The image capturing unit 3 includes an image processing unit 30 that performs image processing on the images captured by the four cameras 31 to 34 described above to generate a field image suitable for the processing in the control unit 5. The field image output from the imaging unit 3 is input to the control unit 5 via the input/output signal processing unit 50.

制御ユニット5は、手動走行制御部51、自動走行制御部52、作業制御部53、走行状態検知部54、作業状態検知部55、自動走行演算部4を備えている。手動走行制御部51は、手動走行モードにおいて、運転者による操作に基づいて、走行機器群91を制御する。自動走行制御部52は、自動走行モードにおいて、自動走行演算部4から出力される自動走行情報に基づいて走行機器群91を制御する。作業制御部53は、手動または自動で作業機器群92を制御する。走行状態検知部54は、走行状態検出センサ群81からの検出信号に基づいて走行状態を検知する。作業状態検知部55は、作業状態検出センサ群82からの検出信号に基づいて作業状態を検知する。 The control unit 5 includes a manual traveling control unit 51, an automatic traveling control unit 52, a work control unit 53, a traveling state detection unit 54, a working state detection unit 55, and an automatic traveling calculation unit 4. In the manual travel mode, the manual travel control unit 51 controls the traveling device group 91 based on the operation by the driver. In the automatic travel mode, the automatic travel control unit 52 controls the traveling device group 91 based on the automatic travel information output from the automatic travel calculation unit 4. The work control unit 53 manually or automatically controls the work equipment group 92. The traveling state detection unit 54 detects the traveling state based on the detection signal from the traveling state detection sensor group 81. The work state detection unit 55 detects the work state based on the detection signal from the work state detection sensor group 82.

自動走行演算部4は、学習済み状態において、前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力する。この実施形態では、自動走行演算部4は、図5に示すように、第1演算部41、第2演算部42、選択部40とから構成されている。第1演算部41は、第1前段演算部41aと第1後段演算部41bとを含む。第2演算部42は、第2前段演算部42aと第2後段演算部42bとを含む。 In the learned state, the automatic travel calculation unit 4 inputs the field image, estimates the boundary between the unworked area and the already-worked area, and the field status, and outputs automatic travel information for automatic travel. .. In this embodiment, the automatic travel calculation unit 4 is composed of a first calculation unit 41, a second calculation unit 42, and a selection unit 40, as shown in FIG. The first calculation unit 41 includes a first front stage calculation unit 41a and a first rear stage calculation unit 41b. The second calculation unit 42 includes a second front stage calculation unit 42a and a second rear stage calculation unit 42b.

第1前段演算部41aは、圃場画像から、未作業領域と既作業領域との境界を示す境界線と圃場状態とを推定する。第1後段演算部41bは、推定された境界線に対応する線状の目標走行経路(前進作業走行経路)をリアルタイムで算出する。その際、作業装置24の作業幅、作業オーバータップ量、車体基準点から作業装置24の作業端までの距離などが必要となるので、これらの作業装置仕様データは予め設定されている。さらに、第1前段演算部41aは、この目標走行経路(前進作業走行経路)に対する車体1の操舵基準点の位置ずれを演算し、この位置ずれを解消するための情報である第1自動走行情報を生成する。この位置ずれには、目標走行経路に対する横断方向の位置偏差である横位置ずれと、目標走行経路の方位と車体方位との間の角度偏差である方位ずれが含まれる。第1自動走行情報には、位置ずれを解消するための操舵量が含まれている。操舵量の生成時には、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第1前段演算部41a及び第1後段演算部41bは、一体化可能である。 The first front-stage calculation unit 41a estimates the boundary line indicating the boundary between the unworked area and the already-worked area and the field state from the field image. The first post-stage calculation unit 41b calculates a linear target travel route (forward work travel route) corresponding to the estimated boundary line in real time. At this time, the work width of the work device 24, the work overtap amount, the distance from the vehicle body reference point to the work end of the work device 24, and the like are necessary, and thus the work device specification data is set in advance. Further, the first front-stage computing unit 41a calculates the positional deviation of the steering reference point of the vehicle body 1 with respect to the target traveling path (forward working traveling path), and the first automatic travel information which is information for eliminating this positional deviation. To generate. The positional deviation includes a lateral positional deviation that is a positional deviation in the transverse direction with respect to the target travel route and an azimuth deviation that is an angular deviation between the azimuth of the target travel path and the vehicle body orientation. The first automatic travel information includes the steering amount for eliminating the displacement. When the steering amount is generated, the field condition such as the inclination of the field or the unevenness of the field scene is considered. The first front stage calculation unit 41a and the first rear stage calculation unit 41b can be integrated.

第2前段演算部42aは、圃場画像から、既作業領域である車体方向転換可能領域を推定する。第2後段演算部42bは、当該車体方向転換可能領域に設定される方向転換走行経路を設定し、設定された方向転換走行経路に対する実際の方向転換軌跡との相違を旋回ずれとし、この旋回ずれを解消するための情報(操舵量)である第2自動走行情報を生成する。第2自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第2前段演算部42a及び第2後段演算部42bは、一体化可能である。 The second front-stage calculation unit 42a estimates a vehicle body direction changeable area, which is an already-worked area, from the field image. The second rear-stage calculation unit 42b sets a direction change travel route set in the vehicle body direction changeable area, sets a difference from an actual direction change trajectory with respect to the set direction change travel route as a turning deviation, and this turning deviation. The second automatic travel information, which is information (steering amount) for eliminating the above, is generated. The field condition such as the inclination of the field or the unevenness of the field is also taken into consideration when the second automatic travel information is generated. The second front stage calculation unit 42a and the second rear stage calculation unit 42b can be integrated.

選択部40は、第1自動走行情報の信頼度と第2自動走行情報の信頼度とを比較して、現時点で行わなければならない走行制御として適正度の高い方の情報を選択し、自動走行情報として出力して、自動走行制御部52に与える。あるいは、選択部40は、作業状態検知部55によって検知された作業状態に基づいて第1自動走行情報と第2自動走行情報のいずれかを選択してもよい。例えば、作業装置24の状態が下降状態または駆動状態あるいはその両方であれば、前進作業走行とみなされ、第1自動走行情報が選択される。作業装置24の状態が上昇状態または非駆動状態あるいはその両方であれば、方向転換走行とみなされ、第2自動走行情報が選択される。さらに別な方法として、作業状態検知部55によって検知された作業状態に基づいて第1前段演算部41aと第2前段演算部42aのいずれかの利用を決定するようにしてもよい。 The selection unit 40 compares the reliability of the first automatic travel information with the reliability of the second automatic travel information, selects the information with the higher appropriateness as the travel control that must be performed at the present time, and automatically travels. It is output as information and given to the automatic travel control unit 52. Alternatively, the selection unit 40 may select either the first automatic travel information or the second automatic travel information based on the work state detected by the work state detection unit 55. For example, if the state of the work device 24 is the lowered state, the driven state, or both, it is regarded as the forward work traveling, and the first automatic traveling information is selected. If the state of the work device 24 is the raised state and/or the non-driven state, it is regarded as the direction change traveling, and the second automatic traveling information is selected. As yet another method, the use of either the first front stage calculation unit 41a or the second front stage calculation unit 42a may be determined based on the work state detected by the work state detection unit 55.

なお、図5に示された自動走行演算部4では、付加的な機能として、走行状態検知部54によって検知された走行状態情報が、第1演算部41及び第2演算部42に入力されている。走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率などが含まれている。この機能を追加した場合、第1後段演算部41b及び第2後段演算部42bは、位置ずれを解消するための情報に加えて、第1自動走行情報及び第2自動走行情報に、車速制御指令、変速制御指令、制動制御指令、エンジン制御指令のうちの少なくとも1つを含ませることも可能である。これは、単に操舵量を調節するだけではなく、その他の走行状態(車速など)も調整することが、位置ずれの解消に有効な場合があるからである。 In addition, in the automatic travel calculation unit 4 shown in FIG. 5, as an additional function, the travel state information detected by the travel state detection unit 54 is input to the first calculation unit 41 and the second calculation unit 42. There is. The traveling state information includes a vehicle speed, a shift position, an engine speed, an engine load factor, and the like. When this function is added, the first rear-stage calculation unit 41b and the second rear-stage calculation unit 42b add the vehicle speed control command to the first automatic traveling information and the second automatic traveling information in addition to the information for eliminating the positional deviation. It is also possible to include at least one of a shift control command, a braking control command, and an engine control command. This is because adjusting not only the steering amount but also other traveling states (vehicle speed, etc.) may be effective in eliminating the positional deviation.

第1演算部41は圃場画像から第1自動走行情報を出力する機械学習制御ユニットであり、第2演算部42は圃場画像から第2自動走行情報を出力する機械学習制御ユニットである。機械学習制御ユニットが圃場画像から圃場作業の状況を推定して適切な自動走行情報を出力するためには、学習処理が必要となる。この学習処理のため、図5では、学習処理ユニット6が自動走行演算部4に接続されている。なお、学習処理ユニット6は自動走行演算部4に内蔵されてもよい。また、トラクタの制御系以外のコンピュータシステムに構築された学習処理ユニット6と自動走行演算部4とがデータ交換して学習処理を実行するような学習システムを採用してもよい。この実施形態では、第1演算部41及び第2演算部42は、畳み込みニューラルネットワークで構築されており、畳み込みニューラルネットワークに適合する学習処理が学習処理ユニット6によって行われる。 The 1st calculating part 41 is a machine learning control unit which outputs the 1st automatic run information from a field image, and the 2nd calculating part 42 is a machine learning control unit which outputs the 2nd automatic run information from a field image. In order for the machine learning control unit to estimate the situation of field work from the field image and output appropriate automatic travel information, learning processing is required. For this learning processing, in FIG. 5, the learning processing unit 6 is connected to the automatic traveling calculation unit 4. The learning processing unit 6 may be built in the automatic traveling calculation unit 4. Further, a learning system may be adopted in which the learning processing unit 6 and the automatic traveling calculation unit 4 built in a computer system other than the control system of the tractor exchange data to execute the learning processing. In this embodiment, the first calculation unit 41 and the second calculation unit 42 are constructed by a convolutional neural network, and the learning processing unit 6 performs learning processing suitable for the convolutional neural network.

学習処理ユニット6の構成は、公知であるので、ここでは詳しい説明は省略するが、誤差算出機能や重み調整機能を有する。学習処理ユニット6は、第1演算部41または第2演算部42と同様な畳み込みニューラルネットワークを備えてもよいし、直接、学習前の第1演算部41または第2演算部42と接続して、順次学習させてもよい。前者の場合は、学習処理の終了後に、重み係数などの学習済みデータが第1演算部41及び第2演算部42に設定される。 Since the configuration of the learning processing unit 6 is known, a detailed description thereof will be omitted here, but it has an error calculation function and a weight adjustment function. The learning processing unit 6 may include a convolutional neural network similar to the first arithmetic unit 41 or the second arithmetic unit 42, or may be directly connected to the pre-learning first arithmetic unit 41 or the second arithmetic unit 42. , May be sequentially learned. In the former case, after the learning process is completed, the learned data such as the weighting coefficient is set in the first calculation unit 41 and the second calculation unit 42.

この第1演算部41の学習処理では、多数の第1学習画像からなる第1学習画像群と、多数の第2学習画像からなる第2学習画像群とが用いられる。 In the learning process of the first calculation unit 41, a first learning image group including a large number of first learning images and a second learning image group including a large number of second learning images are used.

第1学習用画像群は、圃場の未作業領域と既作業領域とを含む画像群であり、この実施形態では、撮影ユニット3の画像処理部30で生成された俯瞰画像が用いられる。第2学習用画像群は、第1学習用画像群において認識されるべき特徴を示すアノテーションが付与された画像群である。図6及び図7の左側に第1学習用画像の一例が示されており、図6及び図7の右側に第2学習用画像群が示されている。図6の第1学習画像では、既作業領域に位置するトラクタの前方に未作業領域に広がっている情景が示されている。図6の第2学習画像では、走行経路の基準となる未作業領域と既作業領域との間の境界及び当該境界から求められる境界線を示すアノテーションと、作業走行の開始基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。図7の第1学習画像は、未作業領域に進入して作業領域と既作業領域との間の境界に沿って作業走行しているトラクタの俯瞰画像である。この第2学習画像では、走行経路(前進と後進)の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 The first learning image group is an image group including an unworked area and an already-worked area of the field, and in this embodiment, the bird's-eye view image generated by the image processing unit 30 of the imaging unit 3 is used. The second learning image group is an image group to which an annotation indicating a feature to be recognized in the first learning image group is added. An example of the first learning image is shown on the left side of FIGS. 6 and 7, and a second learning image group is shown on the right side of FIGS. 6 and 7. The first learning image in FIG. 6 shows a scene spreading in the unworked area in front of the tractor located in the already worked area. In the second learning image of FIG. 6, an annotation indicating a boundary between an unworked area and an already-worked area that serves as a reference of a traveling route and a boundary line obtained from the boundary, a boundary that serves as a start reference for work traveling, and Annotation indicating the boundary line obtained from the boundary, annotation indicating the position deviation when the boundary line is the target travel route, annotation indicating that the surface condition of the unworked area is moderate unevenness, required steering amount Annotation and is added. The first learning image in FIG. 7 is a bird's-eye view image of a tractor that has entered the unworked area and is running along the boundary between the working area and the already-worked area. In the second learning image, an annotation indicating a boundary that is a reference of the traveling route (forward and backward) and a boundary line obtained from the boundary, an annotation that indicates a positional deviation when the boundary is the target traveling route, and An annotation indicating that the surface state of the work area is moderately uneven and an annotation indicating the necessary steering amount are added.

第2演算部42の学習処理には、学習用画像として第3学習用画像と第4学習用画像とが用いられる。第3学習用画像群も、圃場の未作業領域と既作業領域とを含む画像群であるが、その車体1の前方の既作業領域は車体方向転換可能な領域であり、第4学習用画像は、第3学習用画像群において認識されるべき車体方向転換可能な領域を示すアノテーションが付与された画像群である。図8及び図9の左側に第3学習用画像の一例が示されており、図8及び図9の右側に第4学習用画像群が示されている。図8の第3学習画像では、作業走行中のトラクタの前方に既作業領域に広がっている情景が示されている。図8の第4学習画像では、前方に広がっている既作業領域が車体方向転換可能領域であることを示すアノテーションと、その車体方向転換可能領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。さらに、第4学習画像には、車体方向転換可能領域が認識された場合に、その車体方向転換可能領域に設定される車体方向転換のための旋回走行経路が示されている。図9の第3学習画像は、車体方向転換のための旋回走行の終了付近での俯瞰画像である。図9の第4学習画像では、走行経路の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、既作業領域及び未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 In the learning process of the second calculation unit 42, the third learning image and the fourth learning image are used as learning images. The third learning image group is also an image group including an unworked area and an already-worked area in the field, but the already-worked area in front of the vehicle body 1 is an area in which the vehicle body can be turned, and the fourth learning image. Is an image group to which an annotation indicating a vehicle body direction changeable region to be recognized in the third learning image group is added. An example of the third learning image is shown on the left side of FIGS. 8 and 9, and a fourth learning image group is shown on the right side of FIGS. 8 and 9. In the third learning image of FIG. 8, a scene spreading in the already-worked area is shown in front of the tractor during work traveling. In the fourth learning image of FIG. 8, an annotation indicating that the already-worked area that spreads forward is the vehicle body direction changeable area and the surface state of the vehicle body direction changeable area is medium unevenness. An annotation and an annotation indicating the required steering amount are added. Further, in the fourth learning image, when the vehicle body direction changeable area is recognized, the turning travel route for the vehicle body direction change set in the vehicle body direction changeable area is shown. The third learning image in FIG. 9 is a bird's-eye view image near the end of turning traveling for turning the vehicle body. In the fourth learning image of FIG. 9, an annotation indicating a boundary that is a reference of the travel route and a boundary line obtained from the boundary, an annotation that indicates a positional deviation when the boundary line is the target travel route, an already-worked area, and An annotation indicating that the surface state of the non-working area is moderate unevenness and an annotation indicating the necessary steering amount are added.

図10に、第1学習用画像群と第2学習用画像群とを用いて、第1演算部41が操舵量を示す第1自動走行情報を出力するように機能させるための学習処理の流れが示されている。 FIG. 10 is a flow of a learning process for causing the first calculation unit 41 to output the first automatic traveling information indicating the steering amount by using the first learning image group and the second learning image group. It is shown.

まず、トラクタの試験走行やカメラ付きドローンによって取得された撮影画像、またはCG装置を用いて、第1学習用画像群を取得する(#01)。第1学習用画像群に対して注目すべき特徴領域を示すアノテーションを付与して第2学習用画像群を作成する(#02)。 First, the first learning image group is acquired by using a CG device or a captured image acquired by a test run of a tractor or a drone with a camera (#01). An annotation indicating a characteristic region to be noticed is added to the first learning image group to create a second learning image group (#02).

第2学習用画像群から、順次、第2学習用画像を抽出して、第1演算部41を構成する畳み込みニューラルネットワークに入力する(#11)。第2学習用画像を用いて、畳み込みニューラルネットワークによって推定された自動走行情報を出力させる(#21)。推定された自動走行情報と第2学習用画像に付与されているアノテーションで示される自動走行情報との差(誤差)を算出する(#22)。算出された誤差が最小値未満でなければ(#23No分岐)、重み係数を修正して(#24)、ステップ#21に戻り、誤差を縮小する処理を繰り返す。算出された誤差が最小値未満になれば(#23Yes分岐)、その時点の重み係数を記録する(#25)。 The second learning images are sequentially extracted from the second learning image group and are input to the convolutional neural network forming the first calculation unit 41 (#11). Using the second learning image, the automatic driving information estimated by the convolutional neural network is output (#21). A difference (error) between the estimated automatic travel information and the automatic travel information indicated by the annotation attached to the second learning image is calculated (#22). If the calculated error is not less than the minimum value (#23 No branch), the weighting coefficient is corrected (#24), the process returns to step #21, and the process of reducing the error is repeated. If the calculated error is less than the minimum value (Yes branch of #23), the weighting factor at that time is recorded (#25).

用意されている全ての第2学習用画像を用いた学習処理が終了したかどうかチェックされる(#26)。まだ、学習処理に用いられる第2学習用画像が残っていれば(#26Yes分岐)、ステップ#11に戻って、学習処理を続行する。学習処理に用いられる第2学習用画像が残っていなければ(#26No分岐)、記録されている重み係数に基づいて、最終的な重み係数が決定され(#31)、当該重き係数が畳み込みニューラルネットワークである第1演算部41に設定される(#32)。第2学習用画像群から類似する画像をグループ化して、そのグループ毎に誤差が最小となる重み係数を割り当ててもよい。 It is checked whether the learning process using all the prepared second learning images has been completed (#26). If the second learning image used for the learning process still remains (#26 Yes branch), the process returns to step #11 to continue the learning process. If the second learning image used for the learning process does not remain (#26 No branch), the final weighting coefficient is determined based on the recorded weighting coefficient (#31), and the weighting coefficient is convolved with the convolutional neural network. It is set in the first calculation unit 41, which is a network (#32). Similar images may be grouped from the second learning image group, and a weighting factor that minimizes the error may be assigned to each group.

第3学習用画像群と第4学習用画像群とを用いた第2演算部42の学習処理も、上述した第1演算部41の学習処理に準じた方法で行われる。学習された第2演算部42は、前方の既作業領域が車体方向転換可能な領域であると認識された場合、車体方向転換のための旋回走行経路を設定し、方向転換して、次の目標走行経路に進入するための操舵量を示す第2自動走行情報を出力するように機能する。 The learning process of the second calculation unit 42 using the third learning image group and the fourth learning image group is also performed by a method similar to the learning process of the first calculation unit 41 described above. When the learned second operation unit 42 recognizes that the previous work area is the area in which the vehicle body direction can be changed, the second operation unit 42 sets the turning travel route for the vehicle body direction change, changes the direction, and then It functions to output the second automatic travel information indicating the steering amount for entering the target travel route.

〔別実施の形態〕
(1)上述した実施形態では、自動走行演算部4は、直線(緩やかな湾曲線を含む)状の作業走行を行うための第1自動走行情報を出力するように学習された第1演算部41と、適切な場所で方向転換走行を行うための第1自動走行情報を出力するように学習された第2演算部42とを備えていた。圃場作業車では、さらに、走行障害となる物体(走行障害物)との接触を自動的に回避する機能があれば、好都合である。図11には、走行障害物を回避する機能を有する第3演算部43が追加された自動走行演算部4のブロック図が示されている。第3演算部43は、第3前段演算部43aと第3後段演算部43bとを含む。第3前段演算部43aは、撮影ユニット3から送られてきた圃場画像(前方画像または俯瞰画像)から、走行障害物の存在を推定する。第3後段演算部43b推定された走行障害物と車体1との接触を回避するための回避走行情報(操舵量、減速指令、停車指令、警告など)を含む第3自動走行情報を生成して出力する。その際、操舵によって走行障害物を回避する場合には、回避走行経路を目標走行経路として設定する。なお、第3自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮されてもよい。第3前段演算部43a及び第3後段演算部43bは、一体化可能である。
[Another embodiment]
(1) In the above-described embodiment, the automatic traveling calculation unit 4 is learned to output the first automatic traveling information for performing work traveling in a straight line (including a gently curved line). 41, and a second calculation unit 42 learned to output the first automatic travel information for performing the direction change travel at an appropriate place. It is convenient for the field work vehicle to have a function of automatically avoiding contact with an object (running obstacle) that causes a running obstacle. FIG. 11 shows a block diagram of the automatic traveling arithmetic unit 4 to which a third arithmetic unit 43 having a function of avoiding a traveling obstacle is added. The third calculation unit 43 includes a third front stage calculation unit 43a and a third rear stage calculation unit 43b. The third front-stage calculation unit 43a estimates the presence of a traveling obstacle from the field image (front image or bird's-eye view image) sent from the imaging unit 3. The third rear-stage computing unit 43b generates third automatic travel information including avoidance travel information (steering amount, deceleration command, stop command, warning, etc.) for avoiding contact between the estimated travel obstacle and the vehicle body 1. Output. At that time, when avoiding the traveling obstacle by steering, the avoidance traveling route is set as the target traveling route. Note that the field condition such as the inclination of the field or the unevenness of the field may be taken into consideration when the third automatic travel information is generated. The third pre-stage arithmetic unit 43a and the third post-stage arithmetic unit 43b can be integrated.

第3前段演算部43a及び第3後段演算部43bは、畳み込みニューラルネットワークで構成されているので、学習処理が必要である。学習用画像は、圃場に走行障害物が存在している圃場画像(第5学習用画像群)と、当該圃場画像において認識されたるべき走行障害物を示すアノテーションや走行障害物回避のための走行を示すアノテーションが付与された画像群(第6学習用画像群)である。なお、走行障害物として、移動性障害物(人や動物)と非移動性障害物(鉄塔など)とが区別して認識されるように、それぞれ別の学習用画像が用意される。学習処理は、図10のフローチャートに準じて行われる。 The third pre-stage arithmetic unit 43a and the third post-stage arithmetic unit 43b are configured by a convolutional neural network, and thus require learning processing. The learning image includes a field image (fifth learning image group) in which a traveling obstacle exists in the field, an annotation indicating a traveling obstacle that should be recognized in the field image, and traveling for avoiding the traveling obstacle. Is an image group (sixth learning image group) to which an annotation indicating is added. It should be noted that different learning images are prepared so that mobile obstacles (humans and animals) and non-moving obstacles (steel towers, etc.) can be distinguished and recognized as traveling obstacles. The learning process is performed according to the flowchart of FIG.

(2)上述した実施形態では、第1自動走行情報、第2自動走行情報、第3自動走行情報に操舵量が含まれていたが、これに代えて、操舵量などの操作指令は、自動走行情報から操舵量を導出する別の演算部によって生成されるようにしてもよい。この場合、圃場情報から操舵量を推定させる学習は不要となる。 (2) In the above-described embodiment, the steering amount is included in the first automatic traveling information, the second automatic traveling information, and the third automatic traveling information, but instead of this, the operation command such as the steering amount is automatically transmitted. It may be generated by another calculation unit that derives the steering amount from the traveling information. In this case, learning for estimating the steering amount from the field information is unnecessary.

(3)上述した実施形態では、自動走行演算部4を構築するための機械学習として畳み込みニューラルネットワークが用いられているが、それ以外の人工ニューラルネットワークが用いられてもよい。また、前段演算部と後段演算部とは、同じ形式の機械学習で構築されてもよいし、異なる形式の機械学習で構築されてもよい。 (3) In the embodiment described above, the convolutional neural network is used as the machine learning for constructing the automatic traveling calculation unit 4, but other artificial neural networks may be used. Further, the pre-stage arithmetic unit and the post-stage arithmetic unit may be constructed by the same type of machine learning, or may be constructed by different types of machine learning.

(4)学習処理ユニット6が各圃場作業車の制御系に備えられ、自動走行演算部4と接続されている場合には、手動走行中に撮影ユニット3で取得された撮影画像を学習用画像として用いることができる。アノテーションの付与は運転者によって行うことができる。さらに、運転者による操作や走行軌跡などの情報から、自動的にアノテーション付与を行ってもよい。 (4) When the learning processing unit 6 is provided in the control system of each field work vehicle and is connected to the automatic traveling calculation unit 4, the captured image acquired by the imaging unit 3 during the manual traveling is used as the learning image. Can be used as The annotation can be given by the driver. Furthermore, annotations may be automatically added based on information such as the operation by the driver and the travel path.

(5)上述した実施形態では、操舵指令に基づいて操舵輪である前輪11の操舵角を調節することで車体1の走行方向が変更された。クローラ式の走行機構を備えた作業車では、これに代えて、操舵指令に基づいて、左右のクローラの速度を調節することで、車体1の走行方向が変更される。 (5) In the above-described embodiment, the traveling direction of the vehicle body 1 is changed by adjusting the steering angle of the front wheels 11, which are the steered wheels, based on the steering command. In a work vehicle equipped with a crawler type traveling mechanism, instead of this, the traveling direction of the vehicle body 1 is changed by adjusting the speeds of the left and right crawlers based on a steering command.

(6)上述した実施形態では、圃場作業車として、トラクタが取り扱われたが、田植機やコンバインなどの他の圃場作業車にも同様な自動走行演算部4を採用することができる。 (6) In the above-described embodiment, the tractor is handled as the field work vehicle, but the same automatic traveling calculation unit 4 can be adopted for other field work vehicles such as rice transplanters and combine harvesters.

本発明は、圃場を自動走行する圃場作業車に適用可能である。 INDUSTRIAL APPLICABILITY The present invention can be applied to a field work vehicle that automatically travels in a field.

3 :撮影ユニット
30 :画像処理部
31 :前カメラ
32 :後カメラ
33 :左カメラ
34 :右カメラ
4 :自動走行演算部
40 :選択部
41 :第1演算部
41a :第1前段演算部
41b :第1後段演算部
42 :第2演算部
42a :第2前段演算部
42b :第2後段演算部
43 :第3演算部
43a :第3前段演算部
43b :第3後段演算部
5 :制御ユニット
50 :入出力信号処理ユニット
52 :自動走行制御部
54 :走行状態検知部
55 :作業状態検知部
6 :学習処理ユニット
3: Imaging unit 30: Image processing unit 31: Front camera 32: Rear camera 33: Left camera 34: Right camera 4: Automatic traveling calculation unit 40: Selection unit 41: First calculation unit 41a: First front stage calculation unit 41b: First post-stage arithmetic unit 42: Second arithmetic unit 42a: Second front-stage arithmetic unit 42b: Second post-stage arithmetic unit 43: Third arithmetic unit 43a: Third front-stage arithmetic unit 43b: Third post-stage arithmetic unit 5: Control unit 50 : Input/output signal processing unit 52: Automatic traveling control unit 54: Running state detection unit 55: Work state detection unit 6: Learning processing unit

Claims (11)

圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、
を備えた圃場作業車。
A field work vehicle that automatically travels in a field,
A photographing unit for photographing the farm field including at least the traveling region of the vehicle body and outputting a farm field image,
A traveling device for adjusting the vehicle speed and the steering amount,
By inputting the field image, estimating the boundary between the unworked area and the already-worked area and the field state, and an automatic travel calculation unit learned to output automatic travel information for automatic travel,
An automatic traveling control unit that controls the traveling device based on the automatic traveling information,
Field work vehicle equipped with.
前記自動走行情報は、前記境界を示す境界線に対応する線状の目標走行経路と自車とのずれを解消するための情報を含む請求項1に記載の圃場作業車。 The field work vehicle according to claim 1, wherein the automatic travel information includes information for eliminating a deviation between a vehicle and a linear target travel route corresponding to a boundary line indicating the boundary. 前記自動走行情報は、前記既作業領域である車体方向転換可能領域に設定されている方向転換走行経路を目標走行経路として方向転換を行うための情報を含む請求項1または2に記載の圃場作業車。 The field work according to claim 1 or 2, wherein the automatic travel information includes information for performing a direction change using a direction change travel route set in a vehicle body direction changeable region that is the already-worked region as a target travel route. car. 前記自動走行演算部は、前記圃場画像から推定された走行障害物との接触を回避するための衝突回避情報を前記自動走行情報として出力する請求項1から3のいずれか一項に記載の圃場作業車。 The field according to any one of claims 1 to 3, wherein the automatic traveling calculation unit outputs collision avoidance information for avoiding contact with a traveling obstacle estimated from the field image as the automatic traveling information. Work vehicle. 前記衝突回避情報には、非移動性障害物と推定された前記走行障害物を回避する回避走行情報が含まれている請求項4に記載の圃場作業車。 The field work vehicle according to claim 4, wherein the collision avoidance information includes avoidance traveling information for avoiding the traveling obstacle estimated to be a non-movable obstacle. 前記衝突回避情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている請求項4に記載の圃場作業車。 The collision avoidance information includes information for performing at least one of deceleration, stopping, and warning for avoiding contact with the traveling obstacle estimated to be a mobile obstacle. The listed field work vehicle. 前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、
前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、
前記自動走行情報には、操舵、車速、変速、制動、エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている請求項1から6のいずれか一項に記載の圃場作業車。
A traveling state detection unit for detecting the traveling state from the state of the traveling equipment is provided,
Running state information indicating the running state is input to the automatic running calculation unit, and the running state information includes data indicating at least one of a vehicle speed, a gear shift position, an engine speed, and an engine load factor,
The field work according to any one of claims 1 to 6, wherein the automatic travel information includes a control command for instructing a change of at least one of steering, vehicle speed, speed change, braking, and engine speed. car.
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、学習用画像として第1学習用画像群と第2学習用画像群とを用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界を示すアノテーションと、前記境界に沿って自動走行するための走行経路に対する位置ずれを示すアノテーションとが付与された画像群である請求項1から7のいずれか一項に記載の圃場作業車。 The automatic running calculation unit is constructed by a convolutional neural network, and is learned by using a first learning image group and a second learning image group as learning images, and the first learning image group is An image group including the unworked area and the already-worked area of a field, wherein the second learning image group includes an annotation indicating the boundary between the unworked area and the already-worked area, and the boundary. The field work vehicle according to any one of claims 1 to 7, which is an image group to which an annotation indicating a positional deviation with respect to a traveling route for automatically traveling along the is added. 前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれている請求項8に記載の圃場作業車。 9. The field work vehicle according to claim 8, wherein the positional deviation includes a lateral positional deviation that is a lateral displacement with respect to the traveling path and an azimuth deviation that is a vehicle body azimuth deviation with respect to the direction of the traveling path. .. 前記学習用画像としてさらに第3学習用画像と第4学習用画像とが用いられており、前記第3学習用画像は、前記既作業領域における車体方向転換可能な領域を示す画像群であり、前記第4学習用画像は、前記車体方向転換可能な領域を示すアノテーションが付与された画像群である請求項8または9に記載の圃場作業車。 A third learning image and a fourth learning image are further used as the learning images, and the third learning image is an image group showing a region in which the vehicle body direction can be changed in the already-worked region, The field work vehicle according to claim 8 or 9, wherein the fourth learning image is an image group to which an annotation indicating the vehicle body direction changeable region is added. 前記学習用画像としてさらに第5学習用画像と第6学習用画像とが用いられており、前記第5学習用画像は、前記圃場における走行障害となる物体が含まれている画像群であり、前記学習用画像は、前記走行障害となる物体を示すアノテーションが付与された画像群である請求項8から10のいずれか一項に記載の圃場作業車。 A fifth learning image and a sixth learning image are further used as the learning images, and the fifth learning image is an image group including an object that is a traveling obstacle in the field, The field work vehicle according to any one of claims 8 to 10, wherein the learning image is a group of images to which an annotation indicating an object that becomes the traveling obstacle is added.
JP2018238897A 2018-12-20 2018-12-20 Field work vehicle Active JP7069001B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018238897A JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238897A JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022075732A Division JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Publications (2)

Publication Number Publication Date
JP2020101943A true JP2020101943A (en) 2020-07-02
JP7069001B2 JP7069001B2 (en) 2022-05-17

Family

ID=71139573

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018238897A Active JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A Active JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022075732A Active JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Country Status (1)

Country Link
JP (2) JP7069001B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071495A1 (en) * 2020-10-02 2022-04-07 株式会社クボタ Combine, image display system, image display method, image display program, and recording medium having image display program recorded thereon
JP2022106892A (en) * 2018-12-20 2022-07-20 株式会社クボタ Field work vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038295A1 (en) * 2003-10-17 2005-04-28 Jtekt Corporation Power transmission chain and power transmission device using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02219506A (en) * 1989-02-17 1990-09-03 Yanmar Agricult Equip Co Ltd Control device in working vehicle
JPH04293404A (en) * 1991-03-20 1992-10-19 Yanmar Agricult Equip Co Ltd Image-processing in self-propelled working machine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4293404B2 (en) 2000-03-02 2009-07-08 ダイセルノバフォーム株式会社 Foam molded body and method for producing the same
JP7069001B2 (en) * 2018-12-20 2022-05-17 株式会社クボタ Field work vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02219506A (en) * 1989-02-17 1990-09-03 Yanmar Agricult Equip Co Ltd Control device in working vehicle
JPH04293404A (en) * 1991-03-20 1992-10-19 Yanmar Agricult Equip Co Ltd Image-processing in self-propelled working machine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022106892A (en) * 2018-12-20 2022-07-20 株式会社クボタ Field work vehicle
WO2022071495A1 (en) * 2020-10-02 2022-04-07 株式会社クボタ Combine, image display system, image display method, image display program, and recording medium having image display program recorded thereon

Also Published As

Publication number Publication date
JP7069001B2 (en) 2022-05-17
JP7353417B2 (en) 2023-09-29
JP2022106892A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
US11317557B2 (en) Automatic steering system and automatic steering method
JP7353417B2 (en) Field work vehicle
JP6189779B2 (en) Work vehicle coordination system
JP6701002B2 (en) Driving support system and work vehicle
WO2017154715A1 (en) Work vehicle and travel region specification device
US20190353483A1 (en) Coverage-based system and method of planning a turn path for a vehicle
EP2784617B1 (en) Work vehicles coordinating system
JP6975668B2 (en) Automatic driving system for work vehicles
JP6781055B2 (en) Work vehicle
JP7072496B2 (en) Control device for self-driving work vehicles
JP6980001B2 (en) Work vehicle coordination system
JP6785671B2 (en) Work vehicle
JP2021007386A (en) Automatic travel system
US20210018617A1 (en) Obstacle Detection System for Work Vehicle
CN114265409A (en) Track information processing method and device and ground equipment
CN113039501A (en) Automatic travel control system, automatic travel control program, recording medium containing automatic travel control program, automatic travel control method, control device, control program, recording medium containing control program, and control method
JP2017200490A (en) Working vehicle collaborative system
US20230320246A1 (en) Automatic Traveling System, Automatic Traveling Method, And Automatic Traveling Program
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
JP2019113960A (en) Automatic steering system
JP2018088931A (en) Work vehicle coordination system
JP7004756B2 (en) Work vehicle coordination system
JP7078458B2 (en) Steering angle determination device and self-driving car
JP2020035111A (en) Automatic running system for work vehicle
JP7343405B2 (en) agricultural vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7069001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150