JP7353417B2 - Field work vehicle - Google Patents

Field work vehicle Download PDF

Info

Publication number
JP7353417B2
JP7353417B2 JP2022075732A JP2022075732A JP7353417B2 JP 7353417 B2 JP7353417 B2 JP 7353417B2 JP 2022075732 A JP2022075732 A JP 2022075732A JP 2022075732 A JP2022075732 A JP 2022075732A JP 7353417 B2 JP7353417 B2 JP 7353417B2
Authority
JP
Japan
Prior art keywords
field
area
automatic driving
image
image group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022075732A
Other languages
Japanese (ja)
Other versions
JP2022106892A (en
Inventor
惇一 池端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2022075732A priority Critical patent/JP7353417B2/en
Publication of JP2022106892A publication Critical patent/JP2022106892A/en
Application granted granted Critical
Publication of JP7353417B2 publication Critical patent/JP7353417B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、圃場内を自動走行しながら作業を行う圃場作業車に関する。 The present invention relates to a field work vehicle that performs work while automatically traveling in a field.

圃場内を自動走行する方法の1つでは、予め設定された自動走行用走行経路と、衛星測位によって得られた作業車位置とが用いられる。例えば、特許文献1に開示されたトラクタでは、最初に手動走行で圃場の外周付近を走行することにより作り出された既作業領域の内側に、自動走行によって作業されるべき作業対象領域が形成される。この作業対象領域をトラクタが走行するための走行経路が経路算出アルゴリズムに基づいて算出される。その後、トタクタに備えられた自動走行制御部では、目標となる走行経路と衛星測位データから算出された自車位置との間の位置ずれを算出し、この位置ずれが小さくなるように自動操舵指令が生成される。 One method for automatically driving in a field uses a preset automatic driving route and a work vehicle position obtained by satellite positioning. For example, in the tractor disclosed in Patent Document 1, a work area to be worked on by automatic driving is formed inside an existing work area created by first manually driving around the outer periphery of a field. . A travel route for the tractor to travel through this work target area is calculated based on a route calculation algorithm. After that, the automatic driving control unit installed in the Totakuta calculates the positional deviation between the target driving route and the own vehicle position calculated from the satellite positioning data, and issues an automatic steering command to reduce this positional deviation. is generated.

圃場内を自動走行するための他の1つの方法では、圃場作業車に搭載された撮影カメラによる撮影画像を画像処理することにより得られる圃場作業車の目標走行経路が利用される。例えば、特許文献2に開示された草刈機では、ゴルフ場などの芝生地における既刈地と未刈地との境界領域が撮影装置で撮影され、その撮影画像から既刈地と未刈地との間の境界線が算出され、この境界線に沿うように、車体が自動操舵される。 Another method for automatically traveling in a field uses a target travel route of a field work vehicle obtained by processing images taken by a camera mounted on the field work vehicle. For example, in the grass mower disclosed in Patent Document 2, a boundary area between mowed land and unmown land in a lawn area such as a golf course is photographed by a photographing device, and from the photographed image, the boundary area between mowed land and unmown land is determined. The boundary line between the two is calculated, and the vehicle is automatically steered along this boundary line.

特開2018-116608号公報Japanese Patent Application Publication No. 2018-116608 特開2018-097526号公報JP2018-097526A

特許文献1に開示されているような、衛星測位データを用いた自動走行を実施するためには、圃場の地図情報(圃場座標系または地球座標系)が用意され、この地図情報を用いて、圃場を網羅する走行経路が算出される。作業車は、この走行経路から自車位置がはずれないように自動走行される。自車位置は衛星測位を用いて算出されるが、衛星測位による自車位置算出では、山林や家屋によって衛星電波が遮られると、測位不能や測位精度低下が生じるという問題が生じる。 In order to implement automatic driving using satellite positioning data as disclosed in Patent Document 1, map information of the field (field coordinate system or earth coordinate system) is prepared, and using this map information, A driving route covering the field is calculated. The work vehicle automatically travels so as not to deviate from this travel route. The vehicle's position is calculated using satellite positioning, but when calculating the vehicle's position using satellite positioning, if the satellite radio waves are blocked by mountains or houses, the problem arises that positioning becomes impossible or the accuracy of positioning decreases.

特許文献2に開示されているような、画像処理によって検出される既刈地(既作業地)と未刈地(未作業地)との間の境界線を目標走行経路とする自動走行は、衛星測位を用いた自動走行の代替案として有効である。しかしながら、圃場作業車の走行面となる圃場面は、芝生地などに比べて、凹凸が激しく、しかも、その状態も場所によって異なるので、これは操舵精度の悪化を導く。さらに、圃場に農作物や農作物の残滓が存在している場合、その状態が場所によって異なるので、そのような農作物の状態に応じた自動走行が要求される場合もある。 As disclosed in Patent Document 2, automatic driving that uses the boundary line between mowed land (already worked land) and unmown land (unworked land) detected by image processing as a target travel route, This is an effective alternative to autonomous driving using satellite positioning. However, the field surface on which the field work vehicle travels is more uneven than a lawn, and the conditions vary depending on the location, which leads to a deterioration in steering accuracy. Furthermore, if there are agricultural products or residues of agricultural products in the field, their condition will vary depending on the location, so automatic driving may be required depending on the condition of the crops.

本発明の目的は、衛星測位を用いることなしに、かつ圃場の状態を考慮しながら自動走行できる圃場作業車を提供することである。 An object of the present invention is to provide a field work vehicle that can travel automatically without using satellite positioning and while taking into account the state of the field.

圃場を自動走行する、本発明による圃場作業車は、少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、車速及び操舵量を調整するための走行機器と、前記圃場画像入力して、未作業領域と既作業領域との境界と圃場状態とに基づいて自動走行するための自動走行情報を出力するように学習された自動走行演算部と、前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部とを備え
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、走行経路の基準となる前記未作業領域と前記既作業領域との間の前記境界及び当該境界から求められる境界線を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記境界に沿って自動走行するための情報である。
A field work vehicle according to the present invention that automatically travels in a field includes: a photographing unit that photographs the field including at least the advancing area of the vehicle body and outputs a field image; a traveling device for adjusting the vehicle speed and the amount of steering; An automatic driving calculation unit that is trained to input a field image and output automatic driving information for automatic driving based on the boundaries between unworked areas and already worked areas and the field condition; an automatic travel control unit that controls the traveling equipment based on the
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a second learning image group created by adding annotations to the first learning image group, which is the field image, as training data. , the first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group is an image group including the unworked area and the already worked area, which serve as a reference for the driving route. a group of images to which an annotation indicating the boundary between the already worked area and the boundary line determined from the boundary is added;
The automatic driving information is information for automatically driving along the boundary .

この構成では、撮影ユニットによって取得した圃場画像から未作業領域と既作業領域との境界が推定されることで目標となる車体の走行方向が決定され、同時に圃場画像から圃場状態が推定されることで、前記圃場状態に適合する目標となる走行挙動が決定され、目標となる走行方向と走行挙動とから自動走行情報が出力される。自動走行演算部は、未作業領域と既作業領域との境界だけでなく圃場状態も含めて最適な自動走行情報を出力するように学習されている。したがって、未作業領域と既作業領域との境界に沿うように走行機器が制御される際に、圃場状態(圃場面の状態や農作物の状態など)も考慮される。たとえば、走行前方に泥濘や凹凸などがあれば、操舵量を緩やかにして、スリップなどを抑制することも可能となる。 With this configuration, the target running direction of the vehicle body is determined by estimating the boundary between the unworked area and the completed work area from the field image acquired by the photographing unit, and at the same time, the field condition is estimated from the field image. Then, a target driving behavior that is suitable for the field conditions is determined, and automatic driving information is output from the target driving direction and driving behavior. The automatic travel calculation unit is trained to output optimal automatic travel information including not only the boundaries between unworked areas and completed work areas but also field conditions. Therefore, when the traveling equipment is controlled along the boundary between the unworked area and the completed work area, field conditions (field scene conditions, agricultural product conditions, etc.) are also taken into consideration. For example, if there is mud or unevenness in front of the vehicle, it is possible to reduce the amount of steering to reduce slippage.

作業もれまたは重複作業(過剰オーバーラップ)を避けるためには、車体の目標経路からのずれを正確に捉え、そのずれを少なくする操舵量を求める必要がある。このために、未作業領域と既作業領域との境界を一本の線、つまり境界線で求めること、及びこの境界線に車体の操舵基準点を一致させる操舵指令を出力すること、が重要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記境界を示す境界線に対応する線状の目標走行経路を推定し、この線状の目標走行経路と自車とのずれを解消するための情報を含む。 In order to avoid omitted work or redundant work (excessive overlap), it is necessary to accurately determine the deviation of the vehicle body from the target path and find a steering amount that will reduce the deviation. For this reason, it is important to determine the boundary between the unworked area and the completed area by a single line, that is, the boundary line, and to output a steering command that aligns the steering reference point of the vehicle body with this boundary line. be. Therefore, in one of the preferred embodiments of the present invention, the automatic driving information estimates a linear target driving route corresponding to the boundary line indicating the boundary, and combines this linear target driving route with the automatic driving information. Contains information for resolving discrepancies with the vehicle.

耕耘作業、田植作業、収穫作業など圃場では作業では、既に作業済みとなっている外周領域が車体の向きを変える方向転換領域として利用され、その外周領域の内側領域(未作業領域)に平行な線状の経路を、Uターン走行などの方向転換走行によってつないでいく走行形態が採用されている。このような走行パターンを、本発明による自動走行においても採用するためには、車体が車体の方向転換を行う必要がある外周領域に達すると、方向転換走行に移行する制御が必要である。このことから、本発明の好適な実施形態の1つでは、前記自動走行情報は、前記既作業領域である車体方向転換可能領域に設定されている方向転換走行経路を目標走行経路として方向転換を行うための情報を含む。 During field work such as plowing, rice planting, and harvesting, the outer circumferential area that has already been worked on is used as a direction change area to change the direction of the vehicle, and the area parallel to the inner area (unworked area) of the outer circumferential area is A driving style is adopted in which linear routes are connected by changing directions such as U-turns. In order to employ such a driving pattern in automatic driving according to the present invention, control is required to shift to direction-changing driving when the vehicle body reaches an outer peripheral area where it is necessary to change direction. Therefore, in one of the preferred embodiments of the present invention, the automatic driving information includes a direction change with a direction change travel route set in the vehicle body direction changeable area, which is the already worked area, as a target travel route. Contains information on how to do this.

圃場には、人や動物、さらには井戸や鉄塔などの走行障害物が存在する可能性があるので、自動走行を行うには、この走行障害物を検知して、走行障害物との接触を回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記自動走行演算部は、前記圃場画像から推定された走行障害物との接触を回避するための衝突回避情報を前記自動走行情報として出力する。 There may be obstacles in the field, such as people, animals, or even wells or steel towers, so in order to perform automatic driving, it is necessary to detect these obstacles and prevent contact with them. Need to avoid. For this reason, in one of the preferred embodiments of the present invention, the automatic driving calculation unit uses collision avoidance information for avoiding contact with a traveling obstacle estimated from the field image as the automatic driving information. Output.

走行障害物が移動するものか、あるいは圃場に固定しているものかによって、対処策が異なってくる。圃場に固定している障害物に対しては、作業車が回避する必要がある。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、非移動性障害物と推定された前記走行障害物を回避する回避走行情報が含まれている。 Countermeasures will differ depending on whether the obstacle is moving or fixed in the field. The work vehicle must avoid obstacles fixed in the field. Therefore, in one of the preferred embodiments of the present invention, the collision avoidance information includes avoidance travel information for avoiding the travel obstacle that is estimated to be a non-moving obstacle.

圃場を移動する障害物は、時間経過にともなって作業車の走行先から外れて、走行障害物ではなくなる可能性がある。また、警報等によって、障害物を排除することも可能である。このことから、本発明の好適な実施形態の1つでは、前記衝突回避情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている。 Obstacles that move in the field may move away from the path of the work vehicle over time and may no longer be obstacles to the vehicle. It is also possible to remove obstacles by issuing a warning or the like. Therefore, in one of the preferred embodiments of the present invention, the collision avoidance information includes at least information such as deceleration, stopping, and warning to avoid contact with the traveling obstacle estimated to be a moving obstacle. Contains information for doing one thing.

手動走行で圃場作業が行われる場合、運転者は、現状の車速やエンジン回転数のなどを考慮して、これらを適切に変更操作することで、最適な作業走行を図っている。このような操作は自動走行においても有益である。このことから、本発明の好適な実施形態の1つでは、前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、前記自動走行情報には、操舵、車速、変速、制動、エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている。 When field work is performed manually, the driver considers the current vehicle speed, engine speed, etc., and changes these appropriately to achieve optimal work driving. Such operations are also useful in automated driving. For this reason, one of the preferred embodiments of the present invention is provided with a running state detection unit that detects the running state from the state of the traveling equipment, and the running state information indicating the running state is sent to the automatic running calculation unit. The driving state information includes data indicating at least one of vehicle speed, gear shift position, engine rotation speed, and engine load factor, and the automatic driving information includes steering, vehicle speed, gear shifting, braking, A control command for commanding a change in at least one of the engine speeds is included.

農業従事者の長年の経験と圃場作業車の技術改革とによって発達してきた農業において、圃場作業車の自動化を進めるためには、長年の経験を圃場作業車の自動走行制御に反映させる必要がある。このためには、制御系の中核に、農業従事者の経験を圃場作業車に学習させる機械学習を導入することが好適である。これにより、熟練した農業従事者の能力を圃場作業車に搭載したコンピュータ上で実現させることができる。このため、前記自動走行演算部は、畳み込みニューラルネットワークで構築され、学習用画像として第1学習用画像群と第2学習用画像群とを用いて学習されており、前記第1学習用画像群は、圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の前記境界を示すアノテーションと、前記境界に沿って自動走行するための走行経路に対する位置ずれを示すアノテーションとが付与された画像群である。アノテーションとは、対応撮影画像に対する意味づけである。例えば、圃場の撮影画像において、未作業領域と既作業領域との境界を指し示すこと、さらにはその境界から車体の走行経路に対する位置ずれとその位置ずれを解消するための操作を指し示すことが、アノテーションである。この機械学習には、第1の学習と第2の学習が含まれている。第1の学習は、圃場作業車からの視点で取得された生の撮影画像と、その撮影画像における未作業領域と前記既作業領域との間の境界を見つけ出して、その境界領域をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から境界領域を推定させる学習である。第2の学習は、生の撮影画像と、見つけ出された境界の位置からの車体の位置ずれ(目標走行ラインからのずれ)及び必要とされる位置ずれを解消する操作をアノテーションとして示したアノテーション画像とを用いて、生の撮影画像から車体の位置ずれ境界領域を推定させ、位置ずれを解消する操作を推定させる学習である。この学習により、自動走行演算部は、取得した圃場画像から、車体前方の境界線の位置、車体の位置ずれ、さらに、必要であれば、位置ずれの解消操作を出力することができる。 Agriculture has developed through the many years of experience of farmers and technological innovations in field vehicles, and in order to advance the automation of field vehicles, it is necessary to reflect those years of experience in the automatic driving control of field vehicles. . To this end, it is preferable to introduce machine learning into the core of the control system, which allows field work vehicles to learn from the experiences of farmers. This allows the abilities of a skilled farmer to be realized on a computer mounted on a field work vehicle. For this reason, the automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a first learning image group and a second learning image group as learning images, and the first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group includes an annotation indicating the boundary between the unworked area and the already worked area, This is a group of images to which an annotation indicating a positional shift with respect to a travel route for automatically traveling along the boundary is added. An annotation is a meaning given to a corresponding photographed image. For example, in a photographed image of a field, an annotation can be used to indicate the boundary between an unworked area and an already worked area, and furthermore to point out a positional deviation from the boundary with respect to the vehicle's travel route and an operation to eliminate the positional deviation. It is. This machine learning includes first learning and second learning. The first learning involves finding the boundary between the unworked area and the already worked area in the raw photographed image obtained from the perspective of the field work vehicle, and the boundary area as an annotation. This is a learning method that estimates boundary areas from raw captured images using annotated images. The second learning is based on the raw captured images and annotations that indicate the positional deviation of the vehicle body from the found boundary position (deviation from the target driving line) and the required operation to eliminate the positional deviation. This is a learning that uses images to estimate the positional deviation boundary area of the vehicle body from the raw captured image, and estimates the operation to eliminate the positional deviation. Through this learning, the automatic driving calculation unit can output the position of the boundary line in front of the vehicle body, the positional shift of the vehicle body, and, if necessary, the operation for eliminating the positional shift, from the acquired field image.

車体の位置ずれが発生すると、車体を目標走行経路に一致させる操舵が行われる。この操舵による位置ずれの解消を迅速かつ効率的に行うためには、走行経路に対する横断方向のずれである横位置ずれと、走行経路の向きに対する車体方位のずれである方位ずれとを組み合わせて制御されることが好適である。これは、道路を走行する車両に比べて、圃場を走行する圃場作業車では、スリップが多く、車速が低いことに起因する。このことから、本発明の好適な実施形態の1つでは、前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれている。 When a positional shift of the vehicle body occurs, steering is performed to align the vehicle body with the target travel route. In order to eliminate positional deviations caused by steering quickly and efficiently, control is performed by combining lateral positional deviations, which are deviations in the direction transverse to the driving route, and azimuth deviations, which are deviations in the vehicle's orientation relative to the direction of the driving route. It is preferable that the This is due to the fact that field work vehicles that travel in fields have more slips and lower vehicle speeds than vehicles that travel on roads. Therefore, in one of the preferred embodiments of the present invention, the positional deviation includes a lateral positional deviation that is a deviation in a transverse direction with respect to the traveling route, and an azimuth that is a deviation in the vehicle body orientation with respect to the direction of the traveling route. Includes misalignment.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第3学習用画像と第4学習用画像とが用いられており、前記第3学習用画像は、前記既作業領域における車体方向転換可能な領域を示す画像群であり、前記第4学習用画像は、前記車体方向転換可能な領域を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、現在の作業走行経路から車体を方向転換させて次の作業走行経路に移行するための方向転換用領域、及びその方向転換用領域での方向転換走行(旋回走行)のための情報が、圃場画像から推定できるようになる。 Furthermore, in one of the preferred embodiments of the present invention, a third learning image and a fourth learning image are further used as the learning image, and the third learning image The fourth learning image is a group of images to which an annotation indicating the region where the vehicle direction can be changed is added. The automated driving calculation unit that has learned using such learning images creates a direction change area for changing the direction of the vehicle from the current work route and moving to the next work route, and the direction change area. Information for changing direction (turning) can be estimated from field images.

さらに、本発明の好適な実施形態の1つでは、前記学習用画像としてさらに第5学習用画像と第6学習用画像とが用いられており、前記第5学習用画像は、前記圃場における走行障害となる物体が含まれている画像群であり、前記学習用画像は、前記走行障害となる物体を示すアノテーションが付与された画像群である。このような学習用画像を用いて学習した自動走行演算部では、は、圃場画像から走行障害となる物体を推定することができ、この障害物との接触を回避するために必要な自動走行情報を出力することができる。 Furthermore, in one of the preferred embodiments of the present invention, a fifth learning image and a sixth learning image are further used as the learning image, and the fifth learning image is The learning image is a group of images including an object that becomes an obstacle, and the learning image is a group of images to which an annotation indicating the object that becomes an obstacle is added. The automatic driving calculation unit trained using such training images is able to estimate objects that will be obstacles to driving from field images, and provide the automatic driving information necessary to avoid contact with these obstacles. can be output.

圃場作業車の一例であるトラクタの側面図である。FIG. 1 is a side view of a tractor that is an example of a field work vehicle. 撮影カメラの取り付け位置を説明するためのトラクタの概略平面図である。FIG. 2 is a schematic plan view of the tractor for explaining the mounting position of a photographing camera. トラクタによる圃場作業の流れを説明する説明図である。It is an explanatory diagram explaining the flow of field work by a tractor. 制御系の機能ブロック図である。FIG. 3 is a functional block diagram of a control system. 自動走行演算部の機能ブロック図である。FIG. 3 is a functional block diagram of an automatic driving calculation section. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。FIG. 3 is a schematic diagram showing a learning image used in learning processing of the first calculation unit. 第1演算部の学習処理に用いられる学習用画像を示す模式図である。FIG. 3 is a schematic diagram showing a learning image used in learning processing of the first calculation unit. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。FIG. 6 is a schematic diagram showing a learning image used for learning processing by a second calculation unit. 第2演算部の学習処理に用いられる学習用画像を示す模式図である。FIG. 6 is a schematic diagram showing a learning image used for learning processing by a second calculation unit. 自動走行演算部の学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of an automatic driving calculation part. 自動走行演算部の別実施形態における機能ブロック図である。FIG. 3 is a functional block diagram of another embodiment of an automatic driving calculation unit.

次に、図面を用いて、本発明による圃場を自動走行する圃場作業車を説明する。図1で示された実施形態では、作業車は、圃場を自動走行するトラクタである。このトラクタは、前輪11と後輪12とによって支持された車体1の中央部に運転部20が設けられている。車体1の後部には油圧式の昇降機構23を介してロータリ耕耘装置である作業装置24が装備されている。前輪11は操向輪として機能し、その操舵角を変更することでトラクタの走行方向が変更される。前輪11の操舵角は操舵機構13の動作によって変更される。操舵機構13には自動操舵のための操舵モータ14が含まれている。手動走行の際には、前輪11の操舵は運転部20に配置されているステアリングホイール22の操作によって行われる。 Next, a field work vehicle that automatically travels in a field according to the present invention will be explained using the drawings. In the embodiment shown in FIG. 1, the work vehicle is a tractor that automatically travels in a field. In this tractor, a driving section 20 is provided in the center of a vehicle body 1 supported by front wheels 11 and rear wheels 12. A working device 24, which is a rotary tiller, is installed at the rear of the vehicle body 1 via a hydraulic lifting mechanism 23. The front wheels 11 function as steering wheels, and by changing the steering angle, the traveling direction of the tractor is changed. The steering angle of the front wheels 11 is changed by the operation of the steering mechanism 13. The steering mechanism 13 includes a steering motor 14 for automatic steering. During manual driving, the front wheels 11 are steered by operating a steering wheel 22 disposed in the driving section 20.

このトラクタには、少なくとも車体1の走行先の領域を含む圃場を撮影して圃場画像を出力する撮影ユニット3が備えられている。この実施形態では、図2に示すように、撮影ユニット3には、前カメラ31と後カメラ32と左カメラ33と右カメラ34とを含む。前カメラ31は、車体1の前部に配置され、車体1の前方を撮影する。後カメラ32は、車体1の後部に配置され、作業装置24を含む車体1の後方を撮影する。左カメラ33と右カメラ34とは、それぞれ、車体1の側部に配置され、車体1の左方と右方とを撮影する。前カメラ31と後カメラ32と左カメラ33と右カメラ34とからの撮影画像を視点変換して合成することにより、トラクタ上方を視点とする俯瞰画像が生成可能である。圃場画像として、前カメラ31による前方撮影画像、または、圃場画像、あるいはその両方が利用される。なお、前方撮影画像は前進の場合の車体進行領域を含む圃場画像として利用され、後進の場合には後カメラ32による後方撮影画像が車体進行領域を含む圃場画像として利用される。したがって、以下に述べる圃場画像には、前方撮影画像、後方撮影画像、俯瞰画像が含まれるものとする。 This tractor is equipped with a photographing unit 3 that photographs a field including at least the region where the vehicle body 1 is traveling and outputs a field image. In this embodiment, as shown in FIG. 2, the photographing unit 3 includes a front camera 31, a rear camera 32, a left camera 33, and a right camera 34. The front camera 31 is arranged at the front of the vehicle body 1 and photographs the front of the vehicle body 1. The rear camera 32 is arranged at the rear of the vehicle body 1 and photographs the rear of the vehicle body 1 including the working device 24. The left camera 33 and the right camera 34 are respectively arranged on the side of the vehicle body 1 and take images of the left side and the right side of the vehicle body 1. By converting and combining the images captured by the front camera 31, the rear camera 32, the left camera 33, and the right camera 34, it is possible to generate an overhead image with the viewpoint above the tractor. As the field image, a front photographed image by the front camera 31, a field image, or both are used. Note that the forward photographed image is used as a field image including the vehicle body advancing area in the case of forward movement, and the rear photographed image by the rear camera 32 is used as the field image including the vehicle body advancing area in the case of backward movement. Therefore, it is assumed that the field images described below include a front photographed image, a rear photographed image, and an overhead view image.

トラクタによる圃場作業の一般的な手順が図3に示されている。この例では、トラクタが圃場に入ると(#a)、圃場の外周に沿って作業を行う周囲作業走行が手動または自動で行われ、圃場の最外周側に既作業領域である外周領域が形成される(#b)。周囲作業走行では、コーナ領域での方向転換走行が複雑であるため、手動走行が好ましい。コーナ領域以外は、実質的に直線走行であるので、自動走行が用いられる。その際、圃場の外周線となる、圃場面と畔や畝などとの境界線が、機械学習を用いた画像認識プログラムによってリアルタイムで認識され、その認識された境界線に作業装置24の作業端が沿うようにトラクタが自動操舵される。この周囲作業走行で形成される外周領域がトラクタの方向転換(Uターン走行)が可能となる大きさになれば、この未作業領域に対する自動作業走行が開始される。この自動作業走行には、直線状にトラクタを作業走行させる前進作業走行(#c)と、既作業領域で作業装置24を上昇させて非作業状態としてトラクタをUターンさせる車体方向転換走行(#d)とが含まれる。前進作業走行と車体方向転換走行とを繰り返すことで(#e)、圃場全体の作業が完了する。なお、前進作業走行では、画像認識対象が未作業領域と既作業領域との境界線であり、車体方向転換走行では、画像認識対象が圃場の境界線(外周線)及び未作業領域と既作業領域との境界線である。このため、前進作業走行と車体方向転換走行とで、異なる画像認識プログラムが用いられることが好ましい。その場合、前進作業走行用画像認識プログラムと車体方向転換走行用画像認識プログラムとの自動切替は、作業装置24の状態(例えば、下降状態と上昇状態、駆動状態と非駆動状態)に基づいて行うことができる。なお、圃場の種類によっては、外周領域の形状が前もって想定され、外周領域が未作業状態のままで、当該外周領域の内側の未作業領域に対して、#c、#d、#eが先に実施され、その後に#bが実施される。 The general procedure for field work using a tractor is shown in Figure 3. In this example, when the tractor enters the field (#a), a peripheral work drive is performed manually or automatically to perform work along the outer periphery of the field, and an outer peripheral area, which is an already worked area, is formed on the outermost side of the field. (#b). For surrounding work driving, manual driving is preferred because turning around corners is complicated. Since the vehicle travels substantially in a straight line except for corner areas, automatic travel is used. At that time, the boundary line between the field scene and the ridges, furrows, etc., which is the outer circumference of the field, is recognized in real time by an image recognition program using machine learning, and the working end of the working device 24 is placed on the recognized boundary line. The tractor will be automatically steered so that the When the outer peripheral area formed by this surrounding work travel becomes large enough to allow the tractor to change direction (U-turn travel), automatic work travel to this unworked area is started. This automatic work driving includes forward work driving (#c) in which the tractor travels in a straight line, and vehicle body direction change driving (#c) in which the working device 24 is raised in the already worked area and the tractor is turned into a non-working state. d). By repeating forward work travel and vehicle direction change travel (#e), work on the entire field is completed. In addition, in forward work driving, the image recognition target is the boundary line between the unworked area and the completed work area, and in the vehicle direction change driving, the image recognition target is the field boundary line (outer line) and the unworked area and the completed work area. It is the border between the area. For this reason, it is preferable that different image recognition programs be used for forward work driving and vehicle direction change driving. In that case, automatic switching between the image recognition program for forward work travel and the image recognition program for vehicle direction change travel is performed based on the state of the work device 24 (for example, descending state and rising state, driving state and non-driving state). be able to. Note that depending on the type of field, the shape of the outer peripheral area is assumed in advance, and while the outer peripheral area remains unworked, #c, #d, and #e are placed first in the unworked area inside the outer peripheral area. #b is implemented after that.

図4には、このトラクタに構築されている制御系が示されている。この実施形態の制御系には、車載ECU群からなる制御ユニット5、入出力信号処理ユニット50が含まれている。制御ユニット5には、通常の作業走行を実行する機能部に加えて、機械学習を応用して構築された自動走行演算部4が備えられている。入出力信号処理ユニット50には、トラクタの作業走行で取り扱われる入出力信号を処理する機能部が構築されている。制御ユニット5と入出力信号処理ユニット50とは、車載LANによって接続されている。 FIG. 4 shows the control system built in this tractor. The control system of this embodiment includes a control unit 5 consisting of a group of in-vehicle ECUs and an input/output signal processing unit 50. The control unit 5 is equipped with an automatic driving calculation unit 4 constructed by applying machine learning in addition to a functional unit that executes normal work driving. The input/output signal processing unit 50 is constructed with a functional section that processes input/output signals handled during work travel of the tractor. The control unit 5 and the input/output signal processing unit 50 are connected by an in-vehicle LAN.

入出力信号処理ユニット50には、走行機器群91、作業機器群92、報知デバイス群93、自動/手動切替操作具94、走行状態検出センサ群81、作業状態検出センサ群82が接続されている。走行機器群91には、操舵調節機器としての操舵モータ14(図1参照)をはじめ、車速調整機器としての変速調整器、エンジン回転調整器などが含まれている。作業機器群92には、作業装置24や昇降機構23(図1参照)を駆動するための制御機器が含まれている。報知デバイス群93には、ディスプレイ、スピーカ、ランプ、ブザーなどが含まれている。自動/手動切替操作具94は、自動操舵で走行する自動走行モードと手動操舵で走行する手動操舵モードとのいずれかを選択するスイッチである。 Connected to the input/output signal processing unit 50 are a traveling equipment group 91, a working equipment group 92, a notification device group 93, an automatic/manual switching operation tool 94, a traveling state detection sensor group 81, and a working state detection sensor group 82. . The traveling equipment group 91 includes a steering motor 14 (see FIG. 1) as a steering adjustment device, a speed adjuster as a vehicle speed adjustment device, an engine rotation adjuster, and the like. The work equipment group 92 includes control equipment for driving the work device 24 and the lifting mechanism 23 (see FIG. 1). The notification device group 93 includes a display, a speaker, a lamp, a buzzer, and the like. The automatic/manual switching operation tool 94 is a switch that selects either an automatic driving mode in which the vehicle travels with automatic steering or a manual steering mode in which the vehicle travels with manual steering.

走行状態検出センサ群81には、操舵量やエンジン回転数や変速位置などの走行状態を検出するセンサが含まれている。作業状態検出センサ群82には、作業装置24の姿勢や駆動状態を検出するセンサが含まれている。 The running state detection sensor group 81 includes sensors that detect running states such as the amount of steering, engine speed, and shift position. The working state detection sensor group 82 includes sensors that detect the posture and driving state of the working device 24.

入出力信号処理ユニット50には、そのほかに、撮影ユニット3が接続されている。撮影ユニット3には、上述した4つのカメラ31~34の撮影画像を画像処理して制御ユニット5での処理に適合する圃場画像を生成する画像処理部30が含まれている。撮影ユニット3から出力された圃場画像は、入出力信号処理ユニット50を介して制御ユニット5に入力される。 In addition to the above, a photographing unit 3 is connected to the input/output signal processing unit 50. The photographing unit 3 includes an image processing section 30 that processes images taken by the four cameras 31 to 34 described above to generate a field image suitable for processing by the control unit 5. The field image output from the photographing unit 3 is input to the control unit 5 via the input/output signal processing unit 50.

制御ユニット5は、手動走行制御部51、自動走行制御部52、作業制御部53、走行状態検知部54、作業状態検知部55、自動走行演算部4を備えている。手動走行制御部51は、手動走行モードにおいて、運転者による操作に基づいて、走行機器群91を制御する。自動走行制御部52は、自動走行モードにおいて、自動走行演算部4から出力される自動走行情報に基づいて走行機器群91を制御する。作業制御部53は、手動または自動で作業機器群92を制御する。走行状態検知部54は、走行状態検出センサ群81からの検出信号に基づいて走行状態を検知する。作業状態検知部55は、作業状態検出センサ群82からの検出信号に基づいて作業状態を検知する。 The control unit 5 includes a manual travel control section 51, an automatic travel control section 52, a work control section 53, a travel state detection section 54, a work state detection section 55, and an automatic travel calculation section 4. The manual travel control unit 51 controls the travel equipment group 91 in the manual travel mode based on the operation by the driver. The automatic travel control section 52 controls the traveling equipment group 91 in the automatic travel mode based on the automatic travel information output from the automatic travel calculation section 4. The work control unit 53 manually or automatically controls the work equipment group 92. The running state detection unit 54 detects the running state based on the detection signal from the running state detection sensor group 81. The working state detection unit 55 detects the working state based on the detection signal from the working state detection sensor group 82.

自動走行演算部4は、学習済み状態において、前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力する。この実施形態では、自動走行演算部4は、図5に示すように、第1演算部41、第2演算部42、選択部40とから構成されている。第1演算部41は、第1前段演算部41aと第1後段演算部41bとを含む。第2演算部42は、第2前段演算部42aと第2後段演算部42bとを含む。 In the learned state, the automatic driving calculation unit 4 inputs the field image, estimates the boundary between the unworked area and the worked area, and the field state, and outputs automatic driving information for automatic driving. . In this embodiment, the automatic driving calculation section 4 includes a first calculation section 41, a second calculation section 42, and a selection section 40, as shown in FIG. The first calculation section 41 includes a first front-stage calculation section 41a and a first rear-stage calculation section 41b. The second calculation section 42 includes a second front-stage calculation section 42a and a second rear-stage calculation section 42b.

第1前段演算部41aは、圃場画像から、未作業領域と既作業領域との境界を示す境界線と圃場状態とを推定する。第1後段演算部41bは、推定された境界線に対応する線状の目標走行経路(前進作業走行経路)をリアルタイムで算出する。その際、作業装置24の作業幅、作業オーバータップ量、車体基準点から作業装置24の作業端までの距離などが必要となるので、これらの作業装置仕様データは予め設定されている。さらに、第1前段演算部41aは、この目標走行経路(前進作業走行経路)に対する車体1の操舵基準点の位置ずれを演算し、この位置ずれを解消するための情報である第1自動走行情報を生成する。この位置ずれには、目標走行経路に対する横断方向の位置偏差である横位置ずれと、目標走行経路の方位と車体方位との間の角度偏差である方位ずれが含まれる。第1自動走行情報には、位置ずれを解消するための操舵量が含まれている。操舵量の生成時には、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第1前段演算部41a及び第1後段演算部41bは、一体化可能である。 The first front-stage calculation unit 41a estimates the boundary line indicating the boundary between the unworked area and the worked area and the field state from the field image. The first latter-stage calculation unit 41b calculates in real time a linear target travel route (forward work travel route) corresponding to the estimated boundary line. At that time, the working width of the working device 24, the working overtap amount, the distance from the vehicle body reference point to the working end of the working device 24, etc. are required, so these working device specification data are set in advance. Furthermore, the first pre-stage calculation unit 41a calculates a positional deviation of the steering reference point of the vehicle body 1 with respect to this target driving route (forward work driving path), and first automatic driving information that is information for eliminating this positional deviation. generate. This positional deviation includes a lateral positional deviation, which is a positional deviation in a transverse direction with respect to the target driving route, and an azimuth deviation, which is an angular deviation between the orientation of the target driving route and the vehicle body orientation. The first automatic travel information includes a steering amount for eliminating positional deviation. When generating the steering amount, field conditions such as the slope of the field and the unevenness of the field are taken into consideration. The first front-stage calculation section 41a and the first rear-stage calculation section 41b can be integrated.

第2前段演算部42aは、圃場画像から、既作業領域である車体方向転換可能領域を推定する。第2後段演算部42bは、当該車体方向転換可能領域に設定される方向転換走行経路を設定し、設定された方向転換走行経路に対する実際の方向転換軌跡との相違を旋回ずれとし、この旋回ずれを解消するための情報(操舵量)である第2自動走行情報を生成する。第2自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮される。第2前段演算部42a及び第2後段演算部42bは、一体化可能である。 The second front-stage calculation unit 42a estimates an area where the vehicle body direction can be changed, which is an already worked area, from the field image. The second latter-stage calculation unit 42b sets a turning travel route to be set in the vehicle body direction changeable region, defines the difference between the set turning travel route and the actual turning trajectory as a turning deviation, and determines the difference between the set turning travel route and the actual turning trajectory. Second automatic driving information, which is information (steering amount) for solving the problem, is generated. When generating the second automatic driving information, field conditions such as the slope of the field and the unevenness of the field are taken into consideration. The second front-stage calculation section 42a and the second rear-stage calculation section 42b can be integrated.

選択部40は、第1自動走行情報の信頼度と第2自動走行情報の信頼度とを比較して、現時点で行わなければならない走行制御として適正度の高い方の情報を選択し、自動走行情報として出力して、自動走行制御部52に与える。あるいは、選択部40は、作業状態検知部55によって検知された作業状態に基づいて第1自動走行情報と第2自動走行情報のいずれかを選択してもよい。例えば、作業装置24の状態が下降状態または駆動状態あるいはその両方であれば、前進作業走行とみなされ、第1自動走行情報が選択される。作業装置24の状態が上昇状態または非駆動状態あるいはその両方であれば、方向転換走行とみなされ、第2自動走行情報が選択される。さらに別な方法として、作業状態検知部55によって検知された作業状態に基づいて第1前段演算部41aと第2前段演算部42aのいずれかの利用を決定するようにしてもよい。 The selection unit 40 compares the reliability of the first automated driving information and the reliability of the second automated driving information, selects the information with higher degree of appropriateness as the driving control that must be performed at the present time, and selects the information that has a higher degree of appropriateness as the driving control that must be performed at the present time. It is output as information and given to the automatic travel control section 52. Alternatively, the selection unit 40 may select either the first automatic travel information or the second automatic travel information based on the work state detected by the work state detection unit 55. For example, if the state of the work device 24 is a lowered state, a driven state, or both, it is assumed that forward work travel is being performed, and the first automatic travel information is selected. If the state of the working device 24 is a raised state, a non-driving state, or both, it is considered that the vehicle is changing direction, and the second automatic travel information is selected. As yet another method, the use of either the first pre-processing section 41a or the second pre-processing section 42a may be determined based on the working state detected by the working state detecting section 55.

なお、図5に示された自動走行演算部4では、付加的な機能として、走行状態検知部54によって検知された走行状態情報が、第1演算部41及び第2演算部42に入力されている。走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率などが含まれている。この機能を追加した場合、第1後段演算部41b及び第2後段演算部42bは、位置ずれを解消するための情報に加えて、第1自動走行情報及び第2自動走行情報に、車速制御指令、変速制御指令、制動制御指令、エンジン制御指令のうちの少なくとも1つを含ませることも可能である。これは、単に操舵量を調節するだけではなく、その他の走行状態(車速など)も調整することが、位置ずれの解消に有効な場合があるからである。 Note that in the automatic driving calculation section 4 shown in FIG. 5, as an additional function, driving state information detected by the driving state detection section 54 is inputted to the first calculation section 41 and the second calculation section 42. There is. The driving state information includes vehicle speed, gear shift position, engine rotation speed, engine load factor, and the like. When this function is added, the first rear-stage calculation unit 41b and the second rear-stage calculation unit 42b add vehicle speed control commands to the first automatic driving information and the second automatic driving information in addition to the information for eliminating positional deviation. , a shift control command, a brake control command, and an engine control command. This is because not only adjusting the amount of steering but also adjusting other driving conditions (vehicle speed, etc.) may be effective in eliminating positional deviation.

第1演算部41は圃場画像から第1自動走行情報を出力する機械学習制御ユニットであり、第2演算部42は圃場画像から第2自動走行情報を出力する機械学習制御ユニットである。機械学習制御ユニットが圃場画像から圃場作業の状況を推定して適切な自動走行情報を出力するためには、学習処理が必要となる。この学習処理のため、図5では、学習処理ユニット6が自動走行演算部4に接続されている。なお、学習処理ユニット6は自動走行演算部4に内蔵されてもよい。また、トラクタの制御系以外のコンピュータシステムに構築された学習処理ユニット6と自動走行演算部4とがデータ交換して学習処理を実行するような学習システムを採用してもよい。この実施形態では、第1演算部41及び第2演算部42は、畳み込みニューラルネットワークで構築されており、畳み込みニューラルネットワークに適合する学習処理が学習処理ユニット6によって行われる。 The first calculation section 41 is a machine learning control unit that outputs first automatic travel information from a field image, and the second calculation section 42 is a machine learning control unit that outputs second automatic travel information from a field image. Learning processing is necessary for the machine learning control unit to estimate the field work situation from the field image and output appropriate automatic driving information. For this learning process, the learning processing unit 6 is connected to the automatic driving calculation section 4 in FIG. 5 . Note that the learning processing unit 6 may be built in the automatic driving calculation section 4. Alternatively, a learning system may be adopted in which the learning processing unit 6 built in a computer system other than the control system of the tractor and the automatic travel calculation section 4 exchange data to execute the learning process. In this embodiment, the first calculation unit 41 and the second calculation unit 42 are constructed by a convolutional neural network, and the learning processing unit 6 performs learning processing that is compatible with the convolutional neural network.

学習処理ユニット6の構成は、公知であるので、ここでは詳しい説明は省略するが、誤差算出機能や重み調整機能を有する。学習処理ユニット6は、第1演算部41または第2演算部42と同様な畳み込みニューラルネットワークを備えてもよいし、直接、学習前の第1演算部41または第2演算部42と接続して、順次学習させてもよい。前者の場合は、学習処理の終了後に、重み係数などの学習済みデータが第1演算部41及び第2演算部42に設定される。 The configuration of the learning processing unit 6 is well known, so a detailed explanation will be omitted here, but it has an error calculation function and a weight adjustment function. The learning processing unit 6 may include a convolutional neural network similar to the first computing section 41 or the second computing section 42, or may be directly connected to the first computing section 41 or the second computing section 42 before learning. , may be learned sequentially. In the former case, learned data such as weighting coefficients are set in the first calculation unit 41 and the second calculation unit 42 after the learning process is completed.

この第1演算部41の学習処理では、多数の第1学習画像からなる第1学習画像群と、多数の第2学習画像からなる第2学習画像群とが用いられる。 In the learning process of the first calculation unit 41, a first learning image group consisting of a large number of first learning images and a second learning image group consisting of a large number of second learning images are used.

第1学習用画像群は、圃場の未作業領域と既作業領域とを含む画像群であり、この実施形態では、撮影ユニット3の画像処理部30で生成された俯瞰画像が用いられる。第2学習用画像群は、第1学習用画像群において認識されるべき特徴を示すアノテーションが付与された画像群である。図6及び図7の左側に第1学習用画像の一例が示されており、図6及び図7の右側に第2学習用画像群が示されている。図6の第1学習画像では、既作業領域に位置するトラクタの前方に未作業領域に広がっている情景が示されている。図6の第2学習画像では、走行経路の基準となる未作業領域と既作業領域との間の境界及び当該境界から求められる境界線を示すアノテーションと、作業走行の開始基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。図7の第1学習画像は、未作業領域に進入して作業領域と既作業領域との間の境界に沿って作業走行しているトラクタの俯瞰画像である。この第2学習画像では、走行経路(前進と後進)の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 The first learning image group is an image group including an unworked area and a completed work area of the field, and in this embodiment, an overhead image generated by the image processing section 30 of the photographing unit 3 is used. The second learning image group is an image group to which an annotation indicating a feature to be recognized in the first learning image group is added. An example of the first learning image is shown on the left side of FIGS. 6 and 7, and a second learning image group is shown on the right side of FIGS. 6 and 7. The first learning image in FIG. 6 shows a scene extending into an unworked area in front of a tractor located in an already worked area. In the second learning image in FIG. 6, there are annotations indicating the boundary between the unworked area and the worked area, which serve as the reference for the travel route, and the boundary line obtained from the boundary, and the boundary, which serves as the start reference for work travel, and the An annotation that shows the boundary line determined from the boundary, an annotation that shows the positional deviation when the boundary line is the target travel route, an annotation that shows that the surface condition of the unworked area is moderately uneven, and the required amount of steering. An annotation indicating . The first learning image in FIG. 7 is an overhead image of a tractor that has entered an unworked area and is traveling along the boundary between the working area and the completed working area. In this second learning image, there are annotations that indicate the boundary that serves as a reference for the driving route (forward and reverse) and a boundary line calculated from the boundary, an annotation that shows the positional deviation when the boundary line is the target driving route, and an annotation that shows the boundary line that is the reference for the driving route (forward and backward) An annotation indicating that the surface condition of the work area is moderately uneven and an annotation indicating the required amount of steering are provided.

第2演算部42の学習処理には、学習用画像として第3学習用画像と第4学習用画像とが用いられる。第3学習用画像群も、圃場の未作業領域と既作業領域とを含む画像群であるが、その車体1の前方の既作業領域は車体方向転換可能な領域であり、第4学習用画像は、第3学習用画像群において認識されるべき車体方向転換可能な領域を示すアノテーションが付与された画像群である。図8及び図9の左側に第3学習用画像の一例が示されており、図8及び図9の右側に第4学習用画像群が示されている。図8の第3学習画像では、作業走行中のトラクタの前方に既作業領域に広がっている情景が示されている。図8の第4学習画像では、前方に広がっている既作業領域が車体方向転換可能領域であることを示すアノテーションと、その車体方向転換可能領域の表面状態が中程度の凹凸であることを示すアノテーション、必要な操舵量を示すアノテーションとが付与されている。さらに、第4学習画像には、車体方向転換可能領域が認識された場合に、その車体方向転換可能領域に設定される車体方向転換のための旋回走行経路が示されている。図9の第3学習画像は、車体方向転換のための旋回走行の終了付近での俯瞰画像である。図9の第4学習画像では、走行経路の基準となる境界及び当該境界から求められる境界線を示すアノテーションと、境界線を目標走行経路とした場合の位置ずれを示すアノテーションと、既作業領域及び未作業領域の表面状態が中程度の凹凸であることを示すアノテーションと、必要な操舵量を示すアノテーションとが付与されている。 In the learning process of the second calculation unit 42, the third learning image and the fourth learning image are used as learning images. The third learning image group is also an image group including an unworked area and a worked area of the field, but the already worked area in front of the vehicle body 1 is an area where the vehicle direction can be changed, and the fourth learning image is a group of images to which an annotation indicating a region in which the vehicle direction can be changed is to be recognized in the third group of learning images. An example of the third learning image is shown on the left side of FIGS. 8 and 9, and a fourth learning image group is shown on the right side of FIGS. 8 and 9. The third learning image in FIG. 8 shows a scene extending into the already worked area in front of the tractor during work travel. In the fourth learning image of FIG. 8, there is an annotation indicating that the completed work area extending ahead is an area where the vehicle direction can be changed, and an annotation indicating that the surface condition of the area where the vehicle body direction can be changed is moderately uneven. An annotation and an annotation indicating the required amount of steering are provided. Further, the fourth learning image shows a turning route for changing the vehicle direction that is set in the vehicle direction changeable area when the vehicle body direction changeable area is recognized. The third learning image in FIG. 9 is an overhead image near the end of the turning run for changing the direction of the vehicle body. In the fourth learning image in FIG. 9, there are annotations that indicate the boundary that serves as a reference for the driving route and a boundary line that is calculated from the boundary, an annotation that shows the positional deviation when the boundary line is set as the target driving route, and an annotation that shows the already worked area and An annotation indicating that the surface condition of the unworked area is moderately uneven and an annotation indicating the required amount of steering are provided.

図10に、第1学習用画像群と第2学習用画像群とを用いて、第1演算部41が操舵量を示す第1自動走行情報を出力するように機能させるための学習処理の流れが示されている。 FIG. 10 shows a flow of a learning process for making the first calculation unit 41 function to output first automatic driving information indicating the amount of steering, using the first learning image group and the second learning image group. It is shown.

まず、トラクタの試験走行やカメラ付きドローンによって取得された撮影画像、またはCG装置を用いて、第1学習用画像群を取得する(#01)。第1学習用画像群に対して注目すべき特徴領域を示すアノテーションを付与して第2学習用画像群を作成する(#02)。 First, a first learning image group is acquired using a test drive of a tractor, photographed images acquired by a camera-equipped drone, or a CG device (#01). Annotations indicating noteworthy feature regions are added to the first learning image group to create a second learning image group (#02).

第2学習用画像群から、順次、第2学習用画像を抽出して、第1演算部41を構成する畳み込みニューラルネットワークに入力する(#11)。第2学習用画像を用いて、畳み込みニューラルネットワークによって推定された自動走行情報を出力させる(#21)。推定された自動走行情報と第2学習用画像に付与されているアノテーションで示される自動走行情報との差(誤差)を算出する(#22)。算出された誤差が最小値未満でなければ(#23No分岐)、重み係数を修正して(#24)、ステップ#21に戻り、誤差を縮小する処理を繰り返す。算出された誤差が最小値未満になれば(#23Yes分岐)、その時点の重み係数を記録する(#25)。 Second learning images are sequentially extracted from the second learning image group and input to the convolutional neural network forming the first calculation unit 41 (#11). Automatic driving information estimated by the convolutional neural network is output using the second learning image (#21). The difference (error) between the estimated automatic driving information and the automatic driving information indicated by the annotation added to the second learning image is calculated (#22). If the calculated error is not less than the minimum value (#23 No branch), the weighting coefficient is corrected (#24), and the process returns to step #21 to repeat the process of reducing the error. If the calculated error is less than the minimum value (#23 Yes branch), the weighting coefficient at that time is recorded (#25).

用意されている全ての第2学習用画像を用いた学習処理が終了したかどうかチェックされる(#26)。まだ、学習処理に用いられる第2学習用画像が残っていれば(#26Yes分岐)、ステップ#11に戻って、学習処理を続行する。学習処理に用いられる第2学習用画像が残っていなければ(#26No分岐)、記録されている重み係数に基づいて、最終的な重み係数が決定され(#31)、当該重き係数が畳み込みニューラルネットワークである第1演算部41に設定される(#32)。第2学習用画像群から類似する画像をグループ化して、そのグループ毎に誤差が最小となる重み係数を割り当ててもよい。 It is checked whether the learning process using all the prepared second learning images has been completed (#26). If there are still second learning images to be used in the learning process (#26 Yes branch), the process returns to step #11 to continue the learning process. If the second learning image used for the learning process does not remain (#26 No branch), the final weighting coefficient is determined based on the recorded weighting coefficient (#31), and the weighting coefficient is used as the convolution neural It is set in the first calculation unit 41, which is a network (#32). Similar images from the second learning image group may be grouped, and a weighting coefficient that minimizes the error may be assigned to each group.

第3学習用画像群と第4学習用画像群とを用いた第2演算部42の学習処理も、上述した第1演算部41の学習処理に準じた方法で行われる。学習された第2演算部42は、前方の既作業領域が車体方向転換可能な領域であると認識された場合、車体方向転換のための旋回走行経路を設定し、方向転換して、次の目標走行経路に進入するための操舵量を示す第2自動走行情報を出力するように機能する。 The learning process of the second arithmetic unit 42 using the third learning image group and the fourth learning image group is also performed in a manner similar to the learning process of the first arithmetic unit 41 described above. When the learned second calculation unit 42 recognizes that the front work area is an area where the vehicle direction can be changed, the second calculation unit 42 sets a turning route for changing the vehicle direction, changes the direction, and starts the next operation. It functions to output second automatic travel information indicating the amount of steering for entering the target travel route.

〔別実施の形態〕
(1)上述した実施形態では、自動走行演算部4は、直線(緩やかな湾曲線を含む)状の作業走行を行うための第1自動走行情報を出力するように学習された第1演算部41と、適切な場所で方向転換走行を行うための第1自動走行情報を出力するように学習された第2演算部42とを備えていた。圃場作業車では、さらに、走行障害となる物体(走行障害物)との接触を自動的に回避する機能があれば、好都合である。図11には、走行障害物を回避する機能を有する第3演算部43が追加された自動走行演算部4のブロック図が示されている。第3演算部43は、第3前段演算部43aと第3後段演算部43bとを含む。第3前段演算部43aは、撮影ユニット3から送られてきた圃場画像(前方画像または俯瞰画像)から、走行障害物の存在を推定する。第3後段演算部43b推定された走行障害物と車体1との接触を回避するための回避走行情報(操舵量、減速指令、停車指令、警告など)を含む第3自動走行情報を生成して出力する。その際、操舵によって走行障害物を回避する場合には、回避走行経路を目標走行経路として設定する。なお、第3自動走行情報の生成時にも、圃場の傾斜度や圃場面の凹凸度などの圃場状態が考慮されてもよい。第3前段演算部43a及び第3後段演算部43bは、一体化可能である。
[Another embodiment]
(1) In the embodiment described above, the automatic travel calculation unit 4 is a first calculation unit that is trained to output first automatic travel information for performing work travel in a straight line (including a gentle curved line). 41, and a second calculation unit 42 that is trained to output first automatic driving information for changing direction at an appropriate location. For field work vehicles, it would be advantageous if the vehicle also had a function to automatically avoid contact with objects (traveling obstacles) that would impede the vehicle's travel. FIG. 11 shows a block diagram of the automatic travel calculation section 4 to which a third calculation section 43 having a function of avoiding traveling obstacles is added. The third calculation section 43 includes a third front-stage calculation section 43a and a third rear-stage calculation section 43b. The third front-stage calculation unit 43a estimates the presence of a running obstacle from the field image (front image or bird's-eye view image) sent from the photographing unit 3. The third latter-stage calculation unit 43b generates third automatic driving information including avoidance driving information (steering amount, deceleration command, stop command, warning, etc.) for avoiding contact between the estimated driving obstacle and the vehicle body 1. Output. At this time, when avoiding a traveling obstacle by steering, the avoidance traveling route is set as the target traveling route. Note that field conditions such as the slope of the field and the unevenness of the field may also be taken into consideration when generating the third automatic travel information. The third front-stage calculation section 43a and the third rear-stage calculation section 43b can be integrated.

第3前段演算部43a及び第3後段演算部43bは、畳み込みニューラルネットワークで構成されているので、学習処理が必要である。学習用画像は、圃場に走行障害物が存在している圃場画像(第5学習用画像群)と、当該圃場画像において認識されたるべき走行障害物を示すアノテーションや走行障害物回避のための走行を示すアノテーションが付与された画像群(第6学習用画像群)である。なお、走行障害物として、移動性障害物(人や動物)と非移動性障害物(鉄塔など)とが区別して認識されるように、それぞれ別の学習用画像が用意される。学習処理は、図10のフローチャートに準じて行われる。 Since the third front-stage calculation unit 43a and the third rear-stage calculation unit 43b are configured with a convolutional neural network, learning processing is required. The learning images include field images in which running obstacles exist in the field (fifth learning image group), annotations indicating running obstacles that should be recognized in the field images, and driving to avoid running obstacles. This is a group of images (sixth learning image group) to which an annotation indicating . Note that separate learning images are prepared for moving obstacles (people, animals, etc.) and immobile obstacles (steel towers, etc.) so that they can be recognized separately as traveling obstacles. The learning process is performed according to the flowchart in FIG.

(2)上述した実施形態では、第1自動走行情報、第2自動走行情報、第3自動走行情報に操舵量が含まれていたが、これに代えて、操舵量などの操作指令は、自動走行情報から操舵量を導出する別の演算部によって生成されるようにしてもよい。この場合、圃場情報から操舵量を推定させる学習は不要となる。 (2) In the embodiment described above, the first automated driving information, the second automated driving information, and the third automated driving information included the steering amount, but instead of this, the operation command such as the steering amount is automatically The steering amount may be generated by another calculation unit that derives the steering amount from the driving information. In this case, learning to estimate the steering amount from field information is not necessary.

(3)上述した実施形態では、自動走行演算部4を構築するための機械学習として畳み込みニューラルネットワークが用いられているが、それ以外の人工ニューラルネットワークが用いられてもよい。また、前段演算部と後段演算部とは、同じ形式の機械学習で構築されてもよいし、異なる形式の機械学習で構築されてもよい。 (3) In the embodiment described above, a convolutional neural network is used as machine learning for constructing the automatic driving calculation unit 4, but other artificial neural networks may be used. Further, the first-stage calculation section and the second-stage calculation section may be constructed using the same type of machine learning, or may be constructed using different types of machine learning.

(4)学習処理ユニット6が各圃場作業車の制御系に備えられ、自動走行演算部4と接続されている場合には、手動走行中に撮影ユニット3で取得された撮影画像を学習用画像として用いることができる。アノテーションの付与は運転者によって行うことができる。さらに、運転者による操作や走行軌跡などの情報から、自動的にアノテーション付与を行ってもよい。 (4) When the learning processing unit 6 is provided in the control system of each field work vehicle and is connected to the automatic driving calculation unit 4, the photographed image acquired by the photographing unit 3 during manual driving is used as the learning image. It can be used as Annotations can be added by the driver. Furthermore, annotations may be automatically added based on information such as operations performed by the driver and travel trajectories.

(5)上述した実施形態では、操舵指令に基づいて操舵輪である前輪11の操舵角を調節することで車体1の走行方向が変更された。クローラ式の走行機構を備えた作業車では、これに代えて、操舵指令に基づいて、左右のクローラの速度を調節することで、車体1の走行方向が変更される。 (5) In the embodiment described above, the traveling direction of the vehicle body 1 is changed by adjusting the steering angle of the front wheels 11, which are steered wheels, based on the steering command. In a work vehicle equipped with a crawler-type traveling mechanism, instead, the traveling direction of the vehicle body 1 is changed by adjusting the speeds of the left and right crawlers based on a steering command.

(6)上述した実施形態では、圃場作業車として、トラクタが取り扱われたが、田植機やコンバインなどの他の圃場作業車にも同様な自動走行演算部4を採用することができる。 (6) In the above-described embodiment, a tractor is used as the field work vehicle, but a similar automatic travel calculation unit 4 can be adopted for other field work vehicles such as a rice transplanter or a combine harvester.

本発明は、圃場を自動走行する圃場作業車に適用可能である。 The present invention is applicable to field work vehicles that automatically travel in fields.

3 :撮影ユニット
30 :画像処理部
31 :前カメラ
32 :後カメラ
33 :左カメラ
34 :右カメラ
4 :自動走行演算部
40 :選択部
41 :第1演算部
41a :第1前段演算部
41b :第1後段演算部
42 :第2演算部
42a :第2前段演算部
42b :第2後段演算部
43 :第3演算部
43a :第3前段演算部
43b :第3後段演算部
5 :制御ユニット
50 :入出力信号処理ユニット
52 :自動走行制御部
54 :走行状態検知部
55 :作業状態検知部
6 :学習処理ユニット
3: Photographing unit 30: Image processing section 31: Front camera 32: Rear camera 33: Left camera 34: Right camera 4: Automatic driving calculation section 40: Selection section 41: First calculation section 41a: First stage calculation section 41b: First rear-stage calculation section 42 : Second calculation part 42a : Second former-stage calculation part 42b : Second latter-stage calculation part 43 : Third calculation part 43a : Third former-stage calculation part 43b : Third rear-stage calculation part 5 : Control unit 50 : Input/output signal processing unit 52 : Automatic driving control part 54 : Driving state detection part 55 : Working state detection part 6 : Learning processing unit

Claims (11)

圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、走行経路の基準となる前記未作業領域と前記既作業領域との間の前記境界及び当該境界から求められる境界線を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記境界に沿って自動走行するための情報である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a second learning image group created by adding annotations to the first learning image group, which is the field image, as training data. , the first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group is an image group including the unworked area and the already worked area, which serve as a reference for the driving route. a group of images to which an annotation indicating the boundary between the already worked area and the boundary line determined from the boundary is added;
The automatic driving information is information for automatically driving the field work vehicle along the boundary.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、走行経路の基準となる前記境界及び当該境界から求められる境界線を示すアノテーションと前記境界線を目標走行経路とした場合の位置ずれを示すアノテーションとが付与された画像群であり、
前記自動走行情報は、前記境界に沿って自動走行するための走行経路に対する位置ずれである圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a second learning image group created by adding annotations to the first learning image group, which is the field image, as training data. , the first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group is an image group including the boundary serving as a reference for the driving route and the boundary. A group of images to which an annotation indicating a boundary line determined from the boundary line and an annotation indicating a positional deviation when the boundary line is used as a target travel route are added,
The automatic driving information is a field work vehicle that is a positional deviation with respect to a driving route for automatically driving along the boundary.
前記位置ずれには、前記走行経路に対する横断方向のずれである横位置ずれと、前記走行経路の向きに対する車体方位のずれである方位ずれとが含まれており、
前記自動走行情報は、前記横位置ずれと前記方位ずれである請求項2に記載の圃場作業車。
The positional deviation includes a lateral positional deviation that is a deviation in a transverse direction with respect to the driving route, and an azimuth deviation that is a deviation of the vehicle body orientation with respect to the direction of the driving route,
The field work vehicle according to claim 2, wherein the automatic driving information is the lateral positional deviation and the azimuth deviation.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第2学習用画像群は、前記未作業領域と前記既作業領域との間の境界線を目標走行経路とした場合の位置ずれを示すアノテーションと必要な操舵量を示すアノテーションとが付与された画像群であり、
前記自動走行情報は、前記位置ずれを解消するための操舵量である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a second learning image group created by adding annotations to the first learning image group, which is the field image, as training data. , the first learning image group is an image group including the unworked area and the already worked area of the field, and the second learning image group is an image group including the unworked area and the already worked area. It is a group of images to which an annotation indicating a positional shift when the boundary line between the two is set as the target travel route and an annotation indicating the required steering amount,
The automatic driving information is a steering amount for eliminating the positional deviation of the field work vehicle.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像は、前記既作業領域のうち車体方向転換可能な領域を示すアノテーションが付与された画像であり、
前記自動走行情報は、前記車体方向転換可能な領域である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a fourth learning image created by adding annotations to the third learning image group, which is the field image, as training data. , the third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image is a group of images including the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field. An image with an annotation indicating the area,
The automatic driving information indicates a field work vehicle in which the vehicle body direction can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像は、前記既作業領域のうち車体方向転換可能な領域における車体方向転換のための旋回走行経路を示すアノテーションが付与された画像であり、
前記自動走行情報は、前記車体方向転換可能な領域における車体方向転換のための旋回走行経路である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a fourth learning image created by adding annotations to the third learning image group, which is the field image, as training data. , the third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image is a group of images including the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field. It is an image with an annotation indicating a turning route for changing the direction of the vehicle body in the area,
The automatic driving information is a field work vehicle that is a turning route for changing the vehicle direction in the area where the vehicle direction can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第3学習用画像群にアノテーションを付与して作成された第4学習用画像を教師データとして用いて学習されており、前記第3学習用画像群は、前記圃場の前記未作業領域と前記既作業領域とを含む画像群であり、前記第4学習用画像は、前記既作業領域のうち車体方向転換可能な領域における車体方向転換のために必要な操舵量を示すアノテーションが付与された画像であり、
前記自動走行情報は、前記車体方向転換可能な領域における車体方向転換のために必要な操舵量である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a fourth learning image created by adding annotations to the third learning image group, which is the field image, as training data. , the third learning image group is an image group including the unworked area and the already worked area of the field, and the fourth learning image is a group of images including the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field, and the fourth learning image is an image group that includes the unworked area and the already worked area of the field. This is an image with an annotation indicating the amount of steering necessary to change the direction of the vehicle body in the area,
The automatic driving information is a field work vehicle, which is the amount of steering necessary for changing the direction of the vehicle body in the area where the vehicle direction can be changed.
圃場を自動走行する圃場作業車であって、
少なくとも車体の進行領域を含む前記圃場を撮影して圃場画像を出力する撮影ユニットと、
車速及び操舵量を調整するための走行機器と、
前記圃場画像を入力して、未作業領域と既作業領域との境界と圃場状態とを推定して、自動走行するための自動走行情報を出力するように学習された自動走行演算部と、
前記自動走行情報に基づいて前記走行機器を制御する自動走行制御部と、を備え、
前記自動走行演算部は、畳み込みニューラルネットワークで構築され、前記圃場画像である第1学習用画像群にアノテーションを付与して作成された第2学習用画像群を教師データとして用いて学習されており、前記第1学習用画像群は、前記圃場に走行障害物が存在している画像群であり、前記第2学習用画像群は、走行障害物回避のための走行を示すアノテーションが付与された画像群であり、
前記自動走行情報は、前記走行障害物と前記車体との接触を回避するための回避走行情報である圃場作業車。
A field work vehicle that automatically travels in the field,
a photographing unit configured to photograph the field including at least the area in which the vehicle body advances and output a field image;
a traveling device for adjusting vehicle speed and steering amount;
an automatic driving calculation unit that is trained to input the field image, estimate the boundary between the unworked area and the completed work area, and the field state, and output automatic driving information for automatic driving;
an automatic driving control unit that controls the traveling equipment based on the automatic driving information,
The automatic driving calculation unit is constructed by a convolutional neural network, and is trained using a second learning image group created by adding annotations to the first learning image group, which is the field image, as training data. , the first learning image group is a group of images in which a running obstacle is present in the field, and the second learning image group is annotated with an annotation indicating running to avoid the running obstacle. A group of images,
The automatic driving information is avoidance driving information for avoiding contact between the traveling obstacle and the vehicle body.
前記回避走行情報には、非移動性障害物と推定された前記走行障害物を回避する情報が含まれている請求項8に記載の圃場作業車。 The field work vehicle according to claim 8, wherein the avoidance travel information includes information for avoiding the travel obstacle estimated to be a non-mobile obstacle. 前記回避走行情報には、移動性障害物と推定された前記走行障害物との接触を回避するための減速、停車、警告の少なくとも1つを行うための情報が含まれている請求項8または9に記載の圃場作業車。 9. The avoidance driving information includes information for performing at least one of deceleration, stopping, and warning in order to avoid contact with the driving obstacle estimated to be a moving obstacle. The field work vehicle described in 9. 前記走行機器の状態から走行状態を検知する走行状態検知部が備えられ、
前記走行状態を示す走行状態情報が前記自動走行演算部に入力され、前記走行状態情報には、車速、変速位置、エンジン回転数、エンジン負荷率のうちの少なくとも1つを示すデータが含まれ、
前記回避走行情報には、操舵、車速、変速、制動、前記エンジン回転数のうちの少なくとも1つの変更を指令する制御指令が含まれている請求項8から10のいずれか一項に記載の圃場作業車。
A running state detection unit is provided that detects a running state from the state of the running equipment,
Driving state information indicating the driving state is input to the automatic driving calculation unit, and the driving state information includes data indicating at least one of vehicle speed, shift position, engine rotation speed, and engine load factor;
The farmland according to any one of claims 8 to 10, wherein the avoidance driving information includes a control command for instructing a change in at least one of steering, vehicle speed, gear change, braking, and the engine rotation speed. work vehicle.
JP2022075732A 2018-12-20 2022-05-02 Field work vehicle Active JP7353417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022075732A JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018238897A JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018238897A Division JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle

Publications (2)

Publication Number Publication Date
JP2022106892A JP2022106892A (en) 2022-07-20
JP7353417B2 true JP7353417B2 (en) 2023-09-29

Family

ID=71139573

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018238897A Active JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle
JP2022075732A Active JP7353417B2 (en) 2018-12-20 2022-05-02 Field work vehicle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018238897A Active JP7069001B2 (en) 2018-12-20 2018-12-20 Field work vehicle

Country Status (1)

Country Link
JP (2) JP7069001B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1688640A4 (en) * 2003-10-17 2009-09-02 Jtekt Corp Power transmission chain and power transmission device using the same
JP7069001B2 (en) * 2018-12-20 2022-05-17 株式会社クボタ Field work vehicle
JP2022060022A (en) * 2020-10-02 2022-04-14 株式会社クボタ Combine-harvester
WO2024095802A1 (en) * 2022-11-02 2024-05-10 株式会社クボタ Driving control system, work vehicle, and driving control method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4293404B2 (en) 2000-03-02 2009-07-08 ダイセルノバフォーム株式会社 Foam molded body and method for producing the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2723283B2 (en) * 1989-02-17 1998-03-09 ヤンマー農機株式会社 Control device in work vehicle
JP2944774B2 (en) * 1991-03-20 1999-09-06 ヤンマー農機株式会社 Image processing method for automatic traveling work machine
JP7069001B2 (en) * 2018-12-20 2022-05-17 株式会社クボタ Field work vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4293404B2 (en) 2000-03-02 2009-07-08 ダイセルノバフォーム株式会社 Foam molded body and method for producing the same

Also Published As

Publication number Publication date
JP7069001B2 (en) 2022-05-17
JP2020101943A (en) 2020-07-02
JP2022106892A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
JP7353417B2 (en) Field work vehicle
US11317557B2 (en) Automatic steering system and automatic steering method
RU2720936C2 (en) Agricultural complex with system of control and direction of maneuvers and method implemented by such complex
JP6643094B2 (en) Field work vehicle
JP6189779B2 (en) Work vehicle coordination system
WO2017154715A1 (en) Work vehicle and travel region specification device
JP6525902B2 (en) Field work vehicle
EP3571912A1 (en) Method and system for planning a turn path of a vehicle
WO2016017408A1 (en) Work vehicle cooperation system
CN114859915A (en) Travel area shape registration system
WO2017026080A1 (en) Route designing method for autonomous vehicle
JP7072496B2 (en) Control device for self-driving work vehicles
JP6385412B2 (en) Work vehicle coordination system
WO2020111102A1 (en) Automatic travel control system, automatic travel control program, recording medium having automatic travel control program recorded thereon, automatic travel control method, control device, control program, recording medium having control program recorded thereon, and control method
CN114265409A (en) Track information processing method and device and ground equipment
JP2021007386A (en) Automatic travel system
JP6659630B2 (en) Work vehicle coordination system
WO2021158493A1 (en) System and method of autonomously clearing a windrow
JP2020058384A (en) Farm field work vehicle
JP7206099B2 (en) Control device for self-driving work vehicle
JP2020120655A (en) Work vehicle coordination system
JP6533260B2 (en) Work vehicle coordination system
JP2023001180A (en) Farm field work vehicle
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
JP7224275B2 (en) harvester

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150