JP7068781B2 - Harvester - Google Patents

Harvester Download PDF

Info

Publication number
JP7068781B2
JP7068781B2 JP2017123440A JP2017123440A JP7068781B2 JP 7068781 B2 JP7068781 B2 JP 7068781B2 JP 2017123440 A JP2017123440 A JP 2017123440A JP 2017123440 A JP2017123440 A JP 2017123440A JP 7068781 B2 JP7068781 B2 JP 7068781B2
Authority
JP
Japan
Prior art keywords
recognition
unit
output data
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017123440A
Other languages
Japanese (ja)
Other versions
JP2019004772A (en
Inventor
隼輔 宮下
憲一 石見
一浩 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2017123440A priority Critical patent/JP7068781B2/en
Priority to PCT/JP2018/019444 priority patent/WO2018235486A1/en
Priority to KR1020197031226A priority patent/KR102589076B1/en
Priority to CN201880029905.8A priority patent/CN110582198B/en
Publication of JP2019004772A publication Critical patent/JP2019004772A/en
Application granted granted Critical
Publication of JP7068781B2 publication Critical patent/JP7068781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Combines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、圃場を走行しながら農作物を収穫し、撮影部によって取得された撮影画像に基づく収穫作業支援が可能な収穫機に関する。 The present invention relates to a harvester capable of harvesting agricultural products while traveling in a field and supporting harvesting work based on a photographed image acquired by a photographing unit.

圃場での収穫機を用いた農作物の収穫作業では、局所的に異なる農作物の生育状態や人物を含む障害物の存在に注意を払う必要がある。このため、例えば、特許文献1によるコンバインでは、刈取部の前方の穀稈を撮影するテレビカメラと画像処理装置とが備えられている。画像処理装置は、テレビカメラからの画像と、予め記憶させておいた種々の穀稈の植立状態を示す画像とを比較して、穀稈の特定の状態を検出する。例えば、刈取部前方の穀稈の一部が倒伏していることを、画像処理装置が検出すると、掻込みリールが穀稈倒伏側を下方にして傾動される。これにより、倒伏穀稈の刈取性能が向上する。また、特許文献1のコンバインと同様にテレビカメラと画像処理装置が備えられている特許文献2によるコンバインでは、刈取部の前方に穀稈が存在しないことが検出された場合に、コンバインが枕地に達したものとみなし、カッターへの動力伝達を遮断してカッターを上昇させ、走行速度を減速させる。これにより、枕地での回行中におけるカッターの畦等への衝突が回避されるとともに、コンバインの枕地の回行がスムーズに行われる。 When harvesting crops using a field harvester, attention must be paid to the growing conditions of locally different crops and the presence of obstacles, including people. For this reason, for example, the combine according to Patent Document 1 is provided with a television camera and an image processing device for photographing the grain culm in front of the cutting section. The image processing apparatus detects a specific state of the grain culm by comparing the image from the television camera with the image showing the planting state of various grain culms stored in advance. For example, when the image processing device detects that a part of the grain culm in front of the cutting portion is laid down, the scraping reel is tilted with the culm culm side facing down. This improves the cutting performance of the fallen grain culm. Further, in the combine according to Patent Document 2 provided with a television camera and an image processing device as in the combine of Patent Document 1, when it is detected that there is no grain in front of the harvesting portion, the combine is used as a headland. The power transmission to the cutter is cut off, the cutter is raised, and the traveling speed is reduced. As a result, the collision with the ridges of the cutter during the rotation of the headland is avoided, and the combine headland is smoothly rotated.

特開平11-155340号公報Japanese Unexamined Patent Publication No. 11-155340 特開平11-137062号公報Japanese Unexamined Patent Publication No. 11-137062

特許文献1や特許文献2によるコンバインでは、刈取部前方の穀稈の状態が画像処理技術を用いて検出され、その検出結果に基づいて作業機器の動作が制御される。しかしながら、検出された穀稈の圃場における地図上の実際の位置は考慮されていない。このため、作業走行において問題となる状態の穀稈が検出され、その問題を解決するための回避制御を行うとしても、問題となる穀稈状態を示している領域とコンバインとが遠く離れている場合には、回避制御が早過ぎるとか遅すぎるとかいう問題が生じる。また、回避制御を終了すべきタイミングを適切に決定することも困難である。 In the combine according to Patent Document 1 and Patent Document 2, the state of the grain culm in front of the cutting section is detected by using an image processing technique, and the operation of the working equipment is controlled based on the detection result. However, the actual location on the map in the field of the detected culm is not taken into account. For this reason, even if a grain culm in a problematic state during work running is detected and avoidance control is performed to solve the problem, the area showing the problematic grain culm state and the combine are far apart. In some cases, the problem of avoidance control being too early or too late arises. In addition, it is difficult to appropriately determine the timing at which the avoidance control should be terminated.

上述した実情に鑑み、車体に設けられた撮影部による撮影画像を用いた収穫作業支援が効果的に行われる収穫機が要望されている。 In view of the above-mentioned circumstances, there is a demand for a harvesting machine that effectively supports harvesting work using images taken by a photographing unit provided on the vehicle body.

本発明の第1の特徴は、圃場を走行しながら農作物を収穫する収穫機であって、衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
前記撮影画像において前記認識対象物が前記撮影部から遠くに位置するほど、当該認識対象物の前記推定確率は低減される点にある。
本発明の第2の特徴は、圃場を走行しながら農作物を収穫する収穫機であって、衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
複数の前記認識対象物位置情報が記憶され、記憶された複数の前記認識対象物位置情報が、対応する前記認識出力データに含まれている前記推定確率の統計的演算の結果に基づいて補正される点にある。
本発明の第3の特徴は、圃場を走行しながら農作物を収穫する収穫機であって、衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
前記画像認識モジュールから遂次出力された前記認識出力データを認識出力データ列として一時的かつ経時的に記憶するデータ記憶部と、データ判定部とが備えられ、
前記データ判定部は、前記認識出力データ列において継時的に前後関係となる前記認識出力データの前記推定確率と比べて、所定レベル以上に低い前記推定確率を有する前記認識出力データを不適認識出力データとして判定する点にある。
The first feature of the present invention is a harvester that harvests agricultural products while traveling in a field, and has an aircraft position calculation unit that calculates an aircraft position that is map coordinates of the aircraft based on positioning data from a satellite positioning module. , An image data of a photographing unit provided on the machine body and photographing a field at the time of harvesting work and an image data of photographed images sequentially acquired by the photographing unit are input, and a recognition target in the photographed image exists. An image recognition module that estimates an existing area and outputs recognition output data including an estimated probability when the existing area and the existing area are estimated, and the machine position and the recognition output at the time when the captured image is acquired. It is provided with a recognition target position information generation unit that generates recognition target position information indicating the position of the recognition target on a map from the data.
In the photographed image, the farther the recognition object is from the imaged portion, the lower the estimation probability of the recognition object is.
The second feature of the present invention is a harvester that harvests agricultural products while traveling in a field, and has an aircraft position calculation unit that calculates an aircraft position that is map coordinates of the aircraft based on positioning data from a satellite positioning module. , An image data of a photographing unit provided on the machine body and photographing a field at the time of harvesting work and an image data of photographed images sequentially acquired by the photographing unit are input, and a recognition target in the photographed image exists. An image recognition module that estimates an existing area and outputs recognition output data including an estimated probability when the existing area and the existing area are estimated, and the machine position and the recognition output at the time when the captured image is acquired. It is provided with a recognition target position information generation unit that generates recognition target position information indicating the position of the recognition target on a map from the data.
A plurality of the recognized object position information is stored, and the stored plurality of the recognized object position information is corrected based on the result of the statistical calculation of the estimated probability included in the corresponding recognition output data. There is a point.
The third feature of the present invention is a harvester that harvests agricultural products while traveling in a field, and has an aircraft position calculation unit that calculates an aircraft position that is map coordinates of the aircraft based on positioning data from a satellite positioning module. , An image data of a photographing unit provided on the machine body and photographing a field at the time of harvesting work and an image data of photographed images sequentially acquired by the photographing unit are input, and a recognition target in the photographed image exists. An image recognition module that estimates an existing area and outputs recognition output data including an estimated probability when the existing area and the existing area are estimated, and the machine position and the recognition output at the time when the captured image is acquired. It is provided with a recognition target position information generation unit that generates recognition target position information indicating the position of the recognition target on a map from the data.
A data storage unit that temporarily and temporally stores the recognition output data sequentially output from the image recognition module as a recognition output data string, and a data determination unit are provided.
The data determination unit inappropriately recognizes and outputs the recognition output data having the estimation probability lower than a predetermined level as compared with the estimation probability of the recognition output data which has a temporal relationship in the recognition output data string. The point is to judge as data.

本発明では、撮影画像である画像データから、撮影画像における認識対象物が存在する存在領域を推定する画像認識モジュールが、例えば、ニューラルネットワーク(ディープラーニングを含む)や強化学習などの技術を用いて構成されている。また、当該存在領域を推定した際の推定確率も同時に出力することができるように構成されているので、その確率値を用いた最適制御も可能となる。さらには、撮影画像が取得された時点の地図座標で示された機体位置が、機体位置算出部によって算出され、当該機体位置と、認識対象物の存在領域を示す認識出力データとから、認識対象物の地図上の位置を示す認識対象物位置情報が生成される。このような構成から、認識対象物の存在領域を推定する推定確率、及び、当該認識対象物の地図上の位置、結果的には当該認識対象物と収穫機との距離を考慮した収穫作業支援の制御が可能となる。 In the present invention, the image recognition module that estimates the existence region where the recognition target exists in the captured image from the image data that is the captured image uses, for example, a technique such as a neural network (including deep learning) or reinforcement learning. It is configured. Further, since the estimated probability when the existing region is estimated can be output at the same time, the optimum control using the probability value is also possible. Furthermore, the aircraft position indicated by the map coordinates at the time when the captured image is acquired is calculated by the aircraft position calculation unit, and is recognized from the aircraft position and the recognition output data indicating the area where the recognition target is present. Recognized object position information indicating the position of the object on the map is generated. From such a configuration, the harvesting work support considering the estimated probability of estimating the existence area of the perceptible object, the position on the map of the perceptible object, and as a result, the distance between the perceptible object and the harvester. Can be controlled.

撮影部によって撮影された圃場の撮影画像では、遠近法の関係で、撮影部から遠い認識対象物に対する分解能は、撮影部から近い認識対象物に対する分解能に比べて低下する。このことから、撮影部から遠い場所で写っている認識対象物は、撮影部から近い場所で写っている認識対象物に比べてその認識信頼性は低いものとなってしまう。このことから、本発明の第1の特徴では、前記撮影画像において前記認識対象物が前記撮影部から遠くに位置するほど、当該認識対象物の前記推定確率は低減されるように構成されている。 In the captured image of the field photographed by the photographing unit, the resolution for the perceptible object far from the photographing unit is lower than the resolution for the perceptible object near the photographing unit due to the perspective method. For this reason, the recognition object that is photographed at a place far from the photographing unit has lower recognition reliability than the recognition object that is photographed at a place close to the photographing unit. Therefore, in the first feature of the present invention, the estimation probability of the perceptible object is reduced as the recognition object is located farther from the imaging unit in the photographed image. ..

撮像画像に基づく認識対象物位置情報の生成は、収穫機の車速と比較して高速で行うことができるので、同一の認識対象物に関する認識対象物位置情報は複数生成される。このため、同一の認識対象物に関する複数の認識対象物位置情報に含まれているそれぞれの推定確率を統計的演算することが可能となる。この統計的演算を通じて、より信頼度の高い認識対象物位置情報を生成することができる。ここでの統計的演算とは、算術平均、重み平均、中間値演算などであり、複数のデータ値からより信頼性の高いデータ値が導出されるような演算である。このような統計的演算を推定確率に対して利用することで、複数の認識対象物位置情報から、より適切な認識対象物位置情報を導出することが可能となる。このことから、本発明の第2の特徴では、複数の前記認識対象物位置情報が記憶され、記憶された複数の前記認識対象物位置情報が、対応する前記認識出力データに含まれている前記推定確率の統計的演算の結果に基づいて補正されるように構成されている。 Since the generation of the perceptible object position information based on the captured image can be performed at a higher speed than the vehicle speed of the harvester, a plurality of perceptible object position information relating to the same perceptible object is generated. Therefore, it is possible to statistically calculate each estimated probability included in a plurality of recognition object position information regarding the same recognition object. Through this statistical calculation, more reliable recognition object position information can be generated. The statistical operation here is an arithmetic mean, a weight average, an intermediate value operation, or the like, and is an operation in which a more reliable data value is derived from a plurality of data values. By using such a statistical calculation for the estimation probability, it is possible to derive more appropriate recognition object position information from a plurality of recognition object position information. Therefore, in the second feature of the present invention, a plurality of the recognition target position information is stored, and the stored plurality of recognition target position information is included in the corresponding recognition output data. It is configured to be corrected based on the result of a statistical calculation of the estimated probability.

機体に設けられた撮影部によって取得された撮影画像は、画像認識モジュールの入力ソースとなるにもかかわらず、撮影条件によって認識対象物の認識に不適当なものとなってしまう可能性がある。その結果、認識対象物が認識されたとしても、その認識出力データの認識確率は低いものとなってしまうので、当該認識出力データを、その後の処理にそのまま利用することは好ましくはない。このことから、本発明の第3の特徴では、前記画像認識モジュールから遂次出力された前記認識出力データを認識出力データ列として一時的かつ経時的に記憶するデータ記憶部と、データ判定部とが備えられ、前記データ判定部は、前記認識出力データ列において継時的に前後関係となる前記認識出力データの前記推定確率と比べて、所定レベル以上に低い前記推定確率を有する前記認識出力データを不適認識出力データとして判定する。不適認識出力データと判定された認識出力データは削除してもよいし、当該認識出力データの推定確率を、前後の認識出力データで補間した推定確率が置き換えるようにしてもよい。 Although the captured image acquired by the photographing unit provided on the machine body is an input source of the image recognition module, it may be unsuitable for recognizing the recognition target depending on the photographing conditions. As a result, even if the recognition object is recognized, the recognition probability of the recognition output data is low, so it is not preferable to use the recognition output data as it is for the subsequent processing. Therefore, in the third feature of the present invention, a data storage unit that temporarily and temporally stores the recognition output data sequentially output from the image recognition module as a recognition output data string, and a data determination unit. The data determination unit is provided with the recognition output data having the estimation probability lower than a predetermined level as compared with the estimation probability of the recognition output data which has a temporal relationship in the recognition output data string. Is determined as inappropriate recognition output data. The recognition output data determined to be inappropriate recognition output data may be deleted, or the estimation probability of the recognition output data may be replaced with the estimation probability interpolated by the recognition output data before and after.

圃場を走行しながら農作物を収穫する収穫機にとって重要となる認識対象物は、人物、倒伏穀稈、雑草、畦などである。作業走行の障害物となる人物を認識することは、障害物回避制御や障害物警報報知のトリガーとなるため、圃場における安全走行のために重要である。倒伏穀稈や雑草を認識することは、作業制御における倒伏穀稈対策制御や雑草対策制御のとなるため、高品質の収穫作業を行うために重要である。畦を認識することは、圃場の境界線を検出することになり、圃場の枕地走行制御等にとって重要である。 Perceptible objects that are important for harvesters who harvest crops while traveling in the field are people, fallen culms, weeds, and ridges. Recognizing a person who becomes an obstacle in work driving is important for safe driving in the field because it triggers obstacle avoidance control and obstacle warning notification. Recognizing the fallen culm and weeds is important for high-quality harvesting work because it serves as a control for the fallen culm and weeds in the work control. Recognizing the ridges will detect the boundary line of the field, which is important for controlling the running of the headland in the field.

コンバインの全体側面図である。It is an overall side view of a combine. コンバインの制御系を示す機能ブロック図である。It is a functional block diagram which shows the control system of a combine. 画像認識モジュールによる認識出力データの生成の流れを模式的に示す説明図である。It is explanatory drawing which shows typically the flow of the generation of recognition output data by an image recognition module. 撮像画像から認識対象物位置情報を生成する際のデータの流れを示すデータ流れ図である。It is a data flow chart which shows the flow of data at the time of generating the recognition object position information from a captured image. 認識対象物位置情報の1つとしての雑草位置情報をマップ化することによって得られた雑草マップを示す模式図である。It is a schematic diagram which shows the weed map obtained by mapping the weed position information as one of the recognition object position information.

以下、本発明に係る収穫機の一例としてのコンバインの実施形態を図面に基づいて説明する。この実施形態で、機体1の前後方向を定義するときは、作業状態における機体進行方向に沿って定義する。図1に符号(F)で示す方向が機体前側、図1に符号(B)で示す方向が機体後側である。機体1の左右方向を定義するときは、機体進行方向視で見た状態で左右を定義する。 Hereinafter, an embodiment of the combine as an example of the harvester according to the present invention will be described with reference to the drawings. In this embodiment, when the front-rear direction of the machine 1 is defined, it is defined along the traveling direction of the machine in the working state. The direction indicated by the reference numeral (F) in FIG. 1 is the front side of the aircraft, and the direction indicated by the reference numeral (B) in FIG. 1 is the rear side of the aircraft. When defining the left-right direction of the aircraft 1, the left-right direction is defined as viewed from the direction of travel of the aircraft.

図1に示すように、コンバインでは、左右一対のクローラ走行装置10を備えた機体1の前部に横軸芯X周りで昇降操作自在に刈取部2が連結されている。機体1の後部には、機体横幅方向に並ぶ状態で脱穀装置11と、穀粒を貯留する穀粒タンク12とが備えられている。機体1の前部右側箇所に搭乗運転部を覆うキャビン14が備えられ、このキャビン14の下方に駆動用のエンジン15が備えられている。 As shown in FIG. 1, in the combine, the cutting section 2 is connected to the front portion of the machine body 1 provided with the pair of left and right crawler traveling devices 10 so as to be freely raised and lowered around the horizontal axis X. The rear part of the machine body 1 is provided with a threshing device 11 in a state of being lined up in the horizontal direction of the machine body, and a grain tank 12 for storing grains. A cabin 14 that covers the boarding operation unit is provided on the right side of the front portion of the aircraft 1, and a driving engine 15 is provided below the cabin 14.

図1に示すように、脱穀装置11は、刈取部2で刈り取られて後方に搬送されてくる刈取穀稈を内部に受け入れて、穀稈の株元を脱穀フィードチェーン111と挟持レール112とによって挟持して搬送しながら穂先側を扱胴113にて脱穀処理する。そして、扱胴113の下方に備えられた選別部にて脱穀処理物に対する穀粒選別処理が実行され、そこで選別された穀粒が穀粒タンク12へ搬送され、貯留される。また、詳述はしないが、穀粒タンク12にて貯留される穀粒を外部に排出する穀粒排出装置13が備えられている。 As shown in FIG. 1, the threshing device 11 receives the harvested culm cut by the cutting unit 2 and transported to the rear inside, and the threshing feed chain 111 and the holding rail 112 are used to transfer the stock of the culm to the inside. While sandwiching and transporting, the tip side is handled and threshed by the barrel 113. Then, a grain sorting process for the threshed product is executed in the sorting section provided below the handling cylinder 113, and the sorted grains are transported to the grain tank 12 and stored. Further, although not described in detail, a grain discharge device 13 for discharging grains stored in the grain tank 12 to the outside is provided.

刈取部2には、倒伏した植立穀稈を引き起こす複数の引き起こし装置21、引起された植立穀稈の株元を切断するバリカン型の切断装置22、穀稈搬送装置23等が備えられている。穀稈搬送装置23は、株元が切断された縦姿勢の刈取穀稈を徐々に横倒れ姿勢に変更させながら、機体後方側に位置する脱穀装置11の脱穀フィードチェーン111の始端部に向けて搬送する。 The cutting unit 2 is provided with a plurality of raising devices 21 that cause a fallen planted culm, a clipper-type cutting device 22 that cuts the root of the raised planted culm, a grain culm transport device 23, and the like. There is. The grain culm transport device 23 gradually changes the cut grain culm in the vertical position from which the stock root has been cut to the sideways position, toward the starting end of the threshing feed chain 111 of the threshing device 11 located on the rear side of the machine body. Transport.

穀稈搬送装置23は、切断装置22により刈り取られた複数条の刈取穀稈を刈幅方向中央に寄せ集めながら搬送する合流搬送部231、寄せ集めた刈取穀稈の株元を挟持して後方に搬送する株元挟持搬送装置232、刈取穀稈の穂先側を係止搬送する穂先係止搬送装置233、株元挟持搬送装置232の終端部から刈取穀稈の株元を脱穀フィードチェーン111に向けて案内する供給搬送装置234等を備えている。 The grain culm transport device 23 sandwiches and rearward a confluence transport section 231 that transports a plurality of cut grain culms cut by the cutting device 22 while gathering them in the center in the cutting width direction, and a stock base of the gathered cut grain culms. From the end of the stock root holding and transporting device 232, the tip locking transporting device 233 that locks and transports the tip side of the harvested culm, and the stock root holding and transporting device 232, the stock of the harvested culm is transferred to the grain removal feed chain 111. It is equipped with a supply / transport device 234 and the like to guide the culm.

キャビン14の天井部の前端に、カラーカメラを備えた撮影部70が設けられている。
この実施形態では、撮影部70の撮影視野の前後方向の広がりは、刈取部2の前端領域からほぼ地平線に達している。撮影視野の幅方法の広がりは、10m程度から数十mに達している。撮影部70によって取得された撮影画像は、画像データ化され、コンバインの制御系に送られる。
A shooting unit 70 equipped with a color camera is provided at the front end of the ceiling portion of the cabin 14.
In this embodiment, the expansion of the photographing field of view of the photographing unit 70 in the front-rear direction reaches substantially the horizon from the front end region of the cutting unit 2. The width of the shooting field of view has expanded from about 10 m to several tens of meters. The captured image acquired by the photographing unit 70 is converted into image data and sent to the control system of the combine.

撮影部70は、収穫作業時に圃場を撮影するが、圃場には種々の物体が撮影対象として存在している。コンバインの制御系は、撮影部70から送られてきた画像データから特定の物体を認識対象物として認識する機能を有する。そのような認識対象物として、図1では、符号Z0で示された正常な植立穀稈群、符号Z1で示された植立穀稈より高く伸びた雑草群、符号Z2で示された倒伏穀稈群、符号Z3で示された人物が模式的に示されている。 The photographing unit 70 photographs the field at the time of harvesting work, and various objects exist as objects to be photographed in the field. The combine control system has a function of recognizing a specific object as a recognition target from the image data sent from the photographing unit 70. As such recognition objects, in FIG. 1, the normal planted culm group indicated by the symbol Z0, the weed group extending higher than the planted culm indicated by the symbol Z1, and the lodging indicated by the symbol Z2. The culm group, the person indicated by reference numeral Z3, is schematically shown.

キャビン14の天井部には、衛星測位モジュール80も設けられている。衛星測位モジュール80には、GNSS(global navigation satellite system)信号(GPS信号を含む)を受信するための衛星用アンテナが含まれている。衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサを組み込んだ慣性航法ユニットが衛星測位モジュール80に組み込まれている。もちろん、慣性航法ユニットは別の場所に配置できる。図1において、衛星測位モジュール80は、作図の便宜上、キャビン14の天井部における後部に配置されているが、例えば、切断装置22の左右中央部の直上方位置にできるだけ近づくように、天井部の前端部における機体中央側寄りの位置に配置されていると好適である。 A satellite positioning module 80 is also provided on the ceiling of the cabin 14. The satellite positioning module 80 includes a satellite antenna for receiving GNSS (global navigation satellite system) signals (including GPS signals). In order to complement the satellite navigation by the satellite positioning module 80, an inertial navigation unit incorporating a gyro acceleration sensor and a magnetic orientation sensor is incorporated in the satellite positioning module 80. Of course, the inertial navigation unit can be placed elsewhere. In FIG. 1, the satellite positioning module 80 is arranged at the rear part of the ceiling part of the cabin 14 for convenience of drawing. It is preferable that it is arranged at a position closer to the center side of the aircraft at the front end portion.

図2には、コンバインの制御系の機能ブロック図が示されている。この実施形態の制御系は、多数のECUと呼ばれる電子制御ユニットと、各種動作機器、センサ群やスイッチ群、それらの間のデータ伝送を行う車載LANなどの配線網から構成されている。報知デバイス91は、運転者等に作業走行状態や種々の警告を報知するためのデバイスであり、ブザー、ランプ、スピーカ、ディスプレイなどである。通信部92は、このコンバインの制御系が、遠隔地に設置されているクラウドコンピュータシステム100や携帯通信端末200との間でデータ交換するために用いられる。携帯通信端末200は、ここでは、作業走行現場における監視者(運転者も含む)が操作するタブレットコンピュータである。
制御ユニット6は、この制御系の中核要素であり、複数のECUの集合体として示されている。衛星測位モジュール80からの測位データ、及び、撮影部70からの画像データは、配線網を通じて制御ユニット6に入力される。
FIG. 2 shows a functional block diagram of the combine control system. The control system of this embodiment is composed of a large number of electronic control units called ECUs, various operating devices, sensor groups and switch groups, and a wiring network such as an in-vehicle LAN that transmits data between them. The notification device 91 is a device for notifying a driver or the like of a work running state and various warnings, and is a buzzer, a lamp, a speaker, a display, and the like. The communication unit 92 is used for the control system of the combine to exchange data with the cloud computer system 100 and the mobile communication terminal 200 installed in a remote place. Here, the mobile communication terminal 200 is a tablet computer operated by a monitor (including a driver) at a work traveling site.
The control unit 6 is a core element of this control system and is shown as an aggregate of a plurality of ECUs. The positioning data from the satellite positioning module 80 and the image data from the photographing unit 70 are input to the control unit 6 through the wiring network.

制御ユニット6は、入出力インタフェースとして、出力処理部6Bと入力処理部6Aとを備えている。出力処理部6Bは、車両走行機器群7A及び作業装置機器群7Bと接続している。車両走行機器群7Aには、車両走行に関する制御機器、例えばエンジン制御機器、変速制御機器、制動制御機器、操舵制御機器などが含まれている。作業装置機器群7Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における動力制御機器などが含まれている。 The control unit 6 includes an output processing unit 6B and an input processing unit 6A as input / output interfaces. The output processing unit 6B is connected to the vehicle traveling equipment group 7A and the working equipment group 7B. The vehicle traveling device group 7A includes control devices related to vehicle traveling, such as an engine control device, a shift control device, a braking control device, and a steering control device. The working equipment group 7B includes a cutting unit 2, a threshing device 11, a grain discharging device 13, a power control device in the grain culm transport device 23, and the like.

入力処理部6Aには、走行系検出センサ群8Aや作業系検出センサ群8Bなどが接続されている。走行系検出センサ群8Aには、エンジン回転数調整具、アクセルペダル、ブレーキペダル、変速操作具などの状態を検出するセンサが含まれている。作業系検出センサ群8Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における装置状態及び穀稈や穀粒の状態を検出するセンサが含まれている。 A traveling system detection sensor group 8A, a working system detection sensor group 8B, and the like are connected to the input processing unit 6A. The traveling system detection sensor group 8A includes a sensor that detects the state of the engine speed adjusting tool, the accelerator pedal, the brake pedal, the speed change operating tool, and the like. The working system detection sensor group 8B includes a sensor for detecting the device state in the cutting unit 2, the threshing device 11, the grain discharging device 13, the grain culm transport device 23, and the state of the grain culm and the grain.

制御ユニット6には、作業走行制御モジュール60、画像認識モジュール5、データ処理モジュール50、機体位置算出部66、報知部67が備えられている。 The control unit 6 includes a work travel control module 60, an image recognition module 5, a data processing module 50, an aircraft position calculation unit 66, and a notification unit 67.

報知部67は、制御ユニット6の各機能部からの指令等に基づいて報知データを生成し、報知デバイス91に与える。機体位置算出部66は、衛星測位モジュール80から逐次送られてくる測位データに基づいて、機体1の地図座標(または圃場座標)である機体位置を算出する。 The notification unit 67 generates notification data based on a command or the like from each functional unit of the control unit 6 and gives the notification data to the notification device 91. The aircraft position calculation unit 66 calculates the aircraft position, which is the map coordinates (or field coordinates) of the aircraft 1, based on the positioning data sequentially sent from the satellite positioning module 80.

この実施形態のコンバインは自動走行(自動操舵)と手動走行(手動操舵)の両方で走行可能である。作業走行制御モジュール60には、走行制御部61と作業制御部62とに加えて、自動作業走行指令部63及び走行経路設定部64が備えられている。自動操舵で走行する自動走行モードと、手動操舵で走行する手動操舵モードとのいずれかを選択する走行モードスイッチ(非図示)がキャビン14内に設けられている。この走行モードスイッチを操作することで、手動操舵走行から自動操舵走行への移行、あるいは自動操舵走行から手動操舵走行への移行が可能である。 The combine of this embodiment can travel in both automatic driving (automatic steering) and manual driving (manual steering). The work travel control module 60 is provided with an automatic work travel command unit 63 and a travel route setting unit 64 in addition to the travel control unit 61 and the work control unit 62. A traveling mode switch (not shown) for selecting between an automatic traveling mode for traveling by automatic steering and a manual steering mode for traveling by manual steering is provided in the cabin 14. By operating this travel mode switch, it is possible to shift from manual steering running to automatic steering running, or from automatic steering running to manual steering running.

走行制御部61は、エンジン制御機能、操舵制御機能、車速制御機能などを有し、車両走行機器群7Aに走行制御信号を与える。作業制御部62は、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23などの動きを制御するために、作業装置機器群7Bに作業制御信号を与える。 The travel control unit 61 has an engine control function, a steering control function, a vehicle speed control function, and the like, and gives a travel control signal to the vehicle travel equipment group 7A. The work control unit 62 gives a work control signal to the work equipment group 7B in order to control the movements of the cutting unit 2, the threshing device 11, the grain discharge device 13, the grain culm transport device 23, and the like.

手動操舵モードが選択されている場合、運転者による操作に基づいて、走行制御部61が制御信号を生成し、車両走行機器群7Aを制御する。自動操舵モードが選択されている場合、自動作業走行指令部63によって与えられる自動走行指令に基づいて、走行制御部61は、操舵に関する車両走行機器群7Aや車速に関する車両走行機器群7Aを制御する。 When the manual steering mode is selected, the travel control unit 61 generates a control signal and controls the vehicle travel equipment group 7A based on the operation by the driver. When the automatic steering mode is selected, the travel control unit 61 controls the vehicle travel equipment group 7A related to steering and the vehicle travel equipment group 7A related to vehicle speed based on the automatic travel command given by the automatic work travel command unit 63. ..

走行経路設定部64は、制御ユニット6、携帯通信端末200、クラウドコンピュータシステム100などのいずれかで作成された自動走行のための走行経路を、走行経路をメモリに展開する。メモリに展開された走行経路は、順次自動走行における目標走行経路として用いられる。この走行経路は、手動走行であっても、コンバインが当該走行経路に沿って走行するためのガイダンスのために利用することも可能である。 The travel route setting unit 64 expands the travel route for automatic travel created by any one of the control unit 6, the mobile communication terminal 200, the cloud computer system 100, etc. into the memory. The travel route expanded in the memory is used as a target travel route in sequential automatic travel. This travel route can be used for guidance for the combine to travel along the travel route even in manual travel.

自動作業走行指令部63は、より詳しくは、自動操舵指令及び車速指令を生成して、走行制御部61に与える。自動操舵指令は、走行経路設定部64によって走行経路と、機体位置算出部66によって算出された自車位置との間の方位ずれ及び位置ずれを解消するように生成される。車速指令は、前もって設定された車速値に基づいて生成される。さらに、自動作業走行指令部63は、作業制御部62に、自車位置や自車の走行状態に応じて、作業装置動作指令を与える。 More specifically, the automatic work travel command unit 63 generates an automatic steering command and a vehicle speed command and gives them to the travel control unit 61. The automatic steering command is generated so as to eliminate the directional deviation and the positional deviation between the traveling route and the own vehicle position calculated by the aircraft position calculation unit 66 by the traveling route setting unit 64. The vehicle speed command is generated based on a preset vehicle speed value. Further, the automatic work travel command unit 63 gives a work device operation command to the work control unit 62 according to the position of the own vehicle and the travel state of the own vehicle.

画像認識モジュール5には、撮影部70によって継時的に遂次取得された撮影画像の画像データが入力される。画像認識モジュール5は、この撮影画像における認識対象物が存在する存在領域を推定し、存在領域及び存在領域が推定された際の推定確率を含む認識出力データを、認識結果として出力する。画像認識モジュール5は、深層学習を採用したニューラルネットワーク技術を用いて構築されている。 Image data of captured images sequentially acquired by the photographing unit 70 is input to the image recognition module 5. The image recognition module 5 estimates the existence region in which the recognition target exists in the captured image, and outputs the recognition output data including the existence region and the estimation probability when the existence region is estimated as the recognition result. The image recognition module 5 is constructed by using a neural network technique that employs deep learning.

画像認識モジュール5による認識出力データの生成の流れが、図3及び図4に示されている。画像認識モジュール5には、RGB画像データの画素値が入力値として入力される。図3の図例では、推定される認証対象物は、雑草と倒伏穀稈と人物である。したがって、認識結果としての認識出力データには、雑草の存在領域(以下、雑草領域と称する)とその推定確率、倒伏穀稈の存在領域(以下、倒伏穀稈領域と称する)とその推定確率、人物の存在領域(以下、人物領域と称する)とその推定確率が含まれる。 The flow of generating the recognition output data by the image recognition module 5 is shown in FIGS. 3 and 4. The pixel value of the RGB image data is input to the image recognition module 5 as an input value. In the example of FIG. 3, the presumed objects to be certified are weeds, fallen culms and people. Therefore, in the recognition output data as the recognition result, the existence region of the weed (hereinafter referred to as the weed region) and its estimated probability, the existence region of the lodging grain (hereinafter referred to as the lodging grain region) and its estimated probability, The area where the person exists (hereinafter referred to as the person area) and its estimated probability are included.

図3では、推定結果は模式化されており、雑草領域は符号F1を付与された矩形の枠で示され、倒伏穀稈領域は符号F2を付与された矩形の枠で示され、人物領域は符号F3を付与された矩形の枠で示されている。それぞれの領域には、その推定確率がリンクされる。雑草領域、倒伏穀稈領域、人物領域は、それぞれ4つのコーナ点で規定されるが、そのような各矩形の4つのコーナ点の撮影画像上の座標位置も推定結果に含まれている。もちろん、認証対象物が推定されなければ、認証対象物の存在領域は出力されず、その推定確率はゼロとなる。 In FIG. 3, the estimation results are schematically shown, the weed area is shown by a rectangular frame with the symbol F1, the fallen culm area is shown by the rectangular frame with the code F2, and the person area is shown. It is shown by a rectangular frame with the reference numeral F3. The estimated probabilities are linked to each region. The weed area, the fallen culm area, and the person area are each defined by four corner points, and the coordinate positions of the four corner points of each rectangle on the captured image are also included in the estimation result. Of course, if the authentication target is not estimated, the area where the authentication target exists is not output, and the estimation probability is zero.

なお、この実施形態では、画像認識モジュール5は、撮影画像において認識対象物が撮影部70から遠くに位置するほど、当該認識対象物の推定確率は低減されるように内部パラメータを設定している。これにより、撮影部70から遠く離れているために分解能が低くなっている撮影領域における認識対象物の認識を厳しくし、誤認識を低減させている。 In this embodiment, the image recognition module 5 sets an internal parameter so that the estimation probability of the recognition target is reduced as the recognition target is located farther from the shooting unit 70 in the captured image. .. As a result, the recognition of the perceptible object in the photographing region where the resolution is low because it is far away from the photographing unit 70 is strict, and the erroneous recognition is reduced.

データ処理モジュール50は、画像認識モジュール5から出力された認識出力データを処理する。図2及び図4に示すように、この実施形態のデータ処理モジュール50には、認識対象物位置情報生成部51、統計処理部52、データ記憶部53、データ判定部54、データ補正部55が含まれている。 The data processing module 50 processes the recognition output data output from the image recognition module 5. As shown in FIGS. 2 and 4, the data processing module 50 of this embodiment includes a recognition object position information generation unit 51, a statistical processing unit 52, a data storage unit 53, a data determination unit 54, and a data correction unit 55. include.

認識対象物位置情報生成部51は、撮影画像が取得された時点の機体位置と認識出力データとから、認識対象物の地図上の位置を示す認識対象物位置情報を生成する。認識出力データに含まれている認識対象物(雑草、倒伏穀稈、人物)が存在する地図上の位置は、認証対象物の存在領域(雑草領域、倒伏穀稈領域、人物領域)を示す矩形の4つのコーナ点の撮影画像上の座標位置(カメラ座標位置)を、地図上の座標に変換することで得られる。 The recognition target position information generation unit 51 generates recognition target position information indicating the position of the recognition target on the map from the aircraft position at the time when the captured image is acquired and the recognition output data. The position on the map where the recognition object (weed, fallen grain image, person) included in the recognition output data exists is a rectangle indicating the existence area (weed area, fallen grain image area, person area) of the authentication target object. It is obtained by converting the coordinate positions (camera coordinate positions) on the captured image of the four corner points into the coordinates on the map.

撮影部70は、所定時間間隔、例えば0.5秒間隔で撮影画像を取得し、その画像データを画像認識モジュール5に入力するので、画像認識モジュール5も、同じ時間間隔で、認識出力データを出力する。したがって、撮影部70の撮影視野に認識対象物が入っていた場合には、複数の認識出力データが同一の認識対象物に対する存在領域を含むことになる。その結果、同一の認識対象物に対する複数の認識対象物位置情報が得られる。その際、各元データである認識出力データに含まれている推定確率、つまり認識対象物位置情報に含まれる認識対象物の存在領域の推定確率は、撮影部70と認識対象物との間の位置関係が相違することから、違う値となることが多い。 Since the photographing unit 70 acquires captured images at predetermined time intervals, for example, 0.5 second intervals, and inputs the image data to the image recognition module 5, the image recognition module 5 also outputs recognition output data at the same time intervals. Output. Therefore, when the recognition target is included in the shooting field of view of the shooting unit 70, the plurality of recognition output data include the existence region for the same recognition target. As a result, a plurality of recognition target position information for the same recognition target can be obtained. At that time, the estimated probability included in the recognition output data which is each original data, that is, the estimated probability of the existence area of the recognized object included in the recognized object position information is determined between the photographing unit 70 and the recognized object. Since the positional relationship is different, the values are often different.

したがって、この実施形態では、そのような複数の認識対象物位置情報が記憶され、記憶された複数の認識対象物位置情報のそれぞれに含まれる推定確率が統計的演算される。
統計処理部52は、複数の認識対象物位置情報の推定確率に対する統計的な演算を用いて、推定確率群の代表値を求める。その代表値を用いて、複数の認識対象物位置情報を、1つの最適認識対象物位置情報(認識対象物補正位置情報)に補正することができる。そのような補正の一例は、各推定確率の算術平均値または重み平均値あるいは中間値を基準値(代表値)として求め、その基準値以上の推定確率を有する存在領域の論理和を求め、それを最適存在領域とする補正認識対象物位置情報を生成することである。もちろん、これ以外の統計的演算を用いて信頼性の高い1つの認識対象物位置情報を生成することも可能である。つまり、複数の認識対象物位置情報が、当該認識対象物位置情報に対応する認識出力データに含まれている推定確率の統計的演算の結果に基づいて補正されるのである。
Therefore, in this embodiment, such a plurality of recognized object position information is stored, and the estimated probability included in each of the stored plurality of recognized object position information is statistically calculated.
The statistical processing unit 52 obtains a representative value of the estimated probability group by using a statistical calculation for the estimated probabilities of a plurality of recognition object position information. Using the representative value, a plurality of recognition object position information can be corrected to one optimum recognition object position information (recognition target correction position information). An example of such a correction is to obtain the arithmetic mean value, weighted mean value, or median value of each estimated probability as a reference value (representative value), and obtain the logical sum of existing regions having an estimated probability equal to or higher than the reference value. Is to generate the correction recognition target position information with the optimum existence area. Of course, it is also possible to generate one highly reliable perceptible object position information by using other statistical operations. That is, the plurality of recognition target position information is corrected based on the result of the statistical calculation of the estimated probability included in the recognition output data corresponding to the recognition target position information.

このようにして求められた認証対象物の存在領域(雑草領域、倒伏穀稈領域、人物領域)の地図上の位置を示す認識対象物位置情報(雑草位置情報、倒伏穀稈位置情報、人物位置情報)を用いることで、雑草、倒伏穀稈、人物の認識時において、それぞれ予め設定された走行作業制御や警告報知が行われる。 Recognition object position information (weed position information, fallen culm position information, person position) indicating the position on the map of the existence area (weed area, fallen culm area, person area) of the authentication target obtained in this way. Information) is used to perform preset running work control and warning notification when recognizing weeds, fallen culms, and people.

上述したように、本発明では、画像認識モジュール5から出力される推定確率は、最終的な認識対象物位置情報の生成にとって重要である。このため、この実施形態では、画像認識モジュール5から出力された認識出力データの推定確率の信頼性を調べて、信頼できない推定確率を有する認識出力データを不適認識出力データと判定する認識出力データ評価機能が、データ処理モジュール50に備えられている。 As described above, in the present invention, the estimated probability output from the image recognition module 5 is important for the generation of the final recognition target position information. Therefore, in this embodiment, the recognition output data evaluation that examines the reliability of the estimation probability of the recognition output data output from the image recognition module 5 and determines that the recognition output data having an unreliable estimation probability is inappropriate recognition output data. The function is provided in the data processing module 50.

認識出力データ評価機能は、図2及び図4に示すように、データ記憶部53と、データ判定部54と、データ補正部55とによって実現する。データ記憶部53は、画像認識モジュール5から遂次出力された認識出力データを認識出力データ列として一時的かつ経時的に記憶する。データ判定部54は、認識出力データ列において、判定対象となる認識出力データの推定確率と、当該認識出力データに対して継時的に前後関係となる認識出力データの推定確率と比べて、所定レベル以上に低い推定確率を有する認識出力データを不適認識出力データとして判定する。 As shown in FIGS. 2 and 4, the recognition output data evaluation function is realized by the data storage unit 53, the data determination unit 54, and the data correction unit 55. The data storage unit 53 temporarily and temporally stores the recognition output data sequentially output from the image recognition module 5 as a recognition output data string. The data determination unit 54 determines in the recognition output data string by comparing the estimation probability of the recognition output data to be determined with the estimation probability of the recognition output data which has a temporal relationship with the recognition output data. Recognition output data having an estimation probability lower than the level is judged as inappropriate recognition output data.

認識ソースとしての撮影画像は、コンバインの作業走行中に撮影されるので、コンバインの突発的な動きなどにより、撮影画像が不鮮明になることがある。さらに、コンバインは、畦近傍で方向転換するので、撮影方向が急激に変更されることもある。それに伴って、同一の認識対象物に対して順光での撮影と逆光での撮影とが混じることもある。このような撮影条件等の変動により、不測に低い推定確率を有する認識出力データが生じうるが、そのような認識出力データである不適認識出力データの抽出は、上述した認識出力データ評価機能により、可能である。 Since the captured image as a recognition source is captured during the work running of the combine, the captured image may become unclear due to sudden movement of the combine or the like. Furthermore, since the combine changes direction near the ridge, the shooting direction may change suddenly. Along with this, shooting in front light and shooting in backlight may be mixed with respect to the same recognition object. Recognition output data having an unexpectedly low estimation probability may be generated due to such fluctuations in shooting conditions, etc., but the extraction of inappropriate recognition output data, which is such recognition output data, is performed by the recognition output data evaluation function described above. It is possible.

認識出力データの数が少ない場合には、不適認識出力データと判定された認識出力データの推定確率を、その前後の認識出力データの推定確率で補間補正するとよい。これにより、当該不適認識出力データは適切に補正されたことになって、利用可能となり、データ数が確保されるという利点が得られる。データ補正部55は、そのような補間補正を行う。もちろん、不適認識出力データと判定された認識出力データを破棄する場合には、補間補正が不要になるので、データ補正部55は省略される。 When the number of recognition output data is small, the estimation probability of the recognition output data determined to be inappropriate recognition output data may be interpolated and corrected by the estimation probability of the recognition output data before and after that. As a result, the inappropriate recognition output data is appropriately corrected and can be used, and there is an advantage that the number of data is secured. The data correction unit 55 performs such interpolation correction. Of course, when discarding the recognition output data determined to be inappropriate recognition output data, interpolation correction becomes unnecessary, so the data correction unit 55 is omitted.

なお、認識対象物位置情報生成部51で生成された各認識対象物位置情報は、視覚的に分かりやすい表示のために、図5に示すようなマップ化が可能である。図5では、雑草位置情報をマップ化した雑草マップが例示されている。雑草位置情報において推定確率が相違する雑草存在領域が含まれている場合、図5に示すように、推定確率値の所定範囲でパターン分けされた形態で雑草存在領域を表示することも可能である。 The position information of each recognition object generated by the recognition object position information generation unit 51 can be mapped as shown in FIG. 5 for visually easy-to-understand display. FIG. 5 illustrates a weed map in which weed position information is mapped. When the weed position information includes a weed existence area having a different estimated probability, it is also possible to display the weed existence area in a pattern-divided form within a predetermined range of the estimated probability value as shown in FIG. ..

なお、上記実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能であり、また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 The configuration disclosed in the above embodiment (including another embodiment, the same shall apply hereinafter) can be applied in combination with the configuration disclosed in other embodiments as long as there is no contradiction. The embodiments disclosed in the present specification are examples, and the embodiments of the present invention are not limited thereto, and can be appropriately modified without departing from the object of the present invention.

〔別実施の形態〕
(1)上述した実施形態では、画像認識モジュール5は、深層学習タイプのニューラルネットワーク技術を用いて構築されている。これに代えて、その他の機械学習技術を用いて構築された画像認識モジュール5が採用されてもよい。
(2)上述した実施形態では、画像認識モジュール5やデータ処理モジュール50は、コンバインの制御ユニット6に組み込まれていたが、その一部または全部は、コンバインから独立した制御ユニット、例えば、携帯通信端末200などに構築可能である。
(3)図2で示された各機能部は、主に説明目的で区分けされている。実際には、各機能部は他の機能部と統合してもよいし、またはさらに複数の機能部に分けてもよい。
[Another embodiment]
(1) In the above-described embodiment, the image recognition module 5 is constructed by using a deep learning type neural network technique. Instead of this, an image recognition module 5 constructed by using other machine learning techniques may be adopted.
(2) In the above-described embodiment, the image recognition module 5 and the data processing module 50 are incorporated in the combine control unit 6, but a part or all of them are a control unit independent of the combine, for example, mobile communication. It can be built on a terminal 200 or the like.
(3) Each functional unit shown in FIG. 2 is divided mainly for the purpose of explanation. In practice, each functional unit may be integrated with other functional units, or may be further divided into a plurality of functional units.

本発明は、圃場を撮影する機能と機体位置を算出する機能とを有する収穫機であれば、稲や小麦等を収穫するコンバインだけでなく、トウモロコシなど他の農作物を収穫するコンバインや、ニンジンなどを収穫する収穫機にも適用可能である。 According to the present invention, if the harvester has a function of photographing a field and a function of calculating the position of the machine, not only a combine for harvesting rice, wheat, etc., but also a combine for harvesting other agricultural products such as corn, a carrot, etc. It can also be applied to harvesters that harvest wheat.

1 :機体
2 :刈取部
5 :画像認識モジュール
50 :データ処理モジュール
51 :認識対象物位置情報生成部
52 :統計処理部
53 :データ記憶部
54 :データ判定部
55 :データ補正部
6 :制御ユニット
60 :作業走行制御モジュール
61 :走行制御部
62 :作業制御部
66 :機体位置算出部
70 :撮影部
80 :衛星測位モジュール
1: Machine 2: Cutting unit 5: Image recognition module 50: Data processing module 51: Recognition target position information generation unit 52: Statistical processing unit 53: Data storage unit 54: Data determination unit 55: Data correction unit 6: Control unit 60: Work travel control module 61: Travel control unit 62: Work control unit 66: Aircraft position calculation unit 70: Imaging unit 80: Satellite positioning module

Claims (4)

圃場を走行しながら農作物を収穫する収穫機であって、
衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、
前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、
前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、
前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
前記撮影画像において前記認識対象物が前記撮影部から遠くに位置するほど、当該認識対象物の前記推定確率は低減される収穫機。
It is a harvester that harvests crops while traveling in the field.
An aircraft position calculation unit that calculates the aircraft position, which is the map coordinates of the aircraft, based on the positioning data from the satellite positioning module.
A photography unit provided on the aircraft to photograph the field during harvesting work,
When the image data of the photographed images sequentially acquired by the photographing unit is input, the existence area where the recognition object exists in the photographed image is estimated, and the existence area and the existence area are estimated. An image recognition module that outputs recognition output data including the estimated probability of
A recognition target position information generation unit that generates recognition target position information indicating a position on a map of the recognition target from the machine position at the time when the captured image is acquired and the recognition output data is provided.
A harvester in which the estimation probability of the perceptible object is reduced as the recognition object is located farther from the imaging unit in the photographed image.
圃場を走行しながら農作物を収穫する収穫機であって、
衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、
前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、
前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、
前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
複数の前記認識対象物位置情報が記憶され、記憶された複数の前記認識対象物位置情報が、対応する前記認識出力データに含まれている前記推定確率の統計的演算の結果に基づいて補正される収穫機。
It is a harvester that harvests crops while traveling in the field.
An aircraft position calculation unit that calculates the aircraft position, which is the map coordinates of the aircraft, based on the positioning data from the satellite positioning module.
A photography unit provided on the aircraft to photograph the field during harvesting work,
When the image data of the photographed images sequentially acquired by the photographing unit is input, the existence area where the recognition object exists in the photographed image is estimated, and the existence area and the existence area are estimated. An image recognition module that outputs recognition output data including the estimated probability of
A recognition target position information generation unit that generates recognition target position information indicating a position on a map of the recognition target from the machine position at the time when the captured image is acquired and the recognition output data is provided.
A plurality of the recognized object position information is stored, and the stored plurality of the recognized object position information is corrected based on the result of the statistical calculation of the estimated probability included in the corresponding recognition output data. Harvesting machine.
圃場を走行しながら農作物を収穫する収穫機であって、
衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、
前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、
前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、
前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、を備え、
前記画像認識モジュールから遂次出力された前記認識出力データを認識出力データ列として一時的かつ経時的に記憶するデータ記憶部と、データ判定部とが備えられ、
前記データ判定部は、前記認識出力データ列において継時的に前後関係となる前記認識出力データの前記推定確率と比べて、所定レベル以上に低い前記推定確率を有する前記認識出力データを不適認識出力データとして判定する収穫機。
It is a harvester that harvests crops while traveling in the field.
An aircraft position calculation unit that calculates the aircraft position, which is the map coordinates of the aircraft, based on the positioning data from the satellite positioning module.
A photography unit provided on the aircraft to photograph the field during harvesting work,
When the image data of the photographed images sequentially acquired by the photographing unit is input, the existence area where the recognition object exists in the photographed image is estimated, and the existence area and the existence area are estimated. An image recognition module that outputs recognition output data including the estimated probability of
A recognition target position information generation unit that generates recognition target position information indicating a position on a map of the recognition target from the machine position at the time when the captured image is acquired and the recognition output data is provided.
A data storage unit that temporarily and temporally stores the recognition output data sequentially output from the image recognition module as a recognition output data string, and a data determination unit are provided.
The data determination unit inappropriately recognizes and outputs the recognition output data having the estimation probability lower than a predetermined level as compared with the estimation probability of the recognition output data which has a temporal relationship in the recognition output data string. Harvester to judge as data.
前記認識対象物は、人物、倒伏穀稈、雑草、畦のうちの少なくとも1つである請求項1から3のいずれか一項に記載の収穫機。 The harvester according to any one of claims 1 to 3 , wherein the recognition object is at least one of a person, a fallen culm, a weed, and a ridge.
JP2017123440A 2017-06-23 2017-06-23 Harvester Active JP7068781B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017123440A JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester
PCT/JP2018/019444 WO2018235486A1 (en) 2017-06-23 2018-05-21 Harvester
KR1020197031226A KR102589076B1 (en) 2017-06-23 2018-05-21 harvest
CN201880029905.8A CN110582198B (en) 2017-06-23 2018-05-21 Harvester

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123440A JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester

Publications (2)

Publication Number Publication Date
JP2019004772A JP2019004772A (en) 2019-01-17
JP7068781B2 true JP7068781B2 (en) 2022-05-17

Family

ID=65025457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123440A Active JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester

Country Status (1)

Country Link
JP (1) JP7068781B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7183121B2 (en) * 2019-06-25 2022-12-05 株式会社クボタ work vehicle
JP7565677B2 (en) 2019-06-27 2024-10-11 株式会社クボタ Obstacle detection system for agricultural vehicles
CN113923977B (en) * 2019-06-28 2023-10-24 株式会社久保田 Automatic travel system, agricultural machine, recording medium, and method
JP2022092391A (en) * 2020-12-10 2022-06-22 株式会社クボタ Mobile vehicle
JP7482838B2 (en) 2021-06-28 2024-05-14 株式会社クボタ Work Support System

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198688A (en) 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2016086668A (en) 2014-10-30 2016-05-23 井関農機株式会社 combine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2510564B2 (en) * 1987-04-03 1996-06-26 株式会社日立製作所 Image feature detection method
JP2000125638A (en) * 1998-10-28 2000-05-09 Yanmar Agricult Equip Co Ltd Combine harvester
JP2008054915A (en) * 2006-08-31 2008-03-13 Iseki & Co Ltd Work vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198688A (en) 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2016086668A (en) 2014-10-30 2016-05-23 井関農機株式会社 combine

Also Published As

Publication number Publication date
JP2019004772A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
KR102589076B1 (en) harvest
JP7068781B2 (en) Harvester
KR102618797B1 (en) Combine, field farming map creation method, field farming map creation program, and recording medium on which field farming map creation program is recorded
JP6854713B2 (en) combine
US20220230444A1 (en) Obstacle Detection System, Agricultural Work Vehicle, Obstacle Detection Program, Recording Medium on Which Obstacle Detection Program is Recorded, and Obstacle Detection Method
JP7246641B2 (en) agricultural machine
JP7195543B2 (en) harvester
JP7433362B2 (en) Travel route generation system
JP7183121B2 (en) work vehicle
JP2021007386A (en) Automatic travel system
WO2020218464A1 (en) Harvester, obstacle determination program, recording medium on which obstacle determination program is recorded, obstacle determination method, agricultural work machine, control program, recording medium on which control program is recorded, and control method
JP2019187352A (en) Work vehicle
JP6904539B2 (en) Harvester
JP2018120364A (en) Automatic steering system
JP2021007385A (en) Farm implement
JP6765349B2 (en) Harvester
JP2020178619A (en) Agricultural work machine
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
KR20230001514A (en) Work support system
JP2019140929A (en) Head-feeding combine
JP7174487B2 (en) agricultural machine
JP2020202761A (en) Harvester

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220119

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220126

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7068781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150