JP2019004772A - Harvesting machine - Google Patents

Harvesting machine Download PDF

Info

Publication number
JP2019004772A
JP2019004772A JP2017123440A JP2017123440A JP2019004772A JP 2019004772 A JP2019004772 A JP 2019004772A JP 2017123440 A JP2017123440 A JP 2017123440A JP 2017123440 A JP2017123440 A JP 2017123440A JP 2019004772 A JP2019004772 A JP 2019004772A
Authority
JP
Japan
Prior art keywords
recognition
image
output data
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017123440A
Other languages
Japanese (ja)
Other versions
JP7068781B2 (en
Inventor
隼輔 宮下
Shunsuke Miyashita
隼輔 宮下
石見 憲一
Kenichi Iwami
憲一 石見
一浩 高原
Kazuhiro Takahara
高原  一浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2017123440A priority Critical patent/JP7068781B2/en
Priority to CN201880029905.8A priority patent/CN110582198B/en
Priority to PCT/JP2018/019444 priority patent/WO2018235486A1/en
Priority to KR1020197031226A priority patent/KR102589076B1/en
Publication of JP2019004772A publication Critical patent/JP2019004772A/en
Application granted granted Critical
Publication of JP7068781B2 publication Critical patent/JP7068781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a harvesting machine capable of efficiently performing a harvesting work support using an image imaged by an imaging part provided on a vehicle body part.SOLUTION: A harvesting machine comprises: a machine body position calculation part 66 for calculating a machine body position which is a map coordinate of a machine body based on positioning data from a satellite positioning module 80; an image recognition module 5 into which image data of an image being acquired continuously by an imaging part 70 which images a field in a harvesting work time, is input, which estimates an existence area where there is a recognition object in the image, and outputs recognition output data including the existence area and estimation probability when the existence area is estimated; and a recognition object position information generation part 51 for generating recognition object position information for indicating a position of the recognition object on the map from the machine body and the recognition output data when the image is acquired.SELECTED DRAWING: Figure 4

Description

本発明は、圃場を走行しながら農作物を収穫し、撮影部によって取得された撮影画像に基づく収穫作業支援が可能な収穫機に関する。   The present invention relates to a harvester that harvests crops while traveling in a field and can support harvesting work based on a photographed image acquired by a photographing unit.

圃場での収穫機を用いた農作物の収穫作業では、局所的に異なる農作物の生育状態や人物を含む障害物の存在に注意を払う必要がある。このため、例えば、特許文献1によるコンバインでは、刈取部の前方の穀稈を撮影するテレビカメラと画像処理装置とが備えられている。画像処理装置は、テレビカメラからの画像と、予め記憶させておいた種々の穀稈の植立状態を示す画像とを比較して、穀稈の特定の状態を検出する。例えば、刈取部前方の穀稈の一部が倒伏していることを、画像処理装置が検出すると、掻込みリールが穀稈倒伏側を下方にして傾動される。これにより、倒伏穀稈の刈取性能が向上する。また、特許文献1のコンバインと同様にテレビカメラと画像処理装置が備えられている特許文献2によるコンバインでは、刈取部の前方に穀稈が存在しないことが検出された場合に、コンバインが枕地に達したものとみなし、カッターへの動力伝達を遮断してカッターを上昇させ、走行速度を減速させる。これにより、枕地での回行中におけるカッターの畦等への衝突が回避されるとともに、コンバインの枕地の回行がスムーズに行われる。   In the harvesting work of a crop using a harvester in a field, it is necessary to pay attention to the growth state of locally different crops and the presence of obstacles including people. For this reason, for example, the combine according to Patent Document 1 includes a television camera and an image processing device that captures the cereals in front of the harvesting unit. The image processing device detects a specific state of the cereal by comparing an image from the television camera with an image indicating the planting state of various varieties stored in advance. For example, when the image processing apparatus detects that a portion of the grain ridge in front of the cutting part is lying down, the take-up reel is tilted with the grain fold down side down. Thereby, the cutting performance of the overturned cereal is improved. Moreover, in the combine by patent document 2 with which the television camera and the image processing apparatus are provided similarly to the combine of patent document 1, when it is detected that the grain cereal does not exist ahead of a cutting part, a combine is a headland. The power transmission to the cutter is cut off, the cutter is raised, and the traveling speed is reduced. Thereby, the collision of the cutter with the scissors or the like during the turning in the headland is avoided, and the heading of the combine headland is smoothly performed.

特開平11−155340号公報JP-A-11-155340 特開平11−137062号公報Japanese Patent Laid-Open No. 11-137062

特許文献1や特許文献2によるコンバインでは、刈取部前方の穀稈の状態が画像処理技術を用いて検出され、その検出結果に基づいて作業機器の動作が制御される。しかしながら、検出された穀稈の圃場における地図上の実際の位置は考慮されていない。このため、作業走行において問題となる状態の穀稈が検出され、その問題を解決するための回避制御を行うとしても、問題となる穀稈状態を示している領域とコンバインとが遠く離れている場合には、回避制御が早過ぎるとか遅すぎるとかいう問題が生じる。また、回避制御を終了すべきタイミングを適切に決定することも困難である。   In the combine according to Patent Literature 1 and Patent Literature 2, the state of the cereals in front of the harvesting unit is detected using an image processing technique, and the operation of the work equipment is controlled based on the detection result. However, the actual position of the detected cereal field on the map is not considered. For this reason, even if the culm in a state that causes a problem in work traveling is detected and avoidance control is performed to solve the problem, the region indicating the culm state in question and the combine are far apart. In such a case, there arises a problem that the avoidance control is too early or too late. It is also difficult to appropriately determine the timing at which avoidance control should be terminated.

上述した実情に鑑み、車体に設けられた撮影部による撮影画像を用いた収穫作業支援が効果的に行われる収穫機が要望されている。   In view of the above situation, there is a demand for a harvesting machine that effectively performs harvesting work support using a photographed image by a photographing unit provided on a vehicle body.

本発明の特徴は、圃場を走行しながら農作物を収穫する収穫機であって、衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部とを備えている点にある。   A feature of the present invention is a harvesting machine that harvests crops while traveling in a field, and a machine body position calculation unit that calculates a machine body position that is map coordinates of the machine body based on positioning data from a satellite positioning module; An image capturing unit that captures a field during harvesting operation and image data of a captured image sequentially acquired by the image capturing unit sequentially are input, and an existing region where a recognition target object exists in the captured image An image recognition module that estimates and outputs recognition output data including the existence area and an estimated probability when the existence area is estimated, and the aircraft position and the recognition output data at the time when the captured image is acquired. A recognition object position information generation unit that generates recognition object position information indicating the position of the recognition object on the map.

本発明では、撮影画像である画像データから、撮影画像における認識対象物が存在する存在領域を推定する画像認識モジュールが、例えば、ニューラルネットワーク(ディープラーニングを含む)や強化学習などの技術を用いて構成されている。また、当該存在領域を推定した際の推定確率も同時に出力することができるように構成されているので、その確率値を用いた最適制御も可能となる。さらには、撮影画像が取得された時点の地図座標で示された機体位置が、機体位置算出部によって算出され、当該機体位置と、認識対象物の存在領域を示す認識出力データとから、認識対象物の地図上の位置を示す認識対象物位置情報が生成される。このような構成から、認識対象物の存在領域を推定する推定確率、及び、当該認識対象物の地図上の位置、結果的には当該認識対象物と収穫機との距離を考慮した収穫作業支援の制御が可能となる。   In the present invention, an image recognition module that estimates a region where a recognition target object exists in a captured image from image data that is a captured image is used, for example, using a technique such as neural network (including deep learning) or reinforcement learning. It is configured. In addition, since it is configured to be able to simultaneously output the estimated probability when the existence area is estimated, optimal control using the probability value is also possible. Further, the aircraft position indicated by the map coordinates at the time when the captured image is acquired is calculated by the aircraft position calculation unit, and the recognition target is obtained from the aircraft position and the recognition output data indicating the existence area of the recognition target object. Recognition object position information indicating the position of the object on the map is generated. From such a configuration, the harvesting work support that takes into consideration the estimated probability of estimating the existence area of the recognition object, the position of the recognition object on the map, and consequently the distance between the recognition object and the harvester Can be controlled.

撮影部によって撮影された圃場の撮影画像では、遠近法の関係で、撮影部から遠い認識対象物に対する分解能は、撮影部から近い認識対象物に対する分解能に比べて低下する。このことから、撮影部から遠い場所で写っている認識対象物は、撮影部から近い場所で写っている認識対象物に比べてその認識信頼性は低いものとなってしまう。このことから、本発明の好適な実施形態の1つでは、前記撮影画像において前記認識対象物が前記撮影部から遠くに位置するほど、当該認識対象物の前記推定確率は低減されるように構成されている。   In the field-captured image captured by the imaging unit, the resolution for the recognition object far from the imaging unit is lower than the resolution for the recognition object near the imaging unit due to perspective. For this reason, the recognition object captured in a place far from the photographing unit has lower recognition reliability than the recognition target photographed in a place near the photographing unit. Accordingly, in one preferred embodiment of the present invention, the estimated probability of the recognition object is reduced as the recognition object is located farther from the imaging unit in the captured image. Has been.

撮像画像に基づく認識対象物位置情報の生成は、収穫機の車速と比較して高速で行うことができるので、同一の認識対象物に関する認識対象物位置情報は複数生成される。このため、同一の認識対象物に関する複数の認識対象物位置情報に含まれているそれぞれの推定確率を統計的演算することが可能となる。この統計的演算を通じて、より信頼度の高い認識対象物位置情報を生成することができる。ここでの統計的演算とは、算術平均、重み平均、中間値演算などであり、複数のデータ値からより信頼性の高いデータ値が導出されるような演算である。このような統計的演算を推定確率に対して利用することで、複数の認識対象物位置情報から、より適切な認識対象物位置情報を導出することが可能となる。このことから、本発明の好適な実施形態の1つでは、複数の前記認識対象物位置情報が記憶され、記憶された複数の前記認識対象物位置情報が、対応する前記認識出力データに含まれている前記推定確率の統計的演算の結果に基づいて補正されるように構成されている。   Since the generation of the recognition target object position information based on the captured image can be performed at a higher speed than the vehicle speed of the harvester, a plurality of recognition target object position information regarding the same recognition target object is generated. For this reason, it is possible to statistically calculate the respective estimated probabilities included in the plurality of recognition object position information regarding the same recognition object. Through this statistical calculation, recognition object position information with higher reliability can be generated. The statistical calculation here is an arithmetic average, a weighted average, an intermediate value calculation, or the like, and is an operation in which a more reliable data value is derived from a plurality of data values. By using such a statistical calculation for the estimated probability, it is possible to derive more appropriate recognition object position information from a plurality of recognition object position information. Therefore, in one preferred embodiment of the present invention, a plurality of pieces of recognition object position information are stored, and the plurality of pieces of recognition object position information stored are included in the corresponding recognition output data. It is configured to be corrected based on the result of statistical calculation of the estimated probability.

機体に設けられた撮影部によって取得された撮影画像は、画像認識モジュールの入力ソースとなるにもかかわらず、撮影条件によって認識対象物の認識に不適当なものとなってしまう可能性がある。その結果、認識対象物が認識されたとしても、その認識出力データの認識確率は低いものとなってしまうので、当該認識出力データを、その後の処理にそのまま利用することは好ましくはない。このことから、本発明の好適な実施形態の1つでは、前記画像認識モジュールから遂次出力された前記認識出力データを認識出力データ列として一時的かつ経時的に記憶するデータ記憶部と、データ判定部とが備えられ、前記データ判定部は、前記認識出力データ列において継時的に前後関係となる前記認識出力データの前記推定確率と比べて、所定レベル以上に低い前記推定確率を有する前記認識出力データを不適認識出力データとして判定する。不適認識出力データと判定された認識出力データは削除してもよいし、当該認識出力データの推定確率を、前後の認識出力データで補間した推定確率が置き換えるようにしてもよい。   Although the captured image acquired by the imaging unit provided in the airframe is an input source of the image recognition module, there is a possibility that the captured image may be inappropriate for recognition of the recognition target object depending on the imaging condition. As a result, even if the recognition object is recognized, the recognition probability of the recognition output data is low, so it is not preferable to use the recognition output data as it is for the subsequent processing. Therefore, in one of the preferred embodiments of the present invention, a data storage unit that temporarily and temporally stores the recognition output data sequentially output from the image recognition module as a recognition output data string, and a data A determination unit, wherein the data determination unit has the estimated probability that is lower than a predetermined level compared to the estimated probability of the recognized output data that is continuously in context in the recognized output data sequence The recognition output data is determined as inappropriate recognition output data. The recognition output data determined to be inappropriate recognition output data may be deleted, or the estimation probability of the recognition output data may be replaced with the estimation probability interpolated by the preceding and following recognition output data.

圃場を走行しながら農作物を収穫する収穫機にとって重要となる認識対象物は、人物、倒伏穀稈、雑草、畦などである。作業走行の障害物となる人物を認識することは、障害物回避制御や障害物警報報知のトリガーとなるため、圃場における安全走行のために重要である。倒伏穀稈や雑草を認識することは、作業制御における倒伏穀稈対策制御や雑草対策制御のとなるため、高品質の収穫作業を行うために重要である。畦を認識することは、圃場の境界線を検出することになり、圃場の枕地走行制御等にとって重要である。   Recognized objects that are important for a harvesting machine that harvests crops while traveling in a field are people, fallen grain straws, weeds, straws, and the like. Recognizing a person who becomes an obstacle to work traveling is a trigger for obstacle avoidance control and obstacle alarm notification, and is therefore important for safe traveling in a field. Recognizing the fallen cereals and weeds is important for carrying out high-quality harvesting work, because it becomes control of measures against fallen cereals and weeds in work control. Recognizing the cocoon is to detect the boundary line of the field and is important for headland travel control of the field.

コンバインの全体側面図である。It is a whole side view of a combine. コンバインの制御系を示す機能ブロック図である。It is a functional block diagram which shows the control system of a combine. 画像認識モジュールによる認識出力データの生成の流れを模式的に示す説明図である。It is explanatory drawing which shows typically the flow of the production | generation of the recognition output data by an image recognition module. 撮像画像から認識対象物位置情報を生成する際のデータの流れを示すデータ流れ図である。It is a data flow figure showing a flow of data at the time of generating recognition subject position information from a picked-up image. 認識対象物位置情報の1つとしての雑草位置情報をマップ化することによって得られた雑草マップを示す模式図である。It is a schematic diagram which shows the weed map obtained by mapping the weed position information as one of the recognition target object position information.

以下、本発明に係る収穫機の一例としてのコンバインの実施形態を図面に基づいて説明する。この実施形態で、機体1の前後方向を定義するときは、作業状態における機体進行方向に沿って定義する。図1に符号(F)で示す方向が機体前側、図1に符号(B)で示す方向が機体後側である。機体1の左右方向を定義するときは、機体進行方向視で見た状態で左右を定義する。   Hereinafter, an embodiment of a combine as an example of a harvester according to the present invention will be described with reference to the drawings. In this embodiment, when the front-rear direction of the airframe 1 is defined, it is defined along the airframe traveling direction in the working state. The direction indicated by reference numeral (F) in FIG. 1 is the front side of the aircraft, and the direction indicated by reference numeral (B) in FIG. 1 is the rear side of the aircraft. When defining the left-right direction of the airframe 1, the left-right direction is defined in a state viewed in the airframe traveling direction.

図1に示すように、コンバインでは、左右一対のクローラ走行装置10を備えた機体1の前部に横軸芯X周りで昇降操作自在に刈取部2が連結されている。機体1の後部には、機体横幅方向に並ぶ状態で脱穀装置11と、穀粒を貯留する穀粒タンク12とが備えられている。機体1の前部右側箇所に搭乗運転部を覆うキャビン14が備えられ、このキャビン14の下方に駆動用のエンジン15が備えられている。   As shown in FIG. 1, in the combine, a cutting unit 2 is connected to a front part of an airframe 1 including a pair of left and right crawler travel devices 10 so as to be movable up and down around a horizontal axis X. At the rear of the machine body 1, a threshing device 11 and a grain tank 12 for storing grains are provided in a state of being arranged in the machine body width direction. A cabin 14 that covers the boarding operation part is provided at the right side of the front part of the airframe 1, and an engine 15 for driving is provided below the cabin 14.

図1に示すように、脱穀装置11は、刈取部2で刈り取られて後方に搬送されてくる刈取穀稈を内部に受け入れて、穀稈の株元を脱穀フィードチェーン111と挟持レール112とによって挟持して搬送しながら穂先側を扱胴113にて脱穀処理する。そして、扱胴113の下方に備えられた選別部にて脱穀処理物に対する穀粒選別処理が実行され、そこで選別された穀粒が穀粒タンク12へ搬送され、貯留される。また、詳述はしないが、穀粒タンク12にて貯留される穀粒を外部に排出する穀粒排出装置13が備えられている。   As shown in FIG. 1, the threshing device 11 receives the harvested cereal that has been harvested by the reaping unit 2 and conveyed backward, and the threshing stock of the cereal by the threshing feed chain 111 and the sandwiching rail 112. A threshing process is performed on the tip side by the handling cylinder 113 while being held and conveyed. And the grain selection process with respect to a threshing processed material is performed in the selection part with which the lower part of the handling cylinder 113 was equipped, and the grain selected there is conveyed to the grain tank 12, and is stored. Although not described in detail, a grain discharging device 13 for discharging the grains stored in the grain tank 12 to the outside is provided.

刈取部2には、倒伏した植立穀稈を引き起こす複数の引き起こし装置21、引起された植立穀稈の株元を切断するバリカン型の切断装置22、穀稈搬送装置23等が備えられている。穀稈搬送装置23は、株元が切断された縦姿勢の刈取穀稈を徐々に横倒れ姿勢に変更させながら、機体後方側に位置する脱穀装置11の脱穀フィードチェーン111の始端部に向けて搬送する。   The mowing unit 2 is provided with a plurality of triggering devices 21 that cause a fallen planted culm, a hair clipper-type cutting device 22 that cuts the stock of the raised planted culm, a culm transporting device 23, and the like. Yes. The grain feeder 23 is directed toward the start end of the threshing feed chain 111 of the threshing apparatus 11 located on the rear side of the machine body while gradually changing the vertical harvested grain cereal from which the stock has been cut into a laterally falling attitude. Transport.

穀稈搬送装置23は、切断装置22により刈り取られた複数条の刈取穀稈を刈幅方向中央に寄せ集めながら搬送する合流搬送部231、寄せ集めた刈取穀稈の株元を挟持して後方に搬送する株元挟持搬送装置232、刈取穀稈の穂先側を係止搬送する穂先係止搬送装置233、株元挟持搬送装置232の終端部から刈取穀稈の株元を脱穀フィードチェーン111に向けて案内する供給搬送装置234等を備えている。   The cereal conveying device 23 sandwiches the stock of the collected harvested cereals while holding the gathering and conveying unit 231 that conveys a plurality of harvested cereals harvested by the cutting device 22 in the middle of the cutting width direction. The stock holding and conveying device 232 that conveys to the head, the tip locking and conveying device 233 that latches and conveys the tip of the harvested cereal rice bran, and the stock source of the harvested rice straw to the threshing feed chain 111 from the terminal end of the stock holding and conveying device 232 A supply conveyance device 234 and the like are provided for guidance.

キャビン14の天井部の前端に、カラーカメラを備えた撮影部70が設けられている。この実施形態では、撮影部70の撮影視野の前後方向の広がりは、刈取部2の前端領域からほぼ地平線に達している。撮影視野の幅方法の広がりは、10m程度から数十mに達している。撮影部70によって取得された撮影画像は、画像データ化され、コンバインの制御系に送られる。   An imaging unit 70 including a color camera is provided at the front end of the ceiling of the cabin 14. In this embodiment, the photographic field of view of the photographing unit 70 extends in the front-rear direction almost from the front end region of the cutting unit 2 to the horizon. The breadth of the width of the field of view has reached about 10 m to several tens of m. The captured image acquired by the imaging unit 70 is converted into image data and sent to the combine control system.

撮影部70は、収穫作業時に圃場を撮影するが、圃場には種々の物体が撮影対象として存在している。コンバインの制御系は、撮影部70から送られてきた画像データから特定の物体を認識対象物として認識する機能を有する。そのような認識対象物として、図1では、符号Z0で示された正常な植立穀稈群、符号Z1で示された植立穀稈より高く伸びた雑草群、符号Z2で示された倒伏穀稈群、符号Z3で示された人物が模式的に示されている。   The imaging unit 70 images a farm field at the time of harvesting work, and various objects exist as imaging targets in the farm field. The control system of the combine has a function of recognizing a specific object as a recognition target object from the image data sent from the photographing unit 70. As such recognition objects, in FIG. 1, a normal planted cereal group indicated by a reference sign Z0, a weed group extending higher than the planted cereal part indicated by a reference sign Z1, and a lodging indicated by a reference sign Z2 A cereal group, a person indicated by a symbol Z3 is schematically shown.

キャビン14の天井部には、衛星測位モジュール80も設けられている。衛星測位モジュール80には、GNSS(global navigation satellite system)信号(GPS信号を含む)を受信するための衛星用アンテナが含まれている。衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサを組み込んだ慣性航法ユニットが衛星測位モジュール80に組み込まれている。もちろん、慣性航法ユニットは別の場所に配置できる。図1において、衛星測位モジュール80は、作図の便宜上、キャビン14の天井部における後部に配置されているが、例えば、切断装置22の左右中央部の直上方位置にできるだけ近づくように、天井部の前端部における機体中央側寄りの位置に配置されていると好適である。   A satellite positioning module 80 is also provided on the ceiling of the cabin 14. The satellite positioning module 80 includes a satellite antenna for receiving GNSS (global navigation satellite system) signals (including GPS signals). In order to complement the satellite navigation performed by the satellite positioning module 80, an inertial navigation unit incorporating a gyro acceleration sensor and a magnetic bearing sensor is incorporated in the satellite positioning module 80. Of course, the inertial navigation unit can be located elsewhere. In FIG. 1, the satellite positioning module 80 is arranged at the rear part of the ceiling part of the cabin 14 for the convenience of drawing. For example, the satellite positioning module 80 is arranged as close as possible to the position directly above the central part of the left and right of the cutting device 22. It is preferable that the front end portion is disposed at a position closer to the center of the machine body.

図2には、コンバインの制御系の機能ブロック図が示されている。この実施形態の制御系は、多数のECUと呼ばれる電子制御ユニットと、各種動作機器、センサ群やスイッチ群、それらの間のデータ伝送を行う車載LANなどの配線網から構成されている。報知デバイス91は、運転者等に作業走行状態や種々の警告を報知するためのデバイスであり、ブザー、ランプ、スピーカ、ディスプレイなどである。通信部92は、このコンバインの制御系が、遠隔地に設置されているクラウドコンピュータシステム100や携帯通信端末200との間でデータ交換するために用いられる。携帯通信端末200は、ここでは、作業走行現場における監視者(運転者も含む)が操作するタブレットコンピュータである。制御ユニット6は、この制御系の中核要素であり、複数のECUの集合体として示されている。衛星測位モジュール80からの測位データ、及び、撮影部70からの画像データは、配線網を通じて制御ユニット6に入力される。   FIG. 2 shows a functional block diagram of the combine control system. The control system of this embodiment is composed of a number of electronic control units called ECUs, various operating devices, sensor groups and switch groups, and a wiring network such as an in-vehicle LAN that performs data transmission therebetween. The notification device 91 is a device for notifying a driver or the like of a work traveling state or various warnings, and includes a buzzer, a lamp, a speaker, a display, and the like. The communicator 92 is used by the combine control system to exchange data with the cloud computer system 100 and the portable communication terminal 200 installed at a remote location. Here, the portable communication terminal 200 is a tablet computer operated by a supervisor (including a driver) at a work traveling site. The control unit 6 is a core element of this control system, and is shown as an assembly of a plurality of ECUs. Positioning data from the satellite positioning module 80 and image data from the imaging unit 70 are input to the control unit 6 through a wiring network.

制御ユニット6は、入出力インタフェースとして、出力処理部6Bと入力処理部6Aとを備えている。出力処理部6Bは、車両走行機器群7A及び作業装置機器群7Bと接続している。車両走行機器群7Aには、車両走行に関する制御機器、例えばエンジン制御機器、変速制御機器、制動制御機器、操舵制御機器などが含まれている。作業装置機器群7Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における動力制御機器などが含まれている。   The control unit 6 includes an output processing unit 6B and an input processing unit 6A as input / output interfaces. The output processing unit 6B is connected to the vehicle travel device group 7A and the work device device group 7B. The vehicle travel device group 7A includes control devices related to vehicle travel, such as engine control devices, shift control devices, braking control devices, steering control devices, and the like. The work device group 7B includes the mowing unit 2, the threshing device 11, the grain discharging device 13, the power control device in the cereal conveying device 23, and the like.

入力処理部6Aには、走行系検出センサ群8Aや作業系検出センサ群8Bなどが接続されている。走行系検出センサ群8Aには、エンジン回転数調整具、アクセルペダル、ブレーキペダル、変速操作具などの状態を検出するセンサが含まれている。作業系検出センサ群8Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における装置状態及び穀稈や穀粒の状態を検出するセンサが含まれている。   A traveling system detection sensor group 8A, a work system detection sensor group 8B, and the like are connected to the input processing unit 6A. The traveling system detection sensor group 8A includes sensors that detect states of an engine speed adjusting tool, an accelerator pedal, a brake pedal, a shift operation tool, and the like. The work system detection sensor group 8B includes sensors for detecting the state of the reaper 2, the threshing device 11, the grain discharging device 13, and the cereal conveying device 23 and the state of the cereal and the cereal.

制御ユニット6には、作業走行制御モジュール60、画像認識モジュール5、データ処理モジュール50、機体位置算出部66、報知部67が備えられている。   The control unit 6 includes a work travel control module 60, an image recognition module 5, a data processing module 50, a body position calculation unit 66, and a notification unit 67.

報知部67は、制御ユニット6の各機能部からの指令等に基づいて報知データを生成し、報知デバイス91に与える。機体位置算出部66は、衛星測位モジュール80から逐次送られてくる測位データに基づいて、機体1の地図座標(または圃場座標)である機体位置を算出する。   The notification unit 67 generates notification data based on commands from the respective functional units of the control unit 6 and gives the notification data to the notification device 91. The body position calculation unit 66 calculates the body position that is the map coordinates (or field coordinates) of the body 1 based on the positioning data sequentially transmitted from the satellite positioning module 80.

この実施形態のコンバインは自動走行(自動操舵)と手動走行(手動操舵)の両方で走行可能である。作業走行制御モジュール60には、走行制御部61と作業制御部62とに加えて、自動作業走行指令部63及び走行経路設定部64が備えられている。自動操舵で走行する自動走行モードと、手動操舵で走行する手動操舵モードとのいずれかを選択する走行モードスイッチ(非図示)がキャビン14内に設けられている。この走行モードスイッチを操作することで、手動操舵走行から自動操舵走行への移行、あるいは自動操舵走行から手動操舵走行への移行が可能である。   The combine of this embodiment can be driven by both automatic driving (automatic steering) and manual driving (manual steering). The work travel control module 60 includes an automatic work travel command unit 63 and a travel route setting unit 64 in addition to the travel control unit 61 and the work control unit 62. A traveling mode switch (not shown) for selecting either an automatic traveling mode for traveling by automatic steering or a manual steering mode for traveling by manual steering is provided in the cabin 14. By operating this travel mode switch, it is possible to shift from manual steering travel to automatic steering travel, or from automatic steering travel to manual steering travel.

走行制御部61は、エンジン制御機能、操舵制御機能、車速制御機能などを有し、車両走行機器群7Aに走行制御信号を与える。作業制御部62は、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23などの動きを制御するために、作業装置機器群7Bに作業制御信号を与える。   The travel control unit 61 has an engine control function, a steering control function, a vehicle speed control function, and the like, and provides a travel control signal to the vehicle travel device group 7A. The work control unit 62 gives a work control signal to the work device group 7B in order to control the movement of the reaping unit 2, the threshing device 11, the grain discharging device 13, the cereal conveying device 23, and the like.

手動操舵モードが選択されている場合、運転者による操作に基づいて、走行制御部61が制御信号を生成し、車両走行機器群7Aを制御する。自動操舵モードが選択されている場合、自動作業走行指令部63によって与えられる自動走行指令に基づいて、走行制御部61は、操舵に関する車両走行機器群7Aや車速に関する車両走行機器群7Aを制御する。   When the manual steering mode is selected, the travel control unit 61 generates a control signal based on an operation by the driver, and controls the vehicle travel device group 7A. When the automatic steering mode is selected, based on the automatic travel command given by the automatic work travel command unit 63, the travel control unit 61 controls the vehicle travel device group 7A related to steering and the vehicle travel device group 7A related to vehicle speed. .

走行経路設定部64は、制御ユニット6、携帯通信端末200、クラウドコンピュータシステム100などのいずれかで作成された自動走行のための走行経路を、走行経路をメモリに展開する。メモリに展開された走行経路は、順次自動走行における目標走行経路として用いられる。この走行経路は、手動走行であっても、コンバインが当該走行経路に沿って走行するためのガイダンスのために利用することも可能である。   The travel route setting unit 64 develops a travel route for automatic travel created in any of the control unit 6, the mobile communication terminal 200, the cloud computer system 100, and the like in the memory. The travel route expanded in the memory is sequentially used as a target travel route in automatic travel. This travel route can be used for guidance for the combine to travel along the travel route even in the case of manual travel.

自動作業走行指令部63は、より詳しくは、自動操舵指令及び車速指令を生成して、走行制御部61に与える。自動操舵指令は、走行経路設定部64によって走行経路と、機体位置算出部66によって算出された自車位置との間の方位ずれ及び位置ずれを解消するように生成される。車速指令は、前もって設定された車速値に基づいて生成される。さらに、自動作業走行指令部63は、作業制御部62に、自車位置や自車の走行状態に応じて、作業装置動作指令を与える。   More specifically, the automatic work travel command unit 63 generates an automatic steering command and a vehicle speed command and gives them to the travel control unit 61. The automatic steering command is generated by the travel route setting unit 64 so as to eliminate the azimuth shift and the positional shift between the travel route and the vehicle position calculated by the body position calculation unit 66. The vehicle speed command is generated based on a vehicle speed value set in advance. Further, the automatic work travel command unit 63 gives a work device operation command to the work control unit 62 according to the own vehicle position and the travel state of the own vehicle.

画像認識モジュール5には、撮影部70によって継時的に遂次取得された撮影画像の画像データが入力される。画像認識モジュール5は、この撮影画像における認識対象物が存在する存在領域を推定し、存在領域及び存在領域が推定された際の推定確率を含む認識出力データを、認識結果として出力する。画像認識モジュール5は、深層学習を採用したニューラルネットワーク技術を用いて構築されている。   The image recognition module 5 receives image data of a captured image that is sequentially acquired by the imaging unit 70 over time. The image recognition module 5 estimates the existence area where the recognition target object exists in the photographed image, and outputs the recognition output data including the existence area and the estimated probability when the existence area is estimated as the recognition result. The image recognition module 5 is constructed using a neural network technique that employs deep learning.

画像認識モジュール5による認識出力データの生成の流れが、図3及び図4に示されている。画像認識モジュール5には、RGB画像データの画素値が入力値として入力される。図3の図例では、推定される認証対象物は、雑草と倒伏穀稈と人物である。したがって、認識結果としての認識出力データには、雑草の存在領域(以下、雑草領域と称する)とその推定確率、倒伏穀稈の存在領域(以下、倒伏穀稈領域と称する)とその推定確率、人物の存在領域(以下、人物領域と称する)とその推定確率が含まれる。   The flow of generating recognition output data by the image recognition module 5 is shown in FIGS. A pixel value of RGB image data is input to the image recognition module 5 as an input value. In the example of FIG. 3, the estimated authentication objects are weeds, lodging cereals and a person. Therefore, in the recognition output data as the recognition result, the existence area of the weeds (hereinafter referred to as the weed area) and its estimated probability, the existence area of the lodging cereal (hereinafter referred to as the lodging cereal area) and its estimated probability, A person existing area (hereinafter referred to as a person area) and its estimated probability are included.

図3では、推定結果は模式化されており、雑草領域は符号F1を付与された矩形の枠で示され、倒伏穀稈領域は符号F2を付与された矩形の枠で示され、人物領域は符号F3を付与された矩形の枠で示されている。それぞれの領域には、その推定確率がリンクされる。雑草領域、倒伏穀稈領域、人物領域は、それぞれ4つのコーナ点で規定されるが、そのような各矩形の4つのコーナ点の撮影画像上の座標位置も推定結果に含まれている。もちろん、認証対象物が推定されなければ、認証対象物の存在領域は出力されず、その推定確率はゼロとなる。   In FIG. 3, the estimation result is schematically shown, the weed area is indicated by a rectangular frame given a reference F1, the lodging cereal area is shown by a rectangular frame given a reference F2, and the person area is It is shown by a rectangular frame to which reference numeral F3 is given. Each region is linked to its estimated probability. The weed area, the overburden cedar area, and the person area are each defined by four corner points, and the coordinate positions on the captured image of the four corner points of each rectangle are also included in the estimation result. Of course, if the authentication target is not estimated, the existence area of the authentication target is not output, and the estimation probability is zero.

なお、この実施形態では、画像認識モジュール5は、撮影画像において認識対象物が撮影部70から遠くに位置するほど、当該認識対象物の推定確率は低減されるように内部パラメータを設定している。これにより、撮影部70から遠く離れているために分解能が低くなっている撮影領域における認識対象物の認識を厳しくし、誤認識を低減させている。   In this embodiment, the image recognition module 5 sets the internal parameter so that the estimated probability of the recognition target object is reduced as the recognition target object is located farther from the photographing unit 70 in the captured image. . Thereby, the recognition of the recognition object in the imaging region where the resolution is low because it is far from the imaging unit 70 is made stricter, and erroneous recognition is reduced.

データ処理モジュール50は、画像認識モジュール5から出力された認識出力データを処理する。図2及び図4に示すように、この実施形態のデータ処理モジュール50には、認識対象物位置情報生成部51、統計処理部52、データ記憶部53、データ判定部54、データ補正部55が含まれている。   The data processing module 50 processes the recognition output data output from the image recognition module 5. As shown in FIGS. 2 and 4, the data processing module 50 of this embodiment includes a recognition target object position information generation unit 51, a statistical processing unit 52, a data storage unit 53, a data determination unit 54, and a data correction unit 55. include.

認識対象物位置情報生成部51は、撮影画像が取得された時点の機体位置と認識出力データとから、認識対象物の地図上の位置を示す認識対象物位置情報を生成する。認識出力データに含まれている認識対象物(雑草、倒伏穀稈、人物)が存在する地図上の位置は、認証対象物の存在領域(雑草領域、倒伏穀稈領域、人物領域)を示す矩形の4つのコーナ点の撮影画像上の座標位置(カメラ座標位置)を、地図上の座標に変換することで得られる。   The recognition target object position information generation unit 51 generates recognition target object position information indicating the position of the recognition target object on the map from the body position at the time when the captured image is acquired and the recognition output data. The position on the map where the recognition objects (weeds, lodging cereals, and persons) included in the recognition output data are present is a rectangle indicating the existence area (weed area, lodging cereal area, and person area) of the authentication objects. These four corner points are obtained by converting the coordinate positions (camera coordinate positions) on the photographed image into coordinates on the map.

撮影部70は、所定時間間隔、例えば0.5秒間隔で撮影画像を取得し、その画像データを画像認識モジュール5に入力するので、画像認識モジュール5も、同じ時間間隔で、認識出力データを出力する。したがって、撮影部70の撮影視野に認識対象物が入っていた場合には、複数の認識出力データが同一の認識対象物に対する存在領域を含むことになる。その結果、同一の認識対象物に対する複数の認識対象物位置情報が得られる。その際、各元データである認識出力データに含まれている推定確率、つまり認識対象物位置情報に含まれる認識対象物の存在領域の推定確率は、撮影部70と認識対象物との間の位置関係が相違することから、違う値となることが多い。   Since the imaging unit 70 acquires captured images at a predetermined time interval, for example, 0.5 seconds, and inputs the image data to the image recognition module 5, the image recognition module 5 also receives the recognition output data at the same time interval. Output. Therefore, when the recognition object is in the photographing field of the photographing unit 70, the plurality of recognition output data includes the existence area for the same recognition object. As a result, a plurality of pieces of recognition object position information for the same recognition object are obtained. At that time, the estimation probability included in the recognition output data that is each original data, that is, the estimation probability of the existence area of the recognition target included in the recognition target object position information is between the imaging unit 70 and the recognition target. Since the positional relationship is different, the value is often different.

したがって、この実施形態では、そのような複数の認識対象物位置情報が記憶され、記憶された複数の認識対象物位置情報のそれぞれに含まれる推定確率が統計的演算される。統計処理部52は、複数の認識対象物位置情報の推定確率に対する統計的な演算を用いて、推定確率群の代表値を求める。その代表値を用いて、複数の認識対象物位置情報を、1つの最適認識対象物位置情報(認識対象物補正位置情報)に補正することができる。そのような補正の一例は、各推定確率の算術平均値または重み平均値あるいは中間値を基準値(代表値)として求め、その基準値以上の推定確率を有する存在領域の論理和を求め、それを最適存在領域とする補正認識対象物位置情報を生成することである。もちろん、これ以外の統計的演算を用いて信頼性の高い1つの認識対象物位置情報を生成することも可能である。つまり、複数の認識対象物位置情報が、当該認識対象物位置情報に対応する認識出力データに含まれている推定確率の統計的演算の結果に基づいて補正されるのである。   Therefore, in this embodiment, such a plurality of recognition object position information is stored, and the estimated probability included in each of the stored plurality of recognition object position information is statistically calculated. The statistical processing unit 52 obtains a representative value of the estimated probability group using a statistical calculation for the estimated probabilities of the plurality of recognition object position information. Using the representative value, a plurality of pieces of recognition object position information can be corrected to one optimum recognition object position information (recognition object correction position information). An example of such correction is to calculate an arithmetic average value, a weighted average value, or an intermediate value of each estimated probability as a reference value (representative value), calculate a logical sum of existing regions having an estimated probability equal to or higher than the reference value, and To generate correction recognition target object position information having the optimal existence area as. Of course, it is also possible to generate one piece of recognition object position information with high reliability by using other statistical calculations. That is, a plurality of recognition target object position information is corrected based on the result of statistical calculation of the estimated probability included in the recognition output data corresponding to the recognition target object position information.

このようにして求められた認証対象物の存在領域(雑草領域、倒伏穀稈領域、人物領域)の地図上の位置を示す認識対象物位置情報(雑草位置情報、倒伏穀稈位置情報、人物位置情報)を用いることで、雑草、倒伏穀稈、人物の認識時において、それぞれ予め設定された走行作業制御や警告報知が行われる。   Recognition object position information (weed position information, lodging cereal position information, person position) indicating the position on the map of the existence area (weed area, lodging cereal area, person area) of the authentication object obtained in this way By using (information), traveling work control and warning notification set in advance are performed at the time of weeds, lodging cereals, and person recognition.

上述したように、本発明では、画像認識モジュール5から出力される推定確率は、最終的な認識対象物位置情報の生成にとって重要である。このため、この実施形態では、画像認識モジュール5から出力された認識出力データの推定確率の信頼性を調べて、信頼できない推定確率を有する認識出力データを不適認識出力データと判定する認識出力データ評価機能が、データ処理モジュール50に備えられている。   As described above, in the present invention, the estimated probability output from the image recognition module 5 is important for the generation of final recognition object position information. For this reason, in this embodiment, the recognition output data evaluation that examines the reliability of the estimation probability of the recognition output data output from the image recognition module 5 and determines the recognition output data having the unreliable estimation probability as the inappropriate recognition output data. The function is provided in the data processing module 50.

認識出力データ評価機能は、図2及び図4に示すように、データ記憶部53と、データ判定部54と、データ補正部55とによって実現する。データ記憶部53は、画像認識モジュール5から遂次出力された認識出力データを認識出力データ列として一時的かつ経時的に記憶する。データ判定部54は、認識出力データ列において、判定対象となる認識出力データの推定確率と、当該認識出力データに対して継時的に前後関係となる認識出力データの推定確率と比べて、所定レベル以上に低い推定確率を有する認識出力データを不適認識出力データとして判定する。   The recognition output data evaluation function is realized by a data storage unit 53, a data determination unit 54, and a data correction unit 55, as shown in FIGS. The data storage unit 53 stores the recognition output data sequentially output from the image recognition module 5 temporarily and as a recognition output data string. In the recognition output data string, the data determination unit 54 compares the estimated probability of the recognition output data to be determined with the estimated probability of the recognition output data that is continuously related to the recognition output data. Recognition output data having an estimated probability lower than the level is determined as inappropriate recognition output data.

認識ソースとしての撮影画像は、コンバインの作業走行中に撮影されるので、コンバインの突発的な動きなどにより、撮影画像が不鮮明になることがある。さらに、コンバインは、畦近傍で方向転換するので、撮影方向が急激に変更されることもある。それに伴って、同一の認識対象物に対して順光での撮影と逆光での撮影とが混じることもある。このような撮影条件等の変動により、不測に低い推定確率を有する認識出力データが生じうるが、そのような認識出力データである不適認識出力データの抽出は、上述した認識出力データ評価機能により、可能である。   Since the captured image as the recognition source is captured during the combine operation, the captured image may become unclear due to the sudden movement of the combine. Furthermore, since the combine changes its direction in the vicinity of the ridge, the shooting direction may be suddenly changed. Along with this, shooting with normal light and shooting with backlight may be mixed for the same recognition object. Recognition output data having an unexpectedly low estimated probability may occur due to such changes in shooting conditions, etc., but extraction of inappropriate recognition output data that is such recognition output data is performed by the above-described recognition output data evaluation function. Is possible.

認識出力データの数が少ない場合には、不適認識出力データと判定された認識出力データの推定確率を、その前後の認識出力データの推定確率で補間補正するとよい。これにより、当該不適認識出力データは適切に補正されたことになって、利用可能となり、データ数が確保されるという利点が得られる。データ補正部55は、そのような補間補正を行う。もちろん、不適認識出力データと判定された認識出力データを破棄する場合には、補間補正が不要になるので、データ補正部55は省略される。   When the number of recognition output data is small, the estimated probability of the recognition output data determined to be inappropriate recognition output data may be interpolated and corrected with the estimated probability of the recognition output data before and after that. Accordingly, the inappropriate recognition output data is appropriately corrected and can be used, and an advantage that the number of data is secured can be obtained. The data correction unit 55 performs such interpolation correction. Of course, when the recognition output data determined to be inappropriate recognition output data is discarded, the interpolation correction is unnecessary, and the data correction unit 55 is omitted.

なお、認識対象物位置情報生成部51で生成された各認識対象物位置情報は、視覚的に分かりやすい表示のために、図5に示すようなマップ化が可能である。図5では、雑草位置情報をマップ化した雑草マップが例示されている。雑草位置情報において推定確率が相違する雑草存在領域が含まれている場合、図5に示すように、推定確率値の所定範囲でパターン分けされた形態で雑草存在領域を表示することも可能である。   In addition, each recognition target object position information generated by the recognition target object position information generation unit 51 can be mapped as shown in FIG. 5 for easy visual understanding. FIG. 5 illustrates a weed map in which weed position information is mapped. When the weed position information includes a weed presence area with different estimation probabilities, it is also possible to display the weed existence area in a form divided into patterns within a predetermined range of estimated probability values as shown in FIG. .

なお、上記実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能であり、また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。   Note that the configurations disclosed in the above-described embodiments (including other embodiments, the same applies hereinafter) can be applied in combination with the configurations disclosed in the other embodiments as long as no contradiction arises. The embodiment disclosed in this specification is an exemplification, and the embodiment of the present invention is not limited to this. The embodiment can be appropriately modified without departing from the object of the present invention.

〔別実施の形態〕
(1)上述した実施形態では、画像認識モジュール5は、深層学習タイプのニューラルネットワーク技術を用いて構築されている。これに代えて、その他の機械学習技術を用いて構築された画像認識モジュール5が採用されてもよい。
(2)上述した実施形態では、画像認識モジュール5やデータ処理モジュール50は、コンバインの制御ユニット6に組み込まれていたが、その一部または全部は、コンバインから独立した制御ユニット、例えば、携帯通信端末200などに構築可能である。
(3)図2で示された各機能部は、主に説明目的で区分けされている。実際には、各機能部は他の機能部と統合してもよいし、またはさらに複数の機能部に分けてもよい。
[Another embodiment]
(1) In the embodiment described above, the image recognition module 5 is constructed using a deep learning type neural network technique. Instead of this, an image recognition module 5 constructed using other machine learning techniques may be employed.
(2) In the above-described embodiment, the image recognition module 5 and the data processing module 50 are incorporated in the combine control unit 6, but part or all of the image recognition module 5 and the data processing module 50 is a control unit independent of the combine, for example, portable communication It can be constructed in the terminal 200 or the like.
(3) Each functional unit shown in FIG. 2 is divided mainly for the purpose of explanation. Actually, each functional unit may be integrated with other functional units, or may be further divided into a plurality of functional units.

本発明は、圃場を撮影する機能と機体位置を算出する機能とを有する収穫機であれば、稲や小麦等を収穫するコンバインだけでなく、トウモロコシなど他の農作物を収穫するコンバインや、ニンジンなどを収穫する収穫機にも適用可能である。   The present invention is not only a harvester that harvests rice, wheat, etc., but also a harvester that harvests other agricultural products such as corn, carrots, etc. It can also be applied to a harvesting machine that harvests.

1 :機体
2 :刈取部
5 :画像認識モジュール
50 :データ処理モジュール
51 :認識対象物位置情報生成部
52 :統計処理部
53 :データ記憶部
54 :データ判定部
55 :データ補正部
6 :制御ユニット
60 :作業走行制御モジュール
61 :走行制御部
62 :作業制御部
66 :機体位置算出部
70 :撮影部
80 :衛星測位モジュール
1: Airframe 2: Cutting unit 5: Image recognition module 50: Data processing module 51: Recognition object position information generation unit 52: Statistical processing unit 53: Data storage unit 54: Data determination unit 55: Data correction unit 6: Control unit 60: Work travel control module 61: Travel control unit 62: Work control unit 66: Airframe position calculation unit 70: Imaging unit 80: Satellite positioning module

Claims (5)

圃場を走行しながら農作物を収穫する収穫機であって、
衛星測位モジュールからの測位データに基づいて機体の地図座標である機体位置を算出する機体位置算出部と、
前記機体に設けられ、収穫作業時に圃場を撮影する撮影部と、
前記撮影部によって継時的に遂次取得された撮影画像の画像データが入力され、前記撮影画像における認識対象物が存在する存在領域を推定し、前記存在領域及び前記存在領域が推定された際の推定確率を含む認識出力データを出力する画像認識モジュールと、
前記撮影画像が取得された時点の前記機体位置と前記認識出力データとから前記認識対象物の地図上の位置を示す認識対象物位置情報を生成する認識対象物位置情報生成部と、
を備えた収穫機。
A harvesting machine that harvests crops while traveling in the field,
An aircraft position calculation unit that calculates an aircraft position that is map coordinates of the aircraft based on positioning data from the satellite positioning module;
An imaging unit provided in the machine body for imaging a farm field during harvesting;
When image data of a photographed image sequentially acquired by the photographing unit is input, a presence area where a recognition target object exists in the photographed image is estimated, and the existence area and the existence area are estimated An image recognition module that outputs recognition output data including the estimated probability of
A recognition target object position information generating unit that generates recognition target object position information indicating a position of the recognition target object on a map from the aircraft position at the time when the captured image is acquired and the recognition output data;
Harvester with
前記撮影画像において前記認識対象物が前記撮影部から遠くに位置するほど、当該認識対象物の前記推定確率は低減される請求項1に記載の収穫機。   The harvester according to claim 1, wherein the estimated probability of the recognition object is reduced as the recognition object is located farther from the imaging unit in the captured image. 複数の前記認識対象物位置情報が記憶され、記憶された複数の前記認識対象物位置情報が、対応する前記認識出力データに含まれている前記推定確率の統計的演算の結果に基づいて補正される請求項1または2に記載の収穫機。   A plurality of pieces of recognition object position information are stored, and the plurality of pieces of recognition object position information stored are corrected based on a result of a statistical calculation of the estimated probability included in the corresponding recognition output data. The harvesting machine according to claim 1 or 2. 前記画像認識モジュールから遂次出力された前記認識出力データを認識出力データ列として一時的かつ経時的に記憶するデータ記憶部と、データ判定部とが備えられ、
前記データ判定部は、前記認識出力データ列において継時的に前後関係となる前記認識出力データの前記推定確率と比べて、所定レベル以上に低い前記推定確率を有する前記認識出力データを不適認識出力データとして判定する請求項1から3のいずれか一項に記載の収穫機。
A data storage unit for temporarily and temporally storing the recognition output data sequentially output from the image recognition module as a recognition output data sequence, and a data determination unit,
The data determination unit inappropriately outputs the recognition output data having the estimated probability that is lower than a predetermined level compared to the estimated probability of the recognition output data that is continuously in a context in the recognition output data string. The harvester according to any one of claims 1 to 3, which is determined as data.
前記認識対象物は、人物、倒伏穀稈、雑草、畦のうちの少なくとも1つである請求項1から4のいずれか一項に記載の収穫機。   The harvesting machine according to any one of claims 1 to 4, wherein the recognition target object is at least one of a person, a fallen cereal cocoon, a weed, and a cocoon.
JP2017123440A 2017-06-23 2017-06-23 Harvester Active JP7068781B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017123440A JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester
CN201880029905.8A CN110582198B (en) 2017-06-23 2018-05-21 Harvester
PCT/JP2018/019444 WO2018235486A1 (en) 2017-06-23 2018-05-21 Harvester
KR1020197031226A KR102589076B1 (en) 2017-06-23 2018-05-21 harvest

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123440A JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester

Publications (2)

Publication Number Publication Date
JP2019004772A true JP2019004772A (en) 2019-01-17
JP7068781B2 JP7068781B2 (en) 2022-05-17

Family

ID=65025457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123440A Active JP7068781B2 (en) 2017-06-23 2017-06-23 Harvester

Country Status (1)

Country Link
JP (1) JP7068781B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261823A1 (en) 2019-06-27 2020-12-30 株式会社クボタ Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
WO2020261824A1 (en) * 2019-06-25 2020-12-30 株式会社クボタ Working vehicle, obstacle detection method, and obstacle detection program
CN113923977A (en) * 2019-06-28 2022-01-11 株式会社久保田 Automatic travel system, agricultural machine, program, recording medium having program recorded thereon, and method
WO2022123889A1 (en) * 2020-12-10 2022-06-16 株式会社クボタ Work vehicle, object state detection system, object state detection method, object state detection program, and recording medium in which object state detection program is recorded

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63247869A (en) * 1987-04-03 1988-10-14 Hitachi Ltd Detecting system for picture feature point
JP2000125638A (en) * 1998-10-28 2000-05-09 Yanmar Agricult Equip Co Ltd Combine harvester
JP2008054915A (en) * 2006-08-31 2008-03-13 Iseki & Co Ltd Work vehicle
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2016086668A (en) * 2014-10-30 2016-05-23 井関農機株式会社 combine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63247869A (en) * 1987-04-03 1988-10-14 Hitachi Ltd Detecting system for picture feature point
JP2000125638A (en) * 1998-10-28 2000-05-09 Yanmar Agricult Equip Co Ltd Combine harvester
JP2008054915A (en) * 2006-08-31 2008-03-13 Iseki & Co Ltd Work vehicle
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2016086668A (en) * 2014-10-30 2016-05-23 井関農機株式会社 combine

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261824A1 (en) * 2019-06-25 2020-12-30 株式会社クボタ Working vehicle, obstacle detection method, and obstacle detection program
JP2021003014A (en) * 2019-06-25 2021-01-14 株式会社クボタ Work vehicle
JP7183121B2 (en) 2019-06-25 2022-12-05 株式会社クボタ work vehicle
WO2020261823A1 (en) 2019-06-27 2020-12-30 株式会社クボタ Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
CN113923977A (en) * 2019-06-28 2022-01-11 株式会社久保田 Automatic travel system, agricultural machine, program, recording medium having program recorded thereon, and method
CN113923977B (en) * 2019-06-28 2023-10-24 株式会社久保田 Automatic travel system, agricultural machine, recording medium, and method
WO2022123889A1 (en) * 2020-12-10 2022-06-16 株式会社クボタ Work vehicle, object state detection system, object state detection method, object state detection program, and recording medium in which object state detection program is recorded

Also Published As

Publication number Publication date
JP7068781B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
KR102589076B1 (en) harvest
US11170547B2 (en) Combine, method of generating field farming map, program for generating the field farming map and storage medium recording the field farming map generating program
US20220230444A1 (en) Obstacle Detection System, Agricultural Work Vehicle, Obstacle Detection Program, Recording Medium on Which Obstacle Detection Program is Recorded, and Obstacle Detection Method
JP6854713B2 (en) combine
JP2019004772A (en) Harvesting machine
JP7381402B2 (en) automatic driving system
WO2020218464A1 (en) Harvester, obstacle determination program, recording medium on which obstacle determination program is recorded, obstacle determination method, agricultural work machine, control program, recording medium on which control program is recorded, and control method
JP2019083703A (en) Harvesting machine
JP7246641B2 (en) agricultural machine
JP2021007385A (en) Farm implement
JP2020178619A (en) Agricultural work machine
JP2021003014A (en) Work vehicle
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
WO2020218528A1 (en) Agricultural machine such as harvester
WO2020262287A1 (en) Farm operation machine, autonomous travel system, program, recording medium in which program is recorded, and method
JP2019004773A (en) Harvesting machine
JP7041889B2 (en) Head harvester combine
JP7174487B2 (en) agricultural machine
KR20230001514A (en) Work support system
JP2020202761A (en) Harvester

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220119

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220126

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7068781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150