JP2021058099A - Agricultural implement - Google Patents

Agricultural implement Download PDF

Info

Publication number
JP2021058099A
JP2021058099A JP2019182770A JP2019182770A JP2021058099A JP 2021058099 A JP2021058099 A JP 2021058099A JP 2019182770 A JP2019182770 A JP 2019182770A JP 2019182770 A JP2019182770 A JP 2019182770A JP 2021058099 A JP2021058099 A JP 2021058099A
Authority
JP
Japan
Prior art keywords
unit
area
distance
specific object
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019182770A
Other languages
Japanese (ja)
Other versions
JP7246641B2 (en
Inventor
飯田 訓久
Kunihisa Iida
訓久 飯田
楊 李
Yang Li
楊 李
隆志 中林
Takashi Nakabayashi
隆志 中林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Kyoto University
Original Assignee
Kubota Corp
Kyoto University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp, Kyoto University filed Critical Kubota Corp
Priority to JP2019182770A priority Critical patent/JP7246641B2/en
Publication of JP2021058099A publication Critical patent/JP2021058099A/en
Application granted granted Critical
Publication of JP7246641B2 publication Critical patent/JP7246641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an agricultural implement in which an object detection technology is installed for accurately and quickly detecting an object in a farm field together with a distance from a machine body.SOLUTION: An agricultural implement includes an imaging unit 9A for imaging a specified area of a farm field, a neural network 4 which inputs an imaged image from the imaging unit 9A, recognizes a specified object imaged in the imaged image, and outputs object area information indicating an area occupied by the specified object in the imaged image, a space position measuring unit 52 which images the specified area and generates object position information indicating space positions of all the objects present in the specified area, a distance calculation unit 53 which determines the space position of the specified object on the basis of the object position information and the object area information, and calculates a specified object distance being a distance to the specified object, and an object detection signal generation unit which outputs an object detection signal on the basis of the specified object distance.SELECTED DRAWING: Figure 4

Description

本発明は、圃場に存在する物体を検出しながら作業走行する農作業機に関する。 The present invention relates to an agricultural work machine that runs while detecting an object existing in a field.

特許文献1による農作業機には、圃場に存在する障害物を検出するための超音波式の障害物センサが備えられており、障害物センサによって障害物が検出された場合、危険防止のためにエンジン等が停止される。 The agricultural work machine according to Patent Document 1 is provided with an ultrasonic obstacle sensor for detecting an obstacle existing in the field, and when an obstacle is detected by the obstacle sensor, in order to prevent danger. The engine etc. is stopped.

特許文献2によるコンバインには、レーザースキャナが備えられている。このレーザースキャナは、刈取対象物が刈り取られることによって圃場面の大部分が露出している領域に立ち入った人を検出するために、刈取部の右側部分に偏ってレーザーが照射されるように構成されている。また、特許文献2では、障害物を検出するために、レーザースキャナに代えて、ミリ波レーダを用いること、あるいはカメラ等を用いた画像処理を用いることも可能であると記載されている。 The combine according to Patent Document 2 is provided with a laser scanner. This laser scanner is configured so that the laser is biased to the right part of the cutting part in order to detect a person who has entered the area where most of the field scene is exposed due to the cutting object being cut. Has been done. Further, Patent Document 2 describes that it is possible to use a millimeter-wave radar instead of a laser scanner, or to use image processing using a camera or the like in order to detect an obstacle.

特許文献3によるコンバインでは、機体に設けられた撮影部によって逐次取得された撮影画像が入力されることで、この撮影画像に写っている認識対象物が存在する存在領域がその推定確率ともに出力される。高い推定確率で認識対象物が推定されると、警告の報知や走行制御が行われる。この認識対象物の推定には機械学習が用いられているが、機械学習の詳しい構成は開示されていない。 In the combine according to Patent Document 3, by inputting the photographed images sequentially acquired by the photographing unit provided in the machine body, the existence area where the recognition object in the photographed image exists is output together with the estimated probability. To. When the recognition target is estimated with a high estimation probability, warning notification and running control are performed. Machine learning is used to estimate this perceptible object, but the detailed structure of machine learning is not disclosed.

特開平9−76850号公報Japanese Unexamined Patent Publication No. 9-76850 特開2017−176007号公報JP-A-2017-176007 特開2019−004773号公報Japanese Unexamined Patent Publication No. 2019-004773

圃場における農作業機による作業走行では、人や動物などの物体が走行障害物として存在する可能性がある。この物体が機体進行方向で機体の近くに存在している場合、機体に物体が干渉することを回避する必要がある。このためには、走行障害物となるような物体は高い精度で検出されるとともに、機体との距離も高い精度で算出される必要がある。しかしながら、従来の農作業機に搭載されている物体検出技術では、圃場における物体を迅速かつ高精度に検出することが困難であった。このような実情から、圃場における物体を、機体からの距離とともに迅速かつ高精度に検出する物体検出技術を搭載した農作業機が要望されている。 When working with a farming machine in a field, objects such as humans and animals may exist as running obstacles. When this object is near the aircraft in the direction of travel of the aircraft, it is necessary to avoid the object from interfering with the aircraft. For this purpose, it is necessary to detect an object that becomes a traveling obstacle with high accuracy and to calculate the distance to the aircraft with high accuracy. However, it has been difficult to detect an object in a field quickly and with high accuracy by the object detection technique mounted on a conventional agricultural work machine. From such a situation, there is a demand for an agricultural work machine equipped with an object detection technology that detects an object in a field quickly and with high accuracy together with a distance from the machine body.

本発明による、圃場を作業走行する農作業機は、前記圃場の特定領域を撮影する撮影ユニットと、前記撮影ユニットからの撮影画像を入力して、前記撮影画像に写っている特定物体を認識し、当該特定物体が前記撮影画像において占める領域を示す物体領域情報を出力するニューラルネットワークと、前記特定領域を撮影し、前記特定領域に存在する物体全ての空間位置を示す物体位置情報を生成する空間位置測定部と、前記物体位置情報と前記物体領域情報とに基づいて前記特定物体の空間位置を決定し、機体から前記特定物体までの距離である特定物体距離を算出する距離算出部と、前記特定物体距離に基づいて物体検出信号を出力する物体検出信号生成部と、を備える。 The agricultural work machine according to the present invention works on a field, inputs a photographing unit for photographing a specific area of the field, and an image photographed from the photographing unit, recognizes a specific object reflected in the photographed image, and recognizes the specific object. A neural network that outputs object area information indicating the area occupied by the specific object in the captured image, and a spatial position that photographs the specific area and generates object position information indicating the spatial positions of all the objects existing in the specific area. The measurement unit, the distance calculation unit that determines the spatial position of the specific object based on the object position information and the object area information, and calculates the specific object distance that is the distance from the machine body to the specific object, and the specific object. It includes an object detection signal generation unit that outputs an object detection signal based on the object distance.

この構成によれば、ニューラルネットワークは撮影ユニットからの撮影画像を用いて圃場の特定領域に存在する特定物体を認識し、当該特定物体の撮影画像において占める領域を示す物体領域情報を出力する。空間位置測定部は、撮影された圃場の特定領域に存在する物体全ての空間位置を示す物体位置情報を生成する。ニューラルネットワークが検知した特定物体が特定領域において占める領域の空間位置が、物体領域情報と物体位置情報とを対応させることで算出され、さらに機体から特定物体までの距離が算出される。例えば、物体領域情報に示された特定物体が人間などの走行障害物である場合、物体領域情報と物体位置情報とを対応させることで、機体から走行障害物までの距離が算出されるので、その距離に応じた機体の制御が可能となる。この発明では、特定物体の正確な空間位置の算出はできなくても特定物体の検知能力に優れているニューラルネットワークと、特定物体の検知能力はなくても何らかの物体(不明物体)の正確な空間位置の算出能力に優れている空間位置測定部とを組み合わせることで、圃場における特定物体を、機体からの距離とともに迅速かつ高精度に検出することができる農作業機が提供される。 According to this configuration, the neural network recognizes a specific object existing in a specific area of the field by using the image taken from the photographing unit, and outputs the object area information indicating the area occupied in the photographed image of the specific object. The spatial position measuring unit generates object position information indicating the spatial positions of all the objects existing in the specific area of the photographed field. The spatial position of the area occupied by the specific object detected by the neural network is calculated by associating the object area information with the object position information, and further, the distance from the aircraft to the specific object is calculated. For example, when the specific object shown in the object area information is a traveling obstacle such as a human being, the distance from the aircraft to the traveling obstacle is calculated by associating the object area information with the object position information. It is possible to control the aircraft according to the distance. In the present invention, a neural network having excellent detection ability of a specific object even if it is not possible to calculate an accurate spatial position of a specific object, and an accurate space of some object (unknown object) even if it does not have the detection ability of a specific object. By combining with a spatial position measuring unit having excellent position calculation ability, an agricultural work machine capable of quickly and highly accurately detecting a specific object in a field together with a distance from the machine is provided.

撮影画像から、撮影画像における特定物体を認識して当該特定物体の当該撮影画像における領域を示す物体領域情報を出力するために、本発明の好適な実施形態の1つでは、前記ニューラルネットワークは、エンコーダネットワークとデコーダネットワークとからなるセグメンテーションニューラルネットワーク(セマンティックセグメンテーション)で構成され、前記物体領域情報には、前記特定物体の輪郭が含まれている。この構成では、撮影画像が入力されると、当該撮影画像に含まれる物体を少なくとも1つ以上に分別して、その分別がわかるように識別された画像、例えば、物体の種別に応じて異なる色で表現された画像(ラベル画像)が出力される。したがって、物体領域情報から撮影画像における特定物体の輪郭を示すデータを取り出すことができる。 In one of the preferred embodiments of the present invention, the neural network is used to recognize a specific object in the captured image and output object region information indicating a region of the specific object in the captured image from the captured image. It is composed of a segmentation neural network (semantic segmentation) composed of an encoder network and a decoder network, and the object area information includes a contour of the specific object. In this configuration, when a photographed image is input, the objects included in the photographed image are separated into at least one, and the identified images so that the separation can be understood, for example, different colors depending on the type of the object. The expressed image (label image) is output. Therefore, it is possible to extract data showing the outline of a specific object in the captured image from the object area information.

セグメンテーションニューラルネットワークを、そのまま実装すると、ネットワーク構造が複雑となることから、演算処理負担が大きくなり、処理速度が低下する。ネットワークを高速化するためには、ネットワークを構成する隠れ層のユニット(パーセプトロンとも呼ばれる)数をプルーニングにより低減することが好適である。このため、本発明の好適な実施形態の1つでは、前記エンコーダネットワーク及び前記デコーダネットワークを構成する隠れ層には、畳み込み層とプーリング層とバッチ正規化層(batchNormalizationLayer)とが含まれ、前記バッチ正規化層におけるパラメータに基づいてプルーニング(Pruning)が行われる。この構成では、バッチ正規化層におけるバッチ正規化演算によって得られたパラメータに基づいて、良好な出力を行うための寄与率が小さいと判断されたユニットは、不使用にする。これにより、ネットワーク構造が簡単化され、ニューラルネットワークの処理速度が速くなる。 If the segmentation neural network is implemented as it is, the network structure becomes complicated, so that the calculation processing load increases and the processing speed decreases. In order to speed up the network, it is preferable to reduce the number of hidden layer units (also called perceptrons) constituting the network by pruning. Therefore, in one of the preferred embodiments of the present invention, the encoder network and the hidden layer constituting the decoder network include a convolutional layer, a pooling layer, and a batch normalization layer, and the batch is described. Pruning is performed based on the parameters in the normalization layer. In this configuration, the unit judged to have a small contribution rate for good output based on the parameters obtained by the batch normalization operation in the batch normalization layer is not used. This simplifies the network structure and increases the processing speed of the neural network.

特定物体までの距離は、特定物体との干渉を回避するための機体制御などに用いられるので、迅速かつ正確に算出される必要がある。また、特定物体までの距離の算出に外乱等でエラー値となった測定値が用いられることはできるだけ避けなければならない。このような観点から、本発明の好適な実施形態の1つでは、前記特定物体距離は、前記特定物体の前記輪郭から算出される前記特定物体の重心から前記機体までの距離、または前記輪郭内に含まれる距離測定点の統計的代表値である。重心位置は、輪郭を示す多数の距離測定点の座標(空間位置)から算出される。統計的代表値は、中間値や中央値や平均値であり、これも多数の距離測定点に基づいて算出される。このように、特定物体距離の算出に、特定物体の重心や統計的代表値を用いることで、特定物体までの距離の算出において、エラー値が大きな割合を占めることは抑制される。 Since the distance to the specific object is used for aircraft control to avoid interference with the specific object, it is necessary to calculate it quickly and accurately. In addition, it should be avoided as much as possible that the measured value, which is an error value due to disturbance or the like, is used for calculating the distance to a specific object. From such a viewpoint, in one of the preferred embodiments of the present invention, the specific object distance is the distance from the center of gravity of the specific object to the machine body calculated from the contour of the specific object, or within the contour. It is a statistical representative value of the distance measurement point included in. The position of the center of gravity is calculated from the coordinates (spatial position) of a large number of distance measurement points showing contours. Statistical representative values are intermediate, median, and average values, which are also calculated based on a large number of distance measurement points. In this way, by using the center of gravity of the specific object and the statistical representative value in the calculation of the distance to the specific object, it is possible to prevent the error value from occupying a large proportion in the calculation of the distance to the specific object.

本発明の好適な実施形態の1つでは、前記空間位置測定部は、前記特定領域に対するステレオマッチング技術を用いて前記物体位置情報を生成する。この構成では、圃場の特定領域の撮影画像を用いたステレオマッチングにより、3次元点群データが生成される。点群データの各点はそれぞれ3次元位置、つまり空間位置を有するので、3次元点群データに基づいて物体位置情報が生成される。ステレオマッチングに用いられる撮影画像は、ニューラルネットワークに用いられる撮影画像を流用することも可能であるが、ステレオマッチングに適した解像度の撮影画像を得るために、好ましくは、専用のカメラによる撮影画像が用いられるとよい。もちろん、その際には、ニューラルネットワークに用いられる撮影画像の撮影視野と同じかそれより広い撮影視野をもつステレオマッチング用撮影画像が用いられる。 In one of the preferred embodiments of the present invention, the spatial position measuring unit generates the object position information by using a stereo matching technique for the specific area. In this configuration, three-dimensional point cloud data is generated by stereo matching using a photographed image of a specific area of the field. Since each point in the point cloud data has a three-dimensional position, that is, a spatial position, object position information is generated based on the three-dimensional point cloud data. As the captured image used for stereo matching, the captured image used for the neural network can be diverted, but in order to obtain a captured image having a resolution suitable for stereo matching, an image captured by a dedicated camera is preferably used. It should be used. Of course, in that case, a stereo matching photographed image having a photographed field of view equal to or wider than the photographed field of view of the photographed image used for the neural network is used.

種々の農作業機の中でも農作物を刈り取る収穫機が走行する圃場には、圃場面から高く生育した農作物の存在する未刈地、この農作物を刈り取った後に残された未刈地、それらの囲む畔が存在する。稲や麦などの農作物は倒伏姿勢となっている区域もあり、その高さは場所によって変動する。さらに、既刈地と未刈地の領域は、刈取り作業の進行に伴って変動する。人や動物などの特定物体の検出において、既刈地と未刈地の区別、未刈地に生育している農作物の高さを検出しておくことは、重要である。このことから、前記農作業機が農作物を刈り取る収穫部を有する収穫機である場合での、本発明の好適な実施形態の1つでは、前記物体位置情報に基づいて、前記収穫部によって刈り取られた既刈地と未刈地との境界及び前記農作物の高さを含む圃場刈取り情報を作成する圃場情報作成部が備えられている。この圃場刈取り情報を用いることで、農作物に沈み込んでいる領域で検出される特定物体や、既刈地である圃場面の上方の領域で検出されている特定物体は誤検出とみなすことが可能であり、それらの領域をマスキングすることができる。また、畔より遠く離れた領域で検出された物体は、走行障害物にはならないので、そのような領域もマスキングすることが可能である。これにより、人や動物などの走行障害物を迅速かつ正確に検出して、機体がそれらと干渉することを回避することができる。 Among the various agricultural work machines, the fields where the harvesters that harvest the crops run include the uncut land where the crops that have grown high from the field scene exist, the uncut land left after cutting the crops, and the surrounding shores. Exists. Agricultural products such as rice and wheat are in a prone position in some areas, and their height varies from place to place. In addition, the areas of mowed and uncut land fluctuate as the mowing work progresses. In detecting specific objects such as humans and animals, it is important to distinguish between mowed land and uncut land, and to detect the height of crops growing on uncut land. From this, in one of the preferred embodiments of the present invention in the case where the agricultural work machine is a harvester having a harvesting part for cutting agricultural products, it was cut by the harvesting part based on the object position information. A field information creation unit for creating field harvesting information including the boundary between the cut land and the uncut land and the height of the crop is provided. By using this field mowing information, it is possible to consider a specific object detected in the area submerged in the crop or a specific object detected in the area above the field scene that is already mowed as a false detection. And can mask those areas. Further, since the object detected in the area far from the shore does not become a traveling obstacle, it is possible to mask such an area as well. This makes it possible to quickly and accurately detect traveling obstacles such as humans and animals and prevent the aircraft from interfering with them.

本発明の好適な実施形態の1つでは、前記機体からの位置に基づいて規定される障害物警戒領域を設定する警戒領域設定部と、車速を変更する車速変更指令出力部(物体検出信号生成部の一例)とが備えられており、前記特定物体が走行障害物であり、かつ前記走行障害物が前記障害物警戒領域に存在する場合、前記車速変更指令出力部は前記特定物体距離に基づいて車速を変更する。この構成によれば、検出された特定物体、つまり走行障害物が障害物警戒領域に存在するとみなされると、当該走行障害物と機体との位置関係に応じて車速が変更される。したがって、機体と走行障害物との位置関係から所定時間内での干渉可能性が大きい場合と、干渉可能性が小さい場合とによって車速の変更度合を相違させることができる。その際、例えば、機体と走行障害物との位置関係から相対的に短い時間内での干渉可能性が大きい場合での車速の変更は、車速ゼロへの変更、つまり機体を停止にさせることになる。これにより、機体と走行障害物との位置関係から相対的に短い時間内での干渉可能性が小さい場合でも、機体を停止させ、作業性を低下させるようなことは、低減される。 In one of the preferred embodiments of the present invention, there is a warning area setting unit that sets an obstacle warning area defined based on the position from the aircraft, and a vehicle speed change command output unit (object detection signal generation) that changes the vehicle speed. When the specific object is a traveling obstacle and the traveling obstacle exists in the obstacle warning area, the vehicle speed change command output unit is based on the specific object distance. And change the vehicle speed. According to this configuration, when the detected specific object, that is, the traveling obstacle is considered to exist in the obstacle warning area, the vehicle speed is changed according to the positional relationship between the traveling obstacle and the aircraft. Therefore, the degree of change in the vehicle speed can be different depending on whether the possibility of interference within a predetermined time is large or the possibility of interference is small due to the positional relationship between the aircraft and the traveling obstacle. At that time, for example, changing the vehicle speed when there is a high possibility of interference within a relatively short time due to the positional relationship between the aircraft and the traveling obstacle is to change the vehicle speed to zero, that is, to stop the aircraft. Become. As a result, even when the possibility of interference within a relatively short time is small due to the positional relationship between the machine body and the traveling obstacle, it is possible to reduce the possibility of stopping the machine body and reducing workability.

コンバインの全体側面図である。It is an overall side view of a combine. 機体前部に装備されたカメラによる特定物体検出範囲を示す模式図である。It is a schematic diagram which shows the specific object detection range by the camera equipped in the front part of the fuselage. セグメンテーションニューラルネットワークの構造を示す模式図である。It is a schematic diagram which shows the structure of a segmentation neural network. 特定物体の検出および特定物体の空間位置を求める処理の模式的な流れ図である。It is a schematic flow chart of the process of detecting a specific object and finding the spatial position of the specific object. 図4による流れ図の別形態を示す流れ図である。It is a flow chart which shows another form of the flow chart according to FIG. 検出された走行障害物の警戒判定に用いられる第1警戒領域と第2警戒領域とを示す平面図である。It is a top view which shows the 1st warning area and the 2nd warning area used for the warning determination of the detected running obstacle. コンバインにおける制御系の機能ブロック図である。It is a functional block diagram of a control system in a combine. 走行障害物回避制御の流れを示すフローチャートである。It is a flowchart which shows the flow of the traveling obstacle avoidance control.

以下、本発明に係る農作業機の一例である収穫機としてのコンバインの実施形態を図面に基づいて説明する。収穫対象となる農作物は、小麦や稲などの植立穀稈である。この実施形態で、機体1の前後方向を定義するときは、作業状態における機体進行方向に沿って定義する。図1に符号(F)で示す方向が機体前側、図1に符号(B)で示す方向が機体後側である。機体1の左右方向を定義するときは、機体進行方向視で見た状態で左右を定義する。「上側(上方)」または「下側(下方)」は、機体1の鉛直方向(垂直方向)での位置関係であり、地上高さにおける関係を示す。 Hereinafter, an embodiment of the combine as a harvester, which is an example of the agricultural work machine according to the present invention, will be described with reference to the drawings. The crops to be harvested are planted culms such as wheat and rice. In this embodiment, when the front-rear direction of the machine body 1 is defined, it is defined along the machine body traveling direction in the working state. The direction indicated by the reference numeral (F) in FIG. 1 is the front side of the aircraft, and the direction indicated by the reference numeral (B) in FIG. 1 is the rear side of the aircraft. When defining the left-right direction of the aircraft 1, the left-right direction is defined in the state of being viewed in the direction of travel of the aircraft. “Upper side (upper side)” or “lower side (lower side)” is a positional relationship of the aircraft 1 in the vertical direction (vertical direction), and indicates a relationship at a height above the ground.

図1に示すように、コンバインは、左右一対のクローラ走行装置10を備えた機体1の前部に横軸芯周りで昇降操作自在に収穫部である刈取部2が連結されている。左右それぞれのクローラ走行装置10の速度差によって、機体1は左右旋回可能となる。機体1の後部には、機体横幅方向に並ぶ状態で脱穀装置11と、穀粒を貯留する穀粒タンク12とが備えられている。機体1の前部右側箇所に搭乗運転部14が備えられ、この搭乗運転部14の下方に図示されていないエンジンが備えられている。 As shown in FIG. 1, in the combine, a harvesting portion 2 which is a harvesting portion is connected to the front portion of the machine body 1 provided with a pair of left and right crawler traveling devices 10 so as to be movable up and down around the horizontal axis. Due to the speed difference between the left and right crawler traveling devices 10, the machine body 1 can turn left and right. The rear part of the machine body 1 is provided with a threshing device 11 in a state of being lined up in the width direction of the machine body, and a grain tank 12 for storing grains. A boarding operation unit 14 is provided on the right side of the front portion of the aircraft 1, and an engine (not shown) is provided below the boarding operation unit 14.

図1に示すように、脱穀装置11は、刈取部2で刈り取られて後方に搬送されてきた刈取穀稈を内部に受け入れて、穀稈の株元をフィードチェーン111と挟持レール112とによって挟持して搬送しながら穂先側を扱胴113にて脱穀処理する。そして、扱胴113の下方に備えられた選別部にて脱穀処理物に対する穀粒選別処理が実行され、そこで選別された穀粒が穀粒タンク12へ搬送され、貯留される。また、詳述はしないが、穀粒タンク12にて貯留される穀粒を外部に排出する穀粒排出装置13が備えられている。 As shown in FIG. 1, the threshing device 11 receives the harvested culm cut by the cutting unit 2 and transported to the rear inside, and sandwiches the stock of the culm by the feed chain 111 and the sandwiching rail 112. The tip side is threshed by the culm 113 while being transported. Then, a grain sorting process for the threshed product is executed in the sorting section provided below the handling cylinder 113, and the grains sorted there are transported to the grain tank 12 and stored. Further, although not described in detail, a grain discharge device 13 for discharging grains stored in the grain tank 12 to the outside is provided.

刈取部2には、引起された植立穀稈の株元を切断するバリカン型の切断装置22、穀稈搬送装置23等が備えられている。穀稈搬送装置23は、株元が切断された縦姿勢の刈取穀稈を徐々に横倒れ姿勢に変更させながら、フィードチェーン111の始端部に向けて搬送する。 The cutting unit 2 is provided with a clipper-type cutting device 22 for cutting the root of the raised planted culm, a culm transporting device 23, and the like. The grain culm transport device 23 transports the cut grain culm in the vertical position in which the stock root has been cut toward the start end of the feed chain 111 while gradually changing the cut grain culm to the sideways position.

搭乗運転部14の天井部には、衛星測位モジュール80も設けられている。衛星測位モジュール80には、GNSS(global navigation satellite system)信号(GPS信号を含む)を受信するための衛星用アンテナが含まれている。衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサからなる慣性航法ユニットを衛星測位モジュール80に組み込んでもよい。もちろん、慣性航法ユニットは別の場所に配置できる。コンバインの前部には、障害物検出のために用いられる光学センサユニット9が設けられている。この光学センサユニット9には、RGBカメラである撮影ユニット9Aと、深度計測が可能なステレオビジョンカメラ9Bと、照明器9Cが含まれている。 A satellite positioning module 80 is also provided on the ceiling of the boarding operation unit 14. The satellite positioning module 80 includes a satellite antenna for receiving GNSS (global navigation satellite system) signals (including GPS signals). In order to complement the satellite navigation by the satellite positioning module 80, an inertial navigation unit including a gyro acceleration sensor and a magnetic orientation sensor may be incorporated in the satellite positioning module 80. Of course, the inertial navigation system can be placed elsewhere. An optical sensor unit 9 used for detecting obstacles is provided on the front portion of the combine. The optical sensor unit 9 includes a photographing unit 9A which is an RGB camera, a stereo vision camera 9B capable of measuring depth, and an illuminator 9C.

図2に示すように、光学センサユニット9の各カメラは、圃場における機体1の進行方向前方の特定領域を撮影視野とするように設定されている。この実施形態では、ステレオビジョンカメラ9Bの水平視野角、垂直視野角、斜め視野角は、それぞれ、100°、70°、100°程度である。 As shown in FIG. 2, each camera of the optical sensor unit 9 is set so that a specific region in front of the traveling direction of the machine body 1 in the field is set as a shooting field of view. In this embodiment, the horizontal viewing angle, the vertical viewing angle, and the oblique viewing angle of the stereo vision camera 9B are about 100 °, 70 °, and 100 °, respectively.

図3に示すように、撮影ユニット9Aから出力される撮影画像は、ニューラルネットワーク4の入力データとして用いられる。ニューラルネットワーク4は、撮影画像を入力して、この撮影画像に写っている特定物体を認識し、当該特定物体の撮影画像において占める領域を示す物体領域情報を出力する。 As shown in FIG. 3, the photographed image output from the photographing unit 9A is used as the input data of the neural network 4. The neural network 4 inputs a captured image, recognizes a specific object appearing in the captured image, and outputs object area information indicating an area occupied by the captured image of the specific object.

この実施形態では、ニューラルネットワーク4は、エンコーダネットワーク4Aとデコーダネットワーク4Bとからなるセグメンテーションニューラルネットワークとして構成されている。エンコーダネットワーク4Aは入力層41と複数の隠れ層42とからなり、デコーダネットワーク4Bは複数の隠れ層42と出力層43とからなる。隠れ層42は、畳み込み層とプーリング層を含んでいる。セグメンテーションタイプのニューラルネットワーク4から出力される出力データは、入力された撮影画像に対するラベル画像であり、その各画素には、検出された(分別された)特定物体を識別するラベルが割り当てられている。なお、図3では、ラベルとして濃淡色が用いられており、濃淡色によって特定物体としての植立穀稈(未刈地)と刈り跡(既刈地)とが区分けされている。 In this embodiment, the neural network 4 is configured as a segmentation neural network including an encoder network 4A and a decoder network 4B. The encoder network 4A is composed of an input layer 41 and a plurality of hidden layers 42, and the decoder network 4B is composed of a plurality of hidden layers 42 and an output layer 43. The hidden layer 42 includes a convolutional layer and a pooling layer. The output data output from the segmentation type neural network 4 is a label image for the input captured image, and each pixel is assigned a label that identifies the detected (sorted) specific object. .. In FIG. 3, a shade color is used as the label, and the planted grain culm (uncut land) and the cut trace (already cut land) as specific objects are classified by the shade color.

さらに、この実施形態では、ニューラルネットワーク4を高速化するために、隠れ層42には、バッチ正規化層(batchNormalizationLayer)44が介在しており、バッチ正規化層44におけるパラメータに基づいてプルーニング(Pruning)が行われる。このプルーニングでは、以下に説明するように、バッチ正規化層44におけるパラメータに基づいて隠れ層42のユニット数が削減される。 Further, in this embodiment, in order to speed up the neural network 4, a batch normalization layer 44 is interposed in the hidden layer 42, and pruning is performed based on the parameters in the batch normalization layer 44. ) Is performed. In this pruning, the number of units in the hidden layer 42 is reduced based on the parameters in the batch regularization layer 44, as described below.

ここでのプルーニングの説明にあたって、バッチ正規化層への入力ベクトルを、

Figure 2021058099
とし、
出力を、
Figure 2021058099
とすると、
Figure 2021058099
となる。
ここで用いられたγがユニット削減のパラメータとして用いられる。つまり、学習処理において、パラメータ:γが小さいユニットが削除される。 In the explanation of pruning here, the input vector to the batch regularization layer is
Figure 2021058099
age,
Output,
Figure 2021058099
Then
Figure 2021058099
Will be.
The γ used here is used as a parameter for unit reduction. That is, in the learning process, the unit having a small parameter: γ is deleted.

光学センサユニット9の撮影ユニット9Aからの撮影画像、及び、ステレオビジョンカメラ9Bからのステレオビジョン画像を用いて、特定物体の検出および特定物体の空間位置を求める処理の模式的な流れ図が、図4に示されている。 FIG. 4 shows a schematic flow chart of a process of detecting a specific object and obtaining a spatial position of the specific object using the image captured from the photographing unit 9A of the optical sensor unit 9 and the stereo vision image from the stereo vision camera 9B. It is shown in.

まず、一方では、撮影ユニット9Aからの撮影画像が、学習済のニューラルネットワーク4に入力されると、撮影画像に特定物体が存在しているどうかが推定され、特定物体が推定されると、推定された特定物体が占める領域を示す物体領域情報が出力される(#a)。図4では、物体領域情報は、人と植立穀稈(未刈地)と刈り跡(既刈地)と畔とが区分けされたラベル画像として示されている。検出された人が占める領域である人の輪郭は、このラベル画像から求めることができる。 First, on the other hand, when the captured image from the photographing unit 9A is input to the trained neural network 4, it is estimated whether or not a specific object exists in the captured image, and it is estimated that the specific object is estimated. The object area information indicating the area occupied by the specific object is output (#a). In FIG. 4, the object area information is shown as a label image in which a person, a planted culm (uncut land), a cut trace (already cut land), and a shore are separated. The outline of the person, which is the area occupied by the detected person, can be obtained from this label image.

他方では、ステレオビジョンカメラ9Bからのステレオビジョン画像に基づいて、空間位置測定部52が、ステレオマッチング技術を用いて、特定領域に存在する物体全ての空間位置(多数の距離測定点からなる深度データ群である)を示す物体位置情報を生成する。物体位置情報は、図4では、各画素の深度を濃淡色で表した、深度画像と呼ばれる画像として出力される(#b)。各画素は、ステレオマッチング点に対応しており、これらの点群は、三次元座標値を有するので、3次元点群データと呼ばれ、3次元座標空間(特定領域)に展開可能である。 On the other hand, based on the stereovision image from the stereo vision camera 9B, the spatial position measuring unit 52 uses the stereo matching technique to spatially position all the objects existing in the specific area (depth data consisting of a large number of distance measuring points). Generates object position information indicating (a group). In FIG. 4, the object position information is output as an image called a depth image in which the depth of each pixel is represented by light and shade colors (# b). Each pixel corresponds to a stereo matching point, and since these point clouds have three-dimensional coordinate values, they are called three-dimensional point cloud data and can be expanded in a three-dimensional coordinate space (specific area).

次に、ニューラルネットワーク4から出力された物体領域情報と、空間位置測定部52から出力された物体位置情報とに基づいて、機体1から走行障害物となる人や動物(図4では人)までの距離である特定物体距離が距離算出部53によって算出される(#c)。なお、この実施形態では、特定物体距離は、検出された人の輪郭に含まれる多数の距離測定点を用いて算出される人の輪郭の重心(図4ではP1で示されている)から機体1までの距離である。特定物体距離の基準点として、輪郭の重心に代えて、輪郭に含まれる多数の距離測定点の統計的代表値(中間値や中央値や平均値など)を用いてもよい。 Next, based on the object area information output from the neural network 4 and the object position information output from the spatial position measurement unit 52, from the aircraft 1 to a person or an animal (a person in FIG. 4) that becomes a traveling obstacle. The specific object distance, which is the distance of, is calculated by the distance calculation unit 53 (#c). In this embodiment, the specific object distance is calculated from the center of gravity of the human contour (indicated by P1 in FIG. 4) calculated by using a large number of distance measurement points included in the detected human contour. The distance to 1. As the reference point of the specific object distance, a statistical representative value (intermediate value, median value, average value, etc.) of a large number of distance measurement points included in the contour may be used instead of the center of gravity of the contour.

以上の図4の説明では、物体位置情報がそのまま距離算出部53に与えられ、特定物体距離の算出に用いられている。別実施形態として、この図4に示す方法に代えて、図5に示されているような方法を採用してもよい。図5に示された方法では、圃場情報作成部54は、物体位置情報から圃場面を1つの基準面(底面)とする3次元座標系で展開された3次元点群データを作成する(#c1)。さらに、圃場情報作成部54は、3次元点群データと物体領域情報とから、畔、植立穀稈、刈り跡、既刈地と未刈地との境界を含む圃場刈取り情報を作成する(#c2と#c3)。距離算出部53は、物体位置情報と物体領域情報と圃場刈取り情報とに基づいて、走行障害物である特定物体を決定し、この決定された特定物体の重心(図5ではP1で示されている)と機体1との距離を特定物体距離として算出する(#c)。 In the above description of FIG. 4, the object position information is given to the distance calculation unit 53 as it is, and is used for calculating the specific object distance. As another embodiment, instead of the method shown in FIG. 4, a method as shown in FIG. 5 may be adopted. In the method shown in FIG. 5, the field information creation unit 54 creates 3D point cloud data developed in a 3D coordinate system with the field scene as one reference plane (bottom surface) from the object position information (#). c1). Further, the field information creation unit 54 creates field cutting information including the shore, the planted culm, the cutting trace, and the boundary between the cut land and the uncut land from the three-dimensional point cloud data and the object area information ( # C2 and # c3). The distance calculation unit 53 determines a specific object that is a traveling obstacle based on the object position information, the object area information, and the field cutting information, and the center of gravity of the determined specific object (shown by P1 in FIG. 5). The distance between (is) and the aircraft 1 is calculated as the specific object distance (#c).

検出された走行障害物が機体1と干渉する可能性がある場合、走行障害物との干渉回避の制御が行われる。このために用いる障害物警戒領域は、図6に示すように、機体1の進行方向前方に広がる圃場面に対応する基準面(XY平面)上に規定される。ここでは、障害物警戒領域は、機体1との位置関係が異なる第1警戒領域(図6では濃く塗りつぶされ、符号Z1が付与されている)と第2警戒領域(図6では薄く塗りつぶされ、符号Z2が付与されている)とからなる。 When there is a possibility that the detected traveling obstacle interferes with the aircraft 1, control of avoiding interference with the traveling obstacle is performed. As shown in FIG. 6, the obstacle warning area used for this purpose is defined on a reference plane (XY plane) corresponding to a field scene extending forward in the traveling direction of the aircraft 1. Here, the obstacle warning area is the first warning area (darkly painted and given the code Z1 in FIG. 6) and the second warning area (lightly painted in FIG. 6) having different positional relationships with the aircraft 1. The symbol Z2 is assigned).

第1警戒領域は、刈取部2の作業幅と、機体1から機体1の進行方向前方への警戒距離(図6では符号L1で示されている)とによって規定される長方形から、撮影ユニット9A及びステレオビジョンカメラ9Bのカメラ画角によって決まる死角領域を切り取った先端楔状の領域である。言い換えると、第1警戒領域は、実質的にコンバインの走行軌跡幅である刈取部2の左右幅の一辺とし、機体1から進行方向前方への所定距離(警戒距離)を他辺とする長方形から、カメラ画角によって決まる死角領域を切り取った形状である。この第1警戒領域に存在する走行障害物は、コンバインの進行によりコンバインと接触することになる。したがって、その警戒距離は、コンバインの車速に応じて変更されるのが好ましいが、この実施形態では、作業走行速度が実質的に一定であるので、数mに設定されている。 The first warning area is a rectangular shape defined by the working width of the cutting unit 2 and the warning distance from the machine 1 to the front in the traveling direction (indicated by the reference numeral L1 in FIG. 6), and the photographing unit 9A. It is a tip wedge-shaped region obtained by cutting out a blind spot region determined by the camera angle of view of the stereo vision camera 9B. In other words, the first warning area is from a rectangle whose side is substantially the width of the cutting section 2 which is the width of the combine's traveling locus, and the other side is a predetermined distance (warning distance) from the aircraft 1 to the front in the traveling direction. , It is a shape that cuts out the blind spot area determined by the camera angle of view. The traveling obstacle existing in the first warning area comes into contact with the combine as the combine progresses. Therefore, the warning distance is preferably changed according to the vehicle speed of the combine, but in this embodiment, since the working running speed is substantially constant, it is set to several meters.

第2警戒領域は、機体1の進行方向前方へ広がった平面における、カメラ画角によって決まる死角領域を切り取った先端楔状の領域から、第1警戒領域を切り取った形状である。コンバインの左右方向に関して、第1警戒領域の3倍程度の幅を有し、機体1の進行方向前方に関して、第1警戒領域の2倍弱の長さ(図6では符号L2で示されている)を有する。第2警戒領域の左右方向広がりは、コンバインの旋回を考慮して設定され、第2警戒領域の進行方向の広がりは、機体1と走行障害物との干渉までに時間的に余裕が、第1警戒領域より大きくなるように設定されている。 The second warning area is a shape obtained by cutting out the first warning area from the tip wedge-shaped area in which the blind spot area determined by the camera angle of view is cut out in the plane extending forward in the traveling direction of the aircraft 1. It has a width of about three times that of the first warning area in the left-right direction of the combine, and a little less than twice the length of the first warning area in front of the traveling direction of the aircraft 1 (indicated by reference numeral L2 in FIG. 6). ). The left-right spread of the second warning zone is set in consideration of the turning of the combine, and the spread of the traveling direction of the second warning zone has a time margin before the interference between the aircraft 1 and the traveling obstacle. It is set to be larger than the warning area.

図7には、コンバインの制御系の機能ブロック図が示されている。この実施形態の制御系は、多数のECUと呼ばれる電子制御ユニットと、各種動作機器、センサ群やスイッチ群、それらの間のデータ伝送を行う車載LANなどの配線網から構成されている。報知デバイス84は、運転者や圃場周辺にいる管理者等に走行障害物の検出結果や作業走行の状態などの警告を報知するためのデバイスであり、ブザー、ランプ、スピーカ、ディスプレイなどである。検出された走行障害物が第1警戒領域に存在している場合には、切迫した状態を示すような警告音や警告光や警告メッセージが緊急警戒報知として報知され、第1警戒領域に存在している場合には、緊急警戒報知よりは穏やかな注意音や注意光や注意メッセージが注意報知として報知される。 FIG. 7 shows a functional block diagram of the combine control system. The control system of this embodiment is composed of a large number of electronic control units called ECUs, various operating devices, sensor groups and switch groups, and a wiring network such as an in-vehicle LAN that transmits data between them. The notification device 84 is a device for notifying a driver, a manager in the vicinity of a field, or the like of a warning such as a detection result of a running obstacle or a state of working running, and is a buzzer, a lamp, a speaker, a display, or the like. When the detected driving obstacle exists in the first warning area, a warning sound, a warning light, or a warning message indicating an imminent state is notified as an emergency warning notification and exists in the first warning area. If so, a gentle warning sound, a warning light, or a warning message is notified as a warning notification rather than an emergency warning notification.

通信部85は、外部の通信機器との間でデータ交換するために用いられる。制御ユニット6は、この制御系の中核要素であり、複数のECUの集合体として示されている。衛星測位モジュール80からの測位データ、および、光学センサユニット9からの画像データは、配線網を通じて制御ユニット6に入力される。 The communication unit 85 is used for exchanging data with an external communication device. The control unit 6 is a core element of this control system and is shown as an aggregate of a plurality of ECUs. The positioning data from the satellite positioning module 80 and the image data from the optical sensor unit 9 are input to the control unit 6 through the wiring network.

制御ユニット6は、入出力インタフェースとして、出力処理部6Bと入力処理部6Aとを備えている。出力処理部6Bは、車両走行機器群7Aおよび作業装置機器群7Bと接続している。車両走行機器群7Aには、車両走行に関する制御機器、例えばエンジン制御機器、変速制御機器、制動制御機器、操舵制御機器などが含まれている。作業装置機器群7Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における動力制御機器などが含まれている。 The control unit 6 includes an output processing unit 6B and an input processing unit 6A as input / output interfaces. The output processing unit 6B is connected to the vehicle traveling equipment group 7A and the working equipment group 7B. The vehicle traveling device group 7A includes control devices related to vehicle traveling, such as an engine control device, a shift control device, a braking control device, and a steering control device. The working equipment group 7B includes a cutting unit 2, a threshing device 11, a grain discharging device 13, a power control device in the grain transporting device 23, and the like.

入力処理部6Aには、走行系検出センサ群8Aや作業系検出センサ群8Bなどが接続されている。走行系検出センサ群8Aには、エンジン回転数調整具、アクセルペダル、ブレーキペダル、変速操作具などの状態を検出するセンサが含まれている。作業系検出センサ群8Bには、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23における装置状態および穀稈や穀粒の状態を検出するセンサが含まれている。 A traveling system detection sensor group 8A, a working system detection sensor group 8B, and the like are connected to the input processing unit 6A. The traveling system detection sensor group 8A includes a sensor that detects the state of the engine speed adjuster, the accelerator pedal, the brake pedal, the speed change operation tool, and the like. The work system detection sensor group 8B includes a sensor for detecting the device state in the cutting unit 2, the grain removing device 11, the grain discharging device 13, and the grain transporting device 23, and the state of the grain and the grain.

制御ユニット6には、作業走行制御モジュール60、障害物検出ユニット50、車速変更指令出力部65、機体位置算出部66、報知部67が制御機能部として備えられている。なお、これらの制御機能部は、それぞれ別体で構成され、車載LAN等で接続される。 The control unit 6 is provided with a work travel control module 60, an obstacle detection unit 50, a vehicle speed change command output unit 65, an aircraft position calculation unit 66, and a notification unit 67 as control function units. It should be noted that these control function units are individually configured and connected by an in-vehicle LAN or the like.

報知部67は、制御ユニット6の各機能部からの要求に基づいて報知データを生成し、報知デバイス84に与える。機体位置算出部66は、衛星測位モジュール80から逐次送られてくる測位データに基づいて、機体1の地図座標(または圃場座標)である機体位置を算出する。 The notification unit 67 generates notification data based on a request from each functional unit of the control unit 6 and gives the notification data to the notification device 84. The aircraft position calculation unit 66 calculates the aircraft position, which is the map coordinates (or field coordinates) of the aircraft 1, based on the positioning data sequentially sent from the satellite positioning module 80.

この実施形態のコンバインは自動走行(自動操舵)と手動走行(手動操舵)の両方で走行可能である。作業走行制御モジュール60には、走行制御部61と作業制御部62とに加えて、作業走行指令部63および走行経路設定部64が備えられている。自動操舵で走行する自動走行モードと、手動操舵で走行する手動操舵モードとのいずれかを選択する走行モードスイッチ(非図示)が搭乗運転部14内に設けられている。この走行モードスイッチを操作することで、手動操舵走行から自動操舵走行への移行、あるいは自動操舵走行から手動操舵走行への移行が可能である。 The combine of this embodiment can travel in both automatic driving (automatic steering) and manual driving (manual steering). The work travel control module 60 is provided with a work travel command unit 63 and a travel route setting unit 64 in addition to the travel control unit 61 and the work control unit 62. A traveling mode switch (not shown) for selecting between an automatic traveling mode in which the vehicle travels by automatic steering and a manual steering mode in which the vehicle travels by manual steering is provided in the boarding operation unit 14. By operating this travel mode switch, it is possible to shift from manual steering running to automatic steering running, or from automatic steering running to manual steering running.

走行制御部61は、エンジン制御機能、操舵制御機能、車速制御機能などを有し、車両走行機器群7Aに走行制御信号を与える。作業制御部62は、刈取部2、脱穀装置11、穀粒排出装置13、穀稈搬送装置23などの動きを制御するために、作業装置機器群7Bに作業制御信号を与える。 The travel control unit 61 has an engine control function, a steering control function, a vehicle speed control function, and the like, and gives a travel control signal to the vehicle travel equipment group 7A. The work control unit 62 gives a work control signal to the work equipment group 7B in order to control the movements of the cutting unit 2, the threshing device 11, the grain discharge device 13, the grain culm transport device 23, and the like.

走行経路設定部64は、自動走行のための走行経路をメモリに展開する。メモリに展開された走行経路は、順次自動走行における目標走行経路として用いられる。この走行経路は、手動走行であっても、コンバインが当該走行経路に沿って走行するためのガイダンスのために利用することも可能である。 The travel route setting unit 64 develops a travel route for automatic travel in the memory. The travel route developed in the memory is used as a target travel route in sequential automatic driving. This travel route can be used for guidance for the combine to travel along the travel route even in manual travel.

作業走行指令部63は、自動走行指令として、自動操舵指令および車速指令を生成して、走行制御部61に与える。自動操舵指令は、走行経路設定部64によって走行経路と、機体位置算出部66によって算出された自機位置との間の方位ずれおよび位置ずれを解消するように生成される。自動走行時には、車速指令は、前もって設定されている車速値に基づいて生成される。手動走行時には、車速指令は、手動車速操作に基づいて生成される。但し、走行障害物検出などの緊急事態が発生した場合は、強制的な停止を含む車速変更や、エンジン停止などが自動的に行われる。 The work travel command unit 63 generates an automatic steering command and a vehicle speed command as automatic travel commands and gives them to the travel control unit 61. The automatic steering command is generated so as to eliminate the directional deviation and the positional deviation between the traveling route and the own aircraft position calculated by the aircraft position calculation unit 66 by the traveling route setting unit 64. At the time of automatic driving, the vehicle speed command is generated based on the vehicle speed value set in advance. During manual driving, the vehicle speed command is generated based on the manual vehicle speed operation. However, in the event of an emergency such as detection of a running obstacle, the vehicle speed will be changed, including a forced stop, and the engine will be stopped automatically.

自動走行モードが選択されている場合、作業走行指令部63によって与えられる自動走行指令に基づいて、走行制御部61は、操舵に関する車両走行機器群7Aや車速に関する車両走行機器群7Aを制御する。手動走行モードが選択されている場合、運転者による操作に基づいて、走行制御部61が制御信号を生成し、車両走行機器群7Aを制御する。 When the automatic driving mode is selected, the traveling control unit 61 controls the vehicle traveling equipment group 7A related to steering and the vehicle traveling equipment group 7A related to vehicle speed based on the automatic traveling command given by the work traveling command unit 63. When the manual driving mode is selected, the driving control unit 61 generates a control signal based on the operation by the driver to control the vehicle traveling device group 7A.

障害物検出ユニット50は、図4または図5を用いて説明した物体検出処理を行う。このため、障害物検出ユニット50には、AI部51、空間位置測定部52、距離算出部53、圃場情報作成部54、物体検出信号生成部55、警戒領域設定部56が含まれている。障害物検出ユニット50を構成する上記の構成要素は、主に説明目的で分けられており、当該構成要素の統合や、当該構成要素の分割は、自由に行われてよい。 The obstacle detection unit 50 performs the object detection process described with reference to FIG. 4 or FIG. Therefore, the obstacle detection unit 50 includes an AI unit 51, a spatial position measurement unit 52, a distance calculation unit 53, a field information creation unit 54, an object detection signal generation unit 55, and a warning area setting unit 56. The above-mentioned components constituting the obstacle detection unit 50 are mainly separated for the purpose of explanation, and the components may be integrated or the components may be freely divided.

AI部51は、図3で説明したセグメンテーションニューラルネットワーク4の学習済モデルが実装されており、図4または図5で説明したような原理で走行障害物の検出(特定物体検出)を行う。 The AI unit 51 implements the trained model of the segmentation neural network 4 described in FIG. 3, and detects a traveling obstacle (specific object detection) by the principle as described in FIG. 4 or FIG.

空間位置測定部52、距離算出部53、圃場情報作成部54は、図4と図5とを用いて説明した機能を有する。警戒領域設定部56は、機体1に対する位置に基づいて規定される障害物警戒領域を設定する。この実施形態では、障害物警戒領域は、図6を用いて述べたように、第1警戒領域と第2警戒領域とに区分けられている。 The spatial position measurement unit 52, the distance calculation unit 53, and the field information creation unit 54 have the functions described with reference to FIGS. 4 and 5. The warning area setting unit 56 sets an obstacle warning area defined based on the position with respect to the aircraft 1. In this embodiment, the obstacle warning area is divided into a first warning area and a second warning area as described with reference to FIG.

距離算出部53は、AI部51や空間位置測定部52などと連係することにより、検出された走行障害物の位置、特に機体1からの走行障害物までの距離(特定物体距離)を算出する。物体検出信号生成部55は、機体1からの走行障害物までの距離に基づいて、検出される走行障害物が第1警戒領域と第2警戒領域とのどちらに存在するものであるかを判定し、警戒領域別の物体検出信号を生成する。この物体検出信号には、報知部67に与える走行障害物報知信号と、車速変更指令出力部65に与える障害物走行信号とが含まれ、さらに障害物走行信号には、走行障害物が存在する警戒領域別の信号が含まれる。 The distance calculation unit 53 calculates the position of the detected traveling obstacle, particularly the distance from the aircraft 1 to the traveling obstacle (specific object distance) by linking with the AI unit 51, the space position measuring unit 52, and the like. .. The object detection signal generation unit 55 determines whether the detected traveling obstacle exists in the first warning area or the second warning area based on the distance from the aircraft 1 to the traveling obstacle. Then, an object detection signal for each warning area is generated. The object detection signal includes a traveling obstacle notification signal given to the notification unit 67 and an obstacle traveling signal given to the vehicle speed change command output unit 65, and the obstacle traveling signal includes a traveling obstacle. Signals for each alert area are included.

車速変更指令出力部65は、受け取った障害物走行信号から、走行障害物が第1警戒領域に存在する場合には、車速変更値を含む第1車速変更指令を作業走行指令部63に出力し、走行障害物が第2警戒領域に存在する場合には、車速変更値を含む第2車速変更指令を作業走行指令部63に出力する。第1車速変更指令は、車速をゼロにする指令、つまり機体1を停止する命令である。もちろん、第1車速変更指令は、車速をゼロに近い値にする指令、あるいは、段階的に車速をゼロにする指令であってもよい。第2車速変更指令は、車速を微速、例えば時速1km程度に減速する減速値である。第2車速変更指令として、直前の車速の数分の1に減速するといった、直前車速に対する割合で決められた減速値であってもよい。いずれにせよ、第1車速変更指令による第1車速変更値は、第2車速変更指令による第2車速変更値より大きく、緊急避難のための指令となっている。車速変更指令出力部65から与えられた車速変更指令に基づいて、作業走行指令部63は、走行制御部61に制御指令を与えて、機体1を緊急的に減速させる。走行障害物の存在が第1警戒領域から第2警戒領域に移行すれば、停止していた機体1は、第2車速変更指令で規定されている微速で前進する。さらには、走行障害物が警戒領域で、検出されなくなれば、通常の作業車速での走行に戻る。 The vehicle speed change command output unit 65 outputs the first vehicle speed change command including the vehicle speed change value to the work travel command unit 63 from the received obstacle traveling signal when the traveling obstacle exists in the first warning area. When the traveling obstacle exists in the second warning area, the second vehicle speed change command including the vehicle speed change value is output to the work traveling command unit 63. The first vehicle speed change command is a command to reduce the vehicle speed to zero, that is, a command to stop the aircraft 1. Of course, the first vehicle speed change command may be a command to set the vehicle speed to a value close to zero, or a command to gradually reduce the vehicle speed to zero. The second vehicle speed change command is a deceleration value for decelerating the vehicle speed to a very small speed, for example, about 1 km / h. As the second vehicle speed change command, a deceleration value determined by a ratio to the immediately preceding vehicle speed, such as decelerating to a fraction of the immediately preceding vehicle speed, may be used. In any case, the first vehicle speed change value by the first vehicle speed change command is larger than the second vehicle speed change value by the second vehicle speed change command, and is a command for emergency evacuation. Based on the vehicle speed change command given from the vehicle speed change command output unit 65, the work travel command unit 63 gives a control command to the travel control unit 61 to urgently decelerate the aircraft 1. When the presence of the traveling obstacle shifts from the first warning area to the second warning area, the stopped aircraft 1 moves forward at a slow speed specified by the second vehicle speed change command. Furthermore, if the running obstacle is not detected in the caution area, the running returns to the normal working vehicle speed.

次に、上述した制御系における、走行障害物検出時の車速減速の制御ルーチンの一例が図8に示されている。この制御ルーチンがスタートすれば、フラグや変数のリセットなどの初期設定が行われる(#01)。警戒領域の設定、つまり第1警戒領域と第2警戒領域が設定される(#02)。第1警戒領域が、車速によって変更される場合には、現在車速が取得され、その車速に基づいて、第1警戒領域が設定される。 Next, FIG. 8 shows an example of a vehicle speed deceleration control routine when a traveling obstacle is detected in the above-mentioned control system. When this control routine starts, initial settings such as resetting flags and variables are performed (# 01). The alert area is set, that is, the first alert area and the second alert area are set (# 02). When the first warning area is changed by the vehicle speed, the current vehicle speed is acquired, and the first warning area is set based on the vehicle speed.

光学センサユニット9から画像データ(撮影画像)が取り込まれる(#03)。取り込まれた画像データを用いて、障害物検出ユニット50による特定物体検出処理(走行障害物検出処理)が行われる(#04)。 Image data (captured image) is captured from the optical sensor unit 9 (# 03). Using the captured image data, the obstacle detection unit 50 performs a specific object detection process (running obstacle detection process) (# 04).

走行障害物が検出されているかどうかの判定が行われ、走行障害物が検出されていると(#05Yes分岐)、障害物警戒領域における走行障害物の位置が算出される(#11)。 It is determined whether or not a running obstacle is detected, and if a running obstacle is detected (# 05Yes branch), the position of the running obstacle in the obstacle warning area is calculated (# 11).

走行障害物が第1警戒領域に入っているかどうかチェックされる(#12)。走行障害物が第1警戒領域に入っていれば(#12Yes分岐)、車速変更指令出力部65が第1車速変更指令として、停止指令を作業走行指令部63に与える(#13)。さらに停止フラグをONにする(#14)。なお、ステップ#14において、減速フラグがONであるときは(第2警戒領域から第1境界領域に走行障害物が移動したときは)、減速フラグをOFFにして停止フラグをONにする。これにより機体1は停止し、制御はステップ#02に戻る。 It is checked whether the running obstacle is in the first alert area (# 12). If the traveling obstacle is in the first warning area (# 12Yes branch), the vehicle speed change command output unit 65 gives a stop command to the working travel command unit 63 as the first vehicle speed change command (# 13). Furthermore, the stop flag is turned ON (# 14). In step # 14, when the deceleration flag is ON (when a traveling obstacle moves from the second warning area to the first boundary area), the deceleration flag is turned OFF and the stop flag is turned ON. As a result, the aircraft 1 is stopped, and the control returns to step # 02.

ステップ#12のチェックで走行障害物が第1警戒領域に入っていない場合(#12No分岐)、さらに、第2警戒領域に入っているかどうかチェックされる(#20)。走行障害物が第2警戒領域に入っていれば(#20Yes分岐)、車速変更指令出力部65が第2車速変更指令として、減速指令を作業走行指令部63に与える(#21)。さらに減速フラグをONにする(#22)。なお、ステップ#22において、停止フラグがONであるときは(第1警戒領域から第2境界領域に走行障害物が移動したときは)、停止フラグをOFFにして減速フラグをONにする。これにより機体1は微速走行し(時速1km程度)、制御はステップ#02に戻る。 If the traveling obstacle is not in the first warning area (# 12No branch) in the check of step # 12, it is further checked whether or not it is in the second warning area (# 20). If the traveling obstacle is in the second warning area (# 20Yes branch), the vehicle speed change command output unit 65 gives a deceleration command to the working travel command unit 63 as the second vehicle speed change command (# 21). Furthermore, the deceleration flag is turned ON (# 22). In step # 22, when the stop flag is ON (when a traveling obstacle moves from the first warning area to the second boundary area), the stop flag is turned OFF and the deceleration flag is turned ON. As a result, the aircraft 1 travels at a very low speed (about 1 km / h), and the control returns to step # 02.

ステップ#20のチェックで走行障害物が第2警戒領域に入っていない場合(#20No分岐)、警戒領域には走行障害物が存在しないことになる。このように警戒領域には走行障害物が存在しない場合、あるいは、そもそも走行障害物が検出されなかった場合(#08No分岐)、停止フラグの状態と減速フラグとの状態がチェックされ、その状態に応じたフラグ内容の書き換えが行われる。具体的には、その際に、停止フラグがONであれば(#30Yes分岐)、停止フラグはOFFに書き換えられ(#31)、さらに、走行指令が有効となり、機体1は通常走行を行う(#32)。次いで、制御はステップ#02に戻る。その際に、停止フラグがONでなければ(#30No分岐)、減速フラグの内容がチェックされる(#40)。減速フラグがONであれば(#40Yes分岐)、減速フラグはOFFに書き換えられる(#41)、さらに、走行指令が有効となり、機体1は通常走行を行う(#42)。通常走行とは、走行障害物等が検出されていない際の作業走行であり、その車速は、走行障害物が第2警戒領域に存在している際の車速より、速い速度である。次いで、制御はステップ#02に戻る。減速フラグがOFFであれば(#40No分岐)、もちろん走行指令は有効であり、通常走行が行われる(#43)。そして、制御はステップ#02に戻る。 If the running obstacle is not in the second warning area in the check of step # 20 (# 20 No branch), there is no running obstacle in the warning area. In this way, when there is no running obstacle in the warning area, or when no running obstacle is detected in the first place (# 08No branch), the state of the stop flag and the state of the deceleration flag are checked, and the state is changed to that state. The flag contents are rewritten accordingly. Specifically, at that time, if the stop flag is ON (# 30Yes branch), the stop flag is rewritten to OFF (# 31), the travel command becomes valid, and the aircraft 1 normally travels (# 30Yes branch). # 32). Control then returns to step # 02. At that time, if the stop flag is not ON (# 30No branch), the content of the deceleration flag is checked (# 40). If the deceleration flag is ON (# 40Yes branch), the deceleration flag is rewritten to OFF (# 41), the travel command becomes valid, and the aircraft 1 normally travels (# 42). The normal running is a work running when a running obstacle or the like is not detected, and the vehicle speed is faster than the vehicle speed when the running obstacle is in the second warning area. Control then returns to step # 02. If the deceleration flag is OFF (# 40 No branch), of course, the travel command is valid and normal travel is performed (# 43). Then, the control returns to step # 02.

このような走行障害物検出と車速変更との制御により、例えば、機体1の進行方向前方の警戒領域に圃場作業者が進入すると、機体1は停止または減速し、警戒領域から圃場作業者が出ていくと、コンバインは、再び通常の車速での作業走行に復帰する。 By controlling the traveling obstacle detection and the vehicle speed change, for example, when a field worker enters the warning area ahead in the traveling direction of the aircraft 1, the aircraft 1 stops or decelerates, and the field worker comes out of the warning area. As a result, the combine harvester returns to working at normal vehicle speed.

この走行障害物検出に基づく車速減速の制御は、コンバインが自動走行であっても、手動走行であっても、実行させることが可能である。 The control of vehicle speed deceleration based on the detection of a traveling obstacle can be executed regardless of whether the combine is automatic traveling or manual traveling.

上述した実施形態では、第1警戒領域と第2警戒領域とを設定し、走行障害物がそれぞれの警戒領域に存在した場合、機体1の停止、または通常走行より遅い車速への変更が行われた。これに代えて、警戒領域を3つ以上設け、それぞれの領域に応じて、機体1を停止または微速への変更が行われてもよい。さらには、警戒領域を無段階に設定し、機体1と走行障害物との距離に応じて、機体1の停止、あるいは通常走行より遅い車速への無段階の変更が行われてもよい。 In the above-described embodiment, the first warning area and the second warning area are set, and when a traveling obstacle exists in each warning area, the aircraft 1 is stopped or the vehicle speed is changed to a speed slower than the normal driving. It was. Instead of this, three or more warning areas may be provided, and the aircraft 1 may be stopped or changed to a slow speed according to each area. Further, the warning area may be set steplessly, and the aircraft 1 may be stopped or the vehicle speed may be changed steplessly to a vehicle speed slower than the normal traveling according to the distance between the aircraft 1 and the traveling obstacle.

なお、上記実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能であり、また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 The configuration disclosed in the above embodiment (including another embodiment, the same shall apply hereinafter) can be applied in combination with the configuration disclosed in other embodiments as long as there is no contradiction. The embodiments disclosed in the present specification are examples, and the embodiments of the present invention are not limited thereto, and can be appropriately modified without departing from the object of the present invention.

本発明は、圃場で作業走行を行う、収穫機、田植機、トタクタなどの農作業機に適用される。 The present invention is applied to agricultural work machines such as harvesters, rice transplanters, and totactors that perform work running in the field.

1 :機体
2 :刈取部
4 :セグメンテーションニューラルネットワーク(ニューラルネットワーク)
4A :エンコーダネットワーク
4B :デコーダネットワーク
41 :入力層
42 :隠れ層
43 :出力層
44 :バッチ正規化層
50 :障害物検出ユニット
51 :AI部
52 :空間位置測定部
53 :距離算出部
54 :圃場情報作成部
55 :物体検出信号生成部
56 :警戒領域設定部
6 :制御ユニット
61 :走行制御部
63 :作業走行指令部
65 :車速変更指令出力部
67 :報知部
9 :光学センサユニット
9A :撮影ユニット
9B :ステレオビジョンカメラ
1: Aircraft 2: Cutting unit 4: Segmentation neural network (neural network)
4A: Encoder network 4B: Decoder network 41: Input layer 42: Hidden layer 43: Output layer 44: Batch normalization layer 50: Obstacle detection unit 51: AI unit 52: Spatial position measurement unit 53: Distance calculation unit 54: Field Information creation unit 55: Object detection signal generation unit 56: Warning area setting unit 6: Control unit 61: Travel control unit 63: Working travel command unit 65: Vehicle speed change command output unit 67: Notification unit 9: Optical sensor unit 9A: Shooting Unit 9B: Stereo vision camera

Claims (7)

圃場を作業走行する農作業機であって、
前記圃場の特定領域を撮影する撮影ユニットと、
前記撮影ユニットからの撮影画像を入力して、前記撮影画像に写っている特定物体を認識し、当該特定物体が前記撮影画像において占める領域を示す物体領域情報を出力するニューラルネットワークと、
前記特定領域を撮影し、前記特定領域に存在する物体全ての空間位置を示す物体位置情報を生成する空間位置測定部と、
前記物体位置情報と前記物体領域情報とに基づいて前記特定物体の空間位置を決定し、機体から前記特定物体までの距離である特定物体距離を算出する距離算出部と、
前記特定物体距離に基づいて物体検出信号を出力する物体検出信号生成部と、
を備える農作業機。
It is an agricultural work machine that runs in the field.
An imaging unit that photographs a specific area of the field, and
A neural network that inputs a photographed image from the photographing unit, recognizes a specific object reflected in the photographed image, and outputs object area information indicating an area occupied by the specific object in the photographed image.
A spatial position measuring unit that photographs the specific area and generates object position information indicating the spatial positions of all the objects existing in the specific area.
A distance calculation unit that determines the spatial position of the specific object based on the object position information and the object area information and calculates the specific object distance that is the distance from the machine body to the specific object.
An object detection signal generator that outputs an object detection signal based on the specific object distance,
Agricultural work machine equipped with.
前記ニューラルネットワークは、エンコーダネットワークとデコーダネットワークとからなるセグメンテーションニューラルネットワークで構成され、前記物体領域情報には、前記特定物体の輪郭が含まれている請求項1に記載の農作業機。 The agricultural work machine according to claim 1, wherein the neural network is composed of a segmentation neural network including an encoder network and a decoder network, and the object area information includes a contour of the specific object. 前記エンコーダネットワーク及び前記デコーダネットワークを構成する隠れ層には、畳み込み層とプーリング層とバッチ正規化層とが含まれ、前記バッチ正規化層におけるパラメータに基づいてプルーニングが行われる請求項2に記載の農作業機。 The second aspect of claim 2, wherein the encoder network and the hidden layer constituting the decoder network include a convolutional layer, a pooling layer, and a batch normalization layer, and pruning is performed based on the parameters in the batch normalization layer. Agricultural work machine. 前記特定物体距離は、前記特定物体の前記輪郭から算出される前記特定物体の重心から前記機体までの距離、または前記輪郭内に含まれる距離測定点の統計的代表値である請求項2または3に記載の農作業機。 The specific object distance is a distance from the center of gravity of the specific object to the aircraft calculated from the contour of the specific object, or a statistical representative value of a distance measurement point included in the contour, according to claim 2 or 3. Agricultural work machine described in. 前記空間位置測定部は、前記特定領域に対するステレオマッチング技術を用いて前記物体位置情報を生成する請求項1から4のいずれか一項に記載の農作業機。 The agricultural work machine according to any one of claims 1 to 4, wherein the spatial position measuring unit generates the object position information by using the stereo matching technique for the specific area. 前記農作業機が農作物を刈り取る収穫部を有する収穫機であり、
前記物体位置情報に基づいて、前記収穫部によって刈り取られた既刈地と未刈地との境界及び前記農作物の高さを含む圃場刈取り情報を作成する圃場情報作成部が備えられている請求項1から5のいずれか一項に記載の農作業機。
The agricultural work machine is a harvester having a harvesting section for harvesting agricultural products.
A claim that includes a field information creating unit that creates field cutting information including the boundary between the cut land and the uncut land cut by the harvesting unit and the height of the crop based on the object position information. The agricultural work machine according to any one of 1 to 5.
前記機体からの位置に基づいて規定される障害物警戒領域を設定する警戒領域設定部と、車速を変更する車速変更指令出力部とが備えられており、
前記特定物体が走行障害物であり、かつ前記走行障害物が前記障害物警戒領域に存在する場合、前記車速変更指令出力部は前記特定物体距離に基づいて車速を変更する請求項1から6のいずれか一項に記載の農作業機。
It is provided with a warning area setting unit that sets an obstacle warning area defined based on the position from the aircraft, and a vehicle speed change command output unit that changes the vehicle speed.
According to claims 1 to 6, when the specific object is a traveling obstacle and the traveling obstacle exists in the obstacle warning area, the vehicle speed change command output unit changes the vehicle speed based on the specific object distance. Agricultural work machine described in any one item.
JP2019182770A 2019-10-03 2019-10-03 agricultural machine Active JP7246641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019182770A JP7246641B2 (en) 2019-10-03 2019-10-03 agricultural machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182770A JP7246641B2 (en) 2019-10-03 2019-10-03 agricultural machine

Publications (2)

Publication Number Publication Date
JP2021058099A true JP2021058099A (en) 2021-04-15
JP7246641B2 JP7246641B2 (en) 2023-03-28

Family

ID=75379448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182770A Active JP7246641B2 (en) 2019-10-03 2019-10-03 agricultural machine

Country Status (1)

Country Link
JP (1) JP7246641B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230072532A (en) * 2021-11-17 2023-05-25 한국생산기술연구원 Agricultural vehicle autonomous driving device, system and method thereof
WO2023219155A1 (en) * 2022-05-12 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 Information processing apparatus, data structure, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293403A (en) * 1991-03-20 1992-10-19 Yanmar Agricult Equip Co Ltd Image-processing in self-propelled working machine
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method
JP2019083703A (en) * 2017-11-01 2019-06-06 国立大学法人京都大学 Harvesting machine

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293403A (en) * 1991-03-20 1992-10-19 Yanmar Agricult Equip Co Ltd Image-processing in self-propelled working machine
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method
JP2019083703A (en) * 2017-11-01 2019-06-06 国立大学法人京都大学 Harvesting machine

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"ステレオカメラによるYOLOと3次元点群を利用した人物検出", 第25回画像センシングシンポジウム 講演論文, JPN7022005563, 13 June 2019 (2019-06-13), pages 1 - 3, ISSN: 0004931416 *
竹藤輝 外2名: "視覚障害者のための歩行支援装置の検討", 2019年度 電気・情報関係学会九州支部連合大会 講演論文集, JPN7022005562, 19 September 2019 (2019-09-19), JP, pages 292, ISSN: 0004931415 *
高橋正裕 外2名: "ステレオカメラによるYOLOと3次元点群を利用した人物検出", 第31回 人間情報学会講演集, JPN7022005564, 17 December 2018 (2018-12-17), JP, pages 1 - 2, ISSN: 0004931417 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230072532A (en) * 2021-11-17 2023-05-25 한국생산기술연구원 Agricultural vehicle autonomous driving device, system and method thereof
KR102603672B1 (en) 2021-11-17 2023-11-21 한국생산기술연구원 Agricultural vehicle autonomous driving device, system and method thereof
WO2023219155A1 (en) * 2022-05-12 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 Information processing apparatus, data structure, and program

Also Published As

Publication number Publication date
JP7246641B2 (en) 2023-03-28

Similar Documents

Publication Publication Date Title
KR102589076B1 (en) harvest
WO2020261823A1 (en) Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
JP7195543B2 (en) harvester
JP6904539B2 (en) Harvester
JP6854713B2 (en) combine
JP7174484B2 (en) agricultural vehicle
KR102391771B1 (en) Method for operation unmanned moving vehivle based on binary 3d space map
JP7381402B2 (en) automatic driving system
US20190225214A1 (en) Advanced wild-life collision avoidance for vehicles
JP7068781B2 (en) Harvester
JP7246641B2 (en) agricultural machine
CN111343853B (en) Agricultural operation vehicle, operation vehicle collision warning system and operation vehicle
JP2021003016A (en) Travel route generation system
WO2020261824A1 (en) Working vehicle, obstacle detection method, and obstacle detection program
JP2020178619A (en) Agricultural work machine
JP7041889B2 (en) Head harvester combine
WO2020218528A1 (en) Agricultural machine such as harvester
JP7080042B2 (en) Harvester collision warning system and harvester
KR20220027811A (en) Automatic driving system, agricultural equipment, program, recording medium and method recording the program
JP6765349B2 (en) Harvester
US20220315002A1 (en) Traveling lane planning device, medium storing computer program for traveling lane planning, and traveling lane planning method
Michihisa et al. Obstacle detection and avoidance for autonomous combine harvester
JP2023005114A (en) Work support system
CN116916742A (en) Travel route management system, travel route management program, recording medium on which travel route management program is recorded, and travel route management method
JP2020202761A (en) Harvester

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7246641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150