JP7399680B2 - Work support system - Google Patents

Work support system Download PDF

Info

Publication number
JP7399680B2
JP7399680B2 JP2019196599A JP2019196599A JP7399680B2 JP 7399680 B2 JP7399680 B2 JP 7399680B2 JP 2019196599 A JP2019196599 A JP 2019196599A JP 2019196599 A JP2019196599 A JP 2019196599A JP 7399680 B2 JP7399680 B2 JP 7399680B2
Authority
JP
Japan
Prior art keywords
information
obstacle
unit
work
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019196599A
Other languages
Japanese (ja)
Other versions
JP2021069294A (en
Inventor
卓也 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanmar Co Ltd
Original Assignee
Yanmar Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanmar Co Ltd filed Critical Yanmar Co Ltd
Priority to JP2019196599A priority Critical patent/JP7399680B2/en
Priority to PCT/JP2020/037862 priority patent/WO2021085053A1/en
Publication of JP2021069294A publication Critical patent/JP2021069294A/en
Application granted granted Critical
Publication of JP7399680B2 publication Critical patent/JP7399680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C21/00Methods of fertilising, sowing or planting
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/43Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining

Description

本発明は、トラクタや乗用管理機などの作業車両による作業を支援する作業支援システムに関する。 The present invention relates to a work support system that supports work by a work vehicle such as a tractor or a riding management machine.

作業車両の一例であるトラクタにおいては、トラクタに、作物(植物)の生育情報(生育状況に関する情報)を取得する専用の植物用センサ装置を設置することで、圃場でのトラクタの走行に伴って、圃場で栽培された作物の生育状況を測定するように構成されたものがある(例えば特許文献1参照)。 A tractor, which is an example of a work vehicle, is equipped with a dedicated plant sensor device that acquires growth information (information about the growth status) of crops (plants). There is a device configured to measure the growth status of crops grown in a field (for example, see Patent Document 1).

特許文献1に記載の植物用センサ装置は、生育状況測定対象の作物が栽培されている同一の照射領域に第1測定光と第2測定光とを照射し、その生育状況測定対象からの第1測定光及び第2測定光の反射光を取得する。そして、その測定光及び反射光を用いて、生育状況の測定対象となる作物の生育情報として、分光植生指標の一例である正規化植生指標(NDVI:Normalized Difference Vegetation Index)や草丈値を取得する。 The plant sensor device described in Patent Document 1 irradiates the same irradiation area where a crop whose growth status is to be measured is cultivated with a first measurement light and a second measurement light, and detects the first measurement light from the crop whose growth status is to be measured. The reflected lights of the first measurement light and the second measurement light are acquired. Then, using the measurement light and reflected light, a normalized difference vegetation index (NDVI), which is an example of a spectral vegetation index, and a plant height value are obtained as growth information of the crop whose growth status is to be measured. .

これにより、特許文献1に記載の技術においては、植物用センサ装置が取得した正規化植生指標や草丈値に基づいて作物の生育状況に応じた肥料の散布量を求めることが可能になっている。その結果、トラクタに肥料散布機が搭載された散布作業時には、作物に対する肥料の散布量を作物の生育状況に応じて調節することができる、といった作業支援が可能になっている。 As a result, in the technology described in Patent Document 1, it is possible to determine the amount of fertilizer applied according to the growth situation of crops based on the normalized vegetation index and plant height value acquired by the plant sensor device. . As a result, when a tractor is equipped with a fertilizer spreader, it is possible to support work by adjusting the amount of fertilizer applied to crops according to the growing conditions of the crops.

特許第6526474号公報Patent No. 6526474

特許文献1に記載の技術においては、前述した作業支援を可能にするために、生育情報の一例である正規化植生指標や草丈値などを取得する専用の植物用センサ装置をトラクタに設置することから、作業支援を可能にする上においてコストの高騰や構成の複雑化などを招くことになる。 In the technology described in Patent Document 1, in order to enable the above-mentioned work support, a dedicated plant sensor device is installed on the tractor to obtain normalized vegetation index, plant height value, etc., which are examples of growth information. Therefore, in order to enable work support, costs will rise and the configuration will become more complicated.

この実情に鑑み、本発明の主たる課題は、作物の生育情報を利用した作業支援を、コストの高騰や構成の複雑化などを抑制しながら行えるようにする点にある。 In view of this situation, the main object of the present invention is to enable work support using crop growth information while suppressing rising costs and complicating the configuration.

本発明の第1特徴構成は、作業支援システムにおいて、
圃場で作業する作業車両に搭載され、当該作業車両の周辺に設定された撮像範囲の可視光を撮像してカラー画像情報を取得する撮像ユニットと、
前記作業車両に搭載され、当該作業車両の周辺に設定された測定範囲に対する近赤外光の投受光により近赤外光の反射強度を含む測定情報を取得し、取得した前記測定情報に基づいて障害物を検出する障害物センサと、
前記カラー画像情報と前記測定情報とに基づいて前記作業車両による作業を支援する作業支援部と、
前記作業車両の位置を測定して位置情報を取得する測位ユニットと、
前記カラー画像情報と前記測定情報とに基づいて前記圃場で栽培された作物の生育情報を取得する生育情報取得部と、
前記生育情報を前記位置情報に関連付けて記憶する記憶部と、を備えている点にある。
A first characteristic configuration of the present invention is that in a work support system,
an imaging unit that is mounted on a work vehicle working in a field and captures visible light in an imaging range set around the work vehicle to obtain color image information;
Mounted on the work vehicle, acquiring measurement information including reflection intensity of near-infrared light by projecting and receiving near-infrared light to a measurement range set around the work vehicle, and based on the acquired measurement information. an obstacle sensor that detects obstacles;
a work support unit that supports work by the work vehicle based on the color image information and the measurement information;
a positioning unit that measures the position of the work vehicle and obtains position information;
a growth information acquisition unit that acquires growth information of crops grown in the field based on the color image information and the measurement information;
The present invention further includes a storage unit that stores the growth information in association with the position information.

本構成によれば、作業支援部は、例えば、撮像ユニットのカラー画像情報に基づいて、作業車両の周囲画像を表示部に表示させて作業車両の周囲の状況を視認し易くする、といった作業支援が可能になる。又、作業支援部は、例えば、障害物センサによる障害物の検出に基づいて、作業車両の周囲に障害物が存在することを報知して障害物との衝突を回避し易くする、といった作業支援が可能になる。そして、障害物に関する作業支援においては、測定情報に近赤外光の反射強度が含まれていることにより、障害物センサが、その近辺に発生した反射強度が非常に弱い埃や霧などの浮遊物を障害物として誤検出する虞を回避することができる。 According to this configuration, the work support unit provides work support such as displaying an image of the surroundings of the work vehicle on the display unit based on the color image information of the imaging unit to make it easier to visually recognize the situation around the work vehicle. becomes possible. Further, the work support unit provides work support such as, for example, notifying the presence of an obstacle around the work vehicle based on the detection of the obstacle by the obstacle sensor to make it easier to avoid collision with the obstacle. becomes possible. In support of work related to obstacles, since the measurement information includes the reflection intensity of near-infrared light, the obstacle sensor can detect floating particles such as dust and fog that have occurred in the vicinity with very low reflection intensity. It is possible to avoid the possibility of erroneously detecting objects as obstacles.

生育情報取得部は、作業支援部が上記の作業支援を可能にするために取得したカラー画像情報と測定情報とを利用して作物の生育情報を取得する。記憶部は、生育情報取得部が取得した作物の生育情報を測位ユニットの位置情報に関連付けて記憶する。 The growth information acquisition unit acquires crop growth information using the color image information and measurement information acquired by the work support unit to enable the above-mentioned work support. The storage unit stores the crop growth information acquired by the growth information acquisition unit in association with the position information of the positioning unit.

これにより、例えば、記憶部において位置情報に関連付けて記憶された作物の生育情報を基に、圃場における所定区域ごとの作物の生育状況を評価することができ、評価した所定区域ごとの作物の生育状況に基づいて、所定区域ごとの作物に対する施肥量を算出することができる。そして、肥料散布用の作業車両による肥料散布作業を行う場合には、算出した施肥量に基づいて、所定区域ごとの作物に対する肥料の散布量を調節するようにすれば、圃場における所定区域ごとの作物の生育状態のばらつきを改善することができ、圃場で栽培される作物の品質向上や収穫量の安定化などを図ることができる。 As a result, for example, the growth status of crops in each predetermined area in a field can be evaluated based on the crop growth information stored in association with the position information in the storage unit, and the growth status of crops in each predetermined area evaluated can be evaluated. Based on the situation, the amount of fertilizer applied to crops in each predetermined area can be calculated. Then, when performing fertilizer spreading work using a work vehicle for fertilizer spreading, it is possible to adjust the amount of fertilizer applied to crops in each predetermined area based on the calculated amount of fertilizer. It is possible to improve the variation in the growth state of crops, and it is possible to improve the quality of crops grown in the field and stabilize the yield.

つまり、作業車両の周囲の状況を視認し易くする、及び、障害物との衝突を回避し易くする、といった作業支援を可能にするために備えられた撮像ユニットと障害物センサとを利用することで、作物の生育情報を取得するための専用のセンサを備えることなく作物の生育情報を取得することができる。その結果、作物の生育情報を取得することで可能になる、作物の品質向上や収穫量の安定化などを図るための作業支援を、コストの高騰や構成の複雑化などを抑制しながら行うことができる。 In other words, the imaging unit and obstacle sensor are used to enable work support such as making it easier to see the surroundings of the work vehicle and making it easier to avoid collisions with obstacles. With this, it is possible to acquire crop growth information without having to provide a dedicated sensor for acquiring crop growth information. As a result, by acquiring crop growth information, it is possible to provide support for improving crop quality and stabilizing yields while suppressing rising costs and complicating configurations. I can do it.

本発明の第2特徴構成は、
前記障害物センサは、前記測定範囲に存在する測定対象物までの距離を3次元で測定するライダーセンサであり、
前記生育情報取得部は、前記ライダーセンサの距離情報に基づいて、前記生育情報として作物の草丈値を取得する点にある。
The second characteristic configuration of the present invention is
The obstacle sensor is a lidar sensor that three-dimensionally measures the distance to the measurement object existing in the measurement range,
The growth information acquisition unit acquires a plant height value of the crop as the growth information based on the distance information of the lidar sensor.

本構成によれば、ライダーセンサは測距精度が高いことから、作物の生育情報として精度の高い作物の草丈値を取得することができる。そして、取得した作物の草丈値を含む作物の生育情報を基に、圃場における所定区域ごとの作物の生育状況をより精度良く評価することができ、評価した所定区域ごとの作物の生育状況に基づいて、所定区域ごとの作物に対する適正な施肥量をより精度良く算出することができる。 According to this configuration, since the lidar sensor has high ranging accuracy, it is possible to obtain highly accurate plant height values of crops as crop growth information. Then, based on the acquired crop growth information including the plant height value of the crops, it is possible to more accurately evaluate the crop growth status in each predetermined area in the field, and based on the evaluated crop growth status in each predetermined area As a result, the appropriate amount of fertilizer applied to crops in each predetermined area can be calculated with higher accuracy.

その結果、作物の品質向上や収穫量の安定化などを図るための作業支援を、精度の高い作物の草丈値を含む作物の生育情報に基づいてより適正に行うことができる。 As a result, work support for improving crop quality and stabilizing harvest amount can be more appropriately provided based on crop growth information including highly accurate crop plant height values.

本発明の第3特徴構成は、
前記生育情報取得部は、前記カラー画像情報から可視赤色光の反射率を取得し、かつ、前記測定情報から前記近赤外光の反射率を取得して、前記生育情報として正規化植生指標を取得する点にある。
The third characteristic configuration of the present invention is
The growth information acquisition unit acquires the reflectance of visible red light from the color image information, and the reflectance of near-infrared light from the measurement information, and generates a normalized vegetation index as the growth information. It's on point to get.

本構成によれば、作物の生育情報として代表的な正規化植生指標を含む作物の生育情報を基に、圃場における所定区域ごとの作物の生育状況を適正に評価することができ、評価した所定区域ごとの作物の生育状況に基づいて、所定区域ごとの作物に対する適正な施肥量を算出することができる。 According to this configuration, it is possible to properly evaluate the growth status of crops in each predetermined area in the field based on the crop growth information including the typical normalized vegetation index as crop growth information, and Based on the growth status of crops in each area, it is possible to calculate the appropriate amount of fertilizer applied to crops in each predetermined area.

その結果、作物の品質向上や収穫量の安定化などを図るための作業支援を、正規化植生指標を含む作物の生育情報に基づいて適正に行うことができる。 As a result, work support for improving crop quality and stabilizing yields can be appropriately provided based on crop growth information including normalized vegetation indices.

本発明の第4特徴構成は、
前記作業支援部には、前記位置情報に基づいて、前記圃場に応じて生成された目標経路に従って前記作業車両を自動走行させる自動走行制御部が含まれており、
前記生育情報取得部は、前記作業車両の自動走行に伴って、前記圃場内を複数に区画して設定された所定区域ごとの前記生育情報を取得する点にある。
The fourth characteristic configuration of the present invention is
The work support unit includes an automatic travel control unit that automatically travels the work vehicle according to a target route generated according to the field based on the position information,
The growth information acquisition unit acquires the growth information for each predetermined area set by dividing the field into a plurality of areas as the work vehicle automatically travels.

本構成によれば、圃場において作業車両を手動走行させる手間を要することなく、圃場内における所定区域ごとの作物の生育情報を取得することができる。 According to this configuration, it is possible to acquire crop growth information for each predetermined area in a field without requiring the effort of manually driving a work vehicle in the field.

その結果、作物の生育情報を取得するための労力を不要にしながら、作物の品質向上や収穫量の安定化などを図るための作業支援を良好に行うことができる。 As a result, work support for improving crop quality and stabilizing yields can be provided while eliminating the need for labor to acquire crop growth information.

本発明の第5特徴構成は、
前記生育情報取得部は、前記所定区域ごとの前記生育情報に基づいて前記所定区域ごとの施肥量を算出し、
前記自動走行制御部は、前記作業車両の自動走行にて施肥作業を行う場合には、前記位置情報と前記施肥量とに基づいて前記所定区域ごとの施肥量を自動調節する点にある。
The fifth characteristic configuration of the present invention is
The growth information acquisition unit calculates the amount of fertilization for each predetermined area based on the growth information for each predetermined area,
The automatic travel control section automatically adjusts the amount of fertilizer applied to each of the predetermined areas based on the position information and the amount of fertilizer applied when the work vehicle automatically travels to perform the fertilization work.

本構成によれば、圃場における所定区域ごとの作物の生育情報に応じた施肥作業を、作業車両の自動走行によって行うことができる。 According to this configuration, fertilization work according to crop growth information for each predetermined area in the field can be performed by automatically driving the work vehicle.

その結果、ユーザにかかる労力を大幅に削減しながら、作物の品質向上や収穫量の安定化などを図るための作業支援を良好に行うことができる。 As a result, it is possible to provide excellent work support for improving the quality of crops and stabilizing harvest amounts, while significantly reducing the amount of labor required by the user.

作業車両用の自動走行システムの概略構成を示す図Diagram showing the schematic configuration of an automatic driving system for work vehicles 各カメラの撮像範囲を示すトラクタの平面図Plan view of the tractor showing the imaging range of each camera 各障害物センサの測定範囲などを示すトラクタの側面図Side view of the tractor showing the measurement range of each obstacle sensor, etc. 各障害物センサの測定範囲などを示すトラクタの平面図A plan view of the tractor showing the measurement range of each obstacle sensor, etc. 自動走行用の目標経路の一例を示す平面図Plan view showing an example of a target route for automatic driving 作業車両用の自動走行システムの概略構成を示すブロック図Block diagram showing the schematic configuration of an automatic driving system for work vehicles 障害物検出システムなどの概略構成を示すブロック図Block diagram showing the schematic configuration of the obstacle detection system, etc. 各カメラの搭載位置と車体座標原点及び距離算出基準点との位置関係などを示す平面図A plan view showing the positional relationship between the mounting position of each camera and the vehicle body coordinate origin and distance calculation reference point. 第1障害物センサの距離画像における障害物の検出範囲と非検出範囲とを示す図Diagram showing the detection range and non-detection range of obstacles in the distance image of the first obstacle sensor 第2障害物センサの距離画像における作業装置下降状態での障害物の検出範囲と非検出範囲とを示す図A diagram showing the detection range and non-detection range of obstacles in the distance image of the second obstacle sensor when the work equipment is in a lowered state. 第2障害物センサの距離画像における作業装置上昇状態での障害物の検出範囲と非検出範囲とを示す図A diagram showing the detection range and non-detection range of obstacles in the distance image of the second obstacle sensor when the work equipment is in the raised state. 障害物情報取得制御における情報統合処理部の制御作動を示すフローチャートFlowchart showing the control operation of the information integration processing unit in obstacle information acquisition control 第1衝突回避制御における障害物用制御部の制御作動を示すフローチャートFlowchart showing the control operation of the obstacle control unit in the first collision avoidance control 汚れ対応制御処理における自動走行制御部の制御作動を示すフローチャートFlowchart showing the control operation of the automatic driving control unit in the dirt handling control process 圃場において複数に区画設定された生育情報取得区域を示す平面図A plan view showing multiple growth information acquisition areas in a field. 撮像ユニットの前カメラが撮像したカラー画像情報から生成された車体前方のカラー画像の一例を示す図A diagram showing an example of a color image of the front of the vehicle body generated from color image information captured by the front camera of the imaging unit. 第1障害物センサの測定情報から生成された車体前方の距離画像の一例を示す図A diagram showing an example of a distance image in front of the vehicle body generated from measurement information of the first obstacle sensor 第1障害物センサの測定情報から生成された車体前方の近赤外画像の一例を示す図A diagram showing an example of a near-infrared image of the front of the vehicle body generated from the measurement information of the first obstacle sensor 生育情報取得制御における生育情報取得部の制御作動を示すフローチャートFlowchart showing the control operation of the growth information acquisition unit in growth information acquisition control

以下、本発明を実施するための形態の一例を図面に基づいて説明する。 EMBODIMENT OF THE INVENTION Hereinafter, an example of the form for implementing this invention is demonstrated based on drawing.

図1~5に示すように、本実施形態に例示された作業車両Vは、走行車体の一例であるトラクタ1と、その後部にリンク機構2を介して着脱可能に連結された作業装置の一例であるロータリ耕耘装置3とを有している。これにより、この作業車両Vは、ロータリ耕耘装置3による耕耘作業が可能なロータリ耕耘仕様に構成されている。ロータリ耕耘装置3は、トラクタ1の後部に、リンク機構2を介して昇降可能かつローリング可能に連結されている。 As shown in FIGS. 1 to 5, the work vehicle V illustrated in this embodiment includes a tractor 1, which is an example of a traveling vehicle body, and an example of a work device that is removably connected to the rear part of the tractor 1 via a link mechanism 2. It has a rotary tilling device 3 which is. As a result, the work vehicle V is configured to have a rotary tillage specification that allows the rotary tiller 3 to carry out tillage work. The rotary tiller 3 is connected to the rear part of the tractor 1 via a link mechanism 2 so as to be movable up and down and rollable.

尚、走行車体は、トラクタ1以外の、最低地上高が高く設定された乗用管理機などであってもよい。作業装置は、ロータリ耕耘装置3以外の、プラウ、ディスクハロー、カルチベータ、サブソイラ、播種装置、散布装置、草刈装置、などであってもよい。 Note that the traveling vehicle body may be a riding management machine or the like having a high minimum ground clearance other than the tractor 1. The working device may be a plow, a disc harrow, a cultivator, a subsoiler, a seeding device, a spraying device, a mowing device, etc. other than the rotary tilling device 3.

トラクタ1は、作業車両用の自動走行システムを使用することにより、図5に示す圃場Aなどにおいて自動走行させることができる。図1、図6に示すように、作業車両用の自動走行システムには、トラクタ1に搭載された自動走行ユニット4、及び、自動走行ユニット4と無線通信可能に通信設定された無線通信機器の一例である携帯通信端末5、などが含まれている。携帯通信端末5には、自動走行に関する各種の情報表示や入力操作などを可能にするマルチタッチ式の表示デバイス(例えば液晶パネル)50などが備えられている。 The tractor 1 can be automatically driven in a field A shown in FIG. 5 or the like by using an automatic driving system for work vehicles. As shown in FIGS. 1 and 6, an automatic driving system for a work vehicle includes an automatic driving unit 4 mounted on a tractor 1, and a wireless communication device configured to communicate wirelessly with the automatic driving unit 4. A mobile communication terminal 5, which is an example, is included. The mobile communication terminal 5 is equipped with a multi-touch display device (for example, a liquid crystal panel) 50 that enables various information display and input operations related to automatic driving.

尚、携帯通信端末5には、タブレット型のパーソナルコンピュータやスマートフォンなどを採用することができる。又、無線通信には、Wi-Fi(登録商標)などの無線LAN(Local Area Network)やBluetooth(登録商標)などの近距離無線通信などを採用することができる。 Note that the mobile communication terminal 5 may be a tablet-type personal computer, a smartphone, or the like. Furthermore, wireless communication may include wireless LAN (Local Area Network) such as Wi-Fi (registered trademark), short-range wireless communication such as Bluetooth (registered trademark), and the like.

図1~3、図6に示すように、トラクタ1には、駆動可能で操舵可能な左右の前輪10、駆動可能な左右の後輪11、搭乗式の運転部12を形成するキャビン13、コモンレールシステムを有する電子制御式のディーゼルエンジン(以下、エンジンと称する)14、エンジン14などを覆うボンネット15、及び、エンジン14からの動力を変速する変速ユニット16、などが備えられている。尚、エンジン14には、電子ガバナを有する電子制御式のガソリンエンジンなどを採用してもよい。 As shown in FIGS. 1 to 3 and FIG. 6, the tractor 1 includes drivable and steerable left and right front wheels 10, drivable left and right rear wheels 11, a cabin 13 forming a riding-type driving section 12, and a common rail. An electronically controlled diesel engine (hereinafter referred to as engine) 14 having a system, a hood 15 that covers the engine 14, etc., a transmission unit 16 that changes the speed of the power from the engine 14, and the like are provided. Note that the engine 14 may be an electronically controlled gasoline engine having an electronic governor.

図6に示すように、トラクタ1には、左右の前輪10を操舵する全油圧式のパワーステアリングユニット17、左右の後輪11を制動するブレーキユニット18、ロータリ耕耘装置3への伝動を断続する電子油圧制御式の作業クラッチユニット19、ロータリ耕耘装置3を昇降駆動する電子油圧制御式の昇降駆動ユニット20、ロータリ耕耘装置3のロール方向への駆動を可能にする電子油圧制御式のローリングユニット21、トラクタ1における各種の設定状態や各部の動作状態などを検出する各種のセンサやスイッチなどを含む車両状態検出機器22、及び、各種の制御部を有する車載制御ユニット23、などが備えられている。尚、パワーステアリングユニット17には、操舵用の電動モータを有する電動式を採用してもよい。 As shown in FIG. 6 , the tractor 1 includes a fully hydraulic power steering unit 17 that steers the left and right front wheels 10 , a brake unit 18 that brakes the left and right rear wheels 11 , and a brake unit 18 that brakes the left and right rear wheels 11 . An electro-hydraulic controlled work clutch unit 19, an electro-hydraulic controlled lifting drive unit 20 that drives the rotary tilling device 3 up and down, and an electro-hydraulic controlled rolling unit 21 that enables the rotary tilling device 3 to be driven in the roll direction. , a vehicle condition detection device 22 including various sensors and switches for detecting various setting conditions and operating conditions of each part of the tractor 1, and an on-vehicle control unit 23 having various control sections. . Note that the power steering unit 17 may be an electric type having an electric motor for steering.

図1、図3に示すように、運転部12には、手動操舵用のステアリングホイール25と、搭乗者用の座席26と、各種の情報表示や入力操作などを可能にする操作端末27とが備えられている。図示は省略するが、運転部12には、アクセルレバーや変速レバーなどの操作レバー類、及び、アクセルペダルやクラッチペダルなどの操作ペダル類、などが備えられている。操作端末27には、マルチタッチ式の液晶モニタやISOBUS(イソバス)対応のバーチャルターミナルなどを採用することができる。 As shown in FIGS. 1 and 3, the driving section 12 includes a steering wheel 25 for manual steering, a seat 26 for passengers, and an operating terminal 27 that allows various information display and input operations. It is equipped. Although not shown in the drawings, the driving unit 12 is equipped with operating levers such as an accelerator lever and a gear shift lever, and operating pedals such as an accelerator pedal and a clutch pedal. As the operation terminal 27, a multi-touch liquid crystal monitor, a virtual terminal compatible with ISOBUS, or the like can be adopted.

図示は省略するが、変速ユニット16には、エンジン14からの動力を変速する電子制御式の無段変速装置、及び、無段変速装置による変速後の動力を前進用と後進用とに切り換える電子油圧制御式の前後進切換装置、などが含まれている。無段変速装置には、静油圧式無段変速装置(HST:Hydro Static Transmission)よりも伝動効率が高い油圧機械式無段変速装置の一例であるI-HMT(Integrated Hydro-static Mechanical Transmission)が採用されている。前後進切換装置には、前進動力断続用の油圧クラッチと、後進動力断続用の油圧クラッチと、それらに対するオイルの流れを制御する電磁バルブとが含まれている。 Although not shown, the transmission unit 16 includes an electronically controlled continuously variable transmission that changes the speed of the power from the engine 14, and an electronically controlled continuously variable transmission that switches the power after shifting by the continuously variable transmission between forward and reverse. It includes a hydraulically controlled forward/reverse switching device. Continuously variable transmissions include I-HMT (Integrated Hydro-static Mechanical Transmission), which is an example of a hydro-mechanical continuously variable transmission that has higher transmission efficiency than Hydrostatic Transmission (HST). It has been adopted. The forward/reverse switching device includes a hydraulic clutch for intermittent forward power, a hydraulic clutch for intermittent reverse power, and an electromagnetic valve that controls the flow of oil to these clutches.

尚、無段変速装置には、I-HMTの代わりに、油圧機械式無段変速装置の一例であるHMT(Hydraulic Mechanical Transmission)、静油圧式無段変速装置、又は、ベルト式無段変速装置、などを採用してもよい。又、変速ユニット16には、無段変速装置の代わりに、複数の変速用の油圧クラッチとそれらに対するオイルの流れを制御する複数の電磁バルブとを有する電子油圧制御式の有段変速装置が含まれていてもよい。 Note that, instead of the I-HMT, the continuously variable transmission may be an HMT (Hydraulic Mechanical Transmission), which is an example of a hydromechanical continuously variable transmission, a hydrostatic continuously variable transmission, or a belt-type continuously variable transmission. , etc. may be adopted. Furthermore, instead of the continuously variable transmission, the transmission unit 16 includes an electrohydraulic-controlled stepped transmission that has a plurality of hydraulic clutches for shifting and a plurality of electromagnetic valves that control the flow of oil to the hydraulic clutches. It may be

図示は省略するが、ブレーキユニット18には、左右の後輪11を個別に制動する左右のブレーキ、運転部12に備えられた左右のブレーキペダルの踏み込み操作に連動して左右のブレーキを作動させるフットブレーキ系、運転部12に備えられたパーキングレバーの操作に連動して左右のブレーキを作動させるパーキングブレーキ系、及び、左右の前輪10の設定角度以上の操舵に連動して旋回内側のブレーキを作動させる旋回ブレーキ系、などが含まれている。 Although not shown, the brake unit 18 includes left and right brakes that individually brake the left and right rear wheels 11, and left and right brakes that operate in conjunction with depression of left and right brake pedals provided in the driving section 12. A foot brake system, a parking brake system that operates the left and right brakes in conjunction with the operation of a parking lever provided in the driving section 12, and a parking brake system that operates the brakes on the inside of the turn in conjunction with the steering of the left and right front wheels 10 at a set angle or more. It includes a swing brake system to operate, etc.

車両状態検出機器22は、トラクタ1の各部に備えられた各種のセンサやスイッチなどの総称である。図7に示すように、車両状態検出機器22には、トラクタ1の車速を検出する車速センサ22A、前後進切り換え用のリバーサレバーの操作位置を検出するリバーサセンサ22B、及び、前輪10の操舵角を検出する舵角センサ22C、が含まれている。又、図示は省略するが、車両状態検出機器22には、エンジン14の出力回転数を検出する回転センサ、アクセルレバーの操作位置を検出するアクセルセンサ、及び、変速レバーの操作位置を検出する変速センサ、などが含まれている。 The vehicle condition detection device 22 is a general term for various sensors, switches, etc. provided in each part of the tractor 1. As shown in FIG. 7, the vehicle condition detection device 22 includes a vehicle speed sensor 22A that detects the vehicle speed of the tractor 1, a reverser sensor 22B that detects the operating position of a reverser lever for switching forward and backward, and a steering angle of the front wheels 10. A steering angle sensor 22C that detects the steering angle is included. Although not shown, the vehicle condition detection device 22 includes a rotation sensor that detects the output rotation speed of the engine 14, an accelerator sensor that detects the operating position of the accelerator lever, and a shift sensor that detects the operating position of the gear shift lever. Contains sensors, etc.

図6~7に示すように、車載制御ユニット23には、エンジン14に関する制御を行うエンジン制御部23A、トラクタ1の車速や前後進の切り換えなどの変速ユニット16に関する制御を行う変速ユニット制御部23B、ステアリングに関する制御を行うステアリング制御部23C、ロータリ耕耘装置3などの作業装置に関する制御を行う作業装置制御部23D、操作端末27などに対する表示や報知に関する制御を行う表示制御部23E、自動走行に関する制御を行うことで作業支援部として機能する自動走行制御部23F、及び、圃場Aに応じて生成された自動走行用の目標経路P(図5参照)などを記憶する不揮発性の車載記憶部23G、などが含まれている。各制御部23A~23Fは、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどによって構築されている。各制御部23A~23Fは、CAN(Controller Area Network)を介して相互通信可能に接続されている。 As shown in FIGS. 6 and 7, the on-vehicle control unit 23 includes an engine control section 23A that controls the engine 14, and a transmission unit control section 23B that controls the transmission unit 16, such as switching the vehicle speed of the tractor 1 and forward/backward movement. , a steering control section 23C that controls steering, a working device control section 23D that controls working devices such as the rotary tiller 3, a display control section 23E that controls displays and notifications on the operation terminal 27, etc., and a control related to automatic driving. an automatic driving control unit 23F that functions as a work support unit by performing the following, and a non-volatile in-vehicle storage unit 23G that stores a target route P for automatic driving (see FIG. 5) generated according to the field A, etc. etc. are included. Each of the control units 23A to 23F is constructed by an electronic control unit in which a microcontroller and the like are integrated, various control programs, and the like. Each of the control units 23A to 23F is connected to be able to communicate with each other via a CAN (Controller Area Network).

尚、各制御部23A~23Fの相互通信には、CAN以外の通信規格や次世代通信規格である、例えば、車載EthernetやCAN-FD(CAN with FLexible Data rate)などを採用してもよい。 Note that communication standards other than CAN or next-generation communication standards such as in-vehicle Ethernet or CAN-FD (CAN with Flexible Data rate) may be used for mutual communication between the control units 23A to 23F.

エンジン制御部23Aは、アクセルセンサからの検出情報と回転センサからの検出情報とに基づいて、エンジン回転数をアクセルレバーの操作位置に応じた回転数に維持するエンジン回転数維持制御、などを実行する。 The engine control unit 23A executes engine rotation speed maintenance control to maintain the engine rotation speed at a rotation speed corresponding to the operating position of the accelerator lever, etc., based on the detection information from the accelerator sensor and the detection information from the rotation sensor. do.

変速ユニット制御部23Bは、変速センサからの検出情報と車速センサ22Aからの検出情報などに基づいて、トラクタ1の車速が変速レバーの操作位置に応じた速度に変更されるように無段変速装置の作動を制御する車速制御、及び、リバーサセンサ22Bからの検出情報に基づいて前後進切換装置の伝動状態を切り換える前後進切り換え制御、などを実行する。車速制御には、変速レバーが零速位置に操作された場合に、無段変速装置を零速状態まで減速制御してトラクタ1の走行を停止させる減速停止処理が含まれている。 The transmission unit control section 23B controls the continuously variable transmission so that the vehicle speed of the tractor 1 is changed to a speed corresponding to the operation position of the transmission lever, based on detection information from the transmission sensor and detection information from the vehicle speed sensor 22A. , and forward/reverse switching control that switches the transmission state of the forward/reverse switching device based on the detection information from the reverser sensor 22B. The vehicle speed control includes a deceleration and stop process in which the continuously variable transmission is decelerated to the zero speed state to stop the tractor 1 from traveling when the speed change lever is operated to the zero speed position.

作業装置制御部23Dには、運転部12に備えられたPTOスイッチの操作などに基づいて作業クラッチユニット19の作動を制御する作業クラッチ制御、運転部12に備えられた昇降スイッチの操作や高さ設定ダイヤルの設定値などに基づいて昇降駆動ユニット20の作動を制御する昇降制御、及び、運転部12に備えられたロール角設定ダイヤルの設定値などに基づいてローリングユニット21の作動を制御するローリング制御、などを実行する。PTOスイッチ、昇降スイッチ、高さ設定ダイヤル、及び、ロール角設定ダイヤルは、車両状態検出機器22に含まれている。 The work equipment control unit 23D includes a work clutch control that controls the operation of the work clutch unit 19 based on the operation of the PTO switch provided in the drive unit 12, and a control function that controls the operation and height of the lift switch provided in the drive unit 12. Elevation control that controls the operation of the elevating drive unit 20 based on the setting value of the setting dial, and rolling control that controls the operation of the rolling unit 21 based on the setting value of the roll angle setting dial provided in the driving section 12. control, etc. A PTO switch, a lift switch, a height setting dial, and a roll angle setting dial are included in the vehicle condition detection device 22.

図6に示すように、トラクタ1には、トラクタ1の位置や方位などを測定する測位ユニット30が備えられている。測位ユニット30には、衛星測位システムの一例であるGNSS(Global Navigation Satellite System)を利用してトラクタ1の位置と方位とを測定する衛星航法装置31、及び、3軸のジャイロスコープ及び3方向の加速度センサなどを有してトラクタ1の姿勢や方位などを測定する慣性計測装置(IMU:Inertial Measurement Unit)32、などが含まれている。GNSSを利用した測位方法には、DGNSS(Differential GNSS:相対測位方式)やRTK-GNSS(Real Time Kinematic GNSS:干渉測位方式)などがある。本実施形態においては、移動体の測位に適したRTK-GNSSが採用されている。そのため、図1に示すように、圃場周辺の既知位置には、RTK-GNSSによる測位を可能にする基地局6が設置されている。 As shown in FIG. 6, the tractor 1 is equipped with a positioning unit 30 that measures the position, direction, etc. of the tractor 1. The positioning unit 30 includes a satellite navigation device 31 that measures the position and direction of the tractor 1 using GNSS (Global Navigation Satellite System), which is an example of a satellite positioning system, and a 3-axis gyroscope and a 3-axis gyroscope. An inertial measurement unit (IMU) 32 that has an acceleration sensor and the like and measures the attitude, direction, etc. of the tractor 1 is included. Positioning methods using GNSS include DGNSS (Differential GNSS) and RTK-GNSS (Real Time Kinematic GNSS). In this embodiment, RTK-GNSS suitable for positioning of mobile objects is employed. Therefore, as shown in FIG. 1, a base station 6 that enables positioning by RTK-GNSS is installed at a known position around the field.

図1、図6に示すように、トラクタ1と基地局6とのそれぞれには、測位衛星7(図1参照)から送信された電波を受信するGNSSアンテナ33,60、及び、トラクタ1と基地局6との間における測位情報を含む各情報の無線通信を可能にする通信モジュール34,61、などが備えられている。これにより、測位ユニット30の衛星航法装置31は、トラクタ1のGNSSアンテナ33が測位衛星7からの電波を受信して得た測位情報と、基地局6のGNSSアンテナ60が測位衛星7からの電波を受信して得た測位情報とに基づいて、トラクタ1の位置及び方位を高い精度で測定することができる。又、測位ユニット30は、衛星航法装置31と慣性計測装置32とを有することにより、トラクタ1の位置、方位、姿勢角(ヨー角、ロール角、ピッチ角)を高精度に測定することができる。 As shown in FIGS. 1 and 6, the tractor 1 and the base station 6 each include GNSS antennas 33 and 60 that receive radio waves transmitted from the positioning satellite 7 (see FIG. 1), and the tractor 1 and the base station. Communication modules 34, 61, etc. that enable wireless communication of various information including positioning information with the station 6 are provided. As a result, the satellite navigation device 31 of the positioning unit 30 receives the positioning information obtained by the GNSS antenna 33 of the tractor 1 receiving radio waves from the positioning satellite 7, and the GNSS antenna 60 of the base station 6 receives the radio waves from the positioning satellite 7. The position and direction of the tractor 1 can be measured with high accuracy based on the positioning information obtained by receiving the information. Moreover, the positioning unit 30 can measure the position, azimuth, and attitude angle (yaw angle, roll angle, pitch angle) of the tractor 1 with high precision by having the satellite navigation device 31 and the inertial measurement device 32. .

このトラクタ1において、測位ユニット30の慣性計測装置32、GNSSアンテナ33、及び、通信モジュール34は、図1に示すアンテナユニット35に含まれている。アンテナユニット35は、キャビン13の前面側における上部の左右中央箇所に配置されている。 In this tractor 1, the inertial measurement device 32, GNSS antenna 33, and communication module 34 of the positioning unit 30 are included in the antenna unit 35 shown in FIG. The antenna unit 35 is arranged at the center of the upper left and right sides of the front side of the cabin 13.

図示は省略するが、トラクタ1の位置を特定するときの車体位置は後輪車軸中心位置に設定されている。車体位置は、測位ユニット42からの測位情報、及び、トラクタ1におけるGNSSアンテナ45の取り付け位置と後輪車軸中心位置との位置関係を含む車体情報から求めることができる。 Although not shown, the vehicle body position when specifying the position of the tractor 1 is set to the center position of the rear wheel axle. The vehicle body position can be determined from positioning information from the positioning unit 42 and vehicle body information including the positional relationship between the mounting position of the GNSS antenna 45 on the tractor 1 and the center position of the rear wheel axle.

図6に示すように、携帯通信端末5には、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどを有する端末制御ユニット51などが備えられている。端末制御ユニット51には、表示デバイス50などに対する表示や報知に関する制御を行う表示制御部51A、自動走行用の目標経路Pを生成する目標経路生成部51B、及び、目標経路生成部51Bが生成した目標経路Pなどを記憶する不揮発性の端末記憶部51C、などが含まれている。端末記憶部51Cには、目標経路Pの生成に使用する各種の情報として、トラクタ1の旋回半径やロータリ耕耘装置3などの作業装置の作業幅又は作業畝数などの車体情報、及び、前述した測位情報から得られる圃場情報、などが記憶されている。圃場情報には、圃場Aの形状や大きさなどを特定する上において、トラクタ1を圃場Aの外周縁に沿って走行させたときにGNSSを利用して取得した圃場Aにおける複数の形状特定地点(形状特定座標)となる4つの角部地点Cp1~Cp4(図5参照)、及び、それらの角部地点Cp1~Cp4を繋いで圃場Aの形状や大きさなどを特定する矩形状の形状特定線SL(図5参照)、などが含まれている。 As shown in FIG. 6, the mobile communication terminal 5 includes an electronic control unit in which a microcontroller and the like are integrated, a terminal control unit 51 having various control programs, and the like. The terminal control unit 51 includes a display control section 51A that controls display and notification on the display device 50, a target route generation section 51B that generates a target route P for automatic driving, and a target route generation section 51B that generates a target route P for automatic driving. It includes a non-volatile terminal storage unit 51C that stores the target route P and the like. The terminal storage unit 51C stores, as various information used to generate the target route P, vehicle body information such as the turning radius of the tractor 1, the working width or the number of working ridges of a working device such as the rotary tiller 3, and the above-mentioned information. Field information obtained from positioning information, etc. are stored. In order to identify the shape and size of the field A, the field information includes multiple shape specific points in the field A acquired using GNSS when the tractor 1 is driven along the outer periphery of the field A. (shape specific coordinates), four corner points Cp1 to Cp4 (see Figure 5), and rectangular shape identification to identify the shape and size of field A by connecting these corner points Cp1 to Cp4. The line SL (see FIG. 5), etc. are included.

図6に示すように、トラクタ1及び携帯通信端末5には、車載制御ユニット23と端末制御ユニット51との間における測位情報などを含む各情報の無線通信を可能にする通信モジュール28,52が備えられている。トラクタ1の通信モジュール28は、携帯通信端末5との無線通信にWi-Fiが採用される場合には、通信情報をCANとWi-Fiとの双方向に変換する変換器として機能する。端末制御ユニット51は、車載制御ユニット23との無線通信にてトラクタ1の位置や方位などを含むトラクタ1に関する各種の情報を取得することができる。これにより、携帯通信端末5の表示デバイス50にて、目標経路Pに対するトラクタ1の位置や方位などを含む各種の情報を表示させることができる。 As shown in FIG. 6, the tractor 1 and the mobile communication terminal 5 include communication modules 28 and 52 that enable wireless communication of various information including positioning information between the on-vehicle control unit 23 and the terminal control unit 51. It is equipped. When Wi-Fi is used for wireless communication with the mobile communication terminal 5, the communication module 28 of the tractor 1 functions as a converter that bidirectionally converts communication information between CAN and Wi-Fi. The terminal control unit 51 can acquire various information regarding the tractor 1 including the position and direction of the tractor 1 through wireless communication with the on-vehicle control unit 23. Thereby, various information including the position and direction of the tractor 1 with respect to the target route P can be displayed on the display device 50 of the mobile communication terminal 5.

目標経路生成部51Bは、車体情報に含まれたトラクタ1の旋回半径や作業装置の作業幅又は作業畝数、及び、圃場情報に含まれた圃場Aの形状や大きさ、などに基づいて目標経路Pを生成する。 The target route generation unit 51B generates a target based on the turning radius of the tractor 1, the working width or the number of working ridges of the working device included in the vehicle body information, the shape and size of the field A included in the field information, etc. Generate route P.

例えば、図5に示すように、矩形状の圃場Aにおいて、自動走行の開始位置p1と終了位置p2とが設定され、トラクタ1の作業走行方向が圃場Aの短辺に沿う方向に設定されている場合は、目標経路生成部51Bは、先ず、圃場Aを、前述した4つの角部地点Cp1~Cp4と矩形状の形状特定線SLとに基づいて、圃場Aの外周縁に隣接するマージン領域A1と、マージン領域A1の内側に位置する作業可能領域A2とに区分けする。 For example, as shown in FIG. 5, in a rectangular farm field A, a start position p1 and an end position p2 of automatic travel are set, and the work traveling direction of the tractor 1 is set in a direction along the short side of the field A. If so, the target path generation unit 51B first converts the field A into a margin area adjacent to the outer periphery of the field A based on the four corner points Cp1 to Cp4 and the rectangular shape specifying line SL. A1 and a workable area A2 located inside the margin area A1.

次に、目標経路生成部51Bは、トラクタ1の旋回半径や作業装置の作業幅又は作業畝数などに基づいて、作業可能領域A2を、作業可能領域A2における各長辺側の端部に設定される一対の端部領域A2aと、一対の端部領域A2aの間に設定される中央側領域A2bとに区分けする。その後、目標経路生成部51Bは、中央側領域A2bに、圃場Aの長辺に沿う方向に作業幅又は作業畝数に応じた所定間隔を置いて並列に配置される複数の並列経路P1を生成する。又、目標経路生成部51Bは、各端部領域A2aに、複数の並列経路P1をトラクタ1の走行順に接続する複数の接続経路P2を生成する。 Next, the target route generation unit 51B sets the workable area A2 at the end of each long side in the workable area A2 based on the turning radius of the tractor 1, the working width of the working device, the number of working ridges, etc. It is divided into a pair of end regions A2a, and a center region A2b, which is set between the pair of end regions A2a. After that, the target route generation unit 51B generates a plurality of parallel routes P1 arranged in parallel at predetermined intervals according to the working width or the number of working ridges in the direction along the long side of the field A in the central area A2b. do. Further, the target route generation unit 51B generates a plurality of connection routes P2 that connect the plurality of parallel routes P1 in the running order of the tractor 1 to each end region A2a.

これにより、目標経路生成部51Bは、図5に示す圃場Aに設定された自動走行の開始位置p1から終了位置p2にわたってトラクタ1を自動走行させることが可能な目標経路Pを生成することができる。 Thereby, the target route generation unit 51B can generate a target route P that allows the tractor 1 to travel automatically from the automatic travel start position p1 to the end position p2 set in the farm field A shown in FIG. .

図5に示す圃場Aにおいて、マージン領域A1は、トラクタ1が作業可能領域A2の端部を自動走行するときに、作業装置などが圃場Aに隣接する畦や柵などの他物に接触するのを防止するために、圃場Aの外周縁と作業可能領域A2との間に確保された領域である。各端部領域A2aは、トラクタ1が現在走行中の並列経路P1から次の並列経路P1に向けて接続経路P2に従って方向転換移動するときの方向転換領域である。中央側領域A2bは、トラクタ1が各並列経路P1に従って作業状態で自動走行する作業領域である。 In the field A shown in FIG. 5, the margin area A1 is designed to prevent work equipment from coming into contact with other objects such as ridges or fences adjacent to the field A when the tractor 1 automatically travels along the edge of the workable area A2. This is an area secured between the outer periphery of the field A and the workable area A2 in order to prevent this. Each end region A2a is a direction change region when the tractor 1 changes direction from the currently running parallel route P1 toward the next parallel route P1 according to the connection route P2. The central area A2b is a work area in which the tractor 1 automatically travels in a working state along each parallel route P1.

図5に示す目標経路Pにおいて、各並列経路P1は、トラクタ1がロータリ耕耘装置3などの作業装置による作業を行いながら自動走行する作業経路である。各接続経路P2は、トラクタ1が作業装置による作業を行わずに自動走行する非作業経路である。各並列経路P1の始端位置p3は、トラクタ1が作業装置による作業を開始する作業開始位置である。各並列経路P1の終端位置p4は、トラクタ1が作業装置による作業を停止する作業停止位置である。各並列経路P1の始端位置p3のうち、トラクタ1の走行順位が一番目に設定された並列経路P1の始端位置p3が自動走行の開始位置p1である。そして、残りの並列経路P1の始端位置p3が、接続経路P2の終端位置との接続位置である。又、トラクタ1の走行順位が最後に設定された並列経路P1の終端位置p4が自動走行の終了位置p2である。そして、残りの並列経路P1の終端位置p4が、接続経路P2の始端位置との接続位置である。 In the target route P shown in FIG. 5, each parallel route P1 is a work route along which the tractor 1 automatically travels while performing work using a work device such as the rotary tiller 3. Each connection route P2 is a non-working route on which the tractor 1 automatically travels without performing any work using the working device. The start position p3 of each parallel path P1 is a work start position where the tractor 1 starts work using the work device. The terminal position p4 of each parallel path P1 is a work stop position where the tractor 1 stops working with the work device. Among the starting positions p3 of each parallel route P1, the starting position p3 of the parallel route P1 in which the running order of the tractor 1 is set first is the starting position p1 of automatic travel. The starting end position p3 of the remaining parallel path P1 is the connection position with the ending position of the connecting path P2. Further, the terminal position p4 of the parallel route P1 in which the running order of the tractor 1 is set last is the end position p2 of automatic running. The terminal position p4 of the remaining parallel path P1 is the connection position with the starting position of the connection path P2.

尚、図5に示す目標経路Pはあくまでも一例であり、目標経路生成部51Bは、トラクタ1の機種や作業装置の種類などに応じて異なる車体情報、及び、圃場Aに応じて異なる圃場Aの形状や大きさなどの圃場情報、などに基づいて、それらに適した種々の目標経路Pを生成することができる。 It should be noted that the target route P shown in FIG. Based on field information such as shape and size, various target routes P suitable for them can be generated.

目標経路Pは、車体情報や圃場情報などに関連付けされた状態で端末記憶部51Cに記憶されており、携帯通信端末5の表示デバイス50にて表示することができる。目標経路Pには、各並列経路P1におけるトラクタ1の目標車速、各接続経路P2におけるトラクタ1の目標車速、各並列経路P1における前輪操舵角、及び、各接続経路P2における前輪操舵角、などが含まれている。 The target route P is stored in the terminal storage unit 51C in a state in which it is associated with vehicle body information, field information, etc., and can be displayed on the display device 50 of the mobile communication terminal 5. The target route P includes the target vehicle speed of the tractor 1 on each parallel route P1, the target vehicle speed of the tractor 1 on each connection route P2, the front wheel steering angle on each parallel route P1, the front wheel steering angle on each connection route P2, etc. include.

端末制御ユニット51は、車載制御ユニット23からの送信要求指令に応じて、端末記憶部51Cに記憶されている圃場情報や目標経路Pなどを車載制御ユニット23に送信する。車載制御ユニット23は、受信した圃場情報や目標経路Pなどを車載記憶部23Gに記憶する。目標経路Pの送信に関しては、例えば、端末制御ユニット51が、トラクタ1が自動走行を開始する前の段階において、目標経路Pの全てを端末記憶部51Cから車載制御ユニット23に一挙に送信するようにしてもよい。又、端末制御ユニット51が、目標経路Pを所定距離ごとの複数の分割経路情報に分割して、トラクタ1が自動走行を開始する前の段階からトラクタ1の走行距離が所定距離に達するごとに、トラクタ1の走行順位に応じた所定数の分割経路情報を端末記憶部51Cから車載制御ユニット23に逐次送信するようにしてもよい。 The terminal control unit 51 transmits the field information, target route P, etc. stored in the terminal storage section 51C to the on-board control unit 23 in response to a transmission request command from the on-board control unit 23. The on-vehicle control unit 23 stores the received field information, target route P, etc. in the on-vehicle storage section 23G. Regarding the transmission of the target route P, for example, the terminal control unit 51 transmits the entire target route P from the terminal storage section 51C to the on-vehicle control unit 23 at once at a stage before the tractor 1 starts automatic travel. You may also do so. Further, the terminal control unit 51 divides the target route P into a plurality of divided route information for each predetermined distance, and each time the travel distance of the tractor 1 reaches a predetermined distance from a stage before the tractor 1 starts automatic travel. , a predetermined number of divided route information according to the running order of the tractor 1 may be sequentially transmitted from the terminal storage section 51C to the on-vehicle control unit 23.

車載制御ユニット23において、自動走行制御部23Fには、車両状態検出機器22に含まれた各種のセンサやスイッチなどからの検出情報が、変速ユニット制御部23Bやステアリング制御部23Cなどを介して入力されている。これにより、自動走行制御部23Fは、トラクタ1における各種の設定状態や各部の動作状態などを監視することができる。 In the in-vehicle control unit 23, detection information from various sensors and switches included in the vehicle condition detection device 22 is input to the automatic driving control section 23F via the transmission unit control section 23B, the steering control section 23C, etc. has been done. Thereby, the automatic travel control unit 23F can monitor various setting states and operating states of each part in the tractor 1.

自動走行制御部23Fは、搭乗者や管理者などのユーザにて、自動走行開始条件を満たすための各種の手動設定操作が行われて、トラクタ1の走行モードが手動走行モードから自動走行モードに切り換えられた状態において、携帯通信端末5の表示デバイス50が操作されて自動走行の開始が指令された場合に、測位ユニット30にてトラクタ1の位置や方位などを取得しながら目標経路Pに従ってトラクタ1を自動走行させる自動走行制御を開始する。 The automatic travel control unit 23F changes the travel mode of the tractor 1 from manual travel mode to automatic travel mode when various manual setting operations are performed by a user such as a passenger or administrator to satisfy automatic travel start conditions. In the switched state, when the display device 50 of the mobile communication terminal 5 is operated to instruct the start of automatic driving, the tractor 1 follows the target route P while acquiring the position and direction of the tractor 1 using the positioning unit 30. 1 starts automatic travel control to automatically travel.

自動走行制御部23Fは、自動走行制御の実行中に、例えば、ユーザにより携帯通信端末5の表示デバイス50が操作されて自動走行の終了が指令された場合や、運転部12に搭乗しているユーザにてステアリングホイール25やアクセルペダルなどの手動操作具が操作された場合は、自動走行制御を終了するとともに走行モードを自動走行モードから手動走行モードに切り換える。 The automatic driving control unit 23F is activated when, for example, a user operates the display device 50 of the mobile communication terminal 5 to instruct the end of automatic driving while the automatic driving control is being executed, or when the user is on board the driving unit 12. When the user operates a manual operating tool such as the steering wheel 25 or an accelerator pedal, the automatic driving control is ended and the driving mode is switched from the automatic driving mode to the manual driving mode.

自動走行制御部23Fによる自動走行制御には、エンジン14に関する自動走行用の制御指令をエンジン制御部23Aに送信するエンジン用自動制御処理、トラクタ1の車速や前後進の切り換えに関する自動走行用の制御指令を変速ユニット制御部23Bに送信する車速用自動制御処理、ステアリングに関する自動走行用の制御指令をステアリング制御部23Cに送信するステアリング用自動制御処理、及び、ロータリ耕耘装置3などの作業装置に関する自動走行用の制御指令を作業装置制御部23Dに送信する作業用自動制御処理、などが含まれている。 The automatic travel control by the automatic travel control unit 23F includes an automatic engine control process that transmits a control command for automatic travel regarding the engine 14 to the engine control unit 23A, and automatic travel control regarding the vehicle speed of the tractor 1 and switching between forward and backward movement. Automatic control processing for vehicle speed that transmits commands to the transmission unit control section 23B, automatic control processing for steering that transmits control commands for automatic driving related to steering to the steering control section 23C, and automatic control processing regarding working devices such as the rotary tiller 3. It includes automatic control processing for work that transmits control commands for traveling to the work equipment control unit 23D, and the like.

自動走行制御部23Fは、エンジン用自動制御処理においては、目標経路Pに含まれた設定回転数などに基づいてエンジン回転数の変更を指示するエンジン回転数変更指令、などをエンジン制御部23Aに送信する。エンジン制御部23Aは、自動走行制御部23Fから送信されたエンジン14に関する各種の制御指令に応じてエンジン回転数を自動で変更するエンジン回転数変更制御、などを実行する。 In the engine automatic control process, the automatic travel control unit 23F issues an engine rotation speed change command to the engine control unit 23A to instruct the engine rotation speed to be changed based on the set rotation speed included in the target route P. Send. The engine control unit 23A executes engine rotation speed change control that automatically changes the engine rotation speed in response to various control commands regarding the engine 14 transmitted from the automatic travel control unit 23F.

自動走行制御部23Fは、車速用自動制御処理においては、目標経路Pに含まれた目標車速に基づいて無段変速装置の変速操作を指示する変速操作指令、及び、目標経路Pに含まれたトラクタ1の進行方向などに基づいて前後進切換装置の前後進切り換え操作を指示する前後進切り換え指令、などを変速ユニット制御部23Bに送信する。変速ユニット制御部23Bは、自動走行制御部23Fから送信された無段変速装置や前後進切換装置などに関する各種の制御指令に応じて、無段変速装置の作動を自動で制御する自動車速制御、及び、前後進切換装置の作動を自動で制御する自動前後進切り換え制御、などを実行する。自動車速制御には、例えば、目標経路Pに含まれた目標車速が零速である場合に、無段変速装置を零速状態まで減速制御してトラクタ1の走行を停止させる自動減速停止処理などが含まれている。 In the vehicle speed automatic control process, the automatic driving control unit 23F issues a speed change operation command that instructs the continuously variable transmission to perform a speed change operation based on the target vehicle speed included in the target route P, and A forward/reverse switching command for instructing a forward/reverse switching operation of the forward/reverse switching device based on the traveling direction of the tractor 1, etc. is transmitted to the transmission unit control section 23B. The transmission unit control section 23B performs vehicle speed control that automatically controls the operation of the continuously variable transmission in response to various control commands related to the continuously variable transmission, forward/reverse switching device, etc. transmitted from the automatic driving control section 23F; It also performs automatic forward/reverse switching control that automatically controls the operation of the forward/reverse switching device. The vehicle speed control includes, for example, an automatic deceleration and stop process that controls the continuously variable transmission to decelerate to a zero speed state to stop the tractor 1 from traveling when the target vehicle speed included in the target route P is zero speed. It is included.

自動走行制御部23Fは、ステアリング用自動制御処理においては、目標経路Pに含まれた前輪操舵角などに基づいて左右の前輪10の操舵を指示する操舵指令、などをステアリング制御部23Cに送信する。ステアリング制御部23Cは、自動走行制御部23Fから送信された操舵指令に応じて、パワーステアリングユニット17の作動を制御して左右の前輪10を操舵する自動ステアリング制御、及び、左右の前輪10が設定角度以上に操舵された場合に、ブレーキユニット18を作動させて旋回内側のブレーキを作動させる自動ブレーキ旋回制御、などを実行する。 In the automatic steering control process, the automatic travel control unit 23F transmits a steering command for instructing the steering of the left and right front wheels 10 based on the front wheel steering angle included in the target route P, etc. to the steering control unit 23C. . The steering control unit 23C performs automatic steering control that controls the operation of the power steering unit 17 to steer the left and right front wheels 10 in response to a steering command transmitted from the automatic travel control unit 23F, and controls the settings of the left and right front wheels 10. When the vehicle is steered beyond the angle, automatic brake turning control is executed in which the brake unit 18 is activated to activate the brake on the inside of the turn.

自動走行制御部23Fは、作業用自動制御処理においては、目標経路Pに含まれた各作業開始位置(各並列経路P1の始端位置p3)へのトラクタ1の到達に基づいてロータリ耕耘装置3などの作業装置の作業状態への切り換えを指示する作業開始指令、及び、目標経路Pに含まれた各作業停止位置(各並列経路P1の終端位置p4)へのトラクタ1の到達に基づいて作業装置の非作業状態への切り換えを指示する作業停止指令、などを作業装置制御部23Dに送信する。作業装置制御部23Dは、自動走行制御部23Fから送信された作業装置に関する各種の制御指令に応じて、昇降駆動ユニット20などの作動を制御して、作業装置を作業高さまで下降させて作用させる自動作業開始制御、及び、作業装置を非作業高さまで上昇させて待機させる自動作業停止制御、などを実行する。 In the work automatic control process, the automatic travel control unit 23F controls the rotary tiller 3, etc. based on the arrival of the tractor 1 at each work start position included in the target route P (the starting position p3 of each parallel route P1). The work device is activated based on the work start command that instructs the switching of the work device to the working state, and the arrival of the tractor 1 at each work stop position included in the target path P (the terminal position p4 of each parallel path P1). A work stop command that instructs switching to a non-working state, etc. is transmitted to the work equipment control unit 23D. The work equipment control unit 23D controls the operation of the lifting drive unit 20 and the like in accordance with various control commands related to the work equipment transmitted from the automatic travel control unit 23F, and lowers the work equipment to a working height to operate the work equipment. Executes automatic work start control, automatic work stop control that raises the work equipment to a non-work height and puts it on standby, etc.

つまり、前述した自動走行ユニット4には、パワーステアリングユニット17、ブレーキユニット18、作業クラッチユニット19、昇降駆動ユニット20、ローリングユニット21、車両状態検出機器22、車載制御ユニット23、測位ユニット30、及び、通信モジュール28,34、などが含まれている。そして、これらが適正に作動することにより、トラクタ1を目標経路Pに従って精度良く自動走行させることができるとともに、ロータリ耕耘装置3などの作業装置による作業を適正に行うことができる。 In other words, the automatic driving unit 4 described above includes a power steering unit 17, a brake unit 18, a working clutch unit 19, an elevation drive unit 20, a rolling unit 21, a vehicle state detection device 22, an on-vehicle control unit 23, a positioning unit 30, and , communication modules 28, 34, and the like. By operating these properly, the tractor 1 can be automatically driven along the target route P with high accuracy, and work can be performed properly using a working device such as the rotary tiller 3.

図6~7に示すように、トラクタ1には、トラクタ1の周囲を監視して、その周囲に存在する障害物を検出する障害物検出システム80が備えられている。障害物検出システム80が検出する障害物には、圃場Aにて作業する作業者などの人物や他の作業車両、及び、圃場Aに既存の電柱や樹木などが含まれている。 As shown in FIGS. 6 and 7, the tractor 1 is equipped with an obstacle detection system 80 that monitors the surroundings of the tractor 1 and detects obstacles existing around the tractor 1. Obstacles detected by the obstacle detection system 80 include people such as workers working in the field A, other work vehicles, and utility poles and trees existing in the field A.

図7に示すように、障害物検出システム80には、トラクタ周辺の可視光を撮像してカラー画像情報を取得する撮像ユニット80A、トラクタ1の周囲に存在する障害物を検出する障害物検出ユニット80B、及び、撮像ユニット80Aからのカラー画像情報と障害物検出ユニット80Bからの検出情報とを統合して処理する情報統合処理部80C、が含まれている。 As shown in FIG. 7, the obstacle detection system 80 includes an imaging unit 80A that captures visible light around the tractor to obtain color image information, and an obstacle detection unit that detects obstacles that exist around the tractor 1. 80B, and an information integration processing section 80C that integrates and processes color image information from the imaging unit 80A and detection information from the obstacle detection unit 80B.

図1~3、図7に示すように、撮像ユニット80Aには、キャビン13から前方の第1撮像範囲Ri1が撮像範囲に設定された前カメラ81、キャビン13から後方の第2撮像範囲Ri2が撮像範囲に設定された後カメラ82、キャビン13から右方の第3撮像範囲Ri3が撮像範囲に設定された右カメラ83、キャビン13から左方の第4撮像範囲Ri4が撮像範囲に設定された左カメラ84、及び、各カメラ81~84からのカラー画像情報を処理する画像処理装置85(図7参照)、が含まれている。 As shown in FIGS. 1 to 3 and 7, the imaging unit 80A includes a front camera 81 having a first imaging range Ri1 in front of the cabin 13 as the imaging range, and a second imaging range Ri2 in the rear from the cabin 13. After the camera 82 was set as the imaging range, the right camera 83 set the third imaging range Ri3 to the right from the cabin 13 as the imaging range, and the fourth imaging range Ri4 to the left from the cabin 13 was set as the imaging range. It includes a left camera 84 and an image processing device 85 (see FIG. 7) that processes color image information from each of the cameras 81 to 84.

前カメラ81及び後カメラ82は、トラクタ1の左右中心線上に配置されている。前カメラ81は、キャビン13の前端側における上部の左右中央箇所に、トラクタ1の前方側を斜め上方側から見下ろす前下がり姿勢で配置されている。これにより、前カメラ81は、トラクタ1の左右中心線を対称軸とする車体前方側の所定範囲が第1撮像範囲Ri1に設定されている。後カメラ82は、キャビン13の後端側における上部の左右中央箇所に、トラクタ1の後方側を斜め上方側から見下ろす後下がり姿勢で配置されている。これにより、後カメラ82は、トラクタ1の左右中心線を対称軸とする車体後方側の所定範囲が第2撮像範囲Ri2に設定されている。右カメラ83は、キャビン13の右端側における上部の前後中央箇所に、トラクタ1の右方側を斜め上方側から見下ろす右下がり姿勢で配置されている。これにより、右カメラ83は、車体右方側の所定範囲が第3撮像範囲Ri3に設定されている。左カメラ84は、キャビン13の左端側における上部の前後中央箇所に、トラクタ1の左方側を斜め上方側から見下ろす左下がり姿勢で配置されている。これにより、左カメラ84は、車体左方側の所定範囲が第4撮像範囲Ri4に設定されている。 The front camera 81 and the rear camera 82 are arranged on the left and right center line of the tractor 1. The front camera 81 is disposed at the left-right center of the upper part of the front end side of the cabin 13 in a forward-sloping posture looking down on the front side of the tractor 1 from diagonally above. Thereby, in the front camera 81, a predetermined range on the front side of the vehicle body with the left-right center line of the tractor 1 as the axis of symmetry is set as the first imaging range Ri1. The rear camera 82 is disposed at the left-right center of the upper part on the rear end side of the cabin 13 in a backward-sloping position looking down on the rear side of the tractor 1 from diagonally above. Thereby, in the rear camera 82, a predetermined range on the rear side of the vehicle body with the left-right center line of the tractor 1 as the axis of symmetry is set as the second imaging range Ri2. The right camera 83 is disposed at the front-rear center of the upper part on the right end side of the cabin 13 in a downward-sloping position looking down on the right side of the tractor 1 from diagonally above. As a result, the right camera 83 has a predetermined range on the right side of the vehicle body set as the third imaging range Ri3. The left camera 84 is disposed at the front-rear center of the upper part on the left end side of the cabin 13 in a left-down position looking down on the left side of the tractor 1 from diagonally above. As a result, the left camera 84 has a predetermined range on the left side of the vehicle body set as the fourth imaging range Ri4.

画像処理装置85は、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどによって構築されている。画像処理装置85は、車載制御ユニット23及び情報統合処理部80CなどにCANを介して相互通信可能に接続されている。 The image processing device 85 is constructed from an electronic control unit in which a microcontroller and the like are integrated, various control programs, and the like. The image processing device 85 is connected to the in-vehicle control unit 23, the information integration processing section 80C, and the like via CAN so as to be able to communicate with each other.

画像処理装置85は、各カメラ81~84から順次送信されるカラー画像情報に対して画像処理を行う。例えば、画像処理装置85は、各カメラ81~84から順次送信されるカラー画像情報に対して、各カメラ81~84の撮像範囲に対応した前後左右の各画像を生成する画像生成処理、及び、全カメラ81~84からのカラー画像情報を合成してトラクタ1の全周囲画像(例えばサラウンドビュー)を生成する全周囲画像生成処理、などを行う。そして、生成した各画像及び全周囲画像を、車載制御ユニット23の表示制御部23Eに送信する画像送信処理を行う。表示制御部23Eは、画像処理装置85からの各画像及び全周囲画像を、CANを介して操作端末27に送信するとともに、通信モジュール28,52を介して携帯通信端末5の表示制御部51Aに送信する。 The image processing device 85 performs image processing on color image information sequentially transmitted from each camera 81 to 84. For example, the image processing device 85 performs an image generation process of generating front, rear, left, and right images corresponding to the imaging range of each camera 81 to 84 for color image information sequentially transmitted from each camera 81 to 84, and An all-around image generation process is performed in which color image information from all cameras 81 to 84 is combined to generate an all-around image (for example, a surround view) of the tractor 1. Then, image transmission processing is performed to transmit each generated image and the entire surrounding image to the display control section 23E of the on-vehicle control unit 23. The display control unit 23E transmits each image and the entire surrounding image from the image processing device 85 to the operating terminal 27 via CAN, and also to the display control unit 51A of the mobile communication terminal 5 via the communication modules 28 and 52. Send.

これにより、画像処理装置85が生成した全周囲画像やトラクタ1の走行方向に対応する画像などを、トラクタ1の操作端末27や携帯通信端末5の表示デバイス50などにおいて表示することができる。そして、この表示により、トラクタ1の周囲の状況や走行方向の状況をユーザに視認させることができる。 Thereby, the all-around image generated by the image processing device 85, the image corresponding to the traveling direction of the tractor 1, etc. can be displayed on the operation terminal 27 of the tractor 1, the display device 50 of the mobile communication terminal 5, etc. This display allows the user to visually recognize the surrounding situation and the running direction of the tractor 1.

つまり、車載制御ユニット23の表示制御部23Eは、画像処理装置85が生成した全周囲画像やトラクタ1の走行方向に対応する画像などを、トラクタ1の操作端末27や携帯通信端末5の表示デバイス50などにおいて表示させることで、作業車両Vの周囲の状況をユーザに視認し易くする、といった作業支援を可能にする作業支援部として機能する。 In other words, the display control section 23E of the on-vehicle control unit 23 displays the all-around image generated by the image processing device 85, the image corresponding to the traveling direction of the tractor 1, etc. on the display device of the operation terminal 27 of the tractor 1 and the mobile communication terminal 5. 50 etc., it functions as a work support unit that enables work support such as making it easier for the user to visually recognize the surrounding situation of the work vehicle V.

画像処理装置85には、圃場Aにて作業する作業者などの人物や他の作業車両、及び、圃場Aに既存の電柱や樹木などを障害物として認識するための学習処理が施されている。これにより、画像処理装置85は、各カメラ81~84から順次送信されるカラー画像情報に基づいて、各カメラ81~84のいずれかの撮像範囲Ri1~Ri4においてトラクタ1の走行に影響を及ぼす障害物が存在するか否かを判定する障害物判定処理を行うことができる。 The image processing device 85 is subjected to learning processing to recognize people such as workers working in the field A, other work vehicles, and electric poles, trees, etc. existing in the field A as obstacles. . Thereby, the image processing device 85 detects obstacles that affect the running of the tractor 1 in any of the imaging ranges Ri1 to Ri4 of each of the cameras 81 to 84 based on the color image information sequentially transmitted from each of the cameras 81 to 84. Obstacle determination processing can be performed to determine whether an object exists.

画像処理装置85は、障害物判定処理において、いずれかの撮像範囲Ri1~Ri4に障害物が存在すると判定した場合は、障害物が存在する画像上での障害物の座標を求める座標算出処理を行い、求めた障害物の座標を、各カメラ81~84の搭載位置や搭載角度などに基づいて、車体座標原点を基準にした座標に変換する座標変換処理を行う。そして、その変換後の座標と予め設定した距離算出基準点とにわたる直線距離を、距離算出基準点から障害物までの距離として求める距離算出処理を行い、変換後の座標と求めた障害物までの距離とを障害物に関する情報として情報統合処理部80Cに送信する障害物情報送信処理を行う。一方、いずれの撮像範囲Ri1~Ri4にも障害物が存在しない場合は、障害物が未検出であることを情報統合処理部80Cに送信する未検出送信処理を行う。 In the obstacle determination process, if it is determined that an obstacle exists in any of the imaging ranges Ri1 to Ri4, the image processing device 85 performs a coordinate calculation process to calculate the coordinates of the obstacle on the image where the obstacle exists. Based on the mounting position and mounting angle of each camera 81 to 84, a coordinate conversion process is performed to convert the obtained coordinates of the obstacle into coordinates based on the vehicle body coordinate origin. Then, a distance calculation process is performed to calculate the straight line distance between the converted coordinates and a preset distance calculation reference point as the distance from the distance calculation reference point to the obstacle, and the distance between the converted coordinates and the calculated obstacle is calculated. Obstacle information transmission processing is performed to transmit the distance to the information integration processing unit 80C as information regarding the obstacle. On the other hand, if there is no obstacle in any of the imaging ranges Ri1 to Ri4, an undetected transmission process is performed to transmit the fact that no obstacle has been detected to the information integration processing unit 80C.

このように、各カメラ81~84の撮像範囲Ri1~Ri4のいずれかに障害物が存在する場合は、画像処理装置85が、障害物に関する情報を情報統合処理部80Cに送信することから、情報統合処理部80Cは、その障害物に関する情報を受け取ることにより、各カメラ81~84のいずれかの撮像範囲Ri1~Ri4に障害物が存在することを把握することができるとともに、その障害物の位置及び障害物までの距離を取得することができる。又、各カメラ81~84の撮像範囲Ri1~Ri4のいずれにも障害物が存在しない場合は、画像処理装置85が、障害物の未検出を情報統合処理部80Cに送信することから、情報統合処理部80Cは、その未検出情報を受け取ることにより、各カメラ81~84の撮像範囲Ri1~Ri4のいずれにも障害物が存在しないことを把握することができる。 In this way, if an obstacle exists in any of the imaging ranges Ri1 to Ri4 of the cameras 81 to 84, the image processing device 85 transmits information regarding the obstacle to the information integration processing section 80C. By receiving the information regarding the obstacle, the integrated processing unit 80C is able to grasp the existence of the obstacle in the imaging range Ri1 to Ri4 of each camera 81 to 84, and also determine the position of the obstacle. and the distance to the obstacle can be obtained. Furthermore, if there is no obstacle in any of the imaging ranges Ri1 to Ri4 of the cameras 81 to 84, the image processing device 85 sends the information that no obstacle has been detected to the information integration processing section 80C. By receiving the undetected information, the processing unit 80C can grasp that no obstacle exists in any of the imaging ranges Ri1 to Ri4 of the cameras 81 to 84.

上記の座標変換処理における車体座標原点、及び、距離算出処理における距離算出基準点は、各カメラ81~84の搭載位置に応じて設定されている。具体的には、図8に示すように、前カメラ81に対しては、その搭載位置に応じて車体座標原点O1と距離算出基準点Rp1とが設定されている。後カメラ82に対しては、その搭載位置に応じて車体座標原点O2と距離算出基準点Rp2とが設定されている。右カメラ83に対しては、その搭載位置に応じて車体座標原点O3と距離算出基準点Rp3とが設定されている。左カメラ84に対しては、その搭載位置に応じて車体座標原点O4と距離算出基準点Rp4とが設定されている。 The vehicle body coordinate origin in the above coordinate conversion process and the distance calculation reference point in the distance calculation process are set according to the mounting position of each camera 81 to 84. Specifically, as shown in FIG. 8, a vehicle body coordinate origin O1 and a distance calculation reference point Rp1 are set for the front camera 81 according to its mounting position. For the rear camera 82, a vehicle body coordinate origin O2 and a distance calculation reference point Rp2 are set according to its mounting position. For the right camera 83, a vehicle body coordinate origin O3 and a distance calculation reference point Rp3 are set according to its mounting position. For the left camera 84, a vehicle body coordinate origin O4 and a distance calculation reference point Rp4 are set according to its mounting position.

これにより、画像処理装置85は、例えば、前カメラ81の第1撮像範囲Ri1において障害物が存在する場合は、障害物が存在する前カメラ81の画像上での障害物の座標を求め(座標算出処理)、求めた障害物の座標を、前カメラ81の搭載位置や搭載角度などに基づいて、図8に示す車体座標原点O1を基準にした座標(x,y)に変換し(座標変換処理)、変換後の座標(x,y)と距離算出基準点Rp1とにわたる直線距離を、距離算出基準点Rp1から障害物Oまでの距離Laとして求める(距離算出処理)。 Thereby, for example, if an obstacle exists in the first imaging range Ri1 of the front camera 81, the image processing device 85 calculates the coordinates of the obstacle on the image of the front camera 81 where the obstacle exists (coordinates calculation process), and converts the obtained coordinates of the obstacle into coordinates (x, y) based on the vehicle body coordinate origin O1 shown in FIG. 8 based on the mounting position and mounting angle of the front camera 81 (coordinate conversion The straight line distance between the converted coordinates (x, y) and the distance calculation reference point Rp1 is determined as the distance La from the distance calculation reference point Rp1 to the obstacle O (distance calculation process).

尚、前述した車体座標原点O1~O4と距離算出基準点Rp1~Rp4と各カメラ81~84の搭載位置との関係は種々の設定変更が可能である。 Note that the relationships among the vehicle body coordinate origins O1 to O4, the distance calculation reference points Rp1 to Rp4, and the mounting positions of the cameras 81 to 84 described above can be changed in various settings.

図1、図3~4、図7に示すように、障害物検出ユニット80Bには、トラクタ1の前方に存在する障害物を検出する第1障害物センサ86と、トラクタ1の後方に存在する障害物を検出する第2障害物センサ87と、トラクタ1の左右に存在する障害物を検出する第3障害物センサ88とが含まれている。第1障害物センサ86及び第2障害物センサ87には、障害物の検出にパルス状の近赤外レーザ光(近赤外光の一例)を使用するライダーセンサが採用されている。第3障害物センサ88には、障害物の検出に超音波を使用するソナーが採用されている。 As shown in FIG. 1, FIGS. 3 to 4, and FIG. A second obstacle sensor 87 that detects obstacles and a third obstacle sensor 88 that detects obstacles on the left and right sides of the tractor 1 are included. The first obstacle sensor 86 and the second obstacle sensor 87 employ lidar sensors that use pulsed near-infrared laser light (an example of near-infrared light) to detect obstacles. The third obstacle sensor 88 employs sonar that uses ultrasonic waves to detect obstacles.

図1~4、図7に示すように、第1障害物センサ86は、近赤外レーザ光を使用して測定範囲に存在する測定対象物までの距離を測定する第1測定部86Aと、第1測定部86Aからの測定情報に基づいて距離画像の生成などを行う第1制御部86Bとを有している。第2障害物センサ87は、近赤外レーザ光を使用して測定範囲に存在する測定対象物までの距離を測定する第2測定部87Aと、第2測定部87Aからの測定情報に基づいて距離画像の生成などを行う第2制御部87Bとを有している。第3障害物センサ88は、超音波の送受信を行う右側の超音波センサ88Aと左側の超音波センサ88B、及び、各超音波センサ88A,88Bでの超音波の送受信に基づいて測定範囲に存在する測定対象物までの距離を測定する単一の第3制御部88Cを有している。 As shown in FIGS. 1 to 4 and FIG. 7, the first obstacle sensor 86 includes a first measurement unit 86A that measures the distance to a measurement object existing in the measurement range using near-infrared laser light; It has a first control section 86B that generates a distance image based on the measurement information from the first measurement section 86A. The second obstacle sensor 87 includes a second measuring section 87A that measures the distance to the object to be measured existing in the measurement range using near-infrared laser light, and a second obstacle sensor 87 based on the measurement information from the second measuring section 87A. The second controller 87B includes a second controller 87B that performs operations such as generating a distance image. The third obstacle sensor 88 exists in the measurement range based on the ultrasonic sensor 88A on the right and the ultrasonic sensor 88B on the left that transmit and receive ultrasonic waves, and the ultrasonic sensors 88A and 88B that transmit and receive ultrasonic waves. It has a single third control unit 88C that measures the distance to the object to be measured.

各障害物センサ86~88の制御部86B,87B,88Cは、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどによって構築されている。各制御部86B,87B,88Cは、車載制御ユニット23及び情報統合処理部80CなどにCANを介して相互通信可能に接続されている。 The control units 86B, 87B, and 88C of each of the obstacle sensors 86 to 88 are constructed by an electronic control unit in which a microcontroller and the like are integrated, various control programs, and the like. Each of the control sections 86B, 87B, and 88C is connected to the on-vehicle control unit 23, the information integration processing section 80C, and the like via CAN so as to be able to communicate with each other.

図3~4に示すように、第1障害物センサ86は、キャビン13から前方の第1測定範囲Rm1が測定範囲に設定されている。第2障害物センサ87は、キャビン13から後方の第2測定範囲Rm2が測定範囲に設定されている。第3障害物センサ88は、キャビン13から右方の第3測定範囲Rm3とキャビン13から左方の第4測定範囲Rm4とが測定範囲に設定されている。 As shown in FIGS. 3 and 4, the first obstacle sensor 86 is set to have a first measurement range Rm1 in front of the cabin 13 as its measurement range. The second obstacle sensor 87 has a second measurement range Rm2 rearward from the cabin 13 set as its measurement range. The third obstacle sensor 88 has a third measurement range Rm3 to the right of the cabin 13 and a fourth measurement range Rm4 to the left of the cabin 13 as measurement ranges.

図1、図3~4に示すように、第1障害物センサ86及び第2障害物センサ87は、前カメラ81及び後カメラ82と同様にトラクタ1の左右中心線上に配置されている。第1障害物センサ86は、キャビン13の前端側における上部の左右中央箇所に、トラクタ1の前方側を斜め上方側から見下ろす前下がり姿勢で配置されている。これにより、第1障害物センサ86は、トラクタ1の左右中心線を対称軸とする車体前方側の所定範囲が測定部86Aによる第1測定範囲Rm1に設定されている。第2障害物センサ87は、キャビン13の後端側における上部の左右中央箇所に、トラクタ1の後方側を斜め上方側から見下ろす後下がり姿勢で配置されている。これにより、第2障害物センサ87は、トラクタ1の左右中心線を対称軸とする車体後方側の所定範囲が測定部87Aによる第2測定範囲Rm2に設定されている。 As shown in FIGS. 1 and 3 to 4, the first obstacle sensor 86 and the second obstacle sensor 87 are arranged on the left-right center line of the tractor 1, similarly to the front camera 81 and the rear camera 82. The first obstacle sensor 86 is disposed at the left-right center of the upper part of the front end side of the cabin 13 in a forward-down position looking down on the front side of the tractor 1 from diagonally above. Thereby, in the first obstacle sensor 86, a predetermined range on the front side of the vehicle body with the left-right center line of the tractor 1 as the axis of symmetry is set as the first measurement range Rm1 by the measurement unit 86A. The second obstacle sensor 87 is disposed at the left-right center of the upper part on the rear end side of the cabin 13 in a backward-sloping posture looking down on the rear side of the tractor 1 from diagonally above. Thereby, in the second obstacle sensor 87, a predetermined range on the rear side of the vehicle body with the left-right center line of the tractor 1 as the axis of symmetry is set as the second measurement range Rm2 by the measurement unit 87A.

第1障害物センサ86及び第2障害物センサ87は、変速ユニット16の前後進切換装置が前進伝動状態に切り換えられたトラクタ1の前進走行時には、その切り換えに連動して、第1障害物センサ86が作動状態になり、第2障害物センサ87が作動停止状態になる。又、変速ユニット16の前後進切換装置が後進伝動状態に切り換えられたトラクタ1の後進走行時には、その切り換えに連動して、第1障害物センサ86が作動停止状態になり、第2障害物センサ87が作動状態になる。 When the tractor 1 is traveling forward with the forward/reverse switching device of the transmission unit 16 switched to the forward transmission state, the first obstacle sensor 86 and the second obstacle sensor 87 are connected to the first obstacle sensor 87 in conjunction with the switching. 86 is activated, and the second obstacle sensor 87 is deactivated. Further, when the tractor 1 is traveling in reverse with the forward/reverse switching device of the transmission unit 16 switched to the reverse transmission state, the first obstacle sensor 86 becomes deactivated in conjunction with the switching, and the second obstacle sensor 87 becomes operational.

図2に示すように、右側の超音波センサ88Aは、右側の前輪10と右側の後輪11との間に配置された右側の乗降ステップ24に車体右外向き姿勢で取り付けられている。これにより、右側の超音波センサ88Aは、車体右外側の所定範囲が第3測定範囲Rm3に設定されている。図1~3に示すように、左側の超音波センサ88Bは、左側の前輪10と左側の後輪11との間に配置された左側の乗降ステップ24に車体左外向き姿勢で取り付けられている。これにより、左側の超音波センサ88Bは、車体左外側の所定範囲が第4測定範囲Rm4に設定されている。 As shown in FIG. 2, the right ultrasonic sensor 88A is attached to the right ingress/egress step 24 disposed between the right front wheel 10 and the right rear wheel 11 so as to face outward to the right of the vehicle body. As a result, the right ultrasonic sensor 88A has a predetermined range on the right outer side of the vehicle body set as the third measurement range Rm3. As shown in FIGS. 1 to 3, the left ultrasonic sensor 88B is attached to the left ingress/egress step 24 located between the left front wheel 10 and the left rear wheel 11 so as to face outward to the left of the vehicle body. . As a result, the left ultrasonic sensor 88B has a predetermined range on the left outer side of the vehicle body set as the fourth measurement range Rm4.

図3~4、図7に示すように、第1障害物センサ86及び第2障害物センサ87の各測定部86A,87Aは、照射した近赤外レーザ光が測距点に到達して戻るまでの往復時間に基づいて測距点までの距離を測定するTOF(Time Of Flight)方式により、各測定部86A,87Aから第1測定範囲Rm1又は第2測定範囲Rm2の各測距点(測定対象物の一例)までの距離を測定する。各測定部86A,87Aは、第1測定範囲Rm1又は第2測定範囲Rm2の全体にわたって、近赤外レーザ光を高速で縦横に走査して、走査角(座標)ごとの測距点までの距離を順次測定することにより、第1測定範囲Rm1又は第2測定範囲Rm2において3次元の測定を行う。各測定部86A,87Aは、第1測定範囲Rm1又は第2測定範囲Rm2の全体にわたって近赤外レーザ光を高速で縦横に走査したときに得られる各測距点からの反射光の強度(以下、反射強度と称する)を順次測定する。各測定部86A,87Aは、第1測定範囲Rm1又は第2測定範囲Rm2の各測距点までの距離や各反射強度などをリアルタイムで繰り返し測定する。 As shown in FIGS. 3 to 4 and FIG. 7, the measurement units 86A and 87A of the first obstacle sensor 86 and the second obstacle sensor 87 allow the irradiated near-infrared laser light to reach the distance measurement point and return. Using the TOF (Time of Flight) method, which measures the distance to the distance measurement point based on the round trip time, each distance measurement point (measurement point) in the first measurement range Rm1 or the second measurement range Rm2 is Measure the distance to the object (example). Each measurement unit 86A, 87A scans the near-infrared laser beam vertically and horizontally at high speed over the entire first measurement range Rm1 or second measurement range Rm2, and measures the distance to the distance measurement point for each scanning angle (coordinate). By sequentially measuring , three-dimensional measurement is performed in the first measurement range Rm1 or the second measurement range Rm2. Each measuring section 86A, 87A measures the intensity (hereinafter referred to as "intensity") of reflected light from each distance measurement point obtained when near-infrared laser light is scanned vertically and horizontally at high speed over the entire first measurement range Rm1 or second measurement range Rm2. , referred to as reflection intensity) are sequentially measured. Each measuring section 86A, 87A repeatedly measures the distance to each distance measurement point, each reflection intensity, etc. in the first measurement range Rm1 or the second measurement range Rm2 in real time.

第1障害物センサ86及び第2障害物センサ87の各制御部86B,87Bは、各測定部86A,87Aが測定した各測距点までの距離や各測距点に対する走査角(座標)などの測定情報から、距離画像を生成するとともに障害物と推定される測距点群を抽出し、抽出した測距点群に関する測定情報を障害物候補に関する測定情報として情報統合処理部80Cに送信する。 Each control section 86B, 87B of the first obstacle sensor 86 and the second obstacle sensor 87 controls the distance to each ranging point measured by each measuring section 86A, 87A, the scanning angle (coordinates) for each ranging point, etc. From the measurement information, a distance image is generated and a group of distance measurement points estimated to be obstacles is extracted, and measurement information regarding the extracted distance measurement point group is transmitted to the information integration processing unit 80C as measurement information regarding the obstacle candidate. .

第1障害物センサ86及び第2障害物センサ87の各制御部86B,87Bは、各測定部86A,87Aが測定した各測距点の距離値が無効条件に適合するか否かを判定し、無効条件に適合する距離値を無効値として情報統合処理部80Cに送信する。 Each control section 86B, 87B of the first obstacle sensor 86 and second obstacle sensor 87 determines whether the distance value of each ranging point measured by each measuring section 86A, 87A satisfies an invalid condition. , the distance value that meets the invalid conditions is sent to the information integration processing unit 80C as an invalid value.

具体的には、各制御部86B,87Bは、第1障害物センサ86又は第2障害物センサ87からの至近距離に存在するというセンサ表面での汚れの特徴を利用して、その特徴を有する測距点の距離値を無効値とする。これにより、センサ表面の汚れに関する測距点の距離値が、情報統合処理部80Cにおいて障害物に関する測定情報として使用されることを防止している。 Specifically, each control unit 86B, 87B has the characteristic by utilizing the characteristic of dirt on the sensor surface that is present at a close distance from the first obstacle sensor 86 or the second obstacle sensor 87. The distance value of the distance measurement point is set as an invalid value. This prevents the distance value of the distance measurement point regarding dirt on the sensor surface from being used as measurement information regarding the obstacle in the information integration processing section 80C.

又、各制御部86B,87Bは、第1障害物センサ86又は第2障害物センサ87の近距離に存在しながら反射強度が非常に弱いという埃や霧などの浮遊物の特徴を利用して、その特徴を有する測距点の距離値を無効値とする。これにより、浮遊物に関する測距点の距離値が、情報統合処理部80Cにおいて障害物に関する測定情報として使用されることを防止している。 Furthermore, each of the control units 86B and 87B utilizes the characteristic of floating objects such as dust and fog that they exist close to the first obstacle sensor 86 or the second obstacle sensor 87 but have a very weak reflection intensity. , the distance value of the distance measurement point having the characteristic is set as an invalid value. This prevents the distance value of the distance measurement point regarding the floating object from being used as measurement information regarding the obstacle in the information integration processing section 80C.

図3~4、図7に示すように、第3障害物センサ88の第3制御部88Cは、左右の超音波センサ88A,88Bによる超音波の送受信に基づいて、第3測定範囲Rm3又は第4測定範囲Rm4における測定対象物の存否を判定する。第3制御部88Cは、発信した超音波が測距点に到達して戻るまでの往復時間に基づいて測距点までの距離を測定するTOF(Time Of Flight)方式により、各超音波センサ88A,88Bから測定対象物までの距離を測定し、測定した測定対象物までの距離と測定対象物の方向とを、障害物に関する測定情報として情報統合処理部80Cに送信する。 As shown in FIGS. 3 to 4 and FIG. 7, the third control unit 88C of the third obstacle sensor 88 controls the third measurement range Rm3 or the third measurement range Rm3 or 4. The presence or absence of the measurement target object in the measurement range Rm4 is determined. The third control unit 88C controls each ultrasonic sensor 88A using the TOF (Time of Flight) method, which measures the distance to the distance measurement point based on the round trip time for the transmitted ultrasonic wave to reach the distance measurement point and return. , 88B to the object to be measured, and transmits the measured distance to the object to be measured and the direction of the object to be measured as measurement information regarding the obstacle to the information integration processing section 80C.

図4、図9~11に示すように、第1障害物センサ86及び第2障害物センサ87の各制御部86B,87Bは、各測定部86A,87Aの測定範囲Rm1,Rm2に対して車体情報などに基づくカット処理とマスキング処理とを施すことにより、第1障害物センサ86及び第2障害物センサ87による障害物の検出対象範囲を第1検出範囲Rd1と第2検出範囲Rd2とに制限している。 As shown in FIGS. 4 and 9 to 11, each control section 86B, 87B of the first obstacle sensor 86 and second obstacle sensor 87 controls the vehicle body relative to the measurement range Rm1, Rm2 of each measurement section 86A, 87A. By performing cut processing and masking processing based on information etc., the range of obstacles detected by the first obstacle sensor 86 and the second obstacle sensor 87 is limited to the first detection range Rd1 and the second detection range Rd2. are doing.

各制御部86B,87Bは、カット処理においては、車載制御ユニット23との通信によって作業装置を含む車体の最大左右幅(本実施形態ではロータリ耕耘装置3の左右幅)を取得し、この車体の最大左右幅に所定の安全帯域を加えることで障害物の検出対象幅Wdを設定している。そして、第1測定範囲Rm1及び第2測定範囲Rm2において、検出対象幅Wdから外れる左右の範囲をカット処理による第1非検出範囲Rnd1に設定して各検出範囲Rd1,Rd2から除外する。 In the cutting process, each control section 86B, 87B acquires the maximum horizontal width of the vehicle body including the working device (in this embodiment, the horizontal width of the rotary tiller 3) through communication with the vehicle-mounted control unit 23, and The obstacle detection target width Wd is set by adding a predetermined safety band to the maximum horizontal width. Then, in the first measurement range Rm1 and the second measurement range Rm2, the left and right ranges that deviate from the detection target width Wd are set as the first non-detection range Rnd1 by cutting processing and excluded from each detection range Rd1, Rd2.

各制御部86B,87Bは、マスキング処理においては、第1測定範囲Rm1に対してトラクタ1の前端側が入り込む範囲、及び、第2測定範囲Rm2に対して作業装置の後端側が入り込む範囲に所定の安全帯域を加えた範囲をマスキング処理による第2非検出範囲Rnd2に設定して各検出範囲Rd1,Rd2から除外する。 In the masking process, each control section 86B, 87B sets a predetermined range in which the front end of the tractor 1 enters into the first measurement range Rm1, and into a range into which the rear end of the working device enters into the second measurement range Rm2. The range including the safety band is set as a second non-detection range Rnd2 by masking processing and excluded from each detection range Rd1, Rd2.

そして、このように障害物の検出対象範囲を第1検出範囲Rd1と第2検出範囲Rd2とに制限することにより、第1障害物センサ86及び第2障害物センサ87が、検出対象幅Wdから外れていてトラクタ1と衝突する虞のない障害物を検出することによる検出負荷の増大や、第1測定範囲Rm1又は第2測定範囲Rm2に入り込んでいるトラクタ1の前端側や作業装置の後端側を障害物として誤検出する虞を回避している。 By limiting the obstacle detection range to the first detection range Rd1 and the second detection range Rd2 in this way, the first obstacle sensor 86 and the second obstacle sensor 87 can An increase in the detection load due to detecting an obstacle that has come off and has no risk of colliding with the tractor 1, or the front end side of the tractor 1 or the rear end of the working device that has entered the first measurement range Rm1 or the second measurement range Rm2. This avoids the possibility of erroneously detecting the side as an obstacle.

尚、図9に示す第2非検出範囲Rnd2は、左右の前輪10やボンネット15が存在する車体の前部側に適した非検出範囲の一例である。図10に示す第2非検出範囲Rnd2は、車体の後部側においてロータリ耕耘装置3を作業高さまで下降させた作業状態に適した非検出範囲の一例である。図11に示す第2非検出範囲Rnd2は、車体の後部側においてロータリ耕耘装置3を退避高さまで上昇させた非作業状態に適した非検出範囲の一例である。車体後部側の第2非検出範囲Rnd2は、ロータリ耕耘装置3の昇降に連動して適正に切り換わる。 Note that the second non-detection range Rnd2 shown in FIG. 9 is an example of a non-detection range suitable for the front side of the vehicle body where the left and right front wheels 10 and the bonnet 15 are present. The second non-detection range Rnd2 shown in FIG. 10 is an example of a non-detection range suitable for a working state in which the rotary tiller 3 is lowered to the working height on the rear side of the vehicle body. The second non-detection range Rnd2 shown in FIG. 11 is an example of a non-detection range suitable for a non-working state in which the rotary tiller 3 is raised to the retracted height on the rear side of the vehicle body. The second non-detection range Rnd2 on the rear side of the vehicle body is appropriately switched in conjunction with the vertical movement of the rotary tiller 3.

第1検出範囲Rd1、第2検出範囲Rd2、第1非検出範囲Rnd1、及び、第2非検出範囲Rnd2に関する情報は、前述した距離画像に含まれており、前述した距離画像とともに情報統合処理部80Cに送信されている。 Information regarding the first detection range Rd1, the second detection range Rd2, the first non-detection range Rnd1, and the second non-detection range Rnd2 is included in the above-mentioned distance image, and together with the above-mentioned distance image, the information integration processing unit It is being sent to 80C.

図4に示すように、第1障害物センサ86及び第2障害物センサ87の各検出範囲Rd1,Rd2は、衝突予測時間が設定時間(例えば3秒)になる衝突判定処理に基づいて、停止制御範囲Rscと減速制御範囲Rdcと報知制御範囲Rncとに区画されている。停止制御範囲Rscは、第1障害物センサ86又は第2障害物センサ87から衝突判定処理の判定基準位置までの範囲に設定されている。減速制御範囲Rdcは、判定基準位置から減速開始位置までの範囲に設定されている。報知制御範囲Rncは、減速開始位置から第1障害物センサ86又は第2障害物センサ87の測定限界位置までの範囲に設定されている。各判定基準位置は、ロータリ耕耘装置3を含む車体の前端又は後端から車体前後方向に一定の離隔距離L(例えば2000mm)を置いた位置に設定されている。 As shown in FIG. 4, the detection ranges Rd1 and Rd2 of the first obstacle sensor 86 and the second obstacle sensor 87 are determined based on the collision determination process in which the predicted collision time reaches a set time (for example, 3 seconds). It is divided into a control range Rsc, a deceleration control range Rdc, and a notification control range Rnc. The stop control range Rsc is set to the range from the first obstacle sensor 86 or the second obstacle sensor 87 to the determination reference position for collision determination processing. The deceleration control range Rdc is set from the determination reference position to the deceleration start position. The notification control range Rnc is set from the deceleration start position to the measurement limit position of the first obstacle sensor 86 or the second obstacle sensor 87. Each determination reference position is set at a position that is a certain distance L (for example, 2000 mm) from the front end or rear end of the vehicle body including the rotary tilling device 3 in the longitudinal direction of the vehicle body.

図7に示すように、情報統合処理部80Cは、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどによって構築されている。情報統合処理部80Cは、測距精度は低いが物体の判別精度が高い撮像ユニット80Aからの情報と、物体の判別精度は低いが測距精度が高い障害物検出ユニット80Bからの測定情報とに基づいて、障害物に関する情報を取得して出力する障害物情報出力制御を実行する。 As shown in FIG. 7, the information integration processing section 80C is constructed from an electronic control unit in which a microcontroller and the like are integrated, various control programs, and the like. The information integration processing unit 80C combines information from the imaging unit 80A, which has low distance measurement accuracy but high object discrimination accuracy, and measurement information from the obstacle detection unit 80B, which has low object discrimination accuracy but high distance measurement accuracy. Obstacle information output control is executed to acquire and output information regarding obstacles based on the information.

以下、図12に示すフローチャートに基づいて、障害物情報取得制御における情報統合処理部80Cの制御作動について説明する。
尚、ここでは、情報統合処理部80Cが、撮像ユニット80Aの前カメラ81からのカラー画像情報と障害物検出ユニット80Bの第1障害物センサ86からの測定情報とに基づいて障害物に関する情報を取得して出力する場合の制御作動についてのみ説明する。そして、これ以外の、撮像ユニット80Aの後カメラ82からの情報と障害物検出ユニット80Bの第2障害物センサ87からの測定情報とに基づいて障害物に関する情報を取得して出力する場合、及び、撮像ユニット80Aの左右のカメラ83,84からの情報と障害物検出ユニット80Bの第3障害物センサ88からの測定情報とに基づいて障害物に関する情報を取得して出力する場合での情報統合処理部80Cの制御作動も、前カメラ81からの情報と第1障害物センサ86からの測定情報とに基づく場合と同様であることから、これらの場合における情報統合処理部80Cの制御作動に関する説明は省略する。
Hereinafter, the control operation of the information integration processing section 80C in the obstacle information acquisition control will be explained based on the flowchart shown in FIG. 12.
Note that here, the information integration processing section 80C obtains information regarding the obstacle based on color image information from the front camera 81 of the imaging unit 80A and measurement information from the first obstacle sensor 86 of the obstacle detection unit 80B. Only the control operation when acquiring and outputting will be explained. Other than this, when obtaining and outputting information regarding an obstacle based on information from the rear camera 82 of the imaging unit 80A and measurement information from the second obstacle sensor 87 of the obstacle detection unit 80B, and , information integration when obtaining and outputting information regarding an obstacle based on information from the left and right cameras 83, 84 of the imaging unit 80A and measurement information from the third obstacle sensor 88 of the obstacle detection unit 80B. Since the control operation of the processing section 80C is also the same as the case based on the information from the front camera 81 and the measurement information from the first obstacle sensor 86, the following describes the control operation of the information integration processing section 80C in these cases. is omitted.

情報統合処理部80Cは、撮像ユニット80Aからの情報に基づいて前カメラ81のカラー画像情報から障害物が検出されているか否かを判定する第1判定処理を行い(ステップ#1)、又、障害物検出ユニット80Bからの測定情報に基づいて第1障害物センサ86の距離画像に障害物候補が含まれているか否かを判定する第2判定処理を行う(ステップ#2)。 The information integration processing section 80C performs a first determination process of determining whether an obstacle is detected from the color image information of the front camera 81 based on the information from the imaging unit 80A (step #1), and A second determination process is performed to determine whether or not an obstacle candidate is included in the distance image of the first obstacle sensor 86 based on the measurement information from the obstacle detection unit 80B (step #2).

情報統合処理部80Cは、第1判定処理にて前カメラ81のカラー画像情報から障害物が検出され、かつ、第2判定処理にて第1障害物センサ86の距離画像に障害物候補が含まれている場合には、前述した障害物の位置と障害物候補の位置とが一致しているか否かを判定する第3判定処理を行う(ステップ#3)。 The information integration processing unit 80C detects that an obstacle is detected from the color image information of the front camera 81 in the first determination process, and that an obstacle candidate is included in the distance image of the first obstacle sensor 86 in the second determination process. If so, a third determination process is performed to determine whether or not the position of the aforementioned obstacle matches the position of the obstacle candidate (step #3).

情報統合処理部80Cは、第3判定処理にて障害物の位置と障害物候補の位置とが一致している場合は、前カメラ81及び第1障害物センサ86による障害物(障害物候補)の検出状態が、前カメラ81と第1障害物センサ86とが同じ障害物(障害物候補)を適正に検出している適正検出状態であると判定する。そして、この判定結果に基づいて、前カメラ81のカラー画像情報から検出された障害物に、第1障害物センサ86が測定した障害物候補の距離情報を適用して、この情報を障害物検出情報として取得する適正情報取得処理と、取得した障害物検出情報を出力する適正情報出力処理とを行う(ステップ#4~5)。 If the position of the obstacle and the position of the obstacle candidate match in the third determination process, the information integration processing unit 80C detects the obstacle (obstacle candidate) by the front camera 81 and the first obstacle sensor 86. It is determined that the detection state is a proper detection state in which the front camera 81 and the first obstacle sensor 86 are properly detecting the same obstacle (obstacle candidate). Based on this determination result, the distance information of the obstacle candidate measured by the first obstacle sensor 86 is applied to the obstacle detected from the color image information of the front camera 81, and this information is used for obstacle detection. Appropriate information acquisition processing for acquiring information and appropriate information output processing for outputting the acquired obstacle detection information are performed (steps #4 to #5).

情報統合処理部80Cは、障害物の位置と障害物候補の位置とが一致していない場合は、第1障害物センサ86からの距離情報において、前カメラ81のカラー画像情報における障害物の位置に対応する位置の測定値が有効か否かを判定する第4判定処理を行う(ステップ#6)。 If the position of the obstacle and the position of the obstacle candidate do not match, the information integration processing unit 80C determines the position of the obstacle in the color image information of the front camera 81 based on the distance information from the first obstacle sensor 86. A fourth determination process is performed to determine whether the measured value at the position corresponding to is valid (step #6).

情報統合処理部80Cは、第4判定処理にて前述した測定値が有効である場合は、前カメラ81及び第1障害物センサ86による障害物(障害物候補)の検出状態が、前カメラ81のカラー画像情報からは障害物が適正に検出され、かつ、第1障害物センサ86による測定は適正に行われているが、第1障害物センサ86の距離画像からはその障害物を障害物候補として特定することができない準適正検出状態であると判定する。そして、この判定結果に基づいて、前カメラ81のカラー画像情報から検出された障害物に、前カメラ81が示す障害物の位置に相当する測定対象物に対して第1障害物センサ86が測定した距離情報を適用して、この情報を障害物検出情報として取得する準適正情報取得処理と、取得した障害物検出情報を出力する準適正情報出力処理とを行う(ステップ#7~8)。 If the measurement value described above is valid in the fourth determination process, the information integration processing unit 80C determines that the detection state of the obstacle (obstacle candidate) by the front camera 81 and the first obstacle sensor 86 is the same as that of the front camera 81. Although the obstacle is properly detected from the color image information and the measurement by the first obstacle sensor 86 is properly performed, the distance image of the first obstacle sensor 86 shows that the obstacle is not an obstacle. It is determined that the state is in a semi-appropriate detection state where it cannot be specified as a candidate. Based on this determination result, the first obstacle sensor 86 measures the obstacle detected from the color image information of the front camera 81 with respect to the measurement target corresponding to the position of the obstacle indicated by the front camera 81. Applying the acquired distance information, a semi-appropriate information acquisition process of acquiring this information as obstacle detection information and a semi-appropriate information output process of outputting the acquired obstacle detection information are performed (steps #7 to #8).

情報統合処理部80Cは、第4判定処理にて前述した測定値が有効でない場合は、前カメラ81及び第1障害物センサ86による障害物(障害物候補)の検出状態が、前カメラ81のカラー画像情報からは障害物を適正に検出しているが、第1障害物センサ86の距離画像においては、前カメラ81が示す障害物の位置に相当する測定対象位置での埃や霧などの浮遊物の発生、又は、第1障害物センサ86のセンサ表面での汚れの付着により、前カメラ81が示す障害物の位置に相当する測定対象物に対する測定値が無効になっている測定値無効状態であると判定する。そして、この判定結果に基づいて、前カメラ81のカラー画像情報から検出された障害物に、前カメラ81のカラー画像情報から算出した障害物に対する距離情報を適用して、この情報を障害物検出情報として取得するカメラ単独情報取得処理と、取得した障害物検出情報を出力するカメラ単独情報出力処理とを行う(ステップ#9~10)。 If the measurement value described above is not valid in the fourth determination process, the information integration processing unit 80C determines that the detection state of the obstacle (obstacle candidate) by the front camera 81 and the first obstacle sensor 86 is the same as that of the front camera 81. Obstacles are properly detected from the color image information, but in the distance image of the first obstacle sensor 86, dust, fog, etc. are detected at the measurement target position corresponding to the position of the obstacle indicated by the front camera 81. The measurement value for the object to be measured corresponding to the position of the obstacle indicated by the front camera 81 is invalid due to the occurrence of floating objects or the adhesion of dirt on the sensor surface of the first obstacle sensor 86.Invalid measurement value. It is determined that the state is the same. Based on this determination result, the distance information for the obstacle calculated from the color image information of the front camera 81 is applied to the obstacle detected from the color image information of the front camera 81, and this information is used for obstacle detection. A camera-only information acquisition process for acquiring information and a camera-only information output process for outputting the acquired obstacle detection information are performed (steps #9 and #10).

車載制御ユニット23には、情報統合処理部80Cからの障害物検出情報に基づいて障害物に関する制御を実行する障害物用制御部23Hが含まれている。障害物用制御部23Hは、マイクロコントローラなどが集積された電子制御ユニットや各種の制御プログラムなどによって構築されている。障害物用制御部23Hは、情報統合処理部80CなどにCANを介して相互通信可能に接続されている。 The on-vehicle control unit 23 includes an obstacle control section 23H that executes control regarding obstacles based on obstacle detection information from the information integration processing section 80C. The obstacle control section 23H is constructed by an electronic control unit in which a microcontroller and the like are integrated, various control programs, and the like. The obstacle control section 23H is connected to the information integration processing section 80C and the like via CAN so as to be able to communicate with each other.

障害物用制御部23Hは、情報統合処理部80Cからの障害物検出情報に基づいて障害物との衝突を回避する衝突回避制御を実行する。具体的には、障害物用制御部23Hは、情報統合処理部80Cからの適正情報出力処理又は準適正情報出力処理による障害物検出情報を取得した場合は、衝突回避制御として第1衝突回避制御を実行する。障害物用制御部23Hは、情報統合処理部80Cからのカメラ単独情報出力処理による障害物検出情報を取得した場合は、衝突回避制御として、第1衝突回避制御よりも衝突回避率の高い第2衝突回避制御を実行する。 The obstacle control section 23H executes collision avoidance control to avoid collision with an obstacle based on the obstacle detection information from the information integration processing section 80C. Specifically, when the obstacle control unit 23H acquires the obstacle detection information through the appropriate information output processing or the semi-appropriate information output processing from the information integration processing unit 80C, the obstacle control unit 23H performs the first collision avoidance control as the collision avoidance control. Execute. When the obstacle control unit 23H acquires the obstacle detection information through the camera-only information output process from the information integration processing unit 80C, the obstacle control unit 23H performs a second collision avoidance control, which has a higher collision avoidance rate than the first collision avoidance control, as a collision avoidance control. Executes collision avoidance control.

以下、図13に示すフローチャートに基づいて、第1衝突回避制御における障害物用制御部23Hの制御作動について説明する。
尚、ここでは、第1障害物センサ86の第1検出範囲Rd1に障害物が位置する場合を例示して説明する。
Hereinafter, the control operation of the obstacle control section 23H in the first collision avoidance control will be explained based on the flowchart shown in FIG. 13.
Note that here, a case where an obstacle is located in the first detection range Rd1 of the first obstacle sensor 86 will be explained as an example.

障害物用制御部23Hは、障害物検出情報に含まれた障害物との距離に基づいて、障害物が、図4に示す第1検出範囲Rd1のうちの報知制御範囲Rncに位置しているか否かを判定する第5判定処理と、減速制御範囲Rdcに位置しているか否かを判定する第6判定処理と、停止制御範囲Rscに位置しているか否かを判定する第7判定処理とを行う(ステップ#11~13)。 The obstacle control unit 23H determines whether the obstacle is located in the notification control range Rnc of the first detection range Rd1 shown in FIG. 4 based on the distance to the obstacle included in the obstacle detection information. a fifth determination process that determines whether or not the vehicle is located within the deceleration control range Rdc; a seventh determination process that determines whether the vehicle is located within the stop control range Rsc; (Steps #11 to #13).

障害物用制御部23Hは、第5判定処理にて第1検出範囲Rd1の報知制御範囲Rncに障害物が位置することを検知した場合は、報知制御範囲Rncに障害物が位置することを、トラクタ1の操作端末27や携帯通信端末5の表示デバイス50にて報知させるための報知指令を、車載制御ユニット23の表示制御部23Eと端末制御ユニット51の表示制御部51Aとに指令する第1報知指令処理を行う(ステップ#14)。 If the obstacle control unit 23H detects in the fifth determination process that the obstacle is located in the notification control range Rnc of the first detection range Rd1, the obstacle control unit 23H determines that the obstacle is located in the notification control range Rnc. A first command for instructing the display control section 23E of the on-vehicle control unit 23 and the display control section 51A of the terminal control unit 51 to issue a notification command for making a notification on the operation terminal 27 of the tractor 1 or the display device 50 of the mobile communication terminal 5. Notification command processing is performed (step #14).

これにより、トラクタ1に対する第1検出範囲Rd1の報知制御範囲Rncに障害物が位置することを、運転部12の搭乗者や車外の管理者などのユーザに知らせることができる。 Thereby, it is possible to notify users such as the occupant of the driving section 12 and the administrator outside the vehicle that an obstacle is located in the notification control range Rnc of the first detection range Rd1 for the tractor 1.

障害物用制御部23Hは、第6判定処理にて第1検出範囲Rd1の減速制御範囲Rdcに障害物が位置することを検知した場合は、減速制御範囲Rdcに障害物が位置することを、トラクタ1の操作端末27や携帯通信端末5の表示デバイス50にて報知させるための報知指令を、車載制御ユニット23の表示制御部23Eと端末制御ユニット51の表示制御部51Aとに指令する第2報知指令処理を行う(ステップ#15)。又、障害物用制御部23Hは、減速制御範囲Rdcに位置する障害物がトラクタ1に近づくほどトラクタ1の車速を低下させるための減速指令を変速ユニット制御部23Bに指令する減速指令処理を行う(ステップ#16)。 If the obstacle control unit 23H detects in the sixth determination process that the obstacle is located in the deceleration control range Rdc of the first detection range Rd1, the obstacle control unit 23H determines that the obstacle is located in the deceleration control range Rdc. A second control unit that instructs the display control unit 23E of the on-vehicle control unit 23 and the display control unit 51A of the terminal control unit 51 to issue a notification command to the operation terminal 27 of the tractor 1 and the display device 50 of the mobile communication terminal 5. Notification command processing is performed (step #15). The obstacle control unit 23H also performs deceleration command processing to instruct the transmission unit control unit 23B to issue a deceleration command to reduce the vehicle speed of the tractor 1 as the obstacle located in the deceleration control range Rdc approaches the tractor 1. (Step #16).

これにより、トラクタ1に対する第1検出範囲Rd1の減速制御範囲Rdcに障害物が位置することを、運転部12の搭乗者や車外の管理者などのユーザに知らせることができる。又、変速ユニット制御部23Bの制御作動により、作業車両Vが障害物に近づくに連れてトラクタ1の車速を適正に低下させることができる。 Thereby, it is possible to notify users such as the occupant of the driving section 12 and the administrator outside the vehicle that an obstacle is located in the deceleration control range Rdc of the first detection range Rd1 for the tractor 1. Furthermore, the speed of the tractor 1 can be appropriately reduced as the work vehicle V approaches an obstacle by the control operation of the transmission unit control section 23B.

障害物用制御部23Hは、第7判定処理にて第1検出範囲Rd1の停止制御範囲Rscに障害物が位置することを検知した場合は、停止制御範囲Rscに障害物が位置することを、トラクタ1の操作端末27や携帯通信端末5の表示デバイス50にて報知させるための報知指令を、車載制御ユニット23の表示制御部23Eと端末制御ユニット51の表示制御部51Aとに指令する第3報知指令処理を行う(ステップ#17)。又、障害物用制御部23Hは、障害物が停止制御範囲Rscに位置する間にトラクタ1を減速停止させるための減速停止指令を変速ユニット制御部23Bに指令する減速停止指令処理を行う(ステップ#18)。 If the obstacle control unit 23H detects in the seventh determination process that the obstacle is located in the stop control range Rsc of the first detection range Rd1, the obstacle control unit 23H determines that the obstacle is located in the stop control range Rsc. A third control unit that instructs the display control unit 23E of the on-vehicle control unit 23 and the display control unit 51A of the terminal control unit 51 to issue a notification command to the operation terminal 27 of the tractor 1 and the display device 50 of the mobile communication terminal 5. Notification command processing is performed (step #17). The obstacle control unit 23H also performs a deceleration and stop command process to instruct the transmission unit control unit 23B to decelerate and stop the tractor 1 while the obstacle is located within the stop control range Rsc (step #18).

これにより、トラクタ1に対する第1検出範囲Rd1の停止制御範囲Rscに障害物が位置することを、運転部12の搭乗者や車外の管理者などのユーザに知らせることができる。又、変速ユニット制御部23Bの制御作動により、障害物が停止制御範囲Rscに位置する間においてトラクタ1を減速停止させることができ、よって、作業車両Vが障害物に衝突する虞を回避することができる。 Thereby, it is possible to notify users such as the occupant of the driving section 12 and the administrator outside the vehicle that an obstacle is located within the stop control range Rsc of the first detection range Rd1 for the tractor 1. Furthermore, the control operation of the transmission unit control section 23B allows the tractor 1 to be decelerated and stopped while the obstacle is located within the stop control range Rsc, thereby avoiding the possibility that the work vehicle V will collide with the obstacle. I can do it.

次に、第2衝突回避制御における障害物用制御部23Hの制御作動について説明すると、障害物用制御部23Hは、前述した第1衝突回避制御の場合よりも、前述した第1検出範囲Rd1の判定基準位置から減速制御範囲Rdcと停止制御範囲Rscとの境界までの距離、及び、判定基準位置から報知制御範囲Rncと減速制御範囲Rdcとの境界までの距離が長くなるように、減速制御範囲Rdc及び停止制御範囲Rscの前後長さを長くした状態で、第1衝突回避制御におけるステップ#11~18の各制御処理と同じ制御処理を行う。これにより、第2衝突回避制御は、第1衝突回避制御よりも早いタイミングで障害物との衝突を回避することが可能な衝突回避制御となっている。 Next, the control operation of the obstacle control section 23H in the second collision avoidance control will be explained. The deceleration control range is set so that the distance from the determination reference position to the boundary between the deceleration control range Rdc and the stop control range Rsc and the distance from the determination reference position to the boundary between the notification control range Rnc and the deceleration control range Rdc become longer. The same control processes as steps #11 to #18 in the first collision avoidance control are performed with the longitudinal lengths of Rdc and stop control range Rsc being increased. Thereby, the second collision avoidance control is a collision avoidance control that can avoid a collision with an obstacle at an earlier timing than the first collision avoidance control.

これにより、障害物用制御部23Hは、障害物検出ユニット80Bからの測定情報よりも測距精度が低い撮像ユニット80Aからの測定情報に基づいて障害物との衝突を回避する第2衝突回避制御においては、第1衝突回避制御よりも衝突回避率を高めた状態で障害物との衝突を回避することができる。その結果、測距精度が低い撮像ユニット80Aからの測定情報に基づく障害物との衝突回避を良好に行うことができる。 Thereby, the obstacle control unit 23H performs second collision avoidance control to avoid a collision with an obstacle based on the measurement information from the imaging unit 80A, which has lower ranging accuracy than the measurement information from the obstacle detection unit 80B. In this case, a collision with an obstacle can be avoided with a higher collision avoidance rate than in the first collision avoidance control. As a result, collisions with obstacles can be effectively avoided based on the measurement information from the imaging unit 80A, which has low ranging accuracy.

自動走行制御部23Fの自動走行制御には、第1障害物センサ86及び第2障害物センサ87のセンサ表面に対する汚れ(測定阻害物)の付着などを検知した場合に、汚れの付着などに基づいてトラクタ1の走行を制御する汚れ対応制御処理が含まれている。 The automatic travel control unit 23F performs automatic travel control based on the adhesion of dirt, etc. when it detects the adhesion of dirt (measurement obstruction) to the sensor surfaces of the first obstacle sensor 86 and the second obstacle sensor 87. This includes dirt handling control processing that controls the running of the tractor 1.

以下、図14に示すフローチャートに基づいて、汚れ対応制御処理における自動走行制御部23Fの制御作動について説明する。
尚、ここでも、第1障害物センサ86の場合を例示して説明する。
Hereinafter, the control operation of the automatic travel control section 23F in the dirt handling control process will be explained based on the flowchart shown in FIG. 14.
Note that the case of the first obstacle sensor 86 will also be described here as an example.

自動走行制御部23Fは、第1障害物センサ86の測定範囲Rm1に対して、第1障害物センサ86からの測定情報に含まれている汚れなどの測定阻害物に起因した無効値の占める割合が所定値(例えば50%)以上か否かを判定する第8判定処理を行う(ステップ#21)。 The automatic driving control unit 23F determines the ratio of invalid values caused by measurement obstacles such as dirt included in the measurement information from the first obstacle sensor 86 to the measurement range Rm1 of the first obstacle sensor 86. An eighth determination process is performed to determine whether or not is equal to or greater than a predetermined value (for example, 50%) (step #21).

自動走行制御部23Fは、第8判定処理にて無効値の占める割合が所定値以上である場合は、トラクタ1の車速を、トラクタ1の走行状態をクリープ走行状態に維持することが可能な超低速まで低下させるための減速指令を変速ユニット制御部23Bに指令する減速指令処理を行う(ステップ#22)。 If the percentage occupied by the invalid value is equal to or higher than a predetermined value in the eighth determination process, the automatic travel control unit 23F sets the vehicle speed of the tractor 1 to a speed higher than that capable of maintaining the traveling state of the tractor 1 in the creep traveling state. A deceleration command process is performed in which a deceleration command for reducing the speed to a low speed is commanded to the transmission unit control section 23B (step #22).

自動走行制御部23Fは、第8判定処理にて無効値の占める割合が所定値以上でない場合は、トラクタ1の車速を、現在の車速に維持するための車速維持指令を変速ユニット制御部23Bに指令する車速維持指令処理を行う(ステップ#23)。 If the percentage occupied by the invalid value is not equal to or higher than the predetermined value in the eighth determination process, the automatic travel control unit 23F issues a vehicle speed maintenance command to the transmission unit control unit 23B to maintain the vehicle speed of the tractor 1 at the current vehicle speed. A vehicle speed maintenance command process is executed (step #23).

自動走行制御部23Fは、減速指令処理を行った後、トラクタ1のクリープ走行状態が所定時間継続されたか否かを判定する第9判定処理を行う(ステップ#24)。そして、自動走行制御部23Fは、クリープ走行状態が所定時間継続されるまでの間において前述した第8判定処理を行い(ステップ#25)、この第8判定処理にて無効値の占める割合が所定値未満に低下した場合は、第1障害物センサ86のセンサ表面に汚れが付着しているのではなく、第1障害物センサ86の周辺にて埃や霧などの浮遊物が舞っていただけであると判定して、トラクタ1の車速を、超低速まで低下させる前の元の車速に復帰させるための車速復帰指令を変速ユニット制御部23Bに指令する車速復帰指令処理を行い(ステップ#26)、その後、ステップ#21に戻る。 After performing the deceleration command process, the automatic travel control unit 23F performs a ninth determination process to determine whether the creep travel state of the tractor 1 continues for a predetermined period of time (step #24). Then, the automatic driving control unit 23F performs the above-mentioned eighth determination process until the creep driving state continues for a predetermined time (step #25), and in this eighth determination process, the proportion occupied by invalid values becomes a predetermined value. If the value falls below this value, it is not because dirt has adhered to the sensor surface of the first obstacle sensor 86, but because there is floating matter such as dust or mist floating around the first obstacle sensor 86. When it is determined that the vehicle speed is present, a vehicle speed return command process is performed to instruct the transmission unit control section 23B to issue a vehicle speed return command to return the vehicle speed of the tractor 1 to the original vehicle speed before the vehicle speed was reduced to an extremely low speed (step #26). , and then returns to step #21.

自動走行制御部23Fは、クリープ走行状態が所定時間継続された場合は、第1障害物センサ86のセンサ表面に汚れが付着していると判定して、直ちにトラクタ1を走行停止させるための走行停止指令を変速ユニット制御部23Bに指令する走行停止指令処理を行う(ステップ#27)。 If the creep driving state continues for a predetermined period of time, the automatic travel control unit 23F determines that dirt has adhered to the sensor surface of the first obstacle sensor 86, and immediately stops the tractor 1 from traveling. A traveling stop command process is performed to issue a stop command to the speed change unit control section 23B (step #27).

つまり、自動走行制御部23Fの自動走行制御によるトラクタ1の自動走行中において、第1障害物センサ86の測定範囲Rm1に対して無効値の占める割合が所定値以上になった場合には、トラクタ1の車速が低速よりも遅い超低速まで低下されて、トラクタ1の走行状態がクリープ走行状態に維持されることから、トラクタ1の走行状態を低速走行状態に維持する場合に比較して、無効値の原因が、各障害物センサ86~88のセンサ表面に対する汚れなどの付着物か、各障害物センサ86~88の周辺にて舞い上がった埃や塵埃などの浮遊物かを判定するための時間を長くすることができる。 In other words, during automatic travel of the tractor 1 under the automatic travel control of the automatic travel control unit 23F, if the ratio of invalid values to the measurement range Rm1 of the first obstacle sensor 86 exceeds a predetermined value, the tractor The vehicle speed of tractor 1 is reduced to a very low speed, which is slower than the low speed, and the running state of tractor 1 is maintained in a creep running state. The time required to determine whether the cause of the value is dirt or other substances adhering to the sensor surface of each obstacle sensor 86 to 88, or floating objects such as dust or dirt that have been kicked up around each obstacle sensor 86 to 88. can be made longer.

そして、このように判定時間を長くすることにより、無効値の原因が付着物か浮遊物かを判定し易くなり、これにより、無効値の原因が浮遊物である場合に、この浮遊物に基づいてトラクタ1が走行を停止することによる作業効率の低下を抑制することができる。又、無効値の原因が付着物か浮遊物かの判定中に、作業車両Vが障害物に衝突する不都合の発生を抑制することができる。 By lengthening the determination time in this way, it becomes easier to determine whether the cause of the invalid value is attached matter or floating matter. Therefore, it is possible to suppress a decrease in work efficiency due to the tractor 1 stopping traveling. Moreover, it is possible to suppress the occurrence of an inconvenience in which the work vehicle V collides with an obstacle while determining whether the cause of the invalid value is an attached object or a floating object.

そして、上記の説明から明らかなように、情報統合処理部80C及び障害物用制御部23Hは、撮像ユニット80A及び障害物検出ユニット80Bによる障害物の検出に基づいて、作業車両Vの周囲に障害物が存在することを報知するとともに障害物との衝突を回避する、といった作業支援を可能にする作業支援部として機能する。 As is clear from the above description, the information integration processing section 80C and the obstacle control section 23H detect obstacles around the work vehicle V based on the detection of the obstacles by the imaging unit 80A and the obstacle detection unit 80B. It functions as a work support unit that notifies the presence of objects and enables work support such as avoiding collisions with obstacles.

図7、図15~18に示すように、情報統合処理部80Cには、撮像ユニット80Aからのカラー画像情報と第1障害物センサ86からの測定情報とに基づいて、圃場Aで栽培された作物Zの生育評価の指標となる作物Zの生育情報を取得する生育情報取得部80Caが含まれている。生育情報取得部80Caは、圃場Aの中央側領域(作業領域)A2bを複数に分割して区画設定された生育情報取得区域(所定区域の一例)Ag(図15~18参照)ごとに作物Zの生育情報を取得する。生育情報取得部80Caは、作物Zの生育情報として、作物Zの活性度などを示す植生指標の一例である正規化植生指標(以下、NDVIと称する) 、茎数に相当する植被率、及び、作物Zの草丈値、などを取得する。 As shown in FIG. 7 and FIGS. 15 to 18, the information integration processing unit 80C stores information about the cultivation in the field A based on the color image information from the imaging unit 80A and the measurement information from the first obstacle sensor 86. A growth information acquisition unit 80Ca that acquires growth information of the crop Z that is used as an index for evaluating the growth of the crop Z is included. The growth information acquisition unit 80Ca divides the center side area (work area) A2b of the field A into a plurality of areas to obtain crop Z for each growth information acquisition area (an example of a predetermined area) Ag (see FIGS. 15 to 18). Obtain growth information. The growth information acquisition unit 80Ca obtains, as the growth information of the crop Z, a normalized vegetation index (hereinafter referred to as NDVI), which is an example of a vegetation index indicating the degree of activity of the crop Z, a vegetation cover rate corresponding to the number of stems, and Obtain the plant height value of crop Z, etc.

尚、生育情報取得区域Agの区画設定は、生育情報に基づく生育評価を利用して作業する作業装置(例えば、肥料の散布などを行う肥料散布装置)の前後長さや作業幅などを考慮して設定することが好ましい。図16は、撮像ユニット80Aの前カメラ81が撮像したカラー画像情報から生成された車体前方のカラー画像の一例である。図17は、第1障害物センサ86の測定情報から生成された車体前方の距離画像の一例である。図18は、第1障害物センサ86の測定情報から生成された車体前方の近赤外画像の一例である。 In addition, the division setting of the growth information acquisition area Ag takes into consideration the front and back length and working width of the work equipment that uses growth evaluation based on the growth information (for example, the fertilizer spreading equipment that spreads fertilizer, etc.). It is preferable to set FIG. 16 is an example of a color image of the front of the vehicle body generated from color image information captured by the front camera 81 of the imaging unit 80A. FIG. 17 is an example of a distance image in front of the vehicle body generated from the measurement information of the first obstacle sensor 86. FIG. 18 is an example of a near-infrared image of the front of the vehicle body generated from the measurement information of the first obstacle sensor 86.

生育情報取得部80Caは、例えば、作業装置の一例である中耕作業用のカルチベータ(図示せず)などがトラクタ1の後部に連結された中耕作業状態でのトラクタ1の自動走行に伴って、生育情報取得区域Agごとの作物Zの生育情報を取得する生育情報取得制御を実行する。 The growth information acquisition unit 80Ca, for example, performs automatic operation of the tractor 1 in an inter-tillage state in which a cultivator (not shown) for inter-tillage work, which is an example of a working device, is connected to the rear of the tractor 1. Growth information acquisition control is executed to acquire growth information of the crop Z for each growth information acquisition area Ag.

以下、図19に示すフローチャート及び図15~18に基づいて、生育情報取得制御における生育情報取得部80Caの制御作動について説明する。 The control operation of the growth information acquisition unit 80Ca in the growth information acquisition control will be described below based on the flowchart shown in FIG. 19 and FIGS. 15 to 18.

生育情報取得部80Caは、前カメラ81が撮像した第1撮像範囲Ri1のカラー画像情報を撮像ユニット80Aから取得するカラー画像情報取得処理と、前カメラ81のカラー画像情報から生育情報取得区域Ag(図16参照)での可視赤色光の反射率Rを取得する可視赤色光反射率取得処理とを行う(ステップ#31~32)。 The growth information acquisition unit 80Ca performs a color image information acquisition process of acquiring color image information of the first imaging range Ri1 imaged by the front camera 81 from the imaging unit 80A, and a growth information acquisition area Ag( A visible red light reflectance acquisition process is performed to acquire the visible red light reflectance R (see FIG. 16) (steps #31 to #32).

生育情報取得部80Caは、第1障害物センサ86による測定情報を障害物検出ユニット80Bから取得する測定情報取得処理と、第1障害物センサ86の測定情報に含まれた生育情報取得区域Agに存在する各測定対象物からの近赤外レーザ光の反射強度(図18参照)を取得する反射強度取得処理と、取得した生育情報取得区域Agでの各反射強度の平均値を生育情報取得区域Agでの近赤外光の反射率IRとして算出する近赤外光反射率算出処置とを行う(ステップ#33~35)。 The growth information acquisition unit 80Ca performs a measurement information acquisition process of acquiring measurement information by the first obstacle sensor 86 from the obstacle detection unit 80B, and a growth information acquisition area Ag included in the measurement information of the first obstacle sensor 86. Reflection intensity acquisition processing that acquires the reflection intensity of near-infrared laser light from each existing measurement object (see Figure 18), and the average value of each reflection intensity in the acquired growth information acquisition area Ag is calculated as the growth information acquisition area. Near-infrared light reflectance calculation processing is performed to calculate near-infrared light reflectance IR at Ag (steps #33 to #35).

生育情報取得部80Caは、可視赤色光反射率取得処理と近赤外光反射率算出処置とで取得した同じ生育情報取得区域Agでの可視赤色光の反射率Rと近赤外光の反射率IRとを、NDVI算出用の計算式であるNDVI=(IR-R)/(IR+R)に代入して、生育情報取得区域AgでのNDVIを算出するNDVI算出処置を行う(ステップ#36)。 The growth information acquisition unit 80Ca obtains the reflectance R of visible red light and the reflectance of near-infrared light in the same growth information acquisition area Ag acquired by the visible red light reflectance acquisition process and the near-infrared light reflectance calculation process. IR is substituted into the formula for calculating NDVI, NDVI=(IR-R)/(IR+R), and an NDVI calculation process is performed to calculate the NDVI in the growth information acquisition area Ag (step #36).

これにより、生育情報取得部80Caは、撮像ユニット80Aからのカラー画像情報と第1障害物センサ86からの測定情報とに基づいてNDVIを取得することができる。NDVIの値は、-1~1の値を取り、作物Zの窒素吸収量が多く活性度が高いほど高くなる。生育情報取得部80Caは、NDVIの値に対応して、例えば黒~白を色付けすることでNDVI画像を生成することができ、作物Zの活性度などを可視化することができる。 Thereby, the growth information acquisition section 80Ca can acquire the NDVI based on the color image information from the imaging unit 80A and the measurement information from the first obstacle sensor 86. The value of NDVI takes a value from -1 to 1, and increases as the amount of nitrogen absorbed by crop Z increases and the activity level increases. The growth information acquisition unit 80Ca can generate an NDVI image by coloring, for example, black to white, in accordance with the NDVI value, and can visualize the activity level of the crop Z.

生育情報取得部80Caは、上記のNDVI画像に基づいて生育情報取得区域Agでの植被率を取得する植被率取得処理を行う(ステップ#37)。そして、NDVI算出処置と反射強度取得処理とで取得した同じ生育情報取得区域AgでのNDVIと植被率との積を取ることにより、生育情報取得区域Agでの作物Zの窒素吸収量を推定する窒素吸収量推定処理を行う(ステップ#38)。 The growth information acquisition unit 80Ca performs a vegetation cover rate acquisition process to acquire the vegetation cover rate in the growth information acquisition area Ag based on the above-mentioned NDVI image (step #37). Then, by taking the product of the NDVI and the vegetation cover rate in the same growth information acquisition area Ag acquired by the NDVI calculation process and the reflection intensity acquisition process, the nitrogen absorption amount of the crop Z in the growth information acquisition area Ag is estimated. A nitrogen absorption amount estimation process is performed (step #38).

生育情報取得部80Caは、カラー画像情報取得処理にて取得した前カメラ81のカラー画像情報、トラクタ1における前カメラ81の搭載位置や搭載角度、測定情報取得処理にて取得した第1障害物センサ86の測定情報に含まれた距離値情報、及び、トラクタ1における第1障害物センサ86の搭載位置や搭載角度に基づいて、前カメラ81のカラー画像情報と第1障害物センサ86の測定情報とに含まれた同一の生育情報取得区域Ag(図16~17参照)にて栽培された各作物Zの草丈を取得する草丈算出処理と、各作物Zの草丈の平均値を生育情報取得区域Agでの作物Zの草丈値として算出する草丈値算出処理とを行う(ステップ#39~40)。 The growth information acquisition unit 80Ca includes color image information of the front camera 81 acquired in the color image information acquisition process, the mounting position and mounting angle of the front camera 81 on the tractor 1, and the first obstacle sensor acquired in the measurement information acquisition process. Based on the distance value information included in the measurement information of 86 and the mounting position and mounting angle of the first obstacle sensor 86 on the tractor 1, color image information of the front camera 81 and measurement information of the first obstacle sensor 86 are calculated. A plant height calculation process that acquires the plant height of each crop Z cultivated in the same growth information acquisition area Ag (see Figures 16 to 17) included in the growth information acquisition area A plant height value calculation process is performed to calculate the plant height value of crop Z in Ag (steps #39 to 40).

生育情報取得部80Caは、取得した同じ生育情報取得区域AgでのNDVI、植被率、窒素吸収量、及び、作物Zの草丈値、などを、測位ユニット30が取得したトラクタ1の位置情報に関連付けて車載記憶部23Gに記憶する生育情報記憶処理を行う(ステップ#41)。 The growth information acquisition unit 80Ca associates the acquired NDVI, vegetation cover rate, nitrogen absorption amount, plant height value of the crop Z, etc. in the same growth information acquisition area Ag with the position information of the tractor 1 acquired by the positioning unit 30. Then, growth information storage processing is performed to be stored in the on-vehicle storage section 23G (step #41).

つまり、この作業車両Vにおいては、障害物検出との衝突を回避するためにトラクタ1に備えられた障害物検出システム80を、NDVI、植被率、窒素吸収量、及び、作物Zの草丈、などの圃場Aで栽培された作物Zの生育情報を取得する生育情報取得ユニットとして兼用することができる。これにより、専用の生育情報取得ユニットをトラクタ1に備える場合に比較して、トラクタ1における構成の複雑化及びコストの高騰などを抑制しながら、作物Zの生育情報を高い精度で取得することができる。 In other words, in this work vehicle V, the obstacle detection system 80 provided in the tractor 1 is used to detect obstacles such as NDVI, plant coverage, nitrogen absorption amount, plant height of crop Z, etc. in order to avoid collision with obstacle detection. It can also be used as a growth information acquisition unit that acquires growth information of crop Z grown in field A. As a result, compared to the case where the tractor 1 is equipped with a dedicated growth information acquisition unit, it is possible to acquire the growth information of the crop Z with high accuracy while suppressing the complexity of the configuration of the tractor 1 and the increase in costs. can.

図7に示すように、情報統合処理部80Cには、生育情報取得部80Caが取得した作物の生育情報に基づいて、各生育情報取得区域Agにおける作物の生育状況を評価して、生育情報取得区域Agごとの施肥量の算出などを行う生育評価部80Cbが含まれている。生育評価部80Cbは、算出した生育情報取得区域Agごとの施肥量などを、測位ユニット30が取得したトラクタ1の位置情報に関連付けた状態で車載記憶部23Gに記憶する。 As shown in FIG. 7, the information integration processing unit 80C evaluates the growth status of crops in each growth information acquisition area Ag based on the crop growth information acquired by the growth information acquisition unit 80Ca, and acquires growth information. A growth evaluation section 80Cb that calculates the amount of fertilizer applied for each area Ag is included. The growth evaluation unit 80Cb stores the calculated amount of fertilization for each growth information acquisition area Ag in the in-vehicle storage unit 23G in a state where it is associated with the position information of the tractor 1 acquired by the positioning unit 30.

自動走行制御部23Fは、作業装置の一例である肥料散布装置が連結されたトラクタ1を自動走行させて施肥作業を行う場合には、車載記憶部23Gにトラクタ1の位置情報と関連付けて記憶された生育情報取得区域Agごとの施肥量と、施肥作業時に測位ユニット30が取得するトラクタ1の位置情報とに基づいて、肥料散布装置による施肥量を生育情報取得区域Agごとに自動調節する施肥量調節制御を実行する。 When the automatic travel control unit 23F automatically travels the tractor 1 to which the fertilizer spreading device, which is an example of a working device, is connected to perform fertilizer application work, the automatic travel control unit 23F stores information in association with the position information of the tractor 1 in the on-vehicle storage unit 23G. The amount of fertilizer applied by the fertilizer spreader is automatically adjusted for each growth information acquisition area Ag based on the amount of fertilizer applied for each growth information acquisition area Ag and the position information of the tractor 1 acquired by the positioning unit 30 during fertilization work. Perform regulatory control.

これにより、圃場Aにおける生育情報取得区域Agごとの作物の生育のばらつきを簡単かつ適正に改善することができ、結果、圃場Aで栽培される作物の品質向上や収穫量の安定化などを図ることができる。 As a result, it is possible to easily and appropriately improve the variation in crop growth for each growth information acquisition area Ag in field A, and as a result, improve the quality of crops grown in field A and stabilize the yield. be able to.

〔別実施形態〕
本発明の別実施形態について説明する。
なお、以下に説明する各別実施形態の構成は、それぞれ単独で適用することに限らず、他の別実施形態の構成と組み合わせて適用することも可能である。
[Another embodiment]
Another embodiment of the present invention will be described.
Note that the configurations of each of the different embodiments described below are not limited to being applied individually, but can also be applied in combination with the configurations of other different embodiments.

(1)作業車両Vの構成は種々の変更が可能である。
例えば、作業車両Vは、左右の後輪11に代えて左右のクローラを備えるセミクローラ仕様の走行車体1を有する構成であってもよい。
例えば、作業車両Vは、左右の前輪10及び左右の後輪11に代えて左右のクローラを備えるフルクローラ仕様の走行車体1を有する構成であってもよい。
例えば、作業車両Vは、手動走行のみが可能な走行車体1を有する構成であってもよい。
例えば、作業車両Vは、エンジン14の代わりに電動モータを備える電動仕様に構成されていてもよい。
例えば、作業車両Vは、エンジン14と電動モータとを備えるハイブリッド仕様に構成されていてもよい。
(1) The configuration of the work vehicle V can be modified in various ways.
For example, the work vehicle V may be configured to have a semi-crawler specification traveling vehicle body 1 including left and right crawlers instead of the left and right rear wheels 11.
For example, the work vehicle V may be configured to have a full crawler specification traveling vehicle body 1 including left and right crawlers instead of the left and right front wheels 10 and the left and right rear wheels 11.
For example, the work vehicle V may be configured to have a traveling vehicle body 1 that can only be driven manually.
For example, the work vehicle V may be configured to have an electric specification including an electric motor instead of the engine 14.
For example, the work vehicle V may be configured with a hybrid specification including the engine 14 and an electric motor.

(2)作業支援部として機能する情報統合処理部80C及び障害物用制御部23Hは、障害物検出ユニット80Bのみによる障害物の検出に基づいて、作業車両Vの周囲に障害物が存在することを報知するとともに障害物との衝突を回避する、といった作業支援を行うように構成されていてもよい。
又、障害物用制御部23Hは、障害物の検出に基づいて、作業車両Vの周囲に障害物が存在することを報知する報知処理のみを行うことで障害物との衝突を回避し易くする、といった作業支援を行うように構成されていてもよい。
(2) The information integration processing unit 80C and the obstacle control unit 23H, which function as work support units, detect the presence of obstacles around the work vehicle V based on the detection of obstacles only by the obstacle detection unit 80B. The system may be configured to provide work support such as notifying the driver of the problem and avoiding collisions with obstacles.
Further, the obstacle control unit 23H makes it easier to avoid a collision with an obstacle by only performing a notification process to notify that an obstacle exists around the work vehicle V based on the detection of the obstacle. The system may be configured to provide work support such as .

(3)生育情報取得部80Caは、撮像ユニット80Aの後カメラ82からのカラー画像情報と第2障害物センサ87からの測定情報とに基づいて、圃場Aで栽培された作物Zの生育情報を取得するように構成されていてもよい。 (3) The growth information acquisition unit 80Ca acquires growth information of the crop Z grown in the field A based on the color image information from the rear camera 82 of the imaging unit 80A and the measurement information from the second obstacle sensor 87. The information may be configured to be obtained.

(4)第3障害物センサ88として、キャビン13から右方の第3測定範囲Rm3が測定範囲に設定された右側のライダーセンサと、キャビン13から左方の第4測定範囲Rm4が測定範囲に設定された左側のライダーセンサとを備えるようにしてもよい。
そして、この構成においては、生育情報取得部80Caが、撮像ユニット80Aの右カメラ83からのカラー画像情報と右側のライダーセンサからの測定情報とに基づいて、圃場Aで栽培された作物Zの生育情報を取得するように構成されていてもよい。又、生育情報取得部80Caが、撮像ユニット80Aの左カメラ84からのカラー画像情報と左側のライダーセンサからの測定情報とに基づいて、圃場Aで栽培された作物Zの生育情報を取得するように構成されていてもよい。
(4) As the third obstacle sensor 88, the right lidar sensor whose measurement range is set to the third measurement range Rm3 to the right from the cabin 13, and the fourth measurement range Rm4 to the left from the cabin 13 is set to the measurement range. The left lidar sensor may also be provided.
In this configuration, the growth information acquisition unit 80Ca determines the growth of the crop Z grown in the field A based on the color image information from the right camera 83 of the imaging unit 80A and the measurement information from the right lidar sensor. It may be configured to obtain information. Further, the growth information acquisition unit 80Ca acquires the growth information of the crop Z grown in the field A based on the color image information from the left camera 84 of the imaging unit 80A and the measurement information from the left lidar sensor. It may be configured as follows.

(5)生育情報取得部80Caは、作物Zの生育情報として、NDVIよりも畝間の土壌の影響を受け難い緑正規化植生指標(GNDVI:Green Normalized Difference Vegetation Index)を取得するように構成されていてもよい。緑正規化植生指標は、生育情報取得区域Agでの可視緑色光の反射率Gと近赤外光の反射率IRとを、GNDVI算出用の計算式であるGNDVI=(IR-G)/(IR+G)に代入することで算出することができる。
又、生育情報取得部80Caは、作物Zの生育情報として、鉛直植生指標(PVI:Perpendicular Vegetation Index)や土壌補正正規化植生指標(SAVI:Soil Adjusted Vegetation Index)などを取得するように構成されていてもよい。
(5) The growth information acquisition unit 80Ca is configured to acquire, as growth information of the crop Z, a Green Normalized Difference Vegetation Index (GNDVI), which is less affected by the soil between furrows than the NDVI. You can. The green normalized vegetation index calculates the reflectance G of visible green light and the reflectance IR of near-infrared light in the growth information acquisition area Ag using the calculation formula GNDVI=(IR-G)/( It can be calculated by substituting it into IR+G).
Further, the growth information acquisition unit 80Ca is configured to acquire, as growth information of the crop Z, a vertical vegetation index (PVI), a soil adjusted normalized vegetation index (SAVI), etc. You can.

(6)生育情報取得部80Caが取得したNDVI、植被率、窒素吸収量、及び、作物Zの草丈値、などの生育情報や、生育評価部80Cbによる評価結果などを、測位ユニット30が取得したトラクタ1の位置情報に関連付けた状態でクラウドサーバに記憶するようにしてもよい。 (6) The positioning unit 30 has acquired the growth information such as NDVI, plant cover rate, nitrogen absorption amount, and plant height value of crop Z acquired by the growth information acquisition unit 80Ca, and the evaluation results by the growth evaluation unit 80Cb. You may make it memorize|store in the cloud server in the state linked|related with the positional information of the tractor 1.

(7)生育情報取得部80Ca及び生育評価部80Cbを含む情報統合処理部80Cを、車載制御ユニット23又はクラウドサーバに備えるようにしてもよい。 (7) The information integration processing section 80C including the growth information acquisition section 80Ca and the growth evaluation section 80Cb may be provided in the on-vehicle control unit 23 or the cloud server.

23E 表示制御部(作業支援部)
23F 自動走行制御部(作業支援部)
23G 記憶部
23H 障害物用制御部(作業支援部)
30 測位ユニット
80A 撮像ユニット
80C 情報統合処理部(作業支援部)
80Ca 生育情報取得部
86 第1障害物センサ(ライダーセンサ)
87 第2障害物センサ(ライダーセンサ)
A 圃場
Ag 生育情報取得区域(所定区域)
O 障害物
P 目標経路
Ri1 第1撮像範囲
Ri2 第2撮像範囲
Rm1 第1測定範囲
Rm2 第2測定範囲
V 作業車両
Z 作物
23E Display control section (work support section)
23F Automatic driving control department (work support department)
23G Storage unit 23H Obstacle control unit (work support unit)
30 Positioning unit 80A Imaging unit 80C Information integration processing section (work support section)
80Ca Growth information acquisition unit 86 First obstacle sensor (rider sensor)
87 Second obstacle sensor (rider sensor)
A Field Ag Growth information acquisition area (designated area)
O Obstacle P Target route Ri1 First imaging range Ri2 Second imaging range Rm1 First measurement range Rm2 Second measurement range V Work vehicle Z Crops

Claims (5)

圃場で作業する作業車両に搭載され、当該作業車両の周辺に設定された撮像範囲の可視光を撮像してカラー画像情報を取得する撮像ユニットと、
前記作業車両に搭載され、当該作業車両の周辺に設定された測定範囲に対する近赤外光の投受光により近赤外光の反射強度を含む測定情報を取得し、取得した前記測定情報に基づいて障害物を検出する障害物センサと、
前記カラー画像情報と前記測定情報とに基づいて前記作業車両による作業を支援する作業支援部と、
前記作業車両の位置を測定して位置情報を取得する測位ユニットと、
前記カラー画像情報と前記測定情報とに基づいて前記圃場で栽培された作物の生育情報を取得する生育情報取得部と、
前記生育情報を前記位置情報に関連付けて記憶する記憶部と、を備えている作業支援システム。
an imaging unit that is mounted on a work vehicle working in a field and captures visible light in an imaging range set around the work vehicle to obtain color image information;
Mounted on the work vehicle, acquiring measurement information including reflection intensity of near-infrared light by projecting and receiving near-infrared light to a measurement range set around the work vehicle, and based on the acquired measurement information. an obstacle sensor that detects obstacles;
a work support unit that supports work by the work vehicle based on the color image information and the measurement information;
a positioning unit that measures the position of the work vehicle and obtains position information;
a growth information acquisition unit that acquires growth information of crops grown in the field based on the color image information and the measurement information;
A work support system comprising: a storage unit that stores the growth information in association with the position information.
前記障害物センサは、前記測定範囲に存在する測定対象物までの距離を3次元で測定するライダーセンサであり、
前記生育情報取得部は、前記ライダーセンサの距離情報に基づいて、前記生育情報として作物の草丈値を取得する請求項1に記載の作業支援システム。
The obstacle sensor is a lidar sensor that three-dimensionally measures the distance to the measurement object existing in the measurement range,
The work support system according to claim 1, wherein the growth information acquisition unit acquires a plant height value of the crop as the growth information based on the distance information of the lidar sensor.
前記生育情報取得部は、前記カラー画像情報から可視赤色光の反射率を取得し、かつ、前記測定情報から前記近赤外光の反射率を取得して、前記生育情報として正規化植生指標を取得する請求項1又は2に記載の作業支援システム。 The growth information acquisition unit acquires the reflectance of visible red light from the color image information, and the reflectance of near-infrared light from the measurement information, and generates a normalized vegetation index as the growth information. The work support system according to claim 1 or 2, wherein the work support system is acquired. 前記作業支援部には、前記位置情報に基づいて、前記圃場に応じて生成された目標経路に従って前記作業車両を自動走行させる自動走行制御部が含まれており、
前記生育情報取得部は、前記作業車両の自動走行に伴って、前記圃場内を複数に区画して設定された所定区域ごとの前記生育情報を取得する請求項1~3のいずれか一項に記載の作業支援システム。
The work support unit includes an automatic travel control unit that automatically travels the work vehicle according to a target route generated according to the field based on the position information,
According to any one of claims 1 to 3, the growth information acquisition unit acquires the growth information for each predetermined area set by dividing the field into a plurality of areas as the work vehicle automatically travels. Work support system described.
前記生育情報取得部は、前記所定区域ごとの前記生育情報に基づいて前記所定区域ごとの施肥量を算出し、
前記自動走行制御部は、前記作業車両の自動走行にて施肥作業を行う場合には、前記位置情報と前記施肥量とに基づいて前記所定区域ごとの施肥量を自動調節する請求項4に記載の作業支援システム。
The growth information acquisition unit calculates the amount of fertilization for each predetermined area based on the growth information for each predetermined area,
5. The automatic travel control unit automatically adjusts the amount of fertilizer applied to each predetermined area based on the position information and the amount of fertilizer applied when the work vehicle automatically travels to perform the fertilization work. work support system.
JP2019196599A 2019-10-29 2019-10-29 Work support system Active JP7399680B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019196599A JP7399680B2 (en) 2019-10-29 2019-10-29 Work support system
PCT/JP2020/037862 WO2021085053A1 (en) 2019-10-29 2020-10-06 Work assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196599A JP7399680B2 (en) 2019-10-29 2019-10-29 Work support system

Publications (2)

Publication Number Publication Date
JP2021069294A JP2021069294A (en) 2021-05-06
JP7399680B2 true JP7399680B2 (en) 2023-12-18

Family

ID=75711632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196599A Active JP7399680B2 (en) 2019-10-29 2019-10-29 Work support system

Country Status (2)

Country Link
JP (1) JP7399680B2 (en)
WO (1) WO2021085053A1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025306A (en) 1999-07-13 2001-01-30 Genichi Hayashi Weeding machine for turf
JP2001120042A (en) 1999-10-22 2001-05-08 Hokuriku Natl Agricultural Experiment Station Image mapping system
JP2016049102A (en) 2014-08-29 2016-04-11 株式会社リコー Farm field management system, farm field management method, and program
JP2017216524A (en) 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 Imaging apparatus
JP2018096840A (en) 2016-12-13 2018-06-21 Tdk株式会社 Sensor unit
JP2019003400A (en) 2017-06-15 2019-01-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Parking lot management device, parking lot management method, and parking lot management system
JP2019046149A (en) 2017-09-01 2019-03-22 コニカミノルタ株式会社 Crop cultivation support apparatus
JP2019114138A (en) 2017-12-25 2019-07-11 井関農機株式会社 Farm work supporting system
JP2019129178A (en) 2018-01-22 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 Semiconductor device and electronic apparatus
JP2019174347A (en) 2018-03-29 2019-10-10 ヤンマー株式会社 Obstacle detection system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110024380B (en) * 2016-11-24 2021-08-10 富士胶片株式会社 Image processing apparatus, image capturing apparatus, and image processing method
WO2019003400A1 (en) * 2017-06-29 2019-01-03 日本電気株式会社 Coefficient calculation device, coefficient calculation method, and recording medium in which coefficient calculation program is recorded

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025306A (en) 1999-07-13 2001-01-30 Genichi Hayashi Weeding machine for turf
JP2001120042A (en) 1999-10-22 2001-05-08 Hokuriku Natl Agricultural Experiment Station Image mapping system
JP2016049102A (en) 2014-08-29 2016-04-11 株式会社リコー Farm field management system, farm field management method, and program
JP2017216524A (en) 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 Imaging apparatus
JP2018096840A (en) 2016-12-13 2018-06-21 Tdk株式会社 Sensor unit
JP2019003400A (en) 2017-06-15 2019-01-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Parking lot management device, parking lot management method, and parking lot management system
JP2019046149A (en) 2017-09-01 2019-03-22 コニカミノルタ株式会社 Crop cultivation support apparatus
JP2019114138A (en) 2017-12-25 2019-07-11 井関農機株式会社 Farm work supporting system
JP2019129178A (en) 2018-01-22 2019-08-01 ソニーセミコンダクタソリューションズ株式会社 Semiconductor device and electronic apparatus
JP2019174347A (en) 2018-03-29 2019-10-10 ヤンマー株式会社 Obstacle detection system

Also Published As

Publication number Publication date
JP2021069294A (en) 2021-05-06
WO2021085053A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
WO2020137135A1 (en) Obstacle detection system for work vehicle
JP7349277B2 (en) Automated driving system for work vehicles
JP7355902B2 (en) Automatic driving system for work vehicles and control method for work vehicles
JP7402608B2 (en) Collision avoidance system for work vehicles
JP7064066B2 (en) Automatic driving system for work vehicles
US11805720B2 (en) Automatic travel system for work vehicle
US20210018617A1 (en) Obstacle Detection System for Work Vehicle
JP2024009273A (en) Obstacle detection system and obstacle detection method
JP7470843B2 (en) Autonomous driving system and method
JP2022188155A (en) Automatic travel system for work vehicle
JP7399680B2 (en) Work support system
JP7059221B2 (en) Control system for work vehicles
JP7317165B2 (en) Obstacle detection system for work vehicles
JP7317169B2 (en) Control system for work vehicles

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7399680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150