JPH01277408A - Automatic steering controller in agricultural working machine - Google Patents

Automatic steering controller in agricultural working machine

Info

Publication number
JPH01277408A
JPH01277408A JP63105784A JP10578488A JPH01277408A JP H01277408 A JPH01277408 A JP H01277408A JP 63105784 A JP63105784 A JP 63105784A JP 10578488 A JP10578488 A JP 10578488A JP H01277408 A JPH01277408 A JP H01277408A
Authority
JP
Japan
Prior art keywords
data
steering
sensor
line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63105784A
Other languages
Japanese (ja)
Inventor
Taiji Mizukura
泰治 水倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanmar Co Ltd
Original Assignee
Yanmar Agricultural Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanmar Agricultural Equipment Co Ltd filed Critical Yanmar Agricultural Equipment Co Ltd
Priority to JP63105784A priority Critical patent/JPH01277408A/en
Publication of JPH01277408A publication Critical patent/JPH01277408A/en
Pending legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Transplanting Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To enable output of a steering signal with a high accuracy, by entering data from an area sensor in data obtained with a line sensor to provide a steering output signal from the above-mentioned data and carrying out automatic steering control. CONSTITUTION:Image information sensed by respective sensors is processed in an image processing part 45 for an area sensor 39 and an image processing part 46 for a line sensor 40 to specify positions of the respective planting operations. Deviation of transverse shift position and direction from the central position, center line, etc., in the image pickup screen, is calculated from data on positions of planted crop places by the area sensor 39 in an arithmetic part 47 of a central controller 35. In an arithmetic part 48, deviation of transverse shift position from the standard line is calculated from data on positions of planted crop places by the line sensor 40. Furthermore, an instruction extent of steering operation is calculated according to a theory, such as fuzzy control, through a data memory part 49, arithmetic part 50, comparing part 51, etc., of the central controller 35 to output a steering output signal to a steering control valve 34, etc.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、圃場に既に植付けられて列状に並ぶ、いわゆ
る植付苗列等の作物列に対して略並行状に田植機等の農
作業機を走行できるようにする自動操舵装置に関するも
のである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention is directed to agricultural work using a rice transplanter or the like in a manner substantially parallel to rows of crops, such as so-called planted seedling rows, which are already planted in a field and lined up in rows. This invention relates to an automatic steering system that allows the aircraft to travel.

〔従来の技術〕[Conventional technology]

従来から田植機により圃場に苗を植付ける場合、田植機
にその進行方向左右に適宜間隔で植(=1機構を設け、
田植機の進行につれて上下回動する植付機構にて苗載台
の苗マットを適宜株数ごとに分割しながら圃場面に植付
けるので、圃場面には、田植機の進行方向に沿って適宜
の植付間隔(植付ピンチという)で、植付は苗箇所が並
ぶと同時に、進行方向に対して左右方向に適宜間隔(以
下条間隔という)で複数列にて植付けられることは周知
である。
Conventionally, when planting seedlings in a field using a rice transplanter, the rice transplanter is equipped with a mechanism for planting seedlings at appropriate intervals on the left and right in the direction of movement.
The planting mechanism, which moves up and down as the rice transplanter advances, divides the seedling mat on the seedling platform into appropriate numbers of plants and plants them on the field, so the rice seedlings are placed on the field in an appropriate manner along the direction of movement of the rice transplanter. It is well known that seedlings are planted in multiple rows at appropriate intervals (hereinafter referred to as row spacing) in the left and right directions with respect to the direction of propagation, while the seedlings are lined up at planting intervals (referred to as planting pinch).

そして、圃場に既に植付けられた植付苗列と略並行状に
田植機を走行できるようにする自動操舵装置の先行技術
として、特開昭62−61509号公報では、前進させ
る田植機に搭載したカラーヒデオカメラにて、前記隣接
した部分の植伺苗列のうちの適宜範囲を撮像し、この撮
像画面情報を2値化処理して各植イ」げ苗箇所に対応す
る領域を抽出して後、八ツ(Ho u g h )変換
等の処理により前記複数の領域からなる列から直線を近
イ以aIWし、この計算上の仮想直線と撮像画面の縦横
中心線等の任意の基準線及び基準点に対する横ずれ及び
傾斜のずれの隔たりを一定の許容範囲内に納まるように
機体の操向制御を実行することを提案している。
Japanese Patent Laid-Open No. 62-61509 discloses a prior art technology for an automatic steering device that allows the rice transplanter to run approximately parallel to rows of seedlings that have already been planted in the field. A color video camera is used to image an appropriate area of the adjacent rows of planted seedlings, and this imaged screen information is binarized to extract areas corresponding to each planted seedling location. After that, a straight line is drawn from the row of the plurality of regions by processing such as Hou g h transformation, and this calculated virtual straight line is combined with an arbitrary reference line such as the vertical and horizontal center line of the imaging screen. It is proposed to perform steering control of the aircraft so that the difference between lateral deviation and inclination deviation with respect to a reference point is within a certain allowable range.

〔発明が鯉決しようとする課題〕[The problem that the invention attempts to solve]

前記先行技術においては、撮像手段は、いわゆるビデオ
カメラのごとく撮像画面が縦横の拡がりを持つ二次元的
な平面を有するものであり、従って検出すべき対象の光
学像を光電センサーの光電溝面にて画素の時系列的に分
解するとき、ナンサー面の横軸(X軸)に沿って走査す
る走査線の繰り返しを縦軸(y軸)に沿って順次ずらせ
て実行することにより、−枚の画面を形成するのであり
、この二次元的なエリアセンサーによれば、画像情報と
しての一枚の画面に複数の植((げ苗箇所かその幾何学
的関係と共に同時に検出できる。
In the prior art, the imaging means has a two-dimensional plane with an imaging screen extending vertically and horizontally, like a so-called video camera, and therefore, an optical image of the object to be detected is placed on the photoelectric groove surface of the photoelectric sensor. When decomposing pixels in time series, by repeating scanning lines along the horizontal axis (X-axis) of the NANCER plane and sequentially shifting them along the vertical axis (y-axis), - According to this two-dimensional area sensor, it is possible to simultaneously detect multiple plants (seedling locations and their geometric relationships) on a single screen as image information.

しかしその反面、前記の画像情+ドのデータ数が膨大で
その為の記憶部の容量を大きくしな&Jればならず、自
動操舵に必要な所定のデータを1するための画像処理の
演算が複雑である一方、車両搭載用の容量の小さいコン
ピュータでは演算速度が遅くなり、前記演算結果から操
舵制御までの時間が掛かり過ぎるという問題があった。
However, on the other hand, the amount of data in the above-mentioned image information is enormous, so the capacity of the storage unit must be increased, and image processing calculations are required to reduce the predetermined data necessary for automatic steering to 1. On the other hand, there is a problem in that a computer with a small capacity mounted on a vehicle has a slow calculation speed, and it takes too much time to control the steering from the calculation result.

他方、前記二次元的な光電センサーのうちの一行分の横
並びの複数画素からなるものや、複数の光電センサーを
横並べてなる、いわゆるラインセンサー(−次元光電セ
ンサーともいう)を使用して前記植付は箇所を検出する
ときには、当該ラインセンサーをその画素(または光電
素子)がl■]植機の進行方向と直角な左右に長く並ぶ
ように配設し、このラインセンサーのうちのいずれかの
画素(または光電素子)にて植付り苗箇所を特定するよ
うに検出するものであり、画像情報を得るための画像処
理の演算は簡単で、迅速な処理が可能である反面、機体
の進行方向前後の情報は一切含まれていないから、前記
植付苗列が略−直線状に並んでいるときはともかく、左
右に大−きくずれたり、植付苗列が乙酉している場合(
湾曲した畦に沿って植イ1苗列が存在する場合)にはそ
のずれや湾曲の情報を予測できないという欠点があった
On the other hand, among the two-dimensional photoelectric sensors, one consisting of a plurality of horizontally arranged pixels corresponding to one row, or a so-called line sensor (also referred to as a -dimensional photoelectric sensor) consisting of a plurality of photoelectric sensors arranged horizontally, is used to perform the above-mentioned implantation. When detecting a location, the line sensors are arranged so that their pixels (or photoelectric elements) are lined up long on the left and right, perpendicular to the direction of movement of the planter, and when one of the line sensors The system uses pixels (or photoelectric elements) to detect the location of planted seedlings, and while the image processing to obtain image information is simple and quick, it is also possible to Since it does not include any information about the direction before or after, it may be the case that the rows of planted seedlings are lined up approximately in a straight line, but if the rows of planted seedlings are deviated significantly from side to side, or if the rows of planted seedlings are uneven (
In the case where one seedling row exists along a curved ridge), there is a drawback that information about the shift and curvature cannot be predicted.

従って、エリアセンサーまたはラインセンサーのいずれ
か一方のみを使用して自動操舵制御すると、その欠陥が
顕著になるのであった。
Therefore, when automatic steering control is performed using only either the area sensor or the line sensor, the defects become noticeable.

苗植え等の作付は作業後の適宜時期に施肥または薬剤散
布する管理機や野菜などの収穫機も、riif記既に植
付けられた作物列に沿って進行させつつ作業を実行する
ので、このような農作業機に自動操向装置を搭載する場
合にも前記と同様の問題が生しるのであった。
For planting crops such as seedlings, management machines that fertilize or spray chemicals at appropriate times after work, and harvesting machines for vegetables, etc., carry out work while proceeding along the rows of crops that have already been planted. The same problem as above occurs when an automatic steering device is mounted on an agricultural machine.

本発明は、エリアセンサーとラインセンサーとの両者を
併用することにより、前記の問題を解消することを目的
とするものである。
The present invention aims to solve the above problem by using both an area sensor and a line sensor.

(課題を解決するための手段〕 そこで本発明は、圃場内に既に植付けられた作物列に沿
ってその側方で略並行状に走行するように田植機等の農
作業機を自動操舵する装置に打いて、前記植付は作物個
所を機体進行方向左右長手に走査して撮像するラインセ
ンサーと、作物列を二次元的に走査して撮像するエリア
センサーとにより構成し、エリアセンサーによる撮像範
囲をラインセンサーによる撮像範囲より前方になるよう
に構成し、前記ラインセンサーにて得られた画(像情報
とエリアセンサーにてflられた画像情報との両者を略
同時にデータ処理し、ラインーむンザーによるデータに
エリアセンサーからのデータを参入させ、これらのデー
タからIf3舵出力出力信号で自動操舵制御するように
構成したものである。
(Means for Solving the Problems) Therefore, the present invention provides a device for automatically steering an agricultural machine such as a rice transplanter so that it runs substantially parallel to the rows of crops already planted in a field. The planting is performed using a line sensor that scans and images the crop location in the left and right longitudinal directions in the direction of movement of the aircraft, and an area sensor that scans and images the crop row two-dimensionally. It is configured to be in front of the imaging range of the line sensor, and data processing of both the image obtained by the line sensor (image information and the image information captured by the area sensor) is performed almost simultaneously, and the line sensor Data from the area sensor is included in the data, and automatic steering control is performed using the If3 rudder output signal from these data.

〔発明の作用・効果〕[Action/effect of the invention]

この構成によれば、ラインセンサーによる画像情報のデ
ータと、エリアセンサーによる画像情報のデータとを、
同時に処理するものであるが、−定時間内にデータ処理
できる回数は、データ処理時間が長くなるエリアセンサ
・−の系統からの画像情報のデータ処理を一回実行する
間にデータ処理時間の短いラインセンサーの系統からの
画像情報のデータ処理を複数回実行することができる。
According to this configuration, image information data from the line sensor and image information data from the area sensor are
Although data processing is performed simultaneously, the number of times that data can be processed within a fixed time is limited to area sensors, which take longer data processing times, and - data processing time, which is shorter while data processing of image information from the system is executed once. Data processing of the image information from the line sensor system can be performed multiple times.

従って、両センサーによるデータ処理を略同時に実行し
つつ、ラインセンリ・−によるデータにエリアセンサー
からのデータを参入させることにより、ラインセンサー
のみのデータでは不足するデータを加えて、これらのデ
ータ処理の結果から一層精度の高い操舵信号を出力する
ことができる。
Therefore, by executing data processing by both sensors almost simultaneously and adding data from the area sensor to data from the line sensor, data that is insufficient from the line sensor alone can be added and the data processing of these data can be improved. Based on the results, a more accurate steering signal can be output.

そして、エリアセンサーの撮像範囲はラインセンサーの
撮像範囲より前方であるから、当該エリアセンサーによ
る画像情報のデータは、農作業機の進行方向の前方のデ
ータとして予見的に得ることができる。
Since the imaging range of the area sensor is further forward than the imaging range of the line sensor, the image information data from the area sensor can be obtained in advance as data ahead of the agricultural machine in the traveling direction.

従って、エリアセンサーからのデータ処理時間が長くて
も、ラインセンサーの即時的なデータに前記予見的なデ
ータを加入することにより、−層豊富なデータを19る
ことができるから、本発明によれば、操舵出力信号を短
時間に多数回出力し、且つこの出力信号による自動操舵
の精度を格段に向上させることができるという顕著な効
果を有するのである。
Therefore, even if it takes a long time to process the data from the area sensor, by adding the predictive data to the instant data from the line sensor, rich data can be obtained. For example, it has the remarkable effect of being able to output a steering output signal many times in a short period of time and dramatically improving the accuracy of automatic steering using this output signal.

〔実施例〕〔Example〕

以下田植機に適用した実施例について説明すると、図に
おいて1はフレーム2の前部左右両側の前車輪3,3と
後部左右両側の後車輪4,4にて支持された走行機体で
、この走行機体1の後部には、苗載台5と複数の植付機
構6とから成る多条植え式の苗植装置7が、リンク機構
8を介して上−下昇降可能に装着されている。
An example applied to a rice transplanter will be described below. In the figure, 1 is a running body supported by front wheels 3, 3 on both left and right sides of the front part of a frame 2, and rear wheels 4, 4 on both left and right sides of the rear part. At the rear of the body 1, a multi-row seedling planting device 7 comprising a seedling stand 5 and a plurality of planting mechanisms 6 is mounted via a link mechanism 8 so as to be movable up and down.

走行機体1のフレーム2の上面に搭載したエンジン9の
動力は、クラッチ10及びミッションケース11を介し
て前後両車軸3.4に伝達する一方、このミッションケ
ース11から突出するPTO軸12を介して前記苗植装
置7に動力伝達する。
The power of the engine 9 mounted on the upper surface of the frame 2 of the traveling body 1 is transmitted to both the front and rear axles 3.4 via the clutch 10 and the transmission case 11, and is transmitted via the PTO shaft 12 protruding from the transmission case 11. Power is transmitted to the seedling planting device 7.

なお、符号13はクラッチ10の0N−OFF用アクチ
エータ、14ば走行変速用アクチエータ、15はPTO
軸変軸角速用アクチエータる。
In addition, numeral 13 is an actuator for ON-OFF of the clutch 10, numeral 14 is an actuator for traveling speed change, and numeral 15 is a PTO.
Actuator for shaft angular velocity.

前記走行機体1の上面には、操縦座席16の前方にステ
アリングギヤボックス17を設け、該ステアリングギヤ
ボックス17から立設したステアリングコラム18の上
端に、当該ステアリングコラム18内に挿通したステア
リング軸19に対する操縦ハンドル20を取イ1けてい
る。
A steering gear box 17 is provided on the upper surface of the traveling aircraft 1 in front of the pilot seat 16, and a steering shaft 19 inserted into the steering column 18 is attached to the upper end of a steering column 18 that stands up from the steering gear box 17. The control handle 20 is attached.

符号21は左右両端にナックル22.22を介して前車
輪3.3を装着し、内部にミッションケース11からの
動力伝達機構を収納した左右長手の伝動ケースで、該伝
動ケース21を、それに取付く平面視コ字型のブラケソ
I−212と、前記フレーム2の下面左右中央部の支持
部材21bに回動自在に支持された揺動軸2ICとを介
して連結して左右上下揺動できるように構成されている
Reference numeral 21 denotes a left and right long transmission case in which front wheels 3.3 are attached to both left and right ends via knuckles 22.22, and a power transmission mechanism from the transmission case 11 is housed inside, and the transmission case 21 is attached to it. The bracket I-212, which is U-shaped in plan view, is connected to the swing shaft 2IC rotatably supported by the support member 21b at the center of the lower surface of the frame 2, so that it can swing horizontally and vertically. It is composed of

操舵装置は前記伝動ケース21の片側から立設する回動
支点軸23に水平回動自在に装着された平面視17字型
のステアリングアーム24、該ステアリングアーム24
に連結する左右一対のタイロッド25,25、油圧シリ
ンダ26、制御弁27ならびに該制御弁27を操作する
ステアリングギアボックス17の前後揺動自在なピット
マンアーム28から成る。
The steering device includes a steering arm 24 which has a 17-shape in plan view and is horizontally rotatably mounted on a rotational fulcrum shaft 23 erected from one side of the transmission case 21.
The pitman arm 28 is comprised of a pair of left and right tie rods 25, 25 connected to the left and right, a hydraulic cylinder 26, a control valve 27, and a pitman arm 28 that operates the control valve 27, and a steering gear box 17 that is swingable back and forth.

前記ステアリングアーム24におけるフレーム2の前後
方向に延びるアーム部24.2には、前記左右一対のタ
イロッド25.25の一端を各々球関節を介して連結し
、該両夕、イロソド25.25を伝動ケース21に略沿
わせて走行機体1の進行左右に延ばし、その各他端を前
記各ナックル22゜22から前方に延びるナックルアー
ム29,29に揺動自在に連結する。
One end of the pair of left and right tie rods 25.25 is connected to the arm portion 24.2 of the steering arm 24, which extends in the front-rear direction of the frame 2, through a ball-and-socket joint. It extends substantially along the case 21 to the left and right as the traveling body 1 moves, and its other ends are swingably connected to knuckle arms 29, 29 extending forward from the knuckles 22, 22.

前記ステアリングアーム24からフレーム2の側面に向
かって内向きに延びるアーム部の支軸30には、制御弁
27を球関節を介して後向きに連結する一方、該制御弁
27の後端のスプールと前記ピア1−マンアーム28と
を連杆31を介し′ζ連結する。
A control valve 27 is connected rearward via a ball joint to a support shaft 30 of an arm extending inwardly from the steering arm 24 toward the side surface of the frame 2, and a spool at the rear end of the control valve 27 The pier 1 and the man arm 28 are connected through a connecting rod 31.

また、フレーム2の外側面に略平行状に沿って配設する
油圧シリンダ26の後端を前記支軸30に球関節を介し
て連結する一方、ピストンロンド26aの前端を球関節
を介してフレーム2外側面から突出するプラケット横軸
32に連結する。
Further, the rear end of a hydraulic cylinder 26 disposed substantially parallel to the outer surface of the frame 2 is connected to the support shaft 30 via a ball joint, while the front end of the piston rod 26a is connected to the frame via a ball joint. 2 is connected to a horizontal placket shaft 32 protruding from the outer surface.

前記制御弁27と油圧シリンダ26とを各々油圧ホース
にて繋ぐ一方、エンジン5により駆動される油圧ポンプ
33から電磁ソレノイド式制御弁27に油圧を送る。
The control valve 27 and the hydraulic cylinder 26 are each connected by a hydraulic hose, while hydraulic pressure is sent to the electromagnetic solenoid control valve 27 from a hydraulic pump 33 driven by the engine 5.

そして、前記操縦パン1ζル10の回動角度に対応して
揺動するピットマンアーム28により、制御弁27のス
プールを進退動させて油圧シリンダ26におけるピスト
ンし】ノド26aを出没動させ、ステアリングアーム2
4の回動に応して、左右両前車輪3.3の向きを変える
Then, the pitman arm 28, which swings in accordance with the rotation angle of the control pan 1ζ lever 10, moves the spool of the control valve 27 forward and backward to move the piston in the hydraulic cylinder 26. 2
In response to the rotation of 4, the directions of both left and right front wheels 3.3 are changed.

この油圧シリンダ26は、後述の植付苗列等の作物列検
出装置37からの信号に応じて出力信号を出す自動操向
・走行用の中央制御装置35にて作動する電磁ソレノイ
ド式の操舵制御弁34によっても駆動され、その際前輪
3の舵取り角度は、回動支点軸23に取付くポテンショ
メータ36にてステアリングアーム24の回動角度を検
出することにより判断される。
This hydraulic cylinder 26 is operated by an electromagnetic solenoid type steering control device operated by a central control device 35 for automatic steering and traveling that outputs an output signal in response to a signal from a crop row detection device 37 such as a planted seedling row, which will be described later. It is also driven by a valve 34, in which case the steering angle of the front wheels 3 is determined by detecting the rotation angle of the steering arm 24 with a potentiometer 36 attached to the rotation fulcrum shaft 23.

なお、前記クラッチ10のON・OFF用アクチエータ
13、走行変速用アクチエータ14、PTO軸変軸周速
用アクチエータ15央制御装置35にて作動する。
The actuator 13 for ON/OFF of the clutch 10, the actuator 14 for traveling speed change, the actuator 15 for changing the circumferential speed of the PTO shaft, and the central control device 35 are operated.

次に作物列検出装置37にて作物列の並び状態を検出す
ることから、中央制御装置35にて自動操舵する迄のシ
ステム及びその方法について説明する。
Next, a system and method from detecting the arrangement of crop rows by the crop row detection device 37 to automatic steering by the central control device 35 will be explained.

作物列検出装置37は、対象を撮像する撮像手段と、撮
像された画像を処理して必要な情報(データ)を出すた
めの画像処理手段である画像処理部、演算部等から成る
The crop row detection device 37 includes an image capturing means for capturing an image of a target, an image processing section serving as an image processing means for processing the captured image and outputting necessary information (data), a calculation section, and the like.

撮像手段は、対象を検出するに際して、いわゆるビデオ
カメラのごとく撮像画面が二次元的な平面(x−y平面
)を持つエリアセンサー39と撮像画面か横方向に一列
状であるラインセンサー40との両者より成る。
When detecting an object, the imaging means uses an area sensor 39 whose imaging screen has a two-dimensional plane (xy plane) like a so-called video camera, and a line sensor 40 whose imaging screen is arranged in a row in the horizontal direction. Consists of both.

エリアセンサー39では検出すべき対象の光学像を光電
センサーの光導電面にて時系列的に分解するとき、セン
サー面の横軸(X軸)に沿って走査する走査線の繰り返
しを縦軸(y軸)に沿って順次ずらせて実行することに
より、−枚の画面を形成するのであり、この二次元的な
エリアセンサー39によれば、−枚の画面に複数の植イ
」け作物12一 箇所がその幾何学的関係と共に同時に検出でき、画像情
報としてfaるごとができる。
In the area sensor 39, when the optical image of the object to be detected is resolved in time series on the photoconductive surface of the photoelectric sensor, the repetition of scanning lines scanned along the horizontal axis (X-axis) of the sensor surface is expressed as the vertical axis ( By sequentially shifting the images along the y-axis), − images are formed. According to this two-dimensional area sensor 39, a plurality of crops 12 and 12 are planted on − images. The locations can be detected together with their geometrical relationships, and image information can be obtained.

このエリアセン”J−−39の実施例として、例えば、
二次元MO3撮像素子や二次元CCD撮像素子を内蔵し
たものでは、レンズを通して結ばれた像は、その結象面
に二次元的アレイ状に配列された各撮像素子(光電素子
)にて感知されて撮像画面42の情報を電気信号として
出力できるものである。
As an example of this Eliasen"J--39, for example,
In models with a built-in two-dimensional MO3 image sensor or two-dimensional CCD image sensor, the image formed through the lens is sensed by each image sensor (photoelectric element) arranged in a two-dimensional array on the image formation plane. The information on the imaging screen 42 can be output as an electrical signal.

他方、ラインセンサー40は、前記二次元的なエリアセ
ンサーうぢの一行分の横並びの複数画素からなるものと
、複数の光電センサーを横並べて成るものが考えられる
On the other hand, the line sensor 40 may be made up of a plurality of horizontally arranged pixels for one row of the two-dimensional area sensor 2, or may be made up of a plurality of photoelectric sensors arranged side by side.

このラインセンサー40は、−次元MO3撮像素子や一
次元CCD撮像素子を内臓したものでは、レンズを通し
て結ばれた像は、その結像面に一次元的アレイ状に配列
された各撮像素子(光電素子)にて感知されて撮像画面
43の情報を電気信号として出力できるものである。
This line sensor 40 has a built-in -dimensional MO3 image sensor or a one-dimensional CCD image sensor, and the image formed through the lens is formed by each image sensor (photoelectric sensor) arranged in a one-dimensional array on the image forming plane. The information on the imaging screen 43 can be output as an electrical signal.

ラインセンサー40の撮像方向の基準線KOを走行機体
1の進行方向と並行状になるように、且つ、前記−列状
の画素が走行機体1の左右に並ぶよ・うに配没しく第6
図参照)、さらに、ラインセンサー40の撮像範囲は、
第2図に示すように、走行機体1の略横の真下の圃場面
44を写すものとし、他方、エリアセンサー39による
撮像範囲は、前記ラインセンサー40の撮像範囲よりも
走行機体1の前方であるように、両センサーの向きをセ
ントするのである。
The sixth line is arranged so that the reference line KO in the imaging direction of the line sensor 40 is parallel to the traveling direction of the traveling aircraft 1, and the pixels in the row are lined up on the left and right of the traveling aircraft 1.
(see figure), and furthermore, the imaging range of the line sensor 40 is
As shown in FIG. 2, a field scene 44 directly below the side of the traveling machine body 1 is photographed, and on the other hand, the imaging range by the area sensor 39 is further in front of the traveling machine body 1 than the imaging range of the line sensor 40. As you can see, the direction of both sensors is cent.

エリアセンサー39のための画像処理部45、う・イン
センザー40のための画像処理部46では、各々のセン
サーで検出した画像情報を処理して各植付は作物個所の
位置を特定するものである。
The image processing section 45 for the area sensor 39 and the image processing section 46 for the insensor 40 process the image information detected by each sensor to identify the position of each planting crop. .

そして、中央制御装置35におりる演算部47ではエリ
アセンサー39による前記植付り作物箇所位置のデータ
から撮像画面42の中心位置0や中心線(y軸)等から
の横ずれ位置偏差ρ2と方向偏差θとを計算し、また演
算部48ではラインセンサー40による植付は作物箇所
の位置のデータから各々ラインセンサー40の基準線K
Oに対する各植付1)作物個所の横ずれ位置偏差ρ1を
計算する。
Then, in the calculation unit 47 in the central control device 35, based on the data on the position of the planted crops from the area sensor 39, the lateral deviation position deviation ρ2 from the center position 0 of the imaging screen 42, the center line (y-axis), etc., and the direction The calculation unit 48 calculates the reference line K of each line sensor 40 from the data of the position of the crop location for planting using the line sensor 40.
Each planting for O 1) Calculate the lateral shift position deviation ρ1 of the crop location.

このようにラインセンサー40とエリアセンサー39と
で、画像情報を得ることと、その処理とを以下のフロー
チャー1・に従って略同時に実行され、さらに中央制御
装置35におけるデータ記f、a部49や演算部50、
比較部51等を介して、ファジー制御等の制御理論に従
って操舵操作指示量SOを算出し、操舵部、例えばステ
アリングの回動駆動のための操舵制御弁34などに操舵
出力信号を出力するものである。
In this way, the line sensor 40 and the area sensor 39 obtain image information and process it almost simultaneously according to the flowchart 1 below. Arithmetic unit 50,
A steering operation instruction amount SO is calculated through a comparison section 51 or the like according to a control theory such as fuzzy control, and a steering output signal is output to a steering section, for example, a steering control valve 34 for rotationally driving the steering wheel. be.

この場合、エリアセンサー39による撮像範囲はライン
センサー40による撮像範囲よりも走行機体1の進行方
向前方であることと、エリアセンサー39による撮像画
面には複数の植付は作物箇所が同時に写るので、画像情
報量が多く、且つ、作物列の並び状態を予測できるとい
う利点を考慮し、画像情報処理等の処理時間の短く実時
間処理が可能なエリアセンサーによるデータに、処理時
間の長いエリアセンサーによるデータを参入さ−已て、
これらのデータにより操舵出力信号を得るようにし、も
って、ラインセンサーのみまたはエリアセンサーのみの
処理では(qることができなかった正確且つ迅速な自動
操舵制御を行うものである。
In this case, the imaging range by the area sensor 39 is further forward in the traveling direction of the traveling aircraft 1 than the imaging range by the line sensor 40, and the imaging screen by the area sensor 39 will simultaneously capture multiple planting crops. Considering the advantages of having a large amount of image information and being able to predict the arrangement of crop rows, we use area sensors that have a long processing time to process data such as image information processing, and area sensors that can perform real-time processing with a short processing time. After entering the data,
A steering output signal is obtained using these data, thereby performing accurate and rapid automatic steering control that could not be achieved with processing using only line sensors or area sensors.

そのフローチャートを第7−a図及び第7−b図に従っ
て説明すると、まず走行機体1に乗るオペレータの回行
操作にて、既に植付けられた作物列の側方に沿って前進
する走行に入り、走行機体の側方に位置する作物列(植
イ」苗列)における複数の植付は作物個所(植(]け苗
箇所>  (NAE)が撮像できるように自動操舵装置
をONにする。
The flowchart will be explained according to FIGS. 7-a and 7-b. First, the operator on the traveling machine 1 performs a turning operation to start traveling forward along the side of the row of crops that have already been planted. When planting a plurality of crops in a crop row (planted seedling row) located on the side of the traveling machine, the automatic steering device is turned on so that images of the crop locations (NAE) can be taken.

m7−a図は、ラインセンサー4oによる画像情報のデ
ータ処理等を示し、スタート1、初期値設定に続くステ
ップS1にて、ρ2.θを入力し、ステップS2にて初
期値としてのカウンタc−0にセットし、つぎに、ステ
ップS3にてこのCの値を後述の第7−b図のステップ
R3に入力する。
Figure m7-a shows data processing of image information by the line sensor 4o, and in step S1 following start 1 and initial value setting, ρ2. .theta. is input, and set in a counter c-0 as an initial value in step S2. Next, in step S3, the value of C is inputted to step R3 in FIG. 7-b, which will be described later.

ステップS4にてラインセンサー4oによる検出作動を
開始して、画像データを取り込む。この場合、ラインセ
ンサー40はその画素43が機体の進行方向左右に一列
状に並ぶように配設し、また、ラインセンサー40にお
ける略中央位置の画素43を通る基準線KOが走行機体
1の進行方向に略沿うように配設しであるので、基準線
KOの位置に植付り作物箇所が来ると、その横の走行機
体1での作物列との隔たり距離が設定値(H)(苗植え
の場合には植付条間隔となる)に等しいことになる。
In step S4, the line sensor 4o starts detection operation and captures image data. In this case, the line sensor 40 is arranged so that its pixels 43 are lined up in a row on the left and right in the traveling direction of the aircraft, and the reference line KO passing through the pixel 43 at the approximately center position of the line sensor 40 is Since it is arranged so as to roughly follow the direction, when a planting crop spot comes to the position of the reference line KO, the distance from the crop row on the traveling machine 1 next to it is set to the set value (H) (seedling In the case of planting, it is equal to the planting row spacing).

そして、ラインセンサー40及びエリアセンサー39は
走行機体1の左側に配設しているので、第5図及び第6
図において、植(t LJ作物箇所箇所が図の右側(第
5図のy軸より右側、第6図の基準線KOより右側)に
偏った位置に撮像されているときには、前記設定値(H
)より短く、換言すれば走行機体1が既に植付りられた
作物箇所に近寄り過ぎている状態であり、反対に植付は
作物箇所箇所が第5図のy軸より左側、第6図の基準線
KOより左側に偏った位置に撮像されでいるときには、
走行機体1が既に植付けられた作物箇所に対して前記設
定値(H)より離れ過ぎている状態であることを示す。
Since the line sensor 40 and the area sensor 39 are arranged on the left side of the traveling aircraft 1, the line sensor 40 and the area sensor 39 are shown in FIGS.
In the figure, when the plant (t LJ crop location) is imaged at a position biased to the right side of the figure (to the right of the y-axis in Figure 5, to the right of the reference line KO in Figure 6), the setting value (H
) is shorter, in other words, the traveling machine 1 is too close to the already planted crop area; When the image is taken at a position that is biased to the left of the reference line KO,
This indicates that the traveling body 1 is too far away from the already planted crop location than the set value (H).

次いでステップS5にて植付は作物個所を他の圃場面と
区別する2値化処理を行う。本実施例において、撮像さ
れた画像をカラー画面にて構成するときには、RGB表
色系〔赤色(R)、緑色(G)、青色(B)の色光を原
色光とし、加光により白が得られる〕による赤色成分、
緑色成分、青色成分との各色成分の信号にて圃場面の特
徴を抽出し、この三色成分の信号出力の総和(R+G+
B−1)に対する緑色(G)成分の信号出力比率が所定
の値以上のときを苗と判別して、苗の位置を特定する2
値化処理を実行する。
Next, in step S5, a binarization process is performed to distinguish the planting area from other field scenes. In this example, when configuring a captured image on a color screen, the RGB color system [red (R), green (G), and blue (B) color lights are used as primary color lights, and white is obtained by adding light. Red component due to
The characteristics of the field scene are extracted from the signals of each color component, green and blue, and the sum of the signal outputs of these three color components (R+G+
Identify the position of the seedling by identifying it as a seedling when the signal output ratio of the green (G) component to B-1) is equal to or higher than a predetermined value 2
Execute value processing.

その他、画像において色信号のう#3緑色成分から青色
成分を引いた色差画像データ(C; −B)が−室以上
の出力である箇所を苗と判断する色差処理による2値化
を実行しても良い。
In addition, binarization is performed using color difference processing that determines that a portion of the image where the color difference image data (C; -B) obtained by subtracting the blue component from the #3 green component of the color signal is an output of − room or above is a seedling. It's okay.

さらに、白黒テレビのように苗個所とその他の泥面との
明度差を検出して、−室以上のしきい値を越えるとき、
植付は苗個所(NAE)であると判別する2値化処理す
るようにしても良い。
Furthermore, like a black-and-white TV, the difference in brightness between the seedling spot and other dirt surfaces is detected, and when the threshold of -room or higher is exceeded,
For planting, binarization processing may be performed to determine that it is a seedling location (NAE).

前記のように一列状に画素を配設したラインセンサー4
0により植付は苗個所(NAE)を検出されたデータか
ら、ステップS5にて前記基準線KOに対する横ずれの
位置偏差ρ1を算出する。
The line sensor 4 has pixels arranged in a line as described above.
Based on the data of the detected seedling location (NAE) according to 0, in step S5, the positional deviation ρ1 of the lateral shift with respect to the reference line KO is calculated.

この場合、例えばMOS形では、−列状に並んだ画素で
ある光電素子に対してシフトレジスタのスイッチングパ
ルスを加えることにより、各素子の信号を順次取り出す
アドレス読み出し方式を採用する。
In this case, for example, in the case of a MOS type, an address readout method is adopted in which a switching pulse of a shift register is applied to photoelectric elements, which are pixels arranged in a column, to sequentially extract signals from each element.

このように、−列状に並んだ画素43のうちのいずれか
一つまたは複数の画素43での出力信号にてその個所に
苗が位置すると判別する。
In this way, based on the output signal from one or more of the pixels 43 arranged in a row, it is determined that a seedling is located at that location.

ステップS6は横ずれの位置偏差ρ1と、該横ずれの位
置偏差ρ1の前回の検出結果と今回の検出結果との差で
あるΔρ1の算出である。
Step S6 is the calculation of the lateral deviation position deviation ρ1 and the difference Δρ1 between the previous detection result and the current detection result of the lateral deviation position deviation ρ1.

なお、第6図は(a)が−回目(C=0)の検出、(b
)が二回目(C−1)の検出、(C)が三回目(C=2
)の検出の結果というように複数回の検出結果を各々示
すもので、斜線を施した部分が植付り作物箇所である。
In addition, in FIG. 6, (a) is the -th detection (C=0), (b)
) is the second detection (C-1), (C) is the third detection (C=2
), the results of multiple detections are shown, and the shaded areas are the planted crops.

次に、前記ステップS1にて入力した後述のステップR
9における横ずれの位置偏差ρ2と方向偏差θの各値と
、前記横ずれの位置偏差ρ1の値とΔρ1との組合わ(
で、ステップS7にて操舵操作指示1isQを算出する
のであり、その算出の手段として、本実施例では後述す
る所謂ファジー制御を実行するのである。
Next, step R, which will be described later, is input in step S1.
The combination of the values of the positional deviation ρ2 and the directional deviation θ of the lateral deviation in 9 and the value of the positional deviation ρ1 of the lateral deviation and Δρ1 (
Then, in step S7, the steering operation instruction 1isQ is calculated, and as a means of calculation, so-called fuzzy control, which will be described later, is executed in this embodiment.

次いで、ステップS8では前記操舵操作指示量SOに基
づいて操舵信号を出力する。その後ステップS9にて、
後述するエリアセンサー39での割込みフラッグIFを
入力し、ステップSIOでこのフラッグrF=0である
か否かを判別し、IF=0であるときには、ステップS
llにて前記カウンタCの値を1だけ増加させ、ステッ
プS3の前に戻り、引き続きラインセンサー40による
画像情報のデータにて前記ステップS3からステップ3
11迄の処理を繰り返す。
Next, in step S8, a steering signal is output based on the steering operation instruction amount SO. After that, in step S9,
An interrupt flag IF from the area sensor 39, which will be described later, is input, and it is determined in step SIO whether or not this flag rF=0. If IF=0, step SIO is performed.
The value of the counter C is incremented by 1 at 11, and the process returns to before step S3, and the process continues from step S3 to step 3 using the image information data from the line sensor 40.
Repeat the process up to 11.

従って、この処理を一回実行するごとにCは1づつ増大
する。
Therefore, C increases by 1 each time this process is executed.

他方、IF≠0のときには、ステップS1の前に戻り、
後述のステップR9における横ずれの位置偏差ρ2と方
向偏差θを入力し、前記任意の数であったカウンタC=
0にリセットし、ステップSIO迄の処理を実行するこ
とになる。
On the other hand, when IF≠0, return to before step S1,
Input the positional deviation ρ2 and the direction deviation θ of the lateral shift in step R9, which will be described later, and set the counter C= which was the arbitrary number mentioned above.
It will be reset to 0 and the processing up to step SIO will be executed.

従って、カウンタCの値と割込みフラッグIFとの2つ
により、ラインセンサー40によるデータの処理とエリ
アセンサー39によるデータの処理とを略同時に実行し
つつ、この両者のデータをリンクさせることができるの
である。
Therefore, by using the value of the counter C and the interrupt flag IF, it is possible to perform data processing by the line sensor 40 and data processing by the area sensor 39 almost simultaneously, and to link the two data. be.

ラインセンサー40での前記ステップS4からステップ
S6までの画像情報処理及び演算処理時間は、エリアセ
ンサー39で一回の画像情報処理を実行する時間の約1
/10〜115程度であるので、エリアセンサー39で
一回の画像情報処理を実行している間にラインセンサー
40では5〜10回実行できることになる。
The image information processing and arithmetic processing time from step S4 to step S6 in the line sensor 40 is approximately 1 time of the time required to perform one image information processing in the area sensor 39.
Since it is about /10 to 115, it means that while the area sensor 39 executes image information processing once, the line sensor 40 can execute it 5 to 10 times.

他方第7−b図のフローチャートでは、スタート2、初
期値設定に続くステップR1にて割込みフラッグIFを
0に七ソトシ、ステップR2で前記フラッグIFを前記
ステップSIOに出力する。
On the other hand, in the flowchart of FIG. 7-b, in step R1 following start 2 and initial value setting, the interrupt flag IF is set to 0 by seven degrees, and in step R2, the flag IF is output to the step SIO.

ステップR3では、前記ステップS2からのカウンタC
の値を入力し、ステップR4てC−0であるか否かを判
別し、Cl3のときには、ステップR5以下の処理をし
ないようにステップR3に戻す。
In step R3, the counter C from step S2 is
In step R4, it is determined whether it is C-0 or not, and when it is Cl3, the process returns to step R3 so as not to perform the processes from step R5 onwards.

C−Oのときには、ステ、プR5にてエリアセンサー3
9からの画像情報を入力し、ステップR6にて2値化処
理を実行する。この2値化処理は、前記のラインセンサ
ー40のステップS5における2値化処理と同様に実行
する。2値化された画像は第5図に示すように、複数の
植伺は作物箇所が他の圃場面と区別され、各々特定の領
域(A)として二Vり別できる。
At the time of C-O, area sensor 3 at step R5
The image information from 9 is input, and binarization processing is executed in step R6. This binarization process is performed in the same manner as the binarization process in step S5 of the line sensor 40 described above. As shown in FIG. 5, the binarized image shows that crop areas in a plurality of planting rows can be distinguished from other field scenes, and each can be divided into two specific areas (A).

次いで、ステップR7にて、演算部47に組み込まれた
ソフ1−による予め定められた計算手法により、前記特
定された領域(A)の位置のデータから、その中心位置
または重心位置をもとに八ツ変換や最小自乗法等により
直線近似の仮想線計算を実行する。このようにして得ら
れた仮想線K Lは、走行機体1より前方位置の部分を
エリアセンザー39にて撮像された作物列の予想される
並び状態を示すごとになり、その−例を第5図の実線で
示す。
Next, in step R7, using a predetermined calculation method by the software 1- incorporated in the calculation unit 47, from the data on the position of the specified area (A), based on the center position or center of gravity position. Execute virtual line calculations of straight line approximations using eight-transform, least squares method, etc. The virtual line KL obtained in this way indicates the expected arrangement of the crop rows imaged by the area sensor 39 in the area ahead of the traveling aircraft 1. This is shown by the solid line in Figure 5.

ステップR8では、撮像画面42上の基準点であるX軸
とy軸との交点Oと、走行機体1の進行方向軸線と平行
な基準線であるy軸を取り、前記の仮想線KLがX軸で
交差する点と0点との距離を横ずれの位置偏差ρ2とし
、y軸と仮想線K Lとの交差角度を方向偏差θとして
、演算部47で演算する。
In step R8, the intersection O of the X-axis and the y-axis, which is a reference point on the imaging screen 42, and the y-axis, which is a reference line parallel to the traveling direction axis of the traveling aircraft 1, are taken, and the above-mentioned virtual line KL is The calculation unit 47 calculates the distance between the point where the axis intersects with the zero point as the positional deviation ρ2 of the lateral shift, and the angle of intersection between the y-axis and the virtual line KL as the direction deviation θ.

この両部差ρ2とθとをステップR9で出力し、前記ス
テップS1に入力した後、ステップRIOにて、割込み
フラッグIF=1にし、ステップR11でIF=1の値
を前記ステップS9に向けて出力する。
After outputting the difference ρ2 and θ between the two parts in step R9 and inputting them to the step S1, the interrupt flag IF=1 is set in the step RIO, and the value of IF=1 is set to the step S9 in the step R11. Output.

前記ステップR11の出力段階で、前記ラインセンザー
40によるステップSI0,11でIF−〇即しエリア
センサー39側の処理終了が検知できるように、ステッ
プR12で適宜時間の待ち時間を設けた後、ステップR
1に戻すものである。
At the output stage of step R11, an appropriate waiting time is provided in step R12 so that the line sensor 40 can detect the completion of processing on the IF-〇 or area sensor 39 side in steps SI0 and SI11, and then step R
This will return it to 1.

この2つのフローチャートの時間表の例示を、第8図で
示す。この時間表で理解できるように、エリアセンサー
39による最新のρ2とθのデータと、ラインセンザー
40による各処理毎のデータρ1とΔρ1のデータ、さ
らにCの値によって操舵指示量Sを演算する。
An example of the time table of these two flowcharts is shown in FIG. As can be understood from this time table, the steering instruction amount S is calculated based on the latest ρ2 and θ data from the area sensor 39, data ρ1 and Δρ1 for each process from the line sensor 40, and the value of C.

次にファジィ (Fuzzy )理論を応用したファジ
ィ制御について説明する。
Next, fuzzy control using fuzzy theory will be explained.

一般に、制御アルゴリズムを、制御のための複数の情報
の入力変数例えば、2つの入力変数(x。
In general, a control algorithm is implemented using a plurality of information input variables for control, for example, two input variables (x.

y)と制御機器への出力(操作ff1) 2のあいまい
な関係として記述するものである。
y) and the output to the control equipment (operation ff1) 2.

例えば、 もしXが小さく、yが大きいならば、2は中にする。for example, If X is small and y is large, 2 should be in the middle.

もしXが大きく、yが中ならば、2は大きくする。If X is large and y is medium, make 2 large.

のように、制御アルゴリズムは(もし・・・・であれば
、・・・・にせよ)  (if−tl+en )形式の
ファジィ制御規則と呼ばれるもので表現される。
As in, the control algorithm is expressed by what is called a fuzzy control rule of the (if-tl+en) format (if...then...whatever).

規則のif・・・・の部分を前件部、then  ・・
の部分を後件部と呼ぶ。
The if... part of the rule is the antecedent part, then...
The part is called the consequent part.

今、このファジィ制御規則を、自動操舵の制御に応用す
るにあたり、本実施例では、カウンタCのファジー変数
のラベルが1大きい」場合には、ρ1とΔρ1とのデー
タの組を前件部とし、自動操舵の操作指示量Sを後件部
とするものとし、Cのファジー変数のラベルが「小さい
」場合には、ρ2とθとのデータの組を前件部として、
操作指示量Sを後件部とするもの、合計18通りの規則
を、以下の第1表と第2表に示すようなもので表現する
Now, in applying this fuzzy control rule to automatic steering control, in this embodiment, if the label of the fuzzy variable of counter C is 1 greater, the set of data ρ1 and Δρ1 is used as the antecedent part. , the automatic steering operation instruction amount S is assumed to be the consequent part, and when the label of the fuzzy variable of C is "small", the data set of ρ2 and θ is assumed to be the antecedent part,
A total of 18 rules having the operation instruction amount S as the consequent are expressed as shown in Tables 1 and 2 below.

このように、カウンタCのファジー変数のラベルにより
区分したのは、次の理由による。
The reason why the counter C is classified by the label of the fuzzy variable is as follows.

即も、ラインセンザー40による実処理時間は短く、エ
リアセンサー39による実処理時間は長く掛かり、ライ
ンセンザー40にて複数回処理している間にエリアセン
+−39では一回だけしか処理できないが、エリアセン
サー39の撮像範囲は走行機体1の進行方向前方であっ
て、ラインセンサー40による植付は作物箇所検出のデ
ータによるよりも将来予測が可能であること。および、
前記フローチャートのステップR5で理解できるように
、カウンタC−0のときになって初めてエリアセンサー
39による画像情報の入力が始まり、そして、カウンタ
Cの値が小さいとき、換言すれはカウンタCのファジー
変数のラベルが「小さい」ときには、前回のエリアセン
サー39の処理でρ2とθとが得られた直後であるから
、そのデータを使用するのであり、反対にカウンタCの
ファジー変数のラベルが1大きい」ときには、エリアセ
ンサーによるρ2とθのデータは古いので、ラインセン
ザー40の検出結果であるρ1とΔρ1とをデータとし
て使用することにしたものである。
The actual processing time by the line sensor 40 is short, and the actual processing time by the area sensor 39 is long. The imaging range of the sensor 39 is the front in the traveling direction of the traveling body 1, and the planting by the line sensor 40 can be predicted in the future more than by the data of crop location detection. and,
As can be understood from step R5 of the flowchart, the area sensor 39 starts inputting image information only when the counter C-0, and when the value of the counter C is small, in other words, the fuzzy variable of the counter C When the label is "small", it means that ρ2 and θ have just been obtained in the previous processing of the area sensor 39, so that data is used, and conversely, the label of the fuzzy variable of counter C is 1 larger. Sometimes, the data of ρ2 and θ from the area sensor is old, so it is decided to use the detection results of the line sensor 40, ρ1 and Δρ1, as data.

また、入力変数C1ρ1、Δρ1、θ、ρ2及び出力変
数Sが各々取るファジィ変数を、整数の領域に離散化し
た離散型ファジィ変数で示すこととし、第3表から第7
表までに示す。
In addition, the fuzzy variables taken by the input variables C1ρ1, Δρ1, θ, ρ2 and the output variable S are expressed as discrete fuzzy variables discretized in the integer domain, and Tables 3 to 7
Shown in the table.

第3表のカウンタCにおけるファジィ変数のラベルは、
「大きい」、「小さい」の2種類、その他の表における
ファジィ変数はラベルとしての1大きく右」、「小さく
右」、「0」、「小さく左」、「大きく左」の5種類と
する。
The label of the fuzzy variable in counter C in Table 3 is
There are two types of fuzzy variables: "large" and "small", and five types of fuzzy variables as labels: 1 "large right", "small right", "0", "small left", and "large left".

そして、これらのあいまいな領域であるファジィ変数の
領域は、入力変数の全体集合の要素(メンバー)が領域
(変域)に含まれる程度(グレード)を与えることによ
り定義するものであり、このグレーl、を与える関数を
メンバージ・7プ関数という。例えば、ρ1のファジィ
変数の領域は、横ずれの位置偏差ρ1の全体集合の要素
(メンバー)が領域(変域)に含まれる程度(グレード
)を与えることにより定義される。実施例では、各変域
におりるグレートはOからIOまでの整数で表す。
The area of fuzzy variables, which is an ambiguous area, is defined by giving the degree (grade) to which the elements (members) of the entire set of input variables are included in the area (domain). The function that gives l is called the member jump function. For example, the region of the fuzzy variable ρ1 is defined by giving the degree (grade) to which the elements (members) of the entire set of the position deviation ρ1 of the strike slip are included in the region (domain). In the embodiment, the grades falling in each domain are expressed as integers from O to IO.

(以下余白) 第1表 ファシlii Il+=戊」司−Cが1大きい
」とき 第2表  Cが「小さい」とき 第3表 Ω       カウンタCの値 第4表 ’:jk J表 −e−本 左・−」A湖則罵五−−・右(以下余白) 第6表 Oxi/30 rad  = 第7表 さらに説明すれば、例えば、横ずれの位置偏差ρ1及び
この位置偏差の前回の結果と今回の結果との差であるΔ
ρ1において、ファジィ変数が「小さく右」であるとい
うのは、「−1から+5まで」の領域において、グレー
ドがr3,5,8゜10.8,5,3Jを持つメンバー
シップ関数で表現する。
(The following margin) Table 1 Fascinator LII IL + = Bo "Uji -C is 1 larger" Table 2 C Table 3 Counter C Table 4 of Counter C: JK J Table -E -E -Book Left・-” A-Lake Rule--・Right (blank space below) Table 6 Oxi/30 rad = Table 7 To explain further, for example, the position deviation ρ1 of the lateral shift, the previous result of this position deviation, and the current result. Δ, which is the difference from the result of
In ρ1, the fact that the fuzzy variable is "small and right" is expressed by a membership function with grade r3,5,8°10.8,5,3J in the region "from -1 to +5". .

そして、ファジー制御における推論法は次のようにする
。例えば、Cが大きいときであって、ρ1とΔρlの2
人力の組の前件部(■から■まで)に対する出力S(後
件部)の場合を考える。
The inference method in fuzzy control is as follows. For example, when C is large and ρ1 and Δρl are 2
Consider the case of the output S (consequent part) for the antecedent part (from ■ to ■) of a human-powered set.

各々の入力ρ1、Δρ1の前件部の値に対応するi番目
(■から■まで)の規則におけるメンバーシップ関数A
(ρ1))とA(Δρli)の値を前記第4表から求め
、その人力ρ1、Δρ11との組による適合度 ωi =A (ρli) *A (Δρli)を求める
。ここで、*はm1ni (ファジィ集合における交わ
り、以下同じ))または乗算の記号である。
Membership function A in the i-th rule (from ■ to ■) corresponding to the value of the antecedent part of each input ρ1 and Δρ1
(ρ1)) and A(Δρli) are determined from Table 4, and the degree of fitness ωi =A (ρli) *A (Δρli) is determined by pairing it with the human power ρ1 and Δρ11. Here, * is a symbol for m1ni (intersection in a fuzzy set, the same applies hereinafter)) or multiplication.

そして、i番目の規則に対応する推論結果を第7表から
求め、そのメンバーシップ関数B (si)から適合度
wi 13 (si)−ωH*B (si)を 求める
Then, the inference result corresponding to the i-th rule is obtained from Table 7, and the fitness degree wi 13 (si)-ωH*B (si) is obtained from the membership function B (si).

次に、前記と同様に、入力ρ1、Δρ1の前件部の値に
対応するj番目の規則におけるメンバーシップ関数A(
ρlj)とA(ΔρIj)の値を前記第4表から求め、
その適合度 ωj−八(ρlj) *A (Δρ1j)を求める。
Next, in the same way as above, the membership function A(
Find the values of ρlj) and A(ΔρIj) from the above Table 4,
The degree of fitness ωj−8(ρlj) *A (Δρ1j) is determined.

次に、j番目の規則に対応する推論結果を第7・表から
求め、そのメンバーシップ関数B(sj)から適合度w
j B (sj)−ωj*B (sj)を求める。
Next, the inference result corresponding to the j-th rule is obtained from Table 7, and the fitness w is calculated from the membership function B(sj).
Find j B (sj)-ωj*B (sj).

この複数の後件部が、例えばi番目、j番目、k番目、
1番目の4通りの場合には、この4つの規則による全体
の推論結果SOは、wi B (si) +Wj  B
  (sD 、  wk B  (sk) 、  wl
  B  (si)とから、 B*−wi  B(si)Uwj  B(sj)Uwk
 B(sk)UwL B (sl) を作り(Uは和集合の記号)、B*のメンバーシー33
〜 ツブ関数の重心として求める。
These plurality of consequents are, for example, i-th, j-th, k-th,
In the first four cases, the overall inference result SO based on these four rules is wi B (si) + Wj B
(sD, wk B (sk), wl
From B(si), B*-wi B(si)Uwj B(sj)Uwk
Create B(sk)UwL B (sl) (U is the symbol for union) and set the membership of B*33
~ Find as the center of gravity of the Tsubu function.

同様に、Cが小さいときであって、ρ2とθの2人力の
組の前件部([相]から[相]まで)に対する出力S(
後件部)の場合にも、各々の入力ρ2、θの前件部の値
に対応するi番目(@lから[相]まで)の規則におけ
るメンバーシップ関数Δ(ρ2i)とA(θi)の値を
前記第5表及び第6表から求め、その人力ρ21、θi
との組による適合度を前記と同様に求めるのである。
Similarly, when C is small, the output S(
Also in the case of the consequent part), the membership functions Δ(ρ2i) and A(θi) in the i-th rule (from @l to [phase]) corresponding to the values of the antecedent part of each input ρ2 and θ. The values of ρ21 and θi are obtained from Tables 5 and 6 above, and
The degree of fitness for the pair is determined in the same way as above.

この制御を実際の数値の実施例で示すと、今、カウンタ
回数C=3、ρ1−2.Δρl=1、ρ2=40.  
θ−2(1/30  (rad ) )のときの操舵操
作指示NSOを以下のようにして求める。
To illustrate this control using an example of actual numerical values, the counter number C=3, ρ1-2. Δρl=1, ρ2=40.
The steering operation instruction NSO when θ-2 (1/30 (rad)) is obtained as follows.

まず、第3表から、C=3に対してラベルが「小さい」
となる場合にお&Jる、そのメンバーシップ関数の値は
「5」となり、ラベルが「大きい」となる場合には、そ
のメンバーシップ関数の値は「1」となる。
First, from Table 3, the label is "small" for C=3.
When &J, the value of the membership function is "5", and when the label is "large", the value of the membership function is "1".

いま、C=3に対してラベルが「小さい」となる場合に
ついて考察すると、ρ2とθとのデーター34= の組(前件部■から■まで)が対応する。
Now, considering the case where the label is "small" for C=3, the pair of data 34= (antecedent part ■ to ■) of ρ2 and θ corresponds.

検出結果がρ2−40、θ−2であるので、第5表と第
6表から、各々対応するファジィ変数のラベルを求める
Since the detection results are ρ2-40 and θ-2, the labels of the corresponding fuzzy variables are determined from Tables 5 and 6.

横ずれ位置偏差ρ2−40については、第5表で、変域
の「+33〜−+−48Jの区分に該当する縦棒部分を
見ると、ラベルとして1大きく右」における「3」と、
「小さく右」における「10」と、「0」における「5
」とに跨っているので、この3つのファジィ変数のラベ
ルを取り(Sることが判る。
Regarding the side-slip position deviation ρ2-40, in Table 5, if you look at the vertical bar part corresponding to the division of "+33 to -+-48J" in the domain, it is "3" in the label "1 greatly to the right",
“10” in “small right” and “5” in “0”
'', so we can take the labels of these three fuzzy variables and find that (S).

方位偏差θについては、第6表のθの変域の「2」の区
分に該当する縦棒部分を見ると、ラベル「0」におりる
「5」と「小さく左」における「10」と、「大きく左
」における「3」とに跨っているので、この三つのファ
ジィ変数を採用できる可能性が有り(Mる。
Regarding the azimuth deviation θ, if we look at the vertical bar corresponding to the “2” category of the θ range in Table 6, we can see that it is “5” at the label “0” and “10” at “small left”. , and "3" in "large left", so there is a possibility that these three fuzzy variables can be adopted (M).

しかして、ρ2とθとのデータの組によるファジィの規
則は、第2表から探し出せば、[相]、■、■、Oの4
つの規則が対応し、後件部Sのラベルは各々「0 (直
進)」、「小さく右に切る」、1大きく左に切る」、「
大きく右に切る」になることが判る。
Therefore, the fuzzy rules based on the data set of ρ2 and θ can be found in Table 2 for the four phases of [phase], ■, ■, and O.
The labels of the consequent part S are respectively "0 (go straight)", "cut small to the right", 1 "cut large to the left", "
It turns out that it becomes "cut sharply to the right."

これらのメンバーシップ関数を、前記各表を参照して、
[相]のファジィ制御については、第10−a図、第1
0−b図、第1 Q−c図に示し、■のファジィ制御に
ついては第11−a図、第1l−1)図、第11−0図
に示し、■のファジィ制御については、第12−a図、
第12−b図、第12−0図に示し、0のファジィ制御
については第13−a図、第13−b図、第13−0図
に示す。
These membership functions can be determined by referring to each table above.
Regarding the fuzzy control of [phase], see Figure 10-a,
The fuzzy control of ■ is shown in Figure 11-a, Figure 1l-1), and Figure 11-0. -a figure,
The fuzzy control of 0 is shown in FIG. 12-b and FIG. 12-0, and the fuzzy control of 0 is shown in FIG. 13-a, FIG. 13-b, and FIG. 13-0.

なお、カウンタCのメンバーシップ関数は第9図に示す
Incidentally, the membership function of counter C is shown in FIG.

この場合、例えば、■のファジィ制御については、その
操作指示量Sの適合度ωjは、ρ2、θの各々のωjの
値のうち小さい方に制限されて、第11−0図のように
高さ「5」より下の部分である太線で囲まれた領域とな
る。
In this case, for example, regarding the fuzzy control (■), the fitness degree ωj of the operation instruction amount S is limited to the smaller of the ωj values of ρ2 and θ, and the degree of adaptation ωj is limited to the smaller one of the values of ωj of ρ2 and θ, and the degree of adaptation ωj is increased as shown in Fig. 11-0. This is the area below the number "5" surrounded by a thick line.

同様に、[相]、[相]、Oのファジィ制御におりる各
後件部Sにおけるメンバーシップ関数は、第1O−36
= −C図、第12−c図、第13−0図に示す太線で囲ま
れた領域となる。
Similarly, the membership function in each consequent S in the fuzzy control of [phase], [phase], and O is the first O-36
= The area surrounded by thick lines shown in Figure -C, Figure 12-c, and Figure 13-0.

前記3つ規則による全体の推論結果Solは、B*−ω
i B (si) UO3B(sj)Uωk B(sk
)を作り(Uは和集合の記号)、その3つのSのメンバ
ーシップ関数を重ねたときの最外側の区域で囲まれた面
精部分の重心として求めると(第14図参照)、結果と
して操舵操作指示量5OI−0゜67となる。
The overall inference result Sol based on the above three rules is B*-ω
i B (si) UO3B(sj)Uωk B(sk
) (U is the symbol for union) and find it as the center of gravity of the surface area surrounded by the outermost area when the membership functions of the three S are overlapped (see Figure 14), the result is The steering operation instruction amount is 5OI-0°67.

同様にCのラベルが「大きい」ときにおける、検出結果
であるρ1−2とΔρ1−1からファジー制御の規則を
考察すると、ρ1については、第4表のρ1の変域の「
2」の区分に該当する縦棒部分を見ると、シー・ル「大
きく右」における「3」と、ラベル「小さく右」におけ
る「10」と、ラベル「0」におりる「5」とに跨って
いるので、この3つのファジィ変数、つまりラベル「大
きく右」と1小さく右」と「0」とを採用できる可能性
が有り得る。
Similarly, when considering the fuzzy control rule from the detection results ρ1-2 and Δρ1-1 when the label of C is "large", for ρ1, the range of ρ1 in Table 4 is "
Looking at the vertical bars corresponding to the category ``2'', we see that there is a ``3'' in the label ``Large right'', a ``10'' in the label ``Small right'', and a ``5'' in the label ``0''. Since it straddles, there is a possibility that these three fuzzy variables, that is, the labels "large right", "1 small right", and "0" can be adopted.

他方、第4表でΔρ1の変域の「1」の区分に該当する
縦棒部分を見ると、ラベル「小さく右」における「8」
と、ラベル「0」における「8」と、ラベル「小さく左
」における「3」とに跨っている。この3つのファジィ
変数、つまりラベル「小さく右」と1小さく左」と「0
」とを採用できる可能性が有り得る。
On the other hand, if we look at the vertical bar part that corresponds to the "1" category of the range of Δρ1 in Table 4, we see that "8" in the label "small right"
, straddles "8" in the label "0" and "3" in the label "small left". These three fuzzy variables, namely the labels ``small right'', ``1 small left'' and ``0
” may be adopted.

しかして、第1表の推論のファジィ規則は、前件部にお
ける組合せの■から■までの中から探し出すと、ρ1が
「0」でΔρ1が「0−1に対応する■と、ρ1が「小
さく右」でΔρ1が1小さく左」の■と、ρ1が「小さ
く右」でΔρ1が「小さく右」の■と、ρ1が1大きく
右」でΔρ1が「0」の■との4つの規則が対応するこ
とになり、その後件部Sのラベルは各々「0」、「0」
、「小さく右に切る」、1大きく右に切る」となる。
Therefore, the fuzzy rule for inference in Table 1 is that if we search among the combinations ■ to ■ in the antecedent part, then ρ1 is "0" and Δρ1 is "corresponding to 0-1", and ρ1 is " 4 rules: ``Small to the right'' and Δρ1 is 1 small to the left'', ρ1 is ``Small to the right'' and Δρ1 is ``Small to the right'', and ρ1 is 1 large to the right'' and Δρ1 is 0. correspond, and the labels of the subject S are "0" and "0", respectively.
, ``Cut small to the right'' and ``Cut 1 large to the right''.

これらのメンバーシップ関数を、前記各表を参照して、
(但し、カウンタCのメンバーシップ関数の図は第15
図に示す)ファジー規則■に対応させたものは、第16
−a図、第16−b図、第16−0図に示し、ファジー
規則■に対応させたものは、第17−a図、第17−b
図、第17−0図に示し、ファジー規則■に対応させた
ものは、第18−a図、第18−b図、第18−0図に
示し、ファジー規則■に対応させたものは、第19−a
図、第19−b図、第19−0図に各々示す。
These membership functions can be determined by referring to each table above.
(However, the diagram of the membership function of counter C is
The one corresponding to the fuzzy rule ■ shown in the figure is the 16th rule.
-a, 16-b, and 16-0, and those corresponding to fuzzy rule ■ are shown in 17-a and 17-b.
18-a, 18-b, and 18-0, and those corresponding to fuzzy rule ■ are shown in FIG. Chapter 19-a
19-b and 19-0, respectively.

この場合、各適合度ωi =A (ρli) *A (
θi)として、*はm1niの記号であるので、ファジ
ー規則■における適合度ω−5となり、これに対応して
後件部Sにおけるメンバーシップ関数は、第16−0図
のように高さ「5」より下の部分である太線で囲まれた
領域となる。
In this case, each degree of fitness ωi = A (ρli) *A (
θi), * is the symbol of m1ni, so the fitness degree in the fuzzy rule ■ is ω-5, and correspondingly, the membership function in the consequent part S has a height of `` as shown in Figure 16-0. 5" is the area surrounded by the thick line.

同様に、ファジー規則■における適合度ωj−3となり
、これに対応する後件部Sにおけるメンバーシップ関数
は、第17−0図のように高さ「3」より下の部分であ
る太線で囲まれた領域となる。
Similarly, the fitness for the fuzzy rule ■ is ωj−3, and the corresponding membership function in the consequent part S is surrounded by a thick line below the height “3” as shown in Figure 17-0. This is an area where

さらに、ファジー規則■における適合度ωに−8となり
、これに対応する後件部Sにおけるメンバーシップ関数
は、第18−0図のように高さ「8」より下の部分であ
る太線で囲まれた領域となる。
Furthermore, the fitness degree ω in the fuzzy rule ■ becomes −8, and the corresponding membership function in the consequent part S is surrounded by a thick line below the height “8” as shown in Figure 18-0. This is an area where

また、ファジー規則■における適合度ωl=3となり、
これに対応する後件部Sにおけるメンバーシップ関数は
、第19−0図のように高さ「3」より下の部分である
太線で囲まれた領域となる。
Also, the fitness degree ωl in the fuzzy rule ■ is 3,
The membership function in the consequent part S corresponding to this is a region surrounded by a thick line below the height "3" as shown in FIG. 19-0.

この4つ規則による全体の推論結果SO■は、その4つ
のSのメンバーシップ関数を重ねたときの最外側の区域
で囲まれた面積部分の重心として求めると(第20図参
照)、結果として操舵操作指示量5OII−−1,18
となる。
The overall inference result SO■ based on these four rules is found as the center of gravity of the area surrounded by the outermost area when the four membership functions of S are overlapped (see Figure 20). Steering operation instruction amount 5OII--1,18
becomes.

前記第9図から判断して、C=3に対してラベルが「小
さし司となる場合における、そのメンバーシップ関数の
値CI=5と、同様に第15図から、ラベルが「大きい
」となる場合のメンバーシップ関数の値CII=1とを
考慮し、最終的な操舵操作指示量 so= (S01xC’I+5OIIxCII)1(C
1+CII)。
Judging from FIG. 9, the value CI=5 of the membership function when the label is "small" for C=3, and similarly from FIG. 15, the label is "large". Considering the membership function value CII=1 when
1+CII).

の計算式から、S O=0.35となる。From the calculation formula, SO=0.35.

この数値に応じて、中央制御装置35に出力信号を出し
、操舵制御弁34の電磁ソレノイドを作動させ、ステア
リング機構におけるステアリングアーム24の回動角度
を変える油圧シリンダ26を駆動させて修正操舵し、所
定の作物列の側方において、当該作物列に沿って並行状
に走行機体1が前進する自動操舵制御を実行するのであ
る。この場合、ステアリングアーム24の回動角度を検
出するポテンショメータ36にて前車輪3が既に進行方
向に対して右または左に傾く操舵角度を有しているか否
かの判断を実行して、作物列と並行状態に進行する収束
制御に役立てることができる。
In accordance with this value, an output signal is sent to the central control device 35, the electromagnetic solenoid of the steering control valve 34 is activated, and the hydraulic cylinder 26 that changes the rotation angle of the steering arm 24 in the steering mechanism is driven to perform corrective steering, On the side of a predetermined row of crops, automatic steering control is executed in which the traveling machine 1 moves forward in parallel along the row of crops. In this case, the potentiometer 36 that detects the rotation angle of the steering arm 24 determines whether or not the front wheels 3 already have a steering angle that tilts to the right or left with respect to the direction of travel. This can be useful for convergence control that progresses to a parallel state.

このように構成すると、広い範囲の植付は作物個所を一
度に検出して画像処理するために、演算速度等が遅くな
り、前記演算結果から操舵制御までの時間が掛かり過ぎ
るというエリアセンサーに欠点を、検出及びその画像処
理の演算時間の短いラインセンザーの採用により解消す
ることができ、正確、且つ迅速な自動操舵制御が可能と
なるという効果を有するのである。
With this configuration, when planting in a wide area, the area sensor has the disadvantage that the calculation speed is slow because it detects the crop area at once and processes the image, and it takes too much time to control the steering from the calculation result. This problem can be solved by using a line sensor that requires a short calculation time for detection and image processing, and has the effect of enabling accurate and quick automatic steering control.

【図面の簡単な説明】[Brief explanation of the drawing]

図面の本発明の実施例を示し、第1図は乗用型田植機の
平面図、第2図は側面図、第3図は操向装置の要部平面
図、第4図は操舵・走行自動制御装置のブロック図と油
圧回路を含む作用説明図、第5図はエリアセンサーによ
る撮像画面の図、第6図の(a)、  (b)、  (
C,)は各々ラインセンザーによる撮像画面の図、第7
−a図及び第7−b図は各々フローチャー1へ、第8図
は制御のタイムチャート、第9図と第15図とはカウン
タCのメンバーシップ関数を示す図、第10−a図と第
10−b図と第1 Q−0図はファジィ制御規則[相]
の場合のメンバーシップ関数の図、第11−a図と第1
1−b図と第11−0図はファジィ制御規則Oの場合の
メンバーシップ関数の図、第12−a図と第12−b図
と第12−0図はファジィ制御規則■の場合のメンバー
シップ関数の図、第13−a図と第13−b図と第13
−0図はファジィ制御規則Oの場合のメンバーシップ関
数の図、第14図は操舵操作指示量Solの決定方法を
示す説明図、第16−a図と第16−b図と第16−0
図はファジィ制御規則■の場合のメンバーシップ関数の
図、第17−a図と第17−b図と第17−0図はファ
ジィ制御規則■の場合のメンバーシップ関数の図、第1
8−a図と第18−b図と第18−0図はファジィ制御
規則■の場合のメンバーシップ関数の図、第19−a図
と第19−b図と第19−0図はファジィ制御規則■の
場合のメンバーシップ関数の図、第20図は操舵操作詣
示量sonの決定方法を示す説明図である。 1・・・・走行機体、2・・・・フレーム、3.4・・
・・車輪、5・・・・苗載台、6 ・・・植(」機構、
7・・・・苗植装置、8・・・・リンク機構、9・・・
エンジン、11・・・・ミンションケース、17・・・
・ステアリングギヤボックス、20・・・・操縦ハン1
ル、NΔE・・・・植イ」り苗箇所、K・・・・仮想線
、23・・・・回動支点軸、24・・・・ステアリング
アーム、26・・・・油圧シリング、34・・・・操舵
制御弁、35・・・・中央制御装置、36・・・・ポテ
ンショメータ、37・・・・作物列検山装置、39・・
・・エリアセンサー、40・・・・ラインセンザー、4
5.46・・・・画像処理部、47.48.50・・・
・演算部。 特 許 出 願 人  ヤンマー農機株式会社代 理 
人   弁理士 方弁 暁夫
The drawings show an embodiment of the present invention, in which Fig. 1 is a plan view of a riding rice transplanter, Fig. 2 is a side view, Fig. 3 is a plan view of main parts of the steering device, and Fig. 4 is a steering/traveling automatic machine. A block diagram of the control device and an action explanatory diagram including the hydraulic circuit, Figure 5 is a diagram of the image capture screen by the area sensor, Figures 6 (a), (b), (
C,) are diagrams of the image capture screen by the line sensor, respectively.
Figures -a and 7-b are for flowchart 1, Figure 8 is a control time chart, Figures 9 and 15 are diagrams showing the membership function of counter C, and Figures 10-a and 15 are diagrams showing the membership function of counter C. Figure 10-b and Figure 1 Q-0 are fuzzy control rules [phase]
Diagrams of membership functions in the case of , Figures 11-a and 1
Figures 1-b and 11-0 are membership function diagrams for fuzzy control rule O, and Figures 12-a, 12-b, and 12-0 are membership functions for fuzzy control rule ■. Ship function diagrams, Figures 13-a, 13-b, and 13
-0 is a diagram of the membership function in the case of fuzzy control rule O, FIG. 14 is an explanatory diagram showing the method for determining the steering operation instruction amount Sol, and FIGS. 16-a, 16-b, and 16-0.
The figure is a diagram of the membership function in the case of the fuzzy control rule ■. Figures 17-a, 17-b, and 17-0 are diagrams of the membership function in the case of the fuzzy control rule ■.
Figures 8-a, 18-b, and 18-0 are membership function diagrams for fuzzy control rule ■, and Figures 19-a, 19-b, and 19-0 are for fuzzy control. FIG. 20, which is a diagram of the membership function in the case of rule (2), is an explanatory diagram showing a method for determining the steering operation input amount son. 1... Traveling body, 2... Frame, 3.4...
... Wheels, 5 ... Seedling stand, 6 ... Planting mechanism,
7...Seedling planting device, 8...Link mechanism, 9...
Engine, 11...Minsion case, 17...
・Steering gear box, 20... steering hand 1
NΔE...Seedling location, K...Virtual line, 23...Rotation fulcrum axis, 24...Steering arm, 26...Hydraulic cylinder, 34... ... Steering control valve, 35... Central control device, 36... Potentiometer, 37... Crop row inspection device, 39...
... Area sensor, 40 ... Line sensor, 4
5.46... Image processing section, 47.48.50...
- Arithmetic section. Patent applicant Yanmar Agricultural Machinery Co., Ltd. Agent
People Patent Attorney Akio Hoben

Claims (1)

【特許請求の範囲】[Claims] (1).圃場内に既に植付けられた作物列に沿ってその
側方で略並行状に走行するように田植機等の農作業機を
自動操舵する装置において、前記植付け作物個所を機体
進行方向左右長手に走査して撮像するラインセンサーと
、作物列を二次元的に走査して撮像するエリアセンサー
とにより構成し、エリアセンサーによる撮像範囲をライ
ンセンサーによる撮像範囲より前方になるように構成し
、前記ラインセンサーにて得られた画像情報とエリアセ
ンサーにて得られた画像情報との両者を略同時にデータ
処理し、ラインセンサーによるデータにエリアセンサー
からのデータを参入させ、これらのデータから操舵出力
信号を得て自動操舵制御するように構成したことを特徴
とする農作業機における自動操舵制御装置。
(1). In a device that automatically steers an agricultural machine such as a rice transplanter so that it runs approximately parallel to rows of crops that have already been planted in a field, the machine scans the area of the planted crops in the left and right longitudinal directions in the direction of movement of the machine. The sensor is configured to include a line sensor that captures an image by scanning a row of crops two-dimensionally, and an area sensor that captures an image by two-dimensionally scanning a row of crops. The image information obtained from the line sensor and the image information obtained from the area sensor are both processed almost simultaneously, the data from the area sensor is added to the data from the line sensor, and a steering output signal is obtained from these data. An automatic steering control device for an agricultural machine, characterized in that it is configured to perform automatic steering control.
JP63105784A 1988-04-28 1988-04-28 Automatic steering controller in agricultural working machine Pending JPH01277408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63105784A JPH01277408A (en) 1988-04-28 1988-04-28 Automatic steering controller in agricultural working machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63105784A JPH01277408A (en) 1988-04-28 1988-04-28 Automatic steering controller in agricultural working machine

Publications (1)

Publication Number Publication Date
JPH01277408A true JPH01277408A (en) 1989-11-07

Family

ID=14416768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63105784A Pending JPH01277408A (en) 1988-04-28 1988-04-28 Automatic steering controller in agricultural working machine

Country Status (1)

Country Link
JP (1) JPH01277408A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102422744A (en) * 2011-10-12 2012-04-25 无锡同春新能源科技有限公司 Intelligent transplanter having wind generator system for supplying power to image sensor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102422744A (en) * 2011-10-12 2012-04-25 无锡同春新能源科技有限公司 Intelligent transplanter having wind generator system for supplying power to image sensor

Similar Documents

Publication Publication Date Title
JP7069001B2 (en) Field work vehicle
JPH01277408A (en) Automatic steering controller in agricultural working machine
JP2944774B2 (en) Image processing method for automatic traveling work machine
JP2583583B2 (en) Automatic rudder control device for agricultural work machine
JP2815760B2 (en) Crop row detector
JPH0312713A (en) Image processor for automatic steering controller of farming machine
JP2710644B2 (en) Automatic steering control device for agricultural work machine
JP2583584B2 (en) Automatic steering control device for agricultural work machine
JP2667462B2 (en) Automatic steering control device for agricultural work machine
JPH0257109A (en) Automatic steering control apparatus of farm working machine
JPH01211412A (en) Automatic steering apparatus of farm working machine
JPH01211410A (en) Crop row detection apparatus of farm working machine
JPH01187012A (en) Automatic steering controller in agricultural machine
JPH01187013A (en) Automatic steering controller in agricultural machine
JPH03272607A (en) Crop row detection apparatus of farm working machine
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JPH01211408A (en) Apparatus for detecting row of crop in farm working machine
JPH0276507A (en) Automatic steering control device for farm-working machine
JPH01187011A (en) Row detector of transplanted seedlings in agricultural machine
JPH01211411A (en) Crop row detection apparatus of farm working machine
JP2593165B2 (en) Automatic steering detection device for agricultural work machine
CN104567872A (en) Extraction method and system of agricultural implements leading line
JPH02156806A (en) Controller for automatic steering in agricultural working machine
JP2944773B2 (en) Image processing method for automatic traveling work machine
JP2649908B2 (en) Noise eliminator for autopilot of transplanter