JPH01231809A - Photographing type travel control device for automatic travel working car - Google Patents

Photographing type travel control device for automatic travel working car

Info

Publication number
JPH01231809A
JPH01231809A JP63057665A JP5766588A JPH01231809A JP H01231809 A JPH01231809 A JP H01231809A JP 63057665 A JP63057665 A JP 63057665A JP 5766588 A JP5766588 A JP 5766588A JP H01231809 A JPH01231809 A JP H01231809A
Authority
JP
Japan
Prior art keywords
boundary
vehicle speed
vehicle
processing time
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63057665A
Other languages
Japanese (ja)
Inventor
Kazuo Nagahama
長濱 和男
Katsumi Ito
勝美 伊藤
Yasuo Fujii
保生 藤井
Masahiko Hayashi
正彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP63057665A priority Critical patent/JPH01231809A/en
Publication of JPH01231809A publication Critical patent/JPH01231809A/en
Pending legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Harvester Elements (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To carry out proper steering control even where treating time necessary in boundary detection is greatly changed by providing an aimed car speed controlling means with which the car speed becomes smaller as treating time becomes longer due to detected information of treating time measuring. CONSTITUTION:Photographing information of image sensors Sa and Sb are image processed, each position information of first boundary L1 and second boundary L2 are detected and traveling car body V is controlled with a controlling device in accordance with the boundary position informations. The controlling device has a treating time measuring means measuring treating time 't' necessary for boundary detection by the boundary detecting means repeatedly detects boundary L1 and the aimed car speed controlling means automatically changes and controls the planned car speed in accordance with the detected informations of the treating time measuring means.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、走行前方側の車体横幅方向での未処理作業地
と処理済作業地との境界に対応する箇所を、二次元方向
に亘って撮像する撮像手段と、その撮像手段の撮像情報
に基づいて前記境界を繰り返し検出する境界検出手段と
、その境界検出手段の検出情報に基づいて、車体を検出
された境界に対する設定適正状態に自動走行させるため
の目標操向角を設定する目標操向角設定手段と、その目
標操向角設定手段にて設定された目標操向角に操向操作
する操向操作手段と、前記車体が設定目標車速で走行す
るように、前記車体の車速を自動調節する車速制御手段
とが設けられている自動走行作業車の撮像式走行制御装
置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention is directed to two-dimensionally extending a portion corresponding to the boundary between an untreated work area and a treated work area in the width direction of the vehicle body on the front side of the vehicle. an imaging means for taking an image, a boundary detection means for repeatedly detecting the boundary based on the imaging information of the imaging means, and a boundary detection means that automatically sets the vehicle body to an appropriate state for the detected boundary based on the detection information of the boundary detection means. a target steering angle setting means for setting a target steering angle for driving; a steering operation means for steering the vehicle to the target steering angle set by the target steering angle setting means; The present invention relates to an imaging type travel control device for an automatic traveling work vehicle, which is provided with vehicle speed control means for automatically adjusting the vehicle speed of the vehicle body so that the vehicle travels at a target vehicle speed.

〔従来の技術〕[Conventional technology]

上記この種の自動走行作業車の撮像式走行制御装置は、
未処理作業地と処理済作業地との明るさが異なることを
利用して、走行前方側を二次元方向に亘って撮像した撮
像情報に基づいて未処理作業地と処理済作業地との境界
を検出し、そして、車体が検出された境界に沿って自動
走行するように、操向制御するように構成されたもので
ある。
The imaging type travel control device for this type of autonomous work vehicle mentioned above is:
Taking advantage of the difference in brightness between the untreated work area and the treated work area, the boundary between the untreated work area and the treated work area is determined based on image information obtained by imaging the front side of the vehicle in two-dimensional directions. The system is configured to detect this and control the steering so that the vehicle automatically travels along the detected boundary.

但し、時間のかかる画像処理を利用して境界を検出する
ように構成されていることから、境界は間歇的に検出さ
れるものとなる。
However, since boundaries are detected using time-consuming image processing, boundaries are detected intermittently.

従って、操向制御における目標操向角は、車体が次に境
界を検出する地点に走行する間に、車体が前回の処理に
て検出された境界に対して適正通りに追従する状態とな
るように、境界検出のサンプリング間隔に応じた値に設
定する必要がある。
Therefore, the target steering angle in steering control is set so that the vehicle body properly follows the boundary detected in the previous process while traveling to the next boundary detection point. It is necessary to set the value according to the sampling interval of boundary detection.

ところで、未処理作業地と処理済作業地との明るさの差
に基づいて境界を検出する場合、例えば、隣接画素に対
する明るさの差が設定閾値より大なる画素を抽出して、
その抽出された画素を結ぶ直線を求め、その直線の情報
を境界に対応する情報として検出することになるが、撮
像情報から明るさの差の大小に応じて抽出される画素数
、つまり、処理すべき画像情報の情報量が、作業地の状
態に応じて変動することになる。その結果、境界検出に
要する処理時間が、作業地ごとの差異等により、変動す
ることになる。
By the way, when detecting a boundary based on the difference in brightness between an unprocessed work area and a processed work area, for example, by extracting a pixel for which the difference in brightness between adjacent pixels is larger than a set threshold value,
A straight line connecting the extracted pixels is found, and the information on that straight line is detected as information corresponding to the boundary. The amount of image information to be provided will vary depending on the conditions of the work site. As a result, the processing time required for boundary detection will vary due to differences between work sites.

従来では、境界検出のサンプリング間隔つまり境界検出
に要する処理時間を、例えば標準的な作業地での処理時
間に見做す等、一定1直に設定し、そして、車体を一定
の目標速度で走行させることを条件として、検出された
境界に対する目標操向角を決めて、操向制御するように
していた。
Conventionally, the sampling interval for boundary detection, that is, the processing time required for boundary detection, is set to a constant 1 shift, for example, considering the processing time in a standard work area, and the vehicle is run at a constant target speed. With this condition, a target steering angle with respect to the detected boundary was determined and the steering was controlled.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

境界検出に要する処理時間は、作業地ごとの差異等によ
り、大きく変動することがあり、その結果、適正な操向
制御を行えない虞れがあった。
The processing time required for boundary detection may vary greatly due to differences between work sites, etc., and as a result, there is a risk that appropriate steering control may not be performed.

説明を加えれば、境界検出に要する処理時間が設定時間
よりも短い場合には、特に問題は無いものの、処理時間
が設定時間よりも長い場合には、次の境界検出までに走
行する距離が長くなって過制御となり、車体を境界に対
して所望通り追従させることができなくなる虞れがあっ
た。
To explain, if the processing time required for boundary detection is shorter than the set time, there is no particular problem, but if the processing time is longer than the set time, the distance traveled until the next boundary detection is longer. As a result, there is a risk that the vehicle body will not be able to follow the boundary as desired due to over-control.

本発明は、上記実情に鑑みてなされたものであって、そ
の目的は、境界検出に要する処理時間が大きく変動して
も、適正な操向制御を行えるようにする点にある。
The present invention has been made in view of the above-mentioned circumstances, and its purpose is to enable appropriate steering control even if the processing time required for boundary detection varies greatly.

〔課題を解決するための手段〕[Means to solve the problem]

本発明による自動走行作業車の撮像式走行制御装置の第
1の特徴構成は、前記境界検出手段の境界検出に要する
処理時間を計測する処理時間計測手段が設けられ、前記
境界が設定距離走行する毎に検出されるように、前記処
理時間計測手段の検出情報に基づいて、前記処理時間が
大なるほど前記車速が小となるように、前記設定目標車
速を自動的に変更調節する目標車速調節手段が設けられ
ている点にある。
A first characteristic configuration of the imaging-type travel control device for an automatic traveling work vehicle according to the present invention is that processing time measuring means is provided for measuring the processing time required for boundary detection by the boundary detecting means, and the boundary travels a set distance. Target vehicle speed adjusting means automatically changes and adjusts the set target vehicle speed so that the vehicle speed decreases as the processing time increases, based on the detection information of the processing time measuring means, as detected at each time. It is in that it is provided.

又、第2の特徴構成は、以下の通りである。Further, the second characteristic configuration is as follows.

すなわち、前記目標車速調節手段は、前記処理時間が設
定値よりも小の場合には、前記目標車速を予め設定され
た基準車速に設定するように構成されている点にある。
That is, the target vehicle speed adjusting means is configured to set the target vehicle speed to a preset reference vehicle speed when the processing time is smaller than a set value.

〔作 用〕[For production]

第1の特徴構成では、境界検出に要する処理時間は、1
つの作業地等、ある作業範囲では大きく変動しない点を
利用して、境界検出に要する処理時間を計測して、処理
時間が大なるほど車速が小となるように、処理時間に応
じて目標車速を変更調節させることにより、境界検出が
設定距離を車体が走行する毎に行われるようにするので
ある。
In the first characteristic configuration, the processing time required for boundary detection is 1
The processing time required for boundary detection is measured by taking advantage of points that do not vary greatly within a certain work area, such as a work area, and the target vehicle speed is set according to the processing time so that the longer the processing time, the lower the vehicle speed. By making the changes and adjustments, boundary detection is performed every time the vehicle travels the set distance.

ところで、処理時間が非常に短くなる場合は、画像処理
の対象となる境界に対応する画像情報量が少ない状態で
あり、その場合、検出情報の信頼性は低下することにな
る。
By the way, if the processing time becomes very short, the amount of image information corresponding to the boundary to be image processed is small, and in this case, the reliability of the detected information will decrease.

従って、処理時間が非常に短くなって、境界を誤検出し
ている虞れがあるにも拘らず、処理時間に応じて車速を
大幅に増大すると、境界を免税する虞れがある。
Therefore, if the vehicle speed is significantly increased in accordance with the processing time, there is a risk that the border will be exempted, even though the processing time is very short and there is a risk of erroneously detecting the border.

そこで、第2の特徴構成では、計測した処理時間が設定
値よりも小の場合には、目標車速を予め設定された基準
車速に設定することにより、次の境界検出を行う時点ま
でに走行する距離を制限して、結果的に、短い距離間隔
で繰り返し境界を検出させるのである。尚、前記基準車
速は、種々の値に設定できるものである。
Therefore, in the second characteristic configuration, if the measured processing time is smaller than the set value, the target vehicle speed is set to a preset reference vehicle speed, so that the vehicle starts traveling by the time when the next boundary detection is performed. The distance is limited, resulting in repeatedly detecting boundaries at short distance intervals. Note that the reference vehicle speed can be set to various values.

〔発明の効果〕〔Effect of the invention〕

従って、第1の特徴構成では、境界検出に要する処理時
間が変動しても、境界検出が設定距離を車体が走行する
毎に繰り返し行われるようになるから、境界に対する追
従性を向上できる。
Therefore, in the first characteristic configuration, even if the processing time required for boundary detection varies, boundary detection is repeatedly performed every time the vehicle travels a set distance, so that the ability to follow the boundary can be improved.

又、第2の特徴構成では、上記請求項1の利点を得ると
共に、境界検出を誤る虞れがあるような処理時間が設定
値よりも短い場合には、車速を基準車速に制限して、境
界からの免税を防止させながら、走行させることができ
る。
Further, in the second characteristic configuration, while obtaining the advantage of the above-mentioned claim 1, if the processing time is shorter than the set value such that there is a risk of erroneous boundary detection, the vehicle speed is limited to the reference vehicle speed, It is possible to run the vehicle while preventing tax exemption from the border.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.

第4図に示すように、周囲を処理済作業地としての既刈
地(C)で囲まれた四角状の未処理作業地としての未刈
地(B)が形成され、その未刈地(B)の−辺から対辺
に至る部分が一つの作業行程として設定され、そして、
その一つの作業行程に隣接する未刈地(B)側に、後述
の芝刈り用の作業車の作業幅に対応した間隔で互いに平
行する複数個の作業行程が設定されている。
As shown in Fig. 4, a rectangular unmown land (B) as an untreated work area is formed surrounded by a cut land (C) as a treated work area, and the unmown land ( The part from the - side to the opposite side of B) is set as one work process, and,
On the side of the unmowed land (B) adjacent to one working stroke, a plurality of parallel working strokes are set at intervals corresponding to the working width of a working vehicle for mowing lawns, which will be described later.

そして、第4図及び第5図に示すように、各作業行程で
は、車体横幅方向での前記未刈地(B)と前記既刈地(
C)との境界(いとしての第1境界(L1)が、車体(
V)の左右何れの側に位置する状態でも、その第1境界
(L1)を撮像できるように、走行前方側の前記第1境
界化0)に対応する箇所を二次元方向に亘って撮像する
撮像手段としてのイメージセンサ(S1)が、前記車体
(V)の前部の左右夫々に設けられている。
As shown in FIGS. 4 and 5, in each work process, the uncut land (B) and the cut land (B) in the width direction of the vehicle body are
The first boundary (L1) with the vehicle body (
In order to be able to image the first boundary (L1) regardless of whether the vehicle is located on the left or right side of V), images are taken in two-dimensional directions of the location corresponding to the first boundary 0) on the forward side of the vehicle. Image sensors (S1) serving as imaging means are provided on the left and right sides of the front portion of the vehicle body (V), respectively.

つまり、前記車体(V) は、各作業行程では、車体横
幅方向での未刈地(B)と既刈地(C)との第1境界化
0)に沿って自動走行するように、前記第1境界(L0
)側に位置する前記イメージセンサ(S+)の撮像情報
に基づいて検出される前記第1境界(し0)の位置情報
に基づいて操向制御されることになり、そして、前記第
1境界(L0)側に位置しない前記イメージセンサ(S
+)の撮像情報に基づいて検出される車体前後方向での
未刈地(B)と既刈地(C)  との第2境界(L2)
の位置情報に基づいて、一つの作業行程の終端部となる
前記未刈地(B)の対辺に達するに伴って、その作業行
程に隣接する次の作業行程の始端部に向けて自動的に1
80度ターンすることになる。
In other words, in each work process, the vehicle body (V) automatically travels along the first boundary (0) between the uncut land (B) and the mowed land (C) in the width direction of the vehicle body. The first boundary (L0
) The steering is controlled based on the positional information of the first boundary (S0) detected based on the imaging information of the image sensor (S+) located on the side of The image sensor (S
+) Second boundary (L2) between unmown land (B) and mowed land (C) in the longitudinal direction of the vehicle body detected based on the imaging information of
Based on the positional information of 1
It will be an 80 degree turn.

そして、前記既刈地(C)に隣接した未刈地(B)を、
その−辺から対辺に至る区間を往復走行することを繰り
返させることにより、いわゆる往復刈り形式で所定範囲
の芝刈り作業を自動的に行わせることになる。
Then, the uncut land (B) adjacent to the cut land (C) is
By repeatedly traveling back and forth in the section from the negative side to the opposite side, lawn mowing work in a predetermined range can be automatically performed in a so-called reciprocating mode.

尚、第5図中、(1)は前輪、(2)は後輪、(3)は
モーアである。
In Fig. 5, (1) is the front wheel, (2) is the rear wheel, and (3) is the mower.

ところで、後述の如く、前記前輪(1)及び前記後輪(
2)は、その何れもが操向輪としても駆動輪としても機
能するように、いわゆる4輪ステアリング形式で且つ4
輪駆動式に構成されている。
By the way, as described later, the front wheel (1) and the rear wheel (
2) is a so-called 4-wheel steering type so that each wheel functions as both a steering wheel and a driving wheel.
It is configured as a wheel drive type.

又、前記各作業行程では、前記前輪(1)のみを操向す
る2輪ステアリング形式を用いて走行させると共に、次
の作業行程に向けてターンさせる時には、前記前後輪(
1)、 (2)を逆位相で操向する4輪ステアリング形
式を用いて走行させるようにしである。
In addition, in each of the work steps, the vehicle is driven using a two-wheel steering system in which only the front wheels (1) are steered, and when turning for the next work step, the front and rear wheels (1) are operated.
1) and (2) are operated using a four-wheel steering system in which the wheels are steered in opposite phases.

前記イメージセンサ(S0)の撮像視野(A)について
説明すれば、第6図に示すように、前記車体(V)が、
前記第1境界(L1)に対して適正状態に沿っている状
態において、前記第1境界(L1)が、前記イメージセ
ンサ(S1)の地表面における撮像視野(A)の横幅方
向中央を、車体進行方向に沿う方向に向けて通る基準線
(La)に一致する状態となるように設定しである。
To explain the imaging field of view (A) of the image sensor (S0), as shown in FIG. 6, the vehicle body (V)
In a state in which the first boundary (L1) is properly aligned with the first boundary (L1), the first boundary (L1) extends the widthwise center of the imaging field of view (A) on the ground surface of the image sensor (S1) to the vehicle body. It is set so that it coincides with a reference line (La) passing along the direction of travel.

尚、前記第1境界(L1)は、前記作業車が走行する往
路と復路とで、前記車体(V)の左側に位置する状態と
、右側に位置する状態とに切り換わることになる。
Note that the first boundary (L1) switches between being located on the left side of the vehicle body (V) and being located on the right side of the vehicle body (V) during the outbound and return trips of the work vehicle.

従って、前記車体(V)がターンして走行方向が180
度反転する毎に、前記第1境界(L0)を撮像するため
に使用する前記イメージセンサ(s1)を、左右に切り
換えることになる。
Therefore, the vehicle body (V) turns and the running direction is 180 degrees.
Each time the image sensor is inverted, the image sensor (s1) used to image the first boundary (L0) is switched to the left or right.

そして、非使用側となるイメージセンサ(S+)を利用
して、前記第2境界(L2)を検出させるようにしであ
る。
Then, the second boundary (L2) is detected using the image sensor (S+) on the unused side.

尚、以下の説明において、前記第1境界(L1)を撮像
する状態にある側のイメージセンサを第1イメージセン
サ(Sa)と呼称し、前記第2境界(L2)を撮像する
イメージセンサを第2イメージセンサ(Sb)と呼称す
る。
In the following description, the image sensor that is in the state of capturing the first boundary (L1) will be referred to as the first image sensor (Sa), and the image sensor that is in the state of capturing the second boundary (L2) will be referred to as the first image sensor. 2 image sensor (Sb).

但し、図中では、便宜上、右側のイメージセンサを前記
第1イメージセンサ(Sa)として表記すると共に、左
側のイメージセンサを前記第2イメージセンサ(Sb)
として表記しであるが、これら第1イメージセンサ(S
a)と第2イメージセンサ(Sb)とは、前記車体(V
)がターンする毎に入れ換わることになる。
However, in the figure, for convenience, the image sensor on the right side is expressed as the first image sensor (Sa), and the image sensor on the left side is expressed as the second image sensor (Sb).
These first image sensors (S
a) and the second image sensor (Sb) are the vehicle body (V
) will be replaced every turn.

前記車体(V)を自動走行させるための制御構成につい
て説明すれば、第1図に示すように、前記第1、第2の
両イメージセンサ(Sa)、 (Sb)の撮像情報を画
像処理して、前記第1境界(し0)及び前記第2境界(
L2)夫々の位置情報を検出すると共に、検出された境
界位置情報に基づいて、前記車体(V)の走行を制御す
るマイクロコンピュータ利用の制御装置(10)が設け
られている。
To explain the control configuration for automatically driving the vehicle body (V), as shown in FIG. , the first boundary (shi0) and the second boundary (
L2) A control device (10) using a microcomputer is provided, which detects the respective position information and controls the traveling of the vehicle body (V) based on the detected boundary position information.

つまり、前記制御装置(10)を利用して、撮像手段と
しての前記イメージセンサ(S1)の撮像情報に基づい
て車体横幅方向での未処理作業地と処理済作業地との境
界(L) としての前記第1境界(L0)を繰り返し検
出する境界検出手段(100)、その境界検出手段(1
00)の検出情報に基づいて前記車体(V)を検出され
た第1境界(L1)に対する設定適正状態に自動走行さ
せるための目標操向角(θ[)を設定する目標操向角設
定手段(lot)、操向輪としての前記前輪(1)を前
記目標操向角(θf)に操向操作する操向操作手段(1
02)、前記車体(V)が設定目標車速(V1)で走行
するように、前記車体(V)の車速(V)を自動調節す
る車速制御手段(103)、前記境界検出手&(100
)の境界検出に要する処理時間(1)を計測する処理時
間計測手段(104)、及び、その処理時間計測手段(
104)の検出情報に基づいて前記設定目標車速(V1
)を自動的に変更調節する目標車速調節手段(105)
の夫々が構成されることになる。
That is, by using the control device (10), the boundary (L) between the untreated work area and the treated work area in the width direction of the vehicle body is determined based on the imaging information of the image sensor (S1) as an imaging means. a boundary detection means (100) for repeatedly detecting the first boundary (L0);
Target steering angle setting means for setting a target steering angle (θ[) for automatically driving the vehicle body (V) in a setting appropriate state with respect to the detected first boundary (L1) based on the detection information of 00). (lot), steering operation means (1) for steering the front wheel (1) as a steering wheel to the target steering angle (θf).
02), a vehicle speed control means (103) that automatically adjusts the vehicle speed (V) of the vehicle body (V) so that the vehicle body (V) runs at a set target vehicle speed (V1), the boundary detection hand &(100);
); a processing time measuring means (104) for measuring the processing time (1) required for boundary detection;
104), the set target vehicle speed (V1
) for automatically changing and adjusting the target vehicle speed (105)
Each of these will be configured.

尚、第1図中、(4)は前記前輪(1)の操向用油圧シ
リンダ、(5)は前記後輪(2)の操向用油圧シリンダ
、(6)はエンジン(E)の出力を変速して前記前後輪
(1)、 (2)を駆動する油圧式無段変速装置であっ
て、前後進切り換え自在で且つ前後進ともに変速自在に
構成されている。(7)は変速用モータ、(8)は前記
前輪用油圧シリンダ(4)の制御弁、(9)は前記後輪
用油圧シリンダ(5)の制御弁、(S2)は前記変速装
置(6)の出力回転数に基づいて前記車体(V)の走行
距離を検出するための距離センサ、(R1)は前輪用の
操向角検出用ポテンショメータ、(R2)は後輪用の操
向角検出用ポテンショメータ、(R3)は前記変速装置
(6)の操作状態に基づいて車速(V)を間接的に検出
する車速検出用ポテンショメータである。
In Fig. 1, (4) is the hydraulic cylinder for steering the front wheels (1), (5) is the hydraulic cylinder for steering the rear wheels (2), and (6) is the output of the engine (E). This is a hydraulic continuously variable transmission device that drives the front and rear wheels (1) and (2) by changing the speed of the vehicle. (7) is a speed change motor, (8) is a control valve for the front wheel hydraulic cylinder (4), (9) is a control valve for the rear wheel hydraulic cylinder (5), and (S2) is a control valve for the front wheel hydraulic cylinder (5). ) is a distance sensor for detecting the travel distance of the vehicle body (V) based on the output rotation speed of the vehicle body (V), (R1) is a potentiometer for detecting the steering angle for the front wheels, and (R2) is a steering angle detection for the rear wheels. The potentiometer (R3) is a vehicle speed detection potentiometer that indirectly detects the vehicle speed (V) based on the operating state of the transmission (6).

以下、前記制御装置(10)の動作について詳述する。The operation of the control device (10) will be described in detail below.

先ず、第3図に示すフローチャートに基づいて、前記第
1境界(L1)を検出するための境界検出処理について
詳述する。
First, the boundary detection process for detecting the first boundary (L1) will be described in detail based on the flowchart shown in FIG.

但し、以下に説明する境界検出は、前記既刈地(C)が
前記未刈地(B)よりも明るく見えることから、前記第
1境界(L1)又は前記第2境界(L2)に対応する部
分での前記既刈地(C)と未刈地(B)との明るさの差
が、前記既刈地(C)内や前記未刈地(B)内における
明るさの差よりも大きくなることを利用して行われるよ
うに構成されている。
However, in the boundary detection described below, since the mowed land (C) appears brighter than the uncut land (B), it corresponds to the first boundary (L1) or the second boundary (L2). The difference in brightness between the mowed land (C) and the unmown land (B) in a part is larger than the difference in brightness within the mowed land (C) and the unmown land (B). It is designed to take advantage of the following:

又、前記第2境界(L2)は前記第1境界(L1)に対
して交差する方向となる以外は、前記未刈地(B)と既
刈地(C)との同じ境界であり、この第1境界(L1)
を検出するため処理を利用して、後述の如く、前記第2
境界(L2)の位置情報をも検出することになる。
Further, the second boundary (L2) is the same boundary between the uncut land (B) and the cut land (C) except that it crosses the first boundary (L1), and this First boundary (L1)
As described below, the second
Position information of the boundary (L2) will also be detected.

すなわち、前記車体(V)が設定距離を走行する毎に、
前記イメージセンサ(St)からの撮像情報が、前記制
御装置(10)に人力されて、二次元方向に並ぶ各画素
夫々の明るさが設定段階に量子化された濃度値に変換さ
れると共に、各画素の周囲に隣接する8近傍画素夫々の
濃度値に基づいて、二次元方向に並ぶ各画素夫々の微分
値が求められる。
That is, each time the vehicle body (V) travels a set distance,
Imaging information from the image sensor (St) is manually input to the control device (10), and the brightness of each pixel aligned in a two-dimensional direction is converted into a density value that is quantized in a setting step, The differential value of each pixel arranged in the two-dimensional direction is calculated based on the density value of each of the eight neighboring pixels adjacent to each pixel.

但し、前記第1境界(L0)の位置を検出する場合には
、前記第1境界(L0)は車体横幅方向での未刈地(B
)と既刈地(C)との境界であることから、車体横幅方
向に沿う方向となるX軸方向での微分値を求めることに
なり、前記第2境界(L2)の位置を検出する場合には
、車体前後方向に沿う方向となるy軸方向での微分値を
求めることになる。
However, when detecting the position of the first boundary (L0), the first boundary (L0) is an uncut area (B) in the width direction of the vehicle body.
) and the mown field (C), the differential value in the X-axis direction, which is the direction along the width direction of the vehicle body, is calculated, and when detecting the position of the second boundary (L2). In this case, the differential value in the y-axis direction, which is the direction along the longitudinal direction of the vehicle body, is calculated.

そして、求められた各画素の微分値が設定闇値よりも大
となる画素を抽出して、前記画像情報を2値化すること
になる。
Then, pixels for which the obtained differential value of each pixel is larger than the set darkness value are extracted, and the image information is binarized.

2値化処理によって明るさ変化が大なる画素を抽出した
後は、ハフ変換を利用して、抽出された画素を通り、且
つ、複数段階に設定された傾きとなる複数本の直線を求
め、その複数本の直線のうちで最大頻度となる一つの直
線を、前記第1境界(L1)又は前記第2境界(L2)
に対応する直線として抽出することになる。
After extracting pixels with large brightness changes through binarization processing, use Hough transform to find multiple straight lines that pass through the extracted pixels and have slopes set in multiple stages. Among the plurality of straight lines, one of the straight lines with the highest frequency is selected as the first boundary (L1) or the second boundary (L2).
It will be extracted as a straight line corresponding to .

説明を加えれば、ハフ変換においては、前記撮像視野(
A)の中心を通るX軸を極座標系における基準線として
、抽出された画素を通る複数本の直線を、下記(i)式
に基づいて、前記X軸に対して0度〜180度の範囲に
おいて予め複数段階に設定された傾き(θ)と、原点つ
まり画面中央からの距離(ρ)との組み合わせとして求
めることになる(第8図参照)。
To explain, in the Hough transform, the imaging field of view (
Using the X-axis passing through the center of A) as the reference line in the polar coordinate system, draw multiple straight lines passing through the extracted pixels in a range of 0 degrees to 180 degrees with respect to the X-axis based on the following formula (i). It is determined as a combination of the inclination (θ) set in advance in multiple stages and the distance (ρ) from the origin, that is, the center of the screen (see FIG. 8).

p ” x ’cosθ+y 0sinθ −−−−−
−(i )そして、一つの画素について、前記複数段階
に設定された傾き(θ)の値が180度に達するまで、
求めた各直線の頻度を計数するための二次元ヒストグラ
ムを加算する処理を繰り返した後、抽出された全画素を
通る複数種の直線の頻度を、各抽出画素毎に計数するこ
とになる。
p ” x ' cos θ + y 0 sin θ ------
-(i) Then, for one pixel, until the value of the slope (θ) set in the plurality of stages reaches 180 degrees,
After repeating the process of adding two-dimensional histograms to count the frequency of each straight line, the frequency of multiple types of straight lines passing through all the extracted pixels is counted for each extracted pixel.

全抽出画素に対する直線の頻度の計数が完了した後は、
前記二次元ヒストグラムに加算された値から、最大頻度
となる前記傾き(θ)と前記路B(ρ)の組み合わせを
求めることにより、最大頻度となる一つの直線(Lx)
 (第8図参照)を決定し、その直線(LX)を、前記
イメージセンサ(S1)の撮像面において境界に対応す
る直線として求めることになる。
After counting the frequency of straight lines for all extracted pixels,
From the values added to the two-dimensional histogram, by finding the combination of the slope (θ) and the path B (ρ) that gives the maximum frequency, one straight line (Lx) that gives the maximum frequency is obtained.
(see FIG. 8), and its straight line (LX) is determined as a straight line corresponding to the boundary on the imaging surface of the image sensor (S1).

次に、前記撮像面における直線(Lx)を、予め実測し
た地表面での前記イメージセンサ(St)の撮像視野(
A)の形状と大きさの記憶情報と、前記最大頻度の直線
(LX)が通る撮像面での画素の位置(a、 b、 c
) (第8図参照)とに基づいて、地表面における直線
の情報に変換する。
Next, the straight line (Lx) on the imaging surface is defined as the imaging field of view (St) of the image sensor (St) on the ground surface measured in advance.
The stored information on the shape and size of A) and the position of the pixel (a, b, c) on the imaging plane through which the straight line (LX) with the maximum frequency passes
) (see Figure 8), it is converted into straight line information on the ground surface.

すなわち、前記第1境界(L0)を検出する場合には、
第6図に示すように、前記撮像視野(A)の横幅方向中
央を前後方向に通る基準線(La)に対する傾き(ψ)
と横幅方向での位置(δ)との値として設定される地表
面上における直線の情報に変換することになる。
That is, when detecting the first boundary (L0),
As shown in FIG. 6, the inclination (ψ) with respect to the reference line (La) passing through the center of the width direction of the imaging field of view (A) in the front-rear direction
This is converted into information about a straight line on the ground surface, which is set as the value of and the position (δ) in the width direction.

説明を加えれば、前記第1境界(L0)に交差する方向
となる前記撮像視野(A)の前後2辺の長さ(ffl 
+>、 (A 32)、視野中央を撮像する画素の位置
(X・16. y=0)における前記撮像視野(A)の
横幅方向の長さ(j2.6)、及び、前記前後2辺間の
距離(h)の夫々を予め実測して、前記制御装置(10
)に記憶させておくことになる。
To explain, the lengths (ffl
+>, (A 32), the length (j2.6) in the width direction of the imaging field of view (A) at the position of the pixel that images the center of the field of view (X 16. y = 0), and the two front and rear sides The control device (10
) will be stored in the memory.

そして、前記撮像面における直線(Lx)が前記撮像視
野(A)の前後2辺に対応するX軸に交差する画素の位
置(a、 b) (y=16. y=−16となる位置
)のX座標の値(Xl、X32)と、前記直線(Lx)
が画面中央を通るX軸に交差する画素のX座標の値(X
i)  とを、上記(i)式を変形した下記(11)式
から求める。
and the position (a, b) of the pixel where the straight line (Lx) on the imaging plane intersects the X axis corresponding to the front and back two sides of the imaging field of view (A) (position where y=16. y=-16) The value of the X coordinate (Xl, X32) of and the straight line (Lx)
The value of the X coordinate of the pixel (X
i) is obtained from the following equation (11), which is a modification of the above equation (i).

但し、Yiは、夫々16.0.−16を代入することに
なる。
However, Yi is 16.0. -16 will be substituted.

そして、上記(ii )式にて求められたX軸での座標
値に基づいて、下記(iii )式及び(iv)式から
、前記基準線(La)に対する傾き(ψ)と、横幅方向
での距#(δ)とを求め、求めた傾き(ψ)と距離(δ
)との値を、地表面における補正された直線つまり前記
第1境界(L1)に対応する直線の位置情報として算出
することになる。
Then, based on the coordinate value on the X axis determined by the above equation (ii), the slope (ψ) with respect to the reference line (La) and the width direction are calculated from the following equations (iii) and (iv). Find the distance #(δ) and calculate the slope (ψ) and distance (δ
) is calculated as the positional information of the corrected straight line on the ground surface, that is, the straight line corresponding to the first boundary (L1).

従って、後述の操向制御においては、前記基準線(La
)に対する傾き(ψ)と横幅方向での距離(δ)とを共
に零に近づけるように、操向操作することになる。
Therefore, in the steering control described later, the reference line (La
) and the distance in the width direction (δ) are both brought closer to zero.

但し、前記第2境界(L2)を検出する場合には、第7
図にも示すように、前記撮像視野(A)の前後方向中央
を横幅方向に通る基準線(Lb)に対する撮像視野(A
)の左右両端部夫々での距離(P0)。
However, when detecting the second boundary (L2), the seventh
As shown in the figure, the imaging field of view (A) with respect to the reference line (Lb) passing through the center of the imaging field of view (A) in the front and back direction in the width direction.
) at both left and right ends (P0).

(P2)を、前記車体(V)から前記第2境界(L2)
までの距離に対応する位置情報として求めるようにしで
ある。
(P2) from the vehicle body (V) to the second boundary (L2).
The method is to obtain position information corresponding to the distance to.

説明を加えれば前記第2境界(L2)は、前記X軸方向
に向かう直線として検出されることから、前記最大頻度
の直線(LX)が画面の左右両端部を通る位置(a)、
 (b)に基づいて、地表面における前記撮像視野(A
)の前後方向中央を通る基準線(Lb)に対する左右両
端部での距離(P0)、 (P2)の夫々を求めるので
ある。
To explain further, since the second boundary (L2) is detected as a straight line heading in the X-axis direction, the position (a) where the straight line with the highest frequency (LX) passes through both the left and right ends of the screen,
(b), the imaging field of view (A
), the distances (P0) and (P2) at both left and right ends with respect to the reference line (Lb) passing through the center in the longitudinal direction are determined.

従って、前記基準線(Lb)に対する左右側距離(PI
)、 (p2)の値に基づいて、前記車体(V)が作業
行程の終端部つまり回向地点に達したか否かを判別する
ことになる。
Therefore, the left and right distance (PI) with respect to the reference line (Lb)
), (p2), it is determined whether the vehicle body (V) has reached the end of the working stroke, that is, the turning point.

もって、以上説明した境界検出処理が、車体横幅方向で
の未処理作業地と処理済作業地との第1境界(L1)を
検出するための境界検出手段(100)に対応すること
になる。
Therefore, the boundary detection process described above corresponds to the boundary detection means (100) for detecting the first boundary (L1) between the untreated work area and the treated work area in the vehicle width direction.

但し、この境界検出の処理においては、明るさ変化が大
なる画素を抽出して、その画素を通る最大頻度の直線を
、境界に対応する情報として検出するようにしているの
で、抽出される画素数、つまり、処理される画像情報量
が大なるほど、境界検出に要する処理時間が大になるこ
とになる。
However, in this boundary detection process, pixels with large brightness changes are extracted and the most frequent straight line passing through that pixel is detected as information corresponding to the boundary, so the extracted pixel The larger the number, that is, the amount of image information to be processed, the longer the processing time required for boundary detection.

次に、第2図に示すフローチャートに基づいて、前記車
体(V)を前記第1境界(L1)の沿って自動走行させ
るための処理について説明する。
Next, a process for automatically driving the vehicle body (V) along the first boundary (L1) will be explained based on the flowchart shown in FIG.

但し、前記左右のイメージセンサ(S0)の何れによっ
て前記第1境界(L1)を撮像させるかは、走行開始前
に予め設定しておくことになり、そして、ターンする毎
に、左右を切り換えることになる。
However, which of the left and right image sensors (S0) should be used to image the first boundary (L1) must be set in advance before the start of driving, and the left and right image sensors must be switched each time the vehicle turns. become.

先ず、走行開始前に、前記作業行程の長さや走行する作
業行程数等の作業データ設定処理が行われることになり
、その作業データ設定処理を行った後に、設定速度で走
行開始させることになる(ステップ#1)。
First, before the start of travel, work data setting processing such as the length of the work stroke and the number of work strokes to be traveled is performed, and after the work data setting processing is performed, the vehicle is started to travel at the set speed. (Step #1).

走行開始後は、前記境界検出手段(100)による前記
第1境界(L1)の検出に要する処理時間(1)を計測
するためのタイマカウンタをクリアした後、前記第1イ
メージセンサ(Sa)の撮像情報に基づいて、前記第1
境界(し0)を検出する画像処理つまり前記境界検出処
理を開始した後、その処理が終了するまで待機する(ス
テップ#2乃至ステップ#4)。
After the start of travel, after clearing a timer counter for measuring the processing time (1) required for the boundary detection means (100) to detect the first boundary (L1), the first image sensor (Sa) is cleared. Based on the imaging information, the first
After starting the image processing for detecting the boundary (shi0), that is, the boundary detection process, the process waits until the process is completed (steps #2 to #4).

画像処理が終了するに伴って、その処理結果となる画像
データつまり検出された第1境界(L1)の位置情報を
取り込んで、それらの値に基づいて、目標操向角(θf
)を設定し、そして、前記前輪(1)をその目標操向角
(θf)に操向操作する境界追従操向制御を実行する(
ステップ#5.ステップ#6)。
As the image processing is completed, the image data resulting from the processing, that is, the position information of the detected first boundary (L1) is taken in, and based on those values, the target steering angle (θf
), and executes boundary following steering control to steer the front wheel (1) to its target steering angle (θf).
Step #5. Step #6).

説明を加えれば、前記撮像視野(A)の横幅方向中央を
通る基準線(La)に対する第1境界(L0)の横幅方
向の位置(δ)と、長さ方向に対する傾き(ψ)と、前
記前輪(1) の現在の操向角(θ)とに基づいて、下
記(V)式によって、前記前輪(1)の目標操向角(θ
f)を設定し、そして、前記前輪用の操向角検出用ポテ
ンショメーク(R1)にて検出される前記前輪(1)の
操向角(θ)が、前記目標操向角(θf)に対して設定
不感帯内となるように前記操向用油圧シリンダ(4)の
前記制御弁(8)を駆動することになる。
To explain, the position (δ) of the first boundary (L0) in the width direction with respect to the reference line (La) passing through the center of the width direction of the imaging field of view (A), the inclination (ψ) with respect to the length direction, Based on the current steering angle (θ) of the front wheel (1), the target steering angle (θ) of the front wheel (1) is determined by the following formula (V).
f), and the steering angle (θ) of the front wheel (1) detected by the front wheel steering angle detection potentiometer (R1) is equal to the target steering angle (θf). On the other hand, the control valve (8) of the steering hydraulic cylinder (4) is driven so as to be within the set dead zone.

θf=に、・δ+に2・ψ+に3・θ ・・団・(V)
つまり、上記(V)式によって目標操向角(θf)を設
定する処理が、目標操向角設定手段(101)に対応し
、前記前輪用の操向角検出用ポテンショメータ(Rυに
て検出される前記前輪(1)の操向角(θ)が、前記目
PA摸向角(θf)に対して設定不感帯内となるように
前記操向用油圧シリンダ(4)の前記制御弁(8)を駆
動する処理が、操向操作手段(102)に対応すること
になる。
θf = ・δ+ 2・ψ+ 3・θ ・Group・(V)
In other words, the process of setting the target steering angle (θf) using the above equation (V) corresponds to the target steering angle setting means (101), and is detected by the front wheel steering angle detection potentiometer (Rυ). The control valve (8) of the steering hydraulic cylinder (4) is adjusted so that the steering angle (θ) of the front wheel (1) is within a set dead zone with respect to the PA steering angle (θf). The process of driving corresponds to the steering operation means (102).

そして、操向操作の処理が終わった後は、前記カウンタ
タイマのデータを前記処理時間(1)として読み込み、
その値に基づいて、下記(Vi)式によって、設定目標
車速(V0)を前記処理時間(1)が大なるほど小とな
るように、予め設定された基準車速(V0)から増減速
した値に変更設定する(ステップ#7.ステップ#8)
After the steering operation processing is completed, the data of the counter timer is read as the processing time (1),
Based on that value, the set target vehicle speed (V0) is set to a value that is increased or decreased from the preset reference vehicle speed (V0) so that it becomes smaller as the processing time (1) increases, using the following formula (Vi). Make changes (Step #7. Step #8)
.

V、=v、xts/l    =(Vi)但し、tsは
、通常の作業地において変動する処理時間範囲の最小処
理時間に対応して予め設定した設定値としての基準サン
プリング時間であり、前記タイマカウンタデータの基準
値として設定しである。又、vOは、前記基準サンプリ
ング間隔(ts)に対応する値に設定されている。
V, = v, xts/l = (Vi) However, ts is a reference sampling time as a preset value corresponding to the minimum processing time in a processing time range that fluctuates in a normal work place, and This is set as the reference value of the counter data. Further, vO is set to a value corresponding to the reference sampling interval (ts).

尚、図示を省略するが、前記タイマカウンタは、前記制
御装置(10)の内部機能を利用して構成されることに
なる。
Although not shown, the timer counter is configured using internal functions of the control device (10).

つまり、前記タイマカウンタのデータに基づいて処理時
間(1)を計測する処理(ステップ#7)が、処理時間
計測手段(104)に対応することになり、その処理時
間(1)に基づいて設定目標車速(V1)を変更設定す
る処理(ステップ#8)が、目標車速調節手段(105
)に対応することになる。
In other words, the process of measuring the processing time (1) based on the data of the timer counter (step #7) corresponds to the processing time measuring means (104), and the processing time is set based on the processing time (1). The process (step #8) of changing and setting the target vehicle speed (V1) is carried out by the target vehicle speed adjusting means (105
).

設定目標車速(V1)を変更設定した後は、前記車速検
出用ポテンショメータ(R3)にて検出される車速(V
)つまり前記変速装置(6)の操作状態が、前記設定目
標車速(V1)に対して設定不感帯内となるように、前
記変速用モータ(7)を駆動する車速制御を実行するこ
とになる(ステップ#9)。
After changing and setting the set target vehicle speed (V1), the vehicle speed (V
) In other words, vehicle speed control is executed to drive the speed change motor (7) so that the operating state of the speed change device (6) is within the set dead zone with respect to the set target vehicle speed (V1). Step #9).

つまり、前記車速検出用ポテンショメータ(R3)にて
検出される車速(V)が前記設定目標車速(V1)に対
して設定不感帯内となるように、前記変速用モータ(7
)を駆動する車速制御の処理(ステップ#9)が、車速
制御手段(103)に対応することになる。
That is, the speed change motor (7
) corresponds to the vehicle speed control means (103).

車速(V)を調節した後は、前述の如く、前記第2境界
(L2)の検出情報に基づいて前記車体(V)が回向地
点に達したか否かを判別する(ステップ#1o)。
After adjusting the vehicle speed (V), as described above, it is determined whether the vehicle body (V) has reached the turning point based on the detection information of the second boundary (L2) (step #1o). .

説明を加えれば、前記距離センサ(s2)にて検出され
る前記車体(V)の走行距離が、各作業行程の長さに基
づいて、その長さよりも短い値に設定された設定距離に
達するに伴って、操向制御を停止して直進状態を維持さ
せながら、前記第1境界(L1)を検出する状態から、
前記第2境界(L2)を検出する状態に切り換えて、前
記車体     ゛(V)に対する前記第2境界化2)
までの距離を検出し、その検出した距離を走行するに伴
って、回向地点に達したと判別させることになる。
To explain further, the travel distance of the vehicle body (V) detected by the distance sensor (s2) reaches a set distance that is set to a value shorter than the length of each work stroke, based on the length of each work stroke. Accordingly, from a state in which the first boundary (L1) is detected while the steering control is stopped and the straight-ahead state is maintained,
Switching to a state in which the second boundary (L2) is detected, the second boundary is created for the vehicle body (V).
The distance to the vehicle is detected, and as the vehicle travels the detected distance, it is determined that the vehicle has reached the turning point.

そして、回向地点に達している場合には、走行した行程
数等に基づいて、作業終了か否かが判別され、作業終了
の場合には、走行停止させて、全処理を終了することに
なる(ステップ#11.ステフブ#12)。
If the turning point has been reached, it is determined whether or not the work has been completed based on the number of travelled, etc., and if the work has been completed, the travel is stopped and the entire process is completed. (Step #11. Step #12).

作業終了でない場合には、次の作業行程の始端部に向け
て180度旋回させた後、使用するイメージセンサ(S
1)の左右を切り換える回向制御を実行した後、走行し
た行程数を更新する行程データ更新処理を実行する(ス
テップ#13.ステップ#14)。
If the work is not completed, turn the image sensor (S
After executing the turning control for switching left and right in 1), a stroke data update process for updating the number of strokes traveled is executed (Step #13. Step #14).

行程データを更新した後は、前記境界検出手段(100
)にて繰り返し検出される前記第1境界(L1)の検出
情報に基づいて操向制御しながら、境界検出に要する処
理時間(1)  に基づいて車速(V)を自動調節する
処理を、次の作業行程の終端側の回向地点に達するまで
、境界検出が完了する毎に繰り返すことになる。
After updating the journey data, the boundary detection means (100
) The process of automatically adjusting the vehicle speed (V) based on the processing time (1) required for boundary detection while controlling the steering based on the detection information of the first boundary (L1) repeatedly detected at The process is repeated every time the boundary detection is completed until the turning point at the end of the working process is reached.

従って、境界検出に要する処理時間(1) に応じて車
速(V)を自動調節するので、前記第1境界(L0)は
、その境界検出に要する処理時間(1)が大小に変動し
ても、設定距離間隔毎に繰り返し検出されることになる
のである。
Therefore, since the vehicle speed (V) is automatically adjusted according to the processing time (1) required for boundary detection, the first boundary (L0) is determined even if the processing time (1) required for boundary detection varies greatly. , will be repeatedly detected at every set distance interval.

〔別実施例〕[Another example]

上記実施例では、境界検出に要する処理時間(1)が基
準値(ts)よりも小となると、設定目標車速(V1)
を増大させるようにした場合を例示したが、上限を制限
するようにしてもよい。
In the above embodiment, when the processing time (1) required for boundary detection becomes smaller than the reference value (ts), the set target vehicle speed (V1)
Although the case where the number is increased is shown as an example, the upper limit may be limited.

説明を加えれば、前記境界検出手段(100)が、処理
対象となる画像情報量に応じて、境界検出に要する処理
時間(1)が変動することから、例えば、未刈地(B)
と既刈地(C)との明るさの差が小さい場合には、抽出
される画素数が極端に小になって、処理時間(1)が非
常に短くなる状態となる。
To explain further, the processing time (1) required for boundary detection by the boundary detection means (100) varies depending on the amount of image information to be processed.
If the difference in brightness between the cut area and the mown area (C) is small, the number of extracted pixels becomes extremely small, resulting in a state where the processing time (1) becomes extremely short.

つまり、処理時間(1)が短くなる理由は、境界に対応
する画像情報量が少なくなっている状態であり、その結
果、検出される第1境界(L1)の信頼性は、画像情報
量が多い場合よりも低下するものである。
In other words, the reason why the processing time (1) is short is that the amount of image information corresponding to the boundary is small, and as a result, the reliability of the detected first boundary (L1) is This is lower than when there is too much.

検出される第1境界(L1)の信頼性が低いままで、高
速走行させると、次の境界検出地点に走行する間に、前
記第1境界化0)を免税する虞れがある。
If the vehicle is driven at high speed while the reliability of the detected first boundary (L1) remains low, there is a risk that the first boundary 0) will be exempted while traveling to the next boundary detection point.

そこで、上記実施例における第2図のフローチャートに
おいて目標車速(V0)を変更調節する処理(ステップ
#8)の部分を、第9図に示すように、前記処理時間(
1)が前記基準値(ts)よりも小であるか否かを判別
し、前記処理時間(1)が設定値としての前記基準値(
ts)よりも小である場合には、前記目標車速(V1)
を前記基準車速(Vo)に設定して、車速(V)の上限
を制限するようにしてもよい。
Therefore, in the flowchart of FIG. 2 in the above embodiment, the process (step #8) for changing and adjusting the target vehicle speed (V0) is changed as shown in FIG.
1) is smaller than the reference value (ts), and the processing time (1) is set as the reference value (ts).
ts), the target vehicle speed (V1)
may be set as the reference vehicle speed (Vo) to limit the upper limit of the vehicle speed (V).

但し、前記処理時間(1)が前記基準値(ts)よりも
大である場合には、第1境界(L1)を見失う確率は低
いので、上記実施例と同様の手段を用いて、処理時間(
1)に応じて、前記基準車速(V0)から減速した値に
設定することになる。
However, if the processing time (1) is larger than the reference value (ts), the probability of losing sight of the first boundary (L1) is low. (
1), the vehicle speed is set to a value decelerated from the reference vehicle speed (V0).

又、上記実施例では、画像処理の開始時点から目標操向
角(θf)を設定して操向操作するまでの時間を、境界
検出に要する処理時間(1) として計測させるように
した場合を例示したが、撮像開始から境界情報を検出す
るまでの間の画像処理に要する時間を、処理時間(1)
として計測させたり、画像処理の開始時点から目標車速
(V1)を変更調節して車速制御するまでの時間、つま
り、制御ループが一巡する時間を処理時間(1)として
計測させるようにしてもよく、境界検出に要する処理時
間(1)  として計測する時点は各種変更できる。
Furthermore, in the above embodiment, the time from the start of image processing until setting the target steering angle (θf) and performing the steering operation is measured as the processing time (1) required for boundary detection. As shown in the example, the processing time (1) is the time required for image processing from the start of imaging to the detection of boundary information.
Alternatively, the time from the start of image processing to the time when the target vehicle speed (V1) is changed and adjusted to control the vehicle speed, that is, the time during which the control loop completes one cycle, may be measured as the processing time (1). , processing time required for boundary detection (1) The time point to be measured can be changed in various ways.

又、上記実施例では、前輪(1)のみを操向する2輪ス
テアリング形式で操向させるようにした場合を例示した
が、第1境界(L1)に対する横幅方向の位置(δ)の
修正を平行ステアリング形式で行い、且つ、傾き(ψ)
の修正を4輪ステアリング形式で行わせるようにしても
よく、目標操向角設定手段(101)、並びに、操向操
作手段(102)の具体構成は、各種変更できる。同様
に、ターンの形態も各種変更できる。例えば、走行方向
を反転させないで一行程毎に前後進を繰り返して往復走
行させる形態や、略90度方向転換させるいわゆる回り
走行形式で走行させる形態で実施してもよい。
Furthermore, in the above embodiment, the case where the steering is performed using a two-wheel steering system in which only the front wheels (1) are steered is illustrated, but the position (δ) in the width direction with respect to the first boundary (L1) may be corrected. Performed in parallel steering format, and tilt (ψ)
The correction may be performed using a four-wheel steering system, and the specific configurations of the target steering angle setting means (101) and the steering operation means (102) can be changed in various ways. Similarly, the form of the turn can be changed in various ways. For example, the vehicle may be run in a reciprocating manner by repeatedly moving forward and backward every stroke without reversing the direction of travel, or in a so-called circular travel format in which the vehicle changes direction approximately 90 degrees.

又、上記実施例では、本発明を、芝刈り用の作業車に適
用して、境界検出手段(100)を、未刈地(B)と既
刈地(C)との第1境界(L1)や第2境界(L2)に
対応する地表面における直線を求めるように構成した場
合を例示したが、前記各境界(L1)、 (L2)を検
出するための具体構成は、各種変更できる。又、検出す
る境界や作業地の具体的な形態等も、各種変更できる。
Further, in the above embodiment, the present invention is applied to a work vehicle for mowing lawns, and the boundary detection means (100) is used to detect the first boundary (L1) between the unmoved area (B) and the mowed area (C). ) and the second boundary (L2), but the specific configuration for detecting the boundaries (L1) and (L2) can be modified in various ways. Furthermore, the boundaries to be detected and the specific form of the work area can be changed in various ways.

尚、特許請求の範囲の項に図面との対照を便利にする為
に符号を記すが、該記入により本発明は添付図面の構造
に限定されるものではない。
Incidentally, although reference numerals are written in the claims section for convenient comparison with the drawings, the present invention is not limited to the structure shown in the accompanying drawings.

【図面の簡単な説明】[Brief explanation of the drawing]

図面は本発明に係る自動走行作業車の撮像式走行制御装
置の実施例を示し、第1図は制御構成のブロック図、第
2図は走行制御のフローチャート、第3図は境界検出処
理のフローチャート、第4図は作業地の平面図、第5図
は撮像視野の側面図、第6図は車体横幅方向での境界と
撮像視野の関係を示す平面図、第7図は車体前後方向で
の境界と撮像視野の関係を示す平面図、第8図はハフ変
換の説明図、第9図は別実施例における目標車速設定処
理のフローチャートである。 (B)・・・・・・未処理作業地、(C)・・・・・・
処理済作業地、(L)・・・・・・境界、(V)・・・
・・・車体、(S1)・・・・・・撮像手段、(θf)
・・・・・・目標操向角、(V)・・・・・・車速、(
V1)・・・・・・設定目標車速、(V0)・・・・・
・基準車速、(1)・・・・・・処理時間、(ts)・
・・・・・設定値、(100)・・・・・・境界検出手
段、(101)・・・・・・目標操向角設定手段、(1
02)・・・・・・操向操作手段、(103)・・・・
・・車速制御手段、(104)・・・・・・処理時間計
測手段。
The drawings show an embodiment of the imaging type travel control device for an automatic traveling work vehicle according to the present invention, in which FIG. 1 is a block diagram of the control configuration, FIG. 2 is a flowchart of travel control, and FIG. 3 is a flowchart of boundary detection processing. , Fig. 4 is a plan view of the work area, Fig. 5 is a side view of the imaging field of view, Fig. 6 is a plan view showing the relationship between the boundary in the width direction of the vehicle body and the imaging field of view, and Fig. 7 is a plan view of the field of view in the longitudinal direction of the vehicle body. FIG. 8 is an explanatory diagram of Hough transform, and FIG. 9 is a flowchart of target vehicle speed setting processing in another embodiment. (B)...Untreated work area, (C)...
Treated work area, (L)... Boundary, (V)...
... Vehicle body, (S1) ... Imaging means, (θf)
...Target steering angle, (V) ...Vehicle speed, (
V1)... Set target vehicle speed, (V0)...
・Reference vehicle speed, (1)...Processing time, (ts)・
... Setting value, (100) ... Boundary detection means, (101) ... Target steering angle setting means, (1
02)... Steering operation means, (103)...
. . . Vehicle speed control means, (104) . . . Processing time measurement means.

Claims (1)

【特許請求の範囲】 1、走行前方側の車体横幅方向での未処理作業地(B)
と処理済作業地(C)との境界(L)に対応する箇所を
、二次元方向に亘って撮像する撮像手段(S_1)と、
その撮像手段(S_1)の撮像情報に基づいて前記境界
(L)を繰り返し検出する境界検出手段(100)と、
その境界検出手段(100)の検出情報に基づいて、車
体(V)を検出された境界(L)に対する設定適正状態
に自動走行させるための目標操向角(θf)を設定する
目標操向角設定手段(101)と、その目標操向角設定
手段(101)にて設定された目標操向角(θf)に操
向操作する操向操作手段(102)と、前記車体(V)
が設定目標車速(V_1)で走行するように、前記車体
(V)の車速(V)を自動調節する車速制御手段(10
3)とが設けられている自動走行作業車の撮像式走行制
御装置であって、前記境界検出手段(100)の境界検
出に要する処理時間(t)を計測する処理時間計測手段
(104)が設けられ、前記境界(L)が設定距離走行
する毎に検出されるように、前記処理時間計測手段(1
04)の検出情報に基づいて、前記処理時間(t)が大
なるほど前記車速(V)が小となるように、前記設定目
標車速(V_1)を自動的に変更調節する目標車速調節
手段(105)が設けられている自動走行作業車の撮像
式走行制御装置。 2、前記目標車速調節手段(105)は、前記処理時間
(t)が設定値(ts)よりも小の場合には、前記目標
車速(V_1)を予め設定された基準車速(V_0)に
設定するように構成されている請求項1記載の自動走行
作業車の撮像式走行制御装置。
[Claims] 1. Untreated work area in the width direction of the vehicle on the front side of the vehicle (B)
an imaging means (S_1) for imaging a location corresponding to the boundary (L) between the processed work site (C) and the processed work area (C) in two-dimensional directions;
a boundary detection means (100) that repeatedly detects the boundary (L) based on the imaging information of the imaging means (S_1);
A target steering angle for setting a target steering angle (θf) for automatically driving the vehicle body (V) in a setting appropriate state with respect to the detected boundary (L) based on the detection information of the boundary detection means (100). a setting means (101), a steering operation means (102) for performing a steering operation to the target steering angle (θf) set by the target steering angle setting means (101), and the vehicle body (V).
Vehicle speed control means (10) automatically adjusts the vehicle speed (V) of the vehicle body (V) so that the vehicle travels at a set target vehicle speed (V_1)
3) is an imaging type travel control device for an automatic traveling work vehicle, which is provided with a processing time measuring means (104) for measuring a processing time (t) required for boundary detection of the boundary detecting means (100). The processing time measuring means (1
Target vehicle speed adjusting means (105) that automatically changes and adjusts the set target vehicle speed (V_1) based on the detection information of 04) so that the vehicle speed (V) decreases as the processing time (t) increases. ) is an imaging-type travel control device for an autonomous driving work vehicle. 2. The target vehicle speed adjusting means (105) sets the target vehicle speed (V_1) to a preset reference vehicle speed (V_0) when the processing time (t) is smaller than the set value (ts). The imaging type travel control device for an automatic traveling work vehicle according to claim 1, wherein the imaging type travel control device is configured to perform the following.
JP63057665A 1988-03-10 1988-03-10 Photographing type travel control device for automatic travel working car Pending JPH01231809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63057665A JPH01231809A (en) 1988-03-10 1988-03-10 Photographing type travel control device for automatic travel working car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63057665A JPH01231809A (en) 1988-03-10 1988-03-10 Photographing type travel control device for automatic travel working car

Publications (1)

Publication Number Publication Date
JPH01231809A true JPH01231809A (en) 1989-09-18

Family

ID=13062201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63057665A Pending JPH01231809A (en) 1988-03-10 1988-03-10 Photographing type travel control device for automatic travel working car

Country Status (1)

Country Link
JP (1) JPH01231809A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022028836A (en) * 2016-09-05 2022-02-16 株式会社クボタ Work vehicle automatic traveling system and travel route management device
US11726485B2 (en) 2016-09-05 2023-08-15 Kubota Corporation Autonomous work vehicle travel system, travel route managing device, travel route generating device, and travel route determining device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022028836A (en) * 2016-09-05 2022-02-16 株式会社クボタ Work vehicle automatic traveling system and travel route management device
US11726485B2 (en) 2016-09-05 2023-08-15 Kubota Corporation Autonomous work vehicle travel system, travel route managing device, travel route generating device, and travel route determining device

Similar Documents

Publication Publication Date Title
GB2145844A (en) Automatic running work vehicle
JPH01231809A (en) Photographing type travel control device for automatic travel working car
JPH0759407A (en) Traveling controller of automatic traveling working car
JPH01231810A (en) Photographing type steering control device for automatic travel working car
JPH01161403A (en) Image pickup type steering control device for automatic traveling working vehicle
JPH01235506A (en) Travel control device of image sensing type automatically traveling work car
JPH01173111A (en) Image pickup type boundary detecting device for self-traveling working vehicle
JPH01161402A (en) Image pickup type steering control device for automatic traveling working vehicle
JPS61139304A (en) Steering controller of self-propelling working machine
JPS63298103A (en) Image sensing type boundary detector
JPH01235507A (en) Image sensing boundary detecting device
JPH0241282B2 (en)
JP2624390B2 (en) Crop row detector
JPS63277908A (en) Image pickup type border detection device
JPS62122507A (en) Steering control apparatus of self-running working machine
JPS61115408A (en) Turn controller of automatic running working machine
JPH01187015A (en) Mowing, working vehicle of automatic steering type
JPH0619542A (en) Traveling controller for automatic travel working vehicle
JPS63279109A (en) Image pickup type boundary detector
JPS61115404A (en) Turn controller of automatic running working machine
JPS61115405A (en) Steering controller of automatic running working vehicle
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JPS63293402A (en) Image pickup type border detecting device
JPH0365122B2 (en)
JPS63253204A (en) Image pickup type border detector