JPH0610774B2 - Imaging type steering control device for automated driving vehicles - Google Patents

Imaging type steering control device for automated driving vehicles

Info

Publication number
JPH0610774B2
JPH0610774B2 JP62320255A JP32025587A JPH0610774B2 JP H0610774 B2 JPH0610774 B2 JP H0610774B2 JP 62320255 A JP62320255 A JP 62320255A JP 32025587 A JP32025587 A JP 32025587A JP H0610774 B2 JPH0610774 B2 JP H0610774B2
Authority
JP
Japan
Prior art keywords
boundary
boundary position
steering angle
information
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62320255A
Other languages
Japanese (ja)
Other versions
JPH01161403A (en
Inventor
和男 長濱
保生 藤井
正彦 林
勝美 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP62320255A priority Critical patent/JPH0610774B2/en
Publication of JPH01161403A publication Critical patent/JPH01161403A/en
Publication of JPH0610774B2 publication Critical patent/JPH0610774B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、車体が設定距離を走行する毎に又は設定時間
経過する毎に、走行前方側の未処理作業地と処理済作業
地との境界に対応する箇所を二次元方向に亘って繰り返
し撮像する撮像手段と、その撮像手段の撮像情報に基づ
いて前記車体に対する前記境界の位置を検出する境界位
置検出手段と、その境界位置検出手段の検出情報に基づ
いて、前記車体を前記境界に対する適正状態に近づける
ように操向輪の目標操向角を判別する目標操向角判別手
段と、その目標操向角判別手段の判別情報に基づいて前
記操向輪を自動的に前記目標操向角に操向操作する操向
制御手段とが設けられた自動走行作業車の撮像式操向制
御装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention relates to an unprocessed work site and a processed work site on the front side of travel every time a vehicle body travels a set distance or a set time elapses. An image pickup means for repeatedly picking up an image of a portion corresponding to a boundary in a two-dimensional direction, a boundary position detection means for detecting a position of the boundary with respect to the vehicle body based on image pickup information of the image pickup means, and a boundary position detection means Based on the detection information, based on the target steering angle discriminating means for discriminating the target steering angle of the steering wheel so as to bring the vehicle body closer to the proper state with respect to the boundary, and the discrimination information of the target steering angle discriminating means. The present invention relates to an imaging type steering control device for an automatic traveling work vehicle, which is provided with steering control means for automatically steering the steering wheel to the target steering angle.

〔従来の技術〕[Conventional technology]

上記この種の自動走行作業車の撮像式操向制御装置は、
走行前方側の未処理作業地と処理済作業地との境界に対
応する箇所を撮像した撮像情報を利用して、車体が境界
に沿って自動走行するようにしたものであるが、撮像情
報から境界位置を検出するためには処理時間が掛かる画
像処理を伴うことからも、車体走行に伴って変化する車
体と境界との位置関係を連続的に検出することは困難で
あり、車体が設定距離を走行する毎に又は設定時間経過
する毎に、撮像させるようにしている。
The imaging type steering control device of the above-described automatic traveling work vehicle,
Using the imaged information that captured the location of the boundary between the unprocessed work site and the processed work site on the front side of the travel, the vehicle body automatically travels along the boundary. Since it takes image processing that takes processing time to detect the boundary position, it is difficult to continuously detect the positional relationship between the vehicle body and the boundary, which changes as the vehicle body travels. An image is captured every time the vehicle travels or a set time elapses.

但し、従来では、車体が設定距離を走行する毎に又は設
定時間経過する毎に、その撮像地点において撮像された
撮像情報に基づいて検出された境界位置情報に基づい
て、その都度、操向輪の目標操向角を判別させるように
していた。
However, conventionally, each time the vehicle body travels a set distance or a set time elapses, based on the boundary position information detected based on the imaging information imaged at the imaging point, the steering wheel is changed each time. The target steering angle was determined.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

ところで、撮像手段の撮像情報に基づいて境界位置を検
出するためには、例えば、未処理作業地と処理済作業地
との明るさが異なって見えることを利用して、撮像画像
の明るさ変化に基づいて未処理作業地と処理済作業地と
の境界に対応する近似直線を求める等の画像処理を行う
ことになるが、境界が途切れていたり、境界に対応する
画像部分の明るさ変化が小さかったりすると、境界位置
を誤検出する虞れがある。
By the way, in order to detect the boundary position based on the image pickup information of the image pickup means, for example, the fact that the unprocessed work site and the processed work site appear to have different brightness is used to change the brightness of the captured image. Image processing such as finding an approximate straight line corresponding to the boundary between the unprocessed work site and the processed work site will be performed based on, but the boundary will be interrupted or the brightness of the image part corresponding to the boundary will change. If it is small, there is a possibility that the boundary position may be erroneously detected.

境界位置を誤検出すると、本来の境界位置から外れる方
向に操向操作されて、境界が撮像視野外に外れて境界を
見失って、車体を適正通りに自動走行させることができ
なくなる虞れがある。
If the boundary position is erroneously detected, the steering operation may be performed in a direction deviating from the original boundary position, the boundary may be out of the imaging field of view, the boundary may be lost, and the vehicle may not be able to automatically travel properly. .

本発明は、上記実情に鑑みてなされたものであって、そ
の目的は、境界位置の検出を誤っても、境界を見失わな
いようにすることにある。
The present invention has been made in view of the above circumstances, and an object thereof is to prevent the boundary from being lost even if the boundary position is erroneously detected.

〔問題点を解決するための手段〕[Means for solving problems]

本発明による自動走行作業車の撮像式操向制御装置の特
徴構成は、前記撮像手段が撮像してから次に撮像するま
でに前記車体が走行する距離情報と、前記操向輪の目標
操向角情報と、前記境界位置検出手段の検出情報とに基
づいて、前記撮像手段が次に撮像する位置まで前記車体
が走行した時点における境界の位置を推定する境界位置
推定手段が設けられ、前記目標操向角判別手段は、次の
撮像位置における前記撮像手段の撮像情報に基づいて前
記境界位置検出手段が検出した境界位置が、前記境界位
置推定手段にて推定された境界位置に対して設定範囲以
上ずれている場合には、前記境界位置推定手段にて推定
された境界位置に基づいて前記目標操向角を判別するよ
うに構成されている点にあり、その作用並びに効果は以
下の通りである。
The characteristic configuration of the image pickup-type steering control device for an automated work vehicle according to the present invention includes distance information of the vehicle body traveling from one image pickup by the image pickup means to the next image pickup, and target steering of the steered wheels. Boundary position estimation means is provided for estimating the position of the boundary at the time when the vehicle body travels to the position where the image pickup means picks up the image based on the angle information and the detection information of the boundary position detection means. The steering angle determining means sets the boundary position detected by the boundary position detecting means on the basis of the image pickup information of the image pickup means at the next image pickup position relative to the boundary position estimated by the boundary position estimating means. In the case of the above deviation, the point is configured to determine the target steering angle based on the boundary position estimated by the boundary position estimating means, and the operation and effect thereof are as follows. is there.

〔作用〕[Action]

撮像手段は、車体が設定距離を走行する毎に又は設定時
間経過する毎に、走行前方側の未処理作業地と処理済作
業地との境界に対応する箇所を二次元方向に亘って繰り
返し撮像するように構成され、且つ、操向制御手段は、
操向輪を目標操向角に操向操作するように構成されてい
ることから、撮像手段が次に撮像する位置における撮像
情報に基づいて検出される境界位置の範囲は、撮像手段
が撮像してから次に撮像するまでに前記車体が走行する
距離情報と、操向輪の目標操向角情報と、境界位置検出
手段の検出情報とに基づいて、推定することができる。
The imaging means repeatedly captures a position corresponding to the boundary between the unprocessed work site and the processed work site on the front side of the travel in a two-dimensional direction each time the vehicle body travels a set distance or a set time elapses. The steering control means is configured to
Since the steering wheel is configured to perform the steering operation to the target steering angle, the range of the boundary position detected based on the image pickup information at the position where the image pickup unit next takes an image is imaged by the image pickup unit. It can be estimated based on the distance information on the traveling distance of the vehicle body from the first image pickup to the next image pickup, the target steering angle information of the steered wheels, and the detection information of the boundary position detection means.

つまり、車体が次の撮像位置に移動した時点で検出され
た境界位置が、境界位置推定手段にて推定された境界位
置に対して設定範囲以上ずれている場合には、その検出
境界位置は誤っていると判断して、その推定された境界
位置情報を用いて、操向輪の目標操向角を判別させるの
である。
In other words, if the boundary position detected at the time when the vehicle body moves to the next imaging position deviates from the boundary position estimated by the boundary position estimating means by the set range or more, the detected boundary position is incorrect. That is, the estimated steering wheel position information is used to determine the target steering angle of the steering wheel.

〔発明の効果〕〔The invention's effect〕

従って、車体が次の撮像位置に移動した時点で検出され
た境界位置が、誤っているか否かを的確に判断して、検
出を誤っている場合には、推定された境界位置情報に基
づいて目標操向角を判別させることができるので、境界
位置の検出を誤っても、境界を見失うことがないように
できるに至った。
Therefore, the boundary position detected at the time when the vehicle body moves to the next imaging position is accurately judged whether it is wrong, and if the detection is wrong, based on the estimated boundary position information. Since the target steering angle can be discriminated, even if the boundary position is erroneously detected, it is possible to keep track of the boundary.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

第6図乃至第8図に示すように、未処理作業地としての
未刈地(B)と処理済作業地としての既刈地(C)との境界
(L)に沿って自動走行する芝刈り用の作業車の車体(V)の
前部に、走行前方側の作業地を二次元方向に亘って撮像
する撮像手段としてのイメージセンサ(S1)が、前記境界
(L)に対応する箇所を斜め上方から撮像するように設け
られている。
As shown in FIGS. 6 to 8, the boundary between the uncut land (B) as the unprocessed work land and the already cut land (C) as the processed work land.
(L) is an image sensor (S 1 ) as an image pickup means for taking a two-dimensional image of the work area on the front side of the traveling, in the front part of the vehicle body (V) of the work vehicle for lawn mowing automatically traveling along But the boundary
It is provided so as to capture an image of a portion corresponding to (L) from diagonally above.

尚、第7図中、(1)は前輪、(2)は後輪、(3)は芝刈り装
置、(H)は搭乗操縦用のステアリングハンドルである。
In FIG. 7, (1) is a front wheel, (2) is a rear wheel, (3) is a lawn mowing device, and (H) is a steering handle for boarding operation.

但し、前記前輪(1)及び後輪(2)は、その何れもが操向輪
としても駆動輪としても機能するように、いわゆる4輪
ステアリング式で且つ4輪駆動式に構成されている。
However, the front wheel (1) and the rear wheel (2) are so-called four-wheel steering type and four-wheel drive type so that both of them function as steering wheels and driving wheels.

前記イメージセンサ(S1)の撮像視野について説明を加え
れば、第6図に示すように、前記車体(V)が、前記未刈
地(B)と前記既刈地(C)との境界(L)に対して適正状態に
沿っている状態において、前記境界(L)が、前記イメー
ジセンサ(S1)の地表面における撮像視野(A)の横幅方向
中央を、車体進行方向に沿う方向に向けて通る基準線(L
0)に一致する状態となるようにしてある。
If the image pickup field of view of the image sensor (S 1 ) is further explained, as shown in FIG. 6, the vehicle body (V) has a boundary () between the uncut land (B) and the already cut land (C). In a state along an appropriate state with respect to (L), the boundary (L) is the widthwise center of the imaging field of view (A) on the ground surface of the image sensor (S 1 ) in the direction along the vehicle body traveling direction. Reference line passing toward (L
It is designed to be in agreement with 0 ).

つまり、第8図に示すように、前記作業車は、周囲を既
刈地(C)で囲まれた四角状の未刈地(B)の一辺から対辺に
至る部分を一つの作業行程として、前記車体(V)が作業
行程の長さ方向に沿う側の未刈地(B)と前記既刈地(C)と
の境界(L)に沿って自動走行するように、前記イメージ
センサ(S1)の撮像情報から検出される前記境界(L)の位
置情報に基づいて、操向制御されることになり、そし
て、一つの作業行程の終端部すなわち前記未刈地(B)の
対辺に達するに伴って、その作業行程に交差する方向の
次の作業行程の始端部に向けて自動的にターンさせるこ
とを繰り返すことにより、いわゆる回り刈り形式で所定
範囲の芝刈り作業を自動的に行うことになる。
That is, as shown in FIG. 8, the work vehicle has a work area that extends from one side of the square uncut land (B) surrounded by the already cut land (C) to the opposite side as one work stroke. The image sensor (S) so that the vehicle body (V) automatically travels along the boundary (L) between the uncut land (B) and the already cut land (C) on the side along the length direction of the working stroke. 1 ) Based on the position information of the boundary (L) detected from the imaging information of 1 ), the steering is to be controlled, and the end portion of one work process, that is, the opposite side of the uncut land (B). As it reaches, the lawn mowing work in a predetermined range is automatically performed by repeating the automatic turning toward the starting end of the next work stroke in the direction intersecting with the work stroke. It will be.

但し、前記各作業行程では、前記前輪(1)のみを操向す
る2輪ステアリング形式を用いて走行させると共に、タ
ーンさせる時には、前記前後輪(1),(2)を逆位相で操向
する4輪ステアリング形式を用いて走行させるようにし
てある。
However, in each of the work strokes, the front wheel (1) and the front wheel (2) are steered in opposite phases while the two wheels are steered by steering only the front wheel (1). The four-wheel steering type is used for traveling.

前記作業車を自動走行させるための制御構成について説
明すれば、第1図に示すように、前記イメージセンサ(S
1)の撮像情報から前記境界(L)の位置を検出するための
手段や、その検出された境界位置情報に基づいて、前記
車体(V)が前記境界(L)に沿って自動走行するように制御
する手段の夫々を構成するマイクロコンピュータ利用の
制御装置(10)が設けられている。
A control configuration for automatically driving the work vehicle will be described. As shown in FIG. 1, the image sensor (S
1 ) means for detecting the position of the boundary (L) from the imaged information, and based on the detected boundary position information, the vehicle body (V) automatically travels along the boundary (L). A control device (10) utilizing a microcomputer, which constitutes each of the control means, is provided.

尚、図中、(4)は前記前輪(1)の操向用油圧シリンダ、
(5)は前記後輪(2)の操向用油圧シリンダ、(6)はエンジ
ン(E)からの出力を変速して前記前後輪(1),(2)を駆動す
る油圧式無段変速装置であって、前後進切り換え自在で
且つ前後進ともに変速自在に構成されている。(7)はそ
の変速用モータ、(8)は前記前輪用油圧シリンダ(4)の制
御弁、(9)は前記後輪用油圧シリンダ(5)の制御弁、(S2)
は前記変速装置(6)の出力回転数に基づいて前記車体(V)
の走行距離を検出する距離センサ、(R1)は前記前輪(1)
の操向角(θ)を検出する操向角検出用ポテンショメー
タ、(R2)は後輪用の操向角検出用ポテンショメータ、(R
3)は前記変速装置(6)の操作状態に基づいて車速(v)を間
接的に検出する車速検出用ポテンショメータである。
In the figure, (4) is a hydraulic cylinder for steering the front wheel (1),
(5) is a hydraulic cylinder for steering the rear wheel (2), and (6) is a hydraulic continuously variable transmission that shifts the output from the engine (E) to drive the front and rear wheels (1), (2). The device is configured so that it can be switched between forward and backward movement and can be changed forward and backward. (7) is a speed change motor, (8) is a control valve for the front wheel hydraulic cylinder (4), (9) is a control valve for the rear wheel hydraulic cylinder (5), (S 2 )
Is the vehicle body (V) based on the output speed of the transmission (6).
A distance sensor for detecting the traveling distance of (R 1 ) is the front wheel (1)
Steering angle detection potentiometer that detects the steering angle (θ) of (R 2 ) is the steering angle detection potentiometer for the rear wheels, and (R 2 )
3 ) is a potentiometer for vehicle speed detection that indirectly detects the vehicle speed (v) based on the operating state of the transmission (6).

つまり、前記制御装置(10)を利用して、撮像手段として
の前記イメージセンサ(S1)の撮像情報に基づいて前記車
体(V)に対する前記境界(L)の位置を検出する境界位置検
出手段(100)、その境界位置検出手段(100)の検出情報に
基づいて、前記車体(V)を前記境界(L)に対する適正状態
に近づけるように操向輪としての前記前輪(1)の目標操
向角(θf)を判別する目標操向角判別手段(101)、その
目標操向角判別手段(101)の判別情報に基づいて前記前
輪(1)を自動的に前記目標操向角(θf)に操向操作する
操向制御手段(102)、及び、前記イメージセンサ(S1)が
撮像してから次に撮像するまでに前記車体(V)が走行す
る距離情報と、前記前輪(1)の目標操向角情報と、前記
境界位置検出手段(100)の検出情報とに基づいて、前記
イメージセンサ(S1)が次に撮像する位置まで前記車体
(V)が走行した時点における境界の位置を推定する境界
位置推定手段(103)の夫々が構成されることになる。
That is, by using the control device (10),
Of the image sensor (S 1 ) Based on the imaging information
Boundary position detection for detecting the position of the boundary (L) with respect to the body (V)
Output means (100), the boundary position detection means (100) detection information
Based on the proper state of the vehicle body (V) to the boundary (L)
The target operation of the front wheel (1) as a steering wheel
Target steering angle determination means (101) for determining the steering angle (θf),
Based on the discrimination information of the target steering angle discrimination means (101)
Automatically steer the wheel (1) to the target steering angle (θf)
Steering control means (102) and the image sensor (S 1 )But
The vehicle body (V) runs from one image to the next.
Distance information, target steering angle information of the front wheel (1), and
Based on the detection information of the boundary position detection means (100),
Image sensor (S 1 ) To the position where the next image is taken
Boundary for estimating the position of the boundary when (V) travels
Each of the position estimation means (103) will be configured.

次に、第2図に示すフローチャートに基づいて、前記制
御装置の動作を説明する。
Next, the operation of the control device will be described based on the flow chart shown in FIG.

先ず、前記イメージセンサ(S1)による撮像情報に基づい
て前記車体(V)に対する前記境界(L)の位置を検出する境
界位置検出処理が行われ、その検出情報に基づいて前記
前輪(1)の目標操向角(θf)を求める目標操向角演算処
理が行われることになり、そして、前記前輪用の操向角
検出用ポテンショメータ(R1)にて検出される前記前輪
(1)の操向角(θ)が前記目標操向角(θf)となるよう
に操向操作する操向制御の処理が行われて、前記車体
(V)が前記境界(L)に対して適正状態に沿うようにする。
First, a boundary position detection process for detecting the position of the boundary (L) with respect to the vehicle body (V) is performed based on the image pickup information by the image sensor (S 1 ), and the front wheel (1) is detected based on the detection information. The target steering angle calculation process for obtaining the target steering angle (θf) is performed, and the front wheel detected by the front wheel steering angle detection potentiometer (R 1 ).
The steering control process of steering operation is performed so that the steering angle (θ) of (1) becomes the target steering angle (θf), and
(V) should be in a proper state with respect to the boundary (L).

つまり、前記前輪(1)の操向角(θ)が前記目標操向角
(θf)となるように操向操作する処理が、操向制御手段
(102)に対応することになる。
That is, the process of performing the steering operation so that the steering angle (θ) of the front wheel (1) becomes the target steering angle (θf) is the steering control means.
It corresponds to (102).

但し、前記前輪(1)の操向角(θ)及び前記目標操向角
(θf)の夫々は、前記車体(V)が直進状態となる操向中
立状態に対応する値を零として、右に操向する場合を正
の値として設定し、且つ、左に操向する場合を負の値と
して設定するようにしてある。
However, each of the steering angle (θ) of the front wheel (1) and the target steering angle (θf) has a value corresponding to a steering neutral state in which the vehicle body (V) is in a straight traveling state, and the right value is set to zero. The case of steering to the left is set as a positive value, and the case of steering to the left is set as a negative value.

次に、前記距離センサ(S2)の検出情報に基づいて、前記
作業行程の長さに基づいて設定された基準値と比較して
作業行程の終端に接近したか否かを判別する。
Next, based on the detection information of the distance sensor (S 2 ), it is determined whether or not the end of the work stroke is approached by comparing with a reference value set based on the length of the work stroke.

作業行程の終端に近づいていない場合には、設定距離を
走行したか否かを判別して、設定距離を走行するに伴っ
て、前記境界位置検出処理以降の処理を繰り返すことに
なる。
When the end of the work stroke is not approached, it is determined whether or not the vehicle has traveled the set distance, and the processing after the boundary position detection processing is repeated as the vehicle travels the set distance.

つまり、前記車体(V)が設定距離を走行する毎に、前記
イメージセンサ(S1)による撮像処理が行われ、その撮像
情報に基づいて境界位置が検出されるのである。
That is, every time the vehicle body (V) travels the set distance, the image pickup process by the image sensor (S 1 ) is performed, and the boundary position is detected based on the image pickup information.

作業行程の終端に近づいた場合には、前記イメージセン
サ(S1)の撮像情報及び前記境界位置検出処理を利用し
て、現在の車体位置に対する終端位置を検出する終端検
出処理が行われ、その検出情報に基づいて終端に達した
か否かを判別する。
When approaching the end of the work process, the end detection processing for detecting the end position with respect to the current vehicle body position is performed by using the image pickup information of the image sensor (S 1 ) and the boundary position detection processing. Based on the detection information, it is determined whether the end has been reached.

終端に達するに伴って、前述の如く、前記車体(V)を次
の作業行程の始端部に向けて略90度ターンさせることに
なる。
As the end reaches, the vehicle body (V) is turned by about 90 degrees toward the starting end of the next work stroke as described above.

ターンが完了するに伴って、予め設定された作業行程数
に対応したターン回数等に基づいて、作業終了か否かを
判別し、作業終了である場合には、前記車体(V)を停止
させて作業を終了させることになる。
As the turn is completed, it is determined whether or not the work is completed based on the number of turns corresponding to the preset number of work strokes, and if the work is completed, the vehicle body (V) is stopped. To finish the work.

但し、作業終了でない場合には、前述の境界検出処理以
降の各処理を繰り返すことになる。
However, when the work is not completed, the processes after the boundary detection process described above are repeated.

次に、各処理について詳述する。Next, each process will be described in detail.

先ず、第3図に示すフローチャートに基づいて、前記境
界位置検出の処理について説明する。
First, the boundary position detection processing will be described with reference to the flowchart shown in FIG.

尚、以下に説明する境界位置検出の処理は、前記未刈地
(B)よりも既刈地(C)のほうが明るくみえる現象を利用し
て、前記境界(L)の位置を検出するようにしている。
The boundary position detection process described below is performed in the uncut area.
The position of the boundary (L) is detected by utilizing the phenomenon that the cut land (C) looks brighter than that of (B).

すなわち、前記車体(V)が設定距離を走行する毎に撮像
処理が行われて、前記イメージセンサ(S1)の撮像情報に
基づいて、予め設定された32×32画素の画素密度に対応
して各画素の明るさレベルが量子化される。
That is, the imaging process is performed every time the vehicle body (V) travels a set distance, and based on the imaging information of the image sensor (S 1 ), it corresponds to a preset pixel density of 32 × 32 pixels. The brightness level of each pixel is quantized.

次に、処理対象となる画素の周囲に隣接する8近傍画素
夫々の値に基づいて、画像上のx軸方向における明るさ
を微分した値の絶対値を微分値として求める処理が、二
次元方向に並ぶ各画素について行われる。
Next, the process of obtaining the absolute value of the value obtained by differentiating the brightness in the x-axis direction on the image as the differential value based on the value of each of the 8 neighboring pixels adjacent to the periphery of the pixel to be processed is the two-dimensional direction. Is performed for each pixel lined up with.

但し、この境界位置検出処理を利用して、前記作業行程
の終端を検出する場合には、未刈地(B)と既刈地(C)との
明るさ変化が、前後方向となることから、前記x軸に交
差するy軸方向での明るさの微分値を求めることにな
る。
However, when using this boundary position detection processing to detect the end of the work stroke, the brightness change between the uncut land (B) and the already cut land (C) is in the front-back direction. , The differential value of the brightness in the y-axis direction intersecting the x-axis is obtained.

そして、各画素の微分値が予め設定された設定閾値以上
となる画素を抽出することにより、明るさ変化が設定値
以上となる画素を抽出して画像情報を2値化する。
Then, by extracting the pixels whose differential value of each pixel is equal to or more than a preset threshold value, the pixels whose brightness change is equal to or more than the preset value are extracted, and the image information is binarized.

画像を2値化した後は、ハフ変換を利用して前記抽出さ
れた画素を通り、且つ、複数段階に設定された傾きとな
る複数本の直線を求める。
After binarizing the image, a plurality of straight lines passing through the extracted pixels and having inclinations set in a plurality of steps are obtained by using Hough transform.

但し、ハフ変換では、抽出された画素を通る複数本の直
線を、下記(i)式に基づいて、前記x軸に対して0度乃
至180度の範囲において、予め複数段階に設定された極
座標系における基準線としてのx軸に対する傾き(θ)
と、原点つまり画面中央(x=16,y=16の点)からの
距離(ρ)との組み合わせとして求めることになる(第
9図参照)。
However, in the Hough transform, a plurality of straight lines passing through the extracted pixels are set to polar coordinates set in advance in a plurality of stages in the range of 0 to 180 degrees with respect to the x-axis based on the following formula (i). Inclination (θ) with respect to the x-axis as the reference line in the system
And a distance (ρ) from the origin, that is, the center of the screen (x = 16, y = 16) (see FIG. 9).

ρ=x・cosθ+y・sinθ ……(i) そして、一つの画素について、前記複数段階に設定され
た傾き(θ)の値が180度に達するまで、求めた各直線
の頻度を計数するための二次元ヒストグラムを加算する
処理を繰り返した後、抽出された全画素を通る複数種の
直線の頻度を、各抽出画素毎に計数することになる。
ρ = x · cos θ + y · sin θ (i) Then, for one pixel, the frequency of each straight line obtained is counted until the value of the inclination (θ) set in the plurality of steps reaches 180 degrees. After repeating the process of adding the two-dimensional histograms, the frequencies of a plurality of types of straight lines passing through all the extracted pixels are counted for each extracted pixel.

抽出された全画素に対する直線の頻度の計数が完了した
後は、前記二次元ヒストグラムに加算された値から、最
大頻度となる前記傾き(θ)と原点からの距離(ρ)の
組み合わせを求めることにより、最大頻度となる一つの
直線(Lx)(第9図参照)を決定し、その直線(Lx)を、前
記イメージセンサ(S1)の撮像面における前記境界(L)に
対応する直線として求めることになる。
After the frequency of straight lines for all the extracted pixels is completed, a combination of the inclination (θ) and the distance (ρ) from the origin, which is the maximum frequency, is obtained from the value added to the two-dimensional histogram. One straight line (Lx) having the maximum frequency (see FIG. 9) is determined by, and the straight line (Lx) is defined as a straight line corresponding to the boundary (L) on the imaging surface of the image sensor (S 1 ). Will ask.

次に、予め実測した地表面での前記イメージセンサ(S1)
の撮像視野(A)の形状と大きさの記憶情報と、前記直線
(Lx)が通る撮像面での画素の位置(a,b,c)(第9図参
照)とに基づいて、地表面における前記境界(L)に対応
する直線に補正する。
Next, the image sensor (S 1 ) on the ground surface measured in advance
Information on the shape and size of the imaging field of view (A) of the
Based on the position (a, b, c) of the pixel (see FIG. 9) on the imaging surface through which (Lx) passes, correction is made to a straight line corresponding to the boundary (L) on the ground surface.

すなわち、第6図及び第7図にも示すように、前記境界
(L)に交差する方向となる撮像視野(A)の前後2辺の長さ
(l1),(l32)と、視野中央を撮像する画素の位置(x=1
6,y=16)における前記撮像視野(A)の横幅方向の長さ
(l16)と、前記前後2辺間の距離(h)とを、予め実測して
前記制御装置(5)に記憶させておくことになる。
That is, as shown in FIG. 6 and FIG.
The length of the front and rear two sides of the imaging field of view (A) that intersects with (L)
(l 1 ), (l 32 ), and the pixel position (x = 1
6, y = 16) the length of the imaging field of view (A) in the width direction
(l 16 ) and the distance (h) between the front and rear sides are measured in advance and stored in the control device (5).

そして、前記最大頻度となる直線(Lx)として求められる
極座標系における原点からの距離(ρ)と傾き(θ)夫
々の値に基づいて、前記最大頻度となる直線(Lx)が、前
記撮像視野(A)の前後2辺と交差する箇所(a,b)(y=1,
32となる位置)に位置する画素のx座標の値(X1,X32)、
及び、撮像視野中央(y=16となる位置)でのx座標の
値(x16)の夫々を、前記(i)式を変形した下記(ii)式
から求める。
Then, based on the values of the distance (ρ) from the origin and the inclination (θ) in the polar coordinate system obtained as the straight line (Lx) having the maximum frequency, the straight line (Lx) having the maximum frequency is the imaging field of view. A part (a, b) (y = 1, where it intersects with two sides before and after (A))
The value of the x coordinate of the pixel located at the position 32 ) (X 1 , X 32 ),
Also, the value (x 16 ) of the x coordinate at the center of the imaging visual field (the position where y = 16) is obtained from the following equation (ii) which is a modification of the above equation (i).

但し、i=1,16,32である。 However, i = 1,16,32.

つまり、上記(ii)式にて求められたx軸での座標値(X1,
X16,X32)の夫々を、前記境界(L)の位置情報として検出
することになり、このx軸での座標値(X1,X16,X32)の値
を求めるための一連の処理が、前記境界位置検出手段(1
00)に対応することになる。
That is, the coordinate value on the x-axis (X 1 ,
X 16 , X 32 ) is detected as position information of the boundary (L), and a series of values for obtaining the coordinate value (X 1 , X 16 , X 32 ) on the x-axis The processing is performed by the boundary position detecting means (1
It will correspond to 00).

次に、第4図に示すフローチャートに基づいて、前記境
界位置検出手段(100)にて検出された境界位置情報に基
づいて、次の撮像地点における境界位置を推定すると共
に、操向輪としての前記前輪(1)の目標操向角(θf)を
求める目標操向角演算処理について説明する。
Next, based on the flow chart shown in FIG. 4, the boundary position at the next imaging point is estimated based on the boundary position information detected by the boundary position detecting means (100), and at the same time as the steering wheel. A target steering angle calculation process for obtaining the target steering angle (θf) of the front wheel (1) will be described.

すなわち、前回の撮像地点における撮像情報に基づいて
検出された境界位置情報(Xi(t-1))と、後述の目標操向
角算出の処理にて算出された前記前輪(1)の目標操向角
(θf)と、前記車速検出用ポテンショメータ(R3)にて検
出される車速(v)とに基づいて、下記(iii)式から、今回
の撮像地点における前記境界(L)に対応する最大頻度の
直線が地面上の撮像視野(A)を通る前記x軸での座標値
(X1,X16,X32)の値に対応する推定境界位置 を求める(第5図参照)。
That is, the boundary position information (Xi (t-1)) detected based on the image pickup information at the previous image pickup point and the target steering of the front wheel (1) calculated by the target steering angle calculation process described later. Based on the vehicle angle (θf) and the vehicle speed (v) detected by the vehicle speed detecting potentiometer (R 3 ), the following (iii) formula corresponds to the boundary (L) at the current imaging point. The coordinate value on the x-axis where the maximum frequency line passes through the field of view (A) on the ground
Estimated boundary position corresponding to the value of (X 1 , X 16 , X 32 ). Is calculated (see FIG. 5).

但し、i=1,16,32、j=1,2,3である。Kjは係数であ
る。又、tは今回の撮像地点の情報であることを示し、
t-1は前回の撮像地点の情報であることを示す。
However, i = 1,16,32 and j = 1,2,3. Kj is a coefficient. Also, t indicates that it is the information of the imaging point this time,
t-1 indicates that it is the information of the previous imaging point.

つまり、上記(iii)式から今回の撮像地点における推定
境界位置 を求める処理が、境界位置推定手段(103)に対応するこ
とになる。
That is, from the above equation (iii), the estimated boundary position at this imaging point is The processing for obtaining the value corresponds to the boundary position estimating means (103).

次に、今回の撮像情報に基づいて検出された前記x軸で
の3箇所の座標値(Xi(t))と上記(iii)式にて求められた
推定境界位置 との差の絶対値が設定値(Δj:但し、j=1,2,3であ
る。第5図参照)以上あるか否かを各座標値毎に比較し
て、前記設定値(Δj)以上ある場合には、検出した境
界位置情報が誤っていると判断して、前記検出境界位置
(Xi(t))を対応する推定境界位置 の夫々に置き換える。
Next, the coordinate values (Xi (t)) at the three points on the x-axis detected based on the imaging information of this time and the estimated boundary position obtained by the equation (iii) above. The absolute value of the difference between and the set value (Δj: j = 1, 2, 3; see FIG. 5) is compared for each coordinate value, and the set value (Δj) is compared. If there is more than the above, it is judged that the detected boundary position information is incorrect, and the detected boundary position is detected.
Estimated boundary position corresponding to (Xi (t)) Replace each of.

前記検出境界位置(Xi(t))を前記推定境界位置 の夫々に置き換えた後は、置き換えられた検出境界位置
(Xi(t))を次回の境界位置推定に用いるために、前記前
回の検出境界位置(Xi(t-1))に置き換える。
The detected boundary position (Xi (t)) is set to the estimated boundary position. Of the detected boundary position after replacement
In order to use (Xi (t)) for the next boundary position estimation, the previously detected boundary position (Xi (t-1)) is replaced.

但し、前記設定値(Δi)未満である場合には、前記推
定境界位置 に置き換えることなく検出した境界位置(Xi(t))をその
まま用いることになる。
However, when it is less than the set value (Δi), the estimated boundary position The detected boundary position (Xi (t)) is used as it is without being replaced with.

検出境界位置(Xi(t))を決定した後は、地表面での前記
基準線(L0)に対する横幅方向でのずれとしての位置
(δ)を、下記(iv)式に基づいて算出すると共に、前記
基準線(L0)に対する傾き(ψ)を、下記(v)式に基づ
いて算出する(第6図参照)。
After the detection boundary position (Xi (t)) is determined, the position (δ) as a deviation in the width direction with respect to the reference line (L 0 ) on the ground surface is calculated based on the following equation (iv). At the same time, the inclination (ψ) with respect to the reference line (L 0 ) is calculated based on the following equation (v) (see FIG. 6).

尚、前記距離(δ)及び傾き(ψ)の値は、前記前輪
(1)の目標操向角(θf)の符号に対応させて、前記基準
線(L0)に対するずれがない状態を零として、右にずれて
いる場合を正の値に、且つ、左にずれている場合を負の
値に、夫々設定することになる。
The values of the distance (δ) and the inclination (ψ) are the values of the front wheels.
Corresponding to the sign of the target steering angle (θf) in (1), the state where there is no deviation with respect to the reference line (L 0 ) is set to zero, and the case where there is a deviation to the right is a positive value, and to the left. If they are deviated, they will be set to negative values, respectively.

そして、前記傾き(ψ)、距離(δ)、及び、前記前輪
用の操向角検出用ポテンショメータ(R1)にて検出される
検出操向角(θ)とに基づいて、下記(vi)式から、目標
操向角(θf)を求める。
Then, based on the inclination (ψ), the distance (δ), and the detected steering angle (θ) detected by the steering angle detection potentiometer (R 1 ) for the front wheels, the following (vi) The target steering angle (θf) is calculated from the equation.

θf=K4・δ+K5・ψ+K6・θ ……(vi) 但し、K4,K5,K6は、操向系における制御応答の特性に対
応して、予め設定された係数である。
θf = K 4 · δ + K 5 · ψ + K 6 · θ (vi) where K 4 , K 5 , and K 6 are preset coefficients corresponding to the characteristics of the control response in the steering system.

つまり、前記基準線(L0)に対する傾き(ψ)と撮像視野
中央(x=16,y=16となる位置)における横幅方向で
の距離(δ)と、前記操向角検出用ポテンショメータ(R
1)にて検出される検出操向角(θ)とに基づいて、上記
(vi)式から、目標操向角(θf)を求める処理が、目標操
向角判別手段(101)に対応することになる。
That is, the inclination (ψ) with respect to the reference line (L 0 ), the distance (δ) in the lateral width direction at the center of the imaging visual field (the position where x = 16, y = 16), and the steering angle detection potentiometer (R
Based on the detected steering angle (θ) detected in 1 ),
The process of obtaining the target steering angle (θf) from the equation (vi) corresponds to the target steering angle determination means (101).

〔別実施例〕 上記実施例では、前記車体(V)が設定距離を走行する毎
に、撮像処理して境界位置を検出するようにした場合を
例示したが、設定時間毎に撮像して境界位置を検出させ
るようにしてもよい。
[Other embodiment] In the above embodiment, the case where the vehicle body (V) travels a set distance and the imaging process is performed to detect the boundary position is exemplified. The position may be detected.

又、上記実施例では、撮像情報に基づいて境界位置を検
出するに、ハフ変換を利用して境界(L)に対応する直線
を求めるようにした場合を例示したが、例えば、最小二
乗法を用いて近似直線を求める等、境界位置検出手段(1
00)の具体構成は各種変更できる。
Further, in the above-mentioned embodiment, in order to detect the boundary position based on the imaging information, the case where the straight line corresponding to the boundary (L) is obtained by using the Hough transform has been exemplified. Boundary position detection means (1
The specific configuration of 00) can be changed in various ways.

又、上記実施例では、次の撮像地点における境界位置の
推定を、前回の撮像地点において検出された撮像視野の
地表面における前後両端のx軸方向に沿う座標値に基づ
いて推定するようにした場合を例示したが、例えば、前
記最大頻度の直線(Lx)の画面上における位置やその直線
を示す式として推定するようにしてもよい。
Further, in the above-described embodiment, the boundary position at the next imaging point is estimated based on the coordinate values along the x-axis direction at the front and rear ends of the ground surface of the imaging field of view detected at the previous imaging point. Although the case has been illustrated, for example, the position of the maximum frequency straight line (Lx) on the screen or an equation indicating the straight line may be estimated.

又、上記実施例では、目標操向角(θf)に基づいて次の
境界位置を推定するようにした場合を例示したが、前記
前輪(1)の操向角(θ)に基づいて境界位置を推定する
ようにしてもよく、境界位置推定手段(103)の具体構成
は各種変更できる。
Further, in the above embodiment, the case where the next boundary position is estimated based on the target steering angle (θf) is illustrated, but the boundary position is calculated based on the steering angle (θ) of the front wheel (1). May be estimated, and the specific configuration of the boundary position estimating means (103) can be changed in various ways.

又、上記実施例では、車体(V)が境界(L)に対して適正状
態に沿っている状態として設定した基準線(L0)に対する
検出境界の横幅方向の距離(δ)と傾き(θ)との両方
に基づいて、目標操向角(θf)を求めるようにした場合
を例示したが、距離(δ)と傾き(θ)の何れか一方の
みに基づいて目標操向角(θf)を求めるようにしてもよ
い。又、前記距離(δ)又は傾き(ψ)が設定値以上ず
れている場合には、そのずれを修正する方向に設けて予
め設定された一定の操向角で操向させるようにしてもよ
く、目標操向角判別手段(101)の具体構成は各種変更で
きる。
Further, in the above-described embodiment, the lateral distance (δ) and inclination (θ) of the detection boundary with respect to the reference line (L 0 ) set as a state in which the vehicle body (V) is in a proper state with respect to the boundary (L). ) And the target steering angle (θf) is shown as an example, but the target steering angle (θf) is calculated based on only one of the distance (δ) and the inclination (θ). May be requested. Further, when the distance (δ) or the inclination (ψ) is deviated by more than a set value, it may be provided in a direction for correcting the deviation so as to steer at a constant steering angle set in advance. The specific configuration of the target steering angle determination means (101) can be changed in various ways.

又、上記実施例では、前輪(1)のみを操向するようにし
た場合を例示したが、例えば、前記基準線(L0)に対する
検出境界の横幅方向の距離(δ)を前記前後輪(1),(2)
を同位相で操向する平行ステアリング形式で修正させ、
且つ、前記傾き(ψ)を前記前後輪(1),(2)を逆位相で
操向する4輪ステアリング形式で修正させるようにして
もよく、操向制御手段(102)の具体構成は各種変更でき
る。
Further, in the above embodiment, the case where only the front wheel (1) is steered is illustrated, but for example, the distance (δ) in the lateral width of the detection boundary with respect to the reference line (L 0 ) is set to the front and rear wheels ( 1), (2)
Is corrected by the parallel steering system that steers in the same phase,
Further, the inclination (ψ) may be corrected by a four-wheel steering system in which the front and rear wheels (1) and (2) are steered in opposite phases, and the steering control means (102) has various specific configurations. Can be changed.

又、上記実施例では、本発明を芝刈り用の作業車に適用
して、回り刈り形式で自動走行させるようにした場合を
例示したが、本発明は各種の作業車に適用できるもので
あって、未処理作業地及び処理済作業地の形態、境界
(L)の形態、走行形態、並びに、作業車各部の構成等の
具体構成は各種変更できる。
Further, in the above-described embodiment, the present invention is applied to the work vehicle for lawn mowing, and the case where the vehicle is automatically run in the swivel cutting type is illustrated, but the present invention is applicable to various work vehicles. The shape and boundaries of untreated and treated work sites
Various modifications can be made to the specific configuration such as the configuration (L), the traveling configuration, and the configuration of each part of the work vehicle.

尚、特許請求の範囲の項に図面との対照を便利にする為
に符号を記すが、該記入により本発明は添付図面の構造
に限定されるものではない。
It should be noted that reference numerals are added to the claims for convenience of comparison with the drawings, but the present invention is not limited to the structures of the accompanying drawings by the entry.

【図面の簡単な説明】[Brief description of drawings]

図面は本発明に係る自動走行作業車の撮像式操向制御装
置の実施例を示し、第1図は制御構成のブロック図、第
2図は制御作動のフローチャート、第3図は境界位置検
出処理のフローチャート、第4図は目標操向角演算処理
のフローチャート、第5図は推定境界位置範囲の説明
図、第6図は撮像視野の平面図、第7図は同側面図、第
8図は作業地の説明図、第9図はハフ変換の説明図であ
る。 (1)……操向輪、(V)……車体、(B)……未処理作業地、
(C)……処理済作業地、(L)……境界、(S1)……撮像手
段、(θf)……目標操向角、(100)……境界位置検出手
段、(101)……目標操向角判別手段、(102)……操向制御
手段、(103)……境界位置推定手段。
The drawings show an embodiment of an image pickup type steering control device for an automated guided vehicle according to the present invention. Fig. 1 is a block diagram of a control configuration, Fig. 2 is a flowchart of control operation, and Fig. 3 is a boundary position detection process. Of FIG. 4, FIG. 4 is a flowchart of the target steering angle calculation process, FIG. 5 is an explanatory view of the estimated boundary position range, FIG. 6 is a plan view of the imaging visual field, FIG. 7 is the same side view, and FIG. FIG. 9 is an explanatory diagram of the work site, and FIG. 9 is an explanatory diagram of Hough conversion. (1) …… Steering wheel, (V) …… Body, (B) …… Untreated work site,
(C) …… Processed work site, (L) …… Boundary, (S 1 ) …… Imaging means, (θf) …… Target steering angle, (100) …… Boundary position detection means, (101)… Target steering angle determination means (102) Steering control means (103) Boundary position estimation means.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊藤 勝美 大阪府堺市石津北町64番地 久保田鉄工株 式会社堺製造所内 (56)参考文献 特開 昭62−241012(JP,A) 特開 昭61−15606(JP,A) 特開 昭60−184309(JP,A) 特開 昭62−122507(JP,A) 特開 昭62−162113(JP,A) 特開 昭62−140113(JP,A) 特開 昭61−187706(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Katsumi Ito 64, Ishizukita-machi, Sakai City, Osaka Prefecture Kubota Iron Works Co., Ltd. Sakai Works (56) Reference JP 62-241012 (JP, A) JP 61 -15606 (JP, A) JP 60-184309 (JP, A) JP 62-122507 (JP, A) JP 62-162113 (JP, A) JP 62-140113 (JP, A) ) JP-A-61-187706 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】車体(V)が設定距離を走行する毎に又は設
定時間経過する毎に、走行前方側の未処理作業地(B)と
処理済作業地(C)との境界(L)に対応する箇所を二次元方
向に亘って繰り返し撮像する撮像手段(S1)と、その撮像
手段(S1)の撮像情報に基づいて前記車体(V)に対する前
記境界(L)の位置を検出する境界位置検出手段(100)と、
その境界位置検出手段(100)の検出情報に基づいて、前
記車体(V)を前記境界(L)に対する適正状態に近づけるよ
うに操向輪(1)の目標操向角(θf)を判別する目標操向
角判別手段(101)と、その目標操向角判別手段(101)の判
別情報に基づいて前記操向輪(1)を自動的に前記目標操
向角(θf)に操向操作する操向制御手段(102)とが設け
られた自動走行作業車の撮像式操向制御装置であって、
前記撮像手段(S1)が撮像してから次に撮像するまでに前
記車体(V)が走行する距離情報と、前記操向輪(1)の目標
操向角情報と、前記境界位置検出手段(100)の検出情報
とに基づいて、前記撮像手段(S1)が次に撮像する位置ま
で前記車体(V)が走行した時点における境界の位置を推
定する境界位置推定手段(103)が設けられ、前記目標操
向角判別手段(101)は、次の撮像位置における前記撮像
手段(S1)の撮像情報に基づいて前記境界位置検出手段(1
00)が検出した境界位置が、前記境界位置推定手段(102)
にて推定された境界位置に対して設定範囲以上ずれてい
る場合には、前記境界位置推定手段(102)にて推定され
た境界位置に基づいて前記目標操向角(θf)を判別する
ように構成されている自動走行作業車の撮像式操向制御
装置。
1. A boundary (L) between an unprocessed work site (B) and a processed work site (C) on the front side of travel each time the vehicle body (V) travels a set distance or a set time elapses. imaging means for imaging repeatedly over the two-dimensional directions of a portion corresponding to the (S 1), detecting the position of the boundary (L) with respect to the vehicle body (V) based on the imaging information of the image pickup means (S 1) Boundary position detection means (100)
Based on the detection information of the boundary position detection means (100), the target steering angle (θf) of the steering wheel (1) is determined so that the vehicle body (V) approaches the proper state with respect to the boundary (L). Target steering angle discriminating means (101) and the steering wheel (1) is automatically steered to the target steering angle (θf) based on the discrimination information of the target steering angle discriminating means (101). An image pickup type steering control device for an automatic traveling work vehicle provided with a steering control means (102) for
Distance information of travel of the vehicle body (V) from one image pickup means (S 1 ) to the next image pickup, target steering angle information of the steered wheels (1), and the boundary position detection means. Based on the detection information of (100), a boundary position estimating means (103) for estimating the position of the boundary at the time when the vehicle body (V) travels to the position where the image capturing means (S 1 ) next captures an image is provided. The target steering angle discriminating means (101) is configured to detect the boundary position detecting means (1) based on the imaging information of the imaging means (S 1 ) at the next imaging position.
The boundary position detected by (00) is the boundary position estimating means (102).
If it deviates by more than a set range from the boundary position estimated by, the target steering angle (θf) is determined based on the boundary position estimated by the boundary position estimating means (102). An image pickup-type steering control device for an automated traveling vehicle configured as described in 1.
JP62320255A 1987-12-17 1987-12-17 Imaging type steering control device for automated driving vehicles Expired - Lifetime JPH0610774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62320255A JPH0610774B2 (en) 1987-12-17 1987-12-17 Imaging type steering control device for automated driving vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62320255A JPH0610774B2 (en) 1987-12-17 1987-12-17 Imaging type steering control device for automated driving vehicles

Publications (2)

Publication Number Publication Date
JPH01161403A JPH01161403A (en) 1989-06-26
JPH0610774B2 true JPH0610774B2 (en) 1994-02-09

Family

ID=18119458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62320255A Expired - Lifetime JPH0610774B2 (en) 1987-12-17 1987-12-17 Imaging type steering control device for automated driving vehicles

Country Status (1)

Country Link
JP (1) JPH0610774B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843230A (en) * 2017-03-24 2017-06-13 上海思岚科技有限公司 It is applied to the virtual wall system and its implementation of mobile device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3357749B2 (en) 1994-07-12 2002-12-16 本田技研工業株式会社 Vehicle road image processing device
DE102008013808A1 (en) 2008-03-12 2009-09-17 Entwicklungsgesellschaft für Akustik (EfA) mit beschränkter Haftung Production of a semifinished product from flakes
US10727034B2 (en) 2017-08-16 2020-07-28 Sputtering Components, Inc. Magnetic force release for sputtering sources with magnetic target materials

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843230A (en) * 2017-03-24 2017-06-13 上海思岚科技有限公司 It is applied to the virtual wall system and its implementation of mobile device
WO2018171735A1 (en) * 2017-03-24 2018-09-27 上海思岚科技有限公司 Virtual wall system for use in mobile device, and implementation method thereof
CN106843230B (en) * 2017-03-24 2019-11-19 上海思岚科技有限公司 Virtual wall system and its implementation applied to mobile device
US11275380B2 (en) 2017-03-24 2022-03-15 Shanghai Slamtec Co., Ltd. Virtual wall system for mobile devices and implementation method thereof

Also Published As

Publication number Publication date
JPH01161403A (en) 1989-06-26

Similar Documents

Publication Publication Date Title
JPH0610774B2 (en) Imaging type steering control device for automated driving vehicles
JPH0759407A (en) Traveling controller of automatic traveling working car
JP2815760B2 (en) Crop row detector
JPH069011B2 (en) Travel control system for automated guided vehicles
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JPH07104720B2 (en) Image-capturing boundary detection device for self-driving work vehicles
JPH0575335B2 (en)
JPH0575330B2 (en)
JPH0575332B2 (en)
JPH0547161B2 (en)
JPH01161402A (en) Image pickup type steering control device for automatic traveling working vehicle
JPH0575336B2 (en)
JPH0575329B2 (en)
JPS63277908A (en) Image pickup type border detection device
JPH0646886B2 (en) Steering control device for automated vehicle
JP2624390B2 (en) Crop row detector
JPH0575334B2 (en)
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JPH01231809A (en) Photographing type travel control device for automatic travel working car
JPH0619541A (en) End detecting device for automatic travel working vehicle
JP2721072B2 (en) Crop row detector
JPH0624016B2 (en) Imaging type boundary detection device
JPH0619542A (en) Traveling controller for automatic travel working vehicle
JPH01235507A (en) Image sensing boundary detecting device
JPH01231810A (en) Photographing type steering control device for automatic travel working car