JP2002132343A - Travel control method for autonomous travel body - Google Patents

Travel control method for autonomous travel body

Info

Publication number
JP2002132343A
JP2002132343A JP2000327872A JP2000327872A JP2002132343A JP 2002132343 A JP2002132343 A JP 2002132343A JP 2000327872 A JP2000327872 A JP 2000327872A JP 2000327872 A JP2000327872 A JP 2000327872A JP 2002132343 A JP2002132343 A JP 2002132343A
Authority
JP
Japan
Prior art keywords
traveling
gazing point
traveling body
steering angle
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000327872A
Other languages
Japanese (ja)
Inventor
Tatsuo Makino
辰夫 牧野
Hiroshi Wajima
洋 和島
Yasuyuki Kitamura
安幸 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2000327872A priority Critical patent/JP2002132343A/en
Publication of JP2002132343A publication Critical patent/JP2002132343A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a travel control method for an autonomous travel body which can obtain high tracking performance for a travel path by increasing the stable margin of a control system. SOLUTION: An image picked up by an image pickup device 2 mounted on the autonomous travel body 1 is divided into multiple areas 6 and feature quantities in the divided areas found by the divided areas 6 are compared with a specific threshold to extract a tracking object area 7; and a point P of interest is set in the tracking object area 7, the angle θ of steering of the autonomous travel body 1 for traveling to the set point P of interest is calculated, and the autonomous travel body 1 is steered and controlled with the steering angle θ.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、不整地および未舗
装路などのように道路の境界が明確に存在しない場所
を、撮像装置によって撮像した画像を用いて自律走行す
る自律走行体の走行制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traveling control of an autonomous traveling body which autonomously travels on a place where a road boundary does not clearly exist, such as an uneven terrain and an unpaved road, using an image taken by an imaging device. About the method.

【0002】[0002]

【従来の技術】未舗装道路のように明確な境界線が存在
しない道路を、自動車のような走行体(ビークル;vehi
cle)が追従走行するための従来の技術では、信号変換
手段の一種であるニューラルネットワークによって、道
路の画像から走行体の操舵量を直接求める手法が採用さ
れている。このニューラルネットワークは、走行判断の
ロジックが不明であるため、問題の予測および解析が困
難であり、さらに走行体に搭載されているカメラの設定
位置や走行体自体に変更があると、そのたびに学習し直
す必要があり、実走行する前の設定作業および調整作業
が煩雑であるという問題を有する。
2. Description of the Related Art A road such as an unpaved road without a clear boundary line is used for a vehicle such as a vehicle (vehive).
In the conventional technology for the cle) to follow, a method of directly obtaining the steering amount of the traveling body from the image of the road by a neural network which is a kind of signal conversion means is adopted. In this neural network, it is difficult to predict and analyze the problem because the logic of the traveling judgment is unknown, and every time there is a change in the setting position of the camera mounted on the traveling body or the traveling body itself, It is necessary to learn again, and there is a problem that the setting operation and the adjusting operation before the actual traveling are complicated.

【0003】また、明確な境界線が存在する道路やその
道路上の白線を追従走行するための他の従来の技術は、
特許第2583639号公報に示されている。この従来
の技術では、走行体に搭載した撮像装置によって前方道
路を撮像した画像上に、複数の注視点を設定し、各注視
点情報によって求めた舵角を、交差点などの注視点情報
の不足を重み付けして操舵角を求め、この操舵角によっ
て走行体を操舵する注視点を用いた手法が開示されてい
る。
Another conventional technique for following a road having a clear boundary line and a white line on the road is as follows.
This is disclosed in Japanese Patent No. 2,583,639. According to this conventional technique, a plurality of gazing points are set on an image obtained by capturing an image of a road ahead by an imaging device mounted on a traveling body, and a steering angle obtained by each gazing point information is determined by a lack of gazing point information such as an intersection. A method is disclosed in which a steering angle is obtained by weighting a vehicle, and a gazing point is used to steer a traveling body with the steering angle.

【0004】さらに上記の特許第2583639号公報
の従来の技術に類似する他の従来の技術は、特開平4−
262207号公報に示されている。この従来の技術で
は、走行路面に沿って描かれたセンターライン、路肩の
白線および路側帯などの線状標示を、運転者が画像追尾
用ウインドウ上で指定することによって、前記線状標示
の追尾動作が開始され、前記画像追尾用ウインドウの位
置を所定の位置となるように表示画面内で移動させ、走
行体の進行方向を制御することができるとともに、障害
物検知用ウインドウによって捕らえられた先行車までの
距離に応じて走行速度を制御する手法が開示されてい
る。
Further, another conventional technique similar to the conventional technique disclosed in Japanese Patent No. 2583639 is disclosed in Japanese Unexamined Patent Publication No.
No. 262207. According to this conventional technique, a driver specifies a linear marking such as a center line, a white line on a road shoulder, and a roadside zone drawn along a traveling road surface on an image tracking window, thereby tracking the linear marking. The operation is started, and the position of the image tracking window is moved within the display screen so as to be a predetermined position, so that the traveling direction of the traveling body can be controlled, and the advance detected by the obstacle detection window can be controlled. A method of controlling a traveling speed according to a distance to a vehicle is disclosed.

【0005】[0005]

【発明が解決しようとする課題】上記の特許第2583
639号公報および特開平4−262207号公報に示
される各従来の技術では、誤差の存在を前提とするの
で、理論的に制御遅れが生じ、制御系の安定余裕が小さ
くなるという問題がある。また画像中央と道路中央との
誤差から操舵量を算出するためにPID(proportional in
tegral differential)演算を用いた場合、PIDゲインの
調整が必要となるだけでなく、走行体車両の変更時にも
ゲインの再調整が必要であり、最適なゲインを得るため
に、時間がかかるという問題がある。
The above-mentioned Patent No. 2584
In each of the conventional techniques disclosed in Japanese Patent Application Laid-Open No. 639 and Japanese Patent Application Laid-Open No. 4-262207, there is a problem that a control delay theoretically occurs due to the existence of an error and a stability margin of a control system is reduced. To calculate the steering amount from the error between the center of the image and the center of the road, PID (proportional in
Integral differential) calculation requires not only adjustment of the PID gain, but also the need to readjust the gain when changing the traveling vehicle, and it takes time to obtain the optimum gain. There is.

【0006】本発明の目的は、制御系の安定余裕の増大
を図り、PIDゲインのようなパラメータの調整を不要と
し、走行路に対して高い追従性を得ることができる自律
走行体の走行制御方法を提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to increase the stability margin of a control system, eliminate the need for adjusting parameters such as a PID gain, and achieve a travel control of an autonomous traveling body capable of achieving high followability on a travel path. Is to provide a way.

【0007】[0007]

【課題を解決するための手段】請求項1記載の本発明
は、走行体に搭載される撮像装置によって撮像された画
像を、複数の領域に分割して、各分割領域毎に求めた分
割領域内の特徴量と所定のしきい値とを比較して追従対
象領域を抽出し、この追従対象領域上に注視点を設定
し、この注視点に向かうための走行体の操舵角を算出
し、この操舵角によって走行体を操舵制御することを特
徴とする自律走行体の走行制御方法である。
According to a first aspect of the present invention, an image captured by an imaging device mounted on a traveling body is divided into a plurality of regions, and the divided regions obtained for each divided region are obtained. Extract the tracking target area by comparing the feature amount within the predetermined threshold value, set a gazing point on this tracking target area, calculate the steering angle of the traveling body to head to this gazing point, A traveling control method for an autonomous traveling body, characterized in that the traveling body is subjected to steering control by the steering angle.

【0008】本発明に従えば、撮像装置によって撮像さ
れた画像を複数の領域に分割し、各分割領域毎に特徴量
を求め、この特徴量と所定のしきい値を比較することに
よって、追従対象領域が抽出される。
According to the present invention, an image captured by an imaging device is divided into a plurality of regions, a characteristic amount is obtained for each of the divided regions, and the characteristic amount is compared with a predetermined threshold value to thereby track the image. The target area is extracted.

【0009】こうして抽出された追従対象領域には、注
視点が設定され、この注視点から走行体の操舵角が計算
して求められる。このような操舵角の算出は、前述の特
許第2583639号公報および特開平4−26220
7号公報に示される各従来の技術のように、誤差の存在
を前提としないので、理論的に制御遅れはなく、制御系
の安定余裕が小さくなるという問題は生じない。
A gazing point is set in the tracking target area extracted as described above, and the steering angle of the traveling body is calculated and obtained from the gazing point. The calculation of such a steering angle is disclosed in the aforementioned Japanese Patent No. 2583639 and Japanese Patent Laid-Open No. 4-26220.
Unlike each of the prior arts disclosed in Japanese Patent Application Publication No. 7-107, there is no assumption that there is an error, so that there is no control delay theoretically, and there is no problem that the stability margin of the control system is reduced.

【0010】また前記各従来の技術のように、画像中央
と道路中央との誤差から操舵量を算出するのではなく、
複数の分割領域から成る追従対象領域中に注視点を設定
し、この注視点から操舵角を求めるので、前記PID演算
を用いた場合におけるPIDゲインの調整などのようなパ
ラメータの調整が不要であり、また撮像装置の設定位置
の変更および車両の変更など操舵量の計算に関与する諸
量が変化しても、前記パラメータの再調整が不要であ
り、走行前の設定作業および調整作業に多くの時間およ
び手間を要することなしに、走行路に対して高い追従性
を得ることができる。
[0010] Further, instead of calculating the steering amount from the error between the center of the image and the center of the road as in each of the above-mentioned prior arts,
Since a gazing point is set in a tracking target area composed of a plurality of divided areas, and a steering angle is obtained from the gazing point, it is not necessary to adjust parameters such as adjustment of a PID gain when the PID calculation is used. Also, even if various amounts involved in the calculation of the steering amount such as a change in the set position of the imaging device and a change in the vehicle are changed, it is not necessary to readjust the parameters, and many settings and adjustments before traveling are required. It is possible to obtain a high followability to the traveling path without requiring time and effort.

【0011】請求項2記載の本発明は、特徴量として、
分割領域内のパワースペクトル平均値を使用することを
特徴とする。
According to a second aspect of the present invention, as the feature quantity,
It is characterized in that the average value of the power spectrum in the divided area is used.

【0012】本発明に従えば、撮像装置によって撮像さ
れた画像を複数の領域に分割し、各分割領域毎にパワー
スペクトル平均値を計算することによって、同じテクス
チャ性をもつ領域であれば、遠近によってスケールが異
なっても、パワースペクトル平均値は同じ値になり、ス
ケール変化による誤差を含まない複数の分割領域を、追
従対象領域として抽出することができる。
According to the present invention, an image captured by an imaging device is divided into a plurality of regions, and a power spectrum average value is calculated for each divided region. Even if the scales are different, the average value of the power spectrum becomes the same value, and a plurality of divided regions that do not include an error due to the scale change can be extracted as the tracking target regions.

【0013】請求項3記載の本発明は、前記追従対象領
域から走行経路曲線を近似によって求め、この走行経路
曲線上の進行方向前方に、前記注視点を設定することを
特徴とする。
According to a third aspect of the present invention, a travel route curve is obtained from the following target area by approximation, and the gazing point is set ahead of the travel route curve in the traveling direction.

【0014】本発明に従えば、前記追従対象領域から近
似によって走行経路曲線が求められるので、前記各従来
の技術のように、実走行路に白線や道路境界線が存在し
ている必要はなく、走行可能な場所が前記白線や道路境
界線が存在する場所に限定されない。また前記走行経路
曲線を近似によって求めるので、追従対象領域の判定ミ
スなどの追従対象領域に重畳するノイズの影響が小さ
く、誤差の少ない高精度の走行可能曲線を得ることがで
きる。
According to the present invention, since the travel route curve is obtained by approximation from the following target area, there is no need for a white line or a road boundary line to exist on the actual travel road as in each of the prior arts. However, the place where the vehicle can travel is not limited to the place where the white line or the road boundary line exists. Further, since the traveling route curve is obtained by approximation, the influence of noise superimposed on the tracking target area such as a determination error of the tracking target area is small, and a highly accurate running curve with few errors can be obtained.

【0015】請求項4記載の本発明は、前記走行経路曲
線上の注視点の設定位置を、走行体の操舵角および走行
速度のうち少なくともいずれか一方の値に応じて変化さ
せることを特徴とする。
According to a fourth aspect of the present invention, the set position of the gazing point on the traveling route curve is changed according to at least one of a steering angle and a traveling speed of the traveling body. I do.

【0016】本発明に従えば、走行経路曲線上の注視点
の位置を、操舵角および走行速度のいずれか一方または
双方によって変化させることができるので、カーブ走行
時には、注視点を走行体寄りの近くに設定して、走行経
路曲線に対する追従性を向上し、高い曲線走行性を得る
ことができる。また直線走行時には、注視点を走行体か
ら離れた遠くに設定することによって、操舵角の不所望
な変化を少なくして、高い走行安定性を得ることができ
る。
According to the present invention, the position of the gazing point on the traveling route curve can be changed by one or both of the steering angle and the traveling speed. By setting the distance close to the vehicle, it is possible to improve the followability with respect to the traveling route curve, and to obtain a high curve traveling property. In addition, when the vehicle is traveling straight, the gazing point is set far away from the traveling body, so that undesired changes in the steering angle can be reduced and high traveling stability can be obtained.

【0017】請求項5記載の本発明は、走行経路曲線上
に走行速度指令決定用の注視点を1つ以上設定し、その
注視点における走行経路曲線の曲率に応じて走行速度指
令を変化させることを特徴とする。
According to a fifth aspect of the present invention, at least one gazing point for determining a traveling speed command is set on a traveling route curve, and the traveling speed command is changed according to the curvature of the traveling path curve at the gazing point. It is characterized by the following.

【0018】本発明に従えば、操舵角決定用の注視点と
は独立に、走行速度指令決定用の注視点を設定し、その
注視点における走行経路曲線の曲率の応じて走行指令が
変化するので、曲線路に入る前に、その曲線路中の前記
注視点における最適速度に減速し、あるいは増速するこ
とができ、速度調整によって、走行路に対する追従性お
よび走行安定性を向上することができる。
According to the present invention, a gazing point for determining the traveling speed command is set independently of the gazing point for determining the steering angle, and the traveling command changes according to the curvature of the traveling path curve at the gazing point. Therefore, before entering a curved road, it is possible to reduce or increase the speed to the optimum speed at the point of gaze in the curved road, and to improve the followability to the traveling road and the traveling stability by adjusting the speed. it can.

【0019】請求項6記載の本発明は、前記注視点の画
像上の座標に基づいて、走行体から注視点までの空間的
な距離を求め、その距離の大きさに応じて走行速度指令
を変化させることを特徴とする。
According to a sixth aspect of the present invention, a spatial distance from a running object to a gazing point is obtained based on the coordinates of the gazing point on the image, and a traveling speed command is issued in accordance with the magnitude of the distance. It is characterized by changing.

【0020】本発明に従えば、走行体から注視点までの
空間距離によって走行速度指令を変えるので、注視点に
走行体が近づいたり、遠ざかったりするような走行体の
走行制御が可能となる。たとえば、注視点が動いている
追従対象物上に設定されてもよいため、走行体の前方を
歩行する人間や他の走行物体に追従走行する走行制御が
可能となる。
According to the present invention, the traveling speed command is changed according to the spatial distance from the traveling object to the point of interest, so that traveling control of the traveling object such that the traveling object approaches or moves away from the point of interest becomes possible. For example, since the gazing point may be set on a moving following target, running control for following a human walking in front of the running body or another running object becomes possible.

【0021】請求項7記載の本発明は、前記注視点は、
撮像装置によって撮像された画像から、色特性によって
識別した追従対象物上に設定されることを特徴とする。
According to a seventh aspect of the present invention, the gazing point is:
It is characterized in that it is set on a tracking target identified by a color characteristic from an image captured by an imaging device.

【0022】本発明に従えば、色相や彩度あるいは明度
などの色特性によって追従対象物上に注視点が設定され
るので、日照条件の変化に対して識別性能が左右されに
くいために識別能力が高く、追従対象物に確実に追従さ
せて誘導することが可能となる。
According to the present invention, the gazing point is set on the object to be tracked based on the color characteristics such as hue, saturation, and lightness. And it is possible to reliably follow and follow the following object.

【0023】請求項8記載の本発明は、注視点の画像上
の座標から求めた走行体から注視点までの空間距離が小
さいほど走行速度指令を小さくし、前記空間距離が所定
の距離より小さい場合は、走行速度を0とする走行停止
指令を出力して走行制御することを特徴とする。
According to the present invention, the traveling speed command is reduced as the spatial distance from the traveling body to the gazing point obtained from the coordinates of the gazing point on the image is reduced, and the spatial distance is smaller than a predetermined distance. In this case, the traveling control is performed by outputting a traveling stop command for setting the traveling speed to 0.

【0024】本発明に従えば、前方の歩行者などに追従
走行している場合に、歩行者がしゃがんだり、転んだり
したときは、走行体から注視点までの距離が近づいたと
解釈されて、走行体は減速または停止するため、安全性
の高い追従走行制御が可能となる。また、走行体と注視
点が近づくほど、走行体の速度が遅くなるように制御さ
れるため、追従対象物と走行体の衝突の危険性が下が
り、安全な追従走行が可能となる。
According to the present invention, if the pedestrian squats or falls while following the pedestrian in front of the vehicle, it is interpreted that the distance from the running body to the point of interest is short, Since the traveling body decelerates or stops, the following traveling control with high safety can be performed. Further, since the speed of the traveling body is controlled to be slower as the traveling body comes closer to the gazing point, the danger of collision between the following object and the traveling body is reduced, and safe following traveling is possible.

【0025】[0025]

【発明の実施の形態】図1は、本発明の実施の一形態の
自律走行体の走行制御方法によって走行制御される自律
走行体1の走行状態を示す斜視図であり、図2は自律走
行体1に搭載された撮像装置2の撮像画像3に走行経路
曲線および注視点Pが設定された状態を示す図である。
本実施の形態の走行制御方法が適用される自律走行体
は、不整地4を自律走行して目的地へ到達し、たとえば
予め設定されたプログラムによって所定作業を行う自律
走行体1である。この自律走行体1には、撮像装置2が
搭載され、この撮像装置2によって撮像されたカラー画
像3、すなわち後述の色相画像から、複数の分割領域6
から成る追従対象領域7を抽出し、この追従対象領域7
上に注視点Pを設定し、注視点Pに向かうための操舵角
θを算出し、この操舵角θによって自律走行体1を操舵
制御する。
FIG. 1 is a perspective view showing a traveling state of an autonomous traveling body 1 whose traveling is controlled by an autonomous traveling body traveling control method according to an embodiment of the present invention, and FIG. FIG. 3 is a diagram showing a state in which a traveling route curve and a gazing point P are set in a captured image 3 of an imaging device 2 mounted on a body 1.
The autonomous traveling body to which the traveling control method according to the present embodiment is applied is the autonomous traveling body 1 that travels autonomously on uneven terrain 4 to reach a destination and performs a predetermined operation according to, for example, a preset program. An image pickup device 2 is mounted on the autonomous traveling body 1, and a plurality of divided areas 6 are obtained from a color image 3 picked up by the image pickup device 2, that is, a hue image described later.
The tracking target area 7 composed of
A gazing point P is set above, a steering angle θ for heading toward the gazing point P is calculated, and the steering of the autonomous traveling body 1 is controlled by the steering angle θ.

【0026】前記撮像装置2としては、実環境では未舗
装路と草地とが混在している場合が多いため、色の再現
性が高いカラーCCD(charge coupled device)カメ
ラが用いられる。このCCDカメラには、カーブ走行時
であっても画角から未舗装路が外れないために、広角レ
ンズが取り付けられる。この広角レンズは、大きな照度
変化に対処するため、絞り機能を有する。
As the image pickup device 2, a color CCD (charge coupled device) camera having high color reproducibility is used because unpaved roads and grassland are often mixed in an actual environment. A wide-angle lens is attached to this CCD camera so that the unpaved road does not deviate from the angle of view even when traveling on a curve. This wide-angle lens has an aperture function to cope with a large change in illuminance.

【0027】自律走行体1の未舗装路追従走行は、前記
画像3から未舗装路として検出された追従対象領域7の
中央を走行するものとし、そのアルゴリズムについて説
明する。まず、前記撮像装置2によって撮像されたカラ
ー画像から、色相画像を抽出する。この色相は、HLS
(色相;Hue,明度;Lightness,彩度;Saturation)変
換によって得られる色相であるが、この色相に対して自
然界の色分布を反映させたカスタマイズ処理を行ったも
のでもよい。前記HLS変換とは、カラー画像を表現す
るR(赤)、G(緑)、B(青)の座標系から、色の3
属性である明度、色相、彩度で表される座標系への座標
変換である。
The autonomous vehicle 1 travels along an unpaved road by traveling in the center of the area 7 to be followed detected as an unpaved road from the image 3, and its algorithm will be described. First, a hue image is extracted from a color image captured by the imaging device 2. This hue is HLS
(Hue; Hue, lightness; Lightness, saturation; Saturation) The hue obtained by the conversion may be a hue obtained by performing a customization process that reflects a color distribution in the natural world. The HLS transformation means that a color image is represented by a coordinate system of R (red), G (green), and B (blue).
This is a coordinate conversion to a coordinate system represented by attributes such as brightness, hue, and saturation.

【0028】こうして得られた色相画像は、小分割領域
6に分割され、各分割領域6について色相の2乗平均値
を計算する。2乗平均することによって、奥行き変化に
伴うスケール変化に依存しない特徴量であるパワースペ
クトル平均値が得られ、色相画像における空間変化を含
む分、単に平均値を使用するよりも高い識別能力を得る
ことができる。
The hue image obtained in this way is divided into small divided areas 6, and the mean square value of the hue is calculated for each divided area 6. By averaging the squares, a power spectrum average value, which is a feature amount independent of a scale change due to a depth change, is obtained, and a discrimination ability higher than simply using the average value is obtained due to the spatial change in the hue image. be able to.

【0029】追従対象領域7の検出は、まず未舗装道路
の色相範囲、すなわち色相の上限と下限とを予め計測し
ておき、各分割領域6の2乗平均値を、上限および下限
の2乗値と比較して、下限と上限との間にあれば、道路
であると判断する。
First, the hue range of an unpaved road, that is, the upper and lower limits of the hue, is measured in advance, and the mean square value of each divided area 6 is calculated as the square of the upper and lower limits. If the value is between the lower limit and the upper limit, the road is determined to be a road.

【0030】ここで、本件で述べるパワースペクトル平
均値とは、画像における空間変化の大きさを表す指標で
あり、パワースペクトル平均値をPavとすると、各分
割領域6がm×mの画素によって構成されているとき、
分割領域の画像f(x,y)の2乗平均値の計算
Here, the average value of the power spectrum described in the present case is an index indicating the magnitude of the spatial change in the image. If the average value of the power spectrum is Pav, each divided area 6 is composed of m × m pixels. When
Calculation of mean square value of image f (x, y) of divided area

【0031】[0031]

【数1】 として求めることができる。パワースペクトルに関して
は、文献(「パターン情報処理」 長尾 真 著、株式
会社コロナ社、および「振動工学ハンドブック」谷口
修 編集代表、株式会社養賢堂)に詳しく記載されてい
る。
(Equation 1) Can be obtained as Regarding the power spectrum, see the literature ("Pattern Information Processing" by Makoto Nagao, Corona Co., Ltd., and "Handbook of Vibration Engineering" Taniguchi
Osamu Editor in Chief, Yokendo Co., Ltd.)

【0032】図3は、自律走行体1の操舵量θを求める
手順を説明するためのフローチャートであり、図4は抽
出した追従対象領域7から全走行経路8を作成する手順
を示す図であり、図4(1)は追従対象領域7が抽出さ
れた状態を示し、図4(2)は近似によって走行経路曲
線9が作成された状態を示し、図4(3)は注視点Pが
設定された状態を示し、図4(4)は画像上の注視点P
を空間座標に変換する操作を模式的に示す図である。
FIG. 3 is a flowchart for explaining a procedure for obtaining the steering amount θ of the autonomous traveling body 1, and FIG. 4 is a view showing a procedure for creating the entire traveling route 8 from the extracted tracking target area 7. 4 (1) shows a state where the tracking target area 7 is extracted, FIG. 4 (2) shows a state where the traveling route curve 9 is created by approximation, and FIG. 4 (4) shows the gazing point P on the image.
It is a figure which shows typically operation which transforms into space coordinate.

【0033】まず、ステップa1で、自律走行体1の操
舵量θの抽出処理動作が開始され、ステップa2で、撮
像装置2によって撮像して得られたカラー画像から、前
述したように、HLS変換によって得られた色相に自然
界の色分布を反映させたカスタマイズ処理を行った色相
画像を取得する。この色相画像を、複数の分割領域6に
分割し、個々の領域について色相の2乗平均値を計算す
る。また追従対象領域7を決定するために、この追従対
象領域7に対応する色相範囲を予め計測して決定してお
く。この色相範囲は、色相の上限および下限を設定する
ことによって決定される。このような色相範囲を抽出す
ることによって、前記複数の分割領域6から成る追従対
象領域7を、図4(1)のように設定することができ
る。
First, in step a1, the operation of extracting the steering amount θ of the autonomous vehicle 1 is started, and in step a2, the HLS conversion is performed from the color image obtained by the imaging device 2 as described above. To obtain a hue image that has been subjected to customization processing in which the hue obtained by reflecting the color distribution in the natural world is obtained. This hue image is divided into a plurality of divided regions 6, and the mean square value of the hue is calculated for each region. Further, in order to determine the tracking target area 7, a hue range corresponding to the tracking target area 7 is measured and determined in advance. This hue range is determined by setting the upper and lower limits of the hue. By extracting such a hue range, the tracking target area 7 including the plurality of divided areas 6 can be set as shown in FIG.

【0034】こうして設定される追従対象領域7は、画
像処理による性状認識の結果として得られた前記画像の
中には、追従対象領域が複数検出される場合があるた
め、ラべリング処理を施し、各ラベルの中から走行すべ
き追従対象領域7だけを選択する。選択された追従対象
領域7は、画像の中央下領域に最も多く存在するラベル
を道路として選択されている。
The tracking target area 7 set as described above is subjected to a labeling process since a plurality of tracking target areas may be detected in the image obtained as a result of the property recognition by the image processing. Then, only the tracking target area 7 to be traveled is selected from the labels. In the selected tracking target area 7, the label that is most frequently present in the lower center area of the image is selected as the road.

【0035】次に、ステップa3で、画像の追従対象領
域7を垂直方向に分割して、各区分について重心位置G
を求め、各重心Gを結ぶ近似曲線8を最小2乗法によっ
て求める。この近似曲線8は、2次以下では充分な近似
ができず、7次以上では雑音成分まで近似してしまうた
め、3次〜6次式、たとえば5次式を用いて近似する。
Next, in step a3, the tracking target area 7 of the image is divided in the vertical direction, and the center of gravity G
, And an approximate curve 8 connecting the respective centers of gravity G is obtained by the least square method. The approximation curve 8 cannot be sufficiently approximated when the degree is lower than the second order, and is approximated to the noise component when the degree is higher than the seventh order.

【0036】上記のように、追従対象領域から近似によ
って走行経路曲線が求められるので、前記各従来の技術
のように、実走行路に白線や道路境界線が存在している
必要はなく、走行可能な場所が前記白線や道路境界線が
存在する場所に限定されない。また前記走行経路曲線を
近似によって求めるので、追従対象領域に重畳したノイ
ズの影響が小さく、誤差の少ない高精度の走行可能曲線
を得ることができる。
As described above, the travel route curve is obtained by approximation from the tracking target area. Therefore, unlike the prior arts, there is no need for a white line or a road boundary line to exist on the actual travel road. A possible location is not limited to a location where the white line or the road boundary exists. In addition, since the traveling route curve is obtained by approximation, the influence of noise superimposed on the tracking target area is small, and a highly accurate traveling curve with few errors can be obtained.

【0037】ステップa4で、上記のようにして、前記
走行経路曲線を表した近似曲線8上に、次のようにして
注視点Pを設定する。まず、注視点Pまでの空間上のy
軸における水平距離(以下、注視点距離と記す)L=y
0を予め設定しておき、撮像装置と実際の地面との相対
位置関係から注視点距離L=y0に相当する画像上のj
軸上の座標(0,j0)を求める。
At step a4, the gazing point P is set on the approximate curve 8 representing the traveling route curve as described above as follows. First, y in the space up to the point of interest P
Horizontal distance on the axis (hereinafter referred to as the gazing point distance) L = y
0 is set in advance to, j on the image corresponding to the fixation point distance L = y 0 from the relative positional relationship between the actual ground the imaging apparatus
Find the coordinates (0, j 0 ) on the axis.

【0038】なお、空間上のy軸は走行体の進行方向に
とり、x軸はy軸と垂直な方向にとるものとする。ま
た、画像上のj軸は画像の垂直方向にとり、i軸は水平
方向にとるものとする。
It is assumed that the y-axis in the space is in the traveling direction of the traveling body, and the x-axis is in the direction perpendicular to the y-axis. Also, the j-axis on the image is taken in the vertical direction of the image, and the i-axis is taken in the horizontal direction.

【0039】次に、上記の近似曲線8を用いて、画像上
の注視点Pの座標(i0,j0)を求める。
Next, the coordinates (i 0 , j 0 ) of the gazing point P on the image are obtained by using the above-mentioned approximate curve 8.

【0040】この後、ステップa5で、撮像装置と実際
の地面との相対位置関係から、画像上の座標(i0
0)から地面に投影した注視点Pの空間座標(x0,y
0)を求める。
Thereafter, in step a5, the coordinates (i 0 ,
j 0 ) and the spatial coordinates (x 0 , y) of the gazing point P projected onto the ground
0 ).

【0041】ステップa6で、自律走行体1の操舵に関
する式や、自律走行体1の運動方程式を用いて、注視点
Pの空間座標に向かうための操舵角θを算出する。この
操舵角θの算出について、以下に具体的に説明する。
In step a6, a steering angle θ for heading toward the spatial coordinates of the gazing point P is calculated using an equation relating to steering of the autonomous vehicle 1 and an equation of motion of the autonomous vehicle 1. The calculation of the steering angle θ will be specifically described below.

【0042】図5は、注視点Pと操舵角θとの関係を示
す図である。上述のようにして求めた走行経路曲線8上
の注視点Pの空間座標を(x0,y0)、自律走行体1の
前輪中心から後輪中心までの車軸方向の距離をH、車軸
と前輪中心との交点の座標を(0,0)、後輪操舵と
し、さらに撮像装置が(0,0)の上方に設置されてい
るとき、注視点Pへ向かうための操舵角θは次式、 θ=tan{2Hx0/(x0 2+y0 2)}-1 …(1) によって求められる。
FIG. 5 is a diagram showing the relationship between the gazing point P and the steering angle θ. The spatial coordinates of the gazing point P on the traveling route curve 8 obtained as described above are (x 0 , y 0 ), the distance in the axle direction from the center of the front wheel to the center of the rear wheel of the autonomous vehicle 1 is H, When the coordinates of the intersection with the front wheel center are (0, 0) and rear wheel steering is performed, and when the imaging device is installed above (0, 0), the steering angle θ for heading to the gazing point P is given by the following equation. , Θ = tan {2Hx 0 / (x 0 2 + y 0 2 )} −1 (1)

【0043】前記注視点距離L(L=y0)を大きくす
ると、走行経路曲線上の遠方の点に向かうことになるの
で、道路がカーブしているところでは、ショートパスす
ることが予想される。また、注視点距離Lを小さくする
と、走行経路曲線上の近くの点に向かうことになるの
で、カーブに対する追従性が向上するが、その反面、追
従対象を抽出するときに生じたノイズ成分のステアリン
グへの影響が大きく、また予測的な曲線走行性能が得ら
れないという不都合がある。
If the gazing point distance L (L = y 0 ) is increased, the vehicle goes to a distant point on the traveling route curve, so that a short path is expected where the road is curved. . In addition, when the gazing point distance L is reduced, the vehicle goes to a nearby point on the travel route curve, so that the followability to the curve is improved. On the other hand, the steering of the noise component generated when extracting the follow target is performed. And there is a disadvantage that predictive curve running performance cannot be obtained.

【0044】そこで、本実施の形態では、前記走行経路
曲線上の注視点Pの設定位置を、自律走行体1の操舵角
θおよび走行速度のうち少なくともいずれか一方の値に
応じて変化させる。これによって、走行経路曲線9上の
注視点の位置を、操舵角θおよび走行速度のいずれか一
方または双方によって変化させることができるので、カ
ーブ走行時には、注視点Pを走行体寄りの近くに設定し
て、走行経路曲線9に対する追従性を向上し、高い曲線
走行性を得ることができる。また直線走行時には、注視
点Pを自律走行体1から走行方向遠方に離れた遠くに設
定することによって、上記ノイズ成分による操舵角θの
不安定な変化を少なくして、高い直線走行性を得ること
ができる。
Therefore, in the present embodiment, the set position of the gazing point P on the traveling route curve is changed according to at least one of the steering angle θ and the traveling speed of the autonomous traveling body 1. Thereby, the position of the gazing point on the traveling route curve 9 can be changed by one or both of the steering angle θ and the traveling speed. Thus, the ability to follow the traveling route curve 9 is improved, and a high curved traveling property can be obtained. When the vehicle is traveling straight, the gazing point P is set far away from the autonomous vehicle 1 in the traveling direction, so that unstable changes in the steering angle θ due to the noise component are reduced, and high linear traveling performance is obtained. be able to.

【0045】図6は、自律走行体1の注視点Pの位置と
その注視点Pに向かうための操舵角θとの関係を示すグ
ラフである。一例として、走行速度指令を1m/sとし
て自律走行注視点距離Lが1mのときは、注視点Pが原
点付近にある状態から左右に僅かに変化するだけで、ス
テアリングのばたつきとも呼ばれる大きなステアリング
変化が発生することが判る。つまり、このような特性
が、直進走行時に、注視点Pの誤差によって、大きな操
舵角変化を生じさせる原因となっている。
FIG. 6 is a graph showing the relationship between the position of the gazing point P of the autonomous traveling body 1 and the steering angle θ for heading toward the gazing point P. As an example, when the driving speed command is 1 m / s and the autonomous driving gazing point distance L is 1 m, the gazing point P slightly changes from left to right from a state near the origin, which is also referred to as a large steering change. It can be seen that an error occurs. That is, such characteristics cause a large change in the steering angle due to an error in the gazing point P during straight running.

【0046】直進走行時の操舵角θの安定性を向上する
ためには、中心付近での操舵角θの変化が充分緩やかに
なるまで、注視点距離Lを大きくすればよいことが判
る。また、最大操舵角θは、本実施の形態においては、
30°に選ばれるので、これ以上の操舵角θを要求する
注視点距離Lは意味がない。そこで、操舵角θが30°
となる注視点距離Lを求めたところ、約2.8mであっ
た。以上の検討から、注視点距離Lとしては、「2.8
m固定」、「1.4m固定」、「1.4〜2.8m可
変」の3種類を用いることが好ましい。「2.8m固
定」とは、注視点距離Lを2.8mに一定に維持するこ
とであり、「1.4固定」とは、注視点距離Lを1.4
mに一定に維持することであり、「1.4〜2.8m可
変」とは、注視点距離Lを1.4mから2.8mの間で
変化させることである。
It can be seen that in order to improve the stability of the steering angle θ during straight running, the gazing point distance L should be increased until the change in the steering angle θ near the center becomes sufficiently gentle. Further, in the present embodiment, the maximum steering angle θ is
Since 30 ° is selected, the gazing point distance L that requires a steering angle θ greater than this is meaningless. Therefore, the steering angle θ is 30 °
When the gazing point distance L was obtained, it was about 2.8 m. From the above examination, the point of regard distance L is set to “2.8.
It is preferable to use three types of “m fixed”, “1.4 m fixed”, and “1.4 to 2.8 m variable”. “Fixed at 2.8 m” means that the gazing point distance L is kept constant at 2.8 m. “Fixed at 1.4” means that the gazing point distance L is 1.4.
m, and "variable from 1.4 to 2.8 m" means changing the gazing point distance L between 1.4 m and 2.8 m.

【0047】図7は、注視点距離Lを可変にする場合の
注視点距離Lと平均操舵角θとの関係を示すグラフであ
る。注視点距離Lの設定条件「1.4m固定」は、
「2.8m固定」と比較するため、2.8mの半分の距
離として採用したものである。また「1.4〜2.8m
可変」は、図7に示されるように、直進走行時に注視点
距離Lを大きくし、カーブ走行時に注視点距離Lを小さ
くした場合である。
FIG. 7 is a graph showing the relationship between the gazing point distance L and the average steering angle θ when the gazing point distance L is made variable. The setting condition “fixed at 1.4 m” of the fixation point distance L
For comparison with "fixed at 2.8 m", the distance is adopted as a half distance of 2.8 m. In addition, "1.4-2.8m
As shown in FIG. 7, "variable" refers to a case where the gazing point distance L is increased during straight running and the gazing point distance L is reduced during curve running.

【0048】図8は、各注視点距離の走行軌跡の比較を
行った結果を示すグラフである。注視点距離Lが1.4
mの走行軌跡(図中1点鎖線で示す)は、スタート付近
(図中左上)で、他の軌跡と異なる原因は、この辺りの
土の色が大きく変化しているため、この辺りの一部分が
追従対象領域として抽出されなかったことによるもので
ある。また注視点距離Lが2.8mの走行軌跡(図中破
線で示す)は、他の走行軌跡と比べてカーブの追従性が
若干落ちる。これは、注視点距離が大きい場合、ショー
トパスする性質を持つことによる。さらに注視点距離L
を1.4〜2.8mに可変にした場合の走行軌跡(図中
実線で示す)は、スタート付近を除き、基本的に1.4
mの走行軌跡とほぼ同一であり、カーブ時の追従性がよ
い。また、スタート付近では、2.8mの走行軌跡とほ
ぼ同一となっており、外乱の影響を受けていないことを
示している。
FIG. 8 is a graph showing the result of comparison of the running trajectories at the respective gazing point distances. The fixation point distance L is 1.4
The traveling locus of m (indicated by a dashed line in the figure) is near the start (upper left in the figure), and is different from the other locus because the soil color around this area has changed greatly, Is not extracted as a tracking target area. A running locus having a gazing point distance L of 2.8 m (shown by a broken line in the figure) has a slightly lower curve following ability than other running locus. This is because when the gazing point distance is large, a short path is provided. Gaze point distance L
Is variable to 1.4 to 2.8 m (shown by a solid line in the figure).
It is almost the same as the traveling locus of m, and has good followability during a curve. In the vicinity of the start, the running locus is almost the same as the 2.8 m running locus, indicating that the vehicle is not affected by disturbance.

【0049】図9は、各注視点距離でのステアリング角
(実測値)の変化を捉えた結果を示すグラフである。注
視点距離Lが2.8mの場合の操舵角θは、図9(1)
に示されるように、道路追従のための緩やかな変化だけ
が見られる。また注視点距離Lが1.4mの場合の操舵
角θは、図9(2)に示されるように、道路追従のため
の変化以外に、非常に大きな変動が発生している。さら
に注視点距離Lを1.4〜2.8mに可変にした場合の
操舵角θは、わずかな変動が加わるものの、2.8mの
ときとほぼ同じ緩やかなな変化をしている。
FIG. 9 is a graph showing the results of capturing changes in the steering angle (actually measured values) at each point of regard. When the gazing point distance L is 2.8 m, the steering angle θ is as shown in FIG.
As shown in the figure, only a gradual change for road following is seen. Further, as shown in FIG. 9 (2), the steering angle θ when the gazing point distance L is 1.4 m has a very large variation other than the variation for following the road. Further, the steering angle θ in the case where the gazing point distance L is made variable from 1.4 to 2.8 m has the same gradual change as in the case of 2.8 m, though a slight change is added.

【0050】また、制御周期については、スタート地点
0m〜約120mの区間Wに相当する未舗装道路は、直
線であることから、直進時のステアリング安定性を比較
すると、注視点距離Lが2.8mの場合および、1.4
〜2.8mに可変にした場合の操舵角θの変動は、注視
点距離L1.4mの場合よりも格段に小さく(ピークツ
ーピークで3分の1程度の変動)、安定しているといえ
る。
Regarding the control cycle, the unpaved road corresponding to the section W from the start point 0 m to about 120 m is a straight line. 8m and 1.4
The fluctuation of the steering angle θ when variable to 22.8 m is much smaller than the case of the gazing point distance L1.4 m (fluctuation of about one-third peak-to-peak) and can be said to be stable. .

【0051】以上の結果から、走行軌跡と操舵角に関す
る特性が確認でき、注視点距離Lを1.4〜2.8mに
可変にした場合が走行特性が最も良好であることがわか
る。
From the above results, the characteristics relating to the running locus and the steering angle can be confirmed, and it can be seen that the running characteristics are the best when the gazing point distance L is varied from 1.4 to 2.8 m.

【0052】このように、注視点距離Lの設定条件
「1.4m固定」の場合は、1点鎖線で示すように、カ
ーブ走行時の道路に対する追従性は良好であるが、直進
時の操舵角安定性に劣る。また「2.8m固定」の場合
は、破線で示すように、カーブ時の道路に対する追従性
は劣るが、直進時の操舵角安定性は良好である。さらに
「1.4〜2.8m可変」の場合は、実線で示すよう
に、カーブ走行時の道路に対する追従性および直進時の
操舵角安定性の双方とも良好である。
As described above, when the setting condition of the gazing point distance L is "fixed to 1.4 m", the followability to the road when traveling on a curve is good as shown by the dashed line, but the steering when straight ahead is performed. Poor angular stability. In the case of "fixed at 2.8 m", as shown by the broken line, the followability to the road at the time of the curve is inferior, but the steering angle stability at the time of going straight is good. Further, in the case of "1.4 to 2.8 m variable", as shown by the solid line, both the followability to the road when traveling on a curve and the steering angle stability when traveling straight ahead are good.

【0053】図10は、本発明の実施の他の形態の速度
可変走行による走行制御方法を説明するためのグラフで
あり、図10(1)は操舵角θの変化量と速度指令Ss
との関係を示し、図10(2)は注視点Pにおける走行
経路曲線の微分値と速度指令Sdとの関係を示す。一定
の高速度、たとえば本実験に用いる自律走行体の限界速
度1m/s〜2m/sを超えるような高速度で走行する
場合、曲線路に入ってから減速したのでは、減速が不充
分となり、曲線路でコースアウトする。曲線路の判断材
料として、道路前方の曲がり具合をも考慮して走行制御
する。
FIG. 10 is a graph for explaining a traveling control method using variable speed traveling according to another embodiment of the present invention. FIG. 10 (1) shows the variation of the steering angle θ and the speed command Ss.
10 (2) shows the relationship between the differential value of the travel route curve at the point of gaze P and the speed command Sd. When traveling at a constant high speed, for example, at a speed exceeding the limit speed of 1 m / s to 2 m / s of the autonomous vehicle used in this experiment, if the vehicle is decelerated after entering a curved road, the deceleration becomes insufficient. Get out of the course on a curved road. As a material for determining a curved road, the traveling control is performed in consideration of the degree of turning ahead of the road.

【0054】具体的には、走行経路曲線上の比較的遠方
に、前記ステアリング制御用の注視点Pとは異なる速度
制御用の第2の注視点P′を設定し、その注視点P′で
の微分値を計算して求め、これを道路前方の曲がり具合
のパラメータとして採用する。
More specifically, a second gazing point P 'for speed control, which is different from the gazing point P for steering control, is set at a relatively distant point on the traveling route curve. Is calculated and obtained, and this is adopted as a parameter of the degree of bending ahead of the road.

【0055】図10(1)に示されるように、ステアリ
ング制御用の注視点Pに向かうための操舵角θを現行操
舵角として検出して、その現行操舵角に対応する速度指
令Ssを求めるとともに、図10(2)に示されるよう
に、速度制御用の注視点P′での走行経路曲線の微分値
を道路前方の曲がり具合として検出して、その微分値に
対応する速度指令Sdを求め、現在走行している走行路
が直線路であり、かつ道路前方も直線路である場合だ
け、高速走行するように、上記にのようにして求めた各
速度指令Ss,Sdのうちで小さい方を走行速度指令と
して選択し、走行体1の駆動系へ出力する。
As shown in FIG. 10 (1), a steering angle θ for heading toward the gazing point P for steering control is detected as a current steering angle, and a speed command Ss corresponding to the current steering angle is obtained. As shown in FIG. 10 (2), the differential value of the traveling route curve at the point of interest P 'for speed control is detected as the degree of the curve ahead of the road, and the speed command Sd corresponding to the differential value is obtained. Only the smaller one of the speed commands Ss and Sd obtained as described above is used so that the vehicle travels at a high speed only when the currently traveling road is a straight road and the road ahead is also a straight road. Is selected as the traveling speed command and output to the drive system of the traveling body 1.

【0056】このようにして、直線路では高速走行し、
曲線路では曲率に合わせて低速走行するように速度を可
変にして制御することによって、より高速な追従走行を
実現することができる。
In this way, the vehicle travels at a high speed on a straight road,
On a curved road, by controlling the speed to be variable so as to run at a low speed in accordance with the curvature, it is possible to realize a higher-speed following travel.

【0057】また、本発明の実施のさらに他の形態とし
て、上記の図10の実施の形態の走行制御に加えて、単
発的な直線路での加速を防ぐため、過去の速度指令の平
均値との比較を行う。つまり、現行ステアリング値、道
路前方の曲がり具合、過去の速度指令の平均値の3つの
情報を用いて、それぞれ現在走行している部分が直線路
であること、道路前方が直線路であること、直線路が単
発的でなく連続していること、という条件を満足する
程、速度指令の値を大きくするように制御する。これに
よって、直線路走行中に加速するという不具合がなくな
り、直線路における走行安定性を向上することができ
る。
As still another embodiment of the present invention, in addition to the traveling control of the embodiment shown in FIG. 10, in order to prevent a single-shot acceleration on a straight road, the average value of past speed commands is used. Compare with. In other words, using the three pieces of information of the current steering value, the degree of turning ahead of the road, and the average value of the past speed commands, the current traveling part is a straight road, and the front of the road is a straight road. The control is performed such that the value of the speed command is increased so as to satisfy the condition that the straight road is not one-shot but continuous. Thus, the problem of acceleration during traveling on a straight road is eliminated, and traveling stability on a straight road can be improved.

【0058】本発明の実施の他の形態では、注視点P
は、撮像装置2によって撮像された画像から、色特性に
よって識別した追従対象物である先導者上に設定され
る。
In another embodiment of the present invention, the gazing point P
Is set on a leader who is a tracking target identified by color characteristics from an image captured by the imaging device 2.

【0059】このように追従対象物として、自律走行体
1の進行方向前方を歩行する先導者を対象とする場合に
は、この先導者までの距離および方位角、または空間位
置を知る必要があるため、先導者のマーカとしての着衣
の色の抽出結果から先導者までの距離および方位角を推
定する。
When the following object is a leader who walks in front of the autonomous vehicle 1 in the traveling direction, it is necessary to know the distance and azimuth to this leader, or the spatial position. Therefore, the distance and the azimuth to the leader are estimated from the result of extracting the color of the clothes as the marker of the leader.

【0060】このような人追従走行では、先導者と自律
走行体1との距離を、ほぼ一定に保ちながら追従する機
能が要求されるため、特に距離の推定が重要である。ま
た先導者の動き、たとえば正面から見た場合と、横方向
から見た場合と、転倒した場合とでは、見え方に変化が
あり、着衣に太陽光の正反射によるハイライトが発生し
た場合、ハイライト部分の色が変化する。このため色特
性を用いて抽出される着衣画像の大きさが変化するの
で、これに影響されない距離推定が必要となる。このよ
うな観点から、先導者までの距離を、画像中の着衣画像
の垂直座標から推定する方法を採用すればよい。
In such a human-following traveling, a function of following the vehicle while keeping the distance between the leader and the autonomous traveling body 1 substantially constant is required. Therefore, estimation of the distance is particularly important. Also, the movement of the leader, for example, when viewed from the front, when viewed from the side, and when falling, there is a change in the appearance, and if highlights due to specular reflection of sunlight occur on clothes, The color of the highlight changes. For this reason, the size of the clothing image extracted using the color characteristics changes, and it is necessary to perform distance estimation that is not affected by the size. From such a viewpoint, a method of estimating the distance to the leader from the vertical coordinates of the clothing image in the image may be employed.

【0061】このような構成によれば、先導者の着衣の
色相および彩度など色特性によって先導者上に注視点P
が設定されるので、識別能力が高く、先導者に確実に追
従させて誘導することが可能となる。
According to such a configuration, the point of gaze P is displayed on the leader by the color characteristics such as the hue and saturation of the clothing of the leader.
Is set, the discriminating ability is high, and it is possible to reliably follow and guide the leader.

【0062】本発明の実施のさらに他の形態では、注視
点Pの画像上の座標から求めた走行体1から注視点Pま
での空間距離が小さいほど走行速度指令を小さくし、前
記空間距離が所定の距離より小さい場合は、走行速度を
0とする走行停止指令を出力して走行制御する。
In still another embodiment of the present invention, the smaller the spatial distance from the traveling object 1 to the gazing point P obtained from the coordinates of the gazing point P on the image, the smaller the traveling speed command is. If the distance is smaller than the predetermined distance, a travel stop command for setting the travel speed to 0 is output to control the travel.

【0063】このような構成によれば、前方の歩行者な
どに追従走行している場合に、歩行者がしゃがんだり、
転んだりしたときは、走行体から注視点Pまでの距離が
近づいたと解釈されて、走行体は減速または停止するた
め、安全性の高い追従走行制御が可能となる。また、走
行体と注視点が近づくほど、走行体の速度が遅くなるよ
うに制御されるため、追従対象物と走行体の衝突の危険
性が下がり、安全な追従走行が可能となる。
According to such a configuration, when the vehicle is following the pedestrian in front of the vehicle, the pedestrian can squat,
When the vehicle falls, it is interpreted that the distance from the vehicle to the gazing point P is approached, and the vehicle decelerates or stops, so that the follow-up traveling control with high safety can be performed. Further, since the speed of the traveling body is controlled to be slower as the traveling body comes closer to the gazing point, the danger of collision between the following object and the traveling body is reduced, and safe following traveling is possible.

【0064】図11は、本発明の実施のさらに他の形態
の追従対象物の抽出アルゴリズムを説明するための図で
ある。本実施の形態では、基本的には色相の2乗平均値
(パワースペクトル)を用いて追従対象領域の検出を行
っているが、クラッタを低減するため、彩度のしきい値
処理を加えることによって、赤色系の色相であっても低
彩度のものはクラッタとして除去し、またラベリング処
理を行って、画像中のラベルを、追従対象物である複数
のパイロン11の候補として抽出する。各パイロン11
は、道路工事などに用いられ、赤色などの比較的目立つ
色に着色された中空三角錐状の合成樹脂製の標識であ
る。
FIG. 11 is a diagram for explaining an algorithm for extracting a tracking object according to still another embodiment of the present invention. In this embodiment, the tracking target area is basically detected using the root mean square value (power spectrum) of the hue. However, in order to reduce clutter, threshold value processing of saturation is added. Accordingly, even a red-based hue having low saturation is removed as clutter, and a labeling process is performed to extract a label in the image as a candidate for the plurality of pylons 11 to be followed. Each pylon 11
Is a sign made of synthetic resin in the shape of a hollow triangular pyramid, which is used for road construction and the like and is colored in a relatively conspicuous color such as red.

【0065】このような複数のパイロン11の内、画像
上で下から2番目のパイロンを抽出し、このパイロンの
画像上の重心位置から所定の距離だけ水平方向にシフト
させた点に注視点P1を設定して、この注視点P1を走
行体の移動による、パイロン11の画像内の位置変化に
対応して、順次設定変更しながら、自律走行体1をパイ
ロン11の並びに沿って追従走行させることができる。
Of the plurality of pylons 11, the second pylon from the bottom is extracted on the image, and the point of interest P1 is shifted to the point shifted horizontally by a predetermined distance from the center of gravity of the pylon on the image. The autonomous vehicle 1 is caused to follow the pylon 11 while sequentially changing the setting in accordance with the position change in the image of the pylon 11 due to the movement of the vehicle. Can be.

【0066】[0066]

【発明の効果】請求項1記載の本発明によれば、撮像装
置によって撮像された画像を複数の領域に分割し、各分
割領域毎に分割領域内の特徴量を計算し、所定のしきい
値と比較することによって追従対象領域を抽出する。こ
うして抽出された追従対象領域には、注視点が設定さ
れ、この注視点から車両の操舵角を求め、制御遅れはな
く、制御系の安定余裕が小さくなるという不具合をなく
すことができる。
According to the first aspect of the present invention, an image picked up by an image pickup device is divided into a plurality of regions, and a feature amount in each divided region is calculated for each divided region, and a predetermined threshold is calculated. The tracking target area is extracted by comparing the value with the value. A gazing point is set in the tracking target area extracted in this manner, and the steering angle of the vehicle is obtained from the gazing point, so that there is no control delay and the problem that the stability margin of the control system is reduced can be eliminated.

【0067】また複数の分割領域から成る追従対象領域
中に注視点を設定し、この注視点から操舵角を求めるの
で、撮像装置の設定位置の変更および車両の変更など操
舵量の計算に関与する諸量が変化しても、パラメータの
調整が不要であり、走行前の設定作業および調整作業に
多くの時間および手間を要することなしに、走行路に対
して高い追従性を得ることができる。
Further, since a gazing point is set in a tracking target area composed of a plurality of divided areas, and a steering angle is obtained from the gazing point, it is involved in calculation of a steering amount such as a change in a set position of an imaging device and a change in a vehicle. Even if the various amounts change, it is not necessary to adjust the parameters, and it is possible to obtain high followability with respect to the traveling path without requiring much time and labor for the setting operation and the adjusting operation before traveling.

【0068】請求項2記載の本発明によれば、撮像装置
によって撮像された画像を複数の領域に分割し、各分割
領域毎にパワースペクトル平均値を計算することによっ
て、スケール変化による誤差を含まない複数の分割領域
を、追従対象領域として抽出することができる。
According to the second aspect of the present invention, the image taken by the imaging device is divided into a plurality of regions, and the average value of the power spectrum is calculated for each of the divided regions to include an error due to a scale change. A plurality of undivided regions can be extracted as tracking target regions.

【0069】請求項3記載の本発明によれば、追従対象
領域から近似によって走行経路曲線が求められるので、
前記各従来の技術のように、実走行路に白線や道路境界
線が存在している必要なく、走行可能な場所が前記白線
や道路境界線が存在する場所に限定されない。また前記
走行経路曲線を近似によって求めるので、追従対象領域
に重畳したノイズ成分を近似計算上で処理することが可
能であり、誤差の少ない高精度の走行可能曲線を得るこ
とができる。
According to the third aspect of the present invention, the travel route curve is obtained by approximation from the tracking target area.
Unlike the prior arts described above, there is no need for a white line or a road boundary line to exist on the actual traveling road, and a place where the vehicle can travel is not limited to a place where the white line or the road boundary line exists. Further, since the traveling route curve is obtained by approximation, it is possible to process the noise component superimposed on the tracking target area on the approximation calculation, and it is possible to obtain a highly accurate traveling curve with few errors.

【0070】請求項4記載の本発明によれば、走行経路
曲線上の注視点の位置を、操舵角および走行速度のいず
れか一方または双方によって変化させることができるの
で、カーブ走行時には、注視点を車両寄りの近くに設定
して、走行経路曲線に対する追従性を向上し、高い曲線
走行性を得ることができる。また直線走行時には、注視
点を車両から離れた遠くに設定することによって、操舵
角の不所望な変化を少なくして、高い直線走行性を得る
ことができる。
According to the fourth aspect of the present invention, the position of the gazing point on the traveling route curve can be changed by one or both of the steering angle and the traveling speed. Is set close to the vehicle, the followability to the traveling route curve is improved, and a high curve traveling property can be obtained. In addition, by setting the gazing point to be far away from the vehicle during straight running, undesired changes in the steering angle can be reduced, and high straight running performance can be obtained.

【0071】請求項5記載の本発明によれば、操舵角決
定用の注視点とは独立に、走行速度指令決定用の注視点
を設定し、その注視点における走行経路曲線の曲率の応
じて走行指令が変化するので、曲線路に入る前に、その
曲線路中の前記注視点における最適速度に減速し、ある
いは増速することができ、速度調整によって、走行路に
対する追従性および走行安定性を向上することができ
る。
According to the present invention, a gazing point for determining the traveling speed command is set independently of the gazing point for determining the steering angle, and the gazing point is determined according to the curvature of the traveling path curve at the gazing point. Since the traveling command changes, before entering the curved road, it is possible to reduce or increase the speed to the optimum speed at the gazing point on the curved road. Can be improved.

【0072】請求項6記載の本発明によれば、車両から
注視点までの空間的距離によって走行速度指令を変化さ
せるので、注視点に走行体が近づいたり、遠ざかったり
するような走行体の走行制御が可能となる。たとえば、
注視点が動いている追従対象物上に設定されてもよいた
め、走行体の前方を歩行する人間や他の走行物体に追従
走行する走行制御が可能となる。
According to the sixth aspect of the present invention, the traveling speed command is changed according to the spatial distance from the vehicle to the gazing point, so that the traveling body moves toward or away from the gazing point. Control becomes possible. For example,
Since the gazing point may be set on the moving following object, traveling control for following a human or other traveling object walking in front of the traveling body becomes possible.

【0073】請求項7記載の本発明によれば、色相およ
び彩度など色特性によって追従対象物上に注視点が設定
されるので、識別能力が高く、追従対象物に確実に追従
させて誘導することが可能となる。
According to the present invention, since the gazing point is set on the object to be tracked based on color characteristics such as hue and saturation, the discriminating ability is high, and guidance is performed by reliably following the object to be tracked. It is possible to do.

【0074】請求項8記載の本発明によれば、前方の歩
行者などに追従走行している場合に、歩行者がしゃがん
だり、転んだりしたときは、走行体から注視点までの距
離が地下づいたと解釈されて、走行体は減速するか急停
止するため、安全性の高い追従走行制御が可能となる。
また、走行体と注視点が近づくほど、走行体の速度がそ
遅くなるように制御されるため、追従対象物と走行体の
衝突の危険性が下がり、安全な追従走行が可能となる。
According to the present invention, when the pedestrian squats or falls while following the pedestrian in front of the vehicle, the distance from the running body to the point of interest is underground. Since the traveling body is decelerated or suddenly stopped, the following traveling control with high safety can be performed.
Further, since the speed of the traveling body is controlled so as to be slower as the point of interest approaches the traveling body, the danger of collision between the following object and the traveling body is reduced, and safe following traveling becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態の自律走行体の走行制御
方法によって走行制御される自律走行体1の走行状態を
示す斜視図である。
FIG. 1 is a perspective view showing a traveling state of an autonomous traveling body 1 whose traveling is controlled by a traveling control method for an autonomous traveling body according to an embodiment of the present invention.

【図2】自律走行体1に搭載された撮像装置2の撮像画
像により取得した画像から追従対象領域を抽出し、同領
域上に走行経路曲線および注視点Pが設定された状態を
示す図である。
FIG. 2 is a diagram showing a state in which a tracking target area is extracted from an image obtained by an image captured by an imaging device mounted on an autonomous vehicle, and a traveling route curve and a gazing point are set on the area; is there.

【図3】自律走行体1の操舵量θを求める手順を説明す
るためのフローチャートである。
FIG. 3 is a flowchart for explaining a procedure for obtaining a steering amount θ of the autonomous traveling body 1.

【図4】抽出した追従対象領域7から走行経路8を作成
する手順を示す図であり、図4(1)は追従対象領域7
が抽出された状態を示し、図4(2)は近似によって走
行経路曲線9が作成された状態を示し、図4(3)は注
視点Pが走行経路曲線上に設定された状態を示し、図4
(4)は画像上の注視点Pを空間座標に変換する操作を
模式的に示す図である。
FIG. 4 is a diagram showing a procedure for creating a traveling route 8 from the extracted tracking target area 7, and FIG.
Is extracted, FIG. 4 (2) shows a state in which the travel route curve 9 is created by approximation, and FIG. 4 (3) shows a state in which the gazing point P is set on the travel route curve. FIG.
FIG. 4D is a diagram schematically illustrating an operation of converting the gazing point P on the image into spatial coordinates.

【図5】注視点Pと操舵角θとの関係を示す図である。FIG. 5 is a diagram showing a relationship between a gazing point P and a steering angle θ.

【図6】自律走行体1の注視点Pの位置とその注視点P
に向かうための操舵角θとの関係を示すグラフである。
FIG. 6 shows the position of the gazing point P of the autonomous vehicle 1 and the gazing point P;
6 is a graph showing a relationship with a steering angle θ for heading toward.

【図7】注視点距離Lを可変にする場合の注視点距離L
と平均操舵角θとの関係を示すグラフである。
FIG. 7 is a gazing point distance L when the gazing point distance L is variable.
5 is a graph showing a relationship between the average steering angle θ and the average steering angle θ.

【図8】本発明の実施のさらに他の形態の追従対象物の
抽出アルゴリズムを説明するための図である。
FIG. 8 is a diagram for explaining an algorithm for extracting a tracking target according to still another embodiment of the present invention.

【図9】各注視点距離でのステアリング角(実測値)の
変化を捉えた結果を示すグラフである。
FIG. 9 is a graph showing a result of capturing a change in a steering angle (actually measured value) at each gazing point distance.

【図10】本発明の実施の他の形態の速度可変走行によ
る走行制御方法を説明するためのグラフであり、図10
(1)は操舵角θの変化量と速度指令Ssとの関係を示
し、図10(2)は注視点Pにおける走行経路曲線の微
分値と速度指令Sdとの関係を示す。
FIG. 10 is a graph for explaining a traveling control method using variable speed traveling according to another embodiment of the present invention.
(1) shows the relationship between the change amount of the steering angle θ and the speed command Ss, and FIG. 10 (2) shows the relationship between the differential value of the travel route curve at the point of regard P and the speed command Sd.

【図11】本発明の実施のさらに他の形態の追従対象物
の抽出アルゴリズムを説明するための図である。
FIG. 11 is a diagram for explaining an algorithm for extracting a tracking target according to still another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 自律走行体 2 撮像装置 3 追従対象領域の抽出画像 4 不整地 6 分割領域 7 追従対象領域 θ 操舵角 L 注視点距離 Reference Signs List 1 autonomous vehicle 2 imaging device 3 extracted image of tracking target area 4 rough terrain 6 divided area 7 tracking target area θ steering angle L fixation distance

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成12年12月15日(2000.12.
15)
[Submission date] December 15, 2000 (200.12.
15)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0018[Correction target item name] 0018

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0018】本発明に従えば、操舵角決定用の注視点と
は独立に、走行速度指令決定用の注視点を設定し、その
注視点における走行経路曲線の曲率に応じて走行指令が
変化するので、曲線路に入る前に、その曲線路中の前記
注視点における最適速度に減速し、あるいは増速するこ
とができ、速度調整によって、走行路に対する追従性お
よび走行安定性を向上することができる。
According to the present invention, the gazing point for determining the traveling speed command is set independently of the gazing point for determining the steering angle, and the traveling command changes according to the curvature of the traveling path curve at the gazing point. Therefore, before entering a curved road, it is possible to reduce or increase the speed to the optimum speed at the point of gaze in the curved road, and to improve the followability to the traveling road and the traveling stability by adjusting the speed. it can.

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0025[Correction target item name] 0025

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0025】[0025]

【発明の実施の形態】図1は、本発明の実施の一形態の
自律走行体の走行制御方法によって走行制御される自律
走行体1の走行状態を示す斜視図であり、図2は自律走
行体1に搭載された撮像装置2の撮像画像3に走行経路
曲線および注視点Pが設定された状態を示す図である。
本実施の形態の走行制御方法が適用される自律走行体
は、不整地4を自律走行して目的地へ到達し、たとえば
予め設定されたプログラムによって所定作業を行う自律
走行体1である。この自律走行体1には、撮像装置2が
搭載され、この撮像装置2によって撮像されたカラー画
像3、すなわち後述の色相画像から、複数の分割領域6
から成る追従対象領域7を抽出し、この追従対象領域7
上に注視点Pを設定し、注視点Pに向かうための操舵角
θを算出し、この操舵角θによって自律走行体1を操舵
制御する。なお、本発明で述べる「追従」とは、道路の
ような経路に沿って移動する行為や、前方を移動する物
体のあとを追いかける行為を指すものとする。
FIG. 1 is a perspective view showing a traveling state of an autonomous traveling body 1 whose traveling is controlled by an autonomous traveling body traveling control method according to an embodiment of the present invention, and FIG. FIG. 3 is a diagram showing a state in which a traveling route curve and a gazing point P are set in a captured image 3 of an imaging device 2 mounted on a body 1.
The autonomous traveling body to which the traveling control method according to the present embodiment is applied is the autonomous traveling body 1 that travels autonomously on uneven terrain 4 to reach a destination and performs a predetermined operation according to, for example, a preset program. An image pickup device 2 is mounted on the autonomous traveling body 1, and a plurality of divided areas 6 are obtained from a color image 3 picked up by the image pickup device 2, that is, a hue image described later.
The tracking target area 7 composed of
A gazing point P is set above, a steering angle θ for heading toward the gazing point P is calculated, and the steering of the autonomous traveling body 1 is controlled by the steering angle θ. The “following” described in the present invention refers to an act of moving along a route such as a road or an act of following an object moving ahead.

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0037[Correction target item name] 0037

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0037】ステップa4で、上記のようにして前記走
行経路曲線を表した近似曲線8上に、次のようにして注
視点Pを設定する。まず、注視点Pまでの空間上のy軸
における水平距離(以下、注視点距離と記す)L=y0
を予め設定しておき、撮像装置と実際の地面との相対位
置関係から注視点距離L=y0に相当する画像上のj軸
上の座標(0,j0)を求める。
At step a4, the point of interest P is set on the approximate curve 8 representing the travel route curve as described above as follows. First, the horizontal distance on the y-axis in space to the point of interest P (hereinafter, referred to as the point of interest) L = y 0
Are set in advance, and the coordinates (0, j 0 ) on the j-axis on the image corresponding to the gazing point distance L = y 0 are obtained from the relative positional relationship between the imaging device and the actual ground.

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0042[Correction target item name] 0042

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0042】図5は、注視点Pと操舵角θとの関係を示
す図である。上述のようにして求めた走行経路曲線8上
の注視点Pの空間座標を(x0,y0)、自律走行体1の
前輪中心から後輪中心までの車軸方向の距離をH、車軸
と前輪中心との交点の座標を(0,0)、後輪操舵とす
るとき、注視点Pへ向かうための操舵角θは次式、 θ=tan-1{2Hx0/(x0 2+y0 2)} …(1) によって求められる。
FIG. 5 is a diagram showing the relationship between the gazing point P and the steering angle θ. The spatial coordinates of the gazing point P on the traveling route curve 8 obtained as described above are (x 0 , y 0 ), the distance in the axle direction from the center of the front wheel to the center of the rear wheel of the autonomous vehicle 1 is H, When the coordinates of the intersection with the center of the front wheel are (0, 0) and the rear wheel is to be steered, the steering angle θ for heading toward the gazing point P is as follows: θ = tan −1 {2Hx 0 / (x 0 2 + y 0) 2 )} …… (1)

【手続補正5】[Procedure amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0043[Correction target item name] 0043

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0043】前記注視点距離L(L=y0)を大きくす
ると、走行経路曲線上の遠方の点に向かうことになるの
で、道路がカーブしているところでは、ショートパスす
ることが予想される。また、注視点距離Lを小さくする
と、走行経路曲線上の近くの点に向かうことになるの
で、カーブに対する追従性が向上するが、その反面、追
従対象を抽出するときに生じたノイズ成分による操舵角
への影響が大きく、また予測的な曲線走行性能が得られ
ないという不都合がある。
If the gazing point distance L (L = y 0 ) is increased, the vehicle goes to a distant point on the traveling route curve, so that a short path is expected where the road is curved. . Further, when the gazing point distance L is reduced, the vehicle goes to a nearby point on the travel route curve, so that the followability to the curve is improved. However, the steering due to the noise component generated when the target to be followed is extracted is improved. There is an inconvenience that the influence on the corner is large and a predictable curve running performance cannot be obtained.

【手続補正6】[Procedure amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0045[Correction target item name] 0045

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0045】図6は、自律走行体1の注視点Pの位置と
その注視点Pに向かうための操舵角θとの関係を示すグ
ラフである。一例として、注視点距離Lが1mのとき
は、注視点Pが原点付近にある状態から左右に僅かに変
化するだけで、大きな操舵角変化が発生することが判
る。つまり、このような特性が、直進走行時に、注視点
Pの誤差によって、大きな操舵角変化を生じさせる原因
となっている。
FIG. 6 is a graph showing the relationship between the position of the gazing point P of the autonomous traveling body 1 and the steering angle θ for heading toward the gazing point P. As an example, when the gazing point distance L is 1 m, it can be seen that a large change in the steering angle occurs when the gazing point P slightly changes from left to right from a state near the origin. That is, such characteristics cause a large change in the steering angle due to an error in the gazing point P during straight running.

【手続補正7】[Procedure amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0046[Correction target item name] 0046

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0046】直進走行時の操舵角θの安定性を向上する
ためには、中心付近での操舵角θの変化が充分緩やかに
なるまで、注視点距離Lを大きくすればよいことが判
る。また、最大操舵角θは、本実施の形態においては、
30°に選ばれるので、これ以上の操舵角θを要求する
注視点距離Lは意味がない。そこで、操舵角θが30°
となる注視点距離Lを求めたところ、約2.8mであっ
た。以上の検討から、注視点距離Lとしては、「2.8
m固定」、「1.4m固定」、「1.4〜2.8m可
変」の3種類を用いることが好ましい。「2.8m固
定」とは、注視点距離Lを2.8mに一定に維持するこ
とであり、「1.4固定」とは、注視点距離Lを1.4
mに一定に維持することであり、「1.4〜2.8m可
変」とは、注視点距離Lを1.4mから2.8mの間で
変化させることである。注視点距離Lの設定条件「1.
4m固定」は、「2.8m固定」と比較するため、2.
8mの半分の距離として採用したものである。
It can be seen that in order to improve the stability of the steering angle θ during straight running, the gazing point distance L should be increased until the change in the steering angle θ near the center becomes sufficiently gentle. Further, in the present embodiment, the maximum steering angle θ is
Since 30 ° is selected, the gazing point distance L that requires a steering angle θ greater than this is meaningless. Therefore, the steering angle θ is 30 °
When the gazing point distance L was obtained, it was about 2.8 m. From the above examination, the point of regard distance L is set to “2.8.
It is preferable to use three types of “m fixed”, “1.4 m fixed”, and “1.4 to 2.8 m variable”. “Fixed at 2.8 m” means that the gazing point distance L is kept constant at 2.8 m. “Fixed at 1.4” means that the gazing point distance L is 1.4.
m, and "variable from 1.4 to 2.8 m" means changing the gazing point distance L between 1.4 m and 2.8 m. The condition for setting the gazing point distance L “1.
"4 m fixed" is used for comparison with "2.8 m fixed".
This is adopted as half the distance of 8 m.

【手続補正8】[Procedure amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0047[Correction target item name] 0047

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0047】図7は、注視点距離Lを可変にする場合の
注視点距離Lと平均操舵角θとの関係を示すグラフであ
る。「1.4〜2.8m可変」は、図7に示されるよう
に、直進走行時に注視点距離Lを大きくし、カーブ走行
時に注視点距離Lを小さくした場合である。
FIG. 7 is a graph showing the relationship between the gazing point distance L and the average steering angle θ when the gazing point distance L is made variable. As shown in FIG. 7, "1.4 to 2.8 m variable" refers to a case where the gazing point distance L is increased during straight traveling and the gazing point distance L is decreased during curve running.

【手続補正9】[Procedure amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0049[Correction target item name] 0049

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0049】図9は、各注視点距離での操舵角(実測
値)の変化を捉えた結果を示すグラフである。注視点距
離Lが2.8mの場合の操舵角θは、図9(1)に示さ
れるように、道路追従のための緩やかな変化だけが見ら
れる。また注視点距離Lが1.4mの場合の操舵角θ
は、図9(2)に示されるように、道路追従のための変
化以外に、非常に大きな変動が発生している。さらに注
視点距離Lを1.4〜2.8mに可変にした場合の操舵
角θは、わずかな変動が加わるものの、2.8mのとき
とほぼ同じ緩やかなな変化をしている。
FIG. 9 is a graph showing the results of capturing changes in the steering angle (actually measured values) at each fixation point distance. When the gazing point distance L is 2.8 m, as shown in FIG. 9A, only a gradual change in the steering angle θ for following the road is observed. The steering angle θ when the gazing point distance L is 1.4 m
As shown in FIG. 9 (2), a very large change occurs in addition to the change for following the road. Further, the steering angle θ in the case where the gazing point distance L is made variable from 1.4 to 2.8 m has the same gradual change as in the case of 2.8 m, though a slight change is added.

【手続補正10】[Procedure amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0050[Correction target item name] 0050

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0050】また、制御周期については、スタート地点
0m〜約120mの区間Wに相当する未舗装道路は、直
線であることから、直進時の操舵角安定性を比較する
と、注視点距離Lが2.8mの場合および、1.4〜
2.8mに可変にした場合の操舵角θの変動は、注視点
距離L1.4mの場合よりも格段に小さく(ピークツー
ピークで3分の1程度の変動)、安定しているといえ
る。
Regarding the control cycle, since the unpaved road corresponding to the section W from the start point 0 m to about 120 m is a straight line, the stability of the steering angle when traveling straight ahead is compared. 0.8m and 1.4 ~
The fluctuation of the steering angle θ when the variable angle is set to 2.8 m is much smaller than the case of the gazing point distance L1.4 m (a fluctuation of about one-third peak-to-peak) and can be said to be stable.

【手続補正11】[Procedure amendment 11]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0054[Correction target item name] 0054

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0054】具体的には、走行経路曲線上の比較的遠方
に、前記操舵制御用の注視点Pとは異なる速度制御用の
第2の注視点P′を設定し、その注視点P′での微分値
を計算して求め、これを道路前方の曲がり具合のパラメ
ータとして採用する。
More specifically, a second gazing point P 'for speed control, which is different from the gazing point P for steering control, is set relatively distant on the traveling route curve, and the gazing point P' Is calculated and obtained, and this is adopted as a parameter of the degree of bending ahead of the road.

【手続補正12】[Procedure amendment 12]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0055[Correction target item name] 0055

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0055】図10(1)に示されるように、操舵制御
用の注視点Pに向かうための操舵角θを現行操舵角とし
て検出して、その現行操舵角に対応する速度指令Ssを
求めるとともに、図10(2)に示されるように、速度
制御用の注視点P′での走行経路曲線の微分値を道路前
方の曲がり具合として検出して、その微分値に対応する
速度指令Sdを求め、現在走行している走行路が直線路
であり、かつ道路前方も直線路である場合だけ、高速走
行するように、上記にのようにして求めた各速度指令S
s,Sdのうちで小さい方を走行速度指令として選択
し、走行体1の駆動系へ出力する。
As shown in FIG. 10A, the steering angle θ for heading toward the gazing point P for steering control is detected as the current steering angle, and the speed command Ss corresponding to the current steering angle is obtained. As shown in FIG. 10 (2), the differential value of the traveling route curve at the point of interest P 'for speed control is detected as the degree of the curve ahead of the road, and the speed command Sd corresponding to the differential value is obtained. Each speed command S determined as described above so that the vehicle travels at a high speed only when the currently traveling road is a straight road and the road ahead is also a straight road.
The smaller one of s and Sd is selected as the traveling speed command and output to the drive system of the traveling body 1.

【手続補正13】[Procedure amendment 13]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0057[Correction target item name] 0057

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0057】また、本発明の実施のさらに他の形態とし
て、上記の図10の実施の形態の走行制御に加えて、単
発的な直線路での加速を防ぐため、過去の速度指令の平
均値との比較を行う。つまり、現行操舵角、道路前方の
曲がり具合、過去の速度指令の平均値の3つの情報を用
いて、それぞれ現在走行している部分が直線路であるこ
と、道路前方が直線路であること、直線路が単発的でな
く連続していること、という条件を満足する程、速度指
令の値を大きくするように制御する。これによって、短
い直線路を走行中に加速するという不具合がなくなり、
直線路における走行安定性を向上することができる。
As still another embodiment of the present invention, in addition to the traveling control of the embodiment shown in FIG. 10, in order to prevent a single-shot acceleration on a straight road, the average value of past speed commands is used. Compare with. That is, using the three pieces of information of the current steering angle, the degree of turning ahead of the road, and the average value of the past speed commands, that the currently traveling portion is a straight road, and that the front of the road is a straight road, The control is performed such that the value of the speed command is increased so as to satisfy the condition that the straight road is not one-shot but continuous. This eliminates the problem of accelerating while driving on a short straight road,
The running stability on a straight road can be improved.

【手続補正14】[Procedure amendment 14]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0058[Correction target item name] 0058

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0058】本発明の実施の他の形態では、注視点P
は、撮像装置2によって撮像された画像から、色特性に
よって識別した追従対象物上に設定される。
In another embodiment of the present invention, the gazing point P
Is set on the following target object identified by the color characteristic from the image captured by the imaging device 2.

【手続補正15】[Procedure amendment 15]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0065[Correction target item name] 0065

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0065】このような複数のパイロン11の内、画像
上で下から2番目のパイロンを抽出し、このパイロンの
画像上の重心位置から所定の距離だけ水平方向にシフト
させた点に注視点P1を設定して、この注視点P1を走
行体の移動による、パイロン11の画像内の位置変化に
対応して、順次設定変更しながら、自律走行体1をパイ
ロン11の並びに沿って追従走行させることができる。
また上記の実施の形態では、自律走行体として、陸上を
移動する車両で説明したが、水上や水中を移動する船や
潜水艦、あるいは空中を飛行する航空機にも適用可能で
ある。
Of the plurality of pylons 11, the second pylon from the bottom is extracted on the image, and the point of interest P1 is shifted to the point shifted horizontally by a predetermined distance from the center of gravity of the pylon on the image. The autonomous vehicle 1 is caused to follow the pylon 11 while sequentially changing the setting in accordance with the position change in the image of the pylon 11 due to the movement of the vehicle. Can be.
Further, in the above-described embodiment, a vehicle moving on land has been described as an autonomous vehicle, but the present invention is also applicable to a ship or submarine moving on water or underwater, or an aircraft flying in the air.

【手続補正16】[Procedure amendment 16]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0069[Correction target item name] 0069

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0069】請求項3記載の本発明によれば、追従対象
領域から近似によって走行経路曲線が求められるので、
前記各従来の技術のように、実走行路に白線や道路境界
線が存在している必要なく、走行可能な場所が前記白線
や道路境界線が存在する場所に限定されない。また前記
走行経路曲線を近似によって求めるので、追従対象領域
に重畳したノイズ成分を処理することが可能であり、誤
差の少ない高精度の走行可能曲線を得ることができる。
According to the third aspect of the present invention, the travel route curve is obtained by approximation from the tracking target area.
Unlike the prior arts described above, there is no need for a white line or a road boundary line to exist on the actual traveling road, and a place where the vehicle can travel is not limited to a place where the white line or the road boundary line exists. Further, since the traveling route curve is obtained by approximation, it is possible to process a noise component superimposed on the tracking target area, and it is possible to obtain a high-accuracy traveling curve with few errors.

【手続補正17】[Procedure amendment 17]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0071[Correction target item name] 0071

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0071】請求項5記載の本発明によれば、操舵角決
定用の注視点とは独立に、走行速度指令決定用の注視点
を設定し、その注視点における走行経路曲線の曲率に応
じて走行指令が変化するので、曲線路に入る前に、その
曲線路中の前記注視点における最適速度に減速し、ある
いは増速することができ、速度調整によって、走行路に
対する追従性および走行安定性を向上することができ
る。
According to the fifth aspect of the present invention, a gazing point for determining a traveling speed command is set independently of a gazing point for determining a steering angle, and the gazing point is determined according to the curvature of a traveling path curve at the gazing point. Since the traveling command changes, before entering the curved road, it is possible to reduce or increase the speed to the optimum speed at the gazing point on the curved road. Can be improved.

【手続補正18】[Procedure amendment 18]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0074[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0074】請求項8記載の本発明によれば、前方の歩
行者などに追従走行している場合に、歩行者がしゃがん
だり、転んだりしたときは、走行体から注視点までの距
離が近づいたと解釈されて、走行体は減速するか停止す
るため、安全性の高い追従走行制御が可能となる。ま
た、走行体と注視点が近づくほど、走行体の速度が遅く
なるように制御されるため、追従対象物と走行体の衝突
の危険性が下がり、安全な追従走行が可能となる。
According to the present invention, when the pedestrian squats or falls while following the pedestrian in front of the vehicle, the distance from the traveling body to the point of interest decreases. As a result, the traveling body decelerates or stops, so that it is possible to perform the following traveling control with high safety. Further, since the speed of the traveling body is controlled to be slower as the traveling body comes closer to the gazing point, the danger of collision between the following object and the traveling body is reduced, and safe following traveling is possible.

【手続補正19】[Procedure amendment 19]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図8[Correction target item name] Fig. 8

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図8】各注視点距離での走行軌跡(実測値)の変化を
捉えた結果を示すグラフである。
FIG. 8 is a graph showing a result obtained by capturing a change in a running locus (actually measured value) at each fixation point distance.

【手続補正20】[Procedure amendment 20]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図9[Correction target item name] Fig. 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図9】各注視点距離での操舵角(実測値)の変化を捉
えた結果を示すグラフである。
FIG. 9 is a graph showing a result of capturing a change in a steering angle (actually measured value) at each gazing point distance.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B62D 113:00 B62D 113:00 (72)発明者 北村 安幸 岐阜県各務原市川崎町1番地 川崎重工業 株式会社岐阜工場内 Fターム(参考) 3D032 CC20 DA04 DA23 DA81 DC04 DC38 EB04 EC34 GG07 5B057 AA16 BA02 DA08 DB02 DC05 5C054 AA02 CC02 CD03 CE11 FC11 FC12 FF07 HA28 5H301 AA01 CC06 GG01 HH03 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B62D 113: 00 B62D 113: 00 (72) Inventor Yasuyuki Kitamura 1 Kawasaki-cho, Kakamigahara-shi, Gifu Kawasaki Heavy Industries, Ltd. F term in Gifu factory (reference) 3D032 CC20 DA04 DA23 DA81 DC04 DC38 EB04 EC34 GG07 5B057 AA16 BA02 DA08 DB02 DC05 5C054 AA02 CC02 CD03 CE11 FC11 FC12 FF07 HA28 5H301 AA01 CC06 GG01 HH03

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 走行体に搭載される撮像装置によって撮
像された画像を、複数の領域に分割して、各分割領域毎
に求めた分割領域内の特徴量と所定のしきい値とを比較
して追従対象領域を抽出し、 この追従対象領域上に注視点を設定し、 この注視点に向かうための走行体の操舵角を算出し、こ
の操舵角によって走行体を操舵制御することを特徴とす
る自律走行体の走行制御方法。
An image captured by an imaging device mounted on a traveling body is divided into a plurality of regions, and a feature amount in each divided region obtained for each divided region is compared with a predetermined threshold value. Extracting a follow-up target area, setting a gazing point on the tracing-target area, calculating a steering angle of the traveling body toward the gazing point, and performing steering control of the traveling body based on the steering angle. A traveling control method for an autonomous traveling body.
【請求項2】 特徴量として、分割領域内のパワースペ
クトル平均値を使用することを特徴とする請求項1記載
の自律走行体の走行制御方法。
2. The method according to claim 1, wherein an average value of the power spectrum in the divided area is used as the characteristic amount.
【請求項3】 前記追従対象領域から走行経路曲線を近
似によって求め、この走行経路曲線上の進行方向前方
に、前記注視点を設定することを特徴とする請求項1ま
たは2記載の自律走行体の走行制御方法。
3. The autonomous vehicle according to claim 1, wherein a trajectory curve is obtained from the following target area by approximation, and the gazing point is set ahead of the traveling direction on the trajectory curve. Travel control method.
【請求項4】 前記走行経路曲線上の注視点の設定位置
を、走行体の操舵角および走行速度のうち少なくともい
ずれか一方の値に応じて変化させることを特徴とする請
求項3記載の自律走行体の走行制御方法。
4. The autonomous system according to claim 3, wherein the set position of the gazing point on the traveling route curve is changed according to at least one of a steering angle and a traveling speed of the traveling body. A traveling control method for the traveling body.
【請求項5】 走行経路曲線上に走行速度指令決定用の
注視点を1つ以上設定し、その注視点における走行経路
曲線の曲率に応じて走行速度指令を変化させることを特
徴とする請求項3または4記載の自律走行体の走行制御
方法。
5. The method according to claim 1, wherein one or more gazing points for determining a traveling speed command are set on the traveling path curve, and the traveling speed command is changed according to the curvature of the traveling path curve at the gazing point. 5. The travel control method for an autonomous traveling body according to 3 or 4.
【請求項6】 前記注視点の画像上の座標に基づいて、
走行体から注視点までの空間的な距離を求め、その距離
の大きさに応じて走行速度指令を変化させることを特徴
とする請求項1または2記載の自律走行体の走行制御方
法。
6. A method according to claim 1, wherein:
The travel control method for an autonomous traveling body according to claim 1 or 2, wherein a spatial distance from the traveling body to a point of interest is obtained, and a traveling speed command is changed according to the magnitude of the distance.
【請求項7】 前記注視点は、撮像装置によって撮像さ
れた画像から、色特性によって識別した追従対象物上に
設定されることを特徴とする請求項6記載の注視点を用
いた自律走行体の走行制御方法。
7. The autonomous mobile unit using a gazing point according to claim 6, wherein the gazing point is set on an object to be tracked identified by a color characteristic from an image captured by an imaging device. Travel control method.
【請求項8】 注視点の画像上の座標から求めた走行体
から注視点までの空間距離が小さいほど走行速度指令を
小さくし、前記空間距離が所定の距離より小さい場合
は、走行速度を0とする走行停止指令を出力して走行制
御することを特徴とする請求項6または7記載の自律走
行体の走行制御方法。
8. The travel speed command is reduced as the spatial distance from the traveling body to the gazing point obtained from the coordinates of the gazing point on the image is reduced. The travel control method for an autonomous traveling body according to claim 6 or 7, wherein the travel control is performed by outputting a travel stop command.
JP2000327872A 2000-10-26 2000-10-26 Travel control method for autonomous travel body Pending JP2002132343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000327872A JP2002132343A (en) 2000-10-26 2000-10-26 Travel control method for autonomous travel body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000327872A JP2002132343A (en) 2000-10-26 2000-10-26 Travel control method for autonomous travel body

Publications (1)

Publication Number Publication Date
JP2002132343A true JP2002132343A (en) 2002-05-10

Family

ID=18804814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000327872A Pending JP2002132343A (en) 2000-10-26 2000-10-26 Travel control method for autonomous travel body

Country Status (1)

Country Link
JP (1) JP2002132343A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123597A (en) * 2004-10-26 2006-05-18 Nissan Motor Co Ltd Steering device for vehicle
JP2009068852A (en) * 2007-09-10 2009-04-02 Tokyo Metropolitan Univ Environment recognition system, autonomous type mobile and environment recognition program
JP2012003365A (en) * 2010-06-15 2012-01-05 Ihi Aerospace Co Ltd Travelling route planning method for unmanned mobile vehicle
JP2012083892A (en) * 2010-10-08 2012-04-26 Mitsubishi Heavy Ind Ltd Autonomous travel control device and autonomous travel vehicle with the device
US8468292B2 (en) 2009-07-13 2013-06-18 Compellent Technologies Solid state drive data storage system and method
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program
JP2015067065A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular lane keep control apparatus
JP2017004373A (en) * 2015-06-12 2017-01-05 株式会社リコー Information processing device, information processing program, and information processing system
US10160485B2 (en) 2015-11-11 2018-12-25 Hyundai Motor Company Apparatus and method for automatic steering control in vehicle
KR101937689B1 (en) * 2017-11-24 2019-04-11 (주)유프랜드 Worker-following Control Algorithm Applied Moving Device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123597A (en) * 2004-10-26 2006-05-18 Nissan Motor Co Ltd Steering device for vehicle
JP4622452B2 (en) * 2004-10-26 2011-02-02 日産自動車株式会社 Vehicle steering device
JP2009068852A (en) * 2007-09-10 2009-04-02 Tokyo Metropolitan Univ Environment recognition system, autonomous type mobile and environment recognition program
US8468292B2 (en) 2009-07-13 2013-06-18 Compellent Technologies Solid state drive data storage system and method
JP2012003365A (en) * 2010-06-15 2012-01-05 Ihi Aerospace Co Ltd Travelling route planning method for unmanned mobile vehicle
JP2012083892A (en) * 2010-10-08 2012-04-26 Mitsubishi Heavy Ind Ltd Autonomous travel control device and autonomous travel vehicle with the device
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program
JPWO2014102995A1 (en) * 2012-12-28 2017-01-12 株式会社日立製作所 Information recording medium storing monitoring system, method and program
JP2015067065A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular lane keep control apparatus
CN104512451A (en) * 2013-09-27 2015-04-15 富士重工业株式会社 Lane keeping control system for vehicle
CN104512451B (en) * 2013-09-27 2017-06-20 株式会社斯巴鲁 The track of vehicle keeps control device
JP2017004373A (en) * 2015-06-12 2017-01-05 株式会社リコー Information processing device, information processing program, and information processing system
US10160485B2 (en) 2015-11-11 2018-12-25 Hyundai Motor Company Apparatus and method for automatic steering control in vehicle
KR101937689B1 (en) * 2017-11-24 2019-04-11 (주)유프랜드 Worker-following Control Algorithm Applied Moving Device

Similar Documents

Publication Publication Date Title
US11270131B2 (en) Map points-of-change detection device
CN108647646B (en) Low-beam radar-based short obstacle optimized detection method and device
EP3436879B1 (en) An autonomous vehicle with improved visual detection ability
JP3357749B2 (en) Vehicle road image processing device
Broggi et al. The ARGO autonomous vehicle’s vision and control systems
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP3619628B2 (en) Driving environment recognition device
EP3306429B1 (en) Position estimation device and position estimation method
Turk et al. Video road-following for the autonomous land vehicle
US9734719B2 (en) Method and apparatus for guiding a vehicle in the surroundings of an object
CN107169468A (en) Method for controlling a vehicle and device
CN111551957B (en) Park low-speed automatic cruise and emergency braking system based on laser radar sensing
US20180137376A1 (en) State estimating method and apparatus
Manz et al. A hybrid estimation approach for autonomous dirt road following using multiple clothoid segments
CN110568861B (en) Man-machine movement obstacle monitoring method, readable storage medium and unmanned machine
Amaradi et al. Lane following and obstacle detection techniques in autonomous driving vehicles
JP2002132343A (en) Travel control method for autonomous travel body
Capito et al. Optical flow based visual potential field for autonomous driving
CN115923839A (en) Vehicle path planning method
Nie et al. Camera and lidar fusion for road intersection detection
Stević et al. Vision-based extrapolation of road lane lines in controlled conditions
JP2019191991A (en) Object information estimating apparatus estimating direction of object using point group, program therefor, and method thereof
Truong et al. New lane detection algorithm for autonomous vehicles using computer vision
US11904843B2 (en) Autonomous parking systems and methods for vehicles
Unterholzner et al. Active perception for autonomous vehicles

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041221