JP2676777B2 - Position detection device for unmanned vehicles - Google Patents

Position detection device for unmanned vehicles

Info

Publication number
JP2676777B2
JP2676777B2 JP63095860A JP9586088A JP2676777B2 JP 2676777 B2 JP2676777 B2 JP 2676777B2 JP 63095860 A JP63095860 A JP 63095860A JP 9586088 A JP9586088 A JP 9586088A JP 2676777 B2 JP2676777 B2 JP 2676777B2
Authority
JP
Japan
Prior art keywords
signal
pattern
video
vehicle body
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63095860A
Other languages
Japanese (ja)
Other versions
JPH01266606A (en
Inventor
充孝 堀
潤一 下村
昌克 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP63095860A priority Critical patent/JP2676777B2/en
Publication of JPH01266606A publication Critical patent/JPH01266606A/en
Application granted granted Critical
Publication of JP2676777B2 publication Critical patent/JP2676777B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 A.産業上の利用分野 本発明は、無人車の位置検出装置に係り、特に無人車
の走行位置,移動距離および進行方向に対する変位を検
出する無人車の位置検出装置に関する。
The present invention relates to a position detection device for an unmanned vehicle, and more particularly to a position detection device for an unmanned vehicle that detects displacements of the unmanned vehicle with respect to a traveling position, a moving distance, and a traveling direction. Regarding

B.発明の概要 本発明は、無人走行車の車体に走行状態を検出する検
出器を設置して種々の走行状態を検出する無人車の位置
検出装置において、 前記車体に光学系センサを設け、該光学系センサの検
出信号を1次元の空間フィルタ手段で処理し、その出力
から車体の2次元の車体の進行方向に対する垂直方向へ
の変位を検出することにより、 検出精度に優れた無人車の位置検出装置を得るもので
ある。
B. SUMMARY OF THE INVENTION The present invention is a position detecting device for an unmanned vehicle that detects a variety of traveling states by installing a detector that detects a traveling state on the vehicle body of the unmanned vehicle, wherein the vehicle body is provided with an optical system sensor, The detection signal of the optical system sensor is processed by the one-dimensional spatial filter means, and the displacement of the vehicle body in the direction perpendicular to the traveling direction of the two-dimensional vehicle body is detected from the output of the one-dimensional spatial filter means. A position detecting device is obtained.

C.従来の技術 従来、無人搬送車などの無人走行車の自動運転にあた
って、走行路上に電磁誘導線や光学式反射テープを布設
して走行ガイドを形成する方式や、車軸,計測輪にエン
コーダやタコジュネレータを取り付けて、車輪の回転に
応じたパルス又はアナログ電圧から無人車の速度,移動
距離を計測する方式がある。
C. Conventional technology Conventionally, in automatic driving of an unmanned vehicle such as an automated guided vehicle, a method of laying an electromagnetic induction wire or an optical reflection tape on the road to form a traveling guide, an encoder or an axle on the measuring wheel, or the like. There is a method of attaching a tachogenerator and measuring the speed and moving distance of an unmanned vehicle from a pulse or analog voltage according to the rotation of the wheel.

D.発明が解決しようとする課題 従来の種々な位置検出装置においては、路面に誘導線
や反射テープ等を布設する走行路の加工を必要とし、そ
の加工作業が面倒であると共に、路面の凹凸,外力等に
よる車輪のスリップや車輪の摩耗により精度良い計測が
出来ないと共に、車体が進行方向に対する直角方向の変
位を検出することが出来なかった。
D. Problems to be Solved by the Invention In various conventional position detecting devices, it is necessary to process a traveling path on which a guide wire, a reflective tape, etc. are laid on the road surface, which is a troublesome work, and unevenness of the road surface is required. , Accurate measurement was not possible due to wheel slip and wheel wear due to external force, etc., and the displacement of the vehicle body in the direction perpendicular to the traveling direction could not be detected.

E.課題を解決するための手段 本発明は、上述の問題点に鑑みてなされたもので、車
体の底面部に該車体の進行軸方向に対してほぼ垂直とな
るように配設され走行路面のパターンを撮取する光学系
と、該光学系により撮取した映像パターンを所定の周期
でサンプリングして映像パターン信号を得る映像検出部
と、該映像検出部の映像パターン信号と予め設定された
三角関数設定信号を乗算し、該乗算信号を積分演算して
三角関数パターン信号を得るフィルタ手段と、該フィル
タ手段の三角関数パターン信号をもとに乗算加算処理し
て前記車体の移動距離信号を算出する演算処理部によっ
て無人車の位置,速度,方向を検出する。
E. Means for Solving the Problems The present invention has been made in view of the above-mentioned problems, and is provided on a bottom surface portion of a vehicle body so as to be substantially perpendicular to a traveling axis direction of the vehicle body and a traveling road surface. Optical system for capturing the image pattern, an image detection unit that obtains an image pattern signal by sampling the image pattern captured by the optical system at a predetermined cycle, and the image pattern signal of the image detection unit is set in advance. A filter means for multiplying a trigonometric function setting signal and performing an integral operation on the multiplied signal to obtain a trigonometric function pattern signal; and a multiplying and adding process based on the trigonometric function pattern signal of the filter means to obtain a moving distance signal of the vehicle body. The position, speed and direction of the unmanned vehicle are detected by the calculation processing unit for calculation.

F.実施例 以下に本発明の実施例を図面によって説明する。第1
図は本発明の実施例に係る無人車の位置検出装置のブロ
ック図であって、10は無人車の車体、12は走行車輪、20
Aは車体10の底面部11において無人車の進行軸心(X
軸)に関して底面部11の一方の側端部に配設された第1
の光学系、20Bは第1の光学系20Aから所定距離Dを置い
て底面部11の他方の側端部(Y軸上)に配設された第2
の光学系、20Cはその中心点に車体10の底面部11の中心
点を一致させて軸心が車体10の幅方向になるように配設
された第3の光学系である。30Aは第1の光学系20Aの映
像信号を入力とする第1の映像検出部、40Aは第1の映
像検出部30Aの映像検出信号を入力とする第1の空間フ
ィルタ、50Aは第1の演算処理部で、第1の空間フィル
タ40Aのフィルタ出力信号をもとに演算処理して無人車
の移動距離,速度および現在位置を算出する。これらの
第1の光学系20A,第1の映像検出部30A,第1の空間フィ
ルタ40Aおよび第1の演算処理部50Aによって第1の検出
処理部60Aが構成される。同じく、20Bは第2の光学系、
30Bは第2の映像検出部、40Bは第2の空間フィルタ、50
Bは第2の演算処理部であって、これらにより第2の検
出処理部60Bが構成される。また、20Cは第3の光学系、
30Cは第3の映像検出部、40Cは第3の空間フィルタ、50
Cは第3の演算処理部であって、これらにより第3の検
出処理部60Cが構成される。
F. Examples Examples of the present invention will be described below with reference to the drawings. First
FIG. 1 is a block diagram of a position detecting device for an unmanned vehicle according to an embodiment of the present invention, in which 10 is a vehicle body of the unmanned vehicle, 12 is traveling wheels, and 20 is a traveling wheel.
A is the traveling axis of the unmanned vehicle (X
The first axis disposed at one side end of the bottom surface portion 11 with respect to the (axis)
The second optical system 20B is disposed at the other side end portion (on the Y-axis) of the bottom surface portion 11 with a predetermined distance D from the first optical system 20A.
The optical system 20C is a third optical system arranged so that the center point of the bottom surface portion 11 of the vehicle body 10 coincides with the center point of the optical system and the axis is in the width direction of the vehicle body 10. 30A is a first image detection unit that receives the image signal of the first optical system 20A, 40A is a first spatial filter that receives the image detection signal of the first image detection unit 30A, and 50A is a first spatial filter. The arithmetic processing unit performs arithmetic processing based on the filter output signal of the first spatial filter 40A to calculate the moving distance, speed and current position of the unmanned vehicle. The first optical system 20A, the first image detecting section 30A, the first spatial filter 40A and the first arithmetic processing section 50A constitute a first detection processing section 60A. Similarly, 20B is the second optical system,
30B is a second image detector, 40B is a second spatial filter, 50
B is a second arithmetic processing unit, which constitutes a second detection processing unit 60B. 20C is the third optical system,
30C is a third video detection unit, 40C is a third spatial filter, 50
C is a third arithmetic processing unit, which constitutes a third detection processing unit 60C.

第1の検出処理部60Aと第2の検出処理部60Bおよび第
3の検出処理部60Cは、第2図に示すように同じ構成要
素によって構成されている。すなわち、第2図に示すよ
うに、第1,第2,第3の映像検出部30A,30B,30Cはライン
センサ31,読出回路32およびアナログ/ディジタル変換
器(A/D変換器)33によって構成されている。第1,第2,
第3の空間フィルタ40A,40B,40Cは掛算部41a,41b,パタ
ーン設定部42a,42b,積分演算部43a,43bによって構成さ
れている。
The first detection processing unit 60A, the second detection processing unit 60B, and the third detection processing unit 60C are composed of the same components as shown in FIG. That is, as shown in FIG. 2, the first, second, and third video detection units 30A, 30B, and 30C include a line sensor 31, a readout circuit 32, and an analog / digital converter (A / D converter) 33. It is configured. First, second,
The third spatial filters 40A, 40B, 40C are composed of multiplication units 41a, 41b, pattern setting units 42a, 42b, and integration calculation units 43a, 43b.

第1,第2,第3の演算処理部50A,50B,50Cはローパスフ
ィルタ51a,51b,三角関数演算部52,位相演算部53,和算部
54,掛算部55,微分演算部56および回転軌跡演算部(m演
算部)70によって構成されている。m演算部70は、第3
図に示すように、正弦波信号演算部71a,71b,掛算部72a,
72b,前回値保持部であるデータ保持部73a〜73c,和算部7
4a,74bによって構成されている。
The first, second, and third arithmetic processing units 50A, 50B, 50C are low-pass filters 51a, 51b, trigonometric function arithmetic unit 52, phase arithmetic unit 53, summing unit
54, a multiplication unit 55, a differential calculation unit 56, and a rotation locus calculation unit (m calculation unit) 70. The m calculation unit 70 is the third
As shown in the figure, the sine wave signal calculation units 71a, 71b, the multiplication unit 72a,
72b, data holding unit 73a to 73c which is the previous value holding unit, summing unit 7
It is composed of 4a and 74b.

第5図は第1,第2,第3の光学系20A,20B,20Cの具体的
な構成例を示すもので、第5図において、21は路面80か
らの反射光を受光するシリンダーレンズ、22はコリメー
トレンズ、31はCCDラインセンサである。また、第6図
は光学系の他の例を示すもので、路面80の反射光をコリ
メートレンズ22でシリンダーレンズ23に集束するもので
ある 次に、上記構成の位置検出装置の動作について説明す
る。
FIG. 5 shows a concrete configuration example of the first, second and third optical systems 20A, 20B and 20C. In FIG. 5, 21 is a cylinder lens for receiving the reflected light from the road surface 80, 22 is a collimating lens, and 31 is a CCD line sensor. Further, FIG. 6 shows another example of the optical system, in which the reflected light of the road surface 80 is focused on the cylinder lens 23 by the collimator lens 22. Next, the operation of the position detecting device having the above-mentioned configuration will be described. .

光学系20A,20B,20Cは第5図,第6図に示すように、
シリンダーレンズ21,24によってラインセンサ31と平行
な方向については該ラインセンサ31上に結像し、垂直な
方向に対してはラインセンサ31が焦点になるようにレン
ズ系が構成されている。光学系20A,20B,20Cの映像信号
はそれぞれ第1,第2,第3の映像検出部30A,30B,30Cで検
出され、第1,第2および第3の空間フィルタ40A,40B,40
Cに入力される。空間フィルタ40A,40Bは路面の光学的に
ランダムなパターンから特定の空間的な周波数成分を検
出し、その時間的な挙動を調べることにより路面との相
対的な車体の位置と速度を計測する。また、空間フィル
タ40Cは同じく路面の光学的にランダムなパターンから
特定の空間的な周波数成分を検出し、その時間的な挙動
を調べることにより車体11の進行方向に対しほぼ垂直に
移動(すべり)したときの変位を検出する。
The optical systems 20A, 20B, 20C are, as shown in FIGS. 5 and 6,
A lens system is configured such that the cylinder lenses 21 and 24 form an image on the line sensor 31 in a direction parallel to the line sensor 31, and the line sensor 31 is a focal point in a vertical direction. The video signals of the optical systems 20A, 20B, 20C are respectively detected by the first, second, and third video detection units 30A, 30B, 30C, and the first, second, and third spatial filters 40A, 40B, 40
Entered in C. The spatial filters 40A and 40B detect a specific spatial frequency component from an optically random pattern on the road surface and measure the temporal behavior thereof to measure the position and speed of the vehicle body relative to the road surface. Further, the spatial filter 40C also detects a specific spatial frequency component from an optically random pattern on the road surface and examines its temporal behavior to move (slip) almost vertically to the traveling direction of the vehicle body 11. The displacement when it does is detected.

概略的には、第2図に示すように、路面80のパターン
を光学系20A(20B,20C)を介して映像検出部30A(30B,3
0C)によって検出し、その出力を空間フィルタ40A(40
B,40C)に入力する。空間フィルタにおいては入力値
と、予め計算し、予め設定して置いた設定パターンを用
いて積和演算を行う。ここでは、正弦波パターンを用い
ている。設定パターンは、映像検出部30A(30B,30C)の
ラインセンサ31の素子数とピッチで決まる周期分のデー
タを持っている。空間フィルタの出力を演算処理部50A
(50B,50C)で演算処理して車の移動距離を算出し、こ
の移動距離を時間で微分して速度又は変位を求める。ま
た、車の動きに比べて充分小さい周期で位置を検出する
ときは、2つの検出処理部の1周期での移動距離測定値
の差から車の方向の変化を求め、その変化の平均値でそ
の期間を走行したものとして車体の位置を求める。
Schematically, as shown in FIG. 2, the pattern of the road surface 80 is transferred through the optical system 20A (20B, 20C) to the image detecting unit 30A (30B, 3B).
The output is detected by the spatial filter 40A (40C).
B, 40C). In the spatial filter, the sum of products is calculated using the input value and a preset pattern that is preliminarily calculated and preset. Here, a sine wave pattern is used. The set pattern has data for a period determined by the number of elements and the pitch of the line sensor 31 of the video detection unit 30A (30B, 30C). The output of the spatial filter is the processing unit 50A
(50B, 50C) is calculated to calculate the moving distance of the vehicle, and the moving distance is differentiated with respect to time to obtain the speed or displacement. When detecting a position in a cycle that is sufficiently smaller than the movement of the vehicle, the change in the direction of the vehicle is calculated from the difference between the movement distance measurement values of the two detection processing units in one cycle, and the average value of the changes is calculated. The position of the vehicle body is calculated assuming that the vehicle has traveled during that period.

さらに詳しくは、第2図に示すように、路面80の映像
信号を光学系20A(20B,20C)を介して映像検出部30A(3
0B,30C)に入力する。映像検出部30A(30B,30C)におい
てはラインセンサ31がその映像を検出し、その映像検出
信号を読出回路32が読み出し、その映像検出信号をA/D
変換して空間フィルタ40A(40B,40C)に入力する。空間
フィルタ40A(40B,40C)においては、掛算部41aで映像
検出部30A(30B,30C)からの映像検出信号とパターン設
定部42aの正弦波パターン設定信号を掛け合わせると共
に、掛算部41bで映像検出信号とパターン設定部41bの余
弦波パターン設定信号を掛け合わせる。さらに第1の掛
算部41aの掛算信号を積分演算部43aで積分しその積分信
号aを出力すると共に、掛算部41bの掛算信号を第2の
積分演算部43bで積分し、その積分信号bを出力する。
More specifically, as shown in FIG. 2, the video signal of the road surface 80 is transmitted through the optical system 20A (20B, 20C) to the video detection unit 30A (3
0B, 30C). In the video detection unit 30A (30B, 30C), the line sensor 31 detects the video, the reading circuit 32 reads the video detection signal, and the video detection signal is A / D.
It is converted and input to the spatial filter 40A (40B, 40C). In the spatial filter 40A (40B, 40C), the multiplication unit 41a multiplies the image detection signal from the image detection unit 30A (30B, 30C) by the sine wave pattern setting signal of the pattern setting unit 42a, and the multiplication unit 41b generates an image. The detection signal and the cosine wave pattern setting signal of the pattern setting unit 41b are multiplied. Furthermore, the multiplication signal of the first multiplication unit 41a is integrated by the integration calculation unit 43a and the integrated signal a is output, and the multiplication signal of the multiplication unit 41b is integrated by the second integration calculation unit 43b and the integration signal b is calculated. Output.

演算処理部50A(50B,50C)においては、積分信号をロ
ーパスフィルタ51aに通して信号Saを得ると共に、積分
信号をローパスフィルタ51bに通して信号Sbを得る。信
号SaとSbはそれぞれ三角関数演算部52と回転軌跡演算部
(m演算部)70に入力される。三角関数演算部52は信号
SaとSbをもとに演算し、出力ρ=arctan(Sb/Sa)を算
出する。位相演算部53は入力ρと初期位相φをもとに
(ρ−φ)/2πを算出する。
In the arithmetic processing unit 50A (50B, 50C), the integrated signal is passed through the low-pass filter 51a to obtain the signal Sa, and the integrated signal is passed through the low-pass filter 51b to obtain the signal Sb. The signals Sa and Sb are input to the trigonometric function calculation unit 52 and the rotation locus calculation unit (m calculation unit) 70, respectively. The trigonometric function calculator 52 is a signal
Calculate based on Sa and Sb to calculate the output ρ = arctan (Sb / Sa). The phase calculator 53 calculates (ρ−φ) / 2π based on the input ρ and the initial phase φ.

m演算部70では、第3図に示す如く、信号Saが正弦波
信号演算部71aを通して掛算部72aとデータ保持部73aに
導かれ、信号Sbは正弦波信号演算部71bを通して和算部7
4bとデータ保持部73bに導かれる。掛算部72aはデータ保
持部73aからの前回のサンプリング値と現在のサンプリ
ング値を乗算する。和算部74bは現在のサンプリング値
とデータ保持部73bの前回のサンプリング値を和算す
る。掛算部72bは掛算部72aの乗算値と和算部74bの和算
値とを乗算し、和算部74aは掛算部72bの現在の乗算値と
データ保持部73cによる前回値を加算してm信号を出力
する。
In the m calculation unit 70, as shown in FIG. 3, the signal Sa is guided to the multiplication unit 72a and the data holding unit 73a through the sine wave signal calculation unit 71a, and the signal Sb is calculated through the sine wave signal calculation unit 71b.
4b and the data holding unit 73b. The multiplication unit 72a multiplies the previous sampling value from the data holding unit 73a by the current sampling value. The summing unit 74b sums the current sampling value and the previous sampling value of the data holding unit 73b. The multiplication unit 72b multiplies the multiplication value of the multiplication unit 72a and the addition value of the addition unit 74b, and the addition unit 74a adds the current multiplication value of the multiplication unit 72b and the previous value of the data holding unit 73c to m. Output a signal.

さらに演算処理部50A(50B)においては、第2図に示
す如く、和算部54がm演算部70のm信号と位相演算部53
の位相信号を和算し、この和算部54の加算値と空間フィ
ルタのピッチ(周期)Pを掛け算して移動距離を算出す
ると共に、この移動距離信号を微分演算部56に入力して
速度を算出する。
Further, in the arithmetic processing section 50A (50B), as shown in FIG. 2, the summing section 54 is provided with the m signal of the m arithmetic section 70 and the phase arithmetic section 53.
The sum of the phase signals is calculated and the sum value of the summing unit 54 is multiplied by the pitch (cycle) P of the spatial filter to calculate the moving distance, and the moving distance signal is input to the differential calculating unit 56 to calculate the speed. To calculate.

第1図に示すように、車体10の底面部11の中心点をA
(x,y)とし、車が矢印方向に走行しているとき、車が
X−Y平面上でX軸に対しθの角度で移動しているとす
る。ここで、1サンプリングによる第1,第2の検出処理
部60A,60Bの出力がΔr,Δl(位置)変化したとする
と、車体10の進行方向変化Δθは、サンプリング周期が
短いとして、 Δθ≒(l−r)/D ……(1) となり、車体10の現在の角度θnは θn=θn-1+Δθ ……(2) となる。ここでθn-1は前回のサンプリング時の角度で
ある。この間、平均的に で移動したものとして、次式(3),(4)からA点の
位置で(xn,yn)を求めることができる。
As shown in FIG. 1, the center point of the bottom surface portion 11 of the vehicle body 10 is A
It is assumed that (x, y) and the vehicle is moving in the direction of the arrow at an angle of θ with respect to the X axis on the XY plane. Here, if the outputs of the first and second detection processing units 60A and 60B by one sampling change by Δr, Δl (position), the change Δθ in the traveling direction of the vehicle body 10 is Δθ≈ ( l-r) / D (1) and the current angle θn of the vehicle body 10 becomes θn = θ n-1 + Δθ (2). Here, θ n-1 is the angle at the time of the previous sampling. During this time, on average It is possible to obtain (x n , y n ) at the position of the point A from the following equations (3) and (4) assuming that the movement has been made by

ここで、nは今回,n−1は前回座標である。従って、
(1)〜(4)式を演算して車の位置(x,y)と向きθ
を求める。
Here, n is the current coordinate and n-1 is the previous coordinate. Therefore,
The formulas (1) to (4) are calculated and the vehicle position (x, y) and direction θ
Ask for.

空間フィルタの2出力a,bは、第4図に示すように、
位相平面上を車の動きに従って回転する。それ故、走行
距離は次式によって算出される。
The two outputs a and b of the spatial filter are, as shown in FIG.
It rotates according to the movement of the car on the phase plane. Therefore, the traveling distance is calculated by the following equation.

X0=(2πm+ρ−P)/nK=m×P+(ρ−φ)/2πP ……(5) 但し、mは原点を中心にした軌跡の回転数(反時計方
向を正とする)、X0は移動距離、Pは空間フィルタのピ
ッチ(周期),ρ=arctan(Sb/Sa),0≦ρ<2π,P=
ρ=0(初期値)である。
X 0 = (2πm + ρ−P) / nK = m × P + (ρ−φ) / 2πP (5) However, m is the number of revolutions of the locus around the origin (the counterclockwise direction is positive), X 0 is the moving distance, P is the pitch (period) of the spatial filter, ρ = arctan (Sb / Sa), 0 ≦ ρ <2π, P =
ρ t = 0 (initial value).

さらに、第1,第2の光学系20A,20Bに対して垂直方向
を検出する第3の光学系20Cを設けることにより、車体1
0が進行コースからこの進行コースに対してほぼ直交す
る方向に移動(ずれ)した場合、底面部11の中心点Aの
現在位置(X0,Y0)とし、第3の演算処理部50Cの演算結
果をY1とすると、現在のA(X,Y)点は、 (X,Y)=(X0,Y0)+(O,Y1) ……(6) となる。したがって、(4)式と(6)式の関係から、
車体10が進行方向に対して垂直方向に変位した時に生じ
る位置の誤差を補正することができる。
Further, by providing a third optical system 20C for detecting the vertical direction with respect to the first and second optical systems 20A and 20B, the vehicle body 1
When 0 moves (shifts) from the traveling course in a direction substantially orthogonal to this traveling course, the current position (X 0 , Y 0 ) of the center point A of the bottom surface portion 11 is set, and the third arithmetic processing unit 50C When the calculation result is Y 1 , the current A (X, Y) point is (X, Y) = (X 0 , Y 0 ) + (O, Y 1 ) ... (6). Therefore, from the relationship between equations (4) and (6),
It is possible to correct the position error that occurs when the vehicle body 10 is displaced in the direction perpendicular to the traveling direction.

第7図,第8図は上述の動作フローを示すもので、第
7図は空間フィルタ40A(40B)の演算フロー、第8図は
演算処理部50A(50B)の演算フローである。
7 and 8 show the above-mentioned operation flow. FIG. 7 is a calculation flow of the spatial filter 40A (40B), and FIG. 8 is a calculation flow of the calculation processing unit 50A (50B).

第7図に示すように、ステップS1でラインセンサ(CC
D)の出力をA/D変換して空間フィルタに入力する。空間
フィルタにおいては、ステップS2に示す如く、窓関数デ
ータ1として正弦波(sin)パターンを読み込み、この
正弦波パターンとCCD出力の積和演算を実行する(ステ
ップS2)。次に、ステップS4に示すように、窓関数デー
タ2として余弦波(cos)パターンを読み込み、この余
弦波パターンとCCD出力の積和演算を行う(ステップS
5)。そして、ステップS6に示すように、ステップS1〜S
5の動作をCCDの素子数例えば2048回繰り返す。
As shown in FIG. 7, the line sensor (CC
The output of D) is A / D converted and input to the spatial filter. In the spatial filter, as shown in step S2, a sine wave (sin) pattern is read as the window function data 1, and the product-sum operation of this sine wave pattern and the CCD output is executed (step S2). Next, as shown in step S4, a cosine wave (cos) pattern is read as the window function data 2, and the product-sum operation of this cosine wave pattern and the CCD output is performed (step S4).
Five). Then, as shown in step S6, steps S1 to S
The operation of 5 is repeated for the number of CCD elements, for example 2048 times.

第8図に示すように、演算処理部においては空間フィ
ルタの出力信号aとbをそれぞれ1次元のローパスフィ
ルタに通し(ステップS7,S8)、ステップS9に示す如
く、位相平面上軌跡が第一象現と第四象現の間を移る回
数を、第四象現から第一象現に移る方向を正として、数
えてm演算を実行する。次に、ステップS10に示すよう
に、ρ=arctan(Sb/Sa)を0≦ρ<2πの範囲で計算
して位相演算を実行し、ステップS11に示すように、m
・P+(ρ−P)/2π・Pを算出して距離演算を実行す
ると共に、ステップS12に示すように距離を微分して速
度演算を実行する。
As shown in FIG. 8, in the arithmetic processing section, the output signals a and b of the spatial filter are respectively passed through one-dimensional low-pass filters (steps S7 and S8), and as shown in step S9, the locus on the phase plane is first The number of times of transition between the quadrant and the fourth quadrant is counted with the positive direction of the transition from the fourth quadrant to the first quadrant, and the m operation is executed. Next, as shown in step S10, ρ = arctan (Sb / Sa) is calculated in the range of 0 ≦ ρ <2π to execute the phase calculation, and as shown in step S11, m
.P + (. Rho.-P) /2.pi..P is calculated and the distance calculation is executed, and the distance is differentiated and the speed calculation is executed as shown in step S12.

第9図は本発明の他の実施例を示し、演算処理部とし
てマイクロコンピュータ90を用いたものである。マイク
ロコンピュータ90は中央処理部(CPU)91,ランダムアク
セスメモリ92およびリードオンリメモリ(ROM)93によ
って構成されている。前述のように路面のパターンを光
学系を介してCCDによって検出し、その出力をA/D変換器
を通してマイクロコンピュータ90に入力し、その値と、
予め計算してROM93に格納しておいた設定パターンをも
とに、前述の如き演算処理を実行する。
FIG. 9 shows another embodiment of the present invention, in which a microcomputer 90 is used as an arithmetic processing section. The microcomputer 90 is composed of a central processing unit (CPU) 91, a random access memory 92 and a read only memory (ROM) 93. As described above, the pattern of the road surface is detected by the CCD through the optical system, the output is input to the microcomputer 90 through the A / D converter, and its value,
Based on the setting pattern calculated in advance and stored in the ROM 93, the arithmetic processing as described above is executed.

G.発明の効果 本発明は、以上の如く、車体に光学系センサを設け、
該光学系センサの検出信号を1次元のフィルタ手段で処
理し、その出力から車体の2次元の位置,速度,進行方
向を検出するようにしたから、誘導線,反射テープ等の
走行路の加工が不要にして、非接触で計測することがで
き、路面の凹凸や外力等によるスリップや車輪の摩耗の
影響を受けず精度良い位置,速度の計測が出来る。さら
に、車体の進行方向に対するほぼ垂直方向の変位を検出
することができるから、車体の現在位置をより正確に認
識することができる。
G. Effect of the Invention As described above, the present invention provides the vehicle body with the optical system sensor,
The detection signal of the optical system sensor is processed by a one-dimensional filter means, and the two-dimensional position, speed and traveling direction of the vehicle body are detected from the output, so that the running path such as the guide wire and the reflection tape is processed. It is possible to perform non-contact measurement without the need for, and to measure the position and speed accurately without being affected by slippage and wheel wear due to unevenness of the road surface or external force. Furthermore, since the displacement of the vehicle body in a direction substantially perpendicular to the traveling direction can be detected, the current position of the vehicle body can be recognized more accurately.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明による位置検出装置のブロック線図、第
2図は本発明の実施例による検出処理部の詳細を示すブ
ロック図、第3図は回転軌跡演算部のブロック図、第4
図は回転軌跡演算部の回転軌跡図、第5図および第6図
はそれぞれ光学系の構成図、第7図は空間フィルタの演
算フロー図、第8図は演算処理部の演算フロー図、第9
図は検出処理部の他の実施例を示すブロック図である。 10……車体、11……車体の底面部、20A……第1の光学
系、20B……第2の光学系、20C……第3の光学系、30A
……第1の映像検出部、30B……第2の映像検出部、30C
……第3の映像検出部、40A……第1の空間フィルタ、4
0B……第2の空間フィルタ、40C……第3の空間フィル
タ、50A……第1の演算処理部、50B……第2の演算処理
部、50C……第3の演算処理部、60A……第1の検出処理
部、60B……第2の検出処理部、60C……第3の検出処理
部。
FIG. 1 is a block diagram of a position detection device according to the present invention, FIG. 2 is a block diagram showing details of a detection processing unit according to an embodiment of the present invention, FIG. 3 is a block diagram of a rotation locus calculation unit, and FIG.
FIG. 7 is a rotation locus diagram of the rotation locus calculation unit, FIGS. 5 and 6 are optical system configuration diagrams, FIG. 7 is a spatial filter calculation flow diagram, and FIG. 8 is a calculation processing unit flow diagram. 9
FIG. 9 is a block diagram showing another embodiment of the detection processing unit. 10 ... Car body, 11 ... Bottom surface of car body, 20A ... First optical system, 20B ... Second optical system, 20C ... Third optical system, 30A
...... First video detector, 30B …… Second video detector, 30C
...... Third image detector, 40A ...... First spatial filter, 4
0B: second spatial filter, 40C: third spatial filter, 50A: first arithmetic processing unit, 50B: second arithmetic processing unit, 50C: third arithmetic processing unit, 60A ... ... 1st detection processing part, 60B ... 2nd detection processing part, 60C ... 3rd detection processing part.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭54−61972(JP,A) 特開 昭61−283873(JP,A) 特開 昭62−105206(JP,A) ─────────────────────────────────────────────────── ─── Continuation of front page (56) References JP-A-54-61972 (JP, A) JP-A-61-283873 (JP, A) JP-A-62-105206 (JP, A)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】車体の底面部に該車体の進行軸方向に対し
てほぼ垂直となるように配設され走行路面のパターンを
撮取する光学系と、該光学系により撮取した映像パター
ンを所定の周期でサンプリングして映像パターン信号を
得る映像検出部と、該映像検出部の映像パターン信号と
予め設定された三角関数設定信号を乗算し、該乗算信号
を積分演算して三角関数パターン信号を得るフィルタ手
段と、該フィルタ手段の三角関数パターン信号をもとに
乗算加算処理して前記車体の移動距離信号を算出する演
算処理部とによって構成したことを特徴とする無人車の
位置検出装置。
1. An optical system which is arranged on a bottom surface of a vehicle body so as to be substantially perpendicular to a traveling axis direction of the vehicle body and which captures a pattern of a traveling road surface, and an image pattern which is captured by the optical system. An image detection unit that obtains an image pattern signal by sampling at a predetermined cycle, a video pattern signal of the image detection unit is multiplied by a preset trigonometric function setting signal, and the multiplication signal is integrated to perform trigonometric pattern signal. The position detecting device for an unmanned vehicle, comprising: a filter means for obtaining the above-mentioned information; and an arithmetic processing section for calculating a moving distance signal of the vehicle body by multiplying and adding based on a trigonometric function pattern signal of the filter means. .
【請求項2】車体の底面部に配設され走行路面のパター
ンを撮取する第1の光学系と、該第1の光学系により撮
取した映像パターンを所定の周期でサンプリングして映
像パターン信号を得る第1の映像検出部と、該第1の映
像検出部の映像パターン信号と予め設定された三角関数
設定信号を乗算し、該乗算信号を積分演算して三角関数
パターン信号を得る第1のフィルタ手段と、該第1のフ
ィルタ手段の三角関数パターン信号をもとに乗算処理し
て前記車体の移動距離信号を算出すると共に、該移動距
離信号を微分演算して速度信号を算出する第1の演算処
理部からなる第1の検出処理手段と、 前記車体の進行方向軸心に関して前記第1の光学系から
所定間隔を置いて前記車体の底面部に配設され走行路面
のパターンを撮取する第2の光学系と、該第2の光学系
により撮取した映像パターンを所定の周期でサンプリン
グして映像パターン信号を得る第2の映像検出部と、該
第2の映像検出部の映像パターン信号と予め設定された
三角関数設定信号を乗算し、該乗算信号を積分演算して
三角関数パターン信号を得る第2のフィルタ手段と、該
第2のフィルタ手段の三角関数パターン信号をもとに乗
算処理して前記車体の移動距離信号を算出すると共に、
該移動距離信号を微分演算して速度信号を算出する第2
の演算処理部からなる第2の検出処理手段と、 車体の進行方向に対して該車体のほぼ垂直方向の変位を
撮取する第3の光学系と、該第3の光学系により撮取し
た映像パターンを所定の周期でサンプリングして映像パ
ターン信号を得る第3の映像検出部と、該第3の映像検
出部の映像パターン信号と予め設定された三角関数設定
信号を乗算し、該乗算信号を積分演算して三角関数パタ
ーン信号を得る第3のフィルタ手段と該第3のフィルタ
手段の三角関数パターン信号をもとに乗算処理して前記
車体の移動距離信号を算出すると共に、該移動距離信号
を得る第3の演算処理部によって構成したことを特徴と
する無人車の位置検出装置。
2. A first optical system arranged on the bottom surface of a vehicle body for taking a pattern of a traveling road surface, and a video pattern obtained by sampling the video pattern taken by the first optical system at a predetermined cycle. A first video detection unit for obtaining a signal, a video pattern signal of the first video detection unit and a preset trigonometric function setting signal are multiplied, and the multiplication signal is integrated to obtain a trigonometric function pattern signal. No. 1 filter means and the trigonometric function pattern signal of the first filter means are multiplied to calculate the moving distance signal of the vehicle body, and the moving distance signal is differentiated to calculate the speed signal. A first detection processing unit including a first arithmetic processing unit; and a traveling road surface pattern arranged on the bottom surface of the vehicle body at a predetermined distance from the first optical system with respect to the traveling direction axis of the vehicle body. Second optical system to take a picture And a second video detection unit that obtains a video pattern signal by sampling a video pattern captured by the second optical system at a predetermined cycle, and a video pattern signal of the second video detection unit that is set in advance. A second filter means for multiplying the trigonometric function setting signal and performing an integral operation on the multiplied signal to obtain a trigonometric function pattern signal; and a multiplication processing based on the trigonometric function pattern signal of the second filter means While calculating the travel distance signal of the car body,
A second for calculating a velocity signal by differentiating the moving distance signal
Second detection processing means including an arithmetic processing unit, a third optical system that captures a displacement of the vehicle body in a direction substantially perpendicular to the traveling direction of the vehicle body, and a third optical system that captures the displacement. A third video detection unit that obtains a video pattern signal by sampling a video pattern at a predetermined cycle, a video pattern signal of the third video detection unit, and a preset trigonometric function setting signal, and the multiplication signal Is integrated to obtain a trigonometric function pattern signal, and multiplication processing is performed based on the trigonometric function pattern signal of the third filter means to calculate the travel distance signal of the vehicle body and the travel distance. A position detecting device for an unmanned vehicle, comprising a third arithmetic processing unit for obtaining a signal.
JP63095860A 1988-04-19 1988-04-19 Position detection device for unmanned vehicles Expired - Lifetime JP2676777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63095860A JP2676777B2 (en) 1988-04-19 1988-04-19 Position detection device for unmanned vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63095860A JP2676777B2 (en) 1988-04-19 1988-04-19 Position detection device for unmanned vehicles

Publications (2)

Publication Number Publication Date
JPH01266606A JPH01266606A (en) 1989-10-24
JP2676777B2 true JP2676777B2 (en) 1997-11-17

Family

ID=14149116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63095860A Expired - Lifetime JP2676777B2 (en) 1988-04-19 1988-04-19 Position detection device for unmanned vehicles

Country Status (1)

Country Link
JP (1) JP2676777B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5461972A (en) * 1977-10-26 1979-05-18 Suteo Tsutsumi Motion detector for moving body
JPS61283873A (en) * 1985-06-10 1986-12-13 Nissan Motor Co Ltd Speed-difference measuring apparatus
JPS62105206A (en) * 1985-10-31 1987-05-15 Yokogawa Electric Corp Guiding device for unmanned guided vehicle

Also Published As

Publication number Publication date
JPH01266606A (en) 1989-10-24

Similar Documents

Publication Publication Date Title
US20060015288A1 (en) Speed sensing method and apparatus
JP2689357B2 (en) Relative direction detection method
JP2676777B2 (en) Position detection device for unmanned vehicles
JP2676831B2 (en) Automatic guided vehicle position detection device
JPH01163613A (en) Position detector for unmanned vehicle
JPH01163609A (en) Position detecting device for unmanned vehicle
JPH0726853B2 (en) Position detection device for unmanned vehicles
JP2573135Y2 (en) Moving distance detector
JP2543898Y2 (en) Moving distance detector
JPH0726854B2 (en) Position detection device for unmanned vehicles
JP2857703B2 (en) How to detect displacement of a self-propelled vehicle
JP2940234B2 (en) Velocity distance measuring device using spatial filter
JP2500224Y2 (en) Distance measuring device with spatial filter
JP2841458B2 (en) Unmanned vehicle position detection device
JP2552336Y2 (en) Sensor mechanism of autonomous guided automatic guided vehicle
JPH07270444A (en) Angular speed sensor
JPH0716164Y2 (en) Vehicle position / speed detector
JP2500222Y2 (en) Distance measuring device with spatial filter
JPH01270111A (en) Method for detecting position of unmanned carrier
JPH0650728Y2 (en) Distance measuring device with spatial filter
JP2000029524A (en) Position detector for stop controller for moving object
JPH06332531A (en) Unmanned trackless vehicle
JP3484020B2 (en) Vehicle side slip angle measurement method
JPH06344942A (en) Measurement of wheel alignment and device therefor
JPH0536505U (en) Automatic guided vehicle position detection device