JPH0726852B2 - Position detection device for unmanned vehicles - Google Patents

Position detection device for unmanned vehicles

Info

Publication number
JPH0726852B2
JPH0726852B2 JP62323367A JP32336787A JPH0726852B2 JP H0726852 B2 JPH0726852 B2 JP H0726852B2 JP 62323367 A JP62323367 A JP 62323367A JP 32336787 A JP32336787 A JP 32336787A JP H0726852 B2 JPH0726852 B2 JP H0726852B2
Authority
JP
Japan
Prior art keywords
signal
pattern
optical system
video
vehicle body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62323367A
Other languages
Japanese (ja)
Other versions
JPH01163609A (en
Inventor
昌克 野村
充孝 堀
潤一 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP62323367A priority Critical patent/JPH0726852B2/en
Publication of JPH01163609A publication Critical patent/JPH01163609A/en
Publication of JPH0726852B2 publication Critical patent/JPH0726852B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 A.産業上の利用分野 本発明は、無人車の位置検出装置に係り、特に無人車の
走行位置,走行速度および移動距離を検出する無人車の
位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position detecting device for an unmanned vehicle, and more particularly to a position detecting device for an unmanned vehicle that detects a traveling position, a traveling speed and a moving distance of the unmanned vehicle.

B.発明の概要 本発明は、無人走行車の車体に走行状態に検出する検出
器を設置して種々の走行状態を検出する無人車の位置検
出装置において、 前記車体に光学系センサを設け、該光学系センサの検出
信号を1次元の空間フィルタ手段で処理し、その出力か
ら車体の2次元の位置,速度,車体の進行方向を検出す
ることにより、 検出精度に優れた無人車の位置検出装置を得るものであ
る。
B. Overview of the Invention The present invention is a position detection device for an unmanned vehicle that detects a variety of traveling states by installing a detector that detects a traveling state on the vehicle body of the unmanned vehicle, wherein the vehicle body is provided with an optical system sensor, The detection signal of the optical system sensor is processed by a one-dimensional spatial filter means, and the two-dimensional position of the vehicle body, the speed, and the traveling direction of the vehicle body are detected from the output, thereby detecting the position of the unmanned vehicle excellent in detection accuracy. You get the device.

C.従来の技術 従来、無人搬送車などの無人走行車の自動運転にあたっ
て、走行路上に電磁誘導線や光学式反射テープを布設し
て走行ガイドを形成する方式や、車軸,計測輪にエンコ
ーダやタコジェネレータを取り付けて、車輪の回転に応
じたパルス又はアナログ電圧から無人車の速度,移動距
離を計測する方式がある。
C. Conventional technology Conventionally, in automatic driving of an unmanned vehicle such as an automated guided vehicle, a method of laying an electromagnetic induction wire or an optical reflection tape on the road to form a traveling guide, an encoder or an axle on the measuring wheel, or the like. There is a method in which a tacho generator is attached to measure the speed and moving distance of an unmanned vehicle from a pulse or analog voltage according to the rotation of the wheels.

D.発明が解決しようとする問題点 従来の種々な位置検出装置においては、路面に誘導線や
反射テープ等を布設する走行路の加工を必要とし、その
加工作業が面倒であると共に、路面の凹凸,外力等によ
る車輪のスリップや車輪の摩粍により精度良い計測が出
来なかった。
D. Problems to be Solved by the Invention In various conventional position detecting devices, it is necessary to process a traveling path on which a guide wire, a reflective tape, or the like is laid on the road surface, and the processing work is troublesome and Accurate measurement could not be performed due to wheel slip due to unevenness, external force, etc. and wheel abrasion.

E.問題点を解決するための手段 本発明は、上述の問題点に鑑みてなされたもので、車体
の底面部に配設され走行路面のパターンを撮取する光学
系と、該光学系により撮取した映像パターンを所定の周
期でサンプリングして映像パターン信号を得る映像検出
部と、該映像検出部の映像パターン信号と予め設定され
た三角関数設定信号を乗算し、該乗算信号を積分演算し
て三角関数パターン信号を得るフィルタ手段と、該フィ
ルタ手段の三角関数パターン信号をもとに乗算加算処理
して前記車体の移動距離信号を算出する演算処理部によ
って無人車の位置,速度,方向を検出する。
E. Means for Solving Problems The present invention has been made in view of the above problems, and an optical system arranged on the bottom surface of a vehicle body for capturing a pattern of a traveling road surface, and the optical system An image detection unit that obtains an image pattern signal by sampling a captured image pattern at a predetermined cycle, and the image pattern signal of the image detection unit is multiplied by a preset trigonometric function setting signal, and the multiplication signal is integrated. The position, speed and direction of the unmanned vehicle by the filter means for obtaining the trigonometric function pattern signal and the arithmetic processing section for multiplying and adding based on the trigonometric function pattern signal of the filter means to calculate the travel distance signal of the vehicle body. To detect.

F.実施例 以下に本発明の実施例を図面によって説明する。第1図
は本発明の実施例に係る無人車の位置検出装置のブロッ
ク図であって、10は無人車の車体、12は走行車輪、20A
は車体10の底面部11において無人車の進行軸心(X軸)
に関して底面部11の一方の側端部(Y軸上)に配設され
た第1の光学系、20Bは第1の光学系20Aから所定距離D
を置いて底面部11の他方の側端部(Y軸上)に配設され
た第2の光学系である。30Aは第1の光学系20Aの映像信
号を入力とする第1の映像検出部、40Aは第1の映像検
出部30Aの映像検出信号を入力とする第1の空間フィル
タ、50Aは第1の演算処理部で、第1の空間フィルタ40A
のフィルタ出力信号をもとに演算処理して無人車の移動
距離,速度および現在位置を算出する。これらの第1の
光学系20A,第1の映像検出部30A,第1の空間フィルタ40
Aおよび第1の演算処理部50Aによって第1の検出処理部
60Aが構成される。同じく、20Bは第2の光学系、30Bは
第2の映像検出部、40Bは第2の空間フィルタ、50Bは第
2の演算処理部であって、これらにより第2の映像検出
部60Bが構成される。
F. Examples Examples of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a position detecting device for an unmanned vehicle according to an embodiment of the present invention, in which 10 is a vehicle body of the unmanned vehicle, 12 is a traveling wheel, and 20A.
Is the traveling axis (X axis) of the unmanned vehicle on the bottom surface 11 of the vehicle body 10.
With respect to the first optical system 20B arranged on one side end portion (on the Y axis) of the bottom surface portion 11, 20B is a predetermined distance D from the first optical system 20A.
Is a second optical system disposed on the other side end portion (on the Y axis) of the bottom surface portion 11. 30A is a first image detection unit that receives the image signal of the first optical system 20A, 40A is a first spatial filter that receives the image detection signal of the first image detection unit 30A, and 50A is a first spatial filter. In the arithmetic processing unit, the first spatial filter 40A
The calculation is performed based on the filter output signal of to calculate the moving distance, speed, and current position of the unmanned vehicle. These first optical system 20A, first image detection unit 30A, first spatial filter 40
A and the first arithmetic processing unit 50A, the first detection processing unit
60A is constructed. Similarly, 20B is a second optical system, 30B is a second image detection unit, 40B is a second spatial filter, 50B is a second arithmetic processing unit, and these constitute the second image detection unit 60B. To be done.

第1の検出処理部60Aと第2の検出処理部60Bは、第2図
に示すように同じ構成要素によって構成されている。す
なわち、第2図に示すように、第1,第2の映像検出部30
A,30Bはラインセンサ31,読出回路32およびアナログ/デ
ィジタル変換器(A/D変換器)33によって構成されてい
る。第1,第2の空間フィルタ40A,40Bは掛算部41a,41b,
パターン設定部42a,42b,積分演算部43a,43bによって構
成されている。
The first detection processing unit 60A and the second detection processing unit 60B are composed of the same components as shown in FIG. That is, as shown in FIG. 2, the first and second video detection units 30
A and 30B are composed of a line sensor 31, a reading circuit 32 and an analog / digital converter (A / D converter) 33. The first and second spatial filters 40A, 40B include multiplication units 41a, 41b,
The pattern setting units 42a and 42b and the integration calculation units 43a and 43b are included.

第1,第2の演算処理部50A,50Bはローパスフィルタ51a,5
1b,三角関数演算部52,位相演算部53,和算部54,掛算部5
5,微分演算部56および回転軌跡演算部(m演算部)70に
よって構成されている。m演算部70は、第3図に示すよ
うに、正弦波信号演算部71a,71b,掛算部72a,9b,前回値
保持部であるデータ保持部73a〜73c,和算部74a,74bによ
って構成されている。
The first and second arithmetic processing units 50A and 50B are low-pass filters 51a and 5a.
1b, trigonometric function calculation unit 52, phase calculation unit 53, summation unit 54, multiplication unit 5
5. The differential calculation unit 56 and the rotation locus calculation unit (m calculation unit) 70 are included. As shown in FIG. 3, the m calculation unit 70 includes sine wave signal calculation units 71a and 71b, multiplication units 72a and 9b, data holding units 73a to 73c that are previous value holding units, and summing units 74a and 74b. Has been done.

第5図は第1,第2の光学系20A,20Bの具体的な構成例を
示すもので、第5図において、21は路面80からの反射光
を受光するシリンダーレンズ、22はコリメートレンズで
ある。また、第6図は光学系の他の例を示すもので、路
面80の反射光をコリメートレンズ22でシリンダーレンズ
23に集束するものである。
FIG. 5 shows a concrete configuration example of the first and second optical systems 20A and 20B. In FIG. 5, 21 is a cylinder lens for receiving the reflected light from the road surface 80, and 22 is a collimating lens. is there. Further, FIG. 6 shows another example of the optical system, in which the reflected light of the road surface 80 is a cylinder lens by the collimator lens 22.
It focuses on 23.

次に、上記構成の位置検出装置の動作について説明す
る。
Next, the operation of the position detecting device having the above configuration will be described.

光学系20A,20Bは第5図,第6図に示すように、シリン
ダーレンズ21,24によってラインセンサ31と平行な方向
については該ラインセンサ31上に結像し、垂直な方向に
対してはラインセンサ31が焦点になるようにレンズ系が
構成されている。。すなわち、ラインセンサ31は、多数
の光電変換素子を車体進行方向に連続的に結合したもの
で、照射面の照射分布を各素子により検知し、各素子が
変換した電気的出力を第1,第2図の映像検出部30A,30B
へ送出する。まず照明によって路面上に光を照射して照
射面を形成する。照射面には、路面の凹凸によっれ照度
の不均一なムラ模様でき、この照度分布がレンズを通し
てラインセンサ上に投影される。レンズは長さP、幅W
の光を集光するように構成されている。ラインセンサに
は、ムラ模様が投影されて、これを構成する各光電変換
素子が照度の強弱に応じた電気的出力を空間フィルタへ
送出する。以上の動作を一定の短時間ΔTごとに断続し
て行うと、その時間の前後の照度分布の移動量ΔPが求
められる。光学系20A,20Bの映像信号はそれぞれ第1,第
2の映像検出部30A,30Bで検出され、第1,第2の空間フ
ィルタ40A,40Bに入力される。空間フィルタ40A,40Bは路
面の光学的にランダムなパターンから特定の空間的な周
波数成分を検出し、その時間的な挙動を調べることによ
り路面との相対的な車体の位置と速度を計測する。
As shown in FIGS. 5 and 6, the optical systems 20A and 20B form images on the line sensor 31 in the direction parallel to the line sensor 31 by the cylinder lenses 21 and 24, and in the direction perpendicular to the line sensor 31. The lens system is configured so that the line sensor 31 becomes the focal point. . That is, the line sensor 31 is formed by continuously coupling a large number of photoelectric conversion elements in the traveling direction of the vehicle body, detects the irradiation distribution on the irradiation surface by each element, and outputs the electric output converted by each element as the first and the first. Image detectors 30A and 30B in Fig. 2
Send to. First, the road surface is irradiated with light to form an irradiation surface. Due to the unevenness of the road surface, an uneven illuminance pattern is formed on the irradiation surface, and this illuminance distribution is projected onto the line sensor through the lens. Lens has length P and width W
Is configured to collect the light. The unevenness pattern is projected on the line sensor, and each photoelectric conversion element forming the unevenness pattern sends out an electrical output corresponding to the intensity of the illuminance to the spatial filter. When the above operation is intermittently performed at fixed time intervals ΔT, the movement amount ΔP of the illuminance distribution before and after that time is obtained. The video signals of the optical systems 20A and 20B are detected by the first and second video detection units 30A and 30B, respectively, and are input to the first and second spatial filters 40A and 40B. The spatial filters 40A and 40B detect a specific spatial frequency component from an optically random pattern on the road surface and measure the temporal behavior thereof to measure the position and speed of the vehicle body relative to the road surface.

ラインセンサ31からの出力は読出回路32を通過した後、
空間フィルタ40A(40B)に入力されることになる。空間
フィルタ40A(40B)は、光学的にランダムな周波数から
構成される反射光から、任意の周波数成分を抽出し、そ
の時系列的な変化から、位相空間において移動距離に対
応するベクトルを求めるものである。即ち、読出回路32
を通過した信号Pは、A/D変換器33でデジタル信号に変
換されるが、フーリエ級数に展開すると次の様になる。
The output from the line sensor 31 passes through the read circuit 32,
It will be input to the spatial filter 40A (40B). The spatial filter 40A (40B) extracts an arbitrary frequency component from the reflected light composed of optically random frequencies, and calculates the vector corresponding to the moving distance in the phase space from its time series change. is there. That is, the read circuit 32
The signal P that has passed through is converted into a digital signal by the A / D converter 33, and is expanded into a Fourier series as follows.

但し、x0は時刻tにおける車輌の位置、 xは読出回路から読み出されるラインセンサ内の位置で
あり、x0を基準とする、 k=2π/L,i=0,1,2…, Lはラインセンサの測定範囲である。
However, x 0 is the position of the vehicle at time t, x is the position in the line sensor read from the reading circuit, and x 0 is the reference, k = 2π / L, i = 0,1,2 ..., L Is the measurement range of the line sensor.

そして、フーリエ係数Ai(x0),Bi(x0)は次式で示され
る。
The Fourier coefficients A i (x 0 ) and B i (x 0 ) are given by the following equation.

このような信号Pにそれぞれ空間フィルタとして、下式
に示す特定周波数の余弦波,正弦波S1,S2を乗算し、所
定範囲で積分する。
Each of these signals P is multiplied as a spatial filter by a cosine wave and sine waves S 1 and S 2 of a specific frequency shown in the following equation, and integrated in a predetermined range.

S1=F・cos(n・k・x) …(4) S2=F・sin(n・k・x) …(5) ここで、ラインセンサからの出力Pは、路面や環境等の
条件が一定の反射光によるものであれば、あるn次の成
分については3角関数的に連続して変化するはずであ
り、例えば下式で示されることになる。
S 1 = F ・ cos (n ・ k ・ x) (4) S 2 = F ・ sin (n ・ k ・ x) (5) Here, the output P from the line sensor should change continuously in a trigonometric function with respect to a certain n-th component if the reflected light has a constant condition such as a road surface or environment. It will be shown by the following formula.

Pn(ΔL)=G・sin(n・k・ΔL+φ) …(8) 従って、n次のフーリエ係数An,Bnは次の様に求められ
る。
P n (ΔL) = G · sin (n · k · ΔL + φ) (8) Therefore, the n-th order Fourier coefficients A n and B n are obtained as follows.

同様にして Bn(x0)=G・cos(nkx0+φ) …(10) (9)(10)式を上記(6)(7)式に代入して整理す
ると次式となる。
Similarly, B n (x 0 ) = Gcos (nkx 0 + φ) (10) Equations (9) and (10) are substituted into the above equations (6) and (7) to rearrange them into the following equations.

a(x0)=(FL/2)・Gcos(nkx0+φ) …(11) b(x0)=(FL/2)・Gsin(nkx0+φ) …(12) このようにして得られるa(x0),b(x0)は、三角関数に振
動するものであり、その後移動距離演算部へ入力され
る。
a (x 0 ) = (FL / 2) ・ Gcos (nkx 0 + φ)… (11) b (x 0 ) = (FL / 2) ・ Gsin (nkx 0 + φ)… (12) a (x 0 ), b (x 0 ) vibrate in a trigonometric function, and are then input to the moving distance calculation unit.

ここで、移動距離演算部は、a(x0),b(x0)を2次元の座
標とするベクトルAの第4図を示す位相平面上での原点
を中心とする回転角ρを求める。即ち、第4図に示すよ
うにa(x0),b(x0)を2次元の座標とするベクトルAは、
移動距離x0に比例した回転角nkx0で回転する。次に関係
式が成り立つ。
Here, the moving distance calculation unit obtains a rotation angle ρ about the origin on the phase plane shown in FIG. 4 of the vector A having two-dimensional coordinates a (x 0 ) and b (x 0 ). . That is, as shown in FIG. 4, the vector A having two-dimensional coordinates of a (x 0 ) and b (x 0 ) is
It rotates at a rotation angle nkx 0 proportional to the moving distance x 0 . Next, the relational expression holds.

nkx0+φ=2πm+ρ …(13) 但し、mは原点を中心とした回転数、 ρ=arctan(b(x0)/a(x0))、 (0≦ρ≦2π) φは初期値つまりρt=0である。nkx 0 + φ = 2πm + ρ (13) where m is the number of revolutions around the origin, ρ = arctan (b (x 0 ) / a (x 0 )), (0 ≦ ρ ≦ 2π) φ is the initial value ρ t = 0 .

従って、(13)式を変形すれば、求めようとする移動距
離x0が次式で示される。
Therefore, if the equation (13) is modified, the moving distance x 0 to be obtained is expressed by the following equation.

x0=m・p+(ρ−φ)p/2π …(14) 概略的には、第2図に示すように、路面80のパターンを
光学系20A(20B)を介して映像検出部30A(30B)によっ
て検出し、その出力を空間フィルタ40A(40B)に入力す
る。空間フィルタにおいては入力値と、予め計算し、予
め設定して置いた設定パターンを用いて積和演算を行
う。ここでは、正弦波パターンを用いている。設定パタ
ーンは、映像検出部30A(30B)のラインセンサ31の素子
数とピットで決まる周期分のデータを持っている。空間
フィルタの出力を演算処理部50A(50B)で演算処理して
車の移動距離を算出し、この移動距離を時間で微分して
速度を求める。また、車の動きに比べて充分小さい周期
で位置を検出するときは、2つの検出処理部の1周期で
の移動距離測定値の差から車の方向の変化を求め、その
変化の平均値でその期間を走行したものとして車体の位
置を求める。
x 0 = m · p + (ρ−φ) p / 2π (14) Schematically, as shown in FIG. 2, the pattern of the road surface 80 is passed through the optical system 20A (20B) and the image detection unit 30A ( 30B), and the output is input to the spatial filter 40A (40B). In the spatial filter, the sum of products is calculated using the input value and a preset pattern that is preliminarily calculated and preset. Here, a sine wave pattern is used. The set pattern has data for a period determined by the number of elements and pits of the line sensor 31 of the image detection unit 30A (30B). The output of the spatial filter is arithmetically processed by the arithmetic processing unit 50A (50B) to calculate the moving distance of the vehicle, and the moving distance is differentiated with respect to time to obtain the speed. When detecting a position in a cycle that is sufficiently smaller than the movement of the vehicle, the change in the direction of the vehicle is calculated from the difference between the movement distance measurement values of the two detection processing units in one cycle, and the average value of the changes is calculated. The position of the vehicle body is calculated assuming that the vehicle has traveled during that period.

さらに詳しくは、第2図に示すように、路面80の映像信
号を光学系20A(20B)を介して映像検出部30A(30B)に
入力する。映像検出部30A(30B)においてはラインセン
サ31がその映像を検出し、その映像検出信号を読出回路
32が読み出し、その映像検出信号をA/D変換して空間フ
ィルタ40A(40B)に入力する。空間フィルタ40A(40B)
においては、掛算部41aで映像検出部30A(30B)からの
映像検出信号とパターン設定部42aの正弦波パターン設
定信号を掛け合わせると共に、掛算部41bで映像検出信
号とパターン設定部42bの余弦波パターン設定信号を掛
け合わせる。さらに第1の掛算部41aの掛算信号を積分
演算部43aで積分しその積分信号aを出力すると共に、
掛算部41bの掛算信号を第2の積分演算部43bで積分し、
その積分信号bを出力する。
More specifically, as shown in FIG. 2, the video signal of the road surface 80 is input to the video detection unit 30A (30B) via the optical system 20A (20B). In the video detection unit 30A (30B), the line sensor 31 detects the video and the read circuit outputs the video detection signal.
32 reads out, A / D converts the video detection signal, and inputs it to the spatial filter 40A (40B). Spatial filter 40A (40B)
In the multiplication unit 41a, the image detection signal from the image detection unit 30A (30B) is multiplied by the sine wave pattern setting signal of the pattern setting unit 42a, and the multiplication unit 41b is used to multiply the image detection signal and the cosine wave of the pattern setting unit 42b. Multiply the pattern setting signals. Further, the multiplication signal of the first multiplication unit 41a is integrated by the integration calculation unit 43a and the integrated signal a is output, and
The multiplication signal of the multiplication unit 41b is integrated by the second integration calculation unit 43b,
The integrated signal b is output.

演算処理部50A(50B)においては、積分信号をローパス
フィルタ51aに通して信号Saを得ると共に、積分信号S2
をローパスフィルタ51bに通して信号Sbを得る。信号Sa
とSbはそれぞれ三角関数演算部52と回転軌跡演算部(m
演算部)70に入力される。三角関数演算部52は信号Saと
Sbをもとに演算し、出力ρ=arctan(Sb/Sa)を算出す
る。位相演算部53は入力ρと初期位相φをもとに(ρ−
φ)/2πを算出する。
In the arithmetic processing unit 50A (50B), the integrated signal is passed through the low-pass filter 51a to obtain the signal Sa, and the integrated signal S2
Is passed through a low-pass filter 51b to obtain a signal Sb. Signal Sa
And Sb are the trigonometric function calculation unit 52 and the rotation locus calculation unit (m
It is input to the calculation unit) 70. The trigonometric function calculation unit 52 outputs the signal Sa
The calculation is performed based on Sb, and the output ρ = arctan (Sb / Sa) is calculated. The phase calculation unit 53 calculates (ρ−−
Calculate φ) / 2π.

m演算部70では、第3図に示す如く、信号Saが正弦波信
号演算部71aを通して掛算部72aとデータ保持部73aに導
かれ、信号Sbは正弦波信号演算部71bを通して和算部74a
とデータ保持部73bに導かれる。掛算部72bはデータ保持
部73aからの前回のサンプリング値と現在のサンプリン
グ値を乗算する。和算部74aは現在のサンプリング値と
データ保持部73bの前回のサンプリング値を和算する。
掛算部72bは掛算部72aの乗算値と和算部74bの和算値と
を乗算し、和算部74aは掛算部72bの現在の乗算値とデー
タ保持部73cによる前回値を加算してm信号を出力す
る。
In the m calculation unit 70, as shown in FIG. 3, the signal Sa is guided to the multiplication unit 72a and the data holding unit 73a through the sine wave signal calculation unit 71a, and the signal Sb is calculated through the sine wave signal calculation unit 71b.
And the data holding unit 73b. The multiplication unit 72b multiplies the previous sampling value from the data holding unit 73a by the current sampling value. The summing unit 74a sums the current sampling value and the previous sampling value of the data holding unit 73b.
The multiplication unit 72b multiplies the multiplication value of the multiplication unit 72a and the addition value of the addition unit 74b, and the addition unit 74a adds the current multiplication value of the multiplication unit 72b and the previous value of the data holding unit 73c to m. Output a signal.

さらに演算処理部50A(50B)においては、第2図に示す
如く、和算部54がm演算部70のm信号と位相演算部53の
位相信号を和算し、この和算部54の加算値と空間フィル
タのピッチ(周期)Pを掛け算して移動距離を算出する
と共に、この移動距離信号を微分演算部56に入力して速
度を算出する。
Further, in the arithmetic processing unit 50A (50B), as shown in FIG. 2, the summing unit 54 sums the m signal of the m arithmetic unit 70 and the phase signal of the phase arithmetic unit 53, and the addition of the summing unit 54 is performed. The moving distance is calculated by multiplying the value and the pitch (cycle) P of the spatial filter, and the moving distance signal is input to the differential calculation unit 56 to calculate the speed.

第1図に示すように、車体10の底面部11の中心点をA
(x,y)とし、車が矢印方向に走行しているとき、車が
X−Y平面上でX軸に対しθの角度で移動しているとす
る。ここで、1サンプリングによる第1,第2の検出処理
部60A,60Bの出力がΔr,Δl(位置)変化したとする
と、車体10の進行方向変化Δθは、サンプリング周期が
短いとして、 Δθ≒(l−r)/D ……(15) となり、車体10の現在の角度θnは θn=θn-1+Δθ ……(16) となる。ここでθn-1は前回のサンプリング時の角度で
ある。この間、平均的に で移動したものとして、次式(3),(4)からA点の
位置で(xn,yn)を求めることができる。
As shown in FIG. 1, the center point of the bottom surface portion 11 of the vehicle body 10 is A
It is assumed that (x, y) and the vehicle is moving in the direction of the arrow at an angle of θ with respect to the X axis on the XY plane. Here, if the outputs of the first and second detection processing units 60A and 60B by one sampling change by Δr, Δl (position), the change Δθ in the traveling direction of the vehicle body 10 is Δθ≈ ( l−r) / D (15), and the current angle θn of the vehicle body 10 becomes θn = θ n-1 + Δθ (16). Here, θ n-1 is the angle at the time of the previous sampling. During this time, on average It is possible to obtain (x n , y n ) at the position of the point A from the following equations (3) and (4) assuming that the movement has been made by

ここで、nは今回,n−1は前回座標である。従って、
(15)〜(18)式を演算して車の位置(x,y)と向きθ
を求める。
Here, n is the current coordinate and n-1 is the previous coordinate. Therefore,
The vehicle position (x, y) and direction θ are calculated by calculating equations (15) to (18).
Ask for.

空間フィルタの2出力は、第4図に示すように、位相平
面上を車の動きに従って回転する。それ故、走行距離は
次式によって演算される。
The two outputs of the spatial filter rotate on the phase plane as the vehicle moves, as shown in FIG. Therefore, the traveling distance is calculated by the following equation.

X0=(2πm+ρ−P/nK=m×P+(ρ−φ)/2πP…
(19) 但し、mは原点を中心にした軌跡の回転数(反時計方向
を正とする)、X0は移動距離、Pは空間フィルタのピッ
チ(周期),ρ=arctan(Sb/Sa),0≦ρ<2π,P=ρt
=0(初期値)である。
X 0 = (2πm + ρ−P / nK = m × P + (ρ−φ) / 2πP ...
(19) where m is the number of revolutions of the locus around the origin (the counterclockwise direction is positive), X 0 is the moving distance, P is the spatial filter pitch (cycle), ρ = arctan (Sb / Sa) , 0 ≦ ρ <2π, P = ρ t
= 0 (initial value).

第7図,第8図は上述の動作フローを示すもので、第7
図は空間フィルタ40A(40B)の演算フロー、第8図は演
算処理部50A(50B)の演算フローである。
7 and 8 show the above-mentioned operation flow.
FIG. 8 is a calculation flow of the spatial filter 40A (40B), and FIG. 8 is a calculation flow of the calculation processing unit 50A (50B).

第7図に示すように、ステップS1でラインセンサ(CC
D)の出力をA/D変換して空間フィルタに入力する。空間
フィルタにおいては、ステップS2に示す如く、窓関数デ
ータ1として正弦波(sin)パターンを読み込み、この
正弦波パターンとCCD出力の積和演算を実行する(ステ
ップS3)。次に、ステップS4に示すように、窓関数デー
タ2として余弦波(cos)パターンを読み込み、この余
弦波パターンとCCD出力の積和演算を行う(ステップS
5)。そして、ステップS6に示すように、ステップS1〜S
5の動作をCCDの素子数例えば2048回繰り返す。
As shown in FIG. 7, the line sensor (CC
The output of D) is A / D converted and input to the spatial filter. In the spatial filter, as shown in step S2, a sine wave (sin) pattern is read as the window function data 1, and the product-sum operation of this sine wave pattern and the CCD output is executed (step S3). Next, as shown in step S4, a cosine wave (cos) pattern is read as the window function data 2, and the product-sum operation of this cosine wave pattern and the CCD output is performed (step S4).
Five). Then, as shown in step S6, steps S1 to S
The operation of 5 is repeated for the number of CCD elements, for example, 2048 times.

第8図に示すように、演算処理部においては空間フィル
タの出力信号aとbをそれぞれ1次元のローパスフィル
タに通し(ステップS7,S8)、ステップS9に示す如く、
位相平面上軌跡が第一象現と第四象現の間を移る回数
を、第四象現から第一象現に移る方向を正として、数え
てn演算を実行する。次に、ステップS10に示すよう
に、ρ=arctan(Sb/Sa)を0≦ρ<2πの範囲で計算
して位相演算を実行し、ステップS11に示すように、m
・P+(ρ−P)/2π・Pを算出して距離演算を実行す
ると共に、ステップS12に示すように距離を微分して速
度演算を実行する。
As shown in FIG. 8, in the arithmetic processing section, the output signals a and b of the spatial filter are respectively passed through one-dimensional low-pass filters (steps S7 and S8), and as shown in step S9,
The n operation is performed by counting the number of times the locus on the phase plane moves between the first quadrant and the fourth quadrant, with the direction from the fourth quadrant to the first quadrant being positive. Next, as shown in step S10, ρ = arctan (Sb / Sa) is calculated in the range of 0 ≦ ρ <2π to execute the phase calculation, and as shown in step S11, m
.P + (. Rho.-P) /2.pi..P is calculated and the distance calculation is executed, and the distance is differentiated and the speed calculation is executed as shown in step S12.

第9図は本発明の他の実施例を示し、演算処理部として
マイクロコンピュータ90を用いたものである。マイクロ
コンピュータ90は中央処理部(CPU)91,ランダムアクセ
スメモリ92およびリードオンリメモリ(ROM)93によっ
て構成されている。前述のように路面のパターンを光学
系を介してCCDによって検出し、その出力をA/D変換器を
通してマイクロコンピュータ90に入力し、その値と、予
め計算してROM93に格納しておいた設定パターンをもと
に、前述の如き演算処理を実行する。
FIG. 9 shows another embodiment of the present invention, in which a microcomputer 90 is used as an arithmetic processing section. The microcomputer 90 is composed of a central processing unit (CPU) 91, a random access memory 92 and a read only memory (ROM) 93. As described above, the pattern of the road surface is detected by the CCD through the optical system, and its output is input to the microcomputer 90 through the A / D converter, and its value and the setting calculated in advance and stored in the ROM 93. Based on the pattern, the arithmetic processing as described above is executed.

G.発明の効果 本発明は、以上の如く、車体に光学系センサを設け、該
光学系センサの検出信号を1次元のフィルタ手段で処理
し、その出力から車体の2次元の位置,速度,進行方向
を検出するようにしたから、誘導線,反射テープ等の走
行路の加工が不要にして、非接触で計測することがで
き、路面の凹凸や外力等によるスリップや車輪の摩粍の
影響を受けず精度良い位置,速度の計測が出来る。
G. Effect of the Invention As described above, the present invention provides an optical system sensor on a vehicle body, processes a detection signal of the optical system sensor by a one-dimensional filter means, and outputs the two-dimensional position, speed, Since the direction of travel is detected, it is possible to perform non-contact measurement without the need to process the running path such as guide wires or reflective tape, and the effects of slip and wheel abrasion due to road surface irregularities and external forces. It is possible to measure the position and speed accurately without being affected.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明による位置検出装置のブロック線図、第
2図は本発明の実施例による検出処理部の詳細を示すブ
ロック図、第3図は回転軌跡演算部のブロック図、第4
図は回転軌跡演算部の回転軌跡図、第5図および第6図
はそれぞれ光学系の構成図、第7図は空間フィルタの演
算フロー図、第8図は演算処理部の演算フロー図、第9
図は検出処理部の他の実施例を示すブロック図である。 10…車体、11…車体の底面部、20A…第1の光学系、20B
…第2の光学系、30A…第1の映像検出部、30B…第2の
映像検出部、40A…第1の空間フィルタ、40B…第2の空
間フィルタ、50A…第1の演算処理部、50B…第2の演算
処理部、60A…第1の検出処理部、60B…第2の検出処理
部。
FIG. 1 is a block diagram of a position detection device according to the present invention, FIG. 2 is a block diagram showing details of a detection processing unit according to an embodiment of the present invention, FIG. 3 is a block diagram of a rotation locus calculation unit, and FIG.
FIG. 7 is a rotation locus diagram of the rotation locus calculation unit, FIGS. 5 and 6 are optical system configuration diagrams, FIG. 7 is a spatial filter calculation flow diagram, and FIG. 8 is a calculation processing unit flow diagram. 9
FIG. 9 is a block diagram showing another embodiment of the detection processing unit. 10 ... Car body, 11 ... Bottom surface of car body, 20A ... First optical system, 20B
... second optical system, 30A ... first image detecting section, 30B ... second image detecting section, 40A ... first spatial filter, 40B ... second spatial filter, 50A ... first arithmetic processing section, 50B ... 2nd arithmetic processing part, 60A ... 1st detection processing part, 60B ... 2nd detection processing part.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】車体の底面部に配設され走行路面のパター
ンを撮取する光学系と、該光学系により撮取した映像パ
ターンを所定の周期でサンプリングして映像パターン信
号を得る映像検出部と、該映像検出部の映像パターン信
号と予め設定された三角関数設定信号を乗算し、該乗算
信号を積分演算して三角関数パターン信号を得るフィル
タ手段と、該フィルタ手段の三角関数パターン信号をも
とに乗算加算処理して前記車体の移動距離信号を算出す
る演算処理部とによって構成したことを特徴とする無人
車の位置検出装置。
1. An optical system arranged on a bottom surface of a vehicle body for capturing a pattern of a road surface on which the vehicle travels, and an image detecting section for sampling an image pattern captured by the optical system at a predetermined cycle to obtain an image pattern signal. A filter means for multiplying the video pattern signal of the video detection section by a preset trigonometric function setting signal, and integrating the multiplication signal to obtain a trigonometric function pattern signal; and a trigonometric function pattern signal of the filter means. A position detecting device for an unmanned vehicle, which is configured by an arithmetic processing unit that performs multiplication and addition processing to calculate a travel distance signal of the vehicle body.
【請求項2】車体の底面部に配設され走行路面のパター
ンを撮取する第1の光学系と、該第1の光学系により撮
取した映像パターンを所定の周期でサンプリングして映
像パターン信号を得る第1の映像検出部と、該第1の映
像検出部の映像パターン信号と予め設定された三角関数
設定信号を乗算し、該乗算信号を積分演算して三角関数
パターン信号を得る第1のフィルタ手段と、該第1のフ
ィルタ手段の三角関数パターン信号をもとに乗算処理し
て前記車体の移動距離信号を算出すると共に、該移動距
離信号を微分演算して速度信号を算出する第1の演算処
理部からなる第1の検出処理手段と、前記車体の進行方
向軸心に関して前記第1の光学系から所定間隔を置いて
前記車体の底面部に配設され走行路面のパターンを撮取
する第2の光学系と、該第2の光学系により撮取した映
像パターンを所定の周期でサンプリングして映像パター
ン信号を得る第2の映像検出部と、該第2の映像検出部
の映像パターン信号と予め設定された三角関数設定信号
を乗算し、該乗算信号を積分演算して三角関数パターン
信号を得る第2のフィルタ手段と、該第2のフィルタ手
段の三角関数パターン信号をもとに乗算処理して前記車
体の移動距離信号を算出すると共に、該移動距離信号を
微分演算して速度信号を算出する第2の演算処理部から
なる第2の検出処理手段とからなり、 前記第1の検出処理部によって求めた移動距離信号と、
前記第2の検出処理部によって求めた移動距離信号およ
び前記第1の光学系と第2の光学系との設置間隔をもと
に前記車体の進行方向角度を算出する手段によって構成
したことを特徴とする無人車の位置検出装置。
2. A first optical system arranged on the bottom surface of a vehicle body for taking a pattern of a traveling road surface, and a video pattern obtained by sampling the video pattern taken by the first optical system at a predetermined cycle. A first video detection unit for obtaining a signal, a video pattern signal of the first video detection unit and a preset trigonometric function setting signal are multiplied, and the multiplication signal is integrated to obtain a trigonometric function pattern signal. No. 1 filter means and the trigonometric function pattern signal of the first filter means are multiplied to calculate the moving distance signal of the vehicle body, and the moving distance signal is differentiated to calculate the speed signal. A first detection processing unit including a first arithmetic processing unit; and a traveling road surface pattern arranged on the bottom surface of the vehicle body at a predetermined distance from the first optical system with respect to the traveling direction axis of the vehicle body. Second optical system to take a picture , A second video detection unit that obtains a video pattern signal by sampling a video pattern captured by the second optical system in a predetermined cycle, and a video pattern signal of the second video detection unit is preset. Second vehicle means for multiplying the trigonometric function setting signal and integrating the multiplied signal to obtain a trigonometric function pattern signal; and multiplying based on the trigonometric function pattern signal of the second filter means to perform the vehicle body. And a second detection processing unit configured to calculate a speed signal by differentiating the travel distance signal and calculating the speed signal by the first detection processing unit. Travel distance signal,
It is configured by means for calculating the traveling direction angle of the vehicle body based on the movement distance signal obtained by the second detection processing unit and the installation interval between the first optical system and the second optical system. Position detection device for unmanned vehicles.
JP62323367A 1987-12-21 1987-12-21 Position detection device for unmanned vehicles Expired - Lifetime JPH0726852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62323367A JPH0726852B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62323367A JPH0726852B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Publications (2)

Publication Number Publication Date
JPH01163609A JPH01163609A (en) 1989-06-27
JPH0726852B2 true JPH0726852B2 (en) 1995-03-29

Family

ID=18153976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62323367A Expired - Lifetime JPH0726852B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Country Status (1)

Country Link
JP (1) JPH0726852B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6571350B2 (en) * 2015-02-27 2019-09-04 シャープ株式会社 Autonomous traveling body and autonomous traveling body system

Also Published As

Publication number Publication date
JPH01163609A (en) 1989-06-27

Similar Documents

Publication Publication Date Title
JP2504544B2 (en) Multidimensional laser Doppler velocimeter
US20060015288A1 (en) Speed sensing method and apparatus
JPH0726852B2 (en) Position detection device for unmanned vehicles
JPH0726853B2 (en) Position detection device for unmanned vehicles
JPH0726854B2 (en) Position detection device for unmanned vehicles
JP2676777B2 (en) Position detection device for unmanned vehicles
JP2676831B2 (en) Automatic guided vehicle position detection device
JPH01163613A (en) Position detector for unmanned vehicle
JPH0650728Y2 (en) Distance measuring device with spatial filter
JP2500224Y2 (en) Distance measuring device with spatial filter
JPH081441B2 (en) Distance measuring device with spatial filter
JP2500174Y2 (en) Distance measuring device with spatial filter
JP2527710Y2 (en) Distance measuring device with spatial filter
JP2500223Y2 (en) Distance measuring device with spatial filter
JPH01163612A (en) Position detector for unmanned vehicle
JP2573135Y2 (en) Moving distance detector
JP2841458B2 (en) Unmanned vehicle position detection device
JPH0821730A (en) Two-dimensional position sensor
JP2543898Y2 (en) Moving distance detector
JPH01270111A (en) Method for detecting position of unmanned carrier
JP2500222Y2 (en) Distance measuring device with spatial filter
JP2940234B2 (en) Velocity distance measuring device using spatial filter
JP2552336Y2 (en) Sensor mechanism of autonomous guided automatic guided vehicle
JPH0650732Y2 (en) Variable illumination distance measuring device with spatial filter
JPH04332866A (en) Noncontact driving distance/velocity measuring device