JPH0726854B2 - Position detection device for unmanned vehicles - Google Patents

Position detection device for unmanned vehicles

Info

Publication number
JPH0726854B2
JPH0726854B2 JP62323369A JP32336987A JPH0726854B2 JP H0726854 B2 JPH0726854 B2 JP H0726854B2 JP 62323369 A JP62323369 A JP 62323369A JP 32336987 A JP32336987 A JP 32336987A JP H0726854 B2 JPH0726854 B2 JP H0726854B2
Authority
JP
Japan
Prior art keywords
signal
optical system
pattern
video
vehicle body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62323369A
Other languages
Japanese (ja)
Other versions
JPH01163611A (en
Inventor
昌克 野村
充孝 堀
潤一 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP62323369A priority Critical patent/JPH0726854B2/en
Publication of JPH01163611A publication Critical patent/JPH01163611A/en
Publication of JPH0726854B2 publication Critical patent/JPH0726854B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 A.産業上の利用分野 本発明は、無人車の位置検出装置に係り、特に無人車の
走行位置,走行速度および移動距離を検出する無人車の
位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position detecting device for an unmanned vehicle, and more particularly to a position detecting device for an unmanned vehicle that detects a traveling position, a traveling speed and a moving distance of the unmanned vehicle.

B.発明の概要 本発明は、無人車の車体に走行状態を検出する検出器を
設置して種々の走行状態を検出する無人車の位置検出装
置において、 前記車体に光学系センサを設け、該光学系センサの検出
信号を1次元の空間フィルタ手段で処理し、その出力か
ら車体の2次元の位置,速度,車体の進行方向を検出す
ることにより、 検出精度に優れた無人車の位置検出装置を得るものであ
る。
B. SUMMARY OF THE INVENTION The present invention provides a position detecting device for an unmanned vehicle that detects a variety of traveling states by installing a detector that detects a traveling state on the vehicle body of the unmanned vehicle, wherein the vehicle body is provided with an optical system sensor, A position detecting device for an unmanned vehicle excellent in detection accuracy by processing a detection signal of an optical system sensor by a one-dimensional spatial filter means and detecting a two-dimensional position of the vehicle body, a speed and a traveling direction of the vehicle body from the output thereof. Is what you get.

C.従来の技術 従来、無人搬送車などの無人走行車の自動運転にあたっ
て、走行路上に電磁誘導線や光学式反射テープを布設し
て走行ガイドを形成する方式や、車軸,計測輪にエンコ
ーダやタコジェネレータを取り付けて、車輪の回転に応
じたパルス又はアナログ電圧から無人車の速度,移動距
離を計測する方式がある。
C. Conventional technology Conventionally, in automatic driving of an unmanned vehicle such as an automated guided vehicle, a method of laying an electromagnetic induction wire or an optical reflection tape on the road to form a traveling guide, an encoder or an axle on the measuring wheel, or the like. There is a method in which a tacho generator is attached to measure the speed and moving distance of an unmanned vehicle from a pulse or analog voltage according to the rotation of the wheels.

D.発明が解決しようとする問題点 従来の種々な位置検出装置においては、路面に誘導線や
反射テープ等を布設する走行路の加工を必要とし、その
加工作業が面倒であると共に、路面の凹凸,外力等によ
る車輪のスリップや車輪の摩粍により精度良い計測が出
来なかった。
D. Problems to be Solved by the Invention In various conventional position detecting devices, it is necessary to process a traveling path on which a guide wire, a reflective tape, or the like is laid on the road surface, and the processing work is troublesome and Accurate measurement could not be performed due to wheel slip due to unevenness, external force, etc. and wheel abrasion.

E.問題点を解決するための手段 本発明は、上述の問題点に鑑みてなされたもので、車体
の底面部に配設され走行路面のパターンを撮取する第1
の光学系と、該第1の光学系により撮取した映像パター
ンを所定の周期でサンプリングして映像パターン信号を
得る第1の映像検出部と、該第1の映像検出部の映像パ
ターン信号と予め設定された三角関数設定信号を乗算
し、該乗算信号を積分演算して三角関数パターン信号を
得る第1のフィルタ演算手段と、前記車体の進行方向軸
心に関して前記第1の光学系から所定間隔を置いて前記
車体の底面部に配設され走行路面のパターンを撮取する
第2の光学系と、該第2の光学系により撮取した映像パ
ターンを所定の周期でサンプリングして映像パターン信
号を得る第2の映像検出部と、前記第1の映像検出部と
第2の映像検出部の前記第1の光学系と第2の光学系の
走行路面に対する各移動角と円弧半径にもとづく映像パ
ターン信号と予め設定された三角関数設定信号を乗算
し、該乗算信号を積分演算して三角関数パターン信号を
得る第2のフィルタ演算手段と、前記第1のフィルタ演
算手段と第2のフィルタ演算手段の三角関数パターン信
号をもとに乗算処理して前記車体の移動距離信号を算出
し、該移動距離信号を微分演算して速度信号を算出する
と共に、前記移動距離信号と前記第1の光学系と第2の
光学系との設置間隔をもとに前記車体の進行方向角度を
算出する手段によって無人車の位置,速度,方向を検出
する。
E. Means for Solving the Problems The present invention has been made in view of the above-mentioned problems, and is a first structure that is arranged on the bottom surface of a vehicle body and takes a pattern of a traveling road surface.
An optical system, a first image detecting section for obtaining an image pattern signal by sampling an image pattern photographed by the first optical system at a predetermined cycle, and an image pattern signal of the first image detecting section. First filter calculating means for multiplying a preset trigonometric function setting signal and performing integral calculation of the multiplied signal to obtain a trigonometric function pattern signal; and a predetermined optical axis from the first optical system with respect to the axial direction of the vehicle body. A second optical system which is arranged on the bottom surface of the vehicle body at a distance to capture a pattern of a traveling road surface, and a video pattern obtained by sampling the video pattern captured by the second optical system at a predetermined cycle. Based on a second image detecting unit for obtaining a signal, each moving angle of the first image detecting unit and the second image detecting unit with respect to the traveling road surface of the first optical system and the second optical system, and an arc radius. Image pattern signal and preset Second filter calculating means for multiplying the generated trigonometric function setting signal and integrating the multiplied signal to obtain a trigonometric function pattern signal, and the trigonometric function patterns of the first filter calculating means and the second filter calculating means. The moving distance signal of the vehicle body is calculated by performing multiplication processing based on the signal, and the moving distance signal is differentiated to calculate the speed signal, and the moving distance signal, the first optical system and the second The position, speed, and direction of the unmanned vehicle are detected by means for calculating the traveling direction angle of the vehicle body based on the installation interval with the optical system.

F.実施例 以下に本発明の実施例を図面によって説明する。第1図
は本発明の実施例に係る無人車の位置検出装置のブロッ
ク図であって、10は無人車の車体、12は走行車輪、20A
は車体10の底面部11において無人車の進行軸心(X軸)
に関して底面部11の一方の側端部(Y軸上)に配設され
た第1の光学系、20Bは第1の光学系20Aから所定距離D
を置いて底面部11の他方の側端部(Y軸上)に配設され
た第2の光学系である。30Aは第1の光学系20Aの映像信
号を入力とする第1の映像検出部、同じく20Bは第2の
光学系、30Bは第2の映像検出部、100は処理ユニットで
あって、これらにより検出処理部が構成される。第2図
に示すように、第1,第2の映像検出部30A,30Bはライン
センサ31,読出回路32およびアナログ/ディジタル変換
器(A/D変換器)33によって構成されている。
F. Examples Examples of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a position detecting device for an unmanned vehicle according to an embodiment of the present invention, in which 10 is a vehicle body of the unmanned vehicle, 12 is a traveling wheel, and 20A.
Is the traveling axis (X axis) of the unmanned vehicle on the bottom surface 11 of the vehicle body 10.
With respect to the first optical system 20B arranged on one side end portion (on the Y axis) of the bottom surface portion 11, 20B is a predetermined distance D from the first optical system 20A.
Is a second optical system disposed on the other side end portion (on the Y axis) of the bottom surface portion 11. 30A is a first image detection unit that receives the image signal of the first optical system 20A, 20B is a second optical system, 30B is a second image detection unit, and 100 is a processing unit. A detection processing unit is configured. As shown in FIG. 2, the first and second video detection units 30A and 30B are composed of a line sensor 31, a readout circuit 32 and an analog / digital converter (A / D converter) 33.

処理ユニット100としてマイクロコンピュータ90を用
い、このマイクロコンピュータ90は中央処理部(CPU)9
1,ランダムアクセスメモリ(RAM)92,リードオンリメモ
リ(ROM)93およびバス94によって構成されている。路
面のパターンを光学系を介してCCDによって検出し、そ
の出力をA/D変換器を通してマイクロコンピュータ90に
入力して、その値と、予め計算してROM93に格納してお
いた設定パターンをもとに、演算処理を実行する。
A microcomputer 90 is used as the processing unit 100, and this microcomputer 90 has a central processing unit (CPU) 9
1, a random access memory (RAM) 92, a read only memory (ROM) 93 and a bus 94. The pattern of the road surface is detected by the CCD through the optical system, the output is input to the microcomputer 90 through the A / D converter, and its value and the setting pattern calculated in advance and stored in the ROM 93 are also stored. Then, the arithmetic processing is executed.

次に、上記構成の位置検出装置の動作について説明す
る。
Next, the operation of the position detecting device having the above configuration will be described.

光学系20A,20Bは第8図,第9図に示すように、シリン
ダーレンズ21,24によってラインセンサ31と平行な方向
については該ラインセンサ31上に結像し、垂直な方向に
対してはラインセンサ31が焦点になるようにレンズ系が
構成されている。
As shown in FIGS. 8 and 9, the optical systems 20A and 20B form images on the line sensor 31 in the direction parallel to the line sensor 31 by the cylinder lenses 21 and 24, and in the direction perpendicular to the line sensor 31. The lens system is configured so that the line sensor 31 becomes the focal point.

光学系20A,20Bの映像信号はそれぞれ第1,第2の映像検
出部30A,30Bで検出され、マイクロコンピュータ90に入
力される。
The video signals of the optical systems 20A and 20B are detected by the first and second video detection units 30A and 30B, respectively, and input to the microcomputer 90.

すなわち、ラインセンサ31は、多数の光電変換素子を車
体進行方向に連続的に結合したもので、照射面の照度分
布を各素子により検知し、各素子が変換した電気的出力
を第1,第2の映像検出部30A,30Bへ送出する。
That is, the line sensor 31 is formed by continuously coupling a large number of photoelectric conversion elements in the vehicle traveling direction, detects the illuminance distribution on the irradiation surface by each element, and outputs the electrical output converted by each element as the first and first 2 to the image detectors 30A and 30B.

まず照明によって路面上に光を照射して照射面を形成す
る。照射面には、路面の凹凸によって照度の不均一なム
ラ模様ができ、この照度分布がレンズを通してラインセ
ンサ上に投影される。レンズは長さP、幅Wの光を集光
するように構成されている。ラインセンサには、ムラ模
様が投影されて、これを構成する各光学光電変換素子が
照度の強弱に応じた電気的出力を空間フィルタへ送出す
る。以上の動作を一定の短時間ΔTごとに断続して行う
と、その時間の前後の照度分布の移動量ΔPが求められ
る。
First, the road surface is irradiated with light to form an irradiation surface. The unevenness of the illuminance is formed on the irradiation surface due to the unevenness of the road surface, and this illuminance distribution is projected on the line sensor through the lens. The lens is configured to collect light having a length P and a width W. The unevenness pattern is projected on the line sensor, and each optical photoelectric conversion element forming the unevenness pattern sends out an electrical output according to the intensity of the illuminance to the spatial filter. When the above operation is intermittently performed at fixed time intervals ΔT, the movement amount ΔP of the illuminance distribution before and after that time is obtained.

概略的には、第2図に示すように、路面80のパターンを
光学系20A(20B)を介して映像検出部30A(30B)によっ
て検出し、その出力をマイクロコンピュータ90に入力す
る。
Schematically, as shown in FIG. 2, the pattern of the road surface 80 is detected by the image detection unit 30A (30B) via the optical system 20A (20B), and the output thereof is input to the microcomputer 90.

マイクロコンピュータ90においては入力値と、予め計算
し、予めROM93に格納して置いた設定パターンを用いて
積和演算を行う。設定パターンは、映像検出部30A(30
B)のラインセンサ31の素子数とピッチで決まる周期分
のデータを持っている。CPU91はこのデータをもとに演
算処理して車の移動距離を算出し、この移動距離を時間
で微分演算処理して速度を求める。また、車の動きに比
べて充分小さい周期で位置を検出するときは、検出処理
部の1周期での移動距離測定値の差から車の方向の変化
を求め、その変化の平均値でその期間を走行したものと
して車体の位置を求める。
In the microcomputer 90, a product-sum operation is performed using an input value and a setting pattern which is calculated in advance and stored in the ROM 93 in advance. The setting pattern is 30A (30
It has data for a period determined by the number of elements and the pitch of the line sensor 31 in B). The CPU 91 performs arithmetic processing on the basis of this data to calculate the moving distance of the vehicle, and differentiates this moving distance with respect to time to obtain the speed. When detecting a position in a cycle that is sufficiently smaller than the movement of the vehicle, the change in the direction of the vehicle is obtained from the difference between the measured travel distances in one cycle of the detection processing unit, and the average value of the change is used for that period. The position of the car body is calculated as if the vehicle was traveling.

第3図に示すように、車がX−Y平面上で1サンプリン
グの間に位置Fから位置Gに移動した時、円弧上に移動
するものと見なして、この間のB,C点の移動した距離を
r,lとすると、円の半径R及び進行方向の変化Δθを求
めると、 Δθ=(l−r)/D …(3) R=(l+r)・D/(l−r) …(4) となる。但し、r>lのときは第3図のものと反対側に
円の中心がきて、R<0となる。また、車体10の現在の
角度θnは、 θn=θn-1+Δθ …(5) となる。ここでθn-1が前回のサンプリング時の角度で
ある。またA点の位置(xn,yn)は、 Xn=Xn-1+R・sinΔθ・cosθn-1 …(6) Yn=Yn-1+R・(1−cosθ)・sinθn-1 …(7) となり、B、C点それぞれについて移動距離を求め、
(1)〜(7)式によって車体の位置を算出し、第4図
に示すように車の軌跡を求める。
As shown in FIG. 3, when the vehicle moves from position F to position G on the XY plane during one sampling, it is considered that the car moves on an arc, and points B and C move during this period. Distance
Letting r and l be the radius R of the circle and the change Δθ in the traveling direction, Δθ = (l−r) / D (3) R = (l + r) · D / (l−r) (4) However, when r> l, the center of the circle comes to the side opposite to that of FIG. 3, and R <0. Further, the current angle θ n of the vehicle body 10 is θ n = θ n-1 + Δθ (5). Here, θ n-1 is the angle at the time of the previous sampling. The position (x n , y n ) of the point A is X n = X n-1 + R · sin Δθ · cos θ n-1 (6) Y n = Y n-1 + R · (1-cos θ) · sin θ n -1 (7), the moving distance is calculated for each of B and C points,
The position of the vehicle body is calculated by the equations (1) to (7), and the locus of the vehicle is obtained as shown in FIG.

第5図は本発明の第2実施例を示し、30Aは第1の光学
系20Aの映像信号を入力とする第1の映像検出部、40Aは
第1の映像検出部30Aの映像検出信号を入力とする第1
の空間フィルタ、50Aは第1の演算処理部で、第1の空
間フィルタ40Aのフィルタ出力信号をもとに演算処理し
て無人車の移動距離,速度および現在位置を算出する。
これらの第1の光学系20A,第1の映像検出部30A,第1の
空間フィルタ40Aおよび第1の演算処理部50Aによって第
1の検出処理部60Aが構成される。同じく、20Bは第2の
光学系、30Bは第2の映像検出部、40Bは第2の空間フィ
ルタ、50Bは第2の演算処理部であって、これらにより
第2の検出処理部60Bが構成される。
FIG. 5 shows a second embodiment of the present invention, in which 30A is a first image detecting section which receives the image signal of the first optical system 20A as input, and 40A is an image detecting signal of the first image detecting section 30A. First input
50A is a first arithmetic processing unit for performing arithmetic processing based on the filter output signal of the first spatial filter 40A to calculate the moving distance, speed and current position of the unmanned vehicle.
The first optical system 20A, the first image detecting section 30A, the first spatial filter 40A and the first arithmetic processing section 50A constitute a first detection processing section 60A. Similarly, 20B is a second optical system, 30B is a second image detection unit, 40B is a second spatial filter, 50B is a second arithmetic processing unit, and these constitute a second detection processing unit 60B. To be done.

第1の検出処理部60Aと第2の検出処理部60Bは、第2図
に示すように同じ構成要素によって構成されている。す
なわち、第2図に示すように、第1,第2の映像検出部30
A,30Bはラインセンサ31,読出回路32およびアナログ/デ
ィジタル変換器(A/D変換器)33によって構成されてい
る。第1,第2の空間フィルタ40A,40Bは掛算部41a,41b,
パターン設定部42a,42b,積分演算部43a,43bによって構
成されている。
The first detection processing unit 60A and the second detection processing unit 60B are composed of the same components as shown in FIG. That is, as shown in FIG. 2, the first and second video detection units 30
A and 30B are composed of a line sensor 31, a reading circuit 32 and an analog / digital converter (A / D converter) 33. The first and second spatial filters 40A, 40B include multiplication units 41a, 41b,
The pattern setting units 42a and 42b and the integration calculation units 43a and 43b are included.

第1,第2の演算処理部50A,50Bはローパスフィルタ51a,5
1b,三角関数演算部52,位相演算部53,和算部54,掛算部5
5,微分演算部56および回転軌跡演算部(m演算部)70に
よって構成されている。m演算部70は、第3図に示すよ
うに、正弦波信号演算部71a,71b,掛算部72a,72b,前回値
保持部であるデータ保持部73a〜73c,和算部74a,74bによ
って構成されている。
The first and second arithmetic processing units 50A and 50B are low-pass filters 51a and 5a.
1b, trigonometric function calculation unit 52, phase calculation unit 53, summation unit 54, multiplication unit 5
5. The differential calculation unit 56 and the rotation locus calculation unit (m calculation unit) 70 are included. As shown in FIG. 3, the m calculation unit 70 includes sine wave signal calculation units 71a and 71b, multiplication units 72a and 72b, data holding units 73a to 73c that are previous value holding units, and summing units 74a and 74b. Has been done.

次に、上記構成の位置検出装置の動作につてい説明す
る。
Next, the operation of the position detecting device having the above configuration will be described.

光学系20A,20Bは第8図,第9図に示すように、シリン
ダーレンズ21,24によってラインセンサ31と平行な方向
については該ラインセンサ31上に結像し、垂直な方向に
対してはラインセンサ31が焦点になるようにレンズ系が
構成されている。光学系20A,20bの映像信号はそれぞれ
第1,第2の映像検出部30A,30Bで検出され、第1,第2の
空間フィルタ40A,40Bに入力される。空間フィルタ40A,4
0Bは路面の光学的にランダムなパターンから特定の空間
的な周波数成分を検出し、その時間的な挙動を調べるこ
とにより路面との相対的な車体の位置と速度を計測す
る。
As shown in FIGS. 8 and 9, the optical systems 20A and 20B form images on the line sensor 31 in the direction parallel to the line sensor 31 by the cylinder lenses 21 and 24, and in the direction perpendicular to the line sensor 31. The lens system is configured so that the line sensor 31 becomes the focal point. The video signals of the optical systems 20A and 20b are respectively detected by the first and second video detection units 30A and 30B and input to the first and second spatial filters 40A and 40B. Spatial filter 40A, 4
0B detects a specific spatial frequency component from an optically random pattern on the road surface and examines its temporal behavior to measure the position and speed of the vehicle body relative to the road surface.

ラインセンサ31からの出力は読出回路32を通過した後、
空間フィルタ40A(40B)に入力されることになる。空間
フィルタ40A(40B)は、光学的にランダムな周波数から
構成される反射光から、任意の周波数成分を抽出し、そ
の時系列的な変化から、位相空間において移動距離に対
応するベクトルを求めるものである。即ち、読出回路32
を通過した信号Pは、A/D変換器33でデジタル信号に変
換されるが、フーリエ級数に展開すると次の様になる。
The output from the line sensor 31 passes through the read circuit 32,
It will be input to the spatial filter 40A (40B). The spatial filter 40A (40B) extracts an arbitrary frequency component from the reflected light composed of optically random frequencies, and calculates the vector corresponding to the moving distance in the phase space from its time series change. is there. That is, the read circuit 32
The signal P that has passed through is converted into a digital signal by the A / D converter 33, and is expanded into a Fourier series as follows.

但し、x0は時刻tにおける車輌の位置、 xは読出回路から読み出されるラインセンサ内の位置で
あり、x0を基準とする、 k=2π/L,i=0,1,2…, Lはラインセンサの測定範囲である。
However, x 0 is the position of the vehicle at time t, x is the position in the line sensor read from the reading circuit, and x 0 is the reference, k = 2π / L, i = 0,1,2 ..., L Is the measurement range of the line sensor.

そして、フーリエ係数Ai(x0),Bi(x0)は次式で示され
る。
The Fourier coefficients A i (x 0 ) and B i (x 0 ) are given by the following equation.

このような信号Pにそれぞれ空間フィルタとして、下式
に示す特定周波数の余弦波,正弦波S1,S2を乗算し、所
定範囲で積分する。
Each of these signals P is multiplied as a spatial filter by a cosine wave and sine waves S 1 and S 2 of a specific frequency shown in the following equation, and integrated in a predetermined range.

S1=F・cos(n・k・x) …(11) S2=F・sin(n・k・x) …(12) ここで、ラインセンサからの出力Pは、路面や環境等の
条件が一定の反射光によるものであれば、あるn次の成
分については3角関数的に連続して変化するはずであ
り、例えば下式で示されることになる。
S 1 = F ・ cos (n ・ k ・ x) (11) S 2 = F ・ sin (n ・ k ・ x) (12) Here, the output P from the line sensor should change continuously in a trigonometric function with respect to a certain n-th component if the reflected light has a constant condition such as a road surface or environment. It will be shown by the following formula.

Pn(ΔL)=G・sin(n・k・ΔL+φ) …(15) 従って、n次のフーリエ係数An,Bnは次の様に求められ
る。
P n (ΔL) = G · sin (n · k · ΔL + φ) (15) Therefore, the n-th order Fourier coefficients A n and B n are obtained as follows.

同様にして Bn(x0)=G・cos(nkx0+φ) …(17) (16)(17)式を上記(13)(14)式に代入して整理す
ると次式となる。
Similarly, B n (x 0 ) = Gcos (nkx 0 + φ) (17) (16) (17) is substituted into the above equations (13) and (14) and rearranged to obtain the following equation.

a(x0)=(FL/2)・Gcos(nkx0+φ) …(18) b(x0)=(FL/2)・Gsin(nkx0+φ) …(19) このようにして得られるa(x0),b(x0)は、三角関数に振
動するものであり、その後移動距離演算部へ入力され
る。
a (x 0 ) = (FL / 2) ・ Gcos (nkx 0 + φ)… (18) b (x 0 ) = (FL / 2) ・ Gsin (nkx 0 + φ)… (19) a (x 0 ), b (x 0 ) vibrate in a trigonometric function, and are then input to the moving distance calculation unit.

ここで、移動距離演算部は、a(x0),b(x0)を2次元の座
標とするベクトルAの第4図を示す位相平面上での原点
を中心とする回転角ρを求める。即ち、第4図に示すよ
うにa(x0),b(x0)を2次元の座標とするベクトルAは、
移動距離x0に比例した回転角nkx0で回転する。次に関係
式が成り立つ。
Here, the moving distance calculation unit obtains a rotation angle ρ about the origin on the phase plane shown in FIG. 4 of the vector A having two-dimensional coordinates a (x 0 ) and b (x 0 ). . That is, as shown in FIG. 4, the vector A having two-dimensional coordinates of a (x 0 ) and b (x 0 ) is
It rotates at a rotation angle nkx 0 proportional to the moving distance x 0 . Next, the relational expression holds.

nkx0+φ=2πm+ρ …(20) 但し、mは原点を中心とした回転数、 ρ=arctan(b(x0)/a(x0))、 (0≦ρ≦2π) φは初期値つまりρt0である。nkx 0 + φ = 2πm + ρ (20) where m is the number of revolutions around the origin, ρ = arctan (b (x 0 ) / a (x 0 )), (0 ≦ ρ ≦ 2π) φ is the initial value, that is, ρ t = 0 .

従って、(13)式を変形すれば、求めようとする移動距
離x0が次式で示される。
Therefore, if the equation (13) is modified, the moving distance x 0 to be obtained is expressed by the following equation.

x0=m・p+(ρ−φ)p/2π …(21) 概略的には、第6図に示すように、路面80のパターンを
光学系20A(20B)を介して映像検出部30A(30B)によっ
て検出し、その出力を空間フィルタ40A(40B)に入力す
る。空間フィルタにおいては入力値と、予め計算し、予
め設定して置いた設定パターンを用いて積和演算を行
う。ここでは、正弦波パターン用いている。設定パター
ンは、映像検出部30A(30B)のラインセンサ31の素子数
とピッチで決まる周期分のデータを持っている。空間フ
ィルタの出力を演算処理部50A(50B)で演算処理して車
の移動距離を算出し、この移動距離を時間で微分して速
度を求める。また、車の動きに比べて充分小さい周期で
位置を検出するときは、2つの検出処理部の1周期での
移動距離測定値の差から車の方向の変化を求め、その変
化の平均値でその期間を走行したものとして車体の位置
を求める。
x 0 = m · p + (ρ−φ) p / 2π (21) Schematically, as shown in FIG. 6, the pattern of the road surface 80 is passed through the optical system 20A (20B) and the image detection unit 30A ( 30B), and the output is input to the spatial filter 40A (40B). In the spatial filter, the sum of products is calculated using the input value and a preset pattern that is preliminarily calculated and preset. Here, a sine wave pattern is used. The set pattern has data for a period determined by the number of elements and the pitch of the line sensor 31 of the video detection unit 30A (30B). The output of the spatial filter is arithmetically processed by the arithmetic processing unit 50A (50B) to calculate the moving distance of the vehicle, and the moving distance is differentiated with respect to time to obtain the speed. When detecting a position in a cycle that is sufficiently smaller than the movement of the vehicle, the change in the direction of the vehicle is calculated from the difference between the movement distance measurement values of the two detection processing units in one cycle, and the average value of the changes is calculated. The position of the vehicle body is calculated assuming that the vehicle has traveled during that period.

さらに詳しくは、第6図に示すように、路面80の映像信
号を光学系20A(20B)を介して映像検出部30A(30B)に
入力する。映像検出部30A((30B)においてはラインセ
ンサ31がその映像を検出し、その映像検出信号を読出回
路32が読み出し、その映像検出信号をA/D変換して空間
フィルタ40A(40B)に入力する。空間フィルタ40A(40
B)においては、掛算部41aで映像検出部30A(30B)から
の映像検出信号とパターン設定部42aの正弦波パターン
設定信号を掛け合わせると共に、掛算部41bで映像検出
信号とパターン設定部42bの余弦波パターン設定信号を
掛け合わせる。さらに第1の掛算部41aの掛算信号を積
分演算部43aで積分しその積分信号aを出力すると共
に、掛算部41bの掛算信号を第2の積分演算部43bで積分
し、その積分信号bを出力する。
More specifically, as shown in FIG. 6, the video signal of the road surface 80 is input to the video detection unit 30A (30B) via the optical system 20A (20B). In the video detection unit 30A ((30B), the line sensor 31 detects the video, the reading circuit 32 reads the video detection signal, A / D converts the video detection signal, and inputs the signal to the spatial filter 40A (40B). Spatial filter 40A (40
In B), the multiplication unit 41a multiplies the video detection signal from the video detection unit 30A (30B) and the sine wave pattern setting signal of the pattern setting unit 42a, and the multiplication unit 41b multiplies the video detection signal and the pattern setting unit 42b. Multiply the cosine wave pattern setting signal. Furthermore, the multiplication signal of the first multiplication unit 41a is integrated by the integration calculation unit 43a and the integrated signal a is output, and the multiplication signal of the multiplication unit 41b is integrated by the second integration calculation unit 43b and the integration signal b is calculated. Output.

演算処理部50A(50B)においては、積分信号をローパス
フィルタ51aに通して信号Saを得ると共に、積分信号S2
をローパスフィルタ51bに通して信号Sbを得る。信号Sa
とSbはそれぞれ三角関数演算部52と回転軌跡演算部(m
演算部)70に入力される。三角関数演算部52は信号Saと
Sbをもとに演算し、出力ρ=arctan(Sb/Sa)を算出す
る。位相演算部53は入力ρと初期位相φをもとに(ρ−
φ)/2πを算出する。
In the arithmetic processing unit 50A (50B), the integrated signal is passed through the low-pass filter 51a to obtain the signal Sa, and the integrated signal S2
Is passed through a low-pass filter 51b to obtain a signal Sb. Signal Sa
And Sb are the trigonometric function calculation unit 52 and the rotation locus calculation unit (m
It is input to the calculation unit) 70. The trigonometric function calculation unit 52 outputs the signal Sa
The calculation is performed based on Sb, and the output ρ = arctan (Sb / Sa) is calculated. The phase calculation unit 53 calculates (ρ−−
Calculate φ) / 2π.

m演算部70では、第3図に示す如く、信号Saが正弦波信
号演算部71aを通して掛算部72aとデータ保持部73aに導
かれ、信号Sbは正弦波信号演算部71bを通して和算部74b
とデータ保持部73bに導かれる。掛算部72bはデータ保持
部73aからの前回のサンプリング値と現在のサンプリン
グ値を乗算する。和算部74は現在のサンプリング値とデ
ータ保持部73bの前回のサンプリング値を和算する。掛
算部72bは掛算部72aの乗算値と和算部74bの和算値とを
乗算し、和算部74aは掛算部72bの現在の乗算値とデータ
保持部73cによる前回値を加算してm信号を出力する。
In the m calculation unit 70, as shown in FIG. 3, the signal Sa is guided to the multiplication unit 72a and the data holding unit 73a via the sine wave signal calculation unit 71a, and the signal Sb is added to the summation unit 74b via the sine wave signal calculation unit 71b.
And the data holding unit 73b. The multiplication unit 72b multiplies the previous sampling value from the data holding unit 73a by the current sampling value. The summing unit 74 sums the current sampling value and the previous sampling value of the data holding unit 73b. The multiplication unit 72b multiplies the multiplication value of the multiplication unit 72a and the addition value of the addition unit 74b, and the addition unit 74a adds the current multiplication value of the multiplication unit 72b and the previous value of the data holding unit 73c to m. Output a signal.

さらに演算処理部50A(50B)においては、第6図に示す
如く、和算部54がm演算部70のm信号と位相演算部53の
位相信号を和算し、この和算部54の加算値と空間フィル
タのピッチ(周期)Pを掛け算して移動距離を算出する
と共に、この移動距離信号を微分演算部56に入力して速
度を算出する。
Further, in the arithmetic processing unit 50A (50B), as shown in FIG. 6, the summing unit 54 sums the m signal of the m arithmetic unit 70 and the phase signal of the phase arithmetic unit 53, and the addition of the summing unit 54 is performed. The moving distance is calculated by multiplying the value and the pitch (cycle) P of the spatial filter, and the moving distance signal is input to the differential calculation unit 56 to calculate the speed.

第5図,第3図および第4図に示すように、車体10の底
面部11の中心点をA(x,y)とし、車が矢印方向に走行
しているとき、車がX−Y平面上にX軸に対しθの角度
で移動しているとする。ここで、1サンプリングによる
第1,第2の検出処理部60A,60Bの出力がΔr,Δl(位
置)変化したとすると、車体10の進行方向変化Δθは、
サンプリング周期が短いとして、前述の(15)式〜(2
1)式の演算を実行する。
As shown in FIGS. 5, 3, and 4, the center point of the bottom surface portion 11 of the vehicle body 10 is A (x, y), and when the vehicle is traveling in the arrow direction, the vehicle is XY. It is assumed that the object moves on the plane at an angle of θ with respect to the X axis. Here, if the outputs of the first and second detection processing units 60A and 60B by 1 sampling change by Δr, Δl (position), the change Δθ in the traveling direction of the vehicle body 10 is
Assuming that the sampling cycle is short, the above equations (15) to (2
1) Execute the calculation of expression.

第10図,第11図は上述の動作フローを示すもので、第10
図は空間フィルタ40A(40B)の演算フロー、第8図は演
算処理部50A(50B)の演算フローである。
10 and 11 show the above-mentioned operation flow.
FIG. 8 is a calculation flow of the spatial filter 40A (40B), and FIG. 8 is a calculation flow of the calculation processing unit 50A (50B).

第10図に示すように、ステップS1でラインセンサ(CC
D)の出力をA/D変換して空間フィルタに入力する。空間
フィルタにおいては、ステップS2に示す如く、窓関数デ
ータ1として正弦波(sin)パターンを読み込み、この
正弦波パターンとCCD出力の積和演算を実行する(ステ
ップS3)。次に、ステップS4に示すように、窓関数デー
タ2として余弦波(cos)パターンを読み込み、この余
弦波パターンとCCD出力の積和演算を行う(ステップS
5)。そして、ステップS6に示すように、ステップS1〜S
5の動作をCCDの素子数例えば2048回繰り返す。
As shown in FIG. 10, in step S1, the line sensor (CC
The output of D) is A / D converted and input to the spatial filter. In the spatial filter, as shown in step S2, a sine wave (sin) pattern is read as the window function data 1, and the product-sum operation of this sine wave pattern and the CCD output is executed (step S3). Next, as shown in step S4, a cosine wave (cos) pattern is read as the window function data 2, and the product-sum operation of this cosine wave pattern and the CCD output is performed (step S4).
Five). Then, as shown in step S6, steps S1 to S
The operation of 5 is repeated for the number of CCD elements, for example, 2048 times.

第11図に示すように、演算処理部においては空間フィル
タの出力信号aとbをそれぞれ1次元のローパスフィル
タに通し(ステップS7,S8)、ステップS9に示す如く、
位相平面上軌跡が第一象現と第四象現の間を移る回数
を、第四象現から第一象現に移る方向を正として、数え
てn演算を実行する。次に、ステップS10に示すよう
に、ρ=arctan(Sb/Sa)を0≦ρ<2πの範囲で計算
して位相演算を実行し、ステップS11に示すように、m
・P+(ρ−P)/2π・Pを算出して距離演算を実行す
ると共に、ステップS12に示すように距離を微分して速
度演算を実行する。
As shown in FIG. 11, in the arithmetic processing section, the output signals a and b of the spatial filter are respectively passed through one-dimensional low-pass filters (steps S7 and S8), and as shown in step S9,
The n operation is performed by counting the number of times the locus on the phase plane moves between the first quadrant and the fourth quadrant, with the direction from the fourth quadrant to the first quadrant being positive. Next, as shown in step S10, ρ = arctan (Sb / Sa) is calculated in the range of 0 ≦ ρ <2π to execute the phase calculation, and as shown in step S11, m
.P + (. Rho.-P) /2.pi..P is calculated and the distance calculation is executed, and the distance is differentiated and the speed calculation is executed as shown in step S12.

G.発明の効果 本発明は、以上の如く、車体に光学系センサを設け、車
体の移動角と円弧半径にもとづく該光学系センサの検出
信号を1次元のフィルタ演算手段で処理し、その出力か
ら車体の2次元の位置,速度,進行方向を検出するよう
にしたから、誘導線,反射テープ等の走行路の加工が不
要にして、非接触で計測することができ、路面の凹凸や
外力等によるスリップや車輪の摩粍の影響を受けず精度
良い位置,速度の計測が出来る。
G. Effect of the Invention As described above, according to the present invention, the vehicle body is provided with the optical system sensor, and the detection signal of the optical system sensor based on the movement angle and the arc radius of the vehicle body is processed by the one-dimensional filter calculation means, and the output thereof is output. Since the two-dimensional position, speed, and direction of travel of the vehicle body are detected from the vehicle, it is possible to perform non-contact measurement without the need to process the running path such as guide wires or reflective tape, and to measure road surface irregularities and external forces. It is possible to measure the position and speed with high accuracy without being affected by slips and wheel abrasion due to factors such as.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の第1実施例による位置検出装置のブロ
ック線図、第2図は本発明の実施例による検出処理部の
詳細を示すブロックブ図、第3図と第4図は演算方法を
示す説明図、第5図は本発明の第2実施例による位置検
出装置のブロック線図、第6図は検出処理部の詳細を示
すブロック図、第7図は回転軌跡演算部のブロック図、
第8図および第9図はそれぞれ光学系の構成図、第10図
は空間フィルタの演算フロー図、第11図は演算処理部の
演算フロー図である。 10…車体、11…車体の底面部、20A…第1の光学系、20B
…第2の光学系、30A…第1の映像検出部、30B…第2の
映像検出部、40A…第1の空間フィルタ、40B…第2の空
間フィルタ、50A…第1の演算処理部、50B…第2の演算
処理部、60A…第1の検出処理部、60B…第2の検出処理
部、90…マイクロコンピュータ、100…処理ユニット。
1 is a block diagram of a position detecting device according to a first embodiment of the present invention, FIG. 2 is a block diagram showing details of a detection processing unit according to an embodiment of the present invention, and FIGS. 3 and 4 are calculation methods. FIG. 5, FIG. 5 is a block diagram of a position detecting device according to a second embodiment of the present invention, FIG. 6 is a block diagram showing details of a detection processing unit, and FIG. 7 is a block diagram of a rotation locus calculation unit. ,
8 and 9 are block diagrams of the optical system, FIG. 10 is a calculation flow chart of the spatial filter, and FIG. 11 is a calculation flow chart of the calculation processing unit. 10 ... Car body, 11 ... Bottom surface of car body, 20A ... First optical system, 20B
... second optical system, 30A ... first image detecting section, 30B ... second image detecting section, 40A ... first spatial filter, 40B ... second spatial filter, 50A ... first arithmetic processing section, 50B ... 2nd arithmetic processing part, 60A ... 1st detection processing part, 60B ... 2nd detection processing part, 90 ... Microcomputer, 100 ... Processing unit.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】車体の底面部に配設され走行路面のパター
ンを撮取する第1の光学系と、該第1の光学系により撮
取した映像パターンを所定の周期でサンプリングして映
像パターン信号を得る第1の映像検出部と、該第1の映
像検出部の映像パターン信号と予め設定された三角関数
設定信号を乗算し、該乗算信号を積分演算して三角関数
パターン信号を得る第1のフィルタ演算手段と、 前記車体の進行方向軸心に関して前記第1の光学系から
所定間隔を置いて前記車体の底面部に配設され走行路面
のパターンを撮取する第2の光学系と、該第2の光学系
により撮取した映像パターンを所定の周期でサンプリン
グして映像パターン信号を得る第2の映像検出部と、 前記第1の映像検出部と第2の映像検出部の前記第1の
光学系と第2の光学系の走行路面に対する各移動角と円
弧半径にもとづく映像パターン信号と予め設定された三
角関数設定信号を乗算し、該乗算信号を積分演算して三
角関数パターン信号を得る第2のフィルタ演算手段と、 前記第1のフィルタ演算手段と第2のフィルタ演算手段
の三角関数パターン信号をもとに乗算処理して前記車体
の移動距離信号を算出し、該移動距離信号を微分演算し
て速度信号を算出すると共に、前記移動距離信号と前記
第1の光学系と第2の光学系との設置間隔をもとに前記
車体の進行方向角度を算出する手段によって構成したこ
とを特徴とする無人車の位置検出装置。
1. A first optical system arranged on the bottom surface of a vehicle body for capturing a pattern of a traveling road surface, and a video pattern obtained by sampling a video pattern captured by the first optical system at a predetermined cycle. A first video detection unit for obtaining a signal, a video pattern signal of the first video detection unit and a preset trigonometric function setting signal are multiplied, and the multiplication signal is integrated to obtain a trigonometric function pattern signal. A first filter calculation means, and a second optical system arranged on the bottom surface of the vehicle body at a predetermined distance from the first optical system with respect to the axis of the vehicle body in the traveling direction, and capturing a pattern of a traveling road surface. A second video detection unit that obtains a video pattern signal by sampling a video pattern captured by the second optical system in a predetermined cycle; and the first video detection unit and the second video detection unit. Of the first optical system and the second optical system Second filter calculation means for multiplying a video pattern signal based on each movement angle and arc radius with respect to the road surface by a preset trigonometric function setting signal, and integrating the multiplication signal to obtain a trigonometric function pattern signal; Multiplication processing is performed based on the trigonometric function pattern signals of the first filter calculation means and the second filter calculation means to calculate the travel distance signal of the vehicle body, and the travel distance signal is differentiated to calculate the speed signal. In addition, the position detection of the unmanned vehicle is configured by means for calculating the traveling direction angle of the vehicle body based on the movement distance signal and the installation interval between the first optical system and the second optical system. apparatus.
JP62323369A 1987-12-21 1987-12-21 Position detection device for unmanned vehicles Expired - Lifetime JPH0726854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62323369A JPH0726854B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62323369A JPH0726854B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Publications (2)

Publication Number Publication Date
JPH01163611A JPH01163611A (en) 1989-06-27
JPH0726854B2 true JPH0726854B2 (en) 1995-03-29

Family

ID=18153996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62323369A Expired - Lifetime JPH0726854B2 (en) 1987-12-21 1987-12-21 Position detection device for unmanned vehicles

Country Status (1)

Country Link
JP (1) JPH0726854B2 (en)

Also Published As

Publication number Publication date
JPH01163611A (en) 1989-06-27

Similar Documents

Publication Publication Date Title
US20060015288A1 (en) Speed sensing method and apparatus
JPH0726854B2 (en) Position detection device for unmanned vehicles
JPH0726852B2 (en) Position detection device for unmanned vehicles
JPH0726853B2 (en) Position detection device for unmanned vehicles
JP2676777B2 (en) Position detection device for unmanned vehicles
JPH01163613A (en) Position detector for unmanned vehicle
JPH0650728Y2 (en) Distance measuring device with spatial filter
CA2013576A1 (en) Method of and apparatus for measuring a velocity vector by use of a spatial filter
JP2527710Y2 (en) Distance measuring device with spatial filter
JP2676831B2 (en) Automatic guided vehicle position detection device
JP2500224Y2 (en) Distance measuring device with spatial filter
JPH081441B2 (en) Distance measuring device with spatial filter
JPH0821730A (en) Two-dimensional position sensor
JP2841458B2 (en) Unmanned vehicle position detection device
JP2500223Y2 (en) Distance measuring device with spatial filter
JP2543898Y2 (en) Moving distance detector
JP2500174Y2 (en) Distance measuring device with spatial filter
JP2940234B2 (en) Velocity distance measuring device using spatial filter
JP2573135Y2 (en) Moving distance detector
JPH0650732Y2 (en) Variable illumination distance measuring device with spatial filter
JPH01163612A (en) Position detector for unmanned vehicle
JP2500222Y2 (en) Distance measuring device with spatial filter
JPH01270111A (en) Method for detecting position of unmanned carrier
JP2552336Y2 (en) Sensor mechanism of autonomous guided automatic guided vehicle
EP0331353A2 (en) Detecting change in location of a moving source of electromagnetic radiation