JPH0410645B2 - - Google Patents

Info

Publication number
JPH0410645B2
JPH0410645B2 JP59015131A JP1513184A JPH0410645B2 JP H0410645 B2 JPH0410645 B2 JP H0410645B2 JP 59015131 A JP59015131 A JP 59015131A JP 1513184 A JP1513184 A JP 1513184A JP H0410645 B2 JPH0410645 B2 JP H0410645B2
Authority
JP
Japan
Prior art keywords
steering
amount
running
section
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59015131A
Other languages
Japanese (ja)
Other versions
JPS60160413A (en
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to JP59015131A priority Critical patent/JPS60160413A/en
Publication of JPS60160413A publication Critical patent/JPS60160413A/en
Publication of JPH0410645B2 publication Critical patent/JPH0410645B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、走行路面上に貼付されたマークを撮
像装置で撮像し、これを画像処理して予定走行路
からのずれ量を求め、このずれをなくすよう移動
体を誘導する移動体の誘導装置に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention captures an image of a mark pasted on a driving road surface using an imaging device, processes the image to determine the amount of deviation from the planned driving path, and calculates the amount of deviation from the planned driving path. The present invention relates to a guiding device for a moving body that guides the moving body so as to eliminate the problem.

〔発明の背景〕[Background of the invention]

移動体の代表的なものの一つに無人搬送車があ
るが、この無人搬送車を指定された走行路に沿つ
て移動させるには、走行状況を検出する走行検出
装置が必要である。
One of the typical moving objects is an automatic guided vehicle, and in order to move this automatic guided vehicle along a designated travel route, a traveling detection device is required to detect the traveling situation.

従来、この走行検出装置としては、電磁誘導
式、テープ光学式、静電容量式、超音波式、視覚
誘導式などが知られている。このうち、視覚誘導
方式のものは、走行路の中央に等間隔にマークを
貼付し、移動体上に取付けられた撮像装置がその
マークを撮像し、これを画像処理して予定走行路
からのずれ量を検出するものである。したがつ
て、視覚誘導方式を用いた誘導装置は、このよう
にして検出された状態量を利用して、移動体を予
定走行路上に誘導するものである。
Conventionally, electromagnetic induction type, tape optical type, capacitance type, ultrasonic type, visual guidance type, etc. are known as this running detection device. Among these, the visual guidance type attaches marks at equal intervals in the center of the travel route, and an imaging device attached to the moving object captures images of the marks, which are then image-processed to determine the route from the planned route. This detects the amount of deviation. Therefore, a guidance device using a visual guidance system guides a mobile object onto a planned travel route by utilizing the state quantity detected in this manner.

しかし、従来公知のこの種誘導装置では、移動
体前方の走行状況、すなわち移動体前方における
移動体の軌道ずれ、傾き、移動量を検知し、これ
を予見情報として左右両側の走行線を駆動する2
台のモータの速度差を制御して操舵している。あ
るいは、車輪に操舵機構を取付けて、前述の予見
情報を利用して操舵制御している。
However, conventionally known guidance devices of this type detect the running situation in front of the moving object, that is, the trajectory deviation, inclination, and amount of movement of the moving object in front of the moving object, and use this as predictive information to drive the running lines on both the left and right sides. 2
Steering is performed by controlling the speed difference between the two motors. Alternatively, a steering mechanism is attached to the wheels, and the aforementioned predictive information is used to control the steering.

したがつて、このような制御のみでは、移動体
が走行路上を左右に大きく舵行してしまい、安定
な走行が難しい。
Therefore, with only such control, the moving object will be steered significantly left and right on the travel road, making it difficult to run stably.

また、一方、従来のこの種誘導装置では、マー
クは移動体の走行路中央部に設けられており、移
動体の車輪がそのマーク上を移動するなどのため
マークが汚れたり、傷が発生したり、欠落部が生
じたりするので、マークの信頼性が問題となつて
いる。
On the other hand, in conventional guidance devices of this type, the mark is provided in the center of the travel path of the moving object, and as the wheels of the moving object move over the mark, the mark may become dirty or scratched. The reliability of the marks has become a problem because of the occurrence of defects and missing parts.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、高精度の操舵を行なうことの
できる移動体の誘導装置を提供することである。
An object of the present invention is to provide a guiding device for a moving body that can perform highly accurate steering.

〔発明の概要〕[Summary of the invention]

本発明は、移動体の前後の走行路のマークを撮
像する前後の撮像装置と、前記前側の撮像装置の
画像信号を処理して前側の軌通ずれ量と姿勢角と
を有する予見走行状態量を求め、また、前記後側
の撮像装置の画像信号の画像信号を処理して後側
の軌道ずれ量と姿勢角とを有する履歴走行状態量
を求める画像処理部と、前記予見走行状態量およ
び前記履歴走行状態量から前後側の操舵機構を制
御するための操舵量を求め、前記それぞれの操舵
量を前記前後の操舵機構に出力する制御量演算部
と、からなり、該制御量演算部は、直線走行区
間、高速走行区間および低速走行区間は、前記予
見走行状態量から前記前側の操舵機構を制御する
ための操舵量を求め、また、前記履歴走行状態量
から前記後側の操舵機構を制御するための操舵量
を求めており、一方、高速と低速の中間の定常旋
回区間では前後の操舵量を同一にさせるものであ
ること、を特徴とする。
The present invention provides front and rear imaging devices that image marks on the running path in front and rear of a moving body, and a predictive running state quantity that processes image signals from the front imaging device to obtain a front track deviation amount and an attitude angle. and an image processing unit that processes the image signal of the image signal of the rear imaging device to obtain a historical running state quantity having a rear track deviation amount and an attitude angle, and the predicted running state quantity and a control amount calculation unit that calculates a steering amount for controlling the front and rear steering mechanisms from the historical running state quantity and outputs the respective steering amounts to the front and rear steering mechanisms, the control amount calculation unit , a straight running section, a high speed running section, and a low speed running section, a steering amount for controlling the front steering mechanism is determined from the predicted running state quantity, and a steering amount for controlling the front steering mechanism is determined from the historical running state quantity. A steering amount for control is determined, and on the other hand, in a steady turning section between high speed and low speed, the front and rear steering amounts are made to be the same.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明を具体的な実施例に基づき詳細に
説明する。
Hereinafter, the present invention will be explained in detail based on specific examples.

まず、第1図〜第3図により移動体の一種であ
る無人搬送車の全体構成を説明する。第1図は無
人搬送車の全体斜視図であり、第2図はその側面
図であり、第3図は操舵機構を含む走行装置部分
を示す図であり、第1図と第2図において、1は
無人搬送車であり、走行路2上を走行する。3は
走行路を形成するための線である。つまり、線3
の内側が無人搬送車の走行路である。4a,4b
は線3上に貼付された路面マークであり、無人搬
送車1はこのマークを利用して走行する。6a,
6bは無人搬送車1の前後に取付けられた撮像装
置であり、これによりマーク4a,4bを夫々撮
像する。5aと5bは夫々の撮像装置の撮像領域
(視野領域)を示す。7a,7bは前後の走行輪
に取付けられた操舵機構である。8は搬送車を走
行させるための走行装置である。9a,9bは前
後に設けられる走行輪、10a,10bは左右に
設けられる走行輪である。なお、9a,9bが駆
動輪、10a,10bは従属輪となつている。1
1は制御盤であり、操舵信号および走行信号を入
力し、操舵機構および走行装置を制御する制御部
を含む。12はデータを処理する処理部であり、
撮像した情報から走行状態量を演算する画像処理
部と、走行状態量から制御信号(操舵信号および
走行信号)を演算する制御量演算部とを含む。1
3は電力を各装置に供給するバツテリー装置、1
4は荷台、15は地上通信部からの走行指令信号
を受信するための無線装置である。第1図、第2
図における操舵機構7a、走行装置8、走行輪9
aの部分を詳細に示しているのが第3図である。
第3図において、走行装置8は、走行モータ16
と、モータ軸17aにカツプリング接続された軸
17bと、平歯車18,19と、その平歯車1
8,19の動力伝達の回転方向を直角方向に変換
する傘歯車、20a,20bと、その傘歯車の主
軸21aと、両端軸受22a,22bと、走行輪
9aと主軸21とをボス結合する部材21bとで
構成されている。そして、ケーシング23は、平
歯車列18,19、傘歯車列20a,20b、主
軸21a、両端軸受22a,22b等を一体化し
ている。操舵機構7aは、車体側に固定されてお
り、操舵モータ25と、このモータの回転動作を
軸を介して減速する平歯車24aと、主軸24b
をケーシング23に固定する部材26とで構成さ
れる。操舵モータ25の回転によりケーシング2
3を揺動させることによつて操舵を行なう構成と
なつている。なお、図示しないけれども、操舵機
構7bは、同様の構成であり、走行輪9bを揺動
させるようになつている。
First, the overall configuration of an automatic guided vehicle, which is a type of moving object, will be explained with reference to FIGS. 1 to 3. FIG. 1 is an overall perspective view of the automatic guided vehicle, FIG. 2 is a side view thereof, and FIG. 3 is a diagram showing the traveling device portion including the steering mechanism. Reference numeral 1 denotes an automatic guided vehicle, which travels on a running path 2. 3 is a line for forming a running route. In other words, line 3
The inside of the area is the route for the automatic guided vehicle. 4a, 4b
is a road mark pasted on the line 3, and the automatic guided vehicle 1 runs using this mark. 6a,
6b is an imaging device attached to the front and rear of the automatic guided vehicle 1, which images the marks 4a and 4b, respectively. 5a and 5b indicate the imaging area (field of view) of each imaging device. 7a and 7b are steering mechanisms attached to the front and rear running wheels. 8 is a running device for running the carrier. 9a and 9b are running wheels provided on the front and rear, and 10a and 10b are running wheels provided on the left and right sides. Note that 9a and 9b are driving wheels, and 10a and 10b are dependent wheels. 1
Reference numeral 1 denotes a control panel, which includes a control section that inputs a steering signal and a running signal and controls a steering mechanism and a running device. 12 is a processing unit that processes data;
It includes an image processing unit that calculates a running state quantity from the captured information, and a control amount calculation unit that calculates control signals (steering signals and running signals) from the running state quantity. 1
3 is a battery device that supplies power to each device; 1
4 is a loading platform, and 15 is a wireless device for receiving travel command signals from the ground communication section. Figures 1 and 2
Steering mechanism 7a, traveling device 8, and traveling wheels 9 in the figure
FIG. 3 shows the part a in detail.
In FIG. 3, the traveling device 8 includes a traveling motor 16
, a shaft 17b coupled to the motor shaft 17a, spur gears 18 and 19, and the spur gear 1.
Bevel gears 20a and 20b that convert the rotational direction of power transmission of 8 and 19 to the right angle direction, the main shaft 21a of the bevel gears, both end bearings 22a and 22b, and a member that connects the running wheel 9a and the main shaft 21 with a boss. 21b. The casing 23 integrates the spur gear trains 18 and 19, the bevel gear trains 20a and 20b, the main shaft 21a, both end bearings 22a and 22b, and the like. The steering mechanism 7a is fixed to the vehicle body and includes a steering motor 25, a spur gear 24a that decelerates the rotational movement of this motor via a shaft, and a main shaft 24b.
and a member 26 for fixing it to the casing 23. The casing 2 is rotated by the rotation of the steering motor 25.
The structure is such that steering is performed by swinging the wheel 3. Although not shown, the steering mechanism 7b has a similar configuration and is configured to swing the running wheels 9b.

次に、第1図〜第3図に示す無人搬送車を制御
するための構成について、第4図を用いて説明す
る。第4図において、6a,6bは撮像装置であ
り、6aのみを詳細に開示している。12は処理
部であり、画像処理部34と、制御量演算部35
とで構成される。制御部11は、制御量演算部3
5の出力である制御信号を受取り、これに応じて
各操舵機構7a,7bおよび走行装置8を制御す
る。さて、撮像装置6a(6bも同じ)は、線3
およびその上に貼付された路面マーク4aをフイ
ルタ27およびレンズ28で構成されたカメラ2
9aを通して画像入力する。すなわち、カメラを
通して入力された光学画像は、固体撮像素子30
上に投影され、マトリクス状に配置された光ダイ
オード31を励起させることにより回路に電流を
発生させ、これを負荷抵抗32を介して電圧に変
換した後、プリアンプ33で増幅して電気的画像
信号として画像入力する。この入力された画像信
号は、切替器36を介して画像処理部34内のア
ナログ/デイジタル変換器37に供給され、デイ
ジタル信号に変換される。デイジタル信号に変換
された画像信号は、イメージメモリ38に記憶さ
れる。撮像装置6bによつて入力された制御信号
も、同様に切換器36を介してアナログ/デイジ
タル変換器37に供給され、デイジタル信号に変
換器イメージメモリ38に記憶される。切替器3
6の切替えは、高速に行なわれるので、イメージ
メモリ38には、夫々の撮像装置6a,6bが画
像入力した最新の画像信号が貯えられる。撮像装
置6a,6bは、搬送車の前後に設けられている
ので、イメージメモリ38には、搬送車の進行方
向の前方の画像信号と、後方の画像信号とが記憶
されていることになる。画像プロセツサ40は、
プログラムメモリ39内に記憶されている画像処
理アルゴリズムに従つて、イメージメモリ38に
蓄積されている画像信号を用いて走行状態量を算
出する。なお、外乱光による視野領域の照度変
化、線3、路面マークの汚れによるコントラスト
の変化があつた場合には、負荷抵抗32が調整さ
れる。制御量演算部35は、画像処理部34の算
出した走行状態量をデータメモリ42に記憶し、
プログラムメモリ43に記憶されている操舵・走
行制御アルゴリズムに従つて、制御プロセツサ4
1により制御信号(操舵信号および走行信号)を
演算する。この制御信号は、制御部11に供給さ
れ、制御部11はこれらを指令信号として操舵機
構7a,7bおよび走行装置8を制御する。44
aと44bは制御アンプである。
Next, a configuration for controlling the automatic guided vehicle shown in FIGS. 1 to 3 will be explained using FIG. 4. In FIG. 4, 6a and 6b are imaging devices, and only 6a is disclosed in detail. 12 is a processing section, which includes an image processing section 34 and a control amount calculation section 35.
It consists of The control unit 11 includes a control amount calculation unit 3
5, and controls each steering mechanism 7a, 7b and traveling device 8 accordingly. Now, the imaging device 6a (same as 6b)
A camera 2 consisting of a filter 27 and a lens 28
An image is input through 9a. That is, the optical image input through the camera is transmitted to the solid-state image sensor 30.
By exciting the photodiodes 31 arranged in a matrix, a current is generated in the circuit, which is converted into a voltage via a load resistor 32, and then amplified by a preamplifier 33 to generate an electrical image signal. Input the image as . This input image signal is supplied to an analog/digital converter 37 in the image processing section 34 via a switch 36, and is converted into a digital signal. The image signal converted into a digital signal is stored in the image memory 38. The control signal input by the imaging device 6b is similarly supplied to the analog/digital converter 37 via the switch 36 and stored in the converter image memory 38 as a digital signal. Switcher 3
6 is performed at high speed, the image memory 38 stores the latest image signals inputted by the respective imaging devices 6a and 6b. Since the imaging devices 6a and 6b are provided at the front and rear of the transport vehicle, the image memory 38 stores an image signal from the front in the traveling direction of the transport vehicle and an image signal from the rear. The image processor 40 is
According to the image processing algorithm stored in the program memory 39, the running state quantity is calculated using the image signals stored in the image memory 38. Note that the load resistor 32 is adjusted when there is a change in illuminance in the viewing area due to disturbance light or a change in contrast due to dirt on the line 3 or road markings. The control amount calculation section 35 stores the running state amount calculated by the image processing section 34 in the data memory 42,
According to the steering/cruising control algorithm stored in the program memory 43, the control processor 4
1 to calculate control signals (steering signals and running signals). These control signals are supplied to the control section 11, and the control section 11 controls the steering mechanisms 7a, 7b and the traveling device 8 using these as command signals. 44
a and 44b are control amplifiers.

続いて、第5図により、操舵信号の演算手法を
説明する。いま、撮像装置6a,6bが入力した
画像が第5図の45,46であるとすると、夫々
3個所の固定ライン上のデータは、a1,a2,b1
b2,c1,c2およびa1′,a2′,b1′,b2′,c1′,c2
の位
置座標となる。そこで、あらかじめ撮像装置にお
いて決められた搬送台車の姿勢の画像46,45
の中心位置(図面上の垂直方向の一点領線であ
り、y0という)に対する画像45,46のそれぞ
れのマークの偏差を軌道ずれ量y1,y2、その傾き
12とし、これらを前記位置座標を用いて
演算部47では各走行状態量を演算する。予見走
行状態量、すなわち、前方の撮像装置から得らる
走行状態(y11,x1)は次のように求められ
る。
Next, a method of calculating the steering signal will be explained with reference to FIG. Now, assuming that the images input by the imaging devices 6a and 6b are 45 and 46 in FIG. 5, the data on the fixed lines at three locations are a 1 , a 2 , b 1 ,
b 2 , c 1 , c 2 and a 1 ′, a 2 ′, b 1 ′, b 2 ′, c 1 ′, c 2
The position coordinates of Therefore, images 46 and 45 of the posture of the transport vehicle determined in advance by the imaging device.
Let the deviations of the respective marks in images 45 and 46 from the center position (one-point line in the vertical direction on the drawing, called y 0 ) be the orbital deviation amounts y 1 and y 2 , and the inclinations thereof be 1 and 2 , and these The calculation unit 47 calculates each running state quantity using the position coordinates. The predicted running state quantity, that is, the running state (y 1 , 1 , x 1 ) obtained from the imaging device in front, is obtained as follows.

軌道ずれ量y1は、 y1=1/2(b1+b2)−y0 =1/4(a1+a2+c1+c2) ……(1) 姿勢角1は、 1=tan-11/2(c1+c2−a1−a2)/l ……(2) 位置x1はマークのカウント値で得られる。ま
た、履歴走行状態量、すなわち、後方の撮像装置
から得られる走行状態量(y22,x2)は次のよ
うに求められる。
The amount of orbital deviation y 1 is y 1 = 1/2 (b 1 + b 2 ) − y 0 = 1/4 (a 1 + a 2 + c 1 + c 2 )...(1) The attitude angle 1 is 1 = tan - 1 1/2 (c 1 +c 2 −a 1 −a 2 )/l (2) The position x 1 is obtained from the mark count value. Further, the historical running state quantity, that is, the running state quantity (y 2 , 2 , x 2 ) obtained from the rear imaging device is determined as follows.

軌道ずれ量y2は y2=1/2(b′1+b′2)−y0 =1/4(a′1+a′2+c′1+c′2) ……(3) 姿勢角2は、 2=tan-11/2(c′1+c′2−a′1−a′2)/l…
…(4) 位置x2はマークのカウント値で得られる。
The amount of orbital deviation y 2 is y 2 = 1/2 (b' 1 + b' 2 ) - y 0 = 1/4 (a' 1 + a' 2 + c' 1 + c' 2 )... (3) The attitude angle 2 is , 2 = tan -1 1/2 (c′ 1 +c′ 2 −a′ 1 −a′ 2 )/l…
...(4) The position x 2 is obtained from the mark count value.

また、予見走行状態量と履歴走行状態量を用い
て搬送台車の中央位置における走行状態量、すな
わち、現状走行状態量(y33,x3)は次のよう
に求められる。
Further, the running state quantity at the center position of the transport vehicle, that is, the current running state quantity (y 3 , 3 , x 3 ) is obtained as follows using the predicted running state quantity and the historical running state quantity.

軌道ずれ量y3は y3=1/2(y1+y2) ……(5) 姿勢角は 3=1/2(12) ……(6) 走行位置x3は x3=1/2(x1+x2) ……(7) このような各走行状態量を用いて、走行状態量
が小さくなるように前側と後側の各操舵機構に加
えられる操舵量δ1,δ2は、次のように決定され
る。
The amount of trajectory deviation y 3 is y 3 = 1/2 (y 1 + y 2 ) ...(5) The attitude angle is 3 = 1/2 ( 1 + 2 ) ... (6) The traveling position x 3 is x 3 = 1 /2 (x 1 + x 2 ) ...(7) Using these running state quantities, the steering amounts δ 1 , δ 2 are applied to the front and rear steering mechanisms so that the running state quantity becomes small. is determined as follows.

a) 高速直進区間および加速施回区間では δ1=G1{y1+(+d)1} ……(8) δ2=−G2{y2+(+d)2} ……(9) ただし、δ1:前輪(走行輪9a)の操舵量 δ2:後輪(走行輪9b)の操舵量 G1,G2:操作ゲイン定数 l:無人搬送車1の長さ d:撮像装置6aから前方被写体までの距離 b) 低速直進区間および減速施回区間では δ1=−G1{y1+(+d)1} ……(10) δ2=−G2{y2−(+d)2 …(11) c) 定常施回区間では δ1=δ2=−G3y3 ……(12) ただし、G3:操作ゲイン定数 尚、y3は式(5)で求めている。 a) In high-speed straight sections and acceleration sections, δ 1 = G 1 {y 1 + (+d) 1 } ...(8) δ 2 = -G 2 {y 2 + (+d) 2 } ...(9) However, δ 1 : Steering amount of front wheels (running wheels 9a) δ 2 : Steering amounts of rear wheels (running wheels 9b) G 1 , G 2 : Operation gain constant l: Length d of automatic guided vehicle 1: Imaging device 6a b) In the low-speed straight section and deceleration section, δ 1 = -G 1 {y 1 + (+d) 1 } ...(10) δ 2 = -G 2 {y 2 - (+d) 2 ...(11) c) In the steady cycle section, δ 1 = δ 2 = -G 3 y 3 (12) where G 3 is the operation gain constant. In addition, y 3 is obtained by equation (5).

このように、操舵量は、無人搬送車の走行モー
ドにより異なる。
In this way, the amount of steering changes depending on the driving mode of the automatic guided vehicle.

次に、第4図における画像処理部34と、制御
量演算部35の各処理動作フローを第6図aと第
6図bを用いて説明する。
Next, the flow of each processing operation of the image processing section 34 and the control amount calculation section 35 in FIG. 4 will be explained using FIGS. 6a and 6b.

まず、第6図aを用いて画像処理部34の処理
動作フローを説明する。まず、電源が投入される
と、ステツプ(a)で初期設定を行ない、以下ステツ
プ(b)から(p)が次の如く実行される。
First, the processing operation flow of the image processing section 34 will be explained using FIG. 6a. First, when the power is turned on, initial settings are performed in step (a), and steps (b) to (p) are executed as follows.

ステツプ(b):後述する2値化しきい値レベルに
関する撮像装置6a,6bのゲインを調節し、白
線又は路面マークの画像を確実に認識する様に行
なう。
Step (b): Adjust the gains of the imaging devices 6a and 6b regarding the binarization threshold level, which will be described later, so that images of white lines or road markings can be reliably recognized.

ステツプ(c),(c)′,(d):撮像装置6a,6bが
正常に動作することを確認した後に、走行路2面
上の情報を撮像装置6a,6bで画像化し、無人
搬送車1の走行路前方の障害物有無を確認すると
共に、白線3又は各マーク4a,4bを画像入力
する。
Steps (c), (c)', and (d): After confirming that the imaging devices 6a and 6b operate normally, the information on the two surfaces of the traveling path is converted into images by the imaging devices 6a and 6b, and the automated guided vehicle At the same time as confirming the presence or absence of obstacles in front of the driving route No. 1, the image of the white line 3 or each mark 4a, 4b is input.

ステツプ(e):プリアンプ33により増幅された
アナログ電圧を順次A/D変換器37に入力させ
ることで画像信号をデイジタル信号に変換する。
Step (e): The analog voltage amplified by the preamplifier 33 is sequentially input to the A/D converter 37 to convert the image signal into a digital signal.

ステツプ(f):そのデイジタル信号を画像プロセ
ツサ40に接続されたイメージメモリ38に転送
し、それを順次記憶させる。
Step (f): Transfer the digital signal to the image memory 38 connected to the image processor 40 and store it sequentially.

ステツプ(g)〜(i):イメージメモリ38に記憶さ
れたデイジタル信号の2値化処理すなわちデイジ
タルしきい値レベルを設定することで、そのレベ
ル値以上の信号を“1”にして、それ以下の信号
を“0”にする変換処理を行ない、記憶アドレス
を指定した後に、イメージメモリ38に再記憶さ
せる。その際、“1”信号を示している全面積を
出して、白線又は路面マークが検知されているか
どうかの判断を行ない、正常でない場合しきい値
をステツプ的に下げて行く。
Steps (g) to (i): Binarization processing of the digital signal stored in the image memory 38, that is, by setting a digital threshold level, signals above that level value are set to "1", and signals below that level are set to "1". After performing conversion processing to set the signal to "0" and specifying a storage address, the data is stored again in the image memory 38. At this time, the total area showing the "1" signal is output to determine whether a white line or road mark is detected, and if it is not normal, the threshold value is lowered in steps.

ステツプ(i):2値化処理した白線3又は路面マ
ーク4a,4bの“1”と“0”信号におけるエ
ツジ信号の特徴抽出を行ない、それぞれの二次元
アドレス(a1,a2)(c1,c2)並びに(a′1,a′2
(c′1,c′2)を算出する。
Step (i): Extract the features of the edge signals in the "1" and "0" signals of the binarized white line 3 or road markings 4a and 4b, and extract the respective two-dimensional addresses (a 1 , a 2 ) (c 1 , c 2 ) and (a′ 1 , a′ 2 )
Calculate (c′ 1 , c′ 2 ).

ステツプ(k)、(l):(j)で算出したアドレスから、
中心アドレス(1/2(a1+a2)、1/2(c1+c2))
、 (1/2(a′1+a′2)、1/2(c′1,c′2))を求
める。
Steps (k), (l): From the address calculated in (j),
Center address (1/2 (a 1 + a 2 ), 1/2 (c 1 + c 2 ))
, (1/2 (a' 1 + a' 2 ), 1/2 (c' 1 , c' 2 )).

ステツプ(l):撮像した白線3の画像とマーク4
aの画像の識別を行なう。なお、直進コースか旋
回コースかの判断はマーク形状の識別により実施
し、無人搬送車1の移動位置及び移動コースを把
握する。
Step (l): Captured image of white line 3 and mark 4
The image of a is identified. Note that the determination of whether the course is a straight course or a turning course is made by identifying the shape of the mark, and the movement position and movement course of the automatic guided vehicle 1 are ascertained.

ステツプ(m),(n):ステツプ(k)で求めた中
心アドレス値の内、第5図に示した如く、前方の
状態量すなわちy11および後方の状態量y22
を算出する。
Steps (m), (n): Among the center address values obtained in step (k), as shown in FIG. 5, the forward state quantities y 1 , 1 and the backward state quantities y 2 , 2
Calculate.

ステツプ(o),(p):ステツプ(l)〜(m)で
算出したマーク画像のカウント数r、軌道偏差量
y1,y2、姿勢角12及びマーク形状の識別等の
走行状態量を制御量演算部に順次転送する。そし
て、再度ステツプ(e)へジヤンプし、ステツプ(e)〜
(p)をくり返す。
Steps (o), (p): count number r of mark images calculated in steps (l) to (m), amount of trajectory deviation
Traveling state quantities such as y 1 , y 2 , attitude angles 1 and 2 , and mark shape identification are sequentially transferred to the control amount calculation section. Then jump to step (e) again, and step (e) ~
Repeat (p).

次に、制御量演算部35の処理動作フローを第
6図bを用いて説明する。
Next, the processing operation flow of the control amount calculating section 35 will be explained using FIG. 6b.

ステツプ(A):電源投入により初期設定が行なわ
れる。
Step (A): Initial settings are performed when the power is turned on.

ステツプ(B):移動すべき位置の移動番地No=
J設定し、操舵機構、走行装置を駆動する。
Step (B): Movement address No. of the position to be moved to
J setting and drive the steering mechanism and traveling device.

ステツプ(C):画像処理部34から転送され走行
状態量の信号の有無をチエツクする。
Step (C): The presence or absence of the driving state quantity signal transferred from the image processing section 34 is checked.

ステツプ(D):転送されてきた走行状態量に基づ
き、直進、旋回動作の判定を行ない、旋回動作の
場合ではステツプ(L)にジヤンプする。
Step (D): Based on the transferred running state quantity, it is determined whether the vehicle is going straight or turning, and if it is a turning motion, it jumps to step (L).

ステツプ(E):移動番地Jとカウント数rとの比
較を行ない、J≦r+1の場合にステツプ(H)にジ
ヤンプする。
Step (E): Compare the moving address J and the count number r, and jump to step (H) if J≦r+1.

ステツプ(F),(G):定常直進走行を行なつている
場合にこのステツプの動作が行なわれる。すなわ
ち、予見走行状態量y11を用いて、前述の(8)、
(9)式の演算を行ない、夫々の操舵量δ1,δ2が求め
られる。このδ1,δ2は、制御部11に出力され、
夫夫の操舵機構が制御される。
Steps (F) and (G): This step is performed when the vehicle is traveling steadily in a straight line. That is, using the predicted driving state quantities y 1 and 1 , the above (8),
By calculating equation (9), the respective steering amounts δ 1 and δ 2 are obtained. These δ 1 and δ 2 are output to the control unit 11,
The husband's steering mechanism is controlled.

ステツプ(H)〜(K):走行装置8を減速するために
制御部11に減速指令(走行信号の一種)を出力
する。そして、予見走行状態量と履歴走行状態量
のうち、y1,y212を用いて、夫々の操舵量
δ1,δ2を演算する。演算式は、前述の(10)、(11)式で
ある。このδ1,δ2は、制御部11に出力され、
夫々の操舵機構が制御される。そして、無人搬送
車1はタイマ動作により微速運転が行なわれた
後、目的位置に停止する。
Steps (H) to (K): In order to decelerate the traveling device 8, a deceleration command (a kind of traveling signal) is output to the control section 11. Then, the steering amounts δ 1 and δ 2 are calculated using y 1 , y 2 , 1 and 2 of the predicted driving state amount and the historical driving state amount. The calculation formulas are the above-mentioned formulas (10) and (11). These δ 1 and δ 2 are output to the control unit 11,
Each steering mechanism is controlled. Then, the automatic guided vehicle 1 is driven at a slow speed by a timer operation, and then stops at the target position.

ステツプ(L)〜(N):前方の撮像装置6aが走
行路上の旋回のマーク像を検知し、方の撮像装置
6bが直進走行路上のマーク像を検知する減速領
域の場合には、δ1,δ2は(10)、(11)式に従つて演算さ
れる。また、撮像装置6a,6bが夫々走行路上
の旋回のマーク像を検知した定常旋回区間の場合
には、δ1,δ2は(12)式に従つて演算される。また、
前方の撮像装置6aが直進の走行路上のマーク像
を検知し、後方の撮像装置6bがまだ旋回の走行
路上のマークを検出する加速区間の場合には、前
述の(8)、(9)式に従つてδ1,δ2が演算される。この
ようにして演算された操舵量は、操舵信号として
制御部11に供給され、各操舵機構7a,7bが
制御される。
Steps (L) to (N): In the case of a deceleration region where the front imaging device 6a detects a turning mark image on the road and the other imaging device 6b detects a mark image on the straight road, δ 1 , δ 2 are calculated according to equations (10) and (11). Further, in the case of a steady turning section in which the imaging devices 6a and 6b respectively detect turning mark images on the road, δ 1 and δ 2 are calculated according to equation (12). Also,
In the case of an acceleration section in which the front imaging device 6a detects a mark image on a straight road and the rear imaging device 6b detects a mark on a turning road, the above-mentioned equations (8) and (9) are used. δ 1 and δ 2 are calculated according to. The steering amount calculated in this way is supplied to the control unit 11 as a steering signal, and each steering mechanism 7a, 7b is controlled.

このように本実施例によれば、走行路領域を示
す線上に路面マークを設け、これを前後の撮像装
置が撮像することによつて、前方の予見走行状態
量と後方の履歴走行状態量とを求め、これらの走
行状態量によつてきめ細かに操舵制御を行なつて
いる。したがつて、無人搬送車は、走行路上を精
度良く走行することができる。もちろん、路面マ
ークは、搬送車の走行輪によつて破損されること
がない両側の線上に設けられており、マークの信
頼性は高い。
In this way, according to the present embodiment, road marks are provided on the lines indicating the driving road area, and the front and rear imaging devices capture images of the road marks, so that the predicted driving state quantity of the front and the historical driving state quantity of the rear can be calculated. These driving state quantities are used to perform detailed steering control. Therefore, the automatic guided vehicle can travel on the road with high precision. Of course, the road marks are provided on both sides of the road where they will not be damaged by the running wheels of the conveyance vehicle, and the marks are highly reliable.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明は、移動体の前後に
走行路を撮像する撮像装置を設け、前側の撮像装
置によつて予見走行状態量を求め、後側の撮像装
置によつて履歴走行状態量を求め、そして、直線
走行区間、高速走行区間および低速走行区間は、
前記予見走行状態量から前記前側の操舵機構を制
御するたの操舵量を求め、また、前記履歴走行状
態量から前記後側の操舵機構を制御するための操
舵量を求めて操舵を行い、一方、高速と低速の中
間の定常旋回区間では前後の操舵量を同一にさせ
るものであるので、精度の良い操舵ができるもの
である。すなわち、走行モードにより操舵量を調
整しているので、精度が良くなるものである。
As explained above, the present invention provides imaging devices that take images of the traveling path before and after a moving body, uses the front imaging device to obtain a predicted driving state quantity, and uses a rear imaging device to obtain a historical driving state quantity. Then, the straight running section, high speed running section, and low speed running section are as follows.
A steering amount for controlling the front steering mechanism is determined from the predicted driving state amount, and a steering amount for controlling the rear steering mechanism is determined from the historical driving state amount and steering is performed. In a steady turning section between high and low speeds, the front and rear steering amounts are made the same, allowing for highly accurate steering. That is, since the steering amount is adjusted depending on the driving mode, the accuracy is improved.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は無人搬送車の全体斜視図、第2図は無
人搬送車の側面図、第3図は操舵機構を含む走行
装置部分を示す図、第4図は本発明の一実施例を
示す図、第5図は操舵信号の演算手法を説明する
ための図、第6図a、第6図bは第4図に示す実
施例の動作を示す図面である。 1……無人搬送車、2……走行路、3……線、
4a,4b……路面マーク、6a,6b……撮像
装置、7a,7b……操舵機構、8……走行装
置、9a,9b……走行輪、11……制御部、1
2……処理部、34……画像処理部、35……制
御量演算部。
Fig. 1 is an overall perspective view of the automated guided vehicle, Fig. 2 is a side view of the automated guided vehicle, Fig. 3 is a diagram showing a traveling device including a steering mechanism, and Fig. 4 shows an embodiment of the present invention. 5 and 5 are diagrams for explaining the calculation method of the steering signal, and FIGS. 6a and 6b are diagrams showing the operation of the embodiment shown in FIG. 4. 1...Automated guided vehicle, 2...Travel path, 3...Line,
4a, 4b... road mark, 6a, 6b... imaging device, 7a, 7b... steering mechanism, 8... traveling device, 9a, 9b... running wheel, 11... control unit, 1
2...processing section, 34...image processing section, 35...control amount calculation section.

Claims (1)

【特許請求の範囲】 1 移動体に撮像装置を設け、該撮像装置の撮像
した画像信号を処理し、制御量を演算する処理部
の出力により移動体を誘導する移動体の誘導装置
において、該移動体の前後の走行路の線上のマー
クを撮像する前後の撮像装置と、該移動体の前後
の走行輪にそれぞれ設置される操舵機構と、前記
前側の撮像装置の画像信号を処理して前側の軌道
ずれ量と姿勢角とを有する予見走行状態量を求
め、また、前記後側の撮像装置の画像信号の画像
信号を処理して後側の軌道ずれ量と姿勢角とを有
する履歴走行状態量を求める画像処理部と、前記
予見走行状態量および前記履歴走行状態量から前
記前後側の操舵機構を制御するための操舵量を求
め、前記それぞれの操舵量を前記前後の操舵機構
に出力する制御量演算部と、からなり、 該制御量演算部は、直線走行区間、高速走行区
間および低速走行区間は、前記予見走行状態量か
ら前記前側の操舵機構を制御するための操舵量を
定め、また、前記履歴走行状態量から前記後側の
操舵機構を制御するための操舵量を求めており、
一方、高速と低速の中間の定常旋回区間では前後
の操舵量を同一にさせるものであること、 を特徴とする移動体の誘導装置。
[Scope of Claims] 1. A guiding device for a moving body that includes an imaging device in a moving body, processes an image signal captured by the imaging device, and guides the moving body using the output of a processing unit that calculates a control amount. front and rear imaging devices that capture images of marks on the running path in front and behind the moving object; steering mechanisms installed on the front and rear running wheels of the moving object; A predicted traveling state quantity having a trajectory deviation amount and an attitude angle of is calculated, and the image signal of the image signal of the rear side imaging device is processed to obtain a historical driving state having a rear side trajectory deviation amount and an attitude angle. an image processing unit that calculates a steering amount, and calculates a steering amount for controlling the front and rear steering mechanisms from the predicted driving state amount and the historical driving state amount, and outputs the respective steering amounts to the front and rear steering mechanisms. a control amount calculation section, the control amount calculation section determines a steering amount for controlling the front steering mechanism from the predicted driving state quantity in a straight running section, a high speed running section, and a low speed running section; Further, a steering amount for controlling the rear steering mechanism is determined from the historical traveling state amount,
On the other hand, a guidance device for a moving object, characterized in that in a steady turning section between high speed and low speed, the amount of front and rear steering is made the same.
JP59015131A 1984-02-01 1984-02-01 Guiding device of mobile body Granted JPS60160413A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59015131A JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59015131A JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Publications (2)

Publication Number Publication Date
JPS60160413A JPS60160413A (en) 1985-08-22
JPH0410645B2 true JPH0410645B2 (en) 1992-02-26

Family

ID=11880266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59015131A Granted JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Country Status (1)

Country Link
JP (1) JPS60160413A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115241A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP2006115240A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP5298959B2 (en) * 2009-03-03 2013-09-25 株式会社安川電機 Moving body
JP7166051B2 (en) * 2017-10-05 2022-11-07 株式会社前川製作所 automated guided vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5112531A (en) * 1974-07-18 1976-01-31 Kogyo Gijutsuin
JPS53141897A (en) * 1977-05-16 1978-12-11 Hitachi Ltd Coolant heating device of reactor
JPS54145881A (en) * 1978-05-08 1979-11-14 Agency Of Ind Science & Technol Automatic transfer system
JPS5512605A (en) * 1978-07-12 1980-01-29 Nippon Telegraph & Telephone Method of manufacturing sea bottom calbe sheath wire
JPS5710445A (en) * 1980-06-23 1982-01-20 Okinawa Autom Kk Soil moisture detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5112531A (en) * 1974-07-18 1976-01-31 Kogyo Gijutsuin
JPS53141897A (en) * 1977-05-16 1978-12-11 Hitachi Ltd Coolant heating device of reactor
JPS54145881A (en) * 1978-05-08 1979-11-14 Agency Of Ind Science & Technol Automatic transfer system
JPS5512605A (en) * 1978-07-12 1980-01-29 Nippon Telegraph & Telephone Method of manufacturing sea bottom calbe sheath wire
JPS5710445A (en) * 1980-06-23 1982-01-20 Okinawa Autom Kk Soil moisture detector

Also Published As

Publication number Publication date
JPS60160413A (en) 1985-08-22

Similar Documents

Publication Publication Date Title
US5155684A (en) Guiding an unmanned vehicle by reference to overhead features
CN101959739B (en) Vehicle travel support device, vehicle
JPH07120194B2 (en) Driving control method and apparatus for automatic guided vehicle
EP3075427B1 (en) Racing vehicle game
EP0366350A2 (en) Guiding an unmanned vehicle by reference to overhead features
JP6286465B2 (en) Autonomous vehicle
JP2707546B2 (en) Vehicle steering control device
CN112108807A (en) Crawling welding robot and welding position tracking method
JPH0410645B2 (en)
JP2002157015A (en) Traveling control method for mobile vehicle
JP2001005525A (en) Unmanned carriage system
JPS61294512A (en) Unmanned carrier
KR100198023B1 (en) Steering angle control apparatus of a manless car
JP2021149125A (en) Autonomous moving device and autonomous moving device control method
JPS61196306A (en) Guide controller for traveling object
JP3118242B2 (en) Traveling car
KR20000056734A (en) Position inspecting apparatus for agv(automated guided vehicle) and method thereof
JP2515733B2 (en) How to guide an unmanned vehicle
JPH1020934A (en) Guide steering device for unmanned driving vehicle
JP2733924B2 (en) Travel control device for moving objects
JPH0334087B2 (en)
JPS5844242B2 (en) Follow-up steering signal generator
JPH0196706A (en) Unmanned carrier
JPH01251209A (en) Unmanned car running device
JPH0512803Y2 (en)