JPS60160413A - Guiding device of mobile body - Google Patents

Guiding device of mobile body

Info

Publication number
JPS60160413A
JPS60160413A JP59015131A JP1513184A JPS60160413A JP S60160413 A JPS60160413 A JP S60160413A JP 59015131 A JP59015131 A JP 59015131A JP 1513184 A JP1513184 A JP 1513184A JP S60160413 A JPS60160413 A JP S60160413A
Authority
JP
Japan
Prior art keywords
steering
mark
image
control
running
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59015131A
Other languages
Japanese (ja)
Other versions
JPH0410645B2 (en
Inventor
Toshiaki Makino
俊昭 牧野
Hideki Tanaka
秀樹 田中
Yoshitaka Itakura
板倉 慶隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59015131A priority Critical patent/JPS60160413A/en
Publication of JPS60160413A publication Critical patent/JPS60160413A/en
Publication of JPH0410645B2 publication Critical patent/JPH0410645B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Abstract

PURPOSE:To obtain steering and stable driving with high accuracy by picking up the image of a road mark at the driving path region by means of an image pickup device before and after the mark and obtaining the forecast drive state amount in front and the history drive state amount at the back to apply steering control. CONSTITUTION:An unattended truck 1 is driven by detecting a road mark 4 adhered onto a line 3 of a drive path 2. The image pickup device 6 is fitted before and after the unattended truck 1, detects the said mark 4 and a driver 8 controls a steering mechanism 7 fitted to a drive wheel 9 and drive wheels 9, 10. Moreover, a steering signal and a drive signal are inputted to a control section of a control panel 11 to control the steering mechanism 7 and the driver 8 and a processing section 12 processes data. In this case, the image pickup device 6a detects the mark 4a in front of the truck 1 to operate the forecast drive state amount and the image pickup device 6b detects the mark 4b at the back to operate the history drive state amount respectively and the forward/reverse steering signal is operated from both the state amounts.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、走行路面上に貼付されたマークな撮像装置で
撮像し、これを画像処理して予定走行路からのずれ量を
め、このずれをなくすよう移動体を誘導する移動体の誘
導装置に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention captures an image using a mark-like imaging device affixed on a running road surface, processes the image to determine the amount of deviation from the planned running road, and calculates the amount of deviation from the planned running road. The present invention relates to a guiding device for a moving body that guides the moving body so as to eliminate the problem.

〔発明の背景〕[Background of the invention]

移動体の代表的なものの一つに無人搬送車があるが、こ
の無人搬送車を指定された走行路に沿って移動させるに
は、走行状況を検出する走行検出装置が必要である。
One of the typical moving objects is an automatic guided vehicle, and in order to move this automatic guided vehicle along a designated travel route, a traveling detection device is required to detect the traveling situation.

従来、この走行検出装置としては、電磁誘導式。Conventionally, this running detection device was of the electromagnetic induction type.

テープ光学式、静電容量式、超音波式、視覚誘導式など
が知られている。このうち、視覚誘導方式のものは、走
行路の中央に等間隔にマークを貼付し、移動体上に取付
けられた撮像装置がそのマークを撮像し、これを画像処
理して予定走行路からのずれ量を検出するものである。
Tape optical type, capacitive type, ultrasonic type, visual guidance type, etc. are known. Among these, the visual guidance type attaches marks at equal intervals in the center of the travel route, and an imaging device attached to the moving object captures images of the marks, which are then image-processed to determine the route from the planned route. This detects the amount of deviation.

したがって、視覚誘導方式を用いた誘導装置は、このよ
うにして検出された状態量を利用して、移動体を予定走
行路上に誘導するものである。
Therefore, a guidance device using a visual guidance system guides a mobile object onto a planned travel route by utilizing the state quantity detected in this manner.

しかし、従来公知のこの種誘導装置では、移動体前方の
走行状況、すなわち移動体前方における移動体の軌道ず
れ、傾き、移動量を検知し、これを予見情報として左右
両側の走行輪を駆動する2台のモータの速度差を制御し
て操舵している。あるいは、車輪に操舵機構を取付けて
、前述の予見情報を利用して操舵制御している。
However, conventionally known guidance devices of this type detect the running situation in front of the moving object, that is, the trajectory deviation, inclination, and amount of movement of the moving object in front of the moving object, and use this as predictive information to drive the running wheels on both the left and right sides. Steering is performed by controlling the speed difference between the two motors. Alternatively, a steering mechanism is attached to the wheels, and the aforementioned predictive information is used to control the steering.

したがって、このような制御のみでは、移動体が走行路
上を左右に大きく蛇行してしまい、安定な走行が難しい
Therefore, if only such control is used, the moving object will meander significantly from side to side on the traveling road, making it difficult to run stably.

また、一方、従来のこの種誘導装置では、マークは移動
体の走行路中央部に設けられており、移動体の車輪がそ
のマーク上を移動するなどのためマークが汚れたり、傷
が発生したり、欠落部が生じたりするので、マークの信
頼性が問題となっている。
On the other hand, in conventional guidance devices of this type, the mark is provided in the center of the travel path of the moving object, and as the wheels of the moving object move over the mark, the mark may become dirty or scratched. The reliability of the mark is a problem because the marks may be damaged or missing parts may occur.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、晶精度の操舵を行なうことのできる移
動体の銹導装置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a steering device for a moving body that can perform crystal-accurate steering.

〔発明の概要〕 本発明は、マークを移動体の走行路を形成する両011
1の線上に設け、移動体の前後に夫々該マークを撮像す
る撮像装置を設け、該移動体の前行の走行輪に夫々操舵
機構を設け、ITI記夫々の擾像I装置の撮像した映像
を夫々画像処理して前方の予見走行状態量と後方の履歴
走行状態量とを検出する画像処理部と、該予見走行状態
量および該履歴走行状態量を用いて前記夫々の操舵機構
に対する操舵信号を決定する制御量演算部と、該操舵信
号により前記操舵機構を制御する制御部を設けたことを
特徴とする。
[Summary of the Invention] The present invention provides a method for marking marks forming a travel path for a moving body.
1, an imaging device is provided to take an image of the mark at the front and rear of the moving body, and a steering mechanism is provided on each of the front running wheels of the moving body, and the image taken by the imager I device of each ITI is provided. an image processing unit that detects a forward predicted running state quantity and a backward historical running state quantity by image processing, respectively; and a steering signal for each of the steering mechanisms using the predicted running state quantity and the historical running state quantity. The present invention is characterized in that it includes a control amount calculation section that determines the amount of control, and a control section that controls the steering mechanism using the steering signal.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明を具体的な実施例に基づき詳細に説明する
Hereinafter, the present invention will be explained in detail based on specific examples.

まず、第1図〜第3図により移動体の一種である無人搬
送車の全体構成を説明する。第1図は無人搬送車の全体
斜視図であり、第2図はその側面図であり、第3図は操
舵機構を含む走行装置部分を示す図である。第1図と第
2図において、1は無人搬送車であり、走行路2上を走
行する。3は走行路を形成するための線である。つまり
、紳3の内側が無人搬送車の走行路である。4a、4b
は線3上に貼付された路面マークであり、無人搬送It
flはこのマークを利用°して走行する。6a。
First, the overall configuration of an automatic guided vehicle, which is a type of moving object, will be explained with reference to FIGS. 1 to 3. FIG. 1 is an overall perspective view of the automatic guided vehicle, FIG. 2 is a side view thereof, and FIG. 3 is a diagram showing a traveling device portion including a steering mechanism. In FIGS. 1 and 2, reference numeral 1 denotes an automatic guided vehicle that travels on a travel path 2. 3 is a line for forming a running route. In other words, the inside of Gen 3 is the travel path of the automatic guided vehicle. 4a, 4b
is a road mark pasted on line 3, and unmanned transportation It
fl uses this mark to drive. 6a.

6bは無人搬送車1の前後に取付けられた撮像装置であ
り、これによりマーク4a、4bを夫々撮像する。5a
と5bは夫々の撮像装置の撮像領域(視野領域)を示す
。7a 、7bは前後の走行輪に取付けられた操舵機構
である。8は搬送車を走行させるための走行装置である
。9’ a 、 9 bは前後に設けられる走行輪、1
0a、10bは左右に設けられる走行輪である。なお、
9a、9bが駆動輪、10a、10bは従属輪となって
いる。11は制御盤であり、操舵信号および走行信号を
入力し、操舵機構および走行!J置を制御する制御部を
含む。】2はデータを処理する処理部であり、撮像した
情報から走行状態量を演算する画像処理部と、走行状態
量から制御信号(操舵信号および走行信号)を演算する
制御′I#演算部とを含む。13は電力を各装置に供給
するバッテリー装置、14は荷台、15は地上通信局か
らの走行指令信号を受信するための無線装置である。第
1図、第2図における操舵機構7a、走行装置8.走行
輪9aの部分を詳細に示しているのが第3図である。第
3図において、走行装置8は、走行モータ16と、モー
タ軸17aにカップリング接続された軸17bと、平歯
車I8.19と、その平歯車18 、19の動力伝達の
回転方向を直角方向に変換する傘歯車、20a、20b
と、その傘歯車の主軸21aと、両端軸受22a、22
bと、走行輪9aと主軸21とをボス結合する部材21
bとで構成されている。そして、ケーシングnは、平歯
車列18゜19、傘歯東列20a、20b、主軸21a
1両端軸受na122b等を一体化している。操舵機構
7aは、車体側に固定されており、操舵モータ5と、こ
のモータの回転動作を軸を介して減速する平歯車24a
と、主軸24bをケーシング23に固定する部材Iとで
構成される。操舵モータ25の回転にょリケーシング久
を揺動させることによって操舵を行なう構成となってい
る。なお、図示しないけれども、操舵a#7bは、同様
の構成であり、走行輪9bを揺動させるようになってい
る。
6b is an imaging device attached to the front and rear of the automatic guided vehicle 1, which images the marks 4a and 4b, respectively. 5a
and 5b indicate the imaging area (field of view) of each imaging device. 7a and 7b are steering mechanisms attached to the front and rear running wheels. 8 is a running device for running the carrier. 9'a and 9b are running wheels provided at the front and rear;
0a and 10b are running wheels provided on the left and right sides. In addition,
9a and 9b are driving wheels, and 10a and 10b are subordinate wheels. Reference numeral 11 denotes a control panel, into which steering signals and running signals are input, and the steering mechanism and running! It includes a control section that controls the J position. 2 is a processing unit that processes data, including an image processing unit that calculates running state quantities from imaged information, and a control 'I# calculation unit that calculates control signals (steering signals and running signals) from the running state quantities. including. 13 is a battery device that supplies power to each device; 14 is a loading platform; and 15 is a wireless device for receiving travel command signals from a ground communication station. The steering mechanism 7a and the traveling device 8 in FIGS. 1 and 2. FIG. 3 shows the running wheel 9a in detail. In FIG. 3, the traveling device 8 has a traveling motor 16, a shaft 17b coupled to a motor shaft 17a, a spur gear I8.19, and the rotational direction of power transmission between the spur gears 18 and 19 at right angles. Bevel gears, 20a, 20b to be converted into
, the main shaft 21a of the bevel gear, and both end bearings 22a, 22
b, and a member 21 that connects the running wheel 9a and the main shaft 21 with a boss.
It is composed of b. The casing n includes a spur gear train 18°19, an east row of bevel teeth 20a, 20b, and a main shaft 21a.
1. Both end bearings na122b etc. are integrated. The steering mechanism 7a is fixed to the vehicle body side and includes a steering motor 5 and a spur gear 24a that decelerates the rotational movement of this motor via a shaft.
and a member I that fixes the main shaft 24b to the casing 23. Steering is performed by rotating the steering motor 25 and swinging the casing. Although not shown, the steering wheel a#7b has a similar configuration and is configured to swing the running wheels 9b.

次に、第1図〜第3図に示す無人搬送車な制御するため
の構成について、第4図を用いて説明する。第4図にお
いて、6a、6b1.を撮像装置であり、6aのみを詳
細に開示している。12は処理部であり、画像処理部具
と、制御量演算部35とで構成される。制御部11は、
制御量演算部35の出力である制御信号を受取り、これ
に応じて各操舵機構7a、7bおよび走行装置8を制御
する。さて、撮像装置6a(6bも同じ)は、線3およ
びその上に貼付された路面マーク4aをフィルタTおよ
びレンズ不で構成されたカメラ29aを通して画像入力
する。すなわち、カメラを通して入力された光学画像は
、固体操像素子田上に投影され、マトリクス状に配置さ
れた光ダイオード31を励起させることにより回路に雷
、流を発生させ、これを負荷抵抗32を介して■圧に変
換した後、プリアンプ33で増幅して電気的画像信号と
して画像入力する。
Next, a configuration for controlling the automatic guided vehicle shown in FIGS. 1 to 3 will be explained using FIG. 4. In FIG. 4, 6a, 6b1. is an imaging device, and only 6a is disclosed in detail. Reference numeral 12 denotes a processing unit, which is composed of an image processing unit and a control amount calculation unit 35. The control unit 11 is
It receives the control signal that is the output of the control amount calculation section 35, and controls each of the steering mechanisms 7a, 7b and the traveling device 8 in accordance with the control signal. Now, the imaging device 6a (same as 6b) inputs an image of the line 3 and the road mark 4a attached thereon through a camera 29a configured with a filter T and no lens. That is, the optical image input through the camera is projected onto the solid-state image element Tagami, and excites the photodiodes 31 arranged in a matrix to generate lightning current in the circuit, which is transmitted through the load resistor 32. After converting the signal into a voltage, the preamplifier 33 amplifies the signal and inputs the image as an electrical image signal.

この入力された画像信号は、切杉器田な介して画像処理
部34内のアナログ/ディジタル変換器37に供給され
、ディジタル信号に変換される。ディジタル信号に変換
された画像信号は、イメージメモリ38に記憶される。
This input image signal is supplied to the analog/digital converter 37 in the image processing section 34 via Kirisugi Kita, and is converted into a digital signal. The image signal converted into a digital signal is stored in the image memory 38.

撮像装置!!6bによって入力された画像信号も、同様
に切換器36を介してアナログ/ディジタル変換91!
37に供給され、ディジタル信号に変換器イメージメモ
リ38に記憶される。切替器Iの切替えは、高速に行な
われるので、イメージメモリ3Bには、夫々の撮像装置
6a、6bが画像入力した最新の画像信号が貯えられる
。撮像装置6a、6bは、搬送車の前後に設けられてい
るので、イメージメモ1J3Bには、搬送車の進行方向
の前方の画像信号と、後方の画像信号とが記憶されてい
ることになる。画像プロセッサ40は、プログラムメモ
リ39内に記憶されている画像処理アルゴリスムに従っ
て、イメージメモリ38に蓄積されている画像信号を用
いて走行状態量を算出する。
Imaging device! ! The image signal inputted by 6b is also analog/digital converted 91! via the switch 36.
37 and stored in a converter image memory 38 as a digital signal. Since the switching of the switching device I is performed at high speed, the image memory 3B stores the latest image signals input by the respective imaging devices 6a and 6b. Since the imaging devices 6a and 6b are provided at the front and rear of the transport vehicle, the image memo 1J3B stores an image signal from the front in the traveling direction of the transport vehicle and an image signal from the rear. The image processor 40 calculates the running state amount using the image signals stored in the image memory 38 according to an image processing algorithm stored in the program memory 39.

なお、外乱光による視野領域の照度変化、線3゜路面マ
ークの汚れによるコントラストの変化があった場合には
、負荷抵抗32が調整される。制御量演算部35は、画
像処理部34の算出した走行状態量をデータメモリ42
に記憶し、プログラムメモリaに記憶されている操舵・
走行制御アルゴリズムに従って、制御プロセッサ41に
より制御信号(操舵信号および走行信号)を演算する。
Note that the load resistor 32 is adjusted when there is a change in illuminance in the viewing area due to disturbance light or a change in contrast due to dirt on the line 3° road surface mark. The control amount calculation section 35 stores the running state amount calculated by the image processing section 34 in the data memory 42.
and the steering/control data stored in program memory a.
Control signals (steering signals and running signals) are calculated by the control processor 41 according to the running control algorithm.

この制御信号は、制御部11に供給され、制御部11は
これらを指令信号として操舵e構7a、7bおよび走行
装置8を制御する。44aと44bは制御アンプである
These control signals are supplied to the control section 11, and the control section 11 controls the steering mechanisms 7a, 7b and the traveling device 8 using these as command signals. 44a and 44b are control amplifiers.

続いて、第5図により、操舵信号の演算手法を説明する
。い覧、撮像装置fia、6bが入力した画像が第5図
の45 、46であるとすると、夫々3個所の固定ライ
ン上のデータは、al、a2.bllb2゜CI + 
C2およびaH,a;、 b;、 bH,c;、 c;
の位置座標となる。これらを用いて、演算部47では各
走行状態mを演算する。予見走行状態量、すなわち、前
方の撮像装置から得られる走行状態量(y1+91゜x
l)は次のようにめられる。
Next, a method of calculating the steering signal will be explained with reference to FIG. Assuming that the images input by the imaging devices fia and 6b are 45 and 46 in FIG. 5, the data on the three fixed lines are al, a2, . bllb2゜CI +
C2 and aH,a;, b;, bH,c;, c;
The position coordinates of Using these, the calculation unit 47 calculates each running state m. The predicted running state quantity, that is, the running state quantity obtained from the front imaging device (y1+91°x
l) can be calculated as follows.

軌道ずれ迭y1は、 y1=]璽(b1+b2) 一’ (a1+ a2+cl+ c2) ・−−・= 
(11位W Xlはマークのカウント値で得られる。ま
た、履歴走行状態量、すなわち、後方の撮像装置から得
られる走行状B it (y2 +92+X2)は次の
ようにめられる。
The trajectory deviation y1 is as follows: y1=] (b1+b2) 1' (a1+ a2+cl+ c2) ・---・=
(The 11th place W Xl is obtained from the mark count value. Also, the historical running state quantity, that is, the running state B it (y2 + 92 + X2) obtained from the rear imaging device is determined as follows.

軌道ずれ景y2は 1 / 7 y2= −T−(J+ b2) 1 / I−17 −T(81+a2+ cI+c2) −−−−−(3)
位置x2はマークのカウント値で得られる。
Orbit deviation view y2 is 1/7 y2= -T-(J+ b2) 1/I-17 -T(81+a2+ cI+c2) ------(3)
The position x2 is obtained from the mark count value.

また、予見走行状態量と履歴走行状1!!量を用いて搬
送台車の中央位置における走行状態量、すなゎち、現状
走行状態量(ys +色、x3)は次のようにめられる
In addition, the predicted running state quantity and historical running state 1! ! Using the quantity, the running state quantity at the center position of the transport vehicle, that is, the current running state quantity (ys + color, x3) can be determined as follows.

軌道ずれQ ysは −」− ys−2(Y1+ y2) ・曲・・凹曲(5)姿勢角
ψは ψ3=−T−(ψ1+92) ・・・・・・曲・曲(6
)走行位rI1.x3は x3= 1(x1+x2) ++++++++(7)こ
のような各走行状態量を用いて、前側と後側の各操舵8
!構に加えられる操舵量δ1.a2は、次のように決定
される。
Orbit deviation Q ys is -" - ys-2 (Y1+ y2) ・Curve... Concave bend (5) Attitude angle ψ is ψ3=-T-(ψ1+92) ......Song (6)
) Traveling position rI1. x3 is x3 = 1 (x1 + x2) +++++++++++ (7) Using each of these driving state quantities, each front side and rear side steering 8
! The amount of steering applied to the structure δ1. a2 is determined as follows.

a)高速直進区間および加速旋回区間ではδ1= 01
()’1+(1+d ) ψ1)・・・・・・・・・・
・・・・・(8)δz−−02()’2+ (1+ a
 )ψ2)・・・・・・・・・・・・・・・(9)ただ
し、δ1’、W輪(走行輪9a)の操舵量δ2:後輪(
走行輪9b)の操舵量 Gl、G2:操作ゲイン定数 l!:無人搬送車1の長さ d:撮像装Mj6aから前方被写体までの距離b)低速
直進区間および減速旋回区間ではδ=−01(y1+(
l!+d)ψ1)・・・凹曲曲(1゜δ= 02(3’
z+(/+d)ψ2) ・・・・・・・・・・・・・・
・Qjただし、G3:操作ゲイン定数 このように、操舵量は、無人搬送車の走行モードにより
異なる。
a) δ1 = 01 in high-speed straight sections and accelerated turning sections
()'1+(1+d) ψ1)・・・・・・・・・・・・
...(8) δz--02()'2+ (1+ a
)ψ2)・・・・・・・・・・・・・・・(9) However, δ1', steering amount δ2 of W wheel (running wheel 9a): rear wheel (
Steering amount Gl, G2 of running wheel 9b): operation gain constant l! : Length d of the automatic guided vehicle 1 : Distance from the imaging device Mj6a to the front subject b) In the low-speed straight section and deceleration turning section, δ=-01(y1+(
l! +d)ψ1)...Concave curve (1°δ= 02(3'
z+(/+d)ψ2) ・・・・・・・・・・・・・・・
-Qj However, G3: Operation gain constant As described above, the steering amount differs depending on the driving mode of the automatic guided vehicle.

次に、第4図における画像処理部34と、制御量演算部
あの各処理動作フローを第6図(alと第6図(blを
用いて説明する。
Next, the flow of each processing operation of the image processing section 34 and the control amount calculation section in FIG. 4 will be explained using FIG. 6 (al) and FIG. 6 (bl).

まず、第6図(alを用いて画像処理部Mの処理動作フ
ローを説明する。まず、電源が投入されると、ステップ
(alで初期設定を行ない、以下ステップ(blから(
p)が次の如く実行される。
First, the processing operation flow of the image processing unit M will be explained using FIG.
p) is executed as follows.

ステップ(bl:後述する2#化しきい値レベルに関す
る撮像装置6a 、6bのゲインを調節し、白線又は路
面マークの画像を確実に認識する様に行なう。
Step (bl: Adjust the gains of the imaging devices 6a and 6b regarding the 2# threshold level, which will be described later, so as to reliably recognize images of white lines or road markings.

ステップ(cl 、 (cl’ 、 (dl : m像
装置156a、6bが正常に動作することを確認した後
に、走行路2面上の情景を撮像装置6a、6bで画像化
し、無人搬送車1の走行路前方の障害物有無を確認する
と共に、白線3又は各マーク4 a * 4 bを画像
入力する。
Steps (cl, (cl', (dl: m) After confirming that the imaging devices 156a and 6b operate normally, the image capturing devices 6a and 6b image the scene on the two surfaces of the running path, and The presence or absence of obstacles in front of the driving path is confirmed, and the image of the white line 3 or each mark 4a*4b is input.

ステップ(e):プリアンプ田により増幅されたアナロ
グ電圧を順次A/D変換器37に入力させることで画像
信号をディジタル信号に変換する。
Step (e): The analog voltage amplified by the preamplifier is sequentially input to the A/D converter 37 to convert the image signal into a digital signal.

ステップ(f):そのディジタル信号を画像プロセッサ
菊に接続されたイメージメモリ羽に転送し、それを順次
記憶させる。
Step (f): Transfer the digital signal to an image memory blade connected to the image processor and store it sequentially.

ステップ(gl〜(j) :イメージメモリ38に記憶
されたディジタル信号の2値化処理すなわちディジタル
しきい値レベルを設定することで、そのレベル値以上の
信号な“1″にして、それ以下の信号な°0°にする変
換処理を行ない、記憶アドレスを指定した後に、イメー
ジメモリ38に再記憶させる。
Steps (gl~(j): Binarization processing of the digital signal stored in the image memory 38, that is, by setting a digital threshold level, signals above that level value are set to "1", and signals below that level are set to "1". After converting the signal to 0° and specifying a storage address, it is stored again in the image memory 38.

その際、”1″信号を示している全面積を出して、白線
又は路面マークが検知されているかどうかの判断を行な
い、正常でない場合しきい値をステップ的に下げて行4
゜ ステップ0):2値化処理した白線3又は路面マーク4
a、4bの′″11と10ゝ信吟におけるエツジ信号の
特徴抽出を行ない、それぞれの二次元アトL/ ス(J
+ G2) (CIl 02)並びに(81、;l2)
(e’1+c2)を算出する。
At that time, the total area showing the "1" signal is output to determine whether a white line or road mark is detected, and if it is not normal, the threshold value is lowered step by step.
゜Step 0): Binarized white line 3 or road mark 4
Extract the features of the edge signals in ``11'' and ``10'' of a and 4b, and extract the features of the edge signals in ``11 and 10'' of a and 4b, and calculate
+ G2) (CIl 02) and (81,;l2)
(e'1+c2) is calculated.

ステップ(kl 、 (/’l : (jlで算出した
アドレスから、中心アドレス(+(a1+82) + 
z (c1+ G2) ) T(T(a1+ G2) 
、2 (cl+ G2) )をめる。
Step (kl, (/'l: (From the address calculated in jl, center address (+(a1+82) +
z (c1+G2) ) T(T(a1+G2)
, 2 (cl+G2)).

ステップ顛:撮像した白線3の画像とマーク4aの画像
の識別を行なう。なお、直進コースか旋回コースかの判
断はマーク形状の識別により実施し、無人搬送車1の移
動位置及び移動コースを把握する。
Step 2: The captured image of the white line 3 and the image of the mark 4a are identified. Note that the determination of whether the course is a straight course or a turning course is made by identifying the shape of the mark, and the movement position and movement course of the automatic guided vehicle 1 are ascertained.

ステップ−、(nl ニステップ(klでめた中心アド
レス値の内、第5図に示した如く、前方の状態量すなわ
ち)’++9’iおよび後方の状襲Ry2 +92を算
出する。
Step -, (nl nistep (among the center address values determined by kl, as shown in FIG. 5, the forward state quantity, that is)'++9'i and the rear attack Ry2 +92 are calculated.

ステップ(ol 、 (p) ニステップf)〜(至)
で算出したマーク画像のカウント数r、軌道偏差量Y1
+3’2+姿勢角ψ1.ψ2及びマーク形状の識別等の
走行状態量を制御量演算部に順次転送する。そして、再
度ステップfe)ヘジャンプし、ステップ(el〜(p
lをくり返す。
Step (ol, (p) Nistep f) ~ (to)
The count number r of mark images calculated by, the orbit deviation amount Y1
+3'2+attitude angle ψ1. The running state quantities such as ψ2 and mark shape identification are sequentially transferred to the control amount calculation unit. Then, jump to step fe) again and step (el~(p
Repeat l.

次に、制御量演算部あの処理動作フローを第6図(bl
を用いて説明する。
Next, the processing operation flow of the control amount calculation section is shown in FIG.
Explain using.

ステップ(5)二電源投入により初期設定が行なわれる
Step (5) Initial settings are performed by turning on the power.

ステップ(E):移動すべき位置の移動番地冷=Jを設
定し、操舵機構、走行装置を駆動する。
Step (E): Set the moving address = J of the position to be moved, and drive the steering mechanism and traveling device.

ステップ(O:画像処理部あから転送される走行状態量
の信号の有無をチェックする。
Step (O: Check the presence or absence of the driving state quantity signal transferred from the image processing unit A.

ステップ(ト):転送されてきた走行状態量に基づき、
直進、旋回動作の判定を行ない、旋回動作の場合ではス
テップ(ト)にジャンプする。
Step (g): Based on the transferred running state quantity,
It determines whether it is going straight or turning, and if it is turning, it jumps to step (G).

ステップ(D:移動番地Jとカウント数rとの比較を行
ない、J≦r+1の場合にステップ0に)ジャンプする
Jump to step (D: Compare the moving address J and the count number r, and if J≦r+1, go to step 0).

ステップ(Fl 、 TG :定常直進走行を行なって
いる場合にこのステップの動作が行なわれる。すなわち
、予見走行状態Ji yl +91を用いて、前述の(
8)。
Step (Fl, TG: The operation of this step is performed when steady straight-ahead driving is performed. In other words, using the predicted driving state Ji yl +91, the above-mentioned (
8).

(9)式の演算を行ない、夫々の操舵量δ1.δ2がめ
られる。このδl、δ2は、制御部11に出力され、夫
夫の操舵機構が制御される。
(9) is calculated, and each steering amount δ1. δ2 is observed. These δl and δ2 are output to the control unit 11, and the husband's steering mechanism is controlled.

ステップ0〜(6):走行装置8を減速するために制御
部11に減速指令(走行信号の一種)を出力する。そし
て、予見走行状態量と履歴走行状態量のうち、)’1 
+ 3’2 +ψl、ψ2を用いて、夫々の操舵量δ1
゜δ2を演算する。演算式は、前述のQO、(111式
である。
Steps 0 to (6): A deceleration command (a type of traveling signal) is output to the control unit 11 in order to decelerate the traveling device 8. Then, among the predicted driving state quantity and the historical driving state quantity, )'1
+3'2 Using +ψl and ψ2, each steering amount δ1
Calculate °δ2. The calculation formula is the above-mentioned QO (111 formula).

このδ1.δ2は、制御部11に出力され、夫々の操舵
機構が制御される。そして、無人搬送車1はタイマ動作
により微速運転が行なわれた後、目的位置に停止する。
This δ1. δ2 is output to the control unit 11, and each steering mechanism is controlled. Then, the automatic guided vehicle 1 is driven at a slow speed by a timer operation, and then stops at the target position.

ステップ(Ll〜(N:前方の撮像装置6aが走行路上
の旋回のマーク像を検知し、後方の撮像装置t6bが直
進走行路上のマーク像を検知する減速領域の場合には、
δ、δはacl 、 01式に従って演算される。また
、撮像装置g?、 6 a 、 5 bが夫々走行路上
の旋回のマーク像を検知した定常旋回区間の場合には、
δ1.δ2は(12式に従って演算される。また、前方
の撮像装置6aが直進の走行路上のマーク像を検知し、
後方の撮像装[6bがまだ旋回の走行路上のマークを検
出する加速区間の場合には、前述(7) (81、(9
1式に従ってへ、へが演算される。このようにして演算
された操舵量は、操舵信号として制御部11に供給され
、各操舵@97 a 、 7 bが制御される。
Steps (Ll~(N: In the case of a deceleration region where the front imaging device 6a detects a turning mark image on the running road and the rear imaging device t6b detects a mark image on a straight running road,
δ and δ are calculated according to the acl.01 formula. Also, the imaging device g? , 6 a , and 5 b are steady turning sections in which turning mark images on the road were detected, respectively.
δ1. δ2 is calculated according to equation (12).Furthermore, the front imaging device 6a detects a mark image on the straight traveling road,
In the case of an acceleration section where the rear imaging device [6b is still detecting marks on the turning road, the above-mentioned (7) (81, (9
According to Equation 1, h and h are calculated. The steering amount calculated in this way is supplied to the control unit 11 as a steering signal, and each steering @97a, 7b is controlled.

このように本実施例によれば、走行路領域を示す線上に
路面マークを設け、これを前後の撮像装置が撮像するこ
とによって、前方の予見走行状態量と後方の履歴走行状
態量とをめ、これらの走行状態量によってきめ細かい操
舵制御を行なっている。したがって、無人搬送車は、走
行路上を精度良く走行することができる。もちろん、路
面マークは、搬送車の走行輪によって破1μされること
がない両仰1の線上に設けられており、マークの信頼性
は高い。
As described above, according to this embodiment, a road surface mark is provided on a line indicating a driving road area, and the front and rear imaging devices take images of the road mark, thereby making it possible to estimate the forward predicted driving state quantity and the backward historical driving state quantity. , fine-grained steering control is performed based on these driving state quantities. Therefore, the automatic guided vehicle can travel on the road with high precision. Of course, the road mark is provided on a line with both elevations of 1μ that will not be broken by the running wheels of the transport vehicle, and the reliability of the mark is high.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、高精度の操舵を行
なうことができ、移動体の安定した走行を実現できる。
As described above, according to the present invention, highly accurate steering can be performed and stable running of the moving body can be realized.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は無人搬送車の全体斜視図、第2図は無人搬送車
の側面図、第3図は操舵機構を含む走行装置部分を示す
図、第4図は本発明の一実施例を示す図、第5図は操舵
信号の演算手法を説明するための図、第6図(a)、第
6図(blは第4図に示す実施例の動作を示す図面であ
る。 1・・・・・・無人搬送車、2・・・・・・走行路、3
・・・・・・線、4a、4b・・・・・・路面マーク、
6a、6b・・・・・・撮像装置、7a、7b・・・・
・・操舵機構、8・・・・・・走行装置、9a、9b・
・・・・・走行輪、]1・・・・・・制御部、12・・
・・・・処理部、34・・・・・・画像処理部、35・
・・・・・制御量演算部。 才5図 オ6図(α))lr6図(b)
Fig. 1 is an overall perspective view of the automated guided vehicle, Fig. 2 is a side view of the automated guided vehicle, Fig. 3 is a diagram showing a traveling device including a steering mechanism, and Fig. 4 shows an embodiment of the present invention. Figure 5 is a diagram for explaining the calculation method of the steering signal, Figure 6 (a), Figure 6 (bl is a diagram showing the operation of the embodiment shown in Figure 4.1... ...Automated guided vehicle, 2...Travel path, 3
... Line, 4a, 4b ... Road mark,
6a, 6b...imaging device, 7a, 7b...
... Steering mechanism, 8... Traveling device, 9a, 9b.
...Running wheel,]1...Control unit, 12...
...Processing section, 34... Image processing section, 35.
...Controlled amount calculation section. Figure 5, Figure 6 (α)) Figure 6 (b)

Claims (1)

【特許請求の範囲】[Claims] 1 移動体に撮像装置を設け、該撮像装置の撮像した画
像信号を処理し、制御量を演算する処理部の出力により
移動体を誘導する移動体の誘導装置において、計移動体
の前後に走行路を形成する線上のマークな撮像可能なよ
うに設置される撮像装置と、該移動体の前後の走行輪に
設置される操舵機構と、該前後の撮像装置の画像信号を
夫々処理して予見走行状態量および履歴走行状態量を演
算する画像処理部と、該画像処理部の演算結果を入力し
て前記操舵機構を制御するための前後の操舵信号を演算
する制御量演算部と、該操舵信号を用いて前記操舵機構
を制御する制御部とを有することを特徴とする移動体の
誘導装置。
1. In a guidance device for a moving object that includes an imaging device in a moving object, processes the image signal captured by the imaging device, and guides the moving object using the output of a processing unit that calculates a control amount, the device moves in front of and behind the moving object. An imaging device installed to be able to take images of marks on the line forming the road, a steering mechanism installed on the front and rear running wheels of the moving object, and a prediction system that processes the image signals of the front and rear imaging devices, respectively. an image processing unit that calculates a running state quantity and a historical running state quantity; a control amount calculation unit that inputs the calculation results of the image processing unit and calculates front and rear steering signals for controlling the steering mechanism; A guiding device for a moving body, comprising: a control section that controls the steering mechanism using a signal.
JP59015131A 1984-02-01 1984-02-01 Guiding device of mobile body Granted JPS60160413A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59015131A JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59015131A JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Publications (2)

Publication Number Publication Date
JPS60160413A true JPS60160413A (en) 1985-08-22
JPH0410645B2 JPH0410645B2 (en) 1992-02-26

Family

ID=11880266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59015131A Granted JPS60160413A (en) 1984-02-01 1984-02-01 Guiding device of mobile body

Country Status (1)

Country Link
JP (1) JPS60160413A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115241A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP2006115240A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP2010204922A (en) * 2009-03-03 2010-09-16 Yaskawa Electric Corp Moving body
JP2019067317A (en) * 2017-10-05 2019-04-25 株式会社前川製作所 Unmanned carrier

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5112531A (en) * 1974-07-18 1976-01-31 Kogyo Gijutsuin
JPS53141897A (en) * 1977-05-16 1978-12-11 Hitachi Ltd Coolant heating device of reactor
JPS54145881A (en) * 1978-05-08 1979-11-14 Agency Of Ind Science & Technol Automatic transfer system
JPS5512605A (en) * 1978-07-12 1980-01-29 Nippon Telegraph & Telephone Method of manufacturing sea bottom calbe sheath wire
JPS5710445A (en) * 1980-06-23 1982-01-20 Okinawa Autom Kk Soil moisture detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5112531A (en) * 1974-07-18 1976-01-31 Kogyo Gijutsuin
JPS53141897A (en) * 1977-05-16 1978-12-11 Hitachi Ltd Coolant heating device of reactor
JPS54145881A (en) * 1978-05-08 1979-11-14 Agency Of Ind Science & Technol Automatic transfer system
JPS5512605A (en) * 1978-07-12 1980-01-29 Nippon Telegraph & Telephone Method of manufacturing sea bottom calbe sheath wire
JPS5710445A (en) * 1980-06-23 1982-01-20 Okinawa Autom Kk Soil moisture detector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115241A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP2006115240A (en) * 2004-10-14 2006-04-27 Denaro:Kk Monitoring system of specific region
JP2010204922A (en) * 2009-03-03 2010-09-16 Yaskawa Electric Corp Moving body
JP2019067317A (en) * 2017-10-05 2019-04-25 株式会社前川製作所 Unmanned carrier

Also Published As

Publication number Publication date
JPH0410645B2 (en) 1992-02-26

Similar Documents

Publication Publication Date Title
CN101959739B (en) Vehicle travel support device, vehicle
CN108388245B (en) AGV trolley indoor positioning navigation system and control method thereof
US20050043867A1 (en) Driving control device for vehicle
CN104954668A (en) Image-capturing device for moving body
CN101970273A (en) Vehicle travel support device, vehicle, and vehicle travel support program
JPH09183383A (en) Automatic steering controller
TWI668543B (en) Automatic driving vehicle and automatic driving system including same
JP6286465B2 (en) Autonomous vehicle
JP2000255319A (en) Vehicle running direction recognizing device
JP2024038486A (en) Mobile robot control device, mobile robot control method
JPS60160413A (en) Guiding device of mobile body
JP2707546B2 (en) Vehicle steering control device
CN105785992A (en) Use method of multifunctional unmanned electric vehicle
US20210016704A1 (en) Steerable scanning and perception system with active illumination
JPS61294512A (en) Unmanned carrier
JP5473628B2 (en) Convoy travel system, convoy travel method, trailing manned vehicle controller, steering control method, program, and recording medium
JPS61118816A (en) Optical guiding truck control equipment
CN105785993A (en) Multifunctional unmanned electric vehicle
CN115457088B (en) Method and system for fixing axle of train
JPWO2020013337A1 (en) Traveling system for moving vehicles
JPS61196306A (en) Guide controller for traveling object
JP7476833B2 (en) Vehicle control device, vehicle control computer program, and vehicle control method
JPH1020934A (en) Guide steering device for unmanned driving vehicle
KR20000056734A (en) Position inspecting apparatus for agv(automated guided vehicle) and method thereof
US11748790B2 (en) Accommodation area management device