JPH05172522A - Method for detecting position and bearing of carrier vehicle - Google Patents

Method for detecting position and bearing of carrier vehicle

Info

Publication number
JPH05172522A
JPH05172522A JP3357065A JP35706591A JPH05172522A JP H05172522 A JPH05172522 A JP H05172522A JP 3357065 A JP3357065 A JP 3357065A JP 35706591 A JP35706591 A JP 35706591A JP H05172522 A JPH05172522 A JP H05172522A
Authority
JP
Japan
Prior art keywords
bearing
data
detected
carrier vehicle
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3357065A
Other languages
Japanese (ja)
Inventor
Tadashi Morita
忠 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsubakimoto Chain Co
Original Assignee
Tsubakimoto Chain Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsubakimoto Chain Co filed Critical Tsubakimoto Chain Co
Priority to JP3357065A priority Critical patent/JPH05172522A/en
Publication of JPH05172522A publication Critical patent/JPH05172522A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Platform Screen Doors And Railroad Systems (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To prevent the deterioration of the detecting accuracy of a position and a bearing by correcting the detected values of the position and the bearing so as to minimize the errors between the detected values of the position and the bearing based on the aberration of a lens and the error of the setting position of a mark and the expected values. CONSTITUTION:A TV camera 10 photographs images in all directions around a carrier vehicle 1. The image data as the result of the photographing are imparted into a position/bearing detecting part 11. In the detecting part 11, the present position and bearing of the carrier vehicle 1 are detected based on the position data of marks 2 and 2 on the image by using a specified geometrical method based on the given image data. The data of the position/bearing detected with the detecting part 11 are imparted into a position/bearing correcting part 12. The correcting part 12 corrects the position/bearing data of the carrier vehicle 1 detected with the detecting part 11 by using a back propagation rule. The corrected result is imparted into a running control system 13 for controlling the running such as the steering of the carrier vehicle 1 based on the position/bearing data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は搬送車の位置・方位を検
出する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting the position / orientation of a carrier vehicle.

【0002】[0002]

【従来の技術】無人搬送システムにおいては、搬送車の
走行領域における天井又は壁面等の所定位置に発光体よ
りなる位置・方位検出用の標識を複数設置し、搬送車に
魚眼レンズ等の広角レンズを装着したテレビカメラを搭
載し、該テレビカメラにて搬送車の周囲を撮像し、その
撮像画像上での前記標識の位置及び方位に基づいて、幾
何学的に搬送車の現在の位置・方位を検出するようにし
たものがある。このような搬送車における現在の位置・
方位の検出方法では、テレビカメラの視野が広く、前記
標識を確実に撮像できるため、前記標識の未撮像による
位置・方位の検出不能状態が生じる確率が少ないという
利点があった。
2. Description of the Related Art In an unmanned transportation system, a plurality of markers for detecting the position and direction of a light emitter are installed at a predetermined position such as a ceiling or a wall surface in a traveling area of a transportation vehicle, and a wide-angle lens such as a fisheye lens is mounted on the transportation vehicle. The mounted TV camera is mounted, the surroundings of the transport vehicle are imaged by the TV camera, and the current position / direction of the transport vehicle is geometrically determined based on the position and direction of the sign on the captured image. There are some that are designed to detect. The current position of such a carrier
The azimuth detection method has an advantage in that the television camera has a wide field of view and the sign can be reliably imaged, and thus the probability that the position / direction cannot be detected due to the non-imaging of the sign is low.

【0003】[0003]

【発明が解決しようとする課題】ところが、前述の如き
位置・方位の検出方法では、レンズの収差及び標識の設
置位置の誤差によって位置・方位の検出精度が低下する
という難点がある。この難点を解決する方法としては、
前記誤差を補正する補正式を予め定めておき、その補正
式を用いて前記誤差を補正し、検出精度を向上させる方
法が考えられるが、その補正式は非線形で複雑なものに
なり、現実的に使用することが不可能であるという問題
があった。
However, the above-described position / orientation detecting method has a drawback in that the position / orientation detecting accuracy is deteriorated due to the aberration of the lens and the error in the installation position of the sign. As a method to solve this difficulty,
A method of previously determining a correction formula for correcting the error and using the correction formula to correct the error to improve detection accuracy can be considered. However, the correction formula becomes non-linear and complicated, and is practical. There was a problem that it was impossible to use.

【0004】本発明は斯かる事情に鑑みてなされたもの
であり、レンズの収差及び標識の設置位置の誤差に基づ
く位置・方位の検出精度の低下を抑止することを可能と
する搬送車の位置・方位検出方法を提供することを目的
とする。
The present invention has been made in view of the above circumstances, and it is possible to suppress the deterioration of the detection accuracy of the position / direction due to the aberration of the lens and the error of the installation position of the marker, and the position of the carrier vehicle. -The purpose is to provide a direction detection method.

【0005】[0005]

【課題を解決するための手段】本発明に係る搬送車の位
置・方位検出方法は、複数の標識が夫々所定位置に設け
られた走行領域の画像を、該走行領域を走行する搬送車
からレンズを介して撮像し、撮像された画像上での前記
標識の位置情報に基づいて幾何学的手法により前記搬送
車の位置・方位を検出する方法において、前記幾何学的
手法による位置・方位の検出値と、その期待値とに基づ
いて、これらの偏差を最小にすべく前記検出値を補正す
る学習を所定のニューラルネットワークに対して予め行
っておき、その学習を行ったニューラルネットワークに
より前記幾何学的手法による位置・方位の検出値を補正
することを特徴とする。
According to the method of detecting the position / orientation of a carrier vehicle according to the present invention, an image of a traveling area in which a plurality of markers are provided at predetermined positions is provided from a vehicle traveling in the traveling area to a lens. In the method of detecting the position / azimuth of the transport vehicle by a geometric method based on the position information of the sign on the captured image, the position / azimuth is detected by the geometric method. Based on the value and its expected value, learning for correcting the detected value so as to minimize these deviations is performed in advance on a predetermined neural network, and the learned neural network performs the geometrical analysis. It is characterized in that the detected values of the position / orientation by the dynamic method are corrected.

【0006】[0006]

【作用】本発明にあっては、ニューラルネットワークが
レンズの収差及び標識の設置位置の誤差に基づいて生じ
る、位置・方位の検出値と、その期待値との誤差を最小
にするよう位置・方位の検出値を補正するように学習し
ており、その学習結果に基づいて、幾何学的手法による
位置・方位の検出値を補正するので、レンズの収差及び
標識の設置位置の誤差があっても位置・方位の検出精度
は低下しない。
In the present invention, the neural network minimizes the error between the detected value of the position / orientation and its expected value, which is generated based on the aberration of the lens and the error in the installation position of the sign. Learning is performed so as to correct the detection value of, and the detection value of the position and orientation by the geometrical method is corrected based on the learning result, so even if there is an error in the lens aberration and the installation position of the sign. Position / direction detection accuracy does not decrease.

【0007】[0007]

【実施例】以下本発明をその実施例を示す図面に基づい
て詳述する。図1は本発明に係る搬送車の位置・方位検
出方法の実施に用いる搬送システムの概略構成を示す説
明図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings showing the embodiments. FIG. 1 is an explanatory diagram showing a schematic configuration of a carrier system used for carrying out a position / orientation detection method for a carrier vehicle according to the present invention.

【0008】図中1は無人の搬送車であり、該搬送車1
はその下面に設けられた車輪(図示せず)の駆動によっ
て床面Fを任意の方向に走行可能となっている。また、
搬送車1の走行範囲の空間S内における天井又は壁面等
の所定位置には、発光体よりなり、搬送車1の位置・方
位検出の指標となる一対の標識2,2が設置されてい
る。
In the figure, reference numeral 1 denotes an unmanned carrier, and the carrier 1
The vehicle can run on the floor F in any direction by driving wheels (not shown) provided on the lower surface of the vehicle. Also,
At a predetermined position such as a ceiling or a wall surface in the space S within the traveling range of the carrier 1, a pair of markers 2 and 2 made of a light emitter and serving as an index for detecting the position and direction of the carrier 1 are installed.

【0009】搬送車1の上部には魚眼レンズを装着した
テレビカメラ10が設けられており、該テレビカメラ10は
魚眼レンズの作用により搬送車1の周囲の全方向を撮像
するようになっている。この搬送車1は、テレビカメラ
10が撮像した画像上での標識2,2の位置・方位に基づ
いて、幾何学的に搬送車の現在の位置・方位を検出し、
その検出結果に基づいて、予め定められたコース上を走
行するようになっている。
A television camera 10 equipped with a fish-eye lens is provided on the upper portion of the transport vehicle 1, and the television camera 10 captures images in all directions around the transport vehicle 1 by the action of the fish-eye lens. This transport vehicle 1 is a TV camera
Based on the positions and orientations of the signs 2 and 2 on the image captured by 10, the geometrical detection of the current position and orientation of the carrier vehicle,
Based on the detection result, the vehicle travels on a predetermined course.

【0010】次に、搬送車1の走行制御系の構成につい
て説明する。図2は搬送車1の位置・方位検出系の構成
を示すブロック図である。テレビカメラ10の撮像結果で
ある画像データは、位置・方位検出部11へ与えられるよ
うになっている。位置・方位検出部11では、与えられた
画像データに基づき所定の幾何学的手法を用いて、画像
上での標識2,2の位置データから搬送車1の現在の位
置・方位を検出する。前記位置・方位検出部11で検出さ
れた位置・方位のデータは、位置・方位補正部12へ与え
られるようになっている。なお、位置・方位検出部11で
検出された位置・方位のデータは、前記魚眼レンズの収
差及び標識2,2の設置位置誤差を含んだデータであ
る。
Next, the structure of the traveling control system of the carrier 1 will be described. FIG. 2 is a block diagram showing the configuration of the position / direction detection system of the carrier vehicle 1. The image data which is the image pickup result of the television camera 10 is given to the position / direction detecting unit 11. The position / direction detecting unit 11 detects the current position / direction of the carrier 1 from the position data of the markers 2 and 2 on the image by using a predetermined geometrical method based on the given image data. The position / direction data detected by the position / direction detecting unit 11 is supplied to the position / direction correcting unit 12. The position / orientation data detected by the position / orientation detector 11 is data including the aberration of the fish-eye lens and the installation position error of the markers 2 and 2.

【0011】位置・方位補正部12は、公知のバックプロ
パゲーション則(誤差逆向き伝播学習則)を用いて前記
位置・方位検出部11で検出された搬送車1の位置・方位
のデータを補正するニューラルネットワークであり、そ
の補正結果は、位置・方位のデータに基づいて搬送車1
の操向等の走行に関する制御を行う走行制御系13へ与え
られるようになっている。
The position / direction correction unit 12 corrects the position / direction data of the carrier 1 detected by the position / direction detection unit 11 using a known back propagation rule (error back-propagation learning rule). Is a neural network that performs the correction, and the correction result is based on the position / direction data.
Is given to the traveling control system 13 that controls traveling such as steering.

【0012】次に、位置・方位補正部12のニューラルネ
ットワークの構成について説明する。図3は位置・方位
補正部12のニューラルネットワークの構成を示すブロッ
ク図である。位置・方位補正部12のニューラルネットワ
ークは、入力層I,中間層M,出力層Oの3層からなる
階層構造になっており、入力層Iは3個のニューロンI
1 ,I2 ,I3 からなり、中間層Mはj個のニューロン
1 ,M2 ,M3 ,…Mj からなり、出力層Oは3個の
ニューロンO1 ,O2 ,O3 からなっている。
Next, the configuration of the neural network of the position / orientation correction unit 12 will be described. FIG. 3 is a block diagram showing the configuration of the neural network of the position / orientation correction unit 12. The neural network of the position / orientation correction unit 12 has a hierarchical structure including three layers of an input layer I, an intermediate layer M, and an output layer O, and the input layer I has three neurons I.
1 , I 2 , I 3 , the intermediate layer M is composed of j neurons M 1 , M 2 , M 3 , ... M j , and the output layer O is composed of 3 neurons O 1 , O 2 , O 3. Is becoming

【0013】入力層Iにおいて、第1のニューロンI1
には、位置・方位検出部11で検出された位置データのx
軸座標データX1 が入力され、第2のニューロンI2
は、位置・方位検出部11で検出された位置データのy軸
座標データX2 が入力され、第3のニューロンI3
は、位置・方位検出部11で検出された方位データX3
入力される。入力層Iの各ニューロンI1 ,I2 ,I3
は中間層Mの全てのニューロンM1 ,M2 ,M3 ,…M
j と各々異なる結合係数で結合している。
In the input layer I, the first neuron I 1
Indicates x of the position data detected by the position / orientation detection unit 11.
The axis coordinate data X 1 is input, the y-axis coordinate data X 2 of the position data detected by the position / orientation detector 11 is input to the second neuron I 2 , and the third neuron I 3 is The direction data X 3 detected by the position / direction detecting unit 11 is input. Each neuron I 1 , I 2 , I 3 of the input layer I
Is all neurons M 1 , M 2 , M 3 , ... M of the hidden layer M
They are coupled to j with different coupling coefficients.

【0014】中間層MのニューロンM1 ,M2 ,M3
…Mj は、入力層Iからの入力の合計値(下記(1) 式参
照)に基づいてその出力値Zj (出力値Z1 ,Z2 ,Z
3 ,…Zj の総称)を決定する。この出力値の決定は、
シグモイド関数(下記(2) 式参照)による演算で行われ
る。また、中間層Mの各ニューロンM1 ,M2 ,M3
…Mj は出力層Oの全てのニューロンO1 ,O2 ,O3
と各々異なる結合係数で結合している。出力層Oのニュ
ーロンO1 ,O2 ,O3 は、中間層Mからの入力の合計
値(下記(1) 式参照)に基づいて、その出力値Yk (出
力値Y1 ,Y2 ,Y3 の総称)を決定する。この出力値
の決定も、シグモイド関数(下記(2) 式参照)による演
算で行われる。但し、前記出力層Oにおいて、第1のニ
ューロンO1 からはx軸座標データX1 を補正した値
(Y1 )が出力され、第2のニューロンO2 からはy軸
座標データX2 を補正した値(Y2 )が出力され、第3
のニューロンO3 からは方位データX3 を補正した値
(Y3 )が出力されるようになっている。
The neurons M 1 , M 2 , M 3 , of the intermediate layer M
The output value Z j (output values Z 1 , Z 2 , Z 2 ) of M j is based on the total value of the inputs from the input layer I (see the following equation (1)).
3 , ... (general term of Z j ) is determined. This output value is determined by
It is calculated by the sigmoid function (see the formula (2) below). Further, each neuron M 1 , M 2 , M 3 , of the intermediate layer M,
... M j is all neurons O 1 , O 2 , O 3 of the output layer O
Are coupled with different coupling coefficients. The neurons O 1 , O 2 , and O 3 of the output layer O are based on the total value of the inputs from the intermediate layer M (see the following equation (1)), and their output values Y k (output values Y 1 , Y 2 , general term for Y 3) is determined. This output value is also determined by a sigmoid function (see the equation (2) below). However, in the output layer O, from the first neuron O 1 value obtained by correcting the x-axis coordinate data X 1 (Y 1) is output, the correction in the y-axis coordinate data X 2 from the second neuron O 2 The output value (Y 2 ) is output and the third
A value (Y 3 ) obtained by correcting the azimuth data X 3 is output from the neuron O 3 of .

【0015】具体的な、中間層MのニューロンM1 ,M
2 ,M3 ,…Mj 及び出力層OのニューロンO1
2 ,O3 の出力値の決定は、下記(1) 式に示される如
き結合係数wi を重みとした入力値ai の線形加算値ne
t を求め、その値を下記(2) 式に示される如きシグモイ
ド関数に代入することによって得られる出力値bを各ニ
ューロンの出力値として決定する。
The concrete neurons M 1 and M of the intermediate layer M
2 , M 3 , ... M j and the neuron O 1 of the output layer O,
The output values of O 2 and O 3 are determined by the linear addition value ne of the input value a i with the coupling coefficient w i as the weight shown in the following formula (1).
An output value b obtained by obtaining t and substituting the value into a sigmoid function as shown in the following equation (2) is determined as an output value of each neuron.

【0016】[0016]

【数1】 [Equation 1]

【0017】[0017]

【数2】 [Equation 2]

【0018】次に、バックプロパゲーション則による学
習方法について説明する。バックプロパゲーション則の
学習は前向き演算と後ろ向き演算とに分かれる。
Next, a learning method based on the back propagation rule will be described. Learning of the back propagation rule is divided into forward calculation and backward calculation.

【0019】前向き演算では、まず、入力データX
i (入力データX1 ,X2 ,X3 の総称)を入力層Iか
ら入力し、前記(1),(2) 式により、中間層Mの夫々のニ
ューロンの出力値Zj を求める。そして、この出力値Z
j から前記(1),(2) 式により、出力層Oの夫々のニュー
ロンの出力値Yk を求める。
In the forward calculation, first, the input data X
i (general term for input data X 1 , X 2 , X 3 ) is input from the input layer I, and the output value Z j of each neuron of the intermediate layer M is obtained from the equations (1) and (2). And this output value Z
The output value Y k of each neuron of the output layer O is obtained from j by the above equations (1) and (2).

【0020】後ろ向き演算では、下記(3) 式にて表され
る教師データtk と出力層Oの出力値Yk との誤差Eを
逐次的に減少させるように、中間層Mと入力層Iとの間
の結合係数wji及び出力層Oと中間層Mとの間の結合係
数wkjの変更を行う。
In the backward calculation, the intermediate layer M and the input layer I are arranged so that the error E between the teacher data t k expressed by the following equation (3) and the output value Y k of the output layer O is successively reduced. and it changes the coupling coefficient w kj between the coupling coefficient w ji and an output layer O and the intermediate layer M between.

【0021】[0021]

【数3】 [Equation 3]

【0022】また、誤差Eを出力層Oと中間層Mとの間
の結合係数wkjによって偏微分すると、下記(4) 式の如
くなる。
When the error E is partially differentiated by the coupling coefficient w kj between the output layer O and the intermediate layer M, the following equation (4) is obtained.

【0023】[0023]

【数4】 [Equation 4]

【0024】そこで、結合係数wkjの修正量Δwkjは、
修正量Δwkjの大きさを制御するパラメータである学習
係数ηを用いて下記(5) 式の如く表される。
[0024] Therefore, the correction amount Δw kj of the coupling coefficient w kj is,
It is expressed as the following equation (5) using the learning coefficient η which is a parameter for controlling the magnitude of the correction amount Δw kj .

【0025】[0025]

【数5】 [Equation 5]

【0026】同様に、誤差Eを中間層Mと入力層Iとの
間の結合係数wjiによって偏微分すると、下記(6) 式の
如くなる。
Similarly, when the error E is partially differentiated by the coupling coefficient w ji between the intermediate layer M and the input layer I, the following equation (6) is obtained.

【0027】[0027]

【数6】 [Equation 6]

【0028】そこで、結合係数wjiの修正量Δwjiは、
修正量Δwjiの大きさを制御するパラメータである学習
係数ηを用いて下記(7) 式の如く表される。
[0028] Therefore, the correction amount Δw ji of the coupling coefficient w ji is,
The learning coefficient η, which is a parameter for controlling the magnitude of the correction amount Δw ji , is used to represent the following expression (7).

【0029】[0029]

【数7】 [Equation 7]

【0030】このようにして、結合係数wkjの修正量Δ
kj及び結合係数wjiの修正量Δwjiを求めて結合係数
kj及び結合係数wjiを修正する。但し、実際には、学
習の収束を考慮して、1回前の修正量Δwkj(t-1) ,Δ
ji(t-1) を記憶しておいて、下記(8),(9) 式を用いて
修正量Δwkj(t) ,Δwji(t) を得る。
In this way, the correction amount Δ of the coupling coefficient w kj
The correction amount Δw ji of w kj and the coupling coefficient w ji is calculated to correct the coupling coefficient w kj and the coupling coefficient w ji . However, in practice, considering the convergence of learning, the previous correction amounts Δw kj (t-1), Δ
The w ji (t-1) is stored and the correction amounts Δw kj (t) and Δw ji (t) are obtained by using the following equations (8) and (9).

【0031】[0031]

【数8】 [Equation 8]

【0032】[0032]

【数9】 [Equation 9]

【0033】以上の如きバックプロパゲーション則で
は、以上のような前向き演算と後ろ向き演算とを全ての
学習パターンについて繰り返し、誤差Eが十分に小さく
なるまで学習を行う。
In the back propagation rule as described above, the forward calculation and the backward calculation as described above are repeated for all learning patterns, and learning is performed until the error E becomes sufficiently small.

【0034】次に、前述の如きバックプロパゲーション
則による学習に基づいた搬送車1の位置・方位の検出方
法について説明する。まず、搬送車1の実際の走行を行
う前に、位置・方位検出部11による検出結果を補正する
方法を学習するための走行を、搬送車1の実際の走行経
路において行う。この学習は位置・方位補正部12におい
て行われる。
Next, a method of detecting the position / direction of the carrier 1 based on the learning based on the back propagation rule as described above will be described. First, before the actual traveling of the transport vehicle 1, a travel for learning a method of correcting the detection result by the position / orientation detection unit 11 is performed on the actual travel route of the transport vehicle 1. This learning is performed in the position / orientation correction unit 12.

【0035】図4は位置・方位の検出結果の補正方法の
学習手順を示すフローチャートである。まず、学習デー
タの個数を "0”にリセットし(ステップS1) 、作業者
が搬送車1を既知の位置・方位へ移動させる(ステップ
S2) 。
FIG. 4 is a flow chart showing the learning procedure of the correction method of the detection result of the position / direction. First, the number of learning data is reset to "0" (step S1), and the operator moves the carrier 1 to a known position / orientation (step S1).
S2).

【0036】そして、その位置において、テレビカメラ
10が撮像した画像上での標識2,2の位置・方位に基づ
いて、位置・方位検出部11にて、幾何学的に搬送車1の
現在の位置・方位を検出し(ステップS3) 、その検出デ
ータが位置・方位補正部12へ与えられる。続いて、その
位置における正しい位置・方位のデータを、作業者が教
師データとして位置・方位補正部12へ入力する(ステッ
プS4) 。位置・方位補正部12では、位置・方位に関す
る、前記検出データ及び前記教師データを1組の学習デ
ータとして記憶する(ステップS5) 。
Then, at that position, the television camera
Based on the positions / directions of the signs 2 and 2 on the image captured by 10 the position / direction detection unit 11 geometrically detects the current position / direction of the carrier vehicle 1 (step S3), The detection data is given to the position / orientation correction unit 12. Then, the operator inputs the correct position / orientation data at that position to the position / orientation correction unit 12 as teacher data (step S4). The position / orientation correction unit 12 stores the detection data and the teacher data regarding the position / orientation as one set of learning data (step S5).

【0037】そして、学習データの個数を1つ増加させ
(ステップS6) 、その記憶した学習データが所定個数を
超えたか否かを判別する(ステップS7) 。
Then, the number of learning data is increased by 1 (step S6), and it is determined whether or not the stored learning data exceeds a predetermined number (step S7).

【0038】ステップS7において、記憶した学習データ
の個数が所定個数を超えていないと判別された場合は、
ステップS2に戻って前述の如き処理を繰り返し、前記所
定個数を超えるまで学習データを収集する。一方、ステ
ップS7において、記憶した学習データが所定個数を超え
ていると判別された場合は、収集した学習データに基づ
き前述の如きバックプロパゲーション則を用いて、前記
検出データ及び前記教師データの組からニューラルネッ
トワークが正しい出力を出すように学習を行い(ステッ
プS8) 、その学習のための走行を終了する。
If it is determined in step S7 that the number of stored learning data does not exceed the predetermined number,
Returning to step S2, the processing as described above is repeated, and the learning data is collected until the number exceeds the predetermined number. On the other hand, in step S7, when it is determined that the stored learning data exceeds the predetermined number, the back propagation rule as described above is used based on the collected learning data, and the set of the detection data and the teacher data is set. The learning is performed so that the neural network outputs the correct output from (step S8), and the traveling for the learning ends.

【0039】以上の如き学習が終了すると、搬送物を搬
送するための実走行を行う。図5は実走行における搬送
車1の位置・方位の検出手順を示すフローチャートであ
る。
When the learning as described above is completed, the actual traveling for conveying the conveyed object is performed. FIG. 5 is a flowchart showing a procedure for detecting the position / direction of the carrier vehicle 1 during actual traveling.

【0040】まず、位置・方位検出部11により、搬送車
1の現在の位置・方位を検出する(ステップS11)。な
お、この位置・方位の検出値は、魚眼レンズの収差及び
標識2,2の設置位置誤差を含んだ情報である。
First, the position / direction detector 11 detects the current position / direction of the carrier 1 (step S11). The detected values of the position / direction are information including the aberration of the fisheye lens and the installation position error of the markers 2 and 2.

【0041】次に、位置・方位補正部12において、前記
位置・方位検出部11の位置・方位の検出値を、前述の如
く補正のための学習を行ったニューラルネットワークを
用いて補正し(ステップS12)、その補正された位置・方
位の検出値を、位置・方位の最終的な検出値として走行
制御部13へ出力する(ステップS13)。
Next, in the position / azimuth correcting unit 12, the detected values of the position / azimuth of the position / azimuth detecting unit 11 are corrected using a neural network which has been learned for correction as described above (step S12), and outputs the corrected detected value of the position / azimuth to the travel control unit 13 as the final detected value of the position / azimuth (step S13).

【0042】このように、位置・方位補正部12において
は、位置・方位検出部11の位置・方位の検出値を、その
期待値との偏差が最小となるように補正するように予め
学習したニューラルネットワークを用いて位置・方位検
出部11の検出値を補正するので、魚眼レンズの収差及び
標識2,2の設置位置誤差があっても、位置・方位補正
部12の出力である搬送車1の現在の位置・方位の補正さ
れた検出値の精度は低下しない。
As described above, in the position / azimuth correction unit 12, the position / direction detection value of the position / direction detection unit 11 is preliminarily learned so as to be corrected so that the deviation from the expected value is minimized. Since the detection value of the position / orientation detecting unit 11 is corrected by using the neural network, even if there is an aberration of the fisheye lens and an installation position error of the markers 2 and 2, the output of the position / orientation correcting unit 12 of the carrier vehicle 1 is detected. The accuracy of the corrected detection value of the current position / direction does not decrease.

【0043】[0043]

【発明の効果】以上詳述したように本発明方法では、ニ
ューラルネットワークがレンズの収差及び標識の設置位
置の誤差に基づいて生じる、位置・方位の検出値と、そ
の期待値との誤差を最小にするよう位置・方位の検出値
を補正するように学習しており、その学習結果に基づい
て、幾何学的手法による位置・方位の検出値を補正する
ようになっているため、レンズの収差及び標識の設置位
置の誤差があっても位置・方位の検出精度の低下を抑止
できる等、本発明は優れた効果を奏する。
As described above in detail, in the method of the present invention, the neural network minimizes the error between the detected value of the position / orientation and its expected value, which is caused based on the aberration of the lens and the error of the installation position of the sign. It is learned to correct the detected values of the position and azimuth so that the detected values of the position and azimuth by the geometrical method are corrected based on the learning result. Further, the present invention has excellent effects such as reduction of the detection accuracy of the position / orientation even if there is an error in the installation position of the sign.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る搬送車の位置・方位検出方法の実
施に用いる搬送システムの概略構成を示す説明図であ
る。
FIG. 1 is an explanatory diagram showing a schematic configuration of a transportation system used for implementing a position / orientation detecting method for a transportation vehicle according to the present invention.

【図2】搬送車の位置・方位検出系の構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a configuration of a position / orientation detection system of a carrier vehicle.

【図3】位置・方位補正部のニューラルネットワークの
構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of a neural network of a position / azimuth correction unit.

【図4】位置・方位の検出結果の補正方法の学習手順を
示すフローチャートである。
FIG. 4 is a flowchart showing a learning procedure of a correction method of a position / azimuth detection result.

【図5】実走行における搬送車の位置・方位の検出手順
を示すフローチャートである。
FIG. 5 is a flowchart showing a procedure for detecting the position / direction of a carrier vehicle in actual traveling.

【符号の説明】[Explanation of symbols]

1 搬送車 2 標識 10 テレビカメラ 11 位置・方位検出部 12 位置・方位補正部 I 入力層 M 中間層 O 出力層 S 空間 1 Transport Vehicle 2 Sign 10 TV Camera 11 Position / Direction Detector 12 Position / Direction Corrector I Input Layer M Intermediate Layer O Output Layer S Space

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/18 8945−5L 15/62 415 9287−5L G06G 7/60 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Office reference number FI technical display location G06F 15/18 8945-5L 15/62 415 9287-5L G06G 7/60

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数の標識が夫々所定位置に設けられた
走行領域の画像を、該走行領域を走行する搬送車からレ
ンズを介して撮像し、撮像された画像上での前記標識の
位置情報に基づいて幾何学的手法により前記搬送車の位
置・方位を検出する方法において、 前記幾何学的手法による位置・方位の検出値と、その期
待値とに基づいて、これらの偏差を最小にすべく前記検
出値を補正する学習を所定のニューラルネットワークに
対して予め行っておき、その学習を行ったニューラルネ
ットワークにより前記幾何学的手法による位置・方位の
検出値を補正することを特徴とする搬送車の位置・方位
検出方法。
1. An image of a traveling area in which a plurality of signs are respectively provided at predetermined positions is imaged through a lens from a transportation vehicle traveling in the traveling area, and position information of the sign on the imaged image. In the method of detecting the position / azimuth of the guided vehicle by a geometrical method based on the above, based on the detected value of the position / azimuth by the geometrical method and its expected value, these deviations are minimized. Therefore, learning for correcting the detected value is performed in advance for a predetermined neural network, and the detected value of the position / orientation by the geometrical method is corrected by the learned neural network. Car position / direction detection method.
JP3357065A 1991-12-24 1991-12-24 Method for detecting position and bearing of carrier vehicle Pending JPH05172522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3357065A JPH05172522A (en) 1991-12-24 1991-12-24 Method for detecting position and bearing of carrier vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3357065A JPH05172522A (en) 1991-12-24 1991-12-24 Method for detecting position and bearing of carrier vehicle

Publications (1)

Publication Number Publication Date
JPH05172522A true JPH05172522A (en) 1993-07-09

Family

ID=18452207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3357065A Pending JPH05172522A (en) 1991-12-24 1991-12-24 Method for detecting position and bearing of carrier vehicle

Country Status (1)

Country Link
JP (1) JPH05172522A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210403A (en) * 2008-04-30 2008-09-11 Mitsubishi Heavy Ind Ltd Method of guidance and control for autonomous moving type robot to specified position
JP2010055303A (en) * 2008-08-27 2010-03-11 Denso It Laboratory Inc Learning data management device, learning data management method and air-conditioner for vehicle, and control device of apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210403A (en) * 2008-04-30 2008-09-11 Mitsubishi Heavy Ind Ltd Method of guidance and control for autonomous moving type robot to specified position
JP2010055303A (en) * 2008-08-27 2010-03-11 Denso It Laboratory Inc Learning data management device, learning data management method and air-conditioner for vehicle, and control device of apparatus

Similar Documents

Publication Publication Date Title
CN110969655B (en) Method, device, equipment, storage medium and vehicle for detecting parking space
EP4036870A1 (en) Parking spot detection method and parking spot detection system
CN102037735B (en) Self calibration of extrinsic camera parameters for a vehicle camera
CN104204721B (en) Single camera distance estimations
CN105141945A (en) Surround-view camera system (vpm) online calibration
WO2012043045A1 (en) Image processing device and image capturing device using same
US20140225990A1 (en) Depth sensing method and system for autonomous vehicles
JP2004086779A (en) Obstacle detection device and its method
CN111486848A (en) AGV visual navigation method, system, computer equipment and storage medium
US11132530B2 (en) Method for three-dimensional graphic reconstruction of a vehicle
CN111510704B (en) Method for correcting camera dislocation and device using same
CN112201078A (en) Automatic parking space detection method based on graph neural network
JP2019003606A (en) Map change point detection device
US20240054656A1 (en) Signal processing device, signal processing method, and signal processing system
JP7137464B2 (en) Camera calibration device, camera calibration method, and program
JP2707546B2 (en) Vehicle steering control device
JPH04274935A (en) Device for deciding quantity of operation of vehicle
JPH05172522A (en) Method for detecting position and bearing of carrier vehicle
JP3757502B2 (en) Moving object travel control device
CN113673462B (en) Logistics AGV positioning method based on lane lines
CN114088083A (en) Mapping method based on top view semantic object
CN111583387A (en) Method and system for three-dimensional reconstruction of outdoor scene of unmanned aerial vehicle
JP3122777B2 (en) Distance measuring device for unmanned vehicles
CN114972494B (en) Map construction method and device for memorizing parking scene
JPH117534A (en) Road white line detection device