JPH05172522A - Method for detecting position and bearing of carrier vehicle - Google Patents
Method for detecting position and bearing of carrier vehicleInfo
- Publication number
- JPH05172522A JPH05172522A JP3357065A JP35706591A JPH05172522A JP H05172522 A JPH05172522 A JP H05172522A JP 3357065 A JP3357065 A JP 3357065A JP 35706591 A JP35706591 A JP 35706591A JP H05172522 A JPH05172522 A JP H05172522A
- Authority
- JP
- Japan
- Prior art keywords
- bearing
- data
- detected
- carrier vehicle
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000004075 alteration Effects 0.000 abstract description 9
- 230000006866 deterioration Effects 0.000 abstract description 2
- 210000002569 neuron Anatomy 0.000 description 20
- 230000008878 coupling Effects 0.000 description 13
- 238000010168 coupling process Methods 0.000 description 13
- 238000005859 coupling reaction Methods 0.000 description 13
- 238000009434 installation Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Feedback Control In General (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Platform Screen Doors And Railroad Systems (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は搬送車の位置・方位を検
出する方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting the position / orientation of a carrier vehicle.
【0002】[0002]
【従来の技術】無人搬送システムにおいては、搬送車の
走行領域における天井又は壁面等の所定位置に発光体よ
りなる位置・方位検出用の標識を複数設置し、搬送車に
魚眼レンズ等の広角レンズを装着したテレビカメラを搭
載し、該テレビカメラにて搬送車の周囲を撮像し、その
撮像画像上での前記標識の位置及び方位に基づいて、幾
何学的に搬送車の現在の位置・方位を検出するようにし
たものがある。このような搬送車における現在の位置・
方位の検出方法では、テレビカメラの視野が広く、前記
標識を確実に撮像できるため、前記標識の未撮像による
位置・方位の検出不能状態が生じる確率が少ないという
利点があった。2. Description of the Related Art In an unmanned transportation system, a plurality of markers for detecting the position and direction of a light emitter are installed at a predetermined position such as a ceiling or a wall surface in a traveling area of a transportation vehicle, and a wide-angle lens such as a fisheye lens is mounted on the transportation vehicle. The mounted TV camera is mounted, the surroundings of the transport vehicle are imaged by the TV camera, and the current position / direction of the transport vehicle is geometrically determined based on the position and direction of the sign on the captured image. There are some that are designed to detect. The current position of such a carrier
The azimuth detection method has an advantage in that the television camera has a wide field of view and the sign can be reliably imaged, and thus the probability that the position / direction cannot be detected due to the non-imaging of the sign is low.
【0003】[0003]
【発明が解決しようとする課題】ところが、前述の如き
位置・方位の検出方法では、レンズの収差及び標識の設
置位置の誤差によって位置・方位の検出精度が低下する
という難点がある。この難点を解決する方法としては、
前記誤差を補正する補正式を予め定めておき、その補正
式を用いて前記誤差を補正し、検出精度を向上させる方
法が考えられるが、その補正式は非線形で複雑なものに
なり、現実的に使用することが不可能であるという問題
があった。However, the above-described position / orientation detecting method has a drawback in that the position / orientation detecting accuracy is deteriorated due to the aberration of the lens and the error in the installation position of the sign. As a method to solve this difficulty,
A method of previously determining a correction formula for correcting the error and using the correction formula to correct the error to improve detection accuracy can be considered. However, the correction formula becomes non-linear and complicated, and is practical. There was a problem that it was impossible to use.
【0004】本発明は斯かる事情に鑑みてなされたもの
であり、レンズの収差及び標識の設置位置の誤差に基づ
く位置・方位の検出精度の低下を抑止することを可能と
する搬送車の位置・方位検出方法を提供することを目的
とする。The present invention has been made in view of the above circumstances, and it is possible to suppress the deterioration of the detection accuracy of the position / direction due to the aberration of the lens and the error of the installation position of the marker, and the position of the carrier vehicle. -The purpose is to provide a direction detection method.
【0005】[0005]
【課題を解決するための手段】本発明に係る搬送車の位
置・方位検出方法は、複数の標識が夫々所定位置に設け
られた走行領域の画像を、該走行領域を走行する搬送車
からレンズを介して撮像し、撮像された画像上での前記
標識の位置情報に基づいて幾何学的手法により前記搬送
車の位置・方位を検出する方法において、前記幾何学的
手法による位置・方位の検出値と、その期待値とに基づ
いて、これらの偏差を最小にすべく前記検出値を補正す
る学習を所定のニューラルネットワークに対して予め行
っておき、その学習を行ったニューラルネットワークに
より前記幾何学的手法による位置・方位の検出値を補正
することを特徴とする。According to the method of detecting the position / orientation of a carrier vehicle according to the present invention, an image of a traveling area in which a plurality of markers are provided at predetermined positions is provided from a vehicle traveling in the traveling area to a lens. In the method of detecting the position / azimuth of the transport vehicle by a geometric method based on the position information of the sign on the captured image, the position / azimuth is detected by the geometric method. Based on the value and its expected value, learning for correcting the detected value so as to minimize these deviations is performed in advance on a predetermined neural network, and the learned neural network performs the geometrical analysis. It is characterized in that the detected values of the position / orientation by the dynamic method are corrected.
【0006】[0006]
【作用】本発明にあっては、ニューラルネットワークが
レンズの収差及び標識の設置位置の誤差に基づいて生じ
る、位置・方位の検出値と、その期待値との誤差を最小
にするよう位置・方位の検出値を補正するように学習し
ており、その学習結果に基づいて、幾何学的手法による
位置・方位の検出値を補正するので、レンズの収差及び
標識の設置位置の誤差があっても位置・方位の検出精度
は低下しない。In the present invention, the neural network minimizes the error between the detected value of the position / orientation and its expected value, which is generated based on the aberration of the lens and the error in the installation position of the sign. Learning is performed so as to correct the detection value of, and the detection value of the position and orientation by the geometrical method is corrected based on the learning result, so even if there is an error in the lens aberration and the installation position of the sign. Position / direction detection accuracy does not decrease.
【0007】[0007]
【実施例】以下本発明をその実施例を示す図面に基づい
て詳述する。図1は本発明に係る搬送車の位置・方位検
出方法の実施に用いる搬送システムの概略構成を示す説
明図である。DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings showing the embodiments. FIG. 1 is an explanatory diagram showing a schematic configuration of a carrier system used for carrying out a position / orientation detection method for a carrier vehicle according to the present invention.
【0008】図中1は無人の搬送車であり、該搬送車1
はその下面に設けられた車輪(図示せず)の駆動によっ
て床面Fを任意の方向に走行可能となっている。また、
搬送車1の走行範囲の空間S内における天井又は壁面等
の所定位置には、発光体よりなり、搬送車1の位置・方
位検出の指標となる一対の標識2,2が設置されてい
る。In the figure, reference numeral 1 denotes an unmanned carrier, and the carrier 1
The vehicle can run on the floor F in any direction by driving wheels (not shown) provided on the lower surface of the vehicle. Also,
At a predetermined position such as a ceiling or a wall surface in the space S within the traveling range of the carrier 1, a pair of markers 2 and 2 made of a light emitter and serving as an index for detecting the position and direction of the carrier 1 are installed.
【0009】搬送車1の上部には魚眼レンズを装着した
テレビカメラ10が設けられており、該テレビカメラ10は
魚眼レンズの作用により搬送車1の周囲の全方向を撮像
するようになっている。この搬送車1は、テレビカメラ
10が撮像した画像上での標識2,2の位置・方位に基づ
いて、幾何学的に搬送車の現在の位置・方位を検出し、
その検出結果に基づいて、予め定められたコース上を走
行するようになっている。A television camera 10 equipped with a fish-eye lens is provided on the upper portion of the transport vehicle 1, and the television camera 10 captures images in all directions around the transport vehicle 1 by the action of the fish-eye lens. This transport vehicle 1 is a TV camera
Based on the positions and orientations of the signs 2 and 2 on the image captured by 10, the geometrical detection of the current position and orientation of the carrier vehicle,
Based on the detection result, the vehicle travels on a predetermined course.
【0010】次に、搬送車1の走行制御系の構成につい
て説明する。図2は搬送車1の位置・方位検出系の構成
を示すブロック図である。テレビカメラ10の撮像結果で
ある画像データは、位置・方位検出部11へ与えられるよ
うになっている。位置・方位検出部11では、与えられた
画像データに基づき所定の幾何学的手法を用いて、画像
上での標識2,2の位置データから搬送車1の現在の位
置・方位を検出する。前記位置・方位検出部11で検出さ
れた位置・方位のデータは、位置・方位補正部12へ与え
られるようになっている。なお、位置・方位検出部11で
検出された位置・方位のデータは、前記魚眼レンズの収
差及び標識2,2の設置位置誤差を含んだデータであ
る。Next, the structure of the traveling control system of the carrier 1 will be described. FIG. 2 is a block diagram showing the configuration of the position / direction detection system of the carrier vehicle 1. The image data which is the image pickup result of the television camera 10 is given to the position / direction detecting unit 11. The position / direction detecting unit 11 detects the current position / direction of the carrier 1 from the position data of the markers 2 and 2 on the image by using a predetermined geometrical method based on the given image data. The position / direction data detected by the position / direction detecting unit 11 is supplied to the position / direction correcting unit 12. The position / orientation data detected by the position / orientation detector 11 is data including the aberration of the fish-eye lens and the installation position error of the markers 2 and 2.
【0011】位置・方位補正部12は、公知のバックプロ
パゲーション則(誤差逆向き伝播学習則)を用いて前記
位置・方位検出部11で検出された搬送車1の位置・方位
のデータを補正するニューラルネットワークであり、そ
の補正結果は、位置・方位のデータに基づいて搬送車1
の操向等の走行に関する制御を行う走行制御系13へ与え
られるようになっている。The position / direction correction unit 12 corrects the position / direction data of the carrier 1 detected by the position / direction detection unit 11 using a known back propagation rule (error back-propagation learning rule). Is a neural network that performs the correction, and the correction result is based on the position / direction data.
Is given to the traveling control system 13 that controls traveling such as steering.
【0012】次に、位置・方位補正部12のニューラルネ
ットワークの構成について説明する。図3は位置・方位
補正部12のニューラルネットワークの構成を示すブロッ
ク図である。位置・方位補正部12のニューラルネットワ
ークは、入力層I,中間層M,出力層Oの3層からなる
階層構造になっており、入力層Iは3個のニューロンI
1 ,I2 ,I3 からなり、中間層Mはj個のニューロン
M1 ,M2 ,M3 ,…Mj からなり、出力層Oは3個の
ニューロンO1 ,O2 ,O3 からなっている。Next, the configuration of the neural network of the position / orientation correction unit 12 will be described. FIG. 3 is a block diagram showing the configuration of the neural network of the position / orientation correction unit 12. The neural network of the position / orientation correction unit 12 has a hierarchical structure including three layers of an input layer I, an intermediate layer M, and an output layer O, and the input layer I has three neurons I.
1 , I 2 , I 3 , the intermediate layer M is composed of j neurons M 1 , M 2 , M 3 , ... M j , and the output layer O is composed of 3 neurons O 1 , O 2 , O 3. Is becoming
【0013】入力層Iにおいて、第1のニューロンI1
には、位置・方位検出部11で検出された位置データのx
軸座標データX1 が入力され、第2のニューロンI2 に
は、位置・方位検出部11で検出された位置データのy軸
座標データX2 が入力され、第3のニューロンI3 に
は、位置・方位検出部11で検出された方位データX3 が
入力される。入力層Iの各ニューロンI1 ,I2 ,I3
は中間層Mの全てのニューロンM1 ,M2 ,M3 ,…M
j と各々異なる結合係数で結合している。In the input layer I, the first neuron I 1
Indicates x of the position data detected by the position / orientation detection unit 11.
The axis coordinate data X 1 is input, the y-axis coordinate data X 2 of the position data detected by the position / orientation detector 11 is input to the second neuron I 2 , and the third neuron I 3 is The direction data X 3 detected by the position / direction detecting unit 11 is input. Each neuron I 1 , I 2 , I 3 of the input layer I
Is all neurons M 1 , M 2 , M 3 , ... M of the hidden layer M
They are coupled to j with different coupling coefficients.
【0014】中間層MのニューロンM1 ,M2 ,M3 ,
…Mj は、入力層Iからの入力の合計値(下記(1) 式参
照)に基づいてその出力値Zj (出力値Z1 ,Z2 ,Z
3 ,…Zj の総称)を決定する。この出力値の決定は、
シグモイド関数(下記(2) 式参照)による演算で行われ
る。また、中間層Mの各ニューロンM1 ,M2 ,M3 ,
…Mj は出力層Oの全てのニューロンO1 ,O2 ,O3
と各々異なる結合係数で結合している。出力層Oのニュ
ーロンO1 ,O2 ,O3 は、中間層Mからの入力の合計
値(下記(1) 式参照)に基づいて、その出力値Yk (出
力値Y1 ,Y2 ,Y3 の総称)を決定する。この出力値
の決定も、シグモイド関数(下記(2) 式参照)による演
算で行われる。但し、前記出力層Oにおいて、第1のニ
ューロンO1 からはx軸座標データX1 を補正した値
(Y1 )が出力され、第2のニューロンO2 からはy軸
座標データX2 を補正した値(Y2 )が出力され、第3
のニューロンO3 からは方位データX3 を補正した値
(Y3 )が出力されるようになっている。The neurons M 1 , M 2 , M 3 , of the intermediate layer M
The output value Z j (output values Z 1 , Z 2 , Z 2 ) of M j is based on the total value of the inputs from the input layer I (see the following equation (1)).
3 , ... (general term of Z j ) is determined. This output value is determined by
It is calculated by the sigmoid function (see the formula (2) below). Further, each neuron M 1 , M 2 , M 3 , of the intermediate layer M,
... M j is all neurons O 1 , O 2 , O 3 of the output layer O
Are coupled with different coupling coefficients. The neurons O 1 , O 2 , and O 3 of the output layer O are based on the total value of the inputs from the intermediate layer M (see the following equation (1)), and their output values Y k (output values Y 1 , Y 2 , general term for Y 3) is determined. This output value is also determined by a sigmoid function (see the equation (2) below). However, in the output layer O, from the first neuron O 1 value obtained by correcting the x-axis coordinate data X 1 (Y 1) is output, the correction in the y-axis coordinate data X 2 from the second neuron O 2 The output value (Y 2 ) is output and the third
A value (Y 3 ) obtained by correcting the azimuth data X 3 is output from the neuron O 3 of .
【0015】具体的な、中間層MのニューロンM1 ,M
2 ,M3 ,…Mj 及び出力層OのニューロンO1 ,
O2 ,O3 の出力値の決定は、下記(1) 式に示される如
き結合係数wi を重みとした入力値ai の線形加算値ne
t を求め、その値を下記(2) 式に示される如きシグモイ
ド関数に代入することによって得られる出力値bを各ニ
ューロンの出力値として決定する。The concrete neurons M 1 and M of the intermediate layer M
2 , M 3 , ... M j and the neuron O 1 of the output layer O,
The output values of O 2 and O 3 are determined by the linear addition value ne of the input value a i with the coupling coefficient w i as the weight shown in the following formula (1).
An output value b obtained by obtaining t and substituting the value into a sigmoid function as shown in the following equation (2) is determined as an output value of each neuron.
【0016】[0016]
【数1】 [Equation 1]
【0017】[0017]
【数2】 [Equation 2]
【0018】次に、バックプロパゲーション則による学
習方法について説明する。バックプロパゲーション則の
学習は前向き演算と後ろ向き演算とに分かれる。Next, a learning method based on the back propagation rule will be described. Learning of the back propagation rule is divided into forward calculation and backward calculation.
【0019】前向き演算では、まず、入力データX
i (入力データX1 ,X2 ,X3 の総称)を入力層Iか
ら入力し、前記(1),(2) 式により、中間層Mの夫々のニ
ューロンの出力値Zj を求める。そして、この出力値Z
j から前記(1),(2) 式により、出力層Oの夫々のニュー
ロンの出力値Yk を求める。In the forward calculation, first, the input data X
i (general term for input data X 1 , X 2 , X 3 ) is input from the input layer I, and the output value Z j of each neuron of the intermediate layer M is obtained from the equations (1) and (2). And this output value Z
The output value Y k of each neuron of the output layer O is obtained from j by the above equations (1) and (2).
【0020】後ろ向き演算では、下記(3) 式にて表され
る教師データtk と出力層Oの出力値Yk との誤差Eを
逐次的に減少させるように、中間層Mと入力層Iとの間
の結合係数wji及び出力層Oと中間層Mとの間の結合係
数wkjの変更を行う。In the backward calculation, the intermediate layer M and the input layer I are arranged so that the error E between the teacher data t k expressed by the following equation (3) and the output value Y k of the output layer O is successively reduced. and it changes the coupling coefficient w kj between the coupling coefficient w ji and an output layer O and the intermediate layer M between.
【0021】[0021]
【数3】 [Equation 3]
【0022】また、誤差Eを出力層Oと中間層Mとの間
の結合係数wkjによって偏微分すると、下記(4) 式の如
くなる。When the error E is partially differentiated by the coupling coefficient w kj between the output layer O and the intermediate layer M, the following equation (4) is obtained.
【0023】[0023]
【数4】 [Equation 4]
【0024】そこで、結合係数wkjの修正量Δwkjは、
修正量Δwkjの大きさを制御するパラメータである学習
係数ηを用いて下記(5) 式の如く表される。[0024] Therefore, the correction amount Δw kj of the coupling coefficient w kj is,
It is expressed as the following equation (5) using the learning coefficient η which is a parameter for controlling the magnitude of the correction amount Δw kj .
【0025】[0025]
【数5】 [Equation 5]
【0026】同様に、誤差Eを中間層Mと入力層Iとの
間の結合係数wjiによって偏微分すると、下記(6) 式の
如くなる。Similarly, when the error E is partially differentiated by the coupling coefficient w ji between the intermediate layer M and the input layer I, the following equation (6) is obtained.
【0027】[0027]
【数6】 [Equation 6]
【0028】そこで、結合係数wjiの修正量Δwjiは、
修正量Δwjiの大きさを制御するパラメータである学習
係数ηを用いて下記(7) 式の如く表される。[0028] Therefore, the correction amount Δw ji of the coupling coefficient w ji is,
The learning coefficient η, which is a parameter for controlling the magnitude of the correction amount Δw ji , is used to represent the following expression (7).
【0029】[0029]
【数7】 [Equation 7]
【0030】このようにして、結合係数wkjの修正量Δ
wkj及び結合係数wjiの修正量Δwjiを求めて結合係数
wkj及び結合係数wjiを修正する。但し、実際には、学
習の収束を考慮して、1回前の修正量Δwkj(t-1) ,Δ
wji(t-1) を記憶しておいて、下記(8),(9) 式を用いて
修正量Δwkj(t) ,Δwji(t) を得る。In this way, the correction amount Δ of the coupling coefficient w kj
The correction amount Δw ji of w kj and the coupling coefficient w ji is calculated to correct the coupling coefficient w kj and the coupling coefficient w ji . However, in practice, considering the convergence of learning, the previous correction amounts Δw kj (t-1), Δ
The w ji (t-1) is stored and the correction amounts Δw kj (t) and Δw ji (t) are obtained by using the following equations (8) and (9).
【0031】[0031]
【数8】 [Equation 8]
【0032】[0032]
【数9】 [Equation 9]
【0033】以上の如きバックプロパゲーション則で
は、以上のような前向き演算と後ろ向き演算とを全ての
学習パターンについて繰り返し、誤差Eが十分に小さく
なるまで学習を行う。In the back propagation rule as described above, the forward calculation and the backward calculation as described above are repeated for all learning patterns, and learning is performed until the error E becomes sufficiently small.
【0034】次に、前述の如きバックプロパゲーション
則による学習に基づいた搬送車1の位置・方位の検出方
法について説明する。まず、搬送車1の実際の走行を行
う前に、位置・方位検出部11による検出結果を補正する
方法を学習するための走行を、搬送車1の実際の走行経
路において行う。この学習は位置・方位補正部12におい
て行われる。Next, a method of detecting the position / direction of the carrier 1 based on the learning based on the back propagation rule as described above will be described. First, before the actual traveling of the transport vehicle 1, a travel for learning a method of correcting the detection result by the position / orientation detection unit 11 is performed on the actual travel route of the transport vehicle 1. This learning is performed in the position / orientation correction unit 12.
【0035】図4は位置・方位の検出結果の補正方法の
学習手順を示すフローチャートである。まず、学習デー
タの個数を "0”にリセットし(ステップS1) 、作業者
が搬送車1を既知の位置・方位へ移動させる(ステップ
S2) 。FIG. 4 is a flow chart showing the learning procedure of the correction method of the detection result of the position / direction. First, the number of learning data is reset to "0" (step S1), and the operator moves the carrier 1 to a known position / orientation (step S1).
S2).
【0036】そして、その位置において、テレビカメラ
10が撮像した画像上での標識2,2の位置・方位に基づ
いて、位置・方位検出部11にて、幾何学的に搬送車1の
現在の位置・方位を検出し(ステップS3) 、その検出デ
ータが位置・方位補正部12へ与えられる。続いて、その
位置における正しい位置・方位のデータを、作業者が教
師データとして位置・方位補正部12へ入力する(ステッ
プS4) 。位置・方位補正部12では、位置・方位に関す
る、前記検出データ及び前記教師データを1組の学習デ
ータとして記憶する(ステップS5) 。Then, at that position, the television camera
Based on the positions / directions of the signs 2 and 2 on the image captured by 10 the position / direction detection unit 11 geometrically detects the current position / direction of the carrier vehicle 1 (step S3), The detection data is given to the position / orientation correction unit 12. Then, the operator inputs the correct position / orientation data at that position to the position / orientation correction unit 12 as teacher data (step S4). The position / orientation correction unit 12 stores the detection data and the teacher data regarding the position / orientation as one set of learning data (step S5).
【0037】そして、学習データの個数を1つ増加させ
(ステップS6) 、その記憶した学習データが所定個数を
超えたか否かを判別する(ステップS7) 。Then, the number of learning data is increased by 1 (step S6), and it is determined whether or not the stored learning data exceeds a predetermined number (step S7).
【0038】ステップS7において、記憶した学習データ
の個数が所定個数を超えていないと判別された場合は、
ステップS2に戻って前述の如き処理を繰り返し、前記所
定個数を超えるまで学習データを収集する。一方、ステ
ップS7において、記憶した学習データが所定個数を超え
ていると判別された場合は、収集した学習データに基づ
き前述の如きバックプロパゲーション則を用いて、前記
検出データ及び前記教師データの組からニューラルネッ
トワークが正しい出力を出すように学習を行い(ステッ
プS8) 、その学習のための走行を終了する。If it is determined in step S7 that the number of stored learning data does not exceed the predetermined number,
Returning to step S2, the processing as described above is repeated, and the learning data is collected until the number exceeds the predetermined number. On the other hand, in step S7, when it is determined that the stored learning data exceeds the predetermined number, the back propagation rule as described above is used based on the collected learning data, and the set of the detection data and the teacher data is set. The learning is performed so that the neural network outputs the correct output from (step S8), and the traveling for the learning ends.
【0039】以上の如き学習が終了すると、搬送物を搬
送するための実走行を行う。図5は実走行における搬送
車1の位置・方位の検出手順を示すフローチャートであ
る。When the learning as described above is completed, the actual traveling for conveying the conveyed object is performed. FIG. 5 is a flowchart showing a procedure for detecting the position / direction of the carrier vehicle 1 during actual traveling.
【0040】まず、位置・方位検出部11により、搬送車
1の現在の位置・方位を検出する(ステップS11)。な
お、この位置・方位の検出値は、魚眼レンズの収差及び
標識2,2の設置位置誤差を含んだ情報である。First, the position / direction detector 11 detects the current position / direction of the carrier 1 (step S11). The detected values of the position / direction are information including the aberration of the fisheye lens and the installation position error of the markers 2 and 2.
【0041】次に、位置・方位補正部12において、前記
位置・方位検出部11の位置・方位の検出値を、前述の如
く補正のための学習を行ったニューラルネットワークを
用いて補正し(ステップS12)、その補正された位置・方
位の検出値を、位置・方位の最終的な検出値として走行
制御部13へ出力する(ステップS13)。Next, in the position / azimuth correcting unit 12, the detected values of the position / azimuth of the position / azimuth detecting unit 11 are corrected using a neural network which has been learned for correction as described above (step S12), and outputs the corrected detected value of the position / azimuth to the travel control unit 13 as the final detected value of the position / azimuth (step S13).
【0042】このように、位置・方位補正部12において
は、位置・方位検出部11の位置・方位の検出値を、その
期待値との偏差が最小となるように補正するように予め
学習したニューラルネットワークを用いて位置・方位検
出部11の検出値を補正するので、魚眼レンズの収差及び
標識2,2の設置位置誤差があっても、位置・方位補正
部12の出力である搬送車1の現在の位置・方位の補正さ
れた検出値の精度は低下しない。As described above, in the position / azimuth correction unit 12, the position / direction detection value of the position / direction detection unit 11 is preliminarily learned so as to be corrected so that the deviation from the expected value is minimized. Since the detection value of the position / orientation detecting unit 11 is corrected by using the neural network, even if there is an aberration of the fisheye lens and an installation position error of the markers 2 and 2, the output of the position / orientation correcting unit 12 of the carrier vehicle 1 is detected. The accuracy of the corrected detection value of the current position / direction does not decrease.
【0043】[0043]
【発明の効果】以上詳述したように本発明方法では、ニ
ューラルネットワークがレンズの収差及び標識の設置位
置の誤差に基づいて生じる、位置・方位の検出値と、そ
の期待値との誤差を最小にするよう位置・方位の検出値
を補正するように学習しており、その学習結果に基づい
て、幾何学的手法による位置・方位の検出値を補正する
ようになっているため、レンズの収差及び標識の設置位
置の誤差があっても位置・方位の検出精度の低下を抑止
できる等、本発明は優れた効果を奏する。As described above in detail, in the method of the present invention, the neural network minimizes the error between the detected value of the position / orientation and its expected value, which is caused based on the aberration of the lens and the error of the installation position of the sign. It is learned to correct the detected values of the position and azimuth so that the detected values of the position and azimuth by the geometrical method are corrected based on the learning result. Further, the present invention has excellent effects such as reduction of the detection accuracy of the position / orientation even if there is an error in the installation position of the sign.
【図1】本発明に係る搬送車の位置・方位検出方法の実
施に用いる搬送システムの概略構成を示す説明図であ
る。FIG. 1 is an explanatory diagram showing a schematic configuration of a transportation system used for implementing a position / orientation detecting method for a transportation vehicle according to the present invention.
【図2】搬送車の位置・方位検出系の構成を示すブロッ
ク図である。FIG. 2 is a block diagram showing a configuration of a position / orientation detection system of a carrier vehicle.
【図3】位置・方位補正部のニューラルネットワークの
構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a neural network of a position / azimuth correction unit.
【図4】位置・方位の検出結果の補正方法の学習手順を
示すフローチャートである。FIG. 4 is a flowchart showing a learning procedure of a correction method of a position / azimuth detection result.
【図5】実走行における搬送車の位置・方位の検出手順
を示すフローチャートである。FIG. 5 is a flowchart showing a procedure for detecting the position / direction of a carrier vehicle in actual traveling.
1 搬送車 2 標識 10 テレビカメラ 11 位置・方位検出部 12 位置・方位補正部 I 入力層 M 中間層 O 出力層 S 空間 1 Transport Vehicle 2 Sign 10 TV Camera 11 Position / Direction Detector 12 Position / Direction Corrector I Input Layer M Intermediate Layer O Output Layer S Space
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/18 8945−5L 15/62 415 9287−5L G06G 7/60 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Office reference number FI technical display location G06F 15/18 8945-5L 15/62 415 9287-5L G06G 7/60
Claims (1)
走行領域の画像を、該走行領域を走行する搬送車からレ
ンズを介して撮像し、撮像された画像上での前記標識の
位置情報に基づいて幾何学的手法により前記搬送車の位
置・方位を検出する方法において、 前記幾何学的手法による位置・方位の検出値と、その期
待値とに基づいて、これらの偏差を最小にすべく前記検
出値を補正する学習を所定のニューラルネットワークに
対して予め行っておき、その学習を行ったニューラルネ
ットワークにより前記幾何学的手法による位置・方位の
検出値を補正することを特徴とする搬送車の位置・方位
検出方法。1. An image of a traveling area in which a plurality of signs are respectively provided at predetermined positions is imaged through a lens from a transportation vehicle traveling in the traveling area, and position information of the sign on the imaged image. In the method of detecting the position / azimuth of the guided vehicle by a geometrical method based on the above, based on the detected value of the position / azimuth by the geometrical method and its expected value, these deviations are minimized. Therefore, learning for correcting the detected value is performed in advance for a predetermined neural network, and the detected value of the position / orientation by the geometrical method is corrected by the learned neural network. Car position / direction detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3357065A JPH05172522A (en) | 1991-12-24 | 1991-12-24 | Method for detecting position and bearing of carrier vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3357065A JPH05172522A (en) | 1991-12-24 | 1991-12-24 | Method for detecting position and bearing of carrier vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05172522A true JPH05172522A (en) | 1993-07-09 |
Family
ID=18452207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3357065A Pending JPH05172522A (en) | 1991-12-24 | 1991-12-24 | Method for detecting position and bearing of carrier vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05172522A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008210403A (en) * | 2008-04-30 | 2008-09-11 | Mitsubishi Heavy Ind Ltd | Method of guidance and control for autonomous moving type robot to specified position |
JP2010055303A (en) * | 2008-08-27 | 2010-03-11 | Denso It Laboratory Inc | Learning data management device, learning data management method and air-conditioner for vehicle, and control device of apparatus |
-
1991
- 1991-12-24 JP JP3357065A patent/JPH05172522A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008210403A (en) * | 2008-04-30 | 2008-09-11 | Mitsubishi Heavy Ind Ltd | Method of guidance and control for autonomous moving type robot to specified position |
JP2010055303A (en) * | 2008-08-27 | 2010-03-11 | Denso It Laboratory Inc | Learning data management device, learning data management method and air-conditioner for vehicle, and control device of apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110969655B (en) | Method, device, equipment, storage medium and vehicle for detecting parking space | |
EP4036870A1 (en) | Parking spot detection method and parking spot detection system | |
CN102037735B (en) | Self calibration of extrinsic camera parameters for a vehicle camera | |
CN104204721B (en) | Single camera distance estimations | |
CN105141945A (en) | Surround-view camera system (vpm) online calibration | |
WO2012043045A1 (en) | Image processing device and image capturing device using same | |
US20140225990A1 (en) | Depth sensing method and system for autonomous vehicles | |
JP2004086779A (en) | Obstacle detection device and its method | |
CN111486848A (en) | AGV visual navigation method, system, computer equipment and storage medium | |
US11132530B2 (en) | Method for three-dimensional graphic reconstruction of a vehicle | |
CN111510704B (en) | Method for correcting camera dislocation and device using same | |
CN112201078A (en) | Automatic parking space detection method based on graph neural network | |
JP2019003606A (en) | Map change point detection device | |
US20240054656A1 (en) | Signal processing device, signal processing method, and signal processing system | |
JP7137464B2 (en) | Camera calibration device, camera calibration method, and program | |
JP2707546B2 (en) | Vehicle steering control device | |
JPH04274935A (en) | Device for deciding quantity of operation of vehicle | |
JPH05172522A (en) | Method for detecting position and bearing of carrier vehicle | |
JP3757502B2 (en) | Moving object travel control device | |
CN113673462B (en) | Logistics AGV positioning method based on lane lines | |
CN114088083A (en) | Mapping method based on top view semantic object | |
CN111583387A (en) | Method and system for three-dimensional reconstruction of outdoor scene of unmanned aerial vehicle | |
JP3122777B2 (en) | Distance measuring device for unmanned vehicles | |
CN114972494B (en) | Map construction method and device for memorizing parking scene | |
JPH117534A (en) | Road white line detection device |