JPH0820253B2 - Position detection method in mobile robot - Google Patents

Position detection method in mobile robot

Info

Publication number
JPH0820253B2
JPH0820253B2 JP61282296A JP28229686A JPH0820253B2 JP H0820253 B2 JPH0820253 B2 JP H0820253B2 JP 61282296 A JP61282296 A JP 61282296A JP 28229686 A JP28229686 A JP 28229686A JP H0820253 B2 JPH0820253 B2 JP H0820253B2
Authority
JP
Japan
Prior art keywords
point
mobile robot
points
characteristic
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61282296A
Other languages
Japanese (ja)
Other versions
JPS63134912A (en
Inventor
真一郎 遠藤
Original Assignee
神鋼電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 神鋼電機株式会社 filed Critical 神鋼電機株式会社
Priority to JP61282296A priority Critical patent/JPH0820253B2/en
Publication of JPS63134912A publication Critical patent/JPS63134912A/en
Publication of JPH0820253B2 publication Critical patent/JPH0820253B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 「産業上の利用分野」 この発明は、工場内等をコンピュータコントロールに
よって自動的に移動する移動ロボットに係わり、特に、
該移動ロボットの現在位置を検出する位置検出方法に関
する。
The present invention relates to a mobile robot that automatically moves inside a factory or the like by computer control, and in particular,
The present invention relates to a position detecting method for detecting the current position of the mobile robot.

「従来の技術」 フレキシブルな生産システムが強く要求されているFA
(Factory Automation)においては、この種の移動ロ
ボット(例えば、無人搬送車)が物品の運搬に重要な役
割を担っており、また、最近は、この移動ロボットがホ
テルや事務所、病院等においても使用され始めている。
"Conventional technology" FA for which a flexible production system is strongly required
In (Factory Automation), this type of mobile robot (for example, an automated guided vehicle) plays an important role in the transportation of goods, and recently, this mobile robot is also used in hotels, offices, hospitals, etc. Is beginning to be used.

従来、この移動ロボットは、通常、次のいずれかの方
式によって誘導されていた。
Conventionally, this mobile robot is usually guided by one of the following methods.

(1)電磁誘導方式 走行路の床面に誘導用ケーブルを埋設して3〜10KHz
程度の低周波電流を流し、無人搬送車の下面に取り付け
たピックアップコイルで低周波電流による磁界を検出し
ながらステアリングを制御する。この電磁誘導方式に
は、次の問題がある。
(1) Electromagnetic induction method 3-10KHz by embedding a guiding cable on the floor of the road.
A low-frequency current of a certain level is applied, and the steering is controlled while the magnetic field due to the low-frequency current is detected by the pickup coil attached to the lower surface of the automated guided vehicle. This electromagnetic induction system has the following problems.

床面配線工事に手間が掛かり、コストも相対的に高
い。
Floor wiring work is troublesome and the cost is relatively high.

レイアウト変更に対する融通性が低く、ステーション
の位置変更だけでも大変である。
The flexibility to change the layout is low, and changing the position of the station is difficult.

コンクリートかぶり厚を50〜60mm確保する必要があ
る。
It is necessary to secure a concrete cover thickness of 50 to 60 mm.

床面が鉄板等の金属の場合に誘導が難しい。Guidance is difficult when the floor is metal such as iron plate.

(2)光学テープ反射方式 走行路面に反射テープを張り付け、無人搬送車の下面
に取り付けた投光器と受光器とでテープからの反射光を
とらえてステアリングを行う。
(2) Optical tape reflection method A reflection tape is attached to the road surface, and the light emitted from the tape is captured by the projector and the light receiver attached to the lower surface of the automated guided vehicle for steering.

この方式の場合、上述した電磁誘導方式に比較し、テ
ープの布設が容易であるという利点があるが、一方、テ
ープの汚れ,破損が発生しやすく、また、明るい床,光
沢のある床の場合に、テープの識別が難しいという問題
がある。また、走行の安全についても、テープの中心割
り出しを厳密に行えないので、適用場所によっては問題
がある。さらに、反射テープは根本的に誘導の役目しか
果たさないので、ステーションには当然マークが必要と
なり、また、複数台の合流制御が難しい。
This method has the advantage that the tape can be laid more easily than the above-mentioned electromagnetic induction method, but on the other hand, when the tape is easily soiled or damaged, and when the floor is bright or glossy. Another problem is that it is difficult to identify the tape. Also, regarding traveling safety, since the center of the tape cannot be strictly determined, there is a problem depending on the application place. Further, since the reflective tape basically serves only as a guide, a mark is naturally required at the station, and it is difficult to control the merging of a plurality of stations.

「発明が解決しようとする問題点」 上述したように、従来の移動ロボットの誘導方式は、
いずれも床面にケーブルまたはテープを布設するため種
々の問題が生じていた。したがって、このような問題点
をいずれも解決するには、床面にケーブル,テープ等を
全く布設する必要がない誘導方式を開発することが必要
となる。この場合、移動ロボットの現在位置を逐次正確
に検出することができれば、床面にケーブル等を布設す
ることなく、移動ロボットを目的位置まで誘導すること
が可能となる。
“Problems to be Solved by the Invention” As described above, the conventional mobile robot guidance system is
In each case, various problems were caused because the cable or tape was laid on the floor surface. Therefore, in order to solve any of these problems, it is necessary to develop a guide system that does not require any cable, tape or the like to be laid on the floor surface. In this case, if the current position of the mobile robot can be sequentially and accurately detected, the mobile robot can be guided to the target position without laying a cable or the like on the floor surface.

この発明は上述した事情に鑑みてなされたもので、そ
の目的は、移動ロボットの現在位置を短時間で正確に検
出することができる移動ロボットの位置検出方法を提供
することにある。
The present invention has been made in view of the above circumstances, and an object thereof is to provide a position detecting method for a mobile robot that can accurately detect the current position of the mobile robot in a short time.

「問題点を解決するための手段」 この発明は、予め前記移動ロボットの移動範囲におけ
る複数の特徴画像をメモリ内に記憶させておき、位置検
出時点において、前記移動ロボットに設置された撮像装
置によって周囲の画像を撮像し、この周囲画像から4箇
所の特徴部分を抽出し、これら4個所の特徴部分に対応
する前記メモリ内の特徴画像を特定し、この特定された
特徴画像の座標から前記移動ロボットの現在位置を検出
することを特徴としている。
"Means for Solving Problems" The present invention stores a plurality of characteristic images in the moving range of the mobile robot in advance in a memory, and uses an imaging device installed in the mobile robot at the time of position detection. A surrounding image is captured, four characteristic portions are extracted from the surrounding image, the characteristic images in the memory corresponding to these four characteristic portions are specified, and the movement is performed from the coordinates of the specified characteristic images. It is characterized by detecting the current position of the robot.

「実施例」 以下、図面を参照してこの発明の一実施例について説
明する。第1図はこの発明の一実施例による位置検出方
法を適用した無人搬送車(移動ロボット)の構成を示す
ブロック図である。この図において、符号1はCCD等を
用いて構成されたテレビカメラであり、このテレビカメ
ラから出力されるビデオ信号はA/D(アナログ/ディジ
タル)変換器2へ供給される。A/D変換器2は、ビデオ
信号を逐次ディジタルデータに変換し、画像データとし
てバスライン3へ出力する。4は中央コンピュータから
無線で伝送される各種の指示および目的地データ等を受
信する受信装置であり、受信した各データをバスライン
3へ出力する。5はCPU(中央処理装置)、6はCPU5に
おいて用いられるプログラムおよび多数の特徴点データ
が予め記憶されたROMである。ここで、特徴点データと
は、無人搬送車の走行範囲内における特徴点のX−Y座
標であり、特徴点とは、この実施例では壁,柱,窓枠等
の縦線を上から見た点である。例えば、第2図において
符号Wは上から見た壁であり、この場合の特徴点はP1〜
P4である。7はRAMであり、受信装置4から出力される
データ等が記憶される一時記憶エリアと、A/D変換器2
から出力される画像データが記憶される画像データエリ
アとが設けられている。
[Embodiment] An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the structure of an automatic guided vehicle (mobile robot) to which a position detecting method according to an embodiment of the present invention is applied. In the figure, reference numeral 1 is a television camera constituted by using a CCD or the like, and a video signal output from this television camera is supplied to an A / D (analog / digital) converter 2. The A / D converter 2 sequentially converts the video signal into digital data and outputs it as image data to the bus line 3. A receiving device 4 receives various instructions wirelessly transmitted from the central computer and destination data, and outputs each received data to the bus line 3. Reference numeral 5 is a CPU (central processing unit), and 6 is a ROM in which programs used in the CPU 5 and a large number of feature point data are stored in advance. Here, the feature point data is the XY coordinates of the feature points in the traveling range of the automated guided vehicle, and the feature points are the vertical lines of the walls, columns, window frames, etc. seen from above in this embodiment. It is a point. For example, in FIG. 2, the symbol W is a wall seen from above, and the characteristic points in this case are P1 to
P4. Reference numeral 7 denotes a RAM, which is a temporary storage area for storing data output from the receiving device 4 and an A / D converter 2
And an image data area in which the image data output from is stored.

CPU5は一定時間が経過する毎に、A/D変換器2から順
次出力される1画面分の画像データをRAM7内の画像デー
タエリアに書き込み、次いでこの画像データエリア内の
各データに基づいて壁,柱,窓枠等の縦線を検出する。
この縦線は、周囲より輝度が低い点(または高い点)が
縦に連続していることにより検出することができる。次
にCPU5は、検出した縦線の中から任意の4本を選び、こ
の4本の線の画面上の位置およびRAM7内の前述した特徴
点データに基づいて、後に説明する方法で現在位置を検
出する。次にCPU5は、この検出した現在位置およびRAM7
の一時記憶エリア内に記憶されている目的位置データか
らステアリング制御用のデータを作成し、ステアリング
装置8へ出力する。ステアリング装置8は、供給された
データに基づいてかじ取車輪を駆動する。次に、この実
施例による位置検出方法について詳述する。
The CPU5 writes the image data for one screen, which is sequentially output from the A / D converter 2, into the image data area in the RAM7 every time a certain time has passed, and then, based on each data in this image data area , Detects vertical lines such as pillars and window frames.
This vertical line can be detected by the fact that points whose brightness is lower (or higher) than the surroundings are vertically continuous. Next, the CPU 5 selects an arbitrary four lines from the detected vertical lines, and based on the positions of these four lines on the screen and the characteristic point data in the RAM 7 described above, the current position is determined by the method described later. To detect. Next, CPU5 detects the current position and RAM7
Data for steering control is created from the target position data stored in the temporary storage area of and is output to the steering device 8. The steering device 8 drives the steering wheel based on the supplied data. Next, the position detecting method according to this embodiment will be described in detail.

(1)原理 まず、位置検出方法の原理を説明する。第2図におい
て、符号1はテレビカメラであり、このテレビカメラ1
の現在位置を検出する。点Oはレンズの中心点、Mは撮
像面、fは点Oと撮像面Mとの間の距離(焦点距離)で
ある。また、E1〜E4は点P1〜P4における縦線の像、ま
た、X3,X4は各々テレビカメラ1の中心線と像E3,E4との
距離である。
(1) Principle First, the principle of the position detection method will be described. In FIG. 2, reference numeral 1 is a television camera, and the television camera 1
Detect the current position of. Point O is the center point of the lens, M is the imaging surface, and f is the distance (focal length) between the point O and the imaging surface M. Further, E1 to E4 are vertical line images at the points P1 to P4, and X3 and X4 are distances between the center line of the television camera 1 and the images E3 and E4, respectively.

この場合、図に示す角度αは、距離fおよびX3,X4か
ら次のように求められる。
In this case, the angle α shown in the figure is obtained from the distance f and X3, X4 as follows.

α=α−α =tan-1(f/X3)−tan-1(f/X4) ……(1) 同様に、図に示す角度β,γも各々距離fと、像E1〜
E3の位置から求められる。
α = α 1 −α 2 = tan −1 (f / X3) −tan −1 (f / X4) (1) Similarly, the angles β and γ shown in the figure are the distance f and the image E1 ...
Calculated from the position of E3.

しかして、テレビカメラ1によって得られる情報は、
上記の角度α,β,γであり、以下、これらの角度に基
づいてテレビカメラ1の位置、すなわち無人搬送車の位
置を検出する方法を説明する。
Then, the information obtained by the TV camera 1 is
The above angles are α, β, γ, and a method of detecting the position of the television camera 1, that is, the position of the automatic guided vehicle based on these angles will be described below.

いま、特徴点P2〜P4が予め解っているとする。この場
合、第3図に示すように、点P3,P4を通り、点P3,P4を臨
む円周角がαとなる円G1を描けば、点Oはこの円G1上に
ある。同様に、点P2,P3を通り、点P2,P3を臨む円周角が
βとなる円G2を描けば、点Oはこの円G2上にある。すな
わち、テレビカメラ1によって撮影された像E2〜E4に対
応する点P2〜P4が予め解っているとすれば(点P2〜P4の
X−Y座標が解っているとすれば)、点Oは、上述した
円G1,G2の交点として求められる。
It is assumed that the feature points P2 to P4 are known in advance. In this case, as shown in FIG. 3, if a circle G1 passing through the points P3 and P4 and facing the points P3 and P4 and having a circumferential angle of α is drawn, the point O is on the circle G1. Similarly, if a circle G2 passing through the points P2 and P3 and facing the points P2 and P3 and having a circumferential angle of β is drawn, the point O is on the circle G2. That is, if the points P2 to P4 corresponding to the images E2 to E4 taken by the television camera 1 are known in advance (if the XY coordinates of the points P2 to P4 are known), the point O is , Is calculated as the intersection of the circles G1 and G2 described above.

しかし、実際には、像E2〜E4に各々対応する特徴点P2
〜P4が、ROM6内に記憶されているどの特徴点であるかは
全く解らない。そこで、次の手順によって点Oを求め
る。
However, in reality, the feature points P2 corresponding to the images E2 to E4, respectively.
~ It is not known at all which feature point P4 is stored in ROM6. Therefore, the point O is obtained by the following procedure.

ROM6から任意の3点Px,Py,PzのX−Y座標を読み出
す。
The XY coordinates of arbitrary three points Px, Py, Pz are read from ROM6.

点Px,Pyを通り、円周角βの円の方程式を求める。An equation of a circle having a circumferential angle β passing through the points Px and Py is obtained.

点Py,Pzを通り、円周角αの円の方程式を求める。An equation of a circle passing through the points Py and Pz and having a circumference angle α is obtained.

上記の方程式を連立方程式として解くことにより、点
OのX−Y座標を求める。
The XY coordinates of the point O are obtained by solving the above equations as simultaneous equations.

ここで求められたX−Y座標が実際の点Oの座標であ
るか否かは解らない。そこで、次の手順により実際の点
Oの座標であるか否かをチェックする。
It is not known whether or not the XY coordinates obtained here are the coordinates of the actual point O. Therefore, it is checked whether or not it is the coordinate of the actual point O by the following procedure.

上記の過程により求められたX−Y座標と角度γか
ら第2図に示す直線r1の方程式を求める。
The equation of the straight line r1 shown in FIG. 2 is obtained from the XY coordinates and the angle γ obtained in the above process.

ROM6内に記憶されている特徴点のいずれかが上記破線
r1を通るか否かを調べる。そして、破線r1を通る特徴点
が発見された場合は、の過程によって求められたX−
Y座標を実際の点Oの座標として認識する。
One of the feature points stored in ROM6 is the broken line
Check whether it passes r1. Then, when a feature point passing through the broken line r1 is found, X− found by the process of
The Y coordinate is recognized as the coordinate of the actual point O.

しかして、ROM6内に記憶されている特徴点から選択し
た3点の組み合わせの全てについて上記〜の処理を
行って点Oの座標を求める。
Then, the above-mentioned processes (1) to (3) are performed for all combinations of the three points selected from the characteristic points stored in the ROM 6 to obtain the coordinates of the point O.

(2)実施例による位置検出方法 以下に説明する方法は、原理的には上記の方法と同じ
であり、また、角度α〜γおよびROM6内の特徴点データ
から点Oの位置(X−Y座標)を求めることも上記の方
法と同じである。しかし、処理過程は異なっている。以
下、その処理過程を順次説明する。
(2) Position detection method according to the embodiment The method described below is the same as the above method in principle, and the position (X-Y) of the point O from the angle α to γ and the feature point data in the ROM 6 is detected. Obtaining the coordinates) is also the same as the above method. However, the processing process is different. Hereinafter, the processing steps will be sequentially described.

ROM6から任意の2点Pi,PjのX−Y座標を読み出す。The XY coordinates of arbitrary two points Pi and Pj are read from ROM6.

第4図に示すように、点Pi,Pjを通り、点Pi,Pjを臨む
円周角がθ(第2図参照)となる円G3を求める。具体的
には、円G3の方程式を求める。
As shown in FIG. 4, a circle G3 passing through the points Pi, Pj and having a circumferential angle of θ (see FIG. 2) facing the points Pi, Pj is obtained. Specifically, the equation of the circle G3 is calculated.

円G3上に任意に一点Poをとり、この点Poから図に示す
直線(r2),(r3)を引き、直線(r2),(r3)と円G3
との交点Pa,Pbを求める。すなわち、 角PaPoPi=γ 角PbPoPj=α となるように直線(r2),(r3)を引いて、点Pa,Pbを
求める。具体的には、直線(r2),(r3)の方程式を求
め、該方程式と円G3の方程式との連立方程式を解くこと
により点Pa,PbのX−Y座標を求める。
One point Po is arbitrarily set on the circle G3, the straight lines (r2) and (r3) shown in the figure are drawn from this point Po, and the straight lines (r2) and (r3) and the circle G3 are drawn.
Find the intersection points Pa and Pb with. That is, the straight lines (r2) and (r3) are drawn so that the angle PaPoPi = γ and the angle PbPoPj = α are obtained, and the points Pa and Pb are obtained. Specifically, the equations of the straight lines (r2) and (r3) are obtained, and the simultaneous equations of the equation and the equation of the circle G3 are solved to obtain the XY coordinates of the points Pa and Pb.

以上の処理過程において、点Pi,Pjが各々第2図に示
す実際の点P1,P4に対応しているとすれば、点Oは円G3
上にある。また、第2図に示す直線r3は、点Oが円G3上
のどの位置にあっても必ず点Pbを通る。このことは、第
4図に示す角PjPoPbと角PjPo′Pbとが等しいことから明
らかであろう。同様に、第2図に示す直線r2は、点Oが
円G3上のどの位置にあっても必ず点Paを通る。以上の結
果、第2図に示す点P2は第5図にハッチングを付して示
す範囲内に存在し、また、第2図に示す点P3は第6図に
ハッチングを付して示す範囲内に存在することになる。
そこで、次のの処理を行う。なお、第5図において直
線L1は点PaとPjを結んだ直線、直線L2は点PaとPiを結ん
だ直線である。また、第6図において、直線L3は点Pbと
点Pjとを結んだ直線、直線L4は点PbとPiとを結んだ直線
である。
In the above process, if the points Pi and Pj correspond to the actual points P1 and P4 shown in FIG. 2, respectively, the point O is the circle G3.
It is above. The straight line r3 shown in FIG. 2 always passes through the point Pb regardless of the position of the point O on the circle G3. This will be clear from the fact that the angle PjPoPb and the angle PjPo'Pb shown in FIG. 4 are equal. Similarly, the straight line r2 shown in FIG. 2 always passes through the point Pa regardless of the position of the point O on the circle G3. As a result, the point P2 shown in FIG. 2 is within the range shown by hatching in FIG. 5, and the point P3 shown in FIG. 2 is within the range shown by hatching in FIG. Will exist in.
Therefore, the following processing is performed. In FIG. 5, a straight line L1 is a straight line connecting points Pa and Pj, and a straight line L2 is a straight line connecting points Pa and Pi. Further, in FIG. 6, a straight line L3 is a straight line connecting the points Pb and Pj, and a straight line L4 is a straight line connecting the points Pb and Pi.

ROM6内の各特徴点の中から第5図にハッチングを付し
て示す範囲に含まれる点を選び出し、選び出した各点に
ついて次の処理を行う。
From each characteristic point in the ROM 6, points included in the range shown by hatching in FIG. 5 are selected, and the following processing is performed for each selected point.

(i)その点と点Paとを結ぶ直線L5(第5図参照)を求
め、この直線と円G3との交点Pdを求める。
(I) A straight line L5 connecting the point and the point Pa (see FIG. 5) is obtained, and an intersection Pd of this straight line and the circle G3 is obtained.

(ii)次に、第6図に示すように、上記の交点Pdと点Pb
とを結ぶ直線L6を求める。
(Ii) Next, as shown in FIG. 6, the above-mentioned intersection point Pd and point Pb
Find the straight line L6 connecting to.

(iii)次に、ROM6内の各特徴点の中から、第6図に示
す範囲に含まれるものを選び出し、選び出した各点が直
線L6上にあるか否かを調べる。そして、直線L6上にある
点が検出された場合に、点Pdを第2図の点Oであると認
識する。
(Iii) Next, from the characteristic points in the ROM 6, those included in the range shown in FIG. 6 are selected, and it is checked whether or not the selected points are on the straight line L6. Then, when a point on the straight line L6 is detected, the point Pd is recognized as the point O in FIG.

以上述べた〜の処理を、ROM6内の特徴点の総ての
組み合わせについて行って点Oの位置を求める。
The above-described processes 1 to 3 are performed for all combinations of the feature points in the ROM 6 to obtain the position of the point O.

しかして、第1図の構成によれば、床面に誘導ケーブ
ル等を布設する必要がなく、したがって、安価でしかも
フレキシブリティに富む無人搬送システムを構成するこ
とが可能となる。また、位置計算の画像データとして、
垂直な線を利用しているので、画像処理時間が少なくて
すみ、高速で移動するロボットにも適用することができ
る。
Therefore, according to the configuration of FIG. 1, it is not necessary to lay an induction cable or the like on the floor surface, and therefore, it is possible to configure an inexpensive and flexible unmanned transportation system. Also, as image data for position calculation,
Since vertical lines are used, the image processing time is short, and it can be applied to a robot that moves at high speed.

なお、上記の処理は次のような処理でもよい。 The above process may be the following process.

(i)第5図に示す直線L2を、点Paを中心に矢印Y1方向
へ回転させ、該直線と最初に交わる特徴点Pe(第5図参
照)を求める。
(I) The straight line L2 shown in FIG. 5 is rotated in the direction of the arrow Y1 about the point Pa, and the characteristic point Pe (see FIG. 5) that first intersects the straight line is obtained.

(ii)同様に、第6図に示す直線L4を、点Pbを中心に矢
印Y2方向へ回転させ、該直線と最初に交わる点Pfを求め
る。
(Ii) Similarly, the straight line L4 shown in FIG. 6 is rotated around the point Pb in the direction of the arrow Y2, and the point Pf that first intersects the straight line is obtained.

(iii)次に直線PePaと直線PfPbの交点Pgを求める。(Iii) Next, find the intersection point Pg between the straight line PePa and the straight line PfPb.

(iv)次に、この交点Pgが円G3上にあるか否かを調べ
る。そして、円G3上にあれば、交点Pgを点Oであると認
識する。
(Iv) Next, it is checked whether or not this intersection Pg is on the circle G3. If it is on the circle G3, the intersection point Pg is recognized as the point O.

(v)円G3上にない場合は、直線L2,L4を各々さらに回
転させて次の特徴点との交点を求め、そして、上記(ii
i),(iv)の処理を行う。
(V) If it is not on the circle G3, the straight lines L2 and L4 are each further rotated to find the intersection with the next feature point, and then (ii)
Perform steps i) and (iv).

また、上記実施例においては、壁等のたての線を検出
するようにしたが、検出用のマークを描いた紙等を壁に
貼ってもよい。
Further, in the above-described embodiment, the vertical line of the wall or the like is detected, but paper or the like on which a detection mark is drawn may be attached to the wall.

「発明の効果」 以上説明したように、この発明によれば、移動ロボッ
トの現在位置を検出する位置検出方法において、予め前
記移動ロボットの移動範囲における複数の特徴画像をメ
モリ内に記憶させておき、位置検出時点において、前記
移動ロボットに設置された撮像装置によって周囲の画像
を撮像し、この周囲画像から4箇所の特徴部分を抽出
し、これら4箇所の特徴部分に対応する前記メモリ内の
特徴画像を特定し、この特定された特徴画像の座標から
前記移動ロボットの現在位置を検出するようにしたの
で、移動ロボットの現在位置を、短時間で正確に検出す
ることができる効果が得られる。そして、この発明を適
用すれば、床面にテープを布設する等、移動ロボットの
外界に該移動ロボットの位置検出を補助する設備を設け
ることなく、移動ロボットを目的地まで誘導することが
できる。この結果、従来の移動ロボットの各種の問題点
を全て解決することができる。
[Advantages of the Invention] As described above, according to the present invention, in the position detecting method for detecting the current position of the mobile robot, a plurality of characteristic images in the moving range of the mobile robot are stored in advance in the memory. At the time of position detection, an image of the surroundings is picked up by an image pickup device installed in the mobile robot, four characteristic parts are extracted from the peripheral image, and the characteristic in the memory corresponding to these four characteristic parts is extracted. Since the image is specified and the current position of the mobile robot is detected from the coordinates of the specified characteristic image, the current position of the mobile robot can be accurately detected in a short time. When the present invention is applied, the mobile robot can be guided to the destination without installing equipment for assisting the position detection of the mobile robot in the outside world such as laying a tape on the floor surface. As a result, it is possible to solve all the various problems of the conventional mobile robot.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例による位置検出方法を適用
した無人搬送車の構成を示すブロック図、第2図はテレ
ビカメラ1と壁Wとの位置関係の一例を示す図、第3図
は同実施例による位置検出方法の原理を説明するための
説明図、第4図〜第6図は同実施例による位置検出方法
を説明するための説明図である。 1……テレビカメラ1、5……CPU、6……ROM、7……
RAM。
FIG. 1 is a block diagram showing the configuration of an automated guided vehicle to which a position detecting method according to an embodiment of the present invention is applied, and FIG. 2 is a diagram showing an example of the positional relationship between a television camera 1 and a wall W, and FIG. Is an explanatory view for explaining the principle of the position detecting method according to the embodiment, and FIGS. 4 to 6 are explanatory views for explaining the position detecting method according to the embodiment. 1 ... TV camera 1, 5 ... CPU, 6 ... ROM, 7 ...
RAM.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】移動ロボットの現在位置を検出する位置検
出方法において、 予め前記移動ロボットの移動範囲における複数の特徴画
像をメモリ内に記憶させておき、位置検出時点におい
て、前記移動ロボットに設置された撮像装置によって周
囲の画像を撮像し、この周囲画像から4箇所の特徴部分
を抽出し、これら4箇所の特徴部分に対応する前記メモ
リ内の特徴画像を特定し、この特定された特徴画像の座
標から前記移動ロボットの現在位置を検出することを特
徴とする移動ロボットにおける位置検出方法。
1. A position detecting method for detecting a current position of a mobile robot, wherein a plurality of characteristic images in a moving range of the mobile robot are stored in a memory in advance, and the feature image is installed in the mobile robot at the time of position detection. The surrounding image is captured by the image pickup device, four characteristic portions are extracted from the surrounding image, the characteristic images in the memory corresponding to these four characteristic portions are specified, and the characteristic images of the specified characteristic images are extracted. A position detecting method for a mobile robot, comprising detecting the current position of the mobile robot from coordinates.
JP61282296A 1986-11-27 1986-11-27 Position detection method in mobile robot Expired - Lifetime JPH0820253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61282296A JPH0820253B2 (en) 1986-11-27 1986-11-27 Position detection method in mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61282296A JPH0820253B2 (en) 1986-11-27 1986-11-27 Position detection method in mobile robot

Publications (2)

Publication Number Publication Date
JPS63134912A JPS63134912A (en) 1988-06-07
JPH0820253B2 true JPH0820253B2 (en) 1996-03-04

Family

ID=17650579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61282296A Expired - Lifetime JPH0820253B2 (en) 1986-11-27 1986-11-27 Position detection method in mobile robot

Country Status (1)

Country Link
JP (1) JPH0820253B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH023582A (en) * 1988-06-13 1990-01-09 Agency Of Ind Science & Technol Guide of walking leg type movable body
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JP5148669B2 (en) * 2000-05-26 2013-02-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP4672175B2 (en) * 2000-05-26 2011-04-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP2006234683A (en) * 2005-02-25 2006-09-07 National Univ Corp Shizuoka Univ Positioning system
US8855819B2 (en) 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
JP6864433B2 (en) * 2016-01-29 2021-04-28 東芝ライフスタイル株式会社 Vacuum cleaner

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59224505A (en) * 1983-06-02 1984-12-17 Mitsubishi Electric Corp Position self-detector of moving body

Also Published As

Publication number Publication date
JPS63134912A (en) 1988-06-07

Similar Documents

Publication Publication Date Title
US4566032A (en) Visually guided vehicle
JPH10177414A (en) Device for recognizing traveling state by ceiling picture
US4278142A (en) Automatic guidance system for vehicles
KR100669250B1 (en) System and method for real-time calculating location
CN101458083B (en) Structure light vision navigation system and method
WO2008013355A1 (en) System and method for calculating location using a combination of odometry and landmarks
JPH03201110A (en) Position azimuth detecting device for autonomous traveling vehicle
JPWO2006064544A1 (en) Car storage equipment
CN108931253A (en) Air navigation aid, device, intelligently guiding vehicle and the medium of intelligently guiding vehicle
CN111693046A (en) Robot system and robot navigation map building system and method
JP2006234453A (en) Method of registering landmark position for self-position orientation
JPH11272328A (en) Color mark, moving robot and method for guiding moving robot
CN109213156A (en) A kind of global guidance system and method for AGV trolley
JPH0820253B2 (en) Position detection method in mobile robot
JPH01243104A (en) Mark identifying device in image pickup means
CN107797095A (en) A kind of space navigation method applied to robot motion
JPH01197808A (en) Guidance system for unmanned vehicle
EP1804149B1 (en) Mobile robot
JPH06273186A (en) Map information generator
JPH06199297A (en) Parking position measuring method
Takeda et al. Automated vehicle guidance using spotmark
JPS6159507A (en) Guiding device of selfcontrol running truck
JPS6379005A (en) Position calculator for unmanned transport truck
JP2838474B2 (en) Guidance target capturing method and guidance device for autonomous mobile robot
JPH064127A (en) Own-position measuring instrument for indoor moving body