WO2007113956A1 - 移動体位置の推定装置と推定方法及び推定プログラム - Google Patents

移動体位置の推定装置と推定方法及び推定プログラム Download PDF

Info

Publication number
WO2007113956A1
WO2007113956A1 PCT/JP2007/053746 JP2007053746W WO2007113956A1 WO 2007113956 A1 WO2007113956 A1 WO 2007113956A1 JP 2007053746 W JP2007053746 W JP 2007053746W WO 2007113956 A1 WO2007113956 A1 WO 2007113956A1
Authority
WO
WIPO (PCT)
Prior art keywords
wide
cut
self
map
angle camera
Prior art date
Application number
PCT/JP2007/053746
Other languages
English (en)
French (fr)
Inventor
Tsuyoshi Nakano
Original Assignee
Murata Kikai Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Kikai Kabushiki Kaisha filed Critical Murata Kikai Kabushiki Kaisha
Priority to US12/295,088 priority Critical patent/US8204643B2/en
Priority to JP2008508464A priority patent/JP4753103B2/ja
Priority to EP07737500.4A priority patent/EP2017573B1/en
Publication of WO2007113956A1 publication Critical patent/WO2007113956A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to an apparatus, an estimation method, and an estimation program for estimating the position of a moving body such as a robot.
  • the self-position based on this is output on the assumption that the landmark candidate and the map are correctly associated with which the error is minimized.
  • the error for example, square the viewing angle error between the landmark candidate on the camera image and the landmark on the map, and use the median value. Not only the median value but also an integrated value of errors may be used.
  • Patent Document 1 Japanese Patent Laid-Open No. 2004-34272 proposes that a fluorescent lamp on the ceiling be a landmark.
  • fluorescent lamps are widely used in large rooms. If there are many fluorescent lamps, the fluorescent lamps are regularly arranged in the same shape, so it is not easy to recognize which fluorescent lamp is visible in the camera image.
  • Non-patent document 1 Mouth-bust self-localization method of soccer robot with omnidirectional camera and dead reckoning function, Journal of the Robotics Society of Japan, Vol.22, No.3, pp.343-352, 2004,4 1: JP 2004-34272 A
  • An object of the present invention is to be able to accurately estimate the position of a moving object even if a part of a landmark is hidden after the map is created or something that is confusing with the landmark occurs. .
  • An additional problem of the present invention is to make it possible to estimate the position of the moving object even when there is a portion that cannot be seen in the wide-angle camera image at the gap between the floor and the wall side.
  • the moving object position estimating apparatus of the present invention includes a wide-angle camera and a landmark map, and compares the landmark obtained from the wide-angle force mela image with the landmark on the map to determine the self-position of the moving object.
  • the map stores a break between the floor and an object perpendicular to the floor and evaluates the validity of the estimated self-location based on the estimated self-location.
  • a matching means is provided for evaluating an error between the cut projected on the wide-angle camera image and the cut on the wide-angle camera image stored in the map.
  • the method for estimating the position of the moving body uses the map of the wide-angle camera and the landmark, and compares the landmark obtained from the wide-angle force mela image with the landmark on the map.
  • the map stores a break between the floor and an object perpendicular to the floor, and stores it in the map based on the estimated self-position in order to evaluate the validity of the estimated self-position. It is characterized by evaluating the validity of the estimated self-position by evaluating the error between the cut projected on the wide-angle camera image and the cut on the wide-angle camera image.
  • a moving object position estimation program includes an image from a wide-angle camera and landmarks.
  • a program for estimating the self-position of a moving object by referring to a map and comparing landmarks obtained from wide-angle camera images with landmarks on the map.
  • a command for estimating the self-position of the moving object by collating with the landmark a command for reading the gap between the floor stored in the map and an object perpendicular to the floor, and the estimated self-position
  • it is necessary to evaluate the error between the discontinuity projected on the wide-angle camera image and the discontinuity projected on the wide-angle camera image based on the estimated self-position. It features a matching instruction.
  • the cut stored in the map based on the self-position obtained by the internal sensor of the moving object is wide-angle.
  • An error between the cut projected on the camera image and the cut projected based on the estimated self-position is evaluated.
  • the description related to the estimation of the moving body position applies to any of the estimation device, the estimation method, and the estimation program.
  • the description related to the estimation device also applies to the estimation method and the estimation program.
  • the description also applies to estimators and programs.
  • the landmark extracted from the wide-angle camera image is collated with the landmark on the map to estimate the self position. If at least three landmarks are extracted from the wide-angle camera image and the map and correspond to 1: 1, the candidate for the self-position is obtained.
  • the estimated self-position depends on the combination of landmarks extracted from the map or wide-angle camera image and the corresponding relationship between the landmarks. If these change, another self-position is estimated. Therefore, if the number of landmarks is large, a large number of self-position candidates are generated.
  • a landmark is, for example, a pattern perpendicular to the floor surface, such as an edge of an object such as a wall, furniture arranged along the wall, a locker, a window, or a door.
  • the landmark may be hidden or a landmark that is not on the map may occur. Since there are many landmarks, some landmarks are not visible, and false landmarks are generated, it is necessary to estimate the correct self-position. Arithmetic has increased dramatically, and the possibility of outputting incorrect self-positions has increased.
  • the wide-angle image has a break at the boundary between the floor and the wall.
  • Landmarks that are perpendicular to the floor are, for example, radial line segments in wide-angle camera images, whereas cuts are circumferential curves and line segments. If an object perpendicular to the floor is placed at a place other than the boundary between the floor and the wall, a break will occur, so there will be many breaks, and there may be breaks that are not in the force map. Therefore, there is a limit to obtaining a cut corresponding to the cut on the wide-angle camera image in the map.
  • the self-position is estimated, based on the estimated self-position, it is possible to determine what kind of cut should appear on the map on the wide-angle camera image.
  • the validity of the self-position estimation is verified by matching the projected cut with the cut on the wide-angle camera image and evaluating the error. it can. If the validity of self-position estimation can be verified, the amount of calculation required to correct and self-position estimation can be reduced, and erroneous estimation due to invisible or fake landmarks can be reduced.
  • cuts on the floor and the wall side may not be visible in the wide-angle camera image.
  • a moving body estimates its own position by using an inner world sensor provided on a traveling wheel or foot, a rotating shaft of a traveling motor, a steering device, or the like.
  • the self-position obtained by the internal sensor is low in accuracy, but the cut is lost from the wide-angle camera image and cannot be matched with the cut projected from the map. Based on the self-position, the cut on the map can be used as the cut projected on the wide-angle camera image.
  • FIG. 1 is a block diagram showing a self-position recognition unit and a traveling system of a robot according to an embodiment.
  • FIG. 2 is a diagram showing a configuration of an omnidirectional camera used in the embodiment.
  • FIG. 5 is a flowchart showing an algorithm of the self-position estimation method of the embodiment.
  • FIG. 7 Diagram showing the projection of the cut from the map (solid line), the cut in the camera image (broken line), and the projection of the cut based on the dead recording position (dashed line)
  • Figs. 1 to 7 show an embodiment relating to the estimation of the self-position of a moving object.
  • Fig. 1 shows the traveling system of a robot incorporating the self-position estimation device of the embodiment, and 2 and 2 are a pair of drive wheels.
  • the motor 4 is rotated by the traveling motor 4 and the gear head 5, and the number of rotations of the motor 4 is monitored by the encoder 7 and input to the dead recording unit 9 described later.
  • the dead recording section 9 also receives the gear reduction ratio of the gear head 5 and the type of forward / reverse rotation.
  • 3 and 3 are a pair of caster wheels.
  • the travel command generator 8 controls the travel motors 4 and 4 and the gear heads 5 and 5 independently of each other, thereby independently controlling the rotation amount and direction of the drive wheels 2 and 2, and moving the mouth bot to the target position. Move. In the case of a walking robot, instead of the drive wheels 2 and caster wheels 3, you can use feet consisting of joints. As the type of the moving body, in addition to the robot, any mechanism such as a transport cart or a transfer device may be used.
  • Encoders 7 and 7 are examples of internal sensors, and input their signals to the dead recording unit 9 and integrate the movement distances to obtain their own positions. Determining the self-position with the signal from the internal sensor is called dead reckoning. The obtained position is stored in the position storage unit 10 and updated whenever a more accurate position is estimated by the position estimation unit 16, and the travel command generation unit 8 generates a travel command based on the data in the position storage unit 10. appear.
  • the map 12 is a map of a range in which a moving body such as a robot can move, and the movable range is indoors, buildings, or outdoors.
  • the edge perpendicular to the floor surface is used as the landmark, and the position between the landmark and the cut between the horizontal surface and the vertical surface such as the boundary between the floor and the wall are stored in the map 12.
  • Edges perpendicular to the floor are, for example, edges of furniture and lockers, and vertical edges of doors and windows.
  • the position of the landmark is the force expressed by the position in the horizontal plane of (X, Y).
  • the Z direction (vertical direction) coordinate is added to this, and the Z axis direction coordinate Z0 of the start point of the landmark and the Z axis direction coordinate of the end point of the landmark Z1 may be added.
  • the break is not limited to the break between the floor and the wall, but a break occurs at the position where the object stands up with respect to the floor surface, that is, at the end of the floor surface. In addition, breaks occur at the boundary between the sidewalk and the roadway, the boundary between the sidewalk and the flower bed, and the boundary between the pedestrian path and the ditch.
  • the cuts on map 12 are represented by curves and line segments, and the cuts are at a higher position where only the cuts at the floor level can be used, for example, the edge between the top and side of the step rising from the floor May also be used.
  • the map 12 is created by manually recognizing a wide-angle camera image captured at a known position with respect to a moving space such as a manual or a moving body such as a room, a building, or the entrance of a building. 12 may be created. 13 is a mirror and 14 is a camera. They are called wide-angle cameras.
  • the output image of the wide-angle camera is stored in the camera image storage unit 15, and the position estimation unit 16 estimates the self position of the moving object using the data in the position storage unit 10, the map 12, and the camera image.
  • the self-position data is, for example, three components: (X, Y) coordinates with respect to the origin and the direction of the moving object.
  • FIG. 2 shows a state in which the landmark M perpendicular to the floor is captured by the camera 14, and if the height of the landmark M consisting of a vertical line is different, the radius from the center of the field of view of the camera 14 is different. Light enters at different positions on the line segment along the direction.
  • FIG. 3 schematically shows how the three landmarks M1 to M3 and the three cuts N1 to N3 appear in the wide-angle camera image.
  • the direction is the radial direction
  • represents the direction
  • a line segment extending in the radial direction with a constant direction is obtained.
  • the X and Y coordinates can be obtained.
  • the breaks N1 to N3 appear, for example, as a circumferential curve with a substantially constant radial position.
  • FIG. 4 shows the structure of the position estimation unit 16.
  • the landmark matching unit 20 associates the three landmarks extracted from the camera image with the three landmarks extracted from the map 12 in a 1: 1 ratio, and estimates the self-position based on this correspondence.
  • the estimated self-location is based on the assumed correspondence between landmarks.
  • the landmark error evaluation unit 22 evaluates the error based on the estimated self-position using the landmark that was not used for the self-position estimation. That is, when the self-position is estimated, it is possible to estimate in which direction the other landmarks on the map 12 appear in the wide-angle camera image, and an error from the actual camera image can be evaluated.
  • the landmark error evaluation unit 22 need not be provided.
  • the cut projection unit 24 projects the cut on the map 12 into a wide-angle camera image based on the self-position estimated by the landmark matching.
  • the self-position is estimated, it is possible to estimate how the cut on the map 12 looks in the wide-angle camera image based on this, and this is called the cut projection.
  • the cut projection unit 26 is based on the position stored in the position storage unit 10, in other words, the self-position obtained by dead recording using the encoder 7, and how the cut on the map 12 looks on the wide-angle camera image. Project.
  • the cut projection part 26 may not be provided.
  • the cut matching unit 28 includes a cut projected by the cut projection unit 24 and a wide-angle camera image. Match the breaks. If there is no cut on the camera image within a predetermined distance on the wide-angle camera image from the projected cut, the cut projected by the projection unit 24 is matched with the cut projected by the projection unit 26, in other words Calculate the distance between the two breaks. This distance is the sum of the errors at each part of the cut, the sum of the products obtained by converting the error at each part of the cut with an appropriate function, and the like.
  • the position estimation unit 30 verifies the validity of the estimated value of the self-position based on the obtained error, and outputs an estimated position where the error is less than a predetermined value or the error is sufficiently small as the self-position. In other cases, the combination of the landmark on the wide-angle camera image side and the landmark on the map side to be matched by the matching unit 20 is changed, and the processing up to the matching unit 28 is repeated.
  • FIG. 5 shows a self-position estimation algorithm.
  • An omnidirectional camera image is input, and for example, three landmark candidates are extracted from the camera image force. Extraction may be performed at random, or a landmark that should be visible from its current position may be extracted based on data in the position storage unit 10. Similarly, extract 3 landmark candidates from the map and associate them with 1: 1. This correspondence may be random, or the most likely correspondence on the data in the position storage unit 10 may be prioritized. If three landmarks are associated with a wide-angle camera image and a map, one self-position candidate is obtained. For example, the self-position estimation error is evaluated using other candidates and other landmarks. This step may be omitted.
  • a cut on the map is projected onto the wide-angle camera image.
  • the landmark perpendicular to the floor surface is the force S that gives data on one point on the floor surface, and the cut line gives data on straight lines and curves on the floor surface. Therefore, the error can be evaluated more accurately by matching the breaks.
  • the cut on the map is projected onto the wide-angle camera image. This process may be omitted or may be executed only for an area where the cut line projected based on the estimated value of the self-position and the wide-angle camera image do not correspond.
  • an error between the projection based on the estimated self-position on the map and the cut on the wide-angle camera image is evaluated.
  • the cut line on the map is projected based on the position obtained by dead recording.
  • Estimated by landmark Compare with the projected one on the map according to your position.
  • FIG. 6 shows the self-position estimation program 60.
  • the landmark matching instruction 62 extracts, for example, three landmark candidates of the wide-angle camera image and three landmarks on the map, and temporarily associates them.
  • the self-position candidate calculation instruction 63 calculates a self-position candidate based on the above correspondence.
  • the landmark error evaluation instruction 64 evaluates an error between another landmark on the map and another landmark candidate in the wide-angle camera image based on the calculated self-position.
  • the landmark error evaluation instruction 64 may not be provided.
  • the cut projection command 65 projects the cut on the map onto the wide-angle force mela image based on the estimated self-position candidate.
  • the cut projection command 66 projects the cut on the map to the wide-angle camera image based on the position obtained by dead recording, and the command 66 need not be provided.
  • the break matching instruction 67 performs matching between breaks and evaluates errors.
  • the self-position estimation instruction 68 evaluates the validity of the estimated self-position based on the matching error of the cut evaluated by the cut matching instruction 67, and outputs the position if it is valid. Repeat ⁇ 67 processing. In general, there are a plurality of breaks. For example, there are several breaks in a room. Therefore, matching is performed for each cut, and the error is the sum of errors of individual cuts, or a statistic that statisticalizes the error of each cut.
  • Fig. 7 shows an example of the matching of cuts.
  • 70 is a cut based on the self-position estimation and the map, and the cut on the map is projected onto the wide-angle camera image based on the self-position estimated from the landmark.
  • 72 is a break in the camera image. A part of the break is hidden by another object or a part is lost due to lighting conditions.
  • Projected cuts on the map based on the self-positions obtained by dead reconging are shown as cuts 74 from dead reconging. Also, for example, the distance between the arrows in FIG.
  • the error between the breaks 70 and 74 is a self-position estimation error, and is an ambiguous error because the reliability of position recognition by dead recording is low.
  • Both the breaks 70 and 74 are maps Even in an area where the cut 70 and the cut 72 do not correspond, the cut 74 corresponding to the cut 70 exists. Therefore, in the area corresponding to cuts 70 and 72, the error is evaluated by adding the distance of the arrow in Fig. 7, and in the area where cuts 70 and 72 do not correspond, the error between cuts 70 and 74 is added and evaluated. To do.
  • the matching error may be evaluated by simply integrating the errors or by statistically evaluating the errors.
  • a function that attenuates when the error increases may be determined so that the matching result is not affected by an area where the error is extremely large, and the error may be multiplied and then added.
  • An upper limit may be set for the error.
  • the error between the breaks 70 and 74 may be multiplied by a weight smaller than 1.
  • the vertical landmark is one point on the XY plane.
  • the force break is a force line segment on the XY plane and has more information. Therefore, it is possible to easily evaluate whether or not the correspondence between the wide-angle camera image and the landmark is correct by using a cut with the floor wall.

Abstract

 ランドマークが見えずあるいはランドマークと紛らわしい物品が持ち込まれた時でも、自己位置を推定できるようにする。全方位カメラで壁付近の鉛直方向のランドマークを認識して自己位置の候補を求め、求めた候補に基づいてマップでの床と壁の切れ目をカメラ画像に投影してマッチングする。  

Description

明 細 書
移動体位置の推定装置と推定方法及び推定プログラム
技術分野
[0001] この発明は、ロボット等の移動体の位置を推定するための装置と推定方法、推定プ ログラムに関する。
背景技術
[0002] ロボットなどの移動体の制御では、その自己位置を正確に推定することが重要にな る。そこで移動体に視覚センサとして全方位カメラや魚眼レンズカメラなどを搭載する と共に、カメラで見えるべきランドマークのマップを記憶し、カメラからの画像でマップ を参照して自己位置を推定することが知られている。例えば非特許文献 1では、カメ ラ画像からランドマークの候補を 3個ランダムに抽出し、マップ力ももランダムにランド マークを 3個抽出し、これらを 1: 1に対応させて、 自己位置の候補とする。次にこの候 補位置が正しいものとして、マップの他のランドマークに付いて推定した自己位置か らの視野角を求め、カメラ画像の他のランドマークの候補の視野角との誤差を求める 。そしてこの誤差が最小となる、ランドマークの候補とマップとの対応付けが正しいも のとして、これに基づく自己位置を出力する。誤差の評価には例えば、カメラ画像の ランドマークの候補とマップ上のランドマークとの視野角の誤差を 2乗し、その中央値 を用いる。なお中央値に限らず、誤差の積算値などを用いても良い。
[0003] し力 ながら建屋内などの人工的な環境では、マップの作成後に新たに物品が持 ち込まれることによりマップ上のランドマークが見えなくなる、あるいはランドマークと紛 らわしい物が持ち込まれる、照明によりランドマークが見えに《なるなどのことがある 。これらによって、マップ上のランドマークが消失したり、あるいはカメラ画像からランド マークの候補以外のもの、言い換えると偽のランドマークを抽出することがある。ラン ドマークの消失や偽のランドマークによって、自己位置の推定は飛躍的に複雑になる 。そこで確実にカメラ画像から認識できて、他の物と混同することがないマークを探索 する必要がある。この点について、特許文献 1 (特開 2004— 34272号公報)は天井 の蛍光灯をランドマークとすることを提案している。し力 ながら広い室内で蛍光灯が 多数ある場合、どの蛍光灯も同じ形状でかつ規則的に配置されているため、どの蛍 光灯がカメラ画像で見えてレ、るのかの認識は容易ではなレ、。
非特許文献 1:全方位カメラとデッドレコニング機能を有するサッカーロボットの口バス トな自己位置同定手法, 日本ロボット学会誌, Vol.22, No.3, pp.343-352, 2004,4 特許文献 1 :特開 2004— 34272号公報
発明の開示
発明が解決しょうとする課題
[0004] この発明の課題は、マップの作成後にランドマークの一部が隠され、あるいはランド マークと紛らわしいものが発生しても、移動体の位置を正確に推定できるようにするこ とにある。
この発明での追加の課題は、床と壁側との切れ目に広角カメラ画像で見えない箇 所がある場合も、移動体の位置を推定できるようにすることにある。
課題を解決するための手段
[0005] この発明の移動体位置の推定装置は、広角カメラとランドマークのマップを備え、広 角力メラ画像から求めたランドマークをマップ上のランドマークと照合して移動体の自 己位置を推定する装置において、前記マップに、床と床に垂直なオブジェクトとの間 の切れ目を記憶すると共に、推定した自己位置の妥当性を評価するために、推定し た自己位置に基づレ、てマップに記憶した切れ目を広角カメラ画像に投影した切れ目 と、広角カメラ画像での切れ目、との誤差を評価するためのマッチング手段を設けた ことを特徴とする。
[0006] この発明の移動体位置の推定方法は、広角カメラとランドマークのマップを用レ、、広 角力メラ画像から求めたランドマークをマップ上のランドマークと照合して移動体の自 己位置を推定する方法において、前記マップに床と床に垂直なオブジェクトとの間の 切れ目を記憶し、推定した自己位置の妥当性を評価するために、推定した自己位置 に基づいてマップに記憶した切れ目を広角カメラ画像に投影した切れ目と、広角カメ ラ画像での切れ目、との誤差を評価することにより、推定した自己位置の妥当性を評 価することを特徴とする。
[0007] この発明の移動体位置の推定プログラムは、広角カメラからの画像とランドマークの マップとを参照し、広角カメラ画像から求めたランドマークをマップ上のランドマークと 照合して移動体の自己位置を推定するためのプログラムにおいて、広角カメラ画像 力 ランドマークを抽出し、マップ上のランドマークと照合して移動体の自己位置を推 定するための命令と、前記マップに記憶した床と床に垂直なオブジェクトとの間の切 れ目を読み出すための命令と、推定した自己位置の妥当性を評価するために、推定 した自己位置に基づレ、てマップに記憶した切れ目を広角カメラ画像に投影した切れ 目と、広角カメラ画像での切れ目、との誤差を評価するためのマッチング命令とを設 けたことを特徴とする。
[0008] 好ましくは、前記マッチングでは、前記投影した切れ目に対応する、広角カメラ画像 での切れ目が無い際に、移動体の内界センサで求めた自己位置に基づいてマップ に記憶した切れ目を広角カメラ画像に投影した切れ目と、前記推定した自己位置に 基づいて投影した切れ目、との誤差を評価する。
[0009] なおこの明細書において、移動体位置の推定に関する記載は、推定装置や推定 方法、推定プログラムのいずれにも当てはまり、特に推定装置に関する記載は推定 方法や推定プログラムにも当てはまり、推定方法に関する記載は推定装置や推定プ ログラムにも当てはまる。
発明の効果
[0010] この発明では、広角カメラ画像から抽出したランドマークをマップ上のランドマークと 照合して、自己位置を推定する。ここに少なくとも 3個のランドマークを広角カメラ画像 とマップとから取り出して 1: 1に対応させると、自己位置の候補が求まる。推定した自 己位置は、マップや広角カメラ画像から取り出すランドマークの組み合わせと、ランド マークの対応関係に依存し、これらが変わると別の自己位置が推定される。そこでラ ンドマークの数が多い場合、 自己位置の候補は極めて多数発生する。ランドマーク は例えば床面に垂直なパターンであり、これは壁や壁に沿って配した家具、ロッカー 、窓、ドアなどのオブジェクトのエッジなどである。しかしながらマップの作成後に別の オブジェクトが持ち込まれると、ランドマークが隠され、あるいはマップにないランドマ ークが発生することがある。ランドマークが多数あることと、一部のランドマークが見え ず、また偽のランドマークが発生することにより、正しい自己位置を推定するまでの計 算量が激増し、また誤った自己位置を出力する可能性が増している。
[0011] 床と壁の境界などでは広角画像に切れ目が生じる。床に垂直なランドマークは広角 カメラ画像では例えば半径方向の線分となるのに対し、切れ目は周方向のカーブや 線分となる。床と壁の境界以外の箇所でも床に垂直なオブジェクトを置けば切れ目は 発生するから、切れ目は多数存在し、し力 マップにない切れ目も存在し得る。そこ で広角カメラ画像上の切れ目に対応する切れ目をマップに求めることには限界があ る。しかし自己位置を推定した場合、推定した自己位置に基づいて、マップ上の切れ 目が広角カメラ画像上でどのような切れ目に見えるはずかを求めることはできる。これ をマップ上の切れ目を広角カメラ画像に投影すると言うと、投影した切れ目と広角カメ ラ画像での切れ目とをマッチングし、その誤差を評価することにより、 自己位置の推 定の妥当性を検証できる。そして自己位置の推定の妥当性を検証できれば、正しレ、 自己位置を推定するまでの計算量を減らし、また見えないランドマークや偽のランド マークによる誤推定を減らすことができる。
[0012] 自己位置推定の妥当性の検証はランドマークが多数ある場合でも簡単で、ランドマ ークの一部が見えなくなったり、あるいはランドマークと紛らわしいオブジェクトが持ち 込まれたりした場合も実行できる。また移動体の周囲に、人間や他の移動体などのマ ップに位置を記載することが困難なものが発生しても、 自己位置を推定できる。
[0013] 照明の具合や壁の付近に持ち込まれたオブジェクトなどにより、床と壁側などの切 れ目が広角カメラ画像では見えなくなることがある。ところで一般に移動体は、走行車 輪や足、走行モータの回転軸、ステアリング装置などに設けた内界センサにより、自 己位置を推定している。内界センサにより求めた自己位置は精度が低いが、切れ目 が広角カメラ画像から消失し、マップから投影した切れ目とのマッチングができない 箇所で、広角カメラ画像の切れ目の代わりに、内界センサで求めた自己位置に基づ レ、てマップ上の切れ目を広角カメラ画像に投影した切れ目を用いることができる。こ れによって、切れ目が見えにくいエリアで誤差が発散するのを防止でき、内界センサ による自己位置の信頼性に依存しながら、推定した自己位置の妥当性を評価できる 図面の簡単な説明 [0014] [図 1]実施例のロボットの自己位置認識部と走行系とを示すブロック図 [図 2]実施例で用いた全方位カメラの構成を示す図
[図 3]全方位カメラ画像での、ランドマーク M1〜M3と床と壁の切れ目 N1〜N3とを示 す図
[図 4]実施例の位置推定部のブロック図
[図 5]実施例の自己位置推定方法のアルゴリズムを示すフローチャート
[図 6]実施例の自己位置推定プログラムのブロック図
[図 7]マップからの切れ目の投影(実線)とカメラ画像での切れ目(破線)及びデッドレ コユング位置に基づく切れ目の投影(鎖線)とを示す図
符号の説明
[0015] 2 駆動輪 3 キャスター車輪 4 走行モータ 5 ギアヘッド
7 エンコーダ 8 走行指令発生部 9 デッドレコニング部
10 位置記憶部 12 マップ 13 ミラー 14 カメラ
15 カメラ画像記憶部 16 位置推定部
20 ランドマークマッチング部 22 ランドマーク誤差評価部
24 切れ目投影部 26 切れ目投影部
28 切れ目マッチング部 30 位置推定部
60 自己位置推定プログラム 62 ランドマークマッチング命令
63 自己位置候補算出命令 64 ランドマーク誤差評価命令
65, 66 切れ目投影命令 67 切れ目マッチング命令
68 自己位置推定命令 70 マップでの切れ目
72 カメラ画像での切れ目 74 デッドレコユングからの切れ目
M ランドマーク N 切れ目
発明を実施するための最良の形態
[0016] 以下に本発明を実施するための最適実施例を示す。
実施例
[0017] 図 1〜図 7に、移動体の自己位置の推定に関する実施例を示す。図 1は実施例の 自己位置の推定装置を組み込んだロボットの走行系を示し、 2, 2は一対の駆動輪で 、走行モータ 4とギアヘッド 5とにより回転し、モータ 4の回転数をエンコーダ 7で監視 し後述のデッドレコユング部 9へ入力する。またデッドレコユング部 9は、ギアヘッド 5 のギアの減速比や正転/逆転の種類も入力される。なお 3, 3は一対のキャスター車 輪である。走行指令発生部 8は、走行モータ 4, 4やギアヘッド 5, 5部を各々独立に 制御することにより、駆動輪 2, 2の回転量と回転方向を独立に制御し、 目標位置へ口 ボットを移動させる。なお歩行型ロボットの場合、駆動輪 2やキャスター車輪 3に代え て関節の組み合わせからなる足を用いればよレ、。移動体の種類は、ロボットの他に、 搬送台車や移載装置などでも良ぐ移動の機構自体は任意である。
[0018] エンコーダ 7, 7は内界センサの例で、それらの信号をデッドレコユング部 9へ入力し て移動距離を積算することにより、自己位置を求める。なお内界センサの信号で自己 位置を求めることをデッドレコニングと言う。求めた位置は位置記憶部 10に記憶され 、位置推定部 16でより正確な位置が推定される毎に更新され、位置記憶部 10のデ ータに基づいて走行指令発生部 8は走行指令を発生する。
[0019] マップ 12はロボットなどの移動体が移動可能な範囲のマップであり、移動可能範囲 は室内や建屋内、あるいは屋外などである。実施例では床面に垂直なエッジをランド マークとし、ランドマークの位置と、床と壁との境界などの水平面と鉛直面との間の切 れ目をマップに 12に記憶している。床面に垂直なエッジは例えば家具やロッカーな どの縁、ドアや窓などの鉛直方向の縁である。ランドマークの位置は (X, Y)の水平面 内位置で表す力 これに Z方向(鉛直方向)座標を加えて、ランドマークの起点の Z軸 方向座標 Z0とランドマークの終点の Z軸方向座標 Z1とを追加しても良い。切れ目は 床と壁との間の切れ目に限らず、床面に対してオブジェクトが立ち上がる位置、即ち 床面の端部で切れ目が発生する。また歩道と車道の境界や歩道と花壇との境界、歩 道と側溝の境界でも切れ目発生する。マップ 12上の切れ目はカーブや線分で表さ れ、高さが床面レベルの切れ目のみを用いても良ぐより高い位置の切れ目、例えば 床面から立ち上がった段差の上面と側面とのエッジも用いても良い。
[0020] マップ 12の作成は例えばマニュアルで行レ、、あるいは室内や建屋内もしくは建物 の玄関付近などの移動体の移動空間に対し、既知の位置で撮像した広角カメラ画像 を画像認識してマップ 12を作成しても良い。 13はミラー、 14はカメラで、これらを合 わせて広角カメラという。広角カメラの出力画像は、カメラ画像記憶部 15に記憶され、 位置推定部 16では位置記憶部 10のデータとマップ 12並びにカメラ画像とを用いて 、移動体の自己位置を推定する。 自己位置のデータは、例えば原点に対する (X, Y) 座標と移動体の向きの 3成分である。
[0021] 図 2は床面に垂直なランドマーク Mをカメラ 14で撮像している状態を示し、鉛直な 線分からなるランドマーク Mでの高さ位置が異なると、カメラ 14の視野中心から半径 方向に沿った線分上に異なった位置で光が入射する。図 3に、 3つのランドマーク M 1〜M3と 3つの切れ目 N1〜N3の、広角カメラ画像での表れ方を模式的に示す。では 半径方向を、 Θは向きを表し、床面に垂直なランドマーク M1〜M3では、向きは一定 で半径方向に延びる線分が得られる。そして広角カメラ画像上で半径方向に延びる ランドマーク M1〜M3を検出できると、その X, Y座標が求まることは公知である。また 切れ目 N1〜N3は、例えば半径位置がほぼ一定の周方向のカーブとして表れる。
[0022] 図 4に位置推定部 16の構造を示す。ランドマークマッチング部 20はカメラ画像から 抽出した 3個のランドマークと、マップ 12から抽出した 3個のランドマークとを 1 : 1に対 応させ、この対応に基づいて自己位置を推定する。推定した自己位置は、仮定した ランドマーク間の対応関係に基づくものである。ランドマーク誤差評価部 22は自己位 置の推定に用いなかったランドマークを用いて、推定した自己位置に基づく誤差を 評価する。即ち自己位置を推定すると、マップ 12での他のランドマークが広角カメラ 画像でどの向きに見えるかを推定でき、実際のカメラ画像との誤差を評価できる。な おランドマーク誤差評価部 22は設けなくても良い。
[0023] 切れ目投影部 24はランドマークのマッチングで推定した自己位置に基づき、マップ 12上の切れ目を広角カメラ画像へと投影する。 自己位置を推定すると、これに基づ レ、てマップ 12上の切れ目が広角カメラ画像でどのように見えるかを推定でき、このこ とを切れ目の投影という。切れ目投影部 26は位置記憶部 10に記憶した位置、言い 換えるとエンコーダ 7を用いてデッドレコユングにより求めた自己位置に基づき、マツ プ 12上の切れ目が広角カメラ画像上でどのように見えるかを投影する。切れ目投影 部 26は設けなくても良い。
[0024] 切れ目マッチング部 28は切れ目投影部 24で投影した切れ目と、広角カメラ画像上 の切れ目とをマッチングする。なお投影した切れ目から広角カメラ画像上で所定の距 離内にカメラ画像上の切れ目が存在しない場合、投影部 24で投影した切れ目と、投 影部 26で投影した切れ目とをマッチングし、言い換えると 2つの切れ目間の距離を算 出する。この距離は、切れ目の各部での誤差の加算値、切れ目の各部での誤差を適 宜の関数で変換した物の和などとする。位置推定部 30は求めた誤差に基づいて、 自己位置の推定値の妥当性を検証し、誤差が所定値未満、もしくは誤差が充分小さ い推定位置を自己位置として出力する。これ以外の場合、マッチング部 20でマッチ ングする広角カメラ画像側のランドマークとマップ側のランドマークの組み合わせを変 更し、マッチング部 28までの処理を繰り返す。
[0025] 図 5に自己位置の推定アルゴリズムを示す。全方位カメラ画像を入力し、カメラ画像 力、らランドマークの候補を例えば 3個抽出する。抽出はランダムに行っても良ぐある いは位置記憶部 10のデータに基づき、 自己の現在位置から見えるはずのランドマー クを抽出しても良い。マップから同様にランドマークの候補を 3個抽出し、 1 : 1に対応 付ける。この対応はランダムでも良ぐあるいは位置記憶部 10のデータ上でもっともら しい対応を優先しても良い。広角カメラ画像とマップとで 3個のランドマークを対応付 けると、 自己位置の候補が 1つ求まる。そして例えば、他の候補と他のランドマークと を用いて自己位置の推定誤差を評価する。なおこのステップは省略しても良い。
[0026] 次に求めた自己位置の候補に基づき、マップ上の切れ目を広角カメラ画像に投影 する。なお床面に垂直なランドマークはその床面上の 1点のデータを与える力 S、切れ 目は床面上の直線やカーブのデータを与え、より情報量が豊富である。従って切れ 目のマッチングにより、誤差をより正確に評価できる。次にデッドレコエングで求めた 自己位置に基づき、マップ上の切れ目を広角カメラ画像に投影する。この処理は省 略しても良ぐまた実行する場合でも、自己位置の推定値に基づいて投影した切れ 目と、広角カメラ画像とが対応しないエリアのみに対して、実行しても良い。
[0027] 次にマップ上の切れ目を推定した自己位置に基づいて投影したものと、広角カメラ 画像の切れ目との誤差を評価する。 自己位置の推定値に基づレ、て投影した切れ目 に対応するものが、広角カメラ画像に無いエリアでは、デッドレコユングにより求めた 位置に基づレ、てマップ上の切れ目を投影したものと、ランドマークにより推定した自 己位置によりマップ上の切れ目を投影したものとを比較する。そしてこれらの誤差を 求め、許容範囲内の誤差であれば、推定位置を正しい自己位置として出力し、位置 記憶部 10のデータを更新する。
[0028] 図 6に自己位置推定プログラム 60を示すと、ランドマークマッチング命令 62は広角 カメラ画像のランドマークの候補と、マップ上のランドマークとを例えば 3個ずつ抽出 して仮に対応付ける。 自己位置候補算出命令 63は上記の対応に基づいて、自己位 置の候補を算出する。ランドマーク誤差評価命令 64は、算出した自己位置に基づい て、マップの他のランドマークと広角カメラ画像での他のランドマークの候補との間の 誤差を評価する。ランドマーク誤差評価命令 64は設けなくても良い。
[0029] 切れ目投影命令 65は推定した自己位置の候補に基づき、マップ上の切れ目を広 角力メラ画像へ投影する。切れ目投影命令 66はデッドレコユングにより求めた位置に 基づき、マップ上の切れ目を広角カメラ画像へ投影し、命令 66は設けなくても良い。 切れ目マッチング命令 67は切れ目間のマッチングを行い、誤差を評価する。 自己位 置推定命令 68は、切れ目マッチング命令 67で評価した切れ目のマッチング誤差に 基づき、推定した自己位置の妥当性を評価し、妥当な場合にはその位置を出力し、 妥当でない場合、命令 62〜67の処理を繰り返す。なお切れ目は一般に複数有り、 例えば室内であれば数本程度の切れ目が存在する。そこでマッチングは各切れ目に ついて行い、誤差は個々の切れ目の誤差の加算値もしくは個々の切れ目の誤差を 統計化した統計量などである。
[0030] 図 7に切れ目のマッチングの例を示す。 70は自己位置の推定とマップとに基づく切 れ目で、ランドマークから推定した自己位置に基づき、マップ上の切れ目を広角カメ ラ画像へ投影したものである。 72はカメラ画像での切れ目で、切れ目の一部が他の オブジェクトで隠されて、あるいは照明の具合などにより一部分が失われている。デッ ドレコユングで求めた自己位置に基づき、マップ上の切れ目を投影したものを、デッド レコユングからの切れ目 74として示す。また図 7の各矢印の距離を例えば積算したも のが、切れ目のマッチング誤差である。
[0031] 切れ目 70, 74の間の誤差は自己位置の推定誤差であり、デッドレコユングによる 位置認識の信頼性が低いので、曖昧な誤差である。切れ目 70, 74は共にマップを 元に投影したものであり、切れ目 70と切れ目 72が対応しないエリアでも、切れ目 70 に対応する切れ目 74が存在する。そこで切れ目 70, 72が対応するエリアでは、図 7 の矢印の距離を加算して誤差を評価し、切れ目 70, 72が対応しないエリアでは、切 れ目 70, 74間の誤差を加算して評価する。
[0032] なおマッチング誤差の評価は単純に誤差を積算しても良ぐあるいは誤差を統計化 して評価しても良い。また誤差が極端に大きいエリアにより、マッチング結果が左右さ れないように、誤差が大きくなると減衰する関数を定め、これを誤差に乗算してから加 算しても良い。また誤差に上限を設けても良い。さらに切れ目 70, 74間の誤差は 1よ りも小さな重みを乗算して用いても良い。
[0033] 実施例では以下の効果が得られる
(1) ランドマークの一部が隠れて見えなレ、、もしくはランドマークと紛らわしい偽のマ ークが発生している場合にも、影響が小さい。
(2) 鉛直方向のランドマークは XY平面での 1点である力 切れ目は XY平面での力 ーブゃ線分であり、より多くの情報量を備えている。そこで床の壁との切れ目を用いる ことにより、広角カメラ画像とマップとのランドマークの対応が正しいか否かを簡単に 評価できる。
(3) 広角カメラ画像で切れ目の一部が失われている場合、デッドレコニングに基づい て投影した切れ目で補うことができる。

Claims

請求の範囲
[1] 広角カメラとランドマークのマップを備え、広角カメラ画像から求めたランドマークをマ ップ上のランドマークと照合して移動体の自己位置を推定する装置において、 前記マップに、床と床に垂直なオブジェクトとの間の切れ目を記憶すると共に、 推定した自己位置の妥当性を評価するために、推定した自己位置に基づいてマツ プに記憶した切れ目を広角カメラ画像に投影した切れ目と、広角カメラ画像での切れ 目、との誤差を評価するためのマッチング手段を設けたことを特徴とする、移動体位 置の推定装置。
[2] 前記マッチング手段では、前記投影した切れ目に対応する、広角カメラ画像での切 れ目が無い際に、移動体の内界センサで求めた自己位置に基づいてマップに記憶 した切れ目を広角カメラ画像に投影した切れ目と、前記推定した自己位置に基づい て投影した切れ目、との誤差を評価することを特徴とする請求項 1の移動体位置の推 定装置。
[3] 広角カメラとランドマークのマップを用レ、、広角カメラ画像から求めたランドマークをマ ップ上のランドマークと照合して移動体の自己位置を推定する方法において、 前記マップに床と床に垂直なオブジェクトとの間の切れ目を記憶し、
推定した自己位置の妥当性を評価するために、推定した自己位置に基づいてマツ プに記憶した切れ目を広角カメラ画像に投影した切れ目と、広角カメラ画像での切れ 目、との誤差を評価することにより、推定した自己位置の妥当性を評価することを特 徴とする、移動体位置の推定方法。
[4] 前記投影した切れ目に対応する、広角カメラ画像での切れ目が無い際に、移動体の 内界センサで求めた自己位置に基づいて、マップに記憶した切れ目を広角カメラ画 像に投影した切れ目と、前記推定した自己位置に基づいて投影した切れ目、との誤 差を評価することを特徴とする請求項 3の移動体位置の推定方法。
[5] 広角カメラからの画像とランドマークのマップとを参照し、広角カメラ画像から求めたラ ンドマークをマップ上のランドマークと照合して移動体の自己位置を推定するための プログラムにおいて、
広角カメラ画像からランドマークを抽出し、マップ上のランドマークと照合して移動体 の自己位置を推定するための命令と、
前記マップに記憶した床と床に垂直なオブジェクトとの間の切れ目を読み出すため の命令と、
推定した自己位置の妥当性を評価するために、推定した自己位置に基づいてマツ プに記憶した切れ目を広角カメラ画像に投影した切れ目と、広角カメラ画像での切れ 目、との誤差を評価するためのマッチング命令とを設けたことを特徴とする、移動体 位置の推定プログラム。
[6] 前記マッチング命令では、前記投影した切れ目に対応する、広角カメラ画像での切 れ目が無い際に、移動体の内界センサで求めた自己位置に基づいて、マップに記 憶した切れ目を広角カメラ画像に投影した切れ目と、前記推定した自己位置に基づ いて投影した切れ目、との誤差を評価することを特徴とする請求項 5の移動体位置の 推定プログラム。
PCT/JP2007/053746 2006-03-31 2007-02-28 移動体位置の推定装置と推定方法及び推定プログラム WO2007113956A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/295,088 US8204643B2 (en) 2006-03-31 2007-02-28 Estimation device, estimation method and estimation program for position of mobile unit
JP2008508464A JP4753103B2 (ja) 2006-03-31 2007-02-28 移動体位置の推定装置と推定方法及び推定プログラム
EP07737500.4A EP2017573B1 (en) 2006-03-31 2007-02-28 Estimation device, estimation method and estimation program for estimating a position of mobile unit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-097422 2006-03-31
JP2006097422 2006-03-31

Publications (1)

Publication Number Publication Date
WO2007113956A1 true WO2007113956A1 (ja) 2007-10-11

Family

ID=38563228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/053746 WO2007113956A1 (ja) 2006-03-31 2007-02-28 移動体位置の推定装置と推定方法及び推定プログラム

Country Status (5)

Country Link
US (1) US8204643B2 (ja)
EP (1) EP2017573B1 (ja)
JP (1) JP4753103B2 (ja)
KR (1) KR101013392B1 (ja)
WO (1) WO2007113956A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
WO2016016955A1 (ja) * 2014-07-30 2016-02-04 株式会社日立製作所 自律移動装置及び自己位置推定方法
JP2022035936A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボットの再位置決め方法、装置及び機器
US11662738B2 (en) 2018-03-09 2023-05-30 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008065598A2 (en) * 2006-11-28 2008-06-05 Koninklijke Philips Electronics N.V. A method, an apparatus and a computer program for data processing
KR101503904B1 (ko) * 2008-07-07 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
US9930252B2 (en) 2012-12-06 2018-03-27 Toyota Motor Engineering & Manufacturing North America, Inc. Methods, systems and robots for processing omni-directional image data
US9536152B2 (en) * 2013-02-14 2017-01-03 Xerox Corporation Methods and systems for multimedia trajectory annotation
US20150293533A1 (en) * 2014-04-13 2015-10-15 Bobsweep Inc. Scanned Code Instruction and Confinement Sytem for Mobile Electronic Devices
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
US10824923B1 (en) * 2019-01-23 2020-11-03 Facebook Technologies, Llc System and method for improving localization and object tracking
US11461971B1 (en) * 2021-03-25 2022-10-04 Cesium GS, Inc. Systems and methods for interactively extrapolating breaklines over surfaces
KR102556767B1 (ko) * 2022-06-28 2023-07-18 주식회사 브이알크루 비주얼 로컬라이제이션을 위한 방법 및 장치
KR20240004102A (ko) * 2022-07-04 2024-01-11 주식회사 브이알크루 비주얼 로컬라이제이션을 위한 방법 및 장치
KR102556765B1 (ko) * 2022-07-04 2023-07-18 주식회사 브이알크루 비주얼 로컬라이제이션을 위한 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JP2004034272A (ja) 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 移動体の自己位置同定装置
JP2005315746A (ja) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd 自己位置同定方法及び該装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4940925A (en) * 1985-08-30 1990-07-10 Texas Instruments Incorporated Closed-loop navigation system for mobile robots
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
CA2373669A1 (en) * 2002-02-27 2003-08-27 Indal Technologies Inc. Imaging system for a passenger bridge of the like for docking automatically with an aircraft
JP2003263104A (ja) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
US6825485B1 (en) * 2002-05-08 2004-11-30 Storage Technology Corporation System and method for aligning a robot device in a data storage library
KR100493159B1 (ko) * 2002-10-01 2005-06-02 삼성전자주식회사 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
JP2005325746A (ja) 2004-05-13 2005-11-24 Toyota Industries Corp 車両用排熱回収システム
KR100809342B1 (ko) * 2004-10-05 2008-03-05 삼성전자주식회사 조도기반 네비게이션 장치 및 방법
US7191056B2 (en) * 2005-01-04 2007-03-13 The Boeing Company Precision landmark-aided navigation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JPH0953939A (ja) * 1995-08-18 1997-02-25 Fujitsu Ltd 自走車の自己位置測定装置および自己位置測定方法
JP2004034272A (ja) 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 移動体の自己位置同定装置
JP2005315746A (ja) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd 自己位置同定方法及び該装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Robust Self-Position Identification Method of Soccer Robot Having Omnidirectional Camera and Dead Reckoning Function", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 22, no. 3, 2004, pages 343 - 352
ADACHI T. ET AL.: "Kichi Kankyo no Edge Joho o Mochiita Tangan Camera no Jiko Ichi Suitei (Self-Location Estimation of a Moving Camera Using Edge Information of Known Environment)", IEICE TECHNICAL REPORT, vol. 105, no. 295, 10 September 2005 (2005-09-10), pages 31 - 36, XP003018225 *
See also references of EP2017573A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
JPWO2015049717A1 (ja) * 2013-10-01 2017-03-09 株式会社日立製作所 移動体位置推定装置および移動体位置推定方法
WO2016016955A1 (ja) * 2014-07-30 2016-02-04 株式会社日立製作所 自律移動装置及び自己位置推定方法
JPWO2016016955A1 (ja) * 2014-07-30 2017-04-27 株式会社日立製作所 自律移動装置及び自己位置推定方法
US11662738B2 (en) 2018-03-09 2023-05-30 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map
JP2022035936A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボットの再位置決め方法、装置及び機器

Also Published As

Publication number Publication date
US8204643B2 (en) 2012-06-19
EP2017573A4 (en) 2012-10-31
US20090248305A1 (en) 2009-10-01
EP2017573A1 (en) 2009-01-21
KR20080106930A (ko) 2008-12-09
KR101013392B1 (ko) 2011-02-14
EP2017573B1 (en) 2013-11-20
JP4753103B2 (ja) 2011-08-24
JPWO2007113956A1 (ja) 2009-08-13

Similar Documents

Publication Publication Date Title
JP4753103B2 (ja) 移動体位置の推定装置と推定方法及び推定プログラム
KR101782057B1 (ko) 지도 생성 장치 및 방법
US20090312871A1 (en) System and method for calculating location using a combination of odometry and landmarks
US8825398B2 (en) Device for assisting in the navigation of a person
JP4798450B2 (ja) ナビゲーション装置とその制御方法
JP4264380B2 (ja) 自己位置同定方法及び該装置
JP5130419B2 (ja) 自己位置認識方法及び自己位置認識装置
US20100121488A1 (en) Method and system for creating indoor environment map
US20100161224A1 (en) Apparatus and method for detecting position and orientation of mobile object
JP5298741B2 (ja) 自律移動装置
JP5800613B2 (ja) 移動体の位置・姿勢推定システム
JP2012084149A (ja) モバイル機器のナビゲーション
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
JP2007249735A (ja) ロボット位置制御装置およびロボット自己位置回復方法
EP3079031B1 (en) Moving robot and method of recognizing location of moving robot
KR20090000500A (ko) 이동 로봇의 리로케이션 방법 및 장치
KR20090025822A (ko) 표식과 근거리무선통신을 이용한 로봇의 자기위치인식방법, 그를 이용한 로봇의 위치데이터 발생장치 및그를 이용한 로봇
Hoang et al. Multi-sensor perceptual system for mobile robot and sensor fusion-based localization
US20190331496A1 (en) Locating a vehicle
JP2006234453A (ja) 自己位置標定用ランドマーク位置の登録方法
JP2008158690A (ja) 移動体検知装置、警備ロボット、移動体検知方法および移動体検知プログラム
GB2567144B (en) Apparatus and method for localising a vehicle
Jung et al. Simultaneous localization and mapping of a wheel-based autonomous vehicle with ultrasonic sensors
Rusdinar et al. Vision-based indoor localization using artificial landmarks and natural features on the ceiling with optical flow and a kalman filter
Kim et al. Indoor localization using laser scanner and vision marker for intelligent robot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07737500

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2007737500

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008508464

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020087022761

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 12295088

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE