JP2005326944A - Device and method for generating map image by laser measurement - Google Patents

Device and method for generating map image by laser measurement Download PDF

Info

Publication number
JP2005326944A
JP2005326944A JP2004142336A JP2004142336A JP2005326944A JP 2005326944 A JP2005326944 A JP 2005326944A JP 2004142336 A JP2004142336 A JP 2004142336A JP 2004142336 A JP2004142336 A JP 2004142336A JP 2005326944 A JP2005326944 A JP 2005326944A
Authority
JP
Japan
Prior art keywords
image
grid
feature points
images
distance sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004142336A
Other languages
Japanese (ja)
Other versions
JP4533659B2 (en
Inventor
Kousei Matsumoto
高斉 松本
Toshio Moriya
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004142336A priority Critical patent/JP4533659B2/en
Publication of JP2005326944A publication Critical patent/JP2005326944A/en
Application granted granted Critical
Publication of JP4533659B2 publication Critical patent/JP4533659B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate and/or display the map of a peripheral environment where a laser distance sensor moves, as an image while making the sensor move. <P>SOLUTION: This image generation device for generating the map image of the periphery of a distance sensor for measuring an orientation and distance to an obstacle by using the distance sensor is configured so that the measured values of the orientations and distances to the obstacle are obtained before and after the distance sensor moves by making the distance sensor move, and an image showing the occupancy location of the obstacle in the periphery of the distance sensor is generated as a grid image based on the measured value, and featured points in the respective grid images acquired based on the measured values are extracted, and the featured points between the respective grid images are to collated by comparing the extracted featured points of the respective grid images, and the grid images are temporarily arranged by overlapping them whose featured points are the most satisfactorily matched based on the result of collation, and the relative locations and posture of the grid images are to finely calculated based on the measured values between the temporarily arranged grid images in order to generate the map image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、障害物までの方位と距離の計測が可能なレーザー距離センサを移動させながら計測することにより、移動するセンサの周囲の環境における障害物の位置を画像として自動的に生成及び/又は表示する装置及び方法に関する。   The present invention automatically generates and / or generates an image of the position of an obstacle in the environment around the moving sensor by measuring while moving a laser distance sensor capable of measuring the azimuth and distance to the obstacle. The present invention relates to a display apparatus and method.

レーザー距離センサを移動させながらレーザー距離センサの周囲の環境を複数回計測し、各計測毎の値から環境の地図を画像として生成する手法としては、1回の計測で得られる或る領域の計測値と、他の1回の計測で得られる或る領域の計測値のと差の二乗和を評価値として、この評価値を最小とするような計測値間の変位を算出して(いわゆる、最小二乗法の算出手法によって)、これをセンサの移動距離とし、この移動距離に従って各回の計測値を共通の座標系に記録することで、地図状の画像として生成する手法が提案されている(例えば、非特許文献1と2を参照)。
根岸善朗、三浦純、 白井良明、「全方位ステレオとレーザレンジファインダの統合による移動ロボットの地図生成」、日本ロボット学会誌、Vol.21,No.6,pp.110-116,2003. D. Hahnel、W. Burgard、「Probabilistic Matching for 3D Scan Registration」、In Proc of the VDI-Conference Robotik 2002,2002.
As a method of measuring the environment around the laser distance sensor multiple times while moving the laser distance sensor and generating a map of the environment from the value of each measurement as an image, measurement of a certain area obtained by one measurement The displacement between the measured values that minimizes the evaluation value is calculated by using the square sum of the difference between the value and the measurement value of a certain area obtained by another measurement as an evaluation value (so-called A method of generating a map-like image by using this as the moving distance of the sensor and recording the measured values of each time in a common coordinate system according to this moving distance is proposed (by the least square method calculation method) ( For example, see Non-Patent Documents 1 and 2.)
Yoshiro Negishi, Jun Miura, Yoshiaki Shirai, “Map Generation for Mobile Robots by Integration of Omnidirectional Stereo and Laser Range Finder”, Journal of the Robotics Society of Japan, Vol.21, No.6, pp.110-116, 2003. D. Hahnel, W. Burgard, “Probabilistic Matching for 3D Scan Registration”, In Proc of the VDI-Conference Robotik 2002, 2002.

しかしながら、上述した非特許文献1,2に記載されているような従来技術におけるレーザー距離センサ移動前後の計測値間の変位を最小二乗法算出手法で評価すると、必ずしも常に最適解が求まるということにならず、結果的に局所解を求めてしまうことが発生するという課題が生じていた。すなわち、センサ移動前後の計測値で評価した環境中の障害物の照合が、局所解によって正確に実施されない(センサ移動前後で或る障害物の照合が一致しない)という不都合が発生する。   However, when the displacement between measured values before and after the movement of the laser distance sensor in the prior art as described in Non-Patent Documents 1 and 2 described above is evaluated by the least square method calculation method, an optimum solution is always obtained. As a result, there has been a problem that a local solution may be obtained as a result. That is, there is an inconvenience that the matching of the obstacle in the environment evaluated by the measured values before and after the sensor movement is not accurately performed by the local solution (the matching of a certain obstacle does not match before and after the sensor movement).

本発明の目的は、センサの移動前後における画像間の相対位置と姿勢を精密に算出した場合における誤差の発生を抑制して、地図画像を精度良く生成又は表示する地図画像生成装置を提供することにある。   An object of the present invention is to provide a map image generation device that suppresses the generation of errors when accurately calculating the relative position and orientation between images before and after the movement of a sensor and generates or displays a map image with high accuracy. It is in.

前記課題を解決するために、本発明は主として次のような構成を採用する。
障害物までの方位と距離を計測できる距離センサを用いて前記距離センサ周囲の地図画像を生成する画像生成装置であって、
前記距離センサを移動させて前記障害物までの方位と距離の計測値を前記移動の前後のそれぞれで取得し、
前記計測値に基づいて前記距離センサの周囲における障害物の占有位置を示す画像をグリッド画像として生成し、
前記計測値でそれぞれ得られた各グリッド画像における特徴点を抽出し、
前記抽出された各グリッド画像の特徴点を比較して各グリッド画像間の特徴点を照合し、
前記照合の結果に基づいて特徴点の最も良く一致するグリッド画像間で重ね合わせてグリッド画像を仮配置し、
前記仮配置したグリッド画像間において前記計測値によって前記グリッド画像間の相対位置と姿勢を演算して前記地図画像を生成する構成とする。
In order to solve the above problems, the present invention mainly adopts the following configuration.
An image generation device that generates a map image around the distance sensor using a distance sensor that can measure the direction and distance to an obstacle,
Move the distance sensor to obtain the direction and distance measurements to the obstacle before and after the movement,
Based on the measurement value, generate an image indicating the occupied position of the obstacle around the distance sensor as a grid image,
Extract feature points in each grid image obtained with the measured values,
Compare the feature points of each grid image by comparing the feature points of each extracted grid image,
Based on the result of the collation, the grid images are temporarily arranged by overlapping between the best matching grid images of the feature points,
The map image is generated by calculating the relative position and orientation between the grid images based on the measurement values between the temporarily arranged grid images.

また、障害物までの方位と距離を計測可能なレーザー距離センサの計測値からレーザー距離センサ周囲の地図の画像を生成する画像生成装置であって、
前記障害物までの方位と距離の計測値を取得可能なレーザー距離センサ値取得手段と、
前記レーザー距離センサ値取得手段から取得された複数の計測値から前記レーザー距離センサの周囲における障害物の有無を画像として生成するグリッド画像生成手段と、
前記グリッド画像生成手段により得られた複数のグリッド画像のそれぞれにおける特徴点を抽出するグリッド画像特徴点抽出手段と、
前記グリッド画像特徴点抽出手段で得られた各グリッド画像の特徴点を比較し、グリッド画像間で一致する特徴点の識別を行うグリッド画像特徴点照合手段と、
前記グリッド画像特徴点照合手段で得られた照合結果にもとづきグリッド画像間の特徴点が一致するように画像の重ね合わせを行い、前記重ね合わせのとき重複する重複領域を算出するグリッド画像間重複領域算出手段と、
前記グリッド画像間重複領域算出手段で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算する画像間相対位置・姿勢演算手段と、
前記画像間相対位置・姿勢演算手段で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する地図画像生成手段と、有する構成とする。
Also, an image generating device that generates an image of a map around the laser distance sensor from the measured value of the laser distance sensor capable of measuring the direction and distance to the obstacle,
Laser distance sensor value acquisition means capable of acquiring a measured value of the direction and distance to the obstacle,
Grid image generation means for generating, as an image, the presence or absence of an obstacle around the laser distance sensor from a plurality of measurement values acquired from the laser distance sensor value acquisition means;
Grid image feature point extraction means for extracting feature points in each of a plurality of grid images obtained by the grid image generation means;
A grid image feature point matching unit that compares the feature points of each grid image obtained by the grid image feature point extraction unit and identifies matching feature points between the grid images;
Based on the collation result obtained by the grid image feature point collating means, the image is overlapped so that the feature points between the grid images coincide with each other, and the overlapping area between the grid images for calculating the overlapping area at the time of the overlapping is calculated. A calculation means;
An inter-image relative position / attitude calculation means for calculating a relative position and orientation between grid images using only the measurement value of the laser distance sensor included in the overlapping area obtained by the overlapping area calculation means between the grid images;
A map image generating unit that combines a plurality of images into one image according to the relative position and posture between the grid images obtained by the inter-image relative position / posture calculating unit.

本発明によれば、移動するレーザー距離センサにより複数回の計測毎に得られる環境中での障害物の占有する領域(占有グリッド)を示す画像において共通な特徴点を抽出し照合して、1枚の環境地図の画像として自動的に合成及び/又は表示することが可能となる。   According to the present invention, common feature points are extracted and collated in an image showing an area occupied by an obstacle (occupied grid) in an environment obtained for each measurement by a moving laser distance sensor. It is possible to automatically synthesize and / or display as an image of a single environmental map.

また、より具体的には、複数回の計測毎に生成される複数の画像のそれぞれからヒストグラムの特徴点を抽出し、各画像間でヒストグラムとその相対位置を照合することにより、画像間の相対位置と姿勢を算出し、この相対位置と姿勢により求められる画像間のおよその重複領域を算出し、重複領域に含まれる方位と距離の計測値のみを用いることにより画像間において対応がとれない計測値を減らし、より精度良く画像間の相対位置と姿勢を算出することが可能となり、精度の良い環境地図画像の自動生成及び/又は表示が可能となる。   More specifically, the feature points of the histogram are extracted from each of a plurality of images generated for each measurement, and the histograms are compared with each other by comparing the histograms with their relative positions. Measure the position and orientation, calculate the approximate overlap area between the images obtained from this relative position and orientation, and use only the orientation and distance measurement values included in the overlap area to measure between the images It is possible to calculate the relative position and orientation between images with higher accuracy, and to automatically generate and / or display a highly accurate environmental map image.

本発明の地図画像を生成する画像生成装置に係る実施の形態について、実施例を挙げて図面を参照しながら以下詳細に説明する。本発明の概要は、レーザー距離センサが移動した周囲の環境の障害物の有無を示す地図を精度良く生成及び/又は表示するという目的のために、計測毎にグリッド画像を生成して一致する特徴点を検出して、およその画像間の相対位置と姿勢を求める前処理を施す(具体的には、センサの移動前後でグリッド画像間の仮の位置合わせを行う)ことにより、グリッド画像間の相対位置と姿勢を精密に算出した場合における誤差の発生を抑制し(例えば、後述する図9に示す局所解904(最適解903ではない)への落ち込みを防ぎ)、環境地図画像を精度良く生成及び/又は表示するものである。   Embodiments of an image generation apparatus for generating a map image according to the present invention will be described below in detail with reference to the accompanying drawings. The outline of the present invention is to generate and / or display a grid image for each measurement for the purpose of accurately generating and / or displaying a map indicating the presence or absence of an obstacle in the surrounding environment to which the laser distance sensor has moved. Pre-processing to detect the points and determine the relative position and orientation between the images (specifically, provisional alignment between the grid images before and after the movement of the sensor) Suppresses the occurrence of errors when the relative position and orientation are accurately calculated (for example, prevents a drop in a local solution 904 (not the optimal solution 903) shown in FIG. 9 described later), and generates an environmental map image with high accuracy. And / or display.

本発明の地図画像生成装置に係る実施例を図面を用いて説明する。ここでは、特に、水平面の走査を行うことで障害物に対する方位と距離の計測が可能なレーザー距離センサを車輪移動型のロボットに搭載して移動させ、複数回の計測を行い、この計測値を用いてセンサが移動した環境における障害物の存在の有無を画像として生成及び/又は表示する装置を例示して説明する。   An embodiment according to the map image generating apparatus of the present invention will be described with reference to the drawings. Here, in particular, a laser distance sensor capable of measuring the azimuth and distance to obstacles by scanning a horizontal plane is mounted on a wheel-moving robot, moved, and measured multiple times. An apparatus that generates and / or displays as an image the presence or absence of an obstacle in the environment where the sensor has moved will be described as an example.

図1は本発明の地図画像生成装置に係る実施例における処理の流れの概要を示す。処理が開始されると(101)、レーザー距離センサから環境の地図を生成及び/又は表示する処理(102〜109)とロボット制御(111)の処理が開始される。レーザー距離センサによる地図生成及び/又は表示の処理では、まずレーザー距離センサを制御することにより方位と距離の計測値の入力を行い(102)、入力された計測値より環境中の障害物の方位と距離を示す画像であるグリッド画像(後述する図5に示す枡目で示した全体の画像)を生成する(103)。   FIG. 1 shows an outline of the flow of processing in an embodiment according to the map image generating apparatus of the present invention. When the processing is started (101), processing for generating and / or displaying an environment map from the laser distance sensor (102 to 109) and processing for robot control (111) are started. In the map generation and / or display processing by the laser distance sensor, first, the direction and distance measurement values are input by controlling the laser distance sensor (102), and the direction of the obstacle in the environment is determined from the input measurement values. And a grid image (an entire image shown by a grid shown in FIG. 5 described later), which is an image indicating the distance, is generated (103).

次いで、画像において障害物の占有する領域(占有グリッド)が多く、また占有されているかが未知の領域(未知グリッド)が少ない点を特徴点として抽出し(104)、画像間の特徴点のヒストグラムと特徴点の相対位置が画像間で保持されているかを基準として画像間の照合を行い、照合結果のうち画像間で最も特徴点が保持されるような画像の相対位置と姿勢を記録し(105)、この相対位置と姿勢に従って画像同士を共通の座標系に配置したときに重複する領域を算出する(106)。   Next, points having a large area occupied by obstacles (occupied grid) in the image and a small area unknown to the occupied area (unknown grid) are extracted as feature points (104), and a histogram of the feature points between the images is extracted. And the relative position of the feature point is held between the images as a reference, and the relative position and orientation of the image that holds the most feature point among the images among the matching results are recorded ( 105) An overlapping area is calculated when the images are arranged in a common coordinate system according to the relative position and orientation (106).

さらに、重複する領域内に含まれる各画像の方位と距離の実測値を用いることにより画像間の相対位置と姿勢を精密に算出し(107)、算出された画像間の相対位置と姿勢に従って各画像を共通の座標系に配置して環境地図の画像を生成し(108)、生成された環境地図画像を表示する(109)。   Further, the relative position and orientation between the images are precisely calculated by using the measured values of the orientation and distance of each image included in the overlapping region (107), and each image is calculated according to the calculated relative position and orientation between the images. An image of the environmental map is generated by arranging the images in a common coordinate system (108), and the generated environmental map image is displayed (109).

以上のレーザー距離センサから環境の地図を生成及び/又は表示する処理(102〜109)と並行してロボット制御(111)の処理により、操作者の指令もしくは予め指定された経路に沿って移動する。目的とする環境の地図が生成及び/又は表示が終了してからプログラムを終了する(110)。   The robot moves along the route designated by the operator or in advance by the robot control (111) process in parallel with the process (102 to 109) for generating and / or displaying the map of the environment from the above laser distance sensor. . The program is terminated after generation and / or display of the target environment map is completed (110).

以上説明した処理の流れの概略を踏まえ、図1の処理の流れをより詳細にしたものを図2に示す。図1の102が図2の202に、図1の103が図2の203に、図1の104が図2の204〜206に、図1の105が図2の207に、図1の106が図2の208〜209に、図1の107が図2の210に、図1の108が図2の211に、図1の109が図2の212に、それぞれ対応している。   Based on the outline of the processing flow described above, FIG. 2 shows a more detailed processing flow of FIG. 2 in FIG. 1, 103 in FIG. 1 in 203 in FIG. 2, 104 in FIG. 1 in 204 to 206 in FIG. 2, 105 in FIG. 1 in 207 in FIG. 2, 106 in FIG. 2 corresponds to 208 to 209 in FIG. 2, 107 in FIG. 1 corresponds to 210 in FIG. 2, 108 in FIG. 1 corresponds to 211 in FIG. 2, and 109 in FIG. 1 corresponds to 212 in FIG.

また、図2の207の処理を詳細に示したものを図3に示す。さらに、以上の処理を行うにあたり、ロボットが環境中を移動し、レーザー距離センサにより環境中の障害物の方位と位置を走査する様子を図4に示す。   FIG. 3 shows details of the process 207 in FIG. Further, FIG. 4 shows how the robot moves in the environment and scans the direction and position of the obstacle in the environment by the laser distance sensor in performing the above processing.

図2において、プログラムが開始されると(201)、レーザー距離センサによりセンサから障害物に対する方位と距離の計測を行い、計測値を取り込む(202)。ここでは、図4に示される(405)の位置においてロボットが(404)で示されるように180度の方向にレーザー距離センサによる走査を行い、(401)の斜線の領域で示される環境中の障害物に対して、(402)のように図中で太線で示される範囲が障害物として検出されたものとし、同様の計測をロボットが(403)の位置に移動して繰り返し行って、地図を画像として表示する例を示す。なお、図4に示す図示例で最上部における障害物に対して太線を付していないのはセンサから遠隔地のために省略している。   In FIG. 2, when the program is started (201), the azimuth and distance from the sensor to the obstacle are measured by the laser distance sensor, and the measured value is taken in (202). Here, at the position (405) shown in FIG. 4, the robot scans by a laser distance sensor in the direction of 180 degrees as shown by (404), and in the environment shown by the hatched area of (401). Assuming that the range indicated by the bold line in the figure is detected as an obstacle for the obstacle as shown in (402), the robot moves to the position of (403) and repeats the same measurement, and the map Is displayed as an image. In the illustrated example shown in FIG. 4, the obstacles at the top are not marked with a thick line because they are remote from the sensor.

このようにして移動するロボット上のレーザー距離センサで取り込んだ計測値からグリッド画像を生成する(203)。ここでの計測値とは(404)で示されるように一定の角度の範囲を走査して得られた各方位における障害物までの距離の集合であるとする。この計測値をもとにグリッド画像はセンサの位置を基準とする座標系においてセンサの計測誤差をもとに決められたグリッド(図5に示す1つの枡目)を設定し、このグリッドに計測値から推定されるグリッドの状態を示す3種類の色を割り当てることによって生成される。   A grid image is generated from the measurement values captured by the laser distance sensor on the moving robot in this way (203). The measured value here is assumed to be a set of distances to the obstacles in each direction obtained by scanning a range of a certain angle as indicated by (404). Based on this measurement value, a grid image (one grid shown in FIG. 5) determined based on the measurement error of the sensor is set in the coordinate system based on the sensor position, and measurement is performed on this grid. It is generated by assigning three kinds of colors indicating the state of the grid estimated from the values.

図5にグリッド画像生成(103)の処理(203)の例を示す。図5は(507)の位置にセンサが配置されている状態で1回の計測につき水平面の180度の範囲にレーザー光線(505)による走査を行うことで、走査した範囲内で計測された障害物の方位と距離にもとづいて画像としたものである。図5において(501)が実際の計測値(507と501を結ぶ直線505における方位と距離)であるとする。   FIG. 5 shows an example of processing (203) of grid image generation (103). FIG. 5 shows an obstacle measured within a scanned range by scanning with a laser beam (505) in a range of 180 degrees on a horizontal plane for one measurement in a state where a sensor is arranged at a position (507). The image is based on the azimuth and distance. In FIG. 5, it is assumed that (501) is an actual measurement value (direction and distance in a straight line 505 connecting 507 and 501).

グリッド画像の各グリッドは3値の状態を持ち、それぞれ占有グリッド(503)、非占有グリッド(504)、未知グリッド(502)の値を持つ。占有グリッドは障害物があることが判明している領域を示す。非占有グリッドは、センサ位置と占有グリッドを結ぶ直線(505)上のグリッドには障害物が無いと仮定して非占有グリッドとする。センサ位置と占有グリッドを結ぶ直線上で占有グリッドを基準として、センサから離れる方向にあるグリッドは障害物の有無が判明していない未知の領域であるため未知グリッドとして設定する。なお、グリッドの大きさはセンサの計測誤差より決定される。ここではセンサの計測誤差が前後左右方向に±dと仮定し、1つのグリッドの大きさを2d×2dとする。これにより後述する画像の特徴点の照合時において誤差を考慮した照合を行うものとする。また、各グリッドは3値のいずれかの値(占有、非占有、未知)とともに(501)で示されるセンサの実測値(方位と距離)を保持するものとする。   Each grid of the grid image has a ternary state, and has values of an occupied grid (503), an unoccupied grid (504), and an unknown grid (502). The occupied grid indicates an area where it is known that there is an obstacle. The unoccupied grid is an unoccupied grid on the assumption that there is no obstacle in the grid on the straight line (505) connecting the sensor position and the occupied grid. The grid in the direction away from the sensor on the straight line connecting the sensor position and the occupied grid is set as an unknown grid because it is an unknown area where the presence or absence of an obstacle is not known. The size of the grid is determined from the measurement error of the sensor. Here, the measurement error of the sensor is assumed to be ± d in the front-rear and left-right directions, and the size of one grid is 2d × 2d. As a result, it is assumed that collation is performed in consideration of errors when collating feature points of an image, which will be described later. Each grid holds one of three values (occupied, non-occupied, unknown) and an actual measurement value (direction and distance) of the sensor indicated by (501).

次に、グリッド画像特徴点の抽出(104)を行う。図5はグリッド画像特徴点の抽出(104)の処理(204〜205)の例を示すものである。レーザー距離センサ値の入力(102)により入力された計測値から生成されるグリッド画像において、占有グリッドを中心とするウィンドウ(506)を設けてヒストグラム(占有、非占有、未知のそれぞれのグリッド数を示す数表)を作成し、これを特徴点とする。各特徴点のヒストグラムを比較し、占有グリッドが多い特徴点を選択し(204)、その内で未知グリッドが少ない特徴点を選択する(205)ことにより特徴点の抽出が行われる。次いで抽出された各特徴点のヒストグラム(後述する図6に示す表)と座標が記録される(206)。   Next, grid image feature points are extracted (104). FIG. 5 shows an example of processing (204 to 205) of grid image feature point extraction (104). In the grid image generated from the measurement value input by the input of the laser distance sensor value (102), a window (506) centering on the occupied grid is provided, and a histogram (occupied, unoccupied, unknown) is displayed. The numerical table shown) is created, and this is used as a feature point. The feature points are extracted by comparing the histograms of the feature points, selecting feature points with many occupied grids (204), and selecting feature points with few unknown grids (205). Next, a histogram (table shown in FIG. 6 described later) and coordinates of each extracted feature point are recorded (206).

図6は記録される特徴点のヒストグラムの値を表にしたものを示す。特徴点に固有の識別子として1〜5が割り振られたときの各特徴点のグリッドの状態の出現頻度を示す値が例として示されている。   FIG. 6 shows a tabulated value of the histogram of recorded feature points. A value indicating the appearance frequency of the grid state of each feature point when 1 to 5 are assigned as unique identifiers to the feature points is shown as an example.

次に、グリッド画像の特徴点照合(105)を行う。グリッド画像の特徴点照合は現在の計測により求められたグリッド画像と前回の計測にもとづくグリッド画像の2つのグリッド画像間において対応する特徴点の算出を行うものであり、図3に示される処理により行われる。ここでは、グリッド画像の特徴点照合(105)の処理の例として、図7を用いて図3の処理の説明を行う。図7の(A)は図4の位置(405)にて環境を計測したときのグリッド画像であり、また、図7の(B)は図4の位置(403)にて計測したときのグリッド画像の例を示している。なお、レーザー距離センサを搭載したロボットは自分自身の絶対位置を認識できないということが前提であり、ロボットの移動前後において自分で観察できる風景が描ければ地図を生成できるのである。   Next, feature point matching (105) of the grid image is performed. The feature point matching of the grid image is to calculate the corresponding feature point between two grid images of the grid image obtained by the current measurement and the grid image based on the previous measurement, and is performed by the process shown in FIG. Done. Here, as an example of the process of matching feature points (105) of the grid image, the process of FIG. 3 will be described with reference to FIG. 7A is a grid image when the environment is measured at the position (405) in FIG. 4, and FIG. 7B is a grid when measured at the position (403) in FIG. An example of an image is shown. It is assumed that a robot equipped with a laser distance sensor cannot recognize the absolute position of itself, and a map can be generated if a landscape that can be observed by the robot before and after the robot moves is drawn.

まず、各グリッド画像において抽出された特徴点のうち2つを選択し、これらの特徴点を通る座標系(701)を設定する(301)。この座標系における他の特徴点の座標を求める(302)。同様に他のグリッド画像においても基準とする座標系を設定し(702)、他の特徴点の座標を求める。次に、基準とする座標系の原点と姿勢が一致するように各グリッド画像の特徴点を配置することを考える(303)。このとき、各グリッド画像の特徴点のヒストグラムと相対位置の比較を行う(304)。より具体的には、ヒストグラムにおける占有グリッドの数の差が閾値以下である特徴点(図7に示すウインドウを指す)を選択し、その相対距離(ウインドウの中心グリッド位置の相対距離)が閾値以下の場合に限り、特徴点が一致したものとしてカウントする。この処理を2つの特徴点からなる全ての組み合わせの座標系に対して行う(305)。   First, two of the feature points extracted in each grid image are selected, and a coordinate system (701) passing through these feature points is set (301). The coordinates of other feature points in this coordinate system are obtained (302). Similarly, a reference coordinate system is set for other grid images (702), and the coordinates of other feature points are obtained. Next, it is considered to arrange the feature points of each grid image so that the orientation coincides with the origin of the reference coordinate system (303). At this time, the histogram and the relative position of the feature points of each grid image are compared (304). More specifically, a feature point (pointing to the window shown in FIG. 7) whose difference in the number of occupied grids in the histogram is equal to or smaller than a threshold is selected, and its relative distance (relative distance of the center grid position of the window) is equal to or smaller than the threshold. Only in the case of, it is counted that the feature points match. This process is performed for all combinations of coordinate systems including two feature points (305).

グリッド画像の特徴点照合(105)の処理において特徴点の一致率が最も多かったときに選択された座標系を記録しておき(306)、各画像の座標系同士の原点と軸の方向が一致する(図7に示す座標系701と702を重ね合わせる)ようにして、各画像を同じ座標系に配置する(208)。処理(208)による配置は、後述する処理(210)による画像間の相対位置と姿勢を精密に算出するための前処理(仮の位置合わせ処理)であり、処理(207)による相対位置・姿勢の値は最終的な画像間の相対位置・姿勢として採用しないため(最終的な画像間相対位置・姿勢として採用するのは、後述する処理(210)の値である)、処理(208)による画像の配置は処理(209)を行うための仮配置(仮の位置合わせ)である。   The coordinate system selected when the matching rate of the feature points is the highest in the process of matching the feature points of the grid image (105) is recorded (306), and the origin and axis directions of the coordinate systems of each image are determined. Each image is arranged in the same coordinate system so as to coincide (superimpose coordinate systems 701 and 702 shown in FIG. 7) (208). The arrangement by the process (208) is a pre-process (temporary alignment process) for precisely calculating the relative position and orientation between images by the process (210) described later, and the relative position / attitude by the process (207). Is not adopted as the final relative position / posture between images (the final inter-image relative position / posture is the value of the processing (210) described later), and the processing (208). The image arrangement is a temporary arrangement (temporary alignment) for performing the processing (209).

処理(208)により同一座標系に仮配置された画像間の重複領域を算出する(209)。図8に処理(208)により仮配置された画像とその重複領域(801)を示す。この重複領域(801)に含まれる各占有グリッドに対応する方位と距離の実測値によって画像間の相対位置・姿勢を精密に算出する。ここでの画像間の相対位置と姿勢はIterative Closest Point(ICP)により算出する(210)。   The overlapping area between the images temporarily arranged in the same coordinate system by the process (208) is calculated (209). FIG. 8 shows an image temporarily arranged by the processing (208) and its overlapping area (801). The relative position / orientation between the images is precisely calculated based on the actually measured values of the azimuth and the distance corresponding to each occupied grid included in the overlapping area (801). Here, the relative position and orientation between images are calculated by the Iterative Closest Point (ICP) (210).

図9において、横軸を位置・姿勢の解とし、縦軸を誤差とする座標系(901)において誤差の評価関数(902)を仮定した場合、単純に最小二乗法などにより位置と姿勢の解を求めようとした場合に局所解(904)を解として算出してしまう可能性があるが、前述のようにグリッド画像同士を仮配置して重複領域の値のみを用いることにより(図8に示す重複領域801以外のウインドウの計測値を採用しないことにより)、余分な計測値を間引き、画像間の位置・姿勢の最適解(903)がより求めやすくなる。換言すると、重複領域を一応確保した場合には、図9の横軸のO点より左のP点で解を求めることとなり、局所解(904)に落ち込むことなく最適解(903)が求められ得る。   In FIG. 9, when an error evaluation function (902) is assumed in a coordinate system (901) in which the horizontal axis is the position / posture solution and the vertical axis is the error, the position / posture solution is simply obtained by the least square method or the like. However, if the grid images are temporarily arranged as described above and only the value of the overlapping region is used (see FIG. 8), the local solution (904) may be calculated as a solution. By not adopting the measured values of the windows other than the overlapping region 801 shown), it is easier to obtain the optimal position / posture solution (903) between the images by thinning out the extra measured values. In other words, if an overlapping area is temporarily secured, the solution is obtained at the point P on the left of the O point on the horizontal axis in FIG. 9, and the optimum solution (903) is obtained without falling into the local solution (904). obtain.

次いで、処理(210)により算出された画像間の相対位置・姿勢にもとづいて各画像が重複するように1枚の画像を生成し、これを環境地図画像とする(211)。続いて生成された環境地図画像を表示する(212)。新たにセンサ値の入力がなければ(213)、プログラムは終了する(213)。   Next, based on the relative positions and orientations between the images calculated by the process (210), one image is generated so that the images overlap each other, and this is used as the environment map image (211). Subsequently, the generated environment map image is displayed (212). If there is no new sensor value input (213), the program ends (213).

次に、図10を用いて本発明の地図画像生成装置に係る実施例の構成を説明する。本実施例は、プログラムにもとづいてデータの処理を行うメインプロセッサ(1001)、プログラムとデータを保持するメモリ等の主記憶(1009)とハードディスク等の補助記憶(1008)、ディスプレイ(1002)とグラフィックボード(1003)、障害物までの方位・距離の計測値の入力(102)を行うためのレーザー距離センサ(1004)とレーザー距離センサ制御ボード(1005)、センサを移動させるための台車となるロボット(1006)、ロボット制御ボード(1007)を備える。   Next, the structure of the Example which concerns on the map image generation apparatus of this invention is demonstrated using FIG. In this embodiment, a main processor (1001) for processing data based on a program, a main memory (1009) such as a memory for holding the program and data, an auxiliary memory (1008) such as a hard disk, a display (1002) and a graphic A board (1003), a laser distance sensor (1004) for inputting a measurement value of an azimuth / distance to an obstacle (102), a laser distance sensor control board (1005), and a robot serving as a carriage for moving the sensor (1006) and a robot control board (1007).

図10に示す構成は、ハードウェア的には、プロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、図10にはそれらの連携によって実現される機能ブロックを記載している。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できるものである。   The configuration shown in FIG. 10 can be realized in terms of hardware by a processor, memory, and other LSIs, and in terms of software, it is realized by a program loaded in the memory. The functional blocks to be performed are described. Therefore, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

主記憶(1009)にて動作するプログラムとデータについて説明をする。オペレーティングシステム(1011)は、プログラムの実行等を管理する基本ソフトウェアである。方位と距離の計測値から環境地図画像を生成するプログラムとしては、全体の処理の流れを制御するメインプログラム(1012)、図1におけるレーザー距離センサ値取得(102)の処理に相当するレーザー距離センサ値取得プログラム(1013)、グリッド画像生成(103)の処理に相当するグリッド画像生成プログラム(1014)、グリッド画像の特徴点抽出(103)の処理に相当するグリッド画像特徴点抽出プログラム(1015)、グリッド画像の特徴点照合(105)の処理に相当するグリッド画像特徴点照合プログラム(1016)、グリッド画像間重複領域算出(106)の処理に相当するグリッド画像間重複領域算出プログラム(1017)、画像間相対位置と姿勢算出(107)の処理に相当する画像間相対位置・姿勢算出プログラム(1018)、環境地図画像生成(108)の処理に相当する環境地図画像生成プログラム(1019)、環境地図画像表示(109)の処理に相当する環境地図画像表示プログラム(1020)が存在する。   The program and data that operate in the main memory (1009) will be described. The operating system (1011) is basic software for managing execution of programs and the like. As a program for generating an environmental map image from the measured values of azimuth and distance, a main program (1012) for controlling the overall processing flow, and a laser distance sensor corresponding to the processing of laser distance sensor value acquisition (102) in FIG. A value acquisition program (1013), a grid image generation program (1014) corresponding to the processing of grid image generation (103), a grid image feature point extraction program (1015) corresponding to the processing of feature point extraction (103) of the grid image, Grid image feature point matching program (1016) corresponding to grid image feature point matching (105) processing, grid image overlapping region calculation program (1017) equivalent to processing of grid image overlapping region calculation (106), image Inter-image relative corresponding to the processing of relative position and orientation calculation (107) Position / attitude calculation program (1018), environment map image generation program (1019) corresponding to processing of environment map image generation (108), environment map image display program (1020) corresponding to processing of environment map image display (109) Exists.

また、画像処理にあたって処理結果を保持する画像バッファ(1021)がある。また、補助記憶(1008)には主記憶(1009)に読み込まれる各種プログラム(1011〜1022)がプログラム(1010)として記憶されている。これらのプログラムは、メモリに読み込まれ、プロセッサによって実行されることによって処理が行われる。   In addition, there is an image buffer (1021) that holds processing results in image processing. The auxiliary storage (1008) stores various programs (1011 to 1022) read into the main storage (1009) as programs (1010). These programs are read into a memory and processed by being executed by a processor.

各プログラムの処理について説明する。メインプログラム(1012)は図1〜図9に示したレーザー距離センサ値取得から環境地図画像の生成及び/又は表示までのプログラム全体の処理の流れを制御する。レーザー距離センサ値取得プログラム(1013)はレーザー距離センサ値取得(102)としてレーザー距離センサ制御ボード(1007)とレーザー距離センサ(1004)を制御することにより、レーザー距離センサにより得られる方位と距離の計測値を主記憶(1009)のバッファ(1021)に取り込む(図2の202)。なお、バッファ(1021)は以下における各種プログラムの作業領域としても用いられる。   The processing of each program will be described. The main program (1012) controls the processing flow of the entire program from acquisition of the laser distance sensor value shown in FIGS. 1 to 9 to generation and / or display of the environmental map image. The laser distance sensor value acquisition program (1013) controls the laser distance sensor control board (1007) and the laser distance sensor (1004) as the laser distance sensor value acquisition (102), so that the orientation and distance obtained by the laser distance sensor are controlled. The measured value is taken into the buffer (1021) of the main memory (1009) (202 in FIG. 2). The buffer (1021) is also used as a work area for various programs described below.

次に、グリッド画像生成プログラム(1014)はレーザー距離センサ値取得(102)により取り込まれた方位・距離計測値よりグリッド画像の生成を行い(図2の処理203)、グリッド画像特徴点抽出プログラム(1015)は画像内の占有グリッドに設けたウィンドウ内のヒストグラムを特徴点として抽出し、ヒストグラムと座標を記録する(図2の処理204〜206)。   Next, the grid image generation program (1014) generates a grid image from the azimuth / distance measurement values acquired by the laser distance sensor value acquisition (102) (process 203 in FIG. 2), and the grid image feature point extraction program ( 1015) extracts a histogram in the window provided in the occupancy grid in the image as a feature point, and records the histogram and coordinates (processes 204 to 206 in FIG. 2).

グリッド画像特徴点照合プログラム(1016)はグリッド画像間において特徴点のヒストグラムと座標の比較にもとづいた照合を行う(図2の処理207)。より具体的には、グリッド画像において選択した2つの特徴点を基準とした座標系を設定し、その座標系における他の特徴点の座標とヒストグラムをグリッド画像間で比較していき、画像間におけるヒストグラムの差と相対位置の差が閾値以下であれば特徴が一致するとみなし、一致する特徴点の数をカウントする。これにより最も一致率が高くなるようなグリッド画像間の相対位置と姿勢関係を算出する。   The grid image feature point matching program (1016) performs matching based on the comparison between the histogram of the feature points and the coordinates between the grid images (processing 207 in FIG. 2). More specifically, a coordinate system based on the two feature points selected in the grid image is set, and the coordinates of other feature points in the coordinate system and the histogram are compared between the grid images. If the difference between the histogram and the difference between the relative positions is equal to or smaller than the threshold value, it is considered that the features match and the number of matching feature points is counted. As a result, the relative position and posture relationship between the grid images with the highest matching rate are calculated.

グリッド画像間重複領域算出プログラム(1017)はグリッド画像特徴点照合プログラム(1016)により得られた画像の特徴点の一致率が最大となるときの相対位置と姿勢に従って各グリッド画像を共通の座標系に仮配置し、仮配置された画像間で重複する領域を算出する。画像間相対位置・姿勢算出プログラム(1018)により重複領域に含まれる各グリッド画像の占有グリッドの方位と距離の実測値を用いてグリッド画像間の相対位置と姿勢を精密に算出する。   An inter-grid image overlap area calculation program (1017) uses a common coordinate system for each grid image according to the relative position and orientation when the matching rate of the feature points of the image obtained by the grid image feature point matching program (1016) is maximized. Are temporarily arranged, and a region overlapping between the temporarily arranged images is calculated. A relative position / orientation between grid images is accurately calculated by using a measured value of the azimuth and distance of the occupied grid of each grid image included in the overlapping area by an inter-image relative position / orientation calculation program (1018).

環境地図画像生成プログラム(1019)は求められた相対位置と姿勢に従って各グリッド画像を共通の座標系に配置し、環境地図画像を生成する。次いで環境地図画像表示プログラム(1020)は環境地図画像生成プログラム(1019)により生成された環境地図画像を表示する(図2の処理212)。   The environment map image generation program (1019) arranges each grid image in a common coordinate system according to the obtained relative position and orientation, and generates an environment map image. Next, the environment map image display program (1020) displays the environment map image generated by the environment map image generation program (1019) (process 212 in FIG. 2).

なお、前述した本発明の実施例の機能を実現するソフトウェアのプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のプロセッサが記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることはいうまでもない。   A recording medium recording a software program for realizing the functions of the above-described embodiments of the present invention is supplied to a system or apparatus, and a processor stored in the recording medium is read and executed by a processor of the system or apparatus. However, it goes without saying that the object of the present invention is achieved.

以上の説明においては、本発明の実施例として、特にレーザー距離センサを方位と距離の計測機器とする構成例を示したが、計測値を保存しているネットワーク上の記憶装置などから計測値を入力した場合でも、上述した構成例と同様の結果を得ることが可能である。また、複数回の環境の計測に伴うレーザー距離センサの移動方法についてはセンサをロボット以外の車両などに取り付けた場合、あるいはセンサを取り付けた三脚を人間が計測地点を変えるなどした場合においても類似した特徴が観測される範囲において計測地点を変えて計測を行うならば、同様の結果を得ることが可能である。また、本実施例では水平に180度の範囲内を走査するレーザー距離センサの例を示したが、走査範囲がより広い場合、また狭い場合においても同様の結果を得ることが可能である。   In the above description, as an embodiment of the present invention, a configuration example in which a laser distance sensor is used as a measuring device for azimuth and distance has been shown. However, measurement values are obtained from a storage device on a network that stores measurement values. Even when it is input, it is possible to obtain the same result as in the configuration example described above. In addition, the method of moving the laser distance sensor that accompanies multiple measurements of the environment is similar when the sensor is attached to a vehicle other than a robot, or when a tripod with a sensor attached is changed by a human. The same result can be obtained if measurement is performed by changing the measurement point in the range where the characteristic is observed. In this embodiment, an example of a laser distance sensor that horizontally scans within a range of 180 degrees is shown. However, similar results can be obtained even when the scanning range is wider or narrower.

また、本発明の地図画像生成装置の産業応用の例としては、自動車や船舶などの移動物体に搭載されたレーザー距離センサにより撮影された複数回の方位と距離の計測値から、障害物が占有する領域を示す画像を生成し、1枚の環境地図の画像を自動的に生成及び/又は表示を行ったり、複数のレーザー距離センサを並べて得られる複数の画像から1枚の環境地図の画像を自動的に生成及び/又は表示することが可能となり、作業の省力化が期待できる。このように、本発明の実施例によれば、障害物の配置が未知の環境において、人力もしくは車両などの移動体によりレーザー距離センサを移動させながら一定の領域の計測を行っていくことにより、センサが移動した周囲の環境の地図を精度良く生成し、表示することが可能となる。   In addition, as an example of industrial application of the map image generation device of the present invention, an obstacle is occupied from a plurality of azimuth and distance measurements taken by a laser distance sensor mounted on a moving object such as an automobile or a ship. An image showing a region to be generated, and automatically generating and / or displaying a single environmental map image, or a single environmental map image from a plurality of images obtained by arranging a plurality of laser distance sensors. It can be automatically generated and / or displayed, and labor saving can be expected. Thus, according to the embodiment of the present invention, in an environment where the arrangement of obstacles is unknown, by measuring a certain area while moving the laser distance sensor by a moving body such as human power or a vehicle, It is possible to accurately generate and display a map of the surrounding environment to which the sensor has moved.

以上説明したように、本発明の特徴を取り纏めると、レーザー距離センサによる障害物までの方位と距離を複数回計測し、各計測により得られる障害物の位置を表す画像からヒストグラムによる特徴点を抽出し、各計測により生成される各画像の特徴点を計測前後の画像間で照合することにより画像間で共通する重複領域を算出し、この重複領域算出を元にして画像間の相対位置・姿勢を算出することによって、レーザー距離センサが移動した範囲の環境における障害物の位置を示す1枚の画像として生成し、表示するものである。   As described above, when the features of the present invention are summarized, the orientation and distance to the obstacle by the laser distance sensor are measured a plurality of times, and the feature points by the histogram are obtained from the image representing the position of the obstacle obtained by each measurement. By extracting and collating the feature points of each image generated by each measurement between the images before and after the measurement, the common overlapping area between the images is calculated, and the relative position between the images is calculated based on this overlapping area calculation. By calculating the posture, the image is generated and displayed as a single image showing the position of the obstacle in the environment where the laser distance sensor has moved.

本発明の特徴について、敷衍して説明すると、障害物までの方位と距離の計測が可能なレーザー距離センサもしくはそれに類する機器、あるいは既に計測値が保存されている記憶装置を制御することにより計測値の入力を行い、入力された計測値から環境における障害物の占有位置を示す画像を生成し、複数回の計測に相当するそれぞれの画像における占有領域(占有グリッド)を中心とするある範囲(ウインドウ)を特徴点として抽出し、特徴点のヒストグラムと位置を記録し、特徴点のヒストグラムと特徴点同士の相対的な位置が類似するような特徴点を持つ画像間において、相対位置関係が保持されている特徴点のみを算出し、同じ特徴点を持つ画像間のおよその相対位置と姿勢を算出し、算出された相対位置と姿勢において画像同士を配置した場合に重複する領域を算出し、算出された重複領域に含まれる画像における占有領域(占有グリッド)のみを用いて各画像における占有領域(占有グリッド)間の距離の差の二乗が最小となるような相対位置と姿勢を精密に算出し、この相対位置と姿勢を画像間の相対位置と姿勢として、画像を重ね合わせて環境地図画像を生成し、表示するものである。   The features of the present invention will be explained in detail. Measurement values are obtained by controlling a laser distance sensor or similar device capable of measuring the azimuth and distance to an obstacle, or a storage device that already stores measurement values. Is generated, an image showing the occupied position of the obstacle in the environment is generated from the input measurement value, and a certain range (window) centered on the occupied area (occupied grid) in each image corresponding to multiple measurements ) As feature points, and the feature point histogram and position are recorded, and the relative positional relationship is maintained between images having feature points whose feature point histograms and feature points have similar relative positions. Only the feature points that are present, calculate the approximate relative position and orientation between images with the same feature point, and the images at the calculated relative position and orientation When overlapping, the overlapping area is calculated, and only the occupied area (occupied grid) in the image included in the calculated overlapping area is used, and the square of the difference in the distance between the occupied areas (occupied grid) in each image is minimized. The relative position and orientation are precisely calculated, and the relative position and orientation are used as the relative position and orientation between the images to superimpose the images to generate and display the environment map image.

本発明の地図画像生成装置に係る実施例における処理の流れの概要を示す図である。It is a figure which shows the outline | summary of the flow of the process in the Example which concerns on the map image generation apparatus of this invention. 本実施例における全体の処理における詳細な流れを示す図である。It is a figure which shows the detailed flow in the whole process in a present Example. 図2に示す全体の処理の流れの内でグリッド画像の特徴点照合に関する詳細な処理の流れを示す図である。It is a figure which shows the flow of the detailed process regarding the feature point collation of a grid image among the flow of the whole process shown in FIG. ロボットに搭載されたレーザ距離センサを用いて環境を走査している様子を示す図である。It is a figure which shows a mode that the environment is scanned using the laser distance sensor mounted in the robot. 図2に示す全体の処理の流れの内でグリッド画像生成に関わる処理とグリッド画像特徴点抽出に関する説明図である。It is explanatory drawing regarding the process in connection with a grid image generation, and grid image feature point extraction in the flow of the whole process shown in FIG. グリッド画像の特徴点のヒストグラムを表で示した図である。It is the figure which showed the histogram of the feature point of a grid image with the table | surface. 図2に示す全体の処理の流れの内でグリッド画像特徴点照合に関する説明図である。It is explanatory drawing regarding a grid image feature point collation in the flow of the whole process shown in FIG. 図2に示す全体の処理の流れの内でグリッド画像の仮配置と重複領域の算出に関する説明図である。It is explanatory drawing regarding calculation of the temporary arrangement | positioning of a grid image and the duplication area | region in the flow of the whole process shown in FIG. 図8に示す仮配置したことによるグリッド画像間相対位置と姿勢算出時における効果を示す説明図である。It is explanatory drawing which shows the effect at the time of the relative position between grid images by the provisional arrangement shown in FIG. 8, and attitude | position calculation. 本発明の地図画像生成装置に係る実施例における全体構成を示す図である。It is a figure which shows the whole structure in the Example which concerns on the map image generation apparatus of this invention.

符号の説明Explanation of symbols

101 プログラムの開始処理
102 レーザー距離センサ値取得処理
103 グリッド画像生成処理
104 グリッド画像特徴点抽出処理
105 グリッド画像特徴点照合処理
106 グリッド画像間重複領域算出処理
107 グリッド画像間相対位置・姿勢算出処理
108 環境地図画像生成処理
109 環境地図画像表示処理
110 プログラムの終了処理
401 環境中の障害物
402 検出された障害物
403 移動後のロボット位置
404 走査範囲
405 移動前のロボット位置
501 実際の計測値
502 未知グリッド
503 占有グリッド
504 非占有グリッド
505 レーザ光線
506 ウインドウ
507 センサ配置位置
DESCRIPTION OF SYMBOLS 101 Program start process 102 Laser distance sensor value acquisition process 103 Grid image generation process 104 Grid image feature point extraction process 105 Grid image feature point collation process 106 Grid image overlap area calculation process 107 Grid image relative position / posture calculation process 108 Environmental map image generation processing 109 Environmental map image display processing 110 Program end processing 401 Obstacle in environment 402 Obstacle detected 403 Robot position after movement 404 Scan range 405 Robot position before movement 501 Actual measurement value 502 Unknown Grid 503 Occupied grid 504 Non-occupied grid 505 Laser beam 506 Window 507 Sensor placement position

Claims (11)

障害物までの方位と距離を計測できる距離センサを用いて前記距離センサ周囲の地図画像を生成する画像生成装置であって、
前記距離センサを移動させて前記障害物までの方位と距離の計測値を前記移動の前後のそれぞれで取得し、
前記計測値に基づいて前記距離センサの周囲における障害物の占有位置を示す画像をグリッド画像として生成し、
前記計測値でそれぞれ得られた各グリッド画像における特徴点を抽出し、
前記抽出された各グリッド画像の特徴点を比較して各グリッド画像間の特徴点を照合し、
前記照合の結果に基づいて特徴点の最も良く一致するグリッド画像間で重ね合わせてグリッド画像を仮配置し、
前記仮配置したグリッド画像間において前記計測値によって前記グリッド画像間の相対位置と姿勢を演算して前記地図画像を生成する
ことを特徴とする画像生成装置。
An image generation device that generates a map image around the distance sensor using a distance sensor that can measure the direction and distance to an obstacle,
Move the distance sensor to obtain the direction and distance measurements to the obstacle before and after the movement,
Based on the measurement value, generate an image indicating the occupied position of the obstacle around the distance sensor as a grid image,
Extract feature points in each grid image obtained with the measured values,
Compare the feature points of each grid image by comparing the feature points of each extracted grid image,
Based on the result of the collation, the grid images are temporarily arranged by overlapping between the best matching grid images of the feature points,
An image generation apparatus, wherein the map image is generated by calculating a relative position and orientation between the grid images based on the measurement values between the temporarily arranged grid images.
請求項1において、
前記特徴点の照合は、特徴点の占有グリッドの数の差と、特徴点の相対距離とに基づいて行うことを特徴とする画像生成装置。
In claim 1,
The feature point matching is performed based on a difference in the number of occupied grids of feature points and a relative distance between feature points.
請求項1又は2において、
前記グリッド画像間の相対位置と姿勢の演算は、前記仮配置したグリッド画像間の重複領域に含まれる前記計測値のみに基づいて行うことを特徴とする画像生成装置。
In claim 1 or 2,
The image generation apparatus according to claim 1, wherein the calculation of the relative position and orientation between the grid images is performed based only on the measurement value included in the overlapping area between the temporarily arranged grid images.
障害物までの方位と距離を計測可能なレーザー距離センサの計測値から前記レーザー距離センサ周囲の地図の画像を生成する画像生成装置であって、
前記障害物までの方位と距離の計測値を取得可能なレーザー距離センサ値取得手段と、
前記レーザー距離センサ値取得手段から取得された複数の計測値から前記レーザー距離センサの周囲における障害物の有無を画像として生成するグリッド画像生成手段と、
前記グリッド画像生成手段により得られた複数のグリッド画像のそれぞれにおける特徴点を抽出するグリッド画像特徴点抽出手段と、
前記グリッド画像特徴点抽出手段で得られた各グリッド画像の特徴点を比較し、グリッド画像間で一致する特徴点の識別を行うグリッド画像特徴点照合手段と、
前記グリッド画像特徴点照合手段で得られた照合結果にもとづきグリッド画像間の特徴点が一致するように画像の重ね合わせを行い、前記重ね合わせのとき重複する重複領域を算出するグリッド画像間重複領域算出手段と、
前記グリッド画像間重複領域算出手段で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算するグリッド画像間相対位置・姿勢演算手段と、
前記グリッド画像間相対位置・姿勢演算手段で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する地図画像生成手段と、有する
ことを特徴とする画像生成装置。
An image generating device that generates an image of a map around the laser distance sensor from a measurement value of a laser distance sensor capable of measuring an azimuth and distance to an obstacle,
Laser distance sensor value acquisition means capable of acquiring a measured value of the direction and distance to the obstacle,
Grid image generation means for generating, as an image, the presence or absence of an obstacle around the laser distance sensor from a plurality of measurement values acquired from the laser distance sensor value acquisition means;
Grid image feature point extraction means for extracting feature points in each of a plurality of grid images obtained by the grid image generation means;
A grid image feature point matching unit that compares the feature points of each grid image obtained by the grid image feature point extraction unit and identifies matching feature points between the grid images;
Based on the collation result obtained by the grid image feature point collating means, the image is overlapped so that the feature points between the grid images coincide with each other, and the overlapping area between the grid images for calculating the overlapping area at the time of the overlapping is calculated. A calculation means;
An inter-grid image relative position / posture calculating means for calculating a relative position and posture between grid images using only the measurement value of the laser distance sensor included in the overlapping area obtained by the inter-grid image overlapping area calculating means; ,
An image generation apparatus comprising: map image generation means for combining a plurality of images into one image according to the relative position and orientation between grid images obtained by the relative position / attitude calculation means between grid images.
請求項4に記載の画像生成装置において、
前記グリッド画像特徴点抽出手段は、前記グリッド画像のそれぞれにおいて局所的に設けたウィンドウ内のヒストグラムとその座標を特徴点として抽出することを特徴とする画像生成装置。
The image generation apparatus according to claim 4,
The grid image feature point extracting means extracts a histogram in a window provided locally in each grid image and its coordinates as feature points.
請求項5に記載の画像生成装置において、
前記グリッド画像特徴点照合手段は、前記複数のグリッド画像におけるヒストグラムの特徴点に基づき、各グリッド画像におけるヒストグラムの差分が所定の閾値以下であり、前記特徴点間の相対位置の差分が閾値以下である場合に、各グリッド画像における特徴点が一致するものと判断する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 5,
The grid image feature point matching means is based on the histogram feature points in the plurality of grid images, wherein the histogram difference in each grid image is less than or equal to a predetermined threshold value, and the relative position difference between the feature points is less than or equal to the threshold value. In some cases, it is determined that the feature points in each grid image match.
請求項6に記載の画像生成装置において、
前記グリッド画像特徴点照合手段は、前記特徴点が一致するものと判断される少なくとも2以上の画像のうちで、各グリッド画像内の複数の特徴点のうちの2つの特徴点より基準となる座標系を設定し、前記グリッド画像内で他の複数の特徴点が前記座標系から所定の距離と角度内にあるか否かを判断し、
前記他の複数の特徴点のいずれかが前記所定の距離と角度内にある場合に特徴点が一致するものと見なす
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 6.
The grid image feature point matching means is a coordinate based on two feature points of a plurality of feature points in each grid image among at least two or more images determined to match the feature points. Set a system, determine whether a plurality of other feature points within the grid image are within a predetermined distance and angle from the coordinate system;
An image generation apparatus characterized in that a feature point is considered to match when any of the other plurality of feature points is within an angle with the predetermined distance.
請求項7に記載の画像生成装置において、
前記グリッド画像間重複領域算出手段は、前記一致する特徴点を有する2以上のグリッド画像について前記特徴点の位置を重ね合わせ、前記重複領域に含まれる計測値のみを求めることによって前記グリッド画像間の相対位置と姿勢を演算する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 7.
The overlapping area calculation unit between the grid images overlaps the positions of the feature points with respect to the two or more grid images having the matching feature points, and obtains only the measurement value included in the overlapping area, thereby obtaining the interval between the grid images. An image generation apparatus characterized by calculating a relative position and a posture.
請求項1ないし8のいずれか1つの請求項において、
前記画像生成装置により得られた地図画像を表示する表示手段を設けることを特徴とする画像生成装置。
In any one of claims 1 to 8,
An image generating apparatus, comprising: display means for displaying a map image obtained by the image generating apparatus.
レーザー距離センサによる複数回の計測値から環境における障害物の有無を示す地図を画像として生成する画像生成方法であって、
レーザーにより障害物までの方位と距離の計測値を取得する取得工程と、
前記取得工程から取得された計測値から前記レーザー距離センサの周囲における障害物の有無を画像として生成する生成工程と、
前記生成工程により得られた複数のグリッド画像のそれぞれにおける特徴点を抽出する抽出工程と、
前記抽出工程で得られた各グリッド画像の特徴点を比較し、各グリッド画像間で一致する特徴点の識別を行う識別工程と、
前記識別工程で得られた照合結果にもとづきグリッド画像間の特徴点が一致するように画像の重ね合わせを行い、前記重ね合わせのとき重複する重複領域を算出する算出工程と、
前記算出工程で得られた前記重複領域に含まれるレーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算する演算工程と、
前記演算工程で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に生成する生成工程と、からなる
ことを特徴とする画像生成方法。
An image generation method for generating, as an image, a map indicating the presence or absence of an obstacle in the environment from a plurality of measurement values obtained by a laser distance sensor,
An acquisition process for acquiring the measured value of the direction and distance to the obstacle with a laser,
A generation step of generating the presence or absence of an obstacle around the laser distance sensor from the measurement value acquired from the acquisition step, and
An extraction step of extracting feature points in each of the plurality of grid images obtained by the generation step;
An identification step for comparing feature points of each grid image obtained in the extraction step, and identifying feature points that match between the grid images;
Based on the collation result obtained in the identification step, the image is overlapped so that the feature points between the grid images match, and a calculation step of calculating an overlapping region that overlaps at the time of the overlapping,
A calculation step of calculating the relative position and orientation between grid images using only the measurement value of the laser distance sensor included in the overlapping region obtained in the calculation step;
An image generation method comprising: a generation step of generating a plurality of images into one image according to a relative position and orientation between grid images obtained in the calculation step.
レーザーにより障害物までの方位と距離を計測可能なセンサの計測値からセンサ周囲の地図の画像を生成するプログラムであって、
レーザーにより障害物までの方位と距離の計測値を取得する取得工程と、
前記取得工程から取得された計測値からセンサの周囲における障害物の有無を画像として生成する生成工程と、
前記生成工程により得られた複数のグリッド画像のそれぞれにおける特徴点を抽出する抽出工程と、
前記抽出工程で得られた各グリッド画像の特徴点を比較し、各グリッド画像間で一致する特徴点の識別を行う識別工程と、
前記識別工程で得られた照合結果にもとづきグリッド画像間の特徴点が一致するように画像の重ね合わせを行い、前記重ね合わせのとき重複する重複領域を算出する算出工程と、
前記算出工程で得られた前記重複領域に含まれる前記センサの計測値のみを用いて画像間の相対位置と姿勢を演算する演算工程と、
前記演算工程で得られた画像間の相対位置と姿勢に従って複数の画像を1枚の画像に生成する生成工程と、を実行する
ことを特徴とする画像生成プログラム。
A program that generates an image of a map around the sensor from the measured values of the sensor that can measure the direction and distance to the obstacle with a laser,
An acquisition process for acquiring the measured value of the direction and distance to the obstacle with a laser,
A generation step for generating as an image the presence or absence of an obstacle around the sensor from the measurement value acquired from the acquisition step;
An extraction step of extracting feature points in each of the plurality of grid images obtained by the generation step;
An identification step for comparing feature points of each grid image obtained in the extraction step, and identifying feature points that match between the grid images;
Based on the collation result obtained in the identification step, the image is overlapped so that the feature points between the grid images match, and a calculation step of calculating an overlapping region that overlaps at the time of the overlapping,
A calculation step of calculating a relative position and orientation between images using only the measurement values of the sensors included in the overlap region obtained in the calculation step;
An image generation program, comprising: a generation step of generating a plurality of images into one image according to a relative position and orientation between images obtained in the calculation step.
JP2004142336A 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement Expired - Fee Related JP4533659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004142336A JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004142336A JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Publications (2)

Publication Number Publication Date
JP2005326944A true JP2005326944A (en) 2005-11-24
JP4533659B2 JP4533659B2 (en) 2010-09-01

Family

ID=35473274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004142336A Expired - Fee Related JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Country Status (1)

Country Link
JP (1) JP4533659B2 (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
KR100791386B1 (en) 2006-08-18 2008-01-07 삼성전자주식회사 Method and system of cell decomposition in mobile robot
JP2008004078A (en) * 2006-06-20 2008-01-10 Samsung Electronics Co Ltd Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same
WO2009000961A1 (en) * 2007-06-22 2008-12-31 Consejo Superior De Investigaciones Cientificas Device useful for generating outline maps and uses thereof
KR100881228B1 (en) 2007-09-06 2009-02-05 포항공과대학교 산학협력단 Object detection method using ultrasonic sensor
JP2009080804A (en) * 2007-09-03 2009-04-16 Hitachi Industrial Equipment Systems Co Ltd Autonomous mobile robot system
JP2009129277A (en) * 2007-11-26 2009-06-11 Panasonic Electric Works Co Ltd Self-location recognition system
JP2009157430A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Coordinate correction method, coordinate correction program and autonomous mobile robot
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
WO2009102829A1 (en) * 2008-02-13 2009-08-20 Caterpillar Inc. Terrain map updating system
KR100917756B1 (en) 2007-12-18 2009-09-15 한국전자통신연구원 Method and apparatus for forming lattice map for robot by use of drawings
KR100949116B1 (en) 2008-02-26 2010-03-23 삼성전자주식회사 Simultaneous localization and map-building method for moving robot
WO2010032381A1 (en) * 2008-09-16 2010-03-25 村田機械株式会社 Environmental map correction device and autonomous migration device
JP2010091554A (en) * 2008-07-25 2010-04-22 Navteq North America Llc Positioning of open area map
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, method for managing robot, and program
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
JP2011134234A (en) * 2009-12-25 2011-07-07 Honda Motor Co Ltd Movable area extracting device, movable area extracting system, movable area extracting method, and program
US8036775B2 (en) 2005-10-27 2011-10-11 Hitachi, Ltd. Obstacle avoidance system for a user guided mobile robot
JP2011210121A (en) * 2010-03-30 2011-10-20 Fuji Soft Inc Program for robot and program for information-processing device
JP2013114329A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
JP2014089740A (en) * 2013-12-20 2014-05-15 Hitachi Ltd Robot system and map update method
US8744744B2 (en) 2010-08-30 2014-06-03 Denso Corporation Traveling environment recognition device
JP2014523572A (en) * 2011-06-24 2014-09-11 ウニヴェルシテ・ダンジェ Generating map data
KR101437916B1 (en) * 2008-01-14 2014-09-15 삼성전자주식회사 Method for drawing a map by ultrasonic sensor and mobile robot using the same
JP2015144013A (en) * 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
WO2018070021A1 (en) 2016-10-13 2018-04-19 日産自動車株式会社 Parking assist method and parking assist device
WO2018180175A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body, signal processing device, and computer program
US10354150B2 (en) 2015-10-22 2019-07-16 Kabushiki Kaisha Toshiba Apparatus, method and program for generating occupancy grid map
JP2019536054A (en) * 2016-12-09 2019-12-12 ステート・アトミック・エナジー・コーポレーション・ロスアトム・オン・ビハーフ・オブ・ザ・ロシアン・フェデレーションState Atomic Energy Corporation ‘Rosatom’ Onbehalf Of The Russian Federation Method for searching and detecting gamma radiation sources
DE112017007479T5 (en) 2017-06-01 2020-01-09 Mitsubishi Electric Corporation Card processing device, card processing method and card processing program
JP2020118666A (en) * 2019-01-28 2020-08-06 株式会社データ変換研究所 Mobile entity position estimation system
JP2021060602A (en) * 2014-12-26 2021-04-15 ヘーレ グローバル ベスローテン フェンノートシャップ Geometric fingerprinting for localization of device
JP2021060943A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Occupation map creation method and occupation map creation device
JP2021516403A (en) * 2018-03-19 2021-07-01 アミクロ セミコンダクター カンパニー リミテッドAmicro Semiconductor Co.,Ltd. Robot repositioning method
JP2021526473A (en) * 2018-05-25 2021-10-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Training methods for driver assistance methods, driver assistance methods, control equipment, and vehicles equipped with control equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102097722B1 (en) * 2019-03-25 2020-04-06 주식회사 트위니 Apparatus and method for posture estimation of robot using big cell grid map and recording medium storing program for executing the same and computer program stored in recording medium for executing the same

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2001334897A (en) * 2000-05-25 2001-12-04 Daihatsu Motor Co Ltd Parking assisting device and its control method
JP2002342754A (en) * 2001-05-21 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for synthesizing mosaic picture and recording medium having its program recorded thereon
JP2003015739A (en) * 2001-07-02 2003-01-17 Yaskawa Electric Corp External environment map, self-position identifying device and guide controller
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2003266345A (en) * 2002-03-18 2003-09-24 Sony Corp Path planning device, path planning method, path planning program, and moving robot device
JP2003271975A (en) * 2002-03-15 2003-09-26 Sony Corp Method of extracting plane, extractor therefor, program therefor, recording medium therefor, and robot system mounted with plane extractor
JP2003317089A (en) * 2002-04-24 2003-11-07 Dainippon Printing Co Ltd Method and system for image correction
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2005092820A (en) * 2003-09-19 2005-04-07 Sony Corp Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
JP2005205028A (en) * 2004-01-23 2005-08-04 Sharp Corp Self-propelled vacuum cleaner
JP2007525770A (en) * 2004-02-27 2007-09-06 インターグラフ ソフトウェアー テクノロジーズ カンパニー Technology to form a single image from multiple overlapping images

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2001334897A (en) * 2000-05-25 2001-12-04 Daihatsu Motor Co Ltd Parking assisting device and its control method
JP2002342754A (en) * 2001-05-21 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for synthesizing mosaic picture and recording medium having its program recorded thereon
JP2003015739A (en) * 2001-07-02 2003-01-17 Yaskawa Electric Corp External environment map, self-position identifying device and guide controller
JP2003271975A (en) * 2002-03-15 2003-09-26 Sony Corp Method of extracting plane, extractor therefor, program therefor, recording medium therefor, and robot system mounted with plane extractor
JP2003266345A (en) * 2002-03-18 2003-09-24 Sony Corp Path planning device, path planning method, path planning program, and moving robot device
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2003317089A (en) * 2002-04-24 2003-11-07 Dainippon Printing Co Ltd Method and system for image correction
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2005092820A (en) * 2003-09-19 2005-04-07 Sony Corp Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
JP2005205028A (en) * 2004-01-23 2005-08-04 Sharp Corp Self-propelled vacuum cleaner
JP2007525770A (en) * 2004-02-27 2007-09-06 インターグラフ ソフトウェアー テクノロジーズ カンパニー Technology to form a single image from multiple overlapping images

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8036775B2 (en) 2005-10-27 2011-10-11 Hitachi, Ltd. Obstacle avoidance system for a user guided mobile robot
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
JP2008004078A (en) * 2006-06-20 2008-01-10 Samsung Electronics Co Ltd Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same
US8060254B2 (en) 2006-06-20 2011-11-15 Samsung Electronics Co., Ltd. Method, apparatus, and medium for building grid map in mobile robot and method, apparatus, and medium for cell decomposition that uses grid map
JP4664326B2 (en) * 2006-06-20 2011-04-06 三星電子株式会社 Region separation method, apparatus, and medium using grid map of mobile robot
KR100791386B1 (en) 2006-08-18 2008-01-07 삼성전자주식회사 Method and system of cell decomposition in mobile robot
WO2009000961A1 (en) * 2007-06-22 2008-12-31 Consejo Superior De Investigaciones Cientificas Device useful for generating outline maps and uses thereof
ES2322220A1 (en) * 2007-06-22 2009-06-17 Consejo Superior De Investigaciones Cientificas Device useful for generating outline maps and uses thereof
JP2009080804A (en) * 2007-09-03 2009-04-16 Hitachi Industrial Equipment Systems Co Ltd Autonomous mobile robot system
KR100881228B1 (en) 2007-09-06 2009-02-05 포항공과대학교 산학협력단 Object detection method using ultrasonic sensor
JP2009129277A (en) * 2007-11-26 2009-06-11 Panasonic Electric Works Co Ltd Self-location recognition system
KR100917756B1 (en) 2007-12-18 2009-09-15 한국전자통신연구원 Method and apparatus for forming lattice map for robot by use of drawings
JP2009157430A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Coordinate correction method, coordinate correction program and autonomous mobile robot
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
KR101437916B1 (en) * 2008-01-14 2014-09-15 삼성전자주식회사 Method for drawing a map by ultrasonic sensor and mobile robot using the same
AU2009214748B2 (en) * 2008-02-13 2014-03-06 Caterpillar Inc. Terrain map updating system
WO2009102829A1 (en) * 2008-02-13 2009-08-20 Caterpillar Inc. Terrain map updating system
US8351684B2 (en) 2008-02-13 2013-01-08 Caterpillar Inc. Terrain map updating system
KR100949116B1 (en) 2008-02-26 2010-03-23 삼성전자주식회사 Simultaneous localization and map-building method for moving robot
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
JP2010091554A (en) * 2008-07-25 2010-04-22 Navteq North America Llc Positioning of open area map
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
US8515613B2 (en) 2008-09-16 2013-08-20 Murata Machinery, Ltd. Environmental map correction device and autonomous mobile device
WO2010032381A1 (en) * 2008-09-16 2010-03-25 村田機械株式会社 Environmental map correction device and autonomous migration device
KR101228487B1 (en) * 2008-09-16 2013-01-31 무라다기카이가부시끼가이샤 Environmental map correction device and autonomous migration device
US9242378B2 (en) 2009-06-01 2016-01-26 Hitachi, Ltd. System and method for determing necessity of map data recreation in robot operation
CN102449568A (en) * 2009-06-01 2012-05-09 株式会社日立制作所 Robot control system, robot control terminal, robot control method and program
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, method for managing robot, and program
WO2010140533A1 (en) * 2009-06-01 2010-12-09 株式会社日立製作所 Robot control system, robot control terminal, robot control method and program
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
JP5270767B2 (en) * 2009-11-06 2013-08-21 株式会社日立製作所 Mobile robot system
JP2011134234A (en) * 2009-12-25 2011-07-07 Honda Motor Co Ltd Movable area extracting device, movable area extracting system, movable area extracting method, and program
JP2011210121A (en) * 2010-03-30 2011-10-20 Fuji Soft Inc Program for robot and program for information-processing device
US8744744B2 (en) 2010-08-30 2014-06-03 Denso Corporation Traveling environment recognition device
JP2014523572A (en) * 2011-06-24 2014-09-11 ウニヴェルシテ・ダンジェ Generating map data
JP2013114329A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
JP2014089740A (en) * 2013-12-20 2014-05-15 Hitachi Ltd Robot system and map update method
JP2021060602A (en) * 2014-12-26 2021-04-15 ヘーレ グローバル ベスローテン フェンノートシャップ Geometric fingerprinting for localization of device
JP7111794B2 (en) 2014-12-26 2022-08-02 ヘーレ グローバル ベスローテン フェンノートシャップ Geometric fingerprinting for device localization
JP2015144013A (en) * 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
JP2017041200A (en) * 2015-08-21 2017-02-23 シャープ株式会社 Autonomous mobile device, autonomous mobile system and circumstance map evaluation method
US10354150B2 (en) 2015-10-22 2019-07-16 Kabushiki Kaisha Toshiba Apparatus, method and program for generating occupancy grid map
KR20190060825A (en) 2016-10-13 2019-06-03 닛산 지도우샤 가부시키가이샤 Parking assistance method and parking support device
JPWO2018070021A1 (en) * 2016-10-13 2019-08-15 日産自動車株式会社 Parking support method and parking support device
US11273821B2 (en) 2016-10-13 2022-03-15 Nissan Motor Co., Ltd. Parking assistance method and parking assistance device
WO2018070021A1 (en) 2016-10-13 2018-04-19 日産自動車株式会社 Parking assist method and parking assist device
JP2019536054A (en) * 2016-12-09 2019-12-12 ステート・アトミック・エナジー・コーポレーション・ロスアトム・オン・ビハーフ・オブ・ザ・ロシアン・フェデレーションState Atomic Energy Corporation ‘Rosatom’ Onbehalf Of The Russian Federation Method for searching and detecting gamma radiation sources
WO2018180175A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body, signal processing device, and computer program
DE112017007479T5 (en) 2017-06-01 2020-01-09 Mitsubishi Electric Corporation Card processing device, card processing method and card processing program
JP7085296B2 (en) 2018-03-19 2022-06-16 珠海一微半導体股▲ふん▼有限公司 Robot repositioning method
JP2021516403A (en) * 2018-03-19 2021-07-01 アミクロ セミコンダクター カンパニー リミテッドAmicro Semiconductor Co.,Ltd. Robot repositioning method
JP2021526473A (en) * 2018-05-25 2021-10-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Training methods for driver assistance methods, driver assistance methods, control equipment, and vehicles equipped with control equipment
JP2023024995A (en) * 2018-05-25 2023-02-21 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Training method for driver assistance, driver assistance method, control device, and vehicle with control device
JP2020118666A (en) * 2019-01-28 2020-08-06 株式会社データ変換研究所 Mobile entity position estimation system
JP7396618B2 (en) 2019-01-28 2023-12-12 株式会社データ変換研究所 Mobile position estimation system
JP2021060943A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Occupation map creation method and occupation map creation device
JP7344743B2 (en) 2019-10-09 2023-09-14 日産自動車株式会社 Occupancy map creation method and occupancy map creation device

Also Published As

Publication number Publication date
JP4533659B2 (en) 2010-09-01

Similar Documents

Publication Publication Date Title
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
EP2256574B1 (en) Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map generating computer program
US9020301B2 (en) Method and system for three dimensional mapping of an environment
EP2144131B1 (en) Apparatus and method of building map for mobile robot
JP5069439B2 (en) Self-position recognition system
US7864302B2 (en) Method for detecting objects with a pivotable sensor device
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP2007122304A (en) Mobile robot
JP2004508954A (en) Positioning device and system
KR20110097140A (en) Apparatus for estimating location of moving robot and method thereof
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
JP2017120551A (en) Autonomous traveling device
Shim et al. A mobile robot localization using external surveillance cameras at indoor
JP2006234453A (en) Method of registering landmark position for self-position orientation
JP5212939B2 (en) Autonomous mobile device
JP2010112836A (en) Self-position identification device and mobile robot provided with same
KR101735325B1 (en) Apparatus for registration of cloud points
US20220187428A1 (en) Autonomous mobile aircraft inspection system
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
US20220018950A1 (en) Indoor device localization
JP7278637B2 (en) Self-propelled moving device
JP2021047516A (en) Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program
US20230237681A1 (en) Method for ascertaining suitable positioning of measuring devices and simplified moving in measuring areas using vis data and reference trajectories background
Fu et al. Multi-waypoint visual homing in piecewise linear trajectory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees