JP4533659B2 - Apparatus and method for generating map image by laser measurement - Google Patents

Apparatus and method for generating map image by laser measurement Download PDF

Info

Publication number
JP4533659B2
JP4533659B2 JP2004142336A JP2004142336A JP4533659B2 JP 4533659 B2 JP4533659 B2 JP 4533659B2 JP 2004142336 A JP2004142336 A JP 2004142336A JP 2004142336 A JP2004142336 A JP 2004142336A JP 4533659 B2 JP4533659 B2 JP 4533659B2
Authority
JP
Japan
Prior art keywords
grid
image
occupied
images
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004142336A
Other languages
Japanese (ja)
Other versions
JP2005326944A (en
Inventor
高斉 松本
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004142336A priority Critical patent/JP4533659B2/en
Publication of JP2005326944A publication Critical patent/JP2005326944A/en
Application granted granted Critical
Publication of JP4533659B2 publication Critical patent/JP4533659B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、障害物までの方位と距離の計測が可能なレーザー距離センサを移動させながら計測することにより、移動するセンサの周囲の環境における障害物の位置を画像として自動的に生成及び/又は表示する装置及び方法に関する。   The present invention automatically generates and / or generates an image of the position of an obstacle in the environment around the moving sensor by measuring while moving a laser distance sensor capable of measuring the azimuth and distance to the obstacle. The present invention relates to a display apparatus and method.

レーザー距離センサを移動させながらレーザー距離センサの周囲の環境を複数回計測し、各計測毎の値から環境の地図を画像として生成する手法としては、1回の計測で得られる或る領域の計測値と、他の1回の計測で得られる或る領域の計測値のと差の二乗和を評価値として、この評価値を最小とするような計測値間の変位を算出して(いわゆる、最小二乗法の算出手法によって)、これをセンサの移動距離とし、この移動距離に従って各回の計測値を共通の座標系に記録することで、地図状の画像として生成する手法が提案されている(例えば、非特許文献1と2を参照)。
根岸善朗、三浦純、 白井良明、「全方位ステレオとレーザレンジファインダの統合による移動ロボットの地図生成」、日本ロボット学会誌、Vol.21,No.6,pp.110-116,2003. D. Hahnel、W. Burgard、「Probabilistic Matching for 3D Scan Registration」、In Proc of the VDI-Conference Robotik 2002,2002.
As a method of measuring the environment around the laser distance sensor multiple times while moving the laser distance sensor and generating a map of the environment from the value of each measurement as an image, measurement of a certain area obtained by one measurement The displacement between the measured values that minimizes the evaluation value is calculated by using the square sum of the difference between the value and the measurement value of a certain area obtained by another measurement as an evaluation value (so-called A method of generating a map-like image by using this as the moving distance of the sensor and recording the measured values of each time in a common coordinate system according to this moving distance is proposed (by the least square method calculation method) ( For example, see Non-Patent Documents 1 and 2.)
Yoshiro Negishi, Jun Miura, Yoshiaki Shirai, “Map Generation for Mobile Robots by Integration of Omnidirectional Stereo and Laser Range Finder”, Journal of the Robotics Society of Japan, Vol.21, No.6, pp.110-116, 2003. D. Hahnel, W. Burgard, “Probabilistic Matching for 3D Scan Registration”, In Proc of the VDI-Conference Robotik 2002, 2002.

しかしながら、上述した非特許文献1,2に記載されているような従来技術におけるレーザー距離センサ移動前後の計測値間の変位を最小二乗法算出手法で評価すると、必ずしも常に最適解が求まるということにならず、結果的に局所解を求めてしまうことが発生するという課題が生じていた。すなわち、センサ移動前後の計測値で評価した環境中の障害物の照合が、局所解によって正確に実施されない(センサ移動前後で或る障害物の照合が一致しない)という不都合が発生する。   However, when the displacement between measured values before and after the movement of the laser distance sensor in the prior art as described in Non-Patent Documents 1 and 2 described above is evaluated by the least square method calculation method, an optimum solution is always obtained. As a result, there has been a problem that a local solution may be obtained as a result. That is, there is an inconvenience that the matching of the obstacle in the environment evaluated by the measured values before and after the sensor movement is not accurately performed by the local solution (the matching of a certain obstacle does not match before and after the sensor movement).

本発明の目的は、センサの移動前後における画像間の相対位置と姿勢を精密に算出した場合における誤差の発生を抑制して、地図画像を精度良く生成又は表示する地図画像生成装置を提供することにある。   An object of the present invention is to provide a map image generation device that suppresses the generation of errors when accurately calculating the relative position and orientation between images before and after the movement of a sensor and generates or displays a map image with high accuracy. It is in.

前記課題を解決するために、本発明は主として次のような構成を採用する。
障害物までの方位と距離を用いて前記距離センサ周囲の地図画像を生成する画像生成装置であって、
前記距離センサを移動させて前記障害物までの方位と距離の計測値を前記移動の前後のそれぞれで取得し、
前記計測値に基づいて前記距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成し、
前記計測値でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出し、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出された各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較することで、各グリッド画像間の前記特徴点を照合し、
前記照合の結果に基づいて特徴点の最も良く一致するグリッド画像間で重ね合わせてグリッド画像を仮配置し、
前記仮配置したグリッド画像間において前記計測値によって前記グリッド画像間の相対位置と姿勢を演算して前記地図画像を生成する構成とする。
In order to solve the above problems, the present invention mainly adopts the following configuration.
An image generation device that generates a map image around the distance sensor using an azimuth and distance to an obstacle,
Move the distance sensor to obtain the direction and distance measurements to the obstacle before and after the movement,
Based on the measurement value, the presence / absence of an obstacle around the distance sensor is assigned to each grid determined by the resolution of the distance sensor (the obstacle is occupied in the image), and is not occupied (the obstacle in the image). Is unoccupied) and unknown (it is unknown whether the obstacle is occupied in the image)
In each grid image obtained with the measurement values, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. the frequency of occurrence of each state upon when expressed in a histogram, the presence of the grid most obstacle occupancy extracts the window grids of the unknown states is small as feature points,
In current corresponding comparative of the feature points between the two grid image of the grid image obtained by the measurement of the grid image and the previous obtained by the measurement, the occupancy grid in the feature points of each grid image the extracted the distance between the several feature points by comparing between the grid image, and collating the feature points between the grid image,
Based on the result of the collation, the grid images are temporarily arranged by overlapping between the best matching grid images of the feature points,
The map image is generated by calculating the relative position and orientation between the grid images based on the measurement values between the temporarily arranged grid images.

レーザー距離センサによる複数回の計測値から環境における障害物の有無を示す地図を画像として生成する画像生成方法であって、
レーザーにより前記障害物までの方位と距離の計測値を取得する取得工程と、
前記取得工程から取得された前記計測値に基づいて前記レーザー距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成する生成工程と、
前記生成工程でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出する抽出工程と、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出工程で得られた各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較し照合することで、各グリッド画像間で一致する前記特徴点の識別を行う識別工程と、
前記識別工程で得られた照合結果に基づきグリッド画像間の前記特徴点が最も良く一致するときの相対位置と姿勢に従って各グリッド画像を共通の座標系に重ね合わせて仮配置し、仮配置された各グリッド画像間で重複する領域を算出する算出工程と、
前記算出工程で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算する演算工程と、
前記演算工程で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する生成工程と、からなる画像生成方法。
An image generation method for generating, as an image, a map indicating the presence or absence of an obstacle in the environment from a plurality of measurement values obtained by a laser distance sensor,
An acquisition step of acquiring a measured value of the azimuth and distance to the obstacle by a laser;
Occupancy of obstacles around the laser distance sensor based on the measurement value acquired from the acquisition step, and assigned to each grid determined by the resolution of the distance sensor (obstacles are occupied in the image) Generating a grid image represented by unoccupied (unoccupied obstacles in the image), unknown (unknown whether the obstacles are occupied in the image),
In each grid image obtained in the generation step, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. the frequency of occurrence of each state at the time of the time expressed in histogram, an extraction step of the presence or absence of grid most obstacle occupancy extracts the grid is small window of unknown states as feature points,
In a corresponding comparison of the feature points between the two grid image of the grid image obtained by the measurement of the grid image and the previous obtained by the current measurement, in the feature points of each grid image obtained by the extraction step the distance between the feature points and the number of occupied grid and collates and compared between each grid image, an identification step for identifying the feature point matching between each grid image,
The temporary disposed by overlapping each grid image to a common coordinate system in accordance with the relative position and orientation at which the feature points between the obtained verification result based grid image best matches with the identification process, are temporarily placed A calculation step of calculating an overlapping area between the grid images;
A calculation step of calculating a relative position and orientation between grid images using only the measurement value of the laser distance sensor included in the overlap region obtained in the calculation step;
An image generation method comprising: a generation step of combining a plurality of images into one image according to the relative position and orientation between the grid images obtained in the calculation step.

本発明によれば、移動するレーザー距離センサにより複数回の計測毎に得られる環境中での障害物の占有する領域(占有グリッド)を示す画像において共通な特徴点を抽出し照合して、1枚の環境地図の画像として自動的に合成及び/又は表示することが可能となる。   According to the present invention, common feature points are extracted and collated in an image showing an area occupied by an obstacle (occupied grid) in an environment obtained for each measurement by a moving laser distance sensor. It is possible to automatically synthesize and / or display as an image of a single environmental map.

また、より具体的には、複数回の計測毎に生成される複数の画像のそれぞれからヒストグラムの特徴点を抽出し、各画像間でヒストグラムとその相対位置を照合することにより、画像間の相対位置と姿勢を算出し、この相対位置と姿勢により求められる画像間のおよその重複領域を算出し、重複領域に含まれる方位と距離の計測値のみを用いることにより画像間において対応がとれない計測値を減らし、より精度良く画像間の相対位置と姿勢を算出することが可能となり、精度の良い環境地図画像の自動生成及び/又は表示が可能となる。   More specifically, the feature points of the histogram are extracted from each of a plurality of images generated for each measurement, and the histograms are compared with each other by comparing the histograms with their relative positions. Measure the position and orientation, calculate the approximate overlap area between the images obtained from this relative position and orientation, and use only the orientation and distance measurement values included in the overlap area to measure between the images It is possible to calculate the relative position and orientation between images with higher accuracy, and to automatically generate and / or display a highly accurate environmental map image.

本発明の地図画像を生成する画像生成装置に係る実施の形態について、実施例を挙げて図面を参照しながら以下詳細に説明する。本発明の概要は、レーザー距離センサが移動した周囲の環境の障害物の有無を示す地図を精度良く生成及び/又は表示するという目的のために、計測毎にグリッド画像を生成して一致する特徴点を検出して、およその画像間の相対位置と姿勢を求める前処理を施す(具体的には、センサの移動前後でグリッド画像間の仮の位置合わせを行う)ことにより、グリッド画像間の相対位置と姿勢を精密に算出した場合における誤差の発生を抑制し(例えば、後述する図9に示す局所解904(最適解903ではない)への落ち込みを防ぎ)、環境地図画像を精度良く生成及び/又は表示するものである。   Embodiments of an image generation apparatus for generating a map image according to the present invention will be described below in detail with reference to the accompanying drawings. The outline of the present invention is to generate and / or display a grid image for each measurement for the purpose of accurately generating and / or displaying a map indicating the presence or absence of an obstacle in the surrounding environment to which the laser distance sensor has moved. Pre-processing to detect the points and determine the relative position and orientation between the images (specifically, provisional alignment between the grid images before and after the movement of the sensor) Suppresses the occurrence of errors when the relative position and orientation are accurately calculated (for example, prevents a drop in a local solution 904 (not the optimal solution 903) shown in FIG. 9 described later), and generates an environmental map image with high accuracy. And / or display.

本発明の地図画像生成装置に係る実施例を図面を用いて説明する。ここでは、特に、水平面の走査を行うことで障害物に対する方位と距離の計測が可能なレーザー距離センサを車輪移動型のロボットに搭載して移動させ、複数回の計測を行い、この計測値を用いてセンサが移動した環境における障害物の存在の有無を画像として生成及び/又は表示する装置を例示して説明する。   An embodiment according to the map image generating apparatus of the present invention will be described with reference to the drawings. Here, in particular, a laser distance sensor capable of measuring the azimuth and distance to obstacles by scanning a horizontal plane is mounted on a wheel-moving robot, moved, and measured multiple times. An apparatus that generates and / or displays as an image the presence or absence of an obstacle in the environment where the sensor has moved will be described as an example.

図1は本発明の地図画像生成装置に係る実施例における処理の流れの概要を示す。処理が開始されると(101)、レーザー距離センサから環境の地図を生成及び/又は表示する処理(102〜109)とロボット制御(111)の処理が開始される。レーザー距離センサによる地図生成及び/又は表示の処理では、まずレーザー距離センサを制御することにより方位と距離の計測値の入力を行い(102)、入力された計測値より環境中の障害物の方位と距離を示す画像であるグリッド画像(後述する図5に示す枡目で示した全体の画像)を生成する(103)。   FIG. 1 shows an outline of the flow of processing in an embodiment according to the map image generating apparatus of the present invention. When the processing is started (101), processing for generating and / or displaying an environment map from the laser distance sensor (102 to 109) and processing for robot control (111) are started. In the map generation and / or display processing by the laser distance sensor, first, the direction and distance measurement values are input by controlling the laser distance sensor (102), and the direction of the obstacle in the environment is determined from the input measurement values. And a grid image (an entire image shown by a grid shown in FIG. 5 described later), which is an image indicating the distance, is generated (103).

次いで、画像において障害物の占有する領域(占有グリッド)が多く、また占有されているかが未知の領域(未知グリッド)が少ない点を特徴点として抽出し(104)、画像間の特徴点のヒストグラムと特徴点の相対位置が画像間で保持されているかを基準として画像間の照合を行い、照合結果のうち画像間で最も特徴点が保持されるような画像の相対位置と姿勢を記録し(105)、この相対位置と姿勢に従って画像同士を共通の座標系に配置したときに重複する領域を算出する(106)。   Next, a point having a large area occupied by obstacles (occupied grid) in the image and a small area unknown to the occupied area (unknown grid) is extracted as a feature point (104), and a histogram of the feature points between the images is extracted. And the relative position of the feature point is held between the images as a reference, and the relative position and orientation of the image that holds the most feature point among the images among the matching results are recorded ( 105) An overlapping area is calculated when the images are arranged in a common coordinate system according to the relative position and orientation (106).

さらに、重複する領域内に含まれる各画像の方位と距離の実測値を用いることにより画像間の相対位置と姿勢を精密に算出し(107)、算出された画像間の相対位置と姿勢に従って各画像を共通の座標系に配置して環境地図の画像を生成し(108)、生成された環境地図画像を表示する(109)。   Further, the relative position and orientation between the images are precisely calculated by using the measured values of the orientation and distance of each image included in the overlapping region (107), and each image is calculated according to the calculated relative position and orientation between the images. An image of the environmental map is generated by arranging the images in a common coordinate system (108), and the generated environmental map image is displayed (109).

以上のレーザー距離センサから環境の地図を生成及び/又は表示する処理(102〜109)と並行してロボット制御(111)の処理により、操作者の指令もしくは予め指定された経路に沿って移動する。目的とする環境の地図が生成及び/又は表示が終了してからプログラムを終了する(110)。   The robot moves along the route designated by the operator or in advance by the robot control (111) process in parallel with the process (102 to 109) for generating and / or displaying the map of the environment from the above laser distance sensor. . The program is terminated after generation and / or display of the target environment map is completed (110).

以上説明した処理の流れの概略を踏まえ、図1の処理の流れをより詳細にしたものを図2に示す。図1の102が図2の202に、図1の103が図2の203に、図1の104が図2の204〜206に、図1の105が図2の207に、図1の106が図2の208〜209に、図1の107が図2の210に、図1の108が図2の211に、図1の109が図2の212に、それぞれ対応している。   Based on the outline of the processing flow described above, FIG. 2 shows a more detailed processing flow of FIG. 2 in FIG. 1, 103 in FIG. 1 in 203 in FIG. 2, 104 in FIG. 1 in 204 to 206 in FIG. 2, 105 in FIG. 1 in 207 in FIG. 2, 106 in FIG. 2 corresponds to 208 to 209 in FIG. 2, 107 in FIG. 1 corresponds to 210 in FIG. 2, 108 in FIG. 1 corresponds to 211 in FIG. 2, and 109 in FIG. 1 corresponds to 212 in FIG.

また、図2の207の処理を詳細に示したものを図3に示す。さらに、以上の処理を行うにあたり、ロボットが環境中を移動し、レーザー距離センサにより環境中の障害物の方位と位置を走査する様子を図4に示す。   FIG. 3 shows details of the process 207 in FIG. Further, FIG. 4 shows how the robot moves in the environment and scans the direction and position of the obstacle in the environment by the laser distance sensor in performing the above processing.

図2において、プログラムが開始されると(201)、レーザー距離センサによりセンサから障害物に対する方位と距離の計測を行い、計測値を取り込む(202)。ここでは、図4に示される(405)の位置においてロボットが(404)で示されるように180度の方向にレーザー距離センサによる走査を行い、(401)の斜線の領域で示される環境中の障害物に対して、(402)のように図中で太線で示される範囲が障害物として検出されたものとし、同様の計測をロボットが(403)の位置に移動して繰り返し行って、地図を画像として表示する例を示す。なお、図4に示す図示例で最上部における障害物に対して太線を付していないのはセンサから遠隔地のために省略している。   In FIG. 2, when the program is started (201), the azimuth and distance from the sensor to the obstacle are measured by the laser distance sensor, and the measured value is taken in (202). Here, at the position (405) shown in FIG. 4, the robot scans by a laser distance sensor in the direction of 180 degrees as shown by (404), and in the environment shown by the hatched area of (401). Assuming that the range indicated by the bold line in the figure is detected as an obstacle for the obstacle as shown in (402), the robot moves to the position of (403) and repeats the same measurement, and the map Is displayed as an image. In the illustrated example shown in FIG. 4, the obstacles at the top are not marked with a thick line because they are remote from the sensor.

このようにして移動するロボット上のレーザー距離センサで取り込んだ計測値からグリッド画像を生成する(203)。ここでの計測値とは(404)で示されるように一定の角度の範囲を走査して得られた各方位における障害物までの距離の集合であるとする。この計測値をもとにグリッド画像はセンサの位置を基準とする座標系においてセンサの計測誤差をもとに決められたグリッド(図5に示す1つの枡目)を設定し、このグリッドに計測値から推定されるグリッドの状態を示す3種類の色を割り当てることによって生成される。   A grid image is generated from the measurement values captured by the laser distance sensor on the moving robot in this way (203). The measured value here is assumed to be a set of distances to obstacles in each direction obtained by scanning a range of a certain angle as indicated by (404). Based on this measurement value, a grid image (one grid shown in FIG. 5) determined based on the measurement error of the sensor is set in the coordinate system based on the sensor position, and measurement is performed on this grid. It is generated by assigning three kinds of colors indicating the state of the grid estimated from the values.

図5にグリッド画像生成(103)の処理(203)の例を示す。図5は(507)の位置にセンサが配置されている状態で1回の計測につき水平面の180度の範囲にレーザー光線(505)による走査を行うことで、走査した範囲内で計測された障害物の方位と距離にもとづいて画像としたものである。図5において(501)が実際の計測値(507と501を結ぶ直線505における方位と距離)であるとする。   FIG. 5 shows an example of processing (203) of grid image generation (103). FIG. 5 shows an obstacle measured within a scanned range by scanning with a laser beam (505) in a range of 180 degrees on a horizontal plane for one measurement in a state where a sensor is arranged at a position (507). The image is based on the azimuth and distance. In FIG. 5, it is assumed that (501) is an actual measurement value (direction and distance in a straight line 505 connecting 507 and 501).

グリッド画像の各グリッドは3値の状態を持ち、それぞれ占有グリッド(503)、非占有グリッド(504)、未知グリッド(502)の値を持つ。占有グリッドは障害物があることが判明している領域を示す。非占有グリッドは、センサ位置と占有グリッドを結ぶ直線(505)上のグリッドには障害物が無いと仮定して非占有グリッドとする。センサ位置と占有グリッドを結ぶ直線上で占有グリッドを基準として、センサから離れる方向にあるグリッドは障害物の有無が判明していない未知の領域であるため未知グリッドとして設定する。なお、グリッドの大きさはセンサの計測誤差より決定される。ここではセンサの計測誤差が前後左右方向に±dと仮定し、1つのグリッドの大きさを2d×2dとする。これにより後述する画像の特徴点の照合時において誤差を考慮した照合を行うものとする。また、各グリッドは3値のいずれかの値(占有、非占有、未知)とともに(501)で示されるセンサの実測値(方位と距離)を保持するものとする。   Each grid of the grid image has a ternary state, and has values of an occupied grid (503), an unoccupied grid (504), and an unknown grid (502). The occupied grid indicates an area where it is known that there is an obstacle. The unoccupied grid is an unoccupied grid on the assumption that there is no obstacle in the grid on the straight line (505) connecting the sensor position and the occupied grid. The grid in the direction away from the sensor on the straight line connecting the sensor position and the occupied grid is set as an unknown grid because it is an unknown area where the presence or absence of an obstacle is not known. The size of the grid is determined from the measurement error of the sensor. Here, the measurement error of the sensor is assumed to be ± d in the front-rear and left-right directions, and the size of one grid is 2d × 2d. As a result, it is assumed that collation is performed in consideration of errors when collating feature points of an image, which will be described later. Each grid holds one of three values (occupied, non-occupied, unknown) and an actual measurement value (direction and distance) of the sensor indicated by (501).

次に、グリッド画像特徴点の抽出(104)を行う。図5はグリッド画像特徴点の抽出(104)の処理(204〜205)の例を示すものである。レーザー距離センサ値の入力(102)により入力された計測値から生成されるグリッド画像において、占有グリッドを中心とするウィンドウ(506)を設けてヒストグラム(占有、非占有、未知のそれぞれのグリッド数を示す数表)を作成し、これを特徴点とする。各特徴点のヒストグラムを比較し、占有グリッドが多い特徴点を選択し(204)、その内で未知グリッドが少ない特徴点を選択する(205)ことにより特徴点の抽出が行われる。次いで抽出された各特徴点のヒストグラム(後述する図6に示す表)と座標が記録される(206)。   Next, grid image feature points are extracted (104). FIG. 5 shows an example of processing (204 to 205) of grid image feature point extraction (104). In the grid image generated from the measurement value input by the input of the laser distance sensor value (102), a window (506) centering on the occupied grid is provided, and a histogram (occupied, unoccupied, unknown) is displayed. The numerical table shown) is created, and this is used as a feature point. The feature points are extracted by comparing the histograms of the feature points, selecting feature points with many occupied grids (204), and selecting feature points with few unknown grids (205). Next, a histogram (table shown in FIG. 6 described later) and coordinates of each extracted feature point are recorded (206).

図6は記録される特徴点のヒストグラムの値を表にしたものを示す。特徴点に固有の識別子として1〜5が割り振られたときの各特徴点のグリッドの状態の出現頻度を示す値が例として示されている。   FIG. 6 shows a tabulated value of the histogram of recorded feature points. A value indicating the appearance frequency of the grid state of each feature point when 1 to 5 are assigned as unique identifiers to the feature points is shown as an example.

次に、グリッド画像の特徴点照合(105)を行う。グリッド画像の特徴点照合は現在の計測により求められたグリッド画像と前回の計測にもとづくグリッド画像の2つのグリッド画像間において対応する特徴点の算出を行うものであり、図3に示される処理により行われる。ここでは、グリッド画像の特徴点照合(105)の処理の例として、図7を用いて図3の処理の説明を行う。図7の(A)は図4の位置(405)にて環境を計測したときのグリッド画像であり、また、図7の(B)は図4の位置(403)にて計測したときのグリッド画像の例を示している。なお、レーザー距離センサを搭載したロボットは自分自身の絶対位置を認識できないということが前提であり、ロボットの移動前後において自分で観察できる風景が描ければ地図を生成できるのである。   Next, feature point matching (105) of the grid image is performed. The feature point matching of the grid image is to calculate the corresponding feature point between two grid images of the grid image obtained by the current measurement and the grid image based on the previous measurement, and is performed by the process shown in FIG. Done. Here, as an example of the process of matching feature points (105) of the grid image, the process of FIG. 3 will be described with reference to FIG. 7A is a grid image when the environment is measured at the position (405) in FIG. 4, and FIG. 7B is a grid when measured at the position (403) in FIG. An example of an image is shown. It is assumed that a robot equipped with a laser distance sensor cannot recognize the absolute position of itself, and a map can be generated if a landscape that can be observed by the robot before and after the robot moves is drawn.

まず、各グリッド画像において抽出された特徴点のうち2つを選択し、これらの特徴点を通る座標系(701)を設定する(301)。この座標系における他の特徴点の座標を求める(302)。同様に他のグリッド画像においても基準とする座標系を設定し(702)、他の特徴点の座標を求める。次に、基準とする座標系の原点と姿勢が一致するように各グリッド画像の特徴点を配置することを考える(303)。このとき、各グリッド画像の特徴点のヒストグラムと相対位置の比較を行う(304)。より具体的には、ヒストグラムにおける占有グリッドの数の差が閾値以下である特徴点(図7に示すウインドウを指す)を選択し、その相対距離(ウインドウの中心グリッド位置の相対距離)が閾値以下の場合に限り、特徴点が一致したものとしてカウントする。この処理を2つの特徴点からなる全ての組み合わせの座標系に対して行う(305)。   First, two of the feature points extracted in each grid image are selected, and a coordinate system (701) passing through these feature points is set (301). The coordinates of other feature points in this coordinate system are obtained (302). Similarly, a reference coordinate system is set for other grid images (702), and the coordinates of other feature points are obtained. Next, it is considered to arrange the feature points of each grid image so that the orientation coincides with the origin of the reference coordinate system (303). At this time, the histogram and the relative position of the feature points of each grid image are compared (304). More specifically, a feature point (pointing to the window shown in FIG. 7) whose difference in the number of occupied grids in the histogram is equal to or smaller than a threshold is selected, and the relative distance (relative distance of the center grid position of the window) is equal to or smaller than the threshold. Only in the case of, it is counted that the feature points match. This process is performed for all combinations of coordinate systems including two feature points (305).

グリッド画像の特徴点照合(105)の処理において特徴点の一致率が最も多かったときに選択された座標系を記録しておき(306)、各画像の座標系同士の原点と軸の方向が一致する(図7に示す座標系701と702を重ね合わせる)ようにして、各画像を同じ座標系に配置する(208)。処理(208)による配置は、後述する処理(210)による画像間の相対位置と姿勢を精密に算出するための前処理(仮の位置合わせ処理)であり、処理(207)による相対位置・姿勢の値は最終的な画像間の相対位置・姿勢として採用しないため(最終的な画像間相対位置・姿勢として採用するのは、後述する処理(210)の値である)、処理(208)による画像の配置は処理(209)を行うための仮配置(仮の位置合わせ)である。   The coordinate system selected when the matching rate of the feature points is the highest in the process of matching the feature points of the grid image (105) is recorded (306), and the origin and axis directions of the coordinate systems of each image are determined. Each image is arranged in the same coordinate system so as to coincide (superimpose coordinate systems 701 and 702 shown in FIG. 7) (208). The arrangement by the process (208) is a pre-process (temporary alignment process) for precisely calculating the relative position and orientation between images by the process (210) described later, and the relative position / attitude by the process (207). Is not adopted as the final relative position / posture between images (the final inter-image relative position / posture is the value of the processing (210) described later), and the processing (208). The image arrangement is a temporary arrangement (temporary alignment) for performing the processing (209).

処理(208)により同一座標系に仮配置された画像間の重複領域を算出する(209)。図8に処理(208)により仮配置された画像とその重複領域(801)を示す。この重複領域(801)に含まれる各占有グリッドに対応する方位と距離の実測値によって画像間の相対位置・姿勢を精密に算出する。ここでの画像間の相対位置と姿勢はIterative Closest Point(ICP)により算出する(210)。   The overlapping area between the images temporarily arranged in the same coordinate system by the process (208) is calculated (209). FIG. 8 shows an image temporarily arranged by the processing (208) and its overlapping area (801). The relative position / orientation between the images is precisely calculated based on the actually measured values of the azimuth and the distance corresponding to each occupied grid included in the overlapping area (801). Here, the relative position and orientation between images are calculated by the Iterative Closest Point (ICP) (210).

図9において、横軸を位置・姿勢の解とし、縦軸を誤差とする座標系(901)において誤差の評価関数(902)を仮定した場合、単純に最小二乗法などにより位置と姿勢の解を求めようとした場合に局所解(904)を解として算出してしまう可能性があるが、前述のようにグリッド画像同士を仮配置して重複領域の値のみを用いることにより(図8に示す重複領域801以外のウインドウの計測値を採用しないことにより)、余分な計測値を間引き、画像間の位置・姿勢の最適解(903)がより求めやすくなる。換言すると、重複領域を一応確保した場合には、図9の横軸のO点より左のP点で解を求めることとなり、局所解(904)に落ち込むことなく最適解(903)が求められ得る。   In FIG. 9, when an error evaluation function (902) is assumed in a coordinate system (901) in which the horizontal axis is the position / posture solution and the vertical axis is the error, the position / posture solution is simply obtained by the least square method or the like. However, if the grid images are temporarily arranged as described above and only the value of the overlapping region is used (see FIG. 8), the local solution (904) may be calculated as a solution. By not adopting the measured values of the windows other than the overlapping region 801 shown), it is easier to obtain the optimal position / posture solution (903) between the images by thinning out the extra measured values. In other words, if an overlapping area is temporarily secured, a solution is obtained at point P on the left side of point O on the horizontal axis in FIG. 9, and the optimum solution (903) is obtained without falling into the local solution (904). obtain.

次いで、処理(210)により算出された画像間の相対位置・姿勢にもとづいて各画像が重複するように1枚の画像を生成し、これを環境地図画像とする(211)。続いて生成された環境地図画像を表示する(212)。新たにセンサ値の入力がなければ(213)、プログラムは終了する(213)。   Next, based on the relative positions and orientations between the images calculated by the process (210), one image is generated so that the images overlap each other, and this is used as the environment map image (211). Subsequently, the generated environment map image is displayed (212). If there is no new sensor value input (213), the program ends (213).

次に、図10を用いて本発明の地図画像生成装置に係る実施例の構成を説明する。本実施例は、プログラムにもとづいてデータの処理を行うメインプロセッサ(1001)、プログラムとデータを保持するメモリ等の主記憶(1009)とハードディスク等の補助記憶(1008)、ディスプレイ(1002)とグラフィックボード(1003)、障害物までの方位・距離の計測値の入力(102)を行うためのレーザー距離センサ(1004)とレーザー距離センサ制御ボード(1005)、センサを移動させるための台車となるロボット(1006)、ロボット制御ボード(1007)を備える。   Next, the structure of the Example which concerns on the map image generation apparatus of this invention is demonstrated using FIG. In this embodiment, a main processor (1001) for processing data based on a program, a main memory (1009) such as a memory for holding the program and data, an auxiliary memory (1008) such as a hard disk, a display (1002) and a graphic A board (1003), a laser distance sensor (1004) for inputting a measurement value of an azimuth / distance to an obstacle (102), a laser distance sensor control board (1005), and a robot serving as a carriage for moving the sensor (1006) and a robot control board (1007).

図10に示す構成は、ハードウェア的には、プロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、図10にはそれらの連携によって実現される機能ブロックを記載している。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できるものである。   The configuration shown in FIG. 10 can be realized in terms of hardware by a processor, memory, and other LSIs, and in terms of software, it is realized by a program loaded in the memory. The functional blocks to be performed are described. Therefore, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

主記憶(1009)にて動作するプログラムとデータについて説明をする。オペレーティングシステム(1011)は、プログラムの実行等を管理する基本ソフトウェアである。方位と距離の計測値から環境地図画像を生成するプログラムとしては、全体の処理の流れを制御するメインプログラム(1012)、図1におけるレーザー距離センサ値取得(102)の処理に相当するレーザー距離センサ値取得プログラム(1013)、グリッド画像生成(103)の処理に相当するグリッド画像生成プログラム(1014)、グリッド画像の特徴点抽出(103)の処理に相当するグリッド画像特徴点抽出プログラム(1015)、グリッド画像の特徴点照合(105)の処理に相当するグリッド画像特徴点照合プログラム(1016)、グリッド画像間重複領域算出(106)の処理に相当するグリッド画像間重複領域算出プログラム(1017)、画像間相対位置と姿勢算出(107)の処理に相当する画像間相対位置・姿勢算出プログラム(1018)、環境地図画像生成(108)の処理に相当する環境地図画像生成プログラム(1019)、環境地図画像表示(109)の処理に相当する環境地図画像表示プログラム(1020)が存在する。   The program and data that operate in the main memory (1009) will be described. The operating system (1011) is basic software for managing execution of programs and the like. As a program for generating an environmental map image from the measured values of azimuth and distance, a main program (1012) for controlling the overall processing flow, and a laser distance sensor corresponding to the processing of laser distance sensor value acquisition (102) in FIG. A value acquisition program (1013), a grid image generation program (1014) corresponding to the processing of grid image generation (103), a grid image feature point extraction program (1015) corresponding to the processing of feature point extraction (103) of the grid image, Grid image feature point matching program (1016) corresponding to grid image feature point matching (105) processing, grid image overlapping region calculation program (1017) equivalent to processing of grid image overlapping region calculation (106), image Inter-image relative corresponding to the processing of relative position and orientation calculation (107) Position / attitude calculation program (1018), environment map image generation program (1019) corresponding to processing of environment map image generation (108), environment map image display program (1020) corresponding to processing of environment map image display (109) Exists.

また、画像処理にあたって処理結果を保持する画像バッファ(1021)がある。また、補助記憶(1008)には主記憶(1009)に読み込まれる各種プログラム(1011〜1022)がプログラム(1010)として記憶されている。これらのプログラムは、メモリに読み込まれ、プロセッサによって実行されることによって処理が行われる。   In addition, there is an image buffer (1021) that holds processing results in image processing. The auxiliary storage (1008) stores various programs (1011 to 1022) read into the main storage (1009) as programs (1010). These programs are read into a memory and processed by being executed by a processor.

各プログラムの処理について説明する。メインプログラム(1012)は図1〜図9に示したレーザー距離センサ値取得から環境地図画像の生成及び/又は表示までのプログラム全体の処理の流れを制御する。レーザー距離センサ値取得プログラム(1013)はレーザー距離センサ値取得(102)としてレーザー距離センサ制御ボード(1007)とレーザー距離センサ(1004)を制御することにより、レーザー距離センサにより得られる方位と距離の計測値を主記憶(1009)のバッファ(1021)に取り込む(図2の202)。なお、バッファ(1021)は以下における各種プログラムの作業領域としても用いられる。   The processing of each program will be described. The main program (1012) controls the processing flow of the entire program from acquisition of the laser distance sensor value shown in FIGS. 1 to 9 to generation and / or display of the environmental map image. The laser distance sensor value acquisition program (1013) controls the laser distance sensor control board (1007) and the laser distance sensor (1004) as the laser distance sensor value acquisition (102), so that the orientation and distance obtained by the laser distance sensor are controlled. The measured value is taken into the buffer (1021) of the main memory (1009) (202 in FIG. 2). The buffer (1021) is also used as a work area for various programs described below.

次に、グリッド画像生成プログラム(1014)はレーザー距離センサ値取得(102)により取り込まれた方位・距離計測値よりグリッド画像の生成を行い(図2の処理203)、グリッド画像特徴点抽出プログラム(1015)は画像内の占有グリッドに設けたウィンドウ内のヒストグラムを特徴点として抽出し、ヒストグラムと座標を記録する(図2の処理204〜206)。   Next, the grid image generation program (1014) generates a grid image from the azimuth / distance measurement values acquired by the laser distance sensor value acquisition (102) (process 203 in FIG. 2), and the grid image feature point extraction program ( 1015) extracts a histogram in the window provided in the occupancy grid in the image as a feature point, and records the histogram and coordinates (processes 204 to 206 in FIG. 2).

グリッド画像特徴点照合プログラム(1016)はグリッド画像間において特徴点のヒストグラムと座標の比較にもとづいた照合を行う(図2の処理207)。より具体的には、グリッド画像において選択した2つの特徴点を基準とした座標系を設定し、その座標系における他の特徴点の座標とヒストグラムをグリッド画像間で比較していき、画像間におけるヒストグラムの差と相対位置の差が閾値以下であれば特徴が一致するとみなし、一致する特徴点の数をカウントする。これにより最も一致率が高くなるようなグリッド画像間の相対位置と姿勢関係を算出する。   The grid image feature point matching program (1016) performs matching based on the comparison between the histogram of the feature points and the coordinates between the grid images (processing 207 in FIG. 2). More specifically, a coordinate system based on the two feature points selected in the grid image is set, and the coordinates of other feature points in the coordinate system and the histogram are compared between the grid images. If the difference between the histogram and the difference between the relative positions is equal to or smaller than the threshold value, it is considered that the features match and the number of matching feature points is counted. As a result, the relative position and posture relationship between the grid images with the highest matching rate are calculated.

グリッド画像間重複領域算出プログラム(1017)はグリッド画像特徴点照合プログラム(1016)により得られた画像の特徴点の一致率が最大となるときの相対位置と姿勢に従って各グリッド画像を共通の座標系に仮配置し、仮配置された画像間で重複する領域を算出する。画像間相対位置・姿勢算出プログラム(1018)により重複領域に含まれる各グリッド画像の占有グリッドの方位と距離の実測値を用いてグリッド画像間の相対位置と姿勢を精密に算出する。   An inter-grid image overlap area calculation program (1017) uses a common coordinate system for each grid image according to the relative position and orientation when the matching rate of the feature points of the image obtained by the grid image feature point matching program (1016) is maximized. Are temporarily arranged, and a region overlapping between the temporarily arranged images is calculated. A relative position / orientation between grid images is accurately calculated by using a measured value of the azimuth and distance of the occupied grid of each grid image included in the overlapping area by an inter-image relative position / orientation calculation program (1018).

環境地図画像生成プログラム(1019)は求められた相対位置と姿勢に従って各グリッド画像を共通の座標系に配置し、環境地図画像を生成する。次いで環境地図画像表示プログラム(1020)は環境地図画像生成プログラム(1019)により生成された環境地図画像を表示する(図2の処理212)。   The environment map image generation program (1019) arranges each grid image in a common coordinate system according to the obtained relative position and orientation, and generates an environment map image. Next, the environment map image display program (1020) displays the environment map image generated by the environment map image generation program (1019) (process 212 in FIG. 2).

なお、前述した本発明の実施例の機能を実現するソフトウェアのプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のプロセッサが記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることはいうまでもない。   A recording medium recording a software program for realizing the functions of the above-described embodiments of the present invention is supplied to a system or apparatus, and a processor stored in the recording medium is read and executed by a processor of the system or apparatus. However, it goes without saying that the object of the present invention is achieved.

以上の説明においては、本発明の実施例として、特にレーザー距離センサを方位と距離の計測機器とする構成例を示したが、計測値を保存しているネットワーク上の記憶装置などから計測値を入力した場合でも、上述した構成例と同様の結果を得ることが可能である。また、複数回の環境の計測に伴うレーザー距離センサの移動方法についてはセンサをロボット以外の車両などに取り付けた場合、あるいはセンサを取り付けた三脚を人間が計測地点を変えるなどした場合においても類似した特徴が観測される範囲において計測地点を変えて計測を行うならば、同様の結果を得ることが可能である。また、本実施例では水平に180度の範囲内を走査するレーザー距離センサの例を示したが、走査範囲がより広い場合、また狭い場合においても同様の結果を得ることが可能である。   In the above description, as an embodiment of the present invention, a configuration example in which a laser distance sensor is used as a measuring device for azimuth and distance has been shown. However, measurement values are obtained from a storage device on a network that stores measurement values. Even when it is input, it is possible to obtain the same result as in the configuration example described above. In addition, the method of moving the laser distance sensor that accompanies multiple measurements of the environment is similar when the sensor is attached to a vehicle other than a robot, or when a tripod with a sensor attached is changed by a human. The same result can be obtained if measurement is performed by changing the measurement point in the range where the characteristic is observed. In this embodiment, an example of a laser distance sensor that horizontally scans within a range of 180 degrees is shown. However, similar results can be obtained even when the scanning range is wider or narrower.

また、本発明の地図画像生成装置の産業応用の例としては、自動車や船舶などの移動物体に搭載されたレーザー距離センサにより撮影された複数回の方位と距離の計測値から、障害物が占有する領域を示す画像を生成し、1枚の環境地図の画像を自動的に生成及び/又は表示を行ったり、複数のレーザー距離センサを並べて得られる複数の画像から1枚の環境地図の画像を自動的に生成及び/又は表示することが可能となり、作業の省力化が期待できる。このように、本発明の実施例によれば、障害物の配置が未知の環境において、人力もしくは車両などの移動体によりレーザー距離センサを移動させながら一定の領域の計測を行っていくことにより、センサが移動した周囲の環境の地図を精度良く生成し、表示することが可能となる。   In addition, as an example of industrial application of the map image generation device of the present invention, an obstacle is occupied from a plurality of azimuth and distance measurements taken by a laser distance sensor mounted on a moving object such as an automobile or a ship. An image showing a region to be generated, and automatically generating and / or displaying a single environmental map image, or a single environmental map image from a plurality of images obtained by arranging a plurality of laser distance sensors. It can be automatically generated and / or displayed, and labor saving can be expected. Thus, according to the embodiment of the present invention, in an environment where the arrangement of obstacles is unknown, by measuring a certain area while moving the laser distance sensor by a moving body such as human power or a vehicle, It is possible to accurately generate and display a map of the surrounding environment to which the sensor has moved.

以上説明したように、本発明の特徴を取り纏めると、レーザー距離センサによる障害物までの方位と距離を複数回計測し、各計測により得られる障害物の位置を表す画像からヒストグラムによる特徴点を抽出し、各計測により生成される各画像の特徴点を計測前後の画像間で照合することにより画像間で共通する重複領域を算出し、この重複領域算出を元にして画像間の相対位置・姿勢を算出することによって、レーザー距離センサが移動した範囲の環境における障害物の位置を示す1枚の画像として生成し、表示するものである。   As described above, when the features of the present invention are summarized, the orientation and distance to the obstacle by the laser distance sensor are measured a plurality of times, and the feature points by the histogram are obtained from the image representing the position of the obstacle obtained by each measurement. By extracting and collating the feature points of each image generated by each measurement between the images before and after the measurement, the common overlapping area between the images is calculated, and the relative position between the images is calculated based on this overlapping area calculation. By calculating the posture, the image is generated and displayed as a single image showing the position of the obstacle in the environment where the laser distance sensor has moved.

本発明の特徴について、敷衍して説明すると、障害物までの方位と距離の計測が可能なレーザー距離センサもしくはそれに類する機器、あるいは既に計測値が保存されている記憶装置を制御することにより計測値の入力を行い、入力された計測値から環境における障害物の占有位置を示す画像を生成し、複数回の計測に相当するそれぞれの画像における占有領域(占有グリッド)を中心とするある範囲(ウインドウ)を特徴点として抽出し、特徴点のヒストグラムと位置を記録し、特徴点のヒストグラムと特徴点同士の相対的な位置が類似するような特徴点を持つ画像間において、相対位置関係が保持されている特徴点のみを算出し、同じ特徴点を持つ画像間のおよその相対位置と姿勢を算出し、算出された相対位置と姿勢において画像同士を配置した場合に重複する領域を算出し、算出された重複領域に含まれる画像における占有領域(占有グリッド)のみを用いて各画像における占有領域(占有グリッド)間の距離の差の二乗が最小となるような相対位置と姿勢を精密に算出し、この相対位置と姿勢を画像間の相対位置と姿勢として、画像を重ね合わせて環境地図画像を生成し、表示するものである。   The features of the present invention will be explained in detail. Measurement values are obtained by controlling a laser distance sensor or similar device capable of measuring the azimuth and distance to an obstacle, or a storage device that already stores measurement values. Is generated, an image showing the occupied position of the obstacle in the environment is generated from the input measurement value, and a certain range (window) centered on the occupied area (occupied grid) in each image corresponding to multiple measurements ) As feature points, and the feature point histogram and position are recorded, and the relative positional relationship is maintained between images having feature points whose feature point histograms and feature points have similar relative positions. Only the feature points that are present, calculate the approximate relative position and orientation between images with the same feature point, and the images at the calculated relative position and orientation When overlapping, the overlapping area is calculated, and only the occupied area (occupied grid) in the image included in the calculated overlapping area is used, and the square of the difference in the distance between the occupied areas (occupied grid) in each image is minimized. The relative position and orientation are precisely calculated, and the relative position and orientation are used as the relative position and orientation between the images to superimpose the images to generate and display the environment map image.

本発明の地図画像生成装置に係る実施例における処理の流れの概要を示す図である。It is a figure which shows the outline | summary of the flow of the process in the Example which concerns on the map image generation apparatus of this invention. 本実施例における全体の処理における詳細な流れを示す図である。It is a figure which shows the detailed flow in the whole process in a present Example. 図2に示す全体の処理の流れの内でグリッド画像の特徴点照合に関する詳細な処理の流れを示す図である。It is a figure which shows the flow of the detailed process regarding the feature point collation of a grid image among the flow of the whole process shown in FIG. ロボットに搭載されたレーザ距離センサを用いて環境を走査している様子を示す図である。It is a figure which shows a mode that the environment is scanned using the laser distance sensor mounted in the robot. 図2に示す全体の処理の流れの内でグリッド画像生成に関わる処理とグリッド画像特徴点抽出に関する説明図である。It is explanatory drawing regarding the process in connection with a grid image generation, and grid image feature point extraction in the flow of the whole process shown in FIG. グリッド画像の特徴点のヒストグラムを表で示した図である。It is the figure which showed the histogram of the feature point of a grid image with the table | surface. 図2に示す全体の処理の流れの内でグリッド画像特徴点照合に関する説明図である。It is explanatory drawing regarding a grid image feature point collation in the flow of the whole process shown in FIG. 図2に示す全体の処理の流れの内でグリッド画像の仮配置と重複領域の算出に関する説明図である。It is explanatory drawing regarding calculation of the temporary arrangement | positioning of a grid image and the overlap area | region in the flow of the whole process shown in FIG. 図8に示す仮配置したことによるグリッド画像間相対位置と姿勢算出時における効果を示す説明図である。It is explanatory drawing which shows the effect at the time of the relative position between grid images by the provisional arrangement shown in FIG. 8, and attitude | position calculation. 本発明の地図画像生成装置に係る実施例における全体構成を示す図である。It is a figure which shows the whole structure in the Example which concerns on the map image generation apparatus of this invention.

符号の説明Explanation of symbols

101 プログラムの開始処理
102 レーザー距離センサ値取得処理
103 グリッド画像生成処理
104 グリッド画像特徴点抽出処理
105 グリッド画像特徴点照合処理
106 グリッド画像間重複領域算出処理
107 グリッド画像間相対位置・姿勢算出処理
108 環境地図画像生成処理
109 環境地図画像表示処理
110 プログラムの終了処理
401 環境中の障害物
402 検出された障害物
403 移動後のロボット位置
404 走査範囲
405 移動前のロボット位置
501 実際の計測値
502 未知グリッド
503 占有グリッド
504 非占有グリッド
505 レーザ光線
506 ウインドウ
507 センサ配置位置
DESCRIPTION OF SYMBOLS 101 Program start process 102 Laser distance sensor value acquisition process 103 Grid image generation process 104 Grid image feature point extraction process 105 Grid image feature point collation process 106 Grid image overlap area calculation process 107 Grid image relative position / posture calculation process 108 Environmental map image generation processing 109 Environmental map image display processing 110 Program end processing 401 Obstacles in environment 402 Obstacles detected 403 Robot position after movement 404 Scanning range 405 Robot position before movement 501 Actual measurement value 502 Unknown Grid 503 Occupied grid 504 Non-occupied grid 505 Laser beam 506 Window 507 Sensor placement position

Claims (4)

障害物までの方位と距離を用いて前記距離センサ周囲の地図画像を生成する画像生成装置であって、
前記距離センサを移動させて前記障害物までの方位と距離の計測値を前記移動の前後のそれぞれで取得し、
前記計測値に基づいて前記距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成し、
前記計測値でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出し、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出された各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較することで、各グリッド画像間の前記特徴点を照合し、
前記照合の結果に基づいて特徴点の最も良く一致するグリッド画像間で重ね合わせてグリッド画像を仮配置し、
前記仮配置したグリッド画像間において前記計測値によって前記グリッド画像間の相対位置と姿勢を演算して前記地図画像を生成する
ことを特徴とする画像生成装置。
An image generation device that generates a map image around the distance sensor using an azimuth and distance to an obstacle,
Move the distance sensor to obtain the direction and distance measurements to the obstacle before and after the movement,
Based on the measurement value, the presence / absence of an obstacle around the distance sensor is assigned to each grid determined by the resolution of the distance sensor (the obstacle is occupied in the image), and is not occupied (the obstacle in the image). Is unoccupied) and unknown (it is unknown whether the obstacle is occupied in the image)
In each grid image obtained with the measurement values, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. When the frequency of appearance of each state is represented by a histogram, a window with many occupied grids and few grids with unknown obstacles is extracted as a feature point,
When comparing the corresponding feature points between the two grid images of the grid image obtained by the current measurement and the grid image obtained by the previous measurement, the occupied grid at the feature point of each extracted grid image By comparing the number and distance between the feature points between the grid images, the feature points between the grid images are collated,
Based on the result of the collation, the grid images are temporarily arranged by overlapping between the best matching grid images of the feature points,
An image generation apparatus, wherein the map image is generated by calculating a relative position and orientation between the grid images based on the measurement values between the temporarily arranged grid images.
障害物までの方位と距離を計測可能なレーザー距離センサの計測値から前記レーザー距離センサ周囲の地図の画像を生成する画像生成装置であって、
前記障害物までの方位と距離の計測値を取得可能なレーザー距離センサ値取得手段と、
前記レーザー距離センサ値取得手段から取得された計測値に基づいて前記距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成するグリッド画像生成手段と、
前記計測値でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出するグリッド画像特徴点抽出手段と、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出された各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較することで、各グリッド画像間の前記特徴点を照合するグリッド画像特徴点照合手段と、
前記グリッド画像特徴点照合手段で得られた照合結果に基づきグリッド画像間の前記特徴点が最も良く一致するときの相対位置と姿勢に従って各グリッド画像を共通の座標系に重ね合わせて仮配置し、仮配置された各グリッド画像間で重複する領域を算出するグリッド画像間重複領域算出手段と、
前記グリッド画像間重複領域算出手段で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算するグリッド画像相対位置・姿勢演算手段と、
前記グリッド画像相対位置・姿勢演算手段で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する地図画像生成手段と、を有する
ことを特徴とする画像生成装置。
An image generating device that generates an image of a map around the laser distance sensor from a measurement value of a laser distance sensor capable of measuring an azimuth and distance to an obstacle,
Laser distance sensor value acquisition means capable of acquiring a measured value of the direction and distance to the obstacle,
Based on the measurement value acquired from the laser distance sensor value acquisition means, the presence or absence of an obstacle around the distance sensor is determined by the occupancy assigned to each grid determined by the resolution of the distance sensor (the obstacle in the image). Grid image generating means for generating a grid image represented by states of (occupied), non-occupied (unoccupied by obstacles in the image), unknown (unknown whether the obstacle is occupied in the image),
In each grid image obtained with the measurement values, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. Grid image feature point extraction means for extracting, as a feature point, a window having a large number of occupied grids and a small number of grids in which the presence or absence of obstacles is unknown when the appearance frequency of each state is represented by a histogram,
When comparing the corresponding feature points between the two grid images of the grid image obtained by the current measurement and the grid image obtained by the previous measurement, the occupied grid at the feature point of each extracted grid image A grid image feature point matching means for matching the feature points between the grid images by comparing the number and the distance between the feature points between the grid images;
Based on the matching result obtained by the grid image feature point matching means, each grid image is superimposed and placed in a common coordinate system according to the relative position and orientation when the feature points between the grid images best match, A grid image overlap area calculation means for calculating an overlap area between the temporarily arranged grid images;
Grid image relative position / attitude calculation means for calculating the relative position and attitude between grid images using only the measurement value of the laser distance sensor included in the overlap area obtained by the overlap area calculation means between the grid images;
An image generating apparatus comprising: map image generating means for combining a plurality of images into one image according to the relative position and orientation between the grid images obtained by the grid image relative position / posture calculating means.
レーザー距離センサによる複数回の計測値から環境における障害物の有無を示す地図を画像として生成する画像生成方法であって、
レーザーにより前記障害物までの方位と距離の計測値を取得する取得工程と、
前記取得工程から取得された前記計測値に基づいて前記レーザー距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成する生成工程と、
前記生成工程でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出する抽出工程と、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出工程で得られた各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較し照合することで、各グリッド画像間で一致する前記特徴点の識別を行う識別工程と、
前記識別工程で得られた照合結果に基づきグリッド画像間の前記特徴点が最も良く一致するときの相対位置と姿勢に従って各グリッド画像を共通の座標系に重ね合わせて仮配置し、仮配置された各グリッド画像間で重複する領域を算出する算出工程と、
前記算出工程で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算する演算工程と、
前記演算工程で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する生成工程と、からなる
ことを特徴とする画像生成方法。
An image generation method for generating, as an image, a map indicating the presence or absence of an obstacle in the environment from a plurality of measurement values obtained by a laser distance sensor,
An acquisition step of acquiring a measured value of the azimuth and distance to the obstacle by a laser;
Occupancy of obstacles around the laser distance sensor based on the measurement value acquired from the acquisition step, and assigned to each grid determined by the resolution of the distance sensor (obstacles are occupied in the image) Generating a grid image represented by unoccupied (unoccupied obstacles in the image), unknown (unknown whether the obstacles are occupied in the image),
In each grid image obtained in the generating step, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. When the appearance frequency of each state is represented by a histogram, an extraction step for extracting as a feature point a window with a large number of occupied grids and a small number of grids with unknown obstacles;
When comparing the corresponding feature points between two grid images of the grid image obtained by the current measurement and the grid image obtained by the previous measurement, in the feature points of each grid image obtained in the extraction step An identification step for identifying the feature points that match between the grid images by comparing and collating the number of occupied grids and the distance between the feature points between the grid images;
Based on the collation result obtained in the identification step, each grid image is temporarily placed on a common coordinate system according to the relative position and orientation when the feature points between the grid images best match, and temporarily placed. A calculation step of calculating an overlapping area between the grid images;
A calculation step of calculating a relative position and orientation between grid images using only the measurement value of the laser distance sensor included in the overlap region obtained in the calculation step;
An image generation method comprising: a generation step of combining a plurality of images into a single image according to a relative position and orientation between grid images obtained in the calculation step.
レーザーにより障害物までの方位と距離を計測可能なセンサの計測値からセンサ周囲の地図の画像を生成するコンピュータのプログラムであって、
前記レーザーにより前記障害物までの方位と距離の計測値を取得する取得工程と、
前記取得工程から取得された前記計測値に基づいて前記レーザー距離センサの周囲における障害物の有無を、前記距離センサの分解能で決められたグリッド毎に割り当てられた占有(画像において障害物が占有)、非占有(画像において障害物が非占有)、未知(画像において障害物が占有しているかが未知)の状態によって表したグリッド画像を生成する生成工程と、
前記生成工程でそれぞれ得られた各グリッド画像において、障害物で占有された状態のグリッドを中心として或る範囲を示すウインドウを設け、前記ウインドウ内のグリッドの状態を占有、非占有、未知で表した際の各状態の出現頻度をヒストグラムで表したときに、占有状態のグリッドが多くて障害物の有無が未知な状態のグリッドが少ないウインドウを特徴点として抽出する抽出工程と、
現在の計測により求められたグリッド画像と前回の計測により求められたグリッド画像の2つのグリッド画像間において対応する前記特徴点の比較に際して、前記抽出工程で得られた各グリッド画像の前記特徴点における占有グリッドの数と前記特徴点間の距離を各グリッド画像間で比較し照合することで、各グリッド画像間で一致する前記特徴点の識別を行う識別工程と、
前記識別工程で得られた照合結果に基づきグリッド画像間の前記特徴点が最も良く一致するときの相対位置と姿勢に従って各グリッド画像を共通の座標系に重ね合わせて仮配置し、仮配置された各グリッド画像間で重複する領域を算出する算出工程と、
前記算出工程で得られた前記重複領域に含まれる前記レーザー距離センサの計測値のみを用いてグリッド画像間の相対位置と姿勢を演算する演算工程と、
前記演算工程で得られたグリッド画像間の相対位置と姿勢に従って複数の画像を1枚の画像に合成する生成工程と、を前記コンピュータに実行させる
ことを特徴とする画像生成プログラム。
A computer program that generates an image of a map around a sensor from measurement values of a sensor capable of measuring the direction and distance to the obstacle with a laser,
An acquisition step of acquiring a measured value of the azimuth and distance to the obstacle by the laser;
Occupancy of obstacles around the laser distance sensor based on the measurement value acquired from the acquisition step, and assigned to each grid determined by the resolution of the distance sensor (obstacles are occupied in the image) Generating a grid image represented by unoccupied (unoccupied obstacles in the image), unknown (unknown whether the obstacles are occupied in the image),
In each grid image obtained in the generation step, a window indicating a certain range is provided around the grid occupied by the obstacle, and the state of the grid in the window is expressed as occupied, unoccupied, or unknown. When the appearance frequency of each state is represented by a histogram, an extraction step for extracting as a feature point a window with a large number of occupied grids and a small number of grids with unknown obstacles;
When comparing the corresponding feature points between two grid images of the grid image obtained by the current measurement and the grid image obtained by the previous measurement, in the feature points of each grid image obtained in the extraction step An identification step for identifying the feature points that match between the grid images by comparing and collating the number of occupied grids and the distance between the feature points between the grid images;
Based on the collation result obtained in the identification step, each grid image is temporarily placed on a common coordinate system according to the relative position and orientation when the feature points between the grid images best match, and temporarily placed. A calculation step of calculating an overlapping area between the grid images;
A calculation step of calculating a relative position and orientation between grid images using only the measurement value of the laser distance sensor included in the overlap region obtained in the calculation step;
An image generation program that causes the computer to execute a generation step of combining a plurality of images into a single image according to the relative position and orientation between grid images obtained in the calculation step.
JP2004142336A 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement Expired - Fee Related JP4533659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004142336A JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004142336A JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Publications (2)

Publication Number Publication Date
JP2005326944A JP2005326944A (en) 2005-11-24
JP4533659B2 true JP4533659B2 (en) 2010-09-01

Family

ID=35473274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004142336A Expired - Fee Related JP4533659B2 (en) 2004-05-12 2004-05-12 Apparatus and method for generating map image by laser measurement

Country Status (1)

Country Link
JP (1) JP4533659B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102097722B1 (en) * 2019-03-25 2020-04-06 주식회사 트위니 Apparatus and method for posture estimation of robot using big cell grid map and recording medium storing program for executing the same and computer program stored in recording medium for executing the same

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4375320B2 (en) 2005-10-27 2009-12-02 株式会社日立製作所 Mobile robot
KR100772912B1 (en) * 2006-05-16 2007-11-05 삼성전자주식회사 Robot using absolute azimuth and method for mapping by the robot
KR100843085B1 (en) * 2006-06-20 2008-07-02 삼성전자주식회사 Method of building gridmap in mobile robot and method of cell decomposition using it
KR100791386B1 (en) 2006-08-18 2008-01-07 삼성전자주식회사 Method and system of cell decomposition in mobile robot
ES2322220B1 (en) * 2007-06-22 2010-03-24 Consejo Superior De Investigaciones Cientificas USEFUL DEVICE FOR THE GENERATION OF CONTOUR MAPS AND ITS APPLICATIONS.
US20090062974A1 (en) * 2007-09-03 2009-03-05 Junichi Tamamoto Autonomous Mobile Robot System
KR100881228B1 (en) 2007-09-06 2009-02-05 포항공과대학교 산학협력단 Object detection method using ultrasonic sensor
JP5032953B2 (en) * 2007-11-26 2012-09-26 パナソニック株式会社 Self-position recognition system
KR100917756B1 (en) 2007-12-18 2009-09-15 한국전자통신연구원 Method and apparatus for forming lattice map for robot by use of drawings
JP5018458B2 (en) * 2007-12-25 2012-09-05 トヨタ自動車株式会社 Coordinate correction method, coordinate correction program, and autonomous mobile robot
JP5349804B2 (en) * 2008-01-10 2013-11-20 株式会社日立産機システム Mobile robot system and control method thereof
KR101437916B1 (en) * 2008-01-14 2014-09-15 삼성전자주식회사 Method for drawing a map by ultrasonic sensor and mobile robot using the same
US8351684B2 (en) 2008-02-13 2013-01-08 Caterpillar Inc. Terrain map updating system
KR100949116B1 (en) 2008-02-26 2010-03-23 삼성전자주식회사 Simultaneous localization and map-building method for moving robot
JP5215740B2 (en) 2008-06-09 2013-06-19 株式会社日立製作所 Mobile robot system
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
JP5304128B2 (en) * 2008-09-16 2013-10-02 村田機械株式会社 Environmental map correction device and autonomous mobile device
JP5216690B2 (en) * 2009-06-01 2013-06-19 株式会社日立製作所 Robot management system, robot management terminal, robot management method and program
KR101449218B1 (en) * 2009-11-06 2014-10-08 가부시키가이샤 히타치세이사쿠쇼 Mobile robot system
JP5205366B2 (en) * 2009-12-25 2013-06-05 本田技研工業株式会社 Movable area extraction apparatus, movable area extraction system, movable area extraction method, and program
JP5068840B2 (en) * 2010-03-30 2012-11-07 富士ソフト株式会社 Robot program and information processing apparatus program
JP5206752B2 (en) 2010-08-30 2013-06-12 株式会社デンソー Driving environment recognition device
FR2977023B1 (en) * 2011-06-24 2014-02-21 Univ Angers GENERATION OF CARD DATA
JP2013114329A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
JP5728564B2 (en) * 2013-12-20 2015-06-03 株式会社日立製作所 Robot system and map updating method
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
JP5953393B2 (en) * 2015-03-31 2016-07-20 株式会社日立製作所 Robot system and map updating method
JP6619967B2 (en) * 2015-08-21 2019-12-11 シャープ株式会社 Autonomous mobile device, autonomous mobile system, and environmental map evaluation method
JP6559535B2 (en) 2015-10-22 2019-08-14 株式会社東芝 Obstacle map generation device, method thereof, and program thereof
KR102154510B1 (en) 2016-10-13 2020-09-10 닛산 지도우샤 가부시키가이샤 Parking assistance method and parking assistance device
RU2640311C1 (en) * 2016-12-09 2017-12-27 Российская Федерация, от имени которой выступает Государственная корпорация по атомной энергии "Росатом" Method for searching and detecting sources of gamma-radiation under conditions of nonuniform radioactive contamination
WO2018180175A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body, signal processing device, and computer program
WO2018220787A1 (en) 2017-06-01 2018-12-06 三菱電機株式会社 Map processing device, map processing method and map processing program
CN108508891B (en) * 2018-03-19 2019-08-09 珠海市一微半导体有限公司 A kind of method of robot reorientation
DE102018208277A1 (en) * 2018-05-25 2019-11-28 Robert Bosch Gmbh Training method for a driver assistance method, driver assistance method, control unit and vehicle with the control unit
JP7396618B2 (en) * 2019-01-28 2023-12-12 株式会社データ変換研究所 Mobile position estimation system
JP7344743B2 (en) * 2019-10-09 2023-09-14 日産自動車株式会社 Occupancy map creation method and occupancy map creation device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2001334897A (en) * 2000-05-25 2001-12-04 Daihatsu Motor Co Ltd Parking assisting device and its control method
JP2002342754A (en) * 2001-05-21 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for synthesizing mosaic picture and recording medium having its program recorded thereon
JP2003015739A (en) * 2001-07-02 2003-01-17 Yaskawa Electric Corp External environment map, self-position identifying device and guide controller
JP2003266345A (en) * 2002-03-18 2003-09-24 Sony Corp Path planning device, path planning method, path planning program, and moving robot device
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2003271975A (en) * 2002-03-15 2003-09-26 Sony Corp Method of extracting plane, extractor therefor, program therefor, recording medium therefor, and robot system mounted with plane extractor
JP2003317089A (en) * 2002-04-24 2003-11-07 Dainippon Printing Co Ltd Method and system for image correction
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2005092820A (en) * 2003-09-19 2005-04-07 Sony Corp Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
JP2005205028A (en) * 2004-01-23 2005-08-04 Sharp Corp Self-propelled vacuum cleaner
JP2007525770A (en) * 2004-02-27 2007-09-06 インターグラフ ソフトウェアー テクノロジーズ カンパニー Technology to form a single image from multiple overlapping images

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2001334897A (en) * 2000-05-25 2001-12-04 Daihatsu Motor Co Ltd Parking assisting device and its control method
JP2002342754A (en) * 2001-05-21 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for synthesizing mosaic picture and recording medium having its program recorded thereon
JP2003015739A (en) * 2001-07-02 2003-01-17 Yaskawa Electric Corp External environment map, self-position identifying device and guide controller
JP2003271975A (en) * 2002-03-15 2003-09-26 Sony Corp Method of extracting plane, extractor therefor, program therefor, recording medium therefor, and robot system mounted with plane extractor
JP2003266349A (en) * 2002-03-18 2003-09-24 Sony Corp Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2003266345A (en) * 2002-03-18 2003-09-24 Sony Corp Path planning device, path planning method, path planning program, and moving robot device
JP2003317089A (en) * 2002-04-24 2003-11-07 Dainippon Printing Co Ltd Method and system for image correction
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2005092820A (en) * 2003-09-19 2005-04-07 Sony Corp Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
JP2005205028A (en) * 2004-01-23 2005-08-04 Sharp Corp Self-propelled vacuum cleaner
JP2007525770A (en) * 2004-02-27 2007-09-06 インターグラフ ソフトウェアー テクノロジーズ カンパニー Technology to form a single image from multiple overlapping images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102097722B1 (en) * 2019-03-25 2020-04-06 주식회사 트위니 Apparatus and method for posture estimation of robot using big cell grid map and recording medium storing program for executing the same and computer program stored in recording medium for executing the same
WO2020197126A1 (en) * 2019-03-25 2020-10-01 주식회사 트위니 Method for estimating positioning of moving object by using big cell grid map, recording medium in which program for implementing same is stored, and computer program stored in medium in order to implement same

Also Published As

Publication number Publication date
JP2005326944A (en) 2005-11-24

Similar Documents

Publication Publication Date Title
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
EP2256574B1 (en) Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map generating computer program
US7864302B2 (en) Method for detecting objects with a pivotable sensor device
JP5069439B2 (en) Self-position recognition system
US10675759B2 (en) Interference region setting apparatus for mobile robot
KR20160003776A (en) Posture estimation method and robot
JP2007122304A (en) Mobile robot
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
CN111694358B (en) Method and device for controlling transfer robot, and storage medium
JP2017120551A (en) Autonomous traveling device
Shim et al. A mobile robot localization using external surveillance cameras at indoor
JP5212939B2 (en) Autonomous mobile device
JP2010112836A (en) Self-position identification device and mobile robot provided with same
KR101735325B1 (en) Apparatus for registration of cloud points
JP4793109B2 (en) Object detection method and robot
Oussalah et al. Kalman filter approach for lane extraction and following
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
US20220187428A1 (en) Autonomous mobile aircraft inspection system
JP7451165B2 (en) Traveling position verification system, traveling position measurement system, and traveling position correction system
JP7278637B2 (en) Self-propelled moving device
JP6670712B2 (en) Self-position estimation device, moving object and self-position estimation method
JP2021047516A (en) Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program
Fu et al. Multi-waypoint visual homing in piecewise linear trajectory
US20230237681A1 (en) Method for ascertaining suitable positioning of measuring devices and simplified moving in measuring areas using vis data and reference trajectories background
JP4879595B2 (en) Mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees