JP2008076252A - Own position recognition system - Google Patents

Own position recognition system Download PDF

Info

Publication number
JP2008076252A
JP2008076252A JP2006256263A JP2006256263A JP2008076252A JP 2008076252 A JP2008076252 A JP 2008076252A JP 2006256263 A JP2006256263 A JP 2006256263A JP 2006256263 A JP2006256263 A JP 2006256263A JP 2008076252 A JP2008076252 A JP 2008076252A
Authority
JP
Japan
Prior art keywords
angle
distance data
self
histogram
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006256263A
Other languages
Japanese (ja)
Other versions
JP5069439B2 (en
Inventor
Hideki Yamashita
秀樹 山下
Shigeki Fujiwara
茂喜 藤原
Tomotaro Miyazaki
智太郎 宮崎
Masanori Okano
正紀 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2006256263A priority Critical patent/JP5069439B2/en
Publication of JP2008076252A publication Critical patent/JP2008076252A/en
Application granted granted Critical
Publication of JP5069439B2 publication Critical patent/JP5069439B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform accurate own position recognition with reduced operation loads in a complicated moving environment using wall information for the own position recognition in an own position recognition system. <P>SOLUTION: The system comprises a map information storage means 2, an own position storage means 3, a laser radar 4 which senses an obstacle, and an operation means 5 which operates and processes the obtained obstacle information and map information. The operation means 5 acquires the obstacle information (first distance data) based on the map information to be sensed using the laser radar 4 at a currently recognized position, and actual obstacle information (second distance data) by the laser radar 4, forms first and second angle histograms by determining occurrence frequency of the angle of a line segment connecting data points for each of the distance data, and determines the correction angle in the rotation direction, based on a cross correlation function of the two angle histograms. It also extracts two angles in the first angle histogram, defines two translational axes, and determines the correlation distance in the translational direction. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、自律移動車両等で用いられる自己位置認識システムに関する。   The present invention relates to a self-position recognition system used in an autonomous mobile vehicle or the like.

従来から、車両やロボットなどの自律移動体の開発と実用化が行われている。自律移動体が自律的に移動するには、障害物の検出とその回避、および自己位置の認識が重要である。自己位置の認識によって、事前に地図情報を参照できるので、障害物の検出も容易となる。自己位置の認識には、自己の姿勢(向き)の認識と現在地の位置座標の認識の両方が必要である。このような自己位置の認識には、例えば車両において、駆動輪のモータに取り付けられたエンコーダから求められる車輪の回転数や舵角などの内部データを用いて移動距離や移動方向を決定するいわゆるデッドレコニングの方法が多く用いられる。   Conventionally, autonomous moving bodies such as vehicles and robots have been developed and put into practical use. In order for an autonomous mobile body to move autonomously, it is important to detect an obstacle, avoid it, and recognize its own position. Since the map information can be referred to in advance by recognizing the self position, it is easy to detect an obstacle. The recognition of the self position requires both recognition of the posture (orientation) of the self and recognition of the position coordinates of the current location. For such self-position recognition, for example, in a vehicle, a so-called dead in which a moving distance and a moving direction are determined using internal data such as the rotation speed of a wheel and a steering angle obtained from an encoder attached to a motor of a driving wheel. Many reckoning methods are used.

上述のエンコーダ情報を用いる場合、車輪のスリップ発生等により誤差が累積して大きくなるので、通常、デッドレコニングにマップマッチングによる位置補正が組み合わされる。マップマッチングでは、例えば、入力済の地図情報を記憶した記憶媒体と水平レーザレーダとを備え、地図情報とレーザレーダで取得した障害物位置情報との差分に基づいて、デッドレコニングによって認識した位置を補正する。   When the above-described encoder information is used, errors accumulate and increase due to the occurrence of wheel slip and the like, so that position correction by map matching is usually combined with dead reckoning. In map matching, for example, a storage medium storing the input map information and a horizontal laser radar are provided, and the position recognized by dead reckoning is determined based on the difference between the map information and the obstacle position information acquired by the laser radar. to correct.

レーザレーダは、反射光によって、物体表面までの距離データを取得する。レーザレーダによって取得される障害物位置情報は、測定に係る物体表面の位置情報を含んでおり、移動空間における自己以外の移動する障害物のほか、壁や柱などの環境を構成する物体の位置情報を含んでいる。そして、地図情報には、これらの位置情報と比較可能な情報を含めておく。人が介在するような環境では、予期せぬ障害物が置かれることが多く、入力済の地図情報に載っていない障害物が存在することも多い。   The laser radar acquires distance data to the object surface by reflected light. Obstacle position information acquired by laser radar includes the position information of the object surface related to the measurement. In addition to moving obstacles other than the self in the moving space, the position of the objects that make up the environment such as walls and pillars Contains information. The map information includes information that can be compared with the position information. In an environment where people are present, unexpected obstacles are often placed, and there are often obstacles that are not included in the input map information.

上述のマップマッチングを効率的かつ精度良く行うために、距離データの測定点列が直線となる平面壁などの表面位置を用いることが考えられる。自律移動体が屋内で廊下を走行中に廊下の曲がり角などを通過する場合、互いに直交する壁などが環境情報として存在する。レーザレーダによって広い水平視野範囲を水平にスキャンすると、スキャン平面内に直線状に配列された、直交する測定点列が得られる。このような状況のもとで、ヒストグラムを用いてデータ点列の特徴を効率的に抽出して利用することにより、直線状に配列した点列の方向を検出すると共に、その点列の配置を地図情報における壁の配置とマッチングさせる方法が知られている(例えば、特許文献1参照)。   In order to perform the above-described map matching efficiently and accurately, it is conceivable to use a surface position such as a plane wall where the measurement data of the distance data is a straight line. When an autonomous mobile body passes through a corridor or the like while traveling in a corridor indoors, walls orthogonal to each other exist as environmental information. When a wide horizontal visual field range is scanned horizontally by the laser radar, orthogonal measurement point sequences arranged in a straight line in the scan plane are obtained. Under such circumstances, by efficiently extracting and using the characteristics of the data point sequence using the histogram, the direction of the point sequence arranged in a straight line is detected, and the arrangement of the point sequence is determined. A method of matching with the arrangement of walls in map information is known (for example, see Patent Document 1).

また、上述のヒストグラムを用いたマップマッチングの方法を電動車椅子の操縦補助システムに応用した例が知られている(例えば、特許文献2参照)。
ワイス(Weiss)、プットカマ(Puttkamer)著 「ア マップ ベイスト オン レーザスキャン ウイズアウト ジオメトリック インタプリテーション(A map Based on laserscans without geometric interpretation)」、インテリジェント オートノマス システムズ(Intelligent Autonomous Systems)4,403−407頁、1995年 後藤健志著 「レーザレンジファインダを用いた電動車椅子の操縦補助システム」、奈良先端科学技術大学院大学情報科学研究科情報システム学専攻修士論文、NAIST−IS−MT0051038,2002年
In addition, an example in which the map matching method using the above-described histogram is applied to a steering assist system for an electric wheelchair is known (see, for example, Patent Document 2).
“A map Based on laserscans without geometric interpretation” by Weiss and Puttkamer, Intelligent Autonomous Systems 4, 403-407 1995 Takeshi Goto "Electric wheelchair steering assist system using laser range finder", Nara Institute of Science and Technology, Graduate School of Information Science, Master's thesis, NAIST-IS-MT0051038, 2002

しかしながら、上述した特許文献1,2に示されるようなマップマッチングにおいては、壁が直交することが前提とされており、直交しない壁の情報を活用する点について述べられていない。自律移動体が移動する実際の環境においては、壁が直交しない環境も数多くあるので、このような直交しない壁情報をマップマッチングに有効に用いて自己位置認識における位置補正を行えるようにすることが、複雑な移動環境における精度良い自己位置認識にとって重要である。   However, in the map matching as shown in Patent Documents 1 and 2 described above, it is assumed that the walls are orthogonal, and there is no mention of utilizing the information of walls that are not orthogonal. In an actual environment where an autonomous mobile body moves, there are many environments where the walls are not orthogonal, so that such non-orthogonal wall information can be used effectively for map matching to enable position correction in self-position recognition. This is important for accurate self-localization in complex mobile environments.

本発明は、上記課題を解消するものであって、直交しない壁情報を自己位置認識に用いて位置補正を行うことができ、複雑な移動環境における演算負荷を低減した精度良い自己位置認識を実現できる自己位置認識システムを提供することを目的とする。   The present invention solves the above-described problem, and can perform position correction using non-orthogonal wall information for self-position recognition, and realizes accurate self-position recognition with reduced calculation load in a complicated moving environment. An object of the present invention is to provide a self-position recognition system that can be used.

上記課題を達成するために、請求項1の発明は、予め入力された地図情報を記憶する地図情報記憶手段と、前記地図情報上で認識した自律移動体の自己の位置を記憶する自己位置記憶手段と、自律移動体の自己の周辺に存在する障害物をセンシングするレーザレーダと、前記レーザレーダによって得られた障害物情報と前記自己位置記憶手段が現在記憶している自己位置における周辺の前記地図情報記憶手段に記憶された地図情報とを演算処理して自己位置を補正する演算手段と、を備えた自己位置認識システムにおいて、前記演算手段は、現在位置として認識している位置で前記レーザレーダを用いてセンシングされるはずの前記地図情報に基づく障害物情報(第1の距離データという)と、前記レーザレーダによってセンシングされた実際の障害物情報(第2の距離データという)とを取得し、前記第1の距離データおよび第2の距離データのそれぞれについて、データ点を結ぶ線分の角度を求めると共に、得られた角度の出現頻度を求めて第1の角度ヒストグラムおよび第2の角度ヒストグラムを形成し、前記第1および第2の角度ヒストグラムの相互相関関数を算出すると共にその結果に基づいて現在認識している自律移動体の回転方向を補正する補正角度を求めて前記第1の距離データを前記補正角度だけ回転した新たな第1の距離データを取得し、前記第1の角度ヒストグラムまたは第2の角度ヒストグラムのいずれかにおいて出現頻度の高い2つの角度(これらを第1の角度と第2の角度という)を抽出し、前記新たな第1の距離データを、そのデータが前記第2の距離データに重なるように、第1の角度の方向に直交する方向の軸(第1の並進軸という)と第2の角度の方向に直交する方向の軸(第2の並進軸という)とに沿って並進移動させることにより現在認識している自律移動体の前記第1および第2の並進軸方向の位置を補正するものである。   In order to achieve the above object, the invention of claim 1 includes a map information storage means for storing pre-input map information and a self-position memory for storing the position of the autonomous mobile body recognized on the map information. Means, a laser radar for sensing an obstacle existing around the autonomous mobile body, the obstacle information obtained by the laser radar, and the surroundings at the self position currently stored in the self position storage means A self-position recognition system comprising: a calculation means for correcting the self-position by calculating and processing the map information stored in the map information storage means; wherein the calculation means is the laser at a position recognized as a current position. Obstacle information (referred to as first distance data) based on the map information that should be sensed using a radar, and actual information sensed by the laser radar. Obstacle information (referred to as second distance data) is obtained, and for each of the first distance data and the second distance data, the angle of the line segment connecting the data points is obtained, and the obtained angle Autonomous mobile object that is currently recognized based on the result of calculating the cross-correlation function of the first and second angle histograms by calculating the appearance frequency and forming the first angle histogram and the second angle histogram To obtain a new angle data obtained by rotating the first distance data by the correction angle, and obtaining either the first angle histogram or the second angle histogram. In FIG. 2, two angles having high appearance frequency (these are called the first angle and the second angle) are extracted, and the new first distance data is extracted from the second data. An axis in a direction orthogonal to the direction of the first angle (referred to as the first translation axis) and an axis in a direction orthogonal to the direction of the second angle (referred to as the second translation axis) so as to overlap the separation data The position of the autonomous mobile body currently recognized by the translation movement along the first and second translation axis directions is corrected.

請求項2の発明は、請求項1記載の自己位置認識システムにおいて、前記演算手段は、前記新たな第1の距離データおよび前記第2の距離データのそれぞれについて、前記第1の並進軸にデータ点を投影して第1の並進軸に対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成すると共に、前記第2の並進軸にデータ点を投影して第2の並進軸に対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成し、前記第1の並進軸に対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第1の並進軸方向の位置を補正する距離データを求めると共に、前記第2の並進軸に対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第2の並進軸方向の位置を補正する距離データを求めることにより自己位置を認識するものである。   According to a second aspect of the present invention, in the self-position recognition system according to the first aspect, the calculation means stores data on the first translation axis for each of the new first distance data and the second distance data. Projecting points to form a first position histogram and a second position histogram consisting of the frequency of appearance of data points with respect to the first translation axis, and projecting data points onto the second translation axis Forming a first position histogram and a second position histogram composed of the frequency of appearance of data points with respect to the translation axis, calculating a cross-correlation function of the first and second position histograms with respect to the first translation axis, And obtaining distance data for correcting the position of the autonomous mobile body currently recognized based on the first translation axis direction, and the first and second positions relative to the second translation axis It is to recognize its own position by obtaining the distance data for correcting the position of the second translational axis of the autonomous moving body that are currently known on the basis of the calculated cross-correlation function of the histogram results.

請求項3の発明は、請求項1または請求項2記載の自己位置認識システムにおいて、前記第1または第2の角度の方向が、自己位置認識に用いる座標系の座標軸の1つと平行になるように、前記新たな第1の距離データおよび前記第2の距離データの両方を回転し、これらの回転した距離データを用いて前記第1および第2の並進軸方向の補正距離を求めるものである。   According to a third aspect of the present invention, in the self-position recognition system according to the first or second aspect, the direction of the first or second angle is parallel to one of coordinate axes of a coordinate system used for self-position recognition. In addition, both the new first distance data and the second distance data are rotated, and the corrected distances in the first and second translational axis directions are obtained using the rotated distance data. .

請求項4の発明は、請求項1乃至請求項3のいずれか一項記載の自己位置認識システムにおいて、前記第1および第2の角度は、前記第1の角度ヒストグラムから抽出するものである。   According to a fourth aspect of the present invention, in the self-position recognition system according to any one of the first to third aspects, the first and second angles are extracted from the first angle histogram.

請求項5の発明は、請求項1乃至請求項4のいずれか一項記載の自己位置認識システムにおいて、前記第1および第2の角度の差が90度に近いときは、前記2つの角度のいずれか一方の角度を他方の角度の方向に直交する方向の角度とするものである。   According to a fifth aspect of the present invention, in the self-position recognition system according to any one of the first to fourth aspects, when the difference between the first and second angles is close to 90 degrees, the two angles One of the angles is an angle in a direction orthogonal to the direction of the other angle.

請求項1の発明によれば、角度ヒストグラムから出現頻度の高い2つの角度を抽出し、それらの角度の方向に直交する方向の軸に沿って距離データを並進移動させることにより現在認識している自律移動体の各並進軸方向の位置を補正するので、直交する壁の情報がない複雑な移動環境においても、直交しないが向きの異なる2つの壁の情報を含む障害物情報(距離データ)を用いて精度良く自己位置を認識することが可能である。   According to the first aspect of the present invention, two angles having a high frequency of appearance are extracted from the angle histogram, and the distance data is translated along the axis in the direction orthogonal to the direction of these angles, and is currently recognized. Since the position of each autonomous moving body in the direction of each translation axis is corrected, obstacle information (distance data) including information on two walls that are not orthogonal but have different orientations can be obtained even in a complicated moving environment where there is no information on orthogonal walls. It is possible to recognize the self position with high accuracy.

請求項2の発明によれば、2つの壁が直交するという条件を前提とすることなく、一般的な異なる方向を向いた2つの壁の情報を含む距離データに対して、ヒストグラムと相互相関関数を用いる数値的処理を施すことにより、精度良く自己位置認識ができる。   According to the second aspect of the present invention, a histogram and a cross-correlation function are obtained for distance data including information of two walls facing in different general directions without assuming that the two walls are orthogonal to each other. By performing a numerical process using, self-position recognition can be performed with high accuracy.

請求項3の発明によれば、1つの並進軸の方向が自己位置認識に用いている座標系の座標軸の方向に一致するので、位置ヒストグラム形成のための演算が容易となり、自己位置認識のための演算負荷を低減できる。   According to the invention of claim 3, since the direction of one translation axis coincides with the direction of the coordinate axis of the coordinate system used for self-position recognition, calculation for forming a position histogram becomes easy, and for self-position recognition. The calculation load can be reduced.

請求項4の発明によれば、第1の角度ヒストグラムが、マップマッチングにとってノイズデータとなる移動する障害物などを含まない地図情報に基づくので、地図情報にない2方向でマップマッチングをしてしまうという誤認識の発生を回避でき、複雑な移動環境においても精度良い自己位置認識ができる。   According to the invention of claim 4, since the first angle histogram is based on map information that does not include a moving obstacle that becomes noise data for map matching, map matching is performed in two directions not included in the map information. Can be avoided, and accurate self-position recognition can be performed even in a complicated moving environment.

請求項5の発明によれば、通常、互いに90度に近い角度関係で異なる方向を向いている2つの壁は、互いに直交して配置されていると考えられるので、このような場合に、現実に即して、直交する2方向を並進方向とすることができ、角度決定の誤差を排除して精度良い自己位置認識ができる。   According to the fifth aspect of the present invention, the two walls facing different directions with an angular relationship close to 90 degrees are considered to be arranged orthogonal to each other. Accordingly, two orthogonal directions can be used as translation directions, and errors in determining the angle can be eliminated, and self-position recognition with high accuracy can be performed.

以下、本発明の一実施形態に係る自己位置認識システムについて、図面を参照して説明する。   Hereinafter, a self-position recognition system according to an embodiment of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は自己位置認識システムのブロック構成を示し、図2は同システムにおける自己位置認識処理のフローチャートを示し、図3乃至図7は各処理の内容を示す。まず、図1、図2によって自己位置認識システム1の概要を説明した後、詳細説明する。
(First embodiment)
FIG. 1 shows a block configuration of the self-position recognition system, FIG. 2 shows a flowchart of self-position recognition processing in the system, and FIGS. 3 to 7 show the contents of each process. First, the outline of the self-position recognition system 1 will be described with reference to FIGS.

自己位置認識システム1は、図1に示すように、予め入力された地図情報を記憶する地図情報記憶手段2と、地図情報上で認識した自律移動体の自己の位置を記憶する自己位置記憶手段3と、自律移動体の自己の周辺に存在する障害物をセンシングするレーザレーダ4と、レーザレーダ4によって得られた障害物情報と自己位置記憶手段3が現在記憶している自己位置における周辺の地図情報記憶手段2に記憶された地図情報とを演算処理して自己位置を認識する演算手段5とを備えている。   As shown in FIG. 1, the self-position recognition system 1 includes a map information storage means 2 for storing pre-input map information and a self-position storage means for storing the position of the autonomous mobile body recognized on the map information. 3, a laser radar 4 that senses obstacles around the autonomous mobile body, obstacle information obtained by the laser radar 4, and information on the surroundings at the self-location stored in the self-position storage means 3. Computation means 5 for recognizing its own position by computing the map information stored in the map information storage means 2 is provided.

演算手段5は、図2に示すように、現在位置として認識して自己位置記憶手段3に記憶している位置でレーザレーダ4を用いてセンシングされるはずの障害物情報(第1の距離データAという)を地図情報記憶手段2に記憶した地図情報に基づいて取得すると共に、レーザレーダ4によってセンシングした結果に基づいて実際の障害物情報(第2の距離データPという)を取得する(S1、図3参照)。   As shown in FIG. 2, the calculation means 5 recognizes obstacle information (first distance data) that should be sensed using the laser radar 4 at the position recognized as the current position and stored in the self-position storage means 3. A) is acquired based on the map information stored in the map information storage means 2, and actual obstacle information (referred to as second distance data P) is acquired based on the result sensed by the laser radar 4 (S1). FIG. 3).

上記に続いて演算手段5は、第1の距離データAおよび第2の距離データPのそれぞれについて、データ点を結ぶ線分の角度を求めると共に、得られた角度の出現頻度を求めて第1の角度ヒストグラムおよび第2の角度ヒストグラムを形成する(S2、図4参照)。   Subsequently to the above, the computing means 5 obtains the angle of the line segment connecting the data points for each of the first distance data A and the second distance data P, and obtains the appearance frequency of the obtained angle to obtain the first frequency. The second angle histogram and the second angle histogram are formed (S2, see FIG. 4).

上記に続いて演算手段5は、第1および第2の角度ヒストグラムの相互相関関数を算出すると共にその結果に基づいて現在認識している自律移動体の回転方向を補正する補正角度Δθを求め(S3)、さらに、第1の距離データAを補正角度Δθだけ回転した新たな第1の距離データBを取得する(S4、図5参照)。   Subsequent to the above, the calculation means 5 calculates the cross-correlation function of the first and second angle histograms and obtains a correction angle Δθ for correcting the rotational direction of the autonomous mobile body currently recognized based on the result ( S3) Further, new first distance data B obtained by rotating the first distance data A by the correction angle Δθ is acquired (S4, see FIG. 5).

上記に続いて演算手段5は、第1の角度ヒストグラムまたは第2の角度ヒストグラムのいずれかにおいて出現頻度の高い第1の角度と第2の角度の2つの角度を抽出する(S5)。この場合、通常は、前記第1の角度ヒストグラムから第1および第2の角度を抽出する。これは、第1の距離データA、従って第1の角度ヒストグラムが、マップマッチングにとってノイズとなる移動する障害物などを含まない地図情報に基づくことによる。これにより、地図情報にない2方向でマップマッチングをしてしまうという誤認識の発生を回避でき、従って、複雑な移動環境においても精度良い自己位置認識ができる。   Subsequent to the above, the calculating means 5 extracts two angles of the first angle and the second angle, which appear frequently in either the first angle histogram or the second angle histogram (S5). In this case, normally, the first and second angles are extracted from the first angle histogram. This is because the first distance data A, and hence the first angle histogram, is based on map information that does not include moving obstacles that are noise for map matching. As a result, it is possible to avoid the occurrence of erroneous recognition that map matching is performed in two directions not included in the map information. Therefore, accurate self-position recognition can be performed even in a complicated moving environment.

なお、上述のステップS5は、ステップS4の後に行うように説明したが、この2つのステップは、互いに処理順序に関する制約はない。そこで、処理の順番を入れ替えて、ステップS5の処理を行った後に、ステップS4の処理を行うようにしてもよい。   Note that although the above-described step S5 has been described as being performed after step S4, these two steps have no restriction on the processing order. Therefore, the processing order may be changed and the processing in step S4 may be performed after the processing in step S5.

上記に続いて演算手段5は、新たな第1の距離データBおよび第2の距離データPのそれぞれについて、第1の角度の方向に直交する方向の軸(第1の並進軸uという)にデータ点を投影して第1の並進軸uに対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成すると共に、第2の角度の方向に直交する方向の軸(第2の並進軸vという)にデータ点を投影して第2の並進軸vに対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成する(S6、図6参照)。   Subsequent to the above, the calculation means 5 sets each of the new first distance data B and second distance data P to an axis (referred to as a first translation axis u) in a direction orthogonal to the direction of the first angle. Projecting the data points to form a first position histogram and a second position histogram consisting of the frequency of appearance of the data points with respect to the first translation axis u, and an axis in the direction orthogonal to the direction of the second angle (first The data points are projected onto the second translation axis v) to form a first position histogram and a second position histogram that are composed of the frequency of appearance of the data points with respect to the second translation axis v (see S6, FIG. 6).

上記に続いて演算手段5は、第1の並進軸uに対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第1の並進軸方向の位置を補正する第1の補正距離Δuを求めると共に(S7)、第2の並進軸vに対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第2の並進軸方向の位置を補正する第2の補正距離Δvを求める(S8)。   Subsequent to the above, the calculation means 5 calculates the cross-correlation function of the first and second position histograms with respect to the first translation axis u, and based on the result, the first translation axis of the autonomous mobile body currently recognized. The first correction distance Δu for correcting the position in the direction is obtained (S7), and the cross-correlation function of the first and second position histograms with respect to the second translation axis v is calculated and is currently recognized based on the result. A second correction distance Δv for correcting the position of the autonomous moving body in the second translational axis direction is obtained (S8).

上記により、自己位置認識システム1の演算手段5は、ヒストグラムを用いるマップマッチングによって得られた補正角度Δθ、第1の補正距離Δu、および第2の補正距離Δvに基づいて、現在認識している自律移動体の回転方向すなわち向き(または姿勢)と現在位置の座標とを補正でき、従って、自己位置認識ができる。向きの補正は補正角度Δθによって行われ、位置座標の補正は、図5、図6におけるΔx,Δyを、Δu,Δvから求めることによって行われる(図7参照、後述)。   As described above, the calculation means 5 of the self-position recognition system 1 currently recognizes based on the correction angle Δθ, the first correction distance Δu, and the second correction distance Δv obtained by map matching using a histogram. The rotation direction, that is, the orientation (or orientation) of the autonomous mobile body and the coordinates of the current position can be corrected, and therefore the self position can be recognized. The direction is corrected by the correction angle Δθ, and the position coordinates are corrected by obtaining Δx and Δy in FIGS. 5 and 6 from Δu and Δv (see FIG. 7 and described later).

以下、詳細説明する。図3は、自己位置認識システム1で処理される第1の距離データA、第2の距離データP、及びレーザレーダ4の配置例を示す。前提条件を述べる。レーザレーダ4は、自律移動車両などの自律移動体に備えられて移動する。自律移動体が稼働する2次元領域における位置を定義する座標系として、グローバル座標系が定義されており、地図情報は、そのグローバル座標系に基づいて記述される。通常、自律移動体は複数のレーザレーダを備えるが、ここでは、レーザレーダ4そのものが自律移動体であり、レーザレーダ4の自己位置認識が自律移動体の自己位置認識であるとする。レーザレーダ4には、その進行方向前方にy軸を有し、右方向にx軸を有して、レーザレーダ4と共に移動するxy座標系(ローカル座標系)が定義されている。グローバル座標系に対するxy座標系の向きと位置を確定することが、すなわち自己位置認識である。   Details will be described below. FIG. 3 shows an arrangement example of the first distance data A, the second distance data P, and the laser radar 4 processed by the self-position recognition system 1. State the prerequisites. The laser radar 4 is provided in an autonomous mobile body such as an autonomous mobile vehicle and moves. A global coordinate system is defined as a coordinate system that defines a position in a two-dimensional region where an autonomous mobile body operates, and map information is described based on the global coordinate system. Usually, the autonomous mobile body includes a plurality of laser radars, but here, the laser radar 4 itself is an autonomous mobile body, and the self-position recognition of the laser radar 4 is self-position recognition of the autonomous mobile body. The laser radar 4 has an xy coordinate system (local coordinate system) that has a y-axis in front of the traveling direction and an x-axis to the right and moves with the laser radar 4. Determining the orientation and position of the xy coordinate system relative to the global coordinate system is self-position recognition.

レーザレーダ4は、前方の水平面内における視野範囲を一定角度、例えば、3度毎に、レーザビームでスキャンして、所定距離範囲内における物体表面位置の距離データを取得する。演算手段5が現在位置として認識している位置が、図3に示すレーザレーダ4の位置であるとされ、かつ、この位置において、レーザレーダ4を用いてセンシングされるはずの、いわば仮想の測定点が、データ点a1〜a12(第1の距離データA)であるとされいる。これらのデータ点a1〜a12は、2つの壁w1,w2を有する地図情報記憶手段2に記憶された障害物上の点である。xy座標系において、角度をx軸の方向からy軸方向に測るものとする。壁w1は角度α1の方向(矢印sの方向)にあり、壁w2は角度α2の方向(矢印tの方向)にある。   The laser radar 4 scans a visual field range in a front horizontal plane with a laser beam at a certain angle, for example, every 3 degrees, and acquires distance data of an object surface position within a predetermined distance range. The position recognized by the computing means 5 as the current position is assumed to be the position of the laser radar 4 shown in FIG. 3, and at this position, a virtual measurement that should be sensed using the laser radar 4 is performed. It is assumed that the points are data points a1 to a12 (first distance data A). These data points a1 to a12 are points on the obstacle stored in the map information storage means 2 having two walls w1 and w2. In the xy coordinate system, the angle is measured from the x-axis direction to the y-axis direction. The wall w1 is in the direction of angle α1 (the direction of arrow s), and the wall w2 is in the direction of angle α2 (the direction of arrow t).

また、図3には、レーザレーダ4によって実際に測定された2つの壁w1,w2を有する障害物上の測定点が、データ点p1〜p11(第2の距離データP)として示されている。xy座標系において、実測された壁w1は角度φ1の方向、壁w2は角度φ2の方向にある。   In FIG. 3, the measurement points on the obstacle having the two walls w1 and w2 actually measured by the laser radar 4 are shown as data points p1 to p11 (second distance data P). . In the xy coordinate system, the measured wall w1 is in the direction of the angle φ1, and the wall w2 is in the direction of the angle φ2.

図3に示す状況において、確認前の想定した自己位置に基づいた距離データである第1の距離データAと実測データである第2の距離データPの位置が異なっているので、現在の自己位置認識が間違っていることになる。そこで、第1の距離データAを回転し、さらに並進移動して第2の距離データPに重ねる操作(すなわちマップマッチング)により、正しい自己位置認識が行われる。   In the situation shown in FIG. 3, the position of the first distance data A, which is distance data based on the assumed self-position before confirmation, and the position of the second distance data P, which is actual measurement data, are different. Recognition is wrong. Therefore, correct self-position recognition is performed by an operation of rotating the first distance data A, further moving it in translation, and overlaying it on the second distance data P (that is, map matching).

また、図3において、レーザレーダ40の配置は、実測による第2の距離データPに対するレーザレーダ4の位置に対応させて、第1の距離データAに対するレーザレーダの位置に示したものである。従って、レーザレーダ4とレーザレーダ40の向きと位置の違い(Δθ,Δx1,Δy1)が、自己位置認識のずれを表している。このΔθ,Δx1,Δy1、またはその相当量(Δx,Δy)などを求める処理が自己位置認識の処理である。   In FIG. 3, the arrangement of the laser radar 40 is shown at the position of the laser radar with respect to the first distance data A in correspondence with the position of the laser radar 4 with respect to the second distance data P measured. Therefore, the difference (Δθ, Δx1, Δy1) between the directions and positions of the laser radar 4 and the laser radar 40 represents a shift in self-position recognition. The processing for obtaining Δθ, Δx1, Δy1, or its equivalent amount (Δx, Δy) is self-position recognition processing.

次に、角度ヒストグラムの形成と補正角度の算出について説明する。図3において、壁w1,w2上の実測によるデータ点a1〜a12は、壁の平面性と距離測定の誤差の支配のもとで略直線状に並んでいる。地図情報に基づくデータ点p1〜p11は、障害物のモデル化の程度に従って、前記同様に略直線状に並んでいる。そこで、隣接するデータ点間の線分の傾き角度を、例えば、データ点a1,a2間の線分は、傾き角度α1という具合に求めて、傾き角度の出現頻度F、すなわち度数を求める。すると、第1の距離データAについては、図4(a)に示す第1の角度ヒストグラムが得られ、また、第2の距離データPについては、図4(b)に示す第2の角度ヒストグラムが得られる。   Next, formation of an angle histogram and calculation of a correction angle will be described. In FIG. 3, the measured data points a1 to a12 on the walls w1 and w2 are arranged in a substantially straight line under the control of the wall flatness and the distance measurement error. The data points p1 to p11 based on the map information are arranged in a substantially straight line as described above in accordance with the degree of obstacle modeling. Therefore, the inclination angle of the line segment between adjacent data points, for example, the line segment between the data points a1 and a2, is obtained as the inclination angle α1, and the appearance frequency F of the inclination angle, that is, the frequency is obtained. Then, a first angle histogram shown in FIG. 4A is obtained for the first distance data A, and a second angle histogram shown in FIG. 4B is obtained for the second distance data P. Is obtained.

第1及び第2の角度ヒストグラムにおいて、壁w1の方向に対応して、角度φ1,α1に度数のピークが現れ、壁w2の方向に対応して、角度φ2,α2に度数のピークが現れる。ところで、第1および第2の距離データA,Pにおいて、それぞれのデータを構成するデータ点間の相互配置は全体の回転や並進移動に対する不変量(保存量)である。また、第1の距離データAが実測データであり、第2の距離データPがモデルデータであるという違いはあるが、同じ障害物に対するデータである。これらの点を反映して、第1および第2のヒストグラムにおける各ピーク間の配置は、両ヒストグラム間の不変量と成っている。すなわち、両ヒストグラムを角度方向にずらして互いに重ね合わすことができる。ヒストグラムを角度方向にずらすことは距離データを回転することに対応し、互いに重ね合わすことは2つの距離データに含まれる直線状のデータ点列を互いに平行な状態にすることに対応する。   In the first and second angle histograms, frequency peaks appear at angles φ1 and α1 corresponding to the direction of the wall w1, and frequency peaks appear at angles φ2 and α2 corresponding to the direction of the wall w2. By the way, in the first and second distance data A and P, the mutual arrangement between the data points constituting each data is an invariant (conservation amount) with respect to the entire rotation and translation. Moreover, although there is a difference that the first distance data A is actually measured data and the second distance data P is model data, it is data for the same obstacle. Reflecting these points, the arrangement between the peaks in the first and second histograms is an invariant between the two histograms. That is, both histograms can be superimposed on each other by shifting in the angular direction. Shifting the histogram in the angle direction corresponds to rotating the distance data, and superimposing each other corresponds to making the linear data point sequences included in the two distance data parallel to each other.

上述のことから、ヒストグラムを重ね合わせるために必要な移動角度が、自己位置認識のための補正角度そのものであることが分かる。なお、実際の自律移動体の稼働環境では、傾きの異なる複数の平面からなる壁や、曲面を有する壁や、移動障害物などが存在するので、図4(b)に示す第2のヒストグラムの波形はノイズを含んだ形状になる。また、図4(a)に示す第1のヒストグラムの波形も、通常、なにがしかのノイズを含む。このような2つの波形を最適重ね合わせ状態とする角度の導出は、いわゆる相互相関関数を用いて数値的に行われる。   From the above, it can be seen that the movement angle necessary for overlaying the histograms is the correction angle itself for self-position recognition. In the actual operating environment of an autonomous mobile body, there are walls composed of a plurality of planes with different inclinations, walls with curved surfaces, moving obstacles, etc., so the second histogram shown in FIG. The waveform has a shape that includes noise. In addition, the waveform of the first histogram shown in FIG. 4A also usually includes some noise. The derivation of the angle at which these two waveforms are in the optimum superimposed state is numerically performed using a so-called cross-correlation function.

角度を表す変数をiとし、第1および第2のヒストグラムをh1(i),h2(i)とすると、相互相関関数はk(j)は、
k(j)=Σh1(i)h2(i+j)、
と表される。ここで、Σは、角度変数iについて和を求める記号である。この相互相関関数k(j)のピーク値(通常最大値、以下同様)を与える角度変数jが、補正角度Δθである。なお、図3、図4(b)におけるΔθ,Δθ1,Δθ2は、一般には誤差を含んでいるので互いに等しいとは限らず、Δθ≒Δθ1≒Δθ2である。
When the variable representing the angle is i and the first and second histograms are h1 (i) and h2 (i), the cross-correlation function is k (j)
k (j) = Σh1 (i) h2 (i + j),
It is expressed. Here, Σ is a symbol for calculating the sum for the angle variable i. The angle variable j giving the peak value (usually the maximum value, the same applies hereinafter) of the cross-correlation function k (j) is the correction angle Δθ. Note that Δθ, Δθ1, and Δθ2 in FIGS. 3 and 4B generally include errors and are not necessarily equal to each other, and Δθ≈Δθ1≈Δθ2.

図5は、第1の距離データAを、レーザレーダ4の位置を回転中心として上述の相互相関関数を算出して求めた補正角度Δθだけ回転し、これにより、回転補正して得られた新たな第1の距離データBを示す。この図において、壁w1に対応するデータ点b1〜b4とデータ点p1〜p7とは、互いに距離Δuを隔てて平行に並んでおり、壁w2に対応するデータ点b5〜b12とデータ点p8〜p11とは、互いに距離Δvを隔てて平行に並んでいる。   In FIG. 5, the first distance data A is rotated by the correction angle Δθ obtained by calculating the above-described cross-correlation function with the position of the laser radar 4 as the rotation center. First distance data B is shown. In this figure, the data points b1 to b4 and the data points p1 to p7 corresponding to the wall w1 are arranged in parallel at a distance Δu, and the data points b5 to b12 and the data points p8 to p8 corresponding to the wall w2 are arranged. p11 is arranged in parallel with a distance Δv from each other.

また、補正角度Δθの回転によってレーザレーダ40がレーザレーダ41の位置に移動する。このレーザレーダ4とレーザレーダ41のxy方向の位置ずれが、第1および第2の補正距離Δx,Δyであり、図5の状態における自己位置認識のずれである。この第1および第2の補正距離Δx,Δyを求めるために、上述の補正距離Δu,Δvを求める。   Further, the laser radar 40 moves to the position of the laser radar 41 by the rotation of the correction angle Δθ. The positional deviations in the xy direction between the laser radar 4 and the laser radar 41 are the first and second correction distances Δx and Δy, which are the self-position recognition deviations in the state of FIG. In order to obtain the first and second correction distances Δx and Δy, the above-described correction distances Δu and Δv are obtained.

補正距離Δu,Δvを求めるため、まず、前述の図4(a)に示す第1のヒストグラムから、出現頻度の高い第1の角度α1と第2の角度α2の2つの角度を抽出する。本例では、簡略化された例が示されており、ピークは2つしかないが、一般に2以上存在する可能性がある。また、第1の角度ヒストグラムを用いるのは、第1のヒストグラムが、マップマッチングにとってノイズとなる移動する障害物などを含まない地図情報に基づくので、誤認識の発生を回避でき、複雑な移動環境においても精度良い自己位置認識ができるからである。   In order to obtain the correction distances Δu and Δv, first, two angles of the first angle α1 and the second angle α2 having a high appearance frequency are extracted from the first histogram shown in FIG. In this example, a simplified example is shown and there are only two peaks, but in general there may be more than one. In addition, the first angle histogram is used because the first histogram is based on map information that does not include a moving obstacle or the like that causes noise for map matching. This is because accurate self-position recognition can be performed.

上述の第1および第2の角度α1,α2の差が90度に近いときは、2つの角度のいずれか一方の角度を他方の角度の方向に直交する方向の角度とする。これは、通常、互いに90度に近い角度関係で異なる方向を向いている2つの壁は、互いに直交して配置されていると考えられることによる。この場合に、現実に即して、互いに直交する2方向を並進方向とすることにより、角度決定の誤差を排除して精度良い自己位置認識ができる。   When the difference between the first angle α1 and the second angle α2 is close to 90 degrees, one of the two angles is set to an angle perpendicular to the direction of the other angle. This is because it is considered that two walls facing different directions with an angular relationship close to 90 degrees are usually arranged orthogonal to each other. In this case, in accordance with reality, by making two directions orthogonal to each other as translation directions, errors in determining the angle can be eliminated and accurate self-position recognition can be performed.

この第1および第2の角度α1,α2は、第1の距離データAを補正角度Δθだけ回転して得られた新たな第1の距離データBにおいては、図6に示すように、それぞれ、β1,β2となる。ここで、β1=α1+Δθ、β2=α2+Δθである。これらの角度α1,α2従って、β1,β2は、上述の距離Δu,Δvを求めるために用いられる。すなわち、この2角度によって、図6に示すように、第1の角度β1の方向(矢印sの方向)に直交する方向の軸(第1の並進軸u)と第2の角度β2の方向(矢印tの方向)に直交する方向の軸(第2の並進軸v)が決定される。第1の距離データBは、これらの並進軸u,vに沿って、第2の距離データPに重なるように平行移動(並進移動)され、その移動距離により、現在認識している自律移動体の各並進軸方向の位置を補正する第1および第2の補正距離Δu,Δvが求められる。   The first and second angles α1 and α2 are the new first distance data B obtained by rotating the first distance data A by the correction angle Δθ, respectively, as shown in FIG. β1 and β2. Here, β1 = α1 + Δθ and β2 = α2 + Δθ. These angles α1, α2 and therefore β1, β2 are used to determine the above-mentioned distances Δu, Δv. That is, with these two angles, as shown in FIG. 6, the axis (first translation axis u) in the direction orthogonal to the direction of the first angle β1 (the direction of the arrow s) and the direction of the second angle β2 ( An axis (second translation axis v) in a direction orthogonal to the direction of arrow t) is determined. The first distance data B is translated (translated) so as to overlap the second distance data P along these translational axes u and v, and the autonomous mobile body currently recognized by the movement distance. First and second correction distances Δu and Δv for correcting the positions in the respective translational axis directions are obtained.

上述の第1および第2の補正距離Δu,Δvは、補正角度Δθを求めた処理と同様に、ヒストグラムと相互相関関数を用いて求められる。図6に示すように、第1の距離データBおよび第2の距離データPのそれぞれについて、第1の並進軸uにデータ点を投影して第1の並進軸uに対する、データ点b1〜b12の出現頻度G1から成る第1の位置ヒストグラム、およびデータ点p1〜p11の出現頻度G2から成る第2の位置ヒストグラムを形成する。   The first and second correction distances Δu and Δv described above are obtained using a histogram and a cross-correlation function in the same manner as the processing for obtaining the correction angle Δθ. As shown in FIG. 6, for each of the first distance data B and the second distance data P, data points b1 to b12 with respect to the first translation axis u are projected by projecting data points on the first translation axis u. The first position histogram composed of the appearance frequencies G1 and the second position histogram composed of the appearance frequencies G2 of the data points p1 to p11 are formed.

同様に、第2の並進軸vにデータ点を投影して第2の並進軸vに対するデータ点b1〜b12の出現頻度G1から成る第1の位置ヒストグラム、およびデータ点p1〜p11の出現頻度G2から成る第2の位置ヒストグラムを形成する。   Similarly, a first position histogram composed of the appearance frequencies G1 of the data points b1 to b12 with respect to the second translation axis v by projecting the data points on the second translation axis v, and the appearance frequencies G2 of the data points p1 to p11. To form a second position histogram.

第1の並進軸uに対する第1および第2の位置ヒストグラムの相互相関関数を算出し、相互相関関数のピーク値を与える位置変数から、現在認識している自律移動体の第1の並進軸u方向の位置を補正するための第1の補正距離Δuを求める。また、第2の並進軸vに対する第1および第2の位置ヒストグラムの相互相関関数を算出し、相互相関関数のピーク値を与える位置変数から、現在認識している自律移動体の第2の並進軸v方向の位置を補正するための第2の補正距離Δvを求める。   The first translation axis u of the autonomous mobile body currently recognized is calculated from the position variable that calculates the cross-correlation function of the first and second position histograms with respect to the first translation axis u and gives the peak value of the cross-correlation function. A first correction distance Δu for correcting the position in the direction is obtained. Further, the second translation of the autonomous mobile body currently recognized is calculated from the position variable that calculates the cross-correlation function of the first and second position histograms with respect to the second translation axis v and gives the peak value of the cross-correlation function. A second correction distance Δv for correcting the position in the axis v direction is obtained.

次に、図7を参照して、上述の補正距離Δu,Δv,Δx,Δyの相互関係を求める。図7において、直線bdは補助線である。角度δは、2つの壁w1,w2、従ってこれらの壁に沿った、好ましくは、第1の距離データA,Bに基づくデータ点列の成す角度であり、δ=β2−β1=α2−α1、である。図7における幾何学的考察により、Δx,Δyを表す式が以下のように求められる。
Δx=((Δv・cos(β1)+Δu・cos(π−β2))/sin(δ)、
Δy=((Δu・sin(π−β2)−Δv・sin(β1))/sin(δ)。
Next, with reference to FIG. 7, the correlation among the above-described correction distances Δu, Δv, Δx, Δy is obtained. In FIG. 7, a straight line bd is an auxiliary line. The angle δ is the angle formed by the data point sequence along the two walls w1 and w2, and therefore along these walls, preferably based on the first distance data A and B, and δ = β2−β1 = α2−α1. . From the geometrical consideration in FIG. 7, equations representing Δx and Δy are obtained as follows.
Δx = ((Δv · cos (β1) + Δu · cos (π−β2)) / sin (δ),
Δy = ((Δu · sin (π−β2) −Δv · sin (β1)) / sin (δ).

(第2の実施形態)
次に、自己位置認識システム1における自己位置認識処理の他の例を説明する。図8はこの処理のフローチャートを示し、図9は距離データ及びレーザレーダの配置例を示す。この実施形態における自己位置認識システム1のブロック構成は、図1に示した第1の実施形態のものと同様である。また、図8に示すフローチャートにおいて、ステップ#1は、図2に示した第1の実施形態におけるフローチャートのステップS1〜S3、およびステップS5と同様であり、その説明は省略する。なお、前述したように、ステップS4,S5の順序は入れ替え可能である。
(Second Embodiment)
Next, another example of the self-position recognition process in the self-position recognition system 1 will be described. FIG. 8 shows a flowchart of this process, and FIG. 9 shows an example of arrangement of distance data and laser radar. The block configuration of the self-position recognition system 1 in this embodiment is the same as that of the first embodiment shown in FIG. Further, in the flowchart shown in FIG. 8, Step # 1 is the same as Steps S1 to S3 and Step S5 in the flowchart in the first embodiment shown in FIG. As described above, the order of steps S4 and S5 can be changed.

本実施形態は、ステップ#2に特徴があり、このステップでは、図8におけるステップS4の回転処理に続けて、両方の距離データA,Pを更に回転する。このステップ#2の回転によって、図9に示すように、第1の角度α1の方向(矢印sの方向)が自己位置認識に用いる座標系であるxy座標系のy軸と平行になるように、第1の距離データAおよび第2の距離データPの両方が回転される。レーザレーダ4は、この追加の回転によりその場回転してレーザレーダ4aの配置となる。また、第1の距離データAに対応しているレーザレーダ41は、この追加の回転によりレーザレーダ41aの配置となる。   The present embodiment is characterized by step # 2. In this step, both the distance data A and P are further rotated following the rotation process of step S4 in FIG. By the rotation of step # 2, as shown in FIG. 9, the direction of the first angle α1 (the direction of the arrow s) is parallel to the y axis of the xy coordinate system which is the coordinate system used for self-position recognition. Both the first distance data A and the second distance data P are rotated. The laser radar 4 is rotated on the spot by this additional rotation, so that the laser radar 4a is arranged. Further, the laser radar 41 corresponding to the first distance data A becomes the arrangement of the laser radar 41a by this additional rotation.

第1の距離データAは、角度ω1=π/2−α1の回転により新たな第1の距離データB1とされる。また、第2の距離データPは、角度ω2=π/2−α1−Δθの回転により新たな第2の距離データP1とされる。この回転により、第1の並進軸がx軸方向となる。また、第2の並進軸(図9におけるY軸)は、x軸から角度δ=α2−α1、だけ回転した方向となる。   The first distance data A becomes new first distance data B1 by the rotation of the angle ω1 = π / 2−α1. Further, the second distance data P becomes new second distance data P1 by the rotation of the angle ω2 = π / 2−α1−Δθ. By this rotation, the first translation axis becomes the x-axis direction. Further, the second translation axis (Y axis in FIG. 9) is a direction rotated by an angle δ = α2−α1 from the x axis.

ステップ#3において、図9に示した回転された第1および第2の距離データB1,P1から、第1の並進軸x、および第2の並進軸Yに関するヒストグラムが形成される。この処理は、第1の実施形態におけるステップS6、および図6の説明と同様である。   In step # 3, a histogram relating to the first translation axis x and the second translation axis Y is formed from the rotated first and second distance data B1 and P1 shown in FIG. This process is the same as step S6 in the first embodiment and the description of FIG.

また、ステップ#4において、第1の実施形態におけるステップS7,S8と同様に、各並進軸x,Yについて、それぞれ相互相関関数を算出して、第1および第2の補正距離が求められる。すなわち、図9に示すように、第1の並進軸x方向の補正距離Δx2、第2の並進軸Y方向の補正距離ΔYが求められる。また、これらの補正距離Δx2,ΔY、および、ステップ#1で求めた補正角度Δθを用いて、現在認識している自律移動体の回転方向すなわち向き(または姿勢)と現在位置の座標とを補正して、自己位置認識が行われる。   In Step # 4, as in Steps S7 and S8 in the first embodiment, the cross-correlation function is calculated for each of the translation axes x and Y, and the first and second correction distances are obtained. That is, as shown in FIG. 9, the correction distance Δx2 in the first translation axis x direction and the correction distance ΔY in the second translation axis Y direction are obtained. Further, using the correction distances Δx2, ΔY and the correction angle Δθ obtained in step # 1, the rotational direction, that is, the orientation (or orientation) of the currently recognized autonomous mobile body and the coordinates of the current position are corrected. Thus, self-position recognition is performed.

次に、上述の補正距離Δx2,ΔYと、上述の追加の回転の前の補正距離、すなわちΔx,Δyとの相互関係を求める。ここで、第1の距離データB1と第2の距離データP1のy軸方向の並進差をΔy2とすると、δ=α2−α1,ΔY,Δx2を用いて、
Δy2=(ΔY−Δx2・cosδ)/sinδ、
となる。ところで、第1の距離データB1と第2の距離データP1は、前述の図5において、互いの並進差から補正距離Δx,Δyを生成している第1の距離データBと第2の距離データPを、共に角度(π−α1)回転したものであるから、補正距離(Δx,Δy)は、補正距離(Δx2,Δy2)を角度(π−α1)だけ逆回転することによって得られる。従って、
Δx=Δx2・cos(α1)−Δy2・sin(α1)、
Δy=Δx2・sin(α1)+Δy2・cos(α1)、
となる。
Next, the correlation between the above-described correction distances Δx2, ΔY and the correction distance before the additional rotation, that is, Δx, Δy, is obtained. Here, if the translation difference in the y-axis direction between the first distance data B1 and the second distance data P1 is Δy2, δ = α2−α1, ΔY, Δx2 is used.
Δy2 = (ΔY−Δx2 · cosδ) / sinδ,
It becomes. By the way, the first distance data B1 and the second distance data P1 are the first distance data B and the second distance data that generate the correction distances Δx and Δy from the translation differences of each other in FIG. Since both P are rotated by an angle (π−α1), the correction distance (Δx, Δy) is obtained by reversely rotating the correction distance (Δx2, Δy2) by the angle (π−α1). Therefore,
Δx = Δx2 · cos (α1) −Δy2 · sin (α1),
Δy = Δx2 · sin (α1) + Δy2 · cos (α1),
It becomes.

なお、上記において、第1および第2の角度α1,α2のうち何れの方向を、何れの座標系の座標軸に平行にするかは、任意に選択できる。図9の例では、2つの角度α1,α2のうち、小さい角度α1(α1<α2)の方向をy軸に平行にしている。また、上述の最初の回転と追加の回転とは、実際は、2段階に分けることなく、1回の回転で済ませることができる。   In the above, it is possible to arbitrarily select which direction of the first and second angles α1 and α2 is parallel to the coordinate axis of which coordinate system. In the example of FIG. 9, the direction of the smaller angle α1 (α1 <α2) of the two angles α1 and α2 is parallel to the y axis. In addition, the first rotation and the additional rotation described above can actually be performed by one rotation without being divided into two stages.

上述の回転を行う本実施形態によれば、1つの並進軸の方向が自己位置認識に用いている座標系の座標軸の1つ(x軸)の方向に一致するので、位置ヒストグラム形成のための演算が容易となり、自己位置認識のための演算負荷を低減できる。   According to the present embodiment in which the rotation described above is performed, the direction of one translation axis coincides with the direction of one of the coordinate axes (x-axis) of the coordinate system used for self-position recognition. The calculation becomes easy and the calculation load for self-position recognition can be reduced.

(第3の実施形態)
図10乃至図12(a)(b)(c)を参照して、第3の実施形態を説明する。この実施形態では、上述の第2の実施形態で説明した自己位置認識システム1を実環境に適用した場合のデータ例を示す。図10は自己位置認識システムを備えた自律移動体10が移動中に自己位置認識を行う様子を示し、図11(a)(b)(c)、図12(a)(b)(c)はヒストグラムと相互相関関数の例を示す。
(Third embodiment)
The third embodiment will be described with reference to FIGS. 10 to 12A, 12B, and 12C. In this embodiment, an example of data when the self-position recognition system 1 described in the second embodiment is applied to a real environment is shown. FIG. 10 shows a state where the autonomous mobile body 10 equipped with a self-position recognition system performs self-position recognition during movement, and FIGS. 11 (a) (b) (c) and FIGS. 12 (a) (b) (c) Shows examples of histograms and cross-correlation functions.

略直方体形状の自律移動体10は、自己位置認識システム1(不図示)のレーザレーダ4を前面左隅部に備えて、壁Wによって左右を囲まれた通路を移動中である。左方の壁Wには、直交しない壁面から成る凹所が存在する。自律移動体10の自己位置認識システム1は、現在認識している自己位置に基づいて地図情報から第1の距離データを取得し、レーザレーダ4を用いた実測によって、そのスキャン可能角度範囲における前方および左方の障害物の距離データ(第2の距離データ)を取得する。なお、レーザ光の入射角が90゜に近い場合(壁面に平行に近くなる場合)には、測定データが得られない。   The autonomous mobile body 10 having a substantially rectangular parallelepiped shape is provided with the laser radar 4 of the self-position recognition system 1 (not shown) at the front left corner, and is moving in a path surrounded by walls W. The left wall W has a recess made of a wall surface that is not orthogonal. The self-position recognition system 1 of the autonomous mobile body 10 acquires the first distance data from the map information based on the currently recognized self-position, and the front in the scannable angle range by the actual measurement using the laser radar 4. And distance data (second distance data) of the obstacle on the left is acquired. Note that measurement data cannot be obtained when the incident angle of the laser beam is close to 90 ° (when parallel to the wall surface).

上述の状況のもとで取得された第1および第2の距離データに基づいて得られた角度ヒストグラム、距離ヒストグラムは、図11(a)(b)(c)に示すようになる。第1の距離データ(地図情報から求めたもの)に対応する第1の角度ヒストグラムm0と、第2の距離データ(実測値)に対応する第2の角度ヒストグラムr0との角度座標軸方向のずれが補正角度である。また、角度ヒストグラムm0の最初の2つのピークに対する角度から第1軸方向および第2軸方向が定められ、これらの軸に関する距離ヒストグラムから補正距離が求められる。距離ヒストグラムm1,m2が第1の距離データから得られ、距離ヒストグラムr1,r2が第2の距離データから得られる。   The angle histogram and the distance histogram obtained based on the first and second distance data acquired under the above situation are as shown in FIGS. 11 (a), 11 (b), and 11 (c). The deviation in the direction of the angle coordinate axis between the first angle histogram m0 corresponding to the first distance data (obtained from the map information) and the second angle histogram r0 corresponding to the second distance data (actually measured value). It is a correction angle. Further, the first axis direction and the second axis direction are determined from the angles with respect to the first two peaks of the angle histogram m0, and the correction distance is obtained from the distance histogram regarding these axes. Distance histograms m1 and m2 are obtained from the first distance data, and distance histograms r1 and r2 are obtained from the second distance data.

上述の角度ヒストグラムm0,r0、距離ヒストグラムm1,r1、および距離ヒストグラムm2,r2について、それぞれ相互相関関数kを算出すると、図12(a)(b)(c)に示すようになる。それぞれピークc0,c1,c2の位置に対応する角度差、および距離差の値が、補正角度および補正距離となる。自己位置認識システム1における自動処理に際して、閾値THを変化させることにより所定のピークを検出する。   When the cross-correlation function k is calculated for each of the angle histograms m0, r0, the distance histograms m1, r1, and the distance histograms m2, r2, the results are as shown in FIGS. 12 (a), 12 (b), and 12 (c). The values of the angle difference and the distance difference corresponding to the positions of the peaks c0, c1, and c2 are the correction angle and the correction distance, respectively. During automatic processing in the self-position recognition system 1, a predetermined peak is detected by changing the threshold value TH.

なお、以上に述べた第1乃至第3の実施形態における自己位置認識システム1の地図情報記憶手段2、自己位置記憶手段3、演算手段5は、CPUやメモリや外部記憶装置や表示装置や入力装置などを備えた一般的な構成を備えた電子計算機、および、その上のプロセス又は機能の集合として構成することができる。また、本発明は、上記構成に限られることなく種々の変形が可能である。例えば、環境情報である第2の距離データを取得する手段として、レーザレーダ4を説明したが、レーザレーダに限らず、超音波アレイセンサやCCD画像装置などを用いて距離画像を生成し、その距離画像から第2の距離データを取得するようにしてもよい。また、図2、図8に示したフローチャートにおいて、並列処理が可能な処理は並列に処理を行ってもよく、また処理の順番を替えてもよい。   The map information storage means 2, the self-position storage means 3, and the calculation means 5 of the self-position recognition system 1 in the first to third embodiments described above are a CPU, a memory, an external storage device, a display device, and an input. An electronic computer having a general configuration including an apparatus and the like, and a process or a function set on the computer can be configured. Further, the present invention is not limited to the above configuration and can be variously modified. For example, the laser radar 4 has been described as a means for acquiring the second distance data, which is environment information. However, the distance image is generated not only by the laser radar but also by using an ultrasonic array sensor or a CCD image device. You may make it acquire 2nd distance data from a distance image. In the flowcharts shown in FIGS. 2 and 8, processes that can be processed in parallel may be performed in parallel, or the order of the processes may be changed.

また、上記において、第1の距離データAを、補正角度Δθ、または、ω1=π/2−α1−Δθだけ回転して、新たな第1の距離データB、B1を取得しているが、この場合の回転処理について2通りの方法で処理を行って第1の距離データB、B1を取得することができる。1つは、各データ点の座標を、回転変換して新たな座標値を有するデータ点を生成する方法である。他の1つは、第1の距離データを取得するもともとの方法に基づく方法である。すなわち、現在位置として認識している位置についてΔθ、または、ω1に基づいて方向の補正を行った後に、回転後の新たな、現在位置として認識している位置においてレーザレーダ4を用いてセンシングされるはずの地図情報に基づく障害物情報(第1の距離データという)を取得する方法である。第2の方法によると、角度補正されている分、実測データに近くなり、2つの距離ヒストグラムの一致精度が向上すると考えられる。   In the above description, the first distance data A is rotated by the correction angle Δθ or ω1 = π / 2−α1-Δθ to obtain new first distance data B and B1. In this case, the first distance data B and B1 can be obtained by performing the rotation process in two ways. One is a method of generating a data point having a new coordinate value by rotationally converting the coordinates of each data point. The other one is a method based on the original method of acquiring the first distance data. That is, after correcting the direction based on Δθ or ω1 for the position recognized as the current position, sensing is performed using the laser radar 4 at the new position recognized as the current position after rotation. This is a method of acquiring obstacle information (referred to as first distance data) based on map information that should be obtained. According to the second method, as the angle is corrected, it becomes closer to the actually measured data, and it is considered that the matching accuracy between the two distance histograms is improved.

本発明の第1の実施形態に係る自己位置認識システムのブロック構成図。The block block diagram of the self-position recognition system which concerns on the 1st Embodiment of this invention. 同上システムにおける自己位置認識処理を説明するフローチャート。The flowchart explaining the self-position recognition process in a system same as the above. 同上システムで処理される第1および第2の距離データのデータ点配置例を示す平面図。The top view which shows the data point example of a 1st and 2nd distance data processed with a system same as the above. (a)は図3に示した第1の距離データに関する角度ヒストグラムの図、(b)は図3に示した第2の距離データに関する角度ヒストグラムの図。FIG. 4A is a diagram of an angle histogram related to the first distance data shown in FIG. 3, and FIG. 4B is a diagram of an angle histogram related to the second distance data shown in FIG. 図3における第1の距離データを補正角度分回転した状態の平面図。The top view of the state which rotated the 1st distance data in FIG. 3 by the correction angle. 図5に示した第1および第2の距離データから位置ヒストグラムを形成する様子を示す平面図。The top view which shows a mode that a position histogram is formed from the 1st and 2nd distance data shown in FIG. 同上システムにおける補正距離の導出を説明するための幾何学配置図。The geometric arrangement | positioning figure for demonstrating derivation | leading-out of the correction distance in a system same as the above. 第2の実施形態に係る自己位置認識システムにおける自己位置認識処理を説明するフローチャート。The flowchart explaining the self-position recognition process in the self-position recognition system which concerns on 2nd Embodiment. 同上フローチャートに従って処理される第1および第2の距離データのデータ点配置例を示す平面図。The top view which shows the data point arrangement example of the 1st and 2nd distance data processed according to a flowchart same as the above. 第3の実施形態に係る自己位置認識システムを備えた自律移動体が自己位置認識を行う様子を示す斜視図。The perspective view which shows a mode that the autonomous mobile body provided with the self-position recognition system which concerns on 3rd Embodiment performs self-position recognition. (a)は角度ヒストグラムの例を示す図、(b)(c)は位置ヒストグラムの例を示す図。(A) is a figure which shows the example of an angle histogram, (b) (c) is a figure which shows the example of a position histogram. (a)は図11(a)の角度ヒストグラムについての相互相関関数の図、(b)は図11(b)の距離ヒストグラムについての相互相関関数の図、(c)は図11(c)の距離ヒストグラムについての相互相関関数の図。FIG. 11A is a cross-correlation function diagram for the angle histogram of FIG. 11A, FIG. 11B is a cross-correlation function diagram for the distance histogram of FIG. 11B, and FIG. FIG. 4 is a cross-correlation function diagram for a distance histogram.

符号の説明Explanation of symbols

1 自己位置認識システム
2 地図情報記憶手段
3 自己位置記憶手段
4,4a,40,41,41a レーザレーダ
5 演算手段
a1〜a12,b1〜b12,p1〜p11 データ点
k 相互相関関数
u,x 第1の並進軸
v,Y 第2の並進軸
A,B,B1 第1の距離データ
F (角度の)出現頻度
G,G1,G2 (位置の)出現頻度
P,P1 第2の距離データ
α1,β1 第1の角度
α2,β2 第2の角度
Δθ 補正角度
Δx 第1の補正距離
Δy 第2の補正距離
DESCRIPTION OF SYMBOLS 1 Self-position recognition system 2 Map information storage means 3 Self-position storage means 4, 4a, 40, 41, 41a Laser radar 5 Calculation means a1-a12, b1-b12, p1-p11 Data point k Cross correlation function u, x 1st 1 translational axis v, Y 2nd translational axis A, B, B1 1st distance data F (angle) appearance frequency G, G1, G2 (position) appearance frequency P, P1 2nd distance data α1, β1 first angle α2, β2 second angle Δθ correction angle Δx first correction distance Δy second correction distance

Claims (5)

予め入力された地図情報を記憶する地図情報記憶手段と、前記地図情報上で認識した自律移動体の自己の位置を記憶する自己位置記憶手段と、自律移動体の自己の周辺に存在する障害物をセンシングするレーザレーダと、前記レーザレーダによって得られた障害物情報と前記自己位置記憶手段が現在記憶している自己位置における周辺の前記地図情報記憶手段に記憶された地図情報とを演算処理して自己位置を補正する演算手段と、を備えた自己位置認識システムにおいて、
前記演算手段は、
現在位置として認識している位置で前記レーザレーダを用いてセンシングされるはずの前記地図情報に基づく障害物情報(第1の距離データという)と、前記レーザレーダによってセンシングされた実際の障害物情報(第2の距離データという)とを取得し、
前記第1の距離データおよび第2の距離データのそれぞれについて、データ点を結ぶ線分の角度を求めると共に、得られた角度の出現頻度を求めて第1の角度ヒストグラムおよび第2の角度ヒストグラムを形成し、
前記第1および第2の角度ヒストグラムの相互相関関数を算出すると共にその結果に基づいて現在認識している自律移動体の回転方向を補正する補正角度を求めて前記第1の距離データを前記補正角度だけ回転した新たな第1の距離データを取得し、
前記第1の角度ヒストグラムまたは第2の角度ヒストグラムのいずれかにおいて出現頻度の高い2つの角度(これらを第1の角度と第2の角度という)を抽出し、
前記新たな第1の距離データを、そのデータが前記第2の距離データに重なるように、前記第1の角度の方向に直交する方向の軸(第1の並進軸という)と前記第2の角度の方向に直交する方向の軸(第2の並進軸という)とに沿って並進移動させることにより現在認識している自律移動体の前記第1および第2の並進軸方向の位置を補正することを特徴とする自己位置認識システム。
Map information storage means for storing pre-input map information, self-position storage means for storing the position of the autonomous mobile body recognized on the map information, and obstacles existing around the autonomous mobile body A radar that senses the obstacle, the obstacle information obtained by the laser radar, and the map information stored in the map information storage means around the self-position stored in the self-position storage means. A self-position recognition system comprising a computing means for correcting the self-position,
The computing means is
Obstacle information (referred to as first distance data) based on the map information that should be sensed using the laser radar at a position recognized as the current position, and actual obstacle information sensed by the laser radar (Referred to as second distance data)
For each of the first distance data and the second distance data, an angle of a line segment connecting the data points is obtained, and an appearance frequency of the obtained angle is obtained to obtain a first angle histogram and a second angle histogram. Forming,
The cross-correlation function of the first and second angle histograms is calculated, and based on the result, a correction angle for correcting the rotational direction of the currently recognized autonomous mobile body is obtained, and the first distance data is corrected. Obtain new first distance data rotated by an angle,
Extracting two frequently occurring angles in either the first angle histogram or the second angle histogram (these are called the first angle and the second angle),
The new first distance data includes an axis in a direction orthogonal to the direction of the first angle (referred to as a first translation axis) and the second angle so that the data overlaps the second distance data. The position of the autonomous mobile body currently recognized by the translation along the axis in the direction orthogonal to the direction of the angle (referred to as a second translation axis) is corrected in the first and second translation axis directions. Self-position recognition system characterized by that.
前記演算手段は、前記新たな第1の距離データおよび前記第2の距離データのそれぞれについて、前記第1の並進軸にデータ点を投影して第1の並進軸に対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成すると共に、前記第2の並進軸にデータ点を投影して第2の並進軸に対するデータ点の出現頻度から成る第1の位置ヒストグラムおよび第2の位置ヒストグラムを形成し、
前記第1の並進軸に対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第1の並進軸方向の位置を補正する距離データを求めると共に、前記第2の並進軸に対する第1および第2の位置ヒストグラムの相互相関関数を算出しその結果に基づいて現在認識している自律移動体の第2の並進軸方向の位置を補正する距離データを求めることを特徴とする請求項1記載の自己位置認識システム。
The calculation means includes the frequency of appearance of data points with respect to the first translation axis by projecting data points on the first translation axis for each of the new first distance data and the second distance data. Forming a first position histogram and a second position histogram, and projecting data points onto the second translation axis, and a first position histogram and a second position histogram comprising the frequency of appearance of the data points with respect to the second translation axis Form a position histogram of
The cross-correlation function of the first and second position histograms with respect to the first translation axis is calculated, and distance data for correcting the position of the autonomous mobile body currently recognized based on the result in the first translation axis direction is obtained. In addition, the cross-correlation function of the first and second position histograms with respect to the second translation axis is calculated, and the position of the autonomous mobile body currently recognized based on the result is corrected in the second translation axis direction. 2. The self-position recognition system according to claim 1, wherein distance data is obtained.
前記第1または第2の角度の方向が、自己位置認識に用いる座標系の座標軸の1つと平行になるように、前記新たな第1の距離データおよび前記第2の距離データの両方を回転し、これらの回転した距離データを用いて前記第1および第2の並進軸方向の補正距離を求めることを特徴とする請求項1または請求項2記載の自己位置認識システム。   Both the new first distance data and the second distance data are rotated so that the direction of the first or second angle is parallel to one of the coordinate axes of the coordinate system used for self-position recognition. 3. The self-position recognition system according to claim 1, wherein a correction distance in the first and second translational axis directions is obtained using the rotated distance data. 前記第1および第2の角度は、前記第1の角度ヒストグラムから抽出することを特徴とする請求項1乃至請求項3のいずれか一項記載の自己位置認識システム。   The self-position recognition system according to any one of claims 1 to 3, wherein the first and second angles are extracted from the first angle histogram. 前記第1および第2の角度の差が90度に近いときは、前記2つの角度のいずれか一方の角度を他方の角度の方向に直交する方向の角度とすることを特徴とする請求項1乃至請求項4のいずれか一項記載の自己位置認識システム。   2. When the difference between the first angle and the second angle is close to 90 degrees, one of the two angles is set to an angle perpendicular to the direction of the other angle. The self-position recognition system according to any one of claims 1 to 4.
JP2006256263A 2006-09-21 2006-09-21 Self-position recognition system Expired - Fee Related JP5069439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006256263A JP5069439B2 (en) 2006-09-21 2006-09-21 Self-position recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006256263A JP5069439B2 (en) 2006-09-21 2006-09-21 Self-position recognition system

Publications (2)

Publication Number Publication Date
JP2008076252A true JP2008076252A (en) 2008-04-03
JP5069439B2 JP5069439B2 (en) 2012-11-07

Family

ID=39348475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006256263A Expired - Fee Related JP5069439B2 (en) 2006-09-21 2006-09-21 Self-position recognition system

Country Status (1)

Country Link
JP (1) JP5069439B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
JP2010203888A (en) * 2009-03-03 2010-09-16 Hitachi-Ge Nuclear Energy Ltd Device and method for detecting position of underwater vehicle
JP2011002880A (en) * 2009-06-16 2011-01-06 Hitachi Industrial Equipment Systems Co Ltd Mobile robot
KR101341204B1 (en) * 2012-02-29 2013-12-12 부산대학교 산학협력단 Device and method for estimating location of mobile robot using raiser scanner and structure
US20140379254A1 (en) * 2009-08-25 2014-12-25 Tomtom Global Content B.V. Positioning system and method for use in a vehicle navigation system
JP2015094669A (en) * 2013-11-12 2015-05-18 株式会社日立産機システム Position detection system
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP2016103269A (en) * 2014-11-12 2016-06-02 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
CN106323273A (en) * 2016-08-26 2017-01-11 深圳微服机器人科技有限公司 Robot relocation method and device
CN107735692A (en) * 2015-06-01 2018-02-23 罗伯特·博世有限公司 Method and apparatus for being positioned to vehicle
WO2018131163A1 (en) * 2017-01-16 2018-07-19 富士通株式会社 Information processing device, database generation device, method, and program, and storage medium
US10240934B2 (en) 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
KR20190129978A (en) * 2017-08-23 2019-11-20 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Laser scanning device calibration method, apparatus, device and storage medium
CN111077549A (en) * 2019-12-31 2020-04-28 深圳一清创新科技有限公司 Position data correction method, apparatus and computer readable storage medium
CN111481109A (en) * 2019-01-28 2020-08-04 北京奇虎科技有限公司 Map noise elimination method and device based on sweeper
KR20210023644A (en) * 2019-08-23 2021-03-04 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
WO2023007795A1 (en) * 2021-07-26 2023-02-02 ソニーグループ株式会社 Signal-processing device and signal-processing method
JP7417943B2 (en) 2020-07-20 2024-01-19 パナソニックIpマネジメント株式会社 vacuum cleaner system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242409A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd Autonomous mobile robot system
JP2006079325A (en) * 2004-09-09 2006-03-23 Matsushita Electric Works Ltd Autonomous mobile device
JP2006185438A (en) * 2004-12-03 2006-07-13 Matsushita Electric Ind Co Ltd Robot control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242409A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd Autonomous mobile robot system
JP2006079325A (en) * 2004-09-09 2006-03-23 Matsushita Electric Works Ltd Autonomous mobile device
JP2006185438A (en) * 2004-12-03 2006-07-13 Matsushita Electric Ind Co Ltd Robot control device

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
JP2010203888A (en) * 2009-03-03 2010-09-16 Hitachi-Ge Nuclear Energy Ltd Device and method for detecting position of underwater vehicle
JP2011002880A (en) * 2009-06-16 2011-01-06 Hitachi Industrial Equipment Systems Co Ltd Mobile robot
US20140379254A1 (en) * 2009-08-25 2014-12-25 Tomtom Global Content B.V. Positioning system and method for use in a vehicle navigation system
KR101341204B1 (en) * 2012-02-29 2013-12-12 부산대학교 산학협력단 Device and method for estimating location of mobile robot using raiser scanner and structure
JP2015094669A (en) * 2013-11-12 2015-05-18 株式会社日立産機システム Position detection system
US10240934B2 (en) 2014-04-30 2019-03-26 Tomtom Global Content B.V. Method and system for determining a position relative to a digital map
US10119804B2 (en) 2014-11-12 2018-11-06 Murata Machinery, Ltd. Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP2016103269A (en) * 2014-11-12 2016-06-02 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
CN107735692A (en) * 2015-06-01 2018-02-23 罗伯特·博世有限公司 Method and apparatus for being positioned to vehicle
US11137255B2 (en) 2015-08-03 2021-10-05 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US11287264B2 (en) 2015-08-03 2022-03-29 Tomtom International B.V. Methods and systems for generating and using localization reference data
US10948302B2 (en) 2015-08-03 2021-03-16 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
US11274928B2 (en) 2015-08-03 2022-03-15 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
CN106323273A (en) * 2016-08-26 2017-01-11 深圳微服机器人科技有限公司 Robot relocation method and device
JPWO2018131163A1 (en) * 2017-01-16 2019-11-07 富士通株式会社 Information processing apparatus, database generation apparatus, method, program, and storage medium
US11506755B2 (en) 2017-01-16 2022-11-22 Fujitsu Limited Recording medium recording information processing program, information processing apparatus, and information processing method
WO2018131163A1 (en) * 2017-01-16 2018-07-19 富士通株式会社 Information processing device, database generation device, method, and program, and storage medium
KR20190129978A (en) * 2017-08-23 2019-11-20 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Laser scanning device calibration method, apparatus, device and storage medium
KR102296723B1 (en) * 2017-08-23 2021-08-31 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Laser scanning device calibration method, apparatus, device and storage medium
CN111481109A (en) * 2019-01-28 2020-08-04 北京奇虎科技有限公司 Map noise elimination method and device based on sweeper
CN111481109B (en) * 2019-01-28 2022-08-26 北京奇虎科技有限公司 Map noise elimination method and device based on sweeper
KR102247879B1 (en) 2019-08-23 2021-05-03 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same
KR20210023644A (en) * 2019-08-23 2021-03-04 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same
CN111077549B (en) * 2019-12-31 2022-06-28 深圳一清创新科技有限公司 Position data correction method, apparatus and computer readable storage medium
CN111077549A (en) * 2019-12-31 2020-04-28 深圳一清创新科技有限公司 Position data correction method, apparatus and computer readable storage medium
JP7417943B2 (en) 2020-07-20 2024-01-19 パナソニックIpマネジメント株式会社 vacuum cleaner system
WO2023007795A1 (en) * 2021-07-26 2023-02-02 ソニーグループ株式会社 Signal-processing device and signal-processing method

Also Published As

Publication number Publication date
JP5069439B2 (en) 2012-11-07

Similar Documents

Publication Publication Date Title
JP5069439B2 (en) Self-position recognition system
Rencken Concurrent localisation and map building for mobile robots using ultrasonic sensors
US6453223B1 (en) Infrastructure independent position determining system
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
JP4697127B2 (en) Self-position recognition method
US10175049B2 (en) Target recognition and localization methods using a laser sensor for wheeled mobile robots
KR20110097140A (en) Apparatus for estimating location of moving robot and method thereof
JP2005326944A (en) Device and method for generating map image by laser measurement
KR20180076815A (en) Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner
JP2003015739A (en) External environment map, self-position identifying device and guide controller
Kumar et al. Sensor fusion of laser and stereo vision camera for depth estimation and obstacle avoidance
JP5032953B2 (en) Self-position recognition system
US20230419531A1 (en) Apparatus and method for measuring, inspecting or machining objects
JP2010066595A (en) Environment map generating device and environment map generating method
Donoso-Aguirre et al. Mobile robot localization using the Hausdorff distance
Lee et al. A novel method for estimating the heading angle for a home service robot using a forward-viewing mono-camera and motion sensors
Ye et al. Model-based offline vehicle tracking in automotive applications using a precise 3D model
Van Hamme et al. Robust visual odometry using uncertainty models
Yap et al. Landmark-based automated guided vehicle localization algorithm for warehouse application
Hong et al. Three-dimensional visual mapping of underwater ship hull surface using view-based piecewise-planar measurements
JP6670712B2 (en) Self-position estimation device, moving object and self-position estimation method
Wang et al. Mobile robot pose estimation using laser scan matching based on fourier transform
KR102624644B1 (en) Method of estimating the location of a moving object using vector map
Fu et al. Multi-waypoint visual homing in piecewise linear trajectory
Wang et al. Real-time visual odometry estimation based on principal direction detection on ceiling vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111229

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120817

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees