JP2011210183A - Mobile object position detection system and method - Google Patents
Mobile object position detection system and method Download PDFInfo
- Publication number
- JP2011210183A JP2011210183A JP2010079663A JP2010079663A JP2011210183A JP 2011210183 A JP2011210183 A JP 2011210183A JP 2010079663 A JP2010079663 A JP 2010079663A JP 2010079663 A JP2010079663 A JP 2010079663A JP 2011210183 A JP2011210183 A JP 2011210183A
- Authority
- JP
- Japan
- Prior art keywords
- collation
- dot
- moving body
- matching
- pole star
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims description 32
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000012795 verification Methods 0.000 claims description 29
- 238000010586 diagram Methods 0.000 description 32
- 238000004364 calculation method Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 18
- 238000009826 distribution Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 238000007726 management method Methods 0.000 description 10
- 238000012384 transportation and delivery Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000019892 Stellar Nutrition 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、移動体位置検出システムおよび方法に関するものである。 The present invention relates to a moving body position detection system and method.
従来、平面上に配置したパターン(模様)を利用して、平面上を移動する移動体の位置の検出を行う方法が知られている(例えば、特許文献1参照)。 Conventionally, a method of detecting the position of a moving body moving on a plane using a pattern (pattern) arranged on the plane is known (for example, see Patent Document 1).
これに対し、本発明者内の一部を含む発明者らは、既に特願2008−274680号および特願2008−274681号の移動体位置検出システムを提案している。 On the other hand, the inventors including a part of the present inventors have already proposed moving body position detection systems of Japanese Patent Application Nos. 2008-274680 and 2008-274681.
この移動体位置検出システムは、図17および図18に示すように、既知のドットパターン3が描画してある床面2上に配置した移動体4から床面2を撮像し、撮像した画像中にあるドット5のドットパターン3の特徴量を、床面2全体のドットパターン3の特徴量が格納されたデータベース6と照合することで、撮像した画像中のドットが床面2上のどのドットに相当するのかを割り出し、床面2上における移動体4の位置を検出するものである。
As shown in FIGS. 17 and 18, the moving body position detection system images the
一方、カメラによる撮像位置および方向を判別する技術として、スウェーデンのアノト社が開発したデジタルペン技術が知られている(関連文献として特許文献1がある)。これは、図19に示すように、ユニークなドットパターン80が印刷された紙とカメラ81内蔵のペン82を用い、文字を書く際のペン先83の紙面上での位置を検出し、これをデジタルデータとして記録するものである。ドットパターン80は、XY位置座標値を符号化パターンにしたものであり、逆に符号化パターンを復元することでXY座標値を得ることができる。ただし、この技術は、規定のコードを表現するドットパターン80を正確に描く必要があり、自然発生的なドットパターンを利用した位置検出はできないという問題がある。
On the other hand, a digital pen technique developed by Anoto, Sweden, is known as a technique for discriminating the position and direction of an image taken by a camera (
また、図20に示すように、2次元情報がコード化された模様84を平面85上に描画し、それをカメラ86で読み取って位置を検出する技術が知られている(例えば、特許文献2参照)。この技術は、数種類の図形でパターンを描画することが前提となっており、デザイン上の制約がある。例えば、ドットのみでパターンを構成することはできない。
As shown in FIG. 20, a technique is known in which a
また、宇宙空間で宇宙機87の姿勢同定に使われる機器(スターセンサー)に用いる撮像恒星点群の恒星配置図88(スターマップ)への照合アルゴリズムとして、ポールスターアルゴリズムが知られている(例えば、非特許文献1参照)。図21に示すように、スターセンサーは、宇宙機87に搭載されたカメラで天空89を撮像し、撮像領域の恒星点の配列を既知のスターマップ88と照合することによりカメラの向いている姿勢を特定するセンサーである。恒星の配置は自然発生的であり必ずしも均一に点は分布していないが、ポールスターアルゴリズムは、このような対象に対する照合に有効である。
In addition, a pole star algorithm is known as a matching algorithm to a star arrangement diagram 88 (star map) of an imaging star point group used for a device (star sensor) used for attitude identification of the
このポールスターアルゴリズムは、平面上にランダムに広く点が分散しているとき、一部分の点分布から、その部分の平面上の位置を特定する方法である。このアルゴリズムの概略の処理手順は、図22に示すように、画像取得して画像中の点にラベリングをし(ステップS1)、この画像点群を用いてポールスター照合を行い(ステップS2)、星点候補群について多角形照合を行って(ステップS3)、カメラ姿勢の計算をする(ステップS4)という手順である。 This Polestar algorithm is a method for specifying the position of a part on the plane from the point distribution of the part when the points are widely distributed randomly on the plane. As shown in FIG. 22, the outline processing procedure of this algorithm is to acquire an image, label the points in the image (step S1), perform pole star matching using the image point group (step S2), This is a procedure of performing polygon matching on the star candidate group (step S3) and calculating the camera posture (step S4).
ここで、ステップS2のポールスター照合においては、平面上の任意の点を中心として規定半径の円内に存在する周辺点までの直線は、複数存在するが、その複数の直線の長さの組み合わせは、その中心点に関して特有のものであることを利用している。このような各点周辺の点分布を表す特徴量をポールスター特徴量として定義する。この特徴量に関するデータベースは、図23に示すステップS5〜S8の処理により、オフラインで事前に作成しておく。 Here, in the pole star collation in step S2, there are a plurality of straight lines from an arbitrary point on the plane to a peripheral point existing within a circle with a specified radius, but the combination of the lengths of the plurality of straight lines Makes use of what is unique about its central point. A feature amount representing the point distribution around each point is defined as a pole star feature amount. The database relating to the feature amount is previously created offline in advance by the processing of steps S5 to S8 shown in FIG.
そして、取得画像中の各画像点のポールスター特徴量をデータベースと照合することで照合星点(データベース点)候補を求める。ステップS3の多角形照合においては、画像点を結んで作った多角形による照合により照合候補点群から幾何学的な関係が画像点群と整合性のある候補を選別する。そして、ステップS4において、残った画像点群と照合点群の座標値の組み合わせから撮像カメラ姿勢・位置を計算する。 And the collation star point (database point) candidate is calculated | required by collating the pole star feature-value of each image point in an acquired image with a database. In the polygon collation in step S3, candidates having a geometric relationship with the image point group are selected from the collation candidate point groups by collation using polygons formed by connecting image points. In step S4, the imaging camera posture / position is calculated from the combination of the coordinate values of the remaining image point group and collation point group.
次に、図23の各ステップの処理内容について、図24〜図29を参照しながら具体的に説明する。
(1)ポールスター特徴量の計算(ステップS6)
図24に示すように、ある点(Pn)を中心として規定の分布半径R内に存在する周辺点までの直線の長さ(以下、アーム長という。)を求め、アーム長を単位長さDで分割してインデックス化する(以下、アーム長インデックスという。)。
Next, the processing contents of each step in FIG. 23 will be specifically described with reference to FIGS.
(1) Calculation of pole star feature quantity (step S6)
As shown in FIG. 24, the length of a straight line (hereinafter referred to as an arm length) from a certain point (Pn) to a peripheral point existing within a specified distribution radius R is obtained, and the arm length is determined as a unit length D. To be indexed (hereinafter referred to as an arm length index).
ai=fix(ri/D)+1
amax=fix(R/D)+1
ここで、ri:アーム長、ai:アーム長インデックス、D:インデックス単位長さ、R:分布半径、amax:最大アーム長インデックスである。また、fixは小数点以下を切り捨てて整数値を返す演算子である。
ai = fix (ri / D) +1
amax = fix (R / D) +1
Here, ri: arm length, ai: arm length index, D: index unit length, R: distribution radius, amax: maximum arm length index. Also, fix is an operator that returns an integer value by truncating the decimal part.
アーム長インデックスの組み合わせをその点周辺の点分布を表す特徴量(以下、ポールスター特徴量という。)とする。ここで、中心点に対して同一のアーム長インデックスが複数計算されても、ポールスター特徴量としてのアーム長インデックス列は変わらない。 A combination of arm length indexes is a feature amount representing a point distribution around the point (hereinafter referred to as a pole star feature amount). Here, even if the same arm length index is calculated for the center point, the arm length index string as the pole star feature quantity does not change.
(2)ポールスターデータベースの作成(ステップS7〜S8:オフライン)
対象とする点(以下、データベース点という。)全てについて、上記の(1)のポールスター特徴量を計算し、ルックアップテーブルとして整理し蓄積する(ステップS7)。
(2) Creation of the pole star database (steps S7 to S8: offline)
For all the target points (hereinafter referred to as database points), the above-mentioned pole star feature values of (1) are calculated, organized and stored as a lookup table (step S7).
ルックアップテーブルは、図25に示すように、1〜amaxの各アーム長インデックスに対して、そのアーム長インデックスをポールスター特徴量中にもつデータベース点を羅列することで整理した表である。 As shown in FIG. 25, the look-up table is a table organized by listing database points having arm length indexes in the pole star feature amount for each arm length index of 1 to amax.
(3)ポールスター照合(ステップS2:オンライン)
カメラで画像を取得し、取得した画像中の各点(以下、画像点という。)の位置を抽出する。図26に示すように、取得画像の画像点についてポールスター特徴量を計算する。
(3) Pole star verification (Step S2: Online)
An image is acquired with a camera, and the position of each point (hereinafter referred to as an image point) in the acquired image is extracted. As shown in FIG. 26, the pole star feature is calculated for the image points of the acquired image.
画像点のポールスター特徴量中の各アーム長インデックスについて、図25のルックアップテーブルを使って、図27に示すように、そのアーム長インデックスをもつデータベース点(複数)を調べる。 With respect to each arm length index in the pole star feature quantity of the image point, the database point (plurality) having the arm length index is examined as shown in FIG. 27 using the lookup table of FIG.
また、図28に示すように、各データベース点(P1〜Pmax)に対応したカウンタを用意し、上記の処理でデータベース点が出てくる毎に対応する点のカウンタをインクリメントする。 Further, as shown in FIG. 28, a counter corresponding to each database point (P1 to Pmax) is prepared, and the counter of the corresponding point is incremented every time a database point appears in the above processing.
最大カウンタ値をとる点が画像点に対応する照合点候補となる。各画像点のポールスター特徴量について同様の処理を行うことで各画像点に対する照合点候補が求められる。カウンタには下限を設定し、最大カウンタ値がこの下限以下の場合には、当該の画像点に関して照合不能とし、その画像点は以降の照合の対象から除く。 The point having the maximum counter value is a matching point candidate corresponding to the image point. By performing the same processing on the pole star feature amount of each image point, a matching point candidate for each image point is obtained. A lower limit is set for the counter, and when the maximum counter value is less than or equal to this lower limit, the image point is not verified, and the image point is excluded from subsequent verification targets.
(4)多角形照合(ステップS3:オンライン)
上記の(3)で得られた各画像点に対応するデータベース点に対して、図29に示すように、いくつかの画像点を結んで作った多角形と、それらの画像点に対応するデータベース点を結んで作った多角形とが一致する点の組み合わせを選ぶことで、一致確度の高い画像点とデータベース点の組み合わせを求める。図29においては、1、3、4、7の点の組が最終的に照合されている。
(4) Polygon matching (Step S3: Online)
For the database points corresponding to the image points obtained in (3) above, as shown in FIG. 29, a polygon formed by connecting several image points and a database corresponding to these image points. By selecting a combination of points that match a polygon created by connecting the points, a combination of image points and database points with high matching accuracy is obtained. In FIG. 29, a set of
(5)カメラ姿勢計算による位置・方向の算出(ステップS4:オンライン)
上記の(4)で得られた3点以上の画像点と照合点のXY座標値の組み合わせから、カメラの姿勢(位置・方向)を求める。
(5) Position / direction calculation by camera posture calculation (Step S4: Online)
From the combination of the three or more image points obtained in (4) above and the XY coordinate values of the matching points, the posture (position / direction) of the camera is obtained.
ところで、上記の従来の移動体位置検出システムの平面上の点群照合のアルゴリズムとして上記のポールスターアルゴリズムをそのまま適用すると、誤った点と照合する問題(以下、誤照合という。)、照合ができない問題(以下、照合不能という。)、多くの点と照合して特定できない問題(以下、多照合という。)が発生するおそれがある。このような照合不良は、上記のスターマップ照合と平面上の点群照合の前提条件の違いにより引き起こると考えられる。これら照合の前提条件およびその違いは以下のとおりである。 By the way, if the above-mentioned Pole Star algorithm is applied as it is as an algorithm for point group collation on the plane of the above-mentioned conventional mobile object position detection system, there is a problem of collating with an incorrect point (hereinafter referred to as erroneous collation), and collation cannot be performed. There is a possibility that a problem (hereinafter referred to as “unmatched”) and a problem (hereinafter referred to as “multiple matching”) that cannot be identified by checking many points may occur. Such a collation failure is considered to be caused by a difference in the preconditions of the star map collation and the point cloud collation on the plane. The prerequisites for these verifications and their differences are as follows.
[スターマップ照合の前提条件]
(1)レンズの歪やカメラの姿勢に起因する撮像面上の恒星点間の相対的位置関係の変動は極めて少ない。
(2)上記の(1)により、恒星点の位置を画像中で極めて細かい分解能で計算できる。
(3)スターマップ中の恒星点数(データベース点)は、等級(輝度を表す)により選別でき、おおよそ数千程度である。
[Prerequisites for star map matching]
(1) The relative positional relationship between the star points on the imaging surface due to lens distortion and camera posture is extremely small.
(2) According to the above (1), the position of the star point can be calculated in the image with extremely fine resolution.
(3) The number of star points (database points) in the star map can be selected by grade (representing luminance) and is approximately several thousand.
[平面上の点群照合の前提条件]
(1)広角レンズを用いるためレンズ歪が大きく、かつ、点群のある平面までの対物距離が短いため、カメラ姿勢変動による点間の相対的位置関係の変動は無視できないほど大きい。
(2)処理速度の向上を図るため、撮像解像度を高くできないとともに、上記の(1)により、点位置を細かい分解能で算出できない。
(3)点群数(データベース点)は、対象とする平面の広さによるが、約20平米程度で数万個とスターマップに比べて多い。
[Preconditions for point cloud matching on a plane]
(1) Since a wide-angle lens is used, the lens distortion is large, and the objective distance to a plane with a point cloud is short. Therefore, the change in the relative positional relationship between the points due to the camera posture change is so large that it cannot be ignored.
(2) Since the processing speed is improved, the imaging resolution cannot be increased, and the point position cannot be calculated with a fine resolution according to the above (1).
(3) The number of point groups (database points) depends on the size of the target plane, but is about 20 square meters, which is tens of thousands, more than the star map.
上記の(1)の条件の違いにより、誤照合および照合不能の問題が発生し、上記の(2)、(3)の条件の違いにより、多照合の問題が発生するおそれがある。 Due to the difference in the condition (1), there is a possibility that a problem of incorrect collation and inability to collate occurs, and due to the difference in the conditions (2) and (3), a problem of multiple matching may occur.
本発明は、上記に鑑みてなされたものであって、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保した移動体位置検出システムおよび方法を提供することを目的とする。 The present invention has been made in view of the above, and provides a mobile body position detection system and method that ensure detection reliability by making it difficult to cause a verification failure when using the Polestar algorithm. Objective.
上記した課題を解決し、目的を達成するために、本発明の請求項1に係る移動体位置検出システムは、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備えることを特徴とする。
In order to solve the above-described problems and achieve the object, a mobile body position detection system according to
また、本発明の請求項2に係る移動体位置検出システムは、上述した請求項1において、前記絞り込み手段は、前記ポールスター照合手段により照合された照合ドット候補について照合ドット候補が存在する所定の共通領域を求め、前記共通領域内に存在する照合ドットに絞り込む処理を含むことを特徴とする。 According to a second aspect of the present invention, there is provided the mobile object position detection system according to the first aspect, wherein the narrowing-down means has a predetermined matching dot candidate for the matching dot candidate verified by the pole star verification means. The method includes a process of obtaining a common area and narrowing down to collation dots existing in the common area.
また、本発明の請求項3に係る移動体位置検出システムは、上述した請求項1または2において、前記ポールスター照合手段は、前記ポールスターデータベースにおける照合範囲を複数の領域に分割してこの各領域でポールスター照合を行い、照合率が最大となる領域を求めることを特徴とする。
In the mobile body position detection system according to
また、本発明の請求項4に係る移動体位置検出方法は、平面上を移動する移動体の位置を検出する移動体位置検出方法であって、前記平面上には複数のドットからなるドットパターンが配置され、前記移動体には前記移動体が位置する平面上の領域を撮像する撮像手段が備えられ、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行い、照合された照合ドット候補から所定の照合ドットに絞り込み、絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出することを特徴とする。
A moving body position detecting method according to
本発明によれば、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備える。このため、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保することができるという効果を奏する。 According to the present invention, there is provided a moving body position detection system that detects a position of a moving body that moves on a plane, the dot pattern including a plurality of dots arranged on the plane, and the moving body, An error between an imaging unit that captures an area on a plane on which the moving body is located, a dot in the image acquired by the imaging unit, and a dot in the pole star database of the Pole Star algorithm corresponding to the dot is calculated. Pole star collation means that performs pole star collation using the pole star feature amount for which the likelihood for absorption is set, and a narrowing means for narrowing down to a predetermined collation dot from the collation dot candidates collated by the pole star collation means, Based on the positional relationship of the dot pattern composed of the predetermined collation dots narrowed down by the narrowing-down means, Comprising a detection means for detecting the position and direction. For this reason, it is difficult to cause a verification failure when the Polestar algorithm is used, and the detection reliability can be ensured.
以下に、本発明に係る移動体位置検出システムおよび方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of a moving body position detection system and method according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
図1に示すように、本発明に係る移動体位置検出システム10は、建物内の床面(平面)12上に配置されたドットパターン14と、移動体16に備えられ、移動体16とともに床面12上を移動する移動体位置検出装置18とから構成されている。ここで、移動体16とは、例えば搬送台車、ロボット、人間等である。ドットパターン14は、印刷や描画等の手段によって床面12上にランダムに配置されている。
As shown in FIG. 1, a moving body
移動体位置検出装置18は、移動体16が位置する床面12上の領域を撮像する撮像手段20と、ポールスター特徴量格納手段22と、ポールスター照合手段24と、絞り込み手段26と、撮像手段20によって撮像した画像に基づいて移動体16の位置を検出する検出手段28と、を備える。
The moving body
撮像手段20は、CCDカメラ等の画像取得装置である。撮像手段20は移動体16に固定されており、移動体16とともに移動しながら、移動体16の位置する床面12上の領域を所定の時間間隔で撮像し、図2に示したような画像を取得する。本実施の形態では、高速度カメラを用いて、例えば10ms程度の時間間隔で画像を取得している。また、図1に示すように、撮像手段20と床面12との間の距離は数センチメートルであり、照明30を用いることで、外乱光の影響の少ない画像を取得することができる。
The imaging means 20 is an image acquisition device such as a CCD camera. The imaging means 20 is fixed to the moving
ポールスター特徴量格納手段22は、図3に示すように、移動体16の検出を行う前に、床面12上のドットパターン14におけるすべてのドット32のポールスター特徴量を予め算出し、これをポールスターデータベース34に格納するためのものである。
As shown in FIG. 3, the pole star feature quantity storage means 22 calculates in advance the pole star feature quantity of all
ポールスター照合手段24は、取得画像中の複数のドット32から所定のドット32aを選択し、ドット32aや周辺に位置する複数のドット32b1〜32b5等から得られるポールスター特徴量を、予め作成したポールスターデータベース34と照合するためのものである。
The pole
ここで、このポールスター照合手段24は、尤度を設定したポールスター特徴量を用いて、ポールスター照合を行うものである。ここで、この尤度は、撮像手段20により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース34中のドットとの間の誤差を吸収するためのものである。
Here, the pole star collating means 24 performs pole star collation using the pole star feature quantity for which the likelihood is set. Here, this likelihood is for absorbing an error between the dot in the image acquired by the imaging means 20 and the dot in the
絞り込み手段26は、ポールスター照合手段24により照合された照合ドット候補から所定の照合ドットに絞り込むためのものである。 The narrowing means 26 is for narrowing down the matching dot candidates collated by the pole star matching means 24 to a predetermined matching dot.
検出手段28は、絞り込み手段26により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、移動体16の床面12上での現在位置および方向を検出するというものである。
The detecting means 28 detects the current position and direction of the moving
以下に、本発明の実施例1〜4について説明する。 Examples 1-4 of the present invention will be described below.
[実施例1]
図4に示すように、本発明の実施例1は、画像取得して画像中の点にラベリングをし(ステップS11)、この画像点群を用いてポールスター照合手段24で尤度を導入したポールスター照合を行い(ステップS12)、照合床点候補群について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS13)、検出手段28でカメラ位置・方向の計算をし(ステップS14)、照合率による確認をする(ステップS15)という手順である。
[Example 1]
As shown in FIG. 4, in the first embodiment of the present invention, an image is acquired and a point in the image is labeled (step S <b> 11), and the likelihood is introduced by the pole star matching means 24 using this image point group. Pole star collation is performed (step S12), the collation floor point candidate group is collated with a combination of distances between point groups by the narrowing means 26 (step S13), and the detection means 28 calculates the camera position and direction ( Step S14) is a procedure of confirming by the collation rate (Step S15).
次に、実施例1の具体的な処理手順について図30〜図44を参照しながら説明する。
(1)ポールスター特徴量のビット表現
図30に示すように、ポールスター特徴量をビットで表現したポールスタービットを作成する。
Next, a specific processing procedure of the first embodiment will be described with reference to FIGS.
(1) Bit Representation of Pole Star Feature Amount As shown in FIG. 30, a pole star bit that represents a pole star feature is represented by a bit.
(2)ポールスターデータベース行列(以下、PSD行列という。)の作成
図31に示すように、各データベース点(P1〜Pmax)のポールスター特徴量を計算する。それぞれビット表現して縦方向に並べることで、PSD行列を作成する。
(2) Creation of Pole Star Database Matrix (hereinafter referred to as PSD Matrix) As shown in FIG. 31, the Pole Star feature amount of each database point (P1 to Pmax) is calculated. A PSD matrix is created by expressing each bit and arranging them vertically.
(3)画像点のポールスター照合
図32に示すように、ある画像点についてポールスター特徴量を計算する。
次に、前述のPSD行列を用いて、図33に示すような演算を行う。各データベース点と注目している画像点のアーム長インデックスの一致数が一致アームカウンタとして計算される。一致アームカウンタの中で、最大値をとる要素が、照合点となる。
(3) Pole Star Collation of Image Points As shown in FIG. 32, pole star feature values are calculated for a certain image point.
Next, an operation as shown in FIG. 33 is performed using the PSD matrix described above. The number of matches between each database point and the arm length index of the image point of interest is calculated as a match arm counter. The element that takes the maximum value in the coincidence arm counter is the collation point.
(4)尤度の追加
実際の各画像点には誤差があるので、ポールスター特徴量のアーム長インデックスもポールスターデータベース中の対応データベース点とは異なっている。この誤差を吸収するために、ポールスターデータベースに尤度(幅)を持たせる。
(4) Addition of likelihood Since each actual image point has an error, the arm length index of the pole star feature amount is also different from the corresponding database point in the pole star database. In order to absorb this error, a likelihood (width) is given to the pole star database.
例えば、図34に示すように、PSD行列の各データベース点のポールスタービットに対して1に隣接する左右のビットに尤度に応じた幅の1を設定することで実現する。
For example, as shown in FIG. 34, it is realized by setting the
このことにより、誤差は吸収され、誤差のために画像点のポールスタービットの1の位置が尤度範囲内でずれたとしても、一致アームカウンタの対応するデータベース点の位置に正照合時と同じアーム長インデックス一致数が出力される。ただし、アーム長インデックスの一致は全体として増加するため、最大一致数をとるデータベース点が正しい対応データベース点以外に複数あらわれることが考えられる。 As a result, the error is absorbed, and even if the position of 1 of the pole star bit of the image point is shifted within the likelihood range due to the error, the position of the corresponding database point of the matching arm counter is the same as that at the time of positive matching. The number of arm length index matches is output. However, since the match of the arm length index increases as a whole, it is conceivable that a plurality of database points having the maximum number of matches appear in addition to the correct corresponding database points.
(5)ポールスター照合後の絞込み
データベースによる照合時点では、一つの画像点に対して複数のデータベース点が照合する可能性がある。また、ゴミや点の消失などがあると照合したデータベース点の中には間違えが紛れ込んでいる可能性もある。そこで、正しく対応している画像点群とデータベース点群の間では、任意の2つの画像点の距離とその画像点に対応する2つのデータベース点の距離は一致することを利用して、多くの照合点候補から正しい照合点を絞り込む。
(5) Narrowing after Pole Star verification At the time of verification by the database, there is a possibility that a plurality of database points will be verified against one image point. In addition, there is a possibility that mistakes are included in the database points that are collated when there is dust or missing points. Therefore, between the image point group and the database point group that correspond correctly, the distance between any two image points and the distance between the two database points corresponding to the image point coincide with each other. Narrow down the correct matching points from the matching point candidates.
(5−1)画像点群データとデータベース点群データの準備
図35に示すように、データベース点候補と画像点が一対一となるように画像点群データとデータベース点群データを準備する。
(5-1) Preparation of Image Point Cloud Data and Database Point Cloud Data As shown in FIG. 35, image point cloud data and database point cloud data are prepared so that the database point candidates and the image points are in a one-to-one relationship.
画像点は、データベース点候補に対応して設定する。つまり、1つの画像点に複数のデータベース点候補があった場合には、画像点も同一の画像点をデータベース点候補に対応して複数設ける。 Image points are set corresponding to database point candidates. That is, when there are a plurality of database point candidates for one image point, a plurality of the same image points are provided corresponding to the database point candidates.
画像点間の相互距離を計算して、図36に示すような行列imgArmLsMtxが得られる。また、対応する照合データベース点間の相互距離を計算して、図37に示すような行列flrArmLsMtxが得られる。ここで、各要素は、行に相当する点と列に相当する点の間の距離を表す。ただし、同一の画像点に対応したデータベース点間の距離はNAとする。 By calculating the mutual distance between the image points, a matrix imgArmLsMtx as shown in FIG. 36 is obtained. Also, the mutual distance between corresponding matching database points is calculated to obtain a matrix flrArmLsMtx as shown in FIG. Here, each element represents a distance between a point corresponding to a row and a point corresponding to a column. However, the distance between database points corresponding to the same image point is NA.
次に、imgArmLsMtxと、flrArmLsMtxで距離差を求め、尤度の範囲内の場合には要素を1とする。この演算は、例えば、図38に示すようなソースコードを用いて行うことができる。なお、NAの要素については、0とする。この演算により、図39に示すような行列MchArmLsMtxが得られる。 Next, the distance difference is obtained from imgArmLsMtx and flrArmLsMtx, and the element is set to 1 when the distance is within the likelihood range. This calculation can be performed using, for example, a source code as shown in FIG. Note that the NA element is 0. By this calculation, a matrix MchArmLsMtx as shown in FIG. 39 is obtained.
図40に示すように、MchArmLsMtxを列方向に和算すると、各データベース点についてそれを起点とした他のデータベース点までの距離が、対応する画像点と他の画像点までの距離と一致した数が算出される。行列の中で、距離の一致数が最も少ない行および列を削除する。 As shown in FIG. 40, when MchArmLsMtx is summed in the column direction, the number of the distance from each database point to the other database point starting from it corresponds to the distance from the corresponding image point to the other image point. Is calculated. Delete the rows and columns with the smallest number of distance matches in the matrix.
再度、列方向に和算すると、残ったデータベース点に対して同様の一致数が計算される。この操作を全ての一致数が等しくなるまで繰り返す。 When summing up again in the column direction, the same number of matches is calculated for the remaining database points. This operation is repeated until all the matching numbers are equal.
画像点間相互距離と対応するデータベース点間相互距離が全て一致する場合には、一致数は、点数−1となり、残った画像点群とデータベース点群の組は、それぞれの点群の相対位置関係が幾何学的に一致していると考えられる。なお、これは鏡映関係の場合も含む。 When the mutual distance between the image points and the corresponding mutual distance between the database points all match, the number of matches is −1, and the set of the remaining image point group and database point group is the relative position of each point group. The relationship is considered to be geometrically consistent. This includes the case of mirroring.
(6)カメラ位置・方向の算出
図41に示すように、画像点群と床点群の座標値を用いてカメラの位置・方向を算出する。図42に示すような演算式から、床座標系からみた画像座標原点の位置・方向が求められる。
(6) Calculation of Camera Position / Direction As shown in FIG. 41, the camera position / direction is calculated using the coordinate values of the image point group and the floor point group. The position / direction of the image coordinate origin as seen from the floor coordinate system is obtained from an arithmetic expression as shown in FIG.
画像点群の位置・方向からの移動体の位置および方向は、以下の演算式により算定することができる。
位置=[x,y]
方向θ=tan−1((−c1×c2/s1×s2)1/2)
The position and direction of the moving body from the position and direction of the image point group can be calculated by the following arithmetic expression.
Position = [x, y]
Direction θ = tan −1 ((−c1 × c2 / s1 × s2) 1/2 )
(7)照合率の計算
(ア)アドレス行列の作成(オフライン)
図43に示すように、事前に床を升目状のブロックにエリア分割し、ブロック単位でアドレスを振る。各アドレスでの点の有無を調べて、アドレスに対応した行列(以下、アドレス行列という。)を用意し、アドレスでの点が有る場合には1を、ない場合には0を代入しておく。
(7) Calculation of collation rate (a) Creation of address matrix (offline)
As shown in FIG. 43, the floor is divided into square blocks in advance and addresses are assigned in units of blocks. The presence or absence of a point at each address is examined, a matrix corresponding to the address (hereinafter referred to as an address matrix) is prepared, and 1 is substituted if there is a point at the address, and 0 is substituted if there is no point. .
(イ)照合率
図44に示すように、求められた移動体位置・方向を元に、画像中の画像点全てを床座標系へ座標変換する。変換された座標に対応するアドレス行列に点が存在する割合を求めて、照合率とする。
(A) Collation rate As shown in FIG. 44, all image points in the image are coordinate-converted to the floor coordinate system based on the obtained moving body position and direction. The ratio at which points exist in the address matrix corresponding to the converted coordinates is obtained and used as the matching rate.
このため、本発明の実施例1によれば、点分布照合に幅を持たせることで照合過程で正しい照合が排除されることを防ぎ、従来のアルゴリズムで発生するおそれがある誤照合や照合不能といった照合不良を起こし難くすることができる。また、取得画像中の点群相互間距離と床の照合点候補群相互間距離がすべて一致する組み合わせを求める手法により、画像点群と床照合点群の組を抽出し、多照合といった照合不良を起こし難くすることができる。 For this reason, according to the first embodiment of the present invention, it is possible to prevent the correct collation from being eliminated in the collation process by giving a wide range of the point distribution collation, and it is possible to prevent the erroneous collation or collation that may occur in the conventional algorithm. It is possible to make it difficult to cause a verification failure. In addition, by using a method to find a combination in which the distance between the point clouds in the acquired image and the distance between the floor matching point candidate groups all match, the image point cloud and floor matching point cloud pairs are extracted, and matching failure such as multiple matching Can be made difficult.
また、照合結果としてのカメラ位置方向検出値を使って、画像中の全点(画像座標系)を床座標系へ座標変換し、各点の座標位置に対応したアドレス行列の要素が1である割合(=照合率)を算出する。この割合が規定以下の場合には不確実な検出として排除することで、出力値の信頼性を確保することができる。 Also, using the camera position direction detection value as the matching result, all the points (image coordinate system) in the image are coordinate-converted to the floor coordinate system, and the address matrix element corresponding to the coordinate position of each point is 1. A ratio (= collation rate) is calculated. If this ratio is less than the specified value, the reliability of the output value can be ensured by eliminating it as an uncertain detection.
また、本発明では自然発生的なランダム点群パターンを位置検出に利用できるため、以下の(1)、(2)の効果が見込まれる。 Further, in the present invention, since the spontaneous random point cloud pattern can be used for position detection, the following effects (1) and (2) are expected.
(1)チップ材混入による床パターンへの応用
工場などで利用が多い塗り床のように、床上への印刷が困難、あるいは、コストがかかるものに対しても、塗り床材にチップを混入することによりランダム点群パターンを作成することで、位置検出用の床として利用することが可能となる。また、床タイルについても、製造工程の中でチップ材を混入し表面にランダム点群パターンを作成することができるタイプのものがあるが、こういったタイプの床タイルにも適用可能となる。
(1) Application to floor pattern by mixing chip material Chips are mixed into the flooring material even if it is difficult or costly to print on the floor, such as a painted floor that is frequently used in factories. Thus, by creating a random point cloud pattern, it can be used as a floor for position detection. Also, some floor tiles are of a type in which a chip material can be mixed in the manufacturing process and a random point cloud pattern can be created on the surface, but this is also applicable to such types of floor tiles.
(2)広い床への対応
一般にタイル印刷の場合には、印刷の版の種類が限定的になるため、広い範囲で異なる点分布パターンを実現することは困難である。自然発生的なランダム点群パターンでは、類似性のない点分布が広い範囲で実現できるため、広い床における位置検出に対応することができる。
(2) Correspondence to a wide floor Generally, in the case of tile printing, since the types of printing plates are limited, it is difficult to realize different point distribution patterns in a wide range. In a naturally occurring random point cloud pattern, a point distribution with no similarity can be realized in a wide range, so that position detection on a wide floor can be supported.
[実施例2]
本発明の実施例2は、正しい候補点群は、撮像中の点分布の範囲に収まって分布していることを利用して、正しい候補点のあるデータベース中の床領域を絞り込むものである。
[Example 2]
The second embodiment of the present invention narrows down the floor area in the database having the correct candidate points by utilizing the fact that the correct candidate point group is distributed within the range of the point distribution being imaged.
具体的の処理手順としては、図5に示すように、本発明の実施例2は、画像取得して画像中の点にラベリングをし(ステップS21)、この画像点群を用いてポールスター照合手段24で尤度を導入したポールスター照合を行い(ステップS22)、照合床点候補群1について絞り込み手段26で床点分布可能エリアの計算を行い(ステップS23)、各分布可能エリアを求め(ステップS24)、分布可能エリア内の床点を抽出する(ステップS25)。 As a specific processing procedure, as shown in FIG. 5, in the second embodiment of the present invention, an image is acquired, and a point in the image is labeled (step S21). Pole star matching in which likelihood is introduced is performed by means 24 (step S22), and floor spot distributable areas are calculated by means of narrowing means 26 for collating floor point candidate group 1 (step S23) to obtain each distributable area ( In step S24), floor points in the distributable area are extracted (step S25).
そして、照合床点候補群2について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS26)、検出手段28でカメラ位置・方向の計算をし(ステップS27)、照合率の計算と最大照合率エリアの抽出を行って(ステップS28)、最大照合率のエリアのカメラ位置・方向を求め(ステップS29)、最大照合率の確認をする(ステップS30)という手順である。
Then, the collation floor
つまり、絞り込み手段26が、ポールスター照合手段24により照合された照合ドット候補について照合ドット候補が存在する所定の共通領域を求め、共通領域内に存在する照合ドットに絞り込む処理を含むようにしたものである。 That is, the narrowing-down means 26 includes processing for obtaining a predetermined common area where the matching dot candidates exist for the matching dot candidates collated by the pole star matching means 24 and narrowing down to the matching dots existing in the common area. It is.
ところで、上記の実施例1の処理では、場合によっては、多照合による必要な計算メモリが増大する可能性が考えられる。つまり、取得画像中の画像点数が少ない、あるいは、画像点の点分布が一様に近い場合には、ポールスター特徴量を構成するアーム長インデックスの数が少ないケースなどが発生する。この場合、データベースの多くの点が照合候補となるため、多くの計算メモリが必要となり、実質上計算の継続が困難になる場合があった。 By the way, in the processing of the above-described first embodiment, there is a possibility that the calculation memory required for the multiple matching may increase depending on the case. That is, when the number of image points in the acquired image is small or the point distribution of the image points is almost uniform, there may be a case where the number of arm length indexes constituting the Polestar feature amount is small. In this case, since many points in the database are candidates for verification, a large amount of calculation memory is required, and it may be difficult to continue the calculation substantially.
そこで、この実施例2の処理においては、正しい候補点群は、撮像中の点分布の範囲に収まって分布していることを利用して、正しい候補点のあるデータベース中の床領域を絞り込む。任意の画像点を中心とし、それと最も遠い距離にある画像点までの直線を半径とする円内に、他の画像点が存在している。このとき、対応するデータベース点についても同様の関係が成り立つことを利用して、対応するデータベース点の存在する領域を求め、照合候補データベース点をその領域内のものに制限することで絞り込みを行う。このようにすることで、上記の実施例1の課題を解決することができる。 Therefore, in the process of the second embodiment, the floor area in the database having the correct candidate points is narrowed down by using the fact that the correct candidate point group is distributed within the range of the point distribution being imaged. Other image points exist within a circle centered at an arbitrary image point and having a radius of a straight line to the image point farthest from the arbitrary image point. At this time, using the fact that the same relationship holds for the corresponding database points, the region where the corresponding database points exist is obtained, and the collation candidate database points are limited to those in that region, and narrowing down is performed. By doing in this way, the subject of said Example 1 can be solved.
[照合点存在共通領域]
例えば、図6に示すように、画像点C1を中心として最も遠い距離にある点はC4であり、その距離がRだったとすると、C1に対応するデータベース点f1を中心として半径Rの円内に他画像点に対応するデータベース点は存在する。したがって、各画像点に対して、同様の他点群存在範囲半径を求め、対応する各照合候補データベース点を中心とした円を描き、その和領域を照合点存在領域とすると、正しく対応する点群は、各画像点に対する照合点存在領域の重なりが最も多く重なっている領域(=照合点存在共通領域)に入っている。
[Common area for matching points]
For example, as shown in FIG. 6, if the distance from the image point C1 as the center is C4 and the distance is R, the database point f1 corresponding to C1 is centered within the circle of radius R. There are database points corresponding to other image points. Therefore, if the same other point group existence range radius is obtained for each image point, a circle centered on each corresponding matching candidate database point is drawn, and the sum area is set as the matching point existence area, the corresponding point correctly The group is included in the region where the overlapping of the matching point existence regions with respect to the respective image points is overlapped most (= the matching point existence common region).
ステップS22のポールスター照合+尤度の処理後の照合点候補についてこの共通領域を求め、共通領域内に存在する点に絞り込むことで、照合点候補を大幅に削減することができる。 By obtaining this common region for the matching point candidates after the processing of the pole star matching + likelihood in step S22 and narrowing down to points existing in the common region, the matching point candidates can be greatly reduced.
[重なり数の設定]
また、ゴミ点が画像点に紛れ込んでいる場合には、誤った照合点存在領域があるため、最大の重なり領域では、正しい対応データベース点が排除される可能性があるため、照合点存在共通領域とする最小の重なり数は、画像点数から混入するであろうゴミの数を引いた数より小さく設定する。
[Setting the number of overlaps]
In addition, when dust points are mixed in with image points, there is an erroneous matching point existence area, and in the largest overlapping area, a correct corresponding database point may be excluded. Is set to be smaller than the number obtained by subtracting the number of dust that will be mixed from the number of image points.
[複数共通領域の取り扱い]
照合点存在共通領域は、複数存在する可能性がある。その場合には、各領域について個別に照合候補点群を求め、照合率の計算を行う。最後に各領域での照合率の計算結果から、最も照合率の高い領域の照合点群を答えとする。
[Handling multiple common areas]
There may be a plurality of collation point existence common regions. In that case, a collation candidate point group is individually obtained for each region, and a collation rate is calculated. Finally, based on the calculation result of the matching rate in each region, the matching point group in the region with the highest matching rate is set as the answer.
この実施例2によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the second embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be obtained.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.
[実施例3]
本発明の実施例3は、照合するデータベースの床エリアをあらかじめ分割し、その分割エリア内での照合を行うものである。全分割エリアの照合後、計算された各分割エリアでの照合率を元に、最も照合率の高いエリアの結果を正しい答えとして出力する。
[Example 3]
In the third embodiment of the present invention, the floor area of the database to be collated is divided in advance, and collation is performed within the divided area. After collating all the divided areas, the result of the area with the highest collation rate is output as a correct answer based on the calculated collation rate in each divided area.
具体的の処理手順としては、図7に示すように、画像取得して画像中の点にラベリングをし(ステップS31)、ポールスター照合手段24で探索床エリアを分割するとともに(ステップS32)、各探索エリアについて尤度を導入したポールスター照合を行う(ステップS33、S34)。 As a specific processing procedure, as shown in FIG. 7, an image is acquired and labeled at a point in the image (step S31), and the search floor area is divided by the pole star matching means 24 (step S32). Pole star matching in which likelihood is introduced for each search area is performed (steps S33 and S34).
そして、照合床点候補群2について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS35)、照合率の計算と最大照合率エリアの抽出を行って(ステップS36)、検出手段28で最大照合率のエリアのカメラ位置・方向を求め(ステップS37)、最大照合率の確認をする(ステップS38)という手順である。
Then, the collation floor
つまり、ポールスター照合手段24が、ポールスターデータベース34における照合範囲を複数の領域に分割してこの各領域でポールスター照合を行い、照合率が最大となる領域を求めるものである。
In other words, the pole star collation means 24 divides the collation range in the
ところで、上記の実施例1の処理では、場合によっては、多照合による必要な計算メモリが増大する可能性が考えられる。つまり、取得画像中の画像点数が少ない、あるいは、画像点の点分布が一様に近い場合には、ポールスター特徴量を構成するアーム長インデックスの数が少ないケースなどが発生する。この場合、データベースの多くの点が照合候補となるため、多くの計算メモリが必要となり、実質上計算の継続が困難になる場合があった。 By the way, in the processing of the above-described first embodiment, there is a possibility that the calculation memory required for the multiple matching may increase depending on the case. That is, when the number of image points in the acquired image is small or the point distribution of the image points is almost uniform, there may be a case where the number of arm length indexes constituting the Polestar feature amount is small. In this case, since many points in the database are candidates for verification, a large amount of calculation memory is required, and it may be difficult to continue the calculation substantially.
しかしながら、この実施例3の処理においては、照合するデータベースの床エリアをあらかじめ分割し、その分割エリア内での照合を行い、全分割エリアの照合後、計算された各分割エリアでの照合率を元に、最も照合率の高いエリアの結果を正しい答えとして出力するので、上記の実施例1の課題を解決することができる。 However, in the processing of the third embodiment, the floor area of the database to be collated is divided in advance, collation is performed in the divided area, and after the collation of all the divided areas, the calculated collation rate in each divided area is calculated. Originally, the result of the area with the highest collation rate is output as a correct answer, so that the problem of the first embodiment can be solved.
[照合床エリアの分割]
図8に示すように、対象とする照合床エリアを適当な大きさに分割する。例えば、画像視野の25倍くらいの大きさとする。
[Split floor area division]
As shown in FIG. 8, the target verification floor area is divided into an appropriate size. For example, the size is about 25 times the image field of view.
[照合および結果]
各照合床分割エリアで、ポールスター照合+尤度および点群相互間距離組み合わせ照合を行い、照合率を計算する。最大の照合率を得た領域の検出値を答えとする。
[Verification and results]
In each verification floor division area, pole star verification + likelihood and inter-point distance combination verification are performed, and a verification rate is calculated. The detected value of the area where the maximum matching rate is obtained is taken as the answer.
この実施例3によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the third embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be achieved.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.
[実施例4]
本発明の実施例4は、上記の実施例3の照合床エリアの分割と、実施例2の点群存在共通領域の絞り込みを組み合わせた手法であり、上記の実施例1の課題を解決することができる。
[Example 4]
The fourth embodiment of the present invention is a method that combines the division of the verification floor area of the third embodiment and the narrowing down of the point cloud presence common area of the second embodiment, and solves the problem of the first embodiment. Can do.
具体的な処理手順としては、図9に示すように、画像取得して画像中の点にラベリングをし(ステップS41)、ポールスター照合手段24で探索床エリアを分割するとともに(ステップS42)、各探索エリアについて尤度を導入したポールスター照合を行う(ステップS43、S44)。照合床点候補群1について絞り込み手段26で床点分布エリアの計算を行い(ステップS45)、各分布エリアを求め(ステップS46)、分布エリア内の床点を抽出する(ステップS47)。 As a specific processing procedure, as shown in FIG. 9, the image is acquired and labeled at a point in the image (step S41), and the search floor area is divided by the pole star matching means 24 (step S42). Pole star matching in which likelihood is introduced for each search area is performed (steps S43 and S44). The floor spot distribution area is calculated by the narrowing means 26 for the verification floor point candidate group 1 (step S45), each distribution area is obtained (step S46), and the floor points in the distribution area are extracted (step S47).
そして、照合床点候補群2について点群相互間距離の組み合わせの照合を行って(ステップS48)、検出手段28でカメラ位置・方向の計算をし(ステップS49)、照合率の計算と最大照合率エリアの抽出を行って(ステップS50)、最大照合率のエリアのカメラ位置・方向を求め(ステップS51)、探索エリアでの最大照合率とその時のカメラ位置・方向の保存を行い(ステップS52、S53)、最大照合率の確認をする(ステップS54)という手順である。 Then, the combination of the distances between the point groups is collated for the collation floor point candidate group 2 (step S48), the camera position / direction is calculated by the detecting means 28 (step S49), and the collation rate calculation and the maximum collation are performed. The rate area is extracted (step S50), the camera position / direction of the area with the maximum matching rate is obtained (step S51), and the maximum matching rate in the search area and the camera position / direction at that time are stored (step S52). , S53), and the maximum collation rate is confirmed (step S54).
つまり、照合床エリアを適切な大きさで分割して、各照合床分割エリアの照合について、尤度を考慮したポールスター照合の後、点群存在共通領域(複数)を計算する。各点群存在共通領域内の照合候補点群について点群相互間距離組み合わせ照合を行い、カメラの位置・方向の計算を実施後、照合率の計算をする。全ての点群存在領域について計算し、当該の照合分割エリアでの最大照合率とその時のカメラ位置・方向とする。これを全ての照合分割エリアについて実施し、最終的に、全ての照合分割エリアで最も照合率の高かったカメラの位置・方向を検出結果とする。 That is, the collation floor area is divided by an appropriate size, and for the collation of each collation floor divided area, the point cloud existence common region (plurality) is calculated after the pole star collation considering the likelihood. The point group mutual distance combination matching is performed on the matching candidate point groups in each point group existing common area, the position / direction of the camera is calculated, and then the matching rate is calculated. The calculation is performed for all point cloud existence areas, and the maximum collation rate in the corresponding collation division area and the camera position / direction at that time are obtained. This is performed for all the collation division areas, and finally, the position / direction of the camera having the highest collation rate in all the collation division areas is set as the detection result.
この実施例4によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the fourth embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be achieved.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.
次に、本発明の応用例1、応用例2について説明する。本発明に係る移動体位置検出システム10は、病院や工場等における搬送システムに応用可能である。
Next, application examples 1 and 2 of the present invention will be described. The moving body
[本発明の応用例1]
まず、本発明の応用例1として、ロボットを用いた病院デリバリーサービスに応用する場合について説明する。
[
First, as application example 1 of the present invention, a case of applying to a hospital delivery service using a robot will be described.
まず、従来技術の課題について説明する。従来、病院の入院患者が雑誌などの商品を購入したい場合には、通常、患者自身が病院内の売店に移動して購入するが、大型病院においては、患者が居る病室から売店までの距離が遠い場合があり、患者にとって利便性が低い。また、患者が自力で移動できない場合もある。こうした環境下にある患者に対応するために、売店での購入・配達を代行するデリバリーサービスを導入している病院がある。しかし、このような病院においては、サービスに係る人件費が発生したり、サービスを享受できる人数に限りがあり、患者に迅速に配達できないなどの問題があった。 First, the problems of the prior art will be described. Conventionally, when a hospital inpatient wants to purchase a product such as a magazine, the patient usually moves to a store in the hospital and purchases it. However, in a large hospital, the distance from the hospital room where the patient is located to the store is large. It may be far away and is not convenient for the patient. In some cases, the patient cannot move on his own. There are hospitals that have introduced delivery services on behalf of purchases and deliveries at retail stores to deal with patients in such an environment. However, in such hospitals, there have been problems such as incurring labor costs for services and the limited number of people who can enjoy services, and being unable to deliver quickly to patients.
そこで、本発明に係る移動体位置検出システム10をこのデリバリーサービスに応用し、患者に対する新たなサービスを提供する。具体的には、移動体位置検出システム10における移動体16を商品配達ロボットして用い、患者は、病室のベッドサイドに設けた端末機器からデリバリーしたい商品を注文する。すると、売店のロボットは、注文を受けた商品を、端末機器の置かれたベッドサイドまで配達するように移動する。この移動は、例えば、売店から端末機器までの移動ルートを、床面上に描いたドットパターンを用いて端末機器毎に紐付けしておき、所定の端末機器からの注文信号を受けた際に、その所定の端末機器にロボットが自動的に移動するように設定しておくことで可能である。これにより、病室のベッドサイドまでロボットが入って行くことができる。なお、ロボットの移動ルートや移動に関するルールは適宜自由に設定してもよい。
Then, the mobile body
このように、本発明を病院内のデリバリーサービスに適用すると、ロボットを床面に描いたドットパターンで誘導することができる。このため、従来必要であった配達ロボットを誘導するための誘導線を廊下、病室内に敷設する大掛かりな工事は必要なくなる。また、床面に描いたドットパターンで誘導することから、将来的な建物内のレイアウト変更にも柔軟に対応することができる。また、人ではなくロボットが配達することから、従来の病院内のデリバリーサービスに比べて人件費が掛からず、ランニングコストを抑えることができる。さらに、ロボットによる配達距離を短くすることで、リードタイムを短縮でき、患者の満足度を向上することができる。 Thus, when the present invention is applied to a delivery service in a hospital, the robot can be guided with a dot pattern drawn on the floor surface. For this reason, a large-scale construction for laying a guide line for guiding a delivery robot, which has been necessary in the past, in a corridor or a hospital room is not necessary. In addition, since guidance is performed using a dot pattern drawn on the floor surface, it is possible to flexibly cope with future layout changes in the building. In addition, since the robot is delivered instead of the person, the labor cost is not incurred compared to the conventional hospital delivery service, and the running cost can be suppressed. Furthermore, by shortening the delivery distance by the robot, the lead time can be shortened and the patient's satisfaction can be improved.
[本発明の応用例2]
次に、本発明の応用例2として、平倉庫フリーロケーション管理に応用する場合について説明する。
[
Next, as application example 2 of the present invention, a case where it is applied to flat warehouse free location management will be described.
まず、従来技術の課題について説明する。従来、平倉庫において固定棚を用いずにパレット等を保管する場合の在庫ロケーション管理方法として主に以下の技術が知られている。 First, the problems of the prior art will be described. Conventionally, the following techniques are mainly known as inventory location management methods in the case of storing pallets or the like without using a fixed shelf in a flat warehouse.
(1)図10に示すように、床にライン50を引き、エリアを区画して柱52に合わせた柱番号などで保管エリアIDを認識し、荷物と紐付けを行う。
(1) As shown in FIG. 10, the
(2)図11に示すように、決められた荷姿の荷物60(パレットなど)に合わせてグリッドを設定し、その天井に固有のIDを発信する超音波発信器62を設置する。フォークリフト70で荷物60をグリッドに置いたときのその天井にある超音波発信器62から発信されるIDを、フォークリフト70に設置したリーダー64でロケーションを読み取り、荷物と紐付けを行う。
(3)上記の(2)と同様であるが、図11に示すように、超音波発信器62でなく床にパッシブ式RFID66を埋め込み、フォークリフト70に設置したリーダー68でIDを読み取る。
(2) As shown in FIG. 11, a grid is set in accordance with a package 60 (such as a pallet) in a predetermined packing form, and an
(3) Similar to (2) above, but as shown in FIG. 11, the
しかし、上記の(1)では、エリアには複数の荷物が存在するので、荷物の詳細な位置を迅速に把握することができない。また、人手による作業を伴うので人為的ミスによるロケーションの間違いが発生するおそれがある。 However, in the above (1), since there are a plurality of packages in the area, the detailed position of the packages cannot be quickly grasped. Further, since manual work is involved, there is a risk that a location error due to human error may occur.
また、上記の(2)、(3)では、図12(a)に示すように、荷物を一定方向に向けて配置する必要がある。荷物60とフォークリフト70に取り付けたリーダー64(68)の位置に差があるためである。図12(b)に示すように、横から置くと超音波発信器62やRFID66の位置とリーダー64、68に位置ずれが生じ対応できなくなる。さらに、図13(a)に示すように、荷物の荷姿が同じ形態でなければならず、図13(b)に示すように、超音波発信器62やRFID66の配置に対して、異なる寸法のパレットの混在やパレットとカゴ車など別の種類の荷物には対応できない。
Further, in the above (2) and (3), as shown in FIG. 12 (a), it is necessary to arrange the luggage in a certain direction. This is because there is a difference in the positions of the
そこで、本発明に係る移動体位置検出システム10をこの平倉庫フリーロケーション管理に応用する。具体的には、図14および図15に示すように、移動体位置検出システム10における移動体16をフォークリフト70や人として、カメラ(撮像手段20)をこれらに取り付ける。一方、床面または天井面にドットパターン32を描画して、カメラ20が撮像した画像によりフォークリフト70や人の位置や向きを検出し、平倉庫のどこに荷物を置いたかを自動的に認識する。
Therefore, the moving body
また、荷物60の平面中心とカメラ20の距離を予め所定の値に設定しておき、カメラ20の撮像画像によって荷物の中心を認識させることで、図16(a)、(b)に示すように、どの方向からも荷物の位置を認識できるようになり、形態が異なる荷物を様々な方向から平倉庫内に置くことができる。このため、平倉庫の利用態様の自由度が高まり、入出庫作業の効率化が図れる。また、上記の従来技術においては、施工時にパレットの数だけ超音波発信器またはRFIDを設置して、IDとロケーションを登録する必要があったが、これをする必要がなくなる。
Also, the distance between the plane center of the
以上説明したように、本発明によれば、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備える。このため、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保することができる。 As described above, according to the present invention, there is provided a moving body position detection system that detects the position of a moving body that moves on a plane, the dot pattern including a plurality of dots arranged on the plane, and An imaging unit that is provided in the moving body and images a region on a plane on which the moving body is located, a dot in an image acquired by the imaging unit, and a dot in a pole star database of a pole star algorithm corresponding to the dot A pole star matching unit that performs pole star matching using a pole star feature amount that is set with a likelihood for absorbing an error between and a matching dot from a matching dot candidate verified by the pole star matching unit Based on the positional relationship between the narrowing-down means narrowed down to a predetermined pattern and the dot pattern composed of the predetermined collation dots narrowed down by the narrowing-down means. Te, and a detection means for detecting a current position and direction of the moving body. For this reason, it is difficult to cause a verification failure when the Polestar algorithm is used, and the reliability of detection can be ensured.
以上のように、本発明に係る移動体位置検出システムおよび方法は、建物内の床面上などの平面上に配置した移動体の位置検出に有用であり、特に、位置検出アルゴリズムとしてポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保するのに適している。 As described above, the mobile object position detection system and method according to the present invention are useful for detecting the position of a mobile object placed on a plane such as a floor surface in a building, and in particular, the pole star algorithm as a position detection algorithm. It is suitable for ensuring the reliability of detection by making it difficult to cause a verification failure when using.
10 移動体位置検出システム
12 床面(平面)
14 ドットパターン
16 移動体
18 移動体位置検出装置
20 撮像手段
22 ポールスター特徴量格納手段
24 ポールスター照合手段
26 絞り込み手段
28 検出手段
30 照明
32 ドット
34 ポールスターデータベース
10 Moving body
DESCRIPTION OF
Claims (4)
前記平面上に配置された複数のドットからなるドットパターンと、
前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、
前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、
前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、
前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、
を備えることを特徴とする移動体位置検出システム。 A moving body position detection system for detecting a position of a moving body moving on a plane,
A dot pattern consisting of a plurality of dots arranged on the plane;
An imaging means provided in the moving body for imaging a region on a plane on which the moving body is located;
Pole using a pole star feature that sets the likelihood to absorb the error between the dot in the image acquired by the imaging means and the dot in the pole star database of the pole star algorithm corresponding to this dot Pole star verification means for performing star verification,
Narrowing means for narrowing down the matching dot candidates collated by the pole star matching means to a predetermined matching dot;
Detecting means for detecting a current position and direction of the moving body based on a positional relationship of a dot pattern made up of predetermined matching dots narrowed down by the narrowing means;
A moving body position detection system comprising:
前記平面上には複数のドットからなるドットパターンが配置され、
前記移動体には前記移動体が位置する平面上の領域を撮像する撮像手段が備えられ、
前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行い、照合された照合ドット候補から所定の照合ドットに絞り込み、絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出することを特徴とする移動体位置検出方法。 A moving body position detection method for detecting a position of a moving body moving on a plane,
A dot pattern consisting of a plurality of dots is arranged on the plane,
The moving body is provided with imaging means for imaging a region on a plane where the moving body is located,
Pole using a pole star feature that sets the likelihood to absorb the error between the dot in the image acquired by the imaging means and the dot in the pole star database of the pole star algorithm corresponding to this dot Star matching is performed, the collation dot candidates that have been collated are narrowed down to a predetermined collation dot, and the current position and direction of the moving body are detected based on the positional relationship of the dot pattern that includes the narrowed down collation dots. A moving body position detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010079663A JP5483090B2 (en) | 2010-03-30 | 2010-03-30 | Mobile object position detection system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010079663A JP5483090B2 (en) | 2010-03-30 | 2010-03-30 | Mobile object position detection system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011210183A true JP2011210183A (en) | 2011-10-20 |
JP5483090B2 JP5483090B2 (en) | 2014-05-07 |
Family
ID=44941134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010079663A Active JP5483090B2 (en) | 2010-03-30 | 2010-03-30 | Mobile object position detection system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5483090B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015138530A (en) * | 2014-01-24 | 2015-07-30 | 清水建設株式会社 | Mobile body position detection system and method |
JP2015138531A (en) * | 2014-01-24 | 2015-07-30 | 清水建設株式会社 | Mobile body position detection system and method |
JP2016118824A (en) * | 2014-12-18 | 2016-06-30 | 清水建設株式会社 | Moving body position detection system and method |
WO2016163492A1 (en) * | 2015-04-10 | 2016-10-13 | 日本電気株式会社 | Position determining device, position determining method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200777A (en) * | 1993-12-28 | 1995-08-04 | Hitachi Ltd | Location estimating method in mobile object |
-
2010
- 2010-03-30 JP JP2010079663A patent/JP5483090B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200777A (en) * | 1993-12-28 | 1995-08-04 | Hitachi Ltd | Location estimating method in mobile object |
Non-Patent Citations (1)
Title |
---|
JPN6013025229; 村澤 一樹(外3名): '床パターンを利用した自己位置同定手法に関する検討(その2)' 第27回日本ロボット学会学術講演会 , 20090915, RSJ2009AC1F3-6, 社団法人日本ロボット学会 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015138530A (en) * | 2014-01-24 | 2015-07-30 | 清水建設株式会社 | Mobile body position detection system and method |
JP2015138531A (en) * | 2014-01-24 | 2015-07-30 | 清水建設株式会社 | Mobile body position detection system and method |
JP2016118824A (en) * | 2014-12-18 | 2016-06-30 | 清水建設株式会社 | Moving body position detection system and method |
WO2016163492A1 (en) * | 2015-04-10 | 2016-10-13 | 日本電気株式会社 | Position determining device, position determining method, and program |
JPWO2016163492A1 (en) * | 2015-04-10 | 2018-03-15 | 日本電気株式会社 | Position specifying device, position specifying method and program |
US10433119B2 (en) | 2015-04-10 | 2019-10-01 | Nec Corporation | Position determination device, position determining method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5483090B2 (en) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6746819B1 (en) | High-speed warehouse placement method, equipment and storage medium | |
CN108416403B (en) | Method, system, equipment and storage medium for automatically associating commodity with label | |
US11093896B2 (en) | Product status detection system | |
US9928438B2 (en) | High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database | |
JP5637355B2 (en) | Mobile object position detection system and method | |
JP6731423B2 (en) | Apparatus and method for navigation control | |
US10823572B2 (en) | Method, system and apparatus for generating navigational data | |
US20120191272A1 (en) | Inferential load tracking | |
CN109154826A (en) | collaborative inventory monitoring | |
KR20210087568A (en) | System and method for dynamic inventory management | |
US20120126000A1 (en) | Load tracking utilizing load identifying indicia and spatial discrimination | |
JP2011219229A (en) | Cargo location management device | |
JP5483090B2 (en) | Mobile object position detection system and method | |
US20150066551A1 (en) | Flow line data analysis device, system, program and method | |
CN206312215U (en) | A kind of mobile unit and stock article management system | |
JP2020015576A (en) | Automatic warehouse system | |
US20210276802A1 (en) | Article Transport Vehicle | |
JP2017088345A (en) | Inspection processing device, inspection system, inspection processing method and program | |
CN112824990A (en) | Cargo information detection method and system, robot and processing terminal | |
US11543249B2 (en) | Method, system and apparatus for navigational assistance | |
CN112183679B (en) | Method, client, server and system for positioning electronic price tag | |
US11592826B2 (en) | Method, system and apparatus for dynamic loop closure in mapping trajectories | |
WO2022114173A1 (en) | Tracking device, tracking method, data structure of tracking data, and program | |
JP7130423B2 (en) | Parts information management system and parts information management program | |
TWI703506B (en) | Carrier tracking system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5483090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |