JP2011210183A - Mobile object position detection system and method - Google Patents

Mobile object position detection system and method Download PDF

Info

Publication number
JP2011210183A
JP2011210183A JP2010079663A JP2010079663A JP2011210183A JP 2011210183 A JP2011210183 A JP 2011210183A JP 2010079663 A JP2010079663 A JP 2010079663A JP 2010079663 A JP2010079663 A JP 2010079663A JP 2011210183 A JP2011210183 A JP 2011210183A
Authority
JP
Japan
Prior art keywords
collation
dot
moving body
matching
pole star
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010079663A
Other languages
Japanese (ja)
Other versions
JP5483090B2 (en
Inventor
Yutaro Fukase
勇太郎 深瀬
Yoji Kanamori
洋史 金森
Yoshiaki Takemoto
喜昭 竹本
Masaru Taga
優 多賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2010079663A priority Critical patent/JP5483090B2/en
Publication of JP2011210183A publication Critical patent/JP2011210183A/en
Application granted granted Critical
Publication of JP5483090B2 publication Critical patent/JP5483090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mobile object position detection system in which reliability of detection is secured by making it difficult to generate poor collation when pole star algorithm is used.SOLUTION: The mobile object position detection system 10 detects a position of a mobile object 16 which moves on a plane 12, and includes: a pole star collation means 24 which performs pole star collation using pole star feature quantity in which likelihood for absorbing an error between dots in the image obtained by the imaging means 20 and dots in the pole star database 34 corresponding to the dots is set; a narrowing down means 26 for narrowing down dots from collation dot candidates collated by the pole star collation means 24 to a predetermined collation dot; and a detection means 28 for detecting the current position and the direction of the mobile object 16 based on position relation of dot pattern consisting of the predetermined collation dot narrowed down by the narrowing down means 26.

Description

本発明は、移動体位置検出システムおよび方法に関するものである。   The present invention relates to a moving body position detection system and method.

従来、平面上に配置したパターン(模様)を利用して、平面上を移動する移動体の位置の検出を行う方法が知られている(例えば、特許文献1参照)。   Conventionally, a method of detecting the position of a moving body moving on a plane using a pattern (pattern) arranged on the plane is known (for example, see Patent Document 1).

これに対し、本発明者内の一部を含む発明者らは、既に特願2008−274680号および特願2008−274681号の移動体位置検出システムを提案している。   On the other hand, the inventors including a part of the present inventors have already proposed moving body position detection systems of Japanese Patent Application Nos. 2008-274680 and 2008-274681.

この移動体位置検出システムは、図17および図18に示すように、既知のドットパターン3が描画してある床面2上に配置した移動体4から床面2を撮像し、撮像した画像中にあるドット5のドットパターン3の特徴量を、床面2全体のドットパターン3の特徴量が格納されたデータベース6と照合することで、撮像した画像中のドットが床面2上のどのドットに相当するのかを割り出し、床面2上における移動体4の位置を検出するものである。   As shown in FIGS. 17 and 18, the moving body position detection system images the floor surface 2 from the moving body 4 arranged on the floor surface 2 on which the known dot pattern 3 is drawn. By comparing the feature amount of the dot pattern 3 of the dot 5 with the database 6 in which the feature amount of the dot pattern 3 of the entire floor surface 2 is stored, which dot on the floor surface 2 The position of the moving body 4 on the floor surface 2 is detected.

一方、カメラによる撮像位置および方向を判別する技術として、スウェーデンのアノト社が開発したデジタルペン技術が知られている(関連文献として特許文献1がある)。これは、図19に示すように、ユニークなドットパターン80が印刷された紙とカメラ81内蔵のペン82を用い、文字を書く際のペン先83の紙面上での位置を検出し、これをデジタルデータとして記録するものである。ドットパターン80は、XY位置座標値を符号化パターンにしたものであり、逆に符号化パターンを復元することでXY座標値を得ることができる。ただし、この技術は、規定のコードを表現するドットパターン80を正確に描く必要があり、自然発生的なドットパターンを利用した位置検出はできないという問題がある。   On the other hand, a digital pen technique developed by Anoto, Sweden, is known as a technique for discriminating the position and direction of an image taken by a camera (Patent Document 1 is a related document). As shown in FIG. 19, a paper on which a unique dot pattern 80 is printed and a pen 82 built in the camera 81 are used to detect the position on the paper surface of the pen tip 83 when writing a character. It is recorded as digital data. The dot pattern 80 is obtained by converting the XY position coordinate value into an encoded pattern. Conversely, the XY coordinate value can be obtained by restoring the encoded pattern. However, this technique has a problem that it is necessary to accurately draw the dot pattern 80 expressing the specified code, and position detection using a naturally occurring dot pattern cannot be performed.

また、図20に示すように、2次元情報がコード化された模様84を平面85上に描画し、それをカメラ86で読み取って位置を検出する技術が知られている(例えば、特許文献2参照)。この技術は、数種類の図形でパターンを描画することが前提となっており、デザイン上の制約がある。例えば、ドットのみでパターンを構成することはできない。   As shown in FIG. 20, a technique is known in which a pattern 84 in which two-dimensional information is encoded is drawn on a plane 85 and is read by a camera 86 to detect the position (for example, Patent Document 2). reference). This technique is based on the premise that a pattern is drawn with several types of figures, and has design restrictions. For example, a pattern cannot be configured with only dots.

また、宇宙空間で宇宙機87の姿勢同定に使われる機器(スターセンサー)に用いる撮像恒星点群の恒星配置図88(スターマップ)への照合アルゴリズムとして、ポールスターアルゴリズムが知られている(例えば、非特許文献1参照)。図21に示すように、スターセンサーは、宇宙機87に搭載されたカメラで天空89を撮像し、撮像領域の恒星点の配列を既知のスターマップ88と照合することによりカメラの向いている姿勢を特定するセンサーである。恒星の配置は自然発生的であり必ずしも均一に点は分布していないが、ポールスターアルゴリズムは、このような対象に対する照合に有効である。   In addition, a pole star algorithm is known as a matching algorithm to a star arrangement diagram 88 (star map) of an imaging star point group used for a device (star sensor) used for attitude identification of the spacecraft 87 in outer space (for example, Non-Patent Document 1). As shown in FIG. 21, the star sensor captures the sky 89 with a camera mounted on the spacecraft 87, and the orientation of the camera by matching the arrangement of star points in the imaging region with a known star map 88. It is a sensor that identifies Stellar placement is naturally occurring and does not necessarily distribute points uniformly, but the Polestar algorithm is effective for matching such objects.

このポールスターアルゴリズムは、平面上にランダムに広く点が分散しているとき、一部分の点分布から、その部分の平面上の位置を特定する方法である。このアルゴリズムの概略の処理手順は、図22に示すように、画像取得して画像中の点にラベリングをし(ステップS1)、この画像点群を用いてポールスター照合を行い(ステップS2)、星点候補群について多角形照合を行って(ステップS3)、カメラ姿勢の計算をする(ステップS4)という手順である。   This Polestar algorithm is a method for specifying the position of a part on the plane from the point distribution of the part when the points are widely distributed randomly on the plane. As shown in FIG. 22, the outline processing procedure of this algorithm is to acquire an image, label the points in the image (step S1), perform pole star matching using the image point group (step S2), This is a procedure of performing polygon matching on the star candidate group (step S3) and calculating the camera posture (step S4).

ここで、ステップS2のポールスター照合においては、平面上の任意の点を中心として規定半径の円内に存在する周辺点までの直線は、複数存在するが、その複数の直線の長さの組み合わせは、その中心点に関して特有のものであることを利用している。このような各点周辺の点分布を表す特徴量をポールスター特徴量として定義する。この特徴量に関するデータベースは、図23に示すステップS5〜S8の処理により、オフラインで事前に作成しておく。   Here, in the pole star collation in step S2, there are a plurality of straight lines from an arbitrary point on the plane to a peripheral point existing within a circle with a specified radius, but the combination of the lengths of the plurality of straight lines Makes use of what is unique about its central point. A feature amount representing the point distribution around each point is defined as a pole star feature amount. The database relating to the feature amount is previously created offline in advance by the processing of steps S5 to S8 shown in FIG.

そして、取得画像中の各画像点のポールスター特徴量をデータベースと照合することで照合星点(データベース点)候補を求める。ステップS3の多角形照合においては、画像点を結んで作った多角形による照合により照合候補点群から幾何学的な関係が画像点群と整合性のある候補を選別する。そして、ステップS4において、残った画像点群と照合点群の座標値の組み合わせから撮像カメラ姿勢・位置を計算する。   And the collation star point (database point) candidate is calculated | required by collating the pole star feature-value of each image point in an acquired image with a database. In the polygon collation in step S3, candidates having a geometric relationship with the image point group are selected from the collation candidate point groups by collation using polygons formed by connecting image points. In step S4, the imaging camera posture / position is calculated from the combination of the coordinate values of the remaining image point group and collation point group.

次に、図23の各ステップの処理内容について、図24〜図29を参照しながら具体的に説明する。
(1)ポールスター特徴量の計算(ステップS6)
図24に示すように、ある点(Pn)を中心として規定の分布半径R内に存在する周辺点までの直線の長さ(以下、アーム長という。)を求め、アーム長を単位長さDで分割してインデックス化する(以下、アーム長インデックスという。)。
Next, the processing contents of each step in FIG. 23 will be specifically described with reference to FIGS.
(1) Calculation of pole star feature quantity (step S6)
As shown in FIG. 24, the length of a straight line (hereinafter referred to as an arm length) from a certain point (Pn) to a peripheral point existing within a specified distribution radius R is obtained, and the arm length is determined as a unit length D. To be indexed (hereinafter referred to as an arm length index).

ai=fix(ri/D)+1
amax=fix(R/D)+1
ここで、ri:アーム長、ai:アーム長インデックス、D:インデックス単位長さ、R:分布半径、amax:最大アーム長インデックスである。また、fixは小数点以下を切り捨てて整数値を返す演算子である。
ai = fix (ri / D) +1
amax = fix (R / D) +1
Here, ri: arm length, ai: arm length index, D: index unit length, R: distribution radius, amax: maximum arm length index. Also, fix is an operator that returns an integer value by truncating the decimal part.

アーム長インデックスの組み合わせをその点周辺の点分布を表す特徴量(以下、ポールスター特徴量という。)とする。ここで、中心点に対して同一のアーム長インデックスが複数計算されても、ポールスター特徴量としてのアーム長インデックス列は変わらない。   A combination of arm length indexes is a feature amount representing a point distribution around the point (hereinafter referred to as a pole star feature amount). Here, even if the same arm length index is calculated for the center point, the arm length index string as the pole star feature quantity does not change.

(2)ポールスターデータベースの作成(ステップS7〜S8:オフライン)
対象とする点(以下、データベース点という。)全てについて、上記の(1)のポールスター特徴量を計算し、ルックアップテーブルとして整理し蓄積する(ステップS7)。
(2) Creation of the pole star database (steps S7 to S8: offline)
For all the target points (hereinafter referred to as database points), the above-mentioned pole star feature values of (1) are calculated, organized and stored as a lookup table (step S7).

ルックアップテーブルは、図25に示すように、1〜amaxの各アーム長インデックスに対して、そのアーム長インデックスをポールスター特徴量中にもつデータベース点を羅列することで整理した表である。   As shown in FIG. 25, the look-up table is a table organized by listing database points having arm length indexes in the pole star feature amount for each arm length index of 1 to amax.

(3)ポールスター照合(ステップS2:オンライン)
カメラで画像を取得し、取得した画像中の各点(以下、画像点という。)の位置を抽出する。図26に示すように、取得画像の画像点についてポールスター特徴量を計算する。
(3) Pole star verification (Step S2: Online)
An image is acquired with a camera, and the position of each point (hereinafter referred to as an image point) in the acquired image is extracted. As shown in FIG. 26, the pole star feature is calculated for the image points of the acquired image.

画像点のポールスター特徴量中の各アーム長インデックスについて、図25のルックアップテーブルを使って、図27に示すように、そのアーム長インデックスをもつデータベース点(複数)を調べる。   With respect to each arm length index in the pole star feature quantity of the image point, the database point (plurality) having the arm length index is examined as shown in FIG. 27 using the lookup table of FIG.

また、図28に示すように、各データベース点(P1〜Pmax)に対応したカウンタを用意し、上記の処理でデータベース点が出てくる毎に対応する点のカウンタをインクリメントする。   Further, as shown in FIG. 28, a counter corresponding to each database point (P1 to Pmax) is prepared, and the counter of the corresponding point is incremented every time a database point appears in the above processing.

最大カウンタ値をとる点が画像点に対応する照合点候補となる。各画像点のポールスター特徴量について同様の処理を行うことで各画像点に対する照合点候補が求められる。カウンタには下限を設定し、最大カウンタ値がこの下限以下の場合には、当該の画像点に関して照合不能とし、その画像点は以降の照合の対象から除く。   The point having the maximum counter value is a matching point candidate corresponding to the image point. By performing the same processing on the pole star feature amount of each image point, a matching point candidate for each image point is obtained. A lower limit is set for the counter, and when the maximum counter value is less than or equal to this lower limit, the image point is not verified, and the image point is excluded from subsequent verification targets.

(4)多角形照合(ステップS3:オンライン)
上記の(3)で得られた各画像点に対応するデータベース点に対して、図29に示すように、いくつかの画像点を結んで作った多角形と、それらの画像点に対応するデータベース点を結んで作った多角形とが一致する点の組み合わせを選ぶことで、一致確度の高い画像点とデータベース点の組み合わせを求める。図29においては、1、3、4、7の点の組が最終的に照合されている。
(4) Polygon matching (Step S3: Online)
For the database points corresponding to the image points obtained in (3) above, as shown in FIG. 29, a polygon formed by connecting several image points and a database corresponding to these image points. By selecting a combination of points that match a polygon created by connecting the points, a combination of image points and database points with high matching accuracy is obtained. In FIG. 29, a set of points 1, 3, 4, and 7 are finally collated.

(5)カメラ姿勢計算による位置・方向の算出(ステップS4:オンライン)
上記の(4)で得られた3点以上の画像点と照合点のXY座標値の組み合わせから、カメラの姿勢(位置・方向)を求める。
(5) Position / direction calculation by camera posture calculation (Step S4: Online)
From the combination of the three or more image points obtained in (4) above and the XY coordinate values of the matching points, the posture (position / direction) of the camera is obtained.

特開2006−141061号公報JP 2006-141061 A 特開2008−52403号公報JP 2008-52403 A

E. SILANI, M. LOVERA : Ploitecnico di Milano Italy, “Star Identification Algorithms : Novel Approach & Comparison Study”, IEEE Transactions on Aerospace and Electronic Systems, Vol.42, No.4 October 2006E. SILANI, M. LOVERA: Ploitecnico di Milano Italy, “Star Identification Algorithms: Novel Approach & Comparison Study”, IEEE Transactions on Aerospace and Electronic Systems, Vol.42, No.4 October 2006

ところで、上記の従来の移動体位置検出システムの平面上の点群照合のアルゴリズムとして上記のポールスターアルゴリズムをそのまま適用すると、誤った点と照合する問題(以下、誤照合という。)、照合ができない問題(以下、照合不能という。)、多くの点と照合して特定できない問題(以下、多照合という。)が発生するおそれがある。このような照合不良は、上記のスターマップ照合と平面上の点群照合の前提条件の違いにより引き起こると考えられる。これら照合の前提条件およびその違いは以下のとおりである。   By the way, if the above-mentioned Pole Star algorithm is applied as it is as an algorithm for point group collation on the plane of the above-mentioned conventional mobile object position detection system, there is a problem of collating with an incorrect point (hereinafter referred to as erroneous collation), and collation cannot be performed. There is a possibility that a problem (hereinafter referred to as “unmatched”) and a problem (hereinafter referred to as “multiple matching”) that cannot be identified by checking many points may occur. Such a collation failure is considered to be caused by a difference in the preconditions of the star map collation and the point cloud collation on the plane. The prerequisites for these verifications and their differences are as follows.

[スターマップ照合の前提条件]
(1)レンズの歪やカメラの姿勢に起因する撮像面上の恒星点間の相対的位置関係の変動は極めて少ない。
(2)上記の(1)により、恒星点の位置を画像中で極めて細かい分解能で計算できる。
(3)スターマップ中の恒星点数(データベース点)は、等級(輝度を表す)により選別でき、おおよそ数千程度である。
[Prerequisites for star map matching]
(1) The relative positional relationship between the star points on the imaging surface due to lens distortion and camera posture is extremely small.
(2) According to the above (1), the position of the star point can be calculated in the image with extremely fine resolution.
(3) The number of star points (database points) in the star map can be selected by grade (representing luminance) and is approximately several thousand.

[平面上の点群照合の前提条件]
(1)広角レンズを用いるためレンズ歪が大きく、かつ、点群のある平面までの対物距離が短いため、カメラ姿勢変動による点間の相対的位置関係の変動は無視できないほど大きい。
(2)処理速度の向上を図るため、撮像解像度を高くできないとともに、上記の(1)により、点位置を細かい分解能で算出できない。
(3)点群数(データベース点)は、対象とする平面の広さによるが、約20平米程度で数万個とスターマップに比べて多い。
[Preconditions for point cloud matching on a plane]
(1) Since a wide-angle lens is used, the lens distortion is large, and the objective distance to a plane with a point cloud is short. Therefore, the change in the relative positional relationship between the points due to the camera posture change is so large that it cannot be ignored.
(2) Since the processing speed is improved, the imaging resolution cannot be increased, and the point position cannot be calculated with a fine resolution according to the above (1).
(3) The number of point groups (database points) depends on the size of the target plane, but is about 20 square meters, which is tens of thousands, more than the star map.

上記の(1)の条件の違いにより、誤照合および照合不能の問題が発生し、上記の(2)、(3)の条件の違いにより、多照合の問題が発生するおそれがある。   Due to the difference in the condition (1), there is a possibility that a problem of incorrect collation and inability to collate occurs, and due to the difference in the conditions (2) and (3), a problem of multiple matching may occur.

本発明は、上記に鑑みてなされたものであって、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保した移動体位置検出システムおよび方法を提供することを目的とする。   The present invention has been made in view of the above, and provides a mobile body position detection system and method that ensure detection reliability by making it difficult to cause a verification failure when using the Polestar algorithm. Objective.

上記した課題を解決し、目的を達成するために、本発明の請求項1に係る移動体位置検出システムは、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, a mobile body position detection system according to claim 1 of the present invention is a mobile body position detection system that detects the position of a mobile body that moves on a plane, A dot pattern composed of a plurality of dots arranged on the plane; an imaging means provided in the moving body for imaging an area on the plane on which the moving body is located; and dots in an image acquired by the imaging means And a pole star matching means for performing a pole star matching using a pole star feature that sets a likelihood to absorb an error between the dots in the pole star database of the pole star algorithm corresponding to this dot, Narrowing means for narrowing the matching dot candidates collated by the pole star matching means to a predetermined matching dot, and narrowing by the narrowing means Based on the positional relationship between the dot pattern consisting of predetermined matching dots, characterized in that it comprises a detection means for detecting a current position and direction of the moving body.

また、本発明の請求項2に係る移動体位置検出システムは、上述した請求項1において、前記絞り込み手段は、前記ポールスター照合手段により照合された照合ドット候補について照合ドット候補が存在する所定の共通領域を求め、前記共通領域内に存在する照合ドットに絞り込む処理を含むことを特徴とする。   According to a second aspect of the present invention, there is provided the mobile object position detection system according to the first aspect, wherein the narrowing-down means has a predetermined matching dot candidate for the matching dot candidate verified by the pole star verification means. The method includes a process of obtaining a common area and narrowing down to collation dots existing in the common area.

また、本発明の請求項3に係る移動体位置検出システムは、上述した請求項1または2において、前記ポールスター照合手段は、前記ポールスターデータベースにおける照合範囲を複数の領域に分割してこの各領域でポールスター照合を行い、照合率が最大となる領域を求めることを特徴とする。   In the mobile body position detection system according to claim 3 of the present invention, in the above-described claim 1 or 2, the pole star collating unit divides the collation range in the pole star database into a plurality of regions. Pole star matching is performed in the area, and the area where the matching rate is maximized is obtained.

また、本発明の請求項4に係る移動体位置検出方法は、平面上を移動する移動体の位置を検出する移動体位置検出方法であって、前記平面上には複数のドットからなるドットパターンが配置され、前記移動体には前記移動体が位置する平面上の領域を撮像する撮像手段が備えられ、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行い、照合された照合ドット候補から所定の照合ドットに絞り込み、絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出することを特徴とする。   A moving body position detecting method according to claim 4 of the present invention is a moving body position detecting method for detecting the position of a moving body moving on a plane, and a dot pattern comprising a plurality of dots on the plane. The moving body is provided with imaging means for imaging a region on a plane on which the moving body is located. A dot in an image acquired by the imaging means and a pole of the Polestar algorithm corresponding to the dot Pole star matching is performed using the pole star feature value that sets the likelihood to absorb the error with the dots in the star database, and the specified matching dots are narrowed down from the verified matching dot candidates The present invention is characterized in that the current position and direction of the moving body are detected based on the positional relationship of the dot pattern consisting of the matching dots.

本発明によれば、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備える。このため、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保することができるという効果を奏する。   According to the present invention, there is provided a moving body position detection system that detects a position of a moving body that moves on a plane, the dot pattern including a plurality of dots arranged on the plane, and the moving body, An error between an imaging unit that captures an area on a plane on which the moving body is located, a dot in the image acquired by the imaging unit, and a dot in the pole star database of the Pole Star algorithm corresponding to the dot is calculated. Pole star collation means that performs pole star collation using the pole star feature amount for which the likelihood for absorption is set, and a narrowing means for narrowing down to a predetermined collation dot from the collation dot candidates collated by the pole star collation means, Based on the positional relationship of the dot pattern composed of the predetermined collation dots narrowed down by the narrowing-down means, Comprising a detection means for detecting the position and direction. For this reason, it is difficult to cause a verification failure when the Polestar algorithm is used, and the detection reliability can be ensured.

図1は、本発明に係る移動体位置検出システムの実施例を示す構成図である。FIG. 1 is a configuration diagram showing an embodiment of a moving body position detection system according to the present invention. 図2は、ドットパターンと取得画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of a dot pattern and an acquired image. 図3は、取得画像から位置を検出する概念を説明する図である。FIG. 3 is a diagram for explaining the concept of detecting a position from an acquired image. 図4は、本発明の実施例1を示すフローチャート図である。FIG. 4 is a flowchart showing the first embodiment of the present invention. 図5は、本発明の実施例2を示すフローチャート図である。FIG. 5 is a flowchart showing the second embodiment of the present invention. 図6は、照合点存在領域を説明する図である。FIG. 6 is a diagram for explaining the collation point existence region. 図7は、本発明の実施例3を示すフローチャート図である。FIG. 7 is a flowchart showing the third embodiment of the present invention. 図8は、照合床エリアの分割を説明する図である。FIG. 8 is a diagram for explaining the division of the verification floor area. 図9は、本発明の実施例4を示すフローチャート図である。FIG. 9 is a flowchart showing Embodiment 4 of the present invention. 図10は、従来の在庫ロケーション管理(1)を示す平面図である。FIG. 10 is a plan view showing conventional inventory location management (1). 図11は、従来の在庫ロケーション管理(2)、(3)を示す側面図である。FIG. 11 is a side view showing conventional inventory location management (2), (3). 図12は、従来の在庫ロケーション管理(2)、(3)を示す平面図である。FIG. 12 is a plan view showing conventional inventory location management (2), (3). 図13は、従来の在庫ロケーション管理(2)、(3)を示す平面図である。FIG. 13 is a plan view showing conventional inventory location management (2), (3). 図14は、本発明に係る移動体位置検出システムを在庫ロケーション管理に応用した場合の斜視図である。FIG. 14 is a perspective view when the mobile body position detection system according to the present invention is applied to inventory location management. 図15は、本発明に係る移動体位置検出システムを在庫ロケーション管理に応用した場合の平面図である。FIG. 15 is a plan view when the mobile body position detection system according to the present invention is applied to inventory location management. 図16は、本発明に係る移動体位置検出システムを在庫ロケーション管理に応用した場合の斜視図である。FIG. 16 is a perspective view when the mobile body position detection system according to the present invention is applied to inventory location management. 図17は、従来の移動体位置検出システムの概略構成図である。FIG. 17 is a schematic configuration diagram of a conventional mobile body position detection system. 図18は、従来の移動体位置検出システムのドットパターンと取得画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of a dot pattern and an acquired image of a conventional moving body position detection system. 図19は、従来のデジタルペン技術を示す図である。FIG. 19 is a diagram showing a conventional digital pen technique. 図20は、従来のコード化された模様による位置検出技術を示す図である。FIG. 20 is a diagram illustrating a conventional position detection technique based on a coded pattern. 図21は、従来の宇宙機の姿勢同定に使われるスターセンサー技術を示す図である。FIG. 21 is a diagram showing a star sensor technique used for attitude identification of a conventional spacecraft. 図22は、従来のスターセンサー技術に用いられるポールスターアルゴリズムの要部フローチャート図である。FIG. 22 is a main part flowchart of the Polestar algorithm used in the conventional star sensor technology. 図23は、従来のスターセンサー技術に用いられるポールスターアルゴリズムのフローチャート図である。FIG. 23 is a flowchart of the Polestar algorithm used in the conventional star sensor technology. 図24は、ポールスター特徴量を説明する図である。FIG. 24 is a diagram illustrating the pole star feature amount. 図25は、ルックアップテーブルを示す図である。FIG. 25 is a diagram illustrating a lookup table. 図26は、画像点のポールスター特徴量を説明する図である。FIG. 26 is a diagram illustrating the pole star feature amount of an image point. 図27は、アーム長インデックスとデータベース点の対応を示す図である。FIG. 27 is a diagram showing the correspondence between arm length indexes and database points. 図28は、ルックアップテーブルを使った照合を説明する図である。FIG. 28 is a diagram illustrating collation using a lookup table. 図29は、多角形照合の概念を説明する図である。FIG. 29 is a diagram for explaining the concept of polygon matching. 図30は、ポールスタービットを説明する図である。FIG. 30 is a diagram illustrating the pole star bit. 図31は、ポールスターデータベース行列の作成を説明する図である。FIG. 31 is a diagram for explaining the creation of a pole star database matrix. 図32は、ポールスター特徴量とポールスタービットを説明する図である。FIG. 32 is a diagram for explaining the pole star feature quantity and the pole star bit. 図33は、ポールスターデータベース行列による演算式を示す図である。FIG. 33 is a diagram illustrating an arithmetic expression using a Polestar database matrix. 図34は、尤度を±1と設定した場合のポールスターデータベースを説明する図である。FIG. 34 is a diagram for explaining a pole star database when the likelihood is set to ± 1. 図35は、画像点と対応する照合点候補を説明する図である。FIG. 35 is a diagram for explaining matching point candidates corresponding to image points. 図36は、imgArmLsMtxを示す図である。FIG. 36 is a diagram showing imgArmLsMtx. 図37は、flrArmLsMtxを示す図である。FIG. 37 is a diagram showing flrArmLsMtx. 図38は、ソースコードの一例を示す図である。FIG. 38 is a diagram illustrating an example of source code. 図39は、mchArmLsMtxを示す図である。FIG. 39 is a diagram showing mchArmLsMtx. 図40は、列方向の和算の繰り返しを説明する図である。FIG. 40 is a diagram illustrating repetition of summation in the column direction. 図41は、残った画像点群−データベース点群の組を示す図である。FIG. 41 is a diagram showing the remaining image point group-database point group pairs. 図42は、位置・方向を求める行列演算式を示す図である。FIG. 42 is a diagram showing a matrix operation expression for obtaining a position / direction. 図43は、アドレス行列の作成を説明する図である。FIG. 43 is a diagram for explaining the creation of an address matrix. 図44は、照合率の計算を説明する図である。FIG. 44 is a diagram for explaining the calculation of the collation rate.

以下に、本発明に係る移動体位置検出システムおよび方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of a moving body position detection system and method according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

図1に示すように、本発明に係る移動体位置検出システム10は、建物内の床面(平面)12上に配置されたドットパターン14と、移動体16に備えられ、移動体16とともに床面12上を移動する移動体位置検出装置18とから構成されている。ここで、移動体16とは、例えば搬送台車、ロボット、人間等である。ドットパターン14は、印刷や描画等の手段によって床面12上にランダムに配置されている。   As shown in FIG. 1, a moving body position detection system 10 according to the present invention is provided in a dot pattern 14 disposed on a floor surface (plane) 12 in a building and a moving body 16. The moving object position detecting device 18 moves on the surface 12. Here, the moving body 16 is, for example, a transport cart, a robot, a human being, or the like. The dot pattern 14 is randomly arranged on the floor 12 by means such as printing or drawing.

移動体位置検出装置18は、移動体16が位置する床面12上の領域を撮像する撮像手段20と、ポールスター特徴量格納手段22と、ポールスター照合手段24と、絞り込み手段26と、撮像手段20によって撮像した画像に基づいて移動体16の位置を検出する検出手段28と、を備える。   The moving body position detection device 18 includes an imaging unit 20 that captures an area on the floor 12 where the moving unit 16 is located, a pole star feature amount storage unit 22, a pole star collating unit 24, a narrowing unit 26, and an imaging unit. Detecting means 28 for detecting the position of the moving body 16 based on the image captured by the means 20.

撮像手段20は、CCDカメラ等の画像取得装置である。撮像手段20は移動体16に固定されており、移動体16とともに移動しながら、移動体16の位置する床面12上の領域を所定の時間間隔で撮像し、図2に示したような画像を取得する。本実施の形態では、高速度カメラを用いて、例えば10ms程度の時間間隔で画像を取得している。また、図1に示すように、撮像手段20と床面12との間の距離は数センチメートルであり、照明30を用いることで、外乱光の影響の少ない画像を取得することができる。   The imaging means 20 is an image acquisition device such as a CCD camera. The imaging means 20 is fixed to the moving body 16, and while moving with the moving body 16, the area on the floor 12 where the moving body 16 is located is imaged at predetermined time intervals, and an image as shown in FIG. To get. In the present embodiment, images are acquired at a time interval of about 10 ms, for example, using a high-speed camera. As shown in FIG. 1, the distance between the imaging unit 20 and the floor surface 12 is several centimeters, and by using the illumination 30, an image with little influence of disturbance light can be acquired.

ポールスター特徴量格納手段22は、図3に示すように、移動体16の検出を行う前に、床面12上のドットパターン14におけるすべてのドット32のポールスター特徴量を予め算出し、これをポールスターデータベース34に格納するためのものである。   As shown in FIG. 3, the pole star feature quantity storage means 22 calculates in advance the pole star feature quantity of all dots 32 in the dot pattern 14 on the floor 12 before detecting the moving body 16, Is stored in the pole star database 34.

ポールスター照合手段24は、取得画像中の複数のドット32から所定のドット32aを選択し、ドット32aや周辺に位置する複数のドット32b〜32b等から得られるポールスター特徴量を、予め作成したポールスターデータベース34と照合するためのものである。 The pole star collating unit 24 selects a predetermined dot 32a from a plurality of dots 32 in the acquired image, and previously calculates a pole star feature amount obtained from the dot 32a, a plurality of dots 32b 1 to 32b 5 and the like located in the vicinity. This is for collation with the created pole star database 34.

ここで、このポールスター照合手段24は、尤度を設定したポールスター特徴量を用いて、ポールスター照合を行うものである。ここで、この尤度は、撮像手段20により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース34中のドットとの間の誤差を吸収するためのものである。   Here, the pole star collating means 24 performs pole star collation using the pole star feature quantity for which the likelihood is set. Here, this likelihood is for absorbing an error between the dot in the image acquired by the imaging means 20 and the dot in the pole star database 34 of the pole star algorithm corresponding to this dot.

絞り込み手段26は、ポールスター照合手段24により照合された照合ドット候補から所定の照合ドットに絞り込むためのものである。   The narrowing means 26 is for narrowing down the matching dot candidates collated by the pole star matching means 24 to a predetermined matching dot.

検出手段28は、絞り込み手段26により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、移動体16の床面12上での現在位置および方向を検出するというものである。   The detecting means 28 detects the current position and direction of the moving body 16 on the floor surface 12 based on the positional relationship of the dot pattern consisting of the predetermined collation dots narrowed down by the narrowing means 26.

以下に、本発明の実施例1〜4について説明する。   Examples 1-4 of the present invention will be described below.

[実施例1]
図4に示すように、本発明の実施例1は、画像取得して画像中の点にラベリングをし(ステップS11)、この画像点群を用いてポールスター照合手段24で尤度を導入したポールスター照合を行い(ステップS12)、照合床点候補群について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS13)、検出手段28でカメラ位置・方向の計算をし(ステップS14)、照合率による確認をする(ステップS15)という手順である。
[Example 1]
As shown in FIG. 4, in the first embodiment of the present invention, an image is acquired and a point in the image is labeled (step S <b> 11), and the likelihood is introduced by the pole star matching means 24 using this image point group. Pole star collation is performed (step S12), the collation floor point candidate group is collated with a combination of distances between point groups by the narrowing means 26 (step S13), and the detection means 28 calculates the camera position and direction ( Step S14) is a procedure of confirming by the collation rate (Step S15).

次に、実施例1の具体的な処理手順について図30〜図44を参照しながら説明する。
(1)ポールスター特徴量のビット表現
図30に示すように、ポールスター特徴量をビットで表現したポールスタービットを作成する。
Next, a specific processing procedure of the first embodiment will be described with reference to FIGS.
(1) Bit Representation of Pole Star Feature Amount As shown in FIG. 30, a pole star bit that represents a pole star feature is represented by a bit.

(2)ポールスターデータベース行列(以下、PSD行列という。)の作成
図31に示すように、各データベース点(P1〜Pmax)のポールスター特徴量を計算する。それぞれビット表現して縦方向に並べることで、PSD行列を作成する。
(2) Creation of Pole Star Database Matrix (hereinafter referred to as PSD Matrix) As shown in FIG. 31, the Pole Star feature amount of each database point (P1 to Pmax) is calculated. A PSD matrix is created by expressing each bit and arranging them vertically.

(3)画像点のポールスター照合
図32に示すように、ある画像点についてポールスター特徴量を計算する。
次に、前述のPSD行列を用いて、図33に示すような演算を行う。各データベース点と注目している画像点のアーム長インデックスの一致数が一致アームカウンタとして計算される。一致アームカウンタの中で、最大値をとる要素が、照合点となる。
(3) Pole Star Collation of Image Points As shown in FIG. 32, pole star feature values are calculated for a certain image point.
Next, an operation as shown in FIG. 33 is performed using the PSD matrix described above. The number of matches between each database point and the arm length index of the image point of interest is calculated as a match arm counter. The element that takes the maximum value in the coincidence arm counter is the collation point.

(4)尤度の追加
実際の各画像点には誤差があるので、ポールスター特徴量のアーム長インデックスもポールスターデータベース中の対応データベース点とは異なっている。この誤差を吸収するために、ポールスターデータベースに尤度(幅)を持たせる。
(4) Addition of likelihood Since each actual image point has an error, the arm length index of the pole star feature amount is also different from the corresponding database point in the pole star database. In order to absorb this error, a likelihood (width) is given to the pole star database.

例えば、図34に示すように、PSD行列の各データベース点のポールスタービットに対して1に隣接する左右のビットに尤度に応じた幅の1を設定することで実現する。   For example, as shown in FIG. 34, it is realized by setting the width 1 corresponding to the likelihood to the left and right bits adjacent to 1 for the pole star bits of each database point of the PSD matrix.

このことにより、誤差は吸収され、誤差のために画像点のポールスタービットの1の位置が尤度範囲内でずれたとしても、一致アームカウンタの対応するデータベース点の位置に正照合時と同じアーム長インデックス一致数が出力される。ただし、アーム長インデックスの一致は全体として増加するため、最大一致数をとるデータベース点が正しい対応データベース点以外に複数あらわれることが考えられる。   As a result, the error is absorbed, and even if the position of 1 of the pole star bit of the image point is shifted within the likelihood range due to the error, the position of the corresponding database point of the matching arm counter is the same as that at the time of positive matching. The number of arm length index matches is output. However, since the match of the arm length index increases as a whole, it is conceivable that a plurality of database points having the maximum number of matches appear in addition to the correct corresponding database points.

(5)ポールスター照合後の絞込み
データベースによる照合時点では、一つの画像点に対して複数のデータベース点が照合する可能性がある。また、ゴミや点の消失などがあると照合したデータベース点の中には間違えが紛れ込んでいる可能性もある。そこで、正しく対応している画像点群とデータベース点群の間では、任意の2つの画像点の距離とその画像点に対応する2つのデータベース点の距離は一致することを利用して、多くの照合点候補から正しい照合点を絞り込む。
(5) Narrowing after Pole Star verification At the time of verification by the database, there is a possibility that a plurality of database points will be verified against one image point. In addition, there is a possibility that mistakes are included in the database points that are collated when there is dust or missing points. Therefore, between the image point group and the database point group that correspond correctly, the distance between any two image points and the distance between the two database points corresponding to the image point coincide with each other. Narrow down the correct matching points from the matching point candidates.

(5−1)画像点群データとデータベース点群データの準備
図35に示すように、データベース点候補と画像点が一対一となるように画像点群データとデータベース点群データを準備する。
(5-1) Preparation of Image Point Cloud Data and Database Point Cloud Data As shown in FIG. 35, image point cloud data and database point cloud data are prepared so that the database point candidates and the image points are in a one-to-one relationship.

画像点は、データベース点候補に対応して設定する。つまり、1つの画像点に複数のデータベース点候補があった場合には、画像点も同一の画像点をデータベース点候補に対応して複数設ける。   Image points are set corresponding to database point candidates. That is, when there are a plurality of database point candidates for one image point, a plurality of the same image points are provided corresponding to the database point candidates.

画像点間の相互距離を計算して、図36に示すような行列imgArmLsMtxが得られる。また、対応する照合データベース点間の相互距離を計算して、図37に示すような行列flrArmLsMtxが得られる。ここで、各要素は、行に相当する点と列に相当する点の間の距離を表す。ただし、同一の画像点に対応したデータベース点間の距離はNAとする。   By calculating the mutual distance between the image points, a matrix imgArmLsMtx as shown in FIG. 36 is obtained. Also, the mutual distance between corresponding matching database points is calculated to obtain a matrix flrArmLsMtx as shown in FIG. Here, each element represents a distance between a point corresponding to a row and a point corresponding to a column. However, the distance between database points corresponding to the same image point is NA.

次に、imgArmLsMtxと、flrArmLsMtxで距離差を求め、尤度の範囲内の場合には要素を1とする。この演算は、例えば、図38に示すようなソースコードを用いて行うことができる。なお、NAの要素については、0とする。この演算により、図39に示すような行列MchArmLsMtxが得られる。   Next, the distance difference is obtained from imgArmLsMtx and flrArmLsMtx, and the element is set to 1 when the distance is within the likelihood range. This calculation can be performed using, for example, a source code as shown in FIG. Note that the NA element is 0. By this calculation, a matrix MchArmLsMtx as shown in FIG. 39 is obtained.

図40に示すように、MchArmLsMtxを列方向に和算すると、各データベース点についてそれを起点とした他のデータベース点までの距離が、対応する画像点と他の画像点までの距離と一致した数が算出される。行列の中で、距離の一致数が最も少ない行および列を削除する。   As shown in FIG. 40, when MchArmLsMtx is summed in the column direction, the number of the distance from each database point to the other database point starting from it corresponds to the distance from the corresponding image point to the other image point. Is calculated. Delete the rows and columns with the smallest number of distance matches in the matrix.

再度、列方向に和算すると、残ったデータベース点に対して同様の一致数が計算される。この操作を全ての一致数が等しくなるまで繰り返す。   When summing up again in the column direction, the same number of matches is calculated for the remaining database points. This operation is repeated until all the matching numbers are equal.

画像点間相互距離と対応するデータベース点間相互距離が全て一致する場合には、一致数は、点数−1となり、残った画像点群とデータベース点群の組は、それぞれの点群の相対位置関係が幾何学的に一致していると考えられる。なお、これは鏡映関係の場合も含む。   When the mutual distance between the image points and the corresponding mutual distance between the database points all match, the number of matches is −1, and the set of the remaining image point group and database point group is the relative position of each point group. The relationship is considered to be geometrically consistent. This includes the case of mirroring.

(6)カメラ位置・方向の算出
図41に示すように、画像点群と床点群の座標値を用いてカメラの位置・方向を算出する。図42に示すような演算式から、床座標系からみた画像座標原点の位置・方向が求められる。
(6) Calculation of Camera Position / Direction As shown in FIG. 41, the camera position / direction is calculated using the coordinate values of the image point group and the floor point group. The position / direction of the image coordinate origin as seen from the floor coordinate system is obtained from an arithmetic expression as shown in FIG.

画像点群の位置・方向からの移動体の位置および方向は、以下の演算式により算定することができる。
位置=[x,y]
方向θ=tan−1((−c1×c2/s1×s2)1/2
The position and direction of the moving body from the position and direction of the image point group can be calculated by the following arithmetic expression.
Position = [x, y]
Direction θ = tan −1 ((−c1 × c2 / s1 × s2) 1/2 )

(7)照合率の計算
(ア)アドレス行列の作成(オフライン)
図43に示すように、事前に床を升目状のブロックにエリア分割し、ブロック単位でアドレスを振る。各アドレスでの点の有無を調べて、アドレスに対応した行列(以下、アドレス行列という。)を用意し、アドレスでの点が有る場合には1を、ない場合には0を代入しておく。
(7) Calculation of collation rate (a) Creation of address matrix (offline)
As shown in FIG. 43, the floor is divided into square blocks in advance and addresses are assigned in units of blocks. The presence or absence of a point at each address is examined, a matrix corresponding to the address (hereinafter referred to as an address matrix) is prepared, and 1 is substituted if there is a point at the address, and 0 is substituted if there is no point. .

(イ)照合率
図44に示すように、求められた移動体位置・方向を元に、画像中の画像点全てを床座標系へ座標変換する。変換された座標に対応するアドレス行列に点が存在する割合を求めて、照合率とする。
(A) Collation rate As shown in FIG. 44, all image points in the image are coordinate-converted to the floor coordinate system based on the obtained moving body position and direction. The ratio at which points exist in the address matrix corresponding to the converted coordinates is obtained and used as the matching rate.

このため、本発明の実施例1によれば、点分布照合に幅を持たせることで照合過程で正しい照合が排除されることを防ぎ、従来のアルゴリズムで発生するおそれがある誤照合や照合不能といった照合不良を起こし難くすることができる。また、取得画像中の点群相互間距離と床の照合点候補群相互間距離がすべて一致する組み合わせを求める手法により、画像点群と床照合点群の組を抽出し、多照合といった照合不良を起こし難くすることができる。   For this reason, according to the first embodiment of the present invention, it is possible to prevent the correct collation from being eliminated in the collation process by giving a wide range of the point distribution collation, and it is possible to prevent the erroneous collation or collation that may occur in the conventional algorithm. It is possible to make it difficult to cause a verification failure. In addition, by using a method to find a combination in which the distance between the point clouds in the acquired image and the distance between the floor matching point candidate groups all match, the image point cloud and floor matching point cloud pairs are extracted, and matching failure such as multiple matching Can be made difficult.

また、照合結果としてのカメラ位置方向検出値を使って、画像中の全点(画像座標系)を床座標系へ座標変換し、各点の座標位置に対応したアドレス行列の要素が1である割合(=照合率)を算出する。この割合が規定以下の場合には不確実な検出として排除することで、出力値の信頼性を確保することができる。   Also, using the camera position direction detection value as the matching result, all the points (image coordinate system) in the image are coordinate-converted to the floor coordinate system, and the address matrix element corresponding to the coordinate position of each point is 1. A ratio (= collation rate) is calculated. If this ratio is less than the specified value, the reliability of the output value can be ensured by eliminating it as an uncertain detection.

また、本発明では自然発生的なランダム点群パターンを位置検出に利用できるため、以下の(1)、(2)の効果が見込まれる。   Further, in the present invention, since the spontaneous random point cloud pattern can be used for position detection, the following effects (1) and (2) are expected.

(1)チップ材混入による床パターンへの応用
工場などで利用が多い塗り床のように、床上への印刷が困難、あるいは、コストがかかるものに対しても、塗り床材にチップを混入することによりランダム点群パターンを作成することで、位置検出用の床として利用することが可能となる。また、床タイルについても、製造工程の中でチップ材を混入し表面にランダム点群パターンを作成することができるタイプのものがあるが、こういったタイプの床タイルにも適用可能となる。
(1) Application to floor pattern by mixing chip material Chips are mixed into the flooring material even if it is difficult or costly to print on the floor, such as a painted floor that is frequently used in factories. Thus, by creating a random point cloud pattern, it can be used as a floor for position detection. Also, some floor tiles are of a type in which a chip material can be mixed in the manufacturing process and a random point cloud pattern can be created on the surface, but this is also applicable to such types of floor tiles.

(2)広い床への対応
一般にタイル印刷の場合には、印刷の版の種類が限定的になるため、広い範囲で異なる点分布パターンを実現することは困難である。自然発生的なランダム点群パターンでは、類似性のない点分布が広い範囲で実現できるため、広い床における位置検出に対応することができる。
(2) Correspondence to a wide floor Generally, in the case of tile printing, since the types of printing plates are limited, it is difficult to realize different point distribution patterns in a wide range. In a naturally occurring random point cloud pattern, a point distribution with no similarity can be realized in a wide range, so that position detection on a wide floor can be supported.

[実施例2]
本発明の実施例2は、正しい候補点群は、撮像中の点分布の範囲に収まって分布していることを利用して、正しい候補点のあるデータベース中の床領域を絞り込むものである。
[Example 2]
The second embodiment of the present invention narrows down the floor area in the database having the correct candidate points by utilizing the fact that the correct candidate point group is distributed within the range of the point distribution being imaged.

具体的の処理手順としては、図5に示すように、本発明の実施例2は、画像取得して画像中の点にラベリングをし(ステップS21)、この画像点群を用いてポールスター照合手段24で尤度を導入したポールスター照合を行い(ステップS22)、照合床点候補群1について絞り込み手段26で床点分布可能エリアの計算を行い(ステップS23)、各分布可能エリアを求め(ステップS24)、分布可能エリア内の床点を抽出する(ステップS25)。   As a specific processing procedure, as shown in FIG. 5, in the second embodiment of the present invention, an image is acquired, and a point in the image is labeled (step S21). Pole star matching in which likelihood is introduced is performed by means 24 (step S22), and floor spot distributable areas are calculated by means of narrowing means 26 for collating floor point candidate group 1 (step S23) to obtain each distributable area ( In step S24), floor points in the distributable area are extracted (step S25).

そして、照合床点候補群2について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS26)、検出手段28でカメラ位置・方向の計算をし(ステップS27)、照合率の計算と最大照合率エリアの抽出を行って(ステップS28)、最大照合率のエリアのカメラ位置・方向を求め(ステップS29)、最大照合率の確認をする(ステップS30)という手順である。   Then, the collation floor point candidate group 2 is collated with the combination of the distances between the point groups by the narrowing means 26 (step S26), and the camera position / direction is calculated by the detecting means 28 (step S27). The calculation and extraction of the maximum verification rate area are performed (step S28), the camera position / direction of the maximum verification rate area is obtained (step S29), and the maximum verification rate is confirmed (step S30).

つまり、絞り込み手段26が、ポールスター照合手段24により照合された照合ドット候補について照合ドット候補が存在する所定の共通領域を求め、共通領域内に存在する照合ドットに絞り込む処理を含むようにしたものである。   That is, the narrowing-down means 26 includes processing for obtaining a predetermined common area where the matching dot candidates exist for the matching dot candidates collated by the pole star matching means 24 and narrowing down to the matching dots existing in the common area. It is.

ところで、上記の実施例1の処理では、場合によっては、多照合による必要な計算メモリが増大する可能性が考えられる。つまり、取得画像中の画像点数が少ない、あるいは、画像点の点分布が一様に近い場合には、ポールスター特徴量を構成するアーム長インデックスの数が少ないケースなどが発生する。この場合、データベースの多くの点が照合候補となるため、多くの計算メモリが必要となり、実質上計算の継続が困難になる場合があった。   By the way, in the processing of the above-described first embodiment, there is a possibility that the calculation memory required for the multiple matching may increase depending on the case. That is, when the number of image points in the acquired image is small or the point distribution of the image points is almost uniform, there may be a case where the number of arm length indexes constituting the Polestar feature amount is small. In this case, since many points in the database are candidates for verification, a large amount of calculation memory is required, and it may be difficult to continue the calculation substantially.

そこで、この実施例2の処理においては、正しい候補点群は、撮像中の点分布の範囲に収まって分布していることを利用して、正しい候補点のあるデータベース中の床領域を絞り込む。任意の画像点を中心とし、それと最も遠い距離にある画像点までの直線を半径とする円内に、他の画像点が存在している。このとき、対応するデータベース点についても同様の関係が成り立つことを利用して、対応するデータベース点の存在する領域を求め、照合候補データベース点をその領域内のものに制限することで絞り込みを行う。このようにすることで、上記の実施例1の課題を解決することができる。   Therefore, in the process of the second embodiment, the floor area in the database having the correct candidate points is narrowed down by using the fact that the correct candidate point group is distributed within the range of the point distribution being imaged. Other image points exist within a circle centered at an arbitrary image point and having a radius of a straight line to the image point farthest from the arbitrary image point. At this time, using the fact that the same relationship holds for the corresponding database points, the region where the corresponding database points exist is obtained, and the collation candidate database points are limited to those in that region, and narrowing down is performed. By doing in this way, the subject of said Example 1 can be solved.

[照合点存在共通領域]
例えば、図6に示すように、画像点C1を中心として最も遠い距離にある点はC4であり、その距離がRだったとすると、C1に対応するデータベース点f1を中心として半径Rの円内に他画像点に対応するデータベース点は存在する。したがって、各画像点に対して、同様の他点群存在範囲半径を求め、対応する各照合候補データベース点を中心とした円を描き、その和領域を照合点存在領域とすると、正しく対応する点群は、各画像点に対する照合点存在領域の重なりが最も多く重なっている領域(=照合点存在共通領域)に入っている。
[Common area for matching points]
For example, as shown in FIG. 6, if the distance from the image point C1 as the center is C4 and the distance is R, the database point f1 corresponding to C1 is centered within the circle of radius R. There are database points corresponding to other image points. Therefore, if the same other point group existence range radius is obtained for each image point, a circle centered on each corresponding matching candidate database point is drawn, and the sum area is set as the matching point existence area, the corresponding point correctly The group is included in the region where the overlapping of the matching point existence regions with respect to the respective image points is overlapped most (= the matching point existence common region).

ステップS22のポールスター照合+尤度の処理後の照合点候補についてこの共通領域を求め、共通領域内に存在する点に絞り込むことで、照合点候補を大幅に削減することができる。   By obtaining this common region for the matching point candidates after the processing of the pole star matching + likelihood in step S22 and narrowing down to points existing in the common region, the matching point candidates can be greatly reduced.

[重なり数の設定]
また、ゴミ点が画像点に紛れ込んでいる場合には、誤った照合点存在領域があるため、最大の重なり領域では、正しい対応データベース点が排除される可能性があるため、照合点存在共通領域とする最小の重なり数は、画像点数から混入するであろうゴミの数を引いた数より小さく設定する。
[Setting the number of overlaps]
In addition, when dust points are mixed in with image points, there is an erroneous matching point existence area, and in the largest overlapping area, a correct corresponding database point may be excluded. Is set to be smaller than the number obtained by subtracting the number of dust that will be mixed from the number of image points.

[複数共通領域の取り扱い]
照合点存在共通領域は、複数存在する可能性がある。その場合には、各領域について個別に照合候補点群を求め、照合率の計算を行う。最後に各領域での照合率の計算結果から、最も照合率の高い領域の照合点群を答えとする。
[Handling multiple common areas]
There may be a plurality of collation point existence common regions. In that case, a collation candidate point group is individually obtained for each region, and a collation rate is calculated. Finally, based on the calculation result of the matching rate in each region, the matching point group in the region with the highest matching rate is set as the answer.

この実施例2によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the second embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be obtained.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.

[実施例3]
本発明の実施例3は、照合するデータベースの床エリアをあらかじめ分割し、その分割エリア内での照合を行うものである。全分割エリアの照合後、計算された各分割エリアでの照合率を元に、最も照合率の高いエリアの結果を正しい答えとして出力する。
[Example 3]
In the third embodiment of the present invention, the floor area of the database to be collated is divided in advance, and collation is performed within the divided area. After collating all the divided areas, the result of the area with the highest collation rate is output as a correct answer based on the calculated collation rate in each divided area.

具体的の処理手順としては、図7に示すように、画像取得して画像中の点にラベリングをし(ステップS31)、ポールスター照合手段24で探索床エリアを分割するとともに(ステップS32)、各探索エリアについて尤度を導入したポールスター照合を行う(ステップS33、S34)。   As a specific processing procedure, as shown in FIG. 7, an image is acquired and labeled at a point in the image (step S31), and the search floor area is divided by the pole star matching means 24 (step S32). Pole star matching in which likelihood is introduced for each search area is performed (steps S33 and S34).

そして、照合床点候補群2について絞り込み手段26で点群相互間距離の組み合わせの照合を行って(ステップS35)、照合率の計算と最大照合率エリアの抽出を行って(ステップS36)、検出手段28で最大照合率のエリアのカメラ位置・方向を求め(ステップS37)、最大照合率の確認をする(ステップS38)という手順である。   Then, the collation floor point candidate group 2 is collated with the combination of the distances between the point groups by the narrowing means 26 (step S35), the collation rate is calculated, and the maximum collation rate area is extracted (step S36). The procedure is to obtain the camera position / direction in the area of the maximum verification rate by means 28 (step S37) and confirm the maximum verification rate (step S38).

つまり、ポールスター照合手段24が、ポールスターデータベース34における照合範囲を複数の領域に分割してこの各領域でポールスター照合を行い、照合率が最大となる領域を求めるものである。   In other words, the pole star collation means 24 divides the collation range in the pole star database 34 into a plurality of areas, performs pole star collation in each area, and obtains an area where the collation rate is maximized.

ところで、上記の実施例1の処理では、場合によっては、多照合による必要な計算メモリが増大する可能性が考えられる。つまり、取得画像中の画像点数が少ない、あるいは、画像点の点分布が一様に近い場合には、ポールスター特徴量を構成するアーム長インデックスの数が少ないケースなどが発生する。この場合、データベースの多くの点が照合候補となるため、多くの計算メモリが必要となり、実質上計算の継続が困難になる場合があった。   By the way, in the processing of the above-described first embodiment, there is a possibility that the calculation memory required for the multiple matching may increase depending on the case. That is, when the number of image points in the acquired image is small or the point distribution of the image points is almost uniform, there may be a case where the number of arm length indexes constituting the Polestar feature amount is small. In this case, since many points in the database are candidates for verification, a large amount of calculation memory is required, and it may be difficult to continue the calculation substantially.

しかしながら、この実施例3の処理においては、照合するデータベースの床エリアをあらかじめ分割し、その分割エリア内での照合を行い、全分割エリアの照合後、計算された各分割エリアでの照合率を元に、最も照合率の高いエリアの結果を正しい答えとして出力するので、上記の実施例1の課題を解決することができる。   However, in the processing of the third embodiment, the floor area of the database to be collated is divided in advance, collation is performed in the divided area, and after the collation of all the divided areas, the calculated collation rate in each divided area is calculated. Originally, the result of the area with the highest collation rate is output as a correct answer, so that the problem of the first embodiment can be solved.

[照合床エリアの分割]
図8に示すように、対象とする照合床エリアを適当な大きさに分割する。例えば、画像視野の25倍くらいの大きさとする。
[Split floor area division]
As shown in FIG. 8, the target verification floor area is divided into an appropriate size. For example, the size is about 25 times the image field of view.

[照合および結果]
各照合床分割エリアで、ポールスター照合+尤度および点群相互間距離組み合わせ照合を行い、照合率を計算する。最大の照合率を得た領域の検出値を答えとする。
[Verification and results]
In each verification floor division area, pole star verification + likelihood and inter-point distance combination verification are performed, and a verification rate is calculated. The detected value of the area where the maximum matching rate is obtained is taken as the answer.

この実施例3によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the third embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be achieved.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.

[実施例4]
本発明の実施例4は、上記の実施例3の照合床エリアの分割と、実施例2の点群存在共通領域の絞り込みを組み合わせた手法であり、上記の実施例1の課題を解決することができる。
[Example 4]
The fourth embodiment of the present invention is a method that combines the division of the verification floor area of the third embodiment and the narrowing down of the point cloud presence common area of the second embodiment, and solves the problem of the first embodiment. Can do.

具体的な処理手順としては、図9に示すように、画像取得して画像中の点にラベリングをし(ステップS41)、ポールスター照合手段24で探索床エリアを分割するとともに(ステップS42)、各探索エリアについて尤度を導入したポールスター照合を行う(ステップS43、S44)。照合床点候補群1について絞り込み手段26で床点分布エリアの計算を行い(ステップS45)、各分布エリアを求め(ステップS46)、分布エリア内の床点を抽出する(ステップS47)。   As a specific processing procedure, as shown in FIG. 9, the image is acquired and labeled at a point in the image (step S41), and the search floor area is divided by the pole star matching means 24 (step S42). Pole star matching in which likelihood is introduced for each search area is performed (steps S43 and S44). The floor spot distribution area is calculated by the narrowing means 26 for the verification floor point candidate group 1 (step S45), each distribution area is obtained (step S46), and the floor points in the distribution area are extracted (step S47).

そして、照合床点候補群2について点群相互間距離の組み合わせの照合を行って(ステップS48)、検出手段28でカメラ位置・方向の計算をし(ステップS49)、照合率の計算と最大照合率エリアの抽出を行って(ステップS50)、最大照合率のエリアのカメラ位置・方向を求め(ステップS51)、探索エリアでの最大照合率とその時のカメラ位置・方向の保存を行い(ステップS52、S53)、最大照合率の確認をする(ステップS54)という手順である。   Then, the combination of the distances between the point groups is collated for the collation floor point candidate group 2 (step S48), the camera position / direction is calculated by the detecting means 28 (step S49), and the collation rate calculation and the maximum collation are performed. The rate area is extracted (step S50), the camera position / direction of the area with the maximum matching rate is obtained (step S51), and the maximum matching rate in the search area and the camera position / direction at that time are stored (step S52). , S53), and the maximum collation rate is confirmed (step S54).

つまり、照合床エリアを適切な大きさで分割して、各照合床分割エリアの照合について、尤度を考慮したポールスター照合の後、点群存在共通領域(複数)を計算する。各点群存在共通領域内の照合候補点群について点群相互間距離組み合わせ照合を行い、カメラの位置・方向の計算を実施後、照合率の計算をする。全ての点群存在領域について計算し、当該の照合分割エリアでの最大照合率とその時のカメラ位置・方向とする。これを全ての照合分割エリアについて実施し、最終的に、全ての照合分割エリアで最も照合率の高かったカメラの位置・方向を検出結果とする。   That is, the collation floor area is divided by an appropriate size, and for the collation of each collation floor divided area, the point cloud existence common region (plurality) is calculated after the pole star collation considering the likelihood. The point group mutual distance combination matching is performed on the matching candidate point groups in each point group existing common area, the position / direction of the camera is calculated, and then the matching rate is calculated. The calculation is performed for all point cloud existence areas, and the maximum collation rate in the corresponding collation division area and the camera position / direction at that time are obtained. This is performed for all the collation division areas, and finally, the position / direction of the camera having the highest collation rate in all the collation division areas is set as the detection result.

この実施例4によれば、多照合により必要な計算メモリの増大を抑えることができるために、以下の効果を奏することができる。
(1)広い床範囲を対象とした位置検出が可能となる。
(2)比較的位置誤差の大きな画像点入力でも位置検出が可能となる。
(3)画像分解能が低いカメラでも位置検出が可能となる。
According to the fourth embodiment, an increase in necessary calculation memory can be suppressed due to multiple matching, and therefore the following effects can be achieved.
(1) Position detection for a wide floor range is possible.
(2) Position detection is possible even with image point input with a relatively large position error.
(3) Position detection is possible even with a camera with low image resolution.

次に、本発明の応用例1、応用例2について説明する。本発明に係る移動体位置検出システム10は、病院や工場等における搬送システムに応用可能である。   Next, application examples 1 and 2 of the present invention will be described. The moving body position detection system 10 according to the present invention can be applied to a transport system in a hospital, a factory, or the like.

[本発明の応用例1]
まず、本発明の応用例1として、ロボットを用いた病院デリバリーサービスに応用する場合について説明する。
[Application 1 of the present invention]
First, as application example 1 of the present invention, a case of applying to a hospital delivery service using a robot will be described.

まず、従来技術の課題について説明する。従来、病院の入院患者が雑誌などの商品を購入したい場合には、通常、患者自身が病院内の売店に移動して購入するが、大型病院においては、患者が居る病室から売店までの距離が遠い場合があり、患者にとって利便性が低い。また、患者が自力で移動できない場合もある。こうした環境下にある患者に対応するために、売店での購入・配達を代行するデリバリーサービスを導入している病院がある。しかし、このような病院においては、サービスに係る人件費が発生したり、サービスを享受できる人数に限りがあり、患者に迅速に配達できないなどの問題があった。   First, the problems of the prior art will be described. Conventionally, when a hospital inpatient wants to purchase a product such as a magazine, the patient usually moves to a store in the hospital and purchases it. However, in a large hospital, the distance from the hospital room where the patient is located to the store is large. It may be far away and is not convenient for the patient. In some cases, the patient cannot move on his own. There are hospitals that have introduced delivery services on behalf of purchases and deliveries at retail stores to deal with patients in such an environment. However, in such hospitals, there have been problems such as incurring labor costs for services and the limited number of people who can enjoy services, and being unable to deliver quickly to patients.

そこで、本発明に係る移動体位置検出システム10をこのデリバリーサービスに応用し、患者に対する新たなサービスを提供する。具体的には、移動体位置検出システム10における移動体16を商品配達ロボットして用い、患者は、病室のベッドサイドに設けた端末機器からデリバリーしたい商品を注文する。すると、売店のロボットは、注文を受けた商品を、端末機器の置かれたベッドサイドまで配達するように移動する。この移動は、例えば、売店から端末機器までの移動ルートを、床面上に描いたドットパターンを用いて端末機器毎に紐付けしておき、所定の端末機器からの注文信号を受けた際に、その所定の端末機器にロボットが自動的に移動するように設定しておくことで可能である。これにより、病室のベッドサイドまでロボットが入って行くことができる。なお、ロボットの移動ルートや移動に関するルールは適宜自由に設定してもよい。   Then, the mobile body position detection system 10 which concerns on this invention is applied to this delivery service, and the new service with respect to a patient is provided. Specifically, the mobile body 16 in the mobile body position detection system 10 is used as a commodity delivery robot, and the patient orders a product to be delivered from a terminal device provided on the bedside of the hospital room. Then, the robot of the store moves to deliver the ordered product to the bedside where the terminal device is placed. This movement is performed when, for example, a movement route from a store to a terminal device is linked to each terminal device using a dot pattern drawn on the floor, and an order signal is received from a predetermined terminal device. This is possible by setting the robot to automatically move to the predetermined terminal device. This allows the robot to enter the bedside of the hospital room. In addition, you may set freely the rule regarding the movement route and movement of a robot suitably.

このように、本発明を病院内のデリバリーサービスに適用すると、ロボットを床面に描いたドットパターンで誘導することができる。このため、従来必要であった配達ロボットを誘導するための誘導線を廊下、病室内に敷設する大掛かりな工事は必要なくなる。また、床面に描いたドットパターンで誘導することから、将来的な建物内のレイアウト変更にも柔軟に対応することができる。また、人ではなくロボットが配達することから、従来の病院内のデリバリーサービスに比べて人件費が掛からず、ランニングコストを抑えることができる。さらに、ロボットによる配達距離を短くすることで、リードタイムを短縮でき、患者の満足度を向上することができる。   Thus, when the present invention is applied to a delivery service in a hospital, the robot can be guided with a dot pattern drawn on the floor surface. For this reason, a large-scale construction for laying a guide line for guiding a delivery robot, which has been necessary in the past, in a corridor or a hospital room is not necessary. In addition, since guidance is performed using a dot pattern drawn on the floor surface, it is possible to flexibly cope with future layout changes in the building. In addition, since the robot is delivered instead of the person, the labor cost is not incurred compared to the conventional hospital delivery service, and the running cost can be suppressed. Furthermore, by shortening the delivery distance by the robot, the lead time can be shortened and the patient's satisfaction can be improved.

[本発明の応用例2]
次に、本発明の応用例2として、平倉庫フリーロケーション管理に応用する場合について説明する。
[Application 2 of the present invention]
Next, as application example 2 of the present invention, a case where it is applied to flat warehouse free location management will be described.

まず、従来技術の課題について説明する。従来、平倉庫において固定棚を用いずにパレット等を保管する場合の在庫ロケーション管理方法として主に以下の技術が知られている。   First, the problems of the prior art will be described. Conventionally, the following techniques are mainly known as inventory location management methods in the case of storing pallets or the like without using a fixed shelf in a flat warehouse.

(1)図10に示すように、床にライン50を引き、エリアを区画して柱52に合わせた柱番号などで保管エリアIDを認識し、荷物と紐付けを行う。 (1) As shown in FIG. 10, the line 50 is drawn on the floor, the area is divided and the storage area ID is recognized by the pillar number or the like matched with the pillar 52, and is linked to the luggage.

(2)図11に示すように、決められた荷姿の荷物60(パレットなど)に合わせてグリッドを設定し、その天井に固有のIDを発信する超音波発信器62を設置する。フォークリフト70で荷物60をグリッドに置いたときのその天井にある超音波発信器62から発信されるIDを、フォークリフト70に設置したリーダー64でロケーションを読み取り、荷物と紐付けを行う。
(3)上記の(2)と同様であるが、図11に示すように、超音波発信器62でなく床にパッシブ式RFID66を埋め込み、フォークリフト70に設置したリーダー68でIDを読み取る。
(2) As shown in FIG. 11, a grid is set in accordance with a package 60 (such as a pallet) in a predetermined packing form, and an ultrasonic transmitter 62 that transmits a unique ID is installed on the ceiling. The ID transmitted from the ultrasonic transmitter 62 on the ceiling when the load 60 is placed on the grid by the forklift 70 is read by the reader 64 installed on the forklift 70, and linked to the load.
(3) Similar to (2) above, but as shown in FIG. 11, the passive RFID 66 is embedded in the floor instead of the ultrasonic transmitter 62, and the ID is read by the reader 68 installed on the forklift 70.

しかし、上記の(1)では、エリアには複数の荷物が存在するので、荷物の詳細な位置を迅速に把握することができない。また、人手による作業を伴うので人為的ミスによるロケーションの間違いが発生するおそれがある。   However, in the above (1), since there are a plurality of packages in the area, the detailed position of the packages cannot be quickly grasped. Further, since manual work is involved, there is a risk that a location error due to human error may occur.

また、上記の(2)、(3)では、図12(a)に示すように、荷物を一定方向に向けて配置する必要がある。荷物60とフォークリフト70に取り付けたリーダー64(68)の位置に差があるためである。図12(b)に示すように、横から置くと超音波発信器62やRFID66の位置とリーダー64、68に位置ずれが生じ対応できなくなる。さらに、図13(a)に示すように、荷物の荷姿が同じ形態でなければならず、図13(b)に示すように、超音波発信器62やRFID66の配置に対して、異なる寸法のパレットの混在やパレットとカゴ車など別の種類の荷物には対応できない。   Further, in the above (2) and (3), as shown in FIG. 12 (a), it is necessary to arrange the luggage in a certain direction. This is because there is a difference in the positions of the luggage 60 and the leader 64 (68) attached to the forklift 70. As shown in FIG. 12B, when placed from the side, the positions of the ultrasonic transmitter 62 and RFID 66 and the readers 64 and 68 are displaced and cannot be handled. Furthermore, as shown in FIG. 13 (a), the package must have the same form, and as shown in FIG. 13 (b), the dimensions differ with respect to the arrangement of the ultrasonic transmitter 62 and the RFID 66. It is not possible to handle different types of luggage such as pallets and pallets and basket cars.

そこで、本発明に係る移動体位置検出システム10をこの平倉庫フリーロケーション管理に応用する。具体的には、図14および図15に示すように、移動体位置検出システム10における移動体16をフォークリフト70や人として、カメラ(撮像手段20)をこれらに取り付ける。一方、床面または天井面にドットパターン32を描画して、カメラ20が撮像した画像によりフォークリフト70や人の位置や向きを検出し、平倉庫のどこに荷物を置いたかを自動的に認識する。   Therefore, the moving body position detection system 10 according to the present invention is applied to this flat warehouse free location management. Specifically, as shown in FIGS. 14 and 15, the moving body 16 in the moving body position detection system 10 is a forklift 70 or a person, and a camera (imaging means 20) is attached thereto. On the other hand, the dot pattern 32 is drawn on the floor surface or the ceiling surface, and the position and orientation of the forklift 70 and the person are detected from the image captured by the camera 20 to automatically recognize where the luggage is placed in the flat warehouse.

また、荷物60の平面中心とカメラ20の距離を予め所定の値に設定しておき、カメラ20の撮像画像によって荷物の中心を認識させることで、図16(a)、(b)に示すように、どの方向からも荷物の位置を認識できるようになり、形態が異なる荷物を様々な方向から平倉庫内に置くことができる。このため、平倉庫の利用態様の自由度が高まり、入出庫作業の効率化が図れる。また、上記の従来技術においては、施工時にパレットの数だけ超音波発信器またはRFIDを設置して、IDとロケーションを登録する必要があったが、これをする必要がなくなる。   Also, the distance between the plane center of the luggage 60 and the camera 20 is set to a predetermined value in advance, and the center of the luggage is recognized by the captured image of the camera 20, as shown in FIGS. In addition, the position of the load can be recognized from any direction, and loads having different forms can be placed in the flat warehouse from various directions. For this reason, the freedom degree of the utilization mode of a flat warehouse increases, and the efficiency of warehouse operation can be achieved. Further, in the above-described conventional technology, it is necessary to install ultrasonic transmitters or RFIDs corresponding to the number of pallets at the time of construction and register IDs and locations, but this need not be performed.

以上説明したように、本発明によれば、平面上を移動する移動体の位置を検出する移動体位置検出システムであって、前記平面上に配置された複数のドットからなるドットパターンと、前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、を備える。このため、ポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保することができる。   As described above, according to the present invention, there is provided a moving body position detection system that detects the position of a moving body that moves on a plane, the dot pattern including a plurality of dots arranged on the plane, and An imaging unit that is provided in the moving body and images a region on a plane on which the moving body is located, a dot in an image acquired by the imaging unit, and a dot in a pole star database of a pole star algorithm corresponding to the dot A pole star matching unit that performs pole star matching using a pole star feature amount that is set with a likelihood for absorbing an error between and a matching dot from a matching dot candidate verified by the pole star matching unit Based on the positional relationship between the narrowing-down means narrowed down to a predetermined pattern and the dot pattern composed of the predetermined collation dots narrowed down by the narrowing-down means. Te, and a detection means for detecting a current position and direction of the moving body. For this reason, it is difficult to cause a verification failure when the Polestar algorithm is used, and the reliability of detection can be ensured.

以上のように、本発明に係る移動体位置検出システムおよび方法は、建物内の床面上などの平面上に配置した移動体の位置検出に有用であり、特に、位置検出アルゴリズムとしてポールスターアルゴリズムを用いた際の照合不良を起こし難くして、検出の信頼性を確保するのに適している。   As described above, the mobile object position detection system and method according to the present invention are useful for detecting the position of a mobile object placed on a plane such as a floor surface in a building, and in particular, the pole star algorithm as a position detection algorithm. It is suitable for ensuring the reliability of detection by making it difficult to cause a verification failure when using.

10 移動体位置検出システム
12 床面(平面)
14 ドットパターン
16 移動体
18 移動体位置検出装置
20 撮像手段
22 ポールスター特徴量格納手段
24 ポールスター照合手段
26 絞り込み手段
28 検出手段
30 照明
32 ドット
34 ポールスターデータベース
10 Moving body position detection system 12 Floor (plane)
DESCRIPTION OF SYMBOLS 14 Dot pattern 16 Moving body 18 Moving body position detection apparatus 20 Imaging means 22 Pole star feature-value storage means 24 Pole star collation means 26 Narrowing means 28 Detection means 30 Illumination 32 Dots 34 Pole star database

Claims (4)

平面上を移動する移動体の位置を検出する移動体位置検出システムであって、
前記平面上に配置された複数のドットからなるドットパターンと、
前記移動体に備えられ、前記移動体が位置する平面上の領域を撮像する撮像手段と、
前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行うポールスター照合手段と、
前記ポールスター照合手段により照合された照合ドット候補から所定の照合ドットに絞り込む絞り込み手段と、
前記絞り込み手段により絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出する検出手段と、
を備えることを特徴とする移動体位置検出システム。
A moving body position detection system for detecting a position of a moving body moving on a plane,
A dot pattern consisting of a plurality of dots arranged on the plane;
An imaging means provided in the moving body for imaging a region on a plane on which the moving body is located;
Pole using a pole star feature that sets the likelihood to absorb the error between the dot in the image acquired by the imaging means and the dot in the pole star database of the pole star algorithm corresponding to this dot Pole star verification means for performing star verification,
Narrowing means for narrowing down the matching dot candidates collated by the pole star matching means to a predetermined matching dot;
Detecting means for detecting a current position and direction of the moving body based on a positional relationship of a dot pattern made up of predetermined matching dots narrowed down by the narrowing means;
A moving body position detection system comprising:
前記絞り込み手段は、前記ポールスター照合手段により照合された照合ドット候補について照合ドット候補が存在する所定の共通領域を求め、前記共通領域内に存在する照合ドットに絞り込む処理を含むことを特徴とする請求項1に記載の移動体位置検出システム。   The narrowing-down means includes a process of obtaining a predetermined common area where the matching dot candidates exist for the matching dot candidates collated by the pole star matching means, and narrowing down to the matching dots existing in the common area. The moving body position detection system according to claim 1. 前記ポールスター照合手段は、前記ポールスターデータベースにおける照合範囲を複数の領域に分割してこの各領域でポールスター照合を行い、照合率が最大となる領域を求めることを特徴とする請求項1または2に記載の移動体位置検出システム。   2. The pole star collation means divides a collation range in the pole star database into a plurality of areas, performs pole star collation in each area, and obtains an area where a collation rate is maximized. The moving body position detection system according to 2. 平面上を移動する移動体の位置を検出する移動体位置検出方法であって、
前記平面上には複数のドットからなるドットパターンが配置され、
前記移動体には前記移動体が位置する平面上の領域を撮像する撮像手段が備えられ、
前記撮像手段により取得した画像中のドットと、このドットに対応するポールスターアルゴリズムのポールスターデータベース中のドットとの間の誤差を吸収するための尤度を設定したポールスター特徴量を用いてポールスター照合を行い、照合された照合ドット候補から所定の照合ドットに絞り込み、絞り込んだ所定の照合ドットからなるドットパターンの位置関係に基づいて、前記移動体の現在位置および方向を検出することを特徴とする移動体位置検出方法。
A moving body position detection method for detecting a position of a moving body moving on a plane,
A dot pattern consisting of a plurality of dots is arranged on the plane,
The moving body is provided with imaging means for imaging a region on a plane where the moving body is located,
Pole using a pole star feature that sets the likelihood to absorb the error between the dot in the image acquired by the imaging means and the dot in the pole star database of the pole star algorithm corresponding to this dot Star matching is performed, the collation dot candidates that have been collated are narrowed down to a predetermined collation dot, and the current position and direction of the moving body are detected based on the positional relationship of the dot pattern that includes the narrowed down collation dots. A moving body position detection method.
JP2010079663A 2010-03-30 2010-03-30 Mobile object position detection system and method Active JP5483090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079663A JP5483090B2 (en) 2010-03-30 2010-03-30 Mobile object position detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079663A JP5483090B2 (en) 2010-03-30 2010-03-30 Mobile object position detection system and method

Publications (2)

Publication Number Publication Date
JP2011210183A true JP2011210183A (en) 2011-10-20
JP5483090B2 JP5483090B2 (en) 2014-05-07

Family

ID=44941134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079663A Active JP5483090B2 (en) 2010-03-30 2010-03-30 Mobile object position detection system and method

Country Status (1)

Country Link
JP (1) JP5483090B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138530A (en) * 2014-01-24 2015-07-30 清水建設株式会社 Mobile body position detection system and method
JP2015138531A (en) * 2014-01-24 2015-07-30 清水建設株式会社 Mobile body position detection system and method
JP2016118824A (en) * 2014-12-18 2016-06-30 清水建設株式会社 Moving body position detection system and method
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200777A (en) * 1993-12-28 1995-08-04 Hitachi Ltd Location estimating method in mobile object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200777A (en) * 1993-12-28 1995-08-04 Hitachi Ltd Location estimating method in mobile object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013025229; 村澤 一樹(外3名): '床パターンを利用した自己位置同定手法に関する検討(その2)' 第27回日本ロボット学会学術講演会 , 20090915, RSJ2009AC1F3-6, 社団法人日本ロボット学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138530A (en) * 2014-01-24 2015-07-30 清水建設株式会社 Mobile body position detection system and method
JP2015138531A (en) * 2014-01-24 2015-07-30 清水建設株式会社 Mobile body position detection system and method
JP2016118824A (en) * 2014-12-18 2016-06-30 清水建設株式会社 Moving body position detection system and method
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program
JPWO2016163492A1 (en) * 2015-04-10 2018-03-15 日本電気株式会社 Position specifying device, position specifying method and program
US10433119B2 (en) 2015-04-10 2019-10-01 Nec Corporation Position determination device, position determining method, and storage medium

Also Published As

Publication number Publication date
JP5483090B2 (en) 2014-05-07

Similar Documents

Publication Publication Date Title
JP6746819B1 (en) High-speed warehouse placement method, equipment and storage medium
CN108416403B (en) Method, system, equipment and storage medium for automatically associating commodity with label
US11093896B2 (en) Product status detection system
US9928438B2 (en) High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database
JP5637355B2 (en) Mobile object position detection system and method
JP6731423B2 (en) Apparatus and method for navigation control
US10823572B2 (en) Method, system and apparatus for generating navigational data
US20120191272A1 (en) Inferential load tracking
CN109154826A (en) collaborative inventory monitoring
KR20210087568A (en) System and method for dynamic inventory management
US20120126000A1 (en) Load tracking utilizing load identifying indicia and spatial discrimination
JP2011219229A (en) Cargo location management device
JP5483090B2 (en) Mobile object position detection system and method
US20150066551A1 (en) Flow line data analysis device, system, program and method
CN206312215U (en) A kind of mobile unit and stock article management system
JP2020015576A (en) Automatic warehouse system
US20210276802A1 (en) Article Transport Vehicle
JP2017088345A (en) Inspection processing device, inspection system, inspection processing method and program
CN112824990A (en) Cargo information detection method and system, robot and processing terminal
US11543249B2 (en) Method, system and apparatus for navigational assistance
CN112183679B (en) Method, client, server and system for positioning electronic price tag
US11592826B2 (en) Method, system and apparatus for dynamic loop closure in mapping trajectories
WO2022114173A1 (en) Tracking device, tracking method, data structure of tracking data, and program
JP7130423B2 (en) Parts information management system and parts information management program
TWI703506B (en) Carrier tracking system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140205

R150 Certificate of patent or registration of utility model

Ref document number: 5483090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150