JP2010102585A - Mobile object position detection system - Google Patents
Mobile object position detection system Download PDFInfo
- Publication number
- JP2010102585A JP2010102585A JP2008274681A JP2008274681A JP2010102585A JP 2010102585 A JP2010102585 A JP 2010102585A JP 2008274681 A JP2008274681 A JP 2008274681A JP 2008274681 A JP2008274681 A JP 2008274681A JP 2010102585 A JP2010102585 A JP 2010102585A
- Authority
- JP
- Japan
- Prior art keywords
- dot
- feature amount
- reference feature
- dots
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 84
- 238000003384 imaging method Methods 0.000 claims abstract description 32
- 230000002093 peripheral effect Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 abstract description 18
- 238000000034 method Methods 0.000 description 63
- 102100036464 Activated RNA polymerase II transcriptional coactivator p15 Human genes 0.000 description 23
- 101000713904 Homo sapiens Activated RNA polymerase II transcriptional coactivator p15 Proteins 0.000 description 23
- 229910004444 SUB1 Inorganic materials 0.000 description 23
- 229910004438 SUB2 Inorganic materials 0.000 description 17
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 17
- 101150018444 sub2 gene Proteins 0.000 description 17
- 101150080287 SUB3 gene Proteins 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000003491 array Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、平面上を移動する物体の位置を検出するシステムに関する。 The present invention relates to a system for detecting the position of an object moving on a plane.
従来、建物内において搬送機械、ロボット、人間等の移動体の位置を検出する方法としては、天井カメラ方式、天井ID設置方式、超音波利用方式、RFID利用方式等の方法が知られている。 Conventionally, methods such as a ceiling camera method, a ceiling ID installation method, an ultrasonic wave utilization method, and an RFID utilization method are known as methods for detecting the position of a moving body such as a transport machine, a robot, and a human in a building.
天井カメラ方式は、天井や壁に設置したカメラを用いて、対象物に設置したマークを撮像し、このマークを検出することで位置を割り出す方法である。また、天井ID設置方式は、赤外線を反射するIDマーカを天井に設置し、下方から赤外線を照射してその反射をカメラでとらえることによって、カメラの位置・方向を検出する。しかし、これらの方法は、天井や壁などの構造物が上方にないと成立しない。また、カメラとマークとの間を遮断する物体が存在する場合には検出不能になる。 The ceiling camera system is a method of determining a position by imaging a mark installed on an object using a camera installed on a ceiling or a wall and detecting the mark. The ceiling ID installation method detects the position and direction of the camera by installing an ID marker that reflects infrared rays on the ceiling, irradiating infrared rays from below and capturing the reflection with the camera. However, these methods cannot be established unless a structure such as a ceiling or a wall is located above. Further, when there is an object that blocks between the camera and the mark, the detection becomes impossible.
超音波利用方式は、天井や壁に超音波マイクを複数配置するとともに、対象物に超音波スピーカを設置し、超音波スピーカに発音指令を送ってから超音波マイクでその音が聞こえるまでの時間を計測し、この時間から超音波スピーカと複数の超音波マイク間の距離を割り出し、三角測量によりスピーカの3次元位置を算出する方法である。しかしながら、この方法では、スピーカとマイクとの間に物体が入ると音が遮断されるため、計測不能になる。また、壁や柱で超音波が反射されることで、大きな計測誤差が生じる。 In the ultrasonic usage method, multiple ultrasonic microphones are placed on the ceiling or wall, an ultrasonic speaker is installed on the object, and the time from when the sound generation command is sent to the ultrasonic speaker until the sound is heard by the ultrasonic microphone. Is measured, the distance between the ultrasonic speaker and the plurality of ultrasonic microphones is determined from this time, and the three-dimensional position of the speaker is calculated by triangulation. However, in this method, if an object enters between the speaker and the microphone, the sound is cut off and measurement is impossible. In addition, a large measurement error occurs due to reflection of ultrasonic waves by walls and columns.
RFID方式は、床にRFIDタグを多数配置し、これらのRFIDタグをRFIDレシーバにより受信し、受信したRFIDタグのIDにより検出位置を特定する方法である。しかしながら、一般には、RFIDタグは不連続に検出されるため、RFIDが検出できない位置では、位置を検出することができない。RFIDタグを高密度に敷き詰めることにより、連続に近いタグの検出は可能であるが、コストが増大する上、検出値は数センチ単位に離散的であり、最小でも数センチの分解能でしか位置を特定することができない。 The RFID system is a method in which a large number of RFID tags are arranged on a floor, these RFID tags are received by an RFID receiver, and a detection position is specified by the ID of the received RFID tag. However, generally, since RFID tags are detected discontinuously, the position cannot be detected at a position where the RFID cannot be detected. Although it is possible to detect near-continuous tags by spreading RFID tags at a high density, the cost increases and the detection values are discrete in units of several centimeters, and the position can be located only with a resolution of several centimeters at the minimum. It cannot be specified.
さらに、上記の各種方式のような建物内の移動体の位置検出に限らず、平面上に配置したパターン(模様)を利用して、平面上を移動する移動体の位置の検出を行う方法が知られている(例えば特許文献1を参照)。 Furthermore, the method of detecting the position of the moving body moving on the plane using a pattern (pattern) arranged on the plane is not limited to the position detection of the moving body in the building as in the above various methods. It is known (see, for example, Patent Document 1).
特許文献1の位置検出システムでは、平面のXY座標値を符号化した符号化パターンが平面上に配置されている。この符号化パターンは、複数の格子状の基準線を備えており、複数のドットが基準線の各交点の位置に関連づけられて配置されている。移動体に備えられた位置検出装置は、移動体が位置する平面上の領域を撮像し、取得した画像を処理して符号化パターンを識別し、この符号化パターンを復元することによって移動体の平面上のXY座標値を得る。
In the position detection system of
特許文献1に示すように、平面上に配置したパターンを利用して、平面上を移動する移動体の位置の検出を行う位置検出システムでは、平面上の各座標値に1つの符号化パターンを対応させているため、パターンの設計の自由度が低いという問題がある。特に、特許文献1の位置検出システムでは、格子状の基準線の交点周辺にドットが配置されるため、格子模様に近いパターンのみしか適用することができない。
As shown in
本発明は、上記の点に鑑み、従来のように平面の座標値に対応させてコード化したパターンを用いずに、平面上に描いたパターンを利用して移動体の位置の検出を行うことができる移動体位置検出システムを提供することを目的とする。 In view of the above points, the present invention detects the position of a moving body using a pattern drawn on a plane without using a pattern encoded in correspondence with the coordinate value of the plane as in the prior art. It is an object to provide a movable body position detection system capable of
本発明の移動体位置検出システムは、表面に同一のドットパターンが配置された複数のパネルを並設することにより構成される平面と、前記ドットパターンを構成する個々のドットと前記個々のドットの周辺に位置する複数のドットとの位置関係を、前記個々のドットの基準特徴量として算出し、前記基準特徴量を、前記個々のドットの前記平面における座標値と対応付けて基準特徴量データベースに格納する基準特徴量格納手段と、前記平面上を移動する移動体に備えられ、前記移動体が位置する前記平面上の領域を予め決められた時間間隔で撮像する撮像手段と、前記撮像手段が取得した画像中の複数のドットから所定のドットを選択し、選択したドットと、このドットの周辺に位置する複数のドットとの位置関係を、選択したドットの検出特徴量として算出する検出特徴量算出手段と、前記検出特徴量を、前記基準特徴量データベース中の所定の大きさの照合範囲の基準特徴量と照合することにより、前記検出特徴量と最も一致度の高い基準特徴量を選択し、選択した基準特徴量の前記平面における座標値を、前記平面における移動体の現在位置として検出する特徴量照合手段と、を備えたことを特徴とする。 The moving body position detection system according to the present invention includes a plane configured by arranging a plurality of panels having the same dot pattern arranged on the surface thereof, individual dots constituting the dot pattern, and individual dots. A positional relationship with a plurality of dots located in the vicinity is calculated as a reference feature amount of each individual dot, and the reference feature amount is associated with a coordinate value on the plane of each individual dot in a reference feature amount database. Reference feature quantity storage means for storing, an imaging means provided in a moving body that moves on the plane, and that captures an area on the plane on which the moving body is located at a predetermined time interval; and A predetermined dot is selected from a plurality of dots in the acquired image, and the positional relationship between the selected dot and a plurality of dots positioned around this dot is determined based on the selected dot. A detected feature amount calculating means for calculating as an output feature amount, and the detected feature amount most closely matches the detected feature amount by comparing the detected feature amount with a reference feature amount of a matching range of a predetermined size in the reference feature amount database. And a feature amount matching unit that selects a reference feature amount having a high degree and detects a coordinate value of the selected reference feature amount on the plane as a current position of the moving object on the plane.
また、本発明の請求項2の移動体位置検出システムは、上記請求項1において、ドットパターンが、前記パネルを複数のブロックに分割し、各ブロック内のランダムな位置にドットを配置することによって作成されたものであることを特徴とする。
A moving body position detection system according to claim 2 of the present invention is the moving object position detection system according to
また、本発明の請求項3の移動体位置検出システムは、上記請求項1又は2において、前記基準特徴量及び検出特徴量が、ドットと該ドットを中心とする所定半径の円の領域内に位置する複数の周辺ドットとを結ぶ各線分の方向からなる配列と、各線分の長さからなる配列を含むことを特徴とする。
The moving body position detection system according to
また、本発明の請求項4の移動体位置検出システムは、上記請求項1から3のいずれか一つにおいて、前記照合範囲が、同じ基準特徴量をもつドットが含まれない範囲に設定されることを特徴とする。 According to a fourth aspect of the present invention, in the mobile body position detection system according to any one of the first to third aspects, the collation range is set to a range that does not include dots having the same reference feature amount. It is characterized by that.
また、本発明の請求項5の移動体位置検出システムは、上記請求項1から3のいずれか一つにおいて、前記照合範囲が、前記移動体の最高移動速度と前記撮像手段の画像取得時間間隔から決まる前記移動体の移動可能範囲を包含する周辺領域に設定されることを特徴とする。 According to a fifth aspect of the present invention, in the moving body position detection system according to any one of the first to third aspects, the collation range includes a maximum moving speed of the moving body and an image acquisition time interval of the imaging means. It is set to the peripheral area | region which includes the movable range of the said mobile body determined from (1).
本発明の移動体位置検出システムによれば、従来のように平面座標値に対応させて符号化したドットパターンを用いて検出を行う場合と比べて、平面上に配置するドットパターンの設計の自由度を向上させることができる。 According to the movable body position detection system of the present invention, the design of the dot pattern arranged on the plane can be freely compared with the conventional case where detection is performed using the dot pattern encoded corresponding to the plane coordinate value. The degree can be improved.
さらに、従来の位置検出システムでは床面全体に異なるドットパターンを配置していたため、複数のパネルやタイル等の材料で床面を施工する際に、パネルを並べる順番と向きを間違えないように敷き詰める必要があり、施工性が悪いという問題があったが、本発明の移動体位置検出システムによれば、同一のドットパターンを有する複数のパネルを並設することによって床面を構成するようにしたことで、パネルを設置する際の施工性を向上させることができる。 In addition, since the conventional position detection system has a different dot pattern on the entire floor surface, when constructing the floor surface with materials such as multiple panels and tiles, lay out the panels in the correct order and orientation. However, according to the moving body position detection system of the present invention, the floor surface is configured by arranging a plurality of panels having the same dot pattern in parallel. By this, the workability at the time of installing a panel can be improved.
以下に、添付図面を参照して、本発明の移動体位置検出システムの好適な実施の形態について詳細に説明する。以下では、建物内の床面上を移動する移動体が自己の位置を検出する例について説明する。 Exemplary embodiments of a mobile body position detection system according to the present invention will be described below in detail with reference to the accompanying drawings. Below, the example which the mobile body which moves on the floor surface in a building detects an own position is demonstrated.
(実施の形態1)
図1は、本実施の形態である移動体位置検出システム1の概念図であり、図2の左図は、移動体の移動領域である床F(床パネルf)上に配置されたドットパターン3の一例を示す図、右図はドットパターン3の一部の領域を撮像した画像の一例を示す図である。また、図3は床Fの平面図であり、図4は移動体位置検出システム1における照合処理の概念図である。
(Embodiment 1)
FIG. 1 is a conceptual diagram of a moving body
図1に例示される移動体位置検出システム1は、複数のパネルを並設することにより構成される床Fと、移動体(図示を省略)に備えられ、移動体とともに床F上を移動する移動体位置検出装置10とから構成されている。ここで、移動体とは、例えば搬送台車、ロボット、人間等である。
A moving body
床Fは、図3に示すように、同一の大きさの正方形状に形成された複数の床パネルf11〜f33から構成されている。これらの複数の床パネルf11〜f33は、隣接する辺同士を接触させた状態で、X方向及びY方向に並設されている。ここで、各床パネルf11〜f33の2桁の添え字は、床パネルfのX方向及びY方向の並び番号を示している。 As shown in FIG. 3, the floor F is composed of a plurality of floor panels f 11 to f 33 formed in a square shape having the same size. The plurality of floor panels f 11 to f 33 are juxtaposed in the X direction and the Y direction in a state where adjacent sides are in contact with each other. Here, the two-digit subscripts of the floor panels f 11 to f 33 indicate the alignment numbers of the floor panel f in the X direction and the Y direction.
各床パネルf11〜f33は、図3に示すように、それぞれの表面に同一のドットパターン3が配置されている。すなわち、床Fの全体は、同一のドットパターン3の繰り返しとなっている。
As shown in FIG. 3, the
移動体位置検出装置10は、予め決められた時間間隔で移動体の位置する床F上の領域を撮像する撮像部11と、撮像部11によって撮像された画像を処理することにより移動体の位置検出を行う制御部15とを有している。
The moving body
図4に示すように、移動体位置検出装置10は、移動体の位置検出を行う前に、基準となる床パネルf11のドットパターン3を構成するすべてのドット5の特徴量を予め算出し、これを基準特徴量データベース16に蓄積する。この特徴量は、後述するように、ドットパターン3における個々のドット5と、個々のドット5の周辺に位置する複数のドット5との位置関係を算出したものである。以下では、これを「基準特徴量」とよぶことにする。算出された個々のドット5の基準特徴量は、個々のドット5の床F上の絶対座標値と対応付けられ、基準特徴量データベース16に格納される。
As shown in FIG. 4, the moving
また、移動体位置検出装置10は、移動体とともに移動する際に、自身が位置する床F上の領域を撮像し、取得した画像中の複数のドット5から所定のドット5A(図4を参照)を選択し、このドット5Aの特徴量を算出する。この特徴量は、後述するように、画像中のドット5Aと、ドット5Aの周辺に位置する複数のドット5Bとの位置関係を算出したものである。以下では、これを「検出特徴量」とよぶことにする。
Further, when the moving body
そして、移動体検出装置10は、取得画像中のドット5Aの検出特徴量を、基準特徴量データベース16中の所定の大きさの照合範囲の基準特徴量と照合することにより、最も一致度の高い基準特徴量を選択し、選択した基準特徴量の座標値を、床F上における移動体の現在位置として検出する。
Then, the moving
[ドットパターンの作成]
図5−1及び図5−2は、床パネルf11〜f33の表面にドットパターン3を作成する方法の一例を説明するための図である。図5−1では、基準となる床パネルf11の一部を拡大して示している。なお、上述したように、床Fを構成する床パネルf11〜f33は同一のドットパターン3をもつものであるから、以下に説明する計算は、基準となるひとつの床パネルf11のみ行えばよい。
[Create dot pattern]
FIGS. 5A and 5B are diagrams for explaining an example of a method of creating the
ドットパターン3を構成する複数のドット5は、原則的にはランダムに打たれたものであるが、まったくランダムにドット5を打つと、撮像部11の撮像領域に最小限度必要な数のドット5が存在しないという事態が生じることもあり得る。このような場合には移動体の位置検出を行うことができなくなるため、床面2上のどの領域を撮像しても画像中に最小限度必要な数のドット5が存在する程度に、床面2上に均一にドット5を打つ必要がある。
The plurality of
上記の点を考慮して、本実施の形態では、図5−1に示すように、床パネルf11の表面を正方形の複数のブロック(領域)4に分割し、各ブロック4内のランダムな位置に一つのドット5を打つことによって、ドットパターン3を作成する。各ブロック4内にランダムにドット5を打つ方法としては様々な方法が考えられるが、本実施の形態では、各ブロック4を、4のN乗個の正方形の小ブロックに細分化し、各ブロック4に対応してランダムに数値を発生させ、この数値に基づいて一つの小ブロックを選択し、選択した小ブロックの中心にドット5を割り当てる方法を採用している。
Considering the above points, in the present embodiment, as shown in FIG. 5A, the surface of the floor panel f 11 is divided into a plurality of square blocks (regions) 4, and random in each block 4. A
例えば、最も簡単な例として、図5−2に示すように、ブロック4を4つ(4の1乗個)の正方形の小ブロック4a〜4dに分け、ランダムに発生させた数値λijに応じて、小ブロック4a〜4dのいずれか一つにドット5を打つ。ここで、λijにおけるi及びjはブロック4の位置を示す番号であり、iはブロック縦方向の番号、jはブロック横方向の番号である。図5−2に示すように、0<λij≦0.25の範囲であれば、小ブロック4aにドット5を打つ。また、0.25<λij≦0.50の範囲であれば、小ブロック4bにドット5を打つ。また、0.50<λij≦0.75の範囲であれば、小ブロック4cにドット5を打つ。また、0.75<λij≦1.0の範囲であれば、小ブロック4dにドット5を打つ。例えば、図5−1に示すように、λ11は0.78であるから小ブロック4dにドット5が打たれ、λ12は0.32であるから小ブロック4aにドット5が打たれている。これを床パネルf11上の全てのブロック4について行うことにより、床パネルf11上にドットパターン3を作成することができる。なお、上記のドットパターン3の作成方法は一例であり、他にも様々な作成方法が考えられる。
For example, as the simplest example, as shown in FIG. 5B, the block 4 is divided into four (four to the power of 4) square
[基準特徴量データベースの作成]
次に、ドットパターン3における個々のドット5の基準特徴量の算出方法について説明する。上記のように、各床パネルf11〜f33は同一のドットパターン3を有している。従って、以下に説明する基準特徴量の計算は、基準となるひとつの床パネルf11についてのみ行う。
[Create reference feature database]
Next, a method for calculating the reference feature amount of each
図6に示すように、算出対象となるドット5aを中心とした所定半径の大きさの円を想定する。以下では、ドット5aを「中心ドット5a」とよぶ。この円の半径は特に限定されないが、本実施の形態では、円の半径をブロック4の1辺の長さの1.25倍としてある。図6に示す例では、中心ドット5aを中心とした円の領域内に、5つの周辺ドット5b1〜5b5がある。
As shown in FIG. 6, a circle having a predetermined radius centered on the
次に、中心ドット5aと各周辺ドット5b1〜5b5とを結ぶ5本のアーム(線分)を描き、アーム6a〜6eのいずれか一つのアームを基準として選び、このアームと他の4本のアームとのなす角度から各アーム6a〜6eの方向を求める。さらに、5本のアーム6a〜6eの長さを求める。
Next, draw a five arms connecting the
中心ドット5aと各周辺ドット5b1〜5b5との位置関係は、アーム6a〜6eの数と、各アーム6a〜6eの方向の配列と、各アーム6a〜6eの長さの配列とからなる。図6に示す中心ドット5aを例に示すと、アーム数は5、各アーム6a〜6eの方向の配列は、アーム6aを基準として、(0,90,150,240,300)、各アーム6a〜6eの長さの配列は、ブロック4の一辺の長さを1として、(1,0.5,1.2,0.5,1.2)と表わされる。以下では、アームの方向の配列を、省略して「アーム方向配列」とよび、アームの長さの配列を、省略して「アーム長配列」とよぶ。
Positional relationship between the
ドットパターン3のすべてのドット5について、上述したアームの数、アーム方向配列、アーム長配列を算出する。これをドットパターン3の各ドット5の基準特徴量とする。床パネルf11の各ドット5の基準特徴量は、各ドット5の床Fの絶対座標値と対応付けて基準特徴量データベース16に格納される。
The number of arms, the arm direction arrangement, and the arm length arrangement described above are calculated for all
他の床パネルf12〜f33については、基準となる床パネルf11に対する相対座標(基準となる床パネルf11に対して床パネルf12〜f33が相対的にどこに配置されているかを示す座標)を基準特徴量データベース16に格納しておく。後述するように、移動体の位置検出を行う際には、基準となる床パネルf11に対する他の床パネルf12〜f33の相対的な位置が分かっていれば、他の床パネルf12〜f33における各ドットの絶対座標値を求めることができる。
For the other floor panels f 12 to f 33 , relative coordinates with respect to the reference floor panel f 11 (where the floor panels f 12 to f 33 are arranged relative to the reference floor panel f 11 are shown. Are stored in the
[移動体位置検出処理]
次に、移動体位置検出装置10が床面2上の移動体の位置を検出する処理について説明する。図7は移動体位置検出装置10のブロック図である。図7に示すように、移動体位置検出装置10は、撮像部11、ドットパターン作成部12、基準特徴量算出部13、基準特徴量格納部14、制御部15及び記憶部19とから構成されている。
[Moving object position detection processing]
Next, the process in which the moving body
撮像部11は、CCDカメラ等の画像取得装置である。撮像部11は移動体に固定されており、移動体とともに移動しながら、移動体の位置する床面2上の領域を所定の時間間隔で撮像し、図2に示したような画像を取得する。本実施の形態では、高速度カメラを用いて、例えば10ms程度の時間間隔で画像を取得している。また、図1に示すように、撮像部11と床面2との間の距離は数センチメートルであり、照明11aを用いることで、外乱光の影響の少ない画像を取得することができる。
The
ドットパターン作成部12は、床パネルf上に配置される個々のドット5の位置を算出し、床パネルfにドットパターン3を作成する。ドットパターン3の作成手順は上述したとおりである。
The dot pattern creation unit 12 calculates the position of each
基準特徴量算出部13は、ドットパターン作成部12によって作成された床パネルfのドットパターン3におけるすべてのドット5の基準特徴量を算出する。基準特徴量の算出手順は上述したとおりである。
The reference feature value calculation unit 13 calculates the reference feature values of all the
基準特徴量格納部14は、基準特徴量算出部13で算出された基準となる床パネルf11の個々のドット5の基準特徴量を床Fの絶対座標値と対応付けて格納するとともに、基準となる床パネルf11に対する他の床パネルf12〜f33の相対座標値を格納する部位であり、上述した基準特徴量データベース16を有している。
Reference characteristic amount storage unit 14, a reference feature amount of
制御部15は、撮像部11によって撮像された画像を処理することにより移動体の床面2上における位置検出を行うものであり、検出特徴量算出部17と特徴量照合部18とを備えている。
The
検出特徴量算出部17は、図4に示すように、撮像部11が取得した画像中の複数のドット5から、画像の中心に近い位置にあるドット5A(以下、これを「中心ドット5A」という)を選択し、選択したドット5Aと、このドット5Aの周辺に位置する複数のドット5Bとの位置関係を、ドット5Aの検出特徴量として算出する。
As shown in FIG. 4, the detection feature amount calculation unit 17 uses a plurality of
検出特徴量は、上述した基準特徴量の算出方法と同様にして算出する。図4に示す取得画像において、中心ドット5Aを中心とした所定半径の大きさの円を想定する。この円の半径は、基準特徴量を算出した際の円の半径と同じとする。図4に示す例では、中心ドット5Aを中心とした円の領域内に、5つの周辺ドット5B1〜5B5がある。中心ドット5Aと各周辺ドット5B1〜5B5とを結ぶ5本のアーム6A〜6Eを描き、5本のアーム6A〜6Eのいずれか一つのアームを基準として選び、基準となるアームと他の4本のアームとのなす角度θ1〜θ5(θ1は0°)から、各アームの方向を求める。さらに、5本のアーム6A〜6Eの長さL1〜L5を求める。すなわち、中心ドット5Aの検出特徴量は、アーム6A〜6Eの本数と、アーム方向配列(θ1,θ2,θ3,θ4,θ5)と、アーム長配列(L1,L2,L3,L4,L5)とで表される。
The detected feature amount is calculated in the same manner as the reference feature amount calculation method described above. In the acquired image shown in FIG. 4, a circle having a predetermined radius with the
特徴量照合部18は、検出特徴量算出部17で算出した取得画像中における中心ドット5Aの検出特徴量を基準特徴量データベース16中の所定の大きさの照合範囲の基準特徴量と照合することにより、中心ドット5Aの検出特徴量と最も一致度の高い基準特徴量を選択する。そして、選択したドットの絶対座標値を、床F上における移動体の現在位置として検出する。以下では、基準特徴量データベース16中の所定の大きさの照合範囲にある基準特徴量を、「基準特徴量データリスト20」とよぶ。
The feature amount matching unit 18 matches the detected feature amount of the
上述したように、床Fの全体は同一のドットパターン3の繰り返しとなっている。そのため、画像中の中心ドット5Aの検出特徴量を、基準特徴量データリスト20と照合する際に、基準特徴量データリスト20の大きさ(照合範囲)を大きくしすぎると、照合範囲の中に、同じ基準特徴量をもつ2つ以上のドット5があらわれるといった事態が生じる。すなわち、異なる床パネルにおいて同じ位置にあるドット5が照合範囲に含まれる。このような場合には移動体の位置検出が不能となる。同じ基準特徴量をもつドットが照合範囲に含まれてしまう照合範囲の大きさの目安は、床パネル1枚の大きさ程度である。このため、上記の照合範囲はそれよりも小さくしなければならない。照合範囲をどの程度の大きさにするかは、以下のようにして決めることができる。
As described above, the entire floor F is a repetition of the
図8は、床F上を移動する移動体の軌跡を概念的に示したものである。図8における点P1〜Pnは、撮像部11の画像取得時における移動体の位置、すなわち、移動体の検出位置をそれぞれ表している。撮像部11は、一定の時間間隔で画像を取得する。点P1は移動体の初期位置(移動開始位置)である。また、初期位置P1を中心とした所定半径の円内領域C1は、上述した照合範囲である。この照合範囲C1は、具体的には、次の画像取得時における移動体の位置P2を検索する範囲を意味する。
FIG. 8 conceptually shows the trajectory of the moving body moving on the floor F. Points P 1 to P n in FIG. 8 respectively represent the position of the moving body at the time of image acquisition by the
図8に示すように、照合範囲C1は、移動体の初期位置P1からの移動可能範囲M1を包含する周辺領域である。ここで、移動体の移動可能範囲M1とは、移動体の移動最高速度と撮像部11の画像取得時間間隔から決まる移動体の移動範囲である。具体的な例を挙げて説明すると、撮像部11の画像取得間隔を10ms(100分の1秒)、移動体の移動最高速度を1.0m/sとすると、1回の画像取得間隔10msの間で移動体は10mm進む。この場合、移動体の移動可能範囲M1は、移動体を中心とした半径10mmの円の領域内である。すなわち、移動可能範囲とは、撮像部11が画像を取得してから次の画像を取得するまでの間に移動体が進むことのできる範囲である。従って、照合範囲C1は、移動可能範囲M1よりも大きく設定する必要があるが、図8に示すように、移動可能範囲M1よりも一回り程度大きい周辺領域に設定すれば、次の画像取得時における移動体の位置P2を確実に検出することができる。
As shown in FIG. 8, collation range C 1 is a peripheral region containing the movable range M 1 from the initial position P 1 of the moving body. Here, the movable range M 1 of the moving body is a moving range of the moving body determined from the maximum moving speed of the moving body and the image acquisition time interval of the
但し、上述したように、照合範囲C1は、同じ基準特徴量をもつドット5が含まれない範囲としなければならない。従って、図8に示す移動可能範囲M1が床パネル一枚の広さを超えるような場合には位置検出不能となる。このような場合には、撮像部11の画像取得時間間隔を短く設定し、移動可能範囲M1を床パネル一枚の大きさよりも小さくする必要がある。
However, as described above, collation range C 1 must be within a range that does not include
記憶部19は、基準特徴量データベース16中から抽出された基準特徴量データリスト20を一時的に格納する部位である。
The storage unit 19 is a part that temporarily stores the reference feature value data list 20 extracted from the reference
図9〜図12は、上記のように構成した移動体位置検出装置10の制御部15が実行する処理の流れを示すフローチャートである。図9はメインフローチャートであり、図10及び図11は図9のサブフローチャートである。また、図12は図10及び図11のサブフローチャートである。以下、図8及び図9〜図12を参照しながら、制御部15が実行する処理手順について説明する。
FIGS. 9-12 is a flowchart which shows the flow of the process which the
検出処理を行う前に、予め移動体が移動を開始する床パネルの並び番号を入力しておく。例えば図8に示す例では、移動体の初期位置P1は床パネルf13上にあるので、「f13」と入力する。移動体位置検出装置10の制御部50は、移動開始パネルf13が入力されると(ステップS1)、移動体の初期位置P1の検出処理を行う。移動体の初期位置P1を検出する手順は、図10に示す手順SUB1と、図11に示す手順SUB2の2通りがある。まず、図10に示す手順について説明する。
Before performing the detection process, the array number of the floor panel from which the moving body starts moving is input in advance. In the example shown in FIG. 8 example, since the initial position P 1 of the moving body is on the floor panel f 13, enter "f 13". Control unit 50 of the mobile
図10に示すように、制御部15は、撮像部11から移動体の初期位置P1の画像データを取得すると(SUB1:ステップS11)、画像中の複数のドットから一つのドット5A(中心ドット5A)を選択し、検出特徴量算出部17を通じて、中心ドット5Aの検出特徴量を計算する(SUB1:ステップS12)。ここで、検出特徴量とは、図4に示すように、中心ドット5Aと複数の周辺ドット5Bとを結ぶアーム本数、アーム方向配列、アーム長配列である。制御部15は、中心ドット5Aのアーム本数が閾値以上である場合に(SUB1:ステップS13:Yes)、基準特徴量データベース16から移動開始パネルf13に対応する基準特徴量データリスト20を抽出し、これを記憶部19に格納する。そして、制御部50は、特徴量照合部18を通じて、中心ドット5Aの検出特徴量を記憶部19の基準特徴量データリスト20と照合する(SUB3)。一方、中心ドット5Aにおけるアーム本数が閾値未満の場合には(SUB1:ステップS13:No)、基準特徴量データリスト20と照合せず、画像中の別のドットを新たに中心ドット5Aとして選択し(SUB1:ステップS14)、ステップS12に戻って新たに選択した中心ドット5Aの検出特徴量を計算する。ここで、ステップ13におけるアーム本数の閾値は、ドットパターン3のドット5の密度等により適宜設定されるものである。本実施の形態では、アーム本数の閾値を4本としている。
As shown in FIG. 10, the
ステップS13で、検出特徴量のアーム本数に閾値を設ける理由は、アーム本数が少ないと照合結果が1つに決まる割合が低くなるためであり、計算を高速化することを目的としている。しかしながら、ステップS13は必ずしも設ける必要はなく、ステップS13を省略してもよい。 The reason why the threshold value is provided for the number of arms of the detected feature amount in step S13 is that, when the number of arms is small, the rate at which the collation result is determined as one decreases, and the purpose is to speed up the calculation. However, step S13 is not necessarily provided, and step S13 may be omitted.
画像中の中心ドット5Aの検出特徴量を基準特徴量データリスト20と照合する処理(SUB3)は、図12に示す手順で行う。まず、基準特徴量データリスト20から、画像中の中心ドット5Aのアーム方向配列と一致するドットを選ぶ(SUB3:ステップS41)。
The process (SUB3) for collating the detected feature quantity of the
上述したように、基準特徴量データリスト20(基準特徴量データベース16)には、各ドットのアーム方向配列として、特定の基準となるアームと他のアームとのなす角度からなる配列が一種類ずつ格納されている。従って、画像中の中心ドット5Aのアーム方向配列において基準となるアームと、基準特徴量データリスト20のドットのアーム方向配列において基準となるアームは必ずしも一致しない可能性がある。そのため、画像中の中心ドット5Aのアーム方向配列として、各アームを基準アームとした配列を作成する。すなわち、図4に示す画像中の中心ドット5Aのようにアーム数が5本の場合には、5本の各アームを基準アームとした5種類のアーム方向配列を作り、この5種類のアーム方向配列を、基準特徴量データリスト20のアーム方向配列と照合する。
As described above, in the reference feature value data list 20 (reference feature value database 16), each dot is arranged in one direction in the direction of the arm and the angle between a specific reference arm and another arm. Stored. Therefore, there is a possibility that the reference arm in the arm direction arrangement of the
アーム方向配列が一致した場合、一致した基準特徴量データリスト20のドットのアーム長配列と、画像中の中心ドット5Aのアーム長配列との一致度を求める(SUB3:ステップS42)。上述したように、基準特徴量データリスト20における各ドットのアーム長配列は、特定の基準となるアームから順番にアーム長を並べた配列が一種類ずつ格納されている。このため、アーム長配列の一致度を求める際には、画像中の中心ドット5Aのアーム長の順を並べ替えた配列も作成する。すなわち、図4に示す画像中の中心ドット5Aのようにアーム数が5本の場合には、(L1,L2,L3,L4,L5),(L2,L3,L4,L5,L1,),(L3,L4,L5,L1,L2),(L4,L5,L1,L2,L3),(L5,L1,L2,L3,L4)の5種類のアーム長配列を求め、この5種類のアーム長配列と、基準特徴量データリスト20のアーム長配列との一致度を求める。そして、この中から一致度が最も高いものを選ぶ(SUB3:ステップS43)。
When the arm direction arrangements match, the degree of coincidence between the matched arm length arrangement of the reference feature
アーム長配列の一致度を求める方法の一例としては、以下に説明する方法がある。上記の5種類の各アーム長配列をそれぞれの配列の大きさで割って単位ベクトルにする。また、基準特徴量のアーム長配列も配列の大きさで割って単位ベクトルにする。そして、5種類の各アーム長配列(単位ベクトル)と、基準特徴量のアーム長配列(単位ベクトル)との内積を計算し、この内積の値を一致度とする。すなわち、内積の値が最も1に近いものを、最も一致度が高いものとする。なお、アーム長配列の一致度として内積の値を用いることは、あくまでも一例であり、他の方法を用いることもできる。 As an example of a method for obtaining the degree of coincidence of arm length arrays, there is a method described below. The above five types of arm length arrays are divided by the size of each array to form a unit vector. Also, the arm length array of the reference feature amount is divided by the array size into a unit vector. Then, the inner product of each of the five types of arm length arrays (unit vectors) and the reference feature amount arm length array (unit vector) is calculated, and the value of the inner products is used as the degree of coincidence. That is, the one with the inner product value closest to 1 is assumed to have the highest degree of coincidence. Note that the use of the inner product value as the matching degree of the arm length array is merely an example, and other methods can be used.
なお、アーム方向配列の照合、及び、アーム長配列の一致度の基準は、画像解像度などに起因する誤差に対する許容範囲を持たせておく。 Note that the collation of the arm direction arrangement and the reference for the degree of coincidence of the arm length arrangements have an allowable range for errors caused by image resolution and the like.
基準特徴量データベースの照合処理SUB3が完了した後、制御部15は、図10に示すように、画像中の中心ドット5Aと一致したものが1つであるか否かを判定する(SUB1:ステップS15)。一致したものが一つであった場合には(SUB1:ステップS15:Yes)、基準特徴量データリスト20における一致したドットの床F上の絶対座標値を現在位置として検出する。
After the reference feature database matching process SUB3 is completed, as shown in FIG. 10, the
この一致したドット5の絶対座標値は以下のようにして求めることができる。上述したように、基準特徴量データリスト20には、基準となる床パネルf11に対する他の床パネルf12〜f33の相対座標が格納されている。基準となるパネルf11において、基準特徴量データリスト20の一致したドットと同じ特徴量をもつドットをPn(図示せず)として、このPnの絶対座標値に、床パネルf13の相対座標を加算すれば、一致したドットの絶対座標値が求められる。この絶対座標値を、初期位置P1の現在位置とする(SUB1:ステップS16)。
The absolute coordinate value of the matched
一方、一致したものが複数あった場合には(SUB1:ステップS15:No)、照合結果を採用せず、画像中の別のドット5を新たに中心ドット5Aとして選択し(SUB1:ステップS14)、新たに選択した中心ドット5Aの検出特徴量を計算する(SUB1:ステップS12)。以降、最終的に照合結果が一つに決まるまでステップS12からステップS15までの処理を繰り返す。
On the other hand, if there are multiple matches (SUB1: Step S15: No), the matching result is not adopted, and another
制御部15は、移動体の初期位置P1を検出すると、基準特徴量データベース16から、初期位置P1を中心とした照合範囲C1にあるドットの基準特徴量データリスト20抽出し、これを記憶部19に格納する(ステップS2)。そして、移動体の現在位置の検出処理を開始する(SUB1)。
When detecting the initial position P 1 of the moving body, the
制御部15は、撮像部11から画像データを取得すると(SUB1:ステップS11)、画像中の複数のドットから一つのドット(中心ドット5A)を選択し、検出特徴量算出部17を通じて、中心ドット5Aの検出特徴量を計算する(SUB1:ステップS12)。制御部15は、中心ドット5Aにおけるアーム本数が閾値以上である場合に(SUB1:ステップS13:Yes)、特徴量照合部18を通じて、中心ドット5Aの検出特徴量を記憶部19の基準特徴量データリスト20と照合する(SUB3)。一方、中心ドット5Aにおけるアーム本数が閾値未満の場合には(SUB1:ステップS13:No)、基準特徴量データリスト20と照合せず、画像中の別のドット5を新たに中心ドット5Aとして選択し(SUB1:ステップS14)、ステップS12に戻って新たに選択した中心ドット5Aの検出特徴量を計算する。
When acquiring image data from the imaging unit 11 (SUB1: step S11), the
制御部15は、SUB3のステップS41〜ステップS43において照合範囲C1の基準特徴量データリスト20の照合を行い、画像中の中心ドット5Aと一致したものが1つであるか否かを判定する(SUB1:ステップS15)。一致したものが一つであった場合には(SUB1:ステップS15:Yes)、基準特徴量データリスト20の一致したドットの床F上での絶対座標値を、移動体の現在位置P2として検出する(SUB1:ステップS16)。この一致したドット5の絶対座標値を求める方法は、上記の初期位置P1の場合と同じである。
制御部15は、移動体の現在位置P2を検出した後、ステップS2に戻り、基準特徴量データベース16から、次の照合範囲C2の基準特徴量データリスト20を抽出し、これを記憶部19に格納する。以上のようにして、制御部15は、これ以降、移動体の現在位置(P3,P4,・・・,Pn,・・・)の検出処理を繰り返す。
なお、図8に示す照合範囲C3のように、照合範囲が床パネルf13、床パネルf12、床パネルf22、床パネルf23の複数枚の床パネルに跨っている場合であっても、基準となる床パネルf11に対する各床パネルの相対座標から、床パネルf13、床パネルf12、床パネルf22、床パネルf23の各照合範囲のドット5の基準特徴量を抽出することができる。制御部15は、照合範囲C3における床パネルf13、床パネルf12、床パネルf22、床パネルf23の各領域のドット5の基準特徴量と照合し、現在位置P4の位置を検出する。
As in the collation range C 3 shown in FIG. 8, in a case where the collation range floor panel f 13, the floor panel f 12, the floor panel f 22, spans a plurality floor panels of the floor panels f 23 Also, the reference feature quantity of
次に、移動体の現在位置を検出する手順として、図11に示す手順(SUB2)を採用した場合について説明する。なお、以下では移動体の初期位置P1を検出する際の手順について説明する。 Next, the case where the procedure (SUB2) shown in FIG. 11 is adopted as a procedure for detecting the current position of the moving body will be described. In the following described procedure for detecting the initial position P 1 of the moving body.
図11に示すように、制御部15は、撮像部11から移動体の初期位置P1の画像データを取得すると(SUB2:ステップS21)、画像中の複数のドットから一つ目のドット5(第1中心ドット5A1)を選択し、検出特徴量算出部17を通じて、第1中心ドット5A1の検出特徴量を計算する(SUB2:ステップS22)。制御部15は、第1中心ドット5A1におけるアーム本数が閾値以上である場合に(SUB2:ステップS23:Yes)、基準特徴量データベース16から移動開始パネルf13に対応する基準特徴量データリスト20を抽出し、これを記憶部19に格納する。そして、特徴量照合部18を通じて、第1中心ドット5A1の検出特徴量を記憶部19の基準特徴量データリスト20と照合する(SUB3)。一方、第1中心ドット5A1におけるアーム本数が閾値未満の場合には(SUB2:ステップS23:No)、基準特徴量データリスト20と照合せず、画像中の別のドットを新たに第1中心ドット5A1として選択し(SUB2:ステップS24)、ステップS22に戻って新たに選択した第1中心ドット5A1の検出特徴量を計算する。
As shown in FIG. 11, the
図12に示すSUB3のステップS41〜S43の照合処理を行い、基準特徴量データリスト20から、画像中の第1中心ドット5A1と最も一致度の高いドットを選択する。複数のドットが選択された場合には、これらを「一致候補群」とする(SUB2:ステップS25)。
Performs verification processing of steps S41~S43 of SUB3 shown in FIG. 12, the reference feature
次いで、制御部15は、画像中の複数のドットから二つ目のドット(第2中心ドット5A2)を選択し、検出特徴量算出部17を通じて、第2中心ドット5A2の検出特徴量を計算する(SUB2:ステップS26)。制御部15は、第2中心ドット5A2におけるアーム本数が閾値以上である場合に(SUB2:ステップS27:Yes)、特徴量照合部18を通じて、第2中心ドット5A2の検出特徴量を記憶部19の基準特徴量データリスト20と照合する(SUB3)。一方、第2中心ドット5A2におけるアーム本数が閾値未満の場合には(SUB2:ステップS27:No)、基準特徴量データリスト20と照合せず、画像中の別のドット5を新たに第2中心ドット5A2として選択し(ステップS28)、ステップS26に戻って新たに選択した第2中心ドット5A2の検出特徴量を計算する。
Next, the
図12に示すSUB3のステップS41〜S43の照合処理を行い、基準特徴量データリスト20から、画像中の第2中心ドット5A2と最も一致度の高いドットを選択する。複数のドットが選択された場合には、これらを「一致候補群」とする(SUB2:ステップS29)。
Performs verification processing of steps S41~S43 of SUB3 shown in FIG. 12, the reference feature
次いで、制御部15は、ステップS25の第1中心ドット5A1の一致候補群と、ステップS29の第2中心ドット5A2の一致候補群との組み合わせから、適切な組み合わせを選択する(SUB2:ステップS30)。具体的には、2つのドット間の距離が、取得画像中の第1中心ドット5A1と第2中心ドット5A2との間の距離と等しいものを、最適な組み合わせとして選択する。
Then, the
次いで、制御部15は、最適な組み合わせとして各一致候補群から選択した2つのドットの中点の床F上の絶対座標値を、移動体の初期位置P1として検出する(SUB2:ステップS31)。
Then, the
先に説明したSUB1の処理では、基準特徴量データリスト20の照合結果が最終的に一つに決まるまで、画像中の中心ドット5Aを替えて検出特徴量の計算及び照合処理を繰り返し行ったが、後に説明したSUB2の処理では、これらの処理を何回も行う必要がなく、一度の処理で現在位置を特定することが可能である。従って、SUB2の処理は、SUB1の処理と比べて検出時間が速くなるというメリットがある。なお、次の検出位置P2以降の位置検出処理についても、同様にしてSUB2の処理を行う。
In the processing of SUB1 described above, until the matching result of the reference feature
以上説明したように、本実施の形態の移動体位置検出システム1は、表面に同一のドットパターン3が配置された複数の床パネルfを並設することにより構成される床Fと、のドットパターン3を構成する個々のドット5とこの個々のドット5の周辺に位置する複数のドット5との位置関係を、個々のドット5の基準特徴量として算出し、基準特徴量を個々のドット5の床Fにおける座標値と対応付けて基準特徴量データベース16に格納する基準特徴量データベース16と、移動体が位置する床F上の領域を予め決められた時間間隔で撮像する撮像部11と、撮像部11が取得した画像中の複数のドット5から所定のドット(中心ドット5A)を選択し、選択したドット5Aと、このドット5Aの周辺に位置する複数のドット5Bとの位置関係を、選択したドット5Aの検出特徴量として算出する検出特徴量算出部17と、検出特徴量を、基準特徴量データベース16中の所定の大きさの照合範囲の基準特徴量データリスト20と照合することにより、検出特徴量と最も一致度の高い基準特徴量を選択し、選択した基準特徴量の絶対座標値を床F上における移動体の現在位置として検出する特徴量照合部18を備えた構成としている。すなわち、本実施の形態では、ドットパターン3を床上の座標値に対応させて符号化する手法を採用しないため、従来のように床上の座標値に対応させて符号化したパターンを用いて検出を行う場合と比べて、床面上のパターンの設計の自由度を向上させることができる。
As described above, the moving body
具体的には、床上の座標値に対応させて符号化したパターンを用いて検出を行う場合と比べて、ランダムなドットパターンを床F上に配置することが可能となる。 Specifically, a random dot pattern can be arranged on the floor F as compared with the case where detection is performed using a pattern encoded in correspondence with coordinate values on the floor.
また、従来の位置検出システムでは床面全体に異なるドットパターンを配置していたため、複数の床パネル等の材料で床を施工する際に、床パネルを並べる順番、向きを間違えないように敷き詰める必要があり、施工性が悪いという問題があったが、本実施の形態の移動体位置検出システム1では、同一のドットパターン3を有する複数の床パネルfを並設することによって床Fを構成している。上記のように構成したことで、床Fを施工する際には、床パネルfの向きに留意するだけでよいため、床パネルfを設置する際の施工性を向上させることができる。また、同一のドットパターン3の床パネルfを使用することで、異なるドットパターンを床パネル一枚一枚に施すよりも安価に施工することができる。さらに、予め床F全体のドット5の基準特徴量を、基準特徴量データベース16に格納するため、床パネルfの境界等を勘案する必要はない。
In addition, since different dot patterns are placed on the entire floor surface in conventional position detection systems, it is necessary to lay the floor panels in order so that the order and orientation of the floor panels are correct when constructing the floor with materials such as multiple floor panels. However, in the moving body
さらに、本実施の形態の移動体位置検出システム1では、検出特徴量と照合する基準特徴量データリスト20の大きさ(照合範囲)を、同じ基準特徴量をもつドット5が含まれない範囲に設定している。このため、同じドットパターン3が繰り返された床F上で位置検出を行う場合に、誤検出や検出不能になるといった事態を招来することなく、確実に移動体の位置を検出することができる。
Furthermore, in the moving body
加えて、本実施の形態の移動体位置検出システム1では、検出特徴量と照合する基準特徴量データリスト20の大きさ(照合範囲)を、移動体の最高移動速度と撮像部11の画像取得時間間隔から決まる移動体の移動可能範囲を包含する周辺領域に設定しており、照合範囲を必要最小限度の範囲としている。その結果、移動体の位置検出の計算速度を高速化させることができる。
In addition, in the moving body
なお、上述した実施の形態では、本発明の移動体位置検出システムを建物内での搬送台車等の位置検出に適用した例について説明したが、これに限定されるものではなく、一般的な平面上の移動体の位置検出に広く適用することが可能である。 In the above-described embodiment, the example in which the mobile body position detection system of the present invention is applied to the position detection of a transport carriage or the like in a building has been described. However, the present invention is not limited to this, and a general plane The present invention can be widely applied to the position detection of the upper moving body.
1 移動体位置検出システム
2 床面
3 ドットパターン
4 ブロック
5 ドット
10 移動体位置検出装置
11 撮像部
11a 照明
12 ドットパターン作成部
13 基準特徴量算出部
14 基準特徴量格納部
15 制御部
16 基準特徴量データベース
17 検出特徴量算出部
18 特徴量照合部
19 記憶部
20 基準特徴量データリスト
f 床パネル
F 床
DESCRIPTION OF
Claims (5)
前記ドットパターンを構成する個々のドットと前記個々のドットの周辺に位置する複数のドットとの位置関係を、前記個々のドットの基準特徴量として算出し、前記基準特徴量を、前記個々のドットの前記平面における座標値と対応付けて基準特徴量データベースに格納する基準特徴量格納手段と、
前記平面上を移動する移動体に備えられ、前記移動体が位置する前記平面上の領域を予め決められた時間間隔で撮像する撮像手段と、
前記撮像手段が取得した画像中の複数のドットから所定のドットを選択し、選択したドットと、このドットの周辺に位置する複数のドットとの位置関係を、選択したドットの検出特徴量として算出する検出特徴量算出手段と、
前記検出特徴量を、前記基準特徴量データベース中の所定の大きさの照合範囲の基準特徴量と照合することにより、前記検出特徴量と最も一致度の高い基準特徴量を選択し、選択した基準特徴量の前記平面における座標値を、前記平面における移動体の現在位置として検出する特徴量照合手段と、
を備えたことを特徴とする移動体位置検出システム。 A plane configured by arranging a plurality of panels in which the same dot pattern is arranged on the surface;
The positional relationship between the individual dots constituting the dot pattern and a plurality of dots positioned around the individual dots is calculated as a reference feature amount of the individual dots, and the reference feature amount is calculated as the individual dot. Reference feature amount storage means for storing in a reference feature amount database in association with coordinate values in the plane of
An imaging unit that is provided in a moving body that moves on the plane, and that images a region on the plane on which the moving body is located at a predetermined time interval;
A predetermined dot is selected from a plurality of dots in the image acquired by the imaging unit, and a positional relationship between the selected dot and a plurality of dots positioned around the dot is calculated as a detected feature amount of the selected dot. Detection feature amount calculating means for
By comparing the detected feature quantity with a reference feature quantity in a matching range of a predetermined size in the reference feature quantity database, the reference feature quantity having the highest degree of coincidence with the detected feature quantity is selected, and the selected reference Feature amount matching means for detecting a coordinate value of the feature amount in the plane as a current position of the moving object in the plane;
A moving body position detection system comprising:
前記パネルを複数のブロックに分割し、各ブロック内のランダムな位置にドットを配置することによって作成されたものであることを特徴とする請求項1に記載の移動体位置検出システム。 The dot pattern is
The moving body position detection system according to claim 1, wherein the panel is created by dividing the panel into a plurality of blocks and arranging dots at random positions in each block.
ドットと該ドットを中心とする所定半径の円の領域内に位置する複数の周辺ドットとを結ぶ各線分の方向からなる配列と、各線分の長さからなる配列を含むことを特徴とする請求項1又は2に記載の移動体位置検出システム。 The reference feature amount and the detected feature amount are:
An array composed of the direction of each line segment connecting a dot and a plurality of peripheral dots located in a circle area of a predetermined radius centered on the dot, and an array composed of the length of each line segment are included. Item 3. The moving object position detection system according to Item 1 or 2.
同じ基準特徴量をもつドットが含まれない範囲に設定されることを特徴とする請求項1から3のいずれか1つに記載の移動体位置検出システム。 The collation range is
4. The moving body position detection system according to claim 1, wherein the moving body position detection system is set in a range in which dots having the same reference feature amount are not included.
前記移動体の最高移動速度と前記撮像手段の画像取得時間間隔から決まる前記移動体の移動可能範囲を包含する周辺領域に設定されることを特徴とする請求項1から3のいずれか1つに記載の移動体位置検出システム。 The collation range is
4. The apparatus according to claim 1, wherein the moving object is set in a peripheral region including a movable range of the moving object determined from a maximum moving speed of the moving object and an image acquisition time interval of the imaging unit. The moving body position detection system described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008274681A JP5219205B2 (en) | 2008-10-24 | 2008-10-24 | Moving body position detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008274681A JP5219205B2 (en) | 2008-10-24 | 2008-10-24 | Moving body position detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010102585A true JP2010102585A (en) | 2010-05-06 |
JP5219205B2 JP5219205B2 (en) | 2013-06-26 |
Family
ID=42293167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008274681A Expired - Fee Related JP5219205B2 (en) | 2008-10-24 | 2008-10-24 | Moving body position detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5219205B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506035A (en) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Gesture control voice user interface |
JP2016118824A (en) * | 2014-12-18 | 2016-06-30 | 清水建設株式会社 | Moving body position detection system and method |
JP2016166853A (en) * | 2015-03-04 | 2016-09-15 | パナソニックIpマネジメント株式会社 | Location estimation device and location estimation method |
WO2018155269A1 (en) * | 2017-02-27 | 2018-08-30 | ソニー株式会社 | Image processing device and method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0441362Y2 (en) * | 1984-12-20 | 1992-09-29 | ||
JP2010101807A (en) * | 2008-10-24 | 2010-05-06 | Shimizu Corp | Movable body position detection system |
-
2008
- 2008-10-24 JP JP2008274681A patent/JP5219205B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0441362Y2 (en) * | 1984-12-20 | 1992-09-29 | ||
JP2010101807A (en) * | 2008-10-24 | 2010-05-06 | Shimizu Corp | Movable body position detection system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506035A (en) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Gesture control voice user interface |
US9563278B2 (en) | 2011-12-19 | 2017-02-07 | Qualcomm Incorporated | Gesture controlled audio user interface |
JP2016118824A (en) * | 2014-12-18 | 2016-06-30 | 清水建設株式会社 | Moving body position detection system and method |
JP2016166853A (en) * | 2015-03-04 | 2016-09-15 | パナソニックIpマネジメント株式会社 | Location estimation device and location estimation method |
WO2018155269A1 (en) * | 2017-02-27 | 2018-08-30 | ソニー株式会社 | Image processing device and method, and program |
CN110313176A (en) * | 2017-02-27 | 2019-10-08 | 索尼公司 | Image processing apparatus, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5219205B2 (en) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11059174B2 (en) | System and method of controlling obstacle avoidance of robot, robot and storage medium | |
US10769794B2 (en) | Multi-sensor object recognition system and method | |
CN110221608B (en) | Method and device for inspecting equipment | |
CN102906786B (en) | Face feature-point position correction device, and face feature-point position correction method | |
KR100565227B1 (en) | Position recognition apparatus and method for mobile robot | |
US9024896B2 (en) | Identification method for simultaneously identifying multiple touch points on touch screens | |
JP5219205B2 (en) | Moving body position detection system | |
CN107738852B (en) | Positioning method, positioning map construction method and robot | |
US20120274782A1 (en) | Object Recognition Method and Recognition Apparatus | |
JP5147015B2 (en) | Moving body position detection system | |
US20170368688A1 (en) | Method and apparatus for adjusting interactive directions of robots | |
JP2009205226A (en) | Autonomous moving robot, method of estimating self position, method and apparatus for creating environmental map, and data structure of environmental map | |
JP2007249735A (en) | Robot location controller and robot self-location restoration method | |
CN106153059A (en) | The method of view-based access control model mark docking charging device | |
WO2007014196A2 (en) | Asset location system with enhanced accuracy | |
CN104517092A (en) | Method and system for detecting QR (quick response) code correction graphics | |
WO2017008742A1 (en) | Method and device for determining indoor approachable area | |
JP2008305255A (en) | Map information generation unit, and autonomous moving unit having the same | |
CN108959753A (en) | Collision checking method, system, readable storage medium storing program for executing and computer equipment | |
US11815345B2 (en) | Device for orientation and position detection of markings in three-dimensional space | |
JP2008276754A (en) | Robot position detection system | |
CN103363916B (en) | A kind of information processing method and treatment facility | |
JP5483090B2 (en) | Mobile object position detection system and method | |
JP6065911B2 (en) | Arrangement information registration device, arrangement information registration method, and arrangement information registration program | |
JP3541244B2 (en) | Water / underwater moving object motion recognition method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130301 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5219205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S803 | Written request for registration of cancellation of provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R316803 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |