JP2019015681A - Position estimation system and position estimation method - Google Patents
Position estimation system and position estimation method Download PDFInfo
- Publication number
- JP2019015681A JP2019015681A JP2017134841A JP2017134841A JP2019015681A JP 2019015681 A JP2019015681 A JP 2019015681A JP 2017134841 A JP2017134841 A JP 2017134841A JP 2017134841 A JP2017134841 A JP 2017134841A JP 2019015681 A JP2019015681 A JP 2019015681A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving body
- identifier
- identification information
- position estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 230000010365 information processing Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 4
- 230000036544 posture Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 6
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/20—Means for actuating or controlling masts, platforms, or forks
- B66F9/24—Electrical devices or systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Structural Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Civil Engineering (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、走行面上の移動体の位置を推定する位置推定システム及び位置推定方法に関する。 The present invention relates to a position estimation system and a position estimation method for estimating the position of a moving object on a running surface.
従来、屋内で作業を行うフォークリフト等の移動体の位置を推定する方法として種々の方法が知られている。 Conventionally, various methods are known as a method for estimating the position of a moving body such as a forklift that works indoors.
例えば特許文献1には、倉庫等の空間の天井部にそれぞれ異なるパターンを有する複数のラベルを配置して、フォークリフトに取り付けられたカメラでラベルを撮像することにより得られた画像から、倉庫内のフォークリフトの位置を推定する技術が記載されている。 For example, in Patent Document 1, a plurality of labels each having a different pattern are arranged on a ceiling portion of a space such as a warehouse, and an image obtained by capturing the labels with a camera attached to a forklift, A technique for estimating the position of a forklift is described.
この技術によれば、空間の天井部に設けられた複数のラベルがそれぞれ異なるパターンを有することから、撮像した画像内のラベルのパターンを基準として、フォークリフトの位置を推定できるとしている。 According to this technique, since the plurality of labels provided on the ceiling of the space have different patterns, the position of the forklift can be estimated based on the label pattern in the captured image.
しかしながら、特許文献1に記載の発明は、ラベルが撮像された画像内のラベルのパターン、位置及び向きのみからフォークリフトの位置を推定するものであり、倉庫内におけるフォークリフトの位置を大まかに推定できるものの、より高精度にフォークリフトの位置を推定することは困難である。 However, the invention described in Patent Document 1 estimates the position of the forklift only from the pattern, position, and orientation of the label in the image in which the label is imaged, and can roughly estimate the position of the forklift in the warehouse. It is difficult to estimate the position of the forklift with higher accuracy.
以上のような事情に鑑み、本発明の目的は、フォークリフト等の移動体の位置を高精度に推定可能な位置推定システム及び位置推定方法を提供することにある。 In view of the circumstances as described above, an object of the present invention is to provide a position estimation system and a position estimation method capable of estimating the position of a moving body such as a forklift with high accuracy.
上記目的を達成するため、本発明の一形態に係る位置推定システムは、複数の識別子と、撮像部と、情報処理装置と、を有する。
上記複数の識別子は、移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与される。
上記撮像部は、上記移動体に取り付けられ、上記複数の識別子のうち少なくとも1つの識別子を撮像可能に構成される。
上記情報処理装置は、上記撮像部により撮像された画像を処理することにより、上記画像内の識別子の上記第1の識別情報と、上記画像内の識別子と上記移動体との相対的な位置関係に関する第2の識別情報とを抽出する画像処理部と、上記第1及び第2の識別情報に基づき、上記移動体の上記走行面上の位置を推定する推定部と、を有する。
In order to achieve the above object, a position estimation system according to an aspect of the present invention includes a plurality of identifiers, an imaging unit, and an information processing device.
The plurality of identifiers are installed in a predetermined posture at a predetermined position on the traveling surface of the moving body, and different first identification information is given to each.
The imaging unit is attached to the moving body and configured to capture at least one identifier among the plurality of identifiers.
The information processing apparatus processes the image picked up by the image pickup unit, so that the first identification information of the identifier in the image and the relative positional relationship between the identifier in the image and the moving object are processed. And an estimation unit for estimating the position of the moving body on the traveling surface based on the first and second identification information.
上記構成によれば、走行面上の移動体の位置が、走行面上の識別子の絶対位置と、この識別子に対する移動体の相対的な位置関係に基づき推定される。これにより、より高精度に移動体の走行面上の位置を推定することができる。 According to the above configuration, the position of the moving body on the traveling surface is estimated based on the absolute position of the identifier on the traveling surface and the relative positional relationship of the moving body with respect to this identifier. Thereby, the position on the traveling surface of the moving body can be estimated with higher accuracy.
上記画像処理部は、上記第2の識別情報として、上記画像内の識別子と上記移動体との間の距離を算出してもよい。 The image processing unit may calculate a distance between the identifier in the image and the moving body as the second identification information.
上記画像処理部は、上記第2の識別情報として、上記画像内の識別子に対する上記移動体の向きを算出してもよい。 The image processing unit may calculate a direction of the moving body with respect to an identifier in the image as the second identification information.
上記画像処理部は、上記複数の識別子が一軸方向に沿って配列された配列方向に対して異方性を有する識別子が撮像された画像を処理することにより、上記移動体の向きを算出してもよい。
これにより、識別子に対する移動体の向きを推定しやすくなる。
The image processing unit calculates an orientation of the moving body by processing an image in which an identifier having anisotropy with respect to an arrangement direction in which the plurality of identifiers are arranged along a uniaxial direction is processed. Also good.
This makes it easier to estimate the direction of the moving body with respect to the identifier.
上記複数の識別子は矩形状を有し、1つの角部に他の角部と異なる角部であることを示す指標部が設けられ、
上記画像処理部は、上記画像内の上記指標部の位置に基づき、上記移動体の向きを算出してもよい。
これにより、識別子が撮像された画像から移動体の進行方向や向き等が推定しやすくなる。
The plurality of identifiers have a rectangular shape, and one corner is provided with an index portion indicating that the corner is different from the other corner,
The image processing unit may calculate the orientation of the moving body based on the position of the index unit in the image.
This makes it easier to estimate the traveling direction and direction of the moving body from the image obtained by capturing the identifier.
上記画像処理部は、それぞれ異なる属性の識別記号を少なくとも2種類以上含む上記第1の識別情報を、上記識別記号毎に抽出してもよい。
これにより、第1識別情報全体を抽出するよりも抽出する情報の種類が限定されるため、第1識別情報を認識する際の誤認識が抑制される。
The image processing unit may extract the first identification information including at least two types of identification symbols having different attributes, for each identification symbol.
Thereby, since the kind of information to extract is limited rather than extracting the whole 1st identification information, the misrecognition at the time of recognizing 1st identification information is suppressed.
上記情報処理装置は、上記移動体の上記走行面上の位置に関する情報を出力可能に構成された通信部をさらに有してもよい。
これにより、走行面上の移動体の推定位置を外部に通知可能となる。
The information processing apparatus may further include a communication unit configured to be able to output information regarding the position of the moving body on the traveling surface.
Thereby, the estimated position of the moving body on the traveling surface can be notified to the outside.
上記移動体の移動量を検出可能に構成された検出部をさらに具備し、
上記推定部は、上記推定部により推定された上記移動体の上記走行面上の位置と、上記検出部の出力に基づき、上記移動体の上記走行面上の位置をさらに推定してもよい。
これにより、識別子が撮像部の視野範囲に収められていなくとも、移動体の位置推定が可能となる。
Further comprising a detection unit configured to be able to detect the amount of movement of the moving body,
The estimation unit may further estimate the position of the mobile body on the travel surface based on the position of the mobile body on the travel surface estimated by the estimation unit and the output of the detection unit.
As a result, the position of the moving object can be estimated even if the identifier is not within the field of view of the imaging unit.
上記目的を達成するため、本発明の一形態に係る位置推定方法は、移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与された複数の識別子のうち少なくとも1つの識別子が撮像される。
識別子が撮像された画像を処理することにより、上記画像内の識別子の第1の識別情報と、上記画像内の識別子と上記移動体との相対的な位置関係に関する第2の識別情報とが抽出される。
上記第1及び第2の識別情報に基づき、上記移動体の前記走行面上の位置が推定される。
In order to achieve the above object, a position estimation method according to an aspect of the present invention is provided in a predetermined posture on a traveling surface of a moving body in a predetermined posture, and each of which is provided with different first identification information. At least one of the identifiers is imaged.
By processing the image in which the identifier is imaged, first identification information of the identifier in the image and second identification information regarding the relative positional relationship between the identifier in the image and the moving object are extracted. Is done.
Based on the first and second identification information, the position of the moving body on the traveling surface is estimated.
以上のように、本発明によればフォークリフト等の移動体の位置を高精度に推定可能な位置推定システム及び位置推定方法を提供することができる。 As described above, according to the present invention, it is possible to provide a position estimation system and a position estimation method capable of estimating the position of a moving body such as a forklift with high accuracy.
以下、図面を参照しながら、本発明の実施形態を説明する。本実施形態では、例えば、工場内を走行する荷役用のフォークリフト等の移動体を対象とした位置推定システムについて説明する。なお、以下の図においてX、Y及びZ軸方向は相互に直交する3軸方向を示し、Z軸方向は高さ方向に相当する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, for example, a position estimation system for a moving body such as a forklift for cargo handling traveling in a factory will be described. In the following drawings, the X, Y, and Z axis directions indicate triaxial directions orthogonal to each other, and the Z axis direction corresponds to the height direction.
<位置推定システムの概要>
図1は本実施形態に係る位置推定システム100が適用される移動体1を示す図であり、図2は移動体1の走行面Sを示す図である。なお、位置推定システム100の構成は、以下の説明に限定されるものではない。
<Outline of position estimation system>
FIG. 1 is a diagram illustrating a moving body 1 to which the
本実施形態に係る位置推定システム100は、複数の識別子10と、撮像部11と、情報処理装置12と、表示部13と、検出部14と、稼働管理システム15(図5参照)と、を有する。
The
複数の識別子10は、移動体1の走行面S上の所定の位置に所定の姿勢で設置されている。走行面Sは、典型的には、工場等の屋内において移動体1が走行する床面であって、白線W等により荷物置き場と領域的に区画された、X軸方向、Y軸方向又はこれらと交差する方向に延在する直線的又は曲線的な複数の通路を構成する。
The plurality of
複数の識別子10は、X及びY軸方向に沿って一定の間隔で走行面S上に設置され、X及びY軸方向に対して異方性を示す形状を有する。識別子10と識別子10との間の間隔Rは特に限定されず、例えば数十cm〜数百cm程度である。
The plurality of
複数の識別子10は、それぞれに異なる第1識別情報Iが付与される。図2の例では、第1識別情報Iが3ケタの英数字で構成されるが、勿論これに限られず、4ケタ以上の文字列等で構成されてもよい(図3、図4参照)。図2に示す第1識別情報Iにおいて、前段の英字記号(「A」、「F」、「C」など)は、個々の通路を特定し、通路間の交差位置は、「P」等の共通の記号が用いられる。後段の数字記号は、各通路での位置情報を表している。
Different first identification information I is given to each of the plurality of
本実施形態に係る識別子10は典型的には矩形状であり、1つの角部に他の角部と異なる角部であることを示す指標部10aが設けられる。この指標部10aは、例えば識別子10の角部に形成された切欠きであり(図3参照)、あるいは、角部に施されたマーキング(図4参照)等である。
The
これにより、複数の識別子10が図2に示すように、所定の姿勢で一軸方向に規則的に配列されている場合に、切欠きやマーキングを指標として、識別子10が撮像された画像から移動体1の進行方向や向き等を推定することができる。なお、識別子10の形状は典型的には矩形状であるが、これに限られず、三角状やひし形状等その種類は問わない。
Thereby, when a plurality of
図3及び図4は識別子10の構成例を示す図である。第1識別情報Iは走行面S上の識別子10の所在を示す情報であり、走行面Sのアドレスとして機能する。
FIGS. 3 and 4 are diagrams showing a configuration example of the
第1識別情報Iは図3及び図4に示すように、例えば2種類の異なる属性の文字列(識別記号)から構成される。第1識別情報Iを構成する文字列には、典型的には、カタカナやひらがな等の仮名、数字やアルファベット等の英数字、図形等が採用されるがこれに限られず、「@>=−」等の特殊文字や数学記号等が採用されてもよい。 As shown in FIGS. 3 and 4, the first identification information I is composed of, for example, two types of character strings (identification symbols) having different attributes. As the character string constituting the first identification information I, typically, kana such as katakana and hiragana, alphanumeric characters such as numerals and alphabets, figures and the like are adopted, but not limited thereto, “@> = − A special character such as “” or a mathematical symbol may be employed.
撮像部11は、図1に示すように移動体1の後方に取り付けられ、移動体1の進行方向後方の走行面Sを撮像可能に構成される。撮像部11の光軸の走行面Sに対する傾斜角や画角等の撮像条件は、既知情報として情報処理装置12へ入力される。当該撮像条件は典型的には固定であるが、可変であってもよい。撮像部11は、情報処理装置12に無線又は有線により接続され、撮像した画像を情報処理装置12に出力する。
As shown in FIG. 1, the
撮像部11は、例えばCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサを有し、所定のフレームレートで移動体1の進行方向後方の動画を取得する。なお、撮像部11は典型的にはCCDカメラ等のビデオカメラであるが、これに限られず、移動体1の進行方向後方の静止画を所定の撮像間隔で所得可能なスチルカメラやステレオカメラ等であってもよい。
The
情報処理装置12は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のコンピュータに必要なハードウェアを有する。CPUが、ROMやHDDに格納されたプログラムをRAMにロードして実行することにより、後述する情報処理装置12の各ブロック動作が制御される。
The
プログラムは、例えば種々の記憶媒体(内部メモリ)を介して情報処理装置12にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。本実施形態では、情報処理装置12として、例えば、PC(Personal Computer)やタブレット端末等が用いられるが、他の任意のコンピュータが用いられてもよい。
The program is installed in the
表示部13は、撮像部11が撮像した画像や、情報処理装置12から出力された画像等を表示可能に構成される。表示部13は、例えば、液晶、有機EL(Electro-Luminescence)等を用いた表示デバイスである。表示部13は、ユーザの操作を入力するための入力部を有する構成であってもよい。当該入力部としては、例えば、タッチパネルや、キーボード等の操作デバイスが採用される。
The
検出部14は、移動体1に設けられ、情報処理装置12と無線又は有線により接続される。検出部14は、移動体1の移動量を検出し、情報処理装置12に出力可能に構成される。検出部14は、例えば車輪速センサ、加速度センサ、舵角センサ又は角速度センサ等であり、その種類は問わない。
The
稼働管理システム15は、情報処理装置12から出力された移動体1の走行面S上の位置に関する情報を取得する(図5参照)。稼働管理システム15はこの情報に基づき、表示部13を介して、移動体1を操縦するユーザに現在位置を知らせたり、移動体1をナビゲーションしたり、移動体1の移動軌跡等を管理したりする。
The
図5は、情報処理装置12の構成例を示す機能ブロック図である。情報処理装置12は、図5に示すように、画像処理部121と、推定部122と、マップデータファイル123と、通信部124と、を有する。
FIG. 5 is a functional block diagram illustrating a configuration example of the
画像処理部121は、撮像部11から取得した画像を処理することにより、画像内の識別子10の第1識別情報Iと、画像内の識別子10と移動体1との相対的な位置関係に関する情報(以下、第2識別情報)とを抽出する。
The
推定部122は、第1識別情報Iと第2識別情報に基づき、移動体1の走行面S上の位置を推定する。
The
マップデータファイル123は、識別子10の第1識別情報Iと、当該識別子10の走行面S上の絶対位置とが対応づけられた情報(以下、位置登録データ)を記憶するデータベースである。マップデータファイル123は例えば、第1識別情報Iと走行面S上の識別子10の絶対位置をテキストデータとして表示部13に表示させる。
The map data file 123 is a database that stores information (hereinafter, position registration data) in which the first identification information I of the
通信部124は、移動体1の走行面S上の位置に関する情報を稼働管理システム15に出力し、稼働管理システム15から情報を取得可能に構成される。通信部124は、情報処理装置12の入出力インターフェースとして機能する。
The
<位置推定方法>
図6は、位置推定システム100が移動体1の走行面S上の位置を推定する方法を示すフローチャートである。以下、移動体1の位置推定方法について、図6を適宜参照しながら説明する。
<Position estimation method>
FIG. 6 is a flowchart illustrating a method by which the
[適用例1]
(ステップS01:位置登録)
先ず、任意の走行エリア内の走行面S上に、複数の識別子10を一定の間隔で配置する(図2参照)。次に、複数の識別子10に付与された第1識別情報Iと、走行エリア内の複数の識別子10の絶対位置とがそれぞれ対応づけられた位置登録データを作成する。そして。このデータを情報処理装置12に記憶させ、データベース(マップデータファイル123)を構築する。
[Application Example 1]
(Step S01: Location registration)
First, a plurality of
(ステップS02:撮像)
次に、走行面S上を移動する移動体1に取り付けられた撮像部11が、識別子10を撮像する。この際、撮像部11は走行面S上に設置された複数の識別子10のうち少なくとも1つの識別子10を撮像する。なお、本実施形態では、典型的には移動体1の通路上の識別子10が撮像されるが、これに限られず、通路外の識別子10が撮像されてもよい。
(Step S02: Imaging)
Next, the
(ステップS03:識別子の有無の判定)
画像処理部121は、撮像部11から取得した画像について、識別子10が撮像されているか否かを判定する。ここで、画像処理部121は、識別子10が撮像されていると判定した場合(S03のYES)は、後述する画像処理を実行する。
(Step S03: Determination of presence or absence of identifier)
The
(ステップS04;画像処理)
画像処理部121は、撮像部11から取得した画像に所定の画像処理を施す。これにより、画像内の識別子10における第1識別情報Iと、第2識別情報が抽出される。
(Step S04; Image processing)
The
本実施形態では、第1識別情報Iを抽出する処理の一例として、画像処理部121は異なる属性の複数の文字列を、同じ属性の文字列(識別記号)毎に抽出する。これにより、第1識別情報I全体を抽出するよりも抽出する情報の種類が限定されるため、画像処理部121が第1識別情報Iを認識する際の誤認識が抑制される。
In the present embodiment, as an example of processing for extracting the first identification information I, the
例えば図3に示した第1識別情報Iは、3ケタの文字列と、4ケタの数字列とにより構成される。画像処理部121は、前段の3ケタはカタカナであり、後段の4ケタは数字であることを予め認識しておくことで、前段の3ケタと後段の4ケタとを相異なる属性として識別できるため、誤認識が抑制される。図4に示した英文字と数字との組み合わせについても同様に、例えば、英文字の「B」と数字の「8」との間の誤認識が確実に防止されるため、第1識別情報Iを高精度に認識することができる。
For example, the first identification information I shown in FIG. 3 includes a 3-digit character string and a 4-digit number string. By recognizing in advance that the first three digits are katakana and the second four digits are numbers, the
一方、図7及び図8は、撮像部11が識別子10を撮像した画像Gを示すイメージ図である。第2識別情報を抽出する処理の一例としては、先ず、画像処理部121が撮像部11から取得した画像Gに例えば2値化処理等を施すことにより、画像G内の識別子10の輪郭線や指標部10aを抽出する。これにより、画像G内における識別子10の位置と向きが特定される。
On the other hand, FIGS. 7 and 8 are image diagrams showing an image G in which the
次に、特定した画像G内の識別子10の位置に基づき、第2識別情報として、識別子10と移動体1との間の距離を算出する。具体的には、例えば、画像G内における識別子10以外の領域(余白)の幅L3は、識別子10と移動体1との間の距離に依存するため、画像処理部121は幅L3に基づき、識別子10と移動体1との間の距離を算出する。
Next, based on the position of the
さらに、画像処理部121は、特定した画像G内の識別子10の向きに基づき、第2識別情報として、識別子10に対する移動体1の向きを算出する。
Furthermore, the
具体的には、例えば、画像G内の識別子10の任意の2点E1,E2を通る直線的な仮想線をL1とし、撮像部11の光軸を示す仮想線をL2とした場合に、仮想線L1とL2がなす角度Aを算出することで、識別子10に対する移動体1の向きを算出する。
Specifically, for example, when a linear virtual line passing through two arbitrary points E1 and E2 of the
あるいは、複数の識別子10が一軸方向(配列方向)に沿って所定の姿勢で配列されている場合に、本実施形態に係る識別子10は配列方向に対して異方性を示し、且つ、指標部10aを有するため(図2参照)、例えば図8に示すように仮想線L2と識別子10の長辺又は短辺とがなす角度B,Cや、仮想線L2の配列方向L4からの傾斜角D等と、画像G内の指標部10aの位置を総合的に考慮することで、識別子10に対する移動体1の向きを算出することもできる。
Alternatively, when a plurality of
続いて、画像処理部121は、識別子10が撮像された画像から抽出した第1識別情報Iと第2識別情報を推定部122に出力する。
Subsequently, the
(ステップS05:位置推定)
推定部122は、画像処理部121から取得した第1識別情報Iと、予めマップデータファイル123に登録されている位置登録データとを照合することにより、当該第1識別情報Iが付与された識別子10の走行面S上の絶対位置を特定する。
(Step S05: Position estimation)
The
次いで、推定部122は、特定した走行面S上の識別子10の絶対位置と、この識別子10に対する第2識別情報とに基づき、走行エリア内での移動体1の位置を推定する。
Next, the
即ち、推定部122は、走行面S上の識別子10の絶対位置と、この識別子10に対する移動体1の相対的な位置関係(距離、向き等)に基づき、移動体1の走行面S上の位置を推定する。これにより、より高精度に移動体1の走行面S上の位置を推定することが可能となる。
In other words, the
また、本実施形態に係る位置推定システム100は、最低限、複数の識別子10、撮像部11及び情報処理装置12を有する構成であれば、移動体1の位置を推定することができる。これにより、従来の例えば無線通信を利用したインフラ協調型のものよりも部品点数を削減することができ、低コスト化を図ることが可能となる。
In addition, the
さらに、位置推定システム100は、建物内部のような制限された空間内で装置構成を完結させることができるため、屋外に限られず、GPS(Global Positioning System)が利用できない屋内においても移動体1の位置を推定することが可能である。
Furthermore, since the
続いて、推定部122は上述した方法により得られた、走行面S上の移動体1の位置に関する情報を表示部13及び通信部124に出力する。これにより、移動体1を操縦するユーザが移動体1の推定位置を確認できる共に、稼働管理システム15を介してこの推定位置が把握される。また、当該位置情報を経時的に蓄積することで、移動体1の運行管理に役立てることができる。
Subsequently, the
[適用例2]
次に、位置推定システム100が移動体1の走行面S上の位置を推定する別の方法について説明する。なお、適用例1と同様のステップついては、その説明を省略する。
[Application Example 2]
Next, another method for the
(ステップS03:識別子の有無の判定)
画像処理部121は、撮像部11から取得した画像について、識別子10が撮像されているか否かを判定する。ここで、画像処理部121は、識別子10が撮像されていないと判定した場合(S03のNO)は、推定部122が後述する方法により移動体1の位置を推定する。
(Step S03: Determination of presence or absence of identifier)
The
(ステップS05:位置推定)
推定部122は、移動体1に取り付けられた検出部14の出力に基づき、移動体1の走行面S上の位置を推定する。具体的には、推定部122は検出部14が検出した移動体1の走行面S上の移動量から移動体1の位置を推定する。この移動量とは、例えば、直前に撮像した識別子10からの移動距離等である。
(Step S05: Position estimation)
The
本実施形態に係る位置推定システム100では、移動体1が検出部14を有することにより、移動体1が識別子10と識別子10との間を移動し、識別子10が撮像部11の視野範囲に収められていない場合でも、移動体1の走行面S上の位置を推定することができる。
In the
即ち、直前に撮像された識別子10に基づき推定された走行面S上の移動体1の位置と、当該識別子10に対する移動量から、移動体1の走行面S上の位置を推定することができる。これにより、走行面S上に配置される識別子10の数を削減することができ、低コスト化を図ることが可能となる。
That is, the position of the moving body 1 on the traveling surface S can be estimated from the position of the moving body 1 on the traveling surface S estimated based on the
[適用例3]
次に、位置推定システム100が移動体1の走行面S上の位置を推定する別の方法について説明する。なお、適用例1及び2と同様のステップについては、その説明を省略する。
[Application Example 3]
Next, another method for the
(ステップS05:位置推定)
推定部122は、適用例1と同様の手法により推定された走行エリア内での移動体1の位置と、適用例2と同様の手法により検出された当該移動体1の走行面S上の移動量から、走行エリア内での移動体1の位置を推定する。
(Step S05: Position estimation)
The
即ち、推定部122は、走行面S上の識別子10の絶対位置と、この識別子10に対する移動体1の相対的な位置関係のみならず、検出部14が検出した移動体1の走行面S上の移動量に基づき、走行面S上での移動体1の位置をさらに推定する。これにより、推定部122が走行面S上での移動体1の位置を推定する上での確実性がより向上する。
That is, the
以上、本発明の実施形態について説明したが、本発明は上述の実施形態にのみ限定されるものではなく種々変更を加え得ることは勿論である。 As mentioned above, although embodiment of this invention was described, this invention is not limited only to the above-mentioned embodiment, Of course, a various change can be added.
例えば上記実施形態では、位置推定システム100は、一台の移動体1に適用されることを前提としているが、これに限られず、走行面S上の移動する2台以上の移動体1に適用されてもよい。
For example, in the above embodiment, the
また、上記実施形態の位置推定システム100では、情報処理装置12と撮像部11が別体的に設けられた構成であるが、これらが一体的に設けられていてもよい。
Moreover, in the
さらに、上記実施形態の位置推定システム100は、典型的にはフォークリフトに適用されるが、これに限られない。位置推定システム100は、走行面S上を移動可能な移動体全般に適用されてもよくその用途は問わない。移動体1は有人移動体である場合に限られず、無人移動体であってもよい。
Furthermore, although the
1・・・・移動体
10・・・識別子
11・・・撮像部
12・・・情報処理装置
13・・・表示部
14・・・検出部
15・・・稼働管理システム
100・・位置推定システム
121・・画像処理部
122・・推定部
123・・マップデータファイル
124・・通信部
DESCRIPTION OF SYMBOLS 1 ...... Moving
Claims (9)
前記移動体に取り付けられ、前記複数の識別子のうち少なくとも1つの識別子を撮像可能に構成された撮像部と、
前記撮像部により撮像された画像を処理することにより、前記画像内の識別子の前記第1の識別情報と、前記画像内の識別子と前記移動体との相対的な位置関係に関する第2の識別情報とを抽出する画像処理部と、前記第1及び第2の識別情報に基づき、前記移動体の前記走行面上の位置を推定する推定部と、を有する情報処理装置と
を具備する位置推定システム。 A plurality of identifiers installed in predetermined postures at predetermined positions on the traveling surface of the mobile body, each having different first identification information;
An imaging unit attached to the moving body and configured to image at least one of the plurality of identifiers;
By processing the image captured by the imaging unit, the first identification information of the identifier in the image, and the second identification information related to the relative positional relationship between the identifier in the image and the moving body An information processing apparatus comprising: an image processing unit that extracts the information; and an estimation unit that estimates a position of the moving body on the traveling surface based on the first and second identification information. .
前記画像処理部は、前記第2の識別情報として、前記画像内の識別子と前記移動体との間の距離を算出する
位置推定システム。 The position estimation system according to claim 1,
The image processing unit calculates a distance between an identifier in the image and the moving body as the second identification information.
前記画像処理部は、前記第2の識別情報として、前記画像内の識別子に対する前記移動体の向きを算出する
位置推定システム。 The position estimation system according to claim 1 or 2,
The image processing unit calculates a direction of the moving body with respect to an identifier in the image as the second identification information.
前記画像処理部は、前記複数の識別子が一軸方向に沿って配列された配列方向に対して異方性を有する識別子が撮像された画像を処理することにより、前記移動体の向きを算出する
位置推定システム。 The position estimation system according to claim 3,
The image processing unit calculates an orientation of the moving body by processing an image obtained by imaging an identifier having anisotropy with respect to an arrangement direction in which the plurality of identifiers are arranged along a uniaxial direction. Estimation system.
前記複数の識別子は矩形状を有し、1つの角部に他の角部と異なる角部であることを示す指標部が設けられ、
前記画像処理部は、前記画像内の前記指標部の位置に基づき、前記移動体の向きを算出する
位置推定システム。 The position estimation system according to claim 4,
The plurality of identifiers have a rectangular shape, and one corner is provided with an index portion indicating that the corner is different from the other corner,
The image processing unit calculates a direction of the moving body based on a position of the index unit in the image.
前記第1の識別情報は、それぞれ異なる属性の識別記号を少なくとも2種類以上含み、
前記画像処理部は、前記第1の識別情報を、前記識別記号毎に抽出する
位置推定システム。 The position estimation system according to any one of claims 1 to 5,
The first identification information includes at least two types of identification symbols having different attributes,
The image processing unit extracts the first identification information for each identification symbol.
前記情報処理装置は、前記移動体の前記走行面上の位置に関する情報を出力可能に構成された通信部をさらに有する
位置推定システム。 The position estimation system according to any one of claims 1 to 6,
The information processing apparatus further includes a communication unit configured to be able to output information on the position of the moving body on the traveling surface.
前記移動体の移動量を検出可能に構成された検出部をさらに具備し、
前記推定部は、前記推定部により推定された前記移動体の前記走行面上の位置と、前記検出部の出力に基づき、前記移動体の前記走行面上の位置をさらに推定する
位置推定システム。 The position estimation system according to any one of claims 1 to 7,
A detector configured to detect the amount of movement of the mobile body;
The said estimation part further estimates the position on the said driving surface of the said mobile body based on the position on the said driving surface of the said mobile body estimated by the said estimation part, and the output of the said detection part.
識別子が撮像された画像を処理することにより、前記画像内の識別子の第1の識別情報と、前記画像内の識別子と前記移動体との相対的な位置関係に関する第2の識別情報とを抽出し、
前記第1及び第2の識別情報に基づき、前記移動体の前記走行面上の位置を推定する
位置推定方法。 At least one identifier is imaged among a plurality of identifiers that are installed in a predetermined posture at a predetermined position on the traveling surface of the moving object and are provided with different first identification information,
By processing the image in which the identifier is captured, the first identification information of the identifier in the image and the second identification information regarding the relative positional relationship between the identifier in the image and the moving body are extracted. And
A position estimation method for estimating a position of the moving body on the travel surface based on the first and second identification information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017134841A JP2019015681A (en) | 2017-07-10 | 2017-07-10 | Position estimation system and position estimation method |
PCT/JP2018/025150 WO2019013035A1 (en) | 2017-07-10 | 2018-07-03 | Position measurement system and position measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017134841A JP2019015681A (en) | 2017-07-10 | 2017-07-10 | Position estimation system and position estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019015681A true JP2019015681A (en) | 2019-01-31 |
Family
ID=65002447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017134841A Pending JP2019015681A (en) | 2017-07-10 | 2017-07-10 | Position estimation system and position estimation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019015681A (en) |
WO (1) | WO2019013035A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544614A (en) * | 2019-03-04 | 2021-10-22 | 松下知识产权经营株式会社 | Mobile object control method, mobile object control system, and program |
WO2024071733A1 (en) * | 2022-09-29 | 2024-04-04 | 네이버랩스 주식회사 | Method and apparatus for identifier recognition-based location determination |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01302408A (en) * | 1988-05-31 | 1989-12-06 | Hara Ee I Sekkei:Kk | Pallet carrier vehicle absolute position and direction recognizing method |
JP2007164441A (en) * | 2005-12-13 | 2007-06-28 | Denso Corp | Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device |
JP2008309530A (en) * | 2007-06-12 | 2008-12-25 | National Institute Of Information & Communication Technology | Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program |
JP2009015684A (en) * | 2007-07-06 | 2009-01-22 | Komatsu Utility Co Ltd | Vehicle dispatching system and method |
WO2016124999A1 (en) * | 2015-02-05 | 2016-08-11 | Grey Orange Pte. Ltd. | Apparatus and method for navigation control |
US20160271800A1 (en) * | 2015-03-17 | 2016-09-22 | Amazon Technologies, Inc. | Systems and Methods to Facilitate Human/Robot Interaction |
-
2017
- 2017-07-10 JP JP2017134841A patent/JP2019015681A/en active Pending
-
2018
- 2018-07-03 WO PCT/JP2018/025150 patent/WO2019013035A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01302408A (en) * | 1988-05-31 | 1989-12-06 | Hara Ee I Sekkei:Kk | Pallet carrier vehicle absolute position and direction recognizing method |
JP2007164441A (en) * | 2005-12-13 | 2007-06-28 | Denso Corp | Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device |
JP2008309530A (en) * | 2007-06-12 | 2008-12-25 | National Institute Of Information & Communication Technology | Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program |
JP2009015684A (en) * | 2007-07-06 | 2009-01-22 | Komatsu Utility Co Ltd | Vehicle dispatching system and method |
WO2016124999A1 (en) * | 2015-02-05 | 2016-08-11 | Grey Orange Pte. Ltd. | Apparatus and method for navigation control |
US20160271800A1 (en) * | 2015-03-17 | 2016-09-22 | Amazon Technologies, Inc. | Systems and Methods to Facilitate Human/Robot Interaction |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544614A (en) * | 2019-03-04 | 2021-10-22 | 松下知识产权经营株式会社 | Mobile object control method, mobile object control system, and program |
CN113544614B (en) * | 2019-03-04 | 2024-05-24 | 松下知识产权经营株式会社 | Mobile body control method and mobile body control system |
WO2024071733A1 (en) * | 2022-09-29 | 2024-04-04 | 네이버랩스 주식회사 | Method and apparatus for identifier recognition-based location determination |
Also Published As
Publication number | Publication date |
---|---|
WO2019013035A1 (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10807236B2 (en) | System and method for multimodal mapping and localization | |
KR102347015B1 (en) | Vehicle tracking in a warehouse environment | |
US9625912B2 (en) | Methods and systems for mobile-agent navigation | |
US9157757B1 (en) | Methods and systems for mobile-agent navigation | |
JP6343670B2 (en) | Autonomous mobile device and self-position estimation method | |
KR20200041355A (en) | Simultaneous positioning and mapping navigation method, device and system combining markers | |
JP4985166B2 (en) | Self-position estimation device | |
US10163225B2 (en) | Object state identification method, object state identification apparatus, and carrier | |
US20170293788A1 (en) | Code recognition device | |
US20210012124A1 (en) | Method of collecting road sign information using mobile mapping system | |
CN108038139B (en) | Map construction method and device, robot positioning method and device, computer equipment and storage medium | |
JP6479296B2 (en) | Position / orientation estimation apparatus and position / orientation estimation method | |
JPWO2015045834A1 (en) | Marker image processing system | |
WO2018207426A1 (en) | Information processing device, information processing method, and program | |
JP6601613B2 (en) | POSITION ESTIMATION METHOD, POSITION ESTIMATION DEVICE, AND POSITION ESTIMATION PROGRAM | |
CN110926478B (en) | AR navigation route deviation rectifying method and system and computer readable storage medium | |
CN112766008B (en) | Object space pose acquisition method based on two-dimensional code | |
CN114415736A (en) | Multi-stage visual accurate landing method and device for unmanned aerial vehicle | |
CN117011457A (en) | Three-dimensional drawing construction method and device, electronic equipment and storage medium | |
Li et al. | An improved graph-based visual localization system for indoor mobile robot using newly designed markers | |
JP2019015681A (en) | Position estimation system and position estimation method | |
US20210343037A1 (en) | Location discovery | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
Yap et al. | Landmark-based automated guided vehicle localization algorithm for warehouse application | |
Wang et al. | Mobile robot ego motion estimation using ransac-based ceiling vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210105 |