JP2019015681A - Position estimation system and position estimation method - Google Patents

Position estimation system and position estimation method Download PDF

Info

Publication number
JP2019015681A
JP2019015681A JP2017134841A JP2017134841A JP2019015681A JP 2019015681 A JP2019015681 A JP 2019015681A JP 2017134841 A JP2017134841 A JP 2017134841A JP 2017134841 A JP2017134841 A JP 2017134841A JP 2019015681 A JP2019015681 A JP 2019015681A
Authority
JP
Japan
Prior art keywords
image
moving body
identifier
identification information
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017134841A
Other languages
Japanese (ja)
Inventor
敦俊 長谷部
Atsutoshi Hasebe
敦俊 長谷部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYB Corp
Original Assignee
KYB Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYB Corp filed Critical KYB Corp
Priority to JP2017134841A priority Critical patent/JP2019015681A/en
Priority to PCT/JP2018/025150 priority patent/WO2019013035A1/en
Publication of JP2019015681A publication Critical patent/JP2019015681A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Structural Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Civil Engineering (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a position estimation system and a position estimation method capable of precisely estimating a position of a moving body, such as a forklift.SOLUTION: A position estimation system includes a plurality of identifiers, an imaging part and an information processor. The plurality of identifiers are installed in a predetermined posture in a predetermined position on a traveling surface of a moving body, and furnished with each different piece of first identification information. The imaging part is mounted to the moving body, and is configured so as to be capable of imaging at least one identifier from among the plurality of identifiers. The information processor includes: an image processing part for extracting the first identification information of an identifier within an image, and second identification information relating to a relative positional relationship between the identifier within the image and the moving body by processing the image captured by the imaging part; and an estimation part for estimating a position on the traveling surface of the moving body, based on the first and second identification information.SELECTED DRAWING: Figure 4

Description

本発明は、走行面上の移動体の位置を推定する位置推定システム及び位置推定方法に関する。   The present invention relates to a position estimation system and a position estimation method for estimating the position of a moving object on a running surface.

従来、屋内で作業を行うフォークリフト等の移動体の位置を推定する方法として種々の方法が知られている。   Conventionally, various methods are known as a method for estimating the position of a moving body such as a forklift that works indoors.

例えば特許文献1には、倉庫等の空間の天井部にそれぞれ異なるパターンを有する複数のラベルを配置して、フォークリフトに取り付けられたカメラでラベルを撮像することにより得られた画像から、倉庫内のフォークリフトの位置を推定する技術が記載されている。   For example, in Patent Document 1, a plurality of labels each having a different pattern are arranged on a ceiling portion of a space such as a warehouse, and an image obtained by capturing the labels with a camera attached to a forklift, A technique for estimating the position of a forklift is described.

この技術によれば、空間の天井部に設けられた複数のラベルがそれぞれ異なるパターンを有することから、撮像した画像内のラベルのパターンを基準として、フォークリフトの位置を推定できるとしている。   According to this technique, since the plurality of labels provided on the ceiling of the space have different patterns, the position of the forklift can be estimated based on the label pattern in the captured image.

特開平11−29299号公報JP 11-29299 A

しかしながら、特許文献1に記載の発明は、ラベルが撮像された画像内のラベルのパターン、位置及び向きのみからフォークリフトの位置を推定するものであり、倉庫内におけるフォークリフトの位置を大まかに推定できるものの、より高精度にフォークリフトの位置を推定することは困難である。   However, the invention described in Patent Document 1 estimates the position of the forklift only from the pattern, position, and orientation of the label in the image in which the label is imaged, and can roughly estimate the position of the forklift in the warehouse. It is difficult to estimate the position of the forklift with higher accuracy.

以上のような事情に鑑み、本発明の目的は、フォークリフト等の移動体の位置を高精度に推定可能な位置推定システム及び位置推定方法を提供することにある。   In view of the circumstances as described above, an object of the present invention is to provide a position estimation system and a position estimation method capable of estimating the position of a moving body such as a forklift with high accuracy.

上記目的を達成するため、本発明の一形態に係る位置推定システムは、複数の識別子と、撮像部と、情報処理装置と、を有する。
上記複数の識別子は、移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与される。
上記撮像部は、上記移動体に取り付けられ、上記複数の識別子のうち少なくとも1つの識別子を撮像可能に構成される。
上記情報処理装置は、上記撮像部により撮像された画像を処理することにより、上記画像内の識別子の上記第1の識別情報と、上記画像内の識別子と上記移動体との相対的な位置関係に関する第2の識別情報とを抽出する画像処理部と、上記第1及び第2の識別情報に基づき、上記移動体の上記走行面上の位置を推定する推定部と、を有する。
In order to achieve the above object, a position estimation system according to an aspect of the present invention includes a plurality of identifiers, an imaging unit, and an information processing device.
The plurality of identifiers are installed in a predetermined posture at a predetermined position on the traveling surface of the moving body, and different first identification information is given to each.
The imaging unit is attached to the moving body and configured to capture at least one identifier among the plurality of identifiers.
The information processing apparatus processes the image picked up by the image pickup unit, so that the first identification information of the identifier in the image and the relative positional relationship between the identifier in the image and the moving object are processed. And an estimation unit for estimating the position of the moving body on the traveling surface based on the first and second identification information.

上記構成によれば、走行面上の移動体の位置が、走行面上の識別子の絶対位置と、この識別子に対する移動体の相対的な位置関係に基づき推定される。これにより、より高精度に移動体の走行面上の位置を推定することができる。   According to the above configuration, the position of the moving body on the traveling surface is estimated based on the absolute position of the identifier on the traveling surface and the relative positional relationship of the moving body with respect to this identifier. Thereby, the position on the traveling surface of the moving body can be estimated with higher accuracy.

上記画像処理部は、上記第2の識別情報として、上記画像内の識別子と上記移動体との間の距離を算出してもよい。   The image processing unit may calculate a distance between the identifier in the image and the moving body as the second identification information.

上記画像処理部は、上記第2の識別情報として、上記画像内の識別子に対する上記移動体の向きを算出してもよい。   The image processing unit may calculate a direction of the moving body with respect to an identifier in the image as the second identification information.

上記画像処理部は、上記複数の識別子が一軸方向に沿って配列された配列方向に対して異方性を有する識別子が撮像された画像を処理することにより、上記移動体の向きを算出してもよい。
これにより、識別子に対する移動体の向きを推定しやすくなる。
The image processing unit calculates an orientation of the moving body by processing an image in which an identifier having anisotropy with respect to an arrangement direction in which the plurality of identifiers are arranged along a uniaxial direction is processed. Also good.
This makes it easier to estimate the direction of the moving body with respect to the identifier.

上記複数の識別子は矩形状を有し、1つの角部に他の角部と異なる角部であることを示す指標部が設けられ、
上記画像処理部は、上記画像内の上記指標部の位置に基づき、上記移動体の向きを算出してもよい。
これにより、識別子が撮像された画像から移動体の進行方向や向き等が推定しやすくなる。
The plurality of identifiers have a rectangular shape, and one corner is provided with an index portion indicating that the corner is different from the other corner,
The image processing unit may calculate the orientation of the moving body based on the position of the index unit in the image.
This makes it easier to estimate the traveling direction and direction of the moving body from the image obtained by capturing the identifier.

上記画像処理部は、それぞれ異なる属性の識別記号を少なくとも2種類以上含む上記第1の識別情報を、上記識別記号毎に抽出してもよい。
これにより、第1識別情報全体を抽出するよりも抽出する情報の種類が限定されるため、第1識別情報を認識する際の誤認識が抑制される。
The image processing unit may extract the first identification information including at least two types of identification symbols having different attributes, for each identification symbol.
Thereby, since the kind of information to extract is limited rather than extracting the whole 1st identification information, the misrecognition at the time of recognizing 1st identification information is suppressed.

上記情報処理装置は、上記移動体の上記走行面上の位置に関する情報を出力可能に構成された通信部をさらに有してもよい。
これにより、走行面上の移動体の推定位置を外部に通知可能となる。
The information processing apparatus may further include a communication unit configured to be able to output information regarding the position of the moving body on the traveling surface.
Thereby, the estimated position of the moving body on the traveling surface can be notified to the outside.

上記移動体の移動量を検出可能に構成された検出部をさらに具備し、
上記推定部は、上記推定部により推定された上記移動体の上記走行面上の位置と、上記検出部の出力に基づき、上記移動体の上記走行面上の位置をさらに推定してもよい。
これにより、識別子が撮像部の視野範囲に収められていなくとも、移動体の位置推定が可能となる。
Further comprising a detection unit configured to be able to detect the amount of movement of the moving body,
The estimation unit may further estimate the position of the mobile body on the travel surface based on the position of the mobile body on the travel surface estimated by the estimation unit and the output of the detection unit.
As a result, the position of the moving object can be estimated even if the identifier is not within the field of view of the imaging unit.

上記目的を達成するため、本発明の一形態に係る位置推定方法は、移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与された複数の識別子のうち少なくとも1つの識別子が撮像される。
識別子が撮像された画像を処理することにより、上記画像内の識別子の第1の識別情報と、上記画像内の識別子と上記移動体との相対的な位置関係に関する第2の識別情報とが抽出される。
上記第1及び第2の識別情報に基づき、上記移動体の前記走行面上の位置が推定される。
In order to achieve the above object, a position estimation method according to an aspect of the present invention is provided in a predetermined posture on a traveling surface of a moving body in a predetermined posture, and each of which is provided with different first identification information. At least one of the identifiers is imaged.
By processing the image in which the identifier is imaged, first identification information of the identifier in the image and second identification information regarding the relative positional relationship between the identifier in the image and the moving object are extracted. Is done.
Based on the first and second identification information, the position of the moving body on the traveling surface is estimated.

以上のように、本発明によればフォークリフト等の移動体の位置を高精度に推定可能な位置推定システム及び位置推定方法を提供することができる。   As described above, according to the present invention, it is possible to provide a position estimation system and a position estimation method capable of estimating the position of a moving body such as a forklift with high accuracy.

本発明の実施形態に係る位置推定システムが適用される移動体の一例を示す図である。It is a figure which shows an example of the mobile body to which the position estimation system which concerns on embodiment of this invention is applied. 上記移動体が走行する走行面を示す図である。It is a figure which shows the running surface on which the said mobile body drive | works. 上記実施形態の識別子の構成例を示す図である。It is a figure which shows the structural example of the identifier of the said embodiment. 上記実施形態の識別子の構成例を示す図である。It is a figure which shows the structural example of the identifier of the said embodiment. 上記実施形態の情報処理装置の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the information processing apparatus of the said embodiment. 上記位置推定システムの位置推定方法を示すフローチャートである。It is a flowchart which shows the position estimation method of the said position estimation system. 上記実施形態の撮像部が識別子を撮像した画像を示すイメージ図である。It is an image figure which shows the image which the imaging part of the said embodiment imaged the identifier. 上記実施形態の撮像部が識別子を撮像した画像を示すイメージ図である。It is an image figure which shows the image which the imaging part of the said embodiment imaged the identifier.

以下、図面を参照しながら、本発明の実施形態を説明する。本実施形態では、例えば、工場内を走行する荷役用のフォークリフト等の移動体を対象とした位置推定システムについて説明する。なお、以下の図においてX、Y及びZ軸方向は相互に直交する3軸方向を示し、Z軸方向は高さ方向に相当する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, for example, a position estimation system for a moving body such as a forklift for cargo handling traveling in a factory will be described. In the following drawings, the X, Y, and Z axis directions indicate triaxial directions orthogonal to each other, and the Z axis direction corresponds to the height direction.

<位置推定システムの概要>
図1は本実施形態に係る位置推定システム100が適用される移動体1を示す図であり、図2は移動体1の走行面Sを示す図である。なお、位置推定システム100の構成は、以下の説明に限定されるものではない。
<Outline of position estimation system>
FIG. 1 is a diagram illustrating a moving body 1 to which the position estimation system 100 according to the present embodiment is applied, and FIG. 2 is a diagram illustrating a running surface S of the moving body 1. The configuration of the position estimation system 100 is not limited to the following description.

本実施形態に係る位置推定システム100は、複数の識別子10と、撮像部11と、情報処理装置12と、表示部13と、検出部14と、稼働管理システム15(図5参照)と、を有する。   The position estimation system 100 according to the present embodiment includes a plurality of identifiers 10, an imaging unit 11, an information processing device 12, a display unit 13, a detection unit 14, and an operation management system 15 (see FIG. 5). Have.

複数の識別子10は、移動体1の走行面S上の所定の位置に所定の姿勢で設置されている。走行面Sは、典型的には、工場等の屋内において移動体1が走行する床面であって、白線W等により荷物置き場と領域的に区画された、X軸方向、Y軸方向又はこれらと交差する方向に延在する直線的又は曲線的な複数の通路を構成する。   The plurality of identifiers 10 are installed at predetermined positions on the traveling surface S of the moving body 1 in a predetermined posture. The traveling surface S is typically a floor surface on which the moving body 1 travels indoors, such as a factory, and is divided in an area from the luggage storage area by a white line W or the like. A plurality of linear or curved passages extending in a direction intersecting with the line.

複数の識別子10は、X及びY軸方向に沿って一定の間隔で走行面S上に設置され、X及びY軸方向に対して異方性を示す形状を有する。識別子10と識別子10との間の間隔Rは特に限定されず、例えば数十cm〜数百cm程度である。   The plurality of identifiers 10 are installed on the traveling surface S at regular intervals along the X and Y axis directions, and have a shape showing anisotropy with respect to the X and Y axis directions. The interval R between the identifier 10 and the identifier 10 is not particularly limited, and is, for example, about several tens cm to several hundreds cm.

複数の識別子10は、それぞれに異なる第1識別情報Iが付与される。図2の例では、第1識別情報Iが3ケタの英数字で構成されるが、勿論これに限られず、4ケタ以上の文字列等で構成されてもよい(図3、図4参照)。図2に示す第1識別情報Iにおいて、前段の英字記号(「A」、「F」、「C」など)は、個々の通路を特定し、通路間の交差位置は、「P」等の共通の記号が用いられる。後段の数字記号は、各通路での位置情報を表している。   Different first identification information I is given to each of the plurality of identifiers 10. In the example of FIG. 2, the first identification information I is composed of three-digit alphanumeric characters, but of course not limited to this, it may be composed of a character string of four digits or more (see FIGS. 3 and 4). . In the first identification information I shown in FIG. 2, the alphabetic symbols (“A”, “F”, “C”, etc.) in the preceding stage specify individual passages, and the intersection position between the passages is “P” or the like. Common symbols are used. The numerical symbols in the subsequent stage represent position information in each passage.

本実施形態に係る識別子10は典型的には矩形状であり、1つの角部に他の角部と異なる角部であることを示す指標部10aが設けられる。この指標部10aは、例えば識別子10の角部に形成された切欠きであり(図3参照)、あるいは、角部に施されたマーキング(図4参照)等である。   The identifier 10 according to the present embodiment is typically rectangular, and an index portion 10a indicating that the corner portion is different from the other corner portions is provided at one corner portion. The indicator portion 10a is, for example, a notch formed in a corner portion of the identifier 10 (see FIG. 3) or a marking (see FIG. 4) applied to the corner portion.

これにより、複数の識別子10が図2に示すように、所定の姿勢で一軸方向に規則的に配列されている場合に、切欠きやマーキングを指標として、識別子10が撮像された画像から移動体1の進行方向や向き等を推定することができる。なお、識別子10の形状は典型的には矩形状であるが、これに限られず、三角状やひし形状等その種類は問わない。   Thereby, when a plurality of identifiers 10 are regularly arranged in a uniaxial direction in a predetermined posture as shown in FIG. 2, a moving object is obtained from an image in which the identifiers 10 are captured using notches and markings as indices. 1 traveling direction, direction, etc. can be estimated. The shape of the identifier 10 is typically a rectangular shape, but is not limited to this, and any type such as a triangular shape or a rhombus shape may be used.

図3及び図4は識別子10の構成例を示す図である。第1識別情報Iは走行面S上の識別子10の所在を示す情報であり、走行面Sのアドレスとして機能する。   FIGS. 3 and 4 are diagrams showing a configuration example of the identifier 10. The first identification information I is information indicating the location of the identifier 10 on the traveling surface S, and functions as an address of the traveling surface S.

第1識別情報Iは図3及び図4に示すように、例えば2種類の異なる属性の文字列(識別記号)から構成される。第1識別情報Iを構成する文字列には、典型的には、カタカナやひらがな等の仮名、数字やアルファベット等の英数字、図形等が採用されるがこれに限られず、「@>=−」等の特殊文字や数学記号等が採用されてもよい。   As shown in FIGS. 3 and 4, the first identification information I is composed of, for example, two types of character strings (identification symbols) having different attributes. As the character string constituting the first identification information I, typically, kana such as katakana and hiragana, alphanumeric characters such as numerals and alphabets, figures and the like are adopted, but not limited thereto, “@> = − A special character such as “” or a mathematical symbol may be employed.

撮像部11は、図1に示すように移動体1の後方に取り付けられ、移動体1の進行方向後方の走行面Sを撮像可能に構成される。撮像部11の光軸の走行面Sに対する傾斜角や画角等の撮像条件は、既知情報として情報処理装置12へ入力される。当該撮像条件は典型的には固定であるが、可変であってもよい。撮像部11は、情報処理装置12に無線又は有線により接続され、撮像した画像を情報処理装置12に出力する。   As shown in FIG. 1, the imaging unit 11 is attached to the rear of the moving body 1 and configured to be able to image the traveling surface S behind the moving body 1 in the traveling direction. Imaging conditions such as an inclination angle and a field angle of the optical axis of the imaging unit 11 with respect to the traveling surface S are input to the information processing apparatus 12 as known information. The imaging conditions are typically fixed, but may be variable. The imaging unit 11 is connected to the information processing apparatus 12 wirelessly or by wire and outputs a captured image to the information processing apparatus 12.

撮像部11は、例えばCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサを有し、所定のフレームレートで移動体1の進行方向後方の動画を取得する。なお、撮像部11は典型的にはCCDカメラ等のビデオカメラであるが、これに限られず、移動体1の進行方向後方の静止画を所定の撮像間隔で所得可能なスチルカメラやステレオカメラ等であってもよい。   The imaging unit 11 includes an image sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and acquires a moving image behind the moving body 1 in the traveling direction at a predetermined frame rate. The imaging unit 11 is typically a video camera such as a CCD camera. However, the imaging unit 11 is not limited thereto, and a still camera, a stereo camera, or the like that can obtain a still image behind the moving body 1 in the traveling direction at a predetermined imaging interval. It may be.

情報処理装置12は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のコンピュータに必要なハードウェアを有する。CPUが、ROMやHDDに格納されたプログラムをRAMにロードして実行することにより、後述する情報処理装置12の各ブロック動作が制御される。   The information processing apparatus 12 includes hardware necessary for a computer such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). When the CPU loads a program stored in the ROM or HDD into the RAM and executes it, each block operation of the information processing apparatus 12 to be described later is controlled.

プログラムは、例えば種々の記憶媒体(内部メモリ)を介して情報処理装置12にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。本実施形態では、情報処理装置12として、例えば、PC(Personal Computer)やタブレット端末等が用いられるが、他の任意のコンピュータが用いられてもよい。   The program is installed in the information processing apparatus 12 via, for example, various storage media (internal memory). Alternatively, program installation may be executed via the Internet or the like. In the present embodiment, for example, a PC (Personal Computer), a tablet terminal, or the like is used as the information processing apparatus 12, but any other computer may be used.

表示部13は、撮像部11が撮像した画像や、情報処理装置12から出力された画像等を表示可能に構成される。表示部13は、例えば、液晶、有機EL(Electro-Luminescence)等を用いた表示デバイスである。表示部13は、ユーザの操作を入力するための入力部を有する構成であってもよい。当該入力部としては、例えば、タッチパネルや、キーボード等の操作デバイスが採用される。   The display unit 13 is configured to be able to display an image captured by the imaging unit 11, an image output from the information processing apparatus 12, and the like. The display unit 13 is a display device using, for example, liquid crystal, organic EL (Electro-Luminescence), or the like. The display unit 13 may have a configuration including an input unit for inputting a user operation. As the input unit, for example, an operation device such as a touch panel or a keyboard is employed.

検出部14は、移動体1に設けられ、情報処理装置12と無線又は有線により接続される。検出部14は、移動体1の移動量を検出し、情報処理装置12に出力可能に構成される。検出部14は、例えば車輪速センサ、加速度センサ、舵角センサ又は角速度センサ等であり、その種類は問わない。   The detection unit 14 is provided in the moving body 1 and is connected to the information processing apparatus 12 wirelessly or by wire. The detection unit 14 is configured to detect the amount of movement of the moving body 1 and output it to the information processing apparatus 12. The detection unit 14 is, for example, a wheel speed sensor, an acceleration sensor, a rudder angle sensor, an angular velocity sensor, or the like, and the type thereof is not limited.

稼働管理システム15は、情報処理装置12から出力された移動体1の走行面S上の位置に関する情報を取得する(図5参照)。稼働管理システム15はこの情報に基づき、表示部13を介して、移動体1を操縦するユーザに現在位置を知らせたり、移動体1をナビゲーションしたり、移動体1の移動軌跡等を管理したりする。   The operation management system 15 acquires information regarding the position on the traveling surface S of the moving body 1 output from the information processing apparatus 12 (see FIG. 5). Based on this information, the operation management system 15 informs the user operating the moving body 1 of the current position, navigates the moving body 1, manages the movement locus of the moving body 1, etc., via the display unit 13. To do.

図5は、情報処理装置12の構成例を示す機能ブロック図である。情報処理装置12は、図5に示すように、画像処理部121と、推定部122と、マップデータファイル123と、通信部124と、を有する。   FIG. 5 is a functional block diagram illustrating a configuration example of the information processing apparatus 12. As illustrated in FIG. 5, the information processing apparatus 12 includes an image processing unit 121, an estimation unit 122, a map data file 123, and a communication unit 124.

画像処理部121は、撮像部11から取得した画像を処理することにより、画像内の識別子10の第1識別情報Iと、画像内の識別子10と移動体1との相対的な位置関係に関する情報(以下、第2識別情報)とを抽出する。   The image processing unit 121 processes the image acquired from the imaging unit 11, thereby information about the first identification information I of the identifier 10 in the image and the relative positional relationship between the identifier 10 in the image and the moving body 1. (Hereinafter referred to as second identification information).

推定部122は、第1識別情報Iと第2識別情報に基づき、移動体1の走行面S上の位置を推定する。   The estimation unit 122 estimates the position of the moving body 1 on the traveling surface S based on the first identification information I and the second identification information.

マップデータファイル123は、識別子10の第1識別情報Iと、当該識別子10の走行面S上の絶対位置とが対応づけられた情報(以下、位置登録データ)を記憶するデータベースである。マップデータファイル123は例えば、第1識別情報Iと走行面S上の識別子10の絶対位置をテキストデータとして表示部13に表示させる。   The map data file 123 is a database that stores information (hereinafter, position registration data) in which the first identification information I of the identifier 10 is associated with the absolute position of the identifier 10 on the traveling surface S. For example, the map data file 123 causes the display unit 13 to display the first identification information I and the absolute position of the identifier 10 on the traveling surface S as text data.

通信部124は、移動体1の走行面S上の位置に関する情報を稼働管理システム15に出力し、稼働管理システム15から情報を取得可能に構成される。通信部124は、情報処理装置12の入出力インターフェースとして機能する。   The communication unit 124 is configured to output information related to the position of the moving body 1 on the traveling surface S to the operation management system 15 and acquire information from the operation management system 15. The communication unit 124 functions as an input / output interface of the information processing apparatus 12.

<位置推定方法>
図6は、位置推定システム100が移動体1の走行面S上の位置を推定する方法を示すフローチャートである。以下、移動体1の位置推定方法について、図6を適宜参照しながら説明する。
<Position estimation method>
FIG. 6 is a flowchart illustrating a method by which the position estimation system 100 estimates the position of the moving body 1 on the traveling surface S. Hereinafter, a method for estimating the position of the moving body 1 will be described with reference to FIG. 6 as appropriate.

[適用例1]
(ステップS01:位置登録)
先ず、任意の走行エリア内の走行面S上に、複数の識別子10を一定の間隔で配置する(図2参照)。次に、複数の識別子10に付与された第1識別情報Iと、走行エリア内の複数の識別子10の絶対位置とがそれぞれ対応づけられた位置登録データを作成する。そして。このデータを情報処理装置12に記憶させ、データベース(マップデータファイル123)を構築する。
[Application Example 1]
(Step S01: Location registration)
First, a plurality of identifiers 10 are arranged at regular intervals on a running surface S in an arbitrary running area (see FIG. 2). Next, position registration data in which the first identification information I assigned to the plurality of identifiers 10 and the absolute positions of the plurality of identifiers 10 in the travel area are associated with each other is created. And then. This data is stored in the information processing apparatus 12, and a database (map data file 123) is constructed.

(ステップS02:撮像)
次に、走行面S上を移動する移動体1に取り付けられた撮像部11が、識別子10を撮像する。この際、撮像部11は走行面S上に設置された複数の識別子10のうち少なくとも1つの識別子10を撮像する。なお、本実施形態では、典型的には移動体1の通路上の識別子10が撮像されるが、これに限られず、通路外の識別子10が撮像されてもよい。
(Step S02: Imaging)
Next, the imaging unit 11 attached to the moving body 1 that moves on the traveling surface S images the identifier 10. At this time, the imaging unit 11 images at least one identifier 10 among the plurality of identifiers 10 installed on the traveling surface S. In the present embodiment, the identifier 10 on the passage of the moving body 1 is typically imaged. However, the present invention is not limited to this, and the identifier 10 outside the passage may be imaged.

(ステップS03:識別子の有無の判定)
画像処理部121は、撮像部11から取得した画像について、識別子10が撮像されているか否かを判定する。ここで、画像処理部121は、識別子10が撮像されていると判定した場合(S03のYES)は、後述する画像処理を実行する。
(Step S03: Determination of presence or absence of identifier)
The image processing unit 121 determines whether or not the identifier 10 is captured for the image acquired from the imaging unit 11. Here, when the image processing unit 121 determines that the identifier 10 is captured (YES in S03), the image processing unit 121 performs image processing to be described later.

(ステップS04;画像処理)
画像処理部121は、撮像部11から取得した画像に所定の画像処理を施す。これにより、画像内の識別子10における第1識別情報Iと、第2識別情報が抽出される。
(Step S04; Image processing)
The image processing unit 121 performs predetermined image processing on the image acquired from the imaging unit 11. Thereby, the first identification information I and the second identification information in the identifier 10 in the image are extracted.

本実施形態では、第1識別情報Iを抽出する処理の一例として、画像処理部121は異なる属性の複数の文字列を、同じ属性の文字列(識別記号)毎に抽出する。これにより、第1識別情報I全体を抽出するよりも抽出する情報の種類が限定されるため、画像処理部121が第1識別情報Iを認識する際の誤認識が抑制される。   In the present embodiment, as an example of processing for extracting the first identification information I, the image processing unit 121 extracts a plurality of character strings having different attributes for each character string (identification symbol) having the same attribute. Thereby, since the kind of information to extract is limited rather than extracting the 1st identification information I whole, the misrecognition at the time of the image process part 121 recognizing the 1st identification information I is suppressed.

例えば図3に示した第1識別情報Iは、3ケタの文字列と、4ケタの数字列とにより構成される。画像処理部121は、前段の3ケタはカタカナであり、後段の4ケタは数字であることを予め認識しておくことで、前段の3ケタと後段の4ケタとを相異なる属性として識別できるため、誤認識が抑制される。図4に示した英文字と数字との組み合わせについても同様に、例えば、英文字の「B」と数字の「8」との間の誤認識が確実に防止されるため、第1識別情報Iを高精度に認識することができる。   For example, the first identification information I shown in FIG. 3 includes a 3-digit character string and a 4-digit number string. By recognizing in advance that the first three digits are katakana and the second four digits are numbers, the image processing unit 121 can identify the first three digits and the second four digits as different attributes. Therefore, misrecognition is suppressed. Similarly, for the combination of alphabetic characters and numbers shown in FIG. 4, for example, erroneous recognition between the alphabetic characters “B” and the numeric characters “8” is reliably prevented, so that the first identification information I Can be recognized with high accuracy.

一方、図7及び図8は、撮像部11が識別子10を撮像した画像Gを示すイメージ図である。第2識別情報を抽出する処理の一例としては、先ず、画像処理部121が撮像部11から取得した画像Gに例えば2値化処理等を施すことにより、画像G内の識別子10の輪郭線や指標部10aを抽出する。これにより、画像G内における識別子10の位置と向きが特定される。   On the other hand, FIGS. 7 and 8 are image diagrams showing an image G in which the imaging unit 11 images the identifier 10. As an example of the process of extracting the second identification information, first, the image processing unit 121 performs, for example, a binarization process on the image G acquired from the imaging unit 11, so that the contour line of the identifier 10 in the image G The index part 10a is extracted. Thereby, the position and orientation of the identifier 10 in the image G are specified.

次に、特定した画像G内の識別子10の位置に基づき、第2識別情報として、識別子10と移動体1との間の距離を算出する。具体的には、例えば、画像G内における識別子10以外の領域(余白)の幅L3は、識別子10と移動体1との間の距離に依存するため、画像処理部121は幅L3に基づき、識別子10と移動体1との間の距離を算出する。   Next, based on the position of the identifier 10 in the specified image G, the distance between the identifier 10 and the moving body 1 is calculated as second identification information. Specifically, for example, since the width L3 of the region (margin) other than the identifier 10 in the image G depends on the distance between the identifier 10 and the moving object 1, the image processing unit 121 is based on the width L3. The distance between the identifier 10 and the moving body 1 is calculated.

さらに、画像処理部121は、特定した画像G内の識別子10の向きに基づき、第2識別情報として、識別子10に対する移動体1の向きを算出する。   Furthermore, the image processing unit 121 calculates the orientation of the moving body 1 with respect to the identifier 10 as the second identification information based on the identified orientation of the identifier 10 in the image G.

具体的には、例えば、画像G内の識別子10の任意の2点E1,E2を通る直線的な仮想線をL1とし、撮像部11の光軸を示す仮想線をL2とした場合に、仮想線L1とL2がなす角度Aを算出することで、識別子10に対する移動体1の向きを算出する。   Specifically, for example, when a linear virtual line passing through two arbitrary points E1 and E2 of the identifier 10 in the image G is L1, and a virtual line indicating the optical axis of the imaging unit 11 is L2, the virtual line By calculating the angle A formed by the lines L1 and L2, the direction of the moving body 1 with respect to the identifier 10 is calculated.

あるいは、複数の識別子10が一軸方向(配列方向)に沿って所定の姿勢で配列されている場合に、本実施形態に係る識別子10は配列方向に対して異方性を示し、且つ、指標部10aを有するため(図2参照)、例えば図8に示すように仮想線L2と識別子10の長辺又は短辺とがなす角度B,Cや、仮想線L2の配列方向L4からの傾斜角D等と、画像G内の指標部10aの位置を総合的に考慮することで、識別子10に対する移動体1の向きを算出することもできる。   Alternatively, when a plurality of identifiers 10 are arranged in a predetermined posture along a uniaxial direction (arrangement direction), the identifier 10 according to the present embodiment exhibits anisotropy with respect to the arrangement direction, and the indicator unit 10a (see FIG. 2), for example, as shown in FIG. 8, the angles B and C formed by the long side or the short side of the identifier 10 and the inclination angle D from the arrangement direction L4 of the virtual line L2 as shown in FIG. The direction of the moving body 1 with respect to the identifier 10 can also be calculated by comprehensively considering the position of the indicator portion 10a in the image G.

続いて、画像処理部121は、識別子10が撮像された画像から抽出した第1識別情報Iと第2識別情報を推定部122に出力する。   Subsequently, the image processing unit 121 outputs the first identification information I and the second identification information extracted from the image obtained by capturing the identifier 10 to the estimation unit 122.

(ステップS05:位置推定)
推定部122は、画像処理部121から取得した第1識別情報Iと、予めマップデータファイル123に登録されている位置登録データとを照合することにより、当該第1識別情報Iが付与された識別子10の走行面S上の絶対位置を特定する。
(Step S05: Position estimation)
The estimation unit 122 collates the first identification information I acquired from the image processing unit 121 with the position registration data registered in advance in the map data file 123, so that the identifier to which the first identification information I is assigned. The absolute position on the ten running surfaces S is specified.

次いで、推定部122は、特定した走行面S上の識別子10の絶対位置と、この識別子10に対する第2識別情報とに基づき、走行エリア内での移動体1の位置を推定する。   Next, the estimation unit 122 estimates the position of the moving body 1 in the travel area based on the absolute position of the identifier 10 on the identified travel surface S and the second identification information for the identifier 10.

即ち、推定部122は、走行面S上の識別子10の絶対位置と、この識別子10に対する移動体1の相対的な位置関係(距離、向き等)に基づき、移動体1の走行面S上の位置を推定する。これにより、より高精度に移動体1の走行面S上の位置を推定することが可能となる。   In other words, the estimation unit 122 is based on the absolute position of the identifier 10 on the traveling surface S and the relative positional relationship (distance, orientation, etc.) of the moving body 1 with respect to this identifier 10. Estimate the position. Thereby, it becomes possible to estimate the position on the traveling surface S of the moving body 1 with higher accuracy.

また、本実施形態に係る位置推定システム100は、最低限、複数の識別子10、撮像部11及び情報処理装置12を有する構成であれば、移動体1の位置を推定することができる。これにより、従来の例えば無線通信を利用したインフラ協調型のものよりも部品点数を削減することができ、低コスト化を図ることが可能となる。   In addition, the position estimation system 100 according to the present embodiment can estimate the position of the moving body 1 as long as it has a plurality of identifiers 10, the imaging unit 11, and the information processing device 12. Thereby, the number of parts can be reduced as compared with the conventional infrastructure cooperation type using, for example, wireless communication, and the cost can be reduced.

さらに、位置推定システム100は、建物内部のような制限された空間内で装置構成を完結させることができるため、屋外に限られず、GPS(Global Positioning System)が利用できない屋内においても移動体1の位置を推定することが可能である。   Furthermore, since the position estimation system 100 can complete the device configuration within a limited space such as the inside of a building, the position estimation system 100 is not limited to the outdoors, and the interior of the mobile object 1 can be used indoors where GPS (Global Positioning System) cannot be used. It is possible to estimate the position.

続いて、推定部122は上述した方法により得られた、走行面S上の移動体1の位置に関する情報を表示部13及び通信部124に出力する。これにより、移動体1を操縦するユーザが移動体1の推定位置を確認できる共に、稼働管理システム15を介してこの推定位置が把握される。また、当該位置情報を経時的に蓄積することで、移動体1の運行管理に役立てることができる。   Subsequently, the estimation unit 122 outputs information on the position of the moving body 1 on the traveling surface S obtained by the method described above to the display unit 13 and the communication unit 124. Thereby, the user who steers the moving body 1 can confirm the estimated position of the moving body 1 and can grasp the estimated position via the operation management system 15. In addition, by accumulating the position information over time, it can be used for operation management of the mobile body 1.

[適用例2]
次に、位置推定システム100が移動体1の走行面S上の位置を推定する別の方法について説明する。なお、適用例1と同様のステップついては、その説明を省略する。
[Application Example 2]
Next, another method for the position estimation system 100 to estimate the position of the moving body 1 on the traveling surface S will be described. Note that the description of the same steps as in Application Example 1 is omitted.

(ステップS03:識別子の有無の判定)
画像処理部121は、撮像部11から取得した画像について、識別子10が撮像されているか否かを判定する。ここで、画像処理部121は、識別子10が撮像されていないと判定した場合(S03のNO)は、推定部122が後述する方法により移動体1の位置を推定する。
(Step S03: Determination of presence or absence of identifier)
The image processing unit 121 determines whether or not the identifier 10 is captured for the image acquired from the imaging unit 11. Here, when the image processing unit 121 determines that the identifier 10 is not captured (NO in S03), the estimation unit 122 estimates the position of the moving body 1 by a method described later.

(ステップS05:位置推定)
推定部122は、移動体1に取り付けられた検出部14の出力に基づき、移動体1の走行面S上の位置を推定する。具体的には、推定部122は検出部14が検出した移動体1の走行面S上の移動量から移動体1の位置を推定する。この移動量とは、例えば、直前に撮像した識別子10からの移動距離等である。
(Step S05: Position estimation)
The estimation unit 122 estimates the position of the moving body 1 on the traveling surface S based on the output of the detection unit 14 attached to the moving body 1. Specifically, the estimation unit 122 estimates the position of the moving body 1 from the movement amount on the traveling surface S of the moving body 1 detected by the detection unit 14. The amount of movement is, for example, a movement distance from the identifier 10 imaged immediately before.

本実施形態に係る位置推定システム100では、移動体1が検出部14を有することにより、移動体1が識別子10と識別子10との間を移動し、識別子10が撮像部11の視野範囲に収められていない場合でも、移動体1の走行面S上の位置を推定することができる。   In the position estimation system 100 according to the present embodiment, since the moving body 1 includes the detection unit 14, the moving body 1 moves between the identifier 10 and the identifier 10, and the identifier 10 falls within the field of view of the imaging unit 11. Even if it is not done, the position on the traveling surface S of the moving body 1 can be estimated.

即ち、直前に撮像された識別子10に基づき推定された走行面S上の移動体1の位置と、当該識別子10に対する移動量から、移動体1の走行面S上の位置を推定することができる。これにより、走行面S上に配置される識別子10の数を削減することができ、低コスト化を図ることが可能となる。   That is, the position of the moving body 1 on the traveling surface S can be estimated from the position of the moving body 1 on the traveling surface S estimated based on the identifier 10 captured immediately before and the amount of movement with respect to the identifier 10. . Thereby, the number of identifiers 10 arranged on the traveling surface S can be reduced, and the cost can be reduced.

[適用例3]
次に、位置推定システム100が移動体1の走行面S上の位置を推定する別の方法について説明する。なお、適用例1及び2と同様のステップについては、その説明を省略する。
[Application Example 3]
Next, another method for the position estimation system 100 to estimate the position of the moving body 1 on the traveling surface S will be described. Note that the description of the same steps as those in the application examples 1 and 2 is omitted.

(ステップS05:位置推定)
推定部122は、適用例1と同様の手法により推定された走行エリア内での移動体1の位置と、適用例2と同様の手法により検出された当該移動体1の走行面S上の移動量から、走行エリア内での移動体1の位置を推定する。
(Step S05: Position estimation)
The estimation unit 122 detects the position of the moving body 1 in the traveling area estimated by the same method as in Application Example 1 and the movement of the moving body 1 on the traveling surface S detected by the same method as in Application Example 2. From the quantity, the position of the moving body 1 in the travel area is estimated.

即ち、推定部122は、走行面S上の識別子10の絶対位置と、この識別子10に対する移動体1の相対的な位置関係のみならず、検出部14が検出した移動体1の走行面S上の移動量に基づき、走行面S上での移動体1の位置をさらに推定する。これにより、推定部122が走行面S上での移動体1の位置を推定する上での確実性がより向上する。   That is, the estimation unit 122 not only detects the absolute position of the identifier 10 on the traveling surface S and the relative positional relationship of the moving body 1 with respect to the identifier 10, but also on the traveling surface S of the moving body 1 detected by the detection unit 14. The position of the moving body 1 on the traveling surface S is further estimated based on the amount of movement. Thereby, the certainty in estimating the estimation part 122 in the position of the mobile body 1 on the driving | running | working surface S improves more.

以上、本発明の実施形態について説明したが、本発明は上述の実施形態にのみ限定されるものではなく種々変更を加え得ることは勿論である。   As mentioned above, although embodiment of this invention was described, this invention is not limited only to the above-mentioned embodiment, Of course, a various change can be added.

例えば上記実施形態では、位置推定システム100は、一台の移動体1に適用されることを前提としているが、これに限られず、走行面S上の移動する2台以上の移動体1に適用されてもよい。   For example, in the above embodiment, the position estimation system 100 is premised on being applied to one moving body 1, but is not limited thereto, and is applied to two or more moving bodies 1 moving on the traveling surface S. May be.

また、上記実施形態の位置推定システム100では、情報処理装置12と撮像部11が別体的に設けられた構成であるが、これらが一体的に設けられていてもよい。   Moreover, in the position estimation system 100 of the said embodiment, although it is the structure by which the information processing apparatus 12 and the imaging part 11 were provided separately, these may be provided integrally.

さらに、上記実施形態の位置推定システム100は、典型的にはフォークリフトに適用されるが、これに限られない。位置推定システム100は、走行面S上を移動可能な移動体全般に適用されてもよくその用途は問わない。移動体1は有人移動体である場合に限られず、無人移動体であってもよい。   Furthermore, although the position estimation system 100 of the said embodiment is typically applied to a forklift, it is not restricted to this. The position estimation system 100 may be applied to all moving bodies that can move on the traveling surface S, and its use is not limited. The moving body 1 is not limited to a manned moving body, and may be an unmanned moving body.

1・・・・移動体
10・・・識別子
11・・・撮像部
12・・・情報処理装置
13・・・表示部
14・・・検出部
15・・・稼働管理システム
100・・位置推定システム
121・・画像処理部
122・・推定部
123・・マップデータファイル
124・・通信部
DESCRIPTION OF SYMBOLS 1 ...... Moving body 10 ... Identifier 11 ... Imaging part 12 ... Information processing device 13 ... Display part 14 ... Detection part 15 ... Operation management system 100 ... Position estimation system 121 .. Image processing unit 122.. Estimation unit 123.. Map data file 124.

Claims (9)

移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与された複数の識別子と、
前記移動体に取り付けられ、前記複数の識別子のうち少なくとも1つの識別子を撮像可能に構成された撮像部と、
前記撮像部により撮像された画像を処理することにより、前記画像内の識別子の前記第1の識別情報と、前記画像内の識別子と前記移動体との相対的な位置関係に関する第2の識別情報とを抽出する画像処理部と、前記第1及び第2の識別情報に基づき、前記移動体の前記走行面上の位置を推定する推定部と、を有する情報処理装置と
を具備する位置推定システム。
A plurality of identifiers installed in predetermined postures at predetermined positions on the traveling surface of the mobile body, each having different first identification information;
An imaging unit attached to the moving body and configured to image at least one of the plurality of identifiers;
By processing the image captured by the imaging unit, the first identification information of the identifier in the image, and the second identification information related to the relative positional relationship between the identifier in the image and the moving body An information processing apparatus comprising: an image processing unit that extracts the information; and an estimation unit that estimates a position of the moving body on the traveling surface based on the first and second identification information. .
請求項1に記載の位置推定システムであって、
前記画像処理部は、前記第2の識別情報として、前記画像内の識別子と前記移動体との間の距離を算出する
位置推定システム。
The position estimation system according to claim 1,
The image processing unit calculates a distance between an identifier in the image and the moving body as the second identification information.
請求項1又は2に記載の位置推定システムであって、
前記画像処理部は、前記第2の識別情報として、前記画像内の識別子に対する前記移動体の向きを算出する
位置推定システム。
The position estimation system according to claim 1 or 2,
The image processing unit calculates a direction of the moving body with respect to an identifier in the image as the second identification information.
請求項3に記載の位置推定システムであって、
前記画像処理部は、前記複数の識別子が一軸方向に沿って配列された配列方向に対して異方性を有する識別子が撮像された画像を処理することにより、前記移動体の向きを算出する
位置推定システム。
The position estimation system according to claim 3,
The image processing unit calculates an orientation of the moving body by processing an image obtained by imaging an identifier having anisotropy with respect to an arrangement direction in which the plurality of identifiers are arranged along a uniaxial direction. Estimation system.
請求項4に記載の位置推定システムであって、
前記複数の識別子は矩形状を有し、1つの角部に他の角部と異なる角部であることを示す指標部が設けられ、
前記画像処理部は、前記画像内の前記指標部の位置に基づき、前記移動体の向きを算出する
位置推定システム。
The position estimation system according to claim 4,
The plurality of identifiers have a rectangular shape, and one corner is provided with an index portion indicating that the corner is different from the other corner,
The image processing unit calculates a direction of the moving body based on a position of the index unit in the image.
請求項1から5のいずれか1つに記載の位置推定システムであって、
前記第1の識別情報は、それぞれ異なる属性の識別記号を少なくとも2種類以上含み、
前記画像処理部は、前記第1の識別情報を、前記識別記号毎に抽出する
位置推定システム。
The position estimation system according to any one of claims 1 to 5,
The first identification information includes at least two types of identification symbols having different attributes,
The image processing unit extracts the first identification information for each identification symbol.
請求項1から6のいずれか1つに記載の位置推定システムであって、
前記情報処理装置は、前記移動体の前記走行面上の位置に関する情報を出力可能に構成された通信部をさらに有する
位置推定システム。
The position estimation system according to any one of claims 1 to 6,
The information processing apparatus further includes a communication unit configured to be able to output information on the position of the moving body on the traveling surface.
請求項1から7のいずれか1つに記載の位置推定システムであって、
前記移動体の移動量を検出可能に構成された検出部をさらに具備し、
前記推定部は、前記推定部により推定された前記移動体の前記走行面上の位置と、前記検出部の出力に基づき、前記移動体の前記走行面上の位置をさらに推定する
位置推定システム。
The position estimation system according to any one of claims 1 to 7,
A detector configured to detect the amount of movement of the mobile body;
The said estimation part further estimates the position on the said driving surface of the said mobile body based on the position on the said driving surface of the said mobile body estimated by the said estimation part, and the output of the said detection part.
移動体の走行面上の所定の位置に所定の姿勢で設置され、それぞれに異なる第1の識別情報が付与された複数の識別子のうち少なくとも1つの識別子を撮像し、
識別子が撮像された画像を処理することにより、前記画像内の識別子の第1の識別情報と、前記画像内の識別子と前記移動体との相対的な位置関係に関する第2の識別情報とを抽出し、
前記第1及び第2の識別情報に基づき、前記移動体の前記走行面上の位置を推定する
位置推定方法。
At least one identifier is imaged among a plurality of identifiers that are installed in a predetermined posture at a predetermined position on the traveling surface of the moving object and are provided with different first identification information,
By processing the image in which the identifier is captured, the first identification information of the identifier in the image and the second identification information regarding the relative positional relationship between the identifier in the image and the moving body are extracted. And
A position estimation method for estimating a position of the moving body on the travel surface based on the first and second identification information.
JP2017134841A 2017-07-10 2017-07-10 Position estimation system and position estimation method Pending JP2019015681A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017134841A JP2019015681A (en) 2017-07-10 2017-07-10 Position estimation system and position estimation method
PCT/JP2018/025150 WO2019013035A1 (en) 2017-07-10 2018-07-03 Position measurement system and position measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017134841A JP2019015681A (en) 2017-07-10 2017-07-10 Position estimation system and position estimation method

Publications (1)

Publication Number Publication Date
JP2019015681A true JP2019015681A (en) 2019-01-31

Family

ID=65002447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017134841A Pending JP2019015681A (en) 2017-07-10 2017-07-10 Position estimation system and position estimation method

Country Status (2)

Country Link
JP (1) JP2019015681A (en)
WO (1) WO2019013035A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544614A (en) * 2019-03-04 2021-10-22 松下知识产权经营株式会社 Mobile object control method, mobile object control system, and program
WO2024071733A1 (en) * 2022-09-29 2024-04-04 네이버랩스 주식회사 Method and apparatus for identifier recognition-based location determination

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01302408A (en) * 1988-05-31 1989-12-06 Hara Ee I Sekkei:Kk Pallet carrier vehicle absolute position and direction recognizing method
JP2007164441A (en) * 2005-12-13 2007-06-28 Denso Corp Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device
JP2008309530A (en) * 2007-06-12 2008-12-25 National Institute Of Information & Communication Technology Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program
JP2009015684A (en) * 2007-07-06 2009-01-22 Komatsu Utility Co Ltd Vehicle dispatching system and method
WO2016124999A1 (en) * 2015-02-05 2016-08-11 Grey Orange Pte. Ltd. Apparatus and method for navigation control
US20160271800A1 (en) * 2015-03-17 2016-09-22 Amazon Technologies, Inc. Systems and Methods to Facilitate Human/Robot Interaction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01302408A (en) * 1988-05-31 1989-12-06 Hara Ee I Sekkei:Kk Pallet carrier vehicle absolute position and direction recognizing method
JP2007164441A (en) * 2005-12-13 2007-06-28 Denso Corp Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device
JP2008309530A (en) * 2007-06-12 2008-12-25 National Institute Of Information & Communication Technology Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program
JP2009015684A (en) * 2007-07-06 2009-01-22 Komatsu Utility Co Ltd Vehicle dispatching system and method
WO2016124999A1 (en) * 2015-02-05 2016-08-11 Grey Orange Pte. Ltd. Apparatus and method for navigation control
US20160271800A1 (en) * 2015-03-17 2016-09-22 Amazon Technologies, Inc. Systems and Methods to Facilitate Human/Robot Interaction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544614A (en) * 2019-03-04 2021-10-22 松下知识产权经营株式会社 Mobile object control method, mobile object control system, and program
CN113544614B (en) * 2019-03-04 2024-05-24 松下知识产权经营株式会社 Mobile body control method and mobile body control system
WO2024071733A1 (en) * 2022-09-29 2024-04-04 네이버랩스 주식회사 Method and apparatus for identifier recognition-based location determination

Also Published As

Publication number Publication date
WO2019013035A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
US10807236B2 (en) System and method for multimodal mapping and localization
KR102347015B1 (en) Vehicle tracking in a warehouse environment
US9625912B2 (en) Methods and systems for mobile-agent navigation
US9157757B1 (en) Methods and systems for mobile-agent navigation
JP6343670B2 (en) Autonomous mobile device and self-position estimation method
KR20200041355A (en) Simultaneous positioning and mapping navigation method, device and system combining markers
JP4985166B2 (en) Self-position estimation device
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
US20170293788A1 (en) Code recognition device
US20210012124A1 (en) Method of collecting road sign information using mobile mapping system
CN108038139B (en) Map construction method and device, robot positioning method and device, computer equipment and storage medium
JP6479296B2 (en) Position / orientation estimation apparatus and position / orientation estimation method
JPWO2015045834A1 (en) Marker image processing system
WO2018207426A1 (en) Information processing device, information processing method, and program
JP6601613B2 (en) POSITION ESTIMATION METHOD, POSITION ESTIMATION DEVICE, AND POSITION ESTIMATION PROGRAM
CN110926478B (en) AR navigation route deviation rectifying method and system and computer readable storage medium
CN112766008B (en) Object space pose acquisition method based on two-dimensional code
CN114415736A (en) Multi-stage visual accurate landing method and device for unmanned aerial vehicle
CN117011457A (en) Three-dimensional drawing construction method and device, electronic equipment and storage medium
Li et al. An improved graph-based visual localization system for indoor mobile robot using newly designed markers
JP2019015681A (en) Position estimation system and position estimation method
US20210343037A1 (en) Location discovery
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
Yap et al. Landmark-based automated guided vehicle localization algorithm for warehouse application
Wang et al. Mobile robot ego motion estimation using ransac-based ceiling vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105