JP2023093268A - Position detector and method of detecting position - Google Patents
Position detector and method of detecting position Download PDFInfo
- Publication number
- JP2023093268A JP2023093268A JP2021208798A JP2021208798A JP2023093268A JP 2023093268 A JP2023093268 A JP 2023093268A JP 2021208798 A JP2021208798 A JP 2021208798A JP 2021208798 A JP2021208798 A JP 2021208798A JP 2023093268 A JP2023093268 A JP 2023093268A
- Authority
- JP
- Japan
- Prior art keywords
- mirror
- data
- position detection
- moving body
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 22
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 238000012546 transfer Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000013075 data extraction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 5
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000001678 irradiating effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、位置検出装置及び位置検出方法に関する。 The present invention relates to a position detection device and a position detection method.
近年、工場内の物流の増加に伴い、フォークリフト等にレーザスキャナ等の距離センサを搭載し、SLAM(Simultaneous Localization And Mapping)技術を適用することで位置および姿勢を検出するための技術が開発されている。 In recent years, with the increase in physical distribution in factories, technology has been developed to detect the position and orientation of forklifts by installing distance sensors such as laser scanners and applying SLAM (Simultaneous Localization And Mapping) technology. there is
本技術を活用したAGV(Automated Guided Vehicle)は自律的に移動を行うことで搬送効率の改善を実現することが可能であるが、動作環境にある物体の形状を表す地図データと、移動体に搭載されている距離センサの測定データを形状マッチングすることで位置及び姿勢を検出するシステムである。このため、環境の形状によっては精度が低下する場合がある。 AGVs (Automated Guided Vehicles) that utilize this technology can improve transport efficiency by moving autonomously. It is a system that detects the position and orientation by shape matching the measurement data of the mounted distance sensor. For this reason, accuracy may decrease depending on the shape of the environment.
また、地図作成時には無かった荷物等が存在することによって、地図との照合率が下がり、精度の低下を招き、精度良く経路を走行することが難しい場合や、設備との連携に他の位置決め用センサが必要になる場合がある。 In addition, due to the presence of items such as packages that were not present when the map was created, the matching rate with the map decreases, leading to a decrease in accuracy. A sensor may be required.
本技術分野における先行技術文献として特許文献1がある。特許文献1では、基地局への位置決め精度を改善するために、基地局内部に鏡を張り付け、レーザの光路を拡張する技術が開示されている。 There is Patent Document 1 as a prior art document in this technical field. Japanese Patent Laid-Open No. 2004-100002 discloses a technique of extending the optical path of a laser by attaching a mirror inside a base station in order to improve the positioning accuracy with respect to the base station.
しかしながら、特許文献1では、基地局の背面に鏡を張り付けているため、基地局からある程度離れた位置で計測すると、レーザ光が鏡に対してほぼ垂直にあたる。このため、測定すべき基地局内面を測定することができない。 However, in Patent Document 1, since a mirror is attached to the back of the base station, the laser light hits the mirror almost perpendicularly when measured at a position some distance away from the base station. Therefore, it is impossible to measure the inside surface of the base station to be measured.
本発明の目的は、位置検出装置において、通常であれば位置検出できない環境においても高精度に移動体の位置を検出することにある。 SUMMARY OF THE INVENTION An object of the present invention is to detect the position of a moving body with high precision in a position detection device even in an environment where the position cannot normally be detected.
本発明の一態様の位置検出装置は、距離センサで計測した距離データと作業現場の地図データとを照合することによって自身の位置を推定しながら、前記作業現場内の移動経路に沿って自律移動する移動体の位置検出装置であって、前記作業現場には、少なくとも構造物と鏡が配置されており、前記位置検出装置は、前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出部と、前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出部とを有することを特徴とする。 A position detection device according to one aspect of the present invention estimates its own position by comparing distance data measured by a distance sensor with map data of a work site, and autonomously moves along a movement route within the work site. A position detection device for a moving object, wherein at least a structure and a mirror are arranged at the work site, and the position detection device uses the mirror to extract mirror distance data by means of the distance sensor. It is characterized by having a distance data extraction unit and a position detection unit that detects the position of the moving object by indirectly detecting the structure using the mirror distance data.
本発明の一態様によれば、位置検出装置において、通常であれば位置検出できない環境においても高精度に移動体の位置を検出することができる。 According to one aspect of the present invention, the position detection device can detect the position of a moving object with high accuracy even in an environment where position detection is normally impossible.
本発明は、工場内で稼働するフォークリフトや無人搬送車AGV等の移動体の位置および姿勢を検出するための位置検出装置に関する。以下、図面を用いて実施例について説明する。 The present invention relates to a position detection device for detecting the position and posture of moving bodies such as forklifts and automatic guided vehicles AGVs operating in factories. An embodiment will be described below with reference to the drawings.
本実施例においては、工場内で移動体(AGV)10が部品を搬送する作業を例として説明を行う。図1は全体の実施例を構成するシステム構成図である。 In the present embodiment, a description will be given by taking as an example an operation in which a moving body (AGV) 10 conveys parts in a factory. FIG. 1 is a system configuration diagram that constitutes the entire embodiment.
移動体10には、位置を検出するための距離センサ105、距離センサ105の測定データである距離データから移動体10の位置を検出するための位置検出装置104、駆動輪121を制御するための車両制御装置120が搭載されている。また、現場に備わっている設備と荷物のやり取りを行うための移載装置102があり、移載装置102を用いて荷物101を移載する。
The moving
位置検出装置104は、移動体10の位置および姿勢を検出するための装置であり、距離センサ制御部106、位置姿勢検出部107、移動経路算出部113、鏡距離データ抽出部110、相対位置姿勢算出部111、制御指令生成部112及び予測位置姿勢生成部108を有する。これらは、主にプロセッサ119によって処理される。
The
また、位置検出装置104は、メモリ118を有する。メモリ118には、地図114a、移動経路114b、鏡地図種別117a、鏡位置姿勢及び幅117b、鏡地図117c及び位置決め目標位置姿勢117dがデータとして格納されている。
The
距離センサ制御部106は距離センサ105を制御するために用いる。距離センサ105は周囲環境にある物体との距離と測定方向を計測することが可能なセンサである。本実施例においては典型的な距離センサ105として二次元のレーザスキャナを用いて説明を行う。二次元のレーザスキャナは、水平方向にレーザのパルスを照射して、物体に光が当たることで乱反射したレーザ光が返ってくるまでの時間を計測することで、物体との距離を算出するようなものである。
A distance
距離センサ105の内部に備わっているモータ(図示せず)によってレーザパルスの照射方向を回転させ、照射方向と、距離を取得することで、周囲の形状データを取得することができる。
A motor (not shown) provided inside the
レーザスキャナの計測範囲は、例えば照射範囲270度、角度分解能(パルスの照射間隔)を0.25度として、1081点の距離データを25msec周期で取得することが可能なスキャナなどがある。このようなスキャナに限らず、照射範囲や角度分解能が異なっていても、複数の距離データと照射方向の組を取得できるセンサであれば本発明を適用することが可能である。 The measurement range of the laser scanner is, for example, an irradiation range of 270 degrees, an angular resolution (pulse irradiation interval) of 0.25 degrees, and a scanner capable of acquiring distance data of 1081 points at a cycle of 25 msec. The present invention is applicable not only to such a scanner, but also to any sensor capable of acquiring a plurality of pairs of distance data and irradiation directions even if the irradiation range and angular resolution are different.
また、二次元のレーザスキャナに限らず三次元で周囲の構造物との距離を計測できる三次元レーザスキャナやステレオカメラ等、周囲にある構造物との距離を、異なる角度方向に対して複数取得できるものであれば本発明を適用することが可能である。 In addition to 2D laser scanners, 3D laser scanners and stereo cameras that can measure the distance to surrounding structures in 3D can also acquire multiple distances to surrounding structures in different angular directions. It is possible to apply the present invention as long as it is possible.
位置姿勢検出部107は距離データと地図114を照合することで移動体10の位置姿勢を検出する。
The position and
鏡距離データ抽出部110はレーザの測定データの中で鏡を測定していると想定される部分を抽出する。この抽出処理において、予測位置姿勢生成部108が活用されるが、これらの処理の詳細については後述する。
A mirror distance
移動経路算出部113は移動体10が移動するための移動経路を算出する。相対位置姿勢算出部111は移動体10の相対位置姿勢を検出する。制御指令生成部112は移動体10を制御するために指令を生成する。予測位置姿勢生成部108は移動体10の予測位置姿勢を生成する。
The movement
本実施例において、プロセッサ119はプログラムを実行するための演算装置であり、例えばCPU(Central Processing Unit)のようなものであるが、プログラムを実行できるものであればなんでもよく、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)や、ASIC(application specific integrated circuit)などで実現しても良い。
In this embodiment, the
車両制御装置120は相対位置姿勢算出部111によって算出された相対位置姿勢に基づいて、移動体10を誘導するための制御装置である。
The
図2は地図114aに記載されている情報と鏡地図117cに記載されている情報を表している。
地図114aには周囲の構造物の位置情報が記載されている。構造物の位置は例えば占有格子地図と呼ばれる空間を格子状に分割し、レーザで測定される構造物の表面がある格子は1、構造物の表面が無い格子は0といった形で画像のような形式で表現する。しかし、レーザのデータとマッチしているかを判定することが可能な表現方法であればなんでも良く、格子内の点群データをガウス分布で近似表現するNormal Distribution Modelなどを用いても良い。
FIG. 2 shows the information written on the
The
移動経路114bには移動体10が移動する経路の情報が記載されており、目標位置と姿勢で構成されている。移動体10は移動経路の中から目標位置姿勢を選択し、目標位置に向かって動作を行う。
The
鏡地図番号は現場に存在する鏡を活用した鏡地図の原点情報である。この原点情報は移動経路の目標点に紐づけされている。移動体10は鏡地図117cの原点情報が紐づけされている目標点に向かって移動している際には鏡地図117cをメモリ118上に展開し、参照しながら位置姿勢の検出処理を実行する。これらの処理の詳細については後述する。
The mirror map number is the origin information of the mirror map that utilizes the mirrors existing on site. This origin information is linked to the target point of the moving route. When moving toward the target point to which the origin information of the mirror map 117c is linked, the moving
鏡地図117cにはそれぞれ種別が存在し、通常走行用と、位置決め用として区別されている。通常走行用の地図は、SLAMが苦手な環境である場合に特徴を付与するために設ける鏡地図である。位置決め用の地図は、設備への接岸時に高精度に位置決めを行うためのものである。この地図の活用方法は実施例2で説明する。 Each mirror map 117c has a type, and is distinguished between normal driving and positioning. The map for normal driving is a mirror map provided to give characteristics in the environment where SLAM is not suitable. The positioning map is for highly accurate positioning when docking with facilities. A method of utilizing this map will be described in a second embodiment.
鏡の位置、姿勢は鏡地図の基準位置を表している。1枚鏡の場合においては鏡の面に垂直な方向をx軸として、移動方向に沿った方向をy軸、垂直方向をz軸などととる。 The position and orientation of the mirror represent the reference position of the mirror map. In the case of a single mirror, the direction perpendicular to the surface of the mirror is taken as the x-axis, the direction along the direction of movement is taken as the y-axis, and the vertical direction is taken as the z-axis.
鏡地図117cは地図114aの地図データを鏡面反射させた地図データであり、地図114aに記載されているデータの必要な部分の鏡像として得ることができる。
The mirror map 117c is map data obtained by mirror-reflecting the map data of the
2次元の場合の鏡像は鏡の平面に対して、地図114aを折り返すことで得ることができる。詳細は図4で説明する。
A mirror image in the two-dimensional case can be obtained by folding the
図3は移動体10が動作する現場および現場の地図114aの地図データを表している。
地図114aの地図データは現場に配置されている構造物を一定の高さでスライスした断面図のようなものである。この地図データはSLAM技術等によって作成することが可能であるが、精密なCADデータ等が存在する場合はこのデータを位置検出用の地図114aとして用いることも可能である。
FIG. 3 shows the site where the
The map data of the
ここで、図3において、305は地図の原点を示し、301は鏡を示し、302は鏡地図117cの範囲を示し、304は移載装置(設備側)を示している。
Here, in FIG. 3, 305 indicates the origin of the map, 301 indicates the mirror, 302 indicates the range of the
また、地図データには移動体10の移動経路114bが記載されている。本実施例では移動経路は区間で分割されている。各区間には目標位置姿勢(wx、wy、wθ)が設定されており、経路を表す曲率k、鏡301の有無MNが設定されている。
The map data also describes the moving
移動体10は距離センサ105で周囲環境を測定し、地図114aと照合することで自己の位置を同定し、現在走行している区間の目標位置姿勢もしくは移動経路上を走行するように駆動輪121の回転を制御しながら動作を行う。
The moving
図2に示す鏡301の有無MNは走行している区間に鏡が無い場合は0、鏡301が存在する場合は鏡の番号である1~Lの値を取る。MNが1~Lである場合は、位置検出装置104は設定されている鏡地図117cを参照し、鏡地図117cを併用して、位置姿勢の検出を実行する。
The presence/absence MN of the
図4は鏡地図を用いた位置姿勢検出の例を表している。地図114aの地図データに対して、鏡201の原点401のy軸に沿った線を対称線として、折り返すことで鏡地図117cを生成している。
FIG. 4 shows an example of position and orientation detection using a mirror map. A mirror map 117c is generated by folding back the map data of the
3次元を含む一般の場合は鏡地図原点のx軸を法線ベクトルとした鏡映写像であり、具体的にはハウスホルダー変換を用いて得ることができる。 In the general case including three dimensions, it is a mirror map with the x-axis of the mirror map origin as a normal vector, and more specifically, it can be obtained using the Householder transformation.
鏡地図117cと形状マッチング処理を行う距離データは移動体10の移動量403を考慮した予測位置姿勢10nに基づいて、鏡201を測定しているであろうデータ404を、鏡201との位置関係および鏡201の寸法から算出することで抽出を行う。この時、移動量403としては、移動体10の制御を行う際の指令値から算出する。よって実際の移動量を測定しているわけではなく、誤差がある程度含まれるため、抽出した距離データにも実際は鏡201を測定していないものが含まれている。
The distance data for shape matching processing with the mirror map 117c is based on the predicted position and orientation 10n considering the
しかし、鏡201の幅402をある程度広くとることで、誤ったデータを選択したとしても、ほぼ影響無く鏡地図117cとのマッチング処理を行うことができる。その他、カルマンフィルタ等を用いて速度、加速度を推定し、数秒後の位置姿勢の推定値を生成しても良い。
However, by widening the
この時、鏡越しに測定しているデータの中には、鏡201が無ければ測定できないデータ405が存在する。もし仮に鏡201がなければ、移動体10の位置から測定できるデータは、ほぼ通路の進行方向に沿った壁の情報のみとなってしまう。このため、壁からの距離はわかるが、進行方向に対しての位置決めをするための情報が不足してしまう。鏡越しに計測しているデータ405を用いることで、進行方向に対してどの程度進んだかなどの情報を得ることができる。
At this time, the data measured through the mirror includes
図5は鏡地図を用いた位置姿勢検出のフローチャートである。図5を参照して、処理の詳細手順を説明する。
まず、距離データの取得(ステップ501)から位置姿勢検出処理が開始される。現在いる経路の区間に鏡地図117cが設定されているか否かを判定する(ステップ502)。鏡地図117cが設定されていない場合は取得した距離データを用いて地図114aとの形状マッチング処理を行う(ステップ508)。
FIG. 5 is a flowchart of position and orientation detection using a mirror map. A detailed procedure of the processing will be described with reference to FIG.
First, the position/orientation detection process is started from the acquisition of distance data (step 501). It is determined whether or not the mirror map 117c is set for the section of the current route (step 502). If the mirror map 117c is not set, shape matching processing with the
この形状マッチングの処理に関してはICP(Iterative Closest Point Search)アルゴリズムやNDT(Normal Distribution Transform)アルゴリズムといったスキャンマッチング等の手法を用いて行うことが可能である。また、これに限らず、互いの形状を比較し、照合位置を特定できる技術であればよく、深層学習等のAI技術を用いても良い。 This shape matching process can be performed using a technique such as scan matching such as an ICP (Iterative Closest Point Search) algorithm or an NDT (Normal Distribution Transform) algorithm. In addition, the present invention is not limited to this, and any technology that can compare the shapes of each other and specify the matching position may be used, and an AI technology such as deep learning may be used.
現在の区間に鏡地図117cの設定情報がある場合、経路に設定されている鏡地図117cをメモリ118上に展開する(ステップ503)。 If there is setting information for the mirror map 117c in the current section, the mirror map 117c set for the route is developed on the memory 118 (step 503).
次に、一サンプル前の距離データで算出した位置および姿勢から、制御指令などの値を用いて、移動後の位置姿勢を推測する。この推測された位置姿勢と鏡の位置及び姿勢、幅の情報を用いて、鏡で反射されている可能性が高い距離データを抽出する(ステップ504)。 Next, from the position and orientation calculated from the distance data one sample before, the position and orientation after movement are estimated using values such as control commands. Using this estimated position and orientation and information on the position, orientation and width of the mirror, distance data that is highly likely to be reflected by the mirror is extracted (step 504).
次に、ステップ504で抽出した距離データと鏡地図117cの照合処理を実施する(ステップ505)。この位置姿勢を算出する処理についてはステップ508で行った方法と同様に行うことが可能である。
Next, the distance data extracted in
次に、鏡を測定していない距離データを用いて、地図114aと照合処理を行う(ステップ506)。
Next, using the distance data in which the mirror is not measured, comparison processing with the
次に、それぞれのステップ505で算出した位置姿勢と、ステップ506で算出した位置姿勢に対して融合処理を実行する。融合処理については、単純に平均値をとることが最も単純なやり方であるが、照合処理の結果として共分散行列が算出できる場合は、この共分散行列を重みとした重み付きの平均値をとることで、精度を向上させることができる。以上が鏡を利用した位置姿勢検出処理である。
Next, fusion processing is performed on the position and orientation calculated in
実施例2では、環境に合わせ鏡を配置して高精度に位置決めを行う例について説明する。図6は移動体10が運んできた荷物101を移載装置304に移載する様子を表している。移載装置304の内部には合わせ鏡が設置されている。移載装置304に移載された荷物101は作業台601に置かれる。
In a second embodiment, an example will be described in which mirrors are arranged according to the environment and positioned with high accuracy. FIG. 6 shows how the
図7は実際に移載装置304の付近で移動体10が環境を測定している状態を表している。
移載装置304の周辺には、仮置きの荷物701や作業員702が存在し、周囲の構造物を十分な精度を出せるほど測定することができない。このため、移載装置304のアプローチ位置にたどり着いた段階で位置姿勢の検出精度は低くなっている。
FIG. 7 shows a state in which the moving
Temporarily placed
移載装置304には合わせ鏡704aが設置されている。本実施例においては、合わせ鏡704aは互いのなす角度は90度となるように設置されている。合わせ鏡704aにはマーカ703が設置されており、このように角度を取ることでマーカ703を空間に規則正しく並べることができる。
A
このように、合わせ鏡704aの間に角度をつけることで、マーカ703との距離を疑似的に離すことが可能であり、また、移動体10が移載装置304から離れた位置にあったとしても、合わせ鏡704aに対して垂直にレーザが照射されない。このため、十分にランドマークとなる物体を測定することが可能となり、高精度に位置決め処理を行うことが可能となる。
Thus, by setting an angle between the alignment mirrors 704a, it is possible to increase the distance from the
この時、相対位置姿勢算出部111から出力される位置と姿勢の情報は相対目標位置姿勢を原点とした座標系705における位置姿勢として出力される。この位置姿勢の情報は移載装置304に位置決めする際の目標位置に対する偏差の情報となっている。制御指令生成部112においては、この偏差を0とするように制御指令を生成し、車両制御装置120に入力することで位置決めすることができる。このように位置検出装置104から制御を行うことで、周囲の環境の変化によらず、高精度に移動体10の位置決めを行うことができる。
At this time, the position and orientation information output from the relative position/
本実施例において合せ鏡704aは2枚としているが、さらに複数枚の鏡を用いても良い。また、本実施例では2次元的なレーザスキャナを用いて説明を行っているが、3次元のレーザスキャナを活用することもできる。その際には合せ鏡704aは3次元的に配置することが可能であり、例えば長方形の面に鏡を張り付けるなどとしても良い。
Although two
また、任意の2枚の鏡の間の角度は45度、60度、90度、180度のいずれかになるように鏡を配置する。合せ鏡704aの配置として、ディンキン図形が表現する角度を取るように配置することで、鏡で囲まれる空間の折り返しを、規則的に重複することなく空間に展開することができる。このように合せ鏡704aを配置すると、マーカ703の鏡像703mが規則的に並ぶので、鏡地図117cの作成を容易に行うことができる。
Also, the mirrors are arranged so that the angle between any two mirrors is either 45 degrees, 60 degrees, 90 degrees, or 180 degrees. By arranging the folding mirrors 704a so as to take the angles represented by the Dynkin diagrams, the folds of the space surrounded by the mirrors can be developed in the space without regular overlap. When the
この場合における距離データと鏡地図117cのマッチング処理は前記と同様にスキャンマッチングの手法を用いても良いし、レーザの照射角度の情報に基づいた三角測量の方法を用いても良い。 In this case, the matching process between the distance data and the mirror map 117c may use the scan matching method as described above, or may use the triangulation method based on the information of the irradiation angle of the laser.
例えば、マーカ703を測定している距離データを抽出し、その方向ベクトルを算出することで位置決め処理を行うことができる。具体的に移動体10の位置姿勢を算出する方法としては、例えば、コンピュータビジョンの分野で用いられるPerspective-n-Point法などの手法を活用することが可能であり、移動体10の位置姿勢を高精度に算出することができる。
For example, the positioning process can be performed by extracting distance data for measuring the
図8はこの地図データに対しての位置決め処理のフローチャートを表している。本フローチャートは距離データを取得し、位置および姿勢を検出するまでの流れを示したものである。 FIG. 8 shows a flowchart of positioning processing for this map data. This flowchart shows the flow from acquisition of distance data to detection of position and orientation.
はじめに、距離データを取得する(ステップ801)。次に、現在の経路の区間に鏡地図117cの設定情報が存在するか否かについて判定する(ステップ802)。存在しない場合は、距離データと地図114aを照合すること位置姿勢を検出する(ステップ807)。
First, distance data is obtained (step 801). Next, it is determined whether or not setting information of the mirror map 117c exists in the section of the current route (step 802). If not, the position and orientation are detected by collating the distance data with the
経路に鏡地図117cの情報が紐づけされている場合、経路に設定されている鏡地図117cの情報をメモリ118に展開して、経路区間に設定されている鏡地図117cを読み出す(ステップ803)。次に、鏡を測定している範囲の距離データを抽出する(ステップ804)。
When the information of the mirror map 117c is linked to the route, the information of the mirror map 117c set for the route is developed in the
次に、鏡を測定している距離データを用いて照合処理を行い、移載装置304との相対位置姿勢を算出する(ステップ805)。次に、移載目標位置を基準とした相対座標を出力する(ステップ806)。
Next, collation processing is performed using the distance data obtained by measuring the mirror, and the relative position and orientation with respect to the
このようにして、実施例2では、環境に合せ鏡704aを配置して高精度に位置決めを行うことができる。
In this way, in the second embodiment, the
図9は鏡を利用した位置姿勢検出装置の別様態である。基本的には実施例1と同様の構成であるが、鏡距離データ生成部911と、鏡像位置姿勢算出部912が備わっている点が異なっている。実施例1と同様の構成については、その説明を省略する。鏡距離データ生成部911は鏡距離データを生成する。鏡像位置姿勢算出部912は鏡像位置姿勢を算出する。
FIG. 9 shows another aspect of the position/orientation detection device using a mirror. The configuration is basically the same as that of the first embodiment, but differs in that a mirror distance data generation unit 911 and a mirror image position/
図10は鏡距離データ生成部911と鏡位置姿勢算出部912の処理を表している。実施例1では、地図データを鏡で折り返して位置姿勢検出の処理を行ったが、実施例3の構成においては、移動体10の位置姿勢と、鏡201を測定しているであろうレーザスキャナの距離データ1001を鏡201で折り返した距離データ1002を用いて位置検出の処理を行う。
FIG. 10 shows the processing of the mirror distance data generation unit 911 and the mirror position/
このように処理を行うことで、地図データの折り返しを行わずに位置の検出を行うことが可能である。鏡201で折り返した位置姿勢とレーザスキャナの測定データは元の地図データと整合性がとれるデータとなる。このため、保持している通常の地図114aの地図データと照合することが可能となる。地図データは場合によっては多くのメモリを消費するため、メモリ効率の観点で有利な手法となる。
By performing processing in this way, it is possible to detect the position without folding the map data. The position/orientation folded back by the
図11で実施例3の処理の詳細を説明する。はじめに、距離データを取得する(ステップ1101)。次に、現在の経路の区間に部分地図の設定情報が存在するか否かについて判定する(ステップ1102)。存在しない場合は、距離データと地図114aを照合すること位置姿勢を検出する(ステップ1110)。
Details of the processing of the third embodiment will be described with reference to FIG. First, distance data is obtained (step 1101). Next, it is determined whether or not there is partial map setting information in the section of the current route (step 1102). If not, the position and orientation are detected by collating the distance data with the
現在の経路の区間に部分地図の設定情報が存在する場合、鏡を測定している範囲の距離データを抽出する(ステップ1103)。次に、位置姿勢および抽出した距離データの鏡像を算出する(ステップ1104)。 If there is partial map setting information for the section of the current route, the distance data for the range in which the mirror is being measured is extracted (step 1103). Next, a mirror image of the position and orientation and the extracted distance data is calculated (step 1104).
次に、ステップ1104で算出した鏡像距離データと、地図114aの地図データのマッチング処理を行う(ステップ1105)。次に、ステップ1105で求めた位置姿勢の鏡像を算出する(ステップ1107)。
Next, matching processing is performed between the mirror image distance data calculated in
次に、鏡を測定していない距離データで地図114aの地図データとマッチング処理を行う(ステップ1108)。
Next, the distance data in which the mirror is not measured is matched with the map data of the
次に、ステップ1107で求めた鏡越しに測定して距離データから算出された位置姿勢と、鏡を測定していない距離データから求めた位置姿勢を融合するための処理を行う(ステップ1109)。この融合処理としては、マッチング処理を行う際に算出される一致度の共分散行列を重みとして、重み付きの平均値をとるなどの処理を行う。
Next, the position and orientation calculated from the distance data measured through the mirror obtained in
このように、上記実施例の位置検出装置は、距離センサで計測した距離データを移動する環境の地図情報と照合することによって自身の位置を推定しながら自律移動する移動体の位置検出装置であって、鏡を利用して距離センサで直接測定できない構造物を検出するための鏡データ抽出部と、鏡の範囲を測定している距離データと鏡データ用地図データとを照合することで位置検出を行うための位置検出部を備える。 As described above, the position detection device of the above-described embodiment is a position detection device of a moving body that autonomously moves while estimating its own position by collating the distance data measured by the distance sensor with the map information of the moving environment. a mirror data extraction unit that uses a mirror to detect structures that cannot be directly measured by a distance sensor; and a position detection unit for performing
上記実施例によれば、周囲構造物に特徴が少ない又は地図上には記載されていない物体が多数ある場合のような通常であれば位置検出できない環境においても高精度に移動体の位置および姿勢を検出することが可能となる。 According to the above embodiment, the position and orientation of a mobile object can be accurately detected even in an environment where the position cannot normally be detected, such as when there are few features in the surrounding structures or when there are many objects not shown on the map. can be detected.
10 移動体
101 荷物
105 距離センサ
102 移載装置
104 位置姿勢検出装置
119 プロセッサ
106 距離センサ制御部
107 位置姿勢検出部
113 移動経路算出部
110 鏡距離データ抽出部
111 相対位置姿勢算出部
112 制御指令生成部
118 メモリ
114a 地図
117c 鏡地図
120 車両制御装置
121 駆動輪
305 地図の原点
301 鏡
302 鏡地図の範囲
304 移載装置(設備側)
402 鏡の幅
703 位置決め用マーカ(鏡地図)
703m 位置決め用マーカの鏡像(鏡地図)
10
402
703m Mirror image of positioning marker (mirror map)
Claims (14)
前記作業現場には、少なくとも構造物と鏡が配置されており、
前記位置検出装置は、
前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出部と、
前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出部と、
を有することを特徴とする位置検出装置。 A position detection device for a moving body that autonomously moves along a movement route in the work site while estimating its own position by comparing distance data measured by a distance sensor with map data of the work site,
At least a structure and a mirror are arranged at the work site,
The position detection device is
a mirror distance data extraction unit for extracting mirror distance data by the distance sensor using the mirror;
a position detection unit that detects the position of the moving body by indirectly detecting the structure using the mirror distance data;
A position detection device comprising:
前記鏡距離データと、予め記憶された鏡地図データとを照合することにより、前記移動体の位置を検出することを特徴とする請求項1に記載の位置検出装置。 The position detection unit is
2. The position detection device according to claim 1, wherein the position of the moving body is detected by collating the mirror distance data with pre-stored mirror map data.
前記距離データと前記地図データとを照合することにより、前記移動体の通常位置を検出し、
前記鏡距離データと前記鏡地図データとを照合することにより、前記移動体の鏡像位置を検出し、
前記通常位置と前記鏡像位置とを融合処理することにより、前記移動体の位置を検出することを特徴とする請求項2に記載の位置検出装置。 The position detection unit is
detecting the normal position of the moving body by comparing the distance data and the map data;
detecting a mirror image position of the moving object by comparing the mirror distance data and the mirror map data;
3. The position detection device according to claim 2, wherein the position of the moving body is detected by fusing the normal position and the mirror image position.
前記作業現場に配置された設備側の移載装置を有し、
前記移載装置には、前記鏡が設置されており、
前記位置検出部は、
前記鏡距離データと前記鏡地図データとを照合することにより、前記移動体と前記移載装置との相対位置姿勢を算出し、
前記相対位置姿勢に基づいて、前記移載装置の移載目標位置を基準とした相対座標を出力することにより、前記移動体の位置を検出することを特徴とする請求項2に記載の位置検出装置。 The structure is
Having a transfer device on the equipment side arranged at the work site,
The mirror is installed in the transfer device,
The position detection unit is
calculating a relative position and orientation between the moving body and the transfer device by comparing the mirror distance data and the mirror map data;
3. The position detection according to claim 2, wherein the position of the moving object is detected by outputting relative coordinates with reference to the transfer target position of the transfer device based on the relative position and orientation. Device.
前記鏡データ抽出部によって抽出された前記鏡距離データを前記鏡で折り返して生成した折返し鏡距離データを生成する鏡距離データ生成部と、
前記距離データと前記地図データとを照合することにより検出した前記移動体の通常位置と、前記折返し鏡距離データと前記地図データとを照合することにより検出した前記移動体の鏡像位置とを融合処理する鏡像位置検出部と、
を更に有することを特徴とする請求項1に記載の位置検出装置。 The position detection device is
a mirror distance data generation unit that generates folded mirror distance data generated by folding the mirror distance data extracted by the mirror data extraction unit with the mirror;
fusion processing of the normal position of the moving body detected by matching the distance data and the map data and the mirror image position of the moving body detected by matching the folded mirror distance data and the map data; a mirror image position detector for
2. The position detecting device according to claim 1, further comprising:
二次元のレーザスキャナであり、
前記二次元のレーザスキャナは、
水平方向にレーザのパルスを照射して、乱反射したレーザ光が返ってくるまでの時間を計測することで距離を算出し、
前記鏡データ抽出部は、
現在位置を予測して前記鏡の位置と前記レーザの光路が交差するデータを抽出することを特徴とする請求項1に記載の位置検出装置。 The distance sensor is
is a two-dimensional laser scanner,
The two-dimensional laser scanner is
The distance is calculated by irradiating a laser pulse horizontally and measuring the time it takes for the diffusely reflected laser light to return.
The mirror data extraction unit
2. The position detection device according to claim 1, wherein the current position is predicted and data on intersection of the position of the mirror and the optical path of the laser is extracted.
前記構造物の位置情報と前記移動体が移動する前記移動経路の情報が記載されていることを特徴とする請求項1に記載の位置検出装置。 The map data includes
2. The position detection device according to claim 1, wherein position information of said structure and information of said moving route along which said moving body moves are described.
前記地図データを鏡面反射させて得られた前記地図データの一部分の鏡像データであり、前記鏡に対して前記地図データを折り返すことにより得られることを特徴とする請求項2に記載の位置検出装置。 The mirror map data is
3. The position detection device according to claim 2, wherein the map data is mirror image data of a part of the map data obtained by mirror-reflecting the map data, and is obtained by folding the map data with respect to the mirror. .
前記位置検出装置により検出された前記移動体の位置に基づいて、前記移動体を制御する制御装置と、
を有することを特徴とする移動体。 A position detection device according to claim 1;
a control device that controls the moving body based on the position of the moving body detected by the position detection device;
A moving body characterized by having
前記作業現場には、少なくとも構造物と鏡が配置されており、
前記位置検出方法は、
前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出ステップと、
前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出ステップと、
を有することを特徴とする位置検出方法。 A position detection method for a moving object that autonomously moves along a movement route in a work site while estimating its own position by comparing distance data measured by a distance sensor with map data of the work site,
At least a structure and a mirror are arranged at the work site,
The position detection method includes:
a mirror distance data extraction step of extracting mirror distance data by the distance sensor using the mirror;
a position detection step of detecting the position of the moving body by indirectly detecting the structure using the mirror distance data;
A position detection method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021208798A JP2023093268A (en) | 2021-12-22 | 2021-12-22 | Position detector and method of detecting position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021208798A JP2023093268A (en) | 2021-12-22 | 2021-12-22 | Position detector and method of detecting position |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023093268A true JP2023093268A (en) | 2023-07-04 |
Family
ID=87000742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021208798A Pending JP2023093268A (en) | 2021-12-22 | 2021-12-22 | Position detector and method of detecting position |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023093268A (en) |
-
2021
- 2021-12-22 JP JP2021208798A patent/JP2023093268A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4788722B2 (en) | Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure | |
JP5602392B2 (en) | Information processing apparatus, information processing method, and program | |
JP5303873B2 (en) | Vehicle shape measuring method and apparatus | |
JP5800613B2 (en) | Position / posture estimation system for moving objects | |
JP5069439B2 (en) | Self-position recognition system | |
CN107710094A (en) | On-line calibration inspection during autonomous vehicle operation | |
JP5586967B2 (en) | Robot and robot system | |
CN107851181B (en) | Method for controlling a robot and/or autonomous unmanned transport system | |
JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
KR20170088228A (en) | Map building system and its method based on multi-robot localization | |
KR20180076815A (en) | Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner | |
CN113454487B (en) | Information processing device and mobile robot | |
RU2740229C1 (en) | Method of localizing and constructing navigation maps of mobile service robot | |
US20230419531A1 (en) | Apparatus and method for measuring, inspecting or machining objects | |
CN112068152A (en) | Method and system for simultaneous 2D localization and 2D map creation using a 3D scanner | |
JP2022530246A (en) | Simultaneous execution of self-position estimation and environmental map creation | |
JP2015007639A (en) | Information processing apparatus, information processing method and program | |
JP2023093268A (en) | Position detector and method of detecting position | |
US20220076441A1 (en) | Object detection | |
JP7121489B2 (en) | moving body | |
Kim et al. | Indoor localization using laser scanner and vision marker for intelligent robot | |
JP6751469B2 (en) | Map creation system | |
US20240161329A1 (en) | Localization systems and methods | |
Kitajima et al. | Robust and accurate self-localization method under varying lighting conditions | |
US20240061436A1 (en) | Moving apparatus and moving apparatus control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |