JP2023093268A - Position detector and method of detecting position - Google Patents

Position detector and method of detecting position Download PDF

Info

Publication number
JP2023093268A
JP2023093268A JP2021208798A JP2021208798A JP2023093268A JP 2023093268 A JP2023093268 A JP 2023093268A JP 2021208798 A JP2021208798 A JP 2021208798A JP 2021208798 A JP2021208798 A JP 2021208798A JP 2023093268 A JP2023093268 A JP 2023093268A
Authority
JP
Japan
Prior art keywords
mirror
data
position detection
moving body
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021208798A
Other languages
Japanese (ja)
Inventor
修一 槙
Shuichi Maki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industrial Equipment Systems Co Ltd
Original Assignee
Hitachi Industrial Equipment Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industrial Equipment Systems Co Ltd filed Critical Hitachi Industrial Equipment Systems Co Ltd
Priority to JP2021208798A priority Critical patent/JP2023093268A/en
Publication of JP2023093268A publication Critical patent/JP2023093268A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a position detector allowed to accurately detect a position of a moving body even in an environment no positional detection is allowed under ordinary circumstances.SOLUTION: A position detector comprises a mirror-distance data extracting section that extracts mirror-distance data by a distance sensor using a mirror and a position detecting section that detects a position of a moving body by indirectly detecting a structure using the mirror-distance data.SELECTED DRAWING: Figure 1

Description

本発明は、位置検出装置及び位置検出方法に関する。 The present invention relates to a position detection device and a position detection method.

近年、工場内の物流の増加に伴い、フォークリフト等にレーザスキャナ等の距離センサを搭載し、SLAM(Simultaneous Localization And Mapping)技術を適用することで位置および姿勢を検出するための技術が開発されている。 In recent years, with the increase in physical distribution in factories, technology has been developed to detect the position and orientation of forklifts by installing distance sensors such as laser scanners and applying SLAM (Simultaneous Localization And Mapping) technology. there is

本技術を活用したAGV(Automated Guided Vehicle)は自律的に移動を行うことで搬送効率の改善を実現することが可能であるが、動作環境にある物体の形状を表す地図データと、移動体に搭載されている距離センサの測定データを形状マッチングすることで位置及び姿勢を検出するシステムである。このため、環境の形状によっては精度が低下する場合がある。 AGVs (Automated Guided Vehicles) that utilize this technology can improve transport efficiency by moving autonomously. It is a system that detects the position and orientation by shape matching the measurement data of the mounted distance sensor. For this reason, accuracy may decrease depending on the shape of the environment.

また、地図作成時には無かった荷物等が存在することによって、地図との照合率が下がり、精度の低下を招き、精度良く経路を走行することが難しい場合や、設備との連携に他の位置決め用センサが必要になる場合がある。 In addition, due to the presence of items such as packages that were not present when the map was created, the matching rate with the map decreases, leading to a decrease in accuracy. A sensor may be required.

本技術分野における先行技術文献として特許文献1がある。特許文献1では、基地局への位置決め精度を改善するために、基地局内部に鏡を張り付け、レーザの光路を拡張する技術が開示されている。 There is Patent Document 1 as a prior art document in this technical field. Japanese Patent Laid-Open No. 2004-100002 discloses a technique of extending the optical path of a laser by attaching a mirror inside a base station in order to improve the positioning accuracy with respect to the base station.

特表2018-526748号公報Japanese Patent Publication No. 2018-526748

しかしながら、特許文献1では、基地局の背面に鏡を張り付けているため、基地局からある程度離れた位置で計測すると、レーザ光が鏡に対してほぼ垂直にあたる。このため、測定すべき基地局内面を測定することができない。 However, in Patent Document 1, since a mirror is attached to the back of the base station, the laser light hits the mirror almost perpendicularly when measured at a position some distance away from the base station. Therefore, it is impossible to measure the inside surface of the base station to be measured.

本発明の目的は、位置検出装置において、通常であれば位置検出できない環境においても高精度に移動体の位置を検出することにある。 SUMMARY OF THE INVENTION An object of the present invention is to detect the position of a moving body with high precision in a position detection device even in an environment where the position cannot normally be detected.

本発明の一態様の位置検出装置は、距離センサで計測した距離データと作業現場の地図データとを照合することによって自身の位置を推定しながら、前記作業現場内の移動経路に沿って自律移動する移動体の位置検出装置であって、前記作業現場には、少なくとも構造物と鏡が配置されており、前記位置検出装置は、前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出部と、前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出部とを有することを特徴とする。 A position detection device according to one aspect of the present invention estimates its own position by comparing distance data measured by a distance sensor with map data of a work site, and autonomously moves along a movement route within the work site. A position detection device for a moving object, wherein at least a structure and a mirror are arranged at the work site, and the position detection device uses the mirror to extract mirror distance data by means of the distance sensor. It is characterized by having a distance data extraction unit and a position detection unit that detects the position of the moving object by indirectly detecting the structure using the mirror distance data.

本発明の一態様によれば、位置検出装置において、通常であれば位置検出できない環境においても高精度に移動体の位置を検出することができる。 According to one aspect of the present invention, the position detection device can detect the position of a moving object with high accuracy even in an environment where position detection is normally impossible.

本発明を説明するためのシステム構成例を示す図である。It is a figure which shows the system configuration example for demonstrating this invention. 地図データのフォーマット例を示す図である。FIG. 4 is a diagram showing a format example of map data; 移動体が動作する現場の例を示す図である。It is a figure which shows the example of the site where a mobile body operate|moves. 鏡のデータを活用した位置の検出例を示す図である。It is a figure which shows the detection example of the position using the data of a mirror. 鏡を利用した位置検出のフローチャートを示す図である。It is a figure which shows the flowchart of the position detection using a mirror. 移動体の設備への接近例を示す図である。It is a figure which shows the approach example to the installation of a moving body. 設備に設置された鏡を利用した位置決めの例を示す図である。It is a figure which shows the example of positioning using the mirror installed in the equipment. 設備での位置決め処理のフローチャートを示す図である。It is a figure which shows the flowchart of the positioning process in an installation. 本発明を説明するための他のシステム構成例を示す図である。It is a figure which shows the other system configuration example for demonstrating this invention. 鏡距離データ生成部と鏡位置姿勢算出部の処理を示す図である。FIG. 5 is a diagram showing processing of a mirror distance data generation unit and a mirror position/orientation calculation unit; 鏡を利用した位置検出の他のフローチャートを示す図である。It is a figure which shows the other flowchart of the position detection using a mirror.

本発明は、工場内で稼働するフォークリフトや無人搬送車AGV等の移動体の位置および姿勢を検出するための位置検出装置に関する。以下、図面を用いて実施例について説明する。 The present invention relates to a position detection device for detecting the position and posture of moving bodies such as forklifts and automatic guided vehicles AGVs operating in factories. An embodiment will be described below with reference to the drawings.

本実施例においては、工場内で移動体(AGV)10が部品を搬送する作業を例として説明を行う。図1は全体の実施例を構成するシステム構成図である。 In the present embodiment, a description will be given by taking as an example an operation in which a moving body (AGV) 10 conveys parts in a factory. FIG. 1 is a system configuration diagram that constitutes the entire embodiment.

移動体10には、位置を検出するための距離センサ105、距離センサ105の測定データである距離データから移動体10の位置を検出するための位置検出装置104、駆動輪121を制御するための車両制御装置120が搭載されている。また、現場に備わっている設備と荷物のやり取りを行うための移載装置102があり、移載装置102を用いて荷物101を移載する。 The moving body 10 includes a distance sensor 105 for detecting the position, a position detection device 104 for detecting the position of the moving body 10 from distance data that is measurement data of the distance sensor 105, and a driving wheel 121 for controlling the driving wheel 121. A vehicle control device 120 is mounted. In addition, there is a transfer device 102 for exchanging packages with facilities provided on site, and the transfer device 102 is used to transfer the package 101 .

位置検出装置104は、移動体10の位置および姿勢を検出するための装置であり、距離センサ制御部106、位置姿勢検出部107、移動経路算出部113、鏡距離データ抽出部110、相対位置姿勢算出部111、制御指令生成部112及び予測位置姿勢生成部108を有する。これらは、主にプロセッサ119によって処理される。 The position detection device 104 is a device for detecting the position and orientation of the moving object 10, and includes a distance sensor control unit 106, a position and orientation detection unit 107, a movement path calculation unit 113, a mirror distance data extraction unit 110, a relative position and orientation. It has a calculator 111 , a control command generator 112 , and a predicted position/orientation generator 108 . These are primarily processed by processor 119 .

また、位置検出装置104は、メモリ118を有する。メモリ118には、地図114a、移動経路114b、鏡地図種別117a、鏡位置姿勢及び幅117b、鏡地図117c及び位置決め目標位置姿勢117dがデータとして格納されている。 The position detection device 104 also has a memory 118 . The memory 118 stores a map 114a, a moving route 114b, a mirror map type 117a, a mirror position/attitude and width 117b, a mirror map 117c, and a positioning target position/attitude 117d as data.

距離センサ制御部106は距離センサ105を制御するために用いる。距離センサ105は周囲環境にある物体との距離と測定方向を計測することが可能なセンサである。本実施例においては典型的な距離センサ105として二次元のレーザスキャナを用いて説明を行う。二次元のレーザスキャナは、水平方向にレーザのパルスを照射して、物体に光が当たることで乱反射したレーザ光が返ってくるまでの時間を計測することで、物体との距離を算出するようなものである。 A distance sensor control unit 106 is used to control the distance sensor 105 . A distance sensor 105 is a sensor capable of measuring the distance to an object in the surrounding environment and the measurement direction. In this embodiment, a two-dimensional laser scanner is used as a typical distance sensor 105 for explanation. A two-dimensional laser scanner emits laser pulses in the horizontal direction and measures the time it takes for the light to hit the object and diffusely reflect the laser light to return, thereby calculating the distance to the object. It is.

距離センサ105の内部に備わっているモータ(図示せず)によってレーザパルスの照射方向を回転させ、照射方向と、距離を取得することで、周囲の形状データを取得することができる。 A motor (not shown) provided inside the distance sensor 105 rotates the irradiation direction of the laser pulse, and by obtaining the irradiation direction and the distance, it is possible to obtain the shape data of the surroundings.

レーザスキャナの計測範囲は、例えば照射範囲270度、角度分解能(パルスの照射間隔)を0.25度として、1081点の距離データを25msec周期で取得することが可能なスキャナなどがある。このようなスキャナに限らず、照射範囲や角度分解能が異なっていても、複数の距離データと照射方向の組を取得できるセンサであれば本発明を適用することが可能である。 The measurement range of the laser scanner is, for example, an irradiation range of 270 degrees, an angular resolution (pulse irradiation interval) of 0.25 degrees, and a scanner capable of acquiring distance data of 1081 points at a cycle of 25 msec. The present invention is applicable not only to such a scanner, but also to any sensor capable of acquiring a plurality of pairs of distance data and irradiation directions even if the irradiation range and angular resolution are different.

また、二次元のレーザスキャナに限らず三次元で周囲の構造物との距離を計測できる三次元レーザスキャナやステレオカメラ等、周囲にある構造物との距離を、異なる角度方向に対して複数取得できるものであれば本発明を適用することが可能である。 In addition to 2D laser scanners, 3D laser scanners and stereo cameras that can measure the distance to surrounding structures in 3D can also acquire multiple distances to surrounding structures in different angular directions. It is possible to apply the present invention as long as it is possible.

位置姿勢検出部107は距離データと地図114を照合することで移動体10の位置姿勢を検出する。 The position and orientation detection unit 107 detects the position and orientation of the moving body 10 by comparing the distance data and the map 114 .

鏡距離データ抽出部110はレーザの測定データの中で鏡を測定していると想定される部分を抽出する。この抽出処理において、予測位置姿勢生成部108が活用されるが、これらの処理の詳細については後述する。 A mirror distance data extraction unit 110 extracts a portion assumed to be measuring a mirror in the laser measurement data. In this extraction processing, the predicted position/orientation generation unit 108 is utilized, and the details of these processing will be described later.

移動経路算出部113は移動体10が移動するための移動経路を算出する。相対位置姿勢算出部111は移動体10の相対位置姿勢を検出する。制御指令生成部112は移動体10を制御するために指令を生成する。予測位置姿勢生成部108は移動体10の予測位置姿勢を生成する。 The movement route calculation unit 113 calculates a movement route for the moving body 10 to move. A relative position/posture calculation unit 111 detects the relative position/posture of the moving body 10 . The control command generation unit 112 generates commands for controlling the moving body 10 . A predicted position and orientation generation unit 108 generates a predicted position and orientation of the moving body 10 .

本実施例において、プロセッサ119はプログラムを実行するための演算装置であり、例えばCPU(Central Processing Unit)のようなものであるが、プログラムを実行できるものであればなんでもよく、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)や、ASIC(application specific integrated circuit)などで実現しても良い。 In this embodiment, the processor 119 is an arithmetic unit for executing a program, such as a CPU (Central Processing Unit), but any device capable of executing a program may be used, such as an FPGA (Field Programmable Gate). Array), CPLD (Complex Programmable Logic Device), ASIC (application specific integrated circuit), or the like.

車両制御装置120は相対位置姿勢算出部111によって算出された相対位置姿勢に基づいて、移動体10を誘導するための制御装置である。 The vehicle control device 120 is a control device for guiding the moving body 10 based on the relative position and orientation calculated by the relative position and orientation calculation section 111 .

図2は地図114aに記載されている情報と鏡地図117cに記載されている情報を表している。
地図114aには周囲の構造物の位置情報が記載されている。構造物の位置は例えば占有格子地図と呼ばれる空間を格子状に分割し、レーザで測定される構造物の表面がある格子は1、構造物の表面が無い格子は0といった形で画像のような形式で表現する。しかし、レーザのデータとマッチしているかを判定することが可能な表現方法であればなんでも良く、格子内の点群データをガウス分布で近似表現するNormal Distribution Modelなどを用いても良い。
FIG. 2 shows the information written on the map 114a and the information written on the mirror map 117c.
The map 114a describes the positional information of the surrounding structures. For example, a space called an occupancy grid map is divided into grids for the positions of structures. expressed in the form However, any expression method may be used as long as it is possible to determine whether it matches the laser data, and a Normal Distribution Model or the like that approximates the point group data in the lattice with a Gaussian distribution may be used.

移動経路114bには移動体10が移動する経路の情報が記載されており、目標位置と姿勢で構成されている。移動体10は移動経路の中から目標位置姿勢を選択し、目標位置に向かって動作を行う。 The movement route 114b describes information on the route along which the moving body 10 moves, and is composed of a target position and a posture. The moving body 10 selects a target position/orientation from the movement path and moves toward the target position.

鏡地図番号は現場に存在する鏡を活用した鏡地図の原点情報である。この原点情報は移動経路の目標点に紐づけされている。移動体10は鏡地図117cの原点情報が紐づけされている目標点に向かって移動している際には鏡地図117cをメモリ118上に展開し、参照しながら位置姿勢の検出処理を実行する。これらの処理の詳細については後述する。 The mirror map number is the origin information of the mirror map that utilizes the mirrors existing on site. This origin information is linked to the target point of the moving route. When moving toward the target point to which the origin information of the mirror map 117c is linked, the moving body 10 develops the mirror map 117c on the memory 118 and executes position and orientation detection processing while referring to it. . Details of these processes will be described later.

鏡地図117cにはそれぞれ種別が存在し、通常走行用と、位置決め用として区別されている。通常走行用の地図は、SLAMが苦手な環境である場合に特徴を付与するために設ける鏡地図である。位置決め用の地図は、設備への接岸時に高精度に位置決めを行うためのものである。この地図の活用方法は実施例2で説明する。 Each mirror map 117c has a type, and is distinguished between normal driving and positioning. The map for normal driving is a mirror map provided to give characteristics in the environment where SLAM is not suitable. The positioning map is for highly accurate positioning when docking with facilities. A method of utilizing this map will be described in a second embodiment.

鏡の位置、姿勢は鏡地図の基準位置を表している。1枚鏡の場合においては鏡の面に垂直な方向をx軸として、移動方向に沿った方向をy軸、垂直方向をz軸などととる。 The position and orientation of the mirror represent the reference position of the mirror map. In the case of a single mirror, the direction perpendicular to the surface of the mirror is taken as the x-axis, the direction along the direction of movement is taken as the y-axis, and the vertical direction is taken as the z-axis.

鏡地図117cは地図114aの地図データを鏡面反射させた地図データであり、地図114aに記載されているデータの必要な部分の鏡像として得ることができる。 The mirror map 117c is map data obtained by mirror-reflecting the map data of the map 114a, and can be obtained as a mirror image of the necessary portion of the data described on the map 114a.

2次元の場合の鏡像は鏡の平面に対して、地図114aを折り返すことで得ることができる。詳細は図4で説明する。 A mirror image in the two-dimensional case can be obtained by folding the map 114a against the plane of the mirror. Details will be described with reference to FIG.

図3は移動体10が動作する現場および現場の地図114aの地図データを表している。
地図114aの地図データは現場に配置されている構造物を一定の高さでスライスした断面図のようなものである。この地図データはSLAM技術等によって作成することが可能であるが、精密なCADデータ等が存在する場合はこのデータを位置検出用の地図114aとして用いることも可能である。
FIG. 3 shows the site where the mobile unit 10 operates and the map data of the site map 114a.
The map data of the map 114a is like a cross-sectional view obtained by slicing a structure arranged on site at a constant height. This map data can be created by SLAM technology or the like, but if precise CAD data or the like exists, this data can also be used as the map 114a for position detection.

ここで、図3において、305は地図の原点を示し、301は鏡を示し、302は鏡地図117cの範囲を示し、304は移載装置(設備側)を示している。 Here, in FIG. 3, 305 indicates the origin of the map, 301 indicates the mirror, 302 indicates the range of the mirror map 117c, and 304 indicates the transfer device (equipment side).

また、地図データには移動体10の移動経路114bが記載されている。本実施例では移動経路は区間で分割されている。各区間には目標位置姿勢(wx、wy、wθ)が設定されており、経路を表す曲率k、鏡301の有無MNが設定されている。 The map data also describes the moving route 114b of the moving body 10. FIG. In this embodiment, the moving route is divided into sections. A target position/orientation (wx, wy, wθ) is set for each section, a curvature k representing a path, and presence/absence MN of the mirror 301 are set.

移動体10は距離センサ105で周囲環境を測定し、地図114aと照合することで自己の位置を同定し、現在走行している区間の目標位置姿勢もしくは移動経路上を走行するように駆動輪121の回転を制御しながら動作を行う。 The moving body 10 measures the surrounding environment with the distance sensor 105, identifies its own position by comparing it with the map 114a, and adjusts the drive wheels 121 so as to run on the target position/orientation of the current running section or on the moving route. The motion is performed while controlling the rotation of the

図2に示す鏡301の有無MNは走行している区間に鏡が無い場合は0、鏡301が存在する場合は鏡の番号である1~Lの値を取る。MNが1~Lである場合は、位置検出装置104は設定されている鏡地図117cを参照し、鏡地図117cを併用して、位置姿勢の検出を実行する。 The presence/absence MN of the mirror 301 shown in FIG. 2 takes a value of 0 when there is no mirror in the traveling section, and a value of 1 to L, which is the number of the mirror, when the mirror 301 exists. When MN is 1 to L, the position detection device 104 refers to the set mirror map 117c and uses the mirror map 117c together to detect the position and orientation.

図4は鏡地図を用いた位置姿勢検出の例を表している。地図114aの地図データに対して、鏡201の原点401のy軸に沿った線を対称線として、折り返すことで鏡地図117cを生成している。 FIG. 4 shows an example of position and orientation detection using a mirror map. A mirror map 117c is generated by folding back the map data of the map 114a with a line along the y-axis of the origin 401 of the mirror 201 as a line of symmetry.

3次元を含む一般の場合は鏡地図原点のx軸を法線ベクトルとした鏡映写像であり、具体的にはハウスホルダー変換を用いて得ることができる。 In the general case including three dimensions, it is a mirror map with the x-axis of the mirror map origin as a normal vector, and more specifically, it can be obtained using the Householder transformation.

鏡地図117cと形状マッチング処理を行う距離データは移動体10の移動量403を考慮した予測位置姿勢10nに基づいて、鏡201を測定しているであろうデータ404を、鏡201との位置関係および鏡201の寸法から算出することで抽出を行う。この時、移動量403としては、移動体10の制御を行う際の指令値から算出する。よって実際の移動量を測定しているわけではなく、誤差がある程度含まれるため、抽出した距離データにも実際は鏡201を測定していないものが含まれている。 The distance data for shape matching processing with the mirror map 117c is based on the predicted position and orientation 10n considering the movement amount 403 of the moving body 10, and the data 404 that would have measured the mirror 201 is used as the positional relationship with the mirror 201. and the dimensions of the mirror 201 to extract. At this time, the movement amount 403 is calculated from the command value when controlling the moving body 10 . Therefore, the actual amount of movement is not measured, and since some error is included, the extracted distance data also includes the mirror 201 that is not actually measured.

しかし、鏡201の幅402をある程度広くとることで、誤ったデータを選択したとしても、ほぼ影響無く鏡地図117cとのマッチング処理を行うことができる。その他、カルマンフィルタ等を用いて速度、加速度を推定し、数秒後の位置姿勢の推定値を生成しても良い。 However, by widening the width 402 of the mirror 201 to some extent, even if the wrong data is selected, the matching process with the mirror map 117c can be performed with almost no influence. In addition, a Kalman filter or the like may be used to estimate the velocity and acceleration to generate an estimated value of the position and orientation after several seconds.

この時、鏡越しに測定しているデータの中には、鏡201が無ければ測定できないデータ405が存在する。もし仮に鏡201がなければ、移動体10の位置から測定できるデータは、ほぼ通路の進行方向に沿った壁の情報のみとなってしまう。このため、壁からの距離はわかるが、進行方向に対しての位置決めをするための情報が不足してしまう。鏡越しに計測しているデータ405を用いることで、進行方向に対してどの程度進んだかなどの情報を得ることができる。 At this time, the data measured through the mirror includes data 405 that cannot be measured without the mirror 201 . Without the mirror 201, the only data that can be measured from the position of the moving body 10 would be information about the wall along the traveling direction of the passageway. For this reason, although the distance from the wall is known, information for positioning with respect to the traveling direction is insufficient. By using the data 405 measured through the mirror, it is possible to obtain information such as how far it has progressed in the traveling direction.

図5は鏡地図を用いた位置姿勢検出のフローチャートである。図5を参照して、処理の詳細手順を説明する。
まず、距離データの取得(ステップ501)から位置姿勢検出処理が開始される。現在いる経路の区間に鏡地図117cが設定されているか否かを判定する(ステップ502)。鏡地図117cが設定されていない場合は取得した距離データを用いて地図114aとの形状マッチング処理を行う(ステップ508)。
FIG. 5 is a flowchart of position and orientation detection using a mirror map. A detailed procedure of the processing will be described with reference to FIG.
First, the position/orientation detection process is started from the acquisition of distance data (step 501). It is determined whether or not the mirror map 117c is set for the section of the current route (step 502). If the mirror map 117c is not set, shape matching processing with the map 114a is performed using the acquired distance data (step 508).

この形状マッチングの処理に関してはICP(Iterative Closest Point Search)アルゴリズムやNDT(Normal Distribution Transform)アルゴリズムといったスキャンマッチング等の手法を用いて行うことが可能である。また、これに限らず、互いの形状を比較し、照合位置を特定できる技術であればよく、深層学習等のAI技術を用いても良い。 This shape matching process can be performed using a technique such as scan matching such as an ICP (Iterative Closest Point Search) algorithm or an NDT (Normal Distribution Transform) algorithm. In addition, the present invention is not limited to this, and any technology that can compare the shapes of each other and specify the matching position may be used, and an AI technology such as deep learning may be used.

現在の区間に鏡地図117cの設定情報がある場合、経路に設定されている鏡地図117cをメモリ118上に展開する(ステップ503)。 If there is setting information for the mirror map 117c in the current section, the mirror map 117c set for the route is developed on the memory 118 (step 503).

次に、一サンプル前の距離データで算出した位置および姿勢から、制御指令などの値を用いて、移動後の位置姿勢を推測する。この推測された位置姿勢と鏡の位置及び姿勢、幅の情報を用いて、鏡で反射されている可能性が高い距離データを抽出する(ステップ504)。 Next, from the position and orientation calculated from the distance data one sample before, the position and orientation after movement are estimated using values such as control commands. Using this estimated position and orientation and information on the position, orientation and width of the mirror, distance data that is highly likely to be reflected by the mirror is extracted (step 504).

次に、ステップ504で抽出した距離データと鏡地図117cの照合処理を実施する(ステップ505)。この位置姿勢を算出する処理についてはステップ508で行った方法と同様に行うことが可能である。 Next, the distance data extracted in step 504 and the mirror map 117c are collated (step 505). Processing for calculating the position and orientation can be performed in the same manner as in step 508 .

次に、鏡を測定していない距離データを用いて、地図114aと照合処理を行う(ステップ506)。 Next, using the distance data in which the mirror is not measured, comparison processing with the map 114a is performed (step 506).

次に、それぞれのステップ505で算出した位置姿勢と、ステップ506で算出した位置姿勢に対して融合処理を実行する。融合処理については、単純に平均値をとることが最も単純なやり方であるが、照合処理の結果として共分散行列が算出できる場合は、この共分散行列を重みとした重み付きの平均値をとることで、精度を向上させることができる。以上が鏡を利用した位置姿勢検出処理である。 Next, fusion processing is performed on the position and orientation calculated in step 505 and the position and orientation calculated in step 506, respectively. For the fusion process, the simplest method is to simply take the average value, but if the covariance matrix can be calculated as a result of the matching process, take the weighted average value with this covariance matrix as the weight. By doing so, accuracy can be improved. The above is the position/orientation detection processing using the mirror.

実施例2では、環境に合わせ鏡を配置して高精度に位置決めを行う例について説明する。図6は移動体10が運んできた荷物101を移載装置304に移載する様子を表している。移載装置304の内部には合わせ鏡が設置されている。移載装置304に移載された荷物101は作業台601に置かれる。 In a second embodiment, an example will be described in which mirrors are arranged according to the environment and positioned with high accuracy. FIG. 6 shows how the load 101 carried by the moving body 10 is transferred to the transfer device 304 . A matching mirror is installed inside the transfer device 304 . The load 101 transferred by the transfer device 304 is placed on the workbench 601 .

図7は実際に移載装置304の付近で移動体10が環境を測定している状態を表している。
移載装置304の周辺には、仮置きの荷物701や作業員702が存在し、周囲の構造物を十分な精度を出せるほど測定することができない。このため、移載装置304のアプローチ位置にたどり着いた段階で位置姿勢の検出精度は低くなっている。
FIG. 7 shows a state in which the moving body 10 is actually measuring the environment near the transfer device 304 .
Temporarily placed cargo 701 and workers 702 are present around the transfer device 304, and the surrounding structures cannot be measured with sufficient accuracy. Therefore, the detection accuracy of the position and orientation is low when the transfer device 304 reaches the approach position.

移載装置304には合わせ鏡704aが設置されている。本実施例においては、合わせ鏡704aは互いのなす角度は90度となるように設置されている。合わせ鏡704aにはマーカ703が設置されており、このように角度を取ることでマーカ703を空間に規則正しく並べることができる。 A matching mirror 704 a is installed in the transfer device 304 . In this embodiment, the matching mirrors 704a are installed so that the angle between them is 90 degrees. Markers 703 are installed on the matching mirror 704a, and the markers 703 can be arranged regularly in the space by setting the angle in this way.

このように、合わせ鏡704aの間に角度をつけることで、マーカ703との距離を疑似的に離すことが可能であり、また、移動体10が移載装置304から離れた位置にあったとしても、合わせ鏡704aに対して垂直にレーザが照射されない。このため、十分にランドマークとなる物体を測定することが可能となり、高精度に位置決め処理を行うことが可能となる。 Thus, by setting an angle between the alignment mirrors 704a, it is possible to increase the distance from the marker 703 in a pseudo manner. Also, the laser is not irradiated perpendicularly to the matching mirror 704a. For this reason, it is possible to measure an object sufficiently serving as a landmark, and it is possible to perform positioning processing with high accuracy.

この時、相対位置姿勢算出部111から出力される位置と姿勢の情報は相対目標位置姿勢を原点とした座標系705における位置姿勢として出力される。この位置姿勢の情報は移載装置304に位置決めする際の目標位置に対する偏差の情報となっている。制御指令生成部112においては、この偏差を0とするように制御指令を生成し、車両制御装置120に入力することで位置決めすることができる。このように位置検出装置104から制御を行うことで、周囲の環境の変化によらず、高精度に移動体10の位置決めを行うことができる。 At this time, the position and orientation information output from the relative position/orientation calculation unit 111 is output as the position and orientation in the coordinate system 705 with the relative target position/orientation as the origin. This position/orientation information is deviation information from a target position when positioning on the transfer device 304 . The control command generation unit 112 generates a control command so as to set this deviation to 0, and inputs the control command to the vehicle control device 120, whereby positioning can be performed. By performing control from the position detection device 104 in this way, the moving body 10 can be positioned with high accuracy regardless of changes in the surrounding environment.

本実施例において合せ鏡704aは2枚としているが、さらに複数枚の鏡を用いても良い。また、本実施例では2次元的なレーザスキャナを用いて説明を行っているが、3次元のレーザスキャナを活用することもできる。その際には合せ鏡704aは3次元的に配置することが可能であり、例えば長方形の面に鏡を張り付けるなどとしても良い。 Although two mirrors 704a are used in this embodiment, a plurality of mirrors may be used. Also, although the present embodiment uses a two-dimensional laser scanner for explanation, a three-dimensional laser scanner can also be used. In that case, the matching mirror 704a can be arranged three-dimensionally, and for example, the mirror may be attached to a rectangular surface.

また、任意の2枚の鏡の間の角度は45度、60度、90度、180度のいずれかになるように鏡を配置する。合せ鏡704aの配置として、ディンキン図形が表現する角度を取るように配置することで、鏡で囲まれる空間の折り返しを、規則的に重複することなく空間に展開することができる。このように合せ鏡704aを配置すると、マーカ703の鏡像703mが規則的に並ぶので、鏡地図117cの作成を容易に行うことができる。 Also, the mirrors are arranged so that the angle between any two mirrors is either 45 degrees, 60 degrees, 90 degrees, or 180 degrees. By arranging the folding mirrors 704a so as to take the angles represented by the Dynkin diagrams, the folds of the space surrounded by the mirrors can be developed in the space without regular overlap. When the mirrors 704a are arranged in this way, the mirror images 703m of the markers 703 are arranged regularly, so that the mirror map 117c can be easily created.

この場合における距離データと鏡地図117cのマッチング処理は前記と同様にスキャンマッチングの手法を用いても良いし、レーザの照射角度の情報に基づいた三角測量の方法を用いても良い。 In this case, the matching process between the distance data and the mirror map 117c may use the scan matching method as described above, or may use the triangulation method based on the information of the irradiation angle of the laser.

例えば、マーカ703を測定している距離データを抽出し、その方向ベクトルを算出することで位置決め処理を行うことができる。具体的に移動体10の位置姿勢を算出する方法としては、例えば、コンピュータビジョンの分野で用いられるPerspective-n-Point法などの手法を活用することが可能であり、移動体10の位置姿勢を高精度に算出することができる。 For example, the positioning process can be performed by extracting distance data for measuring the marker 703 and calculating its direction vector. As a method for specifically calculating the position and orientation of the moving body 10, for example, a technique such as the Perspective-n-Point method used in the field of computer vision can be used. It can be calculated with high precision.

図8はこの地図データに対しての位置決め処理のフローチャートを表している。本フローチャートは距離データを取得し、位置および姿勢を検出するまでの流れを示したものである。 FIG. 8 shows a flowchart of positioning processing for this map data. This flowchart shows the flow from acquisition of distance data to detection of position and orientation.

はじめに、距離データを取得する(ステップ801)。次に、現在の経路の区間に鏡地図117cの設定情報が存在するか否かについて判定する(ステップ802)。存在しない場合は、距離データと地図114aを照合すること位置姿勢を検出する(ステップ807)。 First, distance data is obtained (step 801). Next, it is determined whether or not setting information of the mirror map 117c exists in the section of the current route (step 802). If not, the position and orientation are detected by collating the distance data with the map 114a (step 807).

経路に鏡地図117cの情報が紐づけされている場合、経路に設定されている鏡地図117cの情報をメモリ118に展開して、経路区間に設定されている鏡地図117cを読み出す(ステップ803)。次に、鏡を測定している範囲の距離データを抽出する(ステップ804)。 When the information of the mirror map 117c is linked to the route, the information of the mirror map 117c set for the route is developed in the memory 118, and the mirror map 117c set for the route section is read out (step 803). . Next, the distance data for the range in which the mirror is measured is extracted (step 804).

次に、鏡を測定している距離データを用いて照合処理を行い、移載装置304との相対位置姿勢を算出する(ステップ805)。次に、移載目標位置を基準とした相対座標を出力する(ステップ806)。 Next, collation processing is performed using the distance data obtained by measuring the mirror, and the relative position and orientation with respect to the transfer device 304 are calculated (step 805). Next, the relative coordinates with reference to the transfer target position are output (step 806).

このようにして、実施例2では、環境に合せ鏡704aを配置して高精度に位置決めを行うことができる。 In this way, in the second embodiment, the mirror 704a can be arranged according to the environment and positioned with high accuracy.

図9は鏡を利用した位置姿勢検出装置の別様態である。基本的には実施例1と同様の構成であるが、鏡距離データ生成部911と、鏡像位置姿勢算出部912が備わっている点が異なっている。実施例1と同様の構成については、その説明を省略する。鏡距離データ生成部911は鏡距離データを生成する。鏡像位置姿勢算出部912は鏡像位置姿勢を算出する。 FIG. 9 shows another aspect of the position/orientation detection device using a mirror. The configuration is basically the same as that of the first embodiment, but differs in that a mirror distance data generation unit 911 and a mirror image position/orientation calculation unit 912 are provided. The description of the configuration similar to that of the first embodiment is omitted. A mirror distance data generator 911 generates mirror distance data. A mirror image position/posture calculation unit 912 calculates a mirror image position/posture.

図10は鏡距離データ生成部911と鏡位置姿勢算出部912の処理を表している。実施例1では、地図データを鏡で折り返して位置姿勢検出の処理を行ったが、実施例3の構成においては、移動体10の位置姿勢と、鏡201を測定しているであろうレーザスキャナの距離データ1001を鏡201で折り返した距離データ1002を用いて位置検出の処理を行う。 FIG. 10 shows the processing of the mirror distance data generation unit 911 and the mirror position/orientation calculation unit 912 . In the first embodiment, the map data is folded back by the mirror to detect the position and orientation. Position detection processing is performed using distance data 1002 obtained by folding back the distance data 1001 of the mirror 201 .

このように処理を行うことで、地図データの折り返しを行わずに位置の検出を行うことが可能である。鏡201で折り返した位置姿勢とレーザスキャナの測定データは元の地図データと整合性がとれるデータとなる。このため、保持している通常の地図114aの地図データと照合することが可能となる。地図データは場合によっては多くのメモリを消費するため、メモリ効率の観点で有利な手法となる。 By performing processing in this way, it is possible to detect the position without folding the map data. The position/orientation folded back by the mirror 201 and the measurement data of the laser scanner are data consistent with the original map data. For this reason, it is possible to collate with the map data of the held normal map 114a. Since map data may consume a large amount of memory in some cases, this is an advantageous method from the viewpoint of memory efficiency.

図11で実施例3の処理の詳細を説明する。はじめに、距離データを取得する(ステップ1101)。次に、現在の経路の区間に部分地図の設定情報が存在するか否かについて判定する(ステップ1102)。存在しない場合は、距離データと地図114aを照合すること位置姿勢を検出する(ステップ1110)。 Details of the processing of the third embodiment will be described with reference to FIG. First, distance data is obtained (step 1101). Next, it is determined whether or not there is partial map setting information in the section of the current route (step 1102). If not, the position and orientation are detected by collating the distance data with the map 114a (step 1110).

現在の経路の区間に部分地図の設定情報が存在する場合、鏡を測定している範囲の距離データを抽出する(ステップ1103)。次に、位置姿勢および抽出した距離データの鏡像を算出する(ステップ1104)。 If there is partial map setting information for the section of the current route, the distance data for the range in which the mirror is being measured is extracted (step 1103). Next, a mirror image of the position and orientation and the extracted distance data is calculated (step 1104).

次に、ステップ1104で算出した鏡像距離データと、地図114aの地図データのマッチング処理を行う(ステップ1105)。次に、ステップ1105で求めた位置姿勢の鏡像を算出する(ステップ1107)。 Next, matching processing is performed between the mirror image distance data calculated in step 1104 and the map data of the map 114a (step 1105). Next, a mirror image of the position and orientation obtained in step 1105 is calculated (step 1107).

次に、鏡を測定していない距離データで地図114aの地図データとマッチング処理を行う(ステップ1108)。 Next, the distance data in which the mirror is not measured is matched with the map data of the map 114a (step 1108).

次に、ステップ1107で求めた鏡越しに測定して距離データから算出された位置姿勢と、鏡を測定していない距離データから求めた位置姿勢を融合するための処理を行う(ステップ1109)。この融合処理としては、マッチング処理を行う際に算出される一致度の共分散行列を重みとして、重み付きの平均値をとるなどの処理を行う。 Next, the position and orientation calculated from the distance data measured through the mirror obtained in step 1107 and the position and orientation obtained from the distance data without measuring the mirror are merged (step 1109). As this fusion process, a weighted average value is obtained by using the covariance matrix of the degree of matching calculated when performing the matching process as a weight.

このように、上記実施例の位置検出装置は、距離センサで計測した距離データを移動する環境の地図情報と照合することによって自身の位置を推定しながら自律移動する移動体の位置検出装置であって、鏡を利用して距離センサで直接測定できない構造物を検出するための鏡データ抽出部と、鏡の範囲を測定している距離データと鏡データ用地図データとを照合することで位置検出を行うための位置検出部を備える。 As described above, the position detection device of the above-described embodiment is a position detection device of a moving body that autonomously moves while estimating its own position by collating the distance data measured by the distance sensor with the map information of the moving environment. a mirror data extraction unit that uses a mirror to detect structures that cannot be directly measured by a distance sensor; and a position detection unit for performing

上記実施例によれば、周囲構造物に特徴が少ない又は地図上には記載されていない物体が多数ある場合のような通常であれば位置検出できない環境においても高精度に移動体の位置および姿勢を検出することが可能となる。 According to the above embodiment, the position and orientation of a mobile object can be accurately detected even in an environment where the position cannot normally be detected, such as when there are few features in the surrounding structures or when there are many objects not shown on the map. can be detected.

10 移動体
101 荷物
105 距離センサ
102 移載装置
104 位置姿勢検出装置
119 プロセッサ
106 距離センサ制御部
107 位置姿勢検出部
113 移動経路算出部
110 鏡距離データ抽出部
111 相対位置姿勢算出部
112 制御指令生成部
118 メモリ
114a 地図
117c 鏡地図
120 車両制御装置
121 駆動輪
305 地図の原点
301 鏡
302 鏡地図の範囲
304 移載装置(設備側)
402 鏡の幅
703 位置決め用マーカ(鏡地図)
703m 位置決め用マーカの鏡像(鏡地図)
10 Moving body 101 Cargo 105 Distance sensor 102 Transfer device 104 Position/attitude detection device 119 Processor 106 Distance sensor control unit 107 Position/attitude detection unit 113 Movement route calculation unit 110 Mirror distance data extraction unit 111 Relative position/attitude calculation unit 112 Control command generation Unit 118 Memory 114a Map 117c Mirror map 120 Vehicle control device 121 Drive wheel 305 Map origin 301 Mirror 302 Mirror map range 304 Transfer device (facility side)
402 mirror width 703 positioning marker (mirror map)
703m Mirror image of positioning marker (mirror map)

Claims (14)

距離センサで計測した距離データと作業現場の地図データとを照合することによって自身の位置を推定しながら、前記作業現場内の移動経路に沿って自律移動する移動体の位置検出装置であって、
前記作業現場には、少なくとも構造物と鏡が配置されており、
前記位置検出装置は、
前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出部と、
前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出部と、
を有することを特徴とする位置検出装置。
A position detection device for a moving body that autonomously moves along a movement route in the work site while estimating its own position by comparing distance data measured by a distance sensor with map data of the work site,
At least a structure and a mirror are arranged at the work site,
The position detection device is
a mirror distance data extraction unit for extracting mirror distance data by the distance sensor using the mirror;
a position detection unit that detects the position of the moving body by indirectly detecting the structure using the mirror distance data;
A position detection device comprising:
前記位置検出部は、
前記鏡距離データと、予め記憶された鏡地図データとを照合することにより、前記移動体の位置を検出することを特徴とする請求項1に記載の位置検出装置。
The position detection unit is
2. The position detection device according to claim 1, wherein the position of the moving body is detected by collating the mirror distance data with pre-stored mirror map data.
前記位置検出部は、
前記距離データと前記地図データとを照合することにより、前記移動体の通常位置を検出し、
前記鏡距離データと前記鏡地図データとを照合することにより、前記移動体の鏡像位置を検出し、
前記通常位置と前記鏡像位置とを融合処理することにより、前記移動体の位置を検出することを特徴とする請求項2に記載の位置検出装置。
The position detection unit is
detecting the normal position of the moving body by comparing the distance data and the map data;
detecting a mirror image position of the moving object by comparing the mirror distance data and the mirror map data;
3. The position detection device according to claim 2, wherein the position of the moving body is detected by fusing the normal position and the mirror image position.
前記構造物は、
前記作業現場に配置された設備側の移載装置を有し、
前記移載装置には、前記鏡が設置されており、
前記位置検出部は、
前記鏡距離データと前記鏡地図データとを照合することにより、前記移動体と前記移載装置との相対位置姿勢を算出し、
前記相対位置姿勢に基づいて、前記移載装置の移載目標位置を基準とした相対座標を出力することにより、前記移動体の位置を検出することを特徴とする請求項2に記載の位置検出装置。
The structure is
Having a transfer device on the equipment side arranged at the work site,
The mirror is installed in the transfer device,
The position detection unit is
calculating a relative position and orientation between the moving body and the transfer device by comparing the mirror distance data and the mirror map data;
3. The position detection according to claim 2, wherein the position of the moving object is detected by outputting relative coordinates with reference to the transfer target position of the transfer device based on the relative position and orientation. Device.
前記鏡として、2枚以上の合せ鏡を用いることを特徴とする請求項4に記載の位置検出装置。 5. The position detecting device according to claim 4, wherein two or more mirrors are used as said mirrors. 前記合せ鏡の間の角度がディンキン図形で表現されることを特徴とする請求項5に記載の位置検出装置。 6. The position detecting device according to claim 5, wherein the angle between said matching mirrors is represented by a Dynkin diagram. 前記位置検出装置は、
前記鏡データ抽出部によって抽出された前記鏡距離データを前記鏡で折り返して生成した折返し鏡距離データを生成する鏡距離データ生成部と、
前記距離データと前記地図データとを照合することにより検出した前記移動体の通常位置と、前記折返し鏡距離データと前記地図データとを照合することにより検出した前記移動体の鏡像位置とを融合処理する鏡像位置検出部と、
を更に有することを特徴とする請求項1に記載の位置検出装置。
The position detection device is
a mirror distance data generation unit that generates folded mirror distance data generated by folding the mirror distance data extracted by the mirror data extraction unit with the mirror;
fusion processing of the normal position of the moving body detected by matching the distance data and the map data and the mirror image position of the moving body detected by matching the folded mirror distance data and the map data; a mirror image position detector for
2. The position detecting device according to claim 1, further comprising:
前記距離センサは、
二次元のレーザスキャナであり、
前記二次元のレーザスキャナは、
水平方向にレーザのパルスを照射して、乱反射したレーザ光が返ってくるまでの時間を計測することで距離を算出し、
前記鏡データ抽出部は、
現在位置を予測して前記鏡の位置と前記レーザの光路が交差するデータを抽出することを特徴とする請求項1に記載の位置検出装置。
The distance sensor is
is a two-dimensional laser scanner,
The two-dimensional laser scanner is
The distance is calculated by irradiating a laser pulse horizontally and measuring the time it takes for the diffusely reflected laser light to return.
The mirror data extraction unit
2. The position detection device according to claim 1, wherein the current position is predicted and data on intersection of the position of the mirror and the optical path of the laser is extracted.
前記現在位置の予測に制御指令を用いることを特徴とする請求項8に記載の位置検出装置。 9. The position detecting device according to claim 8, wherein a control command is used for predicting the current position. 前記地図データには、
前記構造物の位置情報と前記移動体が移動する前記移動経路の情報が記載されていることを特徴とする請求項1に記載の位置検出装置。
The map data includes
2. The position detection device according to claim 1, wherein position information of said structure and information of said moving route along which said moving body moves are described.
前記鏡地図データは、
前記地図データを鏡面反射させて得られた前記地図データの一部分の鏡像データであり、前記鏡に対して前記地図データを折り返すことにより得られることを特徴とする請求項2に記載の位置検出装置。
The mirror map data is
3. The position detection device according to claim 2, wherein the map data is mirror image data of a part of the map data obtained by mirror-reflecting the map data, and is obtained by folding the map data with respect to the mirror. .
請求項1に記載の位置検出装置と、
前記位置検出装置により検出された前記移動体の位置に基づいて、前記移動体を制御する制御装置と、
を有することを特徴とする移動体。
A position detection device according to claim 1;
a control device that controls the moving body based on the position of the moving body detected by the position detection device;
A moving body characterized by having
前記作業現場内の前記移動経路に沿って自律移動する請求項12に記載の前記移動体の位置検出システム。 13. The position detection system for the mobile body according to claim 12, which autonomously moves along the movement route within the work site. 距離センサで計測した距離データと作業現場の地図データとを照合することによって自身の位置を推定しながら、前記作業現場内の移動経路に沿って自律移動する移動体の位置検出方法であって、
前記作業現場には、少なくとも構造物と鏡が配置されており、
前記位置検出方法は、
前記鏡を用いて前記距離センサにより鏡距離データを抽出する鏡距離データ抽出ステップと、
前記鏡距離データを用いて、間接的に前記構造物を検出して前記移動体の位置を検出する位置検出ステップと、
を有することを特徴とする位置検出方法。
A position detection method for a moving object that autonomously moves along a movement route in a work site while estimating its own position by comparing distance data measured by a distance sensor with map data of the work site,
At least a structure and a mirror are arranged at the work site,
The position detection method includes:
a mirror distance data extraction step of extracting mirror distance data by the distance sensor using the mirror;
a position detection step of detecting the position of the moving body by indirectly detecting the structure using the mirror distance data;
A position detection method characterized by comprising:
JP2021208798A 2021-12-22 2021-12-22 Position detector and method of detecting position Pending JP2023093268A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021208798A JP2023093268A (en) 2021-12-22 2021-12-22 Position detector and method of detecting position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021208798A JP2023093268A (en) 2021-12-22 2021-12-22 Position detector and method of detecting position

Publications (1)

Publication Number Publication Date
JP2023093268A true JP2023093268A (en) 2023-07-04

Family

ID=87000742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021208798A Pending JP2023093268A (en) 2021-12-22 2021-12-22 Position detector and method of detecting position

Country Status (1)

Country Link
JP (1) JP2023093268A (en)

Similar Documents

Publication Publication Date Title
JP4788722B2 (en) Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure
JP5602392B2 (en) Information processing apparatus, information processing method, and program
JP5303873B2 (en) Vehicle shape measuring method and apparatus
JP5800613B2 (en) Position / posture estimation system for moving objects
JP5069439B2 (en) Self-position recognition system
CN107710094A (en) On-line calibration inspection during autonomous vehicle operation
JP5586967B2 (en) Robot and robot system
CN107851181B (en) Method for controlling a robot and/or autonomous unmanned transport system
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
KR20170088228A (en) Map building system and its method based on multi-robot localization
KR20180076815A (en) Method and apparatus for estimating localization of robot in wide range of indoor space using qr marker and laser scanner
CN113454487B (en) Information processing device and mobile robot
RU2740229C1 (en) Method of localizing and constructing navigation maps of mobile service robot
US20230419531A1 (en) Apparatus and method for measuring, inspecting or machining objects
CN112068152A (en) Method and system for simultaneous 2D localization and 2D map creation using a 3D scanner
JP2022530246A (en) Simultaneous execution of self-position estimation and environmental map creation
JP2015007639A (en) Information processing apparatus, information processing method and program
JP2023093268A (en) Position detector and method of detecting position
US20220076441A1 (en) Object detection
JP7121489B2 (en) moving body
Kim et al. Indoor localization using laser scanner and vision marker for intelligent robot
JP6751469B2 (en) Map creation system
US20240161329A1 (en) Localization systems and methods
Kitajima et al. Robust and accurate self-localization method under varying lighting conditions
US20240061436A1 (en) Moving apparatus and moving apparatus control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507