JP2011100306A - Simulation system - Google Patents

Simulation system Download PDF

Info

Publication number
JP2011100306A
JP2011100306A JP2009254561A JP2009254561A JP2011100306A JP 2011100306 A JP2011100306 A JP 2011100306A JP 2009254561 A JP2009254561 A JP 2009254561A JP 2009254561 A JP2009254561 A JP 2009254561A JP 2011100306 A JP2011100306 A JP 2011100306A
Authority
JP
Japan
Prior art keywords
robot
sensor
data
attribute
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009254561A
Other languages
Japanese (ja)
Other versions
JP5414465B2 (en
Inventor
Fumiko Kureyama
史子 紅山
Toshio Moriya
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009254561A priority Critical patent/JP5414465B2/en
Publication of JP2011100306A publication Critical patent/JP2011100306A/en
Application granted granted Critical
Publication of JP5414465B2 publication Critical patent/JP5414465B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform a simulation capable of reproducing a motion nearly equivalent to the one in a real world. <P>SOLUTION: A simulation system includes: a simulation unit for simulating data that can be obtained by a sensor installed in a robot; a sensor data correction unit for determining whether points with attributes added thereto are included in obtained sensor data obtained by the sensor, performing correction according to a sensor data correction parameter on a group of points with attributes included therein, and outputting corrected sensor data; a virtual robot position and posture estimation unit for estimating a position and posture of a robot in a 2D environment map through a process of comparison between the output corrected sensor data and an attribute reflection 2D environment map, and outputting estimated virtual robot position and posture data; a movement target position determination unit for determining a subsequent movement destination; and a movement unit for updating a virtual robot position and posture according to a determined value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、シミュレーションシステムに関し、特に、仮想空間内で、自律移動ロボットの挙動を検証する、ロボットシミュレーションシステムに関する。    The present invention relates to a simulation system, and more particularly to a robot simulation system that verifies the behavior of an autonomous mobile robot in a virtual space.

工場や倉庫内などの現場において、物品の搬送などを行うロボットが数多く導入されるようになってきた。実際の工場で運用するためには、事前に安全性などを十分に検証する必要がある。ロボット移動のためのアルゴリズムが正しいか、どのような搬送経路が効率的か、複数ロボット同時運用時に衝突がないか、位置推定誤りや経路逸脱の可能性はあるか、ロボット同士でデッドロックを起こす可能性はあるか、など、様々な検証項目が考えられる。   A lot of robots that carry goods etc. have been introduced at sites such as factories and warehouses. In order to operate in an actual factory, it is necessary to sufficiently verify safety and the like in advance. Whether the robot movement algorithm is correct, what kind of transfer route is efficient, whether there are collisions when operating multiple robots at the same time, whether there is a possibility of position estimation error or route deviation, and causes deadlock between robots There are various verification items, such as whether or not there is a possibility.

工場など、屋内を自律的に動く複数のロボットの制御システムとして、次に挙げる運行制御システム(特許文献1)がある。集中制御装置にて、各ロボットとの通信によりロボット位置を把握し、作業の必要な場所に最も近いロボットの動作計画を立てるが、予め決められた短距離経路を組み合わせることにより、目的地までの経路を作成し、通信により各ロボットの位置を把握しロボット同士がぶつかることなく最適な経路で移動できるものである。各ロボットの干渉の可能性をシミュレーションにより予測することができる。   As a control system for a plurality of robots that move autonomously inside a factory or the like, there is an operation control system (Patent Document 1) listed below. The centralized control device grasps the robot position by communicating with each robot, and makes an operation plan of the robot closest to the place where the work is required, but by combining a predetermined short distance route, A route is created, the position of each robot is grasped by communication, and the robot can move along an optimum route without colliding with each other. The possibility of interference of each robot can be predicted by simulation.

また、ロボットの持つセンサで周辺の環境を認識しながら自律的に移動するものとして、3次元CG空間を走行し、仮想的に得られるカメラ画像をベースにロボット位置を推定し、動作をシミュレートするロボットシミュレータもある(非特許文献1)。   In addition, it is assumed that the robot moves autonomously while recognizing the surrounding environment with the sensor of the robot, and the robot position is estimated based on the virtually obtained camera image, and the operation is simulated. There is also a robot simulator (Non-patent Document 1).

特開2005-242489号公報JP 2005-242489 A

“画像理解のための4次元空間シミュレータ,” 電子情報通信学会技術研究報告, No.PRMU-97-277, pp.89-96, 1998.“4D space simulator for image understanding,” IEICE Technical Report, No.PRMU-97-277, pp.89-96, 1998.

特許文献1記載のシミュレータは、走行する領域の地図を保持し、走行中に適宜目標(地上のマークなど)を検出することによって位置を確認しているが、事前に目標を設置する必要があり、工場内のレイアウトが変更になったときは、全てを設置しなおす手間が必要となる。   The simulator described in Patent Document 1 holds a map of a traveling area and confirms a position by appropriately detecting a target (such as a mark on the ground) while traveling, but it is necessary to set a target in advance. When the layout in the factory is changed, it is necessary to re-install everything.

非特許文献1記載のシミュレータは、CGで作成した擬似環境内で動作検証を行うものであり、現実空間の状況とは異なる状況である可能性が高い。また、基本的にアルゴリズム検証のためのシミュレータであり、現実空間を走行することを想定したシミュレータではない。   The simulator described in Non-Patent Document 1 performs operation verification in a simulated environment created with CG, and is likely to be in a situation different from the situation in the real space. Also, it is basically a simulator for algorithm verification, and is not a simulator that is supposed to travel in real space.

本発明は上記事由に鑑みて為されたものであり、その目的は、現実に近い状況を再現した仮想空間内で、環境内に目印となるものを設置することなく、実機に用いるアルゴリズムを用いて、実際に得られるであろうセンサデータを基に周囲の環境を認識し移動するシミュレーションシステムを提供することにある。   The present invention has been made in view of the above-mentioned reasons, and its purpose is to use an algorithm used in a real machine in a virtual space that reproduces a situation close to reality without installing a mark in the environment. Another object of the present invention is to provide a simulation system that recognizes and moves the surrounding environment based on sensor data that may be actually obtained.

本発明の望ましい態様は、次のようなシミュレーションシステムである。即ち、本発明に係るシミュレーションシステムは、空間の3次元形状を再現し属性を付加した属性付き仮想空間モデルと、前記仮想空間モデル内のロボットの位置および姿勢とを入力とし、前記ロボットに搭載されたセンサで取得できるデータをシミュレーションするセンサシミュレーション部と、前記センサで取得した取得センサデータに、属性が付加されている点が含まれるかどうか判定し、前記属性が含まれている点群に対して、センサデータ補正パラメータに応じた補正を行い、補正センサデータを出力するセンサデータ補正部と、前記出力補正センサデータおよび属性反映2次元環境地図とを入力とし、両データの照合処理により2次元環境地図内のロボットの位置姿勢を推定し、仮想ロボット推定位置および姿勢データを出力する仮想ロボット位置・姿勢推定部と、前記推定仮想ロボット位置および姿勢と、予め設定した経路データを入力とし、次の移動先を決定する移動目標位置決定部と、決定された値に応じて仮想ロボット位置および姿勢を更新する移動部、とを備える。   A desirable mode of the present invention is the following simulation system. That is, the simulation system according to the present invention receives the attributed virtual space model that reproduces the three-dimensional shape of the space and adds the attributes, and the position and orientation of the robot in the virtual space model, and is mounted on the robot. A sensor simulation unit that simulates data that can be acquired by the sensor, and whether the acquired sensor data acquired by the sensor includes a point to which an attribute is added, and for a point group that includes the attribute Then, the sensor data correction unit that performs correction according to the sensor data correction parameter and outputs the corrected sensor data, and the output correction sensor data and the attribute reflection two-dimensional environment map are input, and the two-dimensional matching process is performed on both data. Estimate the position and orientation of the robot in the environmental map, and output virtual robot estimated position and orientation data A virtual robot position / posture estimation unit, the estimated virtual robot position and posture, a preset route data as inputs, a movement target position determination unit that determines the next destination, and a virtual robot according to the determined value And a moving unit that updates the position and orientation.

本発明によれば、現実世界により近いロボットのシミュレーションを実現できる。   According to the present invention, a robot simulation closer to the real world can be realized.

全体の流れを示す図。The figure which shows the whole flow. 現実空間で実機を用いた時の自律移動の流れを示した機能ブロック図。The functional block diagram which showed the flow of the autonomous movement when using a real machine in a real space. 自律移動シミュレータの機能ブロック図。The functional block diagram of an autonomous movement simulator. 属性反映2次元環境地図作成のブロック図。The block diagram of attribute reflection two-dimensional environmental map creation. 属性付き仮想空間モデルの例を示した図。The figure which showed the example of the virtual space model with an attribute. センサデータ補正の例を示した図。The figure which showed the example of sensor data correction | amendment. センサデータ補正の例を示した図。The figure which showed the example of sensor data correction | amendment. 属性反映2次元環境地図の例を示した図。The figure which showed the example of the attribute reflection two-dimensional environmental map. 従来のシミュレーションの例を示した図。The figure which showed the example of the conventional simulation. 実施形態におけるシミュレーションの例を示した図。The figure which showed the example of the simulation in embodiment.

以下、実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態の全体の流れを示すものである。   FIG. 1 shows the overall flow of this embodiment.

本実施形態は、3つのステップから成る。   This embodiment consists of three steps.

まず、1つ目のステップは、実測データに基づく環境の形状復元、仮想空間モデルの作成である。より現実に近いシミュレーションを行うためには、極力現実世界に忠実な環境モデルを用意するのが望ましい。それには、距離センサなどを用いて環境を計測し、計測データを統合することにより、仮想空間モデルを作成する方法が、一手法として考えられる。種類の異なる複数のセンサを用い、適切なデータを選択・統合することにより、より正確なモデルの作成が可能となる。例えば、レーザ光を用いた計測では、ガラスは透過したり、鏡面は反射したりする特性を持つ。しかし、超音波を用いた計測では、ガラス面や鏡面も面を認識することができる。このため、ガラス面や鏡面には、超音波による計測データを用いることにより、正確な形状データを得ることができる。また、扉や壁面の向こう側は、レーザ光を用いた計測では扉や壁面のデータに遮られ認識できないが、X線による計測データを用いることにより、扉や壁内部の状態も把握することが出来るようになる。このように、複数の異なるセンサを用いてデータを統合することにより、形状を正確に再現した仮想空間モデルの作成が可能となる。   First, the first step is to restore the shape of the environment based on the actually measured data and create a virtual space model. In order to perform a simulation closer to reality, it is desirable to prepare an environmental model that is as faithful as possible to the real world. One method is to create a virtual space model by measuring the environment using a distance sensor or the like and integrating the measurement data. A more accurate model can be created by using a plurality of different types of sensors and selecting and integrating appropriate data. For example, in measurement using laser light, glass has a characteristic of being transmitted and a mirror surface being reflected. However, in measurement using ultrasonic waves, the surface of a glass surface or a mirror surface can also be recognized. For this reason, accurate shape data can be obtained by using ultrasonic measurement data on the glass surface or mirror surface. In addition, the other side of the door and the wall surface cannot be recognized due to the data of the door or the wall surface when measured using laser light, but by using the measurement data by X-ray, it is possible to grasp the state inside the door or the wall surface. become able to do. Thus, by integrating data using a plurality of different sensors, it is possible to create a virtual space model that accurately reproduces the shape.

また、仮想空間モデルの作成において、モデル作成手段は、実測データを用いることには限定しない。対象となる空間のCAD図面などを参考にモデルを作成しても構わないし、メジャーで計測しながら現状と同等の環境モデルを手動で作成しても構わない。   In creating a virtual space model, the model creation means is not limited to using measured data. A model may be created with reference to a CAD drawing or the like of the target space, or an environment model equivalent to the current state may be created manually while measuring with a measure.

また更に、現場の状況が変わる(モノの位置が変わる、新たにモノが置かれる、置かれたモノがなくなる)可能性があることを想定し、作成した仮想空間モデルには、仮想オブジェクトを追加・削除・移動できるようにする。また更に、仮想空間内には、静止物体だけでなく、移動する物体も設置可能とする。   In addition, assuming that there is a possibility that the situation of the site will change (the position of the object will change, a new object will be placed, or the placed object will disappear), a virtual object will be added to the created virtual space model・ Can be deleted / moved. Furthermore, not only a stationary object but also a moving object can be installed in the virtual space.

2つめのステップは、仮想空間への属性付加である。センサを用いて環境を計測しその結果に基づき自律移動を行うが、現実に忠実なセンシング結果を得るために、予め仮想空間モデルに属性を設定する。属性の設定には、仮想空間をディスプレイに表示し、マウスやペンタブレット、キーボードなどの入力装置を用いて属性設定範囲を指定し、指定された範囲に対して、予め定めた属性(例えば、ガラス、鏡、光吸収色、光膨張色、拡散素材など)の中から選択する方法などが考えられる。また別の方法として、複数のセンサ、例えば、レーザ距離センサと超音波センサ、カメラなどで、同じ場所を計測したデータを用いて、取得距離データの差異や色などから、属性を自動的に判断してもよい。   The second step is attribute addition to the virtual space. The environment is measured using a sensor and autonomous movement is performed based on the result. In order to obtain a realistic sensing result, attributes are set in advance in the virtual space model. For attribute setting, a virtual space is displayed on a display, an attribute setting range is specified using an input device such as a mouse, a pen tablet, or a keyboard, and a predetermined attribute (for example, glass) is specified for the specified range. , Mirror, light absorption color, light expansion color, diffusion material, etc.). As another method, attributes are automatically determined from the difference or color of the acquired distance data using data obtained by measuring the same location with a plurality of sensors, for example, a laser distance sensor, an ultrasonic sensor, and a camera May be.

3つ目のステップは、属性に応じたセンサシミュレーション、自律移動シミュレーションの実施である。図3以降で詳述する。   The third step is to perform sensor simulation and autonomous movement simulation according to the attribute. This will be described in detail after FIG.

図2は、現実空間で実機を用いた時の自律移動の流れを示した機能ブロック図である。
ここでは、レーザ距離センサで環境を認識しながら移動するロボットを想定し、説明する。ロボットに搭載されたセンサは、スキャン面がx−y平面(床面)と平行になるように固定されている状態であると仮定する。センサデータ取得部101では、レーザ距離センサで周辺環境との距離を計測し、センサデータ201として保存する。
FIG. 2 is a functional block diagram showing the flow of autonomous movement when a real machine is used in the real space.
Here, a description will be given assuming a robot that moves while recognizing the environment with a laser distance sensor. It is assumed that the sensor mounted on the robot is fixed so that the scan plane is parallel to the xy plane (floor surface). The sensor data acquisition unit 101 measures the distance from the surrounding environment with a laser distance sensor and stores it as sensor data 201.

ロボット位置推定部102では、前記取得センサデータ201、ある一定の高さにおける環境の断面図である2次元環境地図202を入力とし、両データの照合処理により2次元環境地図202内のどの位置・方向にセンサが向いているか推定し、ロボット位置203として出力する。   The robot position estimation unit 102 receives the acquired sensor data 201 and a two-dimensional environment map 202 which is a cross-sectional view of the environment at a certain height, and determines which position / It is estimated whether the sensor is facing in the direction, and is output as the robot position 203.

移動目標位置決定部103では、前記推定ロボット位置203と、2次元環境地図202上に設定された経路データ204より、ロボットが次に進むべき位置と方向を決定し、移動部104にて、前記決定事項に従い、ロボットの移動制御を行う。101〜104の動作を繰り返すことにより、ロボットは自律的に移動することができる。   The movement target position determination unit 103 determines the position and direction where the robot should proceed next from the estimated robot position 203 and the route data 204 set on the two-dimensional environment map 202. Perform robot movement control according to the decision. By repeating the operations 101 to 104, the robot can move autonomously.

これと同じ状況を、計算機上で、再現することを考える。   Consider reproducing the same situation on a computer.

すなわち、自律移動シミュレーションの基本的な流れは、以下の通りである。実空間を模擬した3次元形状の仮想空間と、前記仮想空間の中を移動する仮想ロボットにより構成され、仮想空間内の物体の配置を示した2次元環境地図と、仮想ロボットの位置及び方向から見える周辺環境までの距離を計測する距離センサと、前記計測センサデータと、2次元環境地図とのマッチングにより、仮想ロボット位置を推定する。また更に、仮想ロボットの位置及び方向と、前記推定仮想ロボットの位置及び方向とを比較することにより、位置推定アルゴリズムを評価する。   That is, the basic flow of the autonomous movement simulation is as follows. It is composed of a virtual space with a three-dimensional shape that simulates a real space, a virtual robot that moves in the virtual space, a two-dimensional environment map that shows the arrangement of objects in the virtual space, and the position and direction of the virtual robot. A virtual robot position is estimated by matching a distance sensor that measures the distance to the visible surrounding environment, the measurement sensor data, and a two-dimensional environment map. Still further, the position estimation algorithm is evaluated by comparing the position and direction of the virtual robot with the position and direction of the estimated virtual robot.

なお、計算機は各データおよび各プログラムを記録する記録部、各データおよび各プログラムを読み出して実行するCPUなどの演算部を備えている(図示せず)。本図で説明した各データは記録部に記録され、また、機能ブロックで示される各処理、各フローは必要なプログラムを読み出して演算部が実行するものとする。これらのハードウェアの構成および処理動作は以下で説明する他の図面においても同様である。   The computer includes a recording unit that records each data and each program, and a calculation unit such as a CPU that reads and executes each data and each program (not shown). Each data described in this figure is recorded in the recording unit, and each processing and each flow indicated by the functional block are read by a necessary program and executed by the arithmetic unit. These hardware configurations and processing operations are the same in other drawings described below.

図3は本自律移動シミュレータの機能ブロック図である。
センサシミュレーション部301では、空間の3次元形状を表し素材などの属性を付加した、属性付き仮想空間モデル401と、仮想空間内を走行する仮想ロボットの位置・姿勢402を入力とし、仮想ロボット上のセンサ位置から、仮想空間との距離を計測し、センサデータ403として保存する。センサデータ403は点の集合体である点群にて表され、各点は、レーザ距離センサと障害物との距離・角度の値を持つ。また更に、属性の付加された場所を計測した点には、属性有の情報と属性の種類が追加される。すなわち、各点が持つ情報には、障害物との距離・角度、属性の有無、属性有りの場合はその種類が含まれる。
FIG. 3 is a functional block diagram of the autonomous mobile simulator.
In the sensor simulation unit 301, an attributed virtual space model 401 representing a three-dimensional shape of the space and added with an attribute such as a material and the position / posture 402 of the virtual robot traveling in the virtual space are input, The distance from the virtual space is measured from the sensor position and stored as sensor data 403. The sensor data 403 is represented by a point group that is an aggregate of points, and each point has a distance / angle value between the laser distance sensor and the obstacle. Furthermore, attributed information and attribute types are added to the points where the attribute-added locations are measured. That is, the information held by each point includes the distance / angle to the obstacle, the presence / absence of the attribute, and the type of the attribute if there is an attribute.

センサデータ補正部302では、センサデータに属性情報が含まれていたときに、センサデータを、その属性に応じて補正する。補正パラメータは、センサ毎に設定した、補正パラメータ404により、決定する。現実世界では、使用するセンサ、センシング対象素材によって、取得できるデータが異なる。同じレーザ距離センサでも、センサによって、色に対する感度が異なったりすることもあるし、異なる種類のセンサを使用すれば、あるセンサでは計測できても、別のセンサでは計測不可となるような素材もある。このため、使用センサに応じた補正モデルを準備し、取得したセンサデータの該当部分に適用することにより、補正センサデータ405を作成する。   The sensor data correction unit 302 corrects the sensor data according to the attribute when the attribute information is included in the sensor data. The correction parameter is determined by the correction parameter 404 set for each sensor. In the real world, the data that can be acquired differs depending on the sensor used and the sensing target material. Even with the same laser distance sensor, the sensitivity to color may vary depending on the sensor, and if different types of sensors are used, there are materials that can be measured with one sensor but not with another sensor. is there. For this reason, the correction sensor data 405 is created by preparing a correction model corresponding to the sensor used and applying it to the corresponding part of the acquired sensor data.

ロボット位置推定部303では、前記作成の補正センサデータ201、属性を反映した2次元環境地図406を入力とし、両データの照合処理により2次元環境地図406内のどの位置・方向にロボットが向いているか推定し、ロボット位置407として出力する。ここで使用する2次元環境地図406は、図4に示す手順で作成する。   The robot position estimation unit 303 receives the created corrected sensor data 201 and the two-dimensional environment map 406 reflecting the attribute, and the position of the robot in which direction and direction in the two-dimensional environment map 406 is determined by collating both data. Whether the robot position 407 is output. The two-dimensional environment map 406 used here is created by the procedure shown in FIG.

図4は、属性反映2次元環境地図作成のブロック図である。   FIG. 4 is a block diagram of creating an attribute reflecting two-dimensional environment map.

仮想ロボット移動部306では、仮想空間内で仮想的にロボットを移動させる。ロボット移動には、例えば、キーボードやマウス、ジョイスティックなどの入力手段を通して、前後左右の移動、及び回転操作を行い、その操作に応じて、仮想ロボットの位置・姿勢402を出力する。センサシミュレーション301からロボット位置推定303までの流れは、図3で説明したのと一緒である。地図更新部307では、補正センサデータ405と、それまでに作成した属性反映2次元地図406との照合処理を行うことで、ロボット位置407の推定を行い、この結果に基づき、補正センサデータ405を2次元地図206に統合することにより、逐次地図を拡大していく。ロボット位置推定303と地図更新307には、これら二つの計算を同時に実行するSLAM (Simultaneous Localization And Mapping)技術を用いる。   The virtual robot moving unit 306 virtually moves the robot in the virtual space. For the robot movement, for example, forward / backward / left / right movement and rotation operation are performed through input means such as a keyboard, a mouse, and a joystick, and the position / posture 402 of the virtual robot is output in accordance with the operation. The flow from the sensor simulation 301 to the robot position estimation 303 is the same as described with reference to FIG. The map update unit 307 estimates the robot position 407 by performing a matching process between the correction sensor data 405 and the attribute reflection two-dimensional map 406 created so far, and based on this result, the correction sensor data 405 is stored. By integrating into the two-dimensional map 206, the map is sequentially enlarged. For the robot position estimation 303 and the map update 307, SLAM (Simultaneous Localization And Mapping) technology that executes these two calculations simultaneously is used.

図5は、属性付き仮想空間モデルの例を示した図である。
形状は、現実世界と全く同じ状況を再現する。使用するセンサのセンサ特性により、取得データが実際の形状と異なる。このため、実際の形状と異なるデータが取得される可能性のある領域を設定し、その領域に対して属性を設定する。属性として、鏡、ガラス、すりガラス、凹凸素材、光吸収素材、色、温度、磁気、水、などが考えられる。
FIG. 5 is a diagram illustrating an example of a virtual space model with attributes.
The shape reproduces exactly the same situation as in the real world. The acquired data differs from the actual shape depending on the sensor characteristics of the sensor used. Therefore, an area where data different from the actual shape may be acquired is set, and an attribute is set for the area. As attributes, mirror, glass, ground glass, uneven material, light absorbing material, color, temperature, magnetism, water, etc. can be considered.

図6、図7は、センサデータ補正の例を示した図である。
レーザ距離センサの補正パラメータ404を適用した例を挙げる。
シミュレーションにて得られるセンサデータは、障害物の位置を表す点群であらわされるが、センサ位置から障害物までの距離と角度、属性有無種類情報が含まれる。
6 and 7 are diagrams showing examples of sensor data correction.
An example in which the correction parameter 404 of the laser distance sensor is applied will be described.
The sensor data obtained by the simulation is represented by a point group representing the position of the obstacle, and includes the distance and angle from the sensor position to the obstacle, and attribute presence / absence type information.

(1-1)は、鏡属性ありの点が含まれるセンサデータの例である。点501は、属性のないデータを表し、点502は鏡属性の付与されたデータとする。レーザ光は、鏡面で反射するため、”センサ位置から鏡までの距離+反射した先の障害物までの距離”が、実際に計測されるデータとなる。そこで、属性を反映したセンサデータ作成にあたり、属性なしの部分はそのままで、属性ありの部分は反射先の障害物までの距離に応じてデータを補正する。例えば、(1-2)に示すような補正データが作成される。   (1-1) is an example of sensor data including a point with a mirror attribute. A point 501 represents data without an attribute, and a point 502 is data with a mirror attribute. Since the laser beam is reflected by the mirror surface, the “distance from the sensor position to the mirror + the distance to the reflected obstacle” is actually measured data. Therefore, when creating sensor data reflecting the attribute, the portion without the attribute is left as it is, and the portion with the attribute is corrected according to the distance to the obstacle at the reflection destination. For example, correction data as shown in (1-2) is created.

(2-1)は、ガラス属性ありの点が含まれるデータの例である。レーザ光は、ガラスを透過するため、ガラスの先にある障害物までの距離が追加され、例えば、(2-2)に示すような補正データが作成される。   (2-1) is an example of data including a point with a glass attribute. Since the laser light passes through the glass, the distance to the obstacle at the tip of the glass is added, and for example, correction data as shown in (2-2) is created.

(3-1)は、素材1属性ありの点が含まれるデータの例である。センサ特性として、素材1を計測した時に、実際の距離より遠くに計測される場合の例を挙げている。(3-2)は、補正データの例である。   (3-1) is an example of data including a point with the material 1 attribute. As the sensor characteristics, an example is given in which when the material 1 is measured, it is measured farther than the actual distance. (3-2) is an example of correction data.

(4-1)は、素材2属性ありの点が含まれるデータの例である。センサ特性として、素材2を計測した時に、実際の面より凹凸が付加され計測される場合の例を挙げている。(4-2)は、補正データの例である。   (4-1) is an example of data including a point with the material 2 attribute. As the sensor characteristics, an example is given in which when the material 2 is measured, the measurement is performed with irregularities added from the actual surface. (4-2) is an example of correction data.

(5-1)は、移動体属性ありの点が含まれるデータの例である。次に計測した時に、その場所にはない可能性が高い。そこに障害物がある確度情報を点に付加する。(5-2)は、補正データの例である。   (5-1) is an example of data including a point with a moving object attribute. The next time it is measured, it is likely not at that location. The probability information that there is an obstacle there is added to the point. (5-2) is an example of correction data.

図8は、属性反映2次元環境地図の例を示した図である。
空間内の表面形状を正確に表した仮想空間2次元地図を510とする。3次元仮想空間モデルに付与した属性情報を仮想空間2次元地図に重ねた例を511とする。図4で説明した手順にて、環境地図を作成するにあたり、センサシミュレーションで取得したデータに、図6の(2-1)(2-2)や図7の(3-1)や(3-2)に例を挙げたように属性に応じた補正を行い、補正後の補正センサデータを順次統合することにより、属性反映2次元地図512が作成される。ガラス属性の付与されたものは地図から消え、素材1属性の付与されたものは縮小された状態で残る。
FIG. 8 is a diagram showing an example of the attribute reflection two-dimensional environment map.
A virtual space two-dimensional map that accurately represents the surface shape in the space is denoted by 510. An example in which the attribute information assigned to the three-dimensional virtual space model is superimposed on the virtual space two-dimensional map is 511. In creating the environmental map by the procedure described in FIG. 4, the data acquired by the sensor simulation is added to (2-1) (2-2) in FIG. 6, (3-1) and (3- As illustrated in 2), the attribute reflecting two-dimensional map 512 is created by performing correction according to the attribute and sequentially integrating the corrected sensor data after correction. Those with the glass attribute disappear from the map, and those with the material 1 attribute remain in a reduced state.

現実世界に忠実な形状をあらわしているのは510で示した地図であり、現実世界をセンサで計測したデータに忠実な形状をあらわしているのは512で示した地図となる。   The map shown by 510 shows a shape faithful to the real world, and the map shown by 512 shows a shape faithful to data obtained by measuring the real world with a sensor.

図9は、従来のシミュレーションの例を示した図である。   FIG. 9 is a diagram showing an example of a conventional simulation.

仮想空間内においてセンサから周辺障害物までの距離を測定し、センサデータを取得する。取得センサデータは、403に示すとおりである。シミュレーションでは、2次元環境地図と、取得センサデータ403の照合処理を行うことにより、自己位置を推定する。形状を正確に再現した3次元仮想空間データ内で取得したセンサデータと、形状を正確に再現した3次元仮想空間の断面図である2次元地図を用いるため、自己位置の推定を正しく行うことができる。このため、ロボット位置推定などのアルゴリズムの検証には、有効である。しかし、現実の世界とは、異なるセンサデータが得られるため、例えば、位置推定誤りの可能性や経路逸脱の可能性、経路妥当性の検証を行うには不向きである。   The distance from the sensor to the surrounding obstacle is measured in the virtual space, and sensor data is acquired. The acquired sensor data is as shown in 403. In the simulation, the self-position is estimated by performing a matching process between the two-dimensional environment map and the acquired sensor data 403. Because the sensor data acquired in the 3D virtual space data that accurately reproduces the shape and the 2D map that is a cross-sectional view of the 3D virtual space that accurately reproduces the shape, self-position estimation can be performed correctly. it can. Therefore, it is effective for verifying algorithms such as robot position estimation. However, since sensor data different from the real world can be obtained, it is not suitable for verifying, for example, the possibility of a position estimation error, the possibility of a route deviation, and the route validity.

図10は、本実施形態におけるシミュレーションの例を示した図である。   FIG. 10 is a diagram showing an example of simulation in the present embodiment.

属性を反映した仮想空間内においてセンサから周辺障害物までの距離を測定し、センサデータを取得する。取得センサデータは、403に示すとおりである。501は属性なしのセンサデータであり、502は属性ありのセンサデータである。点の一つ一つに、属性の有無及び、属性の種類を与える。取得センサデータ403の中で、属性の含まれる点に対して、属性の種類に応じた補正を行い、補正センサデータ405を作成する。シミュレーションでは、属性を反映した2次元環境地図512と、補正センサデータ405の照合処理を行うことにより、自己位置を推定する。形状を正確に再現し必要部分に属性を付加した3次元仮想空間データ内で取得したセンサデータと、その属性を反映して作成した2次元地図を用いるため、自己位置の推定を現実世界で実機で行ったときと同等の結果を得ることができる。このため、ロボット位置推定などのアルゴリズムの検証に有効であり、様々な環境の状況、及びロボットの状態に応じたロボットの挙動をシミュレートすることができる。   The sensor data is acquired by measuring the distance from the sensor to the surrounding obstacle in the virtual space reflecting the attribute. The acquired sensor data is as shown in 403. Reference numeral 501 denotes sensor data without an attribute, and reference numeral 502 denotes sensor data with an attribute. The presence or absence of an attribute and the type of attribute are given to each point. In the acquired sensor data 403, a correction is performed on a point including the attribute according to the type of the attribute to generate corrected sensor data 405. In the simulation, the self-position is estimated by performing a matching process between the two-dimensional environment map 512 reflecting the attribute and the correction sensor data 405. Uses sensor data acquired in 3D virtual space data that accurately reproduces the shape and adds attributes to necessary parts, and a 2D map created by reflecting those attributes, so that self-location estimation is performed in the real world. You can get the same results as you did in. For this reason, it is effective for verification of an algorithm such as robot position estimation, and it is possible to simulate the behavior of the robot in accordance with various environmental conditions and the robot state.

例えば、ロボット傾斜時の位置推定への影響を検証できる。床面の段差や床に置かれているものに乗り上げた時、ロボットが傾斜し、センサ面が床面と水平でなくなる。そこで、仮想ロボットを傾斜させる機能を備えることにより、ロボット傾斜時に取得したセンサデータが、地図生成時にどのような影響を及ぼすか、また、ロボット移動時の位置推定にどのような影響を及ぼすかを検証することができる。   For example, the influence on position estimation when the robot is tilted can be verified. When riding on a step on the floor or something placed on the floor, the robot tilts and the sensor surface is not level with the floor. Therefore, by providing a function to tilt the virtual robot, how the sensor data acquired when the robot tilts will affect when the map is generated, and how the position will be estimated when the robot moves. Can be verified.

例えば、ロボットに搭載するセンサ位置の検証もできる。センサ取り付け方法を変更する機能を備えることにより、センサ位置、例えば、センサの高さ、角度、ロボット中心からの距離などを変更した時の、地図生成時や位置推定に及ぼす影響を検証することができる。また更に、センサ個数を変更する機能を備えることにより、どの程度位置推定精度が向上するかを検証することも可能となる。   For example, the position of the sensor mounted on the robot can be verified. By providing a function to change the sensor mounting method, it is possible to verify the effect on map generation and position estimation when the sensor position, for example, sensor height, angle, distance from the robot center, etc., is changed. it can. Furthermore, it is possible to verify how much the position estimation accuracy is improved by providing the function of changing the number of sensors.

例えば、空間内に複数の移動物体(ロボット、人、など)が存在した時の、位置推定への影響及びロボット挙動への影響を検証することが出来る。センサ視野を遮断する移動物体の、大きさ、ロボットとの距離、動作が、ロボットの位置推定へどのくらい影響を及ぼすか検証ができ、また更に、移動物体がロボット進路を遮った場合のロボットの挙動、例えば、停止する、回避する、などの選択が適切であるか、なども検証することが出来る。   For example, it is possible to verify the influence on the position estimation and the influence on the robot behavior when a plurality of moving objects (robots, people, etc.) exist in the space. It is possible to verify how the size, distance from the robot, and movement of the moving object that blocks the sensor field of view affect the position estimation of the robot, and further, the behavior of the robot when the moving object blocks the path of the robot For example, it is possible to verify whether the selection of stopping or avoiding is appropriate.

例えば、複数の自律移動ロボットが同一環境内を移動する時の各ロボットの挙動も検証できる。ロボット同士が衝突する可能性があるか、それはどのような条件が重なった時か、ロボット同士がデッドロックを起こす可能性があるか、それはどこで起こる可能性が高いか、どのような条件が重なった時か、何台まで同時走行させることが出来るか、などを、シミュレーションにより検証することができる。   For example, the behavior of each robot when a plurality of autonomous mobile robots move in the same environment can be verified. There is a possibility that the robots may collide, what kind of conditions are overlapped, whether the robots are likely to cause a deadlock, where is likely to happen, and what are the overlapping conditions It is possible to verify by simulation how many vehicles can be run at the same time.

また更に、経路逸脱の可能性、経路妥当性の検証にも有効である。   Furthermore, it is also effective for verifying the possibility of route deviation and route validity.

また更に、2次元環境地図妥当性の検証にも有効である。現実空間で実機を用いて計測した距離データに基づき2次元環境地図を作成する。シミュレーションでは、現実空間を模擬して作成した仮想空間を準備し、仮想空間内を走行する仮想ロボットに搭載されたセンサで距離データを取得し、前記取得距離データに属性を反映させた属性反映距離データと、現実空間の2次元環境地図との照合処理により、仮想ロボットの位置及び方向を推定する。仮想空間内のロボット位置・方向と、前記推定ロボット位置・方向とを比較することにより、2次元環境地図の妥当性の検証や、位置推定アルゴリズムの検証を行う。現実空間で作成した2次元環境地図は、一部を修正・追加・削除可能とする。また更に、現実空間での物体の移動状態を基に作成した仮想移動物体を、シミュレーション対象となる仮想空間に追加する手段を備えることにより、より現実に即した動作検証を行うことが出来る。   It is also effective for verifying the validity of the two-dimensional environmental map. A two-dimensional environment map is created based on distance data measured using a real machine in real space. In simulation, a virtual space created by simulating a real space is prepared, distance data is acquired by a sensor mounted on a virtual robot that travels in the virtual space, and an attribute reflection distance in which attributes are reflected in the acquired distance data The position and direction of the virtual robot are estimated by collating the data with the two-dimensional environment map in the real space. The validity of the two-dimensional environment map and the position estimation algorithm are verified by comparing the robot position / direction in the virtual space with the estimated robot position / direction. A part of the two-dimensional environment map created in the real space can be modified, added, and deleted. Furthermore, by providing a means for adding a virtual moving object created based on the moving state of the object in the real space to the virtual space to be simulated, it is possible to perform a more realistic operation verification.

本実施形態における自律移動シミュレーションは、実機に用いるアルゴリズムを用いて仮想ロボットを移動させることが可能であり、実際のロボットを導入した時の影響をPC内で評価することができる。   In the autonomous movement simulation in this embodiment, a virtual robot can be moved using an algorithm used for a real machine, and the influence when an actual robot is introduced can be evaluated in a PC.

400・・・仮想空間モデル、401・・・属性付き仮想空間モデル、402・・仮想ロボット位置・姿勢、403・・・センサデータ、404・・・センサデータ補正モデル、405・・・補正センサデータ、406・・・属性反映2次元環境地図、406−a・・・2次元環境地図、407・・・仮想ロボット推定位置・姿勢、408・・・経路データ、501・・・属性なし点群データ、502・・・属性あり点群データ 400 ... Virtual space model, 401 ... Virtual space model with attributes, 402 ... Virtual robot position / posture, 403 ... Sensor data, 404 ... Sensor data correction model, 405 ... Correction sensor data , 406 ... attribute reflection two-dimensional environment map, 406-a ... two-dimensional environment map, 407 ... virtual robot estimated position / posture, 408 ... route data, 501 ... attributeless point cloud data , 502 ... Attributed point cloud data

Claims (3)

空間の3次元形状を再現し属性を付加した属性付き仮想空間モデルと、前記仮想空間モデル内のロボットの位置および姿勢とを入力とし、前記ロボットに搭載されたセンサで取得できるデータをシミュレーションするセンサシミュレーション部と、
前記センサで取得した取得センサデータに、属性が付加されている点が含まれるかどうか判定し、前記属性が含まれている点群に対して、センサデータ補正パラメータに応じた補正を行い、補正センサデータを出力するセンサデータ補正部と、
前記出力補正センサデータおよび属性反映2次元環境地図とを入力とし、両データの照合処理により2次元環境地図内のロボットの位置姿勢を推定し、仮想ロボット推定位置および姿勢データを出力する仮想ロボット位置・姿勢推定部と、
前記推定仮想ロボット位置および姿勢と、予め設定した経路データを入力とし、次の移動先を決定する移動目標位置決定部と、
決定された値に応じて仮想ロボット位置および姿勢を更新する移動部、とを備えることを特徴としたシミュレーションシステム。
A sensor that simulates data that can be obtained by a sensor mounted on the robot, using as input the attributed virtual space model that reproduces the three-dimensional shape of the space and adds attributes, and the position and orientation of the robot in the virtual space model A simulation section;
It is determined whether or not a point with an attribute is included in the acquired sensor data acquired by the sensor, and correction according to a sensor data correction parameter is performed on the point group including the attribute. A sensor data correction unit for outputting sensor data;
A virtual robot position that receives the output correction sensor data and the attribute-reflecting two-dimensional environment map as input, estimates the position and orientation of the robot in the two-dimensional environment map by collating both data, and outputs the virtual robot estimated position and posture data・ Attitude estimation unit,
The estimated virtual robot position and posture, and preset route data as inputs, and a movement target position determination unit that determines a next movement destination;
A simulation system comprising: a moving unit that updates a virtual robot position and posture according to a determined value.
請求項1に記載の前記属性付き仮想空間モデルは、一つ又は複数のセンサを用いて実空間を計測し、計測した値に基づき形状を再現することを特徴とするシミュレーションシステム。   2. The simulation system according to claim 1, wherein the attributed virtual space model measures a real space using one or a plurality of sensors, and reproduces a shape based on the measured values. 請求項1に記載の前記属性付き仮想空間モデルは、形状を再現した仮想空間モデルに、センサによって計測データに変化の生じる領域に対して属性を設定することにより作成することを特徴とするシミュレーションシステム。   2. The simulation system according to claim 1, wherein the attributed virtual space model is created by setting an attribute for a region where measurement data is changed by a sensor in a virtual space model in which a shape is reproduced. .
JP2009254561A 2009-11-06 2009-11-06 Simulation system Expired - Fee Related JP5414465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009254561A JP5414465B2 (en) 2009-11-06 2009-11-06 Simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009254561A JP5414465B2 (en) 2009-11-06 2009-11-06 Simulation system

Publications (2)

Publication Number Publication Date
JP2011100306A true JP2011100306A (en) 2011-05-19
JP5414465B2 JP5414465B2 (en) 2014-02-12

Family

ID=44191428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009254561A Expired - Fee Related JP5414465B2 (en) 2009-11-06 2009-11-06 Simulation system

Country Status (1)

Country Link
JP (1) JP5414465B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102062B2 (en) 2012-10-30 2015-08-11 Samsung Techwin Co., Ltd. Apparatus and method for planning path of robot, and the recording media storing the program for performing the method
JP2015225672A (en) * 2014-05-27 2015-12-14 ディスペース デジタル シグナル プロセッシング アンド コントロール エンジニアリング ゲゼルシャフト ミット ベシュレンクテル ハフツングdspace digital signal processing and control engineering GmbH Method and device for testing control unit
JP2017170584A (en) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 Robot action simulation device
WO2021024685A1 (en) * 2019-08-05 2021-02-11 ソニー株式会社 Information processing device, information processing method, information processing program
JP2021168127A (en) * 2020-04-30 2021-10-21 北京百度網訊科技有限公司 Information generating method, information generating device, electronic device, recording medium, and computer program
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
WO2022124477A1 (en) * 2020-12-07 2022-06-16 삼성전자주식회사 Electronic device and control method therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2005242489A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd System and program of operation control for autonomous mobile body
JP2005322002A (en) * 2004-05-07 2005-11-17 Kazuo Iwane Compound artificial intelligence device
JP2009223757A (en) * 2008-03-18 2009-10-01 Toyota Motor Corp Autonomous mobile body, control system, and self-position estimation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2005242489A (en) * 2004-02-24 2005-09-08 Matsushita Electric Works Ltd System and program of operation control for autonomous mobile body
JP2005322002A (en) * 2004-05-07 2005-11-17 Kazuo Iwane Compound artificial intelligence device
JP2009223757A (en) * 2008-03-18 2009-10-01 Toyota Motor Corp Autonomous mobile body, control system, and self-position estimation method

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
CSNC200902266450; 國井康晴, 外2名: '"ローバシステム開発に向けた仮想ローバシミュレータの構築"' 第21回日本ロボット学会学術講演会予稿集CD-ROM 2003年 , 20030920, p.1-2, 社団法人日本ロボット学会 *
CSND200601118003; 稲葉雅幸, 外3名: '"ヒューマノイドロボットのシステム実現 -ロボットシステム記述言語EusLispによる実装-"' コンピュータソフトウェア 第23巻, 第2号, 20060426, p.45-61, 日本ソフトウェア科学会 *
CSNG200202329012; 高梨賢一, 外2名: '"画像理解のための4次元空間シミュレータ"' 電子情報通信学会技術研究報告 第97巻, 第596号, 19980313, p.89-96, 社団法人電子情報通信学会 *
CSNJ200610058129; 横井陽, 外2名: '"自律分散型ロボットによる清掃作業における清掃領域内の移動経路計画方法"' (社)日本経営工学会平成15年度秋季研究大会予稿集 , 20031018, p.262-263 *
JPN6013037614; 稲葉雅幸, 外3名: '"ヒューマノイドロボットのシステム実現 -ロボットシステム記述言語EusLispによる実装-"' コンピュータソフトウェア 第23巻, 第2号, 20060426, p.45-61, 日本ソフトウェア科学会 *
JPN6013037616; 横井陽, 外2名: '"自律分散型ロボットによる清掃作業における清掃領域内の移動経路計画方法"' (社)日本経営工学会平成15年度秋季研究大会予稿集 , 20031018, p.262-263 *
JPN6013037617; 國井康晴, 外2名: '"ローバシステム開発に向けた仮想ローバシミュレータの構築"' 第21回日本ロボット学会学術講演会予稿集CD-ROM 2003年 , 20030920, p.1-2, 社団法人日本ロボット学会 *
JPN6013037618; 高梨賢一, 外2名: '"画像理解のための4次元空間シミュレータ"' 電子情報通信学会技術研究報告 第97巻, 第596号, 19980313, p.89-96, 社団法人電子情報通信学会 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102062B2 (en) 2012-10-30 2015-08-11 Samsung Techwin Co., Ltd. Apparatus and method for planning path of robot, and the recording media storing the program for performing the method
JP2015225672A (en) * 2014-05-27 2015-12-14 ディスペース デジタル シグナル プロセッシング アンド コントロール エンジニアリング ゲゼルシャフト ミット ベシュレンクテル ハフツングdspace digital signal processing and control engineering GmbH Method and device for testing control unit
JP2020102225A (en) * 2014-05-27 2020-07-02 ディスペース デジタル シグナル プロセッシング アンド コントロール エンジニアリング ゲゼルシャフト ミット ベシュレンクテル ハフツングdspace digital signal processing and control engineering GmbH Method and device for testing control unit
JP6995393B2 (en) 2014-05-27 2022-01-14 ディスペース ゲー・エム・ベー・ハー Methods and equipment for testing control units
JP2017170584A (en) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 Robot action simulation device
WO2021024685A1 (en) * 2019-08-05 2021-02-11 ソニー株式会社 Information processing device, information processing method, information processing program
JP2021168127A (en) * 2020-04-30 2021-10-21 北京百度網訊科技有限公司 Information generating method, information generating device, electronic device, recording medium, and computer program
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
JP7452706B2 (en) 2020-12-01 2024-03-19 オムロン株式会社 Apparatus and method for simulating mobile robots at work sites
WO2022124477A1 (en) * 2020-12-07 2022-06-16 삼성전자주식회사 Electronic device and control method therefor

Also Published As

Publication number Publication date
JP5414465B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5414465B2 (en) Simulation system
US11059174B2 (en) System and method of controlling obstacle avoidance of robot, robot and storage medium
US9239580B2 (en) Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
CN104908038A (en) Robot simulation system which simulates takeout process of workpieces
CN109961504A (en) Method for reconstructing three-dimensional model, electronic device and non-transient computer-readable recording medium
JP5902275B1 (en) Autonomous mobile device
CN103630071A (en) Methods and systems for inspecting a workpiece
KR20100027683A (en) Path planning device and method for the autonomous mobile robot
JP2016024598A (en) Control method of autonomous mobile apparatus
JP7097251B2 (en) Construction management system
CN114236564B (en) Method for positioning robot in dynamic environment, robot, device and storage medium
US20220019939A1 (en) Method and system for predicting motion-outcome data of a robot moving between a given pair of robotic locations
Garrote et al. 3D point cloud downsampling for 2D indoor scene modelling in mobile robotics
Csaba et al. Differences between Kinect and structured lighting sensor in robot navigation
JP5629883B2 (en) Shape measuring apparatus, shape measuring method, and shape measuring program
JP6759625B2 (en) Measuring device
Balakirsky et al. From simulation to real robots with predictable results: methods and examples
WO2021024665A1 (en) Information processing system, information processing device, and information processing method
JP2021114222A (en) Robot system and method of estimating its position
Kumar Development of SLAM algorithm for a Pipe Inspection Serpentine Robot
JP7452706B2 (en) Apparatus and method for simulating mobile robots at work sites
KR20140116623A (en) Method and robot for drawing a map based on location anticipation
WO2023189721A1 (en) Information processing device, information processing method, and information processing program
Gill et al. Design, development and validation of sensors for a Simulation Environment for Autonomous Robots
Trow Channel Islands

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131112

R151 Written notification of patent or utility model registration

Ref document number: 5414465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees