JP2021114222A - ロボットシステムおよびその位置推定方法 - Google Patents
ロボットシステムおよびその位置推定方法 Download PDFInfo
- Publication number
- JP2021114222A JP2021114222A JP2020007365A JP2020007365A JP2021114222A JP 2021114222 A JP2021114222 A JP 2021114222A JP 2020007365 A JP2020007365 A JP 2020007365A JP 2020007365 A JP2020007365 A JP 2020007365A JP 2021114222 A JP2021114222 A JP 2021114222A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- reflection rate
- sensor
- server
- irradiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000132092 Aster Species 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
センサを有する第1のロボット、第2のロボットおよび、前記第1のロボットおよび前記第2のロボットと通信回線を介して接続されるサーバを有し、前記サーバが、地図情報と前記センサで検知された検知情報を照合して、前記第1および第2のロボットの位置を推定する位置推定部と、前記第1のロボットおよび前記第2のロボットの位置関係を示す位置関係情報を用いて、前記第2のロボットが前記第1のロボットのセンサの照射範囲で検知ないし映り込む確率を示す映り込み率を算出し、算出された前記映り込み率に応じて、前記第1のロボットのセンサの照射方向を特定するセンサ方向制御部とを有する。
入力トピック:なし
出力トピック:LiDARセンサ101での計測データ
回転台駆動プログラム1020は、モータ駆動回路106に対して制御信号を出力し、回転台102の回転を制御するプログラムであり、そのROSトピックは以下のとおりである。
入力トピック:回転台102の向き
出力トピック:なし
クローラ駆動プログラム1030は、モータ駆動回路106に対して制御信号を出力し、クローラ103の駆動を制御するプログラムであり、そのROSトピックは以下のとおりである。また、クローラ103の駆動には、ロボット100の移動量と回転角度を左右のクローラ103の回転量に変換し、左右のクローラ103を回転させることが含まれる。
入力トピック:ロボット100の移動量と回転角度
出力トピック:なし
アーム駆動プログラム1040は、モータ駆動回路106に対して制御信号を出力し、アーム104の駆動(例えば、関節の回転、移動)を制御するプログラムであり、そのROSトピックは以下のとおりである。
入力トピック:アーム104関節の回転角
出力トピック:なし
ステレオカメラ画像送信プログラム1050は、ステレオカメラ105で撮像された画像を取得し、サーバ110など外部に送信するプログラムであり、そのROSトピックは以下のとおりである。
入力トピック:なし
出力トピック:ステレオカメラ105の画像
なお、アームロボット100−1ではステレオカメラ画像送信プログラム1050を、カメラロボット100−2ではアーム駆動プログラム1040の保持をそれぞれ省略してもよい。
入力:ファイルに格納された点群地図
出力トピック:点群地図
自己位置推定プログラム1102は、ロボットの位置を推定する処理を実行するプログラムである。その内容は、点群地図と、LiDARセンサ101からの計測データ(点群)とを、スキャンマッチングと呼ばれる手法を用いて照合することで行う。スキャンマッチングアルゴリズムとして、NDT(Normal Distributions Transform)やICP(Iterative Closest Point)等を用いることが可能である。これらにおいては、短い時間間隔で取得した点群A、点群B、…、点群Zの位置合わせを行うことで、点群A、点群B、…、点群Zそれぞれに対するロボットの相対位置・姿勢を推定することになる。また、この技術を用いることで、点群地図を作成できる。さらに、NDTでは、地図空間をボクセル(立方体)に区切り、ボクセル毎の点の集合を正規分布で近似する。このため、計算量はセンサから得られる点群のサイズに比例し地図の大きさに依存しない処理ができる。
入力トピック:点群地図
入力トピック:LiDARセンサ101の計測データ
出力トピック:ロボット100の位置と姿勢
回転台制御プログラム1103は、回転台102に乗ったLiDARセンサ101−1あるいは101−2の方向を指示するプログラムある。回転台制御プログラム1103は、センサLiDAR101の照射範囲内に存在する他のロボット100の映り込み率を算出し、それが低くなるような(例えば、一定値以下や算出される映り込み率が最小)、回転台102の向きを求めて送信する。ここで、回転台102の向きは、後述するように最小映り込み率角度として算出される。なお、本プログラムの処理の詳細(映り込み率の算出)についても後述する。送信された回転台102の向きは、前述した、回転台駆動プログラム1020で受信され、回転台102の向きへと反映される。本プログラムでのROSトピックは以下のとおりである。
入力トピック:ロボット100の位置と姿勢
出力トピック:回転台102の向き(最小映り込み率角度)
経路生成プログラム1104は、点群地図上でロボット100の移動経路を求める。移動経路を求めるため、まずロボット100の目的地を入力デバイス140からの指定を受け付ける(例えば、マウスクリック)。そして、現在位置から目的値までの経路を10cm等の一定間隔の点でつないだリストとして出力する。また、点群地図上、点が一定以上密集している場所をロボット100が通行不能な障害物(壁)とみなし、障害物がない空間を対象に、ダイクストラ法、エースター法などのアルゴリズムを用い経路を求める。なお、本プログラムでのROSトピックは以下のとおりである。
入力トピック:点群地図
入力トピック:ロボット100の位置と姿勢
入力トピック(マウスクリック等の受け付け):目的地
出力トピック:経路(10cm間隔の点のリスト)
クローラ制御プログラム1105は、現在のロボット100の位置・姿勢から次の点に向かわせるのに必要なロボット100の移動量と回転角度を求める。つまり、クローラ103の動作を制御するために必要な情報を求める。なお、ロボット100の移動量と回転角度は、ロボット100のクローラ駆動プログラム1030で出力される制御信号を生成するために用いられる。また、クローラ制御プログラム1105が制御信号を生成したり、ロボット100の移動量と回転角度に基づく制御指令を生成したりしてもよい。なお、ロボット100の駆動方式は、クローラに限定されないため、クローラ制御プログラム1105は移動制御プログラムとも称することが可能である。また、本プログラムでのROSトピックは以下のとおりである。
入力トピック:経路
入力トピック:ロボットの位置と姿勢
出力トピック:ロボットの移動量と回転角度
アーム制御プログラム1106は、入力デバイス140の例えば、Joystickを用いた、アーム104の関節角度の指定を受け付け、その回転角を算出する。なお、本プログラムでのROSトピックは以下のとおりである。
入力トピック:ジョイスティックからの入力情報
出力トピック:アーム関節の回転角
ステレオマッチングプログラム1107は、ステレオカメラ105の画像からステレオマッチングアルゴリズムを用いて3D点群を生成する。なお、本プログラムでのROSトピックは以下のとおりである。
入力トピック:ステレオカメラ105の画像
出力トピック:3D点群
画面表示プログラム1108は、ディスプレイ130の画面に、点群地図、ロボット100の位置・姿勢、経路、回転台102の向き、3D点群などの情報を重畳表示する。なお、表示する情報はこれらに限定されず、また、表示の形式も重畳表示に限定されない。また、本プログラムでのROSトピックは以下のとおりである。
入力トピック:点群地図
入力トピック:ロボット100の位置・姿勢
入力トピック:経路
入力トピック:回転台102の向き
入力トピック:3D点群
出力トピック:なし
なお、上述のロボット100、サーバ110の各プログラムは1つのプログラムとして構成し、それぞれをプログラムモジュールとしてもよい。さらに、サーバ110の機能(プログラム)を、ロボット100の少なくとも1つに設け、自律的にロボット100が他のロボットも含め制御してもよい。
(処理1)
次に、回転台制御プログラム1103は、点群地図管理プログラム1101で配信される点群地図を座標変換し、LiDAR座標系上に、オブジェクトを描画する。ここでの描画されるオブジェクトは、図4の壁オブジェクト420と柱オブジェクト421である。なお、本実施例での描画、線を引くなどは、可視化しなくともよく、シミュレーションでの演算上の処理であればよい。
(処理2)
回転台制御プログラム1103は、LiDARセンサ101−1のレーザ照射を計算機上でシミュレートして、センサ照射範囲のうち、カメラロボットオブジェクト401、402それぞれが映り込む割合を求める。
Claims (15)
- 複数のロボットが連携することで、所定の機能を実行するロボットシステムにおいて、
センサを有する第1のロボット、第2のロボットおよび、前記第1のロボットおよび前記第2のロボットと通信回線を介して接続されるサーバを有し、
前記サーバが、
地図情報と前記センサで検知された検知情報を照合して、前記第1および前記第2のロボットの位置を推定する位置推定部と、
前記第1のロボットおよび前記第2のロボットの位置関係を示す位置関係情報を用いて、前記第2のロボットが前記第1のロボットのセンサの照射範囲で検知ないし映り込む確率を示す映り込み率を算出し、算出された前記映り込み率に応じて、前記第1のロボットのセンサの照射方向を特定するセンサ方向制御部とを有することを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムにおいて、
前記センサ方向制御部は、
複数の照射方向それぞれにおいて、前記第2のロボットが前記照射範囲において検知ないし映り込む個別映り込み率を求め、求められた前記個別映り込み率から前記映り込み率を算出することを特徴とするロボットシステム。 - 請求項2に記載のロボットシステムにおいて、
前記センサ方向制御部は、
前記映り込み率として、前記個別映り込み率のうち最も小さい個別映り込み率を用い、
前記センサの照射方向として、前記最も小さい個別映り込み率の照射方向である最小映り込み率角度を用いることを特徴とするロボットシステム。 - 請求項1に記載のロボットシステムにおいて、
前記サーバは、
さらに、前記第2のロボットを、前記センサの照射方向での照射範囲を特定する情報を用いて、前記照射範囲を避けて移動する移動方向を特定する移動制御部を有することを特徴とするロボットシステム。 - 請求項3に記載のロボットシステムにおいて、
前記センサ方向制御部は、前記第1のロボットおよび前記第2のロボットそれぞれの最小映り込み率角度を算出し、
前記サーバは、さらに、算出された各最小映り込み率角度を足し合わせた結果を用いて、前記第1のロボットおよび前記第2のロボットの移動順序を決定する経路生成部を有することを特徴とするロボットシステム。 - ロボットシステムを構成する少なくとも1つのロボットの位置を推定するロボットシステムでの位置推定方法において、
前記ロボットシステムは、センサを有する第1のロボット、第2のロボットおよび、前記第1のロボットおよび前記第2のロボットと通信回線を介して接続されるサーバを有し、
前記サーバによる、
地図情報と前記センサで検知された検知情報を照合して、前記第1および第2のロボットの位置を推定するステップと、
前記第1のロボットおよび前記第2のロボットの位置関係を示す位置関係情報を用いて、前記第2のロボットが前記第1のロボットのセンサの照射範囲で検知ないし映り込む確率を示す映り込み率を算出するステップと、
算出された前記映り込み率に応じて、前記第1のロボットのセンサの照射方向を特定するステップを有することを特徴とするロボットシステムでの位置推定方法。 - 請求項6に記載のロボットシステムでの位置推定方法において、
前記サーバによる、
複数の照射方向それぞれにおいて、前記第2のロボットが前記照射範囲において検知ないし映り込む個別映り込み率を求め、求められた前記個別映り込み率から前記映り込み率を算出するステップを有することを特徴とするロボットシステムでの位置推定方法。 - 請求項7に記載のロボットシステムでの位置推定方法において、
前記映り込み率として、前記個別映り込み率のうち最も小さい個別映り込み率を用い、
前記センサの照射方向として、前記最も小さい個別映り込み率の照射方向である最小映り込み率角度を用いることを特徴とするロボットシステムでの位置推定方法。 - 請求項6に記載のロボットシステムでの位置推定方法において、
前記サーバによる、
前記第2のロボットを、前記センサの照射方向での照射範囲を特定する情報を用いて、前記照射範囲を避けて移動する移動方向を特定するステップを有することを特徴とするロボットシステムでの位置推定方法。 - 請求項8に記載のロボットシステムでの位置推定方法において、
前記サーバによる、
前記第1のロボットおよび前記第2のロボットそれぞれの最小映り込み率角度を算出するステップと、
算出された各最小映り込み率角度を足し合わせた結果を用いて、前記第1のロボットおよび前記第2のロボットの移動順序を決定するステップを有することを特徴とするロボットシステムでの位置推定方法。 - 複数のロボットが連携することで、所定の機能を実行するロボットシステムを構成するサーバ装置において、
前記ロボットシステムを構成するセンサを有する第1のロボットおよび第2のロボットとネットワークを介して接続するネットワーク接続部と、
地図情報と前記センサで検知された検知情報を照合して、前記第1および第2のロボットの位置を推定する位置推定部と、
前記第1のロボットおよび前記第2のロボットの位置関係を示す位置関係情報を用いて、前記第2のロボットが前記第1のロボットのセンサの照射範囲で検知ないし映り込む確率を示す映り込み率を算出し、算出された前記映り込み率に応じて、前記第1のロボットの前記センサの照射方向を特定するセンサ方向制御部とを有することを特徴とするサーバ装置。 - 請求項11に記載のサーバ装置において、
前記センサ方向制御部は、
複数の照射方向それぞれにおいて、前記第2のロボットが前記照射範囲において検知ないし映り込む個別映り込み率を求め、求められた前記個別映り込み率から前記映り込み率を算出することを特徴とするサーバ装置。 - 請求項12に記載のサーバ装置において、
前記センサ方向制御部は、
前記映り込み率として、前記個別映り込み率のうち最も小さい個別映り込み率を用い、
前記センサの照射方向として、前記最も小さい個別映り込み率の照射方向である最小映り込み率角度を用いることを特徴とするサーバ装置。 - 請求項11に記載のサーバ装置において、
さらに、前記第2のロボットを、前記センサの照射方向での照射範囲を特定する情報を用いて、前記照射範囲を避けて移動する移動方向を特定する移動制御部を有することを特徴とするサーバ装置。 - 請求項13に記載のサーバ装置において、
前記センサ方向制御部は、前記第1のロボットおよび前記第2のロボットそれぞれの最小映り込み率角度を算出し、
さらに、算出された各最小映り込み率角度を足し合わせた結果を用いて、前記第1のロボットおよび前記第2のロボットの移動順序を決定する経路生成部を有することを特徴とするサーバ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007365A JP7393217B2 (ja) | 2020-01-21 | 2020-01-21 | ロボットシステムおよびその位置推定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007365A JP7393217B2 (ja) | 2020-01-21 | 2020-01-21 | ロボットシステムおよびその位置推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021114222A true JP2021114222A (ja) | 2021-08-05 |
JP7393217B2 JP7393217B2 (ja) | 2023-12-06 |
Family
ID=77077066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007365A Active JP7393217B2 (ja) | 2020-01-21 | 2020-01-21 | ロボットシステムおよびその位置推定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7393217B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230057784A (ko) * | 2021-10-22 | 2023-05-02 | 롯데정보통신 주식회사 | 로봇 관제 시스템 및 이의 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065308A (ja) * | 2009-09-16 | 2011-03-31 | Hitachi Ltd | 自律移動システム及び自律移動装置 |
JP2011150443A (ja) * | 2010-01-20 | 2011-08-04 | Hitachi Plant Technologies Ltd | ロボットおよびロボットシステム |
-
2020
- 2020-01-21 JP JP2020007365A patent/JP7393217B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065308A (ja) * | 2009-09-16 | 2011-03-31 | Hitachi Ltd | 自律移動システム及び自律移動装置 |
JP2011150443A (ja) * | 2010-01-20 | 2011-08-04 | Hitachi Plant Technologies Ltd | ロボットおよびロボットシステム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230057784A (ko) * | 2021-10-22 | 2023-05-02 | 롯데정보통신 주식회사 | 로봇 관제 시스템 및 이의 제어 방법 |
KR102562044B1 (ko) * | 2021-10-22 | 2023-07-31 | 롯데정보통신 주식회사 | 로봇 관제 시스템 및 이의 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP7393217B2 (ja) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10705528B2 (en) | Autonomous visual navigation | |
Surmann et al. | An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments | |
JP4738472B2 (ja) | 障害物回避機能を有する移動制御装置 | |
JP5276931B2 (ja) | 移動体および移動体の位置推定誤り状態からの復帰方法 | |
US10131446B1 (en) | Addressing multiple time around (MTA) ambiguities, particularly for lidar systems, and particularly for autonomous aircraft | |
KR102056147B1 (ko) | 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치 | |
WO2014178273A1 (ja) | 自律移動体の移動制御装置、自律移動体及び移動制御方法 | |
JP7209861B2 (ja) | ロボット車両の積荷フットプリントの協働決定 | |
US20240061436A1 (en) | Moving apparatus and moving apparatus control method | |
Smith et al. | PiPS: Planning in perception space | |
JP7393217B2 (ja) | ロボットシステムおよびその位置推定方法 | |
Chikhalikar et al. | An object-oriented navigation strategy for service robots leveraging semantic information | |
JP2010061483A (ja) | 自走移動体及び自走移動体の目的位置設定方法 | |
CN113125795A (zh) | 一种障碍物速度检测方法、装置、设备和存储介质 | |
US20240255956A1 (en) | Information processing device, information processing system, information processing method, and program | |
CN116007623A (zh) | 机器人导航方法、装置和计算机可读存储介质 | |
JP5895682B2 (ja) | 障害物検出装置及びそれを備えた移動体 | |
Nakagomi et al. | 3D scan matching for mobile robot localization over rough terrain | |
Mason et al. | The golem group/university of california at los angeles autonomous ground vehicle in the darpa grand challenge | |
Berdich et al. | Master-slave tracking system for mobile robots | |
Sánchez-Montero et al. | Reinforcement and Curriculum Learning for Off-Road Navigation of an UGV with a 3D LiDAR | |
WO2023219058A1 (ja) | 情報処理方法、情報処理装置及び情報処理システム | |
Bhave et al. | Automating the Operation of a 3D-Printed Unmanned Ground Vehicle in Indoor Environments | |
Rudzinska et al. | An interactive system for mobile robot navigation | |
US20240271941A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |