JP5586967B2 - ロボットおよびロボットシステム - Google Patents

ロボットおよびロボットシステム Download PDF

Info

Publication number
JP5586967B2
JP5586967B2 JP2010009632A JP2010009632A JP5586967B2 JP 5586967 B2 JP5586967 B2 JP 5586967B2 JP 2010009632 A JP2010009632 A JP 2010009632A JP 2010009632 A JP2010009632 A JP 2010009632A JP 5586967 B2 JP5586967 B2 JP 5586967B2
Authority
JP
Japan
Prior art keywords
robot
unit
result
measurement
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010009632A
Other languages
English (en)
Other versions
JP2011150443A (ja
Inventor
宣隆 木村
俊夫 守屋
豊 吉田
芳治 冨岡
英昭 古野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010009632A priority Critical patent/JP5586967B2/ja
Publication of JP2011150443A publication Critical patent/JP2011150443A/ja
Application granted granted Critical
Publication of JP5586967B2 publication Critical patent/JP5586967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、ロボットおよびロボットシステムに関する。
周囲空間の状態に応じた自律的な行動をロボットにさせるためには、周囲空間の情報を取得するセンサをロボットに搭載する必要があり、そのようなセンサの1つに距離センサがある。物体までの距離を計測し、それらの計測結果を統合することで、周囲空間の形状を取得できる。さらに、あらかじめ用意された空間地図と取得した周囲空間の形状とを照合することで、地図上におけるロボットの位置姿勢を推定することが可能となる。この手法は、ロボット自身が持つ距離センサと空間地図のみで位置姿勢推定を実現するところに特徴がある(非特許文献1)。
また、複数のロボットが存在する場合に、他ロボットの位置姿勢を知る手法がある。例えば、各ロボットが通信機器を搭載し、それぞれが自分の位置姿勢を認識した結果を通信し合うことにより他ロボットの位置姿勢を知る手法がある。また、各ロボットに2次元バーコードやRFIDタグなどの識別マーカを添付し、さらに各ロボットにそれらを検出する機器を搭載することで、ロボットの位置を検出する手法がある。また、距離センサで取得した空間形状の中から他ロボットの面や辺の形状を探索して検出することにより、他ロボットの位置姿勢を推定する手法がある(特許文献1)。
特開2009−80804号公報
テンプレートマッチングを用いた環境認識による移動ロボットの制御(著: 栗田高裕他、第25回日本ロボット学会学術講演会予稿集、2NI8)
非特許文献1記載の技術では、複数のロボットが同一の空間に存在する場合に、ロボットが周囲空間を計測した結果には他ロボットを計測した結果が含まれてしまう。そのため、空間地図と計測結果との形状が合わずに位置姿勢の推定に失敗する、という課題がある。これを回避するためには、周囲空間の計測結果から他ロボットを計測した結果を分離する必要がある。
一方、特許文献1記載の技術では、他ロボットの位置姿勢を知ることが出来る。しかし、ロボット間通信を利用する方法については、システムの複雑化やコスト増を招いてしまう。特に、無線LANなどの利用においては基地局などの通信インフラ整備も必要となり、計測結果と地図との照合によってインフラを用いることなくロボットの位置姿勢を推定することが出来ない。新たに情報機器を搭載するシステムでも同様に、システムの複雑化やコスト増を招く。また、全体の空間形状から他ロボットの面や辺の形状を探索する手法については、他ロボットの面や辺の形状が単純なものである場合は、空間内に存在する似た形状を持つ他の物体と誤認識する可能性が高い。逆に、他ロボットの面や辺が複雑な形状をしている場合は、計測の解像度や測距誤差の影響により計測結果が複雑な形状を再現できずに認識できない可能性が高くなる。また、計測結果全体から特徴を探索するため演算コストも高い。
従って、特許文献1記載の技術では、通信機器や他の情報機器を別途搭載した複雑なシステムを構築する必要があり、そうでなければ、誤認識が多く、演算コストも高くなるという課題がある。
上記課題を解決するために、本発明の一態様は、以下の構成を備える。即ち、第1のロボットと第2のロボットとを備えるロボットシステムであって、前記第1のロボットは、物体の位置と反射光強度を計測する計測部と、前記計測部により得られた計測結果を解析する演算部と、前記第1のロボットを移動させる駆動部と、を備え、前記第2のロボットは再帰性反射特性を有する複数のマーカを備え、複数の前記マーカは、前記第1のロボットが前記計測部を用いて前記第2のロボットを任意の方向から計測しても2個以上計測されるように、配置され、前記第1のロボットの前記演算部は、前記計測部の計測結果に基づき前記第2のロボットの複数の前記マーカの位置を認識し、前記マーカの位置の認識の結果に基づき第2のロボットの位置および姿勢を認識し、前記計測部の計測結果と前記第2のロボットの位置および姿勢の認識の結果と空間地図とに基づき前記第1のロボットの位置および姿勢を認識し、前記第1のロボットの位置および姿勢の認識の結果に基づき前記第1のロボットを移動させるためのパラメータを算出し、前記第1のロボットの前記駆動部は、前記パラメータに基づき前記第1のロボットを移動させる。
また、本発明の別の一態様は、以下の構成を備える。即ち、他のロボットを計測して移動するロボットであって、 物体の位置と反射光強度を計測する計測部と、 前記計測部により得られた計測結果を解析する演算部と、前記ロボットを移動させる駆動部と、を備え、前記演算部は、前記計測部の計測結果に基づき、前記他のロボットが、前記ロボットが前記計測部を用いて前記他のロボットを任意の方向から計測しても2個以上計測可能なように、備える複数のマーカの位置を認識し、前記マーカの位置の認識の結果に基づき前記他のロボットの位置および姿勢を認識し、前記計測部の計測結果と前記他のロボットの位置および姿勢の認識の結果と空間地図とに基づき前記ロボットの位置および姿勢を認識し、前記ロボットの位置および姿勢の認識の結果に基づき前記ロボットを移動させるためのパラメータを算出し、前記駆動部は、前記パラメータに基づき前記ロボットを移動させる。
本発明によれば、低コストかつ簡易な手法で正確な位置推定が可能なロボットおよびロボットシステムを実現することが可能になる。
ロボットシステム10を表す概念図である。 ロボットシステム10の動作を表すフローチャートである。 実施形態における第2のロボット200の形状を示す概念図である。 実施形態の第1のシーンにおいてレーザ距離センサ111の計測結果を示す概念図である。 実施形態の第1のシーンにおいて計測結果からマーカ210を計測した結果を抽出した状態を示す概念図である。 実施形態において長辺の抽出結果から第2のロボット200の位置姿勢を認識した状態を示す概念図である。 実施形態において短辺の抽出結果から第2のロボット200の位置姿勢を認識した状態を示す概念図である。 実施形態において計測結果からマーカ210を計測した結果を3点抽出した状態を示す概念図である。 実施形態における第2のシーンを示す概念図である。 実施形態の第2のシーンにおいて計測結果から反射光の強い物体を抽出した状態を示す概念図である。 実施形態の第2のシーンにおいて空間の形状を利用して第2のロボット200の辺を認識する手法を説明するための概念図である。 実施形態の第2のシーンにおいて全体の計測結果から第2のロボット200を計測した結果を削除した状態を示す概念図である。
本発明の実施形態について説明する。
図1は、実施形態のロボットシステム10を表す概念図である。ロボットシステム10は、第1のロボット100と第2のロボット200を運用するシステムである。第1のロボット100は物体の位置と反射光強度を計測する計測部110と演算部120と駆動部130を備える。また、第2のロボット200は再帰性反射特性を有する複数のマーカ210を備える。計測部110によって周囲空間を計測すると、マーカ210を計測した結果はその他の物体を計測した結果とを比べて反射光強度が大きくなり、マーカ210の計測した結果を抽出し、それらの位置を求めることができる。なお、第1のロボット100も第2のロボット同様に複数のマーカを備えることが望ましい。
図2は、実施形態のロボットシステム10の動作を表すフローチャートである。第1のロボット100の計測部110は周囲空間にある物体の位置と反射光強度を計測し(S10)、第1のロボット100の演算部120は、反射光強度を利用して計測結果のうち第2のロボット200のマーカ210を計測した結果を抽出し(S20)、さらに、抽出された複数のマーカ210の位置に基づき第2のロボット200の位置姿勢を認識し(S30)、さらに、第2のロボット200の位置姿勢の認識結果に基づき第1のロボット100の移動パラメータを算出し(S40)、第1のロボット100の駆動部130は算出された移動パラメータに基づき第1のロボット100を移動させる(S50)。
実施形態のロボットシステム10では、第1のロボット100と第2のロボット200は同一種であっても良い。また、第2のロボット200は複数台あっても良く、それらは上記の特徴を有していれば同一種である必要はない。
計測部110は、赤外線などの光を照射できるものであるとより望ましく、その照射した光が物体に反射した光を受光することで、物体の3次元位置の特定がより明確になり、マーカ210からの反射光がより強く計測部110で計測される。また、この計測部110は、第1のロボット100自身が姿勢を変更せずに周囲空間を全体的に計測できることが望ましく、計測部110自身が計測方向を変更できるような方向変更部を有する、あるいは第1のロボット100が計測部110の姿勢を変更させる姿勢変更部を有することが望ましい。周囲空間を全体的に計測できる計測部110としては、2次元平面を計測するレーザ距離センサ111や3次元空間を計測する距離画像センサなどが挙げられる。
演算部120は、第1のロボット100に搭載されているコンピュータとして実装される。駆動部130は、モータなどの動力、車輪や脚など動力を並進あるいは回転あるいはその両方の運動に変換する機器、などを併せ持つ。
即ち、演算部120は第1のロボット100を制御する中央演算部として役割をも果たすものである。演算部120は、計測部110により得られた情報を基に駆動部130に指示出すことで第1のロボットの駆動を制御する。また、演算部120は、計測部110、駆動部130をはじめとする第1のロボットの構成全体に対する制御を行い、第1のロボットの動作、処理を制御する役割を果たす。後述する、第1のロボットの動作処理やフローチャートもこの演算部120によって制御され、実現される。
また、第1のロボット100は図示しない記憶部を備える。この記憶部には第2のロボットの形状や移動経路などの情報が記憶されている。第1のロボットは、記憶部に記憶された情報と計測部110により得られた情報とを比較することで、第2のロボットの位置姿勢を検出することが可能となる。
第2のロボット200も第1のロボット100と同様の構成、機能を備えていることが望ましい。 マーカ210は、計測方向に対して垂直な面を有していれば、その反射光はより強くなる。マーカ210は任意の方向から計測されるため、計測部110がレーザ距離センサ111のように2次元平面上を計測する場合にはマーカ210は円柱状に、計測部110が距離画像センサのように空間を3次元的に計測する場合にはマーカ210は球状にすることが望ましい。厳密な円柱状や球状とすることができなくとも、なるべく曲率を有した形状にすると良い。
演算部120が第2のロボット200の位置姿勢を認識した後は、その認識結果に基づき第1のロボットの移動パラメータを算出し、その移動パラメータに基づき駆動部130が第1のロボットを移動させる。その例としては、第1のロボット100が空間地図上で与えられた経路に沿って移動している状況において、その認識結果に基づき全体の計測結果のうち第2のロボット200を計測した結果を削除した上で、地図と計測結果を照合して第1のロボット100自身の位置姿勢を推定し、第1のロボット100が経路からずれないような移動パラメータを算出し、その移動パラメータに基づき駆動部130が第1のロボット100を移動させることが考えられる。他には、第1のロボット100の近くに存在する物体が第2のロボット200であるか予期せぬ物体であるかを判別し、第2のロボット200であるならば想定通りであると判断し第1のロボット100を想定通り移動させ、予期せぬ物体である場合は第1のロボット100を緊急停止させる、ことが考えられる。この場合、第2のロボット200の移動経路を第1のロボット100にあらかじめ教示してあれば、第2のロボット200が移動経路の周辺で検出されていれば想定通りであると判断し、移動経路から離れた場所で検出されると予期せぬ場合であると判断し第1のロボット100を緊急停止させる、ことに拡張できる。
ここからは、計測部110としてレーザ距離センサ111を用い、計測する空間を2次元水平面とした場合について詳述するが、距離画像センサように3次元空間を計測する場合へと容易に拡張できる。図1においても、計測部110はレーザ距離センサ111とみなし、第1のロボット100から見た第2のロボット200の相対位置姿勢(x,y,θ)を推定することを議論する。第1のロボット100から見た相対座標系の原点はレーザ距離センサ111の中心Aとし、レーザ距離センサ111の前方方向をθ=0とする。図1で示した状況を第1のシーンとして、第2のロボット200の位置姿勢を認識する手法の1例を説明する。
図3は第2のロボット200の形状を示した概念図である。実施形態では、第2のロボットの形状は任意で良い。また、マーカについては、第2のロボットを任意の方向から計測しても2個以上のマーカが計測できるように設置することが望ましい。第1のロボットには、第2のロボットの形状や第2のロボットの中心Pから見たマーカ位置Qの位置の情報を事前に記憶部に記憶しておく。ここでは、第2のロボットは長辺の長さa、短辺の長さbとする長方形形状をしているものとし、その長方形の四隅にマーカを設置するものとして説明する。第2のロボットの中心Pから見た相対座標系は長辺方向と短編方向を基準方向としている。
図4は第1のシーンにおけるレーザ距離センサ111の計測結果を示した概念図である。レーザ距離センサ111は計測方向φを角度分解能δφずつ変化させて計測していく。レーザ距離センサ111は計測方向φの方向に赤外線レーザを照射し、その方向にある物体から来るそのレーザの反射光を受光し、レーザ距離センサ111の中心Aから物体までの距離r、反射光強度αを取得する。距離rと方向φの組み合わせが、レーザ距離センサ111から見た計測された物体の相対位置となる。図4の点線矢印は計測結果を表し、矢印の終点が相対位置、点線の太さは反射光強度αを表現している。ここで、角度分解能δφが大き過ぎるとマーカが計測されない場合があるため、δφは1度以下の小さい値であることが望ましい。図4には太い点線矢印が2本記述されているが、これはマーカ210にレーザを照射したことによって大きな反射光強度が計測されたことを示している。また、(r,φ)を第1のロボットから見た相対座標系(x,y)へ変換する際は、下記(1)式によって行われる。
Figure 0005586967
図5は、演算部120が第1のシーンで取得した計測結果からマーカ210を計測した結果を抽出した状態を示す概念図である。この抽出方法としては、計測結果の反射光強度αについて、閾値α’を事前に記憶部に記憶しておき、計測結果のαがα’よりも大きい場合はマーカ210を計測した結果とみなす、という手法が考えられる。抽出したマーカ210の位置については、マーカ210の大きさは第2のロボット200の寸法a,bと比較して十分小さく無視できる、と考え、計測結果の位置をそのまま計算に用いる。
ここで、角度分解能δφが十分小さい場合、同一のマーカ210を複数の隣り合う計測方向φで計測してしまうことがある。このような場合の対処方法として、計測方向φについて連続して閾値α’を越える反射光強度αが計測されたときは、それらは同一のマーカ210を計測した、とみなす、という方法が考えられる。この場合のマーカ210の位置の特定方法に関しては、それらの座標の平均値をとることでそのマーカ210の位置とする、という方法や、マーカ210の形状とそれらの形状を照合させてマーカ210の中心位置を算出する、という方法がある。
図5には2つの点B,Cがマーカ210として検出された場合が示されており、この場合について議論する。Bの座標が(x,y)、Cの座標が(x,y)として検出されたとき、その距離dBCは下記の(2)式によって算出される。
Figure 0005586967
この距離dBCが寸法a,bのどちらと近いか、で線分BCが第2のロボット200の長辺、短辺のどちらであるかを判定する。図5においては、線分BCは第2のロボット200の長辺であると判定される。
図6は、線分BCが第2のロボット200の長辺であると判定された場合における、第2のロボット200の位置姿勢の認識結果を示す概念図である。まず、第2のロボット200の姿勢角θについて、x=xのときはθ=90°であり、x≠xのときは下記の(3)式で算出される。
Figure 0005586967
続いて、第2のロボット200の位置P(x,y)を算出する。線分BCの中点M(x,y)は下記の(4)式で算出される。
Figure 0005586967
第2のロボット200の短辺方向で長さがb/2のベクトルをvとすると、ベクトルvは下記の(5)式で算出される。
Figure 0005586967
第2のロボット200の位置Pは、線分BCの中点Mにベクトルvを足した位置と点Mからベクトルvを引いた位置のうち、点Aより遠ざかる方の点である。図6の場合は点Mからベクトルvを引いた位置が点Pである。
次に、線分BCが第2のロボット200の短辺であると判定された場合における第2のロボット200の位置姿勢の算出方法の1例を述べる。図7は、線分BCが第2のロボット200の短辺であると判定された場合における、第2のロボット200の位置姿勢の認識結果を示す概念図である。まず、第2のロボット200の姿勢角θについて、x=xのときはθ=0°であり、x≠xのときは下記の(6)式で算出される。
Figure 0005586967
続いて、第2のロボット200の位置P(x,y)を算出する。線分BCの中点M(x,y)は上記の(4)式で算出される。第2のロボット200の長辺方向で長さがa/2のベクトルをuとすると、ベクトルuは下記の(7)式で算出される。
Figure 0005586967
第2のロボット200の位置Pは、線分BCの中点Mにベクトルuを足した位置と点Mからベクトルuを引いた位置のうち、点Aより遠ざかる方の点である。図7の場合は点Mからベクトルuを足した位置が点Pである。
次に、第2のロボット200のマーカ210が3点検出された場合における第2のロボット200の位置姿勢の算出方法の1例を述べる。図8は、実施形態において計測結果からマーカ210を計測した結果を3点抽出した状態を示す概念図である。それぞれの計測角度φの小さい順にそれらの点をB(x,y),C(x,y),D(x,y)とすると、線分BCと線分CDが第2のロボット200の辺となる。それぞれの辺の長さdBC、dCDは下記の(8)式で算出される。
Figure 0005586967
線分BC、線分CDのうち長い方の線分を第2のロボット200の長辺、短い方の線分を短辺とする。上記の手法と同様に、第2のロボット200の姿勢を長辺から、短辺から、それぞれ求め、その平均値を求めることで第2のロボット200の姿勢の認識結果θとする。次に、上記の手法と同様に、短辺の中点Mとベクトルuを、長辺の中点Nとベクトルvをそれぞれ求める。点Mにベクトルuを足した点M、点Mからベクトルuを引いた点M、点Nにベクトルvを足した点N、点Nからベクトルvを引いた点Nをそれぞれ作成する。全ての組み合わせ(M、N)(i=0,1、j=0,1)、のうち2点間の距離が最も短い組み合わせ(M、N)を選択する。点Mと点Nとの平均位置を求めることで、第2のロボット200の位置(x,y)とする。
第1のシーンのように周囲空間に第2のロボット200が1台存在する場合は、上記の方法により第2のロボット200の位置姿勢を認識することができる。
次に、第2のロボット200が周囲空間に複数存在し、マーカ210と見間違える再帰性反射材300が存在する第2のシーンにおいて、第2のロボット200の位置姿勢の認識手法の1例を示す。図9は、実施形態における第2のシーンを示す概念図である。
上記で示したマーカ210の抽出方法を用いると、反射光が強い物体の位置が抽出されることから、マーカ210の位置と再帰性反射材300の位置とが抽出される。図10は、実施形態の第2のシーンにおいて、反射光が強い物体の位置を抽出した結果を示す概念図である。第2のシーンでは8点が抽出され、計測角度φの小さい順にX(x,y)(i=0〜7)とする。
それぞれの点を結ぶ線分XiXj(i=0〜6、j=i+1)の長さdijは、下記に示す(9)式によって算出される。
Figure 0005586967
それぞれの線分Xが第2のロボット200の辺か否かを判別する。dijと寸法aとがほぼ等しければ、線分Xは第2のロボット200の長辺とみなすことができ、dijと寸法bとがほぼ等しければ、線分Xは第2のロボット200の短辺とみなすことができる。距離dijと寸法a,bとが等しいか否かを判別する手法としては、等しいとみなす誤差の割合σをあらかじめ演算部120に教示しておき、a(1−σ)≦dij≦a(1+σ)の場合は長辺と等しいと判断し、b(1−σ)≦dij≦b(1+σ)の場合は短辺と等しいと判断し、仮に寸法a,b共に等しいと判定された場合は、より誤差の小さい辺と等しいとみなし、寸法a,b共に等しくないと判定された場合は、線分Xは第2のロボット200の1辺ではなかったと判定する、という手法が考えられる。
長辺と短辺とみなされた2辺において、一つの点を共用している場合においては、それは同一の第2のロボット200を計測した結果である、とみなすことができる。第2のシーンにおいては、線分Xが第2のロボット200の短辺、線分Xが第2のロボット200の長辺、と判別されることから、点Xは共通のため、3点X、X、Xは同一の第2のロボット200cに取り付けられたマーカ210である、と判断することができる。この第2のロボット200cの位置姿勢は上記の手法により求めることができる。
再帰性反射材300のように、マーカ210と誤認識してしまうような物体が存在する場合でも、線分Xの長さを調べることによりそれらを排除することができる。第2のシーンにおいては、再帰性反射材300を検出した結果Xは距離d34、d45が寸法a,bと比較し大き過ぎるため、Xはマーカ210を計測した結果ではなかった、と判定することができる。
また、上記の判別方法では、第2のロボット200の辺ではないにもかかわらず、距離と寸法とが一致してしまうことがある。第2のシーンにおいては、第2のロボット200aの点Xと第2のロボット200bの点Xの距離d12が寸法aとほぼ等しく、線分Xが第2のロボット200の長辺と誤判定される可能性がある。このような場合、計測結果が示す空間の形状を調べることにより、このような誤判定を防ぐことができる。図11は、実施形態の第2のシーンにおいて、空間の形状を利用して第2のロボット200の辺を認識する手法を説明するための概念図である。各点Xの計測方向をφとし、線分Xが第2のロボット200の辺か否かを判定する際には、φ≦φ≦φとなる計測結果の点を利用し形状Ωijを求める。図3で示した第2のロボット200の形状と各形状Ωijを比較すると、形状Ω01、Ω23はそれぞれ第2のロボット200の短辺、長辺の形状と似た形状を示しているため、線分X、線分Xはそれぞれ第2のロボット200の短辺、長辺として認識し、形状Ω12は第2のロボット200のどの辺とも一致しないため、線分Xは第2のロボットの辺ではない、と認識することができる。第2のロボット200の辺であると認識された線分については、1つの辺や3点が抽出されたときの第2のロボット200の位置姿勢の認識手法を適用し、最終的に全ての第2のロボット200の位置姿勢を認識することができる。
形状の一致不一致の判定方法の1例を示す。線分Xの傾き角を求め、第2のロボット200の辺の形状をその傾き角で回転させ、辺の片側の端点と点Xとの距離の2乗と、辺の逆側の端点と点Xとの距離の2乗とを足し合わせた値が最小になるように、辺の形状を置く。形状Ωijを形成する各計測点と辺の形状との距離の2乗和の平均値Σを計算し、あらかじめ記憶部に記憶させておいた閾値Σ’と比較し、Σ≦Σ’であれば形状が一致しているとみなす。Σ>Σ’の場合は、辺の形状を180度回転させて同一の演算を行い、形状の一致不一致を判定する。どちらの向きでも一致していなければ、線分Xは第2のロボット200の辺ではない、と判定できる。
上記のように、第2のロボット200が複数台存在し、マーカ210と見間違えるような再帰性反射材300が点在するような環境においても、第2のロボット200の位置姿勢を認識することができる。
第2のロボット200の位置姿勢を認識した後は、計測結果から第2のロボット200を計測した結果を削除し、第1のロボット100の位置姿勢を推定することができる。第2のシーンにおいては、線分Xが第2のロボット200の辺であると判定された場合は、点Xと点Xとを求める際に利用した計測結果と、計測方向φ≦φ≦φとなる計測結果とを全て削除する、という手法が考えられる。図12は、実施形態の第2のシーンにおいて、全体の計測結果から第2のロボット200を計測した結果を削除した状態を示す概念図である。この結果と空間地図との形状比較を行うことで、第1のロボット100の位置姿勢を精度良く求めることができる。
第1のロボット100の位置姿勢の認識結果から、あらかじめ第1のロボット100に教示している第1のロボット100の移動経路とのずれを精度良く認識することができ、ずれを小さくしながら目的地へ進むような移動パラメータを求めることができ、駆動部130が第1のロボット100を移動させることができる。つまり、計測結果の加工(第2のロボットの計測結果の削除)を行い、加工の結果に基づき第1のロボットを移動させるためのパラメータを算出することができる。
以上のように、実施形態に述べたロボットおよびロボットシステムによれば、通信機器や他の情報機器を利用することなく、距離センサのみで確実な他ロボットの位置姿勢認識が可能である。また、ロボットに再帰性反射材のマーカを取り付けるだけで他ロボットの認識を可能にしており、周囲空間内にインフラを設置することなくロボットの位置推定を可能にすることができる。
10・・・ロボットシステム、100・・・第1のロボット、110・・・計測手段、111・・・レーザ距離センサ、120・・・演算部、130・・・駆動部、200・・・第2のロボット、210・・・マーカ、300・・・再帰性反射材。

Claims (11)

  1. 第1のロボットと第2のロボットとを備えるロボットシステムであって、
    前記第1のロボットは、
    物体の位置と反射光強度を計測する計測部と、前記計測部により得られた計測結果を解析する演算部と、前記第1のロボットを移動させる駆動部と、を備え、
    前記第2のロボットは再帰性反射特性を有する複数のマーカを備え、
    複数の前記マーカは、前記第1のロボットが前記計測部を用いて前記第2のロボットを任意の方向から計測しても2個以上計測されるように、配置され、
    前記第1のロボットの前記演算部は、
    前記計測部の計測結果に基づき前記第2のロボットの複数の前記マーカの位置を認識し、
    前記マーカの位置の認識の結果に基づき第2のロボットの位置および姿勢を認識し、
    前記計測部の計測結果と前記第2のロボットの位置および姿勢の認識の結果と空間地図とに基づき前記第1のロボットの位置および姿勢を認識し、
    前記第1のロボットの位置および姿勢の認識の結果に基づき前記第1のロボットを移動させるためのパラメータを算出し、
    前記第1のロボットの前記駆動部は、
    前記パラメータに基づき前記第1のロボットを移動させることを特徴とするロボットシステム。
  2. 請求項1に記載のロボットシステムであって、
    前記第1のロボットの前記演算部は、
    前記第2のロボットの位置および姿勢の認識の結果に基づき前記計測部の計測結果の加工を行い、
    前記加工の結果に基づき前記第1のロボットの位置および姿勢を認識することを特徴とするロボットシステム。
  3. 請求項1または2に記載のロボットシステムであって、
    前記第1のロボットの前記計測部は光を照射することを特徴とするロボットシステム。
  4. 請求項3に記載のロボットシステムであって、
    前記第1のロボットは前記計測部の姿勢を変更する姿勢変更部を備えることを特徴とするロボットシステム。
  5. 請求項3に記載のロボットシステムであって、
    前記第1のロボットの前記計測部は計測方向を変更する方向変更部を備えることを特徴とするロボットシステム。
  6. 請求項3から5のいずれかに記載のロボットシステムであって、
    前記第1のロボットの前記計測部はレーザ距離センサであることを特徴とするロボットシステム。
  7. 請求項3または4に記載のロボットシステムであって、
    前記第1のロボットの前記計測部は距離画像センサであることを特徴とするロボットシステム。
  8. 請求項6または7に記載のロボットシステムであって、
    前記第2のロボットの前記マーカの形状は曲率を有することを特徴とするロボットシステム。
  9. 請求項1または2に記載のロボットシステムであって、
    前記第1のロボットの前記演算部は、
    前記マーカの位置の認識の結果と前記計測部の計測結果とに基づき前記マーカの周辺空間の形状を認識し、
    前記マーカの位置の認識の結果と前記形状の認識の結果とに基づき前記第2のロボットの位置および姿勢の認識を行うことを特徴とするロボットシステム。
  10. 請求項1、2,9のいずれかに記載のロボットシステムであって、
    前記第1のロボットの前記演算部は、
    前記第2のロボットの位置および姿勢の認識の結果と前記第2のロボットの予め定められた移動経路とに基づき前記パラメータを算出することを特徴とするロボットシステム。
  11. 他のロボットを計測して移動するロボットであって、
    物体の位置と反射光強度を計測する計測部と、
    前記計測部により得られた計測結果を解析する演算部と、
    前記ロボットを移動させる駆動部と、を備え、
    前記演算部は、
    前記計測部の計測結果に基づき、前記他のロボットが、前記ロボットが前記計測部を用いて前記他のロボットを任意の方向から計測しても2個以上計測可能なように、備える複数のマーカの位置を認識し、
    前記マーカの位置の認識の結果に基づき前記他のロボットの位置および姿勢を認識し、
    前記計測部の計測結果と前記他のロボットの位置および姿勢の認識の結果と空間地図とに基づき前記ロボットの位置および姿勢を認識し、
    前記ロボットの位置および姿勢の認識の結果に基づき前記ロボットを移動させるためのパラメータを算出し、
    前記駆動部は、前記パラメータに基づき前記ロボットを移動させることを特徴とするロボット。
JP2010009632A 2010-01-20 2010-01-20 ロボットおよびロボットシステム Active JP5586967B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010009632A JP5586967B2 (ja) 2010-01-20 2010-01-20 ロボットおよびロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010009632A JP5586967B2 (ja) 2010-01-20 2010-01-20 ロボットおよびロボットシステム

Publications (2)

Publication Number Publication Date
JP2011150443A JP2011150443A (ja) 2011-08-04
JP5586967B2 true JP5586967B2 (ja) 2014-09-10

Family

ID=44537376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010009632A Active JP5586967B2 (ja) 2010-01-20 2010-01-20 ロボットおよびロボットシステム

Country Status (1)

Country Link
JP (1) JP5586967B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5748174B2 (ja) * 2011-09-15 2015-07-15 株式会社Ihi 移動体の相対姿勢計測方法と装置
JP5939395B2 (ja) * 2012-09-18 2016-06-22 株式会社Ihi 移動体の相対姿勢計測方法と装置
JP2016050876A (ja) * 2014-09-01 2016-04-11 株式会社国際電気通信基礎技術研究所 打音検査記録装置
US10583982B2 (en) 2015-08-03 2020-03-10 Hitachi, Ltd. Shelf transport system, shelf transport vehicle, and shelf transport method
JP6758271B2 (ja) * 2017-09-26 2020-09-23 日本電信電話株式会社 飛行制御装置、方法、及びプログラム
EP3584662B1 (en) 2018-06-19 2022-04-13 Panasonic Intellectual Property Management Co., Ltd. Mobile robot
JP7190629B2 (ja) * 2018-06-19 2022-12-16 パナソニックIpマネジメント株式会社 移動ロボット
US11167866B2 (en) * 2018-06-22 2021-11-09 Southwest Research Institute Localization system and methods
JP7132866B2 (ja) * 2019-02-15 2022-09-07 株式会社豊田中央研究所 軌道生成装置
JP2021056764A (ja) * 2019-09-30 2021-04-08 日本電産株式会社 移動体
JP7283341B2 (ja) * 2019-10-04 2023-05-30 株式会社豊田自動織機 走行制御システム
JP7393217B2 (ja) * 2020-01-21 2023-12-06 日立Geニュークリア・エナジー株式会社 ロボットシステムおよびその位置推定方法
JP2022089062A (ja) * 2020-12-03 2022-06-15 オムロン株式会社 搬送システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0533208U (ja) * 1991-09-30 1993-04-30 サンクス株式会社 自走台車の検出システム
JP2001202497A (ja) * 2000-01-18 2001-07-27 Toyota Motor Corp 先行車検出システム及び方法
JP5085230B2 (ja) * 2007-08-24 2012-11-28 パナソニック株式会社 移動体システム
US20090062974A1 (en) * 2007-09-03 2009-03-05 Junichi Tamamoto Autonomous Mobile Robot System
JP4978494B2 (ja) * 2008-02-07 2012-07-18 トヨタ自動車株式会社 自律移動体、及びその制御方法
WO2009107509A1 (ja) * 2008-02-25 2009-09-03 株式会社安川電機 移動台車、移動台車システムおよび自己位置同定方法

Also Published As

Publication number Publication date
JP2011150443A (ja) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5586967B2 (ja) ロボットおよびロボットシステム
KR101782057B1 (ko) 지도 생성 장치 및 방법
Wang et al. Keyframe based large-scale indoor localisation using geomagnetic field and motion pattern
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR101775114B1 (ko) 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
JP4533659B2 (ja) レーザー計測により地図画像を生成する装置及び方法
US20160117824A1 (en) Posture estimation method and robot
JP6649796B2 (ja) 物体状態特定方法、物体状態特定装置、および、搬送車
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
KR20120046974A (ko) 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법
Kim et al. Developing accurate long-distance 6-DOF motion detection with one-dimensional laser sensors: Three-beam detection system
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
JP2010071743A (ja) 物体検出方法と物体検出装置およびロボットシステム
US10852740B2 (en) Determining the orientation of flat reflectors during robot mapping
JP2019101694A (ja) 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
KR20170027767A (ko) 수평 평면을 이용해 장애물을 검출하는 장치 및 이러한 장치 구현 검출 방법
JP2017120551A (ja) 自律走行装置
KR101272422B1 (ko) 레이저 스캐너와 인공표식 매칭을 이용한 위치측정장치 및 방법
KR101895125B1 (ko) 스테레오 카메라를 이용한 3차원 궤적 추적 장치 및 방법
JP6698430B2 (ja) 測定装置、測定方法およびプログラム
JP6523196B2 (ja) 推定装置、方法及びプログラム
KR101356644B1 (ko) 위치 인식 시스템 및 그 방법
JP2015007639A (ja) 情報処理装置、情報処理方法およびプログラム
JP5720292B2 (ja) 推定位置評価システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120711

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140723

R151 Written notification of patent or utility model registration

Ref document number: 5586967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350