JP2016074053A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2016074053A
JP2016074053A JP2014205561A JP2014205561A JP2016074053A JP 2016074053 A JP2016074053 A JP 2016074053A JP 2014205561 A JP2014205561 A JP 2014205561A JP 2014205561 A JP2014205561 A JP 2014205561A JP 2016074053 A JP2016074053 A JP 2016074053A
Authority
JP
Japan
Prior art keywords
distance information
hand
distance
self
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014205561A
Other languages
English (en)
Other versions
JP6260509B2 (ja
Inventor
国松 橋本
Kunimatsu Hashimoto
国松 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014205561A priority Critical patent/JP6260509B2/ja
Publication of JP2016074053A publication Critical patent/JP2016074053A/ja
Application granted granted Critical
Publication of JP6260509B2 publication Critical patent/JP6260509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供する。
【解決手段】ロボット1は、把持対象を把持するハンド13と、検出領域内の物体との距離情報を検出する距離センサ14と、前記距離情報に基づいて、自己位置を推定する自己位置推定部153とを有する。自己位置推定部153は、前記距離情報のうち、前記ハンド13の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する。
【選択図】図7

Description

本発明はロボットに関し、特に、物体との距離情報に基づいて自己位置を推定するロボットに関する。
環境地図を参照することにより、障害物等を避けて移動するロボットが知られている。また、このようなロボットにおいて、距離センサを用いて物体までの距離を計測し、計測結果を環境情報とマッチングすることにより自己位置を推定する技術が知られている。
例えば、特許文献1は、ロボットの周辺に存在する物体までの距離を計測するセンサによる計測結果を環境地図に幾何学的に合わせこむことで自己位置を推定する技術について開示している。
特開2012−93811号公報
生活支援ロボット(HSR:Human Support Robot)などのように、マニピューレータにより対象物を操作する場合、操作に応じて対象物の位置が変動する。距離センサにより対象物までの距離を検知し、この検知により得られた距離情報に基づいて自己位置を推定する場合、距離センサにより取得される距離情報には、自身が操作している対象物の動的な位置情報が含まれることとなる。このため、結果として自己位置の推定精度が劣化するという問題がある。
本発明は、上記した事情を背景としてなされたものであり、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することを目的とする。
本発明にかかるロボットは、把持対象を把持する把持手段と、検出領域内の物体との距離情報を検出する距離検出手段と、前記距離情報に基づいて、自己位置を推定する自己位置推定手段とを有し、前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する。
このようなロボットによれば、把持手段による操作により位置が移動する対象物についての距離情報である動的な距離情報が除かれた距離情報に基づいて自己位置の推定が行われる。したがって、自身の操作により位置が変動している物体の影響が排除され、自己位置の推定精度の劣化を抑制することができる。
本発明によれば、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することができる。
実施形態に係るロボットの外観を示す斜視図である。 実施形態に係るロボットの概略的システム構成を示すブロック図である。 実施形態に係る制御装置の機能構成の一例を示すブロック図である。 タンスのタンス本体から引き出しが、ハンドによる操作によって引き出される様子を示す模式図である。(a)は、タイミングt−1における様子として、ハンドにより引き出しが引き出される前の状態を示しており、(b)は、タイミングtにおける様子として、ハンドにより引き出しが引き出された状態を示している。 図4に示されるハンドの操作前後におけるハンドの座標系を基準とした距離情報について示す模式図である。 距離センサの検出領域と操作対象との関係を示す模式図であり、(a)は、操作対象であるドアなどの建具が検出領域内に侵入している様子を示し、(b)は、操作対象であるタンスが検出領域内に侵入している様子を示している。 実施の形態に係る制御装置の動作の一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施形態に係るロボット1の外観を示す斜視図である。図2は、実施形態に係るロボット1の概略的システム構成を示すブロック図である。
ロボット1は、台車10と、ロボット本体11と、ロボット本体11に支持されたアーム12と、アーム12の先端に設けられたハンド13と、距離センサ14と、制御装置15とを備えている。
台車10は、例えば、図示しないキャスタと、図示しない一対の対向する駆動車輪とが設けられており、制御信号にしたがって移動する。具体的には、台車10には、モータなどにより構成された台車用駆動機構100が設けられており、制御装置15からの制御信号に基づいて台車用駆動機構100が動作することにより、台車10が移動する。
また、台車10には、台車状態検出センサ101が設けられている。台車状態検出センサ101は、例えばエンコーダなどによって、駆動車輪の回転情報を検出することにより、台車10の速さ、移動方向、移動軌跡などの状態を検出する。台車状態検出センサ101による検出結果は、制御装置15に出力される。
ロボット本体11は、台車10上に設置されており、台車10の移動にともない移動する。なお、ロボット本体11は、台車10に対して固定されて設置されていてもよいし、台車10に対して変動可能に設置されていてもよい。例えば、ロボット本体11は、台車10上で旋回可能に設置されていてもよい。また、ロボット本体11自体の位置姿勢を変更するための駆動機構が設けられていてもよい。
アーム12は、例えば、多関節型アームとして構成されている。アーム12は、例えば、ロボット本体11の前面に設けられている。アーム12には、アーム用駆動機構120が設けられており、アーム用駆動機構120の動作によりアーム12の位置姿勢が変化する。アーム用駆動機構120は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。
また、アーム12には、アーム状態検出センサ121が設けられている。アーム状態検出センサ121は、例えばエンコーダなどによって、関節部分の回転情報を検出することにより、アーム12の姿勢や位置といった状態を検出する。アーム状態検出センサ121による検出結果は、制御装置15に出力される。
ハンド13は、把持手段に相当し、操作対象物(把持対象)の把持等を行う操作機構として構成されている。ハンド13は、例えば、家具や建具などの操作対象を操作する。なお、ハンド13は、操作時、操作対象物を固定的に把持しており、操作時においてハンド13と操作対象物との幾何学的な相対位置関係は固定されている。ハンド13には、ハンド用駆動機構130が設けられており、ハンド用駆動機構130の動作によりハンド13の位置姿勢が変化する。ハンド用駆動機構130は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。
また、ハンド13には、ハンド状態検出センサ131が設けられている。ハンド状態検出センサ131は、例えばエンコーダなどによって関節部分の回転情報を検出することにより、ハンド13の姿勢や位置といった状態を検出する。ハンド状態検出センサ131による検出結果は、制御装置15に出力される。
距離センサ14は、距離検出手段に相当し、ロボット1周辺の検出領域S内にある環境(物体)とロボット1との距離情報を検出する。なお、図において、検出領域Sは、平面的な領域として図示されているが、検出領域Sは2次元に限らず、3次元であってもよい。距離センサ14は、例えば、レーザレンジファインダが用いられる。例えば、レーザレンジファインダは、ロボット1の前方の検出領域Sへ放射状にレーザ光を放射し、その検出領域S内の物体からの反射光を受光することで、その物体の距離情報を検出することができる。なお、距離センサ14は、レーザレンジファインダに限られない。例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサを用いることができる。
距離センサ14は、ロボット1に設けられており、距離センサ14の検出領域Sとハンド13の動作領域との少なくとも一部が重複するよう配置されている。例えば、距離センサ14は、台車10又はロボット本体11の外周のうち、アーム12が取り付けられている方向を検出できる位置に設けられている。
制御装置15は、例えばロボット本体11に内蔵されているが、台車10などの他の構成部分に設けられていてもよい。制御装置15は、例えば、制御処理、演算処理等を行うCPU(Central Processing Unit)15a、CPU15aによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される記憶部15b等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。
制御装置15は、作業内容や移動内容などの指示が含まれる指示情報、並びに、台車状態検出センサ101、アーム状態検出センサ121、ハンド状態検出センサ131及び距離センサ14からの検出結果などに基づいて、上述の各駆動機構を制御するとともに、後述する図3に示される処理を実行する。
また、記憶部15bには、ロボット1が動作する環境についての地図情報が記憶されている。地図情報として、例えば、ロボット1が動作するエリア全体に略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが記憶されている。障害物の存在の有無を示す障害物情報が、予め又はリアルタイムに各グリッドに対して設定される。なお、地図情報には、障害物情報に限らず、路面情報、経路情報などの他の情報が含まれていてもよい。
図3は、実施形態に係る制御装置15の機能構成の一例を示すブロック図である。なお、図3に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPU15aにより実行されることで実現されてもよいし、ハードウェアにより実現されてもよい。
制御装置15は、ハンド位置姿勢情報取得部150と、距離情報取得部151と、距離情報選択部152と、自己位置推定部153とを有している。
ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。ここで、距離センサ14の座標系とは、距離センサ14に固定された座標系である。ハンド位置姿勢情報取得部150は、例えば、ハンド状態検出センサ131による測定値及びアーム状態検出センサ121による測定値から、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を生成する。
距離情報取得部151は、検出領域S内にある物体とロボット1との距離情報であって、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、検出領域Sを分割した各領域である、複数の部分領域ごとに、距離情報を取得する。本実施形態では、距離情報取得部151は、一度にN個の距離情報を取得するものとする。また、距離情報取得部151は、予め定められたタイミングにより、距離情報を取得する。例えば、距離情報取得部151は、予め定められた時間間隔ごとに、N個の距離情報を取得してもよいし、ロボット1の予め定められた移動距離ごとに、N個の距離情報を取得してもよい。なお、距離情報取得部151は、距離センサ14の測定値から距離センサ14の座標系を基準とした距離情報を生成してもよい。
距離情報選択部152は、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものを選択する。具体的には、距離情報選択部152は、距離情報取得部151により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除き、残った距離情報を自己位置の推定のために用いるものとして選択する。なお、ハンド13の座標系とは、ハンド13に固定された座標系である。
距離情報選択部152は、まず、距離情報取得部151が取得した、距離センサ14の座標系を基準とした距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。距離情報選択部152は、例えば、下記の式(1)のように算出する。ここで、Dt,sensor(i)は、タイミングtにおける、距離センサ14の座標系を基準とした距離情報のデータを示している。なお、iは、距離情報のデータのインデックスを表し、0<i≦Nを満たす整数である。また、sensorhand −1は、距離センサ14の座標系を基準としたハンド13の位置姿勢データの逆行列である。また、Dt,hand(i)は、タイミングtにおける、ハンド13の座標系を基準とした距離情報のデータを示している。
t,hand(i)=sensorhand −1t,sensor(i) ・・・(1)
距離情報選択部152は、式(1)により、1からNの全ての距離情報のデータについて、変換を行う。
距離情報選択部152は、次に、変換して得られたハンド13の座標系を基準とした距離情報について、前回のタイミングにおけるハンド13の座標系を基準とした距離情報と比較する。そして、距離情報選択部152は、前回のタイミングにおけるハンド13の座標系を基準とした距離情報との変動量が予め定められた閾値以下の距離情報については、ハンド13により操作されている対象であるとみなして、選択候補から除外する。
距離情報選択部152は、例えば、下記の式(2)のように表される変動量diffを閾値thと比較する。なお、式(2)において、変動量diff(i)は、インデックスがiである距離情報についての変動量を示す。また、Dt−1,hand(i)は、タイミングt−1における、ハンド13の座標系を基準とした距離情報のデータを示している。なお、タイミングt−1は、タイミングtの1周期分前のタイミングである。また、abs()は、()内の絶対値を演算する関数である。
diff(i)=abs(Dt,hand(i)−Dt−1,hand(i)) ・・・(2)
距離情報選択部152は、式(2)により、1からNの全ての距離情報のデータについて、変動量(差分)を算出する。そして、距離情報選択部152は、変動量が閾値thよりも大きい場合には、当該距離情報のデータ、すなわちDt,hand(i)を、自己位置の推定のために用いるものとして採用し、変動量が閾値th以下の場合には、自己位置の推定のために用いるものとして採用しない。例えば、距離情報選択部152は、自己位置の推定のために用いるものとして選択したデータを、リストに保持する。このように、距離情報選択部152は、1からNの全ての距離情報のデータについて、変動量に基づいて、採用又は不採用が決定する。距離情報選択部152は、採用すると決定したデータ集合、すなわち距離情報選択部152により選択されたデータ集合を、自己位置推定部153に出力する。このようにして、自己位置推定部153に入力されるデータ集合は、ハンド13により位置が変動する動的な対象物に対する距離情報が除かれた静的な環境情報となる。
ここで、距離情報選択部152による距離情報の選択について、図4及び図5を用いて補足説明する。なお、図4及び図5に示す例では、2次元で図示されているが、距離情報は3次元の情報であってもよい。
図4は、タンス2のタンス本体20から引き出し21が、ハンド13による操作によって引き出される様子を示す模式図である。なお、図4に示した例では、タンス2は、コの字型に配置された壁3に寄せて置かれている。また、図4において、破線は、距離センサ14により検出される物体(タンス2及び壁3)の位置を示している。したがって、図4における破線は、距離情報選択部152に入力される距離情報のデータに対応している。また、図4(a)は、タイミングt−1における様子を示しており、ハンド13により引き出し21が引き出される前の状態を示している。これに対し、図4(b)は、タイミングtにおける様子を示しており、ハンド13により引き出し21が引き出された状態を示している。図4に示されるように、ハンド13の操作により、タンス2についての距離情報に関し、引き出し21に対する操作前後で、引き出し21部分の距離情報が変化している。
次に、図5について説明する。図5は、図4に示されるハンド13の操作前後におけるハンド13の座標系を基準とした距離情報について示す模式図である。図5において、破線は、タイミングt−1(図4(a)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものであり、実線は、タイミングt(図4(b)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものである。図5に示されるように、ハンド13の座標系を基準とした場合には、操作前後において、タンス2が設けられた壁面に対する距離情報は変動するものの、引き出し21に対する距離情報(図中の二点鎖線で囲まれた部分)は変動しない。ここで、引き出し21に対する距離情報は、上述の変動量が閾値以下の距離情報に対応している。
このように、距離情報選択部152は、変動量が閾値以下の距離情報であるか否かを確認することで、ハンド13の操作よる操作対象の距離情報であるか否かを判別している。
自己位置推定部153は、距離センサ14による検出により取得された距離情報に基づいて、ロボット1の自己位置を推定する。具体的には、自己位置推定部153は、距離センサ14による検出により取得された距離情報と、上述の地図情報とを比較してマッチング処理を行うことで自己位置推定処理を行う。なお、自己位置推定部153は、例えばオドメトリによって取得された自己位置を、距離情報選択部152から出力されたデータ集合と上述の地図情報とを比較してマッチング処理の結果にしたがって補正してもよい。
ここで、自己位置推定部153は、距離センサ14による検出により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除いて自己位置を推定する。すなわち、自己位置推定部153は、距離情報選択部152から出力されたデータ集合を用いて、自己位置推定処理を行う。
このため、自己位置推定部153は、ハンド13により位置が変動する動的な対象物についての距離情報が除かれた距離情報のみを用いて、自己推定処理を行うこととなる。ハンド13が操作対象を操作している際には、例えば、図6に示されるように、距離センサ14の検出領域S内に、ハンド13の操作によって位置が変化する動的な対象物が含まれることがある。その場合、距離情報取得部151が取得する距離情報には、ハンド13の操作によって位置が変化する動的な対象物についての距離情報も含まれることとなる。そして、動的な対象物についての距離情報を含んだデータに基づいて自己位置推定処理を行う場合には、正確な自己位置の計算を行うことが阻害されることとなる。なお、図6(a)は、操作対象であるドアなどの建具4が検出領域S内に侵入している様子を示す模式図であり、図6(b)は、操作対象であるタンス2が検出領域S内に侵入している様子を示す模式図である。
しかしながら、本実施形態にかかるロボット1においては、上述のとおり、距離情報選択部152によって、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものが選択され、自己位置推定部153は、選択された距離情報に基づいて自己位置の推定処理を行う。このため、ロボット1自身が操作している動的な物体の影響を排除することができる。したがって、ハンド13が操作している対象物の距離情報を含んで自己位置推定を行う場合に比べ、正確な自己位置の推定を行うことができる。ハンド13が操作対象を操作している際には、距離情報取得部151が取得する距離情報の大部分が、操作対象の距離情報であることも想定されるが、そのような外乱により自己位置の正確な推定が困難な状況にあっても、本実施形態にかかるロボット1は、自己位置の推定の精度を向上することができる。
また、本実施形態にかかるロボット1においては、距離情報取得部151が取得した距離情報を選別することで、ハンド13が現在操作中の対象物についての距離情報を除外している。このため、例えば、予め家具などのモデルデータを登録するなどの作業も発生しない。さらに、距離情報のうち、操作中の対象物についての距離情報を除外するという方式であるため、タスクを実行する際に自己位置推定方法を切り替える必要がなく、自己位置推定のロバスト性を向上させることができる。また、自己位置推定方法の切り替えが不要であるため、ロボット1の制御にかかるソフトウェアの汎用性を保つことができる。
次に、本実施の形態に係る制御装置15の動作の一例を図7に示すフローチャートを参照して説明する。
ステップ100(S100)において、ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。また、ハンド位置姿勢情報取得部150は、取得したハンド13の位置姿勢についての情報(データ)を距離情報選択部152に出力する。
ステップ101(S101)において、距離情報取得部151は、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、タイミングtの距離情報として、N個の距離情報を取得する。また、距離情報取得部151は、取得した距離情報のデータを距離情報選択部152に出力する。
ステップ102(S102)において、距離情報選択部152は、ステップ101で取得した、距離センサ14の座標系を基準とした各距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。
ステップ103(S103)において、距離情報選択部152は、ステップ102で変換された距離情報の変化量と、予め定められた閾値とを比較する。具体的には、距離情報選択部152は、タイミングtの距離情報とタイミングt−1の距離情報との差分の絶対値で表される変動量diffと、閾値thとを比較する。そして、変動量が予め定められた閾値を超える場合にはステップ104へ移行し、変動量が予め定められた閾値以下の場合には、ステップ105へ移行する。
ステップ104(S104)において、距離情報選択部152は、変動量が予め定められた閾値を超えると判定された距離情報のデータをリストに保持する。
ステップ105(S105)において、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われたか否かを判定し、全ての距離情報について処理が行われた場合には、ステップ106へ移行し、未だ処理が行われていない距離情報がある場合については、ステップ103に戻り、未だ処理が行われていない距離情報に対してステップ103以降の処理を行う。例えば、ステップ102においてN個の距離情報が変換された場合には、変換されたN個の距離情報全てについてステップ103の処理が行われると、ステップ106に進むこととなる。なお、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われた場合には、変動量が予め定められた閾値を超えると判定された距離情報のデータが含まれている上述のリストを自己位置推定部153に出力する。
ステップ106(S106)において、自己位置推定部153は、ステップ105で距離情報選択部152から出力されたリストに含まれる距離情報に基づいて、ロボット1の自己位置を推定する。
以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上述の実施形態では、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報と、同じくインデックスがiであるタイミングt−1における距離情報とが対応するものとして、両者の差分を算出しているが、タイミングtの距離情報のインデックスとは異なるインデックスを有するタイミングt−1の距離情報とを対応付けてもよい。例えば、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報に対応するタイミングt−1の距離情報を最近傍探索により見つけるよう構成してもよい。すなわち、タイミングt−1における距離情報のデータ群のうち、タイミングtの当該距離情報と最も位置が近いデータを当該距離情報に対応するデータとしてもよい。
また、距離情報は、2次元の情報に限らず深度画像のような3次元情報であってもよい。
1 ロボット
10 台車
11 ロボット本体
12 アーム
13 ハンド
14 距離センサ
15 制御装置
100 台車用駆動機構
101 台車状態検出センサ
120 アーム用駆動機構
121 アーム状態検出センサ
130 ハンド用駆動機構
131 ハンド状態検出センサ
150 ハンド位置姿勢情報取得部
151 距離情報取得部
152 距離情報選択部
153 自己位置推定部

Claims (1)

  1. 把持対象を把持する把持手段と、
    検出領域内の物体との距離情報を検出する距離検出手段と、
    前記距離情報に基づいて、自己位置を推定する自己位置推定手段と
    を有し、
    前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する
    ロボット。
JP2014205561A 2014-10-06 2014-10-06 ロボット Active JP6260509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014205561A JP6260509B2 (ja) 2014-10-06 2014-10-06 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014205561A JP6260509B2 (ja) 2014-10-06 2014-10-06 ロボット

Publications (2)

Publication Number Publication Date
JP2016074053A true JP2016074053A (ja) 2016-05-12
JP6260509B2 JP6260509B2 (ja) 2018-01-17

Family

ID=55950588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014205561A Active JP6260509B2 (ja) 2014-10-06 2014-10-06 ロボット

Country Status (1)

Country Link
JP (1) JP6260509B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211934A (ja) * 2016-05-27 2017-11-30 株式会社東芝 情報処理装置、情報処理方法、および車両
CN108453701A (zh) * 2017-02-09 2018-08-28 佳能株式会社 控制机器人的方法、示教机器人的方法和机器人系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216350A (ja) * 2006-02-17 2007-08-30 Toyota Motor Corp 移動型ロボット
JP2008142841A (ja) * 2006-12-11 2008-06-26 Toyota Motor Corp 移動ロボット
JP2011043405A (ja) * 2009-08-21 2011-03-03 Toyota Motor Corp 自己位置推定装置、自己位置推定方法及びプログラム
WO2012176249A1 (ja) * 2011-06-21 2012-12-27 国立大学法人奈良先端科学技術大学院大学 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
JP2013200604A (ja) * 2012-03-23 2013-10-03 Toyota Motor Corp 移動ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216350A (ja) * 2006-02-17 2007-08-30 Toyota Motor Corp 移動型ロボット
JP2008142841A (ja) * 2006-12-11 2008-06-26 Toyota Motor Corp 移動ロボット
JP2011043405A (ja) * 2009-08-21 2011-03-03 Toyota Motor Corp 自己位置推定装置、自己位置推定方法及びプログラム
WO2012176249A1 (ja) * 2011-06-21 2012-12-27 国立大学法人奈良先端科学技術大学院大学 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
JP2013200604A (ja) * 2012-03-23 2013-10-03 Toyota Motor Corp 移動ロボット

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211934A (ja) * 2016-05-27 2017-11-30 株式会社東芝 情報処理装置、情報処理方法、および車両
US10451735B2 (en) 2016-05-27 2019-10-22 Kabushiki Kaisha Toshiba Information processing device, information processing method, and vehicle
US11536833B2 (en) 2016-05-27 2022-12-27 Kabushiki Kaisha Toshiba Information processing device, information processing method, and vehicle
CN108453701A (zh) * 2017-02-09 2018-08-28 佳能株式会社 控制机器人的方法、示教机器人的方法和机器人系统

Also Published As

Publication number Publication date
JP6260509B2 (ja) 2018-01-17

Similar Documents

Publication Publication Date Title
US9386209B2 (en) Method and apparatus for estimating position
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
US8855819B2 (en) Method and apparatus for simultaneous localization and mapping of robot
JP5080333B2 (ja) 自律移動体のための物体認識装置
CN109394095B (zh) 一种机器人运动地毯偏移的控制方法、芯片及清洁机器人
WO2012153629A1 (ja) 運動予測制御装置と方法
JP6481347B2 (ja) 移動量推定装置、自律移動体、及び移動量の推定方法
JP2007011978A (ja) ロボットの運動制御装置
JP2009031884A (ja) 自律移動体、自律移動体におけるマップ情報作成方法および自律移動体における移動経路特定方法
KR20090114786A (ko) 로봇 및 그 지도작성방법
JP2017211825A (ja) 自己位置推定装置、及び、自己位置推定方法
JP2008142841A (ja) 移動ロボット
JP5553220B2 (ja) 移動体
JP6094279B2 (ja) 追跡装置、追跡プログラムおよび追跡方法
JP2009223757A (ja) 自律移動体、その制御システム、自己位置推定方法
JP6260509B2 (ja) ロボット
Tsai et al. Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles
JP2017146893A (ja) 自己位置推定方法
JP2016078185A (ja) ロボット
JP2017144490A (ja) 制御装置、制御システム、制御方法およびプログラム
JP6589578B2 (ja) 移動量推定装置、自律移動体、及び移動量の推定方法
JP2016081159A (ja) 移動体
Jean et al. Development of an indoor patrol robot based on ultrasonic and vision data fusion
JP2017083230A (ja) 自己位置推定方法
JP6149791B2 (ja) 重心推定装置、及び重心推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R151 Written notification of patent or utility model registration

Ref document number: 6260509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151