JP2005219161A - ロボット把持制御装置及びロボット把持制御システム - Google Patents

ロボット把持制御装置及びロボット把持制御システム Download PDF

Info

Publication number
JP2005219161A
JP2005219161A JP2004029108A JP2004029108A JP2005219161A JP 2005219161 A JP2005219161 A JP 2005219161A JP 2004029108 A JP2004029108 A JP 2004029108A JP 2004029108 A JP2004029108 A JP 2004029108A JP 2005219161 A JP2005219161 A JP 2005219161A
Authority
JP
Japan
Prior art keywords
robot
gripping
article
grip
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004029108A
Other languages
English (en)
Inventor
Shusaku Okamoto
修作 岡本
Yasunao Okazaki
安直 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004029108A priority Critical patent/JP2005219161A/ja
Publication of JP2005219161A publication Critical patent/JP2005219161A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ロボットが把持している物品にかかる力が人によるものなのか、それ以外によるものなのかを区別して把持力を制御する技術および人が持っている物品を認識し、その物品を人から受け取れるようにロボットハンドを制御する技術を提供する。
【解決手段】物品を把持する機構をなす把持手段111と、把持手段111の周囲に存在する物体(人間など)を検出するセンシング手段114と、センシング手段114が物体を検出した場合に、物体が物品を受け渡し行動の有無を推測する行動推論手段115と、行動推測結果に応じて、把持手段111を制御する把持力制御手段108とを含むロボット把持制御装置を構成したものであり、把持手段周辺の物体(人間など)の行動を推測し、把持手段111の制御方法を調整することで、物品の受け渡しを容易にすることができるという作用を有する。
【選択図】図1

Description

本発明は、特別な操作を人間がロボットに指示することなく、人間とロボットとが物品を受けわたしすることが可能なロボット把持制御システムに関するものである。
ロボットに物品を把持させて何らかの仕事をやらせることは、今日では実に多くの分野で利用されている。例えば、工場での自動製品組み立てラインにおける部品の把持運搬、自動化された倉庫での在庫品の運搬・管理となど、その例を挙げるときりがない。
このような産業用のロボットにおいて把持に求められる一つの重要な技術は、把持している物品を落とさないようにするために把持力を制御する技術である。例えば、ロボットハンドの指先に把持対象物の滑りを検出するセンサを設置しておき、把持対象物の滑りがこのセンサで検知された場合は、指の把持力を把持力制御装置により所定量増加する。これにより把持対象物を落とすことなく最小限の把持力で確実に把持できる(例えば、特許文献1参照)。
また作業者によるロボット操作の手間を減らす観点では、ロボット把持している物品にかかる外力を検出し、その検出結果に応じて自動で把持物を解放する機能も重要である。例えば、ロボットが把持している物品を作業者が受け取る際に、上記機能があれば、作業者がロボット把持物を受け取る準備ができたことをロボットに知らせなくとも、作業者が把持物を意図的に動かすことで、ロボットの把持を解放することができる(例えば、特許文献2参照)。
これら従来の把持制御技術は主な用途が産業用であり、予め決められたプログラムに従って物品を把持し移動させて解放するという作業を正確に行うために必要な技術である。
一方で近年では、人間と共存しながら人間の生活を支援するという目標に向けて、ヒューマノイド型ロボットなど、非産業用人間共存型ロボット(以下人間共存型ロボット)の開発が盛んに行われている。この人間共存型ロボットは、その名の示すとおり産業用ではなく、非産業用の分野、たとえば主として一般家屋などにおいて、人間と共存しつつ人間生活を支援していくことが一つの主な目的であり、これが従来の産業用ロボットとの大きな違いの一つである。このような観点から人間共存型ロボットが人間と共存するための重要な機能として、人間とのインタラクションを実現が不可欠である。そのためには、人の認識、音声対話などソフトウェアで実現できる機能に加え、ハード的に前記インタラクションを実現する必要がある。ハード的なインタラクション機能とは例えば、人間と握手する機能、把持した物品を人間とやりとりする機能などである。
特開平4−189484号公報(第11頁、第5図) 特開平6−344283号公報(第10頁、第7図)
しかしながら、ロボットと人間とのインタラクションの例として、ロボットが把持している物品を人に渡す際のロボットハンド把持力の制御に上記従来の技術を適用することは難しい。なぜならば、前記特許文献1に記載されている技術では、ロボットの把持物品を人間が持ち取ろうとすると、ロボットは把持物品を取られないように、更に強く把持するように制御される。従って場合によっては把持物品を破損させてしまう、という問題が起こりうるからである。
また、前記特許文献2に記載されている把持解放機能を適用すると、ロボットの把持物に外力がかかった場合に把持を解放するため、もし前記外力が人間によるものであれば問題は生じないが、一方で前記外力が人間以外によってもたらされるものである場合にも把持物品を離してしまうことになるという問題が生じる。
また、従来の人間共存型ロボットでは、物品を把持する機能は備えているものの、ロボットから人に把持物を渡す機能については、非常に単純な方法のみが実現されているにすぎない。それは例えば、まずロボットハンドを解放しても把持物が落ちないような姿勢にロボットハンドを移動させ、次にその状態でロボットハンドの把持力を解放させた状態にしておいて、最後に把持物を取ることができる準備ができたことを人に伝え、それにより人に取らせるようにするなどの方法である。
さらには上記に示したいずれの従来技術でも、人から与えられた物品を受け取るための技術について何ら開示されていない。
従って、本発明の解決すべき課題は、人とロボットがあたかも人間同士のように、リアルなインタラクション行うことを実現するハードウェア制御の技術として、第1に、ロボットが把持している物品にかかる力が人によるものなのか、それ以外によるものなのかを区別して把持力を制御する技術、第2に、人が持っている物品を認識し、その物品を人から受け取れるようにロボットハンドを制御する技術の2つの技術を提供することにある。
本発明の請求項1に記載の発明は、物品を把持する機構をなす把持手段と、前記把持手段の周囲に存在する物体を検出するセンシング手段と、前記センシング手段が前記物体を検出した場合に、前記物体が前記物品を受け渡し行動の有無を推測する行動推論手段と、前記行動推測結果に応じて、前記把持手段を制御する把持制御手段とを含むロボット把持制御装置としたものであり、把持手段周辺の物体の行動を推測し、把持手段の制御方法を調整することで、物品の受け渡しを容易にすることができるという作用を有する。
また、本発明の請求項2に記載の発明は、把持手段にて把持している物品に作用する外力を推定する外力推定手段を更に含み、前記把持手段が前記物品を把持している場合は、把持制御手段は、前記外力推定結果と前記行動推測結果とに応じて、前記把持手段を制御する請求項1記載のロボット把持制御装置としたものであり、前記外力検出手段において把持物に作用する外力を検知すると、その外力を及ぼした原因が人によるものなのかどうかを確認するために、まずセンシング手段にてロボット自身周囲に物体が存在するかどうかを検出し、もし、物体が存在したならば、続いて行動推論手段にて、物体が、ロボット自身が把持している物品を持ち取ろうとしているかどうかを判断し、前記物体が、ロボット自身の把持している物品を持ち取ろうとしている場合には、把持手段にて把持力を緩め、物体が物品を持ちとれるようにすることで、物体がロボットに対して把持解放の命令を明示的に与えることなく、ロボットの把持している物品を人間が持ち取ることが可能となるという作用を有する。
また、本発明の請求項3に記載の発明は、物体による物品の把持の有無を検出する把持対象検出手段を更に含み、前記物体が前記物品を把持している場合は、把持制御手段は、行動推測結果と前記把持対象検出手段での検出結果とに応じて、前記把持手段を制御する請求項1記載のロボット把持制御装置としたものであり、センシング手段にてロボット自身周囲に物体が存在するかどうかを検出し、物体が存在したならば、続いて行動推論手段にて、物体が、ロボット自身に対して手を近づけつつあるかどうかを判断し、もしそうであれば、さらに把持対象検出手段にて、前記近づきつつある物体に把持物があるかどうか
を検出し、検出されれば、ロボットは、物体がロボット自身に対して把持物を渡そうとしていると判断し、把持物品を把持手段が受け取れるように、把持物の内容に応じて、把持手段を制御することで、物体がロボットに対して物品を渡す命令を明示的に与えることなく、把持している物品をロボットに渡すことが可能となるという作用を有する。
また、本発明の請求項4に記載の発明は、把持対象検出手段にて検出された把持対象物品が把持可能かどうかを判断する把持可否判断手段を更に含む請求項3に記載のロボット把持制御装置としたものであり、把持可否判断手段により、把持物品の大きさや重さなどが把持手段にて把持できる物品の限界を超えているかどうかを判断することが可能となるという作用を有する。
また、本発明の請求項5に記載の発明は、ロボットの把持手段の周囲に存在する物体を検出するセンシング手段と、前記センシング手段が前記物体を検出した場合に、前記物体が前記物体の受け渡し行動の有無を推測する行動推論手段と、前記行動推測結果を送信する送信手段とを含むロボット制御装置と、前記行動推測結果を受信する受信手段と、物品を把持する機構をなす把持手段と、前記行動推測結果に応じて、前記把持手段を制御する把持制御手段とを含むロボットと有するロボット把持制御システムとしたものであり、把持手段周辺の物体の行動を推測し、把持手段の制御方法を調整することで、物品の受け渡しを容易にすることができるという作用を有する。
本発明によれば、ロボットが把持している物品をロボットの周囲にいる人間が持ち取ろうとしていることの判断を、人間行動推論手段にて行う。
従って、ロボットがロボットハンドで把持している物品を人間が掴んで持ち取ろうとした場合に、その人間の操作を認識し、把持力を強めて物品を握り潰してしまうことなく、人間が人間に物を手渡すがごとく、把持力を緩める制御を実現することが可能となる。
また、本発明によれば、さらに、ロボットの周囲にいる人間が持っている物品を当該ロボットに渡すために差し出そうとしていることも、前記人間行動推論手段にて行う。
従って、人間がロボットに物品を手渡しする場合に、人間がロボットに対して前記物品を把持できるような状態にさせる命令を明示的に与える必要がなくなるという効果を得ることができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
本発明の第1の実施の形態は、本発明のロボットハンド把持制御システムの実施例を示すものであり、本発明の解決すべき課題にも述べたように、ロボットが把持している物品にかかる力が人によるものなのか、それ以外によるものなのかを区別して把持力を制御する技術を提供するものである。
図1は、第1の実施の形態によるロボットハンド把持制御システムの構成を示すブロック図である。
図1では、本発明の発明において基本的な構成要素として、物品を把持する機構をなす把持手段111、前記把持手段111にて把持している物体に作用する外力を推定する外力推定手段112、外力推定手段112における外力の検出結果と、人間行動推論手段1
15において推測された人間の行動の結果とに応じて、把持手段111を制御する把持制御手段113を点線の囲み、これら3つの手段の後述される具体的な構成要素が含まれる構成となっている。そして3つの手段はロボット本体に設置する場合について説明する。
また、少なくとも前記ロボットの周囲に存在する人間を検出するセンシング手段114と、前記センシング手段114にて人間が検出された場合に、前記検出された人間の行動を推測する人間行動推論手段115とがシステムの構成要素として含まれている。
続いて、把持手段111、外力推定手段112、把持制御手段113を構成する具体的な構成要素を説明する。
把持手段111は、物品を把持する機構をなし、かつ、物品を把持しているかどうかの状態と把持物に作用する外力とを検出するものであり、本実施例では、ロボットアーム101、ロボットハンド102,力センサ103、関節角センサ109、アーム制御手段110、物品把持判断手段106からなる具体構成を示している。
ロボットアーム101はロボットの腕としてのロボットアーム101であり、ロボットハンド102はロボットアーム101に取り付けられ物品を把持する機構を有している。ロボットアーム101には関節角センサ109が、またロボットハンド102には力センサ103が配設されている。
力センサ103は、それに作用する力を検出するセンサで、本発明においてはロボットハンド102に配設され、ロボットハンド102に作用する力を検出するセンサである。
力を検出するセンサとしては様々な方式があるが、例えば、ひずみゲージで検出するもの、トルクを検出するもの、すべり摩擦を検出するものなどを使えばよい。
関節角センサ109は、代表的には光学的なロータリエンコーダによって、絶対角度や相対角度を検出するものである。ロータリエンコーダとは、スリット付きの回転板と固定板、発光素子、受光素子などから構成され、回転板が回転したときに、回転板と固定板のスリットを透過した光のパルスを計数して回転角を算出するものである。
物品把持判断手段106は、ロボットハンド102が物品を把持しているかを判断するものである。前記判断のためには、例えば、ロボットハンド102と物品との接触面において接触圧分布を測定する圧覚センサ、ロボットハンド102の内側に設置された光センサが使われる。光センサは、例えば赤外線LEDなどを光源とする発光素子とフォトダイオードなどの受光素子の組を一つまたは複数個使うことで構成される。
図2(a)は、ロボットハンド102の内側の両面に圧覚センサを配設した図であり、図2(b)は、ロボットハンド102の内側に、光センサとして、発光素子と受光素子の組を3つ配設した図である。なお、圧覚センサは片面でもかまわない。
なお物品把持判断手段106としてどのようなセンサを使う場合でも、その配設において前記力センサ103と干渉することのないように注意する必要があることはいうまでもない。
アーム制御手段110は、関節角センサ109からの関節角のフィードバック信号を受け、ロボットアーム101の各関節を駆動するモーター等のアクチュエータに指令を与えることで、ロボットアーム101に取り付けられたロボットハンド102の位置の制御やロボットアーム101に加わる力の制御を行うものである。
外力推定手段112は、ロボットハンド102が把持している物品に外力が作用した場合に、外力が、人によって物品を持ち取られようとして生じた力か、それ以外の力なのかを推論するもので、本実施例では、重力等補償手段104、センサ値変量測定手段105からなる具体構成を示している。
重力等補償手段104は、力センサ103が検出した力より、把持物体にかかる重力成分やロボットアーム101の運動により生じる慣性力、遠心力、コリオリ力を排除し、物体に及ぼす外力を算出するもので、その算出方法について図3を用いて詳述する。
図3は、重力等補償手段104にて物体に及ぼす外力を算出する方法を示す図である。算出のための計算式は以下のように導くことができる。
ここで、図3のようにΣ0は、基準座標系とし、Σrは、ロボットアーム101の手先に固定された座標系とし、6次元のベクトルであるfsは、力センサ103の検出値(物体がロボットアーム101の手先に加える力)とし、6次元のベクトルであるfhは、人間が物体に及ぼす力とし、6次元のベクトルであるfgは、fsとfhの物体重心での合成力とすると、物体の運動方程式は(数1)となる。
Figure 2005219161
ここで(数1)におけるM、V、hは、それぞれ(数2)、(数3)、(数5)で、また(数3)におけるTgは(数4)で表される。
Figure 2005219161
Figure 2005219161
Figure 2005219161
Figure 2005219161
mは物体の質量、Iは物体の重心点における慣性テンソル、pgは物体の重心点の位置、ωは物体の重心点周りの角速度、qはロボットアーム101の関節変数ベクトル、Jはロボットアーム101のヤコビ行列、0RrはΣ0からΣrへの回転行列、rlgはΣrから見た物体の重心位置、gは重力加速度である。
また、物体に働く力に関しては、(数6)の力の釣り合いの式が成り立つ。ここでTgは(数7)で表され、またrlhはΣrから見た外力の作用点の位置である。
Figure 2005219161
Figure 2005219161
以上の運動方程式と、力の釣り合いの計算式とより、力センサ103の検出値から重力、慣性力、遠心力、コリオリ力成分を排除した外力による成分Fは、(数8)となる。
Figure 2005219161
この重力等補償手段104により、重力などの常時物品に加わっている物理的な力を排除することができ、物品に加わっている外力のみが検出できる。そして、外力が検出された場合には重力以外の要因にてロボット自身が把持している物品に力がかかっているものと判断し、前記外力の値をセンサ値変量測定手段105に出力する。
さて、ロボット自身が把持している物品に外力がかかっているとき、その原因としては、少なくとも第1の原因として、人間により前記把持物が持ち取られようとしている場合と、第2の原因として、ロボットが動いているときに把持物が何かの物体に当たる場合との2通りが想定される。後者の場合の例を図4(a)(b)に示す。
図4(a)(b)は、人間によって把持物品が持ち取られる以外の状況で把持物品に外力が加わる場合を示した図であり、図4(a)は、ロボットハンド102で円柱状の物品を把持したロボットが、壁に向かって走行し、物品が壁に接触している状態、図4(b)は、ロボットハンド102を上から見た場合をそれぞれ示している。
図4(b)から分かるように、ロボットアーム101全体が壁に向かっているのに対し、把持物品は壁に当たっているので、ロボットハンド102に配設された力センサ103としての圧覚センサが、壁からの力を検出する。
ロボットは、上記原因1と原因2とを区別できれば、より高度な制御を行うことができる。すなわち原因1の場合はロボットハンド102の把持力を解放する。一方原因2の場合はロボットハンド102の把持力を外力の強さに応じて強めるとともに、もしロボット自身が動いていることが原因であればその動きを止めるといった制御を行う。
センサ値変量測定手段105は、力センサ103や関節角センサ109のセンサ値を所定の時間間隔で測定するものである。
力センサ103については、重力等補償手段104において把持物品にかかる重力および慣性力およびコリオリ力が排除された力の値が入力される。
ここで、本発明におけるロボットハンド102の制御は、上記の力センサ103や関節角センサ109のセンサ値の変化量に基づいて行っているが、センサ値の変量を処理の最小単位時間の差だけで計算すると、ロボットハンド102に把持されている物品に対して外部から加えられる力が、非常にゆっくりと強められる場合には、力センサ103の値の変化が小さすぎるため、把持解放の制御が実施されない場合がある。
このため、本発明では入力された力センサ103の値は、過去の所定の時間まで遡って、時刻データとともにメモリに記憶する。
図5に、メモリに記憶されている時刻毎の力センサ103及び関節角センサ109の値をテーブル形式で示す。tは、時刻とし、t(0)が現在時刻である。Pは、各時刻における力センサ103の値とし、Dは、関節角センサ109の値とした。また、括弧の数が大きくなるほど過去に遡ることを示す。
過去に遡ってセンサの値を蓄えておけば、ロボットハンド102に把持されている物品に対して外部から加えられる力が、非常にゆっくりと強められる場合でも、現在時刻における力の値と過去に遡って得た力の値との変化量が算出でき、それによって把持解放の制御が可能となる。
このようにして、力センサ103と関節角センサ109で個別に設定されたセンサ値変化の許容量を超える値を所定の時間内において検出した場合に、把持解放判断手段107に、どのセンサで値の変化が起こったかの情報を送ることができる。
把持制御手段113は、前記外力推定手段112における外力の推定結果と、前記人間行動推論手段115において推測された人間の行動の結果とに応じて、把持手段111の把持力を制御するもので、本実施例では、把持解放判断手段107、把持力制御手段108からなる具体構成を示している。
把持解放判断手段107は、第1に、センサ値変量測定手段105での測定結果として
力センサ103によるセンサ値の変化情報の有無、第2に、物品把持判断手段106の判断においてロボットハンド102による物品の把持の有無、第3に、センシング手段114にてロボット自身の周囲に人間が検出された場合に、その人間が把持手段111で把持している物品を取ろうとしているかどうかを人間行動推論手段115によって判断した結果の3つの状況を踏まえて、ロボットハンド102の把持力を弱めるかを判断し、弱める場合には、後で説明する把持力制御手段108に把持力緩和の信号を送出するものである。
把持力制御手段108は、把持解放判断手段107からの信号を受け、その信号の内容を踏まえて、ロボットハンド102の把持力を制御する信号を出力するものである。
センシング手段114は、少なくともロボット自身の周囲に存在する人間を検出する。
人間行動推論手段115は、前記センシング手段114にて人間が検出された場合に、前記検出された人間の行動を推測する。このセンシング手段114および人間行動推論手段115は、前記ロボット内においてもよいし、前記ロボットが存在する環境内においてもかまわない。またセンシング手段114については、ロボットと環境の両方に置くシステム構成にしてもかまわない。
図6は、センシング手段114を設置した例を示した模式図である。図6(a)では、センシング手段114としてステレオカメラを用い、それをロボット自身に搭載した様子を示している。ここで用いているステレオカメラではカメラに写っている映像までの距離を計測するデータであるステレオ画像を得ることができ、これらの画像やそれらから計測された前記距離データは、前記人間行動推論手段115で人間の行動を推測するために利用することができる。より具体的には、まず画像を用いて人間らしきエリアを抽出する。人間らしきエリアとは例えば画像中の肌色を抜きだすといった単純な処理によって行ってもいいし、さらには人間の構造をモデル化したデータをあらかじめ作成し、そのモデルに略一致する部分が画像中に存在するかをマッチングによって見つける、などの処理を行ってもよい。さらに検出精度を向上させるためには、前記手法で見つけた人間らしきエリアを、前記距離データを使って検証すればよい。具体的には、例えば前記人間らしきエリアの画像における大きさと前記エリアの距離データとの比がある所定の値に近ければ人であると認識し、そうでなければ人でないというように判断する。
以上、ここではステレオカメラ画像を用いた人間検出の方法の一例をごく簡単に紹介した。画像を用いた人間検出の方法に関しては、例えば文献「D.m.Gavrila,“The Visual Analysis of Human Movement: A
Survey,”CVIU, Vol.73, no.1, pp.82−98, 1999」などにもあるように、これまで様々なところで研究開発がなされており、ここではこれ以上の説明は省略する。
なお、ステレオ画像やそれらから計測された前記距離データは、後ほど第2の実施の形態で詳細を説明する把持対象検出手段116にて把持対象を検出する場合にも利用することができる。
図6(b)では、ある室内にロボットがいる環境内に、センシング手段114および人間行動推論手段115を設置した場合を示している。センシング手段114としては、前記ロボットに搭載されているステレオカメラに加え、環境内に設置されたセンシング手段114として、前記室内の天井に4カ所の監視カメラと、前記室内の床に設置された床圧センサが使われている。これらセンシング手段114を構成する個々のセンサ群は、少なくともロボット自身の周囲に存在する人間を検出するために使われるが、状況に応じて最
適なセンサを一つ選んで切り替えながら使うようにしてもよいし、また、それぞれのセンサは常に動かしておき、それらセンサ群のデータを必要に応じて処理してもよい。例えば人間の位置の候補を検出するために床圧センサを使い、前記候補地に本当に人がいるかどうかの判断に天井の監視カメラを使うなどの使い分けをしてもよい。または前記人間の位置候補が分かると、ロボットに設置されたステレオカメラを前記位置に向けて画像を撮影し、その画像から人がいるかどうかを検出する処理を行っても良い。
以上、ここでは複数センサ人間検出の方法の一例をごく簡単に紹介した。複数センサを用いた人間検出の方法に関しても、前記の画像を用いた方法と同様に、様々なところで研究開発がなされており、ここではこれ以上の説明は省略する。
なお、もちろんのことであるが、センシング手段114を構成するセンサとして他のセンサ、例えば焦電センサ、RFIDタグ、超音波センサなど、を使ってもかまわない。その場合はそれぞれのセンサの特徴を生かした人間検出のアルゴリズムを適用する必要があるのはいうまでもない。
人間行動推論手段115は、前記センシング手段114によってロボットの周囲に人間が検出された場合に、その人間の行動を推論する。より具体的な推論方法としては、検出された人間の体全体や一部分の動きなどを分析することによって行うことが一般的である。例えば人間の体全体や一部の動きの詳細が、前記センシング手段114によって検出できたとする。その場合に、例えば次の条件1が満たされたら、「ロボットの周囲にいる人が、ロボットの把持手段111に手を伸ばしてきている」という人間の行動の推論結果を得る。
第1の条件は、人間の体全体が近づいてきて、その後、左右のどちらか、若しくは、両方の手がロボットの把持手段111に近づいている。もちろんここで示したような人間の行動の推論方法はあくまで一例であることはいうまでもなく、他の方法を用いてもかまわない。例えば、図示しないがセンシング手段114にマイクを用い、人間行動推論手段115に音声認識を加えてもよい。この場合は、人間が発した音声を、マイクを通じて音声認識に取り込み、その処理結果として、前記発した言葉の内容が物品を受け取る意図を表していれば、人間の行動の推論結果として「ロボットの周囲にいる人が、ロボットの把持手段111に手を伸ばしてきている」としてもよい。
センシング手段114としてどのようなセンサを用いるか、またそれらセンサの人間検出機能がどの程度であるか、またどの程度の時間感覚で前記検出を行うことができるか、などに応じて人間行動の推論アルゴリズムを用意し、実装すればよい。
なお、本実施の形態のセンシング手段及び人間行動推論手段は、人間を検出対象としたが、人間に限らず、把持手段が把持している物体を受け取ろうとする物、たとえば、動物、ロボットなどであれば、検出対象とすることができる。
以上、本発明のロボット把持制御システムをなす各構成要素を説明した。繰り返しになるが、センシング手段114および人間行動推論手段115は、前記ロボット内においてもよいし、前記ロボットが存在する環境内においてもかまわない。またセンシング手段114については、ロボットと環境の両方に置くシステム構成にしてもかまわない。一方センシング手段114および人間行動推論手段115以外の構成要素は、ロボット内に設置するのが望ましい。
続いて、本発明請求項1に記載のロボット把持制御システムにおいて、ロボットが把持している物品にかかる力が人によるものなのか、それ以外によるものなのかを区別して把
持力を制御する処理の流れを、図を用いて説明する。
図7は、本実施の形態による物品の移動状態を用いたロボットハンド102の把持制御の処理を示したフローチャートである。
S101にて、ロボットによる物品の把持の有無を物品把持判断手段106によって判断する。もし物品を把持していなければ、ロボットハンド102解放の制御は不要なので直ちに処理を終了する。また、ロボットハンド102で物品を把持している場合はS102の処理に進む。
S102にて、物品の質量などのデータに基づいて物品にかかる重力、慣性力、コリオリ力などの外力を重力等補償手段104によって排除し、力センサ103は、人などの外部によって受けた力のみを、センサ値変量測定手段105に送る。
S103にて、センサ値変量測定手段105では、送られた力センサ103の値を時刻と共にメモリに書き込む。
S104にて、メモリを参照し、現在から所定の過去にわたって、力センサ103の値の最小値を調べ、それと現在値との変化量を計算する。そしてこの変化量が、予め定めた閾値以上であった場合に、力センサ103値の変化があったという情報を把持解放判断手段107に送る。変化量が閾値以下の場合は、ロボットハンド102解放の制御は不要なので直ちに処理を終了する。
S105にて、把持解放判断手段107は、センサ値変量測定手段105から力センサ103値の変化があったという情報を受けると、続いて人間行動推論手段115からの情報を受ける。そして前記情報が、ロボットの周囲に人間が存在し、前記人間がロボット自身の把持している物品を持ち取ろうとしているという内容であれば、S106にて、ロボットハンド102の把持力を緩和させ、ロボットハンド102を解放する。前記情報が前記内容でなければロボットハンド102解放の制御は不要なので直ちに処理を終了する。これは上記条件1が満たされているかどうかを判断するステップである。
なお、S106にてロボットハンド102を解放する際には、その旨を前記人間に伝えるアラーム処理を行うとよい。具体的には、ロボット自身に備えられたスピーカーを用いて「手を放します」という音声を発したり、またロボット自身に備えられたモニタを用いて「手を放します」という表示をしたりなどする。
以上のフローにおいて、S105における処理が、ロボットが把持している物品にかかる力が人によるものなのか、それ以外によるものなのかを区別するステップであり、この処理により、ロボットの把持している物品を人間が持ち取る操作を認識するので、把持力を強めて物品を握り潰してしまうことなく、人間が人間に物を手渡すがごとく、把持力を緩める制御を実現することが可能となる。
(実施の形態2)
本発明の第2の実施の形態は、本発明の解決すべき課題にも述べたように、ロボットの周囲にいる人が持っている物品を認識し、人がその物品をロボットに差し出した時に、それを受け取れるようにロボットハンドを制御する技術を提供するものである。
図8は、ロボットハンド把持制御システムを統合したロボットハンド把持制御システムの構成を示すブロック図である。第1の実施の形態と異なる点は、外力推定手段の変わりに、把持対象検出手段を用いた点である。
図8では、ロボットハンド把持制御システムにおいて基本的な構成要素として、物品を把持する機構をなす把持手段111、少なくとも前記ロボットの周囲に存在する人間を検出するセンシング手段114、前記センシング手段114にて人間が検出された場合に、前記検出された人間の行動を推測する人間行動推論手段115、前記検出された人間が物品を持っているか否かを検出する把持対象検出手段116、前記センシング手段114において推測された人間の行動の結果と、前記人間行動推論手段115において推測された人間の行動の結果と、前記把持対象検出手段116での検出結果とに応じて、前記把持手段111を制御する把持制御手段113を含むものである。
なお、把持手段111は、図8の点線の長方形の枠内の各部分、すなわちロボットアーム101、ロボットハンド102、物品把持判断手段106を具体的な構成要素として含み、これらについては、第1の実施の形態で詳細を説明したので、ここでは説明を省略する。
センシング手段114は、少なくともロボット自身の周囲に存在する人間を検出するもので、これについても、第1の実施の形態で説明した内容と同じであるので、ここでは省略する。
人間行動推論手段115は、前記センシング手段114にて人間が検出された場合に、前記検出された人間の行動を推測する点、また前記推測はセンシング手段114で検出された人間の体全体や一部分の動きなどを分析することによって行う点では前記第1の実施の形態とは同じであるが、第2の実施の形態では推測内容が異なる。
すなわち第1の実施の形態では、ロボットがハンドで把持している物品を、周囲にいる人間が取ろうとしたときに、そのことを人間行動推論手段115にて推論することで、ハンドを解放して物品を人に手渡す。一方、本第2の実施の形態では、ロボットの周囲にいる人間が手に持っている物品をロボットに手渡そうとしたら、そのことを人間行動推論手段115にて推論することで、それに応えるようにロボットがハンドを差し伸べる。
このことから第2の実施の形態の人間行動推論手段115での具体的な推論方法としては、例えば人間の体全体や一部の動きの詳細が、前記センシング手段114によって検出できたとする。その場合に、次の条件2が満たされたら、「ロボットの周囲にいる人が、ロボットの把持手段111に手を伸ばしてきて、ロボットに物品を渡そうとしている」と人間の行動を結論づける。
第2の条件は、センシング手段114で見つかった人間がロボット自身に左右のどちらか、若しくは、両方の手をさしのべている。
もちろんここで示したような人間の行動の推論方法はあくまで一例であることはいうまでもなく、他の方法を用いてもかまわない。例えば図示しないがセンシング手段114にマイクを用い、人間行動推論手段115に音声認識を加えてもよい。この場合は、人間が発した音声をそれをマイクを通じて音声認識に取り込み、その処理結果として、前記発した言葉の内容が物品を渡す意図を表していれば、人間の行動の推論結果として「ロボットの周囲にいる人が、ロボットの把持手段111に手を伸ばしてきて、ロボットに物品を渡そうとしている」としてもよい。
センシング手段114としてどのようなセンサを用いるか、またそれらセンサの人間検出機能がどの程度であるか、またどの程度の時間感覚で前記検出を行うことができるか、などに応じて人間行動の推論アルゴリズムを用意し、実装すればよい。
把持対象検出手段116は、前記センシング手段114にて人間が検出された場合に、その人間が物品を持っているか否かを検出する。検出の具体的な方法としては、例えばロボットが図6に示したようにステレオカメラを搭載しているならばそのカメラの画像を使って検出してもよいし、もし物品にRFIDタグが付与されていれば、タグのリーダライタを把持手段111に設置し、リーダライタを使って物品を検出してもよい。
図9は、把持手段111を構成するロボットハンド102にタグのリーダライタを設置した例を示した模式図である。また図9においてはタグのリーダライタによってタグの情報を読みとったり、また書き換え可能なタグに対してタグにデータを書き込んだりできる範囲を記載している。人間がタグ付きの物品をロボットに手渡す場合の把持対象検出手段116の処理例としては、まずステレオカメラの画像を使って、人間の手が前記範囲に入ったかどうかを所定の時間単位で計測し続け、入ったら、続いて前記リーダライタの電源を入れ、人間が把持している物品に付与されているRFIDタグからデータを読みとり、前記物品の様々な情報をRFIDタグから取得する。取得後は直ちに電源をOFFにする。リーダライタは常時電源ONにしていると消費電力が大きくなるので、このように必要な時にのみ電源をONにするようにすればよい。
なお、図10に示すように、把持対象検出手段116にて検出した把持対象物品が把持可能かどうかを判断する把持可否判断手段117を備えてもよい。把持可能かどうかの判断としては、前記把持手段111の把持能力と比較して、前記把持対象検出手段116にて検出した把持対象物品が、向きを含む存在位置、重さ、形状、材質などの面で前記能力の範囲内に収まっているかどうか、を検出すればよい。この場合、前記物品の重さ、形状、材質などの情報を得る必要がある。向きを含む存在位置および形状は、前記情報をステレオカメラによって得ることが可能である。もし前記ステレオカメラで把持対象の略全容が撮影されているならば、見えている部分の形状は特殊な状況をのぞいて計測可能なので、その計測結果を形状データとする。
また重さ、物品が個体である場合その形状、材質などの状況に依存しない物理的な情報は、RFIDタグを用いることもできる。すなわちこれらの情報をRFIDタグに埋め込んでおき、リーダライタによって取得しても良いし、RFIDタグに情報を埋め込むだけのメモリが無い場合には、RFIDタグからそれが付与されている物品固有のIDだけを取得してもよい。この場合はあらかじめ前記IDと1対1に対応する物理的情報を蓄えたデータベース118を、ロボット内もしくは外部に蓄えておき、前記IDをデータベース118に送り、前記情報を得るようにすればよい。データベース118が外部の場合は、有線もしくは無線のネットワークを介して前記情報を取得する。
把持制御手段113は、前記センシング手段114において推測された人間の行動の結果と、前記人間行動推論手段115において推測された人間の行動の結果と、前記把持対象検出手段116での検出結果とに応じて、前記把持手段111を制御する。より具体的な処理内容は後ほど説明する。
以上、本発明のロボット把持制御システムを統合したロボット把持制御システムをなす各構成要素を説明した。前記ロボット把持制御システムにおいても、センシング手段114および人間行動推論手段115は、前記ロボット内においてもよいし、前記ロボットが存在する環境内においてもかまわない。またセンシング手段114については、ロボットと環境の両方に置くシステム構成にしてもかまわない。一方センシング手段114および人間行動推論手段115以外の構成要素は、ロボット内に設置するのが望ましい。
続いて、前記ロボット把持制御システムにおいて、ロボットの周囲にいる人が持ってい
る物品を認識し、人がその物品をロボットに差し出した時に、それを受け取れるようにロボットハンド102を制御する制御する処理の流れを、図11を用いて説明する。図11は、本実施の形態による物品の移動状態を用いたロボットハンド102の把持制御の処理を示したフローチャートである。
S201にて、センシング手段114にてロボットの周囲の状況を観測する。
S202にて、もし前記センシング手段114にてロボットの周囲に人間がいることが検出できたら、人間検出の各種情報を人間行動推論手段115に送り、S203にて人間行動推論手段115にて、前記人間の行動の推測を開始する。また検出できなかったら、ロボットハンド102の制御は不要なので直ちに処理を終了する。
S204にて、S203における人間の行動の推測の内容が、前記人間が手をロボットにさしのべている、という結果でなかった場合は、ロボットハンド102の制御は不要なので直ちに処理を終了する。これは上記条件2が満たされているかどうかを判断するステップである。
S205にて、把持対象検出手段116にて前記人間が手に物品を持っているか否かを検出する。検出方法については前述した方法などを使えばよい。
S206にて、S205の処理に対して、前記人間が手に物品を持っていることを検出されなければ、ロボットハンド102の制御は不要なので直ちに処理を終了する。
S207にて、把持可否判断手段117にて、S206の処理で検出された物品が、ロボットの把持手段111の能力と比べて把持可能かどうかを判断し、もし把持が不可能と判断されたら、ロボットハンド102の制御は不要なので直ちに処理を終了する。
S208にて、把持制御手段113が、人間行動推論手段115および把持対象検出手段116からの情報を受けとり、ロボットの把持手段111の姿勢を、前記物品が受け取れる状態に変更する。
S209にて、ある所定時間内に、前記人間から物品を受け取ったかどうかを物品把持判断手段106によって判断し、もし受け取らなければS210にて把持手段111を元の状態に戻し処理を終了する。またもし受け取ったらS211にて前記物品を把持し、処理を終了する。
以上のフローにおいて、S203、S204における処理が、ロボットの周囲にいる人間が持っている物品を当該ロボットに渡すために差し出そうとしているかどうかを判断しているステップであり、この処理により、人間がロボットに物品を手渡しする場合に、人間がロボットに対して前記物品を把持できるような状態にさせる命令を明示的に与える必要がなくなるという効果を得ることができる。
以上2つの実施の形態において行われるそれぞれの処理、すなわち、図7および図11のフローチャートの処理は、一度行ったら済むというものではなく、決められた単位時間毎に常に処理される。
なぜなら、把持した物品をいつの時点で持ち取られるか、また人がいつ近づいてきてロボットに物品を渡そうとするか、はロボットにとって不明だからである。単位時間は、本処理を導入されたロボットが、どのような状況で使われるかに依存するので状況に応じて決めればよい。
例えば、本ロボット把持制御システムにおけるロボットが、人間とのコミュニケーション用に作られたものであれば、ロボットと人とが物品を頻繁にやりとりする可能性が高いため、単位時間は、少なくとも人間が物品を掴んで引っ張り始めるのに要する時間、また人間が物品を手渡して離すのに要する時間のいずれか短いほうの時間よりも、短い時間にするほうがよい。
なお、本発明は、第1及び第2の実施の形態に示した1本のアームと車輪による移動機構とを持つロボットのみに適応しうるものではなく、第1及び第2の実施の形態に記載した把持手段1111001を構成要素としてもつロボットであれば、どのような態様のロボットに対しても応用可能である。
例えば、2腕2脚を備えた人間型ロボットや、アームとハンドだけからなる腕型のロボットにも適用可能である。更には、人間型に限らず動物型ロボット904にも本技術は適用することができる。
図12は、ハンドやアームを持たない動物型のロボットに対応したものである。ロボットハンド901は、物品を把持するものであり、動物型ロボット904の口部に相当し、ロボットアーム902は、ロボットハンド901を移動させるものであり、第3の実施の形態では、首部に相当し、動物型ロボット904は、口部により物品を把持するものである。
本発明にかかるロボット把持制御システムは、ロボットがロボットハンドで把持している物品を人間が掴んで持ち取ろうとした場合に、その人間の操作を認識し、把持力を強めて物品を握り潰してしまうことなく、人間が人間に物を手渡すがごとく、把持力を緩める制御を実現することが可能となるものであり、人間とロボットとが物品を手渡しする等の用途に有用である。
本発明の第1の実施の形態によるロボット把持制御システムの構成を示す図 (a)本発明の第1の実施の形態によるロボットハンドに配設したセンサを示す図(b)本発明の第1の実施の形態によるロボットハンドに配設したセンサを示す図 本発明の第1の実施の形態による重力等補償手段にて物体に及ぼす外力を算出する方法を示す図 (a)本発明の第1の実施の形態による物品を把持したロボット把持制御システムが壁に接触している状態を示す図(b)本発明の第1の実施の形態によるロボットハンドの把持部分を示す図 本発明の第1の実施の形態によるメモリの内容を示す図 (a)本発明の第1の実施の形態によるセンシング手段をロボット本体に設置した状態を示す図(b)本発明の第1の実施の形態によるセンシング手段および人間行動推論手段をロボットの外部に設置した状態を示す図 本発明の第1の実施の形態によるロボット把持制御システムの処理を示したフローチャート 本発明の第2の実施の形態によるロボット把持制御システムの構成を示す図 本発明の第2の実施の形態による把持対象検出手段をロボットハンドに配置した状態を示す図 本発明の第2の実施の形態によるロボット把持制御システムの構成を示す図 本発明の第2の実施の形態によるロボット把持制御システムの処理を示したフローチャート 本発明の第2の実施の形態によるロボット把持制御システムの構成を示す図
符号の説明
101、902 ロボットアーム
102、901 ロボットハンド
103 力センサ
104 重力等補償手段
105 センサ値変量測定手段
106 物品把持判断手段
107 把持解放判断手段
108 把持力制御手段
109 関節角センサ
110 アーム制御手段
111 把持手段
112 外力推定手段
113 把持制御手段
114、903 センシング手段
115 人間行動推論手段
116 把持対象検出手段
117 把持可否判断手段
118 データベース
904 動物型ロボット

Claims (5)

  1. 物品を把持する機構をなす把持手段と、前記把持手段の周囲に存在する物体を検出するセンシング手段と、前記センシング手段が前記物体を検出した場合に、前記物体が前記物品を受け渡し行動の有無を推測する行動推論手段と、前記行動推測結果に応じて、前記把持手段を制御する把持制御手段とを含むロボット把持制御装置。
  2. 把持手段にて把持している物品に作用する外力を推定する外力推定手段を更に含み、前記把持手段が前記物品を把持している場合は、把持制御手段は、前記外力推定結果と前記行動推測結果とに応じて、前記把持手段を制御する請求項1記載のロボット把持制御装置。
  3. 物体による物品の把持の有無を検出する把持対象検出手段を更に含み、前記物体が前記物品を把持している場合は、把持制御手段は、行動推測結果と前記把持対象検出手段での検出結果とに応じて、前記把持手段を制御する請求項1記載のロボット把持制御装置。
  4. 把持対象検出手段にて検出された把持対象物品が把持可能かどうかを判断する把持可否判断手段を更に含む請求項3に記載のロボット把持制御装置。
  5. ロボットの把持手段の周囲に存在する物体を検出するセンシング手段と、前記センシング手段が前記物体を検出した場合に、前記物体が前記物体の受け渡し行動の有無を推測する行動推論手段と、前記行動推測結果を送信する送信手段とを含むロボット制御装置と、前記行動推測結果を受信する受信手段と、物品を把持する機構をなす把持手段と、前記行動推測結果に応じて、前記把持手段を制御する把持制御手段とを含むロボットと有するロボット把持制御システム。
JP2004029108A 2004-02-05 2004-02-05 ロボット把持制御装置及びロボット把持制御システム Pending JP2005219161A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004029108A JP2005219161A (ja) 2004-02-05 2004-02-05 ロボット把持制御装置及びロボット把持制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004029108A JP2005219161A (ja) 2004-02-05 2004-02-05 ロボット把持制御装置及びロボット把持制御システム

Publications (1)

Publication Number Publication Date
JP2005219161A true JP2005219161A (ja) 2005-08-18

Family

ID=34995203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004029108A Pending JP2005219161A (ja) 2004-02-05 2004-02-05 ロボット把持制御装置及びロボット把持制御システム

Country Status (1)

Country Link
JP (1) JP2005219161A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822508B2 (en) 2005-12-12 2010-10-26 Honda Motor Co., Ltd. Autonomous mobile robot and goods carrying method of using the same
JP2011510827A (ja) * 2008-01-28 2011-04-07 シーグリッド コーポレーション 施設を整備するロボットと実時間または近実時間で相互作用する方法
JP5128013B1 (ja) * 2012-02-15 2013-01-23 三菱電機株式会社 放電加工装置
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
WO2014118820A1 (ja) * 2013-01-30 2014-08-07 ヤマハ発動機株式会社 搬送装置、部品実装装置および把持具
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US9205559B2 (en) 2012-03-09 2015-12-08 Sony Corporation Robot apparatus, method of controlling robot apparatus, and computer program
JP2017047548A (ja) * 2015-08-31 2017-03-09 ファナック株式会社 射出成形システム
JP2018058178A (ja) * 2016-10-07 2018-04-12 ファナック株式会社 機械学習部を備えた作業補助システム
JP2019524465A (ja) * 2016-08-17 2019-09-05 ユニバーシティ・オブ・ハートフォードシャー・ハイヤーエデュケーション・コーポレーションUniversity Of Hertfordshire Higher Education Corporation ロボット
WO2021015025A1 (ja) * 2019-07-23 2021-01-28 ソニー株式会社 制御装置、制御方法および制御プログラム
EP3909727A1 (en) * 2020-05-12 2021-11-17 Soremartec S.A. Operating device
JP7415775B2 (ja) 2020-04-30 2024-01-17 トヨタ自動車株式会社 ロボット

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822508B2 (en) 2005-12-12 2010-10-26 Honda Motor Co., Ltd. Autonomous mobile robot and goods carrying method of using the same
JP2011510827A (ja) * 2008-01-28 2011-04-07 シーグリッド コーポレーション 施設を整備するロボットと実時間または近実時間で相互作用する方法
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
JP5128013B1 (ja) * 2012-02-15 2013-01-23 三菱電機株式会社 放電加工装置
WO2013121533A1 (ja) * 2012-02-15 2013-08-22 三菱電機株式会社 放電加工装置
US11072068B2 (en) 2012-03-09 2021-07-27 Sony Corporation Robot apparatus and method of controlling robot apparatus
US9205559B2 (en) 2012-03-09 2015-12-08 Sony Corporation Robot apparatus, method of controlling robot apparatus, and computer program
JP5902836B2 (ja) * 2013-01-30 2016-04-13 ヤマハ発動機株式会社 搬送装置、部品実装装置および把持具
WO2014118820A1 (ja) * 2013-01-30 2014-08-07 ヤマハ発動機株式会社 搬送装置、部品実装装置および把持具
JP2017047548A (ja) * 2015-08-31 2017-03-09 ファナック株式会社 射出成形システム
US10427343B2 (en) 2015-08-31 2019-10-01 Fanuc Corporation Injection molding system
JP2019524465A (ja) * 2016-08-17 2019-09-05 ユニバーシティ・オブ・ハートフォードシャー・ハイヤーエデュケーション・コーポレーションUniversity Of Hertfordshire Higher Education Corporation ロボット
JP2018058178A (ja) * 2016-10-07 2018-04-12 ファナック株式会社 機械学習部を備えた作業補助システム
WO2021015025A1 (ja) * 2019-07-23 2021-01-28 ソニー株式会社 制御装置、制御方法および制御プログラム
CN114206557A (zh) * 2019-07-23 2022-03-18 索尼集团公司 控制装置、控制方法和控制程序
JP7415775B2 (ja) 2020-04-30 2024-01-17 トヨタ自動車株式会社 ロボット
EP3909727A1 (en) * 2020-05-12 2021-11-17 Soremartec S.A. Operating device

Similar Documents

Publication Publication Date Title
JP4683073B2 (ja) ロボット把持制御装置及びロボット把持制御方法
JP6549545B2 (ja) 人の行動を学習してロボットを制御する制御装置およびロボットシステム
JP2005219161A (ja) ロボット把持制御装置及びロボット把持制御システム
US9694499B2 (en) Article pickup apparatus for picking up randomly piled articles
CN101479082B (zh) 机器人装置和机器人装置的控制方法
EP2952993B1 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
CN109070365A (zh) 物体操作装置及物体操作方法
JPWO2008047872A1 (ja) マニピュレータ
CA2950979A1 (en) Humanoid robot with collision avoidance and trajectory recovery capabilities
WO2004016400A3 (en) Systems and methods for the automated sensing of motion in a mobile robot using visual data
EP3585569B1 (en) Systems, apparatus, and methods for robotic learning and execution of skills
Chance et al. An assistive robot to support dressing-strategies for planning and error handling
JP4228871B2 (ja) ロボット把持制御装置及びロボット把持制御方法
CN114728417A (zh) 由远程操作员触发的机器人自主对象学习
US20220398454A1 (en) Method and system for detecting collision of robot manipulator using artificial neural network
JP6557853B2 (ja) 異常状態通知システム、異常状態通知プログラム、異常状態通知方法および異常状態通知装置
Konstantinova et al. Autonomous object handover using wrist tactile information
WO2019010612A1 (zh) 一种传感融合技术的机器人关节防撞保护系统及其方法
US20230226698A1 (en) Robot teleoperation control device, robot teleoperation control method, and storage medium
Himmelsbach et al. Single pixel time-of-flight sensors for object detection and self-detection in three-sectional single-arm robot manipulators
Jain et al. Object detection and gesture control of four-wheel mobile robot
JP2024506611A (ja) ナビゲーション及び操作機能を含む技能をロボティック学習及び実行するシステム、装置、及び方法
US20220355490A1 (en) Control device, control method, and program
WO2021044953A1 (ja) 情報処理システム及び情報処理方法
Ghandour et al. Interactive collision avoidance system for indoor mobile robots based on human-robot interaction