JP7415775B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP7415775B2
JP7415775B2 JP2020080208A JP2020080208A JP7415775B2 JP 7415775 B2 JP7415775 B2 JP 7415775B2 JP 2020080208 A JP2020080208 A JP 2020080208A JP 2020080208 A JP2020080208 A JP 2020080208A JP 7415775 B2 JP7415775 B2 JP 7415775B2
Authority
JP
Japan
Prior art keywords
gripper
grip
robot
gripping
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020080208A
Other languages
English (en)
Other versions
JP2021171900A (ja
Inventor
佳佑 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020080208A priority Critical patent/JP7415775B2/ja
Publication of JP2021171900A publication Critical patent/JP2021171900A/ja
Application granted granted Critical
Publication of JP7415775B2 publication Critical patent/JP7415775B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、グリッパを備えるロボットに関する。
例えば、特許文献1に開示されているように、グリッパを備えるロボットが知られている。
特開2016-203276号公報
発明者は、ロボットのグリッパが把持した対象物をユーザが受け取る際に、ユーザはグリッパの力によって対象物を中々受け取ることができないという問題を見出した。
本発明は、上記の問題を鑑みてなされたものであり、ユーザが対象物を受け取る際に、当該対象物を落とすことなくスムーズに受け取ることが可能な、グリッパを備えるロボットを提供するものである。
本発明に係るロボットは、
グリッパと、当該グリッパを制御する把持制御部と、を備えるロボットであって、
前記グリッパは、第1の把持部と、前記第1の把持部に対向して位置する第2の把持部と、を備え、
前記把持制御部は、前記第1の把持部と前記第2の把持部とが挟持して把持している対象物をユーザに渡す際に、
前記第1及び第2の把持部のうち上側に位置する把持部が下側に位置する把持部よりも動きやすくなるように前記グリッパを制御する。
本発明に係るロボットでは、第1の把持部と第2の把持部とが挟持して把持している対象物をユーザに渡す際に、第1及び第2の把持部のうち上側に位置する把持部が下側に位置する把持部よりも動きやすくなるようにグリッパを制御する。したがって、ユーザが対象物を受け取る際に、当該対象物をスムーズに受け取ることが可能である。さらに、上側に位置する把持部が下側に位置する把持部よりも外力が作用した際に動きやすくなるようにグリッパを制御することによって、ユーザは対象物を受け取る際に、グリップを上側に位置する把持部の下面に押し付けつつ持ち上げることができる。よって、ユーザが対象物を受け取る際に、当該対象物を落とすことなくスムーズに受け取ることが可能な、グリッパと当該グリッパを制御する把持制御部とを備えるロボットを提供できる。
本発明により、ユーザがロボットから対象物を受け取る際にスムーズに受け取ることができる。
実施の形態に係るグリッパを備えるロボットを示す外観斜視図である。 実施の形態に係るロボットが備えるグリッパの拡大側面図である。 実施の形態に係るロボットの制御構成を示すブロック図である。 実施の形態に係るグリッパが対象物をユーザに渡す制御の流れを示すフローチャートである。 実施の形態にかかるグリッパが対象物を把持した状態を示す側面図である。 実施の形態に係る上把持部が下把持部よりも外力が作用した際に動きやすくなった状態を示す側面図である。
以下、本発明の具体的な実施の形態について、図面を参照しながら詳細に説明する。
なお、図に示した右手系xyz座標は、構成要素の位置関係を説明するための便宜的なものである。特に言及のない限り、z軸プラス向きが鉛直上向きである。また、xy平面が水平面であり、ロボットの走行面である。
<実施の形態>
本実施の形態では、図1を参照し、グリッパを備えるロボットの全体構成について説明する。続いて図2を参照し、グリッパの詳細について説明する。次に図3を参照し、ロボットの制御構成について説明する。さらに図4~図6を参照し、ロボットが対象物をユーザに渡す制御の流れについて説明する。
図1は、実施の形態に係るグリッパを備えるロボット100を示す外観斜視図である。ロボット100は、台車部110、本体部120、アーム部130及びグリッパ140を備える。
まず、図1を参照し、台車部110について説明する。
図1に示すように、台車部110は、本体部120を支持しつつ走行面を移動可能な複数の車輪を備える。本体部120を支持する台車部110の形状は、例えば円筒状の筐体とすることができる。当該筐体の内部底面側に、走行面を移動可能な複数の車輪として、駆動輪111と、従動輪112とを備える。
図1に示すように、駆動輪111は、走行面を所望の方向へ走行可能に設けられた車輪である。駆動輪111は、例えば図1に示すように2個配設することができる。各駆動輪111は、不図示のモータによってy軸回りにそれぞれ独立して回転駆動させることができる。駆動輪111を2個以上配設した場合、各駆動輪111を回転駆動させる際に、各駆動輪111の回転軸が互いに一致するように駆動させることが好ましい。
図1に示すように、従動輪112は、例えば固定式のキャスターである。従動輪112は、車輪を軸支するように設けられたz軸方向の旋回軸が、車輪の回転軸とは別に設けられている。従動輪112は、車輪の回転方向が台車部110の移動方向へ向くように配設することができる。
ロボット100の移動方向は、上述した台車部110が備える複数の車輪のうち、各駆動輪111の回転方向によって決定される。例えば、図1に示すように駆動輪111を2つ備える場合、各駆動輪111を同じ回転速度で同じ方向に回転させると、ロボット100は車輪の回転方向へと向かって直進する。一方、同じ回転速度で一方の駆動輪111を正回転させ、他方の駆動輪111を逆回転させると、ロボット100は2つの駆動輪111の中央を通るz軸回りに旋回する。
続いて、図1を参照し、本体部120について説明する。
図1に示すように、本体部120は、アーム部130及びグリッパ140を支持する、ロボット100の本体である。また、本体部120は、ロボット100の全体の動作を制御するコントロールユニット190を備える。コントロールユニット190についての詳細は、後述する。
本体部120はさらに、対象物やユーザを認識するための複数のカメラや音声取得部等を備える。具体的には、図1に示すように、本体部120は例えば、ステレオカメラ121、ディスプレイ122、環境カメラ123、音声取得部124を備える。
より具体的には、図1に示すように、ステレオカメラ121は、走行面と水平方向に所定の間隔を有して少なくとも2個設けることができる。各カメラ画像の視差から、物体の距離情報を取得することができる。例えばCMOSイメージセンサである撮像素子と画像データ生成部を含み、前方の環境空間を撮像して生成した画像データを出力する。
ディスプレイ122は、例えば液晶パネルであり、画像や動画を表示可能である。プログラムを用いることによって、表示するコンテンツは自由に変更可能である。ディスプレイ122は、表示面にタッチパネルを有し、ユーザからの指示入力を受け付けることができる。
図1に示すように、環境カメラ123は、カラー画像と奥行き画像を取得する。物体や環境の認識に利用可能であり、例えばRGB-Dカメラを用いることができる。環境カメラ123は、アーム部130及びグリッパ140の動作範囲を含む前方の環境空間を見渡せる位置に配設することが好ましい。
音声取得部124は、周囲やユーザの音声データを取得することができる。音声取得部124は、複数のマイクを備えてもよい。
続いて、図1を参照し、アーム部130及びグリッパ140について説明する。
図1に示すように、アーム部130は本体部120に支持されており、本体部120と逆側にグリッパ140を備える。アーム部130は、複数のリンク130a,130bを備える。関節部131は、各リンク130a,130bを回動可能に連結する。関節部131にはアクチュエータと減速機構が配設されている。関節部131のアクチュエータを駆動させることによって、アーム部130は様々な姿勢を取り得る。
グリッパ140は対象物を把持する機構であり、図1に示すように、アーム部130に取り付けられている。続いて、図2を参照し、グリッパ140のさらに詳細な構成および動作について説明する。図2は、実施の形態に係るロボット100が備えるグリッパ140の拡大側面図である。
図2に示すように、グリッパ140は、第1の把持部140aと、第1の把持部140aに対向して位置する第2の把持部140bと、を備える。第1の把持部140a及び第2の把持部140bは、関節部140cを中心に回動可能に連結されている。第2の把持部140bは、把持する対象物の重さを検出可能な重量センサ144を備えることができる。
グリッパ140が対象物を把持する際は、第1の把持部140a及び第2の把持部140bの対向する面同士が接近し、対象物を挟持して把持することができる。グリッパ140の全体は、アーム部130のリンク130bの伸延方向と平行な旋回軸周りに、アクチュエータの駆動によって旋回し得る。図2では説明のため、第1の把持部140aを上側(z軸正側)に、第2の把持部140bを下側(z軸負側)に示しているが、第1の把持部140a及び第2の把持部140bの上下の位置関係はこれに限定されない。具体的には、グリッパ140が対象物を把持する際は、グリッパ140の全体が任意の向きに旋回し、対象物を把持することができる。なお、グリッパ140の上下の位置関係が固定されていてもよい。グリッパ140が対象物の把持を行う動作のための制御構成は図3を用いて、また、制御処理の流れについては、図4~6を用いて後述する。
グリッパ140は、さらにハンドカメラ141を備えることができる。ハンドカメラ141は、例えばCMOSイメージセンサである撮像素子と画像データ生成部を含む。ハンドカメラ141は、グリッパ140の第1の把持部140a及び第2の把持部140b側の空間を撮像し、生成した画像データを出力する。
次に、図3を参照し、ロボットの制御構成について説明する。
図3は、実施の形態に係るロボット100の制御構成を示すブロック図である。制御装置200は、例えばCPUである。制御装置200は、図1に示したロボット100の本体部120が備える、コントロールユニット190に格納されている。
グリッパ140は、アクチュエータ142、力センサ143、及び、第2の把持部140bに配設された重量センサ144を備える。把持制御部204によって制御されたアクチュエータ142は、第1の把持部140aと第2の把持部140bとを駆動する。力センサ143は、グリッパ140の操作力(トルク)を検出する。重量センサ144は、対象物の重さを検出するセンサである。重量センサ144が検出した重量データは、制御装置200へと送られる。
図3に示す駆動ユニット210は、図1に示した駆動輪111を駆動するための駆動回路やモータを含む。駆動ユニット210は、図1に示したロボット100の台車部110に設けられている。
図3に示すハンドカメラ141、ステレオカメラ121及び環境カメラ123は、制御装置200の撮像指示に従って撮像を実行する。ハンドカメラ141、ステレオカメラ121及び環境カメラ123は、生成した画像データを制御装置200へ引き渡す。音声取得部124は、制御装置200の音声取得支持に従って音声取得を実行する。音声取得部124は、生成した音声データを制御装置200へ引き渡す。
図3に示すように、制御装置200は、アーム制御部201、把持制御判定部202、把持部上下判定部203、把持制御部204を備える。アーム制御部201は、アーム部130の動作を制御する。アーム部130は、図1を用いて説明した構成の他に、アクチュエータ132、力センサ133及び回転センサ134を備える。アクチュエータ132は、各関節部131を駆動する。アクチュエータ132は、例えばサーボモータなどである。力センサ133は、各関節部131の操作力(トルク)と、対象物の重さを検出する。力センサ133は、例えばトルクセンサなどである。回転センサ134は、各関節部131の回転情報を検出する。回転センサ134は、例えばエンコーダなどである。
把持制御判定部202は、把持制御を行うか否かを判定する。把持制御部204は、把持制御判定部202が把持制御を行うと判定した場合に、グリッパ140を制御する。把持制御には、グリッパ140が対象物を把持するように挟持する動作と、ロボット100がグリッパ140に把持した対象物をユーザに渡す動作との両方が含まれる。
把持制御判定部202が行う把持制御のうち、ロボット100のグリッパ140が把持した対象物をユーザに渡す動作の制御では、ロボット100がユーザに対象物を渡すタイミングか否かを判定する。「ロボット100がユーザに対象物を渡すタイミング」の詳細は後述する。ロボット100がユーザに対象物を渡すタイミングだと判断した場合、後述する把持部上下判定部203を用いてグリッパ140が備える第1の把持部140a及び第2の把持部140bの上下の位置関係を判定する。把持制御部204は、当該結果を用いて、さらにグリッパ140の制御を行う。当該制御の詳細については後述する。
まず、把持制御判定部202が、ロボット100がユーザに対象物を渡すタイミングか否かの判定について説明する。「ロボット100がユーザに対象物を渡すタイミング」とは、例えば以下の(1)~(4)を指す。
(1)ロボット100が対象物をユーザに渡す位置に到着した場合
(2)対象物を渡すユーザがロボット100の近くにいる場合
(3)ロボット100とユーザとがコミュニケーションを取って対象物を渡す場合
(4)対象物を渡すとあらかじめ決定されているユーザをロボット100が検出した場合
上記(1)~(4)について、より具体的には以下の通りである。
上記(1)の場合は、ロボット100があらかじめ定められた位置へと自律移動した場合、ロボット100がユーザに対象物を渡すタイミングであると判定する。対象物をユーザに渡す位置は、ロボット100に自律移動可能な領域を記録した地図を地図データベースとしてあらかじめ記憶させてもよいし、通信等によって取得可能な地図データベースなどを用いてもよい。
より具体的には、制御装置200は、グリッパ140が備えるハンドカメラ141、本体部が備えるステレオカメラ121、環境カメラ123のうちの少なくとも1つに対して、撮像指示を出す。制御装置200は、カメラが生成した画像データと、地図データベースとを比較することによって、現在地を判断する。現在地と、対象物をユーザに渡す位置とが一致するまで、制御装置200は駆動ユニット210へ指示を出し、駆動輪111を駆動させることによってロボット100を自律移動させる。なお、現在地の検出は、不図示のセンサ類によって行ってもよい。また、地図データベース以外に、カメラ類とセンサ類のいずれの場合についても、周囲環境や、あらかじめ定められた位置である目的地に所定のマークなどを記載し、当該マークを読み取ることによって行ってもよい。
上記(2)の場合は、制御装置200が、グリッパ140が備えるハンドカメラ141、本体部が備えるステレオカメラ121、環境カメラ123の少なくとも1つに対して撮像指示を出す。制御装置200は、これらのカメラが生成した画像データを取得し、当該画像データにユーザが含まれていることを検出した場合、ロボット100がユーザに対象物を渡すタイミングであると判定する。なお、ロボット100とユーザとの距離を示す「近く」とは、任意の距離に設定可能である。なお、ユーザの検出は、不図示のセンサ類によって行ってもよい。
上記(3)の場合は、制御装置200が、グリッパ140が備えるハンドカメラ141、本体部が備えるステレオカメラ121、環境カメラ123の少なくとも1つに対して撮像指示を出す。制御装置200は、これらのカメラが生成した画像データを取得し、当該画像データにユーザが含まれていることを検出した場合、さらに制御装置200は音声取得部124にユーザの発する声を取得するように指示を出す。音声取得部124がユーザの発する声を取得し、取得した音声情報に基づき制御装置200が対象物をユーザへと渡すと判定した場合、ロボット100がユーザに対象物を渡すタイミングであると判定する。
なお、撮像指示と音声取得指示は同時に行ってもよい。音声取得が先の場合、音声が発せられた方向に向かって移動するように、駆動ユニット210を制御してもよい。また、ユーザの検出は、不図示のセンサ類によって行ってもよい。
上記(4)の場合は、制御装置200が、グリッパ140が備えるハンドカメラ141、本体部が備えるステレオカメラ121、環境カメラ123の少なくとも1つに対して撮像指示を出す。制御装置200は、これらのカメラが生成した画像データを取得し、当該画像データにあらかじめ対象物を渡すと決定されたユーザを検出した場合、ロボット100がユーザに対象物を渡すタイミングであると判定する。なお、ユーザの検出は、不図示のセンサ類によって行ってもよい。
上述のように、ロボット100がユーザに対象物を渡すタイミングだと判断した場合、把持部上下判定部203を用いて、グリッパ140が備える第1の把持部140a及び第2の把持部140bの上下の位置関係を判定する。当該判定結果に基づいて、把持制御判定部202は、さらにグリッパ140の制御を行う。より具体的には、グリッパ140が把持している対象物をユーザに渡す際に、第1の把持部140a及び第2の把持部140bのうち、相対的に上側に位置する把持部を上把持部と判定し、当該上把持部に対して下側に位置する把持部を下把持部と判定する。
例えば、第1の把持部140aが、第2の把持部140bよりも上側に位置する場合、把持部上下判定部203は、第1の把持部140aが上把持部であると判定する。また、第2の把持部140bが第1の把持部140aよりも下側に位置する場合、把持部上下判定部203は、第2の把持部140bが下把持部であると判定する。すなわち、第1の把持部140a及び第2の把持部140bが図2に示すような位置関係のとき、第1の把持部140aが上把持部であり、第2の把持部140bが下把持部であると判定する。この場合、把持制御部204は、外力が作用した際に、上把持部である第1の把持部140aが、下把持部である第2の把持部140bよりも動きやすくなるようにグリッパ140を制御することができる。
逆もまた同様である。例えば、第2の把持部140bが、第1の把持部140aよりも上側に位置する場合、把持部上下判定部203は、第2の把持部140bが上把持部であると判定する。また、第1の把持部140aが第2の把持部140bよりも下側に位置する場合、把持部上下判定部203は、第1の把持部140aが下把持部であると判定する。この場合、把持制御部204は、外力が作用した際に、上把持部である第2の把持部140bが、下把持部である第1の把持部140aよりも動きやすくなるようにグリッパ140を制御することができる。
ここで、「上把持部が下把持部よりも動きやすくなるように制御する」とは、対象物をユーザへ渡す際に、上把持部と下把持部との動摩擦力に差を付けて制御することや、操作力(トルク)に差を付けて制御することや、下把持部のみが固定され、上把持部のみが可動するように制御することなどを含む。
さらに、把持制御部204は、重量センサ144が検出した対象物の重さに応じて、上把持部が下把持部よりも動きやすくなるように制御する。「対象物の重さに応じて」とは、例えば、あらかじめ定められた基準重量に比べ、検出した重量が軽い場合に、把持した対象物をユーザに渡す前に対象物が風などによって飛ばされることのないように、対象物の重量が基準重量より重い場合に比べて上把持部が動きにくくなるように制御することを意味する。
制御装置200は、対象物の把持または渡す動作に関する様々な演算を行い、その演算結果に基づいて、アーム部130、グリッパ140及び駆動ユニット210へと駆動信号を送信することによって制御する。
メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、ロボット100を制御するためのロボット制御プログラムの他、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
次に、図4~図6を参照し、把持部が対象物の把持を行う動作を制御する処理の流れについて説明する。図4は、実施の形態に係るグリッパ140が対象物をユーザに渡す制御の流れを示すフローチャートである。以下、図4のフローチャートの一部に対応する図5及び図6を参照しつつ、各ステップについて詳細に説明する。
[ステップS1:対象物の把持]
ステップS1では、ロボット100のグリッパ140が備える第1の把持部140aと第2の把持部140bとが、対象物を挟持するようにグリッパ140を制御する。図5では、対象物11の一例として、持ち手を備えるかごを示している。構成の一例として、対象物11は、かご本体部12と、2つの持ち手部13と、当該2つの持ち手部13を束ねるグリップ14とを備える。
図5は、実施の形態にかかるグリッパ140が対象物11を把持した状態を示す側面図である。図5では、第1の把持部140aと第2の把持部140bとによって、対象物11が備えるグリップ14を挟持して把持している状態を示している。より具体的には、第1の把持部140aの下面と、第2の把持部140bの上面とが互いに接近し、対象物11のグリップ14を挟持して把持する。第1の把持部140aと第2の把持部140bとが対象物11のグリップ14を挟持する際、グリップ14を挟持する第1の把持部140aの操作力(トルク)と、第2の把持部140bの操作力(トルク)とは一致するように制御される(黒矢印で示す)。
対象物11を把持する位置は、例えば図5に示したかごの場合はグリップ14等、対象物に応じてあらかじめ定められた位置としてもよいし、ハンドカメラ141によって撮像し、生成した画像データから制御装置200が把持可能と判断した任意の位置でもよい。
また、図5では対象物11の構成の一例として、持ち手部13を2つ有し、持ち手部13を束ねるグリップ14とを備えるかごを示したが、これに限定されず、例えば持ち手部13を1つ有するかごを把持する場合であってもよい。持ち手部13を1つ有するかごの場合は、グリップ14は備えなくてもよい。
[ステップS2:対象物を渡すタイミングか否かを判定]
ステップS2では、ロボット100が対象物をユーザに渡すタイミングか否かを、制御装置200が備える把持制御判定部202が判定する。一例として、前述の(1)ロボット100が対象物をユーザに渡す位置に到着した場合について説明する。ロボット100が備える制御装置200が、環境カメラ123に対して撮像指示を出す。制御装置200は、環境カメラ123が生成した画像データに基づき、現在地を判断する。ロボット100が対象物11をユーザに渡す位置に到着したと判断すると(ステップS2:YES)、ステップS3に進む。ロボット100が対象物をユーザに渡すタイミングになったと把持制御判定部202が判定するまで、ステップS2を繰り返す。
さらに、ステップS2では、ロボット100が対象物をユーザに渡すと判断した際に、把持部の上下の位置関係を判定する。具体的には、グリッパ140が備える第1の把持部140a及び第2の把持部140bの上下の位置関係から、相対的に上側に位置する把持部を上把持部と判定し、当該上把持部に対して下側に位置する把持部を下把持部と判定する。図5及び図6に示すように、第1の把持部140aが、第2の把持部140bよりも上側にある場合、把持部上下判定部203は、第1の把持部140aが上把持部であると判定する。また、第2の把持部140bが第1の把持部140aよりも下側に位置する場合、把持部上下判定部203は、第2の把持部140bが下把持部であると判定する。なお、第1の把持部140aと第2の把持部140bとの上下の位置関係が固定されている場合は、上下の位置関係の判定は省略可能である。
[ステップS3:上把持部を下把持部よりも動きやすくなるように制御]
ステップS3では、外力が作用した際に、第1の把持部140a(上把持部)が第2の把持部140b(下把持部)よりも動きやすくなるように、把持制御部204が制御を行う。図6は、実施の形態に係る第1の把持部140a(上把持部)が第2の把持部140b(下把持部)よりも外力が作用した際に動きやすくなった状態を示す側面図である。図6の例では、第1の把持部140a(上把持部)が第2の把持部140b(下把持部)よりも動きやすくなるように制御する一例として、第2の把持部140b(下把持部)の操作力(トルク)に比べ、グリップ14を挟持する第1の把持部140a(上把持部)の操作力(トルク)が小さくなるように制御されている。
したがって、図6に示すように、ユーザの手300が対象物11であるかごを受け取る際に、第1の把持部140a(上把持部)が受け取りの邪魔をしないため、ユーザは対象物11をスムーズに受け取ることができる。また、第2の把持部140b(下把持部)の操作力(トルク)に比べ、グリップ14を挟持する第1の把持部140a(上把持部)の操作力(トルク)が小さくなるように制御することによって、ユーザは対象物11を受け取る際に、グリップ14を第1の把持部140a(上把持部)の下面に押し付けつつ持ち上げることができる。したがって、第1の把持部140a(上把持部)が第2の把持部140b(下把持部)よりも外力が作用した際に動きやすくなるように、当該第1の把持部140a(上把持部)が制御されていることによって、ユーザは対象物11を落とすことなく且つスムーズに受け取ることができる。
発明者は、ロボットの把持部が把持した対象物をユーザが受け取る際に、ユーザは把持部の力によって対象物を中々受け取ることができないという問題を見出した。
これに対し本実施の形態に係るグリッパと、当該グリッパを制御する把持制御部と、を備えるロボットでは、第1の把持部と第2の把持部とが挟持して把持している対象物をユーザに渡す際に、第1及び第2の把持部のうち上側に位置する把持部が下側に位置する把持部よりも動きやすくなるようにグリッパを制御する。したがって、ユーザが対象物を受け取る際に、当該対象物をスムーズに受け取ることが可能である。さらに、上側に位置する把持部が下側に位置する把持部よりも外力が作用した際に動きやすくなるようにグリッパを制御することによって、ユーザは対象物を受け取る際に、グリップを上側に位置する把持部の下面に押し付けつつ持ち上げることができる。したがって、ユーザは対象物を落とすことなく且つスムーズに受け取ることができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
11 対象物、12 本体部、13 持ち手部、14 グリップ
100 ロボット
110 台車部、111 駆動輪、112 従動輪
120 本体部、121 ステレオカメラ、122 ディスプレイ、123 環境カメラ、124 音声取得部
130 アーム部、130a,130b リンク、131 関節部、132 アクチュエータ、133 力センサ、134 回転センサ
140 グリッパ、140a 第1の把持部、140b 第2の把持部、140c 関節部、141 ハンドカメラ、142 アクチュエータ、143 力センサ、144 重量センサ
190 コントロールユニット、200 制御装置、210 駆動ユニット、240 メモリ
300 手

Claims (1)

  1. グリッパと、当該グリッパを制御する把持制御部と、を備えるロボットであって、
    前記グリッパは、第1の把持部と、前記第1の把持部に対向して位置する第2の把持部と、を備え、
    前記把持制御部は、前記第1の把持部と前記第2の把持部とが挟持して把持している対象物をユーザに渡す際に、
    前記第1及び第2の把持部のうち上側に位置する把持部が下側に位置する把持部よりも動きやすくなるように前記グリッパを制御する、
    ロボット。
JP2020080208A 2020-04-30 2020-04-30 ロボット Active JP7415775B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080208A JP7415775B2 (ja) 2020-04-30 2020-04-30 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080208A JP7415775B2 (ja) 2020-04-30 2020-04-30 ロボット

Publications (2)

Publication Number Publication Date
JP2021171900A JP2021171900A (ja) 2021-11-01
JP7415775B2 true JP7415775B2 (ja) 2024-01-17

Family

ID=78281142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080208A Active JP7415775B2 (ja) 2020-04-30 2020-04-30 ロボット

Country Status (1)

Country Link
JP (1) JP7415775B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005219161A (ja) 2004-02-05 2005-08-18 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御システム
JP2006167837A (ja) 2004-12-14 2006-06-29 Honda Motor Co Ltd 物品運搬システム
WO2007080733A1 (ja) 2006-01-13 2007-07-19 Matsushita Electric Industrial Co., Ltd. ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
US20110166709A1 (en) 2010-01-06 2011-07-07 Samsung Electronics Co., Ltd. Robot and control method
WO2021015025A1 (ja) 2019-07-23 2021-01-28 ソニー株式会社 制御装置、制御方法および制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005219161A (ja) 2004-02-05 2005-08-18 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御システム
JP2006167837A (ja) 2004-12-14 2006-06-29 Honda Motor Co Ltd 物品運搬システム
WO2007080733A1 (ja) 2006-01-13 2007-07-19 Matsushita Electric Industrial Co., Ltd. ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
US20110166709A1 (en) 2010-01-06 2011-07-07 Samsung Electronics Co., Ltd. Robot and control method
WO2021015025A1 (ja) 2019-07-23 2021-01-28 ソニー株式会社 制御装置、制御方法および制御プログラム

Also Published As

Publication number Publication date
JP2021171900A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
TWI609748B (zh) 遠端操作機器人系統
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
JP4456561B2 (ja) 自律移動ロボット
JP5505138B2 (ja) ロボット装置およびロボット装置による把持方法
JP5054842B2 (ja) パラレルリンクロボット、および、パラレルリンクロボットの教示方法
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP5423142B2 (ja) 案内用ロボット及びその制御方法
US10618181B2 (en) Robot control device, robot, and robot system
WO2004103651A1 (ja) 物体協調運搬ロボットの制御方法及びその装置
JP2022534835A (ja) 移動ロボット形態
WO2015143273A2 (en) Mobile human-friendly assistive robot
US11945106B2 (en) Shared dense network with robot task-specific heads
JP6319128B2 (ja) 把持ロボット及び把持ロボットの制御方法
JP3377740B2 (ja) 力補助装置の制御方法及びこの方法を利用した制御装置
JP7342676B2 (ja) 遠隔操作システム及び遠隔操作方法
JP2020082282A (ja) 把持ロボットおよび把持ロボットの制御プログラム
JP7415775B2 (ja) ロボット
JP2010082714A (ja) コミュニケーションロボット
JP5510599B2 (ja) 案内用ロボット
WO2020105295A1 (ja) 画像情報処理装置、把持システム、および画像情報処理方法
JP6307838B2 (ja) ロボット、ロボットシステムおよび制御装置
JP7447665B2 (ja) ロボットアームの制御方法
JP2002258944A (ja) 移動台車の遠隔操作装置および移動台車の操舵入力装置
JP7276108B2 (ja) 遠隔操作システム及び遠隔操作方法
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151