JP7248271B2 - 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム - Google Patents

情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム Download PDF

Info

Publication number
JP7248271B2
JP7248271B2 JP2018172026A JP2018172026A JP7248271B2 JP 7248271 B2 JP7248271 B2 JP 7248271B2 JP 2018172026 A JP2018172026 A JP 2018172026A JP 2018172026 A JP2018172026 A JP 2018172026A JP 7248271 B2 JP7248271 B2 JP 7248271B2
Authority
JP
Japan
Prior art keywords
user
robot
hand
robot hand
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018172026A
Other languages
English (en)
Other versions
JP2020044581A (ja
Inventor
▲すすむ▼ 舘
康之 井上
史洋 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2018172026A priority Critical patent/JP7248271B2/ja
Priority to PCT/JP2019/031019 priority patent/WO2020054268A1/ja
Publication of JP2020044581A publication Critical patent/JP2020044581A/ja
Application granted granted Critical
Publication of JP7248271B2 publication Critical patent/JP7248271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements

Description

本発明は、情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラムに関する。
人間の手は5本の指が器用に動くことにより様々な作業を遂行することができる。しかし、特別な技能(外科手術や楽器の演奏等)に関する器用な人の手の動きは、特定の人にしかできないことが多く、また、それらは暗黙的な身体知である。そのため、専門医や演奏家などの優れた技能は、その人の手の届く範囲でしか実現されず、その技能を他者に教えることも困難である。
それに対して、人間の身体の動きを記録してロボットにその動きを再現させるという技術的アプローチが存在する。例えば、特許文献1には、人間であるユーザの手の動きに合わせて動作可能なマスター・スレーブ式のロボットハンドが開示されている。このようなロボットハンドによれば、ユーザの手の動きをロボットハンドにおおよそ再現させることができる。
特開2005-014166号公報
しかしながら、特許文献1に開示されているロボットハンドは、操作する人間の手と大きさも構造も異なるため、単にジェスチャー等のおおよその形を伝える程度に過ぎない。仮に前述のような特別な技能を発揮するには、特定のユーザの手の大きさや及び構造と同一のロボットハンドを製作する必要があり、これは現実的ではない。すなわち、ユーザの手の大きさや構造に関わらず、このような特別な技能を有する作業を遂行可能なロボットハンドの実現が望まれている。
本発明は、かかる事情を鑑みてなされたものであり、ユーザの手の大きさや構造に関わらず、特別な技能を有する作業を遂行可能なロボットハンドを実現させるための情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラムを提供することを目的とする。
本発明によれば、ロボットにおけるロボットハンドに関する情報処理装置であって、入力部と、演算部と、生成部と備え、ユーザの手における特徴箇所を第1及び第2ユーザ特徴箇所と定義し、前記第1及び第2ユーザ特徴箇所に対応するロボットハンドにおける特徴箇所を第1及び第2ロボット特徴箇所と定義すると、前記入力部は、第1及び第2ユーザ特徴箇所に関する情報を入力可能に構成され、前記演算部は、前記ユーザの手に関するローカル座標系であるユーザ座標系において前記第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルを算出し、前記生成部は、前記ユーザベクトルに基づいて前記ロボットハンドに対する制御信号を生成し、前記制御信号は、前記第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルを前記ユーザベクトルに一致させるように前記ロボットハンドを制御する信号である、情報処理装置が提供される。
本発明に係る情報処理装置において、演算部は、ユーザの手に関するローカル座標系であるユーザ座標系において第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルを算出し、生成部は、ユーザベクトルに基づいてロボットハンドに対する制御信号を生 成し、制御信号は、第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルをユーザベクトルに一致させるようにロボットハンドを制御する信号であることを特徴とする。このような構成を有する情報処理装置により、ロボットハンドの操縦者であるユーザ自らの手指の動作をロボットハンドに正確に再現させることができる、という効果を奏する。これにより、外科手術や楽器の演奏等の特別な技能を有する作業を遂行可能なロボットハンドの実現が期待されうる。
実施形態に係るロボットハンド制御システムの機能ブロック図。 [図2A]ヒト(ユーザ)の手の態様及び[図2B]ロボットハンドの態様を示す概要図。 [図3A]ユーザの手の態様及び[図3B]ロボットハンドの態様であって、オフセットがない場合の対応関係を示す図。 [図4A]ユーザの手の態様及び[図4B]ロボットハンドの態様であって、ユーザの手がロボットハンドより大きい場合の対応関係(オフセット無し)を示す図。 [図5A]ユーザの手の態様及び[図5B]ロボットハンドの態様であって、ユーザの手がロボットハンドより大きい場合の対応関係(オフセット有り)を示す図。 [図6A]ユーザの手の態様及び[図6B]ロボットハンドの態様であって、ユーザの手がロボットハンドより小さい場合の対応関係(オフセット無し)を示す図。 [図7A]ユーザの手の態様及び[図7B]ロボットハンドの態様であって、ユーザの手がロボットハンドより小さい場合(オフセット有り)の対応関係を示す図。 [図8A]ユーザ及び[図8B]ロボット間でのグローバル座標系での指先の一致を表す概要図。 [図9A]ユーザの手の態様及び[図9B]ロボットハンドの態様であって、冗長自由度を示す図。 [図10A]ユーザの手の態様及び[図10B]ロボットハンドの態様であって、指の先端の指す向きを一致させた上での冗長自由度を示す図。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CLPD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.全体構成
第1節では、本実施形態に係るロボットハンド制御システム1の全体構成について説明する。図1は、本実施形態に係るロボットハンド制御システム1の構成概要を示す図である。ロボットハンド制御システム1は、図1に示されるように、センサ2と、情報処理装置3と、ロボット4とからなり、これらが電気的に接続されたシステムである。ユーザUが自身の手UHを動かすと、それに連動してロボット4におけるロボットハンド41がユーザUの手UHの動きを正確に再現する。すなわち、ロボットハンド41は前提として、ヒトの手の形状に倣って形成されたものであることに留意されたい。また、ユーザUはヘッドマウントディスプレイ5(特許請求の範囲における「表示装置」の一例)を装着しており、ロボット4において目の役割をするカメラ42の捕える映像を自身の感覚のように視認することができるものとする。以下、第1.1~1.3節において、センサ2、情報処理装置3、及びロボット4についてそれぞれ説明する。
1.1 センサ2
例えば、センサ2は、不図示のグローブ型デバイスに具備されるものである。ユーザUが当該グローブ型デバイスを手UHに装着することで、センサ2は、ユーザUの手UHにおける各指の位置や動きを取得可能に構成される。例えば、光学式、磁気式、慣性センサ式、画像認識式のモーションキャプチャ等を採用することができる。具体的には、センサ2は、ユーザUの手UHにおける何らかの特徴箇所(特許請求の範囲における「第1及び第2ユーザ特徴箇所」の一例)の情報(特徴情報)を取得し、後述の情報処理装置3に送信可能に構成される。かかる特徴箇所は、例えば、手UHにおける第1指Haの先端(図2A参照/特許請求の範囲における「第1ユーザ特徴箇所」の一例)や、第2~第5指Hb~Heの先端(特許請求の範囲における「第2ユーザ特徴箇所」の一例)が該当する。
1.2 情報処理装置3
情報処理装置3は、通信部31と、記憶部32と、制御部33(特に、演算部331及び生成部332)とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して接続されている。以下、各構成要素について更に説明する。
<通信部31>
通信部31は、情報処理装置3から見た外部機器と電気信号を送受信可能に構成される。当該電気信号は種々の情報を含みうるものである。例えば、通信部31は、ユーザUの手UHの動き(各指の位置、姿勢等)を情報(特許請求の範囲における「第1及び第2ユーザ特徴箇所に関する情報」)として取得可能に構成されるセンサ2から、かかる情報を受信することができる(特許請求の範囲における「入力部」の一例)。通信形式については特に限定されるものではない。一方、通信部31は、ロボットハンド41を有するロボット4に制御信号を送信することができる(特許請求の範囲における「出力部」の一例)。かかる制御信号に基づいて、ロボット4が有するロボットハンド41における各指41a~41e(図2B参照)が所望の位置に来るように、或いは所望の姿勢となるように制御される。こちらも通信形式については特に限定されるものではない。
なお、センサ2及びロボット4以外にも様々な外部機器と通信可能に構成されることが好ましい。例えば、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段又は、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等の無線通信手段を必要に応じて有することで、外部機器と接続可能に構成されるとよい。
<記憶部32>
記憶部32は、制御部33(次に説明)が実行するための種々のプログラム等を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、或いは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。具体的には、運動学又は逆運動学に係る演算のパラメータや、その変換数式・アルゴリズム等が記憶されている。
<制御部33>
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には演算機能や生成機能が該当する。すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、演算機能を有する演算部331及び生成機能を有する生成部332として実行されうる。なお、図1においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。以下、演算部331及び生成部332について更に詳述する。
[演算部331]
演算部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているもので、センサ2から送信され且つ通信部31によって受信したユーザUの手UHに関する情報に数学的な演算を実行可能に構成される。更に、演算部331は、ユーザUの手UHに関するローカル座標系であるユーザ座標系の演算と、ロボットハンド41に関するローカル座標系であるロボット座標系の演算とを区別可能に実施しうる。本実施形態では、ユーザUの手UHにおける何らかの特徴箇所(特許請求の範囲における「第1ユーザ特徴箇所」の一例)と、ロボットハンド41において前述のユーザUの手UHにおける特徴箇所に対応する特徴箇所(特許請求の範囲における「第1ロボット特徴箇所」の一例)とについて、ある規定の状態(初期状態)でそれぞれのローカル座標系での相対的な座標位置を一致させることが好ましい。本実施形態では、ユーザU及びロボット4における特徴箇所とは、ユーザUの手UHの第1指Haの先端及びロボットハンド41の第1指41aの先端である。そして、ユーザ座標系の原点Oを手UHの手首Hfとし、ロボット座標系の原点Oをロボットハンド41の手首41fとして実施すればよい。なお、初期状態とは、例えばユーザUの手UHにおける各指Ha~He又はロボットハンド41における各指41a~41eを伸ばした状態である。
しかし、ユーザUの手UHの大きさは個体差があるため、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも長い場合、ロボットハンド41の可動範囲を越えてしまう。逆に、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも短い場合、ロボットハンド41の可動範囲が極端に狭くなることが起こりうる。このような場合に備えて、演算部331は、初期状態におけるユーザUの手UHの第1指Haの位置と、同じく初期状態におけるロボットハンド41の第1指41aの位置を予め求めておき、その差分ベクトルを算出する。かかる差分ベクトルは、ユーザ座標系の原点Oに対する手UHの第1指Haの先端までの長さとロボット座標系の原点Oに対するロボットハンド41の第1指41aの先端までの長さとの差、すなわちユーザUの手UHとロボット4のロボットハンド41の大きさの違いを表しており、これをオフセットとして定義する。そして、制御時にロボットハンド41における第1指41aの目標位置をオフセットさせておけば、前述の手UHの個体差による可動範囲の問題を解決することができる。
更に、演算部331は、センサ2より取得されたユーザUの手UHに関する情報に基づいて、第1指Haの先端を始点とし残りの第2~第5指Hb~Heの先端を終点とするベクトル(特許請求の範囲における「ユーザベクトル」の一例/すなわち大きさと向きを有するパラメータ)を算出する。ロボットハンド41の制御の際に演算部331により算出されたかかるベクトルを、ロボット座標系において対応するロボットハンド41の指間のベクトル(ロボットベクトル)として反映させることで、ユーザUが自己認知する各指Ha~Heの感覚を維持した状態で、ヘッドマウントディスプレイ5を介して誤差なくロボットハンド41を操作することが可能となる。換言すると、ユーザUはあたかもロボット4の中に入っている、あるいは自分自身がロボット4になったような感覚でロボット4を操作することができる。より詳細には、ユーザUが所望の位置に第1指Haの先端を運ぶと、ロボット座標系でも同じ位置にロボットハンド41の第1指41aの先端が運ばれる。そして、第1指41aと第2~第5指41b~41eとの先端の間隔は、第1指Haと第2~第5指Hb~Heとの先端の間隔に正確に一致する。これにより、ユーザUは、ロボットハンド41があたかも自身の手UHのような感覚を有しながら、精密な作業等を実施することができる。
[生成部332]
生成部332は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているもので、前述のオフセット(演算部331によってオフセット処理された座標系)及び算出された指間のベクトルに基づいて、ロボットハンド41を制御するための制御信号を生成する。更にここでいう制御信号とは、D/A変換前のものも変換後のものも含みうる概念である。生成部332によって生成された制御信号が、通信部31を介してロボットハンド41に出力され、ロボットハンド41が所望の動作をなすように制御される。
1.3 ロボット4
ロボット4は、情報処理装置3によって制御されるヒト型のロボットである。特にロボット4は、ロボットハンド41と、外界の情報を撮像可能に構成されるカメラ42とを備える。
<ロボットハンド41>
ロボットハンド41は、図2Bに示されるように、ヒトの手に倣って形成されたロボットハンドである。ロボットハンド41は、ユーザUの手UHが有する第1~第5指Ha~Heに対応するように第1~第5指41a~41eを備える。ロボットハンド41は、情報処理装置3における生成部332によって生成された制御信号によって制御される。かかる制御信号には、ロボットハンド41の第1指41aの先端のロボット座標系における位置や第2~第5指41b~41eの情報(前述の通り第1指41aの先端を始点とするベクトル)を含んでいる。制御手法は特に限定されないが、例えば、P制御、PD制御、PID制御等を適宜採用することができる。制御に係る各係数は、必要に応じて好ましい値を設定すればよい。また制御信号の値は電圧で規定されるとよい。
なおロボットハンド41を駆動させる駆動レート(生成部332の制御信号生成レート)は、高いことが好ましい。例えば、10ヘルツ以上であり、好ましくは、50ヘルツ以上であり、更に好ましくは250ヘルツ以上である。具体的には例えば、10、20、30、40、50、100、150、200、250、300、350、400、450、500、600、700、800、900、1000ヘルツ、またはこれ以上の値であり、ここで例示した数値の何れか2つの間の範囲内であってもよい。
<カメラ42>
カメラ42は、ロボット4の目の役割を果たすものであり、ロボット4が捕える外界の視覚情報を撮像可能に構成される。撮像されたデータ(映像)は、ユーザUがヘッドマウントディスプレイ5を介して、オンラインで視認可能に構成される。このとき、タイムラグが小さいほど、ユーザUがより自然に自己認知を有しながらロボット4を制御することができる。なお、カメラ42とヘッドマウントディスプレイ5との通信は特に限定されるものではない。例えば、情報処理装置3における通信部31を介して実現してもよく、直接的にカメラ42からヘッドマウントディスプレイ5に対してデータが転送されるような構成を有してもよい。
2.オフセットの例
続いて、前述のロボットハンド制御システム1の演算部331によってなされるオフセット処理の例について説明する。
2.1 手UHとロボットハンド41とが同じ大きさの場合
図3AはユーザUの手UHの態様を示し、図3Bはロボットハンド41の態様を示す図であって、オフセットがない場合の対応関係を示している。かかる場合は、オフセットさせる必要がないので、図3Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図3Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致する。また、オフセットの有無に限らず、図3Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図3Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
このような構成により、人の目UE及びカメラ41を原点としたそれぞれのグローバル座標系において、ユーザUの手UHにおける手首Hf(ローカル座標系であるユーザ座標系の原点)及び各指Ha~Heの座標位置と、ロボット4のロボットハンド41における手首41f(ローカル座標系であるロボット座標系の原点)及び各指41a~41eの座標位置とが完全に一致する。より詳細には、図8Aにおけるベクトルu_0(始点が目UE、終点が手首Hf),u_1,u_2~u_5と、図8Bにおけるベクトルv_0(始点がカメラ42、終点が手首41f),v_1,v_2~v_5とがすべて一致する。換言すると、ユーザUにとっては自分の手首Hfや各指Ha~Heの先端を見る方向に、ヘッドマウントディスプレイ5を介してロボット4のロボットハンド41における手首41fや各指41a~41eが見えることとなる。
2.2 手UHがロボットハンド41よりも大きい場合
図4A及び図5AはユーザUの手UHの態様を示し、図4B及び図5Bはロボットハンド41の態様を示す図であって、ユーザUの手UHがロボットハンド41より大きい場合の対応関係を示している。かかる場合は、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも長いため、図4A及び図4Bに示されるようにロボットハンド41の可動範囲を越えてしまう。そこで、図5A及び図5Bに示されるようにロボット座標系における原点Oである手首41fの位置を奥側(図中上方向)へオフセットさせている。したがって、図4Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図4Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致しない(なお、オフセット前の点線で示されるベクトルv_1’はベクトルu_1と一致)。一方で、オフセットの有無に限らず、図4Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図4Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
このようなオフセットも含めた構成により、人の目UE及びカメラ41を原点としたそれぞれのグローバル座標系において、特徴箇所であるユーザUの手UHにおける各指Ha~Heの座標位置と、ロボット4のロボットハンド41における各指41a~41eの座標位置が完全に一致する。より詳細には、図8Aにおけるベクトルu_0,u_1と、図8Bにおけるベクトルv_0,v_1とは一致しないが、ベクトル和u_0+u_1と、v_0+v_1とは一致する。換言すると、ユーザUにとっては自分の各指Ha~Heの先端を見る方向に、ヘッドマウントディスプレイ5を介してロボット4のロボットハンド41における各指41a~41eが見えることとなる。
2.3 手UHがロボットハンド41よりも小さい場合
図6A及び図7AはユーザUの手UHの態様を示し、図6B及び図7Bはロボットハンド41の態様を示す図であって、ユーザUの手UHがロボットハンド41より小さい場合の対応関係を示している。かかる場合は、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも短いため、図6A及び図6Bに示されるようにロボットハンド41の可動範囲が極端に狭くなる。そこで、図7A及び図7Bに示されるようにロボット座標系における原点Oである手首41fの位置を手前側(図中下方向)へオフセットさせている。したがって、図6Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図6Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致しない(なお、オフセット前の点線で示されるベクトルv_1’はベクトルu_1と一致)。一方で、オフセットの有無に限らず、図6Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図6Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
このようなオフセットも含めた構成により、人の目UE及びカメラ41を原点としたそれぞれのグローバル座標系において、特徴箇所であるユーザUの手UHにおける各指Ha~Heの座標位置と、ロボット4のロボットハンド41における各指41a~41eの座標位置が完全に一致する。より詳細には、図8Aにおけるベクトルu_0,u_1と、図8Bにおけるベクトルv_0,v_1とは一致しないが、ベクトル和u_0+u_1と、v_0+v_1とは一致する。換言すると、ユーザUにとっては自分の各指Ha~Heの先端を見る方向に、ヘッドマウントディスプレイ5を介してロボット4のロボットハンド41における各指41a~41eが見えることとなる。
3.冗長自由度
前述の通り、オフセットの有無に限らず、ユーザUの手UHの第1指Haの先端を始点とし第2~第5指Hb~Heの先端を終点とするベクトル(ユーザベクトル)と、ロボットハンド41の第1指41aの先端を始点とし第2~第5指Hb~Heの先端を終点とするベクトル(ロボットベクトル)が一致するように制御がなされる。ところで、これらを一致させるという条件において、ロボットハンド41の姿勢が必ずしも手UHに一致するわけではなく、また一意に定まるものではないことに留意されたい。例えば、図9A及び図9Bに示されるように、第1指Ha及び第2指Hbの位置関係と、第1指41a及び第2指41bの位置関係とが一致していればよく、逆運動学を解くことで、全体としてはロボットハンド41が有する冗長自由度の中から任意の姿勢が選択されることとなる。
かかる冗長自由度の範囲で、条件を増やしてもよい。図10A及び図10Bでは、ユーザUの手UHの第1指Haの先端の指す方向D1(特許請求の範囲における「第1方向」の一例)及び第2指Hbの先端の指す方向D2(特許請求の範囲における「第2方向」の一例)と、ロボットハンド41の第1指41aの先端の指す方向d1(特許請求の範囲における「第1方向」の一例)及び第2指41bの先端の指す方向d2(特許請求の範囲における「第2方向」の一例)とを一致させている。かかる場合は、センサ2から各指Ha~Heの先端以外の特徴箇所(各指Ha~Heの先端からその遠位指節間関節までの何れか部位)の情報を取得すればよい。かかる情報を用いてロボットハンド41を制御することで、各指の先端の指す方向をユーザUにおける手UHと、ロボットハンド41とで一致させることができる。もちろん、かかる場合であっても、逆運動学を解くことで、全体としてはロボットハンド41が有する冗長自由度の中から任意の姿勢が選択されることとなる。
4.変形例
なお、次のような態様によって、本実施形態に係るロボットハンド制御システム1を更に創意工夫してもよい。
第一に、前述の実施形態は、ユーザUがヘッドマウントディスプレイ5を介してロボット4におけるカメラ42が捕える外界の情報を視認することができるものであるが、これに代えてバーチャルリアリティ空間の映像をユーザUが視認可能に実施してもよい。すなわち、実際のロボット4に代えて、バーチャルリアリティ空間上に規定されるアバターロボットを前述のように制御可能に実施してもよい。かかる場合は、情報処理装置3における制御部33が、不図示のレンダリング部として機能することとなる。かかるレンダリング部は、生成部332によって生成された制御信号に基づいてロボットハンド4のコンピュータグラフィックスを生成する。そして、かかるコンピュータグラフィックスがヘッドマウントディスプレイ5に表示されうる。
第二に、前述の実施形態は、ユーザUがヘッドマウントディスプレイ5を介してロボット4におけるカメラ42が捕える外界の情報を視認することができるものであるが、これにバーチャルリアリティ空間としてのなんらかの情報を付加可能に実施してもよい。これにより、ユーザUが拡張現実感を体感しながら、ロボット4におけるロボットハンド41を操作することができる。
第三に、前述の実施形態では、特許請求の範囲における「第1及び第2ユーザ特徴箇所」の一例として第1~第5指Ha~Heの先端を選択し、「第1及び第2ロボット特徴箇所」の一例として第1~第5指41a~41eの先端を選択したが、当該例に限られるものではない。実際、人間がなんらかの作業を行う上で、指先を用いることがほとんどであるため、前述のような選択が好ましいが、例えば、指先以外を用いて行う作業であれば、それに合わせた特徴箇所の選択を実施してもよい。
第四に、前述の実施形態では、ヒトの手に倣った5指のロボットハンド41について説明をしたが、当該例に拘泥されるものではない。例えば、第1指41aの先端と、これに対向する第2指~第5指41b~41eの少なくとも1本とから構成されるロボットハンド41であってもよい。
5.結言
以上のように、本実施形態によれば、ユーザUの手UHの大きさや構造に関わらず、特別な技能を有する作業を遂行可能なロボットハンド41を実現させるための情報処理装置3を実施することができる。
かかる情報処理装置3は、ロボット4におけるロボットハンド41に関するもので、入力部(通信部31)と、演算部331と、生成部332と備え、ユーザUの手UHにおける特徴箇所を第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)と定義し、第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)に対応するロボットハンド41における特徴箇所を第1及び第2ロボット特徴箇所(第1指41a及び第2~第5指41b~41eの先端)と定義すると、入力部(通信部31)は、第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)に関する情報を入力可能に構成され、演算部331は、ユーザUの手UHに関するローカル座標系であるユーザ座標系において第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)間のベクトルであるユーザベクトルを算出し、生成部332は、ユーザベクトルに基づいてロボットハンド41に対する制御信号を生成し、制御信号は、第1及び第2ロボット特徴箇所(第1指41a及び第2~第5指41b~41eの先端)間のベクトルであるロボットベクトルをユーザベクトルに一致させるように前記ロボットハンド41を制御する信号である。
また、ユーザUの手UHの大きさや構造に関わらず、特別な技能を有する作業を遂行可能なロボットハンド41を実現させるためのロボットハンド制御システム1を実施することができる。
かかるロボットハンド制御システム1は、情報処理装置3と、センサ2とを備え、センサ2は、第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)に関する情報を取得し、且つ情報処理装置3へ送信可能に構成される。
また、ユーザUの手UHの大きさや構造に関わらず、特別な技能を有する作業を遂行可能なロボットハンド41をハードウェアとして実施するためのソフトウェアを、プログラムとして実施することもできる。そして、このようなプログラムを、コンピュータ(情報処理装置3)が読み取り可能な非一時的な記録媒体として提供してもよいし、外部のサーバからダウンロード可能に提供してもよいし、外部のコンピュータで当該プログラムを起動させて、クライアント端末で各機能を実施可能な、いわゆるクラウド・コンピューティングを実施してもよい。
かかるロボットハンド制御プログラムは、コンピュータ(情報処理装置3)に入力機能と、演算機能と、生成機能とを実行させるもので、入力機能によって、第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)が入力可能となり、演算機能によって、ユーザUの手UHに関するローカル座標系であるユーザ座標系において第1及び第2ユーザ特徴箇所(第1指Ha及び第2~第5指Hb~Heの先端)間のベクトルであるユーザベクトルが算出され、生成機能によって、ユーザベクトルに基づいてロボットハンド41に対する制御信号が生成され、制御信号は、第1及び第2ロボット特徴箇所(第1指41a及び第2~第5指41b~41eの先端)間のベクトルであるロボットベクトルをユーザベクトルに一致させるように前記ロボットハンド41を制御する信号である。
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 :ロボットハンド制御システム
2 :センサ
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :演算部
332 :生成部
4 :ロボット
41 :ロボットハンド
41a :第1指
41b :第2指
41c :第3指
41d :第4指
41e :第5指
41f :手首
42 :カメラ
5 :ヘッドマウントディスプレイ
Ha :第1指
Hb :第2指
Hc :第3指
Hd :第4指
He :第5指
Hf :手首
U :ユーザ
UH :手

Claims (10)

  1. ロボットにおける、ヒトの手に倣った形状のロボットハンドに関する情報処理装置であって、
    入力部と、演算部と、生成部と備え、
    ユーザの手における特徴箇所を第1及び第2ユーザ特徴箇所と定義し、前記第1及び第2ユーザ特徴箇所に対応する前記ロボットハンドにおける特徴箇所を第1及び第2ロボット特徴箇所と定義すると、
    前記入力部は、第1及び第2ユーザ特徴箇所に関する情報を入力可能に構成され、
    前記演算部は、
    前記ユーザの手に関するローカル座標系であるユーザ座標系において前記第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルを算出し、
    前記ユーザ座標系において前記第1ユーザ特徴箇所の座標位置、及び前記ロボットハンドに関するローカル座標系であるロボット座標系において前記第1ロボット特徴箇所の座標位置を算出し、
    前記第1ユーザ特徴箇所の座標位置と前記第1ロボット特徴箇所の座標位置との差分をオフセットとして算出し、
    前記生成部は、前記ユーザベクトルと前記オフセットとに基づいて前記ロボットハンドに対する制御信号を生成し、前記制御信号は、前記第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルを前記ユーザベクトルに一致させるように前記ロボットハンドを制御する信号である、
    情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記ユーザ座標系及び前記ロボット座標系の原点位置は、前記ユーザの手及び前記ロボットハンドにおける手首の位置である
    情報処理装置。
  3. 請求項1又は請求項2に記載の情報処理装置において、
    前記ユーザの目及び前記ロボットが有するカメラを原点位置とするグローバル座標系を前記ユーザ及び前記ロボットに対してそれぞれ定義すると、前記第1及び第2ユーザ特徴箇所及び前記第1及び第2ロボット特徴箇所の座標位置がそれぞれのグローバル座標系において一致する、
    情報処理装置。
  4. 請求項1~請求項3の何れか1つに記載の情報処理装置において、
    前記第1ユーザ特徴箇所は前記ユーザの第1指先端であり、前記第2ユーザ特徴箇所は前記ユーザの第2~第5指の少なくとも何れかの先端であり、
    前記ロボットハンドは、ヒトの手に倣った形状のロボットハンドであり、且つ
    前記第1ロボット特徴箇所は前記ロボットハンドの第1指先端であり、前記第2ロボット特徴箇所は前記ロボットハンドの第2~第5指の少なくとも何れかの先端である、
    情報処理装置。
  5. 請求項4に記載の情報処理装置において、
    前記第1指先端の指す方向を第1方向と定義し、前記第2~5指の少なくとも何れかの先端の指す方向を第2方向と定義すると、
    前記演算部は、前記ユーザにおける前記第1及び第2方向を算出可能に構成され、
    前記制御信号は、前記ユーザにおける前記第1及び第2方向と前記ロボットハンドにおける前記第1及び第2方向とを一致させるように前記ロボットハンドを制御する信号である、
    情報処理装置。
  6. 請求項5に記載の情報処理装置において、
    前記入力部は、
    前記ユーザの前記第1指先端及びその遠位指節間関節間の何れか部位を特徴箇所として入力可能に構成され、且つ
    前記ユーザの前記第2~5指の少なくとも何れかの先端及びその遠位指節間関節間の何れか部位を特徴箇所として入力可能に構成され、
    前記演算部は、前記入力部を介して入力された前記特徴箇所に基づいて、前記ユーザにおける前記第1及び第2方向を算出可能に構成される、
    情報処理装置。
  7. ロボットハンド制御システムであって、
    請求項1~請求項6の何れか1つに記載の情報処理装置と、センサとを備え、
    前記センサは、
    前記第1及び第2ユーザ特徴箇所に関する情報を取得し、且つ
    前記情報処理装置へこれを送信可能に構成される、
    ロボットハンド制御システム。
  8. 請求項7に記載のロボットハンド制御システムにおいて、
    ヒトの手に倣った形状のロボットハンドを更に備え、
    前記情報処理装置は、前記制御信号を前記ロボットハンドに出力可能に構成される出力部を備え、
    前記ロボットハンドは、前記出力部より受信した前記制御信号に基づいて動作するように構成される、
    ロボットハンド制御システム。
  9. 請求項7又は請求項8に記載のロボットハンド制御システムにおいて、
    前記情報処理装置は、レンダリング部を備え、
    前記レンダリング部は、前記制御信号に基づいて前記ロボットハンドのコンピュータグラフィックスを生成可能に構成され、
    前記コンピュータグラフィックスを表示可能な表示装置を更に備える、
    ロボットハンド制御システム。
  10. ヒトの手に倣った形状のロボットハンド制御プログラムであって、
    コンピュータに入力機能と、演算機能と、生成機能とを実行させるもので、
    ユーザの手における特徴箇所を第1及び第2ユーザ特徴箇所と定義し、前記第1及び第2ユーザ特徴箇所に対応するロボットハンドにおける特徴箇所を第1及び第2ロボット特徴箇所と定義すると、
    前記入力機能によって、第1及び第2ユーザ特徴箇所に関する情報が入力可能となり、
    前記演算機能によって、
    前記ユーザの手に関するローカル座標系であるユーザ座標系において前記第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルが算出され、
    前記ユーザ座標系において前記第1ユーザ特徴箇所の座標位置、及びロボットハンドに関するローカル座標系であるロボット座標系において前記第1ロボット特徴箇所の座標位置が算出され、
    前記第1ユーザ特徴箇所の座標位置と前記第1ロボット特徴箇所の座標位置との差分がオフセットとして算出され、
    前記生成機能によって、前記ユーザベクトルと前記オフセットとに基づいて前記ロボットハンドに対する制御信号が生成され、前記制御信号は、前記第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルを前記ユーザベクトルに一致させるように前記ロボットハンドを制御する信号である、
    ロボットハンド制御プログラム。
JP2018172026A 2018-09-14 2018-09-14 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム Active JP7248271B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018172026A JP7248271B2 (ja) 2018-09-14 2018-09-14 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム
PCT/JP2019/031019 WO2020054268A1 (ja) 2018-09-14 2019-08-07 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018172026A JP7248271B2 (ja) 2018-09-14 2018-09-14 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム

Publications (2)

Publication Number Publication Date
JP2020044581A JP2020044581A (ja) 2020-03-26
JP7248271B2 true JP7248271B2 (ja) 2023-03-29

Family

ID=69777247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172026A Active JP7248271B2 (ja) 2018-09-14 2018-09-14 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム

Country Status (2)

Country Link
JP (1) JP7248271B2 (ja)
WO (1) WO2020054268A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065034A1 (ja) 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの動作を制御する方法およびロボットシステム
US20150025547A1 (en) 2010-03-18 2015-01-22 SPI Surgical, Inc. Surgical cockpit comprising multisensory and multimodal interface for robotic surgery and methods related thereto
JP2015186651A (ja) 2009-11-13 2015-10-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム
WO2017115425A1 (ja) 2015-12-28 2017-07-06 オリンパス株式会社 医療用マニピュレータシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0557637A (ja) * 1991-08-30 1993-03-09 Nippon Telegr & Teleph Corp <Ntt> ロボツトハンドのマスタ・スレーブ対応動作制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186651A (ja) 2009-11-13 2015-10-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム
WO2011065034A1 (ja) 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの動作を制御する方法およびロボットシステム
US20150025547A1 (en) 2010-03-18 2015-01-22 SPI Surgical, Inc. Surgical cockpit comprising multisensory and multimodal interface for robotic surgery and methods related thereto
WO2017115425A1 (ja) 2015-12-28 2017-07-06 オリンパス株式会社 医療用マニピュレータシステム

Also Published As

Publication number Publication date
JP2020044581A (ja) 2020-03-26
WO2020054268A1 (ja) 2020-03-19

Similar Documents

Publication Publication Date Title
US10817795B2 (en) Handstate reconstruction based on multiple inputs
US11534246B2 (en) User input device for use in robotic surgery
Vonach et al. VRRobot: Robot actuated props in an infinite virtual environment
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
JP5974668B2 (ja) マニピュレーションシステム
US11762369B2 (en) Robotic control via a virtual world simulation
Lu et al. Immersive manipulation of virtual objects through glove-based hand gesture interaction
Fritsche et al. First-person tele-operation of a humanoid robot
JP2016503676A (ja) 3次元トラッキングセンサを使用した位置決めおよびナビゲーション
EP3797931B1 (en) Remote control system, information processing method, and program
JP2006192548A (ja) 身まねロボットシステムとその身まね動作制御方法
JP7248271B2 (ja) 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム
CN110363841B (zh) 一种虚拟驾驶环境中手部运动跟踪方法
Chen et al. Development of an augmented reality force feedback virtual surgery training platform
Yadav et al. Haptic science and technology
JP2007011460A (ja) 物体の変位シミュレーション方法及び物体の変位シミュレーション装置、並びに力覚提示装置
WO2019152566A1 (en) Systems and methods for subject specific kinematic mapping
KR101519589B1 (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
Fu et al. Mobile Teleoperation: Feasibility of Wireless Wearable Sensing of the Operator’s Arm Motion
Parasuraman et al. Development of robot assisted hand stroke rehabilitation system
JP7432275B1 (ja) 映像表示装置、映像表示方法、及びプログラム
WO2006070495A1 (ja) インタフェース装置
Fjellin Design of a bilateral master-slave system with haptic feedback for ultrasound examinations
Kilby et al. A study of viewpoint and feedback in wearable systems for controlling a robot arm
EP4303824A1 (en) System and method for monitoring a body pose of a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7248271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150