JP7248271B2 - 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム - Google Patents
情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム Download PDFInfo
- Publication number
- JP7248271B2 JP7248271B2 JP2018172026A JP2018172026A JP7248271B2 JP 7248271 B2 JP7248271 B2 JP 7248271B2 JP 2018172026 A JP2018172026 A JP 2018172026A JP 2018172026 A JP2018172026 A JP 2018172026A JP 7248271 B2 JP7248271 B2 JP 7248271B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- hand
- robot hand
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
Description
第1節では、本実施形態に係るロボットハンド制御システム1の全体構成について説明する。図1は、本実施形態に係るロボットハンド制御システム1の構成概要を示す図である。ロボットハンド制御システム1は、図1に示されるように、センサ2と、情報処理装置3と、ロボット4とからなり、これらが電気的に接続されたシステムである。ユーザUが自身の手UHを動かすと、それに連動してロボット4におけるロボットハンド41がユーザUの手UHの動きを正確に再現する。すなわち、ロボットハンド41は前提として、ヒトの手の形状に倣って形成されたものであることに留意されたい。また、ユーザUはヘッドマウントディスプレイ5(特許請求の範囲における「表示装置」の一例)を装着しており、ロボット4において目の役割をするカメラ42の捕える映像を自身の感覚のように視認することができるものとする。以下、第1.1~1.3節において、センサ2、情報処理装置3、及びロボット4についてそれぞれ説明する。
例えば、センサ2は、不図示のグローブ型デバイスに具備されるものである。ユーザUが当該グローブ型デバイスを手UHに装着することで、センサ2は、ユーザUの手UHにおける各指の位置や動きを取得可能に構成される。例えば、光学式、磁気式、慣性センサ式、画像認識式のモーションキャプチャ等を採用することができる。具体的には、センサ2は、ユーザUの手UHにおける何らかの特徴箇所(特許請求の範囲における「第1及び第2ユーザ特徴箇所」の一例)の情報(特徴情報)を取得し、後述の情報処理装置3に送信可能に構成される。かかる特徴箇所は、例えば、手UHにおける第1指Haの先端(図2A参照/特許請求の範囲における「第1ユーザ特徴箇所」の一例)や、第2~第5指Hb~Heの先端(特許請求の範囲における「第2ユーザ特徴箇所」の一例)が該当する。
情報処理装置3は、通信部31と、記憶部32と、制御部33(特に、演算部331及び生成部332)とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して接続されている。以下、各構成要素について更に説明する。
通信部31は、情報処理装置3から見た外部機器と電気信号を送受信可能に構成される。当該電気信号は種々の情報を含みうるものである。例えば、通信部31は、ユーザUの手UHの動き(各指の位置、姿勢等)を情報(特許請求の範囲における「第1及び第2ユーザ特徴箇所に関する情報」)として取得可能に構成されるセンサ2から、かかる情報を受信することができる(特許請求の範囲における「入力部」の一例)。通信形式については特に限定されるものではない。一方、通信部31は、ロボットハンド41を有するロボット4に制御信号を送信することができる(特許請求の範囲における「出力部」の一例)。かかる制御信号に基づいて、ロボット4が有するロボットハンド41における各指41a~41e(図2B参照)が所望の位置に来るように、或いは所望の姿勢となるように制御される。こちらも通信形式については特に限定されるものではない。
記憶部32は、制御部33(次に説明)が実行するための種々のプログラム等を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、或いは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。具体的には、運動学又は逆運動学に係る演算のパラメータや、その変換数式・アルゴリズム等が記憶されている。
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には演算機能や生成機能が該当する。すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、演算機能を有する演算部331及び生成機能を有する生成部332として実行されうる。なお、図1においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。以下、演算部331及び生成部332について更に詳述する。
演算部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているもので、センサ2から送信され且つ通信部31によって受信したユーザUの手UHに関する情報に数学的な演算を実行可能に構成される。更に、演算部331は、ユーザUの手UHに関するローカル座標系であるユーザ座標系の演算と、ロボットハンド41に関するローカル座標系であるロボット座標系の演算とを区別可能に実施しうる。本実施形態では、ユーザUの手UHにおける何らかの特徴箇所(特許請求の範囲における「第1ユーザ特徴箇所」の一例)と、ロボットハンド41において前述のユーザUの手UHにおける特徴箇所に対応する特徴箇所(特許請求の範囲における「第1ロボット特徴箇所」の一例)とについて、ある規定の状態(初期状態)でそれぞれのローカル座標系での相対的な座標位置を一致させることが好ましい。本実施形態では、ユーザU及びロボット4における特徴箇所とは、ユーザUの手UHの第1指Haの先端及びロボットハンド41の第1指41aの先端である。そして、ユーザ座標系の原点Oを手UHの手首Hfとし、ロボット座標系の原点Oをロボットハンド41の手首41fとして実施すればよい。なお、初期状態とは、例えばユーザUの手UHにおける各指Ha~He又はロボットハンド41における各指41a~41eを伸ばした状態である。
生成部332は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているもので、前述のオフセット(演算部331によってオフセット処理された座標系)及び算出された指間のベクトルに基づいて、ロボットハンド41を制御するための制御信号を生成する。更にここでいう制御信号とは、D/A変換前のものも変換後のものも含みうる概念である。生成部332によって生成された制御信号が、通信部31を介してロボットハンド41に出力され、ロボットハンド41が所望の動作をなすように制御される。
ロボット4は、情報処理装置3によって制御されるヒト型のロボットである。特にロボット4は、ロボットハンド41と、外界の情報を撮像可能に構成されるカメラ42とを備える。
ロボットハンド41は、図2Bに示されるように、ヒトの手に倣って形成されたロボットハンドである。ロボットハンド41は、ユーザUの手UHが有する第1~第5指Ha~Heに対応するように第1~第5指41a~41eを備える。ロボットハンド41は、情報処理装置3における生成部332によって生成された制御信号によって制御される。かかる制御信号には、ロボットハンド41の第1指41aの先端のロボット座標系における位置や第2~第5指41b~41eの情報(前述の通り第1指41aの先端を始点とするベクトル)を含んでいる。制御手法は特に限定されないが、例えば、P制御、PD制御、PID制御等を適宜採用することができる。制御に係る各係数は、必要に応じて好ましい値を設定すればよい。また制御信号の値は電圧で規定されるとよい。
カメラ42は、ロボット4の目の役割を果たすものであり、ロボット4が捕える外界の視覚情報を撮像可能に構成される。撮像されたデータ(映像)は、ユーザUがヘッドマウントディスプレイ5を介して、オンラインで視認可能に構成される。このとき、タイムラグが小さいほど、ユーザUがより自然に自己認知を有しながらロボット4を制御することができる。なお、カメラ42とヘッドマウントディスプレイ5との通信は特に限定されるものではない。例えば、情報処理装置3における通信部31を介して実現してもよく、直接的にカメラ42からヘッドマウントディスプレイ5に対してデータが転送されるような構成を有してもよい。
続いて、前述のロボットハンド制御システム1の演算部331によってなされるオフセット処理の例について説明する。
図3AはユーザUの手UHの態様を示し、図3Bはロボットハンド41の態様を示す図であって、オフセットがない場合の対応関係を示している。かかる場合は、オフセットさせる必要がないので、図3Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図3Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致する。また、オフセットの有無に限らず、図3Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図3Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
図4A及び図5AはユーザUの手UHの態様を示し、図4B及び図5Bはロボットハンド41の態様を示す図であって、ユーザUの手UHがロボットハンド41より大きい場合の対応関係を示している。かかる場合は、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも長いため、図4A及び図4Bに示されるようにロボットハンド41の可動範囲を越えてしまう。そこで、図5A及び図5Bに示されるようにロボット座標系における原点Oである手首41fの位置を奥側(図中上方向)へオフセットさせている。したがって、図4Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図4Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致しない(なお、オフセット前の点線で示されるベクトルv_1’はベクトルu_1と一致)。一方で、オフセットの有無に限らず、図4Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図4Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
図6A及び図7AはユーザUの手UHの態様を示し、図6B及び図7Bはロボットハンド41の態様を示す図であって、ユーザUの手UHがロボットハンド41より小さい場合の対応関係を示している。かかる場合は、ユーザUの各指Ha~Heがロボットハンド41の各指41a~41eよりも短いため、図6A及び図6Bに示されるようにロボットハンド41の可動範囲が極端に狭くなる。そこで、図7A及び図7Bに示されるようにロボット座標系における原点Oである手首41fの位置を手前側(図中下方向)へオフセットさせている。したがって、図6Aにおける原点Oを始点とし且つ第1指Haの先端を終点とするベクトルu_1と、図6Bにおける原点Oを始点とし且つ第1指41aの先端を終点とするベクトルv_1とは一致しない(なお、オフセット前の点線で示されるベクトルv_1’はベクトルu_1と一致)。一方で、オフセットの有無に限らず、図6Aにおける第1指Haの先端を始点とし且つ第2~第5指Hb~Heの先端を終点とするベクトルu_2~u_5と、図6Bにおける第1指41aの先端を始点とし且つ第2~第5指41b~41eの先端を終点とするベクトルv_2~v_5とは一致する。
前述の通り、オフセットの有無に限らず、ユーザUの手UHの第1指Haの先端を始点とし第2~第5指Hb~Heの先端を終点とするベクトル(ユーザベクトル)と、ロボットハンド41の第1指41aの先端を始点とし第2~第5指Hb~Heの先端を終点とするベクトル(ロボットベクトル)が一致するように制御がなされる。ところで、これらを一致させるという条件において、ロボットハンド41の姿勢が必ずしも手UHに一致するわけではなく、また一意に定まるものではないことに留意されたい。例えば、図9A及び図9Bに示されるように、第1指Ha及び第2指Hbの位置関係と、第1指41a及び第2指41bの位置関係とが一致していればよく、逆運動学を解くことで、全体としてはロボットハンド41が有する冗長自由度の中から任意の姿勢が選択されることとなる。
なお、次のような態様によって、本実施形態に係るロボットハンド制御システム1を更に創意工夫してもよい。
以上のように、本実施形態によれば、ユーザUの手UHの大きさや構造に関わらず、特別な技能を有する作業を遂行可能なロボットハンド41を実現させるための情報処理装置3を実施することができる。
2 :センサ
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :演算部
332 :生成部
4 :ロボット
41 :ロボットハンド
41a :第1指
41b :第2指
41c :第3指
41d :第4指
41e :第5指
41f :手首
42 :カメラ
5 :ヘッドマウントディスプレイ
Ha :第1指
Hb :第2指
Hc :第3指
Hd :第4指
He :第5指
Hf :手首
U :ユーザ
UH :手
Claims (10)
- ロボットにおける、ヒトの手に倣った形状のロボットハンドに関する情報処理装置であって、
入力部と、演算部と、生成部と備え、
ユーザの手における特徴箇所を第1及び第2ユーザ特徴箇所と定義し、前記第1及び第2ユーザ特徴箇所に対応する前記ロボットハンドにおける特徴箇所を第1及び第2ロボット特徴箇所と定義すると、
前記入力部は、第1及び第2ユーザ特徴箇所に関する情報を入力可能に構成され、
前記演算部は、
前記ユーザの手に関するローカル座標系であるユーザ座標系において前記第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルを算出し、
前記ユーザ座標系において前記第1ユーザ特徴箇所の座標位置、及び前記ロボットハンドに関するローカル座標系であるロボット座標系において前記第1ロボット特徴箇所の座標位置を算出し、
前記第1ユーザ特徴箇所の座標位置と前記第1ロボット特徴箇所の座標位置との差分をオフセットとして算出し、
前記生成部は、前記ユーザベクトルと前記オフセットとに基づいて前記ロボットハンドに対する制御信号を生成し、前記制御信号は、前記第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルを前記ユーザベクトルに一致させるように前記ロボットハンドを制御する信号である、
情報処理装置。 - 請求項1に記載の情報処理装置において、
前記ユーザ座標系及び前記ロボット座標系の原点位置は、前記ユーザの手及び前記ロボットハンドにおける手首の位置である、
情報処理装置。 - 請求項1又は請求項2に記載の情報処理装置において、
前記ユーザの目及び前記ロボットが有するカメラを原点位置とするグローバル座標系を前記ユーザ及び前記ロボットに対してそれぞれ定義すると、前記第1及び第2ユーザ特徴箇所及び前記第1及び第2ロボット特徴箇所の座標位置がそれぞれのグローバル座標系において一致する、
情報処理装置。 - 請求項1~請求項3の何れか1つに記載の情報処理装置において、
前記第1ユーザ特徴箇所は前記ユーザの第1指先端であり、前記第2ユーザ特徴箇所は前記ユーザの第2~第5指の少なくとも何れかの先端であり、
前記ロボットハンドは、ヒトの手に倣った形状のロボットハンドであり、且つ
前記第1ロボット特徴箇所は前記ロボットハンドの第1指先端であり、前記第2ロボット特徴箇所は前記ロボットハンドの第2~第5指の少なくとも何れかの先端である、
情報処理装置。 - 請求項4に記載の情報処理装置において、
前記第1指先端の指す方向を第1方向と定義し、前記第2~5指の少なくとも何れかの先端の指す方向を第2方向と定義すると、
前記演算部は、前記ユーザにおける前記第1及び第2方向を算出可能に構成され、
前記制御信号は、前記ユーザにおける前記第1及び第2方向と前記ロボットハンドにおける前記第1及び第2方向とを一致させるように前記ロボットハンドを制御する信号である、
情報処理装置。 - 請求項5に記載の情報処理装置において、
前記入力部は、
前記ユーザの前記第1指先端及びその遠位指節間関節間の何れか部位を特徴箇所として入力可能に構成され、且つ
前記ユーザの前記第2~5指の少なくとも何れかの先端及びその遠位指節間関節間の何れか部位を特徴箇所として入力可能に構成され、
前記演算部は、前記入力部を介して入力された前記特徴箇所に基づいて、前記ユーザにおける前記第1及び第2方向を算出可能に構成される、
情報処理装置。 - ロボットハンド制御システムであって、
請求項1~請求項6の何れか1つに記載の情報処理装置と、センサとを備え、
前記センサは、
前記第1及び第2ユーザ特徴箇所に関する情報を取得し、且つ
前記情報処理装置へこれを送信可能に構成される、
ロボットハンド制御システム。 - 請求項7に記載のロボットハンド制御システムにおいて、
ヒトの手に倣った形状のロボットハンドを更に備え、
前記情報処理装置は、前記制御信号を前記ロボットハンドに出力可能に構成される出力部を備え、
前記ロボットハンドは、前記出力部より受信した前記制御信号に基づいて動作するように構成される、
ロボットハンド制御システム。 - 請求項7又は請求項8に記載のロボットハンド制御システムにおいて、
前記情報処理装置は、レンダリング部を備え、
前記レンダリング部は、前記制御信号に基づいて前記ロボットハンドのコンピュータグラフィックスを生成可能に構成され、
前記コンピュータグラフィックスを表示可能な表示装置を更に備える、
ロボットハンド制御システム。 - ヒトの手に倣った形状のロボットハンド制御プログラムであって、
コンピュータに入力機能と、演算機能と、生成機能とを実行させるもので、
ユーザの手における特徴箇所を第1及び第2ユーザ特徴箇所と定義し、前記第1及び第2ユーザ特徴箇所に対応するロボットハンドにおける特徴箇所を第1及び第2ロボット特徴箇所と定義すると、
前記入力機能によって、第1及び第2ユーザ特徴箇所に関する情報が入力可能となり、
前記演算機能によって、
前記ユーザの手に関するローカル座標系であるユーザ座標系において前記第1及び第2ユーザ特徴箇所間のベクトルであるユーザベクトルが算出され、
前記ユーザ座標系において前記第1ユーザ特徴箇所の座標位置、及びロボットハンドに関するローカル座標系であるロボット座標系において前記第1ロボット特徴箇所の座標位置が算出され、
前記第1ユーザ特徴箇所の座標位置と前記第1ロボット特徴箇所の座標位置との差分がオフセットとして算出され、
前記生成機能によって、前記ユーザベクトルと前記オフセットとに基づいて前記ロボットハンドに対する制御信号が生成され、前記制御信号は、前記第1及び第2ロボット特徴箇所間のベクトルであるロボットベクトルを前記ユーザベクトルに一致させるように前記ロボットハンドを制御する信号である、
ロボットハンド制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018172026A JP7248271B2 (ja) | 2018-09-14 | 2018-09-14 | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム |
PCT/JP2019/031019 WO2020054268A1 (ja) | 2018-09-14 | 2019-08-07 | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018172026A JP7248271B2 (ja) | 2018-09-14 | 2018-09-14 | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020044581A JP2020044581A (ja) | 2020-03-26 |
JP7248271B2 true JP7248271B2 (ja) | 2023-03-29 |
Family
ID=69777247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018172026A Active JP7248271B2 (ja) | 2018-09-14 | 2018-09-14 | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7248271B2 (ja) |
WO (1) | WO2020054268A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011065034A1 (ja) | 2009-11-24 | 2011-06-03 | 株式会社豊田自動織機 | ロボットの動作を制御する方法およびロボットシステム |
US20150025547A1 (en) | 2010-03-18 | 2015-01-22 | SPI Surgical, Inc. | Surgical cockpit comprising multisensory and multimodal interface for robotic surgery and methods related thereto |
JP2015186651A (ja) | 2009-11-13 | 2015-10-29 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム |
WO2017115425A1 (ja) | 2015-12-28 | 2017-07-06 | オリンパス株式会社 | 医療用マニピュレータシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0557637A (ja) * | 1991-08-30 | 1993-03-09 | Nippon Telegr & Teleph Corp <Ntt> | ロボツトハンドのマスタ・スレーブ対応動作制御装置 |
-
2018
- 2018-09-14 JP JP2018172026A patent/JP7248271B2/ja active Active
-
2019
- 2019-08-07 WO PCT/JP2019/031019 patent/WO2020054268A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015186651A (ja) | 2009-11-13 | 2015-10-29 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム |
WO2011065034A1 (ja) | 2009-11-24 | 2011-06-03 | 株式会社豊田自動織機 | ロボットの動作を制御する方法およびロボットシステム |
US20150025547A1 (en) | 2010-03-18 | 2015-01-22 | SPI Surgical, Inc. | Surgical cockpit comprising multisensory and multimodal interface for robotic surgery and methods related thereto |
WO2017115425A1 (ja) | 2015-12-28 | 2017-07-06 | オリンパス株式会社 | 医療用マニピュレータシステム |
Also Published As
Publication number | Publication date |
---|---|
JP2020044581A (ja) | 2020-03-26 |
WO2020054268A1 (ja) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817795B2 (en) | Handstate reconstruction based on multiple inputs | |
US11534246B2 (en) | User input device for use in robotic surgery | |
Vonach et al. | VRRobot: Robot actuated props in an infinite virtual environment | |
JP6678832B2 (ja) | 遠隔制御マニピュレータシステムおよび制御装置 | |
JP5974668B2 (ja) | マニピュレーションシステム | |
US11762369B2 (en) | Robotic control via a virtual world simulation | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
JP2016503676A (ja) | 3次元トラッキングセンサを使用した位置決めおよびナビゲーション | |
EP3797931B1 (en) | Remote control system, information processing method, and program | |
JP2006192548A (ja) | 身まねロボットシステムとその身まね動作制御方法 | |
JP7248271B2 (ja) | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム | |
CN110363841B (zh) | 一种虚拟驾驶环境中手部运动跟踪方法 | |
Chen et al. | Development of an augmented reality force feedback virtual surgery training platform | |
Yadav et al. | Haptic science and technology | |
JP2007011460A (ja) | 物体の変位シミュレーション方法及び物体の変位シミュレーション装置、並びに力覚提示装置 | |
WO2019152566A1 (en) | Systems and methods for subject specific kinematic mapping | |
KR101519589B1 (ko) | 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법 | |
Fu et al. | Mobile Teleoperation: Feasibility of Wireless Wearable Sensing of the Operator’s Arm Motion | |
Parasuraman et al. | Development of robot assisted hand stroke rehabilitation system | |
JP7432275B1 (ja) | 映像表示装置、映像表示方法、及びプログラム | |
WO2006070495A1 (ja) | インタフェース装置 | |
Fjellin | Design of a bilateral master-slave system with haptic feedback for ultrasound examinations | |
Kilby et al. | A study of viewpoint and feedback in wearable systems for controlling a robot arm | |
EP4303824A1 (en) | System and method for monitoring a body pose of a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7248271 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |