JPH09109069A - パワード・インテリジェント方法及びユニット - Google Patents

パワード・インテリジェント方法及びユニット

Info

Publication number
JPH09109069A
JPH09109069A JP26581295A JP26581295A JPH09109069A JP H09109069 A JPH09109069 A JP H09109069A JP 26581295 A JP26581295 A JP 26581295A JP 26581295 A JP26581295 A JP 26581295A JP H09109069 A JPH09109069 A JP H09109069A
Authority
JP
Japan
Prior art keywords
operator
robot
unit
movement
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26581295A
Other languages
English (en)
Inventor
Gen Sugano
弦 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP26581295A priority Critical patent/JPH09109069A/ja
Publication of JPH09109069A publication Critical patent/JPH09109069A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 流れ作業でなく、不定型な作業現場における
ハンドリング効率を向上させる。 【解決手段】 オペレータNの指示をマニピュレータ1
により認識し、その認識信号に基づいてロボット2に、
オペレータNからの指示に基いてオペレータNの手Hお
よび/または足Lの動きに関連付けられた動きを実行さ
せ、一方ロボット2が動作した際にロボット2に作用す
る反力を動作感覚として認識し、その動作感覚をオペレ
ータNに感得させる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、機械の頭脳化に代
えて、人間頭脳をもって手足を機械化するパワード・イ
ンテリジェント方法及びユニットに関する。
【0002】
【従来の技術】産業の全ゆる分野において、機械を頭脳
化したロボットと称される自動産業機械が導入されてい
る。
【0003】ロボットそのものは、無人化,連続化,高
速化あるいは高精度化に大いに貢献するものである。し
かしながらロボットそのものに限界があることも否めな
い。それはロボットの判断能力である。ロボットの判断
能力は、状況を解析するソフトウェアに基づくものであ
り、全ゆる場合に対応を期するならば、膨大なるソフト
ウェアを開発する必要がある。
【0004】例えば溶接ロボットを例にとるならば、あ
る限られた範囲の定位置に対象物が搬入されてこそ、溶
接を施すことができる。
【0005】もし仮りに、対象物の搬入位置が定位置か
ら制御範囲を少しずれた場合、或いは対象物が裏返しで
搬入された場合には、溶接ロボットは機能し得ない。し
たがって、溶接ロボットを使用するためには、対象物搬
入位置の定位置化や対象物の定型化を予め図っておく必
要がある。そのため、現在のロボットは極めて定型的な
流れ作業の中で、しかも片手だけの単機能的な動作を行
うように設計されている。
【0006】
【発明が解決しようとする課題】ところでロボットが行
う作業を人間が行えば、機械力に劣るのは間違いない
が、人間が総合的に判断を下すことにすれば、現在のセ
ンサやコンピュータにより判断させるシステムよりも、
遥かに複雑で不定型な場面にも複合的に対処することが
可能である。さらに人間のように両手、すなわち対の動
作機構を持たせることにより、機械の動作機能を数倍に
高めることも可能となる。
【0007】このように人間が頭脳的に判断し、人間の
ような動作性を持たせたシステムを構築すれば、不定型
な場合に対して対応できる結果、流れ作業でない不定型
な作業現場のハンドリング効率を一気に向上させること
が期待できる。
【0008】本発明の目的は、流れ作業でない不定型な
作業現場のハンドリング効率を向上させるパワード・イ
ンテリジェント方法及びユニットを提供することにあ
る。
【0009】
【課題を解決するための手段】前記目的を達成するた
め、本発明に係るパワード・インテリジェント方法は、
マニピュレータとロボットとの組合せにより、オペレー
タの指示でロボットを動作させるパワード・インテリジ
ェント方法であって、マニピュレータは、オペレータに
装着されてオペレータの手および/または足の動きを三
次元データとして認識するものであり、ロボットは、オ
ペレータからの指示に基づいてオペレータの手および/
または足の動きに関連付けられた動きを実行するもので
あり、オペレータの指示をマニピュレータにより認識
し、その認識信号に基づいてロボットに、オペレータか
らの指示に基づいてオペレータの手および/または足の
動きに関連付けられた動きを実行させ、ロボットが動作
した際にロボットに作用する反力を動作感覚として認識
し、その動作感覚をオペレータに感得可能な信号として
出力するものである。
【0010】またオペレータが視認する視野の映像内に
前記ロボットの動きの映像を表示するものである。
【0011】また本発明に係るパワード・インテリジェ
ント方法を実施するパワード・インテリジェント・ユニ
ットは、マニピュレータと、ロボットと、制御部と、感
覚認識部と、感覚発現部とを有し、オペレータの指示に
基づく動作をロボットに実行させ、その動作感覚をオペ
レータに感得させるパワード・インテリジェント・ユニ
ットであって、マニピュレータは、オペレータに装着さ
れてオペレータの手および/または足の動きを三次元デ
ータとして認識し、その認識信号を制御部に出力するも
のであり、ロボットは、オペレータからの指示に基づい
てオペレータの手および/または足の動きに関連付けら
れた動きを実行するものであり、制御部は、前記マニピ
ュレータからの三次元データに基づいて前記ロボットを
制御動作するものであり、感覚認識部は、動作に伴って
前記ロボットに作用される反力を動作感覚として認識
し、これをマニピュレータ側にフィードバックするもの
であり、感覚発現部は、前記感覚認識部からマニピュレ
ータ側にフィードバックされた動作感覚をオペレータに
感得可能な信号として発現させるものである。
【0012】また撮像部と、撮像制御部と、表示部とを
有し、撮像部は、オペレータが視認する視野内に前記ロ
ボットの動きを撮像するものであり、撮像制御部は、オ
ペレータが視認する視野の変化に対応させて前記撮像部
の撮像指向性を変化させるものであり、表示部は、前記
撮像部からの画像信号に基づいて、オペレータが視認す
る視野内でのロボットの動きを画像として表示するもの
である。
【0013】また前記感覚認識部は、前記ロボットが受
ける反力を縮尺してフィードバックするものである。
【0014】また前記撮像部は、前記ロボットの動きを
立体映像として撮像するものである。
【0015】また前記ロボットは、アームの対を有し、
該アームの対をオペレータの手の動きに関連付けて動作
するものである。
【0016】また前記ロボットは、オペレータの足の動
きに関連付けて3次元空間内に位置移動するものであ
る。
【0017】機械の頭脳化に代えて、人間頭脳をもって
手足を機械化する試みは、機械的要素と電子機器との合
体が充分でなかったため、それを実現するには至ってな
かった。しかしながら近年、電子機器的要素がハード,
ソフトの面で急激に成長するに至った。例えば、仮想現
実感システム(Virtual Reality Sy
stem)では、オペレータは眼前の出来事のように立
体的に感触できるようになっている。また手の動作が眼
前のスクリーンに描き出された空想的な画像の世界で実
際的な動きを見せることが可能になっている。このよう
なことは全て信号によって実際機械に指示伝達すること
ができる。
【0018】そこで本発明は、仮想現実感を体験するた
めに開発されたマニピュレータを用いて、オペレータの
手および/または足の動きを三次元データとして認識
し、その認識信号に基づいてロボットに、オペレータか
らの指示に基づいてオペレータの手および/または足の
動きに関連付けられた動きを実行させ、ロボットが動作
した際にロボットに作用する反力を動作感覚として認識
し、その動作感覚をオペレータに感得可能な信号として
出力し、オペレータにロボットを動作させたときの動作
感覚を作用させ、動作環境の臨場感を味わえるようにし
ている。
【0019】
【発明の実施の形態】以下、本発明を図により説明す
る。図1は本発明に係るパワード・インテリジェント・
ユニットを示す構成図である。
【0020】図において、本発明に係るパワード・イン
テリジェント・ユニットは基本的構成として、マニピュ
レータ1と、ロボット2と、制御部3と、感覚認識部4
と、感覚発現部5とを有し、オペレータNの指示に基づ
く動作をロボット2に実行させ、その動作感覚をオペレ
ータNに感得させるようにしたものである。
【0021】以下、各構成について詳細に説明する。マ
ニピュレータ1は、オペレータNに装着されてオペレー
タNの手Hおよび/または足Lの動きを三次元データと
して認識し、その認識信号を制御部3に出力するように
なっている。
【0022】オペレータNの手Hの動きを認識するマニ
ピュレータ1は具体的には、仮想現実感システムの分野
において仮想現実感を得るために用いられるデータグロ
ーブから構成されている。図2に示すように手Hの動き
を認識するデータグローブ(マニピュレータ1)は、人
の5指にそれぞれ被せる袋形状になっており、各指の曲
がり具合を検出するセンサ1aと、手の位置を検出する
センサ1bと、手の関節の回転方向を特定するセンサ1
cとを有している。またデータグローブは、手の上碗,
前腕,の位置と角度を測定するセンサ1d,1eを有し
ており,これらのセンサを用いて指の関節の曲がり具合
と手の位置と角度とを測定してオペレータNの手Hの動
きを三次元データとして認識するようになっている。
【0023】またオペレータNの足Lの動きを認識する
マニピュレータ1は、図1に示すように靴形状をなし、
足の位置及び足首の回転方向を測定するセンサを有して
おり、足の位置と角度を検出してオペレータNの足Lの
動きを三次元データとして認識するようになっている。
マニピュレータ1は、指の関節の曲り具合を抵抗値の変
化により測定し、手足の位置及び回転方向を、磁界を発
生させて手足の動きによる磁界の変化を測定し、手足の
角度を抵抗値の変化により測定している。これらのセン
サは実用化されており、そのセンサを組み込んでいる。
【0024】ロボット2は、オペレータNからの指示に
基づいてオペレータNの手Hおよび/または足Lの動き
に関連付けられた動きを実行するものである。ロボット
2は、アーム2a,2bの対を有し、アーム2a,2b
の対をオペレータNの手Hの動きに関連付けて動作する
ようになっている。各アーム2a,2bは、オペレータ
Nの手の上腕に相当する第1のアーム要素2a1,2b1
と、前腕に相当する第2のアーム要素2a2,2b2と、
対象物を把持したり、或いは離したりする指に相当する
第3のアーム要素2a3,2b3からなっており、第1の
アーム要素2a1,2b1はロボット2の本体に上下,左
右方向に動き得るように関節機構を介して取付けられ、
第2のアーム要素2a2,2b2は第1のアーム要素2a
1,2b1の先端に上下方向に動き得るように、かつ回転
可能に関節機構を介して取付けられ、第3のアーム要素
2a3,2b3は3本の指要素からなり、第2のアーム要
素2a2,2b2の先端に上下,左右方向に個別に動き得
るように取付けられ、3本の指要素を使って対象物を把
持したり、或いは離したりする動作をするようになって
いる。これらアーム要素を連結する関節機構は、現在の
片手機構に採用されている汎用のものであり、しかもそ
れらを駆動する機構も、サーボモータ等を用いた汎用の
ものである。本発明は、片手機構に代えてアーム2a,
2bの対を有する点に特徴がある。また第3のアーム要
素2a3,2b3の指は、4関節により指先まで曲がるよ
うになっていることが望ましい。
【0025】またロボット2は、キャタピラ9(図
4),車輪10(図5),クレーンアーム(図6)等の
移動機構を有し、オペレータNの足の動きに関連付けて
三次元空間内に位置移動するようになっている。
【0026】制御部3は、マニピュレータ1からの三次
元データに基づいてロボット2を制御動作するようにな
っている。具体的には制御部3は、マニピュレータ1に
て認識した上腕,前腕,肘の関節の動きに応じて、ロボ
ット2のアーム要素を上下,左右,回転方向に駆動制御
し、アーム要素にて対象物を把持し、これをオペレータ
Nの意図する位置に移送するようになっている。また制
御部3は、マニピュレータ1にて認識した足Lの動きに
応じてロボット2のキャタピラ9,車輪10,クレーン
アーム11等を駆動してオペレータNが意図した位置に
移動させる。また制御部3としては、マイクロコンピュ
ータを用いることができ、マニピュレータ1が認識した
オペレータNの手Hおよび/または足Lの動きが繰り返
して行なわれる動作の場合には、その三次元データをマ
イクロコンピュータのメモリに記憶し、そのデータに基
いてロボット2を制御動作するようにしてもよい。この
場合、マイクロコンピュータからなる制御部3は、ティ
ーチングマシンとして機能する。
【0027】感覚認識部4は、動作に伴ってロボット2
に作用する反力を動作感覚として認識し、これをマニピ
ュレータ側にフィードバックするようになっている。ロ
ボット2のアーム要素,キャタピラ等は油圧サーボモー
タ等により駆動され、ロボット2が動作する場合には、
その反力を受けて油圧サーボモータの油圧がその反力に
応じて変動したり、トルクが変動するものであるから、
これらの変動は反力に対応しているものであり、これら
の変動をセンサを用いて検出し、ロボット2に作用する
反力を動作感覚として認識する。
【0028】感覚発現部5は、感覚認識部4からマニピ
ュレータ側にフィードバックされた動作感覚をオペレー
タに感得可能な信号に発現させるようになっている。具
体的には図3に示すようにマニピュレータ1をなすデー
タグローブを2重構造の手袋1fとし、その内部に圧力
をかけて液体等を流し込むことにより、アーム要素が物
体へタッチする感覚や荷重,衝撃等の感覚を与える。感
覚認識部4は、ロボット2が受ける反力を例えば数百分
〜数千分の1のレベルに縮尺してフィードバックさせ、
必要最小限の動作感覚を与えて、ロボット2の操作性に
支障がないようにしている。また動作感覚としての荷
重,衝撃等に加えて、データグローブにヒータ等を備え
付けて温度の動作感覚に与えるようにしてもよい。この
場合、実際の温度の感覚をそのまま与えるのではなく、
縮尺して操作に支障を与えないようにする。温度感覚を
伝達するものでは、電気炉前作業等の高温作業において
有効である。また低周波電流をパルス的に印加して皮膚
に感圧させるようにしてもよい。
【0029】さらに本発明は、撮像部6と、撮像制御部
7と、表示部8とを有している。
【0030】撮像部6は、オペレータが視認する視野内
にロボット2の動きを撮像するものである。具体的には
撮像部6は2台のCCDカメラから構成され、CCDカ
メラはアーム要素の幅に離してロボット2の前面に取付
けられ、ロボット2のアームの動き及びロボット2の位
置を立体映像として撮像するようになっている。
【0031】撮像制御部7は、オペレータNが視認する
視野の変化に対応させて撮像部6の撮像指向性を変化さ
せるようになっている。具体的には仮想現実感システム
の分野の仮想現実感を得るために用いられるトランスミ
ッタ7aとレシーバ7bとの組合わせが用いられ、レシ
ーバ7bをオぺレータNの頭部に装着し、その上方にト
ランスミッタ7aを設置し、トランスミッタ7aから発
生する磁界をレシーバ7bで受けてオペレータの頭の動
きを認識し、その信号をもってCCDカメラの撮像指向
性を変化させるようになっている。
【0032】表示部8は、撮像部6からの画像信号に基
づいて、オペレータが視認する視野の映像内にロボット
2の動きの映像を表示し、この映像をオペレータが視認
してロボット2を操作するようにしている。具体的には
仮想現実感システムの分野の仮想現実感を得るために用
いられるゴーグル(ヘッドマウンテッド・ディスプレ
イ)12(図2)を用い、そのゴーグル12をオペレー
タNの頭部に装着してゴーグル12のスクリーンに、撮
像部6で撮像したロボット2の動きを立体画像として表
示するようになっている。これらの機器としては、仮想
現実感システムを構成する汎用の機器を用いている。ま
た表示部8は、ゴーグルに代えて、ホログラフィー的に
空間に三次元画像を映し出すようにしてもよい。
【0033】本発明において、オペレータ側とロボット
側との間における電気信号は有線方式により伝送するこ
とが、情報伝達上の外乱を防ぐために有効であるが、無
線方式の場合には、デジタル信号等で処理して外乱電波
による妨害を排除するようにしてもよい。またロボット
2の動力源は、油圧,電気等が用いられるが、作業内容
によって適宜選択する。
【0034】またロボット2による作業内容を下記の表
に列記するが、これに限定されるものでない。
【0035】
【表1】
【0036】本発明に係るパワード・インテリジェント
方法は、オペレータの指示をマニピレータ1により認識
し、その認識信号に基づいてロボット2に、オペレータ
からの指示に基づいてオペレータの手および/または足
の動きに関連付けられた動きを実行させる。
【0037】具体的には撮像制御部7は、オペレータの
頭の動きを認識し、その信号をもって撮像部6の撮像指
向性を変化させる。撮像部6は、調整された撮像方向の
映像を捕えて、オペレータが視認する視野内にロボット
2の動きを立体映像として撮像し、その画像信号を表示
部8に出力する。
【0038】表示部8は、撮像部6からの画像信号に基
づいて、オペレータの頭部に装着してゴーグル12のス
クリーンにロボット2の動きを画像表示する。
【0039】オペレータNは、ゴーグル12のスクリー
ンに画像表示されたロボット2を視認し、その画像中の
アーム要素を使ってスクリーン中の対象物を把持する。
その動きはオペレータNの5指に装着したデータグロー
ブにより、各指の曲がり具合,手の位置,手の関節の回
転方向として測定し、オペレータNの手の動きを三次元
データとして認識し、そのデータを制御部3に出力す
る。またオペレータNは、ロボット2の位置を変更する
にあたっては足Lの位置,角度を変化せる。例えば、足
の位置によってロボット2を前後,左右に変化させ、足
の角度によってロボット2の移動速度を制御するように
すれば良い。
【0040】制御部3は、マニピュレータ1にて認識し
た上腕,前腕,肘の関節の動きに応じて、ロボット2の
アーム要素を上下,左右,回転方向に駆動制御し、アー
ム要素にて対象物を把持し、これをオペレータNの意図
する位置に移送する。また制御部3は、マニピュレータ
1にて認識した足の動きに応じてロボット2のキャタピ
ラ,車輪,クレーンアーム等を駆動してオペレータNが
意図した位置に移動させる。これによりオペレータNは
立体映像を使って動作環境に合うようなロボット2の動
作を判断し、その判断に基いてロボット2に指示を与
え、ロボット2に高温炉の操作,重量荷役等の不定型な
作業を行なわせる。
【0041】一方ロボット2が動作した際にロボット2
に作用する反力を動作感覚として認識し、その動作感覚
をオペレータに感得可能な信号として出力し、オペレー
タに動作を行った感覚を与え、動作環境の臨場感を与え
る。
【0042】具体的には感覚認識部4は、動作に伴って
ロボット2に作用する反力を動作感覚として認識し、こ
れをマニピュレータ側にフィードバックする。ロボット
2のアーム要素,キャタピラ等は油圧サーボモータ等に
より駆動され、ロボット2が動作する場合には、その反
力を受けて油圧サーボモータの油圧がその反力に応じて
変動したり、トルクが変動するものであるから、これら
の変動は反力に対応しているものであり、これらの変動
をセンサを用いて検出し、ロボット2に作用する反力を
動作感覚として認識する。
【0043】感覚発現部5は、感覚認識部4からマニピ
ュレータ側にフィードバックされた動作感覚をオペレー
タに感得可能な信号に発現させるようになっている。具
体的にはマニピュレータ1をなすデータグローブの手袋
1fに圧力をかけて液体等を流し込むことにより、アー
ム要素が物体へタッチする感覚や荷重,衝撃等の感覚を
与える。感覚認識部4は、ロボット2が受ける反力を縮
尺してフィードバックさせ、必要最小限の動作感覚を与
えて、ロボット2の操作性に支障がないようにしてい
る。
【0044】
【発明の効果】以上のように本発明は、オペレータが動
作環境を判断し、その判断に基づいた指令によりロボッ
トを動作させて作業を行うため、流れ作業でない不定型
な作業現場のハンドリング効率を向上させることができ
る。
【0045】さらにオペレータは、ロボットが動作する
際の動作感覚を味わえるため、動作環境の臨場感を味わ
って作業を行うことができる。
【図面の簡単な説明】
【図1】本発明に係るパワード・インテリジェント・ユ
ニットを示す構成図である。
【図2】本発明におけるマニピュレータ,撮像制御部,
表示部の一例を示す構成図である。
【図3】本発明における感覚発現部の一例を示す構成図
である。
【図4】本発明におけるロボットの別の実施形態を示す
図である。
【図5】本発明におけるロボットの別の実施形態を示す
図である。
【図6】本発明におけるロボットの別の実施形態を示す
図である。
【符号の説明】
1 マニピュレータ 2 ロボット 2a,2b ロボットのアーム 3 制御部 4 感覚認識部 5 感覚発現部 6 撮像部 7 撮像制御部 8 表示部 9 キャタピラ 10 車輪 11 クレーンアーム

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 マニピュレータとロボットとの組合せに
    より、オペレータの指示でロボットを動作させるパワー
    ド・インテリジェント方法であって、 マニピュレータは、オペレータに装着されてオペレータ
    の手および/または足の動きを三次元データとして認識
    するものであり、 ロボットは、オペレータからの指示に基づいてオペレー
    タの手および/または足の動きに関連付けられた動きを
    実行するものであり、 オペレータの指示をマニピュレータにより認識し、その
    認識信号に基づいてロボットに、オペレータからの指示
    に基づいてオペレータの手および/または足の動きに関
    連付けられた動きを実行させ、 ロボットが動作した際にロボットに作用する反力を動作
    感覚として認識し、その動作感覚をオペレータに感得可
    能な信号として出力することを特徴とするパワード・イ
    ンテリジェント方法。
  2. 【請求項2】 オペレータが視認する視野の映像内に前
    記ロボットの動きの映像を立体画像として表示すること
    を特徴とする請求項1に記載のパワード・インテリジェ
    ント方法。
  3. 【請求項3】 マニピュレータと、ロボットと、制御部
    と、感覚認識部と、感覚発現部とを有し、オペレータの
    指示に基づく動作をロボットに実行させ、その動作感覚
    をオペレータに感得させるパワード・インテリジェント
    ・ユニットであって、 マニピュレータは、オペレータに装着されてオペレータ
    の手および/または足の動きを三次元データとして認識
    し、その認識信号を制御部に出力するものであり、 ロボットは、オペレータからの指示に基づいてオペレー
    タの手および/または足の動きに関連付けられた動きを
    実行するものであり、 制御部は、前記マニピュレータからの三次元データに基
    づいて前記ロボットを制御動作するものであり、 感覚認識部は、動作に伴って前記ロボットに作用される
    反力を動作感覚として認識し、これをマニピュレータ側
    にフィードバックするものであり、 感覚発現部は、前記感覚認識部からマニピュレータ側に
    フィードバックされた動作感覚をオペレータに感得可能
    な信号として発現させるものであることを特徴とするパ
    ワード・インテリジェント・ユニット。
  4. 【請求項4】 撮像部と、撮像制御部と、表示部とを有
    し、 撮像部は、オペレータが視認する視野内に前記ロボット
    の動きを撮像するものであり、 撮像制御部は、オペレータが視認する視野の変化に対応
    させて前記撮像部の撮像指向性を変化させるものであ
    り、 表示部は、前記撮像部からの画像信号に基づいて、オペ
    レータが視認する視野内でのロボットの動きを画像とし
    て表示するものであることを特徴とする請求項3に記載
    のパワード・インテリジェント・ユニット。
  5. 【請求項5】 前記感覚認識部は、前記ロボットが受け
    る反力を縮尺してフィードバックするものであることを
    特徴とする請求項3に記載のパワード・インテリジェン
    ト・ユニット。
  6. 【請求項6】 前記撮像部は、前記ロボットの動きを立
    体映像として撮像するものであることを特徴とする請求
    項3に記載のパワード・インテリジェント・ユニット。
  7. 【請求項7】 前記ロボットは、アームの対を有し、該
    アームの対をオペレータの手の動きに関連付けて動作す
    るものであることを特徴とする請求項3に記載のパワー
    ド・インテリジェント・ユニット。
  8. 【請求項8】 前記ロボットは、オペレータの足の動き
    に関連付けて3次元空間内に位置移動するものであるこ
    とを特徴とする請求項3叉は7に記載のパワード・イン
    テリジェント・ユニット。
JP26581295A 1995-10-13 1995-10-13 パワード・インテリジェント方法及びユニット Pending JPH09109069A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26581295A JPH09109069A (ja) 1995-10-13 1995-10-13 パワード・インテリジェント方法及びユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26581295A JPH09109069A (ja) 1995-10-13 1995-10-13 パワード・インテリジェント方法及びユニット

Publications (1)

Publication Number Publication Date
JPH09109069A true JPH09109069A (ja) 1997-04-28

Family

ID=17422401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26581295A Pending JPH09109069A (ja) 1995-10-13 1995-10-13 パワード・インテリジェント方法及びユニット

Country Status (1)

Country Link
JP (1) JPH09109069A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004110702A1 (ja) * 2001-11-30 2004-12-23 Tmsuk Co., Ltd. ロボット遠隔制御システム
JP2008207262A (ja) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd マニピュレータシステム
DE102010023914A1 (de) * 2010-03-02 2011-09-08 Marcel Reese Verfahren und Vorrichtung zur Steuerung eines Statthalters
KR20120015518A (ko) * 2010-08-12 2012-02-22 두산인프라코어 주식회사 건설기계의 주행제어장치 및 주행제어방법
JP2014004656A (ja) * 2012-06-25 2014-01-16 Univ Of Tsukuba マニピュレーションシステム
JP2014508658A (ja) * 2011-03-23 2014-04-10 エスアールアイ インターナショナル 高機能遠隔マニピュレーターシステム
KR101491855B1 (ko) * 2008-09-18 2015-02-09 두산인프라코어 주식회사 건설장비의 원격제어시스템 및 원격제어방법
JP2015168056A (ja) * 2014-03-04 2015-09-28 サルコス・エルシー 協調的なロボット制御
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
CN106003053A (zh) * 2016-07-29 2016-10-12 北京工业大学 一种遥操作随动机器人控制系统及其控制方法
JP2019010724A (ja) * 2017-06-30 2019-01-24 大成建設株式会社 物品配置システム及び食品盛り付けシステム
CN111360852A (zh) * 2020-04-27 2020-07-03 徐航 一种随动机械臂的控制方法
KR102399884B1 (ko) * 2020-12-04 2022-05-20 한국해양과학기술원 해양로봇 운용을 위한 다자유도 모션 플랫폼 장치
WO2023003217A1 (ko) * 2021-07-21 2023-01-26 삼성전자 주식회사 매니퓰레이터 및 그 제어 방법

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004110702A1 (ja) * 2001-11-30 2004-12-23 Tmsuk Co., Ltd. ロボット遠隔制御システム
JP2008207262A (ja) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd マニピュレータシステム
KR101491855B1 (ko) * 2008-09-18 2015-02-09 두산인프라코어 주식회사 건설장비의 원격제어시스템 및 원격제어방법
DE102010023914A1 (de) * 2010-03-02 2011-09-08 Marcel Reese Verfahren und Vorrichtung zur Steuerung eines Statthalters
KR20120015518A (ko) * 2010-08-12 2012-02-22 두산인프라코어 주식회사 건설기계의 주행제어장치 및 주행제어방법
US9527207B2 (en) 2011-03-23 2016-12-27 Sri International Dexterous telemanipulator system
JP2014508658A (ja) * 2011-03-23 2014-04-10 エスアールアイ インターナショナル 高機能遠隔マニピュレーターシステム
JP2019202413A (ja) * 2011-03-23 2019-11-28 エスアールアイ インターナショナルSRI International 高機能遠隔マニピュレーターシステム
JP2017061032A (ja) * 2011-03-23 2017-03-30 エスアールアイ インターナショナルSRI International 高機能遠隔マニピュレーターシステム
JP2014004656A (ja) * 2012-06-25 2014-01-16 Univ Of Tsukuba マニピュレーションシステム
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
JP2015168056A (ja) * 2014-03-04 2015-09-28 サルコス・エルシー 協調的なロボット制御
CN106003053A (zh) * 2016-07-29 2016-10-12 北京工业大学 一种遥操作随动机器人控制系统及其控制方法
JP2019010724A (ja) * 2017-06-30 2019-01-24 大成建設株式会社 物品配置システム及び食品盛り付けシステム
CN111360852A (zh) * 2020-04-27 2020-07-03 徐航 一种随动机械臂的控制方法
KR102399884B1 (ko) * 2020-12-04 2022-05-20 한국해양과학기술원 해양로봇 운용을 위한 다자유도 모션 플랫폼 장치
WO2023003217A1 (ko) * 2021-07-21 2023-01-26 삼성전자 주식회사 매니퓰레이터 및 그 제어 방법

Similar Documents

Publication Publication Date Title
US10842578B2 (en) Robot system
Zhou et al. RML glove—An exoskeleton glove mechanism with haptics feedback
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
US20190278295A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
US5143505A (en) Actuator system for providing force feedback to a dextrous master glove
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
JPH09109069A (ja) パワード・インテリジェント方法及びユニット
CN111645093B (zh) 一种用于遥操作的力觉反馈数据手套
Shirwalkar et al. Telemanipulation of an industrial robotic arm using gesture recognition with Kinect
Mouchoux et al. Artificial perception and semiautonomous control in myoelectric hand prostheses increases performance and decreases effort
CN109529274B (zh) 基于冗余机械臂上肢关节主动康复系统及其训练方法
JP2012125918A (ja) 力を指示するトリガー機構を用いた触覚インターフェースハンドル
JP2002182817A (ja) 力覚呈示装置
Wu et al. Development of smartphone-based human-robot interfaces for individuals with disabilities
JP3837174B2 (ja) 人工ハンドにおける運動制御装置
JP4997419B2 (ja) ロボット用動作変換システム
Falck et al. DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation
CN108062102A (zh) 一种手势控制具有辅助避障功能的移动机器人遥操作系统
CN115958575A (zh) 类人灵巧操作移动机器人
JP3884249B2 (ja) 人間型ハンドロボット用教示システム
Kiguchi et al. A study of a 4DOF upper-limb power-assist intelligent exoskeleton with visual information for perception-assist
Hosseini et al. Haptic perception of virtual spring stiffness using exoten-glove
CN113618717A (zh) 人体上肢技能动作感测学习装置及方法
JP4206305B2 (ja) 多指ロボットハンドの制御方法及び装置
CN1323341C (zh) 骨架式力觉反馈装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20041224

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20050119

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050517