JP3316462B2 - 重量体感装置 - Google Patents

重量体感装置

Info

Publication number
JP3316462B2
JP3316462B2 JP37157698A JP37157698A JP3316462B2 JP 3316462 B2 JP3316462 B2 JP 3316462B2 JP 37157698 A JP37157698 A JP 37157698A JP 37157698 A JP37157698 A JP 37157698A JP 3316462 B2 JP3316462 B2 JP 3316462B2
Authority
JP
Japan
Prior art keywords
force
weight
sensation
sensor
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP37157698A
Other languages
English (en)
Other versions
JP2000190267A (ja
Inventor
泰充 黒崎
多加夫 和田
裕一 宮本
宣雄 永松
恒義 澤井
健一郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP37157698A priority Critical patent/JP3316462B2/ja
Publication of JP2000190267A publication Critical patent/JP2000190267A/ja
Application granted granted Critical
Publication of JP3316462B2 publication Critical patent/JP3316462B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、物体の重量を体感
することができるようにした重量体感装置に関する。
【0002】
【従来の技術】重量体感装置は、たとえば従来からの製
品と、試作品との重量の相違を、設計者の感覚として判
りやすく、したがって従来からの製品の修正などを行い
やすくなり、これによってさらに設計を行う作業の効率
化を図ることができるようにするために、必要になる。
従来から、コンピュータによる3次元設計装置である3
DCAD(3 Dimension Computer Aided Design)の技
術が進歩しており、設計から試作までの工程を3DCA
D、ラピッドプロトタイピングを用いて効率のよい製品
開発を行う状況となっている。3次元設計装置を用いる
ことによって、コンピュータ上で設計したものを立体視
表示させることにより、設計したものがどんな形になる
かが判り、さらにこの3次元設計装置によって作成され
た物体の3次元形状データを用いて試作品を自動的に製
造することができ、これによってその物体の形状につい
ての実物の確認が可能となっている。しかし試作品の重
量は材質を決めることで、計算上、測定できるが、人が
その重量を体感できるものではない。
【0003】典型的な先行技術は、特開平9−1143
60に開示された仮想物体の操作に応じた反力を発生す
る装置を開示する。この装置は、小形ディスプレイおよ
びマニピュレータを含む。マニピュレータは、能動回転
軸を3つ含む。能動回転軸は、超音波モータから成り、
これによって、反力を発生する。仮想物体に対し操作を
施す際には、小形ディスプレイに仮想物体を映し出す。
小形ディスプレイを、回転させたり平行移動させたりす
る。このような小形ディスプレイの平行移動や回転に応
じて、小形ディスプレイに表示された仮想物体が回転ま
たは移動する。以上のようにすることで、簡単な構成
(すなわち構造・機構)で、反力を発生することがで
き、仮想物体に対して、操作を施す操作者は、あたかも
実際に物体を持っているかのような重量を感じることが
できる。
【0004】この先行技術では、3DCADと、反力発
生装置との連携が実現されておらず、また仮想物体の操
作に対して反力を発生するものであるが、物体の材質な
どに依存して力を発生するものではなく、さらに試作品
の設計を補助するための働きは存在しない。
【0005】
【発明が解決しようとする課題】本発明の目的は、試作
品などの材質に対応した重量を、人が体感することがで
きるようにした重量体感装置を提供することである。
【0006】
【課題を解決するための手段】本発明は、(a)3次元
の第1物体の形状をストアするメモリと、 (b)メモリにストアされた形状を読出して、第1物体
の体積を演算し、この体積によって第1物体の重量M1
・gを演算する手段と、 (c)重量体感用第2物体と、 (d)力発生装置であって、第2物体が固定される支持
手段を有し、第2物体と支持手段とによって体感用組立
体を構成し、重量演算手段の出力に応答し、体感用組立
体に、第2物体の重量をM2・gとし、支持手段の重量
をM3・gとするとき、重量(M1・g−M2・g−M
3・g)に等しい鉛直方向の力を与える力発生手段とを
有する力発生装置とを含むことを特徴とする重量体感装
置である。
【0007】本発明に従えば、メモリには第1物体の3
次元形状がストアされており、これによってその第1物
体の体積を演算することができ、第1物体を構成する材
料の比重を用いて、第1物体の重量M1・gを演算する
ことができる。第2物体は、人体に装着し、もしくは接
触するためのもの物体であってもよく、たとえば靴のよ
うに人体の足に装着する物体であってもよく、または手
で把んで接触するための物体であってもよく、または人
体に装着したり接触する物体以外であってもよい。力発
生装置は、第1物体の重量M1・gを、第2物体に鉛直
方向に与える。こうして第2物体に、重力を鉛直方向に
発生されることができ、第1物体の重量を体感すること
ができる。
【0008】
【0009】本発明に従えば、第2物体を支持手段に固
定して体感用組立体を構成し、力発生手段は、たとえば
複数軸ロボットであってもよく、体感用組立体に重力を
作用させ、その重力は、第1物体の重量M1・gから、
第2物体および支持手段の重量M2・g,M3・gを減
算した値である。こうして操作者は、第2物体を装着
し、または接触することによって、第1物体の重量M1
・gを体感することができる。
【0010】また本発明は、力発生装置は、第2物体に
人体が接触したことを検出するセンサをさらに有し、力
発生手段は、センサの出力に応答して体感用組立体に力
を与えることを特徴とする。
【0011】本発明に従えば、第2物体に人体が接触し
たことをセンサによって検出し、体感用組立体に力が与
えられ、したがって第1物体の重量を、さらに現実感を
伴って、体感することができる。センサは、たとえば人
の手が接触したことを検出する構成であってもよく、ま
たは操作者の手などによる力が作用したとき、その力を
検出する構成であってもよく、さらに操作者が第2物体
に力を与えたとき、その変位を検出する構成を有しても
よく、さらに第2物体付近をテレビカメラによって撮像
し、手の指などが第2物体に、またはセンサに直接に、
接触したことを検出するように構成してもよい。
【0012】本発明の実施の他の形態では、図8に関連
して後述されるように2次元表示面に操作領域30を設
定し、その表示面上に配置された透明な操作スイッチを
操作することによって、力発生手段が力を発生するよう
に構成されてもよい。
【0013】また本発明は、3次元の第1物体の形状を
ストアするメモリと、メモリにストアされた形状を読出
して、第1物体の体積を演算し、この体積によって第1
物体の重量M1・gを演算する手段と、重量体感用第2
物体と、複数軸を有し、手首端を有するロボットと、第
2物体が固定される支持手段であって、第2物体ととも
に体感用組立体を構成する支持手段と、体感用組立体と
手首端との間に介在され、複数軸の外力を検出する力セ
ンサと、重量演算手段と力センサとの出力に応答し、第
2物体に、前記重量M1・gに等しい鉛直方向の力と、
検出された外力fの方向に、その外力と等しい力を与え
るように、ロボットの各軸を駆動する駆動制御手段とを
含むことを特徴とする重量体感装置である。
【0014】本発明に従えば、たとえばロボットである
マニピュレータの手首端に、力センサを取付け、このセ
ンサには、体感用組立体の支持手段を取付ける。支持手
段には、第2物体が固定され、操作者は、この第2物体
を人体に装着し、または接触して、第1物体の慣性を体
感することができる。第2物体に、たとえば人の手が接
触したとき、その力が力センサによって検出され、この
力に対応したモーメントが、ロボットによって発生され
る。このようにして、いかにも手に第1物体を持ったよ
うな感覚を与えることができる。ロボットの複数軸と、
力センサが検出する複数軸とは、たとえば6軸であって
等しい値であってもよいけれども、異なった軸数であっ
てもよい。
【0015】また本発明は、支持手段の重心と、第2物
体の重心とは、ほぼ一致することを特徴とする。
【0016】本発明に従えば、体感用組立体を構成する
支持体の重心と、第2物体の重心とをほぼ一致させ、こ
れによって操作者が第2物体を人体に装着しまたは手で
把むなどして接触したときに操作者に与える慣性を発生
して、操作者が第1物体を操作した感覚にさらに一層類
似した感覚を与えることができるようになる。
【0017】
【発明の実施の形態】図1は、本発明の実施の一形態の
全体の構成を示すブロック図である。3DCADなどの
コンピュータによる3次元設計装置1によって、たとえ
ば靴などの製品である第1物体の3次元形状が、表示手
段2に、立体視画像3で表示される。表示手段2は、液
晶または陰極線管などによって実現され、2次元表示面
4を有する。画像3によって表示される第1物体の設計
が終了した後、その第1物体の重量M1・gを演算して
求め、本発明に従って、その重量M1・gを体感する。
重量の体感のために、複数軸(たとえば6軸)のロボッ
ト5が用いられる。ロボット5は、コントローラ6と、
マニピュレータであるロボット本体7とを含む。ロボッ
ト5は、力発生手段を構成する。
【0018】ロボット本体7のエンドエフェクタである
手首端8には、体感用組立体9が着脱自在に取付けられ
る。体感用組立体9は、手首端8に取付けられる支持手
段11と、この支持手段11に着脱自在に固定される前
記第1物体の試作品である第2物体12とを有する。こ
うしてロボット5と体感用組立体9とは、力発生装置1
3を構成する。ロボット5は、体感用組立体9に、鉛直
方向の力を与えて力を発生する。
【0019】本発明の実施の他の形態では、ロボット5
に代えて、体感用組立体9に鉛直方向に力を与える機械
装置14が用いられてもよい。このようにして3次元設
計装置1で作成されたデータを、ロボット5のコントロ
ーラ6に与え、体感用組立体9、したがって物体12に
鉛直方向の力を作用し、画像3の第1物体の重量を体感
することができる。
【0020】第2物体12は、画像3で示される第1物
体と同一または類似の形状を有していてもよいけれど
も、異なる形状を有していてもよい。第2物体12は、
人体に装着することができるたとえば靴であってもよい
けれども、手などで接触することができる形状を有して
いてもよい。こうして第2物体12の重量を体感するこ
とができるので、3次元設計装置1と、ロボット5とを
連携することによって、画像3で表示されている第1物
体の設計を補助することができ、また第1物体の修正を
行うことが容易であり、そのような設計の変更を効率よ
く行うことができるようになる。
【0021】図2は、図1に示される実施の形態におけ
る体感用組立体9を具体的に示す斜視図である。たとえ
ば靴である第2物体12は、支持手段11に着脱可能に
固定される。支持手段11は、第2物体12が固定され
る平板上の取付台15と、この取付台15を、手首端8
に連結する枠体16とを有し、支持手段11は剛性であ
る。
【0022】図3に示される本発明の実施の他の形態で
は、体感用組立体9の支持手段11は、鉛直方向に延び
る2本の棒状体から成り、剛性であり、この支持手段1
1の下端部に、物体12が固定される。支持手段11
は、鉛直方向に延びる。取付台15は、水平面を有し、
この水平面に物体12が前述のように固定される。
【0023】図4は、第2物体12の分解斜視図であ
る。第2物体12は、製品となる第1物体の試作品であ
り、偏平な薄いシートから成る多数の部材17が積層さ
れて、靴などの第2物体12の全体の形状を、形成す
る。各部材17は、3次元設計装置1の第1物体の3次
元形状データを用い、NC(数値制御)機械加工装置を
用い、いわゆるラピッドプロトタイピングツールで作成
することができる。
【0024】図5は、本発明の実施の他の形態における
第2物体12の他の形状を示す斜視図である。第2物体
12は、前述のように第1物体の形状と同一または類似
した形状を有してもよいけれども、そのほかの形状を形
状を有してもよく、たとえば図5(1)に示されるよう
に、球であってもよく、図5(2)に示されるように直
円柱であってもよく、さらに図5(3)に示されるよう
に直方体であってもよい。これらの第2物体12は、支
持手段11に固定され、体感用組立体9を構成する。
【0025】図6は、図1〜図5に示される本発明の実
施の形態の電気的構成を示すブロック図1である。3次
元設計装置1は、マイクロコンピュータなどによって実
現される処理回路21を有し、キーボードなどの入力手
段22を操作することによって、第1物体の3次元立体
視画像3を表示手段2によって表示する。第1物体の3
次元データは、メモリ23にストアされる。操作者は、
入力手段22を操作し、第1物体の3次元形状の設計、
修正などを行うことができる。
【0026】ロボット5において、コントローラ6に備
えられる演算回路24は、処理回路21に接続される。
演算回路24には、メモリ23にストアされている画像
3の第1物体の3次元形状のデータが転送される。演算
回路24には、入力手段25が接続され、第1物体の各
部品の寸法形状などおよびその部品を構成する材料の比
重μなどのデータが入力される。演算回路24は、第1
物体の3次元データによって、その第1物体の体積Vを
演算し、比重μを掛算して、第2物体12の質量M1
(=μ・V)を演算し、この質量M1に、重力加速度g
を掛算して、第1物体の重量M1・gを演算して求め
る。さらに演算回路24は、ロボット本体7によって、
体感用組立体9に発生すべき力Wを演算する。演算回路
24は、たとえばマイクロコンピュータなどによって実
現される。
【0027】演算回路24の出力は、制御回路26に与
えられ、サーボ手段28によってロボット本体7の各軸
毎の駆動手段であるモータが駆動制御される。このよう
な力の発生は、センサ29が、第2物体12に人体が接
触したことを検出したとき、発生される。センサ29
は、(a)第2物体12に設けられ、人体が接触するこ
とによってたとえば静電容量が変化して人体の接触を検
出する構成であってもよく、(b)第2物体12である
靴を人が履いて装着することによって、操作されてスイ
ッチング状態がオンからオフにまたはその逆に切換わる
マイクロスイッチによって実現されてもよく、または
(c)体感用組立体9に力が作用することによって、そ
の体感用組立体9の支持手段11と手首端8との間に力
または変位を検出するために設けられたセンサであって
もよく、さらにまた(d)テレビカメラの出力を画像処
理する手段を備え、第2物体12である靴を人が履いた
ことを検出する構成であってもよく、(e)そのほかの
構成であってもよい。
【0028】図7は、本発明の実施の一形態における演
算回路24の動作を説明するためのフローチャートであ
る。ステップa1からステップa2に移り、演算回路2
4は、3次元設計装置1におけるメモリ23にストアさ
れた第1物体の3次元形状のデータを、処理回路21を
介して読出す。ステップa3では、この第1物体の体積
Vを演算する。ステップa4では、入力手段25によっ
て入力された第1物体の材料の比重μを表す信号を受信
して入力が行われる。これによってステップa5では、
第1物体の質量M1(=μ・V)を演算し、その重量M
1・gを、次のステップa5で求める。
【0029】ステップa6では、演算回路24は、ロボ
ット本体7によって体感用組立体9に発生すべき力Wを
演算する。試作品である第2物体12の既知の重量をM
2・gとし、支持手段11の既知の重量をM3・gとす
るとき、体感用組立体9の重量W1は、W1=(M2・
g+M3・g)であり、したがって第1物体の重量M1
・gから、この体感用組立体9の重量W1を減算し、発
生すべき力Wを演算して求める。 W = M1・g−M2・g−M3・g …(1)
【0030】ステップa7において、第2物体12が人
体に装着され、または人体に接触されたことがセンサ2
9によって検出されたとき、そのセンサ29の出力によ
って、演算回路24は、力Wを発生すべき信号を、制御
回路26に与える。したがってサーボ手段28は、ステ
ップa8においてロボット本体7の各軸のモータを駆動
して、力Wを、体感用組立体9に発生する。こうしてス
テップa9では一連の動作を終了する。
【0031】前述のセンサ29に代えて、本発明の実施
の他の形態では、図8のようにたとえば3次元設計装置
1に備えられた表示手段2によって表示される表示面4
の予め定める操作領域に、操作スイッチ30が表示さ
れ、この表示面4上に設けられた透明なタッチパネルで
あるスイッチング手段によって、操作スイッチ30の操
作領域が接触または押圧されたことを検出するようにし
てもよい。こうしてロボット本体7は、体感用組立体9
に、鉛直方向の力W1を発生する。操作スイッチ30の
操作による信号は、処理回路21から演算回路24に与
えられる。本発明の実施の他の形態では、演算回路24
に、操作スイッチが設けられてもよい。
【0032】図9は、本発明の実施の他の形態の電気的
構成を示すブロック図である。この実施の形態は、前述
の実施の形態に類似し、対応する部分には同一の参照符
を付す。特にこの実施の形態では、第2物体12に、第
1物体の慣性を発生して与えるために、複数軸(たとえ
ば6軸)の力を検出する力センサ31が設けられる。こ
の力センサ31は、手首端8と体感用組立体9の支持手
段11との間に介在される(前述の図1〜図3および後
述の図11参照)。図1〜図3では、この実施の形態に
おける力センサ31は図示されていない。ロボット本体
7の手首端8に、上述のように力センサ31を取付け、
さらに体感用組立体9の支持手段11に、前述のラピッ
ドプロトタイピングツールで作成した試作品である第2
物体12を固定する。
【0033】図10は、ロボット本体7の手首端8に、
第2物体12を取付ける状態を説明するための簡略化し
た図である。体感用組立体9は、支持手段11とその支
持手段11に固定された第2物体12とから成り、支持
手段11の重心と第2物体12の重心とは、参照符32
で示されるように、一致して取付けられる。第2物体1
2の重心の位置は、3次元設計装置1の処理回路21の
働きによって、メモリ23にストアされた第1物体の3
次元データに基づいて、演算して求めることができる。
この第1物体の重心の位置を、第2物体12の重心の位
置とする。
【0034】第2物体12が、たとえば前述のように靴
であり、人がその靴を履いて装着し、または人の手によ
って第2物体12が接触されると、力センサ31は、そ
の外力を、各軸毎に検出する。演算回路24は、こうし
てセンサ31によって検出された各軸毎の力fと、第2
物体12の重力M1・gとを加えた力f1(=f+M1
・g)から、ロボット本体7の複数の各軸毎の関節トル
クtを求め、ロボット本体7の各軸のモータにトルクを
発生させる。
【0035】図11は、ロボット本体7の具体的な構成
を示す斜視図である。このロボット本体7は、図11に
示されるように合計6軸J1〜J6を備え、手首端8
に、前述のようにセンサ31を介して、体感用組立体9
の支持手段11が取外し可能に連結される。
【0036】センサ31によって検出される外力fは、
xyz直交座標系において、z軸を鉛直上向きとすると
き、次式が成立する。
【0037】 f =(fx,fy,fz,Mg,Mx,My,Mz)T …(2) ここでMx,My,Mzは、x,y,zの各軸まわりの
モーメントである。
【0038】センサ31によって検出された力fと第2
物体12の重力M1・gを加えた力f1は、次式で表さ
れる。
【0039】 f1 =(fx,fy,fz−Mg,Mx,My,Mz) …(3) したがって t = JTf …(4) ここで、Jはヤコビ行列である。このようにして、第2
物体12を持つことによって、いかにも手に3次元の第
1物体を持つような感覚を与える。
【0040】図12は、ロボット本体7の関節トルクを
説明するための簡略化した図である。力センサ31によ
って検出された外力fと等しい力を、各軸J1〜J6の
関節に設けられたモータによってトルクを発生するため
の演算回路24において達成される手法を説明する。手
首端8における力と各関節における駆動力トルクとの関
係を、ヤコビ行列を用いて表すことができる。
【0041】いま、図12のようにロボットアームの先
端の手首端8に外力f=[fx fy fz Mx M
y Mz]Tが加わり、dx[dx dy dz dα
dβ dγ]Tの微小変位、回転が発生したとする。こ
のときの微小仕事δWは、 δW = fTdx …(5) となり、仮に回転関節のみとして、これが各関節におけ
るトルク τ =[τ1 τ2 τ3 τ4 τ5 τ6]T …(6) とそのための微小回転 dq =[dq1 dq2 dq3 dq4 dq5 dq6]T …(7) による仕事と等しくなるので、 fTdx = τTdq …(8) となる。したがって、 xT = fTdx/dq = fTJ …(9) τ = JTf …(10) このようにして、手首端8の力fをJTを用いて関節ト
ルクに変換することができる。
【0042】力センサ31の出力によって、ロボット本
体7の各軸に作用する力とモーメントとを演算する手法
について説明する。まず、力の座標変換について、異な
る座標系間における微小移動と微小回転とを述べる。い
ま、基準座標系とある座標系の間に変換行列Aが求めら
れているとする。
【0043】
【数1】
【0044】基準座標系で d=[dx dy dz]T …(12) δ =[δx δy δz]T …(13) だけ微小変化したとき、A座標系での変化Adと、Aδと
の間は先のベクトル関係でつぎのように表される。
【0045】 Adx=δ・(p×n)+d・n Ady=δ・(p×o)+d・o Adz=δ・(p×α)+d・α Aδx=δ・n Aδy=δ・o Aδz=δ・α …(14) これをマトリックス表現すると、
【0046】
【数2】
【0047】ただし、
【0048】
【数3】
【0049】である。
【0050】この変換マトリックスをJwとおくと、 D = Jw-1AD …(18) となる。座標iのz軸回転に対する変化は、δzがかか
るJw-1の第6列である。また、z軸平行移動に対する
変化は、dzがかかる第3列であり、これがヤコビ行列
のJ1となっているのである。ただし、zベクトルはα
ベクトルとなっている。
【0051】
【数4】
【0052】次に、或る座標系に加えられた力AFと、
基準座標系での力との関係を仮想仕事の原理から求める
と、 δW = ATAD = FT・D …(20) であるから、 F = JwTAF …(21) となり、任意の座標系間の力の変換ができる。逆の関係
は次のようになる。 AF= (JwT-1・F …(22)
【0053】たとえば図12に示したような6軸ロボッ
トのハンド先端部である手首端8にかかる力とモーメン
EFを手首の第5関節に取付けた6軸力センサの情報
Fsから求める必要がでてくる。このときには、5番目
の座標系から手首端8までの変換行列を用いて5Jwを
求めておけば、力とモーメントの検出値を変換すること
ができる。 EF = 5Jw・Fs …(23)
【0054】図13は、図9〜図12に示される本発明
の実施の形態におけるロボット5の演算回路24の動作
を説明するためのフローチャートである。第2物体12
の慣性を発生させて、いかにも人の手に3次元の第1物
体を持つような感覚を与えるために、図13のステップ
b1からステップb2に移り、メモリ23にストアされ
る第1物体の3次元形状のデータを、処理回路21の働
きによって読出し、ステップb3において、その第1物
体の体積Vを演算する。ステップb4では、入力手段2
5によって入力された第1物体の比重μを受信して入力
処理し、こうして第1物体の質量M1(=μ・V)を演
算して求める。したがってステップb5では、第1物体
の重量M1・gが演算して求められる。ステップb1〜
b5は、前述の図17に関連して述べた実施例における
ステップa1〜a5と同様である。
【0055】本発明では特に、ステップb6において、
力センサ31の出力があるかどうかが判断される。力セ
ンサ31によって外力が検出されたとき、ステップb7
に移る。
【0056】ステップb7では、力センサ31によって
検出された外力fと同一の力が、ロボット本体7の関節
に備えられたモータによって発生されるべきトルクtを
演算する。ステップb8では、演算回路24は、各関節
毎の発生すべきトルクtを表す信号を、制御回路26に
与え、サーボ手段28の働きによってロボット本体7の
各関節のモータを駆動し、ステップb8でトルクを発生
する。
【0057】本発明の実施の他の形態では、6軸以外の
複数軸を有する産業用ロボットが、前述のロボット5に
代えて用いられてもよい。3次元設計装置1に代えて、
第1物体の3次元形状のデータをストアするそのほかの
構成が用いられてもよい。3次元設計装置1の処理回路
21において、第1物体の体積V、質量M1および重量
M1・gを演算するように構成されてもよく、そのよう
にすれば、前述の図7におけるステップa1〜a5およ
び図13におけるステップb1〜b5を、演算回路24
が演算処理する必要がなくなる。
【0058】
【発明の効果】請求項1の本発明によれば、第2物体を
人体に装着し、または接触することによって、第1物体
の重量を体感することができ、したがって第1物体とは
材料が異なり、かつ外形が同一である第2物体を試作品
として作成し、この試作品を、操作者が装着したり接触
したりすることによって、実際の製品である第1物体の
重量を体感することができるので、第1物体の製品の設
計、修正などを行いやすくなる。メモリには、たとえば
コンピュータによる3次元設計装置である3DCAD
(3 Dimension Computer Aided Design)によって、第
1物体の3次元形状をストアし、その形状の変形、修正
などを行うことができる。
【0059】また、体感用組立体の第2物体が固定され
た支持手段を、複数軸のロボットなどのマニピュレータ
である力発生手段に取付けて、この力発生手段は、体感
用組立体に、第1物体の重量M1・gから、第2物体お
よび支持手段の重量M2・g,M3・gを減算した鉛直
方向の力を与えるので、第2物体を装着しまたは接触し
た操作者は、第2物体に、第1物体の重量が作用してい
る仮想的な重量を正確に体感することができる。
【0060】請求項2の本発明によれば、力発生装置が
体感用組立体、したがって第2物体に力を与える時点
は、センサによって第2物体に人体が接触したことを検
出した時点であり、すなわ力発生手段に取付けられてい
る第2物体に操作者が触れたことを、いわばトリガとし
て、第2物体に力が発生されるので、操作性が良好であ
るとともに、第1物体の重量の体感を、さらに現実感を
高めて体感することができる。
【0061】請求項3の本発明によれば、第2物体に、
第1物体の慣性を発生させることができ、操作者が、い
かにも手に3次元の第1物体を持った感覚を与えること
ができる。
【0062】請求項4の本発明によれば、体感用組立体
の支持手段と第2物体との各重心をほぼ一致させること
によって、第2物体を人体に装着し、または接触したと
きにおける第1物体の慣性を発生して、現実感をさらに
一層高めて、第1物体を体感させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態の全体の構成を示すブロ
ック図である。
【図2】図1に示される実施の形態における体感用組立
体9を具体的に示す斜視図である。
【図3】本発明の実施の他の形態の体感用組立体9を具
体的に示す斜視図である。
【図4】第2物体12の分解斜視図である。
【図5】本発明の実施の他の形態における第2物体12
の他の形状を示す斜視図である。
【図6】図1〜図5に示される本発明の実施の形態の電
気的構成を示すブロック図1である。
【図7】本発明の実施の一形態における演算回路24の
動作を説明するためのフローチャートである。
【図8】本発明の実施の他の形態における操作スイッチ
30を示す図である。
【図9】本発明の実施の他の形態の電気的構成を示すブ
ロック図である。
【図10】ロボット本体7の手首端8に、第2物体12
を取付ける状態を説明するための簡略化した図である。
【図11】ロボット本体11の具体的な構成を示す斜視
図である。
【図12】ロボット本体7の関節トルクを説明するため
の簡略化した図である。
【図13】図9〜図12に示される本発明の実施の形態
におけるロボット5の演算回路24の動作を説明するた
めのフローチャートである。
【符号の説明】
1 3次元設計装置 2 表示手段 3 立体視画像 4 2次元表示面 5 ロボット 6 コントローラ 7 ロボット本体 8 手首端 9 体感用組立体 11 支持手段 12 第2物体 13 力発生装置 14 機械装置 21 処理回路 23 メモリ 24 演算回路 26 制御回路 28 サーボ手段 29 センサ 30 操作スイッチ 31 6軸力センサ
フロントページの続き (72)発明者 永松 宣雄 兵庫県明石市川崎町1番1号 川崎重工 業株式会社 明石工場内 (72)発明者 澤井 恒義 兵庫県明石市川崎町1番1号 川崎重工 業株式会社 明石工場内 (72)発明者 松井 健一郎 兵庫県明石市川崎町1番1号 川崎重工 業株式会社 明石工場内 (56)参考文献 特開 平9−114360(JP,A) (58)調査した分野(Int.Cl.7,DB名) G09B 9/00 G06F 17/00 B25J 13/08

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 (a)3次元の第1物体の形状をストア
    するメモリと、 (b)メモリにストアされた形状を読出して、第1物体
    の体積を演算し、この体積によって第1物体の重量M1
    ・gを演算する手段と、 (c)重量体感用第2物体と、 (d)力発生装置であって、 第2物体が固定される支持手段を有し、 第2物体と支持手段とによって体感用組立体を構成し、 重量演算手段の出力に応答し、体感用組立体に、第2物
    体の重量をM2・gとし、支持手段の重量をM3・gと
    するとき、重量(M1・g−M2・g−M3・g)に等
    しい鉛直方向の力を与える力発生手段とを有する力発生
    装置とを含むことを特徴とする重量体感装置。
  2. 【請求項2】 力発生装置は、第2物体に人体が接触し
    たことを検出するセンサをさらに有し、 力発生手段は、センサの出力に応答して体感用組立体に
    力を与えることを特徴とする請求項1記載の重量体感装
    置。
  3. 【請求項3】 3次元の第1物体の形状をストアするメ
    モリと、 メモリにストアされた形状を読出して、第1物体の体積
    を演算し、この体積によって第1物体の重量M1・gを
    演算する手段と、 重量体感用第2物体と、 複数軸を有し、手首端を有するロボットと、 第2物体が固定される支持手段であって、第2物体とと
    もに体感用組立体を構成する支持手段と、 体感用組立体と手首端との間に介在され、複数軸の外力
    を検出する力センサと、 重量演算手段と力センサとの出力に応答し、第2物体
    に、前記重量M1・gに等しい鉛直方向の力と、検出さ
    れた外力fの方向に、その外力と等しい力を与えるよう
    に、ロボットの各軸を駆動する駆動制御手段とを含むこ
    とを特徴とする重量体感装置。
  4. 【請求項4】 支持手段の重心と、第2物体の重心と
    は、ほぼ一致することを特徴とする請求項3記載の重量
    体感装置。
JP37157698A 1998-12-25 1998-12-25 重量体感装置 Expired - Fee Related JP3316462B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37157698A JP3316462B2 (ja) 1998-12-25 1998-12-25 重量体感装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37157698A JP3316462B2 (ja) 1998-12-25 1998-12-25 重量体感装置

Publications (2)

Publication Number Publication Date
JP2000190267A JP2000190267A (ja) 2000-07-11
JP3316462B2 true JP3316462B2 (ja) 2002-08-19

Family

ID=18498951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37157698A Expired - Fee Related JP3316462B2 (ja) 1998-12-25 1998-12-25 重量体感装置

Country Status (1)

Country Link
JP (1) JP3316462B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014076397A (ja) * 2009-04-30 2014-05-01 Nike Internatl Ltd 物品および物品の製造方法
JP2014076668A (ja) * 2009-04-30 2014-05-01 Nike Internatl Ltd 物品および物品の製造方法
US9788604B2 (en) 2007-10-23 2017-10-17 Nike, Inc. Articles and method of manufacture of articles
US10470519B2 (en) 2013-03-14 2019-11-12 Under Armour, Inc. Shoe with lattice structure

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9883717B2 (en) 2007-10-23 2018-02-06 Nike, Inc. Articles and methods of manufacture of articles
US10681961B2 (en) 2007-10-23 2020-06-16 Nike, Inc. Articles and methods of manufacture of articles
US11224265B2 (en) 2007-10-23 2022-01-18 Nike, Inc. Articles and methods of manufacture of articles
US10798995B2 (en) 2007-10-23 2020-10-13 Nike, Inc. Articles and methods of manufacture of articles
US9788594B2 (en) 2007-10-23 2017-10-17 Nike, Inc. Articles and methods of manufacture of articles
US9788603B2 (en) 2007-10-23 2017-10-17 Nike, Inc. Articles and methods of manufacture of articles
US9795181B2 (en) 2007-10-23 2017-10-24 Nike, Inc. Articles and methods of manufacture of articles
US9788604B2 (en) 2007-10-23 2017-10-17 Nike, Inc. Articles and method of manufacture of articles
JP2014087685A (ja) * 2009-04-30 2014-05-15 Nike Internatl Ltd 物品および物品の製造方法
EP3001925B1 (en) * 2009-04-30 2017-11-01 NIKE Innovate C.V. Articles and methods of manufacture of articles
EP2997842B1 (en) * 2009-04-30 2020-02-26 NIKE Innovate C.V. Articles and methods of manufacture of articles
JP2014076668A (ja) * 2009-04-30 2014-05-01 Nike Internatl Ltd 物品および物品の製造方法
EP3711621A1 (en) * 2009-04-30 2020-09-23 NIKE Innovate C.V. Articles and methods of manufacture of articles
EP2995213B1 (en) * 2009-04-30 2019-10-09 NIKE Innovate C.V. Articles and methods of manufacture of articles
JP2014076397A (ja) * 2009-04-30 2014-05-01 Nike Internatl Ltd 物品および物品の製造方法
US11425963B2 (en) 2013-03-14 2022-08-30 Under Armour, Inc. Shoe with lattice structure
US10575586B2 (en) 2013-03-14 2020-03-03 Under Armour, Inc. Shoe with lattice structure
US10470519B2 (en) 2013-03-14 2019-11-12 Under Armour, Inc. Shoe with lattice structure

Also Published As

Publication number Publication date
JP2000190267A (ja) 2000-07-11

Similar Documents

Publication Publication Date Title
Chinello et al. A modular wearable finger interface for cutaneous and kinesthetic interaction: control and evaluation
US5459382A (en) Method and system for providing a tactile virtual reality and manipulator defining an interface device therefor
JPH05282095A (ja) 3次元座標入力装置
JP3686686B2 (ja) 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置
US5629594A (en) Force feedback system
US6281651B1 (en) Haptic pointing devices
US8350806B2 (en) Force/tactile display, method for controlling force/tactile display, and computer program
US8648797B2 (en) Information input/output device, information input/output method and computer program
US20050024331A1 (en) Method, apparatus, and article for force feedback based on tension control and tracking through cables
US20090231272A1 (en) Virtual hand: a new 3-d haptic interface and system for virtual environments
KR20030024681A (ko) 3차원 휴먼 컴퓨터 인터페이스
Williams et al. A 4-degree-of-freedom parallel origami haptic device for normal, shear, and torsion feedback
JP3316462B2 (ja) 重量体感装置
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
JP2006312207A (ja) 力覚コントローラ装置及びその制御方法
Hasunuma et al. Development of teleoperation master system with a kinesthetic sensation of presence
JP2013114323A (ja) 3次元空間座標入力装置
Sabater et al. Magister-P; a 6-URS parallel haptic device with open control architecture
Sato et al. Micro-teleoperation with manual task execution posture
Williams et al. A 4-DoF Parallel Origami Haptic Device for Normal, Shear, and Torsion Feedback
JP2009162599A (ja) 外力検出方法及び検出装置
Lii et al. Exodex adam—a reconfigurable dexterous haptic user interface for the whole hand
Leon et al. Dexterous grasping tasks generated with an add-on end effector of a haptic feedback system
JP2012228736A (ja) オフライン教示データ作成方法、及びオフライン教示データ作成システム
Chabrier et al. Design and Preliminary Evaluation of a Dextrous Encounter Type Force Feedback Interface.

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees