JP2008217260A - 力覚提示装置 - Google Patents

力覚提示装置 Download PDF

Info

Publication number
JP2008217260A
JP2008217260A JP2007051873A JP2007051873A JP2008217260A JP 2008217260 A JP2008217260 A JP 2008217260A JP 2007051873 A JP2007051873 A JP 2007051873A JP 2007051873 A JP2007051873 A JP 2007051873A JP 2008217260 A JP2008217260 A JP 2008217260A
Authority
JP
Japan
Prior art keywords
virtual object
force
target position
virtual
fingertip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007051873A
Other languages
English (en)
Inventor
Yoshitaka Adachi
吉隆 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Institute of Technology
Original Assignee
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Institute of Technology filed Critical Shibaura Institute of Technology
Priority to JP2007051873A priority Critical patent/JP2008217260A/ja
Publication of JP2008217260A publication Critical patent/JP2008217260A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせる。
【解決手段】コンピュータは、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する(ステップS8)。内側に向かっているときは、コンピュータは、操作力fを考慮した仮の指先位置を示す指先目標位置xを計算し、この指先目標位置xに最も近い仮想物体表面上の点(最近点)の位置を指先の目標位置xとする(ステップS9)。そして、指先の目標位置xを実現するための力覚提示機構の各関節角度θを計算し(ステップS10)、計算された各関節角度θになるように、モータを制御する(ステップS11)。
【選択図】図3

Description

本発明は、力覚提示装置に関する。
現実世界又は仮想世界の重機やロボット等の機械を制御するとき、その機械で生じる力覚情報を操作者に提示する技術が提案されている(特許文献1を参照。)。
特許文献1の力覚コントローラ装置は、制御対象に対する操作を入力するための可動部を含む操作機構と、該可動部に加えられた操作力を検出する操作力検出手段と、前記可動部の現在位置を検出する現在位置検出手段と、前記制御対象に加わる外力を入力する外力入力手段と、前記可動部を駆動する駆動手段と、前記操作力に応じて前記可動部に対する操作をアシストするとともに、前記外力に応じて該可動部に力覚を提示するように、前記操作力及び前記外力を任意の比率で合成した力に基づいて前記可動部の目標位置を算出し、該目標位置及び前記現在位置に基づいて前記可動部を該目標位置に追従させるように前記駆動手段を制御する力覚制御手段と、を備えている。
これにより、特許文献1の力覚コントローラ装置は、可動部の操作に力を要しないようになっているので、可動部を介して手触り感など微妙な感覚を操作者に効率的に伝達することができる。
特開2006−312207号公報
しかし、特許文献1の技術は、手触り感をオペレータに伝達することができるものの、仮想物体の表面を撫でたり、被操作仮想物体と固定仮想物体との接触感を伝達したりすることができない問題があった。
本発明は、上述した課題を解決するために提案されたものであり、仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせることができる力覚提示装置を提供することを目的とする。
本発明に係る力覚提示装置は、実空間の操作部に作用する操作力を検出する操作力検出手段と、前記操作部の操作位置を検出する位置検出手段と、前記位置検出手段により検出された操作位置を仮想空間に変換する位置変換手段と、前記操作力検出手段により検出された操作力と、前記位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算する目標位置計算手段と、前記目標位置計算手段により計算された第2の目標位置に仮想空間の操作部が移動するように、実空間の操作部の位置を制御する位置制御手段と、を備えている。
本発明は、操作力検出手段により検出された操作力と、位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算することにより、仮想物体の内側に操作力がある場合でも、仮想物体の表面に第2の目標位置を計算する。そして、本発明は、第2の目標位置に仮想空間の操作部が移動するように実空間の操作部の位置を制御することにより、仮想物体の表面を撫でるような手ごたえをオペレータに感じさせることができる。
また、本発明に係る力覚提示装置は、実空間の操作部に作用する操作力を検出する操作力検出手段と、前記操作部の操作位置を検出する位置検出手段と、前記位置検出手段により検出された操作位置を仮想空間の被操作仮想物体の位置に変換する位置変換手段と、 前記操作力検出手段により検出された操作力と、前記位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算し、前記第1の目標位置を用いて前記被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算する目標位置計算手段と、前記目標位置計算手段により計算された第2の目標位置に被操作仮想物体が移動するように、実空間の操作部の位置を制御する位置制御手段と、を備えている。
本発明は、操作力検出手段により検出された操作力と、位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算する。そして、本発明は、第1の目標位置を用いて被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算することにより、被操作仮想物体が仮想物体に接触したときの手ごたえをオペレータに感じさせることができる。
本発明は、仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせることができる。
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る力覚提示装置を示す図である。力覚提示装置は、指先の一点で仮想物体を触るときの手応えをオペレータに提示するものである。なお、第1の実施形態では、硬い物体を触る場合を例に挙げて説明する。
力覚提示装置は、オペレータが仮想物体を触ったときの手応えを与える力覚提示機構10と、仮想物体と手先との接触判定や手先位置の計算等を行うコンピュータ20と、仮想物体と仮想手先を表示するLCD30と、を備えている。なお、力覚提示機構10は、図示しないが、棒状部材で構成された複数のリンクと、各リンクを接続すると共に所望の角度(以下「関節角度」という。) にするための関節部と、を備えている。
図2は、力覚提示装置の機能的な構成を示すブロック図である。力覚提示機構10は、いずれかのリンクのオペレータの力が作用する位置に設けられた力センサ11と、関節角度を検出する角度センサ12と、モータドライバ13と、モータドライバ13の制御に応じて関節角度を設定するモータ14と、を備えている。力センサ11は、オペレータの操作力fとして、3次元空間のx、y、z軸のそれぞれの力の大きさf、f、fを検出する。
なお、関節部の数は特に限定されるものではなく、本実施形態ではn個あるものとする。よって、角度センサ12及びモータ14は、それぞれn個設けられている。また、各関節角度を設定することにより、力センサ11の位置、すなわち手先の3次元空間上の位置が決まる。
図3は、第1の実施形態の力覚提示ルーチンを示すフローチャートである。以上のように構成された力覚提示装置のコンピュータ20は、力覚提示ルーチンに従って処理を実行する。
ステップS1では、コンピュータ20は、力センサ11からの操作力f=[f、f、fと、各関節部に取り付けられた各角度センサ12からの関節角度θ=[θ,θ,・・・,θを入力して、ステップS2に進む。
ステップS2では、コンピュータ20は、各角度センサ12からの関節角度θ=[θ,θ,・・・,θに基づいて、力覚提示機構10の固有の構造から、p=g(θ)を演算することにより、実環境におけるオペレータの手先p=[x,y,zを計算して、ステップS3に進む。
ステップS3では、コンピュータ20は、 実環境におけるオペレータの指先位置pを仮想環境におけるオペレータの指先位置p[x,y,zに変換することにより、指先位置を仮想環境に写像して、ステップS4に進む。なお、この関係はp=h(p)という方程式で表される。また、必要に応じて、操作力fの各ベクトル成分も変換される。
ステップS4では、コンピュータ20は、仮想環境における現在の指先位置pと仮想物体との接触判定を計算して、ステップS5に進む。
ステップS5では、コンピュータ20は、接触判定の計算結果に基づいて、仮想環境における現在の指先位置pが仮想物体に接触したか否かを判定する。接触していないときはステップS6に進み、接触したときはステップS7に進む。
ステップS6では、図4に示すように、指先が仮想物体に接触していないので、オペレータの指先には“手ごたえ”が発生していない。そこで、コンピュータ20は、オペレータが力覚提示機構10を操作する際の操作力fを利用して、指先が仮想物体と接触していない場合の指先目標位置xを計算する。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における指先位置をxt−1、時刻t−2における指先位置をxt−2、時刻t−1における操作力をft−1とする。指先目標位置xは、式(1)で表される。
Figure 2008217260
ここでMは仮想質量であり、力覚提示機構10を動作させる場合には微小な値を用いる。そして、コンピュータ20は、式(1)に従って、指先目標位置xを計算すると、ステップS10に進む。
ステップS7では、コンピュータ20は、ステップS1で入力された操作力fに基づいて操作力の方向を計算して、ステップS8に進む。
ステップS8では、コンピュータ20は、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する。例えば、コンピュータ20は、仮想環境の指先の操作力のベクトル成分と、仮想物体表面の法線のベクトル成分と、を比較することで、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する。そして、操作力fが外側に向かっているときはステップS6に進み、内側に向かっているときはステップS9に進む。
操作力fの方向が仮想物体の外側に向かっている場合は、図5に示すように、これまで接触していた指先が仮想物体から離れていく場合である。このとき、オペレータの指先には“手ごたえ”が発生しない。
一方、操作力の方向が仮想物体の内側に向かっている場合は、図6に示すように、指先で仮想物体をなでる場合である。このとき、オペレータの指先に“手ごたえ”が発生する。
指先が仮想物体と接触している場合、図7に示すように、指先に最も近い仮想物体表面上の点(「最近点」という。)の位置に指先目標位置xを設定し、指先位置を位置制御すれば、仮想物体に触った“手ごたえ”をオペレータに提示される。
しかし、図8(A)に示すように指先目標位置を単純に最近点にするだけでは、図8(B)に示すように仮想物体表面上のある一点に指先が拘束され、仮想物体表面をなでることができなくなる。そこで、図9(A)に示すように、オペレータの操作力を考慮した指先目標位置xを設定する。これにより、図9(B)に示すように、オペレータは仮想物体表面をなでることができる。
指先が仮想物体と接触している場合には、以下の方法で指先目標位置x=[x,y,zを求める。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における指先位置をxt−1、時刻t−2における指先位置をxt−2、時刻t−1における操作力をft−1とする。仮の指先目標位置をxとすると、xは式(2)により表される。
Figure 2008217260
ここでMは仮想質量、Cは仮想粘性係数である。
ステップS9では、コンピュータ20は、式(2)に従って仮の指先位置を示す指先目標位置xを計算し、この指先目標位置xに最も近い仮想物体表面上の点(最近点)の位置を指先の目標位置xとして、ステップS10に進む。例えば、指先目標位置xから、仮想物体表面の法線方向へ移動したときの当該仮想物体表面上の位置を指先の目標位置xとする。
ステップS10では、コンピュータ20は、指先の目標位置xを実現するための力覚提示機構10の各関節角度θを計算して、ステップS11に進む。ここでは、力覚提示機構10に固有の機構から、目標位置xと関節角度θの関係を表すθ=k(x)の式が用いられる。
ステップS11では、コンピュータ20は、ステップS10で計算された各関節角度θになるように、図2に示すモータドライバ13を介して、モータ14を制御する。このとき、つぎのようなフィートバック制御が行われる。
力覚提示機構10の運動方程式が式(3)で与えられるものとする。
Figure 2008217260
ここで、τは関節トルク、Mは慣性質量、
Figure 2008217260
はコリオリ力と遠心力の項、Bは粘性係数、gは重力である。
Figure 2008217260
を状態変数とする。uθを新たな入力として、式(4)の非線形状態フィードバック補償を考える。
Figure 2008217260
ただし、次の式(5)を満たす。
Figure 2008217260
また、式(3)、(4)より、関節変数に関する線形かつ非干渉な系である次式(6)を得る。
Figure 2008217260
この系に対してサーボ補償器を次式(7)のように設ける。
Figure 2008217260
ここで、θは、指先目標位置xを実現する目標関節角度であり、力覚提示機構10の逆運動学から求めることができる。誤差e=θ−θとすると、式(8)となる。
Figure 2008217260
適当なK、Kを選ぶことにより、関節ごとにPD動作のフィードバックループを設けたことになり、eの各要素は0に収束する。すなわち、力覚提示機構10の関節角度が関節目標角度θに収束し、指先目標位置xが実現される。
そして、コンピュータ20は、ステップS11の処理が終了するとステップS1にリターンして、再びステップS1以降の処理を実行する。
以上のように、第1の実施形態に係る力覚提示装置は、指先による操作力が仮想物体の内側に向かって働いている場合、仮想物体内部において操作力を考慮した仮の指先目標位置を設定し、仮の指先目標位置に最も近い仮想物体表面上の点を最終的な指先目標位置に設定する。そして、上記力覚提示装置は、仮想環境上の指先が最終的な指先目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して仮想物体の表面を撫でているような“手ごたえ”を提示することができる。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位及び処理については第1の実施形態と同一の符号を付し、主に異なる点について説明する。
図10は、第2の実施形態に係る力覚提示装置を示す図である。上記力覚提示装置は、力覚提示機構10により操作される被操作仮想物体Aを仮想世界に固定された硬い仮想物体Bに押し当てるときの“手ごたえ”をオペレータに提示するものである。
力覚提示装置は、オペレータが被操作仮想物体を把持したときの手応えを与える力覚提示機構10Aと、被操作仮想物体と固定仮想物体との接触判定や被操作仮想物体の位置の計算等を行うコンピュータ20と、被操作仮想物体と固定仮想物体とを表示するLCD30と、を備えている。
なお、第1の実施形態の力覚提示機構10はオペレータの指先により操作されるのに対して、力覚提示機構10Aはオペレータによりグリップが把持されて操作される点が異なっている。この相違点を除き、力覚提示機構10Aは、力覚提示機構10と同様に、図2に示すように構成されている。
図11は、第2の実施形態の力覚提示ルーチンを示すフローチャートである。以上のように構成された力覚提示装置のコンピュータ20は、力覚提示ルーチンに従って処理を実行する。
ステップS21では、コンピュータ20は、力センサ11からの操作力f=[f,f,f,n,n,nと、各関節部に取り付けられた各角度センサ12からの関節角度θ=[θ,θ,・・・,θを入力して、ステップS22に進む。
ステップS22では、コンピュータ20は、各角度センサ12からの関節角度θ=[θ,θ,・・・,θに基づいて、力覚提示機構10Aのグリップ位置及び姿勢pを計算して、ステップS23に進む。なお、p=[x,y,z,α,β,θは、力覚提示機構10Aに固有の構造から、p=g(θ)の方程式により演算される。被操作物体の位置姿勢は、このpに等しいものとする。
ステップS23では、コンピュータ20は、 実環境における被操作物体の位置姿勢pを仮想環境における被操作物体の位置姿勢p=[x,y,z,α,β,θに変換することにより、被操作物体の位置姿勢を仮想環境に写像して、ステップS24に進む。なお、この関係はp=h(p)という方程式で表される。また、必要に応じて、操作力fの各ベクトル成分も変換されてもよい。
ステップS24では、コンピュータ20は、仮想環境における被操作仮想物体と固定仮想物体との接触判定を計算して、ステップS25に進む。
ステップS25では、コンピュータ20は、接触判定の計算結果に基づいて、仮想環境における現在の指先位置pが仮想物体に接触したか否かを判定する。接触していないときはステップS26に進み、接触したときはステップS27に進む。
ステップS26では、被操作仮想物体が仮想物体に接触していないので、オペレータの指先には“手ごたえ”が発生していない。そこで、コンピュータ20は、オペレータが力覚提示機構10Aを操作する際の操作力fを利用して、被操作仮想物体が固定仮想物体と接触していない場合における被操作仮想物体の目標位置姿勢xを計算する。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における位置姿勢をxt−1、時刻t−2における位置姿勢をxt−2、時刻t−1における操作力をft−1とする。目標位置姿勢xは、式(9)で表される。
Figure 2008217260
ここでMは仮想質量であり、力覚提示機構10Aを動作させる場合には微小な値を用いる。そして、コンピュータ20は、式(9)に従って、位置姿勢xを計算すると、ステップS30に進む。
ステップS27では、コンピュータ20は、ステップS21で入力された操作力fに基づいて、 オペレータが被操作仮想物体をどちらの方向へ移動させようとしているのか、すなわち被操作仮想物体の操作方向を計算してステップS28に進む。
ステップS28では、コンピュータ20は、被操作仮想物体の操作方向が固定仮想物体の内側へ向かっているか、外側へ向かっているかを判定する。そして、被操作仮想物体が固定仮想物体の外側へ向かっているときはステップS26に進み、内側へ向かっているときはステップS29に進む。
被操作仮想物体が固定仮想物体の外側へ向かっている場合は、これまで接触していた被操作仮想物体が固定仮想物体から離れていく場合である。このとき、オペレータの指先には“手ごたえ”が発生しない。
一方、被操作仮想物体が固定仮想物体の内側へ向かっている場合は、被操作仮想物体を固定仮想物体に押し付ける場合である。このとき、オペレータの指先に“手ごたえ”が発生する。そこで、 ステップS29では、次の計算が行われる。
ステップS29では、コンピュータ20は、第1の実施形態における指先の一点で物体表面を触る場合と同様にして、目標位置姿勢xを計算する。但し、第2の実施形態では、被操作仮想物体を取り扱うので被操作仮想物体の形状を考慮した干渉回避計算が必要となる。そこで、以下の方法で目標位置姿勢xを求めて、ステップS30に進む。
ここで、サンプリング時間dtの離散時間系とし、現在の時刻をtとする。時刻t−1における被操作仮想物体の位置姿勢をxt−1、時刻t−2における位置姿勢をxt−2、時刻t−1における操作力をft−1とする。仮の目標位置姿勢xを式(10)より求める。
Figure 2008217260
ここでMは仮想質量、Cは仮想粘性係数である。
そして、図12(A)に示すように仮の目標位置姿勢xを用いて、図12(B)に示すように固定仮想物体Bとの干渉を解消できるような被操作仮想物体Aの位置姿勢として目標位置姿勢xを求める。
被操作仮想物体Aと固定仮想物体Bがあり、Aの頂点とBの面が干渉状態にあるとする。Aの重心を原点とすると、Aの頂点はr、Bの面の方程式はn・X=dで表される。ただし、nは面の外向き法線ベクトルを表す。
Aの頂点とBの面が干渉状態にない場合は、n・X>dとなる。
仮想物体Aの移動を、重心の微小並進移動Δrと微小回転移動Δθで表すと、移動後の頂点の位置は式(11)となる。
Figure 2008217260
この移動によって干渉状態を解消するためには、式(12)、(13)を満足する必要がある。
Figure 2008217260
ここで、式(14)を干渉量と定義する。
Figure 2008217260
これにより、式(15)が得られる。以下、式(15)を干渉解消条件式という。
Figure 2008217260
Aに関してn個の干渉があるとする。それに関わる頂点をr(i=1,2,・・・,n)とし、それぞれがAを動かす力fを発生するとする。ただし、力の方向はuとする。力の方向は干渉面に垂直なので、u=nである。
Aの重心にかかる力とモーメントは、式(16)となる。
Figure 2008217260
簡単のため、力が直接移動量に比例すると仮定すると、式(17)の運動方程式が得られる。
Figure 2008217260
Aへのn個の干渉に対して、n個の干渉解消条件式を示す式(18)が得られる。
Figure 2008217260
式(18)の左辺に式(17)を代入すると、式(19)が得られる。
Figure 2008217260
ここで、f=[f,・・・,f、b=[b,・・・,bとおくと、式(20)が得られる。
Figure 2008217260
ただし、次の式(21)〜(23)を満たす。
Figure 2008217260
式(17)は式(20)を用いて、式(24)と書き直すことができる。
Figure 2008217260
干渉の解消がなった時点で力がゼロになる。干渉解消後のi番目の干渉点の状態はベクトル(AF−b)のi番目の値で示されており、これがゼロなら接触、正なら非接触である。そして後者の場合にはf=0でなければならない。これが、i=1、2、・・・、nのすべての点について成り立つためには、各iについて式(25)が成り立つ必要がある。
Figure 2008217260
fが式(25)を満足していることを加味すると、この条件は式(26)と表すことができる。
Figure 2008217260
多面体Bがn個の干渉を受けたとき、それを仮想物体Aの運動Δr、Δθによって解消するためには、干渉状態によって決まる行列A、ベクトルbを用いて、式(20)、(26)を満足するfを求めればよいことになる。
スラック変数sを用いると式(20)は式(27)と書くことができる。
Figure 2008217260
これを満足する解は新たに変数qを導入した方程式(28)
Figure 2008217260
の解(f,q,s)のうち、式(29)となるものと等しい。
Figure 2008217260
この解は、式(30)と制御すると、
Figure 2008217260
評価関数である式(31)をゼロに、すなわち最大にするものである。
Figure 2008217260
これは式(28)と次の式(32)の下で、式(31)を最大とする線形計画問題である。
Figure 2008217260
この問題は、式(33)を最初の基底解として、Simplex法により効率よく求めることができる。
Figure 2008217260
一方、必要とする解は式(26)も満足する必要がある。これは式(27)の表現に直せば、fs=0すなわち次の式(34)を意味する。
Figure 2008217260
これは、各iについてfとsがともに正となることを許さないものである。Simplex法により式(28)〜(32)を解く場合、n個の条件式に対して3n個の変数があるので、すべての基底解は3n個の変数のうち、正値のものはn個、残りの2n個はゼロである。従って、式(34)を満たす解は基底解の中の特殊なものであり、解はこの中で探索される必要がある。
そして、コンピュータ20は、ステップS30、S31については、第1の実施形態のステップS10、S11と同様に処理を行う。
以上のように、第2の実施形態に係る力覚提示装置は、操作力により被操作仮想物体の操作方向を求め、被操作仮想物体が固定仮想物体の内側に向かって働いている場合、固定仮想物体内部において操作力を考慮した仮の目標位置を設定し、被操作仮想物体と固定仮想物体とが干渉しないような点を最終的な目標位置に設定する。そして、上記力覚提示装置は、仮想環境上の被操作仮想物体が最終的な目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して被操作仮想物体と固定仮想物体とが衝突したような“手ごたえ”を提示することができる。
[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、上述した実施形態と同一の部位及び処理については上述した実施形態と同一の符号を付し、主に異なる点について説明する。
本実施形態に係る力覚提示装置は、第1の実施形態と同様に指先の一点で仮想物体を触るときの手応えをオペレータに提示する。但し、ここでは任意の硬さを有する物体を触る場合を例に挙げて説明する。
本実施形態に係る力覚提示装置は、第1の実施形態と同様に構成されている。さらに、力覚提示装置のコンピュータ20は、図3に示す力覚提示ルーチンに従って処理を実行するが、ステップS9の代わりに後述するステップS9’を実行する。以下、ステップS9’について説明する。
図13は、仮想物体の機械的インピーダンスを示す図である。仮想物体は、任意の硬さを有するので、仮想的に、剛性係数Kのバネと粘性係数Cのダンパがそれぞれ並列になるように接続されている。このとき、式(35)が成り立つ。
Figure 2008217260
ここで、
Figure 2008217260
は仮想物体の慣性質量、
Figure 2008217260
は減衰係数、
Figure 2008217260
は剛性係数、
Figure 2008217260
は時刻tにおける指先位置、
Figure 2008217260
は仮想物体の基準位置である。これらを離散時同系で解く。サンプリング時間をdtとすると式(36)、(37)が成り立つ。
Figure 2008217260
よって、式(35)〜(37)より、式(38)となる。
Figure 2008217260
ここで、式(39)が成り立つ。
Figure 2008217260
式(38)、(39)より、時刻tにおける目標位置xは次の式(40)で表される。
Figure 2008217260
なお、Kがゼロ行列の場合、式(40)は式(2)に一致する。そして、第3の実施形態のステップS9’では、コンピュータ20は、式(40)に従って目標位置xを計算する。
以上のように、第3の実施形態に係る力覚提示装置は、指先による操作力が仮想物体の内側に向かって働いている場合、仮想物体内部における操作力だけでなく仮想物体の硬さを考慮した指先目標位置を設定する。そして、上記力覚提示装置は、仮想環境上の指先が最終的な指先目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して仮想物体の表面を撫でているような“手ごたえ”を提示することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。
本発明の第1の実施形態に係る力覚提示装置を示す図である。 力覚提示装置の機能的な構成を示すブロック図である。 第1の実施形態の力覚提示ルーチンを示すフローチャートである。 指先が仮想物体に接触していない状態を示す図である。 指先が仮想物体から離れていく状態を示す図である。 指先で仮想物体をなでる状態を示す図である。 指先に最も近い仮想物体表面上の点である最近点を説明する図である。 (A)は指先目標位置を単純に最近点にした状態を示す図であり、(B)は仮想物体表面上のある一点に指先が拘束され仮想物体表面をなでることができない状態を示す図である。 (A)はオペレータの操作力を考慮した指先目標位置xを示す図であり、(B)はオペレータが仮想物体表面をなでる状態を示す図である。 第2の実施形態に係る力覚提示装置を示す図である。 第2の実施形態の力覚提示ルーチンを示すフローチャートである。 (A)は仮の目標位置姿勢xを示す図であり、(B)は固定仮想物体との干渉を解消できるような被操作仮想物体の位置姿勢として目標位置姿勢xを求めることを示す図である。 仮想物体の機械的インピーダンスを示す図である。
符号の説明
10 力覚提示機構
11 力センサ
12 角度センサ
13 モータドライバ
14 モータ
20 コンピュータ20
30 LCD

Claims (5)

  1. 実空間の操作部に作用する操作力を検出する操作力検出手段と、
    前記操作部の操作位置を検出する位置検出手段と、
    前記位置検出手段により検出された操作位置を仮想空間に変換する位置変換手段と、
    前記操作力検出手段により検出された操作力と、前記位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算する目標位置計算手段と、
    前記目標位置計算手段により計算された第2の目標位置に仮想空間の操作部が移動するように、実空間の操作部の位置を制御する位置制御手段と、
    を備えた力覚提示装置。
  2. 前記目標位置計算手段は、前記操作部の仮想質量がバネとダンパが並列になるようにして接続された運動モデルを用いて前記第1の目標位置を計算する
    請求項1に記載の力覚提示装置。
  3. 前記仮想空間における操作部と仮想物体とを表示する表示手段を更に備えた
    請求項1または2に記載の力覚提示装置。
  4. 実空間の操作部に作用する操作力を検出する操作力検出手段と、
    前記操作部の操作位置を検出する位置検出手段と、
    前記位置検出手段により検出された操作位置を仮想空間の被操作仮想物体の位置に変換する位置変換手段と、
    前記操作力検出手段により検出された操作力と、前記位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算し、前記第1の目標位置を用いて前記被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算する目標位置計算手段と、
    前記目標位置計算手段により計算された第2の目標位置に被操作仮想物体が移動するように、実空間の操作部の位置を制御する位置制御手段と、
    を備えた力覚提示装置。
  5. 前記仮想空間における前記被操作仮想物体と前記仮想物体とを表示する表示手段を更に備えた
    請求項4に記載の力覚提示装置。
JP2007051873A 2007-03-01 2007-03-01 力覚提示装置 Pending JP2008217260A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007051873A JP2008217260A (ja) 2007-03-01 2007-03-01 力覚提示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007051873A JP2008217260A (ja) 2007-03-01 2007-03-01 力覚提示装置

Publications (1)

Publication Number Publication Date
JP2008217260A true JP2008217260A (ja) 2008-09-18

Family

ID=39837251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007051873A Pending JP2008217260A (ja) 2007-03-01 2007-03-01 力覚提示装置

Country Status (1)

Country Link
JP (1) JP2008217260A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022929A (ja) * 2009-07-17 2011-02-03 Nippon Hoso Kyokai <Nhk> 力覚提示装置及び力覚提示プログラム
JP2011238069A (ja) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> 仮想力覚提示装置及び仮想力覚提示プログラム
JP2014044662A (ja) * 2012-08-28 2014-03-13 Nec Casio Mobile Communications Ltd 電子機器、その制御方法及びプログラム
JP2017138651A (ja) * 2016-02-01 2017-08-10 株式会社栗本鐵工所 力覚提示装置
JP2017182495A (ja) * 2016-03-30 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019082854A1 (ja) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022929A (ja) * 2009-07-17 2011-02-03 Nippon Hoso Kyokai <Nhk> 力覚提示装置及び力覚提示プログラム
JP2011238069A (ja) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> 仮想力覚提示装置及び仮想力覚提示プログラム
JP2014044662A (ja) * 2012-08-28 2014-03-13 Nec Casio Mobile Communications Ltd 電子機器、その制御方法及びプログラム
JP2017138651A (ja) * 2016-02-01 2017-08-10 株式会社栗本鐵工所 力覚提示装置
JP2017182495A (ja) * 2016-03-30 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN108604130A (zh) * 2016-03-30 2018-09-28 索尼公司 信息处理设备、信息处理方法和非暂态计算机可读介质
WO2019082854A1 (ja) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
JPWO2019082854A1 (ja) * 2017-10-26 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
US11182957B2 (en) * 2017-10-26 2021-11-23 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program for suppressing movement of an object in virtual space

Similar Documents

Publication Publication Date Title
US8423188B2 (en) Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit
JP6924145B2 (ja) ロボット教示方法及びロボットアーム制御装置
US8918215B2 (en) Telematic interface with control signal scaling based on force sensor feedback
EP3067162B1 (en) Master-slave system
CN114502335A (zh) 用于具有几何约束的非线性机器人系统的轨迹优化的方法和系统
EP2917001B1 (en) Hybrid gesture control haptic system
Guanyang et al. Haptic based teleoperation with master-slave motion mapping and haptic rendering for space exploration
WO2013038544A1 (ja) ロボットシステム及びロボット制御装置
CN103128729A (zh) 机器人装置、控制该机器人装置的方法和计算机程序
CN102470531A (zh) 机器人、机器人的控制装置及控制方法
WO2010136961A1 (en) Control device and method for controlling a robot
JP2008217260A (ja) 力覚提示装置
Liang et al. An augmented discrete-time approach for human-robot collaboration
JP2014018912A (ja) ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム
KR102030141B1 (ko) 로봇의 팔꿈치 제어시스템 및 그 제어방법
TWI651175B (zh) 機械手臂之控制裝置及其教導系統與方法
Park et al. Adaptive impedance control of a haptic interface
KR101227092B1 (ko) 로봇의 동작 제어 시스템 및 동작 제어 방법
JP2008200763A (ja) 作業用マニピュレータの制御装置
Kuan et al. VR-based teleoperation for robot compliance control
Gonzalez et al. Smooth transition-based control of encounter-type haptic devices
Parga et al. Smartphone-based human machine interface with application to remote control of robot arm
Griffin Shared control for dexterous telemanipulation with haptic feedback
JP5569953B2 (ja) 高速高精度な接触作業に適用するロボット制御システム、ロボット制御方法、ロボット制御装置、およびプログラム
JP2017071012A (ja) マスタースレーブ装置