JP2008217260A - 力覚提示装置 - Google Patents
力覚提示装置 Download PDFInfo
- Publication number
- JP2008217260A JP2008217260A JP2007051873A JP2007051873A JP2008217260A JP 2008217260 A JP2008217260 A JP 2008217260A JP 2007051873 A JP2007051873 A JP 2007051873A JP 2007051873 A JP2007051873 A JP 2007051873A JP 2008217260 A JP2008217260 A JP 2008217260A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- force
- target position
- virtual
- fingertip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせる。
【解決手段】コンピュータは、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する(ステップS8)。内側に向かっているときは、コンピュータは、操作力fを考慮した仮の指先位置を示す指先目標位置xdを計算し、この指先目標位置xdに最も近い仮想物体表面上の点(最近点)の位置を指先の目標位置xtとする(ステップS9)。そして、指先の目標位置xtを実現するための力覚提示機構の各関節角度θtを計算し(ステップS10)、計算された各関節角度θtになるように、モータを制御する(ステップS11)。
【選択図】図3
【解決手段】コンピュータは、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する(ステップS8)。内側に向かっているときは、コンピュータは、操作力fを考慮した仮の指先位置を示す指先目標位置xdを計算し、この指先目標位置xdに最も近い仮想物体表面上の点(最近点)の位置を指先の目標位置xtとする(ステップS9)。そして、指先の目標位置xtを実現するための力覚提示機構の各関節角度θtを計算し(ステップS10)、計算された各関節角度θtになるように、モータを制御する(ステップS11)。
【選択図】図3
Description
本発明は、力覚提示装置に関する。
現実世界又は仮想世界の重機やロボット等の機械を制御するとき、その機械で生じる力覚情報を操作者に提示する技術が提案されている(特許文献1を参照。)。
特許文献1の力覚コントローラ装置は、制御対象に対する操作を入力するための可動部を含む操作機構と、該可動部に加えられた操作力を検出する操作力検出手段と、前記可動部の現在位置を検出する現在位置検出手段と、前記制御対象に加わる外力を入力する外力入力手段と、前記可動部を駆動する駆動手段と、前記操作力に応じて前記可動部に対する操作をアシストするとともに、前記外力に応じて該可動部に力覚を提示するように、前記操作力及び前記外力を任意の比率で合成した力に基づいて前記可動部の目標位置を算出し、該目標位置及び前記現在位置に基づいて前記可動部を該目標位置に追従させるように前記駆動手段を制御する力覚制御手段と、を備えている。
これにより、特許文献1の力覚コントローラ装置は、可動部の操作に力を要しないようになっているので、可動部を介して手触り感など微妙な感覚を操作者に効率的に伝達することができる。
特開2006−312207号公報
しかし、特許文献1の技術は、手触り感をオペレータに伝達することができるものの、仮想物体の表面を撫でたり、被操作仮想物体と固定仮想物体との接触感を伝達したりすることができない問題があった。
本発明は、上述した課題を解決するために提案されたものであり、仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせることができる力覚提示装置を提供することを目的とする。
本発明に係る力覚提示装置は、実空間の操作部に作用する操作力を検出する操作力検出手段と、前記操作部の操作位置を検出する位置検出手段と、前記位置検出手段により検出された操作位置を仮想空間に変換する位置変換手段と、前記操作力検出手段により検出された操作力と、前記位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算する目標位置計算手段と、前記目標位置計算手段により計算された第2の目標位置に仮想空間の操作部が移動するように、実空間の操作部の位置を制御する位置制御手段と、を備えている。
本発明は、操作力検出手段により検出された操作力と、位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算することにより、仮想物体の内側に操作力がある場合でも、仮想物体の表面に第2の目標位置を計算する。そして、本発明は、第2の目標位置に仮想空間の操作部が移動するように実空間の操作部の位置を制御することにより、仮想物体の表面を撫でるような手ごたえをオペレータに感じさせることができる。
また、本発明に係る力覚提示装置は、実空間の操作部に作用する操作力を検出する操作力検出手段と、前記操作部の操作位置を検出する位置検出手段と、前記位置検出手段により検出された操作位置を仮想空間の被操作仮想物体の位置に変換する位置変換手段と、 前記操作力検出手段により検出された操作力と、前記位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算し、前記第1の目標位置を用いて前記被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算する目標位置計算手段と、前記目標位置計算手段により計算された第2の目標位置に被操作仮想物体が移動するように、実空間の操作部の位置を制御する位置制御手段と、を備えている。
本発明は、操作力検出手段により検出された操作力と、位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算する。そして、本発明は、第1の目標位置を用いて被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算することにより、被操作仮想物体が仮想物体に接触したときの手ごたえをオペレータに感じさせることができる。
本発明は、仮想物体に接触したときに仮想物体の硬さに応じた手ごたえをオペレータに感じさせることができる。
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る力覚提示装置を示す図である。力覚提示装置は、指先の一点で仮想物体を触るときの手応えをオペレータに提示するものである。なお、第1の実施形態では、硬い物体を触る場合を例に挙げて説明する。
図1は、本発明の第1の実施形態に係る力覚提示装置を示す図である。力覚提示装置は、指先の一点で仮想物体を触るときの手応えをオペレータに提示するものである。なお、第1の実施形態では、硬い物体を触る場合を例に挙げて説明する。
力覚提示装置は、オペレータが仮想物体を触ったときの手応えを与える力覚提示機構10と、仮想物体と手先との接触判定や手先位置の計算等を行うコンピュータ20と、仮想物体と仮想手先を表示するLCD30と、を備えている。なお、力覚提示機構10は、図示しないが、棒状部材で構成された複数のリンクと、各リンクを接続すると共に所望の角度(以下「関節角度」という。) にするための関節部と、を備えている。
図2は、力覚提示装置の機能的な構成を示すブロック図である。力覚提示機構10は、いずれかのリンクのオペレータの力が作用する位置に設けられた力センサ11と、関節角度を検出する角度センサ12と、モータドライバ13と、モータドライバ13の制御に応じて関節角度を設定するモータ14と、を備えている。力センサ11は、オペレータの操作力fとして、3次元空間のx、y、z軸のそれぞれの力の大きさfx、fy、fzを検出する。
なお、関節部の数は特に限定されるものではなく、本実施形態ではn個あるものとする。よって、角度センサ12及びモータ14は、それぞれn個設けられている。また、各関節角度を設定することにより、力センサ11の位置、すなわち手先の3次元空間上の位置が決まる。
図3は、第1の実施形態の力覚提示ルーチンを示すフローチャートである。以上のように構成された力覚提示装置のコンピュータ20は、力覚提示ルーチンに従って処理を実行する。
ステップS1では、コンピュータ20は、力センサ11からの操作力f=[fx、fy、fz]Tと、各関節部に取り付けられた各角度センサ12からの関節角度θ=[θ1,θ2,・・・,θn]Tを入力して、ステップS2に進む。
ステップS2では、コンピュータ20は、各角度センサ12からの関節角度θ=[θ1,θ2,・・・,θn]Tに基づいて、力覚提示機構10の固有の構造から、pr=g(θ)を演算することにより、実環境におけるオペレータの手先pr=[xr,yr,zr]Tを計算して、ステップS3に進む。
ステップS3では、コンピュータ20は、 実環境におけるオペレータの指先位置prを仮想環境におけるオペレータの指先位置pv[xv,yv,zv]Tに変換することにより、指先位置を仮想環境に写像して、ステップS4に進む。なお、この関係はpv=h(pr)という方程式で表される。また、必要に応じて、操作力fの各ベクトル成分も変換される。
ステップS4では、コンピュータ20は、仮想環境における現在の指先位置pvと仮想物体との接触判定を計算して、ステップS5に進む。
ステップS5では、コンピュータ20は、接触判定の計算結果に基づいて、仮想環境における現在の指先位置pvが仮想物体に接触したか否かを判定する。接触していないときはステップS6に進み、接触したときはステップS7に進む。
ステップS6では、図4に示すように、指先が仮想物体に接触していないので、オペレータの指先には“手ごたえ”が発生していない。そこで、コンピュータ20は、オペレータが力覚提示機構10を操作する際の操作力fを利用して、指先が仮想物体と接触していない場合の指先目標位置xtを計算する。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における指先位置をxt−1、時刻t−2における指先位置をxt−2、時刻t−1における操作力をft−1とする。指先目標位置xtは、式(1)で表される。
ここでMは仮想質量であり、力覚提示機構10を動作させる場合には微小な値を用いる。そして、コンピュータ20は、式(1)に従って、指先目標位置xtを計算すると、ステップS10に進む。
ステップS7では、コンピュータ20は、ステップS1で入力された操作力fに基づいて操作力の方向を計算して、ステップS8に進む。
ステップS8では、コンピュータ20は、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する。例えば、コンピュータ20は、仮想環境の指先の操作力のベクトル成分と、仮想物体表面の法線のベクトル成分と、を比較することで、操作力fの方向が仮想物体の外側に向かっているか内側に向かっているかを判定する。そして、操作力fが外側に向かっているときはステップS6に進み、内側に向かっているときはステップS9に進む。
操作力fの方向が仮想物体の外側に向かっている場合は、図5に示すように、これまで接触していた指先が仮想物体から離れていく場合である。このとき、オペレータの指先には“手ごたえ”が発生しない。
一方、操作力の方向が仮想物体の内側に向かっている場合は、図6に示すように、指先で仮想物体をなでる場合である。このとき、オペレータの指先に“手ごたえ”が発生する。
指先が仮想物体と接触している場合、図7に示すように、指先に最も近い仮想物体表面上の点(「最近点」という。)の位置に指先目標位置xtを設定し、指先位置を位置制御すれば、仮想物体に触った“手ごたえ”をオペレータに提示される。
しかし、図8(A)に示すように指先目標位置を単純に最近点にするだけでは、図8(B)に示すように仮想物体表面上のある一点に指先が拘束され、仮想物体表面をなでることができなくなる。そこで、図9(A)に示すように、オペレータの操作力を考慮した指先目標位置xdを設定する。これにより、図9(B)に示すように、オペレータは仮想物体表面をなでることができる。
指先が仮想物体と接触している場合には、以下の方法で指先目標位置xt=[xt,yt,zt]Tを求める。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における指先位置をxt−1、時刻t−2における指先位置をxt−2、時刻t−1における操作力をft−1とする。仮の指先目標位置をxdとすると、xdは式(2)により表される。
ここでMは仮想質量、Cは仮想粘性係数である。
ステップS9では、コンピュータ20は、式(2)に従って仮の指先位置を示す指先目標位置xdを計算し、この指先目標位置xdに最も近い仮想物体表面上の点(最近点)の位置を指先の目標位置xtとして、ステップS10に進む。例えば、指先目標位置xdから、仮想物体表面の法線方向へ移動したときの当該仮想物体表面上の位置を指先の目標位置xtとする。
ステップS10では、コンピュータ20は、指先の目標位置xtを実現するための力覚提示機構10の各関節角度θtを計算して、ステップS11に進む。ここでは、力覚提示機構10に固有の機構から、目標位置xtと関節角度θtの関係を表すθt=k(xt)の式が用いられる。
ステップS11では、コンピュータ20は、ステップS10で計算された各関節角度θtになるように、図2に示すモータドライバ13を介して、モータ14を制御する。このとき、つぎのようなフィートバック制御が行われる。
力覚提示機構10の運動方程式が式(3)で与えられるものとする。
ここで、τは関節トルク、Mは慣性質量、
また、式(3)、(4)より、関節変数に関する線形かつ非干渉な系である次式(6)を得る。
ここで、θtは、指先目標位置xtを実現する目標関節角度であり、力覚提示機構10の逆運動学から求めることができる。誤差e=θt−θとすると、式(8)となる。
適当なKv、Kpを選ぶことにより、関節ごとにPD動作のフィードバックループを設けたことになり、eの各要素は0に収束する。すなわち、力覚提示機構10の関節角度が関節目標角度θtに収束し、指先目標位置xtが実現される。
そして、コンピュータ20は、ステップS11の処理が終了するとステップS1にリターンして、再びステップS1以降の処理を実行する。
以上のように、第1の実施形態に係る力覚提示装置は、指先による操作力が仮想物体の内側に向かって働いている場合、仮想物体内部において操作力を考慮した仮の指先目標位置を設定し、仮の指先目標位置に最も近い仮想物体表面上の点を最終的な指先目標位置に設定する。そして、上記力覚提示装置は、仮想環境上の指先が最終的な指先目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して仮想物体の表面を撫でているような“手ごたえ”を提示することができる。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位及び処理については第1の実施形態と同一の符号を付し、主に異なる点について説明する。
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位及び処理については第1の実施形態と同一の符号を付し、主に異なる点について説明する。
図10は、第2の実施形態に係る力覚提示装置を示す図である。上記力覚提示装置は、力覚提示機構10により操作される被操作仮想物体Aを仮想世界に固定された硬い仮想物体Bに押し当てるときの“手ごたえ”をオペレータに提示するものである。
力覚提示装置は、オペレータが被操作仮想物体を把持したときの手応えを与える力覚提示機構10Aと、被操作仮想物体と固定仮想物体との接触判定や被操作仮想物体の位置の計算等を行うコンピュータ20と、被操作仮想物体と固定仮想物体とを表示するLCD30と、を備えている。
なお、第1の実施形態の力覚提示機構10はオペレータの指先により操作されるのに対して、力覚提示機構10Aはオペレータによりグリップが把持されて操作される点が異なっている。この相違点を除き、力覚提示機構10Aは、力覚提示機構10と同様に、図2に示すように構成されている。
図11は、第2の実施形態の力覚提示ルーチンを示すフローチャートである。以上のように構成された力覚提示装置のコンピュータ20は、力覚提示ルーチンに従って処理を実行する。
ステップS21では、コンピュータ20は、力センサ11からの操作力f=[fx,fy,fz,nx,ny,nz]Tと、各関節部に取り付けられた各角度センサ12からの関節角度θ=[θ1,θ2,・・・,θn]Tを入力して、ステップS22に進む。
ステップS22では、コンピュータ20は、各角度センサ12からの関節角度θ=[θ1,θ2,・・・,θn]Tに基づいて、力覚提示機構10Aのグリップ位置及び姿勢prを計算して、ステップS23に進む。なお、pr=[xr,yr,zr,αr,βr,θr]Tは、力覚提示機構10Aに固有の構造から、pr=g(θ)の方程式により演算される。被操作物体の位置姿勢は、このprに等しいものとする。
ステップS23では、コンピュータ20は、 実環境における被操作物体の位置姿勢prを仮想環境における被操作物体の位置姿勢pv=[xv,yv,zv,αv,βv,θv]Tに変換することにより、被操作物体の位置姿勢を仮想環境に写像して、ステップS24に進む。なお、この関係はpv=h(pr)という方程式で表される。また、必要に応じて、操作力fの各ベクトル成分も変換されてもよい。
ステップS24では、コンピュータ20は、仮想環境における被操作仮想物体と固定仮想物体との接触判定を計算して、ステップS25に進む。
ステップS25では、コンピュータ20は、接触判定の計算結果に基づいて、仮想環境における現在の指先位置pvが仮想物体に接触したか否かを判定する。接触していないときはステップS26に進み、接触したときはステップS27に進む。
ステップS26では、被操作仮想物体が仮想物体に接触していないので、オペレータの指先には“手ごたえ”が発生していない。そこで、コンピュータ20は、オペレータが力覚提示機構10Aを操作する際の操作力fを利用して、被操作仮想物体が固定仮想物体と接触していない場合における被操作仮想物体の目標位置姿勢xtを計算する。
サンプリング時間dtの離数時間系とし、現在の時刻をtとする。時刻t−1における位置姿勢をxt−1、時刻t−2における位置姿勢をxt−2、時刻t−1における操作力をft−1とする。目標位置姿勢xtは、式(9)で表される。
ここでMは仮想質量であり、力覚提示機構10Aを動作させる場合には微小な値を用いる。そして、コンピュータ20は、式(9)に従って、位置姿勢xtを計算すると、ステップS30に進む。
ステップS27では、コンピュータ20は、ステップS21で入力された操作力fに基づいて、 オペレータが被操作仮想物体をどちらの方向へ移動させようとしているのか、すなわち被操作仮想物体の操作方向を計算してステップS28に進む。
ステップS28では、コンピュータ20は、被操作仮想物体の操作方向が固定仮想物体の内側へ向かっているか、外側へ向かっているかを判定する。そして、被操作仮想物体が固定仮想物体の外側へ向かっているときはステップS26に進み、内側へ向かっているときはステップS29に進む。
被操作仮想物体が固定仮想物体の外側へ向かっている場合は、これまで接触していた被操作仮想物体が固定仮想物体から離れていく場合である。このとき、オペレータの指先には“手ごたえ”が発生しない。
一方、被操作仮想物体が固定仮想物体の内側へ向かっている場合は、被操作仮想物体を固定仮想物体に押し付ける場合である。このとき、オペレータの指先に“手ごたえ”が発生する。そこで、 ステップS29では、次の計算が行われる。
ステップS29では、コンピュータ20は、第1の実施形態における指先の一点で物体表面を触る場合と同様にして、目標位置姿勢xtを計算する。但し、第2の実施形態では、被操作仮想物体を取り扱うので被操作仮想物体の形状を考慮した干渉回避計算が必要となる。そこで、以下の方法で目標位置姿勢xtを求めて、ステップS30に進む。
ここで、サンプリング時間dtの離散時間系とし、現在の時刻をtとする。時刻t−1における被操作仮想物体の位置姿勢をxt−1、時刻t−2における位置姿勢をxt−2、時刻t−1における操作力をft−1とする。仮の目標位置姿勢xdを式(10)より求める。
ここでMは仮想質量、Cは仮想粘性係数である。
そして、図12(A)に示すように仮の目標位置姿勢xdを用いて、図12(B)に示すように固定仮想物体Bとの干渉を解消できるような被操作仮想物体Aの位置姿勢として目標位置姿勢xtを求める。
被操作仮想物体Aと固定仮想物体Bがあり、Aの頂点とBの面が干渉状態にあるとする。Aの重心を原点とすると、Aの頂点はrA、Bの面の方程式はn・X=dで表される。ただし、nは面の外向き法線ベクトルを表す。
Aの頂点とBの面が干渉状態にない場合は、n・X>dとなる。
仮想物体Aの移動を、重心の微小並進移動Δrと微小回転移動Δθで表すと、移動後の頂点の位置は式(11)となる。
この移動によって干渉状態を解消するためには、式(12)、(13)を満足する必要がある。
ここで、式(14)を干渉量と定義する。
これにより、式(15)が得られる。以下、式(15)を干渉解消条件式という。
Aに関してn個の干渉があるとする。それに関わる頂点をri(i=1,2,・・・,n)とし、それぞれがAを動かす力fiを発生するとする。ただし、力の方向はuiとする。力の方向は干渉面に垂直なので、ui=niである。
Aの重心にかかる力とモーメントは、式(16)となる。
簡単のため、力が直接移動量に比例すると仮定すると、式(17)の運動方程式が得られる。
Aへのn個の干渉に対して、n個の干渉解消条件式を示す式(18)が得られる。
式(18)の左辺に式(17)を代入すると、式(19)が得られる。
ここで、f=[f1,・・・,fn]T、b=[b1,・・・,bn]Tとおくと、式(20)が得られる。
ただし、次の式(21)〜(23)を満たす。
式(17)は式(20)を用いて、式(24)と書き直すことができる。
干渉の解消がなった時点で力がゼロになる。干渉解消後のi番目の干渉点の状態はベクトル(AF−b)のi番目の値で示されており、これがゼロなら接触、正なら非接触である。そして後者の場合にはfi=0でなければならない。これが、i=1、2、・・・、nのすべての点について成り立つためには、各iについて式(25)が成り立つ必要がある。
多面体Bがn個の干渉を受けたとき、それを仮想物体Aの運動Δr、Δθによって解消するためには、干渉状態によって決まる行列A、ベクトルbを用いて、式(20)、(26)を満足するfを求めればよいことになる。
スラック変数sを用いると式(20)は式(27)と書くことができる。
これを満足する解は新たに変数qを導入した方程式(28)
この解は、式(30)と制御すると、
これは式(28)と次の式(32)の下で、式(31)を最大とする線形計画問題である。
一方、必要とする解は式(26)も満足する必要がある。これは式(27)の表現に直せば、fTs=0すなわち次の式(34)を意味する。
これは、各iについてfiとsiがともに正となることを許さないものである。Simplex法により式(28)〜(32)を解く場合、n個の条件式に対して3n個の変数があるので、すべての基底解は3n個の変数のうち、正値のものはn個、残りの2n個はゼロである。従って、式(34)を満たす解は基底解の中の特殊なものであり、解はこの中で探索される必要がある。
そして、コンピュータ20は、ステップS30、S31については、第1の実施形態のステップS10、S11と同様に処理を行う。
以上のように、第2の実施形態に係る力覚提示装置は、操作力により被操作仮想物体の操作方向を求め、被操作仮想物体が固定仮想物体の内側に向かって働いている場合、固定仮想物体内部において操作力を考慮した仮の目標位置を設定し、被操作仮想物体と固定仮想物体とが干渉しないような点を最終的な目標位置に設定する。そして、上記力覚提示装置は、仮想環境上の被操作仮想物体が最終的な目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して被操作仮想物体と固定仮想物体とが衝突したような“手ごたえ”を提示することができる。
[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、上述した実施形態と同一の部位及び処理については上述した実施形態と同一の符号を付し、主に異なる点について説明する。
つぎに、本発明の第3の実施形態について説明する。なお、上述した実施形態と同一の部位及び処理については上述した実施形態と同一の符号を付し、主に異なる点について説明する。
本実施形態に係る力覚提示装置は、第1の実施形態と同様に指先の一点で仮想物体を触るときの手応えをオペレータに提示する。但し、ここでは任意の硬さを有する物体を触る場合を例に挙げて説明する。
本実施形態に係る力覚提示装置は、第1の実施形態と同様に構成されている。さらに、力覚提示装置のコンピュータ20は、図3に示す力覚提示ルーチンに従って処理を実行するが、ステップS9の代わりに後述するステップS9’を実行する。以下、ステップS9’について説明する。
図13は、仮想物体の機械的インピーダンスを示す図である。仮想物体は、任意の硬さを有するので、仮想的に、剛性係数Kのバネと粘性係数Cのダンパがそれぞれ並列になるように接続されている。このとき、式(35)が成り立つ。
よって、式(35)〜(37)より、式(38)となる。
ここで、式(39)が成り立つ。
式(38)、(39)より、時刻tにおける目標位置xtは次の式(40)で表される。
なお、Kがゼロ行列の場合、式(40)は式(2)に一致する。そして、第3の実施形態のステップS9’では、コンピュータ20は、式(40)に従って目標位置xtを計算する。
以上のように、第3の実施形態に係る力覚提示装置は、指先による操作力が仮想物体の内側に向かって働いている場合、仮想物体内部における操作力だけでなく仮想物体の硬さを考慮した指先目標位置を設定する。そして、上記力覚提示装置は、仮想環境上の指先が最終的な指先目標位置に制御されるように実環境の指先位置を制御することにより、オペレータに対して仮想物体の表面を撫でているような“手ごたえ”を提示することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。
10 力覚提示機構
11 力センサ
12 角度センサ
13 モータドライバ
14 モータ
20 コンピュータ20
30 LCD
11 力センサ
12 角度センサ
13 モータドライバ
14 モータ
20 コンピュータ20
30 LCD
Claims (5)
- 実空間の操作部に作用する操作力を検出する操作力検出手段と、
前記操作部の操作位置を検出する位置検出手段と、
前記位置検出手段により検出された操作位置を仮想空間に変換する位置変換手段と、
前記操作力検出手段により検出された操作力と、前記位置変換手段により仮想空間に変換された操作位置と、に基づいて、仮想空間の操作部の第1の目標位置を計算し、第1の目標位置から最も近い仮想物体表面の位置を第2の目標位置として計算する目標位置計算手段と、
前記目標位置計算手段により計算された第2の目標位置に仮想空間の操作部が移動するように、実空間の操作部の位置を制御する位置制御手段と、
を備えた力覚提示装置。 - 前記目標位置計算手段は、前記操作部の仮想質量がバネとダンパが並列になるようにして接続された運動モデルを用いて前記第1の目標位置を計算する
請求項1に記載の力覚提示装置。 - 前記仮想空間における操作部と仮想物体とを表示する表示手段を更に備えた
請求項1または2に記載の力覚提示装置。 - 実空間の操作部に作用する操作力を検出する操作力検出手段と、
前記操作部の操作位置を検出する位置検出手段と、
前記位置検出手段により検出された操作位置を仮想空間の被操作仮想物体の位置に変換する位置変換手段と、
前記操作力検出手段により検出された操作力と、前記位置変換手段により変換された仮想空間の被操作仮想物体の位置と、に基づいて、仮想空間の被操作仮想物体の第1の目標位置を計算し、前記第1の目標位置を用いて前記被操作仮想物体と仮想物体とが干渉しなくなる位置を第2の目標位置として計算する目標位置計算手段と、
前記目標位置計算手段により計算された第2の目標位置に被操作仮想物体が移動するように、実空間の操作部の位置を制御する位置制御手段と、
を備えた力覚提示装置。 - 前記仮想空間における前記被操作仮想物体と前記仮想物体とを表示する表示手段を更に備えた
請求項4に記載の力覚提示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007051873A JP2008217260A (ja) | 2007-03-01 | 2007-03-01 | 力覚提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007051873A JP2008217260A (ja) | 2007-03-01 | 2007-03-01 | 力覚提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008217260A true JP2008217260A (ja) | 2008-09-18 |
Family
ID=39837251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007051873A Pending JP2008217260A (ja) | 2007-03-01 | 2007-03-01 | 力覚提示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008217260A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022929A (ja) * | 2009-07-17 | 2011-02-03 | Nippon Hoso Kyokai <Nhk> | 力覚提示装置及び力覚提示プログラム |
JP2011238069A (ja) * | 2010-05-11 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | 仮想力覚提示装置及び仮想力覚提示プログラム |
JP2014044662A (ja) * | 2012-08-28 | 2014-03-13 | Nec Casio Mobile Communications Ltd | 電子機器、その制御方法及びプログラム |
JP2017138651A (ja) * | 2016-02-01 | 2017-08-10 | 株式会社栗本鐵工所 | 力覚提示装置 |
JP2017182495A (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2019082854A1 (ja) * | 2017-10-26 | 2019-05-02 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
-
2007
- 2007-03-01 JP JP2007051873A patent/JP2008217260A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022929A (ja) * | 2009-07-17 | 2011-02-03 | Nippon Hoso Kyokai <Nhk> | 力覚提示装置及び力覚提示プログラム |
JP2011238069A (ja) * | 2010-05-11 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | 仮想力覚提示装置及び仮想力覚提示プログラム |
JP2014044662A (ja) * | 2012-08-28 | 2014-03-13 | Nec Casio Mobile Communications Ltd | 電子機器、その制御方法及びプログラム |
JP2017138651A (ja) * | 2016-02-01 | 2017-08-10 | 株式会社栗本鐵工所 | 力覚提示装置 |
JP2017182495A (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN108604130A (zh) * | 2016-03-30 | 2018-09-28 | 索尼公司 | 信息处理设备、信息处理方法和非暂态计算机可读介质 |
WO2019082854A1 (ja) * | 2017-10-26 | 2019-05-02 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
JPWO2019082854A1 (ja) * | 2017-10-26 | 2020-07-30 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
US11182957B2 (en) * | 2017-10-26 | 2021-11-23 | Sony Interactive Entertainment Inc. | Image processing device, image processing method, and program for suppressing movement of an object in virtual space |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8423188B2 (en) | Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit | |
JP6924145B2 (ja) | ロボット教示方法及びロボットアーム制御装置 | |
US8918215B2 (en) | Telematic interface with control signal scaling based on force sensor feedback | |
EP3067162B1 (en) | Master-slave system | |
CN114502335A (zh) | 用于具有几何约束的非线性机器人系统的轨迹优化的方法和系统 | |
EP2917001B1 (en) | Hybrid gesture control haptic system | |
Guanyang et al. | Haptic based teleoperation with master-slave motion mapping and haptic rendering for space exploration | |
WO2013038544A1 (ja) | ロボットシステム及びロボット制御装置 | |
CN103128729A (zh) | 机器人装置、控制该机器人装置的方法和计算机程序 | |
CN102470531A (zh) | 机器人、机器人的控制装置及控制方法 | |
WO2010136961A1 (en) | Control device and method for controlling a robot | |
JP2008217260A (ja) | 力覚提示装置 | |
Liang et al. | An augmented discrete-time approach for human-robot collaboration | |
JP2014018912A (ja) | ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム | |
KR102030141B1 (ko) | 로봇의 팔꿈치 제어시스템 및 그 제어방법 | |
TWI651175B (zh) | 機械手臂之控制裝置及其教導系統與方法 | |
Park et al. | Adaptive impedance control of a haptic interface | |
KR101227092B1 (ko) | 로봇의 동작 제어 시스템 및 동작 제어 방법 | |
JP2008200763A (ja) | 作業用マニピュレータの制御装置 | |
Kuan et al. | VR-based teleoperation for robot compliance control | |
Gonzalez et al. | Smooth transition-based control of encounter-type haptic devices | |
Parga et al. | Smartphone-based human machine interface with application to remote control of robot arm | |
Griffin | Shared control for dexterous telemanipulation with haptic feedback | |
JP5569953B2 (ja) | 高速高精度な接触作業に適用するロボット制御システム、ロボット制御方法、ロボット制御装置、およびプログラム | |
JP2017071012A (ja) | マスタースレーブ装置 |