JP2007026061A - ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム - Google Patents

ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム Download PDF

Info

Publication number
JP2007026061A
JP2007026061A JP2005206985A JP2005206985A JP2007026061A JP 2007026061 A JP2007026061 A JP 2007026061A JP 2005206985 A JP2005206985 A JP 2005206985A JP 2005206985 A JP2005206985 A JP 2005206985A JP 2007026061 A JP2007026061 A JP 2007026061A
Authority
JP
Japan
Prior art keywords
target object
haptic
contact
robot
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005206985A
Other languages
English (en)
Inventor
Hiromi Tanaka
弘美 田中
Nobutaka Shimada
伸敬 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2005206985A priority Critical patent/JP2007026061A/ja
Publication of JP2007026061A publication Critical patent/JP2007026061A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 実世界に充実なインタラクションを可能とするためのより適切な物体モデルを生成する。
【解決手段】 作用物体への作用が可能な対象物体(5)を仮想環境で再現するための物体モデルを、ハプティックビジョンシステムを用いて生成する方法であって、ビジョンロボット(2)によって、対象物体(5)を観測して当該対象物体(5)に関するデータを取得し、ハプティックロボット(3)を対象物体に接触させ、当該対象物体を作用物体に作用させるアクティブタッチステップ、ビジョンロボット(2)及びハプティックロボット(3)によって、アクティブタッチによる対象物体(5)の力学的作用特性に関するデータを取得し、 初期観測及び力学的作用特性観測によって取得されたデータに基づいて、対象物体の物体モデルを生成する。
【選択図】 図6

Description

本発明は、ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステムに関する。
実世界の物体は接触力を加える事で様々な物理的インタラクションを示す。それらの動きは仮想空間内で物体を触れて操り、認識するための重要な手がかりを提供する。最近では、このような触覚の重要性から、ハプティック(触覚)インタフェースを実現する触覚/力フィードバック装置も実用化され、 VR(バーチャルリアリティ)をはじめ、CG(コンピュータグラフィックス)、ロボティクス、心理学の分野においても、視覚とさらに物体の質量、摩擦、粘弾性等の力学的物理特性がもたらす触覚インタフェース実現へ向けて勢力的に研究が進められている。
心理学分野における触覚の研究は手の機能や把持の分析を中心に進められてきた。代表的な研究として、LedermanとKlatzky による物体の顕著な特徴を探るための典型的な手動作パターンEPs(Exploratory Procedures) [非特許文献1] が挙げられる。
図1のEPsが示すように、人間の手の探索機能は、物体の形状、剛さ、柔軟度、重さ、温度等を探索する6種類(図1の上側の6図)の手の動作パターンと、物体の機能や物体を構成するパーツ間の接続構造や力学機構を探索する2種類(図1の最下の2図)の手の動作パターン等により実現されていることが確認されている。
そこで我々は人間の手のEPsによって探索される触覚情報を、ビジョンベース、非接触で自動獲得する「触れて視る」ハプティックビジョン構想[非特許文献2] を提案し、さらに物体形状・体積[非特許文献3]、質量[非特許文献4]、拘束関係[非特許文献5]、粘弾性[非特許文献6] 等の物体の力学的物理特性の自動獲得法を提案した。
最近の物体特性のスキャニング技術の発展[非特許文献7] が、高級で精巧なロボットシステム上で人間の操作を必要とする一方で、我々の提案するハプティックビジョンは実世界の物体の幾何学的、物理的特性の両方を抽出、解析する事によるハプティック探索を自動的に行う事ができる。
Lederman, S.J., and Klatzky, R.L.、"Hand movements: A window into haptic object recognition、Congnitive Psychology, vol.19, pp.342368, 1987. H.T. Tanaka, K. Kushihama、Haptic Vision.、 Proc. IEEE16th Int. Conf. on Pattern Recognition, Vol.2, Session1.7 Robotics, Vol.II, pp.852855, Aug. 2002. K. Nishimura,H.T. Tanaka、" Active Shape Inferring Based on the Symmetry in Stable Poses. IEEE Proc. 13th ICPR, pp.136140, 1996. S. Tanaka, T. Tanigawa, Y. Abe and H.T. Tanaka、Active Mass Estimation with Haptic Vision. Proc. the 17th ICPR2004, Vol.3, pp.256261, 2004. H.T. Tanaka and K. Yamasaki、" Extracting Relational Constraints among Objects with Haptic Vision for Haptic-Interfaced Object Manipulation. Proc. the 12th ICAT2002,2002. Naoki Ueda, Shi-iti Hirai, Hiromi T. Tanaka: Extracting Rheological Properties of Deformable Objects with Haptic Vision, Proc. IEEE Int. Conf. on Robotics and Automation(ICRA2004), 2004. D.K. Pai, K. van den Doel, D.L. James, J. Lang, J. E. Lloyd,J.L. Richmond and S.H. Yau:Scanning Physical Interaction behavior of 3D objects. in Computer Graphics(ACMSIGGRAH 2001 conference Proceedings) (2001).
従来のハプティックビジョンの研究は、対象となる物体に「触れて視る」ことだけに主眼が置かれていた。すなわち、従来のハプティックビジョンは、接触の「主体」となるロボットと、接触の対象となる「物体」との間の「主体−物体」インタラクションの観測に基づくモデル化を行うものであった。
しかし、コンピュータによる仮想環境において、実世界に忠実なインタラクションを可能にする3次元モデル(3次元インタラクティブモデル)としては、従来のモデルは十分ではない。
つまり、モデル化の対象となる物体が、ハサミのような道具である場合、道具としての力学的作用特性(例えば「切る」)をコンピュータが認識してモデル化するためには、道具としての「物体」や道具に作用する「主体」だけでなく、道具の「作用対象」を考慮することが重要であり、「主体―物体―作用対象」間の相互のインタラクションを観測しモデル化することが重要となる。
例えば、モデル化の対象がハサミである場合、物体「ハサミ」と、それを操作する主体「人(の手)」との間のインタラクションの観測だけでなく、物体「ハサミ」と主体「人(の手)」と作用対象「紙」との間のインタラクションの観測を行って、物体「ハサミ」の「切る」といった動的機能(力学的作用特性)を認識する必要がある。
そこで、本発明は、従来の「触れて視る」ハプティックビジョンを、モデル化の対象となる物体を作用対象に「触れさせて視る」ことへ拡張して、仮想環境において、実世界に充実なインタラクションを可能とするためのより適切な物体モデルを生成する方法及びハプティックビジョンシステムを提供する。
物体モデル生成方法に係る本発明は、作用物体への作用が可能な対象物体をコンピュータによる仮想環境で再現するための物体モデルを、ビジョンロボット及びハプティックロボットを有するハプティックビジョンシステムを用いて生成する方法であって、前記ビジョンロボットによって、対象物体を観測して当該対象物体に関するデータを取得する初期観測ステップ、初期観測ステップで取得された対象物体に関するデータに基づき、ハプティックロボットを対象物体に接触させ、当該対象物体を作用物体に作用させるアクティブタッチステップ、前記ビジョンロボット及びハプティックロボットによって、前記アクティブタッチによる対象物体の力学的作用特性に関するデータを取得する力学的作用特性観測ステップ、初期観測ステップ及び力学的作用特性観測ステップによって取得されたデータに基づいて、対象物体の物体モデルを生成するモデリングステップ、を含むものである。
本発明によれば、対象物体を作用物体に作用させるアクティブタッチを行い、これを観測することによって、単に対象物体を観測するだけでは得られなかった対象物体の力学的作用特性を得ることができる。
前記初期観測ステップは、対象物体が安定して使用される姿勢である機能的姿勢における対象物体のデータを取得するステップを含むのが好ましく、これにより適切に対象物体の機能を推定することができる。
前記アクティブタッチステップでは、対象物体が作用物体に作用する状態でハプティックロボットを対象物体に接触させる第1接触と、対象物体が作用する作用物体がない状態でハプティックロボットを対象物体に接触させる第2接触とが行われるのが好ましい。
作用物体がある場合とない場合の接触を行うことで、対象物体の力学的作用特性を推定し易くなる。
具体的には、前記力学的作用特性観測ステップでは、前記第1接触と前記第2接触とにおける接触の差異を抽出することによって対象物体の力学的作用特性に関するデータを取得することが可能となる。
また、ハプティックビジョンシステムに係る本発明は、作用物体への作用が可能な対象物体をコンピュータによる仮想環境で再現するための物体モデルを生成するためのハプティックビジョンシステムであって、対象物体を観測するためのビジョンロボットと、対象物体に接触するためのハプティックロボットと、前記ビジョンロボットによる対象物体の観測に基づいて、当該対象物体に関するデータを取得する初期観測手段と、初期観測手段で取得された対象物体に関するデータに基づき、ハプティックロボットを対象物体に接触させ、当該対象物体を作用物体に作用させるアクティブタッチ手段と、前記ビジョンロボット及びハプティックロボットによって、前記アクティブタッチによる対象物体の力学的作用特性に関するデータを取得する力学的作用特性観測手段と、初期観測ステップ及び力学的作用特性観測ステップによって取得されたデータに基づいて、対象物体の物体モデルを生成するモデリング手段と、を備えている。
前記初期観測手段は、対象物体が安定して使用される姿勢である機能的姿勢における対象物体のデータを取得可能であるのが好ましい。
また、前記アクティブタッチ手段は、対象物体が作用物体に作用する状態でハプティックロボットを対象物体に接触させる第1接触と、対象物体が作用する作用物体がない状態でハプティックロボットを対象物体に接触させる第2接触とを行うのが好ましく、さらには、前記力学的作用特性観測手段は、前記第1接触と前記第2接触とにおける接触の差異を抽出することによって対象物体の力学的作用特性に関するデータを取得可能であるのが好ましい。
本発明によれば、対象物体の力学的作用特性が得られるため、仮想環境において、実世界に充実なインタラクションを可能とするためのより適切な物体モデルを生成することができる。
[1.はじめに]
ここでは、図1の最下の2つの図に示すFunction TestとPart Motion Testにより探索される触覚情報、つまり、機能を持つ物体の力学構造を探索、発見し、仮想空間において実世界に忠実なインタラクションを可能にする3次元物体モデルを自動的に構築することを目的としている。本実施形態において、対象となる物体としては、物体(道具)の最も一般的な機能であるテコを有する関節物体を選択し、その3次元物体モデルとして必要な情報を図2のように定義する。
図2のモデルは、大きく分けて、shape(物体の3次元形状)、Functional Pose(機能的姿勢)、Force(力学作用特性)、Lever(テコ構造)、Spring(物体のばね特性)のデータ項目を有しており、それぞれいくつかのパラメータを有しており、これらのパラメータによって物体5のモデルが記述される。
つまり、Shapeは、Os:物体5の3次元サーフェス形状、Ov:物体5の3次元ボリュームデータ、Og:物体5の重心座標、のパラメータを有している。
Functional Poseは、Osp:物体5の3次元形状の対称面、Ocross:物体の対称面における断面輪郭形状、Oaxis:物体の断面輪郭形状の対称軸、のパラメータを有している。
Forceは、Fcp:力点(ロボットが物体に接触した接触点)、Fcf:ロボットによる物体への接触力の変化(作用物体無し)、Fcf’:ロボットによる物体への接触力の変化(作用物体有り)、Fy:作用物体が破壊された降伏点でのロボットハンドの作用力、のパラメータを有している。
Leverは、Lp:テコパターン(図4の(a)から(e))、Lθmax:テコの初期状態から回転限界状態までの回転限界角度、Ld:テコの回転方向、Lf:テコの支点、Lcp:外力が作用されるであろう物体の接触面、Lbp:物体を(把持するために)支える平面であろう基底面、Lis:作用対象がおかれるべき空間である作用空間、Lip:物体5と作用対象の接触点である作用点、Lm:テコの倍率、Lia:物体5と作用対象の接触面積である作用面積、のパラメータを有している。
Springは、Sk:(関節)物体の反力、Sif:(関節)物体の反力の初期値、のパラメータを有している。
我々の目標は人間の手が有する機能や動きをビジョンベースで解析する事であり、この解析自体は仮想空間で行うという方法をとる。これは、実世界でCyber GloveやCyber Graspといったデバイスを使用して仮想空間で仮想の手を操り、実世界に忠実な仮想の物体(道具)を扱う事で、その物体(道具)の持っている機能を探索するというアプローチである。
この探索を仮想空間で行う意図としては、仮想空間でならば、物体(道具)が作用対象に何らかの作用を与えた時、作用対象の変化の観測が容易である事と、被験者が男性や女性、子供から老人というような設定、対象となる物体(道具)も様々なものを扱う事のできる任意の機能テストが可能であるからである。関節物体の機能は、物体に接触力を加えた時の物体の動きやパーツの動作といった動的な作用として記述され、物体の動的な特性を観察し、解析する事で推論、認識されるべきである。しかも、図3 に示すように道具のような物体の機能は3つのコンポーネント(acting agent、actor、actee)の間のインタラクションによって作動される事を知る事が重要である。多くの場合、人間の手や体がacting agent(アクティングエージェント) の役目を果たす。Actor(アクター) はacting agentによって使われる道具のような物体である。Actee(アクティー) はactorによって影響を受ける作用対象である。
この3つのコンポーネントは、ある物体が道具として機能する時、相互に作用し合う。actorが異なるacteeに対して異なる接触力を加え、異なる姿勢で使われた時に異なる機能が働く。それ故に、物体の機能を認識するためには、インタラクションの解析とモデリングが必要である。
ここでは、ハプティックビジョンに基づき、(1)物体への主体であるロボットによる「接触」は既知であると仮定し、主体―物体インタラクションの観測から、テコを持つ関節物体の幾何および力学構造、機能的姿勢を抽出する方法と、さらに(2)作用対象の物理特性が既知であると仮定し、主体―物体―作用対象インタラクションの観測から、テコを持つ関節物体の力学的作用特性を抽出する方法、を行う。
そして、抽出された情報に基づいて、仮想環境において実世界に忠実なインタラクションを可能にする3次元インタラクティブモデルを自動構築する。
具体的には、まず関節物体の3次元形状と姿勢を抽出するために、アクティブビジョンを用いて観察する。
次に、接触点を推定し、関節物体のテコを最も効率良く安定に回転運動させるためにロボットハンドによるアクティブタッチを行う。次に、物体の動きや接触力の変化、物体(actor)と作用対象(actee)間で起こる接触、つまり、インタラクションの物理現象をCCDカメラ、レンジファインダ、力フィードバックセンサを使用して観測する事によって、物体の3次元力学構造と動的な機能を推定し、モデルとして記述する。対象の関節物体の力学構造や力学的物理特性が定量的にモデル化されれば、仮想空間において、様々な力学的物理特性(形状、サイズ、剛性、表面の滑らかさ)を備えた任意の作用対象に対して、任意の接触力を加えることにより、実世界に忠実な機能テストシミュレーション実験が可能となる。
[2.要素機能としてのテコ]
一般に人工物の3次元形状は何らかの機能を発揮するために設計されており、物体形状から機能を推定し、カテゴリーに分類できるといえる。物体の多くの動的な力学的機能は、かけられた力(作動力)を用途に応じた、i)適切な大きさに変える動的要素:斜面、テコ、輪軸等と、ii)適切な別の形の動きに変換する要素:カム、クランク等、iii)適切な場所に伝達する要素:歯車、ベルト等、の組み合わせとして実現されている。
テコは物体の動的な機能を生成するための最も基本的な要素であり、物体の動的な機能に関するほとんどの研究は物体がテコの機能を持っていると考えられている。また、フランスの社会思想家P.J.Proudhonは、『人間が仕事をするために使う最も基本的な、最も一般的な道具、つまりそれらの道具の帰するところはテコである』と述べている。それ故に、我々は”Pinch(掴む)”、”cut(切断)”、”crash(破壊)”といった動的な機能を持つ関節物体は、要素機能としてのテコを持っていると仮定し、対象物体として選択した。
図4が示すように、一般にテコは、剛体上にある支点、力点、作用点のいずれかが中央にくるかによって、Type1 からType3のいずれかに分類される。力点に加わる力をFp、 作用点に生成される力をFa、力点・支点間の距離をDp、作用点・支点間の距離をDaと仮定する。図4(a)〜(c) は、支点が力点と作用点の間に存在するType1 のテコを示しており、このType1は更に3つのタイプに分類される事ができる。(a)は力を増幅し、距離を減衰するテコ(Fp<Fa、Dp>Da)、(b) は力を減衰し、距離を増幅するテコ(Fp>Fa、Dp<Da))、そして(c)は力と距離のバランスを保持するテコ(Fp=Fa、Dp=Da))である。図4(d) の示すType2のテコは、作用点が力点と支点の間に存在しており、力を増幅し、距離を減衰する。図4(e) の示すType3のテコは力点が作用点と支点の間に存在しており、力を減衰し、距離を増幅する。
[3.関節物体の機能的姿勢]
[3.1 安定姿勢]
ここでは、室内に存在する人工物体を対象とし、以下(1)〜(5)を仮定する。
(1)対象物体は均質で穴がない。
(2)対象物体は安定な姿勢で水平面に置かれる。
(3)対象物体は少なくとも1つの対称面を持つ。
(4)対象物体は少なくとも1つ以上の関節を持つ。
(5)対象物体は少なくとも1つ以上のテコにより生成される動的な機能を有する。
上記の仮定から、図5(a)が示すように、対称面が水平面に対して垂直であれば、その物体は安定な姿勢であるといえる。
何故ならば、1)物体の重心(COG)が対称面Osp内にあり、2)図5(b)が示すように、重力gは水平面に対して垂直にかかるからである。
[3.2 接触に対する安定姿勢]
一般的に、人工物体は道具としての機能を持つ。もし物体がその機能を果たすために接触力を必要とするならば、物体の形状は接触力に対して安定な姿勢を持つように設計されなければならない。物体を安定な姿勢に保つための最も簡単な方法は、接触力の作用による変形途中及び変形後の3次元形状が、(接触力を含む)対称面を持つ事である。
物体が接触力によって機能するための条件を以下に示す。
(1)物体は、対称面Ospが垂直になるような手や机によって作られる面(支持面)に置かれるべきである。
(2)接触力の方向は支持面に対して垂直であるべきである。
(3)接触点(力点)は対称面の断面輪郭形状Ocross上になければならない。
[3.3 機能的運動]
関節物体の典型的な運動は、接触力によって生成される、関節を支点とする回転運動である。テコの回転運動は、1) 回転の中心が断面輪郭形状Ocross 上の関節(支点)Lfと一致し、2)Lfを通る回転軸は対称面Ospに対して垂直で支持面に対して平行であり、3)テコの回転運動は対称面Osp上で観察される。更に、接触力が重力と同じ方向に加えられれば、テコの回転を最も効果的に作用させる事ができる。
[3.4 機能的姿勢]
関節物体の安定姿勢としての機能的姿勢は、1)対称面Ospは支持面に対して垂直であり、2)物体の対称面Ospに垂直な表面上の平面である基底面Lbpは、支持面に対して平行に接触して置かれているとする。
以上の対称面Ospと断面輪郭形状Ocrossの分析により、物体が水平面に置かれている姿勢とその物体が人間の手によって把持され使用される時の機能的姿勢が異なる物体、例えば、ハサミやペンチといったハンドツールのような関節物体の機能的姿勢を推定する事ができる。
[4.道具としての関節物体の力学的作用]
一般に、関節物体と作用対象のインタラクション、つまり、接触の様相、を観測から記述することはかなり複雑な問題である。作用対象の応力は、体の形状、特に関節物体と作用対象双方の姿勢や接触面の形状に影響され、また接触時に双方が運動、変形することによって動的に接触の様相が変化する場合もある。これらを画像や力センサによって詳細に観察することは難しい。
しかし、応力と変形に関する物理特性が既知の作用対象に対して実際に関節物体を作用させれば、変形や破壊がおこった作用対象を観察することで、その接触の様相をモデリングできる。
例えば、塑性変形がおこれば作用対象の降伏応力以上の応力が、破壊がおこれば破壊応力がかかったことが推定される。そこで、接触力の大きさを力センサで測定し、テコの増幅率から作用対象にかかった力の大きさを求め、これを降伏/破壊応力で割った値(接触面積)を用いて接触の様相を表すモデルパラメータとする。この値は関節物体と作用対象が実際に接触する面積ではなく、接触の様相をマクロに記述する、面積の次元をもった数値であり、これによって別の作用対象に対する関節物体の力学的作用特性を見積もることが可能となる。
[5.実施形態 関節物体の力学構造モデリング]
以下、本発明の実施の形態として関節物体の力学構造モデリングを説明する。
図6は、実施形態に係るハプティックビジョンシステム1を示している。ここで、ハプティックビジョンは、アクティブビジョンによる3次元形状と姿勢の解析に基づいて物体の最も効果的で安定な動作をさせるための接触を制御するアクティブタッチと、アクティブビジョンを融合させたものである。
物体の力学的物理特性は、接触力との反応から観測されるため、我々はこの動的なシーンをパイロット事象と呼ぶ。物体の力学的物理特性は既知外力に対しての物体の動作を観測した距離画像やカラー画像解析や、接触力の変化を観測した力フィードバックデータの解析によって推定される。
図6のハプティックビジョンシステム1は、アクティブビジョンを実現するビジョンロボット2と、アクティブタッチを実現するハプティックロボット3とを備えている。
ビジョンロボット2は、モデリングの対象となる物体(関節物体)5を観測して視覚情報を獲得するためのものであり、多関節ロボットマニュピュレータ2aの先端に、レンジファインダ2bとCCDカメラ2cを取り付けて構成されている。ビジョンロボット2によって、対象となる物体5の多視点画像データを取得し、物体5の3次元形状やテクスチャのデータを得ることができる。
ハプティックロボット3は、対象となる物体5に接触するためのものであり、多関節ロボットマニュピュレータ3aの先端に、力フィードバックセンサ(接触力検出部;ロードセル)3bが設けられて構成されている。ハプティックロボット3によって、対象となる物体5に対し、任意の位置に、任意の力で接触することができる。
すなち、ハプティックロボット3(アクティブタッチシステムともいう)は、接触力を力覚センサ3bを用いて、物体5に接触し、物体5に外力を作用する過程における応力変化の観測から触覚的情報を獲得することができる。
また、ハプティックビジョンシステム1は、対象物体5が置かれるターンテーブル6を備えており、ターンテーブル6の回転によりロボット2,3の限られた稼動範囲を補い、アクティブビジョンを実現している。
前述のロボットマニュピュレータ2a,3a、レンジファインダ2b、CCDカメラ2c、力フィードバックセンサ3a、ターンテーブル6は、それぞれ、制御装置ないしは処理装置としてのパーソナルコンピュータPC1,PC2に接続されている。ロボットマニュプレータ2a,2b及びターンテーブル6は、パーソナルコンピュータPC1によって動作制御され、レンジファインダ2b,CCDカメラ2c、力フィードバックセンサ3aからの入力は、パーソナルコンピュータPC1,PC2に与えられて処理される。
なお、パーソナルコンピュータPC1,PC2が行う処理は、パーソナルコンピュータPC1,PC2の記憶手段に記憶されたコンピュータプログラムが実行されることによって行われる。
ハプティックビジョンシステム1は、上記の構成により、2台のロボット2,3を相互に制御して、対象物体5の視覚情報および触覚情報を自動獲得する。
本実施形態におけるモデリングの処理の流れの概要は、図7に示すとおりである。まず、初期観測ステップ(ステップS1)が行われる。初期観測ステップでは、ビジョンロボット2のアクティブビジョンによって静止状態の物体5の多視点距離画像データを獲得する。次に、ボリューム表現を生成するために、得られた距離画像を3次元ボクセル空間に投影させる。
アクティブタッチのための物体5への接触点と接触力を推定するために、パーソナルコンピュータPC1,PC2により、物体5の形状、安定姿勢、機能的姿勢を解析する。力点、支点、作用点の位置関係から物体5のテコパターンの優先リストを作る。
続いて、アクティブタッチステップ(ステップS2)が行われる。ここでは、推定された力点に推定された接触力を加えるために、ハプティックロボット3によるアクティブタッチ(接触)を実行する。
さらに、対象物体の力学的作用特性を含む対象物体の情報を抽出する処理(力学的作用特性観察ステップ(ステップS3)が行われる。ここでは、CCDカメラ2c、レンジファインダ2b、力フィードバックセンサ3bを用いたアクティブビジョンとアクティブタッチを使って、関節物体5のテコの回転動作を観測する事によって関節物体5の3次元構造と力学的作用特性情報を抽出する。
最後に、抽出された情報に基づいて、図2 に示すインタラクティブモデルを自動生成する(モデリングステップ;ステップS4)。
[ステップS1 初期観測:アクティブビジョンによる物体の観測]
図8に示すように”shape from function”アプローチ[非特許文献3] に基づいて、制御装置としてのパーソナルコンピュータPC1,PC2は、ビジョンロボット2に搭載されたレンジファインダ2bを制御して、対象物体5の多視点距離画像を能動的に獲得し、物体5の3次元形状、サーフェステクスチャや姿勢を演算により求める。
物体観測の、パーソナルコンピュータPC1,PC2による、具体的な処理・制御手順は、次のとおりである。
( ステップS1−1 ) 重力に対する安定度を評価するため、ビジョンロボット2によって真上から静止した物体5を観察し、真上から撮影した距離画像(TOP距離画像)データを獲得する。
( ステップS1−2 ) TOP距離画像データの最大輝度値から物体の高さを算出する。
( ステップS1−3 ) 物体の高さが、人間が物体(道具)を把持して使用する最小の長さ(40mm)よりも長い場合、TOP距離画像の対称軸l抽出し、重力方向gを用いて対称面Ospの推定処理を行う。
( ステップS1−4 ) 対称面Ospに基づき物体の3次元形状Ovを推定するための画像を獲得する前後左右の直交4視点を推定し、ビジョンロボット2によって、それぞれの視点からの距離画像(FRONT距離画像、BACK距離画像、SIDE距離画像)データを獲得する。
( ステップS1−5) 合計5視点から得られた距離画像データを3次元ボクセル空間に投影し、3次元形状Ovを示すデータを生成し、物体の重心Ogを求める(図5参照)。3次元サーフェスモデルOsのデータを3次元形状Ovのデータから復元する処理を行う(以上S1―1〜S1−5が、3次元形状復元処理)。
( ステップS1−6 ) 対称面Ospと3次元形状Ovから断面輪郭形状Ocrossを抽出し、断面輪郭形状Ocrossの対称軸(物体の慣性主軸)Oaxisを抽出する処理を行う(図9参照)。
( ステップS1−7 ) 対称面Osp上における断面輪郭形状Ocrossの芯線を抽出し、その分岐点を支点Lfの候補点とする処理を行う。
( ステップS1−8 ) 支点Lfの候補点がなく、ステップS1−2で算出した物体の高さが40mmよりも低い場合、物体の現在置かれた姿勢が機能的姿勢でないと分かるため、ステップS1−4で得たSIDE距離画像の対称軸lを抽出し、対称面Ospを再生成し、ステップS1−6の処理へ戻る。もしSIDE距離画像でも支点Lfの候補点がない場合は、その物体が機能を持っていないと判断し、処理を終了する。
( ステップS1−9 ) 断面輪郭形状Ocrossより接触力を加えうる面、つまり接触面Lcpを推定し、接触面Lcpの法線ベクトルの逆ベクトルをテコの回転方向Ldとして推定する処理を行う(以上S1−6〜S1−9が、機能的姿勢推定処理)。
( ステップS1−10) 接触面Lcpより最も遠い面を基底面Lbpとする。
( ステップS1−11) 接触面Lcp上にある力点Fcpを推定する処理を行う。力点Fcpにかけられる接触力Fcfは、接触面Lcpに対し垂直なテコの回転方向Ldの方向にかけられることとなる(以上、S1−10及びS1−11が接触点・接触力の推定処理)。
( ステップS1−12) 物体5が作用する作用物体が位置する作用空間Lisを、3次元形状Ovと断面輪郭形状Ocrossを元にして抽出する処理を行う。
(ステップS1−13) 作用空間Lisが複数存在する場合、作用点Lipも複数存在する可能性があるが、その場合は力点Fcpから最も遠い作用空間Lisに作用点Lipがあるとみなして、作用点Lipの候補を決定する(以上、S1−12及びS1−13が作用空間推定処理)。
以上のステップ1の処理により、対象物体5の、図2のモデルにおけるshape(3次元形状)、Functional Pose(機能的姿勢)に関するデータが得られる。これらのデータは、後述のようにステップS4におけるモデリング処理において、モデルを構成するデータの一部として用いられる。
[ステップS2 アクティブタッチによる回転運動の生起]
我々は関節物体の力学構造を明示する典型的動作は、関節を中心とするテコの回転運動であると考える。したがって、パイロット事象として以下のステップを通して、アクティブタッチにより物体5に接触し、回転運動を生起させる。
具体的に、ステップS1での処理結果に基づき、パーソナルコンピュータPC1,PC2がビジョンロボット2及びハプティックロボット3を制御する手順は次の通りである。
(ステップS2−1 ) ハプティックロボット3による物体5への「押し」操作により物体5への接触を行う。具体的には、パーソナルコンピュータPC1が、演算により推定した接触力Fcfによって、ハプティックロボット3がステップS1−11で推定された力点Fcpを押し、 接触面Lcpにテコの回転方向Ldの方向に前記接触力Fcfを加えることで接触が行われる。これにより、支点Lfの候補が回転の中心になるように、テコは、テコの回転方向Ldの方向に回転する。この接触は、後述のように作用対象が有る(第1接触)場合と、無い場合(第2接触)の2回行われる。
(ステップS2−2) ロボットが安定に回転を観測できるように、ビジョンロボット2のカメラ2cの視点が対称面Ospに対して垂直な位置にセットされるよう制御する。
[ステップS3 アクティブビジョンによるテコの回転の観測]
ステップS3では、ステップS2のアクティブタッチによって生起された物体5のテコの回転運動を観測し、物体5の力学的作用特性に関するデータ及びその他のデータを取得する。具体的に、パーソナルコンピュータPC1,PC2がビジョンロボット2及びハプティックロボット3を制御する手順は次の通りである。
[1回目のアクティブタッチの観測:作用対象無し(第2接触)]
1回目のアクティブタッチでは、物体5に作用対象が存在しない状態で行われる第2接触が実行される。
(ステップS3−1) アクティブタッチによりハプティックロボット3が物体5に接触している間、物体5のテコの回転運動及び力点Fcpの動作を、CCDカメラ2c、力フィードバックセンサ3bを用いて観測する。
(ステップS3−2)ステップS3−1での観測データに基づき、物体5のテコの回転が停止した時の角度(限界角度)Lθmaxを推定する処理を行う。
(ステップS3−3) 力点Fcpの描く円弧状の軌跡と円を最小二乗法でフィッティングする処理を行う。その円の中心を支点Lfとして決定する処理を行う。
(ステップS3−4) 支点Lf 、力点Fcp、作用点Lipの相対位置関係から、物体5が図4のテコパターンのうちいずれのテコパターンLpを持つかを推定する処理を行うとともに、そのテコの倍率Lmを推定する処理を行う。
(ステップS3−5) ハプティックロボット3に搭載された力フィードバックセンサ3bの出力に基づき、接触力Fcfの変化を計測する。その際、力フィードバックセンサ3bの出力に基づいて、テコのバネ係数Skとテコの初期応力Sifを推定する処理も行う。
(ステップS3−6) 作用空間Lisのサイズに応じた作用対象を選択する。作用対象の候補は、形状・硬さ(降伏応力等)などの力学的物理特性を作用対象データとして具備した作用対象データベースに基づいて選択される。
[2回目のアクティブタッチの観測:作用対象有り(第1接触)]
2回目のアクティブタッチでは、物体5に作用対象がある状態で行われる第1接触が実行される。
(ステップS3−7) ハプティックロボット3によって、物体5への2回目のアクティブタッチを行い、力フィードバックセンサ3bの出力に基づいて、作用対象がある時の接触力Fcf’の変化を計測する。
(ステップS3−8) 作用対象がない時の接触力Fcfと作用対象がある時のFcf ’の差異から、実際に関節物体5が作用対象に加えた力(Real Contact Force)が算出される。そして、当該力の最大値は、作用対象を破壊しうる降伏点Fy として推定される。
(ステップS3−9) 降伏点Fy、接触力FcfとFcf ’、テコの倍率Lmから物体5と作用対象との間の作用面積Liaを算出する。
作用面積Liaを物体5のモデルが有することで、仮想空間内で、異なる力学的物理特性を持つ任意の作用対象に対して作用する応力を演算することが可能であり、仮想空間内で物体5の機能テストを行うことが可能となる。
[ステップS4 力学構造モデルの生成]
以上の処理により抽出された関節物体5の力学構造、幾何学的及び力学的物理特性に基づき、処理装置としてのパーソナルコンピュータPC1,PC2は、図2に示す力学構造モデルを生成する。具体的な処理手順は、下記のとおりである。
(ステップS4−1) ステップS1で得られた物体の3次元ボリュームデータ(3次元形状)Ov、3次元サーフェス形状データOs、物体の重心Ogを、図2のモデルのshapeの各パラメータのデータとする。
(ステップS4−2) ステップS1で得られた、基底面Lbpが支持面と平行になり、対称面Ospが支持面と垂直になるような機能的姿勢における、物体5の対称面Osp、物体の断面輪郭形状Ocross、対称軸Oaxisを、図2のモデルのFunctional Poseの各パラメータのデータとする。
(ステップS4−3) ステップS3におけるアクティブタッチによる物体5と作用対象とのインタラクションの観測から獲得された、作用対象なしの接触力Fcfの変化データ、作用対象ありの接触力Fcf’の変化、降伏点Fy、テコ、バネ係数、応力の情報を、図2のモデルのForce、Lever、Springの各パラメータのデータとする。
[実施例]
前述のビジョンロボット2とハプティックロボット3からなるハプティックビジョンシステム1を使用して、関節物体5の力学構造モデリングを実行した。
ビジョンロボット2は三菱電機製のロボットRV−E4Nであり、Cubix社製レンジファインダと東芝製CCDカメラIK−C40を搭載している。ハプティックロボット3は三菱電機製のロボットRV−E2であり、力フィードバックセンサ3bとしてA&D 製ロードセルユニットLC−4102を搭載している。このロードセルユニット3bは、時間が100ms刻み、力の大きさが0.2g刻みで反力データを計測できる。これら2台のロボットは、DELL製PCによってRS−232Cを通して制御されている。ビジョンロボット2を動かしてレンジファインダ2bで物体を撮影する事でアクティブに距離画像を取得し、物体形状を復元する。
図10は関節物体5としてペンチの機能的姿勢の抽出を行った実験結果を示している。図10(a) と図10(c) はTOP距離画像とSIDE距離画像から観察された対称軸を示している。図10(b)と図10(d) はそれぞれ図10(a) と図10(c) の対称軸を基に生成される対称面Ospから抽出された断面輪郭形状Ocrossを示している。
図10(b)に示す断面輪郭形状Ocrossの解析が終わり、支点Lf候補が見つからず、TOP距離画像で測定した物体の高さが40mmよりも低かった場合、真上から観測された対称面Ospはその道具の機能を効率良く使うためには適切でない事が分かる。
それ故に、ペンチが人間の手に把持されて使われている時、基底面Lbpが支持面(この場合は、親指を除く4本の指が作る平面(バーチャルフィンガーと呼ばれる))に平行で対称面Ospが支持面に対して垂直である、機能的姿勢となっていると推定する(図10(e))。
次に、穴あけパンチ、ペンチを対象とした実験結果を示す。まず、図11、図17 に示す断面輪郭形状Ocrossの解析によって、接触面Lcp、基底面Lbp、接触点Fcp、支点Lfの候補点(図中の小さな黒丸)、actor(穴あけパンチ、ペンチ)とacteeの間の作用空間Lis(図中の網掛け範囲)が最初のアクティブビジョンによる観測から推定される。
次に、推定を確かめるために最初のアクティブタッチを行う。つまりハプティックロボット3が力点Fcpを押し、物体の動作を生起させる。アクティブタッチを行っている間、2回目のアクティブビジョンにより、生起された回転事象を観測する。接触力Fcfの変化は力フィードバックセンサ3bで測定する。CCDカメラ2cで記録した動画像から、回転運動の軌跡が獲得され、図13、図19 に示すように力点の軌跡を最小二乗法を用いて円にフィッティングし、その円の中心である支点Lf位置が正確に決定される。作用点Lipは作用空間Lisの中で最も支点Lfに近い点として決定される。支点Lf 、力点Fcp、作用点Lipの位置を分類する事により、穴あけパンチのテコパターンLpは図4(d)のパターン に、ペンチの場合は図4 (a)のパターン に決定される。力点、支点、作用点の位置関係からは、テコの倍率Lmも推定される。
力フィードバックセンサ3bから、アクティブタッチを行っている時の力点の変化が観測される(図14、図20) のドットの細かい破線:Contact Force without Actee)。図15、図21が示すように、接触力の変化Fcfと力点Fcpの軌跡から、回転角度の可能な範囲Lθmaxとバネ係数Sk[N/rad]、初期応力Sif [N])をも推定する事ができる。
次に、actor(穴あけパンチ、ペンチ)と力学的物理特性が既知のactee 間のインタラクションを観測する。この実験では、2回目のアクティブビジョンで獲得した作用点Lipの近くの作用空間Lisに、穴あけパンチには紙を、ペンチには針金を入れた。ロボットが再び力点Fcpを押している間(2回目のアクティブタッチ)、作用対象の影響による接触力Fcf’の特性の変化を観測した。
図14、図20 の実線(細線:ContactForc with Actee)はactorとacteeのインタラクションによる力の変化を示している。図14、図20 の一番下の太線(Real Contact Froce)はacteeがある時とない時の接触力の差異を示している。テコによって増幅される力、つまりacteeに加えられる力はacteeがある時とない時の力の差異と、テコの倍率Lmから推定する事ができる。
この実験では、穴あけパンチの場合は紙に穴があけられるような、ペンチの場合は針金を切断するようなacteeの破断が、acteeを作用点Lip付近に置いた時の接触力Fcf’の変化グラフから観測されたので、actte が破壊された降伏点Fyであると推定する事ができた。actee の降伏応力[Pa=N/m] は既知(紙:約6MPa、針金:約400MPa)であるので、actee との作用面積Liaも計算する事ができ、異なる力学的物理特性を持つ任意のactee を使用する事で仮想空間内で実世界に基づいた機能テストが可能である事を確認した。
最後に、“actor-actee”のインタラクションを観測するハプティックビジョンを通して、穴あけパンチのテコのモデルの記述(図16)、ペンチのテコのモデルの記述(図22)を獲得した。
我々はハプティックビジョンに基づいて“actor-actee”間のインタラクションを観察する事で穴あけパンチ、ペンチのテコのモデルの記述を獲得し、図23及び図24が示す実世界に忠実な仮想空間シミュレータにおいて使用することを確認した。図23及び図24は、自動生成された穴あけパンチのインタラクティブモデルを用いて、仮想空間において穴あけパンチの機能テストを行った結果を示しており、図23では、作用対象として紙P(の物理特性を有する)モデルを穴あけパンチの作用対象としたときの機能シミュレーション結果を示しており、図23(d)に示すように紙に穴が形成された。
一方、図24では、作用対象として鉄板I(の物理特性を有する)モデルを穴あけパンチの作用対象としたときのシミュレーション結果を示しており、図24(d)に示すように、穴あけパンチを操作しても鉄板Iには穴が形成されなかった。このように、生成されたインタラクティブモデルは、穴あけパンチの動的機能を適切に表現しているといえる。
以上のような穴開けパンチとペンチを用いた実験結果から本発明の有効性が確認された。さらに、得られたインタラクティブモデルを用いる事により、仮想空間において、実世界に忠実な機能テスト及びパーツ動作テストが実現される事を実証した。
手の動作・機能(EPs(Exploratory Procedures))の説明図である。 物体のインタラクティブモデル(Interactive 3D Modesl)である。 Function:actor,actee,agent間のインタラクションの説明図である。 テコパターンの説明図である。 物体の安定姿勢の説明図である。 力学構造モデリングの処理の流れを示すフローチャートである。 ハプティックビジョンシステムの概略構成図である。 “Shape from Function”アプローチの説明図である。 物体の機能的姿勢の説明図である。 物体の機能的姿勢の抽出の説明図であり、(a)はTOP距離画像(平面図)から抽出された対称軸を示す図であり、(b)は(a)の対称軸を基に生成される対称面から抽出された断面輪郭形状を示す図であり、(c)はSIDE距離画像(側面図)から抽出された対称軸を示す図であり、(d)は(c)の対称軸を基に生成される対称面から抽出された断面輪郭形状を示す図であり、(e)は物体の機能的姿勢を示す図である。 穴あけパンチの実験結果を示す図であり、穴あけパンチの断面図である。 穴あけパンチの実験結果を示す図であり、アクティブタッチを示す側面図である。 穴あけパンチの実験結果を示す図であり、支点抽出処理を示す側面図である。 穴あけパンチの実験結果を示す図であり、接触力の時間的変化(作用対象あり/なし)を示すグラフである。 接触による回動角度の時間的変化を示すグラフである。 生成された穴あけパンチのインタラクティブモデルである。 ペンチの実験結果を示す図であり、ペンチの平面図である。 ペンチパンチの実験結果を示す図であり、アクティブタッチを示す側面図である。 ペンチの実験結果を示す図であり、支点抽出処理を示す側面図である。 ペンチの実験結果を示す図であり、接触力の時間的変化(作用対象あり/なし)を示すグラフである。 接触による回動角度の時間的変化を示すグラフである。 生成されたペンチのインタラクティブモデルである。 穴あけパンチの仮想空間における機能テスト(作用対象が紙)の説明図である。 穴あけパンチの仮想空間における機能テスト(作用対象が鉄板)の説明図である。
符号の説明
1 ハプティックビジョンシステム
2 ビジョンロボット
2b レンジファインダ
2c CCDカメラ
3 ハプティックロボット
3b 力フィードバックセンサ
5 対象物体

Claims (8)

  1. 作用物体への作用が可能な対象物体をコンピュータによる仮想環境で再現するための物体モデルを、ビジョンロボット及びハプティックロボットを有するハプティックビジョンシステムを用いて生成する方法であって、
    前記ビジョンロボットによって、対象物体を観測して当該対象物体に関するデータを取得する初期観測ステップ、
    初期観測ステップで取得された対象物体に関するデータに基づき、ハプティックロボットを対象物体に接触させ、当該対象物体を作用物体に作用させるアクティブタッチステップ、
    前記ビジョンロボット及びハプティックロボットによって、前記アクティブタッチによる対象物体の力学的作用特性に関するデータを取得する力学的作用特性観測ステップ、
    初期観測ステップ及び力学的作用特性観測ステップによって取得されたデータに基づいて、対象物体の物体モデルを生成するモデリングステップ、
    を含むことを特徴とする物体モデル生成方法。
  2. 前記初期観測ステップは、対象物体が安定して使用される姿勢である機能的姿勢における対象物体のデータを取得するステップを含むことを特徴とする請求項1記載の物体モデル生成方法。
  3. 前記アクティブタッチステップでは、対象物体が作用物体に作用する状態でハプティックロボットを対象物体に接触させる第1接触と、対象物体が作用する作用物体がない状態でハプティックロボットを対象物体に接触させる第2接触とが行われることを特徴とする請求項1又は2記載の物体モデル生成方法。
  4. 前記力学的作用特性観測ステップでは、前記第1接触と前記第2接触とにおける接触の差異を抽出することによって対象物体の力学的作用特性に関するデータを取得することを特徴とする請求項3記載の物体モデル生成方法。
  5. 作用物体への作用が可能な対象物体をコンピュータによる仮想環境で再現するための物体モデルを生成するためのハプティックビジョンシステムであって、
    対象物体を観測するためのビジョンロボットと、
    対象物体に接触するためのハプティックロボットと、
    前記ビジョンロボットによる対象物体の観測に基づいて、当該対象物体に関するデータを取得する初期観測手段と、
    初期観測手段で取得された対象物体に関するデータに基づき、ハプティックロボットを対象物体に接触させ、当該対象物体を作用物体に作用させるアクティブタッチ手段と、
    前記ビジョンロボット及びハプティックロボットによって、前記アクティブタッチによる対象物体の力学的作用特性に関するデータを取得する力学的作用特性観測手段と、
    初期観測ステップ及び力学的作用特性観測ステップによって取得されたデータに基づいて、対象物体の物体モデルを生成するモデリング手段と、
    を備えていることを特徴とするハプティックビジョンシステム。
  6. 前記初期観測手段は、対象物体が安定して使用される姿勢である機能的姿勢における対象物体のデータを取得可能であることを特徴とする請求項5記載のハプティックビジョンシステム。
  7. 前記アクティブタッチ手段は、対象物体が作用物体に作用する状態でハプティックロボットを対象物体に接触させる第1接触と、対象物体が作用する作用物体がない状態でハプティックロボットを対象物体に接触させる第2接触とを行うことを特徴とする請求項5又は6記載のハプティックビジョンシステム。
  8. 前記力学的作用特性観測手段は、前記第1接触と前記第2接触とにおける接触の差異を抽出することによって対象物体の力学的作用特性に関するデータを取得可能であることを特徴とする請求項7記載のハプティックビジョンシステム。
JP2005206985A 2005-07-15 2005-07-15 ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム Pending JP2007026061A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005206985A JP2007026061A (ja) 2005-07-15 2005-07-15 ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005206985A JP2007026061A (ja) 2005-07-15 2005-07-15 ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム

Publications (1)

Publication Number Publication Date
JP2007026061A true JP2007026061A (ja) 2007-02-01

Family

ID=37786731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005206985A Pending JP2007026061A (ja) 2005-07-15 2005-07-15 ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム

Country Status (1)

Country Link
JP (1) JP2007026061A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011251395A (ja) * 2010-06-04 2011-12-15 Takamaru Kogyo Kk ロボット教示システム
CN113012291A (zh) * 2021-04-01 2021-06-22 清华大学 基于机械手参数重建对象三维模型的方法和装置
WO2023032226A1 (ja) * 2021-09-06 2023-03-09 日本電信電話株式会社 機能付与装置、機能付与方法及び機能付与プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150220A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd シミュレーション装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150220A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd シミュレーション装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199901019009, 田中 弘美 H.T. Tanaka, "ハプティックインタフェース実現のための能動触覚 Toward Automatic Construction of Haptic−Interface ba", 情報処理学会研究報告 Vol.98 No.46 IPSJ SIG Notes, 19980528, 第98巻 第46号, 73〜80頁, JP, 社団法人情報処理学会 Information Processing Socie *
CSNG200401456022, 大田 博義 Hiroyoshi Ota, "仮想空間シミュレーションによる関節物体の力学的機能推定 Analysis by simulation approach to inferring", 情報処理学会研究報告 Vol.2003 No.41 IPSJ SIG Technical Reports, 20030508, 第2003巻 第41号, 161〜168頁, JP, 社団法人情報処理学会 Information Processing Socie *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011251395A (ja) * 2010-06-04 2011-12-15 Takamaru Kogyo Kk ロボット教示システム
CN113012291A (zh) * 2021-04-01 2021-06-22 清华大学 基于机械手参数重建对象三维模型的方法和装置
CN113012291B (zh) * 2021-04-01 2022-11-25 清华大学 基于机械手参数重建对象三维模型的方法和装置
WO2023032226A1 (ja) * 2021-09-06 2023-03-09 日本電信電話株式会社 機能付与装置、機能付与方法及び機能付与プログラム

Similar Documents

Publication Publication Date Title
Höll et al. Efficient physics-based implementation for realistic hand-object interaction in virtual reality
Kumar et al. Survey of human–robot collaboration in industrial settings: Awareness, intelligence, and compliance
Pham et al. Towards force sensing from vision: Observing hand-object interactions to infer manipulation forces
León et al. From robot to human grasping simulation
Frati et al. Using Kinect for hand tracking and rendering in wearable haptics
US8350843B2 (en) Virtual hand: a new 3-D haptic interface and system for virtual environments
JP4463120B2 (ja) 身まねロボットシステムとその身まね動作制御方法
JP2008209689A (ja) 力触覚ディスプレイ、力触覚ディスプレイの制御方法、並びにコンピュータ・プログラム
Ma et al. A framework for interactive work design based on motion tracking, simulation, and analysis
Kim et al. Physics-based hand interaction with virtual objects
Zubrycki et al. Using integrated vision systems: three gears and leap motion, to control a 3-finger dexterous gripper
Ciocarlie et al. A side of data with my robot
zu Borgsen et al. Improving human-robot handover research by mixed reality techniques
Tong et al. Survey on hand-based haptic interaction for virtual reality
Skoglund et al. Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives
Marques et al. Commodity telepresence with the AvaTRINA nursebot in the ANA Avatar XPRIZE semifinals
Nasim et al. Physics-based interactive virtual grasping
JP2007026061A (ja) ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム
Kim et al. Direct and realistic handover of a virtual object
Aleotti et al. Trajectory reconstruction with nurbs curves for robot programming by demonstration
WO2021195916A1 (zh) 动态手部仿真方法、装置和系统
Shi et al. Grasping 3d objects with virtual hand in vr environment
Kawasaki et al. Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface
Rodriguez et al. A comparison of smartphone interfaces for teleoperation of robot arms
Guo et al. A system of robotic grasping with experience acquisition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405