JP2007026117A - Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator - Google Patents
Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator Download PDFInfo
- Publication number
- JP2007026117A JP2007026117A JP2005207784A JP2005207784A JP2007026117A JP 2007026117 A JP2007026117 A JP 2007026117A JP 2005207784 A JP2005207784 A JP 2005207784A JP 2005207784 A JP2005207784 A JP 2005207784A JP 2007026117 A JP2007026117 A JP 2007026117A
- Authority
- JP
- Japan
- Prior art keywords
- data
- subject
- virtual space
- force
- action target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000003993 interaction Effects 0.000 claims abstract description 28
- 230000009471 action Effects 0.000 claims description 118
- 230000005226 mechanical processes and functions Effects 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000000704 physical effect Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 7
- 210000003484 anatomy Anatomy 0.000 claims description 5
- 230000006870 function Effects 0.000 description 134
- 238000012545 processing Methods 0.000 description 48
- 238000011156 evaluation Methods 0.000 description 43
- 230000002452 interceptive effect Effects 0.000 description 26
- 238000004458 analytical method Methods 0.000 description 13
- 238000013459 approach Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 5
- 229910052742 iron Inorganic materials 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000004080 punching Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 230000005489 elastic deformation Effects 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000001584 occupational therapy Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008407 joint function Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、リアリティベースドシミュレーションに基づく物体に関する新たな知識の自動獲得方法及びリアリティベース仮想空間シミュレータに関するものである。 The present invention relates to a method for automatically acquiring new knowledge about an object based on reality-based simulation and a reality-based virtual space simulator.
バーチャルリアリティ(VR)の新規性は、実世界に依拠した「体験」を提供することにあり、実世界の現象や実物体の振る舞いに忠実なシミュレーションを実現することが本質的な課題である。VR環境における実世界に忠実な「体験」を通して、実世界に対する新たな「発見」や「理解」を導くことを可能にする。最近では、触覚/力フィードバック装置も実用化され、VRをはじめ、CG(コンピュータグラフィックス)、ロボティクス、心理学の分野においても、視覚とさらに触覚に基づくインターフェイス実現へ向けて勢力的に研究が進められてきている[非特許文献1〜3]。 The novelty of virtual reality (VR) is to provide an “experience” based on the real world, and it is an essential issue to realize a simulation faithful to real world phenomena and behavior of real objects. Through the “experience” faithful to the real world in the VR environment, it is possible to guide new “discovery” and “understanding” to the real world. Recently, tactile / force feedback devices have also been put to practical use, and in the fields of VR, CG (computer graphics), robotics, and psychology, research is actively progressing toward the realization of interfaces based on vision and touch. [Non-Patent Documents 1 to 3].
心理学分野における触覚の研究は手の機能や把持の分析を中心に進められてきた。代表的な研究として、LedermanとKlatzkyによる物体の顕著な特徴、つまり物体の形状、剛さ、柔軟度、重さ、温度、物体の機能などを探るための典型的な手動作パターンEPs(Exploratory Procedures)が挙げられる。 これらの手の能動的探索により獲得される、物体の剛さ、柔軟度、重さ、相互拘束関係等の触覚情報を自動獲得することを目的とし、「触れて視る」ハプティックビジョン構想が提案されている[非特許文献4〜6]。
さらに、ハプティックビジョンに基づき、実世界のインタラクションの観測から、はさみのような機能を持つ関節物体の3次元インタラクティブモデルを自動獲得する研究が進められている[非特許文献7]。
Research on tactile sensation in the field of psychology has been focused on analysis of hand function and grip. As a representative study, typical hand movement patterns EPs (Exploration Procedures) for exploring the prominent features of an object by Lederman and Klatzky, that is, the shape, stiffness, flexibility, weight, temperature, function of the object, etc. ). A haptic vision concept of “touch and see” is proposed for the purpose of automatically acquiring tactile information such as the stiffness, flexibility, weight, and mutual restraint of objects obtained by active search of these hands. [Non-Patent Documents 4 to 6].
Furthermore, based on haptic vision, research to automatically acquire a three-dimensional interactive model of a joint object having a scissor-like function from observation of real-world interactions is being carried out [Non-Patent Document 7].
そのようなインタラクティブモデルが与えられることにより、仮想空間において実世界に忠実なインタラクションが可能になる。人工的に作られた物体の多くは、何らかの目的を達成するため、 つまり、機能を達成するための道具である。図1に示すように、物体の機能は、物体−作用対象−主体の3要素間のインタラクションにより達成されている。機能は、使用目的のための有用性と定義され、使用目的とは、主体が物体を操作し、作用対象を異なる状態に変える/遷すことをいう。3要素間のインタラクションのうち、どれかが欠けると、機能を達成することはできない。 Given such an interactive model, real world interaction is possible in virtual space. Many artificially created objects are tools to achieve some purpose, that is, to achieve a function. As shown in FIG. 1, the function of the object is achieved by the interaction between the three elements of the object, the action target, and the subject. A function is defined as usefulness for a purpose of use, which means that the subject manipulates an object and changes / transitions the target of action to a different state. If any of the interactions between the three elements is missing, the function cannot be achieved.
物体の機能推定・認識の研究は、人工知能やコンピュータビジョン分野において進められてきた。 初期の機能推定の研究は、物体(椅子等) のみに着目し、物体の静的機能を静止画像から推定した[非特許文献8]。その後、主体が包丁などの物体を使用する動的シーン(主体−物体インタラクション) を観測し解析することにより、物体の動的機能(“切る”、“突く”、“スライスする”等) を推定する手法が提案された[非特許文献9]。 Research on object function estimation and recognition has been advanced in the fields of artificial intelligence and computer vision. Early research on function estimation focused only on objects (such as chairs), and estimated static functions of objects from still images [Non-Patent Document 8]. After that, the dynamic function (“cut”, “push”, “slice”, etc.) of the object is estimated by observing and analyzing the dynamic scene (subject-object interaction) where the subject uses an object such as a knife. [9] Non-patent document 9].
しかし、作用対象の変化を画像から観測することは難しく、“物体−作用対象”インタラクションは考慮されていない。作用対象に着目した研究は北橋らにみられ[非特許文献10]、物体(レンチ、栓抜き) と作用対象(ナット、栓) の接触状態(物体-作用対象インタラクション) による力学的特性を満たすか否かを判断することから機能を推定した。しかし、操作者である主体が考慮されていなかった。このように、従来の手法において、物体−主体−作用対象の3要素間のインタラクションを同時に観測することは困難であるため、90年代半ば以降研究が停滞していた。最近では、主体と作用対象の動作を通じて、両者を補完的に認識するという手法が提案されている[非特許文献11]。 However, it is difficult to observe the change of the action target from the image, and the “object-action target” interaction is not considered. A study focusing on the target of action is found in Kitahashi et al. [Non-Patent Document 10], which satisfies the mechanical characteristics of the contact state (object-action target interaction) between the object (wrench, bottle opener) and the target (nut, plug). The function was estimated by judging whether or not. However, the subject who is the operator was not considered. Thus, in the conventional method, since it is difficult to simultaneously observe the interaction between the three elements of the object, the subject, and the action target, research has been stagnant since the mid-1990s. Recently, a technique has been proposed in which both the subject and the action target are recognized in a complementary manner [Non-Patent Document 11].
本発明は、仮想空間シミュレータが推論エンジンとして機能することに着目し、実世界に依拠するシミュレーションを通して、実世界(実物体) についての新たな発見と知識を自動的に獲得することを目的とする。
また、本発明のより具体的な目的は、物体についての新たな知識として力学的機能を推定することである。
The present invention focuses on the fact that a virtual space simulator functions as an inference engine, and aims to automatically acquire new discoveries and knowledge about the real world (real objects) through simulations that rely on the real world. .
A more specific object of the present invention is to estimate a mechanical function as new knowledge about an object.
ここで、物体の機能は、それを操作する主体(人間)の特性を離れては決めることができないことが多い。例えば、物体(道具)としてペンチがあり、物体の作用対象として針金があった場合、ペンチを使う主体が大人であれば、ペンチで針金を切断することができるが、主体が力の弱い子供であれば、ペンチで針金を掴むことしかできなことがある。このように、同じ物体(道具)であっても、それを使う主体によって、その物体の機能は異なってくる。
また、主体が同じでも、その主体がどのように物体(道具)を持つかによっても、物体の機能は変わってくる。つまり、物体を掴んで持つ場合と、握って持つ場合では、主体が物体に与えることができる力が異なり、この結果、物体によって発揮される機能は異なったものになることがある。
以上に鑑み、本発明では、実世界に依拠したシミュレーション、特に、主体により、物体に対して、任意の接触力を作用させたシミュレーションによって、物体の力学的機能などの新たな知識を発見し獲得すること目的とする。
Here, in many cases, the function of an object cannot be determined apart from the characteristics of the subject (human) who operates the object. For example, if an object (tool) has pliers and the object acts on a wire, if the subject using the pliers is an adult, the wire can be cut with the pliers. If so, you can only grab the wire with pliers. In this way, even if the same object (tool) is used, the function of the object differs depending on the subject who uses it.
Moreover, even if the subject is the same, the function of the object varies depending on how the subject has the object (tool). In other words, the force that the subject can give to the object differs between when holding and holding the object, and as a result, the functions exhibited by the object may be different.
In view of the above, the present invention discovers and acquires new knowledge such as the mechanical function of an object through simulation based on the real world, in particular, simulation by applying an arbitrary contact force to the object by the subject. The purpose is to do.
リアリティベースドシミュレーションに基づく物体に関する新たな知識の自動獲得方法に係る本発明は、
1)実世界に依拠した実世界データとして、次の1a)1b)1c)のデータが与えられて動作する仮想空間シミュレータによるリアリティベースドシミュレーションによって、物体に関する新たな知識を自動的に獲得する方法であって、次の2)3)のステップを含むことを特徴とするリアリティベースドシミュレーションに基づく物体に関する新たな知識の自動獲得方法である。
1a)主体によって使用されるとともに作用対象への作用が可能な物体を、仮想空間で再現するために用いられる物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために用いられる作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データ、与えられた作用対象データ、及び与えられた主体データに基づいて、主体−物体−作用対象の相互作用を仮想空間シミュレータによってシミュレートするシミュレートステップ。
3)主体−物体―作用対象の相互作用のシミュレーション結果に基づいて、物体に関する新たな知識を獲得する知識獲得ステップ。
The present invention relating to a method for automatically acquiring new knowledge about an object based on reality-based simulation,
1) As a real world data that depends on the real world, a new knowledge about an object is automatically acquired by a reality-based simulation by a virtual space simulator that is operated with the following data 1a), 1b), and 1c). Thus, the present invention is a method for automatically acquiring new knowledge about an object based on a reality-based simulation characterized by including the following steps 2) and 3).
1a) Object data used to reproduce in the virtual space an object that is used by the subject and that can act on the action target;
1b) Action target data used to reproduce an action target on which an object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) A simulation step of simulating a subject-object-action target interaction with a virtual space simulator based on the given subject data, the given subject data, and the given subject data.
3) A knowledge acquisition step for acquiring new knowledge about the object based on the simulation result of the interaction between the subject, the object, and the action target.
リアリティベース仮想空間シミュレータに係る本発明は、1)実世界に依拠した実世界データとして、次の1a)1b)1c)のデータが与えられ、リアリティベースシミュレーションによって物体に関する新たな知識を自動的に獲得するために、次の2)3)の手段を含むことを特徴とするリアリティベース仮想空間シミュレータである。
1a)主体によって使用されるとともに作用対象への作用が可能な物体を、仮想空間で再現するために用いられる物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために用いられる作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データ、与えられた作用対象データ、及び与えられた主体データに基づいて、主体−物体−作用対象の相互作用を仮想空間シミュレータによってシミュレートするシミュレート手段。
3)主体−物体―作用対象の相互作用のシミュレーション結果に基づいて、物体に関する新たな知識を獲得する知識獲得手段。
The present invention relating to a reality-based virtual space simulator is provided with the following 1a), 1b), and 1c) data as real world data based on the real world, and new knowledge about the object is automatically obtained by the reality-based simulation. A reality-based virtual space simulator characterized by including the following means 2) and 3) in order to acquire:
1a) Object data used to reproduce in the virtual space an object that is used by the subject and that can act on the action target;
1b) Action target data used to reproduce an action target on which an object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) Simulating means for simulating the subject-object-action target interaction by a virtual space simulator based on the given subject data, the given subject data, and the given subject data.
3) Knowledge acquisition means for acquiring new knowledge about the object based on the simulation result of the interaction between the subject, the object and the action target.
力学的機能推定方法に係る本発明は、1)実世界に依拠した実世界データとして、次の1a)1b)1c)のデータが与えられて動作する仮想空間シミュレータによって、物体の力学的機能を推定する方法であって、次の2)3)4)のステップを含むことを特徴とする物体の力学的機能推定方法である。
1a)主体によって使用されるとともに作用対象への作用が可能な物体が、作用対象に作用する様子をコンピュータによる仮想空間で再現するために、当該物体の3次元形状データ及び力学的データを含む対象物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために、作用対象の物理特性データを含む作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データで表される主体による、与えられた物体データで表される物体の把持状態を、仮想空間シミュレータによって推定する把持状態推定ステップ。
3)前記把持状態推定ステップで推定された把持状態において、物体が作用対象に与える力を仮想空間シミュレータによって計算する作用力計算ステップ。
4)前記作用力推定ステップで推定された作用力が、与えられた作用対象データで表される作用対象に作用することによって当該作用対象に生じ得る変化に基づいて物体の力学的機能を推定する機能推定ステップ。
The present invention relating to the dynamic function estimation method is as follows. 1) As the real world data that depends on the real world, the following 1a), 1b), and 1c) data are given, and the dynamic function of the object is controlled by a virtual space simulator. A method for estimating the mechanical function of an object, comprising the following steps 2), 3) and 4).
1a) An object including three-dimensional shape data and mechanical data of an object used by the subject and capable of acting on the action target in order to reproduce in the virtual space by the computer the action acting on the action target Object data;
1b) Action target data including physical property data of the action target in order to reproduce the action target on which the object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) A gripping state estimation step of estimating the gripping state of the object represented by the given object data by the subject represented by the given subject data using a virtual space simulator.
3) An action force calculation step of calculating a force applied by the object to the action target using the virtual space simulator in the grasp state estimated in the grasp state estimation step.
4) When the acting force estimated in the acting force estimation step acts on the acting target represented by the given acting target data, the mechanical function of the object is estimated based on a change that can occur in the acting target. Function estimation step.
前記主体データは、解剖学、心理学、及び/又は人間工学の知見に基づく、人間の特性データであるのが好ましい。
前記主体データは、主体の性別データ及び又は主体の年齢データを含むのが好ましい。
前記把持状態推定ステップにおいて推定される把持状態は、主体が物体を把持するときの姿勢である把持パターンと、主体が物体を把持するときの力である把持力とを含むのが好ましい。
The subject data is preferably human characteristic data based on knowledge of anatomy, psychology, and / or ergonomics.
The subject data preferably includes gender data and / or age data of the subject.
The gripping state estimated in the gripping state estimation step preferably includes a gripping pattern that is a posture when the subject grips the object and a gripping force that is a force when the subject grips the object.
仮想空間シミュレータに係る本発明は、1)実世界に依拠した実世界データとして、次の1a)1b)1c)のデータが与えられ、物体の力学的機能を推定するために、次の2)3)4)の手段を含むことを特徴とする仮想空間シミュレータである。
1a)主体によって使用されるとともに作用対象への作用が可能な物体が、作用対象に作用する様子をコンピュータによる仮想空間で再現するために、当該物体の3次元形状データ及び力学的データを含む対象物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために、作用対象の物理特性データを含む作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データで表される主体による、与えられた物体データで表される物体の把持状態を、推定する把持状態推定手段。
3)前記把持状態推定手段で推定された把持状態において、物体が作用対象に与える力を計算する作用力計算手段。
4)前記作用力推定手段で推定された作用力が、与えられた作用対象データで表される作用対象に作用することによって当該作用対象に生じ得る変化に基づいて物体の力学的機能を推定する機能推定手段。
The present invention relating to the virtual space simulator is provided with the following 2) in order to estimate the mechanical function of an object given the following data 1a), 1b) and 1c) as real world data based on the real world: 3) A virtual space simulator including the means of 4).
1a) An object including three-dimensional shape data and mechanical data of an object used by the subject and capable of acting on the action target in order to reproduce in the virtual space by the computer the action acting on the action target Object data;
1b) Action target data including physical property data of the action target in order to reproduce the action target on which the object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) Grasping state estimation means for estimating the gripping state of the object represented by the given object data by the subject represented by the given subject data.
3) Action force calculation means for calculating the force exerted by the object on the action target in the grip state estimated by the grip state estimation means.
4) When the acting force estimated by the acting force estimation means acts on the acting target represented by the given acting target data, the mechanical function of the object is estimated based on a change that can occur in the acting target. Function estimation means.
前記主体データは、解剖学、心理学、及び/又は人間工学の知見に基づく、人間の特性データであるのが好ましい。
前記主体データは、主体の性別データ及び又は主体の年齢データを含むのが好ましい。
前記把持状態推定手段において推定される把持状態は、主体が物体を把持するときの姿勢である把持パターンと、主体が物体を把持するときの力である把持力とを含むのが好ましい。
The subject data is preferably human characteristic data based on knowledge of anatomy, psychology, and / or ergonomics.
The subject data preferably includes gender data and / or age data of the subject.
The gripping state estimated by the gripping state estimation means preferably includes a gripping pattern that is a posture when the subject grips the object and a gripping force that is a force when the subject grips the object.
本発明によれば、実世界データに基づくシミュレーションにより、物体の機能などの新たな知識を獲得することができる。 According to the present invention, new knowledge such as the function of an object can be acquired by simulation based on real world data.
[1.はじめに]
ここでは、Analysis by Reality―based Simulationアプローチと呼ぶ、実世界に依拠したシミュレーション結果の解析に基づいて、力学的機能を物体に関する新たな知識の一例として、掴む、潰す、壊す等の関節物体(物体)の機能を推定する方法を提案する。仮想空間において、実世界の“物体−作用対象”インタラクションの観測から獲得された、ハサミのような機能を持つ関節物体のインタラクティブモデルを用いて、様々な物理特性(形状、サイズ、剛性、表面の滑らかさ)を持つ任意の作用対象に対して、様々な人間の特性(性別、年齢、手のサイズ、把持パターン)を持つ主体により任意の接触力を作用させたシミュレーションの結果を解析することにより、(1)物体の持つ可能な力学的機能をすべて推定し、さらに、(2)主機能と呼ぶ最尤の力学的機能とその物体を把持する手の把持姿勢を推定する。はさみ、ペンチ、ピンセット等の7種類の、一つの関節を持つ物体の力学的機能を推定した実験結果を示し、30人の被験者による主観評価実験結果との比較から提案手法の有効性を検証した。
[1. Introduction]
Here, based on the analysis of simulation results based on the real world, which is called the Analysis by Reality-based Simulation approach, as an example of new knowledge about the object, the joint functions (objects such as grasping, crushing, and breaking) We propose a method for estimating the function of Using an interactive model of a joint object with scissors-like functions obtained from observation of real-world “object-action” interactions in virtual space, various physical properties (shape, size, stiffness, surface By analyzing the results of a simulation in which an arbitrary contact force is applied to a subject with various human characteristics (gender, age, hand size, grip pattern) on an arbitrary target with smoothness (1) Estimate all possible mechanical functions of the object, and (2) estimate the most likely mechanical function called the main function and the gripping posture of the hand holding the object. Experimental results of estimating the mechanical function of an object with one joint such as scissors, pliers, tweezers, etc. are shown, and the effectiveness of the proposed method is verified by comparison with the results of subjective evaluation by 30 subjects. .
[2.Analysis By Reality−Based Simulation Approach]
図2に、Analysis By Reality−Based Simulationアプローチの概念を示す。仮想空間シミュレータへの入力は、実世界のインタラクションの観測から獲得された、実世界に忠実なインタラクションを可能とする実物体の3 次元モデル、実物体(作用対象)の物理特性、あるいは解剖学、心理学および人間工学の知見に基づく人間の特性である。これらの入力はすべて実世界に依拠した情報であり、これらに基づくシミュレーションは実世界における現象を表している。そこで、Analysis By Reality−Based Simulationアプローチは、仮想空間シミュレータが推論エンジンとして機能することに着目し、実世界に依拠するシミュレーションを通して、実世界(実物体) についての新たな発見と知識を自動的に獲得することを可能にする。
[2. Analysis By Reality-Based Simulation Approach]
FIG. 2 shows the concept of the Analysis By Reality-Based Simulation approach. The input to the virtual space simulator is a 3D model of the real object that is obtained from observation of real-world interaction and enables real-world interaction, physical properties of the real object (action target), anatomy, It is a human characteristic based on knowledge of psychology and ergonomics. These inputs are all information that relies on the real world, and simulations based on them represent phenomena in the real world. Therefore, the Analysis By Reality-Based Simulation approach focuses on the fact that the virtual space simulator functions as an inference engine, and automatically discovers new knowledge and knowledge about the real world (real objects) through simulations that rely on the real world. Make it possible to earn.
[3.実施形態:Analysis By Reality−Based Simulationアプローチに基づく関節物体の力学的機能推定]
フランスの社会思想家P.J.Proudhon(18909−1865) は、『人間
が仕事をするために使う最も基本的な、最も一般的な道具、つまりそれらの道具の帰するところはテコである』と述べている.
このように、テコは物体が機能を認識するための最も基本的な要素であり、物体の機能に関するほとんどの研究は物体がテコの機能を持つと仮定している。そこで、ここでも“掴む”、“切る”、“壊す”等の動的な機能を持つ対象の関節物体は、要素機能としてのテコを持つと仮定する。
[3. Embodiment: Mechanical Function Estimation of Joint Object Based on Analysis By Reality-Based Simulation Approach]
French social thinker J. et al. Proudhon (18909-1865) states: `` The most basic and most common tools that humans use to do their work, that is, what they come from is leverage. ''
Thus, the lever is the most basic element for an object to recognize its function, and most studies on the function of an object assume that the object has a lever function. Therefore, it is assumed here that the target joint object having dynamic functions such as “grab”, “cut”, and “break” has leverage as an element function.
本実施形態に係るリアリティベース仮想空間シミュレータは、テコの機能を有する物体(関節物体)の動的な機能を推定するためのものであり、コンピュータに後述の処理を実行させるコンピュータプログラムをインストールすることによって構成されている。
仮想空間シミュレータは、その機能として、a)下記Step1の処理を行う把持パターン推定処理部、b)下記Step2の処理を行う把持力推定処理部、c)下記Step3の処理を行う作用力計算処理部、d)下記Step4の処理を行う作用応力計算処理部、e)下記Step5の処理を行う力学的機能推定処理部(知識獲得処理部)、f)下記Step6の処理を行う主機能推定処理部(知識獲得処理部)、を有している。
なお、把持パターン推定処理部及び把持力推定処理部を総称して、把持状態推定処理部といい、把持状態推定処理部は、把持状態(例えば、把持パターン及び当該把持パターンでの把持力)を推定するものである。
また、把持状態推定処理部、作用力計算処理部、及び作用応力計算処理部を総称して、主体−物体−作用対象の相互作用を仮想空間でシミュレートするシミュレート部という。
The reality-based virtual space simulator according to the present embodiment is for estimating a dynamic function of an object having a lever function (joint object), and installs a computer program that causes a computer to execute processing described later. It is constituted by.
The virtual space simulator has, as its function, a) a gripping pattern estimation processing unit that performs the processing of Step 1 below, b) a gripping force estimation processing unit that performs the processing of Step 2 below, and c) an action force calculation processing unit that performs the processing of Step 3 below. D) an action stress calculation processing unit that performs the processing of Step 4 below, e) a mechanical function estimation processing unit (knowledge acquisition processing unit) that performs the processing of Step 5 below, and f) a main function estimation processing unit that performs the processing of Step 6 below ( Knowledge acquisition processing unit).
Note that the gripping pattern estimation processing unit and the gripping force estimation processing unit are collectively referred to as a gripping state estimation processing unit, and the gripping state estimation processing unit indicates the gripping state (for example, the gripping pattern and the gripping force in the gripping pattern). To be estimated.
The gripping state estimation processing unit, the acting force calculation processing unit, and the acting stress calculation processing unit are collectively referred to as a simulation unit that simulates the subject-object-action target interaction in a virtual space.
仮想空間シミュレータへの入力は、機能達成のための3要素:(1)物体(関節物体)のインタラクティブモデル(物体データ)、(2)作用対象データ、(3)主体データであり、これらの3つのデータが、実世界に依拠した実世界データである(図2参照)。
これらのデータは、仮想空間シミュレータの記憶手段に与えられ、仮想空間シミュレータの各処理部は、これらの実世界データに基づいて、実物体の機能推定等の物体についての新たな発見と知識の自動獲得ための処理を行う。
The input to the virtual space simulator is three elements for achieving the function: (1) interactive model (object data) of object (joint object), (2) action target data, and (3) subject data. Two pieces of data are real world data based on the real world (see FIG. 2).
These data are given to the storage means of the virtual space simulator, and each processing unit of the virtual space simulator automatically performs new discovery and knowledge of the object such as function estimation of the real object based on the real world data. Process for acquisition.
(1)関節物体のインタラクティブモデルは、実物体である関節物体に関するデータであり、実世界の“関節物体−作用対象”インタラクションの観測から獲得されたものである。このインタラクティブモデルは、物体の3次元形状データShapeや、力学的データForce,Lever、Springを有している。このインタラクティブモデルの詳細は後述する。
(2)作用対象データは、作用対象の物理特性(形状、サイズ、剛性、表面の滑らかさ等)を有して構成されており、物体が動的機能により作用対象に作用したときに、作用対象がどのように変化するか(切れる、壊れるか等)を演算により推定するための基となるデータである。
(3)主体データは、解剖学の知見に基づく人間の特性情報、心理学の知見に基づく人間の特性情報、および人間工学の知見に基づく人間の特性情報などによって構成されており、具体的には、主体(人間) の性別、年齢、利き手、手のサイズ、手の動き、把持パターン、把持力などによって構成することができる。
(1) An interactive model of a joint object is data relating to a joint object that is a real object, and is obtained from observation of a “joint object-action target” interaction in the real world. This interactive model has three-dimensional shape data Shape of the object and mechanical data Force, Level, and Spring. Details of this interactive model will be described later.
(2) The action target data is configured to have physical characteristics (shape, size, rigidity, surface smoothness, etc.) of the action target, and when the object acts on the action target by the dynamic function, This is data that is a basis for estimating by calculation how the object changes (cuts, breaks, etc.).
(3) The subject data is composed of human characteristic information based on anatomical knowledge, human characteristic information based on psychological knowledge, and human characteristic information based on ergonomic knowledge. Can be constituted by the gender of the subject (human), age, dominant hand, hand size, hand movement, grip pattern, grip force, and the like.
図3に、仮想空間シミュレータによる処理の流れの概要を示す。
Step1)関節物体の3 次元インタラクティブモデル、主体の解剖学的知見[Noriko Kamakura: ”手のかたち 手の動き”, 医歯薬出版, 1989.]に基づくデータにより、主体が関節物体を把持するパターンを推定する(把持状態推定処理;把持パターン推定処理)。
Step2)推定された把持パターン、最初の入力として与えられた主体データ(主体の性別、年齢、利き手)を引数とした人間工学的知見[笠井紀宏,堀井健,小谷賢太郎: ”摘み動作における対象幅と安定把持力の関係”: 平成11 年度日本人間工学会関西支部大会講演論文集,pp.175-178,1999.] [Virgil Mathiowetz, MS, OTR, Nancy Kashman, OTR, Gloria Volland, OTR, Karen Weber, OTR, Mary Dowe, OTS, Sandra Rogers, OTS: Grip and Pinch Strength : Normative Data for Adults, American Occupational Therapy Foundation, 1984.]に基づくデータを用いることで、把持パターンに応じた把持力の範囲を推定する。把持力とは、主体が関節物体を把持する力である。
Step3) 関節物体の33次元インタラクティブモデルのテコ情報、Step2で求めた把持力の範囲から、作用対象に加える絶対的な力、作用力の範囲を推定する。
Step4) 関節物体の3 次元インタラクティブモデルの接触面積(関節物体と作用対象との接触) とStep4で求めた作用力範囲から、作用応力の範囲を計算する。
Step5)Step4で求めた作用応力範囲と作用対象の物性(応力・ひずみ) を用いることにより、考えられる全ての機能を推定する。
Step6) 推定された複数の機能から、主機能と呼ぶ最尤の機能、とその物体を把持する手の姿勢を推定する。
以上のステップにより、任意の作用対象と任意の主体に応じた関節物体の力学的主機能と把持パターン、つまり、物体について新たな知識を発見し自動的に獲得することが可能になる。
FIG. 3 shows an outline of the flow of processing by the virtual space simulator.
Step 1) Three-dimensional interactive model of joint object, subject's anatomical knowledge [Noriko Kamakura: "Shape of the hand, hand movement", dentistry publishing, 1989.] (Gripping state estimation processing; gripping pattern estimation processing).
Step 2) Ergonomic knowledge using the estimated gripping pattern and subject data (subject's gender, age, dominant hand) given as the first input as arguments [Norihiro Kasai, Ken Horii, Kentaro Kotani: “Target width in picking motion Relationship between Stable Gripping Force and 1999 ”: Proceedings of the 1999 Japan Ergonomics Society Kansai Branch Conference, pp.175-178, 1999. [Virgil Mathiowetz, MS, OTR, Nancy Kashman, OTR, Gloria Volland, OTR, Karen Weber, OTR, Mary Dowe, OTS, Sandra Rogers, OTS: Grip and Pinch Strength: Normative Data for Adults, American Occupational Therapy Foundation, 1984. presume. The gripping force is a force with which the subject grips the joint object.
Step 3) From the leverage information of the three-dimensional interactive model of the joint object and the range of the gripping force obtained in Step 2, the absolute force applied to the action target and the range of the acting force are estimated.
(Step 4) The range of the applied stress is calculated from the contact area of the 3D interactive model of the joint object (contact between the joint object and the action target) and the action force range obtained in Step 4.
Step 5) All possible functions are estimated by using the working stress range obtained in Step 4 and the physical properties (stress / strain) of the working object.
Step 6) From the estimated functions, the maximum likelihood function called the main function and the posture of the hand holding the object are estimated.
Through the above steps, it becomes possible to discover and automatically acquire new knowledge about the dynamic main function and gripping pattern of the joint object corresponding to an arbitrary target and an arbitrary subject, that is, the object.
[3.1 関節物体の3次元インタラクティブモデル]
ハプティックビジョン[非特許文献1] に基づき、実世界のインタラクション、の観測から自動獲得された3 次元インタラクティブモデル[非特許文献7]の生成方法とその内容について述べる。なお、インタラクティブモデルの生成方法は、下記に限定されるものではない。
まず、(1)物体への主体であるロボットによる“接触”は既知であると仮定し、主体-物体インタラクションの観測から、テコを持つ関節物体の幾何および力学構造、機能的姿勢を抽出する。
次に、(2)作用対象の物理特性が既知であると仮定し、主体−物体−作用対象インタラクションの観測から、テコを持つ関節物体の力学的作用特性を抽出する。さらに、これらの方法を用いて、仮想空間において実世界に忠実なインタラクションを可能にする3 次元インタラクティブモデルを自動構築する。
[3.1 Three-dimensional interactive model of joint object]
Based on the haptic vision [Non-Patent Document 1], a method of generating a 3D interactive model [Non-Patent Document 7] automatically acquired from observation of real-world interactions and its contents will be described. Note that the interactive model generation method is not limited to the following.
First, (1) it is assumed that the “contact” by the robot that is the subject to the object is known, and the geometric and mechanical structure and functional posture of the joint object having the lever are extracted from the observation of the subject-object interaction.
Next, (2) assuming that the physical characteristics of the action target are known, the mechanical action characteristics of the joint object having a lever are extracted from the observation of the subject-object-action target interaction. Furthermore, using these methods, we will automatically construct a 3D interactive model that enables real-world interaction in virtual space.
図4に示すように、関節物体のインタラクティブモデルは物体の3 次元形状(Shape)、機能的姿勢(Functional Pose)、力学作用特性(Force)、テコ構造(Lever)、物体のばね特性(Spring)を記述している。図5、図6に示すように、Shapeには、3次元サーフェス形状Os、3次元ボリュームデータOv、重心座標Ogを、Functional Poseには、関節物体の3 次元形状の対称面Osp、対称面における断面対称輪郭形状Ocross、関節物体の対称軸Oaxisが記述される。Forceには(ロボットが接触した) 接触点Fcp、図7に示す、作用対象なしでのロボットハンドの作用力/接触力の変化グラフ(Contact Force without actee:図7の点線)Fcf、作用対象ありでのロボットハンドの作用力変化グラフ(Contact Force with actee:図7の細い実線)Fcf’、降伏点でのロボットハンドの作用力Fyを、Leverには、テコパターンLp、テコの初期状態からの回転限界状態である角度Lθmax、テコの支点Lf、外力を作用させるであろう関節物体の接触平面Lcp、関節物体を把持するために支える平面であろう支持平面Lbp、作用対象がおかれるべき空間である作用空間Lis、関節物体と作用対象の接触点Lip、テコの倍率Lm、関節物体と作用対象の接触面積Liaを、Springには、関節物体の反力Sk、関節物体の反力の初期値Sifをパラメータとして有している。記述する。
ここで、テコパターンとは、支点、力点、作用点の位置関係及び素能力の力増幅、距離増幅、ついあいによって5種類に分けたものである。
As shown in FIG. 4, the interactive model of the joint object includes the three-dimensional shape (Shape) of the object, the functional posture (Functional Pose), the mechanical action characteristic (Force), the lever structure (Level), and the spring characteristic of the object (Spring). Is described. As shown in FIG. 5 and FIG. 6, 3D surface shape Os, 3D volume data Ov, and barycentric coordinates Og are shown for Shape, and 3D shape symmetry plane Osp of the joint object is shown for Functional Pose, A cross-sectional symmetry contour Ocross and a symmetry axis Oaxis of the joint object are described. In the force, the contact point Fcp (contacted by the robot), the change graph of the acting force / contact force of the robot hand without the action target shown in FIG. 7 (Contact Force without acte: dotted line in FIG. 7) Fcf, with the action target Graph (Contact Force with actee: thin solid line in FIG. 7) Fcf ′, robot hand action force Fy at the yield point, Lever, lever pattern Lp, lever from initial state An angle Lθmax which is a rotation limit state, a lever fulcrum Lf, a contact plane Lcp of an articulated object to which an external force is to be applied, a support plane Lbp which is a plane to be supported for gripping the articulated object, and a space where an operation target is to be placed The action space Lis, the contact point Lip between the joint object and the action target, the lever magnification Lm, the joint object And a contact area Lia operand, the Spring, has reactive force Sk of articulated object, the reaction force of the joint object of the initial value Sif as parameters. Describe.
Here, the lever pattern is classified into five types according to the positional relationship between the fulcrum, the force point, and the action point, the force amplification of the ability, the distance amplification, and the relationship.
以上のパラメータを有するインタラクティブモデルによって、仮想空間において、物体がどのような形状を有するものであるかを再現でき、主体が物体に所定の力を加えたときに作用対象にどの程度の作用力が発生するかを演算により求めることができる。 With the interactive model having the above parameters, it is possible to reproduce what shape the object has in the virtual space, and how much acting force is applied to the target when the subject applies a predetermined force to the object It can be determined by calculation whether it occurs.
[3.2 Step1:把持パターン推定(把持状態推定処理1)]
[3.2.1 把持パターンについて]
人間は、作業の目的に応じて、物体を持つ手の形状が異なる。例えば、ペンを使って何か物を書くときと、落ちているペンを拾うときは、異なった手の形状を使用する。このように、人間の意図と手の把持パターンが関係していることに着目したNapierは、正確に作業を行うために用いるPresicionと、力を必要とする作業に用いるPowerの2種類に大きく分類した[Napier,J.R: ”The prehensile movements of the human hand.”, Journal of Bone and Joint Surgery,38B,902-913,1956.]。
Napierの功績は、把持の形式を決めるものは物の形や大きさではなく、作業目的であることを指摘した点にある。以後、Napierの2種類を基に様々な把持の分類が提案されてきた。その中で、図88に示すように、Iberallは、手の姿勢が物体の表面に対し、少なくとも2つの力(Oppositiion) を含んでいるということに着目し、以下の3つの基礎的なカテゴリに分類した[C. L.Mackenzie, T.IberallL: THE GRASPING HAND,NORTH-HOLLAND, 1994.] [Iberall, T., Bingham, G., & Arbib, M.A: Opposition space as a structuring concept for the analysis of skilled hand movements. Generation and modulation of action patterns, pp.158173, 1986.]。
[3.2 Step 1: Grasping pattern estimation (gripping state estimation process 1)]
[3.2.1 Grasp pattern]
Humans have different shapes of hands holding objects depending on the purpose of the work. For example, when writing something with a pen and when picking up a falling pen, use different hand shapes. In this way, Napier, which focuses on the relationship between human intentions and hand grip patterns, is roughly classified into two types: Precision used for performing work accurately and Power used for work requiring force. [Napier, JR: “The prehensile movements of the human hand.”, Journal of Bone and Joint Surgery, 38B, 902-913, 1956.].
Napier's achievement is that it is the work purpose, not the shape or size of an object, that determines the gripping type. Since then, various gripping classifications have been proposed based on two types of Napier. Among them, as shown in FIG. 88, Iberall pays attention to the fact that the posture of the hand includes at least two forces (Opposition) on the surface of the object, and falls into the following three basic categories. [CLMackenzie, T.IberallL: THE GRASPING HAND, NORTH-HOLLAND, 1994.] [Iberall, T., Bingham, G., & Arbib, MA: Opposition space as a structuring concept for the analysis of skilled hand movements. Generation and modulation of action patterns, pp.158173, 1986.].
(1)Pad Opposition:把持する時のOpposition Vectorが、図8に示す、手のpalm座標系のy軸に対して平行な把持であり、正確さを必要とする作業を行う場合に用いる。
(2)Palm Opposition:把持する時のOpposition Vectorが、手のPalm座標系xy平面に対して垂直な把持であり、力を必要とする作業を行う場合に用いる。
(3)Side Opposition:把持する時のOpposition Vectorが、手のpalm座標系x軸に対して平行な把持であり、Pad OppositionとPalm Oppositionの中間に位置し、正確さ、あるいは、力を必要とする作業を行う場合に用いる。
(1) Pad Opposition: Used when the Opposition Vector at the time of gripping is gripping parallel to the y axis of the hand palm coordinate system shown in FIG.
(2) Palm Opposition: Used when the Opposition Vector at the time of grasping is grasping perpendicular to the Palm coordinate system xy plane of the hand and performing work requiring force.
(3) Side Opposition: Opposition Vector when gripping is grip parallel to the hand palm coordinate system x-axis, located between Pad Opposition and Palm Opposition and requires accuracy or force It is used when performing work.
[3.2.2 把持パターンの推定処理(把持状態推定処理2)]
仮想空間シミュレータは、把持パターン推定処理部によって、入力として与えられたインタラクティブモデルによって表される関節物体の3次元形状から、入力として与えられた主体データで表される主体がどのように物体を把持するかという把持パターンの推定処理を行う。
具体的には、把持パターン推定処理部は、インタラクティブモデルに基づき、図9に示すように、1) まず、関節物体の接触面(Contact Plane) Lcpを通り、接触面Lcpとの角度と基底面(Base Plane) の角度が等しく、対称軸(Symmetry Plane) 上に存在するOpposition Vectorを求める。
[3.2.2 Grasping pattern estimation process (gripping state estimation process 2)]
The virtual space simulator grasps the object represented by the subject data given as input from the three-dimensional shape of the joint object represented by the interactive model given as input by the grip pattern estimation processing unit. A grip pattern estimation process is performed.
Specifically, the grip pattern estimation processing unit is based on the interactive model, as shown in FIG. 9, 1) First, the angle between the contact surface Lcp and the base surface through the contact plane (Contact Plane) Lcp of the joint object An Opposition Vector existing on the axis of symmetry (Base Plane) with the same angle is obtained.
2)次に、把持パターン推定処理部は、求めたOpposition Vectorを3つの把持パターンで把持可能か否か、解剖学的知見に基づく人間の特性データに基づいて、判定を行う。
把持パターン推定処理部は、人間特性データのうち、人の手によるPad、Palm、Sideの3つの把持パターンを仮想空間で再現するためのデータを用いて、インタラクティブモデルのサーフェス形状Osで表現される関節物体を、仮想空間上で実際に各把持パターンで把持させ、各把持パターンで関節物体を把持できるか否かによって、把持パターンを推定する。
2) Next, the gripping pattern estimation processing unit determines whether or not the obtained Opposition Vector can be gripped with three gripping patterns based on human characteristic data based on anatomical knowledge.
The gripping pattern estimation processing unit is represented by the surface shape Os of the interactive model using data for reproducing three gripping patterns of Pad, Palm, and Side by human hand in the virtual space among the human characteristic data. The joint object is actually gripped by each gripping pattern in the virtual space, and the gripping pattern is estimated depending on whether or not the joint object can be gripped by each gripping pattern.
具体的には、図10に示すように、人間の手は、以下の解剖学的知見によって手の関節角度が制約されている[Noriko Kamakura: ”手のかたち 手の動き”, 医歯薬出版, 1989.]。つまり、手の人差し指の関節(第1関節)Dipにおける動作角度θdip、第2関節Pipにおける動作角度θpip、第3関節Mcpにおける動作角度θmcpは、次の(1)(2)式によって制約される。
0°≦ θmcp ≦ 90° (1)
θdip = 2/3θpip (2)
Specifically, as shown in FIG. 10, the joint angle of the human hand is restricted by the following anatomical findings [Noriko Kamakura: “Shape of the hand, movement of the hand”, Medical and Dental Publishing , 1989.]. That is, the motion angle θdip at the joint (first joint) Dip of the index finger of the hand, the motion angle θpip at the second joint Pip, and the motion angle θmcp at the third joint Mcp are restricted by the following equations (1) and (2). .
0 ° ≦ θmcp ≦ 90 ° (1)
θdip = 2 / 3θpip (2)
人の手によるPad、Palm、Sideの3つの把持パターンを仮想空間で再現するためのデータは、VHT社製サイバーグローブに付属しているライブラリの手のモデル(22個の関節を持つ) から3つの把持パターンにおける22個の関節の角度を得たものである。
把持パターン推定処理部は、このデータに基づいて、仮想空間上で、上式(1)(2)の解剖学的知見に従って各関節の角度を変化させて、物体を把持させたときに、Pad、Palm、Sideの3つの把持パターンの形状が形成できるか否かで、把持パターンを判定する。
なお、手と関節物体の相対位置は、手のPalm(手のひら)平面と関節物体の対象面Ospとか垂直もしくは、平行になる面を初期位置とした。
Data for reproducing the three grip patterns of Pad, Palm, and Side in the virtual space in the virtual space is based on the model of the hand of the library (with 22 joints) attached to the VHT Cyber Glove. The angles of 22 joints in one grip pattern are obtained.
Based on this data, the gripping pattern estimation processing unit changes the angle of each joint according to the anatomical knowledge of the above formulas (1) and (2) in the virtual space, and when the object is gripped, , Palm, and Side, the grip pattern is determined based on whether or not the shapes of the three grip patterns can be formed.
Note that the relative position between the hand and the joint object is set to the initial position of a plane that is perpendicular or parallel to the palm (palm) plane of the hand and the target surface Osp of the joint object.
具体的には、
(1)Pad Oppositionの判定:a)手のthumb(親指)の第1関節Dip(親指の最先側の関節)が関節物体の支持平面Lbpと接触可能か、b)手のindex(人指し指)の第1関節Dip(人指し指の最先側の関節)が関節物体の接触平面Lcpと接触可能か否かを判定する。a)b)が共に可能であれば把持可能である。
(2)Palm Opposition:a)手のPalm(手のひら)が関節物体の接触平面Lcpと接触可能か、b)手の親指以外の指の第2関節Pip又は第1関節Dipが関節物体の支持平面Lbpと接触可能か否かを判定する。a)b)が共に可能であれば把持可能である。
(3)Side Opposition:a)手の親指以外の第1関節Dipが関節物体の接触平面Lcpと接触可能か、b)手の人指し指の第2関節Pipと関節物体の支持平面Lbpが接触可能か否かを判定する。a)b)が共に可能であれば把持可能である。
In particular,
(1) Determination of Pad Opposition: a) Whether the first joint Dip of the hand (thumb) can contact the support plane Lbp of the joint object, or b) Index of the hand (index finger) It is determined whether or not the first joint Dip (the foremost joint of the index finger) can contact the contact plane Lcp of the joint object. If both a) and b) are possible, they can be gripped.
(2) Palm Opposition: a) The palm of the hand can contact the contact plane Lcp of the joint object, b) The second joint Pip of the finger other than the thumb of the hand or the first joint Dip is the support plane of the joint object It is determined whether or not contact with Lbp is possible. If both a) and b) are possible, they can be gripped.
(3) Side Opposition: a) Whether the first joint Dip other than the thumb of the hand can contact the contact plane Lcp of the joint object, b) Whether the second joint Pip of the index finger of the hand and the support plane Lbp of the joint object can contact Determine whether or not. If both a) and b) are possible, they can be gripped.
以上の拘束を基に、把持パターン推定処理部は、関節物体の対称面Ospの垂直方向の2方向及び平行方向の2方向の計4方向から可能な把持パターンを推定する。 Based on the above constraints, the gripping pattern estimation processing unit estimates possible gripping patterns from a total of four directions: two directions in the vertical direction and two directions in the parallel direction of the symmetry plane Osp of the joint object.
[3.3 把持力推定処理]
仮想空間シミュレータの把持力推定処理部は、把持パターンごとの把持力データを有しており、この把持力データに基づき、把持パターン推定処理部によって推定された把持パターンにおける把持力を算出する処理を行う。
把持力データは、臨床的な手の機能評価のために行われた把持パターンの把持力の測定結果を使用した[Virgil Mathiowetz, MS, OTR, Nancy Kashman, OTR, Gloria Volland, OTR, Karen Weber, OTR, Mary Dowe, OTS, Sandra Rogers, OTS: Grip and Pinch Strength : Normative Data for Adults, American Occupational Therapy Foundation, 1984.]。 左記の研究では、健常者310 人の把持力データを測定しており、3つの把持パターンに対し、20〜24 才、25〜29 才、30〜34 才、35〜39 才、40〜44 才、45〜49 才、50〜54才、55〜59 才、60〜64 才、65〜69 才、70〜74 才、75 才以上の男女、左右手の計144 種類の平均値、標準偏差値が測定されている。
図11は、例として、PalmOpositionにおける把持力データを示す。ここでは、把持力の平均値から±標準偏差値(±SD)の範囲を把持力範囲であると定義した。この把持力データによって、把持力推定処理部は、把持パターンと、主体の属性(性別、年齢)とが与えられると、把持力(把持力範囲)を推定することができる。
なお、これらの知見により、女性、高齢者に使い易い機能を推定できるだけでなく、機能に適した物体(道具) が推定可能となる。
[3.3 Gripping force estimation processing]
The gripping force estimation processing unit of the virtual space simulator has gripping force data for each gripping pattern. Based on this gripping force data, the gripping force estimation processing unit calculates the gripping force in the gripping pattern estimated by the gripping pattern estimation processing unit. Do.
Gripping force data were measured using gripping force measurement results for clinical hand function evaluation [Virgil Mathiowetz, MS, OTR, Nancy Kashman, OTR, Gloria Volland, OTR, Karen Weber, OTR, Mary Dowe, OTS, Sandra Rogers, OTS: Grip and Pinch Strength: Normative Data for Adults, American Occupational Therapy Foundation, 1984.]. In the study on the left, gripping force data of 310 healthy people was measured, and 20 to 24 years old, 25 to 29 years old, 30 to 34 years old, 35 to 39 years old, and 40 to 44 years old for three holding patterns. , 45-49 years old, 50-54 years old, 55-59 years old, 60-64 years old, 65-69 years old, 70-74 years old, males and females over 75 years old, a total of 144 types of average values and standard deviation values of left and right hands It has been measured.
FIG. 11 shows gripping force data in PalmOposition as an example. Here, the range of ± standard deviation value (± SD) from the average value of the gripping force was defined as the gripping force range. With this gripping force data, the gripping force estimation processing unit can estimate the gripping force (griping force range) when the gripping pattern and the attributes of the subject (gender, age) are given.
With these findings, it is possible not only to estimate functions that are easy to use for women and the elderly, but also to estimate objects (tools) suitable for the functions.
なお、図11のSDは、標準偏差を表し、平均値から標準偏差を引いた値をSD−で表し、平均値に標準偏差を加えた値をSD+と表している。また、Minは最低値、Maxは最高値を表す。 11 represents standard deviation, a value obtained by subtracting the standard deviation from the average value is represented by SD−, and a value obtained by adding the standard deviation to the average value is represented by SD +. Min represents the lowest value, and Max represents the highest value.
[3.5 Step4 作用力計算処理]
仮想空間シミュレータの作用力計算処理部は、関節物体のインタラクティブモデルのテコ構造(Lever)に関するデータ(テコの力点、作用点、支点など)に基づき、把持力推定処理部で求めた把持力(把持力範囲)から、作用対象に加わる力である作用力(作用力範囲)を求める。
具体的には、関節物体の力学構造モデル(インタラクティブモデル)の力点Fcp、作用点Lip、支点Lfから、作用対象に加わる絶対的な力、作用力Fac(φ) を計算する。図12左に示すように、把持力をFag、作用対象を挟まない状態での関節物体の反力をFs(φ)、支点・作用点距離をDac、支点・力点の距離をDagとおくと、作用力Fac(φ)は、
Fac(φ) =(Fag−Fs(φ))×Dag/Dac (3)
より求めることができる。
一方、上式によって作用力が計算できない場合がある。それは、図12右に示すように、洗濯バサミや紙バサミ等の関節物体で、主体の力が直接作用対象に作用せず、ばねのエネルギーとして貯えられる場合である。その場合の作用力Fac(φ) は、
Fac(φ)=Fs(φ)×Ds/Dac (4)
より求める。ここで、把持力Fagは、Step3より求め、一定の値と仮定している。
[3.5 Step4 action force calculation processing]
The action force calculation processing unit of the virtual space simulator is based on the data related to the lever structure (Lever) of the interactive model of the joint object (the lever's force point, action point, fulcrum, etc.). From the force range), an action force (action force range) that is a force applied to the action target is obtained.
Specifically, the absolute force, acting force Fac (φ) applied to the acting object is calculated from the force point Fcp, the acting point Lip, and the fulcrum Lf of the mechanical structure model (interactive model) of the joint object. As shown on the left side of FIG. 12, if the gripping force is Fag, the reaction force of the joint object in a state where the action target is not sandwiched is Fs (φ), the fulcrum / action point distance is Dac, and the fulcrum / force point distance is Dag. The acting force Fac (φ) is
Fac (φ) = (Fag−Fs (φ)) × Dag / Dac (3)
It can be obtained more.
On the other hand, the acting force may not be calculated by the above equation. This is a case where the main force does not act directly on the target of action and is stored as spring energy in a joint object such as a clothes pin or a paper pin as shown on the right in FIG. In this case, the acting force Fac (φ) is
Fac (φ) = Fs (φ) × Ds / Dac (4)
Ask more. Here, the gripping force Fag is obtained from Step 3 and is assumed to be a constant value.
[3.5 Step4 作用応力計算処理]
仮想空間シミュレータの作用応力計算処理部は、関節物体のインタラクティブモデルの接触面積Liaデータに基づき、Step3で求めた作用力に基づき、作用対象に加わる作用応力(作用応力範囲)を求める。
ここで応力とは、ある点を微小立方体と考えた場合に、各面に働く単位面積あたりの力[Mpa] である。図13に一般的な応力・ひずみ曲線を示す。σeは降伏点を、σbは極限応力を表す。降伏点に到るまでの変形は、弾性変形である。降伏点を超えてさらに荷重を増加すると塑性変形が始まる。応力は、極限応力で最大になり、その後は自然に破断点に向かう。この極限応力を引張強さと呼び、材料の強さを表す尺度として用いることが多い。
関節物体が作用対象に加える応力、つまり、作用応力Fsは、
Fs=作用力/接触面積=Fac/Lia
により求めことができる。
[3.5 Step4 action stress calculation processing]
Based on the contact area Lia data of the interactive model of the joint object, the action stress calculation processing unit of the virtual space simulator obtains the action stress (action stress range) applied to the action target based on the action force obtained in Step 3.
Here, the stress is a force [Mpa] per unit area acting on each surface when a certain point is considered as a microcube. FIG. 13 shows a general stress / strain curve. σe represents the yield point and σb represents the ultimate stress. The deformation until reaching the yield point is elastic deformation. When the load is further increased beyond the yield point, plastic deformation begins. The stress becomes maximum at the ultimate stress, and then naturally goes to the breaking point. This ultimate stress is called tensile strength and is often used as a measure of the strength of the material.
The stress that the joint object applies to the acting object, that is, the acting stress Fs is:
Fs = acting force / contact area = Fac / Lia
Can be obtained.
[3.6 Step5 力学的機能推定処理]
仮想空間シミュレータの力学的機能推定処理部は、Step4で求めた作用応力(作用応力範囲)と、入力によって与えられた作用対象データに含まれる物理特性データ(図13参照)とから、物体の力学的機能を推定する処理を行う。
ここで我々は、物理特性が既知である作用対象の変形に応じて物体が持つ力学的機能を以下のように定義した。
・弾性変形(作用応力が降伏点より小さい)…掴む
・塑性変形(作用応力が降伏点以上極限応力以下)…潰す
・極限応力を超えた変形(作用応力極限応力以上)…壊す
ここで、弾性状態は、作用対象に力を加えて変形させた後、力を解放したらまた元の姿に完全に復元する状態をいう。一方、塑性状態は、力を解放しても元の姿に復元せず、歪んだままの状態をいう。例えば、ハサミの場合の作用対象を”切る”という機能、穴あ
けパンチの”穴を開ける”という機能は、”壊す”に分類される.
[3.6 Step 5 Mechanical Function Estimation Process]
The dynamic function estimation processing unit of the virtual space simulator uses the action stress (action stress range) obtained in Step 4 and the physical property data (see FIG. 13) included in the action target data given by the input. Performs processing to estimate the functional function.
Here, we defined the mechanical function of an object according to the deformation of the target whose physical properties are known as follows.
・ Elastic deformation (working stress is smaller than the yield point): Grabbing ・ Plastic deformation (working stress is above the yield point and below the ultimate stress)… Crushing ・ Deformation exceeding the ultimate stress (above the working stress and the ultimate stress)… breaking Here, elasticity A state refers to a state in which a force is applied to a target to be deformed and then restored to its original form when the force is released. On the other hand, the plastic state means a state in which the original shape is not restored even when the force is released, but remains distorted. For example, the function of `` cutting '' the action target in the case of scissors and the function of `` punching a hole '' of a punching punch are classified as `` breaking ''.
作用対象データに含まれる物理特性データは、例えば、図13のように表され、作用対象への応力と、「掴む」「潰す」「壊す」という3つの力学的機能とを関連付けたデータである。
ある作用対象の物理特性とStep4で求めた作用応力の範囲が図13のように表されるとき、求めた作用応力の範囲は、(1)掴む機能と(2)潰す機能に跨っていることが判る。つまり、ある作用対象に対し、求まった作用応力の範囲によって、“掴む”と“潰す”の2つの力学的機能が推定される。なお、図12では、“掴む”ほうが“潰す”よりも範囲が広いため、“掴む”方が物体の機能としてもっともらしいことがわかる。
なお、機能推定は、入力された関節物体モデル1つに対して、3種類の把持パターンと3種類の機能との組み合わせ、つまり、9種類に対して行われる。
The physical property data included in the action target data is, for example, as shown in FIG. 13 and is data that associates stress on the action target with three mechanical functions of “grab”, “crush”, and “break”. .
When the physical characteristics of a certain target and the range of the working stress obtained in Step 4 are expressed as shown in FIG. 13, the obtained working stress range spans (1) the gripping function and (2) the crushing function. I understand. That is, two dynamic functions of “grabbing” and “smashing” are estimated for a certain target depending on the range of the applied stress obtained. In FIG. 12, since “grabbing” has a wider range than “crushing”, it can be seen that “grabbing” is more likely as a function of the object.
Note that the function estimation is performed for a combination of three types of grip patterns and three types of functions, that is, nine types for one input joint object model.
[3.7 主機能推定処理部]
仮想空間シミュレータの主機能推定処理部は、所定の方法によって機能に評価値を与え、最も評価値の高いものを主機能として求める。
我々は、1)持ち易さ、2)作用効率性、3)機能達成し易さの3点を数値化し評価値として与え、評価値の高さに従って優先度をつけ、最も評価値が高いものを主機能とした。関節物体の持ち易さの評価値をP1、使い易さの評価値をP2、機能達成し易さをP3 と置く。
[3.7 Main function estimation processing unit]
The main function estimation processing unit of the virtual space simulator gives an evaluation value to the function by a predetermined method, and obtains the one having the highest evaluation value as the main function.
We numerically give three points: 1) ease of holding, 2) efficiency of operation, and 3) ease of achieving the function, giving priority as the evaluation value, giving priority to the highest evaluation value Is the main function. Assume that the evaluation value of the ease of holding the joint object is P1, the evaluation value of the ease of use is P2, and the ease of achieving the function is P3.
1)持ち易さの評価P1
関節物体を把持する時の持ち易さは、握り易さと置き換えることが可能である。人間工学の分野において、物体の握りやすさを評価する研究が行われている[笠井紀宏,堀井健,小谷賢太郎: ”摘み動作における対象幅と安定把持力の関係”: 平成11 年度日本人間工学会関西支部大会講演論文集,pp.175-178,1999.]。
図14に示すように、PadOppositionにおけるNOD(NaturalOppositionDistance) は、20〜25mmが最も握りやすいと判断されている。NDOとは、屈筋と伸筋の活動がなく、自然な状態のOppositionVectorの長さと定義される。我々は、図14に示すグラフを正規分布にフィッティング
し、20〜25のときに評価値P1 の最大値1を与えた。評価値P1は、σ 離れるごとに、0.625、0.08と0に近づいていく。σ は、NODの標準偏差値である。
1) Ease of evaluation P1
Ease of holding when the joint object is gripped can be replaced with ease of gripping. In the field of ergonomics, research is being conducted to evaluate the ease of grasping an object [Norihiro Kasai, Ken Horii, Kentaro Kotani: "Relationship between target width and stable gripping force in picking motion": 1999 Japan Human Engineering Proceedings of the Kansai Branch Conference, pp.175-178, 1999.].
As shown in FIG. 14, NOD (Natural Opposition Distance) NOD in Pad Opposition is determined to be most easily gripped at 20 to 25 mm. NDO is defined as the length of the OppositionVector in a natural state without flexor and extensor activity. We fit the graph shown in FIG. 14 to a normal distribution, and gave a maximum value 1 of the evaluation value P1 at 20-25. The evaluation value P1 approaches 0.625, 0.08, and 0 every time σ 2 leaves. σ is the standard deviation value of NOD.
2)作用効率性P2
作用効率性とは、主体が加えた力(把持力) がどれだけ効率よく作用対象に加わっているかを表す。図15に示すように、把持力をFag、主体への反力をFagr(φ) とすると、作用効率性P2は、(主体への反力Fagr(φ))/(主体の把持力Fag)で算出される。
そして、主体への反力Farg(φ)は、関節物体に内蔵されたバネ等による主体への反力Fs(φ)(図15左) と作用対象のみからの反力Fac(φ)(図15右) から成る。支点と力点(Fag) の距離をDag、支点と作用点(Fag) の距離をDacとおくと、力点においての作用対象から主体への反力は、( Dac/Dag)×Fac(φ) とおける。 したがってP2は、
P2=主体への反力/主体の把持力
=Fagr(φ)/Fag
=(Fs(φ)+( Dac/Dag)×Fac(φ))/Fag (6)
として求めることができる。
評価値P2は、最大値が1であり、1に近づくほど主体が加えた力(把持力) が効率よく作用対象に力が作用されていることを示す。
2) Action efficiency P2
The action efficiency represents how efficiently the force (gripping force) applied by the subject is applied to the action target. As shown in FIG. 15, when the gripping force is Fag and the reaction force to the main body is Fagr (φ), the action efficiency P2 is (reaction force Fagr (φ) to the main body) / (main body gripping force Fag). Is calculated by
Then, the reaction force Far (φ) to the main body is divided into a reaction force Fs (φ) (FIG. 15 left) to the main body by a spring or the like built in the joint object and a reaction force Fac (φ) (FIG. 15 only). 15 right). Assuming that the distance between the fulcrum and the force point (Fag) is Dag and the distance between the fulcrum and the action point (Fag) is Dac, the reaction force from the acting object to the subject at the force point is (Dac / Dag) × Fac (φ) and I can. Therefore, P2 is
P2 = reaction force on the subject / gripping force on the subject = Fagr (φ) / Fag
= (Fs (φ) + (Dac / Dag) × Fac (φ)) / Fag (6)
Can be obtained as
The evaluation value P2 has a maximum value of 1 and indicates that the force (gripping force) applied by the subject as the value approaches 1 is efficiently applied to the target.
3)機能達成のし易さP3
人間が道具を用いる時、幅広い力範囲で、ある機能を達成する道具は扱いやすい。それは、幅の狭い力範囲で機能を達成する道具は、機能を達成するまで調節に時間が掛かったり、機能させることに失敗したりするからである。そこで、我々はStep6で求めた作用対象に加わる応力の範囲のうち、機能を達成する範囲をより多く含んでいるものの優先度を高くした。例えば、図16に示すように、作用対象に加わる応力の範囲をS、機能“掴む”の範囲をs1、機能“潰す”の範囲をs2と置くと、Sに対するs1とSに対するs2の割合を比較すると、Sに対するs1の割合が大きいことから、“掴む”機能の優先度が高くなる。図16において、“掴む”機能の評価値P3は、
P3=s1/S (7)
により求める。
主機能推定処理部では、以上より求めた評価値P1,P2,P3を用いて総合評価値P を求める。我々は、評価値P1,P2,P3全ての積が総合評価値であると考える。全ての評価値P1,P2,P3 に1が与えられているとすれば、総合評価値が1となり、機能を達成する道具として十分な性能を有していることになる。もし、P3(機能達成しやすさ) の値が1であっても、P1(持ち易さ評価値) が0であれば機能を達成する道具とはいえない。また、P3,P2が逆の場合もそうである。したがって、評価値はP1,P2,P3個別の和ではなく積であるといえる。
したがって、主機能推定処理部は、総合評価値Pを、
P=P1×P2×P3 (8)
として算出する。
3) Ease of function achievement P3
When humans use tools, tools that achieve a certain function within a wide range of power are easy to handle. This is because a tool that achieves a function in a narrow force range takes time to adjust or fails to function until the function is achieved. Therefore, we increased the priority of the range of stress applied to the target of action obtained in Step 6 that includes more ranges that achieve the function. For example, as shown in FIG. 16, if the range of the stress applied to the action target is S, the range of the function “grab” is s1, and the range of the function “crush” is s2, the ratio of s1 to S and s2 to S is In comparison, since the ratio of s1 to S is large, the priority of the “grab” function is high. In FIG. 16, the evaluation value P3 of the “grab” function is
P3 = s1 / S (7)
Ask for.
The main function estimation processing unit obtains the overall evaluation value P 1 using the evaluation values P1, P2, and P3 obtained from the above. We consider that the product of all the evaluation values P1, P2 and P3 is a comprehensive evaluation value. If 1 is given to all the evaluation values P1, P2, and P3, the total evaluation value is 1, and the performance is sufficient as a tool for achieving the function. Even if the value of P3 (ease of achieving the function) is 1, if P1 (ease of holding evaluation) is 0, it cannot be said that the tool achieves the function. This is also the case when P3 and P2 are reversed. Therefore, it can be said that the evaluation value is not a sum of P1, P2 and P3 but a product.
Therefore, the main function estimation processing unit calculates the comprehensive evaluation value P as
P = P1 × P2 × P3 (8)
Calculate as
[実施例]
[4.機能推定シミュレーション実験]
[4.1 実験環境]
本システムは、Windows2000(商標)マシン(CPU:Intel Pentium(商標)3.06GHz) を使用し、シミュレーションの衝突及び位置等の検出は、Virtual tecnologies社のCyberGloveに付属された付属ライブラリを使用した。
[4.2 実験結果]
ハプティックビジョンシステムによって獲得された関節物体の3 次元インタラクティブモデルを用いて、力学的機能“掴む”、“潰す”、“壊す”の機能テストを行う、リアリティベースシミュレーションを行った。関節物体は、1)手の代用、2)手の資質・機能を拡張、3)新たな機能を付加したものの3タイプについて実験を行った。
・手の代用…洗濯バサミ(小)(大)、紙バサミ(小)(大)
・手の資質・機能の拡張…ピンセット(小)(大)、トング(小)(大)、ペンチ
・新たな機能を付加したもの…穴あけパンチ、ハサミ
[Example]
[4. Function estimation simulation experiment]
[4.1 Experimental environment]
This system used a Windows 2000 (trademark) machine (CPU: Intel Pentium (trademark) 3.06 GHz), and the collision and position of the simulation were detected using an attached library attached to CyberGlove of Virtual technologies.
[4.2 Experimental results]
Using a 3D interactive model of the joint object acquired by the haptic vision system, a reality-based simulation was performed to test the functions of the mechanical functions "grab", "crush", and "break". Three types of joint objects were tested: 1) hand substitute, 2) hand qualities and functions expanded, and 3) new functions added.
・ Hand substitute: Laundry scissors (small) (large), paper scissors (small) (large)
・ Expansion of hand qualities and functions: tweezers (small) (large), tongs (small) (large), pliers ・ Addition of new functions: hole punch, scissors
仮想空間シミュレータに対し、1)物体データとして上記各関節物体の3次元インタラクティブモデル、2)作用対象データとして作用対象のひずみと応力特性、3)主体データとして、主体の性別、年齢、利き手、の情報を入力し、主機能を推定した。
機能は、PadOpposition、PalmOpposition、SideOppositionの把持パターンに対し、それぞれ“掴む”、“潰す”、“壊す”の3種類が存在するため、3×3の計9種類に対して機能推定が行われる。実験結果の一部を図17,18,19に示す。ここで、性別は男性、年齢は20〜25才、利き手は右手を、作用対象である紙の降伏応力は5.5〜6[MPa]、布を20〜23[MPa] 、針金や鉄板の降伏応力を400〜420[MPa] とした。図17,18,19の左下部は関節物体のインタラクティブモデル、上部は主機能推定のためのシミュレーションシーン、右下部は把持パターンと機能(計9種類) に対する総合評価値を表す。
For the virtual space simulator, 1) the three-dimensional interactive model of each joint object as object data, 2) the strain and stress characteristics of the action target as the action target data, and 3) the gender, age, dominant hand of the subject as the subject data. Information was input and main functions were estimated.
There are three types of functions, “grab”, “crush”, and “break”, for the grip patterns of Pad Opposition, Palm Opposition, and Side Opposition, respectively, and therefore function estimation is performed for a total of nine types of 3 × 3. Some of the experimental results are shown in FIGS. Here, the sex is male, the age is 20 to 25 years, the dominant hand is the right hand, the yield stress of the paper to be acted is 5.5 to 6 [MPa], the cloth is 20 to 23 [MPa], the wire or iron plate The yield stress was 400 to 420 [MPa]. 17, 18 and 19, the lower left part represents an interactive model of a joint object, the upper part represents a simulation scene for main function estimation, and the lower right part represents comprehensive evaluation values for grip patterns and functions (total of nine types).
図17に示すように、洗濯バサミ(小) と作用対象(紙) に対してのシミュレーションは、全ての把持パターンに対し、作用対象(紙) が弾性状態であったため、全ての把持パターンに対し、“掴む”機能があると推定された。その中でPadOppositionの”掴む”(図18上部) が最も評価値が高くなり、主機能と推定された。洗濯バサミ(小) と作用対象(布) に対してのシミュレーション結果も作用対象(紙) と同様の結果であった。他の評価値が0となったのは、評価値P3が0となったためである。 As shown in FIG. 17, the simulation for the clothespin (small) and the action target (paper) is in the elastic state with respect to all the grip patterns. It was estimated that there was a “grab” function. Among them, “grabbing” of the Pad Opposition (upper part of FIG. 18) has the highest evaluation value, and is estimated to be the main function. The simulation results for the clothespin (small) and the action target (cloth) were the same as those of the action target (paper). The other evaluation values are 0 because the evaluation value P3 is 0.
図18に示すように、関節物体ペンチと作用対象(針金) に対して、PadOppositionは、”掴む”機能、PalmOppositionは、“掴む”,“潰す”,“壊す”全ての機能、SideOpoositionは、“掴む”機能があると推定された。そのなかでSideOppositionの”つかむ”(図18上部) が最も評価値が高くなり、主機能と推定された。他の評価値が0となったのは、評価値P3 が0となったためである。 As shown in FIG. 18, for a joint object pliers and an action target (wire), the PadOpposition function is “grab”, the PalmOpposition is “grab”, “crush”, and “break” all functions, and SideOpoition is “ Presumed to have a “grab” function. Among them, “grabbing” of SideOpposition (upper part of FIG. 18) has the highest evaluation value and is estimated to be the main function. The other evaluation values are 0 because the evaluation value P3 is 0.
図19に示すように、関節物体穴あけパンチと作用対象(紙) に対して、すべての把持パターンが”壊す”機能があると推定された。そのなかでSideOpposition の“壊す”(図19上部) が最も評価値が高くなり、主機能と推定された。また、作用対象(鉄板)に対して、PadOppositionは“掴む”機能が、PalmOppositionは“壊す”機能が、SideOppositionは”掴む”機能があると推定された。そのなかでSideOppositionの“掴む”(図19上部)が最も評価値が高くなり、主機能と推定された。他の評価値が0となったのは、評価値P3が0となったためである。 As shown in FIG. 19, it was estimated that all the grip patterns had a function of “breaking” with respect to the joint object drilling punch and the action target (paper). Among them, “destruct” of SideOpposition (upper part of FIG. 19) has the highest evaluation value and is estimated to be the main function. In addition, it was estimated that, for an action target (iron plate), PadOpposition has a “grab” function, PalmOpposition has a “break” function, and SideOpposition has a “grab” function. Among them, “Grabbing” of SideOpposition (upper part of FIG. 19) had the highest evaluation value and was estimated to be the main function. The other evaluation values are 0 because the evaluation value P3 is 0.
[4.3 検証実験]
推定された主機能が妥当であるかを被験者の主観評価値と比較した. 被験者は、年齢20〜25才、男25、女5人の計30 人である. 検証実験方法はまず、1)シミュレーションの実験と同一の実関節物体と、2) 同一の応力・ひずみ特性を持つ作用対象を被験者に提示し、被験者はA) 把持パターン、B)推定される機能の順位付けと優先度、3)可能な力学的機能(掴む、潰す、壊す) とその機能により達成される用途を選択する。
図20にシミュレーション実験結果と検証結果の比較を示す。
Analysis by Reality−Based Simulationによる推定結果と主観評価結果は、88.0%(全体で26種類の実験) 一致した。しかし、図20のピンセット(小)−紙、ペンチ−針金、穴あけパンチ−鉄板に見られるように、主機能が一致していないものがある。ピンセット(小) −紙の場合、シミュレーション結果は、PadOppositionの“掴む”が主機能と推定され、一方、主観評価実験において、SideOppositionの“掴む”が主機能と推定された。シミュレーションでは、すべての把持パターンに対して“掴む”機能が存在すると推定されたが、評価値計算の際、より少ない力で効率的に作用する機能が優先されるため、PadOppositionの”掴む”が主機能と推定された。
[4.3 Verification experiment]
The estimated main function was compared with the subject's subjective evaluation value. The total number of subjects was 20 to 25 years old, 25 males and 5 females. The same joint object as in the simulation experiment, and 2) the subject of action having the same stress / strain characteristics are presented to the subject, who is A) the grip pattern, B) the ranking and priority of the estimated functions, 3 ) Select possible mechanical functions (grabbing, crushing, breaking) and the application achieved by that function.
FIG. 20 shows a comparison between simulation experiment results and verification results.
The result of estimation by Analysis by Reality-Based Simulation and the result of subjective evaluation agreed with 88.0% (26 experiments in total). However, as seen in the tweezers (small) -paper, pliers-wire, punching punch-iron plate of FIG. In the case of tweezers (small) -paper, the simulation result was estimated to be “grabbing” of PadOpposition as the main function, while in the subjective evaluation experiment, “grabbing” of SideOpposition was estimated as the main function. In the simulation, it is estimated that there is a “grab” function for all grip patterns. However, when calculating an evaluation value, priority is given to a function that operates efficiently with less force. Presumed to be the main function.
ペンチ− 針金の場合、シミュレーション結果は、SideOppositionの“掴む”が主機能と推定され、一方。主観評価実験はPalmOppositionの“潰す”が主機能と推定された。
シミュレーション結果では、PalmOppositionの“潰す”機能が存在すると推定されている。しかし、シミュレーションにおける主機能評価では、より少ない力で効率的に作用対象に作用する機能が優先されるため、SideOppositionの”つかむ”と推定された。
In the case of a pliers-wire, the simulation result is presumed that the main function is “grab” of SideOpposition. In the subjective evaluation experiment, it was estimated that “crush” of Palm Opposition was the main function.
From the simulation results, it is estimated that there is a “collapse” function of PalmOpposition. However, in the main function evaluation in the simulation, it is estimated that the function that effectively acts on the operation target with less force is prioritized, so that it is “grabbed” of SideOpposition.
穴開けパンチ−鉄板の場合、シミュレーション結果は、SideOppositionの“掴む”が主機能と推定され、一方、主観評価実験はPalmOppositionの“壊す”が主機能と推定された。
被験者は、穴あけパンチを渡された時に、穴あけパンチは穴を開ける、つまり、”こわす”機能があると思い込んでおり、どのような把持であれば鉄板を“壊す”ことができるかと考え、主機能がPalmOppositionの“壊す”であると判断したと考えら
れる。シミュレーション結果では、PalmOppositionの“壊す”機能も存在すると推定されているが、シミュレーションにおいては、より少ない力で効率的に作用対象に作用する機能である、SideOppositionの“掴む”機能が優先されるため、シミュレーション結果と主観評価実験の結果が一致しなかったと考えられる。
In the case of punched punch-iron plate, the simulation result was estimated to be “gripping” of SideOpposition, while the subjective evaluation experiment was estimated to be “breaking” of PalmOpposition.
When the test subject was given a punch, the drilling punch assumed that the punch had a function of “breaking”, that is, the “breaking” function. It is thought that the function was determined to be “break” of PalmOpposition. In the simulation results, it is presumed that there is also a “breaking” function of PalmOpposition. However, in simulation, the “grabbing” function of SideOpposition, which is a function that acts on the target efficiently with less force, is given priority. It is considered that the simulation results and the results of the subjective evaluation experiment did not match.
[5.まとめ]
本実施形態では、Analysis by Reality−Based Simulationアプローチと呼ぶ、実世界に依拠したシミュレーション結果の解析に基づいて、ハサミのような機能を持つ関節物体の、(1)可能な力学的機能をすべて推定し、さらに、(2)主機能を呼ぶ最尤の力学的機能とその物体を把持する手の姿勢を、推定する方法を開示した。ハサミ、ペンチ、ピンセット等の7種類の関節物体の力学的機能を推定した実験結果を示し、30人の被験者による主観評価実験との比較から提案手法の有効性を検証した。
[5. Summary]
In this embodiment, based on analysis of simulation results based on the real world, called Analysis by Reality-Based Simulation approach, (1) all possible mechanical functions of joint objects with scissors-like functions are estimated. Furthermore, (2) a method for estimating the maximum likelihood mechanical function that calls the main function and the posture of the hand that holds the object has been disclosed. Experimental results of estimating the mechanical functions of seven types of joint objects such as scissors, pliers, tweezers, etc. are shown, and the effectiveness of the proposed method is verified by comparison with subjective evaluation experiments by 30 subjects.
なお、本発明は、上記実施形態に限定されるものではない。例えば、仮想空間シミュレータによって獲得される新たな知識は、物体の機能に限られるものではなく、物体の3次元形状などであってもよい。
例えば、物体データとして物体の機能を含むデータと、その機能の発揮対象である作用対象のデータと、それを使用する主体のデータが与えられたときに、当該主体が使いやすい(機能を発揮しやすい)物体の形状を推定してもよい。
つまり、同じ機能を生じる物体(道具)であっても、主体(大人、子供、老人)によって、使い易い形状は異なるため、仮想環境シミュレータによって、使い易い物体の形状を推定してもよい。
In addition, this invention is not limited to the said embodiment. For example, new knowledge acquired by the virtual space simulator is not limited to the function of the object, but may be the three-dimensional shape of the object.
For example, given object data that includes the function of an object, action target data that is the target of the function, and data of the subject that uses the function, the subject is easy to use (executes the function). (Easy) The shape of the object may be estimated.
In other words, even an object (tool) that produces the same function has a different shape that is easy to use depending on the subject (adult, child, elderly person), so the shape of the easy-to-use object may be estimated by a virtual environment simulator.
Claims (10)
1a)主体によって使用されるとともに作用対象への作用が可能な物体を、仮想空間で再現するために用いられる物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために用いられる作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データ、与えられた作用対象データ、及び与えられた主体データに基づいて、主体−物体−作用対象の相互作用を仮想空間シミュレータによってシミュレートするシミュレートステップ。
3)主体−物体―作用対象の相互作用のシミュレーション結果に基づいて、物体に関する新たな知識を獲得する知識獲得ステップ。 1) As a real world data that depends on the real world, a new knowledge about an object is automatically acquired by a reality-based simulation by a virtual space simulator that is operated with the following data 1a), 1b), and 1c). A method for automatically acquiring new knowledge about an object based on a reality-based simulation characterized by including the following steps 2) and 3).
1a) Object data used to reproduce in the virtual space an object that is used by the subject and that can act on the action target;
1b) Action target data used to reproduce an action target on which an object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) A simulation step of simulating a subject-object-action target interaction using a virtual space simulator based on the given subject data, the given subject data, and the given subject data.
3) A knowledge acquisition step for acquiring new knowledge about the object based on the simulation result of the interaction between the subject, the object, and the action target.
1a)主体によって使用されるとともに作用対象への作用が可能な物体を、仮想空間で再現するために用いられる物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために用いられる作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データ、与えられた作用対象データ、及び与えられた主体データに基づいて、主体−物体−作用対象の相互作用を仮想空間シミュレータによってシミュレートするシミュレート手段。
3)主体−物体―作用対象の相互作用のシミュレーション結果に基づいて、物体に関する新たな知識を獲得する知識獲得手段。 1) The following data 1a), 1b) and 1c) are given as real world data based on the real world, and in order to automatically acquire new knowledge about the object by reality-based simulation, the following 2) 3) A reality-based virtual space simulator characterized by comprising:
1a) Object data used to reproduce in the virtual space an object that is used by the subject and that can act on the action target;
1b) Action target data used to reproduce an action target on which an object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) Simulating means for simulating the subject-object-action target interaction by a virtual space simulator based on the given subject data, the given subject data, and the given subject data.
3) Knowledge acquisition means for acquiring new knowledge about the object based on the simulation result of the interaction between the subject, the object and the action target.
1a)主体によって使用されるとともに作用対象への作用が可能な物体が、作用対象に作用する様子をコンピュータによる仮想空間で再現するために、当該物体の3次元形状データ及び力学的データを含む物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために、作用対象の物理特性データを含む作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データで表される主体による、与えられた物体データで表される物体の把持状態を、仮想空間シミュレータによって推定する把持状態推定ステップ。
3)前記把持状態推定ステップで推定された把持状態において、物体が作用対象に与える力を仮想空間シミュレータによって計算する作用力計算ステップ。
4)前記作用力推定ステップで推定された作用力が、与えられた作用対象データで表される作用対象に作用することによって当該作用対象に生じ得る変化に基づいて物体の力学的機能を推定する機能推定ステップ。 1) A method for estimating a mechanical function of an object by a virtual space simulator which operates by being given the following data 1a), 1b) and 1c) as real world data based on the real world, and includes the following 2) 3) A method for estimating the mechanical function of an object, comprising the step of 4).
1a) An object including three-dimensional shape data and mechanical data of an object used by the subject and capable of acting on the action target in order to reproduce in a virtual space by a computer the action acting on the action target data;
1b) Action target data including physical property data of the action target in order to reproduce the action target on which the object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) A gripping state estimation step of estimating the gripping state of the object represented by the given object data by the subject represented by the given subject data using a virtual space simulator.
3) An action force calculation step of calculating a force applied by the object to the action target using the virtual space simulator in the grasp state estimated in the grasp state estimation step.
4) When the acting force estimated in the acting force estimation step acts on the acting target represented by the given acting target data, the mechanical function of the object is estimated based on a change that can occur in the acting target. Function estimation step.
1a)主体によって使用されるとともに作用対象への作用が可能な物体が、作用対象に作用する様子をコンピュータによる仮想空間で再現するために、当該物体の3次元形状データ及び力学的データを含む物体データ;
1b)物体が作用する作用対象を、コンピュータによる仮想空間で再現するために、作用対象の物理特性データを含む作用対象データ;
1c)物体を使用する主体の特性に関する主体データ;
2)与えられた主体データで表される主体による、与えられた物体データで表される物体の把持状態を、推定する把持状態推定手段。
3)前記把持状態推定手段で推定された把持状態において、物体が作用対象に与える力を計算する作用力計算手段。
4)前記作用力推定手段で推定された作用力が、与えられた作用対象データで表される作用対象に作用することによって当該作用対象に生じ得る変化に基づいて物体の力学的機能を推定する機能推定手段。 1) The following 1a), 1b) and 1c) data are given as real world data based on the real world, and the following means 2), 3) and 4) are included to estimate the mechanical function of the object. A virtual space simulator characterized by
1a) An object including three-dimensional shape data and mechanical data of an object used by the subject and capable of acting on the action target in order to reproduce in a virtual space by a computer the action acting on the action target data;
1b) Action target data including physical property data of the action target in order to reproduce the action target on which the object acts in a virtual space by a computer;
1c) Subject data relating to the characteristics of the subject using the object;
2) Grasping state estimation means for estimating the gripping state of the object represented by the given object data by the subject represented by the given subject data.
3) Action force calculation means for calculating the force exerted by the object on the action target in the grip state estimated by the grip state estimation means.
4) When the acting force estimated by the acting force estimation means acts on the acting target represented by the given acting target data, the mechanical function of the object is estimated based on a change that can occur in the acting target. Function estimation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005207784A JP2007026117A (en) | 2005-07-15 | 2005-07-15 | Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005207784A JP2007026117A (en) | 2005-07-15 | 2005-07-15 | Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007026117A true JP2007026117A (en) | 2007-02-01 |
Family
ID=37786777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005207784A Pending JP2007026117A (en) | 2005-07-15 | 2005-07-15 | Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007026117A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045385A (en) * | 2011-08-26 | 2013-03-04 | Tokyo Institute Of Technology | Holding posture generation device, holding posture generation method and holding posture generation program |
WO2017061173A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
WO2017061172A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
-
2005
- 2005-07-15 JP JP2005207784A patent/JP2007026117A/en active Pending
Non-Patent Citations (6)
Title |
---|
CSNG199900458009, 舟橋 健司 Kenji FUNAHASHI, "仮想空間における仮想手による道具操作のための知識とモデル Knowledge and Model for Manipulation Using", 日本バーチャルリアリティ学会論文誌 第3巻 第3号 Transactions of the Virtual Reality Society of J, 19980930, 第3巻 第3号, 167〜176頁, JP, 日本バーチャルリアリティ学会 The Virtual Reality * |
CSNG199901019009, 田中 弘美 H.T. Tanaka, "ハプティックインタフェース実現のための能動触覚 Toward Automatic Construction of Haptic−Interface ba", 情報処理学会研究報告 Vol.98 No.46 IPSJ SIG Notes, 19980528, 第98巻 第46号, 73〜80頁, JP, 社団法人情報処理学会 Information Processing Socie * |
CSNG200401456022, 大田 博義 Hiroyoshi Ota, "仮想空間シミュレーションによる関節物体の力学的機能推定 Analysis by simulation approach to inferring", 情報処理学会研究報告 Vol.2003 No.41 IPSJ SIG Technical Reports, 20030508, 第2003巻 第41号, 161〜168頁, JP, 社団法人情報処理学会 Information Processing Socie * |
JPN6010069140, 大田 博義 Hiroyoshi Ota, "仮想空間シミュレーションによる関節物体の力学的機能推定 Analysis by simulation approach to inferring", 情報処理学会研究報告 Vol.2003 No.41 IPSJ SIG Technical Reports, 20030508, 第2003巻 第41号, 161〜168頁, JP, 社団法人情報処理学会 Information Processing Socie * |
JPN6010069155, 田中 弘美 H.T. Tanaka, "ハプティックインタフェース実現のための能動触覚 Toward Automatic Construction of Haptic−Interface ba", 情報処理学会研究報告 Vol.98 No.46 IPSJ SIG Notes, 19980528, 第98巻 第46号, 73〜80頁, JP, 社団法人情報処理学会 Information Processing Socie * |
JPN6010069157, 舟橋 健司 Kenji FUNAHASHI, "仮想空間における仮想手による道具操作のための知識とモデル Knowledge and Model for Manipulation Using", 日本バーチャルリアリティ学会論文誌 第3巻 第3号 Transactions of the Virtual Reality Society of J, 19980930, 第3巻 第3号, 167〜176頁, JP, 日本バーチャルリアリティ学会 The Virtual Reality * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045385A (en) * | 2011-08-26 | 2013-03-04 | Tokyo Institute Of Technology | Holding posture generation device, holding posture generation method and holding posture generation program |
WO2017061173A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
WO2017061172A1 (en) * | 2015-10-05 | 2017-04-13 | アルプス電気株式会社 | Haptic reproduction device |
JPWO2017061172A1 (en) * | 2015-10-05 | 2018-06-28 | アルプス電気株式会社 | Tactile reproduction device |
JPWO2017061173A1 (en) * | 2015-10-05 | 2018-07-19 | アルプス電気株式会社 | Tactile reproduction device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miller et al. | From robotic hands to human hands: a visualization and simulation engine for grasping research | |
Chavan-Dafle et al. | Prehensile pushing: In-hand manipulation with push-primitives | |
Llop-Harillo et al. | The anthropomorphic hand assessment protocol (AHAP) | |
Gonzalez et al. | Analysis of hand contact areas and interaction capabilities during manipulation and exploration | |
Ciocarlie et al. | Grasp analysis using deformable fingers | |
Bernardino et al. | Precision grasp synergies for dexterous robotic hands | |
Jarque-Bou et al. | Using kinematic reduction for studying grasping postures. An application to power and precision grasp of cylinders | |
Knoop et al. | Handshakiness: Benchmarking for human-robot hand interactions | |
Praveena et al. | Characterizing input methods for human-to-robot demonstrations | |
Yun et al. | An instrumented glove for grasp specification in virtual-reality-based point-and-direct telerobotics | |
Wang et al. | Thumb configuration and performance evaluation for dexterous robotic hand design | |
Blaga et al. | Freehand grasping: An analysis of grasping for docking tasks in virtual reality | |
Munawar et al. | Towards a haptic feedback framework for multi-DOF robotic laparoscopic surgery platforms | |
JP2007026117A (en) | Automatic acquiring method for new knowledge regarding body based upon reality-based simulation, and reality-based virtual space simulator | |
Falcao et al. | Applications of haptic devices & virtual reality in consumer products usability evaluation | |
Kaljun et al. | Improving products’ ergonomic value using intelligent decision support system | |
Harih et al. | Optimal product’s hand-handle interface parameter identification | |
Chabrier et al. | Analysis of the directions in which forces are applied on the hand during manual manipulation and exploration | |
Gao et al. | Haptic perception evaluation for the virtual prototyping of elastic hand-held product designs: A method to simulate how hand-held products are felt during their daily usage is presented and the use of haptic technology is highlighted | |
Harih | Development of a tendon driven finger joint model using finite element method | |
Damsgaard et al. | Inverse dynamics of musculo-skeletal systems using an efficient min/max muscle recruitment model | |
Pouliquen et al. | Real-time finite element finger pinch grasp simulation | |
Oyarzabal et al. | Multi-finger haptic interface for collaborative tasks in virtual environments | |
Fu et al. | Motion/Posture modeling and simulation verification of physically handicapped in manufacturing system design | |
Kawaguchi et al. | Database-driven grasp synthesis and ergonomic assessment for handheld product design |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110405 |