JP2013182554A - Holding attitude generation device, holding attitude generation method and holding attitude generation program - Google Patents

Holding attitude generation device, holding attitude generation method and holding attitude generation program Download PDF

Info

Publication number
JP2013182554A
JP2013182554A JP2012047753A JP2012047753A JP2013182554A JP 2013182554 A JP2013182554 A JP 2013182554A JP 2012047753 A JP2012047753 A JP 2012047753A JP 2012047753 A JP2012047753 A JP 2012047753A JP 2013182554 A JP2013182554 A JP 2013182554A
Authority
JP
Japan
Prior art keywords
data
posture
hand
gripping
gripping posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012047753A
Other languages
Japanese (ja)
Inventor
Takeshi Saito
豪 齋藤
Fumihito Kyota
文人 京田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2012047753A priority Critical patent/JP2013182554A/en
Publication of JP2013182554A publication Critical patent/JP2013182554A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem of the conventional holding attitude generation methods in which a solution cannot be obtained, as a problem of inverse kinematics, unless end point positions of a hand, a finger and the like are correctly specified.SOLUTION: A holding attitude generation device 10 of the present invention includes: an input part 12 for inputting a shape of an object to be held; a hand holding attitude candidate generation part 13 for generating a holding attitude candidate being a candidate of a holding attitude of a hand corresponding to the input object; a part-except-hand attitude generation part 14 for obtaining an angle of each joint between a position of the holding attitude candidate and another position of a part, except hands, on a body; an attitude evaluation part 15 for evaluating the holding attitude candidate generated by the hand holding attitude candidate generation part 13, and the attitudes of the parts except hands generated by the part-except-hand attitude generation part 14, using one or more evaluation functions; and an output part 16 for outputting the attitudes of the hand and the parts except hands evaluated by the attitude evaluation part 15.

Description

本発明は、物体を把持した手の把持姿勢を含む身体上の部位の把持姿勢を生成する把持姿勢生成装置、把持姿勢生成方法及び把持姿勢生成プログラムに関する。   The present invention relates to a gripping posture generation device, a gripping posture generation method, and a gripping posture generation program that generate a gripping posture of a part on the body including a gripping posture of a hand that grips an object.

キャラクタアニメーションの自動生成やヒューマノイドロボットの動作生成等、さまざまな分野において、人間らしい姿勢を生成することが求められている。物体を手で把持する姿勢については、特に人間らしい姿態を示すものとして、さまざまな種類がある。また、手の把持姿勢では、把持対象の物体の形状や、その作業目的によって把持姿勢が使い分けられており、非常に複雑で多様な姿勢を示す。したがって、このような手の把持姿勢を含む上肢の姿勢を生成するということは、手の多様かつ複雑な把持姿勢に加えて、上肢の動きを考慮しなければならず、さらに複雑で多様な姿勢を生成しなければならないとの困難さがある。   In various fields, such as automatic generation of character animation and movement generation of humanoid robots, it is required to generate human-like postures. There are various types of postures for gripping an object with a hand, particularly those showing human-like postures. Further, in the hand gripping posture, the gripping posture is properly used depending on the shape of the object to be gripped and the work purpose, and the posture is very complicated and various. Therefore, generating the posture of the upper limb including such a gripping posture of the hand must consider the movement of the upper limb in addition to the various and complicated gripping postures of the hand, and more complicated and diverse postures. There is a difficulty that must be generated.

コンピュータグラフィクスにおいては、人体等の骨格モデルの構造は、剛体リンクが回転自由度をもった関節によって接続されたものとして扱われる。3次元空間における末端の自由度は、位置と方向を合わせて6自由度あるが、人体の関節自由度は、一般にそれよりも大きい。そのため、末端の位置が与えられた場合に各関節の関節角度を求める問題を扱う逆運動学では、冗長な自由度が存在するので、その解は一意的に求めることはできない。   In computer graphics, the structure of a skeletal model such as a human body is treated as a rigid link connected by a joint having a degree of freedom of rotation. The degree of freedom at the end in the three-dimensional space is 6 degrees of freedom in terms of position and direction, but the joint degree of freedom of the human body is generally larger than that. Therefore, in inverse kinematics that deals with the problem of obtaining the joint angle of each joint when the position of the end is given, there are redundant degrees of freedom, so the solution cannot be obtained uniquely.

そこで、関節角度を引数として姿勢の自然さを評価する関数を用いて、姿勢の最適化を行う手法が提案されている(たとえば、非特許文献1参照。)。   Therefore, a method for optimizing the posture using a function that evaluates the naturalness of the posture with the joint angle as an argument has been proposed (for example, see Non-Patent Document 1).

また、上肢を逆運動学の対象とした場合の方法として次のような方法が提案されている。すなわち、肩の関節が3自由度であり、肘の関節が2自由度であり、手首の関節が2自由度であるので、上肢における関節の自由度の合計は7である。このため、手首の関節の位置と肩の関節の位置を固定すると、肘の関節の位置は、円を描くように旋回させることができるので、このときの角度である旋回角度を与えることによって解析的に逆運動学を解くことができるというものである(たとえば、非特許文献2参照。)。   In addition, the following method has been proposed as a method when the upper limb is the target of inverse kinematics. That is, since the shoulder joint has 3 degrees of freedom, the elbow joint has 2 degrees of freedom, and the wrist joint has 2 degrees of freedom, the total degree of freedom of the joints in the upper limb is 7. For this reason, if the position of the wrist joint and the position of the shoulder joint are fixed, the elbow joint position can be swung in a circle, so analysis is performed by giving the swivel angle that is the angle at this time Inverse kinematics can be solved (see, for example, Non-Patent Document 2).

さらに、モーションキャプチャデータに基づいて確率密度関数を定義して関節可動域を推定する手法も提案されている(たとえば、非特許文献3及び4参照。)。   Furthermore, a method for estimating a joint range of motion by defining a probability density function based on motion capture data has been proposed (see, for example, Non-Patent Documents 3 and 4).

R. Timothy Marler, Jasbir S. Arora, Jingzou Yang, Hyung-Joo Kim and Karim Abdel-Malek, 「Use of multi-objective optimization for digital human posture prediction」, Engineering Optimization, Vol. 41, No. 10, pages 925-943, 2009.R. Timothy Marler, Jasbir S. Arora, Jingzou Yang, Hyung-Joo Kim and Karim Abdel-Malek, `` Use of multi-objective optimization for digital human posture prediction '', Engineering Optimization, Vol. 41, No. 10, pages 925 -943, 2009. Marcelo Kallmann, 「Analytical Inverse Kinematics with Body Posture Control」, Computer Animation and Virtual Worlds (CAVW), Vol.19, No.2, pages 79-91, 2008.Marcelo Kallmann, `` Analytical Inverse Kinematics with Body Posture Control '', Computer Animation and Virtual Worlds (CAVW), Vol. 19, No. 2, pages 79-91, 2008. Hiroshi Yasuda, Suguru Saito and Masayuki Nakajima, 「Range of motion estimation from Mocap data」, In Proceedings of the 2005 International Conference on Cyberworlds, pages 483-489, 2005.Hiroshi Yasuda, Suguru Saito and Masayuki Nakajima, `` Range of motion estimation from Mocap data '', In Proceedings of the 2005 International Conference on Cyberworlds, pages 483-489, 2005. 安田浩志, 齋藤豪, 中嶋正之, 「モーションキャプチャによる球関節人体モデルの関節可動域決定」, 電子情報通信学会論文誌D, J92-D(2), pages 255-261, 2009.Hiroshi Yasuda, Go Saito, Masayuki Nakajima, “Determining the range of motion of a ball joint human body model by motion capture”, IEICE Transactions D, J92-D (2), pages 255-261, 2009.

非特許文献1あるいは非特許文献2に記載された方法では、末端の位置として特定の手の内部、表面上における特定の位置、又は指の位置(どの指であるかも含めて指定する必要がある。)を正確に指定する必要がある。手の把持姿勢が定まっていない場合には、そのような指定ができないため、物体を把持した手の姿勢を含めた姿勢生成することは実質的に困難であるとの問題がある。   In the method described in Non-Patent Document 1 or Non-Patent Document 2, it is necessary to specify the inside position of a specific hand, a specific position on the surface, or the position of a finger (including which finger) as the end position. .) Must be specified accurately. If the gripping posture of the hand is not fixed, such a designation cannot be made. Therefore, it is difficult to generate a posture including the posture of the hand gripping the object.

また、手の把持姿勢においては、各指の関節の角度を考慮する必要があり、自由度が非常に高くなるため、逆運動学によって姿勢を生成することは困難である。非特許文献2に記載された、関節角度を解析的に解く方法では、自由度が高いため解を得ることができない。非特許文献1に記載されたような最適化問題として数値解析的に求める方法では、対象となる関節の自由度に対応して計算量が増大するため、膨大な計算機パワーが必要となり実用的でないとの問題がある。   Further, in the hand gripping posture, it is necessary to consider the angle of each finger joint, and the degree of freedom becomes very high, so it is difficult to generate the posture by inverse kinematics. In the method of analytically solving the joint angle described in Non-Patent Document 2, a solution cannot be obtained because the degree of freedom is high. In the method for numerical analysis as an optimization problem described in Non-Patent Document 1, the amount of calculation increases corresponding to the degree of freedom of the target joint, which requires a large amount of computer power and is not practical. There is a problem with.

モーションキャプチャを利用する非特許文献3及び4の手法は、実際の人体等の動作をデータ化するものであって、この手法では、あくまで関節可動域を推定するのみであり、これを用いて自動的に自然な姿勢を生成することはできない。   The methods of Non-Patent Documents 3 and 4 that use motion capture are to convert the actual movement of the human body etc. into data, and in this method, only the range of motion of the joint is estimated, and this is used to automatically A natural posture cannot be generated.

そこで、本発明は、手の把持姿勢を正確に指定したり、手又は指の位置を正確に指定したり、その他身体上のいかなる位置を端点として指定することなく、物体とその物体を把持する手の把持位置をおよそ指定することによって、把持対象物体の形状に応じた手の把持姿勢及びその手の位置まで到達する身体部位の把持姿勢を生成する把持姿勢生成装置、把持姿勢生成プログラム及び把持姿勢生成方法を提供することを目的とする。   Therefore, the present invention grips an object and the object without accurately specifying the gripping posture of the hand, accurately specifying the position of the hand or finger, or specifying any other position on the body as an end point. A gripping posture generation device, a gripping posture generation program, and a gripping device that generate a gripping posture of a hand according to the shape of the object to be gripped and a body part reaching the position of the hand by roughly specifying the gripping position of the hand An object is to provide a posture generation method.

上述した課題に鑑みて、発明者らは、手の把持姿勢と手以外の身体の部位の姿勢とをそれぞれ別々に生成して、別々に生成したそれぞれの姿勢を総合することによって、全体の把持姿勢を生成するとの考えに至った。   In view of the above-described problems, the inventors generate a gripping posture of a hand and a posture of a body part other than the hand separately, and combine the separately generated postures, thereby grasping the whole gripping. It came to the idea of generating a posture.

すなわち、本発明の把持姿勢生成装置は、把持対象の物体のデータを入力して、物体を把持するのに適した手及び指の姿勢に関するデータを含むデータベースに基づいて、手の把持姿勢候補のデータを生成する手の把持姿勢候補生成部と、手以外の身体上の他の位置のデータを入力して、他の位置と手の把持姿勢候補生成部で生成された手の位置との間の関節の角度を求める手以外の姿勢生成部と、手以外の姿勢生成部で生成された関節の角度を含む手以外の姿勢のデータを所定の評価関数に基づいて評価する姿勢評価部とを備える。そして、手の把持姿勢候補生成部は、1個以上の手の把持姿勢候補のデータを生成し、手以外の姿勢生成部は、生成された手の把持姿勢候補のデータごとの手の位置と、他の位置との間の関節の角度を求めて、関節の角度の中から最適な角度を有する手以外の姿勢のデータを生成する。   In other words, the gripping posture generation apparatus of the present invention inputs data of an object to be gripped, and based on a database including data on hand and finger postures suitable for gripping the object, Input the data of the hand gripping posture candidate generation unit for generating data and other positions on the body other than the hand, and between the other position and the hand position generated by the hand gripping posture candidate generation unit A posture generation unit other than the hand for obtaining the angle of the joint, and a posture evaluation unit that evaluates posture data other than the hand including the angle of the joint generated by the posture generation unit other than the hand based on a predetermined evaluation function Prepare. The hand gripping posture candidate generation unit generates data of one or more hand gripping posture candidates, and the posture generation unit other than the hand generates a hand position for each generated hand gripping posture candidate data. Then, the angle of the joint between other positions is obtained, and the posture data other than the hand having the optimum angle is generated from the angles of the joint.

本発明の把持姿勢生成方法は、把持対象の物体のデータを入力して、物体を把持するのに適した手及び指の姿勢に関するデータを含むデータベースに基づいて、手の把持姿勢候補のデータを生成するステップと、手以外の身体上の他の位置のデータを入力して、他の位置と生成された手の把持候補の手の位置との間の関節の角度を求めるステップと、生成された手以外の姿勢を、所定の評価関数に基づいて評価するステップとを有する。そして、手の把持姿勢候補のデータを生成するステップは、1個以上の手の把持姿勢候補のデータを生成し、関節の角度を求めるステップは、生成された手の把持姿勢候補のデータごとの手の位置と、他の位置との間の関節の角度を求めて、最適な関節角度を有する手以外の姿勢のデータを生成する。   The gripping posture generation method of the present invention inputs the data of the object to be gripped, and obtains the hand gripping posture candidate data based on a database including data on the hand and finger posture suitable for gripping the object. Generating data, inputting data of other positions on the body other than the hand, and determining an angle of the joint between the other positions and the position of the hand of the generated gripping hand. And evaluating a posture other than the hand based on a predetermined evaluation function. The step of generating hand gripping posture candidate data generates one or more hand gripping posture candidate data, and the step of obtaining joint angles is performed for each generated hand gripping posture candidate data. A joint angle between the hand position and another position is obtained, and posture data other than the hand having the optimum joint angle is generated.

本発明の把持姿勢生成プログラムは、ネットワーク又は光ディスク等の記憶媒体を介してコンピュータにインストールされて、コンピュータ上で実行されて、把持姿勢生成装置として動作し、又は把持姿勢方法を構成する各ステップを動作させて、把持姿勢のデータを生成する。また、本発明の把持姿勢生成プログラムは、サーバにインストールされており、ネットワークを介してクライアントコンピュータにおいて実行されて把持姿勢生成装置として動作し、又は把持姿勢方法を構成する各ステップを動作させて、把持姿勢のデータを生成する。   A gripping posture generation program of the present invention is installed in a computer via a storage medium such as a network or an optical disk, and is executed on the computer to operate as a gripping posture generation device or to configure each step of the gripping posture method. Operate to generate gripping posture data. Further, the gripping posture generation program of the present invention is installed in a server and is executed on a client computer via a network and operates as a gripping posture generation device, or operates each step constituting the gripping posture method, Generate gripping posture data.

本発明の把持姿勢生成装置、把持姿勢生成方法又は把持姿勢生成プログラムによれば、手の把持姿勢を把持姿勢候補として生成して、その把持姿勢候補の手の位置に基づいて、手以外の部位の姿勢を生成するので、身体上の端点を正確に指定することなくおよその把持位置を指定するだけで、逆運動学を駆動させて、各関節の角度を求めることができる。そして、手の把持姿勢候補を複数生成し、手の把持姿勢候補ごとに、手以外の部位の姿勢を生成し、それぞれの姿勢を評価することで、手を含めた全体の把持姿勢を決定することができる。   According to the gripping posture generation device, the gripping posture generation method, or the gripping posture generation program of the present invention, a gripping posture of a hand is generated as a gripping posture candidate, and a part other than the hand based on the position of the hand of the gripping posture candidate Therefore, it is possible to determine the angle of each joint by driving inverse kinematics only by designating an approximate gripping position without accurately designating an end point on the body. Then, a plurality of hand gripping posture candidates are generated, and a posture of a part other than the hand is generated for each hand gripping posture candidate, and each posture is evaluated to determine the entire gripping posture including the hand. be able to.

本発明に係る把持姿勢生成装置の構成例を示したブロック図である。It is the block diagram which showed the structural example of the holding | grip attitude | position production | generation apparatus which concerns on this invention. 本発明に係る把持姿勢生成装置を構成する手の把持姿勢候補生成部の構成例を示したブロック図である。It is the block diagram which showed the structural example of the holding | grip attitude | position candidate generation part of the hand which comprises the holding | grip attitude | position production | generation apparatus which concerns on this invention. 手の把持姿勢候補生成部を構成するデータベースの各データの関連付けの例を示す図である。It is a figure which shows the example of correlation of each data of the database which comprises the holding | grip attitude | position candidate production | generation part of a hand. 手の把持姿勢候補生成部を構成するデータベースの大分類把持姿勢の分類及びそれぞれの姿勢を説明するための図である。It is a figure for demonstrating the classification | category of the large classification | category holding posture of the database which comprises the holding posture candidate production | generation part of a hand, and each attitude | position. 本発明に係る把持姿勢生成装置の手の把持姿勢生成部で生成される把持姿勢候補を示す図である。(A)は、最初に生成される把持姿勢候補とローカル座標であり、(B)は、(A)で生成されたローカル座標を回転して、ローカル座標のY軸を中心にX−Z平面を90度回転させた状態の把持姿勢候補である。(C)は、(A)で生成された把持姿勢候補のローカル座標のY軸を中心にX−Z平面を180度回転させた状態の把持姿勢候補である。It is a figure which shows the holding | grip attitude | position candidate produced | generated by the grasping attitude | position production | generation part of the hand of the holding | grip attitude | position generator which concerns on this invention. (A) is a gripping posture candidate and local coordinates generated first, and (B) is an X-Z plane around the Y axis of the local coordinates by rotating the local coordinates generated in (A). Is a gripping posture candidate in a state of being rotated 90 degrees. (C) is a gripping posture candidate in a state where the XZ plane is rotated 180 degrees around the Y axis of the local coordinates of the gripping posture candidate generated in (A). 上肢の骨格モデルを示す図である。It is a figure which shows the skeleton model of an upper limb. 本発明に係る把持姿勢生成装置の動作を説明するためのフローチャートの一例である。It is an example of the flowchart for demonstrating operation | movement of the holding | grip attitude | position production | generation apparatus which concerns on this invention. (A)は、非特許文献1に記載された評価関数を用いて計算を行った結果と、生成された上肢の把持姿勢を示す図である。(B)は、非特許文献3に記載された確率密度関数を評価関数として用いて計算を行った結果と、生成された上肢の把持姿勢を示す図である。(C)は、(A)と(B)で用いた評価関数の和から得られた結果と、生成された上肢の把持姿勢を示す図である。(A) is a figure which shows the result of having calculated using the evaluation function described in the nonpatent literature 1, and the holding | grip posture of the produced | generated upper limbs. (B) is a figure which shows the result of having performed the calculation using the probability density function described in the nonpatent literature 3 as an evaluation function, and the holding | grip posture of the produced | generated upper limbs. (C) is a figure which shows the result obtained from the sum of the evaluation function used by (A) and (B), and the holding | grip posture of the produced | generated upper limbs. 本発明に係る姿勢生成装置によって生成された上肢の把持姿勢を示す図であり、(A)〜(D)までに手の把持姿勢に対するローカル座標を、Y軸を中心に90度ずつ回転させた場合の上肢の把持姿勢を示す図である。It is a figure which shows the holding | grip attitude | position of the upper limb produced | generated by the attitude | position generating apparatus which concerns on this invention, and rotated the local coordinate with respect to the holding | grip attitude of a hand 90 degree | times centering on the Y-axis until (A)-(D). It is a figure which shows the holding posture of the upper limb in the case. 本発明に係る姿勢生成装置によって生成された上肢の把持姿勢を示す図であり、(A)〜(E)まで、ローカル座標の原点を、把持対象物体に沿ってY軸方向に下から上へ移動させた場合の上肢の把持姿勢を示す図である。It is a figure which shows the holding | grip attitude | position of the upper limb produced | generated by the attitude | position production | generation apparatus which concerns on this invention. It is a figure which shows the holding posture of the upper limb at the time of moving. さまざまな把持対象物体を、把持させた適切な手の把持姿勢に対して生成された適切な上肢の把持姿勢を示す図である。It is a figure which shows the holding posture of the appropriate upper limb produced | generated with respect to the holding posture of the appropriate hand which hold | gripped various holding | grip target objects. 手の把持姿勢候補生成部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the holding | grip posture candidate production | generation part of a hand. 大分類把持姿勢ごとの形状特徴量のデータを求めるための座標設定を示す図である。(A)が挟持把持姿勢(Pinch型)に、(B)が平行把持姿勢(Parallel型)に、(C)が包囲把持姿勢(Circular型)に対応する図である。It is a figure which shows the coordinate setting for calculating | requiring the data of the shape feature-value for every large classification | category holding attitude. (A) is a figure corresponding to a holding grip posture (Pinch type), (B) is a parallel grip posture (Parallel type), and (C) is a surrounding grip posture (Circular type). (A)〜(C)は、小分類把持姿勢の1つである側面把握把持姿勢(Lat型)の代表点及び接触点群の関連付けを説明するための図である。(A)-(C) is a figure for demonstrating the correlation of the representative point and contact point group of the side surface grasping | gripping attitude | position (Lat type) which is one of the small classification | category grasping attitude | positions. (A)〜(C)は、小分類把持姿勢の1つである伸展把握把持姿勢(PE型)の代表点及び接触点群の関連付けを説明するための図である。(A)-(C) is a figure for demonstrating the correlation of the representative point and contact point group of the extension grasping gripping posture (PE type) which is one of the small classification | category gripping postures.

[把持姿勢生成装置の構成]
図1は、本発明が適用された把持姿勢生成装置の構成例を示すブロック図である。把持姿勢生成装置10は、把持対象の物体の形状を入力する入力部12を備える。また、把持姿勢生成装置10は、入力された物体に対応した手の把持姿勢の候補である把持姿勢候補を生成する手の把持姿勢候補生成部13と、手の把持姿勢候補の位置と手以外の身体上の他の位置との間の各関節の角度を求める手以外の姿勢生成部14とを備える。また、把持姿勢生成装置10は、手の把持姿勢候補生成部13で生成された手の把持姿勢候補及び/又は手以外の姿勢生成部14で生成された手以外の姿勢を、1個以上の評価関数を用いて評価する姿勢評価部15を備える。また、把持姿勢生成装置10は、姿勢評価部15で評価された手及び手以外の部位の姿勢を出力する出力部16を備える。
[Configuration of gripping posture generation device]
FIG. 1 is a block diagram illustrating a configuration example of a gripping posture generation apparatus to which the present invention is applied. The gripping posture generation device 10 includes an input unit 12 that inputs the shape of an object to be gripped. In addition, the gripping posture generation device 10 includes a hand gripping posture candidate generation unit 13 that generates a gripping posture candidate that is a hand gripping posture candidate corresponding to the input object, and the position of the hand gripping posture candidate other than the hand. And a posture generation unit 14 other than the hand for obtaining an angle of each joint with another position on the body. In addition, the gripping posture generation apparatus 10 represents one or more hand gripping posture candidates generated by the hand gripping posture candidate generation unit 13 and / or postures other than the hand generated by the posture generation unit 14 other than the hand. A posture evaluation unit 15 that evaluates using an evaluation function is provided. In addition, the gripping posture generation apparatus 10 includes an output unit 16 that outputs the posture of the hand and a part other than the hand evaluated by the posture evaluation unit 15.

入力部12は、手の把持姿勢候補生成部13に接続され、データを手の把持姿勢候補生成部13に提供する。また、手以外の姿勢生成部14に対して、手以外の部位の固定点を入力するようにしてもよい。入力部12には、キーボード、マウス等の入力装置が用いられる。タッチパネルを用いることによって、出力部16に出力されるデータと同一画面上でデータを入力するような装置を用いることもでき、その他の入力装置を用いることができる。あるいは、入力するためのデータをファイルとして保存した他の記憶装置を用いることによってもデータの入力を行うことができる。なお、手以外の姿勢生成部14に対する手以外の部位の固定点については、入力部12によって入力してもよいが、手以外の姿勢生成部14において、たとえば肩関節を固定点としてあらかじめ入力しておいてもよい。   The input unit 12 is connected to the hand gripping posture candidate generation unit 13 and provides data to the hand gripping posture candidate generation unit 13. Further, a fixed point of a part other than the hand may be input to the posture generation unit 14 other than the hand. For the input unit 12, an input device such as a keyboard and a mouse is used. By using the touch panel, a device that inputs data on the same screen as the data output to the output unit 16 can be used, and other input devices can be used. Alternatively, data can be input by using another storage device that stores data to be input as a file. Note that the fixed point of the part other than the hand with respect to the posture generation unit 14 other than the hand may be input by the input unit 12. However, in the posture generation unit 14 other than the hand, for example, the shoulder joint is input in advance as a fixed point. You may keep it.

手の把持姿勢候補生成部13は、入力部12から入力された3次元物体のデータに基づいて、その物体のデータに適した手及び指の姿勢に関するデータを含むデータベースに基づいて、手の把持姿勢候補として生成する。   Based on the data of the three-dimensional object input from the input unit 12, the hand gripping posture candidate generation unit 13 holds the hand based on a database including data on the hand and finger posture suitable for the object data. Generate as posture candidates.

手の把持姿勢候補生成部13には、特願2011−184498号に開示される把持姿勢生成装置を用いるのが好ましいが、これに限るものではない。   Although it is preferable to use the gripping posture generation device disclosed in Japanese Patent Application No. 2011-184498 for the hand gripping posture candidate generation unit 13, it is not limited thereto.

図2に示すように、手の把持姿勢候補生成部13は、手や指の姿勢に関するデータベース20を記憶する記憶部21と、手の把持姿勢を生成して把持姿勢候補を出力する把持姿勢生成部22とを有する。   As shown in FIG. 2, the hand gripping posture candidate generation unit 13 stores a database 20 relating to hand and finger postures, and a gripping posture generation that generates hand gripping postures and outputs gripping posture candidates. Part 22.

記憶部21には、把持姿勢等のデータからなるデータベース20が保存されており、把持姿勢生成部22と接続されて、データのやりとりを行う。記憶部21は、ハードディスク装置のような読み書き可能な記憶装置であることが好ましいが、ハードディスク装置に限らず、フラッシュメモリのような固体メモリであってもよく、その他の記憶装置を用いることができる。   The storage unit 21 stores a database 20 including data such as a gripping posture, and is connected to the gripping posture generation unit 22 to exchange data. The storage unit 21 is preferably a readable / writable storage device such as a hard disk device, but is not limited to a hard disk device, and may be a solid-state memory such as a flash memory, and other storage devices may be used. .

把持姿勢生成部22は、記憶部21と接続され、データベース20にアクセスし、データベース20上のデータを探索し、データベース20上からデータを取り出し、データベース20上にデータを書き込む等、データベース20とデータのやり取りをすることができる。また、把持姿勢生成部22は、入力部12からの入力されたデータに基づいて、記憶部21にアクセスしデータベース20のデータに基づいて所定の処理を行うこともできる。把持姿勢生成部22は、CPUの指令によって入力部12から入力されたデータをCPUに接続されたRAMのようなメモリに読み込んで、そのデータに基づいて、記憶部21内のデータベース20にアクセスしてデータの検索等する。検索したデータから新たなデータを生成して、再度、データベース20内に書き込むことができるのは上述したとおりである。書き込んだデータに基づいて、出力すべきデータに処理する。そして、処理されたデータを出力することを制御する。これら一連の制御を行い、所望の手の把持姿勢候補の生成を行う。   The gripping posture generation unit 22 is connected to the storage unit 21, accesses the database 20, searches for data on the database 20, retrieves data from the database 20, writes data into the database 20, etc. Can communicate. The gripping posture generation unit 22 can also access the storage unit 21 based on data input from the input unit 12 and perform predetermined processing based on data in the database 20. The gripping posture generation unit 22 reads data input from the input unit 12 according to a command from the CPU into a memory such as a RAM connected to the CPU, and accesses the database 20 in the storage unit 21 based on the data. To search data. As described above, new data can be generated from the retrieved data and written into the database 20 again. The data to be output is processed based on the written data. Then, output of the processed data is controlled. A series of these controls is performed to generate a desired hand gripping posture candidate.

ここで、データベース20の構成について説明する。   Here, the configuration of the database 20 will be described.

図3に示すように、データベース20は、複数に分類された大分類把持姿勢のデータと、各大分類把持姿勢に関連付けされた小分類把持姿勢のデータと、小分類把持姿勢に関連付けられたデータとを含む。大分類把持姿勢のデータは、把持対象の物体の形状に応じた把持の姿勢に分類されており、仮想指のデータを有している。仮想指のデータは、小分類把持姿勢のデータの対応する指のデータに関連付けられる。ここで、仮想指とは、指若しくは複数の指の組み合わせ又は手のひらからなり、物体を把持する際に対向する面に接触する仮想的な指である。小分類把持姿勢のデータは、大分類把持姿勢のデータを手の位置及び指の配置等のデータによってさらに細かく分類したものである。小分類把持姿勢ごとに基本形状の物体を把持し、その際の把持姿勢のデータを物体の幅のデータによって索引付けしてデータベース20に格納する。基本形状の物体の幅を変えて把持した際の把持姿勢のデータも物体の幅のデータで索引付けされてデータベース20に格納される。索引付けされた把持姿勢ごとに、各指の各関節の関節角度のデータも索引付けされてデータベース20に格納される。各仮想指に対応する指の上に配置された代表点のデータ及び対象となる指上の接触点群のデータは、小分類把持姿勢に関連付けられ、データベース20に格納される。   As shown in FIG. 3, the database 20 includes a plurality of classified classification posture data, a classified classification posture data associated with each major classification posture, and a classified classification posture data. Including. The data of the large classification gripping posture is classified into gripping postures according to the shape of the object to be gripped, and has virtual finger data. The virtual finger data is associated with the corresponding finger data of the small classification grip posture data. Here, the virtual finger is a virtual finger that is composed of a finger, a combination of a plurality of fingers, or the palm of the hand, and comes into contact with the opposite surface when gripping an object. The data of the small classification gripping posture is obtained by further classifying the data of the large classification gripping posture by data such as the hand position and the finger placement. An object of a basic shape is gripped for each small classification gripping posture, and the gripping posture data at that time is indexed by the object width data and stored in the database 20. Data of the gripping posture when gripping with changing the width of the object having the basic shape is also indexed by the data of the object width and stored in the database 20. For each indexed gripping posture, joint angle data of each joint of each finger is also indexed and stored in the database 20. The data of the representative points arranged on the finger corresponding to each virtual finger and the data of the contact point group on the target finger are associated with the small classification gripping posture and stored in the database 20.

図3に示すように、好ましくは、大分類把持姿勢のデータは、3種類の把持姿勢のデータを含む。大分類把持姿勢のデータのうちの1つは、挟持把持姿勢(以下、Pinch型ともいう。)のデータであり、2本の指の腹又は側面を対向させて物体をはさむ把持姿勢を表わすデータである。他の1つは、平行把持姿勢(以下、Parallel型ともいう。)のデータであり、母指の腹と母指以外の指を平行に揃えてその指の腹又は手のひらを対向させて物体をつかむ把持姿勢を表わすデータである。残りの1つは、包囲把持姿勢(以下、Circular型ともいう。)のデータであり、各指の腹又は側面で物体を包み込むようにして把持する姿勢を表わすデータである。なお、把持姿勢のデータを3種類に分類することに限らず、任意の種類に分類してもよい。   As shown in FIG. 3, preferably, the data of the large classification gripping posture includes three types of gripping posture data. One of the data of the large classification gripping posture is data of a gripping gripping posture (hereinafter also referred to as “Pinch type”), which is a data representing a gripping posture that sandwiches an object with two belly or side surfaces of two fingers facing each other. It is. The other is data on a parallel gripping posture (hereinafter also referred to as “Parallel type”), where the belly of the thumb and the fingers other than the thumb are aligned in parallel, and the object is placed by facing the belly or palm of the finger. This is data representing a gripping posture to be grasped. The remaining one is data of the surrounding grip posture (hereinafter also referred to as “Circular type”), which is data representing the posture of gripping the object by wrapping the object with the belly or side surface of each finger. Note that the gripping posture data is not limited to being classified into three types, but may be classified into arbitrary types.

好ましくは、小分類把持姿勢のデータは、14種類の把持姿勢のデータを含む。14種類の把持姿勢のデータは、握力標準型把持姿勢(以下、PoS型ともいう。)、握力把握鈎型把持姿勢(以下、PoHともいう。)、握力把握示指伸展型把持姿勢(以下、PoI型ともいう。)、握力把握伸展型把持姿勢(以下、PoE型ともいう。)、側面把握型把持姿勢(以下、Lat型ともいう。)、三面把握型把持姿勢(以下、Tpdともいう。)、三面把握亜型I把持姿勢(以下、TpdV1型ともいう。)、三面把握亜型II把持姿勢(以下、TpdV2型ともいう。)、三面把握亜型III把持姿勢(以下、TpdV3型ともいう。)、並列軽屈曲把握把持姿勢(以下、PMF型ともいう。)、包囲軽屈曲把握把持姿勢(以下、CMF型ともいう。)、指尖把握把持姿勢(以下、Tip型ともいう。)、並列伸展把握把持姿勢(以下、PE型ともいう。)及び内転把握把持姿勢(以下、Add型ともいう。)の各データからなる。なお、14種類の把持姿勢のデータに分類することに限らず、これ以上の種類に分類してもよく、これらの分類を統合等して14種類よりも少なくしてもよい。   Preferably, the small classification gripping posture data includes 14 types of gripping posture data. The 14 types of gripping posture data include gripping force standard gripping posture (hereinafter also referred to as PoS type), gripping force grasping vertical gripping posture (hereinafter also referred to as PoH), and gripping force grasping finger extending gripping posture (hereinafter referred to as PoI). A gripping force grasping and extending type gripping posture (hereinafter also referred to as PoE type), a side surface grasping type gripping posture (hereinafter also referred to as Lat type), and a three-sided gripping type gripping posture (hereinafter also referred to as Tpd). Three-surface grasping subtype I gripping posture (hereinafter also referred to as TpdV1 type), three-surface grasping subtype II gripping posture (hereinafter also referred to as TpdV2 type), three-surface grasping subtype III gripping posture (hereinafter also referred to as TpdV3 type). ), Parallel light bend grasping posture (hereinafter also referred to as PMF type), surrounding light bend grasping and holding posture (hereinafter also referred to as CMF type), fingertip grasping and holding posture (hereinafter also referred to as Tip type), parallel. Extension grasp Posture (hereinafter, also referred to as a PE type.) And adducted grasp gripping position (hereinafter, referred to as Add-type.) Consisting of the data. The classification is not limited to 14 types of gripping posture data, but may be classified into more types, or may be less than 14 types by integrating these classifications.

図4には、大分類把持姿勢に分類されるそれぞれの姿勢を示す。図4(A)に示すように、手の各指について、番号を振って、母指1、示指2、中指3、薬指4、小指5とし、手のひらをPとする。図4(B)には、Pinch型の把持姿勢によって、物体6を把持した状態を示す。Pinch型は、母指1と示指2とによって物体6をつまむ把持姿勢である。図4(C)には、Parallel型の把持姿勢で物体6を把持した状態を示す。Parallel型は、母指1とほぼ平行に配置した示指2から小指5とを物体6に対して対向させるようにして、物体6をつかむ把持姿勢である。図4(D)には、Circular型の把持姿勢で物体6を把持した状況を示す。   FIG. 4 shows the postures classified into the large classification grip postures. As shown in FIG. 4A, numbers are assigned to the fingers of the hand to indicate the thumb 1, the indicating finger 2, the middle finger 3, the ring finger 4, and the little finger 5, and the palm is P. FIG. 4B shows a state in which the object 6 is gripped by a pinch-type gripping posture. The Pinch type is a gripping posture in which the object 6 is pinched by the thumb 1 and the index finger 2. FIG. 4C shows a state in which the object 6 is gripped with a Parallel-type gripping posture. The Parallel type is a gripping posture in which the object finger 6 is gripped with the index finger 2 to the little finger 5 arranged substantially parallel to the thumb 1 facing the object 6. FIG. 4D shows a situation where the object 6 is gripped in a circular gripping posture.

ここで、物体6に対して対向して物体6に接触する指又は手のひらを、指単独又は複数の指を組み合わせることによって、仮想指とする。図3において、たとえばPoS型の行でVF1の列にPとあるのは、手のひらPを第1の仮想指VF1とし、示指2から小指5をまとめて第2の仮想指VF2として、物体6を把持することを表わす。物体6に対して対向する部位としては、指の腹、指の側面、手のひらPがあるが、図3に示すようにPoS型においては、手のひらPが対向部位となる。なお、この場合の手のひらPに対するもう一方の対向部位は指の腹である。指の腹同士が対向し、指の側面同士が対向する。図3においては、大分類把持姿勢と小分類把持姿勢との関連付けも示される。   Here, a finger or a palm that is opposed to the object 6 and contacts the object 6 is a virtual finger by combining a single finger or a plurality of fingers. In FIG. 3, for example, in the PoS-type row and P in the column of VF1, the palm P is the first virtual finger VF1, the index finger 2 to the little finger 5 are combined into the second virtual finger VF2, and the object 6 is Indicates gripping. The parts facing the object 6 include the belly of the finger, the side surface of the finger, and the palm P. In the PoS type, as shown in FIG. 3, the palm P is the facing part. In this case, the other facing portion with respect to the palm P is the belly of the finger. The bellies of the fingers face each other, and the side surfaces of the fingers face each other. FIG. 3 also shows the association between the large classification gripping posture and the small classification gripping posture.

このようなデータベースを用いて、手の把持姿勢候補生成部13を構成することによって、把持対象の物体を入力するだけで、その物体を把持するのに適切な姿勢を手の把持姿勢候補として出力することができる。   By configuring the hand gripping posture candidate generation unit 13 using such a database, a posture suitable for gripping the object is output as a hand gripping posture candidate simply by inputting the object to be gripped. can do.

手以外の姿勢生成部14は、末端の位置が与えられた場合に各関節の関節角度を求める問題を扱う逆運動学によって、手の把持姿勢候補生成部13で生成された把持姿勢候補と、指定された身体上の他の部位(以下、「基点」とも言う。)との間の各関節の角度を求める。たとえば、手首と肩関節とを固定して、上肢の姿勢を生成する場合に、非特許文献2に記載された手法を用いて、解析的に各関節の角度を求め、非特許文献1、3、4に記載された評価関数等を用いて、肘の関節の回転角度、すなわち旋回角度の最適値をたとえば黄金分割法を用いて求める。   The posture generation unit 14 other than the hand, the gripping posture candidate generated by the hand gripping posture candidate generation unit 13 by inverse kinematics that handles the problem of obtaining the joint angle of each joint when the end position is given, The angle of each joint with another part on the specified body (hereinafter also referred to as “base point”) is obtained. For example, when the wrist and shoulder joints are fixed and the posture of the upper limb is generated, the angle of each joint is analytically obtained using the method described in Non-Patent Document 2, and Non-Patent Documents 1 and 3 are used. 4 is used to obtain the optimal value of the rotation angle of the elbow joint, that is, the turning angle, using, for example, the golden section method.

出力部16は、姿勢評価部15に接続され、姿勢評価部15によって生成された把持姿勢を画面上に表示するディスプレイである。ディスプレイに限らずプリンタや、他の記憶装置にファイル形式で出力してもよい。また、出力部16を、たとえばロボットに接続して、ロボットの姿勢を生成して、制御するのに用いることもできる。   The output unit 16 is a display that is connected to the posture evaluation unit 15 and displays the gripping posture generated by the posture evaluation unit 15 on the screen. Not only the display but also a printer or other storage device may be output in a file format. Further, the output unit 16 can be used, for example, by connecting to a robot and generating and controlling the posture of the robot.

図1及び図2の構成例においては、入力部12、記憶部21及び把持姿勢生成部22を含む手の把持姿勢候補生成部13、手以外の姿勢生成部14、姿勢評価部15、及び出力部16がスタンドアロン形式でそれぞれ適切なインタフェースで接続されているが、これらのうちの一部又は全部をネットワーク上に配置して接続してももちろんよい。   In the configuration example of FIGS. 1 and 2, a gripping posture candidate generation unit 13 including an input unit 12, a storage unit 21, and a gripping posture generation unit 22, a posture generation unit 14 other than a hand, a posture evaluation unit 15, and an output The units 16 are connected in a stand-alone manner with appropriate interfaces, but some or all of them may be arranged and connected on the network.

なお、上述のようなハードウェア構成に限らず、把持姿勢生成プログラムによって、コンピュータのCPU指令に基づいてソフトウェア的に適切な把持姿勢のデータを生成することもできる。把持姿勢生成プログラムは、ネットワーク経由でダウンロードされ、又は光ディスク等の記憶媒体によって提供され、コンピュータにインストールされる。あるいは、ネットワーク上のサーバに把持姿勢生成プログラムがインストールされ、クライアントコンピュータによってアクセスすることによって実行することもできる。   Note that the present invention is not limited to the hardware configuration described above, and it is also possible to generate software-suitable gripping posture data based on a CPU command from a computer by a gripping posture generation program. The grip posture generation program is downloaded via a network or provided by a storage medium such as an optical disk and installed in a computer. Alternatively, the gripping posture generation program can be installed in a server on the network and can be executed by being accessed by a client computer.

[把持姿勢生成装置の動作]
一例として、肩の位置を固定して基点とし、上肢の把持姿勢を生成する場合の動作について、具体的に説明する。
[Operation of gripping posture generator]
As an example, the operation when the position of the shoulder is fixed and used as a base point to generate a gripping posture of the upper limb will be specifically described.

図5に示すように、手の把持姿勢候補生成部13で生成された把持姿勢候補には、手の把持姿勢候補生成部13によって、任意のローカル座標を設定することができる。図5(A)に示すような位置にローカル座標を設定した後に、Y軸を中心にXZ平面を図5(A)の状態から任意の角度だけ回転させて異なるローカル座標を設定することができる。たとえば、図5(B)に示すように、図5(A)の状態からY軸を中心に90度だけ回転させたローカル座標を設定することができ、図5(C)に示すように、さらに90度回転させたローカル座標を設定することができる。このようにローカル座標を任意に設定することによって、手の把持姿勢候補生成部13で生成された把持姿勢候補に対して、ローカル座標を変更することのみで、異なる把持姿勢候補を生成することができる。このようにして、手の把持姿勢候補を生成した後に、ローカル座標を変更することによって、容易に多数の手の把持姿勢候補を生成することができる。   As shown in FIG. 5, arbitrary local coordinates can be set by the hand gripping posture candidate generation unit 13 for the gripping posture candidate generated by the hand gripping posture candidate generation unit 13. After setting the local coordinates at a position as shown in FIG. 5A, it is possible to set different local coordinates by rotating the XZ plane about the Y axis from the state of FIG. 5A by an arbitrary angle. . For example, as shown in FIG. 5B, local coordinates rotated by 90 degrees around the Y axis from the state of FIG. 5A can be set. As shown in FIG. Furthermore, the local coordinates rotated by 90 degrees can be set. By arbitrarily setting the local coordinates in this way, it is possible to generate different gripping posture candidates only by changing the local coordinates with respect to the gripping posture candidates generated by the hand gripping posture candidate generation unit 13. it can. In this way, after generating hand gripping posture candidates, a large number of hand gripping posture candidates can be easily generated by changing the local coordinates.

図6に示すような上肢の骨格モデルを用いて、逆運動学によって各関節の角度を求める。上肢の骨格モデルでは、手以外の姿勢生成部14によって、手首の関節について、Owを原点とする座標と、肘の関節についてOeを原点とする座標と、肩の関節について、Osを原点とする座標を設定する。   The angle of each joint is obtained by inverse kinematics using a skeleton model of the upper limb as shown in FIG. In the skeleton model of the upper limb, the posture generation unit 14 other than the hand uses the coordinates with Ow as the origin for the wrist joint, the coordinates with Oe as the origin for the elbow joint, and Os as the origin for the shoulder joint. Set the coordinates.

このような上肢の骨格モデルを用いて把持姿勢を生成する動作を図7に示すようなフローチャートで説明する。   An operation for generating a gripping posture using such a skeleton model of the upper limb will be described with reference to a flowchart shown in FIG.

ステップS1において、入力部12を介して、把持対象である3次元の物体のデータを入力する。   In step S <b> 1, data of a three-dimensional object to be grasped is input via the input unit 12.

ステップS2において、ユーザは初期条件を入力する。初期条件としては、物体に対する把持位置、把持方向又はその両方を指定することができる。さらに、手以外の初期姿勢又は基点から末端までの身体上の任意の点、たとえば手首等の位置を指定することもできる。このほかに、手の把持姿勢候補生成部13によって自動的に把持姿勢を探索して決定することで、ユーザが手の把持位置や把持方向を一切指定しないようにすることもできる。   In step S2, the user inputs initial conditions. As an initial condition, a grip position, a grip direction, or both of the object can be designated. Furthermore, it is possible to specify an initial posture other than the hand or an arbitrary point on the body from the base point to the end, for example, the position of the wrist or the like. In addition, it is possible to prevent the user from designating the hand gripping position or gripping direction at all by automatically searching and determining the gripping posture by the hand gripping posture candidate generation unit 13.

把持位置が指定された場合には、指定された位置に対する把持姿勢を最初の候補として生成する。この場合、把持方向に関しては、複数の候補を生成してもよく、1つあるいは指定の数だけ生成するようにしてもよい。   When the gripping position is designated, the gripping posture with respect to the designated position is generated as the first candidate. In this case, regarding the gripping direction, a plurality of candidates may be generated, or one or a specified number may be generated.

把持方向が指定された場合には、自動的に探索された把持位置において、指定された方向に対する把持姿勢を最初の候補として生成する。この場合、探索された把持位置の数だけ把持姿勢候補を生成してもよく、1つあるいは指定の数だけ生成するようにしてもよい。   When the gripping direction is designated, a gripping posture with respect to the designated direction is generated as the first candidate at the gripping position searched automatically. In this case, as many gripping posture candidates as the number of searched gripping positions may be generated, or one or a specified number may be generated.

把持位置及び把持方向が指定された場合には、指定された把持位置及び方向における把持姿勢を最初の候補として生成する。   When the grip position and the grip direction are designated, the grip posture at the designated grip position and direction is generated as the first candidate.

手以外の初期姿勢が与えられた場合には、まず順運動学によって手の位置を求める。関節角度のすべてが与えられてはいない場合には、複数の候補を生成してもよく、1つあるいは指定の数だけ生成するようにしてもよい。そして、求めた手の位置と最も近い把持姿勢を手の把持姿勢候補生成部13により生成し、最初の候補とすればよい。   When an initial posture other than the hand is given, the position of the hand is first obtained by forward kinematics. When all the joint angles are not given, a plurality of candidates may be generated, or one or a specified number may be generated. Then, the gripping posture closest to the obtained hand position may be generated by the hand gripping posture candidate generation unit 13 and set as the first candidate.

基点から末端までの身体上の任意の点、たとえば手首等の位置が与えられた場合には、その位置に対する手以外の姿勢を、後述するステップS6と同様に逆運動学によって生成し、それを手以外の初期姿勢として上記と同様の処理を行う。   If a position on the body from the base point to the end, for example, a position such as a wrist, is given, a posture other than the hand for that position is generated by inverse kinematics in the same manner as in step S6 described later, The same processing as described above is performed as the initial posture other than the hand.

把持位置等、初期条件が一切指定されていない場合には、手の把持姿勢候補生成部13によって、自動的に把持位置が探索され、把持姿勢候補が生成される。この場合には、探索された数だけ把持姿勢候補を生成してもよく、1つあるいは指定の数だけ生成するようにしてもよい。   When no initial conditions such as a gripping position are specified, the hand gripping posture candidate generation unit 13 automatically searches for a gripping position and generates a gripping posture candidate. In this case, as many gripping posture candidates as found may be generated, or one or a specified number may be generated.

ステップS3において、手の把持姿勢候補生成部13によって、図5に示すようにローカル座標を生成し、1つ又は複数のローカル座標を設定する。   In step S3, the hand gripping posture candidate generation unit 13 generates local coordinates as shown in FIG. 5, and sets one or a plurality of local coordinates.

ステップS4において、手の把持姿勢候補生成部13によって、手の把持姿勢候補を生成する。なお、手の把持姿勢候補生成部13の動作については、動作の説明が必要以上に複雑になるのを防ぐために後述することとする。   In step S4, the hand holding posture candidate generation unit 13 generates a hand holding posture candidate. The operation of the hand gripping posture candidate generation unit 13 will be described later in order to prevent the description of the operation from becoming unnecessarily complicated.

ステップS5において、入力部12を介して、基点として肩を指定し、入力する。なお、手以外の姿勢生成部14において、基点として肩をあらかじめ入力しておいてもよいのは上述したとおりである。   In step S <b> 5, the shoulder is designated as the base point and input via the input unit 12. As described above, the posture generation unit 14 other than the hand may input a shoulder as a base point in advance.

ステップS6において、手以外の姿勢生成部14によって、手首関節Owと肩関節Osを固定した場合の肘関節Oeの角度を解析的手法により求め、肘関節の位置を評価関数を用いて求める。   In step S6, the posture generation unit 14 other than the hand obtains the angle of the elbow joint Oe when the wrist joint Ow and the shoulder joint Os are fixed by an analytical method, and obtains the position of the elbow joint using an evaluation function.

図6に示すように、肩関節Osは、Z軸に垂直な回転軸によるswing回転(X軸まわりの上下運動、Y軸まわりの前後運動)と、Z軸まわりのひねり回転の3自由度を有する。肘関節Oeは、Y軸まわりの回転(前後運動)と、Z軸まわりのひねり回転の2自由度を有する。手首関節Owは、Z軸に垂直な回転軸によるswing回転(X軸まわりの上下運動、Y軸まわりの前後運動)の2自由度を有する。したがって、上肢の関節の合計自由度は7であり、手の位置の6自由度に対して冗長な1自由度が存在する。そうすると、手首と肩の関節の位置を固定すると、肘の関節の位置は、円を描くように回転することができ、旋回角度φを与えることによって、上肢部の関節角度を解析的に求めることができる(たとえば、非特許文献2参照。)。上肢の姿勢の自然さを評価する関数として、以下の関数を定義し、この評価関数が最小となる旋回角度φを黄金分割法によって求める。   As shown in FIG. 6, the shoulder joint Os has three degrees of freedom of swing rotation (vertical movement around the X axis, longitudinal movement around the Y axis) and twist rotation around the Z axis by a rotation axis perpendicular to the Z axis. Have. The elbow joint Oe has two degrees of freedom: rotation around the Y axis (back and forth movement) and twist rotation around the Z axis. The wrist joint Ow has two degrees of freedom of swing rotation (vertical movement around the X axis, forward and backward movement around the Y axis) by a rotation axis perpendicular to the Z axis. Therefore, the total degree of freedom of the joint of the upper limb is 7, and there is one redundant degree of freedom for 6 degrees of freedom of the hand position. Then, when the position of the wrist and shoulder joints is fixed, the joint position of the elbow can be rotated to draw a circle, and the joint angle of the upper limb can be obtained analytically by giving the turning angle φ. (For example, refer nonpatent literature 2). The following function is defined as a function for evaluating the naturalness of the posture of the upper limb, and the turning angle φ at which the evaluation function is minimized is obtained by the golden section method.

評価関数fdisplacementは、以下の式(1)のように、基準となる安静時の関節角度から離れるほど大きくなる評価関数を関節ごとに重み付けした和で定義される。   The evaluation function fdisplacement is defined as the sum of weighted evaluation functions for each joint as the distance from the reference joint angle at rest becomes larger, as in the following equation (1).

また、各リンクの位置ポテンシャルエネルギーの差による評価関数fpotentialを、以下の式(2)のように定義する。位置ポテンシャルエネルギーは、腕を真下にぶら下げた姿勢における各部位lの高さの差Δhを用いて計算される。 Also, an evaluation function fpotential based on the difference in potential potential energy of each link is defined as in the following equation (2). The position potential energy is calculated by using the height difference Δh l of each part l in the posture in which the arm is hung directly below.

ここで、mはその部位の質量、gは重力加速度である。 Here, m l is the mass of that portion, g is the gravitational acceleration.

さらに、各関節が可動域限界に近付いたときに急激に増加することを表わす評価関数fdiscomfortを定義する。たとえば、図6に示すように、肩の関節Osにおいては、Y軸周りの回転(前後の動作)には、前方向には大きく可動できるが、後方向への動作は制限される。このような動作を以下の式(3)〜(6)のように定義する。可動域の上限、下限をそれぞれQU、QLとする。 Furthermore, an evaluation function fdiscomfort is defined that indicates that each joint rapidly increases as it approaches the range of motion. For example, as shown in FIG. 6, in the shoulder joint Os, the rotation around the Y axis (back and forth movement) can be largely moved in the front direction, but the movement in the rear direction is limited. Such an operation is defined as the following equations (3) to (6). QU i limit range of motion, the lower limit, respectively, and QL i.

ここで、G=0.01,n=10とした。また、Δvi norm、QU、QLは、以下の式(4)〜(6)で定義される。 Here, G = 0.01 and n = 10. Δv i norm , QU i , and QL i are defined by the following equations (4) to (6).

さらに、上述の評価関数のほかに、以下の式(7)の評価関数fpdfを導入して、すべての評価関数の和を総合的な評価結果としてもよい。式(7)の評価関数fpdfは、実際に測定されたモーションデータから確率密度の分布を求めることによって、関節可動域を推定する手法を用いて(たとえば、非特許文献3,4を参照)、このモーションデータから推定される各関節jの確率密度分布pdfの逆数を姿勢の自然さを表わす評価関数とする。 Furthermore, in addition to the above-described evaluation function, an evaluation function fpdf of the following equation (7) may be introduced, and the sum of all evaluation functions may be used as a comprehensive evaluation result. The evaluation function fpdf of Expression (7) uses a technique for estimating the joint range of motion by obtaining the probability density distribution from the actually measured motion data (see, for example, Non-Patent Documents 3 and 4). The reciprocal of the probability density distribution pdf j of each joint j estimated from the motion data is used as an evaluation function representing the naturalness of the posture.

図8には、上述した評価関数を用いて上肢の姿勢を評価した結果を示す。図8(A)〜(C)に示されるグラフの横軸は、肘関節Oeの旋回角度を示し、縦軸は、評価関数の返り値を示しており、黄金分割法による反復過程をグラフ中にプロットしている。図8(A)に示すように、式(1)〜式(3)の評価関数を用いて把持姿勢の評価を行った場合には、比較的狭い範囲の旋回角度において良好な評価値(小さな評価値)を得ることができた。図8(B)に示すように、式(7)の評価関数を用いて把持姿勢の評価を行った場合には、広い範囲で小さな評価値が出力されたので、肘の関節の位置がより高い位置となっている。図8(C)に示すように、式(1)〜式(3)及び式(7)をすべて加算した評価関数によって得られた評価値では、より自然な把持姿勢を生成できた。   In FIG. 8, the result of having evaluated the attitude | position of the upper limb using the evaluation function mentioned above is shown. 8A to 8C, the horizontal axis represents the turning angle of the elbow joint Oe, the vertical axis represents the return value of the evaluation function, and the iterative process by the golden section method is shown in the graph. Is plotted. As shown in FIG. 8A, when the gripping posture is evaluated using the evaluation functions of Expressions (1) to (3), a favorable evaluation value (small) is obtained at a relatively narrow turning angle. Evaluation value) was obtained. As shown in FIG. 8B, when the gripping posture is evaluated using the evaluation function of Expression (7), a small evaluation value is output in a wide range, so that the position of the elbow joint is more It is in a high position. As shown in FIG. 8C, the evaluation value obtained by the evaluation function obtained by adding all of the expressions (1) to (3) and (7) can generate a more natural gripping posture.

ステップS7において、姿勢評価部15によって、手の把持姿勢候補の評価を行う。具体的には、把持対象の物体及び/又はステップS6で求めた上肢との衝突判定を行い、手が物体及び/又は上肢に埋まっている場合には、無限大となり、埋まっていない場合には1となるようなバイナリ評価関数を用いて評価を行うことが好ましい。   In step S7, the posture evaluation unit 15 evaluates hand gripping posture candidates. Specifically, the collision determination with the object to be grasped and / or the upper limb obtained in step S6 is performed, and when the hand is buried in the object and / or the upper limb, it becomes infinite. It is preferable to perform the evaluation using a binary evaluation function that is 1.

ステップS8において、姿勢評価部15によって、ステップS6において生成された手以外の姿勢についての評価値と、ステップS7の衝突判定による手の把持姿勢の評価値との積を総合的な把持姿勢評価値とするのが好ましい。このような評価値を得ることによって、物体等に手が埋まっているような不適切な姿勢を除外できるようになる。   In step S8, the product of the evaluation value for the posture other than the hand generated in step S6 by the posture evaluation unit 15 and the evaluation value of the hand gripping posture by the collision determination in step S7 is a comprehensive gripping posture evaluation value. Is preferable. By obtaining such an evaluation value, an inappropriate posture in which a hand is buried in an object or the like can be excluded.

ステップS9において、姿勢評価部15によって、ステップS8で求めた総合的な把持評価値に対して、好ましくは擬似焼きなまし法を用いて総合的な評価値が最小になる把持位置を求める。このような操作を実行することによって、姿勢評価部15で求めた姿勢が、局所解に陥り、不自然な姿勢を出力することがないようにすることができる。   In step S9, the posture evaluation unit 15 obtains a grip position where the comprehensive evaluation value is minimized by using the simulated annealing method with respect to the comprehensive grip evaluation value obtained in step S8. By executing such an operation, it is possible to prevent the posture obtained by the posture evaluation unit 15 from falling into a local solution and outputting an unnatural posture.

ステップS10において、姿勢評価部15によって、さらに繰り返して把持姿勢を生成する場合には、ステップS3に戻って異なるローカル座標に対して上述のフローを実行して、把持姿勢を生成する。そして、これら異なるローカル座標に対する求めた総合的な把持姿勢評価を比較し、最適な把持姿勢を選択することができる。   In step S10, when the posture evaluation unit 15 repeatedly generates a gripping posture, the process returns to step S3 to execute the above-described flow for different local coordinates to generate the gripping posture. Then, it is possible to compare the obtained comprehensive gripping posture evaluations with respect to these different local coordinates and select an optimal gripping posture.

図9(A)〜(D)に、上述のフローで生成した把持姿勢を示す。図5に示したものと同様にして、手の把持姿勢に対するローカル座標を、Y軸を中心にして、XZ平面を90度ずつ回転することで、4種類の異なるローカル座標に対する把持姿勢が生成される。好ましくは、これらの把持姿勢の総合的な評価値のうちでもっとも小さいものがもっとも自然な把持姿勢であり、図9(C)に示すような姿勢であった。   9A to 9D show the gripping postures generated by the above flow. In the same manner as shown in FIG. 5, by rotating the local coordinates for the hand gripping posture by 90 degrees about the Y axis, the gripping postures for four different local coordinates are generated. The Preferably, the smallest of the comprehensive evaluation values of these gripping postures is the most natural gripping posture, and the posture is as shown in FIG.

図10に示すように、Y軸に対する回転に限らず、Y軸方向への移動によってローカル座標を変更するようにしてもよい。図10(A)に示すように、把持対象の物体6の下側の把持位置限界にローカル座標を設定し、図10(B)〜(D)に示すように、順次Y軸上の上に移動し、図10(E)に示すように、物体の把持可能位置の上限までローカル座標を設定することができる。Y軸方向の移動に加えて、Y軸まわりに回転させてローカル座標を設定してもよい。   As shown in FIG. 10, the local coordinates may be changed not only by rotation with respect to the Y axis but also by movement in the Y axis direction. As shown in FIG. 10 (A), local coordinates are set at the lower grip position limit of the object 6 to be gripped, and sequentially on the Y axis as shown in FIGS. 10 (B) to (D). As shown in FIG. 10E, the local coordinates can be set up to the upper limit of the position where the object can be gripped. In addition to movement in the Y-axis direction, local coordinates may be set by rotating around the Y-axis.

なお、図7のフローチャートにおいては、手の把持姿勢候補を生成するごとにローカル座標を生成するステップを実行することとしているが、たとえば、他の実施の形態として、手の把持姿勢候補生成部13によって、複数の把持位置に対する把持姿勢候補をあらかじめ生成しておき、各把持姿勢候補に対してローカル座標を変更した場合の最適把持姿勢を選択した後、ステップS3に戻って、他の把持位置に対する把持姿勢候補についての最適把持姿勢を求めるようにしてもよい。   In the flowchart of FIG. 7, a step of generating local coordinates is executed every time a hand gripping posture candidate is generated. For example, as another embodiment, a hand gripping posture candidate generation unit 13 is used. To generate gripping posture candidates for a plurality of gripping positions in advance, select an optimal gripping posture when the local coordinates are changed for each gripping posture candidate, and then return to step S3 to return to other gripping positions. The optimum gripping posture for the gripping posture candidate may be obtained.

なお、上述した評価関数は、一例であって、上述した評価関数のうちの一部を組み合わせて利用してもよく、上述した以外の他の評価関数を用いてもよいのはもちろんである。   Note that the above-described evaluation function is an example, and a part of the above-described evaluation functions may be used in combination, and other evaluation functions other than those described above may be used.

上述した評価関数による評価の結果、図10(C)の把持姿勢の場合にもっとも総合的な評価関数が小さくなり、自然な把持姿勢であるとの結果が出力される。   As a result of the evaluation using the above-described evaluation function, the most comprehensive evaluation function becomes smaller in the case of the gripping posture in FIG. 10C, and a result that the gripping posture is natural is output.

図11に示すように、本発明の把持姿勢生成装置によれば、さまざまな3次元形状を有する把持対象物体に対して、自然な把持姿勢を容易かつ迅速に生成することができる。   As shown in FIG. 11, according to the gripping posture generation apparatus of the present invention, a natural gripping posture can be easily and quickly generated for gripping target objects having various three-dimensional shapes.

図11(A)は、三角すい状の物体の底部をCircular型の手の把持姿勢で支えるように把持した状態の最適把持姿勢の例を示す。図11(B)は、薄い円柱(厚さのある円板)の上下面をPinch型の手の把持姿勢でつまんで把持した状態の最適把持姿勢の例を示す。図11(C)は、図11(B)と同じ物体の場合に、把持する位置を物体の中央部にずらした状態でつまんだ状態の最適把持姿勢の例を示す。図11(D)は、立方体状の物体を上部からCircular型の手の把持姿勢で握って把持した状態の最適把持姿勢の例を示す。図11(E)は、円柱状の物体をParallel型の手の把持姿勢でつかんで把持した状態の最適把持姿勢の例を示す。図11(F)は、図11(A)と同じ三角すい状の物体を、その頂上部分をParallel型の手の把持姿勢で握って把持した状態の最適把持姿勢の例を示す。   FIG. 11A shows an example of the optimum gripping posture in a state where the bottom of the triangular cone-shaped object is gripped so as to be supported by the circular hand gripping posture. FIG. 11B shows an example of an optimum gripping posture in a state where the upper and lower surfaces of a thin cylinder (thick disc) are pinched and gripped with a gripping posture of a Pinch type hand. FIG. 11C shows an example of the optimum gripping posture in a state where the gripping position is shifted to the center of the object in the case of the same object as FIG. 11B. FIG. 11D shows an example of the optimum gripping posture in a state where a cubic object is gripped and gripped from above with a circular hand gripping posture. FIG. 11E shows an example of the optimum gripping posture in a state where a cylindrical object is gripped and gripped with a parallel hand gripping posture. FIG. 11F shows an example of the optimum gripping posture in a state in which the same triangular cone-shaped object as in FIG. 11A is gripped by gripping the top portion of the object with the gripping posture of the Parallel type hand.

たとえば、図11(A)と図11(F)に示すように、同じ把持対象の物体については、把持位置を入力部12を介して、マニュアルで入力することもできるが、手の把持姿勢候補生成部13によって、自動的に把持位置を探索して異なるローカル座標を設定することも可能である。   For example, as shown in FIGS. 11 (A) and 11 (F), for the same object to be gripped, the gripping position can be manually input via the input unit 12, but the hand gripping posture candidates The generating unit 13 can automatically search for a gripping position and set different local coordinates.

このように、さまざまな形状の3次元物体に対して、適切な手の把持姿勢候補を生成して、上肢全体の最適な把持姿勢を生成することができる。   As described above, it is possible to generate appropriate hand gripping posture candidates for three-dimensional objects having various shapes, and generate an optimal gripping posture of the entire upper limb.

上述においては、手以外の身体上の他の部位を肩関節であるとして説明をしたが、基点は、肩関節に限らず、他の部位であってもよい。たとえば、腰の位置を基点としたり、支持脚と地面との接点を基点としてもよい。腰の位置を基点とした場合には、上体の姿勢が、支持脚と地面との接点を基点とした場合には、全身の姿勢が、姿勢生成の対象となる。   In the above description, the other part on the body other than the hand has been described as the shoulder joint, but the base point is not limited to the shoulder joint and may be another part. For example, the position of the waist may be used as the base point, or the contact point between the support leg and the ground may be used as the base point. When the position of the waist is the base point, the posture of the upper body is the target of posture generation, and when the contact point between the support leg and the ground is the base point, the posture of the whole body is the target of posture generation.

[手の把持姿勢候補生成部の動作]
本発明の把持姿勢生成装置10は、手の把持姿勢候補生成部13によって、インタラクティブに多様な手の把持姿勢を生成することができるために、把持姿勢候補を多数生成して最適な把持姿勢を生成することができる。そこで、手の把持姿勢候補生成部13の動作について図12に示すようなフローチャートを参照して説明する。
[Operation of hand gripping posture candidate generation unit]
Since the gripping posture generation device 10 of the present invention can interactively generate various hand gripping postures by the hand gripping posture candidate generation unit 13, it generates a large number of gripping posture candidates and obtains an optimal gripping posture. Can be generated. The operation of the hand gripping posture candidate generation unit 13 will be described with reference to a flowchart shown in FIG.

手の把持姿勢候補生成部13には、入力部12から入力する情報として、3次元モデル化された把持対象の物体のデータを入力する。そして、把持姿勢に関して、図2に示すような小分類把持姿勢のデータの14分類のうちから把持姿勢のデータを選択して入力することができ、あるいは、把持姿勢を入力しなくとも、その物体を把持できる小分類把持姿勢を適切な把持姿勢すべてを出力させることもできる。また、把持位置に関して、把持対象の物体の把持する部分をユーザが指定して入力することができ、ユーザが把持位置を指定しない場合には、ランダムに抽出した複数の位置に対して、それぞれ適切な把持姿勢を生成することもできる。   As the information input from the input unit 12, data of the object to be gripped that is three-dimensionally modeled is input to the hand gripping posture candidate generation unit 13. With respect to the gripping posture, it is possible to select and input gripping posture data from among the 14 classifications of the small classification gripping posture data as shown in FIG. 2, or the object without inputting the gripping posture. It is also possible to output all of the appropriate gripping postures for the small classification gripping posture that can grip the. In addition, regarding the gripping position, the user can specify and input the gripping portion of the object to be gripped. If the user does not specify the gripping position, each of the plurality of randomly extracted positions is appropriate. A simple gripping posture can also be generated.

なお、小分類把持姿勢のデータを入力する場合には、小分類把持姿勢の分類名を指定してもよいが、あらかじめ各小分類把持姿勢のデータのサムネイル等を入力画面上に配置することによって、ユーザがそれを選択できるようにしてもよい。   In addition, when inputting the data of the small classification gripping posture, the classification name of the small classification gripping posture may be specified, but by placing thumbnails of the data of the small classification gripping posture on the input screen in advance The user may be able to select it.

ステップS13において、入力部12からデータを受け取った把持姿勢生成部22は、物体表面をトレースすることによって物体の形状特徴量のデータを抽出する。物体の形状特徴量とは、把持方向によって把持可能か否かを判断するためのパラメータである。物体を支持できる程度に指が物体に回らない場合には“0”、指が両側の面に届いて物体を支持できる場合には“1”、指が奥の面まで届く場合には“2”と表わす。より具体的には、それぞれの端点における法線の方向の角度の変化がπ未満であれば“0”、π以上2π未満であれば“1”、2π以上であれば“2”とする。たとえば手よりも大きな平板状の物体において、平板の平面の方向については、どの方向においても指が届かないため、0−0と表わす。たとえば平板状の物体において、平板の側面からの把持に対しては、平板の厚さ方向、すなわち左右の面には指が届くが、平板の高さ方向、すなわち上下の面には指が届かないことを、1−0と表わす。たとえば柱状の物体を側面から把持する場合において、物体の周方向には奥まで指が回るが、物体の高さが高く、この方向には指が回らないので、2−0と表わす。たとえば柱状の物体を端部から把持する場合において、高さ方向のいずれの側面についても指が届くので、1−1と表わす。柱状の物体において、柱の周方向には奥まで指が回り、柱の高さ方向の面にも指が届くので、2−1と表わす。たとえば球状の物体において、いずれの方向においても、指が奥まで届くので、2−2と表わす。   In step S <b> 13, the gripping posture generation unit 22 that has received data from the input unit 12 extracts shape feature data of the object by tracing the object surface. The shape feature amount of the object is a parameter for determining whether or not the object can be grasped depending on the grasping direction. "0" when the finger does not turn to the object to the extent that it can support the object, "1" when the finger can reach the surfaces on both sides and support the object, "2" when the finger reaches the back surface ". More specifically, it is “0” if the change in angle in the normal direction at each end point is less than π, “1” if it is π or more and less than 2π, and “2” if it is 2π or more. For example, in a flat object larger than the hand, the plane direction of the flat plate is expressed as 0-0 because the finger cannot reach in any direction. For example, in a flat object, for gripping from the side of the flat plate, the finger reaches the thickness direction of the flat plate, that is, the left and right surfaces, but the finger reaches the height direction of the flat plate, that is, the upper and lower surfaces. The absence is represented as 1-0. For example, when a columnar object is gripped from the side, the finger turns to the back in the circumferential direction of the object, but the height of the object is high, and the finger does not turn in this direction. For example, when a columnar object is gripped from the end, the finger reaches any side surface in the height direction, which is represented as 1-1. In the columnar object, the finger turns to the back in the circumferential direction of the column, and the finger also reaches the surface in the height direction of the column. For example, in a spherical object, since the finger reaches the back in any direction, it is expressed as 2-2.

その小分類把持姿勢の属する大分類把持姿勢の仮想指が、その物体に対して、1又は2、すなわちその物体の側面を支持できるか、その物体の奥まで指を回すことができるか検出する。   Detect whether the virtual finger of the large classification gripping posture to which the small classification gripping posture can support 1 or 2, that is, the side of the object, or can turn the finger to the back of the object .

上述した物体表面のトレース結果から、把持可能であると把持姿勢生成部22によって判断された場合には、把持姿勢生成部22は、物体の把持可能な位置にローカル座標を設定する。   When the grasping posture generation unit 22 determines that the object can be grasped from the trace result of the object surface described above, the grasping posture generation unit 22 sets local coordinates at a position where the object can be grasped.

図13(A)に示すように、大分類把持姿勢がPinch型の場合には、x軸方向の対立面の距離が第1の仮想指VF1及び第2の仮想指VF2の接触面間距離となり、これを形状特徴量のデータとする。図13(B)に示すように、大分類把持姿勢がParallel型の場合には、第2の仮想指として複数の指が用いられるので、y軸方向に指の太さの分ずつシフトさせた位置における対立面間の距離を接触面間距離とし、それぞれ形状特徴量のデータとする。なお、第2の仮想指のうちの一番下側にある指のように、物体に外部にあって物体に接触していない場合には、把持に加わらない指として扱う。たとえば接触面間距離を0とする。図13(C)に示すように、大分類把持姿勢がCircular型の場合には、対向する第1及び第2の仮想指VF1,VF2に加えて、第3の仮想指VF3がある。第3の仮想指VF3は、第1及び第2の仮想指VF1,VF2からなるx座標軸に直交するy座標軸として扱う。以上のようにして、仮想指の接触面間距離を測定することによって、把持対象の物体6の形状特徴量のデータを抽出する。このように、形状特徴量と大分類把持姿勢とを関連付けることによって、与えられた把持対象の物体に対して把持可能か否かをすばやく判断することができるようになる。なお、ここで、把持姿勢生成部22によって、ハサミのように物理的に離れた部分を有する物体を把持する把持姿勢を生成しようとする場合には、把持対象の物体の離れた部分それぞれに対して、形状特徴量を抽出し、把持姿勢を生成する。したがって、ハサミのように、物理的に離れた柄の部分を、またがるように把持させた把持姿勢を生成するためには、把持対象の物体を、物体の離れた部分を含む、3次元空間に配置した点を含む最小の凸図形である凸包体形状とする必要がある。把持姿勢生成部22に入力された物体6の形状に基づいて、たとえば凸包体を生成する他のプログラムを用いて、その物体6の凸包体を生成して、その凸包体を把持姿勢生成部22に入力する。入力された凸包体の形状に基づいて、把持姿勢生成部22によって、形状特徴量が抽出され、適切な把持姿勢が生成されるようになる。   As shown in FIG. 13A, when the large classification gripping posture is a Pinch type, the distance between the opposing surfaces in the x-axis direction is the distance between the contact surfaces of the first virtual finger VF1 and the second virtual finger VF2. This is used as shape feature data. As shown in FIG. 13B, when the large classification gripping posture is a parallel type, a plurality of fingers are used as the second virtual finger, and thus the finger thickness is shifted by the thickness of the finger in the y-axis direction. The distance between the opposing surfaces at the position is defined as the distance between the contact surfaces, and the data of the shape feature amount. In addition, like the finger on the lowermost side of the second virtual finger, when the object is outside the object and is not in contact with the object, it is treated as a finger that does not participate in gripping. For example, the distance between contact surfaces is set to zero. As shown in FIG. 13C, when the large classification gripping posture is a circular type, there is a third virtual finger VF3 in addition to the first and second virtual fingers VF1 and VF2 facing each other. The third virtual finger VF3 is treated as a y coordinate axis orthogonal to the x coordinate axis composed of the first and second virtual fingers VF1 and VF2. As described above, by measuring the distance between the contact surfaces of the virtual fingers, the shape feature data of the object 6 to be grasped is extracted. As described above, by associating the shape feature quantity with the large classification gripping posture, it is possible to quickly determine whether or not the given gripping target object can be gripped. Here, when the gripping posture generation unit 22 generates a gripping posture for gripping an object having a physically separated portion such as scissors, each of the separated portions of the object to be gripped is to be generated. Then, the shape feature amount is extracted, and a gripping posture is generated. Therefore, in order to generate a gripping posture in which a part of a handle that is physically separated, such as scissors, is straddled, the object to be gripped is placed in a three-dimensional space including the part of the object that is distant. It is necessary to have a convex hull shape that is the smallest convex figure including the arranged points. Based on the shape of the object 6 input to the gripping posture generation unit 22, a convex hull of the object 6 is generated using, for example, another program that generates a convex hull, and the convex hull is gripped. Input to the generation unit 22. Based on the input shape of the convex hull, the gripping posture generation unit 22 extracts a shape feature amount and generates an appropriate gripping posture.

ステップS14において、抽出された形状特徴量のデータをクエリとしてデータベース20にアクセスし、把持姿勢生成部22は、該当する索引付けされた小分類把持姿勢のデータを探索する。   In step S14, the database 20 is accessed using the extracted shape feature data as a query, and the gripping posture generation unit 22 searches the corresponding indexed small classification gripping posture data.

ステップS15において、把持姿勢生成部22は、該当する索引付けされた小分類把持姿勢のデータをデータベース20中に発見した場合には、次のステップS17に進む。   In step S15, when the gripping posture generation unit 22 finds the corresponding indexed small classification gripping posture data in the database 20, the processing proceeds to the next step S17.

データベース20中に見つからなかった場合には、ステップS16において、把持姿勢生成部22は、各指の間の距離及び各指の関節角度のデータを補間生成し、データベース20に書き込む。小分類把持姿勢がParallel型やCircular型の場合には、1つの仮想指に対して複数の指が関連するため、データベース20に存在する把持姿勢のデータだけでは、該当するものが見つかることは少ない。そこで、データベース20には、物体の幅の値、すなわち接触面間距離を形状特徴量のデータとして、索引付けされた小分類把持姿勢ごとに、形状特徴量のデータに対する各指の角度も索引付けされているので、複数存在する既存のこれらのデータを用いて、線形補間計算を行うことによって未知の指の関節角度を計算することができる。したがって、各指に対応する形状特徴量のデータごとに線形補間計算を行うことによって、各指の関節角度のデータを得ることができる。各指の関節角度のデータは、それぞれ独立して線形補間計算される。これによって、把持対象となる物体の把持位置の太さが異なるような場合であっても、指の接触位置によって指の関節角度のデータを補間生成することができ、自然な把持姿勢を生成することができる。なお、線形補間計算によって、新たに生成された各指の関節角度のデータは、データベース20上に書き込まれる場合に限らず、キャッシュメモリ等他の一時記憶メモリに保存されてもよく、生成して探索に用いられた後にすぐに消去されてもよい。   If not found in the database 20, in step S <b> 16, the gripping posture generation unit 22 generates and interpolates data on the distance between the fingers and the joint angle of each finger and writes the data in the database 20. When the small classification gripping posture is a Parallel type or a Circular type, since a plurality of fingers are related to one virtual finger, it is rare that a corresponding one is found only with the gripping posture data existing in the database 20. . Therefore, the database 20 also indexes the angle of each finger with respect to the shape feature data for each indexed small classification gripping posture, using the object width value, that is, the distance between the contact surfaces as the shape feature data. Therefore, the joint angle of an unknown finger can be calculated by performing linear interpolation calculation using a plurality of existing data. Therefore, joint angle data of each finger can be obtained by performing linear interpolation calculation for each shape feature amount data corresponding to each finger. The data of the joint angle of each finger is calculated by linear interpolation independently. As a result, even if the thickness of the gripping position of the object to be gripped is different, the data of the finger joint angle can be interpolated and generated by the finger contact position, and a natural gripping posture is generated. be able to. It should be noted that the newly generated joint angle data of each finger by the linear interpolation calculation is not limited to being written on the database 20, but may be stored in another temporary storage memory such as a cache memory. It may be deleted immediately after being used for searching.

ステップS17において、把持姿勢生成部22は、把持対象の物体のデータの座標軸と探索された小分類把持姿勢の指上の代表点のデータによる座標とから、手と物体との位置合わせを行う。   In step S <b> 17, the gripping posture generation unit 22 aligns the hand and the object based on the coordinate axes of the data of the object to be gripped and the coordinates of the representative point data on the finger of the searched small classification gripping posture.

ステップS18において、把持姿勢生成部22は、位置合わせされた手及び指の配置を、点群間の距離に基づいた最適化アルゴリズムの1つであるICP(Iterative Closest Point)アルゴリズムによって最適化する。ここで、ICPアルゴリズムでは、物体と把持姿勢との2つの座標系に属する点群間で点と点との対応付けを行い、対応付けされた点のペアの間の距離を最小にするように座標系間のアフィン変換を求めるという処理を反復して、最適配置を求める。なお、手の最適配置を求めるアルゴリズムは、ICPアルゴリズムに限らず、他の3次元形状位置合わせアルゴリズムを用いることができる。   In step S <b> 18, the gripping posture generation unit 22 optimizes the arrangement of the aligned hands and fingers by an ICP (Iterative Closest Point) algorithm, which is one of the optimization algorithms based on the distance between the point groups. Here, in the ICP algorithm, the point-to-point association is performed between the point groups belonging to the two coordinate systems of the object and the gripping posture, and the distance between the pair of associated points is minimized. The optimum arrangement is obtained by repeating the process of obtaining the affine transformation between coordinate systems. The algorithm for obtaining the optimal hand placement is not limited to the ICP algorithm, and other three-dimensional shape alignment algorithms can be used.

代表点及び接触点群とは、以下のように定義される。   The representative point and the contact point group are defined as follows.

図14(A)及び図15(A)は、代表点7及び接触点8を説明するために、物体6を把持した手の状態を示す図である。図14(A)は、Lat型(側面把握のPinch型把持姿勢)を示し、図15(A)はPE型(並列伸展把握のParallel型把持姿勢)の例を示す。図14(B)に示すように、代表点7は、2つの仮想指を有する把持姿勢については、第1の仮想指VF1上に1つ、第2の仮想指VF2上に1つ設定される。図15(B)に示すように、3つの仮想指を有する把持姿勢については、代表点7は、各仮想指VF1,VF2、VF3に1つずつ設定される。これらの代表点の位置のデータから、3次元空間内における手の位置及び方向の6次元のデータを一意に決定することができる。   FIGS. 14A and 15A are views showing the state of the hand holding the object 6 in order to explain the representative point 7 and the contact point 8. 14A shows an example of a Lat type (Pinch type holding posture for grasping a side surface), and FIG. 15A shows an example of a PE type (Parallel type holding posture for grasping a parallel extension). As shown in FIG. 14B, for the gripping posture having two virtual fingers, one representative point 7 is set on the first virtual finger VF1 and one on the second virtual finger VF2. . As shown in FIG. 15B, for the gripping posture having three virtual fingers, one representative point 7 is set for each virtual finger VF1, VF2, and VF3. From the data of the positions of these representative points, it is possible to uniquely determine 6-dimensional data of the hand position and direction in the three-dimensional space.

また、図14(C)及び図15(C)に示すように、小分類把持姿勢のデータごとに、各指に接触点8のデータが設定される。接触点8のデータを各指に設定することによって、把持対象の物体との位置合わせの最適化に用いることができる。   Further, as shown in FIGS. 14C and 15C, the data of the contact point 8 is set for each finger for each data of the small classification holding posture. By setting the data of the contact point 8 for each finger, it can be used for optimizing the alignment with the object to be grasped.

代表点7のデータは、把持姿勢生成部22で生成された把持姿勢の把持位置の初期値となる座標を設定し、物体6に生成された座標と合わせて、手の配置を決定するのに用いられる。また、接触点8のデータは、決定した手の配置を任意のアルゴリズムを用いることによって、最適な位置に設定するのに用いられる。   The data of the representative point 7 is used to set the coordinates as the initial value of the gripping position of the gripping posture generated by the gripping posture generation unit 22 and determine the hand arrangement together with the coordinates generated on the object 6. Used. The data of the contact point 8 is used to set the determined hand arrangement to an optimum position by using an arbitrary algorithm.

なお、上述した代表点7及び接触点8を配置する位置は、一例であって、任意の位置に配置することができるのは言うまでもない。   In addition, the position where the representative point 7 and the contact point 8 described above are arranged is an example, and needless to say, it can be arranged at an arbitrary position.

把持位置近傍に発生させた接触点群を、ICPアルゴリズムのための物体の表面の点群として用いる。   A contact point group generated in the vicinity of the gripping position is used as a point group on the surface of the object for the ICP algorithm.

ステップS18において、配置の最適化のための計算を反復して行うと、把持姿勢によっては、物体6に配置された一部の指が埋もれた状態で生成されたり、物体6から一部の指が離れてしまう場合がある。そこで、ステップS18において、反復された配置の状態のデータを毎回記憶しておく。そして、物体6と各指との衝突判定を行いながら、埋まっている指については、埋まってしまう直前の状態を探索し、接触していない指については、物体6に接触するまで屈曲させることによって最終的な最適配置を決定することができる。   In step S18, when the calculation for optimizing the arrangement is repeatedly performed, depending on the gripping posture, a part of the fingers arranged on the object 6 may be generated or a part of the fingers may be generated from the object 6. May leave. Therefore, in step S18, the data of the repeated arrangement state is stored every time. Then, while performing a collision determination between the object 6 and each finger, for a buried finger, search for a state immediately before being buried, and for a finger that is not in contact, bend until the object 6 comes into contact. The final optimal placement can be determined.

このように、手の把持姿勢候補生成部13によれば、手の指の関節の角度に関して、逆運動学を用いて計算する必要がなく、手の部分を他の部位と分離して把持姿勢候補を生成することができる。   Thus, according to the hand gripping posture candidate generation unit 13, it is not necessary to calculate the joint angle of the hand using inverse kinematics, and the hand gripping posture is separated from other parts. Candidates can be generated.

また、このような手の把持姿勢候補生成部13によれば、把持姿勢生成装置10は、把持対象の物体のデータ以外に、把持位置及び/又は把持方向を指定するだけで、適切な手の把持姿勢候補を生成することができる。さらに、把持位置等を指定しなくても、自動的に把持位置等を探索して、複数の手の把持姿勢生成候補を生成することができる。これら複数の手の把持姿勢候補ごとに、手以外の姿勢を生成することができる。   Further, according to such a gripping posture candidate generation unit 13 of the hand, the gripping posture generation device 10 can specify an appropriate hand only by specifying the gripping position and / or gripping direction in addition to the data of the object to be gripped. A gripping posture candidate can be generated. Furthermore, it is possible to automatically search for a gripping position or the like and generate a plurality of hand gripping posture generation candidates without specifying the gripping position or the like. Postures other than the hand can be generated for each of the plurality of hand gripping posture candidates.

したがって、手の以外の部位の姿勢と組み合わせて総合的な姿勢評価を行うことによって、容易に手の把持姿勢を含む姿勢生成を実行することができる。また、大分類把持姿勢に基づいて、把持対象物体の形状特徴量を抽出することによって、より迅速に把持対象物体との把持可否について判断することができるので、手の把持姿勢生成について、よりインタラクティブ性を高めることを可能にする。   Therefore, by performing a comprehensive posture evaluation in combination with the posture of a part other than the hand, posture generation including a hand gripping posture can be easily executed. In addition, by extracting the shape feature amount of the gripping target object based on the large classification gripping posture, it is possible to more quickly determine whether or not the gripping target object can be gripped. Makes it possible to enhance sex.

上述した把持姿勢生成装置、把持姿勢生成方法及び把持姿勢生成プログラムは、具体例を説明するためのものであって、上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。   The gripping posture generation device, the gripping posture generation method, and the gripping posture generation program described above are for explaining specific examples, and are not limited to the above-described embodiments, and depart from the gist of the present invention. Needless to say, various modifications can be made without departing from the scope.

1 母指、2 示指、3 中指、4 薬指、5 小指、6 物体、7 代表点、8 接触点、10 把持姿勢生成装置、12 入力部、13 手の把持姿勢候補生成部、14 手以外の姿勢生成部、15 姿勢評価部、16 出力部、20 データベース、21 記憶部、22 把持姿勢生成部、P 手のひら   1 thumb, 2nd finger, 3 middle finger, 4 ring finger, 5 little finger, 6 object, 7 representative point, 8 contact point, 10 gripping posture generation device, 12 input unit, 13 hand gripping posture candidate generation unit, other than 14 hands Posture generation unit, 15 Posture evaluation unit, 16 Output unit, 20 Database, 21 Storage unit, 22 Grasping posture generation unit, P Palm

Claims (12)

把持対象の物体のデータを入力して、該物体を把持するのに適した手及び指の姿勢に関するデータを含むデータベースに基づいて、手の把持姿勢候補のデータを生成する手の把持姿勢候補生成部と、
手以外の身体上の他の位置のデータを入力して、該他の位置と上記手の把持姿勢候補生成部で生成された手の位置との間の関節の角度を求める手以外の姿勢生成部と、
上記手以外の姿勢生成部で生成された上記関節の角度を含む手以外の姿勢のデータを所定の評価関数に基づいて評価する姿勢評価部とを備え、
上記手の把持姿勢候補生成部は、1個以上の手の把持姿勢候補のデータを生成し、
上記手以外の姿勢生成部は、上記生成された手の把持姿勢候補のデータごとの手の位置と、上記他の位置との間の上記関節の角度を求め、上記姿勢評価部により、該関節の角度の中から最適な角度を有する手以外の姿勢のデータを生成することを特徴とする手及び手以外の把持に関与する身体部の把持姿勢生成装置。
Hand gripping posture candidate generation based on a database containing data on hand and finger postures suitable for gripping the object by inputting the data of the object to be gripped. And
The posture generation other than the hand for inputting the data of the other position on the body other than the hand and calculating the angle of the joint between the other position and the position of the hand generated by the hand holding posture candidate generation unit. And
A posture evaluation unit that evaluates posture data other than the hand including the angle of the joint generated by the posture generation unit other than the hand based on a predetermined evaluation function;
The hand gripping posture candidate generation unit generates data of one or more hand gripping posture candidates,
The posture generation unit other than the hand calculates an angle of the joint between the generated hand gripping posture candidate data and the other position, and the posture evaluation unit determines the joint A device for generating a gripping posture of a body part involved in gripping of a hand and a hand other than the hand, characterized in that data of a posture other than the hand having an optimum angle is generated from the angles of the hand.
上記手の把持姿勢候補生成部は、
上記データベースを記憶する記憶部と、
入力された上記物体の形状のデータ及び上記データベースに基づいて、該物体を把持した状態の把持姿勢のデータを生成する把持姿勢生成部とを有し、
上記データベースは、
少なくとも上記手及び指の姿勢に関するデータを有する小分類把持姿勢のデータを含む階層と、該小分類把持姿勢のデータに関連付けされ、幅の異なる基本形状を有する物体を把持した状態で取得され、該幅によって索引付けされた索引小分類把持姿勢のデータを含む階層とを有し、
上記索引小分類把持姿勢のデータには、索引付けされた各指の各関節角度が関連付けられ、上記小分類把持姿勢のデータには、指上に設定された代表点のデータ及び接触点群のデータが関連付けられており、
上記把持姿勢生成部は、
上記入力された物体の表面又は該入力された物体のデータに基づいて生成された該物体の凸包体の表面をトレースして、該入力された物体を把持した際に、上記索引小分類把持姿勢の有する指が把持可能であるかを検出して、該索引小分類把持姿勢のデータに関連付けられ、索引付けされた各指の各関節角度のデータを探索し、
上記各指の各関節角度のデータが上記データベースに存在しない場合には、該データベース内に存在する該各指の関節角度のデータを補間計算することによって新たに各指の関節角度のデータを生成し、
把持可能な上記各指の関節角度のデータを発見したときには、上記代表点のデータに基づいて座標を設定して、上記手及び指の配置と上記物体との位置合わせを行い、
上記位置合わせをした位置を初期値として、上記指ごとの接触点群のデータに従って上記手及び指の最適な配置を決定することを特徴とする請求項1記載の把持姿勢生成装置。
The hand gripping posture candidate generation unit
A storage unit for storing the database;
A gripping posture generation unit that generates gripping posture data in a state of gripping the object based on the input shape data of the object and the database;
The database is
A hierarchy including at least the data of the small classification gripping posture having data relating to the posture of the hand and the finger and the data associated with the data of the small classification gripping posture and acquired in a state of gripping an object having a basic shape having a different width, A hierarchy including data of index small classification gripping posture indexed by width,
The index small classification gripping posture data is associated with each index angle of each indexed finger, and the small classification gripping posture data includes representative point data and contact point group data set on the finger. Data is associated,
The gripping posture generation unit
When the surface of the input object or the convex hull surface of the object generated based on the data of the input object is traced and the input object is gripped, the index small classification grip Detecting whether or not a finger having a posture can be gripped, and searching for data of each joint angle of each finger indexed and associated with the data of the index small classification gripping posture;
When the data of each finger joint angle does not exist in the database, the joint angle data of each finger is newly generated by performing interpolation calculation of the finger joint angle data existing in the database. And
When the data of the joint angle of each finger that can be gripped is found, the coordinates are set based on the data of the representative point, and the arrangement of the hand and fingers and the object are aligned,
2. The gripping posture generation apparatus according to claim 1, wherein an optimum arrangement of the hand and the finger is determined according to data of a contact point group for each finger, with the position obtained by the alignment as an initial value.
上記姿勢評価部は、上記手の把持姿勢候補生成部で生成された手の把持姿勢候補を、所定の評価関数に基づいて評価することを特徴とする請求項2記載の把持姿勢生成装置。   The gripping posture generation apparatus according to claim 2, wherein the posture evaluation unit evaluates the hand gripping posture candidates generated by the hand gripping posture candidate generation unit based on a predetermined evaluation function. 上記姿勢評価部は、上記手の把持姿勢候補の評価結果と上記手以外の姿勢の評価結果とに基づいて、全体の把持姿勢を決定することを特徴とする請求項3記載の把持姿勢生成装置。   4. The gripping posture generation apparatus according to claim 3, wherein the posture evaluation unit determines an overall gripping posture based on an evaluation result of the hand gripping posture candidate and an evaluation result of a posture other than the hand. . 上記姿勢評価部は、上記生成された手の把持姿勢候補ごとの手の把持姿勢候補の評価結果と上記手以外の姿勢の評価結果とに基づいて、全体の把持姿勢を求め、求めたすべての該全体の把持姿勢から最適な全体の把持姿勢を決定することを特徴とする請求項4記載の把持姿勢生成装置。   The posture evaluation unit obtains the entire gripping posture based on the evaluation result of the hand gripping posture candidate for each of the generated hand gripping posture candidates and the evaluation result of the posture other than the hand, and calculates all the obtained gripping postures. 5. The gripping posture generating apparatus according to claim 4, wherein an optimal overall gripping posture is determined from the overall gripping posture. 上記小分類把持姿勢のデータを含む階層は、大分類把持姿勢のデータを含む階層の下位の階層にあり、
上記大分類把持姿勢のデータは、上記小分類把持姿勢の少なくとも1つの指又は手のひらに関連付けされ、物体を把持する際に対向して該物体に接触する仮想指を有し、
上記仮想指が接触する該物体の面の間の距離によって、上記物体の形状特徴量のデータを抽出し、
上記物体の形状特徴量のデータに基づいて、上記索引小分類把持姿勢のデータを探索することを特徴とする請求項2〜5いずれか1項記載の把持姿勢生成装置。
The hierarchy including the data of the small classification gripping posture is in a lower hierarchy of the hierarchy including the data of the large classification gripping posture,
The data of the large classification gripping posture is associated with at least one finger or palm of the small classification gripping posture, and has virtual fingers that face the object while facing the object,
Based on the distance between the surfaces of the object in contact with the virtual finger, the shape feature value data of the object is extracted,
6. The gripping posture generation apparatus according to claim 2, wherein the index small-size gripping posture data is searched based on the shape feature amount data of the object.
上記各指の関節角度のデータは、該各指ごとに独立して決定されることを特徴とする請求項2〜6いずれか1項記載の把持姿勢生成装置。   The grip posture generation apparatus according to any one of claims 2 to 6, wherein the data of the joint angle of each finger is determined independently for each finger. 把持対象の物体のデータを入力して、該物体を把持するのに適した手及び指の姿勢に関するデータを含むデータベースに基づいて、手の把持姿勢候補のデータを生成するステップと、
手以外の身体上の他の位置のデータを入力して、該他の位置と上記生成された手の把持候補の手の位置との間の関節の角度を求めるステップと、
上記生成された手以外の姿勢を、所定の評価関数に基づいて評価するステップとを有し、
上記手の把持姿勢候補のデータを生成するステップは、1個以上の手の把持姿勢候補のデータを生成し、
上記関節の角度を求めるステップは、上記生成された手の把持姿勢候補のデータごとの手の位置と、上記他の位置との間の上記関節の角度を求め、
上記手以外の姿勢を評価するステップは、該関節の角度の中から最適な角度を有する手以外の姿勢のデータを生成することを特徴とする、手及び手以外の把持に関与する身体部の把持姿勢生成方法。
Inputting data of an object to be gripped and generating hand gripping posture candidate data based on a database including data on hand and finger postures suitable for gripping the object;
Inputting data of another position on the body other than the hand to determine an angle of a joint between the other position and the position of the hand of the generated gripping hand;
Evaluating a posture other than the generated hand based on a predetermined evaluation function,
The step of generating the hand gripping posture candidate data generates one or more hand gripping posture candidate data,
The step of determining the angle of the joint determines the angle of the joint between the hand position for each of the generated hand gripping posture candidate data and the other position,
The step of evaluating the posture other than the hand generates posture data other than the hand having an optimum angle from the angles of the joints, and is characterized in that A gripping posture generation method.
上記手の把持姿勢候補のデータを生成するステップは、
入力された上記物体の形状のデータ及び上記データベースに基づいて、該物体を把持した状態で生成される把持姿勢のデータを生成するステップを含み、
上記データベースは、
少なくとも上記手及び指の姿勢に関するデータを有する小分類把持姿勢のデータを含む階層と、該小分類把持姿勢のデータに関連付けされ、幅の異なる基本形状を有する物体を把持した状態で取得され、該幅によって索引付けされた索引小分類把持姿勢のデータを含む階層とを有し、
上記索引小分類把持姿勢のデータには、索引付けされた各指の各関節角度が関連付けられ、上記小分類把持姿勢のデータには、指上に設定された代表点のデータ及び接触点群のデータが関連付けられており、
上記把持姿勢のデータを生成するステップは、
上記入力された物体の表面又は該入力された物体のデータに基づいて生成された該物体の凸包体の表面をトレースして、該入力された物体を把持した際に、上記索引小分類把持姿勢の有する指が把持可能であるかを検出して、該索引小分類把持姿勢のデータに関連付けられ、索引付けされた各指の各関節角度のデータを探索するステップと、
上記各指の各関節角度のデータが上記データベースに存在しない場合には、該データベース内に存在する該各指の関節角度のデータを補間計算することによって新たに各指の関節角度のデータを生成するステップと、
把持可能な上記各指の関節角度のデータを発見したときには、上記代表点のデータに基づいて座標を設定して、上記手及び指の配置と上記物体との位置合わせを行い、
上記位置合わせをした位置を初期値として、上記指ごとの接触点群のデータに従って上記手及び指の最適な配置を決定するステップとを含むことを特徴とする請求項8記載の把持姿勢生成方法。
The step of generating the hand gripping posture candidate data includes:
Generating a gripping posture data generated in a state of gripping the object based on the input shape data of the object and the database;
The database is
A hierarchy including at least the data of the small classification gripping posture having data relating to the posture of the hand and the finger and the data associated with the data of the small classification gripping posture and acquired in a state of gripping an object having a basic shape having a different width, A hierarchy including data of index small classification gripping posture indexed by width,
The index small classification gripping posture data is associated with each index angle of each indexed finger, and the small classification gripping posture data includes representative point data and contact point group data set on the finger. Data is associated,
The step of generating the grip posture data includes
When the surface of the input object or the convex hull surface of the object generated based on the data of the input object is traced and the input object is gripped, the index small classification grip Detecting whether or not a finger having a posture can be gripped, and searching for data of each joint angle of each index indexed and associated with the data of the index small classification gripping posture;
When the data of each finger joint angle does not exist in the database, the joint angle data of each finger is newly generated by performing interpolation calculation of the finger joint angle data existing in the database. And steps to
When the data of the joint angle of each finger that can be gripped is found, the coordinates are set based on the data of the representative point, and the arrangement of the hand and fingers and the object are aligned,
9. The method for generating a gripping posture according to claim 8, further comprising: determining an optimal arrangement of the hand and the finger according to data of a contact point group for each finger, with the position obtained by the alignment as an initial value. .
上記生成された手の把持姿勢候補を、所定の評価関数に基づいて評価するステップを更に有する請求項9記載の把持姿勢生成方法。   The gripping posture generation method according to claim 9, further comprising a step of evaluating the generated hand gripping posture candidate based on a predetermined evaluation function. 上記生成された手の把持姿勢候補の評価結果と、上記生成された手以外の姿勢の評価結果に基づいて、全体の把持姿勢を求めるステップを更に有する請求項10記載の把持姿勢生成方法。   The gripping posture generation method according to claim 10, further comprising a step of obtaining an overall gripping posture based on the evaluation result of the generated gripping posture candidate of the hand and the evaluation result of the posture other than the generated hand. 請求項8〜11いずれか1項記載の方法をコンピュータに実行させる把持姿勢生成プログラム。   A gripping posture generation program for causing a computer to execute the method according to any one of claims 8 to 11.
JP2012047753A 2012-03-05 2012-03-05 Holding attitude generation device, holding attitude generation method and holding attitude generation program Pending JP2013182554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012047753A JP2013182554A (en) 2012-03-05 2012-03-05 Holding attitude generation device, holding attitude generation method and holding attitude generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012047753A JP2013182554A (en) 2012-03-05 2012-03-05 Holding attitude generation device, holding attitude generation method and holding attitude generation program

Publications (1)

Publication Number Publication Date
JP2013182554A true JP2013182554A (en) 2013-09-12

Family

ID=49273137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012047753A Pending JP2013182554A (en) 2012-03-05 2012-03-05 Holding attitude generation device, holding attitude generation method and holding attitude generation program

Country Status (1)

Country Link
JP (1) JP2013182554A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6591131B1 (en) * 2019-02-07 2019-10-16 三菱電機株式会社 Structure measuring apparatus and structure measuring method
JP2020518919A (en) * 2017-05-05 2020-06-25 ブルックス オートメーション インコーポレイテッド Method and apparatus for integrity assessment of transport equipment
WO2021176861A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method, computer program, and augmented reality sensing system
WO2023199456A1 (en) * 2022-04-14 2023-10-19 日本電気株式会社 Control device, robot system, control method, and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518919A (en) * 2017-05-05 2020-06-25 ブルックス オートメーション インコーポレイテッド Method and apparatus for integrity assessment of transport equipment
JP7209360B2 (en) 2017-05-05 2023-01-20 ブルックス オートメーション インコーポレイテッド METHOD AND APPARATUS FOR HEALTH EVALUATION OF CONVEYOR
JP6591131B1 (en) * 2019-02-07 2019-10-16 三菱電機株式会社 Structure measuring apparatus and structure measuring method
WO2020161852A1 (en) * 2019-02-07 2020-08-13 三菱電機株式会社 Structure measurement device and structure measurement method
WO2021176861A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method, computer program, and augmented reality sensing system
WO2023199456A1 (en) * 2022-04-14 2023-10-19 日本電気株式会社 Control device, robot system, control method, and recording medium

Similar Documents

Publication Publication Date Title
Kokic et al. Affordance detection for task-specific grasping using deep learning
Li et al. Data-driven grasp synthesis using shape matching and task-based pruning
Ueda et al. A hand-pose estimation for vision-based human interfaces
Saut et al. Efficient models for grasp planning with a multi-fingered hand
Borst et al. Realistic virtual grasping
Aleotti et al. Part-based robot grasp planning from human demonstration
KR102068197B1 (en) Methods and system for predicting hand positions for multi-hand phages of industrial objects
EP1774443A1 (en) System and method for simulating human movement using profile paths
Shi et al. Real-time grasping planning for robotic bin-picking and kitting applications
Tian et al. Realtime hand-object interaction using learned grasp space for virtual environments
CN110114194A (en) System and method for determining the grip locations of double-grip industrial object
Ottenhaus et al. Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning
ES2885077A1 (en) METHOD FOR DETERMINING A HAND GRIP MODEL (Machine-translation by Google Translate, not legally binding)
JP2013182554A (en) Holding attitude generation device, holding attitude generation method and holding attitude generation program
Kim et al. Learning reachable manifold and inverse mapping for a redundant robot manipulator
El-Khoury et al. Learning the natural grasping component of an unknown object
Besari et al. Feature-based egocentric grasp pose classification for expanding human-object interactions
JP5083992B1 (en) Gripping posture generation apparatus, holding posture generation method, and holding posture generation program
Baumgartl et al. A fast, gpu-based geometrical placement planner for unknown sensor-modelled objects and placement areas
JP2008059180A (en) Three-dimensional design support device, method, program, and recording medium
JP4669941B2 (en) 3D design support device and program
Miyata et al. Posture estimation for screening design alternatives by DhaibaHand-cell phone operation
Parque et al. Estimation of grasp states in prosthetic hands using deep learning
US20200349300A1 (en) Systems And Methods For Determining Digital Model Positioning For Grasping
CN110991237B (en) Virtual hand natural gripping action generation method based on gripping taxonomy