JP2009129069A - Gripping state estimation system and gripping state estimation method - Google Patents

Gripping state estimation system and gripping state estimation method Download PDF

Info

Publication number
JP2009129069A
JP2009129069A JP2007301545A JP2007301545A JP2009129069A JP 2009129069 A JP2009129069 A JP 2009129069A JP 2007301545 A JP2007301545 A JP 2007301545A JP 2007301545 A JP2007301545 A JP 2007301545A JP 2009129069 A JP2009129069 A JP 2009129069A
Authority
JP
Japan
Prior art keywords
gripping
detection sensor
motion detection
waveform
state estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007301545A
Other languages
Japanese (ja)
Inventor
Shuichi Nakamoto
秀一 中本
Kiminori Totani
公紀 戸谷
Osamu Nishimura
修 西村
Hideki Nukada
秀記 額田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007301545A priority Critical patent/JP2009129069A/en
Publication of JP2009129069A publication Critical patent/JP2009129069A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To estimate a gripping state when directly gripping an object to be gripped at a gripping part regardless of the size, shape and materials of the object. <P>SOLUTION: This gripping state estimation system includes: an object motion detection sensor 11 mounted on an object 2 to be gripped for detecting the motion of the object 2 as an electric signal waveform; a gripping part motion detection sensor 12 mounted on a gripping part 3 of the object 2 for detecting the motion of the gripping part 3 as an electric signal waveform; a waveform comparison part 132 for comparing the output waveforms of the object motion detection sensor 11 and the gripping part motion detection sensor 12; and a gripping state estimation part 133 for estimating the gripping state of the object 2 to be gripped in the gripping part 3 on the basis of the comparison result of the waveform comparison part 132. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体の把持状態を推定する把持状態推定システムおよび把持状態推定方法に関する。   The present invention relates to a gripping state estimation system and a gripping state estimation method for estimating a gripping state of an object.

近年、ノートパソコンや携帯電話機などの人が持ち運びながら使用するモバイル機器が広く普及しているが、これらの機器の設計においては、人間が感じる持ち易さを推定することが重要である。具体的には、センサを用いてそのデータを処理することによって、人間の感性を推定する。このような推定方法としては、表面に圧力センサなどを配置したグローブを手にはめて、物体を把持した時のセンサデータを処理することにより、把持状態を判定するものが知られている(例えば特許文献1参照)。この手法は、杖やハンドルなどの比較的しっかり握ることが必要な器具の形状および持ち易さの推定に適している。
特開2006−92376号公報
In recent years, mobile devices such as notebook personal computers and mobile phones that are carried around by people are widely used. In designing these devices, it is important to estimate the ease with which they can feel. Specifically, human sensitivity is estimated by processing the data using a sensor. As such an estimation method, a method is known in which a gripping state is determined by holding a glove having a pressure sensor or the like on the surface and processing sensor data when an object is gripped (for example, Patent Document 1). This method is suitable for estimating the shape and ease of holding of a device that needs to be grasped relatively firmly, such as a cane or a handle.
JP 2006-92376 A

しかしながら、上記従来技術においては以下の問題があった。   However, the above prior art has the following problems.

(1)ノートパソコンや携帯電話機など比較的小さい機器を持つ場合には、杖やハンドルほど力を入れて把持する必要はないので、圧力分布の測定が難しい。表面の形状が複雑な機器を持つ場合も同様である。 (1) When there is a relatively small device such as a notebook computer or a mobile phone, it is not necessary to hold the grip as hard as a cane or handle, so it is difficult to measure the pressure distribution. The same applies to a device having a complicated surface shape.

(2)圧力センサなどを表面に貼り付けたグローブを手にはめると、人間の把持感覚は大幅に変わってしまい、正確な測定を行うことができない。また、圧力センサの分解能の問題や、曲面での測定データの精度の問題もあり、必ずしも接触状態を正確に測定できるとは限らない。 (2) If a glove with a pressure sensor or the like attached to the surface is put in a hand, the human grasping sensation changes significantly and accurate measurement cannot be performed. There are also problems with the resolution of the pressure sensor and the accuracy of the measurement data on the curved surface, and the contact state cannot always be measured accurately.

(3)物体の把持においては、手と物体の接触面における滑り摩擦が人間の感じる持ち易さに大きく関与するが、従来の圧力センサ付きグローブを用いた方法は、グローブを装着した手で物体を間接的に把持することによって圧力を検知し、その圧力分布に基づいて物体の把持状態を判定する構成であるため、この滑り摩擦を測定することはできない。 (3) In gripping an object, the sliding friction on the contact surface between the hand and the object is greatly related to the ease of being felt by humans. However, the conventional method using a glove with a pressure sensor uses a hand with a glove attached to the object. Since the pressure is detected by indirectly gripping and the gripping state of the object is determined based on the pressure distribution, this sliding friction cannot be measured.

そこで、本発明は、上記従来技術の問題に鑑み、把持対象物を直接把持した際の把持状態を把持対象物の大きさ、形状、および材質など係わらず推定できる把持状態推定システムおよび把持状態推定方法を提供することを目的とする。   In view of the above-described problems of the prior art, the present invention provides a gripping state estimation system and a gripping state estimation that can estimate a gripping state when a gripping target is directly gripped regardless of the size, shape, and material of the gripping target. It aims to provide a method.

本発明に係る把持状態推定システムは、把持対象物に取り付けられ、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出センサと、前記把持対象物の把持実行部位に取り付けられ、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出センサと、前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較部と、この波形比較部における比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定部と、を有することを特徴とする。   A gripping state estimation system according to the present invention is attached to a gripping object, attached to a gripping object motion detection sensor that detects a motion of the gripping object as an electric signal waveform, and a gripping execution site of the gripping object, A grasping part movement detection sensor that detects the movement of the grasping part as an electric signal waveform, a waveform comparison unit that compares output waveforms of the grasping object movement detection sensor and the grasping part movement detection sensor, and this waveform comparison And a gripping state estimation unit that estimates a gripping state of the gripping object at the gripping execution site based on a comparison result in the unit.

本発明に係る把持状態推定方法は、把持対象物に取り付けられた把持対象物運動検出センサが、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出ステップと、前記把持対象物の把持実行部位に取り付けられた把持実行部位運動検出センサが、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出ステップと、前記把持実行部位で前記把持対象物を把持した際に前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較ステップと、この波形比較ステップにおける比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定ステップと、を有することを特徴とする。   The gripping state estimation method according to the present invention includes a gripping object motion detection step in which a gripping object motion detection sensor attached to a gripping object detects a motion of the gripping object as an electric signal waveform, and the gripping object When a gripping execution part motion detection sensor attached to the gripping execution part detects a movement of the gripping execution part as an electric signal waveform and grips the gripping object at the gripping execution part A waveform comparison step for comparing output waveforms of the gripping object motion detection sensor and the gripping execution part motion detection sensor, and a gripping state of the gripping object at the gripping execution part based on a comparison result in the waveform comparison step. A grasping state estimating step of estimating.

本発明によれば、把持対象物を直接把持した際の把持状態を把持対象物の大きさ、形状、および材質など係わらず推定できる把持状態推定システムおよび把持状態推定方法が提供される。   According to the present invention, there are provided a gripping state estimation system and a gripping state estimation method capable of estimating a gripping state when a gripping target is directly gripped regardless of the size, shape, and material of the gripping target.

(実施形態1)
以下、本発明の実施形態1に係る把持状態推定システムを図面に基づいて説明する。図1は、本実施形態に係る把持状態推定システムの全体構成例を示す斜視図である。図1(a)に示されるように、把持状態推定システムは、把持対象物運動検出センサ11、把持実行部位運動検出センサ12、およびデータ処理装置13から構成されたコンピュータシステムである。
(Embodiment 1)
Hereinafter, a gripping state estimation system according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view showing an example of the overall configuration of a gripping state estimation system according to the present embodiment. As shown in FIG. 1A, the gripping state estimation system is a computer system that includes a gripping object motion detection sensor 11, a gripping execution site motion detection sensor 12, and a data processing device 13.

把持対象物運動検出センサ11は、把持対象物2に取り付けられ、把持対象物2の運動時のデータ(以下、「運動データ」という。)を電気信号波形として検出するセンサである。   The gripping object motion detection sensor 11 is a sensor that is attached to the gripping object 2 and detects data during movement of the gripping object 2 (hereinafter referred to as “motion data”) as an electric signal waveform.

図1(a)では、把持対象物運動検出センサ11が、把持対象物2である筐体の表面に取り付けられている。把持対象物運動検出センサ11としては、角速度センサや加速度センサなど各種のセンサを用いることができる。角速度センサの場合には角速度データ、加速度センサの場合には加速度データが運動データとしてそれぞれ取得される。尚、理論上、物体の角速度はその物体のどの位置で計測しても同じ値となるので角速度センサを用いると好適である。すなわち、角速度センサを用いる場合には、センサの取り付け位置を自由に設定することができ、実際の計測やデータ処理が容易な利点がある。また、把持対象物運動検出センサ11の内部には姿勢センサ(図示省略する)が設けられており、水平方向に対する傾斜角度を姿勢データとして出力する。   In FIG. 1A, the gripping object motion detection sensor 11 is attached to the surface of the housing that is the gripping object 2. As the gripping object motion detection sensor 11, various sensors such as an angular velocity sensor and an acceleration sensor can be used. In the case of an angular velocity sensor, angular velocity data is acquired, and in the case of an acceleration sensor, acceleration data is acquired as motion data. Theoretically, the angular velocity of the object is the same value regardless of the position of the object, so it is preferable to use an angular velocity sensor. That is, when an angular velocity sensor is used, the sensor mounting position can be set freely, and there is an advantage that actual measurement and data processing are easy. Further, a posture sensor (not shown) is provided inside the grasped object motion detection sensor 11 and outputs an inclination angle with respect to the horizontal direction as posture data.

把持実行部位運動検出センサ12は、把持対象物2の把持動作を行う把持実行部位3(例えば人間の手)に取り付けられ、把持実行部位3の運動データを電気信号波形として検出するセンサである。図1(a)では、把持実行部位運動検出センサ12が、把持実行部位3である手にバンド型センサ固定部材121によって固定されている。図1(b)は、図1(a)の要部を説明する図である。尚、把持対象物運動検出センサ11と同タイプのセンサを用いると後のデータ処理が容易となるので好適である。   The gripping execution part motion detection sensor 12 is a sensor that is attached to a gripping execution part 3 (for example, a human hand) that performs a gripping operation of the gripping object 2 and detects motion data of the gripping execution part 3 as an electric signal waveform. In FIG. 1A, the gripping part movement detection sensor 12 is fixed to the hand that is the gripping part 3 by a band-type sensor fixing member 121. FIG. 1B is a diagram for explaining a main part of FIG. Note that it is preferable to use a sensor of the same type as the gripping object motion detection sensor 11 because subsequent data processing becomes easy.

データ処理装置13は、把持対象物運動検出センサ11および把持実行部位運動検出センサ12における運動データを無線若しくは有線により取得し、この運動データの解析によって把持実行部位3における把持対象物2の把持状態を推定するコンピュータである。図1(a)では、各センサから無線通信によって運動データが取得されることが示されている。   The data processing device 13 acquires motion data in the gripping object motion detection sensor 11 and the gripping execution part motion detection sensor 12 wirelessly or by wire, and by analyzing the motion data, the gripping state of the gripping target object 2 in the gripping execution part 3 It is a computer that estimates FIG. 1A shows that motion data is acquired from each sensor by wireless communication.

図2は、本実施形態に係る把持状態推定システム1の全体構成例を示すブロック図である。尚、図1と共通する符号は同一物を示すので説明を省略する。同図に示されるように、データ処理装置13は、検出データ変換部131、波形比較部132、および把持状態推定部133から構成されている。   FIG. 2 is a block diagram illustrating an example of the overall configuration of the gripping state estimation system 1 according to the present embodiment. Note that the same reference numerals as those in FIG. As shown in the figure, the data processing device 13 includes a detection data conversion unit 131, a waveform comparison unit 132, and a gripping state estimation unit 133.

検出データ変換部131は、把持対象物運動検出センサ11および把持実行部位運動検出センサ12で検出された運動データ(例えば角速度データや加速度データなど)を無線若しくは有線による通信で同時に取り込み、後述する波形比較部132において比較可能に単位系および座標系を揃えるプログラムである。   The detection data conversion unit 131 simultaneously captures motion data (for example, angular velocity data and acceleration data) detected by the gripping object motion detection sensor 11 and the gripping part motion detection sensor 12 by wireless or wired communication, and a waveform described later. This is a program for aligning unit systems and coordinate systems so that the comparison unit 132 can perform comparison.

波形比較部132は、検出データ変換部131から出力される2つの波形を比較し、波形の振幅比から滑り摩擦状態パラメータ、波形の位相差から弾性接触状態パラメータを求めるプログラムである。   The waveform comparison unit 132 is a program that compares the two waveforms output from the detection data conversion unit 131 and obtains the sliding friction state parameter from the amplitude ratio of the waveform and the elastic contact state parameter from the phase difference of the waveform.

図3は、滑り摩擦状態パラメータおよび弾性接触状態パラメータを説明する図である。同図において、実線は把持対象物運動検出センサ11から取得した運動データの波形(波形1)、破線は把持実行部位運動検出センサ12から取得した運動データの波形(波形2)を示すものとする。ここで、滑り摩擦状態パラメータは、波形全体から局所的な区間を切り出し、振幅比|a/b|を計算して求める。また、弾性接触状態パラメータは、2つの波形が重なるようにどちらか1つの波形の時間をずらし、2つの波形が最も重なる状態での位相差cを計算して求める。   FIG. 3 is a diagram for explaining the sliding friction state parameter and the elastic contact state parameter. In the figure, the solid line indicates the waveform (waveform 1) of the movement data acquired from the grasping object movement detection sensor 11, and the broken line indicates the waveform (waveform 2) of the movement data acquired from the holding execution part movement detection sensor 12. . Here, the sliding friction state parameter is obtained by cutting a local section from the entire waveform and calculating the amplitude ratio | a / b |. The elastic contact state parameter is obtained by shifting the time of one of the waveforms so that the two waveforms overlap each other and calculating the phase difference c in the state where the two waveforms overlap most.

把持状態推定部133は、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータに基づいて把持実行部位3による把持対象物2の把持状態を推定するプログラムであり、各パラメータを予め定義された推定関数に代入して把持状態を推定する。この推定関数は、滑り摩擦が小さい場合には、把持対象物2と把持実行部位3の間に滑りが生じるので、滑り摩擦状態パラメータが1に近いほど滑りにくく、物体をしっかりと把持できていると推定する。また、弾性接触時の弾性係数が小さい場合には、把持実行部位3の運動に対して把持対象物2の運動は遅れるので、弾性接触状態パラメータが0に近いほど物体をしっかりと把持できていると推定する。   The gripping state estimation unit 133 is a program that estimates the gripping state of the gripping target object 2 by the gripping execution site 3 based on the sliding friction state parameter and the elastic contact state parameter output from the waveform comparison unit 132. Substitute into the defined estimation function to estimate the grip state. In this estimation function, when the sliding friction is small, slip occurs between the gripping object 2 and the gripping execution site 3, so that the closer the sliding friction state parameter is to 1, the less slipping is possible and the object can be gripped firmly. Estimated. In addition, when the elastic coefficient at the time of elastic contact is small, the movement of the grasping object 2 is delayed with respect to the movement of the grasping execution part 3, so that the object can be grasped more firmly as the elastic contact state parameter is closer to zero. Estimated.

例えば、振幅比の値を滑り摩擦状態パラメータP1とし、位相差の値を弾性接触状態パラメータP2とした場合に、推定関数FをR=F(P1,P2)=AP+BP(A、Bは比例定数)のように定義することにより、把持状態Rを連続値として求めることができる。尚、推定関数Fには様々な式が考えられるが、把持対象物2の形状、大きさ、重量、および材質などが異なる場合の人間の感じる持ち易さのデータを統計し、この統計データの解析により定義すると好適である。 For example, when the value of the amplitude ratio is the sliding friction state parameter P 1 and the value of the phase difference is the elastic contact state parameter P 2 , the estimation function F is R = F (P 1 , P 2 ) = AP 1 + BP 2 By defining as (A and B are proportional constants), the gripping state R can be obtained as a continuous value. Various formulas are conceivable for the estimation function F, but data on the ease of holding that humans feel when the shape, size, weight, material, etc. of the grasped object 2 are different are statistically calculated. It is preferable to define by analysis.

図4は、把持状態と波形との関係を説明する図である。同図において、実線は把持対象物運動検出センサ11から取得した運動データ、破線は把持実行部位運動検出センサ12から取得した運動データの波形を示すものとする。図4(a)の場合には、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータの値が共に小さい。この場合、把持状態推定部133は、把持状態が安定し、持ち易いと推定する。一方、図4(b)の場合には、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータの値が共に大きい。この場合、把持状態推定部133は、把持状態が不安定であり、持ちにくいと推定する。   FIG. 4 is a diagram illustrating the relationship between the gripping state and the waveform. In the figure, the solid line indicates the motion data acquired from the gripping object motion detection sensor 11, and the broken line indicates the waveform of the motion data acquired from the gripping part motion detection sensor 12. In the case of FIG. 4A, both the sliding friction state parameter and the elastic contact state parameter output from the waveform comparison unit 132 are small. In this case, the gripping state estimation unit 133 estimates that the gripping state is stable and easy to hold. On the other hand, in the case of FIG. 4B, both the sliding friction state parameter and the elastic contact state parameter output from the waveform comparison unit 132 are large. In this case, the gripping state estimation unit 133 estimates that the gripping state is unstable and difficult to hold.

図5は、検出データ変換部131における処理の具体例を示すフローチャートである。   FIG. 5 is a flowchart illustrating a specific example of processing in the detection data conversion unit 131.

S501においては、把持対象物運動検出センサ11から運動データ(角速度データや加速度データなど)、単位系データ、および姿勢データを取得する。尚、単位系データは運動データの単位情報であるのでセンサの種類によって異なる。   In S501, motion data (angular velocity data, acceleration data, etc.), unit system data, and posture data are acquired from the grasped object motion detection sensor 11. The unit system data is unit information of motion data, and therefore differs depending on the type of sensor.

S502においては、把持実行部位運動検出センサ12から運動データ、単位系データ、および姿勢データを取得する。   In S <b> 502, motion data, unit system data, and posture data are acquired from the gripping part motion detection sensor 12.

S503においては、両センサから取得された姿勢データを比較し、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の水平方向に対する姿勢が異なるか否かを判定する。ここで、両センサの姿勢が異なると判定された場合には、S504へ進む。これに対し、両センサの姿勢が一致すると判定された場合には、S505へ進む。   In S503, the posture data acquired from both sensors is compared, and it is determined whether or not the postures of the gripping object motion detection sensor 11 and the gripping execution region motion detection sensor 12 are different from each other in the horizontal direction. If it is determined that the postures of the two sensors are different, the process proceeds to S504. On the other hand, if it is determined that the postures of both sensors match, the process proceeds to S505.

S504においては、把持実行部位運動検出センサ12の運動データの座標系を把持対象物運動検出センサ11の運動データの座標系を基準として変換し、S505へ進む。   In S504, the coordinate system of the motion data of the gripping part motion detection sensor 12 is converted with reference to the coordinate system of the motion data of the gripping object motion detection sensor 11, and the process proceeds to S505.

S505においては、両センサから取得された単位系データを比較し、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の運動データの単位が異なるか否かを判定する。ここで、運動データの単位が異なると判定された場合には、S506へ進む。これに対し、運動データの単位が一致すると判定された場合には、S507へ進む。   In S505, the unit system data acquired from both sensors are compared, and it is determined whether or not the units of motion data of the grasping object motion detection sensor 11 and the gripping execution region motion detection sensor 12 are different. If it is determined that the unit of the exercise data is different, the process proceeds to S506. On the other hand, if it is determined that the units of the exercise data match, the process proceeds to S507.

S506においては、把持実行部位運動検出センサ12の運動データの単位を把持対象物運動検出センサ11の運動データの単位に変換し、S507へ進む。   In S506, the unit of motion data of the gripping part motion detection sensor 12 is converted into the unit of motion data of the gripping object motion detection sensor 11, and the process proceeds to S507.

S507においては、波形に変換された運動データを波形比較部132へ出力し、処理を終了する。   In S507, the exercise data converted into the waveform is output to the waveform comparison unit 132, and the process ends.

図6は、波形比較部132における処理の具体例を示すフローチャートである。   FIG. 6 is a flowchart illustrating a specific example of processing in the waveform comparison unit 132.

S601においては、検出データ変換部131から波形に変換された運動データを取得する。   In S601, the motion data converted into a waveform is acquired from the detection data conversion unit 131.

S602においては、波形全体から任意の一区間を抽出する。   In S602, an arbitrary section is extracted from the entire waveform.

S603においては、2つの波形の振幅比から滑り摩擦状態パラメータを求める。   In S603, the sliding friction state parameter is obtained from the amplitude ratio of the two waveforms.

S604においては、2つの波形が重なるようにどちらか1つの波形の時間をずらし、2つの波形が最も重なる状態での位相差を計算して弾性接触状態パラメータを求める。   In S604, the time of one of the waveforms is shifted so that the two waveforms overlap, and the phase difference in the state where the two waveforms overlap most is calculated to obtain the elastic contact state parameter.

S605においては、波形の比較によって求められた各パラメータを把持状態推定部133へ出力し、処理を終了する。尚、各パラメータは、波形の複数の区間における平均値から求めても良い。   In step S605, each parameter obtained by comparing the waveforms is output to the gripping state estimation unit 133, and the process ends. Each parameter may be obtained from an average value in a plurality of sections of the waveform.

図7は、把持状態推定部133における処理の具体例を示すフローチャートである。   FIG. 7 is a flowchart illustrating a specific example of processing in the gripping state estimation unit 133.

S701においては、波形比較部132から滑り摩擦状態パラメータおよび弾性接触状態パラメータを取得する。   In step S <b> 701, the sliding friction state parameter and the elastic contact state parameter are acquired from the waveform comparison unit 132.

S702においては、取得された各パラメータを予め定義された推定関数に代入して把持状態を推定する。   In step S702, the gripping state is estimated by substituting each acquired parameter for a predefined estimation function.

S703においては、推定された把持状態を表示装置(図示省略する)やデータベース(図示省略する)へ出力し、処理を終了する。   In S703, the estimated gripping state is output to a display device (not shown) or a database (not shown), and the process ends.

このように、各センサで検出された運動データの波形を比較することによって把持実行部位3で把持対象物2を直接把持している際の把持状態、すなわち、把持対象物2と把持実行部位3の運動時における一体化の度合いを推定できる。そして、この把持状態推定システム1を製品の設計の際に用いることで、製品の最適な形状、大きさ、および材質などを決定することができる。   As described above, by comparing the waveforms of the motion data detected by the sensors, the gripping state when the gripping target object 2 is directly gripped by the gripping execution part 3, that is, the gripping target object 2 and the gripping execution part 3. The degree of integration during exercise can be estimated. Then, by using this gripping state estimation system 1 when designing a product, the optimum shape, size, material, and the like of the product can be determined.

(実施形態2)
以下、本発明の実施形態2に係る把持状態推定システム1を図面に基づいて説明する。実施形態1で述べたように、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の測定波形を比較するためには、座標系と単位系を揃える必要がある。単位系を揃える方法には、単位変換する方法と同タイプのセンサを用いて揃える方法があるが、いずれを用いても良い。一方、座標系を揃える方法には、姿勢センサで検出される姿勢データを利用する方法と機構的に揃える方法があるが、本実施形態では、姿勢センサは用いず、把持実行部位運動検出センサ12の姿勢を把持対象物運動検出センサ11の姿勢を基準としてセンサ方向可変部材122によって機構的に揃える。
(Embodiment 2)
Hereinafter, a gripping state estimation system 1 according to Embodiment 2 of the present invention will be described with reference to the drawings. As described in the first embodiment, in order to compare the measurement waveforms of the gripping object motion detection sensor 11 and the gripping execution site motion detection sensor 12, it is necessary to align the coordinate system and the unit system. As a method for aligning unit systems, there is a method for aligning by using the same type of sensor as that for unit conversion, and any method may be used. On the other hand, as a method of aligning the coordinate system, there are a method of using the posture data detected by the posture sensor and a method of aligning mechanically, but in this embodiment, the posture execution sensor is not used and the grasping execution part motion detection sensor 12 is used. Are mechanically aligned by the sensor direction variable member 122 on the basis of the posture of the gripping object motion detection sensor 11.

図8は、本発明の実施形態2に係る把持状態推定システム1の全体構成例を示す斜視図である。尚、図1と共通する符号は同一物を示すものであるので説明を省略する。   FIG. 8 is a perspective view showing an overall configuration example of the gripping state estimation system 1 according to Embodiment 2 of the present invention. Note that the same reference numerals as those in FIG.

図8(a)に示されるように、把持対象物2には把持対象物運動検出センサ11が取り付けられており、把持実行部位3である手に装着されたバンド型センサ固定部材121上には把持実行部位運動検出センサ12がセンサ方向可変部材122を介して取り付けられている。図8(b)は、図8(a)の要部を説明する図であり、センサ方向可変部材122にはボールジョイントが用いられている。尚、センサ方向可変部材122は、センサの姿勢を任意に変更できる機構を有するならば他の部材でも良い。利用者は、把持当初のセンサの姿勢が適切でない場合には、把持対象物運動検出センサ11の姿勢を基準として把持実行部位運動検出センサ12の姿勢を手動で調整し、座標系を機構的に揃えることができる。   As shown in FIG. 8A, the grasping object motion detection sensor 11 is attached to the grasping object 2, and on the band-type sensor fixing member 121 attached to the hand which is the grasping execution part 3, A gripping execution site motion detection sensor 12 is attached via a sensor direction variable member 122. FIG. 8B is a diagram for explaining a main part of FIG. 8A, and a ball joint is used for the sensor direction variable member 122. The sensor direction variable member 122 may be another member as long as it has a mechanism that can arbitrarily change the posture of the sensor. When the posture of the sensor at the beginning of gripping is not appropriate, the user manually adjusts the posture of the gripping portion movement detection sensor 12 with reference to the posture of the gripping object motion detection sensor 11 to mechanically change the coordinate system. Can be aligned.

このように構成することにより、把持実行部位運動検出センサ12内に姿勢センサ(図示省略する)を設ける必要がないので、実施形態1と比べてセンサの小型化が可能となり、データ処理装置13における処理負荷も軽減することができる。   With this configuration, since it is not necessary to provide a posture sensor (not shown) in the gripping execution part motion detection sensor 12, it is possible to reduce the size of the sensor compared to the first embodiment, and in the data processing device 13 Processing load can also be reduced.

(実施形態3)
以下、本発明の実施形態3に係る把持状態推定システム1を図面に基づいて説明する。図9は、本発明の実施形態3に係る把持状態推定システム1の全体構成例を示す斜視図である。尚、図1と共通する符号は同一物を示すものであり、データ処理装置13における処理は共通であるので説明を省略する。
(Embodiment 3)
Hereinafter, a gripping state estimation system 1 according to Embodiment 3 of the present invention will be described with reference to the drawings. FIG. 9 is a perspective view showing an example of the overall configuration of the gripping state estimation system 1 according to Embodiment 3 of the present invention. Note that the same reference numerals as those in FIG. 1 indicate the same items, and the processing in the data processing device 13 is the same, and the description thereof is omitted.

図9(a)に示されるように、本実施形態においては、一つの把持対象物運動検出センサ11に対して、把持実行部位運動検出センサ12が把持実行部位3である各々の指にリング型センサ固定部材123によって取り付けられている。図9(b)は、図9(a)の要部を説明する図である。   As shown in FIG. 9A, in the present embodiment, with respect to one gripping object motion detection sensor 11, each finger whose gripping execution part motion detection sensor 12 is the gripping execution part 3 has a ring shape. The sensor fixing member 123 is attached. FIG. 9B is a diagram for explaining a main part of FIG.

このように構成することにより、指ごとに把持状態を推定することが可能となる。すなわち、把持時にどの指が持ち易い状態であり、どの指が持ちにくい状態であるかを確認できる。この結果、持ちにくい指の箇所を改良して全体を持ち易くすることが可能となる。   With this configuration, it is possible to estimate the gripping state for each finger. That is, it is possible to confirm which fingers are easy to hold when gripping and which fingers are difficult to hold. As a result, it is possible to improve the portion of the finger that is difficult to hold and to easily hold the finger.

(実施形態4)
以下、本発明の実施形態4に係る把持状態推定システム1を図面に基づいて説明する。本実施形態では、把持対象物2を普通に持った状態で波形を測定すると波形の差異が出にくい場合もあることを考慮し、把持対象物2に対して意図的に物理的な力(外乱)を作用させ、このときの波形の解析により把持状態を推定する。具体的には、波形比較部132において外乱が加えられてから振動が減衰して波形が安定するまでの時間(以下、「減衰時間」という。)を求め、この減衰時間を滑り摩擦状態パラメータおよび弾性接触状態パラメータと共に把持状態推定部133における推定パラメータとして用いる。
(Embodiment 4)
Hereinafter, a gripping state estimation system 1 according to Embodiment 4 of the present invention will be described with reference to the drawings. In the present embodiment, considering that there is a case where it is difficult to produce a difference in waveform when the waveform is measured with the gripping object 2 held normally, a physical force (disturbance) is intentionally applied to the gripping object 2. ) And the grasping state is estimated by analyzing the waveform at this time. Specifically, a time from when a disturbance is applied in the waveform comparison unit 132 until the vibration is attenuated and the waveform is stabilized (hereinafter referred to as “attenuation time”) is obtained, and this attenuation time is determined as a sliding friction state parameter and Along with the elastic contact state parameter, it is used as an estimation parameter in the gripping state estimation unit 133.

図10は、外乱の発生方法の具体例を示す図である。尚、図2と共通する符号は同一物を示すので説明を省略する。図10(a)では、それ自体が振動を起こす加振装置14が把持対象物2に取り付けられており、振動が加えられている時の波形の差異を比較することにより、把持状態を推定する。一方、図10(b)では、インパクト作用装置15を用いて把持対象物2に物理的な力を作用させ、把持状態を推定する場合が示されている。図中の矢印は、物体に加わる力とその方向を示している。   FIG. 10 is a diagram illustrating a specific example of a disturbance generation method. Note that the same reference numerals as those in FIG. In FIG. 10A, the vibration device 14 that itself vibrates is attached to the grasped object 2, and the grasping state is estimated by comparing the difference in waveform when the vibration is applied. . On the other hand, FIG. 10B shows a case where a physical force is applied to the grasped object 2 using the impact acting device 15 to estimate the grasping state. The arrows in the figure indicate the force applied to the object and its direction.

図11は、波形と減衰時間の関係を説明する図である。図11(a)は、把持対象物2の把持状態が安定し、持ち易い場合の波形を示す図である。同図においては、減衰時間がTで表されている。一方、図11(b)は、把持対象物2の把持状態が不安定であり、持ちにくい場合の波形を示す図である。同図においては、減衰時間がTで表されている。図11(a)および(b)を比較すると、減衰時間は把持対象物2を持ちにくい場合の方が長い。つまり、物理的安定余裕が小さいということになる。 FIG. 11 is a diagram for explaining the relationship between the waveform and the decay time. FIG. 11A is a diagram illustrating a waveform when the gripping state of the gripping object 2 is stable and easy to hold. In the figure, the decay time is represented by T 1. On the other hand, FIG. 11B is a diagram illustrating a waveform when the gripping state of the gripping object 2 is unstable and difficult to hold. In the figure, the decay time is represented by T 2. Comparing FIGS. 11A and 11B, the decay time is longer when it is difficult to hold the object 2 to be grasped. That is, the physical stability margin is small.

このように、把持状態推定部133が減衰時間を把持状態の推定関数のパラメータに加えることにより、更に詳細に把持状態を推定できる。   In this way, the gripping state estimation unit 133 can estimate the gripping state in more detail by adding the decay time to the parameter of the gripping state estimation function.

(実施形態5)
以下、本発明の実施形態5に係る把持状態推定システム1を図面に基づいて説明する。図12は、本発明の実施形態5に係る把持状態推定システム1の全体構成例を示すブロック図である。本実施形態に係る把持状態推定システム1は、実施形態1のシステムに対して、負荷測定装置16、疲労度推定部134、データベース部135、および持ち易さ推定部136が追加されたコンピュータシステムである。尚、図1および図2と共通する符号は同一物を示すものであり、把持実行部位運動検出センサ12の取り付け方法は前述した実施形態のいずれかを用いるため説明を省略する。
(Embodiment 5)
Hereinafter, a gripping state estimation system 1 according to Embodiment 5 of the present invention will be described with reference to the drawings. FIG. 12 is a block diagram showing an example of the overall configuration of the gripping state estimation system 1 according to Embodiment 5 of the present invention. The gripping state estimation system 1 according to the present embodiment is a computer system in which a load measuring device 16, a fatigue level estimation unit 134, a database unit 135, and an ease-of-holding estimation unit 136 are added to the system of the first embodiment. is there. Reference numerals common to FIGS. 1 and 2 indicate the same thing, and the mounting method of the gripping execution site motion detection sensor 12 uses any of the above-described embodiments, and thus the description thereof is omitted.

負荷測定装置16は、把持実行部位3である身体の一部に取り付けられ、運動時の身体データを測定するセンサである。例えば、筋電センサや心拍数測定装置などが挙げられるが、ここでは筋電センサを用いるものとして説明する。   The load measuring device 16 is a sensor that is attached to a part of the body that is the grasping execution site 3 and measures body data during exercise. For example, a myoelectric sensor, a heart rate measuring device, and the like can be cited. Here, the description will be made assuming that a myoelectric sensor is used.

疲労度推定部134は、負荷測定装置16において測定された身体データを取得し、この身体データに基づいて疲労度を推定するプログラムである。具体的には、筋電センサで測定された筋肉活動のデータを波形化し、この波形の一定期間についての積分値を算出することにより把持動作における疲労度を推定する。すなわち、疲労度が小さければ小さいほど持ち易いと感じていると推定される。尚、実施形態1と同様に予め定義された推定関数を用いて疲労度を推定してもよい。   The fatigue level estimation unit 134 is a program that acquires body data measured by the load measuring device 16 and estimates the fatigue level based on the body data. Specifically, the muscle activity data measured by the myoelectric sensor is converted into a waveform, and the integrated value for a certain period of the waveform is calculated to estimate the degree of fatigue in the gripping operation. That is, it is estimated that the smaller the degree of fatigue, the easier it is to hold. Note that the degree of fatigue may be estimated using a pre-defined estimation function as in the first embodiment.

データベース部135は、把持状態および疲労度の推定値と把持対象物2の持ち易さの関係を予め記憶するデータベースである。図13は、データベース部135の具体例を示す図である。A1〜A4およびB1〜B4は把持状態推定部133および疲労度推定部134でそれぞれ求められた推定値のレベルを示しており、人間が把持対象物2を把持する際に感じる持ち易さのレベルであるC1〜C4に対応付けられている。   The database unit 135 is a database that stores in advance the relationship between the gripping state and the estimated fatigue level and the ease of holding the gripping object 2. FIG. 13 is a diagram illustrating a specific example of the database unit 135. A1 to A4 and B1 to B4 indicate the levels of the estimated values obtained by the gripping state estimation unit 133 and the fatigue level estimation unit 134, respectively, and the level of ease of gripping when a human grips the gripping object 2 Are associated with C1 to C4.

持ち易さ推定部136は、疲労度推定部134で求められた疲労度と把持状態推定部133で求められた把持状態に基づいてデータベース部135を参照し、人間が把持対象物2を把持する際に感じる持ち易さを推定するプログラムである。尚、推定された把持状態、疲労度、および持ち易さの関係は、データ処理装置13に接続された入力装置(図示省略する)から入力された把持対象物2の属性データ(形状、材質、大きさ、重量など)に関連付けされてデータベース部135に蓄積されると推定結果を有効に利用できるので好適である。   The ease-of-holding estimation unit 136 refers to the database unit 135 based on the fatigue level obtained by the fatigue level estimation unit 134 and the gripping state obtained by the gripping state estimation unit 133, and a person grips the grasped object 2. It is a program that estimates the ease of holding. Note that the relationship between the estimated gripping state, the degree of fatigue, and the ease of holding is attribute data (a shape, a material, a shape, a material, a gripping object 2) input from an input device (not shown) connected to the data processing device 13. It is preferable that the estimation result can be used effectively if it is stored in the database unit 135 in association with the size, weight, etc.

図14は、疲労度推定部134における処理の具体例を示すフローチャートである。   FIG. 14 is a flowchart illustrating a specific example of processing in the fatigue level estimation unit 134.

S1401においては、負荷測定装置16から負荷測定データを取得する。   In S1401, load measurement data is acquired from the load measurement device 16.

S1402においては、取得された負荷測定データの波形の一定期間についての積分値を算出し、この積分値から疲労度を推定する。   In S1402, an integrated value for a certain period of the waveform of the acquired load measurement data is calculated, and the degree of fatigue is estimated from this integrated value.

S1403においては、求められた疲労度を持ち易さ推定部136へ出力し、処理を終了する。   In step S1403, the obtained fatigue level is output to the ease estimation unit 136, and the process ends.

図15は、持ち易さ推定部136における処理の具体例を示すフローチャートである。   FIG. 15 is a flowchart illustrating a specific example of processing in the ease-of-hold estimation unit 136.

S1501においては、把持状態推定部133から把持状態の推定値を取得する。   In step S <b> 1501, the gripping state estimation value is acquired from the gripping state estimation unit 133.

S1502においては、疲労度推定部134から疲労度の推定値を取得する。   In S1502, an estimated value of the fatigue level is acquired from the fatigue level estimation unit 134.

S1503においては、取得された把持状態および疲労度の推定値に基づいてデータベース部135を参照し、把持対象物2の持ち易さを推定する。   In S1503, the database unit 135 is referred to based on the acquired gripping state and the estimated fatigue level, and the ease of holding the gripping object 2 is estimated.

S1504においては、把持対象物2の持ち易さの推定値を表示装置(図示省略する)やデータベース部135に出力し、処理を終了する。   In S1504, the estimated value of the ease of holding the grasped object 2 is output to the display device (not shown) or the database unit 135, and the process is terminated.

このように、把持状態に加えてさらに疲労度を用いて人間が把持する際に感じる持ち易さを推定するので、把持対象物2の持ち易さをより詳細に推定することができる。   In this way, since the ease of holding that a person feels when gripping is estimated using the degree of fatigue in addition to the gripping state, the ease of holding the gripping object 2 can be estimated in more detail.

尚、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、上記実施形態においては把持実行部位3を人間の手としたが、産業用ロボットのアーム部など機械の一部分でも良い。機械の一部分の場合には、把持実行部位3の把持性能を推定することも可能となる。足や頭など身体の他の部分に装着する製品などの評価にも応用することができる。   In the above embodiment, the gripping execution site 3 is a human hand, but it may be a part of a machine such as an arm part of an industrial robot. In the case of a part of the machine, it is possible to estimate the gripping performance of the gripping execution site 3. It can also be applied to the evaluation of products worn on other parts of the body such as feet and heads.

また、把持状態の変化を操作情報として認識することにより、各種の装置を操作することも可能である。図16は、把持状態推定システム1で求められた把持状態に応じて動作する装置の具体例を示す図である。ここでは、把持対象物2の内部に、モータ21、リンク22、錘23が備えられており、モータ21に接続されたリンク22先には錘23が固定され、把持状態推定部133における推定結果に基づいてモータ21の動作が制御されている。このモータ21を駆動させると錘23が回転し、把持対象物2に対して加速度を生じさせることや把持対象物2の重心を変更させることができる。そして、把持状態推定部133で再度推定された把持状態が改善傾向を示せば、回転方向を維持し、把持状態が悪化傾向を示せば、逆方向に回転させるフィードバック制御を行う。これにより、把持対象物2側で持ち易さを動的に変化させることができる。   It is also possible to operate various devices by recognizing changes in the gripping state as operation information. FIG. 16 is a diagram illustrating a specific example of an apparatus that operates in accordance with the gripping state obtained by the gripping state estimation system 1. Here, the motor 21, the link 22, and the weight 23 are provided inside the grasped object 2, and the weight 23 is fixed to the link 22 tip connected to the motor 21, and the estimation result in the grasping state estimation unit 133 Based on the above, the operation of the motor 21 is controlled. When the motor 21 is driven, the weight 23 rotates, and acceleration can be generated for the grasped object 2 or the center of gravity of the grasped object 2 can be changed. Then, if the gripping state estimated again by the gripping state estimation unit 133 shows an improvement tendency, the rotation direction is maintained, and if the gripping state shows a deterioration tendency, feedback control is performed to rotate in the reverse direction. Thereby, the ease of holding can be dynamically changed on the grasped object 2 side.

本発明の実施形態1に係る把持状態推定システムの全体構成例を示す斜視図である。It is a perspective view which shows the example of whole structure of the holding | grip state estimation system which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る把持状態推定システムの全体構成例を示すブロック図。The block diagram which shows the example of whole structure of the holding | grip state estimation system which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る滑り摩擦状態パラメータおよび弾性接触状態パラメータを説明する図。The figure explaining the sliding friction state parameter and elastic contact state parameter which concern on Embodiment 1 of this invention. 本発明の実施形態1に係る把持状態と波形との関係を説明する図。The figure explaining the relationship between the holding | grip state and waveform which concern on Embodiment 1 of this invention. 本発明の実施形態1に係る検出データ変換部における処理の具体例を示すフローチャート。5 is a flowchart illustrating a specific example of processing in a detection data conversion unit according to the first embodiment of the present invention. 本発明の実施形態1に係る波形比較部における処理の具体例を示すフローチャート。5 is a flowchart illustrating a specific example of processing in a waveform comparison unit according to the first embodiment of the present invention. 本発明の実施形態1に係る把持状態推定部における処理の具体例を示すフローチャート。The flowchart which shows the specific example of the process in the holding | grip state estimation part which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係る把持状態推定システムの全体構成例を示す斜視図である。It is a perspective view which shows the example of whole structure of the holding | grip state estimation system which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る把持状態推定システムの全体構成例を示す斜視図である。It is a perspective view which shows the example of whole structure of the holding | grip state estimation system which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る外乱の発生方法の具体例を示す図。The figure which shows the specific example of the generation method of the disturbance which concerns on Embodiment 3 of this invention. 本発明の実施形態4に係る波形と減衰時間の関係を説明する図。The figure explaining the relationship between the waveform which concerns on Embodiment 4 of this invention, and decay time. 本発明の実施形態5に係る把持状態推定システムの全体構成例を示すブロック図。The block diagram which shows the example of whole structure of the holding | grip state estimation system which concerns on Embodiment 5 of this invention. 本発明の実施形態5に係るデータベース部の具体例を示す図。The figure which shows the specific example of the database part which concerns on Embodiment 5 of this invention. 本発明の実施形態5に係る疲労度推定部における処理の具体例を示すフローチャート。The flowchart which shows the specific example of the process in the fatigue estimation part which concerns on Embodiment 5 of this invention. 本発明の実施形態5に係る持ち易さ推定部における処理の具体例を示すフローチャート。The flowchart which shows the specific example of the process in the ease estimation part which concerns on Embodiment 5 of this invention. 本発明に係る把持状態推定システムで求められた把持状態に応じて動作する装置の具体例を示す図。The figure which shows the specific example of the apparatus which operate | moves according to the holding state calculated | required with the holding state estimation system which concerns on this invention.

符号の説明Explanation of symbols

1…把持状態推定システム、
2…把持対象物、
3…把持実行部位、
11…把持対象物運動検出センサ、
12…把持実行部位運動検出センサ、
13…データ処理装置、
14…加振装置、
15…インパクト作用装置、
16…負荷測定装置、
21…モータ、
22…リンク、
23…錘、
121…バンド型センサ固定部材、
122…センサ方向可変部材、
123…リング型センサ固定部材、
131…検出データ変換部、
132…波形比較部、
133…把持状態推定部、
134…疲労度推定部、
135…データベース部、
136…持ち易さ推定部。
1 ... gripping state estimation system,
2 ... gripping object,
3 ... gripping execution part,
11: Grasping object motion detection sensor,
12 ... Gripping execution part motion detection sensor,
13: Data processing device,
14 ... Exciting device,
15 ... impact working device,
16 ... load measuring device,
21 ... Motor,
22 ... Link,
23 ... weight,
121 ... Band-type sensor fixing member,
122 ... Sensor direction variable member,
123 ... Ring-type sensor fixing member,
131... Detection data conversion unit,
132 ... waveform comparison unit,
133 ... gripping state estimation unit,
134 ... Fatigue degree estimation part,
135 ... Database section,
136: Ease of use estimation unit.

Claims (10)

把持対象物に取り付けられ、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出センサと、
前記把持対象物の把持実行部位に取り付けられ、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出センサと、
前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較部と、
この波形比較部における比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定部と、
を有することを特徴とする把持状態推定システム。
A gripping object motion detection sensor which is attached to the gripping object and detects the motion of the gripping object as an electric signal waveform;
A grasping part movement detection sensor that is attached to a grasping part of the grasping object and detects the movement of the grasping part as an electric signal waveform;
A waveform comparison unit that compares output waveforms of the gripping object motion detection sensor and the gripping execution site motion detection sensor;
A gripping state estimation unit that estimates a gripping state of the gripping object in the gripping execution site based on a comparison result in the waveform comparison unit;
A gripping state estimation system characterized by comprising:
前記波形比較部は、前記波形の振幅比から滑り摩擦状態、前記波形の位相差から弾性接触状態をそれぞれ推定することを特徴とする請求項1記載の把持状態推定システム。   The gripping state estimation system according to claim 1, wherein the waveform comparison unit estimates a sliding friction state from the amplitude ratio of the waveform and an elastic contact state from the phase difference of the waveform. 前記把持対象物運動検出センサおよび把持実行部位運動検出センサは、角速度センサであることを特徴とする請求項1または請求項2記載の把持状態推定システム。   The gripping state estimation system according to claim 1 or 2, wherein the gripping object motion detection sensor and the gripping execution site motion detection sensor are angular velocity sensors. 前記把持実行部位運動検出センサは、センサ方向可変部材を介して前記把持実行部位に取り付けられ、前記センサ方向可変部材によって前記把持対象物運動検出センサの姿勢に応じて向きを変更できることを特徴とする請求項1乃至請求項3のいずれか一項記載の把持状態推定システム。   The grip execution part motion detection sensor is attached to the grip execution part via a sensor direction variable member, and the direction can be changed according to the posture of the grip target object motion detection sensor by the sensor direction variable member. The grasping state estimation system according to any one of claims 1 to 3. 前記把持実行部位運動検出センサは、複数の把持実行部位にそれぞれ取り付けられ、前記把持実行部位ごとに把持状態を推定することを特徴とする請求項1乃至請求項4のいずれか一項記載の把持状態推定システム。   The gripping part movement detection sensor is attached to each of a plurality of gripping part parts, and the gripping state is estimated for each of the gripping part parts. State estimation system. 前記把持状態推定部で推定された把持状態および前記把持実行部位において前記把持対象物を把持した際に測定された疲労度に基づいて前記把持対象物の持ち易さを推定する持ち易さ推定部を更に有することを特徴とする請求項1乃至請求項5のいずれか一項に記載の把持状態推定システム。   Ease of use estimation unit that estimates the easiness of holding of the gripping object based on the gripping state estimated by the gripping state estimation unit and the degree of fatigue measured when the gripping target object is gripped at the gripping execution site. The gripping state estimation system according to claim 1, further comprising: 前記把持状態、前記疲労度、および前記持ち易さの関係を予め格納するデータベース部を更に備え、
前記持ち易さ推定部は、前記推定された把持状態および疲労度に基づいて前記データベース部を参照し、前記持ち易さを推定することを特徴とする請求項6記載の把持状態推定システム。
A database unit for storing in advance the relationship between the gripping state, the degree of fatigue, and the ease of holding;
The gripping state estimation system according to claim 6, wherein the ease of holding estimation unit estimates the ease of holding with reference to the database unit based on the estimated gripping state and fatigue level.
把持対象物に取り付けられた把持対象物運動検出センサが、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出ステップと、
前記把持対象物の把持実行部位に取り付けられた把持実行部位運動検出センサが、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出ステップと、
前記把持実行部位で前記把持対象物を把持した際に前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較ステップと、
この波形比較ステップにおける比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定ステップと、
を有することを特徴とする把持状態推定方法。
A gripping object motion detection step in which a gripping object motion detection sensor attached to the gripping object detects the motion of the gripping object as an electric signal waveform; and
A gripping execution part motion detection sensor, which is attached to a gripping execution part of the gripping object, detects a motion of the gripping execution part as an electric signal waveform; and
A waveform comparison step of comparing output waveforms of the gripping object motion detection sensor and the gripping performance part motion detection sensor when the gripping target part is gripped by the gripping part;
A gripping state estimation step for estimating a gripping state of the gripping object at the gripping execution site based on a comparison result in the waveform comparison step;
A gripping state estimation method characterized by comprising:
前記波形比較ステップにおいて、前記波形の振幅比から滑り摩擦状態、前記波形の位相差から弾性接触状態をそれぞれ推定することを特徴とする請求項8記載の把持状態推定方法。   9. The gripping state estimation method according to claim 8, wherein in the waveform comparison step, a sliding friction state is estimated from an amplitude ratio of the waveform, and an elastic contact state is estimated from a phase difference of the waveform. 前記把持対象物運動検出センサおよび把持実行部位運動検出センサは、角速度センサであることを特徴とする請求項8または請求項9記載の把持状態推定方法。   The gripping state estimation method according to claim 8 or 9, wherein the gripping object motion detection sensor and the gripping execution site motion detection sensor are angular velocity sensors.
JP2007301545A 2007-11-21 2007-11-21 Gripping state estimation system and gripping state estimation method Pending JP2009129069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007301545A JP2009129069A (en) 2007-11-21 2007-11-21 Gripping state estimation system and gripping state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007301545A JP2009129069A (en) 2007-11-21 2007-11-21 Gripping state estimation system and gripping state estimation method

Publications (1)

Publication Number Publication Date
JP2009129069A true JP2009129069A (en) 2009-06-11

Family

ID=40819949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007301545A Pending JP2009129069A (en) 2007-11-21 2007-11-21 Gripping state estimation system and gripping state estimation method

Country Status (1)

Country Link
JP (1) JP2009129069A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516026A (en) * 2010-03-15 2013-05-09 エンパイア テクノロジー ディベロップメント エルエルシー Selective motion control classification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516026A (en) * 2010-03-15 2013-05-09 エンパイア テクノロジー ディベロップメント エルエルシー Selective motion control classification

Similar Documents

Publication Publication Date Title
US10860091B2 (en) Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
JP6288706B2 (en) Upper body motion measurement system and upper body motion measurement method
JP6881451B2 (en) Walking state judgment device, walking state judgment system, walking state judgment method and program
JP5392093B2 (en) Input device, control device, control system, control method, and handheld device
JP2011516915A (en) Motion content-based learning apparatus and method
JP5773144B2 (en) Motion analysis apparatus, motion analysis system, motion analysis program, and recording medium
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US11079860B2 (en) Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network
Xiao et al. Control an exoskeleton for forearm rotation using FMG
JP2009101108A (en) Motor performance detecting device
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
WO2020009715A2 (en) Tracking user movements to control a skeleton model in a computer system
JP6730573B2 (en) Severity assessment support system and program
JP4954792B2 (en) Speedometer
US9529445B2 (en) Input device and input method
JP6822715B1 (en) Body load estimation device and body load estimation method
JP2009129069A (en) Gripping state estimation system and gripping state estimation method
KR20140107741A (en) Information inputting device using an electromyogram signal, and method thereof
JP6719756B2 (en) Body part contact force sensor
JP2017055809A (en) Stick for rehabilitation, gait analysis system, and gait analysis method
JP6499900B2 (en) Haptic control device and haptic presentation device
JP6495888B2 (en) Industrial product design system, method and program
JP7351539B2 (en) Programs, methods, and systems for controlling robot movements based on operator movements
KR101988847B1 (en) Method and program for deciding training ratio