JP2009129069A - Gripping state estimation system and gripping state estimation method - Google Patents
Gripping state estimation system and gripping state estimation method Download PDFInfo
- Publication number
- JP2009129069A JP2009129069A JP2007301545A JP2007301545A JP2009129069A JP 2009129069 A JP2009129069 A JP 2009129069A JP 2007301545 A JP2007301545 A JP 2007301545A JP 2007301545 A JP2007301545 A JP 2007301545A JP 2009129069 A JP2009129069 A JP 2009129069A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- detection sensor
- motion detection
- waveform
- state estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、物体の把持状態を推定する把持状態推定システムおよび把持状態推定方法に関する。 The present invention relates to a gripping state estimation system and a gripping state estimation method for estimating a gripping state of an object.
近年、ノートパソコンや携帯電話機などの人が持ち運びながら使用するモバイル機器が広く普及しているが、これらの機器の設計においては、人間が感じる持ち易さを推定することが重要である。具体的には、センサを用いてそのデータを処理することによって、人間の感性を推定する。このような推定方法としては、表面に圧力センサなどを配置したグローブを手にはめて、物体を把持した時のセンサデータを処理することにより、把持状態を判定するものが知られている(例えば特許文献1参照)。この手法は、杖やハンドルなどの比較的しっかり握ることが必要な器具の形状および持ち易さの推定に適している。
しかしながら、上記従来技術においては以下の問題があった。 However, the above prior art has the following problems.
(1)ノートパソコンや携帯電話機など比較的小さい機器を持つ場合には、杖やハンドルほど力を入れて把持する必要はないので、圧力分布の測定が難しい。表面の形状が複雑な機器を持つ場合も同様である。 (1) When there is a relatively small device such as a notebook computer or a mobile phone, it is not necessary to hold the grip as hard as a cane or handle, so it is difficult to measure the pressure distribution. The same applies to a device having a complicated surface shape.
(2)圧力センサなどを表面に貼り付けたグローブを手にはめると、人間の把持感覚は大幅に変わってしまい、正確な測定を行うことができない。また、圧力センサの分解能の問題や、曲面での測定データの精度の問題もあり、必ずしも接触状態を正確に測定できるとは限らない。 (2) If a glove with a pressure sensor or the like attached to the surface is put in a hand, the human grasping sensation changes significantly and accurate measurement cannot be performed. There are also problems with the resolution of the pressure sensor and the accuracy of the measurement data on the curved surface, and the contact state cannot always be measured accurately.
(3)物体の把持においては、手と物体の接触面における滑り摩擦が人間の感じる持ち易さに大きく関与するが、従来の圧力センサ付きグローブを用いた方法は、グローブを装着した手で物体を間接的に把持することによって圧力を検知し、その圧力分布に基づいて物体の把持状態を判定する構成であるため、この滑り摩擦を測定することはできない。 (3) In gripping an object, the sliding friction on the contact surface between the hand and the object is greatly related to the ease of being felt by humans. However, the conventional method using a glove with a pressure sensor uses a hand with a glove attached to the object. Since the pressure is detected by indirectly gripping and the gripping state of the object is determined based on the pressure distribution, this sliding friction cannot be measured.
そこで、本発明は、上記従来技術の問題に鑑み、把持対象物を直接把持した際の把持状態を把持対象物の大きさ、形状、および材質など係わらず推定できる把持状態推定システムおよび把持状態推定方法を提供することを目的とする。 In view of the above-described problems of the prior art, the present invention provides a gripping state estimation system and a gripping state estimation that can estimate a gripping state when a gripping target is directly gripped regardless of the size, shape, and material of the gripping target. It aims to provide a method.
本発明に係る把持状態推定システムは、把持対象物に取り付けられ、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出センサと、前記把持対象物の把持実行部位に取り付けられ、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出センサと、前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較部と、この波形比較部における比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定部と、を有することを特徴とする。 A gripping state estimation system according to the present invention is attached to a gripping object, attached to a gripping object motion detection sensor that detects a motion of the gripping object as an electric signal waveform, and a gripping execution site of the gripping object, A grasping part movement detection sensor that detects the movement of the grasping part as an electric signal waveform, a waveform comparison unit that compares output waveforms of the grasping object movement detection sensor and the grasping part movement detection sensor, and this waveform comparison And a gripping state estimation unit that estimates a gripping state of the gripping object at the gripping execution site based on a comparison result in the unit.
本発明に係る把持状態推定方法は、把持対象物に取り付けられた把持対象物運動検出センサが、前記把持対象物の運動を電気信号波形として検出する把持対象物運動検出ステップと、前記把持対象物の把持実行部位に取り付けられた把持実行部位運動検出センサが、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出ステップと、前記把持実行部位で前記把持対象物を把持した際に前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較ステップと、この波形比較ステップにおける比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定ステップと、を有することを特徴とする。 The gripping state estimation method according to the present invention includes a gripping object motion detection step in which a gripping object motion detection sensor attached to a gripping object detects a motion of the gripping object as an electric signal waveform, and the gripping object When a gripping execution part motion detection sensor attached to the gripping execution part detects a movement of the gripping execution part as an electric signal waveform and grips the gripping object at the gripping execution part A waveform comparison step for comparing output waveforms of the gripping object motion detection sensor and the gripping execution part motion detection sensor, and a gripping state of the gripping object at the gripping execution part based on a comparison result in the waveform comparison step. A grasping state estimating step of estimating.
本発明によれば、把持対象物を直接把持した際の把持状態を把持対象物の大きさ、形状、および材質など係わらず推定できる把持状態推定システムおよび把持状態推定方法が提供される。 According to the present invention, there are provided a gripping state estimation system and a gripping state estimation method capable of estimating a gripping state when a gripping target is directly gripped regardless of the size, shape, and material of the gripping target.
(実施形態1)
以下、本発明の実施形態1に係る把持状態推定システムを図面に基づいて説明する。図1は、本実施形態に係る把持状態推定システムの全体構成例を示す斜視図である。図1(a)に示されるように、把持状態推定システムは、把持対象物運動検出センサ11、把持実行部位運動検出センサ12、およびデータ処理装置13から構成されたコンピュータシステムである。
(Embodiment 1)
Hereinafter, a gripping state estimation system according to
把持対象物運動検出センサ11は、把持対象物2に取り付けられ、把持対象物2の運動時のデータ(以下、「運動データ」という。)を電気信号波形として検出するセンサである。
The gripping object
図1(a)では、把持対象物運動検出センサ11が、把持対象物2である筐体の表面に取り付けられている。把持対象物運動検出センサ11としては、角速度センサや加速度センサなど各種のセンサを用いることができる。角速度センサの場合には角速度データ、加速度センサの場合には加速度データが運動データとしてそれぞれ取得される。尚、理論上、物体の角速度はその物体のどの位置で計測しても同じ値となるので角速度センサを用いると好適である。すなわち、角速度センサを用いる場合には、センサの取り付け位置を自由に設定することができ、実際の計測やデータ処理が容易な利点がある。また、把持対象物運動検出センサ11の内部には姿勢センサ(図示省略する)が設けられており、水平方向に対する傾斜角度を姿勢データとして出力する。
In FIG. 1A, the gripping object
把持実行部位運動検出センサ12は、把持対象物2の把持動作を行う把持実行部位3(例えば人間の手)に取り付けられ、把持実行部位3の運動データを電気信号波形として検出するセンサである。図1(a)では、把持実行部位運動検出センサ12が、把持実行部位3である手にバンド型センサ固定部材121によって固定されている。図1(b)は、図1(a)の要部を説明する図である。尚、把持対象物運動検出センサ11と同タイプのセンサを用いると後のデータ処理が容易となるので好適である。
The gripping execution part
データ処理装置13は、把持対象物運動検出センサ11および把持実行部位運動検出センサ12における運動データを無線若しくは有線により取得し、この運動データの解析によって把持実行部位3における把持対象物2の把持状態を推定するコンピュータである。図1(a)では、各センサから無線通信によって運動データが取得されることが示されている。
The
図2は、本実施形態に係る把持状態推定システム1の全体構成例を示すブロック図である。尚、図1と共通する符号は同一物を示すので説明を省略する。同図に示されるように、データ処理装置13は、検出データ変換部131、波形比較部132、および把持状態推定部133から構成されている。
FIG. 2 is a block diagram illustrating an example of the overall configuration of the gripping
検出データ変換部131は、把持対象物運動検出センサ11および把持実行部位運動検出センサ12で検出された運動データ(例えば角速度データや加速度データなど)を無線若しくは有線による通信で同時に取り込み、後述する波形比較部132において比較可能に単位系および座標系を揃えるプログラムである。
The detection
波形比較部132は、検出データ変換部131から出力される2つの波形を比較し、波形の振幅比から滑り摩擦状態パラメータ、波形の位相差から弾性接触状態パラメータを求めるプログラムである。
The
図3は、滑り摩擦状態パラメータおよび弾性接触状態パラメータを説明する図である。同図において、実線は把持対象物運動検出センサ11から取得した運動データの波形(波形1)、破線は把持実行部位運動検出センサ12から取得した運動データの波形(波形2)を示すものとする。ここで、滑り摩擦状態パラメータは、波形全体から局所的な区間を切り出し、振幅比|a/b|を計算して求める。また、弾性接触状態パラメータは、2つの波形が重なるようにどちらか1つの波形の時間をずらし、2つの波形が最も重なる状態での位相差cを計算して求める。
FIG. 3 is a diagram for explaining the sliding friction state parameter and the elastic contact state parameter. In the figure, the solid line indicates the waveform (waveform 1) of the movement data acquired from the grasping object
把持状態推定部133は、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータに基づいて把持実行部位3による把持対象物2の把持状態を推定するプログラムであり、各パラメータを予め定義された推定関数に代入して把持状態を推定する。この推定関数は、滑り摩擦が小さい場合には、把持対象物2と把持実行部位3の間に滑りが生じるので、滑り摩擦状態パラメータが1に近いほど滑りにくく、物体をしっかりと把持できていると推定する。また、弾性接触時の弾性係数が小さい場合には、把持実行部位3の運動に対して把持対象物2の運動は遅れるので、弾性接触状態パラメータが0に近いほど物体をしっかりと把持できていると推定する。
The gripping
例えば、振幅比の値を滑り摩擦状態パラメータP1とし、位相差の値を弾性接触状態パラメータP2とした場合に、推定関数FをR=F(P1,P2)=AP1+BP2(A、Bは比例定数)のように定義することにより、把持状態Rを連続値として求めることができる。尚、推定関数Fには様々な式が考えられるが、把持対象物2の形状、大きさ、重量、および材質などが異なる場合の人間の感じる持ち易さのデータを統計し、この統計データの解析により定義すると好適である。
For example, when the value of the amplitude ratio is the sliding friction state parameter P 1 and the value of the phase difference is the elastic contact state parameter P 2 , the estimation function F is R = F (P 1 , P 2 ) = AP 1 + BP 2 By defining as (A and B are proportional constants), the gripping state R can be obtained as a continuous value. Various formulas are conceivable for the estimation function F, but data on the ease of holding that humans feel when the shape, size, weight, material, etc. of the
図4は、把持状態と波形との関係を説明する図である。同図において、実線は把持対象物運動検出センサ11から取得した運動データ、破線は把持実行部位運動検出センサ12から取得した運動データの波形を示すものとする。図4(a)の場合には、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータの値が共に小さい。この場合、把持状態推定部133は、把持状態が安定し、持ち易いと推定する。一方、図4(b)の場合には、波形比較部132から出力される滑り摩擦状態パラメータおよび弾性接触状態パラメータの値が共に大きい。この場合、把持状態推定部133は、把持状態が不安定であり、持ちにくいと推定する。
FIG. 4 is a diagram illustrating the relationship between the gripping state and the waveform. In the figure, the solid line indicates the motion data acquired from the gripping object
図5は、検出データ変換部131における処理の具体例を示すフローチャートである。
FIG. 5 is a flowchart illustrating a specific example of processing in the detection
S501においては、把持対象物運動検出センサ11から運動データ(角速度データや加速度データなど)、単位系データ、および姿勢データを取得する。尚、単位系データは運動データの単位情報であるのでセンサの種類によって異なる。
In S501, motion data (angular velocity data, acceleration data, etc.), unit system data, and posture data are acquired from the grasped object
S502においては、把持実行部位運動検出センサ12から運動データ、単位系データ、および姿勢データを取得する。
In S <b> 502, motion data, unit system data, and posture data are acquired from the gripping part
S503においては、両センサから取得された姿勢データを比較し、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の水平方向に対する姿勢が異なるか否かを判定する。ここで、両センサの姿勢が異なると判定された場合には、S504へ進む。これに対し、両センサの姿勢が一致すると判定された場合には、S505へ進む。
In S503, the posture data acquired from both sensors is compared, and it is determined whether or not the postures of the gripping object
S504においては、把持実行部位運動検出センサ12の運動データの座標系を把持対象物運動検出センサ11の運動データの座標系を基準として変換し、S505へ進む。
In S504, the coordinate system of the motion data of the gripping part
S505においては、両センサから取得された単位系データを比較し、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の運動データの単位が異なるか否かを判定する。ここで、運動データの単位が異なると判定された場合には、S506へ進む。これに対し、運動データの単位が一致すると判定された場合には、S507へ進む。
In S505, the unit system data acquired from both sensors are compared, and it is determined whether or not the units of motion data of the grasping object
S506においては、把持実行部位運動検出センサ12の運動データの単位を把持対象物運動検出センサ11の運動データの単位に変換し、S507へ進む。
In S506, the unit of motion data of the gripping part
S507においては、波形に変換された運動データを波形比較部132へ出力し、処理を終了する。
In S507, the exercise data converted into the waveform is output to the
図6は、波形比較部132における処理の具体例を示すフローチャートである。
FIG. 6 is a flowchart illustrating a specific example of processing in the
S601においては、検出データ変換部131から波形に変換された運動データを取得する。
In S601, the motion data converted into a waveform is acquired from the detection
S602においては、波形全体から任意の一区間を抽出する。 In S602, an arbitrary section is extracted from the entire waveform.
S603においては、2つの波形の振幅比から滑り摩擦状態パラメータを求める。 In S603, the sliding friction state parameter is obtained from the amplitude ratio of the two waveforms.
S604においては、2つの波形が重なるようにどちらか1つの波形の時間をずらし、2つの波形が最も重なる状態での位相差を計算して弾性接触状態パラメータを求める。 In S604, the time of one of the waveforms is shifted so that the two waveforms overlap, and the phase difference in the state where the two waveforms overlap most is calculated to obtain the elastic contact state parameter.
S605においては、波形の比較によって求められた各パラメータを把持状態推定部133へ出力し、処理を終了する。尚、各パラメータは、波形の複数の区間における平均値から求めても良い。
In step S605, each parameter obtained by comparing the waveforms is output to the gripping
図7は、把持状態推定部133における処理の具体例を示すフローチャートである。
FIG. 7 is a flowchart illustrating a specific example of processing in the gripping
S701においては、波形比較部132から滑り摩擦状態パラメータおよび弾性接触状態パラメータを取得する。
In step S <b> 701, the sliding friction state parameter and the elastic contact state parameter are acquired from the
S702においては、取得された各パラメータを予め定義された推定関数に代入して把持状態を推定する。 In step S702, the gripping state is estimated by substituting each acquired parameter for a predefined estimation function.
S703においては、推定された把持状態を表示装置(図示省略する)やデータベース(図示省略する)へ出力し、処理を終了する。 In S703, the estimated gripping state is output to a display device (not shown) or a database (not shown), and the process ends.
このように、各センサで検出された運動データの波形を比較することによって把持実行部位3で把持対象物2を直接把持している際の把持状態、すなわち、把持対象物2と把持実行部位3の運動時における一体化の度合いを推定できる。そして、この把持状態推定システム1を製品の設計の際に用いることで、製品の最適な形状、大きさ、および材質などを決定することができる。
As described above, by comparing the waveforms of the motion data detected by the sensors, the gripping state when the
(実施形態2)
以下、本発明の実施形態2に係る把持状態推定システム1を図面に基づいて説明する。実施形態1で述べたように、把持対象物運動検出センサ11と把持実行部位運動検出センサ12の測定波形を比較するためには、座標系と単位系を揃える必要がある。単位系を揃える方法には、単位変換する方法と同タイプのセンサを用いて揃える方法があるが、いずれを用いても良い。一方、座標系を揃える方法には、姿勢センサで検出される姿勢データを利用する方法と機構的に揃える方法があるが、本実施形態では、姿勢センサは用いず、把持実行部位運動検出センサ12の姿勢を把持対象物運動検出センサ11の姿勢を基準としてセンサ方向可変部材122によって機構的に揃える。
(Embodiment 2)
Hereinafter, a gripping
図8は、本発明の実施形態2に係る把持状態推定システム1の全体構成例を示す斜視図である。尚、図1と共通する符号は同一物を示すものであるので説明を省略する。
FIG. 8 is a perspective view showing an overall configuration example of the gripping
図8(a)に示されるように、把持対象物2には把持対象物運動検出センサ11が取り付けられており、把持実行部位3である手に装着されたバンド型センサ固定部材121上には把持実行部位運動検出センサ12がセンサ方向可変部材122を介して取り付けられている。図8(b)は、図8(a)の要部を説明する図であり、センサ方向可変部材122にはボールジョイントが用いられている。尚、センサ方向可変部材122は、センサの姿勢を任意に変更できる機構を有するならば他の部材でも良い。利用者は、把持当初のセンサの姿勢が適切でない場合には、把持対象物運動検出センサ11の姿勢を基準として把持実行部位運動検出センサ12の姿勢を手動で調整し、座標系を機構的に揃えることができる。
As shown in FIG. 8A, the grasping object
このように構成することにより、把持実行部位運動検出センサ12内に姿勢センサ(図示省略する)を設ける必要がないので、実施形態1と比べてセンサの小型化が可能となり、データ処理装置13における処理負荷も軽減することができる。
With this configuration, since it is not necessary to provide a posture sensor (not shown) in the gripping execution part
(実施形態3)
以下、本発明の実施形態3に係る把持状態推定システム1を図面に基づいて説明する。図9は、本発明の実施形態3に係る把持状態推定システム1の全体構成例を示す斜視図である。尚、図1と共通する符号は同一物を示すものであり、データ処理装置13における処理は共通であるので説明を省略する。
(Embodiment 3)
Hereinafter, a gripping
図9(a)に示されるように、本実施形態においては、一つの把持対象物運動検出センサ11に対して、把持実行部位運動検出センサ12が把持実行部位3である各々の指にリング型センサ固定部材123によって取り付けられている。図9(b)は、図9(a)の要部を説明する図である。
As shown in FIG. 9A, in the present embodiment, with respect to one gripping object
このように構成することにより、指ごとに把持状態を推定することが可能となる。すなわち、把持時にどの指が持ち易い状態であり、どの指が持ちにくい状態であるかを確認できる。この結果、持ちにくい指の箇所を改良して全体を持ち易くすることが可能となる。 With this configuration, it is possible to estimate the gripping state for each finger. That is, it is possible to confirm which fingers are easy to hold when gripping and which fingers are difficult to hold. As a result, it is possible to improve the portion of the finger that is difficult to hold and to easily hold the finger.
(実施形態4)
以下、本発明の実施形態4に係る把持状態推定システム1を図面に基づいて説明する。本実施形態では、把持対象物2を普通に持った状態で波形を測定すると波形の差異が出にくい場合もあることを考慮し、把持対象物2に対して意図的に物理的な力(外乱)を作用させ、このときの波形の解析により把持状態を推定する。具体的には、波形比較部132において外乱が加えられてから振動が減衰して波形が安定するまでの時間(以下、「減衰時間」という。)を求め、この減衰時間を滑り摩擦状態パラメータおよび弾性接触状態パラメータと共に把持状態推定部133における推定パラメータとして用いる。
(Embodiment 4)
Hereinafter, a gripping
図10は、外乱の発生方法の具体例を示す図である。尚、図2と共通する符号は同一物を示すので説明を省略する。図10(a)では、それ自体が振動を起こす加振装置14が把持対象物2に取り付けられており、振動が加えられている時の波形の差異を比較することにより、把持状態を推定する。一方、図10(b)では、インパクト作用装置15を用いて把持対象物2に物理的な力を作用させ、把持状態を推定する場合が示されている。図中の矢印は、物体に加わる力とその方向を示している。
FIG. 10 is a diagram illustrating a specific example of a disturbance generation method. Note that the same reference numerals as those in FIG. In FIG. 10A, the
図11は、波形と減衰時間の関係を説明する図である。図11(a)は、把持対象物2の把持状態が安定し、持ち易い場合の波形を示す図である。同図においては、減衰時間がT1で表されている。一方、図11(b)は、把持対象物2の把持状態が不安定であり、持ちにくい場合の波形を示す図である。同図においては、減衰時間がT2で表されている。図11(a)および(b)を比較すると、減衰時間は把持対象物2を持ちにくい場合の方が長い。つまり、物理的安定余裕が小さいということになる。
FIG. 11 is a diagram for explaining the relationship between the waveform and the decay time. FIG. 11A is a diagram illustrating a waveform when the gripping state of the
このように、把持状態推定部133が減衰時間を把持状態の推定関数のパラメータに加えることにより、更に詳細に把持状態を推定できる。
In this way, the gripping
(実施形態5)
以下、本発明の実施形態5に係る把持状態推定システム1を図面に基づいて説明する。図12は、本発明の実施形態5に係る把持状態推定システム1の全体構成例を示すブロック図である。本実施形態に係る把持状態推定システム1は、実施形態1のシステムに対して、負荷測定装置16、疲労度推定部134、データベース部135、および持ち易さ推定部136が追加されたコンピュータシステムである。尚、図1および図2と共通する符号は同一物を示すものであり、把持実行部位運動検出センサ12の取り付け方法は前述した実施形態のいずれかを用いるため説明を省略する。
(Embodiment 5)
Hereinafter, a gripping
負荷測定装置16は、把持実行部位3である身体の一部に取り付けられ、運動時の身体データを測定するセンサである。例えば、筋電センサや心拍数測定装置などが挙げられるが、ここでは筋電センサを用いるものとして説明する。
The
疲労度推定部134は、負荷測定装置16において測定された身体データを取得し、この身体データに基づいて疲労度を推定するプログラムである。具体的には、筋電センサで測定された筋肉活動のデータを波形化し、この波形の一定期間についての積分値を算出することにより把持動作における疲労度を推定する。すなわち、疲労度が小さければ小さいほど持ち易いと感じていると推定される。尚、実施形態1と同様に予め定義された推定関数を用いて疲労度を推定してもよい。
The fatigue
データベース部135は、把持状態および疲労度の推定値と把持対象物2の持ち易さの関係を予め記憶するデータベースである。図13は、データベース部135の具体例を示す図である。A1〜A4およびB1〜B4は把持状態推定部133および疲労度推定部134でそれぞれ求められた推定値のレベルを示しており、人間が把持対象物2を把持する際に感じる持ち易さのレベルであるC1〜C4に対応付けられている。
The
持ち易さ推定部136は、疲労度推定部134で求められた疲労度と把持状態推定部133で求められた把持状態に基づいてデータベース部135を参照し、人間が把持対象物2を把持する際に感じる持ち易さを推定するプログラムである。尚、推定された把持状態、疲労度、および持ち易さの関係は、データ処理装置13に接続された入力装置(図示省略する)から入力された把持対象物2の属性データ(形状、材質、大きさ、重量など)に関連付けされてデータベース部135に蓄積されると推定結果を有効に利用できるので好適である。
The ease-of-holding
図14は、疲労度推定部134における処理の具体例を示すフローチャートである。
FIG. 14 is a flowchart illustrating a specific example of processing in the fatigue
S1401においては、負荷測定装置16から負荷測定データを取得する。
In S1401, load measurement data is acquired from the
S1402においては、取得された負荷測定データの波形の一定期間についての積分値を算出し、この積分値から疲労度を推定する。 In S1402, an integrated value for a certain period of the waveform of the acquired load measurement data is calculated, and the degree of fatigue is estimated from this integrated value.
S1403においては、求められた疲労度を持ち易さ推定部136へ出力し、処理を終了する。
In step S1403, the obtained fatigue level is output to the
図15は、持ち易さ推定部136における処理の具体例を示すフローチャートである。
FIG. 15 is a flowchart illustrating a specific example of processing in the ease-of-
S1501においては、把持状態推定部133から把持状態の推定値を取得する。
In step S <b> 1501, the gripping state estimation value is acquired from the gripping
S1502においては、疲労度推定部134から疲労度の推定値を取得する。
In S1502, an estimated value of the fatigue level is acquired from the fatigue
S1503においては、取得された把持状態および疲労度の推定値に基づいてデータベース部135を参照し、把持対象物2の持ち易さを推定する。
In S1503, the
S1504においては、把持対象物2の持ち易さの推定値を表示装置(図示省略する)やデータベース部135に出力し、処理を終了する。
In S1504, the estimated value of the ease of holding the grasped
このように、把持状態に加えてさらに疲労度を用いて人間が把持する際に感じる持ち易さを推定するので、把持対象物2の持ち易さをより詳細に推定することができる。
In this way, since the ease of holding that a person feels when gripping is estimated using the degree of fatigue in addition to the gripping state, the ease of holding the
尚、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
また、上記実施形態においては把持実行部位3を人間の手としたが、産業用ロボットのアーム部など機械の一部分でも良い。機械の一部分の場合には、把持実行部位3の把持性能を推定することも可能となる。足や頭など身体の他の部分に装着する製品などの評価にも応用することができる。
In the above embodiment, the gripping
また、把持状態の変化を操作情報として認識することにより、各種の装置を操作することも可能である。図16は、把持状態推定システム1で求められた把持状態に応じて動作する装置の具体例を示す図である。ここでは、把持対象物2の内部に、モータ21、リンク22、錘23が備えられており、モータ21に接続されたリンク22先には錘23が固定され、把持状態推定部133における推定結果に基づいてモータ21の動作が制御されている。このモータ21を駆動させると錘23が回転し、把持対象物2に対して加速度を生じさせることや把持対象物2の重心を変更させることができる。そして、把持状態推定部133で再度推定された把持状態が改善傾向を示せば、回転方向を維持し、把持状態が悪化傾向を示せば、逆方向に回転させるフィードバック制御を行う。これにより、把持対象物2側で持ち易さを動的に変化させることができる。
It is also possible to operate various devices by recognizing changes in the gripping state as operation information. FIG. 16 is a diagram illustrating a specific example of an apparatus that operates in accordance with the gripping state obtained by the gripping
1…把持状態推定システム、
2…把持対象物、
3…把持実行部位、
11…把持対象物運動検出センサ、
12…把持実行部位運動検出センサ、
13…データ処理装置、
14…加振装置、
15…インパクト作用装置、
16…負荷測定装置、
21…モータ、
22…リンク、
23…錘、
121…バンド型センサ固定部材、
122…センサ方向可変部材、
123…リング型センサ固定部材、
131…検出データ変換部、
132…波形比較部、
133…把持状態推定部、
134…疲労度推定部、
135…データベース部、
136…持ち易さ推定部。
1 ... gripping state estimation system,
2 ... gripping object,
3 ... gripping execution part,
11: Grasping object motion detection sensor,
12 ... Gripping execution part motion detection sensor,
13: Data processing device,
14 ... Exciting device,
15 ... impact working device,
16 ... load measuring device,
21 ... Motor,
22 ... Link,
23 ... weight,
121 ... Band-type sensor fixing member,
122 ... Sensor direction variable member,
123 ... Ring-type sensor fixing member,
131... Detection data conversion unit,
132 ... waveform comparison unit,
133 ... gripping state estimation unit,
134 ... Fatigue degree estimation part,
135 ... Database section,
136: Ease of use estimation unit.
Claims (10)
前記把持対象物の把持実行部位に取り付けられ、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出センサと、
前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較部と、
この波形比較部における比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定部と、
を有することを特徴とする把持状態推定システム。 A gripping object motion detection sensor which is attached to the gripping object and detects the motion of the gripping object as an electric signal waveform;
A grasping part movement detection sensor that is attached to a grasping part of the grasping object and detects the movement of the grasping part as an electric signal waveform;
A waveform comparison unit that compares output waveforms of the gripping object motion detection sensor and the gripping execution site motion detection sensor;
A gripping state estimation unit that estimates a gripping state of the gripping object in the gripping execution site based on a comparison result in the waveform comparison unit;
A gripping state estimation system characterized by comprising:
前記持ち易さ推定部は、前記推定された把持状態および疲労度に基づいて前記データベース部を参照し、前記持ち易さを推定することを特徴とする請求項6記載の把持状態推定システム。 A database unit for storing in advance the relationship between the gripping state, the degree of fatigue, and the ease of holding;
The gripping state estimation system according to claim 6, wherein the ease of holding estimation unit estimates the ease of holding with reference to the database unit based on the estimated gripping state and fatigue level.
前記把持対象物の把持実行部位に取り付けられた把持実行部位運動検出センサが、前記把持実行部位の運動を電気信号波形として検出する把持実行部位運動検出ステップと、
前記把持実行部位で前記把持対象物を把持した際に前記把持対象物運動検出センサおよび前記把持実行部位運動検出センサの出力波形を比較する波形比較ステップと、
この波形比較ステップにおける比較結果に基づいて前記把持実行部位における前記把持対象物の把持状態を推定する把持状態推定ステップと、
を有することを特徴とする把持状態推定方法。 A gripping object motion detection step in which a gripping object motion detection sensor attached to the gripping object detects the motion of the gripping object as an electric signal waveform; and
A gripping execution part motion detection sensor, which is attached to a gripping execution part of the gripping object, detects a motion of the gripping execution part as an electric signal waveform; and
A waveform comparison step of comparing output waveforms of the gripping object motion detection sensor and the gripping performance part motion detection sensor when the gripping target part is gripped by the gripping part;
A gripping state estimation step for estimating a gripping state of the gripping object at the gripping execution site based on a comparison result in the waveform comparison step;
A gripping state estimation method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301545A JP2009129069A (en) | 2007-11-21 | 2007-11-21 | Gripping state estimation system and gripping state estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301545A JP2009129069A (en) | 2007-11-21 | 2007-11-21 | Gripping state estimation system and gripping state estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009129069A true JP2009129069A (en) | 2009-06-11 |
Family
ID=40819949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007301545A Pending JP2009129069A (en) | 2007-11-21 | 2007-11-21 | Gripping state estimation system and gripping state estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009129069A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013516026A (en) * | 2010-03-15 | 2013-05-09 | エンパイア テクノロジー ディベロップメント エルエルシー | Selective motion control classification |
-
2007
- 2007-11-21 JP JP2007301545A patent/JP2009129069A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013516026A (en) * | 2010-03-15 | 2013-05-09 | エンパイア テクノロジー ディベロップメント エルエルシー | Selective motion control classification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860091B2 (en) | Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system | |
US11474593B2 (en) | Tracking user movements to control a skeleton model in a computer system | |
JP6288706B2 (en) | Upper body motion measurement system and upper body motion measurement method | |
JP6881451B2 (en) | Walking state judgment device, walking state judgment system, walking state judgment method and program | |
JP5392093B2 (en) | Input device, control device, control system, control method, and handheld device | |
JP2011516915A (en) | Motion content-based learning apparatus and method | |
JP5773144B2 (en) | Motion analysis apparatus, motion analysis system, motion analysis program, and recording medium | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
US11079860B2 (en) | Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network | |
Xiao et al. | Control an exoskeleton for forearm rotation using FMG | |
JP2009101108A (en) | Motor performance detecting device | |
US11237632B2 (en) | Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions | |
WO2020009715A2 (en) | Tracking user movements to control a skeleton model in a computer system | |
JP6730573B2 (en) | Severity assessment support system and program | |
JP4954792B2 (en) | Speedometer | |
US9529445B2 (en) | Input device and input method | |
JP6822715B1 (en) | Body load estimation device and body load estimation method | |
JP2009129069A (en) | Gripping state estimation system and gripping state estimation method | |
KR20140107741A (en) | Information inputting device using an electromyogram signal, and method thereof | |
JP6719756B2 (en) | Body part contact force sensor | |
JP2017055809A (en) | Stick for rehabilitation, gait analysis system, and gait analysis method | |
JP6499900B2 (en) | Haptic control device and haptic presentation device | |
JP6495888B2 (en) | Industrial product design system, method and program | |
JP7351539B2 (en) | Programs, methods, and systems for controlling robot movements based on operator movements | |
KR101988847B1 (en) | Method and program for deciding training ratio |