JP7375351B2 - Body motion acquisition device and method - Google Patents

Body motion acquisition device and method Download PDF

Info

Publication number
JP7375351B2
JP7375351B2 JP2019130362A JP2019130362A JP7375351B2 JP 7375351 B2 JP7375351 B2 JP 7375351B2 JP 2019130362 A JP2019130362 A JP 2019130362A JP 2019130362 A JP2019130362 A JP 2019130362A JP 7375351 B2 JP7375351 B2 JP 7375351B2
Authority
JP
Japan
Prior art keywords
work
body motion
subject
movement
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019130362A
Other languages
Japanese (ja)
Other versions
JP2021015507A (en
Inventor
祐貴 久保
実 須賀
卓史 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019130362A priority Critical patent/JP7375351B2/en
Publication of JP2021015507A publication Critical patent/JP2021015507A/en
Application granted granted Critical
Publication of JP7375351B2 publication Critical patent/JP7375351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、物を扱う身体の動作を取得する身体動作取得装置および身体動作取得方法に関する。 The present invention relates to a body motion acquisition device and a body motion acquisition method for acquiring body motions handling objects.

身体の動作を解析するためには、まず、身体の動作を取得する必要がある。特に、作業の技能(スキル)は、実際に作業を繰り返し実施し、経験によって獲得されることから、言語化、文書化および図示化し難いため、前記作業に伴う身体の動作を解析することが重要となり、前記作業に伴う身体の動作を取得することが重要となる。 In order to analyze body motion, it is first necessary to obtain the body motion. In particular, because work skills are acquired through experience by repeatedly performing the work, it is difficult to verbalize, document, or illustrate, so it is important to analyze the physical movements associated with the work. Therefore, it is important to capture the body movements associated with the work.

この身体の動作の取得には、比較的簡単に前記身体の動作を取得できることから、例えば、特許文献1のように、光学式モーションキャプチャが利用されることが多い。この光学式モーションキャプチャは、一般に、対象者の身体における各箇所に付される複数のマーカと、身体の動作中における前記複数のマーカを撮像するカメラと、前記カメラで撮像された画像に基づいて前記複数のマーカの位置を前記身体の動作を表す動作情報として求める情報処理装置とを備える。 To obtain this body motion, optical motion capture is often used, for example, as in Patent Document 1, because the body motion can be obtained relatively easily. This optical motion capture generally uses a plurality of markers attached to various parts of the subject's body, a camera that captures images of the plurality of markers during body movements, and an image captured by the camera. and an information processing device that obtains the positions of the plurality of markers as motion information representing the motion of the body.

特開2006-171184号公報Japanese Patent Application Publication No. 2006-171184

ところで、マーカは、対象者の外面に付されるので、マーカの位置を前記動作情報とすると、対象者の体型差や着衣によって、前記動作情報に個人差や誤差の影響が生じてしまう虞がある。この結果、物を扱う身体の動作を取得する場合、前記動作情報で表された身体の動作と前記物の動きとの関係も、前記動作情報に含まれる前記影響により、精度が低下してしまう。 By the way, since the marker is attached to the external surface of the subject, if the position of the marker is used as the motion information, there is a risk that the motion information may be influenced by individual differences or errors due to differences in the body shape or clothing of the subject. be. As a result, when acquiring the movement of a body handling an object, the accuracy of the relationship between the movement of the body represented by the movement information and the movement of the object also decreases due to the influence contained in the movement information. .

本発明は、上述の事情に鑑みて為された発明であり、その目的は、物を扱う身体の動作をより精度良く取得できる身体動作取得装置および身体動作取得方法を提供することである。 The present invention has been made in view of the above-mentioned circumstances, and its purpose is to provide a body motion acquisition device and a body motion acquisition method that can more accurately acquire body motions when handling objects.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる身体動作取得装置は、所定の物を扱う対象者の身体および前記物それぞれにおける複数の箇所に付される複数のマーカと、前記複数のマーカの各位置を測定する位置測定部と、前記位置測定部で測定した複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求める動作情報処理部とを備え、前記対象者における身体の動作は、所定の作業の実施に伴う動作であり、さらに、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得する活動量取得部と、前記活動量取得部で取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得する作業結果取得部とを備え、前記作業結果は、前記作業の成果物における精度および前記作業に要した時間である。本発明の他の一態様にかかる身体動作取得方法は、所定の物を扱う対象者の身体および前記物それぞれにおける複数の箇所に付された複数のマーカの各位置を測定する位置測定工程と、前記位置測定工程で測定した複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求める動作情報処理工程とを備え、前記対象者における身体の動作は、所定の作業の実施に伴う動作であり、さらに、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得する活動量取得工程と、前記活動量取得工程で取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得する作業結果取得工程とを備え、前記作業結果は、前記作業の成果物における精度および前記作業に要した時間である。 As a result of various studies, the present inventors have found that the above object can be achieved by the following present invention. That is, the body motion acquisition device according to one aspect of the present invention measures a plurality of markers attached to a plurality of locations on the body of a subject handling a predetermined object and each of the objects, and measures each position of the plurality of markers. and a position measuring unit that calculates the positions of the centers of gravity of each of the body parts of the target person and the center of gravity of the object based on the positions of the plurality of markers measured by the position measurement unit. a motion information processing unit that obtains body motion information representing the body motion of the subject and object motion information representing the movement of the object , wherein the body motion of the subject is a motion accompanying execution of a predetermined task. , further comprising: an activity amount acquisition section that acquires the amount of activity of the muscle that maintains the posture required for the predetermined task; and a work result acquisition unit that acquires a work result in the work, the work result being the accuracy of the product of the work and the time required for the work. A body motion acquisition method according to another aspect of the present invention includes a position measuring step of measuring each position of a plurality of markers attached to a plurality of locations on the body of a subject who handles a predetermined object and each of the objects; Based on the positions of the plurality of markers measured in the position measuring step, the positions of the centers of gravity of each body part of the subject's body divided into a plurality of parts and the position of the center of gravity of the object are calculated based on the positions of the bodies of the subject. and a motion information processing step of obtaining body motion information representing the movement of the object and object movement information representing the movement of the object, wherein the body movement of the subject is a movement accompanying execution of a predetermined task, and an activity amount acquisition step of acquiring the amount of activity of the muscle that maintains the posture required for the work, and a work result in the predetermined task that is obtained in association with the amount of activity of the muscle that was acquired in the activity amount acquisition step. and a work result acquisition step, wherein the work result is the accuracy of the product of the work and the time required for the work .

このような身体動作取得装置および身体動作取得方法は、複数のマーカを、対象者の身体および前記物それぞれにおける複数の箇所に付し、複数のマーカの各位置に基づいて、前記対象者の複数の身体部位における各重心位置および前記物の重心位置を、身体動作情報および物動き情報として求める。このように上記身体動作取得装置および身体動作取得方法は、身体動作情報および物動き情報として、複数のマーカの各位置をそのまま用いるのではなく、各身体部位に固有な各身体部位の各重心位置および物に固有な物の重心位置を用いるので、対象者の体型差や着衣による影響、さらに物の大きさの差による影響を低減でき、物を扱う身体の動作をより精度良く取得できる。上記身体動作取得装置および身体動作取得方法は、前記物にもマーカを付すので、前記物動き情報も前記身体動作情報と合わせて取得でき、効率的に、両情報を取得できる。所定の作業に対し、種々の観点から、種々のデータを取得することが可能であるから、前記所定の作業に関わる技能の定量化には、どのような観点で定量化するかが重要である本発明者は、種々検討した結果、身体の動作によって実施される所定の作業に関わる技能の定量化では、1つの観点として、前記所定の作業に要求される姿勢を維持する筋部の活動量が重要であるとの、新規な知見が得られた上記身体動作取得装置および身体動作取得方法は、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得し、前記取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得するので、互いに関連付けられた前記筋部の活動量と前記作業結果とを、技能情報として、取得できるしたがって、前記新規な知見から、上記身体動作取得装置および身体動作取得方法は、技能の定量化に資する技能情報(技能の定量化に役立つ技能情報)を取得できるSuch a body motion acquisition device and a body motion acquisition method attach a plurality of markers to a plurality of locations on the subject's body and the object, and based on the positions of the plurality of markers, the plurality of body motion acquisition methods of the subject The center of gravity positions of each body part and the center of gravity of the object are determined as body motion information and object movement information. In this way, the body motion acquisition device and body motion acquisition method described above do not use each position of a plurality of markers as they are as body motion information and object movement information, but instead use each center of gravity position of each body part that is unique to each body part. Since the position of the center of gravity of the object, which is unique to the object, is used, it is possible to reduce the influence of differences in the subject's body shape and clothing, as well as the influence of differences in the size of the object, and it is possible to more accurately acquire the movement of the body handling the object. Since the body motion acquisition device and body motion acquisition method described above also attach a marker to the object, the object movement information can be acquired together with the body motion information, and both pieces of information can be acquired efficiently. Since it is possible to obtain various data from various viewpoints for a given task, it is important to determine from what perspective the skills related to the given task are quantified. . As a result of various studies, the present inventor has found that, in quantifying skills related to a predetermined task performed by body movements, one aspect is the amount of activity of the muscles that maintain the posture required for the predetermined task. New findings were obtained that show the importance of The body motion acquisition device and body motion acquisition method described above acquire the amount of activity of a muscular part that maintains a posture required for the predetermined task, correlate it with the acquired amount of activity of the muscle section, and perform the predetermined task. Since the work result in is acquired, the activity amount of the muscular part and the work result, which are associated with each other, can be acquired as skill information . Therefore, based on the new knowledge, the body motion acquisition device and the body motion acquisition method can acquire skill information that contributes to skill quantification (skill information that is useful for skill quantification).

他の一態様では、上述の身体動作取得装置において、前記位置測定部は、互いに異なる複数の方向から、前記複数のマーカを撮像する複数の撮像部と、前記複数の撮像部で撮像した各画像に基づいて前記複数のマーカの位置を求める位置処理部とを備える。他の一態様では、上述の身体動作取得方法において、前記位置測定工程は、互いに異なる複数の方向から、前記複数のマーカを撮像する撮像工程と、前記撮像工程で撮像した各画像に基づいて前記複数のマーカの位置を求める位置処理工程とを備える。 In another aspect, in the above-mentioned body motion acquisition device, the position measurement unit includes a plurality of imaging units that capture images of the plurality of markers from a plurality of mutually different directions, and each image captured by the plurality of imaging units. and a position processing unit that calculates the positions of the plurality of markers based on. In another aspect, in the above-mentioned body motion acquisition method, the position measuring step includes an imaging step of imaging the plurality of markers from a plurality of mutually different directions, and a and a position processing step of determining the positions of the plurality of markers.

このような身体動作取得装置および身体動作取得方法は、複数の画像に基づいて複数のマーカの位置を求めるので、身体の動作を妨げることなく非接触で簡単に身体動作情報および物動き情報の両情報を取得できる。 These body motion acquisition devices and body motion acquisition methods obtain the positions of multiple markers based on multiple images, so they can easily obtain both body motion information and object movement information in a non-contact manner without interfering with body motion. Information can be obtained.

他の一態様では、これら上述の身体動作取得装置および身体動作取得方法それぞれにおいて、前記複数の身体部位は、体幹部、ならびに、左上肢部および右上肢部のうちの少なくとも一方を含む。 In another aspect, in each of the above-described body motion acquisition device and body motion acquisition method, the plurality of body parts include a trunk, and at least one of a left upper limb and a right upper limb.

両手部や一方の手部で物を把持して扱う場合、その動作は、前記物を把持する左上肢部や右上肢部で、さらに、前記左上肢部や前記右上肢部を支持する体幹部で、特徴付けられる。上記身体動作取得装置および身体動作取得方法は、前記複数の身体部位が、体幹部、ならびに、左上肢部および右上肢部のうちの少なくとも一方を含むので、物を把持して扱う動作の身体動作情報および物動き情報を好適に取得できる。 When grasping and handling an object with both hands or one hand, the movement is performed by the left upper limb or right upper limb that grips the object, and also by the trunk that supports the left upper limb or right upper limb. It can be characterized. In the body motion acquisition device and body motion acquisition method, the plurality of body parts include the trunk and at least one of the left upper limb and the right upper limb, so that the body motion of grasping and handling an object is provided. Information and object movement information can be suitably acquired.

他の一態様では、上述の身体動作取得装置および身体動作取得方法それぞれにおいて、前記複数の身体部位は、さらに、左下肢部および右下肢部のうちの少なくとも一方を含む。 In another aspect, in each of the above-described body motion acquisition device and body motion acquisition method, the plurality of body parts further includes at least one of a left lower extremity and a right lower extremity.

体幹部は、両下肢部に体重がかかって両下肢部で支持され、あるいは、主に一方の下肢部に体重がかかって主に一方の下肢部で支持される。このため、両手部や一方の手部で物を把持して扱う場合、その動作は、さらに、左下肢部や右下肢部で特徴付けられる。上記身体動作取得装置および身体動作取得方法は、前記複数の身体部位が、さらに、左下肢部および右下肢部のうちの少なくとも一方を含むので、物を把持して扱う動作の身体動作情報および物動き情報を、より好適に取得できる。 The trunk of the body is supported by both lower limbs, with the weight being applied to both lower limbs, or the trunk is supported by the lower limbs, with the weight mainly being applied to one of the lower limbs. Therefore, when grasping and handling an object with both hands or one hand, the motion is further characterized by the left lower limb and the right lower limb. In the body motion acquisition device and body motion acquisition method, the plurality of body parts further include at least one of the left lower limb and the right lower limb, so that the body motion information of the motion of grasping and handling the object and the object Motion information can be acquired more appropriately.

他の一態様では、これら上述の身体動作取得装置および身体動作取得方法それぞれにおいて、前記対象者における身体の動作は、所定の作業の実施に伴う動作であり、前記物は、前記作業で用いられるツールである。 In another aspect, in each of the above-described body motion acquisition device and body motion acquisition method, the body motion of the subject is a motion accompanying execution of a predetermined task, and the object is a motion used in the task. It's a tool.

このような身体動作取得装置および身体動作取得方法は、ツールを用いる作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。 Such a body motion acquisition device and a body motion acquisition method can suitably acquire body motion information and object movement information of motions associated with execution of work using a tool.

他の一態様では、上述の身体動作取得装置および身体動作取得方法それぞれにおいて、前記作業は、研削または研磨の作業、溶接の作業および塗装の作業のうちのいずれかである。 In another aspect, in each of the body motion acquisition device and body motion acquisition method described above, the work is one of grinding or polishing work, welding work, and painting work.

前記作業が研削または研磨の作業である場合、上記身体動作取得装置および身体動作取得方法は、研削または研磨の作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。前記作業が溶接の作業である場合、上記身体動作取得装置および身体動作取得方法は、溶接の作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。前記作業が塗装の作業である場合、上記身体動作取得装置および身体動作取得方法は、塗装の作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。 When the work is a grinding or polishing work, the body motion acquisition device and the body motion acquisition method can suitably acquire body motion information and object movement information of the motion accompanying the grinding or polishing work. When the work is a welding work, the body motion acquisition device and the body motion acquisition method can suitably acquire body motion information and object movement information of the motion accompanying the welding work. When the work is a painting work, the body movement acquisition device and the body movement acquisition method can suitably acquire body movement information and object movement information of the movement accompanying the execution of the painting work.

他の一態様では、上述の身体動作取得装置および身体動作取得方法それぞれにおいて、前記作業は、金型の研削または研磨の作業である。 In another aspect, in each of the above-described body motion acquisition device and body motion acquisition method, the operation is grinding or polishing of the mold.

このような上記身体動作取得装置および身体動作取得方法は、金型の研削または研磨の作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。 The body motion acquisition device and body motion acquisition method described above can suitably acquire body motion information and object movement information of motions associated with grinding or polishing a mold.

他の一態様では、これら上述の身体動作取得装置において、所定の閾値以上である作業結果に関連付けられている前記筋部の活動量を前記作業に関わる技能の熟練度の基準として出力する出力部をさらに備える。他の一態様では、これら上述の身体動作取得方法において、所定の閾値以上である作業結果に関連付けられている前記筋部の活動量を前記作業に関わる技能の熟練度の基準として出力する出力工程をさらに備える。 In another aspect, in these above-mentioned body motion acquisition devices, an output unit outputs the amount of activity of the muscular part associated with a work result that is equal to or higher than a predetermined threshold value as a standard of proficiency of a skill related to the work. Furthermore, it is equipped with. In another aspect, in the above-mentioned body motion acquisition methods, an output step of outputting the amount of activity of the muscular part associated with a work result that is equal to or higher than a predetermined threshold value as a standard of proficiency of a skill related to the work. Furthermore, it is equipped with.

このような身体動作取得装置および身体動作取得方法は、前記技能の熟練度の基準を出力できる。 Such a body motion acquisition device and a body motion acquisition method can output a standard of proficiency of the skill.

本発明にかかる身体動作取得装置および身体動作取得方法は、物を扱う身体の動作をより精度良く取得できる。 The body motion acquisition device and the body motion acquisition method according to the present invention can more accurately acquire the motion of a body handling an object.

実施形態における身体動作取得装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a body motion acquisition device in an embodiment. 作業者に対する、前記身体動作取得装置で用いられる複数のマーカの取り付け位置、および、前記身体動作取得装置で用いられるフォースプレートの配置位置を説明するための図である。FIG. 7 is a diagram for explaining attachment positions of a plurality of markers used in the body motion acquisition device and placement positions of a force plate used in the body motion acquisition device with respect to a worker. 身体における各部位の各重心位置を説明するための図である。FIG. 3 is a diagram for explaining the positions of the centers of gravity of each part of the body. 作業の内容および前記作業に用いられるテストピースを説明するための図である。It is a figure for explaining the content of work and the test piece used for the said work. 実施形態における身体動作取得装置の動作を示すフローチャートである。It is a flowchart showing the operation of the body motion acquisition device in the embodiment. Eクラスに属する被験者およびAクラスに属する被験者それぞれにおける視線移動量の分布を示すヒストグラムである。It is a histogram showing the distribution of the amount of eye movement in each of the subjects belonging to the E class and the subjects belonging to the A class. 時間経過に対する、前記各重心位置の変位を説明するための図である。FIG. 6 is a diagram for explaining the displacement of each center of gravity position with respect to the passage of time.

以下、図面を参照して、本発明の1または複数の実施形態が説明される。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, one or more embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the disclosed embodiments. It should be noted that structures with the same reference numerals in each figure indicate the same structure, and the description thereof will be omitted as appropriate. In this specification, when referring to a general term, a reference numeral without a subscript is used, and when referring to an individual configuration, a reference numeral with a suffix is used.

図1は、実施形態における身体動作取得装置の構成を示すブロック図である。図2は、作業者に対する、前記身体動作取得装置で用いられる複数のマーカの取り付け位置、および、前記身体動作取得装置で用いられるフォースプレートの配置位置を説明するための図である。図3は、身体における各部位の各重心位置を説明するための図である。図3では、各部位の各重心位置は、●で示されている。 FIG. 1 is a block diagram showing the configuration of a body motion acquisition device in an embodiment. FIG. 2 is a diagram for explaining attachment positions of a plurality of markers used in the body motion acquisition device and placement positions of force plates used in the body motion acquisition device with respect to the worker. FIG. 3 is a diagram for explaining the positions of the centers of gravity of each part of the body. In FIG. 3, the positions of the centers of gravity of each part are indicated by ●.

実施形態における身体動作取得装置Dは、所定の物を扱う対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報を取得する装置である。本実施形態では、身体動作取得装置Dは、さらに、前記身体の動作を解析するための解析情報も取得するように構成されている。このような身体情報取得装置Dは、例えば、図1に示すように、身体動作情報および物動き情報を取得するために、複数の撮像部11-1~11-kと(kは2以上の整数)、制御処理部5における後述の位置処理部51、動作情報処理部53および制御部56と、記憶部9とを備え、解析情報を取得するために、外力測定部2と、視線測定部3と、形状測定部41と、計時部42と、制御処理部5における後述の活動量処理部52、視線処理部54、作業結果処理部55および制御部56と、記憶部9とを備え、身体動作取得装置Dの入出力インターフェースとして、入力部6と、出力部7と、インターフェース部(IF部)8とを備える。制御部56および記憶部9は、身体動作情報および物動き情報の取得と、解析情報の取得とで、共用されている。 The body motion acquisition device D in the embodiment is a device that acquires body motion information representing the body motion of a subject handling a predetermined object and object movement information representing the movement of the object. In this embodiment, the body motion acquisition device D is configured to further acquire analysis information for analyzing the body motion. For example, as shown in FIG. 1, such a body information acquisition device D includes a plurality of imaging units 11-1 to 11-k (k is 2 or more) in order to acquire body motion information and object movement information. integer), a position processing section 51, a motion information processing section 53 and a control section 56, which will be described later, in the control processing section 5, and a storage section 9. 3, a shape measurement section 41, a time measurement section 42, an activity mass processing section 52, a line of sight processing section 54, a work result processing section 55 and a control section 56, which will be described later in the control processing section 5, and a storage section 9. As an input/output interface of the body motion acquisition device D, an input section 6, an output section 7, and an interface section (IF section) 8 are provided. The control unit 56 and the storage unit 9 are commonly used for acquiring body motion information and object movement information and for acquiring analysis information.

複数の撮像部11-1~11-kは、それぞれ、制御処理部5に接続され、制御処理部5の制御に従って、複数のマーカを付された対象者に対し、互いに異なる複数の方向から、前記複数のマーカを撮像して画像(画像データ)を生成する装置である。例えば、対象者が入る直方体の空間(例えば4m×4m×2m等)における上方の4個のコーナーに4個の撮像部11-1~11-4が前記空間の中央領域を向くように光軸を斜め下方に向けて配置され、前記空間における下方の4個のコーナーに4個の撮像部11-5~11-8が前記空間の中央領域を向くように光軸を斜め上方に向けて配置される。これによって8個の撮像部11-1~11-8は、それぞれ、対象者に対し、互いに異なる8方向から、対象者に付されたマーカを撮像して画像を生成する。複数の撮像部11-1~11-kは、それぞれ、前記撮像して生成した画像を制御処理部5へ出力し、制御処理部5は、これら複数の撮像部11-1~11-kからの複数の画像を互いに関連付けて記憶部9に記憶する。より具体的には、このような撮像部11-1~11-kは、それぞれ、例えば、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するエリアイメージセンサ、および、エリアイメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。 The plurality of imaging units 11-1 to 11-k are each connected to the control processing unit 5, and according to the control of the control processing unit 5, the plurality of imaging units 11-1 to 11-k capture images of the subject with the plurality of markers from a plurality of mutually different directions. This is a device that generates an image (image data) by capturing images of the plurality of markers. For example, in the upper four corners of a rectangular parallelepiped space (for example, 4 m x 4 m x 2 m, etc.) in which the subject enters, the four imaging units 11-1 to 11-4 are arranged with optical axes facing the central area of the space. is arranged to face diagonally downward, and four imaging units 11-5 to 11-8 are arranged at four lower corners of the space with their optical axes facing diagonally upward so as to face the central region of the space. be done. As a result, the eight imaging units 11-1 to 11-8 each image the marker attached to the subject from eight different directions to generate an image. Each of the plurality of imaging units 11-1 to 11-k outputs the captured and generated image to the control processing unit 5, and the control processing unit 5 receives the images from the plurality of imaging units 11-1 to 11-k. A plurality of images are stored in the storage unit 9 in association with each other. More specifically, such imaging units 11-1 to 11-k each include, for example, an imaging optical system that forms an infrared optical image of the imaging target on a predetermined imaging plane, and an area image sensor that is arranged with a light receiving surface aligned with the image plane and converts an infrared optical image of the imaged object into an electrical signal; This is a digital infrared camera that includes an image processing unit that generates image data that represents an infrared image.

前記複数のマーカは、それぞれ、赤外光(赤外線)を反射する部材であり、所定の物を扱う対象者(作業者、被験者)の身体および前記物それぞれにおける複数の箇所に付される。複数のマーカMKは、例えば、図2に示すように、19個の各身体部位の各重心位置を測定するために、対象者の身体LBにおける41個の各箇所それぞれに取り付けられ、さらに、前記物の重心位置を測定するために、前記物における3個の各箇所それぞれに取り付けられる。19個の身体部位は、本実施形態では、例えば、頭部、首部、胸部、右肩部、左肩部、右上腕部、左上腕部、右前腕部、左前腕部、右手部、左手部、腰部、尻部、右腸骨部、左腸骨部、右膝部、左膝部、右足部および左足部である。身体の動きを好適に解析するために、複数の撮像部11-1~11-kにおけるサンプリング周波数は、例えば100[Hz]である。前記対象者における身体の動作は、身体動作情報として、本実施形態では、例えば図3に示すように、19個の各身体部位それぞれの各重心位置(各重心位置の時間変位)で表され、前記対象者における身体の動きにより生じる前記物の動きは、物動き情報として、前記物の重心位置(重心位置の時間変位)で表される。 Each of the plurality of markers is a member that reflects infrared light (infrared rays), and is attached to a plurality of locations on the body of a subject (worker, test subject) handling a predetermined object and on each of the objects. For example, as shown in FIG. 2, the plurality of markers MK are attached to each of the 41 locations on the subject's body LB in order to measure the center of gravity of each of the 19 body regions, and In order to measure the position of the center of gravity of an object, it is attached to each of three points on the object. In this embodiment, the 19 body parts include, for example, the head, neck, chest, right shoulder, left shoulder, right upper arm, left upper arm, right forearm, left forearm, right hand, left hand, These are the lower back, the buttocks, the right ilium, the left ilium, the right knee, the left knee, the right foot, and the left foot. In order to suitably analyze body movements, the sampling frequency of the plurality of imaging units 11-1 to 11-k is, for example, 100 [Hz]. In this embodiment, the body motion of the subject is expressed as body motion information by each center of gravity position (time displacement of each center of gravity position) of each of 19 body parts, as shown in FIG. 3, for example, The movement of the object caused by the body movement of the subject is represented by the position of the center of gravity (time displacement of the center of gravity) of the object as object movement information.

対象者における身体の動作は、物を扱う動作であれば、任意の動作であって良い。好ましくは、一例では、前記身体の動作は、任意の所定の作業の実施に伴う動作であり、前記作業は、例えば、物品の製造作業や物品の運搬作業等だけでなく、芸能やスポーツ等を含んで良い。前記物は、前記作業で用いられる任意の所定の物であり、好ましくは、一例では、前記物は、前記作業で用いられるツールである。より具体的には、本実施形態では、前記作業は、車両に用いられる部材を成型するための車両部材成型用金型に対する研削または研磨の作業である。この場合では、前記ツールは、一例では、ハンドグラインダー(Hand Grinder)である。もちろん、これに限定されるものではなく、例えば、前記作業は、溶接の作業であり、前記ツールは、例えばトーチ等の溶接機であり、また例えば、前記作業は、塗装の作業であり、前記ツールは、例えばスプレーガン等の塗装用具である。好適には、前記作業は、車両の製造に関わる作業であり、前記ツールは、前記作業に関わるツールである。 The body movement of the subject may be any movement as long as it involves handling an object. Preferably, in one example, the body movement is a movement accompanying the execution of any predetermined work, and the work is, for example, not only manufacturing work of goods, work of transporting goods, etc., but also performing arts, sports, etc. May be included. The object is any predetermined object used in the operation, preferably, in one example, the object is a tool used in the operation. More specifically, in this embodiment, the work is a grinding or polishing work on a vehicle member molding die for molding a member used in a vehicle. In this case, the tool is, in one example, a hand grinder. Of course, the invention is not limited to this. For example, the work is a welding work, the tool is a welding machine such as a torch, and the work is, for example, a painting work, and the tool is a welding machine such as a torch. The tool is, for example, a painting tool such as a spray gun. Preferably, the work is a work related to manufacturing a vehicle, and the tool is a tool related to the work.

なお、上述では、前記マーカは、赤外光を反射する部材であり、これに応じて撮像部11は、デジタル赤外線カメラであるが、前記マーカは、所定の色、例えば対象者の着衣の色と異なる色の部材であって良く、この場合、撮像部11は、可視光のカメラであって良い。 In the above description, the marker is a member that reflects infrared light, and accordingly, the imaging unit 11 is a digital infrared camera. In this case, the imaging unit 11 may be a visible light camera.

図1に戻って、外力測定部2は、制御処理部5に接続され、制御処理部5の制御に従って、前記対象者の身体に作用する外力を測定する装置である、外力測定部2は、その測定結果(身体に作用する外力)を制御処理部5へ出力する。制御処理部5は、後述のように位置処理部51で求められた身体動作情報および物動き情報と関連付けて、この測定結果を記憶部9に記憶する。外力測定部2は、例えば、XYZの各成分で、変位、速度および加速度それぞれを測定するAMTI社製のフォースプレートを備える。本実施形態では、3個の第1ないし第3フォースプレート2-1~2-3が用いられ、図2に示すように、第1フォースプレート2-1は、前記対象者の右足部に作用する外力を測定するように、床上に配置され、第2フォースプレート2-2は、前記対象者の左足部に作用する外力を測定するように、第1フォースプレート2-1と左右方向に沿って並置して前記床上に配置され、第3フォースプレート2-3は、前記ツールを把持する手部に作用する外力(前記ツールからの反力)を測定するように、作業対象(後述の検証実験の例ではテストピースTP)が載置され、前記対象者が作業する作業台上に配置される。これら第1ないし第3フォースプレート2-1~2-3におけるサンプリング周波数は、撮像部11のサンプリングに同期するように、100[Hz]である。 Returning to FIG. 1, the external force measuring unit 2 is a device that is connected to the control processing unit 5 and measures the external force acting on the body of the subject under the control of the control processing unit 5. The measurement result (external force acting on the body) is output to the control processing section 5. The control processing section 5 stores this measurement result in the storage section 9 in association with the body motion information and object movement information obtained by the position processing section 51 as described later. The external force measurement unit 2 includes a force plate manufactured by AMTI that measures displacement, velocity, and acceleration in each of the XYZ components, for example. In this embodiment, three first to third force plates 2-1 to 2-3 are used, and as shown in FIG. 2, the first force plate 2-1 acts on the right foot of the subject. The second force plate 2-2 is placed on the floor along the left-right direction with the first force plate 2-1 so as to measure the external force acting on the subject's left foot. The third force plate 2-3 is arranged on the floor in parallel with the work object (verification described below) so as to measure an external force (reaction force from the tool) acting on the hand that grips the tool. In the example of the experiment, a test piece TP) is placed on the workbench on which the subject is working. The sampling frequency of these first to third force plates 2-1 to 2-3 is 100 [Hz] so as to be synchronized with the sampling of the imaging section 11.

視線測定部3は、制御処理部5に接続され、制御処理部5の制御に従って、前記対象者における注視点の位置(注視点位置)を測定する装置である。視線測定部3は、その測定結果(注視点位置)を制御処理部5へ出力する。制御処理部5は、位置処理部51で求められた身体動作情報および物動き情報と関連付けて、この測定結果を記憶部9に記憶する。視線測定部3は、例えば、角膜反射法により非接触で注視点を3次元座標値で測定するTobii Technology社製のアイトラッカーを備える。前記アイトラッカーにおけるサンプリング周波数は、注視点の動きを好適に解析するために、例えば50[Hz]である。 The line of sight measuring section 3 is a device that is connected to the control processing section 5 and measures the position of the gaze point (point of gaze position) of the subject under the control of the control processing section 5. The line of sight measurement section 3 outputs the measurement result (point of gaze position) to the control processing section 5. The control processing section 5 stores this measurement result in the storage section 9 in association with the body motion information and object movement information obtained by the position processing section 51. The line of sight measuring unit 3 includes, for example, an eye tracker manufactured by Tobii Technology that measures the gaze point in three-dimensional coordinate values in a non-contact manner using the corneal reflection method. The sampling frequency of the eye tracker is, for example, 50 [Hz] in order to suitably analyze the movement of the gaze point.

形状測定部41は、制御処理部5に接続され、制御処理部5の制御に従って、測定対象(後述の検証実験の例では作業後のテストピースTP)の形状を測定する装置である。形状測定部41は、その測定結果(測定対象の形状)を制御処理部5へ出力する。制御処理部5は、位置処理部51で求められた身体動作情報および物動き情報と関連付けて、この測定結果を記憶部9に記憶する。形状測定部41は、例えば、3次元座標値で測定対象の形状を測定する、KEYENCE社製の3D形状測定機を備える。 The shape measurement section 41 is a device that is connected to the control processing section 5 and measures the shape of a measurement target (in the example of a verification experiment described later, a test piece TP after work) under the control of the control processing section 5 . The shape measurement section 41 outputs the measurement result (the shape of the measurement target) to the control processing section 5. The control processing section 5 stores this measurement result in the storage section 9 in association with the body motion information and object movement information obtained by the position processing section 51. The shape measuring unit 41 includes, for example, a 3D shape measuring machine manufactured by KEYENCE, which measures the shape of the measurement target using three-dimensional coordinate values.

計時部42は、制御処理部5に接続され、制御処理部5の制御に従って、前記作業に要した時間(作業時間)を測定する装置であり、例えば、ストップウォッチ等である。計時部42は、その測定結果(作業時間)を制御処理部5へ出力する。制御処理部5は、位置処理部51で求められた身体動作情報および物動き情報と関連付けて、この測定結果を記憶部9に記憶する。 The timer 42 is a device that is connected to the control processor 5 and measures the time required for the work (work time) under the control of the control processor 5, and is, for example, a stopwatch. The clock unit 42 outputs the measurement result (work time) to the control processing unit 5. The control processing section 5 stores this measurement result in the storage section 9 in association with the body motion information and object movement information obtained by the position processing section 51.

入力部6は、制御処理部5に接続され、例えば、取得開始を指示するコマンド等の各種コマンド、および、例えば対象者名等の身体動作情報および物動き情報を取得する上で必要な各種データを身体動作取得装置Dに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチやキーボードやマウス等である。出力部7は、制御処理部5に接続され、制御処理部5の制御に従って、入力部6から入力されたコマンドやデータ、撮像部11の画像、各部2、3、41、42の各測定結果(解析情報)、ならびに、身体動作取得装置Dによって取得された身体動作情報および物動き情報等を出力する機器であり、例えばCRTディスプレイ、液晶ディスプレイおよび有機ELディスプレイ等の表示装置やプリンタ等の印刷装置等である。 The input unit 6 is connected to the control processing unit 5 and inputs various commands such as a command to start acquisition, and various data necessary for acquiring body motion information and object movement information such as the name of a subject. It is a device for inputting information into the body motion acquisition device D, and is, for example, a plurality of input switches, a keyboard, a mouse, etc. to which predetermined functions are assigned. The output section 7 is connected to the control processing section 5, and outputs commands and data input from the input section 6, images from the imaging section 11, and measurement results of each section 2, 3, 41, and 42 under the control of the control processing section 5. (analytical information), as well as body motion information and object movement information acquired by the body motion acquisition device D, such as display devices such as CRT displays, liquid crystal displays, and organic EL displays, and printers, etc. equipment, etc.

なお、入力部6および出力部7からいわゆるタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部6は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部7は、表示装置である。このタッチパネルでは、前記表示装置の表示面上に前記位置入力装置が設けられ、前記表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、前記位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として身体動作取得装置Dに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い身体動作取得装置Dが提供される。 Note that the input section 6 and the output section 7 may constitute a so-called touch panel. When configuring this touch panel, the input section 6 is a position input device that detects and inputs an operating position, such as a resistive film type or a capacitive type, and the output section 7 is a display device. In this touch panel, the position input device is provided on the display surface of the display device, one or more input content candidates that can be input are displayed on the display device, and a display displaying the input content that the user wants to input is displayed. When a position is touched, the position is detected by the position input device, and the display content displayed at the detected position is input to the body motion acquisition device D as the user's operation input content. With such a touch panel, it is easy for the user to intuitively understand the input operations, so a body motion acquisition device D that is easy for the user to handle is provided.

IF部8は、制御処理部5に接続され、制御処理部5の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、シリアル通信方式であるRS-232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。また、IF部8は、外部機器との間で通信を行う回路であり、例えば、データ通信カードや、IEEE802.11規格等に従った通信インターフェース回路等であっても良い。 The IF section 8 is a circuit that is connected to the control processing section 5 and performs input/output of data with an external device under the control of the control processing section 5, and is, for example, an interface circuit for RS-232C, which is a serial communication method. , an interface circuit using the Bluetooth (registered trademark) standard, an interface circuit that performs infrared communication such as the IrDA (Infrared Data Association) standard, and an interface circuit using the USB (Universal Serial Bus) standard. Further, the IF section 8 is a circuit that performs communication with an external device, and may be, for example, a data communication card, a communication interface circuit according to the IEEE802.11 standard, or the like.

記憶部9は、制御処理部5に接続され、制御処理部5の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、複数の撮像部11-1~11-kで撮像した各画像に基づいて複数のマーカの位置を求める位置処理プログラムや、前記位置処理プログラムで求めた複数のマーカの各位置、および、外力測定部2で測定した外力に基づいて前記対象者の各身体部位における各筋活動量(各筋部の各活動量)を求める活動量処理プログラムや、前記位置処理プログラムで求めた複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求める動作情報処理プログラムや、視線測定部3で測定した対象者の注視点の位置に基づいて前記対象者の視線移動量に関する視線情報を求める視線処理プログラムや、形状測定部41で測定した形状に基づいて寸法精度(加工精度)を求める作業結果処理プログラムや、身体動作取得装置Dの各部11、2、3、41、42、6~9を当該各部の機能に応じてそれぞれ制御する制御プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、撮像部11の画像、各部2、3、41、42の各測定結果、画像や各測定結果を所定の処理手法に従って情報処理した処理結果(例えば上述の重心位置や視線移動量等)および対象者名等の、これら各プログラムを実行する上で必要なデータが含まれる。このような記憶部9は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部9は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部5のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The storage section 9 is a circuit that is connected to the control processing section 5 and stores various predetermined programs and various predetermined data under the control of the control processing section 5. The various predetermined programs include, for example, a position processing program that calculates the positions of a plurality of markers based on each image captured by the plurality of imaging units 11-1 to 11-k, and a an activity amount processing program that calculates each muscle activity amount (each activity amount of each muscle part) in each body part of the subject based on each position of the marker and the external force measured by the external force measurement unit 2; Based on each position of a plurality of markers determined by a processing program, each center of gravity position of a plurality of body parts obtained by dividing the body of the subject into a plurality of parts and the position of the center of gravity of the object represent the movement of the body of the subject. A motion information processing program that obtains body motion information and object movement information representing the movement of the object, and gaze information regarding the amount of gaze movement of the subject based on the position of the subject's gaze point measured by the gaze measurement unit 3. The line of sight processing program, the work result processing program that calculates dimensional accuracy (processing accuracy) based on the shape measured by the shape measuring section 41, and each section 11, 2, 3, 41, 42, 6 to 9 of the body motion acquisition device D It includes a control processing program such as a control program that controls the respective parts according to their functions. The various predetermined data include the image of the imaging unit 11, the measurement results of each part 2, 3, 41, and 42, and the processing results obtained by processing the images and measurement results according to a predetermined processing method (for example, the center of gravity position described above). This includes data necessary to run each of these programs, such as the amount of eye movement, etc.) and the name of the subject. Such a storage unit 9 includes, for example, a ROM (Read Only Memory) which is a nonvolatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) which is a rewritable nonvolatile storage element, and the like. The storage unit 9 includes a RAM (Random Access Memory), which serves as a so-called working memory of the control processing unit 5 that stores data generated during execution of the predetermined program.

制御処理部5は、身体動作取得装置Dの各部11、2、3、41、42、6~9を当該各部の機能に応じてそれぞれ制御し、身体動作情報および物動き情報を取得するための回路である。制御処理部5は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部5には、前記制御処理プログラムが実行されることによって、位置処理部51、活動量処理部52、動作情報処理部53、視線処理部54、作業結果処理部55および制御部56が機能的に構成される。 The control processing unit 5 controls each unit 11, 2, 3, 41, 42, 6 to 9 of the body motion acquisition device D according to the function of each unit, and acquires body motion information and object movement information. It is a circuit. The control processing unit 5 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. By executing the control processing program, the control processing section 5 has a position processing section 51, an activity amount processing section 52, a movement information processing section 53, a line of sight processing section 54, a work result processing section 55, and a control section 56. Functionally configured.

制御部56は、身体動作取得装置Dの各部11、2、3、41、42、6~9を当該各部の機能に応じてそれぞれ制御し、身体動作取得装置D全体の制御を司るものである。 The control section 56 controls each section 11, 2, 3, 41, 42, 6 to 9 of the body motion acquisition device D according to the function of each section, and controls the entire body motion acquisition device D. .

位置処理部51は、複数の撮像部11-1~11-kで撮像した各画像に基づいて前記複数のマーカの各位置を求めるものである。赤外光を反射するマーカを撮像部11(11-1~11-k)で撮像することによって生成された画像では、前記マーカを写し込んだ画像領域は、その画素値がその周囲の画素値と異なるので(例えば、前記マーカを写し込んだ画像領域の画素は、その周囲の画素より明るく、その画素値が高い)、位置処理部51は、まず、前記各画像それぞれについて、当該画像を2値化処理等の画像処理することで、当該画像から、マーカを写し込んだ画像領域を抽出し、当該画像での、前記抽出した画像領域の2次元座標値を求める。そして、位置処理部51は、同一のマーカについて、異なる複数の撮像部11で撮像された各画像から抽出された各画像領域の各2次元座標値から、カメラパラメータ(前記異なる複数の撮像部11における各配置位置および各姿勢(各光軸方向))を用いた、いわゆるエピポーラマッチングにより、前記マーカの位置として前記マーカの3次元座標値を求める。 The position processing unit 51 determines the positions of the plurality of markers based on each image captured by the plurality of imaging units 11-1 to 11-k. In an image generated by capturing a marker that reflects infrared light with the imaging unit 11 (11-1 to 11-k), the image area in which the marker is imprinted has a pixel value that is equal to the surrounding pixel value. (for example, the pixels in the image area where the marker is imprinted are brighter and have higher pixel values than the surrounding pixels), so the position processing unit 51 first converts the image into two for each of the images. By performing image processing such as value conversion processing, the image area in which the marker is imprinted is extracted from the image, and the two-dimensional coordinate values of the extracted image area in the image are determined. Then, the position processing unit 51 calculates the camera parameters (from the two-dimensional coordinate values of each image region extracted from each image captured by the plurality of different imaging units 11 for the same marker). A three-dimensional coordinate value of the marker is determined as the marker position by so-called epipolar matching using each arrangement position and each orientation (in each optical axis direction).

本実施形態では、複数の撮像部11-1~11-kおよび位置処理部51は、前記複数のマーカの各位置を測定する位置測定部の一例に相当し、例えば、OptiTrack Japan社製の光学式モーションキャプチャを備えて構成される。 In this embodiment, the plurality of imaging units 11-1 to 11-k and the position processing unit 51 correspond to an example of a position measurement unit that measures the positions of the plurality of markers, and are, for example, optical sensors manufactured by OptiTrack Japan. Configured with motion capture.

活動量処理部52は、位置処理部51で求めた複数のマーカの各位置、および、外力測定部2で測定した外力に基づいて、前記対象者の各身体部位における各筋活動量を求めるものである。前記活動量処理プログラムは、筋骨格モデリングシミュレーションソフトウェアであり、例えば、株式会社テラバイト社製のAnyBodyである。前記筋骨格モデリングシミュレーションでは、位置処理部51で求めた複数のマーカの各位置から求められた関節角度と、外力測定部2で測定した外力とに基づいて関節トルクが推定され、筋活動量が推定される。このAnyBodyをインストールすることによって、活動量処理部52が機能的に構成される。 The activity amount processing unit 52 calculates the amount of muscle activity in each body part of the subject based on the positions of the plurality of markers determined by the position processing unit 51 and the external force measured by the external force measurement unit 2. It is. The activity amount processing program is musculoskeletal modeling simulation software, for example, AnyBody manufactured by Terabyte Co., Ltd. In the musculoskeletal modeling simulation, the joint torque is estimated based on the joint angle obtained from each position of a plurality of markers obtained by the position processing section 51 and the external force measured by the external force measurement section 2, and the amount of muscle activity is estimated. Presumed. By installing this AnyBody, the activity amount processing unit 52 is functionally configured.

そして、活動量処理部52は、前記求めた各身体部位における各筋活動量に基づいて、前記所定の作業に要求される姿勢を維持する筋部の活動量(筋活動量)を求める。本実施形態では、前記作業がグラインダー作業であり、後述の知見から、活動量処理部52は、体幹部に関わる筋部の活動量、さらに、下肢部に関わる筋部の活動量を、前記所定の作業に要求される姿勢を維持する筋部の活動量として求める。より具体的には、活動量処理部52は、頭部、首部、胸部、腰部および尻部の各筋活動量を集約(総和)することによって、体幹部に関わる筋部の活動量を求め、左腸骨部、左膝部および左足部の各筋活動量を集約することによって、左下肢部に関わる筋部の活動量を求め、そして、右腸骨部、右膝部および右足部の各筋活動量を集約することによって、右下肢部に関わる筋部の筋活動量を求める。なお、さらに、左下肢部に関わる筋部の活動量と右下肢部に関わる筋部の筋活動量とが集約(加算)され、下肢部に関わる筋部の活動量とされても良い。 Then, the activity amount processing section 52 determines the amount of activity (muscle activity amount) of the muscle part that maintains the posture required for the predetermined task based on the determined amount of muscle activity in each body part. In this embodiment, the work is a grinder work, and based on the knowledge described later, the activity amount processing unit 52 calculates the activity amount of the muscle parts related to the trunk and the activity amount of the muscle parts related to the lower limbs to the predetermined value. It is calculated as the amount of muscle activity required to maintain the posture required for the task. More specifically, the activity amount processing unit 52 calculates the amount of activity of the muscles related to the trunk by aggregating (totaling) the amounts of muscle activity of the head, neck, chest, lower back, and buttocks, By aggregating the amount of muscle activity in the left iliac region, left knee region, and left foot region, the amount of activity of the muscle regions related to the left lower limb region is determined. By aggregating the amount of muscle activity, the amount of muscle activity of the muscles related to the right lower limb is determined. In addition, the activity amount of the muscle part related to the left lower limb and the muscle activity amount of the muscle part related to the right lower limb may be aggregated (added) to form the activity amount of the muscle part related to the lower limb.

動作情報処理部53は、前記位置測定部で測定した複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求めるものである。より具体的には、動作情報処理部53は、各サンプリングタイミング(上述の例ではサンプリング周波数100[Hz]での各サンプリングタイミング)それぞれにおいて、位置処理部51で求めた複数のマーカの各位置に基づいて19個の各身体部位それぞれの各重心位置を求める。例えば、19個の各身体部位それぞれにおいて、当該身体部位に関わる複数のマーカの位置から当該身体部位の重心位置を求める第1演算式が予め求められて記憶部9に記憶され、動作情報処理部53は、19個の各身体部位それぞれについて、位置処理部51で求めた当該身体部位に関わる複数のマーカの各位置から前記第1演算式に基づいて当該身体部位の重心位置を求める。同様に、物(本実施形態ではツール)に関わる複数のマーカの位置から前記物の重心位置を求める第2演算式が予め求められて記憶部9に記憶され、動作情報処理部53は、位置処理部51で求めた前記物に関わる複数のマーカの各位置から前記第2演算式に基づいて前記物の重心位置を求める。本実施形態では、さらに、動作情報処理部53は、19個の各身体部位それぞれにおいて、当該身体部位における重心の移動範囲(最大変位)を求め、前記物における重心の移動範囲を求める。本実施形態では、身体動作情報は、各身体部位の各重心位置だけでなく、これら各移動範囲を含み、物動き情報は、物の重心位置だけでなく、この移動範囲を含む。 The motion information processing unit 53 calculates the positions of the centers of gravity of each of the body parts of the subject and the center of gravity of the object based on the positions of the plurality of markers measured by the position measurement unit. The information is obtained as body motion information representing the body motion of the subject and object movement information representing the movement of the object. More specifically, the motion information processing unit 53 calculates the position of the plurality of markers determined by the position processing unit 51 at each sampling timing (in the above example, each sampling timing at a sampling frequency of 100 [Hz]). Based on this, the positions of the centers of gravity of each of the 19 body parts are determined. For example, for each of the 19 body parts, a first calculation formula for calculating the center of gravity position of the body part from the positions of a plurality of markers related to the body part is determined in advance and stored in the storage unit 9, and the motion information processing unit 53 calculates, for each of the 19 body parts, the position of the center of gravity of the body part based on the first calculation formula from each position of a plurality of markers related to the body part determined by the position processing unit 51. Similarly, a second arithmetic expression for determining the center of gravity of an object (a tool in this embodiment) from the positions of a plurality of markers related to the object is calculated in advance and stored in the storage unit 9, and the motion information processing unit 53 calculates the position of the center of gravity of the object. The position of the center of gravity of the object is determined based on the second arithmetic expression from each position of a plurality of markers related to the object determined by the processing unit 51. In the present embodiment, the motion information processing unit 53 further determines the movement range (maximum displacement) of the center of gravity in each of the 19 body parts, and calculates the movement range of the center of gravity of the object. In this embodiment, the body motion information includes not only the position of the center of gravity of each body part but also the range of movement thereof, and the object movement information includes not only the position of the center of gravity of the object but also the range of movement thereof.

視線処理部54は、視線測定部3で測定した対象者の注視点の位置に基づいて前記対象者の視線移動量に関する視線情報を求めるものである。より具体的には、視線処理部54は、第1時点での第1注視点位置と、前記第1時点から所定の時間経過後の第2時点での第2注視点位置との間の距離である視線移動量を視線情報の1つとして求める。より詳しくは、視線処理部54は、各サンプリングタイミング(上述の例ではサンプリング周波数50[Hz]での各サンプリングタイミング)それぞれにおいて、互いに隣接する2個のサンプリングタイミング間における注視点の移動距離を前記対象者の視線移動量として求める。すなわち、各サンプリングタイミングそれぞれにおいて、前回のサンプリングタイミングで測定された注視点の位置から、今回のサンプリングタイミングで測定された注視点の位置までの距離が前記対象者の視線移動量として求められる。本実施形態では、さらに、視線処理部54は、前記対象者の視線移動量における平均値および標準偏差を前記視線情報の他の1つとして求める。 The line-of-sight processing unit 54 obtains line-of-sight information regarding the amount of movement of the subject's line of sight based on the position of the target's gaze point measured by the line-of-sight measurement unit 3. More specifically, the line-of-sight processing unit 54 calculates the distance between the first gaze point position at a first time point and the second gaze point position at a second time point after a predetermined time has elapsed from the first time point. The amount of line-of-sight movement is determined as one piece of line-of-sight information. More specifically, at each sampling timing (each sampling timing at a sampling frequency of 50 [Hz] in the above example), the line of sight processing unit 54 calculates the moving distance of the gaze point between two adjacent sampling timings as described above. Obtained as the amount of gaze movement of the subject. That is, at each sampling timing, the distance from the position of the gaze point measured at the previous sampling timing to the position of the gaze point measured at the current sampling timing is determined as the amount of eye movement of the subject. In the present embodiment, the line-of-sight processing unit 54 further obtains the average value and standard deviation of the amount of line-of-sight movement of the subject as another piece of the line-of-sight information.

作業結果処理部55は、形状測定部41で測定した形状に基づいて寸法精度(加工精度)を求めるものである。形状測定部41で測定した前記作業の成果物における形状が作業結果の1つとされて良いが、本実施形態では、作業結果処理部44は、前記作業の成果物における精度(寸法精度、加工精度)を作業結果の1つとして求める。 The work result processing unit 55 determines dimensional accuracy (processing accuracy) based on the shape measured by the shape measurement unit 41. The shape of the product of the work measured by the shape measurement unit 41 may be considered as one of the work results, but in this embodiment, the work result processing unit 44 measures the accuracy (dimensional accuracy, processing accuracy) of the product of the work. ) is obtained as one of the work results.

そして、作業結果処理部55は、活動量処理部52で求めた前記作業に要求される姿勢を維持する筋部の活動量(本実施形態では、体幹部の筋活動量、左下肢部の筋活動量、右下肢部の筋活動量(または下肢部の筋活動量))と関連付けて、前記作業における作業結果(本実施形態では、寸法精度および作業時間)を記憶部9に記憶し、必要に応じて出力部7やIF部8に出力する。動作情報処理部53は、活動量処理部52で求めた前記筋部の活動量と関連付けて、前記作業における作業者(対象者)の身体動作情報および物動き情報を記憶部9に記憶し、必要に応じて出力部7やIF部8に出力する。視線処理部54は、活動量処理部52で求めた前記筋部の活動量と関連付けて、前記作業における作業者の視線情報を記憶部9に記憶し、必要に応じて出力部7やIF部8に出力する。 Then, the work result processing unit 55 calculates the amount of activity of the muscles that maintain the posture required for the work determined by the activity amount processing unit 52 (in this embodiment, the amount of muscle activity of the trunk, the amount of muscle activity of the left lower extremity) The work result (in this embodiment, dimensional accuracy and work time) of the work is stored in the storage unit 9 in association with the amount of activity, the amount of muscle activity in the right lower limb (or the amount of muscle activity in the lower limb), and The output signal is output to the output section 7 or the IF section 8 according to the output. The motion information processing section 53 stores in the storage section 9 body motion information and object movement information of the worker (target person) in the work in association with the activity amount of the muscle part determined by the activity amount processing section 52, It is output to the output section 7 or the IF section 8 as necessary. The line-of-sight processing unit 54 stores the line-of-sight information of the worker in the work in the storage unit 9 in association with the amount of activity of the muscle part determined by the amount of activity processing unit 52, and stores the information on the line of sight of the worker in the work in the storage unit 9, and outputs the information to the output unit 7 or the IF unit as necessary. Output to 8.

ここで、これら複数の撮像部11-1~11-k、位置処理部51、外力測定部2および活動量処理部52は、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得する活動量取得部ADを構成し、活動量取得部の一例に相当する。これら形状測定部41、計時部42および作業結果処理部55は、前記活動量取得部で取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得する作業結果取得部4を構成し、作業結果取得部の一例に相当する。本実施形態では、前記作業は、上述したように、その一例として、車両部材成型用金型の研削または研磨の作業であるため、前記作業の成果物は、研削または研磨された作業後の車両部材成型用金型である。このため、本実施形態では、前記作業結果は、前記作業の成果物における精度(加工精度、寸法精度)および前記作業に要した時間(作業時間)であり、これらを測定するために、作業結果取得部の一例として、形状測定部41および計時部42が用いられている。したがって、形状測定部41および計時部42は、前記作業および前記作業結果に応じて適宜な装置に変更される。 Here, the plurality of imaging units 11-1 to 11-k, position processing unit 51, external force measurement unit 2, and activity amount processing unit 52 are configured to calculate the amount of activity of muscles that maintain the posture required for the predetermined task. This constitutes an activity amount acquisition unit AD that acquires , and corresponds to an example of an activity amount acquisition unit. These shape measurement section 41, timekeeping section 42, and work result processing section 55 are connected to the work result acquisition section 4 which acquires the work result of the predetermined work in association with the activity amount of the muscular part acquired by the activity amount acquisition section. , and corresponds to an example of a work result acquisition unit. In the present embodiment, as described above, the work is, for example, the work of grinding or polishing a die for molding a vehicle component, and therefore the work product is a vehicle after the grinding or polishing work. This is a mold for molding parts. Therefore, in this embodiment, the work result is the accuracy (processing accuracy, dimensional accuracy) of the product of the work and the time required for the work (work time), and in order to measure these, the work result is A shape measurement section 41 and a time measurement section 42 are used as an example of the acquisition section. Therefore, the shape measuring section 41 and the time measuring section 42 are changed to appropriate devices depending on the work and the result of the work.

なお、上述では、複数の撮像部11-1~11-k、外力測定部2、視線測定部3、形状測定部41および計時部42は、それぞれ、制御処理部5に接続され制御処理部5の制御に従って稼働したが、複数の撮像部11-1~11-k、外力測定部2、視線測定部3、形状測定部41および計時部42のうちの1または複数(全部を含む)は、制御処理部5とは個別に稼働し、画像や測定結果が入力部6からオペレータ(ユーザ)によって身体動作取得装置Dに入力されて取得されても良く、あるいは、画像や測定結果を記録または記憶した記録媒体(例えばCD-R等)または記憶媒体(USBメモリ等)からIF部8を介して取得されても良い。この場合では、入力部6やIF部8が、前記活動量取得部や前記作業結果取得部や付加取得部の一例に相当する。 Note that in the above description, the plurality of imaging units 11-1 to 11-k, the external force measurement unit 2, the line of sight measurement unit 3, the shape measurement unit 41, and the time measurement unit 42 are each connected to the control processing unit 5. However, one or more (including all) of the plurality of imaging units 11-1 to 11-k, external force measurement unit 2, line of sight measurement unit 3, shape measurement unit 41, and time measurement unit 42, It operates separately from the control processing unit 5, and images and measurement results may be input and acquired by the operator (user) from the input unit 6 to the body motion acquisition device D, or images and measurement results may be recorded or stored. The data may be acquired via the IF section 8 from a recorded recording medium (for example, a CD-R, etc.) or a storage medium (such as a USB memory). In this case, the input section 6 and the IF section 8 correspond to an example of the activity amount acquisition section, the work result acquisition section, and the additional acquisition section.

次に、前記新たな知見の検証および身体動作取得装置の動作について説明する。図4は、作業の内容および前記作業に用いられるテストピースを説明するための図である。図4Aは、模式的に作業前のテストピースを示す斜視図であり、図4Bは、模式的に作業後のテストピースを示す斜視図である。図5は、実施形態における身体動作取得装置の動作を示すフローチャートである。図6は、Eクラスに属する被験者およびAクラスに属する被験者それぞれにおける視線移動量の分布を示すヒストグラムである。図6の横軸は、視線移動量の各階級であり、その縦軸は、頻度である。図7は、時間経過に対する、前記各重心位置の変位を説明するための図である。 Next, verification of the new knowledge and operation of the body motion acquisition device will be explained. FIG. 4 is a diagram for explaining the contents of the work and the test pieces used in the work. FIG. 4A is a perspective view schematically showing a test piece before work, and FIG. 4B is a perspective view schematically showing a test piece after work. FIG. 5 is a flowchart showing the operation of the body motion acquisition device in the embodiment. FIG. 6 is a histogram showing the distribution of eye movement amounts for each of the subjects belonging to the E class and the subjects belonging to the A class. The horizontal axis of FIG. 6 is each class of line-of-sight movement amount, and the vertical axis is the frequency. FIG. 7 is a diagram for explaining the displacement of each center of gravity position with respect to the passage of time.

この検証では、前記作業は、前記ツールとしてグラインダーを用いた、上述の金型の研削または研磨の作業(グラインダー作業)である。より具体的には、このグラインダー作業は、金型を粗く削る荒工程と、粗く削った表面を滑らかな表面になるように研磨する仕上工程の2工程を備えるが、グラインダー作業による切削精度(作業対象の寸法精度、加工精度)を向上させるためには、通常、荒工程の作業を高精度かつ高効率に実施することが重要である。このため、前記検証の実験として、金型に見立てたテストピースTPに対しグラインダー作業における荒工程の作業を被験者(対象者、作業者)に実施させ、身体動作取得装置Dによる各測定が実施された。 In this verification, the work is the above-mentioned mold grinding or polishing work (grinder work) using a grinder as the tool. More specifically, this grinder work involves two steps: a roughing process in which the mold is roughly ground, and a finishing process in which the rough-ground surface is polished to a smooth surface. In order to improve the dimensional accuracy and processing accuracy of the target, it is usually important to perform the roughing process with high precision and efficiency. For this reason, as a verification experiment, subjects (subjects, workers) were made to carry out the rough process of grinder work on the test piece TP, which was likened to a mold, and various measurements were performed using the body motion acquisition device D. Ta.

このテストピースTPは、例えば、図4Aに示すように、中央部に機械加工により深さ0.1mmで一方向に帯状に延びる凹条TPbを形成した100×100×35mmのSS材(一般構造用圧延鋼材)である。このテストピースTPに対し、前記荒工程の作業は、凹条TPbを形成することによって凹条TPbの両側それぞれに形成された高さ0.1mmの凸部TPa、TPcの一方、例えば、凸部TPcをハンディ型のグラインダーで均一に0.1mmだけ研削する作業である。このような荒工程の作業後、テストピースTPには、図4Bに示すように、凹条TPbの底面と略面一な研削平面部TPdが形成される。被験者は、初級者から熟練者までを含む46名である。 For example, as shown in FIG. 4A, this test piece TP is made of a 100 x 100 x 35 mm SS material (general structure rolled steel material). For this test piece TP, the work of the rough process is performed by forming the grooved line TPb, so that one of the protrusions TPa and TPc with a height of 0.1 mm formed on both sides of the grooved line TPb, for example, the protrusion This work involves grinding TPc uniformly by 0.1 mm using a hand-held grinder. After such a rough process, a ground plane portion TPd substantially flush with the bottom surface of the grooved line TPb is formed on the test piece TP, as shown in FIG. 4B. There were 46 subjects, ranging from beginners to experts.

これら46名の各被験者は、順次に、前記テストピースTPに対し前記荒工程の作業を実施する。その実施中、上述の身体動作取得装置Dが用いられ、まず、複数の撮像部11それぞれによって当該被験者およびそのツールに付された複数のマーカの各画像が生成され、当該被験者の被験者名(被験者ID)と互いに関連付けられて記憶部9に記憶され(S1-1)、外力測定部12(12-1~12-3)によって当該被験者における身体に作用する外力が測定され、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶され(S1-2)、位置処理部51によって、処理S1-1で複数の撮像部11-1~11-kによって生成された各画像に基づいて前記複数のマーカの各位置が求められ、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶され(S2)、動作情報処理部53によって、処理S2で位置処理部51によって求めた前記複数のマーカの各位置に基づいて、当該被験者における身体動作情報(各身体部位の各重心位置およびその移動範囲)および物動き情報(ツールの重心位置およびその移動範囲)が求められ、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶され(S3)、活動量処理部52によって、これら位置処理部51で求めた複数のマーカの各位置、および、外力測定部2で測定した外力に基づいて、当該被験者の各身体部位における各筋活動量(各筋部の各活動量)が求められ、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶される(S4)。続いて、活動量処理部52によって、これら求められた各身体部位の各筋活動量に基づいて、前記作業に要求される姿勢を維持する筋部の活動量として、体幹部(Trunk)の筋活動量(Muscle active mass)、左下肢部の筋活動量(Left foot)、右下肢部の筋活動量(Right foot)(または下肢部の筋活動量))が求められ、記憶部9に記憶される(S5)。ここで、この検証では、さらに、左肩部、左上腕部、左前腕部および左手部の各筋活動量が左上肢部(Left arm)の筋活動量として集約され、右肩部、右上腕部、右前腕部および右手部の各筋活動量が、右上肢部(Right arm)の筋活動量として集約され、これら体幹部、左下肢部、右下肢部、左上肢部および右上肢部の各筋活動量が総筋活動量(Total)として集約される。 Each of these 46 subjects sequentially performs the rough process on the test piece TP. During the implementation, the above-mentioned body motion acquisition device D is used, and first, each image of the subject and a plurality of markers attached to the tool is generated by each of the plurality of imaging units 11, and the subject's name (subject The external force acting on the body of the subject is measured by the external force measurement unit 12 (12-1 to 12-3), and the subject name of the subject is stored in the storage unit 9 in association with the ID) (S1-1). are stored in the storage unit 9 in association with each other (S1-2), and the position processing unit 51 generates the plurality of images based on each image generated by the plurality of imaging units 11-1 to 11-k in the process S1-1. The positions of the markers are determined and stored in the storage unit 9 in association with the subject name of the subject (S2), and the motion information processing unit 53 calculates the positions of the markers determined by the position processing unit 51 in step S2. Based on each position, the subject's body movement information (the position of the center of gravity of each body part and its movement range) and object movement information (the center of gravity position of the tool and its movement range) are obtained, and the subject's name and The markers are stored in the storage unit 9 in association with each other (S3), and the activity amount processing unit 52 uses the positions of the plurality of markers obtained by the position processing unit 51 and the external force measured by the external force measurement unit 2 to Each muscle activity amount (each activity amount of each muscle part) in each body part of the subject is determined and stored in the storage unit 9 in association with the subject name of the subject (S4). Next, the activity amount processing unit 52 calculates the amount of activity of the muscles in the trunk as the amount of activity of the muscles that maintain the posture required for the work, based on the obtained amounts of muscle activity of each body part. The amount of muscle activity (muscle active mass), the amount of muscle activity of the left lower limb (Left foot), the amount of muscle activity of the right lower limb (Right foot) (or the amount of muscle activity of the lower limb)) are determined and stored in the storage unit 9. (S5). Here, in this verification, the amount of muscle activity in the left shoulder, left upper arm, left forearm, and left hand is further aggregated as the amount of muscle activity in the left arm, and , the amount of muscle activity in the right forearm and the right hand is aggregated as the amount of muscle activity in the right upper limb, and each of the muscle activity in the trunk, left lower limb, right lower limb, left upper limb, and right upper limb is The amount of muscle activity is aggregated as the total amount of muscle activity (Total).

そして、前記実施中、計時部42によって当該被験者の作業時間が作業結果の1つとして測定され、作業結果処理部55によって、前記作業に要求される姿勢を維持する筋部の活動量と関連付けられて記憶部9に記憶され(S1-3)、視線測定部3によって当該被験者の注視点が測定され、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶され(S1-4)、視線処理部54によって、当該被験者の視線情報(視線移動量、その平均値および標準偏差)が求められ、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶される(S6)。さらに、作業の終了後に、形状測定部41によって作業後のテストピースTPの形状が測定され、当該被験者の被験者名と互いに関連付けられて記憶部9に記憶され(S1-5)、作業結果処理部55によって、前記測定された形状に基づいて寸法精度が求められ、前記作業に要求される姿勢を維持する筋部の活動量と関連付けられて記憶部9に記憶される(S7)。なお、当該被験者における身体の動作、外力および注視点の各測定(動作分析の時間)は、荒工程の研削開始からの2分間とされた。そして、これら測定や演算された複数のマークの各位置、外力、作業時間、注視点、テストピースTPの形状、身体動作情報、物動き情報、視線情報および寸法精度が、前記作業に要求される姿勢を維持する筋部の活動量(この例では体幹部、左下肢部および右下肢部の各筋活動量)共に制御処理部5によって出力部7に出力され、終了される(S8)。 During the execution, the timer 42 measures the work time of the subject as one of the work results, and the work result processing unit 55 correlates it with the amount of activity of the muscles that maintain the posture required for the work. is stored in the storage unit 9 (S1-3), the gaze point of the subject is measured by the gaze measurement unit 3, and stored in the storage unit 9 in association with the subject name of the subject (S1-4). The processing unit 54 obtains the eye gaze information (the amount of eye movement, its average value, and standard deviation) of the subject, and stores it in the storage unit 9 in association with the subject name of the subject (S6). Further, after the work is completed, the shape measuring section 41 measures the shape of the test piece TP after the work, and stores it in the storage section 9 in association with the subject name of the subject (S1-5), and the work result processing section 55, the dimensional accuracy is determined based on the measured shape, and is stored in the storage unit 9 in association with the amount of activity of the muscles that maintain the posture required for the work (S7). Note that the measurements of the subject's body movements, external forces, and gaze points (time for movement analysis) were set for 2 minutes from the start of grinding in the rough process. The positions of these measured and calculated marks, external force, working time, point of gaze, shape of the test piece TP, body movement information, object movement information, line of sight information, and dimensional accuracy are required for the work. The activity amounts of the muscles that maintain the posture (in this example, the muscle activity amounts of the trunk, left lower limb, and right lower limb) are outputted by the control processing unit 5 to the output unit 7, and the process ends (S8).

技能の定量化の検証に当たって、まず、技能の熟練度に応じて5個のAクラスないしEクラスが設定された。Aクラスは、熟練度が最低である初級者のクラスである。Bクラスは、熟練度が普通(中級)である中級者のクラスである。Cクラスは、熟練度が準上級である準上級者のクラスである。Dクラスは、熟練度が上級である上級者のクラスである。Eクラスは、熟練度が最高である最上級者のクラスである。上述のグラインダー作業における荒工程では、その技能の熟練度が上がるほど、寸法精度(加工精度)が高く、作業効率が高い、すなわち、作業時間が短い、と考えられ、さらに、バラツキが少ないと考えられる。そこで、本実施形態では、寸法精度および作業時間それぞれの各標準偏差σが求められ、寸法精度が高く作業時間が短い方から、略3σ以内の範囲がEクラスに設定され、略3σを超え、略2.5σ以内である範囲がDクラスに設定され、略2.5σを超え、略2σ以内である範囲がCクラスに設定され、略2σを超え、略1σ以内である範囲がDクラスに設定され、略1σを超える範囲がAクラスに設定されるように、各クラスを分ける寸法および作業時間の各閾値(寸法閾値、作業時間閾値)が設定された。具体的には、各クラスを分ける各寸法閾値[mm]および各作業時間閾値[min]は、表1の通りである。 In verifying the quantification of skills, first, five classes A to E were established depending on skill proficiency. Class A is a beginner's class with the lowest level of proficiency. Class B is a class for intermediate players whose proficiency level is normal (intermediate). Class C is a class for semi-advanced players whose proficiency level is semi-advanced. The D class is a class of advanced users whose proficiency level is advanced. E class is the highest level of proficiency. In the roughing process of the grinder work mentioned above, it is thought that the higher the level of proficiency of the skill, the higher the dimensional accuracy (processing accuracy), the higher the work efficiency, that is, the shorter the work time, and the less variation there is. It will be done. Therefore, in this embodiment, each standard deviation σ of dimensional accuracy and working time is determined, and the range within approximately 3σ is set as the E class, starting from the one with the highest dimensional accuracy and the shortest working time, and the range exceeding approximately 3σ, The range within approximately 2.5σ is set to D class, the range exceeding approximately 2.5σ and within approximately 2σ is set to C class, and the range exceeding approximately 2σ and within approximately 1σ is set to D class. The size and work time thresholds (dimension threshold, work time threshold) that separate each class were set so that the range exceeding approximately 1σ was set as the A class. Specifically, each dimension threshold value [mm] and each work time threshold value [min] that separate each class are as shown in Table 1.

ここで、テストピースTPに対する寸法精度は、例えば、凹条TPbの底面を含む平面を基準平面とし、研削平面部TPdに仮想的に設定された正方格子の各格子点を各測定点とし、各測定点それぞれにおいて、前記基準平面に対する高さ方向の差(前記基準平面からの高さまたは深さ)を求め、各測定点の各差の各絶対値における平均値として求められる。寸法精度の平均値Avesは、0.032[mm]であり、その標準偏差σsは、0.022[mm]であり、作業時間の平均値Avetは、14.4[min]であり、その標準偏差σtは、8.0[min]であった。 Here, the dimensional accuracy for the test piece TP is determined by using, for example, a plane including the bottom surface of the grooved line TPb as a reference plane, and each lattice point of a square lattice virtually set on the grinding plane part TPd as each measurement point. At each measurement point, the difference in the height direction with respect to the reference plane (height or depth from the reference plane) is determined, and the average value of the absolute values of the differences at each measurement point is determined. The average value Aves of dimensional accuracy is 0.032 [mm], its standard deviation σs is 0.022 [mm], and the average value Avet of working time is 14.4 [min], and its standard deviation σs is 0.022 [mm]. The standard deviation σt was 8.0 [min].

このようなクラス分けでは、46名の被験者は、3名がAクラスに属し、11名がBクラスに属し、13名がCクラスに属し、14名がDクラスに属し、5名がEクラスに属するように、分けられた。Eクラスに属する5名は、官能評価であるが、他の被験者等から、熟練度が最上級であると見られており、Aクラスに属する3名は、新人であることから、表1によるクラス分けは、妥当である。なお、上述では、AクラスとEクラスとの間に、Bクラス、CクラスおよびDクラスの3個のクラスが設けられたが、AクラスとEクラスとの間のクラス数は、任意で良く、1個でも、2個でも4個以上であっても良い。 In this classification, of the 46 subjects, 3 belonged to class A, 11 to class B, 13 to class C, 14 to class D, and 5 to class E. It was divided to belong to The five people belonging to the E class were evaluated by the sensory evaluation, but they were seen by other subjects as having the highest level of proficiency, and the three people belonging to the A class were new, so they were evaluated according to Table 1. Classification is appropriate. In addition, in the above, three classes, B class, C class, and D class, were established between A class and E class, but the number of classes between A class and E class may be arbitrary. , may be one, two, or four or more.

発明者は、作業中、人間が作業状況を視覚によって認識して作業状況を判断し、この判断結果に応じて身体を動作させ、作業を進行させることから、身体の動作によって実施される所定の作業に関わる技能の定量化には、人間が判断して動作する一連の行動情報となる、眼球運動、身体動作および筋活動量を用いることができると、考え、Eクラスに属する被験者PeとAクラスに属する被験者Paとを、筋活動量、視線情報および身体動作情報それぞれの観点から、比較が行われた。特に、技能における、いわゆるコツは、身体動作における力の入れ具合、すなわち、筋活動量に関係する。 The inventor believes that during work, humans visually recognize the work situation, judge the work situation, and move the body according to the result of this judgment to progress the work. We believe that eye movements, body movements, and muscle activity, which are a series of behavioral information that humans judge and act upon, can be used to quantify work-related skills. A comparison was made with the subject Pa belonging to the class from the viewpoints of muscle activity amount, gaze information, and body movement information. In particular, the so-called tips for skills are related to the degree of force exerted in physical movements, that is, the amount of muscle activity.

筋活動量は、最大可能筋力Fmax[N]に対する筋力F[N]の割合であり、単位は、[%]である。筋活動量の比較に当たって、活動量処理部52によって求められた19個の各身体部位における各筋活動量(各筋部の各活動量)は、身体を大きく分けると、体幹部、右上肢部、左上肢部、右下肢部および左下肢部に分けられるので、上述のように、これら5個の部位に集約された。この5大部位の各筋活動量におけるEクラスに属する被験者PeとAクラスに属する被験者Paとの比較結果は、表2の通りである。 The amount of muscle activity is the ratio of muscle strength F[N] to maximum possible muscle strength Fmax[N], and the unit is [%]. When comparing muscle activity amounts, the amount of muscle activity in each of the 19 body parts (the amount of activity of each muscle part) determined by the activity amount processing unit 52 can be roughly divided into the trunk, right upper limb, , the left upper extremity, the right lower extremity, and the left lower extremity, and were therefore aggregated into these five areas as described above. Table 2 shows the comparison results between the subject Pe belonging to the E class and the subject Pa belonging to the A class in terms of the amount of muscle activity in each of the five major regions.

表2から分かるように、Eクラスに属する被験者Peの筋活動量は、Aクラスに属する被験者Paと比較すると、グラインダー作業に要求される姿勢を維持するための体幹部の筋活動量の割合が最も高く、左右下肢部の各筋活動量の差が少ない。一方、Aクラスに属する被験者Paの筋活動量は、左側の割合が高く、左に偏っている。さらに、Eクラスに属する被験者Peの総筋活動量は、Aクラスに属する被験者Paと比較すると、少なく、したがって、Eクラスに属する被験者Peは、少ない総筋活動量でグラインダーに反力を与えている(表2におけるTotalおよびTool reaction forceの各欄参照)。以上から、Eクラスに属する被験者Peは、Aクラスに属する被験者Paに較べ、作業中、身体の軸がしっかりしており、左右のずれが少なく、自身の発した力を効率よくグラインダー(ツール)に伝達している。 As can be seen from Table 2, the amount of muscle activity of subject Pe, who belongs to E class, is higher than that of subject Pa, who belongs to A class. It is the highest, and there is little difference in the amount of muscle activity between the left and right lower limbs. On the other hand, the muscle activity of subject Pa who belongs to class A has a high proportion on the left side, and is biased to the left. Furthermore, the total amount of muscle activity of subject Pe who belongs to E class is smaller than that of subject Pa who belongs to A class. (See the Total and Tool reaction force columns in Table 2). From the above, compared to subject Pa who belongs to A class, subject Pe who belongs to E class has a firmer body axis during work, has less left and right deviation, and can efficiently use the force generated by himself to grind (tool). is being communicated to.

以上のことから、身体の動作によって実施される所定の作業に関わる技能の定量化では、1つの観点として、前記所定の作業に要求される姿勢を維持する筋部の活動量が重要であり、Eクラスに属する被験者Peの筋活動量とAクラスに属する被験者Paの筋活動量とは、有意な差がある。そして、前記筋部の活動量は、体幹部に関わる筋部の活動量を含むことが好ましく、前記筋部の活動量は、さらに、下肢部に関わる筋部の活動量を含むことが好ましい。 From the above, in quantifying the skills involved in a given task performed through body movements, one aspect that is important is the amount of activity of the muscles that maintain the posture required for the given task. There is a significant difference between the amount of muscle activity of the subject Pe who belongs to the E class and the amount of muscle activity of the subject Pa who belongs to the A class. It is preferable that the activity amount of the muscle parts includes the activity amount of the muscle parts related to the trunk, and it is preferable that the activity amount of the muscle parts further includes the activity amount of the muscle parts related to the lower limbs.

視線情報に関し、視線移動量におけるEクラスに属する被験者PeとAクラスに属する被験者Paとの比較結果は、図6の通りである。なお、まばたき等によるエラー値は、除去されている。 Regarding the line-of-sight information, the comparison results between the subject Pe who belongs to the E class and the subject Pa who belongs to the A class in terms of the amount of line-of-sight movement are as shown in FIG. Note that error values caused by blinking or the like are removed.

図6から分かるように、この例では、Eクラスに属する被験者Peの視線移動量は、約350付近に集中し、視線移動量の標準偏差は、12.9である。一方、Aクラスに属する被験者Paの視線移動量は、約300付近から約750付近までに拡がり、視線移動量の標準偏差は、111.5である。したがって、Eクラスに属する被験者Peの視線移動量は、Aクラスに属する被験者Paの視線移動量に較べ、少なく、Eクラスに属する被験者Peは、グラインダー作業における注目部位を理解しており、前記注目部位に視線を集中させていると考えられる。一方、Aクラスに属する被験者Paの視線移動量は、多く、Aクラスに属する被験者Paは、グラインダー作業における注目部位が定まらず、グラインダー作業を進行させるための情報探しや判断遅れが生じ、これによって時間が消費されていると考えられる。さらに、視線移動量に応じて頭部が変位して姿勢に影響を与えるから、切削精度(加工精度、寸法精度)にも影響すると考えられる。このため、相対的に視線移動量の少ないEクラスに属する被験者Peは、相対的に、寸法精度が高く、作業時間が短い一方、相対的に視線移動量の多いAクラスに属する被験者Paは、相対的に、寸法精度が低く、作業時間が長い。 As can be seen from FIG. 6, in this example, the line-of-sight movement amount of subject Pe belonging to the E class is concentrated around 350, and the standard deviation of the line-of-sight movement amount is 12.9. On the other hand, the amount of line of sight movement of subject Pa belonging to class A widens from around 300 to around 750, and the standard deviation of the amount of line of sight movement is 111.5. Therefore, the amount of line-of-sight movement of the subject Pe belonging to the E class is smaller than that of the subject Pa belonging to the A class. It is thought that he is concentrating his gaze on the body part. On the other hand, the amount of eye movement of the subject Pa belonging to the A class is large, and the subject Pa belonging to the A class is unable to decide on the part to focus on during the grinder work, resulting in delays in searching for information and making decisions in order to proceed with the grinder work. It seems like time is being wasted. Furthermore, since the head is displaced according to the amount of line of sight movement and affects the posture, it is thought that cutting accuracy (processing accuracy, dimensional accuracy) is also affected. For this reason, subject Pe, who belongs to class E, which has a relatively small amount of eye movement, has relatively high dimensional accuracy and short work time, while subject Pa, who belongs to class A, who has a relatively large amount of eye movement, Relatively low dimensional accuracy and long working time.

以上のことから、身体の動作によって実施される所定の作業に関わる技能の定量化では、他の1つの観点として、前記所定の作業に伴う視線移動量が重要であり、Eクラスに属する被験者Peにおける視線移動量のバラツキ(一例では上述の分布の拡がり範囲や標準偏差)とAクラスに属する被験者Paにおける視線移動量のバラツキとは、有意な差がある。 From the above, in quantifying skills related to a predetermined task performed by body movements, another point of view is the amount of eye movement associated with the predetermined task. There is a significant difference between the variation in the amount of line-of-sight movement (in one example, the spread range and standard deviation of the above-mentioned distribution) and the variation in the amount of line-of-sight movement in subject Pa belonging to class A.

身体動作情報に関し、身体の動きにおけるEクラスに属する被験者PeとAクラスに属する被験者Paとの比較結果は、図7の通りである。図7の上段は、時間経過に対する、各重心位置の各変位を示すグラフであり、その左側は、Eクラスに属する被験者Peのグラフを示し、その右側は、Aクラスに属する被験者Paのグラフを示す。図7の下段は、前記重心の移動範囲(最大変位)を示し、その左側は、Eクラスに属する被験者Peの移動範囲を示し、その右側は、Aクラスに属する被験者Paの移動範囲を示す。図7には、ツール(Tool)の結果も示されている。 Regarding the body motion information, the comparison results between the subject Pe belonging to the E class and the subject Pa belonging to the A class in terms of body motion are as shown in FIG. The upper part of FIG. 7 is a graph showing each displacement of each center of gravity position over time; the left side shows the graph of subject Pe who belongs to E class, and the right side shows the graph of subject Pa who belongs to A class. show. The lower part of FIG. 7 shows the movement range (maximum displacement) of the center of gravity, the left side shows the movement range of subject Pe belonging to E class, and the right side shows the movement range of subject Pa belonging to A class. FIG. 7 also shows the results of the tool.

図7から分かるように、この例では、Eクラスに属する被験者Peでは、体幹部の動きが小さく、ツールのグラインダーと前腕部における左右への動きが同調している。一方、Aクラスに属する被験者Paでは、ツールのグラインダーと体幹部を含む全身の動きが同調している。 As can be seen from FIG. 7, in this example, subject Pe belonging to class E has small movements of the trunk, and the left and right movements of the grinder and forearm of the tool are synchronized. On the other hand, in subject Pa belonging to class A, the grinder of the tool and the movements of the whole body including the trunk are synchronized.

以上のことから、身体の動作によって実施される所定の作業に関わる技能の定量化では、他の1つの観点として、前記所定の作業に伴う身体の動きが重要であり、Eクラスに属する被験者Peにおける身体の動きとAクラスに属する被験者Paにおける身体の動きとは、有意な差がある。 From the above, in quantifying skills related to a predetermined task performed by body movements, one other point of view is that the body movements accompanying the predetermined task are important, and the subject Pe who belongs to the E class There is a significant difference between the body movements of the subject Pa who belongs to the A class and the body movements of the subject Pa who belongs to the A class.

なお、前記処理S8において、制御処理部5は、左上肢部の筋活動量および右上肢部の筋活動量も出力部7に出力しても良い。 In the process S8, the control processing unit 5 may also output the amount of muscle activity of the left upper limb and the amount of muscle activity of the right upper limb to the output unit 7.

以上説明したように、本実施形態における身体動作取得装置Dおよびこれに実装された身体動作取得方法は、複数のマーカを、対象者の身体および前記物それぞれにおける複数の箇所に付し、複数のマーカの各位置に基づいて、前記対象者の複数の身体部位における各重心位置および前記物の重心位置を、身体動作情報および物動き情報として求める。このように上記身体動作取得装置Dおよび身体動作取得方法は、身体動作情報および物動き情報として、複数のマーカの各位置をそのまま用いるのではなく、各身体部位に固有な各身体部位の各重心位置および物に固有な物の重心位置を用いるので、対象者の体型差や着衣による影響、さらに物の大きさの差による影響を低減でき、物を扱う身体の動作をより精度良く取得できる。上記身体動作取得装置Dおよび身体動作取得方法は、前記物にもマーカを付すので、前記物動き情報も前記身体動作情報と合わせて取得でき、効率的に、両情報を取得できる。 As explained above, the body motion acquisition device D of the present embodiment and the body motion acquisition method implemented therein attach a plurality of markers to a plurality of locations on the subject's body and the object, and Based on the positions of the markers, the positions of the centers of gravity of the plurality of body parts of the subject and the positions of the centers of gravity of the object are determined as body motion information and object movement information. In this way, the body motion acquisition device D and the body motion acquisition method do not use each position of a plurality of markers as they are as body motion information and object movement information, but instead use each center of gravity of each body part that is unique to each body part. Since the center of gravity position of the object is used, which is unique to the position and the object, it is possible to reduce the effects of differences in the subject's body shape and clothing, as well as the effects of differences in the size of the object, and it is possible to more accurately acquire the movement of the body when handling the object. Since the body motion acquisition device D and body motion acquisition method described above also attach a marker to the object, the object movement information can be acquired together with the body motion information, and both pieces of information can be acquired efficiently.

上記身体動作取得装置Dおよび身体動作取得方法は、複数の画像に基づいて複数のマーカの位置を求めるので、身体の動作を妨げることなく非接触で簡単に身体動作情報および物動き情報の両情報を取得できる。 The body motion acquisition device D and the body motion acquisition method determine the positions of multiple markers based on multiple images, so that both body motion information and object movement information can be easily obtained without interfering with body motion and without contact. can be obtained.

両手部や一方の手部で物を把持して扱う場合、その動作は、前記物を把持する左上肢部や右上肢部で、さらに、前記左上肢部や前記右上肢部を支持する体幹部で、特徴付けられる。このことは、図7を用いて上述したように、Eクラスに属する被験者Peでは、体幹部の動きが小さく、ツールのグラインダーと前腕部における左右への動きが同調していることからも理解される。上記身体動作取得装置Dおよび身体動作取得方法は、前記複数の身体部位が、体幹部、ならびに、左上肢部および右上肢部のうちの少なくとも一方を含むので、物を把持して扱う動作の身体動作情報および物動き情報を好適に取得できる。 When grasping and handling an object with both hands or one hand, the movement is performed by the left upper limb or right upper limb that grips the object, and also by the trunk that supports the left upper limb or right upper limb. It can be characterized. This can be understood from the fact that, as described above with reference to Figure 7, in subject Pe belonging to class E, the movement of the trunk was small, and the left and right movements of the tool grinder and the forearm were synchronized. Ru. In the body motion acquisition device D and the body motion acquisition method, the plurality of body parts include the trunk and at least one of the left upper limb and the right upper limb. Motion information and object movement information can be suitably acquired.

体幹部は、両下肢部に体重がかかって両下肢部で支持され、あるいは、主に一方の下肢部に体重がかかって主に一方の下肢部で支持される。このため、両手部や一方の手部で物を把持して扱う場合、その動作は、さらに、左下肢部や右下肢部で特徴付けられる。このことは、表2を用いて上述したように、Eクラスに属する被験者Peの筋活動量は、Aクラスに属する被験者Paと比較すると、グラインダー作業に要求される姿勢を維持するための体幹部の筋活動量の割合が最も高く、左右下肢部の各筋活動量の差が少ないことからも理解される。上記身体動作取得装置Dおよび身体動作取得方法は、前記複数の身体部位が、さらに、左下肢部および右下肢部のうちの少なくとも一方を含むので、物を把持して扱う動作の身体動作情報および物動き情報を、より好適に取得できる。 The trunk of the body is supported by both lower limbs, with the weight being applied to both lower limbs, or the trunk is supported by the lower limbs, with the weight mainly being applied to one of the lower limbs. Therefore, when grasping and handling an object with both hands or one hand, the motion is further characterized by the left lower limb and the right lower limb. This means that, as mentioned above using Table 2, the amount of muscle activity of subject Pe who belongs to class E is higher than that of subject Pa who belongs to class A, and the amount of muscle activity of the subject Pe who belongs to the E class is higher than that of the subject Pa who belongs to the A class. This can be understood from the fact that the proportion of muscle activity in the left and right lower limbs is the highest, and there is little difference in the amount of muscle activity between the left and right lower limbs. In the body motion acquisition device D and body motion acquisition method, the plurality of body parts further include at least one of the left lower limb and the right lower limb, so that the body motion information of the motion of grasping and handling an object and Object movement information can be acquired more suitably.

上記身体動作取得装置Dおよび身体動作取得方法は、ツールを用いる作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。 The body motion acquisition device D and the body motion acquisition method described above can suitably acquire body motion information and object movement information of motions associated with execution of work using a tool.

上記身体動作取得装置Dおよび身体動作取得方法は、研削または研磨の作業、本実施形態では、金型の研削または研磨の作業の実施に伴う動作の身体動作情報および物動き情報を好適に取得できる。なお、前記作業が溶接の作業や塗装の作業も同様である。 The body motion acquisition device D and the body motion acquisition method described above can suitably acquire body motion information and object movement information of motions associated with grinding or polishing work, in this embodiment, mold grinding or polishing work. . The same applies to cases where the above-mentioned work is welding work or painting work.

上記身体動作取得装置Dおよび身体動作取得方法は、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得し、前記取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得するので、互いに関連付けられた前記筋部の活動量と前記作業結果とを、技能情報として、取得できる。したがって、前記新規な知見から、上記身体動作取得装置Dおよび身体動作取得方法は、技能の定量化に資する技能情報(技能の定量化に役立つ技能情報)を取得できる。 The body motion acquisition device D and the body motion acquisition method acquire the amount of activity of a muscular part that maintains the posture required for the predetermined task, correlate it with the acquired amount of activity of the muscle part, and obtain the amount of activity of the muscle part that maintains the posture required for the prescribed task. Since the work results of the work are acquired, the activity amount of the muscle parts and the work results that are associated with each other can be acquired as skill information. Therefore, based on the new knowledge, the body motion acquisition device D and the body motion acquisition method can acquire skill information that contributes to skill quantification (skill information that is useful for skill quantification).

なお、上述の実施形態において、身体動作取得装置Dおよびこれに実装された身体動作取得方法は、制御処理部5によって、所定の閾値以上である作業結果に関連付けられている前記筋部の活動量を前記技能の熟練度の基準として出力部7に出力しても良い。これによれば、前記技能の熟練度の基準が出力できる。例えば、グラインダー作業の例では、熟練度が最高である最上級者のEクラスを弁別する寸法精度および作業時間(表1に示す例では、0.03[mm]および10[min])が前記所定の閾値とされ、Eクラスに属する被験者Peにおける体幹部に関わる筋部の活動量、左下肢部に関わる筋部の活動量、右下肢部に関わる筋部の活動量(または下肢部に関わる筋部の活動量)が出力部7に出力される。この場合において、さらに、Eクラスに属する被験者Peにおける視線情報が出力部7に出力され、Eクラスに属する被験者Peにおける身体動作情報が出力部7に出力されても良い。さらに、これらの場合において、技能を継承する作業者における体幹部に関わる筋部の活動量、左下肢部に関わる筋部の活動量、右下肢部に関わる筋部の活動量(または下肢部に関わる筋部の活動量)が出力部7に出力されても良い。これによれば、このような技能の定量化に資する基準と前記作業者の測定結果とを比較参照することで、前記作業者は、定量的な観点から、自己と基準との相違を認識でき、効率よく、技能を習熟できる。 In the above-described embodiment, the body motion acquisition device D and the body motion acquisition method implemented therein use the control processing unit 5 to determine the amount of activity of the muscular part associated with a work result that is equal to or greater than a predetermined threshold. may be output to the output unit 7 as a standard for the proficiency level of the skill. According to this, the standard of the proficiency level of the skill can be output. For example, in the example of grinder work, the dimensional accuracy and work time (0.03 [mm] and 10 [min] in the example shown in Table 1) that distinguish the E class of the highest level of skill are as follows. The amount of activity of the muscles related to the trunk, the amount of activity of the muscles related to the left lower limb, the amount of activity of the muscles related to the right lower limb (or the amount of activity related to the lower The amount of muscle activity) is output to the output unit 7. In this case, the line of sight information of the subject Pe belonging to the E class may be further output to the output unit 7, and the body movement information of the subject Pe belonging to the E class may be output to the output unit 7. Furthermore, in these cases, the amount of activity of muscles related to the trunk, the amount of activity of muscles related to the left lower limb, the amount of activity of muscles related to the right lower limb (or the amount of activity of muscles related to the lower The amount of activity of the related muscle parts) may be output to the output unit 7. According to this, by comparing and referencing the measurement results of the worker with standards that contribute to the quantification of such skills, the worker can recognize the difference between himself and the standards from a quantitative perspective. , you can learn skills efficiently.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been adequately and fully described through embodiments with reference to the drawings in the above description, but those skilled in the art will easily be able to modify and/or improve the embodiments described above. It should be recognized that this is possible. Therefore, unless the modification or improvement made by a person skilled in the art does not depart from the scope of the claims stated in the claims, such modifications or improvements do not fall outside the scope of the claims. It is interpreted as encompassing.

D 身体動作取得装置
AD 活動量取得部
1 位置測定部
2 外力測定部
4 作業結果取得部
5 制御処理部
6 入力部
7 出力部
8 インターフェース部(IF部)
9 記憶部
11-1~11-k 複数の撮像部
41 形状測定部
42 計時部
51 位置処理部部
52 活動量処理部
53 動作情報処理部
54 視線処理部
55 作業結果処理部
56 制御部
D Body movement acquisition device AD Activity amount acquisition unit 1 Position measurement unit 2 External force measurement unit 4 Work result acquisition unit 5 Control processing unit 6 Input unit 7 Output unit 8 Interface unit (IF unit)
9 Storage units 11-1 to 11-k A plurality of imaging units 41 Shape measurement unit 42 Time measurement unit 51 Position processing unit 52 Activity amount processing unit 53 Movement information processing unit 54 Line of sight processing unit 55 Work result processing unit 56 Control unit

Claims (18)

所定の物を扱う対象者の身体および前記物それぞれにおける複数の箇所に付される複数のマーカと、
前記複数のマーカの各位置を測定する位置測定部と、
前記位置測定部で測定した複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求める動作情報処理部とを備え、
前記対象者における身体の動作は、所定の作業の実施に伴う動作であり
さらに、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得する活動量取得部と、前記活動量取得部で取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得する作業結果取得部とを備え
前記作業結果は、前記作業の成果物における精度および前記作業に要した時間である、
身体動作取得装置。
a plurality of markers attached to a plurality of locations on the body of a subject handling a predetermined object and each of the objects;
a position measuring unit that measures each position of the plurality of markers;
Based on the positions of the plurality of markers measured by the position measuring unit, the positions of the centers of gravity of each body part of the subject's body divided into a plurality of parts and the position of the center of gravity of the object are calculated based on the position of the center of gravity of the subject's body. and a motion information processing unit that obtains body motion information representing the movement of the object and object movement information representing the movement of the object,
The body movement of the subject is a movement accompanying the performance of a predetermined task ,
Furthermore, an activity amount acquisition section that acquires the amount of activity of the muscle that maintains the posture required for the predetermined task; and a work result acquisition unit that acquires work results in ,
The work result is the accuracy of the product of the work and the time required for the work ,
Body movement acquisition device.
前記位置測定部は、
互いに異なる複数の方向から、前記複数のマーカを撮像する複数の撮像部と、
前記複数の撮像部で撮像した各画像に基づいて前記複数のマーカの位置を求める位置処理部とを備える、
請求項1に記載の身体動作取得装置。
The position measuring unit includes:
a plurality of imaging units that image the plurality of markers from a plurality of mutually different directions;
a position processing unit that calculates the positions of the plurality of markers based on each image captured by the plurality of imaging units;
The body motion acquisition device according to claim 1.
前記複数の身体部位は、体幹部、ならびに、左上肢部および右上肢部のうちの少なくとも一方を含む、
請求項1または請求項2に記載の身体動作取得装置。
The plurality of body parts include a trunk and at least one of a left upper limb and a right upper limb,
The body motion acquisition device according to claim 1 or 2.
前記複数の身体部位は、さらに、左下肢部および右下肢部のうちの少なくとも一方を含む、
請求項3に記載の身体動作取得装置。
The plurality of body parts further includes at least one of a left lower limb and a right lower limb.
The body motion acquisition device according to claim 3.
前記対象者における身体の動作は、所定の作業の実施に伴う動作であり、
前記物は、前記作業で用いられるツールである、
請求項1ないし請求項4のいずれか1項に記載の身体動作取得装置。
The body movement of the subject is a movement accompanying the performance of a predetermined task,
the object is a tool used in the work;
The body motion acquisition device according to any one of claims 1 to 4.
前記作業は、研削または研磨の作業、溶接の作業および塗装の作業のうちのいずれかである、
請求項5に記載の身体動作取得装置。
The work is any one of grinding or polishing work, welding work, and painting work,
The body motion acquisition device according to claim 5.
前記作業は、金型の研削または研磨の作業である、
請求項5に記載の身体動作取得装置。
The work is a grinding or polishing work of the mold,
The body motion acquisition device according to claim 5.
前記金型は、車両に用いられる部材を成型するための車両部材成型用金型である、
請求項7に記載の身体動作取得装置。
The mold is a vehicle member molding mold for molding a member used in a vehicle.
The body motion acquisition device according to claim 7.
所定の閾値以上である作業結果に関連付けられている前記筋部の活動量を前記作業に関わる技能の熟練度の基準として出力する出力部をさらに備える、
請求項に記載の身体動作取得装置。
further comprising an output unit that outputs the amount of activity of the muscular part associated with a work result that is equal to or higher than a predetermined threshold value as a standard of proficiency of a skill related to the work;
The body motion acquisition device according to claim 1 .
所定の物を扱う対象者の身体および前記物それぞれにおける複数の箇所に付された複数のマーカの各位置を測定する位置測定工程と、
前記位置測定工程で測定した複数のマーカの各位置に基づいて、前記対象者の身体を複数に分けた複数の身体部位における各重心位置および前記物の重心位置を、前記対象者における身体の動作を表す身体動作情報および前記物の動きを表す物動き情報として求める動作情報処理工程とを備え、
前記対象者における身体の動作は、所定の作業の実施に伴う動作であり
さらに、前記所定の作業に要求される姿勢を維持する筋部の活動量を取得する活動量取得工程と、前記活動量取得工程で取得した前記筋部の活動量と関連付けて、前記所定の作業における作業結果を取得する作業結果取得工程とを備え
前記作業結果は、前記作業の成果物における精度および前記作業に要した時間である、
身体動作取得方法。
a position measuring step of measuring each position of a plurality of markers attached to a plurality of locations on the body of a subject handling a predetermined object and each of the objects;
Based on the positions of the plurality of markers measured in the position measuring step, the positions of the centers of gravity of each body part of the subject's body divided into a plurality of parts and the position of the center of gravity of the object are calculated based on the positions of the bodies of the subject. and a motion information processing step of obtaining body motion information representing the movement of the object and object movement information representing the movement of the object,
The body movement of the subject is a movement accompanying the performance of a predetermined task ,
Furthermore, an activity amount acquisition step of acquiring an amount of activity of a muscular part that maintains the posture required for the predetermined work, and an activity amount acquisition step of acquiring the amount of activity of the muscle part that maintains the posture required for the predetermined work, and a and a work result acquisition step of acquiring work results in ,
The work result is the accuracy of the work product and the time required for the work ,
How to acquire body movements.
前記位置測定工程は、
互いに異なる複数の方向から、前記複数のマーカを撮像する撮像工程と、
前記撮像工程で撮像した各画像に基づいて前記複数のマーカの位置を求める位置処理工程とを備える、
請求項10に記載の身体動作取得方法。
The position measuring step includes:
an imaging step of imaging the plurality of markers from a plurality of directions different from each other;
a position processing step of determining the positions of the plurality of markers based on each image taken in the imaging step;
The body motion acquisition method according to claim 10 .
前記複数の身体部位は、体幹部、ならびに、左上肢部および右上肢部のうちの少なくとも一方を含む、
請求項10または請求項11に記載の身体動作取得方法。
The plurality of body parts include a trunk and at least one of a left upper limb and a right upper limb,
The body motion acquisition method according to claim 10 or 11 .
前記複数の身体部位は、さらに、左下肢部および右下肢部のうちの少なくとも一方を含む、
請求項12に記載の身体動作取得方法。
The plurality of body parts further includes at least one of a left lower limb and a right lower limb.
The body motion acquisition method according to claim 12 .
前記対象者における身体の動作は、所定の作業の実施に伴う動作であり、
前記物は、前記作業で用いられるツールである、
請求項10ないし請求項13のいずれか1項に記載の身体動作取得方法。
The body movement of the subject is a movement accompanying the performance of a predetermined task,
the object is a tool used in the work;
The body motion acquisition method according to any one of claims 10 to 13 .
前記作業は、研削または研磨の作業、溶接の作業および塗装の作業のうちのいずれかである、
請求項14に記載の身体動作取得方法。
The work is any one of grinding or polishing work, welding work, and painting work,
The body motion acquisition method according to claim 14 .
前記作業は、金型の研削または研磨の作業である、
請求項14に記載の身体動作取得方法。
The work is a grinding or polishing work of the mold,
The body motion acquisition method according to claim 14 .
前記金型は、車両に用いられる部材を成型するための車両部材成型用金型である、
請求項16に記載の身体動作取得方法。
The mold is a vehicle member molding mold for molding a member used in a vehicle.
The body motion acquisition method according to claim 16 .
所定の閾値以上である作業結果に関連付けられている前記筋部の活動量を前記作業に関わる技能の熟練度の基準として出力する出力工程をさらに備える、
請求項10に記載の身体動作取得方法。
further comprising an output step of outputting the amount of activity of the muscle part associated with a work result that is equal to or higher than a predetermined threshold value as a standard of proficiency of a skill related to the work;
The body motion acquisition method according to claim 10 .
JP2019130362A 2019-07-12 2019-07-12 Body motion acquisition device and method Active JP7375351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019130362A JP7375351B2 (en) 2019-07-12 2019-07-12 Body motion acquisition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019130362A JP7375351B2 (en) 2019-07-12 2019-07-12 Body motion acquisition device and method

Publications (2)

Publication Number Publication Date
JP2021015507A JP2021015507A (en) 2021-02-12
JP7375351B2 true JP7375351B2 (en) 2023-11-08

Family

ID=74530585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019130362A Active JP7375351B2 (en) 2019-07-12 2019-07-12 Body motion acquisition device and method

Country Status (1)

Country Link
JP (1) JP7375351B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161913A (en) 1998-12-01 2000-06-16 Philips Japan Ltd Method and device for mutually positioning plural bodies
JP2002310617A (en) 2001-04-18 2002-10-23 Matsushita Electric Works Ltd Work analysis system and method therefor
WO2018087844A1 (en) 2016-11-09 2018-05-17 三菱電機株式会社 Work recognition device and work recognition method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0446749A (en) * 1990-06-13 1992-02-17 Joho Syst Kenkyusho:Kk Work result control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161913A (en) 1998-12-01 2000-06-16 Philips Japan Ltd Method and device for mutually positioning plural bodies
JP2002310617A (en) 2001-04-18 2002-10-23 Matsushita Electric Works Ltd Work analysis system and method therefor
WO2018087844A1 (en) 2016-11-09 2018-05-17 三菱電機株式会社 Work recognition device and work recognition method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
篠田之孝、他,モーションキャプチャを用いた身体動作の教育用動作解析システムの構築,平成22年電気学会全国大会講演論文集,第1分冊,日本,電気学会,2010年03月19日,p15

Also Published As

Publication number Publication date
JP2021015507A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
CN105688396B (en) Movable information display system and movable information display methods
TWI488071B (en) A non-contact three-dimensional data acquisition system and method body, which on the surface in terms of the system
JP6369811B2 (en) Gait analysis system and gait analysis program
Xu et al. Estimation of 3-D peak L5/S1 joint moment during asymmetric lifting tasks with cubic spline interpolation of segment Euler angles
KR101580065B1 (en) Training device
JP6629556B2 (en) Process composition support device and process composition support method
TW201314621A (en) Feature-based data structure for digital manikin
CN104679229A (en) Gesture recognition method and apparatus
Muller et al. Motion-based prediction of hands and feet contact efforts during asymmetric handling tasks
CN110580398A (en) comfortable sensation simulation method, garment manufacturing method, system and medium
Al-Kalbani et al. Analysis of medium wrap freehand virtual object grasping in exocentric mixed reality
JP2018069035A (en) Walking analysis system and method
US10398417B2 (en) Systems and methods for manufacturing custom surgical instruments
JP7352143B2 (en) Skill information acquisition device and method
KR101826172B1 (en) System and method for measuring balance of body
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
JP7375351B2 (en) Body motion acquisition device and method
Grieve et al. Fingernail image registration using active appearance models
JP6676321B2 (en) Applicability evaluation device and adaptability evaluation method
KR20160035497A (en) Body analysis system based on motion analysis using skeleton information
US20230316620A1 (en) System and method for generating a virtual avatar
JP7338282B2 (en) Skill comparison device and method
JP4978866B2 (en) Pressure distribution measurement sensor device
US11497962B2 (en) System and method for human motion detection and tracking
Lourenço et al. Association of hand size with usability assessment parameters of a standard handheld computer pointing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150