CN110490034A - 动作分析装置、动作分析方法、记录介质和动作分析系统 - Google Patents
动作分析装置、动作分析方法、记录介质和动作分析系统 Download PDFInfo
- Publication number
- CN110490034A CN110490034A CN201910279426.8A CN201910279426A CN110490034A CN 110490034 A CN110490034 A CN 110490034A CN 201910279426 A CN201910279426 A CN 201910279426A CN 110490034 A CN110490034 A CN 110490034A
- Authority
- CN
- China
- Prior art keywords
- action message
- group
- division
- motion analysis
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
提供动作分析装置、动作分析方法、记录介质和动作分析系统,能够以更高的精度分析对象者的动作。动作分析装置具有:取得部,其取得表示多个对象者的动作的多个动作信息;分类部,其将多个动作信息分类到多个组中的任意的组;以及分析部,其根据被分类到多个组中的任意的组的动作信息,分析对象者的动作,多个动作信息分别包含骨骼信息,该骨骼信息表示多个对象者的与骨骼相关联的身体的多个部位的位置,分类部使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。
Description
技术领域
本发明涉及动作分析装置、动作分析方法、记录介质和动作分析系统。
背景技术
以往,有时利用照相机拍摄对象者的动作并进行图像处理、或者利用运动捕捉装置来测量对象者的动作并对测量出的信号进行信号处理,从而分析对象者的动作。
例如,在下述专利文献1中记载有如下的作业信息处理装置,该作业信息处理装置具有:存储部,其存储确定检测动作的传感器的检测值的检测信息和确定对应于该检测信息的动作的动作词典信息、以及确定动作的按照时间序列的组合的组合信息和确定对应于该组合信息的作业的作业词典信息;以及控制部。这里,控制部进行如下的处理:根据动作词典信息确定与利用操作者具有的传感器检测出的检测值对应的动作;确定所确定的动作的按照时间序列的组合,根据作业词典信息确定对应于所确定的组合的作业;以及按照每个操作者,生成按照时间序列确定动作和作业的作业信息。
专利文献1:日本特开2009-122302号公报
例如,在生产线上进行各种作业的情况下,有时想要评价对象者的熟练度、或者确认对象者是否未进行标准外的动作。为了能够应对这样的要求,有时在生产线上设置照相机、传感器以持续地测量对象者的动作。例如,根据专利文献1所记载的技术,使用预先存储的动作词典信息和作业词典信息,按照每个操作者确定了操作者的动作和对应的作业。
但是,由于人的动作存在个人差异,所以即使测量出表示多个对象者的动作的信息,在根据词典信息等统一的信息分析这些信息的情况下,有时无法进行准确的分析、或者成为精度较低的分析。这样的课题不仅在进行生产线上的作业的情况下产生,还可能在运动中的动作等人进行任意动作的情况下产生。
发明内容
因此,本发明提供能够以更高的精度分析对象者的动作的动作分析装置、动作分析方法、动作分析程序和动作分析系统。
本发明的一个方式的分析装置具有:取得部,其取得表示多个对象者的动作的多个动作信息;分类部,其将多个动作信息分类到多个组中的任意的组;以及分析部,其根据被分类到多个组中的任意的组的动作信息,分析对象者的动作,多个动作信息分别包含骨骼信息,该骨骼信息表示多个对象者的与骨骼相关联的身体的多个部位的位置,分类部使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。这里,动作信息可以是包含由照相机拍摄出的对象者的静态图像或者动态图像。此外,动作信息也可以是使用运动捕捉装置等将对象者的骨骼等身体特征模型化所得的信息,而不是对象者的图像本身。动作信息例如是表示对象者的动作转变的时间序列信息,但并非一定需要是时间序列信息。对象者的与骨骼相关联的身体的多个部位可以是对象者的关节、头、肩、腰等任意部位。对象者的与骨骼相关联的身体的多个部位可以不一定是与骨骼直接相关的身体的多个部位,也可以是如指尖、鼻头和耳垂那样位置根据骨骼而确定的身体的多个部位。即,骨骼信息包含表示与骨骼直接相关的身体的多个部位的位置的信息、或表示位置根据骨骼而确定的身体的多个部位的位置的信息即可。
根据该方式,使用骨骼信息对多个动作信息进行分类,根据该分类结果进行动作的分析。由此,能够对对象者执行与骨骼等身体特征对应的分析。因此,与不论身体特征如何都统一地分析对象者的情况相比,能够以更高的精度分析对象者的动作。
在上述方式中,也可以是,分类部根据多个动作信息中的任意的动作信息所包含的骨骼信息与多个动作信息中的其他任意的动作信息所包含的骨骼信息的差异,将多个动作信息分类到多个组中的任意的组。这里,骨骼信息的差异可以是由骨骼信息表示的对象者的身体的多个部位的位置差异。更具体而言,某一对象者的动作信息所包含的骨骼信息与其他对象者的动作信息所包含的骨骼信息的差异可以是某一对象者的身体的多个部位的位置与其他对象者的对应于这些部位的身体的多个部位的位置的差异。
根据该方式,通过根据骨骼信息的差异,将多个动作信息分类到多个组中的任意的组,能够根据对象者的体格差异对动作信息进行分组,能够将体格类似的对象者的动作信息分类到一个组。由此,能够对体格类似的对象者的动作进行比较,分析对象者的动作。
在上述方式中,也可以是,分类部根据多个动作信息分别包含的骨骼信息与规定的基准信息的差异,将所述多个动作信息分类到多个组中的任意的组。这里,规定的基准信息可以为能够与身体的多个部位的位置进行比较的信息,例如为表示作业区域的范围的信息。
根据该方式,通过根据骨骼信息与规定的基准信息的差异,将多个动作信息分类到多个组中的任意的组,能够根据基准信息对动作信息进行分组,能够将具有与基准信息类似的性质的对象者的动作信息分类到一个组。由此,能够对具有与基准信息类似的性质的对象者的动作进行比较,分析对象者的动作。
在上述方式中,也可以是,骨骼信息包含与多个部位对应的多个节点的坐标值,分类部利用与基于坐标值而计算的多个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。这里,多个节点可以是对应于对象者的与骨骼相关联的身体的多个部位的骨架模型的节点,多个节点之间的距离可以是骨架模型的边缘的长度。这里,骨架模型可以是利用多个边缘和多个节点表示对象者的体格的概略形状的模型。而且,也可以是,多个边缘表示对象者的骨骼的概略形状,多个节点表示多个边缘的端点和连接点。
根据该方式,通过根据多个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够根据对象者的体格差异对动作信息进行分组,能够将体格类似的对象者分类到一个组。由此,能够对体格类似的对象者的动作进行比较,分析对象者的动作。
在上述方式中,也可以是,分类部利用与多个节点中的相邻的2个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。
根据该方式,通过根据多个节点中的相邻的2个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的长度对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
在上述方式中,也可以是,分类部利用和多个节点中的相邻的2个节点之间的距离与多个节点中的其他的相邻的2个节点之间的距离之比有关的分类,将动作信息分类到多个组中的任意的组。
根据该方式,通过根据多个节点中的相邻的2个节点之间的距离与其他的相邻的2个节点之间的距离之比,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的、不依赖于单位制的量对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
在上述方式中,也可以是,分类部利用和多个节点之间的距离与由取得部随多个动作信息一起取得的基准距离之比有关的分类,将动作信息分类到多个组中的任意的组。这里,基准距离可以是能够与相邻的2个节点之间的距离进行比较的距离,例如,也可以是由操作者使用的特定夹具的长度、或者设置于作业区域的特定标记的长度。
根据该方式,通过根据多个节点中的相邻的2个节点之间的距离与基准距离之比,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的、不依赖于单位制的量对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
在上述方式中,也可以是,坐标值包含三维坐标值,分类部利用与基于三维坐标值而计算的多个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。
根据该方式,通过根据基于三维坐标值而计算的多个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够更加准确地进行基于对象者的体格差异的动作信息的分组,能够对体格类似的对象者的动作进行比较而更加准确地分析对象者的动作。
在上述方式中,也可以是,坐标值与测量的时刻相关联,分类部利用与基于在不同的时刻测量出的多个坐标值而计算的多个节点之间的距离的平均值有关的分类,将多个动作信息分类到多个组中的任意的组。
根据该方式,通过根据在不同的时刻测量出的多个节点之间的距离的平均值,将多个动作信息分类到多个组中的任意的组,能够减少节点的坐标值测量中的误差的影响而对动作信息进行分组,并能够对体格类似的对象者的动作进行比较而更加准确地分析对象者的动作。
在上述方式中,也可以是,还具有选择部,该选择选择多个部位中的、用于分类部的分类的多个部位。
根据该方式,能够选择更好地表示对象者的身体特征的多个部位,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
在上述方式中,也可以是,选择部根据是否是针对多个对象者所共同取得的部位,选择用于分类部的分类的多个部位。
根据该方式,通过选择针对多个对象者所共同取得的部位,作为用于分类部的分类的部位,能够利用共同的部位对多个对象者的身体特征进行分类,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
在上述方式中,也可以是,选择部根据多个部位中的相邻的2个部位之间的距离与多个部位中的其他的相邻的2个部位之间的距离的比较,选择用于分类部的分类的部位。
根据该方式,能够通过多个部位中的相邻的2个部位之间的距离与其他的相邻的2个部位之间的距离的比较,以使测量位置时的相对误差变得更小的方式选择用于分类部的分类的部位,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
在上述方式中,也可以是,选择部根据分析部的分析结果,选择与对象者对应的内容。这里,内容可以是动态图像、图像或者文本等任意信息,例如,也可以是作为动作的范本的动态图像、或者是与便于动作的工具有关的信息。
根据该方式,能够根据分析结果推荐对象者应该参考的与工具有关的内容,或者推荐对象者应该参考的与动作有关的内容以促使对象者改善动作。
在上述方式中,也可以是,分析部根据基于动作信息而计算的、表示对象者的动作特征的特征量,分析是否存在与对象者的动作有关的异常。这里,表示对象者的动作特征的特征量可以是表征对象者的动作的数值,例如,也可以是动作时间、或者是动作中的对象者的特定部位的轨迹长度。这里,动作时间可以是从对象者开始动作起到结束动作为止的时间的长度。
根据该方式,通过考虑对象者的体格对对象者的动作信息进行分组,并对表示属于相同组的对象者的动作特征的特征量进行比较,能够将对象者的动作与类似的体格的其他对象者的动作进行比较并分析是否为异常,能够以更高的精度分析是否存在与对象者的动作有关的异常。
在上述方式中,也可以是,分析部根据基于动作信息而计算的、表示对象者的动作特征的特征量,分析对象者的动作熟练度。这里,对象者的动作熟练度可以是评价对象者是否能够更快且更加准确地执行规定动作的指标,例如,也可以是动作时间的减少相对于执行规定动作的次数的斜率。此外,熟练度也可以仅是动作时间。
根据该方式,能够考虑对象者的体格对对象者的动作进行分组,提取表示属于相同组的对象者的动作特征的特征量,分析与体格类似的对象者有关的动作熟练度,并能够以更高的精度分析对象者的动作熟练度。
在上述方式中,也可以是,特征量包含对象者的特定部位的轨迹长度和对象者的动作时间中的至少任意一个。
根据该方式,通过考虑对象者的体格对对象者的动作进行分组,对属于相同组的对象者的特定部位的轨迹长度和对象者的动作时间中的至少任意一个进行比较,能够以更高的精度分析对象者的动作。
本发明的其他方式的动作分析方法包含以下步骤:取得表示多个对象者的动作的多个动作信息;将多个动作信息分类到多个组中的任意的组;以及根据被分类到多个组中的任意的组的动作信息,分析对象者的动作,多个动作信息分别包含骨骼信息,该骨骼信息表示多个对象者的与骨骼相关联的身体的多个部位的位置,分类包含如下步骤:使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。
根据该方式,使用骨骼信息对多个动作信息进行分类,根据该分类结果进行动作的分析。由此,能够对对象者执行与骨骼等身体特征对应的分析。因此,与不论身体特征如何都统一地分析对象者的情况相比,能够以更高的精度分析对象者的动作。
本发明的其他方式的动作分析程序使动作分析装置所具备的运算部作为以下部分进行动作:取得部,其取得表示多个对象者的动作的多个动作信息;分类部,其将多个动作信息分类到多个组中的任意的组;以及分析部,其根据被分类到多个组中的任意的组的动作信息,分析对象者的动作,多个动作信息分别包含骨骼信息,该骨骼信息表示多个对象者的与骨骼相关联的身体的多个部位的位置,分类部使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。
根据该方式,使用骨骼信息对多个动作信息进行分类,根据该分类结果进行动作的分析。由此,能够对对象者执行与骨骼等身体特征对应的分析。因此,与不论身体特征如何都统一地分析对象者的情况相比,能够以更高的精度分析对象者的动作。
本发明的其他方式的动作分析系统具有:测量部,其测量表示多个对象者的动作的多个动作信息;分类部,其将多个动作信息分类到多个组中的任意的组;分析部,其根据被分类到多个组中的任意的组的动作信息,分析对象者的动作;以及显示部,其显示分析部的分析结果,多个动作信息分别包含骨骼信息,该骨骼信息表示多个对象者的与骨骼相关联的身体的多个部位的位置,分类部使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。
根据该方式,使用骨骼信息对多个动作信息进行分类,根据该分类结果进行动作的分析。由此,能够对对象者执行与骨骼等身体特征对应的分析。因此,与不论身体特征如何都统一地分析对象者的情况相比,能够以更高的精度分析对象者的动作。
根据本发明,可提供能够以更高的精度分析对象者的动作的动作分析装置、动作分析方法、动作分析程序和动作分析系统。
附图说明
图1是示出本发明实施方式的动作分析系统的概要的图。
图2是示出本实施方式的动作分析装置的主要功能块的图。
图3是由本实施方式的动作分析装置执行的分析处理的第1例的流程图。
图4是示出本实施方式的动作分析系统的功能块的图。
图5是示出本实施方式的动作分析装置的物理结构的图。
图6是示出由本实施方式的动作分析系统测量的动作信息的一例的图。
图7是示出多个操作者的作业时间的直方图的一例的图。
图8是示出由本实施方式的动作分析装置分析的多个操作者的作业时间的直方图的一例的图。
图9是由本实施方式的动作分析系统执行的分析处理的第2例的流程图。
图10是由本实施方式的动作分析系统执行的分析处理的第3例的流程图。
图11是示出测量出与多个操作者有关的动作信息的时刻和动作时间的关系的一例的图。
图12是示出由本实施方式的动作分析装置分析出的、测量出与多个操作者的相同或者同种的作业有关的动作信息的时刻和动作时间的关系的一例的图。
图13是由本实施方式的动作分析系统执行的分析处理的第4例的流程图。
图14是示出由本实施方式的动作分析装置分类到多个组的与多个对象者有关的动作信息的一例的图。
图15是由本实施方式的动作分析系统执行的分类处理的一例的流程图。
图16是示出本实施方式的第1变形例的动作分析系统的功能块的图。
图17是由本实施方式第1变形例的动作分析系统执行的分析处理的一例的流程图。
标号说明
10:动作分析装置;10A:变形例的动作分析装置;10a:CPU;10b:RAM;10c:ROM;10d:通信部;10e:输入部;10f:显示部;11:取得部;11a:第1取得部;11b:第2取得部;11c:第3取得部;14:存储部;14a:动作信息历史;14b:内容;15:分类部;16:分析部;17:选择部;20a:第1摄影部;20b:第2摄影部;20c:第3摄影部;30:测量部;100:动作分析系统;A1:第1操作者;A2:第2操作者;C1:第1组;C2:第2组;C3:第3组;D1:第1数据;D1a:第1组的第1数据;D1b:第2组的第1数据;D2:第2数据;G1:作业时间的直方图;G2:分析结果的直方图;L:分析结果的图线;L1:第1相邻节点之间的距离;L2:第2相邻节点之间的距离;N1:第1节点;N2:第2节点;N3:第3节点;N4:第4节点;P1:动作信息例;R:作业区域;S:圆;S1:动作时间的分布;S2:第3操作者的动作时间。
具体实施方式
以下,根据附图说明本发明的一个方面的实施方式(以下,记作“本实施方式”。)。另外,在各附图中,标注相同标号的部件具有相同或者同样的结构。
1.应用例
首先,使用图1至图3说明应用本发明的情景的一例。图1是示出本实施方式的动作分析系统100的概要的图。动作分析系统100具有动作分析装置10,动作分析装置10是用于分析对象者的动作的信息处理装置。这里,对象者是作为分析对象的人,可能按照每个分析而不同。例如,在由动作分析装置10分析生产现场的操作者的动作的情况下,对象者为操作者。在本实施方式中,对由动作分析装置10分析生产现场的操作者的动作的情况进行说明。可是,作为动作分析的对象的对象者可以是除了生产现场的操作者以外的人,也可以是进行运动的人、或者是进行任意动作的人。对象者可以包含缺少手臂、腿、手指等身体的特定部位的人。
本实施方式的动作分析系统100具有:测量部30,其测量表示第1操作者A1和第2操作者A2的动作的动作信息;以及第1摄影部20a、第2摄影部20b和第3摄影部20c,它们拍摄作为动作信息的一种的动态图像。动作信息分别包含表示第1操作者A1和第2操作者A2的与骨骼相关联的身体的多个部位的位置的骨骼信息即可。这里,对象者的与骨骼相关联的身体的多个部位可以是对象者的关节、头、肩、腰等任意部位。但是,对象者的与骨骼相关联的身体的多个部位可以不一定是与骨骼直接相关的身体的多个部位,也可以是如指尖、鼻头和耳垂那样位置根据骨骼而确定的身体的多个部位。即,骨骼信息包含表示与骨骼直接相关的身体的多个部位的位置的信息、或表示位置根据骨骼而确定的身体的多个部位的位置的信息即可。测量部30可以由运动捕捉装置构成,测量包含与身体的多个部位对应的多个节点的坐标值的动作信息即可,所述身体的多个部位与在作业区域R中执行动作的第1操作者A1和第2操作者A2的骨骼相关联。此外,第1摄影部20a、第2摄影部20b和第3摄影部20c可以分别由通用的照相机构成,也可以拍摄动态图像,该动态图像包含由第1操作者A1和第2操作者A2正在作业区域R中执行动作的场面。动作信息可以是包含与表示第1操作者A1和第2操作者A2的身体特征的部位(关节、头、肩、腰等)对应的多个节点的坐标值的信息,也可以是表示第1操作者A1和第2操作者A2的与骨骼相关联的身体的多个部位的位置的动态图像。
动作信息为包含由第1摄影部20a、第2摄影部20b和第3摄影部20c等照相机拍摄出的对象者的静态图像或者动态图像即可。此外,动作信息可以是使用测量部30等运动捕捉装置将对象者的骨骼等身体特征模型化所得的信息,而不是对象者的图像本身。动作信息例如是表示对象者的动作转变的时间序列信息,但并非一定需要是时间序列信息。
本实施方式的动作分析系统100分析对象者在包含整个生产线的作业区域R中进行的动作,但作业区域R可以是任意区域,例如,也可以是进行规定的工序的区域、或者是进行规定的要素动作的区域。这里,要素动作是由对象者执行的一个单位的动作,例如,包含部件的拣选、部件的配置、部件的固定、产品的包装、螺纹紧固、产品检查这样的动作。
图2是示出本实施方式的动作分析装置10的主要功能块的图。本实施方式的动作分析装置10主要具有:取得部11,其取得表示多个对象者的动作的多个动作信息;分类部15,其将多个动作信息分类到多个组中的任意的组;以及分析部16,其根据被分类到多个组中的任意的组的动作信息,分析对象者的动作。
图3是示出由本实施方式的动作分析装置10执行的分析处理的第1例的流程图。动作分析装置10的取得部11从第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30取得动作信息(S10)。取得部11可以从第1摄影部20a、第2摄影部20b和第3摄影部20c取得动态图像作为动作信息。此外,取得部11也可以从测量部30取得与对象者的身体的多个部位对应的多个节点的坐标值作为动作信息。取得部11可以一次取得多个动作信息,也可以分别在不同的时机取得多个动作信息。
动作分析装置10的分类部15将多个动作信息分类到多个组中的任意的组(S11)。这里,分类部15可以使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。即,多个组是利用对象者的身体特征对该对象者进行分类的组。例如,分类部15通过使用多个动作信息,根据多个对象者的骨骼对该多个对象者进行分类。更具体而言,分类部15可以根据由骨骼信息表示的身体的多个部位的位置,将多个动作信息分类到表示对象者的大体的体格的多个组中的任意的组。例如,分类部15可以将多个动作信息分类到大个头的对象者的组和小个头的对象者的组。
动作分析装置10的分析部16根据被分类到多个组中的任意的组的动作信息,分析对象者的动作(S12)。例如,分析部16可以根据被分类到大个头的对象者或者小个头的对象者的组的动作信息,分析直到对象者完成动作为止所需的动作时间,分析是否进行了标准外的动作、或者分析动作熟练度。分析部16可以按照由分类部15分类后的每个组,改变分析方法或者改变用于分析的基准。另外,作为分析部16的分析对象的组可以是多个组中的特定的组,也可以是全部组。分析部16可以将表示分析结果的信息输出到显示部、其他装置。
本实施方式的动作分析装置10使用骨骼信息对动作信息进行分类,并根据该分类结果执行动作的分析。由此,动作分析装置10能够对对象者执行与骨骼等身体特征对应的分析。因此,利用动作分析装置10,与不论身体特征如何都统一地分析对象者的情况相比,能够以更高的精度分析对象者的动作。例如,有时在大个头的对象者和小个头的对象者中动作的趋势存在不同,在大个头的对象者与小个头的对象者的动作信息混合的情况下,利用统一的基准分析对象者的动作时,有时无法进行准确的分析,或者成为精度较低的分析。关于此点,根据本实施方式的动作分析装置10,能够将对象者的动作信息分类到大个头的对象者的组和小个头的对象者的组,并根据被分类到各个组的动作信息分析动作,能够分别执行与大个头的对象者有关的动作的分析和与小个头的对象者有关的动作的分析而以更高的精度分析对象者的动作。
此外,例如,缺少身体的特定部位的对象者和健康的对象者可执行的动作有时存在不同,在缺少身体的特定部位的对象者与健康的对象者的动作信息混合的情况下,利用统一的基准分析对象者的动作时,有时无法进行准确的分析,或者成为精度较低的分析。关于此点,利用本实施方式的动作分析装置10,能够将对象者的动作信息分类到缺少身体的特定部位的对象者的组和健康的对象者的组,并根据被分类到各个组的动作信息分析动作,能够分别执行与缺少身体的特定部位的对象者有关的动作的分析和与健康的对象者有关的动作的分析而以更高的精度分析对象者的动作。
2.结构例
[功能结构]
接着,使用图4说明本实施方式的动作分析系统100的功能结构的一例。动作分析系统100具有第1摄影部20a、第2摄影部20b、第3摄影部20c、测量部30和动作分析装置10。而且,动作分析装置10具有第1取得部11、第2取得部12、第3取得部13、存储部14、分类部15、分析部16、选择部17、输入部10e和显示部10f。
<摄影部>
第1摄影部20a、第2摄影部20b和第3摄影部20c可以分别由通用的照相机构成,也可以拍摄包含第1操作者A1和第2操作者A2正在作业区域R中执行动作的场面的动态图像。动态图像是动作信息的一例,包含骨骼信息,该骨骼信息表示对象者的与骨骼相关联的身体的多个部位的位置。动态图像可以直接用作动作信息,也可以用于根据动态图像分析操作者的与骨骼相关联的身体的多个部位的位置。第1摄影部20a、第2摄影部20b和第3摄影部20c可以分别拍摄作业区域R的一部分,也可以拍摄比作业区域R窄的区域的动态图像。具体而言,可以是关注特定的区域而拍摄出由第1操作者A1和第2操作者A2执行的动作所得的动态图像。第1摄影部20a、第2摄影部20b和第3摄影部20c例如也可以拍摄对第1操作者A1和第2操作者A2的手的动作进行特写所得的动态图像。
此外,第1摄影部20a、第2摄影部20b和第3摄影部20c还可以拍摄分别拍摄构成作业区域R的多个部分所得的多个动态图像。例如,也可以是,第1摄影部20a主要拍摄第1操作者A1正在执行动作的动态图像,第3摄影部20c主要拍摄第2操作者A2正在执行动作的动态图像,第2摄影部20b主要拍摄第1操作者A1正在执行动作的动态图像和第2操作者A2正在执行动作的动态图像双方。此外,第1摄影部20a、第2摄影部20b和第3摄影部20c也可以拍摄在作业区域R中的多个位置处分别执行不同的工序的动态图像。
<测量部>
测量部30可以由运动捕捉装置构成,也可以测量包含骨骼信息的动作信息,该骨骼信息表示在某一作业区域R中执行动作的第1操作者A1和第2操作者A2的与骨骼相关联的身体的多个部位的位置。测量部30可以测量多个操作者的动作信息,也可以是单个的单元,还可以包含多个单元。测量部30的结构是任意的,但例如,也可以对第1操作者A1和第2操作者A2投射图案光,拍摄投射有图案光的状态的第1操作者A1和第2操作者A2的动态图像,并根据拍摄出的动态图像测量第1操作者A1和第2操作者A2的与多个骨骼相关联的身体的多个部位的坐标值。此外,测量部30可以在测量与多个操作者有关的多个动作信息的情况下,在动作信息中附加识别操作者的信息。测量部30也可以测量第1操作者A1和第2操作者A2的关节、头、肩、腰等任意部位的坐标值。此外,测量部30也可以测量第1操作者A1和第2操作者A2所佩戴的追踪器的位置的坐标值。此外,测量部30还可以分析第1操作者A1和第2操作者A2的动态图像,并根据动态图像测量包含骨骼信息的动作信息,该骨骼信息表示操作者的与骨骼相关联的身体的多个部位的位置。
动作分析系统100中可以包含多个测量部30。在由多个测量部30测量多个操作者的动作信息的情况下,同一操作者的动作信息可能被重复地测量,但也可以对动作信息附加识别操作者的信息而去除重复,或者对由不同的测量部30测量出的动作信息进行合成。另外,在由多个测量部30测量多个操作者的动作信息的情况下,也可以由各测量部30测量一个操作者的动作信息。
测量部30可以兼用作第4摄影部,该第4摄影部拍摄第1操作者A1和第2操作者A2正在执行动作的动态图像。第4摄影部可以拍摄整个作业区域R的动态图像。即,第4摄影部可以以包含第1操作者A1和第2操作者A2双方的方式拍摄第1操作者A1和第2操作者A2正在执行动作的情形。另一方面,第1摄影部20a、第2摄影部20b和第3摄影部20c也可以以包含第1操作者A1和第2操作者A2中的一方的方式拍摄第1操作者A1和第2操作者A2正在执行动作的动态图像。
<动作分析装置>
第1取得部11可以从测量部30取得第1操作者A1和第2操作者A2的动作信息。由第1取得部11取得的动作信息被传送到存储部14,并被存储为动作信息历史14a。在动作分析系统100包含多个测量部30的情况下,第1取得部11可以分别从多个测量部30取得动作信息,也可以附加识别是从哪个测量部30取得的动作信息的信息,并将动作信息传送到存储部14。另外,动作信息例如可以是以1秒为间隔测量表示操作者的与骨骼相关联的身体的多个部位的位置的坐标值所得的信息。
第2取得部12可以从第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30(第4摄影部)取得第1操作者A1和第2操作者A2正在执行动作的动态图像。由第2取得部12取得的动态图像被传送到存储部14,并被存储为动作信息历史14a。第2取得部12可以附加识别是从多个摄影部中的哪个摄影部取得的动态图像的信息,并将动态图像传送到存储部14。
存储部14可以存储动作信息历史14a。动作信息历史14a可以包含由测量部30测量出的对象者的身体的多个部位的坐标值的历史、或由第1摄影部20a、第2摄影部20b和第3摄影部20c拍摄出的对象者的动态图像的历史。
分类部15可以将多个动作信息分类到多个组中的任意的组。分类部15可以使用多个动作信息分别包含的骨骼信息对该多个动作信息进行分类。分类部15根据多个动作信息中的任意的动作信息所包含的骨骼信息与多个动作信息中的其他任意的动作信息所包含的骨骼信息的差异,将多个动作信息分类到多个组中的任意的组。这里,骨骼信息的差异可以是由骨骼信息表示的对象者的身体的多个部位的位置的差异。此外,在多个对象者包含缺少身体的特定部位的人的情况下,骨骼信息的差异可以为是否存在由骨骼信息表示的对象者的身体的多个部位。
这样,通过根据骨骼信息的差异,将多个动作信息分类到多个组中的任意的组,能够根据对象者的体格差异对动作信息进行分组,能够将体格类似的对象者的动作信息分类到一个组。由此,能够对体格类似的对象者的动作进行比较,分析对象者的动作。
分类部15可以根据多个动作信息分别包含的骨骼信息与规定的基准信息的差异,将所述多个动作信息分类到多个组中的任意的组。这里,规定的基准信息可以为能够与身体的多个部位的位置进行比较的信息,例如为表示作业区域的范围的信息。分类部15例如可以根据由骨骼信息表示的对象者的身体的多个部位的位置位于多个作业区域中的哪个范围内,将多个动作信息分类到多个组中的任意的组。
这样,通过根据骨骼信息与规定的基准信息的差异,将多个动作信息分类到多个组中的任意的组,能够根据基准信息对动作信息进行分组,能够将具有与基准信息类似的性质的对象者的动作信息分类到一个组。由此,能够对具有与基准信息类似的性质的对象者的动作进行比较,分析对象者的动作。例如,能够在基准信息是表示多个作业区域的范围的信息的情况下,根据是在个作业区域中的哪个范围内进行的动作将对象者的动作信息分类到多个组,并按照每个作业区域分析对象者的动作。
分析部16根据被分类到多个组中的任意的组的动作信息,分析对象者的动作。分析部16可以根据基于动作信息而计算的、表示对象者的动作特征的特征量,分析是否存在与对象者的动作有关的异常。这里,表示对象者的动作特征的特征量可以是表征对象者的动作的数值,也可以包含对象者的特定部位的轨迹长度和对象者的动作时间中的至少任意一个。这里,动作时间可以是从对象者开始动作起到结束动作为止的时间的长度。
这样,通过考虑对象者的体格对对象者的动作信息进行分组,对表示属于相同组的对象者的动作特征的特征量进行比较,能够将对象者的动作与类似的体格的其他对象者的动作进行比较来分析是否为异常,能够以更高的精度分析是否存在与对象者的动作有关的异常。
此外,通过使特征量包含对象者的特定部位的轨迹长度和对象者的动作时间中的至少任意一个,能够考虑对象者的体格对对象者的动作进行分组,并对属于相同组的对象者的特定部位的轨迹长度和对象者的动作时间中的至少任意一个进行比较,能够以更高的精度分析对象者的动作。
分析部16可以根据基于动作信息而计算的、表示对象者的动作特征的特征量,分析对象者的动作熟练度。对象者的动作熟练度可以是评价对象者是否能够更快且更加准确地执行规定动作的指标,例如,也可以是动作时间的减少相对于执行规定动作的次数的斜率。此外,熟练度也可以仅是动作时间。
这样,能够考虑对象者的体格对对象者的动作进行分组,提取表示属于相同组的对象者的动作特征的特征量,分析与体格类似的对象者有关的动作熟练度,并能够以更高的精度分析对象者的动作熟练度。
选择部17选择对象者的与骨骼相关联的身体的多个部位中的、用于分类部15的分类的多个部位。选择部17可以根据动作信息历史14a所包含的骨骼信息的历史,选择用于分类部15的分类的多个部位。此外,选择部17也可以根据输入部10e的输入,选择用于分类部15的分类的多个部位。
能够由选择部17选择更好地表示对象者的身体特征的多个部位,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
选择部17可以根据是否是针对多个对象者所共同取得的部位,选择用于分类部15的分类的多个部位。例如,在骨骼信息表示多个关节的位置、能够对多个对象者共同取得特定关节的位置、且已由对象者取得其他关节的位置或者未能取得其他关节的位置的情况下,选择部17选择针对多个对象者所共同取得的特定关节作为用于分类部15的分类的部位即可。
这样,通过选择针对多个对象者所共同取得的部位作为用于分类部15的分类的部位,能够利用共同的部位对多个对象者的身体特征进行分类,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
选择部17可以根据多个部位中的相邻的2个部位之间的距离与多个部位中的其他的相邻的2个部位之间的距离的比较,选择用于分类部15的分类的部位。例如,肘部和手腕是相邻的2个部位,肘部和肩是其他的相邻的2个部位。选择部17例如可以对肘部与手腕之间的距离和肘部与肩之间的距离进行比较,选择距离较长的2个部位,作为用于分类部15的分类的部位。通过选择距离较长的相邻的2个部位,能够选择测量位置时的相对误差较小的部位。
这样,能够通过多个部位中的相邻的2个部位之间的距离与其他的相邻的2个部位之间的距离的比较,选择用于分类部15的分类的部位以使测量位置时的相对误差更小,能够以更加准确地捕捉对象者的身体特征的方式对动作信息进行分组,从而以更高的精度分析对象者的动作。
[硬件结构]
接着,使用图5说明本实施方式的动作分析装置10的硬件结构的一例。动作分析装置10具有相当于运算装置的CPU(Central Processing Unit:中央处理单元)10a、相当于存储部14的RAM(Random Access Memory:随机存取存储器)10b、相当于存储部14的ROM(Readonly Memory:只读存储器)10c、通信部10d、输入部10e和显示部10f。这各个结构经由总线而连接成能够相互地收发数据。另外,在本例中,对由一台计算机构成动作分析装置10的情况进行说明,但也可以使用多个计算机来实现动作分析装置10。
CPU 10a为进行与执行RAM 10b或者ROM 10c所存储的程序有关的控制、数据的运算、加工的控制部。CPU 10a为执行如下程序(动作分析程序)的运算装置,该程序使用多个动作信息分别包含的骨骼信息将该多个动作信息分类到多个组中的任意的组,根据被分类到多个组中的任意的组的动作信息分析对象者的动作。CPU 10a从输入部10e、通信部10d接收各种输入数据,将输入数据的运算结果显示在显示部10f上或者存储到RAM 10b、ROM 10c中。
RAM 10b能够改写存储部14中的数据,例如可以由半导体存储元件构成。RAM 10b存储CPU 10a执行的动作分析程序、动作信息历史14a这样的数据。
ROM 10c能够读出存储部14中的数据,例如可以由半导体存储元件构成。ROM 10c例如存储动作分析程序、无法进行改写的数据。
通信部10d是将动作分析装置10与外部设备连接的接口。通信部10d例如可以利用LAN(Local Area Network:局域网)与第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30连接,从第1摄影部20a、第2摄影部20b和第3摄影部20c接收动态图像,从测量部30接收动态图像和动作信息。此外,通信部10d也可以与互联网连接,经由互联网接收动态图像或者接收动作信息。此外,通信部10d还可以将分析部16的分析结果发送到外部设备。
输入部10e从用户受理数据的输入,例如,可以包含键盘、鼠标和触摸面板。
显示部10f视觉显示CPU 10a的运算结果,例如,可以由LCD(Liquid CrystalDisplay:液晶显示器)构成。显示部10f可以显示分析部16的分析结果。
动作分析程序可以存储到RAM 10b、ROM 10c等可由计算机读取的存储介质中而被提供,也可以经由利用通信部10d连接的通信网络而被提供。在动作分析装置10中,CPU 10a执行动作分析程序,由此,可实现包含由使用图4所说明的第1取得部11a、第2取得部11b、第3取得部11c、分类部15、分析部16和选择部17实现的动作在内的各种动作。另外,这些物理结构是例示性的,不一定是独立的结构。例如,动作分析装置10也可以具有由CPU 10a与RAM10b、ROM 10c进行一体化而得的LSI(Large-Scale Integration:大规模集成电路)。
3.动作例
图6是示出由本实施方式的动作分析系统100测量的动作信息的一例的图。在该图中示出了由测量部30拍摄出的图像P1和由测量部30测量出的骨骼信息。骨骼信息可以包含对应于对象者的身体的多个部位的多个节点的坐标值。多个节点可以是对应于对象者的与骨骼相关联的身体的多个部位的骨架模型的节点,多个节点之间的距离可以是骨架模型的边缘的长度。这里,骨架模型可以是由多个边缘和多个节点表示对象者的体格的概略形状的模型,也可以由多个边缘表示对象者的骨骼的概略形状,由节点表示多个边缘的端点和连接点。在本例中,用由白色涂满的圆表示对应于对象者的身体的多个部位的多个节点,用白线表示节点之间的边缘。
本例的骨骼信息包含对应于肘部的第1节点N1的坐标值、对应于手腕的第2节点N2的坐标值、对应于大拇指的第2关节的第3节点N3的坐标值和对应于大拇指的指尖端的第4节点N4的坐标值。另外,骨骼信息还可以包含其他节点(例如,右臂的节点)。
分类部15可以利用与基于多个节点的坐标值而计算的多个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。分类部15例如可以针对多个对象者计算第1节点N1与第3节点N3之间的距离,将多个动作信息分类到第1节点N1与第3节点N3之间的距离比较大的组、和第1节点N1与第3节点N3之间的距离比较小的组。分类部15可以利用与如第1节点N1与第3节点N3那样不相邻的2个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。
这样,通过根据多个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够根据对象者的体格差异对动作信息进行分组,能够将体格类似的对象者分类到一个组。由此,能够对体格类似的对象者的动作进行比较,分析对象者的动作。
分类部15可以利用与多个节点中的相邻的2个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。在本例的情况下,第1节点N1与第2节点N2为相邻的2个节点,第1节点N1与第2节点N2之间的距离为L1。此外,第3节点N3与第4节点N4为相邻的2个节点,第3节点N3与第4节点N4之间的距离为L2。分类部15可以计算第1节点N1与第2节点N2之间的距离,将多个动作信息分类到第1节点N1与第2节点N2之间的距离比较大的组、和第1节点N1与第2节点N2之间的距离比较小的组。同样,分类部15可以计算第3节点N3与第4节点N4之间的距离,将多个动作信息分类到第3节点N3与第4节点N4之间的距离比较大的组、和第3节点N3与第4节点N4之间的距离比较小的组。
这样,通过根据多个节点中的相邻的2个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的长度对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
此外,分类部15可以利用与多个节点中的相邻的2个节点之间的距离与多个节点中的其他的相邻的2个节点之间的距离之比有关的分类,将动作信息分类到多个组中的任意的组。分类部15例如可以计算第1节点N1与第2节点N2之间的距离L1和第3节点N3与第4节点N4之间的距离L2之比L1/L2(或者L2/L1),将多个动作信息分类到比L1/L2比较大的组、和比L1/L2比较小的组。
通过根据多个节点中的相邻的2个节点之间的距离与其他的相邻的2个节点之间的距离之比,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的、不依赖于单位制的量对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
分类部15可以利用和多个节点之间的距离与由第1取得部11a随多个动作信息一起取得的基准距离之比有关的分类,将动作信息分类到多个组中的任意的组。这里,基准距离是能够与相邻的2个节点之间的距离进行比较的距离,例如,可以是由操作者使用的特定的夹具的长度、或者是设置于作业区域的特定的标记的长度。分类部15例如可以计算第1节点N1与第2节点N2之间的距离L1和基准距离L3之比L1/L3(或者L3/L1),将多个动作信息分类到比L1/L3比较大的组、和比L1/L3比较小的组。
通过根据多个节点中的相邻的2个节点之间的距离与基准距离之比,将多个动作信息分类到多个组中的任意的组,能够根据对象者所固有的、不依赖于单位制的量对动作信息进行分组,能够更加准确地捕捉对象者的身体特征,分析对象者的动作。
骨骼信息所包含的多个节点的坐标值可以包含三维坐标值。在该情况下,分类部15可以利用与基于三维坐标值而计算的多个节点之间的距离有关的分类,将多个动作信息分类到多个组中的任意的组。例如,在第1节点N1的三维坐标值为(x1,y1,z1)、第2节点N2的三维坐标值为(x2,y2,z2)的情况下,分类部15可以通过((x1-x2)2+(y1-y2)2+(z1-z2)2)1/2计算第1节点N1与第2节点N2之间的距离。然后,分类部15可以将多个动作信息分类到第1节点N1与第2节点N2之间的距离比较大的组、和第1节点N1与第2节点N2之间的距离比较小的组。多个节点的三维坐标值可以由运动捕捉装置等测量,可以由静态照相机测量,或者由第1取得部11a或者第2取得部11b取得。
通过根据基于三维坐标值而计算的多个节点之间的距离,将多个动作信息分类到多个组中的任意的组,能够更加准确地进行基于对象者的体格差异的动作信息的分组,并能够对体格类似的对象者的动作进行比较而更加准确地分析对象者的动作。
骨骼信息所包含的多个节点的坐标值可以与测量的时刻相关联。在该情况下,分类部151可以利用与基于在不同的时刻测量出的多个坐标值而计算的多个节点之间的距离的平均值有关的分类,将多个动作信息分类到多个组中的任意的组。例如,分类部15可以根据针对某一对象者在多个不同的时刻测量出的第1节点N1的坐标值和第2节点N2的坐标值,计算多个不同时刻的第1节点N1与第2节点N2之间的距离,并计算该距离的平均值。然后,分类部15可以将多个动作信息分类到第1节点N1与第2节点N2之间的距离的平均值比较大的组、和第1节点N1与第2节点N2之间的距离的平均值比较小的组。
通过根据在不同的时刻测量出的多个节点之间的距离的平均值,将多个动作信息分类到多个组中的任意的组,能够减小节点的坐标值的测量中的误差的影响而对动作信息进行分组,能够对体格类似的对象者的动作进行比较而更加准确地分析对象者的动作。
图7是示出多个操作者的作业时间的直方图G1的一例的图。直方图G1的横轴以秒(s)为单位表示作业时间,纵轴表示频数。直方图G1示出了多个操作者进行相同作业的情况下的作业时间的发生频度。在直方图G1中,作业时间为5秒的第1数据D1的频数为11次且最多。此外,直方图G1包含作业时间为9秒、且频数为1次的第2数据D2。
直方图G1能够通过以第1数据D1为平均值的正态分布进行近似。这里,虽然第2数据D2的作业时间以一定程度长于平均值,但无法说是可判断为处于标准外那样程度的异常的值。
图8是示出由本实施方式的动作分析装置10分析的多个操作者的作业时间的直方图G2的一例的图。直方图G2示出了根据与图7所示的直方图G1相同的数据,由分类部15将动作信息分类到2个组,由分析部16分别分析2个组各自的动作时间的发生频度而得的结果。直方图G2的横轴以秒(s)为单位表示作业时间,纵轴表示频数。分析部16根据动作信息计算动作时间,针对2个组累计按照每1秒划分的动作时间的产生次数,输出直方图G2。这里,动作时间是表示对象者的动作特征的特征量的一例。直方图G2示出了多个操作者进行了相同作业的情况下的作业时间的产生频度,用右斜条纹的阴影示出了基于由分类部15分类到第1组的动作信息而描绘出的频数,用左斜条纹的阴影示出了基于由分类部15分类到第2组的动作信息而描绘出的频数。
在直方图G2中,作业时间为5秒、频数的合计为11次的第1数据D1被分解为第1组的第1数据D1a和第2组的第1数据D1b。作业时间为5秒的第1组的第1数据D1a的频数为4次,作业时间为5秒的第2组的第1数据D1b的频数为7次。
直方图G2中的、用横条纹的阴影示出的第1组的频数围绕第1组的第1数据D1a分布,在作业时间为7秒和8秒的情况下为0次,包含第2数据D2作为偏离值。在该情况下,分析部16判定为第1组的第2数据D2处于标准外,分析为该情况下的操作者的动作存在异常。分析部16可以以用由虚线表示的圆S包围的方式强调显示被判定为异常的第2数据D2。另外,强调显示的方式是任意的,可以用容易引起注目的颜色显示第2数据,或者附加表示存在异常的消息的字符。
这样,根据本实施方式的动作分析装置10,通过将对象者的动作信息分类到多个组,并根据分类到各个组的动作信息来分析动作,能够在统一地分析多个动作信息的情况下找出不明显的动作的趋势,能够以更高的精度分析对象者的动作。
图9是由本实施方式的动作分析系统100执行的分析处理的第2例的流程图。首先,第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30测量多个对象者的包含骨骼信息的多个动作信息(S20)。
动作分析装置10的选择部17选择骨骼信息所包含的多个节点中的、用于分类的节点(S21)。然后,分类部15根据节点的三维坐标值,计算所选择的节点之间的距离的时间平均值(S22)。另外,节点之间的距离的时间平均值可以是基于在不同的时刻测量出的节点的三维坐标值而计算的所选择的节点之间的距离的平均值。
动作分析装置10的分类部15利用计算出的距离的时间平均值对骨骼信息进行分类,将动作信息分类到多个组中的任意的组(S23)。然后,动作分析装置10的分析部16针对多个组,根据动作的特征量分析是否存在与动作有关的异常(S24)。最后,动作分析装置10将多个组的频数和是否存在异常显示在显示部10f上(S25)。另外,多个组的频数和是否存在异常可以发送到外部设备。此外,分析部16的分析结果可以包含除了多个组的频数和是否存在异常以外的信息。
图10是由本实施方式的动作分析系统100执行的分析处理的第3例的流程图。首先,第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30测量多个对象者的包含骨骼信息的多个动作信息(S30)。
动作分析装置10的选择部17选择骨骼信息所包含的多个节点中的、用于分类的第1相邻节点和第2相邻节点(S31)。这里,第1相邻节点为骨骼信息所包含的多个节点中的相邻的2个节点,第2相邻节点为骨骼信息所包含的多个节点中的其他的相邻的2个节点。
然后,分类部15根据第1相邻节点的三维坐标值,计算第1相邻节点之间的距离(S32),根据第2相邻节点的三维坐标值,计算第2相邻节点之间的距离(S33)。
动作分析装置10的分类部15利用计算出的第1相邻节点之间的距离和第2相邻节点之间的距离之比对骨骼信息进行分类,将动作信息分类到多个组中的任意的组(S34)。另外,分类部15可以利用第1相邻节点之间的距离或者第2相邻节点之间的距离和随多个动作信息一起取得的基准距离之比对骨骼信息进行分类,将动作信息分类到多个组中的任意的组。
然后,动作分析装置10的分析部16针对多个组,根据动作的特征量分析是否存在与动作有关的异常(S35)。最后,动作分析装置10将多个组的频数和是否存在异常显示在显示部10f上(S36)。另外,多个组的频数和是否存在异常可以发送到外部设备。此外,分析部16的分析结果可以包含除了多个组的频数和是否存在异常以外的信息。
图11是示出测量出与多个操作者有关的动作信息的时刻和动作时间的关系的一例的图。在该图中,纵轴表示多个操作者进行了相同或者同种的作业的情况下的动作时间,横轴表示测量出动作信息的时刻,示出了动作时间的分布S1。动作时间的分布S1分散到各种动作时间和各种测量时刻进行记录,未发现特殊的趋势。
图12是示出由本实施方式的动作分析装置10分析出的、测量出与多个操作者的相同或者同种的作业有关的动作信息的时刻和动作时间的关系的图。在该图中,纵轴表示多个操作者进行相同或者同种的作业的情况下的动作时间,横轴表示测量出动作信息的时刻,示出了动作时间的分布S1和分布S2。动作时间的分布S1是由分类部15分类到第1组的动作时间的分布,动作时间的分布S2是由分类部15分类到第2组的动作时间的分布。在该图中,用圆圈标记P1绘制了属于第1组的动作信息,用星星标记P2绘制了属于第2组的动作信息。另外,第2组可以是仅包含特定的操作者的动作信息的组。分析部16根据动作信息计算动作时间,用星星标记P2绘制与特定的操作者(第2组)有关的动作时间和测量时刻的关系,用圆圈标记P1绘制与其他操作者(第1组)有关的动作时间和测量时刻的关系,输出动作时间的分布S1和分布S2。这里,动作时间是表示对象者的动作特征的特征量的一例。
分析部16可以分析用星星标记P2表示的特定的操作者的动作时间与测量时刻的关系,输出分析结果图线L。在本例中,分析部16利用线性回归模型分析用星星标记P2表示的特定的操作者的动作时间与测量时刻的关系,输出线性的图线L。可是,分析部16也可以使用任意的模型来分析表示对象者的动作特征的任意特征量。
分析部16可以根据动作时间在操作者反复相同的动作的过程中发生变化的趋势,分析对象者的动作熟练度。更具体而言,分析部16可以分析出动作时间在操作者反复相同的动作的过程中逐渐减少、对象者逐渐熟悉该动作的过程。在本例的情况下,分析部16可以输出图线L,并根据图线L的斜率分析对象者的动作熟练度。
仅根据图11所示的动作时间的分布S1,无法读取动作时间在操作者反复相同动作的过程中发生变化的趋势,但根据本实施方式的动作分析装置10,能够提取特定的操作者(第2组)的动作时间,明确动作时间在操作者反复相同动作的过程中发生变化的趋势,从而分析对象者的动作熟练度。这样,通过由分类部15对动作信息进行分类,并区分针对体格不同的操作者测量出的动作信息,能够分析在统一地分析多个操作者的动作信息的情况下难以掌握的作业的熟练度。
图13是由本实施方式的动作分析系统100执行的分析处理的第4例的流程图。首先,第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30测量多个对象者的包含骨骼信息的多个动作信息(S40)。
动作分析装置10的选择部17选择骨骼信息所包含的多个节点中的、用于分类的节点(S41)。然后,分类部15根据节点的三维坐标值,计算所选择的节点之间的距离(S42)。另外,分类部15也可以根据节点的三维坐标值,计算所选择的节点之间的距离的时间平均值。
动作分析装置10的分类部15利用计算出的距离对骨骼信息进行分类,将动作信息分类到多个组中的任意的组(S43)。然后,动作分析装置10的分析部16针对特定的组,根据动作信息计算动作时间(S44),根据动作时间,分析属于特定的组的对象者的动作熟练度(S45)。最后,动作分析装置10将表示熟练度的图线显示在显示部10f上(S46)。另外,表示熟练度的图线可以发送到外部设备。此外,分析部16的分析结果可以包含表示熟练度的数值。
图14是示出与被本实施方式的动作分析装置10分类到多个组的多个对象者有关的动作信息的一例是图。在该图中,横轴表示第1相邻节点之间的距离,纵轴表示第2相邻节点之间的距离,示出了由分类部15利用第1相邻节点之间的距离和第2相邻节点之间的距离对多个动作信息进行分类所得的结果。这里,第1相邻节点为骨骼信息所包含的多个节点中的相邻的2个节点,第2相邻节点为骨骼信息所包含的多个节点中的其他的相邻的2个节点。此外,该图所示的多个点分别表示动作信息。
分类部15利用与第1相邻节点之间的距离和第2相邻节点之间的距离有关的分类,将多个动作信息分类到第1组C1、第2组C2和第3组C3中的任意的组。可读取出如下情况:利用分类部15的分类,将多个动作信息适当地分类到了多个组。
假设在利用仅与第1相邻节点之间的距离有关的分类将多个动作信息分类到多个组中的任意的组的情况下,难以将第2组C2与第3组C3区分为不同的组。此外,在利用仅与第2相邻节点之间的距离有关的分类将多个动作信息分类到多个组中的任意的组情况下,难以将第1组C1与第2组C2区分为不同的组。本实施方式的动作分析装置10通过由分类部15使用骨骼信息所包含的多个节点中的相邻的2个节点之间的距离和骨骼信息所包含的多个节点中的其他的相邻的2个节点之间的距离来将多个动作信息分类到多个组中的任意的组,能够对多个动作信息更加详细地进行分类。能够对多个动作信息更加详细地进行分类,由此能够更加准确地捕捉对象者的身体特征来分析对象者的动作。
另外,在本例中,针对利用第1相邻节点之间的距离和第2相邻节点之间的距离对多个动作信息进行分类的情况进行了说明,但分类部15也可以利用任意数量的相邻节点之间的距离对多个动作信息进行分类。此外,分类部15可以利用第1相邻节点之间的距离与第2相邻节点之间的距离之比、和第1相邻节点之间的距离与第3相邻节点之间的距离之比对多个动作信息进行分类。此外,分类部15也可以利用第1相邻节点之间的距离与基准距离之比、和第2相邻节点之间的距离与基准距离之比对多个动作信息进行分类。并且,分类部15还可以利用第1相邻节点之间的距离与第2相邻节点之间的距离之比、和第1相邻节点之间的距离与基准距离之比对多个动作信息进行分类。
图15是由本实施方式的动作分析装置10执行的分类处理的一例的流程图。首先,第1摄影部20a、第2摄影部20b、第3摄影部20c和测量部30测量多个对象者的包含骨骼信息的多个动作信息(S50)。
动作分析装置10的选择部17选择骨骼信息所包含的多个节点中的、用于分类的第1相邻节点和第2相邻节点(S51)。这里,第1相邻节点为骨骼信息所包含的多个节点中的相邻的2个节点,第2相邻节点为骨骼信息所包含的多个节点中的其他的相邻的2个节点。
然后,分类部15根据第1相邻节点的三维坐标值,计算第1相邻节点之间的距离(S52),根据第2相邻节点的三维坐标值,计算第2相邻节点之间的距离(S53)。
动作分析装置10的分类部15利用计算出的距离对骨骼信息进行分类,将动作信息分类到多个组中的任意的组(S54)。另外,分类部15可以使用k-means法等任意算法将动作信息分类到多个组中的任意的组。
最后,动作分析装置10将分类部15的分类结果显示在显示部10f上(S55)。另外,分类结果可以发送到外部设备。
4.变形例
图16是示出本实施方式的变形例的动作分析装置10A的功能块的图。本变形例的动作分析装置10A在如下方面与本实施方式的动作分析装置10不同:在存储部14中存储有内容14b,选择部17可以根据分析部16的分析结果选择与对象者对应的内容14b。关于其他结构,本变形例的动作分析装置10A具有与本实施方式的动作分析装置10相同的结构。
内容14b可以是动态图像、图像或者文本等任意信息,例如,也可以是作为动作范本的动态图像、或者是与便于动作的工具有关的信息。
例如,在分析部16的分析结果为分析是否存在与对象者的动作有关的异常的结果的情况下,选择部17可以选择被分析为存在异常的动作的范本动态图像,作为内容14b。此外,例如,在分析部16的分析结果为分析对象者的动作熟练度的结果的情况下,选择部17可以选择内容根据熟练度而不同的范本动态图像,或者选择根据熟练度而不同的与夹具、工具有关的信息,作为内容14b。
这样,根据分析结果推荐对象者应该参考的与工具有关的内容,或者推荐对象者应该参考的与动作有关的内容,从而促使对象者改善动作。
另外,选择部17可以根据分析部16的分析结果选择正在执行非标准的动作的动态图像,或者选择与不适当的工具有关的信息,作为内容14b。由此,能够启发产生了何种错误事例,能够防止产生错误。
图17是由本实施方式的变形例的动作分析装置10A执行的分析处理的一例的流程图。在获得分析部16的分析结果之后执行该图所示的处理。
在分析部16的分析结果中包含与对象者的异常动作有关的信息的情况下(S60:是),动作分析装置10的选择部17对存储部14进行检索,选择与存在异常的动作有关的范本动态图像(S61)。然后,动作分析装置10在显示部10f上显示所选择的范本动态图像(S62)。另外,所选择的范本动态图像可以发送到外部设备。
在分析部16的分析结果中包含与对象者的动作熟练度有关的信息的情况下(S63:是),动作分析装置10的选择部17对存储部14进行检索,选择与对应于熟练度的范本动态图像和夹具有关的信息(S64)。然后,动作分析装置10在显示部10f上显示与所选择的范本动态图像和夹具有关的信息(S65)。另外,与所选择的范本动态图像和夹具有关的信息可以发送到外部设备。
以上所说明的实施方式为用于容易地理解本发明的实施方式,并不用于以限定的方式解释本发明。实施方式具有的各要素及其配置、材料、条件、形状和尺寸等不限定于所例示的内容,能够适当变更。此外,能够部分置换或者组合在不同的实施方式中示出的结构彼此。
本发明实施方式可以如以下的附记那样记载。但是,本发明实施方式不限定于以下的附记所述的方式。此外,本发明实施方式也可以是置换或组合附记之间的记载所得的方式。
[附记1]
一种动作分析装置(10),其具有:
取得部(11),其取得表示多个对象者的动作的多个动作信息;
分类部(15),其将所述多个动作信息分类到多个组中的任意的组;以及
分析部(16),其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部(15)使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
[附记2]
根据附记1所述的动作分析装置(10),其中,
所述分类部(15)根据所述多个动作信息中的任意的动作信息所包含的所述骨骼信息、与所述多个动作信息中的其他任意的动作信息所包含的所述骨骼信息的差异,将所述多个动作信息分类到所述多个组中的任意的组。
[附记3]
根据附记1所述的动作分析装置(10),其中,
所述分类部(15)根据所述多个动作信息分别包含的所述骨骼信息与规定的基准信息的差异,将所述多个动作信息分类到所述多个组中的任意的组。
[附记4]
根据附记1至3中的任意一项所述的动作分析装置(10),其中,
所述骨骼信息包含与所述多个部位对应的多个节点的坐标值,
所述分类部(15)利用与基于所述坐标值而计算的所述多个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
[附记5]
根据附记4所述的动作分析装置(10),其中,
所述分类部(15)利用与所述多个节点中的相邻的2个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
[附记6]
根据附记4或5所述的动作分析装置(10),其中,
所述分类部(15)利用和所述多个节点中的相邻的2个节点之间的距离与所述多个节点中的其他的相邻的2个节点之间的距离之比有关的分类,将所述动作信息分类到所述多个组中的任意的组。
[附记7]
根据附记4至6中的任意一项所述的动作分析装置(10),其中,
所述分类部(15)利用和所述多个节点之间的距离与由所述取得部(11)随所述多个动作信息一起取得的基准距离之比有关的分类,将所述动作信息分类到所述多个组中的任意的组。
[附记8]
根据附记4至7中的任意一项所述的动作分析装置(10),其中,
所述坐标值包含三维坐标值,
所述分类部(15)利用与基于所述三维坐标值而计算的所述多个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
[附记9]
根据附记4至8中的任意一项所述的动作分析装置(10),其中,
所述坐标值与测量的时刻相关联,
所述分类部(15)利用与基于在不同的时刻测量出的多个所述坐标值而计算的所述多个节点之间的距离的平均值有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
[附记10]
根据附记1至9中的任意一项所述的动作分析装置(10),其中,
所述动作分析装置(10)还具有选择部(17),所述选择部(17)选择所述多个部位中的、用于所述分类部(15)的分类的多个部位。
[附记11]
根据附记10所述的动作分析装置(10),其中,
所述选择部(17)根据是否是针对所述多个对象者所共同取得的部位,选择用于所述分类部(15)的分类的多个部位。
[附记12]
根据附记10所述的动作分析装置(10),其中,
所述选择部(17)根据所述多个部位中的相邻的2个部位之间的距离、与所述多个部位中的其他的相邻的2个部位之间的距离的比较,选择用于所述分类部(15)的分类的部位。
[附记13]
根据附记10至12中的任意一项所述的动作分析装置(10),其中,
所述选择部(17)根据所述分析部(16)的分析结果,选择与所述对象者对应的内容。
[附记14]
根据附记1至13中的任意一项所述的动作分析装置(10),其中,
所述分析部(16)根据基于所述动作信息而计算的、表示所述对象者的动作特征的特征量,分析是否存在与所述对象者的动作有关的异常。
[附记15]
根据附记1至14中的任意一项所述的动作分析装置(10),其中,
所述分析部(16)根据基于所述动作信息而计算的、表示所述对象者的动作特征的特征量,分析所述对象者的动作熟练度。
[附记16]
根据附记14或15所述的动作分析装置(10),其中,
所述特征量包含所述对象者的特定部位的轨迹长度和所述对象者的动作时间中的至少任意一个。
[附记17]
一种动作分析方法,其包含以下步骤:
取得表示多个对象者的动作的多个动作信息;
将所述多个动作信息分类到多个组中的任意的组;以及
根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类包含如下步骤:使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
[附记18]
一种动作分析程序,其中,所述动作分析程序使动作分析装置(10)所具备的运算部作为以下部分进行动作:
取得部(11),其取得表示多个对象者的动作的多个动作信息;
分类部(15),其将所述多个动作信息分类到多个组中的任意的组;以及
分析部(16),其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部(15)使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
[附记19]
一种动作分析系统,其具有:
测量部(30),其测量表示多个对象者的动作的多个动作信息;
分类部(15),其将所述多个动作信息分类到多个组中的任意的组;
分析部(16),其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作;以及
显示部(10f),其显示所述分析部(16)的分析结果,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部(15)使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
Claims (19)
1.一种动作分析装置,其具有:
取得部,其取得表示多个对象者的动作的多个动作信息;
分类部,其将所述多个动作信息分类到多个组中的任意的组;以及
分析部,其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
2.根据权利要求1所述的动作分析装置,其中,
所述分类部根据所述多个动作信息中的任意的动作信息所包含的所述骨骼信息与所述多个动作信息中的其他的任意的动作信息所包含的所述骨骼信息的差异,将所述多个动作信息分类到所述多个组中的任意的组。
3.根据权利要求1所述的动作分析装置,其中,
所述分类部根据所述多个动作信息分别包含的所述骨骼信息与规定的基准信息的差异,将所述多个动作信息分类到所述多个组中的任意的组。
4.根据权利要求1~3中的任意一项所述的动作分析装置,其中,
所述骨骼信息包含与所述多个部位对应的多个节点的坐标值,
所述分类部利用和基于所述坐标值而计算出的所述多个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
5.根据权利要求4所述的动作分析装置,其中,
所述分类部利用和所述多个节点中的相邻的2个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
6.根据权利要求4所述的动作分析装置,其中,
所述分类部利用和所述多个节点中的相邻的2个节点之间的距离与所述多个节点中的其他的相邻的2个节点之间的距离之比有关的分类,将所述动作信息分类到所述多个组中的任意的组。
7.根据权利要求4所述的动作分析装置,其中,
所述分类部利用和所述多个节点之间的距离与由所述取得部随所述多个动作信息一起取得的基准距离之比有关的分类,将所述动作信息分类到所述多个组中的任意的组。
8.根据权利要求4所述的动作分析装置,其中,
所述坐标值包含三维坐标值,
所述分类部利用和基于所述三维坐标值而计算出的所述多个节点之间的距离有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
9.根据权利要求4所述的动作分析装置,其中,
所述坐标值与测量的时刻相关联,
所述分类部利用和基于在不同的时刻测量出的多个所述坐标值而计算出的所述多个节点之间的距离的平均值有关的分类,将所述多个动作信息分类到所述多个组中的任意的组。
10.根据权利要求1~3的任意一项所述的动作分析装置,其中,
该动作分析装置还具有选择部,所述选择部选择所述多个部位中的、用于所述分类部的分类的多个部位。
11.根据权利要求10所述的动作分析装置,其中,
所述选择部根据是否是针对所述多个对象者所共同取得的部位,选择用于所述分类部的分类的多个部位。
12.根据权利要求10所述的动作分析装置,其中,
所述选择部根据所述多个部位中的相邻的2个部位之间的距离与所述多个部位中的其他的相邻的2个部位之间的距离的比较,选择用于所述分类部的分类的部位。
13.根据权利要求10所述的动作分析装置,其中,
所述选择部根据所述分析部的分析结果,选择与所述对象者对应的内容。
14.根据权利要求1~3中的任意一项所述的动作分析装置,其中,
所述分析部根据基于所述动作信息而计算出的、表示所述对象者的动作特征的特征量,分析是否存在与所述对象者的动作有关的异常。
15.根据权利要求1~3中的任意一项所述的动作分析装置,其中,
所述分析部根据基于所述动作信息而计算出的、表示所述对象者的动作特征的特征量,分析所述对象者的动作熟练度。
16.根据权利要求14所述的动作分析装置,其中,
所述特征量包含所述对象者的特定部位的轨迹长度和所述对象者的动作时间中的至少任意一个。
17.一种动作分析方法,其包含以下步骤:
取得表示多个对象者的动作的多个动作信息;
将所述多个动作信息分类到多个组中的任意的组;以及
根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类包含如下步骤:使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
18.一种记录介质,其记录有计算机可读的动作分析程序,其中,该动作分析程序使动作分析装置所具备的运算部作为以下部分进行动作:
取得部,其取得表示多个对象者的动作的多个动作信息;
分类部,其将所述多个动作信息分类到多个组中的任意的组;以及
分析部,其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
19.一种动作分析系统,其具有:
测量部,其测量表示多个对象者的动作的多个动作信息;
分类部,其将所述多个动作信息分类到多个组中的任意的组;
分析部,其根据被分类到所述多个组中的任意的组的所述动作信息,分析所述对象者的动作;以及
显示部,其显示所述分析部的分析结果,
所述多个动作信息分别包含骨骼信息,该骨骼信息表示所述多个对象者的与骨骼相关联的身体的多个部位的位置,
所述分类部使用所述多个动作信息分别包含的所述骨骼信息对所述多个动作信息进行分类。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-093277 | 2018-05-14 | ||
JP2018093277A JP7004218B2 (ja) | 2018-05-14 | 2018-05-14 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490034A true CN110490034A (zh) | 2019-11-22 |
CN110490034B CN110490034B (zh) | 2023-05-12 |
Family
ID=66217734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910279426.8A Active CN110490034B (zh) | 2018-05-14 | 2019-04-09 | 动作分析装置、动作分析方法、记录介质和动作分析系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10964005B2 (zh) |
EP (1) | EP3570210B1 (zh) |
JP (1) | JP7004218B2 (zh) |
CN (1) | CN110490034B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111844A (zh) * | 2021-04-28 | 2021-07-13 | 中德(珠海)人工智能研究院有限公司 | 一种作业姿态评估方法、装置、本地终端及可读存储介质 |
CN113836991A (zh) * | 2020-06-24 | 2021-12-24 | 欧姆龙株式会社 | 动作识别系统、动作识别方法及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145727A1 (ja) * | 2022-01-28 | 2023-08-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、情報分析システム |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110150340A1 (en) * | 2009-12-22 | 2011-06-23 | Sony Corporation | Information processing device, method, and program |
WO2011151997A1 (en) * | 2010-06-01 | 2011-12-08 | Sony Corporation | Information processing apparatus and method and program |
CN103155003A (zh) * | 2010-10-08 | 2013-06-12 | 松下电器产业株式会社 | 姿势估计装置及姿势估计方法 |
US20140051515A1 (en) * | 2009-01-30 | 2014-02-20 | Microsoft Corporation | Visual target tracking |
WO2014036551A1 (en) * | 2012-08-31 | 2014-03-06 | Smith & Nephew, Inc. | Patient specific implant technology |
US20150154449A1 (en) * | 2013-11-29 | 2015-06-04 | Fujitsu Limited | Method and apparatus for recognizing actions |
US20150310629A1 (en) * | 2013-01-18 | 2015-10-29 | Kabushiki Kaisha Toshiba | Motion information processing device |
CN106228109A (zh) * | 2016-07-08 | 2016-12-14 | 天津大学 | 一种基于骨骼运动轨迹的动作识别方法 |
CN106794371A (zh) * | 2014-10-10 | 2017-05-31 | 富士通株式会社 | 技能判定程序、技能判定方法、技能判定装置以及服务器 |
CN107113428A (zh) * | 2014-10-03 | 2017-08-29 | 微软技术许可有限责任公司 | 基于用户在场景中的存在而适配编码属性 |
CN107203756A (zh) * | 2016-06-06 | 2017-09-26 | 亮风台(上海)信息科技有限公司 | 一种识别手势的方法与设备 |
CN107392131A (zh) * | 2017-07-14 | 2017-11-24 | 天津大学 | 一种基于人体骨骼节点距离的动作识别方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252650A (ja) * | 2003-02-19 | 2004-09-09 | Matsushita Electric Ind Co Ltd | 注文受付装置 |
JP4956207B2 (ja) * | 2007-01-25 | 2012-06-20 | パナソニック株式会社 | 背面形状分類判定装置 |
JP5159263B2 (ja) * | 2007-11-14 | 2013-03-06 | 株式会社日立製作所 | 作業情報処理装置、プログラム及び作業情報処理方法 |
JP5373128B2 (ja) * | 2012-01-23 | 2013-12-18 | 三菱電機インフォメーションシステムズ株式会社 | 人物特定装置、人物特定方法及び人物特定プログラム |
US9355306B2 (en) * | 2013-09-27 | 2016-05-31 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for recognition of abnormal behavior |
JP6520380B2 (ja) * | 2015-05-19 | 2019-05-29 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
CN108604393B (zh) * | 2016-03-04 | 2022-12-30 | 日铁系统集成株式会社 | 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质 |
-
2018
- 2018-05-14 JP JP2018093277A patent/JP7004218B2/ja active Active
-
2019
- 2019-04-09 CN CN201910279426.8A patent/CN110490034B/zh active Active
- 2019-04-16 EP EP19169417.3A patent/EP3570210B1/en active Active
- 2019-04-18 US US16/387,656 patent/US10964005B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140051515A1 (en) * | 2009-01-30 | 2014-02-20 | Microsoft Corporation | Visual target tracking |
US20110150340A1 (en) * | 2009-12-22 | 2011-06-23 | Sony Corporation | Information processing device, method, and program |
WO2011151997A1 (en) * | 2010-06-01 | 2011-12-08 | Sony Corporation | Information processing apparatus and method and program |
CN103155003A (zh) * | 2010-10-08 | 2013-06-12 | 松下电器产业株式会社 | 姿势估计装置及姿势估计方法 |
WO2014036551A1 (en) * | 2012-08-31 | 2014-03-06 | Smith & Nephew, Inc. | Patient specific implant technology |
US20150310629A1 (en) * | 2013-01-18 | 2015-10-29 | Kabushiki Kaisha Toshiba | Motion information processing device |
US20150154449A1 (en) * | 2013-11-29 | 2015-06-04 | Fujitsu Limited | Method and apparatus for recognizing actions |
CN107113428A (zh) * | 2014-10-03 | 2017-08-29 | 微软技术许可有限责任公司 | 基于用户在场景中的存在而适配编码属性 |
CN106794371A (zh) * | 2014-10-10 | 2017-05-31 | 富士通株式会社 | 技能判定程序、技能判定方法、技能判定装置以及服务器 |
CN107203756A (zh) * | 2016-06-06 | 2017-09-26 | 亮风台(上海)信息科技有限公司 | 一种识别手势的方法与设备 |
CN106228109A (zh) * | 2016-07-08 | 2016-12-14 | 天津大学 | 一种基于骨骼运动轨迹的动作识别方法 |
CN107392131A (zh) * | 2017-07-14 | 2017-11-24 | 天津大学 | 一种基于人体骨骼节点距离的动作识别方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113836991A (zh) * | 2020-06-24 | 2021-12-24 | 欧姆龙株式会社 | 动作识别系统、动作识别方法及存储介质 |
CN113111844A (zh) * | 2021-04-28 | 2021-07-13 | 中德(珠海)人工智能研究院有限公司 | 一种作业姿态评估方法、装置、本地终端及可读存储介质 |
CN113111844B (zh) * | 2021-04-28 | 2022-02-15 | 中德(珠海)人工智能研究院有限公司 | 一种作业姿态评估方法、装置、本地终端及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7004218B2 (ja) | 2022-01-21 |
US20190347779A1 (en) | 2019-11-14 |
JP2019200241A (ja) | 2019-11-21 |
EP3570210B1 (en) | 2024-04-10 |
CN110490034B (zh) | 2023-05-12 |
US10964005B2 (en) | 2021-03-30 |
EP3570210A1 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3528207B1 (en) | Motion recognition device, motion recognition program, and motion recognition method | |
Zhang et al. | A critical review of vision-based occupational health and safety monitoring of construction site workers | |
CN110490034A (zh) | 动作分析装置、动作分析方法、记录介质和动作分析系统 | |
CN106537305A (zh) | 触摸分类 | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
KR101872907B1 (ko) | 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법 | |
JP2018004310A (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
Rein et al. | Cluster analysis of movement patterns in multiarticular actions: a tutorial | |
Wu et al. | Human-computer interaction based on machine vision of a smart assembly workbench | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
US10860845B2 (en) | Method and system for automatic repetitive step and cycle detection for manual assembly line operations | |
WO2013051681A1 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
EP3379482A1 (en) | Information processing device calculating statistical information | |
JP6733995B2 (ja) | 作業分析装置、作業分析方法、及びプログラム | |
JP2020024665A (ja) | 情報処理方法、及び情報処理システム | |
JP7165108B2 (ja) | 作業訓練システム及び作業訓練支援方法 | |
JPH0620055A (ja) | 画像信号処理方法とその装置 | |
CN112954268A (zh) | 队列分析方法与图像监控设备 | |
CN112347837A (zh) | 图像处理系统 | |
Kulkarni et al. | Mobile manipulator control through gesture recognition using IMUs and Online Lazy Neighborhood Graph search | |
Gruić et al. | Construction and validation of protocol for digital measurement of human body | |
Gutiérrez López de la Franca et al. | Extended Body-Angles Algorithm to recognize activities within intelligent environments | |
JP7376446B2 (ja) | 作業分析プログラム、および、作業分析装置 | |
Lamb et al. | Self-organizing maps as a tool to analyze movement variability | |
Clark et al. | A system for pose analysis and selection in virtual reality environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |