CN110322470A - 行动识别装置、行动识别方法以及记录介质 - Google Patents
行动识别装置、行动识别方法以及记录介质 Download PDFInfo
- Publication number
- CN110322470A CN110322470A CN201910175349.1A CN201910175349A CN110322470A CN 110322470 A CN110322470 A CN 110322470A CN 201910175349 A CN201910175349 A CN 201910175349A CN 110322470 A CN110322470 A CN 110322470A
- Authority
- CN
- China
- Prior art keywords
- action
- standard operation
- animation
- time
- element action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063114—Status monitoring or status determination for a person or group
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Abstract
本发明旨在提供一种能够对应工作现场操作人员的各种姿势变化,自动测量标准操作所需时间的行动识别装置、行动识别方法以及记录行动识别程序的计算机可读记录介质。本发明的实施方式涉及的行动识别装置用于根据拍摄工作现场所得到的动画来识别操作人员的标准操作,其中具备,动画输入部,用于输入所述工作现场的动画;要素行动识别部,用于识别构成所输入的所述动画中包含的所述操作人员的所述标准操作的一个以上要素行动;以及,标准操作识别处理部,用于根据被识别到的所述一个以上要素行动,来确定所述标准操作的开始时间和所需时间。
Description
技术领域
本发明涉及行动识别装置、行动识别方法以及记录行动识别程序的计算机可读记录介质。
背景技术
在办公室或工厂等工作现场,让操作人员的行动可视化,改善工作现场的生产效率是一项重要课题。对此,通过摄像机动画拍摄工作现场,分析获得的影像,来识别并分析操作人员特定的标准操作(以下称为标准操作)行动的手段十分有效。
但是,用肉眼分析摄像机拍摄的工作现场影像,提取按一定顺序进行标准操作的行动,测定各个动作的时间,并将它们可视化,需要庞大的解析时间和劳力。因此,现有技术为了自动识别人的行动,从拍摄的影像中识别人,从识别到的人的重心求出人的移动轨迹,根据移动轨迹识别特定的行动。
然而在工作现场,操作人员进行特定行动时的工作姿势多种多样,很难识别发生了姿势变化的人。而且,人的认知误差对人移动轨迹的检测结果有很大影响。其结果,根据人的动作轨迹来识别特定行动存在相当大的误差。所以,对特定行动的开始时间和所需时间进行准确测量是不可能的。为此,现有技术存在如下问题,即关于操作人员进行的标准操作,如操作人员搬运或操纵物品时,仅靠操作人员的动作无法识别标准操作的行为。
发明内容
鉴于上述问题,本发明旨在提供一种能够对应工作现场操作人员的各种姿势变化,自动测量标准操作所需时间的行动识别装置、行动识别識方法以及记录行动识别程序的计算机可读记录介质。
为了解决上述问题,达到本发明的目的,本发明的行动识别装置,用于根据拍摄工作现场所得到的动画来识别操作人员的标准操作,其中具备,动画输入部,用于输入所述工作现场的动画;要素行动识别部,用于识别构成所输入的所述动画中包含的所述操作人员的所述标准操作的一个以上要素行动;以及,标准操作识别处理部,用于根据被识别到的所述一个以上要素行动,来确定所述标准操作的开始时间和所需时间。
本发明的效果在于,能够提供对应工作现场操作人员的各种姿势变化,自动测量标准操作所需时间的行动识别装置、行动识别識方法以及记录行动识别程序的计算机可读记录介质。
附图说明
图1是本发明的实施方式涉及的行动识别装置的一例概略构成模式图。
图2是一例在工作现场拍摄的操作人员的标准操作的示意图。
图3是记载本实施方式涉及的标准操作内容的标准操作手册内容的示意图。
图4是临时放置装有对象商品的箱子的标准操作的要素行动的示意图。
图5是操作者以弯腰状态从装有对象商品的箱子中寻找并取出对象商品的标准操作的要素行动的示意图。
图6是将取出了的对象商品放到商品货架上的标准操作的要素行动的示意图。
图7是图3所示的标准操作以及其要素行动所需时间的一例示意图。
图8是本实施方式涉及的行动认识处理部的概略构成模式图。
图9是本发明实施方式涉及的行动识别处理的一例流程图。
图10是本发明实施方式中被输入到现场拍摄/动画输入部中的一例时序图像帧的示意图。
图11是用于说明本发明实施方式涉及的特征点检测方法的示意图。
图12是图2所示的时空数据中提取的一例特征点的示意图。
图13是图2所示的要素行动经过规定时间后的时间一例特征点的示意图。
图14是用来说明本发明实施方式涉及的步行行动的识别处理的示意图。
图15是用来说明本发明实施方式涉及的要素行动识别处理中发生错误时的动作的示意图。
图16是用来说明本发明实施方式中在仅识别到三个要素行动中的一个要素行动时整个行动的开始时间和所需时间的示意图。
图17是用来说明本发明实施方式中在仅识别到三个要素行动中连续的两个要素行动时整个行动的开始时间和所需时间的示意图。
图18是用来说明本发明实施方式中在识别到三个要素行动中不连续的两个要素行动时整个行动的开始时间和所需时间的示意图。
图19是用来说明本发明实施方式中在识别到所有要素行动时整个行动的开始时间和所需时间的示意图。
图20是制作本发明实施方式涉及的要素行动认识辞典的动作的一例流程图。
图21是本实施方式涉及的摄像机的一例硬件构成模块图。
具体实施方式
以下参照附图,详细说明行动识别装置、行动识别方法、行动识别程序以及记录了该程序的计算机可读记录介质的实施方式。如以下将要进行的描述,在本实施方式中,通过摄像机拍摄工作现场,从拍摄的影像中自动识别工作现场的操作人员进行的标准操作的要素行动,从要素行动中识别标准操作的行动,自动测量标准操作的时间。现场操作人员的行动各种各样,标准操作的行动有各种不同的姿势。对此,在本实施方式中,通过将标准操作的行动分解为多个要素行动,对各个要素行动进行单独识别,来对应工作现场的操作人员的各种姿势变化,自动测量标准操作所需要的时间。在以下说明中,″动画″不仅包含″动画图像(也称为影像)数据″,还包含″由多个连续的静止图像构成的图像数据″。
在该″由多个连续静止图像构成的图像数据″中,例如,也可以包含由以规定周期拍摄的多个连续静止图像所构成的图像数据。
图1是本发明的实施方式涉及的行动识别装置的一例概略构成模式图。如图1所示,行动识别装置具备摄像机20和识别处理装置10。
摄像机20是可以拍摄动画图像的录像机等的摄影装置,被设置在工作现场,拍摄操作人员的操作,将所得动画输入识别处理装置10。图2显示工作现场输入动画的一个例子,其中显示在工作现场拍摄的一例操作人员的标准操作。标准操作内容记录在标准操作手册中。在此用图3例示的标准操作手册说明图2所示的标准操作内容的例子。此处显示将商品放到商品货架上的标准操作的例子。图3是记述本实施方式涉及的标准操作内容的标准操作手册内容的示意图。将商品放到商品货架上的标准操作具有以下s1~s3的3个要素行动。各个标准操作必须在规定的时间内完成。
s1:将装有对象商品的箱子临时放置。
s2:从箱子中寻找并取出对象商品。
s3:将对象商品放到商品货架上。
对操作人员姿势变化较多的行为,如果采用直接识别的方法,那么在某些情况下很难确定工作现场的标准操作。对此,在本实施方式中,将标准操作分解为如图4~图6所示的要素行动,分别进行识别。图4~图6是将商品放入商品货架中的标准操作分解成多个要素行动的例子。在图4~图6中,符号20表示摄像机,符号42表示操作者,符号43表示箱子,符号44表示对象商品。图4显示临时放置装有对象商品44的箱子43的标准操作的要素行动(s1)。图5显示操作者42以弯腰状态从装有对象商品44的箱子43中寻找并取出对象商品44的标准操作的要素行动(s2)。图6显示将取出了的对象商品44放到商品货架上的标准操作的要素行动(s3)。
图7是图3所示的标准操作以及其要素行动所需时间的一例示意图。设要素行动s1所需时间为t1,要素行动s2所需时间为t2,要素行动s3所需时间为t3。因此,整个标准操作所需时间为t1、t2、t3合计所需时间t1+t2+t3。
图1所示的识别处理装置10具备接口部11和行动识别处理部12。接口部11用于输入摄像机20获得的影像,并将其输出到行动识别处理部12。行动认识处理部12执行本实施方式涉及的行动认识处理。图8是本实施方式涉及的行动认识处理部的概略构成模式图。如图8所示,本实施方式涉及的识别处理装置10具备现场摄影/动画输入部101、时空特征点提取部102、要素行动识别部103、标准操作识别处理部104、要素行动识别辞典输入部105、标准操作识别结果输出部106。
在这里,用图8所示的模块图以及图9~图16详细说明本实施方式涉及的行动识别处理部12的动作。图9是对摄像机20取得的动画实行的行动识别处理的一例流程图。
如图8及图9所示,在本动作中,首先,现场拍摄/动画输入部101通过接口部11输入从摄像机20输入的动画(步骤S101)。图10显示一例被输入到现场拍摄/动画输入部101中的时序图像帧。在图10中,输入的图像帧的横轴x、纵轴y是空间坐标。F1、F2、…表示沿时间轴time的时序图像帧。也就是说,输入的图像帧如图11所示,成为用时空(x,y,t)表示的图像数据(以下称为时空图像数据)。时空的一个像素I(x,y,t)是空间坐标(x,y)和时间t的函数。
接下来,为了识别现场标准操作,执行识别要素行动的动作。具体而言,时空特征点提取部102从输入的动画中各切出N个图像帧,对于该各切出的N个图像帧,执行提取时空中的特征点(也称为时空特徴点)的处理(步骤S102)。在此,在步骤S102中,首先定义如图3以及图4~图6所示的要素行动。例如,将商品放入商品货架的标准操作如图3的标准操作手册中所记载的那样,可以用三个要素行动来分解并定义标准操作。也就是说,定义暂时放置装有对象商品44的箱子43的标准操作的要素行动(s1)、操作人员42在弯腰状态下从装有对象商品44的箱子43中寻找并取出对象商品44的标准操作的要素行动(s2)、将取出的对象商品44放到商品货架上的标准操作的要素行动(s3)。决定方便识别和分解标准操作的要素行动的数量。在上述例子中,将标准操作分解为三个要素行为,但是在其他标准操作中,也可以将其分割成不同数量的要素行动。针对各个要素行动,进行行动识别。因此,需要准备不同数量的要素行动识别辞典。
接下来,步骤S102中,时空特征点提取部102识别定义了的要素行动。工作现场的操作人员行动时,图11所示的时空图像数据中产生变化点。时空特征点提取部102通过找到时空图像数据中的变化点,即时空特征点,来识别要素行为。
在此说明本实施方式的特征点检测方法。在本动作中,如图11所示,由N个图像帧组成的时空的图像数据,即时空图像数据,被分割成区块。图11中的大立方体表示整个时空图像数据。在图11中,横轴表示空间坐标x,纵轴以y表示。另外,各个单位是像素,t表示时间轴。例如,时序图像数据由以30帧/秒的速度输入的图像数据构成。时间轴time方向是图像帧的时序轴。通过用图像帧换算时间轴time的值,可以求出实际时间。
在图11所示的例子中,时空图像数据被分割成大小(M,N,T)的区块。1个区块的大小为横向M像素、纵向N像素、T帧。图11中的一个方块表示一个区块。当操作人员的动作发生某个行动时,发生动作时的时空图像数据中,对应区块的特征量变大。换言之,时空中产生大的变化量。
接下来,在步骤S102中说明提取变化量大的区块作为特征点的方法。时空特征点提取部102在从时空图像数据中提取特征点时,首先在空间方向,即(x,y)方向进行消除噪音的平滑处理。在该平滑处理中,使用以下式(1)。
L(x,y,t)=I(x,y,t)*g(x,y) (1)
式(1)中,I(x,y,t)是时间t的帧中的(x,y)坐标的像素的像素值。g(x,y)是用于平滑处理的核心。*是折叠处理。平滑处理可以单纯地是像素平均处理,也可以是既存的高斯平滑滤波处理。
接着,在步骤S102中,时空特征点提取部102在时间轴上进行过滤处理。该过滤处理中,实行使用以下式(2)的Gabor过滤处理。在此,gev和god是后述式(3)和式(4)所示的Gabor过滤器的核心参数。*为叠层处理。τ和ω是Gabor过滤器的核心参数。
R(x,y,t)=(L(x,y,t)*gev)2+(L(x,y,t)*god)2 (2)
对图10所示的时空图像数据的全部像素实行如上的过滤处理后,时空特征点提取部102在步骤S102中,求出图11所示的分割区块内的R(x,y,t)的平均值。在该平均值计算处理中,例如通过使用下式(5),求出位于时空坐标(x,y,t)上的区块的平均值。
而后,时空特征点提取部102如下式(6)所示,当区块内的平均值M(x,y,t)大于一定阈值Thre_M时,将该区块作为特征点。
M(x,y,t)>Thre_M (6)
图12是从表示把图2的工作现场的商品放到货架上的标准操作的要素行动(s1)的时空数据中提取出来的一例时间t的特征点的示意图。如图12所示,在发生动作的部分中提取特征点。图13是图2所示的要素行动(s1)经过规定时间间隔Δt之后的时间t+Δt时的一例特征点的示意图。
接下来描述如上所述地从时空图像数据中提取的特征点的叙述方法。在从图11所示的时空图像数据中提取特征点区块的情况下,时空特征点提取部102求出该特征点区块内的像素的时空边缘信息E(x,y,t)。在该空间边缘信息的计算中,通过执行以下式(7)所示的微分运算,求出像素I(x,y,t)的边缘信息。
其结果,在图11所示的时空图像数据中,由于一个区块中有M×N×T个像素,因此能够得到M×N×T×3个微分值。因此,时空特征点提取部102用M×N×T×3个微分值的矢量叙述该块。换言之,用M×N×T×3维微分矢量来叙述特征点。
接下来,在执行要素行动识别处理之前,要素行动识别部103制作要素行动识直方图(步骤S103)。在该要素行动识别直方图的制作中,首先要素行动识别辞典输入部105取得要素行动识别辞典,将该取得的要素行动识别辞典输入要素行动识别部103。关于要素行动识别辞典的制作动作,将在后文中用图20说明。接着,要素行动识别部103计算各特征点区块的M×N×T×3维微分矢量与要素行动识别辞典中K个平均矢量Vk之间的距离,设各特征点区块的种类与最近的学习平均矢量的区块的种类相同。其结果,特征点区块被归类为K种区块。然后在步骤S103中,要素行动识别部103用各个种类的出现频率求出测试动画的特征点直方图T(k)。
接下来,在步骤S103中,要素行动识别部103用下式(8)来求出测试动画的特征点直方图T(k)和学习数据的学习直方图H(k)之间的相似度S(T,H)。
要素行动识别部103如下式(9)所示,在测试动画的特征点直方图T(k)和学习数据的学习直方图H(k)之间的相似度S(T,H)大于一定阈值Thre_S的情况下,执行将测试动画与学习数据认为是相同要素行动的要素行动识别处理(步骤S104)。
S(T,H)>Thre_S (9)
接下来,标准操作识别处理部104执行标准操作识别处理(步骤S105)。在标准操作识别处理中,标准操作识别处理部104识别到相当于在步骤S104中识别的要素行动的操作行为。例如,在如图2示例的标准操作的情况下,在后述的利用图15示例的动作中可以求得标准操作识别结果。然后,标准操作识别结果输出部106输出如此求出的标准操作识别结果(步骤S106),本动作结束。
接下来,说明在图9的步骤S104中显示的要素行动识别处理中发生错误时,即没有识别到要素行动时的动作。图15是用来说明图9的步骤S104中显示的要素行动识别处理中发生错误时的动作的示意图。
如图15所示,首先,本动作中首先与图9的步骤S104相同,实行要素行动识别处理(步骤S104)。然后,用要素行动识别处理的结果,执行探测标准操作要素行动的要素行动探测(S111)。在未探测到标准操作的要素行动(S111的否)的情况下,如果要素行动识别处理中发生错误,则执行识别不同于标准操作的其他行动的其他要素行动识别处理(S113)。在其他要素行动识别处理中,例如,执行图14所示的步行行动的识别处理。而后,例如在检测到步行处理行为的情况下(步骤S114的是),结束标准操作的要素行动识别,输出标准操作的识别结果(S116)。
除了步行行动以外,其他标准操作的要素行动作为识别对象时,也进行其他要素行动的识别处理(S114)。同样,如果识别到其他行为(S114的是),则结束标准操作的要素行动识别,输出了标准操作的识别结果(S116)。
另一方面,在未识别到其他要素行动的情况下(S114的否),将要素行动识别处理(S104)中识别到的要素行动的间隔T和预定的时间阈值Thre_time进行比较(S115),根据其结果,执行要素行动识别处理(S104)或者标准操作识别结果输出(S116)。
在此,利用图16~图19所示的识别到的标准操作以及该要素行动所需时间的例子,来说明步骤S115的动作。例如如图16所示,在只识别到要素行动s1~s3中的一个要素行动s3情况下,将整个行动的开始时间作为s3的开始时间,并将整个行动的所使用时间设为s3的所需时间t3。
另一方面,如图17所示,在识别到连续的两个要素行动s2以及s3的情况下,以最早的要素行动s2的开始时间作为整个行动的开始时间,最后的要素行动s3的完成时间为整个行动的结束时间,整个行动的所需时间为s2和s3合计所需时间t2+t3。
另外,如图18所示,在识别到不连续的两个要素行动s1和s3的情况下,如果最前面的要素行动s1和最后的要素行动s3之间的间隔T小于预先设定的时间阈值Thre_time(S115的是),则将整个行动的开始时间作为要素行动s1的开始时间,将全体行动的结束时间作为要素行动s3的开始时间,将全体行动的结束时间作为要素行动s的结束时间。然后,根据要素行动s1的开始时间和要素行动s3的结束时间计算整个行动的所需时间。
而在识别到不连续的两个要素行动s1以及s3的情况下,如果最前面的要素行动s1和最后的要素行动s3的间隔T在时间阈值Thre_time以上时(S115的否),则将要素行动s1和s3作为同一种类的行动,但是行动本身作为不同的行动,计算各自的开始时间和所需时间。
最后,如图19所示,在识别到全部三个要素行动s1、s2以及s3的情况下,以要素行动s1的开始时间为弯腰行动开始时间,整个行动的所需时间为三个要素行动s1~s3合计所需时间t1+t2+t3。
而后,如图15的S116所示,如上所述,特定的整体行动的开始时间和整体行动的所用时间作为标准操作识别结果输出。
接下来用图20详述要素行动识别辞典的制作动作。图20是显示把要素行为的动画样本作为学习数据,制作要素行动认识辞典的动作的一例流程图。
如图20所示,在制作要素行动识别辞典的动作中,要素行动识别辞典输入部105收集要素行动的动画样本,将其作为工作现场学习用的动画数据(以下称为操作学习动画)输入(步骤S201)。
其次,要素行动识别辞典输入部105将输入的工作现场学习动画中包含要素行动的N个图像帧作为一个学习数据,从该学习数据中提取时空特征点(步骤S202)。时空特征点的提取方法可以与上述使用图9的步骤S102进行说明的方法相同。
另外,在步骤S202中,根据输入的工作现场学习动画,生成多个学习数据,分别从所生成的多个学习中提取时空特征点。然后,通过式(7)对提取的各个时空特征点进行微分处理,求出M×N×T×3维的微分矢量。
其次,要素行动识别辞典输入部105对从在步骤S202得到所有学习数据中提取的时空特征点进行分类(步骤S203)。要素行为识别辞典输入部105例如用K-means分类归方法,对学习了的时空特征点进行分类。也就是说,用K-means的分类方法对M×N×T×3维的微分矢量进行分类。将分类数量设为K。由此,从学习数据中提取出的特征点被分类为K种特征点。K-means分类方法中,相同种类的特征点具有相似特征。
其次,要素行动识别辞典输入部105对于K种时空特征点,平均相同种类的特征点的M×N×T×3维边缘矢量,求出K个平均矢量Vk(步骤S204)。各平均矢量Vk是代表该种特征点的矢量。
其次,要素行动识别辞典输入部105,对于K种时空特征点,计算各组的区块合计数,求出学习直方图H(k)(步骤S205)。H(k)是特征点k组的频率。
然后,要素行动识别辞典输入部105制作以从学习数据中求出的平均矢量Vk和学习直方图H(k)为要素行动识别辞典数据的要素行动认识辞典(步骤S206)。所制作的要素行动认识辞典被输入要素行动识别部103(参见图8)。
接下来描述关于本实施方式涉及的摄像机20(参见图1)。图21是本实施方式涉及的摄像机的一例硬件构成模块图。如图21所示,被摄体光通过摄影光学系统201入射CCD(Charge Coupled Device)203。摄影光学系统201和CCD203之间配置通过/遮蔽入射光的机械快门202。摄影光学系统201和机械快么202受马达驱动器206驱动。
CCD203将在摄像面上成像的光学图像转换成电信号,作为模拟图像数据输出。从CCD203输出的图像信息通过CDS(Correlated Double Sampling:相关二重采样)电路204除去噪声成份,通过A/D转换器205转换为数字值后,再输出到图像处理电路208。
图像处理电路208采用暂时存放图像数据的SDRAM(Synchronous DRAM)212,进行YCrCb转换处理、白平衡控制处理、对比度补偿处理、边缘强调处理、色转换处理等各种图像处理。在此,白平衡处理是调整图像信息的颜色浓度,对比度补偿处理是调整图像信息对比度的图像处理。边缘强调处理是调整图像信息的锐度,颜色转换处理是调整图像信息色调的图像处理。另外,图像处理电路208在液晶显示器216(以下简称LCD16)上显示经过信号处理和图像处理的图像信息。
同时,经过信号处理和图像处理的图像信息通过压缩扩展部213,记录到存储卡214中。上述压缩扩展部213是用来按照从操作部215取得的指示,压缩从图像处理电路208输出的图像信息并输出到存储卡214,或者扩展从存储卡214读取的图像信息,输出到图像处理电路208的电路。
另外,CCD203、CDS电路204以及A/D转换器205通过产生时序信号的定时信号发生器207,由CPU(Central Processing Unit)209控制时机。进而,图像处理电路208、压缩扩展部213、存储卡214也受到CPU209控制。
摄像装置中,CPU209按照程序进行各种演算处理,内置有存储专用软件等的只读存储器ROM(Read Only Memory)211以及在各种处理过程中利用的工作区域、具有各种数据存储区等读写自由的存储器即RAM(Random Access Memory)210等,这些是通过主线相互连接。
然后,上述摄像机20的输出通过图1所示的识别处理装置10的接口部11输入行动识别处理部12。
如上所述,本实施方式构成如下,从拍摄了工作现场的动画中识别具有一定步骤的操作人员的标准操作。将标准操作分解成多个要素行动,通过要素行动识别,识别标准操作。测量识别到的标准操作的要素行动时间,计算标准操作整体的操作时间。输入多张图像帧,从这些图像中提取时空特征点。从提取的特征点求出标准操作的要素行动的特征量,识别标准操作的要素行动。通过识别到的要素行动来进行操作人员标准操作识别。通过这样的构成,能够识别操作人员在工作现场进行的标准操作,测量标准操作的工作时间。其结果,可以实现对应工作现场操作人员多种多样的姿势变化自动测量标准操作所需时间的行动识别装置、行动识别方法、行动识别程序以及记录该程序的计算机可读取记录介质。
用本实施方式的识别装置执行的工作现场标准操作识别程序具有包含上述工作现场的标准操作识别功能在内的模块构成,作为图1的识别处理装置10的实际硬件,CPU(处理器)通过从上述存储介质中读取图像处理程序执行,上述各功能部被上传到住存储装置上,输出标准操作识别结果。输入要素行为认识辞典,求出从评价式(8)的识别动画中得到的特征点直方图T(k)和学习直方图H(k)的相似度,进行要素行动识别处理。根据要素行为的认识结果,求出工作现场行动的开始时间和所需时间,输出行动识别的结果。
本实施方式涉及的行动识别装置具备CPU等的控制装置、ROM(Read Only Memory)和RAM等记忆装置、HDD及CD驱动装置等外部存储装置、显示器等的显示装置、以及键盘和鼠标等输入装置,为使用普通的计算机的硬件构成。
本实施方式涉及的行动识别装置所执行的程序,以可安装的形式或可执行格式的文件记录在CD-ROM、软盘(FD)、CD-R、DVD(Digital Versatile Disk)等计算机可读取的记录介质中来提供。
还可以将本实施方式涉及的行动识别装置所执行的程序存储在连接互联网等网络的计算机上,通过网络下载来提供。另外,也可以通过互联网等网络提供或分发本实施方式涉及的行动识别装置所执行的程序。
另外,也可以将本实施方式涉及的行动识别装置所执行的程序预先安装到ROM等中来提供。
本实施方式涉及的行动识别装置所实行的程序是包括上述各功能部(工作现场摄影/动画输入部101、时空特征点提取部102、要素行动识别部103、标准操作识别处理部104、要素行动识别辞典输入部105、标准操作识别结果输出部106)的模块构成,通过作为实际的硬件的CPU(处理器)从上述记憶媒体读取行动识别装置执行的程序,将上述各功能部上传到主存储装置上,从而在主存储装置上生成工作现场摄影/动画输入部101、时空特征点提取部102、要素行动识别部103、标准操作识别处理部104、要素行动识别辞典输入部105、标准操作识别结果出部106。
Claims (13)
1.一种行动识别装置,用于根据拍摄工作现场所得到的动画来识别操作人员的标准操作,其中具备,
动画输入部,用于输入所述工作现场的动画;
要素行动识别部,用于识别构成所输入的所述动画中包含的所述操作人员的所述标准操作的一个以上要素行动;以及,
标准操作识别处理部,用于根据被识别到的所述一个以上要素行动,来确定所述标准操作的开始时间和所需时间。
2.根据权利要求1所述的行动识别装置,其中,
进一步具备时空特征点提取部,用于提取所输入的所述动画的时空中一个以上的特征点,
所述要素行动识别部对所述时空特征点提取部提取的所述一个以上的特征点进行分类,求出经过分类的所述一个以上的特征点的第一直方图和预先学习了的第二直方图之间的相似度,当求出的所述相似度为一定阈值以上时,将所述一个以上的特征点构成的所述操作人员的行动识别为要素行动。
3.根据权利要求2所述的行动识别装置,其中,所述时空特征点提取部通过将所述动画分割为M×N×T大小的区块,并对各个区块进行微分处理,来计算M×N×T×3维微分矢量,对求出的所述微分矢量和预先学习并分类为K种类的边缘矢量进行比较,根据该比较结果来对所述微分矢量进行分类,根据分类结果来制作所述第一直方图。
4.根据权利要求3所述的行动识别装置,其中,所述时空特征点提取部对构成所述输入的动画的图像帧进行时间轴上的过滤处理,根据所述过滤处理的结果,提取所述一个以上的特征点。
5.根据权利要求4所述的行动识别装置,其中,当以gev和god作为以下式(1)和式(2)所示的Gabor过滤器的核心,以*为叠层处理,τ和ω是所述核心的参数时,所述过滤处理为使用下式(3)的Gabor过滤处理,
R(x,y,t)=(L(x,y,t)*gev)2+(L(x,y,t)*god)2 (3)。
6.根据权利要求4所述的行动识别装置,其中,所述时空特征点提取部在所述过滤处理之前对各图像帧实行平滑处理。
7.根据权利要求1所述的行动识别装置,其中,
所述要素行动识别部在未从所述动画中检测到要素行动时,检测所述标准操作的要素行动以外的特定的行动,
所述标准操作识别处理部在所述要素行动识别部识别到所述特定行动时,根据被识别到的一个以上的要素行动,确定并输出所述标准操作的所述开始时间和所述所需时间。
8.根据权利要求1所述的行动识别装置,其中,在所述要素行动识别部识别到所述标准操作的所有要素行动的情况下,所述标准操作识别处理部将最早的要素行动的开始时间作为所述标准操作的开始时间,将识别到的所述所有要素行动的所需时间的合计作为所述标准操作的所需时间。
9.根据权利要求1所述的行动识别装置,其中,在所述要素行动识别部识别到所述标准操作的一部分连续的两个以上要素行动的情况下,所述标准操作识别处理部将最早的要素行动的开始时间作为所述标准操作的开始时间,将识别到的所述一部分连续的两个以上要素行动的所需时间的合计作为所述标准操作的所需时间。
10.根据权利要求1所述的行动识别装置,其中,在所述要素行动识别部识别到所述标准操作的一部分不连续的两个以上要素行动,且最前的要素行动和最后的要素行动之间的时间间隔在规定时间间隔阈值以上的情况下,所述标准操作识别处理部将所述一部分不连续的两个以上要素行动分别作为不同的行动。
11.根据权利要求1所述的行动识别装置,其中,在所述要素行动识别部识别到所述标准操作的一部分不连续的两个以上要素行动,且最前的要素行动和最后的要素行动之间的时间间隔小于规定时间间隔阈值的情况下,所述标准操作识别处理部将所述一部分不连续的两个以上要素行动分别作为同一个行动,将最前的要素行动的开始时间作为所述标准操作的开始时间,将所述一部分不连续的两个以上要素行动的合计所要时间作为所述标准操作的所需时间。
12.一种行动识别方法,用于根据拍摄工作现场所得到的动画来识别操作人员的标准操作,其中包括,
输入所述工作现场的动画;
识别构成所输入的所述动画中包含的所述操作人员的所述标准操作的一个以上要素行动;以及,
根据被识别到的所述一个以上要素行动,来确定所述标准操作的开始时间和所需时间。
13.一种计算机可读记录媒体,其中记录了可供基于拍摄工作现场所得到的动画来识别操作人员的标准操作的计算机发挥功能的程序,该程序用来使得所述计算机执行以下步骤,
输入步骤,输入所述工作现场的动画;
识别步骤,识别构成所输入的所述动画中包含的所述操作人员的所述标准操作的一个以上要素行动;以及,
确定步骤,根据被识别到的所述一个以上要素行动,来确定所述标准操作的开始时间和所需时间。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-064693 | 2018-03-29 | ||
JP2018064693A JP7210890B2 (ja) | 2018-03-29 | 2018-03-29 | 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110322470A true CN110322470A (zh) | 2019-10-11 |
Family
ID=68054426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910175349.1A Withdrawn CN110322470A (zh) | 2018-03-29 | 2019-03-07 | 行动识别装置、行动识别方法以及记录介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10832058B2 (zh) |
JP (1) | JP7210890B2 (zh) |
CN (1) | CN110322470A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020129018A (ja) * | 2019-02-07 | 2020-08-27 | 株式会社日立製作所 | 動作評価システムおよび方法 |
JP2021081804A (ja) | 2019-11-14 | 2021-05-27 | 株式会社リコー | 状態認識装置、状態認識方法及び状態認識プログラム |
CN111539290B (zh) * | 2020-04-16 | 2023-10-20 | 咪咕文化科技有限公司 | 视频动作识别方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6753902B1 (en) * | 1999-07-26 | 2004-06-22 | Pioneer Corporation | Image processing apparatus, image processing method, navigation apparatus, program storage device and computer data signal embodied in carrier wave |
JP2011034234A (ja) * | 2009-07-30 | 2011-02-17 | Kozo Keikaku Engineering Inc | 動作分析装置、動作分析方法及び動作分析プログラム |
JP2012088881A (ja) * | 2010-10-19 | 2012-05-10 | Nippon Hoso Kyokai <Nhk> | 人物動作検出装置およびそのプログラム |
JP2014182585A (ja) * | 2013-03-19 | 2014-09-29 | Sumitomo Electric Ind Ltd | 画像解析装置、画像解析方法および画像解析プログラム |
CN106056053A (zh) * | 2016-05-23 | 2016-10-26 | 西安电子科技大学 | 基于骨骼特征点提取的人体姿势识别方法 |
US20180293598A1 (en) * | 2015-06-02 | 2018-10-11 | Panasonic Intellectual Property Management Co., Ltd. | Personal behavior analysis device, personal behavior analysis system, and personal behavior analysis method |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7206029B2 (en) * | 2000-12-15 | 2007-04-17 | Koninklijke Philips Electronics N.V. | Picture-in-picture repositioning and/or resizing based on video content analysis |
JP4221011B2 (ja) * | 2006-05-31 | 2009-02-12 | 株式会社日立製作所 | 作業動作分析方法、作業動作分析装置および作業動作分析プログラム |
JP2008077424A (ja) | 2006-09-21 | 2008-04-03 | Toshiba Corp | 作業分析システム及び方法 |
JP4998024B2 (ja) * | 2007-03-13 | 2012-08-15 | 富士通株式会社 | 作業支援システム、作業支援装置および作業支援方法 |
US8593517B2 (en) * | 2007-03-26 | 2013-11-26 | Pelco, Inc. | Method and apparatus for configuring a video surveillance source |
JP4842197B2 (ja) | 2007-04-17 | 2011-12-21 | 財団法人ソフトピアジャパン | 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム |
JP5285575B2 (ja) | 2009-11-04 | 2013-09-11 | 日本放送協会 | 人物行動判定装置及びそのプログラム |
JP5898199B2 (ja) * | 2011-07-15 | 2016-04-06 | パナソニック株式会社 | 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム |
JP5898014B2 (ja) * | 2012-07-26 | 2016-04-06 | パナソニック株式会社 | 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム |
JP6075180B2 (ja) * | 2013-04-18 | 2017-02-08 | オムロン株式会社 | 作業管理システムおよび作業管理方法 |
US9387589B2 (en) * | 2014-02-25 | 2016-07-12 | GM Global Technology Operations LLC | Visual debugging of robotic tasks |
JP6601018B2 (ja) * | 2015-06-30 | 2019-11-06 | 富士通株式会社 | 作業管理プログラム、作業管理方法および作業管理システム |
JP6675266B2 (ja) * | 2016-05-20 | 2020-04-01 | 株式会社日立製作所 | センサデータ分析システム及びセンサデータ分析方法 |
US11429906B2 (en) * | 2016-06-16 | 2022-08-30 | Conduent Business Services, Llc | Profiling of users' behavior and communication in business processes |
US20180082190A1 (en) * | 2016-09-21 | 2018-03-22 | Scianta Analytics, LLC | System for dispatching cognitive computing across multiple workers |
JP6874315B2 (ja) | 2016-09-30 | 2021-05-19 | 株式会社リコー | 情報処理装置、情報処理方法およびプログラム |
US10929685B2 (en) * | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10583324B2 (en) * | 2017-04-06 | 2020-03-10 | Hrl Laboratories, Llc | Explicit prediction of adversary movements with canonical correlation analysis |
-
2018
- 2018-03-29 JP JP2018064693A patent/JP7210890B2/ja active Active
-
2019
- 2019-02-12 US US16/273,199 patent/US10832058B2/en active Active
- 2019-03-07 CN CN201910175349.1A patent/CN110322470A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6753902B1 (en) * | 1999-07-26 | 2004-06-22 | Pioneer Corporation | Image processing apparatus, image processing method, navigation apparatus, program storage device and computer data signal embodied in carrier wave |
JP2011034234A (ja) * | 2009-07-30 | 2011-02-17 | Kozo Keikaku Engineering Inc | 動作分析装置、動作分析方法及び動作分析プログラム |
JP2012088881A (ja) * | 2010-10-19 | 2012-05-10 | Nippon Hoso Kyokai <Nhk> | 人物動作検出装置およびそのプログラム |
JP2014182585A (ja) * | 2013-03-19 | 2014-09-29 | Sumitomo Electric Ind Ltd | 画像解析装置、画像解析方法および画像解析プログラム |
US20180293598A1 (en) * | 2015-06-02 | 2018-10-11 | Panasonic Intellectual Property Management Co., Ltd. | Personal behavior analysis device, personal behavior analysis system, and personal behavior analysis method |
CN106056053A (zh) * | 2016-05-23 | 2016-10-26 | 西安电子科技大学 | 基于骨骼特征点提取的人体姿势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7210890B2 (ja) | 2023-01-24 |
US20190303680A1 (en) | 2019-10-03 |
US10832058B2 (en) | 2020-11-10 |
JP2019175268A (ja) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909651B (zh) | 视频主体人物的识别方法、装置、设备及可读存储介质 | |
CN104933414B (zh) | 一种基于wld-top的活体人脸检测方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN103379279B (zh) | 被摄体区域检测装置及其方法、图像摄取装置及显示装置 | |
EP2797051B1 (en) | Image processing device, image processing method, program, and recording medium | |
TWI254891B (en) | Face image detection method, face image detection system, and face image detection program | |
US9245247B2 (en) | Queue analysis | |
US10395091B2 (en) | Image processing apparatus, image processing method, and storage medium identifying cell candidate area | |
CN110322470A (zh) | 行动识别装置、行动识别方法以及记录介质 | |
CN101179713A (zh) | 复杂背景下单个运动目标的检测方法 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
JP7222231B2 (ja) | 行動認識装置、行動認識方法及びプログラム | |
CN107766864B (zh) | 提取特征的方法和装置、物体识别的方法和装置 | |
CN107767397A (zh) | 移动对象组检测装置和移动对象组检测方法 | |
CN112633221A (zh) | 一种人脸方向的检测方法及相关装置 | |
CN115862113A (zh) | 陌生人异常识别方法、装置、设备及存储介质 | |
CN113076860B (zh) | 一种野外场景下的鸟类检测系统 | |
US8538142B2 (en) | Face-detection processing methods, image processing devices, and articles of manufacture | |
CN106611417A (zh) | 将视觉元素分类为前景或背景的方法及装置 | |
JP4099981B2 (ja) | 画像認識システム、画像認識方法および画像認識プログラム | |
CN113627255A (zh) | 一种小鼠行为量化分析方法、装置、设备及可读存储介质 | |
CN107122745B (zh) | 一种识别视频中人物轨迹的方法及装置 | |
KR102482573B1 (ko) | 딥러닝을 이용한 이미지 배경제거 및 수피 기반 수종 탐지 시스템 및 이를 이용한 수종 탐지 방법 | |
CN115690092B (zh) | 角膜共聚焦图像中阿米巴包囊的识别与计数方法及装置 | |
CN114463792B (zh) | 一种多光谱识别方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20191011 |