CN108713177B - 操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介 - Google Patents

操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介 Download PDF

Info

Publication number
CN108713177B
CN108713177B CN201780010122.0A CN201780010122A CN108713177B CN 108713177 B CN108713177 B CN 108713177B CN 201780010122 A CN201780010122 A CN 201780010122A CN 108713177 B CN108713177 B CN 108713177B
Authority
CN
China
Prior art keywords
model
evaluation
unit
motion model
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780010122.0A
Other languages
English (en)
Other versions
CN108713177A (zh
Inventor
荒尾尚英
大冈明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Broadleaf Co Ltd
Original Assignee
Broadleaf Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Broadleaf Co Ltd filed Critical Broadleaf Co Ltd
Publication of CN108713177A publication Critical patent/CN108713177A/zh
Application granted granted Critical
Publication of CN108713177B publication Critical patent/CN108713177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • G06Q10/043Optimisation of two dimensional placement, e.g. cutting of clothes or wood
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Operations Research (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Sewing Machines And Sewing (AREA)

Abstract

考虑操作者对操作的熟练程度进而对该操作者的动作模型进行评价。具有模型获取部(12)、评价标准设定部(15)、模型评价部(18),该模型获取部(12)获取操作者执行操作时的动作模型;该评价标准设定部(15)设定针对动作模型的评价标准;该模型评价部(18)基于评价标准来评价动作模型,评价标准设定部(18)根据某个操作者执行某项操作的次数来设定针对某个操作者执行某项操作时的动作模型的评价标准。

Description

操作分析支援装置、操作分析支援方法、计算机程序及信息存 储媒介
技术领域
本发明涉及操作分析支援装置、操作分析支援方法、操作分析支援用的计算机程序及存储计算机程序的信息存储媒介,特别是涉及评价操作者的动作模型的操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介。
背景技术
在操作分析中,确定操作者的动作模型这一点已经众所周知。作为其中的一个例子,可以举出专利文献1记载的技术。在专利文献1中,记载有将确定操作者在操作中的轨迹作为动作模型。另外,在专利文献1中,在确定的轨迹上重叠显示操作的标准路径。据此,分析者能够把握操作者的不必要的动作等,从而进行对动作模型的评价。
专利文献1:特开2015-228123号公报
发明内容
但是,同一操作者执行了同一操作时,动作模型随着重复操作而发生变化(具体而言,接近理想的模型)。因此,在评价每次操作的动作模型时,需要考虑操作者对操作的熟练程度来进行。另一方面,包括专利文献1在内,在现有的操作分析中,并没有实施考虑了熟练程度的动作模型的评价。因此,本发明是鉴于上述问题得到的,其目的在于提供一种在评价操作者的动作模型时,能够考虑操作者对操作的熟练程度的操作分析支援装置、操作分析支援方法及为了实现这一目的的计算机程序和存储该计算机程序的信息存储媒介。
所述课题通过如下方式解决。根据本发明的操作分析支援装置,具有模型获取部、评价标准设定部及模型评价部,该模型获取部获取操作者执行操作时的动作模型;该评价标准设定部设定针对所述动作模型的评价标准;该模型评价部基于所述评价标准来评价所述动作模型,所述评价标准设定部根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准。
上述本发明的操作分析支援装置基于评价标准来评价操作者的动作模型。在此,针对某个操作者执行某项操作时的动作模型的评价标准,根据某个操作者执行某项操作的次数而设定。据此,操作者的熟练程度反映于评价标准,结果,能够考虑熟练程度来评价动作模型。
另外,在上述操作分析支援装置中,所述模型获取部也可以解析显示操作者执行操作时的样子的影像从而获取所述动作模型。
在上述构成中,通过解析显示操作者执行操作时的样子的影像来获取动作模型。据此,能够适当地获取动作模型。
另外,在上述操作分析支援装置中,也可以进一步具有输入接收部,该输入接收部接收关于获取所述动作模型的操作优劣的判断结果的输入,所述输入接收部针对所述模型获取部获取的每个所述动作模型,接收所述判断结果的输入,所述评价标准设定部基于每个所述动作模型的所述判断结果设定所述评价标准,所述模型评价部基于所述评价标准,判断获取所述动作模型的操作的优劣,来作为对所述动作模型的评价。
在上述构成中,对获取的各动作模型,接收关于操作优劣的判断结果的输入。并且,学习每个动作模型的判断结果进而设定评价标准。而且,新获取了动作模型时,基于上述评价标准判断获取该动作模型的操作的优劣。据此,能够根据动作模型与操作优劣之间的关系(相关)适当地判断操作的优劣。
另外,在上述操作分析支援装置中,所述模型评价部也可以基于所述评价标准实施对所述动作模型的得分的计算作为对所述动作模型的评价。
在上述构成中,计算动作模型的得分来作为对动作模型的评价。据此,能够对动作模型进行定量的评价。另外,例如,通过将得分告知操作者,能够给予重新认识自己的动作的机会。
另外,在上述操作分析支援装置中,所述模型评价部确定所述动作模型与标准动作模型的差异度,也可以基于该差异度及所述评价标准来评价所述动作模型
在上述构成中,在评价动作模型时,对比该动作模型与标准动作模型,确定两模型间的差异度。进而,基于确定的差异度及评价标准来评价动作模型。这样,基于与标准动作模型的差异度来评价动作模型的话,能够得到更加合理的评价结果。
另外,在上述操作分析支援装置中,具有信息获取部及模型预测部,该信息获取部获取以下两种信息中的至少一种信息:测量操作者执行操作时的状态的状态信息,以及与操作者执行操作的环境相关的环境信息;该模型预测部基于该信息获取部获取的信息预测所述动作模型,所述模型评价部也可以基于所述评价标准评价通过所述模型预测部预测的所述动作模型。
根据上述构成,获取与操作者的状态及操作环境相关的信息,然后基于获取的信息来预测动作模型。进而,基于评价标准来评价预测的动作模型。据此,能够预测在某个状态或某个操作环境下,操作者执行操作时的动作模型及对该动作模型的评价结果。其结果,例如,能够有机会改善操作者的状态及环境。
另外,所述课题通过如下方式解决。根据本发明的操作分析支援方法,具有如下步骤:计算机获取操作者执行操作时的动作模型;计算机设定针对所述动作模型的评价标准;计算机基于所述评价标准来评价所述动作模型,所述计算机根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准。
根据上述方法,能够考虑操作者对操作的熟练程度来评价该操作者的动作模型。
另外,所述课题通过如下方式解决。根据本发明的计算机程序,是一种以计算机作为操作分析支援装置并使之发挥功能的计算机程序,以所述计算机作为具有模型获取部、评价标准设定部、模型评价部的操作分析支援装置并使之发挥功能,该模型获取部获取操作者执行操作时的动作模型;该评价标准设定部设定针对所述动作模型的评价标准;该模型评价部基于所述评价标准来评价所述动作模型,使作为所述评价标准设定部发挥功能的所述计算机根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准。
在计算机运行上述的本发明的计算机程序的话,能够考虑操作者对操作的熟练程度来评价该操作者的动作模型。
另外,所述课题通过如下方式解决。根据本发明的信息存储媒介,是一种计算机可读取的信息存储媒介,存储以所述计算机作为操作分析支援装置并用于使之发挥功能的计算机程序,该操作分析支援装置具有:获取操作者执行操作时的动作模型的模型获取部、设定针对所述动作模型的评价标准的评价标准设定部以及基于所述评价标准来评价所述动作模型的模型评价部,该计算机程序为用于使作为所述评价标准设定部发挥功能的所述计算机根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准的程序。
通过在计算机读取上述本发明的信息存储媒介,能够考虑操作者对操作的熟练程度来评价该操作者的动作模型。
根据本发明,在操作分析中,能够考虑操作者对操作的熟练程度来适当地评价该操作的动作模型。
附图说明
图1为表示某个操作者执行某项操作的样子的图。
图2为表示本发明的计算机的构成例的图。
图3为表示本发明的计算机的功能的图。
图4为表示动作模型的一个例子的图。
图5为表示第一实施方式涉及的评价标准设定流程的图。
图6为表示第一实施方式涉及的模型评价流程的图。
图7为表示第一实施方式涉及的预测模型评价流程的图。
图8为表示第二实施方式涉及的模型评价流程的图。
图9为表示第二实施方式涉及的预测模型评价流程的图。
具体实施方式
以下,举出具体例子分别就本发明的操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介进行说明。此外,在以下的说明中,“操作”表示根据一系列的流程执行的多个行为(动作)。另外,“动作元素”相当于操作的构成单位,通常一个操作包含多个动作元素。
本发明的计算机程序存储于计算机可读取的闪存或者光盘等信息存储媒介,通过在计算机上运行,能够使计算机作为操作分析支援装置发挥功能。计算机包括一般的电脑、服务器计算机、智能手机、PDA(Personal Digital Assistant)等。分析者通过启动搭载于计算机的本发明的计算机程序,能够将该计算机作为操作分析支援装置使用。
并且,作为操作分析支援装置的计算机具备评价操作中的操作者的行动(动作)的功能,具体而言,评价操作中操作者的动作模型。此外,关于动作模型及其评价方法,在后面进行详细说明。
以下,举出两个实施方式作为本发明的具体实施方式,并就每个实施方式中作为操作分析支援装置的计算机的构成及功能进行说明。此外,在以下的说明中,假设图1图示的操作,具体说明的话,假设分析某个操作者(以下为操作者P)向传送带Q上传送的货箱W加入未图示的产品并封箱的操作(以下为操作X)的情况并进行说明。此外,当然,分析对象的操作并未特别限定,本发明也能够适用于分析与上述内容不同的操作的情况。
第一实施方式。
首先,就第一实施方式进行说明。如图2所示,在第一实施方式中,作为操作分析支援装置的计算机10具备CPU10a、存储卡10b、硬盘驱动器10c(图中标记为HDD)、I/O端口10d、输入机器10e及输出机器10f。另外,在计算机10安装有用于使计算机10作为操作分析支援装置发挥功能的程序(以下为操作分析支援程序)。此操作分析支援程序相当于本发明的计算机程序。
另外,计算机10通过I/O端口10d获取摄像机R的拍摄影像及测量传感器S的测量结果。如图1所示,摄像机R拍摄操作者P执行操作X的样子。测量传感器S测量操作者P执行操作X期间操作者P的状态信息,更加具体而言为操作者P的生物信息(例如,脉搏数、体温、肌肉动作电位、呼吸量、瞳孔的开放状态等)。进一步地,计算机10通过I/O端口10d,通过向传送带Q输出控制信号来远程控制传送带Q,从而调其整传送速度。
参照图3就计算机10的功能进行说明的话,计算机10具有影像获取部11、模型获取部12、标准动作模型选择部13、输入接收部14、评价标准设定部15、信息获取部16、模型预测部17、模型评价部18、评价结果输出部19及机器控制部20。这些功能部通过上述计算机10的构成机器(硬件机器)与作为软件的操作分析支援程序协作来实现。以下,就各功能部分别进行说明。
影像获取部11获取摄像机R的拍摄影像。此外,在本实施方式中,在操作者P执行操作X时,影像获取部11从摄像机R获取拍摄了操作者样子的影像。
模型获取部12通过解析影像获取部11获取的拍摄影像来获取操作X中操作者P的动作模型。动作模型同时表示操作者P在操作X中执行的动作的内容与执行该动作的时间。此外,在本实施方式中,获取图4图示的动作元素表作为动作模型的一个例子。此动作元素表收录了动作时间段、动作内容、动作时间及无效时间作为构成操作X的各动作元素。“动作时间段”为执行动作元素的时间段,具体而言为从动作元素的开始时间到结束时间的时间段。“动作内容”为与动作元素相关的具体内容。“动作时间”为动作元素所需的实际时间。“无效时间”为在动作时间中没有执行有效动作的时间。
在影像获取部11从摄像机R获取拍摄影像之后,此时,模型获取部12获取作为动作模型的动作元素表。换言之,在本实施方式中,在操作者P执行操作X时,该操作者P的动作模型被获取。此外,获取的动作模型作为操作X中操作者P的动作模型被保存在硬盘驱动器10c。
就动作元素表进行附加说明的话,动作元素表的收录内容并不限定为上述内容,也可以包括其他内容(例如,动作元素的种类等)。同时,可以利用公知的方法作为从操作影像获取动作元素表的方法,例如,也可以利用以动作元素单位将操作影像分区,通过收录各动作元素的动作时间段及无效时间等来获取动作元素表的方法。
另外,动作模型也可以是上述动作元素表之外的内容,例如,也可以获取表示操作X中操作者P移动时的移动轨迹或者操作者P的身体各部的移动(位移)作为动作模型。
标准动作模型选择部13从保存在硬盘驱动器10c中的动作模型(严格来讲为操作X中操作者P的动作模型)中选择一个动作模型作为标准动作模型。“标准动作模型”为作为操作X中理想的模型而设定的动作模型。此外,在本实施方式中,从操作者P的动作模型中选择标准动作模型,但是并不限定于此。例如,也可以预先登录操作者P之外的人的动作模型,具体而言为熟悉操作X的人(熟练者)的动作模型,并以该动作模型作为标准动作模型。或者,也可以理论上获取标准动作模型。
输入接收部14通过输入机器10e接收分析者输入的事项。在输入接收部14接收的输入事项中包括关于获取动作模型(动作元素表)的操作X的优劣的判断结果。具体说明的话,分析者观看影像获取部11获取的摄像机R的影像,同时对操作者P执行的操作X的优劣进行判断,并将判断结果输入于输入机器10e。输入接收部14接收对操作X的优劣的判断结果的输入。
此外,输入接收部14将操作优劣的判断结果与作为判断对象的操作(具体而言为操作X)中的动作模型相关联并保存在硬盘驱动器10c。也就是说,输入接收部14接收模型获取部12获取的每个动作模型的操作优劣的判断结果的输入,将该判断结果及相对应的动作模型设置为一组并存储在硬盘驱动器10c。
评价标准设定部15设定评价操作X中操作者P的动作模型(动作元素表)时的评价标准。在第一实施方式中,评价标准设定部15基于模型获取部12过去获取的动作模型以及输入接收部14接收的针对每个动作模型输入的优劣判断结果来设定作为评价标准的阈值。
更加详细说明的话,评价标准设定部15确定过去获取的各动作模型与标准动作模型的差异度。“差异度”是将动作模型与标准动作模型的差异数值化(量化)的一种表述,例如,通过采用欧几里得距离或马氏距离等相似性测量方法进行确定。确定了差异度之后,评价标准设定部15以针对每个动作模型求得的与标准动作模型的差异度及接收的针对每个动作模型输入的优劣判断结果作为输入来实施深层学习(严格来讲为监督学习)。通过深层学习,设定作为判断操作X优劣时的标准值的阈值。
在第一实施方式中,评价标准设定部15通过上述步骤设定作为评价标准的阈值。进一步地,评价标准设定部15根据操作者P执行操作X的次数(操作实施次数)来设定对操作X中操作者P的动作模型的评价标准。具体说明的话,操作实施次数在N次(N为大于2的自然数)以上时,评价标准设定部15修改根据上述步骤设定的阈值。因此,在评价操作实施次数变为N次之后获取的动作模型时,基于修改后的阈值进行评价。此外,关于修改方法,并未特别限定,只要以修改后的阈值比修改前的阈值更小的方式修改即可。
信息获取部16获取测量传感器S测量的生物信息。模型预测部17基于信息获取部16获取的生物信息预测动作模型。在此,预测的动作模型为操作者P在其生物信息为通过信息获取部16获取的生物信息时执行操作X的情况下预测应获取的动作模型。
此外,模型预测部17在预测动作模型时,确定生物信息与动作模型的相关关系。具体说明的话,模型预测部17通过统计方法(例如,回归分析)确定信息获取部16过去获取的生物信息与在该测量时间点执行的操作X中的动作模型的相关关系。并且,在信息获取部16新获取了生物信息时,模型预测部17通过将该生物信息导入上述相关关系(具体而言为回归方程)来预测动作模型。
模型评价部18基于评价标准设定部15设定的评价标准来评价模型获取部12获取的动作模型。具体说明的话,在模型获取部12获取了作为评价对象的动作模型(以下为评价对象模型)之后,模型评价部18对比评价对象模型及标准动作模型并确定两个模型的差异度。之后,模型评价部18判断确定出的差异度与作为评价标准而设定的阈值的大小关系。并且,确定出的差异度低于阈值时,模型评价部18判断获取评价对象模型的操作X为良好。相反地,确定出的差异度高于阈值时,模型评价部18判断确定评价对象模型的操作X为不好。
另外,模型评价部18以与上述相同的要领对通过上述模型预测部17预测的模型进行评价。
评价结果输出部19通过输出机器10f将模型评价部18评价动作模型时的评价结果输出。具体说明的话,评价结果输出部19将评价结果显示在作为输出机器10f的显示器(未图示)上。此外,评价结果输出部19的评价结果的输出方法,并不限定于在显示器显示,也可以在扬声器或警报发生器产生与评价结果相对应的声音,也可以使发光机器以与评价结果相对应的颜色发光。
机器控制部20根据模型评价部18评价动作模型时的评价结果,控制传送带Q并调整传送带Q中货箱W的传送速度。具体说明的话,模型评价部18通过确定动作模型与标准动作模型的差异度是否在阈值以上,判断获取该动作模型的操作X的优劣之后,进一步评价上述差异度与阈值的差值。该差值在特定值以上时,机器控制部20控制传送带Q加快传送速度。
如上所述,在本实施方式中,动作模型与标准动作模型明显不同时,即,操作X中操作者P的动作与理想动作相差太大时,机器控制部20调整传送带Q的传送速度(使之加速)。据此,通过强制提高操作者P的操作速度,能够使操作者P的动作接近理想动作。
接下来,就第一实施方式中,以计算机10作为操作分析支援装置时的动作例进行说明。在分析者执行了启动操作分析支援程序的操作后,计算机10通过输入机器10e接收该启动操作从而作为操作分析支援装置发挥功能。也就是说,计算机10通过启动操作分析支援程序来发挥上述功能(具体而言为作为影像获取部11、模型获取部12、标准动作模型选择部13、输入接收部14、评价标准设定部15、信息获取部16、模型预测部17、模型评价部18、评价结果输出部19及机器控制部20的功能)。
并且,作为操作分析支援装置的计算机10为了评价操作X中操作者P的动作模型而执行一系列的信息处理。此时,计算机10根据本发明的操作分析支援方法,执行与动作模型评价相关的各种信息处理。即,本发明的操作分析支援方法通过作为操作分析支援装置的计算机10执行与动作模型评价相关的各种信息处理来实现。
就计算机10的信息处理进行详细说明的话,在操作分析支援程序启动之后,在未图示的指定画面中提示三个运行模式。在此,提示的三个运行模式为“学习模式”、“模型评价模式”及“预测模型评价模式”。分析者从提示的三个运行模式中指定一个模式。并且,作为操作分析支援装置的计算机10执行与指定的运行模式相对应的信息处理。以下,分别就各模式中的信息处理进行说明。此外,在以下的说明中,将操作X中操作者P的动作模型简单的称为“动作模型”。
“学习模式”被指定时,计算机10执行图5图示的评价标准设定流程。本处理为利用过去获取的多个动作模型、标准动作模型及针对每个动作模型接收的操作优劣的判断结果来实施深层学习,并用于设定作为评价标准的阈值的处理。
参照图5就评价标准设定流程进行说明的话,首先,计算机10从硬盘驱动器10c读取过去获取的动作模型(S001)。然后,计算机10确定前面步骤S011读取的动作模型与标准动作模型的差异度(S002)。此外,关于标准动作模型,在实施评价标准设定流程时,分析者决定作为标准动作模型的动作模型并通过输入机器10e执行特定的操作,然后计算机10接收该操作从而标准动作模型被选择。
然后,计算机10从硬盘驱动器10c读取对操作X的优劣判断的结果(S003),该操作X与在步骤S001读取的动作模型构成一组。对于过去获取的所有动作模型,重复上述步骤(S001-S003)(S004)。
之后,计算机10输入在步骤S002确定的每个动作模型的差异度及在步骤S003读取的每个动作模型的判断结果,实施深层学习(S005)。通过该深层学习来设定前述的阈值。进一步地,计算机10通过过去获取的动作模型的数量来确定操作X的实施次数,判断确定了的操作实施次数是否在N次以上(S006)。操作实施次数不满N次时,在前面步骤S005设定的阈值在后述的模型评价流程及预测模型评价流程中保持该值使用。
另一方面,操作实施次数为N次以上时,计算机10根据操作实施次数修改前面步骤S005设定的阈值(S007)。以此种方式修改阈值时,修改后的阈值在模型评价流程及预测模型评价流程中使用。
上述步骤全部完成时(换言之,阈值确定时)评价标准流程结束。
接下来,就“模型评价模式”进行说明。“模型评价模式”被指定时,计算机10执行图6图示的模型评价流程。本处理为用于评价计算机10新获取的动作模型的处理。具体说明的话,在第一实施方式涉及的模型评价流程中,以评价对象的动作模型(以下为评价对象模型)的内容为基础,判断(严格来讲为推算)获取该评价对象模型的操作X的优劣。
参照图6就模型评价流程进行说明的话,首先,计算机10解析从摄像机R新获取的操作X的拍摄影像,获取该操作X中的动作模型作为评价对象模型(S011)。然后,计算机10确定在前面步骤S011获取的评价对象模型与标准动作模型的差异度(S012)。
之后,计算机10读取已经在评价标准设定流程中设定的阈值(S013)。进而,计算机10基于在步骤S012确定的差异度及在步骤S013读取的阈值,判断获取评价对象模型的操作X的优劣(S014)。具体而言,确定差异度与阈值的大小关系,在差异度低于阈值时判断操作X为良好,在差异度高于阈值时判断操作X为不好。
判断结束后,计算机10将前面步骤S014中的判断结果显示在显示器上(S015)。然后,计算机10求出差异度与阈值的差值,并判断该差值是否在特定值之上(S016)。计算机10判断差值不满特定值时,模型评价流程在该时间点结束。另一方面,判断差值在特定值以上时,计算机10远程控制传送带Q,以提高传动带Q的传送速度的方式调整该传送速度(S017)。该调整结束时,模型评价流程在该时间点结束。
接下来,就“预测模型评价模式”进行说明。“预测模型评价模式”被指定时,计算机10执行图7图示的预测模型评价流程。本处理从测量传感器S获取操作者P的生物信息,从获取的生物信息预测动作模型,并用于评价预测的动作模型(以下为预测模型)的处理。此外,在第一实施方式涉及的预测模型评价流程中,对假设将来应获取预测模型的操作X(即,处于实施前或实施中间阶段的操作X),判断其优劣。
参照图7就预测模型评价流程进行说明。首先,计算机10从测量传感器S获取操作者P的生物信息(S021)。之后,计算机10以在前面步骤S021获取的生物信息为基础来预测动作模型(S022)。此外,动作模型的预测方法如前所述,具体而言,基于生物信息与动作模型的相关关系进行预测。
之后,计算机10确定预测模型与标准动作模型的差异度(S023)。之后的步骤(S024-S028)与前述的模型评价流程中的步骤S013-S017相同,因而省略说明。并且,通过以上述步骤执行预测模型评价流程,假设执行将来应获取预测模型的操作X的情况,预测与关于其优劣的判断结果并显示在显示器上。另外,在预测模型评价流程中,也与模型评价流程相同,在预测模型与标准动作模型相差太大时,提高传送带Q的传送速度。
以上就本发明的第一实施方式进行了说明,在本实施方式中,使用过去获取的操作者P的动作模型及接收的针对每个动作模型输入的操作X的优劣的判断结果进行学习。另外,在第一实施方式中,通过学习来设定动作模型的评价标准(具体而言为阈值),基于设定的评价标准评价动作模型,具体而言为判断获取该动作模型的操作X的优劣。这样,在第一实施方式中,在了解动作模型与操作X的优劣判断的结果之间的关系(趋势)之后,能够根据该关系判断获取评价对象的动作模型的操作X的优劣。
另外,在第一实施方式中,在设定评价标准时,根据到目前为止操作者P执行的操作X的次数(操作实施次数)来设定。具体而言,操作实施次数为N次以上时,修改作为评价标准的阈值。据此,在设定评价标准时,在该评价标准反映操作实施次数,换言之,反映操作者P对操作X的熟练程度。结果,在对评价对象模型进行评价时,能够考虑操作者P的熟练程度来进行评价。
此外,在第一实施方式中,采用操作实施次数作为熟练程度的指标,但是并不限定于此,只要适合作为表示熟练程度的指标,也可以使用其他目标。另外,在第一实施方式中,将熟练程度分为两个阶段,与之相对应的,也设定了两个评价标准作为评价标准(具体而言,修改前的阈值及修改后的阈值)。但是,并不限定于此,也可以将熟练程度分为三个或三个以上阶段,同时设定与之相同数量的评价标准。
进一步地,在第一实施方式中,从测量传感器S的测量结果(严格来讲为生物信息)预测动作模型,基于上述评价标准来评价预测的动作模型,具体而言为,假设执行获取预测模型的操作X的情况,预测判断将来的操作X的优劣。据此,能够推断还未获取动作模型的操作X(也就是说,实施前或实施过程中的操作X)的优劣。
第二实施方式。
接下来,就第二实施方式进行说明。在第二实施方式中,作为操作分析支援装置的计算机10是与第一实施方式涉及的计算机10相同的构成,具有与第一实施方式中的功能大致相同的功能。在以下的说明中,以第二实施方式中与第一实施方式不同的内容为中心进行说明。
第二实施方式涉及的计算机10与第一实施方式相同,具有影像获取部11、模型获取部12、标准动作模型选择部13、输入接收部14、评价标准设定部15、信息获取部16、模型预测部17、模型评价部18、评价结果输出部19及机器控制部20。其中,影像获取部11、模型获取部12、标准动作模型选择部13、信息获取部16、模型预测部17、评价结果输出部19及机器控制部20与第一实施方式相同。
另一方面,在第二实施方式中,评价标准设定部15设定作为对动作模型的评价标准的评分规则,模型评价部18作为对动作模型的评价,实施动作模型得分的计算。具体说明的话,输入接收部14接收分析者的规则决定事项的输入后,评价标准设定部15以该规则决定事项为基础来设定评分规则。此时,评价标准设定部15根据操作实施次数设定评分规则。
更加详细说明的话,评价标准设定部15分别设定操作实施次数不满N次时适用的评分规则(以下为一般规则)及操作实施次数在N次以上时适用的评分规则(以下为熟练者用规则)。在此,熟练者用规则是比一般规则更严格的规则,例如,是扣分程度更大的规则。
模型评价部18确定评价对象的动作模型(评价对象模型)与标准动作模型的差异度,通过将确定的差异度用于上述评分规则来计算评价对象模型的得分。另外,在第二实施方式中,模型评价部18同样根据与上述相同的要领计算模型预测部17预测的模型。
接下来,就第二实施方式中以计算机10作为操作分析支援装置进行动作时的动作例进行说明。在第二实施方式中,与第一实施方式相同,分析者执行启动操作分析支援程序的操作后,以此为触发器,计算机10作为操作分析支援装置发挥功能。进而,计算机10为了评价操作X中操作者P的动作模型而进行一系列的信息处理。此时,计算机10根据本发明的操作分析支援方法来进行与动作模型评价相关的各种信息处理。
具体说明的话,在第二实施方式中,启动操作分析支援程序后,在未图示的指定画面中提示两种运行模式,具体而言为“模型评价模式”及“预测模型评价模式”。进而,分析者指定提示的两种运行模式中的一个模式的话,作为操作分析支援装置的计算机10进行与指定的运行模式相对应的信息处理。以下,就各模式中的信息处理进行说明。此外,在以下的说明中,简单地将操作X中操作者P的动作模型称为“动作模型”。
具体说明的话,“模型评价模式”被指定时,计算机10执行图8图示的模型评价流程。本处理为,作为对评价对象的动作模型的评价,计算机10计算该动作模型的得分的处理。
参照图8就第二实施方式涉及的模型评价流程进行说明的话,首先,计算机10解析从摄像机R新获取的拍摄影像,获取该操作X中的动作模型作为评价对象模型(S031)。然后,计算机10确定在前面步骤S031获取的评价对象模型与标准动作模型的差异度(S032)。之后,计算机10读取已经设定的两个评分规则(S033)。然后,计算机10从保存在硬盘驱动器10c的动作模型的数量确定操作实施次数,判断操作实施次数是否在N次以上(S034)。
进而,判断操作实施次数不满N次时,计算机10适用步骤S033读取的两个评分规则中的一般规则来计算评价对象模型的得分(S035)。另一方面,判断操作实施次数为N次以上时,计算机10适用上述两个评分规则中的熟练者规则来计算评价对象模型的得分(S036)。得分计算结束后,计算机10将计算出的得分显示在显示器上(S037)。进而,第二实施方式涉及的模型评价流程在得分显示完成的时间点结束。
接下来,就“预测模型评价模式”进行说明。“预测模型评价模式”被指定时,计算机10执行图9图示的预测模型评价流程。本处理为,从测量传感器S获取操作者P的生物信息,从获取的生物信息获取动作模型,用于计算该预测模型的得分的处理。
参照图9就第二实施方式涉及的预测模型评价流程进行说明的话,首先,计算机10从测量传感器S获取操作者P的生物信息(S041)。之后,计算机10以在前面步骤S041获取的生物信息为基础来预测动作模型(S042)。预测模型后,计算机10确定预测模型与标准动作模型的差异度(S043)。后面的步骤(S044-S048)与前述的第二实施方式涉及的模型评价流程中的步骤S033-S037相同,因此省略说明。进而,根据上述步骤执行第二实施方式涉及的预测模型评价流程的话,最终,对预测模型得分的计算结果显示在显示器上。
以上就本发明的第二实施方式进行了说明,在本实施方式中,根据作为评价标准的评分规则来计算评价对象的动作模型的得分。具体而言,确定评价对象模型与标准动作模型的差异度,通过将确定的差异度适用于上述评分规则来计算得分。这样,在第二实施方式中,对动作模型的评价结果以数值(得分)展现。据此,操作者P通过数值(得分)确认对自己动作的评价,能够从该确认结果获得重新认识自己动作的机会。
另外,在第二实施方式中也与第一实施方式同样,在设定评价标准时,根据到目前为止操作者P执行操作X的次数(操作实施次数)进行设定。具体而言,准备两个不同的评分规则,根据操作实施次数分别使用评分规则。据此,在计算对评价对象模型的得分时,能够考虑操作者P的熟练程度进行计算。
进一步地,在第二实施方式中也与第一实施方式同样,从测量传感器S的测量结果(严格来讲为生物信息)预测动作模型,根据上述评分规则计算预测的动作模型的得分。据此,对于实施前或实施过程中的操作X,从操作者P的生物信息预测动作模型,进一步地,能够在操作实施前的阶段得到该动作模型的评价结果(具体而言为得分)。
其他实施方式。
在上述实施方式中,举出一个例子就本发明的计算机程序、操作分析支援方法及操作分析支援装置进行了说明。但是,上述实施方式仅是为了使本发明的理解比较容易的一个例子,并非限定本发明。即,本发明不脱离其主旨,变更、改良的同时,本发明包含其等价物是毋庸置疑的。
在上述实施方式中,一台计算机10实现了其作为操作分析支援装置的所有功能,但是并不限定于此,也可以是多台计算机协作来构成操作分析支援装置。另外,在上述实施方式中,将动作模型以及用于评价动作模型所需的各种必要信息(例如,分析者输入的、对操作X优劣的判断结果)存储于计算机10的硬盘驱动器10c。但是并不限定于此,也可以是将动作模型等保存在外部服务器(例如,用于提供云服务的服务器计算机),作为操作分析支援装置的计算机10根据需要从上述外部服务器读取的构成。
另外,在上述实施方式(具体而言为第一实施方式)中,设定对动作模型的评价标准后,使用过去获取的动作模型及接收的针对每个动作模型输入的操作X的优劣判断的结果来进行深层学习。即,在上述实施方式中,以监督学习作为深层学习来进行。但是并不限定于此,也可以以无监督学习作为用于设定上述评价标准的学习来进行。
另外,在上述实施方式中,在预测动作模型时,获取测量传感器S测量的操作者P的生物信息。但是,并不限定于此,也可以获取生物信息之外的状态信息(测量操作者P执行操作X时的状态时的信息),例如,也可以通过由加速传感器构成测量传感器S来测量操作者P的倾斜及姿势,并获取表示该测量结果的信息。
另外,除了状态信息之外,也可以一同获取状态信息及环境信息。环境信息为与操作者P执行操作X时的操作环境相关并且能够测量的信息,具体而言,包括气温及湿度、噪音等级、发光强度、是否存在与操作者P一同进行操作的人及人数等。并且,也可以基于获取的环境信息来预测动作模型。
另外,在上述实施方式中,通过解析操作X的拍摄影像来获取该操作X的动作模型,但是并不限定于此。例如,给操作者P安装运动传感器,获取操作X中运动传感器的测量结果随时间的变化作为动作模型。
另外,在上述实施方式中,举出以一个操作者P执行的操作作为分析对象的例子进行了说明,但是并不限定于此。本发明同样适用以多个操作者执行的操作(例如,操作者P与其他操作者协作来执行的操作)为分析对象的情况。在该种情况下,除了对各操作者分别获取动作模型并分别评价各操作者的动作模型之外,也可以将各操作者的动作模型集中于一个动作模型之后,通过进行综合评价,来评价操作者之间的协作性及作为操作整体的成果。
符号说明
10 计算机
10a CPU
10b 存储卡
10c 硬盘驱动器
10d I/O端口
10e 输入机器
10f 输出机器
11 影像获取部
12 模型获取部
13 标准动作模型选择部
14 输入接收部
15 评价标准设定部
16 信息获取部
17 模型预测部
18 模型评价部
19 评价结果输出部
20 机器控制部
P 操作者
Q 传送带
R 摄像机
S 测量传感器
W 货箱

Claims (7)

1.一种操作分析支援装置,其特征在于:
具有模型获取部、评价标准设定部及模型评价部;
该模型获取部获取操作者执行操作时的动作模型;
该评价标准设定部设定针对所述动作模型的评价标准;
该模型评价部基于所述评价标准来评价所述动作模型;
所述评价标准设定部根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准;
进一步具有输入接收部,该输入接收部接收关于获取所述动作模型的操作优劣的判断结果的输入;
所述输入接收部针对所述模型获取部获取的每个所述动作模型,接收所述判断结果的输入;
所述评价标准设定部通过使用过去获取的所述动作模型及接收的针对每个该动作模型输入的所述判断结果来进行学习从而设定所述评价标准;
所述模型评价部基于所述评价标准,判断获取所述动作模型的操作的优劣,来作为对所述动作模型的评价。
2.根据权利要求1记载的操作分析支援装置,其特征在于:
所述模型获取部解析显示操作者执行操作时的样子的影像从而获取所述动作模型。
3.根据权利要求1或2记载的操作分析支援装置,其特征在于:
所述模型评价部基于所述评价标准实施对所述动作模型的得分的计算来作为对所述动作模型的评价。
4.根据权利要求1或2记载的操作分析支援装置,其特征在于:
所述模型评价部确定所述动作模型与标准动作模型的差异度,基于该差异度及所述评价标准来评价所述动作模型。
5.根据权利要求1或2记载的操作分析支援装置,其特征在于:
具有信息获取部及模型预测部;
该信息获取部获取以下两种信息中的至少一种信息:测量操作者执行操作时的状态的状态信息,以及与操作者执行操作的环境相关的环境信息;
该模型预测部基于该信息获取部获取的信息预测所述动作模型;
所述模型评价部基于所述评价标准评价通过所述模型预测部预测的所述动作模型。
6.一种操作分析支援方法,其特征在于:
具有如下步骤:
计算机获取操作者执行操作时的动作模型;
计算机设定针对所述动作模型的评价标准;
计算机基于所述评价标准来评价所述动作模型;
所述计算机根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准;
计算机进一步具有输入接收步骤,该输入接收步骤接收关于获取所述动作模型的操作优劣的判断结果的输入;
计算机针对获取的每个所述动作模型,接收所述判断结果的输入;
通过使用过去获取的所述动作模型及接收的针对每个该动作模型输入的所述判断结果来进行学习从而设定所述评价标准;
基于所述评价标准,判断获取所述动作模型的操作的优劣,来作为对所述动作模型的评价。
7.一种计算机可读取的信息存储媒介,其特征在于:
存储以所述计算机作为操作分析支援装置并用于使之发挥功能的计算机程序,该操作分析支援装置具有:
获取操作者执行操作时的动作模型的模型获取部、设定针对所述动作模型的评价标准的评价标准设定部以及基于所述评价标准来评价所述动作模型的模型评价部;
该计算机程序为如下程序:
用于使作为所述评价标准设定部发挥功能的所述计算机根据某个操作者执行某项操作的次数来设定针对所述某个操作者执行所述某项操作时的所述动作模型的所述评价标准;
使所述计算机作为所述操作分析支援装置发挥功能,该操作分析支援装置进一步具有输入接收部,该输入接收部接收关于获取所述动作模型的操作优劣的判断结果的输入;
使作为所述输入接收部发挥功能的所述计算机针对所述模型获取部获取的每个所述动作模型,接收所述判断结果的输入;
使作为评价标准设定部发挥功能的所述计算机通过使用过去获取的所述动作模型及接收的针对每个该动作模型输入的所述判断结果来进行学习从而设定所述评价标准;
使作为所述模型评价部发挥功能的所述计算机基于所述评价标准,判断获取所述动作模型的操作的优劣,来作为对所述动作模型的评价。
CN201780010122.0A 2016-02-22 2017-01-26 操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介 Active CN108713177B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-030854 2016-02-22
JP2016030854A JP6666744B2 (ja) 2016-02-22 2016-02-22 コンピュータプログラム、作業分析支援方法及び作業分析支援装置
PCT/JP2017/002675 WO2017145628A1 (ja) 2016-02-22 2017-01-26 作業分析支援装置、作業分析支援方法、コンピュータプログラム、及び情報記憶媒体

Publications (2)

Publication Number Publication Date
CN108713177A CN108713177A (zh) 2018-10-26
CN108713177B true CN108713177B (zh) 2021-05-07

Family

ID=59686503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780010122.0A Active CN108713177B (zh) 2016-02-22 2017-01-26 操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介

Country Status (8)

Country Link
US (1) US11068831B2 (zh)
EP (1) EP3422127B1 (zh)
JP (1) JP6666744B2 (zh)
KR (1) KR102265241B1 (zh)
CN (1) CN108713177B (zh)
CA (1) CA3015311C (zh)
PH (1) PH12018501780A1 (zh)
WO (1) WO2017145628A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6965679B2 (ja) * 2017-10-12 2021-11-10 富士通株式会社 作業支援システム、作業支援方法及び作業支援プログラム
JP2019200560A (ja) 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 作業分析装置および作業分析方法
JP7070252B2 (ja) * 2018-08-31 2022-05-18 オムロン株式会社 パフォーマンス計測装置、パフォーマンス計測方法及びパフォーマンス計測プログラム
JP7070253B2 (ja) * 2018-08-31 2022-05-18 オムロン株式会社 パフォーマンス計測装置、パフォーマンス計測方法及びパフォーマンス計測プログラム
JP2020135608A (ja) * 2019-02-22 2020-08-31 日本電信電話株式会社 情報処理装置および方法
JP2021131806A (ja) * 2020-02-21 2021-09-09 オムロン株式会社 行動解析装置及び行動解析方法
WO2021261905A1 (ko) * 2020-06-24 2021-12-30 (주) 넥스트랩 영상 분석 기반 작업 동작 인식 및 생산량 측정 장치와 그 방법
JP7335044B2 (ja) * 2021-06-07 2023-08-29 Necフィールディング株式会社 作業スキル判定システム、作業スキル判定方法、及び作業スキル判定プログラム
WO2023152825A1 (ja) * 2022-02-09 2023-08-17 日本電気株式会社 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体
WO2023152893A1 (ja) * 2022-02-10 2023-08-17 日本電気株式会社 管理装置、管理システム、管理方法及びプログラム
JP7224561B1 (ja) * 2022-07-07 2023-02-17 三菱電機株式会社 コンベア制御装置、生産システム、及びコンベア制御プログラム
CN116277069B (zh) * 2023-04-24 2023-10-31 东莞全职数控科技有限公司 一种用于机器人运动控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180162A (ja) * 1998-12-11 2000-06-30 Hitachi Plant Eng & Constr Co Ltd 作業分析装置
JP2003058231A (ja) * 2001-08-21 2003-02-28 Sharp Corp 工程管理装置
CN1501563A (zh) * 2002-11-18 2004-06-02 株式会社日立制作所 操作支援系统和操作支援计算机程序
JP2005346274A (ja) * 2004-06-01 2005-12-15 Olympus Corp 組立作業支援装置、その方法,プログラム
JP2015228123A (ja) * 2014-05-30 2015-12-17 富士電機株式会社 作業分析システム、作業分析方法、及び作業分析プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0446749A (ja) * 1990-06-13 1992-02-17 Joho Syst Kenkyusho:Kk 作業実績管理方法
JP2000354943A (ja) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> 作業管理・支援方法、その装置及びそのプログラムを記録した記録媒体
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
JP2004310210A (ja) * 2003-04-02 2004-11-04 Nissan Motor Co Ltd 作業支援システム
JP2005250990A (ja) * 2004-03-05 2005-09-15 Mitsubishi Electric Corp 作業支援装置
JP2006171184A (ja) * 2004-12-14 2006-06-29 Toshiba Corp 技能評価システムおよび技能評価方法
US20060193262A1 (en) * 2005-02-25 2006-08-31 Mcsheffrey Brendan T Collecting and managing data at a construction site
WO2008043049A2 (en) * 2006-10-04 2008-04-10 Marine Imaging Systems S.A. System and method for measuring and reporting productivity
JP5057166B2 (ja) * 2008-10-30 2012-10-24 アイシン・エィ・ダブリュ株式会社 安全運転評価システム及び安全運転評価プログラム
US20110208558A1 (en) * 2008-11-05 2011-08-25 Honda Motor Co., Ltd. Method for smoothing workload and support system for smoothing workload
KR101081643B1 (ko) * 2008-11-10 2011-11-09 성균관대학교산학협력단 관절과 근육 이상 진단 시스템 및 관절과 근육 이상 진단 방법
US9143843B2 (en) * 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US9529348B2 (en) * 2012-01-24 2016-12-27 Emerson Process Management Power & Water Solutions, Inc. Method and apparatus for deploying industrial plant simulators using cloud computing technologies
EP2902984A4 (en) * 2012-09-26 2016-07-13 Kubota Kk FLOOR WORKING VEHICLE, MANAGEMENT SYSTEM FOR THE FLOOR WORKING VEHICLE AND METHOD FOR DISPLAYING FLOOR WORKING INFORMATION
CN103026973B (zh) * 2012-11-30 2018-08-07 中国航天员科研训练中心 奖赏性操作条件反射实时检测分析处理装置
CN103034130B (zh) * 2013-01-09 2015-07-01 武安市新峰水泥有限责任公司 水泥在线模拟系统及其实现方法
US9251598B2 (en) * 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
JP6402469B2 (ja) 2014-04-04 2018-10-10 富士電機株式会社 安全制御装置および安全制御システム
US9256944B2 (en) * 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
WO2016100554A1 (en) * 2014-12-16 2016-06-23 Rhumbix, Inc. Systems and methods for optimizing project efficiency
US20160306172A1 (en) * 2015-04-20 2016-10-20 NSF International Computer-implemented techniques for remotely interacting with performance of food quality, food safety, and workplace safety tasks
US10325485B1 (en) * 2018-09-11 2019-06-18 Rockwell Automation Technologies, Inc. System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180162A (ja) * 1998-12-11 2000-06-30 Hitachi Plant Eng & Constr Co Ltd 作業分析装置
JP2003058231A (ja) * 2001-08-21 2003-02-28 Sharp Corp 工程管理装置
CN1501563A (zh) * 2002-11-18 2004-06-02 株式会社日立制作所 操作支援系统和操作支援计算机程序
JP2005346274A (ja) * 2004-06-01 2005-12-15 Olympus Corp 組立作業支援装置、その方法,プログラム
JP2015228123A (ja) * 2014-05-30 2015-12-17 富士電機株式会社 作業分析システム、作業分析方法、及び作業分析プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
human motion analysis using 3d range imaging technology;RAY GONSALVES ET AL;《2009 INTERNATIONAL SYMPOSIUM ON AUTOMATION AND ROBOTICS IN CONSTRUCTION》;20090627;第76-85页 *
Wearable Activity Tracking in Car Manufacturing;THOMAS STIEFMEIER ET AL;《IEEE PERVASIVE COMPUTING》;20080411;第7卷(第2期);第42-50页 *

Also Published As

Publication number Publication date
JP2017151520A (ja) 2017-08-31
US20200293972A1 (en) 2020-09-17
PH12018501780A1 (en) 2019-06-17
EP3422127A4 (en) 2019-01-30
EP3422127A1 (en) 2019-01-02
JP6666744B2 (ja) 2020-03-18
KR20180119608A (ko) 2018-11-02
CA3015311A1 (en) 2017-08-31
WO2017145628A1 (ja) 2017-08-31
KR102265241B1 (ko) 2021-06-14
CA3015311C (en) 2020-09-22
US11068831B2 (en) 2021-07-20
CN108713177A (zh) 2018-10-26
EP3422127B1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
CN108713177B (zh) 操作分析支援装置、操作分析支援方法、计算机程序及信息存储媒介
US9619035B2 (en) Gesture detection and recognition
Nguyen et al. Weakly supervised action localization by sparse temporal pooling network
CN110832499B (zh) 通过稀疏时间池化网络的弱监督动作定位
JP6333844B2 (ja) 機械学習用リソース割り当て
US11960988B2 (en) Learning method, corresponding system, device and computer program product to update classifier model parameters of a classification device
CN113015984A (zh) 卷积神经网络中的错误校正
US20200349668A1 (en) Predictive classification of insects
JP2021089731A (ja) クラス分類器を訓練するための装置および方法
KR102206181B1 (ko) 단말기 및 그의 동작 방법
US20230195303A1 (en) Electronic device and control method thereof
CN114386614A (zh) 用于训练机器学习系统的方法和装置
CN113986561B (zh) 人工智能任务处理方法、装置、电子设备及可读存储介质
EP3696771A1 (en) System for processing an input instance, method, and medium
US20230004826A1 (en) Device and method for classifying a signal and/or for performing regression analysis on a signal
JPWO2020152848A1 (ja) 認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム
CN114386449A (zh) 用于借助于机器学习系统来确定输出信号的方法
US20220019944A1 (en) System and method for identifying and mitigating ambiguous data in machine learning architectures
US20220101128A1 (en) Device and method for training a classifier using an invertible factorization model
US20220284289A1 (en) Method for determining an output signal by means of a neural network
EP4258177A1 (en) Method for initializing a neural network
CA3237746A1 (en) Methods and systems for grading devices
EP3690760A1 (en) Device and method to improve the robustness against &#34;adversarial examples&#34;
JP2022056402A (ja) 可逆的な因子分解モデルを使用して入力信号を分類するための装置及び方法
KR20230175128A (ko) 기계 학습 시스템의 적대적 섭동들을 결정하기 위한 디바이스 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1261414

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant