CN117441189A - 作业分析装置以及方法 - Google Patents

作业分析装置以及方法 Download PDF

Info

Publication number
CN117441189A
CN117441189A CN202280040369.8A CN202280040369A CN117441189A CN 117441189 A CN117441189 A CN 117441189A CN 202280040369 A CN202280040369 A CN 202280040369A CN 117441189 A CN117441189 A CN 117441189A
Authority
CN
China
Prior art keywords
job
operators
work
control unit
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280040369.8A
Other languages
English (en)
Inventor
宫田淳司
秦秀彦
一力知一
市村大治郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN117441189A publication Critical patent/CN117441189A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及作业分析装置以及方法,生成与在作业场所进行多个作业的多个作业者有关的信息。作业分析装置具备:取得部,取得表示拍摄了作业场所的图像的图像数据;控制部,基于图像数据,生成表示多个作业者中的单独的作业者在作业场所进行的作业的作业历史信息;存储部,保存作业历史信息。控制部基于作业场所中的每个时刻的图像数据,依次识别多个作业者的位置以及作业,检测包括多个作业者的每个时刻的位置的多个动线之间的混线,在未检测到混线时,基于多个动线,将在各时刻识别出的作业与单独的作业者建立对应来生成作业历史信息,在检测到混线时,基于识别出的作业和过去的作业历史信息,将该识别出的作业与单独的作业者建立对应。

Description

作业分析装置以及方法
技术领域
本公开涉及作业分析装置以及方法。
背景技术
专利文献1公开了一种确定人物并追踪该人物的移动的影像监视系统。影像监视系统检测由多个摄像装置中的任一个拍摄到的图像中映现的人物以及放置物,确定放置了放置物的对象人物。影像监视系统从各摄像装置的图像中,基于对象人物的脸部特征量以及衣着的颜色和形状等衣着特征量,搜索映现了对象人物的图像。影像监视系统基于拍摄到映现了对象人物的图像的摄像装置以及摄像时刻,将表示对象人物的移动的显示进行画面输出。
在先技术文献
专利文献
专利文献1:国际公开第2018/198373号
发明内容
发明所要解决的课题
本公开提供一种作业分析装置,在由多个作业者进行多个作业时,能够推定各作业的作业者。
用于解决课题的手段
本公开的一方式所涉及的作业分析装置生成与在作业场所进行多个作业的多个作业者有关的信息。作业分析装置具备取得部、控制部以及存储部。取得部取得表示拍摄了作业场所的图像的图像数据。控制部基于图像数据,生成表示多个作业者中的单独的作业者在作业场所进行的作业的作业历史信息。存储部保存作业历史信息。控制部基于作业场所中的每个时刻的图像数据,依次识别多个作业者的位置以及作业。控制部检测包括多个作业者的每个时刻的位置的多个动线之间的混线。控制部在未检测到混线时,基于多个动线,将在各时刻识别出的作业与单独的作业者建立对应来生成作业历史信息。控制部在检测到混线时,基于识别出的作业和过去的作业历史信息,将该识别出的作业与单独的作业者建立对应。
这些概括性且特定的方式也可以通过系统、方法和计算机程序、以及它们的组合来实现。
发明效果
根据本公开的作业分析装置以及方法,在由多个作业者进行多个作业时,能够推定各作业的作业者。
附图说明
图1是表示实施方式1所涉及的作业分析系统的概要的图。
图2是例示作业分析系统中的作业分析装置的结构的框图。
图3是用于说明作业分析装置中的地图数据的图。
图4是用于说明作业分析装置中的作业顺序信息的图。
图5是用于说明与作业分析装置有关的课题的第一事例的图。
图6是用于说明与作业分析装置有关的课题的第二事例的图。
图7是用于说明作业分析装置的整体动作的流程图。
图8是例示实施方式1的作业分析装置中的作业者判别处理的流程图。
图9是用于说明作业者判别处理中的作业组合的图。
图10是用于说明实施方式2的作业分析装置中的作业计划信息的图。
图11是例示实施方式2的作业者判别处理的流程图。
图12是用于说明实施方式2的作业者判别处理的图。
图13是用于说明实施方式2的作业者判别处理中的作业组合的图。
具体实施方式
以下,适当参照附图对实施方式进行详细说明。不过,有时省略必要以上的详细说明。例如,有时省略已经熟知的事项的详细说明、对实质上相同的结构的重复说明。这是为了避免以下的说明不必要地变得冗余,使本领域技术人员容易理解。另外,发明人(等)为了使本领域技术人员充分理解本公开而提供附图以及以下的说明,并非意图通过它们来限定专利请求的范围所记载的主题。
(实施方式1)
1.结构
使用图1对实施方式1所涉及的作业分析系统进行说明。图1是表示本实施方式所涉及的作业分析系统1的概要的图。
1-1.系统的概要
如图1所示,本系统1具备相机2和作业分析装置5。本系统1在物流仓库等的作业场所6中应用于分析进行多个作业的作业者W1、W2以及W3的效率等的用途。以下,也将作业者W1~W3称为作业者W。本系统1例如也可以具备用于向作业场所6的管理者或者分析负责人这样的用户3提示与给定的分析期间有关的分析图表7的监视器4。分析期间在本系统1中是基于使用了相机2的图像识别等的分析对象的期间,例如预先设定为一天到几个月等。
在图1的例子中,在作业场所6设置搬运线61和架子62。在本例中,各作业者W1~W3一边在作业场所6移动一边进行的多个作业包括从架子62取出商品的“提货”、在搬运线61中将商品装入箱子中而输送的“装箱”、以及准备该箱子的“准备箱子”。
本系统1的分析图表7例如通过将各作业根据该作业的附加价值的大小分类为“主作业”、“副作业”以及“非作业”的项目,按作业者W1~W3示出分析期间中的各项目的比率。在图1的例子中,装箱为主作业,与主作业关联的提货、准备箱子这样的辅助作业、以及朝向搬运线61或者架子62的移动等是副作业。与主作业无关的等待状态等被分类为非作业。这样,作业分析装置5中的分析对象的作业并不局限于主作业以及副作业,也包括非作业。
根据这样的本实施方式所涉及的作业分析系统1,通过提示分析图表7,用户3能够例如为了研究作业场所6的业务效率化而分析各作业者W1~W3的作业内容。
本系统1的相机2例如被配置为映现出在作业场所6中作业者W1~W3移动的整个范围。相机2例如在作业场所6中以给定的周期反复进行摄像动作,生成表示摄像图像的图像数据。相机2例如与作业分析装置5连接,使得向作业分析装置5发送图像数据。另外,在图1中例示了一个相机2,但本系统1所包括的相机2并不局限于一个相机,也可以是两个以上的相机。
作业分析装置5例如由服务器装置等信息处理装置构成。作业分析装置5例如与包括监视器4的PC等外部的信息处理装置可通信地连接。使用图2对作业分析装置5的结构进行说明。
1-2.作业分析装置的结构
图2是例示作业分析装置5的结构的框图。图2所例示的作业分析装置5具备控制部50、存储部52、操作部53、设备接口54以及输出接口55。以下,将接口简记为“I/F”。
控制部50例如包括与软件协作而实现给定的功能的CPU或者MPU,控制作业分析装置5的整体动作。控制部50读出保存于存储部52的数据以及程序并进行各种运算处理,实现各种功能。例如,控制部50具备图像识别部51作为功能性结构。
图像识别部51通过对图像数据应用各种图像识别技术,在图像数据表示的图像中,识别预先设定的处理对象的位置,输出识别结果。在本实施方式的图像识别部51中,例如将作业者W这样的人物设定为处理对象。识别结果例如也可以包括表示识别出处理对象的位置的时刻的信息。图像识别部51例如进行基于卷积神经网络等神经网络的学习完毕模型的图像识别处理。图像识别处理也可以通过各种图像识别算法来进行。
控制部50例如执行包括用于实现作业分析装置5的功能的命令群的程序。上述的程序可以由因特网等通信网络提供,也可以保存在具有可移动性的记录介质中。此外,控制部50也可以具备内部存储器作为保持各种数据以及程序的暂时的存储区域。
另外,控制部50也可以是被设计为实现给定的功能的专用的电子电路或者能够重构的电子电路等硬件电路。控制部50也可以由CPU、MPU、GPU、GPGPU、TPU、微型计算机、DSP、FPGA以及ASIC等各种半导体集成电路构成。
存储部52是存储为了实现作业分析装置5的功能所需的程序以及数据的存储介质。存储部52例如由硬盘驱动器(HDD)或者半导体存储装置(SSD)构成。例如,存储部52保存上述程序以及动线数据D0、地图数据D1、作业顺序信息D2以及认证信息D3等各种信息。
动线数据D0表示在作业场所6中移动的作业者W的动线。动线数据D0例如基于将从相机2取得的图像数据输入到图像识别部51而得到的识别结果而生成。地图数据D1在给定的坐标系中表示作业场所6中的搬运线61以及架子62这样的各种设备的配置。作业顺序信息D2是表示作业的组合中的时间上的执行顺序的信息。认证信息D3是识别各作业者W1~W3这样的个人的信息。关于各信息的详细情况在后面叙述。
存储部52例如可以具备由DRAM或者SRAM构成的暂时的存储元件,也可以作为控制部50的作业区域发挥功能。例如,存储部52也可以暂时存储从相机2接收到的图像数据以及图像识别部51的识别结果等。
操作部53是接受用户的操作的操作构件的总称。操作部53例如由键盘、鼠标、触控板、触摸板、按钮以及开关等中的任意一个或者它们的组合构成。操作部53取得通过用户的操作而输入的各信息。
设备I/F54是用于将相机2那样的外部设备连接于作业分析装置5的电路。设备I/F54按照给定的通信标准进行通信。给定的标准包括USB、HDMI(注册商标)、IEEE1395、IEEE802.11、Bluetooth(注册商标)等。设备I/F54是在作业分析装置5中从外部设备接收各信息的取得部的一例。在作业分析系统1中,作业分析装置5例如经由设备I/F54取得表示相机2拍摄到的动态图像的图像数据。
输出I/F55是用于输出信息的电路。输出I/F55例如依照HDMI标准等,向用于显示各种信息的监视器以及投影仪等外置的显示设备输出影像信号等。
以上那样的作业分析装置5的结构是一例,作业分析装置5的结构并不局限于此。作业分析装置5也可以由包括PC(个人计算机)的各种计算机构成。作业分析装置5也可以除了输出I/F55以外还具备或者取而代之具备例如由液晶显示器或者有机EL显示器构成的显示部来作为内置的显示设备。此外,本实施方式的作业分析方法也可以在分布式计算中执行。
此外,作业分析装置5也可以除了上述的结构以外还具有或者取而代之具有经由通信网络与外部的信息处理装置进行通信的结构。例如,操作部53也可以是接受经由通信网络连接的外部的信息处理装置的操作的结构。此外,输出I/F55也可以经由通信网络向外部的信息处理装置发送各种信息。
此外,作业分析装置5中的取得部也可以通过与控制部50等中的各种软件的协作来实现。作业分析装置5中的取得部也可以通过将保存于各种存储介质(例如存储部52)的各信息读出到控制部50的作业区域来进行各信息的取得。
1-3.关于各种数据结构
本实施方式的作业分析装置5如以上那样将动线数据D0、地图数据D1、作业顺序信息D2以及认证信息D3保存于存储部52。以下,说明各种数据D0~D3等的构造的一例。
动线数据D0例如将时刻、识别作业者W的动线的动线ID、以及由图像识别部51在该时刻识别出的作业场所6中的作业者W的位置关联起来进行管理。动线数据D0例如将基于作业者W的每个时刻的位置的动线与地图数据D1建立对应。
图3是用于说明地图数据D1的图。地图数据D1例如将后述的分区以及作业区域的配置,与表示从上方俯瞰作业场所6的各种设备的布局这样的地图的坐标系的数据关联起来进行管理。以下,将在作业场所6的水平面上相互正交的两个方向称为X方向以及Y方向。作业场所6中的位置例如由表示X方向上的位置的X坐标和表示Y方向上的位置的Y坐标来规定。
在图3的地图数据D1中,与图1所示的作业场所6对应地示出了在X方向上隔开间隔地配置的搬运线61以及架子62。在图3的例子中,搬运线61在Y方向上延伸,在从Y方向的正朝向负的方向上搬运箱子。本例的地图数据D1将作业场所6在Y方向上划分为多个分区来进行管理。图3表示作业场所6被划分为分区Z1和分区Z2的例子。各分区Z1、Z2例如被预先设定为在作业场所6中作业者W进行主作业的单位分区。
各分区Z1、Z2包括表示在作业场所6中作业者W进行作业的区域的作业区域。图3所示的分区Z1包括搬运线61的附近的作业区域A1和架子62的附近的作业区域A2。各作业区域A1、A2被预先设定为表示在作业场所6中分别认为进行与搬运线61或者架子62关联的作业的位置的范围的区域。
此外,在本实施方式的作业分析装置5中,在存储部52中保存将作业场所6中的位置与作业建立对应的作业区域信息。作业区域信息例如按作业场所6中的每个分区将作业区域和在各作业区域中进行的作业关联起来管理。例如,在分区Z1的搬运线61的附近的作业区域A1中进行装箱以及准备箱子的作业,在分区Z1的架子62的附近的作业区域A2中进行提货的作业。在作业区域信息中,关于与多个作业建立了关联的作业区域A1,例如也可以包括表示Y方向的位置关系与各作业的对应的信息。
图4是用于说明本实施方式的作业分析装置5中的作业顺序信息D2的图。
作业顺序信息D2例如如图4所示,将作业场所6中的“分区”与“异常顺序”关联起来进行管理,“异常顺序”表示作为由一个作业者W进行的作业的执行顺序而设想为异常的顺序。在图4的例子中,按时间顺序为“装箱、移动、装箱”的异常顺序与分区Z1建立关联。这样的异常顺序例如根据如下设想而预先设定:在分区Z1中进行装箱的作业者W移动之后在未拿货物的状态下再次进行装箱的顺序为异常。异常顺序是本实施方式中的给定的顺序的一例。
另外,虽然省略图示,但本实施方式的作业分析装置5例如在存储部52中除了上述的作业顺序信息D2以外,还保存与作业场所6有关的作业倾向信息。作业倾向信息例如包括按各作业者W1~W3的每个作业设定的标准作业期间等信息。作业倾向信息也可以包括表示在作业场所6中由作为分析对象的作业者W进行各种作业的各种倾向的信息。此外,作业倾向信息也可以包括表示分析图表7中的主作业以及副作业等的分类的信息。
此外,本实施方式的作业分析装置5在存储部52中保存识别各作业者W1~W3这样的个人的认证信息D3。认证信息D3例如通过设置于作业场所6的读卡器等,通过各作业者W1~W3在向作业场所6入场时等进行的认证操作而预先取得,并发送至作业分析装置5。认证信息D3例如包括表示接受了各作业者W1~W3的认证操作的时刻的信息。使用这些各种信息的作业分析装置5的动作将后述。
2.动作
以下,对如以上那样构成的作业分析系统1以及作业分析装置5的动作进行说明。
图1所例示的作业分析系统1通过图像识别处理来识别作业场所6中的作业者W的每个时刻的位置(即动线),识别在每个时刻的各位置实施的作业即实施作业。本系统1蓄积表示实施作业的识别结果的信息,基于蓄积的信息,生成将分析期间中的每个作业者W1~W3的实施作业可视化的分析图表7。
本实施方式的作业分析装置5例如基于在动线数据D0中初次识别到各动线ID在作业场所6中的位置的时刻、和包括各作业者W1~W3进入到作业场所6的时刻的认证信息D3,将动线ID与各作业者W1~W3建立对应。作业分析装置5例如通过图像识别部51,对由相机2获得的作业场所6的摄像图像进行图像识别,识别作业者W的位置以及实施作业。作业分析装置5更新动线数据D0,使得将识别出的各位置与各作业者W1~W3的过去的位置建立对应,由此判别进行了识别出的各位置的实施作业的作业者W1~W3。
在此,设想如下情况:通过基于来自相机2的摄像图像的图像识别处理,即使能够识别各时刻的实施作业,若产生多个动线交错等混线,则难以确定与各实施作业对应的动线或者作业者W。相对于此,在本实施方式中,提供一种作业分析装置5,即使在作业分析系统1中产生了上述那样的混线状态的情况下,也能够推定进行了识别出的各实施作业的作业者W。
2-1.关于课题
在本实施方式的作业分析系统1中,使用图5以及图6对在确定各实施作业的作业者W方面成为课题的场景进行说明。
图5是表示用于说明与作业分析装置5有关的课题的第一事例的图。图6是表示用于说明与作业分析装置5有关的课题的第二事例的图。图5以及图6是从上方观察作业场所6中的作业者W的图,表示作业者W1以及W2在分区Z1中进行作业的情形。
图5的(A)表示作业者W1进行“提货”、作业者W2进行“装箱”的场景。图5的(B)表示各作业者W1、W2分别从图5的(A)的场景进行“移动”的场景。图5的(C)表示从图5的(B)的场景移动的作业者W1进行“装箱”、作业者W2进行“提货”的场景。
在图5的(A)~(C)的例子中,通过图像识别来从相机2的摄像图像识别作业者W的位置,根据图3的作业区域A1、A2等来识别各位置处的实施作业。在此,在图5的(B)的场景中,在相机2的视线方向上,产生了作业者W2被作业者W1遮蔽而未映现于摄像图像的遮挡。在该情况下,若作业者W1、W2的动线成为混线状态,则之后即使在图5的(C)的例子中识别出两处位置的实施作业,也难以根据各位置的图像识别等来判别各作业者W1、W2移动到哪个位置而进行了对应的实施作业。
图6的(A)表示作业者W1进行“移动”、作业者W2进行“装箱”的场景。图6的(B)表示作业者W1从图6的(A)的场景进行“移动”,作业者W2继续“装箱”的场景。图6的(C)表示从图6的(B)的场景移动的作业者W1进行“装箱”、作业者W2转移到“准备箱子”的场景。
在图6的(A)~(C)的例子中,在图6的(B)的场景中,由于作业者W1的移动而与图5的(B)同样地产生了遮挡。在该情况下也是,若作业者W1、W2的动线成为混线状态,则即使在图6的(C)的例子中识别出两处位置的实施作业,也难以根据各位置的图像识别等来判别作业者W1移动到哪个位置而进行了对应的实施作业。
如以上那样,认为存在如下课题:在作业场所6中,即使按每个时刻识别出作业者W的位置以及实施作业,若各作业者W的动线成为混线状态,则也可能产生难以判别进行各实施作业的作业者W的场景。特别是在作业场所6中,例如在作业者W1~W3穿着相同颜色以及形状的制服的状况下,若成为混线状态,则难以通过图像识别等来判别各实施作业的作业者W1~W3。
因而,在本实施方式的作业分析装置5中,除了基于摄像图像的实施作业的位置以外,还基于作业顺序信息D2这样的作业倾向信息,执行用于推定各作业的作业者的处理。由此,即使如图5的(C)以及图6的(C)那样,在多个作业者的动线成为混线状态而根据各位置的图像识别等难以判别作业者W的状况下,也能够判别各实施作业的作业者W。
例如,在图5的(C)的状况下,基于作业顺序信息D2中的“装箱、移动、装箱”的异常顺序,进行了装箱的作业者W2在移动后不会成为装箱的作业,因此能够推定作业者W2为提货。换句话说,能够进行提货以及装箱的作业者W分别是作业者W2、W1这样的推定。此外,在图6的(C)的状况下,通过针对作业者W2使用与从装箱的开始时刻起的经过期间有关的信息,能够进行装箱以及准备箱子的作业者W分别是作业者W1、W2这样的推定。
2-2.整体动作
使用图7对作业分析系统1中的作业分析装置5的整体动作进行说明。
图7是用于说明作业分析装置5的整体动作的流程图。本流程图所示的处理例如由作业分析装置5的控制部50执行。
首先,控制部50例如经由设备I/F54从相机2取得分析期间的图像数据(S1)。例如在作业场所6中,在作业者W1~W3的作业中,相机2拍摄动态图像,以动态图像的帧周期这样的给定的周期生成表示各时刻的摄像图像的图像数据并记录于内部存储器。相机2将在分析期间记录的图像数据发送到作业分析装置5。控制部50将所取得的图像数据保存于例如存储部52。
接下来,控制部50根据所取得的分析期间中的图像数据,例如按时刻顺序选择表示各时刻的摄像图像的1帧的图像数据(S2)。控制部50将拍摄到所选择的1帧的时刻记录为例如动线数据D0中的时刻。
控制部50作为图像识别部51发挥功能而在所选择的1帧的图像数据所表示的图像中识别作业者W的位置以及作业(S3)。在步骤S3中,控制部50例如关于在图像中识别出的位置,基于地图数据D1变换为表示作业场所6中的位置的坐标系。控制部50例如基于作业区域信息,根据识别出的各位置处于作业区域A1、A2或者除此以外的区域这一情况,识别该位置处的实施作业。
另外,在图6的(C)的例子中,在与装箱以及准备箱子的两个作业对应的作业区域A1中,识别两个作业者W的位置。在这样的情况下,控制部50例如根据在搬运线61的上游(图3的+Y方向)侧实施准备箱子这样的关系来识别各作业者W的位置处的实施作业。
控制部50例如基于步骤S3的识别结果,检测动线的混线状态(S4)。例如,控制部50检测在选择中的帧的摄像图像中是否产生了由多个作业者W的位置的重叠引起的遮挡。控制部50例如在判断为产生了遮挡、且在作业场所6中识别出的位置在距动线数据D0中的最新的时刻的多个动线的位置处于给定范围内时,判断为动线成为了混线状态。给定范围例如预先设定为小到能够视为在作业场所6中作业者W以帧周期的时间间隔移动的范围的程度的范围。
在未检测到混线状态时(S4:否),控制部50更新动线数据D0(S6),使得将本次在步骤S3中识别出的位置追加为对应的动线ID的位置。此时,控制部50通过将在步骤S3中识别出的每个位置的实施作业与动线数据D0中的各位置以及对应的动线ID建立关联,来判别与各实施作业对应的作业者W1~W3(S6)。将实施作业以及作业者W与动线数据D0的各位置建立了关联的信息是本实施方式中的作业历史信息的一例。
另一方面,在检测到混线状态时(S4:是),本实施方式的控制部50基于在混线状态下识别出的作业和与动线数据D0建立关联的每个作业者的过去的实施作业,判别与该识别出的各作业建立对应的作业者W(S5)。通过这样的混线状态用的作业者判别处理(S5),将在步骤S3中识别出的位置与过去的动线建立关联,在无法判别各作业的作业者W的混线状态下也能够实现作业者W的推定。本实施方式的控制部50参照作业顺序信息D2等作业倾向信息,进行混线状态用的作业者判别处理(S5)。关于混线状态用的作业者判别处理(S5)的详细情况将后述。以下,也将混线状态用的作业者判别处理简称为作业者判别处理。
在判别了每个实施作业的作业者W(S5、S6)后,控制部50进入步骤S7。控制部50在尚未选择分析期间的图像数据中的全部帧时(S7:否),关于下一时刻的图像数据,再次进行步骤S2~S6的处理。由此,得到基于分析期间的各时刻的图像数据的动线数据D0。另外,步骤S3~S6的处理也可以按图2所例示那样的作业场所6的每个分区来执行,也可以在针对每1帧的全部分区执行了步骤S3~S6之后,进入步骤S7。
在选择了分析期间中的全部帧的情况下(S7:是),控制部50进行生成分析图表7的可视化处理(S8)。控制部50例如针对作业场所6的各作业者W1~W3,对按每1帧的期间等时间间隔判定出的作业的次数进行计数。这样,若按每个作业者计算出分析期间中的各作业的总次数,则控制部50计算每个作业者的各作业的比率,生成分析图表7。在分析图表7中,各作业的比率例如表示为各作业的时间相对于分析期间的比例。
控制部50例如将通过可视化处理(S8)生成的分析图表7保存于存储部52,结束本流程图所示的处理。
根据以上的处理,基于图像数据识别作业场所6中的作业者W的位置以及作业(S3),将识别出的位置与动线数据D0中的过去的动线建立关联,由此判别在各位置进行作业的作业者W(S6)。在动线的混线状态(S4:是)下,通过作业者判别处理(S5)判别作业者。由此,得到将实施作业与动线数据D0的各作业者建立了关联的信息,基于分析期间的全部时间间隔处的每个作业者的实施作业,生成分析图表7(S8)。
另外,在上述的步骤S1中,也可以从相机2依次取得生成的图像数据。例如,控制部50也可以取代步骤S7,反复进行步骤S1以后的处理,直到得到基于分析期间中的帧数的图像数据的动线数据D0为止。此外,在检测动线的混线状态(S4)时,控制部50例如也可以根据摄像图像中的遮挡、以及作业场所6中的作业者W的位置中的任意一方来检测动线的混线状态。
2-3.关于作业者判别处理
使用图8以及图9对图7的步骤S5中的作业者判别处理的详细情况进行说明。
图8是例示本实施方式的作业分析装置5中的作业者判别处理(图7的S5)的流程图。图9是用于说明作业者判别处理中的作业组合的图。图9的(A)、(B)分别例示与图5的(A)~(C)、图6的(A)~(C)所示的场景对应的作业组合表T1、T2。作业组合表T1、T2保存表示多个作业者W与多个作业的组合的作业组合的多个候选。各候选按每个作业者表示将包括两个以上的作业的作业列建立关联的作业组合。作业列表示将各作业者的过去的实施作业和判别作业者的对象的实施作业按识别出的时刻顺序排列的作业的集合。
在本实施方式的作业者判别处理(S5)中,控制部50参照作业顺序信息D2等作业倾向信息,进行从作业组合表T1、T2的多个候选中将一个候选决定为判别结果的作业组合的处理。控制部50根据所决定的作业组合来判别每个作业的作业者W。
在图8的流程图中,首先,控制部50计算在检测到混线状态的时刻以后识别出的作业和与过去的作业建立了对应的作业者W的作业组合,生成作业组合表T1、T2(S11)。控制部50例如参照与动线数据D0建立了关联的过去的作业以及作业者W,生成包括至少两种以上的作业的作业组合。
在此,在图5的例子中,在图5的(B)的场景中,作业者W1、W2的动线成为混线状态。此时,两个作业者W的实施作业均被识别为“移动”(图7的S3),即使不特别判别,各作业者W1、W2也能够与同种的作业建立对应。在这样的情况下,在步骤S11中,控制部50例如选择下一时刻的帧,与图7的步骤S3同样地基于该帧的图像数据来识别作业者W的位置以及作业。由此,选择与图5的(C)的场景对应的帧,识别作业者W的位置以及各位置处的作业“装箱”和“提货”。
进而,在图5的例子中,控制部50基于与混线状态关联的作业者W1、W2和从与图5的(A)~(C)场景相应的帧识别出的作业,生成图9的(A)例示的作业组合表T1。控制部50例如在检测到混线状态(图7的S4)时,基于在步骤S3中识别出的位置以及动线数据D0中的过去的作业者W的位置,决定与混线状态关联的、即与产生了混线的多个动线对应的作业者W1、W2。关于两个作业者W1、W2,控制部50作为候选而生成:通过将在图5的(C)的时刻识别出的、无法进行基于动线的与作业者W的对应的各作业进行调换而能够取得的模式量的作业组合(S11)。
在图9的(A)的作业组合表T1中,关于作业者W1、W2而保存:包括对应的过去的实施作业“提货、移动”、“装箱、移动”、且将无法与作业者W进行基于动线的对应的“提货”和“装箱”调换而得到的候选C11、C12。
此外,在图6的例子中,设想在图6的(C)的场景的帧中检测到混线状态(图7的S4:是)。此时,在步骤S3中识别出的作业难以如步骤S6那样基于动线来与作业者W1、W2建立对应。因而,在该情况下,控制部50根据在检测到混线状态时识别出的作业以及与图6的(A)、(B)的场景相应的过去的作业,生成图9的(B)例示的作业组合表T2(S11)。
在图9的(B)的作业组合表T2中,关于作业者W1、W2而保存:包括过去的实施作业“移动、移动”、“装箱、装箱”、且将无法与作业者W进行基于动线的对应的“准备箱子”和“装箱”调换而得到的候选C21、C22。
接下来,控制部50基于作业顺序信息D2,从作业组合表T1、T2中将候选除外(S12)。控制部50例如判断各候选是否符合作业顺序信息D2的异常顺序,将符合的候选从作业组合表T1、T2中除外。
例如,在图9的(A)的作业组合表T1中,候选C11所包括的作业者W2的作业组合符合图4所例示的作业顺序信息D2的异常顺序。因此,从作业组合表T1中将候选C11除外(S12)。
接下来,控制部50例如基于保存于存储部52的标准作业期间的信息,将实施作业的作业期间超过标准作业期间的候选从作业组合表T1、T2中除外(S13)。控制部50例如计算各候选的作业列中的最新的实施作业的作业期间,在该作业期间超过给定期间的情况下将包括该作业列的候选除外,给定期间表示大幅超过标准作业期间的期间。标准作业期间作为每个作业者的各作业所需的期间,将预先经过多次测量的期间平均来计算。给定期间的增量例如设定为测量出的期间的标准偏差的3倍。
例如,在图9的(B)的作业组合表T2中,关于候选C21的作业者W2,在从图6的(A)的场景继续的装箱的作业期间超过给定期间时,从作业组合表T2中将候选C21除外。装箱是本实施方式中的第一作业的一例。
控制部50例如在将上述那样的候选除外之后(S12、S13),判断在作业组合表T1、T2中是否存在未被除外的多个候选,即是否残留有多个候选(S14)。另外,在步骤S12、S13中已将全部候选除外的情况下,为了在步骤S14之前残留至少一个候选,控制部50例如也可以在缓和了基于作业倾向信息的除外的条件的基础上,再次执行步骤S11以后的处理。例如,也可以将基于作业期间的除外(S13)的给定期间设定为比上述的例子长。
在作业组合表T1、T2中没有残留多个候选的情况下(S14:否),控制部50将残留的一个候选决定为判别结果的作业组合(S16)。在图9的(A)、(B)的作业组合表T1、T2中,分别将未被除外而残留的候选C12、C22决定为判别结果的作业组合。
另一方面,在残留多个候选的情况下(S14:是),控制部50选定该多个候选中的例如各作业列中的最新的实施作业的继续期间与标准作业期间的差分最小的候选(S15)。控制部50将所选定的候选决定为判别结果的作业组合(S16)。
控制部50根据所决定的判别结果的作业组合,判别在最新的时刻识别出的、无法与作业者W进行基于动线的对应的各作业的作业者W(S17)。控制部50更新动线数据D0,使得将判别出的各作业者W的最新的时刻的位置追加为对应的动线ID的位置(S17)。
在图5的(C)的例子中,关于进行提货和装箱的各作业的作业者W,根据在作业组合表T1中决定为判别结果的作业组合的候选C12,分别判别为作业者W2、W1。然后,将与提货以及装箱分别对应的位置作为各作业者W2、W1的位置来更新动线数据D0。在图6的(C)的例子中,关于进行装箱和准备箱子的各作业的作业者W,根据在作业组合表T2中决定为判别结果的作业组合的候选C22,分别判别为作业者W1、W2。然后,将与装箱以及准备箱子分别对应的位置作为各作业者W1、W2的位置来更新动线数据D0。
控制部50在判别作业者W并更新了动线数据D0(S17)后,结束本流程图所示的处理。然后,进入图7的步骤S7。
根据以上的混线状态用的作业者判别处理(S5),作为候选而生成包括由于动线的混线状态而无法与作业者W建立对应的作业的作业组合(S11),从该候选中根据作业倾向信息来决定判别结果的作业组合(S12~S16)。由此,即使产生混线状态,也能够根据所决定的作业组合来判别各作业的作业者W(S17),从而能够实现每个作业的作业者W的推定。
此外,在上述的步骤S11中,说明了作业组合表T1、T2的作业列包括3帧量的作业的例子。作业列并不局限于3帧等的每个时刻的作业,例如也可以包括种类不同的三个作业。在这种情况下,控制部50例如直到得到3种作业为止参照与动线数据D0建立关联的过去的作业来生成作业组合表T1、T2。进而,并不局限于3种,也可以生成将每隔给定的期间的三个作业排列而成的作业列。进而,并不局限于三个,也可以生成将两个作业排列而成的作业列。
此外,在作业组合表T1、T2的生成(S11)中,作业者W的候选的筛选也可以使用动线数据D0中的坐标信息以及单位时间的移动距离来进行。例如,控制部50也可以除了例如动线数据DO中的过去的作业者W的位置以外,还根据基于过去的位置的作业者W的移动速度来决定与作业组合中的混线状态关联的作业者W。
3.效果等
如上所述,本实施方式中的作业分析装置5生成与在作业场所6进行多个作业的多个作业者W有关的信息。作业分析装置5具备作为取得部的一例的设备I/F54、控制部50以及存储部52。设备I/F54取得表示拍摄了作业场所6的图像的图像数据(S1)。控制部50基于图像数据,作为表示多个作业者W中的单独的作业者W1~W3在作业场所6进行的作业的作业历史信息的一例,在动线数据D0的各位置生成将作业与作业者W建立关联的信息(S5、S6)。存储部52保存作业历史信息。控制部50基于作业场所6中的每个时刻的图像数据,依次识别多个作业者W的位置以及作业(S2、S3、S7)。作为包括多个作业者W的每个时刻的位置的多个动线之间的混线的一例,控制部50检测混线状态(S4)。控制部50在未检测到混线状态时(S4:否),基于多个动线,将在各时刻识别出的作业与单独的作业者W1~W3建立对应来生成作业历史信息(S6)。控制部50在检测到混线状态时(S4:是),基于识别出的作业和过去的作业历史信息,将该识别出的作业与单独的作业者W1~W3建立对应(S5)。
根据以上的作业分析装置5,若检测到基于动线的作业与作业者W1~W3的建立对应(S6)困难的混线状态(S4:是),则基于识别出的作业和过去的作业历史信息,将作业与作业者W1~W3建立对应(S5)。由此,在作业场所6中由多个作业者W进行多个作业时,能够推定各作业的作业者W。
在本实施方式中,存储部52保存表示在作业场所6进行作业的倾向的作业倾向信息。控制部50在检测到混线状态时(S4:是),参照作业倾向信息,将识别出的作业与单独的作业者W1~W3建立对应(S5)。由此,即使在由于混线状态而难以根据作业者W的位置的图像识别等进行作业与作业者W1~W3的建立对应的情况下,也能够基于作业倾向信息来推定与每个作业对应的作业者W。
在本实施方式中,控制部50在检测到混线状态时(S4:是),作为计算与产生了混线的多个动线对应的多个作业者W和识别出的多个作业的多个组合的一例,生成多个作业组合(S11)。控制部50基于作业倾向信息,从多个作业组合中决定一个作业组合(S16),根据所决定的一个作业组合,将识别出的作业与单独的作业者W1~W3建立对应(S17)。这样,生成包括多个作业组合作为候选C11~C22的作业组合表T1、T2(S11),基于作业倾向信息筛选候选C11~C22,由此决定判别结果的作业组合(S16)。由此,能够根据所决定的作业组合来判别各作业的作业者W。
在本实施方式中,作业倾向信息包括作业顺序信息D2作为表示多个作业之中两个以上的作业的组合中的顺序的信息的一例。控制部50根据该顺序,从多个作业组合中作为给定的顺序的一例而将符合异常顺序的作业组合除外(S12)来决定一个作业组合(S16)。由此,能够将不符合作业顺序信息D2中的异常顺序的作业组合决定为判别结果。
在本实施方式中,作业倾向信息包括表示对多个作业中的第一作业设定的标准作业期间的信息。控制部50根据被识别为作业者W的作业是第一作业的期间,从多个作业组合中将该期间超过标准作业期间的作业组合除外(S13)来决定一个组合(S16)。在图6的例子中,从图9的(B)的作业组合表T2中,候选C22的作业者W2的装箱(第一作业的一例)超过标准作业期间而继续,因此将候选C22的作业组合除外。由此,能够将特定的作业的作业期间适合于标准作业期间的作业组合决定为判别结果。
在本实施方式中,控制部50在取得的图像数据表示的图像中,根据多个作业者W中的作业者W1、W2(两个以上的作业者的一例)的位置重叠的状态的一例即遮挡来检测混线状态(S4)。由此,能够基于图像上的作业者W的位置来实现混线状态的检测。
在本实施方式中,存储部52还保存识别单独的作业者W1~W3的认证信息D3。控制部50在识别出作业场所6中的作业者W的位置的最初的时刻,将识别出的位置与单独的作业者W1~W3建立对应。这样,控制部50将动线数据D0中的各位置的动线ID与各作业者W1~W3建立对应来进行管理。由此,更新动线数据DO,使得将依次识别的(S3)作业者W的位置与各作业者WI~W3的过去的位置建立对应,能够判别进行了识别出的各位置的实施作业的作业者W1~W3(S6)。
控制部50基于分析期间(给定期间的一例)量的作业历史信息,按每个单独的作业者W1~W3,作为表示分析期间整个范围内的多个作业的比率的信息的一例,生成分析图表7。由此,能够向例如作业分析系统1的用户3提示与在作业场所6进行多个作业的多个作业者W有关的分析图表7。作业分析装置5也可以作为显示分析图表7等生成的信息的显示部的一例,还具备输出I/F55以及/或者监视器4。
本实施方式中的作业分析方法是生成与在作业场所6进行多个作业的多个作业者W有关的信息的方法。本方法包括:计算机的控制部50取得表示拍摄了作业场所6的图像的图像数据的步骤(S1);以及基于图像数据,生成表示多个作业者W中的单独的作业者W1~W3在作业场所6进行的作业的作业历史信息的步骤(S2~S7)。在生成作业历史信息的步骤(S2~S7)中,计算机的控制部50基于作业场所6中的每个时刻的图像数据,依次识别多个作业者W的位置以及作业(S2、S3、S7),检测包括多个作业者W的每个时刻的位置的多个动线之间的混线(S4)。控制部50在未检测到混线时(S4:否),基于多个动线,将在各时刻识别出的作业与单独的作业者W1~W3建立对应来生成作业历史信息(S6),在检测到混线时(S4:是),基于识别出的作业和过去的作业历史信息,将该识别出的作业与单独的作业者W1~W3建立对应(S5)。
在本实施方式中,提供一种用于使计算机的控制部执行以上那样的作业分析方法的程序。根据本实施方式的作业分析方法,在由多个作业者W进行多个作业时,能够推定各作业的作业者W。
(实施方式2)
在实施方式1中,说明了基于作业期间的信息以及作业顺序信息D2进行作业者判别处理的作业分析装置5。在实施方式2中,进一步说明基于与作业场所6有关的作业计划信息来进行作业者判别处理的作业分析装置5。
以下,适当省略与实施方式1所涉及的作业分析装置5相同的结构、动作的说明,说明本实施方式所涉及的作业分析装置5。
图10是用于说明本实施方式的作业分析装置5中的作业计划信息D4的图。作业计划信息D4是本实施方式中的作业计划信息的一例,表示作业场所6中的定额以及作业者W的分配等。
图10所例示的作业计划信息D4将作业场所6中的“作业者”、表示作为主作业的装箱的定额的“搬出个数”、作为各作业者W主要作业的分区的“负责分区”关联起来进行管理。负责分区表示在作业场所6中例如作业者W不进行准备箱子这样的辅助作业的位置的范围。辅助作业是本实施方式中的第二作业的一例。搬出个数以及负责分区例如由用户3等预先设定。例如,在图10的作业计划信息D4中,作业者W1以及W2的负责分区设定为分区Z1,作业者W3的负责分区设定为分区Z2。
使用图11~图13说明使用了以上那样的作业计划信息D4的本实施方式的作业分析装置5的动作。
图11是例示本实施方式的作业者判别处理的流程图。在本实施方式的作业分析装置5中,例如控制部50除了实施方式1的作业者判别处理(S5)中的步骤S11~S17的处理以外,还从作业组合表中基于作业计划信息D4将候选除外(S21)。图12是用于说明本实施方式的作业者判别处理的图。图13是用于说明本实施方式的作业者判别处理中的作业组合的图。
图12是与图5以及图6同样地从上方观察作业场所6的图。在图12中,在作业场所6的分区Z1中除了作业者W1以及W2以外,还示出负责分区不同的作业者W3进行作业的情形。
图12的(A)表示作业者W1进行“提货”、作业者W2进行“装箱”以及从分区Z2进入分区Z1的作业者W3进行“移动”的场景。图12的(B)表示各作业者W1~W3分别从图12的(A)的场景进行“移动”的场景。图12的(C)表示从图12的(B)的场景移动的作业者W1、W3分别进行“装箱”和“准备箱子”,作业者W2进行“提货”的场景。以下,在图12的(B)的场景中,说明由于遮挡而作业者W1~W3的动线成为混线状态的例子。
图11所示的流程图例如通过基于与图12的(B)的场景对应的帧的图像数据来检测混线状态(在图7的S4中为是)而开始。
控制部50例如与实施方式1的作业者判别处理(S5)中的图5的例子同样地,从与图12的(C)的场景对应的下一个时刻的帧识别作业者W的位置以及作业,生成作业组合表(S11)。图13例示根据图12的(A)~(C)的例子在步骤S11中生成的作业组合表T3。
接下来,控制部50从作业组合表T3中基于作业计划信息D4将候选除外(S21)。控制部50例如参照作业计划信息D4的负责分区,从作业组合表T3中将负责分区中的各作业者的最新的实施作业是辅助作业的准备箱子的候选除外。这样,例如,设想作业者W在负责分区中进行与主作业的装箱或者主作业关联的提货的可能性高,因此预先设定基于作业计划信息D4的除外的规则。在图10的作业计划信息D4中,作业者W1的负责分区是分区Z1,因此关于作业者W1最新的实施作业为准备箱子的候选C35、C36从作业组合表T3中除外。同样地,关于作业者W2,从作业组合表T3中将候选C32、C34除外。
之后,控制部50基于作业顺序信息D2以及作业期间从作业组合表T3中将候选除外(S12~S13)。在图12的例子中,关于作业者W2,候选C33的作业组合符合作业顺序信息D2中的异常顺序,因此从作业组合表T3中将候选C33除外(S12)。控制部50将未从作业组合表T3中除外而残留的候选C31决定为判别结果的作业组合(S16)。
如上所述,在本实施方式中,作业倾向信息包括作业计划信息D4,作为将负责分区(负责范围的一例)与单独的作业者W1~W3建立关联的信息的一例,负责分区表示在作业场所中单独的作业者W1~W3作为多个作业中的第二作业的一例而不进行辅助作业的位置的范围。控制部50在作业者W的位置包括于作业者W的负责分区时,从多个作业组合中将作业者W的作业是辅助作业的作业组合除外(S21)来决定一个作业组合(S16)。由此,作业者W能够将在各个负责分区中进行主作业的作业组合决定为判别结果。
另外,基于作业计划信息D4的除外(S21)并不局限于负责分区,也可以使用与各种作业计划有关的信息,例如也可以使用搬出个数的信息来进行。例如,设为进行了与给定的搬出个数相应的次数量的装箱的作业者W在以后的时刻不符合包括装箱的候选,也可以将该候选除外。
(其他实施方式)
如上所述,作为在本申请中公开的技术的例示,说明了实施方式1、实施方式2。然而,本公开中的技术并不局限于此,也能够应用于适当地进行了变更、置换、附加、省略等的实施方式。此外,也可以将上述各实施方式中说明的各结构要素组合,作为新的实施方式。因此,以下例示其他实施方式。
在上述的各实施方式中,说明了将异常顺序与作业场所6中的分区建立关联的作业顺序信息D2。在本实施方式中,作业顺序信息D2例如也可以按作业场所6的每个分区包括表示由一个作业者W进行的作业的执行顺序的标准顺序。在这种情况下,在作业者判别处理(图8、图11)中的基于作业顺序信息的除外的处理(S12)中,例如也可以从作业组合表T1~T3中将不符合标准顺序的候选除外。
在上述的各实施方式中,说明了图像识别部51输出人物的位置的识别结果作为不特别区分作业者W1~W3的人物的例子。本实施方式的图像识别部51例如也可以通过脸部认证技术等区分各作业者W1~W3来识别各个位置。在该情况下,本实施方式的作业分析装置5的动作也能够应用于例如能够识别在相机2的摄像图像中不映现出脸部的各作业者W的实施作业时。
在上述的各实施方式中,说明了由图像识别部51识别的全部位置的作业者W是分析对象的作业者的例子。本实施方式的作业分析装置5也可以从与作业有关的处理(S4~S5、S8)中的处理对象中将分析对象外的作业者的位置除外。例如在作业场所6中,将与补充作业的区域等作业区域A1、A2以及其间的区域不同的位置的作业者除外。此外,例如关于在作业场所6中进行工序管理或者监视的作业者,也可以基于该作业者的动线通过作业区域A1、A2之间的区域的期间长这样的倾向,作为分析对象外而被除外。
在上述的各实施方式中,说明了基于预先设定的作业期间的信息进行基于作业期间的除外的(S13)作业分析装置5。在本实施方式的作业分析装置5中,例如也可以针对每个作业者,基于架子62侧的作业区域A2中的过去的停留期间来设定提货的作业期间。
在上述的各实施方式中,说明了使用各作业的作业期间等信息来执行作业者判别处理的例子。本实施方式的作业分析装置5在作业者判别处理中,并不局限于各作业的作业期间,也可以使用推定为在相机2的视场角外进行作业的期间、或者作业者的休息期间等信息,执行作业者判别处理。
此外,在上述的各实施方式中,说明了作业分析系统1应用于物流仓库这样的作业场所6的例子。在本实施方式中,应用作业分析系统1以及作业分析装置5的作业场所即现场并不特别局限于上述的作业场所6,例如也可以是工厂或者店铺的卖场等各种现场。此外,在作业分析系统1中判定的作业并不局限于上述装箱等例子,也可以是与各种现场相应的各种作业。此外,作业分析系统1的分析对象的作业者并不局限于作业者W这样的人物,只要是能够执行各种作业的移动体即可。例如,移动体可以是机器人,也可以是有人或者无人的各种车辆。
如上所述,作为本公开中的技术的例示,说明了实施方式。因此,提供了附图以及详细的说明。
因此,在附图以及详细的说明中记载的结构要素中,不仅是为了解决课题所必须的结构要素,为了例示上述技术,也可以包括为了解决课题而不是必须的结构要素。因此,不应以这些非必须的结构要素被记载于附图、详细说明中为理由,而直接将这些非必须的结构要素认定为必须。
产业上的可利用性
本公开能够应用于在物流现场或者工厂等各种环境中分析作业者的作业的数据分析的用途。

Claims (11)

1.一种作业分析装置,生成与在作业场所进行多个作业的多个作业者有关的信息,
所述作业分析装置具备:
取得部,取得表示拍摄了所述作业场所的图像的图像数据;
控制部,基于所述图像数据,生成表示所述多个作业者中的单独的作业者在所述作业场所进行的作业的作业历史信息;以及
存储部,保存所述作业历史信息,
所述控制部执行以下处理:
基于所述作业场所中的每个时刻的图像数据,依次识别所述多个作业者的位置以及作业,
检测包括所述多个作业者的每个时刻的位置的多个动线之间的混线,
在未检测到所述混线时,基于所述多个动线,将在各时刻识别出的作业与所述单独的作业者建立对应来生成所述作业历史信息,
在检测到所述混线时,基于识别出的作业和过去的作业历史信息,将该识别出的作业与所述单独的作业者建立对应。
2.根据权利要求1所述的作业分析装置,其中,
所述存储部保存表示在所述作业场所进行所述作业的倾向的作业倾向信息,
所述控制部在检测到所述混线时,参照所述作业倾向信息,将识别出的作业与所述单独的作业者建立对应。
3.根据权利要求2所述的作业分析装置,其中,
所述控制部在检测到所述混线时执行以下处理:
计算与产生了所述混线的多个动线对应的多个作业者和识别出的多个作业的多个组合,
基于所述作业倾向信息,从所述多个组合中决定一个组合,
根据所决定的一个组合,将所识别出的所述作业与所述单独的作业者建立对应。
4.根据权利要求3所述的作业分析装置,其中,
所述作业倾向信息包括表示所述多个作业之中两个以上的作业的组合中的顺序的信息,
所述控制部根据所述顺序,从所述多个组合中将符合给定的顺序的组合除外来决定所述一个组合。
5.根据权利要求3或4所述的作业分析装置,其中,
所述作业倾向信息包括表示对所述多个作业中的第一作业设定的标准作业期间的信息,
所述控制部根据所述作业者的作业被识别为是所述第一作业的期间,从所述多个组合中将该期间超过所述标准作业期间的组合除外来决定所述一个组合。
6.根据权利要求3~5的任一项所述的作业分析装置,其中,
所述作业倾向信息包括将负责范围与所述单独的作业者建立关联的信息,所述负责范围表示在所述作业场所中所述单独的作业者不进行所述多个作业中的第二作业的位置的范围,
所述控制部在所述作业者的位置包括于所述作业者的负责范围时,从所述多个组合中将所述作业者的作业为所述第二作业的组合除外来决定所述一个组合。
7.根据权利要求1~6的任一项所述的作业分析装置,其中,
所述控制部在取得的图像数据所表示的图像中,根据所述多个作业者之中两个以上的作业者的位置重叠的状态来检测所述混线。
8.根据权利要求1~7的任一项所述的作业分析装置,其中,
所述存储部还保存识别所述单独的作业者的认证信息,
所述控制部在识别出所述作业场所中的所述作业者的位置的最初的时刻将识别出的位置与所述单独的作业者建立对应。
9.根据权利要求1~8的任一项所述的作业分析装置,其中,
所述控制部基于给定期间量的所述作业历史信息,按每个所述单独的作业者,生成表示所述给定期间整个范围内的所述多个作业的比率的信息。
10.一种作业分析方法,生成与在作业场所进行多个作业的多个作业者有关的信息,
所述作业分析方法包括:
计算机的控制部取得表示拍摄了所述作业场所的图像的图像数据的步骤;以及
计算机的控制部基于所述图像数据来生成表示所述多个作业者中的单独的作业者在所述作业场所进行的作业的作业历史信息的步骤,
在生成所述作业历史信息的步骤中,所述计算机的控制部执行以下处理:
基于所述作业场所中的每个时刻的图像数据,依次识别所述多个作业者的位置以及作业,
检测包括所述多个作业者的每个时刻的位置的多个动线之间的混线,
在未检测到所述混线时,基于所述多个动线,将在各时刻识别出的作业与所述单独的作业者建立对应来生成所述作业历史信息,
在检测到所述混线时,基于识别出的作业和过去的作业历史信息,将该识别出的作业与所述单独的作业者建立对应。
11.一种程序,用于使计算机的控制部执行权利要求10所述的作业分析方法。
CN202280040369.8A 2021-06-11 2022-03-18 作业分析装置以及方法 Pending CN117441189A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021098078 2021-06-11
JP2021-098078 2021-06-11
PCT/JP2022/012833 WO2022259690A1 (ja) 2021-06-11 2022-03-18 作業分析装置及び方法

Publications (1)

Publication Number Publication Date
CN117441189A true CN117441189A (zh) 2024-01-23

Family

ID=84425176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280040369.8A Pending CN117441189A (zh) 2021-06-11 2022-03-18 作业分析装置以及方法

Country Status (5)

Country Link
US (1) US20240112498A1 (zh)
EP (1) EP4354388A1 (zh)
JP (1) JPWO2022259690A1 (zh)
CN (1) CN117441189A (zh)
WO (1) WO2022259690A1 (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5525202B2 (ja) * 2009-07-30 2014-06-18 株式会社構造計画研究所 動作分析装置、動作分析方法及び動作分析プログラム
JP5803763B2 (ja) * 2012-03-15 2015-11-04 富士通株式会社 移動物体の動線補間装置、方法、及びプログラム
JP6532317B2 (ja) * 2015-06-19 2019-06-19 キヤノン株式会社 物体追尾装置、物体追尾方法及びプログラム
US11017537B2 (en) 2017-04-28 2021-05-25 Hitachi Kokusai Electric Inc. Image monitoring system
JP2019185724A (ja) * 2018-03-30 2019-10-24 ダイキン工業株式会社 情報管理システム
JP7492226B2 (ja) * 2018-12-13 2024-05-29 成典 田中 移動物追跡装置
JP7330043B2 (ja) * 2019-09-27 2023-08-21 三菱電機株式会社 作業状態判別装置、作業状態判別方法およびプログラム

Also Published As

Publication number Publication date
WO2022259690A1 (ja) 2022-12-15
JPWO2022259690A1 (zh) 2022-12-15
US20240112498A1 (en) 2024-04-04
EP4354388A1 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
Akhavian et al. Construction equipment activity recognition for simulation input modeling using mobile sensors and machine learning classifiers
Kim et al. Application of dynamic time warping to the recognition of mixed equipment activities in cycle time measurement
JP6791534B2 (ja) 商品管理装置、商品管理方法及びプログラム
CN110621984B (zh) 用于改进质量检查的方法和系统
JP6205757B2 (ja) 制御システム、制御装置、画像処理装置、および、制御方法
US20150066550A1 (en) Flow line data analysis device, system, non-transitory computer readable medium and method
JP4805330B2 (ja) 購買分析システム
JP6995843B2 (ja) 作業管理システム及び作業管理方法
US20220137609A1 (en) Production information management system and production information management method
US11657548B2 (en) Information processing device, display method, and program storage medium for monitoring object movement
JP7507965B2 (ja) 倉庫環境におけるリスクマッピングのためのシステム及び方法
JP2021002136A (ja) 作業支援装置、作業支援方法、および作業支援プログラム
WO2019087275A1 (ja) 作業分析装置、及び作業分析方法
JP6594555B2 (ja) 分析システム及び分析方法
CN117441189A (zh) 作业分析装置以及方法
US10726378B2 (en) Interaction analysis
US20220319021A1 (en) Trajectory analysis device and trajectory analysis method
WO2020218463A1 (ja) 画像処理装置および画像処理方法
CN117121029A (zh) 作业分析装置
JP2021196909A (ja) 監視システム
WO2020044779A1 (ja) 設置環境推定装置及びプログラム
EP4365835A1 (en) Work analysis device and method
JP2021002289A (ja) 動線分析装置及びプログラム
JP7092944B2 (ja) 身体的就業能力マッチングシステム、身体的就業能力マッチング方法、身体的就業能力判定サーバ、証明証発行サーバ、及び現場作業管理サーバ
US10712725B2 (en) Non-transitory computer-readable storage medium, robot transfer time estimation method, and robot transfer time estimation device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination