JP2015225630A - Work management device, work management system, and work management method - Google Patents

Work management device, work management system, and work management method Download PDF

Info

Publication number
JP2015225630A
JP2015225630A JP2014111991A JP2014111991A JP2015225630A JP 2015225630 A JP2015225630 A JP 2015225630A JP 2014111991 A JP2014111991 A JP 2014111991A JP 2014111991 A JP2014111991 A JP 2014111991A JP 2015225630 A JP2015225630 A JP 2015225630A
Authority
JP
Japan
Prior art keywords
work
worker
image
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014111991A
Other languages
Japanese (ja)
Inventor
邦雄 平川
Kunio Hirakawa
邦雄 平川
裕一 中畑
Yuichi Nakahata
裕一 中畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014111991A priority Critical patent/JP2015225630A/en
Publication of JP2015225630A publication Critical patent/JP2015225630A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate and output information related to the execution situation of a work for each worker and work item without deteriorating the work efficiency of the worker.SOLUTION: The work management device includes: a first image acquisition part 31 for acquiring a first worker image in which a worker in starting a work is captured; a second image acquisition part 32 for acquiring a second worker image in which the worker in ending the work is captured; a work time measurement part 33 for performing image analysis to the first and second worker images to measure a work time required for a work related to one work item; a work recognition part 34 for performing image analysis to the second worker image to recognize the work item; an execution information generation part 35 for generating information related to an execution status of each worker and work item on the basis of a measurement result by the work time measurement part and a recognition result by the work recognition part; and a display information generation part 42 for generating and outputting display information for displaying the generated information.

Description

本発明は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理装置、作業管理システムおよび作業管理方法に関するものである。   The present invention relates to a work management apparatus, a work management system, and a work management method for generating and outputting information related to a work execution status by a worker based on a video image of a worker.

物流センターでは、倉庫に保管された商品や、依頼主から集荷した小包などの荷物を、届け先別に仕分けして出荷する仕分け作業が行われており、近年の取り扱い量の増大に伴い、仕分け作業の作業量も増大している。こうした中、仕分け作業の作業効率の改善に結び付けるため、作業者による作業の実施状況、特に作業者ごとの作業時間を把握して、作業者ごとの作業効率を評価したいといった要望がある。   At distribution centers, sorting work is carried out to sort and ship goods stored in warehouses and parcels collected from clients by destination. The amount of work is also increasing. Under such circumstances, in order to improve the work efficiency of the sorting work, there is a demand for evaluating the work efficiency for each worker by grasping the work execution status by the worker, particularly the work time for each worker.

このような要望に関連するものとして、従来、入室者用および退室者用のカメラから画像を取得して、2つのカメラの画像に写った人物同士で人物照合を行い、人物照合が成功した人物が写る画像の撮影時刻から、対象エリア内に滞留する滞留時間を人物ごとに計測する技術が知られている(特許文献1参照)。   In relation to such a request, a person who has been successfully verified by acquiring images from cameras for entering and leaving the room and performing person matching between the people in the images of the two cameras. There is known a technique for measuring, for each person, a staying time staying in a target area from the shooting time of an image in which the image is captured (see Patent Document 1).

特開平07−249138号公報JP 07-249138 A

さて、作業時間は、作業内容、すなわち作業の種類や作業量に応じて異なる。例えば、前記の物流センターで行われる仕分け作業では、通常、作業伝票に基づいて作業が行われ、その作業量は、作業伝票に記載された作業内容に応じて異なる。このため、作業者ごとの作業効率を評価するには、作業を行った作業者を認識する他に、作業者が行った作業案件を認識して、作業者および作業案件ごとに作業時間を計測する必要がある。   Now, the work time varies depending on the work content, that is, the type of work and the work amount. For example, in the sorting work performed at the distribution center, the work is usually performed based on a work slip, and the amount of work varies depending on the work content described in the work slip. Therefore, in order to evaluate the work efficiency of each worker, in addition to recognizing the worker who performed the work, the work case performed by the worker is recognized and the work time is measured for each worker and the work case. There is a need to.

一方、前記の特許文献1に開示された技術を用いることで、作業を行った作業者を認識して、作業者ごとの作業時間を計測することができるが、作業者が行った作業案件を認識することができないという問題があった。また、端末を操作するなどして作業案件に関する情報を作業者に入力させることも考えられるが、このような行為は作業の支障になり、作業効率が低下するという問題がある。   On the other hand, by using the technique disclosed in Patent Document 1, it is possible to recognize the worker who performed the work and measure the work time for each worker. There was a problem that it could not be recognized. In addition, it is conceivable to cause the worker to input information related to the work item by operating the terminal, but such an action hinders the work and has a problem that the work efficiency is lowered.

本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、作業者の作業効率を低下させることなく、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができるように構成された作業管理装置、作業管理システムおよび作業管理方法を提供することにある。   The present invention has been devised to solve such problems of the prior art, and its main purpose is to perform work for each worker and work item without reducing the work efficiency of the worker. It is an object of the present invention to provide a work management device, a work management system, and a work management method configured to generate and output information related to an implementation status.

本発明の作業管理装置は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理装置であって、作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、を備えた構成とする。   The work management apparatus according to the present invention is a work management apparatus that generates and outputs information related to a work execution status by a worker based on a video obtained by photographing the worker. A first image acquisition unit that acquires the worker image of the second, a second image acquisition unit that acquires a second worker image in which the worker at the end of the work is shown, and the first and second worker images The image analysis is performed on at least one of the work time measurement unit that measures the work time required for work related to one work item, and the first and second worker images. And generating information related to the execution status of each worker and the work item based on the measurement result by the work recognition unit, the work recognition unit that recognizes the work item, and the recognition result by the work recognition unit. Implementation information generator and this A structure in which and a display information generation unit for generating and outputting a display information information Show on the implementation of each facilities information the operator and the work projects generated by the generating unit.

また、本発明の作業管理システムは、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理システムであって、作業者を撮影するカメラと、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記カメラにより撮影された作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、前記カメラにより撮影された作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、を備えた構成とする。   Further, the work management system of the present invention is a work management system that generates and outputs information related to a work execution status by a worker based on a video obtained by photographing the worker, and a camera that photographs the worker, A plurality of information processing devices, and any one of the plurality of information processing devices acquires a first worker image in which a worker at the start of work taken by the camera is captured. A second image acquisition unit that acquires a second worker image captured by the camera at the end of the work photographed by the camera, and performs image analysis on the first and second worker images. And performing an image analysis on at least one of the work time measuring unit that measures the work time required for work related to one work item and the first and second worker images, and A work recognition unit for recognizing Based on the measurement result by the time measurement unit and the recognition result by the work recognition unit, an execution information generation unit that generates information on the execution status of each worker and the work item, and the work generated by the execution information generation unit And a display information generation unit that generates and outputs display information for displaying information related to the implementation status for each person and the work item.

また、本発明の作業管理方法は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する処理を情報処理装置に行わせる作業管理方法であって、作業開始時の作業者が写る第1の作業者画像を取得するステップと、作業終了時の作業者が写る第2の作業者画像を取得するステップと、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測するステップと、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識するステップと、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成するステップと、このステップで生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力するステップと、を有する構成とする。   Further, the work management method of the present invention is a work management method for causing an information processing apparatus to perform processing for generating and outputting information related to a work execution status by a worker based on a video taken of the worker, A step of obtaining a first worker image showing a worker at the start of work, a step of obtaining a second worker image showing a worker at the end of work, and the first and second worker images. Performing image analysis for the step of measuring work time required for work related to one work item, and performing image analysis on at least one of the first and second worker images, Recognizing the work item, and generating information related to the implementation status of the worker and the work item based on the measurement result by the work time measurement unit and the recognition result by the work recognition unit; To a step generated by the operator and that the generated display information for displaying information on the implementation of each work project outputs in steps of, configured to have.

本発明によれば、第1、第2の作業者画像に基づいて、作業を行った作業者を特定して、その作業者の作業時間を取得するとともに、作業案件を認識するため、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる。そして、端末を操作するなどして作業案件に関する情報を作業者に入力させる必要がないため、作業効率が低下することを避けることができる。   According to the present invention, the worker who has performed the work is specified based on the first and second worker images, the working time of the worker is acquired, and the work item is recognized. It is also possible to generate and output information on the work execution status for each work item. And since it is not necessary to make a worker input the information regarding a work item by operating a terminal etc., it can avoid that work efficiency falls.

本実施形態に係る作業管理システムの全体構成図Overall configuration diagram of a work management system according to the present embodiment 仕分け場のレイアウトおよびカメラ1a,1bの設置状況を示す仕分け場の平面図Top view of the sorting area showing the layout of the sorting area and the installation status of the cameras 1a and 1b 仕分け作業で用いられる作業伝票を示す説明図Explanatory diagram showing work slips used in sorting work PC3で行われる作業管理処理の要領を説明する説明図Explanatory drawing explaining the point of the work management process performed by PC3 PC3の概略構成を示す機能ブロック図Functional block diagram showing schematic configuration of PC3 モニタ7に表示される人物照合画面を示す説明図Explanatory drawing which shows the person collation screen displayed on the monitor 7 実施情報生成部35で生成される実施情報を示す説明図Explanatory drawing which shows the implementation information produced | generated by the implementation information generation part 35 モニタ7に表示される一覧表示画面を示す説明図Explanatory drawing which shows the list display screen displayed on the monitor 7 モニタ7に表示される映像表示画面を示す説明図Explanatory drawing which shows the video display screen displayed on the monitor 7 カメラ1a,1bの配置の別例を説明する仕分け場の要部平面図The principal part top view of the sorting area explaining another example of arrangement | positioning of camera 1a, 1b

前記課題を解決するためになされた第1の発明は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理装置であって、作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、を備えた構成とする。   A first invention made to solve the above-described problem is a work management device that generates and outputs information related to a work execution status by a worker based on a video obtained by photographing the worker, and at the start of the work. A first image acquisition unit that acquires a first worker image in which the first worker image is captured, a second image acquisition unit that acquires a second worker image in which the worker at the end of the operation is captured, and the first A work time measurement unit that performs image analysis on the second worker image and measures a work time required for work related to one work item; and at least one of the first and second worker images Image recognition is performed, and the work recognition unit for recognizing the work item, the measurement result by the work time measurement unit, and the recognition result by the work recognition unit, Generate information about implementation status And a display information generation unit that generates and outputs display information for displaying information regarding the execution status for each of the workers and the work items generated by the execution information generation unit. .

これによると、第1、第2の作業者画像に基づいて、作業を行った作業者を特定して、その作業者の作業時間を取得するとともに、作業案件を認識するため、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる。そして、端末を操作するなどして作業案件に関する情報を作業者に入力させる必要がないため、作業効率が低下することを避けることができる。   According to this, in order to identify the worker who performed the work based on the first and second worker images, acquire the work time of the worker, and recognize the work item, the worker and the work It is possible to generate and output information related to work execution status for each item. And since it is not necessary to make a worker input the information regarding a work item by operating a terminal etc., it can avoid that work efficiency falls.

また、第2の発明は、前記作業認識部で用いられる前記作業者画像は、前記作業案件を特定する表示物が前記作業者とともに写ったものであり、前記作業認識部は、前記作業者画像内の前記表示物が写った部分画像に対して画像解析を行って、前記作業案件を認識する構成とする。   In the second invention, the worker image used in the work recognition unit is a photograph of a display object specifying the work item together with the worker, and the work recognition unit includes the worker image. An image analysis is performed on a partial image in which the display object is reflected to recognize the work item.

これによると、作業案件を特定する表示物に基づいて作業案件を認識するため、作業案件を精度良く認識することができる。   According to this, since the work item is recognized based on the display object for specifying the work item, the work item can be recognized with high accuracy.

また、第3の発明は、前記表示物は、作業内容に関する情報が記載された作業伝票であり、前記作業認識部で用いられる前記作業者画像は、前記作業伝票が前記作業者により提示された状態で写ったものである構成とする。   According to a third aspect of the present invention, the display object is a work slip in which information about work contents is described, and the worker image used in the work recognition unit is the work slip presented by the worker. It is the composition that is reflected in the state.

これによると、作業伝票は、作業者が作業を行う上で必要なものであり、この作業伝票で作業案件を認識するため、作業案件を認識するために特別な表示物を用意する必要がなくなる。   According to this, the work slip is necessary for the worker to perform the work, and the work slip is recognized by the work slip, so that it is not necessary to prepare a special display object to recognize the work slip. .

また、第4の発明は、前記表示情報生成部は、対象期間における前記作業者および前記作業案件ごとの実施状況に関する情報を一覧表示する一覧表示情報を生成して出力する構成とする。   According to a fourth aspect of the present invention, the display information generating unit generates and outputs list display information for displaying a list of information on the worker and the implementation status for each work item in the target period.

これによると、作業者および作業案件ごとの実施状況をユーザが一目で把握することができる。特に、作業者ごとの作業時間を比較することで、各作業者の作業効率をユーザが把握することができ、また、作業案件ごとの作業時間を比較することで、作業案件による違いをユーザが把握することができる。   According to this, the user can grasp at a glance the implementation status for each worker and work item. In particular, by comparing the work time for each worker, the user can grasp the work efficiency of each worker, and by comparing the work time for each work item, the user can see the difference between work items. I can grasp it.

また、第5の発明は、前記表示情報生成部は、前記一覧表示情報を表示装置に表示させた画面において前記作業案件を選択するユーザの入力操作に応じて、その作業案件に関する作業状況を撮影した映像を表示する構成とする。   According to a fifth aspect of the present invention, the display information generation unit shoots a work situation related to a work item in response to an input operation of a user who selects the work item on a screen in which the list display information is displayed on a display device. The video is displayed.

これによると、映像で作業者の実際の作業状況を確認することができ、これにより、作業者および作業案件の問題点などを具体的に把握することができる。この場合、作業者の作業状況を撮影するカメラを設置するとともに、そのカメラによる映像を蓄積する映像蓄積部を設けて、その映像蓄積部から映像を取得すればよい。   According to this, it is possible to confirm the actual work status of the worker on the video, and thereby it is possible to specifically grasp the problems of the worker and the work item. In this case, a camera that captures the work situation of the worker may be installed, and a video storage unit that stores video from the camera may be provided to acquire the video from the video storage unit.

また、第6の発明は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理システムであって、作業者を撮影するカメラと、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、前記カメラにより撮影された作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、前記カメラにより撮影された作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、を備えた構成とする。   According to a sixth aspect of the present invention, there is provided a work management system for generating and outputting information related to a work execution status by a worker based on an image of a worker photographed, a camera for photographing the worker, An information processing device, and any one of the plurality of information processing devices acquires a first worker image that captures a worker at the time of starting work taken by the camera; A second image acquisition unit that acquires a second worker image captured by the camera at the end of the work, and image analysis is performed on the first and second worker images. Recognizing the work item by performing image analysis on at least one of the work time measuring unit that measures the work time required for work related to one work item and the first and second worker images Work recognition unit and the work time measurement unit Based on the measurement result and the recognition result by the work recognition unit, an implementation information generation unit that generates information on the implementation status for each worker and the work item, the worker generated by the implementation information generation unit, and the A display information generation unit that generates and outputs display information for displaying information on the implementation status for each work item is provided.

これによると、第1の発明と同様に、作業者の作業効率を低下させることなく、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる。   According to this, similarly to the first invention, it is possible to generate and output information regarding the work implementation status for each worker and work item without reducing the work efficiency of the worker.

また、第7の発明は、作業エリアに進入する作業者を撮影する第1のカメラと、前記作業エリアから退出する作業者を撮影する第2のカメラとが別々に設けられ、前記第1の画像取得部は、前記第1のカメラから前記第1の作業者画像を取得し、前記第2の画像取得部は、前記第2のカメラから前記第2の作業者画像を取得する構成とする。   According to a seventh aspect of the present invention, a first camera for photographing a worker entering the work area and a second camera for photographing a worker leaving the work area are provided separately, and the first camera The image acquisition unit acquires the first worker image from the first camera, and the second image acquisition unit acquires the second worker image from the second camera. .

これによると、作業開始時および作業終了時の各タイミングで作業者を正面から撮影することができるため、作業者がカメラの方を振り向くという余計な動作を作業者に行わせる必要がなくなるため、作業者の負担を軽減して、作業効率を高めることができる。   According to this, since the operator can be photographed from the front at each timing at the start of work and at the end of work, it is not necessary to make the worker perform an extra operation of turning around the camera, Work burden can be reduced and work efficiency can be improved.

また、第8の発明は、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する処理を情報処理装置に行わせる作業管理方法であって、作業開始時の作業者が写る第1の作業者画像を取得するステップと、作業終了時の作業者が写る第2の作業者画像を取得するステップと、前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測するステップと、前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識するステップと、前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成するステップと、このステップで生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力するステップと、を有する構成とする。   Further, an eighth invention is a work management method for causing an information processing apparatus to perform processing for generating and outputting information relating to a work execution status by a worker based on a video photographed by the worker. A step of acquiring a first worker image showing a worker at the time, a step of acquiring a second worker image showing a worker at the end of the operation, and the first and second worker images Performing the image analysis to measure the work time required for work related to one work item, and performing image analysis on at least one of the first and second worker images, A step of recognizing a case, a step of generating information on an implementation status for each of the worker and the work case based on a measurement result by the work time measurement unit and a recognition result by the work recognition unit, and this step To a step in the generated by the generated the worker and display information for displaying information on the implementation of each of the working project outputs, configured to have.

これによると、第1の発明と同様に、作業者の作業効率を低下させることなく、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる。   According to this, similarly to the first invention, it is possible to generate and output information regarding the work implementation status for each worker and work item without reducing the work efficiency of the worker.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る作業管理システムの全体構成図である。この作業管理システムは、物流センターなどを対象にして構築されるものであり、カメラ1a,1bと、レコーダ(映像蓄積装置)2と、PC(作業管理装置)3と、を備えている。   FIG. 1 is an overall configuration diagram of a work management system according to the present embodiment. This work management system is constructed for a distribution center or the like, and includes cameras 1a and 1b, a recorder (video storage device) 2, and a PC (work management device) 3.

カメラ1a,1bは物流センターの仕分け場に設置され、カメラ1a,1bにより仕分け場内が撮影され、これにより得られた映像がレコーダ2に蓄積される。   The cameras 1a and 1b are installed in the sorting center of the distribution center, the inside of the sorting place is photographed by the cameras 1a and 1b, and images obtained thereby are stored in the recorder 2.

PC3には、管理者などのユーザが種々の入力操作を行うマウスなどの入力デバイス6と、監視画面を表示するモニタ(表示装置)7とが接続されている。このPC3は、物流センターの事務室などに設置され、ユーザが、モニタ7に表示される監視画面により、カメラ1a,1bで撮影された仕分け場の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の仕分け場の映像を閲覧することができる。   Connected to the PC 3 are an input device 6 such as a mouse for a user such as an administrator to perform various input operations, and a monitor (display device) 7 for displaying a monitoring screen. The PC 3 is installed in an office of a distribution center or the like, and the user can browse the images of the sorting area taken by the cameras 1a and 1b in real time on the monitor screen displayed on the monitor 7, The video of the past sorting area recorded in the recorder 2 can be browsed.

次に、仕分け場のレイアウトおよびカメラ1a,1bの設置状況について説明する。図2は、仕分け場のレイアウトおよびカメラ1a,1bの設置状況を示す仕分け場の平面図である。   Next, the layout of the sorting area and the installation status of the cameras 1a and 1b will be described. FIG. 2 is a plan view of the sorting area showing the layout of the sorting area and the installation status of the cameras 1a and 1b.

仕分け場では、衣料品などの商品を、作業伝票に基づいて、出荷先店舗別に用意されたクレート(コンテナ)21に仕分ける仕分け作業が行われる。クレート21は1方向に並んで配置されており、このクレート21の2つの列と、その間の通路とで1つの作業エリアが形成される。作業者A〜Eは、図示しない倉庫に保管された1種類の商品を、作業伝票に記載された数量だけ搬送台車22に積み込んだ上で、搬送台車22を押しながら作業エリアに進入して、搬送台車22に積み込まれた商品を、作業伝票に記載された出荷先店舗のクレート21に順次投入していく。   In the sorting area, sorting work is performed in which products such as clothing are sorted into crate (container) 21 prepared for each destination store based on the work slip. The crate 21 is arranged side by side in one direction, and one work area is formed by two rows of the crate 21 and a passage between them. Workers A to E enter the work area while pushing the transport cart 22 after loading the same amount of goods stored in a warehouse not shown in the work slip onto the transport cart 22. The products loaded on the transport carriage 22 are sequentially put into the crate 21 of the shipping destination store described in the work slip.

また、本実施形態では、仕分け場内に複数の作業エリアが設定されており、各作業エリアを作業者A〜Eが1人ずつ担当する。図2に示す例では、仕分け場内に第1〜第5の5つの作業エリア(エリアNo.01〜No.05)が設定されており、この5つの作業エリアを5人の作業者A〜Eがそれぞれ担当する。   In the present embodiment, a plurality of work areas are set in the sorting area, and workers A to E take charge of each work area one by one. In the example shown in FIG. 2, first to fifth work areas (area No. 01 to No. 05) are set in the sorting area, and these five work areas are assigned to five workers A to E. Are in charge of each.

また、本実施形態では、作業エリアごとに第1,第2の2つのカメラ1a,1bが配置されている。第1のカメラ1aは、作業エリアの出入口に配置されており、作業エリアに出入りする作業者A〜Eを撮影することができる。第2のカメラ1bは、作業エリア内の通路を見渡すように、作業エリアの出入口と相反する側に配置されており、作業エリア内で仕分け作業を行う作業者A〜Eを撮影することができる。   In the present embodiment, the first and second cameras 1a and 1b are arranged for each work area. The 1st camera 1a is arrange | positioned at the entrance / exit of a work area, and can image | photograph the workers A-E which go in and out of a work area. The second camera 1b is arranged on the side opposite to the entrance / exit of the work area so as to overlook the passage in the work area, and can photograph the workers A to E who perform sorting work in the work area. .

なお、本実施形態では、第1のカメラ1aが、作業エリアに進入する時点での作業者A〜Eと、作業エリアから退出する時点での作業者A〜Eとの双方を撮影するようにしたが、作業エリアに進入する時点での作業者A〜Eを第2のカメラ1bで撮影するようにしてもよい。   In the present embodiment, the first camera 1a captures both the workers A to E when entering the work area and the workers A to E when leaving the work area. However, you may make it image | photograph worker AE at the time of approaching into a work area with the 2nd camera 1b.

次に、仕分け作業で用いられる作業伝票について説明する。図3は、仕分け作業で用いられる作業伝票を示す説明図である。   Next, work slips used in sorting work will be described. FIG. 3 is an explanatory view showing a work slip used in the sorting work.

この作業伝票は、仕分け作業の作業内容が記載されたものであり、倉庫から搬出された1種類の商品を出荷先の店舗ごとに必要な数量だけ仕分ける際に用いられる。作業伝票には、仕分け作業を識別する情報として、仕分け作業番号、作業エリアの名称、および仕分け作業番号のバーコードが記載されている。また、作業伝票には、仕分け作業の対象となる商品に関する情報として、商品コード、商品の品番、商品の数量(総数)、出荷先店舗数、商品名称が記載されている。また、作業伝票には、出荷先の店舗に関する情報として、出荷先の店舗ごとに、店舗コード、商品の数量、および店舗名称が記載されている。   This work slip describes the work contents of the sorting work, and is used when sorting a necessary quantity of one kind of product carried out from the warehouse for each store of the shipping destination. In the work slip, as the information for identifying the sorting work, the sorting work number, the name of the work area, and the barcode of the sorting work number are described. In addition, the work slip includes a product code, a product number, a product quantity (total number), a number of shipping destination stores, and a product name as information about the product to be sorted. The work slip includes a store code, a quantity of goods, and a store name for each store of the shipping destination as information on the shipping destination store.

作業伝票は、作業エリアごとに作成され、1枚の作業伝票に記載された出荷先店舗は、1つの作業エリアに配置された出荷先店舗別のクレート21に対応しており、作業者が作業エリアに入って、作業伝票に記載された仕分け内容(出荷先店舗および数量)にしたがって仕分け作業を行うことで、1回の仕分け作業が終了し、本実施形態では、1枚の作業伝票に基づいて行われる仕分け作業を1つの作業案件とする。   A work slip is created for each work area, and the shipping destination store described in one work slip corresponds to the crate 21 for each shipping destination store arranged in one work area, and the worker works By entering the area and performing the sorting work according to the sorting contents (ship destination store and quantity) described in the work slip, one sorting work is completed. In this embodiment, based on one work slip The sorting work performed in this way is defined as one work item.

次に、図1に示したPC3で行われる作業管理処理の要領について説明する。図4は、PC3で行われる作業管理処理の要領を説明する説明図である。   Next, the procedure of the work management process performed by the PC 3 shown in FIG. 1 will be described. FIG. 4 is an explanatory diagram for explaining the procedure of work management processing performed by the PC 3.

本実施形態では、仕分け作業が、作業エリア内で行われるため、作業者が作業エリアに進入することで作業を開始したものとみなすことができ、また、作業者が作業エリアから退出することで作業が終了したものとみなすことができる。したがって、第1のカメラ1aにより、作業エリアに進入する時点、すなわち作業を開始した時点での作業者と、作業エリアから退出する時点、すなわち作業を終了した時点での作業者とが撮影され、作業開始時の作業者が写る第1の作業者画像および作業終了時の作業者が写る第2の作業者画像を取得することができる。   In this embodiment, since the sorting work is performed in the work area, it can be considered that the worker has started work by entering the work area, and the worker can leave the work area. It can be considered that the work has been completed. Therefore, the first camera 1a takes a picture of the worker at the time of entering the work area, that is, the worker at the time of starting the work, and the worker at the time of leaving the work area, that is, the worker at the time of finishing the work, A first worker image in which the worker at the start of the work is shown and a second worker image in which the worker at the end of the work is shown can be acquired.

ここで、作業エリアに進入する際に、作業者にカメラ1a,1bの方を振り向かせることで、作業者の顔が写った第1の作業者画像を取得することができる。また、作業エリアから退出する際に、作業者にカメラ1a,1bの方を振り向かせるとともに、作業者に作業伝票を提示する動作、具体的には作業伝票を胸の前に掲げる動作を行わせることにより、作業者の顔とともに作業伝票が撮影され、作業者の顔と作業伝票とが写った第2の作業者画像を取得することができる。   Here, when entering the work area, by turning the cameras 1a and 1b toward the worker, the first worker image in which the worker's face is reflected can be acquired. Further, when leaving the work area, the operator turns the cameras 1a and 1b to turn around and presents the work slip to the worker, specifically, the operation of raising the work slip in front of the chest. Thus, the work slip is photographed together with the worker's face, and a second worker image in which the worker's face and the work slip are captured can be acquired.

このようにして第1,第2の作業者画像を取得すると、各作業者画像から人物を認識して、双方の人物が同一人物か否かを判定する人物照合を行う。この人物照合が成功すると、1人の作業者が作業エリアで仕分け作業を実施したものと判断することができる。そして、第1の作業者画像の撮影時刻を作業開始時刻とし、第2の作業者画像の撮影時刻を作業終了時刻として、この作業開始時刻および作業終了時刻から、仕分け作業に要した作業時間を取得することができる。また、作業者画像を撮影したカメラ1a,1bから、作業エリアを特定することができる。   When the first and second worker images are acquired in this way, a person verification is performed by recognizing a person from each worker image and determining whether or not both persons are the same person. If this person verification is successful, it can be determined that one worker has performed sorting work in the work area. Then, with the shooting time of the first worker image as the work start time and the shooting time of the second worker image as the work end time, the work time required for the sorting work is determined from the work start time and the work end time. Can be acquired. In addition, the work area can be specified from the cameras 1a and 1b that have captured the worker images.

また、第2の作業者画像から作業伝票、特に仕分け作業番号が写った部分画像を抽出し、この部分画像に対してOCR(optical character recognition)を実施することで、仕分け作業番号(作業案件の識別情報)を取得することができる。これにより、作業者が処理した作業伝票(作業案件)が特定される。   Also, a work slip, in particular a partial image showing the sorting work number, is extracted from the second worker image, and OCR (optical character recognition) is performed on this partial image, so that the sorting work number (work item Identification information) can be acquired. Thereby, the work slip (work item) processed by the worker is specified.

なお、本実施形態では、作業終了時に作業者に作業伝票を提示させるようにしたが、作業開始時に作業伝票を提示させる、あるいは作業開始時および作業終了時の両方で作業伝票を提示させるようにしてもよい。   In this embodiment, the work slip is presented to the worker at the end of the work, but the work slip is presented at the start of the work, or the work slip is presented at both the start and end of the work. May be.

なお、本実施形態では、作業伝票が作業エリアごとに用意され、また、作業者が1人ずつ予め定められた作業エリアを担当するようにしたが、作業エリアを担当する作業者を予め定めない、すなわち作業者が適宜に作業伝票を受け取ってその作業伝票に記載された作業エリアで仕分け作業を行うようにしてもよい。このような場合でも、作業伝票を処理した作業者を特定するとともに、作業伝票(作業案件)ごとの作業時間を取得することができる。   In this embodiment, a work slip is prepared for each work area, and one worker is assigned to a predetermined work area one by one. However, the worker who is responsible for the work area is not predetermined. That is, the worker may appropriately receive the work slip and perform the sorting work in the work area described in the work slip. Even in such a case, the worker who has processed the work slip can be specified, and the work time for each work slip (work item) can be acquired.

また、本実施形態では、第1,第2の作業者画像の各撮影時刻から作業開始時刻および作業終了時刻を取得するようにしたが、仕分け作業を行う作業者が写る画像に基づいて、仕分け作業の途中の段階での時刻を取得して、仕分け作業の各段階での経過時間を計測するようにしてもよい。   In the present embodiment, the work start time and the work end time are acquired from the shooting times of the first and second worker images, but the sorting is performed based on the images of the workers performing the sorting work. You may make it acquire the time in the middle of work, and measure the elapsed time in each stage of sorting work.

また、第1のカメラ1aにより作業者を撮影する際には、ボタン操作などの余計な動作を作業者に行わせないようにすることが望ましく、例えば、第1のカメラ1aにより常時撮影された画像の中から、人物照合に適した画像を取得することができると、ランプの点灯やスピーカによる報知音などにより、撮影が正常に終了したことを作業者に報知するようにすればよい。   In addition, when photographing the worker with the first camera 1a, it is desirable not to allow the worker to perform extra operations such as button operations. For example, the first camera 1a is always photographed. If an image suitable for person verification can be acquired from the images, the operator may be informed that the shooting has been completed normally by lighting the lamp or a notification sound from the speaker.

次に、図1に示したPC3で行われる作業管理処理について詳しく説明する。図5は、PC3の概略構成を示す機能ブロック図である。   Next, work management processing performed by the PC 3 shown in FIG. 1 will be described in detail. FIG. 5 is a functional block diagram showing a schematic configuration of the PC 3.

PC3は、第1の画像取得部31と、第2の画像取得部32と、作業時間計測部33と、作業認識部34と、実施情報生成部35と、入出力制御部36と、を備えている。   The PC 3 includes a first image acquisition unit 31, a second image acquisition unit 32, a work time measurement unit 33, a work recognition unit 34, an implementation information generation unit 35, and an input / output control unit 36. ing.

第1の画像取得部31は、1つの作業案件に係る作業、すなわち1枚の作業伝票の作業を開始した時点での作業者が写る第1の作業者画像を取得するものである。本実施形態では、第1のカメラ1a(図2参照)で、作業エリアに進入する作業者が撮影され、この作業エリアに進入する時点を、作業を開始した時点とみなして、第1のカメラ1aにより撮影されてレコーダ2に蓄積された映像から第1の作業者画像を取得する。   The first image acquisition unit 31 acquires a first worker image showing a worker at the time of starting work related to one work item, that is, work on one work slip. In the present embodiment, the first camera 1a (see FIG. 2) takes a picture of a worker entering the work area, and the time when the worker enters the work area is regarded as the time when the work is started. A first worker image is acquired from the video imaged by 1a and stored in the recorder 2.

第2の画像取得部32は、1つの作業案件に係る作業を終了した時点での作業者が写る第2の作業者画像を取得するものである。本実施形態では、第1のカメラ1a(図2参照)で、作業エリアから退出する作業者が撮影され、この作業エリアから退出する時点を、作業を終了した時点とみなして、第1のカメラ1aにより撮影されてレコーダ2に蓄積された映像から第2の作業者画像を取得する。   The second image acquisition unit 32 acquires a second worker image showing the worker at the time when the work related to one work item is completed. In the present embodiment, the first camera 1a (see FIG. 2) takes a picture of a worker leaving the work area, and the time when the worker leaves the work area is regarded as the time when the work is finished. A second worker image is acquired from the video imaged by 1a and stored in the recorder 2.

ここで、本実施形態では、1つのカメラ1a,1bで作業開始時および作業終了時の作業者を撮影することから、撮影された作業者が、作業開始時および作業終了時のいずれであるかを判別する必要がある。これには、第1,第2の画像取得部31,32で、映像から人物を検出する人物検出処理に加えて、検出された人物を追跡する人物追跡処理を行って、人物の移動方向を検出し、この移動方向に基づいて作業開始時および作業終了時のいずれであるかを判別すればよい。   Here, in this embodiment, since the workers at the start and end of work are photographed with one camera 1a, 1b, whether the photographed worker is at the start of work or at the end of work. Need to be determined. For this purpose, the first and second image acquisition units 31 and 32 perform a person tracking process for tracking the detected person in addition to the person detection process for detecting a person from the video, and the movement direction of the person is determined. What is necessary is just to detect and discriminate | determine whether it is at the time of work start and work end based on this moving direction.

なお、作業開始時および作業終了時の作業者を2つのカメラ1a,1bにより別々に撮影する構成も可能であり、この場合、撮影したカメラ1a,1bにより作業開始時および作業終了時を判別することができるため、人物の移動方向の検出は不要である。   Note that it is possible to shoot the workers at the start and end of work separately by the two cameras 1a and 1b. In this case, the start and end of work are determined by the captured cameras 1a and 1b. Therefore, it is not necessary to detect the moving direction of the person.

作業時間計測部33では、第1,第2の画像取得部31,32により取得した第1,第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する処理が行われる。   The work time measurement unit 33 performs image analysis on the first and second worker images acquired by the first and second image acquisition units 31 and 32 and is required for work related to one work item. Processing for measuring the working time is performed.

すなわち、作業時間計測部33は、人物照合部37を備えており、この人物照合部37において、画像解析により第1、第2の作業者画像にそれぞれ写る人物間で人物照合を行い、この人物照合が成功すると、1人の作業者が作業エリアで仕分け作業を実施したものと判断して、第1の作業者画像の撮影時刻を作業開始時刻とし、第2の作業者画像の撮影時刻を作業終了時刻として、作業開始時刻および作業終了時刻から作業時間を算出する。   That is, the work time measuring unit 33 includes a person collation unit 37. The person collation unit 37 performs person collation between the persons shown in the first and second worker images by image analysis. If the collation is successful, it is determined that one worker has performed sorting work in the work area, the shooting time of the first worker image is set as the work start time, and the shooting time of the second worker image is set as the shooting time. As the work end time, the work time is calculated from the work start time and the work end time.

なお、人物照合処理では、第1,第2の作業者画像にそれぞれ写る人物を認識して、双方の人物が同一人物か否かの判定を行えばよいが、作業者を予め登録しておき、その登録された作業者と作業者画像から認識された人物との間で人物照合を行って、作業者を特定するようにしてもよい。このようにすると、作業者として登録されていない人物を検知することができるため、セキュリティを確保する利点も得られる。   In the person verification process, it is sufficient to recognize each person in the first and second worker images and determine whether both persons are the same person, but the worker is registered in advance. The person may be identified by performing person verification between the registered worker and the person recognized from the worker image. In this way, since a person who is not registered as an operator can be detected, an advantage of ensuring security can be obtained.

また、人物照合処理には、公知の人物認識技術を用いればよく、例えば、2つの作業者画像から抽出された特徴量データを比較して同一の人物か否かの判定を行えばよい。   For the person collation process, a known person recognition technique may be used. For example, feature amount data extracted from two worker images may be compared to determine whether or not they are the same person.

作業認識部34では、第1,第2の画像取得部31,32により取得した作業者画像の少なくともいずれかに対して画像解析を行って、作業者が行う作業案件を認識する処理が行われる。本実施形態では、前記のように、作業者が提示する作業伝票(表示物)により作業案件を認識する。また、本実施形態では、作業エリアから退出する際に作業者に作業伝票を提示させるため、第2の画像取得部32により取得した第2の作業者画像に対して画像解析を行って作業案件を認識する。   The work recognition unit 34 performs image analysis on at least one of the worker images acquired by the first and second image acquisition units 31 and 32 to recognize a work item performed by the worker. . In the present embodiment, as described above, the work item is recognized by the work slip (display object) presented by the worker. In the present embodiment, in order to present the work slip to the worker when leaving the work area, the second work image obtained by the second image obtaining unit 32 is subjected to image analysis to obtain a work item. Recognize

また、本実施形態では、画像解析として、作業伝票に記載された仕分け作業番号を読み取るOCRが行われ、これにより仕分け作業番号を取得する。この画像解析では、作業者画像から作業伝票の画像領域を検出し、さらに作業伝票の画像領域内の仕分け作業番号が写る部分画像を抽出して、その部分画像に対してOCRを実施することで仕分け作業番号を取得する。   In the present embodiment, as the image analysis, OCR is performed to read the sorting work number described in the work slip, and thereby the sorting work number is acquired. In this image analysis, the image area of the work slip is detected from the worker image, and further, a partial image showing the sorting work number in the image area of the work slip is extracted, and OCR is performed on the partial image. Get the sorting work number.

実施情報生成部35では、作業時間計測部33による計測結果および作業認識部34による認識結果に基づいて、作業者および作業案件ごとの実施状況に関する情報、特に、作業者および作業案件ごとの作業時間、すなわち、だれがどのような作業にどれだけの時間を要したかに関する情報を生成する処理が行われる。また、本実施形態では、作業者ごとの平均作業時間を算出する集計処理や、所定の集計単位期間ごとの作業完了伝票枚数、すなわち集計単位期間内で仕分け作業が完了した作業伝票の枚数を算出する集計処理が行われる。   In the execution information generation unit 35, based on the measurement result by the work time measurement unit 33 and the recognition result by the work recognition unit 34, information on the implementation status for each worker and work item, in particular, the work time for each worker and work item. That is, a process for generating information regarding who took what time and what time was taken. Further, in the present embodiment, the total processing for calculating the average work time for each worker and the number of work completion slips for each predetermined total unit period, that is, the number of work slips for which the sorting work has been completed within the total unit period are calculated. Totaling processing is performed.

入出力制御部36は、モニタ7およびマウスなどの入力デバイス(入力部)6を用いたGUI(Graphical User Interface)により、ユーザの入力操作による入力情報を取得する処理、および実施情報生成部35で生成した情報などを出力する処理を行うものであり、入力情報取得部41と、表示情報生成部42と、を備えている。   The input / output control unit 36 is a process for acquiring input information by a user's input operation using a GUI (Graphical User Interface) using the monitor 7 and an input device (input unit) 6 such as a mouse, and an execution information generating unit 35. A process for outputting the generated information and the like is performed, and an input information acquisition unit 41 and a display information generation unit 42 are provided.

表示情報生成部42では、実施情報生成部35で生成した作業者および作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する処理が行われ、その表示情報がモニタ7に表示される。本実施形態では、表示情報として、対象期間における作業者および作業案件ごとの作業時間を一覧表示する一覧表示情報を生成して出力する。また、本実施形態では、レコーダ2から映像を取得して表示する処理が行われる。   In the display information generation unit 42, processing for generating and outputting display information for displaying information regarding the execution status for each worker and work item generated by the execution information generation unit 35 is performed, and the display information is displayed on the monitor 7. Is done. In the present embodiment, as the display information, list display information for displaying a list of workers and work times for each work item in the target period is generated and output. In the present embodiment, processing for acquiring and displaying video from the recorder 2 is performed.

入力情報取得部41では、モニタ7に表示された画面上で入力デバイス6を用いてユーザが行った入力操作に応じて入力情報を取得する処理が行われ、ここで取得した入力情報に基づいて、実施情報生成部35において所要の実施情報を生成する処理などが行われる。   The input information acquisition unit 41 performs a process of acquiring input information according to an input operation performed by the user using the input device 6 on the screen displayed on the monitor 7, and based on the input information acquired here. The execution information generation unit 35 performs processing for generating required execution information.

なお、図5に示したPC3の各部は、PC3のCPUに作業管理用のプログラムを実行させることで実現される。このプログラムは、情報処理装置としてのPC3に予め導入して専用の装置として構成する他、汎用OS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。   Each unit of the PC 3 shown in FIG. 5 is realized by causing the CPU of the PC 3 to execute a work management program. This program is pre-installed in the PC 3 as an information processing device and configured as a dedicated device, and is recorded on an appropriate program recording medium as an application program that runs on a general-purpose OS, and is also transmitted to the user via a network. It may be provided.

次に、図5に示した人物照合部37で行われる人物照合処理の状況を表示する人物照合画面について説明する。図6は、モニタ7に表示される人物照合画面を示す説明図である。   Next, a person verification screen that displays the status of the person verification process performed by the person verification unit 37 shown in FIG. 5 will be described. FIG. 6 is an explanatory diagram showing a person verification screen displayed on the monitor 7.

人物照合画面は、第1の映像表示部51と、第2の映像表示部52と、操作ボタン53と、照合結果一覧表示部54と、を備えている。   The person verification screen includes a first video display unit 51, a second video display unit 52, operation buttons 53, and a verification result list display unit 54.

第1の映像表示部51には、作業開始時の作業者の映像(動画)、すなわち作業エリアに進入する作業者が撮影された映像が表示される。第2の映像表示部52には、作業終了時の作業者の映像(動画)、すなわち作業エリアから退出する作業者が撮影された映像が表示される。なお、第1の映像表示部51に表示される作業開始時の映像の1つのフレームが第1の作業者画像となり、第2の映像表示部52に表示される作業終了時の映像の1つのフレームが第2の作業者画像となる。   The first video display unit 51 displays a video (moving image) of the worker at the start of the work, that is, a video shot of the worker entering the work area. The second video display unit 52 displays a video (moving image) of the worker at the end of the work, that is, a video taken of the worker leaving the work area. Note that one frame of the video at the start of work displayed on the first video display unit 51 is the first worker image, and one of the videos at the end of the work displayed on the second video display unit 52 is displayed. The frame becomes the second worker image.

操作ボタン53は、第1,第2の映像表示部51,52での映像の再生に関する指示を行うものであり、再生の停止および一時停止、ならびにカメラ設定、すなわちカメラ1a,1bを切り替える操作などを行うことができる。   The operation button 53 is used to instruct the reproduction of the video on the first and second video display units 51 and 52, and stops and pauses the reproduction, and the camera setting, that is, the operation of switching the cameras 1a and 1b. It can be performed.

照合結果一覧表示部54は、人物照合部37で行われる人物照合処理の結果を、人物照合で同一人物と判定された人物ごとに表示するものであり、第1の顔画像表示部55と、第2の顔画像表示部56と、照合結果表示部57と、を備えている。   The matching result list display unit 54 displays the result of the person matching process performed by the person matching unit 37 for each person determined to be the same person by the person matching, and includes a first face image display unit 55, A second face image display unit 56 and a matching result display unit 57 are provided.

第1の顔画像表示部55には、人物照合処理で第1の作業者画像から抽出された作業開始時の作業者の顔画像が表示される。第2の顔画像表示部56には、人物照合処理で第2の作業者画像から抽出された作業終了時の作業者の顔画像が表示される。   The first face image display unit 55 displays the face image of the worker at the start of the work extracted from the first worker image in the person matching process. The second face image display unit 56 displays the face image of the worker at the end of the work extracted from the second worker image in the person matching process.

照合結果表示部57には、照合結果情報として、本人識別情報(IDおよびEnID)と、作業開始時および作業終了時の各顔画像間での人物の類似度(Score)と、作業開始時に最初に作業者を検出した時刻から作業終了時に最初に照合した時刻までの時間(Time1)と、作業開始時に最初に作業者を検出した時刻から作業終了時に最後に照合した時刻までの時間(Time2)と、が表示される。   The collation result display unit 57 includes, as collation result information, identification information (ID and EnID), person similarity (Score) between the face images at the start and end of work, The time from the time when the worker was detected to the time when the worker was first collated at the end of the work (Time1) and the time from the time when the worker was first detected at the start of the work to the time when the worker was last collated (Time2) Is displayed.

この人物照合画面により、人物照合部37で行われる人物照合処理の状況、すなわち人物照合処理が適切に実施されたか否かをユーザが確認することができる。   With this person verification screen, the user can confirm the status of the person verification process performed by the person verification unit 37, that is, whether or not the person verification process has been appropriately performed.

次に、図5に示した実施情報生成部35で生成される実施情報について説明する。図7は、実施情報生成部35で生成される実施情報を示す説明図である。   Next, the implementation information generated by the implementation information generation unit 35 illustrated in FIG. 5 will be described. FIG. 7 is an explanatory diagram showing implementation information generated by the implementation information generation unit 35.

実施情報生成部35では、作業時間計測部33による計測結果および作業認識部34による認識結果に基づいて、作業者および作業案件ごとの実施状況に関する実施情報を生成する処理が行われる。本実施形態では、各作業者がそれぞれ1つの作業エリアを担当するようにしており、実施情報生成部35では、実施情報として、作業エリアおよび作業者別に、所定の対象期間(時間帯、10:00〜12:15)における、作業伝票(作業案件)ごとの作業開始時刻、作業終了時刻、および作業時間(所要時間)と、作業伝票1枚あたりの平均作業時間と、仕分け作業が終わった作業伝票の枚数(処理枚数)と、を取得する。   The execution information generation unit 35 performs processing for generating execution information related to the execution status for each worker and work item based on the measurement result by the work time measurement unit 33 and the recognition result by the work recognition unit 34. In the present embodiment, each worker is responsible for one work area, and the execution information generating unit 35 uses a predetermined target period (time zone, 10:10) for each work area and worker as the execution information. 00-12: 15), the work start time, work end time, and work time (required time) for each work voucher (work item), the average work time per work voucher, and the work for which the sorting work has ended. The number of slips (number of processed sheets) is acquired.

次に、図5に示した表示情報生成部42で生成される一覧表示情報について説明する。図8は、モニタ7に表示される一覧表示画面を示す説明図である。   Next, the list display information generated by the display information generation unit 42 shown in FIG. 5 will be described. FIG. 8 is an explanatory diagram showing a list display screen displayed on the monitor 7.

本実施形態では、表示情報生成部42において、対象期間における作業者および作業案件ごとの実施状況に関する情報を一覧表示する一覧表示情報を生成して出力する処理が行われ、これにより図8に示す一覧表示画面がモニタ7に表示される。   In the present embodiment, the display information generating unit 42 performs processing for generating and outputting list display information for displaying a list of information on the implementation status for each worker and work item in the target period. A list display screen is displayed on the monitor 7.

この一覧表示画面には、日時指定部61と、一覧表示部62と、が設けられている。日時指定部61は、日付および時間帯をユーザが指定するものである。一覧表示部62には、日時指定部61で指定された日付および時間帯の実施状況を表すグラフ63および一覧表64が表示される。   This list display screen is provided with a date and time designation unit 61 and a list display unit 62. The date / time specifying unit 61 is for the user to specify a date and a time zone. The list display unit 62 displays a graph 63 and a list 64 representing the implementation status of the date and time period specified by the date and time specifying unit 61.

グラフ63では、作業者別に、作業伝票(作業案件)ごとの作業時間(所要時間)が棒グラフで表示され、作業伝票1枚あたりの平均作業時間(平均所要時間)が折れ線グラフで表示されている。一覧表74では、グラフ63に表示された作業伝票ごとの作業時間および平均作業時間の数値が表示されている。   In the graph 63, the work time (required time) for each work slip (work item) is displayed as a bar graph for each worker, and the average work time (average required time) per work slip is displayed as a line graph. . In the list 74, numerical values of the work time and the average work time for each work slip displayed in the graph 63 are displayed.

このグラフ63および一覧表64において各作業者の作業時間を比較することで、作業者ごとの作業効率を把握することができる。図8に示した例では、作業者Cの作業効率が低く、作業者A,Dの作業効率が高いことがわかる。作業効率が低い作業者については、この一覧表示画面に表示された情報を作業者に提示することで、仕分け作業に対する意識向上を促すことができる。また、特定の作業エリアで作業者に関係なく作業効率が低い場合には、クレート21の配置が適切でないため、仕分け作業に時間を要するものと想定されるため、クレート21の配置について再検討すればよい。また、作業者ごとの作業効率を把握することができるため、作業者ごとの作業効率を考慮した適切な人員管理を行うことができる。   By comparing the work time of each worker in the graph 63 and the list 64, the work efficiency for each worker can be grasped. In the example shown in FIG. 8, it can be seen that the work efficiency of the worker C is low and the work efficiency of the workers A and D is high. For workers with low work efficiency, the information displayed on the list display screen can be presented to the workers, thereby raising awareness of sorting work. In addition, when the work efficiency is low regardless of the worker in a specific work area, the arrangement of the crate 21 is not appropriate, and it is assumed that time is required for the sorting work. That's fine. In addition, since the work efficiency for each worker can be grasped, appropriate personnel management can be performed in consideration of the work efficiency for each worker.

なお、本実施形態では、表示情報生成部42において生成された一覧表示情報をモニタ7で出力するようにしたが、図示しないプリンタで出力するようにしてもよい。   In the present embodiment, the list display information generated by the display information generation unit 42 is output by the monitor 7, but may be output by a printer (not shown).

また、図8に示した例では、各作業者の作業効率を簡単に比較するために、作業伝票の1枚目から順に作業時間を表示したが、実際には作業伝票ごとに作業内容が異なることが多く、作業案件ごとの作業効率を把握する必要がある。そこで、本実施形態では、作業者が処理した作業伝票を特定することができるため、作業伝票からわかる作業量(商品の数量や出荷先の数など)に応じて予め定められた標準作業時間との比較により、各作業者の作業評価値(短縮時間、遅延時間など)を用いて、各作業者の作業効率を詳細に比較することができる。   Further, in the example shown in FIG. 8, in order to easily compare the work efficiency of each worker, the work time is displayed in order from the first one of the work slips, but actually the work contents differ for each work slip. In many cases, it is necessary to grasp the work efficiency of each work item. Therefore, in this embodiment, since the work slip processed by the worker can be specified, a standard work time determined in advance according to the work amount (such as the quantity of goods and the number of shipping destinations) known from the work slip, Thus, the work efficiency of each worker can be compared in detail using the work evaluation values (shortening time, delay time, etc.) of each worker.

次に、実際の作業状況を確認するための映像表示画面について説明する。図9は、モニタ7に表示される映像表示画面を示す説明図である。   Next, a video display screen for confirming the actual work status will be described. FIG. 9 is an explanatory diagram showing a video display screen displayed on the monitor 7.

本実施形態では、表示情報生成部42において、一覧表示画面(図8参照)において作業案件を選択するユーザの入力操作に応じて、その作業案件に関する作業状況を撮影した映像を表示する処理が行われ、これにより図9に示す映像表示画面がモニタ7に表示される。特に本実施形態では、一覧表示画面において注目する作業者の1つの作業案件を選択する操作を行う、具体的には、グラフ63または一覧表64上で、1枚の作業伝票に係る作業時間(所要時間)が表示された部分をマウスでクリックする操作を行うと、一覧表示画面上に映像表示画面がポップアップで表示される。   In the present embodiment, the display information generation unit 42 performs a process of displaying a video that captures the work status related to the work item in response to an input operation of the user who selects the work item on the list display screen (see FIG. 8). As a result, the video display screen shown in FIG. 9 is displayed on the monitor 7. In particular, in the present embodiment, an operation for selecting one work item of a worker of interest on the list display screen is performed. Specifically, on the graph 63 or the list table 64, the work time ( When the user clicks the part where the required time is displayed with the mouse, a video display screen is displayed in a pop-up on the list display screen.

この映像表示画面には、映像表示71と、操作ボタン72と、が設けられている。映像表示71には、一覧表示画面で選択した1つの作業案件、すなわち1枚の作業伝票に係る仕分け作業の作業状況を撮影した映像(動画)が表示される。本実施形態では、第2のカメラ1b(図2参照)により、作業エリア内で仕分け作業を行う作業者が撮影されるようになっており、第2のカメラ1bにより撮影された映像が表示される。   On this video display screen, a video display 71 and operation buttons 72 are provided. The video display 71 displays a video (moving image) that captures one work item selected on the list display screen, that is, the work status of the sorting work related to one work slip. In the present embodiment, the second camera 1b (see FIG. 2) captures the worker who performs the sorting work in the work area, and the image captured by the second camera 1b is displayed. The

これにより、作業エリア内での作業者の作業状況を観察することができる。また、映像を再生する際には、操作ボタン72を操作すればよく、この操作ボタン72により、通常再生のほか、早送り再生や巻き戻し再生ができ、これにより、作業者の作業状況を効率よく観察することができる。   Thereby, it is possible to observe the work status of the worker in the work area. In addition, when the video is reproduced, it is only necessary to operate the operation button 72. By using the operation button 72, in addition to normal reproduction, fast forward reproduction and rewind reproduction can be performed. Can be observed.

次に、カメラ1a,1bの配置の別例について説明する。図10は、カメラ1a,1bの配置の別例を説明する仕分け場の要部平面図である。   Next, another example of the arrangement of the cameras 1a and 1b will be described. FIG. 10 is a plan view of an essential part of the sorting area for explaining another example of the arrangement of the cameras 1a and 1b.

図2に示した例では、第1のカメラ1aが、作業エリアに進入する時点、すなわち作業を開始した時点での作業者と、作業エリアから退出する時点、すなわち作業を終了した時点での作業者との双方を撮影するようにしたが、図10に示す例では、第1のカメラ1aが、作業エリアに進入する時点での作業者を撮影し、第2のカメラ1bが、作業エリアから退出する時点での作業者を撮影するようにしている。   In the example shown in FIG. 2, when the first camera 1a enters the work area, that is, when the work starts, and when the first camera 1a leaves the work area, that is, when the work is finished. In the example shown in FIG. 10, the first camera 1a photographs the worker when entering the work area, and the second camera 1b is taken from the work area. The worker is photographed at the time of leaving.

具体的には、作業エリアの出入口と相反する側に第1のカメラ1aが配置され、作業エリアの出入口側に第2のカメラ1bが配置されている。第1のカメラ1aは、作業エリア内の通路を見渡すように配置され、作業エリアに進入する作業者を正面から撮影することができ、さらに、作業エリア内で仕分け作業を行う作業者を撮影することができる。第2のカメラ1bも、作業エリア内の通路を見渡すように配置され、作業エリアから退出する作業者を正面から撮影することができ、さらに、作業エリア内で仕分け作業を行う作業者を第1のカメラ1aと相反する側から撮影することができる。   Specifically, the first camera 1a is arranged on the side opposite to the entrance / exit of the work area, and the second camera 1b is arranged on the entrance / exit side of the work area. The first camera 1a is arranged so as to overlook the passage in the work area, can photograph the worker entering the work area from the front, and further photographs the worker who performs the sorting work in the work area. be able to. The second camera 1b is also arranged so as to overlook the passage in the work area, can photograph the worker leaving the work area from the front, and further identifies the worker who performs the sorting work in the work area as the first. Can be taken from the side opposite to the camera 1a.

このように、作業エリアに進入する作業者と作業エリアから退出する作業者とを2台のカメラ1a,1bで別々に撮影するようにすると、作業開始時および作業終了時の各タイミングで作業者を正面から撮影することができるため、作業者がカメラ1a,1bの方を振り向くという余計な動作を作業者に行わせる必要がなくなるため、作業者の負担を軽減して、作業効率を高めることができる。   As described above, when the worker entering the work area and the worker leaving the work area are separately photographed by the two cameras 1a and 1b, the worker is at each timing at the start of the work and at the end of the work. Can be taken from the front, so that it is not necessary for the operator to perform an extra operation of turning the camera 1a, 1b, so that the burden on the operator is reduced and work efficiency is increased. Can do.

なお、本実施形態では、作業エリアの入口と出口とが同一となる例について説明したが、作業エリアの入口と出口とが異なる場合もあり、この場合、入口および出口にそれぞれカメラ1a,1bを配置すればよい。   In this embodiment, the example in which the entrance and exit of the work area are the same has been described. However, the entrance and exit of the work area may be different. In this case, the cameras 1a and 1b are respectively provided at the entrance and the exit. What is necessary is just to arrange.

以上のように本実施形態では、第1の画像取得部31において、作業開始時の作業者が写る第1の作業者画像を取得し、第2の画像取得部32において、作業終了時の作業者が写る第2の作業者画像を取得し、作業時間計測部33において、第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を取得し、作業認識部34において、第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、作業案件を認識し、実施情報生成部35において、作業時間計測部33による計測結果および作業認識部34による認識結果に基づいて、作業者および作業案件ごとの実施状況に関する情報を生成し、表示情報生成部42において、実施情報生成部35で生成した作業者および作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力するようにしており、第1、第2の作業者画像に基づいて、作業を行った作業者を特定して、その作業者の作業時間を取得するとともに、作業案件を認識するため、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる。そして、端末を操作するなどして作業案件に関する情報を作業者に入力させる必要がないため、作業効率が低下することを避けることができる。   As described above, in the present embodiment, the first image acquisition unit 31 acquires the first worker image showing the worker at the start of work, and the second image acquisition unit 32 performs the work at the end of the work. The second worker image in which the worker is photographed is acquired, and the work time measuring unit 33 performs image analysis on the first and second worker images to obtain the work time required for work related to one work item. The work recognizing unit 34 performs image analysis on at least one of the first and second worker images to recognize a work item, and the execution information generating unit 35 recognizes the work time measuring unit 33. Is generated based on the measurement result by the user and the recognition result by the work recognizing unit 34, and information regarding the implementation status for each worker and work item is generated. Every Display information for displaying information related to the implementation status is generated and output. Based on the first and second worker images, the worker who performed the work is specified, and the work time of the worker is determined. Since the work item is recognized, it is possible to generate and output information on the work execution status for each worker and work item. And since it is not necessary to make a worker input the information regarding a work item by operating a terminal etc., it can avoid that work efficiency falls.

また、本実施形態では、作業認識部34で用いられる作業者画像を、作業案件を特定する表示物が作業者とともに写ったものとし、作業認識部34において、作業者画像内の表示物が写った部分画像に対して画像解析を行って、作業案件を認識するようにしており、作業案件を特定する表示物に基づいて作業案件を認識するため、作業案件を精度良く認識することができる。   In the present embodiment, the worker image used in the work recognition unit 34 is assumed to be a display object that identifies a work item together with the worker, and the work recognition unit 34 captures the display object in the worker image. Since the image analysis is performed on the partial image to recognize the work item, and the work item is recognized based on the display object for specifying the work item, the work item can be recognized with high accuracy.

また、本実施形態では、表示物を、作業内容に関する情報が記載された作業伝票とし、作業認識部34で用いられる作業者画像を、作業伝票が作業者により提示された状態で写ったものとしており、作業伝票は、作業者が作業を行う上で必要なものであり、この作業伝票で作業案件を認識するため、作業案件を認識するために特別な表示物を用意する必要がなくなる。   In the present embodiment, the display object is a work voucher in which information about the work content is described, and the worker image used in the work recognition unit 34 is shown in a state where the work voucher is presented by the worker. The work slip is necessary for the worker to perform the work, and the work item is recognized by the work slip, so that it is not necessary to prepare a special display object for recognizing the work item.

また、本実施形態では、表示情報生成部42において、対象期間における作業者および作業案件ごとの実施状況に関する情報を一覧表示する一覧表示情報を生成して出力するようにしたため、作業者および作業案件ごとの実施状況をユーザが一目で把握することができる。特に、作業者ごとの作業時間を比較することで、各作業者の作業効率をユーザが把握することができ、また、作業案件ごとの作業時間を比較することで、作業案件による違いをユーザが把握することができる。   In the present embodiment, since the display information generating unit 42 generates and outputs list display information for displaying a list of information on the execution status for each worker and work item in the target period, the worker and work item are output. The user can grasp the implementation status of each at a glance. In particular, by comparing the work time for each worker, the user can grasp the work efficiency of each worker, and by comparing the work time for each work item, the user can see the difference between work items. I can grasp it.

また、本実施形態では、表示情報生成部42において、一覧表示情報をモニタ7に表示させた画面において作業案件を選択するユーザの入力操作に応じて、その作業案件に関する作業状況を撮影した映像を表示するようにしたため、映像で作業者の実際の作業状況を確認することができ、これにより、作業者および作業案件の問題点などを具体的に把握することができる。   Further, in the present embodiment, in the display information generation unit 42, an image of the work situation related to the work item is captured in accordance with the input operation of the user who selects the work item on the screen on which the list display information is displayed on the monitor 7. Since the display is made, it is possible to confirm the actual work status of the worker by the video, and thereby, the problem of the worker and the work item can be specifically grasped.

例えば、作業効率が低い作業者については、映像により作業状況を観察することで、作業効率が低くなる要因の検討が可能になり、また、作業効率が高い作業者については、映像により作業状況を観察することで、効率的な作業手順の検討が可能になり、これらの検討で得られた知見を作業者の指導に反映させることで、全体的な効率の向上を図ることができる。   For example, for workers with low work efficiency, it is possible to examine the factors that cause low work efficiency by observing the work status with video, and for workers with high work efficiency, the work status is displayed with video. By observing it, it becomes possible to examine an efficient work procedure, and the overall efficiency can be improved by reflecting the knowledge obtained by these examinations in the guidance of the worker.

以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る作業管理装置、作業管理システムおよび作業管理方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   As mentioned above, although this invention was demonstrated based on specific embodiment, these embodiment is an illustration to the last, Comprising: This invention is not limited by these embodiment. In addition, all the components of the work management device, the work management system, and the work management method according to the present invention described in the above embodiment are not necessarily essential, and are appropriately selected as long as they do not depart from the scope of the present invention. It is possible.

例えば、本実施形態では、物流センターで行われる仕分け作業、特に倉庫に保管された商品を出荷先店舗別に仕分ける作業の例について説明したが、この仕分け作業の対象となる物品は、商品以外の物品、例えば依頼主から集荷した小包などの荷物などであってもよい。さらに、管理の対象となる作業は、このような仕分け作業に限定されるものではなく、例えば、製造工場で行われる組み立て作業など、仕分け作業以外の作業にも同様に適用することができる。   For example, in the present embodiment, an example of sorting work performed at a distribution center, in particular, sorting work of products stored in a warehouse by shipping destination store has been described. However, an article that is a target of the sorting work is an article other than a product. For example, it may be a package such as a parcel collected from the client. Furthermore, the work to be managed is not limited to such sorting work, and can be similarly applied to work other than sorting work such as assembly work performed in a manufacturing factory.

また、本実施形態では、作業案件を特定する表示物を作業伝票としたが、作業伝票に限定されるものではなく、例えば、作業者の帽子、着衣、および名札なども可能であり、このようなものでも、色や形状などが作業ごとに異なるため、作業案件を識別することができる。   Further, in this embodiment, the display object for specifying the work item is a work slip, but the display is not limited to the work slip. For example, a worker's hat, clothes, name tag, and the like are possible. However, since a color, a shape, etc. differ for every work, a work item can be identified.

また、本実施形態では、PC3で人物追跡処理を行うものとしたが、この人物追跡処理をPC3とは別の装置で構成することも可能である。また、人物追跡の機能をカメラ1a,1bに実装して人物追跡機能付きカメラとして構成することも可能である。   In the present embodiment, the person tracking process is performed by the PC 3, but the person tracking process may be configured by an apparatus different from the PC 3. It is also possible to configure a camera with a person tracking function by mounting a person tracking function on the cameras 1a and 1b.

また、本実施形態では、作業管理に必要な処理を、店舗に設けられたPC3に行わせるようにしたが、この必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置で作業管理システムが構成される。   Further, in the present embodiment, the processing necessary for work management is performed by the PC 3 provided in the store. However, as shown in FIG. 1, the necessary processing is performed by the PC 11 or the like provided in the headquarters. The cloud computer 12 constituting the cloud computing system may be made to perform the operation. In addition, necessary processing may be shared by a plurality of information processing apparatuses, and information may be transferred between the plurality of information processing apparatuses via a communication medium such as an IP network or a LAN. In this case, a work management system is composed of a plurality of information processing apparatuses that share necessary processing.

このような構成では、作業管理に必要な処理のうち、少なくとも演算量が大きな処理、例えば人物検出処理を、店舗に設けられたPC3に行わせるようにするとよい。このように構成すると、残りの処理で必要となる情報のデータ量が少なくて済むため、残りの処理を店舗とは異なる場所に設置された情報処理装置、例えば本部に設置されたPC11に行わせるようにしても、通信負荷を軽減することができるため、広域ネットワーク接続形態によるシステムの運用が容易になる。   In such a configuration, it is preferable to cause the PC 3 provided in the store to perform at least a process with a large calculation amount among processes necessary for work management, for example, a person detection process. With this configuration, the amount of information required for the remaining processing can be reduced, so that the remaining processing is performed by an information processing apparatus installed at a location different from the store, for example, the PC 11 installed at the headquarters. Even if it does in this way, since communication load can be reduced, operation of the system by a wide area network connection form becomes easy.

また、作業管理に必要な処理のうち、少なくとも演算量が大きな処理、例えば人物検出処理を、クラウドコンピュータ12に行わせるようにしてもよい。このように構成すると、残りの処理は演算量が小さくて済むため、店舗などのユーザ側に高速な情報処理装置が不要となり、ユーザが負担するコストを軽減することができる。   In addition, among the processes necessary for work management, at least a process with a large calculation amount, for example, a person detection process may be performed by the cloud computer 12. If comprised in this way, since the amount of calculations of the remaining processes may be small, a high-speed information processing apparatus will become unnecessary for users, such as a shop, and the cost which a user will bear can be reduced.

また、クラウドコンピュータ12に必要な処理の全部を行わせ、あるいは、必要な処理のうちの少なくとも表示情報生成処理をクラウドコンピュータ12に分担させるようにしてもよく、このように構成すると、店舗や本部に設けられたPC3,11の他に、スマートフォン13やタブレット端末14などの携帯型端末でも作業の実施状況に関する情報を表示させることができるようになり、これにより店舗や本部の他に外出先などの任意の場所で作業の実施状況を確認することができる。   In addition, the cloud computer 12 may perform all necessary processes, or at least display information generation processing among necessary processes may be shared by the cloud computer 12. In addition to the PCs 3 and 11 provided in the mobile phone, it is possible to display information related to work implementation status on a portable terminal such as the smartphone 13 or the tablet terminal 14. You can check the status of work at any location.

また、本実施形態では、店舗に設置されたPC3に作業管理に必要な処理を行わせるとともに、PC3のモニタ7にGUIの画面を表示させて、PC3で必要な入力および出力を行うようにしたが、作業管理に必要な処理を行う情報処理装置とは別の情報処理装置、例えば本部に設置されたPC11やタブレット端末14などの携帯型端末で必要な入力および出力を行うようにしてもよい。   Further, in the present embodiment, the PC 3 installed in the store performs processing necessary for work management, and the GUI screen is displayed on the monitor 7 of the PC 3 to perform necessary input and output on the PC 3. However, the necessary input and output may be performed by an information processing apparatus different from the information processing apparatus that performs processing necessary for work management, for example, a portable terminal such as the PC 11 or the tablet terminal 14 installed in the headquarters. .

本発明にかかる作業管理装置、作業管理システムおよび作業管理方法は、作業者の作業効率を低下させることなく、作業者および作業案件ごとに作業の実施状況に関する情報を生成して出力することができる効果を有し、作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理装置、作業管理システムおよび作業管理方法などとして有用である。   The work management device, the work management system, and the work management method according to the present invention can generate and output information on the work execution status for each worker and work item without reducing the work efficiency of the worker. This is effective, and is useful as a work management device, a work management system, a work management method, and the like that generate and output information related to the execution status of work by a worker based on a video obtained by photographing the worker.

1a,1b カメラ
2 レコーダ
3 PC
6 入力デバイス
7 モニタ
11 PC
12 クラウドコンピュータ
13 スマートフォン
14 タブレット端末
21 クレート
22 搬送台車
31 第1の画像取得部
32 第2の画像取得部
33 作業時間計測部
34 作業認識部
35 実施情報生成部
37 人物照合部
42 表示情報生成部
1a, 1b Camera 2 Recorder 3 PC
6 Input device 7 Monitor 11 PC
DESCRIPTION OF SYMBOLS 12 Cloud computer 13 Smartphone 14 Tablet terminal 21 Crate 22 Carriage cart 31 1st image acquisition part 32 2nd image acquisition part 33 Work time measurement part 34 Work recognition part 35 Implementation information generation part 37 Person collation part 42 Display information generation part

Claims (8)

作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理装置であって、
作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、
作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、
前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、
前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、
前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、
この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、
を備えたことを特徴とする作業管理装置。
A work management device that generates and outputs information related to the execution status of work by a worker based on an image of a worker photographed,
A first image acquisition unit for acquiring a first worker image in which the worker at the start of the work is shown;
A second image acquisition unit for acquiring a second worker image showing the worker at the end of the work;
A work time measuring unit that performs image analysis on the first and second worker images and measures a work time required for work related to one work item;
A work recognition unit that performs image analysis on at least one of the first and second worker images and recognizes the work item;
Based on the measurement result by the work time measurement unit and the recognition result by the work recognition unit, an execution information generation unit that generates information on the execution status of each worker and the work item;
A display information generation unit that generates and outputs display information for displaying information on the execution status for each of the workers and the work items generated by the execution information generation unit;
A work management apparatus comprising:
前記作業認識部で用いられる前記作業者画像は、前記作業案件を特定する表示物が前記作業者とともに写ったものであり、
前記作業認識部は、前記作業者画像内の前記表示物が写った部分画像に対して画像解析を行って、前記作業案件を認識することを特徴とする請求項1に記載の作業管理装置。
The worker image used in the work recognizing unit is a display object that identifies the work item and is photographed together with the worker.
The work management apparatus according to claim 1, wherein the work recognition unit recognizes the work item by performing image analysis on a partial image in which the display object is captured in the worker image.
前記表示物は、作業内容に関する情報が記載された作業伝票であり、
前記作業認識部で用いられる前記作業者画像は、前記作業伝票が前記作業者により提示された状態で写ったものであることを特徴とする請求項2に記載の作業管理装置。
The display object is a work slip in which information about work contents is described,
The work management apparatus according to claim 2, wherein the worker image used in the work recognition unit is a photograph of the work slip in a state where the work slip is presented by the worker.
前記表示情報生成部は、対象期間における前記作業者および前記作業案件ごとの実施状況に関する情報を一覧表示する一覧表示情報を生成して出力することを特徴とする請求項1から請求項3のいずれかに記載の作業管理装置。   4. The display information generation unit generates and outputs list display information for displaying a list of information related to the execution status for each worker and the work item in a target period. 5. The work management device according to the above. 前記表示情報生成部は、前記一覧表示情報を表示装置に表示させた画面において前記作業案件を選択するユーザの入力操作に応じて、その作業案件に関する作業状況を撮影した映像を表示することを特徴とする請求項1から請求項4のいずれかに記載の作業管理装置。   The display information generation unit displays an image of a work situation related to a work item in response to an input operation of a user who selects the work item on a screen on which the list display information is displayed on a display device. The work management apparatus according to any one of claims 1 to 4. 作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する作業管理システムであって、
作業者を撮影するカメラと、
複数の情報処理装置と、
を有し、
前記複数の情報処理装置のいずれかが、
前記カメラにより撮影された作業開始時の作業者が写る第1の作業者画像を取得する第1の画像取得部と、
前記カメラにより撮影された作業終了時の作業者が写る第2の作業者画像を取得する第2の画像取得部と、
前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測する作業時間計測部と、
前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識する作業認識部と、
前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成する実施情報生成部と、
この実施情報生成部で生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力する表示情報生成部と、
を備えたことを特徴とする作業管理システム。
A work management system that generates and outputs information related to the execution status of work by a worker based on an image of a worker photographed,
A camera to photograph the worker,
A plurality of information processing devices;
Have
Any of the plurality of information processing devices
A first image acquisition unit for acquiring a first worker image captured by the worker at the start of the work photographed by the camera;
A second image acquisition unit for acquiring a second worker image captured by the camera at the end of the work photographed by the camera;
A work time measuring unit that performs image analysis on the first and second worker images and measures a work time required for work related to one work item;
A work recognition unit that performs image analysis on at least one of the first and second worker images and recognizes the work item;
Based on the measurement result by the work time measurement unit and the recognition result by the work recognition unit, an execution information generation unit that generates information on the execution status of each worker and the work item;
A display information generation unit that generates and outputs display information for displaying information on the execution status for each of the workers and the work items generated by the execution information generation unit;
A work management system characterized by comprising:
作業エリアに進入する作業者を撮影する第1のカメラと、
前記作業エリアから退出する作業者を撮影する第2のカメラとが別々に設けられ、
前記第1の画像取得部は、前記第1のカメラから前記第1の作業者画像を取得し、
前記第2の画像取得部は、前記第2のカメラから前記第2の作業者画像を取得することを特徴とする請求項6に記載の作業管理システム。
A first camera for photographing a worker entering the work area;
A second camera for photographing the worker leaving the work area is provided separately;
The first image acquisition unit acquires the first worker image from the first camera,
The work management system according to claim 6, wherein the second image acquisition unit acquires the second worker image from the second camera.
作業者を撮影した映像に基づいて、作業者による作業の実施状況に関する情報を生成して出力する処理を情報処理装置に行わせる作業管理方法であって、
作業開始時の作業者が写る第1の作業者画像を取得するステップと、
作業終了時の作業者が写る第2の作業者画像を取得するステップと、
前記第1、第2の作業者画像に対して画像解析を行って、1つの作業案件に係る作業に要した作業時間を計測するステップと、
前記第1、第2の作業者画像の少なくともいずれかに対して画像解析を行って、前記作業案件を認識するステップと、
前記作業時間計測部による計測結果および前記作業認識部による認識結果に基づいて、前記作業者および前記作業案件ごとの実施状況に関する情報を生成するステップと、
このステップで生成した前記作業者および前記作業案件ごとの実施状況に関する情報を表示する表示情報を生成して出力するステップと、
を有することを特徴とする作業管理方法。
A work management method for causing an information processing device to perform processing for generating and outputting information on an execution status of work by a worker based on a video obtained by photographing a worker,
Obtaining a first worker image in which the worker at the start of work is shown;
Obtaining a second worker image showing the worker at the end of the work;
Performing image analysis on the first and second worker images and measuring a work time required for work related to one work item;
Performing image analysis on at least one of the first and second worker images to recognize the work item;
Based on the measurement result by the work time measurement unit and the recognition result by the work recognition unit, generating information regarding the implementation status for each of the workers and the work items;
Generating and outputting display information for displaying information relating to the implementation status for each of the workers and the work items generated in this step;
A work management method characterized by comprising:
JP2014111991A 2014-05-30 2014-05-30 Work management device, work management system, and work management method Pending JP2015225630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014111991A JP2015225630A (en) 2014-05-30 2014-05-30 Work management device, work management system, and work management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014111991A JP2015225630A (en) 2014-05-30 2014-05-30 Work management device, work management system, and work management method

Publications (1)

Publication Number Publication Date
JP2015225630A true JP2015225630A (en) 2015-12-14

Family

ID=54842292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014111991A Pending JP2015225630A (en) 2014-05-30 2014-05-30 Work management device, work management system, and work management method

Country Status (1)

Country Link
JP (1) JP2015225630A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016258A (en) * 2017-07-10 2019-01-31 株式会社日立製作所 Operation monitoring system and operation monitoring method
WO2019171631A1 (en) * 2018-03-08 2019-09-12 日本電気株式会社 Information processing device, control method, and program
JP2020024658A (en) * 2018-07-30 2020-02-13 株式会社リコー Information processing system, progress management method and program
JP2020047080A (en) * 2018-09-20 2020-03-26 キリンビバレッジ株式会社 Delivery request system and computer program used in the same
WO2020213071A1 (en) * 2019-04-16 2020-10-22 株式会社 日立物流 Warehouse storage fee dynamic pricing system, method, and program
JP2021117899A (en) * 2020-01-29 2021-08-10 東京瓦斯株式会社 Portable terminal device and program
WO2021162015A1 (en) * 2020-02-10 2021-08-19 パナソニックIpマネジメント株式会社 Process management method, program, and process management system
US11714981B2 (en) 2018-07-30 2023-08-01 Ricoh Company, Ltd. Information processing system and slip creation method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016258A (en) * 2017-07-10 2019-01-31 株式会社日立製作所 Operation monitoring system and operation monitoring method
WO2019171631A1 (en) * 2018-03-08 2019-09-12 日本電気株式会社 Information processing device, control method, and program
CN111819506B (en) * 2018-03-08 2023-11-03 日本电气株式会社 Information processing apparatus, control method, and program
CN111819506A (en) * 2018-03-08 2020-10-23 日本电气株式会社 Information processing apparatus, control method, and program
JPWO2019171631A1 (en) * 2018-03-08 2021-02-12 日本電気株式会社 Information processing equipment, control methods, and programs
US11714981B2 (en) 2018-07-30 2023-08-01 Ricoh Company, Ltd. Information processing system and slip creation method
JP2020024658A (en) * 2018-07-30 2020-02-13 株式会社リコー Information processing system, progress management method and program
JP7358756B2 (en) 2018-07-30 2023-10-11 株式会社リコー Information processing system, progress management method and program
JP2020047080A (en) * 2018-09-20 2020-03-26 キリンビバレッジ株式会社 Delivery request system and computer program used in the same
JP7274572B2 (en) 2019-04-16 2023-05-16 ロジスティード株式会社 Warehousing fee dynamic pricing system, method and program
JPWO2020213071A1 (en) * 2019-04-16 2020-10-22
WO2020213071A1 (en) * 2019-04-16 2020-10-22 株式会社 日立物流 Warehouse storage fee dynamic pricing system, method, and program
JP2021117899A (en) * 2020-01-29 2021-08-10 東京瓦斯株式会社 Portable terminal device and program
WO2021162015A1 (en) * 2020-02-10 2021-08-19 パナソニックIpマネジメント株式会社 Process management method, program, and process management system

Similar Documents

Publication Publication Date Title
JP2015225630A (en) Work management device, work management system, and work management method
US20180075461A1 (en) Customer behavior analysis device and customer behavior analysis system
US20200184270A1 (en) Automatically tagging images to create labeled dataset for training supervised machine learning models
JP6176257B2 (en) Product information processing apparatus, data processing method thereof, and program
JP6261197B2 (en) Display control apparatus, display control method, and program
TWI778030B (en) Store apparatus, store management method and program
JP6549558B2 (en) Sales registration device, program and sales registration method
CN109255642B (en) People stream analysis method, people stream analysis device, and people stream analysis system
US20170330208A1 (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
WO2014020794A1 (en) Information processing device, and screen setting method
JP2018139062A (en) Commodity information acquisition system
US11657548B2 (en) Information processing device, display method, and program storage medium for monitoring object movement
JP2017083980A (en) Behavior automatic analyzer and system and method
JP6236825B2 (en) Vending machine sales product recognition apparatus, sales product recognition method, and computer program
JP2018207175A (en) Number of people management device, number of people management method and program
JP6702402B2 (en) Image processing system, image processing method, and image processing program
US20230267767A1 (en) Image processing device, image processing method, and non-transitory computer readable medium
JP2018170044A (en) Merchandise information acquisition system
JP2018097412A (en) Information processing device, information processing method and program
CN114037939A (en) Dangerous goods identification method, dangerous goods identification device, electronic equipment and storage medium
JP2018074317A (en) Person specification support device
JP2020093937A5 (en)
JP2016045743A (en) Information processing apparatus and program
EP4386661A1 (en) Behavior analysis device, behavior analysis method, behavior analysis program, imaging device and behavior analysis system
WO2023095329A1 (en) Movement evaluation system, movement evaluation method, and non-transitory computer-readable medium