WO2021162015A1 - 工程管理方法、プログラム、及び工程管理システム - Google Patents

工程管理方法、プログラム、及び工程管理システム Download PDF

Info

Publication number
WO2021162015A1
WO2021162015A1 PCT/JP2021/004846 JP2021004846W WO2021162015A1 WO 2021162015 A1 WO2021162015 A1 WO 2021162015A1 JP 2021004846 W JP2021004846 W JP 2021004846W WO 2021162015 A1 WO2021162015 A1 WO 2021162015A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
work
image
information
process control
Prior art date
Application number
PCT/JP2021/004846
Other languages
English (en)
French (fr)
Inventor
林 正隆
将志 中山
市川 智之
優 小笠原
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2022500431A priority Critical patent/JPWO2021162015A1/ja
Priority to US17/796,999 priority patent/US20230057635A1/en
Priority to CN202180013841.4A priority patent/CN115066701A/zh
Publication of WO2021162015A1 publication Critical patent/WO2021162015A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1091Recording time for administrative or management purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • This disclosure generally relates to process control methods, programs, and process control systems. More specifically, the present disclosure relates to process control methods, programs, and process control systems for managing human work processes.
  • Patent Document 1 discloses an equipment operating rate monitor that records the operating state of production equipment.
  • This equipment utilization rate monitor is electrically connected to the production equipment, monitors the operation status of the production equipment, and records the operation data.
  • the equipment operating rate monitor includes a detection sensor unit and an operating rate monitor main body.
  • the detection sensor unit converts signals such as sound or light of production equipment into electrical signals.
  • the operating rate monitor main body aggregates operating data based on the electrical signal output from the detection sensor unit.
  • the equipment operating rate monitor described in Patent Document 1 can record the operating state of the production equipment, but has a problem that it is not possible to grasp the working state by a person.
  • the purpose of this disclosure is to provide a process control system, a process control method, and a program that make it easy to grasp the state of work by a person.
  • the process control method includes a work time acquisition step, an image acquisition step, and a linking step.
  • the work time acquisition step is a step of acquiring work time information regarding a work time in which a person is performing a work including a predetermined operation in a work area.
  • the image acquisition step is a step of acquiring image information regarding an image including at least the work area captured by the imaging device.
  • the linking step is a step of linking the work time information acquired in the work time acquisition step with the image information acquired in the image acquisition step as linking information.
  • the program according to one aspect of the present disclosure is a program for causing one or more processors to execute the above process control method.
  • the process control system includes a work time acquisition unit, an image acquisition unit, and a linking unit.
  • the work time acquisition unit acquires work time information related to the work time during which a person is performing work to be executed including a predetermined operation in the work area.
  • the image acquisition unit acquires image information regarding an image including at least the work area captured by the image pickup apparatus.
  • the linking unit links the work time information acquired by the work time acquisition unit with the image information acquired by the image acquisition unit as linking information.
  • FIG. 1 is a block diagram showing an outline of a process control system according to an embodiment of the present disclosure.
  • FIG. 2 is a schematic view of a work area in which the same process control system is used.
  • FIG. 3 is a flowchart showing an example of the first operation of the process control system described above.
  • FIG. 4 is a flowchart showing an example of the second operation of the process control system described above.
  • FIG. 5 is a diagram showing an example of a graph displayed on the display unit in the same process control system.
  • FIG. 6 is a diagram showing an example of an image reproduced in the same graph.
  • FIG. 7 is a diagram showing another example of the image reproduced in the same graph.
  • FIG. 1 is a block diagram showing an outline of a process control system according to an embodiment of the present disclosure.
  • FIG. 2 is a schematic view of a work area in which the same process control system is used.
  • FIG. 3 is a flowchart showing an example of the first operation of the process control system described above.
  • FIG. 8 is a diagram showing an example of an image reproduced in another example of the graph displayed on the display unit in the same process control system.
  • FIG. 9 is a block diagram showing an outline of the process control system according to the first modification of the embodiment of the present disclosure.
  • FIG. 10 is a block diagram showing an outline of the process control system according to the second modification of the embodiment of the present disclosure.
  • the process control method (process control system) of the present embodiment is used to control a process including work by a person.
  • the "person” referred to in the present disclosure is a worker involved in the manufacture of a product in a facility such as a factory.
  • the "work” referred to in the present disclosure is a work that is repeatedly performed by a person in producing a product. That is, when one product is produced through the work in one or more steps, the products are sequentially produced by the person repeatedly executing the work in each step.
  • the work by a person may include the work in the cell production method or the work in the line production method.
  • the work in the cell production method may include a method in which one worker completes a product, that is, a work in a so-called one-person stand production method.
  • a work in a so-called one-person stand production method it will be described that the work by a person is the work in the one-person stand production method.
  • the process control system is used to analyze the work performed by humans in the facility, that is, to perform IE (Industrial Engineering) analysis.
  • the process control system is also used to improve the QC process chart.
  • the process control system 100 includes a first acquisition unit 101, a second acquisition unit 102, and a processing unit 11.
  • the first acquisition unit 101 acquires the first time information regarding the time when the person B1 (see FIG. 2) exists in the work area A1.
  • the "work area” referred to in the present disclosure is an area in which the person B1 works in the facility.
  • the work area A1 is an area including the work table A11 (see FIG. 2) in which the person B1 performs the work.
  • the work area A1 is an area including one work table A11 among the plurality of work tables A11, and does not include the other work table A11.
  • the person B1 is not limited to one specific worker, and may include a plurality of workers if a plurality of workers perform the work on one workbench A11.
  • the "first time information" referred to in the present disclosure may be the time from when the person B1 enters the work area A1 to when the person B1 leaves the work area A1, or when the person B1 enters the work area A1. And / or the time when the person B1 is away from the work area A1.
  • the second acquisition unit 102 acquires the second time information regarding the operation time during which the person B1 is performing a predetermined operation in the work area A1.
  • the "predetermined operation” referred to in the present disclosure is an operation included in the work performed by the person B1, may be an operation of the person B1 itself, or is a jig C1 used by the person B1 in the work (see FIG. 2). It may be the operation of.
  • the "second time information" referred to in the present disclosure may be the time required for a predetermined operation, the start time of the predetermined operation, and / or the end time of the predetermined operation.
  • the predetermined operation may be a single operation, or may be, for example, one or more of the two or more operations required for the work in one step.
  • the processing unit 11 acquires work information related to the work executed by the person B1 including a predetermined operation based on the first time information and the second time information.
  • the first acquisition unit 101 continues to acquire the time from when the person B1 enters the work area A1 to when it leaves the work area A1 as the first time information.
  • the processing unit 11 acquires the time during which the person B1 stays in the work area A1 as the time (work information) during which the person B1 can perform the work.
  • the second acquisition unit 102 continues to acquire the start time and end time of a predetermined operation as the second time information. In this case, the processing unit 11 acquires the interval of the start time of the predetermined operation as the time (work information) required for the work by the person B1.
  • the work information related to the work performed by the person B1 in the work area A1 is acquired based on the first time information and the second time information. Therefore, the present embodiment has an advantage that it is easier to grasp the state of work by the person B1 as compared with the case where only the operation time of the production equipment (including the jig C1) is acquired.
  • the process control method includes a work time acquisition step ST1 (see FIG. 3), an image acquisition step ST2 (see FIG. 3), and a linking step ST3 (see FIG. 3).
  • work time acquisition steps ST1, image acquisition step ST2, and association step ST3 are realized by the work time acquisition unit 131, the image acquisition unit 132, and the association unit 14 of the process control system 100 shown in FIG. 1, respectively.
  • the work time information regarding the work time in which the person B1 is performing the work to be executed including the predetermined operation in the work area A1 is acquired.
  • the "working time” referred to in the present disclosure means the time from the start time of the operation (predetermined operation) of the jig C1 (see FIG. 2) in one work to the start time of the operation of the jig C1 in the next work. .. That is, in the normal state, the person B1 periodically repeats the work including the predetermined operation (here, the operation of the jig C1). Therefore, the predetermined operation cycle substantially coincides with the work cycle, in other words, the work time.
  • the working time acquisition step ST1 (working time acquisition unit 131) acquires the working time information by communicating with the first communication unit 10 described later.
  • image information regarding an image including at least the work area A1 imaged by the image pickup apparatus 6 is acquired.
  • the image pickup apparatus 6 is installed, for example, in the work area A1 or in the vicinity of the work area A1.
  • the "image" referred to in the present disclosure may be a still image or a moving image.
  • the moving image may be, for example, a set of continuous still images at intervals such that the movement of the person B1 in the work area A1 can be recognized.
  • the image is a moving image.
  • the image acquisition step ST2 (image acquisition unit 132) acquires image information by the image pickup apparatus 6.
  • the working time information acquired in the working time acquisition step ST1 and the image information acquired in the image acquisition step ST2 are linked as the linking information. That is, the associating information is information that associates the working time of the person B1 with the image (moving image) including the working area A1 captured during this working time. For example, it is assumed that the start time of the operation of the jig C1 in one work is 1:00 pm and the start time of the operation of the jig C1 in the next work is 1: 3 pm. In this case, the associating information is the information associating the working time from 1:00 pm to 1: 3 pm by the person B1 and the video imaged from 1:00 pm to 1: 3 pm. ..
  • the linking information in which the working time and the image captured during the working time are linked is acquired. Therefore, in the present embodiment, there is an advantage that by referring to the associative information, it becomes easier to grasp the state of work by the person B1 as compared with the case where the image is not viewed.
  • the process control system 100 of the present embodiment manages the work by each of the plurality of persons B1, but in the following, unless otherwise specified, the work by one person B1 among the plurality of persons B1 is performed. The explanation will focus on management.
  • the work area A1 is an area including one work table A11 in which the person B1 performs the work in the one-person stand production method, as described above.
  • a first sensor 1, a second sensor 2, a repeater 20, and an image pickup device 6 are installed in the work area A1.
  • a third sensor 3 and a gateway 4 are installed around the work area A1. Both the third sensor 3 and the gateway 4 may be installed in the work area A1.
  • the image pickup apparatus 6 may be installed around the work area A1 as long as the work area A1 can be imaged.
  • the first sensor 1, the second sensor 2, the repeater 20, the third sensor 3, and the gateway 4 are not included in the components of the process control system 100, but these are the processes. It may be included in the components of the management system 100.
  • the process control system 100 may further include a first sensor 1 and a second sensor 2.
  • the first sensor 1 is a reflective photoelectric sensor and is installed on the work table A11. Specifically, as shown in FIG. 2, the first sensor 1 is a leg of the work table A11, and when the person B1 works on the work table A11, infrared rays or the like are present in the space where the person B1 exists. It is installed in a position where it can project the light of. The first sensor 1 detects the presence or absence of the person B1 in the work area A1 by projecting light into the space by the light emitting unit and detecting the presence or absence of reflected light by the light receiving unit.
  • the first sensor 1 detects that a person B1 exists in the work area A1 when the light receiving unit receives reflected light of a predetermined amount or more, and in other cases, the first sensor 1 detects a person in the work area A1. Detects that B1 does not exist.
  • the first sensor 1 an element or the like in which a light emitting unit and a light receiving unit are integrated can be used. Further, in this case, in the first sensor 1, the circuits constituting the light emitting unit, the light receiving unit, and the like can be housed in one housing.
  • the first sensor 1 has a wireless communication module that performs optical wireless communication using light such as infrared rays or visible light as a medium, or wireless communication using radio waves as a medium, with the gateway 4. Then, the first sensor 1 transmits the detection result of the first sensor 1 to the gateway 4 by the wireless communication module.
  • the detection result of the first sensor 1 is represented by a binary signal
  • the signal value of the binary signal is at a high level while the presence of the person B1 is detected, and the presence of the person B1 is not detected.
  • the interval will be low level.
  • the level of the binary signal may be the opposite.
  • the first sensor 1 and the gateway 4 are connected by a network different from the existing network at the facility.
  • the second sensor 2 is a contact type (contact type) sensor or a non-contact type sensor using magnetism, radio waves, light, or the like, and is installed on the work table A11.
  • the second sensor 2 is attached to the jig C1 or the like used by the person B1 on the work table A11, for example.
  • the jig C1 is operated and used at least once for each work repeatedly executed by the person B1.
  • the jig C1 is, for example, a toggle clamp for fixing the component E1.
  • the second sensor 2 detects a predetermined movement performed by the person B1 in the work area A1 by detecting the movement of the lever C11 possessed by the jig C1.
  • the lever C11 is configured to be movable between the first position and the second position.
  • the jig C1 is in a state in which the component E1 is not fixed, that is, in a state where the component E1 is not in use.
  • the lever C11 is in the second position, the jig C1 is in a state where the component E1 is fixed, that is, in a state where it is in use.
  • the second sensor 2 detects a predetermined operation (movement of the lever C11) performed by the person B1 in the work area A1 by detecting the movement of the lever C11. Specifically, the second sensor 2 detects that a predetermined operation is performed when the lever C11 is in the second position, and performs a predetermined operation when the lever C11 is in the first position. Detects no.
  • the second sensor 2 has a wired communication module that performs wired communication with the repeater 20 via a communication cable. Then, the second sensor 2 transmits the detection result of the second sensor 2 to the repeater 20 by the wired communication module.
  • the second sensor 2 is not limited to a configuration in which wired communication is performed, and may be configured to perform communication by short-range radio or the like.
  • the detection result of the second sensor 2 is represented by a binary signal
  • the signal value of the binary signal is at a high level while detecting a predetermined operation, and while not detecting a predetermined operation. It becomes a low level.
  • the level of the binary signal may be the opposite.
  • the image pickup device 6 is a camera having a solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, and is installed on the work table A11.
  • the image pickup apparatus 6 is installed on a pillar of the work table A11.
  • the image pickup apparatus 6 has at least the work area A1 as the image pickup range.
  • the image pickup apparatus 6 is installed at a position where it is possible to take an image of an operation other than the operation by the person B1 using the jig C1 and the operation by the person B1 using the jig C1.
  • the operation other than the operation using the jig C1 by the person B1 may include, for example, an operation of taking out the component E1 from the pallet installed in the work area A1. Then, in the present embodiment, the imaging device 6 captures a moving image in the imaging range.
  • the image pickup device 6 has a wireless communication module that performs optical wireless communication using light such as infrared rays or visible light as a medium, or wireless communication using radio waves as a medium, with the gateway 4. Then, the image pickup device 6 transmits the captured image (moving image) to the gateway 4 by the wireless communication module.
  • the image pickup apparatus 6 and the gateway 4 are connected by a network different from the existing network at the facility.
  • the repeater 20 has a connection interface capable of connecting one or more second sensors 2 by wire or wirelessly, and a wireless communication module.
  • a connection interface capable of connecting one or more second sensors 2 by wire or wirelessly
  • a wireless communication module when one or more second sensors 2 and one or more image pickup devices 6 are connected by wire, one or more second sensors 2 and one or more image pickup devices 6 are connected to the connection interface of the repeater 20. Each is connected via a communication cable.
  • the repeater 20 may be configured such that a plurality of second sensors 2 and a plurality of image pickup devices 6 are connected by a communication method using a bus line or the like, respectively.
  • the wireless communication module performs optical wireless communication using light such as infrared rays or visible light as a medium, or wireless communication using radio waves as a medium, with the gateway 4.
  • the repeater 20 transmits the detection result transmitted from one or more second sensors 2 connected to the repeater 20 and the image transmitted from one or more image pickup devices 6 connected to the repeater 20 to the gateway 4. It has a function to (relay).
  • the repeater 20 and the gateway 4 are connected by a network different from the existing network at the facility. In this embodiment, this network is the same as the network between the first sensor 1 and the gateway 4.
  • the third sensor 3 is an optical sensor and has a light receiving unit that receives light emitted by a signal tower (registered trademark).
  • the Signal Tower (registered trademark) is constructed by arranging a plurality of lamps in a tower shape and is installed in the facility.
  • the Signal Tower® is used to visually inform the surroundings of the operating status of the corresponding production equipment.
  • the Signal Tower® has a first lamp that emits green light, a second lamp that emits yellow light, and a third lamp that emits red light.
  • the signal tower targets a plurality of worktables A11 as an example. Then, the signal tower (registered trademark) has the first lamp when the work is normally performed on the plurality of work tables A11, and the first lamp when the work is interrupted on any of the work tables A11. Turn on the 2nd lamp and turn on the 3rd lamp when the work is interrupted on all the worktables A11.
  • the third sensor 3 detects the working status on the plurality of worktables A11 by receiving the light emitted by the first lamp, the second lamp, or the third lamp.
  • the third sensor 3 has a wireless communication module that performs optical wireless communication using light such as infrared rays or visible light as a medium, or wireless communication using radio waves as a medium, with the gateway 4. Then, the third sensor 3 transmits the detection result of the third sensor 3 to the gateway 4 by the wireless communication module.
  • the signal representing the detection result of the third sensor 3 can take three values of the first value, the second value, and the third value, when the first lamp is lit, the first value and the second lamp The second value is set while is lit, and the third value is set while the third lamp is lit.
  • the third sensor 3 and the gateway 4 are connected by a network different from the existing network at the facility. In this embodiment, this network is the same as the network between the first sensor 1 and the gateway 4.
  • the gateway 4 receives data received from each of the first sensor 1, the second sensor 2, and the third sensor 3 via a network N1 such as the Internet, for example, in the first communication unit 10 of the process control system 100 (described later). It has a function to send to. Further, the gateway 4 has a function of transmitting the data received from the image pickup apparatus 6 to the second communication unit 13 (described later) of the process control system 100 via the network N1.
  • the gateway 4 is one, but it may be composed of a gateway corresponding to the first communication unit 10 and a gateway corresponding to the second communication unit 13.
  • the gateway 4 is a wireless communication module that can be connected to the network N1 through, for example, a mobile phone network (carrier network) provided by a telecommunications carrier.
  • the mobile phone network includes, for example, a 3G (third generation) line, a 4G (fourth generation) line, a 5G (fifth generation) line, and the like.
  • the gateway 4 may perform wireless communication with the first communication unit 10 and the second communication unit 13 by a wireless communication method conforming to a standard such as WiFi (registered trademark).
  • WiFi registered trademark
  • part or all of the communication between the gateway 4 and the first communication unit 10 and the second communication unit 13 is connected by a network N1 different from the existing network at the facility. If there is an existing LAN (Local Area Network) wiring or the like in the facility near the workbench A11, the gateway 4 communicates with the first communication unit 10 and the second communication unit 13 via the LAN wiring. May be good.
  • the process control system 100 is realized by an image pickup device 6, a processing device located at a remote location away from the installation locations of the plurality of work tables A11, and the like.
  • the processing device is, for example, a server or the like.
  • the processing apparatus is outside the facility, but may be inside the facility.
  • the process control system 100 includes a first communication unit 10, a processing unit 11, a first storage unit 12, a second communication unit 13, a linking unit 14, and a second storage unit 15. And have.
  • the first communication unit 10, the processing unit 11, and the first storage unit 12 are provided in the processing device.
  • the second communication unit 13, the linking unit 14, and the second storage unit 15 are provided in the image pickup device 6. Further, in the present embodiment, the first storage unit 12 and the second storage unit 15 are included in the components of the process control system 100, but the first storage unit 12 and the second storage unit 15 are the process control system. It does not have to be included in 100 components.
  • the first communication unit 10 is a communication module that can be connected to the network N1 through, for example, the above-mentioned mobile phone network.
  • the first communication unit 10 is preferably a wireless communication module that can be wirelessly connected to the network N1.
  • the first communication unit 10 has a function of communicating with the gateway 4 via the network N1 and a function of communicating with the terminal 5 via the network N1.
  • the terminal 5 is a terminal used by, for example, the manager (or the manager of the facility) of the process control system 100, and is, for example, a smartphone or a tablet-type computer. Further, the terminal 5 may be, for example, a desktop type personal computer or a laptop type personal computer. In the present embodiment, the terminal 5 is, for example, a tablet-type computer having a display unit 50 such as a liquid crystal display.
  • the first communication unit 10 has functions as a first acquisition unit 101, a second acquisition unit 102, a third acquisition unit 103, and an output unit 104.
  • the first acquisition unit 101 acquires the detection result of the first sensor 1 via the gateway 4 and the network N1.
  • the first acquisition unit 101 acquires the detection result of the first sensor 1 and the time stamp related to the time when the person B1 is detected by the first sensor 1 in association with each other.
  • the "time when a person is detected" here is a time when the person B1 enters the work area A1 and / or a time when the person B1 leaves the work area A1. That is, the first acquisition unit 101 acquires the first time information regarding the time when the person B1 exists in the work area A1.
  • the first time information includes a time stamp relating to the acquired time (the time when the person B1 is detected by the first sensor 1).
  • the time stamp is attached at the time when the detection result from the first sensor 1 is acquired by the gateway 4 as an example. Therefore, strictly speaking, the time represented by the time stamp is different from the time when the detection result is acquired by the first sensor 1, but it is almost the same.
  • the second acquisition unit 102 acquires the detection result of the second sensor 2 via the repeater 20, the gateway 4, and the network N1.
  • the second acquisition unit 102 acquires the detection result of the second sensor 2 and the time stamp related to the time when the predetermined operation is detected by the second sensor 2 in association with each other.
  • the "time when a predetermined operation is detected" here is the start time of the predetermined operation and / or the end time of the predetermined operation. That is, the second acquisition unit 102 acquires the second time information regarding the operation time during which the person B1 is performing a predetermined operation in the work area A1.
  • the second time information includes a time stamp relating to the acquired time (time when a predetermined operation is detected by the second sensor 2).
  • the time stamp is attached at the time when the detection result from the second sensor 2 is acquired by the gateway 4 as an example. Therefore, strictly speaking, the time represented by the time stamp is different from the time when the detection result is acquired by the second sensor 2, but it is almost the same.
  • the second sensor 2 detects the movement of the lever C11 held by the jig C1 as described above. Therefore, the time when the second sensor 2 detects the predetermined operation corresponds to the time when the operation of the jig C1 (or the person B1) is detected. That is, in the present embodiment, the second acquisition unit 102 is for the operation time of the jig C1 used in the work area A1 (start time and / or end time of the operation of the jig C1) or the work of the person B1. Acquires the operation time and the like as the second time information.
  • both the first time information and the second time information include a time stamp.
  • at least one of the first time information and the second time information includes a time stamp regarding the acquired time.
  • both the first sensor 1 and the repeater 20 have a unique identifier. Then, the first sensor 1 and the repeater 20 transmit the detection result of the first sensor 1 and the detection result of the second sensor 2 to the gateway 4, including the identifiers, respectively. Therefore, the first time information acquired by the first acquisition unit 101 includes the identifier of the first sensor 1. Similarly, the second time information acquired by the second acquisition unit 102 includes the identifier of the repeater 20. Since both the first sensor 1 and the repeater 20 are installed on the workbench A11, these identifiers substantially correspond to the identifiers of the person B1 who works on the workbench A11. That is, the first acquisition unit 101 and the second acquisition unit 102 acquire the first time information and the second time information separately for each person B1.
  • the third acquisition unit 103 acquires the detection result of the third sensor 3 via the gateway 4 and the network N1.
  • the third acquisition unit 103 acquires the detection result of the third sensor 3 and the time stamp related to the time when the work status on the plurality of work tables A11 is detected by the third sensor 3 in association with each other. do.
  • the time stamp is attached at the time when the detection result from the third sensor 3 is acquired by the gateway 4 as an example. Therefore, strictly speaking, the time represented by the time stamp is different from the time when the detection result is acquired by the third sensor 3, but it is almost the same.
  • the output unit 104 transmits data to the terminal 5 via the network N1.
  • This data includes work information acquired by the processing unit 11, and is displayed on the display unit 50 by the GUI (Graphical User Interface) of the terminal 5. That is, the output unit 104 (display step ST4 (see FIG. 4) outputs (displays) the work information as data (graph G1 (see FIG. 5)) visually displayed on the display unit 50.
  • the display unit 50 of the terminal 5 does not display the work information as it is, but displays the statistical data obtained by executing the statistical processing (described later) based on the work information in the processing unit 11. That is, the output unit 104 outputs the work information as data displayed on the display unit 50 in an indirect form instead of a direct form.
  • the statistical data will be described in "(4) Statistics" described later. Data example ”will be described in detail.
  • the processing unit 11 is a computer system whose main configuration is one or more processors and memory as hardware. In the processing unit 11, various functions are realized by executing the program recorded in the memory by one or more processors.
  • the program may be pre-recorded in the memory of the processing unit 11, may be provided through a telecommunication line, and may be recorded and provided on a non-temporary recording medium such as an optical disk or a hard disk drive that can be read by a computer system. You may.
  • the processing unit 11 determines the time during which the person B1 stays in the work area A1 (hereinafter, also referred to as “attended time”) from the work area A1. It is possible to acquire information such as the time when the person B1 is away (hereinafter, also referred to as “leaving time”) or the number of times the person B1 leaves the seat. Further, the processing unit 11 has a time required for a predetermined operation (here, a usage time of the jig C1) or a predetermined number of operations (here, the number of times of the predetermined operation) based on the second time information acquired by the second acquisition unit 102.
  • a predetermined operation here, a usage time of the jig C1
  • a predetermined number of operations here, the number of times of the predetermined operation
  • the processing unit 11 acquires the number of times of the predetermined operation, and as a result, also acquires the production number of the product.
  • the processing unit 11 sets the time from the start time of the operation of the jig C1 in one work to the start time of the operation of the jig C1 in the next work as the time during which the person B1 is performing the work (hereinafter, "" It is also called “working time”). That is, in the normal time, the person B1 periodically repeats the work including a predetermined operation. Therefore, the predetermined operation cycle substantially coincides with the work cycle, in other words, the work time. In this way, the processing unit 11 acquires work information related to the work executed by the person B1 including the predetermined operation based on the first time information and the second time information.
  • the first acquisition unit 101 and the second acquisition unit 102 acquire the first time information and the second time information separately for each person B1. Therefore, in the present embodiment, the processing unit 11 acquires the work information for each person B1 based on the first time information and the second time information for each person B1.
  • the processing unit 11 acquires the work status on the plurality of work tables A11 based on the information (the detection result of the third sensor 3 and the time stamp) acquired by the third acquisition unit 103.
  • the processing unit 11 has a function of executing statistical processing based on work information. Specifically, the processing unit 11 executes appropriate statistical processing using the above-mentioned attendance time, leaving time, usage time of jig C1, and / or time required for work of the person B1. , Generate statistical data.
  • the statistical processing may be executed periodically by the processing unit 11 or may be executed by using an output request as a trigger.
  • the "output request" referred to here is a command given from the terminal 5 to the process control system 100 via the network N1 by, for example, the administrator operating the terminal 5. That is, when the administrator wants to view the statistical data on the display unit 50 of the terminal 5, an output request is made to the process control system 100.
  • the first storage unit 12 is composed of at least one of a non-temporary recording medium such as a hard disk and a non-temporary recording medium such as a rewritable non-volatile semiconductor memory.
  • the work information acquired by the processing unit 11 and the association information associated with the association unit 14 are stored in association with the corresponding person B1. That is, the first storage unit 12 stores work information and association information for each person B1.
  • the first storage unit 12 stores statistical data obtained by executing statistical processing in the processing unit 11. The work information, the association information, and / or the statistical data stored in the first storage unit 12 are read out, for example, in response to an output request from the terminal 5.
  • the second communication unit 13 is a communication module that can be connected to the network N1 through, for example, the above-mentioned mobile phone network or the like.
  • the second communication unit 13 is preferably a wireless communication module that can be wirelessly connected to the network N1.
  • the second communication unit 13 is a wireless communication module included in the image pickup device 6.
  • the second communication unit 13 has functions as a work time acquisition unit 131 and an image acquisition unit 132.
  • the working time acquisition unit 131 acquires the working time information from the first storage unit 12 via the gateway 4, the network N1, and the first communication unit 10.
  • the work information acquired by the processing unit 11 is stored in the first storage unit 12 separately for each person B1. Therefore, the work time acquisition unit 131 acquires the work time information among the work information separately from the first storage unit 12 for each person B1 via the gateway 4, the network N1, and the first communication unit 10.
  • the image acquisition unit 132 acquires image information including the image captured by the image pickup device 6.
  • the image information also includes time information regarding the time when the image was captured.
  • the time information is based on the time measured by the timer built in the image pickup apparatus 6.
  • the image pickup apparatus 6 has a unique identifier. Therefore, the image information acquired by the image acquisition unit 132 includes the identifier of the image pickup apparatus 6. Since the image pickup apparatus 6 is installed on the workbench A11, this identifier substantially corresponds to the identifier of the person B1 who works on the workbench A11. That is, the image acquisition unit 132 acquires the image information separately for each person B1.
  • the second storage unit 15 is composed of at least one of a non-temporary recording medium such as a hard disk and a non-temporary recording medium such as a rewritable non-volatile semiconductor memory.
  • the second storage unit 15 has a first memory 151 and a second memory 152.
  • the work time information acquired by the work time acquisition unit 131 and the image information acquired by the image acquisition unit 132 are stored in association with the corresponding person B1. That is, the work time information and the image information are stored in the first memory 151 for each person B1.
  • the linking information in which the working time information determined by the linking unit 14 to satisfy the predetermined condition and the image information corresponding to the working time information are linked to the corresponding person. It is stored in association with B1. That is, the second memory 152 stores the association information for each person B1. As described above, in the present embodiment, the image information acquired by the image acquisition unit 132 is unconditionally stored in the first memory 151. On the other hand, only the image information (linking information) selected by the linking unit 14 is stored in the second memory 152.
  • the linking unit 14 is a computer system whose main configuration is one or more processors and memory as hardware. In the associating unit 14, various functions are realized by executing the program recorded in the memory by one or more processors.
  • the program may be pre-recorded in the memory of the linking unit 14, may be provided through a telecommunication line, and may be recorded and provided on a non-temporary recording medium such as an optical disk or a hard disk drive that can be read by a computer system. May be done.
  • the linking unit 14 obtains the work time information acquired by the work time acquisition unit 131 (working time acquisition step ST1) and the image information acquired by the image acquisition unit 132 (image acquisition step ST2). Link as link information.
  • the linking unit 14 (linking step ST3) links the work time information satisfying a predetermined condition with the image information. Specifically, the linking unit 14 reads out the work time information and the image information including the image captured in the work time included in the work time information from the first memory 151. Then, the associating unit 14 determines whether or not the working time information satisfies a predetermined condition.
  • the linking unit 14 When the work time information satisfies a predetermined condition, the linking unit 14 generates the linking information by linking the read work time information and the image information, and the generated linking information is used in the second memory 152. To memorize. On the other hand, when the work time information does not satisfy the predetermined condition, the linking unit 14 discards the read work time information and the image information. In this case, the linking unit 14 may erase the read work time information and the image information from the first memory 151.
  • the linking unit 14 employs at least one predetermined condition among the plurality of predetermined conditions listed below regarding the working time information.
  • the predetermined condition may include that the working time is equal to or longer than the threshold time.
  • the threshold time is set to, for example, a time longer than the normal working time by the person B1 and is expected to be taken when some abnormality occurs during the work. Specifically, when the normal working time by the person B1 is about 30 seconds on average, it is conceivable to set the threshold time to about 1 minute. Of course, the threshold time may be set to the normal working time by the person B1. The threshold time can be set, for example, by the administrator operating the terminal 5.
  • the linking unit 14 can store the linking information in the second memory 152 when it is considered that some abnormality has occurred during the work.
  • the predetermined condition may include that the working time is within the set time range.
  • the set time is set based on, for example, the average time of the normal working time by the person B1. Specifically, if the average time of the normal working time by the person B1 is 30 seconds, the set time may be set in the range of 20 seconds to 40 seconds.
  • the set time can be set, for example, by the administrator operating the terminal 5.
  • the linking unit 14 can store in the second memory 152 the status of work by the person B1 in a normal time in which no abnormality has occurred as linking information.
  • the set time may be set based on the representative value of the working time in the time zone specified in advance.
  • the representative value is an average value, a median value, a mode value, or the like.
  • the linking unit 14 reads the work time information acquired from 11:00 am to 12:00 am from the first memory 151, and calculates the average value (representative value) of the work time based on all the read work time information. calculate.
  • the associating unit 14 sets the set time based on the calculated average value, and sets the working time information within the range of the set set time and the corresponding image information as the associating information in the second memory.
  • the time zone and the representative value can be set, for example, by the administrator operating the terminal 5. In this aspect, it is possible to automatically set the set time according to the request of the administrator without the administrator setting the set time.
  • the process control system 100 executes the first operation and the second operation.
  • the first operation is mainly executed by the tying unit 14.
  • the second operation is mainly executed by the processing unit 11.
  • the first operation and the second operation may be executed at different timings from each other, or may be executed in parallel.
  • Step S1 corresponds to working time acquisition step ST1.
  • image information including the image captured by the image pickup apparatus 6 is periodically transmitted to the second communication unit 13.
  • the image acquisition unit 132 periodically acquires image information (S2).
  • Step S2 corresponds to image acquisition step ST2.
  • the acquired work time information and image information are stored in the first memory 151 of the second storage unit 15 (S3).
  • the linking unit 14 reads out the work time information and the image information from the first memory 151 periodically or every time a certain number of work time information is accumulated, and the read work time information satisfies a predetermined condition. Whether or not it is determined (S4).
  • the associating unit 14 associates the working time information with the corresponding image information (S5).
  • Step S5 corresponds to associating step ST3.
  • the associating unit 14 stores the associated work time information and the image information as the associating information in the second memory 152 of the second storage unit 15 (S6).
  • the process control system 100 repeats the above steps S1 to S6.
  • the detection result of the first sensor 1 in the work area A1 is periodically transmitted to the first communication unit 10 via the gateway 4 and the network N1.
  • the first acquisition unit 101 periodically acquires the first time information including the detection result of the first sensor 1 and the time stamp (S7).
  • the detection result of the second sensor 2 in the work area A1 is periodically transmitted to the first communication unit 10 via the repeater 20, the gateway 4, and the network N1.
  • the second acquisition unit 102 periodically acquires the second time information including the detection result of the second sensor 2 and the time stamp (S8).
  • the processing unit 11 periodically acquires work information based on the first time information acquired by the first acquisition unit 101 and the second time information acquired by the second acquisition unit 102 (S9). ).
  • the acquired work information is stored in the first storage unit 12.
  • the processing unit 11 periodically acquires the association information from the second memory 152 of the second storage unit 15 via the gateway 4, the network N1, and the second communication unit 13 (S10).
  • the acquired association information is stored in the first storage unit 12.
  • Step S11 corresponds to display step ST4.
  • the processing unit 11 corresponds to the selected work information.
  • the image information included in the associated information is read from the first storage unit 12, and the read image information is output from the output unit 104 to the terminal 5, so that the image information is reproduced on the display unit 50 of the terminal 5 (S15).
  • Step S15 corresponds to regeneration step ST5.
  • the reproduction step ST5 is a step of reproducing the image information associated with the selected work time information on the display unit 50 when the work time information is selected in the graph G1.
  • “Reproducing the image information” as used in the present disclosure means a mode in which the still image is reproduced on the display unit 50 when the image included in the image information is a still image. Further, “reproducing image information” as used in the present disclosure means that when the image included in the image information is a moving image, the moving image is reproduced on the display unit 50, and a still image obtained by cutting out a time point of the moving image. May include an aspect of reproducing the image on the display unit 50. In the latter aspect, the moving image is played by the administrator operating the terminal 5.
  • the process control system 100 repeats the above steps S7 to S15.
  • the process control system 100 may be configured to execute statistical processing each time work information is acquired and store the result in the first storage unit 12.
  • the processing unit 11 outputs the statistical data stored in the first storage unit 12 to the terminal 5 when there is an output request.
  • the statistical data shown in FIG. 5 shows the variation in the working time of the person B1 in a specific time zone of a certain day.
  • the graph G1 with the vertical axis representing the working time and the horizontal axis representing the time is displayed on the display unit 50 as statistical data. That is, the graph G1 is drawn as a two-dimensional or higher image including at least the working time and the time when the working time is acquired.
  • FIG. 5 shows an example of statistical data in the time zone from about 8:50 to about 10 o'clock.
  • the graph G1 is displayed on the display unit 50 in a form including the first line G11, the second line G12, and the third line G13.
  • the first line G11 represents the average value of the working hours of the person B1.
  • the first line G11 may represent the median value of the working time of the person B1 instead of the average value of the working time of the person B1.
  • the second line G12 represents the target value of the working time when the person B1 performs the standard work, in other words, the working time of the person B1.
  • the third line G13 represents a threshold time for distinguishing whether the working time of the person B1 is a normal value or an abnormal value (outlier value).
  • the processing unit 11 counts this working time as an abnormal value.
  • the target value of the working time of the person B1 and the threshold time are both set in advance by the administrator.
  • the administrator can grasp the variation in the working time depending on the person B1 by viewing the graph G1 on the terminal 5. Further, the administrator can grasp the abnormal value of the working time, in other words, the occurrence of some abnormality in the work by viewing the graph G1 on the terminal 5, so that the cause of the occurrence of the abnormality is investigated and the work is performed. It can also be used to improve the situation.
  • the administrator can appropriately change the working time scale and / or the time scale of the graph G1 by performing a predetermined operation on the terminal 5.
  • the data D1 is data in which the working time is equal to or longer than the threshold time, that is, the predetermined condition is satisfied.
  • the icon I1 shown in FIG. 5 indicates that the administrator has selected the data D1 by operating the terminal 5.
  • the processing unit 11 reads the association information corresponding to the working time information from the second memory 152 based on the working time information included in the selected data D1.
  • the processing unit 11 causes the display unit 50 to reproduce the image information in the read association information.
  • the processing unit 11 cuts out a time point of the image (moving image) included in the read image information, and the processing unit 11 faces right to select playback / stop of the image.
  • the triangular icon I2 and the triangle icon I2 are displayed in the window W1 superimposed on the graph G1.
  • the processing unit 11 reproduces the image (moving image) displayed in the window W1. Let me.
  • the processing unit 11 plays back the image displayed in the window W1. Stop it.
  • the process control system (process control method) of the comparative example is not provided with the second communication unit 13 (working time acquisition step ST1 and image acquisition step ST2) and the linking unit 14 (linking step ST3). It is different from the process control system 100 (process control method) of the form.
  • the administrator can view the graph G1 on the display unit 50 of the terminal 5.
  • the manager can only view the graph G1, that is, the work time as the state of work by the person B1. Therefore, in the process control system of the comparative example, even if the administrator discovers data that is considered to have caused some abnormality due to a long working time while browsing the graph G1, for example, the administrator corresponds to this data. I cannot view the work image (video). Even if the work performed by the person B1 is imaged by the image pickup device, when the administrator intends to view the image of the work corresponding to this data, among the images (moving images) captured by the image pickup device, this It is necessary to perform the complicated work of finding and playing back the image in the time zone corresponding to the data.
  • the process control system 100 of the present embodiment it is possible to acquire the linking information in which the working time and the image captured during the working time are linked. Therefore, in the present embodiment, when the administrator discovers data in which the work time is long and it is considered that some abnormality has occurred while browsing the graph G1, for example, the administrator can refer to the association information. Images (moving images) corresponding to this data can be viewed immediately. That is, in the present embodiment, by pinpointing the image (moving image) at the time when the abnormality is estimated to have occurred, whether or not the abnormality has actually occurred, and what if the abnormality has occurred Since it is possible to grasp whether the situation has occurred, the time required to analyze the image can be significantly reduced. Therefore, in the present embodiment, there is an advantage that by referring to the associative information, it becomes easier to grasp the state of work by the person B1 as compared with the process control system (process control method) of the comparative example.
  • the administrator can select multiple data.
  • the display unit 50 of the terminal 5 reproduces a plurality of image information corresponding to the plurality of data on the display unit 50. That is, in the reproduction step ST5, when a plurality of work time information is selected in the graph G1, a plurality of image information associated with each of the selected plurality of work time information is reproduced on the display unit 50.
  • the data D2 is data that satisfies a predetermined condition.
  • the processing unit 11 causes the display unit 50 to reproduce the image information corresponding to the two selected data D1 and D2, respectively.
  • the window W1 containing the image corresponding to the data D1 and the window W2 containing the image corresponding to the data D2 are displayed on the display unit 50 in a state of being superimposed on the graph G1.
  • the manager can compare the work performed by the person B1 at a plurality of working hours different from each other.
  • the administrator simultaneously reproduces both images (videos) of the work by the person B1 whose work time is approximately the standard time and the work by the person B1 whose work time is long and it is considered that some abnormality has occurred. It is possible to compare by doing.
  • the administrator can perform a predetermined operation on the terminal 5 to display the work of a plurality of people B1. It is possible to display a plurality of graphs G1 for the work on the display unit 50.
  • the graph G2 for the work of the person B1 with the identifier of "No. OO" and the graph G3 for the work of the person B1 with the identifier of "No. XX" are shown. It is displayed on the display unit 50.
  • the processing unit 11 causes the display unit 50 to reproduce the image information corresponding to the two selected data D3 and D4, respectively.
  • the window W3 containing the image corresponding to the data D3 is displayed on the graph G2
  • the window W4 containing the image corresponding to the data D4 is displayed on the graph G3.
  • the manager can compare the work done by a plurality of people B1 who are different from each other. For example, the administrator can compare the work by the expert person B1 and the work by the beginner person B1 by simultaneously playing back both images (moving images).
  • the above-described embodiment is only one of the various embodiments of the present disclosure.
  • the above-described embodiment can be changed in various ways depending on the design and the like as long as the object of the present disclosure can be achieved.
  • the same function as the process control method may be embodied in a computer program, a non-temporary recording medium on which the computer program is recorded, or the like.
  • the program according to one aspect is a program for causing one or more processors to execute the above-mentioned process control method.
  • the process control system 100 (process control method) of the first modification is different from the process control system 100 of the above-described embodiment in that the adjustment unit 16 is provided.
  • the adjustment unit 16 is the execution body of the adjustment step.
  • the adjustment step is a step of adjusting the reproduction time of the image information to be reproduced in the reproduction step ST5 according to the input.
  • the "input" referred to in the present disclosure is, for example, an input by an administrator, and is performed by the administrator operating the terminal 5.
  • an input from the outside is received, and the reproduction time of the image information to be reproduced in the reproduction step ST5 is adjusted according to the received input.
  • the input from the outside is, for example, an input by an administrator.
  • the adjusting unit 16 can adjust the reproduction time of this image (moving image) according to the input. Specifically, when the adjustment unit 16 receives the input by the administrator, the adjustment unit 16 receives the input and the playback time (start time and end time) of the image (movement) stored in the second memory 152 by the linking unit 14. Time) is adjusted. Therefore, when the associating unit 14 stores the associating information in the second memory 152, the associating unit 14 stores the image information including the image (moving image) corresponding to the playback time adjusted by the adjusting unit 16 in the second memory 152. To memorize.
  • the adjusting unit 16 can adjust so that the playback time is started from a time earlier than the start time of the working time according to the input. Further, for example, the adjusting unit 16 can adjust so that the reproduction time ends at a time later than the end time of the working time according to the input. Further, for example, the adjusting unit 16 reproduces only the working time excluding the operating time (that is, the time when the person B1 is using the jig C1) (in other words, the preparation time) in response to the input. It can be adjusted to the time.
  • the operating time that is, the time when the person B1 is using the jig C1
  • the preparation time in response to the input. It can be adjusted to the time.
  • the process control system 100 (process control method) of the second modification is different from the process control system 100 of the above-described embodiment in that it includes a synchronization unit 17.
  • the synchronization unit 17 is the execution subject of the synchronization step.
  • the synchronization step is a step of synchronizing the work time acquisition step ST1 and the image acquisition step ST2.
  • the synchronization unit 17 acquires standard time information from, for example, an NTP (Network Time Protocol) server, and updates the timer of the process control system 100 based on the acquired standard time information.
  • NTP Network Time Protocol
  • the synchronization unit 17 transmits standard time information to the image pickup device 6, the first sensor 1, and the second sensor 2 via, for example, the gateway 4 and the network N1, so that the image pickup device 6 and the first sensor 1 , And update each timer of the second sensor 2. In this case, it is preferable to update the timer in consideration of the delay due to communication.
  • the timers of the process control system 100, the image pickup device 6, the first sensor 1, and the second sensor 2 are updated based on the standard time information, and as a result, the working time acquisition step ST1 and The image acquisition step ST2 and the image acquisition step ST2 are synchronized. That is, the acquisition time of the work time information acquired by the work time acquisition unit 131 and the acquisition time of the image information acquired in the image acquisition step ST2 are times based on a timer that ticks substantially the same time.
  • the process control system 100 in the present disclosure includes a computer system.
  • a computer system mainly consists of a processor and a memory as hardware.
  • the processor executes the program recorded in the memory of the computer system, the function as the process control system 100 in the present disclosure is realized.
  • the program may be pre-recorded in the memory of the computer system, may be provided through a telecommunications line, and may be recorded on a non-temporary recording medium such as a memory card, optical disk, hard disk drive, etc. that can be read by the computer system. May be provided.
  • a processor in a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI).
  • IC semiconductor integrated circuit
  • LSI large scale integrated circuit
  • the integrated circuit such as IC or LSI referred to here has a different name depending on the degree of integration, and includes an integrated circuit called a system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Further, an FPGA or a logic device capable of reconfiguring the junction relationship inside the LSI or reconfiguring the circuit partition inside the LSI, which is programmed after the LSI is manufactured, can also be adopted as the processor.
  • a plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. The plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.
  • the computer system referred to here includes a microprocessor having one or more processors and one or more memories. Therefore, the microprocessor is also composed of one or a plurality of electronic circuits including a semiconductor integrated circuit or a large-scale integrated circuit.
  • the process control system 100 it is not an essential configuration for the process control system 100 that a plurality of functions in the process control system 100 are integrated in one server. That is, the components of the process control system 100 may be distributed to a plurality of servers. Further, at least a part of the functions of the process control system 100 may be realized by a cloud (cloud computing) or the like, and a first computer system including one or more processors as hardware and a memory as a main configuration is provided. It may be realized by the sensor 1, the second sensor 2, the repeater 20, the third sensor 3, and the gateway 4.
  • At least a part of the process control system 100 is not limited to the mode realized by the server, and may be realized by installing it as an application on the terminal 5.
  • the embodiment is not limited to the mode in which the person B1 is distinguished by the identifiers of the first sensor 1 and the second sensor 2, but the human body communication using the person B1 as a transmission medium, the identification tag possessed by the person B1, and the like. May be used to distinguish the person B1.
  • the second sensor 2 is not limited to a mode in which a predetermined motion is detected by detecting the movement of the jig C1, but a predetermined motion is detected by detecting the movement of the person B1 who uses the jig C1. It may be an aspect of detecting an operation. For example, in the workbench A11, it is assumed that there is a space in which a part of the person B1 invades only when the person B1 uses the jig C1. In this case, the second sensor 2 can detect a predetermined motion by the person B1 using the jig C1 by detecting the presence or absence of an object (arm of the person B1 or the like) in this space. As described above, it is desirable that a predetermined operation is detected as a specific work or operation in the process of the work, but it may be detected as a specific operation performed separately from such a specific work or operation.
  • the time stamp associated with the detection result of the first sensor 1 is not limited to the gateway 4, and may be attached by the first sensor 1 or the first communication unit 10. That is, the time stamp may be given when the first communication unit 10 acquires the detection result of the first sensor 1, or is given to the detection result when the first sensor 1 detects the presence or absence of the person B1. May be done.
  • the time stamp associated with the detection result of 2 of the second sensor is not limited to the gateway 4, and may be attached by the second sensor 2, the repeater 20, or the first communication unit 10. That is, the time stamp may be given when the first communication unit 10 acquires the detection result of the second sensor 2, or may be given to the detection result when the second sensor 2 detects the operation.
  • the time stamp associated with the detection result of the third sensor 3 is not limited to the gateway 4, and may be attached by the third sensor 3 or the first communication unit 10. That is, the time stamp may be given when the first communication unit 10 acquires the detection result of the third sensor 3, or is given to the detection result when the third sensor 3 detects the work status. May be good.
  • the first acquisition unit 101 may acquire the staying time and the leaving time of the person B1 from the first sensor 1 without acquiring the time stamp.
  • the staying time and the leaving time of the person B1 may be obtained by the first sensor 1 or the gateway 4.
  • the second acquisition unit 102 may acquire the time required for a predetermined operation from the second sensor 2 without acquiring the time stamp.
  • the time required for the predetermined operation may be obtained by the second sensor 2, the repeater 20, or the gateway 4.
  • the first sensor 1 is not limited to a configuration in which the light emitting unit and the light receiving unit are integrated, and may be configured in which the light emitting unit and the light receiving unit are housed in different housings. Further, the first sensor 1 is not limited to a configuration in which the reflected light is detected by the light receiving unit, and is a so-called transmissive type in which the presence of the person B1 is detected when the light projected by the light emitting unit is detected to be blocked. It may be a photoelectric sensor of.
  • the first sensor 1 may transmit the detection result to the gateway 4 by wire communication.
  • the second sensor 2 may transmit the detection result to the gateway 4 by wire communication.
  • the image pickup apparatus 6 may transmit the captured image (moving image) and the information stored in the second storage unit 15 to the gateway 4 by wire communication.
  • the second sensor 2 may have a wireless communication module that performs wireless communication with the gateway 4.
  • the second sensor 2 can transmit the detection result to the gateway 4 without going through the repeater 20. Therefore, in this aspect, the repeater 20 is unnecessary.
  • the number of gateways 4 is not limited to one, and may be a plurality of gateways 4.
  • the communication load can be distributed by a plurality of gateways 4.
  • each of the first sensor 1, the second sensor 2, and the third sensor 3 wirelessly communicates with the first communication unit 10 of the process control system 100 via the network N1 without going through the gateway 4. It may be in the mode of In this aspect, the gateway 4 is unnecessary.
  • the processing unit 11 can acquire the work information. Therefore, in the above-described embodiment, the third sensor 3 does not have to be installed in the facility.
  • the jig C1 is not limited to the toggle clamp, and may be used by a person B1 for each work.
  • the jig C1 may be an electric screwdriver or the like.
  • the second sensor 2 may be in a mode of detecting whether or not the jig C1 is in an operating state by detecting the magnitude of the current flowing through the jig C1.
  • the second sensor 2 is a current sensor such as a current transformer, and is attached to the power cable of the jig C1 to detect the current flowing through the jig C1.
  • the output unit 104 displays the graph G1 in a form in which the data whose working time is equal to or longer than the threshold time and the data whose working time is less than the threshold time can be visually distinguished. It may be displayed on the unit 50.
  • the output unit 104 may display the former data with black circles and the latter data with light blue circles on the display unit 50.
  • the graph G1 is drawn as a two-dimensional image in which the vertical axis is the working time and the horizontal axis is the time, but the graph G1 is not limited to this.
  • the graph G1 may be drawn as a three-dimensional or higher image including one or more other parameters in addition to the working time and time.
  • the image pickup apparatus 6 may track and image the person B1 existing in the work area A1.
  • the process control system 100 is realized by the image pickup device 6 and one processing device, but the process control system 100 is not limited to this.
  • the process control system 100 includes a first processing device including a first communication unit 10, a processing unit 11, and a first storage unit 12, a second communication unit 13, a linking unit 14, and a second storage unit 15. It may be composed of the second processing apparatus provided. That is, the image pickup apparatus 6 does not have to have the second communication unit 13, the linking unit 14, and the second storage unit 15.
  • the first communication unit 10 and the second communication unit 13 may be capable of bidirectional communication via the network N1.
  • the process control method may include at least a working time acquisition step ST1, an image acquisition step ST2, and a linking step ST3. Therefore, the process control system 100 may include at least a second communication unit 13 (working time acquisition unit 131 and image acquisition unit 132) and a linking unit 14. Therefore, the first communication unit 10, the processing unit 11, the first storage unit 12, and the second storage unit 15 do not have to be included in the components of the process control system 100.
  • the process control method includes a work time acquisition step (ST1), an image acquisition step (ST2), and a linking step (ST3).
  • the work time acquisition step (ST1) is a step of acquiring work time information related to the work time in which the person (B1) is performing the work to be executed including a predetermined operation in the work area (A1).
  • the image acquisition step (ST2) is a step of acquiring image information about an image including at least a work area (A1) captured by the image pickup apparatus (6).
  • the linking step (ST3) is a step of linking the work time information acquired in the work time acquisition step (ST1) and the image information acquired in the image acquisition step (ST2) as linking information.
  • the linking step (ST3) in the first aspect, in the linking step (ST3), the work time information satisfying a predetermined condition and the image information are linked.
  • the predetermined condition includes that the working time is equal to or longer than the threshold time.
  • the predetermined condition includes that the working time is within the set time set.
  • the set time is set based on the representative value of the working time in the time zone specified in advance.
  • the set time can be automatically set according to the request of the administrator without the administrator setting the set time.
  • the process control method further includes a display step (ST4) and a regeneration step (ST5) in any one of the first to fifth aspects.
  • the display step (ST4) is a step of displaying the work time information as a graph (G1) visually displayed on the display unit (50).
  • the reproduction step (ST5) is a step of reproducing the image information associated with the selected work time information on the display unit (50) when the work time information is selected in the graph (G1).
  • the graph (G1) is drawn as a two-dimensional or higher image including at least the working time and the time when the working time is acquired.
  • the display step (ST4) two or more working time information is displayed as a graph.
  • the reproduction step (ST5) when a plurality of work time information is selected from two or more work time information in the graph (G1), a plurality of image information linked to each of the selected plurality of work time information is displayed. Playback is performed on the display unit (50).
  • the process control method further includes an adjustment step in any of the sixth to eighth aspects.
  • the adjustment step is a step of adjusting the reproduction time of the image information to be reproduced in the reproduction step (ST5) according to the input.
  • the process control method further includes a synchronization step in any one of the first to ninth aspects.
  • the synchronization step is a step of synchronizing the work time acquisition step (ST1) and the image acquisition step (ST2).
  • the program according to the eleventh aspect causes one or more processors to execute the process control method of any one of the first to tenth aspects.
  • the process control system (100) includes a work time acquisition unit (131), an image acquisition unit (132), and a linking unit (14).
  • the work time acquisition unit (131) acquires work time information regarding the work time in which the person (B1) is performing the work to be executed including a predetermined operation in the work area (A1).
  • the image acquisition unit (132) acquires image information regarding an image including at least a work area (A1) captured by the image pickup apparatus (6).
  • the linking unit (14) links the work time information acquired by the work time acquisition unit (131) with the image information acquired by the image acquisition unit (132) as link information.
  • the process control system (100) further includes a first acquisition unit (101), a second acquisition unit (102), and a processing unit (11) in the twelfth aspect.
  • the first acquisition unit (101) acquires the first time information regarding the time when the person (B1) exists in the work area (A1).
  • the second acquisition unit (102) acquires the second time information regarding the operation time during which the person (B1) is performing a predetermined operation in the work area (A1).
  • the processing unit (11) acquires work information related to the work based on the first time information and the second time information.
  • the methods according to the second to tenth aspects are not essential methods for the process control method and can be omitted as appropriate. Further, the configuration according to the thirteenth aspect is not an essential configuration for the process control system (100) and can be omitted as appropriate.
  • Process control system 101 1st acquisition unit 102 2nd acquisition unit 11 Processing unit 131 Working time acquisition unit 132 Image acquisition unit 14 Linking unit 50 Display unit A1 Work area B1 person G1 Graph ST1 Working time acquisition step ST2 Image acquisition step ST3 Linking step ST4 Display step ST5 Playback step

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Development Economics (AREA)
  • General Factory Administration (AREA)

Abstract

本開示の課題は、人による作業の状態を把握しやすくすることである。工程管理方法は、作業時間取得ステップ(ST1)と、画像取得ステップ(ST2)と、紐付けステップ(ST3)と、を有する。作業時間取得ステップ(ST1)は、人が作業領域にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得するステップである。画像取得ステップ(ST2)は、撮像装置により撮像された少なくとも作業領域を含む画像に関する画像情報を取得するステップである。紐付けステップ(ST3)は、作業時間取得ステップ(ST1)で取得した作業時間情報と、画像取得ステップ(ST2)で取得した画像情報とを紐付け情報として紐付けるステップである。

Description

工程管理方法、プログラム、及び工程管理システム
 本開示は、一般に工程管理方法、プログラム、及び工程管理システムに関する。より詳細には、本開示は、人による作業工程を管理する工程管理方法、プログラム、及び工程管理システムに関する。
 特許文献1には、生産設備の稼働状態を記録する設備稼働率モニタが開示されている。この設備稼働率モニタは、生産設備に電気的に接続されており、生産設備の稼働状態をモニタして稼働データを記録する。設備稼働率モニタは、検出センサ部と、稼働率モニタ本体と、を備える。検出センサ部は、生産設備の音又は光等の信号を電気的な信号に変換する。稼働率モニタ本体は、検出センサ部から出力された電気的な信号に基づいて稼働データを集計する。
 特許文献1に記載の設備稼働率モニタでは、生産設備の稼働状態を記録することはできるが、人による作業の状態を把握することができない、という問題があった。
特開2001-100820号公報
 本開示は、人による作業の状態を把握しやすい工程管理システム、工程管理方法、及びプログラムを提供することを目的とする。
 本開示の一態様に係る工程管理方法は、作業時間取得ステップと、画像取得ステップと、紐付けステップと、を有する。前記作業時間取得ステップは、人が作業領域にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得するステップである。前記画像取得ステップは、撮像装置により撮像された少なくとも前記作業領域を含む画像に関する画像情報を取得するステップである。前記紐付けステップは、前記作業時間取得ステップで取得した前記作業時間情報と、前記画像取得ステップで取得した前記画像情報とを紐付け情報として紐付けるステップである。
 本開示の一態様に係るプログラムは、1以上のプロセッサに、上記の工程管理方法を実行させるためのプログラムである。
 本開示の一態様に係る工程管理システムは、作業時間取得部と、画像取得部と、紐付け部と、を備える。前記作業時間取得部は、人が作業領域にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得する。前記画像取得部は、撮像装置により撮像された少なくとも前記作業領域を含む画像に関する画像情報を取得する。前記紐付け部は、前記作業時間取得部で取得した前記作業時間情報と、前記画像取得部で取得した前記画像情報とを紐付け情報として紐付ける。
図1は、本開示の一実施形態に係る工程管理システムの概要を示すブロック図である。 図2は、同上の工程管理システムが用いられる作業領域の概要図である。 図3は、同上の工程管理システムの第1動作の一例を示すフローチャートである。 図4は、同上の工程管理システムの第2動作の一例を示すフローチャートである。 図5は、同上の工程管理システムにおいて、表示部に表示されるグラフの一例を示す図である。 図6は、同上のグラフにて再生される画像の一例を示す図である。 図7は、同上のグラフにて再生される画像の他の一例を示す図である。 図8は、同上の工程管理システムにおいて、表示部に表示されるグラフの他の一例にて再生される画像の一例を示す図である。 図9は、本開示の一実施形態の変形例1に係る工程管理システムの概要を示すブロック図である。 図10は、本開示の一実施形態の変形例2に係る工程管理システムの概要を示すブロック図である。
 (1)概要
 本実施形態の工程管理方法(工程管理システム)は、人による作業を含む工程を管理するために用いられる。本開示でいう「人」は、工場等の施設において製品の製造に携わる作業者である。また、本開示でいう「作業」は、製品を生産するにあたり、人が繰り返し実行する作業である。つまり、1以上の工程での作業を経て1つの製品が生産される場合、各工程において人が作業を繰り返し実行することにより、製品が順次生産されることになる。人による作業は、一例として、セル生産方式での作業、又はライン生産方式での作業を含み得る。また、セル生産方式での作業には、1人の作業者で製品を完成させる方式、いわゆる1人屋台生産方式での作業を含み得る。本実施形態では、人による作業が1人屋台生産方式での作業であるとして説明する。
 工程管理システムは、一例として、施設内で人が行う作業を分析する、つまりIE(Industrial Engineering)分析を行うために用いられる。また、一例として、工程管理システムは、QC工程表の改善にも用いられる。
 工程管理システム100は、図1に示すように、第1取得部101と、第2取得部102と、処理部11と、を備えている。
 第1取得部101は、作業領域A1に人B1(図2参照)が存在している時間に関する第1時間情報を取得する。本開示でいう「作業領域」は、施設において人B1が作業を行う領域である。本実施形態では、作業領域A1は、人B1が作業を行う作業台A11(図2参照)を含む領域である。なお、施設においては、複数の人B1がそれぞれ対応する作業台A11にて作業を行うため、複数の作業台A11が存在することになる。この場合、作業領域A1は、複数の作業台A11のうちの1つの作業台A11を含む領域であって、他の作業台A11は含まない。なお、人B1は、特定の1人の作業者に限られず、1つの作業台A11で複数人の作業者が作業を行う場合であれば、複数人の作業者を含み得る。また、本開示でいう「第1時間情報」は、人B1が作業領域A1に進入してから作業領域A1から離れるまでの時間であってもよいし、人B1が作業領域A1に進入した時刻、及び/又は人B1が作業領域A1から離れた時刻であってもよい。
 第2取得部102は、人B1が作業領域A1にて所定の動作を行っている動作時間に関する第2時間情報を取得する。本開示でいう「所定の動作」は、人B1が実行する作業に含まれる動作であり、人B1自体の動作であってもよいし、人B1が作業において用いる治具C1(図2参照)の動作であってもよい。また、本開示でいう「第2時間情報」は、所定の動作に要する時間であってもよいし、所定の動作の開始時刻、及び/又は所定の動作の終了時刻であってもよい。また、所定の動作は、単一の動作であってもよいし、例えば1つの工程における作業で要する2以上の動作のうちの1以上の動作であってもよい。
 処理部11は、第1時間情報及び第2時間情報に基づいて、所定の動作を含む人B1が実行する作業に関する作業情報を取得する。一例として、第1取得部101が第1時間情報として人B1が作業領域A1に進入してから作業領域A1から離れるまでの時間を取得し続けている、と仮定する。この場合、処理部11は、人B1が作業領域A1に滞在している時間を、人B1が作業を行い得る時間(作業情報)として取得する。また、一例として、第2取得部102が第2時間情報として所定の動作の開始時刻及び終了時刻を取得し続けている、と仮定する。この場合、処理部11は、所定の動作の開始時刻の間隔を、人B1が作業に要する時間(作業情報)として取得する。
 上述のように、本実施形態では、第1時間情報及び第2時間情報に基づいて、人B1が作業領域A1にて実行する作業に関する作業情報を取得する。このため、本実施形態では、生産設備(治具C1を含む)の動作時間のみを取得する場合と比較して、人B1による作業の状態を把握しやすい、という利点がある。
 また、本実施形態では、工程管理方法は、作業時間取得ステップST1(図3参照)と、画像取得ステップST2(図3参照)と、紐付けステップST3(図3参照)と、を有している。これら作業時間取得ステップST1、画像取得ステップST2、及び紐付けステップST3は、それぞれ図1に示す工程管理システム100の作業時間取得部131、画像取得部132、及び紐付け部14により実現される。
 作業時間取得ステップST1では、人B1が作業領域A1にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得する。本開示でいう「作業時間」は、ある作業における治具C1(図2参照)の動作(所定の動作)の開始時刻から、次の作業における治具C1の動作の開始時刻までの時間をいう。つまり、通常時においては、人B1は、所定の動作(ここでは、治具C1の動作)を含む作業を周期的に繰り返している。このため、所定の動作の周期は、作業の周期、言い換えれば作業時間に概ね一致することになる。本実施形態では、作業時間取得ステップST1(作業時間取得部131)は、後述する第1通信部10と通信することにより、作業時間情報を取得する。
 画像取得ステップST2では、撮像装置6(図1及び図2参照)により撮像された少なくとも作業領域A1を含む画像に関する画像情報を取得する。撮像装置6は、例えば作業領域A1、又は作業領域A1の周辺に設置される。本開示でいう「画像」は、静止画であってもよいし、動画であってもよい。また、動画は、例えば作業領域A1での人B1の動きを認識できる程度の間隔で連続した静止画の集合であってもよい。本実施形態では、画像は動画である。また、本実施形態では、画像取得ステップST2(画像取得部132)は、撮像装置6にて画像情報を取得する。
 紐付けステップST3では、作業時間取得ステップST1で取得した作業時間情報と、画像取得ステップST2で取得した画像情報と、を紐付け情報として紐付ける。つまり、紐付け情報は、人B1の作業時間と、この作業時間にて撮像された作業領域A1を含む画像(動画)と、を紐付けた情報である。例えば、ある作業における治具C1の動作の開始時刻が午後1時であり、次の作業における治具C1の動作の開始時刻が午後1時3分である、と仮定する。この場合、紐付け情報は、人B1による午後1時から午後1時3分までの作業時間と、午後1時から午後1時3分までの撮像された動画と、を紐付けた情報となる。
 上述のように、本実施形態では、作業時間と、作業時間において撮像された画像と、を紐付けた紐付け情報を取得する。このため、本実施形態では、紐付け情報を参照することにより、画像を閲覧しない場合と比較して人B1による作業の状態を把握しやすくなる、という利点がある。
 (2)詳細
 以下、本実施形態の工程管理システム100について図1及び図2を参照して詳しく説明する。本実施形態では、工程管理システム100は、複数の人B1の各々による作業を管理しているが、以下では、特に断りのない限り、複数の人B1のうちの1人の人B1による作業の管理に焦点を当てて説明する。
 (2.1)作業領域の設備
 まず、工程管理システム100が適用される作業領域A1にて用いられる設備について図1及び図2を用いて詳細に説明する。本実施形態では、作業領域A1は、既に述べたように、人B1が1人屋台生産方式での作業を行う1つの作業台A11を含む領域である。作業領域A1には、第1センサ1と、第2センサ2と、中継器20と、撮像装置6と、が設置されている。また、作業領域A1の周囲には、第3センサ3と、ゲートウェイ4と、が設置されている。第3センサ3及びゲートウェイ4は、いずれも作業領域A1に設置されていてもよい。また、撮像装置6は、少なくとも作業領域A1を撮像可能であれば作業領域A1の周囲に設置されていてもよい。
 本実施形態では、第1センサ1、第2センサ2、中継器20、第3センサ3、及びゲートウェイ4は、いずれも工程管理システム100の構成要素に含まれないこととするが、これらは工程管理システム100の構成要素に含まれていてもよい。一例として、工程管理システム100は、第1センサ1と、第2センサ2と、を更に備えていてもよい。
 第1センサ1は、反射型の光電センサであって、作業台A11に設置される。具体的には、第1センサ1は、図2に示すように、作業台A11の脚部であって、人B1が作業台A11にて作業を行う際に人B1が存在する空間に赤外線等の光を投射可能な位置に設置される。第1センサ1は、発光部が上記空間に光を投射し、かつ、受光部にて反射光の有無を検知することにより、作業領域A1における人B1の存否を検知する。具体的には、第1センサ1は、受光部にて所定以上の光量の反射光を受けていると、作業領域A1に人B1が存在すると検知し、それ以外の場合に作業領域A1に人B1が存在しないと検知する。この場合、第1センサ1としては、発光部と受光部とが一体となった素子等を用いることができる。また、この場合、第1センサ1において、発光部及び受光部等を構成する回路を1つの筐体内に収納することができる。
 第1センサ1は、ゲートウェイ4との間で、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信を行う無線通信モジュールを有している。そして、第1センサ1は、無線通信モジュールにより、第1センサ1での検知結果をゲートウェイ4へ送信する。例えば、第1センサ1の検知結果が2値信号で表される場合、2値信号の信号値は、人B1の存在を検知している間はハイレベル、人B1の存在を検知していない間はローレベルとなる。なお、2値信号のレベルは、この逆であっても構わない。第1センサ1とゲートウェイ4との間は、施設にて既設のネットワークとは異なるネットワークで接続されている。
 第2センサ2は、接点式(接触式)のセンサ、又は磁気、電波、若しくは光等を用いた非接触式のセンサであって、作業台A11に設置される。本実施形態では、第2センサ2は、例えば作業台A11にて人B1が用いる治具C1等に取り付けられている。治具C1は、人B1が繰り返し実行する作業ごとに少なくとも1回は操作されて使用される。本実施形態では、治具C1は、一例として部品E1を固定するためのトグルクランプである。
 第2センサ2は、治具C1が有するレバーC11の動きを検知することにより、人B1が作業領域A1にて行う所定の動作を検知する。ここで、治具C1において、レバーC11は、第1位置と、第2位置との間で移動可能に構成されている。レバーC11が第1位置にあるときは、治具C1は、部品E1を固定しない状態、つまり使用していない状態にある。レバーC11が第2位置にあるときは、治具C1は、部品E1を固定している状態、つまり使用している状態にある。そして、人B1は、作業を行う際に、レバーC11を把持してレバーC11を第1位置から第2位置に移動させることにより、治具C1を使用する。したがって、第2センサ2は、レバーC11の動きを検知することにより、人B1が作業領域A1にて行う所定の動作(レバーC11を移動させる動作)を検知する。具体的には、第2センサ2は、レバーC11が第2位置にあるときに所定の動作が行われていると検知し、レバーC11が第1位置にあるときに所定の動作が行われていないと検知する。
 第2センサ2は、中継器20との間で、通信ケーブルを介して有線通信を行う有線通信モジュールを有している。そして、第2センサ2は、有線通信モジュールにより、第2センサ2での検知結果を中継器20へ送信する。なお、第2センサ2は、有線通信を行う構成に限られず、近距離無線等によって通信を行う構成であってもよい。例えば、第2センサ2の検知結果が2値信号で表される場合、2値信号の信号値は、所定の動作を検知している間はハイレベル、所定の動作を検知していない間はローレベルとなる。なお、2値信号のレベルは、この逆であっても構わない。
 撮像装置6は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等の固体撮像素子を有するカメラであって、作業台A11に設置される。本実施形態では、撮像装置6は、作業台A11の柱に設置されている。これにより、撮像装置6は、少なくとも作業領域A1を撮像範囲としている。本実施形態では、撮像装置6は、人B1による治具C1を用いた動作の他、人B1による治具C1を用いた動作以外の動作を撮像可能な位置に設置されている。人B1による治具C1を用いた動作以外の動作は、例えば、作業領域A1に設置されたパレットから部品E1を取り出す動作を含み得る。そして、本実施形態では、撮像装置6は、撮像範囲の動画を撮像する。
 撮像装置6は、ゲートウェイ4との間で、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信を行う無線通信モジュールを有している。そして、撮像装置6は、無線通信モジュールにより、撮像した画像(動画)をゲートウェイ4へ送信する。撮像装置6とゲートウェイ4との間は、施設にて既設のネットワークとは異なるネットワークで接続されている。
 中継器20は、1以上の第2センサ2を有線又は無線で接続可能な接続インタフェースと、無線通信モジュールと、を有している。本実施形態では、1以上の第2センサ2及び1以上の撮像装置6を有線で接続する場合、中継器20の接続インタフェースには、1以上の第2センサ2及び1以上の撮像装置6の各々が通信ケーブルを介して接続される。なお、中継器20は、複数の第2センサ2及び複数の撮像装置6がそれぞれバスライン等を用いた通信方式によって接続される構成であってもよい。無線通信モジュールは、ゲートウェイ4との間で、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信を行う。中継器20は、中継器20に接続された1以上の第2センサ2から送信される検知結果、及び中継器20に接続された1以上の撮像装置6から送信される画像をゲートウェイ4へ送信する(中継する)機能を有している。なお、中継器20とゲートウェイ4との間は、施設にて既設のネットワークとは異なるネットワークで接続されている。本実施形態では、このネットワークは、第1センサ1とゲートウェイ4との間のネットワークと同じである。
 第3センサ3は、光センサであって、シグナルタワー(登録商標)の発する光を受ける受光部を有する。シグナルタワー(登録商標)は、複数のランプをタワー状に並べて構成されており、施設内に設置される。シグナルタワー(登録商標)は、対応する生産設備の稼働状況を周囲に視覚的に報知するために用いられる。一例として、シグナルタワー(登録商標)は、緑色に発光する第1ランプ、黄色に発光する第2ランプ、及び赤色に発光する第3ランプを有している。
 本実施形態では、シグナルタワー(登録商標)は、一例として複数の作業台A11を対象としている。そして、シグナルタワー(登録商標)は、複数の作業台A11にて正常に作業が行われている場合は、第1ランプを、いずれかの作業台A11にて作業が中断している場合は第2ランプを、全ての作業台A11にて作業が中断している場合は第3ランプを点灯する。第3センサ3は、第1ランプ、第2ランプ、又は第3ランプの発する光を受けることにより、複数の作業台A11での作業状況を検知する。
 第3センサ3は、ゲートウェイ4との間で、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信を行う無線通信モジュールを有している。そして、第3センサ3は、無線通信モジュールにより、第3センサ3での検知結果をゲートウェイ4へ送信する。例えば、第3センサ3の検知結果を表す信号が第1値、第2値、及び第3値の3値をとり得る場合、第1ランプが点灯している場合は第1値、第2ランプが点灯している間は第2値、第3ランプが点灯している間は第3値となる。なお、第3センサ3とゲートウェイ4との間は、施設にて既設のネットワークとは異なるネットワークで接続されている。本実施形態では、このネットワークは、第1センサ1とゲートウェイ4との間のネットワークと同じである。
 ゲートウェイ4は、第1センサ1、第2センサ2、及び第3センサ3の各々から受信したデータを、例えばインターネット等のネットワークN1を介して工程管理システム100の第1通信部10(後述する)へ送信する機能を有している。また、ゲートウェイ4は、撮像装置6から受信したデータを、ネットワークN1を介して工程管理システム100の第2通信部13(後述する)へ送信する機能を有している。本実施形態では、ゲートウェイ4は1つであるが、第1通信部10に対応するゲートウェイと、第2通信部13に対応するゲートウェイと、で構成されていてもよい。
 本実施形態では、ゲートウェイ4は、例えば通信事業者が提供する携帯電話網(キャリア網)を通じて、ネットワークN1に接続可能な無線通信モジュールである。携帯電話網には、例えば3G(第3世代)回線、4G(第4世代)回線、又は5G(第5世代)回線等がある。その他、ゲートウェイ4は、例えばWiFi(登録商標)等の規格に準拠した無線通信方式で、第1通信部10及び第2通信部13との間で無線通信を行ってもよい。この場合、ゲートウェイ4と第1通信部10及び第2通信部13との間の通信の一部又は全部は、施設にて既設のネットワークとは異なるネットワークN1で接続されている。なお、作業台A11の近傍に、施設に既設のLAN(Local Area Network)配線等がある場合、ゲートウェイ4は、このLAN配線を介して第1通信部10及び第2通信部13と通信してもよい。
 (2.2)工程管理システム
 次に、工程管理システム100の構成について図1を参照して説明する。本実施形態では、工程管理システム100は、撮像装置6と、複数の作業台A11の設置場所から離れた遠隔地にある処理装置等により実現されている。処理装置は、例えばサーバ等である。本実施形態では、処理装置は施設外にあるが、施設内にあってもよい。工程管理システム100は、図1に示すように、第1通信部10と、処理部11と、第1記憶部12と、第2通信部13と、紐付け部14と、第2記憶部15と、を備えている。本実施形態では、第1通信部10、処理部11、及び第1記憶部12は、処理装置に設けられている。一方、第2通信部13、紐付け部14、及び第2記憶部15は、撮像装置6に設けられている。また、本実施形態では、第1記憶部12及び第2記憶部15は工程管理システム100の構成要素に含まれることとするが、第1記憶部12及び第2記憶部15は、工程管理システム100の構成要素に含まれていなくてもよい。
 第1通信部10は、例えば上記の携帯電話網等を通じて、ネットワークN1に接続可能な通信モジュールである。なお、第1通信部10は、無線によってネットワークN1に接続可能な無線通信モジュールであることが好ましい。第1通信部10は、ネットワークN1を介してゲートウェイ4との間で通信を行う機能と、ネットワークN1を介して端末5との間で通信を行う機能と、を有している。ここで、端末5は、例えば工程管理システム100の管理者(又は施設の管理者)が使用する端末であり、例えばスマートフォン又はタブレット型のコンピュータである。また、端末5は、例えばデスクトップ型又はラップトップ型のパーソナルコンピュータ等であってもよい。本実施形態では、端末5は、一例として液晶ディスプレイ等の表示部50を有するタブレット型のコンピュータである。
 第1通信部10は、第1取得部101と、第2取得部102と、第3取得部103と、出力部104としての機能を有している。
 第1取得部101は、ゲートウェイ4及びネットワークN1を介して、第1センサ1の検知結果を取得する。本実施形態では、第1取得部101は、第1センサ1の検知結果と、第1センサ1にて人B1を検知した時刻に関するタイムスタンプと、を紐付けて取得する。ここでいう「人を検知した時刻」は、人B1が作業領域A1に進入した時刻、及び/又は人B1が作業領域A1から離れた時刻である。つまり、第1取得部101は、作業領域A1に人B1が存在している時間に関する第1時間情報を取得する。そして、第1時間情報は、取得した時刻(第1センサ1にて人B1を検知した時刻)に関するタイムスタンプを含んでいる。本実施形態では、タイムスタンプは、一例としてゲートウェイ4にて第1センサ1からの検知結果を取得した時点で付される。したがって、タイムスタンプで表される時刻は、厳密には第1センサ1で検知結果を取得した時刻とは異なるが、概ね一致する。
 第2取得部102は、中継器20、ゲートウェイ4、及びネットワークN1を介して、第2センサ2の検知結果を取得する。本実施形態では、第2取得部102は、第2センサ2の検知結果と、第2センサ2にて所定の動作を検知した時刻に関するタイムスタンプと、を紐付けて取得する。ここでいう「所定の動作を検知した時刻」は、所定の動作の開始時刻、及び/又は所定の動作の終了時刻である。つまり、第2取得部102は、人B1が作業領域A1にて所定の動作を行っている動作時間に関する第2時間情報を取得する。そして、第2時間情報は、取得した時刻(第2センサ2にて所定の動作を検知した時刻)に関するタイムスタンプを含んでいる。本実施形態では、タイムスタンプは、一例としてゲートウェイ4にて第2センサ2からの検知結果を取得した時点で付される。したがって、タイムスタンプで表される時刻は、厳密には第2センサ2で検知結果を取得した時刻とは異なるが、概ね一致する。
 本実施形態では、第2センサ2は、上述のように治具C1が有するレバーC11の動きを検知する。このため、第2センサ2にて所定の動作を検知した時刻は、治具C1(又は人B1)の動作を検知した時刻に相当する。つまり、本実施形態では、第2取得部102は、作業領域A1にて用いられる治具C1の動作時間(治具C1の動作の開始時刻及び/又は終了時刻)、又は人B1の作業のための動作時間等を第2時間情報として取得する。
 また、本実施形態では、上述のように、第1時間情報及び第2時間情報は、いずれもタイムスタンプを含んでいる。言い換えれば、第1時間情報及び第2時間情報の少なくとも一方は、取得した時刻に関するタイムスタンプを含んでいる。
 ここで、本実施形態では、第1センサ1及び中継器20は、いずれも固有の識別子を有している。そして、第1センサ1及び中継器20は、それぞれ識別子を含めて第1センサ1の検知結果及び第2センサ2の検知結果をゲートウェイ4へ送信する。したがって、第1取得部101で取得する第1時間情報には、第1センサ1の識別子が含まれることになる。同様に、第2取得部102で取得する第2時間情報には、中継器20の識別子が含まれることになる。第1センサ1及び中継器20は、いずれも作業台A11に設置されていることから、これらの識別子は、実質的に作業台A11にて作業する人B1の識別子に相当することになる。つまり、第1取得部101及び第2取得部102は、それぞれ人B1ごとに区別して第1時間情報及び第2時間情報を取得することになる。
 第3取得部103は、ゲートウェイ4及びネットワークN1を介して、第3センサ3の検知結果を取得する。本実施形態では、第3取得部103は、第3センサ3の検知結果と、第3センサ3にて複数の作業台A11での作業状況を検知した時刻に関するタイムスタンプと、を紐付けて取得する。本実施形態では、タイムスタンプは、一例としてゲートウェイ4にて第3センサ3からの検知結果を取得した時点で付される。したがって、タイムスタンプで表される時刻は、厳密には第3センサ3で検知結果を取得した時刻とは異なるが、概ね一致する。
 出力部104は、ネットワークN1を介して、端末5へデータを送信する。このデータは、処理部11にて取得される作業情報を含んでおり、端末5のGUI(Graphical User Interface)により、表示部50に表示される。つまり、出力部104(表示ステップST4(図4参照)は、作業情報を表示部50にて視覚的に表示されるデータ(グラフG1(図5参照))として出力する(表示する)。本実施形態では、端末5の表示部50には、作業情報がそのまま表示されるのではなく、処理部11にて作業情報に基づいて統計処理(後述する)を実行することで得られる統計データが表示される。つまり、出力部104は、作業情報を、直接的な形ではなく、間接的な形で表示部50に表示されるデータとして出力する。統計データについては、後述する「(4)統計データの例」にて詳しく説明する。
 処理部11は、ハードウェアとしての1以上のプロセッサ及びメモリを主構成とするコンピュータシステムである。この処理部11では、メモリに記録されたプログラムを1以上のプロセッサで実行することによって、種々の機能が実現される。プログラムは、処理部11のメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能な光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。
 処理部11は、第1取得部101にて取得した第1時間情報に基づいて、作業領域A1に人B1が滞在している時間(以下、「在席時間」ともいう)、作業領域A1から人B1が離れている時間(以下、「離席時間」ともいう)、又は人B1による離席の回数等の情報を取得することが可能である。また、処理部11は、第2取得部102にて取得した第2時間情報に基づいて、所定の動作に要する時間(ここでは、治具C1の使用時間)、又は所定の動作の回数(ここでは、治具C1の使用回数)を取得することが可能である。本実施形態では、1回の作業に1回の所定の動作が含まれており、1つの製品に対して1つの作業が行われる、と仮定した場合を例にとって説明する。この場合、処理部11は、所定の動作の回数を取得することにより、結果として製品の生産数をも取得することになる。
 そして、処理部11は、ある作業における治具C1の動作の開始時刻から、次の作業における治具C1の動作の開始時刻までの時間を、人B1が作業を行っている時間(以下、「作業時間」ともいう)として取得する。つまり、通常時においては、人B1は、所定の動作を含む作業を周期的に繰り返している。このため、所定の動作の周期は、作業の周期、言い換えれば作業時間に概ね一致することになる。このように、処理部11は、第1時間情報及び第2時間情報に基づいて、所定の動作を含む人B1が実行する作業に関する作業情報を取得する。
 ここで、既に述べたように、本実施形態では、第1取得部101及び第2取得部102は、それぞれ人B1ごとに区別して第1時間情報及び第2時間情報を取得している。したがって、本実施形態では、処理部11は、人B1ごとに区別された第1時間情報及び第2時間情報に基づいて、人B1ごとに区別して作業情報を取得する。
 また、処理部11は、第3取得部103にて取得した情報(第3センサ3の検知結果、及びタイムスタンプ)に基づいて、複数の作業台A11での作業状況を取得する。
 また、処理部11は、作業情報に基づいて統計処理を実行する機能を有している。具体的には、処理部11は、上述の人B1の在席時間、離席時間、治具C1の使用時間、及び/又は作業に要する時間等を用いて適宜の統計処理を実行することにより、統計データを生成する。統計処理は、処理部11が定期的に実行してもよいし、出力要請をトリガとして実行してもよい。ここでいう「出力要請」は、例えば管理者が端末5を操作することにより、端末5からネットワークN1を介して工程管理システム100へ与えられる指令である。つまり、管理者が端末5の表示部50にて統計データを閲覧したい場合に、工程管理システム100に対して出力要請がなされることになる。
 第1記憶部12は、一例として、ハードディスク等の非一時的記録媒体、及び書換可能な不揮発性の半導体メモリ等の非一時的記録媒体の少なくとも一方により構成される。第1記憶部12には、処理部11にて取得された作業情報と、紐付け部14にて紐付けられた紐付け情報と、が対応する人B1と紐付けて記憶される。つまり、第1記憶部12には、人B1ごとに作業情報及び紐付け情報が記憶される。また、第1記憶部12には、処理部11にて統計処理を実行することにより得られる統計データが記憶される。第1記憶部12に記憶された作業情報、紐付け情報、及び/又は統計データは、例えば端末5からの出力要請に応じて読み出される。
 第2通信部13は、例えば上記の携帯電話網等を通じて、ネットワークN1に接続可能な通信モジュールである。なお、第2通信部13は、無線によってネットワークN1に接続可能な無線通信モジュールであることが好ましい。本実施形態では、第2通信部13は、撮像装置6が有する無線通信モジュールである。第2通信部13は、作業時間取得部131と、画像取得部132としての機能を有している。
 作業時間取得部131(作業時間取得ステップST1)は、ゲートウェイ4、ネットワークN1、及び第1通信部10を介して、第1記憶部12から作業時間情報を取得する。既に述べたように、本実施形態では、処理部11にて取得された作業情報が、人B1ごとに区別して第1記憶部12に記憶されている。したがって、作業時間取得部131は、ゲートウェイ4、ネットワークN1、及び第1通信部10を介して、第1記憶部12から人B1ごとに区別して作業情報のうちの作業時間情報を取得する。
 画像取得部132(画像取得ステップST2)は、撮像装置6で撮像された画像を含む画像情報を取得する。画像情報には、画像の他、画像が撮像された時刻に関する時間情報も含まれている。本実施形態では、時間情報は、撮像装置6が内蔵するタイマにより計時された時刻に準拠している。
 ここで、本実施形態では、撮像装置6は、固有の識別子を有している。したがって、画像取得部132で取得する画像情報には、撮像装置6の識別子が含まれることになる。撮像装置6は、作業台A11に設置されていることから、この識別子は、実質的に作業台A11にて作業する人B1の識別子に相当することになる。つまり、画像取得部132は、人B1ごとに区別して画像情報を取得することになる。
 第2記憶部15は、一例として、ハードディスク等の非一時的記録媒体、及び書換可能な不揮発性の半導体メモリ等の非一時的記録媒体の少なくとも一方により構成される。第2記憶部15は、第1メモリ151と、第2メモリ152と、を有している。第1メモリ151には、作業時間取得部131にて取得された作業時間情報と、画像取得部132にて取得された画像情報と、が対応する人B1と紐付けて記憶される。つまり、第1メモリ151には、人B1ごとに作業時間情報及び画像情報が記憶される。第2メモリ152には、紐付け部14にて所定の条件を満たしたと判定された作業時間情報と、この作業時間情報に対応した画像情報と、を紐付けた紐付け情報が、対応する人B1と紐付けて記憶される。つまり、第2メモリ152には、人B1ごとに紐付け情報が記憶される。このように、本実施形態では、第1メモリ151には、画像取得部132にて取得された画像情報が無条件で記憶される。一方、第2メモリ152には、紐付け部14にて選定された画像情報(紐付け情報)のみが記憶される。
 紐付け部14は、ハードウェアとしての1以上のプロセッサ及びメモリを主構成とするコンピュータシステムである。この紐付け部14では、メモリに記録されたプログラムを1以上のプロセッサで実行することによって、種々の機能が実現される。プログラムは、紐付け部14のメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能な光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。
 紐付け部14(紐付けステップST3)は、作業時間取得部131(作業時間取得ステップST1)で取得した作業時間情報と、画像取得部132(画像取得ステップST2)で取得した画像情報とを、紐付け情報として紐付ける。本実施形態では、紐付け部14(紐付けステップST3)は、所定の条件を満たした作業時間情報と、画像情報と、を紐付ける。具体的には、紐付け部14は、作業時間情報と、作業時間情報に含まれる作業時間において撮像された画像を含む画像情報と、を第1メモリ151から読み出す。そして、紐付け部14は、作業時間情報が所定の条件を満たしているか否かを判定する。作業時間情報が所定の条件を満たしている場合、紐付け部14は、読み出した作業時間情報と画像情報とを紐付けることで紐付け情報を生成し、生成した紐付け情報を第2メモリ152に記憶させる。一方、作業時間情報が所定の条件を満たしていない場合、紐付け部14は、読み出した作業時間情報と画像情報とを破棄する。この場合、紐付け部14は、読み出した作業時間情報と画像情報とを第1メモリ151から消去させてもよい。
 以下、所定の条件の一例を列挙する。本実施形態では、紐付け部14は、作業時間情報に関する以下に列挙する複数の所定の条件のうち少なくとも1つの所定の条件を採用している。
 所定の条件は、作業時間が閾値時間以上であることを含み得る。閾値時間は、例えば、人B1による通常の作業時間よりも長い時間であって、作業中に何らかの異常が発生した場合に掛かると想定される時間に設定される。具体的には、人B1による通常の作業時間が平均して30秒程度である場合、閾値時間は、1分程度に設定することが考えられる。もちろん、閾値時間は、人B1による通常の作業時間に設定されてもよい。閾値時間は、例えば管理者が端末5を操作することにより設定可能である。この所定の条件を採用することにより、紐付け部14は、作業中に何らかの異常が発生したと考えられる場合の紐付け情報を第2メモリ152に蓄積させることが可能である。
 また、所定の条件は、作業時間が設定された設定時間の範囲内であることを含み得る。設定時間は、例えば、人B1による通常の作業時間の平均時間に基づいて設定される。具体的には、人B1による通常の作業時間の平均時間が30秒であれば、設定時間は、20秒から40秒までの範囲で設定することが考えられる。設定時間は、例えば管理者が端末5を操作することにより設定可能である。この所定の条件を採用することにより、紐付け部14は、異常が発生していない通常時の人B1による作業の状況を紐付け情報として第2メモリ152に蓄積させることが可能である。
 ここで、設定時間は、あらかじめ指定された時間帯における作業時間の代表値に基づいて設定されてもよい。代表値は、平均値、中央値、又は最頻値等である。例えば、あらかじめ指定された時間帯が午前11時から12時までであって、代表値が平均値である、と仮定する。この場合、紐付け部14は、午前11時から12時までに取得した作業時間情報を第1メモリ151から読み出し、読み出した全ての作業時間情報に基づいて作業時間の平均値(代表値)を算出する。そして、紐付け部14は、算出した平均値に基づいて設定時間を設定し、設定した設定時間の範囲内にある作業時間情報と、これに対応する画像情報とを紐付け情報として第2メモリ152に記憶させる。時間帯及び代表値は、それぞれ例えば管理者が端末5を操作することにより設定可能である。この態様では、管理者が設定時間を設定せずとも、管理者の要望に概ね沿った設定時間を自動的に設定することが可能である。
 (3)動作
 以下、本実施形態の工程管理システム100の動作の一例について説明する。本実施形態では、工程管理システム100は、第1動作と、第2動作と、を実行する。第1動作は、主として紐付け部14により実行される。第2動作は、主として処理部11により実行される。第1動作及び第2動作は、互いに異なるタイミングで実行されてもよいし、並行して実行されてもよい。
 (3.1)第1動作
 まず、本実施形態の工程管理システム100の第1動作の一例について図3を参照して説明する。まず、処理部11にて取得された作業情報のうちの作業時間情報が、第2通信部13へ定期的に送信される。これにより、作業時間取得部131は、作業時間情報を定期的に取得する(S1)。ステップS1は、作業時間取得ステップST1に相当する。また、撮像装置6にて撮像された画像を含む画像情報が、第2通信部13へ定期的に送信される。これにより、画像取得部132は、画像情報を定期的に取得する(S2)。ステップS2は、画像取得ステップST2に相当する。取得した作業時間情報及び画像情報は、第2記憶部15の第1メモリ151に記憶される(S3)。
 そして、紐付け部14は、定期的に、又は作業時間情報が一定数蓄積されるごとに、第1メモリ151から作業時間情報及び画像情報を読み出し、読み出した作業時間情報が所定の条件を満たすか否かを判定する(S4)。作業時間情報が所定の条件を満たす場合(S4:Yes)、紐付け部14は、作業時間情報と、これに対応する画像情報とを紐付ける(S5)。ステップS5は、紐付けステップST3に相当する。そして、紐付け部14は、紐付けた作業時間情報及び画像情報を紐付け情報として第2記憶部15の第2メモリ152に記憶させる(S6)。以下、工程管理システム100は、上記のステップS1~S6を繰り返す。
 (3.2)第2動作
 次に、本実施形態の工程管理システム100の第2動作の一例について図4を参照して説明する。まず、作業領域A1にある第1センサ1の検知結果が、ゲートウェイ4及びネットワークN1を介して第1通信部10へ定期的に送信される。これにより、第1取得部101は、第1センサ1の検知結果と、タイムスタンプとを含む第1時間情報を定期的に取得する(S7)。また、作業領域A1にある第2センサ2の検知結果が、中継器20、ゲートウェイ4、及びネットワークN1を介して第1通信部10へ定期的に送信される。これにより、第2取得部102は、第2センサ2の検知結果と、タイムスタンプとを含む第2時間情報を定期的に取得する(S8)。そして、処理部11は、第1取得部101にて取得した第1時間情報と、第2取得部102にて取得した第2時間情報とに基づいて、作業情報を定期的に取得する(S9)。取得した作業情報は、第1記憶部12に記憶される。さらに、処理部11は、ゲートウェイ4、ネットワークN1、及び第2通信部13を介して第2記憶部15の第2メモリ152から紐付け情報を定期的に取得する(S10)。取得した紐付け情報は、第1記憶部12に記憶される。
 ここで、出力要請がない場合には(S11:No)、工程管理システム100は、上記のステップS7~S10を繰り返す。一方、出力要請がある場合には(S11:Yes)、処理部11は、取得した作業情報(第1記憶部12に記憶されている作業情報を含む)に基づいて統計処理を実行する(S12)。これにより、処理部11は、出力要請に応じた、つまり管理者による端末5での操作入力に応じた統計データを生成する。そして、処理部11は、第1通信部10及びネットワークN1を介して、生成した統計データを端末5へ送信する。つまり、出力部104は、統計データを端末5へ出力する(S13)。ステップS13は、表示ステップST4に相当する。
 その後、管理者が端末5を操作することにより、統計データ(グラフG1)に含まれるいずれかの作業情報が選択されると(S14:Yes)、処理部11は、選択された作業情報に対応する紐付け情報に含まれる画像情報を第1記憶部12から読み出し、読み出した画像情報を出力部104から端末5へ出力することで、画像情報を端末5の表示部50で再生させる(S15)。ステップS15は、再生ステップST5に相当する。再生ステップST5は、グラフG1にて作業時間情報が選択されると、選択された作業時間情報に紐付いた画像情報を表示部50で再生するステップである。
 本開示でいう「画像情報を再生する」とは、画像情報に含まれる画像が静止画である場合は、静止画を表示部50で再生する態様をいう。また、本開示でいう「画像情報を再生する」とは、画像情報に含まれる画像が動画である場合は、動画を表示部50で再生する態様の他、動画の一時点を切り出した静止画を表示部50で再生する態様を含み得る。後者の態様では、管理者が端末5を操作することにより、動画が再生されることになる。
 以下、工程管理システム100は、上記のステップS7~S15を繰り返す。なお、工程管理システム100は、作業情報を取得するごとに統計処理を実行し、その結果を第1記憶部12に記憶する構成であってもよい。この場合、処理部11は、出力要請がある場合に、第1記憶部12に記憶された統計データを端末5へ出力する。
 (4)統計データの例
 以下、出力部104が出力する統計データの例、言い換えれば端末5の表示部50に表示される統計データの例を示す。以下に示す統計データの例は、特に断りのない限り、1人の人B1を対象とするデータである。
 図5に示す統計データは、ある一日の特定の時間帯における人B1の作業時間のばらつきを表している。具体的には、縦軸を作業時間、横軸を時刻としたグラフG1が、統計データとして表示部50に表示される。つまり、グラフG1は、少なくとも作業時間と、作業時間を取得した時刻と、を含む二次元以上の画像で描画される。図5は、凡そ8時50分から凡そ10時までの時間帯における統計データの例を示している。
 グラフG1は、図5に示すように、第1線G11、第2線G12、及び第3線G13を含む形で表示部50に表示される。第1線G11は、人B1の作業時間の平均値を表している。なお、第1線G11は、人B1の作業時間の平均値に代えて、人B1の作業時間の中央値を表してもよい。第2線G12は、人B1が標準作業を行った場合の作業時間、言い換えれば人B1の作業時間の目標値を表している。第3線G13は、人B1の作業時間が正常値であるか異常値(外れ値)であるかを区別するための閾値時間を表している。つまり、処理部11は、作業時間が第3線G13で表される閾値時間以上である場合、この作業時間を異常値としてカウントすることになる。本実施形態では、上記の人B1の作業時間の目標値、及び閾値時間は、いずれも管理者によりあらかじめ設定される。
 管理者は、端末5にてグラフG1を閲覧することにより、人B1による作業時間のばらつきを把握することが可能である。また、管理者は、端末5にてグラフG1を閲覧することにより、作業時間の異常値、言い換えれば作業における何らかの異常の発生を把握することができるので、異常の発生の原因を究明して作業の改善を図るのに役立てることも可能である。なお、管理者は、端末5にて所定の操作を行うことにより、グラフG1の作業時間のスケール、及び/又は時刻のスケールを適宜変更することが可能である。
 ここで、管理者が端末5を操作することで、例えば図5に示すグラフG1のデータD1を選択した、と仮定する。データD1は、作業時間が閾値時間以上である、つまり所定の条件を満たしたデータである。図5に示すアイコンI1は、管理者が端末5を操作することでデータD1を選択したことを表している。すると、処理部11は、選択されたデータD1に含まれる作業時間情報に基づいて、この作業時間情報に対応する紐付け情報を第2メモリ152から読み出す。そして、処理部11は、読み出した紐付け情報のうちの画像情報を表示部50で再生させる。
 本実施形態では、処理部11は、図6に示すように、読み出した画像情報に含まれる画像(動画)の一時点を切り出した画像と、この画像の再生/停止を選択するための右向きの三角形のアイコンI2と、をグラフG1に重ねたウィンドウW1に表示させる。ウィンドウW1に表示されている画像が静止している状態(つまり、停止状態)において、管理者がアイコンI2を選択すると、処理部11は、このウィンドウW1に表示されている画像(動画)を再生させる。一方、ウィンドウW1にて画像(動画)が再生されている状態(つまり、再生状態)において、管理者がアイコンI2を選択すると、処理部11は、このウィンドウW1に表示されている画像の再生を停止させる。
 以下、本実施形態の工程管理システム100(工程管理方法)の利点について、比較例の工程管理システムとの比較を交えて説明する。比較例の工程管理システム(工程管理方法)では、第2通信部13(作業時間取得ステップST1及び画像取得ステップST2)及び紐付け部14(紐付けステップST3)を備えていない点で、本実施形態の工程管理システム100(工程管理方法)と相違する。比較例の工程管理システムでは、本実施形態の工程管理システム100と同様に、管理者は、端末5の表示部50にてグラフG1を閲覧することは可能である。
 しかしながら、比較例の工程管理システムでは、管理者は、グラフG1を閲覧すること、つまり人B1による作業の状態として作業時間を閲覧することしかできない。このため、比較例の工程管理システムでは、管理者は、例えばグラフG1を閲覧している際に、作業時間が長く何らかの異常が発生したと考えられるデータを発見したとしても、このデータに対応する作業の画像(動画)を閲覧することができない。仮に、人B1による作業を撮像装置により撮像していたとしても、管理者は、このデータに対応する作業の画像を閲覧しようとする場合、撮像装置で撮像された画像(動画)のうち、このデータに対応する時間帯の画像を見つけて再生するという煩雑な作業を行わなければならない。
 一方、本実施形態の工程管理システム100では、上述のように、作業時間と、作業時間において撮像された画像と、を紐付けた紐付け情報を取得することができる。このため、本実施形態では、管理者は、例えばグラフG1を閲覧している際に、作業時間が長く何らかの異常が発生したと考えられるデータを発見した場合、紐付け情報を参照することで、このデータに対応する画像(動画)を即座に閲覧することが可能である。つまり、本実施形態では、異常が発生したと推定される時間の画像(動画)をピンポイントに閲覧することで、異常が実際に発生したか否か、異常が発生した場合にはどのような状況であったかを把握することができるので、画像を分析するのに要する時間の大幅な短縮化を図ることができる。したがって、本実施形態では、紐付け情報を参照することにより、比較例の工程管理システム(工程管理方法)と比較して、人B1による作業の状態を把握しやすくなる、という利点がある。
 ここで、管理者は、複数のデータを選択することが可能である。そして、複数のデータが選択された場合、端末5の表示部50には、複数のデータにそれぞれ対応した複数の画像情報が表示部50で再生される。つまり、再生ステップST5では、グラフG1にて作業時間情報が複数選択されると、選択された複数の作業時間情報にそれぞれ紐づいた複数の画像情報を表示部50で再生する。
 例えば、図7に示すように、管理者が端末5を操作することで2つのデータD1,D2を選択した、と仮定する。データD2は、データD1と同様に、所定の条件を満たしたデータである。すると、処理部11は、選択された2つのデータD1,D2にそれぞれ対応した画像情報を表示部50で再生させる。ここでは、データD1に対応した画像を含むウィンドウW1と、データD2に対応した画像を含むウィンドウW2と、がグラフG1に重ねた状態で表示部50に表示される。この態様では、管理者は、互いに異なる複数の作業時間での人B1による作業を比較することが可能である。例えば、管理者は、作業時間が概ね標準時間である人B1による作業と、作業時間が長く何らかの異常が発生していると考えられる人B1による作業と、を両方の画像(動画)を同時に再生することで比較することが可能である。
 図7に示す例では、1人の人B1の作業に対するグラフG1のみが表示部50に表示されているが、管理者は、端末5で所定の操作を行うことにより、複数人の人B1の作業に対する複数のグラフG1を表示部50に表示することが可能である。図8に示す例では、「No.〇〇」の識別子が付された人B1の作業に対するグラフG2と、「No.××」の識別子が付された人B1の作業に対するグラフG3と、が表示部50に表示されている。
 そして、管理者は、グラフG2のデータD3と、グラフG3のデータD4と、を選択した、と仮定する。データD3,D4は、いずれもデータD1,D2と同様に、所定の条件を満たしたデータである。すると、処理部11は、選択された2つのデータD3,D4にそれぞれ対応した画像情報を表示部50で再生させる。ここでは、データD3に対応した画像を含むウィンドウW3がグラフG2に重ねた状態で、データD4に対応した画像を含むウィンドウW4がグラフG3に重ねた状態で、表示部50に表示される。この態様では、管理者は、互いに異なる複数の人B1による作業を比較することが可能である。例えば、管理者は、熟練者である人B1による作業と、初心者である人B1による作業と、を両者の画像(動画)を同時に再生することで比較することが可能である。
 (5)変形例
 上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。工程管理方法と同様の機能は、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係るプログラムは、1以上のプロセッサに、上記の工程管理方法を実行させるためのプログラムである。
 以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
 (5.1)変形例1
 変形例1の工程管理システム100(工程管理方法)は、調整部16を備えている点で、上述の実施形態の工程管理システム100と相違する。調整部16は、調整ステップの実行主体である。調整ステップは、入力に応じて再生ステップST5で再生する画像情報の再生時間を調整するステップである。本開示でいう「入力」は、例えば管理者による入力であって、管理者が端末5を操作することにより行われる。調整ステップでは、外部からの入力を受け付け、受け付けた入力に応じて再生ステップST5で再生する画像情報の再生時間を調整する。外部からの入力とは、例えば管理者による入力である。
 上述の実施形態では、再生ステップST5において、画像(動画)は、作業時間の分だけ再生される。一方、本変形例では、調整部16は、入力に応じて、この画像(動画)の再生時間を調整することが可能である。具体的には、調整部16は、管理者による入力を受け付けると、受け付けた入力に応じて、紐付け部14により第2メモリ152に記憶される画像(動画)の再生時間(開始時刻及び終了時刻)を調整する。このため、紐付け部14は、紐付け情報を第2メモリ152に記憶させる際には、調整部16により調整された再生時間に相当する画像(動画)を含む画像情報を、第2メモリ152に記憶させる。
 例えば、調整部16は、入力に応じて、作業時間の開始時刻よりも前の時刻から再生時間を開始させるように調整することが可能である。また、例えば、調整部16は、入力に応じて、作業時間の終了時刻よりも後の時刻で再生時間を終了させるように調整することが可能である。さらに、例えば、調整部16は、入力に応じて、作業時間のうち動作時間(つまり、人B1が治具C1を使用している時間)を除いた時間(言い換えれば、準備時間)のみを再生時間とするように調整することが可能である。
 (5.2)変形例2
 変形例2の工程管理システム100(工程管理方法)は、同期部17を備えている点で、上述の実施形態の工程管理システム100と相違する。同期部17は、同期ステップの実行主体である。同期ステップは、作業時間取得ステップST1と、画像取得ステップST2と、を同期させるステップである。同期部17は、例えば、NTP(Network Time Protocol)サーバから標準時刻情報を取得し、取得した標準時刻情報に基づいて工程管理システム100のタイマを更新する。また、同期部17は、例えば、ゲートウェイ4及びネットワークN1を介して、撮像装置6、第1センサ1、及び第2センサ2に標準時刻情報を送信することにより、撮像装置6、第1センサ1、及び第2センサ2の各々のタイマを更新する。この場合、タイマは、通信による遅延を考慮して更新させるのが好ましい。
 このように、工程管理システム100、撮像装置6、第1センサ1、及び第2センサ2の各々のタイマが標準時刻情報に基づいて更新されることで、結果的に作業時間取得ステップST1と、画像取得ステップST2と、が同期される。つまり、作業時間取得部131で取得される作業時間情報の取得時刻と、画像取得ステップST2で取得される画像情報の取得時刻とが、概ね同じ時間を刻むタイマに基づいた時刻となる。
 (5.3)その他の変形例
 本開示における工程管理システム100は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における工程管理システム100としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。更に、LSIの製造後にプログラムされる、FPGA、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
 また、工程管理システム100における複数の機能が、1つのサーバ内に集約されていることは工程管理システム100に必須の構成ではない。つまり、工程管理システム100の構成要素は、複数のサーバに分散して設けられていてもよい。更に、工程管理システム100の少なくとも一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよいし、ハードウェアとしての1以上のプロセッサ及びメモリを主構成とするコンピュータシステムを備えた第1センサ1、第2センサ2、中継器20、第3センサ3、ゲートウェイ4によって実現されてもよい。
 上述の実施形態において、工程管理システム100の少なくとも一部は、サーバにて実現する態様に限らず、端末5にアプリケーションとしてインストールすることで実現されてもよい。
 上述の実施形態において、第1センサ1及び第2センサ2の識別子にて人B1を区別する態様に限らず、人B1を伝送媒体として用いる人体通信、又は人B1が所持する識別用のタグ等を用いて人B1を区別する態様であってもよい。
 上述の実施形態において、第2センサ2は、治具C1の動きを検知することで所定の動作を検知する態様に限らず、治具C1を使用する人B1の動きを検知することで所定の動作を検知する態様であってもよい。例えば、作業台A11において、人B1が治具C1を使用する際にのみ人B1の一部が侵入する空間が存在する、と仮定する。この場合、第2センサ2は、この空間における物体(人B1の腕等)の存否を検知することにより、治具C1を用いた人B1による所定の動作を検知することが可能である。このように、所定の動作は、作業の過程における特定の作業又は動作として検知されることが望ましいが、このような特定の作業又は動作とは別に行われる特定の動作として検知されてもよい。
 上述の実施形態において、第1センサ1の検知結果に紐付けられるタイムスタンプは、ゲートウェイ4に限らず、第1センサ1又は第1通信部10にて付されてもよい。つまり、タイムスタンプは、第1通信部10にて第1センサ1の検知結果を取得した際に付与されてもよいし、第1センサ1が人B1の有無を検知した際に検知結果に付与されてもよい。また、第2センサの2の検知結果に紐付けられるタイムスタンプは、ゲートウェイ4に限らず、第2センサ2、中継器20、又は第1通信部10にて付されてもよい。つまり、タイムスタンプは、第1通信部10にて第2センサ2の検知結果を取得した際に付与されてもよいし、第2センサ2が動作を検知した際に検知結果に付与されてもよいし、中継器20にて第2センサ2の検知結果を取得した際に付与されてもよい。また、第3センサ3の検知結果に紐付けられるタイムスタンプは、ゲートウェイ4に限らず、第3センサ3又は第1通信部10にて付されてもよい。つまり、タイムスタンプは、第1通信部10にて第3センサ3の検知結果を取得した際に付与されてもよいし、第3センサ3が作業状況を検知した際に検知結果に付与されてもよい。
 上述の実施形態において、第1取得部101は、タイムスタンプを取得せずに、人B1の滞在時間及び離席時間を第1センサ1から取得してもよい。この場合、人B1の滞在時間及び離席時間は、第1センサ1又はゲートウェイ4にて求めればよい。同様に、第2取得部102は、タイムスタンプを取得せずに、所定の動作に要する時間を第2センサ2から取得してもよい。この場合、所定の動作に要する時間は、第2センサ2、中継器20、又はゲートウェイ4にて求めればよい。
 上述の実施形態において、第1センサ1は、発光部と受光部とが一体である構成に限られず、発光部と受光部とがそれぞれ異なる筐体に収納されている構成であってもよい。また、第1センサ1は、受光部にて反射光を検知する構成に限られず、発光部が投射した光が遮断されたことを検知した場合に人B1の存在を検知する構成、いわゆる透過型の光電センサであってもよい。
 上述の実施形態において、第1センサ1は、検知結果を有線通信にてゲートウェイ4へ送信してもよい。同様に、第2センサ2は、検知結果を有線通信にてゲートウェイ4へ送信してもよい。同様に、撮像装置6は、撮像した画像(動画)及び第2記憶部15に記憶された情報を有線通信にてゲートウェイ4へ送信してもよい。
 上述の実施形態において、第2センサ2は、ゲートウェイ4との間で無線通信を行う無線通信モジュールを有していてもよい。この態様では、第2センサ2は、中継器20を介さずとも検知結果をゲートウェイ4へ送信することが可能である。したがって、この態様では、中継器20は不要である。
 上述の実施形態において、ゲートウェイ4は、1台に限らず、複数台であってもよい。この場合、例えば撮像装置6で撮像された画像(動画)のように通信帯域を占有しがちなデータを送受信する際に、複数のゲートウェイ4により通信負荷を分散することが可能である。
 上述の実施形態において、第1センサ1、第2センサ2、及び第3センサ3の各々は、ゲートウェイ4を介さずに、ネットワークN1を介して工程管理システム100の第1通信部10と無線通信する態様であってもよい。この態様では、ゲートウェイ4は不要である。
 上述の実施形態において、工程管理システム100は、第1センサ1及び第2センサ2の各々から検知結果を取得できれば、処理部11にて作業情報を取得することが可能である。したがって、上述の実施形態において、第3センサ3は施設内に設置されていなくてもよい。
 上述の実施形態において、治具C1は、トグルクランプに限らず、作業ごとに人B1が使用する態様であればよい。例えば、治具C1は、電動ドライバ等であってもよい。この場合、第2センサ2は、治具C1に流れる電流の大きさを検知することにより、治具C1が動作状態にあるか否かを検知する態様であってもよい。一例として、第2センサ2は、カレントトランス等の電流センサであって、治具C1の電源ケーブルに取り付けられることで、治具C1に流れる電流を検知する。
 上述の実施形態において、出力部104(表示ステップST4)は、作業時間が閾値時間以上であるデータと、作業時間が閾値時間未満であるデータと、を視覚的に区別できる形でグラフG1を表示部50に表示させてもよい。例えば、出力部104は、前者のデータを黒色の丸印で、後者のデータを水色の丸印で表示部50に表示してもよい。
 上述の実施形態では、グラフG1は、縦軸を作業時間、横軸を時刻とした二次元画像で描画されているが、これに限らない。例えば、グラフG1は、作業時間及び時刻の他に、他の1以上のパラメータを含めた三次元以上の画像で描画されてもよい。
 また、上述の実施形態において、撮像装置6は、作業領域A1に存在する人B1を追跡して撮像してもよい。
 上述の実施形態では、工程管理システム100は、撮像装置6と、1つの処理装置と、により実現されているが、これに限らない。例えば、工程管理システム100は、第1通信部10、処理部11、及び第1記憶部12を備える第1処理装置と、第2通信部13、紐付け部14、及び第2記憶部15を備える第2処理装置と、で構成されていてもよい。つまり、第2通信部13、紐付け部14、及び第2記憶部15は、いずれも撮像装置6が有していなくてもよい。この態様では、第1通信部10及び第2通信部13は、ネットワークN1を介して双方向に通信可能であればよい。
 上述の実施形態において、工程管理方法は、少なくとも作業時間取得ステップST1、画像取得ステップST2、及び紐付けステップST3を有していればよい。このため、工程管理システム100は、少なくとも第2通信部13(作業時間取得部131及び画像取得部132)と、紐付け部14と、を備えていればよい。したがって、第1通信部10、処理部11、第1記憶部12、及び第2記憶部15は、工程管理システム100の構成要素に含まれていなくてもよい。
 (まとめ)
 以上述べたように、第1の態様に係る工程管理方法は、作業時間取得ステップ(ST1)と、画像取得ステップ(ST2)と、紐付けステップ(ST3)と、を有する。作業時間取得ステップ(ST1)は、人(B1)が作業領域(A1)にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得するステップである。画像取得ステップ(ST2)は、撮像装置(6)により撮像された少なくとも作業領域(A1)を含む画像に関する画像情報を取得するステップである。紐付けステップ(ST3)は、作業時間取得ステップ(ST1)で取得した作業時間情報と、画像取得ステップ(ST2)で取得した画像情報とを紐付け情報として紐付けるステップである。
 この態様によれば、人(B1)による作業の状態を把握しやすい、という利点がある。
 第2の態様に係る工程管理方法では、第1の態様において、紐付けステップ(ST3)では、所定の条件を満たした作業時間情報と、画像情報と、を紐付ける。
 この態様によれば、所定の条件を満たしてない不要な情報を紐付けなくて済み、紐付け情報を記憶する記憶領域を圧迫しにくくなる、という利点がある。
 第3の態様に係る工程管理方法では、第2の態様において、所定の条件は、作業時間が閾値時間以上であることを含む。
 この態様であれば、例えば何らかの異常が発生することで作業に長時間を要した場合の作業時間情報のみを画像情報と紐付けることができるので、紐付け情報を記憶する記憶領域を圧迫しにくくなる、という利点がある。
 第4の態様に係る工程管理方法では、第2の態様において、所定の条件は、作業時間が設定された設定時間の範囲内であることを含む。
 この態様によれば、例えば異常が発生していない通常時の人(B1)による作業の状況を紐付け情報として記憶させることが可能である、という利点がある。
 第5の態様に係る工程管理方法では、第4の態様において、設定時間は、あらかじめ指定された時間帯における作業時間の代表値に基づいて設定される。
 この態様によれば、管理者が設定時間を設定せずとも、管理者の要望に概ね沿った設定時間を自動的に設定することが可能である、という利点がある。
 第6の態様に係る工程管理方法は、第1~第5のいずれかの態様において、表示ステップ(ST4)と、再生ステップ(ST5)と、を更に有する。表示ステップ(ST4)は、作業時間情報を表示部(50)にて視覚的に表示されるグラフ(G1)として表示するステップである。再生ステップ(ST5)は、グラフ(G1)にて作業時間情報が選択されると、選択された作業時間情報に紐付いた画像情報を表示部(50)で再生するステップである。
 この態様によれば、管理者がグラフ(G1)を閲覧しながら作業時間情報に紐付いた画像情報も閲覧することができるので、人(B1)による作業の状態をより把握しやすくなる、という利点がある。
 第7の態様に係る工程管理方法では、第6の態様において、グラフ(G1)は、少なくとも作業時間と、作業時間を取得した時刻と、を含む二次元以上の画像で描画される。
 この態様によれば、人(B1)の作業時間を時系列に沿って把握しやすい、という利点がある。
 第8の態様に係る工程管理方法では、第6又は第7の態様において、表示ステップ(ST4)では、2以上の作業時間情報をグラフとして表示する。再生ステップ(ST5)では、グラフ(G1)にて2以上の作業時間情報のうち複数の作業時間情報が選択されると、選択された複数の作業時間情報にそれぞれ紐づいた複数の画像情報を表示部(50)で再生する。
 この態様によれば、複数の画像情報を比較することで、人(B1)による作業の状態をより把握しやすくなる、という利点がある。
 第9の態様に係る工程管理方法は、第6~第8のいずれかの態様において、調整ステップを更に有する。調整ステップは、入力に応じて再生ステップ(ST5)で再生する画像情報の再生時間を調整するステップである。
 この態様によれば、管理者が、所望する時間帯の画像情報のみを閲覧することができる、という利点がある。
 第10の態様に係る工程管理方法は、第1~第9のいずれかの態様において、同期ステップを更に有する。同期ステップは、作業時間取得ステップ(ST1)と画像取得ステップ(ST2)とを同期させるステップである。
 この態様によれば、作業時間と、作業時間に対応する画像の取得時刻とのずれを低減しやすい、という利点がある。
 第11の態様に係るプログラムは、1以上のプロセッサに、第1~第10のいずれかの態様の工程管理方法を実行させる。
 この態様によれば、人(B1)による作業の状態を把握しやすい、という利点がある。
 第12の態様に係る工程管理システム(100)は、作業時間取得部(131)と、画像取得部(132)と、紐付け部(14)と、を備える。作業時間取得部(131)は、人(B1)が作業領域(A1)にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得する。画像取得部(132)は、撮像装置(6)により撮像された少なくとも作業領域(A1)を含む画像に関する画像情報を取得する。紐付け部(14)は、作業時間取得部(131)で取得した作業時間情報と、画像取得部(132)で取得した画像情報とを紐付け情報として紐付ける。
 この態様によれば、人(B1)による作業の状態を把握しやすい、という利点がある。
 第13の態様に係る工程管理システム(100)は、第12の態様において、第1取得部(101)と、第2取得部(102)と、処理部(11)と、を更に備える。第1取得部(101)は、作業領域(A1)に人(B1)が存在している時間に関する第1時間情報を取得する。第2取得部(102)は、人(B1)が作業領域(A1)にて所定の動作を行っている動作時間に関する第2時間情報を取得する。処理部(11)は、第1時間情報及び第2時間情報に基づいて、作業に関する作業情報を取得する。
 この態様によれば、人(B1)による作業の状態を把握しやすい、という利点がある。
 第2~第10の態様に係る方法については、工程管理方法に必須の方法ではなく、適宜省略可能である。また、第13の態様に係る構成については、工程管理システム(100)に必須の構成ではなく、適宜省略可能である。
 100 工程管理システム
 101 第1取得部
 102 第2取得部
 11 処理部
 131 作業時間取得部
 132 画像取得部
 14 紐付け部
 50 表示部
 A1 作業領域
 B1 人
 G1 グラフ
 ST1 作業時間取得ステップ
 ST2 画像取得ステップ
 ST3 紐付けステップ
 ST4 表示ステップ
 ST5 再生ステップ

Claims (13)

  1.  人が作業領域にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得する作業時間取得ステップと、
     撮像装置により撮像された少なくとも前記作業領域を含む画像に関する画像情報を取得する画像取得ステップと、
     前記作業時間取得ステップで取得した前記作業時間情報と、前記画像取得ステップで取得した前記画像情報とを紐付け情報として紐付ける紐付けステップと、を有する、
     工程管理方法。
  2.  前記紐付けステップでは、所定の条件を満たした前記作業時間情報と、前記画像情報と、を紐付ける、
     請求項1記載の工程管理方法。
  3.  前記所定の条件は、前記作業時間が閾値時間以上であることを含む、
     請求項2記載の工程管理方法。
  4.  前記所定の条件は、前記作業時間が設定された設定時間の範囲内であることを含む、
     請求項2記載の工程管理方法。
  5.  前記設定時間は、あらかじめ指定された時間帯における前記作業時間の代表値に基づいて設定される、
     請求項4記載の工程管理方法。
  6.  前記作業時間情報を表示部にて視覚的に表示されるグラフとして表示する表示ステップと、
     前記グラフにて前記作業時間情報が選択されると、選択された前記作業時間情報に紐付いた前記画像情報を前記表示部で再生する再生ステップと、を更に有する、
     請求項1~5のいずれか1項に記載の工程管理方法。
  7.  前記グラフは、少なくとも前記作業時間と、前記作業時間を取得した時刻と、を含む二次元以上の画像で描画される、
     請求項6記載の工程管理方法。
  8.  前記表示ステップでは、2以上の前記作業時間情報を前記グラフとして表示し、
     前記再生ステップでは、前記グラフにて2以上の前記作業時間情報のうち複数の前記作業時間情報が選択されると、選択された複数の前記作業時間情報にそれぞれ紐づいた複数の前記画像情報を前記表示部で再生する、
     請求項6又は7に記載の工程管理方法。
  9.  入力に応じて前記再生ステップで再生する前記画像情報の再生時間を調整する調整ステップを更に有する、
     請求項6~8のいずれか1項に記載の工程管理方法。
  10.  前記作業時間取得ステップと前記画像取得ステップとを同期させる同期ステップを更に有する、
     請求項1~9のいずれか1項に記載の工程管理方法。
  11.  1以上のプロセッサに、
     請求項1~10のいずれか1項に記載の工程管理方法を実行させる、
     プログラム。
  12.  人が作業領域にて所定の動作を含めて実行する作業を行っている作業時間に関する作業時間情報を取得する作業時間取得部と、
     撮像装置により撮像された少なくとも前記作業領域を含む画像に関する画像情報を取得する画像取得部と、
     前記作業時間取得部で取得した前記作業時間情報と、前記画像取得部で取得した前記画像情報とを紐付けた紐付け情報を記憶する紐付け部と、を備える、
     工程管理システム。
  13.  前記作業領域に前記人が存在している時間に関する第1時間情報を取得する第1取得部と、
     前記人が前記作業領域にて前記所定の動作を行っている動作時間に関する第2時間情報を取得する第2取得部と、
     前記第1時間情報及び前記第2時間情報に基づいて、前記作業に関する作業情報を取得する処理部と、を更に備える、
     請求項12記載の工程管理システム。
PCT/JP2021/004846 2020-02-10 2021-02-09 工程管理方法、プログラム、及び工程管理システム WO2021162015A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022500431A JPWO2021162015A1 (ja) 2020-02-10 2021-02-09
US17/796,999 US20230057635A1 (en) 2020-02-10 2021-02-09 Process management method, program, and process management system
CN202180013841.4A CN115066701A (zh) 2020-02-10 2021-02-09 工序管理方法、程序和工序管理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020020985 2020-02-10
JP2020-020985 2020-02-10

Publications (1)

Publication Number Publication Date
WO2021162015A1 true WO2021162015A1 (ja) 2021-08-19

Family

ID=77292431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004846 WO2021162015A1 (ja) 2020-02-10 2021-02-09 工程管理方法、プログラム、及び工程管理システム

Country Status (4)

Country Link
US (1) US20230057635A1 (ja)
JP (1) JPWO2021162015A1 (ja)
CN (1) CN115066701A (ja)
WO (1) WO2021162015A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302096A (ja) * 2005-04-22 2006-11-02 Omron Corp 工程異常検知システム
JP2015225630A (ja) * 2014-05-30 2015-12-14 パナソニックIpマネジメント株式会社 作業管理装置、作業管理システムおよび作業管理方法
JP2018073176A (ja) * 2016-10-31 2018-05-10 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP2018077752A (ja) * 2016-11-11 2018-05-17 ヤフー株式会社 不正対策システム、および不正対策方法
JP2018187746A (ja) * 2017-05-11 2018-11-29 ファナック株式会社 ロボット制御装置及びロボット制御プログラム
JP2019101693A (ja) * 2017-11-30 2019-06-24 味の素物流株式会社 物流倉庫内作業把握システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302096A (ja) * 2005-04-22 2006-11-02 Omron Corp 工程異常検知システム
JP2015225630A (ja) * 2014-05-30 2015-12-14 パナソニックIpマネジメント株式会社 作業管理装置、作業管理システムおよび作業管理方法
JP2018073176A (ja) * 2016-10-31 2018-05-10 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP2018077752A (ja) * 2016-11-11 2018-05-17 ヤフー株式会社 不正対策システム、および不正対策方法
JP2018187746A (ja) * 2017-05-11 2018-11-29 ファナック株式会社 ロボット制御装置及びロボット制御プログラム
JP2019101693A (ja) * 2017-11-30 2019-06-24 味の素物流株式会社 物流倉庫内作業把握システム

Also Published As

Publication number Publication date
CN115066701A (zh) 2022-09-16
JPWO2021162015A1 (ja) 2021-08-19
US20230057635A1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
CN1753491B (zh) 远程观察系统及其方法
WO2020151425A1 (zh) 3d实景视觉监控的切换展示方法及系统
JP2014032159A (ja) 投影撮像システム及び投影撮像システムの制御方法
CN104363518A (zh) 基于智能电视的家庭安防系统及其方法
KR20130096439A (ko) 반도체 장비의 원격 모니터링 및 제어 시스템
JP5293270B2 (ja) 撮影対象選択装置、撮影対象選択装置の制御方法、撮影対象選択装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2021162015A1 (ja) 工程管理方法、プログラム、及び工程管理システム
CN104581064A (zh) 一种摄像头报警信息整合的方法及装置
CN104601960A (zh) 影视拍摄控制管理方法及系统
JP2004032012A (ja) 多視点画像記録装置、および多視点画像フレーム同期処理方法、並びにコンピュータ・プログラム
US10785455B2 (en) Plant operating state analysis system
CN113923421B (zh) 一种监控视频压缩方法、监控系统、计算机设备及介质
JP5461623B2 (ja) 監視システムにおける監視データ処理
WO2020166468A1 (ja) 再生システム、記録システム、再生方法、再生用プログラム、記録方法及び記録用プログラム
JP6446006B2 (ja) 監視カメラシステム及び監視カメラシステムにおける動画閲覧方法並びに動画結合方法
TW201813378A (zh) 資訊處理裝置、資訊處理系統、資訊處理方法及程式產品
JP6541847B2 (ja) 装置、システムおよびプログラム
JP2004023505A (ja) 集中監視システム
JP7139649B2 (ja) 制御システム、制御装置及び制御システムにおける画像データの送信方法
CN112307882A (zh) 图像判断装置及图像判断系统
JP6252921B1 (ja) 監視カメラシステム及び再生方法
JP2019193283A (ja) システムおよびプログラム
CN204795369U (zh) 影视拍摄协调控制系统
TW201824850A (zh) 監視攝影機系統
US20230171382A1 (en) Image capturing apparatus, method of controlling the same, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21753870

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022500431

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21753870

Country of ref document: EP

Kind code of ref document: A1