WO2018131630A1 - 作業分析装置および作業分析方法 - Google Patents

作業分析装置および作業分析方法 Download PDF

Info

Publication number
WO2018131630A1
WO2018131630A1 PCT/JP2018/000414 JP2018000414W WO2018131630A1 WO 2018131630 A1 WO2018131630 A1 WO 2018131630A1 JP 2018000414 W JP2018000414 W JP 2018000414W WO 2018131630 A1 WO2018131630 A1 WO 2018131630A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
worker
unit
content
coordinate information
Prior art date
Application number
PCT/JP2018/000414
Other languages
English (en)
French (fr)
Inventor
哲也 玉置
中田 智仁
翼 友田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201880004983.2A priority Critical patent/CN110140093B/zh
Priority to JP2018561402A priority patent/JP6765449B2/ja
Publication of WO2018131630A1 publication Critical patent/WO2018131630A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • an appropriate standard work is performed by analyzing whether or not there is a work that deviates from the standard work set as work content with high work efficiency for the worker (hereinafter referred to as non-standard work).
  • the present invention relates to a work analysis apparatus and a work analysis method that can be instructed.
  • Non-Patent Document 1 a classical IE method for urging to perform standard work by measuring using (see, for example, Non-Patent Document 1 below).
  • Patent Document 1 a technique of automatically identifying a person's work movement and using it for work analysis using a motion capture technique using various sensors, such as Patent Document 1 and Patent Document 2 below. Is disclosed.
  • Patent Document 1 the contents of the standard work are registered in advance as a database called “motion dictionary”, human motion is detected by a sensor, and the detected value is compared with the above “motion dictionary”.
  • motion dictionary a database
  • human motion is detected by a sensor
  • the detected value is compared with the above “motion dictionary”.
  • Patent Document 2 discloses a technique in which an operator who is engaged in manufacturing a product inputs a posture to be analyzed and objectively evaluates whether the posture is good or bad using various sensors. Yes.
  • the present invention was made to solve the above-mentioned problems, and automatically, objectively and quickly analyze the presence or absence of non-standard work without imposing an excessive burden on the analyst who checks the work contents. It is an object of the present invention to provide a work analysis apparatus and a work analysis method that can be instructed to always perform appropriate standard work.
  • the work analysis apparatus includes a coordinate information acquisition unit that detects a part coordinate of a joint part of the worker and a presence position coordinate of the worker; Work to extract the work operation procedure and the movement route associated with a series of work of the worker as a work content information based on the part coordinates and the existence position coordinates acquired by the coordinate information acquisition unit A content extractor; A work content analysis unit that analyzes the work content performed by the worker based on the work content information obtained by the work content extraction unit and determines whether there is a nonstandard work that deviates from the standard work with good work efficiency, A feedback unit that gives instructions to the worker to return to the standard work when the work content analysis unit determines that the work of the worker is the non-standard work; .
  • the work analysis method includes a coordinate information acquisition step for detecting a part coordinate of the joint part of the worker and a position coordinate of the worker, Work that extracts the work operation procedure and movement route associated with a series of work of the worker based on the part coordinates and the existence position coordinates acquired in the coordinate information acquisition step, and the time required for them as work content information
  • a content extraction step for analyzing the work content performed by the worker based on the work content information obtained in the work content extraction step and determining whether there is a non-standard work deviating from a standard work with good work efficiency
  • a feedback step for giving an instruction to the worker to return to the standard work when the work content analysis step determines that the work of the worker is the non-standard work.
  • the present invention it is possible to automatically and objectively and promptly analyze the presence or absence of nonstandard work without imposing an excessive burden on the analyst who checks the work content performed by the worker, and always performs an appropriate standard work. Can be instructed to do. Therefore, it is possible to ensure work safety, improve work efficiency, and further assure product quality.
  • Embodiment 1 of this invention It is a block diagram which shows the whole work analysis apparatus in Embodiment 1 of this invention. It is a block diagram which shows the structural example of the hardware of the personal computer (PC) as an analytical instrument of Embodiment 1 of this invention. It is explanatory drawing of the coordinate system for setting a coordinate position by making the installation position of the motion capture of the work analysis apparatus of Embodiment 1 of this invention into an origin. It is a functional block diagram of the work analysis apparatus of Embodiment 1 of this invention. It is explanatory drawing which shows the joint part of the operator who becomes an acquisition target in the part coordinate information acquisition part of the work analysis apparatus of Embodiment 1 of this invention.
  • FIG. 19 is an explanatory diagram for explaining the operation of the feedback device when the feedback device shown in FIG. 18 prompts the user to return to standard work. It is a block diagram which shows another example of the feedback apparatus which urges
  • FIG. 1 is a block diagram showing the entire work analysis apparatus according to Embodiment 1 of the present invention.
  • the work analysis apparatus includes a motion capture 1 that acquires position information on a three-dimensional space (3D space) of the worker M, and a work of the worker M based on the position information obtained by the motion capture 1.
  • a personal computer (hereinafter referred to as a PC) 2 is provided as an example of an analysis device for analyzing the contents, and the motion capture 1 and the PC 2 are connected to each other via a USB cable 3.
  • the motion capture 1 is connected to a power source 1A.
  • FIG. 2 is a block diagram showing a hardware configuration example of the PC 2 as an analytical instrument.
  • the PC 2 includes a processor 200, a storage device 201, and an input / output unit 202.
  • the storage device 201 includes a volatile storage device such as a random access memory and a nonvolatile auxiliary storage device such as a flash memory.
  • a hard disk auxiliary storage device may be provided instead of the flash memory or the like.
  • the processor 200 executes a program input from the storage device 201. In this case, a program is input from the auxiliary storage device to the processor 200 via the volatile storage device. Further, the processor 200 may output data such as the operation processing result to the volatile storage device of the storage device 201, or may store the data in the auxiliary storage device via the volatile storage device. Data from the motion capture 1 is input to the input / output unit 202 via the USB cable 3.
  • FIG. 3 is a diagram showing the x, y, and z directions with the installation position of the motion capture 1 as the observation origin, where x is the horizontal direction, y is the vertical direction, and z is the position in the depth direction. .
  • the motion capture 1 is not limited to such a configuration, and the motion capture 1 of various detection methods such as a configuration in which the worker M is attached with a sensor marker or a configuration in which heat is detected by an infrared camera is used. Is possible.
  • FIG. 4 is a functional block diagram of the work analysis apparatus according to the first embodiment.
  • This work analysis apparatus includes a part coordinate information acquisition unit 5 that acquires part coordinate information of a joint part of an operator, a presence position coordinate information acquisition unit 6 that acquires the presence position coordinate information of the worker, and a part coordinate information acquisition unit 5.
  • the part coordinate information recording unit 7 that records the acquired part coordinate information
  • the existence position coordinate information recording unit 8 that records the existence position coordinate information acquired by the existence position coordinate information acquisition unit 6, and the part coordinate information recording unit 7
  • the operation procedure information extracting unit 9 that extracts a series of procedures of the worker's work operation and the time required for it as operation procedure information based on the part coordinate information that has been recorded, and the existing position recorded in the existing position coordinate information recording unit 8
  • the movement information extraction unit 10 extracts the movement route of the worker and the time required for the movement as movement information based on the coordinate information, and the movement procedure information and movement information of the worker extracted by the movement procedure information extraction unit 9.
  • a learning unit 11 that performs learning so as to obtain optimum work content without waste based on the movement information extracted by the output unit 10, and a learning content recording unit 15 that records a learning result of the work content obtained by the learning unit 11.
  • Contents of work performed by the operator based on the action procedure information extracted by the action procedure information extraction unit 9, the movement information extracted by the movement information extraction unit 10, and the information recorded by the learning content recording unit 15.
  • the work content analysis unit 12 that determines whether or not there is a nonstandard work
  • the process selection unit 13 that selects whether or not the learning unit 11 is to be operated simultaneously with the work content analysis unit 12, and the standard work in the work content analysis unit 12
  • a feedback unit 14 is provided for instructing the worker to return to the standard work when it is determined that other work is performed.
  • the part coordinate information acquisition unit 5 and the existing position coordinate information acquisition unit 6 correspond to the motion capture 1.
  • the operation procedure information extraction unit 9, the movement information extraction unit 10, the learning unit 11, the work content analysis unit 12, the process selection unit 13, and the feedback unit 14 install a predetermined program in the storage device 201 of the PC 2,
  • the processor 200 operates by executing the program.
  • the part coordinate information recording unit 7, the existence position coordinate information recording unit 8, and the learning content recording unit 15 correspond to the storage device 201 provided in the PC 2.
  • the part coordinate information acquisition unit 5 and the existence position coordinate information acquisition unit 6 correspond to the coordinate information acquisition unit in the claims (Claim 1), and the operation procedure information extraction unit 9 and the movement information described above.
  • the extraction unit 10 corresponds to the work content extraction unit in the claims (Claim 1).
  • the part coordinate information acquisition unit 5 and the existing position coordinate information acquisition unit 6 are configured by one motion capture 1. Since it is a movable range, recording with an accuracy of 50 cm or less is required, whereas the existence position coordinate information is a working area (several meters square), so recording on a scale of 1 m or more may be required. . Therefore, motion capture 1 that can record the shape of the body in detail is used to acquire the part coordinate information, and a GPS (Global Positioning System) device, beacon, camera, image recognition device, etc. are used to acquire the position coordinate information. It is also possible to use different devices.
  • GPS Global Positioning System
  • the worker M is possessed by a beacon and continues to detect the existing position coordinates so that the detection limit is exceeded. If there is a disturbance, it is possible to estimate what was being performed.
  • the part coordinate information acquisition unit 5 configured by the motion capture 1 acquires part coordinate information of each part of the human body of the worker.
  • FIG. 5 shows a joint part of an operator to be acquired by the part coordinate information acquisition unit 5, from the head (HEAD, hereinafter referred to as H) to the right foot (FOOT_RIGHT, hereinafter referred to as FR) and left foot ( FOOT_LEFT, hereinafter referred to as “FL”), the coordinate information of a total of 20 joint parts is an acquisition target.
  • HEAD head
  • FOOT_RIGHT right foot
  • FOOT_LEFT left foot
  • FIG. 6 is an example of the operator's part coordinate information recorded by the part coordinate information acquisition unit 5.
  • the part coordinate information includes information on the date / time when the data is acquired, the name of the joint part, and the coordinates (x, y, z) of the joint part.
  • the part coordinate information is recorded in the part coordinate information recording unit 7.
  • the presence position coordinate information acquisition unit 6 acquires the worker's presence position coordinate information.
  • the position of the head H of the human body in the three-dimensional space is set as the existing position coordinate information.
  • the existence position coordinate information is recorded in the existence position coordinate information recording unit 8 together with the date and time information synchronized with the part coordinate information.
  • the movement information extraction unit 10 extracts the movement route of the worker and the time required for it as movement information based on the existence position coordinate information recorded in the existence position coordinate information recording unit 8.
  • FIG. 7 shows an example of worker movement information extracted by the movement information extraction unit 10.
  • the operation procedure information extracting unit 9 extracts a series of procedures of the worker's work operation and the time required for it as operation procedure information based on the part coordinate information recorded in the part coordinate information recording unit 7.
  • the processing contents in the operation procedure information extraction unit 9 will be described with reference to the flowchart shown in FIG. In the following, the symbol S means each processing step.
  • the analyst who checks the work content is operated by the worker from among the various operations of the worker (for example, various operations such as walking, turning, bending, climbing up and down). Then, an expected operation (hereinafter referred to as an evaluation target operation) is set in advance (step S11). For example, when working in a place where the floor is flat, the walking motion is the evaluation target motion, but the work motion such as ascending and descending the stairs is excluded from the evaluation target motion.
  • an evaluation target operation For example, when working in a place where the floor is flat, the walking motion is the evaluation target motion, but the work motion such as ascending and descending the stairs is excluded from the evaluation target motion.
  • the operation procedure information extraction unit 9 takes in the part coordinate information recorded in the part coordinate information recording unit 7 (step S12), and collates with a rule for extracting a work operation described later based on the part coordinate information. Then, it is determined what operation the operator has performed (step S13). This is performed for all the evaluation target operations set in advance in step S11, and when the operation extraction for all the evaluation target operations is completed (YES in step S14), information indicating a series of procedures of these evaluation target operations ( The time series information of the evaluation target motion) and the time information required for this series of motion procedures are extracted, and the information is output as motion procedure information (step S15).
  • step S13 details of processing contents in the case of extracting an evaluation target action based on the part coordinate information in the rule matching step (step S13) shown in FIG. 8 will be described.
  • Walking FIG. 9 shows an example of a collation rule for a “walking” operation.
  • the movement distance in the horizontal direction (xz coordinate) of the center of the shoulder (Shoulder_Center, hereinafter referred to as SC) is used from the input part coordinate information.
  • SC the movement distance in the horizontal direction
  • the z coordinate is SCz
  • the x coordinate of the shoulder center SC ′ after movement is SC′x
  • the z coordinate is SC′z
  • the shoulder center SC When the moving distance is larger than the worker's step length of 0.5 m, it can be considered that the “walking” operation is performed.
  • the left side means the moving distance of the shoulder center SC
  • the right side means the worker's stride (judgment threshold).
  • the stride as the determination threshold value of the “walking” operation is 0.5 m, but this value is not limited to 0.5 m, and it is determined by the analyst who checks the work content. Can be set freely.
  • FIG. 10 shows an example of the collation rule of the “turn around” operation.
  • SLx that is the x coordinate of the left shoulder (Shoulder_Left, hereinafter referred to as SL) and SLz that is the z coordinate, or the right shoulder (Shoulder_Right) are determined from the input part coordinate information.
  • the angle ⁇ formed by a straight line connecting SRx which is the x coordinate of SRx and SRz which is the z coordinate and observation origins x0 and z0 is calculated.
  • the angle difference of ⁇ is 90 ° or more, it can be considered that the “turn around” operation has been performed.
  • the angle difference of the vector connecting the center of the shoulder and the left shoulder before and after the movement of the “turn around” movement is set to 90 ° ( ⁇ / 2) as the determination threshold. It is not limited to ( ⁇ / 2), and can be set freely according to the judgment of the analyst who checks the work content.
  • FIG. 11 shows an example of the collation rule of the “ascending / descending” operation.
  • the vertical movement distances of both the left foot tip (hereinafter referred to as FL) and the right foot tip (hereinafter referred to as FR) are determined from the input part coordinate information.
  • FL / Ry is the smaller one (the lower one) of FLy, which is the vertical y-coordinate of left foot FL before movement, and FRy, the vertical y-coordinate of right foot FR.
  • the left side means the amount of change in the position of the lower right foot toe FR or the left foot toe, ie, the lower step, that is, the step, and the right side means the judgment threshold for ascending and descending. ing.
  • the step before and after the “up / down” movement is 0.1 m, but this value is not limited to 0.1 m, and the judgment of the analyst who checks the work content Can be set freely.
  • FIG. 12 shows an example of a collation rule for the “squatting” action.
  • the operation is “squatting”
  • it is determined from the inputted part coordinate information that the y-coordinate of the vertical direction of the hip (Hip_Center, hereinafter referred to as HC) is HCY and the “rising / lowering” operation is determined.
  • the degree of proximity to the FL / Ry used at times is used.
  • the buttock HC approaches the floor surface, and as a result, the vertical distance difference between the left and right toes is reduced. Therefore, when the difference between the heel HC and FL / Ry is small, the “squatting” operation is performed. It can be assumed that it was done.
  • the left side means the distance between the buttocks HC and the left and right toes
  • the right side means the judgment threshold value for the “squatting” action.
  • the judgment threshold value for the “squatting” action is set to 0.3 m, but this value is not limited to 0.3 m, and can be freely determined by the analyst who checks the work content. Can be set.
  • FIG. 13 shows an example of a collation rule for the “back stretching” operation.
  • ALy which is the y coordinate in the vertical direction of the left footpad (Ankle_Left, hereinafter referred to as AL) and the right footpad (Ankle_Right, hereinafter AR)
  • AL the y coordinate in the vertical direction of the left footpad
  • AR the right footpad
  • the value of ARy which is the y coordinate in the vertical direction (which is lower) is AL / Ry, and the distance from the left / right foot FL / Ry is used.
  • the heel moves away from the floor, and as a result, the vertical distance between the left and right toes and the heel increases, so when the difference between AL / Ry and FL / Ry is large, the “back stretching” action is performed. It can be assumed that it has been broken.
  • the left side means the vertical distance difference between the left and right foot tips and the left and right heels, and the right side means the determination threshold for the stretched posture.
  • the threshold value for determining the “back stretching” action is set to 0.05 m.
  • this value is not limited to 0.05 m, and can be freely determined by the analyst who checks the work content. Can be set.
  • FIG. 14 shows an example of a collation rule for a “bend” operation.
  • the distance between Hy which is the y coordinate in the vertical direction of the head H
  • Hcy which is the y coordinate in the vertical direction of the buttocks HC
  • the left side means a vertical distance difference between the head H and the buttocks HC
  • the right side means a judgment threshold for the posture to bend.
  • the judgment threshold value for the “bend” action is 0.4 m, but this value is not limited to 0.4 m, and can be freely determined by the analyst who checks the work content. Can be set.
  • a learning unit 11 is provided for establishing, as a standard work, a work that has no waste or waste in the work content in accordance with a series of operation procedures and takes the shortest time for the work. .
  • the process selection unit 13 selects the learning unit 11 together with the work content analysis unit 12.
  • the learning operation by the learning unit 11 will be described with reference to the flowchart shown in FIG.
  • the operation procedure information extraction unit 9 performs operation procedure information (that is, each evaluation target operation of the worker and a series of procedures of each evaluation target operation, and The time information required for this series of operation procedures) is extracted, and the movement information extraction unit 10 extracts the movement information (that is, the movement route of the worker and the time information required for the worker).
  • operation procedure information and movement information (hereinafter collectively referred to as work content information) are taken in (step S21, step S22).
  • the learning unit 11 compares the current (n-th) work content with the previous (n ⁇ 1) -time work content based on the work content information (operation procedure information and movement information) (step 1). S23) If there is no waste or waste compared to the previous work and the time required for the work is short, the current work content is adopted as the optimum work (step S24). Then, the optimum work content information in step S24 is recorded in the learning content recording unit 15 as a reference when the work content analysis unit 12 analyzes the work content (step S26). On the other hand, if the previous work content has no waste or waste compared to this time and the time required for the work is short, the previous work content is adopted as the optimum work (step S25).
  • step S25 the optimum work content information in step S25 is recorded in the learning content recording unit 15 as a reference when the work content analysis unit 12 analyzes the work content (step S26).
  • the evaluation based on the work that always follows the optimum operation procedure can be performed.
  • the learning unit 11 when it can be determined that the operator has established as a standard operation as a result of repeatedly performing the operation according to the series of operation procedures by trial and error, according to the instruction of the analyst, the learning operation of the learning unit 11 is stopped by the process selection unit 13, and the optimum work content information (operation procedure information and movement information) registered in the learning content recording unit 15 is used as the reference standard work information.
  • the analysis unit 12 is used as a comparison target when determining the work content of the worker.
  • the work content analysis unit 12 obtains the operation procedure information regarding the worker obtained by the operation procedure information extraction unit 9 (that is, a series of procedures of each evaluation target operation of the worker and time information required for the series of operation procedures). ) And the movement information (worker's movement route and time information required) obtained by the movement information extraction unit 10 are taken in as work content information (steps S31 and S32).
  • the work content analysis unit 12 compares the current work content obtained with the worker's work with the optimum work content recorded in the learning content recording unit 15 (step S33). It is determined whether the work contents match (step S34). If the current work content and the optimal work content match in step S34, it is further determined whether or not the time required for a series of work (operation procedure and movement) matches (step S35). If the time required for a series of work matches, it is determined that the work is a standard work (step S36).
  • step S34 if the current work content obtained with the worker's work and the optimum work content recorded in the learning content recording unit 15 do not match in step S34, the standard work does not match, that is, the standard work. It is determined that the work is outside work (step S37). If the time required for a series of work (operation procedure and movement) does not match in step S35, it is determined that the work pace is disturbed (step S38). These determination results are sent to the feedback unit 14.
  • the feedback unit 14 gives an instruction for compliance with the standard work to the worker according to the determination result by the work content analysis unit 12. That is, as shown in FIG. 17, when it is determined that it matches the standard work, no instruction is given to the worker. If it is determined that the pace is disturbed, an instruction for prompting the user to return to the standard work pace is issued. If it is determined that the standard work does not match (non-standard work), a work stop warning is generated.
  • FIG. 18 is an example of a feedback device that prompts the worker M to return to the standard work in response to an instruction from the feedback unit 14, and illustrates an apparatus that uses sound.
  • a speaker 16 having directivity with respect to the worker M is installed at the work site, and the speaker 16 is connected to the feedback unit 14 via the scale generator 17. Then, when the standard work is normally performed, the speaker 16 generates a scaled sound having a fixed period synchronized with one cycle of the standard work like the metronome so that the worker M is aware of the work pace. To.
  • the scale speed is changed to return to the standard work pace. That is, when the pace is delayed, the scale speed is gradually increased, and when the pace is advanced, the scale speed is gradually decreased, so that the operator M can be naturally restored to the standard work pace without impacting. . If it is determined that the standard work does not match (non-standard work), a work stop warning is generated.
  • FIG. 20 shows another example of a feedback device that prompts the worker M to return to the standard work in response to an instruction from the feedback unit 14, and uses a wearable terminal 18 equipped with a vibration generator and an alarm device. Show.
  • the wearable terminal 18 is attached to the worker M, and an instruction is sent from the feedback unit 14 to the wearable terminal 18 via the work instruction generation device 19 by wireless communication RC.
  • vibrations synchronized with one cycle of the standard work are generated by the vibration generator of the wearable terminal 18 to make the worker M aware of the work pace.
  • the wearable terminal 18 When the standard work is matched, there is no special feedback to the worker M. However, when it is determined that the pace is disturbed, the wearable terminal 18 generates vibrations according to an instruction from the feedback unit 14. Change the vibration speed of the vessel to encourage the return to the standard work pace. That is, when the pace is delayed, the vibration speed is gradually increased, and when the pace is advanced, the vibration speed is gradually decreased, so that the worker M is naturally urged to return to the standard work pace without impact. . When it is determined that the work does not match the standard work (non-standard work), an alarm device provided in the wearable terminal 18 is activated to generate a work stop warning sound.
  • connection units 51 and 52 shown in FIG. 1 are replaced with network connections like the connection units 51A and 52A shown in FIG. To.
  • the learning unit 11 and the learning content recording unit 15 By disposing the learning unit 11 and the learning content recording unit 15 on the cloud, it is possible to perform work analysis at a remote location.
  • Other configurations are the same as those in the first embodiment.
  • the learning unit 11 and the learning content recording unit 15 are stored as big data related to work information. This makes it possible to immediately apply the learned standard work to a newly established factory or production line.
  • the part coordinate information acquisition unit 5 and the existence position coordinate information acquisition unit 6 are configured by one motion capture 1, but the present invention is not limited to this, for example, as shown in FIG.
  • a plurality of motion captures 1 a and 1 b are connected to one PC 2 via the LAN 20.
  • the motion captures 1a and 1b are connected to power supplies 1aA and 1bA.
  • the number of motion captures 1a and 1b is not limited to two, and three or more motion captures can be provided.
  • the case where the work performed by the worker engaged in the manufacture of the product mainly in the factory is deviated from the standard work is described as an analysis target. Not only in these fields, but also in the case of routine work in non-manufacturing industries, etc., it can be applied effectively even when judging whether the work content is appropriate for the improvement of the work environment of workers and occupational health. .
  • the present invention is not limited to the configuration of the first and second embodiments described above, and a part of the configuration of the first and second embodiments may be changed without departing from the spirit of the present invention. Or its configuration can be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • General Factory Administration (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

作業者の関節部位の部位座標と存在位置座標とを検出する座標情報取得部(5、6)、座標情報取得部(5、6)により取得された部位座標と存在位置座標とに基づいて作業者の一連の作業に伴う作業動作の手順と移動経路およびそれらに要する時間を作業内容情報として抽出する作業内容抽出部(9、10)、作業内容抽出部(9、10)により得られる作業内容情報に基づいて作業者が行う作業内容を分析して標準作業から逸脱する標準外作業の有無を判断する作業内容分析部(12)、および作業内容分析部(12)で標準外作業であると判定された場合には作業者に標準作業に復帰するように促すフィードバック部(14)を備える。

Description

作業分析装置および作業分析方法
 この発明は、作業者に対して作業効率の良い作業内容であるとして設定された標準作業から逸脱するような作業(以下、標準外作業という)の有無を分析して適切な標準作業を行うように指導することができる作業分析装置および作業分析方法に関するものである。
 工場などの生産現場においては、標準作業の内容を規定し、作業の生産性維持、品質保証または作業者の労働衛生上などで、悪影響が出ないようにしている。この場合、標準外作業が発生していないかを確認するには、作業内容のチェックを行う分析者が作業者の動きを観察し、作業者の動作の軌跡または動作に要する時間をビデオ機材等を用いて測定することで、標準作業を行うように促す古典的IE手法が知られている(例えば、下記の非特許文献1参照)。
 このような従来技術では、作業者の両手動作の分析を行う両手作業分析、または人間の動作を基本要素に分割しそれらの情報に基づいて微動作分析などの動作研究を行う手法が紹介されている。しかし、このような従来の動作分析方法においては、分析者が観測結果を分析整理しなければならず、分析者にとって多くの労力を要し、分析結果のフィードバックに時間が掛かるという問題がある。
 そこで、近年では、下記の特許文献1や特許文献2のような、各種センサ類を用いたモーションキャプチャ技術を利用し、自動的に人物の作業動作を識別し、作業分析に利用しようとする技術が開示されている。
特許第5159263号 特開2015-125578号公報
藤田彰久著「新版 IEの基礎」建帛社(2007年1月発行)
 ここに、上記の特許文献1では、標準作業の内容を予め「動作辞書」なるデータベースとして登録しておくと共に、人間の動きをセンサによって検出し、当該検出値を上記の「動作辞書」と比較することで、当該検出値に対応する動作を特定するようにした技術が開示されている。
 しかし、このように特定された動作が標準作業から外れているか否かの判断は、分析者自身が判断する必要があり、実作業が予め決められている標準作業から外れているか否かの良し悪しを自動的に判断することができない。このため、分析者に過大な負担を強いることになるとともに、客観的な判断を行えない。
 また、特許文献2では、製品の製造に従事する作業者自身が分析対象となる姿勢を入力し、当該姿勢の良し悪しを各種センサを用いて客観的に評価するようにした技術が開示されている。
 しかし、この引用文献2記載の構成のものは、作業者自身で意図的に評価対象となる標準作業の内容を選定しなければならず、一連の作業の中に標準外作業が含まれるような場合でもそのような動作が見過ごされてしまい、標準作業を実施していると誤って判断される可能性がある。
 この発明は、上記の課題を解決するためになされたもので、作業内容のチェックを行う分析者に過大な負担を強いることなく、標準外作業の有無を自動的、客観的、かつ迅速に分析して、常に適切な標準作業を行うように指導することができる、作業分析装置および作業分析方法を提供することを目的とする。
 この発明に係る作業分析装置は、作業者の関節部位の部位座標と作業者の存在位置座標とを検出する座標情報取得部と、
上記座標情報取得部で取得された上記部位座標と上記存在位置座標とに基づいて作業者の一連の作業に伴う作業動作の手順と移動経路、およびそれらに要する時間を作業内容情報として抽出する作業内容抽出部と、
上記作業内容抽出部で得られる上記作業内容情報に基づいて作業者が行う作業内容を分析して作業効率の良い標準作業から逸脱する標準外作業の有無を判断する作業内容分析部と、
上記作業内容分析部で作業者の作業が上記標準外作業であると判定された場合には、作業者に対して標準作業に復帰するように促す指示を与えるフィードバック部と、を備えるものである。
 また、この発明に係る作業分析方法は、作業者の関節部位の部位座標と作業者の存在位置座標とを検出する座標情報取得ステップと、
上記座標情報取得ステップで取得された上記部位座標と上記存在位置座標とに基づいて作業者の一連の作業に伴う作業動作の手順と移動経路、およびそれらに要する時間を作業内容情報として抽出する作業内容抽出ステップと、
上記作業内容抽出ステップで得られる上記作業内容情報に基づいて作業者が行う作業内容を分析して作業効率の良い標準作業から逸脱する標準外作業の有無を判断する作業内容分析ステップと、
上記作業内容分析ステップで作業者の作業が上記標準外作業であると判定された場合には、作業者に対して標準作業に復帰するように促す指示を与えるフィードバックステップと、を備えるものである。
 この発明によれば、作業者が行う作業内容についてチェックする分析者に過大な負担を強いることなく、標準外作業の有無を自動的、客観的、かつ迅速に分析して、常に適切な標準作業を行うように指導することができる。このため、作業の安全性確保、作業効率の向上、さらには製品の品質保証を図ることができる。
この発明の実施の形態1における作業分析装置の全体を示す構成図である。 この発明の実施の形態1の分析機器としてのパーソナルコンピュータ(PC)のハードウエアの構成例を示すブロック図である。 この発明の実施の形態1の作業分析装置のモーションキャプチャの設置位置を原点として座標位置を設定するための座標系の説明図である。 この発明の実施の形態1の作業分析装置の機能ブロック図である。 この発明の実施の形態1の作業分析装置の部位座標情報取得部において取得対象となる作業者の関節部位を示す説明図である。 この発明の実施の形態1の作業分析装置の部位座標情報取得部で作業者の関節部位について取得した部位座標情報の一例を示す説明図である。 この発明の実施の形態1の作業分析装置の移動情報抽出部で抽出される作業者の移動経路の一例を示すグラフである。 この発明の実施の形態1の作業分析装置の動作手順情報抽出部において作業者の作業動作手順を抽出する処理内容を説明するためのフローチャートである。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「歩く」動作を抽出するための説明図である。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「振り向く」動作を抽出するための説明図である。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「昇り降り」動作を抽出するための説明図である。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「しゃがむ」動作を抽出するための説明図である。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「背伸び」動作を抽出するための説明図である。 この発明の実施の形態1の動作手順情報抽出部において作業者の作業動作として「屈む」動作を抽出するための説明図である。 この発明の実施の形態1の学習部による学習処理手順を説明するフローチャートである。 この発明の実施の形態1の作業内容分析部により作業内容を分析して標準外作業かどうかを判断するための処理手順を示すフローチャートである。 この発明の実施の形態1のフィードバック部によるフィードバック処理内容の説明図である。 この発明の実施の形態1のフィードバック部からの指示により作業者に対して標準作業への復帰を促すフィードバック装置の一例を示す構成図である。 図18に示すフィードバック装置により標準作業への復帰を促す場合のフィードバック装置における動作説明に供する説明図である。 この発明の実施の形態1のフィードバック部からの指示により作業者に対して標準作業への復帰を促すフィードバック装置のその他の一例を示す構成図である。 この発明の実施の形態2の作業分析装置の機能ブロック図である。 この発明の実施の形態1または2の作業分析装置の変形例を示す構成図である。
実施の形態1.
 図1はこの発明の実施の形態1における作業分析装置の全体を示す構成図である。
 この実施の形態1における作業分析装置は、作業者Mの三次元空間(3Dspace)上の位置情報を取得するモーションキャプチャ1と、このモーションキャプチャ1で得られる位置情報に基づいて作業者Mの作業内容を分析する分析機器の例としてのパーソナルコンピュータ(以下、PCと称する)2とを備え、モーションキャプチャ1とPC2とはUSBケーブル3を介して互いに接続されている。なお、モーションキャプチャ1には電源1Aが接続されている。
 図2は、分析機器としてのPC2のハードウエアの構成例を示すブロック図である。PC2は、プロセッサ200、記憶装置201、及び入出力部202を備えている。記憶装置201は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置を備える。フラッシュメモリ等の代わりにハードディスクの補助記憶装置を備えてもよい。プロセッサ200は、記憶装置201から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ200にプログラムが入力される。また、プロセッサ200は、演算処理結果等のデータを記憶装置201の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。入出力部202には、モーションキャプチャ1からのデータが、USBケーブル3を介して入力される。
 この実施の形態1におけるモーションキャプチャ1としては、例えばマイクロソフト社のKinect(登録商標)を用いることで、作業者Mにセンサマーカ等を付けずに三次元空間(3Dspace)上の位置情報を取得することができる。図3はモーションキャプチャ1の設置位置を観測原点として、x、y、zの各方向を示した図であり、xを水平方向、yを鉛直方向、zを奥行方向の位置を意味している。
 なお、モーションキャプチャ1としてはこのような構成のものに限らず、作業者Mにセンサマーカを付けて使用する構成、または赤外線カメラによって熱検知する構成など、さまざまな検出方法のモーションキャプチャ1を使用可能である。
 図4は実施の形態1における作業分析装置の機能ブロック図である。
 この作業分析装置は、作業者の関節部位の部位座標情報を取得する部位座標情報取得部5、作業者の存在位置座標情報を取得する存在位置座標情報取得部6、部位座標情報取得部5で取得された部位座標情報を記録する部位座標情報記録部7、存在位置座標情報取得部6で取得された存在位置座標情報を記録する存在位置座標情報記録部8、部位座標情報記録部7に記録されている部位座標情報に基づいて作業者の作業動作の一連の手順とそれに要する時間を動作手順情報として抽出する動作手順情報抽出部9、存在位置座標情報記録部8に記録されている存在位置座標情報に基づいて作業者の移動経路とそれに要する時間を移動情報として抽出する移動情報抽出部10、動作手順情報抽出部9で抽出される作業者の動作手順情報と移動情報抽出部10で抽出される移動情報とに基づいて無駄の無い最適な作業内容となるように学習を行う学習部11、学習部11で得られる作業内容の学習結果を記録する学習内容記録部15、上記の動作手順情報抽出部9で抽出される動作手順情報、移動情報抽出部10で抽出される移動情報、および学習内容記録部15で記録されている情報に基づいて作業者が行う作業内容を分析して標準外作業の有無を判断する作業内容分析部12、作業内容分析部12と共に学習部11を同時に動作させるかどうかを選択する処理選択部13、および作業内容分析部12で標準作業以外の作業が行われたと判断された場合に作業者に対して標準作業に復帰するように促す指示を与えるフィードバック部14を備えている。
 ここで、上記の部位座標情報取得部5と存在位置座標情報取得部6とがモーションキャプチャ1に対応する。また、上記の動作手順情報抽出部9、移動情報抽出部10、学習部11、作業内容分析部12、処理選択部13およびフィードバック部14は、PC2の記憶装置201に所定のプログラムをインストールし、プロセッサ200により当該プログラムを実行することにより動作する。さらに、部位座標情報記録部7、存在位置座標情報記録部8、および学習内容記録部15は、PC2が備える記憶装置201に対応する。
 なお、上記の部位座標情報取得部5および存在位置座標情報取得部6が、請求の範囲(請求項1)における座標情報取得部に対応し、また、上記の動作手順情報抽出部9および移動情報抽出部10が、請求の範囲(請求項1)における作業内容抽出部にそれぞれ対応している。
 このように、部位座標情報取得部5と存在位置座標情報取得部6とを市販のモーションキャプチャ1を適用して構成することで、柔軟な機器構成にすることが可能となる。また、それ以外の各部はPC2を用いているが、これに限らずPC2と同等の機能をもつタブレット端末やスマートホンを用いてもよく、パーソナルコンピュータに限定するものではない。
 また、この実施の形態1では、部位座標情報取得部5と存在位置座標情報取得部6とが1台のモーションキャプチャ1により構成されているが、一般的に、部位座標情報は人の体の可動域であるので、50cm以下の精度の記録が必要であるのに対し、存在位置座標情報は作業域(数メートル四方)であるので、1m以上のスケールでの記録が必要となることがある。そのため、部位座標情報の取得には、体の形状を詳細記録できるモーションキャプチャ1を用い、存在位置座標情報の取得には、GPS(Grobal Positioning System)装置、ビーコン、カメラ、画像認識装置を用いるなど、装置を使い分けることも可能である。
 また、作業者Mの移動範囲が広くて、モーションキャプチャ1の検出限界を超える場合には、作業者Mにビーコンを所持させ、存在位置座標の検出を継続することで、検出限界を超えるような外乱があった場合に、何を実施していたかを推定することができる。
 次に、図4に示した作業分析装置の各部の具体的な処理動作について説明する。
 モーションキャプチャ1で構成される部位座標情報取得部5は、作業者の人体各部の部位座標情報を取得する。図5は部位座標情報取得部5において取得対象となる作業者の関節部位を示すものであり、頭部(HEAD、以下Hと表記)から右足先(FOOT_RIGHT、以下FRと表記)および左足先(FOOT_LEFT、以下FLと表記する)まで合計20箇所の関節部位の座標情報が取得対象となっている。
 図6は部位座標情報取得部5によって記録された作業者の部位座標情報の一例である。部位座標情報は、データを取得した日付・時刻と、関節部位の名称と、関節部位の座標(x、y、z)の各情報が含まれている。そして、この部位座標情報は、部位座標情報記録部7に記録される。
 また、存在位置座標情報取得部6は、作業者の存在位置座標情報を取得する。この場合、例えば人体の頭部Hの三次元空間上の位置を存在位置座標情報とする。この存在位置座標情報は、部位座標情報と同期した日付時刻情報と共に存在位置座標情報記録部8に記録される。
 移動情報抽出部10は、存在位置座標情報記録部8に記録されている存在位置座標情報に基づいて作業者の移動経路およびそれに要する時間を移動情報として抽出する。図7は、移動情報抽出部10で抽出された作業者の移動情報の一例を示すものである。
 また、動作手順情報抽出部9は、部位座標情報記録部7に記録されている部位座標情報に基づいて作業者の作業動作の一連の手順およびそれに要する時間を動作手順情報として抽出する。この動作手順情報抽出部9における処理内容について、図8に示すフローチャートを参照して説明する。なお、以下において符号Sは各処理ステップを意味する。
 動作手順情報抽出部9に対しては、作業内容をチェックする分析者が、作業者の各種の動作(例えば、歩く、振り向く、屈む、昇り降りなどの各種動作)の内から、作業者が動作すると想定される動作(以下、評価対象動作という)を予め設定しておく(ステップS11)。例えば、床面が平らな場所で作業するような場合には、歩く動作は評価対象動作となるが、階段の昇り降りなどの作業動作は評価対象動作から除外される。
 そして、動作手順情報抽出部9は、部位座標情報記録部7に記録されている部位座標情報を取り込み(ステップS12)、この部位座標情報に基づいて後述の作業動作を抽出するためのルールと照合して、作業者がどのような動作を行ったかを判定する(ステップS13)。これをステップS11で予め設定した全ての評価対象動作について実施し、全ての評価対象動作についての動作抽出が完了すれば(ステップS14のYES)、それらの評価対象動作の一連の手順を示す情報(評価対象動作の時系列情報)、およびこの一連の動作手順に要する時間情報を抽出し、それらの情報を動作手順情報として出力する(ステップS15)。
 次に、図8に示したルール照合ステップ(ステップS13)において、部位座標情報に基づいて評価対象動作を抽出する場合の処理内容の詳細について説明する。
 ここでは、各種の作業動作の内から、代表的な6つの動作を評価対象動作として挙げて説明するが、必ずしもこのような6つの動作に限定されるものではない。いずれの動作も、直前時刻の部位座標情報との間の変化量を用いて照合する。
(1)歩く
 図9は、「歩く」動作の照合ルールの例を示している。
 「歩く」動作であるか否かを照合するには、入力された部位座標情報から、肩中央部(Shoulder_Center、以下SCと表記)の水平方向(x-z座標)の移動距離を用いる。移動前の肩中央部SCのx座標をSCx、z座標をSCzとし、移動後の肩中央部SC’のx座標をSC'x、z座標をSC'zとすれば、肩中央部SCの移動距離が作業者の歩幅0.5mより大きい場合に、「歩く」動作が行われたと見做すことができる。下記の式(1)において、左辺が肩中央部SCの移動距離を意味し、右辺が作業者の歩幅(判断閾値)を意味している。
Figure JPOXMLDOC01-appb-M000001
 式(1)の例では、「歩く」動作の判断閾値としての歩幅を0.5mとしているが、この値は0.5mに限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
(2)振り向く
 図10は、「振り向く」動作の照合ルールの例を示している。「振り向く」動作であるか否かを照合するには、入力された部位座標情報から、左肩(Shoulder_Left、以下SLと表記)のx座標であるSLxおよびz座標であるSLz、あるいは右肩(Shoulder_Right、以下SRと表記)のx座標であるSRxおよびz座標であるSRzと、観測原点x0およびz0を結ぶ直線のなす角度θを計算する。θの角度差が90°以上の場合に、「振り向く」動作が行われたと見做すことができる。
Figure JPOXMLDOC01-appb-M000002
 式(2)の例では、「振り向く」動作の移動前後の肩中央部と左肩とを結ぶベクトルの角度差が90°(π/2)を判断閾値に設定しているが、この値は90°(π/2)に限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
(3)昇り降り
 図11は、「昇り降り」動作の照合ルールの例を示している。
 「昇り降り」動作であるか否かを照合するには、入力された部位座標情報から、左足先(以下FLと表記)と右足先(以下FRと表記)の両方の垂直方向の移動距離を用いる。移動前の左足先FLの鉛直方向のy座標であるFLyと、右足先FRの鉛直方向のy座標であるFRyと、のどちらか小さい方(低い位置にある方)の値をFL/Ryとし、移動後の左足先FLの鉛直方向のy座標であるFL'yと右足先FRの鉛直方向y座標であるFR'yの小さい方(低い位置にある方)の値をFL'/R'yとすれば、移動前後の両者の差(すなわち段差)が大きい時に、「昇り降り」動作が行われたと見做すことができる。下記の式(3)において、左辺が移動前後の右足先FRと左足先FLのいずれか低い位置にある方の位置の変化量、すなわち段差を意味し、右辺が昇り降りの判断閾値を意味している。
Figure JPOXMLDOC01-appb-M000003
 式(3)の例では、「昇り降り」動作の移動前後の段差が0.1mとしているが、この値は0.1mに限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
(4)しゃがむ
 図12は、「しゃがむ」動作の照合ルールの例を示している。
 「しゃがむ」動作であるか否かを照合するには、入力された部位座標情報から、臀部(Hip_Center、以下HCと表記)の鉛直方向のy座標であるHCyと、「昇り降り」動作の判断時に使用した上記のFL/Ryとの近接度合いを用いる。「しゃがむ」動作では、臀部HCが床面に近づき、結果的に左右足先との鉛直方向の距離差が縮まることから、臀部HCとFL/Ryとの差が小さい時に、「しゃがむ」動作が行われたと見做すことができる。式(4)において、左辺が臀部HCと左右足先との距離を意味し、右辺が「しゃがむ」動作の判断閾値を意味している。
Figure JPOXMLDOC01-appb-M000004
 式(4)の例では、「しゃがむ」動作の判断閾値を0.3mとしているが、この値は0.3mに限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
(5)背伸び
 図13は、「背伸び」動作の照合ルールの例を示している。
 「背伸び」動作であるか否かを照合するには、入力された部位座標情報から、左足踵(Ankle_Left、以下ALと表記)の鉛直方向のy座標であるALyと右足踵(Ankle_Right、以下ARと表記)の鉛直方向のy座標であるARyのどちらか小さい方(低い位置にある方)の値をAL/Ryとし、左右足先のFL/Ryとの距離を用いる。背伸び姿勢では、踵が床面から離れ、結果的に左右足先と踵との鉛直方向の距離が広がることから、AL/RyとFL/Ryとの差が大きい時に、「背伸び」動作が行われたと見做すことができる。下記の式(5)において、左辺が左右足先と左右踵との鉛直方向の距離差を意味し、右辺が背伸び姿勢の判断閾値を意味している。
Figure JPOXMLDOC01-appb-M000005
 式(5)の例では、「背伸び」動作の判断閾値を0.05mとしているが、この値は0.05mに限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
(6)屈む
 図14は、「屈む」動作の照合ルールの例を示している。
 「屈む」動作であるか否かを照合するには、入力された部位座標情報から、頭部Hの鉛直方向のy座標であるHyと臀部HCの鉛直方向のy座標であるHCyの距離を用いる。屈む姿勢では、頭部Hが床面に近づき、結果的に臀部HCとの鉛直方向の距離が近づくことから、HyとHCyとの差が小さい時に、「屈む」動作が行われたと見做すことができる。下記の式(6)において、左辺が頭部Hと臀部HCの鉛直方向の距離差を意味し、右辺が屈む姿勢の判断閾値を意味している。
Figure JPOXMLDOC01-appb-M000006
 式(6)の例では、「屈む」動作の判断閾値を0.4mとしているが、この値は0.4mに限定しているわけではなく、作業内容をチェックする分析者の判断によって自由に設定することができる。
 作業者の作業動作にムリまたはムダが無く、作業者が効率良く作業を進める上での最適な作業内容を標準作業として確立するには、作業者が試行錯誤的に一連の動作手順に沿って作業を繰り返し実施して、最適な作業内容となるように学習して行くのが好ましい。そして、一連の動作手順に沿った作業を実施した結果、それに要する時間が最も短く、かつ作業動作にムリやムダが無い場合には、その一連の最適な動作手順に沿った作業を標準作業として設定する。
 そこで、この実施の形態1では、一連の動作手順に沿った作業内容にムリまたはムダが無く、かつその作業に要する時間が最も短い作業を標準作業として確立するための学習部11を設けている。
 標準作業として未だ確立されていない初期段階では、処理選択部13によって作業内容分析部12と共に学習部11も動作するように選択される。この学習部11による学習動作について、図15に示すフローチャートを参照して説明する。
 前述のように、作業者が一連の作業する際には、動作手順情報抽出部9によって動作手順情報(すなわち、作業者の各々の評価対象動作とこれらの各評価対象動作の一連の手順、およびこの一連の動作手順に要する時間情報)が抽出され、また、移動情報抽出部10によって移動情報(すなわち、作業者の移動経路とそれに要する時間情報)が抽出されているので、学習部11は、これらの動作手順情報および移動情報(以下、両者を合わせて作業内容情報という)を取り込む(ステップS21、ステップS22)。
 次に、学習部11は、これらの作業内容情報(動作手順情報および移動情報)に基づいて、今回(n回目)の作業内容と前回(n-1回目)の作業内容とを比較し(ステップS23)、今回の作業内容が前回に比較してムリまたはムダが無く、かつ作業に要する時間が短い場合には、今回の作業内容が最適な作業であるとして採用する(ステップS24)。そして、ステップS24の最適な作業内容情報を作業内容分析部12で作業内容を分析する際の基準として学習内容記録部15に記録する(ステップS26)。これに対して、前回の作業内容が今回に比較してムリまたはムダが無く、かつ作業に要する時間が短い場合には、前回の作業内容が最適な作業であるとして採用する(ステップS25)。そして、ステップS25の最適な作業内容情報を作業内容分析部12で作業内容を分析する際の基準として学習内容記録部15に記録する(ステップS26)。これにより、例えば生産ラインの変更、作業現場の改善等により、作業内容が変更された場合でも常に最適な動作手順に従う作業を基準とした評価を行える。
 なお、上記の学習部11において、作業者が試行錯誤的に一連の動作手順に沿った作業を繰り返し実施した結果、標準作業として確立されたと判断できるような場合には、分析者の指示により、処理選択部13によって学習部11の学習動作は停止され、学習内容記録部15に登録された最適な作業内容情報(動作手順情報および移動情報)が基準の標準作業情報として、次に述べる作業内容分析部12が作業者の作業内容を判断する際の比較対象として利用される。
 作業内容分析部12において、作業者が行う作業内容を分析して標準外作業の有無、すなわち標準作業と一致しているか否かを判断する場合の処理動作について、図16に示すフローチャートを参照して説明する。
 作業内容分析部12は、まず、動作手順情報抽出部9によって得られた作業者に関する動作手順情報(すなわち、作業者の各評価対象動作の一連の手順、およびこの一連の動作手順に要する時間情報)と、移動情報抽出部10によって得られた作業者の移動情報(作業者の移動経路とそれに要する時間情報)とを作業内容情報として取り込む(ステップS31、ステップS32)。
 次に、作業内容分析部12は、作業者の作業に伴って得られた現在の作業内容と学習内容記録部15に記録されている最適な作業内容とを比較し(ステップS33)、両者の作業内容が一致しているかどうかを判定する(ステップS34)。ステップS34において現在の作業内容と最適な作業内容が一致しておれば、さらに、一連の作業(動作手順や移動)に要する時間が一致しているかどうかを判定する(ステップS35)。一連の作業に要する時間が一致しておれば、標準作業であると判定する(ステップS36)。
 一方、ステップS34で、作業者の作業に伴って得られた現在の作業内容と学習内容記録部15に記録されている最適な作業内容とが一致しない場合には、標準作業と不一致、すなわち標準外作業であると判定する(ステップS37)。また、ステップS35において一連の作業(動作手順や移動)に要する時間が不一致であれば、作業ペースに乱れがあると判定する(ステップS38)。それらの判定結果は、フィードバック部14へ送出される。
 フィードバック部14は、作業内容分析部12による判定結果に応じて、作業者に対して標準作業順守のための指示を出す。すなわち、図17に示すように、標準作業と一致していると判定した場合には、作業者には何ら指示は出さない。ペース乱れと判定した場合には、標準作業のペースへの復帰を促す指示を出す。また、標準作業と不一致(標準外作業)と判定した場合には、作業停止の警告を発生させる。
 次に、フィードバック部14による作業者に対するフィードバック処理の具体例について説明する。
 図18は、フィードバック部14からの指示により作業者Mに対して標準作業への復帰を促すフィードバック装置の一例であり、音響を利用したものを示している。
 作業現場に作業者Mに対して指向性を持たせたスピーカ16を設置し、このスピーカ16を音階発生装置17を介してフィードバック部14に接続している。そして、標準作業が正常に実施されている場合には、スピーカ16からメトロノームのように標準作業の1サイクルに同期させた一定周期の音階音を発生させ、作業者Mに作業ペースを意識させるようにする。
 そして、標準作業と一致している場合には、作業者Mへの特別なフィードバックはないが、ペース乱れと判定された場合には、フィードバック部14からの指示により、図19に示すように、音階スピードを変化させて標準作業のペースへの復帰を促す。すなわち、ペース遅れの場合では徐々に音階スピードを速くし、ペース進みの場合には徐々に音階スピードを遅くすることで、作業者Mにインパクトを与えずに自然に標準作業ペースへの復帰を促す。また、標準作業と不一致(標準外作業)と判定した場合には、作業停止の警告を発生させる。
 図20は、フィードバック部14からの指示により作業者Mに対して標準作業への復帰を促すフィードバック装置の他の一例であり、振動発生器と警報器を備えたウェアラブル端末18を利用したものを示している。
 作業者Mの作業に伴う移動範囲が広い場合には、指向性のスピーカなどの設備を一箇所に固定して設置することが困難となる。そのため、作業者Mにウェアラブル端末18を装着させ、フィードバック部14から作業指示発生装置19を介して無線通信RCでウェアラブル端末18に指示が送られる。そして、標準作業が正常に実施されている場合には、ウェアラブル端末18の振動発生器により標準作業の1サイクルに同期させた振動を発生させ、作業者Mに作業ペースを意識させる。
 そして、標準作業と一致している場合には、作業者Mへの特別なフィードバックはないが、ペース乱れと判定された場合には、フィードバック部14からの指示により、ウェアラブル端末18が備える振動発生器の振動スピードを変化させて標準作業のペースへの復帰を促す。すなわち、ペース遅れの場合では徐々に振動スピードを速くし、ペース進みの場合には徐々に振動スピードを遅くすることで、作業者Mにインパクトを与えずに自然に標準作業ペースへの復帰を促す。また、標準作業と不一致(標準外作業)と判定した場合には、ウェアラブル端末18が備える警報器を作動させて作業停止の警告音を発生させるようにする。
実施の形態2.
 本実施の形態2では、上記の実施の形態1の構成に加えて、図1に示した接続部51、52を、図21に示す接続部51A、52Aのように、ネットワークの接続として置き換えるようにする。そして、学習部11および学習内容記録部15をクラウド上に配置することにより、遠隔地の作業分析を行うことが可能となる。その他の構成は実施の形態1の場合と同様である。
 このような構成とすることで、学習部11および学習内容記録部15を作業情報に関するビッグデータとして保管する。これにより、新設する工場や生産ラインにおいても学習済みの標準作業を即時に適用することが可能となる。
 上記の実施の形態1、2について、次のような変形例や応用例を考えることができる。
 例えば、上記の実施の形態1、2では、部位座標情報取得部5および存在位置座標情報取得部6を1台のモーションキャプチャ1により構成しているが、これに限らず、例えば図22に示すように、複数の作業者M1およびM2に対応して複数のモーションキャプチャ1aおよび1bを設置し、それらにより部位座標情報取得部5と存在位置座標情報取得部6を構成することも可能である。この場合、複数のモーションキャプチャ1aおよび1bをLAN20を介して1台のPC2に接続している。なお、モーションキャプチャ1aおよび1bには電源1aAおよび1bAが接続されている。このように、複数のモーションキャプチャ1aおよび1bを用いることで、離れた場所で作業している作業者M1およびM2についても、その作業分析を効率的に行うことができる。
 なお、モーションキャプチャ1aおよび1bの数は、このような2台に限らず、3台以上設けることも可能である。
 さらに、この実施の形態1、2では、主として工場において製品の製造に従事する作業者が行う作業が標準作業から逸脱しているか否かを分析対象とする場合について説明したが、この発明は、このような分野に限らず、非製造業におけるルーチン作業などを分析対象として、その作業内容が作業者の作業環境改善や労働衛生上、適切か否かを判断する場合でも有効に適用可能である。
 さらに、この発明は、上記の実施の形態1、2の構成のみに限定されるものではなく、この発明の趣旨を逸脱しない範囲内において、実施の形態1、2の構成の一部を変更したり、その構成を省略することができる。
 1,1a,1b モーションキャプチャ、2 パーソナルコンピュータ(PC)、M,M1,M2 作業者、5 部位座標情報取得部、6 存在位置座標情報取得部、7 部位座標情報記録部、8 存在位置座標情報記録部、9 動作手順情報抽出部、10 移動情報抽出部、11 学習部、12 作業内容分析部、13 処理選択部、14 フィードバック部、15 学習内容記録部。

Claims (7)

  1. 作業者の関節部位の部位座標と作業者の存在位置座標とを検出する座標情報取得部と、
    上記座標情報取得部で取得された上記部位座標と上記存在位置座標とに基づいて作業者の一連の作業に伴う作業動作の手順と移動経路、およびそれらに要する時間を作業内容情報として抽出する作業内容抽出部と、
    上記作業内容抽出部で得られる上記作業内容情報に基づいて作業者が行う作業内容を分析して作業効率の良い標準作業から逸脱する標準外作業の有無を判断する作業内容分析部と、
    上記作業内容分析部で作業者の作業が上記標準外作業であると判定された場合には、作業者に対して標準作業に復帰するように促す指示を与えるフィードバック部と、
    を備える作業分析装置。
  2. 上記作業内容抽出部で抽出される前回の作業内容情報と今回の作業内容情報とを比較して作業効率の良い方の作業内容情報を、上記作業内容分析部で作業内容を分析する際の基準となるように学習する学習部と、上記学習部で学習された上記作業内容情報を過去に遡って記録する学習内容記録部と、
    を備える請求項1に記載の作業分析装置。
  3. 上記学習部および上記学習内容記録部はネットワークに接続されて、上記学習部および上記学習内容記録部がクラウド上に配置されている請求項2に記載の作業分析装置。
  4. 上記座標情報取得部は、作業者の関節部位の部位座標を検出する部位座標情報取得部と、作業者の存在位置座標を検出する存在位置座標情報取得部とからなる請求項1から請求項3のいずれか1項に記載の作業分析装置。
  5. 上記作業内容抽出部は、上記部位座標情報取得部で検出された作業者の上記部位座標を動作手順情報に変換する動作手順情報抽出部と、上記存在位置座標情報取得部で検出された上記存在位置座標の情報を作業者の移動情報に変換する移動情報抽出部とからなる請求項4に記載の作業分析装置。
  6. 作業者の関節部位の部位座標と作業者の存在位置座標とを検出する座標情報取得ステップと、
    上記座標情報取得ステップで取得された上記部位座標と上記存在位置座標とに基づいて作業者の一連の作業に伴う作業動作の手順と移動経路、およびそれらに要する時間を作業内容情報として抽出する作業内容抽出ステップと、
    上記作業内容抽出ステップで得られる上記作業内容情報に基づいて作業者が行う作業内容を分析して作業効率の良い標準作業から逸脱する標準外作業の有無を判断する作業内容分析ステップと、
    上記作業内容分析ステップで作業者の作業が上記標準外作業であると判定された場合には、作業者に対して標準作業に復帰するように促す指示を与えるフィードバックステップと、を備える作業分析方法。
  7. 上記作業者にビーコンを所持させ、上記座標情報取得ステップにおいて上記ビーコンからの情報に基づいて作業者の存在位置座標の検出を継続するようにしている請求項6に記載の作業分析方法。
PCT/JP2018/000414 2017-01-13 2018-01-11 作業分析装置および作業分析方法 WO2018131630A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880004983.2A CN110140093B (zh) 2017-01-13 2018-01-11 作业分析装置以及作业分析方法
JP2018561402A JP6765449B2 (ja) 2017-01-13 2018-01-11 作業分析装置および作業分析方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017003899 2017-01-13
JP2017-003899 2017-01-13

Publications (1)

Publication Number Publication Date
WO2018131630A1 true WO2018131630A1 (ja) 2018-07-19

Family

ID=62840601

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000414 WO2018131630A1 (ja) 2017-01-13 2018-01-11 作業分析装置および作業分析方法

Country Status (3)

Country Link
JP (1) JP6765449B2 (ja)
CN (1) CN110140093B (ja)
WO (1) WO2018131630A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
JP2020098435A (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 工程推定装置および方法
WO2021250931A1 (ja) * 2020-06-12 2021-12-16 株式会社ダイセル 骨格検出システム及び作業管理装置
CN113836991A (zh) * 2020-06-24 2021-12-24 欧姆龙株式会社 动作识别系统、动作识别方法及存储介质
WO2022209638A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 作業指示システム
WO2022209288A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置
WO2022209287A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置
JP7158534B1 (ja) 2021-06-16 2022-10-21 三菱電機株式会社 行動解析装置、行動解析方法及び行動解析プログラム
CN113836991B (zh) * 2020-06-24 2024-05-31 欧姆龙株式会社 动作识别系统、动作识别方法及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102578864B1 (ko) * 2023-06-07 2023-09-14 주식회사 성원 철강 제조 작업자의 모션 데이터를 이용한 인공신경망 학습 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334571A (ja) * 1994-06-07 1995-12-22 Toshiba Corp 作業進捗管理装置
JP2006040160A (ja) * 2004-07-29 2006-02-09 Sharp Corp 作業手順書の作成装置及び作業手順書の作成方法
US20150185731A1 (en) * 2013-12-26 2015-07-02 Hyundai Motor Company Work-in-process inspection system using motion detection, and method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030248A (ja) * 2002-06-26 2004-01-29 Yazaki Corp 生産管理装置
JP2004045738A (ja) * 2002-07-11 2004-02-12 Sharp Corp 作業内容教示システム
JP2010108089A (ja) * 2008-10-28 2010-05-13 Panasonic Electric Works Co Ltd 作業時間測定システム
JP4876141B2 (ja) * 2009-05-21 2012-02-15 関東自動車工業株式会社 作業ガイドシステム及び作業ガイド方法並びに該作業ガイド方法を記録した記録媒体
CN103713545B (zh) * 2013-12-17 2017-09-29 华为技术有限公司 操作指导方法、装置及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334571A (ja) * 1994-06-07 1995-12-22 Toshiba Corp 作業進捗管理装置
JP2006040160A (ja) * 2004-07-29 2006-02-09 Sharp Corp 作業手順書の作成装置及び作業手順書の作成方法
US20150185731A1 (en) * 2013-12-26 2015-07-02 Hyundai Motor Company Work-in-process inspection system using motion detection, and method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
JP2020098435A (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 工程推定装置および方法
JP7284575B2 (ja) 2018-12-17 2023-05-31 キヤノン株式会社 工程推定装置および方法
WO2021250931A1 (ja) * 2020-06-12 2021-12-16 株式会社ダイセル 骨格検出システム及び作業管理装置
JP7464451B2 (ja) 2020-06-12 2024-04-09 株式会社ダイセル 骨格検出システム及び作業管理装置
CN113836991A (zh) * 2020-06-24 2021-12-24 欧姆龙株式会社 动作识别系统、动作识别方法及存储介质
CN113836991B (zh) * 2020-06-24 2024-05-31 欧姆龙株式会社 动作识别系统、动作识别方法及存储介质
WO2022209288A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置
WO2022209287A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置
WO2022209638A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 作業指示システム
JP7158534B1 (ja) 2021-06-16 2022-10-21 三菱電機株式会社 行動解析装置、行動解析方法及び行動解析プログラム
JP2022191674A (ja) * 2021-06-16 2022-12-28 三菱電機株式会社 行動解析装置、行動解析方法及び行動解析プログラム

Also Published As

Publication number Publication date
JP6765449B2 (ja) 2020-10-07
CN110140093A (zh) 2019-08-16
CN110140093B (zh) 2022-02-15
JPWO2018131630A1 (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
WO2018131630A1 (ja) 作業分析装置および作業分析方法
KR101986327B1 (ko) 자세 가이드 제공 방법 및 그 장치
Dikovski et al. Evaluation of different feature sets for gait recognition using skeletal data from Kinect
EP3009957A2 (en) Apparatus and method for poomsae recognition and dan promotion test of taekwondo based on skeleton of human body using depth camera
JP5455787B2 (ja) 動作解析装置および動作解析方法
KR102056664B1 (ko) 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템
KR101436050B1 (ko) 손모양 깊이영상 데이터베이스 구축방법, 손모양 인식방법 및 손모양 인식 장치
US9510789B2 (en) Motion analysis method
US10380730B2 (en) Analysis apparatus and analysis method
CN113228070A (zh) 用于手动装配线操作的自动重复步骤和循环检测的方法和系统
WO2018087933A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20180122247A (ko) 이종 센서들로부터 추출된 스켈레톤 정보를 이용하여 기계학습 데이터 및 주석을 생성하는 장치 및 그 방법
CN113728394A (zh) 身体活动执行和训练的评分度量
US11138805B2 (en) Quantitative quality assurance for mixed reality
JP2020177680A (ja) 作業分析装置、作業分析方法、及びプログラム
US9420963B2 (en) Apparatus and method for recognizing user's posture in horse-riding simulator
KR20160076488A (ko) 근골격계 질환의 발생가능성의 판단 장치 및 방법
JP2016081264A (ja) 画像処理方法、画像処理装置及びロボットシステム
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP2016014994A (ja) ロボットシステム
Duan et al. Personalized stability monitoring based on body postures of construction workers working at heights
JP2013003706A5 (ja)
CN110826383B (zh) 分析系统、分析方法、程序以及存储介质
Tran et al. Assessing human worker performance by pattern mining of Kinect sensor skeleton data
WO2022137450A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18739000

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018561402

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18739000

Country of ref document: EP

Kind code of ref document: A1