WO2020054696A1 - 情報処理装置、情報処理方法、記録媒体および情報処理システム - Google Patents

情報処理装置、情報処理方法、記録媒体および情報処理システム Download PDF

Info

Publication number
WO2020054696A1
WO2020054696A1 PCT/JP2019/035482 JP2019035482W WO2020054696A1 WO 2020054696 A1 WO2020054696 A1 WO 2020054696A1 JP 2019035482 W JP2019035482 W JP 2019035482W WO 2020054696 A1 WO2020054696 A1 WO 2020054696A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
worker
information processing
information
situation
Prior art date
Application number
PCT/JP2019/035482
Other languages
English (en)
French (fr)
Inventor
隆昭 澤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020546022A priority Critical patent/JPWO2020054696A1/ja
Publication of WO2020054696A1 publication Critical patent/WO2020054696A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to an information processing device, an information processing method, a recording medium, and an information processing system.
  • Patent Literature 1 discloses a work support system that performs work management of employees by a scheduler and corrects schedule data according to the importance of the work when instructing the work that has occurred in a hurry to the employee. I have.
  • the work support system exemplified in Patent Document 1 can correct an employee's schedule in order to assign a task when a sudden task occurs.
  • the employee since the situation such as whether or not the employee can perform the task is not known, the employee may not be able to start the task. For example, if the employee is at a position away from the work place of the task, it takes time to move to the work place. Also, if an employee is serving a customer, the employee must stay with the customer until completing the service. In these cases, even if instructed to perform a new task, the employee cannot immediately respond to the task.
  • an embodiment of the present invention provides an information processing apparatus and an information processing method that can determine a situation of a worker and instruct a worker who can reliably perform the task to perform the task.
  • a recording medium and an information processing system.
  • an information processing apparatus including: a determination unit configured to determine a situation of a worker; and an instruction unit configured to instruct a task to the worker based on the situation.
  • an information processing method including a step of determining a situation of a worker and a step of instructing the worker to perform a task based on the situation.
  • a program for causing a computer to execute a step of determining a situation of a worker and a step of instructing the worker to perform a task based on the situation is recorded.
  • a recording medium is provided.
  • a situation determining unit that determines a situation of a worker, a task designating unit that designates a task to the worker based on the situation, and information of the designated task And an output unit that outputs the information.
  • an information processing apparatus an information processing method, a recording medium, and an information processing method capable of judging the situation of a worker and instructing the worker who can perform the task reliably to instruct the task A system can be provided.
  • FIG. 6 is a diagram illustrating an example of information stored in a shift information management table according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of information stored in a task definition table according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of information stored in an event / task conversion table according to the first embodiment. It is a figure showing an example of the information which a work schedule table concerning a 1st embodiment memorizes.
  • FIG. 1 is a schematic diagram illustrating an example of the overall configuration of a work support system 1 according to the present embodiment.
  • FIG. 2 is a block diagram illustrating functions of the store server 10.
  • 3 to 8 are diagrams illustrating examples of various data tables stored in the store server 10.
  • FIG. 9 is a block diagram illustrating a hardware configuration example of the store server 10.
  • the work support system 1 is an information processing system that is installed in a store that sells commodities and performs article management and store clerk work support at the store.
  • the work support system 1 includes a store server 10, a sensor device 11, an imaging device 12, a POS device 13, an access point 14, a clerk terminal 15, and a mobile terminal 16.
  • the store server 10, the sensor device 11, the imaging device 12, the POS device 13, the access point 14, and the clerk terminal 15 are connected by wire to a network NW, for example, a LAN (Local Area Network).
  • NW Local Area Network
  • the mobile terminal 16 is connected to the network NW by performing wireless communication with the access point 14.
  • the store server 10 stores, in addition to product details information, inventory information, ordering information, display information, and sales management information of products sold at the store, attribute information about the clerk, shift information of the clerk, work schedule And a computer that manages information such as work results.
  • the store server 10 is provided, for example, in a backyard of the store.
  • the sensor device 11 detects the state, properties, or various physical quantities (temperature, pressure, etc.) of the target object, and outputs a signal indicating the detection result to the store server 10.
  • the sensor device 11 is, for example, an infrared sensor, a wireless sensor, a vibration sensor, a temperature sensor, a pressure sensor, an ultrasonic sensor, a voice sensor, a position detection sensor, or the like.
  • the imaging device 12 is a camera that captures an image inside or outside a store, and outputs the captured image to the store server 10. Note that the captured image includes not only a still image but also a moving image.
  • the sensor device 11 and the imaging device 12 correspond to a monitoring device that is arranged in a worker's work area and outputs monitoring information of the worker to the store server 10. That is, the sensor device 11 and the imaging device 12 are used for monitoring and grasping the situation inside the store, outside the store, clerks, customers, and the like. Specifically, the sensor device 11 and the imaging device 12 are used to determine whether a customer visits or exits the store, the weather outside the store, the congestion degree of the parking lot in the store or in the store, the presence or absence of a customer waiting for settlement, and the like. Used to detect Therefore, the sensor device 11 and the imaging device 12 are selected according to the monitoring target, and are appropriately installed inside or outside the store.
  • the POS device 13 is provided at each cashier counter in the store, and performs the accounting process.
  • the number of POS devices 13 is not particularly limited, and can be arbitrarily set according to the size of the store.
  • the POS device 13 is connected to peripheral devices (not shown) such as a code scanner, a non-contact IC (Integrated Circuit) reader / writer, a printer, and a cash drawer.
  • peripheral devices such as a code scanner, a non-contact IC (Integrated Circuit) reader / writer, a printer, and a cash drawer.
  • the POS device 13 executes an accounting process by operating in cooperation with a peripheral device.
  • the POS device 13 forms a POS system together with the store server 10 and an order terminal (not shown). That is, the store server 10 also has a function as a POS server that manages products sold in the store, totals sales data, manages sales, manages inventory, manages ordering of products, and the like.
  • the access point 14 is a wireless communication device that performs wireless communication with a device having a wireless communication function and connects the device to the network NW.
  • the access point 14 is installed, for example, on the ceiling, furniture, floor, or the like of a store. Further, the access point 14 can be arbitrarily installed according to, for example, the size of a store, a wireless environment, and the like.
  • the clerk terminal 15 is a computer used by a clerk in a store for tasks such as ordering work and shift management.
  • the clerk terminal 15 is, for example, a personal computer or a tablet terminal.
  • the portable terminal 16 is a portable computer possessed by a clerk.
  • the mobile terminal 16 is, for example, a smartphone, a tablet terminal, a smart watch, or the like. Hereinafter, a case where the mobile terminal 16 is a smart watch will be described as an example.
  • FIG. 2 is a block diagram showing functions of the store server 10.
  • the store server 10 includes a storage unit 101, a monitoring information acquisition unit 102, a situation determination unit 103, a task editing unit 104, an event detection unit 105, a conversion task creation unit 106, a task It includes an assignment unit 107, a data management unit 108, a task instruction unit 109, and a completion report receiving unit 110.
  • the storage unit 101 includes a clerk information table 101a, a shift information management table 101b, a task definition table 101c, an event / task conversion table 101d, a work schedule table 101e, and a work record table 101f.
  • the data table stored in the storage unit 101 is not limited to these.
  • FIG. 3 is a diagram showing an example of information stored in the clerk information table 101a.
  • the clerk information table 101a has clerk ID, name, proficiency, portable terminal ID, and the like as data items.
  • the clerk with the clerk ID “015” indicates that the proficiency level of the business is “LV3” and the mobile terminal ID of the mobile terminal 16 owned by the clerk is “SMW — 005”.
  • the clerk with the clerk ID “017” is set to have a lower proficiency than the clerk with the clerk ID “015”.
  • whether or not tasks can be assigned is determined according to the proficiency level, but details will be described later.
  • FIG. 4 is a diagram showing an example of information stored in the shift information management table 101b.
  • the shift information management table 101b has clerk ID, scheduled work date, and planned work time as data items. For example, the shift information of the clerk whose clerk ID is “015” indicates that the scheduled work date is “2018/12/31” and the planned work time is “8:00 to 18:00”.
  • FIG. 5 is a diagram showing an example of information stored in the task definition table 101c.
  • the task definition table 101c has a task ID, a task content, an assignment condition, a priority, and a task classification as data items.
  • the assignment condition indicates a condition required for a clerk who can assign a task.
  • the proficiency level is exemplified as the assignment condition.
  • the priority indicates the priority between tasks.
  • the conversion task is a task that is converted into a specific work instruction in response to an event that has occurred suddenly. For example, when a certain event occurs, it is preferable to set a task that is difficult for a clerk with low proficiency to actively execute.
  • tasks with task IDs “task_006” and “task_007” have the same task content (“floor cleaning”), but are defined separately for each task category. Note that the priority is not defined for the conversion task, but the definition method is not limited to this.
  • FIG. 6 is a diagram showing an example of information stored in the event / task conversion table 101d.
  • the event / task conversion table 101d has a detection event, a conversion task, a task ID, and an urgency as data items.
  • the urgency is an index value indicating when the conversion task should be performed, and the larger the numerical value, the more urgent the task. For example, in FIG. 6, when the detection event is “display disorder of the product has occurred”, “shelf arrangement” is generated as the conversion task, and the urgency thereof is set relatively low (“2”). When the detection event is “rain started to fall”, two conversion tasks are associated with each other. Thus, a plurality of conversion tasks may be associated with one detection event.
  • FIG. 7 is a diagram showing an example of information stored in the work schedule table 101e.
  • the work schedule table 101e has clerk ID, assigned task ID, scheduled execution date, and scheduled execution time as data items.
  • FIG. 8 is a diagram illustrating an example of information stored in the work result table 101f.
  • the work result table 101f has data items of a clerk ID, a completed task ID, an execution date, and an execution time.
  • the monitoring information acquisition unit 102 acquires sensor information from the sensor device 11 and a captured image from the imaging device 12 as monitoring information. Note that the monitoring information acquisition unit 102 only needs to be able to acquire at least one of the sensor information and the captured image as the monitoring information. That is, the acquired monitoring information can be appropriately selected according to the contents of “the situation of the clerk” to be grasped on the system side.
  • the status determination unit 103 determines the status of the clerk (operator) based on the monitoring information acquired by the monitoring information acquisition unit 102. Specifically, the situation determination unit 103 determines whether the clerk (operator) is in a situation where the task can be started within a predetermined time.
  • the “status of the clerk” refers to the clerk's reception status (work status), the number of customers per clerk, the clerk's arrangement status in the store (work area), the clerk's work acquisition status, the task assignment status, and the like. Shall be shown.
  • the task editing unit 104 edits data registered in the work schedule table 101e in response to a user's (eg, store manager or manager) input operation for addition, deletion, or change of a task.
  • a user's e.g, store manager or manager
  • the event detection unit 105 detects an event that has occurred in a store based on the monitoring information acquired by the monitoring information acquisition unit 102.
  • the conversion task creation unit 106 creates a conversion task by referring to the event / task conversion table 101d based on the event detected by the event detection unit 105.
  • the task assigning unit 107 assigns a task (a normal task or a conversion task) to the work schedule of the clerk based on the status of the clerk (operator) determined by the status determining unit 103.
  • the data management unit 108 executes data registration / update and search processing on the data table stored in the storage unit 101.
  • the data management unit 108 accesses the data table in response to a request from each unit of the store server 10 and transfers necessary data.
  • the task instructing unit 109 notifies the portable terminal 16 owned by the clerk to which the task is assigned by the task allocating unit 107 of a message including details of the task (work content, time, work place), and instructs the task to be performed. I do.
  • the completion report receiving unit 110 receives a completion report returned from the mobile terminal 16 in response to the completion of the task in response to the work instruction notified by the task instruction unit 109.
  • FIG. 9 is a block diagram illustrating an example of a hardware configuration of the store server 10.
  • the store server 10 includes a CPU (Central Processing Unit) 10a, a ROM (Read Only Memory) 10b, a RAM (Random Access Memory) 10c, a HDD (Hard Disk Drive) 10d, and a communication interface (I / F). (Interface) 10e, an input device 10f, an output device 10g, and a display device 10h. Each device is connected to a common bus line 10i.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • I / F communication interface
  • the CPU 10a controls the overall operation of the store server 10. Further, the CPU 10a loads a program stored in the HDD 10d or the like into the RAM 10c and executes the program. With this, the CPU 10a makes the above-described monitoring information acquisition unit 102, situation determination unit 103, task editing unit 104, event detection unit 105, conversion task creation unit 106, task assignment unit 107, data management unit 108, task instruction unit 109, The function as the completion report receiving unit 110 is realized.
  • the ROM 10b stores a program such as a boot program.
  • the RAM 10c is used as a working area when the CPU 10a executes a program.
  • the HDD 10d is a storage device that stores processing results in the store server 10 and various programs executed by the CPU 10a.
  • the storage device is not limited to the HDD 10d as long as it is nonvolatile.
  • the storage device may be, for example, a flash memory or the like.
  • the HDD 10d implements the function as the storage unit 101 described above.
  • the communication I / F 10e is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and 4G, and is a module for performing communication with other devices.
  • the communication I / F 10e realizes the functions of the task instruction unit 109 and the completion report receiving unit 110, together with the CPU 10a.
  • the input device 10f is, for example, a keyboard, a pointing device, or the like, and is used by a user to operate the store server 10.
  • Examples of the pointing device include a mouse, a trackball, a touch panel, a pen tablet, and the like.
  • the input device 10f and the display device 10h may be integrally formed as a touch panel.
  • the output device 10g is a device that outputs information such as a processing result according to a control signal from the CPU 10a.
  • the output device 10g for example, a speaker, a printer, or the like can be used.
  • the display device 10h is a device that displays information such as a processing result according to a control signal from the CPU 10a.
  • the display device 10h is, for example, a liquid crystal display, an OLED display, or the like, and is used for displaying images, characters, interfaces, and the like.
  • the hardware configuration shown in FIG. 9 is an example, and other devices may be added, or some devices may not be provided. In addition, some devices may be replaced with another device having a similar function. Furthermore, some of the functions of the present embodiment may be provided by another device via the network NW, and the functions of the present embodiment may be implemented by being distributed to a plurality of devices.
  • the HDD 10d may be replaced with an SSD (Solid State Drive) using a semiconductor memory, or may be replaced with a cloud storage.
  • FIG. 10 is a flowchart showing an example of the task assignment process of the store server 10.
  • a case where a conversion task is assigned to a clerk will be described, but the same applies to a case where a normal task is automatically assigned.
  • step S101 when the monitoring information acquisition unit 102 acquires sensor information from the sensor device 11 and captures an image from the imaging device 12 as monitoring information, it outputs the monitoring information to the event detection unit 105.
  • step S102 the event detection unit 105 analyzes the monitoring information and determines whether the occurrence of a predetermined event has been detected. For example, when the monitoring information is a captured image around a store, it can be determined whether or not it is raining by image analysis.
  • step S103 the conversion task creating unit 106 generates a conversion task by referring to the event / task conversion table 101d based on the detected event. For example, when the detection event is “rain started to fall”, conversion tasks such as “install an umbrella stand” and “floor cleaning” are generated.
  • step S104 the data management unit 108 refers to the data tables (the shift information management table 101b, the task definition table 101c, the work schedule table 101e, and the like) in the storage unit 101, and extracts allocation candidates from all the clerks.
  • the data tables the shift information management table 101b, the task definition table 101c, the work schedule table 101e, and the like
  • step S ⁇ b> 105 the status determination unit 103 obtains monitoring information on allocation candidates from the monitoring information obtaining unit 102, and determines the status of allocation candidates based on the monitoring information.
  • the monitoring information used to determine the status of the clerk (assignment candidate) is different from the monitoring information used to detect an event.
  • common monitoring information may be used.
  • step S106 the task allocating unit 107 determines a clerk to be allocated based on the status of the allocation candidates determined in step S105. Details of the processing of steps S104 to S106 will be described later.
  • FIGS. 11A to 11C are diagrams illustrating an example of a screen displayed on the mobile terminal 16.
  • FIG. 11A shows a normal state of the smart watch which is the portable terminal 16
  • FIG. 11B shows a reception state of a message relating to a work instruction to the portable terminal 16.
  • FIG. 11C shows a display state of mobile terminal 16 after the message button is pressed on the screen shown in FIG. 11B.
  • a message related to the work instruction (“Place an umbrella stand at the entrance. 9:40 to 9:50”)
  • a completion button for transmitting a task completion report and a display screen are displayed on the previous screen.
  • a back button for returning is displayed. Note that the content of the notification message may be appropriately changed according to the proficiency level of the clerk.
  • step S108 the completion report receiving unit 110 determines whether a completion report has been received from the mobile terminal 16.
  • step S108: YES the process proceeds to step S109.
  • step S108: NO the process of step S108 is repeated until the completion report is received.
  • step S109 the data management unit 108 updates the data table (work result table 101f) in the storage unit 101 with the completion report received from the mobile terminal 16, and ends the process.
  • FIG. 12 is a flowchart illustrating an example of the situation determination process of the store server 10.
  • the processing in FIG. 12 corresponds to the processing in steps S104 to S106 in FIG.
  • step S201 the task allocating unit 107 acquires, from the shift information management table 101b, information on clerks who are on the work day on the task execution date.
  • the task allocating unit 107 refers to the clerk information table 101a and the task definition table 101c to extract clerks (allocation candidates) that satisfy the conversion task allocation conditions. For example, even if ten store clerk IDs are acquired in step S201, three store clerks with low business proficiency can be excluded from the allocation candidates based on the conversion task allocation conditions.
  • the task assignment unit 107 refers to the work schedule table 101e and excludes the clerk who is executing the predetermined task from the assignment candidates. For example, in the case of a clerk to whom a task such as “cashier” having a high priority is assigned in the task definition table 101c, it is difficult to leave the post. It is suitable.
  • the situation determination unit 103 identifies a salesclerk as an allocation candidate from the captured image by image analysis.
  • the situation determination unit 103 identifies each clerk by performing pattern matching by extracting a feature amount from a clerk's face image stored in advance in the storage unit 101 and a person's face region included in the captured image, for example. it can.
  • step S205 the situation determination unit 103 determines whether the captured image includes a person other than the clerk.
  • step S205: YES when the situation determination unit 103 determines that the captured image includes a person other than the clerk (step S205: YES), the process proceeds to step S206.
  • step S205: NO when the situation determination unit 103 determines that the captured image does not include a person other than the clerk (step S205: NO), the process proceeds to step S209.
  • step S206 the situation determination unit 103 determines whether or not the clerk and the person other than the clerk included in the captured image have a positional relationship during customer service. For example, it is determined whether or not the positional relationship is such that a clerk and a person other than the clerk meet.
  • the situation determination unit 103 determines that the positional relationship is during customer service (step S206: YES)
  • the process proceeds to step S207.
  • the situation determination unit 103 determines that the positional relationship is not a service during customer service (step S206: NO)
  • the process proceeds to step S209.
  • step S207 the situation determination unit 103 determines that the situation of the clerk at the present time is “serving customers”.
  • step S208 the task assignment unit 107 refers to the event / task conversion table 101d and determines whether the urgency of the conversion task to be assigned is less than a predetermined threshold.
  • the process proceeds to step S210.
  • the task assignment unit 107 determines that the urgency of the conversion task is equal to or greater than the predetermined threshold (that is, the conversion task has urgency) (step S208: NO)
  • the assignment destination of the conversion task In order to change the notification destination) to another clerk, the process proceeds to step S204.
  • step S209 the situation determining unit 103 determines that the situation of the clerk at the present time is not “serving”.
  • step S210 the task allocating unit 107 sets the notification timing of the work instruction regarding the conversion task to “after completion of customer service”. Note that whether or not the clerk has completed customer service can be determined by executing the processing of steps S204 to S206 again.
  • step S211 the task assignment unit 107 determines the assignment destination of the conversion task. Accordingly, when the data management unit 108 registers a record corresponding to the assignment of the conversion task in the work schedule table 101e, the process proceeds to step S107.
  • FIGS. 13 and 14 are diagrams showing an example of the task management screen displayed on the clerk terminal 15.
  • FIG. 13 shows the task management screen before the assignment of the conversion task
  • FIG. 14 shows the task management screen after the assignment of the conversion task.
  • the broken line in the figure indicates the position of the current time in the time table.
  • FIG. 13 at the current date and time “December 31 @ AM8: 25”, the schedule between 7:00 AM and 11:00 AM of five clerks (A to E) is displayed.
  • the schedule of each clerk is obtained from the work schedule table 101e.
  • Reference symbols T1 to T13 denote normal tasks (“soft drink replenishment”, “cashier”, “FF preparation”, “stock out (daily)”, “floor cleaning”, “cashier check” respectively assigned to each clerk. , “Toilet cleaning”, “inspection”, and “delivery (eating)”.
  • Reference numerals S1 to S5 in the drawing indicate shift information of each clerk. For example, the sales clerk (Mr. A) at the left end in the figure is working hours from 7:00 to 9:00 AM, during which normal tasks T1 and T2 of “soft drink replenishment” and “cashier” are assigned, respectively.
  • the conversion task Tc of “umbrella stand / cleaning” is assigned to the second clerk (Mr. B) from the left at the current date and time “December 31 @ AM 8:35”. It is shown.
  • the user can confirm and edit the details of the task by touching the display portion of each of the tasks T1 to T13 and Tc.
  • the store server 10 when assigning a sudden task (conversion task) to a store clerk, can specify a store clerk who can immediately execute the task in consideration of the situation of the store clerk and give a work instruction. Specifically, the customer service status of the clerk is grasped based on the captured image at the store, and the clerk who is “serving” is excluded from the task assignment candidates, or the work instruction is provided according to the urgency of the conversion task. Can be changed after completion. Thereby, the store server 10 can efficiently execute the work support of the clerk in the store.
  • FIG. 15 is a flowchart illustrating an example of the situation determination process of the store server 10 according to the present embodiment. The processing in FIG. 15 corresponds to steps S104 to S105 in FIG.
  • step S301 the task allocating unit 107 acquires, from the shift information management table 101b, information on clerks who are on the work day on the task execution date.
  • step S302 the task allocating unit 107 refers to the clerk information table 101a and the task definition table 101c and extracts clerks (allocation candidates) that satisfy the conversion task allocation conditions.
  • step S303 the task assignment unit 107 refers to the work schedule table 101e and excludes a clerk who is executing a predetermined task from the assignment candidates.
  • the situation determination unit 103 acquires the position information of the clerk of the allocation candidate based on the sensor information.
  • a BLE Bluetooth (registered trademark) Low) such as iBeacon is used between a device such as an access point 14 provided in the store and a portable terminal 16 owned by the clerk. Energy) for short-range wireless communication.
  • iBeacon uses Bluetooth radio waves instead of satellite radio waves to specify position information. For this reason, if the beacon device is installed and the Bluetooth function of the mobile terminal 16 owned by the clerk is ON, the position of the mobile terminal 16 in the store can be accurately determined even indoors where radio waves from satellites do not reach. Can be measured.
  • GPS Global Positioning System
  • step S ⁇ b> 305 the situation determination unit 103 acquires information on the execution place of the conversion task from a data table (not shown) in the storage unit 101.
  • the execution place of the task may be defined in advance.
  • step S306 when the situation determination unit 103 specifies a clerk whose distance from the execution place of the conversion task is the shortest among the clerks of the allocation candidates, the process proceeds to step S106.
  • the store server 10 can acquire the position information of the clerk in the store as the monitoring information, and can assign the task to an appropriate clerk based on the positional relationship between the assignment task and the work place. That is, in the related art, since the execution of the task is determined only from the data on the scheduler, a work instruction may be notified to a clerk located far from the work place of the assigned task, which may be inefficient. Work instructions were being given. On the other hand, in the present embodiment, the distance between the work place of the assignment task (conversion task) and the position of the store clerk at the present time is considered as “the state of the store clerk”, and the store clerk near the work place is prioritized. The task assignment destination. For this reason, the store server 10 can specify a store clerk near the work place and efficiently issue a work instruction.
  • FIG. 16 is a block diagram illustrating a configuration of an information processing device 30 according to the third embodiment.
  • the information processing device 30 includes a situation determination unit 301 that determines the situation of the worker, and a task instruction unit 302 that instructs the worker based on the situation of the worker. .
  • the information processing device 30 can determine the state of the worker and instruct the worker who can perform the task reliably to perform the task.
  • FIG. 17 is a block diagram illustrating a configuration of an information processing system 40 according to the fourth embodiment.
  • the information processing system 40 includes a situation determination unit 41 that determines the situation of the worker, a task instruction unit 42 that instructs the worker based on the situation, and a task instruction unit 42. And an output unit 43 that outputs information on the task designated by the user.
  • the information processing system 40 can determine the situation of the worker and instruct the worker who can surely perform the task to perform the task.
  • a work area is not limited to a store.
  • a person works such as a manufacturing factory, a hospital, an event hall, a school, a station, an airport, and the like.
  • the invention is applicable to places.
  • the notification destination is not limited to the mobile terminal 16.
  • the user since the user can be specified based on the login information and the like for the POS device 13 and the clerk terminal 15, it can be a notification destination.
  • an audio output device for performing in-store broadcasting and a display device that a store clerk visually recognizes in the store may be notification destinations. That is, various output devices (output units) capable of specifying the person to be instructed and outputting the task instruction can be the notification destination.
  • the event detection unit 105 detects the occurrence of an event based on the monitoring information acquired from the sensor device 11 and the imaging device 12, but the event detection method is not limited to this.
  • the occurrence of an event may be detected by monitoring data update in the data table.
  • the conversion task creating unit 106 creates the conversion task by referring to the event / task conversion table 101d based on the event detected by the event detection unit 105 .
  • the method is not limited to this.
  • the conversion task creating unit 106 may automatically generate a conversion task on a program without referring to the event / task conversion table 101d.
  • a program for operating the configuration of the embodiment to realize the functions of the above-described embodiment is recorded on a storage medium, the program recorded on the storage medium is read as a code, and a processing method executed by a computer is also described in each embodiment. It is included in the category. That is, a computer-readable storage medium is also included in the scope of each embodiment. In addition, not only the storage medium on which the above-described program is recorded, but also the program itself is included in each embodiment. In addition, one or more components included in the above-described embodiment may be a circuit such as an ASIC or an FPGA configured to realize the function of each component.
  • a floppy (registered trademark) disk for example, hard disk, optical disk, magneto-optical disk, CD (Compact Disk) -ROM, magnetic tape, nonvolatile memory card, ROM can be used.
  • a floppy (registered trademark) disk for example, hard disk, optical disk, magneto-optical disk, CD (Compact Disk) -ROM, magnetic tape, nonvolatile memory card, ROM can be used.
  • an OS Operating System
  • SaaS Software @ as @ a @ Service
  • An information processing apparatus comprising:
  • the situation determination unit determines whether the worker can start the task within a predetermined time, The task instruction unit instructs the task to the worker who can start, The information processing device according to supplementary note 1.
  • the task is a conversion task generated in response to a predetermined event,
  • the information processing apparatus according to claim 1 or 2.
  • the situation determination unit determines the situation based on an analysis result of a captured image in a work area of the worker, An information processing apparatus according to any one of supplementary notes 1 to 3.
  • the situation determination unit determines the situation based on the execution location of the task to be allocated and the position information of the worker, An information processing apparatus according to any one of supplementary notes 1 to 3.
  • the situation determination unit determines the situation based on information detected by a sensor device installed in a work area of the worker, An information processing apparatus according to any one of supplementary notes 1 to 3.
  • the situation includes a work acquisition situation of the worker, The information processing device according to any one of supplementary notes 1 to 6.
  • the task instructing unit changes the timing of the instruction according to an urgency previously associated with the task, An information processing apparatus according to any one of supplementary notes 1 to 7.
  • An information processing method comprising:
  • An information processing system comprising:
  • Appendix 12 Further comprising a monitoring information acquisition unit for acquiring the monitoring information of the worker, The situation determination unit determines the situation of the worker based on the monitoring information, An information processing apparatus according to any one of supplementary notes 1 to 3.
  • An event detection unit that detects an event based on the monitoring information
  • a conversion task creation unit that creates a conversion task based on the event detected by the event detection unit, 13.
  • the information processing device further comprising:
  • the conversion task creation unit refers to the table based on the event detected by the event detection unit, to create the conversion task, An information processing device according to attachment 13.
  • the monitoring information acquisition unit acquires a captured image output from an imaging device arranged in a work area of the worker as the monitoring information, 15.
  • the information processing apparatus according to any one of supplementary notes 12 to 14.
  • the monitoring information acquisition unit acquires, as the monitoring information, sensor information output from a sensor device arranged in a work area of the worker, 15.
  • the information processing apparatus according to any one of supplementary notes 12 to 14.
  • the monitoring information acquisition unit acquires, as the monitoring information, position information of the portable terminal carried by the worker in the work area via a wireless communication device arranged in the worker's work area. 15.
  • the information processing apparatus according to any one of supplementary notes 12 to 14.
  • the monitoring information acquisition unit acquires position information of a mobile terminal carried by the worker as the monitoring information, 15.
  • the information processing apparatus according to any one of supplementary notes 12 to 14.
  • Work support system 10.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明に係る情報処理装置は、作業員の状況を判定する状況判定部と、前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、を備える。

Description

情報処理装置、情報処理方法、記録媒体および情報処理システム
 本発明は、情報処理装置、情報処理方法、記録媒体および情報処理システムに関する。
 特許文献1には、従業員の業務管理をスケジューラによって行うとともに、急遽発生した作業を従業員に指示する際に、当該作業の重要度に応じてスケジュールデータを修正する作業支援システムが開示されている。
特開2015-230581号公報
 特許文献1に例示されている作業支援システムは、突発的なタスクが生じた場合には当該タスクを割り当てるために従業員のスケジュールを修正できる。しかし、従業員が当該タスクを実施できるか否かなどの状況は把握できていないため、従業員が当該タスクに取り掛かることができない場合がある。例えば、従業員が当該タスクの作業場所から離れた位置にいる場合には、作業場所への移動に時間を要してしまう。また、従業員が接客中である場合には、従業員は接客を完了するまで顧客の傍に留まる必要がある。これらの場合には、新たなタスクの実施を指示されたとしても、従業員は当該タスクへ即座に対応することはできない。
 そこで、本発明は、上述の課題に鑑み、作業員の状況を判断し、確実にタスクを実施することができる作業員に対してタスクの実施を指示することができる情報処理装置、情報処理方法、記録媒体および情報処理システムを提供することを目的とする。
 本発明の一つの観点によれば、作業員の状況を判定する判定部と、前記状況に基づいて前記作業員に対してタスクを指示する指示部と、を備える情報処理装置が提供される。
 本発明の他の観点によれば、作業員の状況を判定するステップと、前記状況に基づいて前記作業員に対してタスクを指示するステップと、を備える情報処理方法が提供される。
 本発明のさらに他の観点によれば、コンピュータに、作業員の状況を判定するステップと、前記状況に基づいて前記作業員に対してタスクを指示するステップと、を実行させるプログラムが記録された記録媒体が提供される。
 本発明のさらに他の観点によれば、作業員の状況を判定する状況判定部と、前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、指示された前記タスクの情報を出力する出力部と、を備える情報処理システムが提供される。
 本発明によれば、作業員の状況を判断し、確実にタスクを実施することができる作業員に対してタスクの実施を指示することができる情報処理装置、情報処理方法、記録媒体および情報処理システムを提供することができる。
第1実施形態に係る作業支援システムの全体構成例を示す図である。 第1実施形態に係る店舗サーバの機能を示すブロック図である。 第1実施形態に係る店員情報テーブルが記憶する情報の一例を示す図である。 第1実施形態に係るシフト情報管理テーブルが記憶する情報の一例を示す図である。 第1実施形態に係るタスク定義テーブルが記憶する情報の一例を示す図である。 第1実施形態に係るイベント・タスク変換テーブルが記憶する情報の一例を示す図である。 第1実施形態に係る作業予定テーブルが記憶する情報の一例を示す図である。 第1実施形態に係る作業実績テーブルが記憶する情報の一例を示す図である。 第1実施形態に係る店舗サーバのハードウェア構成例を示すブロック図である。 第1実施形態に係る店舗サーバのタスク割当処理の一例を示すフローチャートである。 第1実施形態に係る携帯端末に表示される画面の一例を示す図である。 第1実施形態に係る携帯端末に表示される画面の一例を示す図である。 第1実施形態に係る携帯端末に表示される画面の一例を示す図である。 第1実施形態に係る店舗サーバの状況判定処理の一例を示すフローチャートである。 第1実施形態に係る店員用端末に表示されるタスク管理画面の一例を示す図である。 第1実施形態に係る店員用端末に表示されるタスク管理画面の一例を示す図である。 第2実施形態に係る店舗サーバの状況判定処理の一例を示すフローチャートである。 第3実施形態に係る情報処理装置の構成を示すブロック図である。 第4実施形態に係る情報処理システムの構成を示すブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素または対応する要素には同一の符号を付し、その説明を省略または簡略化することがある。
[第1実施形態]
 本実施形態に係る作業支援システム1の構成について、図1乃至図9を参照しつつ説明する。図1は、本実施形態に係る作業支援システム1の全体構成例を示す概略図である。図2は、店舗サーバ10の機能を示すブロック図である。図3乃至図8は、店舗サーバ10が記憶する各種のデータテーブルの一例を示す図である。図9は、店舗サーバ10のハードウェア構成例を示すブロック図である。
 作業支援システム1は、商品を販売する店舗に導入され、店舗における物品管理および店員の作業支援を行う情報処理システムである。図1に示すように、作業支援システム1は、店舗サーバ10と、センサ装置11と、撮像装置12と、POS装置13と、アクセスポイント14と、店員用端末15と、携帯端末16とを有する。店舗サーバ10、センサ装置11、撮像装置12、POS装置13、アクセスポイント14および店員用端末15は、例えばLAN(Local Area Network)であるネットワークNWに有線接続されている。携帯端末16は、アクセスポイント14との間で無線通信を行うことでネットワークNWに接続されている。
 店舗サーバ10は、店舗で販売する商品の商品詳細情報、在庫情報、発注情報、陳列情報、販売実績等の物品管理に用いられる情報に加えて、店員に関する属性情報、店員のシフト情報、作業予定、作業実績等の情報を管理するコンピュータである。また、店舗サーバ10は、例えば、店舗のバックヤードに設けられている。
 センサ装置11は、対象物の状態、性質または各種の物理量(温度、圧力等)を検知し、その検知結果を示す信号を店舗サーバ10へ出力する。センサ装置11は、例えば、赤外線センサ、無線センサ、振動センサ、温度センサ、圧力センサ、超音波センサ、音声センサ、位置検出センサ等である。撮像装置12は、店舗の内部または外部における画像を撮像し、その撮像画像を店舗サーバ10へ出力するカメラである。なお、撮像画像は静止画だけでなく、動画も含むものとする。
 本実施形態において、センサ装置11および撮像装置12は、作業員の作業領域に配置され、作業員の監視情報を店舗サーバ10へ出力する監視装置に相当する。すなわち、センサ装置11および撮像装置12は、店舗の内部、店舗の外部、店員、顧客等の状況を監視・把握するために用いられる。具体的には、センサ装置11および撮像装置12は、店舗における顧客の来店・退店、店舗の外の天気、店舗内または店舗に併設される駐車場の混雑度、精算待ちの顧客の有無等を検知するために用いられる。このため、センサ装置11および撮像装置12は、監視対象に応じて選択され、店舗の内部や外部に適宜設置されるものとする。
 POS装置13は、店舗においてレジカウンタにそれぞれ設けられ、会計処理を行う。POS装置13の台数は、特に限定されるものではなく、店舗の規模等に応じて任意に設置できる。また、POS装置13には、例えば、コードスキャナ、非接触IC(Integrated Circuit)リーダライタ、プリンタ、キャッシュドロア等の周辺機器(図示省略)が接続されている。POS装置13は、周辺機器と連携して動作することで会計処理を実行する。POS装置13は、店舗サーバ10および発注用端末(図示省略)とともにPOSシステムを構成する。すなわち、店舗サーバ10は、店舗で販売される商品の管理、販売データの集計、売り上げの管理、在庫の管理、商品の発注の管理等を行うPOSサーバとしての機能も備える。
 アクセスポイント14は、無線通信機能を有する装置と無線通信を行い、当該装置をネットワークNWに接続する無線通信機器である。アクセスポイント14は、例えば、店舗の天井、什器、フロア等に設置されている。また、アクセスポイント14は、例えば、店舗の規模、無線環境等に応じて、任意に設置できる。
 店員用端末15は、店舗において店員が発注作業やシフト管理等の業務に使用するコンピュータである。店員用端末15は、例えば、パーソナルコンピュータやタブレット端末等である。携帯端末16は、店員が所持する携帯型のコンピュータである。携帯端末16は、例えば、スマートフォン、タブレット端末、スマートウォッチ等である。以下、では、携帯端末16がスマートウォッチである場合を例として説明する。
 図2は、店舗サーバ10の機能を示すブロック図である。図2に示すように、店舗サーバ10は、記憶部101と、監視情報取得部102と、状況判定部103と、タスク編集部104と、イベント検出部105と、変換タスク作成部106と、タスク割当部107と、データ管理部108と、タスク指示部109と、完了報告受信部110とを備えている。
 記憶部101は、店員情報テーブル101aと、シフト情報管理テーブル101bと、タスク定義テーブル101cと、イベント・タスク変換テーブル101dと、作業予定テーブル101eと、作業実績テーブル101fとを含んでいる。なお、記憶部101が記憶するデータテーブルは、これらに限られない。
 図3は、店員情報テーブル101aが記憶する情報の一例を示す図である。店員情報テーブル101aは、店員ID、氏名、習熟度、携帯端末ID等をデータ項目としている。例えば、店員IDが“015”の店員は、業務の習熟度が“LV3”、所持する携帯端末16の携帯端末IDが“SMW_005”であることが示されている。また、店員IDが“017”の店員は、店員IDが“015”の店員よりも習熟度が低く設定されている。本実施形態では、習熟度に応じてタスクの割当可否が決定されるが、詳細については後述する。
 図4は、シフト情報管理テーブル101bが記憶する情報の一例を示す図である。シフト情報管理テーブル101bは、店員ID、出勤予定日、出勤予定時間をデータ項目としている。例えば、店員IDが“015”の店員のシフト情報は、出勤予定日が“2018/12/31”、出勤予定時間が“8:00-18:00”であることが示されている。
 図5は、タスク定義テーブル101cが記憶する情報の一例を示す図である。タスク定義テーブル101cは、タスクID、タスク内容、割当条件、優先度、タスク区分をデータ項目としている。割当条件は、タスクを割り当て可能な店員に要求される条件を示す。図5では、習熟度が割当条件として例示されているが、タスクの経験の有無や店員の現在位置と作業場所との位置関係等も割当条件として設定できる。優先度は、タスク間の優先順位を示す。タスク区分は、“通常”と“変換”の2種類ある。通常タスクは、店舗の業務に関して日常的に割り当てられている種々のタスクをいう。これに対し、変換タスクは、突発的に発生したイベントに対応して具体的な作業指示に落とし込まれたタスクをいう。例えば、あるイベントが発生した際に、習熟度が低い店員が能動的に実行することが難しいタスクについて設定されると好適である。図5では、タスクIDが“task_006”と“task_007”のタスクは、タスク内容(“床清掃”)は共通しているが、タスク区分ごとに分けて定義されている。なお、変換タスクについては、優先度が定義されていないが、定義方法はこれに限られない。
 図6は、イベント・タスク変換テーブル101dが記憶する情報の一例を示す図である。イベント・タスク変換テーブル101dは、検出イベント、変換タスク、タスクID、緊急度をデータ項目としている。緊急度は、変換タスクをいつまでに実施すべきか否かを表す指標値であり、数値が大きいほど緊急性の有るタスクを表すものとする。例えば、図6では、検出イベントが“商品の陳列乱れが発生”の場合には、変換タスクとして“棚整理”が生成され、その緊急度は比較的低く(“2”)設定されている。また、検出イベントが“周辺で雨が降り出した”の場合には、変換タスクが2つ対応付けられている。このように、1つの検出イベントに対して複数の変換タスクを対応付けてもよい。
 図7は、作業予定テーブル101eが記憶する情報の一例を示す図である。作業予定テーブル101eは、店員ID、割当タスクID、実施予定日、実施予定時間をデータ項目としている。また、図8は、作業実績テーブル101fが記憶する情報の一例を示す図である。作業実績テーブル101fは、店員ID、完了タスクID、実施日、実施時間をデータ項目としている。
 監視情報取得部102は、センサ装置11からセンサ情報を、撮像装置12から撮像画像をそれぞれ監視情報として取得する。なお、監視情報取得部102は、センサ情報および撮像画像の少なくとも一つを監視情報として取得できればよい。すなわち、取得される監視情報は、システム側で把握すべき“店員の状況”の内容に応じて適宜選択できる。
 状況判定部103は、監視情報取得部102において取得された監視情報に基づいて店員(作業員)の状況を判定する。具体的には、状況判定部103は、店員(作業員)が所定時間内にタスクを開始可能な状況にあるか否かを判定する。ここで、“店員の状況”とは、店員の接客状況(作業状況)、店員一人当たりの顧客数、店舗(作業領域)における店員の配置状況、店員の作業習得状況、タスクの割当状況などを示すものとする。
 タスク編集部104は、ユーザ(例えば、店長やマネージャー)によるタスクの追加、削除、変更の入力操作に応じて作業予定テーブル101eに登録されているデータを編集する。
 イベント検出部105は、監視情報取得部102において取得された監視情報に基づいて、店舗において発生したイベントを検出する。
 変換タスク作成部106は、イベント検出部105において検出されたイベントに基づいてイベント・タスク変換テーブル101dを参照し、変換タスクを作成する。
 タスク割当部107は、状況判定部103において判定された店員(作業員)の状況に基づいて、店員の作業予定に対してタスク(通常タスクまたは変換タスク)を割り当てる。
 データ管理部108は、記憶部101に記憶されたデータテーブルに対してデータの登録・更新および検索処理を実行する。データ管理部108は、店舗サーバ10の各部からの要求に応じてデータテーブルにアクセスし、必要なデータを受け渡す。
 タスク指示部109は、タスク割当部107においてタスクが割り当てられた店員が所持する携帯端末16に対してタスクの詳細(作業内容、時間、作業場所)を含むメッセージを通知し、タスクの実施を指示する。
 完了報告受信部110は、タスク指示部109が通知した作業指示に対して、タスクの完了に伴って携帯端末16から返信された完了報告を受信する。
 図9は、店舗サーバ10のハードウェア構成例を示すブロック図である。図9に示すように、店舗サーバ10は、CPU(Central Processing Unit)10a、ROM(Read Only Memory)10b、RAM(Random Access Memory)10c、HDD(Hard Disk Drive)10d、通信インタフェース(I/F(Interface))10e、入力装置10f、出力装置10g、および表示装置10hを有している。各機器は、共通のバスライン10iに接続されている。
 CPU10aは、店舗サーバ10の全体の動作を制御する。また、CPU10aは、HDD10d等に記憶されたプログラムをRAM10cにロードして実行する。これにより、CPU10aは、上述の監視情報取得部102、状況判定部103、タスク編集部104、イベント検出部105、変換タスク作成部106、タスク割当部107、データ管理部108、タスク指示部109、完了報告受信部110としての機能を実現する。
 ROM10bは、ブートプログラム等のプログラムを記憶している。RAM10cは、CPU10aがプログラムを実行する際のワーキングエリアとして使用される。
 また、HDD10dは、店舗サーバ10における処理結果およびCPU10aにより実行される各種のプログラムを記憶する記憶装置である。記憶装置は、不揮発性であればHDD10dに限定されない。記憶装置は、例えばフラッシュメモリ等であってもよい。HDD10dは、上述の記憶部101としての機能を実現する。
 通信I/F10eは、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インタフェースであり、他の装置との通信を行うためのモジュールである。通信I/F10eは、CPU10aとともに、上述のタスク指示部109および完了報告受信部110としての機能を実現する。
 入力装置10fは、例えば、キーボード、ポインティングデバイス等であって、ユーザが店舗サーバ10を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル、ペンタブレット等が挙げられる。入力装置10fおよび表示装置10hは、タッチパネルとして一体に形成されていてもよい。
 出力装置10gは、CPU10aからの制御信号に従って、処理結果等の情報を出力する装置である。出力装置10gは、例えば、スピーカやプリンタ等を用いることができる。
 表示装置10hは、CPU10aからの制御信号に従って、処理結果等の情報を表示する装置である。表示装置10hは、例えば、液晶ディスプレイ、OLEDディスプレイ等であって、画像、文字、インタフェース等の表示に用いられる。
 なお、図9に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。さらに、本実施形態の一部の機能がネットワークNWを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されてもよい。例えば、HDD10dは、半導体メモリを用いたSSD(Solid State Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
 続いて、本実施形態に係る店舗サーバ10の作用および効果について図10乃至図14を参照しつつ説明する。
 図10は、店舗サーバ10のタスク割当処理の一例を示すフローチャートである。なお、以下の説明では店員に対して変換タスクを割り当てる場合について説明するが、通常タスクを自動的に割り当てる場合も同様とする。
 ステップS101において、監視情報取得部102は、センサ装置11からセンサ情報を、撮像装置12から撮像画像をそれぞれ監視情報として取得すると、イベント検出部105に監視情報を出力する。
 ステップS102において、イベント検出部105は、監視情報を解析し、所定のイベントの発生が検出されたか否かを判定する。例えば、監視情報が店舗周辺の撮像画像の場合には、画像解析によって雨が降っているか否かを判定できる。
 ステップS103において、変換タスク作成部106は、検出イベントに基づいてイベント・タスク変換テーブル101dを参照し、変換タスクを生成する。例えば、検出イベントが“周辺で雨が降り出した”である場合には、“傘立ての設置”および“床清掃”等の変換タスクが生成される。
 ステップS104において、データ管理部108は、記憶部101のデータテーブル(シフト情報管理テーブル101b、タスク定義テーブル101c、作業予定テーブル101e等)を参照し、すべての店員の中から割当候補を抽出する。
 ステップS105において、状況判定部103は、監視情報取得部102から割当候補に関する監視情報を取得し、当該監視情報に基づいて割当候補の状況を判定する。なお、本実施形態においては、店員(割当候補)の状況を判定するために使用する監視情報は、イベントの検出のために使用する監視情報とは異なるものとする。ただし、共通の監視情報が使用される場合も有り得る。
 ステップS106において、タスク割当部107は、ステップS105において判定された割当候補の状況に基づいて割当先の店員を決定する。ステップS104~S106の処理の詳細については後述する。
 ステップS107において、タスク指示部109は、割当先の店員の携帯端末16にタスクを通知する。図11A乃至図11Cは、携帯端末16に表示される画面の一例を示す図である。図11Aは、携帯端末16であるスマートウォッチの通常時の状態を示し、図11Bは、携帯端末16に作業指示に関するメッセージの受信状態を示している。図11Cは、図11Bに示す画面上でメッセージボタンが押下された後の携帯端末16の表示状態を示している。図11Cでは、作業指示に関するメッセージ(“入口に傘立てを設置してください。9:40~9:50”)と、タスクの完了報告を送信するための完了ボタンと、表示画面を前画面に戻すための戻るボタンが表示されている。なお、通知メッセージの内容は、店員の習熟度に応じて適宜変更されてもよい。
 ステップS108において、完了報告受信部110は、携帯端末16から完了報告を受信したか否かを判定する。ここで、完了報告受信部110が、完了報告を受信したと判定した場合(ステップS108:YES)には、処理はステップS109に移行する。これに対し、完了報告受信部110が、完了報告を受信していないと判定した場合(ステップS108:NO)には、ステップS108の処理は、完了報告が受信されるまで繰り返される。
 ステップS109において、データ管理部108は、携帯端末16からの完了報告の受信に伴って、記憶部101のデータテーブル(作業実績テーブル101f)を更新し、処理を終了する。
 図12は、店舗サーバ10の状況判定処理の一例を示すフローチャートである。図12の処理は、図10のステップS104~S106の処理に対応する。
 ステップS201において、タスク割当部107は、シフト情報管理テーブル101bからタスクの実施日において出勤中の店員の情報を取得する。
 ステップS202において、タスク割当部107は、店員情報テーブル101aおよびタスク定義テーブル101cを参照し、変換タスクの割当条件を満たす店員(割当候補)を抽出する。例えば、ステップS201において、10人分の店員IDが取得された場合でも、変換タスクの割当条件に基づいて業務の習熟度が低い3人の店員を割当候補から除外できる。
 ステップS203において、タスク割当部107は、作業予定テーブル101eを参照し、所定タスクを実行中の店員を割当候補から除外する。例えば、タスク定義テーブル101cにおいて優先度が高い“レジ担当”のようなタスクが割り当てられている店員の場合には、持ち場を離れることが困難であることから、変換タスクの割当候補からは除外すると好適である。
 ステップS204において、状況判定部103は、画像解析によって撮像画像から割当候補の店員を識別する。状況判定部103は、例えば、記憶部101に予め記憶されている店員の顔画像と撮像画像に含まれる人物の顔領域から特徴量をそれぞれ抽出してパターンマッチングを行うことで、各店員を識別できる。
 ステップS205において、状況判定部103は、撮像画像に店員以外の人物を含むか否かを判定する。ここで、状況判定部103が、撮像画像に店員以外の人物を含むと判定した場合(ステップS205:YES)には、処理はステップS206に移行する。これに対し、状況判定部103が、撮像画像に店員以外の人物を含まないと判定した場合(ステップS205:NO)には、処理はステップS209に移行する。
 ステップS206において、状況判定部103は、撮像画像に含まれる店員と店員以外の人物が接客中の位置関係であるか否かを判定する。例えば、店員と店員以外の人物が対面する位置関係か否かを判定する。ここで、状況判定部103が、接客中の位置関係であると判定した場合(ステップS206:YES)には、処理はステップS207に移行する。これに対し、状況判定部103が、接客中の位置関係ではないと判定した場合(ステップS206:NO)には、処理はステップS209に移行する。
 ステップS207において、状況判定部103は、現時点における店員の状況は“接客中”であると判定する。
 ステップS208において、タスク割当部107は、イベント・タスク変換テーブル101dを参照し、割当対象の変換タスクの緊急度が所定の閾値未満か否かを判定する。ここで、タスク割当部107が、変換タスクの緊急度は所定の閾値未満(すなわち、変換タスクは緊急性が無い)と判定した場合(ステップS208:YES)には、処理はステップS210に移行する。これに対し、タスク割当部107が、変換タスクの緊急度は所定の閾値以上(すなわち、変換タスクは緊急性が有る)と判定した場合(ステップS208:NO)には、変換タスクの割当先(通知先)を他の店員に変更するために、処理はステップS204に移行する。
 ステップS209において、状況判定部103は、現時点における店員の状況は“接客中”ではないと判定する。
 ステップS210において、タスク割当部107は、変換タスクに関する作業指示の通知タイミングを“接客完了後”に設定する。なお、当該店員が接客を完了したか否かについては、ステップS204~S206の処理を再度実行することによって判定できる。
 ステップS211において、タスク割当部107は、変換タスクの割当先を決定する。これに伴い、データ管理部108は、変換タスクの割当に対応するレコードを作業予定テーブル101eに登録すると、処理はステップS107に移行する。
 図13および図14は、店員用端末15に表示されるタスク管理画面の一例を示す図である。図13は、変換タスクの割当前のタスク管理画面を示し、図14は、変換タスクの割当後のタスク管理画面を示している。図中の破線は、タイムテーブルにおける現在時刻の位置を示している。
 図13では、現在日時“12月31日 AM8:25”において、5人の店員(A~E)のAM7:00からAM11:00の間のスケジュールが表示されている。各店員のスケジュールは、作業予定テーブル101eから取得される。また、符号T1~T13は、それぞれ各店員に割当済みの通常タスク(“ソフトドリンク補充”、“レジ”、“FF仕込み”、“品出し(デイリー)”、“床清掃”、“レジ点検”、“トイレ清掃”、“検品”、“品出し(加食)”)を示している。また、図中の符号S1~S5は、各店員のシフト情報を示している。例えば、図中左端の店員(Aさん)は、AM7:00~AM9:00は勤務時間であり、その間に“ソフトドリンク補充”と“レジ”の通常タスクT1、T2がそれぞれ割り当てられている。
 これに対し、図14では、現在日時“12月31日 AM8:35”において、左から2番目の店員(Bさん)に対して、“傘立て/清掃”の変換タスクTcが割り当てられたことが示されている。なお、タスク管理画面では、ユーザが各タスクT1~T13、Tcの表示部分をそれぞれタッチすることで、タスクの詳細確認や編集を実行できると好適である。
 本実施形態に係る店舗サーバ10は、突発的なタスク(変換タスク)を店員に割り当てる際に、店員の状況を考慮して、当該タスクを即座に実施できる店員を特定して作業指示を行える。具体的には、店舗における撮像画像に基づいて店員の接客状況を把握し、“接客中”の店員についてはタスクの割当候補から除外する、あるいは、変換タスクの緊急度に応じて作業指示を接客完了後に変更できる。これにより、店舗サーバ10は、店舗における店員の作業支援を効率的に実行できる。
[第2実施形態]
 以下、第2実施形態に係る店舗サーバ10について説明する。なお、第1実施形態の図中において付与した符号と共通する符号は同一の対象を示す。このため、第1実施形態と共通する箇所の説明は省略し、異なる箇所について詳細に説明する。
 本実施形態に係る店舗サーバ10は、店員の状況を判定する方法が第1実施形態と異なっている。図15は、本実施形態に係る店舗サーバ10の状況判定処理の一例を示すフローチャートである。図15の処理は、図10のステップS104~S105に対応する。
 ステップS301において、タスク割当部107は、シフト情報管理テーブル101bからタスクの実施日において出勤中の店員の情報を取得する。
 ステップS302において、タスク割当部107は、店員情報テーブル101aおよびタスク定義テーブル101cを参照し、変換タスクの割当条件を満たす店員(割当候補)を抽出する。
 ステップS303において、タスク割当部107は、作業予定テーブル101eを参照し、所定タスクを実行中の店員を割当候補から除外する。
 ステップS304において、状況判定部103は、センサ情報に基づいて割当候補の店員の位置情報を取得する。屋内において店員の位置情報を把握する方法の一例としては、店舗内に設けられたアクセスポイント14等の機器と店員が所持する携帯端末16との間でiBeacon等のBLE(Bluetooth(登録商標)Low Energy)を利用した近距離無線を行う方法が挙げられる。iBeaconでは、位置情報を特定するために衛星からの電波ではなく、Bluetoothの電波を使用する。このため、ビーコン機器が設置されており、かつ、店員が所持する携帯端末16のBluetooth機能がONであれば、衛星からの電波が届かない屋内でも、店舗内における携帯端末16の位置を高精度で測定できる。これに対し、屋外において店員の位置情報を把握する方法の一例としては、店員が所持する携帯端末16におけるGPS(Global Positioning System)の情報を用いる方法が挙げられる。
 ステップS305において、状況判定部103は、記憶部101のデータテーブル(不図示)から変換タスクの実行場所の情報を取得する。なお、タスク定義テーブル101cにおいて、タスクの実行場所についても予め定義してもよい。
 ステップS306において、状況判定部103は、割当候補の店員の中から変換タスクの実行場所からの距離が最も近い店員を特定すると、処理はステップS106に移行する。
 本実施形態に係る店舗サーバ10は、監視情報として店舗における店員の位置情報を取得し、割当タスクの作業場所との位置関係に基づいて適切な店員にタスクを割り当てることができる。すなわち、従来技術では、スケジューラ上のデータのみからタスクの実行可否を判定していたため、割当タスクの作業場所から遠い位置にいる店員に対して作業指示が通知される場合があり、非効率的な作業指示が行われていた。これに対し、本実施形態では、割当タスク(変換タスク)の作業場所と現在時における店員の位置との距離を“店員の状況”として考慮して、作業場所から近い位置にいる店員を優先してタスクの割当先とする。このため、店舗サーバ10は、作業場所から近い店員を特定して効率的に作業指示を行うことができる。
[第3実施形態]
 図16は、第3実施形態に係る情報処理装置30の構成を示すブロック図である。図16に示すように、情報処理装置30は、作業員の状況を判定する状況判定部301と、作業員の状況に基づいて作業員に対してタスクを指示するタスク指示部302と、を備える。
 本実施形態に係る情報処理装置30は、作業員の状況を判断し、確実にタスクを実施することができる作業員に対してタスクの実施を指示することができる。
[第4実施形態]
 図17は、第4実施形態に係る情報処理システム40の構成を示すブロック図である。図17に示すように、情報処理システム40は、作業員の状況を判定する状況判定部41と、その状況に基づいて作業員に対してタスクを指示するタスク指示部42と、タスク指示部42から指示されたタスクの情報を出力する出力部43と、を備える。
 本実施形態に係る情報処理システム40は、作業員の状況を判断し、確実にタスクを実施することができる作業員に対してタスクの実施を指示することができる。
[変形実施形態]
 本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
 上述の実施形態では、コンビニエンスストアやスーパーマーケット等の店舗における作業支援について説明したが、作業領域は店舗に限られない、例えば製造工場、病院、催事会場、学校、駅、空港など、人が作業する場所に本発明は適用可能である。
 上述の実施形態では、携帯端末16に対して作業指示を通知する場合について説明したが、通知先は携帯端末16に限られない。例えば、POS装置13や店員用端末15についてもログイン情報等に基づいてユーザを特定できるため、通知先になり得る。同様に、店内放送を行うための音声出力装置や店員が店内で視認する表示装置も通知先になり得る。すなわち、指示対象の人物を特定してタスク指示を出力可能な各種の出力装置(出力部)が通知先になり得る。
 上述の実施形態では、イベント検出部105は、センサ装置11および撮像装置12から取得される監視情報に基づいてイベントの発生を検出する構成について説明したが、イベントの検出方法はこれに限定されない。例えば、データテーブルにおけるデータ更新を監視することでイベントの発生を検出してもよい。商品の販売実績データや陳列データを常時監視することで、ある商品が大量に販売されたことや、陳列棚から無くなったことをイベントとして検出することもできる。
 上述の実施形態では、変換タスク作成部106が、イベント検出部105において検出されたイベントに基づいてイベント・タスク変換テーブル101dを参照し、変換タスクを作成する場合について説明したが、変換タスクの生成方法はこれに限られない。例えば、変換タスク作成部106は、イベント・タスク変換テーブル101dを参照せずに、プログラム上で自動的に変換タスクを生成してもよい。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1または2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC、FPGA等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。
 なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
 上述の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 作業員の状況を判定する状況判定部と、
 前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、
 を備える情報処理装置。
(付記2)
 前記状況判定部は、前記作業員が所定時間内に前記タスクを開始可能であるか否かを判定し、
 前記タスク指示部は、開始可能な前記作業員に対して前記タスクを指示する、
 付記1に記載の情報処理装置。
(付記3)
 前記タスクは、所定のイベントに対応して生成される変換タスクである、
 付記1または2に記載の情報処理装置。
(付記4)
 前記状況判定部は、前記作業員の作業領域における撮像画像の解析結果に基づいて前記状況を判定する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記5)
 前記状況判定部は、割当対象の前記タスクの実行場所と前記作業員の位置情報とに基づいて前記状況を判定する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記6)
 前記状況判定部は、前記作業員の作業領域に設置されたセンサ装置で検知された情報に基づいて前記状況を判定する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記7)
 前記状況は、前記作業員の作業習得状況を含む、
 付記1乃至6のいずれかに記載の情報処理装置。
(付記8)
 前記タスク指示部は、前記タスクに予め関連付けされた緊急度に応じて前記指示のタイミングを変更する、
 付記1乃至7のいずれかに記載の情報処理装置。
(付記9)
 作業員の状況を判定するステップと、
 前記状況に基づいて前記作業員に対してタスクを指示するステップと、
 を備える情報処理方法。
(付記10)
 コンピュータに、
 作業員の状況を判定するステップと、
 前記状況に基づいて前記作業員に対してタスクを指示するステップと、
 を実行させるプログラムが記録された記録媒体。
(付記11)
 作業員の状況を判定する状況判定部と、
 前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、
 指示された前記タスクの情報を出力する出力部と、
 を備える情報処理システム。
(付記12)
 前記作業員の監視情報を取得する監視情報取得部をさらに備え、
 前記状況判定部は、前記監視情報に基づいて前記作業員の前記状況を判定する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記13)
 前記監視情報に基づいてイベントを検出するイベント検出部と、
 前記イベント検出部で検出された前記イベントに基づいて、変換タスクを作成する変換タスク作成部と、
 をさらに備える付記12に記載の情報処理装置。
(付記14)
 前記イベントと前記変換タスクとの対応関係を定義するテーブルをさらに備え、
 前記変換タスク作成部は、前記イベント検出部で検出された前記イベントに基づいて前記テーブルを参照し、前記変換タスクを作成する、
 付記13に記載の情報処理装置。
(付記15)
 前記監視情報取得部は、前記作業員の作業領域に配置された撮像装置から出力される撮像画像を前記監視情報として取得する、
 付記12乃至14のいずれかに記載の情報処理装置。
(付記16)
 前記監視情報取得部は、前記作業員の作業領域に配置されたセンサ装置から出力されるセンサ情報を前記監視情報として取得する、
 付記12乃至14のいずれかに記載の情報処理装置。
(付記17)
 前記監視情報取得部は、前記作業員の作業領域に配置された無線通信機器を介して、前記作業員が携帯する携帯端末の前記作業領域における位置情報を前記監視情報として取得する、
 付記12乃至14のいずれかに記載の情報処理装置。
(付記18)
 前記監視情報取得部は、前記作業員が携帯する携帯端末の位置情報を前記監視情報として取得する、
 付記12乃至14のいずれかに記載の情報処理装置。
 この出願は、2018年9月12日に出願された日本出願特願2018-170229を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・作業支援システム       10・・・店舗サーバ(情報処理装置)
10a・・・CPU          10b・・・ROM
10c・・・RAM          10d・・・HDD
10e・・・通信I/F        10f・・・入力装置
10g・・・出力装置         10h・・・表示装置
10i・・・バスライン        11・・・センサ装置
12・・・撮像装置          13・・・POS装置
14・・・アクセスポイント      15・・・店員用端末
16・・・携帯端末          30・・・情報処理装置
301・・・状況判定部        302・・・タスク指示部
40・・・情報処理システム      41・・・状況判定部
42・・・タスク指示部        43・・・出力部
101・・・記憶部          101a・・・店員情報テーブル
101b・・・シフト情報管理テーブル 101c・・・タスク定義テーブル
101d・・・イベント・タスク変換テーブル
101e・・・作業予定テーブル    101f・・・作業実績テーブル
102・・・監視情報取得部      103・・・状況判定部
104・・・タスク編集部       105・・・イベント検出部
106・・・変換タスク作成部     107・・・タスク割当部
108・・・データ管理部       109・・・タスク指示部
110・・・完了報告受信部

Claims (18)

  1.  作業員の状況を判定する状況判定部と、
     前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、
     を備える情報処理装置。
  2.  前記状況判定部は、前記作業員が所定時間内に前記タスクを開始可能であるか否かを判定し、
     前記タスク指示部は、開始可能な前記作業員に対して前記タスクを指示する、
     請求項1に記載の情報処理装置。
  3.  前記タスクは、所定のイベントに対応して生成される変換タスクである、
     請求項1または2に記載の情報処理装置。
  4.  前記状況判定部は、前記作業員の作業領域における撮像画像の解析結果に基づいて前記状況を判定する、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記状況判定部は、割当対象の前記タスクの実行場所と前記作業員の位置情報とに基づいて前記状況を判定する、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  6.  前記状況判定部は、前記作業員の作業領域に設置されたセンサ装置で検知された情報に基づいて前記状況を判定する、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  7.  前記状況は、前記作業員の作業習得状況を含む、
     請求項1乃至6のいずれか一項に記載の情報処理装置。
  8.  前記タスク指示部は、前記タスクに予め関連付けされた緊急度に応じて前記指示のタイミングを変更する、
     請求項1乃至7のいずれか一項に記載の情報処理装置。
  9.  作業員の状況を判定するステップと、
     前記状況に基づいて前記作業員に対してタスクを指示するステップと、
     を備える情報処理方法。
  10.  コンピュータに、
     作業員の状況を判定するステップと、
     前記状況に基づいて前記作業員に対してタスクを指示するステップと、
     を実行させるプログラムが記録された記録媒体。
  11.  作業員の状況を判定する状況判定部と、
     前記状況に基づいて前記作業員に対してタスクを指示するタスク指示部と、
     指示された前記タスクの情報を出力する出力部と、
     を備える情報処理システム。
  12.  前記作業員の監視情報を取得する監視情報取得部をさらに備え、
     前記状況判定部は、前記監視情報に基づいて前記作業員の前記状況を判定する、
     請求項1乃至3のいずれか1項に記載の情報処理装置。
  13.  前記監視情報に基づいてイベントを検出するイベント検出部と、
     前記イベント検出部で検出された前記イベントに基づいて、変換タスクを作成する変換タスク作成部と、
     をさらに備える請求項12に記載の情報処理装置。
  14.  前記イベントと前記変換タスクとの対応関係を定義するテーブルをさらに備え、
     前記変換タスク作成部は、前記イベント検出部で検出された前記イベントに基づいて前記テーブルを参照し、前記変換タスクを作成する、
     請求項13に記載の情報処理装置。
  15.  前記監視情報取得部は、前記作業員の作業領域に配置された撮像装置から出力される撮像画像を前記監視情報として取得する、
     請求項12乃至14のいずれか1項に記載の情報処理装置。
  16.  前記監視情報取得部は、前記作業員の作業領域に配置されたセンサ装置から出力されるセンサ情報を前記監視情報として取得する、
     請求項12乃至14のいずれか1項に記載の情報処理装置。
  17.  前記監視情報取得部は、前記作業員の作業領域に配置された無線通信機器を介して、前記作業員が携帯する携帯端末の前記作業領域における位置情報を前記監視情報として取得する、
     請求項12乃至14のいずれかに記載の情報処理装置。
  18.  前記監視情報取得部は、前記作業員が携帯する携帯端末の位置情報を前記監視情報として取得する、
     請求項12乃至14のいずれか1項に記載の情報処理装置。
PCT/JP2019/035482 2018-09-12 2019-09-10 情報処理装置、情報処理方法、記録媒体および情報処理システム WO2020054696A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020546022A JPWO2020054696A1 (ja) 2018-09-12 2019-09-10 情報処理装置、情報処理方法、記録媒体および情報処理システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-170229 2018-09-12
JP2018170229 2018-09-12

Publications (1)

Publication Number Publication Date
WO2020054696A1 true WO2020054696A1 (ja) 2020-03-19

Family

ID=69776790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035482 WO2020054696A1 (ja) 2018-09-12 2019-09-10 情報処理装置、情報処理方法、記録媒体および情報処理システム

Country Status (2)

Country Link
JP (1) JPWO2020054696A1 (ja)
WO (1) WO2020054696A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646161A (ja) * 1992-07-24 1994-02-18 Toshiba Corp 通信方式
JP2013242642A (ja) * 2012-05-18 2013-12-05 Toshiba Corp 監視システムおよび監視方法
JP2014179837A (ja) * 2013-03-15 2014-09-25 Omron Corp 情報処理装置、および作業員割当方法
WO2015140954A1 (ja) * 2014-03-19 2015-09-24 日産自動車株式会社 作業員管理装置、作業員管理システム及び作業員管理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7890370B2 (en) * 2008-04-30 2011-02-15 Target Brands, Inc. Using alerts to bring attention to in-store information
JP2016062230A (ja) * 2014-09-17 2016-04-25 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP6263668B1 (ja) * 2017-10-13 2018-01-17 株式会社Cueworks チャット型タスク管理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646161A (ja) * 1992-07-24 1994-02-18 Toshiba Corp 通信方式
JP2013242642A (ja) * 2012-05-18 2013-12-05 Toshiba Corp 監視システムおよび監視方法
JP2014179837A (ja) * 2013-03-15 2014-09-25 Omron Corp 情報処理装置、および作業員割当方法
WO2015140954A1 (ja) * 2014-03-19 2015-09-24 日産自動車株式会社 作業員管理装置、作業員管理システム及び作業員管理方法

Also Published As

Publication number Publication date
JPWO2020054696A1 (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
US10817882B2 (en) Customer service managing method, information processing device, and storage medium
US11093995B2 (en) Monitoring of customer consumption activity and management based on monitoring
US8055296B1 (en) Head-up display communication system and method
US10872324B2 (en) Shopping support computing device
JP2016042221A (ja) 誘導支援プログラム、誘導支援装置、および誘導支援方法
US9973897B2 (en) Information processing apparatus, program product, and method
US11216651B2 (en) Information processing device and reporting method
KR20200054790A (ko) 배송 업무 지원 방법 및 이를 위한 장치
JP2008087947A (ja) 検索支援システム、管理装置、端末装置、ラベル装置及びプログラム
JP2007316897A (ja) 商品位置検索システム及び商品位置検索方法
JP2009087055A (ja) 買物支援装置、コンピュータプログラム及び買物支援システム
WO2016006136A1 (ja) 情報処理システム
KR20150050828A (ko) 대기 순서 관리 시스템 및 방법
WO2020054696A1 (ja) 情報処理装置、情報処理方法、記録媒体および情報処理システム
JP5760903B2 (ja) 店舗混雑状況管理システム、店舗混雑状況管理方法、店舗混雑状況管理サーバおよびプログラム
JP2018097390A (ja) 案内プログラム、装置、及び方法
US20180114166A1 (en) Retrieval Processing Apparatus and Method and Computer Program
JP2019220089A (ja) 情報処理装置およびプログラム
WO2019028370A1 (en) DISTRIBUTED RECONNAISSANCE FEEDBACK ACQUISITION SYSTEM
US20200394628A1 (en) Store clerk call system and store clerk call processing method
CN113544717A (zh) 画面显示方法、程序以及画面显示系统
JP7263951B2 (ja) 評価システム
JP7019140B2 (ja) 情報提供システム、情報提供サーバ、情報提供方法およびプログラム
US20230186189A1 (en) Method and system for intelligently managing facilities
JP6896010B2 (ja) 表示制御装置、表示制御方法および表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859339

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020546022

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19859339

Country of ref document: EP

Kind code of ref document: A1