WO2023119878A1 - 情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2023119878A1
WO2023119878A1 PCT/JP2022/040524 JP2022040524W WO2023119878A1 WO 2023119878 A1 WO2023119878 A1 WO 2023119878A1 JP 2022040524 W JP2022040524 W JP 2022040524W WO 2023119878 A1 WO2023119878 A1 WO 2023119878A1
Authority
WO
WIPO (PCT)
Prior art keywords
worker
delivery destination
delivery
package
information
Prior art date
Application number
PCT/JP2022/040524
Other languages
English (en)
French (fr)
Inventor
三紀子 松尾
健太 村上
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Publication of WO2023119878A1 publication Critical patent/WO2023119878A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping

Definitions

  • the present disclosure relates to technology that assists workers in delivering packages.
  • smart glasses read a product code from a two-dimensional code included in a captured image obtained from a camera, and transmit the read product code, work type, and worker code of the worker to the server device.
  • the server device refers to the alert table to determine whether or not the conditions of the product code, work type, and skill level are met. Identify the output timing and send instruction information and caution information to the smart glasses.
  • the smart glasses control to display the instruction information on the display, refer to the period and output timing, and control to display the caution information on the display at appropriate timing.
  • the present disclosure has been made to solve the above problems, and is unique to the delivery destination, and can present the delivery destination specific information only to the worker who needs the delivery destination specific information about the delivery, and the work can be performed.
  • the purpose is to provide a technology that can improve the work efficiency of workers.
  • An information processing system is an information processing system including a wearable device worn on the head of a worker and a delivery management server communicably connected to the wearable device, the wearable device comprising: a camera, a first control unit, and a first communication unit; the delivery management server includes a second control unit, a second communication unit, and a memory;
  • the first control unit obtains the image photographed by the camera, and recognizes, from the obtained image, a package ID for identifying the package to be worked on by the worker by image recognition processing.
  • the first communication unit transmits the recognized package ID and the worker ID for identifying the worker
  • the second communication unit transmits the package ID transmitted by the first communication unit.
  • the memory stores a package ID, a delivery destination ID for identifying the delivery destination of the package, and a worker ID for identifying the worker who delivered the package to the delivery destination. , delivery history information in which the delivery date and time of the parcel are associated with each other; and delivery destination information in which the delivery destination ID and delivery destination unique information related to the delivery of the parcel are associated with each other.
  • the second control unit extracts from the memory the delivery history information of the delivery destination ID corresponding to the received parcel ID, and extracts the current worker ID received and the extracted It is determined whether or not the worker ID of the worker who last delivered to the delivery destination corresponding to the delivery destination ID in the delivery history information matches, and the received worker ID of this time and the previous worker ID are matched.
  • the delivery destination unique information corresponding to the delivery destination ID is extracted from the memory, the second communication unit transmits the extracted delivery destination unique information, and the first The communication unit receives the delivery destination unique information transmitted by the second communication unit, and the first control unit outputs the received delivery destination unique information.
  • the present disclosure it is possible to present the delivery destination-specific information only to the worker who is unique to the delivery destination and who needs the delivery destination-specific information related to the delivery, thereby improving the work efficiency of the worker.
  • FIG. 1 is a diagram showing the appearance of smart glasses according to Embodiment 1 of the present disclosure
  • FIG. 4 is a diagram showing an example of delivery history information of a delivery destination ID corresponding to a package ID received in Embodiment 1.
  • FIG. 4 is a diagram showing an example of delivery destination information in Embodiment 1.
  • FIG. 6 is a first flowchart for explaining information presentation processing by the delivery management server and smart glasses according to Embodiment 1 of the present disclosure
  • 7 is a second flowchart for explaining information presentation processing by the delivery management server and smart glasses according to Embodiment 1 of the present disclosure
  • FIG. 5 is a diagram showing an example of an image captured by a camera while a worker is trying to carry a load
  • FIG. 10 is a diagram showing an example of an image captured by a camera when a parcel ID is recognized
  • FIG. 4 is a diagram showing an example of delivery destination unique information displayed on the display unit of smart glasses in Embodiment 1; It is a figure which shows an example of a structure of the delivery system in Embodiment 2 of this indication.
  • FIG. 11 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 2 of the present disclosure
  • FIG. FIG. 12 is a second flowchart for explaining information presentation processing by the delivery management server and smart glasses according to Embodiment 2 of the present disclosure;
  • FIG. 13 is a diagram illustrating an example of a configuration of a delivery system according to Embodiment 3 of the present disclosure
  • FIG. FIG. 11 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 3 of the present disclosure
  • FIG. FIG. 14 is a second flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 3 of the present disclosure
  • FIG. FIG. 13 is a diagram showing an example of notification information displayed on the display unit of smart glasses in the third embodiment
  • FIG. FIG. 13 is a diagram illustrating an example of a configuration of a delivery system according to Embodiment 4 of the present disclosure
  • FIG. FIG. 20 is a diagram showing an example of delivery destination information in the fourth embodiment
  • FIG. 13 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 16 is a second flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 13 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 16 is a second flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 13 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 16 is a second flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of the present disclosure
  • FIG. 13 is a first flowchart for explaining information presentation processing by a delivery management server and smart glasses according to Embodiment 4 of
  • a camera provided in smart glasses acquires a photographed image in the line-of-sight direction of the worker, acquires the product code of the package from the acquired photographed image, and smartly displays caution information corresponding to the product code. displayed on the display in the glass. Therefore, caution information is uniformly presented to workers wearing smart glasses. However, it is not necessary to present caution information to workers who have already grasped the caution information. Therefore, for workers who do not need to check the caution information, the caution information displayed on the smart glasses may hinder their work.
  • An information processing system is an information processing system including a wearable device worn on the head of a worker and a delivery management server communicably connected to the wearable device, , the wearable device comprises a camera, a first control unit, and a first communication unit; the delivery management server comprises a second control unit, a second communication unit, and a memory; The field of view of the worker is photographed, the first control unit acquires the image photographed by the camera, and from the acquired image, a package ID for identifying the package to be worked by the worker.
  • the first communication unit transmits the recognized package ID and the worker ID for identifying the worker
  • the second communication unit transmits by the first communication unit
  • the package ID and the worker ID sent are received, and the memory identifies the package ID, the delivery destination ID for identifying the delivery destination of the package, and the worker who delivered the package to the delivery destination. and delivery history information in which the worker ID for the purpose and the date and time of delivery of the package are associated with each other, and the delivery destination ID is associated with the delivery destination specific information related to the delivery of the package, which is unique to the delivery destination.
  • the second control unit extracts from the memory the delivery history information of the delivery destination ID corresponding to the received parcel ID, and stores the delivery destination information and the received delivery destination information from the memory.
  • the second communication unit retrieves the extracted delivery destination unique information.
  • the first communication unit receives the delivery destination unique information transmitted by the second communication unit, and the first control unit outputs the received delivery destination unique information.
  • the delivery destination specific information related to the delivery of the package is unique to the delivery destination. If the worker who delivers the package to the delivery destination this time is the same as the worker who delivered the package to the delivery destination last time, the delivery destination unique information is not presented to the worker. Therefore, it is possible to present the delivery destination unique information only to the worker who is unique to the delivery destination and needs the delivery destination unique information related to the delivery, thereby improving the work efficiency of the worker.
  • the delivery destination specific information may be information regarding a coping method when the recipient at the delivery destination is absent.
  • the worker can know what to do if the recipient at the delivery destination is absent. Therefore, delivery losses such as redelivery can be reduced, and delivery efficiency can be improved.
  • the first control unit images a package to be worked by the worker and the hand of the worker from the acquired images. It is determined whether or not the worker is about to carry the load based on the recognized positional relationship between the load and the hand recognized by the recognition process, and the worker carries the load. When it is determined that the package is in a state of being unconscious, the package ID may be recognized by image recognition processing from the acquired image.
  • the package to be worked by the worker and the worker's hand are recognized by the image recognition processing from the image showing the field of view of the worker photographed by the camera, and the recognized package and the hand are recognized. Based on the positional relationship of , it is determined whether or not the worker is about to carry the load. Then, when it is determined that the worker is about to carry a package, the package ID is recognized from the image by image recognition processing.
  • the second control unit determines that the worker ID received this time and the worker ID received last time are If they match, it is determined whether or not a predetermined number of days or more have passed since the last delivery date to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. If so, the delivery destination specific information corresponding to the delivery destination ID may be extracted from the memory.
  • a worker who has been delivering for a long time since the last delivery may forget the delivery destination specific information of the delivery destination.
  • the worker who delivers the package this time to the delivery destination is the same as the worker who delivered the package to the delivery destination last time, it is possible for the worker to deliver the package to the delivery destination in the predetermined number of days from the date of the previous delivery to the present. If so, the delivery destination specific information is presented to the worker.
  • the worker can check the delivery destination specific information, and can reduce delivery losses such as redelivery. Efficiency can be improved.
  • the second control unit determines that the worker ID received this time and the worker ID received last time are If they match, it is determined whether or not the number of past deliveries to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information is within a predetermined number of times, and if the number of deliveries in the past is within the predetermined number of times In some cases, the delivery destination specific information corresponding to the delivery destination ID may be retrieved from the memory.
  • a worker who makes few deliveries to a delivery destination may not remember the delivery destination specific information of the delivery destination.
  • the number of deliveries made by the worker in the past is within the predetermined number of times.
  • the delivery destination specific information is presented to the worker.
  • the worker can confirm the unique information of the delivery destination, thereby reducing delivery losses such as redelivery and improving delivery efficiency. be able to.
  • the first control unit controls the delivery destination recipient's absence. and if the recipient at the delivery destination is absent, the received delivery destination specific information may be output.
  • the delivery destination unique information is presented to the worker at the timing when it is determined that the recipient at the delivery destination is absent, so the delivery destination unique information can be presented to the worker at the optimum timing.
  • the information processing system is communicably connected to the wearable device, and the worker takes the package home because the recipient at the delivery destination is absent. further comprising an information terminal that outputs an absence contact form for contacting the recipient, wherein the information terminal, when outputting the absence contact form, transmits an absence contact form output notification to the wearable device,
  • the first communication unit receives the output notification of the absence contact form transmitted by the information terminal, and the first control unit receives the output notification of the absence contact form when the first communication unit receives the output notification of the absence contact form. It may be determined that the previous recipient is absent.
  • the information terminal when the recipient at the delivery destination is absent and outputs the absence contact form for notifying the recipient that the worker will bring back the package, the information terminal outputs the absence contact form output notification.
  • the wearable device determines that the recipient at the delivery destination is absent when the absence contact form output notification transmitted by the information terminal is received.
  • the delivery destination specific information can be presented to the worker at the timing when the absence contact form is output.
  • the delivery destination ID and the delivery destination unique information in the delivery destination information are updated with the delivery destination unique information.
  • the received update date and time are further associated, and the second control unit determines that the worker ID received this time matches the worker ID received last time, and corresponds to the delivery destination ID.
  • the delivery destination unique information corresponding to the delivery destination ID is retrieved from the memory. may be extracted.
  • the delivery destination unique information has been updated since the worker visited the delivery destination last time. If so, the worker is presented with the updated destination-specific information. Therefore, the worker can deliver the package in consideration of the latest delivery destination specific information.
  • the wearable device further includes a display unit, and the first control unit displays the delivery destination specific information. and the display unit may display the delivery destination specific information as augmented reality in the field of view of the worker.
  • the delivery destination specific information is output to the display unit, and the display unit displays the delivery destination specific information in the field of view of the worker as augmented reality. can be confirmed.
  • a delivery management method is a delivery management method in a delivery management server communicably connected to a wearable device worn on the head of a worker, wherein A package ID for identifying a package to be worked on by the worker is recognized by image recognition processing from an image captured by a camera that captures a work for identifying the recognized package ID and the worker receive the package ID and the worker ID from the wearable device that transmits the package ID, the delivery destination ID for identifying the delivery destination of the package, and the worker who delivered the package to the delivery destination; extracting the delivery history information of the delivery destination ID corresponding to the received package ID from a memory that stores delivery history information that associates a worker ID for identification with the date and time of delivery of the package; It is determined whether or not the worker ID received this time matches the worker ID of the worker who previously delivered to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information.
  • a delivery destination in which the delivery destination ID is associated with delivery destination specific information related to the delivery of the package, which is unique to the delivery destination is extracted from the memory storing information, and the extracted delivery destination unique information is transmitted to the wearable device.
  • the delivery destination specific information related to the delivery of the package is unique to the delivery destination. If the worker who delivers the package to the delivery destination this time is the same as the worker who delivered the package to the delivery destination last time, the delivery destination specific information is not presented to the worker. Therefore, it is possible to present the delivery destination unique information only to the worker who is unique to the delivery destination and needs the delivery destination unique information related to the delivery, thereby improving the work efficiency of the worker.
  • a wearable device is a wearable device worn on the head of a worker, comprising a camera, a control unit, and a communication unit, wherein the camera performs the work.
  • the field of view of the worker is photographed, the control unit acquires the image photographed by the camera, and from the acquired image, a package ID for identifying the package to be worked by the worker is obtained by image recognition processing.
  • the communication unit transmits the recognized package ID and the worker ID for identifying the worker, receives the package ID and the worker ID, and transmits the package ID and the delivery of the package.
  • a memory that stores delivery history information in which a delivery destination ID for identifying a destination, a worker ID for identifying a worker who delivered a package to the delivery destination, and a date and time when the package was delivered are associated with each other. extracting the delivery history information of the delivery destination ID corresponding to the received parcel ID, and extracting the current worker ID received and the delivery destination corresponding to the delivery destination ID in the extracted delivery history information; It is determined whether or not the worker ID of the worker who delivered the previous time matches, and if the received worker ID of this time and the worker ID of the previous time do not match, the delivery destination ID and the delivery destination ID are determined.
  • the control unit receives the delivery destination unique information transmitted by the delivery management server that transmits the destination unique information, and outputs the received delivery destination unique information.
  • the delivery destination specific information related to the delivery of the package is unique to the delivery destination. If the worker who delivers the package to the delivery destination this time is the same as the worker who delivered the package to the delivery destination last time, the delivery destination unique information is not presented to the worker. Therefore, it is possible to present the delivery destination unique information only to the worker who is unique to the delivery destination and needs the delivery destination unique information related to the delivery, thereby improving the work efficiency of the worker.
  • the present disclosure can be realized not only as a wearable device having the characteristic configuration as described above, but also as an information processing method for executing characteristic processing corresponding to the characteristic configuration of the wearable device. It can also be realized. Moreover, it can also be realized as a computer program that causes a computer to execute characteristic processing included in such an information processing method. Therefore, the following other aspects can also provide the same effects as the wearable device described above.
  • An information processing method is an information processing method in a wearable device worn on the head of a worker, wherein an image captured by a camera that captures the field of view of the worker is A package ID for identifying a package to be worked on by the worker is recognized from the acquired image by image recognition processing, and a worker ID for identifying the recognized package ID and the worker. and receives the package ID and the worker ID, and the package ID, the delivery destination ID for identifying the delivery destination of the package, and the worker who delivered the package to the delivery destination.
  • the delivery history information of the delivery destination ID corresponding to the received package ID is extracted from the memory storing the delivery history information in which the worker ID and the delivery date and time of the package are associated, and the current delivery history information received is extracted. It is determined whether or not the worker ID matches the worker ID of the worker who previously delivered to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. When the worker ID and the previous worker ID do not match, the delivery destination information is stored in which the delivery destination ID and the delivery destination specific information related to delivery of the package are associated with the delivery destination ID and unique to the delivery destination. extracting the delivery destination unique information corresponding to the delivery destination ID from the memory, receiving the delivery destination unique information transmitted by a delivery management server that transmits the extracted delivery destination unique information, and delivering the received delivery Output destination specific information.
  • An information processing program acquires an image captured by a camera that captures a field of view of a worker, and identifies a package to be worked on by the worker from the acquired image.
  • a package ID for identifying a worker is transmitted, the package ID and the worker ID are received, and the package ID and the worker ID are transmitted; , delivery history information in which a delivery destination ID for identifying the delivery destination of the package, a worker ID for identifying the worker who delivered the package to the delivery destination, and the date and time when the package was delivered are associated with each other;
  • the delivery history information of the delivery destination ID corresponding to the received parcel ID is extracted from the stored memory, and the current worker ID received and the delivery destination ID in the extracted delivery history information are extracted.
  • the computer is operated to receive the delivery destination unique information transmitted by the delivery management server that transmits the extracted delivery destination unique information and to output the received delivery destination unique information.
  • a non-temporary computer-readable recording medium recording an information processing program obtains an image captured by a camera that captures the field of view of a worker, , a package ID for identifying the package to be worked on by the worker is recognized by image recognition processing, the recognized package ID and the worker ID for identifying the worker are transmitted, and the package ID and the worker ID are received, and a package ID, a delivery destination ID for identifying the delivery destination of the package, a worker ID for identifying the worker who delivered the package to the delivery destination, and the package the delivery history information of the delivery destination ID corresponding to the received package ID is extracted from the memory storing the delivery history information associated with the delivery date and time, and the worker ID received this time and the extracted It is determined whether or not the worker ID of the worker who last delivered to the delivery destination corresponding to the delivery destination ID in the delivered delivery history information matches.
  • the delivery address is retrieved from the memory that stores the delivery address information in which the delivery address ID and the delivery address specific information related to the delivery of the package are associated with the delivery address ID.
  • the delivery destination unique information corresponding to the ID is extracted, the delivery destination unique information transmitted by the delivery management server that transmits the extracted delivery destination unique information is received, and the received delivery destination unique information is output. make your computer work.
  • FIG. 1 is a diagram showing an example of the configuration of a delivery system according to Embodiment 1 of the present disclosure
  • FIG. 2 is a diagram showing the appearance of smart glasses 3 according to Embodiment 1 of the present disclosure.
  • the delivery system shown in FIG. 1 includes a first terminal 1 , a delivery management server 2 and smart glasses 3 .
  • the first terminal 1 is, for example, a smart phone, a tablet computer, or a personal computer, and is used by the recipient of the parcel.
  • the first terminal 1 includes a third control section 11 , a touch panel 12 and a third communication section 13 .
  • the third control unit 11 is, for example, a central processing unit (CPU), and controls the first terminal 1 as a whole.
  • the third control unit 11 causes the touch panel 12 to display a unique information input screen for receiving input of unique information about the delivery destination, which is unique to the delivery destination.
  • the delivery destination specific information is, for example, information on how to deal with the absence of the recipient at the delivery destination. More specifically, the delivery destination specific information is, for example, information indicating where the parcel is placed when the recipient is absent. Details of the delivery destination unique information will be described later.
  • the touch panel 12 displays various information and accepts input operations by the recipient.
  • the touch panel 12 accepts input of delivery destination unique information by the recipient on the unique information input screen.
  • the recipient inputs the delivery destination unique information on the touch panel 12 .
  • the third communication unit 13 transmits the delivery destination ID for identifying the delivery destination and the delivery destination unique information to the delivery management server 2 .
  • the first terminal 1 includes a memory (not shown).
  • a memory (not shown) preliminarily stores a delivery destination ID.
  • the smart glasses 3 are glasses-type wearable devices worn on the head of workers. Here, the worker carries out the work of delivering the package to the delivery destination. The worker wears the smart glasses 3 on his head and works.
  • the smart glasses 3 shown in FIGS. 1 and 2 include a camera 31, a first control section 32, a first communication section 33 and a display section .
  • the camera 31 captures the field of view of the worker.
  • the camera 31 is provided on the right side of the main body of the smart glasses 3 and photographs the front of the worker wearing the smart glasses 3 .
  • the angle of view and focal length of the camera 31 are set to be substantially the same as the field of view of the operator. Therefore, the image captured by the camera 31 is substantially the same as the scene seen by the worker with the naked eye.
  • Camera 31 outputs the captured image to first control unit 32 .
  • the first control unit 32 acquires an image captured by the camera 31.
  • the first control unit 32 recognizes the package ID for identifying the package to be worked on by the worker from the acquired image by image recognition processing.
  • the first control unit 32 recognizes, from the acquired image, the package that the worker is working on and the worker's hand through image recognition processing.
  • the first control unit 32 determines whether or not the worker is about to carry the load based on the recognized positional relationship between the load and the hand. At this time, if the recognized package is positioned between the recognized position of the worker's right hand and the recognized position of the worker's left hand, the first control unit 32 determines whether the worker should carry the package. It is determined that the state is The load that the worker is about to carry is the load that the worker is working on, and the load that the worker has started to transport.
  • the first control unit 32 determines that the worker is about to carry a package
  • the first control unit 32 recognizes the package ID for identifying the package from the acquired image by image recognition processing. At this time, the first control unit 32 recognizes the package ID of the package between the recognized right hand position of the worker and the recognized left hand position of the worker.
  • the first communication unit 33 transmits the parcel ID recognized by the first control unit 32 and the worker ID for identifying the worker to the delivery management server 2 .
  • the smart glasses 3 include a memory (not shown).
  • a memory (not shown) stores the worker ID in advance.
  • the camera 31 may photograph a barcode or two-dimensional code indicating the worker ID, and the first control unit 32 may read the worker ID from the barcode or two-dimensional code included in the photographed image.
  • the first communication unit 33 receives the delivery destination specific information transmitted by the delivery management server 2 .
  • the first control unit 32 outputs the delivery destination unique information received by the first communication unit 33 .
  • the first control unit 32 outputs the delivery destination unique information to the display unit 34 .
  • the display unit 34 is a light transmissive display that displays the delivery destination specific information as augmented reality in the field of view of the worker.
  • the display unit 34 displays the delivery destination unique information in front of the right eye of the worker wearing the smart glasses 3, for example.
  • the delivery management server 2 manages the delivery status of packages.
  • the delivery management server 2 is connected to each of the first terminal 1 and the smart glasses 3 via the network 4 so as to be able to communicate with each other.
  • Network 4 is, for example, the Internet.
  • the delivery management server 2 comprises a second communication section 21, a memory 22 and a second control section 23.
  • the second communication unit 21 receives the delivery destination ID and the delivery destination specific information transmitted by the first terminal 1. Also, the second communication unit 21 receives the package ID and the worker ID transmitted by the smart glasses 3 .
  • the memory 22 is, for example, a RAM (Random Access Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or other storage device capable of storing various information.
  • the memory 22 stores delivery history information and delivery destination information.
  • the delivery history information corresponds to the package ID, the delivery destination ID for identifying the delivery destination of the package, the worker ID for identifying the worker who delivered the package to the delivery destination, and the date and time when the package was delivered. This is the information attached.
  • the delivery destination information is information in which a delivery destination ID is associated with delivery destination specific information related to the delivery of the package, which is unique to the delivery destination.
  • the second control unit 23 stores, in the memory 22, the delivery destination information in which the delivery destination ID received by the second communication unit 21 and the delivery destination specific information are associated with each other.
  • the second control unit 23 extracts from the memory 22 the delivery history information of the delivery destination ID corresponding to the parcel ID received by the second communication unit 21 .
  • the second control unit 23 determines that the current worker ID received by the second communication unit 21 matches the worker ID of the worker who last delivered to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. determine whether or not to When the current worker ID received by the second communication unit 21 does not match the previous worker ID, the second control unit 23 extracts the delivery destination specific information corresponding to the delivery destination ID from the memory 22. .
  • the second control unit 23 does not extract the delivery destination unique information corresponding to the delivery destination ID from the memory 22. .
  • the second communication unit 21 transmits the delivery destination specific information extracted by the second control unit 23 to the smart glasses 3 .
  • FIG. 3 is a diagram showing an example of the delivery history information of the delivery destination ID corresponding to the package ID received in the first embodiment.
  • the delivery history information shown in FIG. 3 includes a delivery destination ID for identifying the delivery destination, a package ID for identifying the package, a delivery status indicating the delivery status, and a worker for identifying the worker who delivered the package.
  • the worker ID, the delivery date and time when the package was delivered, the address information indicating the address of the package, and the destination information indicating the address of the package are associated with each other.
  • the delivery history information shown in FIG. 3 is arranged in reverse chronological order from the top. The delivery history information at the top corresponds to the package delivered this time, and the delivery history information located second from the top corresponds to the package delivered last time.
  • the delivery history information for this delivery destination ID is retrieved from the memory 22. extracted. Then, it is determined whether or not the current worker ID received from the smart glasses 3 matches the worker ID of the worker who last delivered to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. . If the current worker ID is "549", the previous worker ID is "549". It is determined that they match. If the current worker ID is not "549", the second control unit 23 determines that the received current worker ID does not match the previous worker ID.
  • FIG. 4 is a diagram showing an example of delivery destination information in the first embodiment.
  • the delivery destination information shown in FIG. 4 associates the delivery destination ID with the unique information of the delivery destination.
  • the delivery destination IDs of "378087” and “378088” are associated with delivery destination specific information that indicates how to deal with the absence of the recipient.
  • the delivery destination specific information associated with the delivery destination ID of "378087” indicates where the package is placed when the recipient is absent.
  • the delivery destination unique information associated with the delivery destination ID of "378088” indicates the person to be confirmed when the recipient is absent.
  • the delivery destination IDs of "378089", “378090” and “378091” are associated with delivery destination specific information indicating the delivery method of the package to the recipient.
  • the delivery destination unique information associated with the delivery destination ID of "378089” indicates the package delivery method when the delivery destination has multiple entrances.
  • the delivery destination specific information associated with the delivery destination ID of "378090” indicates the package delivery method in a predetermined time period.
  • the delivery destination specific information associated with the delivery destination ID of "378091” indicates a time period when the recipient is often at home.
  • delivery destination specific information shown in FIG. 4 is an example, and the present disclosure is not limited to these delivery destination specific information.
  • FIG. 5 is a first flowchart for explaining information presentation processing by the delivery management server 2 and the smart glasses 3 according to Embodiment 1 of the present disclosure
  • FIG. 10 is a second flowchart for explaining information presentation processing by the server 2 and the smart glasses 3.
  • step S1 the camera 31 photographs the field of view of the worker. While the worker is working, the camera 31 continuously captures the field of view of the worker.
  • step S2 the first control unit 32 acquires from the camera 31 an image obtained by the camera 31 photographing the field of view of the worker.
  • step S3 the first control unit 32 recognizes, from the acquired image, the package to be worked on by the worker, the worker's left hand, and the worker's right hand through image recognition processing.
  • FIG. 7 is a diagram showing an example of an image taken by the camera 31 while the worker is trying to carry the load.
  • the worker holds the package with both hands when carrying it. At this time, the worker's left thumb and right thumb are placed on the upper surface of the load, and the load is between the left and right hands of the worker. That is, when the load is positioned between the position of the worker's right hand and the position of the worker's left hand, it can be determined that the worker is about to carry the load.
  • the first control unit 32 recognizes the package that the worker is working on, the worker's left hand, and the worker's right hand.
  • the package recognized from the image 501 is represented by a rectangular frame line 511
  • the worker's left hand recognized from the image 501 is represented by a rectangular frame line 521
  • the work recognized from the image 501 is represented by a rectangular frame line 521.
  • the member's right hand is represented by a rectangular frame line 522 .
  • the first control unit 32 performs image recognition processing using an image recognition model machine-learned so as to recognize the package, the worker's left hand, and the worker's right hand from the image.
  • the first control unit 32 inputs an image captured by the camera 31 to a machine-learned image recognition model, and obtains a recognition result from the image recognition model.
  • the recognition results represent the position of the package on the image, the position of the worker's left hand, and the position of the worker's right hand.
  • Machine learning includes, for example, supervised learning that learns the relationship between input and output using supervised data in which labels (output information) are assigned to input information, and data structure from only unlabeled inputs. , semi-supervised learning that handles both labeled and unlabeled behaviors, and reinforcement learning that learns actions that maximize rewards by trial and error.
  • specific techniques of machine learning include neural networks (including deep learning using multilayer neural networks), genetic programming, decision trees, Bayesian networks, support vector machines (SVM), etc. exist. In the machine learning of the image recognition model, any one of the specific examples given above may be used.
  • the first control unit 32 may recognize the package, the worker's left hand, and the worker's right hand from the image by pattern matching.
  • step S4 the first control unit 32 determines whether or not the package, the worker's left hand and the worker's right hand are all recognized from the image.
  • the process returns to step S1.
  • step S5 the first control unit 32 determines whether the worker is carrying the cargo. It is determined whether or not it is in the state of At this time, if the recognized package is positioned between the recognized position of the worker's right hand and the recognized position of the worker's left hand, the first control unit 32 determines whether the worker should carry the package. It is determined that the state is In the image 501 shown in FIG. 7, it is determined that the worker is trying to carry the load because the load is positioned between the worker's right hand position and the worker's left hand position. be.
  • the first control unit 32 determines that the worker is trying to carry the load. It is judged that there is no state.
  • step S5 if it is determined that the worker is not in a state of carrying a load (NO in step S5), the process returns to step S1.
  • step S5 the first control unit 32 extracts a package ID for identifying the package from the acquired image. is recognized by image recognition processing.
  • FIG. 8 is a diagram showing an example of an image captured by the camera 31 when the parcel ID is recognized.
  • a barcode indicating the package ID is attached to the top of the package.
  • the first control unit 32 recognizes the barcode of the cargo to be carried by the worker, that is, the cargo to be worked on, from the image captured by the camera 31, and reads the cargo ID from the recognized barcode. Recognize package ID.
  • the barcode indicating the package ID recognized from the image 501 is represented by a rectangular frame line 531 .
  • the present disclosure is not particularly limited to this, and the parcel ID may be indicated by a two-dimensional code.
  • the first control unit 32 may recognize the package ID by recognizing the two-dimensional code from the image captured by the camera 31 and reading the package ID from the recognized two-dimensional code.
  • step S7 the first control unit 32 determines whether or not the package ID has been recognized from the image. Here, if it is determined that the parcel ID is not recognized from the image (NO in step S7), the process returns to step S1.
  • step S8 of FIG. A worker ID for identification is sent to the delivery management server 2 .
  • the first control unit 32 reads the worker ID stored in the memory (not shown).
  • step S9 the second communication unit 21 of the delivery management server 2 receives the parcel ID and worker ID transmitted by the smart glasses 3.
  • step S ⁇ b>10 the second control unit 23 extracts from the memory 22 the delivery history information of the delivery destination ID corresponding to the package ID received by the second communication unit 21 .
  • step S11 the second control unit 23 determines whether or not the current worker ID received by the second communication unit 21 matches the previous worker ID included in the delivery history information. do.
  • the current worker ID and the previous worker ID match YES in step S11
  • the information presentation process ends. do.
  • step S12 the second control unit 23 generates a delivery destination unique ID corresponding to the delivery destination ID. Information is extracted from memory 22 .
  • step S ⁇ b>13 the second communication unit 21 transmits the delivery destination unique information extracted by the second control unit 23 to the smart glasses 3 .
  • step S ⁇ b>14 the first communication unit 33 of the smart glasses 3 receives the delivery destination specific information transmitted by the delivery management server 2 .
  • the first control unit 32 outputs the received delivery destination unique information to the display unit 34 .
  • step S15 the display unit 34 displays the delivery destination specific information as augmented reality in the field of view of the worker.
  • FIG. 9 is a diagram showing an example of delivery destination unique information displayed on the display unit 34 of the smart glasses 3 in the first embodiment.
  • the delivery destination specific information 601 shown in FIG. 9 expresses in characters that the package should be placed under the gas meter when the recipient is absent.
  • the delivery destination specific information 601 is displayed as an augmented reality in the real environment that the worker sees. Therefore, by looking at the delivery destination unique information 601, the worker can know where to place the parcel when the recipient is absent.
  • the worker who delivered the package this time to the delivery destination is different from the worker who delivered the package to the delivery destination last time, it is unique to the delivery destination, and the delivery destination specific information regarding the delivery of the package is sent to the worker. If the worker who is presented and delivers the package to the delivery destination this time is the same as the worker who delivered the package to the delivery destination last time, the delivery destination unique information is not presented to the worker. Therefore, it is possible to present the delivery destination unique information only to the worker who is unique to the delivery destination and needs the delivery destination unique information related to the delivery, thereby improving the work efficiency of the worker.
  • the first terminal 1 owned by the recipient accepts input of the delivery destination unique information by the recipient and transmits the input delivery destination unique information to the delivery management server 2.
  • the second terminal owned by the worker may receive input of the delivery destination unique information by the worker and transmit the input delivery destination unique information to the delivery management server 2 .
  • the second terminal is, for example, a smart phone, a tablet computer, or a built-in terminal specialized for delivery work. In other words, a veteran worker who has delivered a package to a specific delivery destination may know the unique delivery destination information specific to the specific delivery destination. Therefore, the knowledge of experienced workers can be used as delivery destination unique information.
  • the information presentation processing is performed without transmitting the delivery destination unique information. has ended, but the present disclosure is not specifically limited thereto.
  • the second control unit 23 provides presentation confirmation information for asking the worker whether or not to present the delivery destination specific information.
  • the generated presentation confirmation information may be transmitted to the second communication unit 21 .
  • the first control unit 32 of the smart glasses 3 may cause the display unit 34 to display the received presentation confirmation information as augmented reality.
  • the display unit 34 displays a message for asking the worker whether or not to display the delivery destination unique information, and accepts the worker's selection as to whether or not to display the delivery destination unique information. good. For example, the display unit 34 displays the message "Would you like to display the delivery destination specific information?", the first button image for selecting the display of the delivery destination specific information, and the and the second button image may be displayed as augmented reality.
  • the first control unit 32 determines whether the display of the delivery destination unique information has been selected by the worker. When the worker wishes to display the delivery destination specific information, the worker puts his/her finger on the first button image of the presentation confirmation image displayed as augmented reality on the display unit 34 . Also, if the worker does not wish to display the delivery destination specific information, the worker places his/her finger on the second button image of the presentation confirmation image displayed as augmented reality on the display unit 34 . The first control unit 32 recognizes the positions where the first button image and the second button image of the presentation confirmation image are displayed on the image captured by the camera 31 . The first control unit 32 recognizes the operator's finger from the image captured by the camera 31 and determines whether the operator's finger is selecting the first button image or the second button image.
  • the first control unit 32 determines that the line-of-sight direction detected by the line-of-sight direction detection unit is the first button image and the line-of-sight direction. It may be determined which of the second button images matches and which of the first button image and the second button image the worker has selected.
  • the smart glasses 3 may further include an eyelid detection unit that detects the movement of the eyelids of both eyes of the worker.
  • the eyelid detection unit detects that the eyelid of the right eye has been closed a predetermined number of times (for example, twice) or more
  • the first control unit 32 determines that the worker has selected the first button image
  • the detection unit detects that the eyelid of the left eye has been closed a predetermined number of times (for example, twice) or more, it may be determined that the worker has selected the second button image.
  • the first control unit 32 may recognize the movement of the worker's hand from the image captured by the camera 31 . In this case, when the first control unit 32 recognizes a positive hand movement of the worker, it determines that the worker has selected the first button image, and when it recognizes a negative hand movement of the worker, It may be determined that the worker has selected the second button image.
  • a positive hand motion is, for example, a motion in which the worker makes a circular shape with the fingers of both hands or one hand.
  • Negative hand movements are, for example, movements in which the worker makes an X shape with the fingers of both hands, or waves one hand from side to side.
  • the smart glasses 3 may further include a motion detection unit that detects movement of the worker's head in the vertical direction (tilt direction) and detects movement of the worker's head in the horizontal direction (pan direction). .
  • the first control unit 32 determines that the worker has selected the first button image when the motion detection unit detects a vertical motion of the worker's head a predetermined number of times (for example, two times) or more.
  • the motion detector detects the horizontal motion of the worker's head a predetermined number of times (for example, two times) or more, it may be determined that the worker has selected the second button image.
  • the smart glasses 3 may include a first button for accepting input of a positive answer by the worker and a second button for accepting input of a negative answer by the worker.
  • the first button may be arranged on the right side of the frame of the smart glasses 3 and the second button may be arranged on the left side of the frame of the smart glasses 3 .
  • the first control unit 32 determines that the worker has selected the first button image. has selected the second button image.
  • the worker confirms whether or not to present the unique information to the delivery destination. Even if the delivery destination has not been delivered or the number of deliveries to the delivery destination is small, the delivery destination unique information can be presented to the worker.
  • FIG. 10 is a diagram showing an example of the configuration of a delivery system according to Embodiment 2 of the present disclosure.
  • the delivery system shown in FIG. 10 includes a first terminal 1, a delivery management server 2A and smart glasses 3.
  • the same reference numerals are assigned to the same configurations as in the first embodiment, and the description thereof is omitted.
  • the delivery management server 2A comprises a second communication section 21, a memory 22 and a second control section 23A.
  • the second control unit 23A extracts from the memory 22 the delivery history information of the delivery destination ID corresponding to the package ID received by the second communication unit 21.
  • the second control unit 23A determines that the current worker ID received by the second communication unit 21 matches the worker ID of the worker who previously delivered to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. determine whether or not to When the current worker ID received by the second communication unit 21 does not match the previous worker ID, the second control unit 23A extracts the delivery destination specific information corresponding to the delivery destination ID from the memory 22. .
  • the second control unit 23A controls the delivery date from the date of the previous delivery to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information. It is determined whether or not a predetermined number of days have passed. The second control unit 23A extracts the delivery destination specific information corresponding to the delivery destination ID from the memory 22 when a predetermined number of days or more have passed since the previous delivery date. The second control unit 23A does not extract the delivery destination specific information corresponding to the delivery destination ID from the memory 22 if a predetermined number of days or more have not passed since the previous delivery date.
  • FIG. 11 is a first flowchart for explaining information presentation processing by the delivery management server 2A and the smart glasses 3 according to Embodiment 2 of the present disclosure
  • FIG. 10 is a second flowchart for explaining information presentation processing by the server 2A and the smart glasses 3;
  • steps S21 to S30 shown in FIGS. 11 and 12 is the same as the processing of steps S1 to S10 shown in FIGS. 5 and 6, so description thereof will be omitted.
  • step S31 the second control unit 23A determines whether or not the current worker ID received by the second communication unit 21 matches the previous worker ID included in the delivery history information. do.
  • step S32 the second control unit 23A determines the delivery destination ID in the extracted delivery history information. It is determined whether or not a predetermined number of days or more have passed since the previous delivery date to the delivery destination corresponding to .
  • step S32 if it is determined that the predetermined number of days has not passed since the last delivery to the delivery destination corresponding to the delivery destination ID (NO in step S32), there is no need to present the delivery destination specific information to the worker. , the information presentation process ends.
  • the second control unit 23A extracts the delivery destination unique information corresponding to the delivery destination ID from the memory 22 in step S33.
  • steps S34 to S36 shown in FIG. 12 is the same as the processing of steps S13 to S15 shown in FIG. 6, so description thereof will be omitted.
  • a worker who has been delivering for a long time since the last delivery may forget the delivery destination specific information of the delivery destination.
  • the worker who delivers the package this time to the delivery destination is the same as the worker who delivered the package to the delivery destination last time, the worker delivered the previous delivery date. If a predetermined number of days or more have passed from the current time to the current time, the delivery destination specific information is presented to the worker. As a result, even if a long time has passed since the previous delivery, the worker can check the delivery destination specific information, and can reduce delivery losses such as redelivery. Efficiency can be improved.
  • the predetermined number of days for comparison with the number of days elapsed since the previous delivery date may be set for each worker, may be set for each company or office where the worker works, or may be set for each worker. may be set for each region in charge of delivery work. Moreover, a questionnaire regarding memory may be given to the workers.
  • the second control unit 23A may set the predetermined number of days set for workers who answered that their memory is good to be shorter than the predetermined number of days set for workers who answered that their memory was not good.
  • the predetermined number of days is stored in the memory 22 in association with the worker ID.
  • the second control unit 23A when the current worker ID and the previous worker ID received match, performs the delivery corresponding to the delivery destination ID in the extracted delivery history information. It may be determined whether or not the number of deliveries in the past is within a predetermined number. Then, the second control unit 23A may extract the delivery destination unique information corresponding to the delivery destination ID from the memory 22 when the number of deliveries in the past is within a predetermined number. Further, the second control unit 23A does not need to extract the delivery destination specific information from the memory 22 when the number of deliveries in the past is greater than the predetermined number.
  • the predetermined number of times for comparison with the number of deliveries in the past may be set for each worker, may be set for each company or office where the worker works, or may be set for each worker. may be set for each region in charge of Moreover, a questionnaire regarding memory may be given to the workers.
  • the second control unit 23A may set the predetermined number of times for workers who answered that they have good memory to be less than the predetermined number of times that is set for workers who answered that their memory is not good. The predetermined number of times is stored in the memory 22 in association with the worker ID.
  • a worker who makes few deliveries to a delivery destination may not remember the delivery destination specific information of the delivery destination.
  • the configuration of the modification of the second embodiment even if the worker who delivered the package this time to the delivery destination is the same as the worker who delivered the package to the delivery destination last time, If the number of deliveries to the delivery destination is within a predetermined number of times, the delivery destination specific information is presented to the worker. As a result, even if the number of deliveries to the delivery destination is small, the worker can confirm the unique information of the delivery destination, thereby reducing delivery losses such as redelivery and improving delivery efficiency. be able to.
  • Embodiment 3 In Embodiment 1, when the smart glasses receive the delivery destination specific information, the smart glasses output the received delivery destination specific information to the display unit, but in Embodiment 3, the smart glasses receive the delivery destination specific information. After that, it is determined whether or not the recipient at the delivery destination is absent, and if the recipient at the delivery destination is absent, the received delivery destination unique information is output to the display unit.
  • FIG. 13 is a diagram showing an example of the configuration of a delivery system according to Embodiment 3 of the present disclosure.
  • the delivery system shown in FIG. 13 includes a first terminal 1, a delivery management server 2, smart glasses 3B and a second terminal 5.
  • FIG. 13 is a diagram showing an example of the configuration of a delivery system according to Embodiment 3 of the present disclosure.
  • the delivery system shown in FIG. 13 includes a first terminal 1, a delivery management server 2, smart glasses 3B and a second terminal 5.
  • FIG. 13 is a diagram showing an example of the configuration of a delivery system according to Embodiment 3 of the present disclosure.
  • the delivery system shown in FIG. 13 includes a first terminal 1, a delivery management server 2, smart glasses 3B and a second terminal 5.
  • FIG. 13 is a diagram showing an example of the configuration of a delivery system according to Embodiment 3 of the present disclosure.
  • the delivery system shown in FIG. 13 includes a first terminal 1, a delivery management server 2, smart glasses 3B and a second terminal 5.
  • the second terminal 5 is, for example, a smartphone, a tablet computer, or a built-in terminal specialized for delivery work, and is used by workers.
  • the second terminal 5 is communicably connected to the smart glasses 3B.
  • the second terminal 5 includes a fourth control section 51 , a touch panel 52 , a fourth communication section 53 and a printing section 54 .
  • the second terminal 5 outputs an absence contact form to notify the recipient that the worker will take the package home because the recipient at the delivery destination was absent.
  • the second terminal 5 is an example of an information terminal.
  • the touch panel 52 accepts an instruction to generate an absence contact form from the worker.
  • the worker uses the touch panel 52 to input an instruction to generate an absence contact form.
  • the fourth control unit 51 When the touch panel 52 accepts an instruction to generate an absence contact form, the fourth control unit 51 generates an absence contact form.
  • the absence contact form includes the parcel ID, the date and time when the worker visited the delivery destination, and the worker's contact information.
  • Fourth control unit 51 outputs the generated absence contact form to printing unit 54 . Further, when outputting the absence contact form, the fourth control unit 51 generates an absence contact form output notification and outputs it to the fourth communication unit 53 .
  • the fourth communication unit 53 outputs the absence contact form output notification generated by the fourth control unit 51 to the smart glasses 3B.
  • the printing unit 54 prints the absence contact form generated by the fourth control unit 51.
  • the worker puts the printed delivery slip into the postbox of the delivery destination, indicating that the package has been brought back or delivered based on the delivery destination unique information.
  • the smart glasses 3B include a camera 31, a first control section 32B, a first communication section 33B, and a display section 34.
  • the first communication unit 33B receives the output notification of the absence contact form sent by the second terminal 5.
  • the first control unit 32B determines whether the recipient at the delivery destination is absent. At this time, when the first communication unit 33B receives the output notice of the absence contact form, the first control unit 32B determines that the recipient at the delivery destination is absent. The first control unit 32B outputs the received delivery destination unique information to the display unit 34 when the recipient of the delivery destination is absent.
  • the first control unit 32B stores the delivery destination unique information in a memory (not shown). Then, the first control unit 32 ⁇ /b>B generates notification information for notifying the worker that there is delivery destination specific information, and outputs the generated notification information to the display unit 34 .
  • the display unit 34 displays the notification information output by the first control unit 32B as augmented reality.
  • FIG. 14 is a first flowchart for explaining information presentation processing by the delivery management server 2 and the smart glasses 3B according to Embodiment 3 of the present disclosure
  • FIG. FIG. 11 is a second flowchart for explaining information presentation processing by the server 2 and the smart glasses 3B;
  • steps S41 to S54 shown in FIGS. 14 and 15 is the same as the processing of steps S1 to S14 shown in FIGS. 5 and 6, so description thereof will be omitted.
  • step S55 the first control unit 32B stores the delivery destination specific information received by the first communication unit 33B in a memory (not shown).
  • step S56 the first control unit 32B generates notification information for notifying the worker that there is delivery destination specific information.
  • step S57 the display unit 34 displays the notification information generated by the first control unit 32B as augmented reality.
  • the worker can recognize that there is the specific delivery destination information at the time of carrying the package.
  • the notification information may be displayed for a predetermined period of time (for example, 5 seconds).
  • FIG. 16 is a diagram showing an example of notification information displayed on the display unit 34 of the smart glasses 3B in the third embodiment.
  • the notification information 611 shown in FIG. 16 expresses in characters that there is delivery destination specific information when the person is absent.
  • the notification information 611 is displayed as augmented reality in the real environment viewed by the worker. Therefore, by looking at the notification information 611, the worker can know that there is delivery destination unique information when the recipient is absent.
  • step S58 the first control unit 32B determines whether the recipient at the delivery destination is absent. At this time, when the first communication unit 33B receives the output notice of the absence contact form, the first control unit 32B determines that the recipient at the delivery destination is absent. Further, when the first communication unit 33B does not receive the output notice of the absence contact form, the first control unit 32B determines that there is a recipient at the delivery destination.
  • step S58 if it is determined that the recipient at the delivery destination is not absent (NO in step S58), there is no need to present the delivery destination specific information to the worker, so the information presentation process ends.
  • step S59 the first control unit 32B acquires delivery destination specific information from a memory (not shown). The first control unit 32B outputs the acquired delivery destination unique information to the display unit 34 .
  • step S60 the display unit 34 displays the delivery destination specific information as augmented reality in the field of view of the worker.
  • the delivery destination unique information is presented to the worker at the timing when it is determined that the recipient at the delivery destination is absent, so the delivery destination unique information can be presented to the worker at the optimum timing.
  • notification information for notifying the worker that there is delivery destination specific information is displayed, but the present disclosure is not particularly limited to this, and even if the notification information is not displayed, good.
  • the first control unit 32B determines that the recipient at the delivery destination is absent.
  • the disclosure is not specifically limited in this respect.
  • the first control unit 32B may recognize, from the image captured by the camera 31, that the worker has pressed the intercom of the delivery destination by image recognition processing. If the person is not recognized by the image recognition processing even after a predetermined period of time or more has passed since the worker pressed the intercom at the delivery destination, the first control unit 32B determines that the recipient at the delivery destination is absent. It may be determined that there is Also, the smart glasses 3B may further include a microphone. The first control unit 32B may detect that the worker has pressed the intercom at the delivery destination by recognizing the sound acquired by the microphone.
  • FIG. 17 is a diagram showing an example of the configuration of a delivery system according to Embodiment 4 of the present disclosure.
  • the delivery system shown in FIG. 17 includes a first terminal 1, a delivery management server 2C and smart glasses 3.
  • a delivery management server 2C includes a delivery management server 2C and smart glasses 3.
  • the same reference numerals are given to the same configurations as in the first embodiment, and the description thereof will be omitted.
  • the delivery management server 2C includes a second communication section 21, a memory 22C, and a second control section 23C.
  • the memory 22C stores delivery history information and delivery destination information.
  • the delivery destination information in the fourth embodiment is information in which a delivery destination ID, delivery destination unique information, and an update date and time when the delivery destination unique information is updated are associated with each other.
  • the second control unit 23C confirms that the current worker ID and the previous worker ID received match, and the update date and time corresponding to the delivery destination ID corresponds to the delivery destination ID in the extracted delivery history information. If it is later than the date and time of the previous delivery to the delivery destination, the delivery destination specific information corresponding to the delivery destination ID is extracted from the memory 22C.
  • the second control unit 23C adds the update date and time corresponding to the delivery destination ID to the delivery destination ID in the extracted delivery history information. It is determined whether or not it is later than the date and time of the previous delivery to the corresponding delivery destination. Then, if the update date and time corresponding to the delivery destination ID is later than the date and time of the previous delivery to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information, the second control unit 23C updates the delivery destination ID.
  • the delivery destination specific information to be delivered is extracted from the memory 22C.
  • the second control unit 23C performs the delivery corresponding to the delivery destination ID.
  • the destination unique information is not extracted from the memory 22C.
  • FIG. 18 is a diagram showing an example of delivery destination information in the fourth embodiment.
  • the delivery destination information shown in FIG. 18 associates the delivery destination ID, the unique delivery destination information, and the update date and time.
  • the delivery destination ID and the delivery destination unique information are the same as in Embodiment 1, but each delivery destination ID is associated with the update date and time when the delivery destination unique information was updated.
  • FIG. 19 is a first flowchart for explaining information presentation processing by the delivery management server 2C and the smart glasses 3 according to Embodiment 4 of the present disclosure
  • FIG. 10 is a second flowchart for explaining information presentation processing by the server 2C and the smart glasses 3;
  • steps S71 to S80 shown in FIGS. 19 and 20 is the same as the processing of steps S1 to S10 shown in FIGS. 5 and 6, so description thereof will be omitted.
  • step S81 the second control unit 23C determines whether or not the current worker ID received by the second communication unit 21 matches the previous worker ID included in the delivery history information. do.
  • step S82 the second control unit 23C generates a delivery destination unique ID corresponding to the delivery destination ID. It is determined whether or not the updated date and time of the information is later than the date and time of the previous delivery to the delivery destination corresponding to the delivery destination ID in the extracted delivery history information.
  • step S82 it is not necessary to present the delivery destination unique information to the worker, so the information presenting process ends.
  • step S82 if it is determined that the update date and time of the delivery destination specific information is later than the previous delivery date and time (YES in step S82), or if the current worker ID and the previous worker ID do not match, If determined (NO in step S81), the second control unit 23C extracts the delivery destination specific information corresponding to the delivery destination ID from the memory 22 in step S83.
  • steps S84 to S86 shown in FIG. 20 is the same as the processing of steps S13 to S15 shown in FIG. 6, so description thereof will be omitted.
  • the display unit 34 displays the delivery destination specific information in Embodiments 1 to 4, the present disclosure is not particularly limited to this.
  • the smart glasses 3, 3B may have speakers, and the first control units 32, 32B may output the delivery destination specific information to the speakers.
  • the speaker may audibly output the delivery destination specific information.
  • the first control units 32 and 32B may stop outputting the delivery destination unique information when a predetermined time has elapsed after outputting the delivery destination unique information.
  • the first control units 32 and 32B after outputting the delivery destination specific information, identify the package to be worked on by the worker and the hand of the worker. You may recognize by image recognition processing. Then, the first control units 32 and 32B may determine whether or not the worker has let go of the load based on the recognized positional relationship between the load and the hand. At this time, the first control unit 32, 32B, if the recognized load is not located between the recognized position of the worker's right hand and the recognized position of the worker's left hand, It may be determined that the hand has been released. Then, the first control unit 32, 32B may stop outputting the delivery destination specific information when determining that the worker has released the package. As a result, the delivery destination specific information is no longer displayed on the display unit 34 .
  • each component may be implemented by dedicated hardware or by executing a software program suitable for each component.
  • Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
  • the program may be executed by another independent computer system by recording the program on a recording medium and transferring it, or by transferring the program via a network.
  • LSI Large Scale Integration
  • circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used.
  • a processor such as a CPU executing a program.
  • each step shown in the above flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and may be an order other than the above as long as the same effect can be obtained. . Also, some of the above steps may be executed concurrently (in parallel) with other steps.
  • the technology according to the present disclosure is unique to the delivery destination, and can present the delivery destination unique information only to the worker who needs the delivery destination unique information regarding delivery, thereby improving the work efficiency of the worker. Therefore, it is useful as a technique for assisting workers in delivering packages.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

配送管理サーバ(2)は、作業員の作業対象である荷物を識別するための荷物ID及び作業員を識別するための作業員IDをスマートグラス(3)から受信し、受信した荷物IDに対応する配送先IDの配送履歴情報を抽出し、受信した今回の作業員IDと、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の作業員IDと、前回の作業員IDとが一致しない場合、配送先IDに対応する配送先に固有であり、荷物の配送に関する配送先固有情報を抽出し、抽出した配送先固有情報をスマートグラス(3)に送信する。

Description

情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム
 本開示は、作業員による荷物の配送作業を支援する技術に関する。
 例えば、特許文献1において、スマートグラスは、カメラから取得した撮影画像に含まれる2次元コードから商品コードを読み取り、読み取った商品コード、作業種類及び作業者の作業者コードをサーバ装置に送信する。サーバ装置は、注意喚起テーブルを参照し、商品コード、作業種類及び習熟レベルの条件に合致するか否かを判定し、条件に合致する注意情報が記憶されている場合に、注意情報、期間及び出力タイミングを特定し、指示情報及び注意情報をスマートグラスに送信する。スマートグラスは、指示情報及び注意情報を受信すると、指示情報をディスプレイに表示するよう制御し、期間及び出力タイミングを参照し、適切なタイミングで注意情報をディスプレイに表示するよう制御する。
 しかしながら、上記従来の技術では、全ての作業者に一律に注意情報が提示されるので、注意情報が不要な作業者にも提示されることになり、更なる改善が必要とされていた。
特許第6696057号公報
 本開示は、上記の問題を解決するためになされたもので、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる技術を提供することを目的とするものである。
 本開示に係る情報処理システムは、作業員の頭部に装着されるウェアラブル装置と、前記ウェアラブル装置と通信可能に接続される配送管理サーバとを備える情報処理システムであって、前記ウェアラブル装置は、カメラと、第1制御部と、第1通信部とを備え、前記配送管理サーバは、第2制御部と、第2通信部と、メモリとを備え、前記カメラは、前記作業員の視界を撮影し、前記第1制御部は、前記カメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、前記第1通信部は、認識された前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記第2通信部は、前記第1通信部によって送信された前記荷物ID及び前記作業員IDを受信し、前記メモリは、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報と、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報とを記憶しており、前記第2制御部は、受信された前記荷物IDに対応する前記配送先IDの前記配送履歴情報を前記メモリから抽出し、受信された今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出し、前記第2通信部は、抽出された前記配送先固有情報を送信し、前記第1通信部は、前記第2通信部によって送信された前記配送先固有情報を受信し、前記第1制御部は、受信された前記配送先固有情報を出力する。
 本開示によれば、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる。
本開示の実施の形態1における配送システムの構成の一例を示す図である。 本開示の実施の形態1におけるスマートグラスの外観を示す図である。 本実施の形態1において、受信された荷物IDに対応する配送先IDの配送履歴情報の一例を示す図である。 本実施の形態1における配送先情報の一例を示す図である。 本開示の実施の形態1における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第1のフローチャートである。 本開示の実施の形態1における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第2のフローチャートである。 作業員が荷物を運ぼうとしている際にカメラによって撮影された画像の一例を示す図である。 荷物IDが認識される際にカメラによって撮影された画像の一例を示す図である。 本実施の形態1において、スマートグラスの表示部に表示される配送先固有情報の一例を示す図である。 本開示の実施の形態2における配送システムの構成の一例を示す図である。 本開示の実施の形態2における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第1のフローチャートである。 本開示の実施の形態2における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第2のフローチャートである。 本開示の実施の形態3における配送システムの構成の一例を示す図である。 本開示の実施の形態3における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第1のフローチャートである。 本開示の実施の形態3における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第2のフローチャートである。 本実施の形態3において、スマートグラスの表示部に表示される通知情報の一例を示す図である。 本開示の実施の形態4における配送システムの構成の一例を示す図である。 本実施の形態4における配送先情報の一例を示す図である。 本開示の実施の形態4における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第1のフローチャートである。 本開示の実施の形態4における配送管理サーバ及びスマートグラスによる情報提示処理について説明するための第2のフローチャートである。
 (本開示の基礎となった知見)
 上記の従来技術では、スマートグラスに設けられたカメラによって、作業者の視線方向の撮影画像が取得され、取得された撮影画像から荷物の商品コードが取得され、商品コードに対応する注意情報がスマートグラスに設けられたディスプレイに表示される。したがって、注意情報は、スマートグラスを装着した作業者に一律に提示される。しかしながら、注意情報をすでに把握している作業者に対する注意情報の提示は不要である。そのため、注意情報の確認が不要な作業者にとっては、スマートグラスに表示される注意情報が作業の妨げになるおそれがある。
 以上の課題を解決するために、下記の技術が開示される。
 (1)本開示の一態様に係る情報処理システムは、作業員の頭部に装着されるウェアラブル装置と、前記ウェアラブル装置と通信可能に接続される配送管理サーバとを備える情報処理システムであって、前記ウェアラブル装置は、カメラと、第1制御部と、第1通信部とを備え、前記配送管理サーバは、第2制御部と、第2通信部と、メモリとを備え、前記カメラは、前記作業員の視界を撮影し、前記第1制御部は、前記カメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、前記第1通信部は、認識された前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記第2通信部は、前記第1通信部によって送信された前記荷物ID及び前記作業員IDを受信し、前記メモリは、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報と、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報とを記憶しており、前記第2制御部は、受信された前記荷物IDに対応する前記配送先IDの前記配送履歴情報を前記メモリから抽出し、受信された今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出し、前記第2通信部は、抽出された前記配送先固有情報を送信し、前記第1通信部は、前記第2通信部によって送信された前記配送先固有情報を受信し、前記第1制御部は、受信された前記配送先固有情報を出力する。
 この構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが異なる場合、配送先に固有であり、荷物の配送に関する配送先固有情報が作業員に提示され、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じである場合、配送先固有情報が作業員に提示されない。したがって、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる。
 (2)上記(1)記載の情報処理システムにおいて、前記配送先固有情報は、前記配送先の受取人が不在であった場合の対処方法に関する情報であってもよい。
 この構成によれば、作業員は、提示された配送先固有情報を確認することで、配送先の受取人が不在であった場合にどのように対処すればよいかを知ることができる。そのため、再配送などの配送ロスを削減することができ、配送効率を向上させることができる。
 (3)上記(1)又は(2)記載の情報処理システムにおいて、前記第1制御部は、取得した前記画像から、前記作業員の作業対象である荷物と、前記作業員の手とを画像認識処理により認識し、認識した前記荷物と前記手との位置関係に基づいて、前記作業員が前記荷物を運ぼうとしている状態であるか否かを判定し、前記作業員が前記荷物を運ぼうとしている状態であると判定した場合、取得した前記画像から、前記荷物IDを画像認識処理により認識してもよい。
 この構成によれば、カメラによって撮影された作業員の視界を示す画像から、作業員の作業対象である荷物と、作業員の手とが画像認識処理により認識され、認識された荷物と手との位置関係に基づいて、作業員が荷物を運ぼうとしている状態であるか否かが判定される。そして、作業員が荷物を運ぼうとしている状態であると判定された場合、画像から、荷物IDが画像認識処理により認識される。
 したがって、作業員が運ぼうとしている作業対象の荷物を特定することができ、特定した荷物の荷物IDを容易に取得することができる。
 (4)上記(1)~(3)のいずれか1つに記載の情報処理システムにおいて、前記第2制御部は、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致する場合、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した日から所定日数以上経過しているか否かを判定し、前回配送した日から所定日数以上経過している場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出してもよい。
 例えば、前回配送してから長期間が経過している作業員は、配送先の配送先固有情報を忘れているおそれがある。しかしながら、この構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じであっても、作業員が前回配送した日から現在まで所定日数以上経過している場合、配送先固有情報が作業員に提示される。これにより、前回配送してから長期間が経過している場合であっても、作業員は、配送先固有情報を確認することができ、再配送などの配送ロスを削減することができ、配送効率を向上させることができる。
 (5)上記(1)~(3)のいずれか1つに記載の情報処理システムにおいて、前記第2制御部は、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致する場合、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に過去に配送した回数が所定回数以内であるか否かを判定し、過去に配送した回数が所定回数以内である場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出してもよい。
 例えば、配送先への配送回数が少ない作業員は、配送先の配送先固有情報を覚えていないおそれがある。しかしながら、この構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じであっても、作業員が過去に配送した回数が所定回数以内である場合、配送先固有情報が作業員に提示される。これにより、配送先への配送回数が少ない場合であっても、作業員は、配送先固有情報を確認することができ、再配送などの配送ロスを削減することができ、配送効率を向上させることができる。
 (6)上記(1)~(5)のいずれか1つに記載の情報処理システムにおいて、前記第1制御部は、前記配送先固有情報が受信された後、前記配送先の受取人が不在であるか否かを判定し、前記配送先の前記受取人が不在である場合、受信された前記配送先固有情報を出力してもよい。
 この構成によれば、配送先固有情報が受信された後、配送先の受取人が不在であるか否かが判定される。そして、配送先の受取人が不在である場合、受信された配送先固有情報が出力される。したがって、配送先の受取人が不在であると判定されたタイミングで、作業員に配送先固有情報が提示されるので、配送先固有情報を最適なタイミングで作業員に提示することができる。
 (7)上記(6)記載の情報処理システムにおいて、前記情報処理システムは、前記ウェアラブル装置と通信可能に接続され、前記配送先の受取人が不在であったため前記作業員が前記荷物を持ち帰ることを前記受取人に連絡するための不在連絡票を出力する情報端末をさらに備え、前記情報端末は、前記不在連絡票を出力した場合に、不在連絡票出力通知を前記ウェアラブル装置に送信し、前記第1通信部は、前記情報端末によって送信された前記不在連絡票出力通知を受信し、前記第1制御部は、前記第1通信部によって前記不在連絡票出力通知が受信された場合、前記配送先の前記受取人が不在であると判定してもよい。
 この構成によれば、情報端末は、配送先の受取人が不在であったため作業員が荷物を持ち帰ることを受取人に連絡するための不在連絡票を出力した場合に、不在連絡票出力通知をウェアラブル装置に送信する。ウェアラブル装置は、情報端末によって送信された不在連絡票出力通知が受信された場合、配送先の受取人が不在であると判定する。
 したがって、不在連絡票が出力されたタイミングで、配送先固有情報を作業員に提示することができる。
 (8)上記(1)~(7)のいずれか1つに記載の情報処理システムにおいて、前記配送先情報の前記配送先IDと前記配送先固有情報とには、前記配送先固有情報が更新された更新日時がさらに対応付けられており、前記第2制御部は、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致し、且つ、前記配送先IDに対応する前記更新日時が、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した日時よりも後である場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出してもよい。
 この構成によれば、今回の作業員IDと、前回の作業員IDとが一致したとしても、作業員が配送先に前回訪れてから現在までの間に、配送先固有情報が更新されていた場合、更新された配送先固有情報が作業員に提示される。したがって、作業員は、最新の配送先固有情報を考慮して、荷物を配送することができる。
 (9)上記(1)~(8)のいずれか1つに記載の情報処理システムにおいて、前記ウェアラブル装置は、表示部をさらに備え、前記第1制御部は、前記配送先固有情報を前記表示部に出力し、前記表示部は、前記作業員の視界に前記配送先固有情報を拡張現実として表示してもよい。
 この構成によれば、配送先固有情報が表示部に出力され、表示部によって、作業員の視界に配送先固有情報が拡張現実として表示されるので、作業員は荷物を運びながら配送先固有情報を確認することができる。
 (10)本開示の他の態様に係る配送管理方法は、作業員の頭部に装着されるウェアラブル装置と通信可能に接続される配送管理サーバにおける配送管理方法であって、前記作業員の視界を撮影するカメラによって撮影された画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信するウェアラブル装置から前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を前記ウェアラブル装置に送信する。
 この構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが異なる場合、配送先に固有であり、荷物の配送に関する配送先固有情報が作業員に提示され、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じである場合、配送先固有情報が作業員に提示されない。したがって、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる。
 (11)本開示の他の態様に係るウェアラブル装置は、作業員の頭部に装着されるウェアラブル装置であって、カメラと、制御部と、通信部と、を備え、前記カメラは、前記作業員の視界を撮影し、前記制御部は、前記カメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、前記通信部は、認識された前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、前記制御部は、受信された前記配送先固有情報を出力する。
 この構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが異なる場合、配送先に固有であり、荷物の配送に関する配送先固有情報が作業員に提示され、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じである場合、配送先固有情報が作業員に提示されない。したがって、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる。
 また、本開示は、以上のような特徴的な構成を備えるウェアラブル装置として実現することができるだけでなく、ウェアラブル装置が備える特徴的な構成に対応する特徴的な処理を実行する情報処理方法などとして実現することもできる。また、このような情報処理方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現することもできる。したがって、以下の他の態様でも、上記のウェアラブル装置と同様の効果を奏することができる。
 (12)本開示の他の態様に係る情報処理方法は、作業員の頭部に装着されるウェアラブル装置における情報処理方法であって、前記作業員の視界を撮影するカメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、受信した前記配送先固有情報を出力する。
 (13)本開示の他の態様に係る情報処理プログラムは、作業員の視界を撮影するカメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、受信した前記配送先固有情報を出力するようにコンピュータを機能させる。
 (14)本開示の他の態様に係る情報処理プログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体は、作業員の視界を撮影するカメラによって撮影された画像を取得し、取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信し、前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、受信した前記配送先固有情報を出力するようにコンピュータを機能させる。
 以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
 (実施の形態1)
 図1は、本開示の実施の形態1における配送システムの構成の一例を示す図であり、図2は、本開示の実施の形態1におけるスマートグラス3の外観を示す図である。図1に示す配送システムは、第1端末1、配送管理サーバ2及びスマートグラス3を備える。
 第1端末1は、例えば、スマートフォン、タブレット型コンピュータ、又はパーソナルコンピュータであり、荷物の受取人によって用いられる。第1端末1は、第3制御部11、タッチパネル12及び第3通信部13を備える。
 第3制御部11は、例えば、中央演算処理装置(CPU)であり、第1端末1全体を制御する。第3制御部11は、配送先に固有であり、荷物の配送に関する配送先固有情報の入力を受け付けるための固有情報入力画面をタッチパネル12に表示させる。配送先固有情報は、例えば、配送先の受取人が不在であった場合の対処方法に関する情報である。より具体的には、配送先固有情報は、例えば、受取人が不在であった場合に荷物を置く場所を示す情報である。なお、配送先固有情報の詳細については、後述される。
 タッチパネル12は、種々の情報を表示するとともに、受取人による入力操作を受け付ける。タッチパネル12は、固有情報入力画面において、受取人による配送先固有情報の入力を受け付ける。受取人は、配送先固有情報をタッチパネル12に入力する。
 第3通信部13は、タッチパネル12によって配送先固有情報の入力が受け付けられた場合、配送先を識別するための配送先ID及び配送先固有情報を配送管理サーバ2へ送信する。なお、第1端末1は、不図示のメモリを備える。不図示のメモリは、配送先IDを予め記憶している。
 スマートグラス3は、作業員の頭部に装着される眼鏡型のウェアラブル装置である。ここで、作業員は、荷物を配送先に届ける作業を行う。作業員は、スマートグラス3を頭部に装着して作業を行う。
 図1及び図2に示すスマートグラス3は、カメラ31、第1制御部32、第1通信部33及び表示部34を備える。
 カメラ31は、作業員の視界を撮影する。カメラ31は、スマートグラス3の本体の右側に設けられており、スマートグラス3を装着した作業員の前方を撮影する。カメラ31の画角及び焦点距離は、作業員の視界と実質的に同じになるように設定されている。そのため、カメラ31によって取得された画像は、作業員が肉眼で見る風景と実質的に同じになる。カメラ31は、撮影した画像を第1制御部32へ出力する。
 第1制御部32は、カメラ31によって撮影された画像を取得する。第1制御部32は、取得した画像から、作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識する。
 より具体的には、第1制御部32は、取得した画像から、作業員の作業対象である荷物と、作業員の手とを画像認識処理により認識する。第1制御部32は、認識した荷物と手との位置関係に基づいて、作業員が荷物を運ぼうとしている状態であるか否かを判定する。このとき、第1制御部32は、認識した作業員の右手の位置と、認識した作業員の左手の位置との間に、認識した荷物が位置している場合、作業員が荷物を運ぼうとしている状態であると判定する。作業員が運ぼうとしている荷物は、作業員の作業対象の荷物であり、作業員が運搬を開始した荷物である。
 第1制御部32は、作業員が荷物を運ぼうとしている状態であると判定した場合、取得した画像から、荷物を識別するための荷物IDを画像認識処理により認識する。このとき、第1制御部32は、認識した作業員の右手の位置と、認識した作業員の左手の位置との間にある荷物の荷物IDを認識する。
 第1通信部33は、第1制御部32によって認識された荷物IDと、作業員を識別するための作業員IDとを配送管理サーバ2に送信する。なお、スマートグラス3は、不図示のメモリを備える。不図示のメモリは、作業員IDを予め記憶している。なお、カメラ31は、作業員IDを示すバーコード又は2次元コードを撮影し、第1制御部32は、撮影した画像に含まれるバーコード又は2次元コードから作業員IDを読み取ってもよい。
 また、第1通信部33は、配送管理サーバ2によって送信された配送先固有情報を受信する。第1制御部32は、第1通信部33によって受信された配送先固有情報を出力する。このとき、第1制御部32は、配送先固有情報を表示部34に出力する。
 表示部34は、光透過型のディスプレイであり、作業員の視界に配送先固有情報を拡張現実として表示する。表示部34は、例えば、スマートグラス3を装着した作業員の右目の前方に配送先固有情報を表示する。
 配送管理サーバ2は、荷物の配送状況を管理する。配送管理サーバ2は、第1端末1及びスマートグラス3のそれぞれとネットワーク4を介して互いに通信可能に接続されている。ネットワーク4は、例えばインターネットである。
 配送管理サーバ2は、第2通信部21、メモリ22及び第2制御部23を備える。
 第2通信部21は、第1端末1によって送信された配送先ID及び配送先固有情報を受信する。また、第2通信部21は、スマートグラス3によって送信された荷物ID及び作業員IDを受信する。
 メモリ22は、例えば、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリ等の各種情報を記憶可能な記憶装置である。メモリ22は、配送履歴情報及び配送先情報を記憶する。
 配送履歴情報は、荷物IDと、荷物の配送先を識別するための配送先IDと、配送先に荷物を届けた作業員を識別するための作業員IDと、荷物を配送した日時とを対応付けた情報である。配送先情報は、配送先IDと、配送先に固有であり、荷物の配送に関する配送先固有情報とを対応付けた情報である。
 第2制御部23は、第2通信部21によって受信された配送先IDと配送先固有情報とを対応付けた配送先情報をメモリ22に記憶する。
 第2制御部23は、第2通信部21によって受信された荷物IDに対応する配送先IDの配送履歴情報をメモリ22から抽出する。第2制御部23は、第2通信部21によって受信された今回の作業員IDと、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した作業員の作業員IDとが一致するか否かを判定する。第2制御部23は、第2通信部21によって受信された今回の作業員IDと、前回の作業員IDとが一致しない場合、配送先IDに対応する配送先固有情報をメモリ22から抽出する。第2制御部23は、第2通信部21によって受信された今回の作業員IDと、前回の作業員IDとが一致する場合、配送先IDに対応する配送先固有情報をメモリ22から抽出しない。
 第2通信部21は、第2制御部23によって抽出された配送先固有情報をスマートグラス3に送信する。
 図3は、本実施の形態1において、受信された荷物IDに対応する配送先IDの配送履歴情報の一例を示す図である。
 図3に示す配送履歴情報は、配送先を識別するための配送先IDと、荷物を識別するための荷物IDと、配送状況を示す配送ステータスと、荷物を配送した作業員を識別するための作業員IDと、荷物を配送した配送日時と、荷物の宛名を示す宛名情報と、荷物の宛先を示す宛先情報とを対応付けている。図3に示す配送履歴情報は、上から新しい順に並んでいる。最も上にある配送履歴情報は、今回配送される荷物に対応しており、上から2番目にある配送履歴情報は、前回配送された荷物に対応している。
 例えば、スマートグラス3から受信した荷物IDが「7890-1234-56」であり、この荷物IDに対応する配送先IDが「378087」である場合、この配送先IDの配送履歴情報がメモリ22から抽出される。そして、スマートグラス3から受信した今回の作業員IDと、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した作業員の作業員IDとが一致するか否かが判定される。今回の作業員IDが「549」である場合、前回の作業員IDは「549」であるので、第2制御部23は、受信された今回の作業員IDと、前回の作業員IDとが一致すると判定する。また、今回の作業員IDが「549」ではない場合、第2制御部23は、受信された今回の作業員IDと、前回の作業員IDとが一致しないと判定する。
 図4は、本実施の形態1における配送先情報の一例を示す図である。
 図4に示す配送先情報は、配送先IDと、配送先固有情報とを対応付けている。
 「378087」及び「378088」の配送先IDには、受取人が不在である場合の対処方法を示す配送先固有情報が対応付けられている。「378087」の配送先IDに対応付けられている配送先固有情報は、受取人が不在である場合に荷物を置く場所を示している。「378088」の配送先IDに対応付けられている配送先固有情報は、受取人が不在である場合に確認すべき人を示している。
 また、「378089」、「378090」及び「378091」の配送先IDには、受取人に対する荷物の配送方法を示す配送先固有情報が対応付けられている。「378089」の配送先IDに対応付けられている配送先固有情報は、配送先に複数の玄関がある場合の荷物の配送方法を示している。「378090」の配送先IDに対応付けられている配送先固有情報は、所定の時間帯における荷物の配送方法を示している。「378091」の配送先IDに対応付けられている配送先固有情報は、受取人の在宅率が高い時間帯を示している。
 なお、図4に示す配送先固有情報は一例であり、本開示は、これらの配送先固有情報に限定されない。
 続いて、本開示の実施の形態1における配送管理サーバ2及びスマートグラス3による情報提示処理について説明する。
 図5は、本開示の実施の形態1における配送管理サーバ2及びスマートグラス3による情報提示処理について説明するための第1のフローチャートであり、図6は、本開示の実施の形態1における配送管理サーバ2及びスマートグラス3による情報提示処理について説明するための第2のフローチャートである。
 まず、ステップS1において、カメラ31は、作業員の視界を撮影する。作業員の作業中において、カメラ31は、作業員の視界を継続して撮影する。
 次に、ステップS2において、第1制御部32は、カメラ31が作業員の視界を撮影することによって得られた画像をカメラ31から取得する。
 次に、ステップS3において、第1制御部32は、取得した画像から、作業員の作業対象である荷物と、作業員の左手と、作業員の右手とを画像認識処理により認識する。
 図7は、作業員が荷物を運ぼうとしている際にカメラ31によって撮影された画像の一例を示す図である。
 作業員は、荷物を運ぶ際に、荷物を両手で把持する。このとき、荷物の上面には、作業員の左手の親指と、右手の親指とが載っており、作業員の左手と右手との間に荷物がある。すなわち、作業員の右手の位置と、作業員の左手の位置との間に、荷物が位置している場合、作業員が荷物を運ぼうとしている状態であると判定することができる。
 第1制御部32は、カメラ31によって撮影された画像から、作業員の作業対象である荷物と、作業員の左手と、作業員の右手とを認識する。図7では、画像501から認識された荷物が矩形状の枠線511で表され、画像501から認識された作業員の左手が矩形状の枠線521で表され、画像501から認識された作業員の右手が矩形状の枠線522で表されている。
 第1制御部32は、画像から荷物、作業員の左手及び作業員の右手をそれぞれ認識するように機械学習された画像認識モデルを用いて、画像認識処理を行う。第1制御部32は、カメラ31によって撮影された画像を、機械学習された画像認識モデルに入力し、画像認識モデルから認識結果を取得する。認識結果は、画像上の荷物の位置、作業員の左手の位置及び作業員の右手の位置を表す。
 なお、機械学習としては、例えば、入力情報に対してラベル(出力情報)が付与された教師データを用いて入力と出力との関係を学習する教師あり学習、ラベルのない入力のみからデータの構造を構築する教師なし学習、ラベルありとラベルなしとのどちらも扱う半教師あり学習、報酬を最大化する行動を試行錯誤により学習する強化学習なども挙げられる。また、機械学習の具体的な手法としては、ニューラルネットワーク(多層のニューラルネットワークを用いた深層学習を含む)、遺伝的プログラミング、決定木、ベイジアン・ネットワーク、又はサポート・ベクター・マシン(SVM)などが存在する。画像認識モデルの機械学習においては、以上で挙げた具体例のいずれかを用いればよい。
 また、第1制御部32は、パターンマッチングにより、画像から荷物、作業員の左手及び作業員の右手をそれぞれ認識してもよい。
 図5に戻って、次に、ステップS4において、第1制御部32は、画像から荷物、作業員の左手及び作業員の右手の全てが認識されたか否かを判定する。ここで、画像から荷物、作業員の左手及び作業員の右手のいずれか1つが認識されたと判定された場合、画像から荷物、作業員の左手及び作業員の右手のいずれか2つが認識されたと判定された場合、又は画像から荷物、作業員の左手及び作業員の右手の全てが認識されていないと判定された場合(ステップS4でNO)、ステップS1に処理が戻る。
 一方、画像から荷物、作業員の左手及び作業員の右手の全てが認識されたと判定された場合(ステップS4でYES)、ステップS5において、第1制御部32は、作業員が荷物を運ぼうとしている状態であるか否かを判定する。このとき、第1制御部32は、認識した作業員の右手の位置と、認識した作業員の左手の位置との間に、認識した荷物が位置している場合、作業員が荷物を運ぼうとしている状態であると判定する。図7に示す画像501では、作業員の右手の位置と、作業員の左手の位置との間に、荷物が位置しているため、作業員が荷物を運ぼうとしている状態であると判定される。一方、第1制御部32は、認識した作業員の右手の位置と、認識した作業員の左手の位置との間に、認識した荷物が位置していない場合、作業員が荷物を運ぼうとしている状態ではないと判定する。
 ここで、作業員が荷物を運ぼうとしている状態ではないと判定された場合(ステップS5でNO)、ステップS1に処理が戻る。
 一方、作業員が荷物を運ぼうとしている状態であると判定された場合(ステップS5でYES)、ステップS6において、第1制御部32は、取得した画像から、荷物を識別するための荷物IDを画像認識処理により認識する。
 図8は、荷物IDが認識される際にカメラ31によって撮影された画像の一例を示す図である。
 荷物の上面には、荷物IDを示すバーコードが貼り付けられている。第1制御部32は、カメラ31によって撮影された画像から、作業員が運ぼうとしている荷物、すなわち、作業対象の荷物のバーコードを認識し、認識したバーコードから荷物IDを読み取ることにより、荷物IDを認識する。図8では、画像501から認識された荷物IDを示すバーコードが矩形状の枠線531で表されている。
 なお、本実施の形態1では、荷物IDはバーコードで示されているが、本開示は特にこれに限定されず、荷物IDは2次元コードで示されてもよい。この場合、第1制御部32は、カメラ31によって撮影された画像から、2次元コードを認識し、認識した2次元コードから荷物IDを読み取ることにより、荷物IDを認識してもよい。
 図5に戻って、次に、ステップS7において、第1制御部32は、画像から荷物IDが認識されたか否かを判定する。ここで、画像から荷物IDが認識されていないと判定された場合(ステップS7でNO)、ステップS1に処理が戻る。
 一方、画像から荷物IDが認識されたと判定された場合(ステップS7でYES)、図6のステップS8において、第1通信部33は、第1制御部32によって認識された荷物ID及び作業員を識別するための作業員IDを配送管理サーバ2に送信する。第1制御部32は、不図示のメモリに記憶された作業員IDを読み出す。
 次に、ステップS9において、配送管理サーバ2の第2通信部21は、スマートグラス3によって送信された荷物ID及び作業員IDを受信する。
 次に、ステップS10において、第2制御部23は、第2通信部21によって受信された荷物IDに対応する配送先IDの配送履歴情報をメモリ22から抽出する。
 次に、ステップS11において、第2制御部23は、第2通信部21によって受信された今回の作業員IDと、配送履歴情報に含まれる前回の作業員IDとが一致するか否かを判定する。ここで、今回の作業員IDと、前回の作業員IDとが一致すると判定された場合(ステップS11でYES)、作業員に配送先固有情報を提示する必要がないため、情報提示処理が終了する。
 一方、今回の作業員IDと、前回の作業員IDとが一致しないと判定された場合(ステップS11でNO)、ステップS12において、第2制御部23は、配送先IDに対応する配送先固有情報をメモリ22から抽出する。
 次に、ステップS13において、第2通信部21は、第2制御部23によって抽出された配送先固有情報をスマートグラス3に送信する。
 次に、ステップS14において、スマートグラス3の第1通信部33は、配送管理サーバ2によって送信された配送先固有情報を受信する。第1制御部32は、受信された配送先固有情報を表示部34に出力する。
 次に、ステップS15において、表示部34は、作業員の視界に配送先固有情報を拡張現実として表示する。
 図9は、本実施の形態1において、スマートグラス3の表示部34に表示される配送先固有情報の一例を示す図である。
 図9に示す配送先固有情報601は、受取人が不在である場合はガスメータの下に荷物を置くことを文字で表している。配送先固有情報601は、作業員が見ている現実環境に拡張現実として表示される。そのため、作業員は、配送先固有情報601を見ることにより、受取人が不在である場合に荷物を置く場所を知ることができる。
 このように、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが異なる場合、配送先に固有であり、荷物の配送に関する配送先固有情報が作業員に提示され、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じである場合、配送先固有情報が作業員に提示されない。したがって、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができる。
 なお、本実施の形態1では、受取人が所有する第1端末1が、受取人による配送先固有情報の入力を受け付け、入力された配送先固有情報を配送管理サーバ2に送信しているが、本開示は特にこれに限定されない。作業員が所有する第2端末が、作業員による配送先固有情報の入力を受け付け、入力された配送先固有情報を配送管理サーバ2に送信してもよい。第2端末は、例えば、スマートフォン、タブレット型コンピュータ、又は配送作業に特化した組み込み端末である。すなわち、特定の配送先に荷物を配送したことのあるベテランの作業員であれば、特定の配送先に固有の配送先固有情報を把握している可能性がある。そのため、ベテランの作業員の知識を配送先固有情報として利用することができる。
 また、本実施の形態1では、図6のステップS11において今回の作業員IDと、前回の作業員IDとが一致すると判定された場合、配送先固有情報が送信されることなく、情報提示処理が終了しているが、本開示は特にこれに限定されない。今回の作業員IDと、前回の作業員IDとが一致すると判定された場合、第2制御部23は、配送先固有情報を提示するか否かを作業員に確認するための提示確認情報を生成し、生成した提示確認情報を第2通信部21に送信させてもよい。スマートグラス3の第1制御部32は、第1通信部33によって提示確認情報が受信されると、受信された提示確認情報を表示部34に拡張現実として表示させてもよい。
 この場合、表示部34は、配送先固有情報を表示するか否かを作業員に確認するためのメッセージを表示し、配送先固有情報を表示するか否かの作業員による選択を受け付けてもよい。例えば、表示部34は、「配送先固有情報を表示しますか。」というメッセージと、配送先固有情報の表示を選択するための第1ボタン画像と、配送先固有情報の表示を拒否するための第2ボタン画像とを含む提示確認画像を拡張現実として表示してもよい。
 第1制御部32は、配送先固有情報の表示が作業員により選択されたか否かを判定する。作業員は、配送先固有情報の表示を希望する場合、表示部34に拡張現実として表示されている提示確認画像の第1ボタン画像に、自身の指を重ねる。また、作業員は、配送先固有情報の表示を希望しない場合、表示部34に拡張現実として表示されている提示確認画像の第2ボタン画像に、自身の指を重ねる。第1制御部32は、カメラ31によって撮影された画像上において、提示確認画像の第1ボタン画像及び第2ボタン画像が表示されている位置を認識している。第1制御部32は、カメラ31によって撮影された画像から、作業員の指を認識し、作業員の指が第1ボタン画像及び第2ボタン画像のいずれを選択しているのかを判定する。
 なお、スマートグラス3が、作業員の視線方向を検出する視線方向検出部をさらに備えている場合、第1制御部32は、視線方向検出部によって検出された視線方向が、第1ボタン画像及び第2ボタン画像のいずれと一致するかを判定し、作業員が第1ボタン画像及び第2ボタン画像のいずれを選択しているのかを判定してもよい。
 また、スマートグラス3が、作業員の両目のまぶたの動きを検出するまぶた検出部をさらに備えてもよい。この場合、第1制御部32は、まぶた検出部によって右目のまぶたが所定回数(例えば、2回)以上閉じられたことを検出すると、作業員が第1ボタン画像を選択したと判定し、まぶた検出部によって左目のまぶたが所定回数(例えば、2回)以上閉じられたことを検出すると、作業員が第2ボタン画像を選択したと判定してもよい。
 また、第1制御部32は、カメラ31によって撮影された画像から、作業員の手の動きを認識してもよい。この場合、第1制御部32は、作業員の肯定的な手の動きを認識すると、作業員が第1ボタン画像を選択したと判定し、作業員の否定的な手の動きを認識すると、作業員が第2ボタン画像を選択したと判定してもよい。肯定的な手の動きとは、例えば、作業員が両手又は片手の指で円の形を作るような動きである。否定的な手の動きとは、例えば、作業員が両手の指でXの形を作るような動き、又は片手を左右に振るような動きである。
 また、スマートグラス3が、作業員の頭の垂直方向(チルト方向)の動きを検出するとともに、作業員の頭の水平方向(パン方向)の動きを検出する動き検出部をさらに備えてもよい。この場合、第1制御部32は、動き検出部によって作業員の頭の垂直方向の動きが所定回数(例えば、2回)以上検出されると、作業員が第1ボタン画像を選択したと判定し、動き検出部によって作業員の頭の水平方向の動きが所定回数(例えば、2回)以上検出されると、作業員が第2ボタン画像を選択したと判定してもよい。
 また、スマートグラス3は、作業員による肯定的な回答の入力を受け付けるための第1ボタンと、作業員による否定的な回答の入力を受け付けるための第2ボタンとを備えてもよい。例えば、第1ボタンは、スマートグラス3のフレームの右側に配置され、第2ボタンは、スマートグラス3のフレームの左側に配置されてもよい。この場合、第1制御部32は、作業員によって第1ボタンが押下されると、作業員が第1ボタン画像を選択したと判定し、作業員によって第2ボタンが押下されると、作業員が第2ボタン画像を選択したと判定してもよい。
 これにより、今回の作業員IDと、前回の作業員IDとが一致する場合であっても、配送先固有情報を提示するか否かが作業員に確認されるので、長期間配送先へ荷物を届けていない場合、又は配送先への配送回数が少ない場合であっても、配送先固有情報を作業員に提示することができる。
 (実施の形態2)
 実施の形態1では、今回の作業員IDと、前回の作業員IDとが一致する場合、情報提示処理が終了しているが、実施の形態2では、今回の作業員IDと、前回の作業員IDとが一致する場合、抽出された配送履歴情報における配送先IDに対応する配送先に前回配送した日から所定日数以上経過しているか否かが判定されてもよい。
 図10は、本開示の実施の形態2における配送システムの構成の一例を示す図である。図10に示す配送システムは、第1端末1、配送管理サーバ2A及びスマートグラス3を備える。なお、本実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
 配送管理サーバ2Aは、第2通信部21、メモリ22及び第2制御部23Aを備える。
 第2制御部23Aは、第2通信部21によって受信された荷物IDに対応する配送先IDの配送履歴情報をメモリ22から抽出する。第2制御部23Aは、第2通信部21によって受信された今回の作業員IDと、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した作業員の作業員IDとが一致するか否かを判定する。第2制御部23Aは、第2通信部21によって受信された今回の作業員IDと、前回の作業員IDとが一致しない場合、配送先IDに対応する配送先固有情報をメモリ22から抽出する。
 第2制御部23Aは、受信された今回の前記作業員IDと、前回の前記作業員IDとが一致する場合、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日から所定日数以上経過しているか否かを判定する。第2制御部23Aは、前回配送した日から所定日数以上経過している場合、配送先IDに対応する配送先固有情報をメモリ22から抽出する。第2制御部23Aは、前回配送した日から所定日数以上経過していない場合、配送先IDに対応する配送先固有情報をメモリ22から抽出しない。
 続いて、本開示の実施の形態2における配送管理サーバ2A及びスマートグラス3による情報提示処理について説明する。
 図11は、本開示の実施の形態2における配送管理サーバ2A及びスマートグラス3による情報提示処理について説明するための第1のフローチャートであり、図12は、本開示の実施の形態2における配送管理サーバ2A及びスマートグラス3による情報提示処理について説明するための第2のフローチャートである。
 図11及び図12に示すステップS21~ステップS30の処理は、図5及び図6に示すステップS1~ステップS10の処理と同じであるので説明を省略する。
 次に、ステップS31において、第2制御部23Aは、第2通信部21によって受信された今回の作業員IDと、配送履歴情報に含まれる前回の作業員IDとが一致するか否かを判定する。ここで、今回の作業員IDと、前回の作業員IDとが一致すると判定された場合(ステップS31でYES)、ステップS32において、第2制御部23Aは、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日から所定日数以上経過しているか否かを判定する。
 ここで、配送先IDに対応する配送先に前回配送した日から所定日数以上経過していないと判定された場合(ステップS32でNO)、作業員に配送先固有情報を提示する必要がないため、情報提示処理が終了する。
 一方、配送先IDに対応する配送先に前回配送した日から所定日数以上経過していると判定された場合(ステップS32でYES)、又は今回の作業員IDと、前回の作業員IDとが一致しないと判定された場合(ステップS31でNO)、ステップS33において、第2制御部23Aは、配送先IDに対応する配送先固有情報をメモリ22から抽出する。
 なお、図12に示すステップS34~ステップS36の処理は、図6に示すステップS13~ステップS15の処理と同じであるので説明を省略する。
 例えば、前回配送してから長期間が経過している作業員は、配送先の配送先固有情報を忘れているおそれがある。しかしながら、本実施の形態2の構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じであっても、作業員が前回配送した日から現在まで所定日数以上経過している場合、配送先固有情報が作業員に提示される。これにより、前回配送してから長期間が経過している場合であっても、作業員は、配送先固有情報を確認することができ、再配送などの配送ロスを削減することができ、配送効率を向上させることができる。
 なお、前回配送した日からの経過日数と比較するための所定日数は、作業員毎に設定されてもよいし、作業員が勤務する会社又は事業所毎に設定されてもよいし、作業員が配送作業を担当している地域毎に設定されてもよい。また、作業員に対して記憶力に関するアンケートが行われてもよい。第2制御部23Aは、記憶力がよいと回答した作業員に設定される所定日数を、記憶力がよくないと回答した作業員に設定される所定日数よりも短くしてもよい。所定日数は、作業員IDに対応付けてメモリ22に記憶される。
 また、本実施の形態2において、第2制御部23Aは、受信された今回の作業員IDと、前回の作業員IDとが一致する場合、抽出した配送履歴情報における配送先IDに対応する配送先に過去に配送した回数が所定回数以内であるか否かを判定してもよい。そして、第2制御部23Aは、過去に配送した回数が所定回数以内である場合、配送先IDに対応する配送先固有情報をメモリ22から抽出してもよい。また、第2制御部23Aは、過去に配送した回数が所定回数より多い場合、配送先固有情報をメモリ22から抽出しなくてもよい。
 なお、過去に配送した回数と比較するための所定回数は、作業員毎に設定されてもよいし、作業員が勤務する会社又は事業所毎に設定されてもよいし、作業員が配送作業を担当している地域毎に設定されてもよい。また、作業員に対して記憶力に関するアンケートが行われてもよい。第2制御部23Aは、記憶力がよいと回答した作業員に設定される所定回数を、記憶力がよくないと回答した作業員に設定される所定回数よりも少なくしてもよい。所定回数は、作業員IDに対応付けてメモリ22に記憶される。
 例えば、配送先への配送回数が少ない作業員は、配送先の配送先固有情報を覚えていないおそれがある。しかしながら、本実施の形態2の変形例の構成によれば、今回荷物を配送先に配送する作業員と、前回荷物を配送先に配送した作業員とが同じであっても、作業員が過去に配送した回数が所定回数以内である場合、配送先固有情報が作業員に提示される。これにより、配送先への配送回数が少ない場合であっても、作業員は、配送先固有情報を確認することができ、再配送などの配送ロスを削減することができ、配送効率を向上させることができる。
 (実施の形態3)
 実施の形態1では、スマートグラスは、配送先固有情報を受信すると、受信した配送先固有情報を表示部に出力しているが、実施の形態3では、スマートグラスは、配送先固有情報を受信した後、配送先の受取人が不在であるか否かを判定し、配送先の受取人が不在である場合、受信した配送先固有情報を表示部に出力する。
 図13は、本開示の実施の形態3における配送システムの構成の一例を示す図である。図13に示す配送システムは、第1端末1、配送管理サーバ2、スマートグラス3B及び第2端末5を備える。
 第2端末5は、例えば、スマートフォン、タブレット型コンピュータ、又は配送作業に特化した組み込み端末であり、作業員によって用いられる。第2端末5は、スマートグラス3Bと通信可能に接続されている。第2端末5は、第4制御部51、タッチパネル52、第4通信部53及び印刷部54を備える。
 第2端末5は、配送先の受取人が不在であったため作業員が荷物を持ち帰ることを受取人に連絡するための不在連絡票を出力する。第2端末5は、情報端末の一例である。
 タッチパネル52は、作業員による不在連絡票の生成指示を受け付ける。作業員は、配送先の受取人が不在であった場合、タッチパネル52を用いて不在連絡票の生成指示を入力する。
 第4制御部51は、タッチパネル52によって不在連絡票の生成指示が受け付けられた場合、不在連絡票を生成する。例えば、不在連絡票は、荷物ID、作業員が配送先に訪れた日時、及び作業員の連絡先などを含む。第4制御部51は、生成した不在連絡票を印刷部54に出力する。また、第4制御部51は、不在連絡票を出力した場合に、不在連絡票出力通知を生成し、第4通信部53に出力する。
 第4通信部53は、第4制御部51によって生成された不在連絡票出力通知をスマートグラス3Bに出力する。
 印刷部54は、第4制御部51によって生成された不在連絡票を印刷する。作業員は、印刷された不在連絡票に、荷物を持ち帰ったこと、あるいは配送先固有情報に基づいて配送したことを示すなどして、配送先の郵便ポストに入れる。
 スマートグラス3Bは、カメラ31、第1制御部32B、第1通信部33B及び表示部34を備える。
 第1通信部33Bは、第2端末5によって送信された不在連絡票出力通知を受信する。
 第1制御部32Bは、配送先固有情報が受信された後、配送先の受取人が不在であるか否かを判定する。このとき、第1制御部32Bは、第1通信部33Bによって不在連絡票出力通知が受信された場合、配送先の受取人が不在であると判定する。第1制御部32Bは、配送先の受取人が不在である場合、受信された配送先固有情報を表示部34に出力する。
 また、第1制御部32Bは、配送先固有情報が受信された後、配送先固有情報を不図示のメモリに記憶する。そして、第1制御部32Bは、配送先固有情報があることを作業員に通知するための通知情報を生成し、生成した通知情報を表示部34に出力する。表示部34は、第1制御部32Bによって出力された通知情報を拡張現実として表示する。
 続いて、本開示の実施の形態3における配送管理サーバ2及びスマートグラス3Bによる情報提示処理について説明する。
 図14は、本開示の実施の形態3における配送管理サーバ2及びスマートグラス3Bによる情報提示処理について説明するための第1のフローチャートであり、図15は、本開示の実施の形態3における配送管理サーバ2及びスマートグラス3Bによる情報提示処理について説明するための第2のフローチャートである。
 図14及び図15に示すステップS41~ステップS54の処理は、図5及び図6に示すステップS1~ステップS14の処理と同じであるので説明を省略する。
 次に、ステップS55において、第1制御部32Bは、第1通信部33Bによって受信された配送先固有情報を不図示のメモリに記憶する。
 次に、ステップS56において、第1制御部32Bは、配送先固有情報があることを作業員に通知するための通知情報を生成する。
 次に、ステップS57において、表示部34は、第1制御部32Bによって生成された通知情報を拡張現実として表示する。これにより、作業員は、荷物を運ぼうとした時点で、配送先固有情報があることを認識することができる。なお、通知情報は、所定時間(例えば、5秒間)だけ表示してもよい。
 図16は、本実施の形態3において、スマートグラス3Bの表示部34に表示される通知情報の一例を示す図である。
 図16に示す通知情報611は、不在時の配送先固有情報があることを文字で表している。通知情報611は、作業員が見ている現実環境に拡張現実として表示される。そのため、作業員は、通知情報611を見ることにより、受取人が不在である場合の配送先固有情報があることを知ることができる。
 図15に戻って、次に、ステップS58において、第1制御部32Bは、配送先の受取人が不在であるか否かを判定する。このとき、第1制御部32Bは、第1通信部33Bによって不在連絡票出力通知が受信された場合、配送先の受取人が不在であると判定する。また、第1制御部32Bは、第1通信部33Bによって不在連絡票出力通知が受信されない場合、配送先の受取人がいると判定する。
 ここで、配送先の受取人が不在ではないと判定された場合(ステップS58でNO)、作業員に配送先固有情報を提示する必要がないため、情報提示処理が終了する。
 一方、配送先の受取人が不在であると判定された場合(ステップS58でYES)、ステップS59において、第1制御部32Bは、不図示のメモリから配送先固有情報を取得する。第1制御部32Bは、取得した配送先固有情報を表示部34に出力する。
 次に、ステップS60において、表示部34は、作業員の視界に配送先固有情報を拡張現実として表示する。
 このように、配送先固有情報が受信された後、配送先の受取人が不在であるか否かが判定される。そして、配送先の受取人が不在である場合、受信された配送先固有情報が出力される。したがって、配送先の受取人が不在であると判定されたタイミングで、作業員に配送先固有情報が提示されるので、配送先固有情報を最適なタイミングで作業員に提示することができる。
 なお、本実施の形態3では、配送先固有情報があることを作業員に通知するための通知情報が表示されるが、本開示は特にこれに限定されず、通知情報が表示されなくてもよい。
 また、本実施の形態3では、第1制御部32Bは、第2端末5からの不在連絡票出力通知が受信された場合、配送先の受取人が不在であると判定しているが、本開示は特にこれに限定されない。第1制御部32Bは、カメラ31によって撮影された画像から、作業員が配送先のインターホンを押したことを画像認識処理により認識してもよい。そして、第1制御部32Bは、作業員が配送先のインターホンを押したことが認識されてから所定時間以上経過しても人物が画像認識処理により認識されない場合、配送先の受取人が不在であると判定してもよい。また、スマートグラス3Bは、マイクロフォンをさらに備えてもよい。第1制御部32Bは、マイクロフォンによって取得された音を音声認識することにより、作業員が配送先のインターホンを押したことを検知してもよい。
 (実施の形態4)
 実施の形態1では、今回の作業員IDと、前回の作業員IDとが一致する場合、情報提示処理が終了しているが、実施の形態4では、今回の作業員IDと、前回の作業員IDとが一致する場合、配送先固有情報が更新された更新日時が、抽出された配送履歴情報における配送先IDに対応する配送先に前回配送した日時よりも後であるか否かが判定されてもよい。
 図17は、本開示の実施の形態4における配送システムの構成の一例を示す図である。図17に示す配送システムは、第1端末1、配送管理サーバ2C及びスマートグラス3を備える。なお、本実施の形態4において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
 配送管理サーバ2Cは、第2通信部21、メモリ22C及び第2制御部23Cを備える。
 メモリ22Cは、配送履歴情報及び配送先情報を記憶する。実施の形態4における配送先情報は、配送先IDと、配送先固有情報と、配送先固有情報が更新された更新日時とを対応付けた情報である。
 第2制御部23Cは、受信された今回の作業員IDと、前回の作業員IDとが一致し、且つ、配送先IDに対応する更新日時が、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日時よりも後である場合、配送先IDに対応する配送先固有情報をメモリ22Cから抽出する。
 すなわち、第2制御部23Cは、受信された今回の作業員IDと、前回の作業員IDとが一致する場合、配送先IDに対応する更新日時が、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日時よりも後であるか否かを判定する。そして、配送先IDに対応する更新日時が、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日時よりも後である場合、第2制御部23Cは、配送先IDに対応する配送先固有情報をメモリ22Cから抽出する。一方、配送先IDに対応する更新日時が、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日時以前である場合、第2制御部23Cは、配送先IDに対応する配送先固有情報をメモリ22Cから抽出しない。
 図18は、本実施の形態4における配送先情報の一例を示す図である。
 図18に示す配送先情報は、配送先IDと、配送先固有情報と、更新日時とを対応付けている。
 配送先ID及び配送先固有情報は、実施の形態1と同じであるが、各配送先IDには、配送先固有情報が更新された更新日時が対応付けられている。
 続いて、本開示の実施の形態4における配送管理サーバ2C及びスマートグラス3による情報提示処理について説明する。
 図19は、本開示の実施の形態4における配送管理サーバ2C及びスマートグラス3による情報提示処理について説明するための第1のフローチャートであり、図20は、本開示の実施の形態4における配送管理サーバ2C及びスマートグラス3による情報提示処理について説明するための第2のフローチャートである。
 図19及び図20に示すステップS71~ステップS80の処理は、図5及び図6に示すステップS1~ステップS10の処理と同じであるので説明を省略する。
 次に、ステップS81において、第2制御部23Cは、第2通信部21によって受信された今回の作業員IDと、配送履歴情報に含まれる前回の作業員IDとが一致するか否かを判定する。ここで、今回の作業員IDと、前回の作業員IDとが一致すると判定された場合(ステップS81でYES)、ステップS82において、第2制御部23Cは、配送先IDに対応する配送先固有情報の更新日時が、抽出した配送履歴情報における配送先IDに対応する配送先に前回配送した日時よりも後であるか否かを判定する。
 ここで、配送先固有情報の更新日時が、前回配送した日時よりも後ではないと判定された場合、すなわち、配送先固有情報の更新日時が、前回配送した日時以前であると判定された場合(ステップS82でNO)、作業員に配送先固有情報を提示する必要がないため、情報提示処理が終了する。
 一方、配送先固有情報の更新日時が、前回配送した日時よりも後であると判定された場合(ステップS82でYES)、又は今回の作業員IDと、前回の作業員IDとが一致しないと判定された場合(ステップS81でNO)、ステップS83において、第2制御部23Cは、配送先IDに対応する配送先固有情報をメモリ22から抽出する。
 なお、図20に示すステップS84~ステップS86の処理は、図6に示すステップS13~ステップS15の処理と同じであるので説明を省略する。
 このように、今回の作業員IDと、前回の作業員IDとが一致したとしても、作業員が配送先に前回訪れてから現在までの間に、配送先固有情報が更新されていた場合、配送先固有情報が作業員に提示される。したがって、作業員は、最新の配送先固有情報を考慮して、荷物を配送することができる。
 なお、本実施の形態1~4において、表示部34が配送先固有情報を表示しているが、本開示は特にこれに限定されない。スマートグラス3,3Bは、スピーカを備えてもよく、第1制御部32,32Bは、配送先固有情報をスピーカに出力してもよい。スピーカは、配送先固有情報を音声出力してもよい。
 また、本実施の形態1~4において、第1制御部32,32Bは、配送先固有情報を出力してから所定の時間が経過した場合、配送先固有情報の出力を停止してもよい。
 また、本実施の形態1~4において、第1制御部32,32Bは、配送先固有情報を出力した後、取得した画像から、作業員の作業対象である荷物と、作業員の手とを画像認識処理により認識してもよい。そして、第1制御部32,32Bは、認識した荷物と手との位置関係に基づいて、作業員が荷物から手を離したか否かを判定してもよい。このとき、第1制御部32,32Bは、認識した作業員の右手の位置と、認識した作業員の左手の位置との間に、認識した荷物が位置していない場合、作業員が荷物から手を離したと判定してもよい。そして、第1制御部32,32Bは、作業員が荷物から手を離したと判定した場合、配送先固有情報の出力を停止してもよい。これにより、配送先固有情報が表示部34に表示されなくなる。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。また、プログラムを記録媒体に記録して移送することにより、又はプログラムをネットワークを経由して移送することにより、独立した他のコンピュータシステムによりプログラムが実施されてもよい。
 本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
 また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
 また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 本開示に係る技術は、配送先に固有であり、配送に関する配送先固有情報を必要としている作業員にのみ配送先固有情報を提示することができ、作業員の作業効率を向上させることができるので、作業員による荷物の配送作業を支援する技術として有用である。

Claims (13)

  1.  作業員の頭部に装着されるウェアラブル装置と、前記ウェアラブル装置と通信可能に接続される配送管理サーバとを備える情報処理システムであって、
     前記ウェアラブル装置は、カメラと、第1制御部と、第1通信部とを備え、
     前記配送管理サーバは、第2制御部と、第2通信部と、メモリとを備え、
     前記カメラは、前記作業員の視界を撮影し、
     前記第1制御部は、
     前記カメラによって撮影された画像を取得し、
     取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、
     前記第1通信部は、
     認識された前記荷物IDと前記作業員を識別するための作業員IDとを送信し、
     前記第2通信部は、
     前記第1通信部によって送信された前記荷物ID及び前記作業員IDを受信し、
     前記メモリは、
     荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報と、
     前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報とを記憶しており、
     前記第2制御部は、
     受信された前記荷物IDに対応する前記配送先IDの前記配送履歴情報を前記メモリから抽出し、
     受信された今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、
     受信された今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出し、
     前記第2通信部は、抽出された前記配送先固有情報を送信し、
     前記第1通信部は、前記第2通信部によって送信された前記配送先固有情報を受信し、
     前記第1制御部は、受信された前記配送先固有情報を出力する、
     情報処理システム。
  2.  前記配送先固有情報は、前記配送先の受取人が不在であった場合の対処方法に関する情報である、
     請求項1記載の情報処理システム。
  3.  前記第1制御部は、
     取得した前記画像から、前記作業員の作業対象である荷物と、前記作業員の手とを画像認識処理により認識し、
     認識した前記荷物と前記手との位置関係に基づいて、前記作業員が前記荷物を運ぼうとしている状態であるか否かを判定し、
     前記作業員が前記荷物を運ぼうとしている状態であると判定した場合、取得した前記画像から、前記荷物IDを画像認識処理により認識する、
     請求項1又は2記載の情報処理システム。
  4.  前記第2制御部は、
     受信された今回の前記作業員IDと、前回の前記作業員IDとが一致する場合、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した日から所定日数以上経過しているか否かを判定し、
     前回配送した日から所定日数以上経過している場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出する、
     請求項1又は2記載の情報処理システム。
  5.  前記第2制御部は、
     受信された今回の前記作業員IDと、前回の前記作業員IDとが一致する場合、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に過去に配送した回数が所定回数以内であるか否かを判定し、
     過去に配送した回数が所定回数以内である場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出する、
     請求項1又は2記載の情報処理システム。
  6.  前記第1制御部は、
     前記配送先固有情報が受信された後、前記配送先の受取人が不在であるか否かを判定し、
     前記配送先の前記受取人が不在である場合、受信された前記配送先固有情報を出力する、
     請求項1又は2記載の情報処理システム。
  7.  前記情報処理システムは、前記ウェアラブル装置と通信可能に接続され、前記配送先の受取人が不在であったため前記作業員が前記荷物を持ち帰ることを前記受取人に連絡するための不在連絡票を出力する情報端末をさらに備え、
     前記情報端末は、前記不在連絡票を出力した場合に、不在連絡票出力通知を前記ウェアラブル装置に送信し、
     前記第1通信部は、前記情報端末によって送信された前記不在連絡票出力通知を受信し、
     前記第1制御部は、前記第1通信部によって前記不在連絡票出力通知が受信された場合、前記配送先の前記受取人が不在であると判定する、
     請求項6記載の情報処理システム。
  8.  前記配送先情報の前記配送先IDと前記配送先固有情報とには、前記配送先固有情報が更新された更新日時がさらに対応付けられており、
     前記第2制御部は、
     受信された今回の前記作業員IDと、前回の前記作業員IDとが一致し、且つ、前記配送先IDに対応する前記更新日時が、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した日時よりも後である場合、前記配送先IDに対応する前記配送先固有情報を前記メモリから抽出する、
     請求項1又は2記載の情報処理システム。
  9.  前記ウェアラブル装置は、表示部をさらに備え、
     前記第1制御部は、前記配送先固有情報を前記表示部に出力し、
     前記表示部は、前記作業員の視界に前記配送先固有情報を拡張現実として表示する、
     請求項1又は2記載の情報処理システム。
  10.  作業員の頭部に装着されるウェアラブル装置と通信可能に接続される配送管理サーバにおける配送管理方法であって、
     前記作業員の視界を撮影するカメラによって撮影された画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信するウェアラブル装置から前記荷物ID及び前記作業員IDを受信し、
     荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、
     受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、
     受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、
     抽出した前記配送先固有情報を前記ウェアラブル装置に送信する、
     配送管理方法。
  11.  作業員の頭部に装着されるウェアラブル装置であって、
     カメラと、
     制御部と、
     通信部と、
     を備え、
     前記カメラは、前記作業員の視界を撮影し、
     前記制御部は、
     前記カメラによって撮影された画像を取得し、
     取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、
     前記通信部は、
     認識された前記荷物IDと前記作業員を識別するための作業員IDとを送信し、
     前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、
     前記制御部は、受信された前記配送先固有情報を出力する、
     ウェアラブル装置。
  12.  作業員の頭部に装着されるウェアラブル装置における情報処理方法であって、
     前記作業員の視界を撮影するカメラによって撮影された画像を取得し、
     取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、
     認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信し、
     前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、
     受信した前記配送先固有情報を出力する、
     情報処理方法。
  13.  作業員の視界を撮影するカメラによって撮影された画像を取得し、
     取得した前記画像から、前記作業員の作業対象である荷物を識別するための荷物IDを画像認識処理により認識し、
     認識した前記荷物IDと前記作業員を識別するための作業員IDとを送信し、
     前記荷物ID及び前記作業員IDを受信し、荷物IDと、荷物の配送先を識別するための配送先IDと、前記配送先に荷物を届けた作業員を識別するための作業員IDと、前記荷物を配送した日時とを対応付けた配送履歴情報を記憶するメモリから、受信した前記荷物IDに対応する前記配送先IDの前記配送履歴情報を抽出し、受信した今回の前記作業員IDと、抽出した前記配送履歴情報における前記配送先IDに対応する前記配送先に前回配送した作業員の作業員IDとが一致するか否かを判定し、受信した今回の前記作業員IDと、前回の前記作業員IDとが一致しない場合、前記配送先IDと、前記配送先に固有であり、前記荷物の配送に関する配送先固有情報とを対応付けた配送先情報を記憶する前記メモリから、前記配送先IDに対応する前記配送先固有情報を抽出し、抽出した前記配送先固有情報を送信する配送管理サーバによって送信された前記配送先固有情報を受信し、
     受信した前記配送先固有情報を出力するようにコンピュータを機能させる、
     情報処理プログラム。
PCT/JP2022/040524 2021-12-23 2022-10-28 情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム WO2023119878A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-209113 2021-12-23
JP2021209113 2021-12-23

Publications (1)

Publication Number Publication Date
WO2023119878A1 true WO2023119878A1 (ja) 2023-06-29

Family

ID=86902037

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040524 WO2023119878A1 (ja) 2021-12-23 2022-10-28 情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
WO (1) WO2023119878A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184894A (ja) * 2014-03-24 2015-10-22 パイオニア株式会社 情報記憶処理装置、端末装置、制御方法、プログラム及び記憶媒体
JP2016184303A (ja) * 2015-03-26 2016-10-20 株式会社クロスポイント 作業管理システム
WO2019049643A1 (ja) * 2017-09-08 2019-03-14 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
JP2021114256A (ja) * 2020-01-21 2021-08-05 株式会社東芝 情報処理装置、プログラム、情報処理システム、及び携帯端末装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184894A (ja) * 2014-03-24 2015-10-22 パイオニア株式会社 情報記憶処理装置、端末装置、制御方法、プログラム及び記憶媒体
JP2016184303A (ja) * 2015-03-26 2016-10-20 株式会社クロスポイント 作業管理システム
WO2019049643A1 (ja) * 2017-09-08 2019-03-14 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
JP2021114256A (ja) * 2020-01-21 2021-08-05 株式会社東芝 情報処理装置、プログラム、情報処理システム、及び携帯端末装置

Similar Documents

Publication Publication Date Title
JP6608890B2 (ja) 機械学習装置、ロボットシステム及び機械学習方法
US10178291B2 (en) Obtaining information from an environment of a user of a wearable camera system
US10019625B2 (en) Wearable camera for reporting the time based on wrist-related trigger
US20240037712A1 (en) Image acquisition device and method of controlling the same
JP2015103250A (ja) 身体媒介デジタルコンテンツ転送及び触覚フィードバックの方法並びに装置
EP3491502A1 (en) Automated queuing system
JP6770981B2 (ja) 心肺蘇生連携方法、コンピュータプログラム製品及びシステム
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
JP7167437B2 (ja) 物品特定装置
US10382383B2 (en) Social media post facilitation systems and methods
JP7105164B2 (ja) 服薬管理システム
JP2021018815A (ja) 支援システム、支援方法及びプログラム
JP6687199B2 (ja) 商品棚位置登録プログラム、及び情報処理装置
BR102015014422B1 (pt) Método para comunicação entre dispositivos eletrônicos através da interação de usuários com objetos
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
JP6696057B2 (ja) 情報処理システム、情報処理装置、情報処理方法、プログラム及び記憶媒体
US20210287165A1 (en) Using a wearable apparatus for identification
WO2023119878A1 (ja) 情報処理システム、配送管理方法、ウェアラブル装置、情報処理方法及び情報処理プログラム
JP7146373B2 (ja) 接客サービスシステム
JPWO2018173948A1 (ja) サービス提供システム
US20190252056A1 (en) Method and apparatus for verifying therapeutic compliance
US11481233B2 (en) Augmenting legacy user interfaces using workflows
WO2023095559A1 (ja) ウェアラブル装置、情報処理方法及び情報処理プログラム
WO2023145176A1 (ja) ウェアラブル装置、情報処理方法及び情報処理プログラム
JP2021157284A (ja) 情報処理装置、情報処理システム、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22910599

Country of ref document: EP

Kind code of ref document: A1