WO2018116405A1 - 管理システム - Google Patents

管理システム Download PDF

Info

Publication number
WO2018116405A1
WO2018116405A1 PCT/JP2016/088109 JP2016088109W WO2018116405A1 WO 2018116405 A1 WO2018116405 A1 WO 2018116405A1 JP 2016088109 W JP2016088109 W JP 2016088109W WO 2018116405 A1 WO2018116405 A1 WO 2018116405A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
notification
control unit
camera
display device
Prior art date
Application number
PCT/JP2016/088109
Other languages
English (en)
French (fr)
Inventor
順平 大木
Original Assignee
サン電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サン電子株式会社 filed Critical サン電子株式会社
Priority to PCT/JP2016/088109 priority Critical patent/WO2018116405A1/ja
Publication of WO2018116405A1 publication Critical patent/WO2018116405A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management

Definitions

  • the technology disclosed in this specification relates to a management system used for managing a package transported on a transport body.
  • Patent Document 1 Japanese Laid-Open Patent Publication No. 2013-220362 discloses a sorting system that sorts a package transported on a transport body into a corresponding cargo room according to a delivery address. Yes.
  • the system includes a transport body that transports a load, an image capturing unit that captures the transported load, a bar code reading unit that acquires sorting information by reading a bar code included in an image of the load captured by the image capturing unit, and , Based on the character recognition unit that executes character recognition processing on the image of the baggage when barcode reading fails and acquires the sorting information displayed on the baggage, and the sorting destination indicated by the acquired sorting information And a chute unit for loading the load on the carrier into the corresponding luggage compartment.
  • a sorting system including a transport body including a chute as disclosed in Patent Document 1 is likely to be large-scale and has a large equipment and cost burden during installation. For this reason, at the actual site where luggage sorting is performed (for example, a warehouse), a worker in charge is assigned to each cargo room corresponding to the delivery destination of the luggage in the vicinity of the carrier that transports the luggage.
  • Configuration in which a person performs a work (so-called unloading work) for moving the package in the direction of the cargo room when the package of the delivery destination in charge is conveyed hereinafter referred to as “specific configuration”) Is often adopted.
  • Patent Document 1 in the system having the above-described specific configuration, it is not considered to notify each worker that a delivery destination package he / she is in charge of is being transported by a transporter.
  • This specification discloses a technique that can appropriately notify an operator that a package related to himself / herself is being transported by a transporter.
  • the management system disclosed in this specification includes a plurality of portable terminals and a system control device.
  • Identification information indicating the mobile terminal is assigned to each of the plurality of mobile terminals.
  • Each of the plurality of mobile terminals includes a terminal control unit and a notification unit.
  • the terminal control unit causes the notification unit to execute a first notification operation when receiving a notification signal from the system control device.
  • the system control device acquires a first image, which is an image of the package photographed by the transport camera, from the transport camera that captures the package transported from the upstream side toward the downstream side on the transport body.
  • An identification code related to the delivery destination of the package is identified based on the first image thus obtained, and specific identification information associated with the identified identification code is assigned among the plurality of portable terminals.
  • a notification signal is transmitted to a specific mobile terminal.
  • a specific mobile terminal when a specific mobile terminal receives a notification signal from the system control device, it performs a first notification operation. Therefore, if each of the plurality of portable terminals is carried by the worker assigned for each delivery destination of the package, each worker performs the first notification operation performed by the portable terminal carried by himself / herself. It is possible to know that the package related to the delivery destination assigned to the portable terminal carried by is transported by the carrier. Therefore, according to the above management system, it is possible to appropriately notify the worker that the package related to him / her is being transported by the transport body.
  • the “portable terminal” includes various terminals that can be carried by the worker, such as various terminals that can be held by the worker (for example, tablet terminals) and various terminals that can be worn by the worker (for example, for example). , Wristwatch-type terminals, head-mounted terminals, etc.).
  • the “notification unit” includes various configurations for performing a notification operation, such as a display device that displays information, a speaker that outputs sound, and a vibration device that vibrates the terminal.
  • the “system control device” may be configured by a single device, or may be configured by a plurality of devices that can communicate with each other.
  • the “system control device” acquires a first image that is an image of a package photographed by a carrier camera, and relates to a package delivery destination based on the acquired first image. And a notification signal can be transmitted to a specific portable terminal to which specific identification information associated with the specified identification code is assigned among the plurality of portable terminals. Any configuration may be used.
  • Each of the plurality of mobile terminals may further include a terminal camera for photographing the luggage.
  • the terminal control unit further acquires, from the terminal camera, a second image that is an image of the baggage captured by the terminal camera, specifies an identification code based on the acquired second image, and is specified In a specific case where it is determined whether the identification code corresponds to the identification information assigned to the portable terminal, and the identified identification code is determined to correspond to the identification information assigned to the portable terminal, You may make a alerting
  • each of the plurality of mobile terminals performs the second notification operation when a second image representing a package for which a delivery destination corresponding to the identification information of the own device is specified is captured by the terminal camera. Can be executed. Therefore, if each of the plurality of portable terminals is carried by the worker assigned for each delivery destination of the package, each worker performs the second notification operation performed by the portable terminal carried by himself / herself. It is possible to know that there is a package related to the delivery destination assigned to the portable terminal carried by the user within the imaging range of the camera.
  • the notification unit may include a display device.
  • the second notification operation may include displaying on the display device a notification image obtained by combining a second image acquired from the terminal camera with a specific image related to the specific case.
  • the worker can check that the package related to the delivery destination assigned to the portable terminal carried by the worker exists within the photographing range of the terminal camera by viewing the notification image displayed on the display device. Can know properly.
  • the notification unit may include a display device.
  • the first notification operation may include causing the display device to display notification information related to the presence of a package having an identification code corresponding to specific identification information on the carrier.
  • the operator appropriately knows that the package related to the delivery destination assigned to the portable terminal carried by the worker exists on the carrier by viewing the notification information displayed on the display device. be able to.
  • the notification information may include time information related to the time required for the package present on the carrier to arrive near the mobile terminal.
  • the operator needs to wait until the package related to the delivery destination assigned to the portable terminal carried by himself / herself arrives in the vicinity of the portable terminal by viewing the notification information displayed on the display device. Know the time. Accordingly, it becomes easier for the operator to predict the arrival of the load, and the work efficiency is improved.
  • Each of the plurality of mobile terminals may further include a frame that can be worn on the user's head.
  • the display device may be mounted on the frame and disposed at a position facing at least one of the right eye and the left eye of the user wearing the frame.
  • the worker can perform the work while viewing the notification image or / and the notification information displayed on the display device in a state where the portable terminal is mounted on the head. Therefore, since it is not necessary for the operator to stop the operation and operate the mobile terminal, the work efficiency is improved as compared with a configuration in which the operator needs to operate the mobile terminal by hand.
  • control method, a computer program, and a computer-readable recording medium storing the computer program for realizing the portable terminal are also novel and useful.
  • control method, a computer program, and a computer-readable recording medium for storing the computer program for realizing the system control device are novel and useful.
  • a schematic diagram of a management system is shown.
  • a block diagram of the server is shown.
  • the block diagram of an image display apparatus is shown.
  • determination process which the control part of a server performs is shown.
  • reporting process which the control part of an image display apparatus performs is shown.
  • reporting process which the control part of an image display apparatus performs is shown.
  • reporting message was started is shown.
  • the example of the display part of a continuation of FIG. 7 is shown.
  • the example of the display part following FIG. 8 is shown.
  • the management system 2 shown in FIG. 1 allows an operator (for example, workers W1 to W3) who performs a sorting operation to sort packages (for example, packages P1 to P5) into cargo rooms (for example, trucks T1 to T3) according to a delivery destination.
  • the management system 2 in FIG. 1 includes a transport body 4, branch paths 4A to 4C, a transport camera 6, a server 10, and image display devices 50A to 50C.
  • the carrier camera 6 and the server 10 can execute wired communication with each other.
  • the server 10 and the image display devices 50A to 50C can perform wireless communication (specifically, Wi-Fi communication) with each other via the Internet (not shown).
  • Each of the image display devices 50A to 50C is mounted on the heads of the workers W1 to W3.
  • Each of the image display devices 50A to 50C is assigned an ID (“001”, “002”, “003”) for identifying the device.
  • the image display devices 50A, 50B, and 50C may be collectively referred to as “image display device 50”.
  • the workers W1 to W3 may be collectively referred to as “worker W”.
  • the transport body 4 is a conveyor for transporting loads (eg, loads P1 to P5) from the upstream side (left side in FIG. 1) toward the downstream side (right side in FIG. 1).
  • loads eg, loads P1 to P5
  • the conveyance body 4 of a present Example is a belt conveyor, in other examples, the conveyance body 4 may be other conveyors, such as a roller conveyor. In the example of FIG. 1, only five packages P1 to P5 are shown, but the packages transported on the transport body 4 are not limited to this, and there are other packages.
  • branch paths 4A, 4B, 4C (Configuration of branch paths 4A, 4B, 4C; FIG. 1)
  • the branch paths 4 ⁇ / b> A, 4 ⁇ / b> B, and 4 ⁇ / b> C are branch transport bodies provided on the sides of the transport body 4.
  • Each of the branch paths 4A, 4B, and 4C is a branch path for changing the transport direction of the load on the transport body 4 to the direction toward the corresponding tracks T1, T2, and T3.
  • each of the three trucks T1, T2, and T3 has a different package delivery destination area.
  • the branch path 4A is a branch path for sorting the cargo into the truck T1
  • the branch path 4B is a branch path for sorting the luggage into the truck T2
  • the branch path 4C is a branch path for sorting the luggage into the truck T3.
  • Each of the branch paths 4 ⁇ / b> A, 4 ⁇ / b> B, 4 ⁇ / b> C is configured by a conveyor similar to the transport body 4.
  • workers in charge of sorting the packages to the branch paths that is, workers W1 and W2), respectively. , W3) are arranged.
  • Worker W1 is in charge of sorting the luggage to the branch road 4A.
  • the worker W1 manually moves a load to be sorted on the branch path 4A (that is, a load to be accommodated in the truck T1) from the transport body 4 onto the branch path 4A.
  • this operation may be referred to as “unloading”.
  • the worker W2 is in charge of sorting (that is, unloading) the luggage to the branch path 4B
  • the worker W3 is in charge of sorting the luggage to the branch path 4C.
  • the management system 2 includes three branch paths 4A to 4C corresponding to the three trucks T1 to T3, but the number of tracks and branch paths is limited to this. It is not something. In that case, the number of workers W is not limited to three (that is, workers W1 to W3).
  • the carrier camera 6 is a camera provided above the carrier 4.
  • the carrier camera 6 is provided on the upstream side of the part of the carrier 4 connected to the branch paths 4A to 4C.
  • the carrier camera 6 shoots the luggage transported on the carrier 4 and supplies the photographed image to the server 10.
  • only one carrier camera 6 is illustrated.
  • a plurality of carrier cameras 6 may be provided. In that case, each carrier camera 6 may be able to photograph one piece of luggage from different angles.
  • a server 10 illustrated in FIG. 1 is a server installed by an administrator of the management system 2 (for example, a management company for sorting work). As shown in FIG. 2, the server 10 includes a wired communication interface 12, a Wi-Fi interface 14, a control unit 20, and a memory 22. Hereinafter, the interface is described as “I / F”.
  • the wired communication I / F 12 is an I / F for executing wired communication with the carrier camera 6.
  • the Wi-Fi I / F 14 is an I / F for executing Wi-Fi communication with an external device (for example, the image display devices 50A to 50C) via the Internet (not shown).
  • the control unit 20 executes various processes including a determination process (see FIG. 4) described later according to the program 24 stored in the memory 22.
  • the memory 22 stores a code table 26 in addition to the program 24.
  • the code table 26 is stored in the memory 22 in advance by the administrator of the server 10. As illustrated in FIG. 2, the code table 26 indicates a combination of an address code (for example, “C1”) and an ID (for example, “001”) indicating the image display device 50 associated with the address code.
  • a plurality of combination information 26a to 26d is included.
  • the address code is code information (that is, a combination of numbers and characters) assigned to each address area of the package delivery destination.
  • the address code is recorded on an information code (for example, a barcode) attached to the invoice of each package, and is also described on the invoice.
  • the combination information 26a indicates that the address code “C1” is associated with the ID “001” of the image display device 50A.
  • the combination information 26a indicates that the package to which the address code “C1” is assigned is a package to be unloaded by the worker W1 wearing the image display device 50A (ie, a package to be accommodated in the truck T1). Show.
  • the image display device 50A is an image display device (so-called head mounted display) that is used by being mounted on the user's (worker W1) head. As shown in FIG. 1, the image display device 50A includes a frame 52, a right display unit 54R, a left display unit 54L, a right projection unit 55R, a left projection unit 55L, a right camera 56R, and a left camera 56L. , A control box 58 and a speaker 59 are provided.
  • the frame 52 is a spectacle frame-shaped member.
  • the user can wear the image display device 50 on the head by wearing the frame 52 like wearing glasses.
  • the right display portion 54R and the left display portion 54L are translucent display members, respectively.
  • the right display portion 54R is disposed at a position facing the user's right eye
  • the left display portion 54L is disposed at a position facing the left eye.
  • the right display unit 54R and the left display unit 54L may be collectively referred to as a “display unit 54”.
  • the right projection unit 55R and the left projection unit 55L are members that project images onto the right display unit 54R and the left display unit 54L, respectively.
  • the right projection unit 55R and the left projection unit 55L are provided on the sides of the right display unit 54R and the left display unit 54L, respectively.
  • the right projection unit 55R and the left projection unit 55L may be collectively referred to as “projection unit 55”.
  • the projection unit 55 projects a virtual marker image (see reference numeral 200 in FIGS. 8 and 9) on the display unit 54 in accordance with an instruction from the control unit 70. As a result, the user can see whether the marker image is superimposed on a real-world object (for example, the baggage P12 in FIGS.
  • control unit 70 displays a desired image on the display unit 54 by instructing the projection unit 55 to project an image
  • the operation of the projection unit 55 will be described. It may be omitted and simply expressed as “the control unit 70 displays a desired image on the display unit 54”.
  • the right camera 56R is a camera disposed in the frame 52 at an upper position of the right display portion 54R (that is, a position corresponding to the upper right of the user's right eye).
  • the left camera 56L is a camera disposed in the frame 52 at an upper position of the left display portion 54L (that is, a position corresponding to the upper portion of the user's left eye).
  • Each of the right camera 56R and the left camera 56L can shoot a range corresponding to the field of view of the user wearing the image display device 50 (hereinafter sometimes referred to as a “specific range”) from different angles.
  • the right camera 56R captures the viewing range of the user's right eye
  • the left camera 56L captures the viewing range of the user's left eye.
  • the right camera 56R and the left camera 56L may be collectively referred to as “camera 56”.
  • the control box 58 is a control device built in a part of the frame 52.
  • the control box 58 accommodates each element that controls the control system of the image display device 50.
  • the control box 58 contains a Wi-Fi I / F 60, a control unit 70, and a memory 72.
  • the control box 58 may be provided separately from the frame 52. In that case, each component (Wi-Fi I / F 60, control unit 70, memory 72) in the control box 58 and each component (display unit 54, projection unit 55, camera 56, etc.) provided in the frame 52 May be electrically connected by a cable or the like.
  • the Wi-Fi I / F 60 is an I / F for executing Wi-Fi communication with an external device (for example, the server 10) via the Internet (not shown).
  • the control unit 70 executes various processes including a stacking control process (see FIG. 5) described later according to the program 74 stored in the memory 72.
  • the control unit 70 is electrically connected to the display unit 54, the projection unit 55, the camera 56, the Wi-Fi I / F 60, and the memory 72, and can control operations of these elements.
  • the memory 72 stores a code table 76 in addition to the program 74.
  • the code table 76 is the same as the code table 26 (see FIG. 2) and is stored in the memory 72 in advance by the administrator of the server 10. Therefore, the code table 76 also includes combination information 76a to 76d similar to the code table 26.
  • the memory 72 also stores an ID “001” for identifying the image display device 50A. In the case of the image display devices 50B and 50C, IDs “002” and “003” are stored in the memory 72 instead of the ID “001” (see FIG. 1).
  • Speaker 59 is an output unit for outputting sound.
  • the control unit 20 monitors whether a package image is detected from the images captured by the transport camera 6. As described above, with the start of the process of FIG. 4, the carrier camera 6 starts photographing on the carrier 4 and starts supplying the photographed image to the server 10. The control unit 20 continuously acquires captured images from the carrier camera 6 via the wired communication I / F 12. In S ⁇ b> 10, the control unit 20 scans the captured image acquired from the carrier camera 6 and detects the outer shape of the object present in the captured image. Then, the control unit 20 determines whether or not the detected outer shape of the object conforms to information indicating the package standard stored in the memory 22 in advance. When it is determined that the outer shape of the detected object matches the information indicating the package standard, the control unit 20 determines YES in S10 (that is, a package image is detected from the captured image), and S12. Proceed to
  • the control unit 20 identifies an address code from the package image detected in S10. Specifically, in S12, the control unit 20 reads the image of the information code portion attached to the package invoice of the package image detected in S10, and is recorded in the information code. Get the address code. When the reading fails, the control unit 20 performs a character recognition process on the invoice portion of the package image, and acquires the address code described in the invoice. By executing the above processing, in S12, the control unit 20 specifies an address code from the package image detected in S10. In another example, the control unit 20 may execute only one of the reading process and the character recognition process, or may execute both at the same timing.
  • control unit 20 specifies the ID of the image display device 50 corresponding to the address code specified in S12. Specifically, in S14, the control unit 20 refers to the code table 26 in the memory 22, and identifies combination information including the address code identified in S12. And the control part 20 specifies ID (it may be hereafter called "1st type ID") matched with the address code specified by S12 in the specified combination information.
  • the control unit 20 uses the Wi-Fi I / F 14 to assign an image display device 50 (hereinafter referred to as a “specific image display device”) to which the first type ID specified in S14 is assigned.
  • a notification signal is transmitted.
  • the notification signal includes a notification message that the baggage to be unloaded by the worker W wearing the specific image display device 50 will soon arrive at the specific image display device 50, and the remaining until the estimated arrival time
  • This is a signal for instructing the display unit 54 to display time information (see reference numerals 100 and 110 in FIGS. 7 and 8 described later).
  • the estimated arrival time is determined according to the required arrival time determined in advance according to the transport speed of the transport body 4 and the distance between the transport body camera 6 and the branch paths 4A to 4C.
  • the first notification process is a process for notifying that the baggage to be unloaded by the worker W1 wearing the image display device 50A (hereinafter sometimes referred to as “charge baggage”) will arrive soon. .
  • charge baggage the baggage to be unloaded by the worker W1 wearing the image display device 50A
  • the control unit 70 starts the processing in FIG. 5 and the processing in FIG. 6 in parallel.
  • the control unit 70 monitors reception of a notification signal (S16 in FIG. 4) from the server 10. As described above, when the control unit 20 of the server 10 transmits a notification signal to the image display device 50A as a result of the discrimination processing (FIG. 4) (S16 in FIG. 4), the control unit 70 passes through the Wi-Fi I / F 60. The broadcast signal is received. In that case, the control unit 70 determines YES in S30, and proceeds to S32.
  • a notification signal S16 in FIG. 4
  • the control unit 70 notifies the notification message that the baggage of the worker W1 wearing the image display device 50A will soon arrive, and the remaining time information (to be described later) 7 are displayed on the display unit 54. And the control part 70 starts the countdown of the remaining time which remaining time information shows (refer the code
  • control unit 70 monitors that the remaining time indicated by the remaining time information displayed in S32 becomes 0 (that is, the estimated arrival time arrives). If the remaining time becomes 0 after the countdown is started in S32, the control unit 70 determines YES in S34 and proceeds to S36.
  • control unit 70 ends the display of the notification message started in S32 and the remaining time information.
  • control unit 70 returns to S30 and monitors whether the notification signal is received again.
  • the second notification process is a process for notifying that the baggage handled by the worker W1 exists in the vicinity of the worker W1.
  • the control unit 70 starts the processing in FIG. 5 and the processing in FIG. 6 in parallel.
  • the camera 56 starts to capture a specific range corresponding to the field of view of the worker W1 and starts to supply a captured image to the control unit 70.
  • the control unit 70 monitors whether a package image is detected from the images captured by the camera 56.
  • the control unit 70 executes substantially the same process as in S10 of FIG. That is, the control unit 70 scans a captured image acquired from the camera 56 and detects the outer shape of an object present in the captured image. Then, the control unit 70 determines whether or not the detected outer shape of the object conforms to information indicating the package standard stored in the memory 72 in advance. When it is determined that the detected outer shape of the object conforms to the information indicating the package standard, the control unit 20 determines YES in S40 (that is, a package image is detected from the captured image), and S42. Proceed to
  • control unit 70 specifies the address code from the package image detected in S40.
  • control unit 70 executes substantially the same processing as S12 in FIG. Specifically, in S42, the control unit 70 reads the image of the information code portion attached to the invoice of the package among the images detected in S40, and the address recorded in the information code. Get the code. When the reading fails, the control unit 70 performs character recognition processing on the invoice portion of the image detected in S40, and acquires the address code described in the invoice.
  • the control unit 70 determines whether or not the address code specified in S42 corresponds to its own ID (ie, “001”). Specifically, in S44, the control unit 70 refers to the code table 76 in the memory 72 and identifies combination information including the address code identified in S42. Then, the control unit 70 determines that the ID associated with the address code specified in S42 in the specified combination information (hereinafter may be referred to as “second type ID”) is the ID of the own device. (That is, “001”). When the second type ID is the ID of the own device, the control unit 70 determines YES in S44, and proceeds to S46. If YES is determined in S44, it means that the package in the image detected in S40 is the baggage in charge. On the other hand, if the second type ID is not the own ID, the control unit 70 determines NO in S44, returns to S40, and again detects a new baggage image from the captured image of the camera 56. To monitor.
  • the control unit 70 causes the display unit 54 to display a marker image (see reference numeral 200 in FIGS. 7 and 8) on the package in the image detected in S40 (that is, the package in charge). At this time, the control unit 70 causes the marker image to be displayed in such a manner that it is superimposed on a position in the vicinity of the baggage (see P12 in FIGS. 7 and 8) actually transported on the transport body 4. In another example, the control unit 70 may display various character information such as a message indicating that the baggage is in charge at the same time as the marker image. The control unit 70 continues to display the marker image until there is no baggage in charge from the field of view of the worker W1 (that is, until the baggage is removed from the shooting range of the camera 56).
  • the control unit 70 returns to S40 again and monitors again that a new package image is detected from the images captured by the camera 56.
  • the control unit 70 of the server 10 executes the discrimination process (FIG. 4), and the control unit 20 of the image display device 50A performs the first notification process (FIG. 5) and the second notification.
  • the display content of the display unit 54 when the process (FIG. 6) is executed will be described.
  • the control unit 70 receives the notification signal from the server 10. (YES in S30 of FIG. 5). In this case, as illustrated in FIG. 7, the control unit 70 causes the display unit 54 to display the notification message 100 and the remaining time information 110 according to the received notification signal.
  • the notification message 100 includes a message (“Arriving!”) Indicating that the assigned baggage will arrive soon.
  • the remaining time information 110 (“in 5 sec”) indicates that the baggage arrives in another 5 seconds.
  • the control unit 70 does not display a marker image superimposed on the parcel P11 on the transport body 4.
  • the control unit 70 starts counting down the remaining time indicated by the remaining time information 110 (see FIG. 8). Then, as shown in the example of FIG. 8, when the assigned baggage P12 enters the field of view of the worker W1 (that is, within the shooting range of the camera 56), the control unit 70 determines the An image is detected (YES in S40 of FIG. 6). Then, the control unit 70 specifies the address code (eg, “C1”) of the handled baggage P12 (S42), and determines that the specified address code corresponds to the ID “001” of the own machine (YES in S44). And the control part 70 displays the marker image 200 on the display part 54 in the aspect superimposed on the actual charge P12. The marker image 200 is an arrow-shaped image that points to the assigned baggage P12. In the example of FIG. 8, the remaining time indicated by the remaining time information 110 is 1 second, and it is shown that the assigned baggage arrives in front of the worker W1 in another 1 second.
  • the remaining time indicated by the remaining time information 110 is 1 second, and it is shown that the assigned
  • the control unit 70 ends the display of the notification message 100 and the remaining time information 110 (S36 in FIG. 5).
  • the assigned baggage P12 has arrived in front of the worker W1.
  • the control unit 70 displays the marker image 200 on the display unit 54 so as to be superimposed on the actual baggage P12.
  • the control unit 20 of the server 10 performs a determination process and transmits a notification signal to the specific image display device 50 (see S16 in FIG. 3).
  • the control unit 70 of the image display device 50A displays the notification message and remaining time information (see S32, FIG. 7, and FIG. 8). Therefore, the worker W1 who has seen the display unit 54 can know that the assigned baggage will arrive soon.
  • the management system 2 As described above, in the management system 2 according to the present embodiment, if each of the plurality of image display devices 50A to 50C is attached to the workers W1 to W3 assigned to the delivery destinations of the packages, The user can know that his / her baggage will arrive soon by looking at the display unit 54 of the image display device 50 he / she wears. Therefore, according to the management system 2 of the present embodiment, it is possible to appropriately notify the worker W that the baggage being handled is transported by the transport body 4 and will soon arrive at the worker W. Also, by viewing the remaining time information, the worker W can grasp the time required until the assigned baggage arrives, and the worker W can easily predict the arrival of the baggage, thereby improving work efficiency.
  • control unit 70 of the image display device 50A determines whether there is a baggage in charge within the shooting range of the camera 56 (S40 to S44 in FIG. 6). (YES in S44), the marker image is displayed on the display unit 54 in such a manner that it is superimposed on the baggage in charge. Therefore, the worker W1 who has seen the display unit 54 can know that the assigned baggage exists in the vicinity (more specifically, in front of him).
  • each of the plurality of image display devices 50A to 50C is attached to the workers W1 to W3 assigned to the delivery destinations of the packages, By seeing the marker image on the display unit 54, it can be known that there is a baggage in charge within the shooting range of the camera 56 (that is, in front of the operator's eyes).
  • the image display device 50 is a head mounted display that can be mounted on the head of the worker W. Therefore, the worker W can work while viewing the notification message, the remaining time information, and the marker image displayed on the display unit 54 with the image display device 50 mounted on the head. Therefore, since it is not necessary for the operator W to stop the operation and operate the image display device 50, the working efficiency is improved as compared with the configuration in which the operator W needs to operate the image display device by hand.
  • the server 10 is an example of a “system control device”.
  • the image display device 50 is an example of a “portable terminal”.
  • the ID is an example of “identification information”.
  • the address code is an example of an “identification code”.
  • An image captured by the carrier camera 6 is an example of a “first image”.
  • An image captured by the camera 56 is an example of a “second image”.
  • the display unit 54 is an example of a “notification unit”. Displaying the notification message and remaining time information in S32 of FIG. 5 is an example of the “first notification operation”.
  • a marker image is an example of a “specific image”.
  • Modification 1 In the above embodiment, when the control unit 70 of the image display device 50A receives a notification signal from the server 10 (YES in S30 of FIG. 5), the remaining time information is displayed together with the notification message. (See S32, FIG. 7 and FIG. 8). However, the control unit 70 may display time information indicating the estimated arrival time together with the notification message when the notification signal is received from the server 10. In this modification, the notification message and time information are examples of “notification information”.
  • the control unit 70 when the control unit 70 receives a notification signal from the server 10 (YES in S30 of FIG. 5), the control unit 70 displays the notification message and remaining time information and captures the camera 56. When there is a baggage in charge within the range (YES in S44 of FIG. 6), a marker image is displayed to notify that the baggage is scheduled to arrive (or has arrived).
  • the method of notifying that the assigned baggage is scheduled to arrive (or has arrived) is not limited to this, and any other method may be used.
  • the control unit 70 may perform notification by outputting sound from the speaker 59.
  • the image display device 50 may have a predetermined vibration device (not shown), and the control unit 70 may perform notification by causing the vibration device to vibrate. Further, notification may be performed by combining two or more methods of display on the display unit 54, sound output from the speaker 59, and vibration of the vibration device.
  • the control unit 70 executes the processes of S40 to S44 (that is, the process of determining whether or not the image of the package included in the captured image of the camera 56 is the baggage in charge). ing.
  • the control unit 70 may cause the external device (for example, the server 10) other than the image display device 50 to execute the processes of S40 to S44.
  • the control unit 70 may transmit the image captured by the camera 56 to the external device via the Wi-Fi I / F 14.
  • the external device executes processing similar to S40 to S44 based on the photographed image received from the image display device 50, and when the image of the luggage included in the photographed image of the camera 56 is determined as the responsible luggage (in S44).
  • a display instruction for displaying the marker image may be transmitted to the image display device 50.
  • the control unit 70 may display the marker image on the display unit 54 when receiving a display instruction from the external device.
  • the display unit 54 of the image display device 50 is a translucent display.
  • the display unit of the image display device 50 is not limited to this, and may be a light-shielding display that blocks the field of view of the worker W when the worker W wears the image display device 50.
  • the control unit 70 may cause the display unit to display a camera image captured by the camera 56 (that is, an image corresponding to the field of view of the worker W).
  • the control unit 70 may display the marker image superimposed on the camera image displayed on the display unit.
  • the image display device 50 has a substantially glasses-like frame, and can be worn on the user's head so as to wear the glasses.
  • the image display device is not limited to this, and may have an arbitrary support frame such as a hat shape or a helmet shape as long as the image display device can be mounted on the user's head.
  • An image display device is formed by attaching a camera, a control box, etc. to eyewear (glasses, sunglasses, etc.) generally used for purposes such as vision correction and eye protection. May be. In that case, the lens portion of the eyewear may be used as the display unit.
  • the image display device 50 has two cameras, the right camera 56R and the left camera 56L, but the number of cameras may be one. Further, the image display device 50 may have only one of the right display unit 54R and the left display unit 54L.
  • the image display device is not limited to the one that can be mounted on the operator's head, and may be in any form.
  • the image display device may be a portable terminal (for example, a tablet terminal) that can be carried by an operator.
  • a portable terminal for example, a tablet terminal
  • it may be one that can be attached to a part other than the operator's head.
  • the code table 26 is stored in the memory 22, but in another example, the table corresponding to the code table 26 is another device (for example, an external device) that can communicate with the server 10. Server) or the like.
  • the control unit 20 of the server 10 may transmit the address code acquired in S12 of FIG. 4 to the external server.
  • the external server may specify the ID of the image display device corresponding to the address code and notify the control unit 20 of the specified address code.
  • the code table 76 is stored in the memory 72.
  • the table corresponding to the code table 76 is the same as the image display device 50.
  • the control unit 70 of the image display device 50 may transmit the address code acquired in S42 of FIG. 6 to the external server.
  • the external server specifies the ID of the image display device corresponding to the address code, and when the specified ID is the ID of the image display device 50 that is the address code transmission source, the control unit 70 of the image display device 50 May be notified that the address code corresponds to its own ID.

Abstract

管理システムは、複数個の携帯端末と、システム制御装置と、を備える。複数個の携帯端末のそれぞれには、当該携帯端末を示す識別情報が割り当てられている。複数個の携帯端末のそれぞれは、端末制御部と、報知部と、を備える。端末制御部は、システム制御装置から報知信号を受信する場合に、報知部に第1の報知動作を実行させる。システム制御装置は、搬送体上を上流側から下流側に向けて搬送される荷物を撮影する搬送体カメラから、搬送体カメラによって撮影された荷物の画像である第1の画像を取得し、取得された第1の画像に基づいて、荷物の配送先に関係する識別コードを特定し、複数個の携帯端末のうち、特定された識別コードに対応付けられている特定の識別情報が割り当てられている特定の携帯端末に対して、報知信号を送信する。

Description

管理システム
 本明細書によって開示される技術は、搬送体上を搬送される荷物の管理に用いられる管理システムに関する。
 例えば、特開2013-220362号公報(以下、特許文献1という)には、搬送体上を搬送される荷物を、配送先の住所に応じて、対応する荷室に仕分ける仕分けシステムが開示されている。このシステムは、荷物を搬送する搬送体と、搬送される荷物を撮影する撮像部と、撮像部で撮影された荷物の画像に含まれるバーコードを読み取って仕分情報を取得するバーコード読取部と、バーコードの読み取りが失敗する場合に荷物の画像に対して文字認識処理を実行し、荷物に表示された仕分情報を取得する文字認識部と、取得された仕分情報が示す仕分け先に基づいて搬送体上の荷物を対応する荷室に投入するシュート部と、を備える。
 一般に、特許文献1に開示のような、シュート部を含む搬送体を備える仕分けシステムは大規模になり易く、設置の際の設備的及び費用的な負荷が大きい。そのため、荷物の仕分け作業が行われる実際の現場(例えば倉庫等)では、荷物を搬送する搬送体の近傍に、荷物の配送先に対応する荷室ごとに担当の作業者を配置し、各作業者に、自身の担当する配送先の荷物が搬送されてきた場合に、その荷物を荷室方向に移動させる作業(いわゆる荷引き作業)を行わせる構成(以下では「特定の構成」と呼ぶ場合がある)が採用される場合が多い。
 特許文献1の技術では、上記特定の構成を備えるシステムにおいて、各作業者に、自身の担当する配送先の荷物が搬送体で搬送されていることを報知することは考慮されていない。
 本明細書では、作業者に、自身に関係する荷物が搬送体で搬送されていることを適切に報知し得る技術を開示する。
 本明細書によって開示される管理システムは、複数個の携帯端末と、システム制御装置と、を備える。複数個の携帯端末のそれぞれには、当該携帯端末を示す識別情報が割り当てられている。複数個の携帯端末のそれぞれは、端末制御部と、報知部と、を備える。端末制御部は、システム制御装置から報知信号を受信する場合に、報知部に第1の報知動作を実行させる。システム制御装置は、搬送体上を上流側から下流側に向けて搬送される荷物を撮影する搬送体カメラから、搬送体カメラによって撮影された荷物の画像である第1の画像を取得し、取得された第1の画像に基づいて、荷物の配送先に関係する識別コードを特定し、複数個の携帯端末のうち、特定された識別コードに対応付けられている特定の識別情報が割り当てられている特定の携帯端末に対して、報知信号を送信する。
 上記の管理システムによると、特定の携帯端末は、システム制御装置から報知信号を受信すると、第1の報知動作を行う。そのため、複数個の携帯端末のそれぞれを、荷物の配送先毎に割り当てられた作業者に携帯させておけば、各作業者は、自身が携帯する携帯端末が行う第1の報知動作によって、自身が携帯する携帯端末に割り当てられた配送先に関係する荷物が搬送体で搬送されていることを知ることができる。従って、上記の管理システムによると、作業者に、自身に関係する荷物が搬送体で搬送されていることを適切に報知し得る。
 ここで、「携帯端末」は、作業者が携帯可能な各種端末を含むものであり、作業者が把持可能な各種端末(例えば、タブレット端末等)と、作業者が装着可能な各種端末(例えば、腕時計型端末、頭部装着型端末等)と、のどちらも含む。「報知部」は、情報を表示する表示装置、音声を出力するスピーカ、端末を振動させる振動装置等、報知動作を行うための各種構成を含む。また、「システム制御装置」は、1個の装置によって構成されていても、複数の互いに通信可能な装置によって構成されていてもよい。一般的に言うと、「システム制御装置」は、搬送体カメラによって撮影された荷物の画像である第1の画像を取得し、取得された第1の画像に基づいて、荷物の配送先に関係する識別コードを特定し、複数個の携帯端末のうち、特定された識別コードに対応付けられている特定の識別情報が割り当てられている特定の携帯端末に対して、報知信号を送信可能であれば、任意の構成を有していてもよい。
 複数個の携帯端末のそれぞれは、さらに、荷物を撮影する端末カメラを備えてもよい。端末制御部は、さらに、端末カメラから、端末カメラによって撮影された荷物の画像である第2の画像を取得し、取得された第2の画像に基づいて、識別コードを特定し、特定された識別コードが、当該携帯端末に割り当てられた識別情報に対応するか否かを判定し、特定された識別コードが、当該携帯端末に割り当てられた識別情報に対応すると判定される特定の場合に、報知部に、第2の報知動作を実行させてもよい。
 この構成によると、複数個の携帯端末のそれぞれは、自機の識別情報に対応する配送先が指定された荷物を表わす第2の画像が端末カメラによって撮影される場合に、第2の報知動作を実行することができる。そのため、複数個の携帯端末のそれぞれを、荷物の配送先毎に割り当てられた作業者に携帯させておけば、各作業者は、自身が携帯する携帯端末が行う第2の報知動作によって、端末カメラの撮影範囲内に、自身が携帯する携帯端末に割り当てられた配送先に関係する荷物が存在することを知ることができる。
 報知部は、表示装置を含んでもよい。第2の報知動作は、端末カメラから取得された第2の画像に、特定の場合であることに関係する特定の画像を組み合わせた報知画像を、表示装置に表示させることを含んでもよい。
 この構成によると、作業者は、表示装置に表示された報知画像を見ることで、自身が携帯する携帯端末に割り当てられた配送先に関係する荷物が端末カメラの撮影範囲内に存在することを適切に知ることができる。
 報知部は、表示装置を含んでもよい。第1の報知動作は、特定の識別情報に対応する識別コードを有する荷物が搬送体上に存在することに関係する報知情報を、表示装置に表示させることを含んでもよい。
 この構成によると、作業者は、表示装置に表示された報知情報を見ることで、自身が携帯する携帯端末に割り当てられた配送先に関係する荷物が搬送体上に存在することを適切に知ることができる。
 報知情報は、搬送体上に存在する荷物が、当該携帯端末の近傍に到着するまでの所要時間に関係する時間情報を含んでもよい。
 この構成によると、作業者は、表示装置に表示された報知情報を見ることで、自身が携帯する携帯端末に割り当てられた配送先に関係する荷物が、携帯端末の近傍に到着するまでの所要時間を知りうる。従って、作業者が、荷物の到来を予測しやすくなるため、作業効率が向上する。
 複数個の携帯端末のそれぞれは、さらに、ユーザの頭部に装着可能なフレームを備えてもよい。表示装置は、フレームに搭載され、フレームを装着したユーザの右眼と左眼の少なくとも一方に対向する位置に配置されてもよい。
 この構成によると、作業者は、携帯端末を頭部に装着した状態で、表示装置に表示される報知画像又は/及び報知情報を見ながら作業を行うことができる。従って、作業者が作業を止めて携帯端末を操作する必要がないため、作業者が携帯端末を手で操作する必要がある構成に比べて、作業効率が向上する。
 なお、上記の携帯端末を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。また、上記のシステム制御装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。
管理システムの概略図を示す。 サーバのブロック図を示す。 画像表示装置のブロック図を示す。 サーバの制御部が実行する判別処理のフローチャートを示す。 画像表示装置の制御部が実行する第1の報知処理のフローチャートを示す。 画像表示装置の制御部が実行する第2の報知処理のフローチャートを示す。 報知メッセージの表示が開始された表示部の例を示す。 図7の続きの表示部の例を示す。 図8の続きの表示部の例を示す。
(実施例)
(管理システム2の構成;図1)
 図1に示す管理システム2は、荷物(例えば荷物P1~P5)を、配送先に応じた荷室(例えばトラックT1~T3)に仕分ける仕分け作業を行う作業者(例えば作業者W1~W3)に対して、各荷室に収容されるべき荷物を指示するためのシステムである。図1の管理システム2は、搬送体4と、分岐路4A~4Cと、搬送体カメラ6と、サーバ10と、画像表示装置50A~50Cと、を備える。搬送体カメラ6とサーバ10とは相互に有線通信を実行可能である。また、サーバ10と画像表示装置50A~50Cとは、図示しないインターネットを介して相互に無線通信(具体的にはWi-Fi通信)を実行可能である。画像表示装置50A~50Cのそれぞれは、作業者W1~W3の頭部に装着されている。画像表示装置50A~50Cのそれぞれには、当該装置を識別するためのID(「001」、「002」、「003」)が割り当てられている。以下では、画像表示装置50A、50B、50Cを総称して「画像表示装置50」と呼ぶ場合がある。また、作業者W1~W3を総称して「作業者W」と呼ぶ場合がある。
(搬送体4の構成;図1)
 搬送体4は、荷物(例えば荷物P1~P5)を上流側(図1の左側)から下流側(図1の右側)に向けて搬送するためのコンベアである。本実施例の搬送体4はベルトコンベアであるが、他の例では搬送体4はローラーコンベア等、他のコンベアであってもよい。図1の例では、5個の荷物P1~P5のみが図示されているが、搬送体4上を搬送される荷物はこれに限られず、他にも存在している。
(分岐路4A、4B、4Cの構成;図1)
 分岐路4A、4B、4Cは、それぞれ、搬送体4の側方に設けられている分岐用の搬送体である。分岐路4A、4B、4Cは、それぞれ、搬送体4上の荷物の搬送方向を、対応するトラックT1、T2、T3に向かう方向に転換させるための分岐路である。図1の例では、3台のトラックT1、T2、T3のそれぞれは、荷物の配送先地域が異なる。即ち、分岐路4AはトラックT1に荷物を仕分けるための分岐路であり、分岐路4BはトラックT2に荷物を仕分けるための分岐路であり、分岐路4CはトラックT3に荷物を仕分けるための分岐路である。分岐路4A、4B、4Cは、いずれも、搬送体4と同様のコンベアによって構成されている。分岐路4A、4B、4Cの上流端(即ち搬送体4と隣接する側の端部)の近傍には、それぞれ、当該分岐路への荷物の仕分けを担当する作業者(即ち作業者W1、W2、W3)が配置されている。
 作業者W1は、分岐路4Aへの荷物の仕分けを担当する。作業者W1は、搬送体4上の荷物のうち、分岐路4A上に仕分けられるべき荷物(即ちトラックT1に収容されるべき荷物)を、搬送体4上から分岐路4A上に手で移動させる。以下ではこの作業のことを「荷引き」と呼ぶ場合がある。同様に、作業者W2は、分岐路4Bへの荷物の仕分け(即ち荷引き)を担当し、作業者W3は、分岐路4Cへの荷物の仕分けを担当する。
 なお、図1の例では、管理システム2には、3台のトラックT1~T3に対応する3本の分岐路4A~4Cが備えられているが、トラック及び分岐路の数はこれに限定されるものではない。その場合、作業者Wの数も3名(即ち作業者W1~W3)には限られない。
(搬送体カメラ6の構成;図1)
 搬送体カメラ6は、搬送体4の上方に備えられたカメラである。搬送体カメラ6は、搬送体4のうち、分岐路4A~4Cと接続される部分よりも上流側に備えられている。搬送体カメラ6は、搬送体4上を搬送される荷物を撮影し、撮影画像をサーバ10に供給する。図1の例では、1台の搬送体カメラ6のみが備えられる様子が図示されているが、他の例では、複数台の搬送体カメラ6が備えられていてもよい。その場合、各搬送体カメラ6は、相互に異なる角度から1個の荷物を撮影可能であってもよい。
(サーバ10の構成;図1、図2)
 図1に示すサーバ10は、管理システム2の管理者(例えば、仕分け作業の管理企業等)によって設置されるサーバである。図2に示すように、サーバ10は、有線通信インターフェース12と、Wi-Fiインターフェース14と、制御部20と、メモリ22とを備える。なお、以下では、インターフェースのことを「I/F」と記載する。
 有線通信I/F12は、搬送体カメラ6と有線通信を実行するためのI/Fである。Wi-FiI/F14は、インターネット(図示しない)を介して、外部の装置(例えば、画像表示装置50A~50C)とWi-Fi通信を実行するためのI/Fである。
 制御部20は、メモリ22に記憶されているプログラム24に従って、後述の判別処理(図4参照)を含む様々な処理を実行する。メモリ22は、プログラム24の他に、コードテーブル26を記憶している。コードテーブル26は、サーバ10の管理者によって予めメモリ22に記憶させられている。図2に示すように、コードテーブル26は、住所コード(例えば「C1」)と、当該住所コードに対応付けられている画像表示装置50を示すID(例えば「001」)と、の組合せを示す複数個の組合せ情報26a~26dを含む。ここで、住所コードとは、荷物の配送先の住所のエリアごとに割り当てられたコード情報(即ち数字と文字の組合せ)である。住所コードは、各荷物の送り状に付された情報コード(例えばバーコード等)に記録されているとともに、送り状にも記載されている。例えば、組合せ情報26aは、住所コード「C1」と、画像表示装置50AのID「001」とが対応付けられていることを示す。この組合せ情報26aは、住所コード「C1」が割り当てられた荷物は、画像表示装置50Aを装着する作業者W1によって荷引きされるべき荷物(即ちトラックT1に収容されるべき荷物)であることを示している。
(画像表示装置50A、50B、50Cの構成;図1、図3)
 画像表示装置50A、50B、50Cは、いずれも同様の構成を備える。そのため、以下では、画像表示装置50Aの構成を例として説明する。
 画像表示装置50Aは、ユーザ(作業者W1)の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図1に示すように、画像表示装置50Aは、フレーム52と、右表示部54Rと、左表示部54Lと、右投影部55Rと、左投影部55Lと、右カメラ56Rと、左カメラ56Lと、コントロールボックス58と、スピーカ59とを備えている。
 フレーム52は、眼鏡フレーム状の部材である。ユーザは、眼鏡を装着するようにフレーム52を装着することによって、画像表示装置50を頭部に装着することができる。
 右表示部54R、左表示部54Lは、それぞれ、透光性の表示部材である。ユーザが画像表示装置50を頭部に装着すると、ユーザの右眼に対向する位置に右表示部54Rが配置され、左眼に対向する位置に左表示部54Lが配置される。以下、右表示部54R、左表示部54Lを総称して「表示部54」と呼ぶ場合がある。
 右投影部55R、左投影部55Lは、それぞれ、右表示部54R、左表示部54Lに画像を投影する部材である。右投影部55R、左投影部55Lは、それぞれ、右表示部54R、左表示部54Lの側部に設けられている。以下、右投影部55R、左投影部55Lを総称して「投影部55」と呼ぶ場合がある。本実施例では、投影部55は、制御部70の指示に従って、仮想のマーカ画像(図8、図9の符号200参照)を表示部54に投影する。これにより、ユーザは、表示部54越しにユーザが視認可能な現実世界の対象物(例えば図8、図9の荷物P12)又は/及び空間の所定の位置に、上記マーカ画像が重畳されたかの様に、現実世界の対象物又は/及び空間とオブジェクト画像とを見ることができる。以下、本明細書では、制御部70が、投影部55に画像の投影を指示することによって、表示部54に所望の画像を表示させることを説明する場合に、投影部55の動作の説明を省略し、単に「制御部70が表示部54に所望の画像を表示させる」などと表現する場合がある。
 右カメラ56Rは、フレーム52のうち、右表示部54Rの上方位置(即ち、ユーザの右眼の上方に対応する位置)に配置されているカメラである。一方、左カメラ56Lは、フレーム52のうち、左表示部54Lの上方位置(即ち、ユーザの左眼の上方に対応する位置)に配置されているカメラである。右カメラ56Rと左カメラ56Lのそれぞれによって、画像表示装置50を装着するユーザの視界範囲に対応する範囲(以下では「特定範囲」と呼ぶ場合がある)を異なる角度から撮影することができる。即ち、右カメラ56Rはユーザの右眼の視界範囲を撮影し、左カメラ56Lはユーザの左眼の視界範囲を撮影すると言うこともできる。また、以下、右カメラ56Rと左カメラ56Lを総称して「カメラ56」と呼ぶ場合がある。
 コントロールボックス58は、フレーム52の一部に内蔵されている制御装置である。コントロールボックス58には、画像表示装置50の制御系統を司る各要素が収容されている。具体的に言うと、図2に示すように、コントロールボックス58には、Wi-FiI/F60と、制御部70と、メモリ72と、が収納されている。他の例では、コントロールボックス58は、フレーム52とは別個に備えられていてもよい。その場合、コントロールボックス58内の各構成要素(Wi-FiI/F60、制御部70、メモリ72)と、フレーム52に備え付けられた各構成要素(表示部54、投影部55、カメラ56等)とがケーブル等によって電気的に接続されていればよい。
 Wi-FiI/F60は、インターネット(図示しない)を介して、外部の装置(例えば、サーバ10)とWi-Fi通信を実行するためのI/Fである。
 制御部70は、メモリ72に記憶されているプログラム74に従って、後述の積み付け制御処理(図5参照)を含む様々な処理を実行する。また、制御部70は、表示部54、投影部55、カメラ56、Wi-FiI/F60、及び、メモリ72と電気的に接続されており、これらの各要素の動作を制御することができる。
 メモリ72は、プログラム74に加えて、コードテーブル76を記憶している。コードテーブル76は、上記のコードテーブル26(図2参照)と同様のものであり、サーバ10の管理者によって予めメモリ72に記憶させられている。そのため、コードテーブル76も、コードテーブル26と同様の組合せ情報76a~76dを含む。また、図示していないが、メモリ72は、画像表示装置50Aを識別するためのID「001」も記憶している。なお、画像表示装置50B、50Cの場合には、メモリ72には、ID「001」に代えて、それぞれID「002」、「003」が記憶されている(図1参照)。
 スピーカ59は、音声を出力するための出力部である。
(サーバ10の制御部20が実行する判別処理;図4)
 図4を参照して、本実施例の管理システム2を利用して仕分け作業を管理する場合において、サーバ10の制御部20が実行する判別処理について説明する。判別処理は、搬送体4上を搬送される荷物が、どのトラックに収容されるべきであるのか(即ち、どの画像表示装置50を装着する作業者Wに仕分けを行わせるべきか)を判別するための処理である。サーバ10の電源がオンされると、制御部20は、図4の処理を開始する。それとともに、搬送体カメラ6は搬送体4上の撮影を開始し、サーバ10への撮影画像の供給を開始する。
 S10では、制御部20は、搬送体カメラ6の撮影画像の中から荷物の画像が検出されることを監視する。上記の通り、図4の処理の開始とともに、搬送体カメラ6は搬送体4上の撮影を開始し、サーバ10への撮影画像の供給を開始する。制御部20は、有線通信I/F12を介して、搬送体カメラ6から撮影画像を継続的に取得する。S10では、制御部20は、搬送体カメラ6から取得される撮影画像をスキャンし、撮影画像中に存在する物体の外形を検出する。そして、制御部20は、検出された物体の外形が、メモリ22に予め記憶されている荷物の規格を示す情報に適合するか否かを判定する。制御部20は、検出された物体の外形が荷物の規格を示す情報に適合すると判定される場合に、S10でYES(即ち撮影画像の中から荷物の画像が検出された)と判断し、S12に進む。
 S12では、制御部20は、S10で検出された荷物の画像から、住所コードを特定する。具体的には、S12では、制御部20は、S10で検出された荷物の画像のうち、荷物の送り状に付されている情報コード部分の画像の読み取りを実行し、当該情報コードに記録されている住所コードを取得する。制御部20は、上記読み取りに失敗する場合には、荷物の画像の送り状部分に対して文字認識処理を実行し、当該送り状に記載されている住所コードを取得する。以上の処理を実行することにより、S12において、制御部20は、S10で検出された荷物画像から住所コードを特定する。他の例では、制御部20は、上記の読み取り処理と文字認識処理とのうちの一方のみを実行してもよいし、両方を同タイミングで実行してもよい。
 続くS14では、制御部20は、S12で特定された住所コードに対応する画像表示装置50のIDを特定する。具体的には、S14では、制御部20は、メモリ22内のコードテーブル26を参照し、S12で特定された住所コードを含む組合せ情報を特定する。そして、制御部20は、特定された組合せ情報において、S12で特定された住所コードに対応付けられているID(以下では「第1種のID」と呼ぶ場合がある)を特定する。
 続くS16では、制御部20は、Wi-FiI/F14を介して、S14で特定された第1種のIDが割り当てられている画像表示装置50(以下では「特定の画像表示装置」と呼ぶ場合がある)に対して、報知信号を送信する。報知信号は、特定の画像表示装置50に対して、特定の画像表示装置50を装着する作業者Wによって荷引きされるべき荷物が間もなく到着する旨の報知メッセージ、及び、到着予想時刻までの残り時間情報(後述の図7、図8の符号100、110参照)を表示部54に表示させることを指示するための信号である。ここで、到着予想時刻は、搬送体4の搬送速度と、搬送体カメラ6と分岐路4A~4Cの間の距離と、に応じて予め定められた到着所要時間に従って定められる。S16で報知信号を送信すると、制御部20は、S10に戻り、搬送体カメラ6の撮影画像の中から新たな荷物の画像が検出されることを監視する。以後、制御部20は、S10~S16の処理を繰り返し実行する。
(画像表示装置50Aの制御部70が実行する処理;図5、図6)
 次いで、図5、図6を参照して、本実施例の管理システム2を利用して仕分け作業を管理する場合において、画像表示装置50Aの制御部70が実行する第1の報知処理(図5)及び第2の報知処理(図6)について説明する。制御部70は、第1の報知処理及び第2の報知処理を並行して実行する。以下では、画像表示装置50Aの制御部70が実行する処理の例について説明するが、画像表示装置50Bの制御部70及び画像表示装置50Cの制御部70も同様の処理を実行する。
(画像表示装置50Aの制御部70が実行する第1の報知処理;図5)
 第1の報知処理は、画像表示装置50Aを装着する作業者W1によって荷引きされるべき荷物(以下では「担当荷物」と呼ぶ場合がある)が間もなく到着することを報知するための処理である。画像表示装置50Aの電源がオンされると、制御部70は、図5の処理と図6の処理を並行して開始する。
 S30では、制御部70は、サーバ10から報知信号(図4のS16)を受信することを監視する。上記の通り、サーバ10の制御部20が、判別処理(図4)の結果、画像表示装置50Aに報知信号を送信すると(図4のS16)、制御部70は、Wi-FiI/F60を介して、報知信号を受信する。その場合、制御部70は、S30でYESと判断し、S32に進む。
 S32では、制御部70は、受信された報知信号に従って、画像表示装置50Aを装着する作業者W1の担当荷物が間もなく到着する旨の報知メッセージ、及び、到着予想時刻までの残り時間情報(後述の図7の符号100、110参照)を表示部54に表示させる。そして、制御部70は、残り時間情報が示す残り時間のカウントダウンを開始する(後述の図8の符号110参照)。この結果、表示部54を見た作業者W1は、担当荷物が間もなく到着することを知ることができる。
 S34では、制御部70は、S32で表示された残り時間情報が示す残り時間が0になる(即ち到着予想時刻が到来する)ことを監視する。S32でカウントダウンが開始された後で、残り時間が0になった場合、制御部70は、S34でYESと判断し、S36に進む。
 S36では、制御部70は、S32で表示を開始した報知メッセージ、及び、残り時間情報の表示を終了する。S36を終えると、制御部70は、S30に戻り、再び報知信号を受信することを監視する。
(画像表示装置50Aの制御部70が実行する第2の報知処理;図6)
 第2の報知処理は、作業者W1の担当荷物が、作業者W1の近傍に存在することを報知するための処理である。上記の通り、画像表示装置50Aの電源がオンされると、制御部70は、図5の処理と図6の処理を並行して開始する。それとともに、カメラ56は、作業者W1の視界範囲に対応する特定範囲の撮影を開始し、制御部70への撮影画像の供給を開始する。
 図6のS40では、制御部70は、カメラ56の撮影画像の中から荷物の画像が検出されることを監視する。S40では、制御部70は、図4のS10とほぼ同様の処理を実行する。即ち、制御部70は、カメラ56から取得される撮影画像をスキャンし、撮影画像中に存在する物体の外形を検出する。そして、制御部70は、検出された物体の外形が、メモリ72に予め記憶されている荷物の規格を示す情報に適合するか否かを判定する。制御部20は、検出された物体の外形が荷物の規格を示す情報に適合すると判定される場合に、S40でYES(即ち撮影画像の中から荷物の画像が検出された)と判断し、S42に進む。
 S42では、制御部70は、制御部20は、S40で検出された荷物の画像から、住所コードを特定する。S42では、制御部70は、図4のS12とほぼ同様の処理を実行する。具体的には、S42では、制御部70は、S40で検出された画像のうち、荷物の送り状に付されている情報コード部分の画像の読み取りを実行し、当該情報コードに記録されている住所コードを取得する。制御部70は、上記読み取りに失敗する場合には、S40で検出された画像の送り状部分に対して文字認識処理を実行し、当該送り状に記載されている住所コードを取得する。
 続くS44では、制御部70は、S42で特定された住所コードが、自機のID(即ち「001」)と対応するか否かを判断する。具体的には、S44では、制御部70は、メモリ72内のコードテーブル76を参照し、S42で特定された住所コードを含む組合せ情報を特定する。そして、制御部70は、特定された組合せ情報において、S42で特定された住所コードに対応付けられているID(以下では「第2種のID」と呼ぶ場合がある)が、自機のID(即ち「001」)であるか否かを判断する。第2種のIDが自機のIDである場合、制御部70は、S44でYESと判断し、S46に進む。S44でYESと判断される場合、S40で検出された画像中の荷物が、担当荷物であることを意味する。一方、第2種のIDが自機のIDではない場合、制御部70は、S44でNOと判断し、S40に戻り、再び、カメラ56の撮影画像の中から新たな荷物の画像が検出されることを監視する。
 S46では、制御部70は、S40で検出された画像中の荷物(即ち担当荷物)に、マーカ画像(図7、図8の符号200参照)を表示部54に表示させる。この際、制御部70は、マーカ画像を、現実に搬送体4上を搬送される担当荷物(図7、図8のP12参照)の近傍の位置に重畳される態様で表示させる。他の例では、制御部70は、マーカ画像と同時に、担当荷物であることを示すメッセージ等の各種文字情報を併せて表示してもよい。制御部70は、作業者W1の視界範囲から担当荷物が存在しなくなるまで(即ち、カメラ56の撮影範囲から担当荷物が外れるまで)、マーカ画像の表示を継続する。S46の処理の結果、表示部54を見た作業者W1は、担当荷物が近傍(より詳細には目の前)に存在していることを知ることができる。S46を終えると、制御部70は、再びS40に戻り、再び、カメラ56の撮影画像の中から新たな荷物の画像が検出されることを監視する。
(表示部54の表示内容の具体例;図7~図9)
 図7~図9を参照して、サーバ10の制御部70が判別処理(図4)を実行し、画像表示装置50Aの制御部20が第1の報知処理(図5)及び第2の報知処理(図6)を実行する場合における、表示部54の表示内容の具体例を説明する。
 上記の通り、サーバ10の制御部20が、判別処理を実行した結果、画像表示装置50Aに報知信号を送信する(図4のS16参照)と、制御部70は、サーバ10から報知信号を受信する(図5のS30でYES)。この場合、図7に示すように、制御部70は、受信された報知信号に従って、報知メッセージ100及び残り時間情報110を表示部54に表示させる。報知メッセージ100は、担当荷物が間もなく到着する旨のメッセージ(「Arriving!」)を含む。また、図7の例では、残り時間情報110(「in 5sec」)は、あと5秒で担当荷物が到着することを示している。この時点では、表示部54内(即ち、作業者W1の視界範囲内)には、担当荷物は存在しておらず、搬送体4上には、作業者W1の担当荷物ではない他の荷物P11が存在している。荷物P11は担当荷物でないため(図6のS44でNO)、制御部70は、搬送体4上の荷物P11にはマーカ画像を重畳表示させていない。
 図7で報知メッセージ100及び残り時間情報110の表示が開始された後、制御部70は、残り時間情報110が示す残り時間のカウントダウンを開始する(図8参照)。そして、続く図8の例のように、作業者W1の視界範囲内(即ちカメラ56の撮影範囲内)に担当荷物P12が入ると、制御部70は、カメラ56の撮影画像から担当荷物P12の画像を検出する(図6のS40でYES)。そして、制御部70は、担当荷物P12の住所コード(例えば「C1」)を特定し(S42)、特定された住所コードが自機のID「001」と対応すると判断する(S44でYES)。そして、制御部70は、表示部54に、現実の担当荷物P12に重畳する態様で、マーカ画像200を表示させる。マーカ画像200は、担当荷物P12を指し示す矢印型の画像である。なお、図8の例では、残り時間情報110が示す残り時間は1秒であり、あと1秒で担当荷物が作業者W1の目の前に到着することを示している。
 続く図9の例の時点では、図8の残り時間情報110が示す残り時間が0になり、制御部70は、報知メッセージ100及び残り時間情報110の表示を終了している(図5のS36)。この時点では、担当荷物P12は、作業者W1の目の前に到着している。図9の例では、制御部70は、図8の例に引き続いて、表示部54に、現実の担当荷物P12に重畳する態様で、マーカ画像200を表示させている。
 以上、本実施例の管理システム2の構成及び動作について説明した。上記の通り、本実施例では、サーバ10の制御部20は、判別処理を行い、特定の画像表示装置50に対して、報知信号を送信する(図3のS16参照)。そして、画像表示装置50Aの制御部70は、サーバ10から報知信号を受信すると(図5のS30でYES)、報知メッセージ及び残り時間情報の表示を行う(S32、図7、図8参照)。そのため、表示部54を見た作業者W1は、担当荷物が間もなく到着することを知ることができる。このように、本実施例の管理システム2では、複数個の画像表示装置50A~50Cのそれぞれを、荷物の配送先毎に割り当てられた作業者W1~W3に装着させておけば、各作業者は、自身が装着する画像表示装置50の表示部54を見ることによって、自身の担当荷物が間もなく到着することを知ることができる。従って、本実施例の管理システム2によると、作業者Wに、担当荷物が搬送体4で搬送されており、作業者Wのもとに間もなく到着することを適切に報知することができる。また、残り時間情報を見ることで、作業者Wは、担当荷物が到着するまでの所要時間を把握することができ、作業者Wが、荷物の到来を予測しやすく、作業効率が向上する。
 また、本実施例では、画像表示装置50Aの制御部70は、カメラ56の撮影範囲内に担当荷物が存在するか否かを判定し(図6のS40~S44)、担当荷物が存在する場合に(S44でYES)、担当荷物に重畳させる態様でマーカ画像を表示部54に表示させる。そのため、表示部54を見た作業者W1は、担当荷物が近傍(より詳細には目の前)に存在していることを知ることができる。このように、本実施例の管理システム2では、複数個の画像表示装置50A~50Cのそれぞれを、荷物の配送先毎に割り当てられた作業者W1~W3に装着させておけば、各作業者は、表示部54のマーカ画像を見ることによって、カメラ56の撮影範囲内(即ち作業者の目の前)に、担当荷物が存在することを知ることができる。
 また、本実施例では、画像表示装置50は、作業者Wの頭部に装着可能なヘッドマウントディスプレイである。そのため、作業者Wは、画像表示装置50を頭部に装着した状態で、表示部54に表示される報知メッセージ、残り時間情報、及び、マーカ画像を見ながら作業を行うことができる。従って、作業者Wが作業を止めて画像表示装置50を操作する必要がないため、作業者Wが画像表示装置を手で操作する必要がある構成に比べて、作業効率が向上する。
 本実施例と請求の範囲の対応関係を説明しておく。サーバ10が「システム制御装置」の一例である。画像表示装置50が「携帯端末」の一例である。IDが「識別情報」の一例である。住所コードが「識別コード」の一例である。搬送体カメラ6の撮影画像が「第1の画像」の一例である。カメラ56の撮影画像が「第2の画像」の一例である。表示部54が「報知部」の一例である。図5のS32で報知メッセージと残り時間情報を表示させることが「第1の報知動作」の一例である。報知メッセージと残り時間情報が「報知情報」の一例である。図6のS46でマーカ画像を表示させることが「第2の報知動作」の一例である。マーカ画像が「特定の画像」の一例である。
 以上、実施例を詳細に説明したが、これらは例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)上記の実施例では、画像表示装置50Aの制御部70は、サーバ10から報知信号を受信する場合に(図5のS30でYES)、報知メッセージとともに、残り時間情報の表示を行っている(S32、図7、図8参照)。これに限られず、制御部70は、サーバ10から報知信号を受信する場合に、報知メッセージとともに、到着予想時刻を示す時刻情報を表示するようにしてもよい。この変形例では、報知メッセージ及び時刻情報が「報知情報」の一例である。
(変形例2)上記の実施例では、制御部70は、サーバ10から報知信号を受信する場合に(図5のS30でYES)、報知メッセージと残り時間情報の表示を行い、カメラ56の撮影範囲内に担当荷物が存在する場合に(図6のS44でYES)、マーカ画像の表示を行うことで、担当荷物が到着予定である(又は到着している)ことを報知している。しかしながら、担当荷物が到着予定である(又は到着している)ことの報知の手法は、これに限られず、任意の他の手法を用いてもよい。例えば、制御部70は、スピーカ59から、音声を出力することによって報知を行ってもよい。また、他の例では、画像表示装置50が所定の振動装置(図示しない)を有していてもよく、制御部70は、振動装置に振動を行わせることによって報知を行ってもよい。また、表示部54への表示、スピーカ59からの音声出力、振動装置の振動、のうちの2つ以上の手法を組み合わせて報知を行ってもよい。
(変形例3)上記の実施例では、制御部70は、S40~S44の処理(即ち、カメラ56の撮影画像に含まれる荷物の画像が担当荷物であるか否かの判断処理)を実行している。これに限られず、制御部70は、S40~S44の処理を、画像表示装置50以外の外部装置(例えばサーバ10等)に実行させるようにしてもよい。その場合、制御部70は、カメラ56の撮影画像を、Wi-FiI/F14を介して外部装置に送信すればよい。外部装置は、画像表示装置50から受信した撮影画像に基づいて、S40~S44と同様の処理を実行し、カメラ56の撮影画像に含まれる荷物の画像が担当荷物と判断される場合(S44でYESの場合)に、マーカ画像を表示する旨の表示指示を画像表示装置50に送信してもよい。制御部70は、外部装置から表示指示を受信する場合に、マーカ画像を表示部54に表示させるようにしてもよい。
(変形例4)上記の実施例では、画像表示装置50の表示部54は、透光性のディスプレイである。これに限られず、画像表示装置50の表示部は遮光性のディスプレイであって、作業者Wが画像表示装置50を装着した際に作業者Wの視界を遮るものであってもよい。その場合、制御部70は、カメラ56で撮影されるカメラ画像(即ち、作業者Wの視界範囲に対応する画像)を表示部に表示させてもよい。また、第2の報知処理(図6参照)では、制御部70は、表示部に表示されるカメラ画像にマーカ画像を重畳させて表示させるようにしてもよい。
(変形例5)上記の各実施例では、画像表示装置50は、略眼鏡状のフレームを有しており、眼鏡を装着するようにユーザの頭部に装着可能なものである。これに限られず、画像表示装置は、ユーザの頭部に装着可能であれば、帽子状、ヘルメット状等、任意の支持枠を有していてもよい。
(変形例6)画像表示装置は、視力矯正、目の保護等の用途のために一般的に使用されているアイウェア(眼鏡、サングラス等)に、カメラ及びコントロールボックス等を装着することによって形成されてもよい。その場合、アイウェアのレンズ部分が表示部として利用されてもよい。
(変形例7)上記の実施例では、画像表示装置50は、右カメラ56Rと左カメラ56Lの2個のカメラを有するが、カメラの数は1個であってもよい。また、画像表示装置50は、右表示部54Rと左表示部54Lとのうちの一方のみを有していてもよい。
(変形例8)画像表示装置は、作業者の頭部に装着可能なものに限られず、任意の形態のものであってもよい。例えば、画像表示装置は、作業者が携帯可能な携帯端末(例えばタブレット型端末)であってもよい。また、腕時計型端末のように、作業者の頭部以外の部分に装着可能なものであってもよい。
(変形例9)上記の実施例では、コードテーブル26がメモリ22に記憶されているが、他の例では、コードテーブル26に対応するテーブルが、サーバ10と通信可能な他の装置(例えば外部サーバ等)に記憶されていてもよい。その場合、サーバ10の制御部20は、図4のS12で取得された住所コードを外部サーバに送信してもよい。外部サーバは、住所コードに対応する画像表示装置のIDを特定し、特定された住所コードを制御部20に通知してもよい。
(変形例10)上記の実施例では、コードテーブル76がメモリ72に記憶されているが、変形例9と同様に、他の例では、コードテーブル76に対応するテーブルが、画像表示装置50と通信可能な他の装置(例えば外部サーバ等)に記憶されていてもよい。その場合、画像表示装置50の制御部70は、図6のS42で取得された住所コードを外部サーバに送信してもよい。外部サーバは、住所コードに対応する画像表示装置のIDを特定し、特定されたIDが、住所コードの送信元の画像表示装置50のIDである場合に、当該画像表示装置50の制御部70に住所コードが自機のIDと対応する旨を通知してもよい。
 また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (6)

  1.  複数個の携帯端末と、
     システム制御装置と、を備え、
     前記複数個の携帯端末のそれぞれには、当該携帯端末を示す識別情報が割り当てられており、
     前記複数個の携帯端末のそれぞれは、端末制御部と、報知部と、を備え、
     前記端末制御部は、前記システム制御装置から報知信号を受信する場合に、前記報知部に第1の報知動作を実行させ、
     前記システム制御装置は、
      搬送体上を上流側から下流側に向けて搬送される荷物を撮影する搬送体カメラから、前記搬送体カメラによって撮影された前記荷物の画像である第1の画像を取得し、
      取得された前記第1の画像に基づいて、前記荷物の配送先に関係する識別コードを特定し、
      前記複数個の携帯端末のうち、特定された前記識別コードに対応付けられている特定の識別情報が割り当てられている特定の携帯端末に対して、報知信号を送信する、
     管理システム。
  2.  前記複数個の携帯端末のそれぞれは、さらに、前記荷物を撮影する端末カメラを備え、
     前記端末制御部は、さらに、
      前記端末カメラから、前記端末カメラによって撮影された前記荷物の画像である第2の画像を取得し、
      取得された前記第2の画像に基づいて、前記識別コードを特定し、
      特定された前記識別コードが、当該携帯端末に割り当てられた前記識別情報に対応するか否かを判定し、
      特定された前記識別コードが、当該携帯端末に割り当てられた前記識別情報に対応すると判定される特定の場合に、前記報知部に、第2の報知動作を実行させる、
     請求項1に記載の管理システム。
  3.  前記報知部は、表示装置を含み、
     前記第2の報知動作は、前記端末カメラから取得された前記第2の画像に、前記特定の場合であることに関係する特定の画像を組み合わせた報知画像を、前記表示装置に表示させることを含む、
     請求項2に記載の管理システム。
  4.  前記報知部は、表示装置を含み、
     前記第1の報知動作は、前記特定の識別情報に対応する前記識別コードを有する前記荷物が前記搬送体上に存在することに関係する報知情報を、前記表示装置に表示させることを含む、
     請求項1から3のいずれか一項に記載の管理システム。
  5.  前記報知情報は、前記搬送体上に存在する前記荷物が、当該携帯端末の近傍に到着するまでの所要時間に関係する時間情報を含む、
     請求項4に記載の管理システム。
  6.  前記複数個の携帯端末のそれぞれは、さらに、ユーザの頭部に装着可能なフレームを備え、
     前記表示装置は、前記フレームに搭載され、前記フレームを装着した前記ユーザの右眼と左眼の少なくとも一方に対向する位置に配置される、
     請求項3から5のいずれか一項に記載の管理システム。
PCT/JP2016/088109 2016-12-21 2016-12-21 管理システム WO2018116405A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/088109 WO2018116405A1 (ja) 2016-12-21 2016-12-21 管理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/088109 WO2018116405A1 (ja) 2016-12-21 2016-12-21 管理システム

Publications (1)

Publication Number Publication Date
WO2018116405A1 true WO2018116405A1 (ja) 2018-06-28

Family

ID=62627156

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088109 WO2018116405A1 (ja) 2016-12-21 2016-12-21 管理システム

Country Status (1)

Country Link
WO (1) WO2018116405A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101846A (ja) * 2018-12-19 2020-07-02 オムロン株式会社 予測装置、搬送制御システム、および予測方法
JP6999786B1 (ja) 2020-11-20 2022-01-19 クーパン コーポレイション 情報提供方法およびその電子装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09267914A (ja) * 1996-03-29 1997-10-14 Sanki Eng Co Ltd 仕分け装置
JP2002226020A (ja) * 2000-11-29 2002-08-14 Toyo Kanetsu Kk シュート下の仕分設備
JP2004054776A (ja) * 2002-07-23 2004-02-19 Dainippon Printing Co Ltd 携行荷物の受け渡し支援システム
JP2011026050A (ja) * 2009-07-23 2011-02-10 Murata Machinery Ltd 仕分けシステム
JP3186690U (ja) * 2013-08-08 2013-10-17 シネティックソーティング株式会社 Led電光表示板を設置された手仕分けライン
JP2014122075A (ja) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk 物品のピッキング作業の支援システム
JP2015124057A (ja) * 2013-12-27 2015-07-06 株式会社ダイフク 仕分け設備、仕分け設備における情報表示方法、仕分け設備における情報表示機構の表示部、仕分け設備における情報表示機構の情報処理部
JP2016047743A (ja) * 2014-08-27 2016-04-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09267914A (ja) * 1996-03-29 1997-10-14 Sanki Eng Co Ltd 仕分け装置
JP2002226020A (ja) * 2000-11-29 2002-08-14 Toyo Kanetsu Kk シュート下の仕分設備
JP2004054776A (ja) * 2002-07-23 2004-02-19 Dainippon Printing Co Ltd 携行荷物の受け渡し支援システム
JP2011026050A (ja) * 2009-07-23 2011-02-10 Murata Machinery Ltd 仕分けシステム
JP2014122075A (ja) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk 物品のピッキング作業の支援システム
JP3186690U (ja) * 2013-08-08 2013-10-17 シネティックソーティング株式会社 Led電光表示板を設置された手仕分けライン
JP2015124057A (ja) * 2013-12-27 2015-07-06 株式会社ダイフク 仕分け設備、仕分け設備における情報表示方法、仕分け設備における情報表示機構の表示部、仕分け設備における情報表示機構の情報処理部
JP2016047743A (ja) * 2014-08-27 2016-04-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101846A (ja) * 2018-12-19 2020-07-02 オムロン株式会社 予測装置、搬送制御システム、および予測方法
JP6999786B1 (ja) 2020-11-20 2022-01-19 クーパン コーポレイション 情報提供方法およびその電子装置
JP2022082400A (ja) * 2020-11-20 2022-06-01 クーパン コーポレイション 情報提供方法およびその電子装置
JP2022082469A (ja) * 2020-11-20 2022-06-01 クーパン コーポレイション 情報提供方法およびその電子装置
JP7362182B2 (ja) 2020-11-20 2023-10-17 クーパン コーポレイション 情報提供方法およびその電子装置

Similar Documents

Publication Publication Date Title
JP5334145B1 (ja) 物品のピッキング作業の支援システム
JP5901427B2 (ja) ピッキングシステム
US20170066597A1 (en) Information processing device, information processing system, distribution system, information processing method, and program storage medium
JP6008832B2 (ja) ピッキングシステム
JP2018205939A (ja) 配車システム
JP6367171B2 (ja) 配達支援システム、配達支援装置、及び配達支援プログラム
WO2018003712A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び、プログラム
WO2018116405A1 (ja) 管理システム
JP6679442B2 (ja) 荷物追跡システム、荷物追跡方法及び荷物追跡プログラム
JP6261691B2 (ja) ピッキングシステム
JPWO2007013260A1 (ja) 作業システム及び作業システムでの作業指示方法
WO2018062238A1 (ja) 検査装置
JP2016052919A (ja) 搬送車システム
JP2015048171A (ja) ピッキングシステム
CN107872950A (zh) 部件管理支援系统以及部件管理支援方法
JP6367255B2 (ja) 配達支援装置、及び配達支援プログラム
CN112771565A (zh) 行李管理系统以及在该系统中使用的服务器
US20170061179A1 (en) Assignment device and method for sorting luggage pieces
WO2020067433A1 (ja) 荷物管理システム、及び、このシステムで用いるサーバ
US20200290093A1 (en) Projection instruction device, package sorting system, and projection instruction method
JP2018019373A (ja) 監視カメラ及び荷物読取方法
WO2018100631A1 (ja) 情報処理装置
US11235353B2 (en) Baggage sorting system
US11763482B2 (en) Baggage recognition device, baggage sorting system, and baggage recognition method
US9790029B2 (en) Conveyor-using packing management system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16924892

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16924892

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP