WO2024084653A1 - 配膳ロボット、配膳システム、及び配膳方法 - Google Patents

配膳ロボット、配膳システム、及び配膳方法 Download PDF

Info

Publication number
WO2024084653A1
WO2024084653A1 PCT/JP2022/039098 JP2022039098W WO2024084653A1 WO 2024084653 A1 WO2024084653 A1 WO 2024084653A1 JP 2022039098 W JP2022039098 W JP 2022039098W WO 2024084653 A1 WO2024084653 A1 WO 2024084653A1
Authority
WO
WIPO (PCT)
Prior art keywords
customer
destination
food
meal
ordered
Prior art date
Application number
PCT/JP2022/039098
Other languages
English (en)
French (fr)
Inventor
肇 鈴木
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/039098 priority Critical patent/WO2024084653A1/ja
Publication of WO2024084653A1 publication Critical patent/WO2024084653A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G23/00Other table equipment
    • A47G23/08Food-conveying devices for tables; Movable or rotary food-serving devices

Definitions

  • This disclosure relates to a food serving robot, a food serving system, and a food serving method.
  • Patent Literature 1 describes a service robot that travels autonomously to provide services in places such as restaurants.
  • the service robot autonomously travels to a target location input by a waiter while detecting the surrounding situation, and takes orders or serves customers.
  • the store clerk determines where the customer is seated and inputs the target position into the robot.
  • the store clerk may not be able to determine where the customer who has placed an order is located, and there is a risk that the clerk will not be able to accurately serve the meal to the customer.
  • the purpose of this disclosure is to provide a food serving robot, food serving system, and food serving method that can accurately serve meals to customers.
  • a food service robot includes: An acquisition unit that acquires a registered face image of a customer who has ordered a meal at a restaurant and destination information indicating a destination where the meal is to be served; A travel control unit that controls travel to the destination based on the destination information; a face image acquisition unit that photographs the customer at the service destination and acquires a photographed face image; a determination unit that determines whether or not the user is the customer who ordered the meal based on a result of comparing the registered face image with the captured face image; and a receipt permission unit that permits the customer to receive the meal when the determination unit determines that the customer is the one who ordered the meal.
  • a food serving system includes:
  • the store-side processing device includes: Acquire a registered face image of a customer who has ordered a meal at a restaurant, destination information indicating where the meal is to be served, and order information of the customer; Transmitting the registered face image and the recipient information to the food service robot; Present the order information to a person in charge of the order;
  • the food delivery robot includes: Controlling travel to a destination based on destination information acquired from the store-side processing device; An image of the customer at the delivery location is photographed, and based on the result of comparing the image with the registered face image acquired from the store-side processing device, it is determined whether or not the customer is the one who ordered the meal.
  • a method for serving food includes: When ordering a meal at a restaurant, a registered face image of the customer who ordered the meal and destination information indicating the destination where the meal is to be served are acquired; Based on the delivery destination information, control the travel of the food-carrying robot to the delivery destination; acquiring a photographed face image by photographing the customer at the service location; determining whether or not the person is the customer who ordered the meal based on a result of comparing the registered face image with the photographed face image; When the determination unit determines that the customer is the one who ordered the meal, the customer is permitted to receive the meal.
  • This disclosure provides a food serving robot, food serving system, and food serving method that can accurately serve meals to customers.
  • FIG. 1 is a block diagram showing a configuration of a food service robot according to a first embodiment.
  • FIG. 4 is a flowchart showing the flow of a food serving method according to the first embodiment.
  • FIG. 11 is a block diagram showing the configuration of a food service robot according to a second embodiment.
  • 11A to 11C are schematic diagrams showing the movement of the food service robot according to the second embodiment.
  • 11A to 11C are schematic diagrams showing the movement of the food service robot according to the second embodiment.
  • FIG. 11 is a block diagram showing the configuration of a food serving system according to a third embodiment.
  • FIG. 13 is a block diagram showing the configuration of a food serving system according to a fourth embodiment.
  • FIG. 13 is an explanatory diagram for explaining the processing of a communication system according to a fourth embodiment.
  • FIG. 13 is an explanatory diagram for explaining the processing of a communication system according to a fourth embodiment.
  • FIG. 13 is a schematic diagram showing an example of a food serving system according to
  • FIG. 1 is a block diagram showing the configuration of the food delivery robot according to the first embodiment.
  • a food delivery robot 10 according to the first embodiment has an acquisition unit 11, a travel control unit 12, a face image acquisition unit 13, a determination unit 14, and a receipt permission unit 15.
  • the acquisition unit 11 acquires a registered face image of a customer who has ordered a meal at a store, and destination information indicating where the meal will be served.
  • the destination information is information indicating the location of the table or seat where the store customer will eat. However, it is not limited to this, and the destination information may be, for example, information indicating the location of a sister store. In the following, the table or seat where the store customer will eat is referred to as the destination.
  • the driving control unit 12 controls driving to the destination based on the destination information.
  • the driving control unit 12 detects the surroundings using sensors, and controls the food delivery robot 10 to drive to the destination while avoiding other food delivery robots 10, customers, and people including store clerks.
  • the sensors may be provided on the food delivery robot 10.
  • the sensors may also be provided at various points in the aisle along which the food delivery robot 10 drives. In this case, detection information on other food delivery robots 10, customers, and people including store clerks is obtained from the sensors provided in the aisle, and the driving control unit 12 controls the food delivery robot 10 to drive based on the detection information.
  • the facial image acquisition unit 13 photographs the customer at the destination and acquires the captured facial image.
  • the facial image acquisition unit 13 is, for example, a camera provided in the food delivery robot 10.
  • the facial image acquisition unit 13 automatically captures the image when the food delivery robot 10 arrives at the destination and a customer at the destination brings their face close to the facial image acquisition unit 13.
  • the facial image acquisition unit 13 may also automatically capture the image when the food delivery robot 10 arrives at the destination and a predetermined time has passed.
  • the facial image acquisition unit 13 may be configured to be operated by the customer to capture the image.
  • the determination unit 14 compares the registered face image acquired by the acquisition unit 11 with the captured face image acquired by the face image acquisition unit 13.
  • the image comparison in the determination unit 14 uses face recognition that matches the positions of characteristic points such as the eyes, nose, and mouth, and the position and size of the face area.
  • the determination unit 14 determines whether or not the customer has ordered a meal based on the result of comparing the registered face image with the photographed face image. If the registered face image and the photographed face image match, the determination unit 14 determines that the customer has ordered a meal. On the other hand, if the registered face image and the photographed face image do not match, the determination unit 14 determines that the customer has not ordered a meal.
  • the determination unit 14 uses face recognition to determine whether or not a customer has ordered a meal, but is not limited to this and may use biometric authentication, for example, fingerprint authentication or iris authentication, to determine whether or not a customer has ordered a meal. In this case, the determination unit 14 compares the customer's registered fingerprint with the customer's fingerprint captured by the food service robot 10. Alternatively, the determination unit 14 compares the customer's registered iris with the customer's iris photographed by the food service robot 10.
  • biometric authentication for example, fingerprint authentication or iris authentication
  • the receipt permission unit 15 allows the customer to receive the meal. If the receipt permission unit 15 allows the customer to receive the meal, the customer takes the ordered item from the food delivery robot 10. At this time, the receipt permission unit 15 may notify the customer of receipt permission by a voice or message display saying, "Please receive your order.”
  • FIG. 2 is a flowchart showing the flow of the food serving method according to the first embodiment.
  • a registered face image of the customer who ordered the meal and destination information indicating the destination where the meal will be served are obtained (ST1).
  • the travel of the robot carrying the meal to the destination is controlled (ST2).
  • a photographed face image is obtained by photographing the customer at the destination (ST3).
  • ST4 based on the result of comparing the registered face image with the photographed face image, it is determined whether or not the customer has ordered a meal (ST4).
  • ST5 a flowchart showing the flow of the food serving method according to the first embodiment.
  • the food delivery robot 10 travels to the delivery destination based on the delivery destination information and photographs the customer at the delivery destination.
  • the food delivery robot 10 determines whether the customer has ordered a meal based on the result of comparing the registered face image with the photographed face image, and allows the customer to receive the meal if it determines that the customer has ordered a meal. Therefore, even in a food court, for example, where the store staff cannot know where the customer who placed the order is, the food can be delivered accurately without making a mistake in the delivery destination. Furthermore, since the customer does not have to leave their seat to go to the store to pick up the order, the customer is less likely to have their belongings stolen.
  • Fig. 3 is a block diagram showing the configuration of a food delivery robot according to the second embodiment.
  • the food delivery robot 20 includes an acquisition unit 21, a travel control unit 22, a facial image acquisition unit 23, a determination unit 24, a receipt permission unit 25, a notification unit 26, and an alarm unit 27.
  • the travel control unit 22, the facial image acquisition unit 23, the determination unit 24, and the receipt permission unit 25 are similar to the travel control unit 12, the facial image acquisition unit 13, the determination unit 14, and the receipt permission unit 15 according to the first embodiment, and therefore will not be described here.
  • the acquisition unit 21, the travel control unit 22, the notification unit 26, and the alarm unit 27 will now be described.
  • the acquisition unit 21 acquires a registered face image of a customer who has ordered a meal at a restaurant, and destination information indicating where the meal will be served.
  • the destination information is information displayed at the destination, and is location identification information acquired by photographing the image using a terminal held by the customer.
  • the destination information is, for example, a barcode displayed at the destination.
  • the customer reads the barcode displayed at the destination using the terminal held by the customer. In this way, the acquisition unit 21 acquires the destination information indicating where the meal will be served.
  • the food delivery robot 20 can easily obtain the destination information even if the waiter does not know where the customer who placed the order is located, and therefore the food can be delivered accurately to the destination customer.
  • the notification unit 26 When the determination unit 24 determines that the customer is not the one who ordered the meal, the notification unit 26 notifies the terminal held by the customer who ordered the meal. More specifically, the notification unit 26 notifies the terminal held by the customer of a message to the effect that the meal could not be delivered to the delivery destination. In addition to the message to the effect that the meal could not be delivered to the delivery destination, the notification unit 26 may also prompt the customer to take a picture of new delivery destination information and obtain it. In this way, by being equipped with the notification unit 26, the food delivery robot 20 can deliver food accurately to a new destination even if the customer moves seats after placing an order.
  • the notification unit 27 notifies the identifiable information of the customer who ordered the meal when the food delivery robot 20 arrives at the destination.
  • the identifiable information of the customer is, for example, the customer's name, order number, nickname, and registered face image.
  • the identifiable information of the customer may be an avatar, character, or figure registered in advance.
  • the notification by the notification unit 27 may be made not only when the food delivery robot 20 arrives at the destination, but also while traveling to the destination or immediately before arriving at the destination.
  • the notification unit 27 displays the identifiable information of the customer on a screen provided in the food delivery robot 20.
  • the notification unit 27 is not limited to this, and may notify the identifiable information of the customer by voice from a speaker provided in the food delivery robot 20. In this way, by being equipped with the notification unit 27, the food delivery robot 20 can accurately deliver food even when there are multiple recipients, for example, when dining with friends, because it can notify who has placed the order.
  • FIG. 4 is a schematic diagram showing the movement of the food delivery robot according to the second embodiment.
  • a customer U1 uses his/her own terminal to photograph the destination information LI1 displayed at the destination S1 and orders a meal. Then, it is assumed that the customer U1 moves to the destination S2 and photographs the destination information LI2 again. It is also assumed that the customer U1 photographs the destination information LI2 again before the food delivery robot 20 arrives at the destination S1.
  • the acquisition unit 21 acquires the registered face image of the customer U1 and the destination information LI1 indicating the destination S1, which was photographed by the terminal held by the customer U1.
  • the driving control unit 22 controls the driving of the food delivery robot 20 to drive to the destination S1 based on the destination information LI1.
  • the acquisition unit 21 acquires the destination information LI2 indicating the destination S2.
  • the driving control unit 22 controls the driving of the food delivery robot 20 to drive to the destination S2 based on the destination information LI2, not the destination information L11. In this way, the food delivery robot 20 drives to the destination S2 and delivers the meal.
  • customer U1 acquires destination information LI2 again before the food delivery robot 20 travels to destination S1 based on destination information L11, so the driving control unit 22 controls the robot to travel to destination S2.
  • the driving control unit 22 may control the robot to travel to destination S2.
  • the food delivery robot 20 was traveling to destination S1, but after acquiring destination information LI2, it travels to destination S2 and delivers the meal to customer U1.
  • the travel control unit 22 controls travel to the destination based on the latest destination information. In this way, if the customer U1 photographs the destination information L12 again before the food delivery robot 20 arrives at the destination S1, the food delivery robot 20 can accurately deliver the meal to the customer's latest destination S2.
  • FIG. 5 is a schematic diagram showing the movement of the food delivery robot according to the second embodiment.
  • the acquisition unit 21 acquires the registered face image of the customer U1 and the destination information LI1 indicating the destination S1, which was photographed by the terminal held by the customer U1.
  • the travel control unit 22 controls the travel of the food delivery robot 20 to travel to the destination S1 based on the destination information LI1. Therefore, the food delivery robot 20 arrives at the destination S1.
  • the face image acquisition unit 23 automatically photographs the customer when a predetermined time has passed since the customer arrived at the destination S1.
  • the determination unit 24 determines that the customer is not the customer U1 who ordered the meal based on the result of comparing the registered face image with the photographed face image. Furthermore, if the customer is not at the destination S1, feature points cannot be extracted from the captured facial image, and the determination unit 24 fails to authenticate the face, so it may be determined that the customer is not the customer U1 who ordered the meal.
  • the notification unit 26 notifies the terminal held by the customer U1 who ordered the meal. As a result, the customer U1 photographs the destination information LI2 again.
  • the acquisition unit 21 acquires the destination information LI2 displayed at the destination S2, and the driving control unit 22 controls the driving of the food delivery robot 20 to drive to the destination S2 based on the latest destination information LI2. That is, the food delivery robot 20 drives to the destination S1, as shown in FIG. 5, and then drives to the destination S2 to deliver the meal.
  • the food delivery robot 20 can accurately deliver the meal to the latest destination S2.
  • the food delivery robot 20 travels to the delivery destination based on the delivery destination information captured by the customer's device and captures the customer at the delivery destination.
  • the food delivery robot 20 determines whether the customer has ordered a meal based on the results of comparing the registered face image with the captured face image, and allows the customer to receive the meal if it determines that the customer has ordered a meal. Therefore, even in a food court, for example, where the store staff cannot know where the customer who placed the order is, the food can be delivered accurately without making a mistake in the delivery destination. Furthermore, since the customer does not have to leave their seat to go to the store to pick up their order, the customer is less likely to have their belongings stolen.
  • Fig. 6 is a block diagram showing the configuration of a food delivery system according to the third embodiment.
  • the food delivery system 30 includes a store-side processing device 31 and a food delivery robot 32.
  • the configuration of the food delivery robot 32 is similar to that of the food delivery robots 10 and 20 according to the first and second embodiments, and therefore a description thereof will be omitted.
  • the food delivery robot 32 includes multiple food delivery trays, and a person in charge of orders at the store places food on the food delivery trays and delivers the food to the destination.
  • the store-side processing device 31 is installed in the store and acquires the registered facial image of a customer who has ordered a meal, destination information indicating where the meal will be delivered, and the customer's order information.
  • the customer's order information includes information indicating the meal the customer has ordered, for example, curry, fried rice, or ramen.
  • the customer's order information also includes the customer's payment information.
  • the meal ordered by the customer will be referred to as the order item.
  • the store-side processing device 31 transmits the registered face image and the destination information from the acquired registered face image, destination information, and order information to the food delivery robot 32.
  • the store-side processing device 31 also presents the order information to the person in charge of the order.
  • the person in charge of the order is a store employee, including the store receptionist, hall staff, and chefs.
  • the store's order staff places the order on the food delivery robot 32.
  • the food delivery robot 32 delivers the food to the destination where the customer will eat, based on the destination information obtained from the store's processing device 31.
  • the food serving robot 32 may be equipped with a contact sensor, and when the contact sensor detects that food has been placed on the food serving tray in the food serving robot 32, the food serving robot 32 may be configured to deliver the food to the destination.
  • the food serving robot 32 may also be configured to deliver the food to the destination when the contact sensor detects that food has been placed on all of the multiple food serving trays in the food serving robot 32. This configuration is efficient, as one food serving robot can deliver food to multiple destinations.
  • the store-side processing device 31 may be provided with a send button for sending the registered face image and destination information from the store-side processing device 31 to the food delivery robot 32.
  • the person in charge of orders at the store operates the send button after the order is ready and places it on the food delivery robot 32.
  • This allows the food delivery robot 32 to obtain the registered face image and destination information from the store-side processing device 31 and deliver the food to the destination.
  • the timing of food delivery by the food delivery robot 32 can be freely changed. Even if there are multiple recipients, for example, when dining with friends, food for everyone can be delivered at the same time.
  • the food delivery robot 32 may be configured to issue a warning if, during food delivery, an attempt is made to take food from the food delivery counter even though the receipt permission unit has not given permission. This configuration can prevent a customer who has not ordered the item from mistakenly taking the ordered item or from stealing the ordered item and running off.
  • the warning method may be, for example, sounding a siren using a speaker provided in the food delivery robot 32.
  • the food delivery system 30 includes a store-side processing device 31 and a food delivery robot 32 installed in a store.
  • the store-side processing device 31 acquires a registered face image of a customer who has ordered a meal, delivery destination information indicating the delivery destination of the meal, and the customer's order information, and transmits the registered face image and the delivery destination information to the food delivery robot 32. Furthermore, the store-side processing device 31 presents the order information to a person in charge of the order. The person in charge of the order at the store then cooks the ordered items based on the order information, and the food delivery robot 32 delivers the food to the delivery destination.
  • the meal can be delivered accurately without making a mistake in the delivery destination. Furthermore, since the customer does not have to leave his/her seat to go to the store to pick up the ordered items, the customer does not have to worry about his/her belongings being stolen.
  • FIG. 7 is a block diagram showing the configuration of a food delivery system according to the fourth embodiment.
  • Food delivery system 40 includes an input terminal 43, a store-side processing device 41, and a food delivery robot 42.
  • the store-side processing device 41 and the food delivery robot 42 are similar to the store-side processing device 31 and the food delivery robot 32 according to the third embodiment, and therefore a description thereof will be omitted.
  • the input terminal 43 will be described.
  • the input terminal 43 is an input terminal operated by a customer.
  • the input terminal 43 acquires the destination information and the order information, and transmits the destination information and the order information to the store-side processing device 41.
  • the input terminal 43 includes an input terminal provided at the destination and an input terminal owned by the customer. Below, a case where the input terminal 43 is an input terminal provided at the destination and a case where the input terminal 43 is an input terminal owned by the customer will be described.
  • the input terminal 43 is an input terminal provided at the destination.
  • the input terminal 43 is equipped with a camera, and the input terminal 43 photographs the customer at the destination and transmits the photographed facial image to the store-side processing device 41 as a registered facial image.
  • the input terminal 43 may automatically photograph the customer when the customer places an order.
  • the input terminal 43 may also photograph the customer by having the customer operate a camera button on the input terminal 43.
  • the input terminal 43 may automatically photograph the customer when a predetermined time has passed since the customer finished placing their order.
  • FIG. 8 is an explanatory diagram for explaining the processing of the communication system according to the fourth embodiment.
  • the input terminal 43 acquires a registered face image, delivery destination information, and order information, and transmits them to the store-side processing device 41.
  • the store-side processing device 41 transmits the registered face image and delivery destination information from the acquired registered face image, delivery destination information, and order information to the food delivery robot 42.
  • the input terminal 43 is owned by the customer.
  • the input terminal 43 transmits the customer's registered face image stored in a server connected to the input terminal 43 to the store-side processing device 41 in response to the customer's operation on the input terminal 43.
  • the customer's operation is to log in to the server by entering their own login ID (Identification) on a screen displayed by an application program provided by the business operator.
  • the input terminal 43 is an input terminal owned by the customer
  • the customer registers his/her own registration face image in advance through an application program provided by the business operator.
  • the registration face image is sent from the server to the store-side processing device 41.
  • FIG 8 is an explanatory diagram for explaining the processing of the communication system according to the fourth embodiment.
  • the input terminal 43 acquires the destination information and order information, and transmits them to the server.
  • the server transmits the acquired destination information, order information, and registered facial image to the store-side processing device 41.
  • the store-side processing device 41 transmits the registered facial image and destination information from the acquired registered facial image, destination information, and order information to the food delivery robot 42.
  • FIG. 10 is a schematic diagram showing an example of a food delivery system according to embodiment 4.
  • stores R1, R2, and R3 have shared delivery destinations S11, S12, and S13.
  • Customers who use stores R1, R2, and R3 eat at any of the delivery destinations S11, S12, and S13.
  • stores R1, R2, and R3 use a shared delivery robot 42 to deliver ordered items to customers.
  • two delivery robots 42 are provided and used jointly by stores R1, R2, and R3.
  • a case will be described in which a user U11 places an order using the input terminal 43a provided at the seat S12, and a case in which a user U12 places an order using the input terminal 43b that the user U12 owns.
  • User U11 operates the screen of the input terminal 43a to select an item to order.
  • the selection of the order item is not limited to the customer U11 operating the screen of the input terminal 43a, but may be made by the input terminal 43a recognizing the voice of the customer U11.
  • customer U11 has ordered ramen from store R1.
  • user U11 operates the camera button on the input terminal 43a to take a picture of his or her own registered face image.
  • the input terminal 43a transmits the order information (ramen) of user U11, destination information indicating the destination S11, and the registered face image to the store-side processing device 41a.
  • the store-side processor 41a installed in store R2 acquires the registered face image of the user U11 who ordered the meal, the destination information indicating the destination S11, and the order information (ramen).
  • the store-side processor 41a displays the order information on the screen and presents it to the person in charge U3 who is in charge of the order.
  • the person in charge U3 prepares the order based on the order information (ramen).
  • the person in charge U3 places them on the food distribution robot 42.
  • the person in charge U3 operates button 41B on the store's processing device 41a.
  • the store's processing device 41a sends the registered face image and destination information from the acquired registered face image, destination information, and order information (ramen) to the food distribution robot 42.
  • the food delivery robot 42 obtains the registered facial image of the user U1 and destination information indicating the destination S11 from the store-side processing device 41.
  • the food delivery robot 42 controls its travel to the destination S11 based on the destination information.
  • the food delivery robot 42 arrives at the destination S11, it takes a picture of the user U11 to obtain a captured facial image.
  • the food delivery robot 42 determines whether or not the user U11 is the user U11 based on the result of comparing the registered facial image with the captured facial image. Next, if the food delivery robot 42 determines that the user is a customer who has ordered a meal, it allows the customer to receive the meal. In this way, the user U11 places an order using an input terminal 43a provided at the destination S11, and the food delivery robot 42 delivers the food to the user U11.
  • user U12 places an order using his/her own input terminal 43b.
  • User U12 registers a face image in advance on a screen output by an application program provided by the business operator.
  • User U12 uses input terminal 43b to log in to a screen output by an application program provided by the business operator and selects an item to order.
  • the screen output by the application program displays the food menus of stores R1, R2, and R3.
  • user U12 has ordered curry from store R2.
  • the screen output by the application program on the input terminal 43b may be configured to display restaurants across the country, and allow the user to narrow down the search by region, location, and store name to select one of stores R1, R2, or R3. Also, the screen may be configured to display nearby stores as candidates based on the location information of the input terminal 43b. Also, it may be configured to prevent the selection of menu items from stores other than nearby stores based on the location information of the input terminal 43b.
  • user U12 uses input terminal 43b to read destination information LI12 displayed on destination S12.
  • Input terminal 43a transmits user U12's order information (curry) and destination information LI12 to a server (not shown).
  • the server acquires the destination information LI12 and order information (curry) sent from the input terminal 43.
  • the server since user U12 is logged in to a screen output by an application program provided by the business operator, the server sends the registered face image of user U12 to the store-side processing device 41b in addition to the destination information and order information.
  • the method of delivery in which the store-side processing device 41b installed in store R2 acquires the registered facial image, destination information, and order information of user U12, and then the food delivery robot delivers the food to the destination is the same as when user U11 places an order using the input terminal 43b, so explanation is omitted.
  • the user U12 places an order using the input terminal 43b owned by the user, and the food delivery robot 42 delivers the food to the user U12.
  • the food delivery system 40 includes an input terminal 43 operated by a customer, a store-side processing device 41 installed in the store, and a food delivery robot 42.
  • the input terminal 43 acquires the delivery destination information and order information, and transmits them to the store-side processing device 41.
  • the store-side processing device 41 acquires the registered face image, delivery destination information, and order information of the customer who ordered the meal, and transmits the registered face image and delivery destination information to the food delivery robot 42. Furthermore, the store-side processing device 41 presents the order information to the person in charge of the order. The person in charge of the order at the store then cooks the ordered items based on the order information, and the food delivery robot 42 delivers the food to the destination.
  • the program includes instructions (or software code) that, when loaded into a computer, cause the computer to perform one or more functions described in the embodiments.
  • the program may be stored on a non-transitory computer-readable medium or tangible storage medium.
  • computer-readable medium or tangible storage medium may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technology, CD-ROM, digital versatile disc (DVD), Blu-ray® disk or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer-readable medium or communication medium may include electrical, optical, acoustic, or other forms of propagated signals.
  • the food delivery robot has been described as a robot that delivers meals.
  • this is not limited to this, and the robot can be applied to, for example, a robot that delivers dry cleaning.
  • the food delivery robot according to claim 1 The method further includes a notification unit that notifies a terminal held by the customer who ordered the meal when the determination unit determines that the customer is not the customer who ordered the meal. 3.
  • the apparatus further includes an alarm unit that, when the apparatus arrives at the destination, notifies identifiable information of the customer who ordered the meal. 3.
  • a food serving system including a store-side processing device and a food serving robot
  • the store-side processing device includes: Acquire a registered face image of a customer who has ordered a meal at a restaurant, destination information indicating where the meal is to be served, and order information of the customer; Transmitting the registered face image and the recipient information to the food service robot; Present the order information to a person in charge of the order;
  • the food delivery robot includes: Controlling travel to a destination based on destination information acquired from the store-side processing device; taking an image of the customer at the delivery location, and determining whether the customer is the customer who ordered the meal based on the result of comparing the image with the registered face image acquired from the store-side processing device; Food distribution system.
  • [Appendix 7] Further comprising an input terminal operated by the customer, The input terminal includes: Acquire the destination information and the order information; transmitting the destination information and the order information to the store-side processing device; 7. The food serving system of claim 6.
  • the input terminal is provided at the destination, taking an image of the customer at the service location and transmitting the captured facial image to the store-side processing device as the registered facial image; 8. The food serving system of claim 7.
  • the input terminal is a terminal owned by the customer, transmitting the registered face image of the customer stored in a server connected to the input terminal to the store-side processing device in response to an operation of the customer on the input terminal; 8. The food serving system of claim 7.
  • Appendix 15 A process of acquiring a registered face image of a customer who has ordered a meal at a restaurant and destination information indicating a destination where the meal is to be served; A process of controlling travel of the food-carrying robot to a destination based on the destination information; A process of photographing the customer at the service destination and acquiring a photographed face image; A process of determining whether or not the customer is the one who ordered the meal based on a result of comparing the registered face image with the photographed face image; a process of permitting the customer to receive the meal when the determination unit determines that the customer is the one who ordered the meal; A non-transitory computer-readable medium storing a program for causing a computer to execute the above.
  • the destination information is information displayed on the destination, Location identification information acquired by photographing the user's terminal, 16.
  • Appendix 17 If it is determined that the customer is not the one who ordered the meal, a notification is sent to a terminal held by the customer who ordered the meal. 17.
  • Appendix 18 17.
  • the non-transitory computer-readable medium of claim 15 or 16 wherein upon arrival at the delivery destination, identifiable information of the customer who ordered the meal is notified.
  • the destination information is acquired multiple times, the travel to the destination is controlled based on the latest destination information. 17.

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manipulator (AREA)

Abstract

配膳ロボット(10)は、店舗において食事を注文した利用客の登録顔画像と、食事の提供先を示す提供先情報と、を取得する取得部(11)と、提供先情報に基づいて、提供先までの走行を制御する走行制御部(12)と、提供先における前記利用客を撮影し、撮影顔画像を取得する顔画像取得部(13)と、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客であるか否かを判定する判定部(14)と、判定部(14)が食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する受け取り許可部(15)と、を備える。

Description

配膳ロボット、配膳システム、及び配膳方法
 本開示は、配膳ロボット、配膳システム、及び配膳方法に関する。
 近年、飲食店の人手不足解消のため、利用客にサービスを提供するロボットの開発がされている。
 特許文献1には、レストランなどの場において、自律走行してサービスを提供するサービスロボットが記載されている。サービスロボットは、周囲の状況を検知しながら、店員が入力した目標位置まで自律走行して、注文の受付又は給仕をおこなう。
特開2001-300876号公報
 上述した特許文献1に開示されたロボットは、店員が利用客の席を把握して、ロボットに目標位置を入力している。しかし、他店舗同士で共同の席を使用している、例えばフードコートでは、店員が注文した利用客がどこにいるか把握できない場合があり、利用客に的確に食事を配膳することができない恐れがあった。
 本開示の目的は、上述した課題に鑑み、利用客に的確に食事を配膳することが可能な配膳ロボット、配膳システム、及び配膳方法を提供することにある。
 本開示の一態様に係る配膳ロボットは、
 店舗において食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得する取得部と、
 前記提供先情報に基づいて、提供先までの走行を制御する走行制御部と、
 前記提供先における前記利用客を撮影し、撮影顔画像を取得する顔画像取得部と、
 前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する判定部と、
 前記判定部が前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する受け取り許可部と、を備える。
 本開示の一態様に係る配膳システムは、
 前記店舗側処理装置は、
 店舗において食事を注文した利用客の登録顔画像と前記食事の提供先を示す提供先情報と前記利用客の注文情報とを取得し、
 前記登録顔画像と前記提供先情報とを前記配膳ロボットに送信し、
 前記注文情報を当該注文を担当する担当者に提示し、
 前記配膳ロボットは、
 前記店舗側処理装置から取得した提供先情報に基づいて、提供先までの走行を制御し、
 前記提供先における前記利用客を撮影し、前記店舗側処理装置から取得した前記登録顔画像と比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する。
 本開示の一態様に係る配膳方法は、
 店舗における食事の注文時に、当該食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得し、
 前記提供先情報に基づいて、前記食事を運ぶロボットによる、提供先までの走行を制御し、
 前記提供先における前記利用客を撮影することにより撮影顔画像を取得し、
 前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定し、
 前記判定部が前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する。
 本開示により、利用客に的確に食事を配膳することが可能な配膳ロボット、配膳システム、及び配膳方法を提供できる。
実施形態1に係る配膳ロボットの構成を示すブロック図である。 実施形態1に係る配膳方法の流れを示すフローチャートである。 実施形態2に係る配膳ロボットの構成を示すブロック図である。 実施形態2に係る配膳ロボットの動きを示した模式図である。 実施形態2に係る配膳ロボットの動きを示した模式図である。 実施形態3に係る配膳システムの構成を示すブロック図である。 実施形態4に係る配膳システムの構成を示すブロック図である。 実施形態4にかかる通信システムの処理を説明するための説明図である。 実施形態4にかかる通信システムの処理を説明するための説明図である。 実施形態4に係る配膳システムの一例を示した模式図である。
 以下、実施形態を通じて本開示を説明するが、請求の範囲に係る開示を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 <実施形態1>
 以下、図面を参照して本開示の実施形態1に係る配膳ロボットについて説明する。図1は、実施形態1に係る配膳ロボットの構成を示すブロック図である。第1の実施形態に係る配膳ロボット10は、取得部11、走行制御部12、顔画像取得部13、判定部14、受け取り許可部15を有する。
 取得部11は、店舗において食事を注文した利用客の登録顔画像と、食事の提供先を示す提供先情報と、を取得する。提供先情報は、店舗の利用客が食事をするテーブルや座席の位置を示す情報である。しかし、これに限定されることはなく、提供先情報は例えば、姉妹店の関係にある店舗の位置を示す情報であってもよい。以下では、店舗の利用客が食事をするテーブルや座席を提供先と称する。
 走行制御部12は、提供先情報に基づいて、提供先までの走行を制御する。走行制御部12は、センサにより周囲を検知して、他の配膳ロボット10、利用客及び店員を含む人を回避しながら提供先まで走行するように配膳ロボット10を制御する。センサは、配膳ロボット10に備えられてもよい。また、センサは配膳ロボット10が走行する通路の各所に設けられてもよい。この場合、通路に設けられたセンサから他の配膳ロボット10、利用客及び店員を含む人の検知情報を取得して、走行制御部12がその検知情報に基づいて、走行するように配膳ロボット10を制御する。
 顔画像取得部13は、提供先における利用客を撮影し、撮影顔画像を取得する。顔画像取得部13は、例えば、配膳ロボット10に備えられたカメラである。顔画像取得部13は、配膳ロボット10が提供先に到着し、提供先における利用客が顔画像取得部13に顔を近づけたら自動で撮影する。また、顔画像取得部13は、配膳ロボット10が提供先に到着し、所定の時間が経過したら、自動で撮影してもよい。さらに、顔画像取得部13は、利用客が操作して撮影する構成でもよい。
 判定部14は、取得部11が取得した登録顔画像と顔画像取得部13が取得した撮影顔画像とを比較する。判定部14における画像の比較は、顔の目、鼻、口などの特徴点の位置や顔領域の位置や大きさをもとに照合する顔認証を用いる。
 さらに、判定部14は、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客であるか否かを判定する。判定部14は、登録顔画像と撮影顔画像とが一致した場合、食事を注文した利用客であると判定する。一方で、判定部14は、登録顔画像と撮影顔画像とが一致しない場合、食事を注文した利用客でないと判定する。
 判定部14は、顔認証を用いて食事を注文した利用客であるか否かを判定するが、これに限定されることはなく、生体認証、例えば、指紋認証、虹彩認証を用いて食事を注文した利用客であるか否かを判定してもよい。この場合、判定部14は、利用客の登録指紋と配膳ロボット10が採取する利用客の指紋とを比較する。あるいは、判定部14は、利用客の登録虹彩と配膳ロボット10が撮影する利用客の虹彩とを比較する。
 受け取り許可部15は、判定部14が食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する。受け取り許可部15が利用客に食事を受け取ることを許可した場合、利用客は配膳ロボット10から注文品を取り出す。このとき、受け取り許可部15は、「どうぞ、注文品を受け取ってください」との音声又はメッセージ表示によって、受け取り許可を利用客に報知してもよい。
 続いて、図2を参照しながら、実施形態1に係る配膳方法を説明する。図2は、実施形態1に係る配膳方法の流れを示すフローチャートである。まず、店舗における食事の注文時に、当該食事を注文した利用客の登録顔画像と、食事の提供先を示す提供先情報と、を取得する(ST1)。次に、提供先情報に基づいて、食事を運ぶロボットによる、提供先までの走行を制御する(ST2)。次に、提供先における利用客を撮影することにより撮影顔画像を取得する(ST3)。次に、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客であるか否かを判定する(ST4)。次に、食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する(ST5)。
 このように、実施形態1に係る配膳ロボット10は、提供先情報に基づいて提供先まで走行して、提供先における利用客を撮影する。配膳ロボット10は、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客であるか否かを判定し、食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する。そのため、店員が注文した利用客がどこにいるか把握できない、例えば、フードコートでも、提供先を誤ることなく、的確に食事を配膳することができる。さらに、利用客が離席して店舗に注文品を受け取りにいく手間がなくなるため、利用客は自身の保有する荷物を盗難される恐れがなくなる。
 <実施形態2>
 以下、図面を参照して本開示の実施形態2について説明する。図3は、実施形態2に係る配膳ロボットの構成を示すブロック図である。配膳ロボット20は、取得部21、走行制御部22、顔画像取得部23、判定部24、受け取り許可部25、通知部26、報知部27を備えている。走行制御部22、顔画像取得部23、判定部24、受け取り許可部25は、実施形態1に係る走行制御部12、顔画像取得部13、判定部14、受け取り許可部15と同様であるため、説明を省略する。ここでは、取得部21、走行制御部22、通知部26、報知部27について説明する。
 取得部21は、店舗において食事を注文した利用客の登録顔画像と、食事の提供先を示す提供先情報と、を取得する。ここで、提供先情報は、提供先に表示された情報であり、利用客が保有する端末により撮影されることによって取得された位置識別情報である。提供先情報は、例えば、提供先に表示されたバーコードである。利用客は、食事を注文時に、自身が保有する端末を用いて提供先に表示されたバーコードを読み取る。これにより、取得部21は、食事の提供先を示す提供先情報を取得する。
 このように、提供先情報を利用客が保有する端末を用いて撮影する構成にすることによって、店員が注文した利用客がどこにいるか把握しなくても、配膳ロボット20は提供先情報を容易に取得することができるため、提供先の利用客に的確に食事を配膳できる。
 通知部26は、判定部24が食事を注文した利用客でないと判定した場合に、食事を注文した利用客が保有する端末に通知する。より具体的には、通知部26は、提供先に食事を配膳できなかった旨のメッセージを利用客が保有する端末に通知する。また、通知部26は、提供先に食事を配膳できなかった旨のメッセージに加えて、新たな提供先情報を撮影して取得するように、利用客に促してもよい。
 このように、通知部26を備えることによって、配膳ロボット20は注文後に座席を移動した場合であっても、新たな提供先に的確に食事を配膳することができる。
 報知部27は、提供先に到着した状態において、食事を注文した利用客の識別可能な情報を報知する。利用客の識別可能な情報とは、例えば、利用客の名前、注文番号、ニックネーム、登録顔画像である。その他の例として、利用客の識別可能な情報は、事前に登録したアバターやキャラクター、図形であってもよい。報知部27による報知は、提供先に到着したときだけでなく、提供先に走行中あるいは提供先に到着する直前でもよい。報知部27は、配膳ロボット20に備えられた画面に利用客の識別可能な情報を表示する。しかし、これに限定されることはなく、報知部27は、配膳ロボット20に備えられたスピーカーから音声によって利用客の識別可能な情報を報知してもよい。
 このように、報知部27を備えることによって、配膳ロボット20は提供先が複数人いる、例えば、友人と食事をする場合であっても、誰が注文したかを報知するので、的確に配膳することができる。
 ここで、取得部21は、提供先情報を複数回にわたって取得してもよい。図4を参照しながら、取得部21が複数回にわたって提供先情報を取得した場合における、配膳ロボット20の動きを説明する。図4は、実施形態2に係る配膳ロボットの動きを示した模式図である。図4に示した例では、利用客U1が自身の保有する端末を用いて、提供先S1に表示された提供先情報LI1を撮影して食事を注文したとする。その後、利用客U1が提供先S2に移動して、再度、提供先情報LI2を撮影したとする。また、利用客U1は、配膳ロボット20が提供先S1に到着する前に、再度、提供先情報LI2を撮影したとする。
 まず、取得部21は、利用客U1の登録顔画像と、利用客U1が保有する端末によって撮影された、提供先S1を示す提供先情報LI1を取得する。次に、走行制御部22は、提供先情報LI1に基づいて、提供先S1まで走行するように配膳ロボット20の走行を制御する。ここで、利用客U1が提供先S2に移動して、再度、提供先情報LI2を撮影したため、取得部21は提供先S2を示す提供先情報LI2を取得する。この場合、走行制御部22は、提供先情報L11ではなく、提供先情報LI2に基づいて、提供先S2まで走行するように配膳ロボット20の走行を制御する。このようにして、配膳ロボット20は、提供先S2に走行して、食事を配膳する。
 図4に示した例では、配膳ロボット20が提供先情報L11に基づいて提供先S1に走行する前に利用客U1が提供先情報LI2を再度取得したため、走行制御部22は、提供先S2に走行するように制御している。しかし、これに限定されることはなく、配膳ロボット20が提供先情報L11に基づいて提供先S1に走行中に、利用客U1が提供先情報LI2を再度取得した場合でも、走行制御部22は提供先S2に走行するように制御してもよい。この場合、配膳ロボット20は、提供先S1に向かって走行していたが、提供先情報LI2を取得した後、提供先S2に向かって走行をして、利用客U1に食事を配膳する。
 すなわち、取得部21が提供先情報を複数回にわたって取得した場合、走行制御部22は、最新の提供先情報に基づいて、提供先までの走行を制御する。このように、配膳ロボット20が提供先S1に到着する前に、利用客U1が再度提供先情報L12を撮影した場合、配膳ロボット20は利用客の最新の提供先S2に的確に食事を配膳することができる。
 ここでは、配膳ロボット20が提供先S1に到着する前に、利用客U1が再度提供先情報LI2を撮影した場合を説明したが、配膳ロボット20が提供先S1に到着した後に、利用客U1が再度、提供先情報LI2を撮影してもよい。図5を参照しながら、より詳細に説明する。図5は、実施形態2に係る配膳ロボットの動きを示した模式図である。
 まず、取得部21は、利用客U1の登録顔画像と、利用客U1が保有する端末によって撮影された、提供先S1を示す提供先情報LI1を取得する。次に、走行制御部22は、提供先情報LI1に基づいて、提供先S1まで走行するように配膳ロボット20の走行を制御する。そのため、配膳ロボット20は、提供先S1に到着する。顔画像取得部23は、利用客が提供先S1にいないため、提供先S1に到着して所定の時間が経過したら、自動で撮影する。判定部24は、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客U1でないと判定する。
 また、利用客が提供先S1にいない場合、撮影顔画像から特徴点を抽出できず、判定部24が顔認証に失敗するため、食事を注文した利用客U1でないと判定してもよい。
 判定部24が食事を注文した利用客でないと判定したため、通知部26は食事を注文した利用客U1が保有する端末に通知する。これにより、利用客U1は、再度提供先情報LI2を撮影する。取得部21は、提供先S2に表示された提供先情報LI2を取得するため、走行制御部22は、最新の提供先情報LI2に基づいて、提供先S2まで走行するように配膳ロボット20の走行を制御する。すなわち、配膳ロボット20は、図5に示すように、提供先S1まで走行し、続いて提供先S2に走行して食事を配膳する。
 このように、配膳ロボット20が提供先S1に到着した後に、利用客U1が再度提供先情報L12を撮影した場合、配膳ロボット20は最新の提供先S2に的確に食事を配膳することができる。
 図5に示した例では、提供先S1に利用客U1とは別の利用客が誰もいない場合を例にして説明したが、提供先S1に利用客U1とは別の利用客がいる場合であっても、配膳ロボット20は利用客U1の提供先S2に的確に食事を配膳することができる。より具体的には、提供先S1に利用客U1とは別の利用客がいる場合、登録顔画像と撮影顔画像とが異なるため、判定部24は、食事を注文した利用客U1でないと判定する。通知部26は、判定部24が食事を注文した利用客U1でないと判定したため、食事を注文した利用客U1が保有する端末に通知する。これにより、利用客U1は、再度提供先情報LI2を撮影するため、配膳ロボット20は、的確に提供先S2に食事を配膳することができる。
 このように、実施形態2に係る配膳ロボット20は、利用客が保有する端末によって撮影された提供先情報に基づいて提供先まで走行して、提供先における利用客を撮影する。配膳ロボット20は、登録顔画像と撮影顔画像とを比較した結果に基づいて、食事を注文した利用客であるか否かを判定し、食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する。そのため、店員が注文した利用客がどこにいるか把握できない、例えば、フードコートでも、提供先を誤ることなく、的確に食事を配膳することができる。さらに、利用客が離席して店舗に注文品を受け取りにいく手間がなくなるため、利用客は自身の保有する荷物を盗難される恐れがなくなる。
 <実施形態3>
 以下、図面を参照して本開示の実施形態3について説明する。図6は、実施形態3に係る配膳システムの構成を示すブロック図である。配膳システム30は、店舗側処理装置31と配膳ロボット32とを備えている。配膳ロボット32の構成は、実施形態1及び実施形態2に係る配膳ロボット10及び20の構成と同様であるため、説明を省略する。以下では、配膳ロボット32は、配膳台を複数台備え、店舗の注文を担当する担当者が配膳台に料理を載せて、提供先まで配膳をする。
 店舗側処理装置31は、店舗に備えられ、食事を注文した利用客の登録顔画像と食事の提供先を示す提供先情報と利用客の注文情報とを取得する。利用客の注文情報とは、利用客が注文した食事を示す情報を含み、例えば、カレー、チャーハン、ラーメンである。また、利用客の注文情報には、利用客の支払い情報も含まれる。以下では、利用客が注文した食事を注文品と称する。
 店舗側処理装置31は、取得した登録顔画像、提供先情報、注文情報のうち、登録顔画像、提供先情報を配膳ロボット32に送信する。また、店舗側処理装置31は、注文情報を当該注文を担当する担当者に提示する。注文を担当する担当者とは、店舗の受付担当、ホールスタッフ、料理人を含む店員である。
 店舗の注文を担当する担当者は、注文品が出来上がると、当該注文品を配膳ロボット32に載せる。配膳ロボット32は、店舗側処理装置31から取得した提供先情報に基づいて、利用客が食事をおこなう提供先まで配膳する。
 配膳ロボット32は、接触式センサを備え、接触式センサによって、配膳ロボット32における配膳台に料理が載せられたことを検知したら、提供先まで配膳する構成にしてもよい。また、配膳ロボット32は、接触式センサによって、配膳ロボット32における複数ある配膳台の全てに料理が載せられたことを検知したら、提供先まで配膳する構成にしてもよい。このような構成にすることによって、複数の提供先を1台の配膳ロボットが配膳することができるため効率的である。
 ここで、登録顔画像と提供先情報とを店舗側処理装置31から配膳ロボット32に送信する送信ボタンを、店舗側処理装置31に備えてもよい。店舗の注文を担当する担当者は、注文品が出来上がり配膳ロボット32に注文品を載せた後に、送信ボタンを操作する。これによって、配膳ロボット32は、店舗側処理装置31から登録顔画像と提供先情報とを取得して、提供先まで配膳する。このような構成にすることによって、配膳ロボット32の配膳するタイミングを自由に変更できる。提供先が複数人いる、例えば、友人と食事をする場合であっても、全員分の料理をまとめて同じタイミングで提供することができる。
 ここで、配膳ロボット32は、配膳中に、受け取り許可部が許可していないのにも関わらず、料理を配膳台から取ろうとすると警告をする構成にしてもよい。このような構成にすることによって、当該注文品を注文していない利用客が誤って当該注文品を受け取る場合や当該注文品を奪って食い逃げする場合を防ぐことができる。警告方法は、例えば、配膳ロボット32に備えられたスピーカーによってサイレンを鳴らして警告する。
 このように、実施形態3に係る配膳システム30は、店舗に備えられた店舗側処理装置31と配膳ロボット32とを含む。店舗側処理装置31は、食事を注文した利用客の登録顔画像と食事の提供先を示す提供先情報と利用客の注文情報とを取得し、登録顔画像と提供先情報とを配膳ロボット32に送信する。さらに、店舗側処理装置31は、注文情報を当該注文を担当する担当者に提示する。これにより、店舗の注文を担当する担当者は、注文情報に基づいて、注文品を料理して、配膳ロボット32が提供先まで料理を配膳する。そのため、店員が注文した利用客がどこにいるか把握できない、例えば、フードコートでも、提供先を誤ることなく、的確に食事を配膳することができる。さらに、利用客が離席して店舗に注文品を受け取りにいく手間がなくなるため、利用客は自身の保有する荷物を盗難される恐れがなくなる。
 <実施形態4>
 以下、図面を参照して本開示の実施形態4について説明する。図7は、実施形態4に係る配膳システムの構成を示すブロック図である。配膳システム40は、入力端末43と店舗側処理装置41と配膳ロボット42とを備えている。店舗側処理装置41及び配膳ロボット42は、実施形態3に係る店舗側処理装置31及び配膳ロボット32と同様であるため、説明を省略する。ここでは、入力端末43について説明する。
 入力端末43は、利用客が操作する入力端末である。入力端末43は、提供先情報と注文情報とを取得し、提供先情報と注文情報とを店舗側処理装置41に送信する。入力端末43は、提供先に備えられた入力端末と利用客が保有する入力端末とを含む。以下では、入力端末43が提供先に備えられた入力端末である場合と入力端末43が利用客の保有する入力端末である場合について説明する。
 まず、入力端末43が提供先に備えられた入力端末である場合について説明する。この場合、入力端末43にはカメラが備えられており、入力端末43は、提供先における利用客を撮影し、撮影した顔画像を登録顔画像として店舗側処理装置41に送信する。このとき、入力端末43は利用客が注文をしたタイミングで自動的に利用客を撮影してもよい。また、入力端末43は、利用客が入力端末43のカメラボタンを操作することによって、撮影をしてもよい。さらに、入力端末43は、利用客が注文を終えて、所定の時間が経過したら、自動で撮影してもよい。
 図8を参照しながら、入力端末43が提供先に備えられた端末である場合におけるデータの流れについて説明する。図8は、実施形態4にかかる通信システムの処理を説明するための説明図である。入力端末43は、登録顔画像、提供先情報、注文情報を取得して、店舗側処理装置41に送信する。店舗側処理装置41は、取得した登録顔画像、提供先情報、注文情報のうち、登録顔画像、提供先情報を配膳ロボット42に送信する。
 次に、入力端末43が利用客の保有する入力端末である場合について説明する。この場合、入力端末43は、入力端末43と接続されたサーバーに保存されている利用客の登録顔画像を、入力端末43に対する利用客の操作に応じて店舗側処理装置41に送信する。利用客の操作とは、事業者が提供するアプリケーションプログラムにより出力される画面において、自身のログインID(Identification)を入力してサーバーにログインすることである。
 ここで、入力端末43が利用客の保有する入力端末である場合、利用客は事業者が提供するアプリケーションプログラムを通じて、あらかじめ自身の登録顔画像を登録する。すなわち、事業者が提供するアプリケーションプログラムにより出力される画面において、利用客はサーバーにログインをすると、サーバーから登録顔画像が店舗側処理装置41に送信される。
 図9を参照しながら、入力端末43が利用客の保有する入力端末である場合におけるデータの流れについて説明する。図8は、実施の形態4にかかる通信システムの処理を説明するための説明図である。入力端末43は、提供先情報、注文情報を取得して、サーバーに送信する。サーバーは、取得した提供先情報、注文情報に加えて登録顔画像を店舗側処理装置41に送信する。店舗側処理装置41は、取得した登録顔画像、提供先情報、注文情報のうち、登録顔画像、提供先情報を配膳ロボット42に送信する。
 続いて、図10を参照しながら、本開示の一実施形態に係る配膳システム40の一例を説明する。図10は、実施形態4に係る配膳システムの一例を示した模式図である。図10に示した例では、店舗R1、R2、R3は、共同の提供先S11、S12、S13を設けている。店舗R1、R2、R3を利用する利用客は提供先S11、S12、S13のいずれかで食事をする。また、店舗R1、R2、R3は、共同の配膳ロボット42を用いて利用客に注文品を配膳している。図10に示した例では、店舗R1、R2、R3が共同で使用している配膳ロボット42が2台設けられている。
 ここでは、ユーザーU11が座席S12に備えられている入力端末43aを用いて注文を行う場合とユーザーU12が自身の保有する入力端末43bを用いて注文を行う場合とについて説明する。
 まず、ユーザーU11が提供先S11に備えられている入力端末43aを用いて注文を行う場合について説明する。入力端末43aには、あらかじめ提供先S11の提供先情報LI11と同等の提供先S11を示す提供先情報が登録されているとする。また、入力端末43aには、店舗R1、R2、R3の食事のメニューが表示されている。
 ユーザーU11は、入力端末43aの画面を操作して、注文品を選択する。このとき、注文品の選択は、利用客U11が入力端末43aの画面を操作して選択することに限定されることはなく、入力端末43aが利用客U11の音声を認識することによって選択してもよい。ここでは、利用客U11は、店舗R1のラーメンを注文したとする。
 続いて、ユーザーU11は、入力端末43aのカメラボタンを操作することによって、自身の登録顔画像を撮影する。入力端末43aは、ユーザーU11の注文情報(ラーメン)と提供先S11を示す提供先情報と登録顔画像とを、店舗側処理装置41aに送信する。
 店舗R2に備えられた店舗側処理装置41aは、食事を注文したユーザーU11の登録顔画像と提供先S11を示す提供先情報と注文情報(ラーメン)とを取得する。店舗側処理装置41aは、画面上に注文情報が表示され、当該注文を担当する担当者U3に提示する。担当者U3は、注文情報(ラーメン)に基づいて、注文品を料理する。
 担当者U3は、注文品が出来上がると、当該注文品を配膳ロボット42に載せる。担当者U3は、店舗側処理装置41aのボタン41Bを操作する。担当者U3がボタン41Bを操作したことにより、店舗側処理装置41aは、取得した登録顔画像、提供先情報、注文情報(ラーメン)のうち、登録顔画像、提供先情報を配膳ロボット42に送信する。
 配膳ロボット42は、店舗側処理装置41からユーザーU1の登録顔画像と提供先S11を示す提供先情報を取得する。配膳ロボット42は、提供先情報に基づいて、提供先S11までの走行を制御する。配膳ロボット42は、提供先S11に到着すると、ユーザーU11を撮影することにより撮影顔画像を取得する。配膳ロボット42は、登録顔画像と撮影顔画像とを比較した結果に基づいて、ユーザーU11であるか否かを判定する。次に、配膳ロボット42は、食事を注文した利用客であると判定した場合に、利用客が食事を受け取ることを許可する。このようにして、ユーザーU11が提供先S11に備えられている入力端末43aを用いて注文を行い、配膳ロボット42がユーザーU11に料理を配膳する。
 続いて、ユーザーU12が自身の保有する入力端末43bを用いて注文を行う場合について説明する。ユーザーU12はあらかじめ事業者が提供するアプリケーションプログラムにより出力される画面に登録顔画像を登録する。ユーザーU12は、入力端末43bを用いて事業者が提供するアプリケーションプログラムにより出力される画面にログインして、注文品を選択する。アプリケーションプログラムにより出力される画面では、店舗R1、R2、R3の食事のメニューが表示されている。ここでは、ユーザーU12は、店舗R2のカレーを注文したとする。
 ここで、入力端末43bにおけるアプリケーションプログラムにより出力される画面では、全国の飲食店が表示され、地域、場所、店舗名によって絞り込み検索して、店舗R1、R2、R3のいずれかを選択する構成であってもよい。また、入力端末43bの位置情報に基づき、周辺の店舗を候補として表示する構成であってもよい。また、入力端末43bの位置情報に基づき、周辺店舗以外の店舗のメニューを選択できないようにしてもよい。
 続いて、ユーザーU12は、入力端末43bを用いて提供先S12に表示された提供先情報LI12を読み込む。入力端末43aは、ユーザーU12の注文情報(カレー)と提供先情報LI12とをサーバー(図示していない)に送信する。
 サーバーは、入力端末43から送信された提供先情報LI12、注文情報(カレー)を取得する。ここで、ユーザーU12は事業者が提供するアプリケーションプログラムにより出力される画面にログインしているため、サーバーは、提供先情報、注文情報に加えて、登録されているユーザーU12の登録顔画像を店舗側処理装置41bに送信する。
 店舗R2に備えられた店舗側処理装置41bがユーザーU12の登録顔画像と提供先情報と注文情報とを取得してから、配膳ロボットが提供先まで配膳する配膳方法は、ユーザーU11が入力端末43bを用いて注文を行う場合と同様であるため、説明を省略する。
 このようにして、ユーザーU12が自身の保有する入力端末43bを用いて注文をおこない、配膳ロボット42はユーザーU12に料理を配膳する。
 このように、実施形態4に係る配膳システム40は、利用客が操作する入力端末43と店舗に備えられた店舗側処理装置41と配膳ロボット42とを含む。入力端末43は、提供先情報と注文情報とを取得して、店舗側処理装置41に送信する。店舗側処理装置41は、食事を注文した利用客の登録顔画像と提供先情報と注文情報とを取得し、登録顔画像と提供先情報とを配膳ロボット42に送信する。さらに、店舗側処理装置41は、注文情報を当該注文を担当する担当者に提示する。これにより、店舗の注文を担当する担当者は、注文情報に基づいて、注文品を料理して、配膳ロボット42が提供先まで料理を配膳する。そのため、店員が注文した利用客がどこにいるか把握できない、例えば、フードコートでも、提供先を誤ることなく、的確に食事を配膳することができる。さらに、利用客が離席して店舗に注文品を受け取りにいく手間がなくなるため、利用客は自身の保有する荷物を盗難される恐れがなくなる。
 上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、プロセッサにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 上述の実施形態では、配膳ロボットは、食事を配膳するロボットとして説明した。しかし、これに限定されることはなく、例えば、クリーニングの受け渡しをするロボットに適用することができる。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   [付記1]
 店舗において食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得する取得部と、
 前記提供先情報に基づいて、提供先までの走行を制御する走行制御部と、
 前記提供先における前記利用客を撮影し、撮影顔画像を取得する顔画像取得部と、
 前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する判定部と、
 前記判定部が前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する受け取り許可部と、
 を備えた配膳ロボット。
   [付記2]
 前記提供先情報は、前記提供先に表示された情報であって、
 前記利用客が保有する端末により撮影されることによって取得された位置識別情報である、
 付記1に記載の配膳ロボット。
   [付記3]
 前記判定部が前記食事を注文した利用客でないと判定した場合に、前記食事を注文した利用客が保有する端末に通知する通知部をさらに備えた、
 付記1又は2に記載の配膳ロボット。
   [付記4]
 前記提供先に到着した状態において、前記食事を注文した利用客の識別可能な情報を報知する報知部をさらに備えた、
 付記1又は2に記載の配膳ロボット。
   [付記5]
 前記取得部が前記提供先情報を複数回にわたって取得した場合、前記走行制御部は、最新の前記提供先情報に基づいて、前記提供先までの走行を制御する、
 付記1又は2に記載の配膳ロボット。
   [付記6]
 店舗側処理装置と配膳ロボットとを備えた配膳システムであって、
 前記店舗側処理装置は、
 店舗において食事を注文した利用客の登録顔画像と前記食事の提供先を示す提供先情報と前記利用客の注文情報とを取得し、
 前記登録顔画像と前記提供先情報とを前記配膳ロボットに送信し、
 前記注文情報を当該注文を担当する担当者に提示し、
 前記配膳ロボットは、
 前記店舗側処理装置から取得した提供先情報に基づいて、提供先までの走行を制御し、
 前記提供先における前記利用客を撮影し、前記店舗側処理装置から取得した前記登録顔画像と比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する、
 配膳システム。
   [付記7]
 前記利用客が操作する入力端末をさらに備え、
 前記入力端末は、
 前記提供先情報と前記注文情報とを取得し、
 前記提供先情報と前記注文情報とを前記店舗側処理装置に送信する、
 付記6に記載の配膳システム。
   [付記8]
 前記入力端末は、前記提供先に備えられ、
 前記提供先における前記利用客を撮影し、撮影した顔画像を前記登録顔画像として前記店舗側処理装置に送信する、
 付記7に記載の配膳システム。
   [付記9]
 前記入力端末は、前記利用客が保有する端末であって、
 前記入力端末と接続されたサーバーに保存されている前記利用客の前記登録顔画像を、当該入力端末に対する利用客の操作に応じて前記店舗側処理装置に送信する、
 付記7に記載の配膳システム。
   [付記10]
 店舗における食事の注文時に、当該食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得し、
 前記提供先情報に基づいて、前記食事を運ぶロボットによる、提供先までの走行を制御し、
 前記提供先における前記利用客を撮影することにより撮影顔画像を取得し、
 前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定し、
 前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する、配膳方法。
   [付記11]
 前記提供先情報は、前記提供先に表示された情報であって、
 前記利用客が保有する端末により撮影されることによって取得された位置識別情報である、
 付記10に記載の配膳方法。
   [付記12]
 前記食事を注文した利用客でないと判定した場合に、前記食事を注文した利用客が保有する端末に通知する、
 付記10又は11に記載の配膳方法。
   [付記13]
 前記提供先に到着した状態において、前記食事を注文した利用客の識別可能な情報を報知する
 付記10又は11に記載の配膳方法。
   [付記14]
 前記提供先情報を複数回にわたって取得した場合、最新の前記提供先情報に基づいて、前記提供先までの走行を制御する、
 付記10又は11に記載の配膳方法。
   [付記15]
 店舗において食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得する処理と、
 前記提供先情報に基づいて、前記食事を運ぶロボットによる、提供先までの走行を制御する処理と、
 前記提供先における前記利用客を撮影し、撮影顔画像を取得する処理と、
 前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する処理と、
 前記判定部が前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する処理と、
 を、コンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
   [付記16]
 前記提供先情報は、前記提供先に表示された情報であって、
 前記利用客が保有する端末により撮影されることによって取得された位置識別情報である、
 付記15に記載の非一時的なコンピュータ可読媒体。
   [付記17]
 前記食事を注文した利用客でないと判定した場合に、前記食事を注文した利用客が保有する端末に通知する、
 付記15又は16に記載の非一時的なコンピュータ可読媒体。
   [付記18]
 前記提供先に到着した状態において、前記食事を注文した利用客の識別可能な情報を報知する
 付記15又は16に記載の非一時的なコンピュータ可読媒体。
   [付記19]
 前記提供先情報を複数回にわたって取得した場合、最新の前記提供先情報に基づいて、前記提供先までの走行を制御する、
 付記15又は16に記載の非一時的なコンピュータ可読媒体。
10、20、32、42 配膳ロボット
11、21 取得部
12、22 走行制御部
13、23 顔画像取得部
14、24 判定部
15、25 受け取り許可部
26 通知部
27 報知部
30、40 配膳システム
31、41、41a、41b 店舗側処理装置
41B ボタン
43、43a、43b 入力端末
U1、U11、U12 利用客
U3 担当者
LI1、LI2、LI11、LI12 提供先情報
R1、R2、R3 店舗
S1、S2、S11、S12、S13 提供先

Claims (10)

  1.  店舗において食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得する取得部と、
     前記提供先情報に基づいて、提供先までの走行を制御する走行制御部と、
     前記提供先における前記利用客を撮影し、撮影顔画像を取得する顔画像取得部と、
     前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する判定部と、
     前記判定部が前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する受け取り許可部と、
     を備えた、配膳ロボット。
  2.  前記提供先情報は、前記提供先に表示された情報であって、
     前記利用客が保有する端末により撮影されることによって取得された位置識別情報である、
     請求項1に記載の配膳ロボット。
  3.  前記判定部が前記食事を注文した利用客でないと判定した場合に、前記食事を注文した利用客が保有する端末に通知する通知部をさらに備えた、
     請求項1又は2に記載の配膳ロボット。
  4.  前記提供先に到着した状態において、前記食事を注文した利用客の識別可能な情報を報知する報知部をさらに備えた、
     請求項1又は2に記載の配膳ロボット。
  5.  前記取得部が前記提供先情報を複数回にわたって取得した場合、前記走行制御部は、最新の前記提供先情報に基づいて、前記提供先までの走行を制御する、
     請求項1又は2に記載の配膳ロボット。
  6.  店舗側処理装置と配膳ロボットとを備えた配膳システムであって、
     前記店舗側処理装置は、
     店舗において食事を注文した利用客の登録顔画像と前記食事の提供先を示す提供先情報と前記利用客の注文情報とを取得し、
     前記登録顔画像と前記提供先情報とを前記配膳ロボットに送信し、
     前記注文情報を当該注文を担当する担当者に提示し、
     前記配膳ロボットは、
     前記店舗側処理装置から取得した提供先情報に基づいて、提供先までの走行を制御し、
     前記提供先における前記利用客を撮影し、前記店舗側処理装置から取得した前記登録顔画像と比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定する、
     配膳システム。
  7.  前記利用客が操作する入力端末をさらに備え、
     前記入力端末は、
     前記提供先情報と前記注文情報とを取得し、
     前記提供先情報と前記注文情報とを前記店舗側処理装置に送信する、
     請求項6に記載の配膳システム。
  8.  前記入力端末は、前記提供先に備えられ、
     前記提供先における前記利用客を撮影し、撮影した顔画像を前記登録顔画像として前記店舗側処理装置に送信する、
     請求項7に記載の配膳システム。
  9.  前記入力端末は、前記利用客が保有する端末であって、
     前記入力端末と接続されたサーバーに保存されている前記利用客の前記登録顔画像を、当該入力端末に対する利用客の操作に応じて前記店舗側処理装置に送信する、
     請求項7に記載の配膳システム。
  10.  店舗における食事の注文時に、当該食事を注文した利用客の登録顔画像と、前記食事の提供先を示す提供先情報と、を取得し、
     前記提供先情報に基づいて、前記食事を運ぶロボットによる、提供先までの走行を制御し、
     前記提供先における前記利用客を撮影することにより撮影顔画像を取得し、
     前記登録顔画像と前記撮影顔画像とを比較した結果に基づいて、前記食事を注文した利用客であるか否かを判定し、
     前記食事を注文した利用客であると判定した場合に、前記利用客が食事を受け取ることを許可する、配膳方法。
PCT/JP2022/039098 2022-10-20 2022-10-20 配膳ロボット、配膳システム、及び配膳方法 WO2024084653A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039098 WO2024084653A1 (ja) 2022-10-20 2022-10-20 配膳ロボット、配膳システム、及び配膳方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039098 WO2024084653A1 (ja) 2022-10-20 2022-10-20 配膳ロボット、配膳システム、及び配膳方法

Publications (1)

Publication Number Publication Date
WO2024084653A1 true WO2024084653A1 (ja) 2024-04-25

Family

ID=90737163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039098 WO2024084653A1 (ja) 2022-10-20 2022-10-20 配膳ロボット、配膳システム、及び配膳方法

Country Status (1)

Country Link
WO (1) WO2024084653A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109929A (ja) * 2017-01-06 2018-07-12 Necプラットフォームズ株式会社 無人配達装置、配送装置、配送システム、方法およびプログラム
JP2020529375A (ja) * 2017-07-28 2020-10-08 ニューロ・インコーポレーテッドNuro Incorporated 専門製品およびサービスの配達のためのロボット車両のフリート
WO2022003888A1 (ja) * 2020-07-02 2022-01-06 日本電気株式会社 警告装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2022007564A (ja) * 2020-06-26 2022-01-13 グローリー株式会社 情報収集システム及びロボットシステム
JP2022066042A (ja) * 2020-10-16 2022-04-28 グローリー株式会社 注文システム及び決済システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109929A (ja) * 2017-01-06 2018-07-12 Necプラットフォームズ株式会社 無人配達装置、配送装置、配送システム、方法およびプログラム
JP2020529375A (ja) * 2017-07-28 2020-10-08 ニューロ・インコーポレーテッドNuro Incorporated 専門製品およびサービスの配達のためのロボット車両のフリート
JP2022007564A (ja) * 2020-06-26 2022-01-13 グローリー株式会社 情報収集システム及びロボットシステム
WO2022003888A1 (ja) * 2020-07-02 2022-01-06 日本電気株式会社 警告装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2022066042A (ja) * 2020-10-16 2022-04-28 グローリー株式会社 注文システム及び決済システム

Similar Documents

Publication Publication Date Title
JP2019153070A (ja) 情報処理装置、及び情報処理プログラム
US20210142276A1 (en) System and method to enable delivery and pick up of packages using pods and unmanned vehicles
TW201837763A (zh) 基於物聯網的信息處理方法及裝置
US11093995B2 (en) Monitoring of customer consumption activity and management based on monitoring
JP6340538B2 (ja) 生体探索システム
JP7486930B2 (ja) 航空手荷物管理システム
JP6827399B2 (ja) 無人航空機制御システム、物流システム、無人航空機制御方法、荷物運搬方法、及びプログラム
JP2016135625A (ja) 浮揚移動台
CN105264523B (zh) 通过模式识别的简化合作搜索
US11194334B2 (en) Autonomous mobile device, autonomous delivery system, delivery method, and non-transitory recording medium
JP7116504B2 (ja) 浮揚移動台及び浮揚移動台用のプログラム
CN112506191A (zh) 一种餐品自动配送方法、系统、机器人及存储介质
US10902482B2 (en) Server apparatus
JP2023526196A (ja) ユーザの自動識別のための電子デバイス
JP2021528321A (ja) 手荷物ターンテーブルのための動的表示システム
JP2022145828A (ja) 情報処理装置、情報処理方法およびプログラム
WO2024084653A1 (ja) 配膳ロボット、配膳システム、及び配膳方法
CN110111475A (zh) 就餐方法、计算机可读存储介质和就餐管理系统
JP2020087182A (ja) 情報提供装置、車両制御システム、情報提供方法、及びプログラム
JP6982168B2 (ja) 顔照合システム
US20230048635A1 (en) System and method for fast checkout using a detachable computerized device
CN113807910A (zh) 减少餐馆的服务错误的系统、方法和介质
JP6390015B2 (ja) 生体探索システム
JP7470464B2 (ja) 浮揚移動台及び浮揚移動台用のプログラム
KR102577423B1 (ko) 단지 내 로봇 배송 시스템 및 그 동작방법