WO2022038709A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2022038709A1
WO2022038709A1 PCT/JP2020/031258 JP2020031258W WO2022038709A1 WO 2022038709 A1 WO2022038709 A1 WO 2022038709A1 JP 2020031258 W JP2020031258 W JP 2020031258W WO 2022038709 A1 WO2022038709 A1 WO 2022038709A1
Authority
WO
WIPO (PCT)
Prior art keywords
baggage
information
person
user
owner
Prior art date
Application number
PCT/JP2020/031258
Other languages
English (en)
French (fr)
Inventor
弦 宮崎
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022543870A priority Critical patent/JPWO2022038709A5/ja
Priority to PCT/JP2020/031258 priority patent/WO2022038709A1/ja
Publication of WO2022038709A1 publication Critical patent/WO2022038709A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to an information processing apparatus, an information processing method and a recording medium.
  • Patent Document 1 discloses an air traveller support system that assists travelers in easily receiving baggage checked in at the departure airport at the arrival airport.
  • Patent Document 1 estimates the position of the baggage on the turntable when the baggage of the traveler is transported to the turntable of the departure airport, and notifies the portable terminal carried by the traveler. However, for example, if the traveler does not sufficiently check the baggage, or if there are many similar pieces of baggage, there is a risk that the baggage will be mixed up.
  • an object of the present invention is to provide an information processing device, an information processing method, and a recording medium capable of preventing a traveler from mistakenly picking up baggage at an arrival airport.
  • the first acquisition unit that acquires the first baggage information of the checked baggage that the user has checked in with the airline company at the departure airport, and the baggage that has been transported to the baggage claim area at the arrival airport. 2 Execution of bio-matching between the second acquisition unit that acquires baggage information, the biometric information acquired from the person who entered the baggage claim area, and the registered biometric information of the user associated with the first baggage information. The second baggage information and the use of the baggage received by the person at the baggage claim when the person is authenticated as the same person as the user by the biomatch.
  • a determination unit for determining whether or not the person is the owner of the baggage based on the first baggage information relating to the person, and the baggage receiving place when the person is not the owner of the baggage.
  • An information processing device including a guide unit for outputting guidance information for guiding a person to mistaken baggage is provided.
  • the person is authenticated to be the same person as the user by collation, the second baggage information related to the baggage received by the person at the baggage claim and the first baggage information related to the user.
  • An information processing method comprising a step of outputting guidance information to be guided is provided.
  • the computer obtains the first baggage information of the checked baggage that the user has checked in with the airline at the departure airport, and the baggage transported to the baggage claim at the arrival airport.
  • the person is authenticated as the same person as the user by the biometric verification, the second baggage information related to the baggage received by the person at the baggage claim and the said person related to the user.
  • a recording medium is provided in which a step of outputting guidance information for guiding the mistake of baggage and a program for executing the step are recorded.
  • an information processing device an information processing method and a recording medium capable of preventing a traveler from mistakenly picking up baggage at an arrival airport.
  • FIG. 1 is a schematic diagram showing an example of the overall configuration of the information processing system according to the present embodiment.
  • the information processing system according to the present embodiment is, for example, a computer system that supports a series of procedures performed at each airport for a user (traveler) traveling from airport A1 to airport A2 by an aircraft.
  • the information processing system includes a management server 1, a departure airport system 2, and an arrival airport system 3.
  • the departure airport system 2 and the arrival airport system 3 are connected to the management server 1 via the network NW.
  • the network NW is composed of a WAN (Wide Area Network) such as the Internet. Although only two airport systems are shown in FIG. 1 for convenience of explanation, the number of airport systems included in the information processing system is not limited to these.
  • the management server 1 is an information processing device that manages various procedures when a user travels.
  • the management server 1 is installed in a facility such as an airport company or an airline company, for example.
  • the management server 1 does not have to be a single server, and may be configured as a server group including a plurality of servers. For example, some or all of the functions of the management server 1 may be provided on the departure airport system 2 and the arrival airport system 3.
  • the management server 1 includes a user information DB 11.
  • the user information DB 11 is a database that stores personal identification information, boarding reservation information, flight information, and baggage information about the user in association with each other. Baggage information is information on baggage that the user has checked in with the airline before travel (hereinafter referred to as "checked baggage"). Note that this database is an example, and the management server 1 may further include another database.
  • FIG. 2 is a diagram showing an example of information stored in the user information DB 11.
  • the user information DB 11 includes a user ID, a reservation number, a name, a telephone number (TEL), an e-mail address (E-mail), a group ID, a boarding pass number, a status, a registered face image, a checked baggage ID, and baggage. Appearance images and similar baggage are used as data items. Note that these data items are examples, and the user information DB 11 may further include other data items. For example, when the information processing system according to the present embodiment is applied to an international flight user, data items related to passport information may be further included.
  • the user ID is an identifier that uniquely identifies the user.
  • the user ID is issued on condition that the user completes the check-in procedure.
  • the reservation number is an identifier that uniquely identifies the boarding reservation information.
  • the group ID is an identifier that uniquely identifies the group to which the user belongs. For example, when a user purchases a family boarding pass together, the same group ID is set in the user information of the whole family.
  • the boarding pass number is a unique identification number assigned to each boarding pass.
  • the status is the progress (incomplete / completed, etc.) of various procedures (check-in procedure / baggage check-in procedure / security inspection procedure / identity verification procedure at boarding gate / baggage receipt procedure, etc.) imposed on the user at the time of travel. ) Is shown.
  • the registered face image is a face image registered for the user.
  • the feature amount is a value extracted from biological information (registered face image).
  • the phrase of the biological information in the present embodiment means the facial image and the feature amount extracted from the facial image, but the biological information is not limited to the facial image and the facial feature amount. That is, biometric authentication may be performed using an iris image, a fingerprint image, a palm print image, an auricle image, or the like as the biometric information of the user.
  • the registered face image is registered in the first procedure work performed in the series of procedure work performed at the time of departure from the airport A1. It is preferable that the registered face image is registered based on the consent of the user and deleted at a predetermined timing. For example, the registered face image is deleted when the user arrives at the destination airport A2 and leaves the arrival lobby.
  • the checked baggage ID is an identifier that uniquely identifies the checked baggage.
  • the baggage appearance image is an image of the appearance of the checked baggage at the time of checking in the checked baggage. Similar baggage indicates the presence or absence of baggage that is similar in appearance to other checked baggage in the checked baggage of a user (passenger) who uses the same flight.
  • the departure airport system 2 is a computer system installed at the departure airport A1.
  • the departure airport system 2 includes a check-in terminal 20, an automatic baggage deposit machine 30, a security inspection device 40, a boarding gate device 50, a baggage transfer device 60, a baggage claim system 70, and a business terminal 80.
  • the arrival airport system 3 is a computer system installed at the destination airport A2, and is composed of the same equipment as the departure airport system 2.
  • the check-in terminal 20 is installed in the airport A1 and the airport A2, for example, in the check-in lobby.
  • the check-in terminal 20 is a self-terminal for performing a check-in procedure (boarding procedure) by the user operating by himself / herself. After completing the check-in procedure, the user will be transferred to the baggage deposit area or security checkpoint.
  • the automatic baggage deposit machine 30 is installed in the airport A1 and the airport A2, for example, in an area adjacent to a baggage counter (manned counter).
  • the automatic baggage depository machine 30 is a self-terminal for performing a procedure for depositing baggage that is not brought into the guest room with an airline company by the user operating it by himself / herself. After completing the baggage check-in procedure, the user will move to the security checkpoint. If the user does not check the baggage with the airline, the baggage check-in procedure will be omitted.
  • the security inspection device 40 is installed at the security inspection site in the airport A1 and the airport A2.
  • the phrase "security inspection device" in this embodiment includes a metal detector that confirms whether the user is wearing metals that can be dangerous goods, and baggage that is carried on board using X-rays. It is used to include all X-ray inspection devices that confirm the presence or absence of dangerous goods and traffic control devices that determine whether or not a user can pass through at the entrance / exit of a security inspection site. After completing the security inspection procedure, the user will move to the waiting area where the boarding gate is located.
  • the boarding gate device 50 is installed at each boarding gate in airport A1 and airport A2.
  • the boarding gate device 50 is a traffic control device that confirms whether or not the user is a passenger on the aircraft associated with the boarding gate. After completing the identity verification procedure with the boarding gate device 50, the user can board the aircraft and depart for the destination (airport A2).
  • the baggage carrier 60 is installed in the backyard in the airport A1 and the airport A2.
  • the baggage transport device 60 is a transport device that transports checked baggage to a predetermined place based on tag information.
  • the phrase "baggage carrier" in the present embodiment includes a transport path configured by a belt conveyor, a tag reader installed around the belt conveyor and reading tag information from the baggage tag attached to the checked baggage, and a tag. It is used to include all the sorting devices that sort checked baggage based on information and the control devices that control each device.
  • the baggage transfer device 60 automatically transports the checked baggage received from the user in the automatic baggage deposit machine 30 to the aircraft on which the user is boarding.
  • the baggage carrier 60 automatically transports the checked baggage unloaded from the aircraft arriving at the destination to the baggage claim (baggage claim) associated with the flight number of the aircraft.
  • the baggage claim system 70 is installed at the baggage claim at airports A1 and A2.
  • the baggage claim system 70 is a computer system that assists the user in efficiently receiving the checked baggage at the baggage claim.
  • the baggage claim system 70 identifies the checked baggage transported from the baggage carrier 60 based on the tag information, and transports the checked baggage to a predetermined turntable 73. Details of the devices constituting the baggage claim system 70 will be described later.
  • the business terminal 80 is a terminal used by a staff member of an airline company or the like for procedural work.
  • the business terminal 80 is, for example, a personal computer, a tablet terminal, a smartphone, or the like.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the management server 1.
  • the management server 1 is a computer that performs calculation, control, and storage, such as a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, a storage 104, and a communication I / F (Interface) 105. , A display device 106 and an input device 107. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the CPU 101 is a processor having a function of performing a predetermined operation according to a program stored in the ROM 103 or the storage 104 and controlling each part of the management server 1.
  • the RAM 102 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the CPU 101.
  • the ROM 103 is composed of a non-volatile storage medium and stores necessary information such as a program used for the operation of the management server 1.
  • the storage 104 is composed of a non-volatile storage medium and stores operation programs and data of the management server 1.
  • the storage 104 is composed of, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • Communication I / F105 is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and 4G, and is a module for communicating with other devices.
  • the display device 106 is a liquid crystal display for displaying moving images, still images, characters, etc., an OLED (Organic Light Emitting Diode) display, and the like, and is used for presenting information to the user.
  • OLED Organic Light Emitting Diode
  • the input device 107 is a keyboard, a pointing device, a button, or the like, and accepts operations by the user.
  • the display device 106 and the input device 107 may be integrally formed as a touch panel.
  • the CPU 101 performs a predetermined arithmetic process by loading the program stored in the ROM 103, the storage 104, etc. into the RAM 102 and executing the program. Further, the CPU 101 controls each part of the management server 1 such as the communication I / F 105 based on the program.
  • FIG. 4 is a block diagram showing an example of the hardware configuration of the check-in terminal 20.
  • the check-in terminal 20 includes a CPU 201, a RAM 202, a ROM 203, a storage 204, a communication I / F 205, a display device 206, an input device 207, a biometric information acquisition device 208, a medium reading device 209, and a printer 210. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the biometric information acquisition device 208 is a device that acquires a user's facial image as biometric information of the user.
  • the biological information acquisition device 208 is a digital camera having, for example, a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, a CCD (Charge Coupled Device) image sensor, or the like as a light receiving element.
  • the biological information acquisition device 208 for example, photographs the face of a user standing in front of the device and acquires the face image.
  • the medium reading device 209 is a device that reads information recorded on a recording medium such as a passport or an airline ticket medium.
  • Examples of the medium reader 209 include a code reader, an image scanner, a non-contact IC (Integrated Circuit) reader, an OCR (Optical Character Reader) device, and the like.
  • Examples of the ticket medium include a paper ticket, a mobile terminal for displaying a copy of an e-ticket, and the like.
  • FIG. 5 is a block diagram showing an example of the hardware configuration of the automatic baggage deposit machine 30.
  • the automatic baggage deposit machine 30 includes a CPU 301, a RAM 302, a ROM 303, a storage 304, a communication I / F 305, a display device 306, an input device 307, a biometric information acquisition device 308, a medium reading device 309, an output device 310, a weight scale 311 and a transport device. It is equipped with 312. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the output device 310 is a device that outputs a baggage tag attached to checked baggage.
  • the baggage tag in the present embodiment is an RFID tag provided with an IC chip that stores tag information including checked baggage ID, user ID, flight number, and the like.
  • the output device 310 further outputs a baggage redemption certificate necessary for redeeming checked baggage after arriving at the destination.
  • a baggage tag or baggage redemption certificate is associated with at least one of the reservation number and the user ID.
  • the weight scale 311 measures the weight of checked baggage and outputs the measured value to the CPU 301.
  • the CPU 301 outputs error information prompting the user to take action.
  • the transport device 312 is connected to the baggage transport device 60 described above, and transports checked baggage placed in the receiving unit by the user and attached with a baggage tag toward the baggage transport device 60.
  • FIG. 6 is a block diagram showing an example of the hardware configuration of the security inspection device 40.
  • the security inspection device 40 includes a CPU 401, a RAM 402, a ROM 403, a storage 404, a communication I / F 405, a display device 406, an input device 407, a biometric information acquisition device 408, a medium reading device 409, and a metal detection gate 410. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the metal detection gate 410 is a gate-type metal detector that detects metals worn by the user passing through the metal detection gate 410.
  • FIG. 7 is a block diagram showing an example of the hardware configuration of the boarding gate device 50.
  • the boarding gate device 50 includes a CPU 501, a RAM 502, a ROM 503, a storage 504, a communication I / F 505, a display device 506, an input device 507, a biometric information acquisition device 508, a medium reading device 509, and a gate door 510. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the gate door 510 shifts from a closed state that blocks the user's passage during standby to an open state that allows the user's passage according to the control by the CPU 501. do.
  • the method of the gate door 510 is not particularly limited, and is, for example, a flapper gate that opens and closes by flappers provided from one side or both sides of the passage, a turnstile gate in which three bars rotate, and the like.
  • FIG. 8 is a block diagram showing an example of the hardware configuration of the baggage claim system 70.
  • the baggage claim system 70 includes a tag reader 71, a camera 72, a turntable 73, a directional speaker 74, and a gate device 75.
  • the tag reader 71 is installed on a transport path connecting the baggage carrier 60 installed in the backyard and the turntable 73, and is attached to the checked baggage transported to the baggage claim area from the baggage tag (RFID tag). It is a device that reads tag information.
  • the tag information includes at least the checked baggage ID.
  • the camera 72 is, for example, an image pickup device installed at the entrance of a baggage claim and around the turntable 73.
  • the camera 72 is a digital camera having, for example, a CMOS image sensor, a CCD image sensor, or the like as a light receiving element.
  • the camera 72 captures, for example, the face of a user who has entered the baggage claim area or a user standing in front of the turntable 73, and sequentially transmits the face image to the management server 1. Further, the camera 72 sequentially transmits the images of the checked baggage on the turntable 73 and the turntable 73 to the management server 1 for the tracking process of the checked baggage.
  • the turntable 73 is a table on which the user receives checked baggage, and is formed as a whole, for example, in an elliptical shape or a curved shape.
  • the turntable 73 includes a belt conveyor. When the checked baggage carried from the backyard is dropped on the turntable 73, the checked baggage moves at a predetermined speed by the belt conveyor.
  • the directional speaker 74 is an audio output device capable of selectively outputting audio to a specific range.
  • There are various methods of the directional speaker 74 for example, a type using ultrasonic waves and a type using a plane wave.
  • the sound quality, range, and directivity angle of sound differ depending on the speaker.
  • the gate device 75 is a traffic control device installed at the exit of the baggage claim area.
  • the gate device 75 also identifies checked baggage by performing face recognition of the user.
  • the gate device 75 restricts the user from leaving the baggage claim area if the user has mistaken the checked baggage.
  • FIG. 9 is a block diagram showing an example of the hardware configuration of the gate device 75. Similar to the boarding gate device 50, the gate device 75 includes a CPU 751, a RAM 752, a ROM 753, a storage 754, a communication I / F 755, a display device 756, an input device 757, a biometric information acquisition device 758, a medium reading device 759, and a gate door 760. Be prepared. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • FIG. 10 is a block diagram showing an example of the hardware configuration of the business terminal 80.
  • the business terminal 80 includes a CPU 801 and a RAM 802, a ROM 803, a storage 804, a communication I / F 805, a display device 806, and an input device 807. Each device is connected to each other via a bus, wiring, a drive device, and the like.
  • the hardware configuration shown in FIGS. 3 to 10 is an example, and devices other than these may be added or some devices may not be provided. Further, some devices may be replaced with other devices having similar functions. Further, some functions of the present embodiment may be provided by other devices via a network, or the functions of the present embodiment may be distributed and realized by a plurality of devices. As described above, the hardware configuration shown in FIGS. 3 to 10 can be appropriately changed.
  • FIG. 11 is a sequence chart showing an example of processing at the time of check-in procedure of the information processing system according to the present embodiment. This process is executed when the user performs the check-in procedure using the check-in terminal 20.
  • the check-in terminal 20 photographs the user's face with the biological information acquisition device 208, and acquires the face image as the target face image (step S101). It is preferable to display a screen for obtaining the consent of the user before taking the face image.
  • Boarding reservation information includes the user's name, gender, address, contact information, airline code, flight number, boarding date, departure point (departure airport), waypoint, destination (arrival airport), seat number, seat grade. , Boarding time, arrival time, etc. are included.
  • the check-in terminal 20 executes a check-in procedure such as confirmation of the itinerary and selection of a seat based on the input information from the user (step S103), the check-in terminal 20 requests the management server 1 to register the user information. I do.
  • the management server 1 issues a user ID based on the user information registration request from the check-in terminal 20 (step S104).
  • the user ID is set to a unique value based on, for example, the date and time at the time of processing, the sequence number, and the like.
  • the management server 1 registers the user information associated with the user ID, the face image, the boarding reservation information, and the boarding pass number in the user information DB 11 (step S105).
  • the reason why the face image taken in the field is used as the registered face image is that the registered face image is deleted in a short period of time, and the shot image is the image taken in the subsequent authentication process and the quality (appearance). It may be closer than the images taken in the past such as the face image of the passport and the face image at the time of membership registration.
  • the passport face image may be set as the registered face image (registered biometric information).
  • the check-in terminal 20 determines whether or not the check-in of all members has been completed based on the input information from the user (step S106). All means all users who have the same group ID set.
  • step S106 YES
  • step S107 the process proceeds to step S107.
  • step S106 NO
  • the process returns to step S101.
  • the check-in terminal 20 receives the processing result from the management server 1, it prints a boarding pass containing boarding reservation information and guidance information regarding the procedure up to boarding (step S107), and ends the processing.
  • FIG. 12 is a sequence chart showing an example of processing at the time of baggage check-in procedure of the information processing system according to the present embodiment. This process is executed when the user who has completed the check-in procedure performs the baggage check-in procedure as necessary.
  • the automatic baggage depositor 30 when the automatic baggage depositor 30 detects the user's face by the biological information acquisition device 308, the automatic baggage depositor 30 photographs the user's face and acquires the user's face image (step S201).
  • the automatic baggage deposit machine 30 sends the user's face image as a target face image to the management server 1 and requests face authentication on the management server 1 (step S202).
  • the management server 1 receives the target face image from the automatic baggage deposit machine 30, the management server 1 collates the target face image of the user with the registered face image in a one-to-N manner, and transmits the collation result to the automatic baggage deposit machine 30. do. If the collation result is a collation match, the management server 1 transmits the user information associated with the registered face image to the automatic baggage deposit machine 30 together with the collation result.
  • the phrase “collation match” means that the collation score indicating the degree of similarity between the biometric information of the user and the registered biometric information of the registrant is equal to or higher than a predetermined threshold value. Conversely, the phrase “collation mismatch” means that the collation score is below a predetermined threshold.
  • the automatic baggage deposit machine 30 determines whether or not the user is a person who has completed the check-in procedure based on the collation result and the user information received from the management server 1 (step S203).
  • the automatic baggage deposit machine 30 determines that the user is not a person who has completed the check-in procedure (step S203: NO)
  • the automatic baggage deposit machine 30 notifies an error message (step S214) and ends the process.
  • step S203 determines that the user has completed the check-in procedure
  • step S204 the automatic baggage deposit machine 30 determines whether or not the baggage is checked in by the representative based on the input information from the user.
  • step S204 determines that the baggage has been checked in by the representative (step S204: YES)
  • step S205 the process proceeds to step S205.
  • step S204 determines that the baggage is not checked by the representative
  • step S205 when the automatic baggage deposit machine 30 transmits the representative information indicating that the representative is set for the baggage for a plurality of people, the management server 1 transmits the representative information to the user information DB 11 Register with.
  • the automatic baggage deposit machine 30 acquires user information from the management server 1.
  • the user information includes a user ID that identifies the user, a destination, an aircraft flight number, and the like.
  • the automatic baggage check-in machine 30 measures the weight of the checked baggage (step S207).
  • the automatic baggage deposit machine 30 transmits the weight of the checked baggage to the management server 1. If the measured weight exceeds the specified value, an error message is notified to the user.
  • the automatic baggage deposit machine 30 takes a picture of the checked baggage and acquires an image of the appearance of the baggage (step S208).
  • the automatic baggage deposit machine 30 transmits the baggage appearance image to the management server 1.
  • the management server 1 issues a unique checked baggage ID (step S209), and the checked baggage ID is automatically set as the checked baggage ID. It is transmitted to the deposit machine 30.
  • the management server 1 executes an update process of associating baggage information with the user information of the user information DB 11 (step S210).
  • the baggage information includes a checked baggage ID, a baggage appearance image, a weight, a baggage tag number, and the like.
  • the automatic baggage deposit machine 30 issues a baggage tag (step S211).
  • the checked baggage ID and user information received from the management server 1 are recorded in the baggage tag.
  • the user attaches a baggage tag to the checked baggage according to the guidance information displayed on the display device 306 of the automatic baggage deposit machine 30.
  • the automatic baggage deposit machine 30 starts transporting the checked baggage placed in the storage unit after the baggage tag is attached to the checked baggage (step S212).
  • Checked baggage is transported to a predetermined location by a baggage carrier.
  • the automatic baggage deposit machine 30 determines whether or not all the baggage has been checked in based on the input information from the user (step S213).
  • the automatic baggage deposit machine 30 determines that the deposit of all baggage has been completed (step S213: YES), the process ends.
  • step S213 NO
  • the process returns to step S207.
  • FIG. 13 is a flowchart showing an example of processing at the boarding gate of the information processing system.
  • the boarding gate device 50 detects the user's face by the biological information acquisition device 508, the boarding gate device 50 photographs the user's face and acquires the user's face image (step S301).
  • the boarding gate device 50 transmits the user's face image as a target face image to the management server 1 and requests face authentication in the management server 1 (step S302).
  • the management server 1 receives the target face image from the boarding gate device 50, the management server 1 performs face matching between the target face image of the user and the registered face image on a one-to-N basis, and transmits the matching result to the boarding gate device 50.
  • the boarding gate device 50 determines whether or not the user has succeeded in face authentication based on the collation result received from the management server 1 (step S303).
  • the process proceeds to step S304.
  • step S303 NO
  • the boarding gate device 50 determines that the face authentication has failed (step S303: NO)
  • the boarding gate device 50 notifies an error message (step S306) and ends the process.
  • step S304 the boarding gate device 50 opens the gate door 510. This allows the user to pass through the boarding gate and board the aircraft.
  • the management server 1 updates the status in the user information DB 11 to complete boarding (step S305), and the process ends.
  • FIG. 14 is a flowchart showing an example of processing executed after the user passes through the boarding gate in the information processing system. This process is executed at the timing when the user (passenger) boarding the aircraft is finally confirmed.
  • the management server 1 acquires the baggage appearance image of the checked baggage of the user boarding the same flight (step S401).
  • the management server 1 collates the baggage image of a certain checked baggage with the baggage appearance image of another checked baggage in order (step S402).
  • step S403 determines whether or not similar baggage exists in the checked baggage of the user of the same flight.
  • step S403 determines that similar baggage exists
  • step S404 proceeds to step S404.
  • step S403: NO the process ends.
  • step S404 the management server 1 registers the information of the similar baggage with respect to the user information of the user related to the checked baggage in which the similar baggage exists, and ends the process.
  • FIG. 15 is a layout diagram showing an example of a baggage claim area according to the present embodiment.
  • a camera 72 for taking a face image of the user U entering the baggage claim area and a directional speaker 74 for notifying the user U of guidance information by voice are provided near the entrance of the baggage claim area.
  • the number of cameras 72 and directional speakers 74 provided near the entrance is not limited to this. Further, the camera 72 and the directional speaker 74 may be provided at the gate 75.
  • turntables 73 are installed at the baggage claim area.
  • a plurality of cameras 72 and directional speakers 74 are provided in the central area of the four turntables 73, respectively.
  • the camera 72 captures a face image of the user U around the turntable 73.
  • the directional speaker 74 notifies the user U approaching the checked baggage on the turntable 73 or the user U picking up the checked baggage by voice guidance information.
  • a gate device 75 is provided at the exit of the baggage claim area.
  • the gate device 75 authenticates the face of the user U who wishes to leave the baggage claim area, and determines whether or not the baggage carried by the user U belongs to the user U.
  • 16A and 16B are flowcharts showing an example of processing at the baggage claim area of the information processing system. This process is executed when the user receives the checked baggage carried to the baggage claim area.
  • the management server 1 controls the baggage transport device 60 and transports baggage from the backyard to a predetermined turntable 73 (step S501).
  • the management server 1 controls the tag reader 71 and reads the tag information from the baggage tag (RFID tag) attached to the checked baggage carried to the turntable 73 (step S502), the management server 1 reads the tag information. Send to.
  • the management server 1 identifies the user ID of the owner of the checked baggage and the baggage appearance image using the checked baggage ID included in the tag information as a key (step S503).
  • the management server 1 starts the detection process of the owner of the checked baggage by performing face matching between the registered face image associated with the user ID and the face image of the person existing in the baggage claim area. (Step S504).
  • step S505 when the management server 1 detects the owner of the checked baggage, it determines whether or not it is the first detection of the owner.
  • step S505 when the management server 1 determines that the owner is the first detection (step S505: YES), the process proceeds to step S506.
  • step S505 determines that it is not the first detection of the owner (step S505: NO)
  • the process proceeds to step S510.
  • step S506 the management server 1 controls the directional speaker 74 and notifies the owner by voice that the baggage is on the turntable 73. After that, the process proceeds to step S507.
  • FIG. 17 is a diagram showing an example of a voice notification to the user U who enters the baggage claim area.
  • guidance information regarding the baggage claim location (“Your baggage is on the turntable No. 3") is a directional speaker. It is shown to be notified by voice from 74.
  • step S507 the management server 1 determines whether or not there is baggage similar to the checked baggage of the user based on the information of similar baggage included in the user information.
  • step S507 determines that there is similar baggage
  • step S508 the management server 1 controls the directional speaker 74 and alerts the owner by voice (step). S508).
  • the directional speaker 74 is suitable to output a warning voice such as "Please note that there is baggage similar to your baggage on the turntable.”
  • step S507 determines that there is no similar baggage (step S507: NO)
  • the process proceeds to step S510.
  • the management server 1 performs baggage tracking processing in parallel with the processing of steps S504 to S508 (step S509).
  • the management server 1 detects checked baggage based on the baggage appearance image from the image taken by the camera 72 of the turntable 73, and tracks the checked baggage moving on the turntable 73.
  • step S510 the management server 1 analyzes the image received from the camera 72 to determine whether or not there is a person approaching the baggage (hereinafter referred to as "approaching person").
  • the management server 1 determines that there is an approaching person (step S510: YES)
  • the process proceeds to step S511.
  • step S510 NO
  • the process returns to step S504 (owner detection process) and step S509 (baggage tracking process).
  • step S511 the management server 1 determines whether or not the approaching person is the owner of the baggage.
  • step S511 the management server 1 determines that the approaching person is the owner of the baggage.
  • step S511 determines that the approaching person is not the owner of the baggage.
  • step S512 the management server 1 uses the directional speaker 74 to notify the approaching person by voice that it is his / her baggage. After that, the process proceeds to step S514.
  • step S513 the management server 1 uses the directional speaker 74 to notify the approaching person by voice that it is not his / her baggage. After that, the process proceeds to step S514.
  • step S514 the management server 1 analyzes the image received from the camera 72 to determine whether or not the baggage has been picked up from the turntable 73.
  • step S514 the management server 1 determines that the baggage has been picked up from the turntable 73 (step S514: YES)
  • the process proceeds to step S515.
  • step S514 NO
  • step S504 owner detection processing
  • step S509 baggage tracking processing
  • step S515 the management server 1 determines whether or not the person who picked up the baggage is the owner.
  • step S515 the owner
  • step S515 determines that the person who picked up the baggage is not the owner (step S515: NO)
  • the process proceeds to step S516.
  • step S516 the management server 1 controls the directional speaker 74 and notifies the person who picks up the baggage by voice that it is not his / her baggage. After that, the process proceeds to step S517.
  • step S517 the management server 1 determines whether or not a person who has picked up the baggage and is not the owner has moved in the direction of the exit while carrying the baggage of another person.
  • step S517 the management server 1 determines that the person who is not the owner has moved in the direction of the exit while carrying the baggage of another person (step S517: YES)
  • the process proceeds to step S518.
  • step S517 NO
  • step S504 owner detection
  • step S509 baggage tracking processing
  • step S5128 the management server 1 registers in the user information of the person who has the baggage that he / she has the baggage of another person, and ends the process.
  • the user who has mistaken the baggage is dealt with by the gate device 75 at the exit of the baggage receiving place.
  • FIG. 18 is a diagram showing an example of a voice notification to a user existing around the turntable 73 of the baggage claim.
  • the turntable 73 conveys baggage B1 to B5 by a belt conveyor.
  • a plurality of directional speakers 74 are provided above the turntable 73.
  • the guidance information is output from the directional speaker 74 so that only the user U1 can hear it.
  • the content of the guidance information differs depending on whether or not the user U1 is the owner of the baggage B1. That is, when the user U1 is the owner of the baggage B1, guidance information such as "This is your baggage” is output from the directional speaker 74. On the contrary, when the user U1 is not the owner of the baggage B1, guidance information such as "It is not your baggage” is output from the directional speaker 74. This also applies to the user U2 who is approaching the baggage B2.
  • the user U6 is picking up the baggage B4 from the turntable 73. If the user U6 is not the owner of the baggage B4, the guidance information (“not your baggage”) is output from the directional speaker 74 so that only the user U6 can hear it. On the contrary, when the user U6 is the owner of the baggage B4, the guidance information may not be output from the directional speaker 74 to the user U6.
  • FIG. 19 is a flowchart showing an example of processing executed when the user leaves the baggage claim area in the information processing system.
  • the gate device 75 detects the user's face by the biological information acquisition device 758, the gate device 75 photographs the user's face and acquires the user's face image (step S601).
  • the gate device 75 transmits the user's face image as a target face image to the management server 1 and requests face authentication in the management server 1 (step S602).
  • the management server 1 receives the target face image from the boarding gate device 50, the management server 1 performs face matching between the target face image of the user and the registered face image on a one-to-N basis, and transmits the matching result to the gate device 75.
  • the gate device 75 determines whether or not the user has succeeded in face authentication based on the collation result received from the management server 1 (step S603).
  • the gate device 75 determines that the face authentication is successful (step S603: YES)
  • the process proceeds to step S604.
  • step S603 NO
  • the gate device 75 notifies an error message (step S610) and ends the process.
  • the gate device 75 acquires the tag information from the baggage tag attached to the baggage carried by the user by the medium reading device 759 (step S604), the gate device 75 transmits the tag information to the management server 1.
  • the management server 1 determines whether or not the checked baggage ID included in the tag information received from the gate device 75 matches the checked baggage ID associated with the registered face image of the user (step S605). ).
  • the management server 1 determines that the checked baggage IDs match (step S605: YES)
  • the process proceeds to step S606.
  • step S605 if it is determined that the checked baggage IDs do not match (step S605: NO), the process proceeds to step S608.
  • step S606 the management server 1 outputs control information to the gate device 75 and opens the gate door 760.
  • the management server 1 registers the information on the completion of receiving the checked baggage and the exit from the baggage receiving place of the user in the user information of the user information DB 11 (step S607), and ends the process.
  • step S608 the management server 1 outputs control information to the gate device 75, and displays the guidance information for guiding the user to mix up the baggage on the display device 756. Then, the management server 1 notifies the business terminal 80 possessed by the staff of the mistaken baggage (step S609), and ends the process.
  • FIG. 20 is a diagram showing an example of a notification displayed on the gate device 75 of the baggage claim area.
  • a message MSG regarding the wrong baggage (“You may have the wrong baggage. A staff member will come soon. Please wait.") And the user.
  • the baggage appearance image IMG-01 of the checked baggage checked in at the departure airport and the baggage appearance image IMG-02 of the carrying baggage taken by the gate device 75 are displayed.
  • the guidance information for guiding the mix-up of baggage at that timing is selectively selected only for the corresponding user. Can be notified to.
  • the corresponding guidance information can be notified to the user depending on whether or not the user is the owner of the baggage. Therefore, the user can easily confirm that the baggage is checked in at the departure airport.
  • the gate device 75 provided at the exit can reliably detect the mix-up of baggage.
  • FIG. 21 is a block diagram showing an example of the hardware configuration of the baggage claim system 70 according to the present embodiment.
  • the baggage claim system 70 of the present embodiment is different from the first embodiment in that the projector 76 is provided instead of the directional speaker 74.
  • the projector 76 is a projection device that projects guidance information to the user onto an object by project mapping based on the control information from the management server 1.
  • FIG. 22 is a layout diagram showing an example of a baggage claim area according to the present embodiment.
  • a camera 72 for taking a face image of the user U entering the baggage claim area and a projector 76 for notifying the user U of guidance information by project mapping are provided.
  • the number of cameras 72 and projectors 76 provided near the entrance is not limited to this.
  • turntables 73 are installed at the baggage claim area.
  • a plurality of cameras 72 and projectors 76 are provided in the central area of the four turntables 73, respectively.
  • the camera 72 captures a face image of the user U around the turntable 73.
  • the projector 76 notifies the user U approaching the checked baggage on the turntable 73 or the user U picking up the checked baggage with guidance information by project mapping.
  • a gate device 75 is provided at the exit of the baggage claim area.
  • the gate device 75 authenticates the face of the user U who wishes to leave the baggage claim area, and determines whether or not the baggage carried by the user U belongs to the user U.
  • FIGS. 23A and 23B are flowcharts showing an example of processing at the baggage claim area of the information processing system according to the present embodiment.
  • the management server 1 controls the baggage transport device 60 and transports baggage from the backyard to a predetermined turntable 73 (step S701).
  • the management server 1 controls the tag reader 71 and reads the tag information from the baggage tag (RFID tag) attached to the checked baggage carried to the turntable 73 (step S702), the management server 1 reads the tag information. Send to.
  • the management server 1 identifies the user ID of the owner of the checked baggage and the baggage appearance image using the checked baggage ID included in the tag information as a key (step S703).
  • the management server 1 starts the detection process of the owner of the checked baggage by performing face matching between the registered face image associated with the user ID and the face image of the person existing in the baggage claim area. (Step S704).
  • step S705 when the management server 1 detects the owner of the checked baggage, it determines whether or not it is the first detection of the owner.
  • step S705 when the management server 1 determines that the owner is the first detection (step S705: YES), the process proceeds to step S706.
  • step S705 determines that it is not the first detection of the owner (step S705: NO)
  • the process proceeds to step S710.
  • step S706 the management server 1 controls the projector 76 and displays (projects) guidance information indicating to the owner that the baggage is on the turntable 73 on the floor surface by project mapping. After that, the process proceeds to step S707.
  • FIG. 24 is a diagram showing an example of a project mapping image projected on the floor surface near the entrance of the baggage claim.
  • the information on the baggage claim area from the projector 76 is MSG-01 ("Your baggage is on the turntable No. 3".
  • An example is shown in which ") is projected onto the floor surface as a project mapping image IMG-03.
  • step S707 the management server 1 determines whether or not there is baggage similar to the checked baggage of the user based on the information of similar baggage included in the user information.
  • the management server 1 determines that there is similar baggage (step S707: YES)
  • the management server 1 controls the projector 76 and displays the project mapping image on the floor surface to the owner (step S707: YES). Step S708).
  • the projector 76 is suitable for projecting a project mapping image that calls attention, such as "Please note that there is baggage similar to your baggage on the turntable.”
  • step S707 determines that there is no similar baggage.
  • the management server 1 performs baggage tracking processing in parallel with the processing of steps S704 to S708 (step S709).
  • the management server 1 detects checked baggage based on the baggage appearance image from the image taken by the camera 72 of the turntable 73, and tracks the checked baggage moving on the turntable 73.
  • step S710 the management server 1 analyzes the image received from the camera 72 to determine whether or not there is a person approaching the baggage (hereinafter referred to as "approaching person").
  • the management server 1 determines that there is a person approaching the baggage (step S710: YES)
  • the process proceeds to step S711.
  • step S710 NO
  • the process returns to step S704 (owner detection process) and step S709 (baggage tracking process).
  • step S711 the management server 1 determines whether or not the approaching person is the owner of the baggage.
  • step S711: YES the process proceeds to step S712.
  • step S711 determines that the approaching person is not the owner of the baggage.
  • step S712 the management server 1 displays the guidance information indicating that it is his / her baggage to the approaching person on the surface of the baggage by the project mapping by the projector 76. After that, the process proceeds to step S714.
  • step S713 the management server 1 displays the guidance information indicating that it is not his / her baggage to the approaching person on the surface of the baggage by the project mapping by the projector 76. After that, the process proceeds to step S714.
  • step S714 the management server 1 analyzes the image received from the camera 72 to determine whether or not the baggage has been picked up from the turntable 73.
  • step S714 the management server 1 determines that the baggage has been picked up from the turntable 73 (step S714: YES)
  • the process proceeds to step S715.
  • step S714 determines that the baggage has not been picked up from the turntable 73 (step S714: NO)
  • the processing is again step S704 (owner detection processing) and step S709 (baggage tracking processing).
  • step S715 it is determined whether or not the person who picked up the baggage is the owner.
  • the management server 1 determines that the person who picked up the baggage is the owner (step S715: YES)
  • the process ends.
  • step S715 determines that the person who picked up the baggage is not the owner (step S715: NO)
  • the process proceeds to step S716.
  • step S716 the management server 1 controls the projector 76 and displays guidance information indicating that it is not his / her baggage on the floor surface to the person who picked up the baggage by project mapping.
  • the projection destination of the project mapping image may be the turntable 73 or baggage.
  • step S717 the management server 1 determines whether or not a person who has picked up the baggage and is not the owner has moved in the direction of the exit while carrying the baggage of another person.
  • step S717 the management server 1 determines that the person who is not the owner has moved in the direction of the exit while carrying the baggage of another person (step S717: YES)
  • the process proceeds to step S718.
  • step S717 NO
  • the process is again step S704 (owner).
  • the detection process) and step S709 baggage tracking process
  • step S718 the management server 1 registers in the user information of the person who has the baggage that he / she has the baggage of another person, and ends the process.
  • the user who has mistaken the baggage is dealt with by the gate device 75 at the exit of the baggage receiving place.
  • FIG. 25 is a diagram showing an example of notification by a project mapping image in the baggage claim area.
  • the turntable 73 conveys baggage B11 to B15 by a belt conveyor.
  • a plurality of projectors 76 are provided above the turntable 73.
  • the guidance information is output from the projector 76 to the baggage B11 in front of the user U12 as a project mapping image.
  • the content of the guidance information differs depending on whether or not the user U1 is the owner of the baggage B1. That is, when the user U11 is the owner of the baggage B1, guidance information such as "This is your baggage” is output from the projector 76. On the contrary, when the user U12 is not the owner of the baggage B11, guidance information such as "It is not your baggage” is output from the projector 76. This also applies to the user U13 who is approaching the baggage B12.
  • the user U16 is picking up the baggage B15 from the turntable 73. If the user U16 is not the owner of the baggage B15, the projector 76 outputs guidance information (“not your baggage”) to the baggage B15. On the contrary, when the user U16 is the owner of the baggage B15, the guidance information may not be output from the projector 76 to the user U16. Further, the projection destination of the project mapping image is not limited to the surface of the baggage, but may be the floor surface or the surface of the turntable 73.
  • 26 to 28 are diagrams showing an example of a project mapping image projected on baggage at a baggage claim area.
  • the projector 76 when the owner is a user who approaches the baggage B, the projector 76 includes the guidance information MSG-02 (“It is your baggage”) and the user's face image F1 on the surface of the baggage B.
  • An example of displaying the project mapping image IMG-04 is shown.
  • the projector 76 displays the guidance information MSG-03 (“not your baggage”) and the user's face image F2 on the surface of the baggage B.
  • An example of displaying the including project mapping image IMG-05 is shown.
  • the projector 76 guides the information MSG-04 on the floor surface (“The baggage you have is the other person's baggage. It is an example of displaying the project mapping image IMG-06 including "It is baggage.”).
  • the user can visually recognize the guidance information. Therefore, in addition to the effect of the first embodiment described above, it is possible to easily determine whether or not the baggage on the turntable 73 is one's own baggage based on the project mapping image.
  • FIG. 29 is a functional block diagram of the information processing apparatus according to the present embodiment.
  • the information processing apparatus 100 includes a first acquisition unit 100A, a second acquisition unit 100B, a biological collation unit 100C, a determination unit 100D, and a guidance unit 100E.
  • the first acquisition unit 100A acquires the first baggage information of the checked baggage that the user has checked with the airline company at the departure airport.
  • the second acquisition unit 100B acquires the second baggage information of the baggage carried to the baggage claim area at the arrival airport.
  • the biometric matching unit 100C executes biometric matching between the biometric information acquired from the person who entered the baggage receiving place and the registered biometric information of the user associated with the first baggage information.
  • the determination unit 100D sets the second baggage information related to the baggage received by the person at the baggage claim and the first baggage information related to the user. Based on this, it is determined whether or not the person is the owner of the baggage.
  • the information unit 100E outputs guidance information for guiding the person to mix up the baggage at the baggage claim area.
  • an information processing device 100 capable of preventing a traveler from mixing up baggage at an arrival airport is provided.
  • the language of guidance information can be switched for each user.
  • the guidance information can be notified in the native language of the user. This improves convenience for the user.
  • the configuration for outputting the guidance information when the user approaches the baggage on the turntable 73 has been described, but the guidance information for calling attention to a person who does not go to pick up the baggage (for example). , "Your baggage is on the turntable." May be output.
  • the configuration for acquiring the baggage information by reading the tag information from the RFID tag attached to the checked baggage has been described, but the baggage information is recorded by a code reading device instead of the RFID tag.
  • a code such as a two-dimensional bar code may be optically read.
  • the directional speaker 74 is used to notify the user who has the baggage of another person of the mix-up of the baggage.
  • the alert may be notified to the business terminal 80 possessed by the speaker.
  • the notification method in the case of (A) and the notification method in the case of (B) may be different.
  • the volume of the directional speaker 74 can be increased (decreased) in the case of (B) as compared with the case of (A).
  • the image output by the projector 76 may be blinked, or the image may be output in a color different from the normal time. Specifically, it is preferable to change the video output method between the user U12 and the user U16 shown in FIG. 25.
  • Each embodiment also has a processing method in which a program for operating the configuration of the embodiment is recorded on a recording medium so as to realize the functions of the above-described embodiment, the program recorded on the recording medium is read out as a code, and the program is executed by a computer.
  • a computer-readable recording medium is also included in the scope of each embodiment. Further, not only the recording medium on which the above-mentioned program is recorded but also the program itself is included in each embodiment.
  • the recording medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a non-volatile memory card, or the like can be used.
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a non-volatile memory card, or the like
  • the program recorded on the recording medium that executes the process alone, but also the program that operates on the OS and executes the process in cooperation with other software and the function of the expansion board is also an embodiment. Is included in the category of.
  • the first acquisition department that acquires the first baggage information of checked baggage that the user has checked in with the airline at the departure airport
  • the second acquisition department that acquires the second baggage information of the baggage transported to the baggage claim area at the arrival airport
  • a bio-matching unit that executes bio-matching between the biometric information acquired from the person who entered the baggage claim and the registered biometric information of the user associated with the first baggage information.
  • the person is authenticated as the same person as the user by the biometric verification, the second baggage information related to the baggage received by the person at the baggage receiving place and the first baggage information related to the user.
  • a determination unit that determines whether or not the person is the owner of the baggage based on the baggage information.
  • a guide unit that outputs guidance information for guiding the person to mix up the baggage at the baggage receiving place when the person is not the owner of the baggage.
  • Information processing device equipped with.
  • Appendix 2 Based on the baggage appearance image included in the second baggage information, the baggage tracking unit that tracks the baggage at the baggage receiving place and the baggage tracking unit.
  • a position detection unit that detects the position information of the person at the baggage claim area, and Further prepare The guide unit outputs the guide information when the person is within a predetermined distance range from the baggage.
  • the information processing apparatus according to Appendix 1.
  • the guide unit changes the output location of the guide information based on the position information.
  • the information processing device according to Appendix 2.
  • the guide unit controls a speaker provided in the baggage receiving area, and outputs the guide information to the person by directional voice.
  • the information processing apparatus according to any one of Supplementary note 1 to 3.
  • the guide unit controls a projector provided at the baggage claim area, and outputs the guide information as a project mapping image on the surface of the baggage.
  • the information processing apparatus according to any one of Supplementary note 1 to 3.
  • the guide unit controls a projector provided at the baggage claim area, and outputs the guide information as a project mapping image to a position in front of the person.
  • the information processing apparatus according to any one of Supplementary note 1 to 3.
  • the second acquisition unit Before the baggage is transported to the turntable provided at the baggage receiving area, the second acquisition unit is attached to the baggage by a reading device located upstream of the transport path from the turntable. Read the second baggage information from the tag, The information processing apparatus according to any one of Supplementary note 1 to 9.
  • the biometric information is a facial image.
  • the information processing apparatus according to any one of Supplementary note 1 to 10.
  • Steps to obtain the first baggage information of checked baggage that the user has checked in with the airline at the departure airport Steps to obtain second baggage information for baggage transported to the baggage claim area at the arrival airport, A step of performing a biomatch between the biometric information acquired from the person who entered the baggage claim and the registered biometric information of the user associated with the first baggage information, and When the person is authenticated as the same person as the user by the biometric verification, the second baggage information related to the baggage received by the person at the baggage receiving place and the first baggage information related to the user.

Landscapes

  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)

Abstract

本発明に係る情報処理装置は、出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得する第1取得部と、到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得する第2取得部と、前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行する生体照合部と、前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定する判定部と、前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力する案内部と、を備える。

Description

情報処理装置、情報処理方法及び記録媒体
 本発明は、情報処理装置、情報処理方法及び記録媒体に関する。
 特許文献1には、旅行者が出発空港において預けた手荷物を到着空港において容易に受け取れるように支援する航空旅行者支援システムが開示されている。
特開2019-40410号公報
 特許文献1に記載されているシステムは、旅行者の手荷物が出発空港のターンテーブルまで搬送されたとき、ターンテーブル上における手荷物の位置を推定し、旅行者が携帯する携帯型端末へ通知する。しかし、例えば、旅行者が手荷物を十分に確認しない場合や、類似する手荷物が多数存在している場合には、手荷物の取り違えが発生してしまう虞があった。
 そこで、本発明は、上述の問題に鑑み、到着空港において旅行者による手荷物の取り違えを防止できる情報処理装置、情報処理方法及び記録媒体を提供することを目的とする。
 本発明の一つの観点によれば、出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得する第1取得部と、到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得する第2取得部と、前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行する生体照合部と、前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定する判定部と、前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力する案内部と、を備える情報処理装置が提供される。
 本発明の他の観点によれば、出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、を備える情報処理方法が提供される。
 本発明の更に他の観点によれば、コンピュータに、出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、を実行させるためのプログラムが記録された記録媒体が提供される。
 本発明によれば、到着空港において旅行者による手荷物の取り違えを防止できる情報処理装置、情報処理方法及び記録媒体を提供することができる。
第1実施形態に係る情報処理システムの全体構成の一例を示す概略図である。 第1実施形態に係る利用者情報DBが記憶する情報の一例を示す図である。 第1実施形態に係る管理サーバのハードウェア構成の一例を示すブロック図である。 第1実施形態に係るチェックイン端末のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る自動手荷物預け機のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る保安検査装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る搭乗ゲート装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る手荷物受取所システムのハードウェア構成の一例を示すブロック図である。 第1実施形態に係るゲート装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る業務端末のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る情報処理システムのチェックイン手続における処理の一例を示すフローチャートである。 第1実施形態に係る情報処理システムの手荷物預け入れ手続における処理の一例を示すフローチャートである。 第1実施形態に係る情報処理システムの搭乗ゲートにおける処理の一例を示すフローチャートである。 第1実施形態に係る情報処理システムにおいて利用者が搭乗ゲートを通過した後に実行される処理の一例を示すフローチャートである。 第1実施形態に係る手荷物受取所の一例を示すレイアウト図である。 第1実施形態に係る情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。 第1実施形態に係る情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。 第1実施形態に係る手荷物受取所に入場する利用者への音声による通知の一例を示す図である。 第1実施形態に係る手荷物受取所のターンテーブルの周辺に存在する利用者への音声による通知の一例を示す図である。 第1実施形態に係る情報処理システムにおいて利用者が手荷物受取所から退出する際に実行される処理の一例を示すフローチャートである。 第1実施形態に係る手荷物受取所のゲート装置に表示される通知の一例を示す図である。 第2実施形態に係る手荷物受取所システムのハードウェア構成の一例を示すブロック図である。 第2実施形態に係る手荷物受取所の一例を示すレイアウト図である。 第2実施形態に係る情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。 第2実施形態に係る情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。 第2実施形態に係る手荷物受取所の入口付近において床面に投影されたプロジェクトマッピング画像の一例を示す図である。 第2実施形態に係る手荷物受取所でのプロジェクトマッピングによる利用者への通知の一例を示す図である。 第2実施形態に係る手荷物受取所において手荷物に投影されたプロジェクトマッピング画像の一例を示す図である。 第2実施形態に係る手荷物受取所において手荷物に投影されたプロジェクトマッピング画像の一例を示す図である。 第2実施形態に係る手荷物受取所において床面に投影されたプロジェクトマッピング画像の一例を示す図である。 第3実施形態に係る情報処理装置の機能ブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
<第1実施形態>
 図1は、本実施形態に係る情報処理システムの全体構成の一例を示す概略図である。本実施形態による情報処理システムは、例えば、航空機によって空港A1から空港A2へ渡航する利用者(旅行者)に対して各空港で行われる一連の手続を支援するコンピュータシステムである。
 図1に示すように、情報処理システムは、管理サーバ1、出発空港システム2及び到着空港システム3を備える。出発空港システム2及び到着空港システム3は、ネットワークNWを介して管理サーバ1に接続されている。ネットワークNWは、インターネット等のWAN(Wide Area Network)により構成されている。なお、図1では、説明の便宜上、2つの空港システムのみが示されているが、情報処理システムに含まれる空港システムの数はこれらに限られない。
 管理サーバ1は、利用者の渡航時における各種の手続を管理する情報処理装置である。管理サーバ1は、例えば、空港会社、航空会社等の施設内に設置されている。なお、管理サーバ1は、単一のサーバである必要はなく、複数のサーバを含むサーバ群として構成されたものであってもよい。例えば、管理サーバ1の機能の一部又は全部は、出発空港システム2及び到着空港システム3側に備えられてもよい。
 管理サーバ1は、利用者情報DB11を備える。利用者情報DB11は、利用者に関する本人確認情報、搭乗予約情報、フライト情報及び手荷物情報を関連付けて記憶するデータベースである。手荷物情報は、利用者が渡航前に航空会社に預けた手荷物(以下、「受託手荷物」という。)の情報である。なお、このデータベースは一例であり、管理サーバ1は他のデータベースを更に備えてもよい。
 図2は、利用者情報DB11が記憶する情報の一例を示す図である。ここでは、利用者情報DB11は、利用者ID、予約番号、氏名、電話番号(TEL)、メールアドレス(E-mail)、グループID、搭乗券番号、ステータス、登録顔画像、受託手荷物ID、手荷物外観画像、類似手荷物をデータ項目としている。なお、これらのデータ項目は一例であり、利用者情報DB11は他のデータ項目を更に含んでもよい。例えば、国際線の利用者に対して本実施形態に係る情報処理システムを適用する場合には、旅券情報に関するデータ項目を更に含み得る。
 利用者IDは、利用者を一意に識別する識別子である。本実施形態では、利用者IDは、利用者がチェックイン手続を完了したことを条件として発行されるものとする。予約番号は、搭乗予約情報を一意に識別する識別子である。グループIDは、利用者が属するグループを一意に識別する識別子である。例えば、利用者が家族の搭乗券を纏めて購入した場合には、家族全員の利用者情報に同一のグループIDが設定される。搭乗券番号は、搭乗券ごとに採番された固有の識別番号である。ステータスは、渡航時に利用者に対して課される各種の手続(チェックイン手続/手荷物預け入れ手続/保安検査手続/搭乗ゲートにおける本人確認手続/手荷物受取手続等)の進捗状況(未完了/完了等)を示す。
 登録顔画像は、利用者について登録された顔画像である。特徴量は、生体情報(登録顔画像)から抽出される値である。本実施形態における生体情報の語句は、顔画像及び顔画像から抽出される特徴量を意味するものとするが、生体情報は顔画像及び顔特徴量に限られない。すなわち、利用者の生体情報として、虹彩画像、指紋画像、掌紋画像及び耳介画像等を用いて生体認証を行ってもよい。
 また、登録顔画像は、空港A1からの出発時に行われる一連の手続業務のうち、最初に行われる手続業務において登録される。登録顔画像は、利用者からの同意に基づいて登録され、所定のタイミングで削除されると好適である。例えば、登録顔画像は、利用者が目的地の空港A2に到着し、到着ロビーから退出したときに削除される。
 受託手荷物IDは、受託手荷物を一意に識別する識別子である。手荷物外観画像は、受託手荷物の預け入れ時において受託手荷物の外観を撮影した画像である。類似手荷物は、同一の便を利用する利用者(搭乗者)の受託手荷物の中における、外観が他の受託手荷物と類似する手荷物の有無を示す。
 出発空港システム2は、出発地の空港A1に設置されたコンピュータシステムである。出発空港システム2は、チェックイン端末20、自動手荷物預け機30、保安検査装置40、搭乗ゲート装置50、手荷物搬送装置60、手荷物受取所システム70及び業務端末80を備える。
 到着空港システム3は、目的地の空港A2に設置されたコンピュータシステムであり、出発空港システム2と同様の装置によって構成されている。
 続いて、出発空港システム2及び到着空港システム3において管理サーバ1と協働して利用者に対する手続業務を担う装置について説明する。
 チェックイン端末20は、空港A1及び空港A2内において、例えばチェックインロビーに設置されている。チェックイン端末20は、利用者が自身で操作することによって、チェックイン手続(搭乗手続)を行うためのセルフ端末である。利用者は、チェックイン手続を完了すると、手荷物の預け場所あるいは保安検査場へ移動する。
 自動手荷物預け機30は、空港A1及び空港A2内において、例えば手荷物カウンタ(有人カウンタ)の隣接領域に設置されている。自動手荷物預け機30は、利用者が自身で操作することにより、客室内には持ち込まない手荷物を航空会社に預ける手続を行うためのセルフ端末である。利用者は、手荷物預け入れ手続を完了すると、保安検査場へ移動する。なお、利用者が手荷物を航空会社に預けない場合には、手荷物預け入れ手続は省略される。
 保安検査装置40は、空港A1及び空港A2内において保安検査場に設置されている。本実施形態における“保安検査装置”の語句は、利用者が危険物となりうる金属類を身につけているか否かを確認する金属探知機と、X線を用いて機内持ち込みの手荷物等の中の危険物の有無を確認するX線検査装置と、保安検査場の出入口において利用者の通過可否を判定する通行制御装置とを全て含む意味で使用する。利用者は、保安検査手続を完了すると、搭乗ゲートのある待機エリアへ移動する。
 搭乗ゲート装置50は、空港A1及び空港A2内において搭乗ゲートごとに設置されている。搭乗ゲート装置50は、利用者が搭乗ゲートに関連付けられた航空機への搭乗者であるか否かを確認する通行制御装置である。利用者は、搭乗ゲート装置50により本人確認手続を完了すると、航空機に搭乗し、目的地(空港A2)へ向けて出発できる。
 手荷物搬送装置60は、空港A1及び空港A2内においてバックヤードに設置されている。手荷物搬送装置60は、タグ情報に基づいて所定の場所へ受託手荷物を搬送する搬送装置である。本実施形態における“手荷物搬送装置”の語句は、ベルトコンベアによって構成された搬送経路と、ベルトコンベアの周囲に設置され、受託手荷物に付された手荷物タグからタグ情報を読取るタグ読取装置と、タグ情報に基づいて受託手荷物を仕分ける仕分け装置と、各装置を制御する制御装置とを全て含む意味で用いる。
 手荷物搬送装置60は、自動手荷物預け機30において利用者から預かった受託手荷物を、利用者が搭乗する航空機まで自動的に搬送する。また、手荷物搬送装置60は、目的地に到着した航空機から降ろされた受託手荷物を、航空機の便名に関連付けられている手荷物受取所(バゲージクレーム)まで自動的に搬送する。
 手荷物受取所システム70は、空港A1及び空港A2内において手荷物受取所に設置されている。手荷物受取所システム70は、手荷物受取所において利用者が受託手荷物を効率的に受け取れるよう、利用者を支援するコンピュータシステムである。手荷物受取所システム70は、手荷物搬送装置60から搬送されてきた受託手荷物をタグ情報に基づいて識別するとともに、所定のターンテーブル73に搬送する。手荷物受取所システム70を構成する装置の詳細については後述する。
 業務端末80は、航空会社等の係員が手続業務に使用する端末である。業務端末80は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォン等である。
 続いて、上述した情報処理システムを構成する装置のハードウェア構成を説明する。なお、複数の図面において同一名称であって符号のみが異なる機器については、同等の機能を備える機器であるため、後続の図面においては詳細な説明を省略するものとする。
 図3は、管理サーバ1のハードウェア構成の一例を示すブロック図である。管理サーバ1は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、ストレージ104、通信I/F(Interface)105、表示装置106及び入力装置107を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 CPU101は、ROM103又はストレージ104に記憶されたプログラムに従って所定の動作を行うとともに、管理サーバ1の各部を制御する機能を有するプロセッサである。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。
 ROM103は、不揮発性記憶媒体から構成され、管理サーバ1の動作に用いられるプログラム等の必要な情報を記憶する。ストレージ104は、不揮発性記憶媒体から構成され、管理サーバ1の動作用プログラムやデータを記憶する。ストレージ104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)により構成される。
 通信I/F105は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。
 表示装置106は、動画、静止画、文字等を表示する液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、ユーザへの情報の提示に用いられる。
 入力装置107は、キーボード、ポインティングデバイス、ボタン等であって、ユーザによる操作を受け付ける。表示装置106及び入力装置107は、タッチパネルとして一体に形成されていてもよい。
 CPU101は、ROM103、ストレージ104等に記憶されたプログラムをRAM102にロードして実行することで、所定の演算処理を行う。また、CPU101は、当該プログラムに基づいて、通信I/F105等の管理サーバ1の各部を制御する。
 図4は、チェックイン端末20のハードウェア構成の一例を示すブロック図である。チェックイン端末20は、CPU201、RAM202、ROM203、ストレージ204、通信I/F205、表示装置206、入力装置207、生体情報取得装置208、媒体読取装置209及びプリンタ210を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 生体情報取得装置208は、利用者の生体情報として利用者の顔画像を取得する装置である。生体情報取得装置208は、例えばCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等を受光素子として有するデジタルカメラである。生体情報取得装置208は、例えば、装置の前に立つ利用者の顔を撮影してその顔画像を取得する。
 媒体読取装置209は、旅券や航空券媒体等の記録媒体に記録されている情報を読み取る装置である。媒体読取装置209としては、例えば、コードリーダ、イメージスキャナ、非接触IC(Integrated Circuit)リーダ、OCR(Optical Character Reader)装置等が挙げられる。また、航空券媒体としては、例えば、紙の航空券、eチケットの控えを表示する携帯端末等が挙げられる。プリンタ210は、チェックイン手続の完了時に、搭乗予約情報及び搭乗までの手続に関する案内情報を印刷した搭乗券を出力する。
 図5は、自動手荷物預け機30のハードウェア構成の一例を示すブロック図である。自動手荷物預け機30は、CPU301、RAM302、ROM303、ストレージ304、通信I/F305、表示装置306、入力装置307、生体情報取得装置308、媒体読取装置309、出力装置310、重量計311及び搬送装置312を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 出力装置310は、受託手荷物に付ける手荷物タグを出力する装置である。本実施形態における手荷物タグは、受託手荷物ID、利用者ID、便名等を含むタグ情報を記憶するICチップを備えたRFIDタグである。また、出力装置310は、目的地に到着した後に受託手荷物の引き換えに必要な手荷物引き換え証を更に出力する。手荷物タグや手荷物引き換え証は、予約番号及び利用者IDの少なくとも1つに関連付けられる。
 重量計311は、受託手荷物の重量を測定し、測定値をCPU301へ出力する。CPU301は、受託手荷物の重量が所定の閾値を超える場合には、利用者に対応を促すエラー情報を出力する。
 搬送装置312は、上述した手荷物搬送装置60に接続されており、利用者により受け取り部に置かれて手荷物タグが付けられた受託手荷物を、手荷物搬送装置60に向けて搬送する。
 図6は、保安検査装置40のハードウェア構成の一例を示すブロック図である。保安検査装置40は、CPU401、RAM402、ROM403、ストレージ404、通信I/F405、表示装置406、入力装置407、生体情報取得装置408、媒体読取装置409及び金属探知ゲート410を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 金属探知ゲート410は、ゲート型の金属探知機であり、金属探知ゲート410を通過する利用者の身に付けている金属類を探知する。
 図7は、搭乗ゲート装置50のハードウェア構成の一例を示すブロック図である。搭乗ゲート装置50は、CPU501、RAM502、ROM503、ストレージ504、通信I/F505、表示装置506、入力装置507、生体情報取得装置508、媒体読取装置509及びゲート扉510を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 ゲート扉510は、搭乗ゲート装置50における利用者の本人確認に成功した場合に、CPU501による制御に従って、待機時において利用者の通行を遮る閉鎖状態から、利用者の通行を許可する開放状態へ移行する。ゲート扉510の方式は、特に限定されるものではなく、例えば、通路の片側又は両側から設けられたフラッパーが開閉するフラッパーゲート、3本バーが回転するターンスタイルゲート等である。
 図8は、手荷物受取所システム70のハードウェア構成の一例を示すブロック図である。手荷物受取所システム70は、タグリーダ71、カメラ72、ターンテーブル73、指向性スピーカ74及びゲート装置75を備える。
 タグリーダ71は、バックヤードに設置された手荷物搬送装置60とターンテーブル73とを接続する搬送経路上に設置され、手荷物受取所へ搬送されてきた受託手荷物に付された手荷物タグ(RFIDタグ)からタグ情報を読み取る装置である。タグ情報には、少なくとも受託手荷物IDが含まれる。
 カメラ72は、例えば手荷物受取所の入口及びターンテーブル73の周辺に設置された撮像装置である。カメラ72は、例えばCMOSイメージセンサ、CCDイメージセンサ等を受光素子として有するデジタルカメラである。カメラ72は、例えば、手荷物受取所に入場した利用者、あるいは、ターンテーブル73の前に立つ利用者の顔を撮影してその顔画像を管理サーバ1へ逐次送信する。また、カメラ72は、受託手荷物の追跡処理のために、ターンテーブル73及びターンテーブル73の上の受託手荷物を撮影した画像を管理サーバ1へ逐次送信する。
 ターンテーブル73は、利用者が受託手荷物を受け取る台であり、全体として例えば楕円状や曲線状に形成されている。ターンテーブル73は、ベルトコンベアを備えている。バックヤードから搬送された受託手荷物がターンテーブル73へ投下されると、受託手荷物はベルトコンベアにより所定の速度で移動していく。
 指向性スピーカ74は、特定の範囲に音声を選択的に出力できる音声出力装置である。指向性スピーカ74の方式は様々であり、例えば超音波を利用するタイプや平面波を利用するタイプがある。また、音質、音域、音の指向角度は、スピーカによって異なる。
 ゲート装置75は、手荷物受取所の出口に設置された通行制御装置である。ゲート装置75は、利用者の顔認証を行うことで、受託手荷物の特定も行う。ゲート装置75は、利用者が受託手荷物を取り違えていた場合には、利用者の手荷物受取所からの退出を制限する。
 図9は、ゲート装置75のハードウェア構成の一例を示すブロック図である。ゲート装置75は、搭乗ゲート装置50と同様に、CPU751、RAM752、ROM753、ストレージ754、通信I/F755、表示装置756、入力装置757、生体情報取得装置758、媒体読取装置759及びゲート扉760を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 図10は、業務端末80のハードウェア構成の一例を示すブロック図である。業務端末80は、CPU801、RAM802、ROM803、ストレージ804、通信I/F805、表示装置806及び入力装置807を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
 なお、図3乃至図10に示されているハードウェア構成は一例であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されてもよい。このように、図3乃至図10に示されているハードウェア構成は適宜変更可能である。
 続いて、図面を参照しながら、本実施形態に係る情報処理システムにおける装置の動作を説明する。
[チェックイン手続]
 図11は、本実施形態に係る情報処理システムのチェックイン手続時の処理の一例を示すシーケンスチャートである。この処理は、利用者がチェックイン端末20を用いてチェックイン手続を行うときに実行される。
 先ず、チェックイン端末20は、生体情報取得装置208により利用者の顔を撮影し、顔画像を対象顔画像として取得する(ステップS101)。なお、顔画像を撮影する前に、利用者の同意を得るための画面を表示すると好適である。
 次に、チェックイン端末20は、航空券媒体が媒体読取装置209の読取部にかざされると、かざされた航空券媒体から利用者の搭乗予約情報を取得する(ステップS102)。搭乗予約情報には、利用者の氏名、性別、住所、連絡先、エアラインコード、便名、搭乗日、出発地(出発空港)、経由地、目的地(到着空港)、シート番号、座席等級、搭乗時間、到着時間等の情報が含まれる。
 次に、チェックイン端末20は、利用者からの入力情報に基づいて旅程の確認や座席の選択等のチェックイン手続を実行すると(ステップS103)、管理サーバ1に対して利用者情報の登録要求を行う。
 次に、管理サーバ1は、チェックイン端末20からの利用者情報の登録要求に基づいて、利用者IDを発行する(ステップS104)。利用者IDは、例えば処理時の日時やシーケンス番号等に基づいて固有な値に設定される。
 次に、管理サーバ1は、利用者ID、顔画像、搭乗予約情報及び搭乗券番号を関連付けた利用者情報を利用者情報DB11に登録する(ステップS105)。本実施形態において、現地で撮影した顔画像を登録顔画像とする理由としては、登録顔画像は短期間で削除されること、撮影画像はその後の認証プロセスで撮影した画像と品質(容姿)が旅券顔画像や会員登録時の顔画像などの過去に撮影された画像よりも近くなること、等が挙げられる。ただし、対象顔画像(撮影顔画像)の代わりに、旅券顔画像を登録顔画像(登録生体情報)に設定してもよい。
 次に、チェックイン端末20は、利用者からの入力情報に基づいて、全員のチェックインが完了したか否かを判定する(ステップS106)。全員とは、同一のグループIDが設定されている全ての利用者を意味する。ここで、チェックイン端末20が、全員のチェックインが完了したと判定した場合には(ステップS106:YES)、処理はステップS107へ移行する。これに対し、チェックイン端末20が、全員のチェックインが完了していないと判定すると(ステップS106:NO)、処理はステップS101へ戻る。
 そして、チェックイン端末20は、管理サーバ1から処理結果を受信すると、搭乗予約情報及び搭乗までの手続に関する案内情報を記載した搭乗券を印刷し(ステップS107)、処理を終了する。
[手荷物預け入れ手続]
 図12は、本実施形態に係る情報処理システムの手荷物預け入れ手続時の処理の一例を示すシーケンスチャートである。この処理は、チェックイン手続を完了した利用者が、必要に応じて手荷物預け入れ手続を行うときに実行される。
 先ず、自動手荷物預け機30は、生体情報取得装置308によって利用者の顔を検出すると、その利用者の顔を撮影して、利用者の顔画像を取得する(ステップS201)。
 次に、自動手荷物預け機30は、利用者の顔画像を対象顔画像として管理サーバ1に送信し、管理サーバ1における顔認証を要求する(ステップS202)。管理サーバ1は、自動手荷物預け機30から対象顔画像を受信すると、利用者の対象顔画像と、登録顔画像とを1対Nで顔照合し、その照合結果を自動手荷物預け機30へ送信する。なお、照合結果が照合一致である場合には、管理サーバ1は、登録顔画像に関連付けられている利用者情報を照合結果と併せて自動手荷物預け機30へ送信する。
 本実施形態において、“照合一致”の語句は、利用者の生体情報と登録者の登録生体情報との類似度を示す照合スコアが所定の閾値以上であることを意味する。逆に、“照合不一致”の語句は、照合スコアが所定の閾値未満であることを意味する。
 次に、自動手荷物預け機30は、管理サーバ1から受信した照合結果及び利用者情報に基づいて、利用者がチェックイン手続を完了した人物であるか否かを判定する(ステップS203)。ここで、自動手荷物預け機30は、利用者がチェックイン手続を完了した人物ではないと判定した場合(ステップS203:NO)には、エラーメッセージを通知し(ステップS214)、処理を終了する。
 これに対し、自動手荷物預け機30は、利用者がチェックイン手続を完了した人物であると判定した場合(ステップS203:YES)、処理はステップS204へ移行する。
 ステップS204において、自動手荷物預け機30は、利用者からの入力情報に基づいて代表者による手荷物の預け入れであるか否かを判定する。ここで、自動手荷物預け機30は、代表者による手荷物の預け入れであると判定した場合には(ステップS204:YES)、処理はステップS205へ移行する。
 これに対し、自動手荷物預け機30は、代表者による手荷物の預け入れではないと判定した場合には(ステップS204:NO)、処理はステップS206へ移行する。
 ステップS205において、自動手荷物預け機30は、複数人分の手荷物に関して代表者が設定されていることを示す代表者情報を管理サーバ1へ送信すると、管理サーバ1は代表者情報を利用者情報DB11に登録する。
 ステップS206において、自動手荷物預け機30は、管理サーバ1から利用者情報を取得する。例えば、利用者情報には、利用者を特定する利用者ID、目的地、航空機の便名等が含まれている。
 次に、自動手荷物預け機30は、受託手荷物の重量を測定する(ステップS207)。自動手荷物預け機30は、受託手荷物の重量を管理サーバ1へ送信する。なお、測定された重量が規定値を超える場合には、利用者に対してエラーメッセージが通知される。
 次に、自動手荷物預け機30は、受託手荷物を撮影し、手荷物外観画像を取得する(ステップS208)。自動手荷物預け機30は、手荷物外観画像を管理サーバ1へ送信する。
 次に、自動手荷物預け機30が、管理サーバ1に対して受託手荷物IDの発行要求を行うと、管理サーバ1は、固有の受託手荷物IDを発行し(ステップS209)、受託手荷物IDを自動手荷物預け機30へ送信する。
 次に、管理サーバ1は、利用者情報DB11の利用者情報に手荷物情報を関連付ける更新処理を実行する(ステップS210)。手荷物情報には、受託手荷物ID、手荷物外観画像、重量、手荷物タグ番号等が含まれる。
 次に、自動手荷物預け機30は、手荷物タグを発券する(ステップS211)。手荷物タグには、管理サーバ1から受信した受託手荷物ID及び利用者情報が記録される。利用者は、自動手荷物預け機30の表示装置306に表示される案内情報に従って受託手荷物に手荷物タグを取り付ける。
 次に、自動手荷物預け機30は、受託手荷物に対して手荷物タグが取り付けられた後、収納部に置かれた受託手荷物の搬送を開始する(ステップS212)。受託手荷物は、手荷物搬送装置により所定の場所へ搬送される。
 次に、自動手荷物預け機30は、利用者からの入力情報に基づいて、全ての手荷物の預け入れが完了したか否かを判定する(ステップS213)。ここで、自動手荷物預け機30が全ての手荷物の預け入れが完了したと判定した場合(ステップS213:YES)には、処理は終了する。
 これに対し、自動手荷物預け機30が全ての手荷物の預け入れが完了していないと判定した場合(ステップS213:NO)には、処理はステップS207へ戻る。
[搭乗ゲートにおける本人確認]
 図13は、情報処理システムの搭乗ゲートにおける処理の一例を示すフローチャートである。
 先ず、搭乗ゲート装置50は、生体情報取得装置508によって利用者の顔を検出すると、その利用者の顔を撮影して、利用者の顔画像を取得する(ステップS301)。
 次に、搭乗ゲート装置50は、利用者の顔画像を対象顔画像として管理サーバ1に送信し、管理サーバ1における顔認証を要求する(ステップS302)。管理サーバ1は、搭乗ゲート装置50から対象顔画像を受信すると、利用者の対象顔画像と、登録顔画像とを1対Nで顔照合し、その照合結果を搭乗ゲート装置50へ送信する。
 次に、搭乗ゲート装置50は、管理サーバ1から受信した照合結果に基づいて、利用者が顔認証に成功したか否かを判定する(ステップS303)。ここで、搭乗ゲート装置50は、利用者が顔認証に成功したと判定した場合(ステップS303:YES)には、処理はステップS304へ移行する。
 これに対し、搭乗ゲート装置50は、利用者が顔認証に失敗したと判定した場合(ステップS303:NO)には、エラーメッセージを通知し(ステップS306)、処理を終了する。
 ステップS304において、搭乗ゲート装置50は、ゲート扉510を開扉する。これにより、利用者は、搭乗ゲートを通過して航空機に搭乗できる。
 そして、搭乗ゲート装置50が、管理サーバ1に対して利用者のゲート通過を通知すると、管理サーバ1は利用者情報DB11におけるステータスを搭乗完了に更新し(ステップS305)、処理は終了する。
[類似手荷物の検出処理]
 図14は、情報処理システムにおいて利用者が搭乗ゲートを通過した後に実行される処理の一例を示すフローチャートである。この処理は、航空機に搭乗する利用者(搭乗者)が最終的に確定したタイミングで実行される。
 先ず、管理サーバ1は、同一便に搭乗する利用者の受託手荷物の手荷物外観画像を取得する(ステップS401)。
 次に、管理サーバ1は、ある受託手荷物の手荷物画像と、その他の受託手荷物の手荷物外観画像とを順番に画像照合する(ステップS402)。
 次に、管理サーバ1は、同一便の利用者の受託手荷物の中に、類似手荷物が存在するか否かを判定する(ステップS403)。ここで、管理サーバ1は、類似手荷物が存在すると判定した場合(ステップS403:YES)には、処理はステップS404へ移行する。
 これに対し、管理サーバ1は、類似手荷物が存在しないと判定した場合には(ステップS403:NO)には、処理は終了する。
 ステップS404において、管理サーバ1は、類似手荷物が存在する受託手荷物に係る利用者の利用者情報に対して類似手荷物の情報を登録し、処理を終了する。
 図15は、本実施形態に係る手荷物受取所の一例を示すレイアウト図である。手荷物受取所の入口付近には、手荷物受取所に入場する利用者Uの顔画像を撮影するためのカメラ72と、利用者Uに対して音声で案内情報を通知する指向性スピーカ74が設けられている。なお、入口付近に設けられるカメラ72及び指向性スピーカ74の数は、これに限られない。また、カメラ72及び指向性スピーカ74は、ゲート75に設けられていてもよい。
 また、手荷物受取所には、4台のターンテーブル73が設けられている。4台のターンテーブル73の中央エリアには、複数台のカメラ72及び指向性スピーカ74がそれぞれ設けられている。カメラ72は、ターンテーブル73の周辺にいる利用者Uの顔画像を撮影する。指向性スピーカ74は、ターンテーブル73の上の受託手荷物に接近する利用者U又は受託手荷物を拾い上げた利用者Uに対して音声で案内情報を通知する。
 そして、手荷物受取所の出口には、ゲート装置75が設けられている。ゲート装置75は、手荷物受取所からの退出を希望する利用者Uの顔認証を行うとともに、利用者Uが携行する手荷物が利用者Uの物であるか否かを判定する。
[利用者に対する受託手荷物の案内処理]
 図16A及び図16Bは、情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。この処理は、利用者が手荷物受取所に搬送された受託手荷物を受け取る場合に実行される。
 先ず、管理サーバ1は、手荷物搬送装置60を制御し、バックヤードから所定のターンテーブル73へ手荷物を搬送する(ステップS501)。
 次に、管理サーバ1は、タグリーダ71を制御し、ターンテーブル73に搬送される受託手荷物に付された手荷物タグ(RFIDタグ)からタグ情報を読み取ると(ステップS502)、タグ情報を管理サーバ1へ送信する。
 次に、管理サーバ1は、タグ情報に含まれる受託手荷物IDをキーとして、受託手荷物の持主の利用者ID及び手荷物外観画像を特定する(ステップS503)。
 次に、管理サーバ1は、利用者IDに関連付けられている登録顔画像と、手荷物受取所内に存在する人物の顔画像との顔照合を行うことにより、受託手荷物の持主の検出処理を開始する(ステップS504)。
 次に、管理サーバ1は、受託手荷物の持主を検出すると、持主の初回検出であるか否かを判定する(ステップS505)。ここで、管理サーバ1は、持主の初回検出であると判定した場合(ステップS505:YES)には、処理はステップS506へ移行する。
 これに対し、管理サーバ1は、持主の初回検出ではないと判定した場合(ステップS505:NO)には、処理はステップS510へ移行する。
 ステップS506において、管理サーバ1は、指向性スピーカ74を制御し、持主に手荷物がターンテーブル73上にあることを音声で通知する。その後、処理はステップS507へ移行する。
 図17は、手荷物受取所に入場する利用者Uへの音声による通知の一例を示す図である。ここでは、利用者Uが手荷物受取所に向けて移動しているときに、手荷物の受取場所に関する案内情報(「あなたの手荷物は、3番のターンテーブルの上にあります。」)が指向性スピーカ74から音声により通知されることが示されている。
 ステップS507において、管理サーバ1は、利用者情報に含まれる類似手荷物の情報に基づいて、利用者の受託手荷物と類似する手荷物の有無を判定する。ここで、管理サーバ1は、類似手荷物が有ると判定した場合(ステップS507:YES)には、管理サーバ1は、指向性スピーカ74を制御し、持主に対して音声で注意喚起を行う(ステップS508)。
 例えば、指向性スピーカ74は、「ターンテーブルの上に、お客様の手荷物と類似している手荷物がありますので、ご注意ください。」等の注意喚起の音声を出力すると好適である。
 これに対し、管理サーバ1は、類似手荷物は無いと判定した場合(ステップS507:NO)には、処理はステップS510へ移行する。
 また、管理サーバ1は、ステップS504~ステップS508の処理と並行して、手荷物の追跡処理を行う(ステップS509)。管理サーバ1は、カメラ72がターンテーブル73を撮影した画像の中から、手荷物外観画像に基づいて受託手荷物を検出し、ターンテーブル73の上を移動する受託手荷物を追跡する。
 ステップS510において、管理サーバ1は、カメラ72から受信した画像を解析することにより、手荷物に近づく人物(以下、「接近人物」という。)がいるか否かを判定する。ここで、管理サーバ1は、接近人物がいると判定した場合(ステップS510:YES)には、処理はステップS511へ移行する。
 これに対し、管理サーバ1は、接近人物がいないと判定した場合(ステップS510:NO)には、処理はステップS504(持主検出処理)及びステップS509(手荷物追跡処理)へ戻る。
 ステップS511において、管理サーバ1は、接近人物が手荷物の持主であるか否かを判定する。ここで、管理サーバ1は、接近人物が手荷物の持主であると判定した場合(ステップS511:YES)には、処理はステップS512へ移行する。
 これに対し、管理サーバ1は、接近人物が手荷物の持主ではないと判定した場合(ステップS511:YES)には、処理はステップS513へ移行する。
 ステップS512において、管理サーバ1は、指向性スピーカ74により、接近人物に対して、自分の手荷物であることを音声で通知する。その後、処理はステップS514へ移行する。
 一方、ステップS513において、管理サーバ1は、指向性スピーカ74により、接近人物に対して、自分の手荷物ではないことを音声で通知する。その後、処理はステップS514へ移行する。
 ステップS514において、管理サーバ1は、カメラ72から受信した画像を解析することにより、ターンテーブル73から手荷物が拾い上げられたか否かを判定する。ここで、管理サーバ1は、ターンテーブル73から手荷物が拾い上げられたと判定した場合(ステップS514:YES)には、処理はステップS515へ移行する。
 これに対し、管理サーバ1は、ターンテーブル73から手荷物が拾い上げられていないと判定した場合(ステップS514:NO)には、処理は再びステップS504(持主検出処理)及びステップS509(手荷物追跡処理)へ戻る。
 ステップS515において、管理サーバ1は、手荷物を拾い上げた人物が持主であるか否かを判定する。ここで、管理サーバ1は、手荷物を拾い上げた人物が持主であると判定した場合(ステップS515:YES)には、処理は終了する。
 これに対し、管理サーバ1は、手荷物を拾い上げた人物が持主ではないと判定した場合(ステップS515:NO)には、処理はステップS516へ移行する。
 ステップS516において、管理サーバ1は、指向性スピーカ74を制御し、手荷物を拾い上げた人物に対して、自分の手荷物ではないことを音声で通知する。その後、処理はステップS517へ移行する。
 ステップS517において、管理サーバ1は、手荷物を拾い上げた、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動したか否かを判定する。ここで、管理サーバ1は、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動したと判定した場合(ステップS517:YES)には、処理はステップS518へ移行する。
 これに対し、管理サーバ1は、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動していないと判定した場合(ステップS517:NO)には、処理は再びステップS504(持主検出処理)及びステップS509(手荷物追跡処理)へ戻る。
 ステップS518において、管理サーバ1は、手荷物を持つ人物の利用者情報に他人の手荷物を所持していることを登録し、処理を終了する。本実施形態では、手荷物を取り違えた利用者に対しては、手荷物受取所の出口のゲート装置75において対処する。
 図18は、手荷物受取所のターンテーブル73の周辺に存在する利用者への音声による通知の一例を示す図である。ここでは、ターンテーブル73の周囲に複数の利用者U1~U8が存在している。また、ターンテーブル73は、ベルトコンベアにより手荷物B1~B5を搬送している。そして、ターンテーブル73の上方には、複数の指向性スピーカ74が設けられている。
 例えば、利用者U1は、手荷物B1に接近している。この場合、指向性スピーカ74から案内情報が利用者U1にのみ聞こえるように出力される。案内情報の内容は、利用者U1が手荷物B1の持主であるか否かによって異なる。すなわち、利用者U1が手荷物B1の持主である場合には、「あなたの手荷物です。」等の案内情報が指向性スピーカ74から出力される。逆に、利用者U1が手荷物B1の持主ではない場合には、「あなたの手荷物ではありません。」等の案内情報が指向性スピーカ74から出力される。これは、手荷物B2に接近している利用者U2の場合も同様である。
 また、利用者U6は、ターンテーブル73から手荷物B4を拾い上げている。利用者U6が手荷物B4の持主ではない場合には、指向性スピーカ74から案内情報(「あなたの手荷物ではありません。」)が利用者U6にのみ聞こえるように出力される。逆に、利用者U6が手荷物B4の持主である場合には、指向性スピーカ74から利用者U6に対して案内情報は出力されなくてもよい。
 図19は、情報処理システムにおいて利用者が手荷物受取所から退出する際に実行される処理の一例を示すフローチャートである。
 先ず、ゲート装置75は、生体情報取得装置758によって利用者の顔を検出すると、その利用者の顔を撮影して、利用者の顔画像を取得する(ステップS601)。
 次に、ゲート装置75は、利用者の顔画像を対象顔画像として管理サーバ1に送信し、管理サーバ1における顔認証を要求する(ステップS602)。管理サーバ1は、搭乗ゲート装置50から対象顔画像を受信すると、利用者の対象顔画像と、登録顔画像とを1対Nで顔照合し、その照合結果をゲート装置75へ送信する。
 次に、ゲート装置75は、管理サーバ1から受信した照合結果に基づいて、利用者が顔認証に成功したか否かを判定する(ステップS603)。ここで、ゲート装置75は、利用者が顔認証に成功したと判定した場合(ステップS603:YES)には、処理はステップS604へ移行する。
 これに対し、ゲート装置75は、利用者が顔認証に失敗したと判定した場合(ステップS603:NO)には、エラーメッセージを通知し(ステップS610)、処理を終了する。
 次に、ゲート装置75は、媒体読取装置759により、利用者が携行する手荷物に付された手荷物タグからタグ情報を取得すると(ステップS604)、タグ情報を管理サーバ1に送信する。
 次に、管理サーバ1は、ゲート装置75から受信したタグ情報に含まれる受託手荷物IDと、利用者の登録顔画像に関連付けられた受託手荷物IDとが一致するか否かを判定する(ステップS605)。ここで、管理サーバ1は、受託手荷物IDが一致すると判定した場合(ステップS605:YES)には、処理はステップS606へ移行する。
 これに対し、受託手荷物IDが一致しないと判定した場合(ステップS605:NO)には、処理はステップS608へ移行する。
 ステップS606において、管理サーバ1は、ゲート装置75に制御情報を出力し、ゲート扉760を開扉する。
 次に、管理サーバ1は、利用者情報DB11の利用者情報に受託手荷物の受取完了及び利用者の手荷物受取所からの退出の情報を登録し(ステップS607)、処理を終了する。
 ステップS608において、管理サーバ1は、ゲート装置75に制御情報を出力し、利用者に対して手荷物の取り違えを案内する案内情報を表示装置756に表示する。そして、管理サーバ1は、係員が所持する業務端末80に手荷物の取り違えを通知し(ステップS609)、処理を終了する。
 図20は、手荷物受取所のゲート装置75に表示される通知の一例を示す図である。ここでは、ゲート装置75の表示装置756に、手荷物の取り違えに関するメッセージMSG(「お客様は、手荷物を取り違えている可能性があります。係員がすぐに参りますので、お待ちください。」)と、利用者が出発空港において預けた受託手荷物の手荷物外観画像IMG-01と、ゲート装置75により撮影された携行手荷物の手荷物外観画像IMG-02が表示されている。
 本実施形態によれば、利用者が手荷物受取所においてターンテーブル73から他人の手荷物を誤って拾い上げた場合には、そのタイミングで手荷物の取り違えを案内する案内情報を該当する利用者にのみ選択的に通知できる。
 また、利用者がターンテーブル73上の手荷物に接近した場合には、利用者が手荷物の持主であるか否かによって、対応する案内情報を利用者に通知できる。このため、利用者が出発空港において自身が預けた手荷物であることを容易に確認することができる。
 また、利用者がターンテーブル73から他人の手荷物を持ったまま手荷物受取所から退出しようとした場合には、出口に設けられたゲート装置75において手荷物の取り違えを確実に検出できる。
 更に、従来は他の利用者が取り違えた手荷物を本来の持主に返却する際には、多大なコストと手間がかかる問題があったが、本実施形態によれば、このような不要なコストを抑制できる効果も奏する。
<第2実施形態>
 以下、本実施形態における情報処理システムについて説明する。なお、第1実施形態の図中において付与した符号と共通する符号は同一の対象を示す。第1実施形態と共通する箇所の説明は省略し、異なる箇所について詳細に説明する。
 図21は、本実施形態に係る手荷物受取所システム70のハードウェア構成の一例を示すブロック図である。図21に示すように、本実施形態の手荷物受取所システム70は、指向性スピーカ74の代わりに、プロジェクタ76を備える点で第1実施形態とは異なっている。プロジェクタ76は、管理サーバ1からの制御情報に基づいて、利用者に対する案内情報をプロジェクトマッピングにより対象物に投影する投影装置である。
 図22は、本実施形態に係る手荷物受取所の一例を示すレイアウト図である。手荷物受取所の入口付近には、手荷物受取所に入場する利用者Uの顔画像を撮影するためのカメラ72と、利用者Uに対してプロジェクトマッピングで案内情報を通知するプロジェクタ76が設けられている。なお、入口付近に設けられるカメラ72及びプロジェクタ76の数は、これに限られない。
 また、手荷物受取所には、4台のターンテーブル73が設けられている。4台のターンテーブル73の中央エリアには、複数台のカメラ72及びプロジェクタ76がそれぞれ設けられている。カメラ72は、ターンテーブル73の周辺にいる利用者Uの顔画像を撮影する。プロジェクタ76は、ターンテーブル73の上の受託手荷物に接近する利用者U又は受託手荷物を拾い上げた利用者Uに対してプロジェクトマッピングにより案内情報を通知する。
 そして、手荷物受取所の出口には、ゲート装置75が設けられている。ゲート装置75は、手荷物受取所からの退出を希望する利用者Uの顔認証を行うとともに、利用者Uが携行する手荷物が利用者Uのものであるか否かを判定する。
[利用者に対する受託手荷物の案内処理]
 図23A及び図23Bは、本実施形態に係る情報処理システムの手荷物受取所における処理の一例を示すフローチャートである。
 先ず、管理サーバ1は、手荷物搬送装置60を制御し、バックヤードから所定のターンテーブル73へ手荷物を搬送する(ステップS701)。
 次に、管理サーバ1は、タグリーダ71を制御し、ターンテーブル73に搬送される受託手荷物に付された手荷物タグ(RFIDタグ)からタグ情報を読み取ると(ステップS702)、タグ情報を管理サーバ1へ送信する。
 次に、管理サーバ1は、タグ情報に含まれる受託手荷物IDをキーとして、受託手荷物の持主の利用者ID及び手荷物外観画像を特定する(ステップS703)。
 次に、管理サーバ1は、利用者IDに関連付けられている登録顔画像と、手荷物受取所内に存在する人物の顔画像との顔照合を行うことにより、受託手荷物の持主の検出処理を開始する(ステップS704)。
 次に、管理サーバ1は、受託手荷物の持主を検出すると、持主の初回検出であるか否かを判定する(ステップS705)。ここで、管理サーバ1は、持主の初回検出であると判定した場合(ステップS705:YES)には、処理はステップS706へ移行する。
 これに対し、管理サーバ1は、持主の初回検出ではないと判定した場合(ステップS705:NO)には、処理はステップS710へ移行する。
 ステップS706において、管理サーバ1は、プロジェクタ76を制御し、持主に手荷物がターンテーブル73上にあることを示す案内情報をプロジェクトマッピングで床面に表示(投影)する。その後、処理はステップS707へ移行する。
 図24は、手荷物受取所の入口付近において床面に投影されるプロジェクトマッピング画像の一例を示す図である。ここでは、利用者Uが手荷物受取所に向けて移動しているときに、プロジェクタ76から手荷物の受取場所に関する案内情報MSG-01(「あなたの手荷物は、3番のターンテーブルの上にあります。」)がプロジェクトマッピング画像IMG-03として床面に投影される例が示されている。
 ステップS707において、管理サーバ1は、利用者情報に含まれる類似手荷物の情報に基づいて、利用者の受託手荷物と類似する手荷物の有無を判定する。ここで、管理サーバ1は、類似手荷物が有ると判定した場合(ステップS707:YES)には、管理サーバ1は、プロジェクタ76を制御し、持主に対してプロジェクトマッピング画像を床面に表示する(ステップS708)。
 例えば、プロジェクタ76は、「ターンテーブル上に、お客様の手荷物と類似している手荷物がありますので、ご注意ください。」等の注意喚起のプロジェクトマッピング画像を投影すると好適である。
 これに対し、管理サーバ1は、類似手荷物は無いと判定した場合(ステップS707:NO)には、処理はステップS710へ移行する。
 また、管理サーバ1は、ステップS704~ステップS708の処理と並行して、手荷物の追跡処理を行う(ステップS709)。管理サーバ1は、カメラ72がターンテーブル73を撮影した画像の中から、手荷物外観画像に基づいて受託手荷物を検出し、ターンテーブル73の上を移動する受託手荷物を追跡する。
 ステップS710において、管理サーバ1は、カメラ72から受信した画像を解析することにより、手荷物に近づく人物(以下、「接近人物」という。)がいるか否かを判定する。ここで、管理サーバ1は、手荷物に近づく人物がいると判定した場合(ステップS710:YES)には、処理はステップS711へ移行する。
 これに対し、管理サーバ1は、接近人物がいないと判定した場合(ステップS710:NO)には、処理はステップS704(持主検出処理)及びステップS709(手荷物追跡処理)へ戻る。
 ステップS711において、管理サーバ1は、接近人物が手荷物の持主であるか否かを判定する。ここで、管理サーバ1は、接近人物が手荷物の持主であると判定した場合(ステップS711:YES)には、処理はステップS712へ移行する。
 これに対し、管理サーバ1は、接近人物が手荷物の持主ではないと判定した場合(ステップS711:NO)には、処理はステップS713へ移行する。
 ステップS712において、管理サーバ1は、プロジェクタ76により、接近人物に対して、自分の手荷物であることを示す案内情報をプロジェクトマッピングで手荷物の表面に表示する。その後、処理はステップS714へ移行する。
 一方、ステップS713において、管理サーバ1は、プロジェクタ76により、接近人物に対して、自分の手荷物ではないことを示す案内情報をプロジェクトマッピングで手荷物の表面に表示する。その後、処理はステップS714へ移行する。
 ステップS714において、管理サーバ1は、カメラ72から受信した画像を解析することにより、ターンテーブル73から手荷物が拾い上げられたか否かを判定する。ここで、管理サーバ1は、ターンテーブル73から手荷物が拾い上げられたと判定した場合(ステップS714:YES)には、処理はステップS715へ移行する。
 これに対し、管理サーバ1は、ターンテーブル73から手荷物が拾い上げられていないと判定した場合(ステップS714:NO)には、処理は再びステップS704(持主検出処理)及びステップS709(手荷物追跡処理)へ戻る。
 ステップS715において、手荷物を拾い上げた人物が持主であるか否かを判定する。ここで、管理サーバ1は、手荷物を拾い上げた人物が持主であると判定した場合(ステップS715:YES)には、処理は終了する。
 これに対し、管理サーバ1は、手荷物を拾い上げた人物が持主ではないと判定した場合(ステップS715:NO)には、処理はステップS716へ移行する。
 ステップS716において、管理サーバ1は、プロジェクタ76を制御し、手荷物を拾い上げた人物に対して、自分の手荷物ではないことを示す案内情報をプロジェクトマッピングで床面に表示する。なお、プロジェクトマッピング画像の投影先は、ターンテーブル73や手荷物でもよい。その後、処理はステップS717へ移行する。
 ステップS717において、管理サーバ1は、手荷物を拾い上げた、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動したか否かを判定する。ここで、管理サーバ1は、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動したと判定した場合(ステップS717:YES)には、処理はステップS718へ移行する。
 これに対し、管理サーバ1は、持主ではない人物が他人の手荷物を持ったまま出口の方向へ移動してはいないと判定した場合(ステップS717:NO)には、処理は再びステップS704(持主検出処理)及びステップS709(手荷物追跡処理)へ戻る。
 ステップS718において、管理サーバ1は、手荷物を持つ人物の利用者情報に他人の手荷物を所持していることを登録し、処理を終了する。本実施形態では、手荷物を取り違えた利用者に対しては、手荷物受取所の出口のゲート装置75において対処する。
 図25は、手荷物受取所内でのプロジェクトマッピング画像による通知の一例を示す図である。ここでは、ターンテーブル73の周囲に複数の利用者U11~U18が存在している。また、ターンテーブル73は、ベルトコンベアにより手荷物B11~B15を搬送している。そして、ターンテーブル73の上方には、複数のプロジェクタ76が設けられている。
 例えば、利用者U12は、手荷物B11に接近している。この場合、プロジェクタ76から案内情報が利用者U12の前の手荷物B11にプロジェクトマッピング画像として出力される。案内情報の内容は、利用者U1が手荷物B1の持主であるか否かによって異なる。すなわち、利用者U11が手荷物B1の持主である場合には、「あなたの手荷物です。」等の案内情報がプロジェクタ76から出力される。逆に、利用者U12が手荷物B11の持主ではない場合には、「あなたの手荷物ではありません。」等の案内情報がプロジェクタ76から出力される。これは、手荷物B12に接近している利用者U13の場合も同様である。
 また、利用者U16は、ターンテーブル73から手荷物B15を拾い上げている。利用者U16が手荷物B15の持主ではない場合には、プロジェクタ76から案内情報(「あなたの手荷物ではありません。」)が手荷物B15に出力される。逆に、利用者U16が手荷物B15の持主である場合には、プロジェクタ76から利用者U16に対して案内情報は出力されなくてもよい。また、プロジェクトマッピング画像の投影先は、手荷物の表面に限られず、床面やターンテーブル73の表面でもよい。
 図26乃至図28は、手荷物受取所において手荷物に投影されるプロジェクトマッピング画像の一例を示す図である。図26では、手荷物Bに接近した利用者が持主である場合に、プロジェクタ76が手荷物Bの表面に案内情報MSG―02(「あなたの手荷物です。」)と利用者の顔画像F1とを含むプロジェクトマッピング画像IMG-04を表示する例を示している。
 図27では、手荷物Bに接近した利用者が持主ではない場合に、プロジェクタ76が手荷物Bの表面に案内情報MSG―03(「あなたの手荷物ではありません。」)と利用者の顔画像F2とを含むプロジェクトマッピング画像IMG-05を表示する例を示している。
 図28では、利用者Uが間違った手荷物を持ったまま出口方向へ移動している場合に、プロジェクタ76が床面に案内情報MSG―04(「あなたが持っている手荷物は、他の方の手荷物です。」)を含むプロジェクトマッピング画像IMG-06を表示する例を示している。
 本実施形態によれば、利用者が案内情報を視覚で認識できる。このため、上述した第1実施形態の効果に加えて、ターンテーブル73の上にある手荷物が自分の手荷物であるのか否かを、プロジェクトマッピング画像に基づいて容易に判断できる効果を奏する。
 <第3実施形態>
 図29は、本実施形態に係る情報処理装置の機能ブロック図である。情報処理装置100は、第1取得部100A、第2取得部100B、生体照合部100C、判定部100D及び案内部100Eを備える。第1取得部100Aは、出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得する。第2取得部100Bは、到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得する。生体照合部100Cは、手荷物受取所に入場した人物から取得された生体情報と第1手荷物情報に関連付けられている利用者の登録生体情報との生体照合を実行する。判定部100Dは、生体照合により人物が利用者と同一人物であると認証された場合に、人物が手荷物受取所で受け取った手荷物に係る第2手荷物情報と利用者に係る第1手荷物情報とに基づいて人物が手荷物の持主であるか否かを判定する。案内部100Eは、人物が手荷物の持主ではない場合に、手荷物受取所において人物に対して手荷物の取り違えを案内する案内情報を出力する。
 本実施形態によれば、到着空港において旅行者による手荷物の取り違えを防止できる情報処理装置100が提供される。
<変形実施形態>
 以上、実施形態を参照して本発明を説明したが、本発明は上述の実施形態に限定されるものではない。本発明の構成及び詳細には本発明の要旨を逸脱しない範囲で、当業者が理解し得る様々な変形が可能である。例えば、いずれかの実施形態の一部の構成を、他の実施形態に追加した実施形態、あるいは他の実施形態の一部の構成と置換した実施形態も本発明を適用し得る実施形態であると理解されるべきである。
 例えば、利用者ごとに案内情報の言語を切り換えられるように構成すると好適である。顔認証により特定された利用者の利用者情報の中に、利用者が予め指定した母国語に関する属性情報を含めておくことにより、利用者の母国語で案内情報を通知できる。これにより、利用者にとっての利便性が向上する。
 また、上述した実施形態では、利用者がターンテーブル73上の手荷物に接近した場合に、案内情報を出力する構成について説明したが、手荷物を取りに行かない人物にも注意を促す案内情報(例えば、「あなたの手荷物は、ターンテーブルの上にあります。」)を出力してもよい。
 また、上述した実施形態では、受託手荷物に付されたRFIDタグからタグ情報を読み取ることによって手荷物の情報を取得する構成について説明したが、RFIDタグの代わりに、コード読取装置によって手荷物の情報を記録した二次元バーコード等のコードを光学的に読み取る構成にしてもよい。
 また、上述した第1実施形態では、他人の手荷物を持っている利用者に対して指向性スピーカ74を用いて手荷物の取り違えを通知していたが、指向性スピーカ74による通知に代えて、係員が所持する業務端末80に対してアラートを通知する構成にしてもよい。
 また、上述した実施形態では、(A)ターンテーブル73上にある自分の手荷物が自分の前を通過する場合と、(B)持主でない人物が手荷物を誤って拾い上げた場合に、該当する人物に対して同様の方法で通知を行う構成を説明した。しかし、(A)の場合の通知方法と、(B)の場合の通知方法は異なっていてもよい。例えば、第1実施形態では、(B)の場合に、指向性スピーカ74の音量を(A)の場合よりも大きく(小さく)できる。具体的には、図18に示す利用者U2と利用者U6とでは、通知時の指向性スピーカ74の音量を変更すると好適である。同様に、第2実施形態では、プロジェクタ76が出力する映像を点滅させる、あるいは通常時と違う色で映像を出力してもよい。具体的には、図25に示す利用者U12と利用者U16とでは、映像の出力方式を変更すると好適である。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード等を用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得する第1取得部と、
 到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得する第2取得部と、
 前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行する生体照合部と、
 前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定する判定部と、
 前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力する案内部と、
 を備える情報処理装置。
(付記2)
 前記第2手荷物情報に含まれる手荷物外観画像に基づいて、前記手荷物受取所において前記手荷物を追跡する手荷物追跡部と、
 前記手荷物受取所における前記人物の位置情報を検出する位置検出部と、
 を更に備え、
 前記案内部は、前記人物が前記手荷物から所定の距離範囲内に存在する場合に、前記案内情報を出力する、
 付記1に記載の情報処理装置。
(付記3)
 前記案内部は、前記位置情報に基づいて前記案内情報の出力場所を変更する、
 付記2に記載の情報処理装置。
(付記4)
 前記案内部は、前記手荷物受取所に設けられたスピーカを制御し、指向性を有する音声によって前記案内情報を前記人物に向けて出力する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記5)
 前記案内部は、前記手荷物受取所に設けられたプロジェクタを制御し、前記手荷物の表面に前記案内情報をプロジェクトマッピング画像として出力する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記6)
 前記案内部は、前記手荷物受取所に設けられたプロジェクタを制御し、前記案内情報をプロジェクトマッピング画像として前記人物の前方位置に出力する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記7)
 前記案内部は、前記人物が前記持主である場合に、前記人物に対して前記持主であることを案内する他の案内情報を出力する、
 付記1乃至6のいずれかに記載の情報処理装置。
(付記8)
 同一の航空機に搭乗する前記利用者の前記第1手荷物情報に基づいて、外観が類似する類似手荷物を検出する類似手荷物検出部を更に備え、
 前記案内部は、前記類似手荷物の検出情報を前記案内情報とともに出力する、
 付記1乃至7のいずれかに記載の情報処理装置。
(付記9)
 前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所の出口に設置されたゲート装置のゲート扉を閉扉させる制御情報を出力するゲート制御部、
 を更に備える付記1乃至8のいずれかに記載の情報処理装置。
(付記10)
 前記第2取得部は、前記手荷物が前記手荷物受取所に設けられたターンテーブルに搬送される前に、前記ターンテーブルよりも搬送経路の上流側に位置する読取装置により前記手荷物に付された手荷物タグから前記第2手荷物情報を読み取る、
 付記1乃至9のいずれかに記載の情報処理装置。
(付記11)
 前記生体情報は、顔画像である、
 付記1乃至10のいずれかに記載の情報処理装置。
(付記12)
 出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、
 到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、
 前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、
 前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、
 前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、
 を備える情報処理方法。
(付記13)
 コンピュータに、
 出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、
 到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、
 前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、
 前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、
 前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、
 を実行させるためのプログラムが記録された記録媒体。
NW・・・ネットワーク
1・・・管理サーバ
2・・・出発空港システム
3・・・到着空港システム
11・・・利用者情報DB
20・・・チェックイン端末
30・・・自動手荷物預け機
40・・・保安検査装置
50・・・搭乗ゲート装置
60・・・手荷物搬送装置
70・・・手荷物受取所システム
71・・・タグリーダ
72・・・カメラ
73・・・ターンテーブル
74・・・指向性スピーカ
75・・・ゲート装置
76・・・プロジェクタ
80・・・業務端末

Claims (13)

  1.  出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得する第1取得部と、
     到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得する第2取得部と、
     前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行する生体照合部と、
     前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定する判定部と、
     前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力する案内部と、
     を備える情報処理装置。
  2.  前記第2手荷物情報に含まれる手荷物外観画像に基づいて、前記手荷物受取所において前記手荷物を追跡する手荷物追跡部と、
     前記手荷物受取所における前記人物の位置情報を検出する位置検出部と、
     を更に備え、
     前記案内部は、前記人物が前記手荷物から所定の距離範囲内に存在する場合に、前記案内情報を出力する、
     請求項1に記載の情報処理装置。
  3.  前記案内部は、前記位置情報に基づいて前記案内情報の出力場所を変更する、
     請求項2に記載の情報処理装置。
  4.  前記案内部は、前記手荷物受取所に設けられたスピーカを制御し、指向性を有する音声によって前記案内情報を前記人物に向けて出力する、
     請求項1乃至3のいずれか1項に記載の情報処理装置。
  5.  前記案内部は、前記手荷物受取所に設けられたプロジェクタを制御し、前記手荷物の表面に前記案内情報をプロジェクトマッピング画像として出力する、
     請求項1乃至3のいずれか1項に記載の情報処理装置。
  6.  前記案内部は、前記手荷物受取所に設けられたプロジェクタを制御し、前記案内情報をプロジェクトマッピング画像として前記人物の前方位置に出力する、
     請求項1乃至3のいずれか1項に記載の情報処理装置。
  7.  前記案内部は、前記人物が前記持主である場合に、前記人物に対して前記持主であることを案内する他の案内情報を出力する、
     請求項1乃至6のいずれか1項に記載の情報処理装置。
  8.  同一の航空機に搭乗する前記利用者の前記第1手荷物情報に基づいて、外観が類似する類似手荷物を検出する類似手荷物検出部を更に備え、
     前記案内部は、前記類似手荷物の検出情報を前記案内情報とともに出力する、
     請求項1乃至7のいずれか1項に記載の情報処理装置。
  9.  前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所の出口に設置されたゲート装置のゲート扉を閉扉させる制御情報を出力するゲート制御部、
     を更に備える請求項1乃至8のいずれか1項に記載の情報処理装置。
  10.  前記第2取得部は、前記手荷物が前記手荷物受取所に設けられたターンテーブルに搬送される前に、前記ターンテーブルよりも搬送経路の上流側に位置する読取装置により前記手荷物に付された手荷物タグから前記第2手荷物情報を読み取る、
     請求項1乃至9のいずれか1項に記載の情報処理装置。
  11.  前記生体情報は、顔画像である、
     請求項1乃至10のいずれか1項に記載の情報処理装置。
  12.  出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、
     到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、
     前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、
     前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、
     前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、
     を備える情報処理方法。
  13.  コンピュータに、
     出発空港において利用者が航空会社に預けた受託手荷物の第1手荷物情報を取得するステップと、
     到着空港において手荷物受取所に搬送された手荷物の第2手荷物情報を取得するステップと、
     前記手荷物受取所に入場した人物から取得された生体情報と前記第1手荷物情報に関連付けられている前記利用者の登録生体情報との生体照合を実行するステップと、
     前記生体照合により前記人物が前記利用者と同一人物であると認証された場合に、前記人物が前記手荷物受取所で受け取った前記手荷物に係る前記第2手荷物情報と前記利用者に係る前記第1手荷物情報とに基づいて前記人物が前記手荷物の持主であるか否かを判定するステップと、
     前記人物が前記手荷物の前記持主ではない場合に、前記手荷物受取所において前記人物に対して前記手荷物の取り違えを案内する案内情報を出力するステップと、
     を実行させるためのプログラムが記録された記録媒体。
PCT/JP2020/031258 2020-08-19 2020-08-19 情報処理装置、情報処理方法及び記録媒体 WO2022038709A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022543870A JPWO2022038709A5 (ja) 2020-08-19 情報処理装置、情報処理方法及びプログラム
PCT/JP2020/031258 WO2022038709A1 (ja) 2020-08-19 2020-08-19 情報処理装置、情報処理方法及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/031258 WO2022038709A1 (ja) 2020-08-19 2020-08-19 情報処理装置、情報処理方法及び記録媒体

Publications (1)

Publication Number Publication Date
WO2022038709A1 true WO2022038709A1 (ja) 2022-02-24

Family

ID=80323555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/031258 WO2022038709A1 (ja) 2020-08-19 2020-08-19 情報処理装置、情報処理方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2022038709A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079656A (ja) * 2005-09-12 2007-03-29 Hitachi Ltd チケットレス搭乗システム及びチケットレス搭乗方法
WO2012093618A1 (ja) * 2011-01-06 2012-07-12 アクアエンタープライズ株式会社 移動状況検出システム
WO2015136938A1 (ja) * 2014-03-14 2015-09-17 株式会社 東芝 情報処理方法および情報処理システム
JP2017027569A (ja) * 2015-07-16 2017-02-02 日本電気株式会社 受け取り支援システム、受け取り支援方法、受け取り支援プログラム、情報処理装置、及び端末装置
JP2019117513A (ja) * 2017-12-27 2019-07-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理のシステム、およびそれらの制御方法、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079656A (ja) * 2005-09-12 2007-03-29 Hitachi Ltd チケットレス搭乗システム及びチケットレス搭乗方法
WO2012093618A1 (ja) * 2011-01-06 2012-07-12 アクアエンタープライズ株式会社 移動状況検出システム
WO2015136938A1 (ja) * 2014-03-14 2015-09-17 株式会社 東芝 情報処理方法および情報処理システム
JP2017027569A (ja) * 2015-07-16 2017-02-02 日本電気株式会社 受け取り支援システム、受け取り支援方法、受け取り支援プログラム、情報処理装置、及び端末装置
JP2019117513A (ja) * 2017-12-27 2019-07-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理のシステム、およびそれらの制御方法、プログラム

Also Published As

Publication number Publication date
JPWO2022038709A1 (ja) 2022-02-24

Similar Documents

Publication Publication Date Title
JP7482381B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7264166B2 (ja) 情報処理装置、情報処理方法及び記録媒体及びプログラム
JP7153205B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7223296B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN114175087A (zh) 信息处理装置、信息处理方法和记录介质
WO2022038709A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7300094B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7300095B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7127703B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7060184B1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022003840A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7487827B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7327651B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20950275

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022543870

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20950275

Country of ref document: EP

Kind code of ref document: A1