WO2024084687A1 - 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理システム、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2024084687A1
WO2024084687A1 PCT/JP2022/039310 JP2022039310W WO2024084687A1 WO 2024084687 A1 WO2024084687 A1 WO 2024084687A1 JP 2022039310 W JP2022039310 W JP 2022039310W WO 2024084687 A1 WO2024084687 A1 WO 2024084687A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing device
display
target
camera
Prior art date
Application number
PCT/JP2022/039310
Other languages
English (en)
French (fr)
Inventor
暁 菅原
大内 真理子
和彦 山岡
知見 太田
伸明 石井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/039310 priority Critical patent/WO2024084687A1/ja
Publication of WO2024084687A1 publication Critical patent/WO2024084687A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • This disclosure relates to the technical fields of information processing devices, information processing systems, information processing methods, and recording media.
  • Patent document 1 describes an information processing device that has an inclined reading surface, a reading unit that reads information from an object facing the reading surface, and a protrusion formed on at least a part of the upper edge of the periphery of the reading surface, and reads information from the object.
  • Patent document 2 describes a technology in which multiple displays are arranged with a specified gap between them on the rear side of a half mirror, and a camera lens is placed in this gap so that the line of sight for looking at the displays and the line of sight for photographing with the camera are substantially the same, and the display displays a display suitable for matching of the person on the front side of the half mirror, while an imaging device captures a facial image suitable for matching.
  • Patent document 3 describes an information processing device having a reading unit that reads a user's medium and acquires information including the user's biometric information from the medium, and a biometric information acquisition unit that acquires the user's biometric information from the user while reading the medium.
  • Patent Document 4 describes a technology that includes a display that displays an operation screen, a contact sensor that detects operations on the operation screen, a non-contact sensor that detects operations on the operation screen, and a control unit that selectively uses the contact sensor and the non-contact sensor to accept input to the operation screen, while taking hygiene into consideration and allowing users to make input.
  • Patent document 5 describes a technology in which a transmitted image obtained by irradiating an object to be inspected with electromagnetic waves is input into a model, a first certainty level indicating that the object is a specific object is output, and if the first certainty level, which is changed based on the inspection results obtained by performing one or more inspections on the object, is equal to or greater than a preset first certainty level threshold, it is determined that the object is a specific object and the specific object is detected.
  • the objective of this disclosure is to provide an information processing device, an information processing system, an information processing method, and a recording medium that aim to improve upon the technology described in prior art documents.
  • One aspect of the information processing device includes a display, a left camera provided to the left of the display for capturing an image of an object from the left side, a right camera provided to the right of the display for capturing an image of the object from the right side, an upper camera provided above the display for capturing an image of the object from above, and a surveillance camera provided above the display for monitoring the object from above.
  • One aspect of the information processing system includes a display, a plurality of information processing devices each including a left camera provided to the left of the display and capturing an image of an object from the left side, a right camera provided to the right of the display and capturing an image of the object from the right side, an upper camera provided above the display and capturing an image of the object from above, and a surveillance camera provided above the display and monitoring the object from above, and the display provided in an information processing device in which the number of objects included in the images captured by the surveillance camera exceeds a predetermined number outputs information indicative of an information processing device in which the number of objects included in the images captured by the surveillance camera is less than a predetermined number.
  • One aspect of the information processing method is to determine the height of a subject's face, and if the height of the subject's face is lower than a predetermined height, instruct a left camera provided on the left side of the display that images the subject from the left side and a right camera provided on the right side of the display that images the subject from the right side to capture an image of the subject's face, and if the height of the subject's face is higher than the predetermined height, instruct an upper camera provided above the display that images the subject from above to capture an image of the subject's face.
  • a computer program is recorded to cause a computer to execute an information processing method that determines the height of a subject's face, and if the height of the subject's face is lower than a predetermined height, instructs a left camera provided on the left side of a display that images the subject from the left side and a right camera provided on the right side of the display that images the subject from the right side to capture an image of the subject's face, and if the height of the subject's face is higher than the predetermined height, instructs an upper camera provided above the display that images the subject from above to capture an image of the subject's face.
  • FIG. 1 is an external view showing the external appearance of an information processing apparatus according to the first embodiment.
  • FIG. 2 is an external view showing the external appearance of an information processing apparatus according to the second embodiment.
  • FIG. 3 is a block diagram showing the configuration of an information processing device according to the second embodiment.
  • FIG. 4 is a flowchart showing the flow of information processing operations of the information processing device in the second embodiment.
  • FIG. 5 is a block diagram showing the configuration of an information processing device according to the third embodiment.
  • FIG. 6 is an external view showing the external appearance of an information processing apparatus according to the third embodiment.
  • FIG. 7 is a block diagram showing the configuration of an information processing apparatus according to the fourth embodiment.
  • FIG. 8 is an external view showing the external appearance of an information processing apparatus according to the fourth embodiment.
  • FIG. 1 is an external view showing the external appearance of an information processing apparatus according to the first embodiment.
  • FIG. 2 is an external view showing the external appearance of an information processing apparatus according to the second embodiment.
  • FIG. 3 is a block diagram showing the
  • FIG. 9 is a block diagram showing the configuration of an information processing device according to the fifth embodiment.
  • FIG. 10 is a flowchart showing the flow of information processing operations of the information processing device according to the fifth embodiment.
  • FIG. 11 is an external view showing the external appearance of an information processing apparatus according to the sixth embodiment.
  • FIG. 12 is a block diagram showing the configuration of an information processing device according to the sixth embodiment.
  • FIG. 13 is a flowchart showing the flow of information processing operations of the information processing device in the sixth embodiment.
  • FIG. 14 is a block diagram showing the configuration of an information processing device according to the seventh embodiment.
  • FIG. 15 is a flowchart showing the flow of information processing operations of the information processing device in the seventh embodiment.
  • FIG. 16 is a block diagram showing the configuration of an information processing device according to the eighth embodiment.
  • FIG. 17 is a flowchart showing the flow of information processing operations of the information processing device in the eighth embodiment.
  • FIG. 18 is a block diagram showing the configuration of an information processing system according to the ninth embodiment
  • a first embodiment of an information processing device, an information processing system, an information processing method, and a recording medium will be described below.
  • the first embodiment of the information processing device, the information processing system, the information processing method, and the recording medium will be described using an information processing device 1 to which the first embodiment of the information processing device, the information processing system, the information processing method, and the recording medium is applied.
  • FIG. 1 is an external view showing the appearance of an information processing device 1 in the first embodiment.
  • the information processing device 1 includes a display D, a left camera L, a right camera R, an upper camera U, and a surveillance camera M.
  • the left camera L is provided on the left side of the display D and captures the subject from the left side.
  • the left camera L is provided on the left side as seen by the subject facing the display D.
  • the right camera R is provided on the right side of the display D and captures the subject from the right side.
  • the right camera R is provided on the right side as seen by the subject facing the display D.
  • the upper camera U is provided on the upper side of the display D and captures the subject from above.
  • the surveillance camera M is provided on the upper side of the display D and monitors the subject from above.
  • the upper camera U and the surveillance camera M are provided on the upper side as seen by the subject facing the display D. Note that FIG. 1 illustrates a case in which the surveillance camera M is provided above the upper camera U, but the upper camera U may be provided above the surveillance camera M.
  • the information processing device 1 in the first embodiment includes a left camera L, a right camera R, and an upper camera U, so that the subject can be imaged from the left, right, and upper sides, and an appropriate image of the subject can be obtained.
  • the information processing device 1 images the subject from various angles, so that the possibility of capturing a face image suitable for face recognition is improved.
  • the information processing device 1 includes a surveillance camera M, so that an image capturing the subject and the situation around the subject can be obtained.
  • FIG. 2 is an external view showing the appearance of the information processing device 2 in the second embodiment.
  • the information processing device 2 may be provided in facilities such as airports, train stations, theme parks, etc.
  • the information processing device 2 may perform a specific operation to identify who the target person is, a guidance operation to guide the identified target person to a destination, an authorization operation to permit the identified target person to take a specific action, etc.
  • the information processing device 2 includes a support body B and a top plate UB.
  • the support body B includes a display D, a left camera L, a right camera R, an upper camera U, a surveillance camera M, a left side plate member LB, a right side plate member RB, a reception unit IN, a speaker S, and a microphone Mic.
  • the support body B does not have to include at least one of the left side plate member LB, the right side plate member RB, the reception unit IN, the speaker S, and the microphone Mic.
  • the calculation device 21, the storage device 22, and the communication device 23 described below may be housed in the support body B.
  • the display D may be inclined with respect to the vertical plane so that the lower part is closer to the viewer than the upper part, so that the subject can look down and see the displayed contents.
  • the display D may be provided vertically.
  • the display D may be inclined with respect to the vertical plane so that the upper part is closer to the viewer than the lower part, so that the subject can look up and see the displayed contents.
  • the information processing device 2 may be able to identify the position of the subject's face based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and microphone Mic, and change the inclination angle of the display D depending on the position of the subject's face.
  • the display D may display a guidance screen that provides instructions on how to use the information processing device 2.
  • the left camera L is provided on the left side of the display D and captures an image of the subject from the left side.
  • the right camera R is provided on the right side of the display D and captures an image of the subject from the right side.
  • the left camera L and the right camera R are each positioned with their imaging surface facing inward so as to capture an image of the subject facing the display D.
  • the left camera L may be provided so that its imaging direction faces diagonally forward to the right.
  • the right camera R may be provided so that its imaging direction faces diagonally forward to the left.
  • the upper camera U is provided above the display D and captures an image of the subject from above.
  • the upper camera U may be provided so that the imaging direction faces diagonally downward and forward.
  • At least one of the left camera L, right camera R, and upper camera U may have an angle of view that allows the subject's face to be captured.
  • Illumination may be provided on both sides of the display D.
  • the illumination may ensure sufficient brightness for at least one of the left camera L, right camera R, and upper camera U to capture an image of the subject operating the information processing device 2.
  • the information processing device 2 may perform facial recognition using an image of the face captured by at least one of the left camera L, right camera R, and upper camera U to authenticate the subject.
  • the surveillance camera M is provided above the display D.
  • the surveillance camera M may be provided above the upper camera U.
  • the surveillance camera M may capture images while changing the angle of view.
  • the surveillance camera M may capture images of areas relatively close to the information processing device 2.
  • the surveillance camera M may obtain captured images that can determine the state of the information processing device 2 and its surroundings, the state of a subject operating the information processing device 2, etc.
  • the surveillance camera M may also capture images of areas relatively far from the information processing device 2.
  • the surveillance camera M may obtain captured images that can determine the state of a subject relatively far from the information processing device 2.
  • a filter F may be provided above the display D.
  • the filter F may prevent the subject from seeing the upper camera U, the surveillance camera M, and the speaker S.
  • the upper camera U and the surveillance camera M can capture an image of the subject through the filter F.
  • the left side plate member LB is provided to the left of the left side camera L, and prevents anyone other than the subject from viewing the display content of the display D, and prevents anyone other than the subject from appearing in the captured images taken by the right side camera R and the upper camera U.
  • the right side plate member RB is provided to the right of the right side camera R, and prevents anyone other than the subject from viewing the display content of the display D, and prevents anyone other than the subject from appearing in the captured images taken by the left side camera L and the upper camera U.
  • the top plate UB is provided below the display D, protrudes toward the subject facing the display D, and has a reading unit Re on its upper surface.
  • the reading unit Re acquires readable information from a medium presented by the subject.
  • the reading unit Re may acquire information by reading a medium held over by the subject.
  • the reading unit Re may include, for example, an image scanner, a non-contact IC (Integrated Circuit) reader, an OCR (Optical Character Reader) device, etc.
  • the reading unit Re may realize at least one of a passport reader and a code reader.
  • the code reader may be, for example, at least one of a two-dimensional code reader and a one-dimensional code reader.
  • the code read by the code reader may be, for example, a code for customs declaration.
  • the reading unit Re may include, for example, a passport reader on the left side and a code reader on the right side.
  • the passport reader may have an alignment unit for aligning the passport.
  • the reception unit IN detects the subject's pointing action in the space between the display D and the subject, and accepts it as an instruction input for the information processing device 2.
  • the reception unit IN may be able to detect the position on the display D at which the subject is pointing, without the subject touching the display D.
  • the reception unit IN may detect the subject's pointing action in the space between the display D and the subject, and accept the input of an instruction for the information processing device 2 by matching the subject's pointing action with the display content of the display D.
  • the reception unit IN may realize an input action to the information processing device 2, in the same way as operating a touch panel, without the subject touching the information processing device 2.
  • the reception unit IN may be realized by infrared rays.
  • the reception unit IN may include an infrared light irradiation mechanism that irradiates infrared rays, a position detection mechanism that detects the position where the irradiated infrared rays are blocked, and a determination mechanism that determines that the detected position has been selected on the screen.
  • the reception unit IN may be realized by laser light instead of infrared light.
  • the reception unit IN may also analyze the position and movement from the captured image and realize an input operation to the information processing device 2.
  • the reception unit IN may also detect a change in capacitance in the space between the display D and the subject using a capacitance method, and detect the subject's pointing operation.
  • the speaker S outputs audio toward the target person.
  • the speaker S may output audio with directionality.
  • the speaker S may output audio such that information intended for the target person cannot be heard by anyone other than the target person.
  • the microphone Mic inputs the voice generated by the target person.
  • the microphone Mic may collect the voice with directionality.
  • the microphone Mic may collect the voice so as not to pick up the voice of any person other than the target person.
  • the microphone Mic may input the voice generated by the target person as well as voices, sounds, etc. generated by any person other than the target person.
  • FIG. 3 is a block diagram showing the configuration of the information processing device 2 in the second embodiment.
  • the information processing device 2 includes a calculation device 21 and a storage device 22.
  • the information processing device 2 may include a communication device 23, an input device 24, and an output device 25.
  • the information processing device 2 does not have to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the calculation device 21, the storage device 22, the communication device 23, the input device 24, and the output device 25 may be connected via a data bus 26.
  • the arithmetic device 21 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array).
  • the arithmetic device 21 reads a computer program.
  • the arithmetic device 21 may read a computer program stored in the storage device 22.
  • the arithmetic device 21 may read a computer program stored in a computer-readable and non-transient recording medium using a recording medium reading device (e.g., an input device 24 described later) not shown in the figure that is provided in the information processing device 2.
  • a recording medium reading device e.g., an input device 24 described later
  • the arithmetic device 21 may acquire (i.e., download or read) a computer program from a device (not shown) located outside the information processing device 2 via the communication device 23 (or other communication device).
  • the arithmetic device 21 executes the read computer program.
  • a logical functional block for executing the operation to be performed by the information processing device 2 is realized within the calculation device 21.
  • the calculation device 21 can function as a controller for realizing a logical functional block for executing the operation (in other words, processing) to be performed by the information processing device 2.
  • FIG. 3 shows an example of a logical functional block realized within the arithmetic device 21 to execute information processing operations.
  • a height determination unit 211 and an imaging instruction unit 212 which is a specific example of an "imaging instruction means" described in the appendix below.
  • an imaging instruction unit 212 which is a specific example of an "imaging instruction means" described in the appendix below.
  • at least one of the height determination unit 211 and the imaging instruction unit 212 does not have to be realized within the arithmetic device 21.
  • the operation of the height determination unit 211 and the imaging instruction unit 212 will be described in detail later with reference to FIG. 4.
  • the storage device 22 can store desired data.
  • the storage device 22 may temporarily store a computer program executed by the arithmetic device 21.
  • the storage device 22 may temporarily store data that is temporarily used by the arithmetic device 21 when the arithmetic device 21 is executing a computer program.
  • the storage device 22 may store data that the information processing device 2 stores for a long period of time.
  • the storage device 22 may include at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the storage device 22 may include a non-temporary recording medium.
  • the communication device 23 is capable of communicating with devices external to the information processing device 2 via a communication network (not shown).
  • the communication device 23 may be a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), Bluetooth (registered trademark), and USB (Universal Serial Bus).
  • the input device 24 is a device that accepts information input to the information processing device 2 from outside the information processing device 2.
  • the information processing device 2 includes the above-mentioned reading unit Re, receiving unit IN, and microphone Mic as the input device 24.
  • the input device 24 may include an operation device (for example, at least one of a keyboard, a mouse, and a touch panel) that can be operated by an operator of the information processing device 2.
  • the input device 24 may include a reading device that can read information recorded as data on a recording medium that can be attached externally to the information processing device 2.
  • the output device 25 is a device that outputs information to the outside of the information processing device 2.
  • the output device 25 may output information as an image. That is, the output device 25 may include a display device (so-called a display) capable of displaying an image showing the information to be output.
  • the output device 25 may also output information as sound. That is, the output device 25 may include an audio device (so-called a speaker) capable of outputting sound. That is, in the second embodiment, the information processing device 2 includes the above-mentioned display D and speaker S as the output device 25.
  • the output device 25 may output information on a paper surface. That is, the output device 25 may include a printing device (so-called a printer) capable of printing desired information on a paper surface. [2-3: Information Processing Operation Performed by Information Processing Device 2]
  • the information processing device 2 may transition each of the mechanisms of the display D, the left camera L, the right camera R, the upper camera U, the display D, the reception unit IN, the reading unit Re, the speaker S, and the microphone Mic from a standby state to an operable state according to the size of the subject appearing in the captured image captured by the surveillance camera M.
  • the information processing device 2 may transition each of the mechanisms to an operable state when it detects that the captured image captured by the surveillance camera M includes a subject facing straight ahead.
  • the information processing device 2 may further include a distance sensor, and transition each of the mechanisms to an operable state when it detects that the subject has approached the information processing device 2 to a predetermined distance.
  • the information processing device 2 may transition each of the mechanisms to an operable state when it is determined that a subject who wishes to use the information processing device 2 has appeared.
  • FIG. 4 is a flowchart showing the flow of the facial image acquisition operation performed by the information processing device 2 in the second embodiment.
  • the height determination unit 211 determines the height of the subject's face (step S20).
  • the height determination unit 211 may make the determination based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and microphone Mic.
  • the height determination unit 211 may determine the height of the subject's face by detecting the head.
  • the height determination unit 211 may determine the height of the subject's face by detecting the upper limit of the subject's outline.
  • the height determination unit 211 may determine the height of the subject's face by detecting the location of the sound picked up by the microphone Mic.
  • the information processing device 2 may have a mechanism that can freely adjust the angle of the display D and the angle of the top plate UB having a passport reader, etc., using the height determination result.
  • step S20 L
  • the imaging instruction unit 212 instructs the left camera L and the right camera R to capture an image of the subject's face (step S21).
  • Cases in which the height of the subject's face is lower than a predetermined height include, for example, when the subject is short, when the subject uses a wheelchair, etc.
  • step S20 H
  • the imaging instruction unit 212 instructs the upper camera U to capture an image of the subject's face (step S22).
  • the imaging instruction unit 212 issues an instruction to operate a camera according to the height of the subject's face, making it easier to obtain a face image suitable for face matching. [Face recognition operation]
  • the subject's facial image captured by at least one of the left camera L, right camera R, and upper camera U may be compared with the facial image captured by the reading unit Re.
  • the subject's facial image captured by at least one of the left camera L, right camera R, and upper camera U may be referred to as a captured facial image.
  • the facial image captured by the reading unit Re may be referred to as a read facial image.
  • the read facial image may be a facial image obtained by reading the subject's passport photo.
  • the information processing device 2 may request the management device C to match the captured face image with the read face image.
  • the information processing device 2 may transmit the captured face image, the read face image, and the matching request to the management device C.
  • the information processing device 2 may have a feature extraction function. In this case, the information processing device 2 may transmit the feature extracted from the captured face image, the feature extracted from the read face image, and the matching request to the management device C.
  • the information processing device 2 itself may be equipped with a face matching mechanism.
  • the information processing device 2 may transmit matching information indicating the results of face matching of the subject person using the information processing device 2 to the management device C.
  • the reading unit Re may read identification information capable of identifying the subject.
  • the reading unit Re may read the identification information from a passport.
  • the management device C may be able to use a registration information database in which the subject's identification information and facial image are registered.
  • the information processing device 2 may transmit the identification information read by the reading unit Re and the captured facial image to the management device C, and request facial authentication of the subject from the management device C.
  • the management device C may perform facial authentication of the subject by comparing the captured facial image with a registered facial image registered in the registration information database.
  • the facial authentication may be performed by the management device C, by the information processing device 2, or on the cloud side (not shown).
  • Facial recognition may be performed when a captured facial image suitable for facial recognition is successfully acquired, and at least one of a read facial image and identification information is successfully acquired.
  • the information processing device 2 may receive authentication information indicating the authentication result of the requested face authentication from the management device C.
  • the authentication information may indicate that matching of the captured face image with the read face image or the registered face image has been successful, and that the identity of the subject using the information processing device 2 has been successful.
  • the authentication information may indicate that matching of the captured face image with the read face image or the registered face image has failed, and that the identity of the subject using the information processing device 2 has failed.
  • the display D may display authentication information indicating the result of the subject's face authentication.
  • a case where matching of the captured face image with the read face image or the registered face image has been successful may include a case where a matching score indicating the similarity between each face image exceeds a predetermined threshold value, and each face image indicates a high similarity.
  • the information processing device 2 may transmit each of the information read by the reading unit Re, the information received by the receiving unit IN, and the voice information collected by the microphone Mic to the management device C as information from the authenticated subject. [Customs declaration related actions]
  • the subject may, for example, display a customs declaration code on a terminal device carried by the reading unit Re and have it read by the reading unit Re.
  • Declaration information may be obtained from the customs declaration code read by the reading unit Re.
  • the declaration information includes information that the subject must declare in a customs declaration when entering the country.
  • the declaration information may include information necessary for a customs declaration, such as the subject's name, current address or place of stay in the country of entry, occupation, date of birth, passport number, flight name, place of departure, date of entry, and items to be declared in a customs declaration.
  • the information processing device 2 may display a declaration content confirmation screen for the subject on the display D.
  • the information processing device 2 may display on the display D judgment information showing the judgment result of the declaration contents.
  • the display D may display a declaration content confirmation screen for the subject to confirm the declaration contents and correct them as necessary. Also, for example, if there is an error in the declaration contents and human assistance is required, a guidance screen guiding the subject to a manned booth may be displayed on the display D to guide the subject to a manned booth.
  • the information processing device 2 may support multiple languages, such as Japanese, English, Chinese, Korean, etc., similar to the customs declaration application available on the terminal device.
  • the information processing device 2 may be able to set the language to be used based on language information read from a declaration code displayed on a terminal device carried by a person making a customs declaration.
  • the information processing device 2 may be able to input and output in the language to be used that is set from among multiple languages.
  • the information processing device 2 may receive guidance information to be output to the subject from the management device C.
  • the information processing device 2 may control at least one of the display D and the speaker S to output the guidance information to the subject.
  • the guidance information may include information indicating a place where the subject should go.
  • the place where the subject should go may include a place where the next item to be performed will be performed.
  • the guidance information may include information such as the item to be performed by the subject and a time limit for the item to be performed.
  • the guidance information may include places where the subject is permitted to enter and places where the subject is prohibited from entering.
  • the display D may display a guidance screen for the subject.
  • the management device C may have information that associates a subject with a location where the subject should go. For example, at an airport, if the subject is planning to board an aircraft and has not yet completed the boarding procedures, the location where the subject should go may be an automatic check-in machine. Also, if the subject has not yet checked in his/her baggage, the location where the subject should go may be the baggage counter. Also, if the subject has not yet gone through security, the location where the subject should go may be the security checkpoint. Also, if the subject has not yet gone through security, the location where the subject should go may be the boarding gate.
  • the support B is not limited to the form exemplified in FIG. 2, but may be in various forms such as a pole installed with its longitudinal direction vertical, a support stand, a counter, or the like. [2-4: Technical Effects of Information Processing Device 2]
  • the information processing device 2 in the second embodiment includes a display D and a speaker S, and therefore can provide information appropriately to the subject.
  • the information processing device 2 includes a left camera L, a right camera R, an upper camera U, a monitoring camera M, a reception unit IN, and a microphone Mic, and therefore can appropriately acquire information from the subject.
  • the information processing device 2 changes the camera used for imaging depending on the height of the subject's face, and therefore can appropriately image the subject's face. This allows the information processing device 2 to capture an image of a quality suitable for face authentication.
  • the information processing device 3 in the third embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment. Furthermore, the information processing device 3 in the third embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment. However, the information processing device 3 may not include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 3 in the third embodiment differs from the information processing device 2 in the second embodiment in that the calculation device 21 further includes a change unit 313.
  • Other features of the information processing device 3 may be the same as other features of the information processing device 2 in the second embodiment. For this reason, hereinafter, the parts that are different from the embodiments already described will be described in detail, and other overlapping parts will be appropriately omitted. [3-2: Appearance of information processing device 3]
  • FIG. 6 is a side view of the information processing device 3.
  • the top plate UB may be inclined at a predetermined angle or more with respect to the horizontal plane.
  • the inclination of the top plate UB with respect to the horizontal plane may be, for example, 15°.
  • the inclination of the top plate UB with respect to the horizontal plane may be, for example, in the range of 0° to 25°.
  • top plate UB is inclined at a specified angle or more with respect to the horizontal plane, when an object is left on the top plate UB, the object will naturally move downwards, making it possible for the subject to notice that the object is still placed there. For example, if a document such as a passport or the display screen of a smartphone or the like is read by the reading unit Re and then the reception unit IN is operated and the document is left behind, the document will fall from the top plate, making the subject aware that it has been left behind.
  • a document such as a passport or the display screen of a smartphone or the like
  • the support part J to which the tabletop UB is assembled with the support body B may be movable up and down relative to the support body B.
  • the inclination of the tabletop UB with respect to the horizontal plane may be changeable around the position of the support part J.
  • the distance between the opposing surface FP of the tabletop UB facing the subject and the support part J may be changeable.
  • the tabletop UB may have an arm and a plate part, and the depth may be changed by moving the plate part along the arm.
  • the change unit 313 changes at least one of the height, angle, and depth of the tabletop UB according to the height of the subject's face.
  • the height of the subject's face may be determined by the height determination unit 211.
  • the height determination unit 211 may make the determination based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and microphone Mic.
  • the change unit 313 may determine a height suitable for operation at the subject's hand according to the height of the subject's face.
  • the modification unit 313 may modify the height of the support part J of the top plate UB to be relatively low.
  • the modification unit 313 may modify the height of the top plate UB so that the position of the top plate UB is lower than at least the height of the subject's face. If the height suitable for the subject's hand operations is relatively low, the modification unit 313 may increase the inclination of the top plate UB.
  • the modification unit 313 may modify the height of the support part J of the tabletop UB to be relatively high. If the height suitable for the subject's hands to operate is relatively high, the modification unit 313 may reduce the inclination of the tabletop UB. The modification unit 313 may modify the height, inclination, and depth of the tabletop UB to make it easier for the subject to use. The modification unit 313 may modify the height, inclination, and depth of the tabletop UB depending on the condition of the subject's hands, in particular.
  • the modification unit 313 may modify the height of the support portion J of the tabletop UB to be higher than the armrests of the wheelchair. In this case, the modification unit 313 may make the tabletop UB horizontal and modify the depth so that it protrudes significantly.
  • the change unit 313 may increase the inclination of the top plate UB to inform the subject that something has been left behind.
  • the top plate UB may be equipped with a mechanism for detecting weight, and when a weight equal to or greater than a predetermined weight is detected for a predetermined period of time or longer, it may determine that something has been left behind on the top plate UB and increase the inclination of the top plate UB to inform the subject that something has been left behind.
  • the table top UB is inclined at a predetermined angle or more with respect to the horizontal plane, so that the subject can be made aware that an object is still placed on the table top UB.
  • the information processing device 3 changes at least one of the angle, height, and depth of the table top UB according to the height of the subject's face, so that the subject can use the information processing device 3 in a comfortable position.
  • the information processing device 4 in the fourth embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment and the information processing device 3 in the third embodiment. Furthermore, the information processing device 4 in the fourth embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment and the information processing device 3 in the third embodiment. However, the information processing device 4 may not include at least one of the communication device 23, the input device 24, and the output device 25. The information processing device 4 in the fourth embodiment differs from the information processing device 2 in the second embodiment and the information processing device 3 in the third embodiment in that the calculation device 21 further includes a change unit 413.
  • the change unit 413 changes at least one of the angle, height, and depth of at least one of the display D, left camera L, right camera R, upper camera U, and surveillance camera M according to the height of the subject's face.
  • the height of the subject's face may be determined by the height determination unit 211.
  • the height determination unit 211 may make the determination based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and microphone Mic.
  • the modification unit 413 may change the height of at least one of the display D, the left camera L, the right camera R, the upper camera U, and the surveillance camera M to be relatively low. If the height of the subject's face is relatively low, the modification unit 413 may change the inclination of the display D to be close to vertical.
  • the modification unit 413 may change the height of at least one of the display D, the left camera L, the right camera R, the upper camera U, and the surveillance camera M to be relatively high. If the height of the subject's face is relatively high, the modification unit 413 may tilt the display D so that the top of the display D is positioned further back.
  • the change unit 413 may change the depth of the display D so that the display D moves forward.
  • the change unit 413 may change the height, inclination, and depth of the display D so that the subject can easily view the display D.
  • the inclination of the display D may be, for example, in the range of 0° to 30° with respect to the vertical plane.
  • the height of the center of the display D may be, for example, in the range of 1180 mm to 1250 mm.
  • the change unit 413 may change the height of the display D so that the subject can look down on the display D.
  • the display D, the left camera L, the right camera R, and the upper camera U may be provided in the same housing.
  • the housing in which the display D, the left camera L, the right camera R, and the upper camera U are provided may be called the display housing DH.
  • the position or angle of the display D, the left camera L, the right camera R, and the upper camera U may be changed integrally.
  • the imaging angle of the left camera L, the right camera R, and the upper camera U may each be changed independently.
  • the angle formed by the display housing DH and the top plate UB may be fixed.
  • the change unit 313 and the change unit 413 may change the attitude of the display housing DH and the top plate UB so that the display D is inclined close to vertical, as exemplified in Fig. 8(a).
  • the change unit 313 and the change unit 413 may change the attitude of the display housing DH and the top plate UB so that the top plate UB is inclined close to horizontal, as exemplified in Fig. 8(b).
  • the imaging instruction unit 212 may issue instructions to operate a camera according to the height of the subject's face.
  • all of the left camera L, right camera R, and upper camera U may be made to capture images, and the captured image to be used may be selected according to the subject's height and facial orientation.
  • the camera to be operated may be selected according to the inclination of the subject's face. For example, even if the subject is short, the upper camera U may capture images if the subject is facing up. For example, if the subject is short and has their face tilted to the left, the number of images captured by the left camera L may be increased.
  • the captured image obtained from at least one of the left camera L, the right camera R, and the upper camera U may be corrected to be equivalent to an image captured from the front.
  • captured images are obtained from more than one of the left camera L, the right camera R, and the upper camera U, they may be synthesized to generate one face image for use in subsequent processing.
  • the captured images captured by the left camera L and the right camera R and the captured image captured by the upper camera U may be weighted according to the height of the subject's face for use in subsequent processing.
  • the information processing device 4 in the fourth embodiment can acquire an appropriate captured image because it changes at least one of the height and angle of at least one of the left camera L, the right camera R, the upper camera U, and the surveillance camera M. Since at least one of the height and angle of the display D is changed, the subject can easily view the display D. In addition, it is easy to acquire an appropriate captured image. [5: Fifth embodiment]
  • the information processing device 5 in the fifth embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment to the information processing device 4 in the fourth embodiment. Furthermore, the information processing device 5 in the fifth embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment to the information processing device 4 in the fourth embodiment. However, the information processing device 5 may not include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 5 in the fifth embodiment differs from the information processing device 2 in the second embodiment to the information processing device 4 in the fourth embodiment in that the calculation device 21 further includes a possession presence determination unit 514 and an output control unit 515.
  • FIG. 10 is a flowchart showing the flow of the information processing operation performed by the information processing device 5 in the fifth embodiment.
  • the possession presence determination unit 514 monitors the possessions of the subject that are present within a predetermined range including the information processing device 5.
  • the possession presence determination unit 514 may monitor the possessions of the subject based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and reading unit Re.
  • at least one of the left camera L, right camera R, upper camera U, and surveillance camera M can capture an image of an object on the tabletop UB.
  • the possession presence determination unit 514 can detect the presence of an object on the tabletop UB based on information acquired from at least one of the left camera L, right camera R, upper camera U, and surveillance camera M.
  • the surveillance camera M can capture an image of an object on the floor surface around the information processing device 5.
  • the possession presence determination unit 514 can detect the presence of an object on the floor surface around the information processing device 5 based on information acquired from the surveillance camera M.
  • the possession presence determination unit 514 determines whether the possession of the subject exists within a predetermined range including the information processing device 5 for a predetermined time or not (step S50).
  • the possession presence determination unit 514 may determine whether the possession of the subject exists within a predetermined range including the information processing device 5 for a predetermined time or not after the subject no longer exists around the information processing device 5.
  • the output control unit 515 outputs information indicating the subject and information indicating the possession of the subject (step S51).
  • the output control unit 515 may identify an individual from, for example, information on a passport read by the reading unit Re.
  • the output control unit 515 may transmit the information identifying the identified individual and the captured image of the corresponding possession to the management device C in association with each other.
  • the output control unit 515 may also transmit, to the contact information of the identified individual, information indicating that the possession reflected in the captured image has been left behind together with the captured image of the corresponding possession.
  • the information processing device 5 in the fifth embodiment can use information obtained from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, and reading unit Re to determine whether or not an item has been left behind in the vicinity of the information processing device 5, identify the owner of the item left behind, and provide information regarding the item being left behind.
  • the information processing device 6 in the sixth embodiment further includes an odor sensor Sen and a gas output unit Air.
  • the odor sensor Sen detects a predetermined odor.
  • the predetermined odor may be the odor of a predetermined item.
  • the predetermined item may be an item whose import or export is prohibited or regulated.
  • the odor sensor Sen detects the odor of at least one of the subject and the subject's belongings.
  • the odor sensor Sen may be provided on the facing surface FP, which is the frontmost surface of the tabletop UB. It may also be provided in a location relatively close to the subject.
  • the gas output unit Air outputs a gas.
  • the gas output unit Air may output air.
  • the gas output unit Air may be provided at a plurality of locations in the information processing device 6. [6-2: Configuration of information processing device 6]
  • the information processing device 6 in the sixth embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment to the information processing device 5 in the fifth embodiment. Furthermore, the information processing device 6 in the sixth embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment to the information processing device 5 in the fifth embodiment. However, the information processing device 6 may not include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 6 in the sixth embodiment is different from the information processing device 2 in the second embodiment to the information processing device 5 in the fifth embodiment in that the calculation device 21 further includes an output control unit 615, a suspicious person determination unit 616, an odor sensor control unit 617, and a gas output control unit 618.
  • Other features of the information processing device 6 may be the same as at least one other feature of the information processing device 2 in the second embodiment to the information processing device 5 in the fifth embodiment. Therefore, in the following, only the parts that differ from the embodiments already described will be described in detail, and descriptions of other overlapping parts will be omitted as appropriate.
  • FIG. 13 is a flowchart showing the flow of the information processing operation performed by the information processing device 6 in the sixth embodiment.
  • the suspicious person determination unit 616 determines whether the subject is a suspicious person (step S60).
  • the suspicious person determination unit 616 may monitor the behavior of the subject based on information acquired from at least one of the left camera L, right camera R, upper camera U, surveillance camera M, reading unit Re, reception unit IN, and microphone Mic.
  • the suspicious person determination unit 616 may determine that the subject is a suspicious person when the movement of a predetermined part of the subject behaves in a predetermined manner.
  • the predetermined part of the subject may include the subject's head, eyes and the area around the eyes, mouth and mouth area, arms, palms, etc.
  • the suspicious person determination unit 616 may determine that the subject is a suspicious person when suspicious behavior is detected.
  • the odor sensor control unit 617 enables the operation of the odor sensor Sen (step S61). If the suspicious person determination unit 616 determines that a person is suspicious, the odor sensor control unit 617 may start the operation of the odor sensor Sen. Alternatively, if the suspicious person determination unit 616 determines that a person is suspicious, the odor sensor control unit 617 may lower the sensitivity threshold of the odor sensor Sen to make it easier to detect a specific odor.
  • the gas output control unit 618 causes the gas output unit Air to output gas (step S62).
  • the gas output control unit 618 may cause the gas output unit Air to blow gas onto at least one of the target person and the target person's belongings, making them more likely to be vaporized by the blown gas.
  • the odor sensor Sen may detect a specified item by analyzing the gas blown into the gas output unit Air and collected.
  • the output control unit 615 determines whether the odor sensor Sen has detected a specific odor (step S63). If the odor sensor Sen has detected a specific odor (step S63: Yes), the output control unit 615 outputs information indicating that (step S64).
  • the output control unit 615 may associate the type of item with information about the subject and output the information to, for example, the management device C.
  • the information about the subject may be a facial image of the subject, and identification information such as the name.
  • the odor sensor control unit 617 may disable the operation of the odor sensor Sen.
  • step S60, step S61, and step S62 may not be performed.
  • the operation of the odor sensor Sen may be enabled even if the subject is not determined to be a suspicious person, or the operation of the odor sensor Sen may always be enabled.
  • the gas output unit Air may output gas even if the subject is not determined to be a suspicious person.
  • the information processing device 6 may not have a gas output unit Air.
  • steps S61 and S62 are performed when the suspicious person determination unit 616 determines that a person is suspicious, but when the degree of suspiciousness is low, only the operation of step S61 may be performed, and the operation of step S62 may not be performed. For example, when the degree of suspiciousness exceeds the first threshold but does not exceed the second threshold, only the operation of step S61 may be performed, and when the degree of suspiciousness exceeds the second threshold, both the operations of step S61 and step S62 may be performed. [6-4: Technical Effects of Information Processing Device 6]
  • the information processing device 6 in the sixth embodiment can detect a specific target person by smell while the target person is going through various procedures.
  • the information processing device 6 can detect smell when there is a target person who is determined to be a suspicious person. In other words, if the target person is a person for whom smell detection is not required, unnecessary detection processing is not performed.
  • the information processing device 6 blows gas, making it easier to detect the smell.
  • the information processing device 7 in the seventh embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment to the information processing device 6 in the sixth embodiment. Furthermore, the information processing device 7 in the seventh embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment to the information processing device 6 in the sixth embodiment. However, the information processing device 7 may not include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 7 in the seventh embodiment differs from the information processing device 2 in the second embodiment to the information processing device 6 in the sixth embodiment in that the calculation device 21 further includes a person presence determination unit 719 and a communication unit 720.
  • FIG. 15 is a flowchart showing the flow of the information processing operation performed by the information processing device 7 in the seventh embodiment.
  • the person presence determination unit 719 monitors the presence of a target person within a predetermined range including the information processing device 7.
  • the person presence determination unit 719 may monitor the presence of a target person based on information acquired from at least one of the left camera L, the right camera R, the upper camera U, the surveillance camera M, the reading unit Re, the reception unit IN, and the microphone Mic.
  • step S70 when it is determined that the subject has been present within a predetermined range including the information processing device 7 for a predetermined time period (step S70: Yes), the communication unit 720 transmits information indicating that to the management device C (step S71).
  • a case where the subject has been present within a predetermined range including the information processing device 7 for a predetermined time period may correspond to a case where the subject has not performed any operation for a predetermined time period since standing in front of the information processing device 7.
  • the determination in step S70 may also be positive if a predetermined time has passed since the subject operated the reception unit IN.
  • the determination in step S70 may also be positive if the subject has not operated the reception unit IN despite the subject's facial image being acquired.
  • the determination in step S70 may also be positive if the subject has not allowed the reading unit Re to read his/her passport.
  • the communication unit 720 receives information from the management device C, and assists the operation of at least one of the subject and the information processing device 7 according to the received information (step S72).
  • the communication unit 720 may control at least one of the display D and the speaker S to output information to assist the subject.
  • the communication unit 720 may highlight a portion of the display D corresponding to a portion of the reception unit IN that the subject should operate.
  • At least one of the display D, the left camera L, the right camera R, the upper camera U, the reading unit Re, and the speaker S may operate according to the operation of the administrator of the management device C.
  • the left camera L, the right camera R, and the upper camera U may capture a facial image of the subject according to the operation of the administrator of the management device C.
  • the administrator may input input items to be received via the reception unit IN, etc., on behalf of the subject.
  • the administrator may input the name of the subject on behalf of the subject.
  • the administrator may select the language used by the subject on behalf of the subject. [7-3: Technical Effects of Information Processing Device 7]
  • the information processing device 7 in the seventh embodiment assists the subject in operating the information processing device 7, and therefore can prevent the subject who wants to use the information processing device 7 from staying there. [8: Eighth embodiment]
  • an eighth embodiment of the information processing device, information processing system, information processing method, and recording medium will be described.
  • the eighth embodiment of the information processing device, information processing system, information processing method, and recording medium will be described using an information processing device 8 to which the eighth embodiment of the information processing device, information processing system, information processing method, and recording medium is applied.
  • the information processing device 8 includes a moving means T that is effective when desired.
  • the moving means T may be a means suitable for moving on a plane.
  • the moving means T may be one or more wheels.
  • the moving means T may be a belt conveyor.
  • the information processing device 8 in the eighth embodiment includes a calculation device 21 and a storage device 22, similar to the information processing device 2 in the second embodiment to the information processing device 7 in the seventh embodiment. Furthermore, the information processing device 8 in the eighth embodiment may include a communication device 23, an input device 24, and an output device 25, similar to the information processing device 2 in the second embodiment to the information processing device 7 in the seventh embodiment. However, the information processing device 8 may not include at least one of the communication device 23, the input device 24, and the output device 25. The information processing device 8 in the eighth embodiment differs from the information processing device 2 in the second embodiment to the information processing device 7 in the seventh embodiment in that the calculation device 21 further includes a self-propelled control unit 821.
  • FIG. 17 is a flowchart showing the flow of the information processing operation performed by the information processing device 8 in the eighth embodiment.
  • the self-propelled control unit 821 monitors whether or not it is desired (step S80). If it is desired, it may be when moving to a different location and guidance operations are required at the new location, or guidance operations due to movement are required. If it is desired, it may be, for example, when a disaster occurs, and the safety of the subject needs to be ensured at the location where the information processing device 8 is installed. If it is desired, it may be transmitted from the management device C. When a disaster occurs, the management device C may detect the location of the disaster, crowds, etc., and transmit the information to the information processing device 8.
  • step S80 If desired (step S80, Yes), the means of transportation T is enabled (step S81). If information indicating a desired case is received from the management device C, control of the operation of the means of transportation T by the self-propelled control unit 821 may be enabled.
  • the self-propelled control unit 821 causes the information processing device 8 to self-propel using the transportation means T when desired.
  • the self-propelled control unit 821 may receive operation instructions from the management device C.
  • the information processing device 8 may be remotely operated by the management device C via the self-propelled control unit 821.
  • the information processing device 8 may move to the location of the person who needs guidance by the transportation means T.
  • the information processing device 8 may guide the person by output from at least one of the display D and the speaker S. It may also output guidance on the optimal evacuation route.
  • the information processing device 8 may notify of crowded places. It may also notify of places that are dangerous to enter and places where it is better to avoid approaching. It may also guide the target person. It may move in front of a dangerous place if the target person enters and notify that entry is prohibited.
  • the output control unit 815 may output an optimal evacuation route on the display D.
  • the information processing device 8 may use the moving means T to move close to a target person in the vicinity of the information processing device 8 and notify the target person of the optimal evacuation route.
  • the information processing device 8 in the eighth embodiment can notify necessary information at an appropriate location. [9: Ninth embodiment]
  • the information processing system SYS includes a plurality of information processing devices 9 and a management device C.
  • the information processing device 9 may be the same as any of the information processing devices 1 to 8.
  • the management device C may include a congestion determination unit C1 and a communication unit C2.
  • Fig. 18 includes information processing devices 9a, 9b, and 9c, each of which includes a display D and a surveillance camera M. [9-2: Information processing operation performed by the information processing system SYS]
  • the congestion determination unit C1 may calculate congestion information.
  • the congestion information is information indicating the degree of congestion near the information processing device 9 for each information processing device 9.
  • the congestion determination unit C1 may calculate the congestion information from the number of subjects detected in the captured image captured by the surveillance camera M.
  • the congestion determination unit C1 may calculate the congestion information from the number of faces of subjects detected in the captured image captured by the surveillance camera M. When the number of subjects included in the captured image captured by the surveillance camera M exceeds a predetermined number, the congestion determination unit C1 may determine that it is preferable to guide subjects who are trying to use the information processing device (e.g., information processing device 9a) to another information processing device 9.
  • information processing device e.g., information processing device 9a
  • the congestion determination unit C1 may determine that it is preferable to guide subjects who want to use the information processing device 9 to an information processing device (e.g., information processing device 9c) equipped with the surveillance camera M.
  • the communication unit C2 may output, to each of the information processing devices 9, information indicating an information processing device 9 in which the number of subjects included in an image captured by the surveillance camera M exceeds a predetermined number, and information indicating an information processing device 9 in which the number of subjects captured by the surveillance camera M is less than a predetermined number.
  • the congestion determination unit C1 may determine that the number of subjects included in the captured image captured by the surveillance camera Ma exceeds a predetermined number, and that it is preferable to guide the subjects who are trying to use the information processing device 9a to another information processing device 9.
  • the congestion determination unit C1 may also determine that the number of subjects included in the captured image captured by the surveillance camera Mc is less than a predetermined number, and that it is preferable to guide the subjects who want to use the information processing device 9a to the information processing device 9c.
  • the communication unit C2 may output, to at least the information processing device 9a and the information processing device 9c, information indicating the information processing device 9a in which the number of subjects included in the captured image exceeds a predetermined number, and information indicating the information processing device 9c in which the number of subjects captured by the surveillance camera M is less than a predetermined number.
  • the information processing device 9a may display information on the display Da that guides the subjects to the information processing device 9c that is not congested.
  • the information processing device 9c may display information indicating that the information processing device 9c is not congested on the display Dc.
  • the information processing system SYS in the ninth embodiment calculates the degree of congestion in front of the information processing device 9, and shares the degree of congestion among a plurality of information processing devices 9, and an information processing device 9 with many information processing devices 9 lined up outputs the locations of information processing devices 9 where subjects are not lined up to the subjects and the manager, thereby reducing the waiting time of the subjects.
  • [Appendix 3] determining a height of the subject's face; If the height of the face of the target is lower than a predetermined height, instruct the left camera and the right camera to capture an image of the face of the target;
  • Appendix 4 The information processing device according to claim 2, wherein the top plate is inclined at least a predetermined angle with respect to a horizontal plane.
  • Appendix 7 The information processing device described in Appendix 2, further comprising a possession information output means for outputting information indicating the target and information indicating the possession of the target when it is determined that the target possession is present within a predetermined range including the information processing device for more than a predetermined time.
  • Appendix 8 An odor sensor that detects a predetermined odor; The information processing device according to claim 1 or 2, further comprising an odor information output means for outputting information indicating that the odor sensor detects the specified odor when the specified odor is detected.
  • an assisting means for assisting operation of at least one of the target and the information processing device when it is determined that the target is present within a predetermined range including the information processing device for a predetermined period of time.
  • [Appendix 13] A display and A left camera provided to the left of the display for capturing an image of an object from the left side; a right camera provided to the right of the display and configured to capture an image of the object from the right side; an upper camera provided above the display and configured to capture an image of the object from above; a surveillance camera provided above the display and configured to monitor the target from above;
  • the display provided in an information processing device in which the number of objects included in images captured by the surveillance camera exceeds a predetermined number outputs information indicating an information processing device in which the number of objects included in images captured by the surveillance camera is less than a predetermined number.
  • [Appendix 14] Determining the height of the subject's face; If the height of the face of the target is lower than a predetermined height, instruct a left camera provided on the left side of a display for capturing an image of the target from the left side and a right camera provided on the right side of the display for capturing an image of the target from the right side to capture an image of the face of the target; when the height of the face of the target is higher than a predetermined height, an upper camera provided above the display for capturing an image of the target from above is instructed to capture an image of the face of the target.
  • Appendix 16 The information processing device according to any one of appendices 3, 5 to 7, and 9 to 11, wherein the determination is based on information acquired from at least one of the left camera, the right camera, the upper camera, the surveillance camera, the reader, the reception means, and the microphone.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

情報処理装置1は、ディスプレイDと、ディスプレイDの左側に設けられ、対象を左側から撮像する左側カメラLと、ディスプレイDの右側に設けられ、対象を右側から撮像する右側カメラRと、ディスプレイDの上側に設けられ、対象を上側から撮像する上側カメラUと、ディスプレイDの上側に設けられ、前記対象を上側から監視する監視カメラMとを備える。

Description

情報処理装置、情報処理システム、情報処理方法、及び、記録媒体
 この開示は、情報処理装置、情報処理システム、情報処理方法、及び、記録媒体の技術分野に関する。
 特許文献1には、傾斜した読取面を有するとともに、読取面に対向する対象物から情報を読み取る読取部と、読取面の周縁部のうち、上縁部の少なくとも一部に形成された突出部とを備え、対象物の情報を読み取る情報処理装置が記載されている。
 特許文献2には、ハーフミラーの背面に、複数のディスプレイを所定の隙間をもって配置し、この隙間にカメラレンズを配置して、ディスプレイを見るための視線とカメラによる撮影のための視線とをほぼ同一視線とし、ハーフミラー前面側の人物に対してディスプレイによって照合に適した表示を行いつつ、撮像装置によって照合に適した顔画像を撮像する技術が記載されている。
 特許文献3には、利用者の媒体を読み取って、媒体から利用者の生体情報を含む情報を取得する読取部と、媒体の読取りの間に、利用者から利用者の生体情報を取得する生体情報取得部とを有する情報処理装置が記載されている。
 特許文献4には、操作画面を表示するディスプレイと、操作画面に対する操作を検知する接触式センサと、操作画面に対する操作を検知する非接触式センサと、接触式センサおよび非接触式センサを選択的に用いて、操作画面に対する入力を受け付ける制御部と、を備え、衛生面が配慮され、利用者が入力を行うことができる技術が記載されている。
 特許文献5には、検査対象となる物品に電磁波を照射して得た透過画像をモデルに入力して、物品が特定物品であることを表す第一の確信度を出力し、物品に対して一つ以上の検査を実行して得られる検査結果に基づき変更された第一の確信度が、あらかじめ設定された第一の確信度閾値以上である場合、特定物品であると判定し、特定物品を検出する技術が記載されている。
特開2019-153148号公報 特開2019-149204号公報 国際公開第2020/075306号 特開2022-103098号公報 国際公開第2021/166727号
 この開示は、先行技術文献に記載された技術の改良を目的とする情報処理装置、情報処理システム、情報処理方法、及び、記録媒体を提供することを課題とする。
 情報処理装置の一の態様は、ディスプレイと、前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラとを備える。
 情報処理システムの一の態様は、ディスプレイと、前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラとを備える情報処理装置を複数含み、前記監視カメラが撮像した撮像画像に含まれる対象の数が所定超過の情報処理装置に備わる前記ディスプレイは、前記監視カメラが撮像した撮像画像に含まれる対象の数が所定未満の情報処理装置を示す情報を出力する。
 情報処理方法の一の態様は、対象の顔部の高さを判定し、前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する。
 記録媒体の一の態様は、コンピュータに、対象の顔部の高さを判定し、前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する情報処理方法を実行させるためのコンピュータプログラムが記録されている。
図1は、第1実施形態における情報処理装置の外観を示す外観図である。 図2は、第2実施形態における情報処理装置の外観を示す外観図である。 図3は、第2実施形態における情報処理装置の構成を示すブロック図である。 図4は、第2実施形態における情報処理装置の情報処理動作の流れを示すフローチャートである。 図5は、第3実施形態における情報処理装置の構成を示すブロック図である。 図6は、第3実施形態における情報処理装置の外観を示す外観図である。 図7は、第4実施形態における情報処理装置の構成を示すブロック図である。 図8は、第4実施形態における情報処理装置の外観を示す外観図である。 図9は、第5実施形態における情報処理装置の構成を示すブロック図である。 図10は、第5実施形態における情報処理装置の情報処理動作の流れを示すフローチャートである。 図11は、第6実施形態における情報処理装置の外観を示す外観図である。 図12は、第6実施形態における情報処理装置の構成を示すブロック図である。 図13は、第6実施形態における情報処理装置の情報処理動作の流れを示すフローチャートである。 図14は、第7実施形態における情報処理装置の構成を示すブロック図である。 図15は、第7実施形態における情報処理装置の情報処理動作の流れを示すフローチャートである。 図16は、第8実施形態における情報処理装置の構成を示すブロック図である。 図17は、第8実施形態における情報処理装置の情報処理動作の流れを示すフローチャートである。 図18は、第9実施形態における情報処理システムの構成を示すブロック図である。
 以下、図面を参照しながら、情報処理装置、情報処理システム、情報処理方法、及び、記録媒体の実施形態について説明する。
 [1:第1実施形態]
 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体の第1実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第1実施形態が適用された情報処理装置1を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第1実施形態について説明する。
 [1-1:情報処理装置1の外観]
 図1は、第1実施形態における情報処理装置1の外観を示す外観図である。図1に示すように、情報処理装置1は、ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUと、監視カメラMとを備える。
 左側カメラLは、ディスプレイDの左側に設けられ、対象者を左側から撮像する。左側カメラLは、ディスプレイDに対向する対象者から見て左側に設けられている。右側カメラRは、ディスプレイDの右側に設けられ、対象者を右側から撮像する。右側カメラRは、ディスプレイDに対向する対象者から見て右側に設けられている。上側カメラUは、ディスプレイDの上側に設けられ、対象者を上側から撮像する。監視カメラMは、ディスプレイDの上側に設けられ、対象者を上側から監視する。上側カメラU、及び監視カメラMは、ディスプレイDに対向する対象者から見て上側に設けられている。なお、図1には、上側カメラUよりも上に監視カメラMが設けられる場合を図示しているが、監視カメラMよりも上に上側カメラUが設けられていてもよい。
 [1-2:情報処理装置1の技術的効果]
 第1実施形態における情報処理装置1は、左側カメラL、右側カメラR、及び上側カメラUを備えるので、対象者を左側、右側、及び上側から撮像することができ、対象者の適切な撮像画像を取得することができる。情報処理装置1は、対象者を様々な角度から撮像するので、顔認証に適した顔画像を撮影できる可能性が向上する。さらに、情報処理装置1は、監視カメラMを備えるので、対象者及び対象者の周辺の状況を捉えた撮像画像を取得することができる。
 [2:第2実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第2実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第2実施形態が適用された情報処理装置2を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第2実施形態について説明する。
 [2-1:情報処理装置2の外観]
 図2は、第2実施形態における情報処理装置2の外観を示す外観図である。情報処理装置2は、例えば、空港、鉄道駅、テーマパーク等の施設等に設けられてもよい。情報処理装置2は、対象者が誰であるかを特定する特定動作、特定された対象者の行先地を案内する案内動作、特定された対象者の所定の行動を許可する許可動作等を実施してもよい。
 図2に示すように、情報処理装置2は、支持体Bと、天板UBとを含んでいる。支持体Bは、ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUと、監視カメラMと、左側板部材LBと、右側板部材RBと、受付部INと、スピーカーSと、マイクMicとを備える。但し、支持体Bは、左側板部材LB、右側板部材RB、受付部IN、スピーカーS、及びマイクMicの少なくとも1つを備えていなくてもよい。後述する演算装置21、記憶装置22、及び通信装置23は、支持体Bに収容されていてもよい。
 ディスプレイDは、対象者が見下ろして表示内容を視覚できるように、下部が上部よりも手前になるように垂直面に対して傾斜して設けられていてもよい。または、ディスプレイDは、垂直に設けられてもよい。または、例えば対象者の背が低い場合、対象者が車椅子に乗っている場合等の対象者の顔の位置が低い場合には、対象者が見上げて表示内容を視覚できるように、ディスプレイDは、上部が下部よりも手前になるように垂直面に対して傾斜して設けられていてもよい。情報処理装置2は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及びマイクMicの少なくとも1つから取得した情報に基づいて対象者の顔の位置を特定し、対象者の顔の位置に応じてディスプレイDの傾斜角度を変更可能であってもよい。例えば、ディスプレイDは、情報処理装置2の利用方法を案内する案内画面を表示してもよい。
 左側カメラLは、ディスプレイDの左側に設けられ、対象者を左側から撮像する。右側カメラRは、ディスプレイDの右側に設けられ、対象者を右側から撮像する。左側カメラL、及び右側カメラRの各々は、ディスプレイDに対向する対象者を撮像するよう、撮像面が内向きに配置される。左側カメラLは、撮像方向が前方右斜めを向く方向になるように設けられていてもよい。右側カメラRは、撮像方向が前方左斜めを向く方向になるように設けられていてもよい。
 上側カメラUは、ディスプレイDの上側に設けられ、対象者を上側から撮像する。上側カメラUは、撮像方向が前方斜め下方を向く方向になるように設けられていてもよい。左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つは、対象者の顔を撮像可能な画角を有していてもよい。
 ディスプレイDの両側部には、照明が設けられていてもよい。この場合、当該照明により、左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つは、情報処理装置2を操作する対象者を撮像する際に、十分な明るさを確保してもよい。情報処理装置2は、左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つにより撮像された顔部の撮像画像を用いて顔認証を実施し、対象者を認証してもよい。
 監視カメラMは、ディスプレイDの上側に設けられている。監視カメラMは、上側カメラUよりも上側に設けられていてもよい。監視カメラMは、画角を変更しながら、撮像してもよい。監視カメラMは、情報処理装置2の比較的近くの様子を撮像してもよい。監視カメラMは、情報処理装置2及び情報処理装置2の周辺の状態、情報処理装置2を操作する対象者の状態等を判定可能な撮像画像を取得してもよい。また、監視カメラMは、情報処理装置2の比較的遠くの様子を撮像してもよい。監視カメラMは、情報処理装置2の比較的遠くに存在する対象者の状態を判定可能な撮像画像を取得してもよい。
 ディスプレイDよりも上側には、フィルターFが設けられていてもよい。対象者は、フィルターFにより、上側カメラU、監視カメラM、及びスピーカーSを視認できなくてもよい。上側カメラU、及び監視カメラMは、フィルターF越しに対象者を撮像することができる。
 左側板部材LBは、左側カメラLの左側に設けられ、対象者以外によるディスプレイDの表示内容の目視、並びに、右側カメラRが撮像する撮像画像及び上側カメラUが撮像する撮像画像への対象者以外の写り込みを防ぐ。右側板部材RBは、右側カメラRの右側に設けられ、対象者以外によるディスプレイDの表示内容の目視、並びに、左側カメラLが撮像する撮像画像及び上側カメラUが撮像する撮像画像への対象者以外の写り込みを防ぐ。
 天板UBは、ディスプレイDの下側に設けられ、ディスプレイDに対向する対象者に向けて突き出し、上面に読取部Reを有する。読取部Reは、対象者が提示する媒体から読み取り可能な情報を取得する。読取部Reは、対象者によりかざされた媒体を読み取り、情報を取得してもよい。読取部Reは、例えば、イメージスキャナ、非接触IC(Integrated Circuit)リーダ、OCR(Optical Character Reader)装置等を含んでいてもよい。読取部Reは、パスポートリーダー、及びコードリーダーの少なくとも一方を実現してもよい。コードリーダーは、例えば、二次元コードリーダー、及び一次元コードリーダーの少なくとも一方であってもよい。コードリーダーが読み込むコードは、例えば、税関申告用のコードであってもよい。読取部Reは、例えば、左側にパスポートリーダーを含み、右側にコードリーダーを含んでいてもよい。パスポートリーダーは、パスポートを位置合わせするための位置合わせ部を有していてもよい。
 受付部INは、ディスプレイDと対象者との間の空間における対象者の指示動作を検出し、情報処理装置2に対する指示の入力として受け付ける。受付部INは、対象者がディスプレイDに触れることなく、対象者が指し示すディスプレイD上の位置を検出することができてもよい。受付部INは、ディスプレイDと対象者との間の空間における対象者の指示動作を検出し、対象者の指示動作とディスプレイDの表示内容とを対応付けて、情報処理装置2に対する指示の入力を受け付けてもよい。受付部INは、対象者が情報処理装置2を触れることなく、タッチパネルを操作するように、情報処理装置2への入力動作を実現させてもよい。
 受付部INは、赤外線により実現されてもよい。例えば、受付部INは、赤外線を照射する赤外光照射機構、照射した赤外線が遮られた位置を検出する位置検出機構、及び検出した位置を画面上で選択されたと判断する判断機構とを含んでいてもよい。
 受付部INは、赤外線に代えてレーザー光で実現されてもよい。また、受付部INは、撮像画像から位置、及び動きを解析し、情報処理装置2への入力動作を実現させてもよい。また、受付部INは、静電容量方式により、ディスプレイDと対象者との間の空間における静電容量変化を検出し、対象者の指示動作を検出してもよい。
 スピーカーSは、対象者に向けて音声を出力する。スピーカーSは、指向性を持たせて音声を出力してもよい。スピーカーSは、対象者に対する情報が対象者以外に聞こえないように音声を出力してもよい。
 マイクMicは、対象者が発する音声を入力する。マイクMicは、指向性を持って音声を収集してもよい。マイクMicは、対象者以外の音声を拾わないように音声を収集してもよい。または、マイクMicは、対象者が発する音声の他、対象者以外が発する音声、物音等を入力してもよい。
 [2-2:情報処理装置2の構成]
 図3は、第2実施形態における情報処理装置2の構成を示すブロック図である。図3に示すように、情報処理装置2は、演算装置21と、記憶装置22とを備えている。更に、情報処理装置2は、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置2は、通信装置23、入力装置24及び出力装置25のうちの少なくとも一つを備えていなくてもよい。演算装置21と、記憶装置22と、通信装置23と、入力装置24と、出力装置25とは、データバス26を介して接続されていてもよい。
 演算装置21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも一つを含む。演算装置21は、コンピュータプログラムを読み込む。例えば、演算装置21は、記憶装置22が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置21は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、情報処理装置2が備える図示しない記録媒体読み取り装置(例えば、後述する入力装置24)を用いて読み込んでもよい。演算装置21は、通信装置23(或いは、その他の通信装置)を介して、情報処理装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置21は、読み込んだコンピュータプログラムを実行する。その結果、演算装置21内には、情報処理装置2が行うべき動作を実行するための論理的な機能ブロックが実現される。つまり、演算装置21は、情報処理装置2が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図3には、情報処理動作を実行するために演算装置21内に実現される論理的な機能ブロックの一例が示されている。図3に示すように、演算装置21内には、高さ判定部211と、後述する付記に記載された「撮像指示手段」の一具体例である撮像指示部212とが実現される。但し、高さ判定部211、及び撮像指示部212の少なくとも一方は、演算装置21内に実現されなくてもよい。高さ判定部211、及び撮像指示部212の動作の詳細については、図4を参照しながら後に詳述する。
 記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、演算装置21が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置22は、演算装置21がコンピュータプログラムを実行している場合に演算装置21が一時的に使用するデータを一時的に記憶してもよい。記憶装置22は、情報処理装置2が長期的に保存するデータを記憶してもよい。尚、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置22は、一時的でない記録媒体を含んでいてもよい。
 通信装置23は、不図示の通信ネットワークを介して、情報処理装置2の外部の装置と通信可能である。通信装置23は、イーサネット(登録商標)、Wi-Fi(登録商標)、Bluetooth(登録商標)、USB(Universal Serial Bus)等の規格に基づく通信インターフェースであってもよい。
 入力装置24は、情報処理装置2の外部からの情報処理装置2に対する情報の入力を受け付ける装置である。第2実施形態において、情報処理装置2は、入力装置24として、上述した読取部Re、受付部IN、及びマイクMicを含んでいる。さらに、例えば、入力装置24は、情報処理装置2のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つ)を含んでいてもよい。また、例えば、入力装置24は情報処理装置2に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置25は、情報処理装置2の外部に対して情報を出力する装置である。出力装置25は、情報を画像として出力してもよい。つまり、出力装置25は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。また、出力装置25は、情報を音声として出力してもよい。つまり、出力装置25は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。すなわち、第2実施形態において、情報処理装置2は、出力装置25として、上述したディスプレイD、及びスピーカーSを含んでいる。さらに、例えば、出力装置25は、紙面に情報を出力してもよい。つまり、出力装置25は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 [2-3:情報処理装置2が行う情報処理動作]
 情報処理装置2は、監視カメラMが撮像した撮像画像に写り込む対象者のサイズに応じて、ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUと、ディスプレイDと、受付部INと、読取部Reと、スピーカーSと、マイクMicとの各機構を、待機状態から動作可能状態に移行させてもよい。または、情報処理装置2は、監視カメラMが撮像した撮像画像に真っすぐに顔を向ける対象者が含まれることを検出した場合に、上記各機構を動作可能状態に移行させてもよい。または、情報処理装置2は、距離センサをさらに備えていてもよく、所定距離まで対象者が情報処理装置2に近づいを検出した場合に、上記各機構を動作可能状態に移行させてもよい。情報処理装置2は、情報処理装置2の利用を希望する対象者が現れたと判断できた場合に、上記各機構を動作可能状態に移行させてもよい。
 [顔画像の取得動作]
 図4を参照しながら、第2実施形態における情報処理装置2が行う顔画像の取得動作について説明する。図4は、第2実施形態における情報処理装置2が行う顔画像の取得動作の流れを示すフローチャートである。
 図4に示すように、高さ判定部211は、対象者の顔部の高さを判定する(ステップS20)。高さ判定部211は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及びマイクMicの少なくとも1つから取得した情報に基づいて判定してもよい。高さ判定部211は、頭部の検出により、対象者の顔部の高さを判定してもよい。高さ判定部211は、対象者の輪郭の上限の検出により、対象者の顔部の高さを判定してもよい。高さ判定部211は、マイクMicが拾った音声の発生場所の検出により、対象者の顔部の高さを判定してもよい。情報処理装置2は、高さの判定結果を用いて、ディスプレイDの角度、パスポートリーダー等を有する天板UBの角度を自由に調整することができる機構を有していてもよい。
 撮像指示部212は、対象者の顔部の高さが所定の高さよりも低い場合(ステップS20:L)、左側カメラL、及び右側カメラRに、対象者の顔の撮像を指示する(ステップS21)。対象者の顔部の高さが所定の高さよりも低い場合とは、例えば、対象者の背が低い場合、対象者が車椅子等を利用している場合等が該当する。
 撮像指示部212は、対象者の顔部の高さが所定の高さよりも高い場合(ステップS20:H)、上側カメラUに、対象者の顔の撮像を指示する(ステップS22)。対象者の顔部の高さが所定の高さよりも高い場合とは、例えば、対象者の背が高い場合等が該当する。すなわち、撮像指示部212は、対象者の顔部の高さに応じたカメラが動作するように指示を出し、顔照合に適した顔画像を取得し易くする。
 [顔認証動作]
 左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つが撮像することにより取得した対象者の顔画像は、読取部Reが取得した顔画像と照合されてもよい。左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つが撮像することにより取得した対象者の顔画像を撮像顔画像とよぶ場合がある。読取部Reが取得した顔画像を読取顔画像とよぶ場合がある。読取顔画像は、対象者のパスポートの写真を読み取った顔画像であってもよい。
 情報処理装置2は、撮像顔画像と読取顔画像との照合を管理装置Cに要求してもよい。情報処理装置2は、撮像顔画像、読取顔画像、及び照合要求を、管理装置Cに送信してもよい。情報処理装置2は、特徴量の抽出機能を有していてもよい。この場合、情報処理装置2は、撮像顔画像から抽出した特徴量、読取顔画像から抽出した特徴量、及び照合要求を、管理装置Cに送信してもよい。
 または、情報処理装置2自身が顔照合機構を備えていてもよい。この場合、情報処理装置2は、情報処理装置2を利用する対象者の顔照合の結果を示す照合情報を管理装置Cに送信してもよい。
 読取部Reは対象者を識別可能な識別情報を読み取ってもよい。例えば、読取部Reは、パスポートから識別情報を読み取ってもよい。管理装置Cは、対象者の識別情報と対象者の顔画像が登録された登録情報データベースを利用可能であってもよい。この場合、情報処理装置2は、読取部Reが読み取った識別情報と撮像顔画像とを管理装置Cに送信し、管理装置Cに対象者の顔認証を要求してもよい。管理装置Cは、登録情報データベースに登録されている登録顔画像と撮像顔画像とを照合することにより、対象者の顔認証を実施してもよい。顔認証は、管理装置Cで行ってもよいし、情報処理装置2で行ってもよいし、図示していないクラウド側で行ってもよい。
 顔認証は、顔認証に適した撮像顔画像の取得に成功し、かつ読取顔画像、及び識別情報の少なくとも一方の取得に成功した場合に実施されてもよい。
 情報処理装置2は、管理装置Cから、要求した顔認証の認証結果を示す認証情報を受信してもよい。認証情報は、撮像顔画像と読取顔画像、又は登録顔画像との照合が成功し、情報処理装置2を利用する対象者の本人確認に成功したことを示していてもよい。又は、認証情報は、撮像顔画像と読取顔画像、又は登録顔画像との照合に失敗し、情報処理装置2を利用する対象者の本人確認に失敗したことを示していてもよい。例えば、ディスプレイDは、対象者の顔認証の結果を示す認証情報を表示してもよい。撮像顔画像と読取顔画像、又は登録顔画像との照合が成功した場合とは、各々の顔画像の間の類似度を示す照合スコアが所定の閾値を超え、各々の顔画像が高い類似度を示す場合が含まれていてもよい。
 情報処理装置2は、読取部Reが読み取った情報、受付部INが受け付けた情報、及びマイクMicが収集した音声情報の各々を、認証された対象者からの情報として管理装置Cに送信してもよい。
 [税関申告関連動作]
 対象者は、例えば携帯する端末装置に税関申告用のコードを表示させ、読取部Reに読み取らせてもよい。読取部Reが読み取った税関申告用のコードからは申告情報が取得されてもよい。申告情報は、対象者が入国する際の税関申告において申告すべき情報を含んでいる。申告情報は、例えば、対象者の氏名、入国する国での現住所又は滞在先、職業、生年月日、旅券番号、搭乗便名、出発地、入国日、税関申告において申告すべき事項等の税関申告に必要な情報を含んでいてもよい。情報処理装置2は、読取部Reが税関申告用のコードを読み取った場合、ディスプレイDに対象者に対する申告内容確認画面を表示させてもよい。
 また、情報処理装置2はディスプレイDに、申告内容の判定結果を示す判定情報を表示させてもよい。ディスプレイDは、対象者が申告内容を確認し、必要に応じて修正するための申告内容確認画面を表示してもよい。また、例えば、申告内容に不備があり、人間による補助が必要な場合には、有人ブースに誘導する誘導画面をディスプレイDに表示させて、対象者を有人ブースに誘導してもよい。
 さらに、例えば、情報処理装置2は、端末装置において利用可能な税関申告アプリケーションと同様に、例えば、日本語、英語、中国語、韓国語等の多言語に対応していてもよい。情報処理装置2は、税関申告を行う対象者が携帯する端末装置に表示された申告用コードから読み取られた言語情報に基づき、使用言語を設定できてもよい。この場合、情報処理装置2は、複数の言語の中から設定された使用言語での入力、及び出力が可能であってもよい。
 [案内動作]
 情報処理装置2は、管理装置Cから、対象者に対して出力する案内情報を受信してもよい。情報処理装置2はディスプレイD、及びスピーカーSの少なくとも一方を制御して、対象者に案内情報を出力してもよい。案内情報は、対象者が行くべき場所を示す情報を含んでいてもよい。対象者が行くべき場所とは、次の実施すべき事項を実施する場所を含んでいてもよい。案内情報は、対象者が実施すべき事項、当該実施すべき事項の時間制限等の情報を含んでいてもよい。案内情報は、対象者が入場を許可されている場所、及び対象者が入場を禁止されている場所を含んでいてもよい。ディスプレイDは、対象者に対する誘導画面を表示してもよい。
 例えば、管理装置Cは、対象者と当該対象者の行くべき場所とを対応づけた情報を有していてもよい。例えば、空港において、対象者が航空機に搭乗予定であり、搭乗手続き前であれば、対象者の行くべき場所は、自動チェックイン機であってもよい。また、対象者が手荷物預け前であれば、対象者の行くべき場所は、手荷物カウンターであってもよい。また、対象者が保安検査前であれば、対象者の行くべき場所は、保安検査場であってもよい。また、対象者が保安検査後であれば、対象者の行くべき場所は、搭乗口であってもよい。
 なお、支持体Bは、図2に例示した形態に限らず、長手方向を鉛直にして設置されたポール、支持台、カウンタ等の種々の形態であってもよい。
 [2-4:情報処理装置2の技術的効果]
 第2実施形態における情報処理装置2は、ディスプレイDと、スピーカーSとを備えるので、対象者に対して適切に情報を提供することができる。また、情報処理装置2は、左側カメラLと、右側カメラRと、上側カメラUと、監視カメラMと、受付部INと、マイクMicを備えるので、対象者から適切に情報を取得することができる。情報処理装置2は、対象者の顔部の高さに応じて撮像に用いるカメラを変更するので、対象者の顔を適切に撮像することができる。これにより、情報処理装置2は、顔認証に適した品質の撮像画像を撮像することができる。
 [3:第3実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第3実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第3実施形態が適用された情報処理装置3を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第3実施形態について説明する。
 [3-1:情報処理装置3の構成]
 図5に示すように、第3実施形態における情報処理装置3は、第2実施形態における情報処理装置2と同様に、演算装置21と、記憶装置22とを備えている。更に、第3実施形態における情報処理装置3は、第2実施形態における情報処理装置2と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置3は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第3実施形態における情報処理装置3は、演算装置21が変更部313を更に備える点で、第2実施形態における情報処理装置2と異なる。情報処理装置3のその他の特徴は、第2実施形態における情報処理装置2のその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [3-2:情報処理装置3の外観]
 図6は、情報処理装置3を側方からみた側面図である。天板UBは、水平面に対して、所定以上傾けて設けられていてもよい。天板UBの水平面に対する傾きは、例えば15°であってもよい。天板UBの水平面に対する傾きは、例えば0°から25°の範囲であってもよい。
 天板UBが水平面に対して、所定以上傾いて設けられていた場合、天板UBに物を載置したままにすると、当該物が下側に向けて自然に動き出し、当該物が載置したままであることを対象者に気が付かせることができる。例えば、パスポート、スマートフォン等の表示画面等の文書類を読取部Reに読み取らせた後に、受付部INを操作して、文書類を置き忘れた場合、文書類が天板から落下することにより、置忘れを対象者に気が付かせることができる。
 図6の矢印6Aで示すように、天板UBが支持体Bと組付けられている支持部Jは、支持体Bに対して上下動可能であってもよい。また、図6の矢印6Bで示すように、天板UBの水平面に対する傾斜は、支持部Jの位置を中心に変更可能であってもよい。また、図6の矢印6Cで示すように、天板UBの対象者と対向する対向面FPと支持部Jとの距離は変更可能であってもよい。天板UBはアームと板部とを有していてもよく、アームに沿って板部を移動させることにより奥行きが変更されてもよい。
 [3-3:情報処理装置3の姿勢変更動作]
 変更部313は、対象者の顔部の高さに応じて、天板UBの高さ、角度、及び奥行きの少なくとも1つを変更する。対象者の顔部の高さは、高さ判定部211が判定してもよい。高さ判定部211は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及びマイクMicの少なくとも1つから取得した情報に基づいて判定してもよい。変更部313は、対象者の顔部の高さに応じて、対象者の手元の操作に適した高さを判定してもよい。
 対象者の手元の操作に適した高さが比較的低い場合、変更部313は、天板UBの支持部Jの高さを比較的低く変更してもよい。変更部313は、少なくとも対象者の顔部の高さよりも、天板UBの位置が低くなるように天板UBの高さを変更してもよい。対象者の手元の操作に適した高さが比較的低い場合、変更部313は、天板UBの傾きを大きくしてもよい。
 対象者の手元の操作に適した高さが比較的高い場合、変更部313は、天板UBの支持部Jの高さを比較的高く変更してもよい。対象者の手元の操作に適した高さが比較的高い場合、変更部313は、天板UBの傾きを小さくしてもよい。変更部313は、対象者が利用し易くなるように、天板UBの高さ、傾き、奥行きを変更してもよい。変更部313は、対象者の特に手元の状態に応じて、天板UBの高さ、傾き、奥行きを変更してもよい。
 特に、対象者が車椅子を利用している場合、変更部313は、天板UBの支持部Jの高さを車椅子のひじ掛けよりも高く変更してもよい。また、この場合、変更部313は天板UBを水平にし、大きく突き出すように奥行きを変更してもよい。
 また、対象者が情報処理装置3から離れたにも関わらず、天板UB上に物がある場合、変更部313は、天板UBの傾きを大きくして、置忘れがあることを対象者に知らせてもよい。例えば、天板UBは、重量を検出する機構を備えていてもよく、所定以上の重量を所定時間以上検出した場合、天板UB上に置忘れがあると判定し、天板UBの傾きを大きくして、置忘れがあることを対象者に知らせてもよい。
 [3-4:情報処理装置3の技術的効果]
 第3実施形態における情報処理装置3は、天板UBが水平面に対して、所定以上傾いて設けられているので、対象者に天板UBに物を載置したままであることを気が付かせることができる。また、情報処理装置3は、対象者の顔部の高さに応じて、天板UBの角度、高さ、及び奥行きの少なくとも1つを変更するので、対象者は楽な姿勢で情報処理装置3を利用することができる。
 [4:第4実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第4実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第4実施形態が適用された情報処理装置4を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第4実施形態について説明する。
 [4-1:情報処理装置4の構成]
 図7に示すように、第4実施形態における情報処理装置4は、第2実施形態における情報処理装置2、及び第3実施形態における情報処理装置3と同様に、演算装置21と、記憶装置22とを備えている。更に、第4実施形態における情報処理装置4は、第2実施形態における情報処理装置2、及び第3実施形態における情報処理装置3と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置4は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第4実施形態における情報処理装置4は、演算装置21が変更部413を更に備える点で、第2実施形態における情報処理装置2、及び第3実施形態における情報処理装置3と異なる。情報処理装置4のその他の特徴は、第2実施形態における情報処理装置2又は第3実施形態における情報処理装置3のその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [4-2:情報処理装置4の姿勢変更動作]
 変更部413は、対象者の顔部の高さに応じて、ディスプレイD、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つの角度、高さ、及び奥行きの少なくとも1つを変更する。対象者の顔部の高さは、高さ判定部211が判定してもよい。第3実施形態と同様に、高さ判定部211は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及びマイクMicの少なくとも1つから取得した情報に基づいて判定してもよい。
 対象者の顔部の高さが比較的低い場合、変更部413は、ディスプレイD、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つの高さを比較的低く変更してもよい。対象者の顔部の高さが比較的低い場合、変更部413は、ディスプレイDの傾きを垂直に近い傾きになるようにしてもよい。
 対象者の顔部の高さが比較的高い場合、変更部413は、ディスプレイD、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つの高さを比較的高く変更してもよい。対象者の顔部の高さが比較的高い場合、変更部413は、ディスプレイDの上側が奥に行くようにディスプレイDを傾けてもよい。
 対象者が車椅子を利用している場合、変更部413は、ディスプレイDが手前側に移動するようにディスプレイDの奥行きを変更してもよい。変更部413は、対象者がディスプレイDを視認し易くなるように、ディスプレイDの高さ、傾き、奥行きを変更してもよい。
 ディスプレイDの傾きは、例えば垂直面に対して0°から30°の範囲であってもよい。ディスプレイDの中央部の高さは、例えば1180mmから1250mmの範囲であってもよい。変更部413は、対象者がディスプレイDを見下ろすことのできる高さになるようにディスプレイDの高さを変更してもよい。
 第4実施形態において、ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUとは、同じ筐体に設けられていてもよい。ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUとが設けられている筐体をディスプレイ筐体DHとよんでもよい。すなわち、ディスプレイDと、左側カメラLと、右側カメラRと、上側カメラUと一体となって位置が変更されたり、角度が変更されたりしてもよい。この場合、左側カメラLと、右側カメラRと、上側カメラUとは、各々、が独立して撮像角度が変更されてもよい。
 また、図8に示す様に、第4実施形態において、ディスプレイ筐体DHと天板UBとが成す角度が固定されていてもよい。例えば、対象者の顔部の高さが比較的低い場合、変更部313及び変更部413は、図8(a)に例示するように、ディスプレイDが垂直に近い傾きになるように、ディスプレイ筐体DH及び天板UBの姿勢を変更してもよい。また、対象者の顔部の高さが比較的高い場合、変更部313及び変更部413は、図8(b)に例示するように、天板UBが水平に近い傾きになるように、ディスプレイ筐体DH及び天板UBの姿勢を変更してもよい。
 [4-3:情報処理装置4の顔画像の取得動作]
 第4実施形態では、第2実施形態と同様に、対象者の顔部の高さに応じたカメラが動作するように、撮像指示部212が指示を出してもよい。または、左側カメラL、右側カメラR、及び上側カメラUの全てのカメラに撮像させ、身長や顔向きに応じて採用する撮像画像を選択してもよい。または、対象者の顔部の傾きに応じて動作させるカメラを選択してもよい。例えば、対象者の背が低い場合であっても、顔を上に向けている場合には、上側カメラUが撮像してもよい。例えば、対象者の背が低い場合であり、左の方に顔を傾けている場合には左側カメラLが撮像する枚数を増やしてもよい。
 また、左側カメラL、右側カメラR、及び上側カメラUの少なくとも1つから得られた撮像画像を正面から撮像した撮像画像と同等になるように補正してもよい。左側カメラL、右側カメラR、及び上側カメラUのうちの複数から撮像画像を得た場合は、各々を合成して1枚の顔画像を生成して、後続の処理に用いてもよい。また、例えば、対象者の顔部の高さに応じて、左側カメラL及び右側カメラRが撮像する撮像画像、並びに上側カメラUが撮像する撮像画像に重み付けをして、後続の処理に用いてもよい。
 [4-4:情報処理装置4の技術的効果]
 第4実施形態における情報処理装置4は、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つの、高さ及び角度の少なくとも一方を変更するので、適切な撮像画像を取得することができる。ディスプレイDの高さ及び角度の少なくとも一方が変更されるので、対象者はディスプレイDを視認し易い。また、適切な撮像画像を取得し易い。
 [5:第5実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第5実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第5実施形態が適用された情報処理装置5を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第5実施形態について説明する。
 [5-1:情報処理装置5の構成]
 図9に示すように、第5実施形態における情報処理装置5は、第2実施形態における情報処理装置2から第4実施形態における情報処理装置4と同様に、演算装置21と、記憶装置22とを備えている。更に、第5実施形態における情報処理装置5は、第2実施形態における情報処理装置2から第4実施形態における情報処理装置4と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置5は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第5実施形態における情報処理装置5は、演算装置21が所有物存在判定部514、及び出力制御部515を更に備える点で、第2実施形態における情報処理装置2から第4実施形態における情報処理装置4と異なる。情報処理装置5のその他の特徴は、第2実施形態における情報処理装置2から第4実施形態における情報処理装置4の少なくとも1つのその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [5-2:情報処理装置5が行う情報処理動作]
 続いて、図10を参照しながら、第5実施形態における情報処理装置5が行う情報処理動作について説明する。図10は、第5実施形態における情報処理装置5が行う情報処理動作の流れを示すフローチャートである。
 所有物存在判定部514は、情報処理装置5を含む所定範囲内に存在する対象者の所有物を監視している。所有物存在判定部514は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及び読取部Reの少なくとも1つから取得した情報に基づいて対象者の所有物を監視していてもよい。例えば、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つは、天板UB上の物を撮像することができる。所有物存在判定部514は、左側カメラL、右側カメラR、上側カメラU、及び監視カメラMの少なくとも1つから取得した情報に基づいて、天板UB上の物の存在を検出することができる。また、監視カメラMは、情報処理装置5の周囲の床面上の物を撮像することができる。所有物存在判定部514は、監視カメラMから取得した情報に基づいて、情報処理装置5の周囲の床面上の物の存在を検出することができる。
 図10に示すように、所有物存在判定部514は、対象者の所有物が情報処理装置5を含む所定範囲内に所定時間を超えて存在するか否かを判定する(ステップS50)。所有物存在判定部514は、対象者が情報処理装置5の周囲に存在しなくなってから、対象者の所有物が情報処理装置5を含む所定範囲内に所定時間を超えて存在するか否かを判定してもよい。対象者の所有物が情報処理装置5を含む所定範囲内に所定時間を超えて存在すると判定した場合(ステップS50:Yes)、出力制御部515は、対象者を示す情報、及び対象者の所有物を示す情報を出力する(ステップS51)。出力制御部515は、例えば、読取部Reが読み取ったパスポートの情報から、個人を特定してもよい。この場合、出力制御部515は、特定した個人を特定する情報と、該当する所有物の撮像画像とを対応付けて管理装置Cに送信してもよい。また、出力制御部515は、特定された個人の連絡先に、該当する所有物の撮像画像とともに、撮像画像に写り込む所有物が置き忘れていることを示す情報を送信してもよい。
 [5-3:情報処理装置5の技術的効果]
 第5実施形態における情報処理装置5は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、及び読取部Reの少なくとも1つから取得した情報を利用して、情報処理装置5の近傍に置き忘れられた物があるか否かの判定、置き忘れられた物の所有者の特定、及び、置忘れに関する情報の提供をすることができる。
 [6:第6実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第6実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第6実施形態が適用された情報処理装置6を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第6実施形態について説明する。
 [6-1:情報処理装置6の外観]
 図11に示すように、第6実施形態における情報処理装置6は、匂いセンサーSen、気体出力部Airを更に備える。匂いセンサーSenは、所定の匂いを検出する。所定の匂いは、所定の物品の匂いであってもよい。所定の物品は、輸出入が禁止又は規制されている物品であってもよい。匂いセンサーSenは、対象者、及び対象者の所有物の少なくとも一方の匂いを検出する。匂いセンサーSenは、天板UBの最も手前の対向面FPに設けられていてもよい。対象者との距離が比較的近い場所に設けられていてもよい。
 気体出力部Airは、気体を出力する。気体出力部Airは、空気を出力してもよい。気体出力部Airは、情報処理装置6の複数の箇所に設けられていてもよい。
 [6-2:情報処理装置6の構成]
 図12に示すように、第6実施形態における情報処理装置6は、第2実施形態における情報処理装置2から第5実施形態における情報処理装置5と同様に、演算装置21と、記憶装置22とを備えている。更に、第6実施形態における情報処理装置6は、第2実施形態における情報処理装置2から第5実施形態における情報処理装置5と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置6は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第6実施形態における情報処理装置6は、演算装置21が出力制御部615、不審者判定部616、匂いセンサー制御部617、及び気体出力制御部618を更に備える点で、第2実施形態における情報処理装置2から第5実施形態における情報処理装置5と異なる。情報処理装置6のその他の特徴は、第2実施形態における情報処理装置2から第5実施形態における情報処理装置5の少なくとも1つのその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [6-3:情報処理装置6が行う情報処理動作]
 続いて、図13を参照しながら、第6実施形態における情報処理装置6が行う情報処理動作について説明する。図13は、第6実施形態における情報処理装置6が行う情報処理動作の流れを示すフローチャートである。
 図13に示すように、不審者判定部616は、対象者が不審な人物か否かを判定している(ステップS60)。不審者判定部616は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、読取部Re、受付部IN、及びマイクMicの少なくとも1つから取得した情報に基づいて、対象者の振る舞いを監視してもよい。不審者判定部616は、対象者の所定の部位の動きが所定の振る舞いをした場合に、対象者が不審な人物であると判定してもよい。対象者の所定の部位は、対象者の頭部、目及び目の周囲、口及び口元、腕、掌等を含んでいてもよい。不審者判定部616は、不審な振る舞いを検出した場合、対象者が不審な人物と判定してもよい。
 不審者判定部616が不審な人物と判定した場合(ステップS60:Yes)、匂いセンサー制御部617は、匂いセンサーSenの動作を有効にする(ステップS61)。匂いセンサー制御部617は、不審者判定部616が不審な人物と判定した場合、匂いセンサーSenの動作を開始してもよい。または、匂いセンサー制御部617は、不審者判定部616が不審な人物と判定した場合、匂いセンサーSenの感度の閾値を下げて、所定の匂いを検出し易くしてもよい。
 匂いセンサーSenの動作が有効にされた場合、気体出力制御部618は、気体出力部Airに気体を出力させる(ステップS62)。気体出力制御部618は、不審者判定部616が不審な人物と判定した場合、対象者及び対象者の所有物の少なくとも一方に対して気体出力部Airに気体を吹き付けさせ、吹き付けた気体により、気化され易くしてもよい。匂いセンサーSenは、気体出力部Airに吹き付けられ、回収した気体を解析することで所定の物品を検出してもよい。
 ステップS61以降、出力制御部615は、匂いセンサーSenが所定の匂いを検出したか否かを判定している(ステップS63)。匂いセンサーSenが所定の匂いを検出した場合(ステップS63:Yes)、出力制御部615はその旨を示す情報を出力する(ステップS64)。出力制御部615は、物品の種類と対象者の情報とを関連付けて、例えば管理装置Cに出力してもよい。対象者の情報は、対象者の顔画像、及び名前等の識別情報であってもよい。
 なお、ステップS60において不審な人物と判定し、所定の匂いの検出が開始してから所定時間が経過し、所定の匂いが検出されなかった場合には、匂いセンサー制御部617は匂いセンサーSenの動作を無効にしてもよい。
 また、ステップS60、ステップS61、及びステップS62の少なくとも1つの動作は実施されなくてもよい。例えば、対象者が不審な人物と判定されなくても、匂いセンサーSenの動作は有効にされてもよいし、そもそも、匂いセンサーSenの動作は常に有効であってもよい。また、対象者が不審な人物と判定されなくても、気体出力部Airは気体を出力してもよい。または、情報処理装置6が気体出力部Airを有していなくてもよい。
 また、図13に示す流れにおいて、ステップS61、及びステップS62の動作は、不審者判定部616が不審な人物と判定した場合に実施されるが、不審の度合いが低い場合は、ステップS61の動作のみを実施し、ステップS62の動作を実施しなくてもよい。例えば、不振の度合いが第1の閾値を超え、第2の閾値を超えない場合はステップS61の動作のみを実施し、不振の度合いが第2の閾値を超えた場合はステップS61、及びステップS62の両方の動作を実施してもよい。
 [6-4:情報処理装置6の技術的効果]
 第6実施形態における情報処理装置6は、対象者が諸々の手続きをしている間に、匂いにより所定の対象者を検出することができる。情報処理装置6は、不審な人物と判定される対象者がいる場合に匂いの検出をすることができる。つまり、対象者が匂いの検出が不要な人物の場合、不要な検出処理をしない。情報処理装置6は、気体を吹き付けるので、匂いを検出し易くすることができる。
 [7:第7実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第7実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第7実施形態が適用された情報処理装置7を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第7実施形態について説明する。
 [7-1:情報処理装置7の構成]
 図14に示すように、第7実施形態における情報処理装置7は、第2実施形態における情報処理装置2から第6実施形態における情報処理装置6と同様に、演算装置21と、記憶装置22とを備えている。更に、第7実施形態における情報処理装置7は、第2実施形態における情報処理装置2から第6実施形態における情報処理装置6と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置7は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第7実施形態における情報処理装置7は、演算装置21が人物存在判定部719、及び通信部720を更に備える点で、第2実施形態における情報処理装置2から第6実施形態における情報処理装置6と異なる。情報処理装置7のその他の特徴は、第2実施形態における情報処理装置2から第6実施形態における情報処理装置6の少なくとも1つのその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [7-2:情報処理装置7が行う情報処理動作]
 続いて、図15を参照しながら、第7実施形態における情報処理装置7が行う情報処理動作について説明する。図15は、第7実施形態における情報処理装置7が行う情報処理動作の流れを示すフローチャートである。
 人物存在判定部719は、情報処理装置7を含む所定範囲内の対象者の存在を監視している。人物存在判定部719は、左側カメラL、右側カメラR、上側カメラU、監視カメラM、読取部Re、受付部IN、及びマイクMicの少なくとも1つから取得した情報に基づいて、対象者の存在を監視をしてもよい。
 図15に示すように、情報処理装置7を含む所定範囲内に所定時間を超えて対象者が存在していると判定した場合(ステップS70:Yes)、通信部720は管理装置Cにその旨を示す情報を送信する(ステップS71)。情報処理装置7を含む所定範囲内に所定時間を超えて対象者が存在している場合とは、対象者が情報処理装置7の前に立ってから所定時間以上操作が進まない場合が該当してもよい。また、対象者が受付部INを操作してから所定時間経過した場合にも、ステップS70の判定は肯定されてもよい。また、対象者の顔画像が取得できたにもかかわらず対象者が受付部INを操作しなかった場合にも、ステップS70の判定は肯定されてもよい。また、対象者が読取部Reにパスポートを読み取らせなかった場合にも、ステップS70の判定は肯定されてもよい。
 通信部720は、管理装置Cから情報を受信し、受信した情報に応じて対象者、及び情報処理装置7の少なくとも一方の動作を補助する(ステップS72)。通信部720は、ディスプレイD、及びスピーカーSの少なくとも一方を制御して、対象者を補助する情報を出力させてもよい。例えば、通信部720は、対象者が操作すべき受付部INの箇所に対応するディスプレイDの箇所を強調表示させてもよい。ディスプレイD、左側カメラL、右側カメラR、上側カメラU、読取部Re、及びスピーカーSの少なくとも1つは、管理装置Cの管理者の操作に応じて動作してもよい。例えば、管理装置Cの管理者の操作に応じて左側カメラL、右側カメラR、及び上側カメラUに対象者の顔画像を撮像させてもよい。また、管理者は、対象者に代わって、受付部IN等を介して受け付ける入力事項を入力してもよい。例えば、管理者は、対象者に代わって、対象者の名前を入力してもよい。また、管理者は、対象者に代わって、対象者の使用言語を選択してもよい。
 [7-3:情報処理装置7の技術的効果]
 第7実施形態における情報処理装置7は、対象者の操作を補助するので、情報処理装置7を利用したい対象者の滞留を抑制することができる。
 [8:第8実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第8実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第8実施形態が適用された情報処理装置8を用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第8実施形態について説明する。
 図示を省略するが、情報処理装置8は、所望の場合に有効となる移動手段Tを備える。移動手段Tは、平面の移動に適した手段であってもよい。移動手段Tは、1以上の車輪であってもよい。移動手段Tは、ベルトコンベヤであってもよい。
 [8-1:情報処理装置8の構成]
 図16に示すように、第8実施形態における情報処理装置8は、第2実施形態における情報処理装置2から第7実施形態における情報処理装置7と同様に、演算装置21と、記憶装置22とを備えている。更に、第8実施形態における情報処理装置8は、第2実施形態における情報処理装置2から第7実施形態における情報処理装置7と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置8は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第8実施形態における情報処理装置8は、演算装置21が自走制御部821を更に備える点で、第2実施形態における情報処理装置2から第7実施形態における情報処理装置7と異なる。情報処理装置8のその他の特徴は、第2実施形態における情報処理装置2から第7実施形態における情報処理装置7の少なくとも1つのその他の特徴と同一であってもよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 [8-2:情報処理装置8が行う情報処理動作]
 続いて、図17を参照しながら、第8実施形態における情報処理装置8が行う情報処理動作について説明する。図17は、第8実施形態における情報処理装置8が行う情報処理動作の流れを示すフローチャートである。
 図17に示すように、自走制御部821は、所望の場合か否かを監視している(ステップS80)。所望の場合は、場所を移動し、移動した場所での誘導動作、移動による誘導動作等が必要な場合であってもよい。所望の場合は、例えば、災害時等、情報処理装置8が設置されている場所において、対象者の安全を確保すべき場合を挙げることができる。所望の場合は、管理装置Cから送信されてもよい。管理装置Cは、災害の発生した際等に、災害の発生個所、人混み等を検知し、情報処理装置8に情報を送信してもよい。
 所望の場合(ステップS80、Yes)、移動手段Tは有効となる(ステップS81)。管理装置Cから所望の場合を示す情報を受信した場合、自走制御部821による移動手段Tの動作の制御が有効になってもよい。
 自走制御部821は、情報処理装置8を、所望の場合に移動手段Tにより自走させる。自走制御部821は、管理装置Cから動作指示を受けてもよい。すなわち、情報処理装置8は、自走制御部821を介し、管理装置Cにより遠隔操作されてもよい。
 情報処理装置8は、移動手段Tにより、誘導が必要である対象者のところまで移動してもよい。ディスプレイD及びスピーカーSの少なくとも一方からの出力により、対象者を誘導してもよい。最適な避難経路の案内を出力してもよい。
 情報処理装置8は、込み合った場所を報知してもよい。立ち入ると危険である場所、近づくことを避けた方がよい場所の報知であってもよい。対象者を誘導してもよい。対象者が立ち入ると危険な場所の前に移動し、入場禁止を報知してもよい。
 出力制御部815は、ディスプレイDに最適な避難経路を出力させてもよい。情報処理装置8は、移動手段Tを用いて、情報処理装置8の付近の対象者の近くまで移動し、最適な避難経路を対象者に対して報知してもよい。
 [8-3:情報処理装置8の技術的効果]
 第8実施形態における情報処理装置8は、適切な場所において、必要な情報を報知することができる。
 [9:第9実施形態]
 続いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第9実施形態について説明する。以下では、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第9実施形態が適用された情報処理システムSYSを用いて、情報処理装置、情報処理システム、情報処理方法、及び記録媒体の第9実施形態について説明する。
 [9-1:情報処理システムSYSの構成]
 図18に示すように、情報処理システムSYSは、複数の情報処理装置9と、管理装置Cとを含んでいる。情報処理装置9は、情報処理装置1から情報処理装置8の何れかと同一であってもよい。管理装置Cは、混雑判定部C1と、通信部C2とを備えていてもよい。図18は、情報処理装置9a、情報処理装置9b、及び情報処理装置9cを含んでおり、各々がディスプレイD、及び監視カメラMを備えている。
 [9-2:情報処理システムSYSが行う情報処理動作]
 混雑判定部C1は、混雑情報を算出してもよい。混雑情報は、情報処理装置9毎の情報処理装置9付近の混雑具合を示す情報である。混雑判定部C1は、監視カメラMが撮像する撮像画像に含まれる対象者の検出数から混雑情報を算出してもよい。混雑判定部C1は、監視カメラMが撮像する撮像画像に含まれる対象者の顔部の検出数から混雑情報を算出してもよい。混雑判定部C1は、監視カメラMが撮像した撮像画像に含まれる対象者の数が所定超過の場合、当該情報処理装置(例えば情報処理装置9a)を利用しようとしている対象者を他の情報処理装置9に誘導することが好ましいと判断してもよい。また、混雑判定部C1は、監視カメラMが撮像した撮像画像に含まれる対象者の数が所定未満の場合、当該監視カメラMを備える情報処理装置(例えば情報処理装置9c)に、情報処理装置9を利用したい対象者を誘導することが好ましいと判断してもよい。通信部C2は、情報処理装置9の各々に、監視カメラMが撮像した撮像画像に含まれる対象者の数が所定超過の情報処理装置9を示す情報、及び、監視カメラMに映る対象者の数が所定未満の情報処理装置9を示す情報を出力してもよい。
 例えば、混雑判定部C1は、監視カメラMaが撮像した撮像画像に含まれる対象者の数が所定超過であり、当該情報処理装置9aを利用しようとしている対象者を他の情報処理装置9に誘導することが好ましいと判断してもよい。また、混雑判定部C1は、監視カメラMcが撮像した撮像画像に含まれる対象者の数が所定未満であり、当該情報処理装置9cに情報処理装置9aを利用したい対象者を誘導することが好ましいと判断してもよい。この場合、通信部C2は、少なくとも情報処理装置9a、及び情報処理装置9cに、撮像画像に含まれる対象者の数が所定超過の情報処理装置9aを示す情報、及び、監視カメラMに映る対象者の数が所定未満の情報処理装置9cを示す情報を出力してもよい。情報処理装置9aは、ディスプレイDaに、混雑していない情報処理装置9cに対象者を誘導する情報を表示させてもよい。情報処理装置9cは、ディスプレイDcに、自身が混雑していないことを示す情報を表示させてもよい。
 [9-3:情報処理システムSYSの技術的効果]
 例えば、飛行機が着陸した後、多数の対象者が情報処理装置9を利用する。このような場合において、第9実施形態における情報処理システムSYSは、情報処理装置9前の混雑度合いを算出し、複数の情報処理装置9間で混雑度合いを連携し、情報処理装置9が多く並んでいる情報処理装置9は、対象者が並んでいない情報処理装置9の場所を対象者、及び管理者に出力することで、対象者を待ち時間を少なくすることができる。
 [10:付記]
 以上説明した実施形態に関して、更に以下の付記を開示する。
 [付記1]
 ディスプレイと、
 前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、
 前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、
 前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、
 前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラと
 を備える情報処理装置。
 [付記2]
 前記左側カメラの左側に設けられ、前記対象以外による前記ディスプレイの表示内容の目視、並びに、前記右側カメラが撮像する撮像画像及び前記上側カメラが撮像する撮像画像への前記対象以外の写り込みを防ぐ左側板部材と、
 前記右側カメラの右側に設けられ、前記対象以外による前記ディスプレイの表示内容の目視、並びに、前記左側カメラが撮像する撮像画像及び前記上側カメラが撮像する撮像画像への前記対象以外の写り込みを防ぐ右側板部材と、
 前記ディスプレイの下側に設けられ、当該ディスプレイに対向する前記対象に向けて突き出し、上面に読み取り機を有する天板と、
 前記ディスプレイと前記対象との間の空間における前記対象の指示動作を検出し、当該情報処理装置に対する指示の入力を受け付ける受付手段と、
 前記対象に向けて音声を出力するスピーカーと、
 前記対象が発する音声を入力するマイクと
 を更に備える付記1に記載の情報処理装置。
 [付記3]
  前記対象の顔部の高さを判定し、
  前記対象の顔部の高さが所定の高さよりも低い場合は、前記左側カメラ、及び前記右側カメラに、前記対象の顔の撮像を指示し、
  前記対象の顔部の高さが所定の高さよりも高い場合は、前記上側カメラに、前記対象の顔の撮像を指示する撮像指示手段を更に備える
 付記1又は2に記載の情報処理装置。
 [付記4]
 前記天板は、水平面に対して、所定以上傾いて設けられる
 付記2に記載の情報処理装置。
 [付記5]
 前記対象の顔部の高さを判定し、前記天板の高さ、角度、及び奥行きの少なくとも1つを変更する変更手段を更に備える
 付記2又は4に記載の情報処理装置。
 [付記6]
 前記対象の顔部の高さを判定し、前記ディスプレイ、前記左側カメラ、前記右側カメラ、前記上側カメラ、及び前記監視カメラの少なくとも1つの、高さ、角度、及び奥行きの少なくとも1つを変更する変更手段を更に備える
 付記1又は2に記載の情報処理装置。
 [付記7]
 前記対象の所有物が当該情報処理装置を含む所定範囲内に所定時間を超えて存在すると判定した場合、前記対象を示す情報、及び前記対象の所有物を示す情報を出力する所有物情報出力手段を更に備える
 付記2に記載の情報処理装置。
 [付記8]
 所定の匂いを検出する匂いセンサーと、
 前記匂いセンサーが前記所定の匂いを検出した場合、その旨を示す情報を出力する匂い情報出力手段と
 を更に備える付記1又は2に記載の情報処理装置。
 [付記9]
 前記対象が不審な人物か否かを判定する判定手段と、
 前記判定手段が不審な人物と判定した場合、前記匂いセンサーの動作を有効にする匂いセンサー制御手段と
 を更に備える付記8に記載の情報処理装置。
 [付記10]
 前記対象が不審な人物か否かを判定する判定手段と、
 前記判定手段が不審な人物と判定した場合、気体を出力する気体出力手段と
 を更に備える付記8に記載の情報処理装置。
 [付記11]
 前記対象が当該情報処理装置を含む所定範囲内に所定時間を超えて存在すると判定した場合、当該対象、及び当該情報処理装置の少なくとも一方の動作を補助する補助手段を更に備える
 付記1又は2に記載の情報処理装置。
 [付記12]
 所望の場合に有効となる移動手段を更に備え、
 前記所望の場合に前記移動手段により自走する
 付記1又は2に記載の情報処理装置。
 [付記13]
  ディスプレイと、
  前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、
  前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、
  前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、
  前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラと
 を備える情報処理装置を複数含み、
 前記監視カメラが撮像した撮像画像に含まれる対象の数が所定超過の情報処理装置に備わる前記ディスプレイは、前記監視カメラが撮像した撮像画像に含まれる対象の数が所定未満の情報処理装置を示す情報を出力する
 情報処理システム。
 [付記14]
 対象の顔部の高さを判定し、
 前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、
 前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する
 情報処理方法。
 [付記15]
 コンピュータに、
 対象の顔部の高さを判定し、
 前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、
 前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する
 情報処理方法を実行させるためのコンピュータプログラムが記録された記録媒体。
 [付記16]
 前記判定は、前記左側カメラ、前記右側カメラ、前記上側カメラ、前記監視カメラ、前記読み取り機、前記受付手段、及び前記マイクの少なくとも1つから取得した情報に基づく
 付記3,5~7,及び9~11の何れか1項に記載の情報処理装置。
 この開示は、請求の範囲及び明細書全体から読み取るこのできる技術的思想に反しない範囲で適宜変更可能である。そのような変更を伴う情報処理装置、情報処理システム、情報処理方法、及び記録媒体もまた、この開示の技術的思想に含まれる。
1,2,3,4,6,7,8,9 情報処理装置
D ディスプレイ
L 左側カメラ
R 右側カメラ
U 上側カメラ
M 監視カメラ
LB 左側板部材
RB 右側板部材
UB 天板
Re 読取部
IN 受付部
S スピーカー
Mic マイク
F フィルタ
211 高さ判定部
212 撮像指示部
313,413 変更部
514 所有物存在判定部
515,615,815 出力制御部
Sen 匂いセンサー
Air 気体出力部
616 不審者判定部
617 匂いセンサー制御部
618 気体出力制御部
719 人物存在判定部
720 通信部
821 自走制御部
T 移動手段
SYS 情報処理システム
C 管理装置
C1 混雑判定部
C2 通信部

Claims (15)

  1.  ディスプレイと、
     前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、
     前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、
     前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、
     前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラと
     を備える情報処理装置。
  2.  前記左側カメラの左側に設けられ、前記対象以外による前記ディスプレイの表示内容の目視、並びに、前記右側カメラが撮像する撮像画像及び前記上側カメラが撮像する撮像画像への前記対象以外の写り込みを防ぐ左側板部材と、
     前記右側カメラの右側に設けられ、前記対象以外による前記ディスプレイの表示内容の目視、並びに、前記左側カメラが撮像する撮像画像及び前記上側カメラが撮像する撮像画像への前記対象以外の写り込みを防ぐ右側板部材と、
     前記ディスプレイの下側に設けられ、当該ディスプレイに対向する前記対象に向けて突き出し、上面に読み取り機を有する天板と、
     前記ディスプレイと前記対象との間の空間における前記対象の指示動作を検出し、当該情報処理装置に対する指示の入力を受け付ける受付手段と、
     前記対象に向けて音声を出力するスピーカーと、
     前記対象が発する音声を入力するマイクと
     を更に備える請求項1に記載の情報処理装置。
  3.   前記対象の顔部の高さを判定し、
      前記対象の顔部の高さが所定の高さよりも低い場合は、前記左側カメラ、及び前記右側カメラに、前記対象の顔の撮像を指示し、
      前記対象の顔部の高さが所定の高さよりも高い場合は、前記上側カメラに、前記対象の顔の撮像を指示する撮像指示手段を更に備える
     請求項1又は2に記載の情報処理装置。
  4.  前記天板は、水平面に対して、所定以上傾いて設けられる
     請求項2に記載の情報処理装置。
  5.  前記対象の顔部の高さを判定し、前記天板の高さ、角度、及び奥行きの少なくとも1つを変更する変更手段を更に備える
     請求項2又は4に記載の情報処理装置。
  6.  前記対象の顔部の高さを判定し、前記ディスプレイ、前記左側カメラ、前記右側カメラ、前記上側カメラ、及び前記監視カメラの少なくとも1つの、高さ、角度、及び奥行きの少なくとも1つを変更する変更手段を更に備える
     請求項1又は2に記載の情報処理装置。
  7.  前記対象の所有物が当該情報処理装置を含む所定範囲内に所定時間を超えて存在すると判定した場合、前記対象を示す情報、及び前記対象の所有物を示す情報を出力する所有物情報出力手段を更に備える
     請求項2に記載の情報処理装置。
  8.  所定の匂いを検出する匂いセンサーと、
     前記匂いセンサーが前記所定の匂いを検出した場合、その旨を示す情報を出力する匂い情報出力手段と
     を更に備える請求項1又は2に記載の情報処理装置。
  9.  前記対象が不審な人物か否かを判定する判定手段と、
     前記判定手段が不審な人物と判定した場合、前記匂いセンサーの動作を有効にする匂いセンサー制御手段と
     を更に備える請求項8に記載の情報処理装置。
  10.  前記対象が不審な人物か否かを判定する判定手段と、
     前記判定手段が不審な人物と判定した場合、気体を出力する気体出力手段と
     を更に備える請求項8に記載の情報処理装置。
  11.  前記対象が当該情報処理装置を含む所定範囲内に所定時間を超えて存在すると判定した場合、当該対象、及び当該情報処理装置の少なくとも一方の動作を補助する補助手段を更に備える
     請求項1又は2に記載の情報処理装置。
  12.  所望の場合に有効となる移動手段を更に備え、
     前記所望の場合に前記移動手段により自走する
     請求項1又は2に記載の情報処理装置。
  13.   ディスプレイと、
      前記ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラと、
      前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラと、
      前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラと、
      前記ディスプレイの上側に設けられ、前記対象を上側から監視する監視カメラと
     を備える情報処理装置を複数含み、
     前記監視カメラが撮像した撮像画像に含まれる対象の数が所定超過の情報処理装置に備わる前記ディスプレイは、前記監視カメラが撮像した撮像画像に含まれる対象の数が所定未満の情報処理装置を示す情報を出力する
     情報処理システム。
  14.  対象の顔部の高さを判定し、
     前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、
     前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する
     情報処理方法。
  15.  コンピュータに、
     対象の顔部の高さを判定し、
     前記対象の顔部の高さが所定の高さよりも低い場合は、ディスプレイの左側に設けられ、対象を左側から撮像する左側カメラ、及び前記ディスプレイの右側に設けられ、前記対象を右側から撮像する右側カメラに、前記対象の顔の撮像を指示し、
     前記対象の顔部の高さが所定の高さよりも高い場合は、前記ディスプレイの上側に設けられ、前記対象を上側から撮像する上側カメラに、前記対象の顔の撮像を指示する
     情報処理方法を実行させるためのコンピュータプログラムが記録された記録媒体。
PCT/JP2022/039310 2022-10-21 2022-10-21 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体 WO2024084687A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039310 WO2024084687A1 (ja) 2022-10-21 2022-10-21 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039310 WO2024084687A1 (ja) 2022-10-21 2022-10-21 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2024084687A1 true WO2024084687A1 (ja) 2024-04-25

Family

ID=90737238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039310 WO2024084687A1 (ja) 2022-10-21 2022-10-21 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体

Country Status (1)

Country Link
WO (1) WO2024084687A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178258A (ja) * 2002-11-27 2004-06-24 Mitsubishi Heavy Ind Ltd 港湾セキュリティシステム
JP2007516503A (ja) * 2003-05-27 2007-06-21 ハネウェル・インターナショナル・インコーポレーテッド 3次元モデリングを使用した顔識別認証
WO2020075308A1 (ja) * 2018-10-12 2020-04-16 日本電気株式会社 情報処理装置
WO2021166062A1 (ja) * 2020-02-18 2021-08-26 日本電気株式会社 ゲート装置、ゲート装置の制御方法及び記憶媒体
WO2022044086A1 (ja) * 2020-08-24 2022-03-03 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178258A (ja) * 2002-11-27 2004-06-24 Mitsubishi Heavy Ind Ltd 港湾セキュリティシステム
JP2007516503A (ja) * 2003-05-27 2007-06-21 ハネウェル・インターナショナル・インコーポレーテッド 3次元モデリングを使用した顔識別認証
WO2020075308A1 (ja) * 2018-10-12 2020-04-16 日本電気株式会社 情報処理装置
WO2021166062A1 (ja) * 2020-02-18 2021-08-26 日本電気株式会社 ゲート装置、ゲート装置の制御方法及び記憶媒体
WO2022044086A1 (ja) * 2020-08-24 2022-03-03 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Similar Documents

Publication Publication Date Title
JP6993124B2 (ja) 顔照合装置及び顔照合方法
ES2822293T3 (es) Dispositivo para el control del paso de personas
JP6464365B2 (ja) ゲート装置
JPWO2020075307A1 (ja) 装置、方法及びプログラム
JP6492296B2 (ja) ゲート装置、および、ゲート装置の配置構造
JP7494891B2 (ja) 情報処理装置
JP2016053896A (ja) ゲートシステムおよびゲート通過の制御方法
JP2006236244A (ja) 顔認証装置および入退場管理装置
JP2011204145A (ja) 移動装置、移動方法およびプログラム
US20210144009A1 (en) Device with biometric system
JP7006804B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008117264A (ja) 不正通過者検出装置及びこれを利用した不正通過者録画システム
CN112947402B (zh) 控制系统、控制方法及程序
JP2019215840A (ja) 案内システム
KR20160028538A (ko) 탑승자 생체인식 및 이동통신단말기의 인증을 이용한 장애인전용 주차 관리시스템
WO2024084687A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体
JP2008123186A (ja) 不正通過者検出装置及びこれを利用した不正通過者録画システム
WO2022003801A1 (ja) ゲート装置、ゲートシステム、ゲート制御方法
WO2021166062A1 (ja) ゲート装置、ゲート装置の制御方法及び記憶媒体
US20220358804A1 (en) Gate device, authentication system, gate control method, and storage medium
US20220335766A1 (en) Information processing apparatus, information processing method, and storage medium
WO2023152975A1 (ja) 表示制御装置、表示制御方法、及び、記録媒体
JP7476995B2 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2023162041A1 (ja) サーバ装置、システム、サーバ装置の制御方法及び記憶媒体
JP7108243B1 (ja) システム、サーバ装置、サーバ装置の制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22962794

Country of ref document: EP

Kind code of ref document: A1