WO2024157320A1 - 情報処理システム、情報処理方法、及び記録媒体 - Google Patents

情報処理システム、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2024157320A1
WO2024157320A1 PCT/JP2023/001912 JP2023001912W WO2024157320A1 WO 2024157320 A1 WO2024157320 A1 WO 2024157320A1 JP 2023001912 W JP2023001912 W JP 2023001912W WO 2024157320 A1 WO2024157320 A1 WO 2024157320A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information processing
processing system
target
height
Prior art date
Application number
PCT/JP2023/001912
Other languages
English (en)
French (fr)
Inventor
諒 山下部
彰斗 菅
亮磨 大網
政人 佐々木
航介 吉見
恵 橋本
真二 大湊
善裕 梶木
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2023/001912 priority Critical patent/WO2024157320A1/ja
Publication of WO2024157320A1 publication Critical patent/WO2024157320A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Definitions

  • This disclosure relates to the technical fields of information processing systems, information processing methods, and recording media.
  • Patent Document 1 discloses a technology that automatically controls the power supply of a television or stereo by linking the user's face with the device.
  • Patent Document 2 discloses a technology that provides services that take into account the user's preferences by storing the device operated by the user, the operation content, and the time of operation.
  • Patent Document 3 discloses a technology that determines the entry and exit status of a user in a building such as an apartment building, and controls the front door lock, lighting fixtures, air conditioning equipment, etc.
  • One aspect of the information processing system disclosed herein includes an acquisition means for acquiring biometric information of a target, an identification means for performing authentication processing using the biometric information and identifying the target, and a control means for executing control of the device based on history information stored in association with the identified target and the device's usage history.
  • One aspect of the information processing method disclosed herein involves at least one computer acquiring biometric information of a target, performing authentication processing using the biometric information, identifying the target, and associating the identified target with a usage history of the device and executing control over the device based on stored history information.
  • a computer program is recorded on at least one computer to execute an information processing method that acquires biometric information of a target, performs authentication processing using the biometric information, identifies the target, and controls the device based on history information that is stored by associating the identified target with a usage history of the device.
  • FIG. 1 is a block diagram showing a hardware configuration of an information processing system according to a first embodiment.
  • 1 is a block diagram showing a functional configuration of an information processing system according to a first embodiment.
  • 5 is a flowchart showing the flow of a storage operation in the information processing system according to the first embodiment.
  • 4 is a flowchart showing a flow of a control operation in the information processing system according to the first embodiment.
  • FIG. 11 is a block diagram showing a functional configuration of an information processing system according to a second embodiment.
  • 10 is a flowchart showing a flow of a control operation in an information processing system according to a second embodiment.
  • 13 is a flowchart showing a flow of a control operation in an information processing system according to a third embodiment.
  • FIG. 13 is a block diagram showing a functional configuration of an information processing system according to a fourth embodiment. 13 is a flowchart showing a flow of a control operation in an information processing system according to a fourth embodiment.
  • FIG. 13 is a block diagram showing a functional configuration of an information processing system according to a fifth embodiment. 13 is a flowchart showing a flow of a control operation in an information processing system according to a fifth embodiment.
  • a block diagram showing the functional configuration of an information processing system according to a sixth embodiment. 13 is a flowchart showing a flow of an image output operation in an information processing system according to a sixth embodiment.
  • FIG. 23 is a flowchart showing a flow of a height information output operation in the information processing system according to the seventh embodiment.
  • FIG. 23 is a plan view showing an example of displaying height information in the information processing system according to the seventh embodiment.
  • a block diagram showing the functional configuration of an information processing system according to an eighth embodiment. 13 is a flowchart showing a flow of an entry permission operation in an information processing system according to the eighth embodiment.
  • FIG. 1 An information processing system according to a first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to a first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to a first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to a first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to a first embodiment will be described with reference to FIGS. 1 to 4.
  • Fig. 1 is a block diagram showing the hardware configuration of the information processing system according to the first embodiment.
  • the information processing system 10 includes a processor 11, a RAM (Random Access Memory) 12, and a ROM (Read Only Memory) 13.
  • the information processing system 10 may further include a storage device 14, an input device 15, an output device 16, and a camera 18.
  • the above-mentioned processor 11, RAM 12, ROM 13, storage device 14, input device 15, output device 16, and camera 18 are connected via a data bus 17.
  • the processor 11 reads a computer program.
  • the processor 11 is configured to read a computer program stored in at least one of the RAM 12, the ROM 13, and the storage device 14.
  • the processor 11 may read a computer program stored in a computer-readable storage medium using a storage medium reading device (not shown).
  • the processor 11 may obtain (i.e., read) a computer program from a device (not shown) located outside the information processing system 10 via a network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15, and the output device 16 by executing the computer program that the processor 11 reads.
  • a functional block that executes control related to the device based on the history information is realized within the processor 11.
  • the processor 11 may function as a controller that executes each control in the information processing system 10.
  • the processor 11 may be configured as, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a quantum processor.
  • the processor 11 may be configured as one of these, or may be configured to use multiple processors in parallel.
  • RAM 12 temporarily stores computer programs executed by processor 11.
  • RAM 12 temporarily stores data that processor 11 uses temporarily while processor 11 is executing a computer program.
  • RAM 12 may be, for example, a D-RAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). Also, other types of volatile memory may be used instead of RAM 12.
  • ROM 13 stores computer programs executed by processor 11. ROM 13 may also store other fixed data. ROM 13 may be, for example, a P-ROM (Programmable Read Only Memory) or an EPROM (Erasable Read Only Memory). Also, other types of non-volatile memory may be used instead of ROM 13.
  • the storage device 14 stores data that the information processing system 10 stores long-term.
  • the storage device 14 may operate as a temporary storage device for the processor 11.
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from a user of the information processing system 10.
  • the input device 15 may include, for example, at least one of a keyboard, a mouse, and a touch panel.
  • the input device 15 may be configured as a mobile terminal such as a smartphone or a tablet.
  • the input device 15 may be, for example, a device that includes a microphone and is capable of voice input.
  • the output device 16 is a device that outputs information related to the information processing system 10 to the outside.
  • the output device 16 may be a display device (e.g., a display) that can display information related to the information processing system 10.
  • the output device 16 may also be a speaker or the like that can output information related to the information processing system 10 as audio.
  • the output device 16 may be configured as a mobile terminal such as a smartphone or a tablet.
  • the output device 16 may also be a device that outputs information in a format other than an image.
  • the output device 16 may be a speaker that outputs information related to the information processing system 10 as audio.
  • Camera 18 captures images handled by information processing system 10. Camera 18 captures images of a target, for example.
  • the "target” here may include not only humans, but also animals such as dogs and cats, robots, etc. Multiple cameras 18 may be provided. In that case, the cameras 18 may be of different types.
  • camera 18 may include a visible light camera that captures the face of the target, and a near-infrared camera that captures the iris of the target.
  • the information processing system 10 may be configured to include only the processor 11, RAM 12, and ROM 13 described above, and the other components (i.e., the storage device 14, the input device 15, the output device 16, and the camera 17) may be provided in an external device connected to the information processing system 10.
  • the other components i.e., the storage device 14, the input device 15, the output device 16, and the camera 17
  • some of the calculation functions of the information processing system 10 may be realized by an external device (e.g., an external server or cloud, etc.).
  • Fig. 2 is a block diagram showing the functional configuration of the information processing system according to the first embodiment.
  • the information processing system 10 is configured to include a biometric information acquisition unit 110, a user identification unit 120, and a control unit 140 as components for realizing its functions.
  • Each of the biometric information acquisition unit 110, the user identification unit 120, and the control unit 140 may be a processing block realized by, for example, the above-mentioned processor 11 (see FIG. 1).
  • the biometric information acquisition unit 110 is configured to be able to acquire biometric information of a target.
  • biometric information acquisition unit 110 may use the camera 18 to acquire biometric information related to the target's face, or biometric information related to the iris.
  • the biometric information acquisition unit 110 may use a scanner to acquire biometric information related to the target's fingerprint.
  • the biometric information acquisition unit 110 may also acquire multiple types of biometric information.
  • the user identification unit 120 is configured to perform authentication processing using the biometric information acquired by the biometric information acquisition unit 110, and to be able to identify the target. That is, the user identification unit 120 uses authentication processing to identify which pre-registered user the target is.
  • the user identification unit 120 identifies the user by matching the biometric information acquired by the biometric information acquisition unit 110 with the biometric information of a registered user that has been stored in advance. For example, the user identification unit 120 identifies the user by performing face authentication, iris authentication, fingerprint authentication, or multi-modal authentication.
  • the control unit 140 is configured to be able to execute control related to the device based on the history information.
  • the history information is information that associates the target identified by the user identification unit 120 with the use history of the device by that target.
  • the history information may be, for example, information that associates a unique ID indicating the identified user with the operating time of the device and various parameters (for example, parameters indicating strength, mode, etc.).
  • the history information may also include the use history of multiple devices.
  • the history information may be information that associates user A with the use history of device B, device C, and device D by user A.
  • the history information may be information stored in a device external to the information processing system 10.
  • control unit 140 may be configured to communicate with the external device in which the history information is stored and read out the history information as appropriate.
  • the history information may be stored in a storage device or the like provided in the information processing system 10 (see the second embodiment described later).
  • the "device” according to this embodiment is a device used by the subject, and is typically a device installed in the subject's residence.
  • the device may be a television, refrigerator, air conditioner, vacuum cleaner, computer, audio player, beauty appliance, etc. in the subject's home.
  • the device according to this embodiment may also include facilities used by the subject.
  • the device may be a bath, a swimming pool, a running machine, etc. Note that the above-mentioned devices are merely examples, and the device according to this embodiment may include other devices and facilities.
  • control unit 140 may execute control to operate the device in the same way as the usage history included in the history information. More specifically, the control unit 140 may execute control to operate the device at the same time as the past operating times. Furthermore, the control unit 140 may execute control to operate the device with the same parameters as in the past. Note that "control related to the device” may be control to directly control the operation of the device as described above, or control to output information encouraging the subject to use the device. For example, the control unit 140 may execute control to display an image encouraging the subject to use a swimming pool or a running machine on a display in the subject's room.
  • Fig. 3 is a flowchart showing the flow of a storage operation in the information processing system according to the first embodiment.
  • the biometric information acquisition unit 110 first acquires biometric information from a target (step S101). Then, the user identification unit 120 executes authentication processing using the biometric information acquired by the biometric information acquisition unit 110 (step S102).
  • the user identification unit 120 identifies the user based on the result of the authentication process (step S103). Then, the information processing system 10 stores history information that associates the identified user with the device usage history (step S104). As already explained, the history information may be stored by a device external to the information processing system. Alternatively, the history information may be stored by a storage device or the like provided in the information processing system 10.
  • the above-described series of processes may be executed repeatedly. This may allow more history information to be accumulated. In other words, history information relating to more users and more devices may be accumulated.
  • Fig. 4 is a flowchart showing the flow of control operations in the information processing system according to the first embodiment.
  • the biometric information acquisition unit 110 first acquires biometric information from a target (step S151). Then, the user identification unit 120 executes authentication processing using the biometric information acquired by the biometric information acquisition unit 110 (step S152).
  • the user identification unit 120 identifies the user based on the result of the authentication process (step S153). Then, the control unit 140 reads out history information corresponding to the identified user (step S154). The control unit 140 executes control related to the device based on the read out history information (step S155).
  • control unit 140 may execute control corresponding to each of the multiple devices. In other words, the control unit 140 may execute multiple types of control based on the history information.
  • a target is identified by authentication processing using biometric information, and control of the device is executed according to the usage history of the device of the identified target.
  • control of the device is executed according to the usage history of the device of the identified target.
  • a device that the target normally uses can be operated while taking into account the preferences of the target. It is also possible to suggest devices that the target should use.
  • the information processing system 10 according to the second embodiment will be described with reference to Fig. 5 and Fig. 6.
  • the second embodiment differs from the first embodiment described above only in some configurations and operations, and other parts may be the same as the first embodiment. Therefore, hereinafter, parts that differ from the first embodiment already described will be described in detail, and other overlapping parts will be omitted as appropriate.
  • Fig. 5 is a block diagram showing the functional configuration of the information processing system according to the second embodiment.
  • the same components as those shown in Fig. 2 are denoted by the same reference numerals.
  • the information processing system 10 according to the second embodiment is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, and a control unit 140. That is, the information processing system 10 according to the second embodiment further includes a history information storage unit 130 in addition to the configuration of the first embodiment (see FIG. 2).
  • the history information storage unit 130 may be realized, for example, by the storage device 14 described above.
  • the history information storage unit 130 is configured to be able to store history information. That is, the history information storage unit 130 is configured to be able to store information that associates a target identified by the user identification unit 120 with a device usage history by that target.
  • the history information storage unit 130 may have a function of collecting information regarding the user's device usage history. For example, the history information storage unit 130 may collect information regarding the usage history by communicating with each of the devices.
  • the history information storage unit 130 is also configured to be able to store the absence time of the target.
  • the "absence time” here refers to the time when the target is not present at the location where the device is installed.
  • the absence time may be the time from when the target leaves the location where the device is installed until when the target returns to the location where the device is installed.
  • the information regarding the absence time may include information regarding the time when the target left the location where the device is installed and the time when the target returned.
  • the location where the device is installed examples include the room where the device is installed, the house where the device is installed, and the apartment building where the device is installed.
  • the absence time may be the time from when the subject leaves the room to when he or she enters the room.
  • the information on the absence time may include information on the subject's departure time and entry time.
  • the location where the device is installed is a house (home)
  • the absence time may be the time from when the subject leaves the house to when he or she returns home.
  • the information on the absence time may include information on the subject's departure time and return time.
  • the absence time may be the time from when the subject leaves the entrance of the apartment building (for example, a shared entrance with an auto-lock) to when he or she returns to the entrance.
  • the information on the absence time may include information on the subject's departure time and entry time.
  • Information regarding the subject's absence time may be estimated using an authentication process that uses biometric information.
  • the absence time may be estimated using the time at which the subject is authenticated as it leaves the location where the device is installed and the time at which the subject is authenticated as it enters the location where the device is installed.
  • Fig. 6 is a flowchart showing the flow of control operations in the information processing system according to the second embodiment.
  • the same processes as those shown in Fig. 2 are denoted by the same reference numerals.
  • the biometric information acquisition unit 110 first acquires biometric information from a target (step S151). Then, the user identification unit 120 executes authentication processing using the biometric information acquired by the biometric information acquisition unit 110 (step S152).
  • the user identification unit 120 identifies the user based on the result of the authentication process (step S153).
  • the control unit 140 reads out history information and information related to the absence time corresponding to the identified user (step S201). That is, in the second embodiment, the control unit 140 reads out information related to the absence time in addition to the history information.
  • the control unit 140 executes control of the appliances based on the history information read from the history information storage unit 130 and information related to the absence time (step S202). For example, the control unit 140 may control the appliances to operate according to the absence time of the subject. For example, the control unit 140 may control the robot vacuum cleaner to operate during the time when the subject is absent. Alternatively, the control unit 140 may control the appliances not to operate during the time when the subject is absent. For example, the control unit 140 may control the lights and air conditioner not to operate during the time when the subject is absent.
  • control of the device is executed based on the time the target is absent. In this way, it becomes possible to execute control that is preferably executed when the target is absent, or control that is preferably not executed when the target is absent, at a more appropriate timing.
  • the information processing system 10 includes a history information storage unit 130, as in the second embodiment described above.
  • the information processing system 10 does not necessarily have to include a history information storage unit 130, as in the first embodiment (see FIG. 2).
  • the history information may be stored outside the information processing system 10.
  • the information processing system 10 according to the third embodiment will be described with reference to Fig. 7.
  • the third embodiment differs from the first and second embodiments in some operations, and other operations may be the same as those of the first and second embodiments. Therefore, the following will describe in detail the parts that differ from the embodiments already described, and will omit descriptions of other overlapping parts as appropriate.
  • Fig. 7 is a flowchart showing the flow of control operations in the information processing system according to the third embodiment.
  • the biometric information acquisition unit 110 first acquires biometric information from a target at the entrance of a residence (step S301).
  • the biometric information acquisition unit 110 may capture an image of the target using a camera installed at the entrance of an apartment building, for example, and acquire biometric information from the image of the target.
  • the user identification unit 120 executes an authentication process using the biometric information acquired by the biometric information acquisition unit 110 (step S302).
  • the user identification unit 120 also identifies the user based on the result of the authentication process (step S303).
  • control unit 140 reads out the history information corresponding to the identified user from the history information storage unit 130 (step S304).
  • the control unit 140 then executes control of the devices in the target room based on the read history information (step S305). That is, in the third embodiment, control of the devices in the target room is started when the target is at the entrance of the residence.
  • control unit 140 executes control to start supplying hot water to the bathtub in the room of the user identified in the authentication process. By controlling in this way, it is possible to fill the bathtub with hot water more quickly compared to starting the supply of hot water after the subject returns to the room.
  • the control unit 140 also executes control to start operating the air conditioner in the room of the user identified in the authentication process. By controlling in this way, it is possible to adjust the room temperature to an appropriate state by the time the subject returns to the room.
  • control of devices in the target residence is started according to the authentication result at the entrance to the residence. In this way, control is started when the target returns home, making it possible to execute control of the devices more efficiently.
  • the information processing system 10 according to the fourth embodiment will be described with reference to Fig. 8 and Fig. 9.
  • the fourth embodiment differs from the first to third embodiments in some configurations and operations, and other parts may be the same as the first to third embodiments. Therefore, hereinafter, the parts that differ from the embodiments already described will be described in detail, and the explanation of other overlapping parts will be omitted as appropriate.
  • Fig. 8 is a block diagram showing the functional configuration of the information processing system according to the fourth embodiment.
  • the same components as those shown in Fig. 5 are denoted by the same reference numerals.
  • the information processing system 10 according to the fourth embodiment is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, a control unit 140, and a skin condition estimation unit 150. That is, the information processing system 10 according to the fourth embodiment further includes a skin condition estimation unit 150 in addition to the configuration of the second embodiment (see FIG. 5).
  • the skin condition estimation unit 150 may be a processing block realized by, for example, the above-mentioned processor 11 (see FIG. 1).
  • the skin condition estimation unit 150 is configured to be able to estimate the skin condition of the target based on the biometric information acquired by the biometric information acquisition unit 110.
  • the biometric information used by the skin condition estimation unit 150 to estimate the skin condition and the biometric information used by the user identification unit 120 for the authentication process may be different biometric information.
  • the skin condition estimation unit 150 may estimate the skin condition from an image of the target's face, while the user identification unit 120 may perform the authentication process using an iris image of the target.
  • existing technologies can be appropriately adopted as the specific method for estimating the skin condition, a detailed description thereof will be omitted here.
  • Fig. 9 is a flowchart showing the flow of control operations in the information processing system according to the fourth embodiment.
  • the same processes as those shown in Fig. 2 are denoted by the same reference numerals.
  • the biometric information acquisition unit 110 first acquires biometric information from a target (step S151). Then, the user identification unit 120 executes authentication processing using the biometric information acquired by the biometric information acquisition unit 110 (step S152).
  • the user identification unit 120 identifies the user based on the result of the authentication process (step S153).
  • the skin condition estimation unit 150 estimates the skin condition of the target (step S401). Note that the process of estimating the skin condition may be executed before the authentication process. That is, the process of step S401 may be executed before the process of step S152 or S153.
  • control unit 140 reads out the history information corresponding to the identified user from the history information storage unit 130 (step S154).
  • the control unit 140 executes control of the device based on the read out history information and the estimated skin condition (step S402).
  • the control unit 140 may change the operating parameters of the device based on the target's skin condition. For example, the control unit 140 may change the parameters of a facial beauty device or a shaver based on the target's skin condition.
  • control of the device is performed taking into account the skin condition of the subject. In this way, control according to the skin condition of the subject can contribute to improving the skin quality of the subject.
  • the information processing system 10 according to the fifth embodiment will be described with reference to Fig. 10 and Fig. 11.
  • the fifth embodiment differs from the first to fourth embodiments in some configurations and operations, and other parts may be the same as the first to fourth embodiments. Therefore, hereinafter, parts that differ from the embodiments already described will be described in detail, and other overlapping parts will be omitted as appropriate.
  • Fig. 10 is a block diagram showing the functional configuration of the information processing system according to the fifth embodiment.
  • the same components as those shown in Fig. 5 are denoted by the same reference numerals.
  • the information processing system 10 is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, a control unit 140, and a body type estimation unit 160. That is, the information processing system 10 according to the fifth embodiment further includes a body type estimation unit 160 in addition to the configuration of the second embodiment (see FIG. 5).
  • the body type estimation unit 160 may be a processing block realized by, for example, the above-mentioned processor 11 (see FIG. 1).
  • the body type estimation unit 160 is configured to be able to estimate the body type of the subject based on the biometric information acquired by the biometric information acquisition unit 110.
  • the biometric information used by the body type estimation unit 160 to estimate the body type and the biometric information used by the user identification unit 120 for the authentication process may be different.
  • the body type estimation unit 160 may estimate the skin condition from an image of the subject's whole body, while the user identification unit 120 may perform the authentication process using an image of the subject's face.
  • existing technologies can be appropriately adopted as the specific method for estimating body type, a detailed description thereof will be omitted here.
  • Fig. 11 is a flowchart showing the flow of control operations in the information processing system according to the fifth embodiment.
  • Fig. 11 the same processes as those shown in Fig. 2 are denoted by the same reference numerals.
  • the biometric information acquisition unit 110 first acquires biometric information from a target (step S151). Then, the user identification unit 120 executes authentication processing using the biometric information acquired by the biometric information acquisition unit 110 (step S152).
  • the user identification unit 120 identifies the user based on the result of the authentication process (step S153). Then, particularly in the fifth embodiment, the body type estimation unit 160 estimates the body type of the target (step S501). Note that the body type estimation process may be executed before the authentication process. That is, the process of step S501 may be executed before the process of step S152 or S153.
  • the control unit 140 reads out the history information corresponding to the identified user from the history information storage unit 130 (step S154).
  • the control unit 140 executes control related to the device based on the read out history information and the estimated body type (step S402).
  • the control unit 140 may change the operating parameters of the device based on the body type of the target. For example, the control unit 140 may execute control to raise the temperature of the bath when the body type of the target is slightly overweight.
  • the control unit 140 may guide the device based on the body type of the target. For example, when the body type of the target is slightly overweight, the control unit 140 may output information encouraging the target to use a running machine or a swimming pool.
  • the control unit 140 may execute control to automatically order products based on the body type of the target. For example, when the body type of the target is slightly overweight, the control unit 140 may execute control to automatically purchase low-calorie foods.
  • control of the device is performed taking into account the subject's body type. In this way, it is possible to promote the health of the subject through control according to the subject's body type.
  • the information processing system 10 according to the sixth embodiment will be described with reference to Fig. 12 and Fig. 13.
  • the sixth embodiment differs from the first to fifth embodiments in part of its configuration and operation, and other parts may be the same as the first to fifth embodiments. Therefore, the following will describe in detail the parts that differ from the embodiments already described, and will omit descriptions of other overlapping parts as appropriate.
  • Fig. 12 is a block diagram showing the functional configuration of the information processing system according to the sixth embodiment.
  • the same components as those shown in Fig. 5 are denoted by the same reference numerals.
  • the information processing system 10 is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, a control unit 140, an image accumulation unit 170, an image selection unit 180, and an image output unit 190. That is, the information processing system 10 according to the sixth embodiment further includes, in addition to the configuration of the second embodiment (see FIG. 5), an image accumulation unit 170, an image selection unit 180, and an image output unit 190.
  • the image accumulation unit 170 may be realized, for example, by the storage device 14 (see FIG. 1) described above.
  • Each of the image selection unit 180 and the image output unit 190 may be a processing block realized, for example, by the processor 11 (see FIG. 1) described above.
  • the image storage unit 170 is configured to be able to store images of targets.
  • the images stored by the image storage unit 170 are images of targets photographed in order for the biometric information acquisition unit 110 to acquire biometric information. For this reason, the image storage unit 170 stores a new image each time biometric information is acquired by the biometric information acquisition unit 110.
  • the image storage unit 170 may store images of multiple targets.
  • the user identification unit 120 identifies which user the target is, the image storage unit 170 may store images for each user.
  • the image selection unit 180 selects images that satisfy a predetermined quality standard from among the images stored in the image storage unit 170.
  • the "predetermined quality standard” here is a standard for determining whether an image is suitable for image output.
  • the image selection unit 180 may select an image whose quality score exceeds a predetermined value as an image that satisfies the predetermined quality standard.
  • the image selection unit 180 may select an image with the best image quality from among the stored images as an image that satisfies the predetermined quality standard.
  • the predetermined image selection unit 180 selects images for each predetermined storage period.
  • the "predetermined storage period" is set in advance as a period for determining the timing of image selection. For example, if the predetermined storage period is set to one month, the image selection unit 180 selects images that satisfy the predetermined quality standard every month.
  • the image output unit 190 is configured to be able to output the image selected by the image selection unit 180.
  • the image output unit 190 outputs the selected image to a display in a target room, for example.
  • the image output unit 190 may be configured to output them sequentially.
  • the displayed images may be changed at predetermined intervals, like a slide show.
  • FIG. 13 is a flowchart showing the flow of the image output operation in the information processing system according to the sixth embodiment.
  • the image storage unit 170 first stores the target image (step S601). Then, the image selection unit 180 determines whether or not a predetermined storage period has elapsed since the start of image storage (step S602). Note that if the predetermined storage period has not elapsed (step S602: NO), the image storage unit 170 continues storing the image.
  • step S602 if the predetermined storage period has elapsed (step S602: YES), the image selection unit 180 selects an image that satisfies a predetermined quality standard from the images stored in the image storage unit 170 (step S603). Then, the image output unit 190 outputs the image selected by the image selection unit 180 (step S604).
  • images that satisfy a predetermined quality standard are selected for each predetermined accumulation period, and the selected images are output. In this way, it becomes possible to display high quality images of the captured subject in an album-like manner and check them.
  • the information processing system 10 according to the seventh embodiment will be described with reference to Fig. 14 to Fig. 16.
  • the seventh embodiment differs from the first to sixth embodiments in part of its configuration and operation, and other parts may be the same as the first to sixth embodiments. Therefore, the following will describe in detail the parts that differ from the embodiments already described, and will omit descriptions of other overlapping parts as appropriate.
  • Fig. 14 is a block diagram showing the functional configuration of the information processing system according to the seventh embodiment.
  • the same components as those shown in Fig. 5 are denoted by the same reference numerals.
  • the information processing system 10 is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, a control unit 140, a height estimation unit 200, a height storage unit 210, and a height information output unit 220. That is, the information processing system 10 according to the seventh embodiment further includes, in addition to the configuration of the second embodiment (see FIG. 5), a height estimation unit 200, a height storage unit 210, and a height information output unit 220. Each of the height estimation unit 200 and the height information output unit 220 may be a processing block realized by, for example, the above-mentioned processor 11 (see FIG. 1). The height storage unit 210 may be realized by, for example, the above-mentioned storage device 14 (see FIG. 1).
  • the height estimation unit 200 is configured to be able to estimate the height of a subject from an image of the subject. More specifically, the height estimation unit 200 is configured to be able to estimate the height of a subject from an image of the subject taken in order to acquire biometric information by the biometric information acquisition unit 110.
  • the height estimation unit 200 may estimate the height of the subject each time a new image of the subject is taken. Alternatively, the height estimation unit 200 may estimate the height of the subject at predetermined intervals (for example, approximately once a month). Note that a method for estimating height from an image of a subject can be appropriately adopted from existing technology, so a detailed explanation will be omitted here.
  • the height memory unit 210 is configured to be able to store the height of the subject estimated by the height estimation unit 200 in association with the time of capturing the image used to estimate the height (in other words, the time when the height was measured). In this way, the height memory unit 210 stores the height of the subject in chronological order.
  • the height memory unit 210 may be configured to store the height of each of a plurality of subjects.
  • the height information output unit 220 is configured to be able to calculate information indicating the degree of change in the subject's height from the information stored in the height memory unit 210. For example, the height information output unit 220 may calculate information indicating the extent to which the subject's height has grown over a period of time.
  • the height information output unit 220 is also configured to be able to output information indicating the degree of change in the subject's height together with an image of the subject's face.
  • the image of the subject's face may be an image in which the face portion has been cut out from the image used to estimate the height. Alternatively, the image of the subject's face may be an image taken separately from the image used to estimate the height.
  • Fig. 15 is a flowchart showing the flow of the height information output operation in the information processing system according to the seventh embodiment.
  • the height estimation unit 200 first estimates the height of the subject from an image of the subject captured to acquire biometric information (step S701).
  • the height storage unit 210 then associates and stores the subject's height estimated by the height estimation unit 200 with the capture time of the image used to estimate the height (step S702).
  • the height information output unit 220 calculates information indicating the degree of change in the target's height from the information stored in the height storage unit 210 (step S703).
  • the height information output unit 220 then outputs the information indicating the degree of change in the target's height together with the target's facial image (step S704).
  • the height information output unit 220 may output information regarding height once a month.
  • the height information output unit 220 may output information regarding height in response to a user operation.
  • Fig. 16 is a plan view showing a display example of height information in an information processing system according to the seventh embodiment.
  • the height information output unit 220 outputs a facial image of the subject and information indicating the degree of change in the subject's height.
  • the facial image of the subject may be displayed together with the subject's name and age.
  • the information indicating the degree of change in height may be output together with the time of height measurement. In the example shown in the figure, it is displayed that the height estimated in April of 20XX was 125.4 cm, and that the height estimated in December of 20XX was 128.6 cm. In addition, information indicating that the height has grown by 3.2 cm in 8 months is displayed.
  • the display format given here is merely an example, and the subject's height may be displayed in a different format.
  • the degree of change in the height of multiple subjects may be displayed side-by-side on the screen for comparison.
  • the information processing system 10 As described in Figs. 14 to 16, the information processing system 10 according to the seventh embodiment outputs information indicating the degree of change in the subject's height together with an image of the subject's face. In this way, it is possible to easily confirm the change in the subject's height.
  • the information processing system 10 according to the eighth embodiment will be described with reference to Fig. 17 and Fig. 18.
  • the eighth embodiment differs from the first to seventh embodiments in part of its configuration and operation, and other parts may be the same as the first to seventh embodiments. Therefore, hereinafter, parts that differ from the embodiments already described will be described in detail, and other overlapping parts will be omitted as appropriate.
  • Fig. 17 is a block diagram showing the functional configuration of the information processing system according to the eighth embodiment.
  • the same components as those shown in Fig. 5 are denoted by the same reference numerals.
  • the information processing system 10 is configured to include, as components for realizing its functions, a biometric information acquisition unit 110, a user identification unit 120, a history information storage unit 130, a control unit 140, a first camera 310, a second camera 320, a number of people detection unit 330, a permission control unit 340, and a permission unit 350. That is, the information processing system 10 according to the seventh embodiment further includes, in addition to the configuration of the second embodiment (see FIG. 5), a first camera 310, a second camera 320, a number of people detection unit 330, a permission control unit 340, and a permission unit 350.
  • Each of the first camera 310 and the second camera 320 may be, for example, a camera included in the camera 18 (see FIG. 1) described above.
  • Each of the number of people detection unit 330, the permission control unit 340, and the permission unit 350 may be, for example, a processing block realized by the processor 11 (see FIG. 1) described above.
  • the first camera 310 is a camera installed to obtain biometric information.
  • the first camera 310 may be configured, for example, as a visible light camera that captures facial images and a near-infrared camera that captures iris images.
  • the second camera 320 is a camera installed to have a different shooting angle from the first camera 310.
  • the second camera 320 is a camera installed to have a wider angle of view than the first camera 310.
  • the second camera 320 may be configured as a camera that can overlook the shooting location, such as a surveillance camera.
  • the number of people detection unit 330 is configured to be able to detect the number of people who will perform the authentication process (in other words, the number of targets) from the image captured by the second camera 320.
  • the number of people detection unit 330 may, for example, detect objects from the image captured by the second camera 320 and count the number of objects to detect the number of people.
  • the permission control unit 340 is configured to be able to determine whether or not the authentication process for the number of people detected by the number of people detection unit 330 has been successful. For example, if the number of people detection unit 330 detects four targets, the permission control unit 340 determines whether or not the authentication process for all four targets has been successful.
  • the permission control unit 340 is configured to be able to control the operation of the permission unit 350 depending on whether or not the authentication process for the number of people has been successful. The specific operation of the permission control unit 340 will be explained in detail in the operation explanation described later.
  • the permission unit 350 is configured to permit the target to enter a specified area if the authentication process is successful.
  • the "specified area" here is an area where only targets whose authentication process is successful are permitted to be close friends, such as an area reserved for residents in an apartment building. If the authentication process of the target is successful, the permission unit 350 executes control to open a door or gate and permits the target to enter. On the other hand, if the authentication process of the target fails, the permission unit 350 may execute control to close a door or gate and prohibit the target from entering.
  • Fig. 18 is a flowchart showing the flow of the entry permission operation in the information processing system according to the eighth embodiment.
  • the number of people detection unit 330 first detects the number of people who will perform the authentication process from the image captured by the second camera 320 (step S801).
  • the user identification unit 120 performs the target authentication process based on the biometric information acquired by the biometric information acquisition unit 110 (step S802).
  • the permission control unit 340 determines whether the authentication process for the number of people detected by the number-of-people detection unit 330 has been successful (step S803). If the authentication process for the number of people has not been successful (step S803: NO), the user identification unit 120 continues executing the authentication process so that the authentication process for the number of people is successful. However, if the authentication process for the number of people is not successful even after continuing the authentication process, the permission control unit 340 may output an alert.
  • step S803 YES
  • the permission control unit 340 controls the permission unit 350 to permit the targets whose authentication process was successful to enter the specified area (step S804).
  • the number of targets is detected, and entry into the specified area is not permitted until the authentication process for the number of detected targets is successful. In this way, it is possible to prevent targets who have not been successfully authenticated from entering the specified area by blending in with the other targets who have been successfully authenticated.
  • each embodiment also includes a processing method in which a program that operates the configuration of each embodiment to realize the functions of the above-mentioned embodiments is recorded on a recording medium, the program recorded on the recording medium is read as code, and executed on a computer.
  • computer-readable recording media are also included in the scope of each embodiment.
  • each embodiment includes not only the recording medium on which the above-mentioned program is recorded, but also the program itself.
  • the recording medium may be, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, or ROM.
  • the scope of each embodiment is not limited to programs recorded on the recording medium that execute processes by themselves, but also includes programs that operate on an OS in conjunction with other software or the functions of an expansion board to execute processes.
  • the program itself may be stored on a server, and part or all of the program may be made downloadable from the server to a user terminal.
  • the program may be provided to the user in, for example, a SaaS (Software as a Service) format.
  • Appendix 1 The information processing system described in Appendix 1 is an information processing system including an acquisition means for acquiring biometric information of a target, an identification means for performing authentication processing using the biometric information and identifying the target, and a control means for executing control over the device based on history information stored in association with the identified target and a usage history of the device.
  • Appendix 2 The information processing system described in Appendix 2 is the information processing system described in Appendix 1, further comprising a storage means for storing the history information and the absence time of the target regarding the location where the device is used, and the control means controls the device based on the history information and the absence time.
  • Appendix 3 The information processing system described in Appendix 3 is the information processing system described in Appendix 1 or 2, wherein the identification means performs the authentication process at an entrance to the residence, and the control means starts control of the equipment when the target is identified in the authentication process at the entrance to the residence.
  • Appendix 4 The information processing system described in Appendix 4 is the information processing system described in any one of Appendixes 1 to 3, further comprising a skin condition estimation means for estimating a skin condition of the subject using the biometric information, and the control means controls the device based on the history information and the skin condition.
  • Appendix 5 The information processing system described in Appendix 5 is the information processing system described in any one of Appendixes 1 to 4, further comprising a body type estimation means for estimating a body type of the subject using the biometric information, and the control means controls the device based on the history information and the body type.
  • Appendix 6 The information processing system described in Appendix 6 is an information processing system described in any one of Appendixes 1 to 5, further comprising an image storage means for storing images of the subject photographed to obtain the biometric information, a selection means for selecting, from the stored images, images that satisfy a predetermined quality standard for each predetermined storage period, and an image output means for outputting the selected images.
  • Appendix 7 The information processing system described in Appendix 7 is the information processing system described in any one of Appendixes 1 to 6, further comprising: a height estimation means for estimating a height of the subject from an image of the subject taken to acquire the biometric information; a height storage means for storing the estimated height in association with the shooting time of the image from which the height was estimated; and a height information output means for outputting information indicating a degree of change in the subject's height calculated from the information stored in the height storage means and a facial image of the subject.
  • a height estimation means for estimating a height of the subject from an image of the subject taken to acquire the biometric information
  • a height storage means for storing the estimated height in association with the shooting time of the image from which the height was estimated
  • a height information output means for outputting information indicating a degree of change in the subject's height calculated from the information stored in the height storage means and a facial image of the subject.
  • Appendix 8 The information processing system described in Appendix 8 is the information processing system described in any one of Appendixes 1 to 7, further comprising a first camera installed to acquire the biometric information, a second camera having a different shooting angle from that of the first camera, a permission means for permitting the target to enter a designated area if the authentication process is successful, a number of people detection means for detecting the number of people performing the authentication process from an image captured by the second camera, and a permission control means for controlling the permission means so as not to permit all of the targets to enter the designated area until the authentication process for the detected number of people is successful.
  • Appendix 9 The information processing method described in Appendix 9 is an information processing method that, by at least one computer, acquires biometric information of a target, performs authentication processing using the biometric information, identifies the target, and executes control over the device based on history information stored in association with the identified target and a usage history of the device.
  • the recording medium described in Appendix 10 is a recording medium having recorded thereon a computer program for causing at least one computer to execute an information processing method, which includes acquiring biometric information of a target, performing an authentication process using the biometric information, identifying the target, and executing control related to the device based on history information stored in association with the identified target and a usage history of the device.
  • Appendix 11 The computer program described in Appendix 11 is a computer program that causes at least one computer to execute an information processing method, which includes acquiring biometric information of a target, performing an authentication process using the biometric information, identifying the target, and executing control related to the device based on history information stored in association with the identified target and a usage history of the device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

情報処理システム(10)は、対象の生体情報を取得する取得手段(110)と、生体情報を用いて認証処理を行い、対象を特定する特定手段(120)と、特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて機器に関する制御を実行する制御手段(140)と、を備える。このような情報処理システムによれば、対象の機器の使用履歴に応じて、機器に関する制御を適切に実行することが可能となる。

Description

情報処理システム、情報処理方法、及び記録媒体
 この開示は、情報処理システム、情報処理方法、及び記録媒体の技術分野に関する。
 家電製品等の機器を、ユーザに関する情報に基づいて制御するシステムが知られている。例えば特許文献1は、ユーザの顔と機器とを連携させて、自動的にテレビやステレオの電源を制御する技術を開示している。特許文献2は、ユーザが操作した機器、操作内容、操作した時間を記憶しておくことで、ユーザの嗜好を考慮したサービスを提供する技術を開示している。特許文献3は、マンション等のビルにおけるユーザの入退室状況を判断し、玄関鍵、照明器具、及び空調設備等を制御する技術を開示している。
特表2004-536376号公報 特開2004-185612号公報 特開2009-288957号公報
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の情報処理システムの一の態様は、対象の生体情報を取得する取得手段と、前記生体情報を用いて認証処理を行い、前記対象を特定する特定手段と、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する制御手段と、を備える。
 この開示の情報処理方法の一の態様は、少なくとも1つのコンピュータによって、対象の生体情報を取得し、前記生体情報を用いて認証処理を行い、前記対象を特定し、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、対象の生体情報を取得し、前記生体情報を用いて認証処理を行い、前記対象を特定し、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、情報処理方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。 第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第1実施形態に係る情報処理システムにおける記憶動作の流れを示すフローチャートである。 第1実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。 第2実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第2実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。 第3実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。 第4実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第4実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。 第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第5実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。 第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第6実施形態に係る情報処理システムにおける画像出力動作の流れを示すフローチャートである。 第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第7実施形態に係る情報処理システムにおける身長情報出力動作の流れを示すフローチャートである。 第7実施形態に係る情報処理システムにおける身長情報の表示例を示す平面図ある。 第8実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第8実施形態に係る情報処理システムにおける進入許可動作の流れを示すフローチャートである。
 以下、図面を参照しながら、情報処理システム、情報処理方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る情報処理システムについて、図1から図4を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る情報処理システムのハードウェア構成について説明する。図1は、第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る情報処理システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、を備えている。情報処理システム10は更に、記憶装置14と、入力装置15と、出力装置16と、カメラ18と、を備えていてもよい。上述したプロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16と、カメラ18とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、情報処理システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、履歴情報に基づいて機器に関する制御を実行する機能ブロックが実現される。即ち、プロセッサ11は、情報処理システム10における各制御を実行するコントローラとして機能してよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、量子プロセッサとして構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic Random Access Memory)や、SRAM(Static Random Access Memory)であってよい。また、RAM12に代えて、他の種類の揮発性メモリが用いられてもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable Read Only Memory)や、EPROM(Erasable Read Only Memory)であってよい。また、ROM13に代えて、他の種類の不揮発性メモリが用いられてもよい。
 記憶装置14は、情報処理システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報処理システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。入力装置15は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。入力装置15は、例えばマイクを含む音声入力が可能な装置であってもよい。
 出力装置16は、情報処理システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報処理システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、情報処理システム10に関する情報を音声出力可能なスピーカ等であってもよい。出力装置16は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。また、出力装置16は、画像以外の形式で情報を出力する装置であってもよい。例えば、出力装置16は、情報処理システム10に関する情報を音声で出力するスピーカであってもよい。
 カメラ18は、情報処理システム10が扱う画像を撮影する。カメラ18は、例えば対象の画像を撮影する。なお、ここでの「対象」は、人間だけでなく、犬や猫等の動物やロボット等を含むものであってよい。カメラ18は、複数設けられていてもよい。その場合、カメラ18は、互いに異なる種類のものであってよい。例えば、カメラ18は、対象の顔を撮影する可視光カメラと、対象の虹彩を撮影する近赤外カメラと、を含んでいてよい。
 なお、図1で説明したハードウェアの一部は、情報処理システム10の外部装置に設けられていてもよい。例えば、情報処理システム10は、 上述したプロセッサ11、RAM12、ROM13のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16、カメラ17)については、情報処理システム10に接続される外部の装置が備えるようにしてもよい。また、情報処理システム10は、一部の演算機能を外部の装置(例えば、外部サーバやクラウド等)によって実現するものであってもよい。
 (機能的構成)
 次に、図2を参照しながら、第1実施形態に係る情報処理システム10の機能的構成について説明する。図2は、第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。
 図2に示すように、第1実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、制御部140と、を備えて構成されている。生体情報取得部110、ユーザ特定部120、及び制御部140各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 生体情報取得部110は、対象の生体情報を取得可能に構成されている。生体情報は、認証処理に用いることができるものであれば、その種類は特に限定されない。例えば、生体情報取得部110は、カメラ18を用いて、対象の顔に関する生体情報を取得してもよいし、虹彩に関する生体情報を取得してもよい。或いは、生体情報取得部110は、スキャナを用いて、対象の指紋に関する生体情報を取得してよい。また、生体情報取得部110は、複数種類の生体情報を取得してもよい。
 ユーザ特定部120は、生体情報取得部110で取得された生体情報を用いて認証処理を行い、対象を特定可能に構成されている。即ち、ユーザ特定部120は、認証処理によって、対象が予め登録されたどのユーザであるのかを特定する。ユーザ特定部120は、生体情報取得部110で取得された生体情報と、予め記憶しておいた登録ユーザの生体情報と、を照合することでユーザを特定する。例えば、ユーザ特定部120は、顔認証、虹彩認証、指紋認証、或いはマルチモーダル認証を行うことでユーザを特定する。
 制御部140は、履歴情報に基づいて機器に関する制御を実行可能に構成されている。履歴情報は、ユーザ特定部120で特定した対象と、その対象による機器の使用履歴とを関連付けた情報である。履歴情報は、例えば特定したユーザを示す固有IDと、機器の稼働時間、各種パラメータ(例えば、強弱やモード等を示すパラメータ)とを関連付けた情報であってよい。また、履歴情報は、複数の機器に関する使用履歴を含むものであってよい。例えば、履歴情報は、ユーザAと、ユーザAによる機器B、機器C、機器Dの使用履歴とを関連付けた情報であってよい。履歴情報は、情報処理システム10外部の装置で記憶されている情報であってよい。この場合、制御部140は、履歴情報が記憶された外部の装置と通信を行って、履歴情報を適宜読み出すように構成されてよい。或いは、履歴情報は、情報処理システム10が備える記憶装置等に記憶されていてもよい(後述する第2実施形態を参照)。
 本実施形態に係る「機器」は、対象が使用する機器であり、典型的には対象の住居に設置されている機器である。例えば、機器は、対象の自宅にあるテレビ、冷蔵庫、エアコン、掃除機、パソコン、オーディオプレイヤー、美容家電等であってよい。また、本実施形態に係る機器は、対象が使用する設備を含んでいてよい。例えば、機器は、お風呂、プール、ランニングマシン等であってもよい。なお、上述した機器はあくまで一例であり、本実施形態に係る機器は、その他の機器や設備を含むものであってよい。
 例えば、制御部140は、履歴情報に含まれる使用履歴と同じように機器を動作させる制御を実行してよい。より具体的には、制御部140は、過去の稼働時間と同じ時間に機器が動作するように制御してよい。また、制御部140は、過去と同じパラメータで機器が動作するように制御してよい。なお、「機器に関する制御」は、上述したように機器の動作を直接的に制御するものの他に、対象に対して機器の利用を促すような情報を出力する制御であってもよい。例えば、制御部140は、対象にプールやランニングマシンの利用を促す画像を、対象の部屋のディスプレイに表示させる制御を実行してもよい。
 (記憶動作)
 次に、図3を参照しながら、第1実施形態に係る情報処理システム10による記憶動作(即ち、履歴情報を記憶する際の動作)の流れについて説明する。図3は、第1実施形態に係る情報処理システムにおける記憶動作の流れを示すフローチャートである。
 図3に示すように、第1実施形態に係る情報処理システム10による記憶動作では、まず生体情報取得部110が、対象から生体情報を取得する(ステップS101)。そして、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS102)。
 続いて、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS103)。そして、情報処理システム10は、特定したユーザと、機器の使用履歴とを関連付けた履歴情報を記憶する(ステップS104)。履歴情報は、すでに説明したように、情報処理システム外部の装置によって記憶されてよい。或いは、履歴情報は、情報処理システム10が備える記憶装置等によって記憶されてもよい。
 なお、上述した一連の処理は繰り返し実行されてよい。それにより、より多くの履歴情報が蓄積していくように構成されてよい。即ち、より多くのユーザ、より多くの機器に関する履歴情報が蓄積していくように構成されてよい。
 (制御動作)
 次に、図4を参照しながら、第1実施形態に係る情報処理システム10による制御動作(即ち、制御部140による機器に関する制御を実行する際の動作)の流れについて説明する。図4は、第1実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。
 図4に示すように、第1実施形態に係る情報処理システム10による制御動作では、まず生体情報取得部110が、対象から生体情報を取得する(ステップS151)。そして、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS152)。
 続いて、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS153)。そして、制御部140が、特定したユーザに対応する履歴情報を読み出す(ステップS154)。制御部140は、読み出した履歴情報に基づいて機器に関する制御を実行する(ステップS155)。
 なお、履歴情報が複数の機器に関する使用履歴を含んでいる場合、制御部140は、複数の機器の各々に対応する制御をそれぞれ実行してよい。即ち、制御部140は、履歴情報に基づいて複数種類の制御を実行してよい。
 (技術的効果)
 次に、第1実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図1から図4で説明したように、第1実施形態に係る情報処理システム10では、生体情報を用いた認証処理によって対象が特定され、特定された対象の機器の使用履歴に応じて、機器に関する制御が実行される。このようにすれば、対象の過去の行動に基づいて、機器に関する制御を適切に実行することが可能となる。例えば、対象が普段使用している機器を、対象の嗜好を考慮した上で稼働させることができる。また、対象に対して使用すべき機器を提案することも可能である。
 <第2実施形態>
 第2実施形態に係る情報処理システム10について、図5及び図6を参照して説明する。なお、第2実施形態は、上述した第1実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図5を参照しながら、第2実施形態に係る情報処理システム10の機能的構成について説明する。図5は、第2実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図5では、図2で示した構成要素と同様の要素に、同一の符号を付している。
 図5に示すように、第2実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、を備えて構成されている。即ち、第2実施形態に係る情報処理システム10は、第1実施形態の構成(図2参照)に加えて、履歴情報記憶部130を更に備えている。履歴情報記憶部130は、例えば上述した記憶装置14によって実現されるものであってよい。
 履歴情報記憶部130は、履歴情報を記憶可能に構成されている。即ち、履歴情報記憶部130は、ユーザ特定部120で特定した対象と、その対象による機器の使用履歴とを関連付けた情報と、を関連付けた情報を記憶可能に構成されている。履歴情報記憶部130は、ユーザの機器の使用履歴に関する情報を収集する機能を有していてよい。例えば、履歴情報記憶部130は、機器の各々と通信を行うことで使用履歴に関する情報を収集してよい。
 また、履歴情報記憶部130は、対象の不在時間を記憶可能に構成されている。なお、ここでの「不在時間」とは、機器の設置されている場所に対象がいない時間である。不在時間は、対象が機器の設置されている場所を出てから、再び機器の設置されている場所に戻ってくるまでの時間であってよい。この場合、不在時間に関する情報は、対象が機器の設置されている場所から出ていった時間及び戻ってきた時間に関する情報を含むものであってよい。
 機器が設置されている場所の例としては、機器が設置されている部屋、機器が設置されている家、機器が設置されている集合住宅等が挙げられる。例えば、機器が設置されている場所が部屋である場合、不在時間は対象が部屋を出てから部屋に入るまでの時間であってよい。この場合、不在時間に関する情報は、対象の退室時間及び入室時間に関する情報を含むものであってよい。また、機器が設置されている場所が家(自宅)である場合、不在時間は、対象が家を出てから帰宅するまでの時間であってよい。この場合、不在時間に関する情報は、対象の外出時間及び帰宅時間に関する情報を含むものであってよい。また、機器が設置されている場所が集合住宅である場合、不在時間は、対象が集合住宅のエントランス(例えば、オートロックの共有エントランス)を出てから、再びエントランスに戻ってくるまでの時間であってよい。この場合、不在時間に関する情報は、対象がエントランスを出た時間及びエントランスから入った時間に関する情報を含むものであってよい。
 対象の不在時間に関する情報は、生体情報を用いた認証処理を用いて推定されるものであってよい。例えば、機器が設置された場所から出ていく対象を認証した時間と、機器が設置された場所に入ってくる対象を認証した時間とを用いて不在時間を推定してよい。
 (制御動作)
 次に、図6を参照しながら、第2実施形態に係る情報処理システム10による制御動作の流れについて説明する。図6は、第2実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。なお、図6では、図2で示した処理と同様の処理に同一の符号を付している。
 図6に示すように、第2実施形態に係る情報処理システム10による制御動作では、まず生体情報取得部110が、対象から生体情報を取得する(ステップS151)。そして、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS152)。
 続いて、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS153)。ここで第2実施形態では特に、制御部140が、特定したユーザに対応する履歴情報及び不在時間に関する情報を読み出す(ステップS201)。即ち、第2実施形態では、制御部140が、履歴情報に加えて、不在時間に関する情報を読み出す。
 
 制御部140は、履歴情報記憶部130から読み出した履歴情報及び不在時間に関する情報に基づいて、機器に関する制御を実行する(ステップS202)。例えば、制御部140は、対象の不在時間に合わせて機器を稼働させるように制御してよい。例えば、制御部140は、対象がいない時間にロボット掃除機を稼働させるように制御してよい。或いは、制御部140は、対象の不在時間に機器を稼働させないように制御してよい。例えば、制御部140は、対象がいない時間には照明やエアコンを稼働させないように制御してよい。
 (技術的効果)
 次に、第2実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図6で説明したように、第2実施形態に係る情報処理システム10では、対象の不在時間に基づいて機器に関する制御が実行される。このようにすれば、対象が不在となる場合に実行することが好ましい制御や、対象が不在となる場合に実行しないことが好ましい制御を、より適切なタイミングで実行することが可能となる。
 なお、以降の実施形態では、上述した第2実施形態のように、情報処理システム10が履歴情報記憶部130を備える構成について説明する。ただし、以降の実施形態においても、第1実施形態のように、情報処理システム10は必ずしも履歴情報記憶部130を備えていなくともよい(図2参照)。即ち、履歴情報は、情報処理システム10の外部に記憶されるものであってよい。
 <第3実施形態>
 第3実施形態に係る情報処理システム10について、図7を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と一部の動作が異なるのみであり、その他の部分については第1及び第2実施形態と同一であってよい。このため以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (制御動作)
 まず、図7を参照しながら、第3実施形態に係る情報処理システム10による制御動作の流れについて説明する。図7は、第3実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。
 図7に示すように、第3実施形態に係る情報処理システム10による制御動作では、まず生体情報取得部110が、住居のエントランスにおいて対象から生体情報を取得する(ステップS301)。生体情報取得部110は、例えばマンションのエントランスに設置されたカメラで対象を撮影し、対象の画像から生体情報を取得してよい。
 続いて、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS302)。また、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS303)。
 続いて、制御部140が、特定したユーザに対応する履歴情報を、履歴情報記憶部130から読み出す(ステップS304)。そして制御部140は、読み出した履歴情報に基づいて、対象の部屋にある機器に関する制御を実行する(ステップS305)。即ち、第3実施形態では、対象が住居のエントランスにいるタイミングで、対象の部屋にある機器の制御が開始される。
 例えば、制御部140は、認証処理で特定したユーザの部屋にあるお風呂に給湯を開始する制御を実行する。このように制御すれば、対象が部屋に帰宅してから給湯を開始する場合と比べると、より早くお風呂にお湯を溜めることができる。また、制御部140は、認証処理で特定したユーザの部屋にあるエアコンの稼働を開始する制御を実行する。このように制御すれば、対象が部屋に帰宅するまでに、部屋の温度を適切な状態に調整することができる。
 (技術的効果)
 次に、第3実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図7で説明したように、第3実施形態に係る情報処理システム10では、住居のエントランスでの認証結果に応じて、対象の住居における機器の制御が開始される。このようにすれば、対象が帰宅したタイミングで制御が開始されるため、より効率的に機器に関する制御を実行することが可能となる。
 <第4実施形態>
 第4実施形態に係る情報処理システム10について、図8及び図9を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第3実施形態と同一であってよい。このため以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図8を参照しながら、第4実施形態に係る情報処理システム10の機能的構成について説明する。図8は、第4実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図8では、図5で示した構成要素と同様の要素に、同一の符号を付している。
 図8に示すように、第4実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、肌状態推定部150とを備えて構成されている。即ち、第4実施形態に係る情報処理システム10は、第2実施形態の構成(図5参照)に加えて、肌状態推定部150を更に備えている。肌状態推定部150は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 肌状態推定部150は、生体情報取得部110で取得された生体情報に基づいて、対象の肌状態を推定可能に構成されている。肌状態推定部150が肌状態を推定する際に用いる生体情報と、ユーザ特定部120が認証処理に用いる生体情報とは、それぞれ異なる生体情報であってよい。例えば、肌状態推定部150が、対象の顔の画像から肌状態を推定する一方で、ユーザ特定部120は、対象の虹彩画像を用いて認証処理を実行してよい。肌状態を推定する具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。
 (制御動作)
 次に、図9を参照しながら、第4実施形態に係る情報処理システム10による制御動作の流れについて説明する。図9は、第4実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。なお、図9では、図2で示した処理と同様の処理に同一の符号を付している。
 図9に示すように、第4実施形態に係る情報処理システム10による制御動作では、まず生体情報取得部110が、対象から生体情報を取得する(ステップS151)。そして、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS152)。
 続いて、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS153)。そして、第4実施形態では特に、肌状態推定部150が、対象の肌状態を推定する(ステップS401)。なお、肌状態を推定する処理は、認証処理よりも前に実行されてよい。即ち、ステップS401の処理は、ステップS152或いはS153の処理よりも前に実行されてもよい。
 続いて、制御部140が、特定したユーザに対応する履歴情報を、履歴情報記憶部130から読み出す(ステップS154)。制御部140は、読み出した履歴情報及び推定した肌状態に基づいて機器に関する制御を実行する(ステップS402)。制御部140は、対象の肌状態に基づいて機器の動作パラメータを変更してよい。例えば、制御部140は、対象の肌状態に基づいて、美顔器や髭剃り機のパラメータを変更するようにしてもよい。
 (技術的効果)
 次に、第4実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図8及び図9で説明したように、第4実施形態に係る情報処理システム10では、対象の肌状態を考慮して機器に関する制御が実行される。このようにすれば、対象の肌状態に応じた制御によって、対象の肌質向上に貢献することが可能となる。
 <第5実施形態>
 第5実施形態に係る情報処理システム10について、図10及び図11を参照して説明する。なお、第5実施形態は、上述した第1から第4実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第4実施形態と同一であってよい。このため以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図10を参照しながら、第5実施形態に係る情報処理システム10の機能的構成について説明する。図10は、第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図10では、図5で示した構成要素と同様の要素に、同一の符号を付している。
 図10に示すように、第5実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、体型推定部160とを備えて構成されている。即ち、第5実施形態に係る情報処理システム10は、第2実施形態の構成(図5参照)に加えて、体型推定部160を更に備えている。体型推定部160は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 体型推定部160は、生体情報取得部110で取得された生体情報に基づいて、対象の体型を推定可能に構成されている。体型推定部160が体型を推定する際に用いる生体情報と、ユーザ特定部120が認証処理に用いる生体情報とは、それぞれ異なる生体情報であってよい。例えば、体型推定部160が、対象の全身の画像から肌状態を推定する一方で、ユーザ特定部120は、対象の顔画像を用いて認証処理を実行してよい。体型を推定する具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。
 (制御動作)
 次に、図11を参照しながら、第5実施形態に係る情報処理システム10による制御動作の流れについて説明する。図11は、第5実施形態に係る情報処理システムにおける制御動作の流れを示すフローチャートである。なお、図11では、図2で示した処理と同様の処理に同一の符号を付している。
 図11に示すように、第5実施形態に係る情報処理システム10による制御動作では、まず生体情報取得部110が、対象から生体情報を取得する(ステップS151)。そして、ユーザ特定部120が、生体情報取得部110で取得された生体情報を用いて認証処理を実行する(ステップS152)。
 続いて、ユーザ特定部120は、認証処理の結果に基づきユーザを特定する(ステップS153)。そして、第5実施形態では特に、体型推定部160が、対象の体型を推定する(ステップS501)。なお、体型を推定する処理は、認証処理よりも前に実行されてよい。即ち、ステップS501の処理は、ステップS152或いはS153の処理よりも前に実行されてもよい。
 続いて、制御部140が、特定したユーザに対応する履歴情報を、履歴情報記憶部130から読み出す(ステップS154)。制御部140は、読み出した履歴情報及び推定した体型に基づいて機器に関する制御を実行する(ステップS402)。制御部140は、対象の体型に基づいて機器の動作パラメータを変更してよい。例えば、制御部140は、対象の体型が太り気味である場合に、お風呂の温度を上げるような制御を実行してもよい。或いは、制御部140は、対象の体型に基づいて機器の誘導を行ってもよい。例えば、対象の体型が太り気味である場合に、対象にランニングマシンやプールの利用を促す情報を出力してよい。或いは、制御部140は、対象の体型に基づいて商品を自動的に注文する制御を実行してよい。例えば、制御部140は、対象の体型が太り気味である場合に、低カロリーの食品を自動購入する制御を実行してよい。
 (技術的効果)
 次に、第5実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図10及び図11で説明したように、第5実施形態に係る情報処理システム10では、対象の体型を考慮して機器に関する制御が実行される。このようにすれば、対象の体型に応じた制御によって、対象の健康を促進することが可能となる。
 <第6実施形態>
 第6実施形態に係る情報処理システム10について、図12及び図13を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第5実施形態と同一であってよい。このため以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図12を参照しながら、第6実施形態に係る情報処理システム10の機能的構成について説明する。図12は、第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図12では、図5で示した構成要素と同様の要素に、同一の符号を付している。
 図12に示すように、第6実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、画像蓄積部170と、画像選択部180と、画像出力部190と、を備えて構成されている。即ち、第6実施形態に係る情報処理システム10は、第2実施形態の構成(図5参照)に加えて、画像蓄積部170と、画像選択部180と、画像出力部190と、を更に備えている。画像蓄積部170は、例えば上述した記憶装置14(図1参照)によって実現されてよい。画像選択部180及び画像出力部190の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 画像蓄積部170は、対象の画像を蓄積可能に構成されている。画像蓄積部170が蓄積する画像は、生体情報取得部110により生体情報を取得するために撮影した対象の画像である。このため、画像蓄積部170は、生体情報取得部110によって生体情報が取得される度に新たな画像を蓄積していく。画像蓄積部170は、複数の対象の画像を蓄積してよい。ユーザ特定部120で対象がどのユーザであるか特定された場合、画像蓄積部170は、ユーザごとに画像を蓄積するようにしてもよい。
 画像選択部180は、画像蓄積部170に蓄積された画像の中から、所定の品質基準を満たす画像を選択する。ここでの「所定の品質基準」は、画像出力に適した画像であるかを判定するための基準である。画像選択部180は、例えば品質スコアが所定値を超えている画像を、所定の品質基準を満たす画像として選択してよい。或いは、画像選択部180は、蓄積されている画像のうち最も画質のよい1枚の画像を、所定の品質基準を満たす画像として選択してもよい。所定画像選択部180は、所定の蓄積期間ごとに画像の選択を行う。「所定の蓄積期間」は、画像を選択するタイミングを決定するための期間として予め設定されている。例えば、所定の蓄積期間が1ヶ月に設定されている場合、画像選択部180は、1ヶ月ごとに所定の品質基準を満たす画像を選択する。
 画像出力部190は、画像選択部180で選択された画像を出力可能に構成されている。画像出力部190は、例えば対象の部屋にあるディスプレイに選択された画像を出力する。画像出力部190は、選択された画像が複数枚ある場合に、それらを順次出力するようにしてもよい。例えばスライドショーのように、表示される画像が所定期間ごとに入れ替わるようにしてもよい。
 (画像出力動作)
 次に、図13を参照しながら、第6実施形態に係る情報処理システム10による画像出力動作(即ち、画像出力部190が画像を出力する際の動作)について説明する。図13は、第6実施形態に係る情報処理システムにおける画像出力動作の流れを示すフローチャートである。
 図13に示すように、第6実施形態に係る情報処理システム10による画像出力動作では、まず画像蓄積部170が対象の画像を蓄積する(ステップS601)。そして、画像選択部180は、画像の蓄積を開始してから所定の蓄積期間が経過したか否かを判定する(ステップS602)。なお、所定の蓄積期間が経過していない場合(ステップS602:NO)、画像蓄積部170は、画像の蓄積を継続する。
 他方、所定の蓄積期間が経過した場合(ステップS602:YES)、画像選択部180は、画像蓄積部170に蓄積された画像の中から、所定の品質基準を満たす画像を選択する(ステップS603)。そして、画像出力部190は、画像選択部180が選択した画像を出力する(ステップS604)。
 (技術的効果)
 次に、第6実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図12及び図13で説明したように、第6実施形態に係る情報処理システム10では、所定の蓄積期間ごとに所定の品質基準を満たす画像が選択され、選択された画像が出力される。このようにすれば、撮影された対象の画像のうち品質が高いものを、アルバムのようにして表示させて確認することが可能となる。
 <第7実施形態>
 第7実施形態に係る情報処理システム10について、図14から図16を参照して説明する。なお、第7実施形態は、上述した第1から第6実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第6実施形態と同一であってよい。このため以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図14を参照しながら、第7実施形態に係る情報処理システム10の機能的構成について説明する。図14は、第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図14では、図5で示した構成要素と同様の要素に、同一の符号を付している。
 図14に示すように、第7実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、身長推定部200と、身長記憶部210と、身長情報出力部220と、を備えて構成されている。即ち、第7実施形態に係る情報処理システム10は、第2実施形態の構成(図5参照)に加えて、身長推定部200と、身長記憶部210と、身長情報出力部220と、を更に備えている。身長推定部200及び身長情報出力部220の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。身長記憶部210は、例えば上述した記憶装置14(図1参照)によって実現されてよい。
 身長推定部200は、対象の画像から対象の身長を推定可能に構成されている。より具体的には、身長推定部200は、生体情報取得部110により生体情報を取得するために撮影した対象の画像から、対象の身長を推定可能に構成されている。身長推定部200は、新たな対象の画像が撮影される度に、対象の身長を推定してよい。或いは、身長推定部200は、所定期間ごとに(例えば、1ヶ月に1回程度)対象の身長を推定してもよい。なお、対象の画像から身長を推定する手法については、既存の技術を適宜採用できるため、ここでの詳細な説明は省略する。
 身長記憶部210は、身長推定部200で推定した対象の身長と、身長を推定するために用いた画像の撮影時間(言い換えれば、身長を測定した際の時間)と、を関連付けて記憶可能に構成されている。これにより、身長記憶部210は、対象の身長を時系列で記憶していくことになる。身長記憶部210は、複数の対象の各々について、身長を記憶するように構成されてよい。
 身長情報出力部220は、身長記憶部210に記憶された情報から、対象の身長の変化度合いを示す情報を算出可能に構成されている。例えば、身長情報出力部220は、対象の身長が、どれくらいの期間でどの程度伸びたのかを示す情報を算出してよい。また、身長情報出力部220は、対象の身長の変化度合いを示す情報を、対象の顔画像と併せて出力可能に構成されている。対象の顔画像は、身長を推定するのに用いた画像から顔部分を切り抜いたものであってよい。或いは、対象の顔画像は、身長の推定とは別に撮影された画像であってもよい。
 (身長情報出力動作)
 次に、図15を参照しながら、第7実施形態に係る情報処理システム10による身長情報出力動作(即ち、上述した身長情報出力部220により身長情報を出力する際の動作)について説明する。図15は、第7実施形態に係る情報処理システムにおける身長情報出力動作の流れを示すフローチャートである。
 図15に示すように、第7実施形態に係る情報処理システム10による身長情報出力動作では、まず身長推定部200が、生体情報を取得するために撮影した対象の画像から、対象の身長を推定する(ステップS701)。そして、身長記憶部210は、身長推定部200で推定した対象の身長と、身長を推定するために用いた画像の撮影時間と、を関連付けて記憶する(ステップS702)。
 続いて、身長情報出力部220は、身長記憶部210に記憶された情報から、対象の身長の変化度合いを示す情報を算出する(ステップS703)。そして、身長情報出力部220は、対象の身長の変化度合いを示す情報を、対象の顔画像と併せて出力する(ステップS704)。
 ここでは対象の身長が推定される度に、身長に関する情報が出力される構成を説明しているが、身長に関する情報は、身長が推定されるタイミングとは異なるタイミングで出力されてよい。例えば、身長情報出力部220は、1ヶ月ごとに身長に関する情報を出力してもよい。或いは、身長情報出力部220は、ユーザの操作に応じて身長に関する情報を出力してもよい。
 (身長情報の表示例)
 次に、図16を参照しながら、上述した身長情報出力動作における身長情報の表示例について説明する。図16は、第7実施形態に係る情報処理システムにおける身長情報の表示例を示す平面図ある。
 図16に示すように、身長情報出力部220は、対象の顔画像と、対象の身長の変化度合いを示す情報と、を出力する。対象の顔画像は、対象の名前や年齢と共に表示されてよい。身長の変化度合いを示す情報は、身長の測定時期と共に出力されてよい。図に示す例では、20XX年の4月に推定した身長が125.4cmであったこと、及び、20XX年の12月に推定した身長が128.6cmであったことが表示されている。また、身長が8ヶ月で3.2cm伸びたことを示す情報が表示されている。
 なお、ここで挙げた表示態様はあくまで一例であり、異なる態様で対象の身長を表示するようにしてもよい。例えば、複数の対象の各々の身長の変化度合いを、画面上に並べて比較できるような態様で表示するようにしてもよい。
 (技術的効果)
 次に、第7実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図14から図16で説明したように、第7実施形態に係る情報処理システム10では、対象の身長の変化度合いを示す情報と、対象の顔画像とが併せて出力される。このようにすれば、対象の身長の変化を容易に確認することが可能である。
 <第8実施形態>
 第8実施形態に係る情報処理システム10について、図17及び図18を参照して説明する。なお、第8実施形態は、上述した第1から第7実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第7実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図17を参照しながら、第8実施形態に係る情報処理システム10の機能的構成について説明する。図17は、第8実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図17では、図5で示した構成要素と同様の要素に、同一の符号を付している。
 図17に示すように、第8実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、生体情報取得部110と、ユーザ特定部120と、履歴情報記憶部130と、制御部140と、第1カメラ310と、第2カメラ320と、人数検出部330と、許可制御部340と、許可部350と、を備えて構成されている。即ち、第7実施形態に係る情報処理システム10は、第2実施形態の構成(図5参照)に加えて、第1カメラ310と、第2カメラ320と、人数検出部330と、許可制御部340と、許可部350と、を更に備えている。第1カメラ310及び第2カメラ320の各々は、例えば上述したカメラ18(図1参照)に含まれるカメラであってよい。人数検出部330、許可制御部340、及び許可部350の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 第1カメラ310は、生体情報を取得するために設置されたカメラである。第1カメラ310は、例えば顔画像を撮影する可視光カメラ、虹彩画像を撮影する近赤外カメラとして構成されてよい。一方、第2カメラ320は、第1カメラ310とは異なる撮影角度を有するように設置されたカメラである。例えば、第2カメラ320は、第1カメラ310よりも広い画角を有するように設置されたカメラである。第2カメラ320は、例えば監視カメラのように、撮影場所を俯瞰できるようなカメラとして構成されていてよい。
 人数検出部330は、第2カメラ320で撮影された画像から、認証処理を実行する人数(言い換えれば、対象の人数)を検出可能に構成されている。人数検出部330は、例えば、第2カメラ320で撮影された画像から物体を検出し、その物体の数をカウントして人数を検出するようにしてもよい。
 許可制御部340は、人数検出部330で検出された人数分の認証処理が成功したか否かを判定可能に構成されている。例えば、人数検出部330で、4人の対象が検出されている場合、許可制御部340は、4人の対象すべての認証処理が成功したか否かを判定する。許可制御部340は、人数分の認証処理が成功したか否かに応じて、許可部350の動作を制御可能に構成されている。許可制御部340の具体的な動作内容については、後述する動作説明において詳しく説明する。
 許可部350は、認証処理が成功した場合に、対象の所定区域への進入を許可するように構成されている。なお、ここでの「所定区域」は、認証処理が成功した対象のみが親友を許される区域であり、例えばマンション等の居住者専用エリア等が挙げられる。許可部350は、対象の認証処理が成功した場合に、ドアやゲートを開く制御を実行して、対象の進入を許可する。一方で、許可部350は、対象の認証処理が失敗した場合に、ドアやゲートを閉じる制御を実行して、対象の進入を禁止してよい。
 (進入許可動作)
 次に、図18を参照しながら、第8実施形態に係る情報処理システム10による進入許可動作(即ち、上述した許可部350による対象の所定区域内への進入を許可する動作)について説明する。図18は、第8実施形態に係る情報処理システムにおける進入許可動作の流れを示すフローチャートである。
 図18に示すように、第8実施形態に係る情報処理システム10による進入許可動作では、まず人数検出部330が、第2カメラ320で撮影された画像から、認証処理を実行する人数を検出する(ステップS801)。また、ユーザ特定部120が、生体情報取得部110で取得された生体情報に基づいて、対象の認証処理を実行する(ステップS802)。
 続いて、許可制御部340は、人数検出部330で検出された人数分の認証処理が成功したか否かを判定する(ステップS803)。なお、人数分の認証処理が成功していない場合(ステップS803:NO)、ユーザ特定部120は、人数分の認証処理が成功するように認証処理の実行を継続する。ただし、認証処理を継続しても人数分の認証処理が成功しない場合、許可制御部340は、アラートを出力するようにしてもよい。
 他方、人数分の認証処理が成功した場合(ステップS803:YES)、許可制御部340は、認証処理が成功した対象の所定区域への進入を許可するように許可部350を制御する(ステップS804)。
 (技術的効果)
 次に、第8実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図17及び図18で説明したように、第8実施形態に係る情報処理システム10では、対象の人数が検出され、検出された人数分の認証処理が成功するまで、所定区域内への進入が許可されない。このようにすれば、認証処理が成功した一部の対象に紛れて、認証処理が成功していない対象が所定区域内に進入してしまうことを防止できる。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。プログラムは、例えばSaaS(Software as a Service)形式でユーザに提供されてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報処理システムは、対象の生体情報を取得する取得手段と、前記生体情報を用いて認証処理を行い、前記対象を特定する特定手段と、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する制御手段と、を備える情報処理システムである。
 (付記2)
 付記2に記載の情報処理システムは、前記履歴情報と、前記機器を利用する場所に関する前記対象の不在時間と、を記憶する記憶手段を更に備え、前記制御手段は、前記履歴情報及び前記不在時間に基づいて前記機器を制御する、付記1に記載の情報処理システムである。
 (付記3)
 付記3に記載の情報処理システムは、前記特定手段は、住居のエントランスにおいて前記認証処理を行い、前記制御手段は、前記住居のエントランスにおける前記認証処理で前記対象を特定した場合に、前記機器の制御を開始する、付記1又は2に記載の情報処理システムである。
 (付記4)
 付記4に記載の情報処理システムは、前記生体情報を用いて前記対象の肌状態を推定する肌状態推定手段を更に備え、前記制御手段は、前記履歴情報及び前記肌状態に基づいて前記機器を制御する、付記1から3のいずれか一項に記載の情報処理システムである。
 (付記5)
 付記5に記載の情報処理システムは、前記生体情報を用いて前記対象の体型を推定する体型推定手段を更に備え、前記制御手段は、前記履歴情報及び前記体型に基づいて前記機器を制御する、付記1から4のいずれか一項に記載の情報処理システムである。
 (付記6)
 付記6に記載の情報処理システムは、前記生体情報を取得するために撮影した前記対象の画像を蓄積する画像蓄積手段と、前記蓄積された画像の中から、所定の品質基準を満たす画像を所定の蓄積期間ごとに選択する選択手段と、前記選択された画像を出力する画像出力手段と、を更に備える付記1から5のいずれか一項に記載の情報処理システムである。
 (付記7)
 付記7に記載の情報処理システムは、前記生体情報を取得するために撮影した前記対象の画像から、前記対象の身長を推定する身長推定手段と、前記推定した身長と、前記身長を推定した画像の撮影時間と、を関連付けて記憶する身長記憶手段と、前記身長記憶手段に記憶された情報から算出される前記対象の身長の変化度合いを示す情報と、前記対象の顔画像と、を併せて出力する身長情報出力手段と、を更に備える付記1から6のいずれか一項に記載の情報処理システムである。
 (付記8)
 付記8に記載の情報処理システムは、前記生体情報を取得するために設置された第1カメラと、前記第1カメラとは異なる撮影角度を有する第2カメラと、前記認証処理が成功した場合に、前記対象の所定区域への進入を許可する許可手段と、前記第2カメラで撮影した画像から、前記認証処理を実行する人数を検出する人数検出手段と、前記検出した人数分の前記認証処理が成功するまで、前記対象すべての前記所定区域への進入を許可しないように前記許可手段を制御する許可制御手段と、を更に備える付記1から7のいずれか一項に記載の情報処理システムである。
 (付記9)
 付記9に記載の情報処理方法は、少なくとも1つのコンピュータによって、対象の生体情報を取得し、前記生体情報を用いて認証処理を行い、前記対象を特定し、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、情報処理方法である。
 (付記10)
 付記10に記載の記録媒体は、少なくとも1つのコンピュータに、対象の生体情報を取得し、前記生体情報を用いて認証処理を行い、前記対象を特定し、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、情報処理方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記11)
 付記11に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、対象の生体情報を取得し、前記生体情報を用いて認証処理を行い、前記対象を特定し、前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、情報処理方法を実行させるコンピュータプログラムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理システム、情報処理方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 10 情報処理システム
 11 プロセッサ
 14 記憶装置
 110 生体情報取得部
 120 ユーザ特定部
 130 履歴情報記憶部
 140 制御部
 150 肌状態推定部
 160 体型推定部
 170 画像蓄積部
 180 画像選択部
 190 画像出力部
 200 身長推定部
 210 身長記憶部
 220 身長情報出力部
 310 第1カメラ
 320 第2カメラ
 330 人数検出部
 340 許可制御部
 350 許可部

Claims (10)

  1.  対象の生体情報を取得する取得手段と、
     前記生体情報を用いて認証処理を行い、前記対象を特定する特定手段と、
     前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する制御手段と、
     を備える情報処理システム。
  2.  前記履歴情報と、前記機器を利用する場所に関する前記対象の不在時間と、を記憶する記憶手段を更に備え、
     前記制御手段は、前記履歴情報及び前記不在時間に基づいて前記機器を制御する、
     請求項1に記載の情報処理システム。
  3.  前記特定手段は、住居のエントランスにおいて前記認証処理を行い、
     前記制御手段は、前記住居のエントランスにおける前記認証処理で前記対象を特定した場合に、前記機器の制御を開始する、
     請求項1又は2に記載の情報処理システム。
  4.  前記生体情報を用いて前記対象の肌状態を推定する肌状態推定手段を更に備え、
     前記制御手段は、前記履歴情報及び前記肌状態に基づいて前記機器を制御する、
     請求項1又は2に記載の情報処理システム。
  5.  前記生体情報を用いて前記対象の体型を推定する体型推定手段を更に備え、
     前記制御手段は、前記履歴情報及び前記体型に基づいて前記機器を制御する、
     請求項1又は2に記載の情報処理システム。
  6.  前記生体情報を取得するために撮影した前記対象の画像を蓄積する画像蓄積手段と、
     前記蓄積された画像の中から、所定の品質基準を満たす画像を所定の蓄積期間ごとに選択する選択手段と、
     前記選択された画像を出力する画像出力手段と、
     を更に備える請求項1又は2に記載の情報処理システム。
  7.  前記生体情報を取得するために撮影した前記対象の画像から、前記対象の身長を推定する身長推定手段と、
     前記推定した身長と、前記身長を推定した画像の撮影時間と、を関連付けて記憶する身長記憶手段と、
     前記身長記憶手段に記憶された情報から算出される前記対象の身長の変化度合いを示す情報と、前記対象の顔画像と、を併せて出力する身長情報出力手段と、
     を更に備える請求項1又は2に記載の情報処理システム。
  8.  前記生体情報を取得するために設置された第1カメラと、
     前記第1カメラとは異なる撮影角度を有する第2カメラと、
     前記認証処理が成功した場合に、前記対象の所定区域への進入を許可する許可手段と、
     前記第2カメラで撮影した画像から、前記認証処理を実行する人数を検出する人数検出手段と、
     前記検出した人数分の前記認証処理が成功するまで、前記対象すべての前記所定区域への進入を許可しないように前記許可手段を制御する許可制御手段と、
     を更に備える請求項1又は2に記載の情報処理システム。
  9.  少なくとも1つのコンピュータによって、
     対象の生体情報を取得し、
     前記生体情報を用いて認証処理を行い、前記対象を特定し、
     前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、
     情報処理方法。
  10.  少なくとも1つのコンピュータに、
     対象の生体情報を取得し、
     前記生体情報を用いて認証処理を行い、前記対象を特定し、
     前記特定した対象と機器の使用履歴とを関連付けて記憶された履歴情報に基づいて前記機器に関する制御を実行する、
     情報処理方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2023/001912 2023-01-23 2023-01-23 情報処理システム、情報処理方法、及び記録媒体 WO2024157320A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/001912 WO2024157320A1 (ja) 2023-01-23 2023-01-23 情報処理システム、情報処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/001912 WO2024157320A1 (ja) 2023-01-23 2023-01-23 情報処理システム、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2024157320A1 true WO2024157320A1 (ja) 2024-08-02

Family

ID=91970237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/001912 WO2024157320A1 (ja) 2023-01-23 2023-01-23 情報処理システム、情報処理方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2024157320A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096294A (ja) * 2002-08-30 2004-03-25 Sony Corp 電子機器制御装置、電子機器制御システムおよび電子機器制御方法
JP2006128824A (ja) * 2004-10-26 2006-05-18 Glory Ltd ホームコントロールシステム、ホームコントロール方法およびホームコントローラ用プログラム
JP2013109779A (ja) * 2013-02-15 2013-06-06 Toshiba Corp 監視システム及び共連れ侵入監視方法
WO2020195613A1 (ja) * 2019-03-25 2020-10-01 日本電気株式会社 情報処理装置、管理システム、情報処理方法および記録媒体
WO2021171763A1 (ja) * 2020-02-26 2021-09-02 日本電気株式会社 画像処理装置、撮影装置、画像処理システム、画像処理方法、及び非一時的なコンピュータ可読媒体
JP2021197062A (ja) * 2020-06-18 2021-12-27 清水建設株式会社 工事進捗状況管理システム、工事進捗状況管理方法
JP2022146137A (ja) * 2021-03-22 2022-10-05 日本電気株式会社 認証装置、認証システム、認証方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096294A (ja) * 2002-08-30 2004-03-25 Sony Corp 電子機器制御装置、電子機器制御システムおよび電子機器制御方法
JP2006128824A (ja) * 2004-10-26 2006-05-18 Glory Ltd ホームコントロールシステム、ホームコントロール方法およびホームコントローラ用プログラム
JP2013109779A (ja) * 2013-02-15 2013-06-06 Toshiba Corp 監視システム及び共連れ侵入監視方法
WO2020195613A1 (ja) * 2019-03-25 2020-10-01 日本電気株式会社 情報処理装置、管理システム、情報処理方法および記録媒体
WO2021171763A1 (ja) * 2020-02-26 2021-09-02 日本電気株式会社 画像処理装置、撮影装置、画像処理システム、画像処理方法、及び非一時的なコンピュータ可読媒体
JP2021197062A (ja) * 2020-06-18 2021-12-27 清水建設株式会社 工事進捗状況管理システム、工事進捗状況管理方法
JP2022146137A (ja) * 2021-03-22 2022-10-05 日本電気株式会社 認証装置、認証システム、認証方法及びプログラム

Similar Documents

Publication Publication Date Title
US11941874B2 (en) User interfaces to configure a thermal imaging system
JP7054800B2 (ja) 深部体温測定装置、深部体温測定システム及び深部体温測定方法
US11094337B2 (en) Cough detection device, cough detection method, and recording medium
JP2014074560A (ja) 空調制御システム、空調制御方法及びプログラム
JP2013054739A (ja) 画像中の人をカウントするための方法及び装置
US10771716B2 (en) Control device, monitoring system, and monitoring camera control method
JP7097721B2 (ja) 情報処理装置、方法及びプログラム
EP3487151A1 (en) Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
JP2011090408A (ja) 情報処理装置、その行動推定方法及びプログラム
US10332369B2 (en) System for setting non-warning area of people detector and method thereof
WO2024157320A1 (ja) 情報処理システム、情報処理方法、及び記録媒体
US20220358788A1 (en) Store management system, store management method, computer program and recording medium
JP2016128977A (ja) 乱雑度の変化の傾向監視方法、乱雑度の変化の傾向監視プログラムおよび乱雑度の変化の傾向監視装置
JP2022053126A (ja) 混雑状況推定装置、方法およびプログラム
WO2022181078A1 (ja) 感染リスク対策効果度算出システム及び感染リスク対策提案方法
US11546657B1 (en) Method and system for roles based selection and control of video content
JP6765073B2 (ja) 気質推定システム、気質推定方法及び気質推定処理プログラム
JP7067593B2 (ja) 情報処理システム、認証対象の管理方法、及びプログラム
WO2021084949A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11659273B2 (en) Information processing apparatus, information processing method, and non-transitory storage medium
JP2012047494A (ja) エネルギー管理装置
JP2006133899A5 (ja)
JPWO2020075283A1 (ja) 異常者予知システム、異常者予知方法、およびプログラム
JP2018196060A (ja) 情報処理装置、情報処理システム、情報処理方法、およびプログラム
WO2022201360A1 (ja) 情報処理装置、情報処理方法及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23918293

Country of ref document: EP

Kind code of ref document: A1