WO2018163812A1 - 情報処理装置、情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2018163812A1
WO2018163812A1 PCT/JP2018/006114 JP2018006114W WO2018163812A1 WO 2018163812 A1 WO2018163812 A1 WO 2018163812A1 JP 2018006114 W JP2018006114 W JP 2018006114W WO 2018163812 A1 WO2018163812 A1 WO 2018163812A1
Authority
WO
WIPO (PCT)
Prior art keywords
authority
user
information
information processing
agent device
Prior art date
Application number
PCT/JP2018/006114
Other languages
English (en)
French (fr)
Inventor
佐藤 直之
邦在 鳥居
富士夫 荒井
祐介 工藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/479,462 priority Critical patent/US11436348B2/en
Priority to EP18763273.2A priority patent/EP3594844A1/en
Priority to JP2019504445A priority patent/JP7192765B2/ja
Publication of WO2018163812A1 publication Critical patent/WO2018163812A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0853Network architectures or network communication protocols for network security for authentication of entities using an additional device, e.g. smartcard, SIM or a different communication terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/604Tools and structures for managing or administering access control systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/33User authentication using certificates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/107Network architectures or network communication protocols for network security for controlling access to devices or network resources wherein the security policies are location-dependent, e.g. entities privileges depend on current location or allowing specific operations only from locally connected terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Definitions

  • the present technology relates to an information processing apparatus, an information processing method, and a program.
  • an information processing apparatus, an information processing method, and an information processing apparatus that can perform a process of giving authority to access predetermined information without bothering a user.
  • the program Regarding the program.
  • Searching information and managing information using the Internet is widespread. For example, a user can receive a service such as easily reading and writing personal information such as a schedule and an e-mail by accessing a predetermined server from his / her terminal via a network.
  • a service such as easily reading and writing personal information such as a schedule and an e-mail by accessing a predetermined server from his / her terminal via a network.
  • User authentication is performed to ensure that only authorized users can receive services.
  • a user authentication method for example, a method of having a user perform an operation for authentication such as password input, a method of detecting a device serving as a key for authentication by wireless communication, and a method of performing biometric authentication using biometric information Etc.
  • Patent Document 1 A proposal for reducing such a burden is proposed in Patent Document 1.
  • the authority to access a predetermined server and acquire predetermined information is delegated to the agent device (service), and when the user requires it on the agent device side, the information desired by the user is obtained. It is desired that presentation can be performed without bothering the user.
  • the present technology has been made in view of such a situation, and is intended to improve user convenience.
  • An information processing apparatus includes an acquisition unit that acquires information for receiving delegation of a predetermined authority, a change unit that changes the level of the authority when a predetermined condition is satisfied, and the predetermined And a processing unit that performs processing using the authority.
  • An information processing method acquires information for delegating a predetermined authority, changes a level of the authority when a predetermined condition is satisfied, and performs processing using the predetermined authority The step of performing is included.
  • a program acquires information for delegating predetermined authority to a computer, changes a level of the authority when a predetermined condition is satisfied, and uses the predetermined authority A process including a step for performing the process is executed.
  • the information processing apparatus when the information for delegating a predetermined authority is acquired and a predetermined condition is satisfied, the authority level is changed, Processing using the authority is performed.
  • the information processing apparatus may be an independent apparatus or an internal block constituting one apparatus.
  • the program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of a system to which the present technology is applied. It is a figure for demonstrating operation
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of an information processing system to which the present technology is applied.
  • an agent device 21 is connected to the local network 11.
  • a wearable device 31, a robot 32, and a cooking appliance 33 are also connected to the local network 11.
  • the local network 11 is a network constructed in a predetermined building such as a home or a store or a vehicle such as a car or a train.
  • the local network 11 is, for example, a local area network (LAN) or a wide area network (WAN) configured by wireless or / and wired, and is configured so that data can be exchanged between connected devices.
  • LAN local area network
  • WAN wide area network
  • the wearable device 31, the robot 32, and the cooking appliance 33 may be connected to different LANs, and the LANs may be connected to the WAN. That is, the present technology can also be applied to a system configured by devices connected to different networks.
  • the agent device 21 controls devices connected to the local network 11, accesses the external server 61 via the Internet 51, searches for information, and presents the searched information to the user. It has a function.
  • the wearable device 31 is, for example, a watch-type device, a spectacle-type device, a clothes-type, a shoe-type, a hat-type device, an accessory-type device such as a ring-type, bracelet-type, or nail-type, and is worn by the user.
  • a smartphone may also be used.
  • the robot 32 may be a robot called a pet robot or a customer service robot installed in a store.
  • the robot 32 is a functioning device that has an appearance that replicates a person, an animal, and the like and can communicate with a user.
  • the cooking appliance 33 belongs to a device called an IoT (Internet of Things) device, and has a function connected to the network and controlled by the agent device 21 in addition to the original function.
  • IoT Internet of Things
  • the user wearing the wearable device 31 enters and exits a predetermined room, for example.
  • the wearable device 31 When the wearable device 31 can communicate with the agent device 21, the wearable device 31 transmits a serial ID and inquiry server information to the agent device 21. This transmission may be performed via the local network 11 or may be performed by communication such as Bluetooth (registered trademark).
  • the wearable device 31 performs pre-registration with respect to the server 61 at a time (time T0) before providing the serial ID and inquiry server information to the agent device 21.
  • the server 61 is provided with information such as a serial ID, user feature points, service information, user ID, and one-time password, and is registered in the server 61.
  • “Server information” supplied from the wearable device 31 to the agent device 21 at time T1 is information related to the server 61 that has been pre-registered, for example, a URL.
  • the serial ID is an ID for identifying the wearable device 31.
  • the agent device 21 accesses the server 61 using the server information supplied from the wearable device 31, and makes an inquiry using the serial ID supplied from the wearable device 31.
  • information registered in advance registration such as a user feature point, service information, user ID, and one-time password is supplied from the server 61 to the agent device 21.
  • the user feature points registered in the server 61 by pre-registration are information for specifying the user. For example, the feature points extracted from the face image obtained by photographing the user, the feature points extracted from the user's voice, the user Ecological information such as fingerprints.
  • the service information registered in the server 61 by pre-registration is information relating to services provided to the user such as schedules and emails.
  • the user ID and one-time password registered in the server 61 in advance registration are information used when determining whether or not the user is a regular user when accessing a service, for example, a schedule.
  • the agent device 21 can access a service provided to the user by the server 61 by acquiring such information. That is, the agent device 21 has the authority to access the service.
  • the agent device 21 Even if the agent device 21 has the authority to access the service, the agent device 21 is prevented from accessing the service by using that authority when there is no user. For example, the agent device 21 captures an image of the user, and identifies the user using the captured image and the user feature point supplied from the server 61. Moreover, it manages by associating the identified user with the user ID.
  • the agent device 21 can access the server 61 using the associated user ID and use the service. On the other hand, when the specified user cannot be monitored, the agent device 21 does not access the server 61 or use the service using the associated user ID.
  • FIG. 3 is a diagram illustrating a configuration example of the agent device 21.
  • the agent device 21 includes a communication unit 101, a voice acquisition unit 102, a voice recognition unit 103, an image acquisition unit 104, an image recognition unit 105, a situation grasping unit 106, an authority acquisition unit 107, an authority management unit 108, and an action determination unit 109. It is configured to include.
  • the communication unit 101 communicates with other devices via the local network 11 and communicates with the server 61 via the Internet 51.
  • the voice acquisition unit 102 acquires the user's voice.
  • the acquired voice is supplied to the voice recognition unit 103.
  • the voice recognition unit 103 analyzes the supplied voice and identifies the user, or analyzes the content designated by the user by voice.
  • the image acquisition unit 104 acquires a user image.
  • the acquired image is supplied to the image recognition unit 105.
  • the image recognition unit 105 analyzes the supplied image and identifies the user.
  • the situation grasping unit 106 receives the recognition result from the voice recognition unit 103 and the recognition result from the image recognition unit 105, respectively, and grasps the situation of the user, for example, the situation of being located in the vicinity of the agent device 21.
  • the authority acquisition unit 107 acquires information such as a user ID and a one-time password acquired from the server 61 via the communication unit 101, in other words, authority (information regarding access to predetermined information), and authority management To the unit 108.
  • the authority management unit 108 manages the authority acquired by the authority acquisition unit 107. For example, the authority management unit 108 uses the user grasping information in the situation grasping unit 106 to determine that the user is close to the agent device 21, so that the authority can be used. Because it is away, it makes a decision such as discarding authority.
  • the behavior determination unit 109 determines the behavior of the agent device 21, for example, the behavior of accessing the server 61 and receiving service provision, or the behavior of controlling another device. That is, the action determination unit 109 performs processing using authority. As a result of the determination, the behavior determining unit 109 accesses the server 61 or accesses other devices via the communication unit 101 as necessary.
  • FIG. 4 is a flowchart for explaining an outline of processing of the agent device 21. Details of each process will be described later.
  • step S11 authority is delegated.
  • the agent device 21 obtains the right to receive provision of a predetermined service by the processing executed at the times T1 to T3. Processing related to delegation of authority will be described later with reference to FIG.
  • step S12 authority is validated. For example, it is effective when the user and the agent device 21 are communicating with each other, and the authority is used in the effective period. Processing related to the validation of authority will be described later with reference to FIGS.
  • step S13 the authority level is changed.
  • the authority is provided with a level, and the higher the level is, the more detailed information can be accessed and the information can be changed. Further, the level is changed in a predetermined condition or a predetermined situation. Processing related to the change of authority level will be described later with reference to FIGS.
  • step S14 authority is abandoned.
  • the acquired authority is discarded when, for example, a predetermined time has passed since it was determined that the user is gone, or when a condition for canceling a preset authority is satisfied.
  • step S31 the agent device 21 determines whether communication from the wearable device 31 has been captured.
  • the authority acquisition unit 107 determines whether or not the communication unit 101 has captured communication using a Bluetooth (registered trademark) beacon from the wearable device 31.
  • step S31 the standby information is maintained until it is determined that the communication from the wearable device 31 is captured.
  • the process proceeds to step S32.
  • step S32 the authority acquisition unit 107 of the agent device 21 acquires a system ID and server information from the wearable device 31.
  • the system ID and the server information may be transmitted / received by communication using a Bluetooth (registered trademark) beacon from the wearable device 31 or may be transmitted / received by communication via the local network 11.
  • step S33 when the system ID is acquired by the authority acquisition unit 107, the authority management unit 108 of the agent device 21 issues an instruction to the behavior determination unit 109, and accesses the server 61 based on the acquired server information. Performs a query by system ID.
  • step S34 information from the server 61 is acquired as a result of the inquiry in step S33.
  • User feature points, service information, user IDs, and one-time passwords are supplied from the server 61 to the authority acquisition unit 107 via the communication unit 101.
  • the description is continued on the assumption that the user feature point, service information, user ID, and one-time password are acquired. However, when at least one of these pieces of information is acquired, The case where information is acquired is also within the scope of the present technology. Further, the description will be continued on the assumption that a one-time password is acquired, but a password may be used.
  • step S35 the user is recognized.
  • the image acquisition unit 104 captures an image of the user.
  • the image recognition unit 105 analyzes the image acquired by the image acquisition unit 104 and extracts the feature points of the user.
  • the situation grasping unit 106 identifies the user using the user feature points supplied from the image recognition unit 105 and the user feature points supplied via the authority management unit 108.
  • the user when the degree of coincidence of the user feature points is high, the user is a user registered in the server 61, in other words, the user is recognized as a regular user, and when the degree of coincidence is low, Processing such as searching for a user and calculating the degree of coincidence with the user is performed.
  • the user can be recognized using voice.
  • the voice acquisition unit 102 acquires the user's voice.
  • the voice recognition unit 103 analyzes the voice acquired by the voice acquisition unit 102 and extracts the feature points of the user.
  • the situation grasping unit 106 identifies the user using the user feature points supplied from the speech recognition unit 103 and the user feature points supplied via the authority management unit 108.
  • step S36 the authority management unit 108 manages the recognized user and information (service information, user ID, one-time password, etc.) acquired from the server 61 in association with each other.
  • step S37 the state grasping unit 106 determines whether or not communication with the wearable device 31 is disabled. For example, this determination is based on whether or not a Bluetooth (registered trademark) beacon from the wearable device 31 is received, and whether or not the agent device 21 makes an inquiry to the wearable device 31 and responds to the inquiry. Can be done.
  • a Bluetooth (registered trademark) beacon from the wearable device 31 is received, and whether or not the agent device 21 makes an inquiry to the wearable device 31 and responds to the inquiry. Can be done.
  • step S38 the state grasping unit 106 determines whether the user can no longer be monitored. For example, in this determination, as in the case of specifying the user described above, an image is captured, the sound is acquired whether or not the user is specified by analyzing the captured image, and the acquired sound is analyzed. This can be performed depending on whether or not the user is specified.
  • step S37 and the determination in step S38 are performed so that the agent device 21 performs processing using authority only when the user (wearable device 31) is within a range that can be monitored by the agent device 21. Therefore, if it is determined in step S37 that communication with the wearable device 31 is no longer possible, or if it is determined in step S38 that the user can no longer be monitored, the process proceeds to step S39 and the authority is set not to be used. Is done.
  • the setting is performed, for example, by invalidating the one-time password or discarding the acquired authority (deleting the acquired information).
  • whether or not the user is within a range that can be monitored by the agent device 21 may be determined using position information obtained by GPS.
  • information on the room entry management may be used.
  • the authority may be set not to be used when information indicating that the user has left the room is obtained.
  • step S71 the agent device 21 acquires an image by taking an image or the like.
  • step S72 the recognized user is extracted from the acquired image.
  • step S73 it is determined whether or not the extracted user feature point matches the user feature point acquired from the server 61. If it is determined in step S73 that the user's feature points match, the authority is validated in step S74. On the other hand, if it is determined in step S73 that the user feature points do not match, the authority is invalidated in step S75.
  • user feature points are often extracted from face portions.
  • a user is imaged in the image captured by the agent device 21 and a feature point is extracted from the user, and the extracted feature point matches the feature point registered in the server 61, the user There is a high possibility that the agent device 21 is facing. Therefore, the authority is activated when facing the agent device 21.
  • step S76 it is determined whether or not to end. If it is determined in step S76 that the process will not end, the process returns to step S71, and the subsequent processes are repeated. On the other hand, if it is determined in step S76 that the process is to be terminated, the process related to the authorization activation is terminated.
  • step S91 the agent device 21 acquires the voice by collecting the voice with a microphone.
  • step S92 feature points in the user's voice are extracted from the acquired voice.
  • step S93 it is determined whether or not the extracted user feature point matches the user feature point acquired from the server 61. If it is determined in step S93 that the user's feature points match, the authority is validated in step S94. On the other hand, if it is determined in step S93 that the user's feature points do not match, the authority is invalidated in step S95.
  • step S96 it is determined whether or not to end. If it is determined in step S96 that the process will not be terminated, the process returns to step S91, and the subsequent processes are repeated. On the other hand, if it is determined in step S96 that the process is to be ended, the process related to the authorization activation is ended.
  • the authority is finally activated when the authority is activated by the process based on the image or when the authority is activated by the process based on the sound. May be activated.
  • the authority may be finally activated when the authority is validated by the process based on the image and the authority is validated by the process based on the sound.
  • the authority is validated when the agent device 21 can acquire the image and sound of the user.
  • step S111 the user's line of sight is detected.
  • step S112 it is determined whether or not the agent device 21 (self) is under the line of sight of the user, in other words, whether or not the user is looking at the agent device 21. If it is determined in step S112 that the agent device 21 is under the user's line of sight, the process proceeds to step S113.
  • step S113 the authority level is changed. Then, the process at the changed authority level is executed in step S114.
  • step S114 the process at the changed authority level is executed.
  • FIG. 9 is a diagram illustrating an example of a service (application), a default authority, and an extended authority after the change.
  • the default right is the right to view the schedule, but the extended right after the change is the right to create the schedule.
  • authority regarding net shopping as a service the default authority is authority to browse past shopping histories, but the expanded authority after the change is authority to allow purchase of goods.
  • the default authority is the authority to adjust the water temperature up to 35 degrees, but the extended authority after the change is the authority to adjust the water temperature above 35 degrees.
  • the default authority is the authority to use tools, but in the extended authority after change , The authority that can even stop the line.
  • the default authority In the case of authority on livestock as a service (authority given to employees working on the ranch), the default authority is to allow livestock feeding, but the extended authority after the change kills livestock. It is assumed that it is authorized until it is done. In the case of authority related to agriculture as a service (authority given to employees working on the farm), the default authority is permission to perform operations such as watering crops, but in the extended authority after change Permission is granted until crops are harvested.
  • the default authority is the authority to browse the personal profile, but the extended authority after the change is the authority to browse the family profile.
  • the default authority is the authority to read out another person's tweet (Tweet), but the extended authority after the change is an authority to create a tweet .
  • the default authority In the case of the authority to access the file server as a service, the default authority is the authority to view the file, but the extended authority after the change is the authority to delete and create the file. In the case of the authority to receive the bank service as the service, the default authority is the authority up to the balance inquiry, but the extended authority after the change is an authority that can make the transfer.
  • the default authority In the case of authority to receive investment services as a service, the default authority is the authority to invest up to 1 million yen, but the extended authority after the change is the authority to invest up to 10 million yen.
  • the default authority In the case of authority related to medical care (authority given to those who work in hospitals), the default authority is the authority up to the measurement of body temperature and pulse, but in the extended authority after the change, up to the administration of drugs It is said that it can be authorized.
  • step S113 the authority level is changed.
  • the authority is changed from the authority of only viewing the schedule to the authority of creating the schedule.
  • the process proceeds to step S114, and the process using the authority is executed. For example, processing such as creation of a schedule is executed.
  • step S114 If the process using the authority is executed in step S114, or if it is determined in step S112 that the agent device 21 is not under the user's line of sight, the process proceeds to step S115 and whether or not to end. Is determined. If it is determined in step S115 that the process will not end, the process returns to step S111, and the subsequent processes are repeated. On the other hand, if it is determined in step S115 that the process is to be terminated, the process relating to the change of authority level is terminated.
  • step S131 user interaction is extracted.
  • step S132 it is determined whether or not the user's intention to make a decision is included in the extracted dialogue.
  • the user's determination intention is, for example, an intention to determine purchase of a product or an intention to change a device.
  • step S132 it is determined whether or not a keyword representing such intention is included in the extracted dialogue.
  • step S132 If it is determined in step S132 that the user's intention to determine is entered, the process proceeds to step S133. In step S133, the authority level is changed. The processing in steps S133 through S135 is the same as the processing in steps S113 through S115 in the flowchart shown in FIG.
  • the authority level is finally changed when the authority level is changed by an image-based process or when the authority level is changed by an audio-based process.
  • the level may be changed.
  • the authority level may be finally changed when the authority level is changed by the process based on the image and the authority level is changed by the process based on the sound.
  • Example of customer service robot First, the case where the agent device 21 is a service robot (when the agent device 21 is mounted on the service robot) will be described as an example.
  • the wearable device 31 of the user provides the agent device 21 with a serial ID and inquiry server information. This process is the process described as the process at time T1 with reference to FIG.
  • the customer service robot obtains information such as user feature points, service information, user ID, and one-time password by executing the processes described as the processes at time T2 and time T3 with reference to FIG.
  • the customer service robot uses the acquired user ID and one-time password to access information such as the user's shopping history, store visit history, and schedule, and searches for products suitable for the user's preferences and schedules. Nominate and advise which floor to go to.
  • the authority to access such personal information of the user is a default authority, and such authority is delegated to the customer service robot. Then, the customer service robot performs customer service by presenting useful information to the user using the delegated authority.
  • the authority level of the customer service robot is changed. Processing related to the change of the authority level is performed based on the flowchart of FIG.
  • step S132 it is determined that the user's intention to make a decision is included in the dialog content of the consultation of the present to the child among the dialogs from the user, and the process proceeds to step S133.
  • step S133 the level of authority delegated to the customer service robot is changed.
  • the authority is changed so that the user (shopper) can view the child profile.
  • step S134 the child profile is browsed to acquire information such as the child's preference, age, sex, schedule, and the like, and a product search is performed based on the acquired information.
  • the search result is provided to the user.
  • the service is temporarily changed from the authority until the user's own information is viewed to the wide authority that allows the user's information regarding the user to be viewed.
  • Examples of home appliances Next, the case where the agent appliance 21 controls the cooking home appliance 33 will be described as an example. Since communication is performed between the agent device 21 and the wearable device 31, and the processing until the agent device 21 acquires information such as a user ID and a one-time password from the server 61 is performed in the same manner as described above. The description is omitted.
  • the agent device 21 controls the gas cooker so that it can be used when the user is in the vicinity of the gas cooker.
  • the authority when the user is looking at the gas cooker (when gazing), the authority is changed to allow cooking at a high temperature. In such a case, it is a default authority that the user can use the gas cooking appliance, and the cooking temperature is limited to, for example, 180 degrees or less. Further, when the user is gazing at the gas cooking utensil, the authority is changed to allow the cooking at a high temperature, for example, 180 degrees or more.
  • Example in the factory There is an apparatus that provides virtual reality called AR (Augmented Reality) glass.
  • AR Augmented Reality
  • the user can see an image in which a virtual image is superimposed on the real world by wearing the glasses-type AR glasses.
  • employee A and employee B working in the factory are each wearing AR glasses. Further, it is assumed that employee A has a default authority and employee B has an extended authority.
  • the default authority is an authority authorized to use tools in the factory, and the extended authority further has an authority to stop the line.
  • the AR glass of the employee A is masked so that tools that can be handled with the authority given to the employee A can be seen and tools that cannot be handled with the given authority cannot be seen.
  • the button for stopping the line is masked and an image invisible is provided to the employee A.
  • the agent device 21 monitors the conversation between the employee A and the employee B, and interprets the instruction content “giving authority to operate the line” from the employee B having the extended authority. , Expand the authority of employee A.
  • the authority level is changed when a keyword that triggers to expand the authority is issued by analyzing the user interaction.
  • the AR glass can be used as the wearable device 31 described above, and the agent device 21 communicates with both the AR glass of the employee A and the AR glass of the employee B to give to the AR glass of the employee A.
  • the authority given to the employee B's AR glasses is grasped by executing the processing in the above-described embodiment.
  • the agent device 21 can perform processing such as authority expansion within the grasped authority.
  • the present technology can also be applied to a case where an authority is given to an unauthorized user by an authorized user.
  • the agent device 21 may be mounted on the vehicle so that the speed and the like can be limited.
  • the explanation will be continued with an example of a rented car called a rental car.
  • the card functions as the wearable device 31.
  • the card can also be a membership card for renting a car or a credit card for payment.
  • the authority of the agent device 21 is expanded using this action as a trigger. For example, before the authority is expanded, the authority to view only the type of license is changed to the authority to view even a traffic violation history.
  • the authority is changed so that the information of the user actually driving can be browsed. Moreover, after changing to the authority which can be browsed to violation history in this way, according to the violation history, control which sets a maximum speed or permits manual operation is performed.
  • the authority to access predetermined information can be acquired without bothering the user.
  • the user can delegate authority to the agent device 21 without performing troublesome operations.
  • the delegated authority can be changed according to the user's situation. Such a change regarding authority can also be made without bothering the user.
  • a service using authority can be provided to the user.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 11 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a storage unit 1008, a communication unit 1009, and a drive 1010 are connected to the input / output interface 1005.
  • the input unit 1006 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the storage unit 1008 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 1009 includes a network interface.
  • the drive 1010 drives a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 1001) can be provided by being recorded on the removable medium 1011 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1011 to the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • system represents the entire apparatus composed of a plurality of apparatuses.
  • this technique can also take the following structures.
  • An information processing apparatus comprising: a processing unit that performs processing using the predetermined authority.
  • the acquisition unit acquires first information, Making an inquiry to the server using the first information, obtaining second information from the server, The information processing apparatus according to (1), wherein the predetermined authority is delegated by acquiring the second information.
  • the information processing apparatus according to (2), wherein the first information is supplied from a wearable device.
  • the second information includes at least one information of a user feature point, service information, a user ID, and a password.
  • the authority is validated when communicating with a user.
  • (6) The information processing apparatus according to any one of (1) to (5), wherein the authority is enabled when the user is captured in a captured image.
  • (7) The information processing apparatus according to any one of (1) to (6), wherein the authority is validated when the voice of the user is included in the collected voice.
  • (8) The information processing apparatus according to any one of (1) to (7), wherein the predetermined condition is a case where a predetermined keyword is issued.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Bioethics (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本技術は、権限の委譲を、ユーザの手を煩わせることなく行えるようにする情報処理装置、情報処理方法、並びにプログラムに関する。 所定の権限の委譲を受けるための情報を取得する取得部と、所定の条件が満たされたとき、権限のレベルを変更する変更部と、所定の権限を用いた処理を行う処理部とを備える。取得部は、第1の情報を取得し、第1の情報を用いてサーバに問い合わせを行い、サーバから第2の情報を取得し、第2の情報を取得することで、所定の権限の委譲が行われる。本技術は、例えば所定の情報にアクセスする権限が、ユーザから委譲されるエージェント装置に適用できる。

Description

情報処理装置、情報処理方法、並びにプログラム
 本技術は情報処理装置、情報処理方法、並びにプログラムに関し、例えば、所定の情報にアクセスする権限を与える処理を、ユーザの手を煩わせずに行えるようにした情報処理装置、情報処理方法、並びにプログラムに関する。
 インターネットを用いた情報の検索や情報の管理が普及している。ユーザは、例えば、スケジュール、電子メールといった個人情報を、自己の端末から、ネットワークを介して所定のサーバにアクセスすることで、簡便に読み出したり、書き込んだりするといったサービスを受けることができる。
 権限を持ったユーザしかサービスの提供を受けることができないようにするために、ユーザ認証が行われる。ユーザ認証の方法としては、例えば、パスワード入力などの認証のための操作をユーザに行ってもらう方法、無線通信によって認証の鍵となる装置を検出する方法、生体情報を用いた生体認証を行う方法などが挙げられる。
 しかしながら、認証のための操作をユーザに行ってもらうと、ユーザに負担がかかる、例えば、IDやパスワードを、アクセスする毎に入力するといった負担がかかる恐れがある。このような負担を軽減するための提案が、特許文献1で提案されている。
特開2016-194755号公報
 例えば、所定のサーバにアクセスし、所定の情報を取得する権限を、エージェント装置(サービス)に委譲し、エージェント装置側でその権限により、ユーザが必要とするときに、ユーザが所望とする情報を提示することを、ユーザの手を煩わせずに行えるようにすることが望まれている。
 本技術は、このような状況に鑑みてなされたものであり、ユーザの利便性の向上を図ることができるようにするものである。
 本技術の一側面の情報処理装置は、所定の権限の委譲を受けるための情報を取得する取得部と、所定の条件が満たされたとき、前記権限のレベルを変更する変更部と、前記所定の権限を用いた処理を行う処理部とを備える。
 本技術の一側面の情報処理方法は、所定の権限の委譲を受けるための情報を取得し、所定の条件が満たされたとき、前記権限のレベルを変更し、前記所定の権限を用いた処理を行うステップを含む。
 本技術の一側面のプログラムは、コンピュータに、所定の権限の委譲を受けるための情報を取得し、所定の条件が満たされたとき、前記権限のレベルを変更し、前記所定の権限を用いた処理を行うステップを含む処理を実行させる。
 本技術の一側面の情報処理装置、情報処理方法、並びにプログラムにおいては、所定の権限の委譲を受けるための情報が取得され、所定の条件が満たされたとき、権限のレベルが変更され、所定の権限を用いた処理が行われる。
 なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 また、プログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。
 本技術の一側面によれば、ユーザの利便性の向上を図ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術が適用されるシステムの一実施の形態の構成を示す図である。 システムの動作について説明するための図である。 エージェント装置の構成例について説明するための図である。 エージェント装置の処理の概略について説明するためのフローチャートである。 権限の委譲に係わる処理について説明するためのフローチャートである。 権限の有効化に係わる処理について説明するためのフローチャートである。 権限の有効化に係わる処理について説明するためのフローチャートである。 権限レベルの変更に係わる処理について説明するためのフローチャートである。 権限レベルの変更について説明するための図である。 権限レベルの変更に係わる処理について説明するためのフローチャートである。 記録媒体について説明するための図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
 <システムの構成例>
 図1は、本技術を適用した情報処理システムの一実施の形態の構成を示す図である。図1に示した情報処理システムは、ローカルネットワーク11に、エージェント装置21が接続されている。また、ローカルネットワーク11には、ウエアラブルデバイス31、ロボット32、調理家電33も接続されている。
 ローカルネットワーク11は、例えば、家庭、店などの所定の建物内や、車、電車などの乗り物内などに構築されたネットワークであるとする。またローカルネットワーク11は、例えば、無線または/および有線で構成されたLAN(Local Area Network)やWAN(Wide Area Network)であり、接続されている装置同士でデータの授受が行えるように構成されている。
 なお、ウエアラブルデバイス31、ロボット32、調理家電33は、異なるLANに接続され、それらのLANがWANに接続されているような構成であっても良い。すなわち、異なるネットワークに接続されている装置で構成されるシステムに対しても本技術を適用することはできる。
 エージェント装置21は、ローカルネットワーク11に接続されている装置を制御したり、インターネット51を介して、外部のサーバ61にアクセスして情報を検索したり、その検索した情報をユーザに提示したりする機能を有している。
 ウエアラブルデバイス31は、例えば、時計型の装置、眼鏡型の装置、服型、靴型、帽子型の装置、指輪型、ブレスレット型、ネイル型などのアクセサリ型の装置などであり、ユーザが装着する装置である。またスマートフォンなどでも良い。
 ロボット32は、愛玩ロボットなどと称されるロボットであったり、店に設置されている接客用のロボットであったりする。ロボット32は、人、動物などを模写した外観を有し、ユーザとコミュニケーションをとることができる機能する装置である。
 調理家電33は、IoT(Internet of Things)デバイスと称される装置に属しているとし、ネットワークに接続され、エージェント装置21により制御される機能を、本来の機能の他に有している。
 <システムの動作例>
 図1に示したシステムの動作について、図2を参照して説明する。
 時刻T1において、ウエアラブルデバイス31を装着したユーザが、例えば、所定の部屋に入出する。
 ウエアラブルデバイス31は、エージェント装置21と通信を行える状態になると、シリアルIDと問い合わせサーバ情報をエージェント装置21に対して送信する。この送信は、ローカルネットワーク11を介して行われても良いし、Bluetooth(登録商標)などの通信により行われても良い。
 ウエアラブルデバイス31は、エージェント装置21にシリアルIDと問い合わせサーバ情報を提供するより前の時点(時刻T0)において、サーバ61に対して、事前登録を行っている。事前登録にて、サーバ61には、例えば、シリアルID、ユーザ特徴点、サービス情報、ユーザID、ワンタイムパスワードなどの情報が提供され、サーバ61に登録されている。
 時刻T1において、ウエアラブルデバイス31からエージェント装置21に供給する“サーバ情報”は、事前登録が行われているサーバ61に関する情報、例えば、URLである。また、シリアルIDは、ウエアラブルデバイス31を識別するためのIDである。
 時刻T2において、エージェント装置21は、ウエアラブルデバイス31から供給されたサーバ情報を用いて、サーバ61にアクセスし、ウエアラブルデバイス31から供給されたシリアルIDで、問い合わせを行う。その問い合わせの結果、時刻T3において、サーバ61から、エージェント装置21に対して、ユーザ特徴点、サービス情報、ユーザID、ワンタイムパスワードなどの、事前登録にて登録された情報が、供給される。
 事前登録でサーバ61に登録されたユーザ特徴点は、ユーザを特定するための情報であり、例えば、ユーザを撮影した顔画像から抽出された特徴点、ユーザの音声から抽出された特徴点、ユーザの指紋などの生態情報などである。また事前登録でサーバ61に登録されたサービス情報は、スケジュール、メールといったユーザに対して提供されるサービスに関する情報である。
 また事前登録でサーバ61に登録されたユーザIDやワンタイムパスワードは、サービス、例えば、スケジュールにアクセスするときに正規のユーザであるか否かの判定を行うときに用いられる情報である。
 エージェント装置21は、このような情報を取得することで、サーバ61でユーザに対して提供されるサービスにアクセスすることができる。すなわち、エージェント装置21は、サービスにアクセスする権限を得る。
 エージェント装置21は、サービスにアクセスする権限を得ても、ユーザが居ないときに、その権限を利用してサービスにアクセスすることがないようにされている。エージェント装置21は、例えば、ユーザを撮像し、その撮像した画像と、サーバ61から供給されたユーザ特徴点を用いて、ユーザを特定する。また特定したユーザと、ユーザIDを紐付けて管理する。
 エージェント装置21は、特定したユーザを監視できている間は、紐付けたユーザIDを用いてサーバ61にアクセスし、サービスを利用することができる状態とされる。一方で、エージェント装置21は、特定したユーザを監視できていないときには、紐付けたユーザIDを用いてサーバ61にアクセスしたり、サービスを利用したりすることはしない状態とされる。
 <エージェント装置の構成例>
 このような権限の管理を行うエージェント装置21の構成について説明する。図3は、エージェント装置21の構成例を示す図である。
 エージェント装置21は、通信部101、音声取得部102、音声認識部103、画像取得部104、画像認識部105、状況把握部106、権限取得部107、権限管理部108、および行動決定部109を含む構成とされている。
 通信部101は、ローカルネットワーク11を介して他の装置と通信を行ったり、インターネット51を介してサーバ61と通信を行ったりする。音声取得部102は、ユーザの音声を取得する。取得された音声は、音声認識部103に供給される。音声認識部103は、供給された音声を解析し、ユーザを特定したり、ユーザが音声にて指示した内容を解析したりする。
 画像取得部104は、ユーザの画像を取得する。取得された画像は、画像認識部105に供給される。画像認識部105は、供給された画像を解析し、ユーザを特定する。
 状況把握部106は、音声認識部103からの認識結果と画像認識部105からの認識結果をそれぞれ受け取り、ユーザの状況、例えば、エージェント装置21の近傍に位置しているといった状況を把握する。
 権限取得部107は、通信部101を介してサーバ61から取得されるユーザIDやワンタイムパスワードといった情報、換言すれば、所定の情報にアクセスするための権限(に関する情報)を取得し、権限管理部108に供給する。
 権限管理部108は、権限取得部107で取得された権限を管理する。例えば、権限管理部108は、状況把握部106でのユーザ把握情報を用いて、ユーザがエージェント装置21に近くに居るため、権限を利用できる状態であると判定したり、ユーザがエージェント装置21から離れたため、権限を破棄するといった判定をしたりする。
 行動決定部109は、エージェント装置21の行動、例えば、サーバ61にアクセスしてサービスの提供を受けるといった行動を決定したり、他の装置を制御するといった行動を決定したりする。すなわち行動決定部109は、権限を用いた処理を行う。行動決定部109は、決定の結果、必要に応じ、通信部101を介して、サーバ61にアクセスしたり、他の装置にアクセスしたりする。
 <エージェント装置の処理について>
 このような構成を有するエージェント装置21の処理について説明する。図4は、エージェント装置21の処理の概略について説明するためのフローチャートである。各処理の詳細については、後述する。
 ステップS11において、権限の委譲が行われる。図2を参照して説明したように、時刻T1乃至T3において実行される処理により、エージェント装置21は、所定のサービスの提供を受ける権限を得る。権限の委譲に関する処理については、図5を参照して後述する。
 ステップS12において、権限の有効化が行われる。例えば、ユーザとエージェント装置21が何らかのコミュニケーションを取っているときに有効とされ、有効とされている期間において、権限が利用される。権限の有効化に係わる処理については、図6、図7を参照して後述する。
 ステップS13において、権限レベルの変更が行われる。例えば、権限にはレベルが設けられており、レベルが高くなるほど、より詳細な情報にアクセスすることができたり、情報の変更ができたりするように構成されている。また所定の条件や、所定の状況において、レベルは変更される。権限レベルの変更に係わる処理については、図8、図10を参照して後述する。
 ステップS14において、権限の放棄が行われる。取得された権限は、例えば、ユーザが居なくなったと判定されてから所定の時間が経過した、予め設定されていた権限を破棄する条件を満たしたなどのときに、破棄される。
 <権限の委譲に係わる処理について>
 図5に示したフローチャートを参照し、ステップS11において実行される権限の委譲に係わる処理であり、エージェント装置21が行う処理の詳細について説明する。
 ステップS31において、エージェント装置21は、ウエアラブルデバイス31からの通信を捕らえたか否かを判定する。例えば、権限取得部107(図3)は、通信部101でウエアラブルデバイス31からのBluetooth(登録商標)のビーコンによる通信を捕らえたか否かを判定する。ステップS31において、ウエアラブルデバイス31からの通信を捕らえたと判定されるまで待機情報が維持され、ウエアラブルデバイス31からの通信を捕らえたと判定された場合、ステップS32に処理が進められる。
 ステップS32において、エージェント装置21の権限取得部107は、ウエアラブルデバイス31からシステムIDとサーバ情報を取得する。システムIDとサーバ情報は、例えば、ウエアラブルデバイス31からのBluetooth(登録商標)のビーコンによる通信で送受信されても良いし、ローカルネットワーク11を介した通信で送受信されても良い。
 ステップS33において、エージェント装置21の権限管理部108は、権限取得部107でシステムIDが取得された場合、行動決定部109に指示を出し、取得されたサーバ情報に基づいてサーバ61にアクセスし、システムIDでの問い合わせを実行する。
 ステップS34において、ステップS33における問い合わせの結果、サーバ61からの情報が取得される。通信部101を介してサーバ61から、ユーザ特徴点、サービス情報、ユーザID、およびワンタイムパスワードが権限取得部107に供給される。
 なおここでは、ユーザ特徴点、サービス情報、ユーザID、およびワンタイムパスワードが取得されるとして説明を続けるが、これらの情報のうちの少なくとも1つの情報が取得される場合や、これらの情報以外の情報も取得される場合も、本技術の適用範囲である。また、ワンタイムパスワードが取得されるとして説明を続けるが、パスワードであっても良い。
 ステップS35において、ユーザが認識される。画像を用いてユーザを認識する場合、画像取得部104は、ユーザの画像を撮像する。画像認識部105は、画像取得部104で取得された画像を解析し、ユーザの特徴点を抽出する。状況把握部106は、画像認識部105から供給されるユーザ特徴点と、権限管理部108を介して供給されるユーザ特徴点を用いて、ユーザを特定する。
 例えば、ユーザ特徴点の一致度が高い場合、そのユーザをサーバ61に登録されているユーザである、換言すれば、正規のユーザであると認識し、一致度が低い場合、画像内から他のユーザを探し、そのユーザとの一致度を計算するといった処理が行われる。
 また音声を用いてユーザが認識されるようにすることもできる。音声取得部102は、ユーザの音声を取得する。音声認識部103は、音声取得部102で取得された音声を解析し、ユーザの特徴点を抽出する。状況把握部106は、音声認識部103から供給されるユーザ特徴点と、権限管理部108を介して供給されるユーザ特徴点を用いて、ユーザを特定する。
 ここでは、画像と音声を例に挙げて説明したが、他の情報を用いて、ユーザを認識しても良い。
 ステップS36において、権限管理部108は、認識されたユーザと、サーバ61から取得された情報(サービス情報、ユーザID、ワンタイムパスワードなど)を紐付けて管理する。
 ステップS37において、状態把握部106は、ウエアラブルデバイス31と通信できなくなったか否かを判定する。例えば、この判定は、ウエアラブルデバイス31からのBluetooth(登録商標)のビーコンが受信できているか否か、エージェント装置21からウエアラブルデバイス31に問い合わせを実行し、その問い合わせに対して返答してきたか否かにより行われるようにすることができる。
 ステップS38において、状態把握部106は、ユーザを監視できなくなったか否かを判定する。例えば、この判定は、上記したユーザを特定する場合と同じく、画像を撮像し、撮像された画像を解析することでユーザが特定されたか否か、音声を取得し、取得された音声を解析することでユーザが特定されたか否かにより行われるようにすることができる。
 ステップS37における判定とステップS38における判定は、エージェント装置21が監視できる範囲内にユーザ(ウエアラブルデバイス31)がいるときだけ、エージェント装置21が権限を用いた処理を行うようにするために行われる。よって、ステップS37において、ウエアラブルデバイス31と通信できなくなったと判定された場合や、ステップS38において、ユーザを監視できなくなったと判定された場合、ステップS39に処理が進められ、権限を使わないように設定される。
 権限を使わないように設定する場合、その設定は、例えば、ワンタイムパスワードを無効にしたり、取得された権限を破棄(取得した情報を削除)したりすることで行われる。
 なお、エージェント装置21が監視できる範囲内にユーザがいるか否かは、GPSにより得られる位置情報を用いて行われるようにしても良い。また例えば、入室管理が行われている部屋においては、その入室管理の情報が用いられるようにしても良い。すなわち、退室したという情報が得られた時点で、権限が使われないように設定されるようにしても良い。
 <権限の有効化に係わる処理について>
 上記したようにして権限が、エージェント装置21に委譲された後、その委譲された権限を有効化するときの処理について説明する。権限が有効化されるのは、ユーザとエージェント装置21が何らかのコミュニケーションをとっていると判定されるときである。何らかのコミュニケーションとは、エージェント装置21の方を向いている、エージェント装置21に対して何らかの操作を行っている、エージェント装置21と会話しているなどである。
 まず、図6のフローチャートを参照し、画像を用いて権限の有効化に係わる処理を実行する場合について説明する。ステップS71において、エージェント装置21は、画像を撮像するなどし、画像を取得する。ステップS72において、取得された画像から、認識しているユーザが抽出される。
 ステップS73において、その抽出されたユーザの特徴点が、サーバ61から取得されているユーザの特徴点と一致しているか否かが判定される。ステップS73において、ユーザの特徴点が一致していると判定された場合、ステップS74において、権限が有効化される。一方で、ステップS73において、ユーザの特徴点は一致していないと判定された場合、ステップS75において、権限は無効化される。
 一般的に、ユーザの特徴点は、顔の部分から抽出されることが多い。エージェント装置21により撮像された画像内にユーザが撮像されており、そのユーザから特徴点が抽出され、その抽出された特徴点とサーバ61に登録されている特徴点が一致する場合、ユーザは、エージェント装置21の方を向いている可能性が高い。よって、そのようなエージェント装置21の方に向いているときには、権限が有効化される。
 ステップS74において、権限が有効化された場合、またはステップS75において、権限が無効化された場合、ステップS76に処理が進められる。ステップS76において、終了するか否かが判定される。ステップS76において、終了しないと判定された場合、ステップS71に処理は戻され、それ以降の処理が繰り返される。一方で、ステップS76において、終了すると判定された場合、権限の有効化に係わる処理は終了される。
 このように、画像が用いられて、権限の有効化が行われる。次に、図7のフローチャートを参照に、音声により権限を有効化する際の処理について説明する。
 ステップS91において、エージェント装置21は、音声をマイクロフォンで集音するなどし、音声を取得する。ステップS92において、取得された音声から、そのユーザの音声における特徴点が抽出される。
 ステップS93において、その抽出されたユーザの特徴点が、サーバ61から取得されているユーザの特徴点と一致しているか否かが判定される。ステップS93において、ユーザの特徴点が一致していると判定された場合、ステップS94において、権限が有効化される。一方で、ステップS93において、ユーザの特徴点は一致していないと判定された場合、ステップS95において、権限は無効化される。
 ステップS94において、権限が有効化された場合、またはステップS95において、権限が無効化された場合、ステップS96に処理が進められる。ステップS96において、終了するか否かが判定される。ステップS96において、終了しないと判定された場合、ステップS91に処理は戻され、それ以降の処理が繰り返される。一方で、ステップS96において、終了すると判定された場合、権限の有効化に係わる処理は終了される。
 図6を参照して説明した画像を用いた権限の有効化に係わる処理と、図7を参照して説明した音声を用いた権限の有効化に係わる処理は、どちらか一方のみが行われるようにしても良いし、両方並列的に行われるようにしても良い。
 また、両方の処理が並列して行われるようにした場合、画像に基づいた処理で権限が有効化されたとき、または音声に基づいた処理で権限が有効化されたときに、最終的に権限が有効化されるようにしても良い。または、画像に基づいた処理で権限が有効化され、かつ音声に基づいた処理で権限が有効化されたときに、最終的に権限が有効化されるようにしても良い。
 このように、エージェント装置21で、ユーザの画像や音声が取得できているときに、権限は有効化される。
 <権限のレベルの変更に係わる処理について>
 上記したようにして権限が、エージェント装置21に委譲された後、その委譲された権限のレベルが変更されるときの処理について説明する。権限のレベルが変更されるのは、ユーザとエージェント装置21との状態(関わり方)に依存して変更される。
 まず、図8のフローチャートを参照し、エージェント装置21が、画像を用いて権限レベルの変更に係わる処理を実行する場合について説明する。
 ステップS111において、ユーザの視線が検出される。ステップS112において、エージェント装置21(自己)が、ユーザの視線下にあるか否か、換言すれば、ユーザがエージェント装置21の方を見ているか否かが判定される。ステップS112において、エージェント装置21が、ユーザの視線下にあると判定された場合、ステップS113に処理が進められる。
 ステップS113において、権限のレベルが変更される。そして、変更された権限レベルでの処理が、ステップS114において実行される。ここで、図9を参照し、権限レベルの変更例について説明を加える。
 図9は、サービス(アプリケーション)、デフォルトの権限、および変更後の拡張された権限の一例を示す図である。
 サービスとして、予定表にアクセスする権限の場合、デフォルトの権限としては、予定表を閲覧するまでの権限であるが、変更後の拡張された権限では、予定表の作成までできる権限とされる。サービスとして、ネットショッピングに関する権限の場合、デフォルトの権限としては、過去の買い物履歴を閲覧するまでの権限であるが、変更後の拡張された権限では、商品の購入までできる権限とされる。
 サービスとして、ホームアライアンスに関する権限の場合、デフォルトの権限としては、水温調整を35度まで行える権限であるが、変更後の拡張された権限では、35度以上の水温調整ができる権限とされる。サービスとして、工場内での権限に関する権限(工場で働く従業員に与えられる権限)の場合、デフォルトの権限としては、道具を使用することができる権限であるが、変更後の拡張された権限では、ラインを停止することまでできる権限とされる。
 サービスとして、牧畜に関する権限(牧場で働く従業員に与えられる権限)の場合、デフォルトの権限としては、家畜のえさやりまで許可する権限であるが、変更後の拡張された権限では、家畜をと殺するまで許可する権限とされる。サービスとして、農業に関する権限(農場で働く従業員に与えられる権限)の場合、デフォルトの権限としては、作物への水やりなどの作業まで許可する権限であるが、変更後の拡張された権限では、作物を収穫するまで許可する権限とされる。
 サービスとして、SNSにアクセスする権限の場合、デフォルトの権限としては、個人のプロファイルを閲覧するまでの権限であるが、変更後の拡張された権限では、家族のプロファイルまで閲覧できる権限とされる。サービスとして、SNSにアクセスする権限の場合、デフォルトの権限としては、他人のツイート(Tweet)の読み上げまでの権限であるが、変更後の拡張された権限では、ツイートの作成まで行える権限とされる。
 サービスとして、ファイルサーバにアクセスする権限の場合、デフォルトの権限としては、ファイルの閲覧までの権限であるが、変更後の拡張された権限では、ファイルの削除、作成までできる権限とされる。サービスとして、銀行のサービスを受ける権限の場合、デフォルトの権限としては、残高照会までの権限であるが、変更後の拡張された権限では、振り込みまでできる権限とされる。
 サービスとして、投資のサービスを受ける権限の場合、デフォルトの権限としては、100万円まで投資できる権限であるが、変更後の拡張された権限では、1000万円まで投資できる権限とされる。サービスとして、医療に関する権限(病院で働く人に与えられる権限)の場合、デフォルトの権限としては、体温、脈拍の測定までの権限であるが、変更後の拡張された権限では、薬の投与までできる権限とされる。
 一例として、このような権限のレベルの変更がある。
 図8のフローチャートを参照した説明に戻る。ステップS113において、権限のレベルが変更される。例えば、予定表の閲覧のみの権限から、予定表の作成まで行える権限に変更される。このような権限の変更が行われると、ステップS114に処理が進められ、権限を使った処理が実行される。例えば、予定表の作成といった処理が実行される。
 ステップS114において、権限を使った処理が実行された場合、または、ステップS112において、エージェント装置21がユーザの視線下にはないと判定された場合、ステップS115に処理が進められ、終了するか否かが判定される。ステップS115において、終了しないと判定された場合、ステップS111に処理が戻され、それ以降の処理が繰り返される。一方で、ステップS115において、処理は終了すると判定された場合、権限レベルの変更に係わる処理は終了される。
 このように、画像が用いられて、権限レベルの変更が行われる。次に、図10のフローチャートを参照に、音声により権限レベルを変更する際の処理について説明する。
 ステップS131において、ユーザの対話が抽出される。ステップS132において、抽出された対話に、ユーザの決定意思が入っているか否かが判定される。ユーザの決定意思とは、例えば、商品の購入を決定する意思や機器を変更するといった意思である。そしてステップS132においては、そのような意思を表すキーワードが、抽出された対話内に含まれているか否かが判定される。
 ステップS132において、ユーザの決定意思が入っていると判定された場合、ステップS133に処理が進められる。ステップS133において、権限のレベルが変更される。ステップS133乃至S135の処理は、図8に示したフローチャートのステップS113乃至S115の処理と同様であるため、その説明は省略する。
 図8を参照して説明した画像を用いた権限レベルの変更に係わる処理と、図10を参照して説明した音声を用いた権限レベルの変更に係わる処理は、どちらか一方のみが行われるようにしても良いし、両方並列的に行われるようにしても良い。
 また、両方の処理が並列して行われるようにした場合、画像に基づいた処理で権限レベルが変更されたとき、または音声に基づいた処理で権限レベルが変更されたときに、最終的に権限レベルが変更されるようにしても良い。または、画像に基づいた処理で権限レベルが変更され、かつ音声に基づいた処理で権限レベルが変更されたときに、最終的に権限レベルが変更されるようにしても良い。
 <具体例>
 上記した権限の委譲、有効化、レベルの変更などについて、具体的な例を挙げてさらに説明を続ける。
 <接客ロボットの例>
 まず、エージェント装置21が接客ロボットである場合(接客ロボットにエージェント装置21が搭載されている場合)を例に挙げて説明する。接客ロボット(エージェント装置21)に、ユーザが近づくと、そのユーザのウエアラブルデバイス31は、エージェント装置21にシリアルIDや問い合わせサーバ情報を提供する。この処理は、図2を参照して時刻T1の処理として説明した処理である。
 接客ロボットは、図2を参照して時刻T2、時刻T3の処理として説明した処理を実行することで、ユーザ特徴点、サービス情報、ユーザID、ワンタイムパスワードなどの情報を取得する。
 接客ロボットは、取得したユーザIDとワンタイムパスワードを用いて、ユーザの買い物履歴、店への訪問履歴、予定表などの情報にアクセスし、ユーザの嗜好や予定などに適した商品を探索し、推薦したり、どのフロアに行くべきかをアドバイスしたりする。
 このようなユーザ自身の個人情報に対してアクセスする権限が、デフォルトの権限とされ、そのような権限が、接客ロボットに対して委譲される。そして、接客ロボットは、委譲された権限を用いて、ユーザに有益な情報を提示することで接客を行う。
 例えば、ユーザが、接客ロボットに対して、子供へのプレゼントの相談をした場合、接客ロボットの権限のレベルが変更される。この権限レベルの変更に係わる処理は、図10のフローチャートに基づき行われる。
 すなわち、ステップS132において、ユーザからの対話のうち、子供へのプレゼントの相談という対話内容に、ユーザの決定意思が入っていると判定され、ステップS133に処理が進められる。
 ステップS133に処理が進められることにより、接客ロボットに委譲されている権限のレベルが変更される。例えば、ユーザ(買い物客)の子供のプロファイルまで閲覧できる権限に変更される。
 そして、ステップS134において、子供のプロファイルが閲覧されることで、子供の嗜好、年齢、性別、予定などの情報が取得され、それら取得された情報に基づいて、商品の検索が行われる。そして、検索結果がユーザに対して提供される。
 このようにして、ユーザ自身の情報の閲覧までの権限から、ユーザに関する人の情報の閲覧までできる広い権限に、一時的に変更され、サービスが提供される。
 このようにして、権限レベルが変更されることで、よりユーザにとって有益なサービスを提供することができる。
 <家電の例>
 次に、調理家電33を、エージェント装置21が制御する場合を例に挙げて説明する。エージェント装置21とウエアラブルデバイス31との間で通信が行われ、エージェント装置21が、サーバ61からユーザIDやワンタイムパスワードなどの情報を取得するまでの処理は、上記した場合と同様に行われるため、その説明は省略する。
 調理家電33がガス調理器具である場合を例に挙げて説明する。エージェント装置21は、ガス調理器具を、ユーザがガス調理器具の近傍いるときには使用できるように制御する。
 また、ユーザがガス調理器具を見ているとき(注視しているとき)には、高い温度での調理を可能とする権限に変更する。このような場合、ユーザがガス調理器具を使えるのはデフォルトの権限であり、その調理温度は、例えば、180度以下までに制限される。さらにユーザがガス調理器具を注視しているようなときには、高い温度、例えば、180度以上の調理を行える権限に変更される。
 このように、エージェント装置21で権限を管理し、ガス調理器具を制御することで、より安全に調理を行うことが可能となる。
 <工場内での例>
 AR(Augmented Reality)グラスなどと称される、仮想現実を提供する装置がある。ユーザは眼鏡型のARグラスを装着することで、現実の世界に仮想の映像が重ねられた映像を見ることができる。
 工場内で働く従業員Aと従業員Bは、それぞれARグラスを装着して仕事しているとする。また、従業員Aはデフォルトの権限を有し、従業員Bは、拡張された権限を有するとする。デフォルトの権限は、工場内の道具の使用を許可されている権限であり、拡張された権限は、さらにラインを停止する権限を有するとする。
 このような場合、例えば、従業員AのARグラスは、従業員Aに与えられている権限で扱える道具は見え、与えられている権限では扱えない道具は見えないようにマスキングをかけるなどの処理を行う。例えば、ラインを止めるボタンには、マスキングがかけられ、見えない状態とされた映像が、従業員Aに提供される。
 従業員Aの近くに従業員Bが居て、例えば、“ラインを操作する権限を与える”といったようなことを発話した場合、従業員Aの権限が拡張される。
 この場合、例えば、エージェント装置21は、従業員Aと従業員Bとの会話を監視し、拡張された権限を有する従業員Bからの“ラインを操作する権限を与える”という指示内容を解釈し、従業員Aの権限を拡張する。
 このような処理も、図10のフローチャートを参照して説明したように、ユーザの対話を解析し、権限を拡張するトリガーとなるようなキーワードが発せられたときに、権限レベルが変更される。
 またARグラスを、上記したウエアラブルデバイス31とすることができ、エージェント装置21は、従業員AのARグラスと従業員BのARグラスの両方とそれぞれ通信を行い、従業員AのARグラスに与えられている権限と、従業員BのARグラスに与えられている権限を、それぞれ、上記した実施の形態における処理を実行することで把握している。
 エージェント装置21は、把握している権限内で権限の拡張などの処理を行うことができる。
 このように、権限があるユーザから、権限のないユーザに権限を与えるような場合にも本技術を適用できる。
 <車の例>
 エージェント装置21を車に搭載し、速度などを制限できるようにしても良い。ここでは、レンタカーと称される貸し出される車を例に挙げて説明を続ける。
 ユーザがレンタカーにカードをかざすと、カードに登録されたユーザID、ワンタイムパスワードなどの情報が、エージェント装置21に供給される。
 この場合、カードがウエアラブルデバイス31として機能する。またカードは、レンタカーを借りるための会員カードや、支払いを行うクレジットカードなどとすることもできる。
 ユーザ(運転者)が、運転席に座り、前方を見ると、この動作をトリガーとして、エージェント装置21の権限が拡張される。例えば、権限が拡張される前は、免許の種類のみ閲覧できる権限が、交通違反の履歴まで閲覧できる権限に変更される。
 このように、実際に運転するユーザの情報が閲覧できるように権限が変更される。また、このようにして違反履歴まで閲覧できる権限にまで変更された後、その違反履歴に応じて、最高速度が設定されたり、マニュアル運転を許可したりする制御が行われる。
 このような権限の変更が行われることで、より安全な運転が行われるようにすることができる。
 ここで挙げた具体例は一例であり、他にも本技術を適用することはできる。
 このように、本技術によると、例えば、所定の情報にアクセスする権限を、ユーザの手を煩わせることなく取得することができる。換言すれば、ユーザは、権限をエージェント装置21に、煩わしい操作を行うことなく、委譲することができる。
 また委譲された権限を、ユーザの状況により変更することができる。このような権限に関する変更も、ユーザの手を煩わせることなく行うことができる。
 よって、権限を利用したサービスをユーザに提供することができる。またよりユーザに適したサービスを、ユーザの状況に応じて提供することが可能となる。
 <記録媒体について>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
 入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 所定の権限の委譲を受けるための情報を取得する取得部と、
 所定の条件が満たされたとき、前記権限のレベルを変更する変更部と、
 前記所定の権限を用いた処理を行う処理部と
 を備える情報処理装置。
(2)
 前記取得部は、第1の情報を取得し、
 前記第1の情報を用いてサーバに問い合わせを行い、前記サーバから第2の情報を取得し、
 前記第2の情報を取得することで、前記所定の権限の委譲が行われる
 前記(1)に記載の情報処理装置。
(3)
 前記第1の情報は、ウエアラブルデバイスから供給される
 前記(2)に記載の情報処理装置。
(4)
 前記第2の情報は、ユーザ特徴点、サービス情報、ユーザID、パスワードの少なくとも1つの情報を含む
 前記(2)に記載の情報処理装置。
(5)
 ユーザとコミュニケーションをとっているとき、前記権限は有効にされる
 前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
 撮像した画像内に前記ユーザが撮像されているとき、前記権限は有効にされる
 前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 集音した音声に前記ユーザの音声が含まれるとき、前記権限は有効にされる
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記所定の条件は、所定のキーワードが発せられた場合である
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記所定の条件は、ユーザが注視している場合である
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 所定の権限の委譲を受けるための情報を取得し、
 所定の条件が満たされたとき、前記権限のレベルを変更し、
 前記所定の権限を用いた処理を行う
 ステップを含む情報処理方法。
(11)
 コンピュータに、
 所定の権限の委譲を受けるための情報を取得し、
 所定の条件が満たされたとき、前記権限のレベルを変更し、
 前記所定の権限を用いた処理を行う
 ステップを含む処理を実行させるためのプログラム。
 11 ローカルネットワーク, 21 エージェント装置, 31 ウエアラブルデバイス, 32 ロボット, 33 調理家電, 51 インターネット, 61 サーバ, 101 通信部, 102 音声取得部, 103 音声認識部, 104 画像取得部, 105 画像認識部, 106 状況把握部, 107 権限取得部, 108 権限管理部, 109 行動決定部

Claims (11)

  1.  所定の権限の委譲を受けるための情報を取得する取得部と、
     所定の条件が満たされたとき、前記権限のレベルを変更する変更部と、
     前記所定の権限を用いた処理を行う処理部と
     を備える情報処理装置。
  2.  前記取得部は、第1の情報を取得し、
     前記第1の情報を用いてサーバに問い合わせを行い、前記サーバから第2の情報を取得し、
     前記第2の情報を取得することで、前記所定の権限の委譲が行われる
     請求項1に記載の情報処理装置。
  3.  前記第1の情報は、ウエアラブルデバイスから供給される
     請求項2に記載の情報処理装置。
  4.  前記第2の情報は、ユーザ特徴点、サービス情報、ユーザID、パスワードの少なくとも1つの情報を含む
     請求項2に記載の情報処理装置。
  5.  ユーザとコミュニケーションをとっているとき、前記権限は有効にされる
     請求項1に記載の情報処理装置。
  6.  撮像した画像内に前記ユーザが撮像されているとき、前記権限は有効にされる
     請求項1に記載の情報処理装置。
  7.  集音した音声に前記ユーザの音声が含まれるとき、前記権限は有効にされる
     請求項1に記載の情報処理装置。
  8.  前記所定の条件は、所定のキーワードが発せられた場合である
     請求項1に記載の情報処理装置。
  9.  前記所定の条件は、ユーザが注視している場合である
     請求項1に記載の情報処理装置。
  10.  所定の権限の委譲を受けるための情報を取得し、
     所定の条件が満たされたとき、前記権限のレベルを変更し、
     前記所定の権限を用いた処理を行う
     ステップを含む情報処理方法。
  11.  コンピュータに、
     所定の権限の委譲を受けるための情報を取得し、
     所定の条件が満たされたとき、前記権限のレベルを変更し、
     前記所定の権限を用いた処理を行う
     ステップを含む処理を実行させるためのプログラム。
PCT/JP2018/006114 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム WO2018163812A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/479,462 US11436348B2 (en) 2017-03-07 2018-02-21 Method and system of passing and applying delegations of authority
EP18763273.2A EP3594844A1 (en) 2017-03-07 2018-02-21 Information processing device, information processing method and program
JP2019504445A JP7192765B2 (ja) 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-042682 2017-03-07
JP2017042682 2017-03-07

Publications (1)

Publication Number Publication Date
WO2018163812A1 true WO2018163812A1 (ja) 2018-09-13

Family

ID=63448530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006114 WO2018163812A1 (ja) 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US11436348B2 (ja)
EP (1) EP3594844A1 (ja)
JP (1) JP7192765B2 (ja)
WO (1) WO2018163812A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021165050A1 (en) * 2020-02-17 2021-08-26 Koninklijke Philips N.V. System to secure health safety during charging of health wearable

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096591A (ja) * 2002-09-03 2004-03-25 Hitachi Ltd 家電機器遠隔制御システム及び家電機器のコントローラ
JP2009223651A (ja) * 2008-03-17 2009-10-01 Nec Saitama Ltd 顔認証装置、方法、プログラム及び携帯端末装置
JP2013218698A (ja) * 2012-04-08 2013-10-24 Samsung Electronics Co Ltd デバイスを制御するサーバ、モバイル装置及びそのアクセス方法
JP2015012496A (ja) * 2013-06-28 2015-01-19 Kddi株式会社 携帯端末、携帯端末制御方法およびコンピュータプログラム
JP2015519024A (ja) * 2012-05-23 2015-07-06 クアルコム,インコーポレイテッド 動きに基づくモード移行を伴うモバイルデバイスを使用したグループ通信のためのシステムおよび方法
WO2016150160A1 (zh) * 2015-03-25 2016-09-29 小米科技有限责任公司 智能家居设备的控制方法及装置、电子设备
JP2016194755A (ja) 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092172A (ja) * 2008-10-06 2010-04-22 Fujitsu Ltd セキュリティシステム、セキュリティプログラム及びセキュリティ方法
US8373540B2 (en) * 2011-02-04 2013-02-12 Worthwhile Products Anti-identity theft and information security system process
US8610539B2 (en) * 2011-02-04 2013-12-17 Worthwhile Products Anti-identity theft and information security system
KR101960485B1 (ko) 2012-04-08 2019-03-20 삼성전자주식회사 디바이스를 제어하는 관리 서버 및 그 방법, 디바이스를 제어하는 사용자 단말 장치 및 그 방법, 사용자 단말 장치 및 그 제어 방법
JP6061633B2 (ja) * 2012-11-14 2017-01-18 キヤノン株式会社 デバイス装置、制御方法、およびそのプログラム。
US9979547B2 (en) * 2013-05-08 2018-05-22 Google Llc Password management
US9396730B2 (en) * 2013-09-30 2016-07-19 Bank Of America Corporation Customer identification through voice biometrics
US10853802B2 (en) * 2014-01-13 2020-12-01 uQontrol, Inc. Data storage key for secure online transactions
CA2945030C (en) * 2014-04-07 2020-03-31 EyeVerify Inc. Bio leash for user authentication
US20160066852A1 (en) * 2014-09-08 2016-03-10 Aliphcom Strap band for a wearable device
JP6613740B2 (ja) * 2015-09-09 2019-12-04 富士通コネクテッドテクノロジーズ株式会社 表示制御装置、表示制御方法および表示制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096591A (ja) * 2002-09-03 2004-03-25 Hitachi Ltd 家電機器遠隔制御システム及び家電機器のコントローラ
JP2009223651A (ja) * 2008-03-17 2009-10-01 Nec Saitama Ltd 顔認証装置、方法、プログラム及び携帯端末装置
JP2013218698A (ja) * 2012-04-08 2013-10-24 Samsung Electronics Co Ltd デバイスを制御するサーバ、モバイル装置及びそのアクセス方法
JP2015519024A (ja) * 2012-05-23 2015-07-06 クアルコム,インコーポレイテッド 動きに基づくモード移行を伴うモバイルデバイスを使用したグループ通信のためのシステムおよび方法
JP2015012496A (ja) * 2013-06-28 2015-01-19 Kddi株式会社 携帯端末、携帯端末制御方法およびコンピュータプログラム
WO2016150160A1 (zh) * 2015-03-25 2016-09-29 小米科技有限责任公司 智能家居设备的控制方法及装置、电子设备
JP2016194755A (ja) 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3594844A4

Also Published As

Publication number Publication date
JPWO2018163812A1 (ja) 2020-01-09
US20190392157A1 (en) 2019-12-26
EP3594844A4 (en) 2020-01-15
JP7192765B2 (ja) 2022-12-20
US11436348B2 (en) 2022-09-06
EP3594844A1 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US11240668B2 (en) Universal personal identification signal
US8027518B2 (en) Automatic configuration of devices based on biometric data
US20180053200A1 (en) Incentivizing sharing of wearable technology sensor data
US20160262017A1 (en) Personal assistant authentication
US20080170776A1 (en) Controlling resource access based on user gesturing in a 3d captured image stream of the user
CN107111710A (zh) 用于基于安全和可靠标识的计算的方法和系统
US20040128557A1 (en) User information control device
KR101250097B1 (ko) 이용자 인증 판정 장치, 이용자 인증 판정 시스템, 이용자 인증 판정 프로그램을 기억하는 컴퓨터 판독 가능한 기억 매체, 및 이용자 인증 판정 방법
KR20160124834A (ko) 모바일 디바이스에서의 연속 인증
CN107735999A (zh) 基于设备功能和用户请求通过多个途径的认证
US20150142686A1 (en) Marketplace Exchange of Personal Data
US20190098004A1 (en) Universal id system and methods and biometric information
JP2003514282A (ja) 情報の効率的送受信のための言語分類システム
KR101427550B1 (ko) 반려동물 관리 서비스 방법
CN113158154B (zh) 移动装置、验证终端装置及身份验证方法
US9384330B2 (en) Providing user attributes to complete an online transaction
JP2017520039A (ja) パーソナル・エリア・ネットワーク
JP2020115384A (ja) 情報処理システム、情報処理装置、制御方法、記憶媒体、およびプログラム
WO2018163812A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
US10740447B2 (en) Using biometric user-specific attributes
WO2010058683A1 (ja) 電子データ閲覧装置及び電子データ閲覧方法
WO2022014114A1 (ja) 有価証券管理装置、有価証券管理方法及び有価証券管理プログラム
US11468985B2 (en) System and method for managing property showing appointments based on health parameters
US11391081B2 (en) Methods, systems, apparatuses and devices for facilitating management of a facility
JP2009110447A (ja) データアクセス制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18763273

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019504445

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018763273

Country of ref document: EP

Effective date: 20191007