WO2017175447A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2017175447A1
WO2017175447A1 PCT/JP2017/002200 JP2017002200W WO2017175447A1 WO 2017175447 A1 WO2017175447 A1 WO 2017175447A1 JP 2017002200 W JP2017002200 W JP 2017002200W WO 2017175447 A1 WO2017175447 A1 WO 2017175447A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
emotion
information processing
processing apparatus
Prior art date
Application number
PCT/JP2017/002200
Other languages
English (en)
French (fr)
Inventor
公伸 西村
脇田 能宏
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/089,158 priority Critical patent/US20200301398A1/en
Publication of WO2017175447A1 publication Critical patent/WO2017175447A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36488Record motion and emotion, mimics

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Literature 1 discloses an emotion estimation method for estimating a user's emotion when browsing content.
  • Patent Document 1 requires the user to manually input emotions for a plurality of test contents in advance. For this reason, the emotion estimation method described in Patent Literature 1 places a heavy burden on the user, and it is difficult to deal with more situations.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a program that can more efficiently collect data related to a user's emotion and realize more accurate emotion estimation.
  • the emotion information obtained from the biological information of the user is acquired, and the control information related to the operation of the operation unit corresponding to the biological information of the user is obtained based on the behavior information associated with the emotion information.
  • An information processing apparatus including a control unit for outputting is provided.
  • teacher signals are required to associate the acquired biological information with the emotion of the user when the biological information is obtained.
  • the teacher signal may be information input by the user himself / herself, for example.
  • the burden on the user is large, and it is difficult to collect a large amount of teacher signals.
  • users have various emotions and perform various actions in daily life.
  • the emotion and behavior are often closely related. For example, when a user performs imaging using an imaging device such as a camera, it is estimated that the user is interested in the subject.
  • This disclosure was conceived with a focus on daily behavior related to emotions as described above. That is, in the information processing apparatus, the information processing method, and the program according to the present disclosure, by recognizing a daily behavior that can be a weak teacher of emotion in advance, the biological information of the user when the daily behavior is performed, and the emotion information , Can be generated.
  • the user's emotion is estimated by searching the database based on the biological information acquired from the user, and the response Various services and functions can be provided to the user.
  • the emotion in this indication may be understood as including an emotion. That is, the emotion according to the present disclosure may include emotions such as emotions in addition to the user's biological reaction. The emotion according to the present disclosure may be various states related to the user that can be estimated from the biological information.
  • Bio-Emotion DB Generation >> First, generation of a living body-emotion DB and a system configuration example according to the present embodiment will be described.
  • the information processing method according to the present embodiment it is possible to generate a bio-emotional DB in which emotion information related to a user's behavior is associated with biometric information acquired when the behavior is performed. .
  • the biological information and the emotion information can be associated with each other by referring to a pre-registered action-emotional DB.
  • FIG. 1A is a diagram for explaining an example of a system configuration according to the present embodiment and generation of a living body-emotion DB.
  • the information processing system includes an operation device 10, a wearable terminal 20, an information processing device 30, a biological-emotional DB 390, and an action-emotional DB 395.
  • the operation device 10, the wearable terminal 20, and the information processing device 30 are connected via a network 40 so that they can communicate with each other.
  • the operating device 10 may be various devices for recognizing the action of the user P1.
  • the operation device 10 may be various imaging devices or a smartphone having an imaging function.
  • the operating device 10 has a function of transmitting behavior information related to the detected behavior of the user P1 to the information processing device 30.
  • the motion device 10 detects that the user P1 has photographed the subject O1, and transmits the detection information to the information processing device 30.
  • the operation device 10 may detect an action related to pressing of the shutter button by the user P1 and transmit action information related to the action to the information processing device 30.
  • Wearable terminal 20 concerning this embodiment may be various terminals which acquire living body information accompanying action of user P1.
  • the wearable terminal 20 acquires the user's biological information when photographing the subject O1.
  • the wearable terminal 20 may be provided with various sensors for acquiring the biological information of the user P1.
  • the wearable terminal 20 has a function of transmitting the acquired biological information of the user P1 to the information processing apparatus 30.
  • the information processing apparatus 30 In the generation of the bio-emotional DB 390 according to the present embodiment, the information processing apparatus 30 associates the emotional information acquired from the action information of the operating device 10 user P1 and the biometric information of the user P1 with the bio-emotional DB 390. It has a function to generate. More specifically, the information processing device 30 searches the pre-registered behavior-emotion DB 395 based on the behavior information received from the operation device 10, and acquires emotion information associated with the behavior information of the user P1. be able to. Further, the information processing apparatus 30 can store the emotion information acquired above and the biological information of the user P1 received from the wearable terminal 20 in the biological-emotional DB 390 in association with each other.
  • the information processing apparatus 30 according to the present embodiment may be various information processing terminals having the above functions.
  • the information processing apparatus 30 according to the present embodiment may be, for example, a PC (Personal Computer), a smartphone, or a tablet.
  • the information processing apparatus 30 may receive behavior information related to the pressing of the shutter button by the user P1 from the operation device 10 and acquire emotion information based on the behavior information from the behavior-emotional DB 395. it can.
  • pressing of the shutter button and emotion information related to “interest” may be associated with the behavior-emotion DB 395 described above.
  • the action-emotion DB 395 may store actions that the user P1 can take and the estimated emotions of the user P1 when taking the action.
  • the user takes a picture it is estimated that the user P1 has “interest” with respect to the subject O1. The association is stored in the action-emotion DB 395. Details of the behavior-emotion DB 395 according to this embodiment will be described later.
  • the information processing apparatus 30 can associate the emotion information related to “interest” acquired from the behavior-emotion DB 395 and the biological information received from the wearable terminal 20 and store them in the biological-emotional DB 390. That is, the information processing apparatus 30 generates the bio-emotional DB 390 by associating the emotion information obtained from the action information of the user P1 photographing the subject O1 with the biometric information of the user P1 acquired at the time of photographing. Is possible.
  • the network 40 has a function of connecting the operation device 10, the wearable terminal 20, and the information processing device 30 to each other.
  • the network 40 may include a public line network such as the Internet, a telephone line network, a satellite communication network, various local area networks (LANs) including Ethernet (registered trademark), a wide area network (WAN), and the like. Further, the network 40 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the network 40 may include a wireless communication network such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • the information processing apparatus 30 can generate the bio-emotional DB 390 based on the acquired user behavior information and biometric information. According to the information processing apparatus 30 according to the present embodiment, it is possible to dynamically collect teachers related to biological information and emotional information from daily actions of the user.
  • the information processing apparatus 30 has described the case where the user's behavior information is acquired from the operation apparatus 10 and the user's biological information is acquired from the wearable terminal 20 as an example.
  • the system configuration example according to is not limited to the example.
  • the information processing apparatus 30 according to the present embodiment may have a function of detecting user behavior and a function of acquiring user biometric information. That is, the operation device 10, the wearable terminal 20, and the information processing device 30 according to the present embodiment may be realized as a single device.
  • the information processing apparatus 30 may be, for example, an imaging apparatus having a function of generating the bio-emotional DB 390.
  • the information processing apparatus 30 may include various sensors for acquiring the user's biological information.
  • the system configuration according to the present embodiment and the functional configuration of the information processing apparatus 30 can be flexibly changed.
  • the case where the operation device 10, the wearable terminal 20, and the information processing device 30 are connected via the network 40 has been described as an example.
  • the system configuration example of the present embodiment is not limited to the example.
  • the operating device 10 and the wearable terminal 20 can also save data collected in an offline state in various storages.
  • the information processing apparatus 30 can generate the bio-emotional DB 390 by matching the action information read from the storage and the biometric information with information such as a time stamp.
  • the information processing apparatus 30 has a function of controlling the operation of the operation apparatus 10 based on the acquired user biometric information. More specifically, the information processing apparatus 30 can search the bio-emotional DB 390 using the acquired biometric information of the user and obtain emotion information related to the biometric information. Further, the information processing device 30 can search the behavior-emotion DB 395 using the emotion information acquired above and cause the motion device 10 to perform an operation corresponding to the obtained behavior information.
  • FIG. 1B is a diagram for explaining an outline of operation control based on the biological-emotion DB according to the present embodiment.
  • the example illustrated in FIG. 1B illustrates a case where the information processing apparatus 30 controls the operation of the operation apparatus 10 based on the user's biological information received from the wearable terminal 20.
  • the operation device 10 may be an imaging device such as a wearable camera.
  • the wearable terminal 20 may acquire the biological information of the user P1 when viewing the subject O1 and transmit the biological information to the information processing apparatus 30.
  • the information processing apparatus 30 can search the bio-emotional information 390 using the received biometric information and acquire emotional information related to the biometric information.
  • the information processing apparatus 30 searches the behavior-emotion DB 395 using the emotion information acquired above, and acquires behavior information based on the emotion information.
  • the information processing apparatus 30 can acquire emotion information related to “interest” associated with the received biometric information from the bio-emotional information 390.
  • the information processing apparatus 30 can acquire the action information related to the “shutter release” operation associated with the “interest” from the action-emotion DB 395.
  • the information processing apparatus 30 can perform operation control of the operation apparatus 10 based on the behavior information acquired as described above. Specifically, the information processing device 30 may output control information for causing the operation device 10 to release the shutter. In this case, the operation device 10 can perform the shutter operation based on the received control information and photograph the subject O1. That is, the information processing apparatus 30 according to the present embodiment can cause the operation apparatus 10 to perform an operation associated with the emotion information estimated from the acquired user's biological information. According to the above-described function of the information processing apparatus 30, by causing the operation apparatus 10 to automatically execute an operation corresponding to the estimated user's emotion, the user's operation burden is greatly reduced, and a valuable service is provided to the user. It becomes possible to provide.
  • FIG. 2 is a functional block diagram according to the present embodiment.
  • the information processing system according to the present embodiment includes a biological sensor unit 310, a behavior measurement sensor unit 315, a signal processing unit 320, a behavior recognition unit 330, an emotion estimation unit 340, a control unit 350, an operation unit 360, An input reception unit 370 and a feedback recognition unit 380 are provided.
  • the information processing system according to the present embodiment may include a living body-emotion DB 390 and an action-emotion DB 395.
  • the system configuration according to the present embodiment may be designed flexibly according to the service to be provided and the specifications of each device.
  • the information processing apparatus 30 may include a signal processing unit 320, an action recognition unit 330, an emotion estimation unit 340, a control unit 350, and a feedback recognition unit 380.
  • the operation device 10 may include a behavior measurement sensor unit 315, an operation unit 360, and an input reception unit 370.
  • the wearable terminal 20 may include a biosensor unit 310.
  • the wearable terminal 20 may further include a behavior measurement sensor unit 315. In this case, the wearable terminal 20 can collect behavior information in addition to the user's biological information.
  • the information processing apparatus 30 may include all the components illustrated in FIG.
  • the information processing device 30 can also function as the operation device 10 and the wearable terminal 20 illustrated in FIGS. 1A and 12B.
  • the operation device 10 and the wearable terminal 20 illustrated in FIGS. 1A and 12B are all the components illustrated in FIGS. 1A and 12B.
  • the biosensor unit 310 has a function of measuring user biometric information. For this reason, the biometric sensor unit 310 may include various sensors for measuring the biometric information of the user.
  • the biometric sensor unit 310 can include, for example, a sensor for measuring a user's pulse wave, sweating, blood pressure, myoelectric potential, electrocardiogram, electrooculogram, brain wave, pupil opening rate, body temperature, or the like.
  • the behavior measurement sensor unit 315 has a function of detecting sensor information related to user behavior including device operation. For this reason, the behavior measurement sensor unit 315 may include various sensors for detecting sensor information related to the user's behavior.
  • the behavior measurement sensor unit 315 may be, for example, an acceleration sensor, a gyro sensor, an atmospheric pressure sensor, an air temperature sensor, a humidity sensor, a myoelectric sensor, a voice sensor, a pressure sensor, an imaging sensor, a microphone, a button, a switch, or a combination of users. Sensor information relating to the behavior of the user may be detected.
  • the behavior measurement sensor unit 315 may further include each sensor included in the biological sensor unit 310 described above.
  • the signal processing unit 320 has a function of performing noise removal and feature extraction on part or all of the biological information acquired by the biological sensor unit 310. At this time, the signal processing unit 320 may perform both noise removal and feature extraction on the biological information acquired by the biological sensor unit 310, or may perform either one of the processes. The signal processing unit 320 can perform processing according to the type of biological information acquired by the biological sensor unit 310.
  • the behavior recognition unit 330 has a function of recognizing the user's behavior based on the sensor information related to the user's behavior acquired by the behavior measurement sensor unit 315 and outputting the behavior information. At this time, the behavior recognition unit 330 may recognize the user's behavior based on a machine learning method or a statistical method such as an SVM (Support Vector Machine), a neural network, or a regression model.
  • SVM Small Vector Machine
  • FIG. 3 is a diagram showing an example of behavior information output by the behavior recognition unit 330 based on sensor information.
  • the behavior recognition unit 330 can recognize the user's behavior of releasing the shutter based on, for example, a button operation detected by the behavior measurement sensor unit 315. Further, the behavior recognition unit 330 may recognize the user's behavior of yawning based on the myoelectric potential information detected by the behavior measurement sensor unit 315.
  • the emotion estimation unit 340 has a function of referring to the biological-emotion DB 390 based on the biological information output from the signal processing unit 320 and outputting emotion information estimated from the biological information.
  • the emotion information output by the emotion estimation unit 340 may include the type and degree of emotion.
  • FIG. 4 is a diagram showing a configuration example of data stored in the living body-emotion DB 390 according to the present embodiment. More specifically, FIG. 4 may be an example of a personalized data configuration stored in the personalized bio-emotional DB 390. That is, the biometric-emotion DB 390 stores biometric information and emotional information associated with individual characteristics in association with each other.
  • the emotion estimation unit 340 outputs emotion information associated with the biological information by comparing the characteristics of the biological information output from the signal processing unit 320 with the characteristics of the biological information stored in the biological-emotional DB 390. be able to.
  • the emotion estimation unit 340 uses, for example, biometric information output from the signal processing unit 320 and information stored in the bio-emotional DB 390, a machine learning method such as an SVM, a neural network, or a regression model, or a statistical method.
  • a machine learning method such as an SVM, a neural network, or a regression model, or a statistical method.
  • Control unit 350 acquires emotion information obtained from the user's biological information, and outputs control information related to the operation of the operation unit 360 corresponding to the user's biological information based on the behavior information associated with the emotion information.
  • the control unit 350 has a function of acquiring, from the behavior-emotion DB 395, behavior information associated with the emotion information based on the emotion information output by the emotion estimation unit 340.
  • the control unit 350 has a function of controlling the operation of the operation unit 360 based on the behavior information acquired above.
  • FIG. 5 is a diagram showing a configuration example of data stored in the action-emotion DB 395 according to the present embodiment.
  • the behavior-emotion DB 395 stores behavior information and emotion information in association with each other.
  • the behavior information stored in the behavior-emotion DB 395 may include information indicating an operation to be executed by the operation unit 360.
  • the control unit 350 can acquire behavior information associated with the emotion information output by the emotion estimation unit 340, and can control an operation to be performed by the operation unit 360 based on the behavior information.
  • the behavior information stored in the behavior-emotion DB 395 may include information related to past device operations performed by the user.
  • the control unit 350 can cause the operation unit 360 to perform the same operation as the above-described device operation based on the acquired emotion type and behavior information associated with the emotion.
  • the action information stored in the action-emotion DB 395 includes information related to a device operation performed by the user in the past, such as releasing the shutter.
  • the control unit 350 can cause the operation unit 360 to perform an operation of releasing the shutter based on the fact that the emotion information output from the emotion estimation unit 340 indicates a great interest.
  • the behavior information stored in the behavior-emotion DB 395 may include information related to device operation recommended to the user.
  • the control unit 350 can cause the operation unit 360 to perform the device operation recommended to the user based on the acquired emotion type and behavior information based on the emotion.
  • the behavior information stored in the behavior-emotion DB 395 includes information related to device operation recommended to the user, such as transmission of a rest alert.
  • the control unit 350 can cause the operation unit 360 to transmit a rest alert based on the fact that the emotion information output by the emotion estimation unit 340 indicates anxiety.
  • control unit 350 acquires emotion information associated with the behavior information based on the acquisition of the user behavior information, and associates the emotion information with the acquired biological information to generate a biological-emotional DB. Can be memorized. That is, the control unit 350 can acquire emotion information from the behavior-emotional information 395 based on the behavior information output by the behavior recognition unit 330. Further, the control unit 350 can store the emotion information acquired above and the biological information output by the signal processing unit 320 in the biological-emotional DB 390 in association with each other.
  • the operation unit 360 has a function of executing various operations based on the control information output from the control unit 350.
  • the operation unit 360 may execute an operation of releasing the shutter based on the control information output from the control unit 350.
  • the operation unit 360 can execute various operations according to the specifications of the apparatus including the operation unit 360.
  • the input receiving unit 370 has a function of receiving an input operation by the user. For this reason, the input receiving unit 370 may include input devices such as a keyboard, a mouse, a touch panel, a microphone, and buttons.
  • the feedback recognition unit 380 has a function of recognizing feedback from the user with respect to the operation of the operation unit 360. At this time, the feedback recognition unit 380 may recognize feedback from the user based on a user input operation received by the input reception unit 370. Further, the feedback may include a user's evaluation on the operation of the operation unit 360.
  • the feedback recognizing unit 380 may control the correction related to the correlation strength between the corresponding biological information and emotion information based on the above feedback.
  • the feedback recognizing unit 380 can perform control to weaken the correlation strength between the corresponding biological information and emotion information based on the negative evaluation of the user with respect to the operation of the operating unit 360.
  • the feedback recognizing unit 380 can perform control to increase the correlation strength between the corresponding biological information and emotion information based on the positive evaluation of the user with respect to the operation of the operation unit 360.
  • the feedback recognition unit 380 can recognize the user's operation on the captured image.
  • the feedback recognizing unit 380 determines the correlation strength between the biological information and the emotion information used when the control unit 350 controls the operation unit 360 based on the fact that the user has deleted the captured image. You may perform control which weakens.
  • the feedback recognizing unit 380 calculates the correlation strength between the biological information and the emotion information used when the control unit 350 controls the operation unit 360 based on the fact that the captured image is saved by the user. You can also control to strengthen. At this time, the feedback recognition unit 380 may increase the weight of the support vector in a model generated using SVM, for example. Further, for example, the feedback recognition unit 380 can increase the connection weight in the constructed neural network model.
  • the feedback recognition unit 380 According to the above function of the feedback recognition unit 380 according to the present embodiment, it is possible to appropriately correct the correlation strength between the biological information and the emotion information according to the user feedback, and the emotion with higher accuracy. Estimation can be realized.
  • the feedback recognition unit 380 may control the correction related to the association between the corresponding behavior information and emotion information based on the feedback from the user.
  • the feedback recognizing unit 380 can also perform control to delete the association between the relevant emotion information and behavior information based on the negative evaluation of the user with respect to the operation of the operation unit 360.
  • the feedback recognizing unit 380 responds between the action information and the emotion information used when the control unit 350 controls the operation unit 360 based on the user deleting a captured image a predetermined number of times or more. You can also delete the attachment.
  • the feedback recognition unit 380 According to the function of the feedback recognition unit 380 according to the present embodiment, it is possible to appropriately modify the association between the behavior information and the emotion information according to the user's feedback, and a higher value service. The provision can be realized.
  • the bio-emotion DB 390 is an information database that stores the acquired bio-information and emotion information of the user in association with each other.
  • the emotion information may be emotion information acquired from the behavior-emotion information 395 by the control unit 350 based on the behavior information output by the behavior recognition unit 330.
  • the bio-emotion DB 390 according to the present embodiment can store the characteristics of bio-information and the type and degree of emotion in association with each other.
  • bio-emotion DB 390 may be an information database generated for each user or user action.
  • the control unit 350 generates the bio-emotional DB 390 for each user or user's action, thereby realizing high-precision emotion estimation according to the user's characteristics.
  • the behavior-emotion DB 395 is an information database that stores user behavior information and emotion information in association with each other.
  • the behavior-emotion DB 395 according to the present embodiment may be a database set in advance according to the function of the operation unit 360. As described with reference to FIG. 5, the behavior-emotion DB 395 according to the present embodiment can store the type and degree of emotion and the operation to be executed by the operation unit 360 in association with each other.
  • FIG. 6 is a flowchart showing a flow related to generation of the bio-emotion DB 390 according to the present embodiment.
  • the operation device 10 may be a device including the behavior measurement sensor unit 315, the operation unit 360, and the input reception unit 370.
  • the wearable terminal 20 may include a biosensor unit 310.
  • the signal processing unit 320 of the information processing apparatus 30 performs signal processing on the biological information acquired from the biological sensor unit 310 of the wearable terminal 20 (S1101). As described above, at this time, the signal processing unit 320 may perform noise removal on the acquired biological information, feature extraction according to the type of the biological information, and the like.
  • the signal processing unit 320 can perform feature extraction by drift removal using a high-pass filter, pulsation interval calculation, or the like.
  • the signal processing unit 320 can perform downsampling, deconvolution calculation using an impulse response function, or the like.
  • the signal processing unit 320 may hold the biological information output by the above processing for a predetermined time.
  • the behavior recognition unit 330 of the information processing device 30 determines whether sensor information related to the user's behavior has been received from the behavior measurement sensor unit 315 of the operation device 10 (S1102). If the sensor information related to the user's behavior cannot be received from the behavior measurement sensor unit 315 (S1102: NO), the information processing apparatus 30 may return to step S1101 and repeatedly execute the signal processing related to the biological information. .
  • the behavior recognition unit 330 performs behavior recognition based on the received sensor information (S1103). At this time, for example, the behavior recognition unit 330 can recognize photography by the user based on the reception of the sensor information related to the shutter button from the behavior measurement sensor unit 315.
  • the behavior recognition unit 330 processes the sensor information acquired by the acceleration sensor included in the behavior measurement sensor unit 315 by a machine learning method or a statistical method such as SVM, neural network, regression model, etc. You can also recognize the yawning.
  • the behavior recognition unit 330 processes the voice information acquired by the microphone included in the behavior measurement sensor unit 315 by the machine learning method or the statistical method, so that the user laughs or crys, May be recognized.
  • control unit 350 of the information processing apparatus 30 acquires emotion information related to the user behavior information recognized in step S1103 from the behavior-emotional DB 395 (S1104).
  • control unit 350 associates and stores the biological information signal-processed in step S1101 and the emotion information acquired in step S1104 in the biological-emotional DB 390 (S1105).
  • the information processing apparatus 30 can store emotion information associated with user behavior information and the acquired biological information in the bio-emotional DB 390 in association with each other. According to the above-described function of the information processing apparatus 30 according to the present embodiment, it is possible to generate the bio-emotional DB 390 for each user or user's action, and realize high-precision emotion estimation according to the user's characteristics. It becomes possible to do.
  • FIG. 7 is a flowchart showing a flow of operation control using the living body-emotion DB 390 according to the present embodiment.
  • the information processing device 30 includes the signal processing unit 320, the action recognition unit 330, the emotion estimation unit 340, the control unit 350, and the feedback recognition unit 380 will be described as an example.
  • the operation device 10 may be a device including the behavior measurement sensor unit 315, the operation unit 360, and the input reception unit 370.
  • the wearable terminal 20 may include a biosensor unit 310.
  • the signal processing unit 320 of the information processing device 30 performs signal processing on the biological information acquired from the biological sensor unit 310 of the wearable terminal 20 (S1201). At this time, the signal processing unit 320 may perform the same processing as the processing shown in step S1101 of FIG.
  • the emotion estimation unit 340 of the information processing device 30 refers to the biological-emotional DB 390 based on the biological information processed in step S1201, and outputs emotion information estimated from the biological information (S1202).
  • the emotion information to be output may include the type and degree of emotion.
  • control unit 350 of the information processing device 30 refers to the behavior-emotion DB 395 based on the emotion information output in step S1202, and determines whether or not behavior information associated with the emotion information exists. (S1203). That is, the control unit 350 may determine whether or not the type and degree of emotion included in the emotion information match a preset condition.
  • the information processing apparatus 30 may return to step S1202 and repeatedly execute the subsequent processes.
  • the control unit 350 controls the operation of the operation unit 360 of the operation device 10 based on the acquired behavior information. (S1204). That is, the control unit 350 may transmit control information related to the operation of the operation unit 360.
  • the information processing apparatus 30 can acquire action information associated with emotion information based on emotion information estimated from the user's biological information.
  • the information processing apparatus 30 can control the operation of the operation unit 360 based on the acquired behavior information. According to the above function of the information processing apparatus 30 according to the present embodiment, it is possible to cause the operation unit 360 to execute various processes based on the estimated user's emotion, greatly reducing the processing burden on the user. It becomes possible to provide higher value services.
  • the information processing apparatus 30 according to the present embodiment has a function of generating the bio-emotional DB 390 based on user behavior information and biometric information. Further, the information processing apparatus 30 according to the present embodiment has a function of controlling the operation of the operation unit 360 corresponding to the user's biometric information using the generated bio-emotional DB 390.
  • the functions of the information processing apparatus 30 described above can be modified as appropriate according to the specifications and operation of the information processing apparatus 30. Hereinafter, modifications according to the present embodiment will be described.
  • the information processing apparatus 30 generates the bio-emotional DB 390 by associating the biometric information of the user with the emotion information associated with the behavior information has been described as an example.
  • the information processing apparatus 30 may associate biological information and behavior information without using emotion information. That is, the information processing apparatus 30 can also generate a bio-behavior DB that associates the acquired biometric information with the behavior information.
  • the information processing apparatus 30 can cause the operation unit 360 to perform an operation based on the user's biological information even when the emotion information associated with the behavior information is not registered.
  • the information processing apparatus 30 converts the behavior information stored in the biological-behavior DB into the registered emotion information, thereby causing the biological-emotional DB 390 to be registered. It is possible to generate.
  • the information processing apparatus 30 can use the generated bio-emotion DB 390 as a teacher of bio-information acquired by different bio-sensor units 310.
  • the information processing apparatus 30 can correct the bio-emotional DB 390 by using the emotion information estimated based on the generated bio-emotional DB 390 as a teacher.
  • the operation control of the operation unit 360 using the bio-emotional DB 390 by the information processing device 30 has been mainly described.
  • the information processing device 30 uses the bio-emotional DB 390. It is also possible to perform personal authentication.
  • the information processing apparatus 30 can determine personal feedback and perform personal authentication based on the bio-emotional DB 390 generated for each user.
  • the information processing apparatus 30 may perform the above personal authentication based on, for example, that the feedback from the user with respect to the operation of the operation unit 360 matches the information stored in the bio-emotion DB 390 at least a predetermined amount.
  • the information processing apparatus 30 estimates emotion information from biometric information acquired from another user existing around the user, and generates the bio-emotional DB 390 using the emotion information as a teacher. Good.
  • the wearable terminal 20 worn by the other user and the information processing apparatus 30 may be connected via the network 40.
  • the operation of the operation device 10 that is an imaging device is controlled based on the user's emotion information estimated by the information processing device 30 has been described as an example.
  • the operating device 10 according to the present embodiment may be, for example, a glasses-type wearable terminal.
  • the information processing device 30 according to the present embodiment can perform display control related to the motion device 10 based on emotion information related to a user's “interest” estimated from biological information.
  • the operation device 10 may be a device including a behavior measurement sensor unit 315, an operation unit 360, and an input reception unit 370.
  • the wearable terminal 20 may include a biosensor unit 310.
  • FIG. 8 is a conceptual diagram showing an outline of the second embodiment according to the present disclosure.
  • the operating device 10 may be a glasses-type wearable terminal worn by the user P1.
  • the information processing apparatus 30 estimates emotion information related to “interest” of the user P1 from voice information in a conversation between the user P1 and another user P2, and controls the operation of the operation device 10 based on the emotion information. You can do it.
  • the information processing apparatus 30 when estimating emotion information related to the “interest” of the user P1 from the voice information, searches for the meaning of the keyword extracted from the content of the last comment, It can be displayed on the device 10.
  • the information processing apparatus 30 may generate the interest-biological DB in advance by adding “interest” as a weak teacher to the biological information when the user searches for a keyword.
  • the operation device 10 display unit S ⁇ b> 1 controlled by the information processing device 30 is shown. Further, text information T1 to T3 displayed by the operating device 10 based on control by the information processing device 30 is displayed on the display unit S1. As described above, the information processing apparatus 30 according to the present embodiment can cause the operation apparatus 10 to display text information and image information acquired from the Internet or the like based on the user's “interest” estimated by voice recognition. it can. In addition, in FIG. 8, the visual recognition range of the user P1 through the display part S1 implement
  • the information processing apparatus 30 may correct the correlation strength related to the interest-biological DB using the user's line of sight as feedback. For example, the information processing apparatus 30 can perform control to weaken the correlation strength based on the fact that the user does not turn his / her line of sight to the texts T1 to T3 displayed on the display unit S1.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to the user's “sleepiness” estimated from biological information.
  • the emotion information related to the “sleepiness” may be related to the yawning of the user.
  • the wearable terminal 20 can detect a user's yawn with a myoelectric sensor and transmit the detection information to the information processing apparatus 30.
  • FIG. 9 is a conceptual diagram showing an outline of the third embodiment according to the present disclosure.
  • the operating device 10 may be a lighting device having a function of connecting to the network 40.
  • the information processing apparatus 30 estimates emotion information related to the user's “sleepiness” from the user's biometric information acquired from the wearable terminal 20, and performs lighting control related to the operation device 10 based on the emotion information. It can be carried out.
  • the information processing apparatus 30 adds “drowsiness” as a weak teacher to biological information such as pulse waves, electrocardiograms, sweating, etc. included in a predetermined time before and after the user yawns. -A biological DB may be generated.
  • the information processing apparatus 30 controls the illumination of the operation apparatus 10 to be weak or warms the emission color based on the acquired biological information and the user's “sleepiness” estimated by the sleepiness-biology DB. Control to change to can be performed.
  • the information processing apparatus 30 may correct the correlation strength related to the drowsiness-biological DB using the user's lighting operation as feedback.
  • the information processing device 30 can perform control to reduce the correlation strength based on the fact that the user has increased the illumination of the motion device 10.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to “boring” of the user estimated from biological information.
  • the emotion information related to “boring” may be related to the user's line of sight.
  • the wearable terminal 20 can detect that the user's line of sight does not change for a predetermined time or longer, and can transmit the detection information to the information processing apparatus 30. At this time, the wearable terminal 20 may determine the user's line of sight based on imaging information acquired by a line-of-sight measurement sensor or the like.
  • FIG. 10 is a conceptual diagram showing an outline of the fourth embodiment according to the present disclosure.
  • the operating device 10 may be an information processing terminal such as a smartphone.
  • the information processing apparatus 30 estimates emotion information related to the user's “boring” from the user's biological information acquired from the wearable terminal 20, and controls the application related to the operation device 10 based on the emotion information. It can be performed.
  • the information processing apparatus 30 according to the present embodiment may change the state of the user in the chat application to “boring” or the like. Further, the information processing apparatus 30 may control display in the chat application.
  • a screen related to the chat application is displayed on the display unit S ⁇ b> 1 of the operating device 10. Further, icons indicating the members M1 to M4 are displayed on the screen.
  • the information processing apparatus 30 changes the state of the member M1 to “boring” based on emotion information related to “boring” estimated from the biological information of the user corresponding to the member M1. ing. Further, the information processing apparatus 30 displays a window W1 for the other members M2 to M4 in association with the member M1. At this time, the information processing apparatus 30 may display the window W1 including the list L1. The information processing apparatus 30 may control the contents displayed in the window W1 or the list L1 based on the acquired user biometric information.
  • the information processing apparatus 30 detects biological information such as pulse waves, electrocardiograms, and sweat included in the predetermined time before and after the detection. "Boring" may be added as a weak teacher to generate a boredom-biological database in advance.
  • the information processing apparatus 30 may correct the correlation strength related to the boredom-biological DB by using the state operation of the chat application by the user as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on, for example, the user changing the state of the chat application to “busy” or the like.
  • the information processing apparatus 30 can perform operation control related to the operation apparatus 10 based on emotion information related to a user's “surprise” estimated from biological information.
  • the emotion information related to the “surprise” may be related to the instantaneous action of the user. That is, in this embodiment, you may recognize the motion of the body observed when a user is surprised as action information.
  • the wearable terminal 20 can detect an instantaneous operation of the user by the acceleration sensor and transmit the detection information to the information processing apparatus 30.
  • FIG. 11 is a conceptual diagram showing an outline of the fifth embodiment according to the present disclosure.
  • the operation device 10 may be an information processing terminal such as a smartphone.
  • the information processing apparatus 30 estimates emotion information related to the user's “surprise” from the user's biometric information acquired from the wearable terminal 20, and performs display control related to the motion apparatus 10 based on the emotion information. It can be carried out.
  • the information processing apparatus 30 according to the present embodiment cuts out a frame image related to a time when the user's “surprise” is estimated from a moving image acquired by a celestial camera or the like, and uses the frame image as an operating device. 10 can be displayed.
  • the display unit S1 of the operating device 10 displays a screen related to the content C1 and a window W2.
  • the window W2 includes an image P1, a button B1, and a button B2.
  • the image P1 displayed in the window W2 may be a frame image acquired based on a moving image acquired by a celestial sphere camera or the like.
  • the buttons B1 and B2 may be buttons for performing operations related to saving or discarding images.
  • the information processing apparatus 30 is based on the fact that the wearable terminal 20 detects a user's instantaneous body movement, and is a living body such as a pulse wave, an electrocardiogram, and perspiration included in a predetermined time before and after the detection. “Surprise” may be added to the information as a weak teacher to generate a surprise-biological DB in advance.
  • the information processing apparatus 30 may correct the correlation strength related to the surprise-biological DB using the operation of the button B1 or B2 by the user as feedback.
  • the information processing apparatus 30 can perform control for weakening the correlation strength based on, for example, the user pressing the button B2 related to discarding the image P1.
  • the information processing apparatus 30 can also perform control to weaken the relation related to the behavior-emotion DB 395 based on, for example, the user discarding the image P1 continuously.
  • the information processing apparatus 30 according to the present embodiment can perform motion control related to the motion device 10 based on emotion information related to the user's “sadness” estimated from biological information.
  • the emotion information related to the above-mentioned “sadness” may be related to the tears of the user.
  • the motion apparatus 10 according to the present embodiment can detect a user's tears with a lacrimal gland sensor or the like, and can transmit the detection information to the information processing apparatus 30.
  • the operating device 10 according to the present embodiment may further include a biosensor unit 310.
  • FIG. 12 is a conceptual diagram showing an overview of the sixth embodiment according to the present disclosure.
  • the operating device 10 may be a contact-type wearable terminal.
  • the information processing device 30 estimates emotion information related to the user's “sadness” based on the user's tears detected by the motion device 10, and gives a quote or the like to the motion device 10 based on the emotion information. Can be displayed.
  • the information processing apparatus 30 displays text information T ⁇ b> 4 related to the maxim on the display unit S ⁇ b> 1 of the operation apparatus 10.
  • the information processing apparatus 30 can also estimate the user's “sadness” based on voice recognition by a microphone and motion recognition by an acceleration sensor in addition to tear detection by the lacrimal gland sensor. In this case, the information processing apparatus 30 can distinguish the user's tears not caused by “sadness”, and more accurate emotion estimation is realized.
  • the information processing apparatus 30 adds “sadness” as a weak teacher to biological information such as pulse waves, electrocardiograms, sweating, and the like included in a predetermined time before and after the user shed tears.
  • a DB may be generated.
  • the information processing apparatus 30 according to the present embodiment searches for a quotation or the like related to encouragement from the Internet or the like based on the user's “sadness” estimated from the acquired biological information and the sadness-biological DB.
  • the information related to the maxim can be displayed on the operating device 10.
  • the information processing apparatus 30 may correct the correlation strength related to the sadness-biological DB using the user's line of sight as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on the fact that the user does not direct his / her line of sight to the text T4 displayed on the display unit S1.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to “joy” of a user estimated from biological information.
  • the emotion information related to “joy” may be related to the smile of the user.
  • the wearable terminal 20 can detect a user's smile using a myoelectric sensor and transmit the detection information to the information processing apparatus 30.
  • FIG. 13 is a conceptual diagram showing an outline of the seventh embodiment according to the present disclosure.
  • the operating device 10 may be an information processing terminal such as a smartphone.
  • the information processing apparatus 30 estimates emotion information related to the user's “joy” from the user's biological information acquired from the wearable terminal 20, and performs function control related to the motion apparatus 10 based on the emotion information. It can be carried out.
  • the information processing apparatus 30 causes the operation apparatus 10 to recognize an object existing in the surrounding environment of the user based on the estimation of the emotion information related to the “joy” of the user.
  • the object can be stored as a “lucky item”.
  • the motion apparatus 10 may perform the object recognition using a widely used method such as object recognition or human recognition.
  • the information processing apparatus 30 adds joy as a weak teacher to biological information such as pulse waves, electrocardiograms, and sweating included in a predetermined time before and after detecting a user's smile.
  • -A biological DB may be generated.
  • the information processing apparatus 30 may control the display of the operation apparatus 10 according to the “lucky item”.
  • the OS home screen is displayed on the display unit S ⁇ b> 1 of the operating device 10.
  • the icons I1 to I4 related to “Lucky item” are displayed on the home screen.
  • the icon I1 may be an application button related to “Lucky Item” arranged on the home screen.
  • the icons I2 to I4 may be image information related to “Lucky Items” developed when the icon I1 is pressed.
  • the image information related to the icons I2 to I4 may be image information set based on the object recognition.
  • the information processing apparatus 30 according to the present embodiment can control the display of the operation apparatus 10 according to “Lucky item”.
  • the information processing apparatus 30 may correct the correlation strength related to the pleasure-biological DB by using the user's screen operation as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on the fact that the user has deleted the “lucky item”.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to a user's “happiness” estimated from biological information.
  • the emotional information related to the above-mentioned “happiness” may be related to a user's posting to SNS (Social Networking Service).
  • SNS Social Networking Service
  • the operation device 10 can detect the SNS posting by the user and transmit the detection information to the information processing device 30.
  • the information processing apparatus 30 adds “happiness” as a weak teacher to biological information such as pulse waves, electrocardiograms, sweating, and the like included in a predetermined time before and after the SNS posting by the user is detected.
  • the happiness-biological DB may be generated in advance.
  • FIG. 14 is a conceptual diagram showing an overview of the eighth embodiment according to the present disclosure.
  • the operation device 10 may be an information processing terminal such as a smartphone.
  • the information processing apparatus 30 estimates emotion information related to the user's “happiness” from the user's biological information acquired from the wearable terminal 20, and performs function control according to the operation device 10 based on the emotion information. It can be performed.
  • the information processing apparatus 30 causes the operation apparatus 10 to recognize an object or a person existing in the user's surrounding environment when the emotion information related to the “happiness” of the user is estimated, A diary based on the recognition result can be created.
  • the diary may include text information and image information automatically generated based on the result of object recognition or person recognition.
  • FIG. 14 shows an example of a diary displayed on the display unit S1 of the operating device 10.
  • the content C2 related to the diary in the content C2 related to the diary, the text information described above, and icons I6 and I7 based on the results of object recognition and human recognition are displayed. Further, a button B3 for editing the diary is arranged in the content C2 related to the diary.
  • the information processing apparatus 30 may correct the correlation strength related to the sense of well-being DB by using the screen operation by the user as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on, for example, the user pressing the button B3 and editing the diary.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to the user's “unhappiness” estimated from biological information.
  • the emotion information related to the above-mentioned “unhappiness” may be related to the user's line of sight.
  • the wearable terminal 20 can detect that the user's line of sight has been directed downward for a predetermined time or more, and can transmit the detection information to the information processing apparatus 30. At this time, the wearable terminal 20 may determine the user's line of sight based on imaging information acquired by a line-of-sight measurement sensor or the like.
  • the information processing apparatus 30 based on the fact that the wearable terminal 20 detects that the user's line of sight is facing downward for a predetermined time, the pulse wave included in the predetermined time before and after the detection, “Unhappy” may be added as a weak teacher to biological information such as electrocardiogram and sweating, and the unhappiness-biological DB may be generated in advance.
  • FIG. 15A is a conceptual diagram showing an overview of the ninth embodiment according to the present disclosure.
  • the operation device 10 may be an information processing terminal such as a smartphone.
  • the information processing apparatus 30 estimates emotion information related to the user's “unhappiness” from the user's biological information acquired from the wearable terminal 20, and performs display control according to the operation apparatus 10 based on the emotion information. It can be performed.
  • the information processing apparatus 30 according to the present embodiment can acquire an electronic coupon that can be used at a store and display the electronic coupon on the operating device 10.
  • the display unit S1 of the operating device 10 displays a window W3 related to the display of the electronic coupon described above on the content C3 browsed by the user.
  • buttons B4 and B5 related to saving or discarding the electronic coupon are displayed in the window W3.
  • FIG. 15B is an example showing another control example of the operating device 10 according to the present embodiment.
  • the operation device 10 may be a device such as a desktop projector.
  • the information processing apparatus 30 according to the present embodiment may recognize the operation device 10 around the user via the network 40 and perform display control of the recognized operation device 10.
  • the information processing apparatus 30 may correct the correlation strength related to the unhappiness-biological DB by using a button operation by the user as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on, for example, the user pressing the button B5 related to discarding the electronic coupon.
  • the information processing apparatus 30 can perform operation control related to the operation apparatus 10 based on emotion information related to “concentration” of a user estimated from biological information.
  • the emotion information related to the above “concentration” may be related to the posture of the user.
  • the wearable terminal 20 can detect the posture of the user when seated by a gyro sensor, and can transmit the detection information to the information processing apparatus 30.
  • the information processing apparatus 30 based on the fact that the wearable terminal 20 detects that the user's posture is good, is a living body such as a pulse wave, electrocardiogram, and sweat included in a predetermined time before and after the detection. “Concentration” may be added to information as a weak teacher, and a concentration-biological DB may be generated in advance.
  • FIG. 16 is a conceptual diagram showing an overview of the tenth embodiment according to the present disclosure.
  • the operating device 10 may be a device such as a desktop display.
  • the information processing apparatus 30 estimates emotion information related to the user's “concentration” from the user's biometric information acquired from the wearable terminal 20, and performs display control related to the motion apparatus 10 based on the emotion information. It can be carried out.
  • the information processing apparatus 30 may cause the operating device 10 to display an indicator indicating the degree of concentration, a ToDo list, and the like.
  • an indicator G1 indicating the degree of concentration and ToDo lists B6 and B7 are displayed on the display unit S1 of the operating device 10. At this time, the user may be able to transition to an application screen corresponding to each by selecting the ToDo list B6 or B7.
  • the information processing apparatus 30 may correct the correlation strength related to the concentration-biological DB by using a screen operation by the user as feedback.
  • the information processing apparatus 30 can perform control to weaken the correlation strength based on, for example, the user not selecting the ToDo list B6 or B7 for a predetermined time or longer.
  • the information processing apparatus 30 can perform motion control related to the motion device 10 based on emotion information related to “excitement” of a user estimated from biological information.
  • the emotion information related to the “excitement” may be related to the movement of the user's hand.
  • the wearable terminal 20 detects that the user's hand has been raised when the goal is determined, and the information processing apparatus 30 detects the detection.
  • Information can be sent.
  • Wearable terminal 20 may presume that a user is watching soccer based on information acquired from GPS and time information, for example.
  • the information processing apparatus 30 based on the fact that the wearable terminal 20 detects that the user's hand has been raised, pulse waves, electrocardiograms, sweating, and the like included in a predetermined time before and after the detection.
  • the excitement-biological DB may be generated in advance by adding “excitement” as a weak teacher to the biometric information.
  • FIG. 17 is a conceptual diagram showing an outline of the eleventh embodiment according to the present disclosure.
  • the operation device 10 may be a device having a recording function such as a video camera or a smartphone.
  • the information processing apparatus 30 according to the present embodiment estimates emotion information related to the user's “excitement” from the user's biometric information acquired from the wearable terminal 20, and performs function control related to the motion apparatus 10 based on the emotion information. It can be carried out. Specifically, the information processing apparatus 30 according to the present embodiment can cause the operating device 10 to perform slow motion shooting and display the captured slow video on the display unit S1 of the operating device 10.
  • the slow video is displayed in the window W4 on the display unit S1 of the operating device 10 in addition to the normal video at the time of recording.
  • the information processing apparatus 30 may correct the correlation strength related to the excitement-biological DB by using the screen operation by the user as feedback.
  • the information processing apparatus 30 can perform control for weakening the correlation strength based on, for example, the user switching the window W4 to non-display on the slow video.
  • FIG. 18 is a block diagram illustrating a hardware configuration example of the operation device 10, the wearable terminal 20, and the information processing device 30 according to the present disclosure.
  • the operating device 10, the wearable terminal 20, and the information processing device 30 include, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, An input device 878, an output device 879, a storage 880, a drive 881, a connection port 882, and a communication device 883 are included.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.
  • the CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation or a part of each component based on various programs recorded in the ROM 872, RAM 873, storage 880, or removable recording medium 901.
  • the ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like.
  • the RAM 873 for example, a program read by the CPU 871, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • the CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example.
  • the external bus 876 is connected to various components via the interface 877.
  • Input device 8708 For the input device 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Furthermore, as the input device 878, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • Output device 879 In the output device 879, for example, a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc. It is a device that can notify visually or audibly.
  • a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL
  • an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc. It is a device that can notify visually or audibly.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media.
  • the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.
  • connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the communication device 883 is a communication device for connecting to a network.
  • the information processing apparatus 30 has a function of generating the bio-emotional DB 390 based on user behavior information and biometric information. Further, the information processing apparatus 30 according to the present embodiment has a function of controlling the operation of the operation unit 360 corresponding to the user's biometric information using the generated bio-emotional DB 390. According to such a configuration, it is possible to more efficiently collect data related to the user's emotion and realize more accurate emotion estimation.
  • a control unit that acquires emotion information obtained from the user's biological information and outputs control information related to the operation of the operation unit corresponding to the user's biological information based on behavior information associated with the emotion information; Comprising Information processing device.
  • a recognition unit for recognizing feedback from the user with respect to the operation of the operation unit; Further comprising The recognizing unit controls the correction related to the correlation strength between the corresponding biological information and emotion information based on the feedback; The information processing apparatus according to (1).
  • the recognizing unit controls correction related to association between corresponding behavior information and emotion information based on the feedback;
  • the feedback includes an evaluation of the user with respect to the operation of the operation unit.
  • the information processing apparatus performs control to weaken the correlation strength between corresponding biological information and emotion information based on the negative evaluation of the user with respect to the operation of the operation unit.
  • the information processing apparatus according to (4).
  • the recognition unit performs control to increase the correlation strength between the corresponding biological information and emotion information based on the positive evaluation of the user with respect to the operation of the operation unit.
  • the information processing apparatus according to (4) or (5).
  • the recognition unit performs control to delete the association between the corresponding emotion information and action information based on the negative evaluation of the user with respect to the operation of the operation unit.
  • the information processing apparatus according to any one of (4) to (6).
  • the behavior information includes information indicating an operation to be executed by the operation unit, The control unit controls an operation to be performed by the operation unit based on the behavior information.
  • the information processing apparatus according to any one of (1) to (7).
  • the emotion information includes the type and degree of emotion and is acquired based on the biological information measured by a device possessed by the user.
  • the information processing apparatus according to any one of (1) to (8).
  • the behavior information includes information related to past device operations performed by the user, The control unit causes the operation unit to perform an operation similar to the device operation based on behavior information associated with the type and degree of the emotion.
  • the information processing apparatus according to (9).
  • the behavior information includes information related to device operation recommended to the user,
  • the control unit causes the operation unit to perform a device operation recommended to the user based on behavior information related to the type and degree of the emotion.
  • the information processing apparatus according to (9) or (10).
  • the control unit acquires emotion information associated with the behavior information based on the acquisition of the user behavior information, and stores the emotion information and the acquired biological information in association with each other in the storage unit.
  • the information processing apparatus according to (1).
  • the device operation by the user is recognized by any one or combination of an acceleration sensor, a gyro sensor, a temperature sensor, a humidity sensor, a myoelectric sensor, a voice sensor, a pressure sensor, an imaging sensor, a microphone, a button, and a switch.
  • the information processing apparatus acquires emotion information obtained from the user's biological information, and outputs control information related to the operation of the operation unit corresponding to the user's biological information based on the behavior information associated with the emotion information. , including, Information processing method.

Abstract

ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、を備える、情報処理装置が提供される。また、プロセッサが、ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力すること、を含む、情報処理方法が提供される。これにより、ユーザの情動に係るデータをより効率的に収集し、より高精度な情動推定を実現する。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年、ユーザの感情を推定するための種々の手法が提案されている。また、上記のような手法には、装置の動作に関連したユーザの感情を推定するものがある。例えば、特許文献1には、コンテンツの閲覧時におけるユーザの感情を推定する感情推定方法が開示されている。
特開2014-222397号公報
 しかし、特許文献1に記載の感情推定方法では、ユーザが予め複数のテストコンテンツに対する感情を手動で入力することが求められる。このため、特許文献1に記載の感情推定方法ではユーザの負担が大きく、より多くの状況に対応することが困難である。
 そこで、本開示では、ユーザの情動に係るデータをより効率的に収集し、より高精度な情動推定を実現することが可能な情報処理装置、情報処理方法、及びプログラムを提案する。
 本開示によれば、ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、を備える、情報処理装置が提供される。
 以上説明したように本開示によれば、ユーザの情動に係るデータをより効率的に収集し、より高精度な情動推定を実現することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る生体‐情動DBの生成について説明するための図である。 同実施形態に係る生体‐情動DBに基づいた動作制御の概要を説明するための図である。 同実施形態に係る機能ブロック図である。 同実施形態に係るセンサ情報に基づいて出力される行動情報の一例を示した図である。 同実施形態に係る生体‐情動DB390に記憶されるデータの構成例である。 同実施形態に係る行動‐情動DB395に記憶されるデータの構成例である。 同実施形態に係る体‐情動DB390の生成に係る流れを示すフローチャートである。 同実施形態に係る生体‐情動DB390を用いた動作制御の流れを示すフローチャートである。 本開示の第2の実施形態に係る概要を示す概念図である。 本開示の第3の実施形態に係る概要を示す概念図である。 本開示の第4の実施形態に係る概要を示す概念図である。 本開示の第5の実施形態に係る概要を示す概念図である。 本開示の第6の実施形態に係る概要を示す概念図である。 本開示の第7の実施形態に係る概要を示す概念図である。 本開示の第8の実施形態に係る概要を示す概念図である。 本開示の第9の実施形態に係る概要を示す概念図である。 同実施形態に係る動作装置の別の制御例を示す一例である 本開示の第10の実施形態に係る概要を示す概念図である。 本開示の第11の実施形態に係る概要を示す概念図である。 本開示に係るハードウェア構成例である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の概要
  1.1.本開示に係る着目点
 2.第1の実施形態
  2.1.生体‐情動DBの生成
  2.2.生体‐情動DBを用いた動作制御
  2.3.本実施形態に係る機能構成
  2.4.生体‐情動DBの生成に係る流れ
  2.5.生体‐情動DBを用いた動作制御の流れ
  2.6.第1の実施形態に係る変形例
 3.第2の実施形態
 4.第3の実施形態
 5.第4の実施形態
 6.第5の実施形態
 7.第6の実施形態
 8.第7の実施形態
 9.第8の実施形態
 10.第9の実施形態
 11.第10の実施形態
 12.第11の実施形態
 13.ハードウェア構成例
 14.まとめ
 <1.本開示の概要>
 <<1.1.本開示に係る着目点>>
 近年、ユーザから取得した生体情報に基づいて、当該ユーザの情動を推定する手法が提案されている。また、推定したユーザの情動に基づいたサービスを提供する技術が知られている。
 しかし、高精度な情動推定を実現するためには、取得した生体情報と、当該生体情報を得た際のユーザの情動と、を関連付けるための多くの教師信号が求められる。上記の教師信号は、例えば、ユーザ自身により入力される情報であってもよい。しかし、この場合、ユーザの負担が大きく、大量の教師信号を収集することは困難である。
 一方、ユーザは日常において様々な情動を抱き、また様々な行動を行っている。この際、上記の情動と行動とは密接に連関している場合も多い。例えば、ユーザがカメラなどの撮像装置を用いて撮像を行う場合、当該ユーザは被写体に対し興味を持っていることが推定される。
 本開示は、上記のような情動に関連付いた日常行動に着目して発想されたものである。すなわち、本開示に係る情報処理装置、情報処理方法、及びプログラムでは、予め情動の弱教師となり得る日常行動を認識することで、当該日常行動を行った際のユーザの生体情報と、情動情報と、を関連付けたデータベースを生成することが可能となる。
 また、本開示に係る情報処理装置、情報処理方法、及びプログラムによれば、ユーザから取得された生体情報に基づいて上記のデータベースを検索することで、ユーザの情動を推定し、当該情動に応じた種々のサービスや機能をユーザに提供することが可能となる。
 以降における本開示に係る実施形態の説明においては、上記の機能を実現する情報処理装置の構成上の特徴を挙げながら、当該特徴が奏する効果について述べる。なお、本開示における情動は、感情を含むものと解されてよい。すなわち、本開示に係る情動は、ユーザの生体反応の他、喜怒哀楽などの感情を含んでよい。本開示に係る情動は、生体情報から推定され得るユーザに関する種々の状態であってよい。
 <2.第1の実施形態>
 <<2.1.生体‐情動DBの生成>>
 まず、本実施形態に係る生体‐情動DBの生成とシステム構成例について説明する。本実施形態に係る情報処理方法では、ユーザの行動に関連づいた情動情報と、当該行動を行った際に取得される生体情報と、を関連付けた生体‐情動DBを生成することが可能である。この際、本実施形態に係る情報処理方法では、予め登録された行動‐情動DBを参照することで、上記の生体情報と情動情報とを関連付けることができる。
 図1Aは、本実施形態に係るシステム構成例、及び生体‐情動DBの生成について説明するための図である。図1Aを参照すると、本実施形態に係る情報処理システムは、動作装置10、ウェアラブル端末20、情報処理装置30、生体‐情動DB390、及び行動‐情動DB395を備える。また、動作装置10、ウェアラブル端末20、及び情報処理装置30は、互いに通信が行えるように、ネットワーク40を介して接続される。
 (動作装置10)
 本実施形態に係る生体‐情動DB390の生成において、動作装置10は、ユーザP1の行動を認識するための種々の装置であってよい。図1Aに示す一例においては、動作装置10は、各種の撮像装置や撮像機能を有するスマートフォンなどであってよい。動作装置10は、検出したユーザP1の行動に係る行動情報を情報処理装置30に送信する機能を有する。例えば、図1Aに示す一例では、動作装置10は、ユーザP1が被写体O1を撮影したことを検知し、当該検知情報を情報処理装置30に送信している。より具体的には、動作装置10は、ユーザP1によるシャッターボタンの押下に係る行動を検出し、当該行動に係る行動情報を情報処理装置30に送信してよい。
 (ウェアラブル端末20)
 本実施形態に係るウェアラブル端末20は、ユーザP1の行動に伴う生体情報を取得する種々の端末であってよい。図1Aに示す一例では、ウェアラブル端末20は、被写体O1を撮影する際のユーザの生体情報を取得している。このため、ウェアラブル端末20は、ユーザP1の生体情報を取得するための各種のセンサを備えてよい。また、ウェアラブル端末20は、取得したユーザP1の生体情報を情報処理装置30に送信する機能を有する。
 (情報処理装置30)
 本実施形態に係る生体‐情動DB390の生成において、情報処理装置30は、動作装置10ユーザP1の行動情報から取得される情動情報と、ユーザP1の生体情報と、を関連付けて生体‐情動DB390を生成する機能を有する。より具体的には、情報処理装置30は、動作装置10から受信した行動情報に基づいて、予め登録された行動‐情動DB395を検索し、ユーザP1の行動情報に関連付いた情動情報を取得することができる。また、情報処理装置30は、上記で取得した情動情報と、ウェアラブル端末20から受信したユーザP1の生体情報と、を関連付けて生体‐情動DB390に記憶させることができる。本実施形態に係る情報処理装置30は、上記の機能を有する各種の情報処理端末であってもよい。本実施形態に係る情報処理装置30は、例えば、PC(Personal Computer)、スマートフォン、またはタブレットなどであってもよい。
 図1Aに示す一例においては、情報処理装置30は、動作装置10からユーザP1によるシャッターボタンの押下に係る行動情報を受信し、当該行動情報に基づく情動情報を行動‐情動DB395から取得することができる。この際、上記の行動‐情動DB395には、例えば、シャッターボタンの押下と、「興味」に係る情動情報が、関連付けられていてよい。このように、本実施形態に係る行動‐情動DB395には、ユーザP1が取り得る行動と、当該行動を取る際のユーザP1の推定情動とが記憶されていてよい。図1Aに示す一例においては、ユーザが写真を撮影する場合、ユーザP1は被写体O1に対して「興味」を抱いていると推定されることから、シャッターボタンの押下と、「興味」とが、関連付いて行動‐情動DB395に記憶されている。なお、本実施形態に係る行動‐情動DB395の詳細については、後述する。
 また、この際、情報処理装置30は、行動‐情動DB395から取得した「興味」に係る情動情報と、ウェアラブル端末20から受信した生体情報とを関連付けて生体‐情動DB390に記憶させることができる。すなわち、情報処理装置30は、被写体O1を撮影するユーザP1の行動情報から得られた情動情報と、撮影時に取得されたユーザP1の生体情報とを関連付けることで、生体‐情動DB390を生成することが可能である。
 (ネットワーク40)
 ネットワーク40は、動作装置10、ウェアラブル端末20、及び情報処理装置30を互いに接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP-VPN(Internt Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク40は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
 以上、本実施形態に係る生体‐情動DB390の生成について概要を説明した。上述したとおり、本実施形態に係る情報処理装置30は、取得したユーザの行動情報と生体情報とに基づいて、生体‐情動DB390を生成することができる。本実施形態に係る情報処理装置30によれば、生体情報と情動情報とに係る教師をユーザの日常的な行動から動的に収集することが可能となる。
 なお、図1Aを用いた上記の説明では、情報処理装置30が、ユーザの行動情報を動作装置10から、ユーザの生体情報をウェアラブル端末20から取得する場合を例に述べたが、本実施形態に係るシステム構成例は係る例に限定されない。例えば、本実施形態に係る情報処理装置30は、ユーザの行動を検出する機能とユーザの生体情報を取得する機能を有してもよい。すなわち、本実施形態に係る動作装置10、ウェアラブル端末20、及び情報処理装置30は、単一の装置として実現されてもよい。
 この場合、情報処理装置30は、例えば、生体‐情動DB390を生成する機能を有する撮像装置であってもよい。また、この場合、情報処理装置30は、ユーザの生体情報を取得するための各種のセンサを備えてよい。本実施形態に係るシステム構成、及び情報処理装置30の機能構成は、柔軟に変更され得る。
 また、上記の説明では、動作装置10、ウェアラブル端末20、及び情報処理装置30がネットワーク40を介して接続される場合を例に述べたが、本実施形態のシステム構成例は係る例に限定されない。動作装置10及びウェアラブル端末20は、オフライン状態において収集したデータを各種のストレージに保存することもできる。この場合、情報処理装置30は、上記のストレージから読み込んだ行動情報と生体情報とをタイムスタンプなどの情報により一致させることで、生体‐情動DB390を生成することが可能である。
 <<2.2.生体‐情動DBを用いた動作制御>>
 次に本実施形態に係る生体‐情動DBを用いた動作制御の概要について説明する。本実施形態に係る情報処理装置30は、取得されたユーザの生体情報に基づいて、動作装置10の動作を制御する機能を有する。より具体的には、情報処理装置30は、取得したユーザの生体情報を用いて生体‐情動DB390を検索し、当該生体情報に関連付いた情動情報を得ることができる。また、情報処理装置30は、上記で取得した情動情報に用いて行動‐情動DB395を検索し、得られた行動情報に対応する動作を動作装置10に実行させることができる。
 図1Bは、本実施形態に係る生体‐情動DBに基づいた動作制御の概要を説明するための図である。図1Bに示す一例は、情報処理装置30がウェアラブル端末20から受信したユーザの生体情報に基づいて、動作装置10の動作を制御する場合を示している。なお、図1Bに示す一例では、動作装置10は、例えば、ウェアラブルカメラなどの撮像装置であってもよい。
 図1Bに示す一例では、ウェアラブル端末20は、被写体O1を視認した際のユーザP1の生体情報を取得し、情報処理装置30に送信してよい。この際、情報処理装置30は、受信した生体情報を用いて生体‐情動情報390を検索し、当該生体情報に関連付いた情動情報を取得することができる。また、情報処理装置30は、上記で取得した情動情報を用いて行動‐情動DB395を検索し、当該情動情報に基づいた行動情報を取得する。具体的には、情報処理装置30は、受信した生体情報に関連付いた、「興味」に係る情動情報を生体‐情動情報390から取得することができる。また、情報処理装置30は、「興味」に関連付いた、「シャッターを切る」動作に係る行動情報を行動‐情動DB395から取得することができる。
 また、情報処理装置30は、上記により取得した行動情報に基づいて動作装置10の動作制御を行うことができる。具体的には、情報処理装置30は、動作装置10にシャッターを切らせるための制御情報を出力してよい。この場合、動作装置10は、受信した制御情報に基づいてシャッター操作を行い、被写体O1を撮影することができる。すなわち、本実施形態に係る情報処理装置30は、取得したユーザの生体情報から推定される情動情報に関連付いた動作を動作装置10に実行させることができる。情報処理装置30が有する上記の機能によれば、推定したユーザの情動に対応する動作を動作装置10に自動実行させることで、ユーザの操作負担を大幅に軽減し、価値の高いサービスをユーザに提供することが可能となる。
 <<2.3.本実施形態に係る機能構成>>
 次に、本実施形態に係る情報処理システムの機能構成について説明する。図2は、本実施形態に係る機能ブロック図である。図2を参照すると、本実施形態に係る情報処理システムは、生体センサ部310、行動測定センサ部315、信号処理部320、行動認識部330、情動推定部340、制御部350、動作部360、入力受付部370、及びフィードバック認識部380を備える。また、本実施形態に係る情報処理システムは、生体‐情動DB390及び行動‐情動DB395を有してよい。
 また、上述したとおり、本実施形態に係るシステム構成は、提供するサービスや各装置の仕様に応じて柔軟に設計されてよい。例えば、本実施形態に係る情報処理装置30は、信号処理部320、行動認識部330、情動推定部340、制御部350、及びフィードバック認識部380を備えてもよい。本実施形態に係る動作装置10は、行動測定センサ部315、動作部360、及び入力受付部370を備えてもよい。また、本実施形態に係るウェアラブル端末20は、生体センサ部310を備えてもよい。なお、ウェアラブル端末20は、行動測定センサ部315をさらに備えてもよい。この場合は、ウェアラブル端末20は、ユーザの生体情報に加え行動情報を収集することができる。
 一方、本実施形態に係る情報処理装置30は、図2に示す各構成をすべて備えてもよい。この場合、情報処理装置30は、図1A及び図12Bに示した動作装置10及びウェアラブル端末20の機能を兼ねることができる。以降、上記に示す各構成について詳細に説明する。
 (生体センサ部310)
 生体センサ部310は、ユーザの生体情報を計測する機能を有する。このため、生体センサ部310は、ユーザの生体情報を計測するための各種のセンサを含んでよい。生体センサ部310は、例えば、ユーザの脈波、発汗、血圧、筋電位、心電、眼電位、脳波、瞳孔開口率、または体温などを計測するためのセンサを含むことができる。
 (行動測定センサ部315)
 行動測定センサ部315は、デバイス操作を含むユーザの行動に係るセンサ情報を検知する機能を有する。このため、行動測定センサ部315は、ユーザの行動に係るセンサ情報を検知するための各種のセンサを含んでよい。行動測定センサ部315は、例えば、加速度センサ、ジャイロセンサ、気圧センサ、気温センサ、湿度センサ、筋電センサ、音声センサ、圧力センサ、撮像センサ、マイクロフォン、ボタン、スイッチのいずれか、または組み合わせによりユーザの行動に係るセンサ情報を検知してよい。また、行動測定センサ部315は、上記で述べた生体センサ部310が備える各センサをさらに備えてもよい。
 (信号処理部320)
 信号処理部320は、生体センサ部310が取得した生体情報の一部またはすべてに対してノイズ除去や特徴抽出を行う機能を有する。この際、信号処理部320は、生体センサ部310が取得した生体情報に対して、ノイズ除去と特徴抽出の両方を行ってもよいし、いずれか一方の処理を行ってもよい。信号処理部320は、生体センサ部310が取得した生体情報の種類に応じた処理を行うことができる。
 (行動認識部330)
 行動認識部330は、行動測定センサ部315が取得したユーザの行動に係るセンサ情報に基づいてユーザの行動を認識し、行動情報を出力する機能を有する。この際、行動認識部330は、SVM(Support Vector Machine)、ニューラルネットワーク、回帰モデルなどの機械学習手法または統計的手法に基づいて、ユーザの行動を認識してもよい。
 図3は、行動認識部330がセンサ情報に基づいて出力する行動情報の一例を示した図である。図3を参照すると、行動認識部330は、例えば、行動測定センサ部315が検知したボタン操作に基づいて、シャッターを切る、というユーザの行動を認識することができる。また、行動認識部330は、行動測定センサ部315が検知した筋電位情報に基づいて、あくびをする、というユーザの行動を認識してもよい。
 (情動推定部340)
 情動推定部340は、信号処理部320から出力される生体情報に基づいて生体‐情動DB390を参照し、当該生体情報から推定される情動情報を出力する機能を有する。この際、情動推定部340が出力する上記の情動情報には、情動の種類や度合いが含まれてよい。
 図4は、本実施形態に係る生体‐情動DB390に記憶されるデータの構成例を示した図である。より詳細には、図4は、個人化された生体‐情動DB390に記憶される個人化済のデータ構成例であってよい。すなわち、生体‐情動DB390には、個人の特徴に基づいた生体情報と情動情報とが関連付けられて記憶されている。情動推定部340は、信号処理部320から出力される生体情報の特徴と、生体‐情動DB390に記憶される生体情報の特徴と、を比較することで生体情報に関連付いた情動情報を出力することができる。
 この際、情動推定部340は、例えば、信号処理部320から出力される生体情報と生体‐情動DB390に記憶される情報とを、SVM、ニューラルネットワーク、回帰モデルなどの機械学習手法または統計的手法により処理することで、ユーザごとまたはユーザの行動ごとなどに応じた情動情報を出力してもよい。
 (制御部350)
 制御部350は、ユーザの生体情報から得られた情動情報を取得し、当該情動情報に関連付いた行動情報に基づいて、ユーザの生体情報に対応する動作部360の動作に係る制御情報を出力する機能を有する。すなわち、制御部350は、情動推定部340が出力した情動情報に基づいて当該情動情報に関連付いた行動情報を行動‐情動DB395から取得する機能を有する。また、制御部350は上記で取得した行動情報に基づいて、動作部360の動作を制御する機能を有する。
 図5は、本実施形態に係る行動‐情動DB395に記憶されるデータの構成例を示した図である。図5を参照すると、行動‐情動DB395には、行動情報と情動情報とが関連付けられて記憶されている。図5に示すように、行動‐情動DB395に記憶される行動情報には、動作部360に実行させる動作を示す情報が含まれてよい。制御部350は、情動推定部340が出力した情動情報に関連付いた行動情報を取得し、当該行動情報に基づいて動作部360に実行させる動作を制御することができる。
 また、行動‐情動DB395に記憶される行動情報には、ユーザにより実施された過去のデバイス操作を係る情報が含まれてよい。制御部350は、取得した情動の種類及び感情に関連付いた行動情報に基づいて、上記のデバイス操作と同様の動作を動作部360に実行させることができる。例えば、図5を参照すると、行動‐情動DB395が記憶する行動情報には、ユーザが過去に実施した、シャッターを切る、というデバイス操作に係る情報が含まれている。この際、制御部350は、情動推定部340が出力した情動情報が、大きな興味、を示すことに基づいて、動作部360に、シャッターを切る、動作を実行させることができる。
 また、行動‐情動DB395に記憶される行動情報には、ユーザに推奨するデバイス動作に係る情報が含まれてよい。制御部350は、取得した情動の種類及び感情に基づいた行動情報に基づいて、上記のユーザに推奨するデバイス動作を動作部360に実行させることができる。例えば、図5を参照すると、行動‐情動DB395が記憶する行動情報には、休息アラートの送信、などユーザに推奨するデバイス動作に係る情報が含まれている。この際、制御部350は、情動推定部340が出力した情動情報が、不安、を示すことに基づいて、動作部360に、休息アラートを送信させることができる。
 さらに、制御部350は、ユーザの行動情報が取得されたことに基づいて、当該行動情報に関連付いた情動情報を取得し、当該情動情報と取得された生体情報とを関連付けて生体‐情動DBに記憶させることができる。すなわち、制御部350は、行動認識部330が出力した行動情報に基づいて、行動‐情動情報395から情動情報を取得することができる。また、制御部350は、上記で取得した情動情報と、信号処理部320が出力する生体情報と、を関連付けて生体‐情動DB390に記憶させることができる。
 (動作部360)
 動作部360は、制御部350から出力される制御情報に基づいて種々の動作を実行する機能を有する。例えば、動作部360は、制御部350から出力される制御情報に基づいて、シャッターを切る動作を実行してもよい。動作部360は、動作部360を備える装置の仕様に応じた各種の動作を実行することができる。
 (入力受付部370)
 入力受付部370は、ユーザによる入力操作を受け付ける機能を有する。このため、入力受付部370は、キーボード、マウス、タッチパネル、マイクロフォン、及びボタンなどの入力装置を備えてもよい。
 (フィードバック認識部380)
 フィードバック認識部380は、動作部360の動作に対するユーザからのフィードバックを認識する機能を有する。この際、フィードバック認識部380は、入力受付部370が受け付けるユーザの入力操作に基づいて、ユーザからのフィードバックを認識してよい。また、上記のフィードバックには、動作部360の動作に対するユーザの評価が含まれてよい。
 また、フィードバック認識部380は、上記のフィードバックに基づいて、該当する生体情報と情動情報との間の相関強度に係る修正を制御してよい。フィードバック認識部380は、動作部360の動作に対するユーザの評価が否定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を弱める制御を行うことができる。あるいは、フィードバック認識部380は、動作部360の動作に対するユーザの評価が肯定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を強める制御を行うことができる。
 例えば、制御部350が、取得された生体情報に基づいて動作部360にシャッターを切らせる制御を行った場合、フィードバック認識部380は、撮影された画像に対するユーザの操作を認識することができる。この際、例えば、フィードバック認識部380は、撮影された画像をユーザが削除したことに基づいて、制御部350が動作部360を制御する際に用いた生体情報と情動情報との間の相関強度を弱める制御を行ってよい。
 一方、例えば、フィードバック認識部380は、撮影された画像をユーザが保存したことに基づいて、制御部350が動作部360を制御する際に用いた生体情報と情動情報との間の相関強度を強める制御を行うこともできる。この際、フィードバック認識部380は、例えば、SVMを用いて生成したモデルにおけるサポートベクタの重みを強めてもよい。また、例えば、フィードバック認識部380は、構築したニューラルネットワークモデルにおける結合重みを強めることもできる。
 本実施形態に係るフィードバック認識部380が有する上記の機能によれば、ユーザのフィードバックに応じて、生体情報と情動情報との間の相関強度を適宜修正することが可能となり、より精度の高い情動推定を実現することが可能となる。
 また、フィードバック認識部380は、ユーザからのフィードバックに基づいて、該当する行動情報と情動情報との間の関連付けに係る修正を制御してよい。フィードバック認識部380は、動作部360の動作に対するユーザの評価が否定的であることに基づいて、該当する情動情報と行動情報との間の関連付けを削除する制御を行うこともできる。
 例えば、フィードバック認識部380は、撮影された画像をユーザが所定の回数以上削除したことに基づいて、制御部350が動作部360を制御する際に用いた行動情報と情動情報との間の対応付けを削除することもできる。
 本実施形態に係るフィードバック認識部380が有する上記の機能によれば、ユーザのフィードバックに応じて、行動情報と情動情報との間の対応付けを適宜修正することが可能となり、より価値の高いサービス提供を実現することが可能となる。
 (生体‐情動DB390)
 生体‐情動DB390は、取得されたユーザの生体情報と情動情報とを関連付けて記憶する情報データベースである。ここで、上記の情動情報は、行動認識部330が出力した行動情報に基づいて、制御部350が行動‐情動情報395から取得した情動情報であってよい。図4を用いて説明したように、本実施形態に係る生体‐情動DB390は、生体情報の特徴と情動の種類及び度合いとを関連付けて記憶することができる。
 また、本実施形態に係る生体‐情動DB390は、ユーザまたはユーザの行動ごとに生成される情報データベースであってよい。制御部350が、ユーザまたはユーザの行動ごとに生体‐情動DB390を生成することで、ユーザの特性に応じた精度の高い情動推定を実現することが可能となる。
 (行動‐情動DB395)
 行動‐情動DB395は、ユーザの行動情報と情動情報とを関連付けて記憶する情報データベースである。本実施形態に係る行動‐情動DB395は、動作部360の有する機能に応じて予め設定されたデータベースであってよい。図5を用いて説明したように、本実施形態に係る行動‐情動DB395は、情動の種類及び度合いと動作部360に実行させる動作とを関連付けて記憶することができる。
 <<2.4.生体‐情動DBの生成に係る流れ>>
 以上、本実施形態に係る情報処理システムの機能構成について説明した。次に、本実施形態に係る生体‐情動DB390の生成に係る流れについて詳細に説明する。図6は、本実施形態に係る生体‐情動DB390の生成に係る流れを示すフローチャートである。なお、以下の説明においては、情報処理装置30が信号処理部320、行動認識部330、情動推定部340、制御部350、及びフィードバック認識部380を備える場合を例に説明する。また、この際、動作装置10は、行動測定センサ部315、動作部360、及び入力受付部370を備える装置であってよい。また、ウェアラブル端末20は、生体センサ部310を備えてよい。
 図6を参照すると、まず情報処理装置30の信号処理部320は、ウェアラブル端末20の生体センサ部310から取得した生体情報に対する信号処理を実施する(S1101)。上述したとおり、この際、信号処理部320は、取得した生体情報に対するノイズ除去や、生体情報の種類に応じた特徴抽出などを行ってよい。
 より具体的には、例えば、生体センサ部310から取得した生体情報が脈波を含む場合、信号処理部320は、ハイパスフィルタによるドリフト除去や、拍動間隔計算などによる特徴抽出を行うことができる。また、取得した生体情報が発汗に係る情報を含む場合、信号処理部320は、ダウンサンプリングや、インパルス応答関数を用いた逆畳み込み演算などを行うことができる。上記のように、信号処理部320が生体情報に応じた適切な信号処理を行うことで、より効率的な情動推定を実現することが可能となる。また、信号処理部320は、上記の処理により出力した生体情報を所定の時間だけ保持してよい。
 次に、情報処理装置30の行動認識部330は、動作装置10の行動測定センサ部315からユーザの行動に係るセンサ情報を受信したか否かを判定する(S1102)。ここで、行動測定センサ部315からユーザの行動に係るセンサ情報を受信できない場合(S1102:NO)、情報処理装置30は、ステップS1101に復帰し、生体情報に係る信号処理を繰り返し実行してよい。
 一方、行動測定センサ部315からユーザの行動に係るセンサ情報を受信した場合(S1102:YES)、行動認識部330は、受信したセンサ情報に基づいて行動認識を行う(S1103)。この際、例えば、行動認識部330は、行動測定センサ部315からシャッターボタンに係るセンサ情報を受信したことに基づいて、ユーザによる写真撮影を認識することができる。
 また、例えば、行動認識部330は、行動測定センサ部315が備える加速度センサにより取得されたセンサ情報を、SVM、ニューラルネットワーク、回帰モデルなどの機械学習手法または統計的手法により処理することで、ユーザのあくびを認識することもできる。
 また、例えば、行動認識部330は、行動測定センサ部315が備えるマイクロフォンにより取得された音声情報を上記の機械学習手法または統計的手法により処理することで、ユーザが笑ったことや泣いたこと、を認識してもよい。
 次に、情報処理装置30の制御部350は、ステップS1103において認識されたユーザの行動情報に関連付いた情動情報を行動‐情動DB395から取得する(S1104)。
 続いて、制御部350は、ステップS1101において信号処理された生体情報と、ステップS1104において取得された情動情報と、を関連付けて生体‐情動DB390に記憶させる(S1105)。
 以上、本実施形態に係る生体‐情動DB390の生成に係る流れについて説明した。上記で説明したとおり、本実施形態に係る情報処理装置30は、ユーザの行動情報に関連付いた情動情報と、取得した生体情報とを関連付けて生体‐情動DB390に記憶させることができる。本実施形態に係る情報処理装置30が有する上記の機能によれば、ユーザまたはユーザの行動ごとに生体‐情動DB390を生成することが可能となり、ユーザの特性に応じた精度の高い情動推定を実現することが可能となる。
 <<2.5.生体‐情動DBを用いた動作制御の流れ>>
 次に本実施形態に係る生体‐情動DB390を用いた動作制御の流れについて詳細に説明する。図7は、本実施形態に係る生体‐情動DB390を用いた動作制御の流れを示すフローチャートである。なお、以下の説明においては、情報処理装置30が信号処理部320、行動認識部330、情動推定部340、制御部350、及びフィードバック認識部380を備える場合を例に説明する。また、この際、動作装置10は、行動測定センサ部315、動作部360、及び入力受付部370を備える装置であってよい。また、ウェアラブル端末20は、生体センサ部310を備えてよい。
 図7を参照すると、まず情報処理装置30の信号処理部320は、ウェアラブル端末20の生体センサ部310から取得した生体情報に対する信号処理を実施する(S1201)。この際、信号処理部320は、図6のステップS1101に示した処理と同様の処理を行ってよい。
 次に、情報処理装置30の情動推定部340は、ステップS1201において処理された生体情報に基づいて生体‐情動DB390を参照し、当該生体情報から推定される情動情報を出力する(S1202)。なお、この際、出力される情動情報には情動の種類及び度合いが含まれてよい。
 次に、情報処理装置30の制御部350は、ステップS1202において出力された情動情報に基づいて行動‐情動DB395を参照し、当該情動情報に関連付いた行動情報が存在するか否かを判定する(S1203)。すなわち、制御部350は、情動情報に含まれる情動の種類と度合いが予め設定された条件に一致するか否かを判定してよい。
 ここで、ステップS1202で出力された情動情報に一致する行動情報が存在しない場合(S1203:NO)、情報処理装置30は、ステップS1202に復帰し、以降の処理を繰り返し実行してよい。
 一方、ステップS1202で出力された情動情報に一致する行動情報が取得された場合(S1203:YES)、制御部350は、取得された行動情報に基づいて、動作装置10の動作部360の動作制御を行う(S1204)。すなわち、制御部350は、動作部360の動作に係る制御情報を送信してよい。
 以上、本実施形態に係る生体‐情動DB390を用いた動作制御の流れについて説明した。上記で説明したとおり、本実施形態に係る情報処理装置30は、ユーザの生体情報から推定される情動情報に基づいて、当該情動情報に関連付いた行動情報を取得することができる。また、情報処理装置30は、取得した行動情報に基づいて動作部360の動作を制御することができる。本実施形態に係る情報処理装置30が有する上記の機能によれば、推定されるユーザの情動に基づく種々の処理を動作部360に実行させることが可能となり、ユーザの処理負担を大幅に軽減し、より価値の高いサービスを提供することが可能となる。
 <<2.6.第1の実施形態に係る変形例>>
 以上、本実施形態に係る情報処理装置30が有する機能について詳細に説明した。上述したとおり、本実施形態に係る情報処理装置30は、ユーザの行動情報と生体情報とに基づいて、生体‐情動DB390を生成する機能を有する。また、本実施形態に係る情報処理装置30は、生成した生体‐情動DB390を用いて、ユーザの生体情報に対応する動作部360の動作を制御する機能を有する。一方、上記で述べた情報処理装置30の機能は、情報処理装置30の仕様や運用などに応じて適宜変形され得る。以降、本実施形態に係る変形例について説明する。
 (生体‐行動DBの生成)
 上記の説明では、情報処理装置30が、ユーザの生体情報と、行動情報に関連付いた情動情報と、を関連付けて生体‐情動DB390を生成する場合を例に説明した。一方、本実施形態に係る情報処理装置30は、情動情報を介さずに、生体情報と行動情報とを関連付けてもよい。すなわち、情報処理装置30は、取得された生体情報と行動情報とを関連付けた生体‐行動DBを生成することもできる。
 この場合、情報処理装置30は、行動情報に関連付いた情動情報が登録されていない場合でも、ユーザの生体情報に基づいた動作を動作部360に実行させることができる。また、情報処理装置30は、後に行動情報に関連付いた情動情報が登録された場合、生体‐行動DBに記憶される行動情報を登録された情動情報に変換することで、生体-情動DB390を生成することが可能である。
 (生成済の生体‐情動DBの活用)
 また、上記の説明では、情報処理装置30がユーザの行動情報と生体情報とに基づいて、生体‐情動DB390を生成する場合を例に説明した。一方、本実施形態に係る情報処理装置30は、生成済の生体-情動DB390を、異なる生体センサ部310により取得された生体情報の教師に用いることができる。この場合、情報処理装置30は、生成済の生体-情動DB390に基づいて推定される情動情報を教師に、生体-情動DB390を修正することが可能である。
 (生体‐情動DBを用いた個人認証)
 また、上記の説明では、情報処理装置30による生体‐情動DB390を用いた動作部360の動作制御を中心に説明したが、本実施形態に係る情報処理装置30は、生体‐情動DB390を用いた個人認証を行うことも可能である。この場合、情報処理装置30は、ユーザごとに生成された生体‐情動DB390に基づいて、ユーザからのフィードバックを判定し個人認証を行うことができる。情報処理装置30は、例えば、動作部360の動作に対するユーザからのフィードバックが生体‐情動DB390に記憶される情報と所定以上一致することに基づいて、上記の個人認証を行ってもよい。
 (周辺ユーザから推定される情動情報の活用)
 また、上記の説明では、ユーザが装着するウェアラブル端末20により取得した生体情報から情動情報を推定する場合を例に述べた。一方、本実施形態に係る情報処理装置30は、ユーザの周囲に存在する別のユーザから取得された生体情報から情動情報を推定し、当該情動情報を教師に生体‐情動DB390を生成してもよい。この際、上記の別のユーザが装着するウェアラブル端末20と情報処理装置30とは、ネットワーク40を介して接続されてよい。
 <3.第2の実施形態>
 次に、本開示に係る第2の実施形態について説明する。上述した第1の実施形態では、情報処理装置30が推定されるユーザの情動情報に基づいて、撮像装置である動作装置10の動作を制御する場合を例に説明した。一方、本実施形態に係る動作装置10は、例えば、眼鏡型のウェアラブル端末であってよい。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「興味」に係る情動情報に基づいて、動作装置10に係る表示制御を行うことができる。
 なお、以降に述べる本開示に係る第2~第11の実施形態においては、第1の実施形態との差異について中心に説明し、重複する情報処理装置30の機能については、説明を省略する。また、第2~第11の実施形態においては、情報処理装置30が、信号処理部320、行動認識部330、情動推定部340、制御部350、及びフィードバック認識部380を備える場合を例に説明する。また、動作装置10は、行動測定センサ部315、動作部360、及び入力受付部370を備える装置であってよい。また、ウェアラブル端末20は、生体センサ部310を備えてよい。
 図8は、本開示に係る第2の実施形態の概要を示す概念図である。図8を参照すると、本実施形態に係る動作装置10はユーザP1が装着する眼鏡型のウェアラブル端末であってよい。本実施形態に係る情報処理装置30は、ユーザP1と別ユーザP2の会話における音声情報からユーザP1の「興味」に係る情動情報を推定し、当該情動情報に基づいて動作装置10の動作を制御してよい。
 具体的には、本実施形態に係る情報処理装置30は、音声情報からユーザP1の「興味」に係る情動情報を推定した場合、直前の発言内容から抽出したキーワードの意味などを検索し、動作装置10に表示させることができる。この場合、情報処理装置30は、ユーザがキーワードを検索する際の生体情報に、「興味」を弱教師として付加することで、予め興味‐生体DBを生成してよい。
 図8に示す一例には、情報処理装置30により制御される動作装置10表示部S1が示されている。また、表示部S1上には、動作装置10が情報処理装置30による制御に基づいて表示するテキスト情報T1~T3が表示されている。このように、本実施形態に係る情報処理装置30は、音声認識により推定されるユーザの「興味」に基づいて、インターネット上などから取得したテキスト情報や画像情報を動作装置10に表示させることができる。なお、図8では、シースルーグラスなどにより実現される表示部S1を介したユーザP1の視認範囲を例示している。
 また、本実施形態に係る情報処理装置30は、ユーザの視線をフィードバックとして、興味‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、表示部S1上に表示されるテキストT1~T3にユーザが視線を向けないことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <4.第3の実施形態>
 次に、本開示に係る第3の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「眠気」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「眠気」に係る情動情報は、ユーザのあくびに関連付いたものであってよい。ウェアラブル端末20は、筋電センサによりユーザのあくびを検知し、情報処理装置30に当該検知情報を送信することができる。
 図9は、本開示に係る第3の実施形態の概要を示す概念図である。図9を参照すると、本実施形態に係る動作装置10はネットワーク40に接続する機能を有する照明装置であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「眠気」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る照明制御を行うことができる。
 この場合、情報処理装置30は、ユーザがあくびを行った際の前後所定時間に含まれる脈波、心電、発汗などの生体情報に、「眠気」を弱教師として付加することで、予め眠気‐生体DBを生成してよい。本実施形態に係る情報処理装置30は、取得された生体情報と上記の眠気‐生体DBにより推定されるユーザの「眠気」に基づいて、動作装置10の照明を弱める制御や、発光色を暖色に変更する制御を行うことができる。
 また、本実施形態に係る情報処理装置30は、ユーザの照明操作をフィードバックとして、眠気‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザが動作装置10の照明を強めたことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <5.第4の実施形態>
 次に、本開示に係る第4の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「退屈」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「退屈」に係る情動情報は、ユーザの視線に関連付いたものであってよい。ウェアラブル端末20は、ユーザの視線が所定時間以上、変化しないことを検知し、情報処理装置30に当該検知情報を送信することができる。この際、ウェアラブル端末20は、視線計測センサなどにより取得される撮像情報に基づいてユーザの視線を判定してよい。
 図10は、本開示に係る第4の実施形態の概要を示す概念図である。図10を参照すると、本実施形態に係る動作装置10はスマートフォンなどの情報処理端末であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「退屈」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係るアプリケーションの制御を行うことができる。具体的には、本実施形態に係る情報処理装置30は、チャットアプリケーションにおけるユーザの状態を「退屈中」などに変更してもよい。また、情報処理装置30は、チャットアプリケーションにおける表示の制御をおこなってもよい。
 図10を参照すると、動作装置10の表示部S1には、チャットアプリケーションに係る画面が表示されている。また、当該画面上にはメンバーM1~M4を示すアイコンが表示されている。図10に示す一例においては、情報処理装置30は、メンバーM1に該当するユーザの生体情報から推定された「退屈」に係る情動情報に基づいて、メンバーM1の状態を「退屈中」に変更している。また、情報処理装置30は、メンバーM1に対応付けて他のメンバーM2~M4に対するウィンドウW1を表示させている。この際、情報処理装置30は、ウィンドウW1にリストL1を含ませて表示させてもよい。情報処理装置30は、取得されたユーザの生体情報に基づいてウィンドウW1やリストL1に表示させる内容を制御してよい。
 この場合、情報処理装置30は、ウェアラブル端末20がユーザの視線が所定時間変化しないことを検知したことに基づいて、当該検知の前後所定時間に含まれる脈波、心電、発汗などの生体情報に「退屈」を弱教師として付加し、予め退屈‐生体DBを生成してよい。
 また、本実施形態に係る情報処理装置30は、ユーザによるチャットアプリケーションの状態操作をフィードバックとして、退屈‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザがチャットアプリケーションの状態を「多忙中」などに変更したことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <6.第5の実施形態>
 次に、本開示に係る第5の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「驚き」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「驚き」に係る情動情報は、ユーザの瞬間的な動作に関連付いたものであってよい。すなわち、本実施形態では、ユーザが驚いた際に観察される体の動きを行動情報として認識してよい。この際、ウェアラブル端末20は、加速度センサによりユーザの瞬間的な動作を検知し、情報処理装置30に当該検知情報を送信することができる。
 図11は、本開示に係る第5の実施形態の概要を示す概念図である。図11を参照すると、本実施形態に係る動作装置10はスマートフォンなどの情報処理端末であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「驚き」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る表示制御を行うことができる。具体的には、本実施形態に係る情報処理装置30は、天球カメラなどにより取得された動画像から、ユーザの「驚き」が推定された時刻に係るフレーム画像を切り出し、当該フレーム画像を動作装置10に表示させることができる。
 図11を参照すると、動作装置10の表示部S1には、コンテンツC1に係る画面、及びウィンドウW2が表示されている。また、ウィンドウW2には、画像P1、ボタンB1及びボタンB2が含まれている。ここで、ウィンドウW2に表示される画像P1は、天球カメラなどにより取得された動画像に基づいて取得されたフレーム画像であってよい。また、ボタンB1及びB2は、それぞれ画像の保存または破棄に係る操作を行うためのボタンであってよい。
 本実施形態に係る情報処理装置30は、ウェアラブル端末20がユーザの瞬間的な体の動きを検知したことに基づいて、当該検知の前後所定時間に含まれる脈波、心電、発汗などの生体情報に「驚き」を弱教師として付加し、予め驚き‐生体DBを生成してよい。
 また、本実施形態に係る情報処理装置30は、ユーザによるボタンB1またはB2の操作をフィードバックとして、驚き‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザが画像P1の破棄に係るボタンB2を押下したことに基づいて、上記の相関強度を弱める制御を行うことができる。さらには、情報処理装置30は、例えば、ユーザが連続して画像P1を破棄したことに基づいて、行動‐情動DB395に係る関連を弱める制御を行うことも可能である。
 <7.第6の実施形態>
 次に、本開示に係る第6の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「悲しみ」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「悲しみ」に係る情動情報は、ユーザの涙に関連付いたものであってよい。本実施形態に係る動作装置10は、涙腺センサなどによりユーザの涙を検知し、情報処理装置30に当該検知情報を送信することができる。このため、本実施形態に係る動作装置10は、生体センサ部310をさらに備えてよい。
 図12は、本開示に係る第6の実施形態の概要を示す概念図である。図12を参照すると、本実施形態に係る動作装置10はコンタクト型のウェアラブル端末であってよい。本実施形態に係る情報処理装置30は、動作装置10が検知したユーザの涙に基づいてユーザの「悲しみ」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に格言などを表示させることができる。図12に示す一例では、情報処理装置30は、動作装置10の表示部S1に格言に係るテキスト情報T4を表示させている。なお、この際、情報処理装置30は、涙腺センサによる涙検知に加え、マイクロフォンによる音声認識や加速度センサによる動作認識にさらに基づいて、ユーザの「悲しみ」を推定することもできる。この場合、情報処理装置30が、「悲しみ」に起因しないユーザの涙を区別することが可能となり、より精度の高い情動推定が実現される。
 この場合、情報処理装置30は、ユーザが涙を流した前後所定時間に含まれる脈波、心電、発汗などの生体情報に、「悲しみ」を弱教師として付加することで、予め悲しみ‐生体DBを生成してよい。本実施形態に係る情報処理装置30は、取得された生体情報と上記の悲しみ‐生体DBとから推定されるユーザの「悲しみ」に基づいて、インターネット上などから励ましに関連する格言などを検索し、当該格言に係る情報を動作装置10に表示させることができる。
 また、本実施形態に係る情報処理装置30は、ユーザの視線をフィードバックとして、悲しみ‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、表示部S1に表示されるテキストT4にユーザが視線を向けないことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <8.第7の実施形態>
 次に、本開示に係る第7の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「喜び」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「喜び」に係る情動情報は、ユーザの笑顔に関連付いたものであってよい。ウェアラブル端末20は、筋電センサによりユーザの笑顔を検知し、情報処理装置30に当該検知情報を送信することができる。
 図13は、本開示に係る第7の実施形態の概要を示す概念図である。図13を参照すると、本実施形態に係る動作装置10はスマートフォンなどの情報処理端末であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「喜び」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る機能制御を行うことができる。
 具体的には、本実施形態に係る情報処理装置30は、ユーザの「喜び」に係る情動情報が推定されたことに基づいて、動作装置10に、ユーザの周囲環境に存在する物体を認識させ、当該物体を「ラッキーアイテム」として記憶させることができる。この際、動作装置10は、広く用いられる物体認識や人認識などの手法を用いて上記の物体認識を行ってもよい。
 本実施形態に係る情報処理装置30は、ユーザの笑顔を検知した前後所定時間に含まれる脈波、心電、発汗などの生体情報に、「喜び」を弱教師として付加することで、予め喜び‐生体DBを生成してよい。
 また、本実施形態に係る情報処理装置30は、上記の「ラッキーアイテム」に係る動作装置10の表示を制御してもよい。図13を参照すると、動作装置10の表示部S1にはOSのホーム画面が表示されている。また、この際、上記のホーム画面には、「ラッキーアイテム」に係るアイコンI1~I4が表示されている。ここで、アイコンI1は、ホーム画面に配置される「ラッキーアイテム」に係るアプリケーションボタンなどであってよい。また、アイコンI2~I4は、アイコンI1を押下した際に展開される「ラッキーアイテム」に係る画像情報であってよい。なお、アイコンI2~I4に係る画像情報は、上記の物体認識に基づいて設定される画像情報であってよい。このように、本実施形態に係る情報処理装置30は、「ラッキーアイテム」に係る動作装置10の表示を制御することが可能である。
 また、本実施形態に係る情報処理装置30は、ユーザの画面操作をフィードバックとして、喜び‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザが「ラッキーアイテム」を削除したことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <9.第8の実施形態>
 次に、本開示に係る第8の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「幸福感」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「幸福感」に係る情動情報は、ユーザによるSNS(Social Networking Service)への投稿に関連付いたものであってよい。動作装置10は、ユーザによるSNS投稿を検知し、情報処理装置30に当該検知情報を送信することができる。
 本実施形態に係る情報処理装置30は、ユーザによるSNS投稿が検知された前後所定時間に含まれる脈波、心電、発汗などの生体情報に、「幸福感」を弱教師として付加することで、予め幸福感‐生体DBを生成してよい。
 図14は、本開示に係る第8の実施形態の概要を示す概念図である。図14を参照すると、本実施形態に係る動作装置10はスマートフォンなどの情報処理端末であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「幸福感」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る機能制御を行うことができる。
 具体的には、本実施形態に係る情報処理装置30は、ユーザの「幸福感」に係る情動情報が推定された場合、動作装置10にユーザの周囲環境に存在する物体や人物を認識させ、認識結果に基づいた日記を作成させることができる。この際、上記の日記は、物体認識または人認識の結果に基づいて自動生成されるテキスト情報や画像情報を含んでよい。
 図14は、動作装置10の表示部S1に表示される日記の一例を示している。図14を参照すると、日記に係るコンテンツC2には、上記で説明したテキスト情報や、物体認識や人認識の結果に基づくアイコンI6及びI7が表示されている。また、日記に係るコンテンツC2には、日記を編集するためのボタンB3が配置されている。
 この際、本実施形態に係る情報処理装置30は、ユーザによる画面操作をフィードバックとして、幸福感‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザがボタンB3を押下し日記を編集したことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <10.第9の実施形態>
 次に、本開示に係る第9の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「不幸感」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「不幸感」に係る情動情報は、ユーザの視線に関連付いたものであってよい。ウェアラブル端末20は、ユーザの視線が所定時間以上、下を向いていることを検知し、情報処理装置30に当該検知情報を送信することができる。この際、ウェアラブル端末20は、視線計測センサなどにより取得される撮像情報に基づいてユーザの視線を判定してよい。
 また、本実施形態に係る情報処理装置30は、ウェアラブル端末20がユーザの視線が所定時間、下を向いていることを検知したことに基づいて、当該検知の前後所定時間に含まれる脈波、心電、発汗などの生体情報に「不幸感」を弱教師として付加し、予め不幸感‐生体DBを生成してよい。
 図15Aは、本開示に係る第9の実施形態の概要を示す概念図である。図15Aを参照すると、本実施形態に係る動作装置10はスマートフォンなどの情報処理端末であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「不幸感」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る表示制御を行うことができる。具体的には、本実施形態に係る情報処理装置30は、店頭で利用可能な電子クーポンを取得し、当該電子クーポンを動作装置10に表示させることができる。
 図15Aを参照すると、動作装置10の表示部S1には、ユーザが閲覧するコンテンツC3上に上記で説明した電子クーポンの表示に係るウィンドウW3が表示されている。また、ウィンドウW3には、電子クーポンの保存または破棄に係るボタンB4及びB5が表示されている。
 また、図15Bは、本実施形態に係る動作装置10の別の制御例を示す一例である。図15Bに示す一例では、動作装置10は卓上プロジェクタなどの装置であってよい。このように、本実施形態に係る情報処理装置30は、ユーザの周囲にある動作装置10を、ネットワーク40などを介して認識し、認識した動作装置10の表示制御を行ってもよい。
 また、本実施形態に係る情報処理装置30は、ユーザによるボタン操作をフィードバックとして、不幸感‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザが電子クーポンの破棄に係るボタンB5を押下したことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <11.第10の実施形態>
 次に、本開示に係る第10の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「集中」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「集中」に係る情動情報は、ユーザの姿勢に関連付いたものであってよい。ウェアラブル端末20は、ジャイロセンサにより着席時におけるユーザの姿勢を検知し、情報処理装置30に当該検知情報を送信することができる。
 また、本実施形態に係る情報処理装置30は、ウェアラブル端末20がユーザの姿勢が良いことを検知したことに基づいて、当該検知の前後所定時間に含まれる脈波、心電、発汗などの生体情報に「集中」を弱教師として付加し、予め集中‐生体DBを生成してよい。
 図16は、本開示に係る第10の実施形態の概要を示す概念図である。図16を参照すると、本実施形態に係る動作装置10は机上ディスプレイなどの装置であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「集中」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る表示制御を行うことができる。具体的には、本実施形態に係る情報処理装置30は、動作装置10に集中の度合いを示すインジケータやToDoリストなどを表示させてもよい。
 図16を参照すると、動作装置10に表示部S1には、集中の度合いを示すインジケータG1と、ToDoリストB6及びB7とが表示されている。この際、ユーザは、ToDoリストB6またはB7を選択することで、それぞれに応じたアプリケーション画面に遷移できてもよい。
 また、本実施形態に係る情報処理装置30は、ユーザによる画面操作をフィードバックとして、集中‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザが所定時間以上、ToDoリストB6またはB7を選択しないことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <12.第11の実施形態>
 次に、本開示に係る第11の実施形態について説明する。本実施形態に係る情報処理装置30は、生体情報から推定されるユーザの「興奮」に係る情動情報に基づいて、動作装置10に係る動作制御を行うことができる。ここで、上記の「興奮」に係る情動情報は、ユーザの手の動きに関連付いたものであってもよい。ウェアラブル端末20は、例えば、ユーザがサッカーの試合を観戦している場合において、ゴールが決められた際に、ユーザの手が挙げられたことを加速度センサにより検知し、情報処理装置30に当該検知情報を送信することができる。また、ウェアラブル端末20は、例えばGPSから取得される情報や時刻情報に基づいて、ユーザがサッカーを観戦していることを推測してもよい。
 また、本実施形態に係る情報処理装置30は、ウェアラブル端末20がユーザの手が挙げられたことを検知したことに基づいて、当該検知の前後所定時間に含まれる脈波、心電、発汗などの生体情報に「興奮」を弱教師として付加し、予め興奮‐生体DBを生成してよい。
 図17は、本開示に係る第11の実施形態の概要を示す概念図である。図17を参照すると、本実施形態に係る動作装置10はビデオカメラやスマートフォンなどの録画機能を有する装置であってよい。本実施形態に係る情報処理装置30は、ウェアラブル端末20から取得したユーザの生体情報からユーザの「興奮」に係る情動情報を推定し、当該情動情報に基づいて、動作装置10に係る機能制御を行うことができる。具体的には、本実施形態に係る情報処理装置30は、動作装置10にスローモーション撮影を実行させ、撮影されたスロー映像を動作装置10の表示部S1に表示させることができる。
 図17を参照すると、動作装置10の表示部S1には、通常の録画時映像に加え、ウィンドウW4に上記のスロー映像が表示されていることがわかる。
 また、本実施形態に係る情報処理装置30は、ユーザによる画面操作をフィードバックとして、興奮‐生体DBに係る相関強度を修正してよい。情報処理装置30は、例えば、ユーザがスロー映像にウィンドウW4を非表示に切り替えたことに基づいて、上記の相関強度を弱める制御を行うことができる。
 <13.ハードウェア構成例>
 次に、本開示に係る動作装置10、ウェアラブル端末20、及び情報処理装置30に共通するハードウェア構成例について説明する。図18は、本開示に係る動作装置10、ウェアラブル端末20、及び情報処理装置30のハードウェア構成例を示すブロック図である。図18を参照すると、動作装置10、ウェアラブル端末20、及び情報処理装置30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (CPU871)
 CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インタフェース877)
 CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
 (出力装置879)
 出力装置879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <14.まとめ>
 以上、説明したように、本実施形態に係る情報処理装置30は、ユーザの行動情報と生体情報とに基づいて、生体‐情動DB390を生成する機能を有する。また、本実施形態に係る情報処理装置30は、生成した生体‐情動DB390を用いて、ユーザの生体情報に対応する動作部360の動作を制御する機能を有する。係る構成によれば、ユーザの情動に係るデータをより効率的に収集し、より高精度な情動推定を実現することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、
 を備える、
情報処理装置。
(2)
 前記動作部の動作に対する前記ユーザからのフィードバックを認識する認識部、
 をさらに備え、
 前記認識部は、前記フィードバックに基づいて、該当する生体情報と情動情報との間の相関強度に係る修正を制御する、
前記(1)に記載の情報処理装置。
(3)
 前記認識部は、前記フィードバックに基づいて、該当する行動情報と情動情報との間の関連付けに係る修正を制御する、
前記(2)に記載の情報処理装置。
(4)
 前記フィードバックは、前記動作部の動作に対する前記ユーザの評価を含む、
前記(2)または(3)に記載の情報処理装置。
(5)
 前記認識部は、前記動作部の動作に対する前記ユーザの評価が否定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を弱める制御を行う、
前記(4)に記載の情報処理装置。
(6)
 前記認識部は、前記動作部の動作に対する前記ユーザの評価が肯定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を強める制御を行う、
前記(4)または(5)に記載の情報処理装置。
(7)
 前記認識部は、前記動作部の動作に対する前記ユーザの評価が否定的であることに基づいて、該当する情動情報と行動情報との間の関連付けを削除する制御を行う、
前記(4)~(6)のいずれかに記載の情報処理装置。
(8)
 前記行動情報は、前記動作部に実行させる動作を示す情報を含み、
 前記制御部は、前記行動情報に基づいて前記動作部に実行させる動作を制御する、
前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
 前記情動情報は、情動の種類及び度合いを含み、ユーザが所持する装置により測定された前記生体情報に基づいて取得される、
前記(1)~(8)のいずれかに記載の情報処理装置。
(10)
 前記行動情報は、ユーザにより実施された過去のデバイス操作に係る情報を含み、
 前記制御部は、前記情動の種類及び度合いに関連付いた行動情報に基づいて、前記デバイス操作と同様の動作を前記動作部に実行させる、
前記(9)に記載の情報処理装置。
(11)
 前記行動情報は、ユーザに推奨するデバイス動作に係る情報を含み、
 前記制御部は、前記情動の種類及び度合いに関連付いた行動情報に基づいて、前記ユーザに推奨するデバイス動作を前記動作部に実行させる、
前記(9)または(10)に記載の情報処理装置。
(12)
 前記制御部は、ユーザの行動情報が取得されたことに基づいて、当該行動情報に関連付いた情動情報を取得し、当該情動情報と取得された生体情報とを関連付けて記憶部に記憶させる、
前記(1)に記載の情報処理装置。
(13)
 前記ユーザによるデバイス操作は、加速度センサ、ジャイロセンサ、気温センサ、湿度センサ、筋電センサ、音声センサ、圧力センサ、撮像センサ、マイクロフォン、ボタン、スイッチのいずれか、または組み合わせにより認識される、
前記(11)に記載の情報処理装置。
(14)
 プロセッサが、ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力すること、
 を含む、
情報処理方法。
(15)
 コンピュータを、
 ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、
 を備える、
情報処理装置、
として機能させるためのプログラム。
 10   動作装置
 20   ウェアラブル端末
 30   情報処理装置
 310  生体センサ部
 315  行動測定センサ部
 320  信号処理部
 330  行動認識部
 340  情動推定部
 350  制御部
 360  動作部
 370  入力受付部
 380  フィードバック認識部
 390  生体‐情動DB
 395  行動‐情動DB

Claims (15)

  1.  ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、
     を備える、
    情報処理装置。
  2.  前記動作部の動作に対する前記ユーザからのフィードバックを認識する認識部、
     をさらに備え、
     前記認識部は、前記フィードバックに基づいて、該当する生体情報と情動情報との間の相関強度に係る修正を制御する、
    請求項1に記載の情報処理装置。
  3.  前記認識部は、前記フィードバックに基づいて、該当する行動情報と情動情報との間の関連付けに係る修正を制御する、
    請求項2に記載の情報処理装置。
  4.  前記フィードバックは、前記動作部の動作に対する前記ユーザの評価を含む、
    請求項2に記載の情報処理装置。
  5.  前記認識部は、前記動作部の動作に対する前記ユーザの評価が否定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を弱める制御を行う、
    請求項4に記載の情報処理装置。
  6.  前記認識部は、前記動作部の動作に対する前記ユーザの評価が肯定的であることに基づいて、該当する生体情報と情動情報との間の相関強度を強める制御を行う、
    請求項4に記載の情報処理装置。
  7.  前記認識部は、前記動作部の動作に対する前記ユーザの評価が否定的であることに基づいて、該当する情動情報と行動情報との間の関連付けを削除する制御を行う、
    請求項4に記載の情報処理装置。
  8.  前記行動情報は、前記動作部に実行させる動作を示す情報を含み、
     前記制御部は、前記行動情報に基づいて前記動作部に実行させる動作を制御する、
    請求項1に記載の情報処理装置。
  9.  前記情動情報は、情動の種類及び度合いを含み、ユーザが所持する装置により測定された前記生体情報に基づいて取得される、
    請求項1に記載の情報処理装置。
  10.  前記行動情報は、ユーザにより実施された過去のデバイス操作に係る情報を含み、
     前記制御部は、前記情動の種類及び度合いに関連付いた行動情報に基づいて、前記デバイス操作と同様の動作を前記動作部に実行させる、
    請求項9に記載の情報処理装置。
  11.  前記行動情報は、ユーザに推奨するデバイス動作に係る情報を含み、
     前記制御部は、前記情動の種類及び度合いに関連付いた行動情報に基づいて、前記ユーザに推奨するデバイス動作を前記動作部に実行させる、
    請求項9に記載の情報処理装置。
  12.  前記制御部は、ユーザの行動情報が取得されたことに基づいて、当該行動情報に関連付いた情動情報を取得し、当該情動情報と取得された生体情報とを関連付けて記憶部に記憶させる、
    請求項1に記載の情報処理装置。
  13.  前記ユーザによるデバイス操作は、加速度センサ、ジャイロセンサ、気温センサ、湿度センサ、筋電センサ、音声センサ、圧力センサ、撮像センサ、マイクロフォン、ボタン、スイッチのいずれか、または組み合わせにより認識される、
    請求項11に記載の情報処理装置。
  14.  プロセッサが、ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力すること、
     を含む、
    情報処理方法。
  15.  コンピュータを、
     ユーザの生体情報から得られた情動情報を取得し、前記情動情報に関連付いた行動情報に基づいて、前記ユーザの生体情報に対応する動作部の動作に係る制御情報を出力する制御部、
     を備える、
     情報処理装置、
    として機能させるためのプログラム。
PCT/JP2017/002200 2016-04-05 2017-01-24 情報処理装置、情報処理方法、及びプログラム WO2017175447A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/089,158 US20200301398A1 (en) 2016-04-05 2017-01-24 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-076028 2016-04-05
JP2016076028A JP2017187915A (ja) 2016-04-05 2016-04-05 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2017175447A1 true WO2017175447A1 (ja) 2017-10-12

Family

ID=60000990

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/002200 WO2017175447A1 (ja) 2016-04-05 2017-01-24 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20200301398A1 (ja)
JP (1) JP2017187915A (ja)
WO (1) WO2017175447A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6937723B2 (ja) * 2018-05-30 2021-09-22 Kddi株式会社 行動パターンからの乖離度に基づいて感情を推定可能なプログラム、装置及び方法
JP7117215B2 (ja) * 2018-10-26 2022-08-12 ヤフー株式会社 判定装置、判定方法、および判定プログラム
US20240095310A1 (en) * 2020-12-07 2024-03-21 Sony Group Corporation Information processing device, data generation method, grouping model generation method, grouping model learning method, emotion estimation model generation method, and grouping user information generation method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200370A (ja) * 2001-11-05 2003-07-15 Samsung Electronics Co Ltd オブジェクトの成長制御システム及びオブジェクトの成長制御方法
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2005261669A (ja) * 2004-03-18 2005-09-29 Toyota Motor Corp 生体状態推定装置
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2009521246A (ja) * 2005-09-12 2009-06-04 エモーティブ システムズ ピーティーワイ リミテッド 精神状態の検出およびそれを用いる対話
JP2009238251A (ja) * 2009-07-16 2009-10-15 Olympus Corp ユーザ支援装置
JP2009294647A (ja) * 2008-05-09 2009-12-17 Agi:Kk 行動分析装置及びコールセンターシステム
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置
JP2015505694A (ja) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー 行動トラッキングおよび修正システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200370A (ja) * 2001-11-05 2003-07-15 Samsung Electronics Co Ltd オブジェクトの成長制御システム及びオブジェクトの成長制御方法
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2005261669A (ja) * 2004-03-18 2005-09-29 Toyota Motor Corp 生体状態推定装置
JP2009521246A (ja) * 2005-09-12 2009-06-04 エモーティブ システムズ ピーティーワイ リミテッド 精神状態の検出およびそれを用いる対話
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2009294647A (ja) * 2008-05-09 2009-12-17 Agi:Kk 行動分析装置及びコールセンターシステム
JP2009238251A (ja) * 2009-07-16 2009-10-15 Olympus Corp ユーザ支援装置
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置
JP2015505694A (ja) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー 行動トラッキングおよび修正システム

Also Published As

Publication number Publication date
US20200301398A1 (en) 2020-09-24
JP2017187915A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
US11763580B2 (en) Information processing apparatus, information processing method, and program
CN109074117B (zh) 提供基于情绪的认知助理系统、方法及计算器可读取媒体
JP3968522B2 (ja) 記録装置、及び記録方法
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2017064891A1 (ja) 情報処理システム、情報処理方法、および記憶媒体
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2020507851A (ja) ロック画面の壁紙の推薦方法および関連製品
JP6254577B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
JPWO2015162949A1 (ja) 通信システム、制御方法、および記憶媒体
JP2014134922A (ja) 情報処理装置、情報処理方法およびプログラム
JP6164076B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2017138212A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109660728B (zh) 一种拍照方法及装置
WO2017175447A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20160231890A1 (en) Information processing apparatus and phase output method for determining phrases based on an image
CN110225196B (zh) 终端控制方法及终端设备
CN109669710B (zh) 便签处理方法及终端
US11328187B2 (en) Information processing apparatus and information processing method
US20200234187A1 (en) Information processing apparatus, information processing method, and program
JP6608314B2 (ja) 画像評価装置、画像評価方法および画像評価プログラム
US11430429B2 (en) Information processing apparatus and information processing method
JP5965057B2 (ja) 属性推定装置
JP2023005834A (ja) 感情推定装置、感情推定方法及びコンピュータプログラム
CN110955841A (zh) 社交关系建立方法和电子设备

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17778826

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17778826

Country of ref document: EP

Kind code of ref document: A1