WO2016199464A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2016199464A1
WO2016199464A1 PCT/JP2016/056481 JP2016056481W WO2016199464A1 WO 2016199464 A1 WO2016199464 A1 WO 2016199464A1 JP 2016056481 W JP2016056481 W JP 2016056481W WO 2016199464 A1 WO2016199464 A1 WO 2016199464A1
Authority
WO
WIPO (PCT)
Prior art keywords
topic
user
behavior
information
information processing
Prior art date
Application number
PCT/JP2016/056481
Other languages
English (en)
French (fr)
Inventor
小形 崇
正範 勝
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16807171.0A priority Critical patent/EP3309738A4/en
Priority to JP2017523130A priority patent/JP6729571B2/ja
Priority to US15/566,876 priority patent/US10665229B2/en
Publication of WO2016199464A1 publication Critical patent/WO2016199464A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 As a technique for providing a user with a fun and natural conversation, for example, in Patent Document 1, information on a topic provided from a database is filtered by data related to the user's taste, and the remaining information is used for a conversation with the user.
  • a conversation processing device is disclosed.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of appropriately presenting a topic in consideration of the behavior of a user presenting the topic.
  • a topic generation unit that generates a topic with a conversation partner and a topic candidate to be proposed to the user from the generated topic are determined.
  • An information processing apparatus including a topic proposal unit is provided.
  • the processor generates a topic with a conversation partner based on a comparison result between a user's action and comparison information related to the action, and a topic candidate to be proposed to the user from the generated topic.
  • An information processing method is provided.
  • a computer is proposed to a user from a topic generated by a topic generation unit that generates a topic with a conversation partner based on a comparison result between a user's action and comparison information regarding the action.
  • a program that functions as an information processing apparatus, comprising a topic proposal unit that determines topic candidates.
  • FIG. 1 is an explanatory diagram showing an overview of a topic providing system 1 according to the present embodiment.
  • the topic providing system 1 is a system that provides a topic to a user who has a conversation via the server 10, as shown in FIG.
  • the server 10 can acquire information regarding each user's behavior, and generates and provides an appropriate topic based on the information regarding each user's behavior. Therefore, for example, when the user A and the user B shown in FIG. 1 meet for the first time or have an exchange relationship that does not know each other well, such as participating in the same event on that day, the server 10 is a user. An appropriate topic can be provided to each user based on the actions of A and B.
  • the server 10 can acquire information related to user behavior from other servers, various terminals owned by each user, and the like.
  • information related to user behavior include sensor information acquired using various sensing techniques such as time information and position information, and user action behavior information recognized by analyzing sensor information.
  • the server 10 functioning as an information processing apparatus for providing a topic in the topic providing system 1 according to the present embodiment, based on a comparison result between a user's action and comparison information related to the action, a topic with a conversation partner is determined. Generate. And the server 10 extracts an appropriate topic from the produced
  • the configuration and function of the topic providing system 1 according to the present embodiment will be described in detail.
  • FIG. 2 is a functional block diagram showing a functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 is provided in the server 10. As illustrated in FIG. 2, the information processing apparatus 100 includes a topic generation unit 110, a topic proposal unit 120, and a topic presentation processing unit 130.
  • the topic generation unit 110 generates a topic with the conversation partner based on information regarding the behavior of the user having a conversation.
  • the topic generation unit 110 acquires information about the behavior of the user who is having a conversation, extracts information that becomes a topic from a change in behavior that is not noticed by itself, a deviation from others, and the like, and sets it as a topic candidate.
  • the topic generation unit 110 includes, for example, a self-behavior analysis unit 112, a common behavior analysis unit 114, and a profile analysis unit 116, as shown in FIG.
  • the self-behavior analysis unit 112 analyzes the behavior of a user who intends to present a topic, extracts a characteristic behavior tendency of the user, a change in behavior, and the like, and sets it as a topic. For example, the self-behavior analysis unit 112 extracts a profile representing hobbies, trends, preferences, and the like from past behavior logs of only the user, or extracts a difference between the past behavior log of only the user and the latest behavior log. Or
  • the common behavior analysis unit 114 analyzes the common behavior that each user having a conversation has performed together, extracts common points and deviations of the behavior of each user, and makes them a topic.
  • the common behavior analysis unit 114 compares, for example, the overlap of profiles of each user, or extracts the behavior of a user who tries to present a topic with respect to the behavior frequently performed by the conversation partner.
  • the profile analysis unit 116 generates a profile for each user, and generates a topic by matching the generated profiles. For example, the profile analysis unit 116 analyzes the stay position of the user and the transition between the stay positions from the time-series position information acquired as sensor information, and generates a profile that represents the user's hobbies, trends, preferences, and the like. At this time, the user's action recognition result recognized separately by the action recognition technique may be considered. The profile analysis unit 116 uses the generated profile to match profiles of each user who has a conversation and generates a common topic.
  • the topic generation unit 110 may generate a topic by causing at least one of the self-behavior analysis unit 112, the common behavior analysis unit 114, and the profile analysis unit 116 to function.
  • the topic generation unit 110 outputs the generated topic to the topic proposal unit 120.
  • the topic suggestion unit 120 extracts a topic suitable for a place where a conversation is performed from the generated topic, and performs a process for proposing the topic candidate to the user.
  • the topic proposal unit 120 includes, for example, a climax calculation unit 122, a topic extraction unit 124, and an expectation calculation unit 126.
  • the excitement degree calculation unit 122 calculates the excitement degree of the communication place formed by the user and the conversation partner.
  • the degree of excitement calculation unit 122 may calculate the degree of excitement based on, for example, an evaluation function related to the reaction of the speaking partner with respect to the user's utterance.
  • the degree of excitement calculation unit 122 outputs the calculated degree of excitement to the topic extraction unit 124.
  • the topic extraction unit 124 extracts topics according to the degree of excitement from the topics generated by the topic generation unit 110. For example, the topic extraction unit 124 increases related information related to the currently introduced topic to the topic candidate when the place of communication is excited by the introduced topic. On the other hand, when the place of communication does not rise due to the topic that was introduced, new topics that are different from the topic that was introduced this time are added to the topic candidates. Further, the topic extraction unit 124 weights each topic generated by the topic generation unit 110 based on state information determined according to a situation in which the user and the conversation partner have a conversation, and a more appropriate topic is a topic candidate. May be extracted.
  • the topic extracted by the topic extraction unit 124 is output to the topic presentation processing unit 130 as a topic candidate proposed to the user.
  • the extracted topic is output to the expectation degree calculation unit 126 as necessary.
  • the expectation degree calculation unit 126 calculates an expectation degree that a place for communication is excited by the introduction of a topic for each topic extracted as a topic candidate.
  • the degree of expectation is a prediction effect value that expresses the excitement of the field predicted by introducing a topic in a random variable.
  • the expectation degree calculation unit 126 calculates an expectation degree for each topic and outputs it to the topic presentation processing unit 130.
  • the topic presentation processing unit 130 performs processing for presenting the topic candidates extracted by the topic suggestion unit 120 to the user.
  • the topic presentation processing unit 130 may change the way the topic is presented in a situation where the user and the conversation partner are talking. For example, when a topic is provided so as not to be noticed by the surroundings, the topic may be casually presented only to the user who intends to provide the topic. Alternatively, when presenting a topic is also an entertainment element that excites the venue, the topic may be presented to each user participating in the conversation.
  • the topic presentation processing unit 130 performs predetermined processing so that the topic candidate can be presented on the device that presents the topic candidate to the user, and outputs it to each device.
  • FIG. 3 is a flowchart showing a topic providing method using the topic providing system 1 according to the present embodiment.
  • the topic providing system 1 first performs processing for generating a topic to be presented to the user by the topic generating unit 110 (S110).
  • a topic with a conversation partner is generated based on information on the behavior of a user having a conversation.
  • the topic generation unit 110 acquires information about the behavior of the user who is having a conversation, extracts information that becomes a topic from a change in behavior that is not noticed by itself, a deviation from others, and the like, and sets it as a topic candidate.
  • Examples of a method for generating a topic using information related to user behavior include the following methods. (1) Generating topics from information related to own behavior (2) Generating topics from behavior related to common behavior among users (3) Generating topics by matching each user's profile I will explain.
  • FIG. 4 is an explanatory diagram illustrating comparison of user behavior logs.
  • FIG. 5 is an explanatory diagram illustrating an example of extracting topical behavior from the difference between the past behavior tendency of the user and the latest behavior.
  • FIG. 6 is an explanatory diagram illustrating an example in which topical behavior is extracted from a change in user behavior tendency.
  • FIG. 7 is an explanatory diagram illustrating an example of extracting a behavior tendency different from the past and the latest behavior tendency in a certain section in the past behavior tendency of the user.
  • the topic generation by the self-behavior analysis is performed by the self-behavior analysis unit 112 using only information on the behavior of the user who wants to provide the topic. For example, as the information related to the user's action, an action log representing the user's operation action recognized by analyzing the sensor information in time series is used. For example, consider an action log indicating the user's action content on a certain day as shown in the upper side of FIG.
  • the analysis of the user's self-behavior is performed by comparing data in some sections and data in other sections in such an action log.
  • the behavior of the user may be compared with the latest behavior, and the trend or change of the user's behavior may be determined by comparing the behavior in the past with the latest behavior. (Comparison 1).
  • the behavior in the same section on the previous day may be compared with the latest behavior to determine the tendency or change in the user's behavior (Comparison 2).
  • the self-behavior analysis unit 112 abstracts the result of comparing the behaviors in different sections of the behavior log in order to extract the trend or change of the behavior that is likely to become a topic.
  • Examples of behavior features obtained by abstracting behavior comparison results include the following. Frequency: e. g. I have been walking frequently since the last time. E. g. I have been walking for a long time since then: e. g. After walking for a while and then walking again Difference: e. g. This time is slower than the previous time. Total: e. g. The current time zone walks better than a certain time zone Protrusion: e. g. Compared to these days, the current time zone is doing a lot. Similar: e. g. The current time zone pattern is the same as last time. Change: e. g. Recently I started to run well. Period: e. g. Running every spring
  • the behavior until the user arrives at a certain staying position usually arrives at the staying position by walking with a train, but in the most recent action, the staying position by train and running Is detected as having arrived at.
  • a probability distribution is created for the frequency or number of times of normal actions in a predetermined time zone and at a predetermined position, for example, a normal distribution as shown in the lower side of FIG. 5 is obtained.
  • the behavior in a predetermined range in the center can be said to be a daily behavior that does not become a topic because the behavior is frequently performed.
  • the behavior outside the daily range can be said to be an unusual range of behavior different from usual.
  • the average value of each distribution is within the standard range of the distribution in the lifetime, and the value itself is out of the comparison information. is not.
  • the tendency of such behavior change tends to be a topic. For example, when a topic related to running rises, if there is a tendency of change in behavior that jogging time is getting longer, this may be used as a topic.
  • the comparison information may be information other than behavioral trends throughout the lifetime, or may use behavioral trends recognized from the user's behavior for a period sufficiently longer than the behavioral trend section to be compared with the comparative information. Good.
  • the past sections to be compared with the comparison information do not necessarily have the same length of time. For example, if the sections are classified according to life stages, they are easily provided as topics. For example, a section such as a period of childhood, elementary school, junior high school, high school, university, a period after becoming a member of society, or an event such as transfer or marriage may be set as a section.
  • the self-behavior analysis unit 112 Extract as content that is likely to become a topic.
  • FIG. 8 is an explanatory diagram illustrating an example in which topical behavior is extracted from a difference in behavior frequency common to users.
  • FIG. 9 is an explanatory diagram illustrating an example in which topical behavior is extracted from a shift in information regarding behavior common to users.
  • FIG. 10 is an explanatory diagram illustrating another example in which topical behavior is extracted from a shift in information regarding behavior common to users.
  • FIG. 11 is an explanatory diagram illustrating an example in which a topic is extracted from a deviation of the behavior tendency of behavior common to users from the public.
  • the topic generation by self-behavior analysis does not take into account the information about the behavior of the other party, so the topic develops if the other party has also talked about the behavior you talked about or is interested in it, If not, the topic will flow.
  • searching for common actions that the user and the conversation partner have performed it is possible to generate a topic that the partner is more interested in.
  • the topic generation based on such common behavior analysis is performed by the common behavior analysis unit 114.
  • the frequency of the user's action is related to the user's goodness and interest / interest strength for the action. From this, it is better to generate as a topic an action that is more frequently performed by the conversation partner than the user who provides the topic. That is, the common behavior analysis unit 114 generates a topic so as to give a topic in the field of expertise of the conversation partner. For example, if a user who provides a topic shakes as a topic a behavior that is more frequent than that of the person they talk to, it will seem to distract the knowledge of the person who talks, so a topic to raise the place for such behavior It is better to refrain from.
  • a difference in moving means up to a certain stay position can be used for topic generation.
  • the transportation means to Hokkaido is different, the unexpectedness of the transportation means may be discussed.
  • more than half of the people are moving to Hokkaido using airplanes due to the distribution of means of movement to Hokkaido in a certain group.
  • the talker is also moving to Hokkaido using an airplane.
  • the difference in the moving means may be used as the topic.
  • the common behavior common to the talking user and the conversation partner may be a particular field of interest or content with strong interest. Therefore, the topic presented to the user who provides the topic may be a deep topic that suddenly becomes the core, not a topic of exploration that looks at the state of the other party. In this way, when a common behavior among users is deviated from the world, a certain sense of solidarity between the user and the other party can be provided by presenting the user with a core topic related to the behavior. It is possible to generate conversation and excite conversation.
  • FIG. 12 is an explanatory diagram for explaining “stay position” and “transition between stay positions” obtained as a result of user's action recognition. From the time-series position information, “stay position” such as “stay 1” and “stay 2” shown in FIG. 12 and “transition between stay positions” such as “transition from stay 1 to stay 2” are shown. Can be distinguished. A profile representing the user's hobbies, trends, preferences, and the like can be generated using the information regarding the position. For example, it is possible to know in detail the purpose and hobby preference that the person has come to the position from the “stay position” and the action recognition result. Also, for example, the behavior tendency of the person can be known from the history of the moving means in “transition between staying positions”.
  • the profile analysis unit 116 generates a profile representing such a user's hobbies, trends, preferences, and the like, matches the profile of each user who has a conversation using the generated profile, and generates a common topic.
  • FIG. 13 is an explanatory diagram for explaining processing for generating a profile representing the purpose of the user at the stay position from the stay position and the action recognition result.
  • FIG. 14 is an explanatory diagram showing an example of the user behavior information table 142 acquired by the profile generation process of FIG. 15 to 17 are explanatory diagrams showing examples of user profiles generated from the stay position and the action recognition result.
  • FIG. 18 is an explanatory diagram illustrating an example of a profile generated from the application activation history and the action recognition result.
  • the profile can be generated based on the stay position and action recognition result, for example.
  • the latitude and longitude which are the user's position information
  • place name information and place category are converted into place name information and place category.
  • the place name is a name such as a place name or a facility name
  • the place category is information representing the genre of the place.
  • the profile analysis unit 116 performs a place name conversion process and a place category conversion process based on the latitude and longitude with reference to a place DB (not shown) that holds the correspondence between the latitude and longitude, the place name, and the place category.
  • the location DB may be provided in the server 10 provided with the information processing apparatus 100, or may be provided in an external server connected to the information processing apparatus 100 so as to be communicable.
  • the profile analysis unit 116 records the acquired place name and place category in the profile DB 140 as user behavior information.
  • the profile analysis unit 116 acquires the action recognition result obtained by performing the action recognition process using the sensor information as the user action.
  • behavior recognition processing in which user behavior such as walking and running is acquired is performed using technology for recognizing user behavior from sensor information acquired using various sensing technologies.
  • the action recognition process may be performed in the server 10 including the information processing apparatus 100 or may be performed in an external server connected to the information processing apparatus 100 so as to be communicable.
  • the profile analysis unit 116 records the acquired action recognition result in the profile DB 140 as the user action.
  • the profile analysis unit 116 When the place name, place category, and user behavior information are acquired, the profile analysis unit 116 generates a profile based on these pieces of information.
  • the profile analysis unit 116 acquires the user's purpose at the location as a profile depending on how the user is moving at the location. Further, the profile category to which the profile belongs is specified based on the relationship between the preset profile and the profile category.
  • FIG. 14 shows an example of the user behavior information table 142 recorded in the profile DB 140.
  • the user behavior information table 142 includes, for example, a latitude and longitude 142a, a place name 142b, a place category 142c, action information 142d, a profile 142e, and a profile category 142f.
  • Results analyzed by the profile analysis unit 116 based on the place name 142b, the place category 142c, and the behavior information 142d are recorded as a profile 142e and a profile category 142f.
  • the profile analysis unit 116 analyzes that “snow sports” were performed. “Snow Sports” belongs to the category of “Active Sports”.
  • the profile analysis unit 116 acquires the user's purpose at the position based on the stay position and the action recognition result.
  • Profile generation based on transition of staying position In addition, a profile can be generated based on, for example, the history of moving means in transition between staying positions.
  • the profile obtained by the profile generation process based on the transition of the staying position represents the behavior tendency of the person.
  • the location where the points staying at the same location for a while from the latitude and longitude, which is the location information, is gathered and collected. Then, it is possible to specify how the user has moved from one staying position to the next staying position from the history of the moving means at the time of staying position transition. At this time, a characteristic movement when the transition of the stay position is seen in time series, such as reciprocation between two stay positions or circulation of a plurality of stay positions, may be recognized as the characteristic action.
  • the transition of the staying position, the name of the staying position, and the moving unit may be performed in the server 10 including the information processing apparatus 100, or performed in an external server connected to the information processing apparatus 100 so as to be communicable. May be.
  • the profile analysis unit 116 acquires these pieces of information as processing results. Further, the profile analysis unit 116 may acquire time information such as season and time.
  • the profile analysis unit 116 analyzes the stay position transition and moving means, identifies the behavior tendency, and sets it as the user profile. Further, the profile category to which the profile belongs is specified based on the relationship between the preset profile and the profile category. The profile analysis unit 116 records these pieces of information in the profile DB 140.
  • the behavior tendency tables 144A to 144C include, for example, stay position transition (latitude and longitude) 144a, stay place transition (place name) 144b, moving means 144c, characteristic behavior 144d, and time information. 144e, profile 144f, and profile category 144g.
  • the results analyzed by the stay position transition 144a and the moving means 144c are recorded as a profile 144f and a profile category 144g.
  • the profile analysis unit 116 analyzes “a person who uses a train for commuting”. “A person who uses a train for commuting” belongs to the category of “Train commuter family”.
  • the user's behavior tendency such as lifestyle can be acquired.
  • the user A knows that there is a behavior tendency of “Driving on weekdays for commuting and driving on holidays for cars”.
  • the user B has a behavior tendency of “Weekday commuting is a train, detour on the way home from work”.
  • the user C has an action tendency that “a commuting or work on weekdays uses a car and a train is used when going out on a holiday”.
  • FIG. 18 shows an example of a user behavior information table 146 that records a profile obtained based on an application activation history and a behavior recognition result.
  • the user behavior information table 146 includes, for example, an application activation history 146a, behavior information 146b, characteristic behavior 146c, time information 146d, profile 146e, and profile category 146f.
  • the results analyzed by the application activation history 146a and the behavior information 146b are recorded as a profile 146e and a profile category 146f.
  • the profile analysis unit 116 analyzes that “jogging” is being performed. “Jogging” belongs to the category of “active sports”.
  • the profile analysis unit 116 can specify in detail the action being performed by the user based on the application activation history and the action recognition result.
  • FIG. 19 is an explanatory diagram for explaining processing for determining a topic to be presented by profile matching.
  • FIG. 20 is an explanatory diagram illustrating a relationship between closeness between users and disclosure information.
  • the profile analysis unit 116 uses the profile acquired as described above to match the profile of the user who is having a conversation and generates an appropriate topic.
  • a topic is provided using latitude / longitude information that is the user's position information, it is common to process each user so as to provide a topic related to the same position information.
  • the position information is the same, for example, when the user's purpose at the position is different, the topic regarding the position information is unlikely to be a topic common to the user, and may not be appropriate as the content to be provided. Therefore, in the present embodiment, it is possible to provide a more appropriate topic by using a profile of a user having a conversation and specifying a common profile.
  • the profile analysis unit 116 matches the profiles of the user A and the user B and generates a topic.
  • the profiles of user A and user B have a common content “surfing”. Although the places where the users A and B surfed are different, a common hobby “surfing” can be found by matching the profiles. Special fields such as hobbies and content with strong interests and interests create a kind of solidarity between the user and the other party, making it easier to excite conversation. In this way, by matching the profiles, it is possible to provide an appropriate topic to the user.
  • the profile analysis unit 116 performs profiles with the user A and the user C for the user B and the user C, respectively, and recommends a user whose profile or profile category matches as a conversation partner.
  • the user A and the user B having the same contents of “surfing” and “active sports” are recommended as the talking partner. Thereby, it is possible to recommend to the user A a person who is considered to have many common topics.
  • the transition between the place name, the place category, and the staying position is information that shows personal characteristics. May not want to be disclosed. For example, a user may think that he does not want to disclose where he often goes. Even in such a case, since the granularity of information of profiles and profile categories is coarse and it is difficult to identify an individual with this information alone, it is appropriate as information used when generating a topic. Therefore, in a situation where it is not desired to disclose a lot of information to the other party, the profile category should be used as matching information.
  • the profile analysis unit 116 may perform control so that the information is disclosed step by step. For example, specific information may be disclosed as the familiarity with the speaking partner increases. As shown in FIG. 20, while the intimacy of the talking user is low, profile categories and profiles are disclosed, and a topic is generated based on these information. When the intimacy becomes high, location categories, location transitions, and location names are disclosed in stages, so that topics that are more personal can be generated. Such a stepwise disclosure of information makes it possible to present a natural topic that matches the intimacy between users, taking into account the privacy of each user.
  • the topic generation processing in step S110 has been described above. Note that the topic generation processing executed in the topic providing system 1 according to the present embodiment is not limited to the above example, and the topic may be generated by another method.
  • the conversation partner may provide changes in the conversation partner as a topic using sensor information.
  • the recognizer may compare the image of the other party with the previous meeting with the current image of the other party and detect the highlight so that the user can notice the change of the other party.
  • the opponent is a type of person who is difficult to notice the change
  • his / her own action log may be given as a hint to the opponent so as to notice the change.
  • you may give a hint to the other party if you want to be aware of it, such as changing your hairstyle.
  • FIG. 21 is a conceptual diagram of a process of conversation communication between users.
  • conversational communication takes place as a time lapse, but when the user becomes interested in the person, the user listens to the other person's story or asks a question. It becomes like this. Furthermore, when the user wants to be interested in the other party, he / she wants to hear his / her story and explains. That is, as shown in FIG. 21, conversation communication is easy in a state of “interested in the other party” or “want to be interested from the other party”, and the topic providing system as the interest in the other party increased. Even if you don't receive the topic from 1, the conversation will bounce. This state can be said to be a step in which both parties are interested.
  • the topic providing system 1 provides an appropriate topic, and provides support for putting the strength of interest in the conversation partner in a virtuous cycle of conversational communication.
  • “the degree of excitement of the place” is introduced as an evaluation index for favorably continuing communication.
  • “Venue” represents a communication event that is temporarily formed.
  • FIG. 22 shows a concept of a communication place and participants in the communication.
  • a temporary communication place is formed by three participants A, B, and C.
  • the degree of excitement varies depending on the degree of excitement of each participant.
  • degree of upsurge H P field is expressed by the following equation (1).
  • env (t) is an environmental change that represents the fall of the field over time.
  • Degree of upsurge H P field is excitement H A of each participant, H B, it varies by H C.
  • participant A is parties of the party, and the participant C is a facilitator who is a secretary. Further, it is assumed that the participant A has a favor for the participant B.
  • Participant A's excitement level HA is expressed by the following expression (2): Participant A's interest level I AB from Participant A indicating that Participant A favors Participant B, and Participant A It can be expressed by the interest level I BA from B to the participant A and the excitement level H P (t ⁇ 1) of the field at a certain time t ⁇ 1.
  • is an estimated value including an error
  • W AP is a weighting coefficient.
  • the swell level H B of the participant B is also expressed by the following formula (3).
  • the excitement level HC of the manager C participant C is expressed by the following formula (4).
  • the coefficients a, b, and W CP are coefficients that change depending on the motivation of the participant C. For example, when the participant C contributes only to the excitement of the place, the interests of the participants A and B are irrelevant, so the coefficients b and c are zero.
  • predetermined values are set for the coefficients a, b, and WCP .
  • the interest level I BA of the participant B in the equations (2) to (4) with respect to the participant A is expressed by the following equation (5).
  • the terms related to conversational communication are the topic Topic AP that the participant A puts in the field and the entry timing TopicTiming AP .
  • is an element other than conversational communication, such as an appearance.
  • the degree of interest I AB for participant B estimated by participant B (refers to the one attached with ⁇ on I AB in equation (6)) is expressed by equation (6) below.
  • Reaction AB is the reaction of Participant A to the topic that Participant B put into the field.
  • the topic participation rate can be expressed based on, for example, the number and frequency of remarks and discussions.
  • Formula (1) can be represented as following formula (7).
  • Topic XP represents the topic that each participant puts into the field
  • TopicTiming XP represents the timing of the entered topic
  • functions including Reaction are collected as Topic P functions.
  • W is a weighting coefficient.
  • the topic providing system 1 uses the above values as evaluation values for topic selection. These values are calculated by the excitement degree calculation unit 122 of the topic proposal unit 120 of the information processing apparatus 100. The degree of excitement calculation unit 122 outputs the calculated value to the topic extraction unit 124.
  • FIG. 23 is a flowchart showing the topic selection method according to this embodiment.
  • the topic extraction unit 124 extracts the topic to be presented to the user from the topic generated by the topic generation unit 110 using the evaluation value calculated by the climax degree calculation unit 122.
  • the processing shown in FIG. 23 is executed, for example, at a timing when a topic is put into the place.
  • the topic extraction unit 124 first acquires the reaction information of the talking partner (S121).
  • the reaction information is information indicating the reaction of the talking partner with respect to the input topic, and includes, for example, a smile, a laughter, a nod, a companion, and the like. It is assumed that these pieces of reaction information are information that can be acquired at any time as various sensor information. Specifically, the other person's nod, such as “Yeah.”, “That?”, “Interesting”, “Hea”, “Oh,” etc. This is the presentation frequency.
  • Topic extraction unit 124 acquires the response information of the conversation partner for thrown-in topic, calculates the degree of upsurge H P field at this time (S123). Degree of upsurge H P field can be calculated by the equation (6).
  • the topic extraction unit 124, calculating the field upsurge degree H P determines whether the field is raised by introduction of this topic (S125).
  • Step S125 is field excitement H P is a predetermined threshold value (hereinafter, also referred to as "excitement threshold”.) Is determined by whether or not exceeded.
  • the swell degree threshold value is appropriately set according to the situation.
  • field excitement H P is greater than or equal excitement threshold at step S125, the determining that the field is raised by the entered topic, topic extraction unit 124, the related information of the current topic, participants (S127). On the other hand, it if field excitement H P is smaller than the excitement threshold, determines that the place was not Moriagara by the entered topic, topic extraction unit 124, the switching of topics from the current topic Is added, and new topics are added to the topic options presented to the participants (S129).
  • topics corresponding to the excitement of the place are extracted from various topics generated by the topic generation unit 110 and presented to the participants.
  • the topic duration may be further taken into account in the evaluation in step S125.
  • the expectation of the excitement of the place due to the topic input may be presented to the participant as an expectation degree. Thereby, the participant can select the topic to be introduced while assuming the size of the excitement of the place at the time of introduction for each topic.
  • FIG. 24 shows an example of the distribution of expectations regarding the topic.
  • a topic with a tendency of distribution 2 on the lower side of FIG. Specifically, it is a general topic such as the weather, and a topic that does not have a very high effect of excitement but has a low possibility of coming off.
  • a topic having the tendency of the distribution 1 on the lower side of FIG. A topic in which the spread of the distribution is large and a positive effect or a negative effect is assumed as in distribution 1 is, for example, a specialized topic.
  • Such a topic can have a great excitement, but it can also be a big excitement.
  • related information on topics that the conversation partner showed a strong interest in is also generally shifted to the right. That is, distribution 2 which is a general topic distribution shows a tendency to surely excite the field even if it is not so large, and the related information of the topic in which the other party has shown high interest is more surely enlivened. Therefore, it can be considered that the distribution 4 is shifted to the right as a whole.
  • the degree of expectation of related information shifts to the right as the correlation with the presented topic increases. Note that if the number of repetitions is large, the other party's interest may also decrease, and in this case, there is a possibility of shifting to the left as a whole.
  • the calculation of the degree of expectation that expresses the expectation of the excitement of the place is performed by the expectation degree calculation unit 126 of the topic proposal unit 120.
  • the expectation degree calculation unit 126 outputs the calculated result to the topic presentation processing unit 130.
  • FIG. 25 shows a relationship between the introduction of a topic and the degree of excitement of the place.
  • Degree of upsurge H P field as described above, are calculated based on equation (1).
  • the environmental term env (t) decreases the degree of excitement in proportion to time, and the degree of excitement is increased by the topic that is discretely input. Therefore, as shown in FIG. 25, the time transition of the degree of excitement may be such that the degree of excitement rises temporarily when a topic is introduced, and then the degree of excitement decreases as time passes. Recognize.
  • the excitement level exceeds 40 at the timing when the third topic is introduced in the example shown in FIG.
  • the degree of excitement enters a virtuous circle
  • the degree of excitement due to the environmental term env (t) is maintained or increased, and a good communication place can be maintained without support by the present system.
  • the third topic is not introduced, the place of communication will naturally rise.
  • the topic providing system 1 aims to create a situation in which good communication can be achieved even if a topic is not input by appropriately inputting the topic.
  • Support for participants in the communication place by the topic providing system 1 may be changed according to the situation. For example, if it is not a situation where the other party wants to be interested, the support to the participant may be performed to the extent that the other party can be interested. Further, for example, when it is desired to be interested from the other party, the participant is supported so that the place is excited until the situation is reached.
  • the topic providing system 1 has a degree of excitement of the place, a target expected degree Pa (for example, a step in which the participants are interested) Support the participants until the excitement is 40-100). If a certain participant wants to be interested in the other party, the topic providing system 1 has a degree of excitement of the place, a target expectation degree Pb (for example, excitement) at a step where the participants want to be interested in each other. Support participants until it reaches 100).
  • a target expected degree Pa for example, a step in which the participants are interested
  • Pb for example, excitement
  • the topic proposal unit 120 may analyze the situation and weight the topics to be proposed. Thereby, it becomes possible to propose a topic more suitable for the situation.
  • the situation of the communication place is the state before the common event (state A), the common event (state B), and the common event with respect to the common event common to the participants participating in the place. It can be roughly divided into the following three (state C).
  • FIG. 28 shows a specific situation example.
  • the situation is a situation in which a conversation is held in order to avoid a silent state, and the situation is after the end of the common event called the welcome party, and therefore corresponds to state C in FIG.
  • a joint party is a party in which people who seek encounters participate, and usually there is a facilitator as a secretary who organizes the place. Although there are people who meet for the first time in the joint party, the motivation to become intimate seems to be high.
  • the situation of joint event corresponds to the state B in FIG.
  • weighting is applied to the direction of the topic to be presented, whether the topic should be continued, or the topic should be added or changed. Can be adjusted.
  • FIG. 29 shows the directionality of the topic for the states A to C shown in FIG.
  • the state A before the common event is a phase of searching for topics that attract each other's interest. Therefore, instead of continuing the topic, it is better to suggest a topic by adding a new topic to the topic to be proposed in order to search for a topic that the other party is interested in. It is also effective to encourage the conversion to If you find an appropriate topic, try to continue that topic.
  • the topic providing system 1 presents related information so as to continue the topic.
  • the topic providing system 1 preferably functions to present related information and continue the topic.
  • the topic providing system 1 can provide a more appropriate topic by knowing the state of the communication place.
  • the topic presentation processing unit 130 performs processing for providing the user with the topic (S130).
  • the topic presentation processing unit 130 presents a topic to the person or a plurality of people sharing the topic, depending on the situation at the spot.
  • the topic providing system 1 presents a topic to an individual.
  • a topic is presented on a display panel of a glass-type wearable terminal, or a topic or a device held by an individual or an LED in a space is made to emit light.
  • an auditory presentation method for example, an earphone or an open speaker can be used, and as an auditory or haptic presentation method, for example, vibration or temperature can be used.
  • FIG. 30 shows an example in which a topic is presented on the display panel of a glass-type wearable terminal.
  • FIG. 30 is an example in which a topic is displayed in a card format on a display panel of a glass-type wearable terminal worn by a user.
  • a card Tnow of the current topic On the display panel, a card Tnow of the current topic, a card Tr of related information on the current topic, and new topic cards Tnew-A, Tnew-B, and Tnew-C are displayed.
  • the depths of the related information card Tr, the new topic cards Tnew-A, Tnew-B, and Tnew-C indicate the spread of the related information related to the topic.
  • the degree of excitement of the place, the degree of expectation at the time of introducing the presented topic, and the like may be presented to the user by a display panel or other presentation methods.
  • the user can provide a topic with reference to the presented topic card.
  • the topic selected by the user becomes a new topic that is currently in progress, and after the degree of excitement of the place due to the topic input is calculated, new related information and new topic are displayed on the display panel.
  • Topic presentation to a plurality of people Next, a case where the topic providing system 1 presents a topic to a plurality of people participating in a communication place will be described.
  • a method for presenting a topic to a plurality of people for example, it is conceivable that a topic is presented on a projection surface such as a table top by a projector as a visual presentation method.
  • an auditory presentation method for example, a speaker or the like can be used, and as a tactile presentation method, for example, temperature adjustment of an air conditioner or a table can be performed.
  • an entertainment element that excites the place including the presentation of the topic.
  • FIG. 31 shows an example in which a topic is presented as a topic card on the table top by a projector.
  • a card of a topic that is currently in progress a related information card of a topic that is currently in progress, and a card of a new topic are displayed on the table top.
  • the user can provide a card of related information or a card of a new topic displayed at the hands of the users A and B who are participating in the communication. Swipe to the place to bring the topic into play.
  • the topic of the cards each user A, B has is visible. In this way, entertainment can be given by making it possible to see each other the topic candidates to be put into the venue.
  • information such as the degree of excitement of this place, the name of the user who controls the topic, and the degree of contribution to the excitement of the topic may be presented to the participants.
  • the transition of the climax calculated by the climax calculator 122 may be presented.
  • the transition of the degree of excitement of the field may be displayed in a graph.
  • the topic proposer may be displayed when the speaker who has input the topic can be recognized.
  • the topic may be displayed as a tag.
  • the topic display may be automatically recognized based on the sensor information, or may be manually input by a participant or the like.
  • the transition of the degree of excitement may be a shared display that can be seen by all the participants. If there is a facilitator in this place, it may be displayed personally only on the facilitator. The facilitator can take action to further excite the venue with reference to this information.
  • the degree of contribution to the topic may be presented for each participant.
  • Such information may also be a shared display that can be viewed by all the participants. If a facilitator is present at this location, it may be displayed personally only on the facilitator. The facilitator can take action to direct the conversation to a person who does not speak casually while looking at the degree of contribution to the topic.
  • the topic presentation processing unit 130 of the topic providing system 1 may be provided with a function of giving up the person when a topic that is excited is presented. For example, “Good!” May be displayed on a display panel of a glass-type wearable terminal or a vibration that can be stroked may be reproduced. It is also possible to give up the user by displaying a smile on the avatar displayed on the display panel or lighting the LED in green.
  • the above-mentioned graph display and contribution display itself may become a topic of conversation.
  • You may make it produce the production which specializes here and enlivens the place.
  • the sound of the air conditioning may be increased or the air conditioning may be turned on in order to emphasize the fact that it has been shining.
  • you may produce the atmosphere of a place with a spotlight using a light source.
  • the place has a warm atmosphere, it may illuminate warm-colored lighting, or darken when a topic that has been thrown off.
  • using the sound for example, during a serious conversation, the participants in the venue may hear their own beat or a slightly faster beat.
  • the topic presentation method by the topic providing system 1 is not limited to the examples shown in FIG. 30 and FIG. It is not limited to.
  • the topic may be presented to the user by icon display. Specifically, to show topics related to bicycles, the icon of the picture of the train is displayed, and to show that the past episode is a topic, the photos at the event are displayed. Also good.
  • topics may be presented with arrows.
  • the topic may be presented by displaying an arrow 22 pointing to the hair. In this way, if there is information that is a topic in the information displayed on the display unit, the topic can be presented by pointing it with an arrow.
  • the topics to be presented need not be displayed in equal columns as shown in FIG. 30.
  • the topics suitable for each talking partner are associated with each person. You may make it display. As a result, it is possible to visually recognize a topic suitable for each speaking partner. If the topic is common to all speaking partners, it may be displayed in the center of the screen, for example.
  • the topic does not have to be presented at all times, and the card may be automatically presented on the glass-type wearable terminal or table top only when the topic should be presented. Alternatively, the topic may be presented only when a user instruction is received. For example, the topic may be presented on the glass-type wearable terminal or the table top only when the user focuses on a specific icon for displaying the topic or moves the cursor with the controller.
  • the topic presentation destination is not limited to a glass-type wearable terminal or a table top.
  • a list of extracted topic candidates may be displayed on a personally-owned smartphone, tablet terminal, band, or other device.
  • the user may not be aware of the topic presentation. Therefore, for example, the user may be notified when the topic preparation is completed, and the user may be guided to view the presented topic.
  • the voice notification and the display notification may be combined to convey only the index by voice, and the list acquisition may be acquired as an image.
  • the card group may be expanded when the user stares at his / her own card, and the card group may be aggregated when the user removes his / her eyes from the card group.
  • a panel 30 31, 33, 35, 37
  • each card is displayed on the panel. It may be turned after 30 and hidden.
  • the expansion, aggregation, hidden display, etc. of the card group may be performed based on the user's line of sight or may be operated using a controller or the like.
  • a virtual moderator may be set to emphasize game characteristics. For example, a system may be used in which each player (participant) submits a topic to a virtual moderator, and the moderator selects a topic submitted from each. The moderator may choose topics by majority or random. Of course, this moderator may be replaced with a facilitator and selected manually.
  • the topic providing system 1 needs to know what topic has been selected so far. This recognition may be performed by automatic recognition based on a word or the like. Alternatively, manually recognize various operations such as touch operations on table tops, slide operations such as bracelets worn by users, tap operations on devices, line-of-sight operations, operations to select topics with nodding, etc. The selected topic may be recognized.
  • topic selections it is possible to perform “production based on topic selection” such as emphasis expression when a topic is posted but not selected.
  • topic selection such as emphasis expression when a topic is posted but not selected.
  • the selected purchased topic can be emphasized by shaking or blinking the displayed card.
  • a vibration can be given to the user to prompt the user to select a topic.
  • Such an effect when a topic is not selected may be executed, for example, when a certain period of time has elapsed since the topic was presented, or when there is no conversation.
  • the information processing apparatus 100 of the topic providing system 1 generates a topic with a conversation partner based on a comparison result between a user's action and comparison information regarding the action, and the generated topic is sent to the user. Determine the candidate topic to be proposed. Then, the information processing apparatus 100 proposes an appropriate topic according to the communication place that provides the topic. Thereby, the user can obtain a topic for ice breaking with the other party even in communication with a person who is not so acquainted, and can perform good communication.
  • FIG. 36 is a block diagram illustrating a hardware configuration example of the information processing apparatus according to the embodiment of the present disclosure.
  • the illustrated information processing apparatus 900 can realize the server 10 in the above-described embodiment, for example.
  • the information processing apparatus 900 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905.
  • the information processing apparatus 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the information processing apparatus 900 may include an imaging device 933 and a sensor 935 as necessary.
  • the information processing apparatus 900 may include a processing circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array) instead of or in addition to the CPU 901.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 900 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs and calculation parameters used by the CPU 901.
  • the RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 900.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data and instruct processing operations to the information processing device 900.
  • the output device 917 is configured by a device capable of notifying the acquired information to the user using a sense such as vision, hearing, or touch.
  • the output device 917 can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, an audio output device such as a speaker or headphones, or a vibrator.
  • the output device 917 outputs the result obtained by the processing of the information processing device 900 as video such as text or image, sound such as sound or sound, or vibration.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores, for example, programs executed by the CPU 901 and various data, and various data acquired from the outside.
  • the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
  • the drive 921 writes a record in the attached removable recording medium 927.
  • the connection port 923 is a port for connecting a device to the information processing apparatus 900.
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 can be, for example, a communication card for LAN (Local Area Network), Bluetooth (registered trademark), Wi-Fi, or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the communication network 931 connected to the communication device 925 is a network connected by wire or wireless, and may include, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like.
  • the imaging device 933 uses various members such as an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device), and a lens for controlling the formation of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image.
  • the imaging device 933 may capture a still image or may capture a moving image.
  • the sensor 935 is various sensors such as an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, an atmospheric pressure sensor, or a sound sensor (microphone).
  • the sensor 935 acquires information about the state of the information processing apparatus 900 itself, such as the posture of the information processing apparatus 900, and information about the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900, for example. To do.
  • Sensor 935 may also include a GPS receiver that receives GNSS (Global Navigation Satellite System (s)) signals and measures the latitude, longitude, and altitude of the device.
  • GNSS Global Navigation Satellite System
  • Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • Embodiments of the present disclosure include, for example, an information processing device (for example, a server), a system, an information processing method executed by the information processing device or system, a program for causing the information processing device to function, and a program, as described above May include a non-transitory tangible medium on which is recorded.
  • a topic generation unit that generates a topic with a conversation partner based on a comparison result between a user's action and comparison information regarding the action, A topic suggestion unit for determining a topic candidate to be proposed to the user from the generated topic;
  • An information processing apparatus comprising: (2) The user's daily behavior regarding a certain behavior is used as the comparison information.
  • the information processing apparatus according to (1), wherein the topic generation unit generates the content of the latest user action as a topic when the latest user action is different from the daily action of the user.
  • the user's past behavior tendency regarding a certain behavior is used as the comparison information.
  • the topic generation unit generates a change in the user's behavior tendency as a topic when the latest behavior tendency of the user has changed from the past behavior tendency of the user.
  • the user's past behavior tendency regarding a certain behavior is used as the comparison information.
  • the topic generation unit The information processing apparatus according to any one of (1) to (3), generated as: (5) As the comparison information, the behavior tendency of the speaking partner regarding the common behavior that the user and the speaking partner have performed, In any one of (1) to (4), the topic generation unit generates information related to the common behavior as a topic when the user's behavior related to a certain common behavior differs from the behavior tendency of the conversation partner. The information processing apparatus described. (6) The information processing apparatus according to (5), wherein the topic generation unit determines a difference in behavior between the user and the speaking partner based on the occurrence frequency of the common behavior.
  • the information processing apparatus determines a difference in behavior between the user and the speaking partner based on lower information related to the common behavior.
  • the topic generation unit determines a difference in behavior between the user and the speaking partner based on lower information related to the common behavior.
  • the topic generation unit generates information on the common behavior as a topic when the user's behavior tendency regarding the common behavior and the behavior tendency of the speaking partner are different from the behavior tendency of the public, the above (1) to (7)
  • the information processing apparatus according to any one of claims.
  • the topic suggestion unit A degree of excitement calculating unit for calculating the degree of excitement of the communication place formed by the user and the conversation partner; From the topic generated by the topic generation unit, a topic extraction unit that extracts a topic according to the degree of excitement,
  • the information processing apparatus according to any one of (1) to (8), comprising: (10) The information processing apparatus according to (9), wherein the degree of excitement calculation unit calculates the degree of excitement based on an evaluation function related to a response of the speaking partner to the user's utterance.
  • the topic extraction unit changes a ratio of related information related to a topic spoken this time in a topic to be extracted as the topic candidate according to a degree of excitement of the communication place with respect to the user's utterance, (9) or The information processing apparatus according to (10).
  • the topic extraction unit weights each topic generated by the topic generation unit based on state information determined according to a situation in which the user and the conversation partner have a conversation.
  • the information processing apparatus according to any one of the above.
  • the topic suggestion unit includes any one of the above (9) to (12), which includes an expectation degree calculation unit that calculates an expectation degree that the communication place is excited by the introduction of a topic for each topic extracted as the topic candidate.
  • the information processing apparatus according to item.
  • the information processing apparatus according to any one of (1) to (13), further including a topic presentation processing unit that performs processing for presenting the topic candidate to a user.
  • the information processing apparatus performs a process of presenting the topic candidate to at least one person participating in a communication place formed by the user and the conversation partner.
  • the topic presentation processing unit performs a process of presenting at least one person who participates in a communication place formed by the user and the conversation partner, the transition of the degree of excitement of the place of communication.
  • the information processing apparatus according to 15).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】話題を提示するユーザの行動を考慮して、話題を適切に提示する情報処理装置を提供する。 【解決手段】情報処理装置は、ユーザのある行動と、行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、生成された話題からユーザに提案する話題候補を決定する話題提案部と、を備える。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 友人や知り合いとの会話やパーティ等で初対面の相手とアイスブレイクする場合において、話題に困ることがある。これは、話し相手との適切な話題を選択する手段や手がかりがないことによる。
 ユーザに楽しく自然な会話を提供する技術として、例えば特許文献1には、データベースから提供された話題となる情報について、ユーザの趣向に関するデータによりフィルタリングし、残った情報をユーザとの会話に利用させる会話処理装置が開示されている。
特開2001-188787号公報
 しかし、上記特許文献1のように話し相手の興味の趣向に沿って話題を提示したとしても、話題を提示する当人が当該話題に興味がなかったり知らなかったりすると会話の継続は難しい。
 そこで、本開示では、話題を提示するユーザの行動を考慮して、話題を適切に提示することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、ユーザのある行動と、行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、生成された話題からユーザに提案する話題候補を決定する話題提案部と、を備える、情報処理装置が提供される。
 また、本開示によれば、プロセッサにより、ユーザのある行動と、行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成すること、生成された話題からユーザに提案する話題候補を決定すること、とを含む、情報処理方法が提供される。
 さらに、本開示によれば、コンピュータを、ユーザのある行動と、行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、生成された話題からユーザに提案する話題候補を決定する話題提案部と、を備える、情報処理装置として機能させるプログラムが提供される。
 以上説明したように本開示によれば、話題を提示するユーザの行動を考慮して、話題を適切に提示することができる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る話題提供システムの概要を示す説明図である。 同実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。 同実施形態に係る話題提供システムを用いた話題提供方法を示すフローチャートである。 ユーザの行動ログの比較を説明する説明図である。 ユーザの過去の行動傾向と直近行動とのずれから話題性のある行動を抽出する例を示す説明図である。 ユーザの行動傾向の変化から話題性のある行動を抽出する例を示す説明図である。 ユーザの過去の行動傾向において、ある区間で過去及び直近の行動傾向と異なる行動傾向を抽出する例を示す説明図である。 ユーザ間で共通する行動の頻度の差分から話題性のある行動を抽出する例を示す説明図である。 ユーザ間で共通する行動に関する情報のずれから話題性のある行動を抽出する例を示す説明図である。 ユーザ間で共通する行動に関する情報のずれから話題性のある行動を抽出する他の例を示す説明図である。 ユーザ間で共通する行動の行動傾向の世間とのずれから話題を抽出する例を示す説明図である。 ユーザの行動認識結果として得られる、「滞留位置」及び「滞留位置間の遷移」を説明する説明図である。 滞留位置及び行動認識結果からユーザのその滞留位置での目的を表すプロファイルを生成する処理を説明する説明図である。 図13のプロファイル生成処理により取得されたユーザ行動情報テーブルの一例を示す説明図である。 滞留位置及び行動認識結果から生成されたユーザAのプロファイル例を示す説明図である。 滞留位置及び行動認識結果から生成されたユーザBのプロファイル例を示す説明図である。 滞留位置及び行動認識結果から生成されたユーザCのプロファイル例を示す説明図である。 アプリ起動履歴と行動認識結果とから生成されたプロファイルの一例を示す説明図である。 プロファイルのマッチングにより提示する話題を決定する処理を説明する説明図である。 ユーザ同士の親密度と開示情報との関係を示す説明図である。 ユーザ間の会話コミュニケーションのプロセスの概念図である。 コミュニケーションの場と当該コミュニケーションへの参加者との概念を示す概念図である。 同実施形態に係る話題選択方法を示すフローチャートである。 話題に対する期待度の分布例を示す説明図である。 話題の投入と盛り上がり度との一関係例を示す説明図である。 話題提供システムによるサポートの程度を説明するための説明図である。 コミュニケーションの場のシチュエーションの状態分類を説明するモデル図である。 具体的なシチュエーションの例を示す説明図である。 シチュエーションに応じた話題の方向性の例を示す説明図である。 グラス型ウェアラブル端末の表示パネルによる話題の提示例を示す説明図である。 プロジェクタによりテーブルトップにトピックカードとして話題を提示する例を示す説明図である。 盛り上がり度の変化を提示する例を示す説明図である。 矢印によって話題を提示する方法を示す説明図である。 話し相手ごとに話題を表示させる提示方法を示す説明図である。 他のユーザの動きに応じて話題を隠す表示演出の一例を示す説明図である。 本開示の実施形態に係る情報処理装置のハードウェア構成を示すハードウェア構成図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.概要
 2.機能構成
 3.話題提供方法
  3.1.話題生成処理
  3.2.話題提案処理
  3.3.話題提示処理
 4.まとめ
 5.ハードウェア構成
 6.補足
 <1.概要>
 まず、図1を参照して、本開示の一実施形態に係る話題提供システム1の概要について説明する。図1は、本実施形態に係る話題提供システム1の概要を示す説明図である。
 本実施形態に係る話題提供システム1は、図1に示すように、サーバ10を介して会話するユーザに話題を提供するシステムである。サーバ10は、各ユーザの行動に関する情報を取得することが可能であり、各ユーザの行動に関する情報に基づき適切な話題を生成し、提供する。したがって、例えば、図1に示すユーザAとユーザBとが初対面であったり、当日同じイベントに参加した程度の、お互いのことをよく知らない交流関係であったりした場合にも、サーバ10はユーザA、Bの行動に基づき適切な話題を各ユーザに提供できる。
 なお、サーバ10は、他のサーバや各ユーザの所持する各種端末等により、ユーザの行動に関する情報を取得することが可能なものとする。ユーザの行動に関する情報としては、時刻情報、位置情報等の各種センシング技術を用いて取得されたセンサ情報や、センサ情報を解析して認識されたユーザの動作行動情報等がある。
 本実施形態に係る話題提供システム1において話題を提供するための情報処理装置として機能するサーバ10では、ユーザのある行動と、その行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する。そして、サーバ10は、生成した話題から適切な話題を抽出し、ユーザに提案する話題候補を決定する。以下、本実施形態に係る話題提供システム1の構成とその機能について、詳細に説明していく。
 <2.機能構成>
 まず、図2に基づいて、本実施形態に係る話題提供システム1において話題を提供するための処理を行う情報処理装置100の機能構成を説明する。図2は、本実施形態に係る情報処理装置100の機能構成を示す機能ブロック図である。
 本実施形態において、情報処理装置100は、サーバ10に備えられている。情報処理装置100は、図2に示すように、話題生成部110と、話題提案部120と、話題提示処理部130とを備える。
(話題生成部)
 話題生成部110は、会話をしているユーザの行動に関する情報に基づいて、話し相手との話題を生成する。話題生成部110は、会話をしているユーザの行動に関する情報を取得して、自分では気づいていない行動の変化や他人とのずれ等から、話題となる情報を抽出し、話題候補とする。話題生成部110は、例えば、図2に示すように、自己行動分析部112と、共通行動分析部114と、プロファイル分析部116を有する。
 自己行動分析部112は、話題を提示しようとするユーザの行動を分析して、当該ユーザの特徴的な行動傾向や行動の変化等を抽出し、話題とする。自己行動分析部112は、例えば当該ユーザのみの過去の行動ログから趣味、傾向、嗜好等を表すプロファイルを抽出したり、当該ユーザのみの過去の行動ログと直近の行動ログとのずれを抽出したりする。
 共通行動分析部114は、会話する各ユーザがともに行ったことのある共通行動を分析して、各ユーザの行動の共通点やずれ等を抽出し、話題とする。共通行動分析部114は、例えば各ユーザのプロファイルの重なりを比較したり、話し相手が頻繁に行う行動に対して話題を提示しようとするユーザのずれた行動を抽出したりする。
 プロファイル分析部116は、各ユーザのプロファイルを生成し、生成したプロファイルをマッチングして話題を生成する。プロファイル分析部116は、例えば、センサ情報として取得された時系列の位置情報からユーザの滞留位置や滞留位置間の遷移を分析し、ユーザの趣味、傾向、嗜好等を表すプロファイルを生成する。この際、別途行動認識技術により認識されたユーザの行動認識結果を考慮してもよい。プロファイル分析部116は、生成したプロファイルを用いて、会話する各ユーザのプロファイルのマッチングを行い、共通する話題を生成する。
 話題生成部110は、自己行動分析部112、共通行動分析部114、プロファイル分析部116のうち少なくともいずれか1つを機能させて話題を生成してもよい。話題生成部110は、生成した話題を話題提案部120へ出力する。
(話題提案部)
 話題提案部120は、生成された話題から会話を行っている場に適した話題を抽出し、ユーザに話題候補として提案するための処理を行う。話題提案部120は、図2に示すように、例えば、盛り上がり度算出部122と、話題抽出部124と、期待度算出部126とを有する。
 盛り上がり度算出部122は、ユーザと話し相手とにより形成されるコミュニケーションの場の盛り上がり度を算出する。盛り上がり度算出部122は、例えば、ユーザの発話に対する話し相手の反応に関する評価関数に基づいて、盛り上がり度を算出してもよい。盛り上がり度算出部122は、算出した盛り上がり度を話題抽出部124へ出力する。
 話題抽出部124は、話題生成部110により生成された話題から、盛り上がり度に応じた話題を抽出する。話題抽出部124は、例えば、投入された話題によってコミュニケーションの場が盛り上がったときには、話題候補に、今回投入した話題に関連する関連情報を増やす。一方、投入された話題によってコミュニケーションの場が盛り上がらなかったときには、話題候補に、今回投入した話題と異なる新規の話題を増やす。また、話題抽出部124は、ユーザと話し相手とが会話するシチュエーションに応じて決定される状態情報に基づいて、話題生成部110により生成された各話題に重み付けを行い、より適切な話題が話題候補として抽出されるようにしてもよい。
 話題抽出部124により抽出された話題は、ユーザに提案する話題候補として、話題提示処理部130へ出力される。また、抽出された話題は、必要に応じて期待度算出部126へ出力される。
 期待度算出部126は、話題候補として抽出された各話題について、話題投入によりコミュニケーションの場が盛り上がる期待度を算出する。期待度は、話題を投入することにより予測される場の盛り上がりを確率変数的に表した予測効果値である。期待度算出部126は、各話題について期待度を算出し、話題提示処理部130へ出力する。
(話題提示処理部)
 話題提示処理部130は、話題提案部120により抽出された話題候補をユーザに提示するための処理を行う。話題提示処理部130は、ユーザと話し相手とが会話しているシチュエーションにより、話題の提示の仕方を変化させてもよい。例えば、周囲に気付かれないように話題を提供する場合には、提供しようとするユーザのみにさりげなく話題を提示するようにしてもよい。あるいは、話題を提示することも場を盛り上げるエンターテインメント要素とする場合には、会話に参加している各ユーザに話題を提示するようにしてもよい。話題提示処理部130は、話題候補をユーザに提示する機器にて提示可能なように所定の処理を行い、各機器へ出力する。
 以上、本実施形態に係る情報処理装置100の機能構成について説明した。
 <3.話題提供方法>
 以下、本実施形態に係る話題提供システム1を用いた話題提供方法について、図3に沿って説明する。図3は、本実施形態に係る話題提供システム1を用いた話題提供方法を示すフローチャートである。
 [3.1.話題生成処理]
 図3に示すように、本実施形態に係る話題提供システム1は、まず、話題生成部110により、ユーザに提示する話題を生成する処理を行う(S110)。本実施形態に係る話題提供システム1では、会話をしているユーザの行動に関する情報に基づいて、話し相手との話題を生成する。話題生成部110は、会話をしているユーザの行動に関する情報を取得して、自分では気づいていない行動の変化や他人とのずれ等から、話題となる情報を抽出し、話題候補とする。
 ユーザの行動に関する情報を用いて話題を生成する方法としては、例えば以下の方法がある。
 (1)自己の行動に関する情報から話題を生成
 (2)ユーザ間に共通する共通行動に関する行動から話題を生成
 (3)各ユーザのプロファイルをマッチングすることにより話題を生成
 以下、各方法について詳細に説明していく。
(1)自己行動分析による話題生成
 まず、図4~図7に基づいて、話題を提供しようとするユーザの行動に関する情報のみを用いて話題を生成する方法を説明する。図4は、ユーザの行動ログの比較を説明する説明図である。図5は、ユーザの過去の行動傾向と直近行動とのずれから話題性のある行動を抽出する例を示す説明図である。図6は、ユーザの行動傾向の変化から話題性のある行動を抽出する例を示す説明図である。図7は、ユーザの過去の行動傾向において、ある区間で過去及び直近の行動傾向と異なる行動傾向を抽出する例を示す説明図である。
 自己行動分析による話題生成は、自己行動分析部112により、話題を提供しようとするユーザの行動に関する情報のみを用いて行われる。例えば、ユーザの行動に関する情報として、センサ情報を解析して認識されたユーザの動作行動を時系列に表した行動ログを用いる。例えば、図4上側に示すようなある日のユーザの行動内容を示す行動ログを考える。ユーザの自己行動の分析は、このような行動ログにおける一部の区間におけるデータと他の区間におけるデータとを比較することで行われる。
 例えば、図4上側に示す現時点から所定の時間だけ遡った区間での行動を、直近の行動とする。このとき、例えば、図4中央に示すように、同日の直近の行動の区間よりも過去の区間の行動と直近の行動とを比較して、ユーザの行動の傾向や変化を判定してもよい(比較1)。あるいは、例えば、図4下側に示すように、前日の同一区間における行動と直近の行動とを比較して、ユーザの行動の傾向や変化を判定してもよい(比較2)。
 そして、自己行動分析部112は、話題となりそうな行動の傾向や変化を抽出するために、行動ログの異なる区間の行動を比較した結果を抽象化する。行動比較結果を抽象化した行動特徴としては、例えば以下のようなものが考えられる。
  頻度:e.g.さっきから頻繁に歩いていた
  継続:e.g.さっきからずっと歩き続けていた
  間隔:e.g.さっき歩いたときからしばらく経って、また歩いた
  差分:e.g.今回は前回までと比べて、電車に乗った時間が遅い
  合計:e.g.ある時間帯より、今の時間帯の方がよく歩いている
  突出:e.g.ここ最近に比べて今の時間帯は色々やっている
  類似:e.g.今の時間帯のパターンは前回と同じだ
  変化:e.g.最近よく走るようになった
  周期:e.g.毎年春になると走っている
 上記特徴行動のうち、話題になりそうなものとしては、「突出」、「変化」、「差分」等がある。つまり、ユーザの直近の行動と過去の行動とに相違がある場合、話の内容となり易い。
・突出
 具体的に説明すると、まず、「突出」という行動特徴からは、自己の過去の行動傾向に対する直近行動のずれを抽出することができる。例えば、図5上側に示すように、ユーザがある滞留位置に到着するまでの行動について、普段は電車と歩きにより滞留位置に到着することが多いのに、直近の行動では電車と走りにより滞留位置に到着したことが検出されたとする。所定の時間帯かつ所定の位置での普段の行動の頻度あるいは回数について確率分布を作成すると、例えば図5下側のような正規分布となる。この分布において、中央の所定の範囲の行動は、その行動は頻繁に行われるものであり、話題にはならない日常的範囲の行動といえる。一方、日常的範囲外の行動は、普段とは異なる非日常的範囲の行動といえる。
 このように、ある行動に関するユーザの日常的な行動に対して直近の行動が非日常的な行動である場合、何かしら話題性のあることが発生した可能性があると推測される。図5に示した例では、電車の遅延や寝坊等が発生したことにより、直近の行動が普段の行動と異なるものとなったと推測される。
・変化
 次に、「変化」という行動特徴からは、自己の過去の行動傾向からの直近行動の変化の傾向を抽出することができる。例えば、ユーザのジョギングという行動について、徐々に長時間走るようになっているとき、所定の期間毎(例えば3か月単位)にユーザの一日あたりの走行時間の分布をみると、図6下側に示すように分布が徐々に右側へ移動していることがわかる。
 図6に示した各期間の分布は、比較情報であるユーザの生涯での分布と比較すると、各分布の平均値は生涯での分布の標準範囲内にあり、値自体が比較情報から外れるものではない。しかし、このような行動の変化の傾向は話題となり易い。例えば、走りに関する話題があがったとき、ジョギングの時間が長くなってきているという行動の変化の傾向がある場合にはこれを話題としてもよい。
・差分(過去の突出)
 また、「差分」という行動特徴からは、自己の過去のある区間における行動傾向が、過去の他の区間及び直近の行動傾向と異なることを抽出することができる。これは、過去における「突出」という行動特徴ともいえる。例えば、図7に示すように、ユーザのジョギングという行動について、生涯を通しての行動傾向と直近行動とはほぼ相違ないが、過去のある期間(例えば高校時代)には生涯での分布の標準範囲を超える行動傾向があった場合等がこの行動特徴に該当する。この例では、生涯を通しての行動傾向が比較情報となる。このように、全体において一部のみが突出して他と異なる行動をとっていたことを抽出し、話題としてもよい。
 なお、比較情報は、生涯を通しての行動傾向以外の情報であってもよく、当該比較情報と比較する行動傾向の区間よりも十分に長い期間のユーザの行動から認識された行動傾向を用いてもよい。また、比較情報と比較する過去の区間は、必ずしも同一の時間長でなくともよく、例えばライフステージによって区分すると、話題として提供しやすい。例えば幼年時代、小学校時代、中学校時代、高校時代、大学時代、社会人になってからの期間等というような区間や、転勤や結婚等といったイベントを区切りとして区間を設定してもよい。
 以上のように、ユーザの行動ログにおける一部の区間におけるデータと他の区間におけるデータとを比較し、ユーザの直近の行動と過去の行動とに相違がある場合、自己行動分析部112は、話題となり易い内容として抽出する。
(2)共通行動分析による話題生成
 次に、図8~図11に基づいて、ユーザ間で共通する行動に関する情報を用いて話題を生成する方法を説明する。図8は、ユーザ間で共通する行動の頻度の差分から話題性のある行動を抽出する例を示す説明図である。図9は、ユーザ間で共通する行動に関する情報のずれから話題性のある行動を抽出する例を示す説明図である。図10は、ユーザ間で共通する行動に関する情報のずれから話題性のある行動を抽出する他の例を示す説明図である。図11は、ユーザ間で共通する行動の行動傾向の世間とのずれから話題を抽出する例を示す説明図である。
 上述した自己の行動に関する情報から話題を生成する方法では、例えば、話し相手が提供した話題に対する返答等として使用し易い話題を生成することができる。一方で、自己行動分析による話題生成においては話し相手の行動に関する情報が考慮されていないため、話題にした行動について話し相手も行ったことがあったり興味が合ったりする場合には話題は展開するが、そうでない場合には話題は流れていく。そこで、ユーザと話し相手とが行ったことのある共通行動を探ることで、より相手が興味を示す話題を生成することができる。このような共通行動分析による話題生成は、共通行動分析部114により行われる。
・共通行動の頻度の差分
 共通行動分析により話題を生成する具体的な方法として、例えば、ユーザ間で共通する行動の頻度の差分から話題性のある行動を抽出する方法がある。例えば、会話するユーザがともに複合施設Mへ行ったことがある場合に、複合施設Mに行く頻度に差があることを話題にすることができる。一例として、図8下側に示すように、世代や所属等でまとめられたある集団において直近1年の間に複合施設Mに行った回数が、大多数は5回以下であったとする。ここで、話題を提供するユーザが複合施設Mに先日初めて行った場合、このユーザは大多数に含まれるが、話し相手は月2、3回複合施設Mに行っている場合、この話し相手は少数側に含まれる。このように、複合施設Mに行く頻度に差がある場合、その頻度の差に関することを話題にしてもよい。
 ここで、ユーザの行動の頻度は、その行動に対する当該ユーザの得意さや興味・関心の強さと関連している。これより、話題を提供するユーザよりも話し相手の方が行っている頻度の高い行動を話題として生成するのがよい。すなわち、共通行動分析部114は、話し相手の得意分野の話題を振るように話題を生成する。仮に、話題を提供するユーザの方が話し相手よりも行っている頻度の高い行動を話題として振ってしまうと、話し相手に知識をひけらかすみたいになるため、このような行動については場を盛り上げるための話題としては控えた方がよい。
 行動の頻度の差分から話題を生成する場合においては、会話するユーザと話し相手とが、共にその行動をとっているということが重要となる。たとえ、話題にする内容が話し相手の得意分野であったとしても、話題を提示するユーザ自身がその内容に興味や関心がなく、ましてや行ったこともなければ、その後の会話は盛り上がり難く、話題提供システム1がユーザへ提供する話題としては適切ではない。
・共通行動に関する下位情報の差分
 共通行動分析により話題を生成する他の方法として、会話するユーザ間の共通行動に関する下位情報の差分を利用した話題の生成もある。例えば、図9下側に示すように、世代や所属等でまとめられたある集団において、ある時間帯に複合施設Mで行った行動をみたとき、多くの人は買い物をしていることがわかったとする。話し相手も、大多数の人と同様、複合施設Mでは買い物をしている。ここで、話題を提供するユーザも通常は買い物で複合施設Mに行くが、研修を受けに複合施設Mに行った場合、複合施設Mに行く目的が通常とは異なっていたことを話題としてもよい。
 この場合にも、会話するユーザと話し相手とが、共にその行動をとっているということが重要となる。例えば、話し相手が複合施設Mに行ったことがなければ、ユーザが買い物ではなく研修を受けに複合施設Mに行ったことを話題にしても、話し相手は複合施設Mが研修施設だと思うだけである。このように、会話するユーザ間の共通行動についてその行動傾向の相違を抽出することで、互いに興味のある内容を話題とすることができる。
 また、行動の目的の相違以外にも、例えば、ある滞留位置までの移動手段の相違も話題生成に利用することができる。例えば、ユーザも話し相手も北海道へ観光に行ったことがあるときに、北海道までの移動手段が異なるような場合、その移動手段の意外性を話題としてもよい。このとき、図10下側に示すような、ある集団での北海道への移動手段の分布から、半数以上の人が飛行機を利用して北海道へ移動している。話し相手も飛行機を利用して北海道へ移動している。一方、話題を提供するユーザはフェリーを利用して北海道へ移動した場合、その移動手段の相違を話題としてもよい。
 この場合も、会話するユーザと話し相手とが大枠では同じ経験をしていることが重要となる。例えば、話し相手が北海道へ行ったことがない場合に「フェリーで北海道に行った」という話題を提供しても、「北海道」と「フェリー」という2つの新規情報を話し相手に同時に与えてしまい、会話のきっかけとしては適していない可能性がある。このような場合には、まず、話し相手に「北海道へ行った」という話題を提示し、話し相手が興味を示した場合のみ「フェリーで移動した」という話に展開するように、段階的に情報を提示するのがよい。
・世間からのずれ
 共通行動分析により話題を生成する他の方法として、例えば、ユーザ間で共通する行動の世間からのずれを抽出する方法がある。すなわち、会話するユーザが共に世間から外れた行動傾向があるような場合である。例えば、会話するユーザがともに競技自転車をやっている場合、日常の移動で自転車を利用するような一般的な人とは自転車利用時間が大きく異なる。例えば図11下側に示すような、世代や所属等でまとめられたある集団において1日あたりの自転車利用時間の分布において、自転車利用時間がある時間以下であるのが大多数であるとする。このとき、会話するユーザの自転車利用時間は共に大多数の人の時間よりもはるかに多く、少数側であるとき、この行動傾向の世間との相違を話題としてもよい。
 この場合では、会話しているユーザと話し相手とに共通する共通行動に関し、それぞれ得意分野であったり興味・関心の強い内容であったりする。したがって、話題を提供するユーザに提示される話題は、相手の様子をうかがうような探り探りの話題ではなく、いきなり核心となる深い話題であってもよい。このように、ユーザ間で共通する行動が世間からずれている場合には、その行動に関する核心的な深い話題を提供するユーザに提示することで、ユーザと話し相手との間にある種の連帯感を生じさせ、会話を盛り上げることが可能となる。
(3)プロファイルのマッチングによる話題生成
 次に、会話をするユーザのプロファイルに基づき話題を生成する方法を説明する。本実施形態に係るプロファイルの生成においては、時系列な位置情報と、行動認識結果とを用いる。
 図12は、ユーザの行動認識結果として得られる、「滞留位置」及び「滞留位置間の遷移」を説明する説明図である。時系列な位置情報からは、図12に示す“滞留1”、“滞留2”等の「滞留位置」と、“滞留1から滞留2への遷移”というような「滞留位置間の遷移」とを区別することができる。この位置に関する情報を用いて、ユーザの趣味、傾向、嗜好等を表すプロファイルを生成することができる。例えば、「滞留位置」及び行動認識結果から、その人がその位置に来た目的、趣味嗜好を詳細に知ることができる。また、例えば、「滞留位置間の遷移」における移動手段の履歴から、その人の行動傾向を知ることもできる。
 プロファイル分析部116は、このようなユーザの趣味、傾向、嗜好等を表すプロファイルを生成し、生成したプロファイルを用いて、会話する各ユーザのプロファイルのマッチングを行い、共通する話題を生成する。
a)プロファイル生成処理
 まず、図13~図18に基づいて、プロファイル生成処理について詳細に説明する。なお、図13は、滞留位置及び行動認識結果からユーザのその滞留位置での目的を表すプロファイルを生成する処理を説明する説明図である。図14は、図13のプロファイル生成処理により取得されたユーザ行動情報テーブル142の一例を示す説明図である。図15~図17は、滞留位置及び行動認識結果から生成されたユーザのプロファイル例を示す説明図である。図18は、アプリ起動履歴と行動認識結果とから生成されたプロファイルの一例を示す説明図である。
・滞留位置と行動認識結果とに基づくプロファイル生成
 プロファイルは、例えば滞留位置と行動認識結果とに基づき生成することができる。滞留位置と行動認識結果とに基づくプロファイル生成処理では、図13に示すように、まず、ユーザの位置情報である緯度経度を場所名情報と場所カテゴリとに変換する。場所名は、地名や施設名等の名称であり、場所カテゴリは、場所のジャンルを表す情報である。
 プロファイル分析部116は、緯度経度と場所名及び場所カテゴリとの対応関係を保持する場所DB(図示せず。)を参照し、緯度経度に基づく場所名変換処理及び場所カテゴリ変換処理を行う。場所DBは、情報処理装置100を備えるサーバ10内に設けられていてもよく、情報処理装置100と通信可能に接続された外部のサーバに設けられていてもよい。プロファイル分析部116は、取得した場所名及び場所カテゴリを、ユーザ行動情報としてプロファイルDB140に記録する。
 また、プロファイル分析部116は、センサ情報を用いて行動認識処理を行い得られた行動認識結果をユーザの行動として取得する。これにより、例えば、歩きや走り等のユーザの行動が取得される行動認識処理は、各種センシング技術を用いて取得されたセンサ情報からユーザの動作行動を認識する技術を用いて行われる。行動認識処理は、情報処理装置100を備えるサーバ10内で行われてもよく、情報処理装置100と通信可能に接続された外部のサーバにて行われてもよい。プロファイル分析部116は、取得した行動認識結果をユーザの行動としてプロファイルDB140に記録する。
 場所名、場所カテゴリ及びユーザの行動情報を取得すると、プロファイル分析部116は、これらの情報に基づいてプロファイルを生成する。プロファイル分析部116は、ユーザがその場所でどのような動きをしているかによって、その場所でのユーザの目的をプロファイルとして取得する。また、予め設定されたプロファイルとプロファイルカテゴリとの関係に基づき、プロファイルが属するプロファイルカテゴリを特定する。
 ここで、図14に、プロファイルDB140に記録されるユーザ行動情報テーブル142の一例を示す。図14に示すように、ユーザ行動情報テーブル142は、例えば緯度経度142a、場所名142b、場所カテゴリ142c、行動情報142d、プロファイル142e、プロファイルカテゴリ142fを含む。場所名142b、場所カテゴリ142c及び行動情報142dに基づきプロファイル分析部116によって分析した結果が、プロファイル142e、プロファイルカテゴリ142fとして記録される。例えば、「ABCスキー場」において「ジャンプ、ターン」という行動が行われていたという情報から、プロファイル分析部116は「スノースポーツ」が行われていたと分析する。「スノースポーツ」は「アクティブスポーツ」のカテゴリに属する。
 このように、プロファイル分析部116は、滞留位置と行動認識結果とに基づき、その位置でのユーザの目的を取得する。
・滞留位置の遷移に基づくプロファイル生成
 また、プロファイルは、例えば滞留位置間の遷移における移動手段の履歴に基づき生成することができる。滞留位置の遷移に基づくプロファイル生成処理で得られるプロファイルは、その人の行動傾向を表している。
 位置情報である緯度経度から、同一箇所にしばらくとどまっている地点を特定し集約した場所が滞留位置である。そして、滞留位置の遷移時の移動手段の履歴より、ユーザがある滞留位置から次の滞留位置までどのように移動したかを特定できる。このとき、2つの滞留位置間の往復や複数の滞留位置の周回等のような、滞留位置の遷移を時系列に見たときの特徴的な動きを特徴行動として認識してもよい。滞留位置の遷移、滞留位置の場所名、及び移動手段は、情報処理装置100を備えるサーバ10内で行われてもよく、情報処理装置100と通信可能に接続された外部のサーバにて行われてもよい。プロファイル分析部116は、これらの情報を処理結果として取得する。また、プロファイル分析部116は、季節や時刻等の時間情報を合わせて取得してもよい。
 プロファイル分析部116は、滞留位置の遷移及び移動手段を分析して行動傾向を特定し、ユーザのプロファイルとする。また、予め設定されたプロファイルとプロファイルカテゴリとの関係に基づき、プロファイルが属するプロファイルカテゴリを特定する。プロファイル分析部116は、これらの情報をプロファイルDB140に記録する。
 図15~図17に、ユーザの行動傾向に関するプロファイルを記録する行動傾向テーブル144A~144Cの例を示す。図15~図17に示すように、行動傾向テーブル144A~144Cは、例えば、滞留位置の遷移(緯度経度)144a、滞留場所の遷移(場所名)144b、移動手段144c、特徴行動144d、時間情報144e、プロファイル144f、プロファイルカテゴリ144gを含む。滞留位置の遷移144a及び移動手段144cによって分析した結果が、プロファイル144f、プロファイルカテゴリ144gとして記録される。例えば、「自宅」から「職場」まで「電車」で移動している場合、プロファイル分析部116は「通勤に電車を利用する人」と分析する。「通勤に電車を利用する人」は「電車通勤族」のカテゴリに属する。
 このように、各ユーザについて時系列で滞留位置間の遷移とその移動手段を見ると、生活スタイル等のユーザの行動傾向が取得できるようになる。例えば、ユーザAは、図15に示すように「平日の通勤は電車、休日は自動車でドライブ」の行動傾向があることがわかる。また、ユーザBは、図16示すように「平日の通勤は電車、職場帰りに寄り道をする」という行動傾向があることがわかる。そして、ユーザCは、図17示すように「平日の通勤あるいは仕事は自動車を利用、休日の外出は電車を利用する」という行動傾向があることがわかる。
・アプリ起動履歴及び行動認識結果に基づくプロファイル生成
 上記以外に、例えばユーザが利用するスマートフォンやウェアラブル端末等にインストールされたアプリケーションの起動履歴と行動認識結果とを用いてプロファイルを生成することも可能である。例えば、図18に、アプリ起動履歴及び行動認識結果に基づき得られたプロファイルを記録するユーザ行動情報テーブル146の一例を示す。
 ユーザ行動情報テーブル146は、図18に示すように、例えば、アプリ起動履歴146a、行動情報146b、特徴行動146c、時間情報146d、プロファイル146e、プロファイルカテゴリ146fを含む。アプリ起動履歴146a及び行動情報146bによって分析した結果が、プロファイル146e、プロファイルカテゴリ146fとして記録される。例えば、「音楽再生」アプリを起動しているときに「走っている」行動が特定された場合、プロファイル分析部116は「ジョギング」をしていると分析する。「ジョギング」は「アクティブスポーツ」のカテゴリに属する。
 このように、プロファイル分析部116は、アプリ起動履歴と行動認識結果とに基づき、ユーザの行っている行動を詳細に特定することができる。
b)プロファイルマッチング処理
 次に、図19及び図20に基づいて、本実施形態に係るプロファイルマッチング処理について詳細に説明する。なお、図19は、プロファイルのマッチングにより提示する話題を決定する処理を説明する説明図である。図20は、ユーザ同士の親密度と開示情報との関係を示す説明図である。
 プロファイル分析部116は、上述のように取得されたプロファイルを用いて、会話をしているユーザのプロファイルをマッチングし、適切な話題を生成する。ユーザの位置情報である緯度経度情報を用いて話題を提供する場合、各ユーザで同一の位置情報に関する話題を提供するように処理するのが一般的である。しかし、位置情報が同一であっても、例えばその位置でのユーザの目的が異なる場合には、位置情報に関する話題はユーザに共通する話題とはなり難く、提供する内容として適切でない場合もある。そこで、本実施形態では、会話をしているユーザのプロファイルを用い、共通のプロファイルを特定することでより適切な話題の提供を行うことを可能にする。
 例えば、図19に示すようなユーザA、B、Cのプロファイルがあったとする。ここで、ユーザAとユーザBとの会話における話題の提供として、位置情報(緯度経度あるいは場所名)のみを考慮すると、位置情報が同一である「ABCスキー場」に関する話題を提供してしまう。しかし、「ABCスキー場」におけるユーザAの目的は「スノースポーツ」であり、ユーザBの目的は「トレッキング、山登り」である。したがって、「ABCスキー場」に行ったことがあるという話題を提示しても、この共通点だけで話題が終わってしまう可能性もある。
 そこで、プロファイル分析部116は、ユーザAとユーザBのプロファイルのマッチングを行い、話題を生成する。ユーザAとユーザBのプロファイルには、「サーフィン」という共通内容がある。ユーザA、Bがサーフィンを行った場所は異なるが、プロファイルの一致により、「サーフィン」という共通の趣味を見出すことができる。趣味のような得意分野や興味・関心の強い内容は、ユーザと話し相手との間にある種の連帯感を生じさせ、会話を盛り上げやすい。このように、プロファイルをマッチングすることで、ユーザに対して適切な話題を提供することが可能となる。
 また、例えば、ユーザAに対して、ユーザBとユーザCのどちらかを話し相手としてお勧めする場合を考える。このとき、位置情報(緯度経度あるいは場所名)のみを考慮すると、図19に示す内容から、ユーザAに対して、同一の位置情報があるユーザB、ユーザCをそれぞれお勧めする可能性が高い。しかし、その位置におけるユーザの位置が異なるため、話題としては適切でない可能性がある。
 そこで、プロファイル分析部116は、ユーザB及びユーザCについてユーザAとプロファイルをそれぞれ行い、プロファイルあるいはプロファイルカテゴリが一致するユーザを話し相手としてお勧めする。図19の例では、ユーザAと、「サーフィン」、「アクティブスポーツ」という内容が同一のユーザBを話し相手としてお勧めすることになる。これにより、共通する話題を多く持っていると考えられる人物をユーザAにお勧めすることができる。
 ここで、図19や図14~図18に示した位置情報に関する情報のうち、場所名や場所カテゴリ、滞留位置間の遷移は、個人の特性が現れた情報であり、初対面やあまり親しくない人には開示したくない場合もある。例えば、自分がよく行く場所を開示したくない、とユーザが思うこともある。このような場合にも、プロファイルやプロファイルカテゴリは、情報の粒度が粗くなっており、この情報だけでは個人を特定しにくいため、話題生成に際して利用する情報として適切である。したがって、相手に多くの情報を開示したくない状況では、プロファイルカテゴリをマッチングする情報とするのがよい。
 一方で、相手に多くの情報を開示してもよい状況では、プロファイル分析部116は、情報を段階的に開示するように制御してもよい。例えば、話し相手との親密度が高くなるほど具体的な情報を開示するようにしてもよい。図20に示すように、会話するユーザの親密度が低いうちは、プロファイルカテゴリ、プロファイルが開示され、これらの情報に基づき話題が生成される。そして、親密度が高くなると、場所カテゴリ、場所遷移、場所名が段階的に開示され、より個人に合った話題を生成できるようにする。このような段階的な情報の開示により、各ユーザのプライバシーも考慮された、ユーザ間の親密度に合った自然な話題を提示することが可能となる。
 以上、ステップS110における話題生成処理について説明した。なお、本実施形態に係る話題提供システム1にて実行される話題生成処理は、上述の例に限定されず、他の方法で話題を生成してもよい。
 例えば、センサ情報を活用して、話し相手の変化を話題として提供することも可能である。話し相手の話を聞き、適切に話題を提供する等、会話により円滑にコミュニケーションを図ることのできる会話力の高い人は、相手の外見の変化をすぐに見つけ、話を広げていく。例えば、「あれ?髪切った?」「あれ?痩せた?」「焼けたね!」等相手の変化に気づき、「体鍛えているの?」「どこか行ったの?」等と話を広げていくことができる。そこで、例えば、認識器が、前回会った時の相手の画像と現在の相手の画像とを比較して、ハイライト検出することで、ユーザに相手の変化を気付かせるようにしてもよい。もしくは、相手が変化に気付きにくいタイプの人であれば、変化に気付くように自身の行動ログをヒントとして相手に与えてもよい。例えば、ヘアスタイルを変えた等のように、自分からは言わないが気付いてほしい場合に相手にそのヒントを与えてもよい。
 しかし、話し相手との関係性によっては、気付いているがあえて話題にしないことも多々ある。外見の変化を話題にするのが適切かどうかは相手次第であるため、ユーザはヒントが与えられたとき、これまでの会話の内容や相手との関係に応じて、話題として選択するようにするのがよい。
 [3.2.話題提案処理]
 ステップS110にて話題が生成されると、図3に示すように、話題提案部120により生成された話題からユーザに提供する話題が抽出される(S120)。
(1)会話コミュニケーションのプロセス
 ステップS120の処理の考え方として、まず、図21に基づいて、ユーザ間の会話コミュニケーションのプロセスを説明する。図21は、ユーザ間の会話コミュニケーションのプロセスの概念図である。
 会話コミュニケーションをする理由や期待する効果はユースケースにより様々であるが、すべてのユースケースに共有することとして、良好に会話コミュニケーションを継続していくということは傾聴・承認のステップを良好に繰り返すことといえる。会話コミュニケーションをする理由としては、以下の3つが考えられる。
 ・「無関心」:相手に関心がないので、コミュニケーションが成立しない状態
 ・「相手への関心を持つ」:相手に関心をもち、相手を理解しようと試みる状態
 ・「相手から関心を持たれたい」:相手にも自分を理解してもらおうと試みる状態
 ユーザが話し相手に「無関心」の状態では、会話コミュニケーションは時間潰しとして行われたりするが、「相手への関心を持つ」の状態となると、ユーザは相手の話に傾聴したり、質問したりするようになる。さらに、ユーザが「相手から関心を持たれたい」と思うようになると、自分の話を聞いてほしいと思い、説明するようになる。すなわち、図21に示すように、「相手への関心を持つ」、「相手から関心を持たれたい」という状態であれば、会話コミュニケーションは容易であり、相手への関心が高まるにつれて話題提供システム1による話題提供を受けなくとも会話が弾むようになる。この状態は、両者がそれぞれに関心を持つステップといえる。
 一方で、「無関心」から「相手への関心を持つ」までの状態は、相手への関心が低いため、このままの状態が続けば時間の経過とともに互いの関心は低下していく。この状態は、無関心から話し相手に関心を持ってもらい、会話コミュニケーションを好循環させるためのステップと考えられる。そこで、話題提供システム1では、適切な話題を提供し、話し相手に対する関心の強さを会話コミュニケーションが好循環する状態にするためのサポートを行う。
(2)場の盛り上がりの評価
 本実施形態では、コミュニケーションを良好に継続させるための評価指標として、「場の盛り上がり度」を導入する。「場」とは、一時的に形成されるコミュニケーションイベントを表す。図22に、コミュニケーションの場と当該コミュニケーションへの参加者との概念を示す。図22では、参加者A、B、Cの3名によって一時的なコミュニケーションの場が形成されている。各参加者の盛り上がり度によって、場の盛り上がり度が変化する。ここで、場の盛り上がり度Hは、以下の式(1)で表される。env(t)は、時間の経過による場の盛り下がりを表す環境変化である。場の盛り上がり度Hは、各参加者の盛り上がり度H、H、Hによって変化する。
Figure JPOXMLDOC01-appb-M000001
 ここで、参加者A、B、Cはパーティの参加者であり、参加者Cは幹事役であるファシリテータとする。また、参加者Aは参加者Bに対して好意を持っているとする。参加者Aの盛り上がり度Hは、下記式(2)のように、参加者Aが参加者Bへ好意をもっていることを表す参加者Aから参加者Bへの関心度IABと、参加者Bから参加者Aへの関心度IBAと、ある時刻t-1での場の盛り上がり度H(t-1)で表すことができる。ここで、^は、誤差を含む推定値であり、WAPは重み係数である。
Figure JPOXMLDOC01-appb-M000002
 参加者Bの盛り上がり度Hも同様に、下記式(3)で表される。
Figure JPOXMLDOC01-appb-M000003
 また、幹事役の参加者Cの盛り上がり度Hは下記式(4)で表される。係数a、b、WCPは、参加者Cのモチベーションによって変化する係数である。例えば、参加者Cが場の盛り上げにのみ貢献する場合には、参加者A、Bの関心度は関係ないため、係数b、cはゼロとなる。また、参加者Cに、参加者Aと参加者Bとのコミュニケーションが円滑に行われることにモチベーションがある場合は、係数a、b、WCPに所定の値が設定される。
Figure JPOXMLDOC01-appb-M000004
 ここで、上記式(2)~(4)の参加者Bの参加者Aに対する関心度IBAは、下記式(5)で表される。会話コミュニケーションに関係する項としては、参加者Aが場に投入する話題TopicAPと投入タイミングTopicTimingAPである。αは会話コミュニケーション以外の要素であり、例えば容姿等の印象である。
Figure JPOXMLDOC01-appb-M000005
 また、参加者Bが推定する、参加者Aの参加者Bに対する関心度IAB^(式(6)においてIABの上に^が付されたものを指す)は下記式(6)で表される。ReactionABは、参加者Bが場に投入した話題に対しての参加者Aの反応であり、例えばセンサ情報等を用いて、各参加者の話題への参加率、笑顔、笑い声等の頻度から推定することができる。話題への参加率は、例えば、発言や相槌等の回数や頻度等に基づき表すことができる。
Figure JPOXMLDOC01-appb-M000006
 上記式(1)及び式(6)より、場に投入する話題を適切に選択することで、盛り上がり度H、H、Hを良好な状態に保てることがわかる。また、式(1)は、下記式(7)として表すことができる。ここでTopicXPは各参加者が場に投入する話題を表し、TopicTimingXPは投入した話題のタイミングを表し、Reactionを含む関数をTopic関数としてまとめている。またWは重み係数である。
Figure JPOXMLDOC01-appb-M000007
 話題提供システム1では、以上のような値を話題選択のための評価値として用いる。これらの値は、情報処理装置100の話題提案部120の盛り上がり度算出部122により算出される。盛り上がり度算出部122は、算出した値を話題抽出部124へ出力する。
(3)話題の選択方法
 次に、図23に基づき、話題抽出部124によるユーザへ提示する話題の選択方法について説明する。なお、図23は、本実施形態に係る話題選択方法を示すフローチャートである。話題抽出部124は、盛り上がり度算出部122により算出された上記評価値を用いて、話題生成部110にて生成された話題からユーザへ提示する話題を抽出する。図23に示す処理は、例えば話題が場へ投入されたタイミングで実行される。
 図23に示すように、場に話題が投入されると、話題抽出部124は、まず、話し相手の反応情報を取得する(S121)。反応情報は、投入された話題に対する話し相手の反応を表す情報であり、例えば、笑顔や笑い声、うなずき、相槌等がある。これらの反応情報は、各種センサ情報として随時取得可能な情報であるとする。具体的には、「うんうん。」というような相手のうなずきや、「それで?」、「おもしろね」、「へー」、「なるほど」等の相手の相槌、相手からの関連情報の提示やその提示頻度等である。
 話題抽出部124は、投入された話題に対する話し相手の反応情報を取得すると、このときの場の盛り上がり度Hを算出する(S123)。場の盛り上がり度Hは、上記式(6)により算出可能である。そして、話題抽出部124は、場の盛り上がり度Hを算出すると、今回の話題の投入により場が盛り上がったか否かを判定する(S125)。ステップS125は、場の盛り上がり度Hが所定の閾値(以下、「盛り上がり度閾値」ともいう。)を超えたか否かによって判定される。盛り上がり度閾値は、シチュエーションに応じて適宜設定される。
 ステップS125にて場の盛り上がり度Hが盛り上がり度閾値以上であった場合には、投入された話題により場が盛り上がったと判定し、話題抽出部124は、現在の話題の関連情報を、参加者に対して提示する話題の選択肢に増やす(S127)。一方、場の盛り上がり度Hが盛り上がり度閾値よりも小さかった場合には、投入された話題によっては場は盛り上がらなかったと判定し、話題抽出部124は、現在の話題からの話題の切り替えた方がよいと判断し、参加者に提示する話題の選択肢に新しい話題を増やす(S129)。
 以上のような処理により、話題生成部110にて生成された様々な話題から、場の盛り上がりに応じた話題を抽出し、参加者に提示するようにする。なお、ステップS125の評価において、話題の継続時間をさらに考慮してもよい。同一または関連する話題が継続して行われているときには場は盛り上がっており、次々と異なる話題が提示されていくときは、場があまり盛り上がっていないと考えることができる。
(4)話題投入による場の盛り上がりへの期待
 ここで、話題投入による場の盛り上がりへの期待を期待度として参加者へ提示してもよい。これにより、参加者は、各話題について、投入した際の場の盛り上がりの大きさを想定しつつ投入する話題を選択することが可能となる。
 図24に、話題に対する期待度の分布例を示す。図24上側に示すように、ある集団における行動傾向の分布があるとする。例えば、この分布において点Pに該当する人に対しては、図24下側の分布2の傾向のある、一般的に当たり外れの小さい話題を選択するようにする。具体的には、天気等の一般的な話題であり、場が盛り上がる効果はそれほど高くないが、外れる可能性も小さい話題が該当する。一方、図24上側の分布において点Qに該当する人に対しては、図24下側の分布1の傾向のある話題を提供するのがよい。分布1のように、分布の広がりが大きく、プラスの効果もマイナスの効果も想定されるような話題は、例えば専門的な話題等が該当する。このような話題は、場が大きく盛り上がる可能性もあり得るが、場が大きく盛り下がる可能性もある。
 このような話題投入による場の盛り上がりへの期待度を参加者に提示することで、話し相手の嗜好を理解することで、よりプラスの効果が期待できる話題を選択することが可能となる。例えば、場への参加者に共通の得意分野があり、深い内容についても理解できる相手の素養を知っていれば、話題としてよりプラスの効果が期待できそうな分布3の効果を持った話題を選択することもできる。なお、この分布3は、分布1と似ているが、分布1の話題よりもプラスの効果が期待できるとして分布1を全般に右側にシフトさせたものとなっている。このため、話題が外れる可能性も否めない。例えば、専門的な話であっても、好みや同じ専門領域での細かな分野の違い等の違いによって、話題が盛り上がらない可能性もある。
 また、例えば、話し相手が強い関心を示した話題の関連情報も、同様に全般に右側へシフトする。すなわち、一般的な話題の分布である分布2は、それほど大きくなくとも確実に場を盛り上げるという傾向を示しており、相手が高い関心を示した話題の関連情報については、より確実に場を盛り上げると考えられることから、分布2を全般に右側にシフトさせた分布4のようになると考えられる。関連情報の期待度は、提示された話題との相関が高いほど、より右側にシフトする。なお、繰り返し回数が多いと、相手の関心も低下する可能性があり、この場合全般に左側にシフトする可能性もある。
 このような場の盛り上がりへの期待を表す期待度の算出は、話題提案部120の期待度算出部126により行われる。期待度算出部126は、算出した結果を、話題提示処理部130へ出力する。
(5)話題の投入タイミング
 図23の処理に沿って上述したように、話題提供システム1は、コミュニケーションの場への話題の投入と評価を繰り返して、会話が好循環する状態となるようにサポートする。図25に、話題の投入と場の盛り上がり度との一関係を示す。場の盛り上がり度Hは、上述したように、式(1)に基づき算出される。式(1)において、環境項env(t)は時間に比例して盛り上がり度を下げ、離散的に投入される話題により盛り上がり度は押し上げられる。したがって、盛り上がり度の時間推移をみると、図25に示すように、話題が投入されると一時的に盛り上がり度が上昇し、その後時間が経過するにつれ盛り上がり度が低下するという動きを取ることがわかる。
 例えば、会話が好循環する領域を場の盛り上がり度が40以上の領域とすると、図25に示す例においては、3つ目の話題が投入されたタイミングで盛り上がり度が40を超える。盛り上がり度が好循環の領域に入ると、環境項env(t)による盛り上がり度を維持または上昇させるものとなり、本システムによるサポートがなくとも良好なコミュニケーションの場を維持することができるようになる。仮に、3つ目の話題が投入されないと、コミュニケーションの場は自然と盛り下がっていく。話題提供システム1では、話題を適切に投入させて話題が投入されなくとも良好なコミュニケーションが取れている状況を作り出すことを目的としている。
 話題提供システム1によるコミュニケーションの場への参加者へのサポートは、シチュエーションに応じて変化させてもよい。例えば、相手から関心を持たれたいという状況でなければ、相手に関心を持つことができる程度まで参加者へのサポートを行えばよい。また、例えば、相手から関心を持たれたい場合には、その状況となるまで場が盛り上がるように参加者をサポートするようにする。
 例えば、図26に示すように、相手から関心を持たれたいという状況でなければ、話題提供システム1は、場の盛り上がり度が、参加者同士が関心を持つステップの目標期待度Pa(例えば、盛り上がり度40~100)となるまで参加者をサポートする。ある参加者が相手から関心を持たれたい状況であれば、話題提供システム1は、場の盛り上がり度が、参加者同士が互いに関心を持たれたいと思うステップの目標期待度Pb(例えば、盛り上がり度100超)となるまで参加者をサポートする。
(6)提示する話題への重み付け
 話題提案部120は、話題抽出部124により話題を抽出するにあたり、シチュエーションを分析して、提案する話題に重み付けを行ってもよい。これにより、より状況に適した話題を提案することが可能となる。
 コミュニケーションの場のシチュエーションとしては、図27に示すように、場に参加する参加者に共通する共通イベントに対して、共通イベント前の状態(状態A)、共通イベント中(状態B)、共通イベント後(状態C)の3つに大別できる。図28に、具体的なシチュエーションの例を示す。
 例えば、結婚披露宴を待つ前室においては、その場にいる人同士を取り持つファシリテータは不在であり、結婚披露宴が始まるまでの時間をつぶすために、例えば偶然隣に座った人と1対1で会話をすることがある。このシチュエーションは、結婚披露宴という共通イベント前の状況であるから、図27の状態Aに相当する。一方、結婚式の二次会までの時間潰しは、結婚式披露宴という共通イベントの終了後の状況であるから、図27の状態Cに相当する。
 また、例えば、歓迎会の帰りの電車の中では、帰宅方面が同じ人がその場にいるが、あまり親しくない人と二人だけになることもある。このような場合は、無言状態を避けたいために会話をするというシチュエーションであり、歓迎会という共通イベントの終了後の状況であるから、図27の状態Cに相当する。さらに、例えば合コンは、出会いを求める人が参加するパーティであり、通常、その場を取り纏める幹事役のファシリテータが存在する。合コンでは初対面の人同士もいるが、親密になろうとするモチベーションは高いと思われる。合コンというシチュエーションは、共通インベント中であるから、図27の状態Bに相当する。
 このようなシチュエーションをコミュニケーションの場の状態情報として利用すると、話題を継続させるのがよいか、それとも、話題を追加したり転換したりするのがよいか、提示する話題の方向性に重み付けをし、調整することが可能となる。図29に、シチュエーションに応じた話題の方向性の例を示す。図29では、図27に示した状態A~Cについての話題の方向性を示している。
 図29に示すように、共通イベント前の状態Aは、互いの関心を引くような話題を探索するフェーズである。したがって、話題を継続するよりも、相手の関心のある話題を探るために、提案する話題に新しい話題を追加して話題を提案するのがよい、相手の関心度が低い場合には、新しい話題への転換を促すのも有効である。適切な話題が見つかったら、その話題を継続するようにしていく。
 また、共通イベント中の状態Bでは、共通イベントによって話題は提供されるので、新しい話題の追加や転換の提案は基本的に行わなくともよい。この状態では、話題提供システム1は、関連情報を提示し、話題を継続するようにしていくようにする。
 そして、共通イベント後の状態Cでは、共通イベントでの出来事を振り返ることで、話題は既に多くある。このような状態では、話題提供システム1は、関連情報を提示して話題を継続していくように機能するのがよい。
 このように、コミュニケーションの場の状態がわかることで、話題提供システム1は、より適切な話題を提供することが可能となる。
 [3.3.話題提示処理]
 ステップS130にて提示する話題が抽出されると、図3に示すように、話題提示処理部130により、ユーザに話題を提供するための処理が行われる(S130)。話題提示処理部130は、その場の状況により、本人、または話題を共有している複数人に話題を提示する。
(1)個人への話題提示
 まず、話題提供システム1がある個人へ話題を提示する場合について説明する。個人への話題の提示方法としては、例えば、視覚的な提示方法として、グラス型ウェアラブル端末の表示パネルに話題を提示したり、個人が保持する機器や空間にあるLEDを発光させたりして話題を提示することが考えられる。また、聴覚的な提示方法として、例えばイヤホンやオープンスピーカ等を用いることもでき、聴覚、力覚的な提示方法として、例えば振動や温度等を利用することもできる。個人に対して話題を提示する場合は、周囲に気付かれないようにさりげなく話題を提示できるようにしてもよい。
 図30に、グラス型ウェアラブル端末の表示パネルに話題を提示する例を示す。図30は、ユーザが装着するグラス型ウェアラブル端末の表示パネルに、話題をカード形式で表示させる例である。表示パネルには、現在進行している話題のカードTnowと、現在の話題の関連情報のカードTr、新規話題のカードTnew-A、Tnew-B、Tnew-Cが表示されている。関連情報のカードTr、新規話題のカードTnew-A、Tnew-B、Tnew-Cの奥行きは、その話題に関する関連情報の広がりを示している。このとき、場の盛り上がり度や提示されている話題の投入時の期待度等を、表示パネルや、その他の提示方法によりユーザに提示してもよい。
 ユーザは、提示された話題のカードを参考に、話題を提供することができる。ユーザが選択した話題は、新たな現在進行中の話題となり、話題投入による場の盛り上がり度等が算出された後、新たな関連情報及び新規話題が表示パネルに表示される。
(2)複数人への話題提示
 次に、話題提供システム1がコミュニケーションの場に参加している複数人へ話題を提示する場合について説明する。複数人への話題の提示方法としては、例えば、視覚的な提示方法として、プロジェクタによりテーブルトップ等の投影面に話題を提示することが考えられる。また、聴覚的な提示方法として、例えばスピーカ等を用いることもでき、触覚的な提示方法として、例えば空調やテーブル等の温度の調整を行うことも可能である。複数人に対して話題を提示する場合は、話題の提示まで含めて場を盛り上げるようなエンターテインメント要素も付与することも可能である。
 図31に、プロジェクタによりテーブルトップにトピックカードとして話題を提示する例を示す。この例では、テーブルトップに、現在進行中の話題のカードと、現在進行中の話題の関連情報のカード及び新規話題のカードとが表示されている。テーブルトップには、現在進行中の話題のカードが表示される場があり、コミュニケーションの場に参加しているユーザA、Bの手元に表示された関連情報のカードあるいは新規話題のカードをユーザが場に向かってスワイプすることで、話題を場に投入する。このとき、各ユーザA、Bがお互いの持っているカードの話題は見えている。このように、場に投入する話題候補を互いに見ることができるようにすることで、エンターテインメントを与えることができる。
 さらに、この場の盛り上がり度や、話題を支配しているユーザ名、話題の盛り上がりへの貢献度等の情報を参加者に提示してもよい。例えば、盛り上がり度算出部122により算出された盛り上がり度の推移を提示してもよい。例えば、図32に示すように、場の盛り上がり度の推移をグラフ表示してもよい。このとき、話題を投入した話者を認識できた場合に話題提案者を表示してもよい。さらに、提案された話題を認識できた場合には、話題をタグ表示してもよい。話題の表示は、センサ情報に基づき自動的に認識するようにしてもよく、参加者等が手動で入力してもよい。この盛り上がり度の推移は、参加者全員が見ることのできる共有表示でもよく、この場にファシリテータが存在する場合には、ファシリテータだけに個人表示するようにしてもよい。ファシリテータは、これらの情報を参考に、さらに場を盛り上げるための行動をとることが可能となる。
 また、話題への貢献度を参加者ごとに提示するようにしてもよい。かかる情報も、参加者全員が見ることのできる共有表示でもよく、この場にファシリテータが存在する場合には、ファシリテータだけに個人表示するようにしてもよい。ファシリテータは、話題への貢献度を見ながら、さりげなくしゃべっていない人に会話を振るように仕向けるような行動をとることが可能となる。
 さらに、話題提供システム1の話題提示処理部130に、盛り上がる話題を提示した場合にその人を褒めるような機能を備えるようにしてもよい。盛り上がる話題を提示した人を褒める提示としては、例えば、グラス型ウェアラブル端末の表示パネルに「Good!」と表示させたり、頭をなでられるような振動を再生させたりすることが考えられる。また、表示パネル等に表示されたアバターが微笑むような表示にしたり、LEDを緑色に点灯させたりして、ユーザを褒めることも可能である。
 逆に、提供した話題によって場が盛り下がった場合の演出をするようにしてもよい。この場合、例えば、グラス型ウェアラブル端末の表示パネルに「Bad↓」と表示させたり、頭をこづくような振動を再生させたりしてもよい。また、表示パネル等に表示されたアバターがしかめっ面となる表示にしたり、LEDを赤色に点灯させたりして、ユーザに場の盛り下がりを提示することも可能である。
 上述のグラフ表示や貢献度表示は、それ自体が会話の話題になる可能性もある。ここに特化して場を盛り上げる演出を行うようにしてもよい。例えば、空調を利用して、場が盛り下がった場合には、しーんとしたことを強調するために空調の音を大きくしたり、冷房が入ったりするようにしてもよい。また、光源を利用して、場の雰囲気をスポットライトで演出してもよい。例えば、場が温かい雰囲気の場合には、暖色の照明を照らしたり、投入された話題がおお外ししたときに暗転させたりすることなどがある。さらに、音を利用して、例えばシリアスな会話時に、場の参加者に対して、自分の鼓動やそれより少し早い鼓動音を聞かせるようにしてもよい。
(3)提示方法の変形例
・話題の提示方法
 本実施形態に係る話題提供システム1による話題の提示方法は、図30や図31に示した例に限定されず、例えば、情報の提示は文字に限定されない。例えば、アイコン表示によりユーザに話題を提示するようにしてもよい。具体的には、自転車に関する話題を示す場合には自電車の絵のアイコンを表示させたり、過去のエピソードを話題とすることを提示する場合には、そのイベント時の写真を表示させたりしてもよい。
 また、矢印によって話題の提示を行ってもよい。例えば、図33に示すように、グラス型ウェアラブル端末の表示パネル20を介してユーザが話し相手を見ている時、話題提供システム1にて話し相手が髪を切ったことが認識された場合に、話し相手の髪を指す矢印22を表示させて、話題を提示してもよい。このように、表示部に表示されている情報に話題となるものがあれば、それを矢印で指すことで、話題を提示することができる。
 さらに、提示する話題は、図30に示すように等列に表示しなくともよく、例えば図34に示すように、話し相手が複数いる場合に、各話し相手に合った話題をそれぞれ人物に対応付けて表示させるようにしてもよい。これにより、視覚的に各話し相手に合った話題を認識することができる。なお、すべての話し相手に共通する話題であれば、例えば画面中央に表示させるようにしてもよい。
・話題の表示タイミング
 また、話題は常時提示しなくともよく、話題を提示すべきときだけカードがグラス型ウェアラブル端末やテーブルトップ上に自動的に提示されるようにしてもよい。あるいは、ユーザの指示を受けた場合にのみ、話題を提示するようにしてもよい。例えば、ユーザが話題を表示させるための特定のアイコンに対して目線を合わしたりコントローラでカーソルを合わせたりした時だけ、話題がグラス型ウェアラブル端末やテーブルトップ上に提示されてもよい。
・話題の提示先
 さらに、話題の提示先は、グラス型ウェアラブル端末やテーブルトップに限定されるものではない。例えば、抽出された話題候補の一覧を個人所有のスマートフォンやタブレット端末、バンド等の機器上に表示させてもよい。なお、これら機器に話題を提示した場合、ユーザが話題の提示に気付かない可能性もある。そこで、例えば話題準備完了時にユーザに通知し、ユーザが提示された話題を見るように誘導してもよい。具体的な通知方法としては、当人の機器のみ音を鳴らすようにしたり、鐘の音等によって全員に話題切り替えタイミングを教えるような演出をしたりしてもよい。あるいは、ユーザが装着するバンドを振動させて通知してもよい。また、音声通知と表示通知とを組み合わせて、インデックスだけ音声で伝え、一覧取得を画像として取得させるようにしてもよい。
・表示/非表示の演出
 また、図31に示したテーブルトップ上に話題を表示させた場合等のように、会話に参加する複数人がそれぞれカードを見ることができる場合に、各参加者の目線や動作を基に、カード表示に演出を加えてもよい。例えば、ユーザが自分の手持ちのカードをじっと見るとそのカード群を展開させ、ユーザがカード群から目線を外すとカード群が集約されるようにしてもよい。あるいは、図35に示すように、他のユーザが自分の手持ちのカードを覗き込む動作を検出したとき、カードを隠すパネル30(31、33、35、37)を表示させて、各カードをパネル30の後に回して隠すようにしてもよい。なお、カード群の展開、集約、隠し表示等は、ユーザの視線に基づき行ってもよく、コントローラ等を用いて操作してもよい。
・ゲーム性の強調
 さらに、ゲーム性を強調するために仮想の司会役を設定してもよい。例えば、各プレーヤー(参加者)は仮想の司会役に話題を提出し、司会がそれぞれから提出された話題を選択するようなシステムでもよい。司会役は、多数決やランダムで話題を選んでもよい。もちろん、この司会をファシリテータに置き換え、手動により選択するようにしてもよい。
・ユーザによる話題選択の認識
 上述した関連話題の提示や統計表示のためには、これまで何の話題が選択されたかを話題提供システム1が知る必要がある。この認識は、単語等をもとにした自動認識により行ってもよい。あるいは、テーブルトップ等へのタッチ操作や、ユーザが装着するブレスレット等のスライド操作、機器のタップ操作、視線操作、目線で選択してうなずきで話題を決定する操作等といった各種操作を手動認識し、選択された話題を認識してもよい。
 また、これらの話題選択の自動/手動認識が実現できれば、話題を掲示したのに選択されなかったときの強調表現等、「話題の選択を基にした演出」が可能になる。例えば、表示されたカードを震えさせたり、明滅させたりすることで、選択された買った話題を強調させることができる。また、選択されなかった場合に、ユーザに振動を与え、話題を選択することを促すようにすることもできる。このような話題が選択されなかったときの演出は、例えば、話題が提示されてから一定時間経過した場合や、会話がなくなった場合等に実行されてもよい。
 <4.まとめ>
 以上、本実施形態に係る話題提供システム1の構成と、これによる話題提供方法について説明した。本開示によれば、話題提供システム1の情報処理装置100は、ユーザのある行動と、当該行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成し、生成した話題からユーザに提案する話題候補を決定する。そして、情報処理装置100は、話題を提供するコミュニケーションの場に応じた適切な話題を提案する。これにより、ユーザはあまり面識のない人とのコミュニケーションにおいても、相手とアイスブレイクするための話題を得ることができ、良好なコミュニケーションを取ることが可能となる。
 <5.ハードウェア構成>
 次に、図36を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図36は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるサーバ10を実現しうる。
 情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
 出力装置917は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、例えばCPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器を情報処理装置900に接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
 通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
 撮像装置933は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 センサ935は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GNSS(Global Navigation Satellite System(s);全地球航法衛星システム)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 <6.補足>
 本開示の実施形態は、例えば、上記で説明したような情報処理装置(例えばサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、
 生成された前記話題からユーザに提案する話題候補を決定する話題提案部と、
を備える、情報処理装置。
(2)
 ある行動に関する前記ユーザの日常的な行動を前記比較情報として、
 前記話題生成部は、直近の前記ユーザの行動が当該ユーザの日常的な行動と異なる場合、前記直近のユーザの行動の内容を話題として生成する、前記(1)に記載の情報処理装置。
(3)
 ある行動に関する前記ユーザの過去の行動傾向を前記比較情報として、
 前記話題生成部は、直近の前記ユーザの行動傾向が当該ユーザの過去の行動傾向から変化している場合、当該ユーザの行動傾向の変化を話題として生成する、前記(1)または(2)に記載の情報処理装置。
(4)
 ある行動に関する前記ユーザの過去の行動傾向を前記比較情報として、
 前記話題生成部は、前記ユーザの過去のある区間における行動傾向が、当該ユーザの過去の他の区間における行動傾向及び直近の前記ユーザの行動傾向と異なる場合、当該ユーザの行動傾向の変化を話題として生成する、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
 前記ユーザと前記話し相手とが行ったことのある共通行動に関する、前記話し相手の行動傾向を前記比較情報として、
 前記話題生成部は、ある共通行動に関する前記ユーザの行動と前記話し相手の行動傾向とが異なる場合、前記共通行動に関する情報を話題として生成する、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記話題生成部は、前記共通行動の発生頻度に基づいて、前記ユーザと前記話し相手との行動の差分を判定する、前記(5)に記載の情報処理装置。
(7)
 前記話題生成部は、前記共通行動に関する下位情報に基づいて、前記ユーザと前記話し相手との行動の差分を判定する、前記(5)に記載の情報処理装置。
(8)
 前記ユーザと前記話し相手とが行ったことのある共通行動に関する、前記話し相手の行動傾向を前記比較情報として、
 前記話題生成部は、ある共通行動に関する前記ユーザの行動傾向及び前記話し相手の行動傾向が世間の行動傾向と異なる場合、前記共通行動に関する情報を話題として生成する、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記話題提案部は、
 前記ユーザと前記話し相手とにより形成されるコミュニケーションの場の盛り上がり度を算出する盛り上がり度算出部と、
 前記話題生成部により生成された前記話題から、前記盛り上がり度に応じた話題を抽出する話題抽出部と、
を備える、前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)
 前記盛り上がり度算出部は、前記ユーザの発話に対する前記話し相手の反応に関する評価関数に基づいて、前記盛り上がり度を算出する、前記(9)に記載の情報処理装置。
(11)
 前記話題抽出部は、前記ユーザの発話に対する前記コミュニケーションの場の盛り上がり度に応じて、前記話題候補として抽出する話題における今回発話した話題に関連する関連情報の割合を変化させる、前記(9)または(10)に記載の情報処理装置。
(12)
 前記話題抽出部は、前記ユーザと前記話し相手とが会話するシチュエーションに応じて決定される状態情報に基づいて、前記話題生成部により生成された各話題に重み付けを行う、前記(9)~(11)のいずれか1項に記載の情報処理装置。
(13)
 前記話題提案部は、前記話題候補として抽出された各話題について、話題投入により前記コミュニケーションの場が盛り上がる期待度を算出する期待度算出部を備える、前記(9)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記話題候補をユーザに提示するための処理を行う話題提示処理部を備える、前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記話題提示処理部は、前記ユーザと前記話し相手とにより形成されるコミュニケーションの場に参加する少なくとも1人に対して前記話題候補を提示する処理を行う、前記(14)に記載の情報処理装置。
(16)
 前記話題提示処理部は、コミュニケーションの場の盛り上がり度の推移を前記ユーザと前記話し相手とにより形成されるコミュニケーションの場に参加する少なくとも1人に対して提示する処理を行う、前記(14)または(15)に記載の情報処理装置。
(17)
 前記話題提示処理部は、盛り上がり度の変化に応じて、コミュニケーションの場の環境設定を変化させる、前記(14)~(16)のいずれか1項に記載の情報処理装置。
(18)
 プロセッサにより、ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成すること、
 生成された前記話題からユーザに提案する話題候補を決定すること、
とを含む、情報処理方法。
(19)
 コンピュータを、
 ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、
 生成された前記話題からユーザに提案する話題候補を決定する話題提案部と、
を備える、情報処理装置として機能させるプログラム。
 1    話題提供システム
 110  話題生成部
 112  自己行動分析部
 114  共通行動分析部
 116  プロファイル分析部
 120  話題提案部
 122  盛り上がり度算出部
 124  話題抽出部
 126  期待度算出部
 130  話題提示処理部
 140  プロファイルDB
 142、146 ユーザ行動情報テーブル
 144  行動傾向テーブル

Claims (19)

  1.  ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、
     生成された前記話題からユーザに提案する話題候補を決定する話題提案部と、
    を備える、情報処理装置。
  2.  ある行動に関する前記ユーザの日常的な行動を前記比較情報として、
     前記話題生成部は、直近の前記ユーザの行動が当該ユーザの日常的な行動と異なる場合、前記直近のユーザの行動の内容を話題として生成する、請求項1に記載の情報処理装置。
  3.  ある行動に関する前記ユーザの過去の行動傾向を前記比較情報として、
     前記話題生成部は、直近の前記ユーザの行動傾向が当該ユーザの過去の行動傾向から変化している場合、当該ユーザの行動傾向の変化を話題として生成する、請求項1に記載の情報処理装置。
  4.  ある行動に関する前記ユーザの過去の行動傾向を前記比較情報として、
     前記話題生成部は、前記ユーザの過去のある区間における行動傾向が、当該ユーザの過去の他の区間における行動傾向及び直近の前記ユーザの行動傾向と異なる場合、当該ユーザの行動傾向の変化を話題として生成する、請求項1に記載の情報処理装置。
  5.  前記ユーザと前記話し相手とが行ったことのある共通行動に関する、前記話し相手の行動傾向を前記比較情報として、
     前記話題生成部は、ある共通行動に関する前記ユーザの行動と前記話し相手の行動傾向とが異なる場合、前記共通行動に関する情報を話題として生成する、請求項1に記載の情報処理装置。
  6.  前記話題生成部は、前記共通行動の発生頻度に基づいて、前記ユーザと前記話し相手との行動の差分を判定する、請求項5に記載の情報処理装置。
  7.  前記話題生成部は、前記共通行動に関する下位情報に基づいて、前記ユーザと前記話し相手との行動の差分を判定する、請求項5に記載の情報処理装置。
  8.  前記ユーザと前記話し相手とが行ったことのある共通行動に関する、前記話し相手の行動傾向を前記比較情報として、
     前記話題生成部は、ある共通行動に関する前記ユーザの行動傾向及び前記話し相手の行動傾向が世間の行動傾向と異なる場合、前記共通行動に関する情報を話題として生成する、請求項1に記載の情報処理装置。
  9.  前記話題提案部は、
     前記ユーザと前記話し相手とにより形成されるコミュニケーションの場の盛り上がり度を算出する盛り上がり度算出部と、
     前記話題生成部により生成された前記話題から、前記盛り上がり度に応じた話題を抽出する話題抽出部と、
    を備える、請求項1に記載の情報処理装置。
  10.  前記盛り上がり度算出部は、前記ユーザの発話に対する前記話し相手の反応に関する評価関数に基づいて、前記盛り上がり度を算出する、請求項9に記載の情報処理装置。
  11.  前記話題抽出部は、前記ユーザの発話に対する前記コミュニケーションの場の盛り上がり度に応じて、前記話題候補として抽出する話題における今回発話した話題に関連する関連情報の割合を変化させる、請求項9に記載の情報処理装置。
  12.  前記話題抽出部は、前記ユーザと前記話し相手とが会話するシチュエーションに応じて決定される状態情報に基づいて、前記話題生成部により生成された各話題に重み付けを行う、請求項9に記載の情報処理装置。
  13.  前記話題提案部は、前記話題候補として抽出された各話題について、話題投入により前記コミュニケーションの場が盛り上がる期待度を算出する期待度算出部を備える、請求項9に記載の情報処理装置。
  14.  前記話題候補をユーザに提示するための処理を行う話題提示処理部を備える、請求項1に記載の情報処理装置。
  15.  前記話題提示処理部は、前記ユーザと前記話し相手とにより形成されるコミュニケーションの場に参加する少なくとも1人に対して前記話題候補を提示する処理を行う、請求項14に記載の情報処理装置。
  16.  前記話題提示処理部は、コミュニケーションの場の盛り上がり度の推移を前記ユーザと前記話し相手とにより形成されるコミュニケーションの場に参加する少なくとも1人に対して提示する処理を行う、請求項14に記載の情報処理装置。
  17.  前記話題提示処理部は、盛り上がり度の変化に応じて、コミュニケーションの場の環境設定を変化させる、請求項14に記載の情報処理装置。
  18.  プロセッサにより、ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成すること、
     生成された前記話題からユーザに提案する話題候補を決定すること、
    とを含む、情報処理方法。
  19.  コンピュータを、
     ユーザのある行動と、前記行動に関する比較情報との比較結果に基づいて、話し相手との話題を生成する話題生成部と、
     生成された前記話題からユーザに提案する話題候補を決定する話題提案部と、
    を備える、情報処理装置として機能させるプログラム。
PCT/JP2016/056481 2015-06-12 2016-03-02 情報処理装置、情報処理方法及びプログラム WO2016199464A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16807171.0A EP3309738A4 (en) 2015-06-12 2016-03-02 Information processing device, information processing method, and program
JP2017523130A JP6729571B2 (ja) 2015-06-12 2016-03-02 情報処理装置、情報処理方法及びプログラム
US15/566,876 US10665229B2 (en) 2015-06-12 2016-03-02 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-118930 2015-06-12
JP2015118930 2015-06-12

Publications (1)

Publication Number Publication Date
WO2016199464A1 true WO2016199464A1 (ja) 2016-12-15

Family

ID=57503154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/056481 WO2016199464A1 (ja) 2015-06-12 2016-03-02 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10665229B2 (ja)
EP (1) EP3309738A4 (ja)
JP (1) JP6729571B2 (ja)
WO (1) WO2016199464A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112243197A (zh) * 2019-07-18 2021-01-19 丰田自动车株式会社 车辆用沟通装置及车辆用沟通系统
JP2021086234A (ja) * 2019-11-25 2021-06-03 株式会社Aill コミュニケーション支援サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
US11240191B2 (en) 2019-03-22 2022-02-01 Fujifilm Business Innovation Corp. Socializing support apparatus and non-transitory computer readable medium
WO2022030322A1 (ja) * 2020-08-07 2022-02-10 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2022528021A (ja) * 2018-09-14 2022-06-08 ライク,フィリップ 交流推薦システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9500865B2 (en) * 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
US10206572B1 (en) 2017-10-10 2019-02-19 Carrot, Inc. Systems and methods for quantification of, and prediction of smoking behavior
US11699039B2 (en) * 2017-06-28 2023-07-11 Microsoft Technology Licensing, Llc Virtual assistant providing enhanced communication session services
US10585991B2 (en) 2017-06-29 2020-03-10 Microsoft Technology Licensing, Llc Virtual assistant for generating personalized responses within a communication session
JP6743108B2 (ja) * 2018-10-31 2020-08-19 西日本電信電話株式会社 パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム
CN110176055B (zh) * 2019-05-28 2023-04-18 重庆大学 一种用于在3d虚拟引擎中模拟实时全局光照的自适应方法
CA3166398A1 (en) * 2019-12-30 2021-07-08 Cilag Gmbh International Systems and methods for assisting individuals in a behavioral-change program
US11461405B2 (en) * 2020-01-13 2022-10-04 International Business Machines Corporation Technology based commonality detection system
CN117493511B (zh) * 2023-11-02 2024-06-07 国农(重庆)生猪大数据产业发展有限公司 基于大语言模型的生猪领域自动问答系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195430A (ja) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab 知識共有促進システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3790602B2 (ja) * 1997-04-25 2006-06-28 富士ゼロックス株式会社 情報共有装置
JP2001188787A (ja) 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
US6721704B1 (en) * 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
US8255421B2 (en) * 2008-04-02 2012-08-28 Panasonic Corporation Communication assistance device, communication assistance method, and communication assistance program
US8473512B2 (en) * 2009-11-06 2013-06-25 Waldeck Technology, Llc Dynamic profile slice
US20120296991A1 (en) * 2011-02-23 2012-11-22 Nova Spivack Adaptive system architecture for identifying popular topics from messages
WO2013059199A1 (en) * 2011-10-17 2013-04-25 Disintermediation Services, Inc. Two-way real time communication allowing asymmetric participation across multiple electronic platforms
US10204026B2 (en) * 2013-03-15 2019-02-12 Uda, Llc Realtime data stream cluster summarization and labeling system
FR3011375B1 (fr) * 2013-10-01 2017-01-27 Aldebaran Robotics Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en œuvre d'un tel procede
US20150156268A1 (en) * 2013-12-04 2015-06-04 Conduit Ltd Suggesting Topics For Social Conversation
US20150261867A1 (en) * 2014-03-13 2015-09-17 Rohit Singal Method and system of managing cues for conversation engagement
US20150281371A1 (en) * 2014-03-26 2015-10-01 Conversant Intellectual Property Management Incorporated Apparatus, system, and method for connecting devices
US9645703B2 (en) * 2014-05-14 2017-05-09 International Business Machines Corporation Detection of communication topic change
US9296396B2 (en) * 2014-06-13 2016-03-29 International Business Machines Corporation Mitigating driver fatigue
US10375129B2 (en) * 2014-06-17 2019-08-06 Microsoft Technology Licensing, Llc Facilitating conversations with automated location mapping
US20160164813A1 (en) * 2014-12-04 2016-06-09 Intel Corporation Conversation agent
US10395552B2 (en) * 2014-12-19 2019-08-27 International Business Machines Corporation Coaching a participant in a conversation
US9628415B2 (en) * 2015-01-07 2017-04-18 International Business Machines Corporation Destination-configured topic information updates
US9639770B2 (en) * 2015-03-26 2017-05-02 Konica Minolta Laboratory U.S.A., Inc. System and method for improving communication productivity

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195430A (ja) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab 知識共有促進システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AKIRA IMAYOSHI: "Detection of Active Parts of Conversation in Real Time Using Laughter", FIT2011 DAI 10 KAI FORUM ON INFORMATION TECHNOLOGY KOEN RONBUNSHU, SADOKUTSUKI RONBUN· IPPAN RONBUN, GAZO NINSHIKI·MEDIA RIKAI, GRAPHICS·GAZO, HUMAN COMMUNICATION & INTERACTION, KYOIKU KOGAKU·FUKUSHI KOGAKU· MULTIMEDIA OYO, vol. 3, 22 August 2011 (2011-08-22), pages 551 - 554, XP009507769 *
See also references of EP3309738A4 *
TSUYOSHI TANAKA: "Kodo Suitei o Mochiita Taimen Communication Sien System no Teian", SYMPOSIUM ON MULTIMEDIA, DISTRIBUTED, COOPERATIVE AND MOBILE SYSTEMS (DICOM02012) RONBUNSHU IPSJ SYMPOSIUM SERIES, vol. 2012, no. 1, 4 July 2012 (2012-07-04), pages 2359 - 2366, XP009507731, ISSN: 1882-0840 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022528021A (ja) * 2018-09-14 2022-06-08 ライク,フィリップ 交流推薦システム
JP7278213B2 (ja) 2018-09-14 2023-05-19 ライク,フィリップ 交流推薦システム
US11240191B2 (en) 2019-03-22 2022-02-01 Fujifilm Business Innovation Corp. Socializing support apparatus and non-transitory computer readable medium
CN112243197A (zh) * 2019-07-18 2021-01-19 丰田自动车株式会社 车辆用沟通装置及车辆用沟通系统
JP2021018546A (ja) * 2019-07-18 2021-02-15 トヨタ自動車株式会社 車両用コミュニケーション装置および車両用コミュニケーションシステム
JP2021086234A (ja) * 2019-11-25 2021-06-03 株式会社Aill コミュニケーション支援サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
JP7444430B2 (ja) 2019-11-25 2024-03-06 株式会社Aill コミュニケーション支援サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
WO2022030322A1 (ja) * 2020-08-07 2022-02-10 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP6729571B2 (ja) 2020-07-22
EP3309738A1 (en) 2018-04-18
US20180108347A1 (en) 2018-04-19
US10665229B2 (en) 2020-05-26
JPWO2016199464A1 (ja) 2018-04-05
EP3309738A4 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
WO2016199464A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11640589B2 (en) Information processing apparatus, control method, and storage medium
US10731992B2 (en) Information processing device, information processing method, and program
JP6756328B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20160275175A1 (en) Information processing apparatus, information processing method, and program
CN108293073B (zh) 沉浸式临场感
WO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20200005784A1 (en) Electronic device and operating method thereof for outputting response to user input, by using application
JPWO2019116658A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2015190141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016189121A (ja) 情報処理装置、情報処理方法およびプログラム
JP2018186326A (ja) ロボット装置及びプログラム
WO2018155052A1 (ja) 情報処理装置、情報処理方法および情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807171

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017523130

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15566876

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016807171

Country of ref document: EP