WO2022019119A1 - 情報処理装置、情報処理方法、プログラム、および情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、および情報処理システム Download PDF

Info

Publication number
WO2022019119A1
WO2022019119A1 PCT/JP2021/025622 JP2021025622W WO2022019119A1 WO 2022019119 A1 WO2022019119 A1 WO 2022019119A1 JP 2021025622 W JP2021025622 W JP 2021025622W WO 2022019119 A1 WO2022019119 A1 WO 2022019119A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information processing
event
party
person
Prior art date
Application number
PCT/JP2021/025622
Other languages
English (en)
French (fr)
Inventor
育英 細田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/005,181 priority Critical patent/US20230188635A1/en
Priority to JP2022537915A priority patent/JPWO2022019119A1/ja
Publication of WO2022019119A1 publication Critical patent/WO2022019119A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/432Arrangements for calling a subscriber at a specific time, e.g. morning call service

Definitions

  • This technology is particularly related to information processing devices, information processing methods, programs, and information processing systems that enable an appropriate distance from others.
  • the distance to the other person is important in order to lead a calm life without feeling annoyed.
  • Some smartphone applications generate fake incoming calls.
  • the user can operate the application to generate a fake incoming call when the boss points out a mistake in work, and pretend to respond to the incoming call to surpass the situation.
  • Patent Document 1 discloses an agent system that improves the atmosphere of a place by evaluating the atmosphere of the place while driving based on the emotions of two occupants and causing the character to speak when the atmosphere is bad. There is.
  • This technology was made in view of such a situation, and makes it possible to appropriately secure a distance from others.
  • the information processing device of one aspect of the present technology includes an information processing unit that generates a fictitious event that changes the distance between the user and the other party encountered by the user according to the context of the user and presents the information processing unit to the user.
  • a fictitious event that changes the distance between the user and the other party encountered by the user is generated and presented to the user according to the context of the user.
  • FIG. 1 is a diagram showing an example of support by an action support system according to an embodiment of the present technology.
  • the action support system according to the embodiment of the present technology is realized by the action support server 1 which is a server on the Internet.
  • the action support server 1 supports the user U1 himself / herself to select an action so that the distance between the user U1 and the other party becomes an appropriate distance when the user U1 feels annoyed in relation to the person he / she encounters. do.
  • the persons encountered by the user U1 include not only those who have already been in contact but also those who may be in contact in the future. For example, as shown on the left side of FIG. 1, the state of talking and communicating with the other party is the state of contact.
  • the action support server 1 To support the selection of an action so that the distance between the user U1 and the other party is appropriate, the action support server 1 generates an event according to the context as shown by the arrow A1 in FIG. It is done by.
  • the user U1 selects his / her own action in response to the occurrence of an event according to the context, and thereby succeeds in moving away from the other party as shown by the arrow A2. ..
  • the event generated by the action support server 1 is an event that may change the distance to the other party.
  • the action support system is a system that creates a situation in which the other party can be avoided by generating an event.
  • the user By acting in response to the occurrence of an event, the user can avoid the other party, that is, annoying things.
  • Each user of the action support system has a device such as a smartphone, inner ear headphones (earphones), a glasses-type HMD (Head Mounted Display), and a wristwatch-type wearable device (smart watch) as client terminals.
  • a device such as a smartphone, inner ear headphones (earphones), a glasses-type HMD (Head Mounted Display), and a wristwatch-type wearable device (smart watch) as client terminals.
  • Each client terminal is connected to the Internet directly or via another device, and can communicate with the action support server 1.
  • the action support server 1 detects the context of each user based on the information transmitted from the client terminal, and generates an event according to the detected context.
  • FIG. 2 is a diagram showing a state of avoidance of the user.
  • an incoming call is sent to the smartphone owned by the user U1 as an event.
  • the incoming call is said to be an incoming call from the president.
  • a ringtone is output from the speaker of the smartphone of the user U1, and a notification that the call is received from the president is displayed on the display.
  • the president did not call user U1, so the incoming call from the president is a fictitious event.
  • the event of an incoming call from the president is presented to the user U1 and the section chief by a ringtone or a display.
  • User U1 takes out the smartphone, looks at the display, and informs the section chief that the president has called. By selecting the action of answering the call from the president, the user U1 can avoid the preaching of the section chief as shown at the tip of the arrow A12.
  • the behavior support server 1 creates a situation in which the user U1 can naturally avoid the other party that causes annoyance, instead of forcibly avoiding the other party. Further, as an event for creating such a situation, an appropriate event according to the context is selected and presented by the action support server 1.
  • the section chief generated an event that he was not satisfied with and forced the user to avoid it from the current situation, the section chief would still be dissatisfied.
  • the user U1 can also select an action to avoid it without feeling guilty.
  • FIG. 3 is another diagram showing the state of avoidance of the user.
  • a friend is calling the user U2 at a right turn at the front turn (T-junction), which is caused to the user U2.
  • T-junction front turn
  • the notification that the friend is calling is performed by the voice from the speaker of the smartphone held by the user U2.
  • the user U2 can avoid the suspicious person as shown by the arrow A22 by listening to the notification from the action support server 1 and selecting the action of turning right while pretending to look for a friend. ..
  • the action support server 1 informs the user U2 that he / she has a friend, and at least shows the surrounding people including the other party that he / she is looking for a friend from the user U2, so that the surrounding people including the suspicious person do not feel uncomfortable. It is possible to guide the user U2 in the form.
  • the behavior support system allows the user to naturally select an action to avoid the cause of annoyance, and secures an appropriate distance as the distance to the other party so that the user can live a calm life. It is a system that enables you to do it.
  • the behavior support system is a system that enables the user to live a calm life even for the other party encountered.
  • FIG. 4 is a diagram showing an example of sharing workarounds.
  • avoidance information which is information on the avoidance method, is uploaded to the action support server 1 and shared with other users.
  • Avoidance information is information that links the situation experienced by each user with the avoidance method used in that situation.
  • the avoidance information also includes information indicating whether the avoidance of the other party was successful or unsuccessful.
  • each user operates his / her own client terminal to access the action support server 1, and as shown in FIG. 5A, another user uses what kind of workaround under what circumstances. You can know if it is.
  • information on the avoidance method of another user is displayed on the display of the smartphone of one user.
  • search screen shown in FIG. 5B it may be possible to search for a workaround method for each situation.
  • search screen of B in FIG. 5 by tapping each section, it is possible to select a situation such as when the other party is a man or when the place is a company.
  • the avoidance information provided by each user is also used for learning the avoidance method.
  • the avoidance method determination model is generated by performing machine learning using the avoidance information provided by each user. The workaround determination model will be described later.
  • Each user may be able to evaluate the workaround method of other users. By calculating the score for avoidance of each user according to the evaluation, it is possible to give a game property to avoiding the opponent who causes trouble.
  • FIG. 6 is a diagram showing an example of determining an avoidance method.
  • an avoidance method determination unit 11 having an avoidance method determination model M is provided in the action support server 1.
  • the avoidance method determination model M is an inference model composed of a neural network or the like generated by machine learning using avoidance information.
  • the avoidance method determination unit 11 is supplied with information indicating the user's context, information indicating whether the other party knows or does not know, and information indicating the avoidance desired level. By inputting this information into the avoidance method determination model M, information indicating the avoidance method is output.
  • the context includes an external situation that is an external situation such as an event occurring around the user.
  • External situations also include the user's behavior, the user's environment, including the behavior of those around him, who the user is in contact with and who the user may be in contact with, and so on.
  • the context may include whether the other person knows / does not know.
  • the context includes an internal situation that is an internal situation such as a user's emotion and a user's biological reaction.
  • the internal situation also includes the emotions of the person with whom the user is in contact, the person with whom the user may be in contact, and the like.
  • the avoidance method determined in the action support server 1 is different between the case where the other party knows and the case where the other party does not know.
  • the avoidance method is determined in consideration of the future relationship with the other person.
  • the other person is a stranger, a workaround method that does not consider the future relationship with the other person is determined.
  • the avoidance method determined by the action support server 1 is an avoidance method that differs depending on the desired avoidance level.
  • the avoidance desired level represents the degree of the user's desire to avoid the other party by changing the distance to the other party.
  • FIG. 7 is a diagram showing an example of the desired avoidance level.
  • avoidance desired level 1 Three levels of avoidance desired level 1, avoidance desired level 2, and avoidance desired level 3 are prepared as avoidance desired levels.
  • Avoidance desired level 1 is a level used before contact with the other party.
  • the situation of the user U2 described with reference to FIG. 3 is the situation before contact with the suspicious person who is the other party.
  • Avoidance request level 1 indicates that you want to evacuate immediately (avoid immediately).
  • avoidance desired levels 2 and 3 are levels used after contact with the other party.
  • the situation of the user U1 described with reference to FIG. 2 is the situation after contact with the section chief who is the other party.
  • Avoidance hope level 2 indicates that you want to somehow evacuate from the person you are in contact with (strongly want to avoid it). For example, when the atmosphere becomes awkward while being talked to and responding, and the person wants to avoid it, the avoidance method of avoidance desired level 2 is used.
  • Avoidance request level 3 indicates that the person in contact wants to evacuate if possible (weakly desires to avoid it). For example, when you want to avoid it casually, although you do not want to avoid it blatantly, the avoidance method of the avoidance desired level 3 is used.
  • Such avoidance desired level is specified by the user, for example.
  • the action support server 1 may automatically determine the desired avoidance level according to the context and the like.
  • Behavior of behavior support server >>
  • the basic operation of the action support server 1 that supports the selection of actions for avoiding the other party will be described. It is assumed that the user lives a life by holding or wearing a client terminal.
  • step S1 the action support server 1 acquires the sensor data transmitted from the client terminal.
  • the sensor data detected by the sensor provided in the client terminal is repeatedly transmitted.
  • various sensor data such as an image taken by a camera around the user, voice data obtained by detecting the user's voice with a microphone, and biometric data obtained by detecting the user's biological reaction with a biosensor are available. To be acquired.
  • the sensor data detected by the sensor provided in the client terminal may be transmitted.
  • the action support server 1 analyzes the sensor data and detects the context.
  • the context includes external and internal situations.
  • the external situation is specified, for example, by analyzing an image showing the surroundings of the user or analyzing a voice.
  • the internal situation is specified by analyzing the biological reaction of the user and the content of the utterance, and estimating the emotion from the facial expression of the user reflected in the image.
  • step S3 the action support server 1 determines based on the context whether or not an event that is an event trigger that is a trigger for generating an event has occurred.
  • the event that triggers the event includes that the user has made an avoidance request, which is a request to avoid the other party.
  • the avoidance request is made by the user issuing a specific word such as "SOS" or "dangerous".
  • the avoidance request is also made by a predetermined operation such as pressing a button on the screen of the client terminal.
  • an event that triggers an event has occurred in response to the detection of a preset context such as a suspicious person near the user or an abnormal reaction of the user's biological reaction. It may be done. In this case, the event is automatically triggered regardless of the avoidance request.
  • the action support server 1 confirms the desired avoidance level by inquiring to the user in step S4.
  • the avoidance desired level may be automatically determined according to the occurrence of an event that triggers an event without confirming the avoidance desired level with the user.
  • step S5 the action support server 1 determines the avoidance method according to the context by using the avoidance method determination model M or the like.
  • step S6 the action support server 1 generates an event according to the determined avoidance method.
  • the event is generated by the action support server 1 and the client terminal in cooperation with each other.
  • the client terminal presents the event caused by the action support server 1 to the user according to the control by the action support server 1.
  • the client terminal appropriately presents the event not only to the user but also to people around the user, including at least the other party.
  • the action support server 1 and a device installed near the user or a device owned by a person near the user are linked and woken up.
  • step S6 After the event has occurred in step S6, or if it is determined in step S3 that the event that triggers the event has not occurred, the process returns to step S1 and the above processing is repeated.
  • FIG. 9 is a diagram showing an example of a situation that the user is encountering.
  • a suspicious person is approaching from the front when the user is walking in the city. If the user goes straight on the road as it is, the user may approach the suspicious person and be entangled by the suspicious person, such as being accused.
  • the suspicious person in front is a person who has not yet contacted but is expected to contact. There is a corner in front of the user so that he can detour the road he is currently walking on.
  • FIG. 10 is a diagram showing an example of avoidance using voice navigation.
  • the behavior support server 1 detects an abnormality in response to a user who notices a suspicious person issuing a word such as "dangerous" that is a request for avoidance, he / she wants to avoid it.
  • the user is inquired as to whether or not to avoid it at level 1.
  • the user has a smartphone as a client terminal.
  • the voice based on the control of the action support server 1 is output from the speaker of the smartphone, and the voice of the user is detected by the microphone of the smartphone.
  • system means an action support system.
  • the content of the utterance shown next to the characters of "system” is the voice output from the smartphone based on the control of the action support server 1.
  • the desired avoidance level is specified.
  • the action support server 1 is controlled to output a navigation voice for detouring the road.
  • a navigation voice for detouring the road In the example in the center of FIG. 10, as shown in the frame F2, it is guided to turn right at the corner and turn left at the corner ahead of the corner. After that, as shown in the frame F3 on the right side of FIG. 10, a navigation voice for returning to the original road is output.
  • the opponent may be avoided by simply guiding the way in this way.
  • FIG. 11 is a diagram showing an example of avoidance using voice AR (Augmented Reality).
  • Voice AR is a technology that generates a virtual sound that is not actually sounding and lets the user know what is not actually happening. For example, it is assumed that the user wears the earphone as a client terminal.
  • the behavior support server 1 detects an abnormality in response to a user who notices a suspicious person issuing a word requesting avoidance, whether or not to avoid it at the avoidance desired level 1 as shown on the left side of FIG.
  • the inquiry is made to the user.
  • the desired avoidance level is specified.
  • An abnormality is detected when it is predicted that the behavior support server 1 will come into contact with a suspicious person, instead of being detected by the behavior support server 1 in response to the user issuing a word requesting avoidance, and it is possible to contact the suspicious person. It may be presented to the user that there is a sex. Contact with a suspicious person is predicted based on the context.
  • the action support server 1 it is triggered as a fictitious event that a person on the detour road calls the user.
  • a third party calls the user by outputting a voice calling the user from the earphone while changing the sound source position.
  • a voice that can be heard only by the user may be output, or a voice that can be heard by people around the user including a suspicious person may be output.
  • the output of the sound that can be heard by people around is performed by outputting the sound from the speakers installed at each position in the city such as the position P1 and the position P2.
  • the action support server 1 generates an event by cooperating with a device different from the client terminal owned by the user.
  • FIG. 12 is a diagram showing an example of avoidance using an AR object.
  • the AR object is, for example, a virtual object displayed on a transparent HMD.
  • the user can see an object that does not actually exist by overlaying it on the landscape in front. It is assumed that the user wears the HMD as a client terminal.
  • the eyeglasses worn by the user are transmissive HMDs.
  • the AR object may be displayed using a non-transparent HMD.
  • a black cat is displayed at the position P1 where the corner is turned to the right, and then the black cat is displayed at the position P2 where the next corner is turned to the left.
  • FIG. 13 is a diagram showing an example of avoidance using a store.
  • the behavior support server 1 manages information such as user preferences and values. It is assumed that the user has a smartphone as a client terminal.
  • fictitious events related to the store may be triggered, such as a store clerk of a store that suits the user's taste is selling a product that the user likes at a store that does not suit the user's taste.
  • the user enters the store as shown in the center of FIG. 13 while showing an interest in bargain sale.
  • the user can avoid the suspicious person by waiting for the suspicious person to pass and leaving the store as shown on the right side of FIG.
  • the user can naturally choose the action to enter the store, and by entering while listening to the state of the store, a suspicious person with a natural attitude. Can be avoided.
  • FIG. 14 is a diagram showing an example of a situation encountered by a user.
  • FIG. 14 it is assumed that the user is being called by another person while walking in the city and is kindly teaching the way.
  • the situation shown in FIG. 14 is a situation after contact with the other party. While talking to the other party, as shown in FIG. 15, it is assumed that the content of the story is replaced with a different content from the content of the directions, and the atmosphere has changed. As shown in balloon # 11, the user's emotions have changed from being kindly responding to being hoping to avoid the other party.
  • the user wears a smart watch as a client terminal.
  • the voice based on the control of the action support server 1 is output at a low volume from the speaker of the smart watch.
  • the user's voice is detected by the microphone of the smart watch.
  • a display is also provided in the housing of the smartwatch.
  • the behavior support server 1 detects an abnormality, and an inquiry as to whether or not to avoid the other party is made to the user. You may do it. It is judged based on the context that the user's emotion has changed to a state in which he / she wants to avoid the other party.
  • the user consents to the inquiry by the action support server 1, and the avoidance desired level is specified.
  • a fictitious event such as a third party calling the user is generated, and a message calling the user is sent to the smart watch. That is, in this example, a situation is created in which it is necessary to leave this place because it is called by a person.
  • FIG. 17 is a diagram showing an example of presentation of an event.
  • the display of the smartwatch displays a message instructing the user to hurry back to work because the meeting is about to begin.
  • the user who sees the message can avoid the other person in a natural way, instead of blatantly avoiding it, by telling the other person that he / she needs to return in a hurry and leaving.
  • the message calling the user is sent by, for example, e-mail or SMS (Short Message Service).
  • Incoming calls may be made to the smartwatch and the user's call may be made by voice.
  • the inquiry may send a message indirectly indicating that the user will return in a hurry.
  • FIG. 18 is a diagram showing an example of avoidance.
  • a call request which is a request to call the user, is made to the collaborator. Will be.
  • the action support server 1 also notifies the collaborators of the content of the call, such as "Please tell us that there is a meeting and hurry back.” For example, you will be notified to tell the user to rush back to a fictitious event. Call requests are made by e-mail, SMS, telephone, etc.
  • the collaborator who received the request from the action support server 1 heads to the site as shown in FIG. 19 and calls out to the user according to the notification from the action support server 1.
  • the user who is called by the collaborator can avoid the other party in a natural way instead of blatantly avoiding it.
  • the collaborator may be a person known to the user or a person who does not know it.
  • the action support server 1 notifies who the user to be called is, along with information representing the user's characteristics such as a face photo.
  • the collaborator who received the call request does not go directly to the site, but the collaborator may call the user so that he / she can be informed that he / she will return in a hurry. By answering the call from the collaborator, the user can appeal the called situation to the other person.
  • the avoidance desired level 3 is an avoidance desired level used when the other party after contact wants to avoid if possible.
  • the avoidance at the avoidance desired level 3 is performed, for example, by notifying the user of an errand that can be used as a reason for avoidance from the action support server 1.
  • the user's business is generated according to the context and notified to the user.
  • the user avoids the other party because he / she has a business notified from the action support server 1 in the wake of the notification from the action support server 1.
  • FIG. 20 is a diagram showing an example of notification from the action support server 1.
  • FIG. 20 it is notified that the other party is avoided because of going to the bathroom.
  • the user informs that he / she wants to go to the toilet and avoids it casually from the other party. For example, a toilet errand is selected when the user's context indicates that the user has not been to the toilet for more than a certain amount of time.
  • the errands notified from the action support server 1 may be errands other than the toilet, such as shopping, work, and study.
  • the reason for avoiding is determined and presented by the action support server 1 according to the context, so that the user can inform the other party of the reason for leaving without hesitation and can casually avoid the other party.
  • FIG. 21 is a diagram showing a state of avoidance of the user.
  • the situation shown on the left side of FIG. 21 is a situation in which the user is being talked to again by his / her superior, the section chief.
  • the user is being spoken to by the section chief, for example, the next day after avoiding the first situation as described with reference to FIG.
  • the user wants to avoid the current situation again.
  • the meeting with the customer is triggered as a fictitious event, and the user is notified that he / she will return in a hurry. ..
  • the display of the smart watch worn by the user displays a message instructing the user to hurry back from the start of the meeting.
  • the first workaround method described with reference to FIG. 2 is a workaround method in which an incoming call from the president is a fictitious event.
  • User U1 looks at the display on the smartwatch and informs the section chief that there is a meeting with the customer. By selecting the action of heading for a meeting with the customer, the user U1 can avoid the preaching of the section chief as shown at the tip of the arrow A42.
  • the operation of the action support server 1 when the other party knows is basically the case where the other party does not know, except that the avoidance method different from the avoidance method used in the past is used. The same is true.
  • FIG. 22 is a diagram showing an example of avoidance of a person who knows it.
  • the user When there is a person who wants to avoid, that is, a person who does not want to meet, the user registers information such as a face image of that person in the action support server 1 in advance. Other information that can be used to identify the person, such as the ID of the person who does not want to meet and the characteristics of the appearance, may be registered. In the action support server 1, for example, it is determined that the same person as the person registered in advance is a person known to the user, and a person different from the person registered in advance is determined to be a person unknown to the user. ..
  • the image taken by the camera mounted on the client terminal of the user continues to be transmitted to the action support server 1.
  • a wide-angle image taken by the camera C capable of taking a 360-degree range around the user is transmitted to the action support server 1.
  • the image obtained by photographing the surroundings of the user is analyzed, and if there is a person, the person is identified.
  • a section chief registered as a person who does not want to meet is near the user and it is detected as a context that he / she is approaching, an inquiry is made as to whether or not to avoid it, as shown in the balloon of FIG.
  • the avoidance request is made in response to the inquiry, when the direction of travel of the user is opposite to the direction of the section chief, it is notified that the user will proceed as it is without turning around.
  • FIG. 24 is a diagram showing an output example of the notification.
  • the display is used to notify that the user moves forward without turning around. Further, when the user wears the earphone, as shown in B of FIG. 24, he / she is notified by voice that he / she moves forward as it is without turning around.
  • the avoidance of the section chief is performed at the avoidance desired level 2 as explained with reference to FIG. Even if the other party knows the person, the user can appropriately specify the desired avoidance level.
  • a fictitious event as described above may occur before contact with the other party, and the user may select an action accordingly to avoid the section chief.
  • FIG. 25 is a diagram showing an example of a registration screen of a person who does not want to meet.
  • the action support application installed on the smartphone, which is the client terminal, is started and the user performs a predetermined operation
  • the registration screen as shown in FIG. 25 is displayed.
  • the action support application is an application program that realizes the function of supporting the selection of actions as described above in cooperation with the action support server 1.
  • the registration screen shown in FIG. 25 is displayed based on the information transmitted from the behavior support server 1 through communication between the behavior support application and the behavior support server 1.
  • FIG. 26 is a diagram showing an example of a questionnaire screen displayed by the action support application.
  • the questionnaire can be advanced by selecting the item considered to have poor cost performance from the two options.
  • the user looks at the two options, instantly determines the item with poor cost performance, and selects one of the items.
  • the value type which is the type (group) according to the user's value, is specified.
  • FIG. 27 is a diagram showing an example of a value type.
  • three value types of A type, B type, and C type are prepared.
  • One of the three value types is specified according to the user's values.
  • Four or more value types may be prepared.
  • type A is a value type in which an avoidance method is selected in consideration of the mood and convenience of the boss without destroying the atmosphere of the place.
  • the B type is a value type in which a workaround method for avoiding it is selected regardless of whether it seems bad.
  • the C type is a value type in which an avoidance method that properly manages the relationship with the other party is selected while appropriately cheating.
  • type A is specified as the value type of the user who thinks that "manager” has higher cost performance. It becomes easy to be done. Further, as a value type of a user who thinks that "employee” has higher cost performance, for example, B type is easily specified.
  • a workaround method that considers each user's value is determined. For example, by using the value type as the input of the avoidance method determination model M, the avoidance method considering the values is determined.
  • FIG. 28 is a diagram showing an example of avoidance methods for each value type.
  • the workaround shown in FIG. 28 is a workaround when the user wants to leave the place when talking with the boss.
  • a workaround method for returning to desk work is selected because a work idea comes to mind.
  • an event in which a work idea comes to mind is a fictitious event.
  • the user in response to a notification from the action support server 1, the user leaves in front of his boss, leaving words such as "I have a good idea, so I will return to my seat early and put it together before I forget it!.
  • a workaround for leaving the place due to an incoming call from a friend is selected.
  • the event of receiving a call from a friend is a fictitious event.
  • the user leaves in front of the boss, leaving words such as "Yeah, it's a phone call.”
  • a workaround method for users whose value type is C type a workaround method of leaving the place because the regular materials have not been prepared and returning to desk work is selected.
  • an event in which regular materials are not available is a fictitious event. For example, in response to a notification from the action support server 1, the user leaves in front of his boss, leaving words such as "I can't prepare the materials. I have to hurry. I'm really sorry. I'm sorry.”
  • the user can avoid the other party by the avoidance method that suits his / her own values.
  • the workaround may be determined based not only on the values but also on other attributes of the user such as hobbies and tastes.
  • FIG. 29 is a block diagram showing a hardware configuration example of the action support server 1.
  • the action support server 1 is composed of a computer.
  • the action support server 1 may be realized by a plurality of computers.
  • the CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 105 is further connected to the bus 104.
  • An input unit 106 including a keyboard, a mouse, and the like, and an output unit 107 including a display, a speaker, and the like are connected to the input / output interface 105.
  • the storage unit 108, the communication unit 109, and the drive 110 are connected to the input / output interface 105.
  • the storage unit 108 is composed of a hard disk, a non-volatile memory, or the like.
  • the storage unit 108 stores various information such as a program executed by the CPU 101 and information about each user.
  • the communication unit 109 is composed of a network interface or the like.
  • the communication unit 109 communicates with various devices for realizing the action support system, such as a client terminal owned by each user and a client terminal owned by a collaborator, via the Internet.
  • FIG. 30 is a block diagram showing a functional configuration example of the action support server 1.
  • the information processing unit 121 is realized in the action support server 1.
  • the information processing unit 121 includes a dialogue unit 131, a context detection unit 132, an event generation unit 133, a value determination unit 134, a user attribute storage unit 135, an avoidance information acquisition unit 136, and an avoidance information acquisition unit 136. It is composed of a learning unit 137.
  • the dialogue unit 131 communicates with the client terminal and realizes a dialogue with the user.
  • the dialogue by the dialogue unit 131 is performed by voice or text.
  • Various dialogues are held with the user, such as a dialogue for requesting avoidance and a dialogue for confirming the desired level of avoidance.
  • step S4 in FIG. 8 described above is a process performed by the dialogue unit 131.
  • Information indicating that the user has made an avoidance request is supplied to the context detection unit 132. Further, the information indicating the avoidance desired level confirmed by the dialogue with the user is supplied to the avoidance method determination unit 11.
  • the context detection unit 132 acquires the sensor data transmitted from the client terminal and detects the user's context including the external situation and the internal situation as described above.
  • the context detection unit 132 detects an external situation by analyzing an image taken by a camera of a client terminal and a voice detected by a microphone. Further, the context detection unit 132 detects the internal situation by analyzing the image taken by the camera of the client terminal, the voice detected by the microphone, and the biological reaction of the user detected by the biological sensor.
  • the context detection unit 132 uses the user's location, the user's traveling direction, and the user's line of sight as contexts based on sensor data detected by other sensors of the client terminal such as a gyro sensor, an acceleration sensor, and a positioning sensor. It also detects. The context detection unit 132 also detects the context such as whether or not there is a possibility of contact with a suspicious person.
  • the context detection is performed using at least one of the sensor data of the plurality of types of sensor data transmitted from the client terminal.
  • the context detection unit 132 When an event that triggers an event occurs, the context detection unit 132 outputs the detected context information to the avoidance method determination unit 11.
  • the processing of steps S1, S2, and S3 in FIG. 8 is the processing performed by the context detection unit 132.
  • the workaround method determination unit 11 determines the workaround method according to the context of the user. As described with reference to FIG. 6, the workaround method according to the context is determined by using the workaround method determination model M. Obtained by inputting information representing the avoidance desired level supplied from the dialogue unit 131, information representing the context supplied from the context detection unit 132, information representing the value type read from the user attribute storage unit 135, and the like. The output of the workaround method determination model M is the information indicating the workaround method.
  • step S5 in FIG. 8 is a process performed by the avoidance method determination unit 11.
  • Avoidance method determination Even if the avoidance method is not determined by inference using the model M, but the avoidance method is determined based on preset information indicating the correspondence between the context and the avoidance method. good. A predetermined calculation may be performed based on information such as the context, and a workaround may be determined. Various methods can be adopted as a method for determining a workaround method according to the context.
  • the event generation unit 133 communicates with the client terminal, generates a fictitious event according to the avoidance method determined by the avoidance method determination unit 11, and presents it to the user. As described above, the presentation of the event is appropriately performed to the other party of the user and the people around the user.
  • the process of step S6 in FIG. 8 is the process performed by the event generation unit 133.
  • the value judgment unit 134 acquires the answers to the questionnaire conducted using the behavior support application and identifies the value type according to the user's values.
  • the value type information specified by the value determination unit 134 is stored in the user attribute storage unit 135 together with other information about the user.
  • the user attribute storage unit 135 stores various attribute information about the user, such as information on the client terminal, information on the person registered by the user as a person who does not want to meet, information on the value type, and information on the collaborator, for example, the user's ID. And memorize it.
  • the information of the client terminal includes the specifications and location of the client terminal, information for communicating with the client terminal, and the like.
  • the information for communicating with the client terminal includes the telephone number, e-mail address, etc. of the client terminal.
  • information used for determining the avoidance method such as value type information
  • information used for generating an event is read out by the event generation unit 133.
  • the avoidance information acquisition unit 136 receives and acquires the avoidance information transmitted from each client terminal. Further, the avoidance information acquisition unit 136 discloses the avoidance information and makes it shared among each user. The avoidance information acquired by the avoidance information acquisition unit 136 is supplied to the learning unit 137.
  • the learning unit 137 learns the avoidance method determination model M (learning of the parameters constituting the avoidance method determination model M) based on the avoidance information acquired by the avoidance information acquisition unit 136.
  • the information of the avoidance method determination model M obtained by the learning by the learning unit 137 is supplied to the avoidance method determination unit 11.
  • the learning of the avoidance method determination model M may be performed using only the avoidance information whose score calculated based on the evaluation of each user is higher than the threshold value, or only the avoidance information regarding the avoidance method that has been successfully avoided. It may be done using.
  • FIG. 31 is a block diagram showing a configuration example of the client terminal 201.
  • the client terminal 201 is configured by connecting a sensor unit 212, a storage unit 213, an operation unit 214, a communication unit 215, and an output unit 216 to the control unit 211.
  • the client terminal 201 is an information processing terminal that constitutes an action support system.
  • the control unit 211 is composed of a CPU, ROM, RAM, and the like.
  • the control unit 211 executes a predetermined program by the CPU and controls the entire operation of the client terminal 201.
  • the sensor data transmission unit 221 and the event presentation unit 222 are realized by executing a program such as an action support application.
  • the sensor data transmission unit 221 communicates with the action support server 1 by controlling the communication unit 215, and transmits the sensor data supplied from the sensor unit 212 to the action support server 1.
  • the sensor unit 212 supplies sensor data including an image taken by the camera 231, a voice detected by the microphone 232, a user's position detected by the positioning sensor 233, and biometric data detected by the biosensor 234. ..
  • the sensor data may include data detected by other sensors, such as data detected by a gyro sensor or an acceleration sensor, or data detected by a temperature sensor.
  • the event presentation unit 222 communicates with the action support server 1 by controlling the communication unit 215, and presents an event according to the control by the action support server 1.
  • the event presentation unit 222 when the event presentation unit 222 indicates that an incoming call has been received, the information of the caller of the call is displayed on the display 241 or the ringtone of the call is output from the speaker 242. Further, when guiding the traveling direction of the user, the event presenting unit 222 outputs the voice of navigation and the voice of a third party calling the user from the speaker 242.
  • the event presentation unit 222 causes the display 241 provided in front of the user's eyes to display the virtual object.
  • the event presentation unit 222 presents an event by various other methods such as displaying a message calling the user on the display 241.
  • the event presentation unit 222 communicates with the external device via the communication unit 215 and controls the external device to present the event. Process.
  • the sensor unit 212 is composed of a camera 231, a microphone 232, a positioning sensor 233, and a biosensor 234.
  • the camera 231 photographs the surroundings of the user having the client terminal 201, and outputs the image obtained by photographing to the control unit 211.
  • the image captured by the camera 231 may be a still image or a moving image.
  • the microphone 232 detects various voices such as the user's voice, the voice of the other party talking to the user, and the surrounding environmental sound, and outputs the voice to the control unit 211.
  • the positioning sensor 233 is composed of a GPS sensor or the like.
  • the positioning sensor 233 detects the position of the client terminal 201 and outputs it to the control unit 211.
  • the biosensor 234 is composed of a body temperature sensor, a heart rate sensor, and the like.
  • a sensor that detects brain waves such as alpha waves and beta waves may be included in the biosensor 234.
  • the biological sensor 234 detects the user's biological data such as body temperature, heart rate, and brain wave, and outputs the data to the control unit 211.
  • the storage unit 213 is composed of a flash memory or the like. Various data such as an action support application are stored in the storage unit 213.
  • the operation unit 214 is composed of a touch panel provided on the display 241 and buttons provided at predetermined positions on the housing of the client terminal 201.
  • the operation unit 214 detects the user's operation and outputs information indicating the content of the operation to the control unit 211.
  • the communication unit 215 is a short-range wireless communication interface such as Bluetooth (registered trademark) and wireless LAN, and a wireless communication interface using a mobile communication system (WAN) such as 4G and 5G.
  • the communication unit 215 communicates with an external device such as the action support server 1.
  • the output unit 216 is composed of a display 241 and a speaker 242.
  • the display 241 displays various information according to the control by the control unit 211.
  • the speaker 242 outputs various voices and sound effects according to the control by the control unit 211.
  • modules such as a vibration generating module and a robot arm that serve as an interface with the user may be provided in the output unit 216.
  • Each configuration of the output unit 216 is used to present an event.
  • the configuration of the client terminal 201 as described above is appropriately changed depending on the type of the client terminal 201 such as a smartphone, a smart watch, and an HMD. Depending on the type of the client terminal 201, some of the configurations shown in FIG. 31 may not be provided, and other configurations not shown in FIG. 31 may be provided.
  • ⁇ Modification example >> ⁇ Avoidance reservation>
  • the user may be able to set a workaround according to the context in advance.
  • the future context and the workaround to be used when that context is detected are set by the user.
  • the user can reserve the workaround, so to speak.
  • the avoidance method reservation is made by setting the situation (context), avoidance desired level, event content, etc. using the menu screen of the action support application. It is possible to use the menu screen to make settings related to places such as the way back, trains, in front of stations, and downtown areas, and settings related to events such as pick-ups, solicitations, and drunkenness.
  • the action support server 1 raises an event for avoiding the user by using the preset avoidance method.
  • the user can be prepared for the premonition that going to a certain place may cause trouble.
  • the support provided by the action support server 1 is a support for selecting an action for bringing the user and the other party closer to each other and feeling healing to each other.
  • the content of the event to make each other feel healing will also differ depending on the context including whether or not the other person knows and the desired level of healing.
  • a fictitious event such as a stranger calling is caused by the action support server 1.
  • the action support server 1 By answering the wrong call from a stranger and talking about the happening such as the wrong call, the user can get closer to the other party and feel healing.
  • the behavior support server 1 proposes to go to a nearby cafe, and even if the route guidance using the screen of the client terminal is started. good.
  • a common friend of the user and the other party may appear as a collaborator, and an event may be triggered in which the collaborator proposes to go to the cafe with three people.
  • a fictitious event is notified to the collaborators from the action support server 1 as the content of the call.
  • a certain question may be simply notified to the user from the action support server 1, and the user may propose to ask the same question to the other party. Ask a friend "What has been healed recently?" Or ask a stranger who is eating ice cream on the road "Where did you buy it?" This makes it possible to get closer to the other party.
  • the action support server 1 trigger an event for reducing the distance to the other party instead of an event for increasing the distance to the other party.
  • the action support server 1 is an information processing device that assists the user in selecting an action by generating a fictitious event that may cause the user to move away from or closer to the other party encountered by the user. ..
  • the distance between the user and the other party includes not only the physical distance but also the mental distance.
  • the client terminal 201 may perform a series of processes described with reference to FIG. 8, such as detecting the context and determining the avoidance method.
  • the information processing unit 121 of FIG. 30 is provided in the client terminal 201.
  • the information processing unit 121 is realized in the client terminal 201.
  • the series of processes described above can be executed by hardware or software.
  • the programs constituting the software are installed on a computer embedded in dedicated hardware, a general-purpose personal computer, or the like.
  • the installed program is provided by recording it on a removable media 111 consisting of an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) or a semiconductor memory. It may also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting.
  • the program can be installed in the ROM 102 or the storage unit 108 in advance.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • this technology can take a cloud computing configuration in which one function is shared by multiple devices via a network and processed jointly.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • An information processing device including an information processing unit that generates a fictitious event that changes the distance between the user and the other party encountered by the user according to the context of the user and presents the user to the user.
  • the information processing unit according to (3) wherein when the other party is a person known to the user, the information processing unit generates the event having a content different from the event that has caused the same person as the other party.
  • Information processing device including an information processing unit that generates a fictitious event that changes the distance between the user and the other party encountered by the user according to the context of the user and presents the user to the user.
  • the information processing unit generates the event as a person who knows the same person as a person registered in advance by the user and a person who does not know a person different from the person registered in advance. ).
  • the information processing device (6) The information processing device according to any one of (1) to (5), wherein the information processing unit generates the event having different contents according to a level indicating a desired degree of changing the distance to the other party. (7) The information processing device according to (6), wherein the information processing unit generates the event having different contents according to the level designated by the user.
  • a context detection unit for detecting the context based on the sensor data detected by the sensor is provided.
  • the information processing unit indicates that the context indicating that the user has issued a predetermined word that triggers the event is detected, or that the biological reaction of the user indicates a predetermined reaction.
  • the information processing apparatus according to any one of (1) to (7), which generates the event when the context is detected.
  • the information processing device according to any one of (1) to (8), wherein the information processing unit generates the event that keeps the user and the other party away from each other.
  • the information processing unit presents to the user that it is expected to come into contact with the other party, and generates the event in response to the instruction by the user to keep the distance from the other party.
  • the information processing apparatus according to (9) or (10).
  • (12) The information processing unit according to any one of (9) to (11), wherein the information processing unit presents the event to the user by outputting a voice notifying the content of the event from a device owned by the user. Device.
  • the information processing unit changes the distance between the user and the other party to a state in which the user wants to keep the distance from the other party.
  • the information processing apparatus according to (9) above, which generates the event.
  • An information processing device including an information processing unit that generates a fictitious event that changes the distance between the user and the other party encountered by the user according to the context of the user.
  • An information processing system including an information processing terminal provided with an output unit that presents the event to the user according to control by the information processing device.
  • 1 Action support server 11 Avoidance method determination unit, 121 Information processing unit, 131 Dialogue unit, 132 Context detection unit, 133 Event generation unit, 134 Value judgment unit, 135 User attribute storage unit, 136 Avoidance information acquisition unit, 137 learning Unit, 201 client terminal, 211 control unit, 221 sensor data transmission unit, 222 event presentation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本技術は、他人との距離を適切に確保することができるようにする情報処理装置、情報処理方法、プログラム、および情報処理システムに関する。 本技術の一側面の情報処理装置は、ユーザのコンテキストに応じて、ユーザとユーザが遭遇した相手との距離を変える架空のイベントを発生させ、ユーザに提示する。本技術は、例えば、イベントを発生させることをサービスとして提供するインターネット上のサーバに適用することができる。

Description

情報処理装置、情報処理方法、プログラム、および情報処理システム
 本技術は、特に、他人との距離を適切に確保することができるようにした情報処理装置、情報処理方法、プログラム、および情報処理システムに関する。
 「心穏やかな生活を送りたい」ということを多くの人が願っている。
 それにも関わらず、例えば、電車の中でトラブルに巻き込まれることによって、根拠のない誹謗を知らない人から受けることがある。また、仕事でミスをした後のように会いたくないときに限って、会社の上司と社内でふいに出会ってしまうということもある。
 相手が知らない人であっても知っている人であっても、煩わしさを感じることなく心穏やかな生活を送るためには相手との距離が重要となる。
 スマートフォンのアプリケーションとして、偽の着信を発生させるものがある。ユーザは、仕事のミスについて上司から指摘を受けているときにアプリケーションを操作して偽の着信を発生させ、それに応答するふりをしてその場をしのぐ、などの使い方をすることができる。
 特許文献1には、ドライブ中の場の雰囲気を2人の乗員の感情などに基づいて評価し、雰囲気が悪いときにキャラクタに発話させることによって、場の雰囲気をよくするエージェントシステムが開示されている。
特開2019-158975号公報
 同じような着信がその都度あると怪しまれるため、上述したようなアプリケーションを用いてその場をしのぐことをユーザは何度も使うことができない。また、ユーザは、着信を開始させるための操作を行う必要がある。
 一方、特許文献1に開示されているエージェントシステムにおいては、キャラクタの発話が場の雰囲気を取り繕うために行われていることを乗員が知ってしまうと、キャラクタの発話に対する乗員のリアクションが冷静なものになり、効果が薄くなる可能性がある。
 本技術はこのような状況に鑑みてなされたものであり、他人との距離を適切に確保することができるようにするものである。
 本技術の一側面の情報処理装置は、ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、前記ユーザに提示する情報処理部を備える。
 本技術の一側面においては、ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントが発生され、前記ユーザに提示される。
行動支援システムによる支援の例を示す図である。 ユーザの回避の様子を示す図である。 ユーザの回避の様子を示す他の図である。 回避方法の共有の例を示す図である。 回避方法の共有画面の例を示す図である。 回避方法の決定の例を示す図である。 回避希望レベルの例を示す図である。 行動支援サーバの行動支援処理について説明するフローチャートである。 ユーザが遭遇している状況の例を示す図である。 音声ナビゲーションを用いた回避の例を示す図である。 音声ARを用いた回避の例を示す図である。 ARオブジェクトを用いた回避の例を示す図である。 店舗を用いた回避の例を示す図である。 ユーザが遭遇した状況の例を示す図である。 ユーザと相手とのやりとりの様子を示す図である。 ユーザと相手とのやりとりの様子を示す図である。 イベントの提示の例を示す図である。 協力者による声かけを用いた回避の例を示す図である。 協力者による声かけの様子を示す図である。 通知の例を示す図である。 ユーザの回避の様子を示す図である。 知っている人の回避の例を示す図である。 知っている人の回避の例を示す図である。 通知の出力例を示す図である。 会いたくない人の登録画面の例を示す図である。 アンケート画面の例を示す図である。 価値観タイプの例を示す図である。 価値観タイプ毎の回避方法の例を示す図である。 行動支援サーバのハードウェア構成例を示すブロック図である。 行動支援サーバの機能構成例を示すブロック図である。 クライアント端末の構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.行動支援システム
 2.行動支援サーバの動作
 3.相手が知らない人であるケース
 4.相手が知っている人であるケース
 5.ユーザの価値観を考慮した回避方法の決定
 6.各装置の構成
 7.変形例
<<行動支援システム>>
<行動支援システムによる支援>
 図1は、本技術の一実施形態に係る行動支援システムによる支援の例を示す図である。
 本技術の一実施形態に係る行動支援システムは、インターネット上のサーバである行動支援サーバ1により実現される。
 行動支援サーバ1は、遭遇した人との関係でユーザU1が煩わしさを感じる場合に、ユーザU1とその相手との距離が適切な距離になるような行動をユーザU1自身が選択することを支援する。ユーザU1が遭遇した人には、既に接触している人だけでなく、これから接触する可能性のある人も含まれる。例えば図1の左側に示すように相手と話をしてコミュニケーションをとっている状態が、接触している状態となる。
 ユーザU1と相手との距離が適切な距離になるような行動の選択を支援することは、図1の矢印A1の先に示すように、コンテキストに応じたイベントを行動支援サーバ1が発生させることによって行われる。
 図1の例においては、コンテキストに応じたイベントが発生することに応じて、ユーザU1が自身の行動を選択し、それにより、矢印A2の先に示すように相手から離れることに成功している。行動支援サーバ1が発生させるイベントは、相手との距離を変える可能性のあるイベントとなる。
 このように、行動支援システムは、イベントを発生させることによって、相手を回避することができるような状況を作り出すシステムである。ユーザは、イベントが発生することに応じて行動することにより、相手、すなわち、煩わしいことを回避することができる。
 なお、行動支援システムの各ユーザは、スマートフォン、インナーイヤーヘッドホン(イヤホン)、眼鏡型のHMD(Head Mounted Display)、腕時計型のウェアラブルデバイス(スマートウォッチ)などのデバイスをクライアント端末として有している。
 各クライアント端末は、直接、または他のデバイスを介してインターネットに接続され、行動支援サーバ1と通信を行うことが可能とされる。行動支援サーバ1は、各ユーザのコンテキストをクライアント端末から送信されてきた情報に基づいて検出し、検出したコンテキストに応じたイベントを発生させる。
 図2は、ユーザの回避の様子を示す図である。
 図2の左側に示すように、ユーザU1が自分の上司である課長に話しかけられている状況がユーザU1のコンテキストとして行動支援サーバ1により検出されているものとする。課長が話す内容は、ユーザU1の仕事上でのミスに対する説教である。ユーザU1としては、相手が自分の上司であるという関係上、説教を受け続ける必要がある。
 このような状況において、ユーザU1が相手を回避することを要請した場合、矢印A11の先に示すように、架空のイベントが行動支援サーバ1により起こされる。
 図2の例においては、吹き出し#1に示すようにユーザU1が持っているスマートフォンに対して電話の着信を入れることがイベントとして起こされている。また、その着信は、社長からの着信とされている。ユーザU1が持つスマートフォンのスピーカからは着信音が出力され、ディスプレイには、社長からの着信であることの通知が表示される。
 実際には社長はユーザU1に電話をかけていないから、社長からの着信は架空のイベントである。社長からの着信というイベントは、着信音やディスプレイの表示によって、ユーザU1と課長に対して提示される。
 ユーザU1は、スマートフォンを取り出してディスプレイの表示を見て、社長から電話かかってきたことを課長に伝える。ユーザU1は、社長からの電話に応答するという行動を選択することにより、矢印A12の先に示すように、課長の説教を回避することができる。
 このように、煩わしさの原因となる相手を無理やり回避するのではなく、ユーザU1が自然な形で回避できるような状況が行動支援サーバ1により作り出される。また、そのような状況を作り出すためのイベントとして、コンテキストに応じた適切なイベントが行動支援サーバ1により選択され、提示される。
 図2の例においては、課長からすれば、着信元である社長は自分の上司である。課長は、ユーザU1が、自分の説教を聞くことよりも社長からの着信に応答することを優先させることに対して納得できることになる。
 仮に、課長が納得できないようなイベントを発生させてユーザを無理やり今の状況から回避させた場合、課長にとっては不満が残ったままの状況になってしまう。納得感のあるイベントを発生させ、イベントの内容をユーザU1と課長に提示することにより、そのような不満が課長に残ってしまうことを防ぐことが可能となる。ユーザU1にとっても、後ろめたさを感じることなく、回避するための行動を選択することができる。
 特に、相手が自分の上司であるといったような知り合いの人である場合、今後の2人の関係性を考慮する必要があることから、相手にとって納得感のある形でユーザが回避できるようにすることは重要なことであるといえる。
 図3は、ユーザの回避の様子を示す他の図である。
 図3の左側に示すように、ユーザU2が街中を歩いている場合において、前方から不審者が向かってきている状況がユーザU2のコンテキストとして行動支援サーバ1により検出されているものとする。このまま道を直進した場合、ユーザU2は不審者に絡まれる可能性がある。
 このような状況において、ユーザU2が相手を回避することを要請した場合、矢印A21の先に示すように、架空のイベントが行動支援サーバ1により起こされる。
 図3の例においては、吹き出し#2に示すように、前方の曲がり角(T字路)を右に曲がったところで友達がユーザU2を呼んでいることがイベントとして起こされ、そのことがユーザU2に対して通知されている。友達が呼んでいることの通知は、ユーザU2が持っているスマートフォンのスピーカからの音声によって行われる。
 右に曲がったところに実際には友達がいないから、友達が呼んでいるということは架空のイベントである。
 ユーザU2は、行動支援サーバ1からの通知を聞いて、友達を探すふりをしながら右に曲がるという行動を選択することにより、矢印A22の先に示すように、不審者を回避することができる。
 仮に、ユーザU2が曲がり角を突然右に曲がった場合、自分を避けたという印象を不審者に与えてしまい、不審者を逆上させてしまう可能性がある。行動支援サーバ1は、友達がいるということをユーザU2に伝え、友達を探している様子を少なくとも相手を含む周囲の人にユーザU2から見せることにより、不審者を含む周囲の人にとって違和感のない形でユーザU2を誘導することが可能となる。
 以上のように、行動支援システムは、煩わしさの原因を回避するための行動を自然な形でユーザに選択させ、相手との距離として適切な距離を確保することにより、ユーザが心穏やかに生活できるようにするシステムである。
 自分を回避したユーザに対して相手が不満を持つこともないから、行動支援システムは、ユーザが遭遇した相手にとっても、心穏やかに生活できるようにするシステムであるといえる。
<回避方法の共有>
 図4は、回避方法の共有の例を示す図である。
 行動支援システムの各ユーザからは、回避方法の情報である回避情報が行動支援サーバ1にアップロードされ、他のユーザとの間で共有される。
 回避情報は、各ユーザが経験した状況と、その状況で使った回避方法とを紐付けた情報である。相手を回避することに成功したのか、失敗したのかを表す情報も回避情報に含まれる。
 例えば、各ユーザは、自分のクライアント端末を操作して行動支援サーバ1にアクセスすることにより、図5のAに示すように、他のユーザがどのような状況で、どのような回避方法を使っているのかを知ることができる。図5のAの例においては、あるユーザのスマートフォンのディスプレイに他のユーザの回避方法の情報が表示されている。
 図5のBに示す検索画面を用いて、状況毎の回避方法を検索することができるようにしてもよい。図5のBの検索画面においては、各区画をタップすることにより、相手が男である場合、場所が会社である場合といったような状況を選択することができるようになっている。
 所定の状況を選択することにより、選択した状況に応じた回避方法の情報が表示される。ユーザは、それぞれの状況に応じた回避方法を知ることができる。
 各ユーザから提供された回避情報は、回避方法の学習にも用いられる。行動支援サーバ1においては、各ユーザから提供された回避情報を用いた機械学習が行われることにより、回避方法決定モデルが生成される。回避方法決定モデルについては後述する。
 他のユーザの回避方法に対して、各ユーザが評価することができるようにしてもよい。各ユーザの回避に対するスコアが評価に応じて算出されることにより、煩わしさの原因となる相手を回避することに対してゲーム性を持たせることが可能となる。
<回避方法の決定>
 図6は、回避方法の決定の例を示す図である。
 図6に示すように、回避方法決定モデルMを有する回避方法決定部11が行動支援サーバ1に設けられる。回避方法決定モデルMは、回避情報を用いた機械学習によって生成された、ニューラルネットワークなどにより構成される推論モデルである。
 回避方法決定部11に対しては、ユーザのコンテキストを表す情報とともに、相手が知っている人であるか知らない人であるかを表す情報と、回避希望レベルを表す情報が供給される。これらの情報が回避方法決定モデルMに入力されることにより、回避方法を表す情報が出力される。
 なお、コンテキストには、ユーザの周囲で起きている出来事などの外部の状況である外部状況が含まれる。外部状況には、ユーザの行動、周りの人の行動を含むユーザの環境、ユーザが接触している人やユーザが接触する可能性のある人が誰であるのかなども含まれる。相手が知っている人であるか/知らない人であるかがコンテキストに含められるようにしてもよい。
 また、コンテキストには、ユーザの感情、ユーザの生体反応などの内部の状況である内部状況が含まれる。内部状況には、ユーザが接触している人、ユーザが接触する可能性のある人の感情なども含まれる。
 このように、行動支援サーバ1において決定される回避方法は、相手が知っている人であるケースと、相手が知らない人であるケースとで異なる回避方法となる。
 相手が知っている人である場合、上述したように、相手との今後の関係性を考慮した回避方法が決定される。一方、相手が知らない人である場合、相手との今後の関係性を考慮しない回避方法が決定される。
 また、行動支援サーバ1において決定される回避方法は、回避希望レベルによって異なる回避方法となる。回避希望レベルは、相手との距離を変えて、相手を回避することについてのユーザの希望の度合いを表す。
 図7は、回避希望レベルの例を示す図である。
 回避希望レベル1、回避希望レベル2、回避希望レベル3の3段階のレベルが回避希望レベルとして用意される。
 回避希望レベル1は、相手との接触前に用いられるレベルである。図3を参照して説明したユーザU2の状況が、相手である不審者との接触前の状況となる。
 回避希望レベル1は、即退避すること(すぐに回避すること)を希望していることを表す。
 一方、回避希望レベル2,3は、相手との接触後に用いられるレベルである。図2を参照して説明したユーザU1の状況が、相手である課長との接触後の状況となる。
 回避希望レベル2は、接触中の相手からどうにかして退避することを希望していること(回避することを強く希望していること)を表す。例えば、話しかけられて対応している間に気まずい雰囲気になり、回避したくなったときに回避希望レベル2の回避方法が用いられる。
 回避希望レベル3は、接触中の相手からできれば退避することを希望していること(回避することを弱く希望していること)を表す。例えば、露骨に回避するまではしないものの、さりげなく回避したいといったときに回避希望レベル3の回避方法が用いられる。
 このような回避希望レベルが、例えばユーザにより指定される。コンテキストなどに応じて、回避希望レベルが行動支援サーバ1により自動的に決定されるようにしてもよい。
 このように、行動支援サーバ1においては、相手を回避することについてのユーザの希望の強さを表す回避希望レベルに応じて、異なる内容の回避方法が決定される。
<<行動支援サーバの動作>>
 ここで、図8のフローチャートを参照して、相手を回避するための行動の選択を支援する行動支援サーバ1の基本的な動作について説明する。ユーザは、クライアント端末を持ったり、身につけたりして生活を送っているものとする。
 ステップS1において、行動支援サーバ1は、クライアント端末から送信されてきたセンサデータを取得する。
 ユーザが有しているクライアント端末からは、クライアント端末に設けられたセンサにより検出されたセンサデータが繰り返し送信されてくる。例えば、ユーザの周囲をカメラにより撮影した画像、ユーザの音声をマイクロフォンにより検出して得られた音声データ、ユーザの生体反応を生体センサにより検出して得られた生体データなどの各種のセンサデータが取得される。
 クライアント端末に設けられたセンサより検出されたセンサデータではなく、ユーザ(クライアント端末)の近くにあるセンサにより検出されたセンサデータが送信されてくるようにしてもよい。
 ステップS2において、行動支援サーバ1は、センサデータを解析し、コンテキストを検出する。上述したように、コンテキストには外部状況と内部状況が含まれる。外部状況は、例えば、ユーザの周囲の様子が写る画像を解析したり、音声を解析したりして特定される。また、内部状況は、ユーザの生体反応や発話の内容を解析したり、画像に写るユーザの表情から感情を推定したりして特定される。
 ステップS3において、行動支援サーバ1は、イベントを発生させることのトリガであるイベントトリガとなる出来事が起きたか否かをコンテキストに基づいて判定する。
 イベントトリガとなる出来事には、相手を回避することの要請である回避要請がユーザにより行われたことが含まれる。回避要請は、例えば、「SOS」、「ヤバい」などの特定の言葉をユーザが発することによって行われる。また、回避要請は、クライアント端末の画面上でボタンを押すなどの所定の操作によっても行われる。
 ユーザの近くに不審者がいる、ユーザの生体反応が正常ではない反応を示しているなどの、あらかじめ設定されたコンテキストが検出されたことに応じて、イベントトリガとなる出来事が起きたものとして判定されるようにしてもよい。この場合、回避要請によらずに、イベントが自動的に起こされる。
 イベントトリガとなる出来事が起きたとステップS3において判定した場合、ステップS4において、行動支援サーバ1は、ユーザに問い合わせることによって回避希望レベルを確認する。回避希望レベルをユーザに確認することなく、イベントトリガとなる出来事が生じたことに応じて回避希望レベルが自動的に決定されるようにしてもよい。
 ステップS5において、行動支援サーバ1は、回避方法決定モデルMを用いるなどして、コンテキストに応じた回避方法を決定する。
 ステップS6において、行動支援サーバ1は、決定した回避方法に応じたイベントを発生させる。イベントの発生は、行動支援サーバ1とクライアント端末が連携して行われる。クライアント端末は、行動支援サーバ1による制御に従って、行動支援サーバ1により起こされたイベントをユーザに提示する。クライアント端末は、適宜、ユーザだけでなく、少なくとも相手を含む、ユーザの周囲の人に対してイベントを提示する。
 なお、イベントによっては、行動支援サーバ1と、ユーザの近くに設置されているデバイスやユーザの近くにいる人が持っているデバイスが連携して起こされる。
 ステップS6においてイベントの発生が行われた後、または、ステップS3においてイベントトリガとなる出来事が起きていないと判定された場合、ステップS1に戻り、以上の処理が繰り返される。
 以上のような処理により実現される回避の具体例について説明する。
<<相手が知らない人であるケース>>
<回避希望レベル1>
 図9は、ユーザが遭遇している状況の例を示す図である。
 図9に示すように、ユーザが街中を歩いている場合において、前方から不審者が向かってきている状況を想定する。このまま道を直進した場合、ユーザは不審者に接近し、言いがかりをつけられるなどして不審者から絡まれる可能性がある。前方にいる不審者は、まだ接触していないものの、接触することが予測される相手である。ユーザの前方には曲がり角があり、ユーザがいま歩いている道を迂回することができるようになっている。
・音声ナビゲーションの例
 図10は、音声ナビゲーションを用いた回避の例を示す図である。
 図10の左側の枠F1に示すように、不審者に気付いたユーザが回避要請となる「ヤバい」などの言葉を発することに応じて、行動支援サーバ1が異常を検出した場合、回避希望レベル1で回避するか否かの問い合わせがユーザに対して行われる。
 例えば、ユーザは、スマートフォンをクライアント端末として有しているものとする。行動支援サーバ1の制御に基づく音声はスマートフォンのスピーカから出力され、ユーザの音声はスマートフォンのマイクロフォンにより検出される。
 図10において、「システム」の文字は行動支援システムのことを意味する。「システム」の文字の隣に示す発話の内容は、行動支援サーバ1の制御に基づいてスマートフォンから出力される音声である。
 行動支援サーバ1による問い合わせに応じて「お願いします」などの言葉を発することにより、回避希望レベルの指定が行われる。
 行動支援サーバ1においては、道を迂回させるためのナビゲーション音声を出力するための制御が行われる。図10の中央の例においては、枠F2に示すように、曲がり角を右に曲がり、その先にある曲がり角を左に曲がることが案内されている。その後、図10の右側の枠F3に示すように、元の道に戻るためのナビゲーション音声が出力される。
 架空のイベントではなく、このように単に道を誘導することによって、相手の回避が行われるようにしてもよい。
・音声ARを用いた例
 図11は、音声AR(Augmented Reality)を用いた回避の例を示す図である。
 音声ARは、実際には鳴っていない仮想的な音を発生し、ユーザに聞かせることによって、実際には起きていない出来事をユーザに認知させる技術である。例えば、ユーザは、イヤホンをクライアント端末として装着しているものとする。
 不審者に気付いたユーザが回避要請となる言葉を発することに応じて、行動支援サーバ1が異常を検出した場合、図11の左側に示すように、回避希望レベル1で回避するか否かの問い合わせがユーザに対して行われる。行動支援サーバ1による問い合わせに応じて「お願い」などの言葉を発することにより、回避希望レベルの指定が行われる。
 回避要請となる言葉をユーザが発することに応じて行動支援サーバ1において異常が検出されるのではなく、不審者と接触することが予測された場合に異常が検出され、不審者と接触する可能性があることがユーザに対して提示されるようにしてもよい。不審者と接触することはコンテキストに基づいて予測される。
 行動支援サーバ1においては、迂回する道にいる人が、ユーザのことを呼ぶことが架空のイベントとして起こされる。第三者がユーザを呼ぶことは、ユーザを呼ぶ声を、音源位置を変えながらイヤホンから出力させることによって行われる。
 図11の中央の例においては、曲がり角を右に曲がった位置P1を音源位置とする「こっち、こっち」の音声が出力され、それに続けて、次の曲がり角を左に曲がった先の位置P2を音源位置とする「こっち、こっち」の音声が出力される。自分を呼ぶ声の方に向かって歩くという行動を選択することにより、ユーザは、図11の右側に示すように、不審者が通る道を迂回して、元の道に戻ることができる。
 だれかが自分のことを呼ぶといったイベントが起きることにより、ユーザは、自分を呼ぶ声の方向に向かう行動を自然に選択することができ、自然な態度で不審者を回避することが可能となる。不審者を回避することを意識しながら道を迂回しようとした場合、そのことが態度に現れ、露骨に回避するような形になってしまうことがあるが、露骨に回避するような態度を取ってしまうことを防ぐことが可能となる。
 ユーザを呼ぶ声として、ユーザにだけ聞こえる音声が出力されるようにしてもよいし、不審者を含む周囲にいる人にも聞こえる音声が出力されるようにしてもよい。周囲にいる人にも聞こえる音声の出力は、位置P1、位置P2などの、街中の各位置に設置されているスピーカから音声を出力することによって行われる。この場合、行動支援サーバ1は、ユーザが有しているクライアント端末とは異なるデバイスと連携することによって、イベントを発生させることになる。
・ARオブジェクトを用いた例
 図12は、ARオブジェクトを用いた回避の例を示す図である。
 ARオブジェクトは、例えば透過型のHMDに表示される仮想的なオブジェクトである。ユーザは、前方の風景に重ねて、実際には存在しないオブジェクトを見ることができる。ユーザは、HMDをクライアント端末として装着しているものとする。図12において、ユーザが装着している眼鏡は透過型のHMDである。非透過型のHMDを用いてARオブジェクトの表示が行われるようにしてもよい。
 図12の左側に示すように、不審者に気付いたユーザが回避希望レベルを指定した場合、行動支援サーバ1においては、黒猫を出現させることが架空のイベントとして起こされる。黒猫を出現させることは、黒猫をARオブジェクトとしてHMDに表示させることによって行われる。黒猫は、迂回する道に沿って歩くように移動して表示される。
 図12の中央の例においては、曲がり角を右に曲がった位置P1に黒猫が表示され、それに続けて、次の曲がり角を左に曲がった先の位置P2に黒猫が表示される。黒猫について行くという行動を選択することにより、ユーザは、図12の右側に示すように、不審者が通る道を迂回して、元の道に戻ることができる。
 黒猫が現れるといったイベントが起きることにより、ユーザは、黒猫について行く行動を自然に選択することができ、自然な態度で不審者を回避することが可能となる。当然、黒猫以外のARオブジェクトが表示されるようにすることも可能である。
・一時的に回避する例
 図13は、店舗を用いた回避の例を示す図である。
 図13に示すように、ユーザが歩いている道沿いにユーザの嗜好に合う店舗があるものとする。行動支援サーバ1においては、ユーザの嗜好や価値観などの情報が管理されている。ユーザは、スマートフォンをクライアント端末として有しているものとする。
 不審者に気付いたユーザが回避希望レベルを指定した場合、図13の左側に示すように、行動支援サーバ1においては、複数並んでいる店舗のうちの、前方にあるユーザの好みの店舗で安売りをしていることが架空のイベントとして起こされ、そのことがユーザに通知される。ユーザの嗜好に合う複数の店舗が理由とともに通知されるようにしてもよい。
 ユーザの嗜好に合わない店舗でユーザの好みの商品が売っている、ユーザの嗜好に合う店舗の店員が呼んでいるといったように、店舗に関する他の架空のイベントが起こされるようにしてもよい。
 その後、ユーザは、安売りに興味を示しながら図13の中央に示すように店舗に入る。ユーザは、不審者が通過するのを待って、図13の右側に示すように店舗から出ることにより、不審者を回避することができる。
 自分の好みの店舗で安売りをしているといったイベントが起きることにより、ユーザは、店舗に入る行動を自然に選択することができ、店舗の様子を伺いながら入ることにより、自然な態度で不審者を回避することが可能となる。
 以上のように、回避希望レベル1で回避することが要請された場合、接触することが予測される相手をすぐに回避できる状況を作り出す各種のイベントが起こされ、ユーザなどに提示される。
<回避希望レベル2>
・ユーザを呼び出すことによって回避させる例
 図14は、ユーザが遭遇した状況の例を示す図である。
 図14に示すように、ユーザが街中を歩いているときに他人から声をかけられ、親切に道を教えている状況を想定する。図14に示す状況は、相手と接触した後の状況である。相手と話しているうちに、図15に示すように、話の内容が道案内の内容から違う内容にすり替えられ、雰囲気が変わってきたものとする。吹き出し#11に示すように、ユーザの感情は、親切に対応していた状態から、相手を回避することを希望している状態に変化している。
 図16の左側に示すように、回避要請となる言葉をユーザが発することに応じて、行動支援サーバ1が異常を検出した場合、回避希望レベル2で回避するか否かの問い合わせがユーザに対して行われる。
 図16の左側の例においては、「SOS,SOS ここから逃がしてください!即効お願いします!」が回避要請となる言葉である。「困ります」を発話することにより、または、クライアント端末に振動を加えることにより、回避希望レベル2での回避要請が行われるようにしてもよい。
 この例においては、ユーザは、スマートウォッチをクライアント端末として装着している。行動支援サーバ1の制御に基づく音声は、スマートウォッチのスピーカから小さな音量で出力される。また、ユーザの音声は、スマートウォッチのマイクロフォンにより検出される。スマートウォッチの筐体にはディスプレイも設けられている。
 ユーザの感情が相手を回避することを希望している状態に変化したことが検出された場合に行動支援サーバ1において異常が検出され、回避するか否かの問い合わせがユーザに対して行われるようにしてもよい。ユーザの感情が相手を回避することを希望している状態に変化したことは、コンテキストに基づいて判断される。
 図16の右側に示すように、行動支援サーバ1による問い合わせに応じてユーザが承諾することにより、回避希望レベルの指定が行われる。
 行動支援サーバ1においては、第三者がユーザのことを呼び出すといった架空のイベントが起こされ、ユーザを呼び出すメッセージがスマートウォッチに対して送信される。すなわち、この例においては、人に呼ばれているからこの場を離れる必要があるといった状況が作り出されることになる。
 図17は、イベントの提示の例を示す図である。
 図17の左側の吹き出し#12に示すように、スマートウォッチのディスプレイには、会議が始まるから職場に急いで戻ることをユーザに指示するメッセージが表示される。メッセージを見たユーザは、急いで戻る必要があることを相手に伝えて立ち去ることにより、露骨に回避するのではなく、自然な形で相手を回避することができる。
 すなわち、呼び出されるといったイベントが起きることにより、ユーザは、呼び出しに応じて立ち去る行動を自然に選択することができ、自然な態度で相手を回避することが可能となる。また、自分が確認するついでに相手にもメッセージをさりげなく見せることにより、ユーザは、この場から立ち去ることについての納得感を相手に与えることが可能となる。
 ユーザを呼び出すメッセージは、例えば、電子メール、SMS(Short Message Service)により送信される。電話の着信がスマートウォッチに対して入れられ、ユーザの呼び出しが音声によって行われるようにしてもよい。
 図17の例においては、「急いで!」といったような、急いで戻ることを直接表すメッセージが送信されるものとしたが、「買い物終わったか?」、「何分待たせるんだ?」などのように、問い合わせによって、急いで戻ることを間接的に表すメッセージが送信されるようにしてもよい。
・協力者が声をかけることによって回避させる例
 図18は、回避の例を示す図である。
 状況によっては、ユーザがメッセージを確認しづらいこともある。友人などがユーザの協力者としてあらかじめ登録されており、協力者がユーザの近くにいる場合、相手から声をかけられて困っているユーザに対して声をかけることが行動支援サーバ1から協力者に対して要請されるようにしてもよい。行動支援サーバ1においては、ユーザの協力者がだれであるのかとともに、それぞれの協力者の位置が管理されている。
 図18の例においては、矢印A31に示すように回避要請が行われることに応じて、矢印A32に示すように、ユーザに声をかけることの要請である声かけ要請が協力者に対して行われる。行動支援サーバ1から協力者に対しては、「会議があることにして急いで戻るように伝えてください」といったように、声かけの内容も通知される。例えば、架空のイベントに急いで戻ることをユーザに伝えることが通知される。声かけ要請は、電子メール、SMS、電話などにより行われる。
 協力者が声をかける場合においても、第三者である協力者がユーザのことを呼び出すといった架空のイベントが発生され、人に呼ばれているからこの場を離れる必要があるといった状況が作り出されることになる。
 行動支援サーバ1からの要請を受けた協力者は、図19に示すように現場に向かい、行動支援サーバ1からの通知に従ってユーザに声をかける。協力者から声をかけられたユーザは、協力者と一緒に立ち去ることにより、露骨に回避するのではなく、自然な形で相手を回避することができる。
 ユーザに声をかける協力者として複数の人が登録される。協力者がユーザの知っている人であってもよいし、知らない人であってもよい。協力者がユーザの知らない人である場合、声かけの対象となるユーザがだれであるのかが、顔写真などのユーザの特徴を表す情報とともに行動支援サーバ1から通知される。
 声かけ要請を受けた協力者が現場に直接向かうのではなく、協力者からユーザに電話をかけることによって、急いで戻ることが伝えられるようにしてもよい。協力者からの電話に出ることにより、ユーザは、呼び出されている状況を相手の人にアピールすることができる。
 以上のように、回避希望レベル2で回避することが要請された場合、接触後の相手からどうにかして回避するための状況を作り出す各種のイベントが起こされ、ユーザに提示される。
<回避希望レベル3>
 回避希望レベル3は、接触後の相手から可能であれば回避したいといったときに用いられる回避希望レベルである。回避希望レベル3での回避は、例えば、回避する理由として用いることができる用事が行動支援サーバ1からユーザに通知されることによって行われる。架空のイベントとしてユーザの用事がコンテキストに応じて生成され、ユーザに通知される。
 ユーザは、行動支援サーバ1からの通知をきかっけとして、行動支援サーバ1から通知された用事があることを理由として相手を回避することになる。
 図20は、行動支援サーバ1からの通知の例を示す図である。
 図20の例においては、トイレに行くことを理由として相手を回避することが通知されている。ユーザは、図20の通知を確認した後、トイレに行きたいことを伝え、相手からさりげなく回避することになる。例えば、ユーザのコンテキストが、ユーザがトイレに一定の時間以上行っていないことを表している場合にトイレの用事が選択される。
 行動支援サーバ1から通知される用事は、買い物、仕事、勉強などの、トイレ以外の用事であってもよい。
 回避する理由をユーザが自ら考えるとした場合、嘘をついていることが態度に表れてしまい、自然に立ち去ることが難しいことがある。回避する理由がコンテキストに応じて行動支援サーバ1によって決定され、提示されることにより、ユーザは、立ち去る理由を躊躇なく相手に伝え、さりげなく相手を回避することができる。
 以上のように、回避希望レベル3で回避することが要請された場合、接触後の相手からできれば回避できるようにするための状況を作り出す各種のイベントが起こされ、ユーザに提示される。
<<相手が知っている人であるケース>>
 相手が知っている人である場合、同じ相手を回避するのが2回目以降であるときには、過去に使われた回避方法とは異なる回避方法が用いられる。
 図21は、ユーザの回避の様子を示す図である。
 図21の左側に示す状況は、ユーザが、自分の上司である課長から再度話しかかけられている状況である。ユーザは、図2を参照して説明したようにして1回目の状況を回避した後の例えば翌日に課長から話しかけられている。ユーザは、再度、今の状況を回避したいと考えている。
 このような状況において、ユーザU1が相手を回避することを要請した場合、矢印A41の先に示すように、顧客との打合せが架空のイベントとして起こされ、急いで戻ることがユーザに通知される。吹き出し#21に示すように、ユーザが装着するスマートウォッチのディスプレイには、打合せが始まるから急いで戻ることをユーザに指示するメッセージが表示される。
 すなわち、課長を回避するのが2回目であるから、1回目の回避方法と異なる回避方法が選択され、イベントが起こされる。図2を参照して説明した1回目の回避方法は、社長からの電話の着信を架空のイベントとした回避方法である。
 ユーザU1は、スマートウォッチの表示を見て、顧客との打合せがあることを課長に伝える。ユーザU1は、顧客との打合せに向かうという行動を選択することにより、矢印A42の先に示すように、課長の説教を回避することができる。
 このように、相手が知っている人である場合、過去に使った回避方法と異なる回避方法が用いられる。同じ人を同じ回避方法で回避した場合、相手の人に不審がられ、今後の関係性が損なわれてしまう可能性があるが、そのようなことを防ぐことが可能となる。
 相手が知っている人である場合の行動支援サーバ1の動作は、過去に使った回避方法と異なる回避方法が用いられる点を除いて、基本的には、相手が知らない人である場合と同様である。
 図22は、知っている人の回避の例を示す図である。
 回避したい人、すなわち会いたくない人がいる場合、ユーザは、その人の顔画像などの情報を行動支援サーバ1にあらかじめ登録する。会いたくない人のID、外見の特徴などの、人物の識別に用いることが可能な他の情報が登録されるようにしてもよい。行動支援サーバ1においては、例えば、あらかじめ登録された人と同じ人がユーザの知っている人であるとして判断され、あらかじめ登録された人と異なる人がユーザの知らない人であるとして判断される。
 図22に示すように、ユーザが例えば会社内にいる間、ユーザが持つクライアント端末に搭載されたカメラにより撮影された画像が行動支援サーバ1に送信され続ける。例えば、ユーザの周囲の360度の範囲を撮影可能なカメラCにより撮影された広角の画像が行動支援サーバ1に送信される。
 行動支援サーバ1においては、ユーザの周りを撮影して得られた画像が解析され、人がいる場合には人物の識別が行われる。会いたくない人として登録されている課長がユーザの近くにいて、近づいてきていることがコンテキストとして検出された場合、図23の吹き出しに示すように、回避するか否かの問い合わせが行われる。問い合わせに応じて回避要請が行われた場合、ユーザの進行方向が課長の方向の反対方向であるときには、振り向かずにそのまま前進することが通知される。
 図24は、通知の出力例を示す図である。
 ユーザが持っているクライアント端末がスマートフォンである場合、図24のAに示すように、ディスプレイの表示を用いて、振り向かずにそのまま前進することが通知される。また、ユーザがイヤホンを装着している場合、図24のBに示すように、振り向かずにそのまま前進することが音声によって通知される。
 このような誘導にも関わらず、ユーザが課長に話しかけられた場合、図21を参照して説明したようにして、課長の回避が回避希望レベル2で行われる。なお、相手が知っている人である場合も、回避希望レベルの指定がユーザにより適宜行われる。
 単なる誘導ではなく、相手との接触前の上述したような架空のイベントが起こされ、それに応じてユーザが行動を選択することによって課長の回避が行われるようにしてもよい。
 図25は、会いたくない人の登録画面の例を示す図である。
 クライアント端末であるスマートフォンにインストールされた行動支援アプリケーションを起動させ、所定の操作をユーザが行った場合、図25に示すような登録画面が表示される。行動支援アプリケーションは、上述したような行動の選択を支援する機能を行動支援サーバ1と連携して実現するアプリケーションプログラムである。図25に示す登録画面は、行動支援アプリケーションと行動支援サーバ1との間で通信が行われ、行動支援サーバ1から送信されてきた情報に基づいて表示される。
 図25の例においては、3人の知っている人を会いたくない人として登録することができるようになっている。図25のメッセージにおける「ストレスとなる人」は会いたくない人のことを表す。
 会いたくない人の情報として、顔写真、氏名、ニックネーム、性格などが登録される。会いたくない人毎に、回避希望レベルを登録したり、回避方法を登録したりすることができるようにしてもよい。
<<ユーザの価値観を考慮した回避方法の決定>>
 同じ状況に遭遇した場合であっても、好ましい回避方法は人によって異なる。言い換えると、どの回避方法で回避するのが好ましいかは、人の価値観によって異なる。行動支援サーバ1における回避方法の決定にユーザの価値観が用いられるようにしてもよい。
 図26は、行動支援アプリケーションにより表示されるアンケート画面の例を示す図である。
 図26の例においては、コストパフォーマンスが悪いと考える項目を2つの選択肢の中から選択することによってアンケートが進められるようになっている。ユーザは、2つの選択肢を見て、コストパフォーマンスが悪い項目を瞬間的に判断していずれかの項目を選択する。
 例えば「部長」と「社員」のうちのどちらがコストパフォーマンスが悪い(低い)と考えるかは、生き方についての価値観を問う質問となる。「部長」の方がコストパフォーマンスが高いと考えるユーザは、出世意欲があり、社会的地位を求め、組織を重視する価値観を持っているユーザであるといえる。一方、「社員」の方がコストパフォーマンスが高いと考えるユーザは、出世意欲がなく、社会的地位はほどほどでいいと考え、自分を重視する価値観を持っているユーザであるといえる。
 行動支援サーバ1においては、アンケートに対するユーザの回答を解析することによって、ユーザの価値観に応じたタイプ(グループ)である価値観タイプが特定される。
 図27は、価値観タイプの例を示す図である。
 図27に示すように、例えば、Aタイプ、Bタイプ、Cタイプの3つの価値観タイプが用意される。3つの価値観タイプのうちのいずれかのタイプが、ユーザの価値観に応じて特定される。4つ以上の価値観タイプが用意されるようにしてもよい。
 例えば、Aタイプは、場の雰囲気を壊さず、上司の機嫌や都合を考慮した回避方法が選択される価値観タイプである。Bタイプは、悪く思われたとしても構わず、とにかく回避する回避方法が選択される価値観タイプである。Cタイプは、適当にごまかしながら、相手との関係性をうまくとった回避方法が選択される価値観タイプである。
 図26を参照して説明した「部長」と「社員」のうちのいずれかを選択するアンケートにおいて「部長」の方がコストパフォーマンスが高いと考えるユーザの価値観タイプとしては、例えばAタイプが特定されやすくなる。また、「社員」の方がコストパフォーマンスが高いと考えるユーザの価値観タイプとしては、例えばBタイプが特定されやすくなる。
 このようにして特定された価値観タイプを用いて、各ユーザの価値観を考慮した回避方法が決定される。例えば、回避方法決定モデルMの入力として価値観タイプを用いることによって、価値観を考慮した回避方法が決定される。
 図28は、価値観タイプ毎の回避方法の例を示す図である。
 図28に示す回避方法は、上司と話している場合において、その場を立ち去りたいとユーザが考えているときの回避方法である。
 例えば、価値観タイプがAタイプであるユーザの回避方法として、仕事のアイデアが思い浮かんだことを理由にデスクワークに戻る回避方法が選択される。この場合、仕事のアイデアが思い浮かんだというイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「いいアイデアが出たので、早く席に戻って忘れないうちにまとめちゃいます!」などの言葉を残して上司の前から立ち去る。
 価値観タイプがBタイプであるユーザの回避方法として、友人からの電話の着信があったことを理由にその場を離れる回避方法が選択される。この場合、友人からの電話の着信というイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「やべえ、電話だ」などの言葉を残して上司の前から立ち去る。
 価値観タイプがCタイプであるユーザの回避方法として、定例の資料が出来ておらず、デスクワークに戻ることを理由にその場を離れる回避方法が選択される。この場合、定例の資料が出来ていないというイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「資料できてない。急いでやらなくては。ほんとうにすみません。失礼します。」などの言葉を残して上司の前から立ち去る。
 価値観タイプを用いて回避方法が決定されることにより、ユーザは、自分の価値観にあった回避方法で相手を回避することができる。価値観だけでなく、趣味、嗜好などのユーザの他の属性にも基づいて回避方法が決定されるようにしてもよい。
<<各装置の構成>>
 ここで、行動支援システムを実現する装置の構成について説明する。
<行動支援サーバ1の構成>
 図29は、行動支援サーバ1のハードウェア構成例を示すブロック図である。
 図29に示すように、行動支援サーバ1はコンピュータにより構成される。複数台のコンピュータによって行動支援サーバ1が実現されるようにしてもよい。
 CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続される。
 バス104には、さらに、入出力インタフェース105が接続される。入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。
 また、入出力インタフェース105には、記憶部108、通信部109、ドライブ110が接続される。
 記憶部108は、ハードディスクや不揮発性のメモリなどにより構成される。記憶部108には、CPU101が実行するプログラム、各ユーザに関する情報などの各種の情報が記憶される。
 通信部109は、ネットワークインタフェースなどにより構成される。通信部109は、各ユーザが有するクライアント端末、協力者が有するクライアント端末などの、行動支援システムを実現するための各種のデバイスとの間でインターネットを介して通信を行う。
 図30は、行動支援サーバ1の機能構成例を示すブロック図である。
 図30に示す機能部のうちの少なくとも一部は、図29のCPU101により所定のプログラムが実行されることによって実現される。行動支援サーバ1においては情報処理部121が実現される。情報処理部121は、上述した回避方法決定部11に加えて、対話部131、コンテキスト検出部132、イベント発生部133、価値観判断部134、ユーザ属性記憶部135、回避情報取得部136、および学習部137により構成される。
 対話部131は、クライアント端末との間で通信を行い、ユーザとの対話を実現する。対話部131による対話は、音声を用いて、またはテキストを用いて行われる。回避要請のための対話、回避希望レベルの確認のための対話などの、様々な対話がユーザのとの間で行われる。
 上述した図8のステップS4の処理が、対話部131により行われる処理となる。ユーザが回避要請を行っていることを表す情報はコンテキスト検出部132に供給される。また、ユーザとの対話によって確認された回避希望レベルを表す情報は回避方法決定部11に供給される。
 コンテキスト検出部132は、クライアント端末から送信されてきたセンサデータを取得し、上述したような外部状況と内部状況を含む、ユーザのコンテキストを検出する。
 例えば、コンテキスト検出部132は、クライアント端末のカメラにより撮影された画像やマイクロフォンにより検出された音声を解析することによって外部状況を検出する。また、コンテキスト検出部132は、クライアント端末のカメラにより撮影された画像、マイクロフォンにより検出された音声、生体センサにより検出されたユーザの生体反応を解析することによって内部状況を検出する。
 コンテキスト検出部132は、ジャイロセンサ、加速度センサ、測位センサなどの、クライアント端末の他のセンサにより検出されたセンサデータに基づいて、ユーザの場所、ユーザの進行方向、ユーザの視線の方向をコンテキストとして検出することなども行う。不審者と接触する可能性があるか否かなどのコンテキストの検出も、コンテキスト検出部132により行われる。
 このように、コンテキストの検出は、クライアント端末から送信されてきた複数種類のセンサデータのうちの少なくともいずれかのセンサデータを用いて行われる。
 コンテキスト検出部132は、イベントトリガとなる出来事が生じた場合、検出したコンテキストの情報を回避方法決定部11に出力する。図8のステップS1,S2,S3の処理が、コンテキスト検出部132により行われる処理となる。
 回避方法決定部11は、ユーザのコンテキストに応じた回避方法を決定する。図6を参照して説明したように、コンテキストに応じた回避方法は回避方法決定モデルMを用いて決定される。対話部131から供給された回避希望レベルを表す情報、コンテキスト検出部132から供給されたコンテキストを表す情報、ユーザ属性記憶部135から読み出された価値観タイプを表す情報などを入力することによって得られた回避方法決定モデルMの出力が、回避方法を表す情報となる。
 回避方法決定部11により決定された回避方法を表す情報は、イベント発生部133に供給される。図8のステップS5の処理が、回避方法決定部11により行われる処理となる。
 回避方法決定モデルMを用いた推論によって回避方法が決定されるのではなく、あらかじめ設定された、コンテキストなどと回避方法との対応関係を表す情報に基づいて回避方法が決定されるようにしてもよい。コンテキストなどの情報に基づいて所定の計算が行われ、回避方法が決定されるようにしてもよい。コンテキストに応じた回避方法を決定する方法として様々な方法を採用することが可能である。
 イベント発生部133は、クライアント端末と通信を行い、回避方法決定部11により決定された回避方法に応じた架空のイベントを発生させ、ユーザに提示する。上述したように、イベントの提示は、適宜、ユーザの相手や、ユーザの周囲にいる人をも対象として行われる。図8のステップS6の処理が、イベント発生部133により行われる処理となる。
 価値観判断部134は、行動支援アプリケーションを用いて行われるアンケートの回答を取得し、ユーザの価値観に応じた価値観タイプを特定する。価値観判断部134により特定された価値観タイプの情報は、ユーザに関する他の情報とともにユーザ属性記憶部135に記憶される。
 ユーザ属性記憶部135は、クライアント端末の情報、会いたくない人としてユーザにより登録された人の情報、価値観タイプの情報、協力者の情報などの、ユーザに関する各種の属性情報を例えばユーザのIDと紐付けて記憶する。クライアント端末の情報には、クライアント端末の仕様、位置、クライアント端末と通信を行うための情報などが含まれる。クライアント端末と通信を行うための情報には、クライアント端末の電話番号、メールアドレスなどが含まれる。
 ユーザ属性記憶部135に記憶されている情報のうち、価値観タイプの情報などの、回避方法の決定に用いられる情報が回避方法決定部11により読み出される。また、イベントの提示に用いられるクライアント端末の情報などの、イベントを発生させることに用いられる情報がイベント発生部133により読み出される。
 回避情報取得部136は、各クライアント端末から送信されてきた回避情報を受信し、取得する。また、回避情報取得部136は、回避情報を公開し、各ユーザの間で共有させる。回避情報取得部136により取得された回避情報は学習部137に供給される。
 学習部137は、回避情報取得部136により取得された回避情報に基づいて、回避方法決定モデルMの学習(回避方法決定モデルMを構成するパラメータの学習)を行う。学習部137による学習によって得られた回避方法決定モデルMの情報は回避方法決定部11に供給される。
 回避方法決定モデルMの学習が、各ユーザの評価に基づいて算出されたスコアが閾値より高い回避情報だけを用いて行われるようにしてもよいし、回避に成功した回避方法に関する回避情報だけを用いて行われるようにしてもよい。
<クライアント端末の構成>
 図31は、クライアント端末201の構成例を示すブロック図である。
 クライアント端末201は、制御部211に対して、センサ部212、記憶部213、操作部214、通信部215、および出力部216が接続されることによって構成される。クライアント端末201は、行動支援システムを構成する情報処理端末である。
 制御部211は、CPU、ROM、RAMなどにより構成される。制御部211は、所定のプログラムをCPUにより実行し、クライアント端末201の全体の動作を制御する。制御部211においては、行動支援アプリケーションなどのプログラムが実行されることによって、センサデータ送信部221とイベント提示部222が実現される。
 センサデータ送信部221は、通信部215を制御することによって行動支援サーバ1と通信を行い、センサ部212から供給されたセンサデータを行動支援サーバ1に送信する。
 センサ部212からは、カメラ231により撮影された画像、マイクロフォン232により検出された音声、測位センサ233により検出されたユーザの位置、生体センサ234により検出された生体データを含むセンサデータが供給される。ジャイロセンサや加速度センサにより検出されたデータ、温度センサにより検出されたデータなどの、他のセンサにより検出されたデータがセンサデータに含まれるようにしてもよい。
 イベント提示部222は、通信部215を制御することによって行動支援サーバ1と通信を行い、行動支援サーバ1による制御に従ってイベントを提示する。
 例えば、イベント提示部222は、電話の着信があったことを提示する場合、電話の発信元の情報をディスプレイ241に表示させたり、電話の着信音をスピーカ242から出力させたりする。また、イベント提示部222は、ユーザの進行方向を誘導する場合、ナビゲーションの音声や、第三者がユーザのことを呼ぶ音声をスピーカ242から出力させる。
 イベント提示部222は、クライアント端末201がHMDである場合において、仮想的なオブジェクトを表示させることによってユーザを誘導するとき、ユーザの目の前方に設けられたディスプレイ241に仮想的なオブジェクト表示させる。
 イベント提示部222は、ユーザを呼び出すメッセージをディスプレイ241に表示させるなどの他の様々な方法によってイベントを提示する。イベントの提示がクライアント端末201の外部のデバイスを用いて行われる場合、イベント提示部222は、通信部215を介して外部のデバイスと通信を行い、外部のデバイスを制御してイベントを提示させるなどの処理を行う。
 センサ部212は、カメラ231、マイクロフォン232、測位センサ233、および生体センサ234により構成される。
 カメラ231は、クライアント端末201を有しているユーザの周囲を撮影し、撮影することによって得られた画像を制御部211に出力する。カメラ231が撮影する画像は、静止画であってもよいし、動画であってもよい。
 マイクロフォン232は、ユーザの音声、ユーザに話しかけている相手の音声、周囲の環境音などの各種の音声を検出し、制御部211に出力する。
 測位センサ233は、GPSセンサなどにより構成される。測位センサ233は、クライアント端末201の位置を検出し、制御部211に出力する。
 生体センサ234は、体温センサ、心拍数センサなどにより構成される。アルファ波やベータ波などの脳波を検出するセンサが生体センサ234に含まれるようにしてもよい。生体センサ234は、体温、心拍数、脳波などのユーザの生体データを検出し、制御部211に出力する。
 記憶部213は、フラッシュメモリなどにより構成される。記憶部213には、行動支援アプリケーションなどの各種のデータが記憶される。
 操作部214は、ディスプレイ241上に設けられたタッチパネル、クライアント端末201の筐体の所定の位置に設けられたボタンなどにより構成される。操作部214は、ユーザの操作を検出し、操作の内容を表す情報を制御部211に出力する。
 通信部215は、Bluetooth(登録商標)、無線LANなどの近距離の無線通信のインタフェース、および、4G,5Gなどの移動体通信システム(WAN)を用いた無線通信のインタフェースである。通信部215は、行動支援サーバ1などの外部の装置との間で通信を行う。
 出力部216は、ディスプレイ241とスピーカ242により構成される。ディスプレイ241は、制御部211による制御に従って各種の情報を表示する。スピーカ242は、制御部211による制御に従って各種の音声や効果音を出力する。
 振動発生モジュール、ロボットアームなどの、ユーザとのインタフェースとなる他のモジュールが出力部216に設けられるようにしてもよい。出力部216の各構成はイベントを提示することに用いられる。
 なお、以上のようなクライアント端末201の構成は、スマートフォン、スマートウォッチ、HMDなどの、クライアント端末201の種類によって適宜変更される。クライアント端末201の種類によっては、図31に示す構成のうちの一部の構成が設けられないこともあるし、図31には示されていない他の構成が設けられることもある。
<<変形例>>
<回避予約>
 コンテキストに応じた回避方法をユーザがあらかじめ設定しておくことができるようにしてもよい。この場合、将来のコンテキストと、そのコンテキストが検出されたときに用いる回避方法とがユーザにより設定される。ユーザは、回避方法をいわば予約することができることになる。
 回避方法の予約は、状況(コンテキスト)、回避希望レベル、イベントの内容などを、行動支援アプリケーションのメニュー画面を用いて設定することによって行われる。帰り道、電車、駅前、繁華街などの場所に関する設定、ナンパ、勧誘、酔っ払いなどの出来事に関する設定などを、メニュー画面を用いて行うことが可能とされる。
 ユーザにより設定されたコンテキストと同じコンテキストが検出された場合、あらかじめ設定された回避方法を用いてユーザを回避させるためのイベントが行動支援サーバ1により起こされる。
 回避方法を予約できるようにすることにより、ユーザは、ある場所に行くことで煩わしいことが起こるかもしれないという予感に対して準備をすることができる。
<2人を近付けるための行動の選択支援>
 相手が煩わしいとユーザが感じたことに応じて、その相手を回避させるための、すなわち、相手を遠ざけるためのイベントが起こされる場合について説明したが、相手との距離を近づけるためのイベントが起こされるようにしてもよい。相手との距離を近づけるためのイベントは、相手との距離が遠いとユーザが感じたことに応じて起こされる。相手との距離を近づけるためのイベントも、例えば架空のイベントである。
 イベントが起こされることに応じてユーザが行動を選択することにより、ユーザと相手の距離が近づけられ、ユーザと相手はお互いに癒しを感じられるようになる。行動支援サーバ1により行われる支援は、ユーザと相手を近づけ、お互いに癒やしを感じられるようにするための行動を選択することの支援となる。
 お互いに癒しを感じられるようにするためのイベントの内容も、相手が知っている人であるか否かを含むコンテキストや、癒やしの希望レベルに応じて異なる内容となる。
 例えば、友人に元気がないと感じたことから、ユーザがイベントの発生を要請した場合、知らない人が電話をかけてくるといった架空のイベントが行動支援サーバ1によって起こされる。知らない人からの間違い電話にユーザが応答し、間違い電話といったハプニングのことについて話すことによって、ユーザは、相手に近づくことができ、癒しを感じることが可能となる。
 友人と話をしてテンションが上がってきたことが検出された場合、近くのカフェに行くことが行動支援サーバ1により提案され、クライアント端末の画面を用いた道案内が開始されるようにしてもよい。
 また、ユーザと相手の共通の友人が協力者として現れ、協力者が3人でカフェに行くことを提案するようなイベントが起こされるようにしてもよい。この場合も、声かけの内容として架空のイベントが協力者に対して行動支援サーバ1から通知される。
 架空のイベントが起こされるのではなく、単に、ある質問が行動支援サーバ1からユーザに対して通知され、同じ質問をユーザから相手に対して行うことが提案されるようにしてもよい。友人に対して「最近癒されたことって何ですか?」と質問をしたり、道でアイスを食べている知らない人に「それどこで買ったのですか?」と質問をしたりすることにより、相手との距離を近づけることが可能となる。
 このように、相手との距離を遠ざけるためのイベントではなく、相手との距離を近づけるためのイベントが行動支援サーバ1により起こされるようにすることも可能である。
 すなわち、行動支援サーバ1は、ユーザとユーザが遭遇した相手との距離を遠ざけたり近付けたりする可能性のある架空のイベントを発生させることによって、ユーザによる行動の選択を支援する情報処理装置である。ユーザと相手との距離には、物理的な距離だけでなく、精神的な距離も含まれる。
<その他>
 コンテキストの検出や回避方法の決定などの図8を参照して説明した一連の処理がクライアント端末201により行われるようにしてもよい。この場合、図30の情報処理部121がクライアント端末201に設けられる。行動支援アプリケーションが実行されることにより、情報処理部121がクライアント端末201において実現される。
・プログラムについて
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
 インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなるリムーバブルメディア111に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、前記ユーザに提示する情報処理部を備える
 情報処理装置。
(2)
 前記情報処理部は、前記ユーザとともに、少なくとも前記相手を含む、前記ユーザの周りにいる人に対して前記イベントを提示する
 前記(1)に記載の情報処理装置。
(3)
 前記情報処理部は、前記相手が前記ユーザにとって知っている人であるか、知らない人であるかに応じて、異なる内容の前記イベントを発生させる
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記情報処理部は、前記相手が前記ユーザにとって知っている人である場合、同じ人を前記相手として発生させたことのある前記イベントと異なる内容の前記イベントを発生させる
 前記(3)に記載の情報処理装置。
(5)
 前記情報処理部は、前記ユーザによりあらかじめ登録された人と同じ人を知っている人とし、あらかじめ登録された人と異なる人を知らない人として、前記イベントを発生させる
 前記(3)または(4)に記載の情報処理装置。
(6)
 前記情報処理部は、前記相手との距離を変える希望度合いを表すレベルに応じて、異なる内容の前記イベントを発生させる
 前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記情報処理部は、前記ユーザにより指定された前記レベルに応じて、異なる内容の前記イベントを発生させる
 前記(6)に記載の情報処理装置。
(8)
 センサにより検出されたセンサデータに基づいて、前記コンテキストを検出するコンテキスト検出部をさらに備え、
 前記情報処理部は、前記イベントのトリガとなる所定の言葉を前記ユーザが発したことを表す前記コンテキストが検出された場合、または、前記ユーザの生体反応が所定の反応を示していることを表す前記コンテキストが検出された場合、前記イベントを発生させる
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記情報処理部は、前記ユーザと前記相手との距離を遠ざける前記イベントを発生させる
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記情報処理部は、前記ユーザと前記相手が接触することが予測される場合、前記イベントを発生させ、前記相手から遠ざけるように前記ユーザの進行方向を誘導する
 前記(9)に記載の情報処理装置。
(11)
 前記情報処理部は、前記相手と接触することが予測されることを前記ユーザに提示し、前記相手との距離を遠ざけることが前記ユーザにより指示されたことに応じて、前記イベントを発生させる
 前記(9)または(10)に記載の情報処理装置。
(12)
 前記情報処理部は、前記イベントの内容を通知する音声を前記ユーザが有するデバイスから出力させることによって、前記イベントを前記ユーザに提示する
 前記(9)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記情報処理部は、前記ユーザと前記相手が接触している場合において、前記ユーザの前記コンテキストが、前記相手との距離を遠ざけることを希望している状態に変化したとき、前記相手との距離を遠ざける前記イベントを発生させる
 前記(9)に記載の情報処理装置。
(14)
 前記情報処理部は、第三者が前記ユーザを呼び出すことを前記イベントとして発生させ、前記ユーザを呼び出す内容の情報を前記ユーザが有するデバイスから出力させる
 前記(13)に記載の情報処理装置。
(15)
 前記情報処理部は、前記ユーザの用事を前記イベントとして発生させ、前記用事の内容を表す情報を前記ユーザが有するデバイスから出力させる
 前記(13)に記載の情報処理装置。
(16)
 情報処理装置が、
 ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
 前記イベントを前記ユーザに提示する
 情報処理方法。
(17)
 コンピュータに、
 ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
 前記イベントを前記ユーザに提示する
 処理を実行させるためのプログラム。
(18)
 ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させる情報処理部を備える情報処理装置と、
 前記情報処理装置による制御に従って、前記イベントを前記ユーザに提示する出力部を備える情報処理端末と
 から構成される情報処理システム。
 1 行動支援サーバ, 11 回避方法決定部, 121 情報処理部, 131 対話部, 132 コンテキスト検出部, 133 イベント発生部, 134 価値観判断部, 135 ユーザ属性記憶部, 136 回避情報取得部, 137 学習部, 201 クライアント端末, 211 制御部, 221 センサデータ送信部, 222 イベント提示部

Claims (18)

  1.  ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、前記ユーザに提示する情報処理部を備える
     情報処理装置。
  2.  前記情報処理部は、前記ユーザとともに、少なくとも前記相手を含む、前記ユーザの周りにいる人に対して前記イベントを提示する
     請求項1に記載の情報処理装置。
  3.  前記情報処理部は、前記相手が前記ユーザにとって知っている人であるか、知らない人であるかに応じて、異なる内容の前記イベントを発生させる
     請求項1に記載の情報処理装置。
  4.  前記情報処理部は、前記相手が前記ユーザにとって知っている人である場合、同じ人を前記相手として発生させたことのある前記イベントと異なる内容の前記イベントを発生させる
     請求項3に記載の情報処理装置。
  5.  前記情報処理部は、前記ユーザによりあらかじめ登録された人と同じ人を知っている人とし、あらかじめ登録された人と異なる人を知らない人として、前記イベントを発生させる
     請求項3に記載の情報処理装置。
  6.  前記情報処理部は、前記相手との距離を変える希望度合いを表すレベルに応じて、異なる内容の前記イベントを発生させる
     請求項1に記載の情報処理装置。
  7.  前記情報処理部は、前記ユーザにより指定された前記レベルに応じて、異なる内容の前記イベントを発生させる
     請求項6に記載の情報処理装置。
  8.  センサにより検出されたセンサデータに基づいて、前記コンテキストを検出するコンテキスト検出部をさらに備え、
     前記情報処理部は、前記イベントのトリガとなる所定の言葉を前記ユーザが発したことを表す前記コンテキストが検出された場合、または、前記ユーザの生体反応が所定の反応を示していることを表す前記コンテキストが検出された場合、前記イベントを発生させる
     請求項1に記載の情報処理装置。
  9.  前記情報処理部は、前記ユーザと前記相手との距離を遠ざける前記イベントを発生させる
     請求項1に記載の情報処理装置。
  10.  前記情報処理部は、前記ユーザと前記相手が接触することが予測される場合、前記イベントを発生させ、前記相手から遠ざけるように前記ユーザの進行方向を誘導する
     請求項9に記載の情報処理装置。
  11.  前記情報処理部は、前記相手と接触することが予測されることを前記ユーザに提示し、前記相手との距離を遠ざけることが前記ユーザにより指示されたことに応じて、前記イベントを発生させる
     請求項10に記載の情報処理装置。
  12.  前記情報処理部は、前記イベントの内容を通知する音声を前記ユーザが有するデバイスから出力させることによって、前記イベントを前記ユーザに提示する
     請求項9に記載の情報処理装置。
  13.  前記情報処理部は、前記ユーザと前記相手が接触している場合において、前記ユーザの前記コンテキストが、前記相手との距離を遠ざけることを希望している状態に変化したとき、前記相手との距離を遠ざける前記イベントを発生させる
     請求項9に記載の情報処理装置。
  14.  前記情報処理部は、第三者が前記ユーザを呼び出すことを前記イベントとして発生させ、前記ユーザを呼び出す内容の情報を前記ユーザが有するデバイスから出力させる
     請求項13に記載の情報処理装置。
  15.  前記情報処理部は、前記ユーザの用事を前記イベントとして発生させ、前記用事の内容を表す情報を前記ユーザが有するデバイスから出力させる
     請求項13に記載の情報処理装置。
  16.  情報処理装置が、
     ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
     前記イベントを前記ユーザに提示する
     情報処理方法。
  17.  コンピュータに、
     ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
     前記イベントを前記ユーザに提示する
     処理を実行させるためのプログラム。
  18.  ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させる情報処理部を備える情報処理装置と、
     前記情報処理装置による制御に従って、前記イベントを前記ユーザに提示する出力部を備える情報処理端末と
     から構成される情報処理システム。
PCT/JP2021/025622 2020-07-21 2021-07-07 情報処理装置、情報処理方法、プログラム、および情報処理システム WO2022019119A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/005,181 US20230188635A1 (en) 2020-07-21 2021-07-07 Information processing device, information processing method, program, and information processing system
JP2022537915A JPWO2022019119A1 (ja) 2020-07-21 2021-07-07

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-124531 2020-07-21
JP2020124531 2020-07-21

Publications (1)

Publication Number Publication Date
WO2022019119A1 true WO2022019119A1 (ja) 2022-01-27

Family

ID=79729316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025622 WO2022019119A1 (ja) 2020-07-21 2021-07-07 情報処理装置、情報処理方法、プログラム、および情報処理システム

Country Status (3)

Country Link
US (1) US20230188635A1 (ja)
JP (1) JPWO2022019119A1 (ja)
WO (1) WO2022019119A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099407A1 (ja) * 2011-12-28 2013-07-04 株式会社ニコン 表示装置及び投影装置
US20130245396A1 (en) * 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
JP2015050724A (ja) * 2013-09-04 2015-03-16 株式会社エイビット 高機能電話機

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130245396A1 (en) * 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
WO2013099407A1 (ja) * 2011-12-28 2013-07-04 株式会社ニコン 表示装置及び投影装置
JP2015050724A (ja) * 2013-09-04 2015-03-16 株式会社エイビット 高機能電話機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAGIWARA, SAKI; KURIHARA, KAZUTAKA.: "Development and Evaluation of a "Gaze Phobic KOMYUSHO" Support System using See-through HMD based on Social Welfare Approach.", COMPUTER SOFTWARE, vol. 33, no. 1, 26 January 2016 (2016-01-26), pages 52 - 62, XP009533742, ISSN: 0289-6540, DOI: 10.11309/jssst.33.1_52 *

Also Published As

Publication number Publication date
US20230188635A1 (en) 2023-06-15
JPWO2022019119A1 (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
CN112075075B (zh) 用于促进远程会议的方法和计算机化智能助理
US20230396704A1 (en) Systems, devices, and methods for generating messages
CN110998725B (zh) 在对话中生成响应
KR102541523B1 (ko) 인간 대 컴퓨터 다이얼로그들에 요청되지 않은 콘텐츠의 사전 통합
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
CN110248019B (zh) 用于启用语音的对话界面的方法、计算机存储介质和设备
KR102240661B1 (ko) 그룹 컨텍스트에서 개인-통제된 컨텐츠의 조건부 공개
CN108337380B (zh) 自动调整用户界面以用于免提交互
CN116312526A (zh) 自然助理交互
CN110874129A (zh) 显示系统
EP2884409A1 (en) Context aware, proactive digital assistant
Williams et al. Towards leveraging the driver's mobile device for an intelligent, sociable in-car robotic assistant
Williams et al. Affective robot influence on driver adherence to safety, cognitive load reduction and sociability
US11836980B2 (en) Systems, devices, and methods for assisting human-to-human interactions
JP7207425B2 (ja) 対話装置、対話システムおよび対話プログラム
US20210049352A1 (en) Information processing system, information processing method, and recording medium
WO2022019119A1 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP2017162268A (ja) 対話システムおよび制御プログラム
WO2016157678A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN116888574A (zh) 共存会话中的数字助理交互
Jameson et al. User multitasking with mobile multimodal systems
Nijholt Social augmented reality: A multiperspective survey
US12032155B2 (en) Method and head-mounted unit for assisting a hearing-impaired user
Friedman et al. Supporting Observability through Social Cues
JP7263848B2 (ja) 状態改善装置、状態改善システム、および状態改善方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846624

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022537915

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21846624

Country of ref document: EP

Kind code of ref document: A1