WO2017013937A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2017013937A1
WO2017013937A1 PCT/JP2016/065085 JP2016065085W WO2017013937A1 WO 2017013937 A1 WO2017013937 A1 WO 2017013937A1 JP 2016065085 W JP2016065085 W JP 2016065085W WO 2017013937 A1 WO2017013937 A1 WO 2017013937A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information processing
communication
processing apparatus
network
Prior art date
Application number
PCT/JP2016/065085
Other languages
English (en)
French (fr)
Inventor
望月 大介
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/742,970 priority Critical patent/US10499315B2/en
Priority to CN201680041458.9A priority patent/CN107852431B/zh
Priority to DE112016003273.0T priority patent/DE112016003273T5/de
Publication of WO2017013937A1 publication Critical patent/WO2017013937A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W48/00Access restriction; Network selection; Access point selection
    • H04W48/02Access restriction performed under specific conditions
    • H04W48/04Access restriction performed under specific conditions based on user or terminal location or mobility data, e.g. moving direction, speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/605Portable telephones adapted for handsfree use involving control of the receiver volume to provide a dual operational mode at close or far distance from the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6058Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 discloses an example of a communication terminal that is configured to be portable and capable of communicating with other users via a network.
  • the user may determine the current situation by himself and, if necessary, consciously perform operations related to interruption or resumption of communication via the network with the other party. In some cases, such an operation may be bothersome for the user.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a program capable of continuing communication between a plurality of users in a more preferable manner.
  • an information processing apparatus including a control unit that controls the communication mode.
  • a network between a plurality of users according to a determination result of whether or not direct first communication is possible between a plurality of users who are targets of mutual communication includes controlling a mode of second communication through the network.
  • a network between a plurality of users is determined according to a determination result of whether or not direct first communication is possible between a plurality of users who are targets of mutual communication.
  • a program is provided that causes the second aspect of communication via the control to be executed.
  • an information processing apparatus an information processing method, and a program capable of continuing communication between a plurality of users in a more preferable manner are provided.
  • FIG. 10 is an explanatory diagram for explaining an example of an operation of an information processing system according to a first modification. An example of the connection relation between information processing apparatuses in an information processing system according to Modification 1 is shown. The other example of the connection relation between the information processing apparatus in the information processing system which concerns on the modification 1 is shown.
  • FIG. 10 is an explanatory diagram for describing an aspect of an information processing apparatus according to Modification 2.
  • FIG. 2 shows an example of an information processing apparatus according to the embodiment. It is explanatory drawing for demonstrating the one aspect
  • FIG. 1 is an explanatory diagram for explaining an overview of the information processing system according to the present embodiment.
  • the information processing system is configured such that information processing apparatuses 10 of a plurality of users can transmit and receive information to and from each other based on communication via a network N1.
  • the aspect of the network N1 is not limited as long as the network N1 is an electronic network that connects different devices, such as the Internet, a dedicated line, a LAN (Local Area Network), or a WAN (Wide Area Network).
  • the network N1 is configured as a wireless network.
  • the network N1 may be a network for direct communication between terminals, such as Wi-Fi (registered trademark): Wireless Fidelity, Bluetooth (registered trademark), or the like.
  • the network N1 may include a plurality of networks, and a part thereof may be configured as a wired network.
  • reference numeral 10m indicates the information processing apparatus 10 corresponding to the user Um.
  • Reference numeral 10a indicates the information processing apparatus 10 corresponding to the user Ua.
  • the users Um and Ua use the respective information processing apparatuses 10 connected via the network N ⁇ b> 1, so that the users Um and Ua are in locations separated from each other (for example, remote locations). It is also possible to communicate with each other (for example, communication via audio or video).
  • reference numeral C ⁇ b> 1 schematically represents a path of communication between the users Um and Ua (that is, communication via the network N ⁇ b> 1) using each information processing apparatus 10 connected via the network N ⁇ b> 1. Is shown.
  • the information processing apparatus 10 may be configured to be portable like a so-called smartphone or tablet terminal.
  • each user can carry the information processing apparatus 10 and move using the information processing apparatus 10 while communicating with other users.
  • the moving user actually meets (acts with) another user who is communicating with the information processing apparatus 10 in a real place. It may be assumed that it is possible to communicate directly with another user (that is, communication established without using the information processing apparatus 10 or the like).
  • the user Um uses the information processing apparatus 10m to communicate with the user Ua via the network N1 and meet with the user Ua.
  • reference numeral C2 schematically shows a direct communication path between the users Um and Ua.
  • the user Um has a voice of the user Ua that is output from the information processing apparatus 10m based on communication via the path C1 and a voice of the user Ua that is directly propagated via the path C2. Both will listen and communication may be hindered.
  • the user Um when the user Um faces the user Ua, the user Um directly operates with the user Ua in a more suitable environment by operating the information processing apparatus 10m to temporarily stop communication via the route C1. It can be envisaged to communicate.
  • the information processing apparatus 10m is used to continue communication with the user Ua. It may be envisaged to operate and resume communication via the path C1.
  • the user Um can directly communicate with the user Ua (that is, whether the user Um is facing the user Ua). ) May be consciously performed, and an operation related to interruption or resumption of communication via the path C1 may be performed consciously.
  • the information processing system according to the present embodiment has been made in view of such a situation. That is, in the information processing system according to the present embodiment, the information processing apparatus 10 determines whether or not direct communication (communication via the path C2) is possible between users who are targets of mutual communication. In accordance with the result, communication via the network N1 (communication via the path C1) is controlled.
  • FIG. 2 is an explanatory diagram for describing an example of a schematic operation of the information processing system according to the present embodiment.
  • the state indicated by reference numeral S11 indicates that the users Um and Ua are separated from each other, and the user Um and the user Ua are communicating via the network N1.
  • Reference sign S12 indicates a state in which the user Um and the user Ua face each other after the state S11 and direct communication is possible.
  • Reference sign S13 indicates a state in which the user Um and the user Ua are separated from each other after the state S12 and direct communication becomes difficult.
  • the information processing apparatus 10m held by the user Um enables communication via the network N1 in the state S11 separated from the user Ua. Thereby, the user Um can communicate with the user Ua via the network N1 by using the information processing apparatus 10m.
  • the information processing apparatus 10m detects that the user Um and the user Ua have faced each other (that is, that direct communication is possible) as shown in the state S12.
  • the information processing apparatus 10m includes, for example, its own position information acquired based on position detection technology using a wireless LAN such as GPS: Global Positioning System, Wi-Fi (registered trademark): Wireless Fidelity, What is necessary is just to recognize whether the user Um and the user Ua faced based on the positional information on the information processing apparatus 10a held by the user Ua.
  • a threshold for example, when recognized as a distance that the voice can reach.
  • the user Um and the user Ua may be recognized as facing each other.
  • the method is not particularly limited.
  • the information processing apparatus 10m suppresses communication via the network N1. At this time, the information processing apparatus 10m may stop or disconnect the communication via the network N1, for example. As another example, the information processing apparatus 10m acquires at least a part of information (for example, voice, image, tactile information (for example, vibration), etc.) acquired from the information processing apparatus 10a via the network N1. The output may be suppressed. More specifically, the information processing apparatus 10m may lower the output level of information from the information processing apparatus 10a, and may stop outputting the information. In addition, the information processing apparatus 10m may reduce the amount of information to be output based on information from the information processing apparatus 10a.
  • information processing apparatus 10m may reduce the amount of information to be output based on information from the information processing apparatus 10a.
  • the information processing apparatus 10m when it is detected that the user Um and the user Ua have faced each other, for example, in the information processing apparatus 10m, if the output of at least part of the information from the information processing apparatus 10a is suppressed, the information is suppressed. There are no particular restrictions on the subject to perform or the method for suppressing the information.
  • the information processing apparatus 10m may suppress output of at least a part of the information transmitted from the information processing apparatus 10a.
  • the information processing apparatus 10a lowers the information acquisition level by an input device (for example, an imaging device, a sound collection device, various sensors, etc.) for acquiring various information such as video and audio (for example, The acquisition of the information by the input device may be suppressed by lowering the sensitivity) or by stopping the operation of the input device.
  • an input device for example, an imaging device, a sound collection device, various sensors, etc.
  • the acquisition of the information by the input device may be suppressed by lowering the sensitivity) or by stopping the operation of the input device.
  • the information processing apparatus 10a may control information transmitted to the information processing apparatus 10m, thereby suppressing output of information from the information processing apparatus 10m.
  • the information processing apparatus 10a may transmit the information to the information processing apparatus 10m after lowering the output level of the information to be transmitted toward the information processing apparatus 10m. Further, the information processing apparatus 10a may stop transmission of information toward the information processing apparatus 10m. Through the control as described above, output of the information on the information processing apparatus 10m side can be suppressed.
  • the other device When another device (for example, a server) is interposed between the information processing device 10m and the information processing device 10a, the other device transmits the information processing device 10a to the information processing device 10m.
  • the information output from the information processing apparatus 10m may be suppressed by controlling the information to be processed.
  • the information processing apparatus 10m can suppress the occurrence of a situation in which communication via the network N1 and direct communication coexist. Thereby, the user Um can communicate with the user Ua in a more preferable manner.
  • the information processing apparatus 10m detects that the user Um and the user Ua are separated again (that is, it is difficult to perform direct communication) as shown in the state S13. For example, when the information processing apparatus 10m recognizes that the distance between the information processing apparatus 10a held by the user Ua exceeds the threshold, the user Um and the user Ua are in a separated state. You may recognize it.
  • the information processing apparatus 10m When it is detected that the user Um and the user Ua are separated from each other, the information processing apparatus 10m resumes the communication via the network N1, which has been suppressed. As a specific example, the information processing apparatus 10m resumes communication when communication via the network N1 is stopped. At this time, if the communication via the network N1 is disconnected, the information processing apparatus 10m may reconnect the communication. As another example, if the information processing apparatus 10m suppresses the output of information from the information processing apparatus 10a acquired via the network N1, the information processing apparatus 10m may resume outputting the information. .
  • the information processing apparatus 10m detects that direct communication between the users Um and Ua is difficult, the information processing apparatus 10m restarts communication between the users Um and Ua via the network N1. Accordingly, even when the user Um is separated from the user Ua, the user Um can continue communication with the user Ua.
  • the information processing apparatus 10 in the information processing system according to the present embodiment determines whether or not a plurality of users who are targets of mutual communication are in a face-to-face state (that is, whether direct communication is possible). ) And control communication via the network according to the determination result.
  • the user can be more suitable without being aware of whether or not he / she is in a face-to-face state even in a situation where the face-to-face state changes with the communication partner at any time. It becomes possible to continue communication with the other party in a manner.
  • the communication via the network N1 is not necessarily limited to the mutual communication.
  • only information transmission may be performed from one of the user Um and the user Ua, and only reception of information may be performed for the other.
  • communication via the network N1 is mutual communication between the user Um and the user Ua. .
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the information processing system according to the present embodiment.
  • the information processing apparatus 10m and the information processing apparatus 10a have the same configuration. Therefore, in this description, when the information processing apparatus 10m and the information processing apparatus 10a are not explicitly distinguished from each other, the information processing apparatus 10 is simply described.
  • the information processing apparatus 10 includes a communication unit 101, a determination unit 103, an input / output control unit 105, a detection unit 21, an input unit 23, and an output unit 25. Further, the information processing apparatus 10 may include a history recording unit 107 and a storage unit 27.
  • the input unit 23 is an input interface for the user to input various information to the information processing apparatus 10.
  • the input unit 23 may include a sound collection device that collects sound spoken by the user as acoustic information, such as a so-called microphone.
  • the input unit 23 may include an imaging unit that captures an image (for example, a still image or a moving image) of a subject (for example, a user) included in a predetermined imaging range.
  • the input unit 23 may include an input device for the user to input information, such as a button, a switch, and a touch panel.
  • the example shown above is merely an example, and if the user can input various information to the information processing apparatus 10, the type of the input unit 23 or the input unit 23 inputs the information.
  • the type of information is not particularly limited.
  • the input unit 23 outputs the input information input by the user to the input / output control unit 105 described later.
  • attention is paid to a case where a user is communicating with another user using a moving image and sound.
  • the input unit 23 inputs the sound collection result (that is, sound input) by the sound collection device of the voice uttered by the user and the image of the subject imaged by the image pickup unit (that is, image input). Output to the output control unit 105.
  • the output unit 25 is an output interface for the information processing apparatus 10 to present various information to the user.
  • the output unit 25 may include an acoustic device that outputs acoustic information, such as a speaker.
  • the output unit 25 may include a device that outputs image information such as a still image or a moving image, such as a so-called display.
  • image information such as a still image or a moving image, such as a so-called display.
  • the example shown above is merely an example, and if the information processing apparatus 10 can present various types of information to the user, the type of the output unit 25 or the output unit 25 outputs the information.
  • the type of information is not particularly limited.
  • the output unit 25 outputs information instructed from the input / output control unit 105 based on the control from the input / output control unit 105. As a specific example, attention is paid to a case where a user is communicating with another user using a moving image and sound. In this case, the output unit 25 acquires the voice of the communication partner from the input / output control unit 105 and outputs the acquired voice from the acoustic device. The output unit 25 acquires an image of a communication partner from the input / output control unit 105 and displays the acquired image on the display.
  • the storage unit 27 is a storage area for the information processing apparatus 10 to hold various information temporarily or permanently.
  • the storage unit 27 may store in advance data (for example, a library or the like) that is used by the information processing apparatus 10 to execute various functions (for example, applications).
  • the detection unit 21 acquires information for the determination unit 103, which will be described later, to determine whether the users who are the targets of mutual communication are in a face-to-face state (that is, whether direct communication is possible).
  • the detection unit 21 may include a device that acquires position information of the information processing apparatus 10 such as a GPS.
  • the detection unit 21 may include a configuration for acquiring various types of information on the external environment of the user (in other words, the external environment of the information processing apparatus 10).
  • the detection unit 21 may include an imaging unit that captures an image of the external environment (that is, an image around the user).
  • the detection unit 21 may include a sound collection device that collects environmental sounds from the external environment.
  • the type of the detection unit 21 and the detection unit 21 obtain The type of information to be performed is not particularly limited. An example of a method for determining whether or not the users who are the targets of mutual communication are in a face-to-face state based on the detection result by the detection unit 21 will be described later together with the details of the determination unit 103.
  • the detection unit 21 When the detection unit 21 acquires information about the detection target, the detection unit 21 outputs the acquired information as a detection result to the determination unit 103.
  • the timing at which the detection unit 21 acquires information about the detection target is not particularly limited.
  • the detection unit 21 may sequentially monitor changes in the detection target and output information indicating the monitoring result to the determination unit 103.
  • the detection unit 21 may acquire information on the detection target using the process as a trigger.
  • the detection unit 21 performs the processing when the information processing apparatus 10 performs communication with another external apparatus via a network or when another sensor detects information.
  • information regarding the detection target may be acquired.
  • the communication unit 101 is configured so that each component in the information processing apparatus 10 establishes communication with an external apparatus (for example, another information processing apparatus 10) via a network, and various types of information ( This is a configuration for transmitting and receiving (various data).
  • an external apparatus for example, another information processing apparatus 10.
  • information is transmitted / received via the communication unit 101 even when there is no particular description. Shall be performed.
  • the determination unit 103 acquires information indicating the detection result of the detection target from the detection unit 21, and based on the acquired information, whether or not a plurality of users who are targets of mutual communication are in a face-to-face state (that is, direct communication is performed). Whether it is possible).
  • a plurality of users who are targets of mutual communication are in a face-to-face state (that is, direct communication is performed). Whether it is possible).
  • an example of detailed operation of the determination unit 103 will be described by focusing on the operation of the determination unit 103 included in the information processing apparatus 10m held by the user Um.
  • the determination unit 103 makes the plurality of users meet based on the distance between the plurality of users that are the targets of mutual communication (in other words, the distance between the information processing apparatuses 10 held by each user). You may determine whether it is in a state.
  • the determination unit 103 acquires, for example, information indicating the detection result of the position of the information processing apparatus 10m (hereinafter, may be referred to as “position information”) from the detection unit 21. Further, the determination unit 103 may acquire position information of the information processing apparatus 10a that transmits and receives information based on communication via the network N1 from the information processing apparatus 10a via the communication. . The determination unit 103 may calculate the distance between the information processing apparatuses 10m and 10a (in other words, the distance between the user Um and the user Ua) based on the acquired position information of the information processing apparatuses 10m and 10a. .
  • the example shown above is an example, and the method is not particularly limited as long as the distance between the information processing apparatuses 10m and 10a can be calculated.
  • the determination unit 103 determines whether the information processing devices 10m and 10a are based on the arrival time (in other words, the delay time) of radio waves. The distance may be calculated. At this time, the determination unit 103 determines that the distance between the information processing apparatuses 10m and 10a exceeds the threshold when the radio wave used for calculating the distance is not detected (that is, when the radio wave does not reach). Also good.
  • the determination unit 103 may transmit information indicating the acquired position detection result of the information processing apparatus 10m to the information processing apparatus 10a via the network N1. Thereby, the determination unit 103 of the information processing device 10a can recognize the position information of the information processing device 10m.
  • the determination unit 103 determines that the distance between the user Um and the user Ua is equal to or less than the threshold, and recognizes that at least one of the users Um and Ua is facing the other direction, the user You may recognize that Um and the user Ua are facing each other.
  • the determination unit 103 estimates the direction in which each user is facing based on the change in the position information of the information processing apparatus 10 held by each user (in other words, the moving direction), and determines the estimation result. Based on this, it may be determined whether or not at least one user is facing the other user. As another example, the determination unit 103 may estimate the direction in which the user holding the information processing apparatus 10 is facing based on the detection result of the direction of the information processing apparatus 10 held by each user. Needless to say, the method is not particularly limited as long as the direction in which the user is facing (or the direction in which the information processing apparatus 10 held by the user is facing) can be estimated. As a specific example, the determination unit 103 may calculate a direction based on the detection result of geomagnetism, and estimate the direction in which the user is facing based on the calculation result of the direction.
  • the determination unit 103 recognizes that the other user exists in the field of view of at least one of the users Um and Ua, the user Um and Ua are in a face-to-face state. You may recognize that there is.
  • the determination unit 103 analyzes the images in front of each of the users Um and Ua captured by the imaging unit (for example, the imaging unit included in the detection unit 21). Then, when the determination unit 103 recognizes that the other user is included in the image corresponding to at least one user based on the analysis result, the user Um and the user Ua are in a face-to-face state. You may recognize.
  • the determination unit 103 acquires an image in front of the user Um captured by the imaging unit included in the detection unit 21 from the detection unit 21. Further, the determination unit 103 acquires an image in front of the user Ua captured by the imaging unit included in the detection unit 21 of the information processing device 10a from the information processing device 10a via the network N1. Then, the determination unit 103 analyzes each acquired image based on a technique for specifying an individual such as, for example, a face recognition technique, and the target user is captured in the image based on the analysis result. What is necessary is just to determine whether it exists.
  • a technique for specifying an individual such as, for example, a face recognition technique
  • the determination unit 103 may determine whether or not the users Um and Ua are in a face-to-face state based on the sound collection results of the ambient sounds around the users Um and Ua.
  • the determination unit 103 analyzes the sound collection results of the ambient sounds around the users Um and Ua collected by the sound collection device (for example, the sound collection device included in the detection unit 21). To do. Based on the analysis result, the determination unit 103 determines that the user Um and the user Ua are facing each other when the sound collection result corresponding to at least one user includes the voice of the other user. You may recognize it.
  • the determination unit 103 acquires, from the detection unit 21, the sound collection result of the environmental sound around the user Um collected by the sound collection device included in the detection unit 21.
  • the determination unit 103 collects the sound collection result of the environmental sound around the user Um collected by the sound collection device included in the detection unit 21 of the information processing device 10a from the information processing device 10a via the network N1. Get.
  • the determination unit 103 extracts a voice by detecting a voice section from each acquired sound collection result, and uses the extracted voice based on a technique for identifying an individual such as a voice authentication technique. By analyzing, it may be determined whether or not the sound of the target user is included in the sound collection result.
  • the method is not particularly limited as long as it can be determined whether or not the users Um and Ua are in a face-to-face state based on the sound collection results of the ambient sounds around the users Um and Ua.
  • one information processing apparatus 10 outputs sound (for example, sound in a non-audible area) in a predetermined pattern and the other information processing apparatus 10 can collect the sound, It may be determined whether the users Um and Ua are facing each other.
  • the processing related to the determination of the facing state between a plurality of users described above is merely an example, and whether or not the target plurality of users are in a facing state (in other words, directly between the plurality of users).
  • the method is not particularly limited as long as it can be determined whether or not communication is possible.
  • the determination unit 103 determines whether or not a plurality of users (for example, users Um and Ua) that are targets of mutual communication are in a face-to-face state, and sends information indicating the determination result to the input / output control unit 105. Output.
  • a plurality of users for example, users Um and Ua
  • the input / output control unit 105 is configured to control operations related to communication via the network N1 among a plurality of users (for example, between the users Um and Ua).
  • a plurality of users for example, between the users Um and Ua.
  • an example of detailed operation of the input / output control unit 105 will be described by focusing on the operation of the input / output control unit 105 included in the information processing apparatus 10m held by the user Um.
  • the input / output control unit 105 communicates with the information processing apparatus 10a of the user Ua. Communication via the network N1 is started. At this time, if communication with the information processing apparatus 10a via the network N1 is not established, the input / output control unit 105 executes a predetermined communication sequence with the information processing apparatus 10a. The communication may be established.
  • the input / output control unit 105 when instructed by the user Um to end communication with the user Ua via the network N1, via the input unit 23, the network N1 with the information processing apparatus 10a. You may end the communication via.
  • the method is not particularly limited as long as the user Um can instruct the information processing apparatus 10m to start or end communication.
  • the information processing apparatus 10m recognizes the contact or proximity of the information processing apparatus 10a by so-called short-range wireless communication such as NFC (Near field radio communication), based on the recognition result, Communication with the information processing apparatus 10a via the network N1 (and thus communication between the users Um and Ua) may be started.
  • NFC Near field radio communication
  • communication is started when each user who is a target of communication shakes the information processing apparatus 10 held by the user and the vibration patterns match (communication between the information processing apparatuses 10 is performed).
  • the information processing apparatus 10 may be configured to be started).
  • the information processing apparatus 10m detects a change in its position and orientation based on an acceleration sensor, an angular velocity sensor (gyro sensor), or the like. Further, the information processing apparatus 10m acquires the detection result of the change in the position and orientation of the information processing apparatus 10a from the information processing apparatus 10a.
  • the information processing apparatus 10m communicates with the information processing apparatus 10a via the network N1 (and thus between the users Um and Ua). Communication) may be started.
  • the input / output control unit 105 inputs information from the user Um, outputs information to the user Um, and communicates with the information processing apparatus 10a during communication between the users Um and Ua via the network N1. Controls the transmission and reception of information between.
  • the input / output control unit 105 acquires from the input unit 23, as input information, information indicating a voice uttered by the user Um (ie, voice input) or an image of the user Um as a subject (ie, image input). To do.
  • the input / output control unit 105 transmits the acquired input information to the information processing apparatus 10a based on communication via the network N1.
  • the input / output control unit 105 receives input information by the user Ua such as a voice uttered by the user Ua (that is, voice input) and an image using the user Ua as a subject (that is, image input) via the network N1. Acquired from the information processing apparatus 10b based on the communication performed.
  • the input / output control unit 105 presents the acquired input information by the user Ua to the user Um by causing the output unit 25 (for example, an acoustic device or a display) to output the input information.
  • the input / output control unit 105 acquires information indicating a determination result as to whether or not the user Um and the user Ua are facing each other from the determination unit 103, and based on the acquired information, the network N1 between the users Um and Ua You may control the communication via.
  • the input / output control unit 105 determines the network N1 between the users Um and Ua. Communication may be suppressed.
  • the input / output control unit 105 may suppress communication via the network N1 between the users Um and Ua, for example, by temporarily stopping transmission / reception of information with the information processing apparatus 10a. Further, the input / output control unit 105 may suppress communication between the users Um and Ua via the network N1 by disconnecting communication with the information processing apparatus 10a.
  • the input / output control unit 105 temporarily stops output of input information by the user Ua acquired from the information processing apparatus 10a (that is, presentation of input information by the user Ua to the user Um).
  • the input / output control unit 105 temporarily stops output of input information by the user Ua acquired from the information processing apparatus 10a (that is, presentation of input information by the user Ua to the user Um).
  • communication between the users Um and Ua via the network N1 may be suppressed.
  • the input / output control unit 105 can prevent a situation in which direct communication and communication via the network N1 coexist between the users Um and Ua.
  • non-face-to-face state a face-to-face state
  • the input / output control unit 105 wants to recognize that the user Um and the user Ua are not in a face-to-face state (hereinafter may be referred to as “non-face-to-face state”) based on the information acquired from the determination unit 103. May enable communication between the users Um and Ua via the network N1.
  • the input / output control unit 105 enables communication between the users Um and Ua via the network N1 by resuming transmission / reception of information with the information processing apparatus 10a that has been temporarily stopped. Good. At this time, when the communication with the information processing apparatus 10a is disconnected, the input / output control unit 105 may establish the communication again.
  • the input / output control unit 105 may resume the output of the input information.
  • the input / output control unit 105 validates communication via the network N1 when direct communication between the users Um and Ua becomes difficult. Thereby, the user Um and the user Ua can continue mutual communication when direct communication becomes difficult.
  • the input / output control unit 105 may switch whether to enable communication via the network N1 based on a setting instructed in advance by the user when the non-face-to-face state is entered. That is, according to the setting instructed by the user, the input / output control unit 105 can also be used when the user Um and the user Ua are in a non-face-to-face state (that is, when direct communication is difficult). Communication between the users Um and Ua via the network N1 may not be validated.
  • the input / output control unit 105 may record the content of communication between the users Um and Ua as history information in the history recording unit 107 described later.
  • the history recording unit 107 stores the information output from the input / output control unit 105 as history information, for example, in the storage unit 27.
  • the input / output control unit 105 may cause the history recording unit 107 to record the input information (for example, voice input or image input) from the user Um acquired from the input unit 23 as history information.
  • the input / output control unit 105 performs analysis based on the so-called speech recognition technology or natural language processing technology on the acquired speech input, thereby converting the speech input into character information. May be recorded in the history recording unit 107 as history information.
  • the input / output control unit 105 may cause the history recording unit 107 to record input information from the user Ua as history information.
  • the input / output control unit 105 may cause the history recording unit 107 to record the input information from the user Ua acquired via the network N1 as history information. In this case, the input / output control unit 105 continues to transmit / receive information to / from the information processing apparatus 10a via the network N1 even when the users Um and Ua are facing each other. You may maintain the state which can acquire input information from the said information processing apparatus 10a.
  • the input / output control unit 105 may directly acquire input information from the user Ua.
  • the input / output control unit 105 extracts the voice of the user Ua from the voice collected by the sound collection device included in the input unit 23, and obtains the extraction result as input information (that is, the user Ua). , Voice input).
  • the input / output control unit 105 extracts the image of the user Ua from the imaging result of the image in front of the user Um by the imaging unit based on a technique for identifying an individual such as a face recognition technique, and the extraction result is You may acquire as input information (namely, image input) from the user Ua.
  • the content recorded as history information is not necessarily limited to voice input or image input.
  • the input / output control unit 105 may cause the history recording unit 107 to record the content of communication between users using character information as history information, as in a so-called message service.
  • the input / output control unit 105 may centrally manage different types of input information such as voice, image, and character input by each user as history information.
  • the user Um can also check the content of communication with the user Ua based on the history information recorded by the history recording unit 107.
  • the input / output control unit 105 explicitly switches between enabling and disabling communication between the users Um and Ua via the network N1 according to the determination result of whether or not the users Um and Ua are facing each other.
  • an example has been described, it is not necessarily limited to the same control.
  • the input / output control unit 105 determines that the users Um and Ua are in a face-to-face state, the input / output control unit 105 does not immediately suppress communication via the network N1, but via the network N1 after a predetermined period of time elapses. Communication may be suppressed.
  • the input / output control unit 105 controls the volume of communication (for example, sound volume) between the users Um and Ua via the network N1 according to the distance between the users Um and Ua.
  • the communication between the network N1 and the direct communication may be changed.
  • the input / output control unit 105 decreases the volume of audio transmitted / received via the network N1 as the distance decreases. To control. Such control makes it possible to seamlessly transition the communication between the users Um and Ua from communication via the network N1 to direct communication.
  • the input / output control unit 105 may perform control so that the volume of audio transmitted / received via the network N1 increases as the distance between the users Um and Ua increases.
  • control in a situation where the users Um and Ua are separated from each other from the facing state, the communication between the users Um and Ua is seamlessly changed from direct communication to communication via the network N1. It becomes possible.
  • the information processing apparatus 10 determines that the users Um and Ua have transitioned from the non-face-to-face state to the face-to-face state (that is, when suppressing communication via the network N1), and changes from the face-to-face state to the non-face-to-face state. Different conditions may be applied when it is determined that the transition has occurred (that is, when communication is resumed via the network N1).
  • the information processing apparatus 10 determines whether the transition from the non-face-to-face state to the face-to-face state and the case where it is determined that the transition from the face-to-face state to the non-face-to-face state occurs between the users Um and Ua. Different threshold values may be applied to the determination of the distance.
  • the information processing apparatus 10 performs a determination based on different conditions between a case where it is determined that a transition from the non-facing state to the facing state and a case where it is determined that a transition is made from the facing state to the non-facing state. Also good. As a more specific example, when determining that the information processing apparatus 10 has transitioned from the non-face-to-face state to the face-to-face state, in addition to the condition of the distance between the users Um and Ua, at least one of the other is the other Whether or not the direction is facing may be used as a condition for the determination. On the other hand, when determining that the transition from the facing state to the non-facing state is made, the information processing apparatus 10 may perform the determination based only on the condition of the distance between the users Um and Ua.
  • the information processing apparatus 10 may execute the control of communication via the network based on the determination result of whether or not the face-to-face state described above is limited based on a predetermined condition.
  • the information processing apparatus 10 controls communication via a network based on a result of determination as to whether or not it is in a face-to-face state only in a predetermined area such as a predetermined facility. May be executed.
  • the functional configuration of the information processing apparatus 10 described above with reference to FIG. 3 is merely an example, and is not necessarily limited to the same configuration as long as each function of the information processing apparatus 10 can be realized.
  • a part of the configuration of the information processing apparatus 10 may be provided outside the information processing apparatus 10.
  • at least one of the detection unit 21, the input unit 23, the output unit 25, and the storage unit 27 may be externally attached to the information processing apparatus 10.
  • some of the components of the information processing apparatus 10 are connected via a network. It may be provided in an external device (for example, a server).
  • a server that mediates transmission / reception of information between the information processing apparatuses 10m and 10a may be provided, and a configuration corresponding to the determination unit 103 and the input / output control unit 105 may be provided in the server.
  • the server acquires information indicating the detection result of each detection unit 21 from the information processing apparatuses 10m and 10a, and based on the acquired information, whether the user Um and the user Ua are facing each other. Determine whether or not.
  • the said server controls communication via the network N1 between the users Um and Ua by controlling transmission / reception of the information between the information processing apparatuses 10m and 10a based on the determination result between the users Um and Ua. Good. Specifically, when the server recognizes that the user Um and the user Ua are facing each other, the server temporarily stops transmission / reception of information between the information processing apparatuses 10m and 10a, so that the user Um and the user Ua Communication via the network N1 may be suppressed.
  • FIG. 4 is a flowchart illustrating an example of a flow of a series of processes of the information processing system according to the present embodiment.
  • the operation of the information processing apparatus 10m held by the user Um when the user Um communicates with the user Ua as illustrated in FIG. 1 will be described.
  • Step S101 The input / output control unit 105, when instructed by the user Um to start communication with the user Ua via the network N1, via the input unit 23, the network between the user Ua and the information processing apparatus 10a Communication via N1 is started. At this time, if communication with the information processing apparatus 10a via the network N1 is not established, the input / output control unit 105 executes a predetermined communication sequence with the information processing apparatus 10a. The communication may be established.
  • Step S103 The detection unit 21 acquires information for the determination unit 103 to determine whether or not the users who are targets of mutual communication (that is, the users Ua and Ub) are in a face-to-face state. Output to.
  • the determination unit 103 determines whether the user Um and the user Ua are facing each other based on the information acquired from the detection unit 21, and outputs information indicating the determination result to the input / output control unit 105.
  • the input / output control unit 105 acquires information indicating a determination result as to whether or not the user Um and the user Ua are facing each other from the determination unit 103.
  • Step S105 If the input / output control unit 105 recognizes that the user Um and the user Ua are facing each other based on the information acquired from the determination unit 103 (step S103, YES), the network N1 between the users Um and Ua You may suppress the communication through.
  • Step S109 the input / output control unit 105 recognizes that the user Um and the user Ua are in the non-face-to-face state based on the information acquired from the determination unit 103 (step S103, NO and step S107, YES). Enables communication between the users Um and Ua via the network N1.
  • Step S107 When there is no particular change in the state between the user Um and the user Ua (step S103, NO, and step S107, NO), the input / output control unit 105 is in a state of communication via the network N1 at that time. To maintain.
  • Step S111 Then, unless the user Um instructs the end of communication with the user Ua via the network N1 (step S111, NO), the input / output control unit 105 performs processing related to the determination of the facing state between the users Um and Ua. The communication control via the network N1 based on the determination result is continued.
  • the input / output control unit 105 determines that the information processing apparatus 10a Communication via the network N1 is terminated.
  • FIG. 5 is an explanatory diagram for explaining an example of the operation of the information processing system according to the first modification, and shows an example in which the users Um, Ua, and Ub perform mutual communication.
  • reference numeral N11 schematically indicates a network between the information processing apparatuses 10 held by the users Um and Ua.
  • Reference numeral N12 schematically indicates a network between the information processing apparatuses 10 held by the users Um and Ub.
  • reference numeral N13 schematically indicates a network between the information processing apparatuses 10 held by the users Ua and Ub.
  • the information processing apparatus 10 held by each of the users Um, Ua, and Ub is omitted for easy understanding.
  • the information processing apparatuses 10 held by the users Um, Ua, and Ub may be described as information processing apparatuses 10m, 10a, and 10b.
  • the state indicated by reference numeral S21 indicates a state in which direct communication is difficult between the users Um, Ua, and Ub.
  • the information processing apparatuses 10m and 10a have enabled communication via the network N11.
  • the users Um and Ua can communicate with each other via the network N11 by using the information processing apparatuses 10 that are held respectively.
  • the information processing apparatuses 10m and 10b enable communication via the network N12.
  • the information processing apparatuses 10a and 10b enable communication via the network N13.
  • the users Um, Ua, and Ub are communicating with each other via the network.
  • the state S22 shows a state where the user Um and the user Ua face each other after the state S21 and can directly communicate.
  • the information processing apparatuses 10m and 10a suppress communication between the users Um and Ua via the network N11.
  • the information processing apparatus 10m maintains an activated state for communication between the users Um and Ub via the network N12. Similarly, since the non-face-to-face state between the user Ua and the user Ub is continued, the information processing apparatus 10a maintains the activated state for communication via the network N13 between the users Ua and Ub.
  • the information processing apparatuses 10m and 10a may resume communication between the users Um and Ua via the network N11.
  • each information processing apparatus 10 may individually control communication between the users via the network according to whether or not each user is in a face-to-face state.
  • FIG. 6 illustrates an example of a connection relationship between the information processing apparatuses 10 in the information processing system according to the first modification.
  • the information processing apparatus 10m establishes communication with each of the information processing apparatuses 10a and 10b via a network.
  • the information processing apparatus 10m may individually control communication with the information processing apparatuses 10a and 10b. Specifically, when the information processing apparatus 10m recognizes that the user Um and the user Ua are facing each other, the information processing apparatus 10m may control an operation related to communication with the information processing apparatus 10a via the network N11. . Thereby, the information processing apparatus 10m can suppress communication via the network N11 between the users Um and Ua. Similarly, when the information processing apparatus 10m recognizes that the user Um and the user Ub are in a face-to-face state, the information processing apparatus 10m may control operations related to communication with the information processing apparatus 10b via the network N12. Thereby, the information processing apparatus 10m can suppress communication via the network N12 between the users Um and Ub. Needless to say, the control described above can be applied to the information processing apparatuses 10a and 10b as well.
  • FIG. 7 illustrates another example of the connection relationship between the information processing apparatuses 10 in the information processing system according to the first modification.
  • the server 80 mediates communication between the information processing apparatuses 10m, 10a, and 10b.
  • reference numeral N ⁇ b> 21 schematically indicates a network between the information processing apparatus 10 m and the server 80.
  • reference numeral N22 schematically shows a network between the information processing apparatus 10a and the server 80.
  • Reference numeral N23 schematically indicates a network between the information processing apparatus 10b and the server 80.
  • the information processing apparatus 10 m receives both the data (information for communication) transmitted from each of the information processing apparatuses 10 a and 10 b from the server 80. Therefore, for example, the information processing apparatus 10m determines whether the data is transmitted from either the information processing apparatus 10a or 10b based on information indicating the transmission source included in the data received from the server 80 (that is, the user Ua And Ub for communication).
  • the information processing apparatus 10m when the information processing apparatus 10m recognizes that the user Um and the user Ua are in a face-to-face state, the output of the data whose transmission source is the information processing apparatus 10a among the data received from the server 80 is suppressed. That's fine. Thereby, the information processing apparatus 10m can suppress communication via the network N11 between the users Um and Ua. Similarly, when the information processing apparatus 10m recognizes that the user Um and the user Ub are in a face-to-face state, the data processing apparatus 10m suppresses output of data whose transmission source is the information processing apparatus 10b among the data received from the server 80. do it. Thereby, the information processing apparatus 10m can suppress communication via the network N12 between the users Um and Ub. Needless to say, the control described above can be applied to the information processing apparatuses 10a and 10b as well.
  • the server 80 may be the main control of data transmission / reception between the information processing apparatuses 10m, 10a, and 10b.
  • the server 80 recognizes that the user Um and the user Ua are in a face-to-face state based on a notification from at least one of the information processing apparatuses 10m and 10a.
  • the server 80 may suppress transmission / reception of information between the information processing apparatuses 10m and 10a.
  • communication via the network N11 between the users Um and Ua is suppressed.
  • the server 80 may suppress transmission / reception of information between the information processing apparatuses 10m and 10b.
  • the server 80 may suppress transmission / reception of information between the information processing apparatuses 10a and 10b.
  • Modification 1 an example of an operation when the information processing system according to the present embodiment controls mutual communication between three or more users has been described with reference to FIGS.
  • FIG. 8 is an explanatory diagram for explaining an example of the information processing system according to the modified example 2, and schematically shows the states of the information processing apparatuses 10m and 10a when the users Um and Ua communicate with each other. It shows.
  • the information processing apparatuses 10 m and 10 a use a light emitting device such as an LED (Light Emitting Diode) or the like when a user who holds the information processing apparatus starts mutual communication with another user. Lights up or blinks to notify that mutual communication is being executed (in other words, being connected).
  • the information processing apparatuses 10m and 10a emit light during the processes of detecting whether or not the users Um and Ua are facing each other and controlling the communication via the network N11 according to the detection result. The device is turned on or blinked to notify that the process is being executed. Further, in the example illustrated in FIG.
  • the information processing apparatuses 10 m and 10 a hold themselves by controlling, for example, the lighting or blinking mode of the light emitting device according to whether or not the users Um and Ua are facing each other. To the user who is in a face-to-face state.
  • the state indicated by reference numeral S31 schematically shows a state in which direct communication is possible between the users Um and Ua (that is, a face-to-face state).
  • Reference numeral S32 schematically shows a state where the users Um and Ua are separated from each other and direct communication between the users Um and Ua is difficult (that is, a non-face-to-face state).
  • the information processing apparatuses 10m and 10a suppress communication through the network N11 between the users Um and Ua because the users Um and Ua are facing each other. Further, in the state S32, the information processing devices 10m and 10a enable communication via the network N11 between the users Um and Ua because the users Um and Ua are in the non-facing state.
  • the information processing apparatus 10 m lights or blinks the light emitting device in a different manner in the state S31 (facing state) and the state S32 (non-facing state).
  • the user Um can determine whether or not the communication with the user Ua via the network N11 is valid according to the mode in which the light emitting device is turned on or blinking.
  • the manner in which the information processing apparatus 10m turns on or blinks the light emitting device is not particularly limited.
  • the information processing apparatus 10m may turn on or blink the light emitting device in different colors in the state S31 and the state S32.
  • the information processing apparatus 10m may turn on or blink the light emitting device in a different light emission pattern in the state S31 and the state S32.
  • the information processing apparatus 10m notifies the user Um of information.
  • the method to do is not specifically limited.
  • the information processing apparatus 10m when the mutual communication between the users Um and Ua is started, the information processing apparatus 10m outputs acoustic information such as sound effects and BGM (Background Music) so that the mutual communication is being executed. It may be notified to the user Um. As a more specific example, when the mutual communication is being executed, the information processing apparatus 10m may output acoustic information that reminds that the communication among a plurality of users is being executed.
  • acoustic information such as sound effects and BGM (Background Music)
  • the information processing apparatus 10m may always output the acoustic information or periodically output the information every predetermined period.
  • the information processing apparatus 10m outputs different acoustic information in the state S31 (facing state) and the state S32 (non-facing state), so that communication with the user Ua via the network N11 is effective. It may be notified to the user Um.
  • the information processing apparatus 10m determines whether or not communication with the user Ua via the network N11 is activated when the facing state (state S31) is changed to the non-facing state (state S32). You may alert
  • the information processing apparatus 10m is configured to enable the communication via the network N11 when the users Um and Ua are in the non-face-to-face state (state S32).
  • the light emitting device may be turned on or blinked in the same manner as 10a.
  • the information processing apparatus 10m causes its own light emitting device to emit light in synchronization with the light emitting device of the information processing apparatus 10a, thereby communicating via the network N11 when the information processing apparatus 10m enters a non-facing state. May be notified to the user Um.
  • the user Um confirms that the light emitting devices of the information processing apparatuses 10m and 10a are emitting light synchronously, so that the user Um is in a non-facing state. It becomes possible to recognize that communication with the user Ua can be continued.
  • FIG. 9 is an explanatory diagram for explaining an example of the information processing system according to the modified example 2.
  • the information processing apparatuses 10m, 10a, and 10b The state is shown schematically.
  • the information processing apparatus 10 turns on or blinks the light emitting device when the user who holds the information processing apparatus starts mutual communication with another user. By doing so, it is informing that mutual communication is being executed. Further, in the example illustrated in FIG. 9, the information processing apparatus 10 controls the lighting or blinking mode of the light emitting device, for example, depending on whether or not a plurality of users who are targets of mutual communication are in a face-to-face state. The user holding himself / herself is notified whether or not it is in a face-to-face state.
  • the state indicated by reference numeral S41 schematically shows a state in which direct communication is possible between the users Um, Ua, and Ub (that is, a face-to-face state).
  • the reference sign S42 indicates a state where the user Um is separated from the users Ua and Ub and direct communication is difficult between the user Um and each of the users Ua and Ub (that is, a non-face-to-face state). This is shown schematically.
  • the information processing apparatus 10m determines that the user Um and each of the users Ua and Ua are in a non-face-to-face state, so that the communication between the users Um and Ua via the network N11 and between the users Um and Ub are performed. Communication via the network N12 is enabled.
  • the information processing apparatus 10m faces the user Um by causing the light emitting device to emit light in a state different from each other in the state S41 (facing state) and the state S42 (non-facing state).
  • the user Um may be notified of whether or not the state is in other words (in other words, whether or not communication via the network is valid).
  • the information processing apparatus 10m causes the light emitting device to emit light in synchronization with the information processing apparatuses 10a and 10b at least in the state S41 (face-to-face state). You may alert
  • the information processing apparatus 10m controls the communication so that communication via the network is enabled only for some users when the users Um, Ua, and Ub are in a non-face-to-face state. Also good.
  • the information processing apparatus 10m communicates via the network only between the users Um and Ua (that is, the network N11). Communication) may be activated.
  • the information processing apparatus 10m in the state S41 (face-to-face state), causes the light emitting device to emit light only in synchronization with the information processing apparatus 10a.
  • the user Um may be notified that the communication via the network is enabled only for.
  • the partner with whom communication via the network is enabled may be changed as appropriate based on the operation from the user.
  • the information processing apparatus 10m switches, based on an instruction from the user Um, the user Ua to the user Ub who is enabled to communicate via the network in a non-face-to-face state. Also good. Further, it may be possible to appropriately perform addition of users who are targets of mutual communication, exclusion of some users from the targets of mutual communication, and the like.
  • the information processing apparatus 10m notifies the user Um of the partner to whom communication via the network is enabled in the non-face-to-face state, for example, by controlling the light emission mode of the light emitting device. May be. Thereby, even when the user Um appropriately changes the partner with whom communication via the network is enabled in the non-face-to-face state according to the situation, the user Um notifies the notification information (for example, the light emission mode of the light emitting device). ) To recognize the other party.
  • the information processing apparatus 10 in the case where the information processing apparatus 10 notifies the user who holds the information about the state of mutual communication among a plurality of users. An example of the operation of the apparatus 10 has been described.
  • each information processing apparatus 10 controls communication between the users via the network according to whether or not a plurality of users who are targets of mutual communication are in a face-to-face state. An example of the case has been described.
  • the information processing apparatus 10 is not limited to the condition of whether or not the users are in a face-to-face state, and may further control communication between the users by combining with other conditions. Therefore, in the following, focusing on the operation of the information processing apparatus 10m held by the user Um, an example of control of communication via the network between the user Um and the other user will be described. .
  • the signal-to-noise ratio (SN ratio) of the environmental sound with respect to the sound emitted from the user Ua is lower than the threshold value.
  • the signal-to-noise ratio (SN ratio) of the environmental sound with respect to the sound emitted from the user Ua is lower than the threshold value.
  • communication via the network may be maintained.
  • the user Um can hear the voice of the user Ua based on communication via the network even in a situation where it is difficult to directly listen to the voice generated by the user Ua due to the influence of environmental sound (noise). Can be heard.
  • the information processing apparatus 10m may be configured so that the user Um can intentionally suppress communication via the network based on various operations. In other words, when the information processing apparatus 10m receives a predetermined operation from the user Um, the information processing apparatus 10m may suppress communication with other users via the network.
  • the information processing apparatus 10m may suppress communication via the network when detecting a predetermined operation from the user Um with respect to a predetermined device.
  • the information processing apparatus 10m performs a predetermined operation such as “gripping” or “covering” a predetermined device such as a microphone (sound collecting device) by the user Um. When this is detected, communication via the network may be suppressed.
  • the information processing apparatus 10m is not particularly limited as long as it can detect a predetermined operation such as “gripping” or “covering” a predetermined device.
  • the information processing apparatus 10m may include various detection units such as a touch sensor, an illuminance sensor, and a humidity sensor in order to detect a predetermined operation on a predetermined device.
  • the information processing apparatus 10m may validate (restart) communication via the network.
  • the information processing apparatus 10m suppresses when the user Um detects that the hand holding the predetermined device such as a microphone (or a hand that is obscured) is separated from the device. You may resume communication over the network you were using.
  • the information processing apparatus 10m when the information processing apparatus 10m detects that a predetermined device such as a headphone (or an earphone) or a microphone has been removed (changed to a state where it is not attached), the information processing apparatus 10m Communication may be suppressed. In addition, the information processing apparatus 10m may resume communication via the suppressed network when a predetermined device such as a headphone (or earphone) or a microphone is attached again.
  • a predetermined device such as a headphone (or an earphone) or a microphone
  • the information processing apparatus 10m may suppress communication via the network when detecting a predetermined gesture operation by the user Um.
  • the information processing apparatus 10m may resume communication via the suppressed network when detecting a predetermined gesture operation by the user Um.
  • the information processing apparatus 10m may suppress or enable (restart) communication via a network in response to a user operation on a predetermined operation device such as a button or a predetermined UI (User Interface).
  • a predetermined operation device such as a button or a predetermined UI (User Interface).
  • the information processing apparatus 10m presents to the user Um a list of other users who are partners of mutual communication, and presents information indicating whether or not each other user is in a non-face-to-face state. Also good. Further, at this time, the information processing apparatus 10m sets whether or not communication via the network is enabled when the other users who are partners of the mutual communication transition from the facing state to the non-facing state. You may present the information which shows.
  • the information processing apparatus 10m when the information processing apparatus 10m receives an operation from the user Um with respect to information related to another user who is a partner of mutual communication presented to the user Um, the information processing apparatus 10m You may update the setting regarding mutual communication based on the said operation.
  • the setting related to mutual communication there is a setting as to whether or not communication via a network is validated when the face-to-face state transitions to the non-face-to-face state.
  • FIG. 10 is an explanatory diagram for describing an aspect of the information processing apparatus 10 according to the second modification, and illustrates an example of a GUI that the information processing apparatus 10 presents to a user who holds the information processing apparatus 10. .
  • the information processing apparatus 10 presents the state of mutual communication between the users Um, Ua, and Ub on the operation screen v10.
  • the user Ua and the user Ub are in a face-to-face state
  • the user Um and each of the users Ua and Ub are in a non-face-to-face state.
  • the information processing apparatus 10 schematically presents the users Um, Ua, and Ub that are targets of mutual communication as the node v11 on the operation screen v10.
  • each node v11 is highlighted in a different manner depending on whether the corresponding user is in a face-to-face state or a non-face-to-face state with another user.
  • the information processing apparatus 10 m is different from each other in each node v ⁇ b> 11 depending on whether the user corresponding to the node v ⁇ b> 11 is in a facing state or a non-facing state with another user.
  • the display objects v13a and v13b indicated as color edges are highlighted. In the following description, if the display objects v13a and v13b for highlighting each node v11 are not particularly distinguished, they may be simply referred to as “display objects v13”.
  • the information processing apparatus 10 presents that the user Um and each of the users Ua and Ub are in a non-face-to-face state by highlighting the node v11 corresponding to the user Um with the display object v13a. Yes.
  • the information processing apparatus 10 presents that the user Ua and the user Ub are in a face-to-face state by highlighting the node v11 corresponding to each of the users Ua and Ub with the display object v13b.
  • the information processing apparatus 10 enables communication via the network when the corresponding users are in a non-face-to-face state due to the blinking pattern of the display object v13 corresponding to the node v11 corresponding to each user. Or not.
  • the information processing apparatus 10 focuses on the case where communication via the network is enabled between the users Ua and Ub when the users Ua and Ub in the facing state enter a non-facing state. To do.
  • the information processing apparatus 10 causes the display object v13 to blink in synchronization between the nodes v11 corresponding to the users Ua and Ub.
  • the user holding the information processing apparatus 10 is enabled to communicate via the network, and communication between the users Ua and Ub is continued. It becomes possible to recognize that.
  • the information processing apparatus 10 connects the nodes v11 by any one of the links v15a and v15b shown in different modes depending on the mode of communication between users indicated by the node v11.
  • the links v15a and v15b may be simply referred to as “link v15” unless they are particularly distinguished.
  • the link v15a indicates that communication via the network is effective between the users connected by the link v15a.
  • the user Um and each of the users Ua and Ub are in a non-face-to-face state, and communication via the network is enabled between the user Um and the users Ua and Ub. Yes. Therefore, the information processing apparatus 10 connects the node v11 indicating the user Um and the node v11 indicating each of the users Ua and Ub via the link v15a.
  • the link v15b indicates that communication via the network is suppressed between users connected by the link v15b.
  • the user Ua and the user Ub are in a face-to-face state, and communication via the network is suppressed between the users Ua and Ub. Therefore, the information processing apparatus 10m connects the node v11 indicating the user Ua and the node v11 indicating the user Ub by the link v15b.
  • the information processing apparatus 10 may receive an operation from the user Um with respect to each display object presented on the operation screen v10 and control an operation related to communication between the users based on the content of the operation.
  • the information processing apparatus 10 may control an operation related to communication between the corresponding users via the network in response to an operation on the link v15 connecting the nodes v11 corresponding to each user.
  • the information processing apparatus 10m held by the user Um indicates that the link v15a connecting the nodes v11 corresponding to the users Um and Ub (that is, communication via the network is effective). It is assumed that an operation (for example, a tap operation) from the user Um with respect to the link v15) is received. In this case, for example, even if the user Um and the user Ub are in a non-facing state, the information processing apparatus 10m may suppress (stop) communication via the network between the users Um and Ub. .
  • the information processing apparatus 10m suppresses communication between the nodes v11 corresponding to each of the users Um and Ub with the link v15b (that is, communication via the network is suppressed) along with suppression of communication between the users Um and Ub via the network.
  • the display screen v10 may be updated so as to be connected by a link v15) indicating that the connection has been made.
  • the information processing apparatus 10a held by the user Ua is connected to the link v15b connecting the nodes v11 corresponding to the users Ua and Ub (that is, communication via the network is suppressed). It is assumed that the operation from the user Ua on the link v15) indicating is recognized. In this case, for example, even when the user Ua and the user Ub are in a face-to-face state, the information processing apparatus 10a may validate communication via the network between the users Ua and Ub.
  • the information processing apparatus 10a enables communication between the nodes v11 corresponding to each of the users Ua and Ub with the link v15a (that is, communication via the network is performed), as communication between the users Ua and Ub is enabled via the network.
  • the display screen v10 may be updated so that it is connected by a link v15) indicating that it is valid.
  • each information processing apparatus 10 may restrict
  • the information processing apparatus 10 may control only the process that the information processing apparatus 10 executes independently.
  • the information processing apparatus 10m held by the user Um controls only communication between the user Um and another user, and communication between other users other than the user Um is controlled. It may be excluded from the target.
  • the information processing apparatus 10 may add or exclude users who are targets of mutual communication based on an operation from the user U holding the information processing apparatus 10.
  • the user Um may communicate with another user Uc in parallel under the situation where the user Um is communicating with the user Ua.
  • the user Ua and the user Uc are not necessarily in communication.
  • the information processing apparatus 10m held by the user Um may add the user Uc to the mutual communication between the users Um and Ua based on an instruction from the user Um. Good.
  • the information processing apparatus 10m newly adds a node v11 corresponding to the user Uc on the operation screen v10, and adds the node v11 corresponding to the user Uc to the node v11 corresponding to the users Um and Ua.
  • the display object v13 may be blinked in synchronization with each other.
  • the user Um can recognize that the user Uc is newly added to the communication between the users Um and Ua.
  • the information processing apparatus 10m held by the user Um may exclude the user Uc from mutual communication between the users Um, Ua, and Uc based on an operation from the user Um.
  • the information processing apparatus 10m may cause the display object v13 to blink in a different manner between the node v11 corresponding to the user Uc and the node v11 corresponding to the users Um and Ua (for example, asynchronously) May be flashed automatically).
  • the user Um can recognize that the user Uc is excluded from the communication among the users Um, Ua, and Uc.
  • each user can confirm the state of communication between users who are the targets of mutual communication by using the operation screen v10 presented by the information processing apparatus 10 held by the user.
  • each user can instruct the information processing apparatus 10 to control communication between the users by operating the operation screen v10 presented by the information processing apparatus 10 held by the user.
  • Example 1 Example of information processing apparatus
  • Example 1 First, as Example 1, an example of the configuration of the information processing apparatus 10 used in the information processing system according to the present embodiment will be described.
  • FIG. 11 shows an example of the configuration of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes a main body unit 100 and an input / output unit 30.
  • the input / output unit 30 corresponds to an input / output interface (input / output device) of various types of information to the main body unit 100 for the user Um to communicate with other users via a network, for example.
  • the input / output unit 30 includes, for example, a holding unit 31 and an earphone unit 32.
  • the holding unit 31 is configured to be attachable to the neck of the user Um.
  • the holding portion 31 has a shape in which a part of the circumference of the ring is opened, and is attached to the neck of the user Um by being hung on the neck of the user Um.
  • the earphone unit 32 corresponds to an acoustic device such as a so-called earphone or headphones.
  • the earphone unit 32 includes an output unit 25a that outputs acoustic information, and is worn so that the output unit 25a is held near the ear of the user Um.
  • the output unit 25a is connected to the holding unit 31 by a cable for transmitting acoustic information.
  • the holding unit 31 when the holding unit 31 is attached to the user Um, at least part of the holding unit 31 located near the mouth of the user Um collects sound information for collecting acoustic information like a so-called microphone.
  • An input unit 23 configured as a sound device is provided.
  • the holding unit 31 when the holding unit 31 is mounted on the user Um, at least a part of the holding unit 31 located near the ear of the user Um is used to output acoustic information like a so-called speaker.
  • An output unit 25b configured as an acoustic device is provided. The directivity of the output unit 25b may be controlled so that acoustic information is output toward the ear of the user Um when the holding unit 31 is attached. Thereby, the output unit 25b can perform control so that the output destination of the acoustic information is mainly the user Um (more preferably, the output destination of the acoustic information is limited to the user Um). .
  • the main body 100 corresponds to a configuration for the user Um to execute various functions in order to communicate with other users via a network, for example.
  • the communication unit 101, the determination unit 103, the input / output control unit 105, and the history recording unit 107 can be included in the main body unit 100.
  • the main body 100 may include at least a part (for example, GPS) of the detection unit 21.
  • the main body 100 may include a storage unit 27.
  • the main body 100 may be provided with an output unit 25c for displaying display information, such as a so-called display. That is, the main body unit 100 may notify the user Um of the notification information, for example, by displaying the notification information to be notified as display information on the output unit 25c.
  • the main body unit 100 may be provided with an operation device such as a touch sensor for the user to operate the information processing apparatus 10.
  • the main body 100 may be provided with a detection unit for detecting various states.
  • the main body 100 may be provided with a sensor for detecting a change in the position or orientation of the main body 100 such as an acceleration sensor or an angular velocity sensor (gyro sensor).
  • a sensor for detecting a change in the position or orientation of the main body 100 such as an acceleration sensor or an angular velocity sensor (gyro sensor).
  • the main body unit 100 can recognize whether or not the user is moving based on the output from each sensor.
  • the main body 100 may be provided with a configuration for acquiring position information such as GPS. With such a configuration, for example, the main body unit 100 can recognize the detected position information as the position information of the user who holds the position information.
  • the configuration of the main body unit 100 (and thus the information processing apparatus 10) and the method by which the user Um holds the main body unit 100 are particularly It is not limited.
  • FIG. 12 is an explanatory diagram for describing one aspect of the information processing apparatus 10 according to the embodiment.
  • the main body part 100 When the user Um wears the main body part 100 on a part of the body, the main body part 100 becomes the user.
  • An example in the case of being held by Um is shown.
  • FIG. 12 shows an example in which the information processing apparatus 10 is configured as a so-called pendant wearable device that is worn so as to be lowered from the user's neck. That is, in the example shown in FIG. 12, the user Um wears the main body 100 by lowering the main body 100 shaped like a pendant from the neck.
  • the configuration of the information processing apparatus 10 illustrated in FIG. 11 and FIG. 12 is merely an example, and is configured so that the user can carry it. By using the information processing apparatus 10, it is possible to communicate between users. If so, the form of the information processing apparatus 10 is not limited.
  • the information processing apparatus 10 may be configured as a so-called wearable device that can be used by being worn on a part of the body of the user.
  • the information processing apparatus 10 may be configured as, for example, a watch-type (or wristband-type) wearable device that can be worn on the user's arm.
  • the information processing apparatus 10 may be configured to be attachable to the user's head.
  • An example of such an information processing apparatus 10 is a so-called HMD (Head Mounted Display).
  • the information processing apparatus 10 may be configured as an eyewear type (in other words, glasses type) wearable device.
  • the information processing apparatus 10 itself may be configured as a headphone, an earphone, a headset, a hearing aid, or the like. In this case, for example, in the example illustrated in FIGS. 11 and 12, a configuration corresponding to the main body unit 100 may be incorporated in the holding unit 31 or the earphone unit 32.
  • the information processing apparatus 10 may be configured to be attachable to, for example, a personal belonging carried by the user, such as a so-called key chain.
  • the information processing apparatus 10 may be configured as a so-called smartphone or tablet terminal.
  • the information processing apparatus 10 may be configured so that a user can connect a device used for communication with other users, such as a so-called headphone (or earphone), an external microphone, or the like. Good.
  • Example 2 Example of cooperation target device
  • the information processing apparatus 10 uses, for example, an earphone or a microphone as an input / output interface.
  • the input / output interface for the information processing apparatus 10 is not necessarily limited. It is not limited and may be changed dynamically according to the situation.
  • the information processing apparatus 10 places an input / output device in a home from a device worn by the user, such as an earphone or a microphone. It may be switched to a speaker or a microphone.
  • the information processing apparatus 10 may determine whether or not the user has returned home based on the position information of the user detected by GPS or the like. As another example, when the information processing apparatus 10 recognizes a speaker or microphone placed in the user's home, the information processing apparatus 10 may switch the input / output device to the recognized speaker or microphone.
  • the information processing apparatus 10 may use a speaker or a microphone included in a car navigation system installed in the car as an input / output device. Good.
  • the information processing apparatus 10 when the information processing apparatus 10 is connected to the in-vehicle network, the information processing apparatus 10 recognizes that the user has got in the car, and is connected to the speaker or the microphone included in the car navigation system via the in-vehicle network. do it.
  • Example 2 an example of a device that the information processing apparatus 10 in the information processing system according to the present embodiment targets for cooperation has been described.
  • Example 3 Example of additional control
  • the information processing apparatus 10 controls the mode of communication via the network according to whether or not the users who are the targets of mutual communication are in a face-to-face state.
  • the information processing apparatus 10 controls other modes of operation in addition to controlling communication via the network according to the determination result of whether or not the users who are the targets of mutual communication are in a face-to-face state. Also good. Therefore, as Example 3, an example of operation control according to the determination result of whether or not the users who are the targets of mutual communication are facing each other by the information processing apparatus 10 will be described below.
  • the information processing apparatus 10 causes the imaging unit to acquire image data such as a moving image or a still image based on an operation from a user who holds the information processing apparatus 10, whether or not the user is in a facing state with another user Depending on the situation, the recording method of the acquired image data may be switched.
  • the information processing apparatus 10 stores the image data acquired by the imaging unit in its own storage unit (for example, the storage unit 27). ).
  • the image data stored in the storage unit may be shared with the information processing apparatus 10 held by another user. .
  • the information processing apparatus 10 automatically processes the image data acquired by the imaging unit by the other user. It may be shared with the device 10.
  • the information processing apparatus 10 may switch various operation modes according to whether or not users who are targets of mutual communication are in a face-to-face state.
  • the example described above is merely an example, and if the information processing apparatus 10 can switch various operation modes depending on whether or not the users who are targets of mutual communication are in a face-to-face state, the target operations are There is no particular limitation.
  • the third embodiment an example of the operation control according to the determination result of whether or not the users who are the targets of mutual communication are in a face-to-face state by the information processing apparatus 10 has been described.
  • FIG. 13 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 10 according to an embodiment of the present disclosure.
  • the information processing apparatus 10 includes a processor 901, a memory 903, a storage 905, an operation device 907, a notification device 909, a detection device 911, a communication device 915, A sound collection device 917 and a bus 919 are included. Further, the information processing apparatus 10 may include an imaging device 913.
  • the processor 901 may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or a SoC (System on Chip), and executes various processes of the information processing apparatus 10.
  • the processor 901 can be configured by, for example, an electronic circuit for executing various arithmetic processes.
  • the determination unit 103, the input / output control unit 105, and the history recording unit 107 described above can be realized by the processor 901.
  • the memory 903 includes RAM (Random Access Memory) and ROM (Read Only Memory), and stores programs and data executed by the processor 901.
  • the storage 905 can include a storage medium such as a semiconductor memory or a hard disk.
  • the storage unit 27 described above can be realized by at least one of the memory 903 and the storage 905, or a combination of both.
  • the operation device 907 has a function of generating an input signal for a user to perform a desired operation.
  • the operation device 907 can be configured as a touch panel, for example.
  • the operation device 907 generates an input signal based on an input by the user, such as buttons, switches, and a keyboard, and an input for the user to input information, and supplies the input signal to the processor 901. It may be composed of a control circuit or the like. Note that at least a part of the configuration of the input unit 23 described above may be realized by the operation device 907.
  • the notification device 909 is an example of an output device, and may be a device such as a liquid crystal display (LCD) device or an organic EL (OLED: Organic Light Emitting Diode) display, for example. In this case, the notification device 909 can notify the user of predetermined information by displaying the screen.
  • the output unit 25 described above can be realized by the notification device 909.
  • the notification device 909 may be a device that notifies a user of predetermined information by outputting a predetermined acoustic signal, such as a speaker.
  • the example of the notification device 909 described above is merely an example, and the aspect of the notification device 909 is not particularly limited as long as predetermined information can be notified to the user.
  • the notification device 909 may be a device that notifies the user of predetermined information using a lighting or blinking pattern, such as an LED (Light Emitting Diode).
  • the output unit 25 described above can be realized by the notification device 909.
  • the detection device 911 is a device for detecting various states.
  • the detection device 911 may be configured by a sensor for detecting various states such as a touch sensor, a pressure sensor, an illuminance sensor, and a humidity sensor.
  • the detection device 911 may be configured by a sensor for detecting contact or proximity of a predetermined target, such as an electrostatic sensor. Further, the detection device 911 may be configured by a sensor for detecting a change in the position or orientation of a predetermined housing, such as an acceleration sensor or an angular velocity sensor. Further, the detection device 911 may be configured by a sensor for detecting a predetermined target, such as a so-called optical sensor. Note that the detection unit 21 described above can be realized by the detection device 911.
  • the imaging device 913 includes an imaging element that captures a subject and obtains digital data of the captured image, such as a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor. That is, the imaging device 913 has a function of capturing a still image or a moving image via an optical system such as a lens in accordance with the control of the processor 901.
  • the imaging device 913 may store the captured image in the memory 903 or the storage 905. Note that at least a part of the configuration of the input unit 23 described above may be realized by the imaging device 913.
  • the sound collection device 917 is a device such as a microphone that collects the sound emitted from the user and the sound of the surrounding environment and acquires it as acoustic information (acoustic signal).
  • the sound collection device 917 may acquire data indicating an analog sound signal indicating the collected sound or sound as sound information, or convert the analog sound signal into a digital sound signal and perform conversion. Data indicating a later digital acoustic signal may be acquired as acoustic information. Note that a part of the configuration of the input unit 23 described above can be realized by the sound collection device 917.
  • the communication device 915 is a communication unit included in the information processing apparatus 10 and communicates with an external apparatus via a network.
  • the communication device 915 is a wired or wireless communication interface.
  • the communication device 915 may include a communication antenna, an RF (Radio Frequency) circuit, a baseband processor, and the like.
  • the communication device 915 has a function of performing various kinds of signal processing on a signal received from an external device, and can supply a digital signal generated from the received analog signal to the processor 901. Note that the communication unit 101 described above can be realized by the communication device 915.
  • the bus 919 connects the processor 901, the memory 903, the storage 905, the operation device 907, the notification device 909, the detection device 911, and the communication device 915 to each other.
  • the bus 919 may include a plurality of types of buses.
  • the information processing apparatus 10 in the information processing system according to the present embodiment determines whether or not a plurality of users who are targets of mutual communication are in a face-to-face state (that is, whether direct communication is possible). And controls communication via the network according to the determination result.
  • the information processing apparatus 10 when the information processing apparatus 10 detects that the users are facing each other, the information processing apparatus 10 suppresses communication between the users via the network. Thereby, between the said hot water users, it becomes possible to prevent generation
  • the information processing apparatus 10 detects that the users are not facing each other, the information processing apparatus 10 validates communication between the users via the network. Thus, even when the user is separated from other users and direct communication is difficult, the user can continue communication with the other users.
  • An information processing apparatus comprising: a control unit that controls a mode of second communication between the first user and the second user via the network.
  • the control unit suppresses the second communication when it is determined that the first communication is possible between the first user and the second user.
  • the information processing apparatus described.
  • the control unit determines whether the first user and the second user respectively.
  • the information processing apparatus according to (2) wherein output of at least part of information transmitted and received between the terminals via the network is suppressed.
  • the control unit When it is determined that the first communication is possible between the first user and the second user, the control unit reduces the output level of the partial information, The information processing apparatus according to (3), wherein an output level of some information is suppressed. (5) When it is determined that the first communication is possible between the first user and the second user, the control unit stops outputting the part of the information, The information processing apparatus according to (3), wherein an output level of some information is suppressed. (6) When it is determined that the first communication is possible between the first user and the second user, the control unit determines whether the first user and the second user respectively. The information processing apparatus according to (2), wherein communication between the terminals via the network is disconnected.
  • the determination unit according to any one of (1) to (6), further including a determination unit that determines whether or not the first communication is possible between the first user and the second user.
  • Information processing device (8) In the above (7), the determination unit determines that the first communication is not possible based on a second condition different from the first condition for determining that the first communication is possible. The information processing apparatus described. (9) In the above (7) or (8), the determination unit determines whether the first communication is possible based on a calculation result of a distance between the first user and the second user. The information processing apparatus described. (10) The information processing apparatus according to (9), wherein the control unit controls the second communication according to a distance between the first user and the second user.
  • the determination unit can perform the first communication based on a detection result of another user by a detection unit held on at least a part of the first user and the second user.
  • the information processing apparatus according to (7) or (8) which determines whether or not.
  • the information processing apparatus according to (16), wherein the control unit records the history information in association with the content of the first communication and the content of the second communication.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)

Abstract

複数のユーザ間におけるコミュニケーションをより好適な態様で継続させるため、相互コミュニケーションの対象となる複数のユーザ間において、直接的な第1のコミュニケーションが可能か否かの判定結果に応じて、当該複数のユーザ間における、ネットワークを介した第2のコミュニケーションの態様を制御する情報処理装置。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 通信技術の進歩に伴い、遠隔地のユーザ間において、ネットワークを介して相互にコミュニケーションをとることが可能となってきている。特に、近年では、音声のみに限らず動画像等の画像データを、ネットワークを介してリアルタイムで送受信することが可能となってきており、遠隔地のユーザ間においても、対面している場合により近い状態での相互コミュニケーションが可能となってきている。
 また、近年では、通信技術の進歩や各種デバイスの小型化に伴い、所謂情報処理装置と呼ばれる機器の種別も多様化してきており、PC(Personal Computer)等に限らず、スマートフォンやタブレット端末のように、ユーザが携行可能に構成された機器も普及してきている。また、近年では、ユーザが身体の一部に装着することで携行しながら使用可能に構成された、所謂ウェアラブル端末も提案されている。例えば、特許文献1には、携行可能に構成され、ネットワークを介して他のユーザと相互にコミュニケーションをとることが可能な通信端末の一例が開示されている。
特開2009-153072号公報
 このように、通信技術の進歩や各種デバイスの小型化等のユーザ間のコミュニケーションに関連する技術の進歩に伴い、ユーザは、時間や場所の制約にとらわれずに、所望の相手との間での相互コミュニケーションが可能となってきている。そのため、近年では、例えば、ネットワークを介して相互にコミュニケーションをとっているユーザどうしが、現実の場において実際に対面するといった状況も想定されるようになってきている。
 一方で、ユーザどうしが対面している場合には、ユーザは、相手と直接的なコミュニケーションをとることが可能なため、ネットワークを介したコミュニケーションが併存していると、当該ネットワークを介したコミュニケーションを煩わしく感じる場合がある。そのため、ユーザは、相手と対面している状況下では、当該相手との間のネットワークを介したコミュニケーションを一時的に中断する場合が想定される。
 また、ユーザどうしが離隔した場合には、当該ユーザ間の直接的なコミュニケーションが困難となる場合がある。そのため、このような場合には、ユーザは、ネットワークを介したコミュニケーションを再開することで、相手とのコミュニケーションを継続させる場合も想定される。
 このような状況下では、例えば、ユーザが、自身で現在の状況を判断し、必要に応じて、相手とのネットワークを介したコミュニケーションの中断や再開に係る操作を意識的に行っている場合があり、このような操作は、ユーザにとって煩わしく感じられる場合もある。
 そこで、本開示では、複数のユーザ間におけるコミュニケーションをより好適な態様で継続させることが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
 本開示によれば、相互コミュニケーションの対象となる複数のユーザ間において、直接的な第1のコミュニケーションが可能か否かの判定結果に応じて、当該複数のユーザ間における、ネットワークを介した第2のコミュニケーションの態様を制御する制御部を備える、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、相互コミュニケーションの対象となる複数のユーザ間において、直接的な第1のコミュニケーションが可能か否かの判定結果に応じて、当該複数のユーザ間における、ネットワークを介した第2のコミュニケーションの態様を制御することを含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータに、相互コミュニケーションの対象となる複数のユーザ間において、直接的な第1のコミュニケーションが可能か否かの判定結果に応じて、当該複数のユーザ間における、ネットワークを介した第2のコミュニケーションの態様を制御することを実行させる、プログラムが提供される。
 以上説明したように本開示によれば、複数のユーザ間におけるコミュニケーションをより好適な態様で継続させることが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概要について説明するための説明図である。 同実施形態に係る情報処理システムの概要的な動作の一例について説明するための説明図である。 同実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。 変形例1に係る情報処理システムの動作の一例に説明するための説明図である。 変形例1に係る情報処理システムにおける情報処理装置間の接続関係の一例を示している。 変形例1に係る情報処理システムにおける情報処理装置間の接続関係の他の一例を示している。 変形例2に係る情報処理システムの一例について説明するための説明図である。 変形例2に係る情報処理システムの一例について説明するための説明図である。 変形例2に係る情報処理装置の一態様について説明するための説明図である。 同実施形態に係る情報処理装置の形態の一例を示している。 実施例に係る情報処理装置の一態様について説明するための説明図である。 同実施形態に係る情報処理装置のハードウェア構成の一例を示した図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.概要
 2.機能構成
 3.処理
 4.変形例
  4.1.変形例1:3人以上のユーザ間におけるコミュニケーションの制御例
  4.2.変形例2:コミュニケーションの状態の報知及び制御の一例
 5.実施例
  5.1.実施例1:情報処理装置の形態の一例
  5.2.実施例2:連携対象デバイスの一例
  5.3.実施例3:付加的な制御の一例
 6.ハードウェア構成
 7.まとめ
 <1.概要>
 まず、図1を参照して、本実施形態に係る情報処理システムの概要について説明する。図1は、本実施形態に係る情報処理システムの概要について説明するための説明図である。
 図1に示すように、本実施形態に係る情報処理システムは、複数のユーザそれぞれの情報処理装置10が、ネットワークN1を介した通信に基づき、相互に情報を送受信可能に構成されている。ネットワークN1は、例えば、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)のように、異なる装置間を接続する電子的なネットワークであれば、その態様は限定されない。また、ネットワークN1は、無線のネットワークとして構成されている。また、より具体的な一例として、ネットワークN1は、Wi-Fi(登録商標):Wireless FidelityやBluetooth(登録商標)等のような、端末間の直接通信におけるネットワークであってもよい。なお、ネットワークN1は、複数のネットワークを含んでもよく、一部が有線のネットワークとして構成されていてもよい。
 例えば、図1において、参照符号10mは、ユーザUmに対応する情報処理装置10を示している。また、参照符号10aは、ユーザUaに対応する情報処理装置10を示している。
 図1に示す例において、ユーザUm及びUa間は、ネットワークN1を介して接続されたそれぞれの情報処理装置10を使用することで、互いに離隔した場所(例えば、遠隔地)に居るような状況下においても、相互にコミュニケーション(例えば、音声や映像を介したコミュニケーション)をとることが可能となる。なお、図1において、参照符号C1は、ネットワークN1を介して接続されたそれぞれの情報処理装置10を使用した、ユーザUm及びUa間のコミュニケーション(即ち、ネットワークN1を介したコミュニケーション)の経路を模式的に示している。
 なお、情報処理装置10は、所謂スマートフォンやタブレット端末のように、携行可能に構成されていてもよい。このような場合には、例えば、各ユーザは、情報処理装置10を携行し、当該情報処理装置10を利用して他のユーザとコミュニケーションを取りながら移動を行うことも可能となる。このような状況下では、例えば、移動中のユーザが、情報処理装置10を利用してコミュニケーションをとっている他のユーザと、現実の場において実際に会うことで(対面することで)、当該他のユーザと直接的にコミュニケーション(即ち、情報処理装置10等の機器を使用せずに確立するコミュニケーション)をとることが可能な状態となる場合も想定され得る。
 具体的な一例として、図1に示す例の場合に、ユーザUmは、情報処理装置10mを使用することで、ネットワークN1を介してユーザUaとコミュニケーションをとりながら、当該ユーザUaとの待ち合わせの場所に移動している状況が挙げられる。このような場合には、ユーザUmは、ユーザUaとの待ち合わせの場所に到達することでユーザUaと対面するため、自身が保持する情報処理装置10mを使用せずとも、当該ユーザUaと直接的にコミュニケーションをとることが可能となる場合がある。なお、図1において、参照符号C2は、ユーザUm及びUa間の直接的なコミュニケーションの経路を模式的に示している。
 即ち、経路C1を介してコミュニケーション中のユーザUm及びUaが対面すると、経路C1を介したコミュニケーション(即ち、ネットワークN1を介したコミュニケーション)と、経路C2を介した直接的なコミュニケーションとが併存することとなる。このような状況下では、例えば、ユーザUmは、経路C1を介したコミュニケーションに基づき情報処理装置10mから出力されるユーザUaの音声と、経路C2を介して直接伝搬する当該ユーザUaの音声との双方を聴取することとなり、コミュニケーションが阻害される場合もある。
 そのため、ユーザUmは、ユーザUaと対面した場合に、情報処理装置10mを操作して経路C1を介したコミュニケーションを一時的に停止することで、より好適な環境で、当該ユーザUaと直接的にコミュニケーションをとることが想定され得る。
 これに対して、ユーザUm及びUaのうち一方が移動し、再度ユーザUm及びUaが離隔した場合には、ユーザUm及びUa間の直接的にコミュニケーションが困難となる場合もある。そのため、例えば、ユーザUmは、移動に伴いユーザUaと対面していない状態(即ち、離隔した状態)となった場合には、当該ユーザUaとのコミュニケーションを継続するために、情報処理装置10mを操作して経路C1を介したコミュニケーションを再開することが想定され得る。
 即ち、ユーザUm及びUaが対面した状態と、離隔した状態とが適宜切り替わる状況下では、ユーザUmは、ユーザUaと直接的なコミュニケーションが可能か否か(即ち、ユーザUaと対面状態か否か)を自身で判断し、経路C1を介したコミュニケーションの中断や再開に係る操作を意識的に行う場合がある。
 一方で、ユーザUmにとって、ユーザUaと対面状態か否かを意識的に判断し、状況に応じて、経路C1を介したコミュニケーションを中断または再開する操作を意識的に行うことは、煩わしく感じる場合がある。
 本実施形態に係る情報処理システムは、このような状況を鑑みてなされたものである。即ち、本実施形態に係る情報処理システムでは、情報処理装置10は、相互コミュニケーションの対象となるユーザ間において、直接的なコミュニケーション(経路C2を介したコミュニケーション)が可能か否かを判定し、判定結果に応じて、ネットワークN1を介したコミュニケーション(経路C1を介したコミュニケーション)を制御する。
 ここで、図2を参照して、本実施形態に係る情報処理システムの概略的な動作の一例について以下に説明する。図2は、本実施形態に係る情報処理システムの概要的な動作の一例について説明するための説明図である。
 図2において、参照符号S11で示された状態は、ユーザUm及びUaが離隔しており、ユーザUmとユーザUaとが、ネットワークN1を介してコミュニケーションを取っている状態を示している。また、参照符号S12は、状態S11の後に、ユーザUmとユーザUaとが対面し、直接的なコミュニケーションが可能となった状態を示している。また、参照符号S13は、状態S12の後に、ユーザUmとユーザUaとが再度離隔し、直接的なコミュニケーションが困難となった状態を示している。
 例えば、ユーザUmが保持する情報処理装置10mは、ユーザUaと離隔した状態S11においては、ネットワークN1を介したコミュニケーションを有効にする。これにより、ユーザUmは、情報処理装置10mを使用することで、ネットワークN1を介してユーザUaとコミュニケーションをとることが可能となる。
 次いで、情報処理装置10mは、状態S12に示すように、ユーザUmとユーザUaとが対面したこと(即ち、直接的なコミュニケーションが可能となったこと)を検知したものとする。なお、情報処理装置10mは、例えば、GPS:Global Positioning Systemや、Wi-Fi(登録商標):Wireless Fidelity等の無線LANを利用した位置検出技術等に基づき取得された、自身の位置情報と、ユーザUaが保持する情報処理装置10aの位置情報とに基づき、ユーザUmとユーザUaとが対面したか否かを認識すればよい。より具体的な一例として、情報処理装置10mは、ユーザUaが保持する情報処理装置10aとの間の距離が閾値以下であると認識した場合(例えば、音声が到達し得る距離と認識した場合)に、ユーザUmとユーザUaとが対面した状態であるものと認識してもよい。もちろん、ユーザUmとユーザUaとが対面したか否かを情報処理装置10mが認識できれば、その方法は特に限定されないことは言うまでもない。
 ユーザUmとユーザUaとが対面したことを検知すると、情報処理装置10mは、ネットワークN1を介したコミュニケーションを抑制する。このとき、情報処理装置10mは、例えば、ネットワークN1を介した通信を停止または切断してもよい。また、他の一例として、情報処理装置10mは、ネットワークN1を介して取得される、情報処理装置10aからの情報の少なくとも一部(例えば、音声、画像、触覚情報(例えば、振動)等)の出力を抑制してもよい。より具体的には、情報処理装置10mは、情報処理装置10aからの情報の出力レベルを下げてもよいし、ひいては、当該情報の出力を停止してもよい。また、情報処理装置10mは、情報処理装置10aからの情報に基づき、出力する情報量を少なくしてもよい。
 なお、ユーザUmとユーザUaとが対面したことが検知されたときに、例えば、情報処理装置10mにおいて、情報処理装置10aからの情報の少なくとも一部の出力が抑制されれば、当該情報を抑制する主体や、当該情報の抑制方法は特に限定されない。
 例えば、情報の送信側である情報処理装置10aにおける各種制御に基づき、情報処理装置10mにおいて、当該情報処理装置10aから送信される情報の少なくとも一部の出力が抑制されてもよい。
 具体的な一例として、情報処理装置10aは、映像や音声等の各種情報を取得するための入力デバイス(例えば、撮像デバイス、集音デバイス、各種センサ等)による情報の取得レベルを下げる(例えば、感度を下げる等)、または、当該入力デバイスの動作を停止することで、当該入力デバイスによる当該情報の取得を抑制してもよい。これにより、当該入力デバイスにより取得された情報が、情報処理装置10aから情報処理装置10mに送信される状況下において、結果として、情報処理装置10m側における、当該情報の出力を抑制することが可能となる。
 また、他の一例として、情報処理装置10aが、情報処理装置10mに向けて送信する情報を制御することで、当該情報処理装置10mからの情報の出力を抑制してもよい。具体的な一例として、情報処理装置10aは、情報処理装置10mに向けて送信する情報の出力レベルを下げた後に、当該情報を情報処理装置10mに送信してもよい。また、情報処理装置10aは、情報処理装置10mに向けた情報の送信自体を停止してもよい。以上のような制御により、情報処理装置10m側における、当該情報の出力を抑制することが可能となる。
 また、情報処理装置10mと情報処理装置10aとの間に他の装置(例えば、サーバ等)が介在する場合には、当該他の装置が、情報処理装置10aから情報処理装置10mに向けて送信される情報を制御することで、当該情報処理装置10mからの情報の出力を抑制してもよい。
 このような制御により、情報処理装置10mは、ネットワークN1を介したコミュニケーションと、直接的なコミュニケーションとが併存するといった事態の発生を抑制することが可能となる。これにより、ユーザUmは、ユーザUaと、より好適な態様でコミュニケーションをとることが可能となる。
 次いで、情報処理装置10mは、状態S13に示すように、ユーザUmとユーザUaとが再度離隔したこと(即ち、直接的なコミュニケーションが困難となったこと)を検知したものとする。なお、情報処理装置10mは、例えば、ユーザUaが保持する情報処理装置10aとの間の距離が閾値を超えたことを認識した場合に、ユーザUmとユーザUaとが離隔した状態であるものと認識してもよい。
 ユーザUmとユーザUaとが離隔したことを検知すると、情報処理装置10mは、抑制していた、ネットワークN1を介したコミュニケーションを再開する。具体的な一例として、情報処理装置10mは、ネットワークN1を介した通信が停止されている場合には、当該通信を再開する。また、このとき情報処理装置10mは、ネットワークN1を介した通信が切断されている場合には、当該通信を再接続してもよい。また、他の一例として、情報処理装置10mは、ネットワークN1を介して取得される、情報処理装置10aからの情報の出力を抑制している場合には、当該情報の出力を再開してもよい。
 このように、情報処理装置10mは、ユーザUm及びUa間における直接的なコミュニケーションが困難となったことを検知した場合には、当該ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを再開させる。これにより、ユーザUmは、ユーザUaと離隔した状態となった場合においても、当該ユーザUaとの間のコミュニケーションを継続することが可能となる。
 上記に説明したように、本実施形態に係る情報処理システムにおける情報処理装置10は、相互コミュニケーションの対象となる複数のユーザ間が対面状態か否か(即ち、直接的なコミュニケーションが可能か否か)を判定し、判定結果に応じて、ネットワークを介したコミュニケーションを制御する。
 このような制御により、ユーザは、コミュニケーションの相手との間で、対面状態か否かが随時変化するような状況下においても、当該相手と対面状態か否かを意識せずに、より好適な態様で相手とのコミュニケーションを継続することが可能となる。
 なお、上記に説明した例では、ユーザUmとユーザUaとが、ネットワークN1を介して相互にコミュニケーションをとる場合を例に説明したが、ネットワークN1を介したコミュニケーションは、必ずしも相互コミュニケーションには限定されない。具体的な一例として、ユーザUmとユーザUaとのうち、一方からは情報の送信のみが行われ、他方については情報の受信のみが行われてもよい。なお、以降の説明では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、ネットワークN1を介したコミュニケーションが、ユーザUmとユーザUaとの間の相互コミュニケーションであるものとして説明する。
 以上、図2を参照して、本実施形態に係る情報処理システムの概略的な動作の一例について以下に説明した。なお、以降では、本実施形態に係る情報処理システムについて、さらに詳しく説明する。
 <2.機能構成>
 まず、図3を参照して、本実施形態に係る情報処理システムの機能構成の一例について、特に、情報処理装置10の機能構成に着目して説明する。図3は、本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。なお、図3に示すように、情報処理装置10mと情報処理装置10aとは同様の構成を有している。そのため、本説明では、情報処理装置10mと情報処理装置10aとを明示的に区別しない場合には、単に情報処理装置10として説明する。
 図3に示すように、情報処理装置10は、通信部101と、判定部103と、入出力制御部105と、検知部21と、入力部23と、出力部25とを含む。また、情報処理装置10は、履歴記録部107と、記憶部27とを含んでもよい。
 入力部23は、情報処理装置10に対してユーザが各種情報を入力するための入力インタフェースである。例えば、入力部23は、所謂マイクロフォン等のように、ユーザが発話した音声を音響情報として集音する集音デバイスを含み得る。また、入力部23は、所定の撮像範囲に含まれる被写体(例えば、ユーザ)の画像(例えば、静止画像や動画像)を撮像する撮像部を含んでもよい。また、入力部23は、例えば、ボタン、スイッチ、及びタッチパネル等のように、ユーザが情報を入力するための入力デバイスを含んでもよい。もちろん、上記に示した例は、あくまで一例であり、情報処理装置10に対してユーザが各種情報を入力することが可能であれば、入力部23の種別や、当該入力部23により入力される情報の種別は特に限定されない。
 入力部23は、ユーザから入力された入力情報を、後述する入出力制御部105に出力する。具体的な一例として、ユーザが他のユーザとの間で、動画像及び音声によるコミュニケーションを行っている場合に着目する。この場合には、入力部23は、ユーザが発話した音声の集音デバイスによる集音結果(即ち、音声入力)と、撮像部により撮像された被写体の画像(即ち、画像入力)とを、入出力制御部105に出力する。
 出力部25は、情報処理装置10がユーザに対して各種情報を提示するための出力インタフェースである。出力部25は、例えば、スピーカ等のように音響情報を出力する音響デバイスを含み得る。また、出力部25は、所謂ディスプレイ等のように、静止画像や動画像のような画像情報を出力するデバイスを含んでもよい。もちろん、上記に示した例は、あくまで一例であり、情報処理装置10がユーザに対して各種情報を提示することが可能であれば、出力部25の種別や、当該出力部25により出力される情報の種別は特に限定されない。
 出力部25は、入出力制御部105からの制御に基づき、当該入出力制御部105から指示された情報を出力する。具体的な一例として、ユーザが他のユーザとの間で、動画像及び音声によるコミュニケーションを行っている場合に着目する。この場合には、出力部25は、入出力制御部105からコミュニケーションの相手の音声を取得し、取得した当該音声を音響デバイスから出力する。また、出力部25は、入出力制御部105からコミュニケーションの相手の画像を取得し、取得した当該画像をディスプレイ上に表示させる。
 記憶部27は、情報処理装置10が各種情報を一時的または恒常的に保持するための記憶領域である。また、記憶部27には、情報処理装置10が各種機能(例えば、アプリケーション)を実行するために使用するデータ(例えば、ライブラリ等)が、あらかじめ記憶されていてもよい。
 検知部21は、後述する判定部103が、相互コミュニケーションの対象となるユーザ間が対面状態か否か(即ち、直接的なコミュニケーションが可能か否か)を判定するための情報を取得する。例えば、検知部21は、GPS等のように、情報処理装置10の位置情報を取得するデバイスを含んでもよい。
 また、他の一例として、検知部21は、ユーザの外部環境(換言すると、情報処理装置10の外部環境)の各種情報を取得するための構成を含んでもよい。具体的な一例として、検知部21は、外部環境の画像(即ち、ユーザの周囲の画像)を撮像する撮像部を含んでもよい。また、検知部21は、外部環境から環境音を集音する集音デバイスを含んでもよい。
 なお、上記に示した例は、あくまで一例であり、判定部103が、相互コミュニケーションの対象となるユーザ間が対面状態か否かを判定できれば、検知部21の種別や、当該検知部21により取得される情報の種別は特に限定されない。また、検知部21による検知結果に基づき、相互コミュニケーションの対象となるユーザ間が対面状態か否かを判定する方法の一例については、判定部103の詳細とあわせて後述する。
 検知部21は、検知対象に関する情報を取得すると、検知結果として取得した当該情報を、判定部103に出力する。
 なお、検知部21が、検知対象に関する情報の取得するタイミングは、特に限定されない。例えば、検知部21は、検知対象の変化を逐次監視し、監視結果を示す情報を判定部103に出力してもよい。
 また、他の一例として、検知部21は、所定の処理が実行された場合に、当該処理をトリガとして、検知対象に関する情報を取得してもよい。より具体的な一例として、検知部21は、情報処理装置10が、他の外部装置との間でネットワークを介した通信を行った場合や、他のセンサが情報を検知した場合に、当該処理をトリガとして、検知対象に関する情報を取得してもよい。
 通信部101は、情報処理装置10内の各構成が、外部装置(例えば、他の情報処理装置10)との間でネットワークを介した通信を確立し、当該外部装置との間で各種情報(各種データ)を送受信するための構成である。なお、以降の説明では、情報処理装置10内の各構成が、ネットワークを介して外部装置と情報の送受信を行う場合には、特に記載が無い場合においても、通信部101を介して情報の送受信を行うものとする。
 判定部103は、検知部21から検知対象の検知結果を示す情報を取得し、取得した情報に基づき、相互コミュニケーションの対象となる複数のユーザが対面状態か否か(即ち、直接的なコミュニケーションが可能か否か)を判定する。以下に、判定部103の詳細な動作の一例について、特に、ユーザUmが保持する情報処理装置10mに含まれる判定部103の動作に着目して説明する。
 例えば、判定部103は、前述したように、相互コミュニケーションの対象となる複数のユーザ間の距離(換言すると、各ユーザの保持する情報処理装置10間の距離)に基づき、当該複数のユーザが対面状態か否かを判定してもよい。
 この場合には、判定部103は、例えば、検知部21から、情報処理装置10mの位置の検知結果を示す情報(以降では、「位置情報」と称する場合がある)を取得する。また、判定部103は、当該情報処理装置10mがネットワークN1を介した通信に基づき情報を送受信する情報処理装置10aの位置情報を、当該情報処理装置10aから当該通信を介して取得してもよい。判定部103は、取得した情報処理装置10m及び10aそれぞれの位置情報に基づき、当該情報処理装置10m及び10a間の距離(換言すると、ユーザUmとユーザUaとの間の距離)を算出すればよい。もちろん、上記に示す例は一例であり、情報処理装置10m及び10a間の距離を算出することが可能であれば、その方法は特に限定されない。具体的な一例として、情報処理装置10m及び10aが直接通信を行っている場合には、判定部103は、電波の到達時間(換言すると、遅延時間)等に基づき、情報処理装置10m及び10a間の距離を算出してもよい。また、このとき判定部103は、距離の算出に使用する電波が検知されない場合(即ち、当該電波が到達しない場合)には、情報処理装置10m及び10aの距離が閾値を超えるものと判定してもよい。
 なお、判定部103は、取得した情報処理装置10mの位置の検知結果を示す情報を、ネットワークN1を介して情報処理装置10aに送信してもよい。これにより、情報処理装置10aの判定部103は、情報処理装置10mの位置情報を認識することが可能となる。
 また、判定部103は、ユーザUmとユーザUaとの間の距離が閾値以下と判定し、かつ、当該ユーザUm及びUaのうち少なくとも一方が他方の方向を向いていると認識した場合に、ユーザUmとユーザUaとが対面状態であるものと認識してもよい。
 より具体的には、判定部103は、各ユーザが保持する情報処理装置10の位置情報の変化(換言すると、移動方向)に基づき、各ユーザが向いている方向を推定し、当該推定結果に基づき、少なくとも一方のユーザが他方のユーザの方向を向いているか否かを判定してもよい。また、他の一例として、判定部103は、各ユーザが保持する情報処理装置10の向きの検知結果に基づき、当該情報処理装置10を保持するユーザの向いている方向を推定してもよい。もちろん、ユーザの向いている方向(または、当該ユーザが保持する情報処理装置10の向いている方向)を推定できれば、その方法は特に限定されないことは言うまでもない。具体的な一例として、判定部103は、地磁気の検出結果に基づき方位を算出し、当該方位の算出結果に基づき、ユーザが向いている方向を推定してもよい。
 また、他の一例として、判定部103は、ユーザUm及びUaのうち、少なくとも一方のユーザの視界中に他方のユーザが存在していると認識した場合に、当該ユーザUm及びUaが対面状態であるものと認識してもよい。
 この場合には、例えば、判定部103は、撮像部(例えば、検知部21に含まれる撮像部)等により撮像されたユーザUm及びUaそれぞれの眼前の画像を解析する。そして、判定部103は、当該解析結果に基づき、少なくとも一方のユーザに対応する画像中に、他方のユーザが含まれていることを認識した場合に、ユーザUmとユーザUaとが対面状態にあると認識してもよい。
 より具体的には、例えば、判定部103は、検知部21に含まれる撮像部により撮像された、ユーザUmの眼前の画像を、当該検知部21から取得する。また、判定部103は、情報処理装置10aの検知部21に含まれる撮像部により撮像された、ユーザUaの眼前の画像を、当該情報処理装置10aからネットワークN1を介して取得する。そして、判定部103は、取得した各画像を、例えば、顔認識技術等のような個人を特定するための技術に基づき解析し、解析結果に基づき対象となるユーザが当該画像中に撮像されているか否かを判定すればよい。
 また、判定部103は、ユーザUm及びUaそれぞれの周囲の環境音の集音結果に基づき、当該ユーザUm及びUaが対面状態か否かを判定してもよい。
 この場合には、例えば、判定部103は、集音デバイス(例えば、検知部21に含まれる集音デバイス)等により集音されたユーザUm及びUaそれぞれの周囲の環境音の集音結果を解析する。そして、判定部103は、当該解析結果に基づき、少なくとも一方のユーザに対応する集音結果に、他方のユーザの音声が含まれている場合に、ユーザUmとユーザUaとが対面状態にあると認識してもよい。
 より具体的には、例えば、判定部103は、検知部21に含まれる集音デバイスにより集音された、ユーザUmの周囲の環境音の集音結果を、当該検知部21から取得する。また、判定部103は、情報処理装置10aの検知部21に含まれる集音デバイスにより集音された、ユーザUmの周囲の環境音の集音結果を、当該情報処理装置10aからネットワークN1を介して取得する。そして、判定部103は、例えば、取得した各集音結果から音声区間を検出することで音声を抽出し、抽出された音声を、音声認証技術等のような個人を特定するための技術に基づき解析することで、当該集音結果に、対象となるユーザの音声が含まれているか否かを判定すればよい。
 もちろん、ユーザUm及びUaそれぞれの周囲の環境音の集音結果に基づき、当該ユーザUm及びUaが対面状態か否かを判定できれば、その方法は特に限定されない。具体的な一例として、一方の情報処理装置10から所定のパターンで音響(例えば、非可聴領域の音響)を出力し、他方の情報処理装置10が当該音響を集音できたか否かに基づき、ユーザUm及びUaが対面状態か否かが判定されてもよい。
 なお、上記に説明した、複数のユーザ間の対面状態の判定に係る処理は、あくまで一例であり、対象となる複数のユーザが対面状態か否か(換言すると、当該複数のユーザ間において直接的なコミュニケーションが可能か否か)を判定できれば、その方法は特に限定されない。
 以上のようにして、判定部103は、相互コミュニケーションの対象となる複数のユーザ(例えば、ユーザUm及びUa)が対面状態か否かを判定し、判定結果を示す情報を入出力制御部105に出力する。
 入出力制御部105は、複数のユーザ間(例えば、ユーザUm及びUa間)における、ネットワークN1を介したコミュニケーションに関する動作を制御するための構成である。以下に、入出力制御部105の詳細な動作の一例について、特に、ユーザUmが保持する情報処理装置10mに含まれる入出力制御部105の動作に着目して説明する。
 例えば、入出力制御部105は、ユーザUmから、ユーザUaとのネットワークN1を介したコミュニケーションの開始が、入力部23を介して指示されると、当該ユーザUaの情報処理装置10aとの間における当該ネットワークN1を介した通信を開始する。なお、このとき入出力制御部105は、ネットワークN1を介した情報処理装置10aとの通信が確立されていない場合には、当該情報処理装置10aとの間で所定の通信シーケンスを実行することで、当該通信を確立してもよい。
 また、入出力制御部105は、ユーザUmから、ユーザUaとのネットワークN1を介したコミュニケーションの終了が、入力部23を介して指示された場合には、情報処理装置10aとの間におけるネットワークN1を介した通信を終了してもよい。
 なお、ユーザUmが、情報処理装置10mに対して、コミュニケーションの開始や終了を指示することが可能であれば、その方法は特に限定されない。具体的な一例として、情報処理装置10mは、NFC(Near field radio communication)等のような所謂近距離無線通信により、情報処理装置10aの接触または近接を認識した場合に、当該認識結果に基づき、当該情報処理装置10aとの間におけるネットワークN1を介した通信(ひいては、ユーザUm及びUa間におけるコミュニケーション)を開始してもよい。
 また、他の一例として、コミュニケーションの対象となる各ユーザが、自身が保持する情報処理装置10を互いに振り、振動パターンが一致する場合に、コミュニケーションが開始される(情報処理装置10間の通信が開始される)ように、情報処理装置10が構成されていてもよい。この場合には、情報処理装置10mは、加速度センサや角速度センサ(ジャイロセンサ)等に基づき自身の位置や向きの変化を検出する。また、情報処理装置10mは、情報処理装置10aの位置や向きの変化の検出結果を、当該情報処理装置10aから取得する。そして、情報処理装置10mは、自身と情報処理装置10aとの間で、振動パターンが一致する場合に、当該情報処理装置10aとの間におけるネットワークN1を介した通信(ひいては、ユーザUm及びUa間におけるコミュニケーション)を開始してもよい。
 また、入出力制御部105は、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションの継続中には、ユーザUmから情報の入力、当該ユーザUmに対する情報の出力、及び、情報処理装置10aとの間の情報の送受信を制御する。
 例えば、入出力制御部105は、ユーザUmが発話した音声(即ち、音声入力)や、当該ユーザUmを被写体とした画像(即ち、画像入力)を示す情報を、入力情報として入力部23から取得する。入出力制御部105は、取得した入力情報を、ネットワークN1を介した通信に基づき情報処理装置10aに送信する。
 また、入出力制御部105は、ユーザUaが発話した音声(即ち、音声入力)や、当該ユーザUaを被写体とした画像(即ち、画像入力)等のユーザUaによる入力情報を、ネットワークN1を介した通信に基づき情報処理装置10bから取得する。入出力制御部105は、取得したユーザUaによる入力情報を、出力部25(例えば、音響デバイスやディスプレイ)に出力させることでユーザUmに提示する。
 以上のような制御により、ユーザUm及びUa間における、ネットワークN1を介した相互コミュニケーションを確立させることが可能となる。
 また、入出力制御部105は、判定部103からユーザUmとユーザUaとが対面状態か否かの判定結果を示す情報を取得し、取得した当該情報に基づき、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを制御してもよい。
 具体的には、入出力制御部105は、判定部103から取得した情報に基づき、ユーザUmとユーザUaとが対面状態であることを認識した場合には、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。
 このとき、入出力制御部105は、例えば、情報処理装置10aとの間の情報の送受信を一時的に停止することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。また、入出力制御部105は、情報処理装置10aとの間の通信を切断することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。
 また、他の一例として、入出力制御部105は、情報処理装置10aから取得したユーザUaによる入力情報の出力(即ち、ユーザUmに対する、ユーザUaによる入力情報の提示)を一時的に停止することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。
 このような制御により、入出力制御部105は、ユーザUm及びUa間において、直接的なコミュニケーションと、ネットワークN1を介したコミュニケーションとが併存するといった事態を防止することが可能となる。
 また、入出力制御部105は、判定部103から取得した情報に基づき、ユーザUmとユーザUaとが対面状態でない(以降では、「非対面状態」と称する場合がある)ことを認識したい場合には、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを有効化してもよい。
 例えば、入出力制御部105は、一時的に停止していた情報処理装置10aとの間の情報の送受信を再開することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを有効化してもよい。また、このとき入出力制御部105は、情報処理装置10aとの間の通信が切断されている場合には、当該通信を再度確立してもよい。
 また、入出力制御部105は、情報処理装置10aから取得したユーザUaによる入力情報の出力を一時的に停止している場合には、当該入力情報の出力を再開してもよい。
 このように、入出力制御部105は、ユーザUm及びUa間において、直接的なコミュニケーションが困難となった場合に、ネットワークN1を介したコミュニケーションを有効化する。これにより、ユーザUmとユーザUaとは、直接的なコミュニケーションが困難となった場合において、相互コミュニケーションを継続することが可能となる。なお、入出力制御部105は、非対面状態となった場合に、ネットワークN1を介したコミュニケーションを有効化するか否かを、ユーザから事前に指示された設定に基づき切り替えてもよい。即ち、ユーザから指示された設定に応じて、入出力制御部105は、ユーザUmとユーザUaとが非対面状態となった場合(即ち、直接的なコミュニケーションが困難となった場合)においても、当該ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを有効化しなくてもよい。
 なお、入出力制御部105は、ユーザUm及びUa間におけるコミュニケーションの内容を履歴情報として、後述する履歴記録部107に記録させてもよい。履歴記録部107は、入出力制御部105から出力される情報を、履歴情報として、例えば、記憶部27に記憶させる。
 具体的には、入出力制御部105は、入力部23から取得したユーザUmからの入力情報(例えば、音声入力や画像入力)を、履歴記録部107に履歴情報として記録させてもよい。なお、このとき、入出力制御部105は、取得した音声入力に対して、所謂音声認識技術や自然言語処理技術に基づく解析を施すことで、当該音声入力を文字情報に変換し、当該文字情報を履歴情報として、履歴記録部107に記録させてもよい。
 また、入出力制御部105は、ユーザUaからの入力情報を、履歴記録部107に履歴情報として記録させてもよい。
 具体的な一例として、入出力制御部105は、ネットワークN1を介して取得したユーザUaからの入力情報を、履歴記録部107に履歴情報として記録させてもよい。なお、この場合には、入出力制御部105は、ユーザUm及びUaが対面状態においても、ネットワークN1を介して情報処理装置10aとの間の情報の送受信を継続することで、ユーザUaからの入力情報を当該情報処理装置10aから取得可能な状態を維持してもよい。
 また、他の一例として、ユーザUm及びUaが対面状態の場合には、入出力制御部105は、ユーザUaからの入力情報を直接取得してもよい。具体的な一例として、入出力制御部105は、入力部23に含まれる集音デバイスにより集音された音声から、ユーザUaの音声を抽出し、抽出結果を当該ユーザUaからの入力情報(即ち、音声入力)として取得してもよい。また、入出力制御部105は、撮像部によるユーザUmの眼前の画像の撮像結果から、顔認識技術等の個人を特定するための技術に基づき、ユーザUaの画像を抽出し、抽出結果を当該ユーザUaからの入力情報(即ち、画像入力)として取得してもよい。
 なお、履歴情報として記録される内容は、必ずしも、音声入力や画像入力に限定されないことは言うまでもない。具体的な一例として、入出力制御部105は、所謂メッセージサービスのように、文字情報によるユーザ間のコミュニケーションの内容を、履歴情報として履歴記録部107に記録させてもよい。また、入出力制御部105は、各ユーザにより入力された音声、画像、及び文字等の互いに異なる種別の入力情報を、履歴情報として一元管理してもよいことは言うまでもない。
 このような構成により、ユーザUmは、ユーザUaとの間におけるコミュニケーションの内容を、履歴記録部107により記録された履歴情報に基づき確認することも可能となる。
 なお、上記では、入出力制御部105が、ユーザUm及びUaが対面状態か否かの判定結果に応じて、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションの有効及び無効を明示的に切り替える例について説明したが、必ずしも同制御には限定されない。
 例えば、入出力制御部105は、ユーザUm及びUaが対面状態であると判定した場合においても、直ちにネットワークN1を介したコミュニケーションを抑制せずに、所定の期間の経過後に、ネットワークN1を介したコミュニケーションを抑制してもよい。
 また、他の一例として、入出力制御部105は、ユーザUm及びUa間の距離に応じて、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションのボリューム(例えば、音声の音量)を制御することで、ネットワークN1を介したコミュニケーションと、直接的なコミュニケーションとの間を遷移させてもよい。
 より具体的には、入出力制御部105は、ユーザUm及びUa間の距離が閾値以下の場合には、当該距離が短くなるほど、ネットワークN1を介して送受信される音声の音量がより小さくなるように制御する。このような制御により、ユーザUm及びUa間のコミュニケーションを、ネットワークN1を介したコミュニケーションから直接的なコミュニケーションに、シームレスに遷移させることが可能となる。
 また、入出力制御部105は、ユーザUm及びUa間の距離が長くなるほど、ネットワークN1を介して送受信される音声の音量がより大きくなるように制御してもよい。このような制御により、ユーザUm及びUaが、対面状態から互いに離間するような状況下において、ユーザUm及びUa間のコミュニケーションを、直接的なコミュニケーションからネットワークN1を介したコミュニケーションに、シームレスに遷移させることが可能となる。
 また、情報処理装置10は、ユーザUm及びUaが非対面状態から対面状態に遷移したものと判定する場合(即ち、ネットワークN1を介してコミュニケーションを抑制する場合)と、対面状態から非対面状態に遷移したものと判定する場合(即ち、ネットワークN1を介してコミュニケーションを再開する場合)とで、互いに異なる条件を適用してもよい。
 具体的な一例として、情報処理装置10は、非対面状態から対面状態に遷移したものと判定する場合と、対面状態から非対面状態に遷移したものと判定する場合とで、ユーザUm及びUa間の距離の判定に対して、互いに異なる閾値を適用してもよい。
 また、情報処理装置10は、非対面状態から対面状態に遷移したものと判定する場合と、対面状態から非対面状態に遷移したものと判定する場合とで、互いに異なる条件に基づき判定を行ってもよい。より具体的な一例として、情報処理装置10は、非対面状態から対面状態に遷移したことを判定する場合には、ユーザUm及びUa間の距離の条件に加えて、少なくともいずれか一方が他方の方向を向いているか否かを、同判定のための条件として使用してもよい。これに対して、情報処理装置10は、対面状態から非対面状態に遷移したことを判定する場合には、ユーザUm及びUa間の距離の条件のみに基づき判定を行ってもよい。
 また、情報処理装置10は、上記に説明した対面状態か否かの判定結果に基づくネットワークを介したコミュニケーションの制御を、所定の条件に基づき限定的に実行してもよい。具体的な一例として、情報処理装置10は、例えば、所定の施設内等のように、あらかじめ決められた領域内においてのみ、対面状態か否かの判定結果に基づくネットワークを介したコミュニケーションの制御を実行してもよい。
 また、図3を参照して、上記に説明した情報処理装置10の機能構成は、あくまで一例であり、当該情報処理装置10の各機能を実現可能であれば、必ずしも同構成には限定されない。
 例えば、情報処理装置10の各構成のうち、一部の構成が、当該情報処理装置10の外部に設けられていてもよい。より具体的な一例として、検知部21、入力部23、出力部25、及び記憶部27のうち、少なくともいずれかが、情報処理装置10の外部に外付けされていてもよい。
 また、他の一例として、情報処理装置10の各構成のうち、一部の構成(例えば、判定部103、履歴記録部107、記憶部27の少なくともいずれか)が、ネットワークを介して接続された外部装置(例えば、サーバ)に設けられていてもよい。
 より具体的な一例として、情報処理装置10m及び10a間の情報の送受信を仲介するサーバを設け、当該サーバに判定部103及び入出力制御部105に相当する構成を設けてもよい。
 この場合には、例えば、当該サーバは、情報処理装置10m及び10aから、それぞれの検知部21による検知結果を示す情報を取得し、取得した情報に基づき、ユーザUmとユーザUaとが対面状態か否かを判定する。
 そして、当該サーバは、ユーザUm及びUa間の判定結果に基づき、情報処理装置10m及び10a間における情報の送受信を制御することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを制御すればよい。具体的には、当該サーバは、ユーザUmとユーザUaとが対面状態と認識した場合には、情報処理装置10m及び10a間における情報の送受信を一時的に停止することで、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。
 以上、図3を参照して、本実施形態に係る情報処理システムの機能構成の一例について説明した。
 <3.処理>
 次に、図4を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について説明する。図4は、本実施形態に係る情報処理システムの一連の処理の流れの一例について示したフローチャートである。なお、本説明では、図1に示すようにユーザUmがユーザUaとの間でコミュニケーションをとる場合における、当該ユーザUmが保持する情報処理装置10mの動作に着目して説明する。
 (ステップS101)
 入出力制御部105は、ユーザUmから、ユーザUaとのネットワークN1を介したコミュニケーションの開始が、入力部23を介して指示されると、当該ユーザUaの情報処理装置10aとの間における当該ネットワークN1を介した通信を開始する。なお、このとき入出力制御部105は、ネットワークN1を介した情報処理装置10aとの通信が確立されていない場合には、当該情報処理装置10aとの間で所定の通信シーケンスを実行することで、当該通信を確立してもよい。
 (ステップS103)
 検知部21は、判定部103が、相互コミュニケーションの対象となるユーザ間(即ち、ユーザUa及びUb)が対面状態か否かを判定するための情報を取得し、取得した情報を当該判定部103に出力する。判定部103は、検知部21から取得した情報に基づき、ユーザUmとユーザUaとが対面状態か否かを判定し、判定結果を示す情報を入出力制御部105に出力する。入出力制御部105は、判定部103からユーザUmとユーザUaとが対面状態か否かの判定結果を示す情報を取得する。
 (ステップS105)
 入出力制御部105は、判定部103から取得した情報に基づき、ユーザUmとユーザUaとが対面状態であることを認識した場合には(ステップS103、YES)、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを抑制してもよい。
 (ステップS109)
 また、入出力制御部105は、判定部103から取得した情報に基づき、ユーザUmとユーザUaとが非対面状態であることを認識した場合(ステップS103、NO、かつ、ステップS107、YES)には、ユーザUm及びUa間におけるネットワークN1を介したコミュニケーションを有効化する。
 (ステップS107)
 なお、入出力制御部105は、ユーザUmとユーザUaとの状態に特に変化がない場合(ステップS103、NO、かつ、ステップS107、NO)には、そのときのネットワークN1を介したコミュニケーションの状態を維持する。
 (ステップS111)
 そして、入出力制御部105は、ユーザUmから、ユーザUaとのネットワークN1を介したコミュニケーションの終了が指示されない限り(ステップS111、NO)、ユーザUm及びUa間における対面状態の判定に係る処理と、当該判定結果に基づくネットワークN1を介したコミュニケーションの制御とを継続する。そして、ユーザUmから、ユーザUaとのネットワークN1を介したコミュニケーションの終了が、入力部23を介して指示された場合には(ステップS111、YES)、入出力制御部105は、情報処理装置10aとの間におけるネットワークN1を介した通信を終了する。
 以上、図4を参照して、本実施形態に係る情報処理システムの一連の処理の流れの一例について説明した。
 <4.変形例>
 次に、本実施形態に係る情報処理システムの変形例について説明する。
 [4.1.変形例1:3人以上のユーザ間におけるコミュニケーションの制御例]
 まず、変形例1として、本実施形態に係る情報処理システムが、3人以上のユーザ間における相互コミュニケーションを制御する場合の動作の一例について説明する。例えば、図5は、変形例1に係る情報処理システムの動作の一例について説明するための説明図であり、ユーザUm、Ua、及びUbが、相互コミュニケーションを行う場合の一例について示している。
 図5において、参照符号N11は、ユーザUm及びUaそれぞれが保持する情報処理装置10間のネットワークを模式的に示している。また、参照符号N12は、ユーザUm及びUbそれぞれが保持する情報処理装置10間のネットワークを模式的に示している。同様に、参照符号N13は、ユーザUa及びUbそれぞれが保持する情報処理装置10間のネットワークを模式的に示している。なお、図5に示す例では、説明をわかりやすくするために、ユーザUm、Ua、及びUbそれぞれが保持する情報処理装置10の図示を省略している。また、以降の説明において、ユーザUm、Ua、及びUbそれぞれが保持する情報処理装置10を明示的に区別する場合には、情報処理装置10m、10a、及び10bと記載する場合がある。
 例えば、図5において、参照符号S21で示された状態は、ユーザUm、Ua、及びUb間において、直接的なコミュニケーションが困難な状態を示している。この場合には、例えば、情報処理装置10m及び10aは、ネットワークN11を介したコミュニケーションを有効化している。これにより、ユーザUm及びUaは、それぞれ保持する情報処理装置10を使用することで、ネットワークN11を介して相互にコミュニケーションをとることが可能となる。同様に、情報処理装置10m及び10bは、ネットワークN12を介したコミュニケーションを有効化している。また、情報処理装置10a及び10bは、ネットワークN13を介したコミュニケーションを有効化している。このように、状態S21では、ユーザUm、Ua、及びUbは、ネットワークを介して相互にコミュニケーションをとっている。
 次いで、参照符号S22で示された状態に着目する。状態S22は、状態S21の後にユーザUmとユーザUaとが対面し、直接的なコミュニケーションとることが可能となった状態を示している。このような場合には、情報処理装置10m及び10aは、ユーザUm及びUa間におけるネットワークN11を介したコミュニケーションを抑制する。
 一方で、状態S22においても、ユーザUmとユーザUbとは非対面状態が継続されている。そのため、情報処理装置10mは、ユーザUm及びUb間におけるネットワークN12を介したコミュニケーションについては、有効化された状態を維持する。同様に、ユーザUaとユーザUbとは非対面状態が継続されているため、情報処理装置10aは、ユーザUa及びUb間におけるネットワークN13を介したコミュニケーションについては、有効化された状態を維持する。
 なお、状態S22から、ユーザUmとユーザUaとが再度離隔した場合には、情報処理装置10m及び10aは、当該ユーザUm及びUa間における、ネットワークN11を介したコミュニケーションを再開すればよい。
 また、ユーザUm及びUbが対面状態となった場合には、情報処理装置10m及び10bは、ネットワークN12を介したコミュニケーションを抑制すればよい。同様に、ユーザUa及びUbが対面状態となった場合には、情報処理装置10a及び10bは、ネットワークN13を介したコミュニケーションを抑制すればよい。このように、各情報処理装置10は、各ユーザ間が対面状態か否かに応じて、当該ユーザ間におけるネットワークを介したコミュニケーションを個々に制御すればよい。
 ここで、図6を参照して、情報処理装置10m、10a、及び10bの接続関係の一例について説明する。図6は、変形例1に係る情報処理システムにおける情報処理装置10間の接続関係の一例を示している。図6に示す例では、情報処理装置10mは、情報処理装置10a及び10bのそれぞれとの間でネットワークを介した通信を確立している。
 図6に示す例の場合には、情報処理装置10mは、情報処理装置10a及び10bそれぞれとの間の通信を個々に制御すればよい。具体的には、情報処理装置10mは、ユーザUmとユーザUaとが対面状態であると認識した場合には、ネットワークN11を介した情報処理装置10aとの間の通信に関する動作を制御すればよい。これにより、情報処理装置10mは、ユーザUm及びUa間のネットワークN11を介したコミュニケーションを抑制することが可能となる。同様に、情報処理装置10mは、ユーザUmとユーザUbとが対面状態であると認識した場合には、ネットワークN12を介した情報処理装置10bとの間の通信に関する動作を制御すればよい。これにより、情報処理装置10mは、ユーザUm及びUb間のネットワークN12を介したコミュニケーションを抑制することが可能となる。なお、上記に説明したような制御は、情報処理装置10a及び10bについても同様に適用可能であることは言うまでもない。
 また、図7を参照して、情報処理装置10m、10a、及び10bの接続関係の他の一例について説明する。図7は、変形例1に係る情報処理システムにおける情報処理装置10間の接続関係の他の一例を示している。図7に示す例では、情報処理装置10m、10a、及び10b間の通信をサーバ80が仲介している。なお、図7において、参照符号N21は、情報処理装置10mとサーバ80との間のネットワークを模式的に示している。同様に、参照符号N22は、情報処理装置10aとサーバ80との間のネットワークを模式的に示している。また、参照符号N23は、情報処理装置10bとサーバ80との間のネットワークを模式的に示している。
 図7に示す例の場合には、情報処理装置10mは、情報処理装置10a及び10bのそれぞれから送信されたデータ(コミュニケーションのための情報)の双方を、サーバ80から受信することとなる。そのため、例えば、情報処理装置10mは、サーバ80から受信したデータに含まれる送信元を示す情報に基づき、当該データが、情報処理装置10a及び10bのいずれから送信されたデータか(即ち、ユーザUa及びUbのいずれとのコミュニケーションのためのデータか)を判別する。
 即ち、情報処理装置10mは、ユーザUmとユーザUaとが対面状態であると認識した場合には、サーバ80から受信したデータのうち、送信元が情報処理装置10aであるデータの出力を抑制すればよい。これにより、情報処理装置10mは、ユーザUm及びUa間のネットワークN11を介したコミュニケーションを抑制することが可能となる。同様に、情報処理装置10mは、ユーザUmとユーザUbとが対面状態であると認識した場合には、サーバ80から受信したデータのうち、送信元が情報処理装置10bであるデータの出力を抑制すればよい。これにより、情報処理装置10mは、ユーザUm及びUb間のネットワークN12を介したコミュニケーションを抑制することが可能となる。なお、上記に説明したような制御は、情報処理装置10a及び10bについても同様に適用可能であることは言うまでもない。
 また、他の一例として、図7に示す例の場合には、サーバ80が主体となって、情報処理装置10m、10a、及び10b間におけるデータの送受信を制御してもよい。
 具体的な一例として、サーバ80は、情報処理装置10m及び10aの少なくともいずれかからの通知に基づき、ユーザUmとユーザUaとが対面状態であると認識したものとする。この場合には、サーバ80は、情報処理装置10m及び10a間における情報の送受信を抑制してもよい。これにより、ユーザUm及びUa間のネットワークN11を介したコミュニケーションが抑制されることとなる。同様に、サーバ80は、ユーザUmとユーザUbとが対面状態であると認識した場合には、報処理装置10m及び10b間における情報の送受信を抑制してもよい。また、サーバ80は、ユーザUaとユーザUbとが対面状態であると認識した場合には、報処理装置10a及び10b間における情報の送受信を抑制してもよい。
 以上のような制御により、ユーザUm、Ua、及びUbは、コミュニケーションの相手との間で対面状態と非対面状態とが随時変化するような状況下においても、自身と相手とが対面状態か否かを意識せずに、より好適な態様でコミュニケーションを継続することが可能となる。
 以上、変形例1として、図5~図7を参照して、本実施形態に係る情報処理システムが、3人以上のユーザ間における相互コミュニケーションを制御する場合の動作の一例について説明した。
 [4.2.変形例2:コミュニケーションの状態の報知及び制御の一例]
 次に、変形例2として、情報処理装置10による、複数のユーザ間における相互コミュニケーションの状態の報知や、当該コミュニケーションの制御に関する各種動作の他の一例について説明する。
 例えば、図8は、変形例2に係る情報処理システムの一例について説明するための説明図であり、ユーザUm及びUaそれぞれが相互コミュニケーションを行う場合における、情報処理装置10m及び10aの状態を模式的に示している。
 図8に示す例では、情報処理装置10m及び10aは、自身を保持するユーザが、他のユーザとの間で相互コミュニケーションを開始した場合に、LED(Light Emitting Diode)等のような発光デバイスを点灯または点滅させることで、相互コミュニケーションが実行中(換言すると、接続中)であることを報知する。換言すると、情報処理装置10m及び10aは、ユーザUm及びUa間が対面状態か否かの検出と、検出結果に応じたネットワークN11を介したコミュニケーションの制御との各処理を実行中には、発光デバイスを点灯または点滅させることで、当該処理が実行中であることを報知する。また、図8に示す例では、情報処理装置10m及び10aは、ユーザUm及びUaが対面状態か否かに応じて、例えば、発光デバイスの点灯または点滅の態様を制御することで、自身を保持するユーザに対面状態か否かを報知している。
 例えば、図8において、参照符号S31で示しされた状態は、ユーザUm及びUa間において直接的なコミュニケーションが可能な状態(即ち、対面状態)を模式的に示している。また、参照符号S32は、ユーザUm及びUaが互いに離隔し、ユーザUm及びUa間において直接的なコミュニケーションが困難な状態(即ち、非対面状態)を模式的に示している。
 換言すると、状態S31では、情報処理装置10m及び10aは、ユーザUm及びUaが対面状態のため、ユーザUm及びUa間におけるネットワークN11を介したコミュニケーションを抑制している。また、状態S32においては、情報処理装置10m及び10aは、ユーザUm及びUaが非対面状態のため、ユーザUm及びUa間におけるネットワークN11を介したコミュニケーションを有効化している。
 ここで、情報処理装置10mに着目して、当該情報処理装置10mがユーザUmに対して情報を報知する動作について説明する。なお、以下に説明する動作は、情報処理装置10aがユーザUaに対して情報を報知する場合についても同様である。
 例えば、図8に示す例では、当該情報処理装置10mは、状態S31(対面状態)と状態S32(非対面状態)とで、異なる態様で発光デバイスを点灯または点滅させている。これにより、ユーザUmは、発光デバイスが点灯または点滅する態様により、ユーザUaとの間のネットワークN11を介したコミュニケーションが有効か否かを判別することが可能となる。
 なお、ユーザUmが状態S31及びS32のいずれの状態にあるかを判別できれば、情報処理装置10mが発光デバイスを点灯または点滅させる態様は特に限定されない。具体的な一例として、情報処理装置10mは、状態S31と状態S32とで、互いに異なる色で発光デバイスを点灯または点滅させてもよい。また、他の一例として、情報処理装置10mは、状態S31と状態S32とで、互いに異なる発光パターンで発光デバイスを点灯または点滅させてもよい。
 また、ユーザUmが、ユーザUaとの間の相互コミュニケーションが有効か否かや、ネットワークN11を介したコミュニケーションが有効か否かを判別できれば、情報処理装置10mが、ユーザUmに対して情報を報知する方法は特に限定されない。
 具体的な一例として、情報処理装置10mは、ユーザUm及びUa間の相互コミュニケーションが開始された場合に、効果音やBGM(Background Music)等の音響情報を出力することで、相互コミュニケーションが実行中であることを、ユーザUmに報知してもよい。より具体的な一例として、情報処理装置10mは、相互コミュニケーションが実行中の場合には、複数のユーザ間におけるコミュニケーションが実行中であることを想起させる音響情報を出力してもよい。
 なお、音響情報の出力により情報を報知する場合には、情報処理装置10mは、当該音響情報を常時出力してもよいし、所定の期間ごとに定期的に出力してもよい。
 また、情報処理装置10mは、状態S31(対面状態)と状態S32(非対面状態)とで、互いに異なる音響情報を出力することで、ユーザUaとの間のネットワークN11を介したコミュニケーションが有効か否かを、ユーザUmに対して報知してもよい。
 また、情報処理装置10mは、対面状態(状態S31)から非対面状態(状態S32)に遷移した場合に、ユーザUaとの間のネットワークN11を介したコミュニケーションが有効化されるか否かを、ユーザUmに対して報知してもよい。
 具体的な一例として、情報処理装置10mは、ユーザUm及びUaが非対面状態(状態S32)となった際に、ネットワークN11を介したコミュニケーションが有効化される設定の場合には、情報処理装置10aと同様の態様で発光デバイスを点灯または点滅させてもよい。
 より具体的な一例として、情報処理装置10mは、自身の発光デバイスを、情報処理装置10aの発光デバイスと同期して発光させることで、非対面状態となった際に、ネットワークN11を介したコミュニケーションが有効化されることを、ユーザUmに報知してもよい。この場合には、ユーザUmは、ユーザUaとの対面時に、情報処理装置10m及び10aそれぞれの発光デバイスが同期して発光していることを確認することで、非対面状態となった場合においても、ユーザUaとのコミュニケーションを継続可能であることを認識することが可能となる。
 次に、図9を参照して、3人以上のユーザが相互にコミュニケーションを行う場合の、情報処理装置10の動作の一例について説明する。図9は、変形例2に係る情報処理システムの一例について説明するための説明図であり、ユーザUm、Ua、及びUbそれぞれが相互コミュニケーションを行う場合における、情報処理装置10m、10a、及び10bの状態を模式的に示している。
 図9に示す例では、図8に示す例と同様に、情報処理装置10は、自身を保持するユーザが、他のユーザとの間で相互コミュニケーションを開始した場合に、発光デバイスを点灯または点滅させることで、相互コミュニケーションが実行中であることを報知している。また、図9に示す例では、情報処理装置10は、相互コミュニケーションの対象となる複数のユーザが対面状態か否かに応じて、例えば、発光デバイスの点灯または点滅の態様を制御することで、自身を保持するユーザに対面状態か否かを報知している。
 例えば、図9において、参照符号S41で示された状態は、ユーザUm、Ua、及びUb間において直接的なコミュニケーションが可能な状態(即ち、対面状態)を模式的に示している。また、参照符号S42は、ユーザUmが、ユーザUa及びUbと離隔し、ユーザUmと、ユーザUa及びUbのそれぞれとの間において、直接的なコミュニケーションが困難な状態(即ち、非対面状態)を模式的に示している。
 例えば、情報処理装置10mの動作に着目すると、状態S41では、ユーザUm、Ua、及びUbが対面状態のため、当該情報処理装置10mは、ユーザUmと、ユーザUa及びUaとの間におけるネットワークを介したコミュニケーションを抑制している。また、状態S42において、情報処理装置10mは、ユーザUmと、ユーザUa及びUaのそれぞれとが非対面状態のため、ユーザUm及びUa間におけるネットワークN11を介したコミュニケーションと、ユーザUm及びUb間におけるネットワークN12を介したコミュニケーションとを有効化している。
 なお、図9に示すように、情報処理装置10mは、状態S41(対面状態)と状態S42(非対面状態)とで、互いに異なる態様で発光デバイスを発光させることで、ユーザUmに対して対面状態か否か(換言すると、ネットワークを介したコミュニケーションが有効か否か)をユーザUmに報知してもよい。
 また、図9に示す例では、ユーザUm、Ua、及びUb間は、非対面状態となった場合においても、ネットワークを介したコミュニケーションが有効化され、コミュニケーションを継続することが可能となっている。そのため、情報処理装置10mは、少なくとも状態S41(対面状態)において、情報処理装置10a及び10bと同期して発光デバイスを発光させることで、非対面状態となった際に、ネットワークを介したコミュニケーションが有効化されることを、ユーザUmに報知してもよい。
 なお、情報処理装置10mは、ユーザUm、Ua、及びUb間は、非対面状態となった場合に、一部のユーザ間についてのみ、ネットワークを介したコミュニケーションが有効化されるように制御してもよい。
 具体的な一例として、ユーザUmとユーザUa及びUbとが離隔し非対面状態となった場合に、情報処理装置10mは、ユーザUm及びUa間についてのみネットワークを介したコミュニケーション(即ち、ネットワークN11を介したコミュニケーション)を有効化してもよい。この場合には、情報処理装置10mは、状態S41(対面状態)において、情報処理装置10aとのみ同期して発光デバイスを発光させることで、非対面状態となった際に、ユーザUm及びUa間についてのみネットワークを介したコミュニケーションが有効化されることを、ユーザUmに報知してもよい。
 なお、非対面状態となった場合に、ネットワークを介したコミュニケーションが有効化される相手は、ユーザからの操作に基づき適宜変更できてもよい。具体的な一例として、情報処理装置10mは、ユーザUmからの指示に基づき、非対面状態となった場合に、ネットワークを介したコミュニケーションが有効化される相手を、ユーザUaからユーザUbに切り替えてもよい。また、相互コミュニケーションの対象となるユーザの追加や、相互コミュニケーションの対象からの一部ユーザの除外等が適宜実行できてもよい。
 また、非対面状態となった場合におけるネットワークを介したコミュニケーションが有効化される相手の切り替えや、相互コミュニケーションの対象となるユーザの追加及び除外のそれぞれに対して、互いに異なる操作が割り当てられていてもよい。具体的な一例として、複数の情報処理装置10間を接触または近接させる操作が、相互コミュニケーションの対象となるユーザの追加に係る処理に割り当てられていてもよい。また、情報処理装置10を振る操作が、非対面状態となった場合に、ネットワークを介したコミュニケーションが有効化される相手の切り替えに係る処理に割り当てられていてもよい。
 このような場合においても、情報処理装置10mは、例えば、発光デバイスの発光の態様等を制御することで、非対面状態においてネットワークを介したコミュニケーションが有効化される相手を、ユーザUmに報知してもよい。これにより、ユーザUmは、非対面状態においてネットワークを介したコミュニケーションが有効化される相手を状況に応じて適宜変更した場合においても、情報処理装置10mからの報知情報(例えば、発光デバイスの発光態様)に基づき、当該相手を認識することが可能となる。
 以上、変形例2として、図8及び図9を参照して、情報処理装置10が、複数のユーザ間における相互コミュニケーションの状態を、自身を保持するユーザに対して報知する場合における、当該情報処理装置10の動作の一例について説明した。
 [4.3.変形例3:ネットワークを介したコミュニケーションの制御例]
 前述した実施形態に係る情報処理システムでは、各情報処理装置10が、相互コミュニケーションの対象となる複数のユーザ間が対面状態か否かに応じて、当該ユーザ間におけるネットワークを介したコミュニケーションを制御する場合の一例について説明した。一方で、情報処理装置10は、ユーザ間が対面状態か否かの条件のみに限らず、他の条件と組み合わせることで、当該ユーザ間のコミュニケーションをより細かく制御してもよい。そこで、以下に、ユーザUmが保持する情報処理装置10mの動作に着目して、当該情報処理装置10mが、ユーザUmと他のユーザとの間におけるネットワークを介したコミュニケーションの制御の一例について説明する。
 (外部環境に応じた制御例)
 例えば、ユーザUmがユーザUaと対面状態となった場合においても、ユーザUm及びUa間における直接的なコミュニケーションが困難な場合もあり得る。具体的な一例として、外部環境からの環境音(雑音)の影響が大きい場合には、ユーザUm及びUaが対面している状態においても、一方が発した音声を他方側が聞き取ることが困難な場合もある。
 そのため、例えば、情報処理装置10mは、ユーザUm及びUaが対面状態であると判定した場合においても、ユーザUaから発せられた音声に対する環境音の信号対雑音比(SN比)が閾値よりも低い場合(もしくは、環境音の音量が閾値を超える場合)には、ネットワークを介したコミュニケーションを維持してもよい。このような制御により、ユーザUmは、環境音(雑音)の影響によりユーザUaが発した音声を直接聴取することが困難な状況下においても、ネットワークを介したコミュニケーションに基づき、当該ユーザUaの音声を聴取することが可能となる。
 (ユーザ操作に基づく制御例)
 また、ネットワークを介したコミュニケーションを、ユーザUmが、各種操作に基づき、任意のタイミングで意図的に抑制できるように、情報処理装置10mが構成されていてもよい。換言すると、情報処理装置10mは、ユーザUmからの所定の操作を受け付けた場合に、他のユーザとの間におけるネットワークを介したコミュニケーションを抑制してもよい。
 具体的な一例として、情報処理装置10mは、所定のデバイスに対するユーザUmからの所定の操作を検知した場合に、ネットワークを介したコミュニケーションを抑制してもよい。より具体的な一例として、情報処理装置10mは、ユーザUmにより、マイクロフォン(集音デバイス)等のような所定のデバイスに対して、「握る」または「覆い隠す」等の所定の動作が行われたことを検知した場合に、ネットワークを介したコミュニケーションを抑制してもよい。なお、情報処理装置10mは、所定のデバイスに対する「握る」または「覆い隠す」等の所定の動作を検出できれば、その方法は特に限定されない。具体的な一例として、情報処理装置10mは、所定のデバイスに対する所定の操作を検知するために、タッチセンサ、照度センサ、湿度センサ等の各種検知部を備えていてもよい。
 もちろん、情報処理装置10mは、所定のデバイスに対するユーザUmからの所定の操作を検知した場合に、ネットワークを介したコミュニケーションを有効化(再開)してもよい。より具体的な一例として、情報処理装置10mは、ユーザUmが、マイクロフォン等の所定のデバイスを握った手(または、覆い隠した手)を、当該デバイスから離したことを検知した場合に、抑制していたネットワークを介したコミュニケーションを再開してもよい。
 また、他の一例として、情報処理装置10mは、ヘッドフォン(または、イヤフォン)やマイクロフォン等の所定のデバイスが外されたこと(装着されていない状態に遷移したこと)を検知した場合に、ネットワークを介したコミュニケーションを抑制してもよい。また、情報処理装置10mは、ヘッドフォン(または、イヤフォン)やマイクロフォン等の所定のデバイスが再度装着された場合には、抑制していたネットワークを介したコミュニケーションを再開してもよい。
 また、他の一例として、情報処理装置10mは、ユーザUmによる所定のジェスチャ操作を検知した場合に、ネットワークを介したコミュニケーションを抑制してもよい。もちろん、情報処理装置10mは、ユーザUmによる所定のジェスチャ操作を検知した場合に、抑制していたネットワークを介したコミュニケーションを再開してもよい。
 また、情報処理装置10mは、ボタン等の所定の操作デバイスや、所定のUI(User Interface)に対するユーザ操作を受けて、ネットワークを介したコミュニケーションを抑制または有効化(再開)してもよい。
 具体的な一例として、情報処理装置10mは、相互コミュニケーションの相手となる他のユーザの一覧をユーザUmに提示するとともに、当該他のユーザそれぞれについて非対面状態か否かを示す情報を提示してもよい。また、このとき、情報処理装置10mは、相互コミュニケーションの相手となる他のユーザそれぞれについて、対面状態から非対面状態に遷移した場合に、ネットワークを介したコミュニケーションが有効化されるか否かの設定を示す情報を提示してもよい。
 また、情報処理装置10mは、ユーザUmに対して提示した、相互コミュニケーションの相手となる他のユーザに関する情報に対して、当該ユーザUmから操作を受け付けた場合に、操作対象となる他のユーザとの相互コミュニケーションに関する設定を当該操作に基づき更新してもよい。なお、相互コミュニケーションに関する設定の一例としては、前述した、対面状態から非対面状態に遷移した場合に、ネットワークを介したコミュニケーションが有効化されるか否かの設定等が挙げられる。
 (GUI:Graphical User Interfaceの一例)
 次に、図10を参照して、情報処理装置10のGUIの一例について説明する。図10は、変形例2に係る情報処理装置10の一態様について説明するための説明図であり、当該情報処理装置10が、自身を保持するユーザに対して提示するGUIの一例を示している。
 図10に示す例では、情報処理装置10は、ユーザUm、Ua、及びUb間における相互コミュニケーションの状態を操作画面v10上に提示している。なお、図10に示す例では、ユーザUaとユーザUbとが対面状態にあり、ユーザUmと、ユーザUa及びUbのそれぞれとは非対面状態にあるものとする。
 図10に示す例では、情報処理装置10は、操作画面v10上に、相互コミュニケーションの対象であるユーザUm、Ua、及びUbを、ノードv11として模式的に提示している。
 また、情報処理装置10は、各ノードv11を、対応するユーザが他のユーザとが対面状態及び非対面状態のいずれかに応じて、互いに異なる態様で強調表示している。例えば、図10に示す例の場合には、情報処理装置10mは、各ノードv11を、当該ノードv11に対応するユーザが他のユーザと対面状態及び非対面状態のいずれかに応じて、互いに異なる色の縁どりとして示された表示オブジェクトv13a及びv13bのいずれかにより強調表示している。なお、以降の説明では、各ノードv11を強調表示するための表示オブジェクトv13a及びv13bを特に区別しない場合には、単に「表示オブジェクトv13」と称する場合がある。
 例えば、図10に示す例では、ユーザUmは、ユーザUa及びUbそれぞれと非対面状態にある。そのため、情報処理装置10は、ユーザUmに対応するノードv11を、表示オブジェクトv13aにより強調表示することで、ユーザUmと、ユーザUa及びUbのそれぞれとが、非対面状態であることを提示している。
 また、図10に示す例では、ユーザUaとユーザUbとが対面状態にある。そのため、情報処理装置10は、ユーザUa及びUbそれぞれに対応するノードv11を、表示オブジェクトv13bにより強調表示することで、ユーザUaとユーザUbとが、対面状態であることを提示している。
 また、情報処理装置10は、各ユーザに対応するノードv11に対応する表示オブジェクトv13の点滅パターンにより、対応するユーザ間が非対面状態となった際に、ネットワークを介したコミュニケーションが有効化されるか否かを提示してもよい。
 具体的な一例として、情報処理装置10は、対面状態にあるユーザUa及びUbが非対面状態となった場合に、当該ユーザUa及びUb間においてネットワークを介したコミュニケーションが有効化される場合に着目する。この場合には、情報処理装置10は、ユーザUa及びUbそれぞれに対応するノードv11間において、表示オブジェクトv13を同期して点滅させる。これにより、情報処理装置10を保持するユーザは、ユーザUa及びUbが非対面状態となった場合においても、ネットワークを介したコミュニケーションが有効化され、当該ユーザUa及びUb間のコミュニケーションが継続されることを認識することが可能となる。
 また、情報処理装置10は、各ノードv11間を、当該ノードv11が示すユーザ間のコミュニケーションの態様に応じて、互いに異なる態様で示されたリンクv15a及びv15bのいずれかにより接続している。なお、以降の説明では、リンクv15a及びv15bを特に区別しない場合には、単に「リンクv15」と称する場合がある。
 具体的には、リンクv15aは、当該リンクv15aにより接続されたユーザ間において、ネットワークを介したコミュニケーションが有効となっていることを示している。例えば、図10に示す例では、ユーザUmと、ユーザUa及びUbのそれぞれとは非対面状態にあり、当該ユーザUmとユーザUa及びUbとの間は、ネットワークを介したコミュニケーションが有効化されている。そのため、情報処理装置10は、ユーザUmを示すノードv11と、ユーザUa及びUbのそれぞれを示すノードv11とを、リンクv15aにより接続している。
 また、リンクv15bは、当該リンクv15bにより接続されたユーザ間において、ネットワークを介したコミュニケーションが抑制されていることを示している。例えば、図10に示す例では、ユーザUaとユーザUbとは対面状態にあり、当該ユーザUa及びUb間は、ネットワークを介したコミュニケーションが抑制されている。そのため、情報処理装置10mは、ユーザUaを示すノードv11と、ユーザUb示すノードv11とを、リンクv15bにより接続している。
 また、情報処理装置10は、操作画面v10に提示した各表示オブジェクトに対するユーザUmからの操作を受けて、当該操作の内容に基づき、各ユーザ間のコミュニケーションに係る動作を制御してもよい。
 例えば、情報処理装置10は、各ユーザに対応するノードv11間を接続するリンクv15に対する操作を受けて、対応するユーザ間におけるネットワークを介したコミュニケーションに係る動作を制御してもよい。
 具体的な一例として、ユーザUmが保持する情報処理装置10mが、ユーザUm及びUbそれぞれに対応するノードv11間を接続しているリンクv15a(即ち、ネットワークを介したコミュニケーションが有効であることを示すリンクv15)に対する、ユーザUmからの操作(例えば、タップ操作等)を受け付けたものとする。この場合には、例えば、情報処理装置10mは、ユーザUmとユーザUbとが非対面状態であったとしても、当該ユーザUm及びUb間におけるネットワークを介したコミュニケーションを抑制(停止)してもよい。また、このとき情報処理装置10mは、ユーザUm及びUb間におけるネットワークを介したコミュニケーションの抑制に伴い、ユーザUm及びUbそれぞれに対応するノードv11間がリンクv15b(即ち、ネットワークを介したコミュニケーションが抑制されていることを示すリンクv15)により接続されるように、表示画面v10を更新してもよい。
 また、他の一例として、ユーザUaが保持する情報処理装置10aが、ユーザUa及びUbそれぞれに対応するノードv11間を接続しているリンクv15b(即ち、ネットワークを介したコミュニケーションが抑制されていることを示すリンクv15)に対するユーザUaからの操作を認識したものとする。この場合には、例えば、情報処理装置10aは、ユーザUaとユーザUbとが対面状態であったとしても、当該ユーザUa及びUb間におけるネットワークを介したコミュニケーションを有効化してもよい。また、このとき情報処理装置10aは、ユーザUa及びUb間におけるネットワークを介したコミュニケーションの有効化に伴い、ユーザUa及びUbそれぞれに対応するノードv11間がリンクv15a(即ち、ネットワークを介したコミュニケーションが有効であることを示すリンクv15)により接続されるように、表示画面v10を更新してもよい。
 なお、各情報処理装置10は、操作画面v10に対する操作を受け付けた場合に、制御対象の範囲を制限してもよい。具体的な一例として、情報処理装置10は、自身を保持するユーザから操作画面v10に対する操作を受けた場合に、自身が主体的に実行する処理のみを制御対象としてもよい。より具体的な一例として、ユーザUmが保持する情報処理装置10mは、ユーザUmと、他のユーザとの間のコミュニケーションのみを制御対象とし、ユーザUm以外の他のユーザ間におけるコミュニケーションは、制御の対象から除外してもよい。
 また他の一例として、情報処理装置10は、自身を保持するユーザUからの操作に基づき、相互コミュニケーションの対象となるユーザを追加または除外してもよい。
 具体的な一例として、3人以上のユーザ間におけるコミュニケーションにおいては、必ずしも全ユーザが相互にコミュニケーションをとっているとは限らない。例えば、ユーザUmが、ユーザUaと相互にコミュニケーションをとっている状況下で、並行して他のユーザUcとコミュニケーションをとっていてもよい。その一方で、このとき、ユーザUaとユーザUcとは、必ずしもコミュニケーションをとっているとは限らない。
 このような状況下において、例えば、ユーザUmが保持する情報処理装置10mは、当該ユーザUmからの指示に基づき、ユーザUm及びUa間の相互コミュニケーションに対して、新たに、ユーザUcを加えてもよい。この場合には、情報処理装置10mは、操作画面v10上に、ユーザUcに対応するノードv11を新たに追加するとともに、当該ユーザUcに対応するノードv11を、ユーザUm及びUaに対応するノードv11との間で、表示オブジェクトv13を同期して点滅させてもよい。これにより、ユーザUmは、ユーザUm及びUa間のコミュニケーションに対して、新たに、ユーザUcが追加されたことを認識することが可能となる。
 また、ユーザUmが保持する情報処理装置10mは、当該ユーザUmから操作に基づき、ユーザUm、Ua、及びUc間の相互コミュニケーションから、ユーザUcを除外してもよい。この場合には、情報処理装置10mは、ユーザUcに対応するノードv11と、ユーザUm及びUaに対応するノードv11との間で、表示オブジェクトv13を異なる態様で点滅させてもよい(例えば、非同期的に点滅させてもよい)。これにより、ユーザUmは、ユーザUm、Ua、及びUc間におけるコミュニケーションにから、ユーザUcが除外されたことを認識することが可能となる。
 以上のような構成により、各ユーザは、自身が保持する情報処理装置10により提示される操作画面v10により、相互コミュニケーションの対象となるユーザ間における当該コミュニケーションの状態を確認することが可能となる。また、各ユーザは、自身が保持する情報処理装置10により提示される操作画面v10に対する操作により、当該情報処理装置10に対して、各ユーザ間におけるコミュニケーションの制御を指示することが可能となる。
 以上、変形例2として、図8~図10を参照して、情報処理装置10による、複数のユーザ間における相互コミュニケーションの状態の報知や、当該コミュニケーションの制御に関する各種動作の他の一例について説明した。
 <5.実施例>
 次に、本実施形態に係る情報処理システムの実施例について説明する。
 [5.1.実施例1:情報処理装置の形態の一例]
 まず、実施例1として、本実施形態に係る情報処理システムで利用される情報処理装置10の形態の一例について説明する。
 例えば、図11は、本実施形態に係る情報処理装置10の形態の一例を示している。図11に示す例では、情報処理装置10は、本体部100と、入出力部30とを含む。
 入出力部30は、ユーザUmが、例えば、ネットワークを介して他のユーザとの間でコミュニケーションをとるための、本体部100に対する各種情報の入出力インタフェース(入出力デバイス)に相当する。入出力部30は、例えば、保持部31と、イヤフォン部32とを含む。
 保持部31は、ユーザUmの首に対して装着可能に構成されている。具体的な一例として、保持部31は、リングの円周の一部が開口した形状を成し、ユーザUmの首に掛けられることで、当該ユーザUmの首に装着される。
 イヤフォン部32は、所謂イヤフォンやヘッドフォン等のような音響デバイスに相当する。イヤフォン部32は、音響情報を出力する出力部25aを含み、当該出力部25aがユーザUmの耳の近傍に保持されるように装着される。また、当該出力部25aは、音響情報を伝送するためのケーブルにより、保持部31に接続される。
 保持部31のうち、保持部31がユーザUmに装着された場合に、当該ユーザUmの口の近傍に位置する少なくとも一部には、所謂マイクロフォンのように、音響情報を集音するための集音デバイスとして構成された入力部23が設けられている。
 また、保持部31のうち、保持部31がユーザUmに装着された場合に、当該ユーザUmの耳の近傍に位置する少なくとも一部には、所謂スピーカのように、音響情報を出力するための音響デバイスとして構成された出力部25bが設けられている。なお、出力部25bは、保持部31が装着された場合に、ユーザUmの耳の方向に向けて音響情報が出力されるように指向性が制御されていてもよい。これにより、出力部25bは、音響情報の出力先が主にユーザUmとなるように(より好適には、音響情報の出力先がユーザUmに限定されるように)制御することが可能となる。
 本体部100は、ユーザUmが、例えば、ネットワークを介して他のユーザとの間でコミュニケーションをとるために、各種機能を実行するための構成に相当する。例えば、図3に示した情報処理装置10の機能構成のうち、通信部101、判定部103、入出力制御部105、及び履歴記録部107が、本体部100に含まれ得る。また、本体部100は、検知部21のうち少なくとも一部(例えば、GPS等)を含んでもよい。また、本体部100は、記憶部27を含んでもよい。
 また、本体部100は、所謂ディスプレイ等のように、表示情報を表示するための出力部25cが設けられていてもよい。即ち、本体部100は、例えば、報知対象となる報知情報を、出力部25cに表示情報として表示させることで、当該報知情報をユーザUmに報知してもよい。また、本体部100は、例えば、タッチセンサ等のような、ユーザが情報処理装置10を操作するための操作デバイスが設けられていてもよい。
 また、本体部100は、各種状態を検知するための検知部が設けられていてもよい。具体的な一例として、本体部100は、加速度センサや角速度センサ(ジャイロセンサ)等のように、当該本体部100の位置や向きの変化を検出するためのセンサが設けられていてもよい。このような構成により、例えば、本体部100は、各センサからの出力に基づき、ユーザが移動中か否かを認識することが可能となる。
 また、他の一例として、本体部100は、GPS等のような位置情報を取得するための構成が設けられていてもよい。このような構成により、例えば、本体部100は、検知された位置情報を、自身を保持するユーザの位置情報として認識することが可能となる。
 なお、本体部100をユーザUmが保持することが可能であれば、当該本体部100の構成(ひいては、情報処理装置10)の構成や、ユーザUmが当該本体部100を保持する方法は、特に限定されない。
 例えば、図12は、実施例に係る情報処理装置10の一態様について説明するための説明図であり、ユーザUmが本体部100を身体の一部に装着することで、当該本体部100がユーザUmにより保持される場合の一例を示している。
 具体的には、図12は、情報処理装置10がユーザの首から下げるように装着される、所謂ペンダント型のウェアラブルデバイスとして構成されている場合の一例を示している。即ち、図12に示す例では、ユーザUmは、ペンダントを模した形状の本体部100を首から下げることで、当該本体部100を装着している。
 なお、図11及び図12に示した情報処理装置10の形態はあくまで一例であり、ユーザが携行可能に構成され、当該情報処理装置10を使用することで、ユーザ間でコミュニケーションをとることが可能であれば、当該情報処理装置10の形態は限定されない。
 具体的な一例として、情報処理装置10は、ユーザが身体の一部に装着して使用することが可能な、所謂ウェアラブルデバイスとして構成されていてもよい。より具体的な一例として、情報処理装置10は、例えば、ユーザの腕に装着可能に構成された時計型(または、リストバンド型)のウェアラブルデバイスとして構成されていてもよい。
 また、他の一例として、情報処理装置10は、ユーザの頭部に装着可能に構成されていてもよい。このような情報処理装置10の一例として、例えば、所謂HMD(Head Mounted Display)が挙げられる。また、他の一例として、情報処理装置10は、アイウェア型(換言すると、メガネ型)のウェアラブルデバイスとして構成されていてもよい。また、他の一例として、情報処理装置10自体が、ヘッドフォン、イヤフォン、ヘッドセット、補聴器等として構成されていてもよい。この場合には、例えば、図11及び図12に示す例において、本体部100に相当する構成が、保持部31やイヤフォン部32に内蔵されていてもよい。
 また、情報処理装置10は、所謂キーホルダー等のように、例えば、ユーザが携行する所持品に対して装着可能に構成されていてもよい。
 もちろん、図1に示すように、情報処理装置10は、所謂スマートフォンやタブレット端末として構成されていてもよい。
 また、情報処理装置10は、所謂ヘッドフォン(または、イヤフォン)や、外付けのマイク等のように、ユーザが、他のユーザとの間のコミュニケーションで使用するデバイスが接続可能に構成されていてもよい。
 以上、本実施形態に係る情報処理システムの実施例として、図11及び図12を参照して、当該情報処理システムで利用される情報処理装置10の形態の一例について説明した。
 [5.2.実施例2:連携対象デバイスの一例]
 次に、実施例2として、本実施形態に係る情報処理システムにおける情報処理装置10が連携対象とするデバイスの一例について説明する。前述した例では、情報処理装置10は、例えば、イヤフォンやマイクロフォン等を、入出力インタフェースとして利用していた。一方で、情報処理装置10を保持するユーザが、当該情報処理装置10を介して他のユーザとの間でコミュニケーションをとることが可能であれば、当該情報処理装置10に対する入出力インタフェースは、必ずしも限定されず、状況に応じて動的に切り替えられてもよい。
 具体的な一例として、外出中のユーザが帰宅した場合には、情報処理装置10は、入出力デバイスを、イヤフォンやマイクロフォン等のようなユーザが装着しているデバイスから、自宅内に載置されているスピーカやマイクロフォン等に切り替えてもよい。
 この場合には、例えば、情報処理装置10は、GPS等による検出されたユーザの位置情報に基づき、当該ユーザが帰宅したか否かを判定すればよい。また、他の一例として、情報処理装置10は、ユーザの自宅内に載置されたスピーカやマイクロフォンを認識した場合に、入出力デバイスを、認識した当該スピーカやマイクロフォンに切り替えてもよい。
 また、他の一例として、情報処理装置10は、ユーザが車に乗ったことを認識した場合に、当該車に設置されたカーナビゲーションシステムが有するスピーカやマイクロフォンを、入出力デバイスとして利用してもよい。この場合には、例えば、情報処理装置10は、車載ネットワークに接続された場合に、ユーザが車に乗ったものと認識し、当該車載ネットワークを介して、カーナビゲーションシステムが有するスピーカやマイクロフォンに接続すればよい。
 以上、実施例2として、本実施形態に係る情報処理システムにおける情報処理装置10が連携対象とするデバイスの一例について説明した。
 [5.3.実施例3:付加的な制御の一例]
 上記では、本実施形態に係る情報処理装置10が、相互コミュニケーションの対象となるユーザ間が対面状態か否かに応じて、ネットワークを介したコミュニケーションの態様を制御する例について説明した。一方で、情報処理装置10は、相互コミュニケーションの対象となるユーザ間が対面状態か否かの判定結果に応じて、ネットワークを介したコミュニケーションの制御以外にも、他の動作の態様を制御してもよい。そこで、以下に実施例3として、情報処理装置10による、相互コミュニケーションの対象となるユーザ間が対面状態か否かの判定結果に応じた動作制御の一例について説明する。
 例えば、情報処理装置10は、自身を保持するユーザからの操作に基づき、撮像部に動画像や静止画像のような画像データを取得させた場合に、当該ユーザが他のユーザと対面状態か否かに応じて、取得した画像データの記録方法を切り替えてもよい。
 具体的には、情報処理装置10は、自身を保持するユーザが、他のユーザと非対面状態の場合には、撮像部に取得させた画像データを、自身の記憶部(例えば、記憶部27)に記憶させる。なお、情報処理装置10は、ユーザからの明示的な指示を受けた場合に、記憶部に記憶された画像データは、他のユーザが保持する情報処理装置10との間で共有してもよい。
 これに対して、自身を保持するユーザが、他のユーザと対面状態の場合には、情報処理装置10は、撮像部に取得させた画像データを、自動で、他のユーザが保持する情報処理装置10との間で共有してもよい。
 このように、本実施形態に係る情報処理装置10は、相互コミュニケーションの対象となるユーザ間が対面状態か否かに応じて、各種動作の態様を切り替えてもよい。なお、上記に説明した例はあくまで一例であり、相互コミュニケーションの対象となるユーザ間が対面状態か否かに応じて、情報処理装置10が各種動作の態様を切り替えられれば、対象となる動作は特に限定されない。
 以上、実施例3として、情報処理装置10による、相互コミュニケーションの対象となるユーザ間が対面状態か否かの判定結果に応じた動作制御の一例について説明した。
 <6.ハードウェア構成>
 次に、図13を参照して、本開示の一実施形態に係る情報処理装置10のハードウェア構成の一例について説明する。図13は、本開示の一実施形態に係る情報処理装置10のハードウェア構成の一例を示した図である。
 図13に示すように、本実施形態に係る情報処理装置10は、プロセッサ901と、メモリ903と、ストレージ905と、操作デバイス907と、報知デバイス909と、検知デバイス911と、通信デバイス915と、集音デバイス917と、バス919とを含む。また、情報処理装置10は、撮像デバイス913を含んでもよい。
 プロセッサ901は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)又はSoC(System on Chip)であってよく、情報処理装置10の様々な処理を実行する。プロセッサ901は、例えば、各種演算処理を実行するための電子回路により構成することが可能である。なお、前述した判定部103、入出力制御部105、及び履歴記録部107は、プロセッサ901により実現され得る。
 メモリ903は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み、プロセッサ901により実行されるプログラム及びデータを記憶する。ストレージ905は、半導体メモリ又はハードディスクなどの記憶媒体を含み得る。例えば、前述した記憶部27は、メモリ903及びストレージ905の少なくともいずれか、もしくは、双方の組み合わせにより実現され得る。
 操作デバイス907は、ユーザが所望の操作を行うための入力信号を生成する機能を有する。操作デバイス907は、例えば、タッチパネルとして構成され得る。また、他の一例として、操作デバイス907は、例えばボタン、スイッチ、及びキーボードなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、プロセッサ901に供給する入力制御回路などから構成されてよい。なお、前述した入力部23のうち少なくとも一部の構成が、操作デバイス907により実現されていてもよい。
 報知デバイス909は、出力デバイスの一例であり、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイなどのデバイスであってよい。この場合には、報知デバイス909は、画面を表示することにより、ユーザに対して所定の情報を報知することができる。なお、前述した出力部25は、報知デバイス909により実現され得る。
 また、報知デバイス909は、スピーカ等のように、所定の音響信号を出力することで、所定の情報をユーザに報知するデバイスであってもよい。
 なお、上記に示した報知デバイス909の例はあくまで一例であり、ユーザに対して所定の情報を報知可能であれば、報知デバイス909の態様は特に限定されない。具体的な一例として、報知デバイス909は、LED(Light Emitting Diode)のように、点灯又は点滅のパターンにより、所定の情報をユーザに報知するデバイスであってもよい。なお、前述した出力部25は、報知デバイス909により実現され得る。
 検知デバイス911は、各種状態を検知するためのデバイスである。検知デバイス911は、例えば、タッチセンサ、圧力センサ、照度センサ、湿度センサ等のような各種状態を検知するためのセンサにより構成さえ得る。また、検知デバイス911は、静電センサ等のように、所定の対象の接触や近接を検知するためのセンサにより構成されていてもよい。また、検知デバイス911は、加速度センサや角速度センサ等のように、所定の筐体の位置や向きの変化を検出するためのセンサにより構成されていてもよい。また、検知デバイス911は、所謂光学センサ等のように、所定の対象を検知するためのセンサにより構成されていてもよい。なお、前述した検知部21は、検知デバイス911により実現され得る。
 撮像デバイス913は、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の、被写体を撮像し、撮像画像のデジタルデータを得る撮像素子を含む。即ち、撮像デバイス913は、プロセッサ901の制御に従い、レンズ等の光学系を介して静止画像又は動画像を撮影する機能を有する。撮像デバイス913は、撮像した画像をメモリ903やストレージ905に記憶させてもよい。なお、前述した入力部23のうち少なくとも一部の構成が、撮像デバイス913により実現されていてもよい。
 集音デバイス917は、マイクロフォン等のような、ユーザから発せられた音声や周囲の環境の音響を集音し、音響情報(音響信号)として取得するためのデバイスである。また、集音デバイス917は、集音された音声や音響を示すアナログの音響信号を示すデータを音響情報として取得してもよいし、当該アナログの音響信号をデジタルの音響信号に変換し、変換後のデジタルの音響信号を示すデータを音響情報として取得してもよい。なお、前述した入力部23のうち一部の構成は、集音デバイス917により実現され得る。
 通信デバイス915は、情報処理装置10が備える通信手段であり、ネットワークを介して外部装置と通信する。通信デバイス915は、有線または無線用の通信インタフェースである。通信デバイス915を、無線通信インタフェースとして構成する場合には、当該通信デバイス915は、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。
 通信デバイス915は、外部装置から受信した信号に各種の信号処理を行う機能を有し、受信したアナログ信号から生成したデジタル信号をプロセッサ901に供給することが可能である。なお、前述した通信部101は、通信デバイス915により実現され得る。
 バス919は、プロセッサ901、メモリ903、ストレージ905、操作デバイス907、報知デバイス909、検知デバイス911、及び通信デバイス915を相互に接続する。バス919は、複数の種類のバスを含んでもよい。
 また、コンピュータに内蔵されるプロセッサ、メモリ、及びストレージなどのハードウェアを、上記した情報処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、当該プログラムを記録した、コンピュータに読み取り可能な記憶媒体も提供され得る。
 <7.まとめ>
 以上説明したように、本実施形態に係る情報処理システムにおける情報処理装置10は、相互コミュニケーションの対象となる複数のユーザ間が対面状態か否か(即ち、直接的なコミュニケーションが可能か否か)を判定し、判定結果に応じて、ネットワークを介したコミュニケーションを制御する。
 具体的な一例として、情報処理装置10は、ユーザ間が対面状態であることを検知した場合には、当該ユーザ間におけるネットワークを介したコミュニケーションを抑制する。これにより、当該湯ユーザ間において、直接的なコミュニケーションと、ネットワークを介したコミュニケーションとが併存し、一方のコミュニケーションが他方のコミュニケーションを阻害するといった事態の発生を防止することが可能となる。
 また、情報処理装置10は、ユーザ間が非対面状態であることを検知した場合には、当該ユーザ間におけるネットワークを介したコミュニケーションを有効化する。これにより、ユーザは、他のユーザと離隔し、直接的なコミュニケーションが困難な状態となった場合においても、当該他のユーザとの間のコミュニケーションを継続することが可能となる。
 即ち、本実施形態に係る情報処理システムに依れば、ユーザは、コミュニケーションの相手との間で対面状態と非対面状態とが随時変化するような状況下においても、当該相手と対面状態か否かを意識せずに、より好適な態様で相手とのコミュニケーションを継続することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御する制御部
 を備える、情報処理装置。
(2)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記第2のコミュニケーションを抑制する、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、当該第1のユーザと当該第2のユーザとのそれぞれの端末間において、前記ネットワークを介して送受信される情報のうち、少なくとも一部の情報の出力を抑制する、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記一部の情報の出力レベルを下げることで、当該一部の情報の出力レベルを抑制する、前記(3)に記載の情報処理装置。
(5)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記一部の情報の出力を停止することで、当該一部の情報の出力レベルを抑制する、前記(3)に記載の情報処理装置。
(6)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、当該第1のユーザと当該第2のユーザとのそれぞれの端末間における、前記ネットワークを介した通信を切断する、前記(2)に記載の情報処理装置。
(7)
 前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能か否かを判定する判定部を備える、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記判定部は、前記第1のコミュニケーションが可能と判定するための第1の条件とは異なる第2の条件に基づき、前記第1のコミュニケーションが可能ではないものと判定する、前記(7)に記載の情報処理装置。
(9)
 前記判定部は、前記第1のユーザと前記第2のユーザとの間の距離の算出結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、前記(7)または(8)に記載の情報処理装置。
(10)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間の距離に応じて、前記第2のコミュニケーションを制御する、前記(9)に記載の情報処理装置。
(11)
 前記制御部は、前記第1のユーザと前記第2のユーザとの間の距離に応じて、前記第2のコミュニケーションに基づき出力される音声の音量を制御する、前記(10)に記載の情報処理装置。
(12)
 前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザの向きが他のユーザ側を向いているか否かの判定結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、前記(7)または(8)に記載の情報処理装置。
(13)
 前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザの音声が、他のユーザに到達するか否かの判定結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、前記(7)または(8)に記載の情報処理装置。
(14)
 前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザ側に保持された検知部による、他のユーザの検知結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、前記(7)または(8)に記載の情報処理装置。
(15)
 前記第2のコミュニケーションは、音声を介したコミュニケーションを含む、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記制御部は、少なくとも前記第1のコミュニケーションが可能と判定される場合には、当該第1のコミュニケーションの内容を履歴情報として記録する、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記制御部は、前記第1のコミュニケーションの内容と、前記第2のコミュニケーションの内容とを関連付けて、前記履歴情報として記録する、前記(16)に記載の情報処理装置。
(18)
 前記制御部は、前記第1のユーザと前記第2のユーザとのうちいずれかのユーザの端末に設けられている、前記(1)~(17)のいずれか一項に記載の情報処理装置。
(19)
 プロセッサが、
 コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御すること
 を含む、情報処理方法。
(20)
 コンピュータに、
 コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御すること
 を実行させる、プログラム。
 10  情報処理装置
 21  検知部
 23  入力部
 24  出力部
 25  出力部
 27  記憶部
 101 通信部
 103 判定部
 105 入出力制御部
 107 履歴記録部

Claims (20)

  1.  コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御する制御部
     を備える、情報処理装置。
  2.  前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記第2のコミュニケーションを抑制する、請求項1に記載の情報処理装置。
  3.  前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、当該第1のユーザと当該第2のユーザとのそれぞれの端末間において、前記ネットワークを介して送受信される情報のうち、少なくとも一部の情報の出力を抑制する、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記一部の情報の出力レベルを下げることで、当該一部の情報の出力レベルを抑制する、請求項3に記載の情報処理装置。
  5.  前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、前記一部の情報の出力を停止することで、当該一部の情報の出力レベルを抑制する、請求項3に記載の情報処理装置。
  6.  前記制御部は、前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能と判定される場合には、当該第1のユーザと当該第2のユーザとのそれぞれの端末間における、前記ネットワークを介した通信を切断する、請求項2に記載の情報処理装置。
  7.  前記第1のユーザと前記第2のユーザとの間において、前記第1のコミュニケーションが可能か否かを判定する判定部を備える、請求項1に記載の情報処理装置。
  8.  前記判定部は、前記第1のコミュニケーションが可能と判定するための第1の条件とは異なる第2の条件に基づき、前記第1のコミュニケーションが可能ではないものと判定する、請求項7に記載の情報処理装置。
  9.  前記判定部は、前記第1のユーザと前記第2のユーザとの間の距離の算出結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、請求項7に記載の情報処理装置。
  10.  前記制御部は、前記第1のユーザと前記第2のユーザとの間の距離に応じて、前記第2のコミュニケーションを制御する、請求項9に記載の情報処理装置。
  11.  前記制御部は、前記第1のユーザと前記第2のユーザとの間の距離に応じて、前記第2のコミュニケーションに基づき出力される音声の音量を制御する、請求項10に記載の情報処理装置。
  12.  前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザの向きが他のユーザ側を向いているか否かの判定結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、請求項7に記載の情報処理装置。
  13.  前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザの音声が、他のユーザに到達するか否かの判定結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、請求項7に記載の情報処理装置。
  14.  前記判定部は、前記第1のユーザと前記第2のユーザとのうち、少なくとも一部のユーザ側に保持された検知部による、他のユーザの検知結果に基づき、前記第1のコミュニケーションが可能か否かを判定する、請求項7に記載の情報処理装置。
  15.  前記第2のコミュニケーションは、音声を介したコミュニケーションを含む、請求項1に記載の情報処理装置。
  16.  前記制御部は、少なくとも前記第1のコミュニケーションが可能と判定される場合には、当該第1のコミュニケーションの内容を履歴情報として記録する、請求項1に記載の情報処理装置。
  17.  前記制御部は、前記第1のコミュニケーションの内容と、前記第2のコミュニケーションの内容とを関連付けて、前記履歴情報として記録する、請求項16に記載の情報処理装置。
  18.  前記制御部は、前記第1のユーザと前記第2のユーザとのうちいずれかのユーザの端末に設けられている、請求項1に記載の情報処理装置。
  19.  プロセッサが、
     コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御すること
     を含む、情報処理方法。
  20.  コンピュータに、
     コミュニケーションの対象となる第1のユーザと、当該第1のユーザとは異なる第2のユーザとの間において、電子的なネットワークを介さない第1のコミュニケーションが可能か否かの判定結果に応じて、当該第1のユーザと当該第2のユーザとの間における、前記ネットワークを介した第2のコミュニケーションの態様を制御すること
     を実行させる、プログラム。
PCT/JP2016/065085 2015-07-22 2016-05-20 情報処理装置、情報処理方法、及びプログラム WO2017013937A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/742,970 US10499315B2 (en) 2015-07-22 2016-05-20 Information processing apparatus and information processing method
CN201680041458.9A CN107852431B (zh) 2015-07-22 2016-05-20 信息处理设备、信息处理方法和程序
DE112016003273.0T DE112016003273T5 (de) 2015-07-22 2016-05-20 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-144610 2015-07-22
JP2015144610A JP2017027332A (ja) 2015-07-22 2015-07-22 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2017013937A1 true WO2017013937A1 (ja) 2017-01-26

Family

ID=57833903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065085 WO2017013937A1 (ja) 2015-07-22 2016-05-20 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10499315B2 (ja)
JP (1) JP2017027332A (ja)
CN (1) CN107852431B (ja)
DE (1) DE112016003273T5 (ja)
WO (1) WO2017013937A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193017A1 (de) * 2018-04-03 2019-10-10 Sivantos Pte. Ltd. Hörsystem sowie zusatzgerät für ein solches

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6775897B2 (ja) * 2017-02-04 2020-10-28 アルパイン株式会社 車内会話支援装置
JP6722780B2 (ja) 2017-02-16 2020-07-15 富士フイルム株式会社 固体電解質組成物、固体電解質含有シートおよび全固体二次電池、ならびに固体電解質含有シートおよび全固体二次電池の製造方法
JP7020901B2 (ja) * 2017-12-21 2022-02-16 トヨタ自動車株式会社 認証システムおよび認証装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018286A (ja) * 2001-06-28 2003-01-17 Toshiba Corp 移動通信端末
JP2011233960A (ja) * 2010-04-23 2011-11-17 Kyocera Corp 携帯通信機器および着信制御方法
JP2014045416A (ja) * 2012-08-28 2014-03-13 Kyocera Corp 携帯端末、音声制御プログラムおよび音声制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2454064C (en) * 2001-07-18 2011-12-20 M.D. Brothers, Inc. Apparatus and method for treating carpal tunnel syndrome
JP4797674B2 (ja) * 2006-02-13 2011-10-19 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4697551B2 (ja) 2007-12-21 2011-06-08 ソニー株式会社 通信装置、入力制御方法及び入力制御プログラム
KR101723453B1 (ko) * 2011-02-21 2017-04-05 삼성전자주식회사 휴대용 단말기에서 와이파이 다이렉트 연결 기반 유니버설 플러그 앤 플레이 서비스를 제공하기 위한 장치 및 방법
AU2013201454A1 (en) * 2011-09-28 2013-04-11 Nec Corporation Incoming call control system, incoming call control apparatus, incoming call control target terminal specifying apparatus, incoming call control method
US8725113B2 (en) * 2012-03-12 2014-05-13 Google Inc. User proximity control of devices
US10334037B2 (en) * 2014-03-31 2019-06-25 Yaana Technologies, Inc. Peer-to-peer rendezvous system for minimizing third party visibility and method thereof
US10728748B2 (en) * 2016-03-24 2020-07-28 Motorola Mobility Llc Method and device for establishing a peer-to-peer connection in a mobile communication network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018286A (ja) * 2001-06-28 2003-01-17 Toshiba Corp 移動通信端末
JP2011233960A (ja) * 2010-04-23 2011-11-17 Kyocera Corp 携帯通信機器および着信制御方法
JP2014045416A (ja) * 2012-08-28 2014-03-13 Kyocera Corp 携帯端末、音声制御プログラムおよび音声制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193017A1 (de) * 2018-04-03 2019-10-10 Sivantos Pte. Ltd. Hörsystem sowie zusatzgerät für ein solches

Also Published As

Publication number Publication date
JP2017027332A (ja) 2017-02-02
DE112016003273T5 (de) 2018-04-05
CN107852431B (zh) 2021-01-15
US10499315B2 (en) 2019-12-03
US20180227829A1 (en) 2018-08-09
CN107852431A (zh) 2018-03-27

Similar Documents

Publication Publication Date Title
US10931805B2 (en) Method and apparatus for controlling application program, and electronic device
US10015836B2 (en) Master device for using connection attribute of electronic accessories connections to facilitate locating an accessory
US10264346B2 (en) Wearable audio accessories for computing devices
US9596337B2 (en) Directing audio output based on device sensor input
WO2017013937A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180033185A (ko) 이어셋 및 그 제어 방법
JP6690749B2 (ja) 情報処理装置、通信制御方法およびコンピュータプログラム
US11037519B2 (en) Display device having display based on detection value, program, and method of controlling device
WO2016189909A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019207867A1 (ja) 電子機器及び処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16827501

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15742970

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112016003273

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16827501

Country of ref document: EP

Kind code of ref document: A1