WO2018158852A1 - 通話システム及びコミュニケーションシステム - Google Patents

通話システム及びコミュニケーションシステム Download PDF

Info

Publication number
WO2018158852A1
WO2018158852A1 PCT/JP2017/007961 JP2017007961W WO2018158852A1 WO 2018158852 A1 WO2018158852 A1 WO 2018158852A1 JP 2017007961 W JP2017007961 W JP 2017007961W WO 2018158852 A1 WO2018158852 A1 WO 2018158852A1
Authority
WO
WIPO (PCT)
Prior art keywords
image display
user
display device
image
unit
Prior art date
Application number
PCT/JP2017/007961
Other languages
English (en)
French (fr)
Inventor
孝政 大澤
潤 岩田
俊博 米久保
亨子 原
Original Assignee
サン電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サン電子株式会社 filed Critical サン電子株式会社
Priority to PCT/JP2017/007961 priority Critical patent/WO2018158852A1/ja
Priority to JP2019502342A priority patent/JPWO2018158852A1/ja
Publication of WO2018158852A1 publication Critical patent/WO2018158852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • the technology disclosed in this specification includes two or more image display apparatuses and an information processing apparatus, and a communication system and communication for allowing users of each image display apparatus to communicate with each other while viewing images About the system.
  • JP 2006-352309 A discloses a telephone having an avatar display function.
  • This telephone displays the first avatar of the user and the second avatar of the other party on the display during a call with the other party having the telephone having the same function.
  • the first avatar and the second avatar are displayed on the display of the telephone of the other party.
  • the user can change the aspect of the first avatar that is the user's own avatar by operating the telephone during a call.
  • the change of the aspect of the first avatar is also reflected in the first avatar displayed on the display of the other party's telephone. Thereby, it is possible to communicate smoothly while appropriately changing the form of the avatar displayed on each other's display according to the user's situation.
  • Patent Document 1 unless the user performs an operation, the aspect of the avatar displayed on each other's display is not changed. Moreover, there is a possibility that the avatar whose mode is changed by the user's operation does not appropriately reflect the actual state of the user.
  • This specification discloses a technology that allows each user of two or more image display apparatuses to perform communication while viewing a display screen that appropriately reflects the user's state without performing an operation.
  • the call system disclosed in this specification includes two or more image display devices and an information processing device that is communicably connected to each of the two or more image display devices.
  • Each of the two or more image display devices includes a frame that can be worn on a user's head, a display unit that is provided in the frame and is arranged at a position facing the user's eye wearing the frame
  • An acquisition unit that acquires state information related to the state of the user wearing the frame, a microphone that inputs sound emitted by the user wearing the frame, a speaker that outputs audio according to audio output data, and a control unit
  • the control unit includes an information transmission unit that transmits the state information acquired by the acquisition unit to the information processing device, and a first screen that receives display screen data for the image display device from the information processing device.
  • a data receiving unit a display control unit for displaying a display screen represented by the received display screen data on the display unit; and a voice transmitting unit for transmitting the voice input to the microphone to the information processing device;
  • a second data receiving unit that receives the audio output data from the information processing apparatus, and an audio output control unit that causes the speaker to output audio according to the received audio output data.
  • the information processing device includes: a sound receiving unit that receives the sound from each of the two or more image display devices; and the two pieces based on the sound received from each of the two or more image display devices.
  • an audio output data generation unit that generates the audio output data for the image display device, and the generated image display for each of the two or more image display devices
  • An audio output data transmitting unit for transmitting the audio output data for a device; a status information receiving unit for receiving the status information from each of the two or more image display devices; and the two or more image display devices.
  • a character image generation unit that generates two or more character images representing each user wearing the device, each of the two or more character images corresponding Each of the character image generation unit and the two or more image display devices having a display mode according to the state indicated by the state information received from the image display device.
  • the display screen for the image display device is displayed on the display unit of the image display device worn by the user.
  • the display screen includes at least a part of two or more character images.
  • Each character image has a display mode corresponding to the state indicated by the state information received from the corresponding image display device (that is, the state of the user wearing the image display device). That is, the character image included in the display screen can appropriately reflect the state of the corresponding user. Therefore, according to the above configuration, each user can communicate (specifically, call) while looking at the display screen appropriately reflecting each user's state even if the user wearing each image display device does not perform an operation. ).
  • the “character image” includes an arbitrary image representing the user, such as an image representing the user (a so-called avatar), an image obtained by processing an image of the user's own photograph, and the like.
  • the two or more image display devices may include a first image display device and a second image display device different from the first image display device.
  • the screen data generation unit may generate first display screen data for the first image display device and second display screen data for the second image display device.
  • the first display screen represented by the first display screen data may be different from the second display screen represented by the second display screen data.
  • a display screen suitable for the user wearing the image display device can be displayed for each image display device.
  • the first display screen may not include the first character image representing the first user wearing the first image display device.
  • the second display screen may not include the second character image representing the second user wearing the second image display device.
  • the first user can see a display screen that does not include the first character image representing the user.
  • the second user can see a display screen that does not include the second character image representing himself / herself.
  • Each user can see a display image including a character image other than the character image representing the user. Therefore, each user can make a call as if he / she is actually talking with a character image representing another user.
  • the first display screen is a first virtual when the virtual space in which each of the two or more character images is arranged in a predetermined arrangement is viewed virtually from the viewpoint of the first character image. It may be a screen.
  • the second display screen may be a second virtual screen when the virtual space is virtually viewed from the viewpoint of the second character image. According to this configuration, each user can make a call as if he / she is actually talking with a character image representing another user in the virtual space.
  • the acquisition unit may include a camera that captures the eyes of the user wearing the frame.
  • the state information may include an eye image captured by the camera.
  • the character image generation unit obtains at least one of the user's emotion and line of sight of the corresponding image display device based on the eye image included in the state information received from the corresponding image display device.
  • the character image having the display mode that identifies and displays at least one of the identified emotion and the line of sight may be generated.
  • the character image is displayed on the display screen in a manner reflecting at least one of the user's emotion and line of sight.
  • Each user can grasp the user's emotion or / and line of sight corresponding to the character image by looking at the character image on the display screen. Therefore, each user can achieve smooth communication with the user corresponding to the character image on the display screen.
  • the acquisition unit may include a three-dimensional sensor that detects the attitude of the image display device.
  • the state information may include a detection value of the three-dimensional sensor.
  • the character image generation unit specifies a posture of the user of the corresponding image display device based on the detection value of the three-dimensional sensor included in the state information received from the corresponding image display device. The character image having the display mode indicating the posture may be generated.
  • the character image is displayed on the display screen in a manner reflecting the user's posture.
  • Each user can grasp the posture of the user corresponding to the character image by looking at the character image on the display screen. Therefore, each user can achieve smooth communication with the user corresponding to the character image on the display screen.
  • the acquisition unit may include a biological sensor that detects at least one of a pulse and sweat of the user wearing the frame.
  • the state information may include a detection value of the biological sensor.
  • the character image generation unit includes, based on the detection value of the biometric sensor included in the state information received from the corresponding image display device, the emotion and health state of the user of the corresponding image display device. The character image having the display mode that indicates at least one of the identified emotion and the health state may be generated.
  • the character image is displayed on the display screen in a manner reflecting at least one of the user's emotion and health.
  • Each user can grasp the emotion or / and health state of the user corresponding to the character image by viewing the character image on the display screen. Therefore, each user can achieve smooth communication with the user corresponding to the character image on the display screen.
  • the acquisition unit may include an electroencephalogram sensor that detects an electroencephalogram of the user wearing the frame.
  • the state information may include a detection value of the electroencephalogram sensor.
  • the character image generation unit includes, based on the detection value of the electroencephalogram sensor included in the state information received from the corresponding image display device, among a user's emotion and health state of the corresponding image display device. The character image having the display mode that indicates at least one of the identified emotion and the health state may be generated.
  • the character image is displayed on the display screen in a manner reflecting at least one of the user's emotion and health.
  • Each user can grasp the emotion or / and health state of the user corresponding to the character image by viewing the character image on the display screen. Therefore, each user can achieve smooth communication with the user corresponding to the character image on the display screen.
  • the acquisition unit may include the microphone.
  • the state information may include the voice input to the microphone.
  • the character image generation unit identifies at least one of the user's emotion and speech state of the corresponding image display device based on the voice included in the state information received from the corresponding image display device, You may generate
  • the character image is displayed on the display screen in a manner reflecting at least one of the user's emotion and speech state.
  • Each user can grasp the user's emotion or / and speech state corresponding to the character image by viewing the character image on the display screen. Therefore, each user can achieve smooth communication with the user corresponding to the character image on the display screen.
  • the communication system disclosed by this specification is provided with two or more image display devices, and an information processing device that is communicably connected to each of the two or more image display devices.
  • Each of the image display devices includes a frame that can be mounted on a user's head, a display unit that is provided in the frame and is disposed at a position facing the user's eye wearing the frame, and the frame.
  • An acquisition unit that acquires state information related to the state of the user, a text information input unit for the user wearing the frame to input text information, and a control unit, the control unit For the image display device from the information transmission device that transmits the state information acquired by the acquisition unit to the information processing device, and the information processing device.
  • a first data receiving unit for receiving display screen data; a display control unit for displaying a display screen represented by the received display screen data on the display unit; and text information input to the text information input unit.
  • a text information transmitting unit for transmitting to the information processing device, a second data receiving unit for receiving output text data from the information processing device, and an output text represented by the received output text data for the display unit
  • a text output control unit for displaying the text information from each of the two or more image display devices, and a text information receiving unit for receiving the text information from each of the two or more image display devices.
  • the image display device Based on the text information received from each of the two or more image display devices, the image display device An output text data generating unit that generates the output text data for the output text data, and an output text that transmits the generated output text data for the image display device to each of the two or more image display devices A data transmission unit, a state information receiving unit that receives the state information from each of the two or more image display devices, and two or more character images representing each user wearing the two or more image display devices Each of the two or more character images has a display mode corresponding to a state indicated by the state information received from the corresponding image display device, For each of the character image generation unit and the two or more image display devices, the display screen data for the image display device is generated. A screen data generation unit, wherein the display screen represented by the display screen data includes at least a part of the two or more generated character images; A screen data transmission unit configured to transmit the generated display screen data for the image display device to each of the two or more image display devices.
  • the display screen for the image display device is displayed on the display unit of the image display device worn by the user.
  • the display screen includes at least a part of two or more character images.
  • Each character image has a display mode corresponding to the state indicated by the state information received from the corresponding image display device (that is, the state of the user wearing the image display device). That is, the character image included in the display screen can appropriately reflect the state of the corresponding user. Therefore, according to the above configuration, each user can communicate while viewing the display screen appropriately reflecting the state of each user (specifically, text even if the user wearing each image display device does not perform an operation). Communication).
  • control method a control method, a computer program, and a computer-readable medium storing the computer program for realizing the image display device and the information processing device are also novel and useful.
  • An outline of the call system is shown.
  • An outline of the image display device is shown.
  • the block diagram of an image display apparatus is shown.
  • a block diagram of the server is shown.
  • the flowchart of the call control process which the control part of a server performs is shown.
  • 3 shows a flowchart of image communication processing executed by a control unit of a server.
  • An example of the virtual call space shown by virtual call space data is shown typically.
  • An example of the display screen which a user visually recognizes is shown.
  • An example of the display screen which a user visually recognizes in 2nd Example is shown.
  • An example of the display screen which each user visually recognizes in 3rd Example is shown.
  • summary of the communication system of 4th Example is shown.
  • An outline of an image display apparatus according to a fourth embodiment will be described.
  • the block diagram of the image display apparatus of 4th Example is shown.
  • the flowchart of the communication control process which the control part of the server of 4th Example performs is shown.
  • a call system 2 shown in FIG. 1 is a system for a plurality of users to make a call (for example, a video conference) while looking at a display screen including a virtual character image representing each user.
  • the call system 2 in FIG. 1 includes image display devices 10A to 10D and a server 100.
  • the image display apparatuses 10A to 10D and the server 100 can perform wireless communication (specifically, Wi-Fi communication) with each other.
  • Each of the image display devices 10A to 10D is mounted on the heads of the users 4A to 4D.
  • a device ID (“D01”, “D02”, “D03”, “D04”) for identifying the device is assigned to each of the image display devices 10A to 10D.
  • Each of the users 4A to 4D has a user ID (“U01”, “U02”, “U03”, “U04”) registered in the server 100 in advance.
  • image display device 10 when the image display devices 10A to 10D are called without distinction, they may be called “image display device 10”. Further, when calling users 4A to 4D without distinction, they may be called "user 4".
  • FIG. 1 only four image display devices 10A to 10D are shown, but the actual call system 2 may include other image display devices 10.
  • FIG. 2 An image display device 10 (ie, image display devices 10A to 10D) shown in FIG.
  • the image display device 10 includes a frame 12, a display unit 14, an operation unit 16, a biosensor 18, an electroencephalogram sensor 20, a microphone 22, a speaker 24, a camera 26, and a control. And a box 28.
  • the frame 12 is a spectacle frame-shaped member.
  • the user 4 can wear the image display device 10 on the head by wearing the frame 12 so as to wear glasses from the front side of the face.
  • the display unit 14 is a light shielding display member. When the user 4 wears the image display device 10 on the head, the display unit 14 is arranged at a position facing the eyes of the user 4. When the user 4 wears the image display device 10, the view of the user 4 is blocked by the display unit 14.
  • the display unit 14 may be a translucent display or may be capable of visually recognizing the surroundings through the display unit 14 when the user 4 wears the image display device 10.
  • the operation unit 16 is provided on the frame 12.
  • the operation unit 16 includes a plurality of buttons, a dial, and the like.
  • the user 4 can input various operations to the image display device 10 by operating the operation unit 16.
  • the biosensor 18 is a sensor for detecting the pulse rate and sweating state of the user 4 wearing the image display device 10.
  • the biosensor 18 is attached to a part of the frame 12.
  • the user 4 can attach the biosensor 18 to a predetermined part of the body (for example, the head, neck, etc.) with the frame 12 attached to the head.
  • the electroencephalogram sensor 20 is a sensor for detecting the electroencephalogram of the user 4 wearing the image display device 10.
  • the electroencephalogram sensor 20 is attached to a part of the frame 12.
  • the user 4 can attach the electroencephalogram sensor 20 to the head with the frame 12 mounted on the head.
  • the microphone 22 is a voice input means for inputting various voices such as the voice of the user 4 wearing the image display device 10 and surrounding sounds.
  • the microphone 22 is attached to a part of the frame 12. When the user 4 wears the frame 12 on the head, the microphone 22 is arranged near the mouth of the user 4 (see FIG. 1). The user 4 can also move the microphone 22 and change the arrangement position as appropriate.
  • the speaker 24 is a sound output means for outputting various sounds such as the voice of the other party.
  • the speaker 24 is also attached to a part of the frame 12.
  • the camera 26 is provided inside the display unit 14 (that is, on the face side of the user 4). In the example of FIG. 2, two cameras 26 are provided. The camera 26 photographs the eyes of the user wearing the image display device 10.
  • the control box 28 is a control device built in a part of the frame 12.
  • the control box 28 accommodates each element that controls the control system of the image display apparatus 10. Specifically, as shown in FIG. 3, the control box 28 accommodates a control unit 30, a memory 32, a three-dimensional sensor 34, and a wireless communication interface 36. Hereinafter, the interface is described as “I / F”.
  • the control unit 30 executes various processes according to the program stored in the memory 32. As shown in FIG. 3, the control unit 30 includes a display unit 14, an operation unit 16, a biological sensor 18, an electroencephalogram sensor 20, a microphone 22, a speaker 24, a camera 26, a memory 32, a three-dimensional sensor 34, and a wireless device. It is electrically connected to the communication I / F 36 and can control the operation of each of these elements.
  • the memory 32 stores various programs.
  • the memory 32 also stores a device ID assigned to the image display device 10 itself.
  • the device ID “D01” of its own device is stored in the memory 32 of the image display device 10A.
  • the memory 32 also has an area for storing various information generated in accordance with the processing of the control unit 30.
  • the three-dimensional sensor 34 is a three-axis acceleration sensor.
  • the three-dimensional sensor 34 detects three-axis acceleration of X, Y, and Z. Using the detection value of the three-dimensional sensor 34, the control unit 30 can specify the posture and motion state of the image display device 10.
  • the wireless communication I / F 36 is an I / F for executing wireless communication (that is, Wi-Fi communication) with an external device (for example, the server 100) via the Internet (not shown).
  • a server 100 shown in FIG. 1 is a server installed by a manager of the call system 2 (for example, a call service provider that uses the call system 2). As illustrated in FIG. 4, the server 100 includes a wireless communication I / F 102, a control unit 110, and a memory 112.
  • the wireless communication I / F 102 is an I / F for performing wireless communication with an external device (for example, the image display devices 10A to 10D) via the Internet (not shown).
  • the control unit 110 executes various processes including a call control process (see FIG. 5) described later according to the program 120 stored in the memory 112.
  • the memory 112 stores a user table 122 in addition to the program 120.
  • the user table 122 includes a plurality of combinations indicating combinations of user IDs of the respective users (that is, users 4A to 4D) and device IDs of the image display apparatuses 10 (that is, image display apparatuses 10A to 10D) used by the users.
  • Information 122a-122d is included.
  • the combination information 122a to 122d is added to the user table 122 when each user registers the user ID and the device ID in the server 100 in advance.
  • the combination information 122a indicates that the user ID “U01” indicating the user 4A is associated with the device ID “D01” indicating the image display device 10A.
  • the memory 112 also has an area for storing various information generated in accordance with the processing of the control unit 110.
  • the control unit 110 monitors reception of a call start request from any of the image display devices 10.
  • the call start request is a request signal for requesting the server 100 to start a call by a plurality of users.
  • the user 4A (see FIG. 1) of the image display device 10A can perform a predetermined call start operation on the operation unit 16 while wearing the image display device 10A.
  • the predetermined call start operation includes an operation of inputting a user ID (“U01” in this example) indicating a user 4A (hereinafter referred to as a host user) who performs the call start operation, and a user participating in the call (hereinafter referred to as a guest user).
  • the control unit 110 of the server 100 receives a call start request from the image display apparatus 10A via the wireless communication I / F 102.
  • control unit 110 determines YES in S10, and proceeds to S12.
  • the control unit 110 transmits a call notification. Specifically, in S12, first, the control unit 110 refers to the user table 122 in the memory 112, and the guest user's user ID (“U02” in the above example) included in the call start request received in S10. The device IDs corresponding to each of “U03” and “U04”) (“D02”, “D03”, and “D04” in the above example) are specified. Then, the control unit 110 transmits a call notification via the wireless communication I / F 102 to the image display device 10 (devices 10B, 10C, and 10D in the above example) indicated by the specified device ID.
  • the call notification is a signal for notifying the image display device 10 used by the guest user that the user is invited to the call, and the user ID of the host user (“U01” in the above example) and the guest user User ID ("U02", "U03", “U04" in the above example).
  • the image display device 10 that is the transmission destination of the call notification (that is, the image display device 10 of the guest user) performs a predetermined call operation.
  • the calling operation includes generating a ringing tone from the speaker 24 and causing the display unit 14 to display the user ID of the host user, the user ID of the guest user ID, and the calling message.
  • the user 4 using the image display device 10 can know that the host user is invited to the call and who is the user participating in the call.
  • the control unit 110 monitors whether a response notification is received from each of the image display devices 10 that are destinations of the call notification.
  • the image display device 10 that has received the call notification performs a call operation.
  • the user 4 for example, the user 4B of the image display device 10B
  • the response operation includes any one of a join operation indicating participation in the call and a reject operation indicating not participating in the call.
  • the control unit 30 of the image display device 10 generates a response notification including one of participation information indicating participation and rejection information indicating rejection, and transmits the generated response notification to the server 100.
  • the control unit 110 of the server 100 receives a response notification from each of the image display devices 10 to which the call notification is transmitted, the control unit 110 determines YES in S14 and proceeds to S16.
  • the control unit 110 starts a call session. Specifically, first, the control unit 110 specifies the device ID of the image display device 10 of the host user. Subsequently, the control part 110 specifies apparatus ID of the image display apparatus 10 which transmitted the response notification containing participation information among the image display apparatuses 10 of a guest user. Then, the control unit 110 starts a call session including the image display device 10 indicated by the specified device ID. That is, the call session does not include the image display device 10 that has transmitted a response notification including rejection information.
  • the control unit 30 of the image display device 10 participating in the call session executes the following process. That is, the control unit 30 transmits audio input to the microphone 22 to the server 100 and outputs audio from the speaker 24 based on audio data received from the server 100. Thereby, a voice call can be executed between the image display apparatuses 10. Then, the control unit 30 includes the device ID of the image display device 10, the detection value of the three-dimensional sensor 34, the detection value of the biological sensor 18, the detection value of the electroencephalogram sensor 20, the audio signal input to the microphone 22, and the camera.
  • the state information including the eye image taken by the camera 26 is generated as needed, and is transmitted to the server 100.
  • the control unit 30 receives the display screen data for the image display device 10 from the server 100 in response to transmitting the state information, and displays the display screen represented by the received display screen data (FIG. 8). Display) is displayed on the display unit 14. Thereby, each user 4 participating in the call can make a call while looking at the display screen including the character image showing the other users 4 participating in the call.
  • the control part 110 starts an audio
  • control unit 110 starts image communication processing. That is, the control unit 110 receives state information from each image display device 10 participating in the call session, generates display screen data for each image display device 10 based on the received state information, It transmits to the image display apparatus 10.
  • state information from each image display device 10 participating in the call session
  • display screen data for each image display device 10 based on the received state information
  • the control unit 110 receives state information from each image display device 10 participating in the call session.
  • the control unit 30 of the image display apparatus 10 participating in the call session detects the detection value of the three-dimensional sensor 34, the detection value of the biological sensor 18, State information including the detection value of the electroencephalogram sensor 20, the audio signal input to the microphone 22, and the eye image captured by the camera 26 is generated as needed and transmitted to the server 100.
  • the control unit 110 receives the state information transmitted by each image display device 10 participating in the call session.
  • the control unit 110 receives one of the one or more pieces of state information received in S30 (that is, a state received from one of the image display devices 10 participating in the call session). Information).
  • the state information specified in S32 may be referred to as “specific state information”.
  • the image display device 10 that is the transmission source of specific state information may be referred to as a “specific image display device”.
  • the user 4 who uses a specific image display device may be referred to as a “specific user”.
  • the control unit 110 specifies the state of the specific user based on the specific state information specified in S32.
  • the state of the specific user includes the posture of the specific user (including face orientation and body orientation), emotion, physical condition, line of sight, speech state (whether or not speaking).
  • the control unit 110 refers to the user table 122 and specifies a user ID (that is, a user ID of a specific user) corresponding to the device ID included in the specific state information.
  • the control part 110 pinpoints the state of a specific user based on the various information contained in specific state information.
  • the control unit 110 can specify the posture of the specific user based on the detection value of the three-dimensional sensor 34 included in the specific state information.
  • control unit 110 is based on the detection value of the biological sensor 18, the detection value of the electroencephalogram sensor 20, the audio signal input to the microphone 22, and the eye image captured by the camera 26 included in the specific state information.
  • a feeling of a specific user for example, angry, happy, anxious, sad, etc.
  • control unit 110 can specify the physical condition (health, fever, dizziness, etc.) of a specific user based on the detection value of the biosensor 18 and the detection value of the electroencephalogram sensor 20 included in the specific state information.
  • control unit 110 can specify the line of sight of a specific user based on the eye image captured by the camera 26 included in the specific state information and the detection value of the three-dimensional sensor 34.
  • the control unit 110 can specify the state of a specific user by executing the above processes.
  • the control unit 110 temporarily stores the user ID of the specific user and the specified user state in the memory 112 in association with each other.
  • the control unit 110 In subsequent S36, the control unit 110 generates a character image indicating a specific user.
  • the character image is an image (so-called avatar) having a display mode that reflects the state (posture, emotion, physical condition, line of sight, speech state, etc.) specified in S34.
  • control unit 110 determines whether or not all the one or more pieces of status information received in S30 have been specified. If at least one piece of state information has already been specified at this time, the control unit 110 determines YES in S38, and proceeds to S40. On the other hand, when one or more pieces of state information have not yet been specified, the control unit 110 determines NO in S38, returns to S32, and newly sets one piece of unspecified state information as specific state information. Then, the processes of S34 and S36 are executed.
  • control unit 110 In S40, the control unit 110 generates virtual call space data using the character image data of each user that has already been created.
  • the virtual call space data is data that virtually indicates a situation in which character images indicating each user of each image display device 10 participating in a call session are virtually arranged in the same space.
  • the virtual call space data generated in S40 represents a virtual call space.
  • FIG. 7 is represented by the virtual call space data generated in S40 of FIG. 6 in a situation where the users 4A to 4D are making a call (that is, the image display apparatuses 10A to 10D are participating in the call session).
  • An example of the virtual call space 200 is shown.
  • FIG. 7 shows a state where the virtual call space 200 is viewed from a predetermined angle.
  • character images C1 to C4 indicating the respective users 4A to 4D are arranged.
  • the character images C1 to C4 are arranged clockwise around the image 202 showing the circular table in this order.
  • the virtual call space 200 can be rephrased as a space in which the character images C1 to C4 are sitting around the circular table and having a virtual conversation.
  • the user ID of the corresponding user (such as “U01”) is displayed. All of the character images C1 to C4 in the virtual call space 200 have a display mode reflecting the state specified in S34.
  • the control unit 110 In subsequent S42, the control unit 110 generates display screen data for each image display device 10 participating in the call session. For example, in the virtual call space 200 of FIG. 7, the character image C1 (that is, the user 4A of the image display device 10A) is looking in the range 210.
  • the range 210 that the character image C1 (that is, the user 4A) is viewing is specified by referring to the state (particularly the posture and line of sight) specified in S34 of FIG.
  • the control unit 110 displays the display screen data corresponding to the field of view of the character image C1 (see FIG. 8) when it is assumed that the character image C1 is viewing the range corresponding to the range 210 in the virtual call space 200. (That is, display screen data for the image display device 10A) is generated.
  • the control unit 110 generates display screen data for the other image display devices 10B to 10D in the same manner.
  • the control unit 110 transmits the generated display screen data to the corresponding image display device 10.
  • the control unit 30 of each image display device 10 causes the display unit 14 to display a display screen (see FIG. 8) represented by the received display screen data.
  • each user 4 can see a display screen corresponding to the field of view in his / her virtual call space 200.
  • the display screen includes a character image showing another user 4. Therefore, each user 4 can obtain a feeling that he / she is having a conversation with a character image showing another user 4 in the virtual call space 200.
  • FIG. 8 is an example of a display screen displayed on the display unit 14 of the image display device 10A.
  • the display screen 300 in FIG. 8 corresponds to a range 210 that is the field of view of the character image C1 in the virtual call space 200 in FIG.
  • the display screen 300 includes character images C2 and C3.
  • the character image C2 shows the user 4B corresponding to the user ID “U02”.
  • the character image C2 is smiling.
  • an image 302 showing a balloon is attached in the vicinity of the character image C2. That is, the character image C2 indicates that the user 4B has a happy emotion and that the user 4B is currently speaking.
  • the character image C3 sheds tears. That is, the character image C3 indicates that the user 4C has a sad emotion.
  • the display screen 300 displays an image showing an arrow 304 and a user ID “U04”.
  • the arrow 304 indicates that the character image C4 corresponding to the user ID “U04” (that is, the user 4D) is out of the field of view of the character image C1 in the virtual call space 200. Further, the character image C4 is arranged in the direction indicated by the arrow 304.
  • control unit 110 returns to S30 and repeatedly executes the processes of S30 to S44.
  • the content of the display screen displayed on the display part 14 of each image display apparatus 10 changes in real time according to the state (line of sight, emotion, posture, etc.) of each user 4.
  • Each user 4 can feel as if he / she is actually having a conversation with another user 4 in the virtual call space 200.
  • the control unit 110 monitors whether a call termination request is received from any one of the image display devices 10 participating in the call session.
  • the call end request is a request signal for requesting the server 100 to end the current call session.
  • the user 4 ⁇ / b> A of the image display device 10 ⁇ / b> A participating in the call session can perform a predetermined call end operation on the operation unit 16.
  • the control unit 30 of the image display apparatus 10 ⁇ / b> A transmits a call end request to the server 100.
  • control unit 110 determines YES in S22 and proceeds to S24.
  • control unit 110 ends the call session. After finishing S24, the control unit 30 returns to S10 and monitors for receiving a call start request again.
  • the control unit 30 of each image display device 10 participating in the call session transmits the audio signal input to the microphone 22 to the server 100.
  • the sound is output from the speaker 24 based on the sound data received from.
  • the control unit 30 includes a detection value of the three-dimensional sensor 34, a detection value of the biological sensor 18, a detection value of the electroencephalogram sensor 20, an audio signal input to the microphone 22, and an eye image captured by the camera 26. Status information is generated as needed and transmitted to the server 100.
  • the control unit 30 receives the display screen data for the image display device 10 from the server 100 in response to transmitting the state information, and displays the display screen represented by the received display screen data (FIG. 8). Display) is displayed on the display unit 14.
  • the control unit 110 of the server 100 generates character images C1 to C4 reflecting the respective states of the users 4A to 4D based on the state information received from each image display device 10 (S34 and S36 in FIG. 6).
  • display screen data for each image display device 10 is generated (S42) and transmitted to each image display device 10 (S44).
  • the display screen includes at least a part of the character images C1 to C4.
  • Each of the character images C1 to C4 has a display mode corresponding to the state indicated by the state information received from the corresponding image display device 10 (that is, the state of the user 4 wearing the image display device 10).
  • Each character image C1 to C4 can appropriately reflect the state of the corresponding user 4. Therefore, according to the present embodiment, even if the user 4 wearing each image display device 10 does not perform an operation, each user 4 makes a call while looking at a display screen appropriately reflecting the state of each user 4. be able to.
  • the display screen 300 displayed on the display unit 14 of the image display device 10A corresponds to a range 210 that is the field of view of the character image C1 in the virtual call space 200 of FIG.
  • a display screen corresponding to the field of view of the character images C2, C3, and C4 in the virtual call space 200 is displayed on the display units of the other image display devices 10B, 10C, and 10D.
  • Different display screens are displayed on the display unit of each image display device 10 according to the field of view of the user 4. That is, a display screen suitable for each user 4 can be displayed.
  • the display screen 300 does not include the character image C1 corresponding to the user 4A (that is, the own character image C1).
  • Each user 4 can see a display image including a character image other than the character image representing the user 4. Therefore, each user 4 can make a call as if he / she is actually talking with a character image representing another user 4.
  • the character images C1 to C4 displayed on the display screen have a display mode that reflects the state of the user indicated by the state information received from the corresponding image display device 10.
  • the state information includes a detection value of the three-dimensional sensor 34, a detection value of the biological sensor 18, a detection value of the electroencephalogram sensor 20, an audio signal input to the microphone 22, and an eye image taken by the camera 26. Therefore, the user 4 can grasp the posture, emotion, physical condition, line of sight, speech state, and the like of the corresponding user 4 by looking at the character images C1 to C4 and the like on the display screen. Therefore, each user 4 can achieve smooth communication with the user 4 corresponding to the character image on the display screen.
  • FIG. 9 is an example of a display screen displayed on the display unit 14 of the image display apparatus 10A.
  • the display screen 400 of FIG. 9 corresponds to the range 210 that is the field of view of the character image C1 (that is, the user 4A) in the virtual call space 200 of FIG. 7, similarly to the display screen 300 of FIG.
  • the display screen 400 also includes character images C2 and C3. Also included are an image 402 representing a balloon and an image representing an arrow 404.
  • the display screen 400 further includes a sub screen 410 for displaying the character image C1.
  • the character image C1 shows the user 4A corresponding to the user ID “U01”.
  • the character image C1 has a surprised expression. That is, the character image C1 indicates that the user 4A was surprised.
  • a character image corresponding to the user 4 of the image display device 10 is also displayed on the display screen displayed on the display unit 14 of the other image display devices 10B, 10C, 10D. Includes sub-screens.
  • each user 4 can make a call while looking at the character image corresponding to the user 4.
  • FIG. 10 shows a display screen 500 displayed in common on each display unit 14 of the image display devices 10A to 10D.
  • the display screen 500 in FIG. 10 is generated based on the virtual call space 200 in FIG. 7, similarly to the display screen 300 in FIG. 8.
  • the character images C1 to C4 are all displayed in one screen. That is, in this embodiment, the display screen 500 does not correspond to the field of view of each user.
  • each user 4 can make a call while looking at the same screen.
  • a communication system 1002 illustrated in FIG. 11 is a system in which a plurality of users perform text communication (so-called text chat or the like) while viewing a display screen including virtual character images representing each user.
  • the communication system 1002 of FIG. 11 also includes image display devices 10A to 10D and a server 100, as in the first embodiment.
  • FIGS. 11 to 15 elements common to the first embodiment are indicated by the same reference numerals as those in the first embodiment (FIGS. 1 to 8), and detailed description may be omitted. is there.
  • the image display device 10 is an image display device (so-called head mounted display) that is used by being mounted on the head of the user 4.
  • the image display apparatus 10 does not include a microphone, but includes a keyboard 40 instead.
  • the keyboard 40 has a plurality of keys. The user can input various instructions including input of text into the image display device 10 by operating the keyboard 40.
  • FIG. 14 Communication control processing; FIG. 14
  • the communication control process which the control part 110 of the server 100 of a present Example performs is demonstrated.
  • the communication control process of this embodiment is almost the same as the call control process (FIG. 5) of the first embodiment, except that the voice communication process (see S18 in FIG. 5) is replaced with the text communication process (S68 in FIG. 14). It has the same contents.
  • the control unit 110 monitors reception of a communication start request from any of the image display devices 10.
  • the communication start request is a request signal for requesting the server 100 to start text communication (that is, text chat) by a plurality of users.
  • the control unit 110 determines YES in S60, and proceeds to S72.
  • control unit 110 transmits a call notification.
  • control unit 110 monitors whether a response notification is received from each of the image display devices 10 to which the call notification is transmitted.
  • control unit 110 of the server 100 receives a response notification from each of the image display devices 10 to which the call notification is transmitted, the control unit 110 determines YES in S64 and proceeds to S66.
  • control unit 110 starts a communication session.
  • the communication session start method in S66 is the same as the call session start method in S16 of FIG.
  • the control unit 30 of the image display device 10 participating in the communication session executes the following process. That is, the control unit 30 transmits text information input via the keyboard 40 to the server 100, and displays output text (see reference numeral 1310 in FIG. 15) represented by output text data received from the server 100. 14 is displayed. Thereby, text communication can be executed between the image display apparatuses 10. Then, the control unit 30 includes the device ID of the image display device 10, the detection value of the three-dimensional sensor 34, the detection value of the biological sensor 18, the detection value of the electroencephalogram sensor 20, the audio signal input to the microphone 22, and the camera.
  • the state information including the eye image taken by the camera 26 is generated as needed, and is transmitted to the server 100.
  • the control unit 30 receives the display screen data for the image display device 10 from the server 100 in response to the transmission of the state information, and displays the display screen represented by the received display screen data (FIG. 15).
  • a display screen 1300 represented by received display screen data and an output text 1310 represented by received output text data are simultaneously displayed on the display unit 14. Is displayed. Thereby, each user 4 participating in communication can perform text communication while viewing a display screen including a character image showing another user 4 participating in the communication.
  • the control part 110 starts a text communication process. That is, the control unit 110 executes processing for relaying text communication between the image display devices 10 participating in the call session. That is, the control unit 110 receives text information input from the image display devices 10 to the keyboard 40 of each image display device 10. The control unit 110 generates output text data based on the text information received from each image display device 10 and transmits the output text data to each image display device 10.
  • control unit 110 starts image communication processing. Since the content of the image communication process executed in S70 is the same as that of the image communication process (FIG. 6) of the first embodiment, detailed description thereof is omitted. However, in this embodiment, since the image display apparatus 10 does not have a microphone, the “status information” does not include an audio signal, which is different from the first embodiment. The rest is the same as the first embodiment.
  • FIG. 15 is an example of a screen 1200 displayed on the display unit 14 of the image display device 10A.
  • a screen 1200 in FIG. 15 includes a display screen 1300 and output text 1310.
  • the display screen 1300 includes character images C2 and C3.
  • the character image C2 shows the user 4B corresponding to the user ID “U02”.
  • the character image C2 is smiling. That is, the character image C2 indicates that the user 4B has a happy emotion.
  • the character image C3 sheds tears. That is, the character image C3 indicates that the user 4C has a sad emotion.
  • the display screen 300 displays an image showing an arrow 304 and a user ID “U04”.
  • the arrow 304 indicates that the character image C4 corresponding to the user ID “U04” (that is, the user 4D) is out of the field of view of the character image C1 in the virtual call space 200. Further, the character image C4 is arranged in the direction indicated by the arrow 304.
  • the output text 1310 includes a text 1312 indicating a statement “Hello. It ’s nice to meet you.” By the user U02 and a text 1314 indicating a statement “Nice toNmeet you, too.” By the user U01. Texts 1312 and 1314 included in the output text 1310 correspond to text information input to the user 4B in the image display device 10B and text information input to the user 4A in the image display device 10A, respectively.
  • the displayed text (for example, the texts 1312 and 1314 in FIG. 15) is automatically deleted when a certain period of time elapses after being displayed.
  • the history of text information input by each user 4 in each image display device 10 in the past may be displayed in the column of output text 1310 in a manner that allows scroll display.
  • the text communication process is started in S68 of FIG. 14 and the image communication process is started in S70, so that each user 4 participating in the chat includes a character image indicating another user 4. Text communication can be performed while viewing the screen.
  • control unit 110 monitors whether a communication end request is received from any one of the image display devices 10 participating in the communication session.
  • the communication end request is a request signal for requesting the server 100 to end the current communication session.
  • the control unit 110 determines YES in S72, and proceeds to S74.
  • control unit 110 ends the communication session. After finishing S74, the control unit 30 returns to S60 and monitors for receiving a communication start request again.
  • the control unit 30 of each image display device 10 participating in the communication session transmits text information input on the keyboard 40 to the server 100.
  • the output text (see reference numeral 1310 in FIG. 15) is displayed on the display unit 14 based on the output text data received from.
  • the control unit 30 generates state information including the detection value of the three-dimensional sensor 34, the detection value of the biological sensor 18, the detection value of the electroencephalogram sensor 20, and the eye image captured by the camera 26 as needed, and the server 100 Send to.
  • the control unit 30 receives the display screen data for the image display device 10 from the server 100 in response to the transmission of the state information, and displays the display screen represented by the received display screen data (FIG. 15). Are displayed on the display unit 14.
  • the control unit 110 of the server 100 generates character images C1 to C4 reflecting the respective states of the users 4A to 4D based on the state information received from each image display device 10 (S34 and S36 in FIG. 6).
  • display screen data for each image display device 10 is generated (S42) and transmitted to each image display device 10 (S44).
  • the display screen includes at least a part of the character images C1 to C4.
  • Each of the character images C1 to C4 has a display mode corresponding to the state indicated by the state information received from the corresponding image display device 10 (that is, the state of the user 4 wearing the image display device 10).
  • Each character image C1 to C4 can appropriately reflect the state of the corresponding user 4. Therefore, even in the case of the present embodiment, each user 4 does not need to separately perform an operation for changing the display mode of the character images C1 to C4 by the user 4 wearing each image display device 10. Text communication can be performed while viewing a display screen that appropriately reflects the state of the above.
  • each image display device 10 does not include a microphone, and it is not necessary to make a call using voice. Therefore, even users who have difficulty in conversation can communicate smoothly. obtain. In addition, since there is no risk of sound leaking to the surroundings, there is no need to communicate while worrying about sound leakage. Even users in places where it is not desirable to make sound can communicate smoothly.
  • the character images C1 to C4 are avatars showing the users 4A to 4D.
  • the character image is not limited to this, and may be an image obtained by processing an image of the user's own photograph.
  • the speech state is expressed by displaying the balloon image 302 in the vicinity of the character image C2 on the display screen 300.
  • the control unit 110 may express the utterance state by converting the content of the utterances of the user 4 into subtitles and displaying them on the display unit 14.
  • a screen substantially similar to the screen 1200 of FIG. 15 may be displayed on the display unit 14.
  • the image display apparatus 10 may omit at least one of the biological sensor 18, the brain wave sensor 20, the camera 26, and the three-dimensional sensor 34.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

通話システムは、2個以上の画像表示装置と、2個以上の画像表示装置のそれぞれと通信可能に接続されている情報処理装置とを備える。情報処理装置は、2個以上の画像表示装置のそれぞれから状態情報を受信し、それぞれのユーザを表す2個以上のキャラクタ画像を生成する。2個以上のキャラクタ画像のそれぞれは、対応する画像表示装置から受信される状態情報が示す状態に応じた表示態様を有している。情報処理装置は、2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための表示画面データを生成し、生成された当該画像表示装置のための表示画面データを送信する。

Description

通話システム及びコミュニケーションシステム
 本明細書によって開示される技術は、2個以上の画像表示装置と、情報処理装置と、を備え、各画像表示装置のユーザが画像を見ながらユーザ同士で通信をするための通話システム及びコミュニケーションシステムに関する。
 例えば、特開2006-352309号公報(以下、特許文献1という)には、アバターの表示機能を備えた電話機が開示されている。この電話機は、同様の機能を備える電話機を所持する通話相手との通話中に、ディスプレイに、ユーザ自身の第1のアバターと通話相手の第2のアバターとを表示させる。通話相手の電話機のディスプレイにも同様に第1のアバターと第2のアバターとが表示される。ユーザは、通話中に電話機に操作することにより、ユーザ自身のアバターである第1のアバターの態様を変更することができる。第1のアバターの態様の変更は、通話相手の電話機のディスプレイに表示されている第1のアバターにも反映される。これにより、互いのディスプレイに表示されるアバターの態様を、ユーザの状況に合わせて適宜変更しながら円滑にコミュニケーションを図ることを可能にしている。
 特許文献1の技術によると、ユーザが操作を行わない限り、互いのディスプレイに表示されるアバターの態様が変更されない。また、ユーザの操作によって態様が変更されたアバターが、ユーザの実際の状態を適切に反映しないおそれもある。
 本明細書では、2個以上の画像表示装置のそれぞれのユーザが、操作を行わなくても、ユーザの状態を適切に反映させた表示画面を見ながら通信を行い得る技術を開示する。
 本明細書によって開示される通話システムは、2個以上の画像表示装置と、前記2個以上の画像表示装置のそれぞれと通信可能に接続されている情報処理装置と、を備える。前記2個以上の画像表示装置のそれぞれは、ユーザの頭部に装着可能なフレームと、前記フレームに備えられ、前記フレームを装着した前記ユーザの眼に対向する位置に配置される表示部と、前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部と、前記フレームを装着した前記ユーザの発する音声を入力するマイクと、音声出力データに従って音声を出力するスピーカと、制御部と、を備えている。前記制御部は、前記取得部によって取得された前記状態情報を前記情報処理装置に送信する情報送信部と、前記情報処理装置から、当該画像表示装置のための表示画面データを受信する第1のデータ受信部と、受信された前記表示画面データによって表される表示画面を前記表示部に表示させる表示制御部と、前記マイクに入力された前記音声を前記情報処理装置に送信する音声送信部と、前記情報処理装置から前記音声出力データを受信する第2のデータ受信部と、受信された前記音声出力データに従って、前記スピーカに音声を出力させる音声出力制御部と、を備える。前記情報処理装置は、前記2個以上の画像表示装置のそれぞれから前記音声を受信する音声受信部と、前記2個以上の画像表示装置のそれぞれから受信された前記音声に基づいて、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記音声出力データを生成する音声出力データ生成部と、前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記音声出力データを送信する、音声出力データ送信部と、前記2個以上の画像表示装置のそれぞれから前記状態情報を受信する状態情報受信部と、前記2個以上の画像表示装置を装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成するキャラクタ画像生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記画像表示装置から受信される前記状態情報が示す状態に応じた表示態様を有している、前記キャラクタ画像生成部と、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記表示画面データを生成する画面データ生成部であって、前記表示画面データによって表される前記表示画面は、生成された2個以上の前記キャラクタ画像のうちの少なくとも一部を含んでいる、前記画面データ生成部と、前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記表示画面データを送信する、画面データ送信部と、を備える。
 上記の構成によると、ユーザが装着する画像表示装置の表示部には、当該画像表示装置のための表示画面が表示される。表示画面は、2個以上のキャラクタ画像のうちの少なくとも一部を含む。そして、各キャラクタ画像は、対応する画像表示装置から受信された状態情報が示す状態(即ち、当該画像表示装置を装着するユーザの状態)に応じた表示態様を有する。即ち、表示画面に含まれるキャラクタ画像は、対応するユーザの状態を適切に反映し得る。そのため、上記の構成によると、各画像表示装置を装着したユーザが操作を行わなくても、各ユーザは、各ユーザの状態を適切に反映させた表示画面を見ながら通信(具体的には通話)を行ない得る。
 ここで、「キャラクタ画像」は、ユーザを表わす画像(いわゆるアバター)、ユーザ本人の写真の画像を加工した画像等、ユーザのことを表現する任意の画像を含む。
 前記2個以上の画像表示装置は、第1の画像表示装置と、第1の画像表示装置とは異なる第2の画像表示装置と、を含んでもよい。前記画面データ生成部は、前記第1の画像表示装置のための第1の表示画面データと、前記第2の画像表示装置のための第2の表示画面データと、を生成してもよい。前記第1の表示画面データによって表される第1の表示画面は、前記第2の表示画面データによって表される第2の表示画面と異なってもよい。
 この構成によると、画像表示装置毎に、当該画像表示装置を装着するユーザのために適した表示画面を表示させ得る。
 前記第1の表示画面は、前記第1の画像表示装置を装着する第1のユーザを表す第1のキャラクタ画像を含まなくてもよい。前記第2の表示画面は、前記第2の画像表示装置を装着する第2のユーザを表す第2のキャラクタ画像を含まなくてもよい。
 この構成によると、第1のユーザは、自身を表わす第1のキャラクタ画像を含まない表示画面を見ることができる。同様に第2のユーザは、自身を表わす第2のキャラクタ画像を含まない表示画面を見ることができる。各ユーザは、自身を表わすキャラクタ画像以外のキャラクタ画像を含む表示画像を見得る。そのため、各ユーザが、他のユーザを表わすキャラクタ画像と実際に会話しているような感覚で通話を行い得る。
 前記第1の表示画面は、前記2個以上のキャラクタ画像のそれぞれが所定の配置で配置されている仮想空間を、前記第1のキャラクタ画像の視点から仮想的に見た場合の第1の仮想画面であってもよい。前記第2の表示画面は、前記仮想空間を、前記第2のキャラクタ画像の視点から仮想的に見た場合の第2の仮想画面であってもよい。この構成によると、各ユーザは、仮想空間内で他のユーザを表わすキャラクタ画像と実際に会話しているような感覚で通話を行ない得る。
 前記取得部は、前記フレームを装着した前記ユーザの眼を撮影するカメラを含んでもよい。前記状態情報は前記カメラで撮影された眼の画像を含んでもよい。前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記眼の画像に基づいて、対応する前記画像表示装置のユーザの感情と視線とのうちの少なくとも一方を特定し、特定された前記感情と前記視線とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成してもよい。
 この構成によると、表示画面において、キャラクタ画像がユーザの感情と視線とのうちの少なくとも一方を反映した態様で表示される。各ユーザは、表示画面中のキャラクタ画像を見ることで、そのキャラクタ画像に対応するユーザの感情又は/及び視線を把握することができる。従って、各ユーザは、表示画面中のキャラクタ画像に対応するユーザとの円滑なコミュニケーションを図り得る。
 前記取得部は、前記画像表示装置の姿勢を検出する三次元センサを含んでもよい。前記状態情報は前記三次元センサの検出値を含んでもよい。前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記三次元センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの姿勢を特定し、特定された前記姿勢を示す前記表示態様を有している前記キャラクタ画像を生成してもよい。
 この構成によると、表示画面において、キャラクタ画像がユーザの姿勢を反映した態様で表示される。各ユーザは、表示画面中のキャラクタ画像を見ることで、そのキャラクタ画像に対応するユーザの姿勢を把握することができる。従って、各ユーザは、表示画面中のキャラクタ画像に対応するユーザとの円滑なコミュニケーションを図り得る。
 前記取得部は、前記フレームを装着した前記ユーザの脈拍と発汗の少なくとも一方を検出する生体センサを含んでもよい。前記状態情報は前記生体センサの検出値を含んでもよい。前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記生体センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの感情と健康状態とのうちの少なくとも一方を特定し、特定された前記感情と前記健康状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成してもよい。
 この構成によると、表示画面において、キャラクタ画像がユーザの感情と健康状態とのうちの少なくとも一方を反映した態様で表示される。各ユーザは、表示画面中のキャラクタ画像を見ることで、そのキャラクタ画像に対応するユーザの感情又は/及び健康状態を把握することができる。従って、各ユーザは、表示画面中のキャラクタ画像に対応するユーザとの円滑なコミュニケーションを図り得る。
 前記取得部は、前記フレームを装着した前記ユーザの脳波を検出する脳波センサを含んでもよい。前記状態情報は前記脳波センサの検出値を含んでもよい。前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記脳波センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの感情と健康状態とのうちの少なくとも一方を特定し、特定された前記感情と前記健康状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成してもよい。
 この構成によると、表示画面において、キャラクタ画像がユーザの感情と健康状態とのうちの少なくとも一方を反映した態様で表示される。各ユーザは、表示画面中のキャラクタ画像を見ることで、そのキャラクタ画像に対応するユーザの感情又は/及び健康状態を把握することができる。従って、各ユーザは、表示画面中のキャラクタ画像に対応するユーザとの円滑なコミュニケーションを図り得る。
 前記取得部は、前記マイクを含んでもよい。前記状態情報は前記マイクに入力される前記音声を含んでもよい。前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記音声に基づいて、対応する前記画像表示装置のユーザの感情と発話状態との少なくとも一方を特定し、特定された前記感情と前記発話状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成してもよい。
 この構成によると、表示画面において、キャラクタ画像がユーザの感情と発話状態とのうちの少なくとも一方を反映した態様で表示される。各ユーザは、表示画面中のキャラクタ画像を見ることで、そのキャラクタ画像に対応するユーザの感情又は/及び発話状態を把握することができる。従って、各ユーザは、表示画面中のキャラクタ画像に対応するユーザとの円滑なコミュニケーションを図り得る。
 本明細書によって開示されるコミュニケーションシステムは、2個以上の画像表示装置と、前記2個以上の画像表示装置のそれぞれと通信可能に接続されている情報処理装置と、を備え、前記2個以上の画像表示装置のそれぞれは、ユーザの頭部に装着可能なフレームと、前記フレームに備えられ、前記フレームを装着した前記ユーザの眼に対向する位置に配置される表示部と、前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部と、前記フレームを装着した前記ユーザがテキスト情報を入力するためのテキスト情報入力部と、制御部と、を備えており、前記制御部は、前記取得部によって取得された前記状態情報を前記情報処理装置に送信する情報送信部と、前記情報処理装置から、当該画像表示装置のための表示画面データを受信する第1のデータ受信部と、受信された前記表示画面データによって表される表示画面を前記表示部に表示させる表示制御部と、前記テキスト情報入力部に入力されたテキスト情報を前記情報処理装置に送信するテキスト情報送信部と、前記情報処理装置から出力テキストデータを受信する第2のデータ受信部と、受信された前記出力テキストデータによって表される出力テキストを前記表示部に表示させるテキスト出力制御部と、を備え、前記情報処理装置は、前記2個以上の画像表示装置のそれぞれから前記テキスト情報を受信するテキスト情報受信部と、前記2個以上の画像表示装置のそれぞれから受信された前記テキスト情報に基づいて、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記出力テキストデータを生成する出力テキストデータ生成部と、前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記出力テキストデータを送信する、出力テキストデータ送信部と、前記2個以上の画像表示装置のそれぞれから前記状態情報を受信する状態情報受信部と、前記2個以上の画像表示装置を装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成するキャラクタ画像生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記画像表示装置から受信される前記状態情報が示す状態に応じた表示態様を有している、前記キャラクタ画像生成部と、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記表示画面データを生成する画面データ生成部であって、前記表示画面データによって表される前記表示画面は、生成された2個以上の前記キャラクタ画像のうちの少なくとも一部を含んでいる、前記画面データ生成部と、前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記表示画面データを送信する、画面データ送信部と、を備える。
 上記の構成によると、ユーザが装着する画像表示装置の表示部には、当該画像表示装置のための表示画面が表示される。表示画面は、2個以上のキャラクタ画像のうちの少なくとも一部を含む。そして、各キャラクタ画像は、対応する画像表示装置から受信された状態情報が示す状態(即ち、当該画像表示装置を装着するユーザの状態)に応じた表示態様を有する。即ち、表示画面に含まれるキャラクタ画像は、対応するユーザの状態を適切に反映し得る。そのため、上記の構成によると、各画像表示装置を装着したユーザが操作を行わなくても、各ユーザは、各ユーザの状態を適切に反映させた表示画面を見ながら通信(具体的にはテキスト通信)を行ない得る。
 特に、上記のコミュニケーションシステムでは、音声を用いて通話をしなくてもよいため、会話が不自由なユーザ同士でも円滑にコミュニケーションを図り得る。また、周囲に音声が漏れるおそれがないため、音漏れを気にしながらコミュニケーションをする必要もない。音を出すことが好ましくない場所にいるユーザ同士でも円滑にコミュニケーションを図り得る。
 なお、上記の画像表示装置、及び、情報処理装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能媒体も、新規で有用である。
通話システムの概要を示す。 画像表示装置の概要を示す。 画像表示装置のブロック図を示す。 サーバのブロック図を示す。 サーバの制御部が実行する通話制御処理のフローチャートを示す。 サーバの制御部が実行する画像通信処理のフローチャートを示す。 仮想通話空間データによって示される仮想通話空間の一例を模式的に示す。 ユーザが視認する表示画面の一例を示す。 第2実施例でユーザが視認する表示画面の一例を示す。 第3実施例で各ユーザが視認する表示画面の一例を示す。 第4実施例の通信システムの概要を示す。 第4実施例の画像表示装置の概要を示す。 第4実施例の画像表示装置のブロック図を示す。 第4実施例のサーバの制御部が実行する通信制御処理のフローチャートを示す。 第4実施例でユーザが視認する画面の一例を示す。
(第1実施例)
(通話システム2の構成;図1)
 図1に示す通話システム2は、複数のユーザが、各ユーザを表わす仮想的なキャラクタ画像を含む表示画面を見ながら通話(例えばテレビ会議等)を行うためのシステムである。図1の通話システム2は、画像表示装置10A~10Dと、サーバ100とを備える。画像表示装置10A~10Dとサーバ100とは相互に無線通信(具体的にはWi-Fi通信)を実行可能である。画像表示装置10A~10Dのそれぞれは、ユーザ4A~4Dの頭部に装着されている。画像表示装置10A~10Dのそれぞれには、当該装置を識別するための装置ID(「D01」,「D02」,「D03」,「D04」)が割り当てられている。また、ユーザ4A~4Dのそれぞれは、事前にサーバ100に登録したユーザID(「U01」,「U02」,「U03」,「U04」)を有している。以下では、画像表示装置10A~10Dを区別せずに呼ぶ場合に「画像表示装置10」と呼ぶ場合がある。また、ユーザ4A~4Dを区別せずに呼ぶ場合に「ユーザ4」と呼ぶ場合がある。図1の例では、4個の画像表示装置10A~10Dのみを図示しているが、実際の通話システム2には、これ以外の画像表示装置10が含まれていてもよい。
(画像表示装置10の構成;図1~図3)
 図1に示す画像表示装置10(即ち画像表示装置10A~10D)は、ユーザ4の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図2に示すように、画像表示装置10は、フレーム12と、表示部14と、操作部16と、生体センサ18と、脳波センサ20と、マイク22と、スピーカ24と、カメラ26と、コントロールボックス28と、を備える。
 フレーム12は、眼鏡フレーム状の部材である。ユーザ4は、顔の前面側から眼鏡を装着するようにフレーム12を装着することによって、画像表示装置10を頭部に装着することができる。
 表示部14は、遮光性の表示部材である。ユーザ4が画像表示装置10を頭部に装着すると、ユーザ4の両眼に対向する位置に表示部14が配置される。ユーザ4が画像表示装置10を装着すると、表示部14によってユーザ4の視界が遮られる。他の例では、表示部14は、透光性のディスプレイであってもよく、ユーザ4が画像表示装置10を装着した際に表示部14を通して周囲を視認できるものであってもよい。
 操作部16は、フレーム12に備えられている。操作部16は、複数個のボタン、ダイヤル等を含む。ユーザ4は、操作部16を操作して、画像表示装置10に様々な操作を入力することができる。
 生体センサ18は、画像表示装置10を装着するユーザ4の脈拍数及び発汗状態を検出するためのセンサである。生体センサ18はフレーム12の一部に取り付けられている。ユーザ4は、フレーム12を頭部に装着した状態で、身体の所定の部位(例えば頭部、頸部等)に生体センサ18を取り付けることができる。
 脳波センサ20は、画像表示装置10を装着するユーザ4の脳波を検出するためのセンサである。脳波センサ20はフレーム12の一部に取り付けられている。ユーザ4は、フレーム12を頭部に装着した状態で、頭部に脳波センサ20を取り付けることができる。
 マイク22は、画像表示装置10を装着するユーザ4の声や周囲の音など、各種音声を入力するための音声入力手段である。マイク22はフレーム12の一部に取り付けられている。ユーザ4がフレーム12を頭部に装着すると、マイク22は、ユーザ4の口元付近に配置される(図1参照)。ユーザ4はマイク22を動かして配置位置を適宜変更することも可能である。
 スピーカ24は、通話相手の声等、各種音声を出力するための音声出力手段である。スピーカ24もフレーム12の一部に取り付けられている。
 カメラ26は、表示部14の内側(即ちユーザ4の顔側)に設けられている。図2の例では、2個のカメラ26が設けられている。カメラ26は、画像表示装置10を装着するユーザの眼を撮影する。
 コントロールボックス28は、フレーム12の一部に内蔵されている制御装置である。コントロールボックス28には、画像表示装置10の制御系統を司る各要素が収容されている。具体的に言うと、図3に示すように、コントロールボックス28には、制御部30と、メモリ32と、三次元センサ34と、無線通信インターフェース36と、が収容されている。以下では、インターフェースのことを「I/F」と記載する。
 制御部30は、メモリ32に記憶されているプログラムに従って様々な処理を実行する。また、制御部30は、図3に示すように、表示部14、操作部16、生体センサ18、脳波センサ20、マイク22、スピーカ24、カメラ26、メモリ32、三次元センサ34、及び、無線通信I/F36と電気的に接続されており、これらの各要素の動作を制御することができる。
 メモリ32は、様々なプログラムを記憶している。また、メモリ32は、画像表示装置10自身に割り当てられている装置IDも記憶している。例えば、画像表示装置10Aのメモリ32には自機の装置ID「D01」が記憶されている。また、メモリ32は、制御部30の処理に伴って生成される様々な情報を記憶する領域も有している。
 三次元センサ34は、三軸加速度センサであある。三次元センサ34は、X,Y,Zの三軸の加速度を検出する。三次元センサ34の検出値を用いて、制御部30は、画像表示装置10の姿勢及び運動状態を特定することができる。
 無線通信I/F36は、図示しないインターネットを介して外部の装置(例えばサーバ100)と無線通信(即ちWi-Fi通信)を実行するためのI/Fである。
(サーバ100の構成;図1、図4)
 図1に示すサーバ100は、通話システム2の管理者(例えば、通話システム2を利用する通話サービスの提供事業者等)によって設置されるサーバである。図4に示すように、サーバ100は、無線通信I/F102と、制御部110と、メモリ112と、を備えている。
 無線通信I/F102は、図示しないインターネットを介して外部の装置(例えば画像表示装置10A~10D)と無線通信を実行するためのI/Fである。
 制御部110は、メモリ112に記憶されているプログラム120に従って、後述の通話制御処理(図5参照)を含む様々な処理を実行する。メモリ112は、プログラム120の他に、ユーザテーブル122を記憶している。ユーザテーブル122は、各ユーザ(即ちユーザ4A~4D)のユーザIDと、当該ユーザが使用する画像表示装置10(即ち画像表示装置10A~10D)の装置IDと、の組合せを示す複数個の組合せ情報122a~122dを含む。組合せ情報122a~122dは、各ユーザが事前にユーザIDと装置IDとをサーバ100に登録することによって、ユーザテーブル122内に追加される。例えば、組合せ情報122aは、ユーザ4Aを示すユーザID「U01」と、画像表示装置10Aを示す装置ID「D01」とが対応付けられていることを示している。この他にも、メモリ112は、制御部110の処理に伴って生成される様々な情報を記憶する領域も有している。
(通話制御処理;図5)
 図5を参照して、本実施例のサーバ100の制御部110が実行する通話制御処理について説明する。通話制御処理は、画像表示装置10A~10Dのユーザ4A~4Dが、各ユーザを表わすキャラクタ画像を含む表示画面(図8参照)を見ながら通話(テレビ会議等)を行うために、サーバ100の制御部110が実行する処理である。サーバ100の電源がオンされると、制御部110は、図5の通話制御処理を開始する。
 S10では、制御部110は、いずれかの画像表示装置10から通話開始リクエストを受信することを監視する。通話開始リクエストは、サーバ100に、複数のユーザによる通話の開始を要求するためのリクエスト信号である。例えば、画像表示装置10Aのユーザ4A(図1参照)は、画像表示装置10Aを装着した状態で、操作部16において所定の通話開始操作を行うことができる。所定の通話開始操作は、通話開始操作を行うユーザ4A(以下ではホストユーザと呼ぶ)を示すユーザID(この例では「U01」)を入力する操作と、通話に参加するユーザ(以下ではゲストユーザと呼ぶ。例えばユーザ4B~4D)を示すユーザID(「U02」、「U03」、「U04」)を選択する操作と、通話開始を指示する操作と、を含む。画像表示装置10Aの制御部30は、通話開始操作が入力されると、入力されたホストユーザのユーザID(「U01」)と、選択されたゲストユーザのユーザID(「U02」~「U04」)と、を含む通話開始リクエストを生成し、生成された通話開始リクエストを、無線通信I/F36を介してサーバ100に送信する。この場合、サーバ100の制御部110は、無線通信I/F102を介して、画像表示装置10Aから通話開始リクエストを受信する。制御部110は、通話開始リクエストを受信すると、S10でYESと判断し、S12に進む。
 S12では、制御部110は、呼出通知を送信する。詳しく言うと、S12では、まず、制御部110は、メモリ112内のユーザテーブル122を参照し、S10で受信された通話開始リクエストに含まれるゲストユーザのユーザID(上記の例では「U02」、「U03」、「U04」)のそれぞれに対応する装置ID(上記の例では「D02」、「D03」、「D04」)を特定する。そして、制御部110は、特定された装置IDによって示される画像表示装置10(上記の例では装置10B,10C,10D)に対して、無線通信I/F102を介して、呼出通知を送信する。呼出通知は、ゲストユーザが使用する画像表示装置10に対して、通話に招待されている旨を通知するための信号であり、ホストユーザのユーザID(上記の例では「U01」)とゲストユーザのユーザID(上記の例では「U02」、「U03」、「U04」)とを含む。呼出通知の送信先の画像表示装置10(即ちゲストユーザの画像表示装置10)は、呼出通知を受信すると、所定の呼出動作を行う。呼出動作は、スピーカ24から呼出音を発生させることや、表示部14にホストユーザのユーザID、ゲストユーザIDのユーザID、及び呼出メッセージを表示させることを含む。呼出動作が行われることにより、画像表示装置10を使用するユーザ4は、ホストユーザによって通話に招待されていること、及び、通話に参加するユーザが誰であるのかを知ることができる。
 次いで、S14では、制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから、応答通知を受信することを監視する。上記の通り、呼出通知を受信した画像表示装置10は、呼出動作を行う。呼出動作が行われている画像表示装置10のユーザ4(例えば画像表示装置10Bのユーザ4B)は、画像表示装置10を装着し、所定の応答操作を実行する。応答操作は、通話に参加することを示す参加操作と、通話に参加しないことを示す拒否操作と、のうちのいずれか一方を含む。応答操作が行われると、画像表示装置10の制御部30は、参加を示す参加情報と拒否を示す拒否情報の一方を含む応答通知を生成し、生成された応答通知をサーバ100に送信する。サーバ100の制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから応答通知を受信すると、S14でYESと判断し、S16に進む。
 S16では、制御部110は、通話セッションを開始する。具体的には、まず、制御部110は、ホストユーザの画像表示装置10の装置IDを特定する。次いで、制御部110は、ゲストユーザの画像表示装置10のうち、参加情報を含む応答通知を送信した画像表示装置10の装置IDを特定する。そして、制御部110は、特定された装置IDによって示される画像表示装置10を含む通話セッションを開始する。即ち、通話セッションには、拒否情報を含む応答通知を送信した画像表示装置10は含まれない。
(通話セッション開始後の各画像表示装置10の制御部30の処理)
 図5のS16で通話セッションが開始されると、通話セッションに参加する画像表示装置10の制御部30は、次のような処理を実行する。即ち、制御部30は、マイク22に入力される音声をサーバ100に送信し、サーバ100から受信される音声データに基づいてスピーカ24から音声を出力する。これにより、各画像表示装置10間で音声通話を実行することができる。そして、制御部30は、当該画像表示装置10の装置ID、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。そして、制御部30は、状態情報を送信することに応じて、サーバ100から、当該画像表示装置10用の表示画面データを受信し、受信された表示画面データによって表される表示画面(図8参照)を表示部14に表示させる。これにより、通話に参加しているそれぞれのユーザ4は、通話に参加する他のユーザ4を示すキャラクタ画像を含む表示画面を見ながら通話を行うことができる。
(通話制御処理の続き;図5のS18以降)
 続くS18では、制御部110は、音声通信処理を開始する。即ち、制御部110は、通話セッションに参加する各画像表示装置10間の音声通話を中継する処理を実行する。即ち、制御部110は、各画像表示装置10から、各画像表示装置10のマイク22に入力された音声信号を受信する。制御部110は、各画像表示装置10から受信された音声信号に基づいて音声出力データを生成し、各画像表示装置10に送信する。
 また、S20では、制御部110は、画像通信処理を開始する。即ち、制御部110は、通話セッションに参加している各画像表示装置10から状態情報を受信し、受信された状態情報に基づいて各画像表示装置10のための表示画面データを生成し、各画像表示装置10に送信する。以下、図6を参照して、S20で実行される画像通信処理の内容を詳しく説明する。
(画像通信処理;図6)
 図6のS30では、制御部110は、通話セッションに参加している各画像表示装置10から状態情報を受信する。上記の通り、通話セッションが開始される(図5のS16)と、通話セッションに参加している画像表示装置10の制御部30は、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。S30では、制御部110は、通話セッションに参加している各画像表示装置10が送信する上記の状態情報を受信する。
 続くS32では、制御部110は、S30で受信された1以上の状態情報のうちの1つの状態情報(即ち、通話セッションに参加している画像表示装置10のうちの1個から受信された状態情報)を特定する。以下では、S32で特定された状態情報を「特定の状態情報」と呼ぶ場合がある。また、特定の状態情報の送信元の画像表示装置10のことを「特定の画像表示装置」と呼ぶ場合がある。さらに、特定の画像表示装置を使用するユーザ4のことを「特定のユーザ」と呼ぶ場合がある。
 続くS34では、制御部110は、S32で特定された特定の状態情報に基づいて、特定のユーザの状態を特定する。ここで、特定のユーザの状態は、特定のユーザの姿勢(顔の向きや体の向きを含む)、感情、体調、視線、発話状態(発話中か否か)等を含む。S34では、まず、制御部110は、ユーザテーブル122を参照し、特定の状態情報に含まれる装置IDに対応するユーザID(即ち、特定のユーザのユーザID)を特定する。そして、制御部110は、特定の状態情報に含まれる各種情報に基づいて、特定のユーザの状態を特定する。制御部110は、特定の状態情報に含まれる三次元センサ34の検出値に基づいて、特定のユーザの姿勢を特定することができる。また、制御部110は、特定の状態情報に含まれる生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26で撮影された眼の画像に基づいて、特定のユーザの感情(例えば、怒っている、喜んでいる、不安を抱えている、悲しんでいるなど)を特定することができる。また、制御部110は、特定の状態情報に含まれる生体センサ18の検出値及び脳波センサ20の検出値に基づいて、特定のユーザの体調(健康、発熱、めまい等)を特定することができる。また、制御部110は、特定の状態情報に含まれるカメラ26で撮影された眼の画像及び三次元センサ34の検出値に基づいて、特定のユーザの視線を特定することができる。制御部110は、以上の各処理を実行することによって、特定のユーザの状態を特定することができる。制御部110は、特定のユーザのユーザIDと、特定されたユーザの状態とを対応付けてメモリ112に一時的に記憶させる。
 続くS36では、制御部110は、特定のユーザを示すキャラクタ画像を生成する。本実施例では、キャラクタ画像は、S34で特定された状態(姿勢、感情、体調、視線、発話状態等)を反映した表示態様を有する画像(いわゆるアバター)である。
 続くS38では、制御部110は、S30で受信された1以上の状態情報をすべて特定したか否かを判断する。この時点で1以上の状態情報がすべて特定済みである場合、制御部110は、S38でYESと判断し、S40に進む。一方、1以上の状態情報をまだすべて特定していない場合、制御部110は、S38でNOと判断し、S32に戻り、未特定の状態情報のうちの1つを新たに特定の状態情報として特定し、S34、S36の処理を実行する。
 S40では、制御部110は、既に作成済みの各ユーザのキャラクタ画像のデータを用いて、仮想通話空間データを生成する。仮想通話空間データは、通話セッションに参加している各画像表示装置10の各ユーザを示すキャラクタ画像を仮想的に同じ空間内に配置した状況を仮想的に示しているデータである。S40で生成される仮想通話空間データは、仮想通話空間を表わしている。
 S40で生成される仮想通話空間データによって表される仮想通話空間の一例を図7に示す。図7は、ユーザ4A~4Dが通話を行っている(即ち通話セッションに画像表示装置10A~10Dが参加している)状況において、図6のS40で生成される仮想通話空間データによって表される仮想通話空間200の例を示す。図7は、仮想通話空間200を所定の角度から見た様子を示している。仮想通話空間200には、ユーザ4A~4Dのそれぞれを示すキャラクタ画像C1~C4が配置されている。キャラクタ画像C1~C4は、円テーブルを示す画像202の周囲に、この順で時計回りに配置されている。即ち、仮想通話空間200は、キャラクタ画像C1~C4が円テーブルの周りに座って仮想的に会話を行っている空間と言い換えることができる。キャラクタ画像C1~C4のそれぞれの近傍には、対応するユーザのユーザID(「U01」等)が表示されている。仮想通話空間200内のキャラクタ画像C1~C4は、いずれも、S34で特定された状態を反映した表示態様を有している。
 続くS42では、制御部110は、通話セッションに参加している各画像表示装置10用の表示画面データを生成する。例えば、図7の仮想通話空間200において、キャラクタ画像C1(即ち、画像表示装置10Aのユーザ4A)は、範囲210内を見ている。キャラクタ画像C1(即ちユーザ4A)が見ている範囲210は、図6のS34で特定される状態(とくに姿勢及び視線)を参照することによって特定される。この場合、制御部110は、キャラクタ画像C1が、仮想通話空間200内で範囲210に対応する範囲を見ていると仮定した場合におけるキャラクタ画像C1の視界(図8参照)に対応する表示画面データ(即ち、画像表示装置10Aのための表示画面データ)を生成する。制御部110は、同じ要領で、他の画像表示装置10B~10Dのための表示画面データを生成する。
 続くS44では、制御部110は、生成された各表示画面データを、対応する画像表示装置10に送信する。各画像表示装置10の制御部30は、表示画面データを受信すると、受信された表示画面データによって表される表示画面(図8参照)を表示部14に表示させる。これにより、各ユーザ4は、自身の仮想通話空間200内の視界に対応する表示画面を見ることができる。表示画面には他のユーザ4を示すキャラクタ画像が含まれる。そのため、各ユーザ4は、自身が仮想通話空間200内で他のユーザ4を示すキャラクタ画像と会話を行っている感覚を得ることができる。
 図8は、画像表示装置10Aの表示部14に表示される表示画面の一例である。図8の表示画面300は、図7の仮想通話空間200内のキャラクタ画像C1の視界である範囲210に対応する。表示画面300には、キャラクタ画像C2、C3が含まれている。キャラクタ画像C2は、ユーザID「U02」に対応するユーザ4Bを示す。キャラクタ画像C2は笑みを浮かべている。また、キャラクタ画像C2の近傍には吹き出しを示す画像302が付されている。即ち、キャラクタ画像C2は、ユーザ4Bが嬉しい感情を抱いていること、及び、ユーザ4Bが現在発話中であることを示している。一方、キャラクタ画像C3は涙を流している。即ち、キャラクタ画像C3は、ユーザ4Cが悲しい感情を抱いていることを示している。また、表示画面300には矢印304を示す画像と、ユーザID「U04」とが表されている。矢印304は、ユーザID「U04」(即ちユーザ4D)に対応するキャラクタ画像C4が、仮想通話空間200内で、キャラクタ画像C1の視界から外れていることを示している。また、矢印304が示す方向に、キャラクタ画像C4が配置されていることを示す。
 図6のS44を終えると、制御部110は、S30に戻り、S30~S44の処理を繰り返し実行する。これにより、各画像表示装置10の表示部14に表示される表示画面の内容は、各ユーザ4の状態(視線、感情、姿勢等)に応じてリアルタイムに変化する。各ユーザ4は、仮想通話空間200内で他のユーザ4と実際に会話を行っているような感覚を得られる。
(通話制御処理の続き;図5のS22以降)
 上記の通り、図5のS18で音声通信処理が開始され、S20で画像通信処理が開始されることによって、通話に参加している各ユーザ4が、他のユーザ4を示すキャラクタ画像を含む表示画面を見ながら通話を行うことができる。
 続くS22では、制御部110は、通話セッションに参加している画像表示装置10のうちのいずれかの画像表示装置10から通話終了リクエストを受信することを監視する。通話終了リクエストは、サーバ100に、現在の通話セッションの終了を要求するためのリクエスト信号である。例えば、通話セッションに参加している画像表示装置10Aのユーザ4Aは、操作部16において所定の通話終了操作を行うことができる。その場合、画像表示装置10Aの制御部30は、通話終了リクエストをサーバ100に送信する。制御部110は、通話終了リクエストを受信すると、S22でYESと判断し、S24に進む。
 S24では、制御部110は、通話セッションを終了する。制御部30は、S24を終えると、S10に戻り、再び通話開始リクエストを受信することを監視する。
 以上、本実施例の通話システム2の構成及び動作について説明した。上記の通り、本実施例では、通話セッションが開始されると、通話セッションに参加する各画像表示装置10の制御部30は、マイク22に入力される音声信号をサーバ100に送信し、サーバ100から受信される音声データに基づいてスピーカ24から音声を出力する。また、制御部30は、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。そして、制御部30は、状態情報を送信することに応じて、サーバ100から、当該画像表示装置10用の表示画面データを受信し、受信された表示画面データによって表される表示画面(図8参照)を表示部14に表示させる。サーバ100の制御部110は、各画像表示装置10から受信される状態情報に基づいて、ユーザ4A~4Dのそれぞれの状態を反映したキャラクタ画像C1~C4を生成し(図6のS34、S36)、各画像表示装置10のための表示画面データを生成し(S42)、各画像表示装置10に送信する(S44)。表示画面には、キャラクタ画像C1~C4のうちの少なくとも一部が含まれる。そして、キャラクタ画像C1~C4は、それぞれ、対応する画像表示装置10から受信された状態情報が示す状態(即ち、当該画像表示装置10を装着するユーザ4の状態)に応じた表示態様を有する。各キャラクタ画像C1~C4は、対応するユーザ4の状態を適切に反映し得る。そのため、本実施例によると、各画像表示装置10を装着したユーザ4が操作を行わなくても、各ユーザ4は、各ユーザ4の状態を適切に反映させた表示画面を見ながら通話を行うことができる。
 また、図8に示すように、画像表示装置10Aの表示部14に表示される表示画面300は、図7の仮想通話空間200内のキャラクタ画像C1の視界である範囲210に対応する。同様に、他の画像表示装置10B,10C,10Dの表示部には、仮想通話空間200内のキャラクタ画像C2,C3,C4の視界に対応する表示画面が表示される。各画像表示装置10の表示部には、ユーザ4の視界に応じてそれぞれ異なる表示画面が表示される。即ち、ユーザ4毎に適した表示画面を表示させることができる。
 また、表示画面300には、ユーザ4Aに対応するキャラクタ画像C1(即ち自身のキャラクタ画像C1)は含まれていない。各ユーザ4は、自身を表わすキャラクタ画像以外のキャラクタ画像を含む表示画像を見ることができる。そのため、各ユーザ4が、他のユーザ4を表わすキャラクタ画像と実際に会話しているような感覚で通話を行うことができる。
 また、本実施例では、表示画面(図8の300等)に表示されるキャラクタ画像C1~C4は、対応する画像表示装置10から受信された状態情報が示すユーザの状態を反映した表示態様を有する。状態情報は、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26が撮影する眼の画像を含む。従って、ユーザ4は、表示画面中のキャラクタ画像C1~C4等を見ることで、対応するユーザ4の姿勢、感情、体調、視線、発話状態等を把握することができる。従って、各ユーザ4は、表示画面中のキャラクタ画像に対応するユーザ4との円滑なコミュニケーションを図ることができる。
(第2実施例)
 本実施例では、各画像表示装置10の表示部14に表示される表示画面の内容が第1実施例とは異なる。図9は、画像表示装置10Aの表示部14に表示される表示画面の一例である。図9の表示画面400は、図8の表示画面300と同様に、図7の仮想通話空間200内のキャラクタ画像C1(即ちユーザ4A)の視界である範囲210に対応する。表示画面400にも、キャラクタ画像C2、C3が含まれている。また、吹き出しを表わす画像402、矢印404を示す画像も含まれている。本実施例では、さらに、表示画面400に、キャラクタ画像C1を表示するためのサブ画面410が含まれている。キャラクタ画像C1は、ユーザID「U01」に対応するユーザ4Aを示す。キャラクタ画像C1は、驚いた表情を浮かべている。即ち、キャラクタ画像C1は、ユーザ4Aが驚いたことを示している。
 同様に、本実施例では、他の画像表示装置10B,10C,10Dの表示部14に表示される表示画面にも、当該画像表示装置10のユーザ4自身に対応するキャラクタ画像を表示するためのサブ画面が含まれる。
 本実施例の通話システム2でも、第1実施例の通話システム2の同様の作用効果を発揮することができる。また、本実施例の通話システム2によれば、各ユーザ4は、自身に対応するキャラクタ画像を見ながら通話を行うことができる。
(第3実施例)
 本実施例でも、各画像表示装置10の表示部14に表示される表示画面の内容が第1実施例とは異なる。本実施例では、各画像表示装置10の表示部14に、共通の表示画面が表示される点が第1実施例と異なる。図10は、画像表示装置10A~10Dのそれぞれの表示部14に共通して表示される表示画面500を示す。図10の表示画面500は、図8の表示画面300と同様に、図7の仮想通話空間200に基づいて生成されている。表示画面500には、キャラクタ画像C1~C4がすべて一つの画面内に表示されている。即ち、本実施例では、表示画面500は、各ユーザの視界に対応していない。
 本実施例の通話システム2によると、各ユーザ4が同じ画面を見ながら通話を行うことができる。
(第4実施例)
(通信システム1002の構成;図11)
 図11に示す通信システム1002は、複数のユーザが、各ユーザを表わす仮想的なキャラクタ画像を含む表示画面を見ながらテキスト通信(いわゆるテキストチャット等)を行うためのシステムである。図11の通信システム1002も、第1実施例と同様に、画像表示装置10A~10Dと、サーバ100とを備える。以下、本実施例(図11~図15)では、第1実施例と共通する要素を、第1実施例(図1~図8)と同じ符号を用いて示し、詳しい説明を省略する場合がある。
 図11に示すように、本実施例でも、画像表示装置10は、ユーザ4の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。ただし、本実施例では、図12、図13に示すように、画像表示装置10は、マイクを備えておらず、その代わりにキーボード40を備えている。キーボード40は、複数個のキーを有している。ユーザは、キーボード40を操作して、画像表示装置10に、テキストの入力を含む様々な指示を入力することができる。
(通信制御処理;図14)
 図14を参照して、本実施例のサーバ100の制御部110が実行する通信制御処理について説明する。本実施例の通信制御処理は、音声通信処理(図5のS18参照)が、テキスト通信処理(図14のS68)に置き換わる点を除き、第1実施例の通話制御処理(図5)とほぼ同様の内容を有する。
 S60では、制御部110は、いずれかの画像表示装置10から通信開始リクエストを受信することを監視する。通信開始リクエストは、サーバ100に、複数のユーザによるテキスト通信(即ちテキストチャット)の開始を要求するためのリクエスト信号である。制御部110は、いずれかの画像表示装置10から通信開始リクエストを受信すると、S60でYESと判断し、S72に進む。
 S62では、制御部110は、呼出通知を送信する。次いで、S64では、制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから、応答通知を受信することを監視する。サーバ100の制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから応答通知を受信すると、S64でYESと判断し、S66に進む。
 S66では、制御部110は、通信セッションを開始する。S66における通信セッションの開始方法は、図5のS16の通話セッションの開始方法と同様である。
(通信セッション開始後の各画像表示装置10の制御部30の処理)
 図14のS66で通信セッションが開始されると、通信セッションに参加する画像表示装置10の制御部30は、次のような処理を実行する。即ち、制御部30は、キーボード40を介して入力されるテキスト情報をサーバ100に送信し、サーバ100から受信される出力テキストデータによって表される出力テキスト(図15の符号1310参照)を表示部14に表示させる。これにより、各画像表示装置10間でテキスト通信を実行することができる。そして、制御部30は、当該画像表示装置10の装置ID、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。そして、制御部30は、状態情報を送信することに応じて、サーバ100から、当該画像表示装置10用の表示画面データを受信し、受信された表示画面データによって表される表示画面(図15の符号1300参照)を表示部14に表示させる。即ち、本実施例では、図15に示すように、受信された表示画面データによって表される表示画面1300と、受信された出力テキストデータによって表される出力テキスト1310と、が表示部14に同時に表示される。これにより、通信に参加しているそれぞれのユーザ4は、通信に参加する他のユーザ4を示すキャラクタ画像を含む表示画面を見ながらテキスト通信を行うことができる。
(通話制御処理の続き;図14のS68以降)
 続くS68では、制御部110は、テキスト通信処理を開始する。即ち、制御部110は、通話セッションに参加する各画像表示装置10間のテキスト通信を中継する処理を実行する。即ち、制御部110は、各画像表示装置10から、各画像表示装置10のキーボード40に入力されたテキスト情報を受信する。制御部110は、各画像表示装置10から受信されたテキスト情報に基づいて出力テキストデータを生成し、各画像表示装置10に送信する。
 また、S70では、制御部110は、画像通信処理を開始する。S70で実行される画像通信処理の内容は、第1実施例の画像通信処理(図6)と同様であるため、詳しい説明を省略する。ただし、本実施例では、画像表示装置10がマイクを有さないため、「状態情報」に音声信号が含まれない点が、第1実施例とは異なる。それ以外は第1実施例と同様である。
 図15は、画像表示装置10Aの表示部14に表示される画面1200の一例である。図15の画面1200には、表示画面1300と、出力テキスト1310と、が含まれる。表示画面1300には、キャラクタ画像C2、C3が含まれている。キャラクタ画像C2は、ユーザID「U02」に対応するユーザ4Bを示す。キャラクタ画像C2は笑みを浮かべている。即ち、キャラクタ画像C2は、ユーザ4Bが嬉しい感情を抱いていることを示している。一方、キャラクタ画像C3は涙を流している。即ち、キャラクタ画像C3は、ユーザ4Cが悲しい感情を抱いていることを示している。また、表示画面300には矢印304を示す画像と、ユーザID「U04」とが表されている。矢印304は、ユーザID「U04」(即ちユーザ4D)に対応するキャラクタ画像C4が、仮想通話空間200内で、キャラクタ画像C1の視界から外れていることを示している。また、矢印304が示す方向に、キャラクタ画像C4が配置されていることを示す。
 出力テキスト1310は、ユーザU02による発言「Hello. It’s nice to meet you.」を示すテキスト1312と、ユーザU01による発言「Nice to meet you, too.」を示すテキスト1314と、を含む。出力テキスト1310に含まれるテキスト1312、1314は、それぞれ、画像表示装置10Bにおいてユーザ4Bに入力されたテキスト情報、及び、画像表示装置10Aにおいてユーザ4Aに入力されたテキスト情報に対応する。出力テキスト1310の欄では、表示されたテキスト(例えば図15のテキスト1312、1314)は、表示されてから一定期間が経過する場合に自動的に消去される。ただし、他の例では、出力テキスト1310の欄には、スクロール表示が可能な態様で、過去に各画像表示装置10において各ユーザ4が入力したテキスト情報の履歴が表示可能であってもよい。
 このように、図14のS68でテキスト通信処理が開始され、S70で画像通信処理が開始されることによって、チャットに参加している各ユーザ4が、他のユーザ4を示すキャラクタ画像を含む表示画面を見ながらテキスト通信を行うことができる。
 続くS72では、制御部110は、通信セッションに参加している画像表示装置10のうちのいずれかの画像表示装置10から通信終了リクエストを受信することを監視する。通信終了リクエストは、サーバ100に、現在の通信セッションの終了を要求するためのリクエスト信号である。制御部110は、いずれかの画像表示装置10から通信終了リクエストを受信すると、S72でYESと判断し、S74に進む。
 S74では、制御部110は、通信セッションを終了する。制御部30は、S74を終えると、S60に戻り、再び通信開始リクエストを受信することを監視する。
 以上、本実施例の通信システム1002の構成及び動作について説明した。上記の通り、本実施例では、通信セッションが開始されると、通信セッションに参加する各画像表示装置10の制御部30は、キーボード40において入力されるテキスト情報をサーバ100に送信し、サーバ100から受信される出力テキストデータに基づいて、出力テキスト(図15の符号1310参照)を表示部14に表示させる。また、制御部30は、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、及び、カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。そして、制御部30は、状態情報を送信することに応じて、サーバ100から、当該画像表示装置10用の表示画面データを受信し、受信された表示画面データによって表される表示画面(図15の符号1300参照)を表示部14に表示させる。サーバ100の制御部110は、各画像表示装置10から受信される状態情報に基づいて、ユーザ4A~4Dのそれぞれの状態を反映したキャラクタ画像C1~C4を生成し(図6のS34、S36)、各画像表示装置10のための表示画面データを生成し(S42)、各画像表示装置10に送信する(S44)。表示画面には、キャラクタ画像C1~C4のうちの少なくとも一部が含まれる。そして、キャラクタ画像C1~C4は、それぞれ、対応する画像表示装置10から受信された状態情報が示す状態(即ち、当該画像表示装置10を装着するユーザ4の状態)に応じた表示態様を有する。各キャラクタ画像C1~C4は、対応するユーザ4の状態を適切に反映し得る。そのため、本実施例による場合も、各画像表示装置10を装着したユーザ4が、キャラクタ画像C1~C4の表示態様を変更するための操作を別途行わなくても、各ユーザ4は、各ユーザ4の状態を適切に反映させた表示画面を見ながらテキスト通信を行うことができる。
 特に、本実施例の通信システム1002では、各画像表示装置10がマイクを備えておらず、音声を用いて通話をしなくてもよいため、会話が不自由なユーザ同士でも円滑にコミュニケーションを図り得る。また、周囲に音声が漏れるおそれがないため、音漏れを気にしながらコミュニケーションをする必要もない。音を出すことが好ましくない場所にいるユーザ同士でも円滑にコミュニケーションを図り得る。
 以上、実施例を詳細に説明したが、これらは例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)上記の各実施例では、キャラクタ画像C1~C4は、ユーザ4A~4Dを示すアバターである。これに限られず、キャラクタ画像は、ユーザ本人の写真の画像を加工した画像等であってもよい。
(変形例2)上記の各実施例では、図8に示すように、表示画面300において、吹き出しの画像302をキャラクタ画像C2の近傍に表示することで、発話状態が表現されている。これに限られず、制御部110が、ユーザ4の発言内容を字幕化して表示部14に表示させることによって、発話状態を表現するようにしてもよい。この場合、表示部14には、図15の画面1200とほぼ同様の画面が表示されてもよい。
(変形例3)画像表示装置10は、生体センサ18、脳波センサ20、カメラ26、三次元センサ34のうちの少なくとも一つを省略してもよい。
 また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (10)

  1.  通話システムであって、
     2個以上の画像表示装置と、
     前記2個以上の画像表示装置のそれぞれと通信可能に接続されている情報処理装置と、
     を備え、
     前記2個以上の画像表示装置のそれぞれは、
      ユーザの頭部に装着可能なフレームと、
      前記フレームに備えられ、前記フレームを装着した前記ユーザの眼に対向する位置に配置される表示部と、
      前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部と、
      前記フレームを装着した前記ユーザの発する音声を入力するマイクと、
      音声出力データに従って音声を出力するスピーカと、
      制御部と、を備えており、
     前記制御部は、
      前記取得部によって取得された前記状態情報を前記情報処理装置に送信する情報送信部と、
      前記情報処理装置から、当該画像表示装置のための表示画面データを受信する第1のデータ受信部と、
      受信された前記表示画面データによって表される表示画面を前記表示部に表示させる表示制御部と、
      前記マイクに入力された前記音声を前記情報処理装置に送信する音声送信部と、
      前記情報処理装置から前記音声出力データを受信する第2のデータ受信部と、
      受信された前記音声出力データに従って、前記スピーカに音声を出力させる音声出力制御部と、
     を備え、
     前記情報処理装置は、
      前記2個以上の画像表示装置のそれぞれから前記音声を受信する音声受信部と、
      前記2個以上の画像表示装置のそれぞれから受信された前記音声に基づいて、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記音声出力データを生成する音声出力データ生成部と、
      前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記音声出力データを送信する、音声出力データ送信部と、
      前記2個以上の画像表示装置のそれぞれから前記状態情報を受信する状態情報受信部と、
      前記2個以上の画像表示装置を装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成するキャラクタ画像生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記画像表示装置から受信される前記状態情報が示す状態に応じた表示態様を有している、前記キャラクタ画像生成部と、
      前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記表示画面データを生成する画面データ生成部であって、前記表示画面データによって表される前記表示画面は、生成された2個以上の前記キャラクタ画像のうちの少なくとも一部を含んでいる、前記画面データ生成部と、
      前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記表示画面データを送信する、画面データ送信部と、
     を備える、
     通話システム。
  2.  前記2個以上の画像表示装置は、第1の画像表示装置と、第1の画像表示装置とは異なる第2の画像表示装置と、を含み、
     前記画面データ生成部は、前記第1の画像表示装置のための第1の表示画面データと、前記第2の画像表示装置のための第2の表示画面データと、を生成し、
     前記第1の表示画面データによって表される第1の表示画面は、前記第2の表示画面データによって表される第2の表示画面と異なる、
     請求項1に記載の通話システム。
  3.  前記第1の表示画面は、前記第1の画像表示装置を装着する第1のユーザを表す第1のキャラクタ画像を含まず、
     前記第2の表示画面は、前記第2の画像表示装置を装着する第2のユーザを表す第2のキャラクタ画像を含まない、
     請求項2に記載の通話システム。
  4.  前記第1の表示画面は、前記2個以上のキャラクタ画像のそれぞれが所定の配置で配置されている仮想空間を、前記第1のキャラクタ画像の視点から仮想的に見た場合の第1の仮想画面であり、
     前記第2の表示画面は、前記仮想空間を、前記第2のキャラクタ画像の視点から仮想的に見た場合の第2の仮想画面である、
     請求項3に記載の通話システム。
  5.  前記取得部は、前記フレームを装着した前記ユーザの眼を撮影するカメラを含み、
     前記状態情報は前記カメラで撮影された眼の画像を含み、
     前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記眼の画像に基づいて、対応する前記画像表示装置のユーザの感情と視線とのうちの少なくとも一方を特定し、特定された前記感情と前記視線とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成する、
     請求項1から4のいずれか一項に記載の通話システム。
  6.  前記取得部は、前記画像表示装置の姿勢を検出する三次元センサを含み、
     前記状態情報は前記三次元センサの検出値を含み、
     前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記三次元センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの姿勢を特定し、特定された前記姿勢を示す前記表示態様を有している前記キャラクタ画像を生成する、
     請求項1から5のいずれか一項に記載の通話システム。
  7.  前記取得部は、前記フレームを装着した前記ユーザの脈拍と発汗の少なくとも一方を検出する生体センサを含み、
     前記状態情報は前記生体センサの検出値を含み、
     前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記生体センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの感情と健康状態とのうちの少なくとも一方を特定し、特定された前記感情と前記健康状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成する、
     請求項1から6のいずれか一項に記載の通話システム。
  8.  前記取得部は、前記フレームを装着した前記ユーザの脳波を検出する脳波センサを含み、
     前記状態情報は前記脳波センサの検出値を含み、
     前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記脳波センサの前記検出値に基づいて、対応する前記画像表示装置のユーザの感情と健康状態とのうちの少なくとも一方を特定し、特定された前記感情と前記健康状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成する、
     請求項1から7のいずれか一項に記載の通話システム。
  9.  前記取得部は、前記マイクを含み、
     前記状態情報は前記マイクに入力される前記音声を含み、
     前記キャラクタ画像生成部は、対応する前記画像表示装置から受信された前記状態情報に含まれる前記音声に基づいて、対応する前記画像表示装置のユーザの感情と発話状態との少なくとも一方を特定し、特定された前記感情と前記発話状態とのうちの少なくとも一方を示す前記表示態様を有している前記キャラクタ画像を生成する、
     請求項1から8のいずれか一項に記載の通話システム。
  10.  コミュニケーションシステムであって、
     2個以上の画像表示装置と、
     前記2個以上の画像表示装置のそれぞれと通信可能に接続されている情報処理装置と、
     を備え、
     前記2個以上の画像表示装置のそれぞれは、
      ユーザの頭部に装着可能なフレームと、
      前記フレームに備えられ、前記フレームを装着した前記ユーザの眼に対向する位置に配置される表示部と、
      前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部と、
      前記フレームを装着した前記ユーザがテキスト情報を入力するためのテキスト情報入力部と、
      制御部と、を備えており、
     前記制御部は、
      前記取得部によって取得された前記状態情報を前記情報処理装置に送信する情報送信部と、
      前記情報処理装置から、当該画像表示装置のための表示画面データを受信する第1のデータ受信部と、
      受信された前記表示画面データによって表される表示画面を前記表示部に表示させる表示制御部と、
      前記テキスト情報入力部に入力されたテキスト情報を前記情報処理装置に送信するテキスト情報送信部と、
      前記情報処理装置から出力テキストデータを受信する第2のデータ受信部と、
      受信された前記出力テキストデータによって表される出力テキストを前記表示部に表示させるテキスト出力制御部と、
     を備え、
     前記情報処理装置は、
      前記2個以上の画像表示装置のそれぞれから前記テキスト情報を受信するテキスト情報受信部と、
      前記2個以上の画像表示装置のそれぞれから受信された前記テキスト情報に基づいて、前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記出力テキストデータを生成する出力テキストデータ生成部と、
      前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記出力テキストデータを送信する、出力テキストデータ送信部と、
      前記2個以上の画像表示装置のそれぞれから前記状態情報を受信する状態情報受信部と、
      前記2個以上の画像表示装置を装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成するキャラクタ画像生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記画像表示装置から受信される前記状態情報が示す状態に応じた表示態様を有している、前記キャラクタ画像生成部と、
      前記2個以上の画像表示装置のそれぞれについて、当該画像表示装置のための前記表示画面データを生成する画面データ生成部であって、前記表示画面データによって表される前記表示画面は、生成された2個以上の前記キャラクタ画像のうちの少なくとも一部を含んでいる、前記画面データ生成部と、
      前記2個以上の画像表示装置のそれぞれに対して、生成された当該画像表示装置のための前記表示画面データを送信する、画面データ送信部と、
     を備える、
     コミュニケーションシステム。
PCT/JP2017/007961 2017-02-28 2017-02-28 通話システム及びコミュニケーションシステム WO2018158852A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/007961 WO2018158852A1 (ja) 2017-02-28 2017-02-28 通話システム及びコミュニケーションシステム
JP2019502342A JPWO2018158852A1 (ja) 2017-02-28 2017-02-28 通話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/007961 WO2018158852A1 (ja) 2017-02-28 2017-02-28 通話システム及びコミュニケーションシステム

Publications (1)

Publication Number Publication Date
WO2018158852A1 true WO2018158852A1 (ja) 2018-09-07

Family

ID=63370367

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007961 WO2018158852A1 (ja) 2017-02-28 2017-02-28 通話システム及びコミュニケーションシステム

Country Status (2)

Country Link
JP (1) JPWO2018158852A1 (ja)
WO (1) WO2018158852A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004244A1 (ja) * 2020-07-03 2022-01-06 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
JPWO2022079933A1 (ja) * 2020-10-14 2022-04-21
WO2022201267A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
JP7329209B1 (ja) 2022-06-17 2023-08-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006340986A (ja) * 2005-06-10 2006-12-21 Ntt Docomo Inc 顔面情報検出装置および顔面情報検出式通信装置
JP2013196154A (ja) * 2012-03-16 2013-09-30 Ntt Docomo Inc 画像コミュニケーションシステム、AR(AugmentedReality)動画生成装置及びプログラム
JP2013258555A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc ヘッドマウントディスプレイ、生体情報管理装置、および生体情報表示方法
JP2014017776A (ja) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2947861B1 (en) * 2014-05-23 2019-02-06 Samsung Electronics Co., Ltd System and method of providing voice-message call service
US20180239926A1 (en) * 2015-03-31 2018-08-23 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2017028390A (ja) * 2015-07-17 2017-02-02 株式会社コロプラ 仮想現実空間音声コミュニケーション方法、プログラム、プログラムを記録した記録媒体、および、装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006340986A (ja) * 2005-06-10 2006-12-21 Ntt Docomo Inc 顔面情報検出装置および顔面情報検出式通信装置
JP2013196154A (ja) * 2012-03-16 2013-09-30 Ntt Docomo Inc 画像コミュニケーションシステム、AR(AugmentedReality)動画生成装置及びプログラム
JP2013258555A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc ヘッドマウントディスプレイ、生体情報管理装置、および生体情報表示方法
JP2014017776A (ja) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004244A1 (ja) * 2020-07-03 2022-01-06 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
JP2022013123A (ja) * 2020-07-03 2022-01-18 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
JPWO2022079933A1 (ja) * 2020-10-14 2022-04-21
WO2022079933A1 (ja) * 2020-10-14 2022-04-21 住友電気工業株式会社 コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
CN114787759A (zh) * 2020-10-14 2022-07-22 住友电气工业株式会社 交流支持程序、交流支持方法、交流支持系统、终端装置以及非语言表达程序
JP7193015B2 (ja) 2020-10-14 2022-12-20 住友電気工業株式会社 コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
US11960792B2 (en) 2020-10-14 2024-04-16 Sumitomo Electric Industries, Ltd. Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
WO2022201267A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
JP7329209B1 (ja) 2022-06-17 2023-08-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023184000A (ja) * 2022-06-17 2023-12-28 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2018158852A1 (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
US11948241B2 (en) Robot and method for operating same
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
JP2021044001A (ja) 情報処理システム、制御方法、およびプログラム
CN110413108B (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
JP2014099854A (ja) ソーシャルネットワークサービス提供装置及び方法
JP2012054897A (ja) 会議システム、情報処理装置、及び情報処理方法
JP6882797B2 (ja) 会議システム
JP2014233035A (ja) 情報処理装置、表示制御方法及びプログラム
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
JP6257826B1 (ja) 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
WO2018061173A1 (ja) Tv会議システム、tv会議方法、およびプログラム
JP2024023399A (ja) プログラムおよび情報処理装置
JP6250779B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2020088637A (ja) 会議支援システム及び会議用ロボット
JP7062126B1 (ja) 端末、情報処理方法、プログラム、および記録媒体
KR20150113795A (ko) 눈맞춤 기능 제어 장치 및 방법
JP2016048855A (ja) 遠隔意思疎通装置及びプログラム
JP2006065684A (ja) アバタ通信システム
WO2023058451A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020162035A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2006106671A1 (ja) 画像処理装置、画像表示装置、受信装置、送信装置、通信システム、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体
JP2023015877A (ja) 会議制御装置、会議制御方法及びコンピュータープログラム
JP2022096336A (ja) 映像通信装置、および映像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17898598

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019502342

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17898598

Country of ref document: EP

Kind code of ref document: A1