JP2011147070A - Communication apparatus and communication server - Google Patents
Communication apparatus and communication server Download PDFInfo
- Publication number
- JP2011147070A JP2011147070A JP2010008148A JP2010008148A JP2011147070A JP 2011147070 A JP2011147070 A JP 2011147070A JP 2010008148 A JP2010008148 A JP 2010008148A JP 2010008148 A JP2010008148 A JP 2010008148A JP 2011147070 A JP2011147070 A JP 2011147070A
- Authority
- JP
- Japan
- Prior art keywords
- communication
- communication partner
- video
- emotion data
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、通信装置および通信サーバに関する。 The present invention relates to a communication device and a communication server.
通信装置ユーザが仮想空間においてアバタ画像を用いてチャットなどを行う場合、通信装置ユーザは予め用意された複数種類の感情設定ボタンのいずれかを選択することによりアバタの表情等を変化させて、自分の感情を通信相手に伝える従来技術がある。この従来技術によって、通信装置ユーザは、自分の感情に合わせてアバタ画像を変化させることにより、通信相手に自分の感情を表現することができる(例えば、特許文献1参照)。 When a communication device user performs a chat or the like using an avatar image in a virtual space, the communication device user changes the avatar's facial expression etc. by selecting one of a plurality of types of emotion setting buttons prepared in advance. There is a conventional technology that conveys the feelings of communication to the communication partner. With this conventional technique, the communication device user can express his / her emotion to the communication partner by changing the avatar image in accordance with his / her emotion (see, for example, Patent Document 1).
しかしながら、上記従来技術では、通信装置ユーザの感情が通信相手にそのまま伝わってしまうため、通信相手に不快感を与えてしまうおそれがあった。 However, in the above prior art, since the emotion of the communication device user is transmitted as it is to the communication partner, there is a possibility that the communication partner is uncomfortable.
本発明の目的は、アバタ画像等を用い通信において、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現できるようにすることである。 An object of the present invention is to enable a communication device user to intuitively express his / her feelings without causing discomfort to a communication partner in communication using an avatar image or the like.
本発明の第1の態様に係る通信装置は、通信相手の映像または音声を受信する受信手段と、前記通信相手に対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、前記感情データに従い、前記映像または前記音声を変換する変換手段と、を具備する。 The communication apparatus according to the first aspect of the present invention sets a receiving means for receiving video or audio of a communication partner, an input means for inputting emotions to the communication partner, and emotion data corresponding to the emotions. Setting means; and conversion means for converting the video or the sound according to the emotion data.
本発明の第2の態様に係る通信装置は、複数の通信相手の映像または音声を受信する受信手段と、前記複数の通信相手のうち感情を表したい通信相手を指定するための指定手段と、指定された通信相手に対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、指定された通信相手を示す通信相手情報および指定された通信相手に対する前記感情データを通信サーバに送信する送信手段と、を具備する。 The communication apparatus according to the second aspect of the present invention includes a receiving unit that receives video or audio of a plurality of communication partners, a designation unit for designating a communication partner that expresses emotion among the plurality of communication partners, Input means for inputting emotions for a specified communication partner, setting means for setting emotion data corresponding to the emotions, communication partner information indicating the specified communication partner, and the emotion data for the specified communication partner Transmitting means for transmitting to the communication server.
本発明の第3の態様に係る通信装置は、複数の通信相手の映像または音声を受信する受信手段と、前記複数の通信相手のいずれかに対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、前記複数の通信相手のいずれかに対する前記感情データを通信サーバに送信する送信手段と、を具備する。 A communication device according to a third aspect of the present invention includes: a receiving unit that receives video or audio of a plurality of communication partners; an input unit that inputs emotions to any of the plurality of communication partners; Setting means for setting corresponding emotion data; and transmission means for transmitting the emotion data for any of the plurality of communication partners to a communication server.
本発明の第4の態様に係る通信サーバは、通信装置から前記通信相手情報および前記感情データを受信する受信手段と、前記感情データに従い、前記複数の通信相手のうち前記通信相手情報に示された通信相手の映像または音声を変換する変換手段と、変換された映像または音声を前記複数の通信相手のうち前記通信相手情報に示された通信相手以外の通信相手へ送信する送信手段と、を具備する。 A communication server according to a fourth aspect of the present invention is indicated in the communication partner information among the plurality of communication partners according to the receiving means for receiving the communication partner information and the emotion data from a communication device, and the emotion data. Conversion means for converting video or audio of a communication partner, and transmission means for transmitting the converted video or audio to a communication partner other than the communication partner indicated in the communication partner information among the plurality of communication partners. It has.
本発明の第5の態様に係る通信サーバは、通信装置から前記感情データを受信する受信手段と、前記感情データの対象となる通信相手を特定する特定手段と、前記感情データに従い、前記複数の通信相手のうち特定された通信相手の映像または音声を変換する変換手段と、変換された映像または音声を前記複数の通信相手のうち特定された通信相手以外の通信相手へ送信する送信手段と、を具備する。 A communication server according to a fifth aspect of the present invention includes: a receiving unit that receives the emotion data from a communication device; a specifying unit that specifies a communication partner that is a target of the emotion data; Conversion means for converting the video or audio of the specified communication partner among the communication partners, and transmission means for transmitting the converted video or audio to a communication partner other than the specified communication partner among the plurality of communication partners; It comprises.
本発明によれば、アバタ画像等を用い通信において、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現できる。 According to the present invention, in communication using an avatar image or the like, the communication device user can intuitively express his / her feelings without causing discomfort to the communication partner.
以下、本発明を実施するため形態について、図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(実施の形態1)
図1は、本実施の形態に係る通信装置100の構成図である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a
通信装置100において、受信部101は、通信相手の映像を受信する。例えば、通信装置100がネットワークを介したテレビ電話通信を行う場合、受信部101は、通信相手の通信装置から送信される通信相手のアバタ画像を受信する。受信部101は、受信した通信相手の映像を出力部105および変換部104に出力する。
In the
入力部102は、通信装置100のユーザが受信映像により示された通信相手に対する感情を入力するためのものであり、例えば加速度の方向および大きさを検出する加速度センサにより構成される。入力部102は、図2に示すように、通信装置100にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。
The
設定部103は、入力部102に入力された、通信装置100のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部103は、図3に示すような、通信装置100のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部103は、設定した感情データを変換部104に出力する。
The setting
変換部104は、感情データに従って、通信相手の映像を変換する。変換部104は、図3に示すテーブルを参照し、感情データに従って映像を変換する。変換部104は、変換した映像を出力部105に送る。
The
出力部105は、受信部101により受信された映像および変換部104により変換された映像を出力する。本実施の形態では、例えば、出力部105は、映像を表示するディスプレーにより構成される。
The
次に、通信装置100の動作について図4を用いて説明する。
Next, the operation of the
図4に示すように、通信装置100は、通信相手から送信された映像201を通信網を介して受信する。
As illustrated in FIG. 4, the
このとき、例えば、通信装置100のユーザが通信相手に対して「怒り」の感情を表す場合、通信装置100のユーザは、通信装置100をY軸方向に小さな力で叩くこととする。また、通信装置100のユーザが通信相手に対して「悲しみ」の感情を表す場合、通信装置100のユーザは、通信装置100をZ軸方向に小さな力で叩く。また、通信装置100のユーザが通信相手に対して「同意」の感情を表す場合、通信装置100のユーザは、通信装置100をZ軸方向に大きな力で叩く。また、通信装置100のユーザが通信相手に対して「反対」の感情を表す場合、通信装置100のユーザは、通信装置100をX軸方向に大きな力で叩く。このときの加速度の方向および大きさを入力部102が検出し、検出結果を設定部103に出力する。
At this time, for example, when the user of the
設定部103は、入力部102によって検出された加速度の方向および大きさに応じて図3に示すテーブルを参照して感情データを設定する。そして、変換部104は、感情データに従って図3に示すテーブルを参照して通信相手の映像を変換する。
The
例えば、加速度の方向が「Y軸」で、その大きさが「小」であった場合、設定部103は感情データ:「怒り」を設定する。そして、変換部104は、その感情データに従って、映像201において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、映像201を怒りの表情の映像206に変換する。
For example, when the direction of acceleration is “Y-axis” and the magnitude is “small”, the
また、加速度の方向が「Z軸」で、その大きさが「小」であった場合、設定部103は感情データ:「悲しみ」を設定する。そして、変換部104は、その感情データに従って、映像201において目の下に涙の画像を合成することにより、映像201を泣いている表情の映像204に変換する。
When the acceleration direction is “Z-axis” and the magnitude is “small”, the
また、加速度の方向が「Z軸」で、その大きさが「大」であった場合、設定部103は感情データ:「同意」を設定する。そして、変換部104は、その感情データに従って、映像201において口の位置に笑っている口の画像を合成することにより、映像201を笑っている表情の映像205に変換する。
If the acceleration direction is “Z-axis” and the magnitude is “large”, the
また、加速度の方向が「X軸」で、その大きさが「大」であった場合、設定部103は感情データ:「反対」を設定する。そして、変換部104は、その感情データに従って、映像201において目の周囲の一定範囲の画像を拡大するとともに、口の周囲の一定範囲の画像を縮小し、さらに、あらかじめ用意した汗の画像を合成することにより、映像201を驚いたような表情の映像203に変換する。
When the acceleration direction is “X axis” and the magnitude is “large”, the
なお、上記説明では通信装置100のユーザが通信装置100を叩くときに入力部102によって検出される加速度の方向および大きさに応じて設定部103が感情データを設定した。しかし、入力部102が、加速度の大きさに代えて叩くパターンを検出し、設定部103が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。
In the above description, the
すなわち、例えば、加速度の方向が「Y軸」で、所定時間の叩いた回数が「1回」であった場合、設定部103は感情データ:「怒り」を設定する。また、加速度の方向が「Z軸」で、所定時間の叩いた回数が「1回」であった場合、設定部103は感情データ:「悲しみ」を設定する。また、加速度の方向が「Z軸」で、所定時間の叩いた回数が「複数回連続」であった場合、設定部103は感情データ:「同意」を設定する。また、加速度の方向が「X軸」で、所定時間の叩いた回数が「複数回連続」であった場合、設定部103は感情データ:「反対」を設定する。
That is, for example, when the acceleration direction is “Y-axis” and the number of hits for a predetermined time is “1”, the
このように、本実施の形態によれば、アバタ画像等を用い通信において、通信装置ユーザの感情に応じて変換された通信相手の映像がその通信相手に送信されないため、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現することができる。 As described above, according to the present embodiment, in communication using an avatar image or the like, the image of the communication partner converted according to the emotion of the communication device user is not transmitted to the communication partner. Emotions can be expressed intuitively without causing discomfort to the communication partner.
(実施の形態2)
図6は、本実施の形態に係る通信システムの構成図である。図6に示すように、本実施の形態に係る通信システムは、通信サーバ400と、例えば通信装置300A〜300Cの複数の通信装置とから構成され、通信装置300A〜300Cが互いに通信サーバ400を介して通信を行う。すなわち、通信装置300A〜300Cが、各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信サーバ400に送信し、通信サーバ400が、受信した映像を通信装置300A〜300Cに配信する。
(Embodiment 2)
FIG. 6 is a configuration diagram of a communication system according to the present embodiment. As illustrated in FIG. 6, the communication system according to the present embodiment includes a
図7は、本実施の形態に係る通信装置300の構成図である。図6に示す通信装置300A〜300Cはすべて図7に示す構成を採る。
FIG. 7 is a configuration diagram of
通信装置300において、受信部301は、通信サーバ400から複数の通信相手の映像を受信する。例えば、図6に示す通信装置300Aがネットワークを介したテレビ電話通信を通信装置300B,300Cと行う場合、通信装置300Aの受信部301は、通信相手の通信装置300B,300Cから通信サーバ400を介して送信される2人の通信相手のアバタ画像を受信する。また、受信部301は、複数の通信相手の映像のうち通信サーバ400によって変換された映像を受信する。受信部301は、受信した映像を出力部302に出力する。
In the
出力部302は、受信部301により受信された映像を出力する。本実施の形態では、例えば、出力部302は、映像を表示するディスプレーにより構成される。
The
入力部303は、通信装置300のユーザが受信映像により示された複数の通信相手のうちいずれかの通信相手に対する感情を入力するためのものであり、実施の形態1の入力部102と同様、例えば加速度の方向および大きさを検出する加速度センサにより構成され、図2に示すように、通信装置300にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。
The
設定部304は、入力部303に入力された、通信装置300のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部304は、実施の形態1の設定部304と同様、図3に示すような、通信装置300のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部304は、設定した感情データを送信部306に出力する。
The
なお、本実施の形態においても、実施の形態1同様、入力部303が、加速度の大きさに代えて叩くパターンを検出し、設定部304が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。
Also in the present embodiment, as in the first embodiment, the
通信相手指定部305は、通信装置300のユーザが受信映像により示された複数の通信相手のうち感情を表したい通信相手を指定するためのものであり、例えば十字キーやテンキー等により構成される。通信装置300のユーザは、例えば十字キーやテンキー等を操作することにより感情を表したい通信相手を指定する。通信相手指定部305は、指定された通信相手を示す通信相手情報を送信部306に出力する。
The communication
送信部306は、通信相手指定部305から入力される通信相手情報、および、設定部304から入力される感情データ(すなわち、通信相手指定部305により指定された通信相手に対する感情データ)を通信サーバ400に送信する。また、送信部306は、通信装置300のユーザの映像を通信サーバ400に送信する。
The
図8は、本実施の形態に係る通信サーバ400の構成図である。以下、通信サーバ400が図6に示す通信装置300A〜300Cと通信する場合を例に挙げて説明する。
FIG. 8 is a configuration diagram of the
通信サーバ400において、受信部401は、通信装置300A〜300Cの各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信装置300A〜300Cの各々から受信する。そして、受信部401は、受信した映像を変換部402および送信部403に出力する。また、受信部401は、通信装置300A〜300Cの各々から送信された通信相手情報および感情データを受信し、それらを変換部402に出力するとともに、通信相手情報を送信部403に出力する。
In
変換部402は、感情データに従って、通信相手情報に示された通信相手の映像を変換する。変換部402は、実施の形態1の変換部104と同様、図3または図5に示すテーブルを参照し、感情データに従って映像を変換する。変換部402は、変換した映像を送信部403に送る。
The
送信部403は、通信装置300A〜300Cの各々のユーザの映像を通信装置300A〜300Cの各々へ送信する。また、送信部403は、変換部402により変換された映像を、通信装置300A〜300Cのうち通信相手情報に示された通信相手以外の通信装置へ送信する。
The
ここで、図6に示す通信システムにおいて、例えば通信装置300Aのユーザが通信装置300Cのユーザに対して「怒り」の感情を表す場合、通信装置300Aの送信部306は、通信装置300Cを示す通信相手情報と感情データ:「怒り」とを通信サーバ400へ送信する。
Here, in the communication system illustrated in FIG. 6, for example, when the user of the
通信サーバ400の変換部402は、感情データ:「怒り」に従って、通信相手情報に示された通信装置300Cのユーザの映像において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、通信装置300Cのユーザの映像を驚いたような表情の映像に変換する。
The
そして、通信サーバ400の送信部403は、通信装置300Cのユーザの変換後の映像を、通信装置300Cには送信せずに、通信装置300Aおよび300Bのみに送信する。よって、通信装置300Cのユーザの映像において、通信装置300Aおよび300Bの出力部302には変換後の映像が新たに表示される一方で、通信装置300Cの出力部302には変換前の映像が引き続き表示される。
Then, the
このように、本実施の形態によれば、アバタ画像等を用い通信において、通信装置ユーザの感情に応じて変換された通信相手の映像がその通信相手に送信されないため、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現することができる。 As described above, according to the present embodiment, in communication using an avatar image or the like, the image of the communication partner converted according to the emotion of the communication device user is not transmitted to the communication partner. Emotions can be expressed intuitively without causing discomfort to the communication partner.
(実施の形態3)
図9は本実施の形態に係る通信装置500の構成図であり、図10は本実施の形態に係る通信サーバ600の構成図である。なお、本実施の形態に係る通信システムは、実施の形態2(図6)と同様、通信サーバ600と、例えば通信装置500A〜500Cの複数の通信装置とから構成され、通信装置500A〜500Cが互いに通信サーバ600を介して通信を行う。また、通信装置500A〜500Cはすべて図9に示す構成を採る。
(Embodiment 3)
FIG. 9 is a configuration diagram of the
通信装置500において、受信部501は、通信サーバ600から複数の通信相手の映像を受信する。例えば、通信装置500Aがネットワークを介したテレビ電話通信を通信装置500B,500Cと行う場合、通信装置500Aの受信部501は、通信相手の通信装置500B,500Cから通信サーバ600を介して送信される2人の通信相手のアバタ画像を受信する。また、受信部501は、受信した通信相手の映像を出力部502に出力する。
In the
出力部502は、受信部501により受信された映像を出力する。本実施の形態では、例えば、出力部502は、映像を表示するディスプレーにより構成される。
The
入力部503は、通信装置500のユーザが受信映像により示された複数の通信相手のうちいずれかの通信相手に対する感情を入力するためのものであり、実施の形態1の入力部102と同様、例えば加速度の方向および大きさを検出する加速度センサにより構成され、図2に示すように、通信装置500にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。
The
設定部504は、入力部503に入力された、通信装置500のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部504は、実施の形態1の設定部103と同様、図3に示すような、通信装置500のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部504は、設定した感情データを送信部505に出力する。
The
なお、本実施の形態においても、実施の形態1同様、入力部503が、加速度の大きさに代えて叩くパターンを検出し、設定部504が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。
Also in the present embodiment, as in the first embodiment, the
送信部505は、設定部504から入力される感情データを通信サーバ600に送信する。また、送信部505は、通信装置500のユーザの映像を通信サーバ600に送信する。
以下、通信サーバ600が通信装置500A〜500Cと通信する場合を例に挙げて説明する。
Hereinafter, a case where the
通信サーバ600において、受信部601は、通信装置500A〜500Cの各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信装置500A〜500Cの各々から受信する。そして、受信部601は、受信した映像を変換部602および送信部603に出力する。また、受信部601は、通信装置500A〜500Cの各々から送信された感情データを受信して変換部602に出力する。
In
特定部604は、受信された映像または通信装置500A〜500Cへの入力音声を解析して感情データの対象となる通信相手を特定する。例えば、特定部604は、通信装置500A〜500Cへ入力される各ユーザの声の大きさ(音量)を検出し、通信中の現在の音量が所定の閾値以上のユーザを現在の発言者、すなわち、感情データの対象となる通信相手として特定する。特定部604は、特定した通信相手を示す通信相手情報を変換部602および送信部603に出力する。
The identifying
変換部602は、感情データに従って、通信相手情報に示された通信相手の映像を変換する。変換部602は、実施の形態1の変換部104と同様、図3または図5に示すテーブルを参照し、感情データに従って映像を変換する。変換部602は、変換した映像を送信部603に送る。
The
送信部603は、通信装置500A〜500Cの各々のユーザの映像を通信装置500A〜500Cの各々へ送信する。また、送信部603は、変換部602により変換された映像を、通信装置500A〜500Cのうち通信相手情報に示された通信相手以外の通信装置へ送信する。
The
ここで、例えば通信装置500Aのユーザが通信装置500Cのユーザに対して「怒り」の感情を表す場合、通信装置500Cのユーザの発言中に通信装置500Aの送信部505は、感情データ:「怒り」を通信サーバ600へ送信する。
Here, for example, when the user of the communication device 500A expresses the feeling of “anger” with respect to the user of the communication device 500C, the
通信サーバ600の特定部604は、通信中の現在の音量が所定の閾値以上となる通信装置500Cのユーザを現在の発言者、すなわち、感情データの対象となる通信相手として特定し、通信装置500Cを示す通信相手情報を変換部602および送信部603に出力する。
The specifying
通信サーバ600の変換部602は、感情データ:「怒り」に従って、通信相手情報に示された通信装置500Cのユーザの映像において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、通信装置500Cのユーザの映像を驚いたような表情の映像に変換する。
The
そして、通信サーバ600の送信部603は、通信装置500Cのユーザの変換後の映像を、通信装置500Cには送信せずに、通信装置500Aおよび500Bのみに送信する。よって、通信装置500Cのユーザの映像において、通信装置500Aおよび500Bの出力部502には変換後の映像が新たに表示される一方で、通信装置500Cの出力部502には変換前の映像が引き続き表示される。
Then, the
このように、本実施の形態によれば、通信サーバが受信映像または各通信装置への入力音声を解析して感情データの対象となる通信相手を特定するため、各通信装置のユーザは、感情を表したい通信相手を指定する手間が省ける。 Thus, according to the present embodiment, since the communication server analyzes the received video or the input voice to each communication device and identifies the communication partner that is the target of emotion data, the user of each communication device This saves you the trouble of specifying the communication partner you want to represent.
以上、本発明の実施の形態について説明した。 The embodiment of the present invention has been described above.
なお、実施の形態1〜3においては感情データに従って通信装置のユーザの映像を変換していたが、本発明では、感情データに従って通信装置のユーザの音声を変換しても良い。例えば、変換部104,402,602は、「怒り」の感情データが入力された場合は音声の波形を歪ませて音声を震わせ、「悲しみ」の感情データが入力された場合は音声の高さを2オクターブ上げ、「同意」の感情データが入力された場合は音声にエコーをかけて音声を響かせ、「反対」の感情データが入力された場合は音声の速度を下げてゆっくりした低い音声にする等する。
In the first to third embodiments, the video of the user of the communication device is converted according to the emotion data. However, in the present invention, the voice of the user of the communication device may be converted according to the emotion data. For example, the
本発明は、チャットなどが行われる通信システムに有用である。 The present invention is useful for a communication system in which chat or the like is performed.
100,300,500 通信装置
101,301,401,501,601 受信部
102,303,503 入力部
103,304,504 設定部
104,402,602 変換部
105,302,502 出力部
305 通信相手指定部
306,403,505,603 送信部
400,600 通信サーバ
604 特定部
100, 300, 500
Claims (7)
前記通信相手に対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
前記感情データに従い、前記映像または前記音声を変換する変換手段と、
を具備する通信装置。 Receiving means for receiving the video or audio of the communication partner;
Input means for inputting emotions to the communication partner;
Setting means for setting emotion data corresponding to the emotion;
Conversion means for converting the video or the sound according to the emotion data;
A communication apparatus comprising:
前記複数の通信相手のうち感情を表したい通信相手を指定するための指定手段と、
指定された通信相手に対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
指定された通信相手を示す通信相手情報および指定された通信相手に対する前記感情データを通信サーバに送信する送信手段と、
を具備する通信装置。 Receiving means for receiving video or audio of a plurality of communication partners;
A designation means for designating a communication partner of the plurality of communication partners who wants to express emotion;
An input means for inputting emotions for a specified communication partner;
Setting means for setting emotion data corresponding to the emotion;
Transmission means for transmitting communication partner information indicating a specified communication partner and the emotion data for the specified communication partner to a communication server;
A communication apparatus comprising:
前記複数の通信相手のいずれかに対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
前記複数の通信相手のいずれかに対する前記感情データを通信サーバに送信する送信手段と、
を具備する通信装置。 Receiving means for receiving video or audio of a plurality of communication partners;
Input means for inputting emotions to any of the plurality of communication partners;
Setting means for setting emotion data corresponding to the emotion;
Transmitting means for transmitting the emotion data for any of the plurality of communication partners to a communication server;
A communication apparatus comprising:
請求項1から3のいずれかに記載の通信装置。 The input means is an acceleration sensor;
The communication apparatus according to claim 1.
前記感情データに従い、前記複数の通信相手のうち前記通信相手情報に示された通信相手の映像または音声を変換する変換手段と、
変換された映像または音声を前記複数の通信相手のうち前記通信相手情報に示された通信相手以外の通信相手へ送信する送信手段と、
を具備する通信サーバ。 Receiving means for receiving the communication partner information and the emotion data from the communication device according to claim 2;
According to the emotion data, conversion means for converting the video or audio of the communication partner indicated in the communication partner information among the plurality of communication partners,
Transmitting means for transmitting the converted video or audio to a communication partner other than the communication partner indicated in the communication partner information among the plurality of communication partners;
A communication server comprising:
前記感情データの対象となる通信相手を特定する特定手段と、
前記感情データに従い、前記複数の通信相手のうち特定された通信相手の映像または音声を変換する変換手段と、
変換された映像または音声を前記複数の通信相手のうち特定された通信相手以外の通信相手へ送信する送信手段と、
を具備する通信サーバ。 Receiving means for receiving the emotion data from the communication device according to claim 3;
A specifying means for specifying a communication partner as a target of the emotion data;
According to the emotion data, conversion means for converting video or audio of the specified communication partner among the plurality of communication partners,
Transmitting means for transmitting the converted video or audio to a communication partner other than the specified communication partner among the plurality of communication partners;
A communication server comprising:
請求項6記載の通信サーバ。 The identifying means analyzes the received video or audio to identify a communication partner as a target of the emotion data;
The communication server according to claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008148A JP2011147070A (en) | 2010-01-18 | 2010-01-18 | Communication apparatus and communication server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008148A JP2011147070A (en) | 2010-01-18 | 2010-01-18 | Communication apparatus and communication server |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011147070A true JP2011147070A (en) | 2011-07-28 |
Family
ID=44461497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010008148A Pending JP2011147070A (en) | 2010-01-18 | 2010-01-18 | Communication apparatus and communication server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011147070A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160010449A (en) * | 2013-05-22 | 2016-01-27 | 알리바바 그룹 홀딩 리미티드 | Method, user terminal and server for information exchange communications |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244425A (en) * | 2001-12-04 | 2003-08-29 | Fuji Photo Film Co Ltd | Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same |
JP2004072310A (en) * | 2002-08-05 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Tv telephone system |
-
2010
- 2010-01-18 JP JP2010008148A patent/JP2011147070A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244425A (en) * | 2001-12-04 | 2003-08-29 | Fuji Photo Film Co Ltd | Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same |
JP2004072310A (en) * | 2002-08-05 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Tv telephone system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160010449A (en) * | 2013-05-22 | 2016-01-27 | 알리바바 그룹 홀딩 리미티드 | Method, user terminal and server for information exchange communications |
JP2016521929A (en) * | 2013-05-22 | 2016-07-25 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Method, user terminal, and server for information exchange in communication |
KR102173479B1 (en) * | 2013-05-22 | 2020-11-04 | 알리바바 그룹 홀딩 리미티드 | Method, user terminal and server for information exchange communications |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10218852B2 (en) | Methods and systems for providing teleconference participant quality feedback | |
WO2017130486A1 (en) | Information processing device, information processing method, and program | |
JP5338350B2 (en) | Information processing apparatus and voice correction program | |
JP2014099854A (en) | System and method for providing social network service | |
JP2006302047A (en) | Meeting-supporting program, meeting-supporting device, and meeting-supporting method | |
JP2006262010A (en) | Remote conference/education system | |
JP2014110558A (en) | Information processing device, information processing system, and program | |
WO2018158852A1 (en) | Telephone call system and communication system | |
JP2000184345A (en) | Multi-modal communication aid device | |
US8937635B2 (en) | Device, method and system for real-time screen interaction in video communication | |
JP6969577B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6543891B2 (en) | Communication aid device, communication aid system, communication aid method and program | |
WO2018185988A1 (en) | Information processing system and storage medium | |
JP2011147070A (en) | Communication apparatus and communication server | |
WO2023175704A1 (en) | Online conference system, method for controlling online conference system, and program | |
US9110511B2 (en) | Method for capturing and transmitting motion data | |
JP4632132B2 (en) | Language learning system | |
JP5529617B2 (en) | Remote conference apparatus, remote conference method, and remote conference program | |
JP5613102B2 (en) | CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM | |
WO2014208169A1 (en) | Information processing device, control method, program, and recording medium | |
JP2021086474A (en) | Avatar control system | |
US20240339116A1 (en) | Mitigating Speech Collision by Predicting Speaking Intent for Participants | |
WO2017187674A1 (en) | Information processing device, information processing system, and program | |
JP2004171356A (en) | Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon | |
US11935557B2 (en) | Techniques for detecting and processing domain-specific terminology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120417 |