JP2011147070A - Communication apparatus and communication server - Google Patents

Communication apparatus and communication server Download PDF

Info

Publication number
JP2011147070A
JP2011147070A JP2010008148A JP2010008148A JP2011147070A JP 2011147070 A JP2011147070 A JP 2011147070A JP 2010008148 A JP2010008148 A JP 2010008148A JP 2010008148 A JP2010008148 A JP 2010008148A JP 2011147070 A JP2011147070 A JP 2011147070A
Authority
JP
Japan
Prior art keywords
communication
communication partner
video
emotion data
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010008148A
Other languages
Japanese (ja)
Inventor
Michiko Sasamori
通子 笹森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010008148A priority Critical patent/JP2011147070A/en
Publication of JP2011147070A publication Critical patent/JP2011147070A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user of a communication apparatus to intuitively represent his/her emotion without giving any unpleasant feeling to a communication partner, during communication using an avatar image or the like. <P>SOLUTION: In a communication apparatus 100, a receiving section 101 receives a video image of a communication partner, and an input section 102 is configured for a user of the communication apparatus 100 to input his/her emotion about the communication partner indicated by the received video image, and is comprised of e.g., an acceleration sensor for detecting a direction and a magnitude of acceleration. A setting section 103 sets emotional data corresponding to the emotion, inputted to the input section 102, of the user of the communication apparatus 100 about the communication partner, a conversion section 104 converts the video image of the communication partner in accordance with the emotional data, and an output section 105 outputs the video image received by the receiving section 101 and the video image converted by the conversion section 104. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、通信装置および通信サーバに関する。   The present invention relates to a communication device and a communication server.

通信装置ユーザが仮想空間においてアバタ画像を用いてチャットなどを行う場合、通信装置ユーザは予め用意された複数種類の感情設定ボタンのいずれかを選択することによりアバタの表情等を変化させて、自分の感情を通信相手に伝える従来技術がある。この従来技術によって、通信装置ユーザは、自分の感情に合わせてアバタ画像を変化させることにより、通信相手に自分の感情を表現することができる(例えば、特許文献1参照)。   When a communication device user performs a chat or the like using an avatar image in a virtual space, the communication device user changes the avatar's facial expression etc. by selecting one of a plurality of types of emotion setting buttons prepared in advance. There is a conventional technology that conveys the feelings of communication to the communication partner. With this conventional technique, the communication device user can express his / her emotion to the communication partner by changing the avatar image in accordance with his / her emotion (see, for example, Patent Document 1).

特開2000−190034号公報JP 2000-190034 A

しかしながら、上記従来技術では、通信装置ユーザの感情が通信相手にそのまま伝わってしまうため、通信相手に不快感を与えてしまうおそれがあった。   However, in the above prior art, since the emotion of the communication device user is transmitted as it is to the communication partner, there is a possibility that the communication partner is uncomfortable.

本発明の目的は、アバタ画像等を用い通信において、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現できるようにすることである。   An object of the present invention is to enable a communication device user to intuitively express his / her feelings without causing discomfort to a communication partner in communication using an avatar image or the like.

本発明の第1の態様に係る通信装置は、通信相手の映像または音声を受信する受信手段と、前記通信相手に対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、前記感情データに従い、前記映像または前記音声を変換する変換手段と、を具備する。   The communication apparatus according to the first aspect of the present invention sets a receiving means for receiving video or audio of a communication partner, an input means for inputting emotions to the communication partner, and emotion data corresponding to the emotions. Setting means; and conversion means for converting the video or the sound according to the emotion data.

本発明の第2の態様に係る通信装置は、複数の通信相手の映像または音声を受信する受信手段と、前記複数の通信相手のうち感情を表したい通信相手を指定するための指定手段と、指定された通信相手に対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、指定された通信相手を示す通信相手情報および指定された通信相手に対する前記感情データを通信サーバに送信する送信手段と、を具備する。   The communication apparatus according to the second aspect of the present invention includes a receiving unit that receives video or audio of a plurality of communication partners, a designation unit for designating a communication partner that expresses emotion among the plurality of communication partners, Input means for inputting emotions for a specified communication partner, setting means for setting emotion data corresponding to the emotions, communication partner information indicating the specified communication partner, and the emotion data for the specified communication partner Transmitting means for transmitting to the communication server.

本発明の第3の態様に係る通信装置は、複数の通信相手の映像または音声を受信する受信手段と、前記複数の通信相手のいずれかに対する感情を入力するための入力手段と、前記感情に対応する感情データを設定する設定手段と、前記複数の通信相手のいずれかに対する前記感情データを通信サーバに送信する送信手段と、を具備する。   A communication device according to a third aspect of the present invention includes: a receiving unit that receives video or audio of a plurality of communication partners; an input unit that inputs emotions to any of the plurality of communication partners; Setting means for setting corresponding emotion data; and transmission means for transmitting the emotion data for any of the plurality of communication partners to a communication server.

本発明の第4の態様に係る通信サーバは、通信装置から前記通信相手情報および前記感情データを受信する受信手段と、前記感情データに従い、前記複数の通信相手のうち前記通信相手情報に示された通信相手の映像または音声を変換する変換手段と、変換された映像または音声を前記複数の通信相手のうち前記通信相手情報に示された通信相手以外の通信相手へ送信する送信手段と、を具備する。   A communication server according to a fourth aspect of the present invention is indicated in the communication partner information among the plurality of communication partners according to the receiving means for receiving the communication partner information and the emotion data from a communication device, and the emotion data. Conversion means for converting video or audio of a communication partner, and transmission means for transmitting the converted video or audio to a communication partner other than the communication partner indicated in the communication partner information among the plurality of communication partners. It has.

本発明の第5の態様に係る通信サーバは、通信装置から前記感情データを受信する受信手段と、前記感情データの対象となる通信相手を特定する特定手段と、前記感情データに従い、前記複数の通信相手のうち特定された通信相手の映像または音声を変換する変換手段と、変換された映像または音声を前記複数の通信相手のうち特定された通信相手以外の通信相手へ送信する送信手段と、を具備する。   A communication server according to a fifth aspect of the present invention includes: a receiving unit that receives the emotion data from a communication device; a specifying unit that specifies a communication partner that is a target of the emotion data; Conversion means for converting the video or audio of the specified communication partner among the communication partners, and transmission means for transmitting the converted video or audio to a communication partner other than the specified communication partner among the plurality of communication partners; It comprises.

本発明によれば、アバタ画像等を用い通信において、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現できる。   According to the present invention, in communication using an avatar image or the like, the communication device user can intuitively express his / her feelings without causing discomfort to the communication partner.

本発明の実施の形態1に係る通信装置の構成図Configuration diagram of communication apparatus according to Embodiment 1 of the present invention 本発明の実施の形態1に係る入力部の動作概念図Operational concept diagram of input unit according to Embodiment 1 of the present invention 本発明の実施の形態1に係るテーブルを示す図(例1)The figure which shows the table which concerns on Embodiment 1 of this invention (Example 1) 本発明の実施の形態1に係る通信装置の動作イメージを示す図The figure which shows the operation | movement image of the communication apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るテーブルを示す図(例2)The figure which shows the table which concerns on Embodiment 1 of this invention (example 2) 本発明の実施の形態2に係る通信システムの構成図Configuration diagram of a communication system according to Embodiment 2 of the present invention 本発明の実施の形態2に係る通信装置の構成図Configuration diagram of communication apparatus according to Embodiment 2 of the present invention 本発明の実施の形態2における通信サーバの構成図Configuration diagram of communication server according to Embodiment 2 of the present invention 本発明の実施の形態3に係る通信装置の構成図Configuration diagram of communication apparatus according to Embodiment 3 of the present invention 本発明の実施の形態3に係る通信サーバの構成図Configuration diagram of communication server according to Embodiment 3 of the present invention

以下、本発明を実施するため形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本実施の形態に係る通信装置100の構成図である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a communication device 100 according to the present embodiment.

通信装置100において、受信部101は、通信相手の映像を受信する。例えば、通信装置100がネットワークを介したテレビ電話通信を行う場合、受信部101は、通信相手の通信装置から送信される通信相手のアバタ画像を受信する。受信部101は、受信した通信相手の映像を出力部105および変換部104に出力する。   In the communication device 100, the receiving unit 101 receives a video of a communication partner. For example, when the communication apparatus 100 performs videophone communication via a network, the reception unit 101 receives a communication partner avatar image transmitted from the communication partner communication apparatus. The receiving unit 101 outputs the received video of the communication partner to the output unit 105 and the conversion unit 104.

入力部102は、通信装置100のユーザが受信映像により示された通信相手に対する感情を入力するためのものであり、例えば加速度の方向および大きさを検出する加速度センサにより構成される。入力部102は、図2に示すように、通信装置100にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。   The input unit 102 is for the user of the communication device 100 to input emotions to the communication partner indicated by the received video, and is configured by an acceleration sensor that detects the direction and magnitude of acceleration, for example. As shown in FIG. 2, the input unit 102 can detect accelerations in three directions of the X axis, the Y axis, and the Z axis applied to the communication apparatus 100.

設定部103は、入力部102に入力された、通信装置100のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部103は、図3に示すような、通信装置100のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部103は、設定した感情データを変換部104に出力する。   The setting unit 103 sets emotion data corresponding to the emotion of the user of the communication device 100 with respect to the communication partner input to the input unit 102. The setting unit 103 sets the emotion data with reference to a table in which the direction and magnitude of the acceleration indicating the emotion of the user of the communication device 100 and the emotion data are set in association with each other as shown in FIG. The setting unit 103 outputs the set emotion data to the conversion unit 104.

変換部104は、感情データに従って、通信相手の映像を変換する。変換部104は、図3に示すテーブルを参照し、感情データに従って映像を変換する。変換部104は、変換した映像を出力部105に送る。   The conversion unit 104 converts the image of the communication partner according to the emotion data. The conversion unit 104 refers to the table shown in FIG. 3 and converts the video according to the emotion data. The conversion unit 104 sends the converted video to the output unit 105.

出力部105は、受信部101により受信された映像および変換部104により変換された映像を出力する。本実施の形態では、例えば、出力部105は、映像を表示するディスプレーにより構成される。   The output unit 105 outputs the video received by the receiving unit 101 and the video converted by the conversion unit 104. In the present embodiment, for example, the output unit 105 includes a display that displays an image.

次に、通信装置100の動作について図4を用いて説明する。   Next, the operation of the communication apparatus 100 will be described with reference to FIG.

図4に示すように、通信装置100は、通信相手から送信された映像201を通信網を介して受信する。   As illustrated in FIG. 4, the communication device 100 receives a video 201 transmitted from a communication partner via a communication network.

このとき、例えば、通信装置100のユーザが通信相手に対して「怒り」の感情を表す場合、通信装置100のユーザは、通信装置100をY軸方向に小さな力で叩くこととする。また、通信装置100のユーザが通信相手に対して「悲しみ」の感情を表す場合、通信装置100のユーザは、通信装置100をZ軸方向に小さな力で叩く。また、通信装置100のユーザが通信相手に対して「同意」の感情を表す場合、通信装置100のユーザは、通信装置100をZ軸方向に大きな力で叩く。また、通信装置100のユーザが通信相手に対して「反対」の感情を表す場合、通信装置100のユーザは、通信装置100をX軸方向に大きな力で叩く。このときの加速度の方向および大きさを入力部102が検出し、検出結果を設定部103に出力する。   At this time, for example, when the user of the communication device 100 expresses the feeling of “anger” with respect to the communication partner, the user of the communication device 100 is assumed to tap the communication device 100 with a small force in the Y-axis direction. Further, when the user of the communication device 100 expresses a feeling of “sadness” with respect to the communication partner, the user of the communication device 100 taps the communication device 100 with a small force in the Z-axis direction. Further, when the user of the communication device 100 expresses an “agreement” feeling to the communication partner, the user of the communication device 100 taps the communication device 100 with a large force in the Z-axis direction. Further, when the user of the communication device 100 expresses an “opposite” feeling with respect to the communication partner, the user of the communication device 100 taps the communication device 100 with a large force in the X-axis direction. The input unit 102 detects the direction and magnitude of the acceleration at this time, and outputs the detection result to the setting unit 103.

設定部103は、入力部102によって検出された加速度の方向および大きさに応じて図3に示すテーブルを参照して感情データを設定する。そして、変換部104は、感情データに従って図3に示すテーブルを参照して通信相手の映像を変換する。   The setting unit 103 sets emotion data with reference to the table shown in FIG. 3 according to the direction and magnitude of the acceleration detected by the input unit 102. And the conversion part 104 converts the image | video of a communicating party with reference to the table shown in FIG. 3 according to emotion data.

例えば、加速度の方向が「Y軸」で、その大きさが「小」であった場合、設定部103は感情データ:「怒り」を設定する。そして、変換部104は、その感情データに従って、映像201において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、映像201を怒りの表情の映像206に変換する。   For example, when the direction of acceleration is “Y-axis” and the magnitude is “small”, the setting unit 103 sets emotion data: “anger”. Then, according to the emotion data, the conversion unit 104 enlarges the image around the nose in the video 201 and combines the nose breath image and the anger mark to convert the video 201 into an angry facial expression video 206. To do.

また、加速度の方向が「Z軸」で、その大きさが「小」であった場合、設定部103は感情データ:「悲しみ」を設定する。そして、変換部104は、その感情データに従って、映像201において目の下に涙の画像を合成することにより、映像201を泣いている表情の映像204に変換する。   When the acceleration direction is “Z-axis” and the magnitude is “small”, the setting unit 103 sets emotion data: “sadness”. Then, in accordance with the emotion data, the conversion unit 104 synthesizes a tear image under the eyes in the video 201 to convert the video 201 into a video 204 with a crying expression.

また、加速度の方向が「Z軸」で、その大きさが「大」であった場合、設定部103は感情データ:「同意」を設定する。そして、変換部104は、その感情データに従って、映像201において口の位置に笑っている口の画像を合成することにより、映像201を笑っている表情の映像205に変換する。   If the acceleration direction is “Z-axis” and the magnitude is “large”, the setting unit 103 sets emotion data: “agreement”. Then, in accordance with the emotion data, the conversion unit 104 synthesizes the laughing mouth image at the position of the mouth in the video 201, thereby converting the video 201 into a laughing facial expression video 205.

また、加速度の方向が「X軸」で、その大きさが「大」であった場合、設定部103は感情データ:「反対」を設定する。そして、変換部104は、その感情データに従って、映像201において目の周囲の一定範囲の画像を拡大するとともに、口の周囲の一定範囲の画像を縮小し、さらに、あらかじめ用意した汗の画像を合成することにより、映像201を驚いたような表情の映像203に変換する。   When the acceleration direction is “X axis” and the magnitude is “large”, the setting unit 103 sets emotion data: “opposite”. Then, according to the emotion data, the conversion unit 104 enlarges a certain range of images around the eyes in the video 201, reduces a certain range of images around the mouth, and further synthesizes a sweat image prepared in advance. By doing so, the video 201 is converted into a video 203 with a surprising expression.

なお、上記説明では通信装置100のユーザが通信装置100を叩くときに入力部102によって検出される加速度の方向および大きさに応じて設定部103が感情データを設定した。しかし、入力部102が、加速度の大きさに代えて叩くパターンを検出し、設定部103が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。   In the above description, the setting unit 103 sets emotion data according to the direction and magnitude of acceleration detected by the input unit 102 when the user of the communication device 100 taps the communication device 100. However, the input unit 102 detects a hitting pattern instead of the magnitude of acceleration, and the setting unit 103 sets emotion data according to the direction of acceleration and the hitting pattern with reference to the table shown in FIG. Also good.

すなわち、例えば、加速度の方向が「Y軸」で、所定時間の叩いた回数が「1回」であった場合、設定部103は感情データ:「怒り」を設定する。また、加速度の方向が「Z軸」で、所定時間の叩いた回数が「1回」であった場合、設定部103は感情データ:「悲しみ」を設定する。また、加速度の方向が「Z軸」で、所定時間の叩いた回数が「複数回連続」であった場合、設定部103は感情データ:「同意」を設定する。また、加速度の方向が「X軸」で、所定時間の叩いた回数が「複数回連続」であった場合、設定部103は感情データ:「反対」を設定する。   That is, for example, when the acceleration direction is “Y-axis” and the number of hits for a predetermined time is “1”, the setting unit 103 sets emotion data: “anger”. When the direction of acceleration is “Z-axis” and the number of hits for a predetermined time is “1”, the setting unit 103 sets emotion data: “sadness”. When the direction of acceleration is “Z-axis” and the number of hits for a predetermined time is “continuous multiple times”, the setting unit 103 sets emotion data: “agreement”. When the direction of acceleration is “X-axis” and the number of hits for a predetermined time is “continuous multiple times”, the setting unit 103 sets emotion data: “opposite”.

このように、本実施の形態によれば、アバタ画像等を用い通信において、通信装置ユーザの感情に応じて変換された通信相手の映像がその通信相手に送信されないため、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現することができる。   As described above, according to the present embodiment, in communication using an avatar image or the like, the image of the communication partner converted according to the emotion of the communication device user is not transmitted to the communication partner. Emotions can be expressed intuitively without causing discomfort to the communication partner.

(実施の形態2)
図6は、本実施の形態に係る通信システムの構成図である。図6に示すように、本実施の形態に係る通信システムは、通信サーバ400と、例えば通信装置300A〜300Cの複数の通信装置とから構成され、通信装置300A〜300Cが互いに通信サーバ400を介して通信を行う。すなわち、通信装置300A〜300Cが、各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信サーバ400に送信し、通信サーバ400が、受信した映像を通信装置300A〜300Cに配信する。
(Embodiment 2)
FIG. 6 is a configuration diagram of a communication system according to the present embodiment. As illustrated in FIG. 6, the communication system according to the present embodiment includes a communication server 400 and a plurality of communication devices, for example, communication devices 300 </ b> A to 300 </ b> C, and the communication devices 300 </ b> A to 300 </ b> C communicate with each other via the communication server 400. To communicate. That is, communication apparatuses 300A to 300C transmit each user's video (for example, each user's avatar image) to communication server 400, and communication server 400 distributes the received video to communication apparatuses 300A to 300C.

図7は、本実施の形態に係る通信装置300の構成図である。図6に示す通信装置300A〜300Cはすべて図7に示す構成を採る。   FIG. 7 is a configuration diagram of communication apparatus 300 according to the present embodiment. Communication devices 300A to 300C shown in FIG. 6 all have the configuration shown in FIG.

通信装置300において、受信部301は、通信サーバ400から複数の通信相手の映像を受信する。例えば、図6に示す通信装置300Aがネットワークを介したテレビ電話通信を通信装置300B,300Cと行う場合、通信装置300Aの受信部301は、通信相手の通信装置300B,300Cから通信サーバ400を介して送信される2人の通信相手のアバタ画像を受信する。また、受信部301は、複数の通信相手の映像のうち通信サーバ400によって変換された映像を受信する。受信部301は、受信した映像を出力部302に出力する。   In the communication device 300, the receiving unit 301 receives a plurality of communication partner images from the communication server 400. For example, when the communication device 300A illustrated in FIG. 6 performs videophone communication via the network with the communication devices 300B and 300C, the receiving unit 301 of the communication device 300A receives the communication device 300B and 300C from the communication partner via the communication server 400. The avatar images of the two communication partners transmitted are received. In addition, the reception unit 301 receives a video converted by the communication server 400 among a plurality of communication partner videos. The receiving unit 301 outputs the received video to the output unit 302.

出力部302は、受信部301により受信された映像を出力する。本実施の形態では、例えば、出力部302は、映像を表示するディスプレーにより構成される。   The output unit 302 outputs the video received by the receiving unit 301. In the present embodiment, for example, the output unit 302 includes a display that displays an image.

入力部303は、通信装置300のユーザが受信映像により示された複数の通信相手のうちいずれかの通信相手に対する感情を入力するためのものであり、実施の形態1の入力部102と同様、例えば加速度の方向および大きさを検出する加速度センサにより構成され、図2に示すように、通信装置300にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。   The input unit 303 is used by the user of the communication device 300 to input feelings for any one of the plurality of communication partners indicated by the received video, and like the input unit 102 of the first embodiment, For example, it is constituted by an acceleration sensor that detects the direction and magnitude of acceleration, and as shown in FIG. 2, it is possible to detect accelerations in three directions of the X-axis, Y-axis, and Z-axis applied to the communication apparatus 300.

設定部304は、入力部303に入力された、通信装置300のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部304は、実施の形態1の設定部304と同様、図3に示すような、通信装置300のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部304は、設定した感情データを送信部306に出力する。   The setting unit 304 sets emotion data corresponding to the emotion of the user of the communication device 300 input to the input unit 303 with respect to the communication partner. As with setting unit 304 in the first embodiment, setting unit 304 is set in association with the direction and magnitude of acceleration indicating the emotion of the user of communication apparatus 300 and emotion data as shown in FIG. Set emotion data by referring to the table. The setting unit 304 outputs the set emotion data to the transmission unit 306.

なお、本実施の形態においても、実施の形態1同様、入力部303が、加速度の大きさに代えて叩くパターンを検出し、設定部304が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。   Also in the present embodiment, as in the first embodiment, the input unit 303 detects a hitting pattern instead of the magnitude of acceleration, and the setting unit 304 refers to the table shown in FIG. Emotion data may be set according to the direction and the pattern of hitting.

通信相手指定部305は、通信装置300のユーザが受信映像により示された複数の通信相手のうち感情を表したい通信相手を指定するためのものであり、例えば十字キーやテンキー等により構成される。通信装置300のユーザは、例えば十字キーやテンキー等を操作することにより感情を表したい通信相手を指定する。通信相手指定部305は、指定された通信相手を示す通信相手情報を送信部306に出力する。   The communication partner designating unit 305 is used by the user of the communication device 300 to designate a communication partner who wants to express emotion among a plurality of communication partners indicated by the received video, and is configured by, for example, a cross key or a numeric keypad. . A user of the communication device 300 designates a communication partner to express an emotion by operating, for example, a cross key or a numeric keypad. The communication partner specifying unit 305 outputs communication partner information indicating the specified communication partner to the transmission unit 306.

送信部306は、通信相手指定部305から入力される通信相手情報、および、設定部304から入力される感情データ(すなわち、通信相手指定部305により指定された通信相手に対する感情データ)を通信サーバ400に送信する。また、送信部306は、通信装置300のユーザの映像を通信サーバ400に送信する。   The transmission unit 306 transmits the communication partner information input from the communication partner specifying unit 305 and the emotion data input from the setting unit 304 (that is, emotion data for the communication partner specified by the communication partner specifying unit 305) to the communication server. 400. Further, the transmission unit 306 transmits the video of the user of the communication device 300 to the communication server 400.

図8は、本実施の形態に係る通信サーバ400の構成図である。以下、通信サーバ400が図6に示す通信装置300A〜300Cと通信する場合を例に挙げて説明する。   FIG. 8 is a configuration diagram of the communication server 400 according to the present embodiment. Hereinafter, a case where the communication server 400 communicates with the communication devices 300A to 300C illustrated in FIG. 6 will be described as an example.

通信サーバ400において、受信部401は、通信装置300A〜300Cの各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信装置300A〜300Cの各々から受信する。そして、受信部401は、受信した映像を変換部402および送信部403に出力する。また、受信部401は、通信装置300A〜300Cの各々から送信された通信相手情報および感情データを受信し、それらを変換部402に出力するとともに、通信相手情報を送信部403に出力する。   In communication server 400, reception unit 401 receives video (for example, an avatar image of each user) of each user of communication devices 300A to 300C from each of communication devices 300A to 300C. Then, the reception unit 401 outputs the received video to the conversion unit 402 and the transmission unit 403. The receiving unit 401 receives communication partner information and emotion data transmitted from each of the communication devices 300 </ b> A to 300 </ b> C, outputs them to the conversion unit 402, and outputs the communication partner information to the transmission unit 403.

変換部402は、感情データに従って、通信相手情報に示された通信相手の映像を変換する。変換部402は、実施の形態1の変換部104と同様、図3または図5に示すテーブルを参照し、感情データに従って映像を変換する。変換部402は、変換した映像を送信部403に送る。   The conversion unit 402 converts the image of the communication partner indicated in the communication partner information according to the emotion data. Similar to the conversion unit 104 of the first embodiment, the conversion unit 402 refers to the table shown in FIG. 3 or 5 and converts the video according to the emotion data. The conversion unit 402 sends the converted video to the transmission unit 403.

送信部403は、通信装置300A〜300Cの各々のユーザの映像を通信装置300A〜300Cの各々へ送信する。また、送信部403は、変換部402により変換された映像を、通信装置300A〜300Cのうち通信相手情報に示された通信相手以外の通信装置へ送信する。   The transmission unit 403 transmits the video of each user of the communication devices 300A to 300C to each of the communication devices 300A to 300C. The transmission unit 403 transmits the video converted by the conversion unit 402 to a communication device other than the communication partner indicated in the communication partner information among the communication devices 300A to 300C.

ここで、図6に示す通信システムにおいて、例えば通信装置300Aのユーザが通信装置300Cのユーザに対して「怒り」の感情を表す場合、通信装置300Aの送信部306は、通信装置300Cを示す通信相手情報と感情データ:「怒り」とを通信サーバ400へ送信する。   Here, in the communication system illustrated in FIG. 6, for example, when the user of the communication device 300A expresses the feeling of “anger” with respect to the user of the communication device 300C, the transmission unit 306 of the communication device 300A performs communication indicating the communication device 300C. The other party information and emotion data: “anger” is transmitted to the communication server 400.

通信サーバ400の変換部402は、感情データ:「怒り」に従って、通信相手情報に示された通信装置300Cのユーザの映像において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、通信装置300Cのユーザの映像を驚いたような表情の映像に変換する。   The conversion unit 402 of the communication server 400 enlarges the image around the nose in the video of the user of the communication device 300C indicated in the communication partner information according to the emotion data: “anger”, and also displays a nasal breath image and an anger mark. Is converted into an image of a surprised facial expression.

そして、通信サーバ400の送信部403は、通信装置300Cのユーザの変換後の映像を、通信装置300Cには送信せずに、通信装置300Aおよび300Bのみに送信する。よって、通信装置300Cのユーザの映像において、通信装置300Aおよび300Bの出力部302には変換後の映像が新たに表示される一方で、通信装置300Cの出力部302には変換前の映像が引き続き表示される。   Then, the transmission unit 403 of the communication server 400 transmits the converted video of the user of the communication device 300C only to the communication devices 300A and 300B without transmitting to the communication device 300C. Therefore, in the video of the user of the communication device 300C, the converted video is newly displayed on the output unit 302 of the communication devices 300A and 300B, while the video before conversion is continuously displayed on the output unit 302 of the communication device 300C. Is displayed.

このように、本実施の形態によれば、アバタ画像等を用い通信において、通信装置ユーザの感情に応じて変換された通信相手の映像がその通信相手に送信されないため、通信装置ユーザが自分の感情を通信相手に不快感を与えずに直感的に表現することができる。   As described above, according to the present embodiment, in communication using an avatar image or the like, the image of the communication partner converted according to the emotion of the communication device user is not transmitted to the communication partner. Emotions can be expressed intuitively without causing discomfort to the communication partner.

(実施の形態3)
図9は本実施の形態に係る通信装置500の構成図であり、図10は本実施の形態に係る通信サーバ600の構成図である。なお、本実施の形態に係る通信システムは、実施の形態2(図6)と同様、通信サーバ600と、例えば通信装置500A〜500Cの複数の通信装置とから構成され、通信装置500A〜500Cが互いに通信サーバ600を介して通信を行う。また、通信装置500A〜500Cはすべて図9に示す構成を採る。
(Embodiment 3)
FIG. 9 is a configuration diagram of the communication apparatus 500 according to the present embodiment, and FIG. 10 is a configuration diagram of the communication server 600 according to the present embodiment. Note that the communication system according to the present embodiment includes a communication server 600 and a plurality of communication devices, for example, communication devices 500A to 500C, as in the second embodiment (FIG. 6). Communication is performed with each other via the communication server 600. Communication devices 500A to 500C all have the configuration shown in FIG.

通信装置500において、受信部501は、通信サーバ600から複数の通信相手の映像を受信する。例えば、通信装置500Aがネットワークを介したテレビ電話通信を通信装置500B,500Cと行う場合、通信装置500Aの受信部501は、通信相手の通信装置500B,500Cから通信サーバ600を介して送信される2人の通信相手のアバタ画像を受信する。また、受信部501は、受信した通信相手の映像を出力部502に出力する。   In the communication device 500, the receiving unit 501 receives images of a plurality of communication partners from the communication server 600. For example, when the communication device 500A performs videophone communication over the network with the communication devices 500B and 500C, the receiving unit 501 of the communication device 500A is transmitted from the communication devices 500B and 500C as communication partners via the communication server 600. Receive avatar images of two communication partners. In addition, the reception unit 501 outputs the received image of the communication partner to the output unit 502.

出力部502は、受信部501により受信された映像を出力する。本実施の形態では、例えば、出力部502は、映像を表示するディスプレーにより構成される。   The output unit 502 outputs the video received by the receiving unit 501. In the present embodiment, for example, the output unit 502 is configured by a display that displays an image.

入力部503は、通信装置500のユーザが受信映像により示された複数の通信相手のうちいずれかの通信相手に対する感情を入力するためのものであり、実施の形態1の入力部102と同様、例えば加速度の方向および大きさを検出する加速度センサにより構成され、図2に示すように、通信装置500にかかるX軸,Y軸,Z軸の3方向の加速度を検出することができる。   The input unit 503 is for the user of the communication device 500 to input feelings for any one of the plurality of communication partners indicated by the received video, and like the input unit 102 of the first embodiment, For example, it is constituted by an acceleration sensor that detects the direction and magnitude of acceleration, and as shown in FIG. 2, it is possible to detect acceleration in three directions of the X-axis, Y-axis, and Z-axis applied to the communication device 500.

設定部504は、入力部503に入力された、通信装置500のユーザの通信相手に対する感情に対応させて、感情データを設定する。設定部504は、実施の形態1の設定部103と同様、図3に示すような、通信装置500のユーザの感情を示す加速度の方向および大きさと、感情データとが対応付けて設定されているテーブルを参照して感情データを設定する。設定部504は、設定した感情データを送信部505に出力する。   The setting unit 504 sets emotion data corresponding to the emotion of the user of the communication device 500 input to the input unit 503 with respect to the communication partner. As with setting unit 103 in the first embodiment, setting unit 504 is set with the direction and magnitude of acceleration indicating the emotion of the user of communication device 500 and emotion data as shown in FIG. Set emotion data by referring to the table. The setting unit 504 outputs the set emotion data to the transmission unit 505.

なお、本実施の形態においても、実施の形態1同様、入力部503が、加速度の大きさに代えて叩くパターンを検出し、設定部504が、図5に示すテーブルを参照して、加速度の方向および叩くパターンに応じて感情データを設定してもよい。   Also in the present embodiment, as in the first embodiment, the input unit 503 detects a hitting pattern instead of the magnitude of acceleration, and the setting unit 504 refers to the table shown in FIG. Emotion data may be set according to the direction and the pattern of hitting.

送信部505は、設定部504から入力される感情データを通信サーバ600に送信する。また、送信部505は、通信装置500のユーザの映像を通信サーバ600に送信する。   Transmission unit 505 transmits emotion data input from setting unit 504 to communication server 600. In addition, the transmission unit 505 transmits the video of the user of the communication device 500 to the communication server 600.

以下、通信サーバ600が通信装置500A〜500Cと通信する場合を例に挙げて説明する。   Hereinafter, a case where the communication server 600 communicates with the communication devices 500A to 500C will be described as an example.

通信サーバ600において、受信部601は、通信装置500A〜500Cの各々のユーザの映像(例えば、各々のユーザのアバタ画像)を通信装置500A〜500Cの各々から受信する。そして、受信部601は、受信した映像を変換部602および送信部603に出力する。また、受信部601は、通信装置500A〜500Cの各々から送信された感情データを受信して変換部602に出力する。   In communication server 600, reception unit 601 receives video of each user of communication devices 500A to 500C (for example, an avatar image of each user) from each of communication devices 500A to 500C. Then, the reception unit 601 outputs the received video to the conversion unit 602 and the transmission unit 603. The receiving unit 601 receives emotion data transmitted from each of the communication devices 500 </ b> A to 500 </ b> C and outputs the emotion data to the converting unit 602.

特定部604は、受信された映像または通信装置500A〜500Cへの入力音声を解析して感情データの対象となる通信相手を特定する。例えば、特定部604は、通信装置500A〜500Cへ入力される各ユーザの声の大きさ(音量)を検出し、通信中の現在の音量が所定の閾値以上のユーザを現在の発言者、すなわち、感情データの対象となる通信相手として特定する。特定部604は、特定した通信相手を示す通信相手情報を変換部602および送信部603に出力する。   The identifying unit 604 identifies the communication partner that is the target of emotion data by analyzing the received video or audio input to the communication devices 500A to 500C. For example, the identifying unit 604 detects the loudness (volume) of each user's voice input to the communication devices 500A to 500C, and designates a user whose current volume during communication is a predetermined threshold or more as a current speaker, Identify the communication partner that is the target of emotion data. The identification unit 604 outputs communication partner information indicating the identified communication partner to the conversion unit 602 and the transmission unit 603.

変換部602は、感情データに従って、通信相手情報に示された通信相手の映像を変換する。変換部602は、実施の形態1の変換部104と同様、図3または図5に示すテーブルを参照し、感情データに従って映像を変換する。変換部602は、変換した映像を送信部603に送る。   The conversion unit 602 converts the image of the communication partner indicated in the communication partner information according to the emotion data. Similar to the conversion unit 104 of the first embodiment, the conversion unit 602 refers to the table shown in FIG. 3 or 5 and converts the video according to the emotion data. The conversion unit 602 sends the converted video to the transmission unit 603.

送信部603は、通信装置500A〜500Cの各々のユーザの映像を通信装置500A〜500Cの各々へ送信する。また、送信部603は、変換部602により変換された映像を、通信装置500A〜500Cのうち通信相手情報に示された通信相手以外の通信装置へ送信する。   The transmission unit 603 transmits the video of each user of the communication devices 500A to 500C to each of the communication devices 500A to 500C. The transmission unit 603 transmits the video converted by the conversion unit 602 to a communication device other than the communication partner indicated in the communication partner information among the communication devices 500A to 500C.

ここで、例えば通信装置500Aのユーザが通信装置500Cのユーザに対して「怒り」の感情を表す場合、通信装置500Cのユーザの発言中に通信装置500Aの送信部505は、感情データ:「怒り」を通信サーバ600へ送信する。   Here, for example, when the user of the communication device 500A expresses the feeling of “anger” with respect to the user of the communication device 500C, the transmission unit 505 of the communication device 500A displays the emotion data: “anger” while the user of the communication device 500C speaks. Is transmitted to the communication server 600.

通信サーバ600の特定部604は、通信中の現在の音量が所定の閾値以上となる通信装置500Cのユーザを現在の発言者、すなわち、感情データの対象となる通信相手として特定し、通信装置500Cを示す通信相手情報を変換部602および送信部603に出力する。   The specifying unit 604 of the communication server 600 specifies the user of the communication device 500C whose current volume during communication is equal to or greater than a predetermined threshold as the current speaker, that is, the communication partner that is the target of emotion data, and the communication device 500C. Is output to the conversion unit 602 and the transmission unit 603.

通信サーバ600の変換部602は、感情データ:「怒り」に従って、通信相手情報に示された通信装置500Cのユーザの映像において鼻の周囲の画像を拡大するとともに、鼻息の画像および怒りを示すマークを合成することにより、通信装置500Cのユーザの映像を驚いたような表情の映像に変換する。   The conversion unit 602 of the communication server 600 enlarges an image around the nose in the video of the user of the communication device 500C indicated in the communication partner information in accordance with emotion data: “anger”, and also displays a nose breath image and an anger mark. Is converted into an image of a surprised facial expression.

そして、通信サーバ600の送信部603は、通信装置500Cのユーザの変換後の映像を、通信装置500Cには送信せずに、通信装置500Aおよび500Bのみに送信する。よって、通信装置500Cのユーザの映像において、通信装置500Aおよび500Bの出力部502には変換後の映像が新たに表示される一方で、通信装置500Cの出力部502には変換前の映像が引き続き表示される。   Then, the transmission unit 603 of the communication server 600 transmits the converted video of the user of the communication device 500C only to the communication devices 500A and 500B without transmitting to the communication device 500C. Therefore, in the video of the user of the communication device 500C, the converted video is newly displayed on the output unit 502 of the communication devices 500A and 500B, while the video before conversion is continuously displayed on the output unit 502 of the communication device 500C. Is displayed.

このように、本実施の形態によれば、通信サーバが受信映像または各通信装置への入力音声を解析して感情データの対象となる通信相手を特定するため、各通信装置のユーザは、感情を表したい通信相手を指定する手間が省ける。   Thus, according to the present embodiment, since the communication server analyzes the received video or the input voice to each communication device and identifies the communication partner that is the target of emotion data, the user of each communication device This saves you the trouble of specifying the communication partner you want to represent.

以上、本発明の実施の形態について説明した。   The embodiment of the present invention has been described above.

なお、実施の形態1〜3においては感情データに従って通信装置のユーザの映像を変換していたが、本発明では、感情データに従って通信装置のユーザの音声を変換しても良い。例えば、変換部104,402,602は、「怒り」の感情データが入力された場合は音声の波形を歪ませて音声を震わせ、「悲しみ」の感情データが入力された場合は音声の高さを2オクターブ上げ、「同意」の感情データが入力された場合は音声にエコーをかけて音声を響かせ、「反対」の感情データが入力された場合は音声の速度を下げてゆっくりした低い音声にする等する。   In the first to third embodiments, the video of the user of the communication device is converted according to the emotion data. However, in the present invention, the voice of the user of the communication device may be converted according to the emotion data. For example, the converters 104, 402, and 602 distort the voice waveform to shake the voice when “anger” emotion data is input, and adjust the voice pitch when “sadness” emotion data is input. Is increased by 2 octaves. When emotion data of “agreement” is input, the voice is echoed and the sound is echoed. When emotion data of “opposite” is input, the voice speed is reduced to a slower low voice. To do.

本発明は、チャットなどが行われる通信システムに有用である。   The present invention is useful for a communication system in which chat or the like is performed.

100,300,500 通信装置
101,301,401,501,601 受信部
102,303,503 入力部
103,304,504 設定部
104,402,602 変換部
105,302,502 出力部
305 通信相手指定部
306,403,505,603 送信部
400,600 通信サーバ
604 特定部
100, 300, 500 Communication device 101, 301, 401, 501, 601 Receiving unit 102, 303, 503 Input unit 103, 304, 504 Setting unit 104, 402, 602 Conversion unit 105, 302, 502 Output unit 305 Communication partner designation Units 306, 403, 505, 603 Transmission unit 400, 600 Communication server 604 Identification unit

Claims (7)

通信相手の映像または音声を受信する受信手段と、
前記通信相手に対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
前記感情データに従い、前記映像または前記音声を変換する変換手段と、
を具備する通信装置。
Receiving means for receiving the video or audio of the communication partner;
Input means for inputting emotions to the communication partner;
Setting means for setting emotion data corresponding to the emotion;
Conversion means for converting the video or the sound according to the emotion data;
A communication apparatus comprising:
複数の通信相手の映像または音声を受信する受信手段と、
前記複数の通信相手のうち感情を表したい通信相手を指定するための指定手段と、
指定された通信相手に対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
指定された通信相手を示す通信相手情報および指定された通信相手に対する前記感情データを通信サーバに送信する送信手段と、
を具備する通信装置。
Receiving means for receiving video or audio of a plurality of communication partners;
A designation means for designating a communication partner of the plurality of communication partners who wants to express emotion;
An input means for inputting emotions for a specified communication partner;
Setting means for setting emotion data corresponding to the emotion;
Transmission means for transmitting communication partner information indicating a specified communication partner and the emotion data for the specified communication partner to a communication server;
A communication apparatus comprising:
複数の通信相手の映像または音声を受信する受信手段と、
前記複数の通信相手のいずれかに対する感情を入力するための入力手段と、
前記感情に対応する感情データを設定する設定手段と、
前記複数の通信相手のいずれかに対する前記感情データを通信サーバに送信する送信手段と、
を具備する通信装置。
Receiving means for receiving video or audio of a plurality of communication partners;
Input means for inputting emotions to any of the plurality of communication partners;
Setting means for setting emotion data corresponding to the emotion;
Transmitting means for transmitting the emotion data for any of the plurality of communication partners to a communication server;
A communication apparatus comprising:
前記入力手段が、加速度センサーである、
請求項1から3のいずれかに記載の通信装置。
The input means is an acceleration sensor;
The communication apparatus according to claim 1.
請求項2記載の通信装置から前記通信相手情報および前記感情データを受信する受信手段と、
前記感情データに従い、前記複数の通信相手のうち前記通信相手情報に示された通信相手の映像または音声を変換する変換手段と、
変換された映像または音声を前記複数の通信相手のうち前記通信相手情報に示された通信相手以外の通信相手へ送信する送信手段と、
を具備する通信サーバ。
Receiving means for receiving the communication partner information and the emotion data from the communication device according to claim 2;
According to the emotion data, conversion means for converting the video or audio of the communication partner indicated in the communication partner information among the plurality of communication partners,
Transmitting means for transmitting the converted video or audio to a communication partner other than the communication partner indicated in the communication partner information among the plurality of communication partners;
A communication server comprising:
請求項3記載の通信装置から前記感情データを受信する受信手段と、
前記感情データの対象となる通信相手を特定する特定手段と、
前記感情データに従い、前記複数の通信相手のうち特定された通信相手の映像または音声を変換する変換手段と、
変換された映像または音声を前記複数の通信相手のうち特定された通信相手以外の通信相手へ送信する送信手段と、
を具備する通信サーバ。
Receiving means for receiving the emotion data from the communication device according to claim 3;
A specifying means for specifying a communication partner as a target of the emotion data;
According to the emotion data, conversion means for converting video or audio of the specified communication partner among the plurality of communication partners,
Transmitting means for transmitting the converted video or audio to a communication partner other than the specified communication partner among the plurality of communication partners;
A communication server comprising:
前記特定手段は、受信された映像または音声を解析して前記感情データの対象となる通信相手を特定する、
請求項6記載の通信サーバ。
The identifying means analyzes the received video or audio to identify a communication partner as a target of the emotion data;
The communication server according to claim 6.
JP2010008148A 2010-01-18 2010-01-18 Communication apparatus and communication server Pending JP2011147070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010008148A JP2011147070A (en) 2010-01-18 2010-01-18 Communication apparatus and communication server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010008148A JP2011147070A (en) 2010-01-18 2010-01-18 Communication apparatus and communication server

Publications (1)

Publication Number Publication Date
JP2011147070A true JP2011147070A (en) 2011-07-28

Family

ID=44461497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010008148A Pending JP2011147070A (en) 2010-01-18 2010-01-18 Communication apparatus and communication server

Country Status (1)

Country Link
JP (1) JP2011147070A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010449A (en) * 2013-05-22 2016-01-27 알리바바 그룹 홀딩 리미티드 Method, user terminal and server for information exchange communications

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244425A (en) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same
JP2004072310A (en) * 2002-08-05 2004-03-04 Matsushita Electric Ind Co Ltd Tv telephone system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244425A (en) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same
JP2004072310A (en) * 2002-08-05 2004-03-04 Matsushita Electric Ind Co Ltd Tv telephone system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010449A (en) * 2013-05-22 2016-01-27 알리바바 그룹 홀딩 리미티드 Method, user terminal and server for information exchange communications
JP2016521929A (en) * 2013-05-22 2016-07-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method, user terminal, and server for information exchange in communication
KR102173479B1 (en) * 2013-05-22 2020-11-04 알리바바 그룹 홀딩 리미티드 Method, user terminal and server for information exchange communications

Similar Documents

Publication Publication Date Title
US10218852B2 (en) Methods and systems for providing teleconference participant quality feedback
WO2017130486A1 (en) Information processing device, information processing method, and program
JP5338350B2 (en) Information processing apparatus and voice correction program
JP2014099854A (en) System and method for providing social network service
JP2006302047A (en) Meeting-supporting program, meeting-supporting device, and meeting-supporting method
JP2006262010A (en) Remote conference/education system
JP2014110558A (en) Information processing device, information processing system, and program
WO2018158852A1 (en) Telephone call system and communication system
JP2000184345A (en) Multi-modal communication aid device
US8937635B2 (en) Device, method and system for real-time screen interaction in video communication
JP6969577B2 (en) Information processing equipment, information processing methods, and programs
JP6543891B2 (en) Communication aid device, communication aid system, communication aid method and program
WO2018185988A1 (en) Information processing system and storage medium
JP2011147070A (en) Communication apparatus and communication server
WO2023175704A1 (en) Online conference system, method for controlling online conference system, and program
US9110511B2 (en) Method for capturing and transmitting motion data
JP4632132B2 (en) Language learning system
JP5529617B2 (en) Remote conference apparatus, remote conference method, and remote conference program
JP5613102B2 (en) CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM
WO2014208169A1 (en) Information processing device, control method, program, and recording medium
JP2021086474A (en) Avatar control system
US20240339116A1 (en) Mitigating Speech Collision by Predicting Speaking Intent for Participants
WO2017187674A1 (en) Information processing device, information processing system, and program
JP2004171356A (en) Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon
US11935557B2 (en) Techniques for detecting and processing domain-specific terminology

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120417