JP2002032306A - Mail transmission system - Google Patents

Mail transmission system

Info

Publication number
JP2002032306A
JP2002032306A JP2000218416A JP2000218416A JP2002032306A JP 2002032306 A JP2002032306 A JP 2002032306A JP 2000218416 A JP2000218416 A JP 2000218416A JP 2000218416 A JP2000218416 A JP 2000218416A JP 2002032306 A JP2002032306 A JP 2002032306A
Authority
JP
Japan
Prior art keywords
phrase
control information
emotion
sentence
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000218416A
Other languages
Japanese (ja)
Inventor
Naoko Tosa
尚子 土佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP2000218416A priority Critical patent/JP2002032306A/en
Publication of JP2002032306A publication Critical patent/JP2002032306A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately transmit the feeling of a person preparing, to a destination due to character movements and the melody change of a BGM. SOLUTION: When a passage is prepared, a phrase showing feelings is detected from the prepared passage, and movement control information and melody control information related to the detected phrase are generated. The generated movement control information and melody control information are assigned to the phrase. When the passage with the movement control information and the melody control information assigned thereto is transmitted to the destination, the passage and characters are displayed on the display 22 of the destination, the BGM is outputted from a loudspeaker 26 and the reading of the passage is started. The character movement and the BGM melody change, according to the movement control information and the melody control information, when the phrase showing the feelings are read.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、メール伝送システム
に関し、特にたとえば、任意に作成された文章を含むメ
ールを伝送路を介して宛先に伝送する、メール伝送シス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mail transmission system and, more particularly, to a mail transmission system for transmitting a mail including an arbitrarily created text to a destination via a transmission path.

【0002】[0002]

【従来の技術】従来のこの種のメール伝送システムで
は、単に文章だけが宛先のディスプレイに表示されてい
た。
2. Description of the Related Art In a conventional mail transmission system of this type, only a sentence is simply displayed on a destination display.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来技術では
文章の作成者の感情が文字にしか現れず、作成者の気持
ちが宛先(相手方)に正確に伝わらないおそれがあっ
た。
However, in the prior art, the sentiment of the creator of the text appears only in the characters, and the creator's feeling may not be accurately transmitted to the destination (the other party).

【0004】それゆえに、この発明の主たる目的は、作
成者の気持ちを相手方に正確に伝えることができる、メ
ール伝送システムを提供することである。
[0004] Therefore, a main object of the present invention is to provide a mail transmission system that can accurately convey the creator's feelings to the other party.

【0005】[0005]

【課題を解決するための手段】第1の発明は、宛先のデ
ィスプレイに表示される文章を作成する文章作成手段、
文章から感情を示すフレーズを検出する検出手段、宛先
のディスプレイに表示されるキャラクタの動きを制御す
る動き制御情報をフレーズに基づいて生成する生成手
段、動き制御情報をフレーズに割り当てる第1割り当て
手段、および文章および動き制御情報を含むメールを伝
送路を介して宛先に伝送する伝送手段を備える、メール
伝送システムである。
According to a first aspect of the present invention, there is provided a sentence creating means for creating a sentence displayed on a display of a destination.
Detecting means for detecting a phrase indicating an emotion from a sentence, generating means for generating, based on the phrase, motion control information for controlling the movement of a character displayed on the display of the destination, first allocating means for allocating the motion control information to the phrase, A mail transmission system including transmission means for transmitting a mail including text and motion control information to a destination via a transmission path.

【0006】第2の発明は、宛先のディスプレイに表示
される文章を作成する文章作成手段、文章から感情を示
すフレーズを検出する検出手段、宛先のスピーカから出
力される音楽の曲調を制御する曲調制御情報をフレーズ
に基づいて生成する生成手段、曲調制御情報をフレーズ
に割り当てる割り当て手段、および文章および曲調制御
情報を含むメールを伝送路を介して宛先に伝送する伝送
手段を備える、メール伝送システムである。
A second invention is a sentence creating means for creating a sentence displayed on a display of a destination, a detecting means for detecting a phrase indicating an emotion from the sentence, and a tune for controlling the tune of music output from a speaker of the destination. A mail transmission system comprising: a generation unit that generates control information based on a phrase; an allocation unit that allocates tune control information to a phrase; and a transmission unit that transmits a mail including text and tune control information to a destination via a transmission path. is there.

【0007】第3の発明は、宛先のディスプレイに表示
される文章を作成する手順、文章から感情を示すフレー
ズを検出する手順、ディスプレイに表示されるキャラク
タの動きを制御する動き制御情報をフレーズに基づいて
生成する手順、動き制御情報をフレーズに割り当てる手
順、および文章および動き制御情報を含むメールを伝送
路を介して宛先に伝送する手順をコンピュータに実行さ
せるプログラムを記録した、コンピュータ読み取り可能
な記録媒体である。
According to a third aspect of the present invention, there is provided a procedure for creating a sentence displayed on a destination display, a procedure for detecting a phrase indicating an emotion from the sentence, and converting motion control information for controlling the movement of a character displayed on the display into a phrase. Computer-readable recording which records a program for causing a computer to execute a procedure of generating based on the above, a procedure of assigning motion control information to a phrase, and a procedure of transmitting a mail including text and motion control information to a destination via a transmission path. Medium.

【0008】第4の発明は、宛先のディスプレイに表示
される文章を作成する手順、文章から感情を示すフレー
ズを検出する手順、宛先のスピーカから出力される音楽
の曲調を制御する曲調制御情報をフレーズに基づいて生
成する手順、曲調制御情報をフレーズに割り当てる手
順、および文章および曲調制御情報を含むメールを伝送
路を介して宛先に伝送する手順をコンピュータに実行さ
せるプログラムを記録した、コンピュータ読み取り可能
な記録媒体である。
According to a fourth aspect of the present invention, there is provided a procedure for creating a sentence displayed on a destination display, a procedure for detecting a phrase indicating an emotion from a sentence, and music tone control information for controlling the tone of music output from a speaker of a destination. Computer readable recording a program for causing a computer to execute a procedure for generating based on a phrase, a procedure for assigning tune control information to a phrase, and a procedure for transmitting a mail including text and tune control information to a destination via a transmission path Recording medium.

【0009】[0009]

【作用】第1の発明では、宛先のディスプレイに表示さ
れる文章が文章作成手段によって作成されると、フレー
ズ検出手段が、作成された文章から感情を示すフレーズ
を検出する。生成手段は、宛先のディスプレイに表示さ
れるキャラクタの動きを制御する動き制御情報を検出さ
れたフレーズに基づいて生成し、生成された動き制御情
報は、第1割り当て手段によって上記のフレーズに割り
当てられる。伝送手段は、文章および動き制御情報を含
むメールを伝送路を介して宛先に伝送する。このため、
作成者の気持ちは、文章およびキャラクタの動きによっ
て宛先に伝えられる。
In the first invention, when a sentence displayed on the display of the destination is created by the sentence creating means, the phrase detecting means detects a phrase indicating an emotion from the created sentence. The generation means generates movement control information for controlling the movement of the character displayed on the display of the destination based on the detected phrase, and the generated movement control information is allocated to the above-mentioned phrase by the first allocation means. . The transmission means transmits the mail including the text and the motion control information to the destination via the transmission path. For this reason,
The creator's feelings are conveyed to the destination by sentences and character movements.

【0010】この発明のある例では、フレーズが持つ感
情の種類が判別手段によって判別される。このとき、生
成手段は判別された感情の種類に対応する動き制御情報
を生成する。
In one embodiment of the present invention, the type of emotion of the phrase is determined by the determining means. At this time, the generation unit generates motion control information corresponding to the determined type of emotion.

【0011】この発明の他の例では、動き制御情報は、
好ましくは、キャラクタの顔の表情を制御する顔表情制
御情報、およびキャラクタの振る舞いを制御する振る舞
い制御情報の少なくとも一方を含む。このため、宛先の
ディスプレイに表示されるキャラクタは、顔表情制御情
報に応じた表情を現すとともに、振る舞い制御情報に応
じた振る舞いをする。
In another embodiment of the present invention, the motion control information comprises:
Preferably, the information includes at least one of facial expression control information for controlling the facial expression of the character and behavior control information for controlling the behavior of the character. For this reason, the character displayed on the display of the destination expresses a facial expression according to the facial expression control information and behaves according to the behavior control information.

【0012】この発明のその他の例では、過去における
フレーズの使用頻度が使用頻度検出手段によって検出さ
れる。動き制御情報は、検出された使用頻度に応じて第
1補正手段によって補正される。ここで、第1補正手段
は、好ましくは、キャラクタの動きの程度が大きくなる
ように動き制御情報を補正する。
In another embodiment of the present invention, the frequency of use of the phrase in the past is detected by the use frequency detecting means. The motion control information is corrected by the first correction unit according to the detected use frequency. Here, the first correction means preferably corrects the movement control information so that the degree of movement of the character is increased.

【0013】この発明のさらにその他の例では、感情を
示すフレーズを修飾するフレーズが、修飾フレーズ検出
手段によって検出される。動き制御情報は、検出された
修飾フレーズに応じて第2補正手段によって補正され
る。ここで、第2補正手段は、好ましくはキャラクタの
動きの程度が大きくなるように動き制御情報を補正す
る。
In still another example of the present invention, a phrase that modifies a phrase indicating an emotion is detected by a modified phrase detecting unit. The motion control information is corrected by the second correction unit according to the detected decoration phrase. Here, the second correction means preferably corrects the movement control information so that the degree of movement of the character is increased.

【0014】この発明のさらにその他の例では、指定手
段によって文章に含まれる任意のフレーズを指定でき、
第3割り当て手段によって任意の動き制御情報をこのフ
レーズに割り当てることができる。
In still another example of the present invention, an arbitrary phrase included in a sentence can be specified by the specifying means,
Arbitrary motion control information can be assigned to this phrase by the third assigning means.

【0015】第2の発明では、宛先のディスプレイに表
示される文章を作成すると、この文章に含まれるかつ感
情を示すフレーズが検出手段によって検出される。生成
手段は、宛先のスピーカから出力される音楽の曲調を制
御する曲調制御情報を検出されたフレーズに基づいて生
成し、生成された曲調制御情報は、割り当て手段によっ
てこのフレーズに割り当てられる。伝送手段は、文章お
よび曲調制御情報を含むメールを伝送路を介して宛先に
伝送する。このため、作成者の気持ちは、文章および音
楽によって宛先に伝えられる。
In the second invention, when a sentence displayed on the display of the destination is created, a phrase included in the sentence and indicating an emotion is detected by the detecting means. The generating means generates tune control information for controlling the tune of the music output from the destination speaker based on the detected phrase, and the generated tune control information is assigned to the phrase by the assigning means. The transmission means transmits the mail including the text and the tune control information to the destination via the transmission path. Thus, the creator's feelings are conveyed to the destination by text and music.

【0016】第3の発明では、宛先のディスプレイに表
示される文章を作成すると、この文章から感情を示すフ
レーズが検出される。フレーズが検出されると、宛先の
ディスプレイに表示されるキャラクタの動き制御情報が
検出されたフレーズに基づいて生成され、生成された動
き制御情報がこのフレーズに割り当てられる。文章およ
び動き制御情報はメールに納められ、伝送路を介して宛
先に伝送される。このような手順をコンピュータに実行
させるプログラムが、コンピュータ読み取り可能な記録
媒体に記録される。
In the third invention, when a sentence displayed on the display of the destination is created, a phrase indicating an emotion is detected from the sentence. When the phrase is detected, the motion control information of the character displayed on the destination display is generated based on the detected phrase, and the generated motion control information is assigned to the phrase. The text and the motion control information are stored in the mail and transmitted to the destination via the transmission path. A program that causes a computer to execute such a procedure is recorded on a computer-readable recording medium.

【0017】第4の発明では、宛先のディスプレイに表
示される文章を作成すると、この文章から感情を示すフ
レーズが検出される。フレーズが検出されると、宛先の
スピーカから出力される音楽の曲調制御情報が検出され
たフレーズに基づいて生成され、生成された曲調制御情
報がこのフレーズに割り当てられる。文章および曲調制
御情報はメールに納められ、伝送路を介して宛先に伝送
される。このような手順をコンピュータに実行させるプ
ログラムが、コンピュータ読み取り可能な記録媒体に記
録される。
In the fourth invention, when a sentence displayed on the display of the destination is created, a phrase indicating an emotion is detected from the sentence. When a phrase is detected, tune control information of music output from the destination speaker is generated based on the detected phrase, and the generated tune control information is assigned to this phrase. The text and tune control information are stored in the mail and transmitted to the destination via the transmission path. A program that causes a computer to execute such a procedure is recorded on a computer-readable recording medium.

【0018】[0018]

【発明の効果】第1および第3の発明によれば、文章に
含まれる感情フレーズにキャラクタの動き制御情報が割
り当てられ、作成者の気持ちは、文章およびキャラクタ
の動きを通して宛先に伝えられる。つまり、作成者の気
持ちが正確に相手方に伝えられる。
According to the first and third aspects of the present invention, character motion control information is assigned to the emotion phrase included in the text, and the creator's feeling is transmitted to the destination through the text and the character's motion. That is, the creator's feelings can be accurately conveyed to the other party.

【0019】第2および第4の発明によれば、文章に含
まれる感情フレーズに音楽の曲調制御情報が割り当てら
れる。このため、作成者の気持ちは、文章および音楽を
通して宛先に正確に伝えられる。
According to the second and fourth aspects of the present invention, musical tone control information is assigned to emotional phrases included in a sentence. Thus, the creator's feelings are accurately conveyed to the destination through text and music.

【0020】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0021】[0021]

【実施例】図1を参照して、この実施例のメーリング装
置10は、インターネット100を介して他のメーリン
グ装置10と接続される。各々のメーリング装置10
は、図2に示すようにCPU12を含む。CPU12
は、バス18によってメモリ14およびディスクドライ
ブ16と接続されるとともに、バス18およびI/F回
路20を介してディスプレイ22,キーボード24,ス
ピーカ26,マウス28およびインターネット100と
接続される。
Referring to FIG. 1, a mailing apparatus 10 of this embodiment is connected to another mailing apparatus 10 via the Internet 100. Each mailing device 10
Includes a CPU 12 as shown in FIG. CPU 12
Is connected to the memory 14 and the disk drive 16 by a bus 18, and is connected to a display 22, a keyboard 24, a speaker 26, a mouse 28, and the Internet 100 via the bus 18 and an I / F circuit 20.

【0022】ディスクドライブ16は、CPU12から
の命令に応答してCD−ROMのような記録媒体30に
アクセスし、これに記録されたメーリングソフト(メー
リングプログラム)をメモリ14にインストールする。
インストールされたメーリングソフトは、文章に加えて
所定のキャラクタを宛先のディスプレイ22に表示し、
かつ宛先のスピーカ26から所定のBGMを出力する機
能を持っている。オペレータがメール文章を作成する
と、作成された文章データから感情フレーズデータが検
出され、検出された感情フレーズデータにキャラクタの
動き制御情報およびBGMの曲調制御情報が割り当てら
れる。このため、宛先に発信されるメールには、文章デ
ータに加えてキャラクタの動き制御情報およびBGMの
曲調制御情報が含まれる。なお、動き制御情報は、キャ
ラクタの顔の表情を制御する顔表情制御情報と、キャラ
クタの振る舞いを制御する振る舞い制御情報とからな
る。
The disk drive 16 accesses a recording medium 30 such as a CD-ROM in response to a command from the CPU 12 and installs mailing software (mailing program) recorded on the recording medium 30 in the memory 14.
The installed mailing software displays a predetermined character in addition to the text on the display 22 of the destination,
In addition, it has a function of outputting a predetermined BGM from the destination speaker 26. When the operator creates a mail text, emotion phrase data is detected from the generated text data, and character movement control information and BGM tune control information are assigned to the detected emotion phrase data. For this reason, the mail transmitted to the destination includes character motion control information and BGM tune control information in addition to the text data. Note that the motion control information includes face expression control information for controlling the facial expression of the character, and behavior control information for controlling the behavior of the character.

【0023】発信されたメールは、インターネット10
0を通じて宛先のメーリング装置10に到達する。受信
側のメモリ14にもまた上述のメーリングソフトがイン
ストールされており、受信側のCPU12は、このメー
リングソフトに従って受信メールに関連する情報をディ
スプレイ22およびスピーカ26から出力する。具体的
には、受信した文章データに対応する文章、ならびにメ
ーリングソフトのインストールによってメモリ14に用
意されたキャラクタデータに対応するキャラクタをディ
スプレイ22に表示し、メーリングソフトのインストー
ルによってメモリ14に用意されたBGMデータに対応
するBGMをスピーカ26から出力する。
The transmitted mail is sent to the Internet 10
0 reaches the destination mailing apparatus 10. The above-described mailing software is also installed in the memory 14 on the receiving side, and the CPU 12 on the receiving side outputs information related to the received mail from the display 22 and the speaker 26 according to the mailing software. Specifically, the sentence corresponding to the received sentence data and the character corresponding to the character data prepared in the memory 14 by the installation of the mailing software are displayed on the display 22, and are prepared in the memory 14 by the installation of the mailing software. The BGM corresponding to the BGM data is output from the speaker 26.

【0024】さらに、ディスプレイ22に表示された文
章を朗読する音声をスピーカ26から出力する。ここ
で、感情フレーズが朗読されるときは、この感情フレー
ズに割り当てられた顔表情制御情報,振る舞い制御情報
および曲調制御情報に従って、キャラクタの表情および
振る舞いとBGMの曲調とが変更される。つまり、朗読
される感情フレーズがたとえば“うれしー”のような喜
びを表すフレーズであれば、キャラクタが笑顔で手のひ
らを見せるとともに、BGMが明るい曲調に変更され
る。
Further, a voice for reading the sentence displayed on the display 22 is output from the speaker 26. Here, when the emotion phrase is read, the expression and behavior of the character and the tune of the BGM are changed according to the facial expression control information, the behavior control information, and the melody control information assigned to the emotion phrase. In other words, if the emotion phrase to be read is a phrase that expresses joy, such as, for example, “joy”, the character shows a palm with a smile and the BGM is changed to a bright tune.

【0025】メモリ14には、メーリングソフトのイン
ストールによって図3に示すデフォルト感情フレーズテ
ーブル14aが形成される。デフォルト感情テーブル1
4aは、たとえば10種類の感情(感謝,おわび,哀し
み,親しみ,怒り,からかい,愛想つかし,驚き,怖
れ,喜び)に分類され、各分類には関連するデフォルト
感情フレーズが設定される。デフォルト感情フレーズは
いずれのオペレータも使用すると思われるフレーズであ
り、複数フレーズが当初から用意されている。各々のデ
フォルト感情フレーズには、顔表情制御情報であるパラ
メータXおよびY、振る舞い制御情報であるパラメータ
α、曲調制御情報であるパラメータβ、メール作成時に
使用されたトータルの使用回数、ならびに過去1週間に
おいてメール作成時に使用された回数が割り当てられ
る。
A default emotion phrase table 14a shown in FIG. 3 is formed in the memory 14 by installing mailing software. Default emotion table 1
4a is classified into, for example, ten kinds of emotions (appreciation, abduction, sorrow, friendship, anger, teasing, affection, surprise, fear, and joy), and a related default emotion phrase is set for each classification. The default emotion phrase is a phrase that any operator would use, and a plurality of phrases are prepared from the beginning. Each of the default emotion phrases includes parameters X and Y, which are face expression control information, a parameter α, which is behavior control information, a parameter β, which is tune control information, the total number of times used when creating the mail, and the past one week. Is assigned the number of times used when creating the mail.

【0026】キャラクタの顔の表情を決定するパラメー
タXおよびYのうち、Xは感情の快・不快を示し、Yは
感情の強弱を示す。メモリ14には、メーリングソフト
のインストールによって図5に示すようなXを横軸とし
Yを縦軸とするパラメータシート14cが形成される。
上述の10種類の感情は、パラメータシート14c上に
同図に示す要領で分布する。つまり、“喜び”,“驚
き”および“感謝”は第1象限に分布し、“おわび”,
“怒り”および“愛想つかし”は第2象限に分布する。
また、“哀しみ”は第3象限に分布し、“怖れ”,“か
らかい”および“親しみ”は第4象限に分布する。
Of the parameters X and Y for determining the facial expression of the character, X indicates the pleasantness or discomfort of the emotion, and Y indicates the strength of the emotion. A parameter sheet 14c having X as the horizontal axis and Y as the vertical axis as shown in FIG. 5 is formed in the memory 14 by installing the mailing software.
The above ten kinds of emotions are distributed on the parameter sheet 14c in the manner shown in FIG. In other words, “joy”, “surprise” and “thank” are distributed in the first quadrant,
“Angry” and “Lovely” are distributed in the second quadrant.
“Sorrow” is distributed in the third quadrant, and “fear”, “teasing” and “friendship” are distributed in the fourth quadrant.

【0027】図3に示す各々のデフォルト感情フレーズ
に割り当てられたパラメータXおよびYは、このパラメ
ータシート14c上の感情分布の範囲に含まれる座標値
を示す。たとえば、“ありがとう”は感謝を示す感情フ
レーズであるため、この感情フレーズに割り当てられる
パラメータXおよびYは、たとえば“2”および“7”
となる。また、“こらー”は怒りを示す感情フレーズで
あるため、この感情フレーズに割り当てられるパラメー
タXおよびYは、たとえば“−9”および“9”とな
る。(X,Y)=(2,7)のパラメータが割り当てら
れた感情フレーズが宛先で朗読されるとき、キャラクタ
の顔は感謝の表情を現す。また、(X,Y)=(−9,
9)のパラメータが割り当てられた感情フレーズが宛先
で朗読されるとき、キャラクタの顔は怒りの表情を現
す。
The parameters X and Y assigned to each default emotion phrase shown in FIG. 3 indicate coordinate values included in the range of the emotion distribution on the parameter sheet 14c. For example, since "thank you" is an emotion phrase indicating appreciation, parameters X and Y assigned to this emotion phrase are, for example, "2" and "7".
Becomes In addition, since “collar” is an emotion phrase indicating anger, parameters X and Y assigned to this emotion phrase are, for example, “−9” and “9”. When the emotion phrase to which the parameter (X, Y) = (2, 7) is assigned is read at the destination, the character's face shows a gratitude expression. Also, (X, Y) = (− 9,
When the emotion phrase to which the parameter of 9) is assigned is read aloud at the destination, the face of the character shows an expression of anger.

【0028】キャラクタの振る舞い(アニメーション)
を決定するパラメータαは、2桁の数字で表される。メ
モリ14には、メーリングソフトのインストールによっ
て図6に示すアニメーションテーブル14dが形成され
る。図6によれば、このテーブル14dもまた10種類
の感情に分類され、各々のカテゴリには感情の程度を示
すレベル1〜3が割り当てられる。パラメータαを表す
2桁の数字の上位桁が感情のカテゴリを示し、下位桁が
感情の程度(レベル)を示す。
Character behavior (animation)
Is determined by a two-digit number. An animation table 14d shown in FIG. 6 is formed in the memory 14 by installing mailing software. According to FIG. 6, this table 14d is also classified into ten kinds of emotions, and each category is assigned a level 1 to 3 indicating the degree of emotion. The upper digit of the two-digit number representing the parameter α indicates the emotion category, and the lower digit indicates the degree of emotion (level).

【0029】図3に戻って、たとえば“こらー”は怒り
を示す感情フレーズであり、これに割り当てられたパラ
メータαは“43”である。このα=43のパラメータ
が割り当てられた感情フレーズが朗読されるとき、キャ
ラクタはかなり怒った振る舞いをする。また、“うれし
ー”は喜びを示す感情フレーズであり、これに割り当て
られたパラメータαは“92”である。このα=92の
パラメータが割り当てられた感情フレーズが朗読される
とき、キャラクタは中程度に喜んだ振る舞いをする。さ
らに、“ごめん”はお詫びを示す感情フレーズであり、
これに割り当てられたパラメータαは“11”である。
このα=11のパラメータが割り当てられた感情フレー
ズが朗読されるとき、キャラクタはちょっと詫びた振る
舞いをする。
Returning to FIG. 3, for example, "kora" is an emotion phrase indicating anger, and the parameter α assigned to it is "43". When the emotion phrase to which the parameter α = 43 is assigned is read, the character behaves quite angry. Further, “joy” is an emotion phrase indicating joy, and the parameter α assigned to the phrase is “92”. When the emotion phrase to which the parameter of α = 92 is assigned is read, the character behaves moderately happy. Furthermore, "sorry" is an emotional phrase that indicates apology,
The parameter α assigned to this is “11”.
When the emotion phrase to which the parameter of α = 11 is assigned is read, the character behaves slightly apologized.

【0030】BGMの曲調を決定するパラメータβもま
た、2桁の数字によって表される。メモリ14には、メ
ーリングソフトのインストールによってパラメータβに
関連するBGMテーブル14eが形成される。BGMテ
ーブル14eは図7に示すように形成され、図7によれ
ば、10種類の感情の各々に曲調の程度を示すレベル1
〜3が割り当てられる。パラメータβを表す数字の上位
桁が感情のカテゴリを示し、下位桁が曲調の程度(レベ
ル)を示す。
The parameter β for determining the tone of the BGM is also represented by a two-digit number. In the memory 14, a BGM table 14e related to the parameter β is formed by installing the mailing software. The BGM table 14e is formed as shown in FIG. 7, and according to FIG. 7, each of the ten types of emotions has a level 1 indicating the degree of tune.
~ 3 are assigned. The upper digit of the number representing the parameter β indicates the category of emotion, and the lower digit indicates the degree (level) of the musical tone.

【0031】図3を参照して、“うをーっ”は驚きを示
す感情フレーズであり、これに割り当てられたパラメー
タβは“72”である。このβ=72のパラメータが割
り当てられた感情フレーズが朗読されるとき、スピーカ
26からは中程度に驚いた曲調のBGMが出力される。
また、“さようなら”は哀しみを示す感情フレーズであ
り、これに割り当てられたパラメータβは“21”であ
る。このβ=21のパラメータが割り当てられた感情フ
レーズが朗読されるとき、スピーカ26からはちょっと
哀しい曲調のBGMが出力される。さらに、“バーカ”
はからかいを示す感情フレーズであり、これに割り当て
られたパラメータβは“53”である。このβ=53の
パラメータが割り当てられた感情フレーズが朗読される
とき、スピーカ26からはかなりふざけた曲調のBGM
が出力される。
Referring to FIG. 3, "Uo-oo" is an emotion phrase showing surprise, and the parameter β assigned to it is "72". When the emotion phrase to which the parameter of β = 72 is assigned is read, the speaker 26 outputs a BGM having a music tone that is slightly surprised.
“Goodbye” is an emotional phrase indicating sorrow, and the parameter β assigned to it is “21”. When the emotion phrase to which the parameter of β = 21 is assigned is read, the speaker 26 outputs BGM having a slightly sad tune. Furthermore, "Barca"
Is an emotion phrase indicating teasing, and the parameter β assigned to this is “53”. When the emotion phrase to which the parameter of β = 53 is assigned is read aloud, the tune BGM having a rather playful tone is output from the speaker 26.
Is output.

【0032】メモリ14にはさらに、図4に示すオリジ
ナル感情フレーズテーブル14bも格納される。このテ
ーブル14bは、図3に示すデフォルト感情フレーズテ
ーブル14aと同様に形成される。つまり、10種類の
感情の各々に感情フレーズが設定され、設定された感情
フレーズには、顔表情制御情報であるパラメータXおよ
びY、振る舞い制御情報であるパラメータα、曲調制御
情報であるパラメータβ、トータルの使用回数、ならび
に過去1週間分の使用回数が割り当てられる。デフォル
ト感情フレーズテーブル14aと異なるのは、各感情に
設定される感情フレーズがオペレータによって独自に作
成され、かつ各々の感情フレーズに任意の値のパラメー
タX,Y,αおよびβが割り当てられる点である。この
ようなオリジナル感情フレーズをいずれの感情に分類す
るかは、パラメータXおよびYが示す値に基づいて決定
される。
The memory 14 further stores an original emotion phrase table 14b shown in FIG. This table 14b is formed similarly to the default emotion phrase table 14a shown in FIG. That is, an emotion phrase is set for each of the ten types of emotions, and the set emotion phrases include parameters X and Y that are face expression control information, a parameter α that is behavior control information, a parameter β that is tune control information, The total number of uses and the number of uses for the past week are assigned. The difference from the default emotion phrase table 14a is that the emotion phrase set for each emotion is created independently by the operator, and parameters X, Y, α and β having arbitrary values are assigned to each emotion phrase. . Which emotion is classified as such an original emotion phrase is determined based on the values indicated by the parameters X and Y.

【0033】図4によれば、“非常にありがたく存しま
す”というオリジナル感情フレーズが独自に作成され、
(X,Y,α,β)=(4,9,03,02)のパラメ
ータがこれに割り当てられる。図5によれば、(X,
Y)=(4,9)が示す座標の上に“感謝”を示す感情
が分布しているため、“非常にありがたく存します”は
“感謝”に分類される。また、“泣けますね”というオ
リジナル感情フレーズに割り当てられるパラメータは
(X,Y,α,β)=(−9,−9,23,21)であ
るため、このフレーズは“哀しみ”に分類される。さら
に、“どうもありがとう”というオリジナル感情フレー
ズに割り当てられるパラメータは(X,Y,α,β)=
(10,10,92,92)であるため、このフレーズ
は“喜び”に分類される。
According to FIG. 4, an original emotion phrase “I'm very grateful” is created independently,
The parameter (X, Y, α, β) = (4, 9, 03, 02) is assigned to this. According to FIG. 5, (X,
Y) Since the emotion indicating “thank you” is distributed on the coordinates indicated by (4, 9), “very grateful” is classified as “thank you”. Also, since the parameters assigned to the original emotion phrase “I can cry” are (X, Y, α, β) = (− 9, −9, 23, 21), this phrase is classified as “sorrow”. You. Further, the parameters assigned to the original emotion phrase “Thank you very much” are (X, Y, α, β) =
Since (10, 10, 92, 92), this phrase is classified as “joy”.

【0034】メモリ14にインストールされたメーリン
グソフトは、図8〜図14および図17に示すフロー図
に対応する。CPU12は、メール作成モードが選択さ
れたとき図8〜図14に示すフロー図を、メール受信モ
ードが選択されたとき図17に示すフロー図を処理す
る。
The mailing software installed in the memory 14 corresponds to the flowcharts shown in FIGS. 8 to 14 and FIG. The CPU 12 processes the flow charts shown in FIGS. 8 to 14 when the mail creation mode is selected, and processes the flow charts shown in FIG. 17 when the mail reception mode is selected.

【0035】まず、図8〜図14を参照して、ステップ
S1ではメール作成画面をディスプレイ22に形成し、
続くステップS3では文章入力処理を行なう。オペレー
タがキーボード24を操作して所望の文章を入力する
と、入力された文章(作成文章)が図15に示す要領で
メール作成画面上に表示される。文章の作成を終えた後
にオペレータが処理命令(感情フレーズデータへのパラ
メータの割り当て処理命令)を与えると、ステップS5
で命令ありと判断し、ステップS7で図4に示すオリジ
ナル感情フレーズテーブル14bからいずれかのオリジ
ナル感情フレーズデータを読み出す。続いて、読み出さ
れたオリジナル感情フレーズデータと同じフレーズデー
タが作成文章データ中に存在するかどうかをステップS
9で判別する。
First, referring to FIGS. 8 to 14, in step S1, a mail creation screen is formed on the display 22.
In a succeeding step S3, a sentence input process is performed. When the operator operates the keyboard 24 to input a desired sentence, the input sentence (creation sentence) is displayed on the mail creation screen in the manner shown in FIG. When the operator gives a processing command (a processing command for assigning parameters to emotion phrase data) after completing the creation of the text, step S5
It is determined that there is an instruction, and in step S7, any original emotion phrase data is read from the original emotion phrase table 14b shown in FIG. Subsequently, it is determined in step S whether or not the same phrase data as the read original emotion phrase data exists in the created sentence data.
The determination is made in step 9.

【0036】ここで、一致するフレーズデータ(オリジ
ナル感情フレーズデータ)が作成文章データから検出さ
れると、ステップS11に進み、注目するオリジナル感
情フレーズデータに対応付けられたパラメータX,Y,
αおよびβをオリジナル感情フレーズテーブル14bか
ら読み出す。ステップS13では、読み出されたパラメ
ータX,Y,αおよびβをステップS9で検出されたオ
リジナル感情フレーズデータに割り当て、ステップS1
5ではメール作成画面に表示された同じオリジナル感情
フレーズに下線を描画する。描画処理が完了するとステ
ップS17に進む。一方、ステップS9でNOと判断さ
れたときは、そのままステップS17に進む。ステップ
S17では、オリジナル感情フレーズテーブル14bに
設定された全てのオリジナル感情フレーズデータについ
てステップS9の検証が行われたかどうか判断し、YE
Sとの判断結果が得られるまで、ステップS7〜S15
の処理を繰り返す。
Here, when matching phrase data (original emotion phrase data) is detected from the created sentence data, the process proceeds to step S11, where the parameters X, Y, and
α and β are read from the original emotion phrase table 14b. In step S13, the read parameters X, Y, α, and β are assigned to the original emotion phrase data detected in step S9, and in step S1
In step 5, an underline is drawn on the same original emotion phrase displayed on the mail creation screen. Upon completion of the drawing process, the flow proceeds to step S17. On the other hand, if NO is determined in the step S9, the process directly proceeds to the step S17. In step S17, it is determined whether or not the verification in step S9 has been performed for all the original emotion phrase data set in the original emotion phrase table 14b.
Until the determination result of S is obtained, steps S7 to S15
Is repeated.

【0037】このような処理によって、設定されたオリ
ジナル感情フレーズと同じフレーズが作成文章の中から
検出され、検出されたフレーズデータにパラメータX,
Y,αおよびβ(動作制御情報および曲調制御情報)が
割り当てられるとともに、メール作成画面上のフレーズ
に下線が引かれる。
By such processing, the same phrase as the set original emotional phrase is detected from the created sentence, and the detected phrase data includes the parameters X and
Y, α and β (movement control information and tune control information) are assigned, and phrases on the mail creation screen are underlined.

【0038】図15に示す作成文章には“泣けますね”
という感情フレーズが含まれており、この“泣けます
ね”はオリジナル感情フレーズテーブル14bに登録さ
れている。このため、対応するパラメータX(=−
9),Y(=−9),α(=23)およびβ(=21)
がオリジナル感情フレーズテーブル14bから読み出さ
れ、この“泣けますね”の感情フレーズデータに割り当
てられる。さらに、メール作成画面上の“泣けますね”
のフレーズに下線が引かれる。
The sentence shown in FIG.
Is included in the original emotion phrase table 14b. Therefore, the corresponding parameter X (= −
9), Y (= -9), α (= 23) and β (= 21)
Is read from the original emotion phrase table 14b, and is assigned to the emotion phrase data of "I can cry." Furthermore, "I can cry" on the mail creation screen
Phrase is underlined.

【0039】ステップS17でYESと判断されると、
図9に示すようにステップS19で作成文章データの中
から他の感情フレーズデータを抽出し、続くステップS
21では抽出した感情フレーズデータと同じフレーズデ
ータをデフォルト感情フレーズテーブル14aから検索
する。デフォルト感情フレーズテーブル14aから同じ
フレーズデータが発見されると、ステップS23でYE
Sと判断し、発見されたフレーズデータに対応付けられ
たパラメータX,Y,αおよびβをデフォルト感情フレ
ーズテーブル14から検出する。続くステップS27で
は、今日の日付を発見されたフレーズに関連付ける。日
付の関連付けは、次回のメール作成処理時に、過去1週
間分の使用回数の算出に用いられる。
If YES is determined in the step S17,
As shown in FIG. 9, in step S19, other emotion phrase data is extracted from the created sentence data, and the subsequent step S19 is executed.
In step 21, the same phrase data as the extracted emotion phrase data is retrieved from the default emotion phrase table 14a. If the same phrase data is found from the default emotion phrase table 14a, YE is determined in step S23.
S is determined, and the parameters X, Y, α, and β associated with the found phrase data are detected from the default emotion phrase table 14. In a succeeding step S27, today's date is associated with the found phrase. The date association is used to calculate the number of times of use for the past week in the next mail creation process.

【0040】ステップS29では過去1週間分の使用回
数を検出し、ステップS31では検出した使用回数に応
じて重み付け量を決定し、ステップS33では決定され
た重み付け量に従ってパラメータX,Y,αまたはβを
重み付けする。たとえば、検出された使用回数が3回〜
5回であれば、パラメータXおよびYの各々に“1”を
加算し、検出された使用回数が6回〜8回であれば、さ
らにパラメータαの下位桁の値に“1”を加算し、検出
された使用回数が9回以上であれば、さらにパラメータ
βの下位桁の値に“1”を加算する。
In step S29, the number of uses for the past week is detected. In step S31, a weighting amount is determined according to the detected number of uses. In step S33, the parameter X, Y, α or β is determined according to the determined weighting amount. Is weighted. For example, if the number of uses detected is three or more
If the number is five, "1" is added to each of the parameters X and Y. If the detected number of uses is six to eight, "1" is further added to the value of the lower digit of the parameter α. If the detected number of times of use is 9 or more, “1” is further added to the value of the lower digit of the parameter β.

【0041】ただし、パラメータαまたはβの下位桁が
“3”であるときは、加算処理は行なわない。また、検
出された使用回数が2回以下であれば、重み付け量(加
算する値)は“0”である。
However, when the lower digit of the parameter α or β is “3”, the addition process is not performed. If the number of uses detected is two or less, the weighting amount (value to be added) is “0”.

【0042】ステップS23に戻って、作成文章データ
から抽出された感情フレーズデータと同じフレーズデー
タがデフォルト感情フレーズテーブル14aに存在しな
いときは、このステップからステップS35に進む。ス
テップS35では抽出された感情フレーズデータのカテ
ゴリを解析し、カテゴリが解析されると、ステップS3
7でパラメータシート14cを参照してパラメータXお
よびYを検出する。つまり、解析されたカテゴリが分布
する範囲内の座標値をパラメータシート14cから任意
に検出し、検出した座標値をパラメータXおよびYとす
る。さらに、ステップS39およびS41の各々で、解
析されたカテゴリに対応する任意のレベルのパラメータ
αおよびβをアニメーションテーブル14dおよびBG
Mテーブル14eから検出する。
Returning to step S23, if the same phrase data as the emotion phrase data extracted from the created sentence data does not exist in the default emotion phrase table 14a, the process proceeds from this step to step S35. In step S35, the category of the extracted emotion phrase data is analyzed, and when the category is analyzed, step S3
At 7, the parameters X and Y are detected with reference to the parameter sheet 14c. That is, the coordinate values within the range in which the analyzed category is distributed are arbitrarily detected from the parameter sheet 14c, and the detected coordinate values are set as the parameters X and Y. Further, in each of steps S39 and S41, parameters α and β at arbitrary levels corresponding to the analyzed category are set in animation tables 14d and BG
It is detected from the M table 14e.

【0043】たとえば、図15に示す作成文章中の“さ
いなら”という感情フレーズは、デフォルト感情フレー
ズテーブル14aに設定されていない。この“さいな
ら”が親しみを表す感情と解析されると、パラメータX
およびYはたとえば“11”および“−1”と決定さ
れ、パラメータαおよびβはたとえば“32”および
“31”と決定される。”ステップS33またはS41
の処理を終えると、注目する感情フレーズデータを修飾
するフレーズデータをステップS43で検出し、続くス
テップS45では検出結果に応じて重み付け量を決定す
る。重み付け量は、修飾フレーズが多いほど大きくな
る。たとえば、感情フレーズの前に“とても”や“本当
に”が付加されていたり、感情フレーズに続いて“!”
が付されていれば、重み付け量は大きくなる。また、こ
のような感情を誇張するフレーズだけでなく、敬語,謙
譲語,丁寧語などの相手の立場を考慮した表現が付加さ
れているときも、重み付け量は大きくなる。図15に示
す作成文章では、“こんちわ”に続いて“!”が付され
ているため、“こんちわ”に割り当てられるパラメータ
X,Y,αまたはβが重み付けされる。重み付け量が決
定されると、続くステップS47でパラメータX,Y,
αまたはβを重み付けする。
For example, the emotion phrase "sai-ara" in the prepared sentence shown in FIG. 15 is not set in the default emotion phrase table 14a. When this "sai-nara" is analyzed as an emotion expressing familiarity, the parameter X
And Y are determined, for example, as “11” and “−1”, and parameters α and β are determined as, for example, “32” and “31”. "Step S33 or S41
Is completed, phrase data for modifying the emotion phrase data of interest is detected in step S43, and in subsequent step S45, a weighting amount is determined according to the detection result. The weighting amount increases as the number of modifier phrases increases. For example, “very” or “really” is added before the emotion phrase, or “!” Follows the emotion phrase.
, The weighting amount increases. In addition, when not only phrases exaggerating such emotions but also expressions in consideration of the other party's position, such as honorific words, humble words, and polite words, are added, the weighting amount increases. In the creation sentence shown in FIG. 15, since "!" Is added after "Koniwa", the parameters X, Y, α or β assigned to "Koniwa" are weighted. When the weighting amount is determined, the parameters X, Y,
Weight α or β.

【0044】ステップS49では重み付けが施されたパ
ラメータX,Y,αおよびβを注目する感情フレーズデ
ータに割り当て、ステップS51では文章作成画面に表
示された注目する感情フレーズに下線を引く。ステップ
S53では感情フレーズの抽出処理が完了したかどうか
判断し、未抽出の感情フレーズが存在するときは、ステ
ップS19以降の処理を再度実行する。これによって、
作成文章データに含まれる各々の感情フレーズデータに
パラメータX,Y,αおよびβが割り当てられ、割り当
てが完了する毎に作成画面上の各々の感情フレーズに下
線が引かれていく。
In step S49, the weighted parameters X, Y, α, and β are assigned to the emotion phrase data of interest, and in step S51, the emotion phrase of interest displayed on the text creation screen is underlined. In step S53, it is determined whether or not the emotion phrase extraction processing has been completed. If there is an unextracted emotion phrase, the processing from step S19 is executed again. by this,
Parameters X, Y, α, and β are assigned to each emotion phrase data included in the created sentence data, and each emotion phrase on the creation screen is underlined each time the assignment is completed.

【0045】なお、登録済みのオリジナル感情フレーズ
データに対するパラメータX,Y,αおよびβの割り当
ては完了しているため、このようなオリジナル感情フレ
ーズデータは、ステップS19〜S51の処理対象から
除外される。
Since the assignment of the parameters X, Y, α and β to the registered original emotion phrase data has been completed, such original emotion phrase data is excluded from the processing targets in steps S19 to S51. .

【0046】全ての感情フレーズデータに対するステッ
プS19〜S51の処理が完了すると、ステップS53
でYESと判断し、ステップS55,S59またはS6
3でオペレータの操作を判別する。下線が引かれた感情
フレーズのいずれか1つがマウス28によって選択され
たときは、ステップS57でプレビュー処理を行なう。
また、作成文章に含まれるオリジナル感情フレーズ(下
線が引かれていないフレーズ)がマウス28によって指
定されると、ステップS61で登録処理を行なう。さら
に、マウス28によって送信操作がされたときは、ステ
ップS65で送信処理を行なう。送信処理では、パラメ
ータX,Y,αおよびβが各々の感情フレーズデータに
割り当てられた文章データを含むメールが作成され、イ
ンターネット100を通して宛先に送信される。送信処
理が完了すると、ステップS67でメール作成画面をク
ローズし、処理を終了する。
When the processing of steps S19 to S51 for all emotion phrase data is completed, step S53
Is determined as YES, and step S55, S59 or S6 is performed.
At step 3, the operation of the operator is determined. If any one of the underlined emotion phrases is selected by the mouse 28, a preview process is performed in step S57.
When the original emotion phrase (phrase not underlined) included in the created text is designated by the mouse 28, registration processing is performed in step S61. Further, when a transmission operation is performed with the mouse 28, a transmission process is performed in step S65. In the transmission processing, a mail including text data in which the parameters X, Y, α and β are assigned to the respective emotion phrase data is created and transmitted to the destination via the Internet 100. When the transmission process is completed, the mail creation screen is closed in step S67, and the process ends.

【0047】ステップS57におけるプレビュー処理
は、図11および図12に示すサブルーチンに従う。ま
ず、ステップS71でプレビュー画面を形成し、ステッ
プS73,S75,S77およびS79の各々で、パラ
メータシート,アニメーションメニュー,BGMメニュ
ーおよびキャラクタをプレビュー画面上に表示する。ス
テップS81では選択された感情フレーズのパラメータ
XおよびYが示す座標をパラメータシート上でポイント
し、ステップS83では選択された感情フレーズのパラ
メータαが示すレベルをアニメーションメニュー上でポ
イントし、ステップS85では選択された感情フレーズ
のパラメータβが示すレベルをBGMメニュー上でポイ
ントする。図15に示す作成文章に対してオペレータが
“なんだかなー”の感情フレーズを選択すると、図16
に示すようなプレビュー画面がディスプレイ22に表示
される。
The preview process in step S57 complies with a subroutine shown in FIGS. First, a preview screen is formed in step S71, and in each of steps S73, S75, S77 and S79, a parameter sheet, an animation menu, a BGM menu, and a character are displayed on the preview screen. In step S81, the coordinates indicated by the parameters X and Y of the selected emotion phrase are pointed on the parameter sheet. In step S83, the level indicated by the parameter α of the selected emotion phrase is pointed on the animation menu. In step S85, the selection is made. The level indicated by the parameter β of the emotion phrase is pointed on the BGM menu. When the operator selects an emotion phrase of "What is it?" For the created sentence shown in FIG.
Is displayed on the display 22.

【0048】ステップS87ではプレビュー操作がされ
たかどうか判断し、ステップS93ではパラメータ値の
変更操作がされたかどうか判断する。また、ステップS
97では登録操作がされたかどうかを、ステップS10
1では終了操作がされたかどうかを判断する。オペレー
タがマウス28によってプレビュー操作をするとステッ
プS87でYESと判断し、ステップS89でパラメー
タX,Yおよびαに応じてキャラクタを動かすととも
に、ステップS91でパラメータβに応じた曲調のBG
Mをスピーカ26から出力する。“なんだかなー”に割
り当てられたパラメータが(X,Y,α,β)=(−1
2,3,62,62)であれば、キャラクタはあきれた
表情で両手を上げ、スピーカ26からはあきれた曲調の
BGMが出力される。
In a step S87, it is determined whether or not a preview operation is performed, and in a step S93, it is determined whether or not a parameter value changing operation is performed. Step S
In step 97, it is determined whether or not a registration operation has been performed.
At 1, it is determined whether or not an end operation has been performed. When the operator performs a preview operation with the mouse 28, YES is determined in the step S87, the character is moved in accordance with the parameters X, Y and α in a step S89, and the BG of the tune corresponding to the parameter β is determined in a step S91.
M is output from the speaker 26. The parameter assigned to “what is” is (X, Y, α, β) = (− 1)
In the case of (2, 3, 62, 62), the character raises both hands with an unclear expression, and the tune BGM is output from the speaker 26.

【0049】オペレータがマウス28によってパラメー
タ値の変更操作を行ったときは、ステップS93からス
テップS95に進み、選択された感情フレーズデータの
パラメータX,Y,αまたはβを操作に応じて変更す
る。たとえば、アニメーションメニューの“レベル2”
がポイントされているときにマウス28によって“レベ
ル3”が選択されると、パラメータαが“62”から
“63”に変更される。変更操作の後にプレビュー操作
を行なうと、キャラクタの動きおよびBGMの曲調は、
変更されたパラメータX,Y,αおよびβに従う。
When the operator performs a parameter value changing operation with the mouse 28, the process proceeds from step S93 to step S95, and changes the parameter X, Y, α or β of the selected emotion phrase data according to the operation. For example, "level 2" in the animation menu
When "level 3" is selected by the mouse 28 when is pointed, the parameter α is changed from "62" to "63". When the preview operation is performed after the change operation, the movement of the character and the tune of the BGM become
According to the changed parameters X, Y, α and β.

【0050】オペレータが登録操作を行なうとステップ
S97からS99に進み、現時点のパラメータX,Y,
αおよびβによってデフォルト感情フレーズテーブル1
4aまたはオリジナル感情フレーズテーブル14bのパ
ラメータX,Y,αおよびβを更新する。たとえば、
“なんだかなー”の感情フレーズに割り当てられたパラ
メータが(X,Y,α,β)=(−11,3,63,6
1)に変更された後に登録操作がされると、デフォルト
感情フレーズテーブル14aの“なんだかなー”に割り
当てられたパラメータが(X,Y,α,β)=(−1
1,2,62,62)から(−11,3,63,61)
に更新される。
When the operator performs a registration operation, the process proceeds from step S97 to S99, where the parameters X, Y, and
Default emotion phrase table 1 by α and β
4a or the parameters X, Y, α and β of the original emotion phrase table 14b are updated. For example,
The parameters assigned to the emotion phrase of “what is it?” Are (X, Y, α, β) = (− 11, 3, 63, 6)
When the registration operation is performed after the change to 1), the parameter assigned to “what is it?” In the default emotion phrase table 14a is (X, Y, α, β) = (− 1).
1, 2, 62, 62) to (-11, 3, 63, 61)
Will be updated to

【0051】なお、図15に示す作成文章の“さいな
ら”はデフォルト感情フレーズテーブル14aおよびオ
リジナル感情フレーズテーブル14bのいずれにも登録
されていない。このため、“さいなら”のプレビュー画
面が表示されているときに登録操作が行われると、“さ
いなら”の感情フレーズデータおよびこれに割り当てら
れたパラメータX,Y,αおよびβが、オリジナル感情
フレーズテーブル14bの親しみの分類に設定される。
It should be noted that "saisai" of the prepared sentence shown in FIG. 15 is not registered in either the default emotion phrase table 14a or the original emotion phrase table 14b. For this reason, if the registration operation is performed while the preview screen of “sai-sai” is displayed, the emotion phrase data of “sai-sai” and the parameters X, Y, α and β assigned to the same are displayed in the original emotion. This is set to the familiarity classification in the phrase table 14b.

【0052】オペレータが終了操作を行なうと、ステッ
プS101でYESと判断し、ステップS103におけ
るプレビュー画面のクローズを経て上階層のルーチンに
復帰する。
When the operator performs an end operation, YES is determined in the step S101, and the process returns to the upper hierarchy routine after the preview screen is closed in the step S103.

【0053】ステップS61におけるオリジナル感情フ
レーズの登録処理は、図13および図14に示すサブル
ーチンに従う。まずステップS111で、指定されたオ
リジナル感情フレーズに初期値を示すパラメータX,
Y,αおよびβを割り当てる。続くステップS113〜
S127では、図11に示すステップS71〜S85と
同様の処理を行なう。このため、図16と同様のプレビ
ュー画面がディスプレイ22に表示され、パラメータシ
ート上の原点(0,0)とアニメーションメニューおよ
びBGMメニューのレベル1とがポイントされる。
The registration processing of the original emotion phrase in step S61 follows the subroutine shown in FIG. 13 and FIG. First, in step S111, a parameter X, which indicates an initial value for the designated original emotion phrase,
Assign Y, α and β. Subsequent steps S113-
In S127, the same processing as in steps S71 to S85 shown in FIG. 11 is performed. Therefore, a preview screen similar to that of FIG. 16 is displayed on the display 22, and the origin (0, 0) on the parameter sheet and the level 1 of the animation menu and the BGM menu are pointed.

【0054】ステップS129ではパラメータシート上
の任意の座標が選択されたかどうかを判断し、ステップ
S135ではアニメーションメニュー上の任意のレベル
が選択されたかどうか判断し、ステップS141ではB
GMメニュー上の任意のレベルが選択されたかどうかを
判断する。また、ステップS147ではプレビュー操作
が行われたかどうか判断し、ステップS149では登録
操作が行われたかどうかを判断する。
In a step S129, it is determined whether or not an arbitrary coordinate on the parameter sheet is selected. In a step S135, it is determined whether or not an arbitrary level on the animation menu is selected, and in a step S141, B is determined.
It is determined whether any level on the GM menu has been selected. In step S147, it is determined whether a preview operation has been performed, and in step S149, it is determined whether a registration operation has been performed.

【0055】オペレータがマウス28によってパラメー
タシート上の任意の座標を選択すると、ステップS12
9でYESと判断し、ステップS131でパラメータシ
ート上のポインタの位置を更新するとともに、ステップ
S133でパラメータXおよびYの値を更新する。オペ
レータがマウス28によってアニメーションメニュー上
の任意のレベルを選択すると、ステップS135でYE
Sと判断し、ステップS137でアニメーションシート
上のポインタの位置を更新するとともに、ステップS1
39でパラメータαが示す値を更新する。オペレータが
マウス28によってBGMメニュー上の任意のレベルを
選択すると、ステップS141でYESと判断し、ステ
ップS143でBGMメニュー上のポインタの位置を更
新するとともに、ステップS145でパラメータβの値
を更新する。
When the operator selects an arbitrary coordinate on the parameter sheet by using the mouse 28, step S12 is performed.
9 is determined as YES, the position of the pointer on the parameter sheet is updated in step S131, and the values of the parameters X and Y are updated in step S133. When the operator selects an arbitrary level on the animation menu by using the mouse 28, YE is determined in step S135.
S, the position of the pointer on the animation sheet is updated in step S137, and in step S1
At 39, the value indicated by the parameter α is updated. When the operator selects an arbitrary level on the BGM menu with the mouse 28, YES is determined in step S141, the position of the pointer on the BGM menu is updated in step S143, and the value of the parameter β is updated in step S145.

【0056】オペレータがマウス28によってプレビュ
ー操作を行なうと、ステップS147でYESと判断
し、ステップS149で現時点のパラメータ値X,Yお
よびαに応じてキャラクタを動かすとともに、ステップ
S149で現時点のパラメータβに応じた曲調のBGM
をスピーカ26から出力する。オペレータがマウス28
によって登録操作を行なうと、ステップS153でYE
Sと判断し、ステップS155でパラメータXおよびY
に基づいて感情を解析する。さらに、ステップS157
で注目するオリジナル感情フレーズをオリジナル感情フ
レーズテーブル14bに設定するとともに、このフレー
ズに現時点のパラメータX,Y,αおよびβを割り当て
る。ここで、このオリジナル感情フレーズの設定先の分
類は、ステップS155における解析結果に従う。ステ
ップS157の処理を終えると、ステップS159でプ
レビュー画面をクローズし、上階層のルーチンに復帰す
る。
When the operator performs a preview operation with the mouse 28, YES is determined in step S147, the character is moved in step S149 according to the current parameter values X, Y, and α, and the current parameter β is changed in step S149. BGM of the tune according to
Is output from the speaker 26. Operator 28
When the registration operation is performed by using
S, and the parameters X and Y are determined in step S155.
Analyzes emotions based on Further, step S157
Is set in the original emotion phrase table 14b, and the current parameters X, Y, α and β are assigned to this phrase. Here, the classification of the setting destination of the original emotion phrase follows the analysis result in step S155. Upon completion of the process in the step S157, the preview screen is closed in a step S159, and the process returns to an upper hierarchical routine.

【0057】たとえば、図15に示す作成文章におい
て、オペレータが“また今度飲みに行きましょう”を指
定すると、プレビュー画面が形成され、このプレビュー
画面上にパラメータシート,アニメーションメニュー,
BGMメニューおよびキャラクタが表示される。ここ
で、オペレータが、パラメータシート上の(10,0)
をポイントし、アニメーションメニューおよびBGMメ
ニュー上のレベル2をポイントし、登録操作をすると、
パラメータシート上の座標に基づいてこのフレーズの感
情が“親しみ”と判断され、“また今度飲みに行きまし
ょう”というオリジナル感情フレーズは図4のオリジナ
ル感情フレーズテーブル14bの“親しみ”の分類に登
録される。さらに、(X,Y,α,β)=(10,0,
32,32)のパラメータがこのオリジナル感情フレー
ズに割り当てられる。
For example, when the operator designates "Let's go drinking again" in the creation sentence shown in FIG. 15, a preview screen is formed, and a parameter sheet, an animation menu,
A BGM menu and a character are displayed. Here, the operator sets (10, 0) on the parameter sheet.
When you point to, point to level 2 on the animation menu and BGM menu, and perform the registration operation,
Based on the coordinates on the parameter sheet, the emotion of this phrase is determined to be “friendly”, and the original emotion phrase “let's go drinking again” is registered in the classification of “friendly” in the original emotion phrase table 14b in FIG. Is done. Further, (X, Y, α, β) = (10, 0,
32, 32) are assigned to this original emotion phrase.

【0058】メール受信モードが選択されると、CPU
12は図17に示すフロー図を処理する。まず、ステッ
プS201でメール受信画面をディスプレイ22上に形
成し、ステップS203で受信メールに含まれる文章を
メール受信画面の中央に表示するとともに、ステップS
205でキャラクタを同じメール受信画面の右下に表示
する。さらに、ステップS207でBGMをスピーカ2
6から出力する。
When the mail receiving mode is selected, the CPU
12 processes the flowchart shown in FIG. First, in step S201, a mail reception screen is formed on the display 22, and in step S203, the text included in the received mail is displayed at the center of the mail reception screen.
At 205, the character is displayed at the lower right of the same mail reception screen. Further, in step S207, the BGM is transmitted to the speaker 2
6 to output.

【0059】図15に示す文章を含むメールを受信した
場合、メール受信画面には図18に示す要領で文章が表
示される。また、画面の右下に表示されたキャラクタ
は、自律的に所定の動き(たとえば軽く微笑みながらの
緩やかなダンス)をし、スピーカ26から出力されるB
GMは所定の曲調(たとえば軽やかなリズム)を奏で
る。
When a mail including the text shown in FIG. 15 is received, the text is displayed on the mail reception screen in the manner shown in FIG. Further, the character displayed at the lower right of the screen autonomously performs a predetermined movement (for example, a gentle dance with a slight smile), and B output from the speaker 26.
The GM plays a predetermined music tone (for example, a light rhythm).

【0060】ここで、オペレータがマウス28によって
再生操作(文章の朗読操作)を行なうと、ステップS2
09からステップS211に進み、文章の朗読を開始す
る。ステップS213では、朗読位置が感情フレーズの
先頭に達したかどうか判断し、YESと判断されると、
ステップS215でこの感情フレーズに割り当てられた
パラメータX,Y,αおよびβを検出する。ステップS
217では検出されたパラメータX,Yおよびαに応じ
てキャラクタを動かし、ステップS219では検出され
たパラメータβに応じてBGMの曲調を変更する。ステ
ップS219の処理を終えると文章の朗読が終了したか
どうかをステップS221で判断し、NOであればステ
ップS213〜S219の処理を繰り返すが、YESで
あればステップS209に戻る。
Here, when the operator performs a reproducing operation (sentence reading operation of a sentence) by using the mouse 28, step S2 is performed.
From 09, the process proceeds to step S211 to start reading a sentence. In step S213, it is determined whether the reading position has reached the beginning of the emotion phrase, and if YES is determined,
In step S215, the parameters X, Y, α, and β assigned to the emotion phrase are detected. Step S
In 217, the character is moved according to the detected parameters X, Y and α, and in step S219, the tune of the BGM is changed in accordance with the detected parameter β. Upon completion of the process in step S219, it is determined in step S221 whether the reading of the sentence is completed. If NO, the processes in steps S213 to S219 are repeated. If YES, the process returns to step S209.

【0061】したがって、文章を朗読するときは、感情
フレーズの先頭が検出される毎にキャラクタの動きおよ
びBGMの曲調が変更される。つまり、感情フレーズが
朗読されない間は、キャラクタは軽く微笑みながら緩や
かなダンスをし、BGMは軽やかな曲調を奏でるが、た
とえば図18に示す“泣けますね”が朗読されるとき
は、キャラクタの顔が哀しそうな表情に変わり、両手が
この哀しそうな顔を覆う。また、BGMが哀しそうな曲
調に変わる。
Therefore, when reading a sentence, the movement of the character and the tune of the BGM are changed every time the head of the emotion phrase is detected. In other words, while the emotion phrase is not read, the character dances gently with a slight smile, and the BGM plays a light tune. For example, when the character “cry” shown in FIG. Turns into a sad expression, with both hands covering this sad expression. Also, the BGM changes to a sad tone.

【0062】文章の朗読が終了した後、オペレータが終
了操作をすると、ステップS223でYESと判断し、
ステップS225におけるメール受信画面のクローズ処
理を経て処理を終了する。
After the reading of the sentence is completed, if the operator performs an end operation, YES is determined in step S223,
The process ends after the mail receiving screen is closed in step S225.

【0063】以上の説明から分かるように、宛先のディ
スプレイ22に表示される文章を作成すると、作成され
た文章から感情を示すフレーズを検出され、検出された
フレーズに関連する動き制御情報および曲調制御情報が
生成される。つまり、検出されたフレーズが登録済みの
オリジナル感情フレーズまたはデフォルト感情フレーズ
であれば、オリジナル感情フレーズテーブル14aまた
はデフォルト感情フレーズテーブル14bからの読み出
しによって動き制御情報および曲調制御情報が生成さ
れ、検出されたフレーズが登録されていないフレーズで
あれば、感情解析によって動き制御情報および曲調制御
情報が生成される。
As can be understood from the above description, when a sentence to be displayed on the display 22 of the destination is created, a phrase indicating an emotion is detected from the created sentence, and motion control information and tune control related to the detected phrase are detected. Information is generated. That is, if the detected phrase is the registered original emotion phrase or the default emotion phrase, the motion control information and the melody control information are generated by reading from the original emotion phrase table 14a or the default emotion phrase table 14b. If the phrase is not registered, motion control information and tune control information are generated by emotion analysis.

【0064】生成された動き制御情報および曲調制御情
報は、上述のフレーズの過去における使用頻度に応じて
補正(重み付け)される。つまり、使用頻度が多いほど
キャラクタの動きおよび音楽の曲調が激しくなるよう
に、動き制御情報および曲調制御情報が補正される。こ
のような補正が完了すると、動き制御情報および曲調制
御情報が対応するフレーズに割り当てられる。このた
め、作成者の気持ちは、文章およびキャラクタの動きに
よって宛先に伝えられる。
The generated motion control information and tune control information are corrected (weighted) according to the frequency of use of the above-mentioned phrase in the past. In other words, the motion control information and the tune control information are corrected such that the more frequently the character is used, the more intense the movement of the character and the tune of the music become. When such correction is completed, the motion control information and the tune control information are assigned to the corresponding phrases. Therefore, the creator's feeling is transmitted to the destination by the sentence and the movement of the character.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例の全体構成を示す図解図で
ある。
FIG. 1 is an illustrative view showing an entire configuration of an embodiment of the present invention;

【図2】各々のメーリング装置の構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of each mailing device.

【図3】デフォルト感情フレーズテーブルの一例を示す
図解図である。
FIG. 3 is an illustrative view showing one example of a default emotion phrase table;

【図4】オリジナル感情フレーズテーブルの一例を示す
図解図である。
FIG. 4 is an illustrative view showing one example of an original emotion phrase table;

【図5】パラメータシートの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a parameter sheet;

【図6】アニメーションテーブルの一例を示す図解図で
ある。
FIG. 6 is an illustrative view showing one example of an animation table;

【図7】BGMテーブルの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a BGM table;

【図8】メール作成モードにおけるCPUの処理の一部
を示すフロー図である。
FIG. 8 is a flowchart showing a part of the processing of the CPU in the mail creation mode.

【図9】メール作成モードにおけるCPUの処理の他の
一部を示すフロー図である。
FIG. 9 is a flowchart showing another part of the processing by the CPU in the mail creation mode.

【図10】メール作成モードにおけるCPUの処理のそ
の他の一部を示すフロー図である。
FIG. 10 is a flowchart showing another portion of the processing by the CPU in the mail creation mode.

【図11】CPUによるプレビュー処理の一部を示すフ
ロー図である。
FIG. 11 is a flowchart showing a part of preview processing by the CPU.

【図12】CPUによるプレビュー処理の他の一部を示
すフロー図である。
FIG. 12 is a flowchart showing another part of the preview processing by the CPU.

【図13】CPUによるオリジナル感情フレーズの登録
処理の一部を示すフロー図である。
FIG. 13 is a flowchart showing a part of an original emotion phrase registration process by the CPU.

【図14】CPUによるオリジナル感情フレーズの登録
処理の他の一部を示すフロー図である。
FIG. 14 is a flowchart showing another part of the original emotion phrase registration process by the CPU.

【図15】メール作成画面の一例を示す図解図である。FIG. 15 is an illustrative view showing one example of a mail creation screen;

【図16】プレビュー画面の一例を示す図解図である。FIG. 16 is an illustrative view showing one example of a preview screen;

【図17】メール受信モードにおけるCPUの処理の一
部を示すフロー図である。
FIG. 17 is a flowchart showing a part of the processing of the CPU in the mail reception mode.

【図18】メール受信画面の一例を示す図解図である。FIG. 18 is an illustrative view showing one example of a mail reception screen;

【符号の説明】[Explanation of symbols]

10…メーリング装置 12…CPU 14…メモリ 16…ディスクドライブ 22…ディスプレイ 24…キーボード 26…スピーカ 28…マウス 30…記録媒体 DESCRIPTION OF SYMBOLS 10 ... Mailing apparatus 12 ... CPU 14 ... Memory 16 ... Disk drive 22 ... Display 24 ... Keyboard 26 ... Speaker 28 ... Mouse 30 ... Recording medium

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】宛先のディスプレイに表示される文章を作
成する文章作成手段、 前記文章から感情を示すフレーズを検出するフレーズ検
出手段、 前記ディスプレイに表示されるキャラクタの動きを制御
する動き制御情報を前記フレーズに基づいて生成する生
成手段、 前記動き制御情報を前記フレーズに割り当てる第1割り
当て手段、および 前記文章および前記動き制御情報を含むメールを伝送路
を介して前記宛先に伝送する伝送手段を備える、メール
伝送システム。
1. A sentence creating means for creating a sentence displayed on a destination display, a phrase detecting means for detecting a phrase indicating an emotion from the sentence, and a movement control information for controlling a movement of a character displayed on the display. Generating means for generating based on the phrase; first allocating means for allocating the motion control information to the phrase; and transmitting means for transmitting a mail including the text and the motion control information to the destination via a transmission path. , Mail transmission system.
【請求項2】前記フレーズが持つ感情の種類を判別する
判別手段をさらに備え、 前記生成手段は前記感情の種類に対応する前記動き制御
情報を生成する、請求項1記載のメール伝送システム。
2. The mail transmission system according to claim 1, further comprising a determination unit configured to determine an emotion type of the phrase, wherein the generation unit generates the motion control information corresponding to the emotion type.
【請求項3】前記動き制御情報は、前記キャラクタの顔
の表情を制御する顔表情制御情報、および前記キャラク
タの振る舞いを制御する振る舞い制御情報の少なくとも
一方を含む、請求項1または2記載のメール伝送システ
ム。
3. The mail according to claim 1, wherein the movement control information includes at least one of face expression control information for controlling a facial expression of the character, and behavior control information for controlling the behavior of the character. Transmission system.
【請求項4】過去における前記フレーズの使用頻度を検
出する使用頻度検出手段、および前記使用頻度に応じて
前記動き制御情報を補正する第1補正手段をさらに備え
る、請求項1ないし3のいずれかに記載のメール伝送シ
ステム。
4. The apparatus according to claim 1, further comprising use frequency detecting means for detecting a use frequency of said phrase in the past, and first correction means for correcting said motion control information in accordance with said use frequency. The mail transmission system described in 1.
【請求項5】前記感情を示すフレーズを修飾するフレー
ズを検出する修飾フレーズ検出手段、および前記修飾フ
レーズに応じて前記動き制御情報を補正する第2補正手
段をさらに備える、請求項1ないし4のいずれかに記載
のメール伝送システム。
5. The apparatus according to claim 1, further comprising a modified phrase detecting unit that detects a phrase that modifies the phrase indicating the emotion, and a second correcting unit that corrects the motion control information according to the modified phrase. The mail transmission system according to any of the above.
【請求項6】前記文章に含まれる任意のフレーズを指定
する指定手段、および前記任意のフレーズに任意の前記
動き制御情報を割り当てる第2割り当て手段をさらに備
える、請求項1ないし5のいずれかに記載のメール伝送
システム。
6. The apparatus according to claim 1, further comprising a designating means for designating an arbitrary phrase contained in said sentence, and a second allocating means for allocating arbitrary said motion control information to said arbitrary phrase. The described mail transmission system.
【請求項7】宛先のディスプレイに表示される文章を作
成する文章作成手段、 前記文章から感情を示すフレーズを検出する検出手段、 前記宛先のスピーカから出力される音楽の曲調を制御す
る曲調制御情報を前記フレーズに基づいて生成する生成
手段、 前記曲調制御情報を前記フレーズに割り当てる割り当て
手段、および前記文章および前記曲調制御情報を含むメ
ールを伝送路を介して前記宛先に伝送する伝送手段を備
える、メール伝送システム。
7. A sentence creating means for creating a sentence displayed on a display of a destination, a detecting means for detecting a phrase indicating an emotion from the sentence, and tune control information for controlling a tune of music output from a speaker of the destination. Generating means for generating based on the phrase, allocating means for allocating the tune control information to the phrase, and transmitting means for transmitting a mail including the text and the tune control information to the destination via a transmission path. Mail transmission system.
【請求項8】宛先のディスプレイに表示される文章を作
成する手順、 前記文章から感情を示すフレーズを検出する手順、 前記ディスプレイに表示されるキャラクタの動きを制御
する動き制御情報を前記フレーズに基づいて生成する手
順、 前記動き制御情報を前記フレーズに割り当てる手順、お
よび前記文章および前記動き制御情報を含むメールを伝
送路を介して前記宛先に伝送する手順、をコンピュータ
に実行させるプログラムを記録した、コンピュータ読み
取り可能な記録媒体。
8. A step of creating a sentence displayed on a display of a destination, a step of detecting a phrase indicating an emotion from the sentence, and motion control information for controlling the movement of a character displayed on the display based on the phrase. Recording a program that causes a computer to execute the following steps: a procedure of generating the motion control information; a procedure of assigning the motion control information to the phrase; and a procedure of transmitting the mail including the text and the motion control information to the destination via a transmission path. Computer readable recording medium.
【請求項9】宛先のディスプレイに表示される文章を作
成する手順、 前記文章から感情を示すフレーズを検出する手順、 前記宛先のスピーカから出力される音楽の曲調を制御す
る曲調制御情報を前記フレーズに基づいて生成する手
順、 前記曲調制御情報を前記フレーズに割り当てる手順、お
よび前記文章および前記曲調制御情報を含むメールを伝
送路を介して前記宛先に伝送する手順、 をコンピュータに実行させるプログラムを記録した、コ
ンピュータ読み取り可能な記録媒体。
9. A step of creating a sentence displayed on a display of a destination, a step of detecting a phrase indicating an emotion from the sentence, and transmitting the tune control information for controlling the tune of music output from a speaker of the destination to the phrase. Recording a program that causes a computer to execute the following steps: a step of generating based on the above, a step of allocating the tune control information to the phrase, and a step of transmitting a mail including the text and the tune control information to the destination via a transmission path. Computer-readable recording medium.
JP2000218416A 2000-07-19 2000-07-19 Mail transmission system Pending JP2002032306A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000218416A JP2002032306A (en) 2000-07-19 2000-07-19 Mail transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000218416A JP2002032306A (en) 2000-07-19 2000-07-19 Mail transmission system

Publications (1)

Publication Number Publication Date
JP2002032306A true JP2002032306A (en) 2002-01-31

Family

ID=18713368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000218416A Pending JP2002032306A (en) 2000-07-19 2000-07-19 Mail transmission system

Country Status (1)

Country Link
JP (1) JP2002032306A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004057566A1 (en) * 2002-12-20 2004-07-08 Sony Electronics Inc. Text display terminal device and server
KR20040063436A (en) * 2003-01-07 2004-07-14 가온스페이스 주식회사 Avata service method to make gestures and apparatus therefor
JP2005115896A (en) * 2003-10-10 2005-04-28 Nec Corp Communication apparatus and method
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
JP2006185426A (en) * 2004-12-02 2006-07-13 Nec Corp Html mail generation system, communication device, html mail generation method and recording medium
JP2006215801A (en) * 2005-02-03 2006-08-17 Megachips Lsi Solutions Inc E-mail displaying device, and electronic data displaying device
WO2008029889A1 (en) * 2006-09-08 2008-03-13 Panasonic Corporation Information processing terminal, music information generation method, and program
US7570814B2 (en) 2003-10-30 2009-08-04 Nec Corporation Data processing device, data processing method, and electronic device
WO2010095388A1 (en) * 2009-02-18 2010-08-26 日本電気株式会社 Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
JP2011138464A (en) * 2010-01-04 2011-07-14 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program of character input communication
JP2014085952A (en) * 2012-10-25 2014-05-12 Kddi Corp Expression generation device and program
JP2014167737A (en) * 2013-02-28 2014-09-11 Kddi Corp Device and program for creating gestures
KR101450163B1 (en) 2014-02-28 2014-10-13 주식회사 심지 Method for learning emotion recognition of child using mobile terminal
JP2015069367A (en) * 2013-09-27 2015-04-13 Kddi株式会社 Communication terminal, management server, message exchange system, message exchange method, and message exchange program
US9037982B2 (en) 2003-12-27 2015-05-19 Samsung Electronics Co., Ltd. Apparatus and method for processing a message using avatars in a wireless telephone

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JPH10200882A (en) * 1997-01-10 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> Low bit rate image communication equipment and communication method
JPH10214024A (en) * 1997-01-30 1998-08-11 Atr Chinou Eizo Tsushin Kenkyusho:Kk Interactive movie system
JPH10257131A (en) * 1997-03-11 1998-09-25 Casio Comput Co Ltd Communication terminal equipment
JPH11143616A (en) * 1997-11-10 1999-05-28 Sega Enterp Ltd Character communication equipment
JP2000122994A (en) * 1998-10-15 2000-04-28 Fujitsu Ltd Sensitivity determination device and storage medium storing sensitivity determination program
JP2000163337A (en) * 1998-11-27 2000-06-16 Kyocera Corp Electronic mail transmission system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JPH10200882A (en) * 1997-01-10 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> Low bit rate image communication equipment and communication method
JPH10214024A (en) * 1997-01-30 1998-08-11 Atr Chinou Eizo Tsushin Kenkyusho:Kk Interactive movie system
JPH10257131A (en) * 1997-03-11 1998-09-25 Casio Comput Co Ltd Communication terminal equipment
JPH11143616A (en) * 1997-11-10 1999-05-28 Sega Enterp Ltd Character communication equipment
JP2000122994A (en) * 1998-10-15 2000-04-28 Fujitsu Ltd Sensitivity determination device and storage medium storing sensitivity determination program
JP2000163337A (en) * 1998-11-27 2000-06-16 Kyocera Corp Electronic mail transmission system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7180527B2 (en) 2002-12-20 2007-02-20 Sony Corporation Text display terminal device and server
WO2004057566A1 (en) * 2002-12-20 2004-07-08 Sony Electronics Inc. Text display terminal device and server
KR20040063436A (en) * 2003-01-07 2004-07-14 가온스페이스 주식회사 Avata service method to make gestures and apparatus therefor
JP2005115896A (en) * 2003-10-10 2005-04-28 Nec Corp Communication apparatus and method
US7570814B2 (en) 2003-10-30 2009-08-04 Nec Corporation Data processing device, data processing method, and electronic device
US9037982B2 (en) 2003-12-27 2015-05-19 Samsung Electronics Co., Ltd. Apparatus and method for processing a message using avatars in a wireless telephone
JP4627154B2 (en) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 Music output device and music output method according to human emotional state
JP2005352151A (en) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology Device and method to output music in accordance with human emotional condition
JP2006185426A (en) * 2004-12-02 2006-07-13 Nec Corp Html mail generation system, communication device, html mail generation method and recording medium
JP2006215801A (en) * 2005-02-03 2006-08-17 Megachips Lsi Solutions Inc E-mail displaying device, and electronic data displaying device
US7893342B2 (en) 2006-09-08 2011-02-22 Panasonic Corporation Information processing terminal and music information generating program
US8283549B2 (en) 2006-09-08 2012-10-09 Panasonic Corporation Information processing terminal and music information generating method and program
WO2008029889A1 (en) * 2006-09-08 2008-03-13 Panasonic Corporation Information processing terminal, music information generation method, and program
JP5225847B2 (en) * 2006-09-08 2013-07-03 パナソニック株式会社 Information processing terminal, music information generation method, and program
JP5582135B2 (en) * 2009-02-18 2014-09-03 日本電気株式会社 OPERATION OBJECT CONTROL DEVICE, OPERATION OBJECT CONTROL SYSTEM, OPERATION OBJECT CONTROL METHOD, AND PROGRAM
JP2014186744A (en) * 2009-02-18 2014-10-02 Nec Corp Apparatus, system and method for controlling operation object, and program
WO2010095388A1 (en) * 2009-02-18 2010-08-26 日本電気株式会社 Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
JP2011138464A (en) * 2010-01-04 2011-07-14 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program of character input communication
JP2014085952A (en) * 2012-10-25 2014-05-12 Kddi Corp Expression generation device and program
JP2014167737A (en) * 2013-02-28 2014-09-11 Kddi Corp Device and program for creating gestures
JP2015069367A (en) * 2013-09-27 2015-04-13 Kddi株式会社 Communication terminal, management server, message exchange system, message exchange method, and message exchange program
KR101450163B1 (en) 2014-02-28 2014-10-13 주식회사 심지 Method for learning emotion recognition of child using mobile terminal

Similar Documents

Publication Publication Date Title
CN108962217B (en) Speech synthesis method and related equipment
JP2002032306A (en) Mail transmission system
US10580319B2 (en) Interactive multimedia story creation application
US20200143447A1 (en) Method and device for recommending gift and mobile terminal
CN108806655B (en) Automatic generation of songs
US9652134B2 (en) Avatars reflecting user states
US20180342095A1 (en) System and method for generating virtual characters
US7730403B2 (en) Fonts with feelings
JP2004513445A (en) User interface / entertainment device that simulates personal interaction and responds to the user&#39;s emotional state and / or personality
CN112750187A (en) Animation generation method, device and equipment and computer readable storage medium
US20070226641A1 (en) Fonts with feelings
CN113538628A (en) Expression package generation method and device, electronic equipment and computer readable storage medium
JP4563440B2 (en) Electronic picture book system and electronic picture book system controller
US20050288820A1 (en) Novel method to enhance the computer using and online surfing/shopping experience and methods to implement it
KR100874289B1 (en) Electronic pen-computer multimedia interactive system
CN112883181A (en) Session message processing method and device, electronic equipment and storage medium
CN117520490A (en) Man-machine conversation method, system and related device
US20200364068A1 (en) Emotionally driven software interaction experience
JP2001265703A (en) Electronic document transmitting/receiving system
KR102336790B1 (en) Interactive education platform and device
Esau-Held et al. “Foggy sounds like nothing”—enriching the experience of voice assistants with sonic overlays
KR20020024828A (en) Language study method by interactive conversation on Internet
KR20200064021A (en) conversation education system including user device and education server
Léo The Effect of Dynamic Music in Video Games: An Overview of Current Research
KR102548088B1 (en) Apparatus and method for providing user interface for audio contents creation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050125