JP5197638B2 - Character input communication device, method and program - Google Patents

Character input communication device, method and program Download PDF

Info

Publication number
JP5197638B2
JP5197638B2 JP2010000231A JP2010000231A JP5197638B2 JP 5197638 B2 JP5197638 B2 JP 5197638B2 JP 2010000231 A JP2010000231 A JP 2010000231A JP 2010000231 A JP2010000231 A JP 2010000231A JP 5197638 B2 JP5197638 B2 JP 5197638B2
Authority
JP
Japan
Prior art keywords
information
input
avatar
character string
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010000231A
Other languages
Japanese (ja)
Other versions
JP2011138464A (en
Inventor
睦裕 中茂
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010000231A priority Critical patent/JP5197638B2/en
Publication of JP2011138464A publication Critical patent/JP2011138464A/en
Application granted granted Critical
Publication of JP5197638B2 publication Critical patent/JP5197638B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Description

本発明は、文字入力コミュニケーション装置及び方法及びプログラムに係り、特に、文字による入力手段を用いて収集した通信文を用いて、アバタの動作を自動生成して表現豊かに通信文を伝達する遠隔コミュニケーションシステムにおける文字入力コミュニケーション装置及び方法及びプログラムに関する。   The present invention relates to a character input communication apparatus, method, and program, and in particular, remote communication that automatically generates an avatar's action by using a communication sentence collected using character input means and conveys the communication sentence in an expressive manner. The present invention relates to a character input communication apparatus, method, and program in a system.

文字を基本としたコミュニケーションにおいて、表現を豊かにするために様々な工夫がされてきた。例えば、文字を組み合わせて新たな形を作り出して本来とは異なる意味を持たせたり、絵文字などのアイコンを用いたりして表現を豊かにする場合がある。さらには、アバタをメールに添付して送り、入力したとおりにアバタの動作を再生する場合がある。このように、文字を基本とするコミュニケーションで表現を豊かにするためには、ユーザは入力内容を工夫する手間が必要となる。   In communication based on letters, various ideas have been devised to enrich the expression. For example, there are cases where characters are combined to create a new shape and have a different meaning from the original, or an icon such as a pictograph is used to enrich the expression. Further, there is a case where an avatar is attached to a mail and sent, and an avatar operation is reproduced as input. As described above, in order to enrich the expression through communication based on characters, the user needs to devise input contents.

また、状態通知用端末に関連付けられた物や動物に対応する任意の画像情報などから構成されるアイコン情報と、現在状態(例えば「授業中」)と所在場所(例えば「新宿」)の状態情報の両方の対応関係が把握できるように隣接配置させて表示用端末に表示させる方法がある(例えば、特許文献1参照)。   Also, icon information composed of arbitrary image information corresponding to an object or an animal associated with the status notification terminal, and status information of the current status (eg “in class”) and the location (eg “Shinjuku”) There is a method of arranging them adjacent to each other so that the correspondence between them can be grasped and displaying them on a display terminal (see, for example, Patent Document 1).

特開2004−192297号公報JP 2004-192297 A

しかしながら、表現を豊かにする工夫はユーザの知識と技量に委ねられており、誰でも手軽に行えるものではない。また、アバタを利用した通信方法も存在するが、凝った表現をするためには多くの時間を要することが課題であった。   However, the idea of enriching the expression is left to the user's knowledge and skill, and it cannot be easily done by anyone. In addition, there is a communication method using an avatar, but it takes a lot of time to express elaborately.

特許文献1の手法は、文字入力に加え、気持ちなどの付加情報を個別に設定して伝える必要がある。   In the method of Patent Document 1, it is necessary to individually set and transmit additional information such as feelings in addition to character input.

本発明は、上記の点に鑑みなされたもので、電子メールのような文字入力だけを行いながら、アバタの動作を伴って表現豊かに情報通信できる文字入力コミュニケーション装置及び方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides a character input communication device, method, and program capable of performing information communication richly with an avatar operation while performing only character input such as e-mail. With the goal.

図1は、本発明の原理構成図である。   FIG. 1 is a principle configuration diagram of the present invention.

本発明(請求項1)は、文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する情報入出力端末であって、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほどアバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段40と、
文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として記憶手段40に格納する入力手段10と、
記憶手段40に格納された文字列情報と操作情報とを相手先の端末にネットワークを介して送信する通信手段20と、
受信した文字列情報と操作情報を記憶手段に格納し、該操作情報に基づいて、記憶手段の身体動作生成ルールを参照して、アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御手段30と、を有する。
The present invention (Claim 1) is an information input / output terminal for generating and displaying an avatar action from a character string input as a communication sentence in a communication system based on characters,
Storage means 40 for storing character string information, operation information, and a body motion generation rule that is set such that the body motion of the avatar increases as the duration time of pressing of the operation information or the interval time of typing is shorter;
And character string information obtained by using the character input means, when inputting the character string information, that stores in the storage unit 40 one of the least pressing duration key typing and typing interval time as the operation information input Means 10;
Communication means 20 for transmitting character string information and operation information stored in the storage means 40 to a partner terminal via a network;
And stores the received character string information and the operation information in the storage means, based on the operation information, by referring to the body motion generation rule storage means, to change the operating angle of the Body of the avatar, generates an operation of the avatar And display control means 30 for displaying on the display means.

図2は、本発明の原理を説明するための図である。   FIG. 2 is a diagram for explaining the principle of the present invention.

本発明(請求項)は、文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する文字入力コミュニケーション方法において、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほどアバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
入力手段と、
通信手段と、
表示制御手段と、
を有する装置において、
入力手段が、文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として記憶手段に格納する入力ステップ(ステップ1)と、
通信手段が、記憶手段に格納された文字列情報と操作情報とを相手先の端末にネットワークを介して送信する通信ステップ(ステップ2)と、
表示制御手段が、受信した文字列情報と操作情報を記憶手段に格納し(ステップ3)、該操作情報に基づいて、記憶手段の身体動作生成ルールを参照して、アバタの身体各部の動作角度を変化させ、アバタの動作を生成し(ステップ4)、表示手段に表示する(ステップ5)表示制御ステップと、を行う。
The present invention (Claim 2 ) is a character input communication method for generating and displaying an avatar action from a character string input as a communication sentence in a character-based communication system.
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar increases as the duration time of pressing of the operation information or the interval time of typing is shorter,
Input means;
Communication means;
Display control means;
In a device having
The input means stores the character string information acquired by using the character input means and at least one of the keying pressing duration and the typing interval time when inputting the character string information as operation information in the storage means. and to that input step (step 1),
A communication step (step 2) in which the communication means transmits the character string information and the operation information stored in the storage means to the counterpart terminal via the network;
Display control means stores the received character string information and operation information in the storage means (step 3), based on the operation information, by referring to the body motion generation rule storage means, the operation angle of the Body of the avatar The avatar motion is generated (step 4) and displayed on the display means (step 5), and the display control step is performed.

本発明(請求項)は、請求項1に記載の情報入出力端末を構成する各手段としてコンピュータを機能させるための文字入力コミュニケーションプログラムである。 The present invention (Claim 3 ) is a character input communication program for causing a computer to function as each means constituting the information input / output terminal according to Claim 1 .

上記のように本発明によれば、電子メールのような文字入力だけを行いながら、特別な知識と技量を必要とせず、表現豊かに情報通信できるコミュニケーションシステムを構築することで、簡単な操作でこれまでよりも豊かなコミュニケーションができるようになる。また、文字入力のみからアバタの身体動作や合成音声を自動生成できるので、子供など文字の読めない相手先へも簡単に情報を伝達できるようになる。   As described above, according to the present invention, it is possible to perform a simple operation by constructing a communication system capable of expressively communicating information without requiring special knowledge and skill while performing only character input such as e-mail. You will be able to communicate richer than ever. In addition, since the avatar's body movements and synthesized speech can be automatically generated only from character input, information can be easily transmitted to a partner such as a child who cannot read characters.

本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の一実施の形態における装置構成図である。It is an apparatus block diagram in one embodiment of this invention. 本発明の一実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in one embodiment of this invention. 本発明の一実施の形態における動作のシーケンスチャートである。It is a sequence chart of operation in one embodiment of the present invention. 本発明の一実施の形態におけるテーブル生成部を設けた構成例である。It is the example of a structure which provided the table production | generation part in one embodiment of this invention.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図3は、本発明の一実施の形態における装置構成を示す。   FIG. 3 shows an apparatus configuration according to an embodiment of the present invention.

同図に示す情報入力端末は、入力部10、通信部20、表示制御部30、記憶部40から構成される。   The information input terminal shown in FIG. 1 includes an input unit 10, a communication unit 20, a display control unit 30, and a storage unit 40.

入力部10には、操作情報を入力するためのキーボードやテンキー等の入力機器1が接続され、通信部20にはネットワーク装置等の外部機器2が接続されている。   The input unit 1 is connected to an input device 1 such as a keyboard or a numeric keypad for inputting operation information, and the communication unit 20 is connected to an external device 2 such as a network device.

入力機器1として、ユーザは情報を送受するために、文字入力機能と画面表示機能を有したパーソナルコンピュータや携帯電話などの情報入出力端末を利用する。入力機器1は、情報を入力するために、キー操作による文字入力を行う。入力部10は、入力機器1から文字が入力される際に、入力された文字コードだけでなく、その文字を入力する際に要したキータイピング操作に関する情報を同時に記憶部40に記録する。その情報には、キータイピングの押下継続時間、タイピングの間隔時間を含む。また、削除や変換及びキャンセルに要したキー操作に関しても同様に記憶部40に記録しておく。   As the input device 1, a user uses an information input / output terminal such as a personal computer or a mobile phone having a character input function and a screen display function in order to send and receive information. The input device 1 performs character input by key operation in order to input information. When a character is input from the input device 1, the input unit 10 records not only the input character code but also information related to the key typing operation required when inputting the character in the storage unit 40. The information includes key typing pressing duration and typing interval time. Similarly, key operations required for deletion, conversion, and cancellation are recorded in the storage unit 40 in the same manner.

ここで、キータイピングの押下継続時間やタイピングの間隔時間を用いるのは、ユーザの反応が活性化している様子を表現するためであり、活性化されている一般的な状態として早口になったり大きな声を出したりする時に身体動作も大きくなることに対応する。   Here, the duration of key typing and the interval time of typing are used to express how the user's reaction is activated. Corresponds to increased body movements when speaking.

記憶部40は、メモリやハードディスク装置等の記憶媒体であり、入力部10から取得した文字情報と操作情報41及びアバタの身体動作生成ルール42が格納される。   The storage unit 40 is a storage medium such as a memory or a hard disk device, and stores character information acquired from the input unit 10, operation information 41, and avatar body motion generation rules 42.

図4は、本発明の一実施の形態における動作のフローチャートであり、図5は、本発明の一実施の形態におけるシーケンスチャートである。図4、図5におけるステップ番号は対応している。   FIG. 4 is a flowchart of the operation according to the embodiment of the present invention, and FIG. 5 is a sequence chart according to the embodiment of the present invention. The step numbers in FIGS. 4 and 5 correspond to each other.

ステップ101) 最初に、入力処理について説明する。   Step 101) First, input processing will be described.

まず、情報を入力するためには、ユーザが、キーボードやテンキー等の入力機器1を利用して文字を入力する。情報入出力端末入力部10は、その入力文字を記録する際に、一般的なクライアント操作ログ取得ツールを用いて、入力時の操作情報を加えて記憶部40に記録する。記録される情報には、キータイピングの押下継続時間、タイピングの間隔時間が含まれる。なお、キータイピングの押下継続時間やタイピングの間隔時間については、例えば、タイピング練習ソフト等の機能を用いることにより取得可能である。入力部10は、操作情報と文字情報を併せて記憶部40へ記録する。また、入力部10は、入力機器1からの文字入力が完了したら、その旨を通信部20へ通知する。   First, in order to input information, the user inputs characters using the input device 1 such as a keyboard or a numeric keypad. When recording the input characters, the information input / output terminal input unit 10 adds operation information at the time of input and records it in the storage unit 40 using a general client operation log acquisition tool. The information to be recorded includes a key typing pressing duration and a typing interval time. Note that the key typing pressing duration time and the typing interval time can be acquired by using a function such as typing practice software, for example. The input unit 10 records operation information and character information together in the storage unit 40. Further, when the character input from the input device 1 is completed, the input unit 10 notifies the communication unit 20 to that effect.

ステップ102) 情報入出力端末Aの通信部20は、入力部10から入力完了の通知を受け取ったら、通信部20は通信すべき情報を記憶部40へ情報を要求して入手し、外部のネットワーク機器2を通じて、入力された情報を目的の相手先端末(情報入出力端末B)へ通知する。   Step 102) When the communication unit 20 of the information input / output terminal A receives an input completion notification from the input unit 10, the communication unit 20 requests the storage unit 40 to obtain information to be communicated and obtains the information from the external network. The input information is notified to the destination terminal (information input / output terminal B) through the device 2.

ステップ103) 次に、情報表示に関する処理について説明する。   Step 103) Next, processing related to information display will be described.

情報入出力端末Bの通信部20は、情報送信元の情報入出力端末Aから情報を受け取り、記憶部40へ記録する。記録が完了したら表示制御部30へ受信完了したことを通知する。   The communication unit 20 of the information input / output terminal B receives information from the information input / output terminal A that is the information transmission source, and records the information in the storage unit 40. When the recording is completed, the display control unit 30 is notified that the reception is completed.

情報入出力端末Bの表示制御部30は、記憶部40から表示すべき情報を読み出し、画面表示する。その際に、情報送信元の情報入出力端末Aで入力された文字情報だけでなく、アバタを表示する。アバタの表示方法については、特許第3625212号に開示されている技術を用いることにより実現できる。アバタは、記憶部40に格納されている身体動作生成ルール42に沿った人体動作を伴って表示する。その身体動作は、文字入力時のキータイピングの押下継続時間、間隔時間などのキータイピング操作情報に基づいて、記憶部40の身体動作生成ルール42を参照して生成する。その情報によって、アバタの表情や身体動作を変化させる。例えば、身体動作生成ルール42は、キータイピングの継続時間がm秒以上、キータイピングの間隔がn秒以内のような条件毎にランクが設定され、当該ランクに応じた動作をアバタに与える等の方法が考えられる。   The display control unit 30 of the information input / output terminal B reads information to be displayed from the storage unit 40 and displays it on the screen. At that time, not only the character information input at the information input / output terminal A of the information transmission source but also an avatar is displayed. The avatar display method can be realized by using the technique disclosed in Japanese Patent No. 3625212. The avatar displays the human body movement according to the body movement generation rule 42 stored in the storage unit 40. The body motion is generated with reference to the body motion generation rule 42 in the storage unit 40 based on key typing operation information such as a key typing pressing duration time and an interval time when inputting characters. The information changes the avatar's facial expression and body movement. For example, in the body motion generation rule 42, a rank is set for each condition such that the key typing duration is not less than m seconds and the key typing interval is not more than n seconds, and a motion corresponding to the rank is given to the avatar. A method is conceivable.

また、表示された文字情報の、どの部分をアバタが演じているかを即座に判断できるように、再生中の文字の箇所は強調表示される。あるいは、再生済みの部分と未再生の部分の文字フォントを異なるものにしてもよい。   In addition, the portion of the character being reproduced is highlighted so that it can be immediately determined which portion of the displayed character information is being played by the avatar. Alternatively, the character fonts of the reproduced part and the unreproduced part may be different.

ここで、記憶部40に格納されているアバタの身体動作生成ルール42について説明する。   Here, the avatar body motion generation rule 42 stored in the storage unit 40 will be described.

人は対面のコミュニケーション時に、声の大きさや感情の高低の変化に応じて、手足の動作、体のゆれなど身体各部を動作することで表現力を豊かにしている。通常の文字情報の送受では、記号しか伝達できないが、本発明では、文字入力の際のキータイピング情報を合わせて伝達する。キータイピング情報は前述の身体動作を生成するために用いる。アバタの身体動作を生成する処理において、入力はキータイピングの押下継続時間、タイピングの間隔時間である。それぞれ、時間が短いほどアバタの身体動作を大きくする。アバタの身体各部の関節の動作角度を変化に割り当てる。   During face-to-face communication, people enrich their expressive power by moving various parts of the body, such as limb movements and body movements, according to changes in loudness and emotion. In normal transmission and reception of character information, only symbols can be transmitted, but in the present invention, key typing information for character input is also transmitted. The key typing information is used to generate the aforementioned body movement. In the process of generating the avatar's body motion, the input is the key typing pressing duration and the typing interval time. The shorter the time, the larger the avatar's physical movement. Assign the angle of motion of the joints of each body part of the avatar to the change.

アバタの身体動作生成ルール42の生成方法には種々の方法がある。   There are various methods for generating the avatar body motion generation rule 42.

第1の方法として、キータイピングの押下時間やキータイピングのキータッチの間隔に応じてランク(0〜99)を決定する。当該ランクの数値が大きいほどアバタの身体動作を大きくなるよう強度を決定する。例えば、押下時間やキータッチの間隔が最短の場合にはランク「99」とし、短い場合には、当該時間に応じてランクが低くなるように設定し、ランク毎にアバタの関節の動作を設定する。例えば、ランク「99」の場合は、右腕の関節の角度を10度減らし、右肩の関節を130度にするように設定することが可能である。   As a first method, the rank (0 to 99) is determined according to the pressing time of key typing and the key touch interval of key typing. The strength is determined so that the physical movement of the avatar increases as the numerical value of the rank increases. For example, when the pressing time or key touch interval is the shortest, the rank is set to “99”, and when it is short, the rank is set to be lowered according to the time, and the avatar joint operation is set for each rank. To do. For example, in the case of rank “99”, the angle of the joint of the right arm can be reduced by 10 degrees, and the joint of the right shoulder can be set to 130 degrees.

第2の方法として、図6に示すように、テーブル生成部50を設け、入力機器1から入力された文字情報を形態素解析し、文節や単語毎に分解し、予め、文節や単語、あるいは言い回し毎にランクが対応付けられている単語・ランクテーブル60を生成する。なお、単語・ランクテーブル60は、メモリまたはハードディスク等の記憶媒体である。表示制御部30は、記憶部40の文字情報を形態素解析し、文節や単語あるいは言い回しに基づいて単語・ランクテーブル60を参照してランクを付与する。記録された文字、文節、あるいは、適当なブロック毎にランクを付与する。例えば、「そうだ」、「まったく」「とんでもない」等の単語についてはランクの数値を高くすることが考えられる。ランクは、第1の方法と同様に0〜99の段階で表現し、ランクの数値が大きいほどアバタの身体動作が大きくなるよう、アバタの身体動作の強度を決定する。例えば、ランク「75」の場合は、「ジェスチャーの種類:頭部を動かす」、ランク「94」の場合には、「ジェスチャーの種類:手を上下に動かす」等の動作を行うようにする。   As a second method, as shown in FIG. 6, a table generation unit 50 is provided, and character information input from the input device 1 is morphologically analyzed and decomposed into phrases and words. A word / rank table 60 associated with each rank is generated. The word / rank table 60 is a storage medium such as a memory or a hard disk. The display control unit 30 performs morphological analysis on the character information stored in the storage unit 40 and assigns a rank by referring to the word / rank table 60 based on the phrase, word, or wording. A rank is assigned to each recorded character, phrase, or appropriate block. For example, it is conceivable to increase the rank value for words such as “Yes”, “Not at all”, and “Outrageous”. The rank is expressed in the range of 0 to 99 as in the first method, and the strength of the avatar's body motion is determined so that the body motion of the avatar increases as the numerical value of the rank increases. For example, in the case of rank “75”, an operation such as “type of gesture: moving the head” is performed, and in the case of rank “94”, an operation such as “type of gesture: moving the hand up and down” is performed.

次に、第3の方法として、アバタの身体動作に発話動作を含める。音声合成の処理を行って文字情報を再生する。その発話タイミングや速さは、情報発信元のユーザが文字入力した際の操作情報に基づいて決定する。声の高さやピックについても同様である。   Next, as a third method, the speech motion is included in the avatar's physical motion. Performs speech synthesis processing and reproduces character information. The utterance timing and speed are determined based on operation information when the user of the information source inputs characters. The same applies to voice pitch and pick.

このように、電子メールのようなユーザが行う文字入力からアバタの動作を変化させたり、文字の表示色やフォントを変化させたりすることで、表現豊かに情報通信することが可能となる。   As described above, information communication with rich expression can be performed by changing the avatar operation from the character input performed by the user such as an e-mail or changing the display color or font of the character.

なお、図3、図6に示す情報入力端末の動作をプログラムとして構築し、当該情報入力端末として利用されるコンピュータまたは携帯端末内のプロセッサにインストールして実行させる、または、ネットワークを介して流通させることが可能である。   The operation of the information input terminal shown in FIGS. 3 and 6 is constructed as a program, and is installed and executed on a computer or a processor in the mobile terminal used as the information input terminal, or distributed through a network. It is possible.

また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

1 入力機器
2 外部機器
10 入力部
20 通信部
30 表示制御部
40 記憶部
41 操作文字情報
42 身体動作生成ルール
50 テーブル生成部
60 単語・ランクテーブル
DESCRIPTION OF SYMBOLS 1 Input device 2 External device 10 Input part 20 Communication part 30 Display control part 40 Memory | storage part 41 Operation character information 42 Body motion production | generation rule 50 Table production | generation part 60 Word / rank table

Claims (3)

文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する情報入出力端末であって、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほど前記アバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として前記記憶手段に格納する入力手段と、
前記記憶手段に格納された前記文字列情報と前記操作情報とを相手先の端末にネットワークを介して送信する通信手段と、
受信した前記文字列情報と前記操作情報を前記記憶手段に格納し、該操作情報に基づいて、前記記憶手段の前記身体動作生成ルールを参照して、前記アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御手段と、
を有することを特徴とする情報入出力端末。
An information input / output terminal for generating and displaying an avatar action from a character string input as a communication sentence in a communication system based on characters,
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar becomes larger as the pressing duration time of the operation information or the interval time of typing is shorter,
And character string information obtained by using the character input means, when inputting the character string information, that stores in the memory means at least either pressing duration key typing and typing interval time as the operation information input Means,
Communication means for transmitting the character string information stored in the storage means and the operation information to a counterpart terminal via a network;
Stores the received character string information and the operation information in the storage means, based on the operation information, by referring to the body motion generation rules of the storage means, by changing the operation angle of the Body of the avatar Display control means for generating an avatar action and displaying it on the display means;
An information input / output terminal comprising:
文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する文字入力コミュニケーション方法において、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほど前記アバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
入力手段と、
通信手段と、
表示制御手段と、
を有する装置において、
前記入力手段が、文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として前記記憶手段に格納する入力ステップと、
前記通信手段が、前記記憶手段に格納された前記文字列情報と前記操作情報とを相手先の端末にネットワークを介して送信する通信ステップと、
前記表示制御手段が、受信した前記文字列情報と前記操作情報を前記記憶手段に格納し、該操作情報に基づいて、前記記憶手段の前記身体動作生成ルールを参照して、前記アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御ステップと、
を行うことを特徴とする文字入力コミュニケーション方法。
In a character-based communication system that generates and displays an avatar action from a character string input as a communication sentence in a character-based communication system,
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar becomes larger as the pressing duration time of the operation information or the interval time of typing is shorter,
Input means;
Communication means;
Display control means;
In a device having
The storage means uses the character string information acquired by the input means using the character input means, and at least one of keying pressing duration and typing interval time as the operation information when inputting the character string information. an input step that stores in,
A communication step in which the communication means transmits the character string information and the operation information stored in the storage means to a counterpart terminal via a network;
It said display control means stores the operation information and said received character string information in the storage means, based on the operation information, by referring to the body motion generation rules of the storage means, Body of the avatar A display control step of changing an operation angle of the avatar, generating an avatar motion, and displaying the motion on the display means;
A character input communication method characterized by:
請求項1に記載の情報入出力端末を構成する各手段としてコンピュータを機能させるための文字入力コミュニケーションプログラム。 The character input communication program for functioning a computer as each means which comprises the information input / output terminal of Claim 1 .
JP2010000231A 2010-01-04 2010-01-04 Character input communication device, method and program Expired - Fee Related JP5197638B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010000231A JP5197638B2 (en) 2010-01-04 2010-01-04 Character input communication device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010000231A JP5197638B2 (en) 2010-01-04 2010-01-04 Character input communication device, method and program

Publications (2)

Publication Number Publication Date
JP2011138464A JP2011138464A (en) 2011-07-14
JP5197638B2 true JP5197638B2 (en) 2013-05-15

Family

ID=44349798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010000231A Expired - Fee Related JP5197638B2 (en) 2010-01-04 2010-01-04 Character input communication device, method and program

Country Status (1)

Country Link
JP (1) JP5197638B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160021A (en) * 1999-12-03 2001-06-12 Sony Corp Communication system in virtual space
JP2002032306A (en) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab Mail transmission system
JP2004362553A (en) * 2003-05-13 2004-12-24 Craftmax:Kk Communication terminal device, communication document data display method, communication document data display program, and information recording medium recording the display program
JP4403284B2 (en) * 2004-03-31 2010-01-27 株式会社国際電気通信基礎技術研究所 E-mail processing apparatus and e-mail processing program

Also Published As

Publication number Publication date
JP2011138464A (en) 2011-07-14

Similar Documents

Publication Publication Date Title
US20220230374A1 (en) User interface for generating expressive content
JP4085926B2 (en) Information processing terminal and communication system
JP5815214B2 (en) Animation script generation device, animation output device, reception terminal device, transmission terminal device, portable terminal device and method
CN110364148A (en) Natural assistant's interaction
JP2018036621A (en) Information input method and device
WO1999024900A1 (en) Character communication device
Sánchez et al. Mobile messenger for the blind
JP2008547085A (en) Pronunciation input using keypad
CN110249325A (en) Input system with traffic model
JPWO2018235607A1 (en) Information processing apparatus, information processing method, and program
CN110493123A (en) Instant communication method, device, equipment and storage medium
KR102078209B1 (en) Avatar visual conversion apparatus expressing text message into V-moji and message conversion method
CN114902258A (en) Communication support system and communication support program
JP5197638B2 (en) Character input communication device, method and program
JP2015036886A (en) Information processing device, storage medium, and method
Pallavi et al. Nirvatha vadathi-an app to assist deaf and dumb
KR20190134080A (en) Apparatus for providing chatting service
Perera et al. Intelligent mobile assistant for hearing impairers to interact with the society in Sinhala language
JP4145886B2 (en) Character conversion device, program for information processing device, received content display method, and received content display system
JP3867775B2 (en) Sentence creation device by word input
JP7462995B1 (en) Information processing system, information processing method, and program
Tahiroǧlu et al. Vocal sketching: a prototype tool for designing multimodal interaction
JP2004102496A (en) Text and character display system, computer program, and server
Trewin et al. Text entry when movement is impaired
KR100799160B1 (en) Method for coordinating robot and messenger and device thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5197638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees