JP5197638B2 - Character input communication device, method and program - Google Patents
Character input communication device, method and program Download PDFInfo
- Publication number
- JP5197638B2 JP5197638B2 JP2010000231A JP2010000231A JP5197638B2 JP 5197638 B2 JP5197638 B2 JP 5197638B2 JP 2010000231 A JP2010000231 A JP 2010000231A JP 2010000231 A JP2010000231 A JP 2010000231A JP 5197638 B2 JP5197638 B2 JP 5197638B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- input
- avatar
- character string
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
Description
本発明は、文字入力コミュニケーション装置及び方法及びプログラムに係り、特に、文字による入力手段を用いて収集した通信文を用いて、アバタの動作を自動生成して表現豊かに通信文を伝達する遠隔コミュニケーションシステムにおける文字入力コミュニケーション装置及び方法及びプログラムに関する。 The present invention relates to a character input communication apparatus, method, and program, and in particular, remote communication that automatically generates an avatar's action by using a communication sentence collected using character input means and conveys the communication sentence in an expressive manner. The present invention relates to a character input communication apparatus, method, and program in a system.
文字を基本としたコミュニケーションにおいて、表現を豊かにするために様々な工夫がされてきた。例えば、文字を組み合わせて新たな形を作り出して本来とは異なる意味を持たせたり、絵文字などのアイコンを用いたりして表現を豊かにする場合がある。さらには、アバタをメールに添付して送り、入力したとおりにアバタの動作を再生する場合がある。このように、文字を基本とするコミュニケーションで表現を豊かにするためには、ユーザは入力内容を工夫する手間が必要となる。 In communication based on letters, various ideas have been devised to enrich the expression. For example, there are cases where characters are combined to create a new shape and have a different meaning from the original, or an icon such as a pictograph is used to enrich the expression. Further, there is a case where an avatar is attached to a mail and sent, and an avatar operation is reproduced as input. As described above, in order to enrich the expression through communication based on characters, the user needs to devise input contents.
また、状態通知用端末に関連付けられた物や動物に対応する任意の画像情報などから構成されるアイコン情報と、現在状態(例えば「授業中」)と所在場所(例えば「新宿」)の状態情報の両方の対応関係が把握できるように隣接配置させて表示用端末に表示させる方法がある(例えば、特許文献1参照)。 Also, icon information composed of arbitrary image information corresponding to an object or an animal associated with the status notification terminal, and status information of the current status (eg “in class”) and the location (eg “Shinjuku”) There is a method of arranging them adjacent to each other so that the correspondence between them can be grasped and displaying them on a display terminal (see, for example, Patent Document 1).
しかしながら、表現を豊かにする工夫はユーザの知識と技量に委ねられており、誰でも手軽に行えるものではない。また、アバタを利用した通信方法も存在するが、凝った表現をするためには多くの時間を要することが課題であった。 However, the idea of enriching the expression is left to the user's knowledge and skill, and it cannot be easily done by anyone. In addition, there is a communication method using an avatar, but it takes a lot of time to express elaborately.
特許文献1の手法は、文字入力に加え、気持ちなどの付加情報を個別に設定して伝える必要がある。
In the method of
本発明は、上記の点に鑑みなされたもので、電子メールのような文字入力だけを行いながら、アバタの動作を伴って表現豊かに情報通信できる文字入力コミュニケーション装置及び方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a character input communication device, method, and program capable of performing information communication richly with an avatar operation while performing only character input such as e-mail. With the goal.
図1は、本発明の原理構成図である。 FIG. 1 is a principle configuration diagram of the present invention.
本発明(請求項1)は、文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する情報入出力端末であって、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほどアバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段40と、
文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として記憶手段40に格納する入力手段10と、
記憶手段40に格納された文字列情報と操作情報とを相手先の端末にネットワークを介して送信する通信手段20と、
受信した文字列情報と操作情報を記憶手段に格納し、該操作情報に基づいて、記憶手段の身体動作生成ルールを参照して、アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御手段30と、を有する。
The present invention (Claim 1) is an information input / output terminal for generating and displaying an avatar action from a character string input as a communication sentence in a communication system based on characters,
Storage means 40 for storing character string information, operation information, and a body motion generation rule that is set such that the body motion of the avatar increases as the duration time of pressing of the operation information or the interval time of typing is shorter;
And character string information obtained by using the character input means, when inputting the character string information, that stores in the
Communication means 20 for transmitting character string information and operation information stored in the storage means 40 to a partner terminal via a network;
And stores the received character string information and the operation information in the storage means, based on the operation information, by referring to the body motion generation rule storage means, to change the operating angle of the Body of the avatar, generates an operation of the avatar And display control means 30 for displaying on the display means.
図2は、本発明の原理を説明するための図である。 FIG. 2 is a diagram for explaining the principle of the present invention.
本発明(請求項2)は、文字を基本としたコミュニケーションシステムにおいて、通信文として入力された文字列からアバタの動作を生成して表示する文字入力コミュニケーション方法において、
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほどアバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
入力手段と、
通信手段と、
表示制御手段と、
を有する装置において、
入力手段が、文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として記憶手段に格納する入力ステップ(ステップ1)と、
通信手段が、記憶手段に格納された文字列情報と操作情報とを相手先の端末にネットワークを介して送信する通信ステップ(ステップ2)と、
表示制御手段が、受信した文字列情報と操作情報を記憶手段に格納し(ステップ3)、該操作情報に基づいて、記憶手段の身体動作生成ルールを参照して、アバタの身体各部の動作角度を変化させ、アバタの動作を生成し(ステップ4)、表示手段に表示する(ステップ5)表示制御ステップと、を行う。
The present invention (Claim 2 ) is a character input communication method for generating and displaying an avatar action from a character string input as a communication sentence in a character-based communication system.
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar increases as the duration time of pressing of the operation information or the interval time of typing is shorter,
Input means;
Communication means;
Display control means;
In a device having
The input means stores the character string information acquired by using the character input means and at least one of the keying pressing duration and the typing interval time when inputting the character string information as operation information in the storage means. and to that input step (step 1),
A communication step (step 2) in which the communication means transmits the character string information and the operation information stored in the storage means to the counterpart terminal via the network;
Display control means stores the received character string information and operation information in the storage means (step 3), based on the operation information, by referring to the body motion generation rule storage means, the operation angle of the Body of the avatar The avatar motion is generated (step 4) and displayed on the display means (step 5), and the display control step is performed.
本発明(請求項3)は、請求項1に記載の情報入出力端末を構成する各手段としてコンピュータを機能させるための文字入力コミュニケーションプログラムである。
The present invention (Claim 3 ) is a character input communication program for causing a computer to function as each means constituting the information input / output terminal according to
上記のように本発明によれば、電子メールのような文字入力だけを行いながら、特別な知識と技量を必要とせず、表現豊かに情報通信できるコミュニケーションシステムを構築することで、簡単な操作でこれまでよりも豊かなコミュニケーションができるようになる。また、文字入力のみからアバタの身体動作や合成音声を自動生成できるので、子供など文字の読めない相手先へも簡単に情報を伝達できるようになる。 As described above, according to the present invention, it is possible to perform a simple operation by constructing a communication system capable of expressively communicating information without requiring special knowledge and skill while performing only character input such as e-mail. You will be able to communicate richer than ever. In addition, since the avatar's body movements and synthesized speech can be automatically generated only from character input, information can be easily transmitted to a partner such as a child who cannot read characters.
以下、図面と共に本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図3は、本発明の一実施の形態における装置構成を示す。 FIG. 3 shows an apparatus configuration according to an embodiment of the present invention.
同図に示す情報入力端末は、入力部10、通信部20、表示制御部30、記憶部40から構成される。
The information input terminal shown in FIG. 1 includes an
入力部10には、操作情報を入力するためのキーボードやテンキー等の入力機器1が接続され、通信部20にはネットワーク装置等の外部機器2が接続されている。
The
入力機器1として、ユーザは情報を送受するために、文字入力機能と画面表示機能を有したパーソナルコンピュータや携帯電話などの情報入出力端末を利用する。入力機器1は、情報を入力するために、キー操作による文字入力を行う。入力部10は、入力機器1から文字が入力される際に、入力された文字コードだけでなく、その文字を入力する際に要したキータイピング操作に関する情報を同時に記憶部40に記録する。その情報には、キータイピングの押下継続時間、タイピングの間隔時間を含む。また、削除や変換及びキャンセルに要したキー操作に関しても同様に記憶部40に記録しておく。
As the
ここで、キータイピングの押下継続時間やタイピングの間隔時間を用いるのは、ユーザの反応が活性化している様子を表現するためであり、活性化されている一般的な状態として早口になったり大きな声を出したりする時に身体動作も大きくなることに対応する。 Here, the duration of key typing and the interval time of typing are used to express how the user's reaction is activated. Corresponds to increased body movements when speaking.
記憶部40は、メモリやハードディスク装置等の記憶媒体であり、入力部10から取得した文字情報と操作情報41及びアバタの身体動作生成ルール42が格納される。
The
図4は、本発明の一実施の形態における動作のフローチャートであり、図5は、本発明の一実施の形態におけるシーケンスチャートである。図4、図5におけるステップ番号は対応している。 FIG. 4 is a flowchart of the operation according to the embodiment of the present invention, and FIG. 5 is a sequence chart according to the embodiment of the present invention. The step numbers in FIGS. 4 and 5 correspond to each other.
ステップ101) 最初に、入力処理について説明する。 Step 101) First, input processing will be described.
まず、情報を入力するためには、ユーザが、キーボードやテンキー等の入力機器1を利用して文字を入力する。情報入出力端末入力部10は、その入力文字を記録する際に、一般的なクライアント操作ログ取得ツールを用いて、入力時の操作情報を加えて記憶部40に記録する。記録される情報には、キータイピングの押下継続時間、タイピングの間隔時間が含まれる。なお、キータイピングの押下継続時間やタイピングの間隔時間については、例えば、タイピング練習ソフト等の機能を用いることにより取得可能である。入力部10は、操作情報と文字情報を併せて記憶部40へ記録する。また、入力部10は、入力機器1からの文字入力が完了したら、その旨を通信部20へ通知する。
First, in order to input information, the user inputs characters using the
ステップ102) 情報入出力端末Aの通信部20は、入力部10から入力完了の通知を受け取ったら、通信部20は通信すべき情報を記憶部40へ情報を要求して入手し、外部のネットワーク機器2を通じて、入力された情報を目的の相手先端末(情報入出力端末B)へ通知する。
Step 102) When the
ステップ103) 次に、情報表示に関する処理について説明する。 Step 103) Next, processing related to information display will be described.
情報入出力端末Bの通信部20は、情報送信元の情報入出力端末Aから情報を受け取り、記憶部40へ記録する。記録が完了したら表示制御部30へ受信完了したことを通知する。
The
情報入出力端末Bの表示制御部30は、記憶部40から表示すべき情報を読み出し、画面表示する。その際に、情報送信元の情報入出力端末Aで入力された文字情報だけでなく、アバタを表示する。アバタの表示方法については、特許第3625212号に開示されている技術を用いることにより実現できる。アバタは、記憶部40に格納されている身体動作生成ルール42に沿った人体動作を伴って表示する。その身体動作は、文字入力時のキータイピングの押下継続時間、間隔時間などのキータイピング操作情報に基づいて、記憶部40の身体動作生成ルール42を参照して生成する。その情報によって、アバタの表情や身体動作を変化させる。例えば、身体動作生成ルール42は、キータイピングの継続時間がm秒以上、キータイピングの間隔がn秒以内のような条件毎にランクが設定され、当該ランクに応じた動作をアバタに与える等の方法が考えられる。
The
また、表示された文字情報の、どの部分をアバタが演じているかを即座に判断できるように、再生中の文字の箇所は強調表示される。あるいは、再生済みの部分と未再生の部分の文字フォントを異なるものにしてもよい。 In addition, the portion of the character being reproduced is highlighted so that it can be immediately determined which portion of the displayed character information is being played by the avatar. Alternatively, the character fonts of the reproduced part and the unreproduced part may be different.
ここで、記憶部40に格納されているアバタの身体動作生成ルール42について説明する。
Here, the avatar body
人は対面のコミュニケーション時に、声の大きさや感情の高低の変化に応じて、手足の動作、体のゆれなど身体各部を動作することで表現力を豊かにしている。通常の文字情報の送受では、記号しか伝達できないが、本発明では、文字入力の際のキータイピング情報を合わせて伝達する。キータイピング情報は前述の身体動作を生成するために用いる。アバタの身体動作を生成する処理において、入力はキータイピングの押下継続時間、タイピングの間隔時間である。それぞれ、時間が短いほどアバタの身体動作を大きくする。アバタの身体各部の関節の動作角度を変化に割り当てる。 During face-to-face communication, people enrich their expressive power by moving various parts of the body, such as limb movements and body movements, according to changes in loudness and emotion. In normal transmission and reception of character information, only symbols can be transmitted, but in the present invention, key typing information for character input is also transmitted. The key typing information is used to generate the aforementioned body movement. In the process of generating the avatar's body motion, the input is the key typing pressing duration and the typing interval time. The shorter the time, the larger the avatar's physical movement. Assign the angle of motion of the joints of each body part of the avatar to the change.
アバタの身体動作生成ルール42の生成方法には種々の方法がある。
There are various methods for generating the avatar body
第1の方法として、キータイピングの押下時間やキータイピングのキータッチの間隔に応じてランク(0〜99)を決定する。当該ランクの数値が大きいほどアバタの身体動作を大きくなるよう強度を決定する。例えば、押下時間やキータッチの間隔が最短の場合にはランク「99」とし、短い場合には、当該時間に応じてランクが低くなるように設定し、ランク毎にアバタの関節の動作を設定する。例えば、ランク「99」の場合は、右腕の関節の角度を10度減らし、右肩の関節を130度にするように設定することが可能である。 As a first method, the rank (0 to 99) is determined according to the pressing time of key typing and the key touch interval of key typing. The strength is determined so that the physical movement of the avatar increases as the numerical value of the rank increases. For example, when the pressing time or key touch interval is the shortest, the rank is set to “99”, and when it is short, the rank is set to be lowered according to the time, and the avatar joint operation is set for each rank. To do. For example, in the case of rank “99”, the angle of the joint of the right arm can be reduced by 10 degrees, and the joint of the right shoulder can be set to 130 degrees.
第2の方法として、図6に示すように、テーブル生成部50を設け、入力機器1から入力された文字情報を形態素解析し、文節や単語毎に分解し、予め、文節や単語、あるいは言い回し毎にランクが対応付けられている単語・ランクテーブル60を生成する。なお、単語・ランクテーブル60は、メモリまたはハードディスク等の記憶媒体である。表示制御部30は、記憶部40の文字情報を形態素解析し、文節や単語あるいは言い回しに基づいて単語・ランクテーブル60を参照してランクを付与する。記録された文字、文節、あるいは、適当なブロック毎にランクを付与する。例えば、「そうだ」、「まったく」「とんでもない」等の単語についてはランクの数値を高くすることが考えられる。ランクは、第1の方法と同様に0〜99の段階で表現し、ランクの数値が大きいほどアバタの身体動作が大きくなるよう、アバタの身体動作の強度を決定する。例えば、ランク「75」の場合は、「ジェスチャーの種類:頭部を動かす」、ランク「94」の場合には、「ジェスチャーの種類:手を上下に動かす」等の動作を行うようにする。
As a second method, as shown in FIG. 6, a table generation unit 50 is provided, and character information input from the
次に、第3の方法として、アバタの身体動作に発話動作を含める。音声合成の処理を行って文字情報を再生する。その発話タイミングや速さは、情報発信元のユーザが文字入力した際の操作情報に基づいて決定する。声の高さやピックについても同様である。 Next, as a third method, the speech motion is included in the avatar's physical motion. Performs speech synthesis processing and reproduces character information. The utterance timing and speed are determined based on operation information when the user of the information source inputs characters. The same applies to voice pitch and pick.
このように、電子メールのようなユーザが行う文字入力からアバタの動作を変化させたり、文字の表示色やフォントを変化させたりすることで、表現豊かに情報通信することが可能となる。 As described above, information communication with rich expression can be performed by changing the avatar operation from the character input performed by the user such as an e-mail or changing the display color or font of the character.
なお、図3、図6に示す情報入力端末の動作をプログラムとして構築し、当該情報入力端末として利用されるコンピュータまたは携帯端末内のプロセッサにインストールして実行させる、または、ネットワークを介して流通させることが可能である。 The operation of the information input terminal shown in FIGS. 3 and 6 is constructed as a program, and is installed and executed on a computer or a processor in the mobile terminal used as the information input terminal, or distributed through a network. It is possible.
また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。 Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.
1 入力機器
2 外部機器
10 入力部
20 通信部
30 表示制御部
40 記憶部
41 操作文字情報
42 身体動作生成ルール
50 テーブル生成部
60 単語・ランクテーブル
DESCRIPTION OF
Claims (3)
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほど前記アバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として前記記憶手段に格納する入力手段と、
前記記憶手段に格納された前記文字列情報と前記操作情報とを相手先の端末にネットワークを介して送信する通信手段と、
受信した前記文字列情報と前記操作情報を前記記憶手段に格納し、該操作情報に基づいて、前記記憶手段の前記身体動作生成ルールを参照して、前記アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御手段と、
を有することを特徴とする情報入出力端末。 An information input / output terminal for generating and displaying an avatar action from a character string input as a communication sentence in a communication system based on characters,
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar becomes larger as the pressing duration time of the operation information or the interval time of typing is shorter,
And character string information obtained by using the character input means, when inputting the character string information, that stores in the memory means at least either pressing duration key typing and typing interval time as the operation information input Means,
Communication means for transmitting the character string information stored in the storage means and the operation information to a counterpart terminal via a network;
Stores the received character string information and the operation information in the storage means, based on the operation information, by referring to the body motion generation rules of the storage means, by changing the operation angle of the Body of the avatar Display control means for generating an avatar action and displaying it on the display means;
An information input / output terminal comprising:
文字列情報と、操作情報と、該操作情報の押下継続時間またはタイピングの間隔時間が短いほど前記アバタの身体動作が大きくなるように設定された身体動作生成ルールと、を格納する記憶手段と、
入力手段と、
通信手段と、
表示制御手段と、
を有する装置において、
前記入力手段が、文字入力手段を用いて取得した文字列情報と、該文字列情報を入力する際の、少なくともキータイピングの押下継続時間とタイピングの間隔時間のいずれかを操作情報として前記記憶手段に格納する入力ステップと、
前記通信手段が、前記記憶手段に格納された前記文字列情報と前記操作情報とを相手先の端末にネットワークを介して送信する通信ステップと、
前記表示制御手段が、受信した前記文字列情報と前記操作情報を前記記憶手段に格納し、該操作情報に基づいて、前記記憶手段の前記身体動作生成ルールを参照して、前記アバタの身体各部の動作角度を変化させ、アバタの動作を生成し、表示手段に表示する表示制御ステップと、
を行うことを特徴とする文字入力コミュニケーション方法。 In a character-based communication system that generates and displays an avatar action from a character string input as a communication sentence in a character-based communication system,
Storage means for storing character string information, operation information, and a body motion generation rule that is set so that the body motion of the avatar becomes larger as the pressing duration time of the operation information or the interval time of typing is shorter,
Input means;
Communication means;
Display control means;
In a device having
The storage means uses the character string information acquired by the input means using the character input means, and at least one of keying pressing duration and typing interval time as the operation information when inputting the character string information. an input step that stores in,
A communication step in which the communication means transmits the character string information and the operation information stored in the storage means to a counterpart terminal via a network;
It said display control means stores the operation information and said received character string information in the storage means, based on the operation information, by referring to the body motion generation rules of the storage means, Body of the avatar A display control step of changing an operation angle of the avatar, generating an avatar motion, and displaying the motion on the display means;
A character input communication method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010000231A JP5197638B2 (en) | 2010-01-04 | 2010-01-04 | Character input communication device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010000231A JP5197638B2 (en) | 2010-01-04 | 2010-01-04 | Character input communication device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011138464A JP2011138464A (en) | 2011-07-14 |
JP5197638B2 true JP5197638B2 (en) | 2013-05-15 |
Family
ID=44349798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010000231A Expired - Fee Related JP5197638B2 (en) | 2010-01-04 | 2010-01-04 | Character input communication device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5197638B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160021A (en) * | 1999-12-03 | 2001-06-12 | Sony Corp | Communication system in virtual space |
JP2002032306A (en) * | 2000-07-19 | 2002-01-31 | Atr Media Integration & Communications Res Lab | Mail transmission system |
JP2004362553A (en) * | 2003-05-13 | 2004-12-24 | Craftmax:Kk | Communication terminal device, communication document data display method, communication document data display program, and information recording medium recording the display program |
JP4403284B2 (en) * | 2004-03-31 | 2010-01-27 | 株式会社国際電気通信基礎技術研究所 | E-mail processing apparatus and e-mail processing program |
-
2010
- 2010-01-04 JP JP2010000231A patent/JP5197638B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011138464A (en) | 2011-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220230374A1 (en) | User interface for generating expressive content | |
JP4085926B2 (en) | Information processing terminal and communication system | |
JP5815214B2 (en) | Animation script generation device, animation output device, reception terminal device, transmission terminal device, portable terminal device and method | |
CN110364148A (en) | Natural assistant's interaction | |
JP2018036621A (en) | Information input method and device | |
WO1999024900A1 (en) | Character communication device | |
Sánchez et al. | Mobile messenger for the blind | |
JP2008547085A (en) | Pronunciation input using keypad | |
CN110249325A (en) | Input system with traffic model | |
JPWO2018235607A1 (en) | Information processing apparatus, information processing method, and program | |
CN110493123A (en) | Instant communication method, device, equipment and storage medium | |
KR102078209B1 (en) | Avatar visual conversion apparatus expressing text message into V-moji and message conversion method | |
CN114902258A (en) | Communication support system and communication support program | |
JP5197638B2 (en) | Character input communication device, method and program | |
JP2015036886A (en) | Information processing device, storage medium, and method | |
Pallavi et al. | Nirvatha vadathi-an app to assist deaf and dumb | |
KR20190134080A (en) | Apparatus for providing chatting service | |
Perera et al. | Intelligent mobile assistant for hearing impairers to interact with the society in Sinhala language | |
JP4145886B2 (en) | Character conversion device, program for information processing device, received content display method, and received content display system | |
JP3867775B2 (en) | Sentence creation device by word input | |
JP7462995B1 (en) | Information processing system, information processing method, and program | |
Tahiroǧlu et al. | Vocal sketching: a prototype tool for designing multimodal interaction | |
JP2004102496A (en) | Text and character display system, computer program, and server | |
Trewin et al. | Text entry when movement is impaired | |
KR100799160B1 (en) | Method for coordinating robot and messenger and device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5197638 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |