以下、添付した図面を参照し、本発明が属する技術分野で当業者が容易に実施することができるように、本発明の実施形態について詳細に説明する。しかし、本発明は、さまざまに異なる形態に具現されるが、ここで説明する実施形態に限定されるものではない。そして、図面において、本発明について明確に説明するために、説明と係わりのない部分は省略し、明細書全体を通じて、類似した部分については、類似した図面符号を付した。
明細書全体において、ある部分が他の部分と「連結」されているとするとき、それは、「直接連結」されている場合だけではなく、その中間に、他の素子を挟んで「電気的に連結」されている場合も含む。また、ある部分がある構成要素を「含む」というとき、それは、特別に反対となる記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。
また、本明細書において、音声/文字通話サービスは、音声通話サービス及びチャットサービスを併行して提供するサービスでもある。ユーザは、デバイスを利用して、相手デバイスと音声通話を行うことができ、音声通話中、相手デバイスとメッセージ送受信を共に行うことができる。また、音声/文字通話サービスの通話モードは、例えば、音声モード、文字モード及び混合モードのうち少なくとも2以上を含んでもよい。
また、本明細書において、音声モードは、ユーザが音声通話が可能であるように、他のユーザと通話を行うことができる通話モードでもある。
また、本明細書において、文字モードは、ユーザが、文字メッセージの送受信を介して、他のユーザとコミュニケーションすることができる通話モードでもある。
また、本明細書において、混合モードは、ユーザが、他のユーザと音声通話を行うと同時に、他のユーザとメッセージ送受信を行うことができる通話モードでもある。
例えば、混合モードにおいて、ユーザは、デバイスのスピーカフォンを介して、他のユーザと音声通話を行いながら、文字メッセージの送受信を介して、他のユーザとコミュニケーションを行うことできる。また、例えば、混合モードにおいて、ユーザは、他のユーザと、スピーカフォンを使用しない音声通話を行いながら、文字メッセージの送受信を介して、他のユーザとコミュニケーションを行うことできる。
また、本明細書において、デバイス間に、音声と文字とを伝送する方式は、多様な方式が利用される。例えば、ユーザが加入した移動通信サービス、またはデバイスで使用可能な無線技術(Wi−Fi(wireless fidelity)、ブルートゥース(登録商標(Bluetooth)など)などを利用して、音声及び文字がデバイス間で送受信される。例えば、LTE(long term evolution)通信技術またはWi−Fi通信技術が使用される場合、音声及び文字のいずれも、パケット網を介して、デバイス間で送受信される。その場合、音声は、VoLTE(voice over long term evolution)技術を使用して伝送される。また、WCDMA(登録商標(wideband code division multiple access))が使用される場合、音声は、サーキット網を介して伝送され、文字は、パケット網を介し+もて伝送される。音声と文字は、それぞれ別途の通信連結を介しても伝送される。パケット網が利用される場合、デバイス間の通信連結は、TCP/IP連結にもなる。サーキット網が利用される場合、デバイス間の通信連結は、コール(call)連結にもなる。
以下、添付された図面を参照し、本発明について詳細に説明する。
図1は、一実施形態による音声/文字通話サービスについて説明するための図面である。図1を参照すれば、第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができる。音声/文字通話は、音声サービス及びメッセージングサービスをいずれも支援する1つの通信連結またはセッションを介して始まる。第1デバイス1000及び第2デバイス2000は、互いに音声通話を行うことができ、第1デバイス1000は、音声通話最中に、第1デバイス1000の画面上に、ユーザ間の対話を示すテキストをディスプレイすることができる。また、第2デバイス2000も、音声通話最中に、第2デバイス2000の画面上に、ユーザ間の対話を示すテキストをディスプレイすることができる。例えば、第1デバイス1000及び第2デバイス2000は、ユーザ間の対話を示すチャットウィンドウを、それぞれ第1デバイス1000の画面上、及び第2デバイス2000の画面上にディスプレイすることができる。チャットウィンドウは、メッセージを伝送して受信するための窓(window)でもあり、チャットウィンドウにディスプレイされるテキストを介して、第1デバイス1000のユーザと、第2デバイス2000のユーザは、互いにコミュニケーションを行うことできる。
それにより、第1デバイス1000のユーザ、及び第2デバイス2000のユーザは、音声/文字通話中、音声通話サービス及びチャットサービスを併行して利用することができる。その場合、音声及びメッセージング間のシームレススイッチングが、音声/文字通話中に行われる。または、音声及びメッセージングが、音声/文字通話中、同時に(simultaneously)にも行われる。
音声/文字通話は、音声データ及び文字データが伝送される1以上のチャネルによって具現される。例えば、音声データは、音声チャネルに伝送され、文字データは、音声チャネルに伝送される。または、データチャネルが、データ伝送のために、音声/文字通話内に含まれる。
また、第1デバイス1000及び第2デバイス2000は、例えば、スマートフォン、タブレットPC(personal computer)、PC、スマートTV(television)、携帯電話、PDA(personal digital assistant)、ラップトップ、メディアプレイヤ、マイクロサーバ、GPS(global position system)装置、電子書籍端末機、デジタル放送用端末機、ナビゲーション、キオスク、MP3プレイヤ、デジタルカメラ、ウェアラブルデバイス、及びその他のモバイルまたは非モバイルのコンピュータ装置でもあるが、それらに制限されるものではない。また、第1デバイス1000及び第2デバイス2000は、電子黒板、タッチテーブルのように、タッチ入力を受信することができる多様な装置を含んでもよい。また、第1デバイス1000及び第2デバイス2000は、通信機能及びデータプロセッシング機能を具備した時計、めがね、ヘアバンド及び指輪でもある。
図2は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声から変換されたテキスト、及びユーザから入力されたテキストをディスプレイする方法のフローチャートである。
段階S200において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を発信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
また、音声/文字通話機能が活性化されることにより、第1デバイス1000は、第1デバイス1000において、音声/文字通話機能が活性化されたということを第2デバイス2000に知らせる。その場合、第1デバイス1000は、第1デバイス1000の音声/文字通話の通話モードを、第2デバイス2000に知らせることもできる。音声/文字通話の通話モードについては、後述する。
また、音声/文字通話の活性化時、音声及び文字を伝送する方式は、多様な方式が利用される。例えば、ユーザが加入した移動通信サービス、またはユーザデバイスで使用可能な無線技術(Wi−Fi、ブルートゥースなど)などを利用して、音声及び文字が第1デバイス1000及び第2デバイス2000の間で送受信される。例えば、LTE通信技術またはWi−Fi通信技術が使用される場合、音声及び文字のいずれも、パケット網を介して、第1デバイス1000及び第2デバイス2000間で送受信される。その場合、音声は、VoLTE技術を使用して伝送される。また、WCDMAを使用する場合、音声は、サーキット網を介して、文字は、パケット網を介して伝送されもする。
音声及び文字は、それぞれ別途の通信連結を介しても伝送される。パケット網が利用される場合、通信連結は、TCP/IP連結でもある。サーキット網が利用される場合、通信連結は、コール連結でもある。
段階S210において、第1デバイス1000は、第1デバイスのユーザと第2デバイス2000のユーザ間の音声から変換されたテキストを獲得することができる。第1デバイス1000は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、第1デバイス1000は、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それらに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置、または第1デバイス1000と第2デバイス2000との通信を仲介するサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを多様な装置及びサーバから受信することができる。
段階S220において、第1デバイス1000は、ユーザによって入力されたテキストを獲得することができる。第1デバイス1000は、音声/文字通話中、第1デバイス1000のユーザから入力されたテキストを獲得することができる。また、第1デバイス1000は、音声/文字通話中、第2デバイス2000のユーザから、第2デバイス2000に入力されたテキストを第2デバイス2000から受信することができる。
段階S230において、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを経時的に配列し、ユーザとの通話中、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、第1デバイス1000は、第1デバイス1000のユーザが第1デバイス1000に音声を入力した時間、第2デバイス2000のユーザが第2デバイス2000に音声を入力した時間、第1デバイス1000のユーザが第1デバイス1000にテキストを入力した時間、及び第2デバイス2000のユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
図3Aないし図5は、一実施形態による、音声/文字通話機能が活性化される例示を図示した図面である。
図3Aは、一実施形態による、電話発信時、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図3Aを参照すれば、第1デバイス1000のユーザは、第2デバイス2000の電話番号を入力した後、「音声/文字通話(voice-message call)」ボタン30を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000に電話をかけることができる。
図3Bは、一実施形態による、第1デバイス1000の画面上にディスプレイされたフォンブックから、所定ボタンを選択するユーザ入力に基づいて、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図3Bを参照すれば、第1デバイス1000は、第1デバイス1000の画面上に、フォンブックをディスプレイすることができ、第1デバイス1000のユーザは、ディスプレイされたフォンブックに含まれたユーザリストにおいて、第2デバイス2000の電話番号が表示されたフィールドに含まれた、音声/文字通話を行うためのボタン32を選択する。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000に電話をかけることができる。
図4は、一実施形態による、電話受信時、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図4を参照すれば、第1デバイス1000のユーザは、第2デバイス2000からの電話通話を受信する場合、「音声/文字通話」ボタン40を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000からの電話通話を受信することができる。または、第1デバイス1000は、音声/文字通話を開始し、第2デバイス2000は、音声/文字通話を自動的に受容する(accept)ことができる。
図5は、一実施形態による、音声通話中、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図5を参照すれば、第1デバイス1000のユーザは、第2デバイス2000との音声通話中、「音声/文字通話」ボタン50を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000と、音声/文字通話を行うことができる。または、第2デバイス2000は、音声/文字通話機能を、第1デバイス1000との音声通話中、活性化することができる。それにより、通話は、音声通話で始まり、音声通話中、音声/文字通話が始まる。
図6は、一実施形態による、音声/文字通話機能が活性化された第1デバイス1000が、音声/文字通話機能が活性化されていない第2デバイス2000と音声/文字通話を行う方法のフローチャートである。図6を参照すれば、音声/文字通話機能が活性化された第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができ、音声/文字通話機能が活性化されていない第2デバイス2000は、第1デバイス1000と音声通話を行うことができる。
段階S600において、第1デバイス1000は、第2デバイス2000と通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S610において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S610においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S620において、第1デバイス1000は、第1デバイス1000のユーザ(以下、第1ユーザとする)の音声を第2デバイス2000に伝送することができる。第1デバイス1000は、マイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S630において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT(speech to text)技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S640において、第1デバイス1000は、第2デバイス2000のユーザ(以下、第2ユーザとする)の音声を第2デバイス2000から受信することができる。その場合、第2デバイス2000は、第2デバイス2000内のマイクロフォンを利用して、第2ユーザの音声を獲得し、獲得された第2ユーザの音声を第1デバイス1000に伝送することができる。
段階S650において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S660において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S670において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
図7は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図7においては、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2ユーザの音声をテキストに変換し、第2デバイス2000も、第1ユーザの音声、及び第2ユーザの音声をテキストに変換することができる。
段階S700において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S705において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S705においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S710において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S710においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S715において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S720において第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S725において、第2デバイス2000は、第1デバイス1000から受信された第1ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S730において、第2デバイス2000は、第2ユーザの音声を第1デバイス1000に伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声を、第1デバイス1000に伝送することができる。
段階S735において、第1デバイス1000は、第2デバイス2000から受信された第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S740において第2デバイス2000は、第2ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S745において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S750において、第2デバイス2000は、変換されたテキストを経時的に配列することができる。第2デバイス2000は、例えば、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第2デバイス2000は、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が第1デバイス1000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S755において第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
段階S760において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。また、第2デバイス2000は、音声/文字通話の通話モードにより、チャットウィンドウを、第2デバイス2000の画面上にディスプレイするか、あるいは第2デバイス2000の画面上において、チャットウィンドウを隠すことができる。
図8は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図8においては、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2デバイス2000が第2ユーザの音声をテキストに変換することができる。
段階S800において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。
段階S805において、第1デバイス1000は、音声/文字通話機能を活性化し、段階S810において、第2デバイス2000は、音声/文字通話機能を活性化することができる。図8では、第1デバイス1000及び第2デバイス2000が互いに通話連結された後、第1デバイス1000及び第2デバイス2000が音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000は、音声/文字通話機能を自動的に始めることができる。
段階S815において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S820において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S825において、第1デバイス1000は、第1ユーザのテキストを第2デバイス2000に伝送することができる。
段階S830において、第2デバイス2000は、第1デバイス1000に第2ユーザの音声を伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声を第1デバイス1000に伝送することができる。
段階S835において、第2デバイス2000は、第2ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S840において、第2デバイス2000は、第2ユーザのテキストを第1デバイス1000に伝送することができる。
段階S845において、第1デバイス1000は、変換されたテキスト及び受信されたテキストを経時的に配列することができる。第1デバイス1000は、第1ユーザの音声から、第1デバイス1000によって変換されたテキスト、及び第2デバイス2000から受信された第2ユーザのテキストを経時的に配列することができる。
段階S850において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S855において、第2デバイス2000は、変換されたテキスト及び受信されたテキストを経時的に配列することができる。第2デバイス2000は、第2ユーザの音声から、第2デバイス2000によって変換されたテキスト、及び第1デバイス1000から受信された第1ユーザのテキストを経時的に配列することができる。
段階S860において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
図9は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図9においては、第1デバイス1000が、第1ユーザの音声、及び第2ユーザの音声をテキストに変換することができる。
図9の段階S900ないし段階S930は、図8の段階S800ないし段階S830に対応するので、それについての説明は省略する。
段階S935において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S940において、第1デバイス1000は、第2ユーザのテキストを第2デバイス2000に伝送することができる。
段階S945において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、第1ユーザの音声から、第1デバイス1000によって変換されたテキスト、及び第2ユーザの音声から、第1デバイス1000によって変換されたテキストを経時的に配列することができる。
段階S950において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S955において、第2デバイス2000は、受信されたテキストを経時的に配列することができる。第2デバイス2000は、第1デバイス1000から受信された第1ユーザのテキスト、及び第2ユーザのテキストを経時的に配列することができる。
段階S960において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
図10は、一実施形態による、第1デバイス1000が、音声/文字通話中、チャットウィンドウをディスプレイする方法のフローチャートである。
段階S1000において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を開始するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
段階S1010において、第1デバイス1000は、第1ユーザと第2ユーザとの音声から変換されたテキストを獲得することができる。第1デバイス1000は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、第1デバイス1000は、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置またはサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを多様な装置及びサーバから受信することができる。例えば、テキストは、第2デバイス2000、または第1デバイス1000と第2デバイス2000との通信セッションを仲介するサーバから受信されることができる、
段階S1020において、第1デバイス1000は、変換されたテキストの原本音声データをバックアップすることができる。第1デバイス1000は、第1ユーザの音声から変換されたテキストに対応する第1ユーザの音声データをバックアップすることができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキストに対応する第2ユーザの音声データをバックアップすることができる。
段階S1030において、第1デバイス1000は、第1ユーザと第2ユーザとの通話中、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。第1デバイス1000は、第1ユーザと第2ユーザとの対話の内容を示すために、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S1040において、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されたテキストを獲得することができる。また、第1デバイス1000は、音声/文字通話中、第2ユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
段階S1050において、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを経時的に配列し、チャットウィンドウ内に表示することができる。第1デバイス1000は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、第1デバイス1000は、第1ユーザが第1デバイス1000に音声を入力した時間、第2ユーザが第2デバイス2000に音声を入力した時間、第1ユーザが第1デバイス1000にテキストを入力した時間、及び第2ユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
段階S1060において、第1デバイス1000は、変換されたテキストを、入力されたテキストと区別して表示することができる。第1デバイス1000は、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声に変換されたテキストを、第1ユーザから入力されたテキスト、及び第2ユーザから入力されたテキストと区別されるように表示することができる。その場合、ユーザは、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されてディスプレイされたテキストを区別することができる。
例えば、第1デバイス1000は、変換されたテキストを区別して表示するために、別途のアイコンを、変換されたテキストの周辺にディスプレイすることができる。また、例えば、第1デバイス1000は、変換されたテキストの色相、太さまたは書体などを、区別されるように表示することができる。しかし、それらに制限されるものではない。
段階S1070において、第1デバイス1000は、変換されたテキストが選択されれば、変換されたテキストの原本音声データを出力することができる。変換されたテキストが、チャットウィンドウ内で、第1ユーザによって選択されれば、第1デバイス1000は、選択されたテキストの原本音声データをメモリから抽出し、抽出された原本音声データを、第1デバイス1000内のスピーカを介して出力することができる。
段階S1080において、第1デバイス1000は、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、第1デバイス1000は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、第1デバイス1000は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
一方、第1デバイス1000は、配列されたテキスト全体をサーバ3000にバックアップすることができる。その場合、第1デバイス1000は、配列されたテキストのうち一部を第1デバイス1000内にバックアップし、配列されたテキストの全部をサーバ3000にバックアップすることができる。また、第1デバイス1000は、配列されたテキストのうち一部テキスト、及び配列されたテキストの全体テキストを、サーバ3000に保存することもできる。
一方、図10では、第1デバイス1000が、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすると説明したが、それに制限されるものではない。第1デバイス1000は、配列されたテキスト全体を、多様な自然語解釈方法を介して、ユーザ間の対話を分析することができ、配列されたテキストから、ユーザ間の主要対話内容を示す部分を抽出することができる。また、第1デバイス1000は、抽出された一部対話を示すテキストを、第1デバイス1000内にバックアップすることができる。
図11A及び図11Bは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウの例示を示す図面である。
図11Aは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウ内で、音声から変換されたテキストが区別されるように表示された一例を示す図面である。
図11Aを参照すれば、音声/文字通話中、第1デバイス1000画面上には、チャットウィンドウがディスプレイされ、チャットウィンドウ内に、ユーザの音声から変換されたテキストである「Sure」「What are you going?」がディスプレイされる。また、第1デバイス1000は、「What are you going?」が音声から変換されたテキストであることを示すために、「What are you going?」の周辺にアイコン110をディスプレイすることができる。
また、第1ユーザが「What are you going?」をタッチすれば、第1デバイス1000は、タッチされたテキストである「What are you going?」に対応する原本音声データを第1デバイス1000のスピーカを介して出力することができる。第1デバイス1000は、「What are you going?」を発音するユーザの音声を出力することができる。その場合、ユーザの原本音声は、第1デバイス1000、第2デバイス2000及びサーバに保存される。従って、保存された音声は、要請によってさらに再生される。
それにより、ユーザの音声から変換されたテキストに誤字「going」が存在しても、ユーザは、変換されたテキストの原本音声データを聴取することにより、さらに正確にユーザの対話内容を確認することができる。
また、第1デバイス1000は、音声から変換されたテキストがいかほど信頼される程度に変換されているかということを示すことができる。例えば、「Sure」の信頼度が、「What are you going?」の信頼度より高い場合、「Sure」の文字サイズ及び文字厚を、「What are you going?」の文字サイズ及び文字厚より大きく表示することができる。しかし、それに制限されるものではなく、「Sure」の文字色相、字形などを区別されるように表示することもできる。また、変換されたテキストの周辺に、信頼度の数値を示す特定客体をディスプレイすることもできる。
図11Bは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウ内で、音声から変換されたテキストの信頼度が、単語単位で区別されるように表示された一例を示す図面である。
図11Bを参照すれば、一実施形態による第1デバイス1000は、音声から変換されたテキスト「What are you doing?」の信頼度を単語単位で区別されるように表示することができる。例えば、テキスト「What are you doing?」内において、「What」及び「you」の信頼度が、「are」及び「doing」の信頼度より高い場合、「What」及び「you」の文字サイズ及び文字厚を、「are」及び「doing」の文字サイズ及び文字厚より大きく表示することができる。しかし、それに制限されるものではなく、「What」及び「you」の文字色相、字形などを区別されるように表示することもできる。
また、第1ユーザが「What are you doing?」において「What」をタッチすれば、第1デバイス1000は、タッチされた単語である「What」に対応する原本音声データを、第1デバイス1000のスピーカを介して出力することができる。第1デバイス1000は、単語「What」を発音するユーザの音声を出力することができる。従って、ユーザは、テキストメッセージの部分に対応して再生される音声を選択的に要請することができる。
図12は、一実施形態による、第1デバイス1000及び第2デバイス2000が、特定チャットアプリケーションを介して、音声から変換されたテキストを互いに送受信する例示を示す図面である。
図12を参照すれば、第1デバイス1000において、チャットアプリケーション120が実行され、第2デバイス2000において、チャットアプリケーション122が実行される。チャットアプリケーション120及びチャットアプリケーション122は、互いに同一のアプリケーションでもあり、互いに互換可能なアプリケーションでもある。
また、第1デバイス1000は、第1デバイス1000によって獲得された、音声から変換されたテキストをチャットアプリケーション120に入力し、入力されたテキストを、チャットアプリケーション120を介して、第2デバイス2000のチャットアプリケーション122に伝送することができる。
また、第2デバイス2000は、第2デバイス2000によって獲得された、音声から変換されたテキストを、チャットアプリケーション122に入力し、入力されたテキストを、チャットアプリケーション122を介して、第1デバイス1000のチャットアプリケーション120に伝送することができる。
図13は、一実施形態による、音声/文字通話機能が活性化される場合、第1デバイス1000が、音声通話と連動されて実行されるチャットアプリケーションを決定する方法のフローチャートである。
段階S1300において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を始めるための要請を行うとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
段階S1310において、第1デバイス1000は、チャットアプリケーションを決定することができる。第1デバイス1000は、音声/文字通話中に利用されるチャットアプリケーションを決定することができる。例えば、第1デバイス1000は、第1デバイス1000の音声/文字通話機能と連動されて実行されるチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションで決定することができる。また、例えば、第1デバイス1000は、第1デバイス1000及び第2デバイス2000のいずれにもインストールされたチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。しかし、それに制限されるものではない。ユーザは、通話が始まるか、あるいは通話要請が受信されたとき、ユーザは、1以上のチャットアプリケーションのうち実行されるチャットアプリケーションを選択することができる。
段階S1320において、第1デバイス1000は、決定されたチャットアプリケーションを実行し、段階S1325において、第1デバイス1000は、音声から変換されたテキストを、実行されたチャットアプリケーションに入力することができる。例えば、第1デバイス1000は、実行されたチャットアプリケーションに、テキスト自動入力のためのプラグインをインストールし、インストールされたプラグインを介して、チャットアプリケーションに、音声から変換されたテキストを入力することができる。しかし、それに制限されるものではない。
段階S1330において、第1デバイス1000は、ユーザとの通話中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、第1ユーザの音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、第2ユーザの音声から変換されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを、チャットウィンドウ内に配列することができる。
また、第1デバイス1000は、第1デバイス1000の音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
図14は、一実施形態による、第1デバイス1000が、音声/文字通話中に利用されるチャットアプリケーションを決定する方法のフローチャートである。
段階S1400において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000にインストールされたチャットアプリケーションのリストを要請し、段階S1410において、第2デバイス2000は、第2デバイス2000にインストールされたチャットアプリケーションのリストを第1デバイス1000に提供する。
段階S1420において、第1デバイス1000は、第1デバイス1000にインストールされたチャットアプリケーションのうち、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションを選択することができる。
例えば、チャットアプリケーション「A」と互換可能なチャットアプリケーションは、チャットアプリケーション「A」と同一のチャットアプリケーションでもある。また、例えば、チャットアプリケーション「A」と互換可能なチャットアプリケーションは、チャットアプリケーション「A」と異なるが、チャットアプリケーション「A」とメッセージを送受信することができるチャットアプリケーションでもある。
一方、図14では、第1デバイス1000が第2デバイス2000に、チャットアプリケーションのリストを要請することにより、第2デバイス2000から、チャットアプリケーションのリストを受信すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000が、音声/文字通話のために連結されながら、第1デバイス1000は、別途の要請なしに、第2デバイス2000からチャットアプリケーションのリストを受信することもできる。
図15は、一実施形態による、第1デバイス1000が、音声/文字通話中に利用されるチャットアプリケーションをインストールする方法のフローチャートである。
段階S1500において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000にインストールされたチャットアプリケーションのリストを要請し、段階S1510において、第2デバイス2000は、第2デバイス2000にインストールされたチャットアプリケーションのリストを、第1デバイス1000に提供する。
段階S1520において、第1デバイス1000は、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションをインストールすることができる。第1デバイス1000は、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションを選択し、選択されたチャットアプリケーションを、所定のサーバからダウンロードすることができる。また、第1デバイス1000は、ダウンロードされたチャットアプリケーションを、第1デバイス1000内にインストールすることができる。
一方、図15では、第1デバイス1000が、第2デバイス2000にチャットアプリケーションのリストを要請することにより、第2デバイス2000からチャットアプリケーションのリストを受信すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000が、音声/文字通話のために連結されながら、第1デバイス1000は、別途の要請なしに、第2デバイス2000からチャットアプリケーションのリストを受信することもできる。
図16Aは、一実施形態による、第1デバイス1000がチャットサービスを利用している最中、音声/文字通話機能を活性化する例示を示す図面である。図16Aを参照すれば、第1デバイス1000は、チャットアプリケーションを実行し、所定のチャットサービスを利用することができる。また、第1ユーザが、チャットアプリケーションの実行画面上に表示されたボタン160を選択することにより、第1デバイス1000は、音声/文字通話機能を活性化することができる。
図16Bは、一実施形態による、第1デバイス1000がチャットアプリケーションのユーザリスト画面を介したユーザ入力により、音声/文字通話を始める例示を示す図面である。図16Bを参照すれば、第1デバイス1000は、チャットアプリケーションを実行し、チャットアプリケーションのユーザリストをディスプレイすることができる。また、第1デバイス1000は、ユーザリストにおいて「John」と音声通話を行うためのボタン165を選択するユーザ入力を受信することができる。それにより、第1デバイス1000は、Johnのデバイスと音声/文字通話を始めることができる。
図17は、一実施形態による、第1デバイス1000及び第2デバイス2000がチャットサービスを利用している最中、音声/文字通話を行う方法のフローチャートである。
段階S1700において、第1デバイス1000及び第2デバイス2000は、チャットサービスのために互いに通信連結される。また、段階S1710において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイし、段階S1720において、第2デバイス2000は、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。その後、第1デバイス1000及び第2デバイス2000は、互いにメッセージを送受信することができる。
段階S1730において、第1デバイス1000は、音声/文字通話機能を活性化し、段階S1740において、第2デバイス2000は、音声/文字通話機能を活性化することができる。
また、段階S1750において、第1デバイス1000及び第2デバイス2000は、互いに音声/文字通話を行うことができる。
図18ないし図21は、一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。
音声/文字通話の通話モードは、例えば、音声モード及び文字モードを含んでもよい。音声モードは、ユーザが音声通話が可能であるように、他のユーザと通話を行うことができるモードであることができ、文字モードは、ユーザが文字メッセージの送受信を介して、他のユーザとコミュニケーションすることができるモードでもある。
図18は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声モードから文字モードに、通話モードを自動転換する一例を図示した図面である。図18を参照すれば、第1デバイス1000がユーザの顔に近接していれば、第1デバイス1000は、第1デバイス1000の画面を非活性化し、音声モードで動作することができる。その後、第1デバイス1000がユーザの顔から離隔されるならば、第1デバイス1000は、通話モードを音声モードから文字モードに転換し、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。
図19は、一実施形態による、第1デバイス1000が、音声/文字通話中、文字モードから音声モードに、通話モードを自動転換する一例を図示した図面である。図19を参照すれば、第1デバイス1000がユーザの顔から離隔されていれば、第1デバイス1000は、第1デバイス1000の画面上にチャットウィンドウをディスプレイし、文字モードで動作することができる。その後、第1デバイス1000がユーザの顔に近接すれば、第1デバイス1000は、通話モードを文字モードから音声モードに転換し、第1デバイス1000の画面を非活性化することができる。第1デバイス1000は、第1デバイス1000の方位及び位置を自動的に検出することができ、音声モード及び文字モードを、必要によって転換することができる。
図20は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声モードから文字モードに、通話モードを手動転換する一例を図示した図面である。図20を参照すれば、第1デバイス1000が、音声モードで動作している最中、第1ユーザが、第1デバイス1000の画面上に表示されたボタン200を選択すれば、第1デバイス1000は、通話モードを音声モードから文字モードに転換し、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。
図21は、一実施形態による、第1デバイス1000が、音声/文字通話中、文字モードから音声モードに、通話モードを手動転換する一例を図示した図面である。図21を参照すれば、第1デバイス1000が文字モードで動作している最中、第1ユーザが、第1デバイス1000の画面上に表示されたボタン210を選択すれば、第1デバイス1000は、通話モードを文字モードから音声モードに転換し、第1デバイス1000の画面を非活性化することができる。
図22は、一実施形態による、第1デバイス1000が音声/文字通話のモードを転換する方法のフローチャートである。
段階S2200において、第1デバイス1000は、音声/文字通話の通話モードが音声モードであるか否かということを判断することができる。第1デバイス1000は、例えば、第1デバイス1000内の近接センサを利用して、第1デバイス1000が第1ユーザの顔に近接しているか否かということを判断することにより、通話モードが音声モードであるか否かということを判断することができる。また、例えば、第1デバイス1000は、音声モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが音声モードであるか否かということを判断することができる。
段階S2200での判断結果、通話モードが音声モードであると判断されれば、段階S2210において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。それにより、第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声を獲得することができ、第1デバイス1000は、活性化されたスピーカを介して、第2ユーザの音声を出力することができる。
また、段階S2220において、第1デバイス1000は、チャットウィンドウを第1デバイス1000の画面上で隠す。例えば、第1デバイス1000は、第1デバイス1000の画面を非活性化することにより、第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。画面が非活性化されても、第1デバイス1000は、音声対話の内容を示すテキストを、音声モードが文字モードに転換される場合、保存することができる。音声対話の内容を示すテキストは、第1デバイス1000、第2デバイス2000またはサーバに保存される。
一方、段階S2200での判断結果、通話モードが音声モードではなければ、段階S2230において、第1デバイス1000は、音声/文字通話の通話モードが、文字モードであるか否かということを判断することができる。第1デバイス1000は、例えば、第1デバイス1000内の近接センサを利用して、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを判断することにより、通話モードが、文字モードであるか否かということを判断することができる。また、例えば、第1デバイス1000は、文字モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが、文字モードであるか否かということを判断することができる。
段階S2230での判断結果、通話モードが文字モードであると判断されれば、段階S2240において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを非活性化することができる。
また、段階S2250において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストをチャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
段階S2260において、第1デバイス1000は、通話モードが転換されたか否かということを判断することができる。段階S2260において、通話モードが転換されたと判断されれば、第1デバイス1000は、段階S2200を遂行することができる。
図23は、一実施形態による、第1デバイス1000が音声モードで、音声/文字通話を行う方法のフローチャートである。
段階S2300において、第1デバイス1000は、第1デバイス1000が第1ユーザの顔に近接しているか否かということを決定することができる。第1デバイス1000は、第1デバイス1000内に含まれた近接センサを利用して、第1デバイス1000が、第1ユーザの顔に近接しているか否かということを判断することができる。
段階S2310において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化することができる。第1デバイス1000は、音声/文字通話の通話モードが音声モードであるか否かということを判断し、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。それにより、第1デバイス1000は、マイクロフォンを介して、第1ユーザの音声入力を受信し、第2ユーザの音声をスピーカを介して出力することができる。
段階S2320において、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S2330において、第1デバイス1000は、チャットウィンドウを第1デバイス1000の画面上で隠す。第1デバイス1000は、例えば、第1デバイス1000の画面を非活性化することにより、チャットウィンドウを、第1デバイス1000の画面上で隠すことができる。
段階S2340において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S2350において、第1デバイス1000は、第1ユーザから入力された音声、及び第1ユーザから入力された音声から変換されたテキストのうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力された音声を、第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力された音声から変換されたテキストを、第2デバイス2000に伝送することができる。しかし、それに制限されるものではない。
図24は、一実施形態による、第1デバイス1000が、文字モードで、音声/文字通話を行う方法のフローチャートである。
段階S2400において、第1デバイス1000は、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを決定することができる。第1デバイス1000は、第1デバイス1000内に含まれた近接センサを利用して、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを判断することができる。
段階S2410において、第1デバイス1000は、スピーカ及びマイクロフォンを非活性化することができる。第1デバイス1000は、音声/文字通話の通話モードが文字モードであるか否かということを判断し、第1デバイス1000内のスピーカ及びマイクロフォンを非活性化することができる。
段階S2420において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S2430において、第1デバイス1000は、第1ユーザから入力されたテキストを音声に変換することができる。第1デバイス1000は、多様なTTS(text to speech)技術を利用して、第1ユーザのテキストを音声に変換することができる。その場合、第1デバイス1000は、第1ユーザの性別及び年齢などを考慮し、変換された第1ユーザの音声の音色(tone)を決定することができる。
段階S2440において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S2450において、第1デバイス1000は、第1ユーザから入力されたテキスト、及び第1ユーザから入力されたテキストから変換された音声のうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力されたテキストから変換された音声を、第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力されたテキストを第2デバイス2000に伝送することができる。しかし、それらに制限されるものではない。
図25は、一実施形態による、第1デバイス1000が第2デバイス2000の通話モードを識別する方法のフローチャートである。
段階S2500において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000の通話モードを尋ねることができる。第1デバイス1000は、既設定周期で、第2デバイス2000に通話モードを尋ねることができるが、それに制限されるものではない。または、第1デバイス1000は、通話を開始するとき、第2デバイス2000に通話モードを尋ねることができる。
また、段階S2510において、第2デバイス2000は、第2デバイス2000の通話モードを識別し、段階S2520において、第2デバイス2000は、第2デバイス2000の通話モードについての情報を、第1デバイス1000に伝送することができる。
図25では、第2デバイス2000が、第1デバイス1000からの問い合わせに応答し、第2デバイス2000の通話モードについての情報を伝送すると説明したが、それに制限されるものではない。例えば、第2デバイス2000は、第1デバイス1000からの問い合わせがないにしても、第2デバイス2000の通話モードが変更されれば、第1デバイス1000に、第2デバイス2000の通話モードについての情報を伝送することができる。
段階S2530において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第1デバイス1000は、第2デバイス2000から受信された第2デバイス2000の通話モードについての情報に基づいて、第2デバイス2000の通話モードが、音声モードであるか文字モードであるかということを識別することができる。
段階S2540において、第1デバイス1000は、第1ユーザの音声、または第1ユーザのテキストを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第2デバイス2000に第1ユーザの音声を伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第2デバイス2000に第1ユーザのテキストを伝送することができる。
図26は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図26では、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2デバイス2000が第2ユーザのテキストを音声に変換することができる。
段階S2600において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S2605において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S2605においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S2610において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S2610においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S2615において、第1デバイス1000は、音声モードで動作することができる。第1デバイス1000が第1ユーザの顔に近接するか、あるいは第1デバイス1000を音声モードで動作させるユーザ入力が受信されれば、第1デバイス1000は、音声モードで動作することができる。
段階S2620において、第1デバイス1000は、第1デバイス1000内のマイクロフォン及びスピーカを活性化し、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第1デバイス1000の画面上で隠すことができる。
段階S2625において、第2デバイス2000は、文字モードで動作することができる。第2デバイス2000が第2ユーザの顔から離隔されるか、第2デバイス2000を文字モードで動作させるユーザ入力が受信されれば、第2デバイス2000は、文字モードで動作することができる。
段階S2630において、第2デバイス2000は、第2デバイス2000内のスピーカ及びマイクロフォンを非活性化し、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
段階S2635において、第1デバイス1000は、第1ユーザの音声入力を受信し、段階S2640において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。
また、段階S2645において、第1デバイス1000は、第1ユーザの音声から変換されたテキストを、第2デバイス2000に伝送することができる。第1デバイス1000は、第2デバイス2000が文字モードで動作することを識別し、第2デバイス2000に、第1ユーザの音声から変換されたテキストを伝送することができる。
段階S2650において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の画面上にディスプレイし、段階S2655において、第2デバイス2000は、チャットウィンドウを介した第2ユーザのテキスト入力を受信することができる。また、第2デバイス2000は、第1デバイス1000から受信されたテキスト、及び第2デバイス2000に入力されたテキストを経時的に配列し、チャットウィンドウ内に表示することができる。
段階S2660において、第2デバイス2000は、第2ユーザのテキストを、TTSを利用して音声に変換することができる。第2デバイス2000は、例えば、第2ユーザの年齢及び性別を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S2665において、第2デバイス2000は、第2ユーザのテキストから変換された音声、及び第2ユーザのテキストを第1デバイス1000に伝送することができる。
また、段階S2670において、第1デバイス1000は、第2ユーザのテキストから変換された音声を第1デバイス1000のスピーカを介して出力することができる。
図27は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図27では、第1デバイス1000が、第1ユーザの音声をテキストに変換し、第2ユーザのテキストを音声に変換することができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
図27の段階S2700ないし段階S2755は、図26の段階S2600ないし段階S2655に対応するので、段階S2700ないし段階S2755についての説明は省略する。
段階S2760において、第2デバイス2000は、第2ユーザから入力されたテキスト(第2ユーザのテキスト)を第1デバイス1000に伝送することができる。
段階S2765において第1デバイス1000は、第2ユーザのテキストを音声に変換することができる。第1デバイス1000は、多様なTTS技術を利用して、第2ユーザのテキストを第2ユーザの音声に変換することができる。また、第1デバイス1000は、第2ユーザの性別及び年齢などについてのユーザ情報をあらかじめ獲得することができ、第2ユーザの性別及び年齢などを考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S2770において、第1デバイス1000は、第2ユーザのテキストから変換された音声を、第1デバイス1000のスピーカを介して出力することができる。従って、第2ユーザは、文字モードを利用し、第1ユーザは、音声モードを利用することができる。
図28は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図28では、第2デバイス2000が第1ユーザの音声をテキストに変換し、第2ユーザのテキストを音声に変換することができる。
図28の段階S2800ないし段階S2835は、図27の段階S2700ないし段階S2735に対応するので、段階S2800ないし段階S2835についての説明は省略する。
段階S2840において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。
段階S2845において、第2デバイス2000は、第1ユーザの音声をテキストに変換し、段階S2850において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すテキストを、チャットウィンドウ内にディスプレイすることができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
また、段階S2855において、第2デバイス2000は、チャットウィンドウを介した第2ユーザのテキスト入力を受信し、段階S2860において、第2デバイス2000は、第2ユーザから入力されたテキスト(第2ユーザのテキスト)を音声に変換することができる。第2デバイス2000は、例えば、第2ユーザの性別及び年齢を考慮し、変換された音声の音色を決定することができる。
段階S2865において、第2デバイス2000は、第2ユーザのテキストから変換された音声、第1ユーザの音声から変換されたテキスト、及び第2ユーザのテキストを第1デバイス1000に伝送することができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
段階S2870において、第1デバイス1000は、第2ユーザのテキストから変換された音声を、第1デバイス1000のスピーカを介して出力することができる。
図29A、図29B及び図29Cは、一実施形態による、音声/文字通話の通話モードのうち一つである混合モードの例示を示す図面である。
混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。従って、混合モードにおいてユーザは、第1デバイス1000を介して音声通話を行う間、文字送受信を共に行うことができる。
また、混合モードでは、音声通話のための音声入力機能及び音声出力機能のうち一部が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能のうち一部が活性化される。
例えば、混合モードでは、音声通話のための音声入力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字出力機能が活性化される。
図29Aを参照すれば、第1デバイス1000のスピーカフォン機能が活性化され、第1デバイス1000の画面上にディスプレイされたチャットウィンドウを介したメッセージ送受信機能が活性化される。
混合モードでは、第1デバイス1000は、第2デバイス2000と音声通話を行っている最中、第2デバイス2000とメッセージ送受信を共に行うことができる。
図29Bを参照すれば、第1デバイス1000のスピーカフォンを利用しない音声通話機能が活性化された状態で、第1デバイス1000の画面上にディスプレイされたチャットウィンドウを介したメッセージ送受信機能が活性化される。スピーカフォンを利用しない音声通話は、第1デバイス1000がユーザの顔に近接した状態で、ユーザの耳に近接したスピーカ、及びユーザの口に近接したマイクロフォンを利用して行う音声通話でもある。
その場合、第1デバイス1000は、音声通話機能が活性化された状態で、音声入出力が行われている最中、第2デバイス2000とメッセージ送受信を行うためのチャットウィンドウを介した入出力が共に行われる。
図29Cを参照すれば、ユーザが、第1デバイス1000に、有線または無線で連結されたウェアラブルデバイス290を着用している状態で、第1デバイス1000は、混合モードで、音声/文字通話を行うことができる。その場合、第1デバイス1000は、混合モードでの音声/文字通話のための、音声入出力及び文字入出力のうち一部をウェアラブルデバイス290が行うようにもする。
例えば、ウェアラブルデバイス290がヘッドフォンである場合、第1デバイス1000は、混合モードで音声/文字通話を行いながら、第1デバイス1000で出力される音声をヘッドフォンを介して出力させる。
また、例えば、ウェアラブルデバイス290がスマートめがねである場合、第1デバイス1000は、混合モードで音声/文字通話を行いながら、第1デバイス1000で出力されるチャットウィンドウをスマートめがねを介して出力させる。
図30は、一実施形態による、音声/文字通話を行っている第1デバイス1000の通話モードが、音声モードから混合モードに転換されたり、混合モードから音声モードに転換されたりする一例を図示した図面である。図30を参照すれば、音声モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン300が選択されれば、第1デバイス1000の通話モードは、音声モードから混合モードに転換される。また、混合モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン301が選択されれば、第1デバイス1000の通話モードは、混合モードから音声モードに転換される。
図31は、一実施形態による、音声/文字通話を行っている第1デバイス1000の通話モードが、文字モードから混合モードに転換されたり、混合モードから文字モードに転換されたりする一例を図示した図面である。図31を参照すれば、文字モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン310が選択されれば、第1デバイス1000の通話モードは、文字モードから混合モードに転換される。また、混合モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン311が選択されれば、第1デバイス1000の通話モードは、混合モードから文字モードに転換される。
図32は、一実施形態による、第1デバイス1000が音声/文字通話のモードを転換する方法のフローチャートである。図32の段階S3200ないしS3220、及び段階S3260ないしS3290は、図22の段階S2200ないしS2220、及び段階S2230ないしS2260に対応するので、図32の段階S3200ないしS3220、及び段階S3260ないしS3290についての説明は便宜上省略する。
段階S3200での判断結果、通話モードが音声モードではなければ、段階S3230において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
段階S3230での判断結果、通話モードが混合モードであると判断されれば、段階S3240において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。
また、段階S3250において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストを、チャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
一方、段階S3230での判断結果、通話モードが混合モードではないと判断されれば、第1デバイス1000は、段階S3260を遂行することができる。
図33は、一実施形態による、第1デバイス1000が混合モードで音声/文字通話を行う方法のフローチャートである。
段階S3300において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
通話モードが混合モードであるならば、段階S3310において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化し、段階S3320において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストを、チャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
段階S3330において、第1デバイス1000は、第1ユーザの音声入力、及び/または第1ユーザのテキスト入力を受信することができる。第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声入力を受信することができ、第1デバイス1000は、ディスプレイされたチャットウィンドウを介したユーザのテキスト入力を受信することができる。また、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができ、第1ユーザから入力されたテキストを音声に変換することができる。
段階S3340で第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S3350において、第1デバイス1000は、第1ユーザの音声及びテキストのうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。第1デバイス1000は、第1ユーザから入力された音声、第1ユーザから入力されたテキスト、第1ユーザから入力された音声から変換されたテキスト、及び第1ユーザから入力されたテキストから変換された音声のうち少なくとも一つを、第2デバイス2000に伝送することができる。
例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力された音声、及び第1ユーザから入力されたテキストから変換された音声を第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力されたテキスト、及び第1ユーザから入力された音声から変換されたテキストを第2デバイス2000に伝送することができる。しかし、それらに制限されるものではない。
図34は、一実施形態による、混合モードで動作する第1デバイス1000が、第2デバイス2000と音声/文字通話を行う方法のフローチャートである。
段階S3400において、第1デバイス1000は、第2デバイス2000と通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S3405において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
通話モードが混合モードであるならば、段階S3410において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化し、段階S3415において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S3420において、第1デバイス1000は、第1ユーザの音声入力を受信することができる。第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声入力を受信することができる。
段階S3425において、第1デバイス1000は、第1ユーザから入力された音声を第2デバイス2000に伝送し、段階S3430において、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができる。また、第1デバイス1000は、第1ユーザから入力された音声から変換されたテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3435において、第2デバイス2000は、第2ユーザの音声を第1デバイス1000に伝送し、段階S3440において、第1デバイス1000は、第2ユーザの音声を出力することができる。第1デバイス1000は、活性化されたスピーカを介して、第2ユーザの音声を出力することができる。
段階S3445において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3450において、第1デバイス1000は、第1ユーザのテキスト入力を受信することができる。第1デバイス1000は、チャットウィンドウを介した第1ユーザのテキスト入力を受信することができ、入力された第1ユーザのテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3455において、第1デバイス1000は、第1ユーザから入力されたテキストを音声に変換することができる。第1デバイス1000は、例えば、第1ユーザの性別及び年齢を考慮し、第1ユーザから入力されたテキストから変換された音声の音色を決定することができる。しかし、それに制限されるものではなく、変換された音声の音色は、あらかじめ設定されていてもよい。
段階S3460において、第1デバイス1000は、第1ユーザから入力されたテキストから変換された音声を、第2デバイス2000に伝送することができる。
図35Aは、一実施形態による、第1デバイス1000が第2デバイス2000の通話モード変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧める方法のフローチャートである。
段階S3500において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S3510において、第1デバイス1000は、第2デバイス2000の通話モードが変更されたか否かということを判断することができる。例えば、第2デバイス2000の通話モードは、音声モードから文字モードに変更されるか、音声モードから混合モードに変更されるか、文字モードから音声モードに変更されるか、文字モードから混合モードに変更されるか、混合モードから音声モードに変更されるか、あるいは混合モードから文字モードに変更される。第1デバイス1000は、第2デバイス2000にモード情報を要請して獲得することができる。または、第2デバイス2000が第1デバイス1000にモード変更を知らせる。
また、第1デバイス1000は、第2デバイス2000の入力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声入力だけ受信するか、テキスト入力だけ受信するか、音声及びテキスト入力を受信するかということを判断することができる。第1デバイス1000は、第2デバイス2000に、入力方法についての情報を要請して獲得することができる。または、第2デバイス2000が、第1デバイス1000に入力方法についての通知を行う。
また、第1デバイス1000は、第2デバイス2000の出力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声出力だけ提供するか、テキスト出力だけ提供するか、あるいは音声及びテキスト出力を提供するかということを判断することができる。第1デバイス1000は、第2デバイス2000に、出力方法についての情報を要請して獲得することができる。または、第2デバイス2000が、第1デバイス1000に出力方法についての通知を行う。
段階S3510での判断結果、第2デバイス2000の通話モードが変更されたと判断されれば、段階S3520において、第1デバイス1000は、第2デバイス2000の変更された通話モードを第1ユーザに知らせる。例えば、第1デバイス1000の通話モードが音声モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるための音声を出力することができる。また、例えば、第1デバイス1000の通話モードが文字モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるためのテキストを、第1デバイス1000の画面上にディスプレイすることができる。また、例えば、第1デバイス1000の通話モードが混合モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるための音声を出力しながら第2デバイス2000の通話モードが変更されることを知らせるためのテキストを、第1デバイス1000の画面上にディスプレイすることができる。しかし、それらに制限されるものではない。また、第1デバイス1000は、第2デバイス2000の変更された通話モードの出力方法を第1ユーザに知らせる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、変更された入力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、第1デバイス1000は、変更された出力方法を第1ユーザに知らせる。
段階S3520において、第1デバイス1000は、第1デバイス1000の通話モードの変更を勧めることができる。例えば、音声モードで動作中の第1デバイス1000が、第2デバイス2000と音声/文字通話を行っている最中、第2デバイス2000の通話モードが、音声モードから文字モードに変更されれば、第1デバイス1000は、第1ユーザに通話モードを、音声モードから文字モードに変更することを勧めることができる。その場合、第1デバイス1000は、例えば、「通話モードを文字モードに変更しますか」という音声をスピーカを介して出力することができる。また、第1デバイス1000が、通話モードを音声モードから文字モードに変更すれば、第1デバイス1000は、第1デバイス1000と第2デバイス2000との間に形成された音声通話チャネルを暫定的に切ることができる。
また、例えば、文字モードで動作中の第1デバイス1000が、第2デバイス2000と音声/文字通話を行っている最中、第2デバイス2000の通話モードが、文字モードから音声モードに変更されれば、第1デバイス1000は、第1ユーザに、通話モードを文字モードから音声モードに変更することを勧めることができる。その場合、第1デバイス1000は、例えば、「通話モードを音声モードに変更しますか」というテキストを、第1デバイス1000の画面上のチャットウィンドウ内にディスプレイすることができる。また、第1デバイス1000が、通話モードを文字モードから音声モードに変更すれば、第1デバイス1000は、第1デバイス1000と第2デバイス2000との間に形成された文字送受信のためのチャネルを暫定的に切ることができる。
また、例えば、第2デバイス2000の通話モードが変更されることにより、第1デバイス1000は、所定の振動を発生させながら、第1デバイス1000の画面上に、モード変更を知らせるメッセージをディスプレイすることができる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
図35Bは、一実施形態による、第1デバイス1000が、第2デバイス2000の混合モードの入出力機能変更を第1ユーザに知らせ、第1ユーザに、通話モードの変更を勧める方法のフローチャートである。
段階S3540において、第1デバイス1000は、第2デバイス2000の混合モードの入出力機能が変更されたことを識別することができる。第2デバイス2000は、第2デバイス2000の混合モードでの入出力機能変更を示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された情報に基づいて、第2デバイス2000の混合モードの入出力機能変更を識別することができる。
段階S3550において、第1デバイス1000は、第2デバイス2000の混合モードの入出力機能が変更されたか否かということを判断することができる。第1デバイス1000は、例えば、第2デバイス2000の混合モードにおいて、音声通話のための音声入力機能及び音声出力機能のうち一部が変更されるか、あるいは文字送受信のための文字入力機能及び文字出力機能のうち一部が変更されたか否かということを判断することができる。
また、第1デバイス1000は、第2デバイス2000の入力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声入力だけ受信するか、テキスト入力だけ受信するか、あるいは音声及びテキスト入力を受信するかということを判断することができる。
また、第1デバイス1000は、第2デバイス2000の出力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声出力だけ提供するか、テキスト出力だけ提供するか、あるいは音声及びテキスト出力を提供するかということを判断することができる。
段階S3550での判断結果、第2デバイス2000の混合モードでの入出力機能が変更されたと判断されれば、段階S3560において、第1デバイス1000は、第2デバイス2000の変更された入出力機能を第1ユーザに知らせる。例えば、第2デバイス2000の変更された出力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、変更された入力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、第1デバイス1000は、変更された出力方法を第1ユーザに知らせる。
段階S3570において、第1デバイス1000は、第1デバイス1000の通話モードの変更を勧めることができる。その場合、第1デバイス1000は、第2デバイス2000の混合モードでの入出力機能がいかように変更されたかということにより、第1デバイス1000の通話モードをユーザに勧めることができる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
図36は、一実施形態による、第1デバイス1000が第1ユーザに、音声モードから文字モードへの通話モード変更を勧める一例を図示した図面である。図36を参照すれば、第1デバイス1000は、音声モードで動作しながら、音声/文字通話を行うことができ、第2デバイス2000の通話モードが、音声モードから文字モードに変更されれば、第1デバイス1000は、第1デバイス1000のスピーカを介して、「相手方の通話モードが音声モードから文字モードに変更されました。文字モードに変更しますか?」という音声を出力することができる。
また、第1ユーザは、第1デバイス1000を第1ユーザの顔から離隔させ、それにより、第1デバイス1000は、通話モードを音声モードから文字モードに変更することができる。
図37は、一実施形態による、第1デバイス1000が、第1ユーザに、文字モードから音声モードへの通話モード変更を勧める一例を図示した図面である。図37を参照すれば、第1デバイス1000は、文字モードで動作しながら、音声/文字通話を行うことができ、第2デバイス2000の通話モードが、文字モードから音声モードに変更されれば、第1デバイス1000は、第1デバイス1000の画面上にディスプレイされたチャットウィンドウ内に、「相手方の通話モードが文字モードから音声モードに変更されました。音声モードに変更しますか」というテキストを表示することができる。
また、第1ユーザは、第1デバイス1000を第1ユーザの顔に近接させることができ、それにより、第1デバイス1000は、通話モードを、文字モードから音声モードに変更することができる。
図38は、一実施形態による、第1デバイス1000が音声/文字通話の通話リストを生成する方法のフローチャートである。
段階S3800において、第1デバイス1000は、第1デバイス1000と音声/文字通話を行った第2デバイス2000のデバイス情報を獲得することができる。第1デバイス1000は、例えば、第2デバイス2000のSSID(service set identifier)、第2デバイス2000の電話番号、第2デバイス2000の第2ユーザの氏名、及び第2デバイス2000の種類などについての情報を獲得することができる。
段階S3810において第1デバイス1000は、第2デバイス2000との通話時間についての情報を獲得することができる。第1デバイス1000は、例えば、第1デバイス1000及び第2デバイス2000が、音声/文字通話を始めた時刻、第1デバイス1000及び第2デバイス2000が、音声/文字通話を終了した時刻、及び第1デバイス1000及び第2デバイス2000が、音声/文字通話を行った時間についての情報を獲得することができる。
段階S3820において、第1デバイス1000は、第1デバイス1000の通話位置についての情報を獲得することができる。第1デバイス1000は、第2デバイス2000と音声/文字通話を行ったときの第1デバイス1000の位置についての情報を獲得することができる。
段階S3830において、第1デバイス1000は、音声/文字通話時に生成されたチャットウィンドウ内のテキスト情報をバックアップすることができる。第1デバイス1000は、チャットウィンドウ内において、第1ユーザと第2ユーザとの対話内容を示すテキストをバックアップすることができる。該テキストは、第1デバイス1000またはサーバにバックアップされる。
また、第1デバイス1000は、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、第1デバイス1000は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、第1デバイス1000は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
また、第1デバイス1000は、第1ユーザと第2ユーザとの対話内容を示すテキストの一部を、第1デバイス1000内にバックアップし、第1ユーザと第2ユーザとの対話内容を示すテキストの全部を、サーバ3000にバックアップすることができる。
段階S3840において、第1デバイス1000は、段階S3800ないし段階S3820で獲得された情報に基づいて、通話リストを生成することができる。
段階S3850において、第1デバイス1000は、生成された通話リストを、段階S3830でバックアップされたテキスト情報と関連づけて保存することができる。通話リストを、バックアップされたテキスト情報と関連させて保存されることにより、第1デバイス1000は、通話リストに対するユーザ入力により、通話リストに対応する通話内容を第1ユーザに提供する。その場合、第1デバイス1000は、通話リストにおいて第1ボタンが選択されれば、通話リストに対応する通話内容の一部を、まず第1デバイス1000の画面上にディスプレイし、通話内容の一部が表示された画面内の第2ボタンが選択されれば、通話リストに対応する通話内容の全部を、第1デバイス1000の画面上にディスプレイすることができる。
図39は、一実施形態による、第1デバイス1000の通話リストを介して、第1ユーザと第2ユーザとの対話を示すテキストをディスプレイする方法のフローチャートである。
段階S3900において、第1デバイス1000は、通話リストから第2デバイス2000を選択することができる。第1デバイス1000は、ユーザ入力に基づいて、通話リストから第2デバイス2000の電話番号を選択するか、あるいは第2ユーザの氏名を選択することができる。
段階S3910において、第1デバイス1000は、第2デバイス2000が選択されることにより、第1ユーザと第2ユーザとの対話を示すテキストを、第1デバイス1000の画面上にディスプレイすることができる。
図40ないし図42は、一実施形態による通話リストの一例を図示した図面である。
図40を参照すれば、一実施形態による、第1デバイス1000の画面上にディスプレイされた通話リストには、第2デバイス2000の電話番号が表示される。また、第1ユーザは、特定通話に係わる対話内容を見るために、通話リスト内のボタン350を選択することができる。その場合、ユーザは、他のユーザとの対話履歴を見ることができる。
第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話内容を示すテキストが、図41のように、第1デバイス1000の画面全体にディスプレイされる。その場合、対話内容を示すテキストは、対話の一部内容を示すテキストでもある。また、対話の一部内容を示すテキストは、第1デバイス1000内に保存される。しかし、それに制限されるものではない。
さらに、図41を参照すれば、対話の一部内容を示すテキストを含むウィンドウ内には、対話の全体内容を見るためのボタン410が表示される。また、ユーザがボタン410を押せば、第1デバイス1000は、対話の全体内容を示すテキストを、第1デバイス1000の画面上にディスプレイすることができる。その場合、対話の全体内容を示すテキストは、サーバ3000に保存されており、第1デバイス1000は、対話の全体内容を示すテキストを、サーバ3000から受信してディスプレイすることができる。
また、第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話内容を示すテキストを含むポップアップウィンドウが、図42のように第1デバイス1000の画面一部にディスプレイされる。
一方、第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話の全体内容がディスプレイされる。しかし、それらに制限されるものではない。
図43は、一実施形態による、第1デバイス1000及び第2デバイス2000がサーバ3000を介して、音声/文字通話を行う例示を図示した図面である。図43を参照すれば、第1デバイス1000は、サーバ3000を経由し、第2デバイス2000と音声/文字通話を行うことができる。また、サーバ3000は、音声/文字通話のために必要な、TTS機能及びSTT機能を遂行することができる。例えば、サーバ3000は、第1デバイス1000で入力された第1ユーザの音声をテキストに変換し、第1デバイス1000で入力された第1ユーザのテキストを音声に変換することができる。また、サーバ3000は、第2デバイス2000で入力された第2ユーザの音声をテキストに変換し、第2デバイス2000で入力された第2ユーザのテキストを音声に変換することができる。
図44は、一実施形態によるサーバ3000が、第1ユーザ及び第2ユーザの音声をテキストに変換することにより、第1デバイス1000と第2デバイス2000との音声/文字通話を支援する方法のフローチャートである。
段階S4400において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S4405において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S4405においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S4410において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S4410においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S4415において、第1デバイス1000は、第1ユーザの音声をサーバ3000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声をサーバ3000に伝送することができる。
また、段階S4420において、サーバ3000は、第1ユーザの音声を第2デバイス2000に伝送することができる。
段階S4425において、サーバ3000は、第1ユーザの音声をテキストに変換することができる。サーバ3000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S4430において、サーバ3000は、第1ユーザの音声から変換されたテキストを第2デバイス2000に伝送し、段階S4435において、サーバ3000は、第1ユーザの音声から変換されたテキストを、第1デバイス1000に伝送することができる。
段階S4440において、第2デバイス2000は、第2ユーザの音声をサーバ3000に伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声をサーバ3000に伝送することができる。
また、段階S4445において、サーバ3000は、第2ユーザの音声を第1デバイス1000に伝送することができる。
段階S4450において、サーバ3000は、第2ユーザの音声をテキストに変換することができる。サーバ3000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S4455において、サーバ3000は、第2ユーザの音声から変換されたテキストを第1デバイス1000に伝送し、段階S4460において、サーバ3000は、第2ユーザの音声から変換されたテキストを第2デバイス2000に伝送することができる。
段階S4465において、第1デバイス1000は、受信されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S4470において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
段階S4475において、第2デバイス2000は、受信されたテキストを経時的に配列することができる。第2デバイス2000は、例えば、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第2デバイス2000は、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が第1デバイス1000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S4480において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。また、第2デバイス2000は、音声/文字通話の通話モードにより、チャットウィンドウを、第2デバイス2000の画面上にディスプレイするか、あるいは第2デバイス2000の画面上において、チャットウィンドウを隠すことができる。
サーバ3000は、第1デバイス1000と第2デバイス2000との連結を仲介する。従って、サーバ3000は、必要によって、音声の対話及び文字の対話を行うことができる。また、サーバ3000は、必要によって、テキストデータ及び音声データを保存する機能を遂行することができる。
図45は、一実施形態による、サーバ3000が第1ユーザ及び第2ユーザのテキストを音声に変換することにより、第1デバイス1000と第2デバイス2000との音声/文字通話を支援する方法のフローチャートである。
図45の段階S4500ないしS4510は、図44の段階S4400ないしS4410に対応するので、それについての説明は省略する。
段階S4515において、第1デバイス1000は、第1ユーザによって入力されたテキストをサーバ3000に伝送し、段階S4520において、サーバ3000は、第1ユーザによって入力されたテキストを、第2デバイス2000に伝送することができる。
段階S4525において、サーバ3000は、第1ユーザから入力されたテキストを音声に変換することができる。サーバ3000は、第1ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第1ユーザのテキストから変換された音声の音色を決定することができる。
段階S4530において、サーバ3000は、第1ユーザのテキストから変換された音声を第2デバイス2000に伝送し、段階S4535において、サーバ3000は、第1ユーザのテキストから変換された音声を、第1デバイス1000に伝送することができる。
段階S4540において、第2デバイス2000は、第2ユーザによって入力されたテキストをサーバ3000に伝送し、段階S4545において、サーバ3000は、第2ユーザによって入力されたテキストを、第1デバイス1000に伝送することができる。
段階S4550において、サーバ3000は、第2ユーザから入力されたテキストを音声に変換することができる。サーバ3000は、第2ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S4555において、サーバ3000は、第2ユーザのテキストから変換された音声を第1デバイス1000に伝送し、段階S4560において、サーバ3000は、第2ユーザのテキストから変換された音声を、第2デバイス2000に伝送することができる。
段階S4565において、第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第1デバイス1000の状況によってディスプレイすることができる。例えば、第1デバイス1000の通話モードが文字モードであるか、あるいは混合モードである場合、第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S4570において、第1デバイス1000は、第2ユーザの音声を第1デバイス1000の状況によって出力することができる。例えば、第1デバイス1000の通話モードが音声モードであるか、あるいは混合モードである場合、第1デバイス1000は、第2ユーザの音声を出力することができる。
段階S4575において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の状況によってディスプレイすることができる。例えば、第2デバイス2000の通話モードが文字モードであるか、あるいは混合モードである場合、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
段階S4580において、第2デバイス2000は、第1ユーザの音声を、第2デバイス2000の状況によって出力することができる。例えば、第2デバイス2000の通話モードが音声モードであるか、あるいは混合モードである場合、第2デバイス2000は、第1ユーザの音声を出力することができる。
サーバ3000は、第1デバイス1000と第2デバイス2000との連結を仲介する。従って、サーバ3000は、必要によって、音声の対話及び文字の対話を遂行することができる。また、サーバ3000は、必要によってテキスト及び音声データを保存する機能を遂行することができる。
図46は、一実施形態による、サーバ3000が第1デバイス1000と第2デバイス2000との音声/文字通話と係わる音声データ及びテキストデータを保存する方法のフローチャートである。
段階S4600において、第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができる。第1デバイス1000及び第2デバイス2000は、音声/文字通話機能を活性化することができる。また、第1デバイス1000及び第2デバイス2000は、サーバ3000を経由し、音声/文字通話を行うことができるが、それらに制限されるものではない。第1デバイス1000は、第2デバイス2000と直接音声/文字通話を行うこともできる。
段階S4610において、第1デバイス1000は、ユーザ間の対話内容の一部を示すテキストを保存することができる。第1デバイス1000は、第1ユーザによって第1デバイス1000に入力された音声から変換されたテキスト、第2ユーザによって第2デバイス2000に入力された音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを獲得することができる。
また、第1デバイス1000は、ユーザ間の対話内容を示すテキストを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、第1デバイス1000は、獲得されたテキストのうち一部を第1デバイス1000内に保存することができる。
段階S4620において、第1デバイス1000は、ユーザ間の対話内容の全部を示すテキストをサーバ3000に伝送し、段階S4630において、サーバ3000は、ユーザ間の対話内容の全部を示すテキストを保存することができる。段階S4620及びS4630においては、サーバ3000が、ユーザ間の対話内容の全部を示すテキストを第1デバイス1000から受信して保存すると説明したが、それに制限されるものではない。サーバ3000は、ユーザ間の対話内容の一部を示すテキストを第1デバイス1000から受信し、ユーザが対話内容の他の一部を示すテキストを第2デバイス2000から受信し、ユーザ間の対話内容のさらに他の一部を示すテキストを直接生成することができる。また、サーバ3000は、第1デバイス1000から受信されたテキスト、第2デバイス2000から受信されたテキスト、及びサーバ3000で生成されたテキストを組み合わせることにより、ユーザ間の対話内容の全部を示すテキストを獲得することもできる。
段階S4640において、第1デバイス1000は、ユーザ間の対話内容の一部を示す音声データを保存することができる。第1デバイス1000は、第1ユーザによって第1デバイス1000に入力されたテキストから変換された音声データ、第2ユーザによって第2デバイス2000に入力されたテキストから変換された音声データ、第1ユーザによって第1デバイス1000に入力された音声データ、及び第2ユーザによって第2デバイス2000に入力された音声データを獲得することができる。
また、第1デバイス1000は、ユーザ間の対話内容を示す音声データを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、第1デバイス1000は、獲得された音声データのうち一部を、第1デバイス1000内に保存することができる。
段階S4650において、第1デバイス1000は、ユーザ間の対話内容の全部を示す音声データをサーバ3000に伝送し、段階S4660において、サーバ3000は、ユーザ間の対話内容の全部を示す音声データを保存することができる。段階S4650及びS4660においては、サーバ3000がユーザ間の対話内容の全部を示す音声データを第1デバイス1000から受信して保存すると説明したが、それに制限されるものではない。サーバ3000は、ユーザ間の対話内容の一部を示す音声データを第1デバイス1000から受信し、ユーザ間の対話内容の一部を示す音声データを第2デバイス2000から受信し、ユーザ間の対話内容の一部を示す音声データを直接生成することができる。また、サーバ3000は、第1デバイス1000から受信された音声データ、第2デバイス2000から受信された音声データ、及びサーバ3000で生成された音声データを組み合わせることにより、ユーザ間の対話内容の全部を示す音声データを獲得することもできる。
図47は、一実施形態による、第1デバイス1000、第2デバイス2000及び第3デバイス4000が互いに音声/文字通話を行う例示を示す図面である。図47を参照すれば、第1デバイス1000、第2デバイス2000及び第3デバイス4000の間に音声/文字通話が行われる。例えば、第1デバイス1000及び第2デバイス2000が音声/文字通話を行っている最中、第3デバイス4000が、第1デバイス1000及び第2デバイス2000の音声/文字通話に参与することができる。また、例えば、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、音声/文字通話を共に始めることができる。3個のデバイスが例示されたが、それらに制限されるものではなく、いかなる数のデバイスも、音声/文字通話に参与することができる。
第1デバイス1000、第2デバイス2000及び第3デバイス4000の間に、音声/文字通話が行われる場合、i)音声/文字通話を行うための第1デバイス1000と第2デバイス2000との動作、ii)音声/文字通話を行うための第1デバイス1000と第3デバイス4000との動作、及びiii)音声/文字通話を行うための第2デバイス2000と第3デバイス4000との動作は、図1ないし図42に図示された動作に対応する。
図48は、一実施形態による、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、サーバ3000を介して、互いに音声/文字通話を行う例示を示す図面である。図48を参照すれば、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、サーバ3000を介して、互いに音声/文字通話を行う場合、第1デバイス1000に入力された音声、第2デバイス2000に入力された音声、及び第3デバイス4000に入力された音声の一部または全部が、サーバ3000によってテキストに変換される。また、第1デバイス1000に入力されたテキスト、第2デバイス2000に入力されたテキスト、及び第3デバイス4000に入力されたテキストの一部または全部が、サーバ3000によって音声に変換される。
また、第1デバイス1000、第2デバイス2000及び第3デバイス4000の間で、サーバ3000を介して、音声/文字通話が行われる場合、i)音声/文字通話を行うための第1デバイス1000、第2デバイス2000及びサーバ3000の間の動作、ii)音声/文字通話を行うための第1デバイス1000、第3デバイス4000及びサーバ3000の間の動作、及びiii)音声/文字通話を行うための第2デバイス2000、第3デバイス4000及びサーバ3000の間の動作は、図43ないし図46に図示された動作に対応する。
図49及び図50は、一実施形態による第1デバイス1000のブロック図である。
図49に図示されているように、一実施形態による第1デバイス1000は、ユーザ入力部1100、出力部1200、制御部1300及び通信部1500を含んでもよい。しかし、図49に図示された構成要素がいずれも第1デバイス1000の必須構成要素であるものではない。図49に図示された構成要素より多くの構成要素によって、第1デバイス1000が具現されもし、図49に図示された構成要素より少ない構成要素によって、第1デバイス1000が具現されもする。
例えば、図50に図示されているように、一実施形態による第1デバイス1000は、ユーザ入力部1100、出力部1200、制御部1300及び通信部1500以外に、センシング部1400、A/V(audio/video)入力部1600及びメモリ1700をさらに含んでもよい。
ユーザ入力部1100は、ユーザが第1デバイス1000を制御するためのデータを入力する手段を意味する。例えば、ユーザ入力部1100には、キーパッド(key pad)、ドームスイッチ(dome switch)、タッチパッド(接触式静電容量方式、圧力式抵抗膜方式、赤外線感知方式、表面超音波伝導方式、積分式張力測定方式、ピエゾ効果方式など)、ジョグホイール、ジョグスイッチなどがあるが、それらに限定されるものではない。
ユーザ入力部1100は、音声/文字通話のためのユーザ入力を受信することができる。例えば、ユーザ入力部1100は、ユーザの音声入力、ユーザの文字入力及びユーザのタッチ入力を受信することができる。
出力部1200は、オーディオ信号またはビデオ信号または振動信号を出力することができ、出力部1200は、ディスプレイ部1210、音響出力部1220及び振動モータ1230を含んでもよい。
ディスプレイ部1210は、第1デバイス1000で処理される情報を表示出力することができる。例えば、ディスプレイ部1210は、音声/文字通話中、ユーザ間の対話内容を示すテキストを含むチャットウィンドウをディスプレイすることができる。
一方、ディスプレイ部1210とタッチパッドとがレイヤ構造をなし、タッチスクリーンとして構成される場合、ディスプレイ部1210は、出力装置以外に、入力装置としても使用される。ディスプレイ部1210は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード(organic light-emitting diode)、フレキシブルディスプレイ(flexible display)、三次元ディスプレイ(3D display)、電気泳動ディスプレイ(electrophoretic display)のうち少なくとも一つを含んでもよい。そして、第1デバイス1000の具現形態によって、第1デバイス1000は、ディスプレイ部1210を2個以上含んでもよい。そのとき、2個以上のディスプレイ部1210は、ヒンジ(hinge)を利用して対向するように配置される。
音響出力部1220は、通信部1500から受信されるか、あるいはメモリ1700に保存されたオーディオデータを出力することができる。また、音響出力部1220は、第1デバイス1000で遂行される機能(例えば、コール信号受信音、メッセージ受信音、アラーム音)と係わる音響信号を出力することができる。そのような音響出力部1220には、スピーカ、ブザー(buzzer)などが含まれてもよい。
振動モータ1230は、振動信号を出力することができる。例えば、振動モータ1230は、オーディオデータまたはビデオデータ(例えば、コール信号受信音、メッセージ受信音など)の出力に対応する振動信号を出力することができる。また、振動モータ1230は、タッチスクリーンにタッチが入力される場合、振動信号を出力することもできる。
制御部1300は、一般的に、第1デバイス1000の全般的な動作を制御することができる。例えば、制御部1300は、メモリ1700に保存されたプログラムを実行することにより、ユーザ入力部1100、出力部1200、センシング部1400、通信部1500、A/V入力部1600などを全般的に制御することができる。制御部1300は、図1ないし図49での第1デバイス1000の動作を遂行するために、ユーザ入力部1100、出力部1200、センシング部1400、通信部1500、A/V入力部1600などを全般的に制御することができる。
具体的には、制御部1300は、音声/文字通話機能を活性化することができる。制御部1300は、第2デバイス2000に電話を発信するとき、音声通話機能を活性化することができる。また、制御部1300は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、制御部1300は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
また、音声/文字通話機能が活性化されることにより、制御部1300は、第1デバイス1000において、音声/文字通話機能が活性化されたということを、第2デバイス2000に知らせる。その場合、制御部1300は、第1デバイス1000の音声/文字通話の通話モードを、第2デバイス2000に知らせることもできる。音声/文字通話の通話モードについては、後述する。
また、制御部1300は、第1デバイスのユーザと、第2デバイス2000のユーザとの音声から変換されたテキストを、獲得することができる。制御部1300は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、制御部1300は、通信部1500を介して、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それらに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置またはサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを、通信部1500を介して、多様な装置及びサーバから受信することができる。
また、制御部1300は、ユーザによって入力されたテキストを獲得することができる。第1デバイス1000は、音声/文字通話中、第1デバイス1000のユーザから入力されたテキストを獲得することができる。また、制御部1300は、音声/文字通話中、第2デバイス2000のユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
制御部1300は、変換されたテキスト、及び入力されたテキストを経時的に配列し、ユーザとの通話中、第1デバイス1000の画面上にディスプレイすることができる。制御部1300は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、制御部1300は、第1デバイス1000のユーザが第1デバイス1000に音声を入力した時間、第2デバイス2000のユーザが第2デバイス2000に音声を入力した時間、第1デバイス1000のユーザが第1デバイス1000にテキストを入力した時間、及び第2デバイス2000のユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
一方、制御部1300は、第1ユーザと第2ユーザとの音声から変換されたテキストの原本音声データを、メモリ1700またはサーバ2000にバックアップすることができる。制御部1300は、第1ユーザの音声から変換されたテキストに対応する第1ユーザの音声データをバックアップすることができる。また、制御部1300は、第2ユーザの音声から変換されたテキストに対応する第2ユーザの音声データをバックアップすることができる。
また、制御部1300は、第1ユーザと第2ユーザとの通話中、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。制御部1300は、第1ユーザと第2ユーザとの対話の内容を示すために、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
制御部1300は、チャットウィンドウを介して、第1ユーザから入力されたテキストを獲得することができる。また、制御部1300は、音声/文字通話中、第2ユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
また、制御部1300は、変換されたテキスト、及び入力されたテキストを経時的に配列してチャットウィンドウ内に表示することができる。制御部1300は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、制御部1300は、第1ユーザが第1デバイス1000に音声を入力した時間、第2ユーザが第2デバイス2000に音声を入力した時間、第1ユーザが第1デバイス1000にテキストを入力した時間、及び第2ユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
また、制御部1300は、変換されたテキストを、入力されたテキストと区別して表示することができる。制御部1300は、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声に変換されたテキストを、第1ユーザから入力されたテキスト、及び第2ユーザから入力されたテキストと区別されるように表示することができる。
例えば、制御部1300は、変換されたテキストを区別して表示するために、別途のアイコンを、変換されたテキストの周辺にディスプレイすることができる。また、例えば、制御部1300は、変換されたテキストの色相、太さまたは書体などが区別されるように表示することができる。しかし、それらに制限されるものではない。
また、制御部1300は、変換されたテキストが選択されれば、変換されたテキストの原本音声データを出力することができる。変換されたテキストが、チャットウィンドウ内で、第1ユーザによって選択されれば、制御部1300は、選択されたテキストの原本音声データをメモリから抽出し、抽出された原本音声データを、第1デバイス1000内のスピーカを介して出力することができる。
また、制御部1300は、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、制御部1300は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、制御部1300は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
一方、制御部1300は、配列されたテキスト全体をサーバ3000にバックアップすることができる。その場合、制御部1300は、配列されたテキストのうち一部を第1デバイス1000内にバックアップし、配列されたテキストの全部をサーバ3000にバックアップすることができる。また、制御部1300は、配列されたテキストのうち一部テキスト、及び配列されたテキストの全体テキストをサーバ3000に保存することもできる。
一方、制御部1300は、配列されたテキスト全体を多様な自然語解釈方法を介して、ユーザ間の対話を分析することができ、配列されたテキストから、ユーザ間の主要対話内容を示す部分を抽出することができる。また、制御部1300は、抽出された一部対話を示すテキストを、第1デバイス1000内にバックアップすることができる。
一方、制御部1300は、音声/文字通話機能を活性化し、音声/文字通話中に利用されるチャットアプリケーションを決定することができる。例えば、制御部1300は、第1デバイス1000の音声/文字通話機能と連動されて実行されるチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。また、例えば、制御部1300は、第1デバイス1000及び第2デバイス2000のいずれにもインストールされたチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。しかし、それに制限されるものではない。
また、制御部1300は、決定されたチャットアプリケーションを実行し、音声から変換されたテキストを、実行されたチャットアプリケーションに入力することができる。例えば、制御部1300は、実行されたチャットアプリケーションに、テキスト自動入力のためのプラグインをインストールし、インストールされたプラグインを介して、チャットアプリケーションに、音声から変換されたテキストを入力することができる。しかし、それに制限されるものではない。
また、制御部1300は、ユーザとの通話中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。制御部1300は、第1ユーザの音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、第2ユーザの音声から変換されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを、チャットウィンドウ内に配列することができる。
また、制御部1300は、第1デバイス1000の音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
一方、制御部1300は、第1デバイス1000及び第2デバイス2000がチャットサービスを利用している最中、音声/文字通話を始めることができる。
また、制御部1300は、音声/文字通話中、通話モードを変更することができる。通話モードは、音声モード、文字モード及び混合モードを含んでもよい。制御部1300は、通話モードが変更されることにより、第1デバイス1000のスピーカ及びマイクロフォンのうち少なくとも一つを活性化または非活性化することができる。また、制御部1300は、通話モードが変更されることにより、音声/文字通話に利用されるチャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは隠すことができる。また、制御部1300は、第2デバイス2000の通話モードにより、ユーザの音声またはテキストを、選択的に第2デバイス2000に提供する。
一方、制御部1300は、第2デバイス2000の通話モード変更を第1ユーザに知らせることができ、第1ユーザに通話モードの変更を勧めることができる。また、制御部1300は、第2デバイス2000の混合モードの入出力機能変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧めることができる。
一方、制御部1300は、チャットウィンドウ内のテキスト情報の一部または全部を第1デバイス1000またはサーバ3000にバックアップすることができる。また、一方、制御部1300は、チャットウィンドウ内のテキスト情報を、通話リストと関連づけて保存することができる。
センシング部1400は、第1デバイス1000の状態、または第1デバイス1000周辺の状態を感知し、感知された情報を制御部1300に伝達することができる。
センシング部1400は、地磁気センサ(magnetic sensor)1410、加速度センサ(acceleration sensor)1420、温度/湿度センサ1430、赤外線センサ1440、ジャイロスコープセンサ1450、位置センサ(例えば、GPS(global position system))1460、気圧センサ1470、近接センサ1480、及びRGBセンサ(illuminance sensor)1490のうち少なくとも一つを含んでもよいが、それらに限定されるものではない。各センサの機能は、その名称から当業者が直観的に推論することができるので、具体的な説明は省略する。
通信部1500は、第1デバイス1000が、第2デバイス2000、第3デバイス4000及びサーバ3000のうち少なくとも一つと通信をするようにする1以上の構成要素を含んでもよい。例えば、通信部1500は、近距離通信部(short-range wireless communication unit)1510、移動通信部1520、放送受信部1530を含んでもよい。
近距離通信部151は、ブルートゥース(登録商標)通信部、BLE(Bluetooth low energy)通信部、近距離無線通信部(near field communication unit)、WLAN(wireless local area network)通信部、ジグビー(登録商標(Zigbee))通信部、赤外線(IrDA:infrared data association)通信部、WFD(Wi−Fi direct)通信部、UWB(ultra wideband)通信部、Ant+通信部などを含んでもよいが、それらに限定されるものではない。
移動通信部1520は、移動通信網上において、基地局、外部の端末、サーバのうち少なくとも一つと無線信号を送受信することができる。ここで、該無線信号は、音声コール信号、画像通話コール信号または文字/マルチメディアメッセージ送受信による多様な形態のデータを含んでもよい。
放送受信部1530は、放送チャネルを介して、外部から放送信号、及び/または放送係わる情報を受信することができる。該放送チャネルは、衛星チャネル、地上波チャネルを含んでもよい。一具現例によって、第1デバイス1000が放送受信部1530を含まないこともある。
また、通信部1500は、音声/文字通話を行うために必要な情報を、第1デバイス1000が、第2デバイス2000、第3デバイス4000及びサーバ3000のうち少なくとも一つと送受信することができる。
A/V入力部1600は、オーディオ信号またはビデオ信号の入力のためのものであり、それには、カメラ1610やマイクロフォンロホン1620などが含まれる。カメラ1610は、画像通話モードまたは撮影モードにおいて、イメージセンサを介して、静止映像または動画などの画像フレームを得ることができる。イメージセンサを介してキャプチャされたイメージは、制御部1300または別途のイメージ処理部(図示せず)を介して処理される。
カメラ1610で処理された画像フレームは、メモリ1700に保存されるか、あるいは通信部1500を介して外部に伝送される。カメラ1610は、端末機の構成様態によって、2個以上が具備されてもよい。
マイクロフォンロホン1620は、外部の音響信号を入力され、電気的な音声データに処理することができる。例えば、マイクロフォンロホン1620は、外部デバイスまたは話者から音響信号を受信することができる。マイクロフォンロホン1620は、外部の音響信号を入力される過程で発生するノイズを除去するための多様なノイズ除去アルゴリズムを利用することができる。
メモリ1700は、制御部1300の処理及び制御のためのプログラムを保存することができ、第1デバイス1000に入力されるか、あるいは第1デバイス1000から出力されるデータを保存することもできる。
メモリ1700は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDメモリまたはXDメモリなど)、RAM(random access memory)、SRAM(static random access memory)、ROM(read only memory)、EEPROM(electrically erasable and programmable read only memory)、PROM(programmable read only memory)、磁気メモリ、磁気ディスク、光ディスクのうち少なくとも1つのタイプの記録媒体を含んでもよい。
メモリ1700に保存されたプログラムは、その機能によって複数個のモジュールに分類することができるのに、例えば、UI(user interface)モジュール1710、タッチスクリーンモジュール1720、アラームモジュール1730などに分類される。
UIモジュール1710は、アプリケーション別に、第1デバイス1000と連動される特化されたUI、GUI(graphic user interface)などを提供する。タッチスクリーンモジュール1720は、ユーザのタッチスクリーン上のタッチジェスチャを感知し、タッチジェスチャについての情報を制御部1300に伝達することができる。一実施形態によるタッチスクリーンモジュール1720は、タッチコードを認識して分析することができる。タッチスクリーンモジュール1720は、コントローラを含む別途のハードウェアでも構成される。
タッチスクリーンのタッチまたは近接タッチを感知するために、タッチスクリーンの内部または近傍に多様なセンサが具備される。タッチスクリーンのタッチを感知するためのセンサの一例として、触覚センサがある。触覚センサは、人が感じるほど、あるいはそれ以上、特定物体の接触を感知するセンサをいう。触覚センサは、接触面の粗度、接触物体の硬度、接触地点の温度などの多様な情報を感知することができる。
また、タッチスクリーンのタッチを感知するためのセンサの一例として、近接センサがある。
該近接センサは、所定の検出面に接近する物体、あるいは近傍に存在する物体の有無を電子系の力または赤外線を利用して、機械的接触なしに検出するセンサをいう。近接センサの例としては、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。ユーザのタッチジェスチャには、タップ、タッチ&ホールド、ダブルタップ、ドラッグ、パンニング、フリック、ドラッグアンドドロップ、スワイプなどがある。
アラームモジュール1730は、第1デバイス1000のイベント発生を知らせるための信号を発生させることができる。第1デバイス1000で発生するイベントの例としては、コール信号受信、メッセージ受信、キー信号入力、日程通知などがある。アラームモジュール1730は、ディスプレイ部1210を介して、ビデオ信号形態でアラーム信号を出力することもでき、音響出力部1220を介して、オーディオ信号形態でアラーム信号を出力することもでき、振動モータ1230を介して、振動信号形態でアラーム信号を出力することもできる。
図51は、一実施形態によるサーバ3000のブロック図である。図51を参照すれば、一実施形態によるサーバ3000は、通信部3100、制御部3200及びDB(database)3300を含んでもよい。また、DB 3300は、音声DB 3310、テキストDB 3320及び通話リストDB 3330を含んでもよい。
通信部3100は、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上間の音声/文字通話を行うために必要なデータを、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上に伝送することができる。
制御部3200は、一般的に、サーバ3000の全般的な動作を制御することができる。例えば、制御部3200は、DB 3300に保存されたプログラムを実行することにより、サーバ3000の全般的な動作を制御することができる。
具体的には、制御部3200は、第1デバイス1000から受信された第1ユーザのテキスト、及び第2デバイス2000から受信された第2ユーザのテキストのうち少なくとも一つを音声に変換することができる。制御部3200は、第1ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第1ユーザのテキストから変換された音声の音色を決定することができる。また、制御部3200は、第2ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
また、制御部3200は、通信部3100を介して、第1ユーザのテキストから変換された音声を、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザのテキストから変換された音声を、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。
また、制御部3200は、通信部3100を介して、第1ユーザによって入力されたテキストを、第1デバイス1000から受信することができ、受信されたテキストを、第2デバイス2000に伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザによって入力されたテキストを、第2デバイス2000から受信することができ、受信されたテキストを、第1デバイス1000に伝送することができる。
一方、制御部3200は、第1デバイス1000から受信された第1ユーザの音声、及び第2デバイス2000から受信された第2ユーザの音声のうち少なくとも一つをテキストに変換することができる。
また、制御部3200は、通信部3100を介して、第1ユーザの音声から変換されたテキストを、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザの音声から変換されたテキストを、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。
また、制御部3200は、通信部3100を介して、第1ユーザによって入力された音声を、第1デバイス1000から受信することができ、受信された音声を、第2デバイス2000に伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザによって入力された音声を、第2デバイス2000から受信することができ、受信された音声を、第1デバイス1000に伝送することができる。
一方、制御部3200は、音声/文字通話を行うユーザ間の対話内容を示すテキストを保存することができる。制御部3200は、音声/文字通話を行うユーザ間の対話内容の一部及び/または全部を示すテキストを保存することができる。制御部3200は、第1ユーザによって第1デバイス1000に入力された音声から変換されたテキスト、第2ユーザによって第2デバイス2000に入力された音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを獲得することができる。
また、制御部3200は、ユーザ間の対話内容を示すテキストを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、制御部3200は、獲得されたテキストのうち一部及び/または全部をDB 3300に保存することができる。
一方、制御部3200は、音声/文字通話を行うユーザ間の対話内容を示す音声データを保存することができる。制御部3200は、音声/文字通話を行うユーザ間の対話内容の一部及び/または全部を示す音声データを保存することができる。制御部3200は、第1ユーザによって第1デバイス1000に入力されたテキストから変換された音声データ、第2ユーザによって第2デバイス2000に入力されたテキストから変換された音声データ、第1ユーザによって第1デバイス1000に入力された音声データ、及び第2ユーザによって第2デバイス2000に入力された音声データを獲得することができる。
また、制御部3200は、ユーザ間の対話内容を示す音声データを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、制御部3200は、獲得された音声データのうち一部及び/または全部をDB 3300内に保存することができる。
一方、制御部3200は、ユーザ間の音声/文字通話についての通話リストを生成することができる。また、制御部3200は、保存されたテキスト及び音声データを、ユーザ間の音声/文字通話についての通話リストにマッチングすることができる。
DB 3300は、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上間の音声/文字通話のために必要なデータを保存することができる。
音声DB 3310は、ユーザの音声データを保存することができる。音声DB 3310は、ユーザによって入力された音声データ、及びユーザによって入力されたテキストから変換された音声データを保存することができる。また、音声DB 3310は、ユーザの音声データについての属性情報を保存することができる。音声データの属性情報は、ユーザによって入力された音声、及びユーザによって入力されたテキストから変換された音声を区別するための情報でもある。しかし、それらに制限されるものではない。
テキストDB 3320は、ユーザのテキストを保存することができる。テキストDB 3320は、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されたテキストを保存することができる。また、テキストDB 3320は、ユーザのテキストについての属性情報を保存することができる。テキストの属性情報は、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されたテキストを区別するための情報でもある。しかし、それらに制限されるものではない。
通話リストDB 3330は、ユーザ間の音声/文字通話についての通話リストを保存することができる。また、通話リストDB 3330についての多様な情報を保存することができる。通話リストDB 3330に保存されたデータは、音声DB 3310に保存されたデータ、及びテキストDB 3320に保存されたデータと互いにマッチングされる。
一実施形態は、コンピュータによって実行されるプログラムモジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現される。コンピュータ可読媒体は、コンピュータによってアクセスされる任意の可用媒体でもあり、揮発性媒体及び不揮発性媒体、分離型媒体及び非分離型媒体をいずれも含む。また、コンピュータ可読媒体は、コンピュータ記録媒体及びコンピュータ通信媒体をいずれも含んでもよい。該コンピュータ記録媒体は、コンピュータ可読命令語、データ構造、プログラムモジュール、またはその他データのような情報の保存のための任意の方法または技術によって具現された揮発性及び不揮発性、分離型及び非分離型の媒体をいずれも含む。該通信媒体は、典型的に、コンピュータ可読命令語、データ構造、プログラムモジュール、または搬送波のような変調されたデータ信号のその他データ、あるいはその他伝送メカニズムを含み、任意の情報伝達媒体を含む。
また、本明細書において、「部」は、プロセッサまたは回路のようなハードウェア構成(hardware component)、及び/またはプロセッサのようなハードウェア構成によって実行されるソフトウェア構成(software component)でもある。
前述の本発明の説明は、例示のためのものであり、本発明が属する技術分野の当業者であるならば、本発明の技術的思想や必須な特徴を変更せずとも、他の具体的な形態に容易に変形が可能であるということを理解することができるであろう。従って、以上で記述した実施形態は、全ての面で例示的なものであり、限定的ではないと理解されなければならない。例えば、単一型と説明されている各構成要素は、分散されて実施されもし、同様に、分散されていると説明されている構成要素も、結合された形態でも実施される。
本発明の範囲は、前述の説明よりは、特許請求の範囲によって示され、特許請求の範囲の意味、範囲及びその均等概念から導き出される全ての変更または変形された形態は、本発明の範囲に含まれるものであると解釈されなければならない。