JP2017517228A - 音声/文字通話サービスを提供するシステム及びその方法 - Google Patents

音声/文字通話サービスを提供するシステム及びその方法 Download PDF

Info

Publication number
JP2017517228A
JP2017517228A JP2017514239A JP2017514239A JP2017517228A JP 2017517228 A JP2017517228 A JP 2017517228A JP 2017514239 A JP2017514239 A JP 2017514239A JP 2017514239 A JP2017514239 A JP 2017514239A JP 2017517228 A JP2017517228 A JP 2017517228A
Authority
JP
Japan
Prior art keywords
text
voice
call
user
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017514239A
Other languages
English (en)
Other versions
JP6688783B2 (ja
Inventor
キム,ソン−エ
キム,ホン−チョル
シン,ヒョン−ジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2015/005143 external-priority patent/WO2015178715A1/en
Publication of JP2017517228A publication Critical patent/JP2017517228A/ja
Priority to JP2020002538A priority Critical patent/JP6925458B2/ja
Application granted granted Critical
Publication of JP6688783B2 publication Critical patent/JP6688783B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/56Unified messaging, e.g. interactions between e-mail, instant messaging or converged IP messaging [CPM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/64Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
    • H04M1/65Recording arrangements for recording a message from the calling party
    • H04M1/6505Recording arrangements for recording a message from the calling party storing speech in digital form
    • H04M1/651Recording arrangements for recording a message from the calling party storing speech in digital form with speech synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42382Text-based messaging services in telephone networks such as PSTN/ISDN, e.g. User-to-User Signalling or Short Message Service for fixed networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • H04M7/0024Services and arrangements where telephone services are combined with data services
    • H04M7/0042Services and arrangements where telephone services are combined with data services where the data service is a text-based messaging service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • H04L51/066Format adaptation, e.g. format conversion or compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/60Medium conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2207/00Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place
    • H04M2207/18Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place wireless networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/60Details of telephonic subscriber devices logging of communication history, e.g. outgoing or incoming calls, missed calls, messages or URLs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42391Systems providing special services or facilities to subscribers where the subscribers are hearing-impaired persons, e.g. telephone devices for the deaf

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

音声/文字通話サービスを提供するシステム及びその方法を提供し、モバイルデバイスにおいて、外部モバイルデバイスと通話を行うモバイルデバイスにおいて、モバイルデバイスと外部モバイルデバイスとの通話中、モバイルデバイスと外部モバイルデバイスとの間で送受信される音声デデータから変換されたテキストを獲得し、モバイルデバイスに入力されたテキスト、及び外部モバイルデバイスから提供されたテキストを獲得する制御部と、変換されたテキスト、入力されたテキスト、及び提供されたテキストを配列し、外部モバイルデバイスとモバイルデバイスとの通話中、モバイルデバイスの画面上にディスプレイするディスプレイ部と、を含むモバイルデバイスである。

Description

本発明は、音声/文字通話サービスを提供するシステム及びその方法に係り、さらに詳細には、音声/文字通話サービスを介して、音声通話及び文字サービスを共に提供することができるシステム及びその方法に関する。
マルチメディア技術及びネットワーク技術の発展により、ユーザは、多様なデバイスを利用して、他のユーザとコミュニケーションを行えるようになった。特に、音声通話サービス及び文字送受信サービスを介して、ユーザらは、他のユーザと対話を交わすことができるようになった。
しかし、ユーザが、デバイスを介して、他のデバイスのユーザと対話を交わすことができる環境が、音声通話に適さないか、あるいは文字送受信に適さないこともある。
従って、ユーザが、音声通話サービス及び文字送受信サービスを一緒にして利用することができ、音声通話サービス及び文字送受信サービスを効果的に転換して利用することができる技術が要求されている。
本発明の一実施形態は、音声/文字通話サービスを介して、音声通話及び文字サービスを共に提供することができる音声/文字通話サービスを提供するシステム及びその方法を提供する。
また、本発明の一実施形態は、音声/文字通話中に、ユーザ間の対話を示すテキストを区別して表示することができる音声/文字通話サービスを提供するシステム及びその方法を提供する。
また、本発明の一実施形態は、音声/文字通話中に、通話モードの変更をユーザに知らせる音声/文字通話サービスを提供するシステム及びその方法を提供する。
前述の技術的課題を達成するための技術的手段として、本開示の第1側面は、モバイルデバイスと外部モバイルデバイスとの通話中に、前記モバイルデバイスと前記外部モバイルデバイスとの間に送受信される音声から変換されたテキストを獲得し、前記モバイルデバイスに入力されたテキスト、及び前記外部モバイルデバイスから提供されたテキストを獲得する制御部と、前記変換されたテキスト、前記入力されたテキスト、及び前記提供されたテキストを配列し、前記通話中に、前記モバイルデバイスの画面上にディスプレイするディスプレイ部と、を含むモバイルデバイスを提供する。
また、本開示の第2側面は、モバイルデバイスと外部モバイルデバイスとの通話中に、前記モバイルデバイスと前記外部モバイルデバイスとの間に送受信される音声から変換されたテキストを獲得する段階と、前記モバイルデバイスに入力されたテキストを獲得する段階と、前記外部モバイルデバイスから提供されたテキストを獲得する段階と、前記変換されたテキスト、前記入力されたテキスト、及び前記提供されたテキストを配列し、前記通話中に、前記モバイルデバイスの画面上にディスプレイする段階と、を含む、モバイルデバイスが外部モバイルデバイスと通話を行う方法を提供する。
また、本開示の第3側面は、第1モバイルデバイスから第1ユーザの音声を受信する通信部と、前記受信された第1ユーザの音声をテキストに変換する制御部と、を含み、前記通信部は、前記第1ユーザの音声から変換されたテキストを、前記第2モバイルデバイスに伝送するサーバと、前記サーバに、前記第1ユーザの音声を提供する第1モバイルデバイスと、前記第2モバイルデバイスに伝送された、前記第1ユーザの音声から変換されたテキストを、前記通話中に、前記第2モバイルデバイスの画面上にディスプレイされる、前記第1ユーザと前記第2ユーザとの対話内容を示すチャットウィンドウ内に表示する第2モバイルデバイスと、を含む、第1モバイルデバイスと第2モバイルデバイスとの通話を提供するシステムを提供する。
一実施形態による音声/文字通話サービスについて説明するための図面である。 一実施形態による、第1デバイスが、音声/文字通話中に、音声から変換されたテキスト、及びユーザから入力されたテキストをディスプレイする方法のフローチャートである。 一実施形態による音声/文字通話機能が活性化される例示を図示した図面である。 一実施形態による音声/文字通話機能が活性化される例示を図示した図面である。 一実施形態による、電話受信時、第1デバイスの音声/文字通話機能が活性化される例示を図示した図面である。 一実施形態による、音声通話中、第1デバイスの音声/文字通話機能が活性化される例示を図示した図面である。 一実施形態による、音声/文字通話機能が活性化された第1デバイスが、音声/文字通話機能が活性化されていない第2デバイスと音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスと第2デバイスとが互いに音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスと第2デバイスとが互いに音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスと第2デバイスとが互いに音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスが音声/文字通話中、チャットウィンドウをディスプレイする方法のフローチャートである。 一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウの例示を示す図面である。 一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウの例示を示す図面である。 一実施形態による、第1デバイス及び第2デバイスが、特定チャットアプリケーションを介して、音声から変換されたテキストを互いに送受信する例示を示す図面である。 一実施形態による、音声/文字通話機能が活性化される場合、第1デバイスが、音声通話と連動されて実行されるチャットアプリケーションを決定する方法のフローチャートである。 一実施形態による、第1デバイスが音声/文字通話中に利用されるチャットアプリケーションを決定する方法のフローチャートである。 一実施形態による、第1デバイスが音声/文字通話中に利用されるチャットアプリケーションをインストールする方法のフローチャートである。 一実施形態による、第1デバイスがチャットサービスを利用している最中、音声/文字通話機能を活性化する例示を示す図面である。 一実施形態による、第1デバイスがチャットアプリケーションのユーザリスト画面を介したユーザ入力によって、音声/文字通話を始める例示を示す図面である。 一実施形態による、第1デバイス及び第2デバイスがチャットサービスを利用している最中、音声/文字通話を行う方法のフローチャートである。 一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。 一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。 一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。 一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。 一実施形態による、第1デバイスが音声/文字通話のモードを転換する方法のフローチャートである。 一実施形態による、第1デバイスが音声モードで音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスが文字モードで音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスが第2デバイスの通話モードを識別する方法のフローチャートである。 一実施形態による、音声モードで動作する第1デバイスと、文字モードで動作する第2デバイスとが音声/文字通話を行う方法のフローチャートである。 一実施形態による、音声モードで動作する第1デバイスと、文字モードで動作する第2デバイスとが音声/文字通話を行う方法のフローチャートである。 一実施形態による、音声モードで動作する第1デバイスと、文字モードで動作する第2デバイスとが音声/文字通話を行う方法のフローチャートである。 一実施形態による、音声/文字通話の通話モードのうち一つである混合モードの例示を示す図面である。 一実施形態による、音声/文字通話の通話モードのうち一つである混合モードの例示を示す図面である。 一実施形態による、音声/文字通話の通話モードのうち一つである混合モードの例示を示す図面である。 一実施形態による、音声/文字通話を行っている第1デバイスの通話モードが、音声モードから混合モードに転換されたり、混合モードから音声モードに転換されたりする一例を図示した図面である。 一実施形態による、音声/文字通話を行っている第1デバイスの通話モードが、文字モードから混合モードに転換されたり、混合モードから文字モードに転換されたりする一例を図示した図面である。 一実施形態による、第1デバイスが音声/文字通話のモードを転換する方法のフローチャートである。 一実施形態による、第1デバイスが混合モードで音声/文字通話を行う方法のフローチャートである。 一実施形態による、混合モードで動作する第1デバイスが、第2デバイスと音声/文字通話を行う方法のフローチャートである。 一実施形態による、第1デバイスが第2デバイスの通話モード変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧める方法のフローチャートである。 一実施形態による、第1デバイスが第2デバイスの混合モードの入出力機能変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧める方法のフローチャートである。 一実施形態による、第1デバイスが第1ユーザに、音声モードから文字モードへの通話モード変更を勧める一例を図示した図面である。 一実施形態による、第1デバイスが第1ユーザに、文字モードから音声モードへの通話モード変更を勧める一例を図示した図面である。 一実施形態による、第1デバイスが音声/文字通話の通話リストを生成する方法のフローチャートである。 一実施形態による、第1デバイスの通話リストを介して、第1ユーザと第2ユーザとの対話を示すテキストをディスプレイする方法のフローチャートである。 一実施形態による通話リストの一例を図示した図面である。 一実施形態による通話リストの一例を図示した図面である。 一実施形態による通話リストの一例を図示した図面である。 一実施形態による、第1デバイス及び第2デバイスが、サーバを介して、音声/文字通話を行う例示を図示した図面である。 一実施形態による、サーバが第1ユーザ、及び第2ユーザの音声をテキストに変換することにより、第1デバイスと第2デバイスとの音声/文字通話を支援する方法のフローチャートである。 実施形態による、サーバが、第1ユーザ、及び第2ユーザのテキストを音声に変換することにより、第1デバイスと第2デバイスとの音声/文字通話を支援する方法のフローチャートである。 一実施形態による、サーバが第1デバイスと第2デバイスとの音声/文字通話と係わる音声データ及びテキストデータを保存する方法のフローチャートである。 一実施形態による、第1デバイス、第2デバイス及び第3デバイスが互いに音声/文字通話を行う例示を示す図面である。 一実施形態による、第1デバイス、第2デバイス及び第3デバイスが、サーバを介して、互いに音声/文字通話を行う例示を示す図面である。 一実施形態による第1デバイスのブロック図である。 一実施形態による第1デバイスのブロック図である。 一実施形態によるサーバのブロック図である。
以下、添付した図面を参照し、本発明が属する技術分野で当業者が容易に実施することができるように、本発明の実施形態について詳細に説明する。しかし、本発明は、さまざまに異なる形態に具現されるが、ここで説明する実施形態に限定されるものではない。そして、図面において、本発明について明確に説明するために、説明と係わりのない部分は省略し、明細書全体を通じて、類似した部分については、類似した図面符号を付した。
明細書全体において、ある部分が他の部分と「連結」されているとするとき、それは、「直接連結」されている場合だけではなく、その中間に、他の素子を挟んで「電気的に連結」されている場合も含む。また、ある部分がある構成要素を「含む」というとき、それは、特別に反対となる記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。
また、本明細書において、音声/文字通話サービスは、音声通話サービス及びチャットサービスを併行して提供するサービスでもある。ユーザは、デバイスを利用して、相手デバイスと音声通話を行うことができ、音声通話中、相手デバイスとメッセージ送受信を共に行うことができる。また、音声/文字通話サービスの通話モードは、例えば、音声モード、文字モード及び混合モードのうち少なくとも2以上を含んでもよい。
また、本明細書において、音声モードは、ユーザが音声通話が可能であるように、他のユーザと通話を行うことができる通話モードでもある。
また、本明細書において、文字モードは、ユーザが、文字メッセージの送受信を介して、他のユーザとコミュニケーションすることができる通話モードでもある。
また、本明細書において、混合モードは、ユーザが、他のユーザと音声通話を行うと同時に、他のユーザとメッセージ送受信を行うことができる通話モードでもある。
例えば、混合モードにおいて、ユーザは、デバイスのスピーカフォンを介して、他のユーザと音声通話を行いながら、文字メッセージの送受信を介して、他のユーザとコミュニケーションを行うことできる。また、例えば、混合モードにおいて、ユーザは、他のユーザと、スピーカフォンを使用しない音声通話を行いながら、文字メッセージの送受信を介して、他のユーザとコミュニケーションを行うことできる。
また、本明細書において、デバイス間に、音声と文字とを伝送する方式は、多様な方式が利用される。例えば、ユーザが加入した移動通信サービス、またはデバイスで使用可能な無線技術(Wi−Fi(wireless fidelity)、ブルートゥース(登録商標(Bluetooth)など)などを利用して、音声及び文字がデバイス間で送受信される。例えば、LTE(long term evolution)通信技術またはWi−Fi通信技術が使用される場合、音声及び文字のいずれも、パケット網を介して、デバイス間で送受信される。その場合、音声は、VoLTE(voice over long term evolution)技術を使用して伝送される。また、WCDMA(登録商標(wideband code division multiple access))が使用される場合、音声は、サーキット網を介して伝送され、文字は、パケット網を介し+もて伝送される。音声と文字は、それぞれ別途の通信連結を介しても伝送される。パケット網が利用される場合、デバイス間の通信連結は、TCP/IP連結にもなる。サーキット網が利用される場合、デバイス間の通信連結は、コール(call)連結にもなる。
以下、添付された図面を参照し、本発明について詳細に説明する。
図1は、一実施形態による音声/文字通話サービスについて説明するための図面である。図1を参照すれば、第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができる。音声/文字通話は、音声サービス及びメッセージングサービスをいずれも支援する1つの通信連結またはセッションを介して始まる。第1デバイス1000及び第2デバイス2000は、互いに音声通話を行うことができ、第1デバイス1000は、音声通話最中に、第1デバイス1000の画面上に、ユーザ間の対話を示すテキストをディスプレイすることができる。また、第2デバイス2000も、音声通話最中に、第2デバイス2000の画面上に、ユーザ間の対話を示すテキストをディスプレイすることができる。例えば、第1デバイス1000及び第2デバイス2000は、ユーザ間の対話を示すチャットウィンドウを、それぞれ第1デバイス1000の画面上、及び第2デバイス2000の画面上にディスプレイすることができる。チャットウィンドウは、メッセージを伝送して受信するための窓(window)でもあり、チャットウィンドウにディスプレイされるテキストを介して、第1デバイス1000のユーザと、第2デバイス2000のユーザは、互いにコミュニケーションを行うことできる。
それにより、第1デバイス1000のユーザ、及び第2デバイス2000のユーザは、音声/文字通話中、音声通話サービス及びチャットサービスを併行して利用することができる。その場合、音声及びメッセージング間のシームレススイッチングが、音声/文字通話中に行われる。または、音声及びメッセージングが、音声/文字通話中、同時に(simultaneously)にも行われる。
音声/文字通話は、音声データ及び文字データが伝送される1以上のチャネルによって具現される。例えば、音声データは、音声チャネルに伝送され、文字データは、音声チャネルに伝送される。または、データチャネルが、データ伝送のために、音声/文字通話内に含まれる。
また、第1デバイス1000及び第2デバイス2000は、例えば、スマートフォン、タブレットPC(personal computer)、PC、スマートTV(television)、携帯電話、PDA(personal digital assistant)、ラップトップ、メディアプレイヤ、マイクロサーバ、GPS(global position system)装置、電子書籍端末機、デジタル放送用端末機、ナビゲーション、キオスク、MP3プレイヤ、デジタルカメラ、ウェアラブルデバイス、及びその他のモバイルまたは非モバイルのコンピュータ装置でもあるが、それらに制限されるものではない。また、第1デバイス1000及び第2デバイス2000は、電子黒板、タッチテーブルのように、タッチ入力を受信することができる多様な装置を含んでもよい。また、第1デバイス1000及び第2デバイス2000は、通信機能及びデータプロセッシング機能を具備した時計、めがね、ヘアバンド及び指輪でもある。
図2は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声から変換されたテキスト、及びユーザから入力されたテキストをディスプレイする方法のフローチャートである。
段階S200において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を発信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
また、音声/文字通話機能が活性化されることにより、第1デバイス1000は、第1デバイス1000において、音声/文字通話機能が活性化されたということを第2デバイス2000に知らせる。その場合、第1デバイス1000は、第1デバイス1000の音声/文字通話の通話モードを、第2デバイス2000に知らせることもできる。音声/文字通話の通話モードについては、後述する。
また、音声/文字通話の活性化時、音声及び文字を伝送する方式は、多様な方式が利用される。例えば、ユーザが加入した移動通信サービス、またはユーザデバイスで使用可能な無線技術(Wi−Fi、ブルートゥースなど)などを利用して、音声及び文字が第1デバイス1000及び第2デバイス2000の間で送受信される。例えば、LTE通信技術またはWi−Fi通信技術が使用される場合、音声及び文字のいずれも、パケット網を介して、第1デバイス1000及び第2デバイス2000間で送受信される。その場合、音声は、VoLTE技術を使用して伝送される。また、WCDMAを使用する場合、音声は、サーキット網を介して、文字は、パケット網を介して伝送されもする。
音声及び文字は、それぞれ別途の通信連結を介しても伝送される。パケット網が利用される場合、通信連結は、TCP/IP連結でもある。サーキット網が利用される場合、通信連結は、コール連結でもある。
段階S210において、第1デバイス1000は、第1デバイスのユーザと第2デバイス2000のユーザ間の音声から変換されたテキストを獲得することができる。第1デバイス1000は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、第1デバイス1000は、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それらに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置、または第1デバイス1000と第2デバイス2000との通信を仲介するサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを多様な装置及びサーバから受信することができる。
段階S220において、第1デバイス1000は、ユーザによって入力されたテキストを獲得することができる。第1デバイス1000は、音声/文字通話中、第1デバイス1000のユーザから入力されたテキストを獲得することができる。また、第1デバイス1000は、音声/文字通話中、第2デバイス2000のユーザから、第2デバイス2000に入力されたテキストを第2デバイス2000から受信することができる。
段階S230において、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを経時的に配列し、ユーザとの通話中、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、第1デバイス1000は、第1デバイス1000のユーザが第1デバイス1000に音声を入力した時間、第2デバイス2000のユーザが第2デバイス2000に音声を入力した時間、第1デバイス1000のユーザが第1デバイス1000にテキストを入力した時間、及び第2デバイス2000のユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
図3Aないし図5は、一実施形態による、音声/文字通話機能が活性化される例示を図示した図面である。
図3Aは、一実施形態による、電話発信時、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図3Aを参照すれば、第1デバイス1000のユーザは、第2デバイス2000の電話番号を入力した後、「音声/文字通話(voice-message call)」ボタン30を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000に電話をかけることができる。
図3Bは、一実施形態による、第1デバイス1000の画面上にディスプレイされたフォンブックから、所定ボタンを選択するユーザ入力に基づいて、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図3Bを参照すれば、第1デバイス1000は、第1デバイス1000の画面上に、フォンブックをディスプレイすることができ、第1デバイス1000のユーザは、ディスプレイされたフォンブックに含まれたユーザリストにおいて、第2デバイス2000の電話番号が表示されたフィールドに含まれた、音声/文字通話を行うためのボタン32を選択する。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000に電話をかけることができる。
図4は、一実施形態による、電話受信時、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図4を参照すれば、第1デバイス1000のユーザは、第2デバイス2000からの電話通話を受信する場合、「音声/文字通話」ボタン40を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000からの電話通話を受信することができる。または、第1デバイス1000は、音声/文字通話を開始し、第2デバイス2000は、音声/文字通話を自動的に受容する(accept)ことができる。
図5は、一実施形態による、音声通話中、第1デバイス1000の音声/文字通話機能が活性化される例示を図示した図面である。図5を参照すれば、第1デバイス1000のユーザは、第2デバイス2000との音声通話中、「音声/文字通話」ボタン50を選択することができる。それにより、第1デバイス1000は、音声/文字通話機能を活性化し、第2デバイス2000と、音声/文字通話を行うことができる。または、第2デバイス2000は、音声/文字通話機能を、第1デバイス1000との音声通話中、活性化することができる。それにより、通話は、音声通話で始まり、音声通話中、音声/文字通話が始まる。
図6は、一実施形態による、音声/文字通話機能が活性化された第1デバイス1000が、音声/文字通話機能が活性化されていない第2デバイス2000と音声/文字通話を行う方法のフローチャートである。図6を参照すれば、音声/文字通話機能が活性化された第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができ、音声/文字通話機能が活性化されていない第2デバイス2000は、第1デバイス1000と音声通話を行うことができる。
段階S600において、第1デバイス1000は、第2デバイス2000と通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S610において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S610においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S620において、第1デバイス1000は、第1デバイス1000のユーザ(以下、第1ユーザとする)の音声を第2デバイス2000に伝送することができる。第1デバイス1000は、マイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S630において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT(speech to text)技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S640において、第1デバイス1000は、第2デバイス2000のユーザ(以下、第2ユーザとする)の音声を第2デバイス2000から受信することができる。その場合、第2デバイス2000は、第2デバイス2000内のマイクロフォンを利用して、第2ユーザの音声を獲得し、獲得された第2ユーザの音声を第1デバイス1000に伝送することができる。
段階S650において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S660において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S670において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
図7は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図7においては、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2ユーザの音声をテキストに変換し、第2デバイス2000も、第1ユーザの音声、及び第2ユーザの音声をテキストに変換することができる。
段階S700において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S705において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S705においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S710において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S710においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S715において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S720において第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S725において、第2デバイス2000は、第1デバイス1000から受信された第1ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S730において、第2デバイス2000は、第2ユーザの音声を第1デバイス1000に伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声を、第1デバイス1000に伝送することができる。
段階S735において、第1デバイス1000は、第2デバイス2000から受信された第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S740において第2デバイス2000は、第2ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S745において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S750において、第2デバイス2000は、変換されたテキストを経時的に配列することができる。第2デバイス2000は、例えば、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第2デバイス2000は、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が第1デバイス1000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S755において第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
段階S760において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。また、第2デバイス2000は、音声/文字通話の通話モードにより、チャットウィンドウを、第2デバイス2000の画面上にディスプレイするか、あるいは第2デバイス2000の画面上において、チャットウィンドウを隠すことができる。
図8は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図8においては、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2デバイス2000が第2ユーザの音声をテキストに変換することができる。
段階S800において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。
段階S805において、第1デバイス1000は、音声/文字通話機能を活性化し、段階S810において、第2デバイス2000は、音声/文字通話機能を活性化することができる。図8では、第1デバイス1000及び第2デバイス2000が互いに通話連結された後、第1デバイス1000及び第2デバイス2000が音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000は、音声/文字通話機能を自動的に始めることができる。
段階S815において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声を第2デバイス2000に伝送することができる。
段階S820において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S825において、第1デバイス1000は、第1ユーザのテキストを第2デバイス2000に伝送することができる。
段階S830において、第2デバイス2000は、第1デバイス1000に第2ユーザの音声を伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声を第1デバイス1000に伝送することができる。
段階S835において、第2デバイス2000は、第2ユーザの音声をテキストに変換することができる。第2デバイス2000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S840において、第2デバイス2000は、第2ユーザのテキストを第1デバイス1000に伝送することができる。
段階S845において、第1デバイス1000は、変換されたテキスト及び受信されたテキストを経時的に配列することができる。第1デバイス1000は、第1ユーザの音声から、第1デバイス1000によって変換されたテキスト、及び第2デバイス2000から受信された第2ユーザのテキストを経時的に配列することができる。
段階S850において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S855において、第2デバイス2000は、変換されたテキスト及び受信されたテキストを経時的に配列することができる。第2デバイス2000は、第2ユーザの音声から、第2デバイス2000によって変換されたテキスト、及び第1デバイス1000から受信された第1ユーザのテキストを経時的に配列することができる。
段階S860において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
図9は、一実施形態による、第1デバイス1000及び第2デバイス2000が互いに音声/文字通話を行う方法のフローチャートである。図9においては、第1デバイス1000が、第1ユーザの音声、及び第2ユーザの音声をテキストに変換することができる。
図9の段階S900ないし段階S930は、図8の段階S800ないし段階S830に対応するので、それについての説明は省略する。
段階S935において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S940において、第1デバイス1000は、第2ユーザのテキストを第2デバイス2000に伝送することができる。
段階S945において、第1デバイス1000は、変換されたテキストを経時的に配列することができる。第1デバイス1000は、第1ユーザの音声から、第1デバイス1000によって変換されたテキスト、及び第2ユーザの音声から、第1デバイス1000によって変換されたテキストを経時的に配列することができる。
段階S950において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S955において、第2デバイス2000は、受信されたテキストを経時的に配列することができる。第2デバイス2000は、第1デバイス1000から受信された第1ユーザのテキスト、及び第2ユーザのテキストを経時的に配列することができる。
段階S960において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
図10は、一実施形態による、第1デバイス1000が、音声/文字通話中、チャットウィンドウをディスプレイする方法のフローチャートである。
段階S1000において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を開始するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
段階S1010において、第1デバイス1000は、第1ユーザと第2ユーザとの音声から変換されたテキストを獲得することができる。第1デバイス1000は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、第1デバイス1000は、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置またはサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを多様な装置及びサーバから受信することができる。例えば、テキストは、第2デバイス2000、または第1デバイス1000と第2デバイス2000との通信セッションを仲介するサーバから受信されることができる、
段階S1020において、第1デバイス1000は、変換されたテキストの原本音声データをバックアップすることができる。第1デバイス1000は、第1ユーザの音声から変換されたテキストに対応する第1ユーザの音声データをバックアップすることができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキストに対応する第2ユーザの音声データをバックアップすることができる。
段階S1030において、第1デバイス1000は、第1ユーザと第2ユーザとの通話中、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。第1デバイス1000は、第1ユーザと第2ユーザとの対話の内容を示すために、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S1040において、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されたテキストを獲得することができる。また、第1デバイス1000は、音声/文字通話中、第2ユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
段階S1050において、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを経時的に配列し、チャットウィンドウ内に表示することができる。第1デバイス1000は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、第1デバイス1000は、第1ユーザが第1デバイス1000に音声を入力した時間、第2ユーザが第2デバイス2000に音声を入力した時間、第1ユーザが第1デバイス1000にテキストを入力した時間、及び第2ユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
段階S1060において、第1デバイス1000は、変換されたテキストを、入力されたテキストと区別して表示することができる。第1デバイス1000は、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声に変換されたテキストを、第1ユーザから入力されたテキスト、及び第2ユーザから入力されたテキストと区別されるように表示することができる。その場合、ユーザは、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されてディスプレイされたテキストを区別することができる。
例えば、第1デバイス1000は、変換されたテキストを区別して表示するために、別途のアイコンを、変換されたテキストの周辺にディスプレイすることができる。また、例えば、第1デバイス1000は、変換されたテキストの色相、太さまたは書体などを、区別されるように表示することができる。しかし、それらに制限されるものではない。
段階S1070において、第1デバイス1000は、変換されたテキストが選択されれば、変換されたテキストの原本音声データを出力することができる。変換されたテキストが、チャットウィンドウ内で、第1ユーザによって選択されれば、第1デバイス1000は、選択されたテキストの原本音声データをメモリから抽出し、抽出された原本音声データを、第1デバイス1000内のスピーカを介して出力することができる。
段階S1080において、第1デバイス1000は、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、第1デバイス1000は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、第1デバイス1000は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
一方、第1デバイス1000は、配列されたテキスト全体をサーバ3000にバックアップすることができる。その場合、第1デバイス1000は、配列されたテキストのうち一部を第1デバイス1000内にバックアップし、配列されたテキストの全部をサーバ3000にバックアップすることができる。また、第1デバイス1000は、配列されたテキストのうち一部テキスト、及び配列されたテキストの全体テキストを、サーバ3000に保存することもできる。
一方、図10では、第1デバイス1000が、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすると説明したが、それに制限されるものではない。第1デバイス1000は、配列されたテキスト全体を、多様な自然語解釈方法を介して、ユーザ間の対話を分析することができ、配列されたテキストから、ユーザ間の主要対話内容を示す部分を抽出することができる。また、第1デバイス1000は、抽出された一部対話を示すテキストを、第1デバイス1000内にバックアップすることができる。
図11A及び図11Bは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウの例示を示す図面である。
図11Aは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウ内で、音声から変換されたテキストが区別されるように表示された一例を示す図面である。
図11Aを参照すれば、音声/文字通話中、第1デバイス1000画面上には、チャットウィンドウがディスプレイされ、チャットウィンドウ内に、ユーザの音声から変換されたテキストである「Sure」「What are you going?」がディスプレイされる。また、第1デバイス1000は、「What are you going?」が音声から変換されたテキストであることを示すために、「What are you going?」の周辺にアイコン110をディスプレイすることができる。
また、第1ユーザが「What are you going?」をタッチすれば、第1デバイス1000は、タッチされたテキストである「What are you going?」に対応する原本音声データを第1デバイス1000のスピーカを介して出力することができる。第1デバイス1000は、「What are you going?」を発音するユーザの音声を出力することができる。その場合、ユーザの原本音声は、第1デバイス1000、第2デバイス2000及びサーバに保存される。従って、保存された音声は、要請によってさらに再生される。
それにより、ユーザの音声から変換されたテキストに誤字「going」が存在しても、ユーザは、変換されたテキストの原本音声データを聴取することにより、さらに正確にユーザの対話内容を確認することができる。
また、第1デバイス1000は、音声から変換されたテキストがいかほど信頼される程度に変換されているかということを示すことができる。例えば、「Sure」の信頼度が、「What are you going?」の信頼度より高い場合、「Sure」の文字サイズ及び文字厚を、「What are you going?」の文字サイズ及び文字厚より大きく表示することができる。しかし、それに制限されるものではなく、「Sure」の文字色相、字形などを区別されるように表示することもできる。また、変換されたテキストの周辺に、信頼度の数値を示す特定客体をディスプレイすることもできる。
図11Bは、一実施形態による、音声/文字通話中、ディスプレイされたチャットウィンドウ内で、音声から変換されたテキストの信頼度が、単語単位で区別されるように表示された一例を示す図面である。
図11Bを参照すれば、一実施形態による第1デバイス1000は、音声から変換されたテキスト「What are you doing?」の信頼度を単語単位で区別されるように表示することができる。例えば、テキスト「What are you doing?」内において、「What」及び「you」の信頼度が、「are」及び「doing」の信頼度より高い場合、「What」及び「you」の文字サイズ及び文字厚を、「are」及び「doing」の文字サイズ及び文字厚より大きく表示することができる。しかし、それに制限されるものではなく、「What」及び「you」の文字色相、字形などを区別されるように表示することもできる。
また、第1ユーザが「What are you doing?」において「What」をタッチすれば、第1デバイス1000は、タッチされた単語である「What」に対応する原本音声データを、第1デバイス1000のスピーカを介して出力することができる。第1デバイス1000は、単語「What」を発音するユーザの音声を出力することができる。従って、ユーザは、テキストメッセージの部分に対応して再生される音声を選択的に要請することができる。
図12は、一実施形態による、第1デバイス1000及び第2デバイス2000が、特定チャットアプリケーションを介して、音声から変換されたテキストを互いに送受信する例示を示す図面である。
図12を参照すれば、第1デバイス1000において、チャットアプリケーション120が実行され、第2デバイス2000において、チャットアプリケーション122が実行される。チャットアプリケーション120及びチャットアプリケーション122は、互いに同一のアプリケーションでもあり、互いに互換可能なアプリケーションでもある。
また、第1デバイス1000は、第1デバイス1000によって獲得された、音声から変換されたテキストをチャットアプリケーション120に入力し、入力されたテキストを、チャットアプリケーション120を介して、第2デバイス2000のチャットアプリケーション122に伝送することができる。
また、第2デバイス2000は、第2デバイス2000によって獲得された、音声から変換されたテキストを、チャットアプリケーション122に入力し、入力されたテキストを、チャットアプリケーション122を介して、第1デバイス1000のチャットアプリケーション120に伝送することができる。
図13は、一実施形態による、音声/文字通話機能が活性化される場合、第1デバイス1000が、音声通話と連動されて実行されるチャットアプリケーションを決定する方法のフローチャートである。
段階S1300において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、第2デバイス2000に電話を始めるための要請を行うとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、第1デバイス1000は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
段階S1310において、第1デバイス1000は、チャットアプリケーションを決定することができる。第1デバイス1000は、音声/文字通話中に利用されるチャットアプリケーションを決定することができる。例えば、第1デバイス1000は、第1デバイス1000の音声/文字通話機能と連動されて実行されるチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションで決定することができる。また、例えば、第1デバイス1000は、第1デバイス1000及び第2デバイス2000のいずれにもインストールされたチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。しかし、それに制限されるものではない。ユーザは、通話が始まるか、あるいは通話要請が受信されたとき、ユーザは、1以上のチャットアプリケーションのうち実行されるチャットアプリケーションを選択することができる。
段階S1320において、第1デバイス1000は、決定されたチャットアプリケーションを実行し、段階S1325において、第1デバイス1000は、音声から変換されたテキストを、実行されたチャットアプリケーションに入力することができる。例えば、第1デバイス1000は、実行されたチャットアプリケーションに、テキスト自動入力のためのプラグインをインストールし、インストールされたプラグインを介して、チャットアプリケーションに、音声から変換されたテキストを入力することができる。しかし、それに制限されるものではない。
段階S1330において、第1デバイス1000は、ユーザとの通話中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、第1ユーザの音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、第2ユーザの音声から変換されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを、チャットウィンドウ内に配列することができる。
また、第1デバイス1000は、第1デバイス1000の音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
図14は、一実施形態による、第1デバイス1000が、音声/文字通話中に利用されるチャットアプリケーションを決定する方法のフローチャートである。
段階S1400において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000にインストールされたチャットアプリケーションのリストを要請し、段階S1410において、第2デバイス2000は、第2デバイス2000にインストールされたチャットアプリケーションのリストを第1デバイス1000に提供する。
段階S1420において、第1デバイス1000は、第1デバイス1000にインストールされたチャットアプリケーションのうち、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションを選択することができる。
例えば、チャットアプリケーション「A」と互換可能なチャットアプリケーションは、チャットアプリケーション「A」と同一のチャットアプリケーションでもある。また、例えば、チャットアプリケーション「A」と互換可能なチャットアプリケーションは、チャットアプリケーション「A」と異なるが、チャットアプリケーション「A」とメッセージを送受信することができるチャットアプリケーションでもある。
一方、図14では、第1デバイス1000が第2デバイス2000に、チャットアプリケーションのリストを要請することにより、第2デバイス2000から、チャットアプリケーションのリストを受信すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000が、音声/文字通話のために連結されながら、第1デバイス1000は、別途の要請なしに、第2デバイス2000からチャットアプリケーションのリストを受信することもできる。
図15は、一実施形態による、第1デバイス1000が、音声/文字通話中に利用されるチャットアプリケーションをインストールする方法のフローチャートである。
段階S1500において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000にインストールされたチャットアプリケーションのリストを要請し、段階S1510において、第2デバイス2000は、第2デバイス2000にインストールされたチャットアプリケーションのリストを、第1デバイス1000に提供する。
段階S1520において、第1デバイス1000は、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションをインストールすることができる。第1デバイス1000は、第2デバイス2000から受信されたチャットアプリケーションのリストに含まれたチャットアプリケーションと互換可能なチャットアプリケーションを選択し、選択されたチャットアプリケーションを、所定のサーバからダウンロードすることができる。また、第1デバイス1000は、ダウンロードされたチャットアプリケーションを、第1デバイス1000内にインストールすることができる。
一方、図15では、第1デバイス1000が、第2デバイス2000にチャットアプリケーションのリストを要請することにより、第2デバイス2000からチャットアプリケーションのリストを受信すると説明したが、それに制限されるものではない。第1デバイス1000及び第2デバイス2000が、音声/文字通話のために連結されながら、第1デバイス1000は、別途の要請なしに、第2デバイス2000からチャットアプリケーションのリストを受信することもできる。
図16Aは、一実施形態による、第1デバイス1000がチャットサービスを利用している最中、音声/文字通話機能を活性化する例示を示す図面である。図16Aを参照すれば、第1デバイス1000は、チャットアプリケーションを実行し、所定のチャットサービスを利用することができる。また、第1ユーザが、チャットアプリケーションの実行画面上に表示されたボタン160を選択することにより、第1デバイス1000は、音声/文字通話機能を活性化することができる。
図16Bは、一実施形態による、第1デバイス1000がチャットアプリケーションのユーザリスト画面を介したユーザ入力により、音声/文字通話を始める例示を示す図面である。図16Bを参照すれば、第1デバイス1000は、チャットアプリケーションを実行し、チャットアプリケーションのユーザリストをディスプレイすることができる。また、第1デバイス1000は、ユーザリストにおいて「John」と音声通話を行うためのボタン165を選択するユーザ入力を受信することができる。それにより、第1デバイス1000は、Johnのデバイスと音声/文字通話を始めることができる。
図17は、一実施形態による、第1デバイス1000及び第2デバイス2000がチャットサービスを利用している最中、音声/文字通話を行う方法のフローチャートである。
段階S1700において、第1デバイス1000及び第2デバイス2000は、チャットサービスのために互いに通信連結される。また、段階S1710において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイし、段階S1720において、第2デバイス2000は、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。その後、第1デバイス1000及び第2デバイス2000は、互いにメッセージを送受信することができる。
段階S1730において、第1デバイス1000は、音声/文字通話機能を活性化し、段階S1740において、第2デバイス2000は、音声/文字通話機能を活性化することができる。
また、段階S1750において、第1デバイス1000及び第2デバイス2000は、互いに音声/文字通話を行うことができる。
図18ないし図21は、一実施形態による、音声/文字通話中、通話モードが変更される例示を示す図面である。
音声/文字通話の通話モードは、例えば、音声モード及び文字モードを含んでもよい。音声モードは、ユーザが音声通話が可能であるように、他のユーザと通話を行うことができるモードであることができ、文字モードは、ユーザが文字メッセージの送受信を介して、他のユーザとコミュニケーションすることができるモードでもある。
図18は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声モードから文字モードに、通話モードを自動転換する一例を図示した図面である。図18を参照すれば、第1デバイス1000がユーザの顔に近接していれば、第1デバイス1000は、第1デバイス1000の画面を非活性化し、音声モードで動作することができる。その後、第1デバイス1000がユーザの顔から離隔されるならば、第1デバイス1000は、通話モードを音声モードから文字モードに転換し、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。
図19は、一実施形態による、第1デバイス1000が、音声/文字通話中、文字モードから音声モードに、通話モードを自動転換する一例を図示した図面である。図19を参照すれば、第1デバイス1000がユーザの顔から離隔されていれば、第1デバイス1000は、第1デバイス1000の画面上にチャットウィンドウをディスプレイし、文字モードで動作することができる。その後、第1デバイス1000がユーザの顔に近接すれば、第1デバイス1000は、通話モードを文字モードから音声モードに転換し、第1デバイス1000の画面を非活性化することができる。第1デバイス1000は、第1デバイス1000の方位及び位置を自動的に検出することができ、音声モード及び文字モードを、必要によって転換することができる。
図20は、一実施形態による、第1デバイス1000が、音声/文字通話中、音声モードから文字モードに、通話モードを手動転換する一例を図示した図面である。図20を参照すれば、第1デバイス1000が、音声モードで動作している最中、第1ユーザが、第1デバイス1000の画面上に表示されたボタン200を選択すれば、第1デバイス1000は、通話モードを音声モードから文字モードに転換し、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。
図21は、一実施形態による、第1デバイス1000が、音声/文字通話中、文字モードから音声モードに、通話モードを手動転換する一例を図示した図面である。図21を参照すれば、第1デバイス1000が文字モードで動作している最中、第1ユーザが、第1デバイス1000の画面上に表示されたボタン210を選択すれば、第1デバイス1000は、通話モードを文字モードから音声モードに転換し、第1デバイス1000の画面を非活性化することができる。
図22は、一実施形態による、第1デバイス1000が音声/文字通話のモードを転換する方法のフローチャートである。
段階S2200において、第1デバイス1000は、音声/文字通話の通話モードが音声モードであるか否かということを判断することができる。第1デバイス1000は、例えば、第1デバイス1000内の近接センサを利用して、第1デバイス1000が第1ユーザの顔に近接しているか否かということを判断することにより、通話モードが音声モードであるか否かということを判断することができる。また、例えば、第1デバイス1000は、音声モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが音声モードであるか否かということを判断することができる。
段階S2200での判断結果、通話モードが音声モードであると判断されれば、段階S2210において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。それにより、第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声を獲得することができ、第1デバイス1000は、活性化されたスピーカを介して、第2ユーザの音声を出力することができる。
また、段階S2220において、第1デバイス1000は、チャットウィンドウを第1デバイス1000の画面上で隠す。例えば、第1デバイス1000は、第1デバイス1000の画面を非活性化することにより、第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。画面が非活性化されても、第1デバイス1000は、音声対話の内容を示すテキストを、音声モードが文字モードに転換される場合、保存することができる。音声対話の内容を示すテキストは、第1デバイス1000、第2デバイス2000またはサーバに保存される。
一方、段階S2200での判断結果、通話モードが音声モードではなければ、段階S2230において、第1デバイス1000は、音声/文字通話の通話モードが、文字モードであるか否かということを判断することができる。第1デバイス1000は、例えば、第1デバイス1000内の近接センサを利用して、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを判断することにより、通話モードが、文字モードであるか否かということを判断することができる。また、例えば、第1デバイス1000は、文字モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが、文字モードであるか否かということを判断することができる。
段階S2230での判断結果、通話モードが文字モードであると判断されれば、段階S2240において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを非活性化することができる。
また、段階S2250において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストをチャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
段階S2260において、第1デバイス1000は、通話モードが転換されたか否かということを判断することができる。段階S2260において、通話モードが転換されたと判断されれば、第1デバイス1000は、段階S2200を遂行することができる。
図23は、一実施形態による、第1デバイス1000が音声モードで、音声/文字通話を行う方法のフローチャートである。
段階S2300において、第1デバイス1000は、第1デバイス1000が第1ユーザの顔に近接しているか否かということを決定することができる。第1デバイス1000は、第1デバイス1000内に含まれた近接センサを利用して、第1デバイス1000が、第1ユーザの顔に近接しているか否かということを判断することができる。
段階S2310において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化することができる。第1デバイス1000は、音声/文字通話の通話モードが音声モードであるか否かということを判断し、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。それにより、第1デバイス1000は、マイクロフォンを介して、第1ユーザの音声入力を受信し、第2ユーザの音声をスピーカを介して出力することができる。
段階S2320において、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができる。第1デバイス1000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S2330において、第1デバイス1000は、チャットウィンドウを第1デバイス1000の画面上で隠す。第1デバイス1000は、例えば、第1デバイス1000の画面を非活性化することにより、チャットウィンドウを、第1デバイス1000の画面上で隠すことができる。
段階S2340において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S2350において、第1デバイス1000は、第1ユーザから入力された音声、及び第1ユーザから入力された音声から変換されたテキストのうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力された音声を、第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力された音声から変換されたテキストを、第2デバイス2000に伝送することができる。しかし、それに制限されるものではない。
図24は、一実施形態による、第1デバイス1000が、文字モードで、音声/文字通話を行う方法のフローチャートである。
段階S2400において、第1デバイス1000は、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを決定することができる。第1デバイス1000は、第1デバイス1000内に含まれた近接センサを利用して、第1デバイス1000が、第1ユーザの顔から離隔されているか否かということを判断することができる。
段階S2410において、第1デバイス1000は、スピーカ及びマイクロフォンを非活性化することができる。第1デバイス1000は、音声/文字通話の通話モードが文字モードであるか否かということを判断し、第1デバイス1000内のスピーカ及びマイクロフォンを非活性化することができる。
段階S2420において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S2430において、第1デバイス1000は、第1ユーザから入力されたテキストを音声に変換することができる。第1デバイス1000は、多様なTTS(text to speech)技術を利用して、第1ユーザのテキストを音声に変換することができる。その場合、第1デバイス1000は、第1ユーザの性別及び年齢などを考慮し、変換された第1ユーザの音声の音色(tone)を決定することができる。
段階S2440において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S2450において、第1デバイス1000は、第1ユーザから入力されたテキスト、及び第1ユーザから入力されたテキストから変換された音声のうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力されたテキストから変換された音声を、第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力されたテキストを第2デバイス2000に伝送することができる。しかし、それらに制限されるものではない。
図25は、一実施形態による、第1デバイス1000が第2デバイス2000の通話モードを識別する方法のフローチャートである。
段階S2500において、第1デバイス1000は、第2デバイス2000に、第2デバイス2000の通話モードを尋ねることができる。第1デバイス1000は、既設定周期で、第2デバイス2000に通話モードを尋ねることができるが、それに制限されるものではない。または、第1デバイス1000は、通話を開始するとき、第2デバイス2000に通話モードを尋ねることができる。
また、段階S2510において、第2デバイス2000は、第2デバイス2000の通話モードを識別し、段階S2520において、第2デバイス2000は、第2デバイス2000の通話モードについての情報を、第1デバイス1000に伝送することができる。
図25では、第2デバイス2000が、第1デバイス1000からの問い合わせに応答し、第2デバイス2000の通話モードについての情報を伝送すると説明したが、それに制限されるものではない。例えば、第2デバイス2000は、第1デバイス1000からの問い合わせがないにしても、第2デバイス2000の通話モードが変更されれば、第1デバイス1000に、第2デバイス2000の通話モードについての情報を伝送することができる。
段階S2530において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第1デバイス1000は、第2デバイス2000から受信された第2デバイス2000の通話モードについての情報に基づいて、第2デバイス2000の通話モードが、音声モードであるか文字モードであるかということを識別することができる。
段階S2540において、第1デバイス1000は、第1ユーザの音声、または第1ユーザのテキストを、選択的に第2デバイス2000に伝送することができる。例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第2デバイス2000に第1ユーザの音声を伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第2デバイス2000に第1ユーザのテキストを伝送することができる。
図26は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図26では、第1デバイス1000が第1ユーザの音声をテキストに変換し、第2デバイス2000が第2ユーザのテキストを音声に変換することができる。
段階S2600において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S2605において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S2605においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S2610において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S2610においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S2615において、第1デバイス1000は、音声モードで動作することができる。第1デバイス1000が第1ユーザの顔に近接するか、あるいは第1デバイス1000を音声モードで動作させるユーザ入力が受信されれば、第1デバイス1000は、音声モードで動作することができる。
段階S2620において、第1デバイス1000は、第1デバイス1000内のマイクロフォン及びスピーカを活性化し、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第1デバイス1000の画面上で隠すことができる。
段階S2625において、第2デバイス2000は、文字モードで動作することができる。第2デバイス2000が第2ユーザの顔から離隔されるか、第2デバイス2000を文字モードで動作させるユーザ入力が受信されれば、第2デバイス2000は、文字モードで動作することができる。
段階S2630において、第2デバイス2000は、第2デバイス2000内のスピーカ及びマイクロフォンを非活性化し、第1ユーザと第2ユーザとの対話を示すためのチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
段階S2635において、第1デバイス1000は、第1ユーザの音声入力を受信し、段階S2640において、第1デバイス1000は、第1ユーザの音声をテキストに変換することができる。
また、段階S2645において、第1デバイス1000は、第1ユーザの音声から変換されたテキストを、第2デバイス2000に伝送することができる。第1デバイス1000は、第2デバイス2000が文字モードで動作することを識別し、第2デバイス2000に、第1ユーザの音声から変換されたテキストを伝送することができる。
段階S2650において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の画面上にディスプレイし、段階S2655において、第2デバイス2000は、チャットウィンドウを介した第2ユーザのテキスト入力を受信することができる。また、第2デバイス2000は、第1デバイス1000から受信されたテキスト、及び第2デバイス2000に入力されたテキストを経時的に配列し、チャットウィンドウ内に表示することができる。
段階S2660において、第2デバイス2000は、第2ユーザのテキストを、TTSを利用して音声に変換することができる。第2デバイス2000は、例えば、第2ユーザの年齢及び性別を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S2665において、第2デバイス2000は、第2ユーザのテキストから変換された音声、及び第2ユーザのテキストを第1デバイス1000に伝送することができる。
また、段階S2670において、第1デバイス1000は、第2ユーザのテキストから変換された音声を第1デバイス1000のスピーカを介して出力することができる。
図27は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図27では、第1デバイス1000が、第1ユーザの音声をテキストに変換し、第2ユーザのテキストを音声に変換することができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
図27の段階S2700ないし段階S2755は、図26の段階S2600ないし段階S2655に対応するので、段階S2700ないし段階S2755についての説明は省略する。
段階S2760において、第2デバイス2000は、第2ユーザから入力されたテキスト(第2ユーザのテキスト)を第1デバイス1000に伝送することができる。
段階S2765において第1デバイス1000は、第2ユーザのテキストを音声に変換することができる。第1デバイス1000は、多様なTTS技術を利用して、第2ユーザのテキストを第2ユーザの音声に変換することができる。また、第1デバイス1000は、第2ユーザの性別及び年齢などについてのユーザ情報をあらかじめ獲得することができ、第2ユーザの性別及び年齢などを考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S2770において、第1デバイス1000は、第2ユーザのテキストから変換された音声を、第1デバイス1000のスピーカを介して出力することができる。従って、第2ユーザは、文字モードを利用し、第1ユーザは、音声モードを利用することができる。
図28は、一実施形態による、音声モードで動作する第1デバイス1000と、文字モードで動作する第2デバイス2000とが音声/文字通話を行う方法のフローチャートである。図28では、第2デバイス2000が第1ユーザの音声をテキストに変換し、第2ユーザのテキストを音声に変換することができる。
図28の段階S2800ないし段階S2835は、図27の段階S2700ないし段階S2735に対応するので、段階S2800ないし段階S2835についての説明は省略する。
段階S2840において、第1デバイス1000は、第1ユーザの音声を第2デバイス2000に伝送することができる。
段階S2845において、第2デバイス2000は、第1ユーザの音声をテキストに変換し、段階S2850において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すテキストを、チャットウィンドウ内にディスプレイすることができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
また、段階S2855において、第2デバイス2000は、チャットウィンドウを介した第2ユーザのテキスト入力を受信し、段階S2860において、第2デバイス2000は、第2ユーザから入力されたテキスト(第2ユーザのテキスト)を音声に変換することができる。第2デバイス2000は、例えば、第2ユーザの性別及び年齢を考慮し、変換された音声の音色を決定することができる。
段階S2865において、第2デバイス2000は、第2ユーザのテキストから変換された音声、第1ユーザの音声から変換されたテキスト、及び第2ユーザのテキストを第1デバイス1000に伝送することができる。従って、第1ユーザは、音声モードを利用し、第2ユーザは、文字モードを利用することができる。
段階S2870において、第1デバイス1000は、第2ユーザのテキストから変換された音声を、第1デバイス1000のスピーカを介して出力することができる。
図29A、図29B及び図29Cは、一実施形態による、音声/文字通話の通話モードのうち一つである混合モードの例示を示す図面である。
混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。従って、混合モードにおいてユーザは、第1デバイス1000を介して音声通話を行う間、文字送受信を共に行うことができる。
また、混合モードでは、音声通話のための音声入力機能及び音声出力機能のうち一部が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能のうち一部が活性化される。
例えば、混合モードでは、音声通話のための音声入力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能及び文字出力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字入力機能が活性化される。
また、例えば、混合モードでは、音声通話のための音声入力機能及び音声出力機能が活性化された状態で、テキスト送受信のための文字出力機能が活性化される。
図29Aを参照すれば、第1デバイス1000のスピーカフォン機能が活性化され、第1デバイス1000の画面上にディスプレイされたチャットウィンドウを介したメッセージ送受信機能が活性化される。
混合モードでは、第1デバイス1000は、第2デバイス2000と音声通話を行っている最中、第2デバイス2000とメッセージ送受信を共に行うことができる。
図29Bを参照すれば、第1デバイス1000のスピーカフォンを利用しない音声通話機能が活性化された状態で、第1デバイス1000の画面上にディスプレイされたチャットウィンドウを介したメッセージ送受信機能が活性化される。スピーカフォンを利用しない音声通話は、第1デバイス1000がユーザの顔に近接した状態で、ユーザの耳に近接したスピーカ、及びユーザの口に近接したマイクロフォンを利用して行う音声通話でもある。
その場合、第1デバイス1000は、音声通話機能が活性化された状態で、音声入出力が行われている最中、第2デバイス2000とメッセージ送受信を行うためのチャットウィンドウを介した入出力が共に行われる。
図29Cを参照すれば、ユーザが、第1デバイス1000に、有線または無線で連結されたウェアラブルデバイス290を着用している状態で、第1デバイス1000は、混合モードで、音声/文字通話を行うことができる。その場合、第1デバイス1000は、混合モードでの音声/文字通話のための、音声入出力及び文字入出力のうち一部をウェアラブルデバイス290が行うようにもする。
例えば、ウェアラブルデバイス290がヘッドフォンである場合、第1デバイス1000は、混合モードで音声/文字通話を行いながら、第1デバイス1000で出力される音声をヘッドフォンを介して出力させる。
また、例えば、ウェアラブルデバイス290がスマートめがねである場合、第1デバイス1000は、混合モードで音声/文字通話を行いながら、第1デバイス1000で出力されるチャットウィンドウをスマートめがねを介して出力させる。
図30は、一実施形態による、音声/文字通話を行っている第1デバイス1000の通話モードが、音声モードから混合モードに転換されたり、混合モードから音声モードに転換されたりする一例を図示した図面である。図30を参照すれば、音声モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン300が選択されれば、第1デバイス1000の通話モードは、音声モードから混合モードに転換される。また、混合モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン301が選択されれば、第1デバイス1000の通話モードは、混合モードから音声モードに転換される。
図31は、一実施形態による、音声/文字通話を行っている第1デバイス1000の通話モードが、文字モードから混合モードに転換されたり、混合モードから文字モードに転換されたりする一例を図示した図面である。図31を参照すれば、文字モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン310が選択されれば、第1デバイス1000の通話モードは、文字モードから混合モードに転換される。また、混合モードで音声/文字通話を行っている第1デバイス1000の画面上に表示されたボタン311が選択されれば、第1デバイス1000の通話モードは、混合モードから文字モードに転換される。
図32は、一実施形態による、第1デバイス1000が音声/文字通話のモードを転換する方法のフローチャートである。図32の段階S3200ないしS3220、及び段階S3260ないしS3290は、図22の段階S2200ないしS2220、及び段階S2230ないしS2260に対応するので、図32の段階S3200ないしS3220、及び段階S3260ないしS3290についての説明は便宜上省略する。
段階S3200での判断結果、通話モードが音声モードではなければ、段階S3230において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
段階S3230での判断結果、通話モードが混合モードであると判断されれば、段階S3240において、第1デバイス1000は、第1デバイス1000内のスピーカ及びマイクロフォンを活性化することができる。
また、段階S3250において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストを、チャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
一方、段階S3230での判断結果、通話モードが混合モードではないと判断されれば、第1デバイス1000は、段階S3260を遂行することができる。
図33は、一実施形態による、第1デバイス1000が混合モードで音声/文字通話を行う方法のフローチャートである。
段階S3300において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
通話モードが混合モードであるならば、段階S3310において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化し、段階S3320において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、チャットウィンドウを介して、第1ユーザから入力されるテキストを、チャットウィンドウ内に表示することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキスト、及び第2ユーザが第2デバイス2000に入力したテキストをチャットウィンドウ内に表示することができる。
段階S3330において、第1デバイス1000は、第1ユーザの音声入力、及び/または第1ユーザのテキスト入力を受信することができる。第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声入力を受信することができ、第1デバイス1000は、ディスプレイされたチャットウィンドウを介したユーザのテキスト入力を受信することができる。また、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができ、第1ユーザから入力されたテキストを音声に変換することができる。
段階S3340で第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S3350において、第1デバイス1000は、第1ユーザの音声及びテキストのうち少なくとも一つを、選択的に第2デバイス2000に伝送することができる。第1デバイス1000は、第1ユーザから入力された音声、第1ユーザから入力されたテキスト、第1ユーザから入力された音声から変換されたテキスト、及び第1ユーザから入力されたテキストから変換された音声のうち少なくとも一つを、第2デバイス2000に伝送することができる。
例えば、第2デバイス2000の通話モードが音声モードである場合、第1デバイス1000は、第1ユーザから入力された音声、及び第1ユーザから入力されたテキストから変換された音声を第2デバイス2000に伝送することができる。また、例えば、第2デバイス2000の通話モードが文字モードである場合、第1デバイス1000は、第1ユーザから入力されたテキスト、及び第1ユーザから入力された音声から変換されたテキストを第2デバイス2000に伝送することができる。しかし、それらに制限されるものではない。
図34は、一実施形態による、混合モードで動作する第1デバイス1000が、第2デバイス2000と音声/文字通話を行う方法のフローチャートである。
段階S3400において、第1デバイス1000は、第2デバイス2000と通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S3405において、第1デバイス1000は、音声/文字通話の通話モードが混合モードであるか否かということを判断することができる。例えば、第1デバイス1000は、混合モードに転換するためのボタンが、第1ユーザによって選択されたか否かということを判断することにより、通話モードが混合モードであるか否かということを判断することができる。
通話モードが混合モードであるならば、段階S3410において、第1デバイス1000は、スピーカ及びマイクロフォンを活性化し、段階S3415において、第1デバイス1000は、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S3420において、第1デバイス1000は、第1ユーザの音声入力を受信することができる。第1デバイス1000は、活性化されたマイクロフォンを介して、第1ユーザの音声入力を受信することができる。
段階S3425において、第1デバイス1000は、第1ユーザから入力された音声を第2デバイス2000に伝送し、段階S3430において、第1デバイス1000は、第1ユーザから入力された音声をテキストに変換することができる。また、第1デバイス1000は、第1ユーザから入力された音声から変換されたテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3435において、第2デバイス2000は、第2ユーザの音声を第1デバイス1000に伝送し、段階S3440において、第1デバイス1000は、第2ユーザの音声を出力することができる。第1デバイス1000は、活性化されたスピーカを介して、第2ユーザの音声を出力することができる。
段階S3445において、第1デバイス1000は、第2ユーザの音声をテキストに変換することができる。また、第1デバイス1000は、第2ユーザの音声から変換されたテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3450において、第1デバイス1000は、第1ユーザのテキスト入力を受信することができる。第1デバイス1000は、チャットウィンドウを介した第1ユーザのテキスト入力を受信することができ、入力された第1ユーザのテキストを、チャットウィンドウ内にディスプレイすることができる。
段階S3455において、第1デバイス1000は、第1ユーザから入力されたテキストを音声に変換することができる。第1デバイス1000は、例えば、第1ユーザの性別及び年齢を考慮し、第1ユーザから入力されたテキストから変換された音声の音色を決定することができる。しかし、それに制限されるものではなく、変換された音声の音色は、あらかじめ設定されていてもよい。
段階S3460において、第1デバイス1000は、第1ユーザから入力されたテキストから変換された音声を、第2デバイス2000に伝送することができる。
図35Aは、一実施形態による、第1デバイス1000が第2デバイス2000の通話モード変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧める方法のフローチャートである。
段階S3500において、第1デバイス1000は、第2デバイス2000の通話モードを識別することができる。第2デバイス2000は、第2デバイス2000の通話モードを示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された通話モードを示す情報に基づいて、第2デバイス2000の通話モードを識別することができる。
段階S3510において、第1デバイス1000は、第2デバイス2000の通話モードが変更されたか否かということを判断することができる。例えば、第2デバイス2000の通話モードは、音声モードから文字モードに変更されるか、音声モードから混合モードに変更されるか、文字モードから音声モードに変更されるか、文字モードから混合モードに変更されるか、混合モードから音声モードに変更されるか、あるいは混合モードから文字モードに変更される。第1デバイス1000は、第2デバイス2000にモード情報を要請して獲得することができる。または、第2デバイス2000が第1デバイス1000にモード変更を知らせる。
また、第1デバイス1000は、第2デバイス2000の入力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声入力だけ受信するか、テキスト入力だけ受信するか、音声及びテキスト入力を受信するかということを判断することができる。第1デバイス1000は、第2デバイス2000に、入力方法についての情報を要請して獲得することができる。または、第2デバイス2000が、第1デバイス1000に入力方法についての通知を行う。
また、第1デバイス1000は、第2デバイス2000の出力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声出力だけ提供するか、テキスト出力だけ提供するか、あるいは音声及びテキスト出力を提供するかということを判断することができる。第1デバイス1000は、第2デバイス2000に、出力方法についての情報を要請して獲得することができる。または、第2デバイス2000が、第1デバイス1000に出力方法についての通知を行う。
段階S3510での判断結果、第2デバイス2000の通話モードが変更されたと判断されれば、段階S3520において、第1デバイス1000は、第2デバイス2000の変更された通話モードを第1ユーザに知らせる。例えば、第1デバイス1000の通話モードが音声モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるための音声を出力することができる。また、例えば、第1デバイス1000の通話モードが文字モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるためのテキストを、第1デバイス1000の画面上にディスプレイすることができる。また、例えば、第1デバイス1000の通話モードが混合モードである場合、第1デバイス1000は、第2デバイス2000の通話モードが変更されることを知らせるための音声を出力しながら第2デバイス2000の通話モードが変更されることを知らせるためのテキストを、第1デバイス1000の画面上にディスプレイすることができる。しかし、それらに制限されるものではない。また、第1デバイス1000は、第2デバイス2000の変更された通話モードの出力方法を第1ユーザに知らせる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、変更された入力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、第1デバイス1000は、変更された出力方法を第1ユーザに知らせる。
段階S3520において、第1デバイス1000は、第1デバイス1000の通話モードの変更を勧めることができる。例えば、音声モードで動作中の第1デバイス1000が、第2デバイス2000と音声/文字通話を行っている最中、第2デバイス2000の通話モードが、音声モードから文字モードに変更されれば、第1デバイス1000は、第1ユーザに通話モードを、音声モードから文字モードに変更することを勧めることができる。その場合、第1デバイス1000は、例えば、「通話モードを文字モードに変更しますか」という音声をスピーカを介して出力することができる。また、第1デバイス1000が、通話モードを音声モードから文字モードに変更すれば、第1デバイス1000は、第1デバイス1000と第2デバイス2000との間に形成された音声通話チャネルを暫定的に切ることができる。
また、例えば、文字モードで動作中の第1デバイス1000が、第2デバイス2000と音声/文字通話を行っている最中、第2デバイス2000の通話モードが、文字モードから音声モードに変更されれば、第1デバイス1000は、第1ユーザに、通話モードを文字モードから音声モードに変更することを勧めることができる。その場合、第1デバイス1000は、例えば、「通話モードを音声モードに変更しますか」というテキストを、第1デバイス1000の画面上のチャットウィンドウ内にディスプレイすることができる。また、第1デバイス1000が、通話モードを文字モードから音声モードに変更すれば、第1デバイス1000は、第1デバイス1000と第2デバイス2000との間に形成された文字送受信のためのチャネルを暫定的に切ることができる。
また、例えば、第2デバイス2000の通話モードが変更されることにより、第1デバイス1000は、所定の振動を発生させながら、第1デバイス1000の画面上に、モード変更を知らせるメッセージをディスプレイすることができる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
図35Bは、一実施形態による、第1デバイス1000が、第2デバイス2000の混合モードの入出力機能変更を第1ユーザに知らせ、第1ユーザに、通話モードの変更を勧める方法のフローチャートである。
段階S3540において、第1デバイス1000は、第2デバイス2000の混合モードの入出力機能が変更されたことを識別することができる。第2デバイス2000は、第2デバイス2000の混合モードでの入出力機能変更を示す情報を、第1デバイス1000に伝送することができ、第1デバイス1000は、第2デバイス2000から受信された情報に基づいて、第2デバイス2000の混合モードの入出力機能変更を識別することができる。
段階S3550において、第1デバイス1000は、第2デバイス2000の混合モードの入出力機能が変更されたか否かということを判断することができる。第1デバイス1000は、例えば、第2デバイス2000の混合モードにおいて、音声通話のための音声入力機能及び音声出力機能のうち一部が変更されるか、あるいは文字送受信のための文字入力機能及び文字出力機能のうち一部が変更されたか否かということを判断することができる。
また、第1デバイス1000は、第2デバイス2000の入力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声入力だけ受信するか、テキスト入力だけ受信するか、あるいは音声及びテキスト入力を受信するかということを判断することができる。
また、第1デバイス1000は、第2デバイス2000の出力方法の変更を判断することができる。第1デバイス1000は、第2デバイス2000が音声/文字通話のために、音声出力だけ提供するか、テキスト出力だけ提供するか、あるいは音声及びテキスト出力を提供するかということを判断することができる。
段階S3550での判断結果、第2デバイス2000の混合モードでの入出力機能が変更されたと判断されれば、段階S3560において、第1デバイス1000は、第2デバイス2000の変更された入出力機能を第1ユーザに知らせる。例えば、第2デバイス2000の変更された出力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、変更された入力方法を第1ユーザに知らせる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、第1デバイス1000は、変更された出力方法を第1ユーザに知らせる。
段階S3570において、第1デバイス1000は、第1デバイス1000の通話モードの変更を勧めることができる。その場合、第1デバイス1000は、第2デバイス2000の混合モードでの入出力機能がいかように変更されたかということにより、第1デバイス1000の通話モードをユーザに勧めることができる。
また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の入力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の入力方法を勧めることができる。また、第1デバイス1000は、第2デバイス2000の出力方法が変更された場合、音声/文字通話を行うための、第1デバイス1000の出力方法を勧めることができる。
図36は、一実施形態による、第1デバイス1000が第1ユーザに、音声モードから文字モードへの通話モード変更を勧める一例を図示した図面である。図36を参照すれば、第1デバイス1000は、音声モードで動作しながら、音声/文字通話を行うことができ、第2デバイス2000の通話モードが、音声モードから文字モードに変更されれば、第1デバイス1000は、第1デバイス1000のスピーカを介して、「相手方の通話モードが音声モードから文字モードに変更されました。文字モードに変更しますか?」という音声を出力することができる。
また、第1ユーザは、第1デバイス1000を第1ユーザの顔から離隔させ、それにより、第1デバイス1000は、通話モードを音声モードから文字モードに変更することができる。
図37は、一実施形態による、第1デバイス1000が、第1ユーザに、文字モードから音声モードへの通話モード変更を勧める一例を図示した図面である。図37を参照すれば、第1デバイス1000は、文字モードで動作しながら、音声/文字通話を行うことができ、第2デバイス2000の通話モードが、文字モードから音声モードに変更されれば、第1デバイス1000は、第1デバイス1000の画面上にディスプレイされたチャットウィンドウ内に、「相手方の通話モードが文字モードから音声モードに変更されました。音声モードに変更しますか」というテキストを表示することができる。
また、第1ユーザは、第1デバイス1000を第1ユーザの顔に近接させることができ、それにより、第1デバイス1000は、通話モードを、文字モードから音声モードに変更することができる。
図38は、一実施形態による、第1デバイス1000が音声/文字通話の通話リストを生成する方法のフローチャートである。
段階S3800において、第1デバイス1000は、第1デバイス1000と音声/文字通話を行った第2デバイス2000のデバイス情報を獲得することができる。第1デバイス1000は、例えば、第2デバイス2000のSSID(service set identifier)、第2デバイス2000の電話番号、第2デバイス2000の第2ユーザの氏名、及び第2デバイス2000の種類などについての情報を獲得することができる。
段階S3810において第1デバイス1000は、第2デバイス2000との通話時間についての情報を獲得することができる。第1デバイス1000は、例えば、第1デバイス1000及び第2デバイス2000が、音声/文字通話を始めた時刻、第1デバイス1000及び第2デバイス2000が、音声/文字通話を終了した時刻、及び第1デバイス1000及び第2デバイス2000が、音声/文字通話を行った時間についての情報を獲得することができる。
段階S3820において、第1デバイス1000は、第1デバイス1000の通話位置についての情報を獲得することができる。第1デバイス1000は、第2デバイス2000と音声/文字通話を行ったときの第1デバイス1000の位置についての情報を獲得することができる。
段階S3830において、第1デバイス1000は、音声/文字通話時に生成されたチャットウィンドウ内のテキスト情報をバックアップすることができる。第1デバイス1000は、チャットウィンドウ内において、第1ユーザと第2ユーザとの対話内容を示すテキストをバックアップすることができる。該テキストは、第1デバイス1000またはサーバにバックアップされる。
また、第1デバイス1000は、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、第1デバイス1000は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、第1デバイス1000は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
また、第1デバイス1000は、第1ユーザと第2ユーザとの対話内容を示すテキストの一部を、第1デバイス1000内にバックアップし、第1ユーザと第2ユーザとの対話内容を示すテキストの全部を、サーバ3000にバックアップすることができる。
段階S3840において、第1デバイス1000は、段階S3800ないし段階S3820で獲得された情報に基づいて、通話リストを生成することができる。
段階S3850において、第1デバイス1000は、生成された通話リストを、段階S3830でバックアップされたテキスト情報と関連づけて保存することができる。通話リストを、バックアップされたテキスト情報と関連させて保存されることにより、第1デバイス1000は、通話リストに対するユーザ入力により、通話リストに対応する通話内容を第1ユーザに提供する。その場合、第1デバイス1000は、通話リストにおいて第1ボタンが選択されれば、通話リストに対応する通話内容の一部を、まず第1デバイス1000の画面上にディスプレイし、通話内容の一部が表示された画面内の第2ボタンが選択されれば、通話リストに対応する通話内容の全部を、第1デバイス1000の画面上にディスプレイすることができる。
図39は、一実施形態による、第1デバイス1000の通話リストを介して、第1ユーザと第2ユーザとの対話を示すテキストをディスプレイする方法のフローチャートである。
段階S3900において、第1デバイス1000は、通話リストから第2デバイス2000を選択することができる。第1デバイス1000は、ユーザ入力に基づいて、通話リストから第2デバイス2000の電話番号を選択するか、あるいは第2ユーザの氏名を選択することができる。
段階S3910において、第1デバイス1000は、第2デバイス2000が選択されることにより、第1ユーザと第2ユーザとの対話を示すテキストを、第1デバイス1000の画面上にディスプレイすることができる。
図40ないし図42は、一実施形態による通話リストの一例を図示した図面である。
図40を参照すれば、一実施形態による、第1デバイス1000の画面上にディスプレイされた通話リストには、第2デバイス2000の電話番号が表示される。また、第1ユーザは、特定通話に係わる対話内容を見るために、通話リスト内のボタン350を選択することができる。その場合、ユーザは、他のユーザとの対話履歴を見ることができる。
第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話内容を示すテキストが、図41のように、第1デバイス1000の画面全体にディスプレイされる。その場合、対話内容を示すテキストは、対話の一部内容を示すテキストでもある。また、対話の一部内容を示すテキストは、第1デバイス1000内に保存される。しかし、それに制限されるものではない。
さらに、図41を参照すれば、対話の一部内容を示すテキストを含むウィンドウ内には、対話の全体内容を見るためのボタン410が表示される。また、ユーザがボタン410を押せば、第1デバイス1000は、対話の全体内容を示すテキストを、第1デバイス1000の画面上にディスプレイすることができる。その場合、対話の全体内容を示すテキストは、サーバ3000に保存されており、第1デバイス1000は、対話の全体内容を示すテキストを、サーバ3000から受信してディスプレイすることができる。
また、第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話内容を示すテキストを含むポップアップウィンドウが、図42のように第1デバイス1000の画面一部にディスプレイされる。
一方、第1ユーザがボタン350を選択すれば、選択されたボタン350に対応する対話の全体内容がディスプレイされる。しかし、それらに制限されるものではない。
図43は、一実施形態による、第1デバイス1000及び第2デバイス2000がサーバ3000を介して、音声/文字通話を行う例示を図示した図面である。図43を参照すれば、第1デバイス1000は、サーバ3000を経由し、第2デバイス2000と音声/文字通話を行うことができる。また、サーバ3000は、音声/文字通話のために必要な、TTS機能及びSTT機能を遂行することができる。例えば、サーバ3000は、第1デバイス1000で入力された第1ユーザの音声をテキストに変換し、第1デバイス1000で入力された第1ユーザのテキストを音声に変換することができる。また、サーバ3000は、第2デバイス2000で入力された第2ユーザの音声をテキストに変換し、第2デバイス2000で入力された第2ユーザのテキストを音声に変換することができる。
図44は、一実施形態によるサーバ3000が、第1ユーザ及び第2ユーザの音声をテキストに変換することにより、第1デバイス1000と第2デバイス2000との音声/文字通話を支援する方法のフローチャートである。
段階S4400において、第1デバイス1000及び第2デバイス2000は、互いに通話連結される。第1デバイス1000は、第2デバイス2000に、通話連結のためのコールを伝送するか、あるいは第2デバイス2000から通話連結のためのコールを受信することにより、第1デバイス1000は、第2デバイス2000と通話連結される。
段階S4405において、第1デバイス1000は、音声/文字通話機能を活性化することができる。第1デバイス1000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S4405においては、第1デバイス1000が第2デバイス2000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第1デバイス1000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S4410において、第2デバイス2000は、音声/文字通話機能を活性化することができる。第2デバイス2000は、ユーザ入力に基づいて、音声/文字通話機能を活性化することができる。段階S4410においては、第2デバイス2000が第1デバイス1000と通話連結された後、音声/文字通話機能を活性化すると説明したが、それに制限されるものではない。第2デバイス2000は、例えば、発信時、受信時または通話中、音声/文字通話機能を活性化することができる。
段階S4415において、第1デバイス1000は、第1ユーザの音声をサーバ3000に伝送することができる。第1デバイス1000は、第1デバイス1000内のマイクロフォンを介して、第1ユーザの音声を獲得することができ、獲得された音声をサーバ3000に伝送することができる。
また、段階S4420において、サーバ3000は、第1ユーザの音声を第2デバイス2000に伝送することができる。
段階S4425において、サーバ3000は、第1ユーザの音声をテキストに変換することができる。サーバ3000は、多様なSTT技術を利用して、第1ユーザの音声をテキストに変換することができる。
段階S4430において、サーバ3000は、第1ユーザの音声から変換されたテキストを第2デバイス2000に伝送し、段階S4435において、サーバ3000は、第1ユーザの音声から変換されたテキストを、第1デバイス1000に伝送することができる。
段階S4440において、第2デバイス2000は、第2ユーザの音声をサーバ3000に伝送することができる。第2デバイス2000は、第2デバイス2000内のマイクロフォンを介して、第2ユーザの音声を獲得することができ、獲得された音声をサーバ3000に伝送することができる。
また、段階S4445において、サーバ3000は、第2ユーザの音声を第1デバイス1000に伝送することができる。
段階S4450において、サーバ3000は、第2ユーザの音声をテキストに変換することができる。サーバ3000は、多様なSTT技術を利用して、第2ユーザの音声をテキストに変換することができる。
段階S4455において、サーバ3000は、第2ユーザの音声から変換されたテキストを第1デバイス1000に伝送し、段階S4460において、サーバ3000は、第2ユーザの音声から変換されたテキストを第2デバイス2000に伝送することができる。
段階S4465において、第1デバイス1000は、受信されたテキストを経時的に配列することができる。第1デバイス1000は、例えば、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第1デバイス1000は、第1ユーザの音声が第1デバイス1000に入力された時刻、及び第2ユーザの音声が第2デバイス2000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S4470において、第1デバイス1000は、配列されたテキストを含むチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。第1デバイス1000は、音声/文字通話を行っている最中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。また、第1デバイス1000は、音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
段階S4475において、第2デバイス2000は、受信されたテキストを経時的に配列することができる。第2デバイス2000は、例えば、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が受信された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。また、例えば、第2デバイス2000は、第2ユーザの音声が第2デバイス2000に入力された時刻、及び第1ユーザの音声が第1デバイス1000に入力された時刻により、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声から変換されたテキストを配列することができる。しかし、それらに制限されるものではない。
段階S4480において、第2デバイス2000は、配列されたテキストを含むチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。第2デバイス2000は、音声/文字通話を行っている最中、チャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。また、第2デバイス2000は、音声/文字通話の通話モードにより、チャットウィンドウを、第2デバイス2000の画面上にディスプレイするか、あるいは第2デバイス2000の画面上において、チャットウィンドウを隠すことができる。
サーバ3000は、第1デバイス1000と第2デバイス2000との連結を仲介する。従って、サーバ3000は、必要によって、音声の対話及び文字の対話を行うことができる。また、サーバ3000は、必要によって、テキストデータ及び音声データを保存する機能を遂行することができる。
図45は、一実施形態による、サーバ3000が第1ユーザ及び第2ユーザのテキストを音声に変換することにより、第1デバイス1000と第2デバイス2000との音声/文字通話を支援する方法のフローチャートである。
図45の段階S4500ないしS4510は、図44の段階S4400ないしS4410に対応するので、それについての説明は省略する。
段階S4515において、第1デバイス1000は、第1ユーザによって入力されたテキストをサーバ3000に伝送し、段階S4520において、サーバ3000は、第1ユーザによって入力されたテキストを、第2デバイス2000に伝送することができる。
段階S4525において、サーバ3000は、第1ユーザから入力されたテキストを音声に変換することができる。サーバ3000は、第1ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第1ユーザのテキストから変換された音声の音色を決定することができる。
段階S4530において、サーバ3000は、第1ユーザのテキストから変換された音声を第2デバイス2000に伝送し、段階S4535において、サーバ3000は、第1ユーザのテキストから変換された音声を、第1デバイス1000に伝送することができる。
段階S4540において、第2デバイス2000は、第2ユーザによって入力されたテキストをサーバ3000に伝送し、段階S4545において、サーバ3000は、第2ユーザによって入力されたテキストを、第1デバイス1000に伝送することができる。
段階S4550において、サーバ3000は、第2ユーザから入力されたテキストを音声に変換することができる。サーバ3000は、第2ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
段階S4555において、サーバ3000は、第2ユーザのテキストから変換された音声を第1デバイス1000に伝送し、段階S4560において、サーバ3000は、第2ユーザのテキストから変換された音声を、第2デバイス2000に伝送することができる。
段階S4565において、第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第1デバイス1000の状況によってディスプレイすることができる。例えば、第1デバイス1000の通話モードが文字モードであるか、あるいは混合モードである場合、第1デバイス1000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
段階S4570において、第1デバイス1000は、第2ユーザの音声を第1デバイス1000の状況によって出力することができる。例えば、第1デバイス1000の通話モードが音声モードであるか、あるいは混合モードである場合、第1デバイス1000は、第2ユーザの音声を出力することができる。
段階S4575において、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の状況によってディスプレイすることができる。例えば、第2デバイス2000の通話モードが文字モードであるか、あるいは混合モードである場合、第2デバイス2000は、第1ユーザと第2ユーザとの対話を示すチャットウィンドウを、第2デバイス2000の画面上にディスプレイすることができる。
段階S4580において、第2デバイス2000は、第1ユーザの音声を、第2デバイス2000の状況によって出力することができる。例えば、第2デバイス2000の通話モードが音声モードであるか、あるいは混合モードである場合、第2デバイス2000は、第1ユーザの音声を出力することができる。
サーバ3000は、第1デバイス1000と第2デバイス2000との連結を仲介する。従って、サーバ3000は、必要によって、音声の対話及び文字の対話を遂行することができる。また、サーバ3000は、必要によってテキスト及び音声データを保存する機能を遂行することができる。
図46は、一実施形態による、サーバ3000が第1デバイス1000と第2デバイス2000との音声/文字通話と係わる音声データ及びテキストデータを保存する方法のフローチャートである。
段階S4600において、第1デバイス1000は、第2デバイス2000と音声/文字通話を行うことができる。第1デバイス1000及び第2デバイス2000は、音声/文字通話機能を活性化することができる。また、第1デバイス1000及び第2デバイス2000は、サーバ3000を経由し、音声/文字通話を行うことができるが、それらに制限されるものではない。第1デバイス1000は、第2デバイス2000と直接音声/文字通話を行うこともできる。
段階S4610において、第1デバイス1000は、ユーザ間の対話内容の一部を示すテキストを保存することができる。第1デバイス1000は、第1ユーザによって第1デバイス1000に入力された音声から変換されたテキスト、第2ユーザによって第2デバイス2000に入力された音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを獲得することができる。
また、第1デバイス1000は、ユーザ間の対話内容を示すテキストを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、第1デバイス1000は、獲得されたテキストのうち一部を第1デバイス1000内に保存することができる。
段階S4620において、第1デバイス1000は、ユーザ間の対話内容の全部を示すテキストをサーバ3000に伝送し、段階S4630において、サーバ3000は、ユーザ間の対話内容の全部を示すテキストを保存することができる。段階S4620及びS4630においては、サーバ3000が、ユーザ間の対話内容の全部を示すテキストを第1デバイス1000から受信して保存すると説明したが、それに制限されるものではない。サーバ3000は、ユーザ間の対話内容の一部を示すテキストを第1デバイス1000から受信し、ユーザが対話内容の他の一部を示すテキストを第2デバイス2000から受信し、ユーザ間の対話内容のさらに他の一部を示すテキストを直接生成することができる。また、サーバ3000は、第1デバイス1000から受信されたテキスト、第2デバイス2000から受信されたテキスト、及びサーバ3000で生成されたテキストを組み合わせることにより、ユーザ間の対話内容の全部を示すテキストを獲得することもできる。
段階S4640において、第1デバイス1000は、ユーザ間の対話内容の一部を示す音声データを保存することができる。第1デバイス1000は、第1ユーザによって第1デバイス1000に入力されたテキストから変換された音声データ、第2ユーザによって第2デバイス2000に入力されたテキストから変換された音声データ、第1ユーザによって第1デバイス1000に入力された音声データ、及び第2ユーザによって第2デバイス2000に入力された音声データを獲得することができる。
また、第1デバイス1000は、ユーザ間の対話内容を示す音声データを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、第1デバイス1000は、獲得された音声データのうち一部を、第1デバイス1000内に保存することができる。
段階S4650において、第1デバイス1000は、ユーザ間の対話内容の全部を示す音声データをサーバ3000に伝送し、段階S4660において、サーバ3000は、ユーザ間の対話内容の全部を示す音声データを保存することができる。段階S4650及びS4660においては、サーバ3000がユーザ間の対話内容の全部を示す音声データを第1デバイス1000から受信して保存すると説明したが、それに制限されるものではない。サーバ3000は、ユーザ間の対話内容の一部を示す音声データを第1デバイス1000から受信し、ユーザ間の対話内容の一部を示す音声データを第2デバイス2000から受信し、ユーザ間の対話内容の一部を示す音声データを直接生成することができる。また、サーバ3000は、第1デバイス1000から受信された音声データ、第2デバイス2000から受信された音声データ、及びサーバ3000で生成された音声データを組み合わせることにより、ユーザ間の対話内容の全部を示す音声データを獲得することもできる。
図47は、一実施形態による、第1デバイス1000、第2デバイス2000及び第3デバイス4000が互いに音声/文字通話を行う例示を示す図面である。図47を参照すれば、第1デバイス1000、第2デバイス2000及び第3デバイス4000の間に音声/文字通話が行われる。例えば、第1デバイス1000及び第2デバイス2000が音声/文字通話を行っている最中、第3デバイス4000が、第1デバイス1000及び第2デバイス2000の音声/文字通話に参与することができる。また、例えば、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、音声/文字通話を共に始めることができる。3個のデバイスが例示されたが、それらに制限されるものではなく、いかなる数のデバイスも、音声/文字通話に参与することができる。
第1デバイス1000、第2デバイス2000及び第3デバイス4000の間に、音声/文字通話が行われる場合、i)音声/文字通話を行うための第1デバイス1000と第2デバイス2000との動作、ii)音声/文字通話を行うための第1デバイス1000と第3デバイス4000との動作、及びiii)音声/文字通話を行うための第2デバイス2000と第3デバイス4000との動作は、図1ないし図42に図示された動作に対応する。
図48は、一実施形態による、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、サーバ3000を介して、互いに音声/文字通話を行う例示を示す図面である。図48を参照すれば、第1デバイス1000、第2デバイス2000及び第3デバイス4000が、サーバ3000を介して、互いに音声/文字通話を行う場合、第1デバイス1000に入力された音声、第2デバイス2000に入力された音声、及び第3デバイス4000に入力された音声の一部または全部が、サーバ3000によってテキストに変換される。また、第1デバイス1000に入力されたテキスト、第2デバイス2000に入力されたテキスト、及び第3デバイス4000に入力されたテキストの一部または全部が、サーバ3000によって音声に変換される。
また、第1デバイス1000、第2デバイス2000及び第3デバイス4000の間で、サーバ3000を介して、音声/文字通話が行われる場合、i)音声/文字通話を行うための第1デバイス1000、第2デバイス2000及びサーバ3000の間の動作、ii)音声/文字通話を行うための第1デバイス1000、第3デバイス4000及びサーバ3000の間の動作、及びiii)音声/文字通話を行うための第2デバイス2000、第3デバイス4000及びサーバ3000の間の動作は、図43ないし図46に図示された動作に対応する。
図49及び図50は、一実施形態による第1デバイス1000のブロック図である。
図49に図示されているように、一実施形態による第1デバイス1000は、ユーザ入力部1100、出力部1200、制御部1300及び通信部1500を含んでもよい。しかし、図49に図示された構成要素がいずれも第1デバイス1000の必須構成要素であるものではない。図49に図示された構成要素より多くの構成要素によって、第1デバイス1000が具現されもし、図49に図示された構成要素より少ない構成要素によって、第1デバイス1000が具現されもする。
例えば、図50に図示されているように、一実施形態による第1デバイス1000は、ユーザ入力部1100、出力部1200、制御部1300及び通信部1500以外に、センシング部1400、A/V(audio/video)入力部1600及びメモリ1700をさらに含んでもよい。
ユーザ入力部1100は、ユーザが第1デバイス1000を制御するためのデータを入力する手段を意味する。例えば、ユーザ入力部1100には、キーパッド(key pad)、ドームスイッチ(dome switch)、タッチパッド(接触式静電容量方式、圧力式抵抗膜方式、赤外線感知方式、表面超音波伝導方式、積分式張力測定方式、ピエゾ効果方式など)、ジョグホイール、ジョグスイッチなどがあるが、それらに限定されるものではない。
ユーザ入力部1100は、音声/文字通話のためのユーザ入力を受信することができる。例えば、ユーザ入力部1100は、ユーザの音声入力、ユーザの文字入力及びユーザのタッチ入力を受信することができる。
出力部1200は、オーディオ信号またはビデオ信号または振動信号を出力することができ、出力部1200は、ディスプレイ部1210、音響出力部1220及び振動モータ1230を含んでもよい。
ディスプレイ部1210は、第1デバイス1000で処理される情報を表示出力することができる。例えば、ディスプレイ部1210は、音声/文字通話中、ユーザ間の対話内容を示すテキストを含むチャットウィンドウをディスプレイすることができる。
一方、ディスプレイ部1210とタッチパッドとがレイヤ構造をなし、タッチスクリーンとして構成される場合、ディスプレイ部1210は、出力装置以外に、入力装置としても使用される。ディスプレイ部1210は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード(organic light-emitting diode)、フレキシブルディスプレイ(flexible display)、三次元ディスプレイ(3D display)、電気泳動ディスプレイ(electrophoretic display)のうち少なくとも一つを含んでもよい。そして、第1デバイス1000の具現形態によって、第1デバイス1000は、ディスプレイ部1210を2個以上含んでもよい。そのとき、2個以上のディスプレイ部1210は、ヒンジ(hinge)を利用して対向するように配置される。
音響出力部1220は、通信部1500から受信されるか、あるいはメモリ1700に保存されたオーディオデータを出力することができる。また、音響出力部1220は、第1デバイス1000で遂行される機能(例えば、コール信号受信音、メッセージ受信音、アラーム音)と係わる音響信号を出力することができる。そのような音響出力部1220には、スピーカ、ブザー(buzzer)などが含まれてもよい。
振動モータ1230は、振動信号を出力することができる。例えば、振動モータ1230は、オーディオデータまたはビデオデータ(例えば、コール信号受信音、メッセージ受信音など)の出力に対応する振動信号を出力することができる。また、振動モータ1230は、タッチスクリーンにタッチが入力される場合、振動信号を出力することもできる。
制御部1300は、一般的に、第1デバイス1000の全般的な動作を制御することができる。例えば、制御部1300は、メモリ1700に保存されたプログラムを実行することにより、ユーザ入力部1100、出力部1200、センシング部1400、通信部1500、A/V入力部1600などを全般的に制御することができる。制御部1300は、図1ないし図49での第1デバイス1000の動作を遂行するために、ユーザ入力部1100、出力部1200、センシング部1400、通信部1500、A/V入力部1600などを全般的に制御することができる。
具体的には、制御部1300は、音声/文字通話機能を活性化することができる。制御部1300は、第2デバイス2000に電話を発信するとき、音声通話機能を活性化することができる。また、制御部1300は、第2デバイス2000から電話を受信するとき、音声通話機能を活性化することができる。また、制御部1300は、第2デバイス2000との通話中、音声/文字通話機能を活性化することができる。
また、音声/文字通話機能が活性化されることにより、制御部1300は、第1デバイス1000において、音声/文字通話機能が活性化されたということを、第2デバイス2000に知らせる。その場合、制御部1300は、第1デバイス1000の音声/文字通話の通話モードを、第2デバイス2000に知らせることもできる。音声/文字通話の通話モードについては、後述する。
また、制御部1300は、第1デバイスのユーザと、第2デバイス2000のユーザとの音声から変換されたテキストを、獲得することができる。制御部1300は、第1デバイス1000のユーザの音声をテキストに変換することにより、変換されたテキストを獲得することができる。また、制御部1300は、通信部1500を介して、第2デバイス2000のユーザの音声を第2デバイス2000から受信し、受信された音声をテキストに変換することにより、変換されたテキストを獲得することができる。しかし、第1デバイス1000が変換されたテキストを獲得する方法は、それらに制限されるものではない。第1デバイス1000のユーザの音声、及び第2デバイス2000のユーザの音声は、多様な装置またはサーバによってテキストに変換され、第1デバイス1000は、変換されたテキストを、通信部1500を介して、多様な装置及びサーバから受信することができる。
また、制御部1300は、ユーザによって入力されたテキストを獲得することができる。第1デバイス1000は、音声/文字通話中、第1デバイス1000のユーザから入力されたテキストを獲得することができる。また、制御部1300は、音声/文字通話中、第2デバイス2000のユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
制御部1300は、変換されたテキスト、及び入力されたテキストを経時的に配列し、ユーザとの通話中、第1デバイス1000の画面上にディスプレイすることができる。制御部1300は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、制御部1300は、第1デバイス1000のユーザが第1デバイス1000に音声を入力した時間、第2デバイス2000のユーザが第2デバイス2000に音声を入力した時間、第1デバイス1000のユーザが第1デバイス1000にテキストを入力した時間、及び第2デバイス2000のユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
一方、制御部1300は、第1ユーザと第2ユーザとの音声から変換されたテキストの原本音声データを、メモリ1700またはサーバ2000にバックアップすることができる。制御部1300は、第1ユーザの音声から変換されたテキストに対応する第1ユーザの音声データをバックアップすることができる。また、制御部1300は、第2ユーザの音声から変換されたテキストに対応する第2ユーザの音声データをバックアップすることができる。
また、制御部1300は、第1ユーザと第2ユーザとの通話中、第1デバイス1000の画面上にチャットウィンドウをディスプレイすることができる。制御部1300は、第1ユーザと第2ユーザとの対話の内容を示すために、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。
制御部1300は、チャットウィンドウを介して、第1ユーザから入力されたテキストを獲得することができる。また、制御部1300は、音声/文字通話中、第2ユーザから第2デバイス2000に入力されたテキストを、第2デバイス2000から受信することができる。
また、制御部1300は、変換されたテキスト、及び入力されたテキストを経時的に配列してチャットウィンドウ内に表示することができる。制御部1300は、音声及びテキストの入力時間に基づいて、変換されたテキスト、及び入力されたテキストを経時的に配列することができる。例えば、制御部1300は、第1ユーザが第1デバイス1000に音声を入力した時間、第2ユーザが第2デバイス2000に音声を入力した時間、第1ユーザが第1デバイス1000にテキストを入力した時間、及び第2ユーザが第2デバイス2000にテキストを入力した時間に基づいて、第1デバイス1000は、変換されたテキスト、及び入力されたテキストを配列することができる。
また、制御部1300は、変換されたテキストを、入力されたテキストと区別して表示することができる。制御部1300は、第1ユーザの音声から変換されたテキスト、及び第2ユーザの音声に変換されたテキストを、第1ユーザから入力されたテキスト、及び第2ユーザから入力されたテキストと区別されるように表示することができる。
例えば、制御部1300は、変換されたテキストを区別して表示するために、別途のアイコンを、変換されたテキストの周辺にディスプレイすることができる。また、例えば、制御部1300は、変換されたテキストの色相、太さまたは書体などが区別されるように表示することができる。しかし、それらに制限されるものではない。
また、制御部1300は、変換されたテキストが選択されれば、変換されたテキストの原本音声データを出力することができる。変換されたテキストが、チャットウィンドウ内で、第1ユーザによって選択されれば、制御部1300は、選択されたテキストの原本音声データをメモリから抽出し、抽出された原本音声データを、第1デバイス1000内のスピーカを介して出力することができる。
また、制御部1300は、配列されたテキストのうち、所定のイベントが発生する以前の既設定時間の間に獲得されたテキストをバックアップすることができる。所定のイベントは、例えば、第1デバイス1000と第2デバイス2000との通話終了、またはテキストバックアップのためのユーザ入力受信などを含んでもよい。例えば、第1デバイス1000と第2デバイス2000との通話が終われば、制御部1300は、通話が終わる前の5分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。例えば、制御部1300は、テキストをバックアップするためのユーザ入力を受信すれば、ユーザ入力が受信される前の3分間、第1デバイス1000によって獲得されたテキストをバックアップすることができる。しかし、テキストバックアップのために設定された、イベントの種類及び時間値は、それらに制限されるものではない。
一方、制御部1300は、配列されたテキスト全体をサーバ3000にバックアップすることができる。その場合、制御部1300は、配列されたテキストのうち一部を第1デバイス1000内にバックアップし、配列されたテキストの全部をサーバ3000にバックアップすることができる。また、制御部1300は、配列されたテキストのうち一部テキスト、及び配列されたテキストの全体テキストをサーバ3000に保存することもできる。
一方、制御部1300は、配列されたテキスト全体を多様な自然語解釈方法を介して、ユーザ間の対話を分析することができ、配列されたテキストから、ユーザ間の主要対話内容を示す部分を抽出することができる。また、制御部1300は、抽出された一部対話を示すテキストを、第1デバイス1000内にバックアップすることができる。
一方、制御部1300は、音声/文字通話機能を活性化し、音声/文字通話中に利用されるチャットアプリケーションを決定することができる。例えば、制御部1300は、第1デバイス1000の音声/文字通話機能と連動されて実行されるチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。また、例えば、制御部1300は、第1デバイス1000及び第2デバイス2000のいずれにもインストールされたチャットアプリケーションを、音声/文字通話中に利用されるチャットアプリケーションとして決定することができる。しかし、それに制限されるものではない。
また、制御部1300は、決定されたチャットアプリケーションを実行し、音声から変換されたテキストを、実行されたチャットアプリケーションに入力することができる。例えば、制御部1300は、実行されたチャットアプリケーションに、テキスト自動入力のためのプラグインをインストールし、インストールされたプラグインを介して、チャットアプリケーションに、音声から変換されたテキストを入力することができる。しかし、それに制限されるものではない。
また、制御部1300は、ユーザとの通話中、チャットウィンドウを、第1デバイス1000の画面上にディスプレイすることができる。制御部1300は、第1ユーザの音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、第2ユーザの音声から変換されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを、チャットウィンドウ内に配列することができる。
また、制御部1300は、第1デバイス1000の音声/文字通話の通話モードにより、チャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは第1デバイス1000の画面上において、チャットウィンドウを隠すことができる。
一方、制御部1300は、第1デバイス1000及び第2デバイス2000がチャットサービスを利用している最中、音声/文字通話を始めることができる。
また、制御部1300は、音声/文字通話中、通話モードを変更することができる。通話モードは、音声モード、文字モード及び混合モードを含んでもよい。制御部1300は、通話モードが変更されることにより、第1デバイス1000のスピーカ及びマイクロフォンのうち少なくとも一つを活性化または非活性化することができる。また、制御部1300は、通話モードが変更されることにより、音声/文字通話に利用されるチャットウィンドウを、第1デバイス1000の画面上にディスプレイするか、あるいは隠すことができる。また、制御部1300は、第2デバイス2000の通話モードにより、ユーザの音声またはテキストを、選択的に第2デバイス2000に提供する。
一方、制御部1300は、第2デバイス2000の通話モード変更を第1ユーザに知らせることができ、第1ユーザに通話モードの変更を勧めることができる。また、制御部1300は、第2デバイス2000の混合モードの入出力機能変更を第1ユーザに知らせ、第1ユーザに通話モードの変更を勧めることができる。
一方、制御部1300は、チャットウィンドウ内のテキスト情報の一部または全部を第1デバイス1000またはサーバ3000にバックアップすることができる。また、一方、制御部1300は、チャットウィンドウ内のテキスト情報を、通話リストと関連づけて保存することができる。
センシング部1400は、第1デバイス1000の状態、または第1デバイス1000周辺の状態を感知し、感知された情報を制御部1300に伝達することができる。
センシング部1400は、地磁気センサ(magnetic sensor)1410、加速度センサ(acceleration sensor)1420、温度/湿度センサ1430、赤外線センサ1440、ジャイロスコープセンサ1450、位置センサ(例えば、GPS(global position system))1460、気圧センサ1470、近接センサ1480、及びRGBセンサ(illuminance sensor)1490のうち少なくとも一つを含んでもよいが、それらに限定されるものではない。各センサの機能は、その名称から当業者が直観的に推論することができるので、具体的な説明は省略する。
通信部1500は、第1デバイス1000が、第2デバイス2000、第3デバイス4000及びサーバ3000のうち少なくとも一つと通信をするようにする1以上の構成要素を含んでもよい。例えば、通信部1500は、近距離通信部(short-range wireless communication unit)1510、移動通信部1520、放送受信部1530を含んでもよい。
近距離通信部151は、ブルートゥース(登録商標)通信部、BLE(Bluetooth low energy)通信部、近距離無線通信部(near field communication unit)、WLAN(wireless local area network)通信部、ジグビー(登録商標(Zigbee))通信部、赤外線(IrDA:infrared data association)通信部、WFD(Wi−Fi direct)通信部、UWB(ultra wideband)通信部、Ant+通信部などを含んでもよいが、それらに限定されるものではない。
移動通信部1520は、移動通信網上において、基地局、外部の端末、サーバのうち少なくとも一つと無線信号を送受信することができる。ここで、該無線信号は、音声コール信号、画像通話コール信号または文字/マルチメディアメッセージ送受信による多様な形態のデータを含んでもよい。
放送受信部1530は、放送チャネルを介して、外部から放送信号、及び/または放送係わる情報を受信することができる。該放送チャネルは、衛星チャネル、地上波チャネルを含んでもよい。一具現例によって、第1デバイス1000が放送受信部1530を含まないこともある。
また、通信部1500は、音声/文字通話を行うために必要な情報を、第1デバイス1000が、第2デバイス2000、第3デバイス4000及びサーバ3000のうち少なくとも一つと送受信することができる。
A/V入力部1600は、オーディオ信号またはビデオ信号の入力のためのものであり、それには、カメラ1610やマイクロフォンロホン1620などが含まれる。カメラ1610は、画像通話モードまたは撮影モードにおいて、イメージセンサを介して、静止映像または動画などの画像フレームを得ることができる。イメージセンサを介してキャプチャされたイメージは、制御部1300または別途のイメージ処理部(図示せず)を介して処理される。
カメラ1610で処理された画像フレームは、メモリ1700に保存されるか、あるいは通信部1500を介して外部に伝送される。カメラ1610は、端末機の構成様態によって、2個以上が具備されてもよい。
マイクロフォンロホン1620は、外部の音響信号を入力され、電気的な音声データに処理することができる。例えば、マイクロフォンロホン1620は、外部デバイスまたは話者から音響信号を受信することができる。マイクロフォンロホン1620は、外部の音響信号を入力される過程で発生するノイズを除去するための多様なノイズ除去アルゴリズムを利用することができる。
メモリ1700は、制御部1300の処理及び制御のためのプログラムを保存することができ、第1デバイス1000に入力されるか、あるいは第1デバイス1000から出力されるデータを保存することもできる。
メモリ1700は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDメモリまたはXDメモリなど)、RAM(random access memory)、SRAM(static random access memory)、ROM(read only memory)、EEPROM(electrically erasable and programmable read only memory)、PROM(programmable read only memory)、磁気メモリ、磁気ディスク、光ディスクのうち少なくとも1つのタイプの記録媒体を含んでもよい。
メモリ1700に保存されたプログラムは、その機能によって複数個のモジュールに分類することができるのに、例えば、UI(user interface)モジュール1710、タッチスクリーンモジュール1720、アラームモジュール1730などに分類される。
UIモジュール1710は、アプリケーション別に、第1デバイス1000と連動される特化されたUI、GUI(graphic user interface)などを提供する。タッチスクリーンモジュール1720は、ユーザのタッチスクリーン上のタッチジェスチャを感知し、タッチジェスチャについての情報を制御部1300に伝達することができる。一実施形態によるタッチスクリーンモジュール1720は、タッチコードを認識して分析することができる。タッチスクリーンモジュール1720は、コントローラを含む別途のハードウェアでも構成される。
タッチスクリーンのタッチまたは近接タッチを感知するために、タッチスクリーンの内部または近傍に多様なセンサが具備される。タッチスクリーンのタッチを感知するためのセンサの一例として、触覚センサがある。触覚センサは、人が感じるほど、あるいはそれ以上、特定物体の接触を感知するセンサをいう。触覚センサは、接触面の粗度、接触物体の硬度、接触地点の温度などの多様な情報を感知することができる。
また、タッチスクリーンのタッチを感知するためのセンサの一例として、近接センサがある。
該近接センサは、所定の検出面に接近する物体、あるいは近傍に存在する物体の有無を電子系の力または赤外線を利用して、機械的接触なしに検出するセンサをいう。近接センサの例としては、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。ユーザのタッチジェスチャには、タップ、タッチ&ホールド、ダブルタップ、ドラッグ、パンニング、フリック、ドラッグアンドドロップ、スワイプなどがある。
アラームモジュール1730は、第1デバイス1000のイベント発生を知らせるための信号を発生させることができる。第1デバイス1000で発生するイベントの例としては、コール信号受信、メッセージ受信、キー信号入力、日程通知などがある。アラームモジュール1730は、ディスプレイ部1210を介して、ビデオ信号形態でアラーム信号を出力することもでき、音響出力部1220を介して、オーディオ信号形態でアラーム信号を出力することもでき、振動モータ1230を介して、振動信号形態でアラーム信号を出力することもできる。
図51は、一実施形態によるサーバ3000のブロック図である。図51を参照すれば、一実施形態によるサーバ3000は、通信部3100、制御部3200及びDB(database)3300を含んでもよい。また、DB 3300は、音声DB 3310、テキストDB 3320及び通話リストDB 3330を含んでもよい。
通信部3100は、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上間の音声/文字通話を行うために必要なデータを、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上に伝送することができる。
制御部3200は、一般的に、サーバ3000の全般的な動作を制御することができる。例えば、制御部3200は、DB 3300に保存されたプログラムを実行することにより、サーバ3000の全般的な動作を制御することができる。
具体的には、制御部3200は、第1デバイス1000から受信された第1ユーザのテキスト、及び第2デバイス2000から受信された第2ユーザのテキストのうち少なくとも一つを音声に変換することができる。制御部3200は、第1ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第1ユーザのテキストから変換された音声の音色を決定することができる。また、制御部3200は、第2ユーザのユーザ情報(例えば、性別及び年齢)を考慮し、第2ユーザのテキストから変換された音声の音色を決定することができる。
また、制御部3200は、通信部3100を介して、第1ユーザのテキストから変換された音声を、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザのテキストから変換された音声を、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。
また、制御部3200は、通信部3100を介して、第1ユーザによって入力されたテキストを、第1デバイス1000から受信することができ、受信されたテキストを、第2デバイス2000に伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザによって入力されたテキストを、第2デバイス2000から受信することができ、受信されたテキストを、第1デバイス1000に伝送することができる。
一方、制御部3200は、第1デバイス1000から受信された第1ユーザの音声、及び第2デバイス2000から受信された第2ユーザの音声のうち少なくとも一つをテキストに変換することができる。
また、制御部3200は、通信部3100を介して、第1ユーザの音声から変換されたテキストを、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザの音声から変換されたテキストを、第1デバイス1000及び第2デバイス2000のうち少なくとも一つに伝送することができる。
また、制御部3200は、通信部3100を介して、第1ユーザによって入力された音声を、第1デバイス1000から受信することができ、受信された音声を、第2デバイス2000に伝送することができる。また、制御部3200は、通信部3100を介して、第2ユーザによって入力された音声を、第2デバイス2000から受信することができ、受信された音声を、第1デバイス1000に伝送することができる。
一方、制御部3200は、音声/文字通話を行うユーザ間の対話内容を示すテキストを保存することができる。制御部3200は、音声/文字通話を行うユーザ間の対話内容の一部及び/または全部を示すテキストを保存することができる。制御部3200は、第1ユーザによって第1デバイス1000に入力された音声から変換されたテキスト、第2ユーザによって第2デバイス2000に入力された音声から変換されたテキスト、第1ユーザによって第1デバイス1000に入力されたテキスト、及び第2ユーザによって第2デバイス2000に入力されたテキストを獲得することができる。
また、制御部3200は、ユーザ間の対話内容を示すテキストを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、制御部3200は、獲得されたテキストのうち一部及び/または全部をDB 3300に保存することができる。
一方、制御部3200は、音声/文字通話を行うユーザ間の対話内容を示す音声データを保存することができる。制御部3200は、音声/文字通話を行うユーザ間の対話内容の一部及び/または全部を示す音声データを保存することができる。制御部3200は、第1ユーザによって第1デバイス1000に入力されたテキストから変換された音声データ、第2ユーザによって第2デバイス2000に入力されたテキストから変換された音声データ、第1ユーザによって第1デバイス1000に入力された音声データ、及び第2ユーザによって第2デバイス2000に入力された音声データを獲得することができる。
また、制御部3200は、ユーザ間の対話内容を示す音声データを、第1デバイス1000、第2デバイス2000及びサーバ3000のうち少なくとも一つから獲得することができる。また、制御部3200は、獲得された音声データのうち一部及び/または全部をDB 3300内に保存することができる。
一方、制御部3200は、ユーザ間の音声/文字通話についての通話リストを生成することができる。また、制御部3200は、保存されたテキスト及び音声データを、ユーザ間の音声/文字通話についての通話リストにマッチングすることができる。
DB 3300は、第1デバイス1000、第2デバイス2000及び第3デバイス4000のうち少なくとも2以上間の音声/文字通話のために必要なデータを保存することができる。
音声DB 3310は、ユーザの音声データを保存することができる。音声DB 3310は、ユーザによって入力された音声データ、及びユーザによって入力されたテキストから変換された音声データを保存することができる。また、音声DB 3310は、ユーザの音声データについての属性情報を保存することができる。音声データの属性情報は、ユーザによって入力された音声、及びユーザによって入力されたテキストから変換された音声を区別するための情報でもある。しかし、それらに制限されるものではない。
テキストDB 3320は、ユーザのテキストを保存することができる。テキストDB 3320は、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されたテキストを保存することができる。また、テキストDB 3320は、ユーザのテキストについての属性情報を保存することができる。テキストの属性情報は、ユーザによって入力されたテキスト、及びユーザによって入力された音声から変換されたテキストを区別するための情報でもある。しかし、それらに制限されるものではない。
通話リストDB 3330は、ユーザ間の音声/文字通話についての通話リストを保存することができる。また、通話リストDB 3330についての多様な情報を保存することができる。通話リストDB 3330に保存されたデータは、音声DB 3310に保存されたデータ、及びテキストDB 3320に保存されたデータと互いにマッチングされる。
一実施形態は、コンピュータによって実行されるプログラムモジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現される。コンピュータ可読媒体は、コンピュータによってアクセスされる任意の可用媒体でもあり、揮発性媒体及び不揮発性媒体、分離型媒体及び非分離型媒体をいずれも含む。また、コンピュータ可読媒体は、コンピュータ記録媒体及びコンピュータ通信媒体をいずれも含んでもよい。該コンピュータ記録媒体は、コンピュータ可読命令語、データ構造、プログラムモジュール、またはその他データのような情報の保存のための任意の方法または技術によって具現された揮発性及び不揮発性、分離型及び非分離型の媒体をいずれも含む。該通信媒体は、典型的に、コンピュータ可読命令語、データ構造、プログラムモジュール、または搬送波のような変調されたデータ信号のその他データ、あるいはその他伝送メカニズムを含み、任意の情報伝達媒体を含む。
また、本明細書において、「部」は、プロセッサまたは回路のようなハードウェア構成(hardware component)、及び/またはプロセッサのようなハードウェア構成によって実行されるソフトウェア構成(software component)でもある。
前述の本発明の説明は、例示のためのものであり、本発明が属する技術分野の当業者であるならば、本発明の技術的思想や必須な特徴を変更せずとも、他の具体的な形態に容易に変形が可能であるということを理解することができるであろう。従って、以上で記述した実施形態は、全ての面で例示的なものであり、限定的ではないと理解されなければならない。例えば、単一型と説明されている各構成要素は、分散されて実施されもし、同様に、分散されていると説明されている構成要素も、結合された形態でも実施される。
本発明の範囲は、前述の説明よりは、特許請求の範囲によって示され、特許請求の範囲の意味、範囲及びその均等概念から導き出される全ての変更または変形された形態は、本発明の範囲に含まれるものであると解釈されなければならない。

Claims (15)

  1. 外部モバイルデバイスと通話を行うモバイルデバイスにおいて、
    前記モバイルデバイスと前記外部モバイルデバイスとの通話中、前記モバイルデバイスと前記外部モバイルデバイスとの間で送受信される音声デデータから変換されたテキストを獲得し、
    前記モバイルデバイスに入力されたテキスト、及び前記外部モバイルデバイスから提供されたテキストを獲得する制御部と、
    前記変換されたテキスト、前記入力されたテキスト、及び前記提供されたテキストを配列し、前記外部モバイルデバイスと前記モバイルデバイスとの通話中、前記モバイルデバイスの画面上にディスプレイするディスプレイ部と、を含むモバイルデバイス。
  2. 前記配列されたテキストは、経時的に配列され、
    前記ディスプレイ部は、前記配列されたテキストを含むメッセージウィンドウを、前記モバイルデバイスの画面上にディスプレイすることを特徴とする請求項1に記載のモバイルデバイス。
  3. 前記ディスプレイ部は、前記ディスプレイされたテキストのうち、前記音声から変換されたテキストを、前記入力されたテキストと区別されるように表示することを特徴とする請求項1に記載のモバイルデバイス。
  4. 前記音声から変換されたテキストは、音声変換の信頼度によって、他の変換されたテキストと区別されるように表示されることを特徴とする請求項3に記載のモバイルデバイス。
  5. 前記変換されたテキストが選択されることにより、前記変換されたテキストに対応する原本音声データを出力する音響出力部をさらに含むことを特徴とする請求項3に記載のモバイルデバイス。
  6. 前記選択されたテキストは、文章、または文章内の単語であることを特徴とする請求項5に記載のモバイルデバイス。
  7. 前記外部モバイルデバイスの前記通話中の出力方法が変更されることにより、前記変更された出力方法が、前記モバイルデバイスのユーザに知らされ、
    前記出力方法は、音声だけ出力する方法、テキストだけ出力する方法、並びに音声及びテキストを共に出力する方法を含むことを特徴とする請求項1に記載のモバイルデバイス。
  8. 音声、テキスト及び振動のうち少なくとも一つを利用して、前記変更された出力方法が、前記モバイルデバイスのユーザに知らされることを特徴とする請求項7に記載のモバイルデバイス。
  9. 前記制御部は、前記外部モバイルデバイスの出力方法により、前記モバイルデバイスのユーザに、前記モバイルデバイスの前記通話の入力方法の変更を勧め、
    前記入力方法は、音声だけ入力する方法、テキストだけ入力する方法、並びに音声及びテキストを共に入力する方法を含むことを特徴とする請求項7に記載のモバイルデバイス。
  10. 前記制御部は、前記外部モバイルデバイスとの通話履歴を含む通話リストと、前記配列されたテキストとを関連づけて保存することを特徴とする請求項1に記載のモバイルデバイス。
  11. 前記制御部は、前記配列されたテキストの一部を保存し、
    前記配列されたテキストの一部は、前記音声/文字通話中、所定イベントが発生する以前の既設定時間の間に獲得されたテキストであることを特徴とする請求項10に記載のモバイルデバイス。
  12. モバイルデバイスが外部モバイルデバイスと通話を行う方法において、
    前記モバイルデバイスと前記外部モバイルデバイスとの通話中、前記モバイルデバイスと前記外部モバイルデバイスとの間で送受信される音声から変換されたテキストを獲得する段階と、
    前記モバイルデバイスに入力されたテキストを獲得する段階と、
    前記外部モバイルデバイスから提供されたテキストを獲得する段階と、
    前記変換されたテキスト、前記入力されたテキスト、及び前記提供されたテキストを配列し、前記通話中、前記モバイルデバイスの画面上にディスプレイする段階と、を含む方法。
  13. 前記配列されたテキストは、経時的に配列され、
    前記ディスプレイする段階は、前記配列されたテキストを含むメッセージウィンドウを、前記モバイルデバイスの画面上にディスプレイすることを特徴とする請求項12に記載の方法。
  14. モバイルデバイスにおいて、
    送受信部と、
    前記送受信部を制御することにより、外部モバイルデバイスと音声メッセージ通信セッションを形成するプロセッサと、を含むが、
    前記音声メッセージ通信セッションは、前記モバイルデバイスと前記外部モバイルデバイスとの音声データ及びテキストデータの伝送及び受信を支援するモバイルデバイス。
  15. ディスプレイと、
    ユーザから入力を受信してユーザに情報を出力する入出力部と、をさらに含み、
    前記プロセッサは、前記ディスプレイが、前記外部モバイルデバイスから受信されたテキストデータをテキスト情報にディスプレイするように制御し、前記入出力部が、前記外部モバイルデバイスから受信された音声データをオーディオ情報に出力するように制御することを特徴とする請求項14に記載のモバイルデバイス。
JP2017514239A 2014-05-23 2015-05-22 モバイルデバイス及び通話方法 Expired - Fee Related JP6688783B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002538A JP6925458B2 (ja) 2014-05-23 2020-01-10 モバイルデバイス及び通話方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2014-0062569 2014-05-23
KR20140062569 2014-05-23
KR1020150071231A KR102225401B1 (ko) 2014-05-23 2015-05-21 음성 문자 통화 서비스를 제공하는 시스템 및 방법
KR10-2015-0071231 2015-05-21
PCT/KR2015/005143 WO2015178715A1 (en) 2014-05-23 2015-05-22 System and method of providing voice-message call service

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020002538A Division JP6925458B2 (ja) 2014-05-23 2020-01-10 モバイルデバイス及び通話方法

Publications (2)

Publication Number Publication Date
JP2017517228A true JP2017517228A (ja) 2017-06-22
JP6688783B2 JP6688783B2 (ja) 2020-04-28

Family

ID=54883406

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017514239A Expired - Fee Related JP6688783B2 (ja) 2014-05-23 2015-05-22 モバイルデバイス及び通話方法
JP2020002538A Active JP6925458B2 (ja) 2014-05-23 2020-01-10 モバイルデバイス及び通話方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020002538A Active JP6925458B2 (ja) 2014-05-23 2020-01-10 モバイルデバイス及び通話方法

Country Status (6)

Country Link
EP (1) EP3793178B1 (ja)
JP (2) JP6688783B2 (ja)
KR (1) KR102225401B1 (ja)
CN (2) CN110933238B (ja)
MX (1) MX369624B (ja)
RU (1) RU2692763C2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018007005A (ja) * 2016-07-01 2018-01-11 大都販売株式会社 携帯端末装置、管理装置、通信システム、通信装置、通信方法
KR20190021103A (ko) * 2017-08-22 2019-03-05 네이버 주식회사 통화 서비스 제공 방법 및 컴퓨터 프로그램
WO2019207867A1 (ja) * 2018-04-25 2019-10-31 京セラ株式会社 電子機器及び処理システム
JP2020154652A (ja) * 2019-03-19 2020-09-24 Line株式会社 プログラム、情報処理方法、端末
JP2022097496A (ja) * 2019-03-19 2022-06-30 Line株式会社 プログラム、情報処理方法、端末

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102166264B1 (ko) * 2019-05-08 2020-10-15 포인트아이 주식회사 텍스트 통화 서비스 제공 시스템
KR102597972B1 (ko) 2021-09-05 2023-11-02 박윤학 스마트폰의 문자 메시지를 노래로 만들어 송수신하는 방법 및 이를 위한 노래 문자 송수신 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129174A (ja) * 2002-08-06 2004-04-22 Ricoh Co Ltd 情報通信装置、情報通信プログラム、及び記録媒体
JP2004194132A (ja) * 2002-12-13 2004-07-08 Hitachi Ltd 通信端末およびそれを用いたシステム
JP2008534999A (ja) * 2005-03-22 2008-08-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 音声−テキスト変換機能を有する無線通信装置
US20090048845A1 (en) * 2007-08-17 2009-02-19 Burckart Erik J Apparatus, system, and method for voice chat transcription
JP2011102862A (ja) * 2009-11-10 2011-05-26 Advanced Media Inc 音声認識結果管理装置および音声認識結果表示方法
JP2012257145A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 電子機器、その制御方法及び制御プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208634A1 (en) * 1994-10-11 2010-08-19 Arbinet Corporation System and Method For Managing Multimedia Communications Across Convergent Networks
US20030055649A1 (en) * 2001-09-17 2003-03-20 Bin Xu Methods for accessing information on personal computers using voice through landline or wireless phones
AU2003222157A1 (en) * 2002-04-02 2003-10-20 Worldcom, Inc. Media translator
US7158779B2 (en) * 2003-11-11 2007-01-02 Microsoft Corporation Sequential multimodal input
KR100735700B1 (ko) * 2005-06-03 2007-07-06 엘지전자 주식회사 방송용 단말기 및 이를 이용한 문자음성통화 방법
US20100030557A1 (en) * 2006-07-31 2010-02-04 Stephen Molloy Voice and text communication system, method and apparatus
US8060565B1 (en) 2007-01-31 2011-11-15 Avaya Inc. Voice and text session converter
RU2324296C1 (ru) * 2007-03-26 2008-05-10 Закрытое акционерное общество "Ай-Ти Мобайл" Способ обмена сообщениями и устройства для его реализации
CN101610465A (zh) * 2008-06-18 2009-12-23 朗讯科技公司 用于将文本信息转换为语音信息的通信方法及通信系统
US20090326939A1 (en) * 2008-06-25 2009-12-31 Embarq Holdings Company, Llc System and method for transcribing and displaying speech during a telephone call
US20120059651A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Mobile communication device for transcribing a multi-party conversation
JP5243646B2 (ja) * 2011-05-24 2013-07-24 株式会社エヌ・ティ・ティ・ドコモ サービスサーバ装置、サービス提供方法、サービス提供プログラム
US20130055099A1 (en) * 2011-08-22 2013-02-28 Rose Yao Unified Messaging System with Integration of Call Log Data
US9014358B2 (en) 2011-09-01 2015-04-21 Blackberry Limited Conferenced voice to text transcription
CN102447782A (zh) * 2011-10-21 2012-05-09 于梦媛 一种能够在通话中实时呈现通话内容的电话终端
US8886169B2 (en) * 2011-10-25 2014-11-11 At&T Intellectual Property I, Lp Apparatus and method for providing enhanced telephonic communications
CN102710539A (zh) * 2012-05-02 2012-10-03 中兴通讯股份有限公司 语音信息传送方法及装置
KR101954774B1 (ko) * 2012-08-16 2019-03-06 삼성전자주식회사 문자 데이터를 이용한 음성 통화를 제공하기 위한 전자 장치 및 방법
KR20140052796A (ko) * 2012-10-21 2014-05-07 에스케이플래닛 주식회사 메신저 제어 방법을 위한 기록 매체, 이를 위한 장치 및 시스템
CN109792486A (zh) 2016-09-29 2019-05-21 株式会社尼康 摄像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129174A (ja) * 2002-08-06 2004-04-22 Ricoh Co Ltd 情報通信装置、情報通信プログラム、及び記録媒体
JP2004194132A (ja) * 2002-12-13 2004-07-08 Hitachi Ltd 通信端末およびそれを用いたシステム
JP2008534999A (ja) * 2005-03-22 2008-08-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 音声−テキスト変換機能を有する無線通信装置
US20090048845A1 (en) * 2007-08-17 2009-02-19 Burckart Erik J Apparatus, system, and method for voice chat transcription
JP2011102862A (ja) * 2009-11-10 2011-05-26 Advanced Media Inc 音声認識結果管理装置および音声認識結果表示方法
JP2012257145A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 電子機器、その制御方法及び制御プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018007005A (ja) * 2016-07-01 2018-01-11 大都販売株式会社 携帯端末装置、管理装置、通信システム、通信装置、通信方法
KR20190021103A (ko) * 2017-08-22 2019-03-05 네이버 주식회사 통화 서비스 제공 방법 및 컴퓨터 프로그램
KR101968669B1 (ko) * 2017-08-22 2019-04-12 네이버 주식회사 통화 서비스 제공 방법 및 컴퓨터 프로그램
JP7037426B2 (ja) 2018-04-25 2022-03-16 京セラ株式会社 電子機器及び処理システム
WO2019207867A1 (ja) * 2018-04-25 2019-10-31 京セラ株式会社 電子機器及び処理システム
JP2019193121A (ja) * 2018-04-25 2019-10-31 京セラ株式会社 電子機器及び処理システム
US12008989B2 (en) 2018-04-25 2024-06-11 Kyocera Corporation Electronic apparatus and processing system
WO2020188885A1 (ja) * 2019-03-19 2020-09-24 Line株式会社 情報処理方法、プログラム、端末
JP2021119455A (ja) * 2019-03-19 2021-08-12 Line株式会社 情報処理方法、プログラム、端末
JP7057455B2 (ja) 2019-03-19 2022-04-19 Line株式会社 プログラム、情報処理方法、端末
JP2022097496A (ja) * 2019-03-19 2022-06-30 Line株式会社 プログラム、情報処理方法、端末
JP7307228B2 (ja) 2019-03-19 2023-07-11 Line株式会社 プログラム、情報処理方法、端末
JP2020154652A (ja) * 2019-03-19 2020-09-24 Line株式会社 プログラム、情報処理方法、端末

Also Published As

Publication number Publication date
JP6925458B2 (ja) 2021-08-25
MX2016015285A (es) 2017-03-03
CN110933238B (zh) 2022-02-08
JP2020065293A (ja) 2020-04-23
CN110875878B (zh) 2021-12-14
MX369624B (es) 2019-11-14
EP3793178A1 (en) 2021-03-17
RU2016150546A3 (ja) 2018-12-27
RU2016150546A (ru) 2018-06-25
CN110933238A (zh) 2020-03-27
EP3793178B1 (en) 2022-06-29
RU2692763C2 (ru) 2019-06-27
JP6688783B2 (ja) 2020-04-28
CN110875878A (zh) 2020-03-10
KR102225401B1 (ko) 2021-03-09
KR20150135134A (ko) 2015-12-02

Similar Documents

Publication Publication Date Title
AU2019202418B2 (en) System and method of providing voice-message call service
JP6925458B2 (ja) モバイルデバイス及び通話方法
JP6285615B2 (ja) リモートアシスタンス方法、クライアント、プログラム及び記録媒体
KR102345649B1 (ko) 휴대용 장치가 웨어러블 장치를 통하여 정보를 표시하는 방법 및 그 장치
WO2020006746A1 (zh) 识别下行传输的方法及装置
KR20180076830A (ko) 오디오 장치 및 그 제어방법
JP2018533088A (ja) メッセージのプッシュ方法、装置及び端末ディバイス
WO2015131490A1 (zh) 语音数据传输处理的方法、终端和计算机存储介质
CN107181855B (zh) 信息处理装置、信息处理方法和计算机可读存储介质
CN105430193A (zh) 来电音量的调整方法、装置及终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200406

R150 Certificate of patent or registration of utility model

Ref document number: 6688783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees