JP6198943B2 - 携帯端末の音声エモーティコン制御方法 - Google Patents

携帯端末の音声エモーティコン制御方法 Download PDF

Info

Publication number
JP6198943B2
JP6198943B2 JP2016518264A JP2016518264A JP6198943B2 JP 6198943 B2 JP6198943 B2 JP 6198943B2 JP 2016518264 A JP2016518264 A JP 2016518264A JP 2016518264 A JP2016518264 A JP 2016518264A JP 6198943 B2 JP6198943 B2 JP 6198943B2
Authority
JP
Japan
Prior art keywords
voice
emoticon
menu
user
portable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016518264A
Other languages
English (en)
Other versions
JP2016526358A (ja
Inventor
ジョウン,ヤン・ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Openvacs Co Ltd
Original Assignee
Openvacs Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Openvacs Co Ltd filed Critical Openvacs Co Ltd
Publication of JP2016526358A publication Critical patent/JP2016526358A/ja
Application granted granted Critical
Publication of JP6198943B2 publication Critical patent/JP6198943B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals

Description

本発明は、携帯端末の制御方法に係り、さらに詳しくは、通常のエモーティコンの代わりに、受信者携帯端末へカスタマイズされた音声が伝達されて再生されるようにする、携帯端末の音声エモーティコン制御方法に関する。
エモーティコン(emoticon)は、ユーザーの感情をテキストベースで表現することから始まり、イメージで表示することを経て、現在はフラッシュイメージまたは動画像の形でも表現することに至っている。このようなエモーティコンは、基本的には送信者と受信者とがテキストのやりとりを行う環境で、情報の伝達というよりは情報伝達者の感情の表現のために主に用いられている。
このようなエモーティコンはテキストや画像をベースとして生成されて受信者携帯端末に提供されているが、ユーザーの感情はイメージ化された画像の形でのみ表現されるのではなく、音声や音で表現される部分もある。これに対し、韓国公開特許第10−2005−0048035号は、発信側の移動端末から入力されるテキストを受信すると、受信されたテキストに対応する音声メッセージを受信者移動端末へ提供するエモサウンドサービス方法を提案している。図1は韓国公開特許第10−2005−0048035号の概念図である。図1を参照すると、韓国公開特許第10−2005−0048035号は、発信者移動端末とエモサウンドシステム(音声メッセージセンターや音声変換サーバーなど)と予め定められた文字列に対する音声信号とを受信者移動端末へ提供し、TTS(Text To Speech)機能により発声される音声が受信者移動端末へ提供されるので、発信者の感情や気持ちを表現するのには限界がある。
韓国公開特許第10−2005−0048035号公報
本発明の目的は、様々な音色と感情とを表現することが可能な音声エモーティコンを受信者携帯端末に提供し、受信者携帯端末でこれを再生するようにすることにより、テキストやイメージベースのエモーティコンを、ユーザーの感情や気持ちに応じて区分される音声ベースのエモーティコンで代替して提供する、携帯端末の音声エモーティコン制御方法を提供することにある。
上記目的を達成するための本発明は、タッチスクリーンの一領域に音声エモーティコンメニューの呼び出しのための音声エモーティコン呼び出しメニューを表示する工程、前記音声エモーティコン呼び出しメニューがユーザーによって選択されると、音声エモーティコンリストを備える音声エモーティコンメニューを表示する工程、および前記音声エモーティコンリストからユーザーによって選択された音声エモーティコンをユーザーの音声の代わりに受信者携帯端末へ伝送する工程、を有する携帯端末の音声エモーティコン制御方法を提供する。
本発明によれば、テキストベースのエモーティコンの代わりに、ユーザーの感情や気持ちに応じた様々な音声を受信者携帯端末へ提供してそれが再生されるようにすることができ、これにより、既存のTTSベースの単調で乾いた音声に比べて豊かな感情を表現することができる。
韓国公開特許第10−2005−0048035号を示す概念図である。 本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示す概略概念図である。 ボイストークメニューの一例を示す参照図である。 図3に示した音声エモーティコンメニューに対するサブメニューの一例を示す参照図で、図4〜図8を一緒に参照して説明される。 図3に示した音声エモーティコンメニューに対するサブメニューの一例を示す参照図で、図4〜図8を一緒に参照して説明される。 図3に示した音声エモーティコンメニューに対するサブメニューの一例を示す参照図で、図4〜図8を一緒に参照して説明される。 本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示すフローチャートである。 本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示すフローチャートである。 本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示すフローチャートである。 本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示すフローチャートである。
本明細書で言及される携帯端末は、音声通信およびデータ通信が可能で且つタッチスクリーンを備える装置を意味する。現在、このような装置として、モバイルフォン(Mobile Phone)、スマートフォン(Smart Phone)、ノートブック、タブレット(Tablet)およびPDA(Personal Digital Assistant)などの装置があるが、この他にも、音声通信およびデータ通信が可能で且つタッチスクリーンを備える装置であれば、携帯端末と称することが可能である。
本明細書では、携帯端末を発信者携帯端末と受信者携帯端末とに区分して記載する。しかし、発信者携帯端末と受信者携帯端末とはどちらから音声エモーティコンを伝送するかによる区分であるに過ぎず、発信者携帯端末と受信者携帯端末との役割は入れ替えてもよい。
よって、本明細書において、発信者携帯端末が行う動作および役割について記載された事項は、受信者携帯端末が発信者携帯端末へボイストークファイルまたは音声エモーティコンを伝送、生成または編集するとき、同様に適用される過程に対応する。よって、動作主体については主に発信者携帯端末を中心として記載し、受信者携帯端末については別途説明しない。
本明細書で言及されるアプリ(App)は、携帯端末にインストールされて起動されるプログラムであって、通常、スマートフォンにインストールされるものを意味する。
本明細書の携帯端末のボイストーク制御方法は、携帯端末にインストールされるアプリ、携帯端末にインストールされるシステムプログラム、あるいはパーソナルコンピュータなどの端末にインストールされるプログラムによって行われ得る。さらに、同じソフトウェア開発キット(SDK:Software Development Kit)から提供されるプログラムモジュールを含む異種のコミュニケーションプログラムによってもボイストークファイルの相互送受信および再生が可能である。本明細書では携帯端末にインストールされるアプリを利用して音声エモーティコンを制御する方法を中心に記載しているが、必ずしもアプリによってのみ実現されるのではなく、本発明はアプリに限定されないことを予め明らかにしておく。
以下、添付図面を参照して本発明を詳細に説明する。
図2は本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示す概略概念図である。
図2を参照すると、実施形態に係る携帯端末の音声エモーティコン制御方法(以下、「エモーティコン制御方法」という。)では、発信者携帯端末100に登録された音声エモーティコンのうち、ユーザーによって選択された音声エモーティコンに対応する選択コードがボイストークサーバー200へ伝送されると、ボイストークサーバー200は、選択コードに対応する音声エモーティコンを受信者携帯端末50へ伝送し、受信者携帯端末50で音声エモーティコンを受信および再生することにより、発信者携帯端末100で選択された音声エモーティコンを受信者携帯端末50で聴取することができる。
ここで、ボイストークサーバー200は、発信者携帯端末100と受信者携帯端末50との間でテキストまたは音声形式のメッセージをやりとりすることができるようにするサービスサーバーで対応できる。ボイストークサーバー200は、ファイル形式の音声エモーティコンを備えることができるが、備えられる音声エモーティコンのリストは発信者携帯端末100へ提供される。発信者携帯端末100はリストから希望の音声エモーティコンを選択することができる。発信者携帯端末100でユーザーによって選択された音声エモーティコンに対する選択コードは発信者携帯端末100に保存できる。すなわち、ファイル形式の音声エモーティコンはボイストークサーバー200にのみ設けられ、発信者携帯端末100にはファイル形式の音声エモーティコンを選択するための選択コードが保存できる。
一方、本発明に係る音声エモーティコンは、音声エモーティコン単独でのみ利用されるのではなく、発信者携帯端末100と受信者携帯端末50とが互いにテキスト形式のメッセージをやりとりするとき、または発信者携帯端末100と受信者携帯端末50とがボイストークファイルをやりとりするときに一緒に利用できる。
ここで、ボイストークファイルは、通常の携帯端末で利用される音声メッセージとはその概念上において違いがある。本発明で言及されるボイストークファイルは、発信者携帯端末100と受信者携帯端末50とが互いにファイル単位で形成して送受信するファイル単位の音声メッセージである。このときの音声メッセージをボイストークファイルという。
例えば、本発明におけるボイストークファイルは、発信者携帯端末100から受信者携帯端末50へ伝送されるとき、発信者の実際の音声に対する音声ファイルである。発信者携帯端末100と受信者携帯端末50とは互いにボイストークファイルをやりとりすることができるが、ファイル単位で伝送される音声メッセージをやりとりするために、ウォーキートーキー(walkie−talkie)のように発信者携帯端末100と受信者携帯端末50とが交互にボイストークファイルを相手の携帯端末へ伝送するようにすることができる。
このとき、音声エモーティコンを、発信者携帯端末100から受信者携帯端末50へボイストークファイルを伝送し難い環境で利用されるか、或いは発信者携帯端末100のユーザーが自分の感情表現のために特別な音色を持つ別途の音声メッセージを受信者携帯端末50へ提供することに利用することができる。
例えば、発信者携帯端末100と受信者携帯端末50とのユーザーのいずれか一方が会議中であるか、周辺の雰囲気が静かな環境に位置するか、或いはその他に音声ベースの対話が不便となる場合、発信者は自分の感情や気持ちを生かす音声を受信者携帯端末50に伝達し難くなる。音声エモーティコンは、発信者が発信者携帯端末100で音声エモーティコンを選択して受信者携帯端末50へ伝送することができるので、発信者が音声ベースの対話のために発声しないこととなる。また、受信者携帯端末50へ伝送されるボイストークファイルとは別個に、様々な種類の音声エモーティコンを自分の音声の代わりに受信者携帯端末50へ提供することができる。例えば、音声エモーティコンは、
1)俳優、声優、およびその他の芸能人の音声を用いて生成したり、
2)音声変調を介してボススタイル、ギャングスタイル、会社員スタイル、およびその他の様々な職業スタイルに合わせて音声を生成したり、
3)音声変調によらず、芸能人や声優の音声を用いて特定の職業スタイルに合わせて生成したり、
4)発信者携帯端末100のユーザーが自分の音声または周辺人の音声を用いて生成したりすることができる。
このように様々な方法によって音声エモーティコンが生成できるが、生成された音声エモーティコンはボイストークサーバー200に登録および保存できる。勿論、音声エモーティコンが芸能人や声優の音声である場合、個人が直接芸能人や声優の音声を盛り込んだ音声エモーティコンを合法的に求め難いことはある。
ボイストークサーバー200は、発信者携帯端末100または受信者携帯端末50に芸能人や声優の音声を用いた音声エモーティコンを提供することができる。このとき、芸能人や声優の音声を用いる費用を、発信者携帯端末100または受信者携帯端末50に課金することもできる。課金は芸能人や声優の音声をボイストークサーバー200から毎回ダウンロードするたびに、例えば、芸能人や声優の音声が発信者携帯端末100の要求により受信者端末50へ提供されるたびに、発信者携帯端末100に課金できる。
実施形態に係る携帯端末の音声エモーティコン制御方法は、ボイストークサービスに基づいて処理できる。前述したように、音声エモーティコンは、発信者携帯端末100と受信者携帯端末50とが互いにボイストークファイルをやりとりする環境、またはテキストベースのメッセージをやりとりする環境で一緒に利用できる。この場合、発信者携帯端末100と受信者携帯端末50はボイストークファイルを用いて音声メッセージを送受信するためのボイストークメニューを起動する必要がある。
ボイストークメニューについては図3を参照して説明する。
図3はボイストークメニューの一例を示す参照図である。
図3を参照すると、実施形態に係るボイストークメニューは、音声入力領域120、スピーカーオン/オフメニュー130、リアルタイム再生メニュー140、モード切替メニュー150、ボイスメールメニュー160およびポップアップメニュー170を有して構成できる。
声入力領域120は、タッチスクリーン110で最も多くの面積を占めるメニューであって、タッチスクリーン110のタッチ領域の1/2ないし3/4に達してもよい。あるいは、一部のメニューに対するアイコンをタッチスクリーン110の一側に羅列し、ほとんどのタッチ領域を音声入力領域120として形成することもできる。他方で、音声入力領域120は、タッチスクリーン110のタッチ領域全体に対して設定され、発信者携帯端末100に設けられるボタンキー(図示せず)を用いて、ボイストークサービスに関連するメニューをタッチスクリーン110に表示することもできる。ここで、ボタンキーは、メニューキー、ホームキーおよびエンドキーに対応できるが、携帯端末の機種によっては一つまたは二つだけ備えることや備え無いこともある。この場合、携帯端末に設けられる、画像が表現できないキーのいずれか一つをボタンキーとして活用することができる。但し、これに限定されない。
アプリAppは、音声入力領域120にタッチ入力が発生したときにユーザーの音声を録音し、ユーザーがタッチオフしたときにユーザーの音声録音を終了することができる。
一方、アプリAppは、音声入力領域120においてユーザーの最初のタッチ位置121からA方向にドラッグ(Drag)入力が発生した場合、ボイストークファイルの生成を中断することができる。A領域またはA領域と180度反対の方向にドラッグ入力が発生した場合、アプリは、音声入力領域120がタッチ状態であってもボイストークファイルを生成しないことができる。
参照符号「130」は、スピーカーオン/オフメニューであって、受信者携帯端末50でボイストークファイルを再生する際に、受信者携帯端末50に設けられるスピーカー(図示せず)や受信者携帯端末50に接続されるイヤホン(またはヘッドホン)での再生か否かを設定することができる。
参照符号「140」は、発信者携帯端末100から受信者携帯端末50へ伝送されたボイストークファイルが受信者携帯端末50で自動的にリアルタイム再生されるようにする自動再生メニューに対応する。
ここで、受信者携帯端末50は、アプリが起動状態にある場合、発信者携帯端末100から伝送されるボイストークファイルをリアルタイムで再生することができる。これに対し、受信者携帯端末50にインストールされたアプリが起動状態ではない場合、受信者携帯端末50にボイストークファイルが受信されると、受信者携帯端末50には、ボイストークファイルの受信をユーザーに通知するためのアラームメッセージが表示できる。この場合、受信者携帯端末50のユーザーは、タッチスクリーン110に表示されるアラームメッセージをタッチして選択および確認し、別の再生プログラムを利用してボイストークファイルを再生しなければならない。すなわち、この場合、受信者携帯端末50は、ボイストークの受信および再生のみが可能であり、受信者携帯端末50から発信者携帯端末100へボイストークファイルを伝送するためにはボイストークファイルの送受信のためのアプリを起動しなければならない。このとき、受信者携帯端末50に伝送されるアラームメッセージはボイストークサーバー200から提供するプッシュメッセージであってもよい。
参照符号「150」はボイストークモードとテキストメッセージモードとを互いに切り替えるためのモード切替メニューであり、参照符号「151」、「152」はそれぞれボイストークモードとテキストメッセージモードとに対応するアイコンを示す。
参照符号「160」は、ボイスメールメニューであって、発信者携帯端末100と受信者携帯端末50とが互いにやりとりしたボイストークファイルを表示する。ボイスメールメニューは、発信者携帯端末100または受信者携帯端末50に登録され、発信者携帯端末100または受信者携帯端末50でユーザーによって呼び出されて再生できる。
参照符号「170」は、ポップアップメニューであって、ユーザーによってタッチされると、ボイストークで対話すべき受信者グループを設定するための受信者グループ設定メニューをタッチスクリーン110に表示できる。
参照符号「180」は、音声エモーティコン呼び出しメニューであって、発信者携帯端末100で図3のボイストークメニューが起動される環境で利用できる。
音声エモーティコン呼び出しメニュー179は、ボイストークメニューを利用して、発信者携帯端末100が受信者携帯端末50へボイストークファイルを伝送する場合、発信者携帯端末100のユーザーが自分の現在の音声の代わりに受信者携帯端末50へ音声エモーティコンを発送するために設けられる。
音声エモーティコンは、発信者携帯端末100のユーザーが自分の音声を録音してボイストークサーバー200に登録しておいたもの、他人の音声を録音してボイストークサーバー200に登録しておいたもの、自分または他人の音声を変調してボイストークサーバー200に登録しておいたもの、或いは本出願人が提供するボイストークサーバー200に芸能人や声優の音声を用いて登録しておいたものを、発信者携帯端末100が登録しておいたものとすることができる。このとき、発信者携帯端末100には音声エモーティコンを呼び出すための選択コードのみが保存され、ファイル形式を持つ実際の音声エモーティコンはボイストークサーバー200に登録できる。
図4〜図6は図3に示した音声エモーティコンメニューおよびそれに対するサブメニューの一例を示す参照図である。以下、図4〜図6を一緒に参照して説明する。
まず、図4は、図3に示した音声エモーティコン呼び出しメニュー179がユーザーによって選択されるときに表示される音声エモーティコンメニュー180を示すもので、検索メニュー181、再生メニュー182、お気に入り登録メニュー183、伝送メニュー184、お気に入りメニュー186、編集メニュー185および作成メニュー187を有して構成できる。
図示した音声エモーティコンメニュー180の中でも、検索メニュー181は、ボイストークサーバー200に登録された音声エモーティコンの検索のために設けることができる。音声エモーティコンは、図4に示すようにタグ(Tag)情報が付加されるテキストで表現できる。例えば、図4において、音声エモーティコンは「腹が立つ〜アングリーバードレッド!!」、「まんまくぉうて(方言バージョン)」、「オオ〜必勝コリア」のようにテキスト形式で表現できる。テキスト形式で表現される音声エモーティコンは、再生メニュー182、お気に入り登録メニュー183および伝送メニュー184がそれぞれ付加できるが、発信者携帯端末100のユーザーは、受信者携帯端末50に伝送しようとする音声エモーティコンを選択し、選択した音声エモーティコンに隣り合って配置される伝送メニュー184をタッチすることで、受信者携帯端末50へ音声エモーティコンを伝送することができる。
また、発信者携帯端末100のユーザーが音声エモーティコンの中でも頻繁に使用するものをお気に入りとして登録しようとする場合、ユーザーは、テキスト形式で表現された音声エモーティコンのうち所望する音声エモーティコンをお気に入りメニュー186に登録することができる。お気に入りメニュー186には音声エモーティコンに対する選択コードが登録できる。
図4にはお気に入りメニュー186に登録された音声エモーティコンとして「まんまくぉうて(方言バージョン)」が例示されている。
作成メニュー187は、発信者携帯端末100のユーザーが自分または他人の音声を録音して音声エモーティコンを生成するために設けられる。もし発信者携帯端末100のユーザーが作成メニュー187をタッチして選択すると、音声の録音および登録のための登録インターフェースをタッチスクリーン110に表示できる。タッチスクリーン100に表示される登録インターフェースについては図5を参照して説明する。
図5はユーザーによって定義される音声の録音および登録のための登録インターフェースの一例を示す参照図である。
図5を参照すると、図示した登録インターフェースは、題目入力メニュー187−2、ファイル登録メニュー187−3、録音メニュー187−4、およびタグ情報入力メニュー187−5を含んで構成できる。題目入力メニュー187−2は、音声エモーティコン項目において表示されるテキストを記入するメニューであって、図面には「腹立つ(アングリーバード)バクソンホ」のように発信者携帯端末100のユーザー自身が理解および検索しやすい題目を付与することができる。ファイル登録メニュー187−3は、発信者携帯端末100で生成された音声ファイルをボイストークサーバー200に登録するために設けることができる。
発信者携帯端末100には、多数の音声ファイルや音楽ファイルに対する選択コードが保存できる。選択コードは、ボイストークサーバー200に登録されている音声エモーティコンに対応するコードを意味するもので、数字、文字または特殊文字の組み合わせから実現されてもよく、ASCII値またはバイナリ値から実現されてもよい。但し、本発明は、音声エモーティコンが発信者携帯端末100または受信者携帯端末50にファイル形式で存在しないようにして、発信者携帯端末100または受信者携帯端末50の保存空間を消耗しないようにし、ファイル形式の音声エモーティコンがボイストークサーバー200に保存されるようにし、ボイストークサーバー200に保存された音声エモーティコンの選択に選択コードが利用されるようにすることにその特徴がある。
録音メニュー187−4は、発信者携帯端末100のユーザーが自分の音声または周辺にある他人の声を録音するために設けられる。録音メニュー187−4によって録音された音声はボイストークサーバー200に伝送でき、ボイストークサーバー200にファイル形式で登録され、登録の後に選択コードが発信者携帯端末100へ提供できる。
タグ情報入力メニュー187−5は、発信者携帯端末100のユーザーが音声エモーティコンの照会および検索の便宜性のために音声エモーティコンに付加するタグ情報の入力に利用される。タグ情報は、音声エモーティコンに付与される題目に含まれる単語が用いられるか、あるいはユーザーの所望するカテゴリー名が付与される。ここで、カテゴリーは食事、休み、代理応答などの形式で付与できる。
次に、図6は図5に示した録音メニュー187−4がユーザーによって選択されたとき、タッチスクリーン110に表示されるインターフェースの一例を示す参照図である。
図6を参照すると、録音メニュー187−4がユーザーによって選択されたとき、タッチスクリーン110には、図6の(a)に示すように、録音ボタン187−10を含むインターフェースを表示できる。発信者携帯端末100のユーザーにより録音ボタン187−10がタッチ入力を加えて選択されると、図6の(b)に示すように、発信者携帯端末100にインストールされるアプリAppがユーザーの音声またはユーザーの周辺に位置する他の音声に対して録音を開始することができる。このとき、録音メニュー187−10は停止メニュー187−11に変換できる。次に、発信者携帯端末100のユーザーは、停止メニュー187−11を選択して音声録音を終了することができるが、このときのインターフェースは図6の(c)に示すように表現できる。ここで、録音された音声に対して試聴メニュー187−12を選択して、録音された音声が正常に録音されたかを確認することができる。この時、図6の(c)で試聴メニュー187−12を選択すると、図6の(d)に示すように、試聴メニュー187−12は停止メニュー187−14に変換できる。一方、発信者携帯端末100のユーザーが音声を録音する途中で、録音される音声が気に入らない場合には、図6の(c)に設けられる再録音メニュー187−13を選択することができ、再録音メニュー187−13がユーザーによって選択されると、図6の(a)のようなインターフェースがタッチスクリーン110に表示できる。
図7〜図10は本発明の一実施形態に係る携帯端末の音声エモーティコン制御方法を示すフローチャートである。
まず、図7を参照すると、発信者携帯端末100のユーザーは、アプリを起動して(S301)ボイストークメニューをタッチスクリーンに表示することができる。
タッチスクリーン110に表示されるボイストークメニューは、図3で説明したように、音声入力領域120、スピーカーオン/オフメニュー130、リアルタイム再生メニュー140、モード切替メニュー150、ボイスメールメニュー160およびポップアップメニュー170を含んで構成できる。
これらのメニューの中でも、音声入力領域120は、発信者携帯端末100のユーザーがタッチオンするときからタッチオフするときまでの時間の間、発信者携帯端末100のユーザーの音声を録音するようにする録音開始時点および録音終了時点の設定に利用できる。音声入力領域120を利用して、発信者携帯端末100から受信者携帯端末50へボイストークファイルを伝送し、受信者携帯端末50から伝送されたボイストークファイルに応答してボイストークファイルを発信者携帯端末100へ伝送する方式、すなわち、発信者携帯端末100と受信者携帯端末50とが交互にボイストークファイルをやりとりしながら音声対話を実現することができる。このとき、発信者携帯端末100や受信者携帯端末50は、音声エモーティコン呼び出しメニュー179を選択して、発信者携帯端末100や受信者携帯端末50のユーザーが音声を発声しなくても、ボイストークファイルを送ったかの如く音声を送受信することができる。
次に、発信者携帯端末100にインストールされるアプリは、音声エモーティコン呼び出しメニュー179がユーザーによって選択されるか否かを判断し(S302)、判断の結果、音声エモーティコン呼び出しメニュー179がユーザーによって選択されると、図4に示したような音声エモーティコンメニュー180のインターフェースをタッチスクリーン110に表示する(S303)。
図8は音声エモーティコンを照会して受信者携帯端末に伝送または再生する方法を示すフローチャートである。図8についての説明は図7についての説明に続くものである。
まず、アプリは音声エモーティコンメニュー180に対するインターフェースをタッチスクリーン110に表示し(S305)、タッチスクリーン110に表示された音声エモーティコンメニュー180に対するインターフェースにユーザーによって選択された音声エモーティコンが存在するか否かを判断することができる(S306)。
判断の結果、音声エモーティコンメニュー180にユーザーによって選択された音声エモーティコンが存在する場合、アプリはユーザーによって選択された音声エモーティコンに対してユーザーコマンドが発生するか否かを判断することができる。このとき、アプリはユーザーによって選択された音声エモーティコンに対して伝送コマンドが発生するか否かを判断することができる(S307)。判断の結果、ユーザーによって選択された音声エモーティコンが受信者携帯端末50へ伝送するユーザーコマンドが発生する場合、アプリはユーザーによって選択された音声エモーティコンに対する選択コードをボイストークサーバー200へ伝送し(S308)、ボイストークサーバー200はアプリから伝送する選択コードに対応する音声エモーティコンを、アプリで設定する連絡先に基づく受信者携帯端末50へ伝送することができる(S309)。これに対し、ユーザーコマンドが受信者携帯端末50へ音声エモーティコンを伝送するコマンドではなく、再生関連コマンドと判断される場合(S310)、アプリはユーザーによって選択された音声エモーティコンに対する選択コードをボイストークサーバー200へ伝送し、ボイストークサーバー200から選択コードに対応する音声エモーティコンをダウンロードした後、再生することができる(S311)。最後に、アプリはユーザーによって選択されたエモーティコンに対して再生コマンドが発生しない場合、ユーザーによって選択される他のメニューを起動することができる(S312)。
次に、図9はアプリによって音声エモーティコンがお気に入りに登録される方法の一例を示すフローチャートである。図9についての説明は図7についての説明に続くものである。
まず、アプリは音声エモーティコン呼び出しメニュー179に対するインターフェースを表示するタッチスクリーンからお気に入りメニュー186が選択されるか否かを判断することができる(S314)。お気に入りメニュー186は、図4について図示および説明されたように、ユーザーの所望する音声エモーティコンを別途集めておくために設けられるものである。ユーザーは、お気に入りメニュー186を介して音声エモーティコンメニュー180にリストアップされた音声エモーティコンの中から少なくとも一つを選択して登録することができる。このとき、ユーザーによって選択された音声エモーティコンはボイストークサーバー200から携帯端末50または100にダウンロードされるのではなく、ボイストークサーバー200に登録された音声エモーティコンと対応する選択コードがお気に入りに登録される(S315)。
すなわち、お気に入りメニュー186に登録されるものは選択コードおよびタグ(Tag)情報に対応することができ、タグ(Tag)情報はアプリのユーザーが任意に設定して記入することができる。もしお気に入りメニュー186がユーザーによって選択されない場合、アプリはユーザーによって選択された他のメニューの機能を行うことができる(S316)。
図10はユーザーの音声を音声エモーティコンとして登録する方法の一例を示すフローチャートである。図10についての説明は図7についての説明に続くものである。
図10を参照すると、まず、アプリは音声エモーティコンメニュー180に対するインターフェースを表示するタッチスクリーン110から作成メニュー187が選択されるか否かを判断することができる(S320)。判断の結果、作成メニュー187がユーザーによって選択されない場合、アプリはユーザーによって選択された他のメニューの機能を行うことができる(S323)。これに対し、作成メニュー187がユーザーによって選択される場合、アプリはユーザーの音声の録音を開始することができる。このとき、ユーザーの音声の録音は録音メニュー187−4を選択して行うことができる(図5参照)。
作成メニュー187を介して携帯端末50、100のユーザーが自分の音声を録音してボイストークサーバー200に音声エモーティコンとして登録するためのメニューを表示し、作成メニュー187がタッチスクリーン110からタッチされてユーザーによって選択されると、アプリは作成メニュー187によって録音されたユーザーの音声を再生して(S321)、ユーザーが聴取できるようにする。携帯端末50、100のユーザーが再生された音声を聴取した後、音声エモーティコンとして登録しようとすると、アプリはタグ(Tag)情報の入力のためのインターフェース(図5参照)をタッチスクリーン110に表示し、携帯端末50、100のユーザーからタグ情報の入力を受けることができる(S322)。タグ情報の入力が完了すると、アプリはボイストークサーバー200へ録音されたユーザーの音声に対する音声ファイルを送付し、ボイストークサーバー200は携帯端末50、100から送付された音声ファイルを音声エモーティコンとして登録し(S324)、登録された音声エモーティコンに対する選択コードを携帯端末50、100へ送付することができる。

Claims (12)

  1. タッチスクリーンの一領域に音声エモーティコンメニューの呼び出しのための音声エモーティコン呼び出しメニューを表示する工程と、
    前記音声エモーティコン呼び出しメニューがユーザーによって選択されると、音声エモーティコンリストを備える音声エモーティコンメニューを表示する工程と、
    ファイル形式の前記音声エモーティコンを保存するサーバーに前記音声エモーティコンを受信者携帯端末へ伝送させるため、前記音声エモーティコンリストからユーザーによって選択された音声エモーティコンに対応する選択コードをユーザーの音声の代わりに前記サーバーへ伝送する工程と、を有することを特徴とする、携帯端末の音声エモーティコン制御方法。
  2. 前記音声エモーティコンメニューは、
    前記音声エモーティコンのタグ(Tag)情報が付与された少なくとも一つの音声エモーティコン項目から構成されることを特徴とする、請求項1に記載の携帯端末の音声エモーティコン制御方法。
  3. 前記音声エモーティコン項目は、
    再生メニュー、お気に入り登録メニュー、および前記受信者携帯端末へ伝送するための伝送メニューを含むことを特徴とする、請求項2に記載の携帯端末の音声エモーティコン制御方法。
  4. 前記音声エモーティコン項目は、
    前記音声エモーティコンメニューからユーザーによって選択された回数の順に前記タッチスクリーンに順次表示されることを特徴とする、請求項2に記載の携帯端末の音声エモーティコン制御方法。
  5. 前記音声エモーティコンメニューは、
    前記音声エモーティコンを登録するためのお気に入りメニューをさらに含むことを特徴とする、請求項1に記載の携帯端末の音声エモーティコン制御方法。
  6. 前記お気に入りメニューは、
    ユーザーによって登録された音声エモーティコンに対する試聴メニューをさらに含むことを特徴とする、請求項5に記載の携帯端末の音声エモーティコン制御方法。
  7. 前記音声エモーティコンメニューは、
    ユーザーによって定義される音声エモーティコン登録メニューをさらに含むことを特徴とする、請求項1に記載の携帯端末の音声エモーティコン制御方法。
  8. 前記音声エモーティコンリストは、
    ユーザーによって定義される音声エモーティコンの登録のための音声エモーティコン登録メニューを含むことを特徴とする、請求項1に記載の携帯端末の音声エモーティコン制御方法。
  9. 前記音声エモーティコン登録メニューは、
    前記タッチスクリーンに対するタッチオン状態のときにユーザーの音声に対するボイストークファイルを生成するボイストークメニューを呼び出して前記タッチスクリーンに表示することを特徴とする、請求項8に記載の携帯端末の音声エモーティコン制御方法。
  10. 前記ボイストークメニューは、
    前記タッチスクリーンのタッチ領域の1/2ないし全体に対応する音声入力領域を前記タッチスクリーンに表示し、
    前記音声入力領域がユーザーによってタッチされるときにユーザーの音声に対するボイストークファイルを生成するメニューであることを特徴とする、請求項9に記載の携帯端末の音声エモーティコン制御方法。
  11. 前記ボイストークメニューは、
    前記音声入力領域に対するタッチオン時からタッチオフ時まで生成されたボイストークファイルを前記音声エモーティコンとして登録することを特徴とする、請求項10に記載の携帯端末の音声エモーティコン制御方法。
  12. 前記音声エモーティコンは、
    ユーザーの音声、他人の音声、および前記ユーザーと他人の音声に対する変調音声のうちの少なくとも一つに対して録音された音声ファイルであることを特徴とする、請求項1に記載の携帯端末の音声エモーティコン制御方法。
JP2016518264A 2013-06-07 2014-06-03 携帯端末の音声エモーティコン制御方法 Expired - Fee Related JP6198943B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0065437 2013-06-07
KR1020130065437A KR101419764B1 (ko) 2013-06-07 2013-06-07 휴대단말기의 음성 이모티콘 제어방법
PCT/KR2014/004942 WO2014196790A1 (ko) 2013-06-07 2014-06-03 휴대단말기의 음성 이모티콘 제어방법

Publications (2)

Publication Number Publication Date
JP2016526358A JP2016526358A (ja) 2016-09-01
JP6198943B2 true JP6198943B2 (ja) 2017-09-20

Family

ID=51742226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016518264A Expired - Fee Related JP6198943B2 (ja) 2013-06-07 2014-06-03 携帯端末の音声エモーティコン制御方法

Country Status (5)

Country Link
US (1) US10089069B2 (ja)
JP (1) JP6198943B2 (ja)
KR (1) KR101419764B1 (ja)
CN (1) CN105264872B (ja)
WO (1) WO2014196790A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101419764B1 (ko) * 2013-06-07 2014-07-17 정영민 휴대단말기의 음성 이모티콘 제어방법
KR20160090584A (ko) * 2015-01-22 2016-08-01 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN104850335B (zh) * 2015-05-28 2018-01-23 瞬联软件科技(北京)有限公司 基于语音输入的表情曲线生成方法
US20180074661A1 (en) * 2016-09-14 2018-03-15 GM Global Technology Operations LLC Preferred emoji identification and generation
US11321890B2 (en) * 2016-11-09 2022-05-03 Microsoft Technology Licensing, Llc User interface for generating expressive content
CN106789581A (zh) * 2016-12-23 2017-05-31 广州酷狗计算机科技有限公司 即时通讯方法、装置及系统
CN107450746A (zh) * 2017-08-18 2017-12-08 联想(北京)有限公司 一种表情符号的插入方法、装置和电子设备
CN107479723B (zh) * 2017-08-18 2021-01-15 联想(北京)有限公司 一种表情符号的插入方法、装置和电子设备
KR102638783B1 (ko) * 2018-10-17 2024-02-22 삼성전자주식회사 폴딩 각도에 따라 어플리케이션을 제어하기 위한 전자 장치 및 그에 관한 방법
CN110187862A (zh) * 2019-05-29 2019-08-30 北京达佳互联信息技术有限公司 语音消息显示方法、装置、终端及存储介质

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125908A (ja) * 1999-10-26 2001-05-11 Sony Corp 入力装置および方法
US20030144903A1 (en) * 2001-11-29 2003-07-31 Brechner Irvin W. Systems and methods for disseminating information
JP2004023367A (ja) * 2002-06-14 2004-01-22 Sony Ericsson Mobilecommunications Japan Inc 通信装置及び通信システム
US6845324B2 (en) * 2003-03-01 2005-01-18 User-Centric Enterprises, Inc. Rotating map and user-centric weather prediction
JP4222139B2 (ja) * 2003-07-24 2009-02-12 日本電気株式会社 電話装置、電話装置の通信方法、電話装置の制御プログラム
US7379875B2 (en) * 2003-10-24 2008-05-27 Microsoft Corporation Systems and methods for generating audio thumbnails
KR100595390B1 (ko) 2003-11-18 2006-06-30 주식회사 케이티프리텔 이모사운드 서비스 제공 방법 및 시스템
US7817784B2 (en) * 2003-12-23 2010-10-19 Apptera, Inc. System for managing voice files of a voice prompt server
US20060046701A1 (en) * 2004-08-27 2006-03-02 Nokia Corporation Method and mobile communication terminal for answering silently a call
CN1735240A (zh) * 2004-10-29 2006-02-15 康佳集团股份有限公司 一种手机短消息中表情符号及语音的实现方法
KR100678206B1 (ko) * 2005-07-22 2007-02-02 삼성전자주식회사 휴대단말기의 화상통화모드에서 감정표시 방법
US7814513B2 (en) * 2006-09-06 2010-10-12 Yahoo! Inc. Video channel creation systems and methods
US8381249B2 (en) * 2006-10-06 2013-02-19 United Video Properties, Inc. Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
US8832742B2 (en) * 2006-10-06 2014-09-09 United Video Properties, Inc. Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
US20080147558A1 (en) * 2006-10-24 2008-06-19 Robert Korbin Kraus Method and system for providing prospective licensees and/or purchasers with access to licensable media content
US20080103906A1 (en) * 2006-10-26 2008-05-01 Gurvinder Singh Online publishing of multimedia content
US20090083260A1 (en) * 2007-09-21 2009-03-26 Your Truman Show, Inc. System and Method for Providing Community Network Based Video Searching and Correlation
JP4630909B2 (ja) * 2008-03-11 2011-02-09 京セラ株式会社 携帯通信端末
WO2009117645A2 (en) * 2008-03-20 2009-09-24 Verna Anthony F Talking replay
KR101495168B1 (ko) * 2008-07-04 2015-02-24 엘지전자 주식회사 이동 단말기 및 그의 파일 전송방법
US20100115596A1 (en) * 2008-10-31 2010-05-06 Motorola, Inc. Method and System for Creating and Sharing Bookmarks of Media Content
US9215419B2 (en) * 2008-12-31 2015-12-15 Centurylink Intellectual Property Llc System and method for set-top box recording
US20110035264A1 (en) * 2009-08-04 2011-02-10 Zaloom George B System for collectable medium
US20120017150A1 (en) * 2010-07-15 2012-01-19 MySongToYou, Inc. Creating and disseminating of user generated media over a network
US8903525B2 (en) * 2010-09-28 2014-12-02 Sony Corporation Sound processing device, sound data selecting method and sound data selecting program
US8953928B2 (en) * 2010-12-21 2015-02-10 Google Technology Holdings LLC Bookmarks in recorded video
JP5005103B1 (ja) * 2011-06-24 2012-08-22 一矢 野中 通話システム
US20130018960A1 (en) * 2011-07-14 2013-01-17 Surfari Inc. Group Interaction around Common Online Content
KR101310274B1 (ko) * 2011-09-01 2013-09-24 주식회사 다음커뮤니케이션 메신저 서비스를 제공하는 방법 및 그 서버
KR101344288B1 (ko) * 2011-10-28 2013-12-23 주식회사 네오위즈인터넷 채팅 프로그램의 이뮤지콘 제공 시스템 및 방법
CN102750365B (zh) * 2012-06-14 2014-09-03 华为软件技术有限公司 即时语音消息的检索方法和系统,以及用户设备和服务器
US9830644B2 (en) * 2012-07-16 2017-11-28 Cat Scale Company Weigh scale certification system and associated method
CN102780646B (zh) * 2012-07-19 2015-12-09 上海量明科技发展有限公司 即时通信中声音图标的实现方法、客户端及系统
US10102224B2 (en) * 2013-04-25 2018-10-16 Trent R. McKenzie Interactive music feedback system
KR101419764B1 (ko) * 2013-06-07 2014-07-17 정영민 휴대단말기의 음성 이모티콘 제어방법
US10180776B2 (en) * 2013-10-01 2019-01-15 Ambient Consulting, LLC Image grouping with audio commentaries system and method
KR20150126196A (ko) * 2014-05-02 2015-11-11 삼성전자주식회사 사용자 감성 활동 기반 데이터 처리 장치 및 방법
DE202015006066U1 (de) * 2014-09-02 2015-12-14 Apple Inc. Kleinere Schnittstellen zur Handhabung von Benachrichtigungen
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN104935980B (zh) * 2015-05-04 2019-03-15 腾讯科技(北京)有限公司 互动信息处理方法、客户端及服务平台

Also Published As

Publication number Publication date
KR101419764B1 (ko) 2014-07-17
CN105264872A (zh) 2016-01-20
US20160132292A1 (en) 2016-05-12
US10089069B2 (en) 2018-10-02
WO2014196790A1 (ko) 2014-12-11
JP2016526358A (ja) 2016-09-01
CN105264872B (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
JP6198943B2 (ja) 携帯端末の音声エモーティコン制御方法
CN106024014B (zh) 一种语音转换方法、装置及移动终端
CN101557432B (zh) 移动终端及其菜单控制方法
TWI497406B (zh) 用於為一語音辨識互動模組提供輸入功能之方法及電腦可讀取媒體
US8108462B2 (en) Information processing apparatus, information processing method, information processing program and recording medium for storing the program
US20070021145A1 (en) Methods and systems for enabling the injection of sounds into communications
CN101714057A (zh) 用于便携式装置的触摸输入装置和方法
CN101794208A (zh) 用于无显示器的电子设备的音频用户接口
JP2009536500A (ja) 移動無線端末のユーザにオーディオ及びビデオコンテンツを通知する方法及びシステム
KR20140022824A (ko) 오디오 상호작용 메시지 교환
JP2012529403A (ja) 車両内でインターネット・ラジオ・アプリケーションを実行するための方法およびシステム
CN101179781A (zh) 一种移动终端功能简化操作的系统和方法
CN109461462A (zh) 音频分享方法及装置
CN110943908A (zh) 语音消息发送方法、电子设备及介质
WO1998042110A1 (fr) Telephone mobile
CN102045462B (zh) 用于异构会话管理的统一接口的方法和装置
CN104317404A (zh) 一种声纹控制音频播放设备、控制系统及方法
KR101437572B1 (ko) 휴대단말기의 보이스 토크 제어방법
JP2003218999A (ja) 音声認識機能付き携帯電話装置及びその制御プログラム
EP2719099A1 (en) Media sharing community
KR101344288B1 (ko) 채팅 프로그램의 이뮤지콘 제공 시스템 및 방법
JP2002041279A (ja) エージェント伝言システム
RU95206U1 (ru) Система предоставления услуг в телекоммуникационной сети
CN101164359A (zh) 作为用户接口要素的背景音的系统和方法
JP2007323512A (ja) 情報提供システム、携帯端末及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R150 Certificate of patent or registration of utility model

Ref document number: 6198943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees