JP2015050470A - Terminal device and speech communication data processing method - Google Patents
Terminal device and speech communication data processing method Download PDFInfo
- Publication number
- JP2015050470A JP2015050470A JP2013178425A JP2013178425A JP2015050470A JP 2015050470 A JP2015050470 A JP 2015050470A JP 2013178425 A JP2013178425 A JP 2013178425A JP 2013178425 A JP2013178425 A JP 2013178425A JP 2015050470 A JP2015050470 A JP 2015050470A
- Authority
- JP
- Japan
- Prior art keywords
- call
- unit
- voice
- level
- caller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000004891 communication Methods 0.000 title abstract description 32
- 230000002996 emotional effect Effects 0.000 claims abstract description 33
- 239000000284 extract Substances 0.000 claims abstract description 6
- 230000008451 emotion Effects 0.000 claims description 39
- 238000000605 extraction Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
Abstract
Description
本発明は、端末装置に関し、特に、通話データを処理する端末装置及び通話データ処理方法に関する。 The present invention relates to a terminal device, and more particularly to a terminal device and a call data processing method for processing call data.
携帯電話やスマートフォンは、コミュニケーション向上のための様々な通話機能の拡張が提案されている。例えば、下記特許文献1には、端末内にキャラクタデータを格納しておき、携帯電話端末が受信した音声信号のレベルを検出し、その音声信号のレベルに応答してキャラクタのアニメーションを携帯電話端末の画面に表示する技術が開示されている。
For mobile phones and smartphones, expansion of various call functions for improving communication has been proposed. For example, in
また、下記特許文献2には、効果音/音楽を音声通話時に付加する気分モード通話をするか否かを選択させ、気分モード通話を行う場合、生体センサ又はメールの文字データから検知したユーザの感情状態を分析して気分モードと気分レベルを設定し、その気分モードと気分レベルにより、効果音又は音楽を選択したり変更したりする技術が開示されている。
Further, in
しかしながら、上記の特許文献1,2に記載の技術には、いずれも以下のような課題がある。まず、通話中のコミュニケーション効果を向上させることを目的とするため、通話中以外の場面には適用できない。また、通話音声に合わせて、キャラクタを表示したり効果音を流したりしても、必ずしも通話中のユーザに効果的であるとは限らず、コミュニケーション向上効果が常に増すとは言い難い。また、多くの人間は、誰かとすぐに繋がるために携帯電話等を使用するが、その相手とどのくらい関わっているかは、通話履歴やメール・SMS(Short Message Service)のやりとりの回数など、各アプリケーション単位
でしかみることができない。
However, the techniques described in
本発明は、上記した課題を解決するためになされたものであり、通話中に得られた通話データを通話後にも活用し、コミュニケーション向上に役立たせることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to utilize call data obtained during a call even after the call to improve communication.
上記した課題を解決するために本発明の端末装置は、通話者の通話音声を記録する通話記録部と、前記通話記録部に記録された前記通話者の通話音声から、当該通話者が特定の感情状態にある時間を抽出する状態抽出部と、前記特定の感情状態にある時間、及び、当該感情状態にある時間中の音声レベルに基づいて、前記通話者の感情度を通話終了後に判定する判定部と、前記判定部により判定された感情度に応じて、通話終了以降、通話相手に関する情報を含む所定画面の表示態様を変化させて提示する提示部と、
と、を備えることを特徴とする。
In order to solve the above-described problem, a terminal device according to the present invention includes a call recording unit that records a caller's call voice and a caller's call voice recorded in the call record unit. Based on the state extraction unit that extracts the time in the emotional state, the time in the specific emotional state, and the voice level during the time in the emotional state, the emotional level of the caller is determined after the call ends A determining unit, and a presenting unit that changes and presents a display mode of a predetermined screen including information related to the other party of the call after the end of the call according to the emotion level determined by the determining unit;
And.
本発明において、前記音声レベルは、前記通話者が通話中に発する音声の高さ、音声の大きさであること、前記感情度は、笑い度であること、前記所定画面は、電話帳、通話履
歴、発信履歴、着信履歴、コンタクトリストの表示画面のうち、少なくとも一つを含むことを特徴とする。
In the present invention, the voice level is a voice level and a loudness level that the caller makes during a call, the emotion level is a laughter level, and the predetermined screen is a phone book, a call It includes at least one of a history, a call history, a call history, and a contact list display screen.
さらに、本発明において、画像を記憶する記憶部と、前記提示部は、前記感情度の判断結果に基づいて、当該感情度に対応した画像を前記記憶部から抽出し、前記所定画面に表示させる画像抽出部を含むことを特徴とする。 Furthermore, in the present invention, the storage unit that stores an image and the presenting unit extract an image corresponding to the emotion level from the storage unit based on the determination result of the emotion level, and display the image on the predetermined screen. An image extracting unit is included.
本発明によれば、通話中に得られたデータを、通話後、他者とのコミュニケーション状況の確認に役立てることができる。 According to the present invention, data obtained during a call can be used to confirm the communication status with another person after the call.
以下、添付図面を参照して、本発明を実施するための形態(以下、本実施形態という)について詳細に説明する。なお、本実施形態の説明の全体を通して同じ要素には同じ番号を付している。 DESCRIPTION OF EMBODIMENTS Hereinafter, a mode for carrying out the present invention (hereinafter referred to as this embodiment) will be described in detail with reference to the accompanying drawings. Note that the same numbers are assigned to the same elements throughout the description of the present embodiment.
(実施形態の基本動作概念)
図1は、本発明の実施形態に係る端末装置の一例である音声通話端末の基本動作の概念を示す図である。本発明における「感情度」とは、通話者の通話中における感情状態(平常状態及び喜怒哀楽のいずれかの状態)の度合いを意味するが、以下では説明を具体的にするため、上記感情度の中から特に「笑い度」を選択した場合について音声通話端末の処理フローの主なステップについて説明する。
(Basic operation concept of embodiment)
FIG. 1 is a diagram showing a concept of basic operation of a voice call terminal which is an example of a terminal device according to an embodiment of the present invention. The “emotion level” in the present invention means the degree of emotional state (either normal state or emotional state) during the call of the caller. The main steps of the processing flow of the voice call terminal will be described in particular when “laughter” is selected from the degrees.
図示するように、まず、ステップS1では、相手との通話中、自分(端末の所持者)と相手の笑い声を端末内の記憶部に録音する。 As shown in the drawing, first, in step S1, during a call with the other party, the laughter of himself (the owner of the terminal) and the other party is recorded in the storage unit in the terminal.
次に、ステップS2では、通話中の単位時間ごとの「笑い声のレベル」(笑い声の高さ及び/又は大きさ)と「笑いを検出した時間」を抽出する。 Next, in step S2, “the level of laughter” (the level and / or magnitude of the laughter) and “the time when laughter was detected” are extracted for each unit time during the call.
そして、ステップS3では、笑い声のレベルをX軸、笑いを検出した時間をY軸とした図右に示すようなグラフ(感情度判定グラフと呼ぶ)を予め設けておき、ステップS2で抽出した通話中の単位時間ごとの笑い声のレベルの合計値(Xa)と、全通話時間の中で笑いを検出した合計時間(Ya)とを求め、前記グラフと照らし合わせる。 In step S3, a graph (referred to as an emotional degree determination graph) as shown on the right of the figure with the level of laughter as the X axis and the time when laughter is detected as the Y axis is provided in advance, and the call extracted in step S2 The total value (Xa) of the level of laughter for each unit time and the total time (Ya) at which laughter was detected in the total call time are obtained and compared with the graph.
最後に、ステップS4では、前記グラフ上で,X軸とY軸の交わった点(Xa,Ya)に当て嵌った笑い度(例えば、0(標準),1,2,3,4の5段階)に対応する図示するようなUI(User Interface)を通話相手に対応付けて電話帳に格納する。 Finally, in step S4, the degree of laughter (for example, 0 (standard), 1, 2, 3, 4) applied to the point (Xa, Ya) where the X axis and the Y axis intersect on the graph. A UI (User Interface) corresponding to () is associated with the other party and stored in the telephone directory.
このようにすることで、現状では相手の情報を登録する役割しか担っていない電話帳を、相手とコミュニケーションを取る際の入り口として、その相手とどれくらい連絡を取り合っているのかを可視化し、端末の通話機能を拡大させることができる。例えば、笑った時間が長かった通話相手の電話帳の表示を参照することで、その相手と楽しく話しあったことが思いだされる。また、前回の通話で相手を怒らせてしまったような場合には、次にコミュニケーションを取る際の注意喚起にもなる。 In this way, the phone book, which currently has only the role of registering the other party's information, can be used as a gateway to communicate with the other party and visualize how much contact with the other party is possible. The call function can be expanded. For example, by referring to the display of the phone book of the other party who has laughed for a long time, it is remembered that he had a pleasant conversation with the other party. Also, if you anger the other party in the previous call, it will also alert you when you next communicate.
(実施形態の構成)
図2は、本発明の実施の形態に係る音声通話端末のハードウェア構成を示す図である。図示するように、本実施形態に係る音声通話端末10は、携帯電話又はスマートフォンを例示している。音声通話端末10は、CPU12(Central Processing Unit)と記憶部13(メモリ)を含む制御部11と、表示画面を備えた表示部14(ディスプレイ)と、ユーザのキー操作を受け付けるキー操作部15と、無線通信を制御する無線通信部16、マイクやスピーカを含む音声入出力部17とを、含んで構成される。その他、撮像部18(カメラ)や各種センサ19を備えてもよい。
(Configuration of the embodiment)
FIG. 2 is a diagram showing a hardware configuration of the voice call terminal according to the embodiment of the present invention. As illustrated, the
制御部11は、音声通話端末10としての全体的な動作を統括的に制御する。制御部11は、記憶部13に格納されたプログラム(OS、アプリケーションプログラムなど)に基づいて処理を実行するコンピュータ(マイクロプロセッサ)を備えており、このプログラムにおいて指示された手順に従って処理を行う。
The
記憶部13には、CPU12において処理に利用される各種データが保持される。具体的に、CPU12によって実行されるプログラムの他、プログラムの処理過程で利用される一時的なデータなど各種データが保持される。記憶部13は、例えば不揮発性の記憶装置(SSD(Solid State Drive)やSDメモリカード(Secure Digital memory card)などの不揮発性半導体メモリ)や非不揮発性のランダムアクセス可能な記憶装置(例えば、SRAM、DRAM)などによって構成される。本実施形態に係る制御部11の具体的な動作については、後述する。
Various data used for processing in the
表示部14は、液晶パネルや有機EL(Electro-Luminescence)などの表示装置を用いて構成され、制御部11により生成される映像信号に応じた画像を表示する。なお、上記したキー操作部15と表示部14は、操作部と表示部とが一体形成されたタッチパネルで構成してもよい。
The
キー操作部15は、例えば、電源キー、通話キー(発呼、着呼)、ボリュームキー、数字キー、文字キー、選択キー、決定キーなど、各種の機能が割り当てられたキー、あるいはボタンを有している。例えば、数字キーがユーザによって操作された場合に、その操作内容に対応する信号を生成して制御部11に入力する。なお、キー操作部15は、一部又は全部をタッチセンサにより構成されてもよく、この場合、タッチ操作に応じた信号が生成され、制御部11に入力される。
The
無線通信部16は、音声通話網、データ通信網の通信ネットワークに接続される図示せぬ基地局との間で無線通信を行う。例えば、制御部11から供給される送信データに所定の変調処理を施して無線信号に変換し、アンテナを介して送出する。また、アンテナにおいて受信される基地局からの無線信号に所定の復調処理を施して受信データに変換し、制御部11に出力する。
The
音声入出力部17は、主に音声通話、音響録音、音響再生において使用され、マイクを介して入力される音声信号や、スピーカから出力される音声信号の入出力処理を行う。すなわち、マイクから入力される音声を増幅し、アナログ−デジタル変換を行い、更に符号
化などの信号処理を施し、デジタルの音声データに変換して制御部11に出力する。また、制御部11から出力される音声データに復号化、デジタル−アナログ変換、増幅などの信号処理を施し、アナログの音声信号に変換してスピーカに出力する。また、入力された音声信号を文字テキストに変換する音声認識機能を備えていてもよい。なお、音による通知の代わりに、振動発生部(図示せず)が発生させる筐体の振動でメールや電話の着信などを通知することもできる。
The voice input /
撮像部18(カメラ)は、写真やビデオの撮影の他、OCRやバーコードを撮像することで、キー操作や音声認識以外での文字入力や、各種画像を入力することができる。また、各種センサ19としては、例えば、加速度センサ、近接センサ、温度センサ、生体センサ(発汗センサ、脈拍センサ等)、方位センサなどを備えていてもよい。
The imaging unit 18 (camera) can input characters other than key operations and voice recognition and various images by taking pictures of OCR and barcode as well as taking pictures and videos. The
なお、上記した音声通話端末10は、具体的には、CPU12と、記憶部13(メモリ)を含む周辺LSIによって構成され、制御中枢となる制御部11が持つ機能は、CPU12がメモリに記録されたプログラムを逐次読み出し、実行することにより実現される。また、表示部14と、キー操作部15と、無線通信部16と、音声入出力部17とが持つ機能は、CPU12によりプログラマブルに制御される周辺LSIによって実現され、図示せぬ入出力ポートを介して制御部11が持つ機能を実現する。
The
(実施形態の動作) (Operation of the embodiment)
以下、図3と図4を用いて、本実施形態の携帯端末装置の動作について詳しく説明する。図3は、本発明の実施の形態に係る音声通話端末の制御部の機能ブロックを示す図である。また、図4は、本発明の実施の形態に係る感情度判定の概念を示す図である。 Hereinafter, the operation of the mobile terminal device of the present embodiment will be described in detail with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing functional blocks of the control unit of the voice call terminal according to the embodiment of the present invention. FIG. 4 is a diagram showing the concept of emotion level determination according to the embodiment of the present invention.
図3で示すように、制御部11は、後述するように、処理部として、通話記録部11a、状態抽出部11b、判定部11c、提示部11d、画像抽出部11eの各機能ブロックに分けることができる。各機能ブロックは、統合したり、さらに分割したりしてもよい。また、制御部11に含まれる記憶部13は、後述するように、通話音声データ13a,感情度判定テーブル13b、通話記録13c、感情度別イラスト13d、及びユーザ写真集13eを格納している。
As shown in FIG. 3, as will be described later, the
通話記録部11aは、音声入出力部17のマイクと無線通信部16からの音声入力を受けて、音声通話端末10の所持者である本人(自分)と通話相手との音声通話を録音し、記憶部13に通話音声データ13aとして記録する。このとき、各種センサ20のうち、発汗センサ、脈拍センサなどの通話者の生体情報を検知するセンサが装備されている場合は、通話時間中、その生体情報を別途記録するようにしてもよい。なお、通話音声データ13aには、通話全体を記録してもよいし、無音部を除いて記録してもよい。
The
状態抽出部11bは、記録された通話音声データ13aを分析し、まず、自分と通話相手との発話部分を分離する。そして、発話者毎に通話中に発した音声レベル(音の高さ、大きさ)から、通話中における特定の感情状態を検出し、その特定の感情状態の開始時点と終了時点を記録する。感情状態の検出には、生体センサからの情報やユーザプロファイルの情報(性別、年代等)が得られる場合は、それらの情報を利用してもよい。特定の感情状態とは、通話者が平常な感情にある状態の他、喜怒哀楽のいずれか1つに選択された感情の状態をいう。この感情状態の検出は、概念的には図4(a)に示すが、公知の技術を利用してもよい。ただし、図中の符号AとBは、特定の感情状態(この例では、楽(笑い)の状態)の開始時点と終了時点を示し、符号Cはその感情状態が持続した時間を示している。なお、感情状態の抽出には、前述した生体センサからの情報を参照するようにしてもよい。
The
状態抽出部11bの抽出処理が終わると、判定部11cが呼び出され、判定部11cは、抽出された特定の感情状態が持続していた時間を求め、当該特定の感情状態が持続していた時間における音声レベル(声の高さ、大きさ)を単位時間毎に検出する。そして、通話全体にわたって、特定の感情が持続していた時間の合計(Xa)、及びその間の単位時間毎の音声レベルの合計値(Ya)を求める。そして、求めた合計値(Xa、Ya)を感情度判定テーブル13bを参照して、当該感情の高まりの度合いである感情度を通話終了後に判定する。判定部11cで判定された感情度は、通話相手情報(通話相手の識別情報)に対応付けて記憶部に記憶される。感情度は、例えば、平常な状態(標準)を感情度0とし、特定の感情の高まりに応じて、感情度1〜4などの段階値(レベル)で判定する。また、感情度判定テーブル13bとは、図1で説明した感情度判定グラフ(図4(c)に再掲)をコンピュータが処理しやすいようにテーブル形式で表したものである(図4(b)参照)。ただし、図4(c)のグラフ中の曲線は、単純化のため半径rn(n=0〜4)の真円弧としているが、一般的には任意の直線や曲線の組み合わせであってよい。
When the extraction process of the
提示部11dは、感情度の判定結果を電話帳などのアプリケーションに対して、UI(ユーザインターフェース)として提供する役目を果たす。UIの提供とは、例えば電話帳アプリケーションの場合、感情度の判定結果に応じて、電話番号等の通話相手に関する情報を含む所定画面中の表示態様を提示することをいう。表示態様を提示するとは、例えば、効果的な画像を追加したり、電話番号や相手の名称等の文字の大きさ、フォント、文字装飾(斜体、ボールド、下線等)を変化させたり、文字や背景の色を変化させたりして、アプリケーションの画面に表示させることをいう。
The
提示部11dは、API(Application User Interface)を備えており、各アプリケ
ーションから呼び出すことができる。また、提示部11dは、通話記録13cに感情度が記録されていれば、最新の通話記録の感情度又は一定期間の感情度の平均値に応じて、予め用意された感情度別イラスト13dから、その記録された感情度に対応するイラストの画像を抽出する。あるいは、イラストの画像の代わりに、記憶部(端末内部の記憶部13又は外部のサーバのデータベースを併用してもよい)に格納され、通話相手が写ったユーザ写真集13eから、通話記録13cに記録された感情度に対応する通話相手の顔写真を抽出するようにしてもよい。抽出されたイラスト、顔写真は、提示部11d又は提示部11dを呼び出したアプリケーションによって、音声通話端末10の表示部14(ディスプレイ画面)に表示される。このようにすることで、通話中に得られた音声データを通話中だけでなく、他のアプリケーションにも適用できるので、コミュニケーション向上により効果的となる。
The
図5は、本発明の実施の形態に係る電話帳アプリケーションの表示画面を示す図である。図5(a)には、通話記録に記録された笑い度(感情度)に応じて、予め用意されたイラストの画像を段階的に変化させ、さらに電話番号の文字の大きさや背景色を段階的に変化させる画面の一例を示している。また、図5(c)には、通話相手の顔写真が笑い度に応じてユーザ写真集から抽出されて、イラスト画像の代わりに表示されている画面の一例を示している。顔写真は、通話相手の単独の写真でなくともよく、複数の人物の中に通話相手が映っているものでもよい。本人と通話相手のツーショットが写真があればベストである。もちろん、怒った顔など、通話相手の感情度に対応する画像が写真集にない場合は、イラストの画像が使われる。 FIG. 5 is a diagram showing a display screen of the telephone directory application according to the embodiment of the present invention. In FIG. 5 (a), the illustration image prepared in advance is changed step by step according to the laughter level (feeling level) recorded in the call record, and the phone number character size and background color are changed step by step. 2 shows an example of a screen that is changed dynamically. FIG. 5C shows an example of a screen in which the face photo of the other party is extracted from the user photo collection according to the degree of laughter and displayed instead of the illustration image. The face photograph does not have to be a single photograph of the other party, but may be one in which the other party is reflected in a plurality of persons. It ’s best if there ’s a picture of the person and the other party ’s two-shot. Of course, if there is no image in the photobook that corresponds to the emotion level of the other party, such as an angry face, an illustration is used.
図6は、本発明の実施の形態に係る他のアプリケーションの表示画面を示す図である。この図では電話帳以外のアプリケーションとして、図6(a)に通話履歴(実際には通話しなかった発信履歴、着信履歴を含む)と、図6(b)にグループ会話で用いられるようなコンタクトリストの表示画面の例を示している。コミュニケーションリストでは、一対
一の通話だけでなく、グループで会話した際のメンバ全員の感情度を表示するようにしてもよい。
FIG. 6 is a diagram showing a display screen of another application according to the embodiment of the present invention. In this figure, as applications other than the phone book, FIG. 6A shows a call history (including an outgoing call history and an incoming call history that were not actually called), and FIG. 6B shows a contact used in a group conversation. An example of a list display screen is shown. In the communication list, not only the one-to-one call but also the emotion level of all members when talking in a group may be displayed.
(実施形態の効果)
以上の説明のように、現状では相手の情報を登録する役割しか担っていない電話帳を、相手とコミュニケーションを取る際に、その通話相手とどれくらい連絡を取り合っているのかを視覚化することができる。例えば、笑った時間が長かった相手の電話帳の表示態様が変化することで、その相手と楽しく話したということが視覚化される。また、前回の通話で相手を怒らせてしまったような場合、次にコミュニケーションを取る際に配慮することを忘れないようにするなど注意喚起にも役立つ。
(Effect of embodiment)
As explained above, when communicating with the other party, you can visualize how much contact you have with the other party when communicating with the other party. . For example, by changing the display mode of the phone book of the other party who has laughed for a long time, it is visualized that he / she talked happily with the other party. Also, if you have angered the other party in the previous call, it will help to alert you to remember to consider the next communication.
また、得られた音声データを通話中だけでなく、通話終了後に他のアプリケーション(電話帳以外には、通話履歴、コンタクトリストなど)の使用場面にも利用できるので、コミュニケーション向上により効果的である。すなわち、通話中のコミュニケーションの結果が様々なアプリケーションの機能のUIに反映されることにより、ユーザにとってさらにその機能を使う機会が増え、コミュニケーションが増々深まることが期待される。 In addition, the obtained voice data can be used not only during a call but also when using other applications (call history, contact list, etc. other than the phone book) after the call ends, which is more effective for improving communication. . That is, by reflecting the result of communication during a call in the UI of various application functions, it is expected that the user will have more opportunities to use the functions and the communication will deepen.
また、図2の本発明の実施形態のハードウェア構成の説明では、音声通話端末として、携帯電話やスマートフォンを例示したが、必ずしも携帯型の端末でなくともよく、音声電話機能や電話帳機能を備えたPC(Personal Computer)、タブレット端末、PDA(Personal Digital Assistants)等であってもよい。 In the description of the hardware configuration of the embodiment of the present invention in FIG. 2, a mobile phone or a smartphone is exemplified as the voice call terminal. However, the voice call function and the phone book function are not necessarily required to be a portable terminal. It may be a PC (Personal Computer), a tablet terminal, a PDA (Personal Digital Assistants), or the like.
なお、本発明はテレビ電話に適用してもよい。具体的には、上記実施形態における特定の感情状態が持続していた時間に代えて、抽出部が撮像部により取得されたテレビ電話中の通話者の画像に基づき、笑顔が持続していた時間を抽出する。そして、抽出部が抽出した笑顔が持続していた時間、および、当該時間における笑顔度のレベルに応じて、判定部は前記通話者の笑顔度を判定する。さらに、提示部は、判定部が判定した笑顔度に基づいて、通話者の情報を含む所定の画面の表示態様を変化させて提示する。
なお、テレビ電話中の音声と映像は記憶部に記録されてもよいし、記憶部に記録されずにテレビ電話中に判定された笑顔度と、笑顔が持続していた時間のみを記録することとしてもよい。
上記態様によれば、テレビ電話中のデータを、通話終了後、他者とのコミュニケーション状況の確認に役立てることができる効果を奏する。
The present invention may be applied to a videophone. Specifically, instead of the time during which the specific emotional state has been maintained in the above embodiment, the time when the smile has been maintained based on the image of the caller during the videophone call obtained by the image pickup unit by the extraction unit To extract. Then, the determination unit determines the smile level of the caller according to the time when the smile extracted by the extraction unit is maintained and the level of smile level at the time. Further, the presenting unit changes and presents a display mode of a predetermined screen including information on the caller based on the smile level determined by the determining unit.
Note that the audio and video during a videophone call may be recorded in the storage unit, or only the degree of smile determined during the videophone call and not recorded in the storage unit, and only the time during which the smile was maintained It is good.
According to the said aspect, there exists an effect which can be used for the confirmation of the communication condition with others after the telephone call of the data during a videophone call.
以上、本発明の好ましい実施形態について詳述したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。またその様な変更、又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although preferred embodiment of this invention was explained in full detail, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. Further, it is apparent from the description of the scope of claims that embodiments with such changes or improvements can also be included in the technical scope of the present invention.
10…音声通話端末、11…制御部、11a…通話記録部、11b…状態抽出部、11c…判定部、11d…提示部、11e…画像抽出部11e、12…CPU、13…記憶部、13a…通話音声データ、13b…感情度判定テーブル、13c…通話記録、13d…感情度別イラスト、13e…ユーザ写真集、14…表示部、15…キー操作部、16…無線通信部、17…音声出力部、18…撮像部、19…各種センサ
DESCRIPTION OF
Claims (6)
前記通話記録部に記録された前記通話者の通話音声から、当該通話者が特定の感情状態にある時間を抽出する状態抽出部と、
前記特定の感情状態にある時間、及び、当該感情状態にある時間中の音声レベルに基づいて、前記通話者の感情度を判定する判定部と、
前記判定部により判定された感情度に応じて、通話終了以降、通話相手に関する情報を含む所定画面の表示態様を変化させて提示する提示部と、
を備えることを特徴とする端末装置。 A call recording unit for recording caller's call voice;
A state extraction unit that extracts a time during which the caller is in a specific emotion state from the call voice of the caller recorded in the call recording unit;
A determination unit that determines the emotion level of the caller based on the time in the specific emotional state and the voice level during the time in the emotional state;
A presenting unit that changes and presents a display mode of a predetermined screen including information on the other party of the call after the call ends according to the emotion level determined by the determination unit;
A terminal device comprising:
前記提示部は、前記感情度の判断結果に基づいて、当該感情度に対応した画像を前記記憶部から抽出し、前記所定画面に表示させる画像抽出部を含むことを特徴とする請求項1乃至4のいずれか一項に記載の端末装置。 A storage unit for storing images;
The presenting unit includes an image extracting unit that extracts an image corresponding to the emotion level from the storage unit based on the determination result of the emotion level and displays the image on the predetermined screen. The terminal device according to any one of 4.
前記通話記録ステップで記録された前記通話者の通話音声から、当該通話者が特定の感情状態にある時間を抽出する状態抽出ステップと、
前記特定の感情状態にある時間、及び、当該感情状態にある時間中の音声レベルに基づいて、前記通話者の感情度を通話終了後に判定する判定ステップと、
前記判定ステップにより判定された感情度に応じて、通話終了以降、通話相手に関する情報を含む所定画面の表示態様を変化させて提示する提示ステップと、
を有することを特徴とする通話データ処理方法。 A call recording step for recording a caller's call voice;
A state extracting step of extracting a time during which the caller is in a specific emotion state from the call voice of the caller recorded in the call recording step;
A determination step of determining the emotion level of the caller after the call based on the time in the specific emotional state and the voice level during the time in the emotional state;
In accordance with the degree of emotion determined in the determination step, after the call is ended, a presentation step of changing and presenting a display mode of a predetermined screen including information about the call partner;
A call data processing method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178425A JP6189684B2 (en) | 2013-08-29 | 2013-08-29 | Terminal device and call data processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178425A JP6189684B2 (en) | 2013-08-29 | 2013-08-29 | Terminal device and call data processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015050470A true JP2015050470A (en) | 2015-03-16 |
JP6189684B2 JP6189684B2 (en) | 2017-08-30 |
Family
ID=52700177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013178425A Expired - Fee Related JP6189684B2 (en) | 2013-08-29 | 2013-08-29 | Terminal device and call data processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6189684B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016178327A1 (en) * | 2015-05-01 | 2016-11-10 | ソニー株式会社 | Information processing system, communication device, control method, and storage medium |
JP2020529680A (en) * | 2017-08-08 | 2020-10-08 | Line株式会社 | Methods and systems for recognizing emotions during a call and leveraging the perceived emotions |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (en) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | System and method for voice feeling recognition |
JP2005244375A (en) * | 2004-02-25 | 2005-09-08 | Sanyo Electric Co Ltd | Communication apparatus, communication method, communication program, and communication system employing this apparatus |
JP2005311915A (en) * | 2004-04-23 | 2005-11-04 | Sharp Corp | Communication system, feeling informing method of communication system, and program |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2007027918A (en) * | 2005-07-13 | 2007-02-01 | Sharp Corp | Real world communication management apparatus |
JP2008113331A (en) * | 2006-10-31 | 2008-05-15 | Aplix Corp | Telephone system, telephone set, server device, and program |
JP2013157666A (en) * | 2012-01-26 | 2013-08-15 | Sumitomo Mitsui Banking Corp | Telephone call answering job support system and method of the same |
-
2013
- 2013-08-29 JP JP2013178425A patent/JP6189684B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (en) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | System and method for voice feeling recognition |
JP2005244375A (en) * | 2004-02-25 | 2005-09-08 | Sanyo Electric Co Ltd | Communication apparatus, communication method, communication program, and communication system employing this apparatus |
JP2005311915A (en) * | 2004-04-23 | 2005-11-04 | Sharp Corp | Communication system, feeling informing method of communication system, and program |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2007027918A (en) * | 2005-07-13 | 2007-02-01 | Sharp Corp | Real world communication management apparatus |
JP2008113331A (en) * | 2006-10-31 | 2008-05-15 | Aplix Corp | Telephone system, telephone set, server device, and program |
JP2013157666A (en) * | 2012-01-26 | 2013-08-15 | Sumitomo Mitsui Banking Corp | Telephone call answering job support system and method of the same |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016178327A1 (en) * | 2015-05-01 | 2016-11-10 | ソニー株式会社 | Information processing system, communication device, control method, and storage medium |
JPWO2016178327A1 (en) * | 2015-05-01 | 2018-02-22 | ソニー株式会社 | Information processing system, communication device, control method, and storage medium |
US11392979B2 (en) | 2015-05-01 | 2022-07-19 | Sony Corporation | Information processing system, communication device, control method, and storage medium |
JP2020529680A (en) * | 2017-08-08 | 2020-10-08 | Line株式会社 | Methods and systems for recognizing emotions during a call and leveraging the perceived emotions |
JP2022020659A (en) * | 2017-08-08 | 2022-02-01 | Line株式会社 | Method and system for recognizing feeling during conversation, and utilizing recognized feeling |
Also Published As
Publication number | Publication date |
---|---|
JP6189684B2 (en) | 2017-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230251826A1 (en) | Method for Quickly Starting Application Service, and Terminal | |
US9332101B1 (en) | Contact cropping from images | |
US8373799B2 (en) | Visual effects for video calls | |
CN108810283A (en) | Equipment, method and graphic user interface for providing notice and being interacted with notice | |
RU2636580C2 (en) | Method and device for displaying conversational interface | |
KR20080063345A (en) | Sender-controlled electronic message notification | |
US10158749B2 (en) | Method by which portable device displays information through wearable device, and device therefor | |
US20240118790A1 (en) | Integration of third party application as quick actions | |
KR20110052898A (en) | Method for setting background screen and mobile terminal using the same | |
CN105515871B (en) | The method and device of record log | |
CN106572230A (en) | Device and method for recording calls | |
JP6189684B2 (en) | Terminal device and call data processing method | |
JP4867609B2 (en) | Communication terminal, destination address presentation method and program | |
WO2017016145A1 (en) | State notification method and apparatus | |
JP5233287B2 (en) | Mobile communication terminal | |
JP2006080850A (en) | Communication terminal and its communication method | |
CN108111692B (en) | Alarm clock remote control method and alarm clock remote control system of intelligent terminal | |
US20080162489A1 (en) | Apparatus and method for exchanging information between devices | |
WO2018120241A1 (en) | Method for identifying identity of call object, and terminal device | |
KR20060113340A (en) | Method for storing phone book data in mobile communication terminal | |
JP2008010935A (en) | Mobile radio terminal device | |
WO2019056392A1 (en) | Information processing method and apparatus, mobile terminal, and computer readable storage medium | |
WO2015129294A1 (en) | Portable terminal device, and control program | |
CN106453936A (en) | Terminal control method and device | |
JP3877724B2 (en) | Telephone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6189684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |