JP2010244190A - Communication terminal and information display method - Google Patents
Communication terminal and information display method Download PDFInfo
- Publication number
- JP2010244190A JP2010244190A JP2009090176A JP2009090176A JP2010244190A JP 2010244190 A JP2010244190 A JP 2010244190A JP 2009090176 A JP2009090176 A JP 2009090176A JP 2009090176 A JP2009090176 A JP 2009090176A JP 2010244190 A JP2010244190 A JP 2010244190A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- voice
- sound
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims description 27
- 230000008451 emotion Effects 0.000 claims abstract description 86
- 238000000605 extraction Methods 0.000 claims abstract description 44
- 230000002996 emotional effect Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、通信端末及び情報表示方法に関する。 The present invention relates to a communication terminal and an information display method.
従来の携帯電話などの通信端末において、通話中の音声を分析して話者の感情を推定する技術が知られている(例えば特許文献1)。また、特許文献1に記載されるような話者の感情を推定する技術を利用して、音声入力形式のメール作成機能において、話者(ユーザ)の感情に対応する絵文字や記号を適宜選択し、音声入力されたテキストに付加する技術が知られている(例えば特許文献2)。 In a conventional communication terminal such as a mobile phone, a technique for analyzing a voice during a call and estimating a speaker's emotion is known (for example, Patent Document 1). In addition, by using a technique for estimating the emotion of a speaker as described in Patent Document 1, a pictogram or symbol corresponding to the emotion of the speaker (user) is appropriately selected in a voice input format mail creation function. A technique for adding to a text input by voice is known (for example, Patent Document 2).
ここで、通信端末の利便性や親和性を高めるために、通信端末が、ユーザの置かれている状況に応じて、適切なメッセージをディスプレイに提示したり、文字変換候補や絵文字を変化させたりできると好ましい。 Here, in order to improve the convenience and affinity of the communication terminal, the communication terminal presents an appropriate message on the display, changes the character conversion candidate and pictogram according to the situation where the user is placed. It is preferable if possible.
しかしながら、特許文献1や特許文献2に記載されるユーザの感情推定手法のようにユーザ本人の音声情報のみを利用してユーザの感情を推定したとしても、ユーザが置かれている状況を完全には理解できない可能性が高い。ユーザが置かれている状況とは、ユーザ自身の感情のみならず、例えば周囲の環境や、会話している他者との相対的関係などの影響を受けて変化するものと考えられるからである。したがって、特許文献2に記載されるように、推定されたユーザの感情のみに基づいてユーザに提供する情報を選択したとしても、実際にユーザが置かれている状況に合致せず、ユーザにとって適切な情報とはならない虞がある。 However, even if the user's emotion is estimated using only the user's own voice information as in the user's emotion estimation method described in Patent Document 1 and Patent Document 2, the situation where the user is placed is completely Is likely not understandable. This is because the situation in which the user is placed changes not only by the user's own emotions but also by the influence of the surrounding environment and the relative relationship with the other person who is talking. . Therefore, as described in Patent Document 2, even if information to be provided to the user is selected based only on the estimated emotion of the user, it does not match the situation in which the user is actually placed and is appropriate for the user. May not be useful information.
本発明は、上記課題を解決するためになされたものであり、ユーザが置かれている状況を精度良く推定し、ユーザの状況に応じた適切な情報を提供することができる通信端末及び情報表示方法を提供することを目的とする。 The present invention has been made to solve the above-described problem, and accurately estimates a situation where a user is placed and can provide appropriate information according to the situation of the user and an information display. It aims to provide a method.
上記課題を解決するため、本発明に係る通信端末は、周囲の音を集音して音情報として取得する集音手段と、集音手段により取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出手段と、集音手段により取得された音情報からユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出手段と、ユーザ音声抽出手段により抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、他者音声抽出手段により抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析手段と、感情解析手段により識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定手段と、情報決定手段により決定された情報を表示してユーザに提示する表示手段と、を備えることを特徴とする。 In order to solve the above-described problems, a communication terminal according to the present invention includes a sound collecting unit that collects ambient sounds and acquires the sound as sound information, and a user voice indicating the user's voice from the sound information acquired by the sound collecting unit. User voice extraction means for extracting information, other person voice extraction means for extracting other person voice information indicating the voice of another person other than the user from the sound information acquired by the sound collection means, and user voice extraction means Based on the user voice information, the user's emotion level is identified, and based on the other person's voice information extracted by the other person's voice extraction means, the emotion analysis means for identifying the other person's emotion level and the emotion analysis means Information determining means for determining information to be provided to the user based on the sentiment level of the user and the emotion level of the other person, and displaying the information determined by the information determining means to the user Characterized in that it comprises a Shimesuru display means.
同様に、上記課題を解決するため、本発明に係る情報表示方法は、周囲の音を集音して音情報として取得する集音ステップと、集音ステップにおいて取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出ステップと、集音ステップにおいて取得された音情報からユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出ステップと、ユーザ音声抽出ステップにおいて抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、他者音声抽出ステップにおいて抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析ステップと、感情解析ステップにおいて識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定ステップと、情報決定ステップにおいて決定された情報を表示してユーザに提示する表示ステップと、を備えることを特徴とする。 Similarly, in order to solve the above-described problem, an information display method according to the present invention includes a sound collection step of collecting ambient sound and acquiring it as sound information, and a user's voice from the sound information acquired in the sound collection step. A user voice extraction step for extracting user voice information indicating a voice, a voice extraction step for extracting voice information of another person other than the user from the sound information acquired in the sound collection step, and a user voice extraction An emotion analysis step for identifying a user's emotion level based on the user voice information extracted in the step, and an emotion analysis step for identifying the emotion level of the other person based on the other person's voice information extracted in the other person's voice extraction step; Information determination for determining information to be provided to the user based on the emotion level of the user identified in the analysis step and the emotion level of the other person A step, a display step of presenting to the user by displaying the information determined by the information determining step, characterized in that it comprises a.
このような通信端末及び情報表示方法によれば、ユーザの音声に基づいてユーザの感情レベルを識別すると共に、ユーザの周辺の音情報から抽出された他者の音声に基づいて他者の感情レベルも識別される。そして、これらのユーザの感情レベルと他者の感情レベルとに基づいてユーザに提供する情報が決定される。このため、ユーザ自身の感情レベルとユーザの周囲にいる他者の感情レベルとを比較して、ユーザと周囲の他者との相対的関係の影響も考慮して、ユーザが置かれている状況を精度良く推定することが可能となり、この結果、ユーザの状況に応じた適切な情報を提供することができる。 According to such a communication terminal and an information display method, the emotion level of the other person is identified based on the voice of the other person extracted from the sound information of the surroundings of the user, while identifying the emotion level of the user based on the voice of the user. Are also identified. Then, information to be provided to the user is determined based on the emotion level of these users and the emotion level of others. For this reason, the situation where the user is placed by comparing the emotion level of the user himself with the emotion level of others around the user, and also taking into account the influence of the relative relationship between the user and others around the user As a result, it is possible to provide appropriate information according to the user's situation.
また、本発明に係る通信端末において、集音手段は、周囲の音を常時集音して音情報として取得することが好適である。これにより、通話中以外でもユーザが置かれている状況を認識することが可能となり、より一層適切な情報をユーザに提供することができる。 In the communication terminal according to the present invention, it is preferable that the sound collecting means always collects surrounding sounds and obtains them as sound information. As a result, it is possible to recognize the situation where the user is placed even during a call, and to provide the user with more appropriate information.
本発明に係る通信端末及び情報表示方法によれば、ユーザの心理状態を精度良く推定し、ユーザの心理状態に応じた適切な情報を提供することができる。 According to the communication terminal and the information display method according to the present invention, it is possible to accurately estimate the user's psychological state and provide appropriate information according to the user's psychological state.
以下、図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
図1は、本発明の一実施形態に係る通信端末の機能ブロック図である。図1に示すように、通信端末1は、集音部(集音手段)11、音声登録部12、ユーザ音声記憶部13、音情報記憶部14、ユーザ音声抽出部(ユーザ音声抽出手段)15、他者音声抽出部(他者音声抽出手段)16、感情解析部(感情解析手段)17、出力情報記憶部18、出力情報決定部(情報決定手段)19、及び情報表示部(表示手段)20を備えている。
FIG. 1 is a functional block diagram of a communication terminal according to an embodiment of the present invention. As shown in FIG. 1, the communication terminal 1 includes a sound collection unit (sound collection unit) 11, a
図2は、通信端末1のハードウェア構成図である。通信端末1は、物理的には、CPU(Central Processing Unit)111、主記憶装置であるRAM(Random Access Memory)112及びROM(Read Only Memory)113、入力デバイスである入力キー等の操作部114、ディスプレイ115、無線通信部116、マイク117などを有する端末装置として構成されている。図1に示す通信端末1の各機能は、図2に示すCPU111、RAM112等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU111の制御のもとで操作部114、ディスプレイ115、無線通信部116、マイク117を動作させるとともに、RAM112やROM113におけるデータの読み出し及び書き込みを行うことで実現される。
FIG. 2 is a hardware configuration diagram of the communication terminal 1. The communication terminal 1 physically includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112 and a ROM (Read Only Memory) 113 that are main storage devices, and an
次に、図1に示す通信端末1の各機能について説明する。 Next, each function of the communication terminal 1 shown in FIG. 1 will be described.
集音部11は、周囲の音を常時集音して音情報として取得する。集音部11は、取得した音情報を音情報記憶部14に送信する。また、集音部11は、通信端末1が後述するユーザ音声登録処理を実行する際には、取得した音情報を音声登録部12に送信する。なお、集音部11は、一般的には、通信端末1に付属されているマイク117である。
The
音声登録部12は、ユーザ音声を登録する部分である。音声登録部12は、後述するユーザ音声登録処理において、集音部11が取得した音情報を受信し、この音情報から音声情報を抽出する。そして、この抽出した音声情報を、通信端末1のユーザのサンプル音声を示すサンプル音声情報として、ユーザ音声記憶部13に送信して格納する。
The
ユーザ音声記憶部13は、通信端末1のユーザのサンプル音声を示すサンプル音声情報を保持する部分である。ユーザ音声記憶部13は、音声登録部12からサンプル音声情報を受信すると、保持しているサンプル音声情報を更新する。また、ユーザ音声記憶部13は、ユーザ音声抽出部15に対して、保持しているサンプル音声情報を提供する。
The user
音情報記憶部14は、集音部11により取得されて音情報を保持する部分である。音情報記憶部14は、本実施形態では、集音部11から送信される音情報のうち最新の5分間の音情報を常に保持するよう構成されている。音情報記憶部14は、ユーザ音声抽出部15に対して、保持している音情報を提供する。
The sound
ユーザ音声抽出部15は、音情報記憶部14に保持されている音情報から、ユーザの音声を示すユーザ音声情報を抽出する部分である。具体的には、ユーザ音声抽出部15は、定期的に音情報記憶部14から音情報を取得して、ユーザ音声記憶部13に保持されているサンプル音声情報を利用して、音情報にユーザ音声が含まれているか否かを確認する。音情報にユーザ音声が含まれていた場合には、音情報からユーザ音声情報を抽出し、抽出したユーザ音声情報を感情解析部17に送信すると共に、ユーザ音声情報を除外した音情報を他者音声抽出部16に送信する。
The user
他者音声抽出部16は、音情報から通信端末1のユーザ以外の他者の音声を示す他者音声情報を抽出する部分である。具体的には、他者音声抽出部16は、ユーザ音声抽出部15よりユーザ音声情報を除外した音情報を受信すると、この音情報を解析して他者音声情報を抽出し、抽出した他者音声情報を感情解析部17に送信する。
The other person
なお、本実施形態では、「他者」とは、集音部11で音声を拾える程度の距離にユーザの周囲に存在している人間であって、ユーザと直接会話しているか、またはユーザの周囲で他の人間と会話しており、少なからずユーザの心理状態に影響を与えうる人間のことをいうものとする
In this embodiment, the “other” is a person who is present around the user at such a distance that the
感情解析部17は、ユーザ音声抽出部15により抽出されたユーザ音声情報に基づき通信端末1のユーザの感情レベルを識別すると共に、他者音声抽出部16により抽出された他者音声情報に基づき、ユーザの周囲に存在する他者の感情レベルを識別する。感情解析部17は、具体的には、音声情報の音量、波形、ピッチ、音韻などの情報を利用して、感情レベルを識別する。本実施形態では、感情レベルとして、大枠では「喜」、「怒」、「哀」、「楽」の4パターンが設定されており、さらに「怒」に関しては「激しい怒り」、「怒」、「内面的な怒り」の3パターンに細分化されて設定されている。なお、感情解析部17における感情推定には周知の手法を用いればよく、このような手法については、例えば国際公開番号WO00/62279などに記載されている。
The
出力情報記憶部18は、ユーザの感情レベルと他者の感情レベルに応じた出力情報を保持している。つまり、出力情報記憶部18は、ユーザの感情と周囲の人間の感情を掛け合わせたときにどのような出力をするのが適当かというルールを規定するものである。
The output
図3〜6を参照して、出力情報記憶部18の具体的な構成について説明する。図3は、出力情報記憶部18の構成の一例を示す図である。図3に示すように、出力情報記憶部18は、ユーザの4段階の感情レベル(「喜」、「怒」、「哀」、「楽」)の1つと、他者の4段階の感情レベルの1つに対応する合計16パターンの出力情報が保持されている。また、図4は、図3に示す16パターンの出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される、ユーザが置かれている場の状況や、その出力情報を選択する根拠を示す図である。この例では、ユーザの感情レベルが「喜」の場合、他者の感情レベルが「喜」ならば、「ユーザも周囲も喜んでいる状況なので、共に喜ぶ」という根拠に基づいて(図4参照)、出力情報は「よかったね」となる。また、他者の感情レベルが「怒」ならば、「ユーザは喜んでいるが周囲は怒っているので、有頂天になっていそうなユーザに注意喚起する」という根拠に基づいて、出力情報は「冷静に!」となる。このように、出力情報記憶部18は、ユーザの感情レベルが同一であっても、他者の感情レベルが異なる場合には、ユーザが置かれているそれぞれの場の状況に応じて別の出力情報が選択されるように構成されている。
A specific configuration of the output
図5は、図3においてユーザ及び他者の感情レベルが共に「怒」である部分31について、感情レベルをさらに細分化したときの出力情報を示す図である。図5に示すように、出力情報記憶部18は、感情レベル「怒」に関しては、ユーザ及び他者の感情レベルがさらに3パターン(「激しい怒り」、「怒」、「内面的な怒り」)に細分化され、ユーザ及び他者の感情レベルに応じて合計9パターンの出力情報が保持されている。また、図6は、図4と同様に、図5に示すユーザ及び他者の感情レベルが「怒」の部分31の9パターンの出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される、ユーザが置かれている場の状況や、その出力情報を選択する根拠を示す図である。図5、6に示すように、ユーザ及び他者が共に怒りの感情を抱いている場合でも、各自の怒りの度合いに応じてユーザの置かれる場の状況は異なるものであると考えられ、それぞれの場の状況に応じた別の出力情報が選択されるように構成されている。
FIG. 5 is a diagram showing output information when the emotion level is further subdivided for the
図1に戻り、出力情報決定部19は、感情解析部17により識別されたユーザ及び他者の感情レベルに基づいて、出力情報記憶部18を参照してユーザに提供する出力情報を決定する。
Returning to FIG. 1, the output
情報表示部20は、出力情報決定部19により決定された出力情報を表示してユーザに提示する部分である。情報表示部20は、一般的には、通信端末1のディスプレイ115である。
The
次に、図7、8に示すフローチャートを用いて、本実施形態の通信端末1において実行される処理を説明すると共に、本実施形態に係る情報表示方法について説明する。図7は、本実施形態の通信端末1において実行されるサンプル音声登録処理を示すフローチャートである。このサンプル音声登録処理は、主に音声登録部12により実行される。
Next, processing executed in the communication terminal 1 of the present embodiment will be described using the flowcharts shown in FIGS. 7 and 8, and an information display method according to the present embodiment will be described. FIG. 7 is a flowchart showing sample voice registration processing executed in the communication terminal 1 of the present embodiment. This sample voice registration process is mainly executed by the
まず、音声登録部12によりサンプル音声登録処理が開始されると(S101)、例えばディスプレイ115にユーザの音声を登録するためユーザに発声を促す旨の指示が表示される。そして、集音部11により集音が開始され(S101)、集音されたユーザの音声を含む音情報が音声登録部12に送信される。
First, when the sample voice registration process is started by the voice registration unit 12 (S101), for example, an instruction for prompting the user to speak is displayed on the
次に、音声登録部12により、集音部11から受信した音情報から音声情報が抽出され(S103)、抽出された音声が1種類か否かが確認される(S104)。抽出された音声が1種類ではない場合は、ユーザの声として登録できないので、集音をやり直すべくステップS103に戻る。抽出された音声が1種類である場合は、抽出された音声がユーザの音声を抽出するためのサンプル音声としてユーザ音声記憶部13に登録される(S105)。
Next, the
図8は、本実施形態の通信端末1において実行される情報表示処理を示すフローチャートである。この情報表示処理は、図7に示したサンプル音声登録処理が実行され、ユーザのサンプル音声がユーザ音声記憶部13に登録された後に実施される。
FIG. 8 is a flowchart showing information display processing executed in the communication terminal 1 of the present embodiment. This information display process is performed after the sample voice registration process shown in FIG. 7 is executed and the user's sample voice is registered in the user
まず、ユーザ音声抽出部15により、音情報記憶部14から集音部11が集音した最新5分間の通信端末1の周囲の音情報が取得され、この音情報から音声情報が抽出される(S201:集音ステップ)と、この音声情報がユーザ音声記憶部13に保持されているサンプル音声情報と比較される(S202)。
First, the sound information around the communication terminal 1 for the latest 5 minutes collected by the
次に、ステップS202の比較結果に基づいて音情報記憶部14の音情報にユーザ音声が含まれているか否かが確認される(S203)。音情報にユーザ音声が含まれていた場合にはステップS204に移行する。音情報にユーザ音声が含まれていない場合にはステップS201に戻り、再びユーザ音声抽出部15が音情報記憶部14の音情報に音声が含まれているのを検知するまで待機する。
Next, based on the comparison result of step S202, it is confirmed whether or not the user voice is included in the sound information in the sound information storage unit 14 (S203). If the user information is included in the sound information, the process proceeds to step S204. If the user information is not included in the sound information, the process returns to step S201 and waits until the user
ステップS203において音情報にユーザ音声が含まれていると判定された場合、ユーザ音声抽出部15により、音情報からユーザ音声情報が抽出され(S204:ユーザ音声抽出ステップ)、抽出されたユーザ音声情報が感情解析部17に送信されると共に、ユーザ音声情報を除外した音情報が他者音声抽出部16に送信される。
When it is determined in step S203 that the user information is included in the sound information, the user sound information is extracted from the sound information by the user sound extraction unit 15 (S204: user sound extraction step), and the extracted user sound information is extracted. Is transmitted to the
次に、他者音声抽出部16により、ユーザ音声抽出部15がユーザ音声情報を除外した音情報から他者音声情報が抽出され(S205:他者音声抽出ステップ)、抽出された他者音声情報が感情解析部17に送信される。
Next, the other person
さらに、感情解析部17により、ユーザ音声情報に基づき通信端末1のユーザの感情レベルが識別されると共に、他者音声情報に基づき、ユーザの周囲に存在する他者の感情レベルが識別される(S206:感情解析ステップ)。
Furthermore, the
そして、出力情報決定部19により、ユーザ及び他者の感情レベルに基づいて、出力情報記憶部18を参照してユーザに提供する出力情報が決定され(S207:情報決定ステップ)、情報表示部20により、出力情報決定部19が決定した出力情報がディスプレイ115に表示されてユーザに提示される(S208:表示ステップ)。
Then, the output
以上に説明したように、本実施形態に係る通信端末1及び情報表示方法によれば、ユーザの音声に基づいてユーザの感情レベルを識別すると共に、ユーザの周辺の音情報から抽出された他者の音声に基づいて他者の感情レベルも識別される。そして、これらのユーザの感情レベルと他者の感情レベルとに基づいてユーザに提供する情報が決定される。このため、ユーザ自身の感情レベルとユーザの周囲にいる他者の感情レベルとを比較して、ユーザと周囲の他者との相対的関係の影響も考慮して、ユーザが置かれている状況を精度良く推定することが可能となり、この結果、ユーザの状況に応じた適切な情報を提供することができる。 As described above, according to the communication terminal 1 and the information display method according to the present embodiment, the emotion level of the user is identified based on the user's voice and the other person extracted from the sound information around the user. The other person's emotional level is also identified based on the voice. Then, information to be provided to the user is determined based on the emotion level of these users and the emotion level of others. For this reason, the situation where the user is placed by comparing the emotion level of the user himself with the emotion level of others around the user, and also taking into account the influence of the relative relationship between the user and others around the user As a result, it is possible to provide appropriate information according to the user's situation.
また、集音部11が周囲の音を常時集音して音情報として取得するため、通話中以外でもユーザが置かれている状況を認識することが可能となり、より一層適切な情報をユーザに提供することができる。
In addition, since the
以上、本発明に係る通信端末及び情報表示方法について好適な実施形態を挙げて説明したが、本発明は上記実施形態に限定されるものではない。例えば、上記実施形態では、ユーザに提供する出力情報としてディスプレイ115に提示するメッセージとしたが、この他、文字入力機能における文字変換候補や絵文字を適用してもよい。
The communication terminal and the information display method according to the present invention have been described with reference to the preferred embodiments, but the present invention is not limited to the above embodiments. For example, in the above embodiment, a message presented on the
また、出力情報を決めるためのユーザ及び他者の感情レベルは、上記実施形態で例示した「喜」、「怒」、「哀」、「楽」の他に、例えば「憤怒」、「嫌気」、「好意」など他の感情を適用してもよい。 In addition to the “joy”, “anger”, “sorrow”, and “easy” exemplified in the above embodiment, the emotion level of the user and others for determining the output information is, for example, “anger”, “anaerobic” Other emotions such as “favor” may be applied.
また、音情報記憶部14に保持される音情報を解析して会話内容を判別し、ユーザと他者との関係(友人、上司、部下、恋人、家族など)や、会話の場所(会社、自宅、デパートなど)といったより詳細な情報を識別可能とし、この情報に応じて適宜選択可能な複数の出力情報記憶部18を備え、より一層ユーザの心理状態に適合した出力情報を提供することができるよう構成してもよい。
Also, the sound information held in the sound
1…通信端末、11…集音部(集音手段)、12…音声登録部、13…ユーザ音声記憶部、14…音情報記憶部、15…ユーザ音声抽出部(ユーザ音声抽出手段)、16…他者音声抽出部(他者音声抽出手段)、17…感情解析部(感情解析手段)、18…出力情報記憶部、19…出力情報決定部(情報決定手段)、20…情報表示部(表示手段)。
DESCRIPTION OF SYMBOLS 1 ... Communication terminal, 11 ... Sound collection part (sound collection means), 12 ... Voice registration part, 13 ... User voice storage part, 14 ... Sound information storage part, 15 ... User voice extraction part (user voice extraction means), 16 ... other person voice extraction unit (other person voice extraction unit), 17 ... emotion analysis unit (emotion analysis unit), 18 ... output information storage unit, 19 ... output information determination unit (information determination unit), 20 ... information display unit ( Display means).
Claims (3)
前記集音手段により取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出手段と、
前記集音手段により取得された音情報から前記ユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出手段と、
前記ユーザ音声抽出手段により抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、前記他者音声抽出手段により抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析手段と、
前記感情解析手段により識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定手段と、
前記情報決定手段により決定された情報を表示してユーザに提示する表示手段と、
を備えることを特徴とする通信端末。 Sound collecting means for collecting surrounding sound and obtaining it as sound information;
User voice extraction means for extracting user voice information indicating the user's voice from the sound information acquired by the sound collection means;
Another person voice extraction means for extracting other person voice information indicating the voice of another person other than the user from the sound information acquired by the sound collecting means;
Emotion that identifies the user's emotion level based on the user voice information extracted by the user voice extraction means and also identifies the emotion level of the other person based on the other person's voice information extracted by the other person's voice extraction means Analysis means;
Information determining means for determining information to be provided to the user based on the emotion level of the user identified by the emotion analyzing means and the emotion level of the other;
Display means for displaying the information determined by the information determination means and presenting it to the user;
A communication terminal comprising:
前記集音ステップにおいて取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出ステップと、
前記集音ステップにおいて取得された音情報から前記ユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出ステップと、
前記ユーザ音声抽出ステップにおいて抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、前記他者音声抽出ステップにおいて抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析ステップと、
前記感情解析ステップにおいて識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定ステップと、
前記情報決定ステップにおいて決定された情報を表示してユーザに提示する表示ステップと、
を備えることを特徴とする情報表示方法。
A sound collection step for collecting ambient sound and acquiring it as sound information;
A user voice extraction step for extracting user voice information indicating a user voice from the sound information acquired in the sound collection step;
Other person voice extraction step of extracting other person voice information indicating the voice of another person other than the user from the sound information acquired in the sound collecting step;
Emotion that identifies the user's emotion level based on the user voice information extracted in the user voice extraction step and also identifies the emotion level of the other person based on the other person's voice information extracted in the other person's voice extraction step An analysis step;
An information determination step for determining information to be provided to the user based on the emotion level of the user identified in the emotion analysis step and the emotion level of the other person,
A display step of displaying the information determined in the information determination step and presenting it to the user;
An information display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009090176A JP4884496B2 (en) | 2009-04-02 | 2009-04-02 | Communication terminal and information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009090176A JP4884496B2 (en) | 2009-04-02 | 2009-04-02 | Communication terminal and information display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010244190A true JP2010244190A (en) | 2010-10-28 |
JP4884496B2 JP4884496B2 (en) | 2012-02-29 |
Family
ID=43097163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009090176A Active JP4884496B2 (en) | 2009-04-02 | 2009-04-02 | Communication terminal and information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4884496B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014003593A (en) * | 2012-06-19 | 2014-01-09 | International Business Maschines Corporation | Recognition and feedback of facial and vocal emotions |
JP2016103081A (en) * | 2014-11-27 | 2016-06-02 | Kddi株式会社 | Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program |
CN106446187A (en) * | 2016-09-28 | 2017-02-22 | 广东小天才科技有限公司 | Method and device for processing information |
JP2019036201A (en) * | 2017-08-18 | 2019-03-07 | ヤフー株式会社 | Output controller, output control method, and output control program |
CN109920450A (en) * | 2017-12-13 | 2019-06-21 | 北京回龙观医院 | Information processing unit and information processing method |
-
2009
- 2009-04-02 JP JP2009090176A patent/JP4884496B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014003593A (en) * | 2012-06-19 | 2014-01-09 | International Business Maschines Corporation | Recognition and feedback of facial and vocal emotions |
JP2016103081A (en) * | 2014-11-27 | 2016-06-02 | Kddi株式会社 | Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program |
CN106446187A (en) * | 2016-09-28 | 2017-02-22 | 广东小天才科技有限公司 | Method and device for processing information |
JP2019036201A (en) * | 2017-08-18 | 2019-03-07 | ヤフー株式会社 | Output controller, output control method, and output control program |
CN109920450A (en) * | 2017-12-13 | 2019-06-21 | 北京回龙观医院 | Information processing unit and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4884496B2 (en) | 2012-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103650035B (en) | Via social graph, speech model and the user context identification people close to mobile device users | |
JP6651973B2 (en) | Interactive processing program, interactive processing method, and information processing apparatus | |
JP6572361B2 (en) | Action calling program and portable terminal device | |
JP4364251B2 (en) | Apparatus, method and program for detecting dialog | |
JP5059036B2 (en) | Voice recognition server, telephone, voice recognition system, and voice recognition method | |
JP4884496B2 (en) | Communication terminal and information display method | |
KR100678212B1 (en) | Method for controlling information of emotion in wireless terminal | |
JP2015516091A (en) | Method and terminal for updating voiceprint feature model | |
US20140051399A1 (en) | Methods and devices for storing recognized phrases | |
CN108696644A (en) | Cooperate phone credit system | |
US7925293B2 (en) | Automated communication using image capture | |
CN103888581A (en) | Communication terminal and method for recording communication information thereof | |
WO2008021505A3 (en) | Providing contextual information for spoken information | |
JP2009136456A (en) | Mobile terminal device | |
US11768583B2 (en) | Integration of third party application as quick actions | |
WO2016203805A1 (en) | Information processing device, information processing system, information processing method, and program | |
CN106462832A (en) | Invoking action responsive to co-presence determination | |
JP6074999B2 (en) | Suspicious communication destination warning system, suspicious communication destination warning method, and program | |
KR100920442B1 (en) | Methods for searching information in portable terminal | |
TW200824408A (en) | Methods and systems for information retrieval during communication, and machine readable medium thereof | |
US20100001857A1 (en) | Situation recognizing apparatus, situation recognizing method, and radio terminal apparatus | |
CN108595141A (en) | Pronunciation inputting method and device, computer installation and computer readable storage medium | |
CN106791010B (en) | Information processing method and device and mobile terminal | |
US20140108317A1 (en) | User data annotation method, terminal device, and server | |
JP6189684B2 (en) | Terminal device and call data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111108 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4884496 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |