JP4884496B2 - 通信端末及び情報表示方法 - Google Patents

通信端末及び情報表示方法 Download PDF

Info

Publication number
JP4884496B2
JP4884496B2 JP2009090176A JP2009090176A JP4884496B2 JP 4884496 B2 JP4884496 B2 JP 4884496B2 JP 2009090176 A JP2009090176 A JP 2009090176A JP 2009090176 A JP2009090176 A JP 2009090176A JP 4884496 B2 JP4884496 B2 JP 4884496B2
Authority
JP
Japan
Prior art keywords
user
information
voice
sound
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009090176A
Other languages
English (en)
Other versions
JP2010244190A (ja
Inventor
花野 金窪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2009090176A priority Critical patent/JP4884496B2/ja
Publication of JP2010244190A publication Critical patent/JP2010244190A/ja
Application granted granted Critical
Publication of JP4884496B2 publication Critical patent/JP4884496B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、通信端末及び情報表示方法に関する。
従来の携帯電話などの通信端末において、通話中の音声を分析して話者の感情を推定する技術が知られている(例えば特許文献1)。また、特許文献1に記載されるような話者の感情を推定する技術を利用して、音声入力形式のメール作成機能において、話者(ユーザ)の感情に対応する絵文字や記号を適宜選択し、音声入力されたテキストに付加する技術が知られている(例えば特許文献2)。
特開2006−106711号公報 特開2006−277567号公報
ここで、通信端末の利便性や親和性を高めるために、通信端末が、ユーザの置かれている状況に応じて、適切なメッセージをディスプレイに提示したり、文字変換候補や絵文字を変化させたりできると好ましい。
しかしながら、特許文献1や特許文献2に記載されるユーザの感情推定手法のようにユーザ本人の音声情報のみを利用してユーザの感情を推定したとしても、ユーザが置かれている状況を完全には理解できない可能性が高い。ユーザが置かれている状況とは、ユーザ自身の感情のみならず、例えば周囲の環境や、会話している他者との相対的関係などの影響を受けて変化するものと考えられるからである。したがって、特許文献2に記載されるように、推定されたユーザの感情のみに基づいてユーザに提供する情報を選択したとしても、実際にユーザが置かれている状況に合致せず、ユーザにとって適切な情報とはならない虞がある。
本発明は、上記課題を解決するためになされたものであり、ユーザが置かれている状況を精度良く推定し、ユーザの状況に応じた適切な情報を提供することができる通信端末及び情報表示方法を提供することを目的とする。
上記課題を解決するため、本発明に係る通信端末は、周囲の音を集音して音情報として取得する集音手段と、集音手段により取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出手段と、集音手段により取得された音情報からユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出手段と、ユーザ音声抽出手段により抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、他者音声抽出手段により抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析手段と、感情解析手段により識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定手段と、情報決定手段により決定された情報を表示してユーザに提示する表示手段と、を備えることを特徴とする。
同様に、上記課題を解決するため、本発明に係る情報表示方法は、周囲の音を集音して音情報として取得する集音ステップと、集音ステップにおいて取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出ステップと、集音ステップにおいて取得された音情報からユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出ステップと、ユーザ音声抽出ステップにおいて抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、他者音声抽出ステップにおいて抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析ステップと、感情解析ステップにおいて識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定ステップと、情報決定ステップにおいて決定された情報を表示してユーザに提示する表示ステップと、を備えることを特徴とする。
このような通信端末及び情報表示方法によれば、ユーザの音声に基づいてユーザの感情レベルを識別すると共に、ユーザの周辺の音情報から抽出された他者の音声に基づいて他者の感情レベルも識別される。そして、これらのユーザの感情レベルと他者の感情レベルとに基づいてユーザに提供する情報が決定される。このため、ユーザ自身の感情レベルとユーザの周囲にいる他者の感情レベルとを比較して、ユーザと周囲の他者との相対的関係の影響も考慮して、ユーザが置かれている状況を精度良く推定することが可能となり、この結果、ユーザの状況に応じた適切な情報を提供することができる。
また、本発明に係る通信端末において、集音手段は、周囲の音を常時集音して音情報として取得することが好適である。これにより、通話中以外でもユーザが置かれている状況を認識することが可能となり、より一層適切な情報をユーザに提供することができる。
本発明に係る通信端末及び情報表示方法によれば、ユーザの心理状態を精度良く推定し、ユーザの心理状態に応じた適切な情報を提供することができる。
本発明の一実施形態に係る通信端末の機能ブロック図である。 通信端末のハードウェア構成図である。 出力情報記憶部の構成の一例を示す図である。 図3に示す出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される場の状況や、その出力情報を選択する根拠を示す図である。 出力情報記憶部の構成の一例を示す図である。 図5に示す出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される場の状況や、その出力情報を選択する根拠を示す図である。 本実施形態の通信端末において実行されるサンプル音声登録処理を示すフローチャートである。 本実施形態の通信端末において実行される情報表示処理を示すフローチャートである。
以下、図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、本発明の一実施形態に係る通信端末の機能ブロック図である。図1に示すように、通信端末1は、集音部(集音手段)11、音声登録部12、ユーザ音声記憶部13、音情報記憶部14、ユーザ音声抽出部(ユーザ音声抽出手段)15、他者音声抽出部(他者音声抽出手段)16、感情解析部(感情解析手段)17、出力情報記憶部18、出力情報決定部(情報決定手段)19、及び情報表示部(表示手段)20を備えている。
図2は、通信端末1のハードウェア構成図である。通信端末1は、物理的には、CPU(Central Processing Unit)111、主記憶装置であるRAM(Random Access Memory)112及びROM(Read Only Memory)113、入力デバイスである入力キー等の操作部114、ディスプレイ115、無線通信部116、マイク117などを有する端末装置として構成されている。図1に示す通信端末1の各機能は、図2に示すCPU111、RAM112等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU111の制御のもとで操作部114、ディスプレイ115、無線通信部116、マイク117を動作させるとともに、RAM112やROM113におけるデータの読み出し及び書き込みを行うことで実現される。
次に、図1に示す通信端末1の各機能について説明する。
集音部11は、周囲の音を常時集音して音情報として取得する。集音部11は、取得した音情報を音情報記憶部14に送信する。また、集音部11は、通信端末1が後述するユーザ音声登録処理を実行する際には、取得した音情報を音声登録部12に送信する。なお、集音部11は、一般的には、通信端末1に付属されているマイク117である。
音声登録部12は、ユーザ音声を登録する部分である。音声登録部12は、後述するユーザ音声登録処理において、集音部11が取得した音情報を受信し、この音情報から音声情報を抽出する。そして、この抽出した音声情報を、通信端末1のユーザのサンプル音声を示すサンプル音声情報として、ユーザ音声記憶部13に送信して格納する。
ユーザ音声記憶部13は、通信端末1のユーザのサンプル音声を示すサンプル音声情報を保持する部分である。ユーザ音声記憶部13は、音声登録部12からサンプル音声情報を受信すると、保持しているサンプル音声情報を更新する。また、ユーザ音声記憶部13は、ユーザ音声抽出部15に対して、保持しているサンプル音声情報を提供する。
音情報記憶部14は、集音部11により取得されて音情報を保持する部分である。音情報記憶部14は、本実施形態では、集音部11から送信される音情報のうち最新の5分間の音情報を常に保持するよう構成されている。音情報記憶部14は、ユーザ音声抽出部15に対して、保持している音情報を提供する。
ユーザ音声抽出部15は、音情報記憶部14に保持されている音情報から、ユーザの音声を示すユーザ音声情報を抽出する部分である。具体的には、ユーザ音声抽出部15は、定期的に音情報記憶部14から音情報を取得して、ユーザ音声記憶部13に保持されているサンプル音声情報を利用して、音情報にユーザ音声が含まれているか否かを確認する。音情報にユーザ音声が含まれていた場合には、音情報からユーザ音声情報を抽出し、抽出したユーザ音声情報を感情解析部17に送信すると共に、ユーザ音声情報を除外した音情報を他者音声抽出部16に送信する。
他者音声抽出部16は、音情報から通信端末1のユーザ以外の他者の音声を示す他者音声情報を抽出する部分である。具体的には、他者音声抽出部16は、ユーザ音声抽出部15よりユーザ音声情報を除外した音情報を受信すると、この音情報を解析して他者音声情報を抽出し、抽出した他者音声情報を感情解析部17に送信する。
なお、本実施形態では、「他者」とは、集音部11で音声を拾える程度の距離にユーザの周囲に存在している人間であって、ユーザと直接会話しているか、またはユーザの周囲で他の人間と会話しており、少なからずユーザの心理状態に影響を与えうる人間のことをいうものとする
感情解析部17は、ユーザ音声抽出部15により抽出されたユーザ音声情報に基づき通信端末1のユーザの感情レベルを識別すると共に、他者音声抽出部16により抽出された他者音声情報に基づき、ユーザの周囲に存在する他者の感情レベルを識別する。感情解析部17は、具体的には、音声情報の音量、波形、ピッチ、音韻などの情報を利用して、感情レベルを識別する。本実施形態では、感情レベルとして、大枠では「喜」、「怒」、「哀」、「楽」の4パターンが設定されており、さらに「怒」に関しては「激しい怒り」、「怒」、「内面的な怒り」の3パターンに細分化されて設定されている。なお、感情解析部17における感情推定には周知の手法を用いればよく、このような手法については、例えば国際公開番号WO00/62279などに記載されている。
出力情報記憶部18は、ユーザの感情レベルと他者の感情レベルに応じた出力情報を保持している。つまり、出力情報記憶部18は、ユーザの感情と周囲の人間の感情を掛け合わせたときにどのような出力をするのが適当かというルールを規定するものである。
図3〜6を参照して、出力情報記憶部18の具体的な構成について説明する。図3は、出力情報記憶部18の構成の一例を示す図である。図3に示すように、出力情報記憶部18は、ユーザの4段階の感情レベル(「喜」、「怒」、「哀」、「楽」)の1つと、他者の4段階の感情レベルの1つに対応する合計16パターンの出力情報が保持されている。また、図4は、図3に示す16パターンの出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される、ユーザが置かれている場の状況や、その出力情報を選択する根拠を示す図である。この例では、ユーザの感情レベルが「喜」の場合、他者の感情レベルが「喜」ならば、「ユーザも周囲も喜んでいる状況なので、共に喜ぶ」という根拠に基づいて(図4参照)、出力情報は「よかったね」となる。また、他者の感情レベルが「怒」ならば、「ユーザは喜んでいるが周囲は怒っているので、有頂天になっていそうなユーザに注意喚起する」という根拠に基づいて、出力情報は「冷静に!」となる。このように、出力情報記憶部18は、ユーザの感情レベルが同一であっても、他者の感情レベルが異なる場合には、ユーザが置かれているそれぞれの場の状況に応じて別の出力情報が選択されるように構成されている。
図5は、図3においてユーザ及び他者の感情レベルが共に「怒」である部分31について、感情レベルをさらに細分化したときの出力情報を示す図である。図5に示すように、出力情報記憶部18は、感情レベル「怒」に関しては、ユーザ及び他者の感情レベルがさらに3パターン(「激しい怒り」、「怒」、「内面的な怒り」)に細分化され、ユーザ及び他者の感情レベルに応じて合計9パターンの出力情報が保持されている。また、図6は、図4と同様に、図5に示すユーザ及び他者の感情レベルが「怒」の部分31の9パターンの出力情報それぞれにおいて、ユーザと他者との感情レベルによって想定される、ユーザが置かれている場の状況や、その出力情報を選択する根拠を示す図である。図5、6に示すように、ユーザ及び他者が共に怒りの感情を抱いている場合でも、各自の怒りの度合いに応じてユーザの置かれる場の状況は異なるものであると考えられ、それぞれの場の状況に応じた別の出力情報が選択されるように構成されている。
図1に戻り、出力情報決定部19は、感情解析部17により識別されたユーザ及び他者の感情レベルに基づいて、出力情報記憶部18を参照してユーザに提供する出力情報を決定する。
情報表示部20は、出力情報決定部19により決定された出力情報を表示してユーザに提示する部分である。情報表示部20は、一般的には、通信端末1のディスプレイ115である。
次に、図7、8に示すフローチャートを用いて、本実施形態の通信端末1において実行される処理を説明すると共に、本実施形態に係る情報表示方法について説明する。図7は、本実施形態の通信端末1において実行されるサンプル音声登録処理を示すフローチャートである。このサンプル音声登録処理は、主に音声登録部12により実行される。
まず、音声登録部12によりサンプル音声登録処理が開始されると(S101)、例えばディスプレイ115にユーザの音声を登録するためユーザに発声を促す旨の指示が表示される。そして、集音部11により集音が開始され(S101)、集音されたユーザの音声を含む音情報が音声登録部12に送信される。
次に、音声登録部12により、集音部11から受信した音情報から音声情報が抽出され(S103)、抽出された音声が1種類か否かが確認される(S104)。抽出された音声が1種類ではない場合は、ユーザの声として登録できないので、集音をやり直すべくステップS103に戻る。抽出された音声が1種類である場合は、抽出された音声がユーザの音声を抽出するためのサンプル音声としてユーザ音声記憶部13に登録される(S105)。
図8は、本実施形態の通信端末1において実行される情報表示処理を示すフローチャートである。この情報表示処理は、図7に示したサンプル音声登録処理が実行され、ユーザのサンプル音声がユーザ音声記憶部13に登録された後に実施される。
まず、ユーザ音声抽出部15により、音情報記憶部14から集音部11が集音した最新5分間の通信端末1の周囲の音情報が取得され、この音情報から音声情報が抽出される(S201:集音ステップ)と、この音声情報がユーザ音声記憶部13に保持されているサンプル音声情報と比較される(S202)。
次に、ステップS202の比較結果に基づいて音情報記憶部14の音情報にユーザ音声が含まれているか否かが確認される(S203)。音情報にユーザ音声が含まれていた場合にはステップS204に移行する。音情報にユーザ音声が含まれていない場合にはステップS201に戻り、再びユーザ音声抽出部15が音情報記憶部14の音情報に音声が含まれているのを検知するまで待機する。
ステップS203において音情報にユーザ音声が含まれていると判定された場合、ユーザ音声抽出部15により、音情報からユーザ音声情報が抽出され(S204:ユーザ音声抽出ステップ)、抽出されたユーザ音声情報が感情解析部17に送信されると共に、ユーザ音声情報を除外した音情報が他者音声抽出部16に送信される。
次に、他者音声抽出部16により、ユーザ音声抽出部15がユーザ音声情報を除外した音情報から他者音声情報が抽出され(S205:他者音声抽出ステップ)、抽出された他者音声情報が感情解析部17に送信される。
さらに、感情解析部17により、ユーザ音声情報に基づき通信端末1のユーザの感情レベルが識別されると共に、他者音声情報に基づき、ユーザの周囲に存在する他者の感情レベルが識別される(S206:感情解析ステップ)。
そして、出力情報決定部19により、ユーザ及び他者の感情レベルに基づいて、出力情報記憶部18を参照してユーザに提供する出力情報が決定され(S207:情報決定ステップ)、情報表示部20により、出力情報決定部19が決定した出力情報がディスプレイ115に表示されてユーザに提示される(S208:表示ステップ)。
以上に説明したように、本実施形態に係る通信端末1及び情報表示方法によれば、ユーザの音声に基づいてユーザの感情レベルを識別すると共に、ユーザの周辺の音情報から抽出された他者の音声に基づいて他者の感情レベルも識別される。そして、これらのユーザの感情レベルと他者の感情レベルとに基づいてユーザに提供する情報が決定される。このため、ユーザ自身の感情レベルとユーザの周囲にいる他者の感情レベルとを比較して、ユーザと周囲の他者との相対的関係の影響も考慮して、ユーザが置かれている状況を精度良く推定することが可能となり、この結果、ユーザの状況に応じた適切な情報を提供することができる。
また、集音部11が周囲の音を常時集音して音情報として取得するため、通話中以外でもユーザが置かれている状況を認識することが可能となり、より一層適切な情報をユーザに提供することができる。
以上、本発明に係る通信端末及び情報表示方法について好適な実施形態を挙げて説明したが、本発明は上記実施形態に限定されるものではない。例えば、上記実施形態では、ユーザに提供する出力情報としてディスプレイ115に提示するメッセージとしたが、この他、文字入力機能における文字変換候補や絵文字を適用してもよい。
また、出力情報を決めるためのユーザ及び他者の感情レベルは、上記実施形態で例示した「喜」、「怒」、「哀」、「楽」の他に、例えば「憤怒」、「嫌気」、「好意」など他の感情を適用してもよい。
また、音情報記憶部14に保持される音情報を解析して会話内容を判別し、ユーザと他者との関係(友人、上司、部下、恋人、家族など)や、会話の場所(会社、自宅、デパートなど)といったより詳細な情報を識別可能とし、この情報に応じて適宜選択可能な複数の出力情報記憶部18を備え、より一層ユーザの心理状態に適合した出力情報を提供することができるよう構成してもよい。
1…通信端末、11…集音部(集音手段)、12…音声登録部、13…ユーザ音声記憶部、14…音情報記憶部、15…ユーザ音声抽出部(ユーザ音声抽出手段)、16…他者音声抽出部(他者音声抽出手段)、17…感情解析部(感情解析手段)、18…出力情報記憶部、19…出力情報決定部(情報決定手段)、20…情報表示部(表示手段)。

Claims (3)

  1. 周囲の音を集音して音情報として取得する集音手段と、
    前記集音手段により取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出手段と、
    前記集音手段により取得された音情報から前記ユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出手段と、
    前記ユーザ音声抽出手段により抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、前記他者音声抽出手段により抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析手段と、
    前記感情解析手段により識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定手段と、
    前記情報決定手段により決定された情報を表示してユーザに提示する表示手段と、
    を備えることを特徴とする通信端末。
  2. 前記集音手段は、周囲の音を常時集音して音情報として取得することを特徴とする請求項1に記載の通信端末。
  3. 周囲の音を集音して音情報として取得する集音ステップと、
    前記集音ステップにおいて取得された音情報からユーザの音声を示すユーザ音声情報を抽出するユーザ音声抽出ステップと、
    前記集音ステップにおいて取得された音情報から前記ユーザ以外の他者の音声を示す他者音声情報を抽出する他者音声抽出ステップと、
    前記ユーザ音声抽出ステップにおいて抽出されたユーザ音声情報に基づき、ユーザの感情レベルを識別すると共に、前記他者音声抽出ステップにおいて抽出された他者音声情報に基づき、他者の感情レベルを識別する感情解析ステップと、
    前記感情解析ステップにおいて識別されたユーザの感情レベルと、他者の感情レベルとに基づいて、ユーザに提供する情報を決定する情報決定ステップと、
    前記情報決定ステップにおいて決定された情報を表示してユーザに提示する表示ステップと、
    を備えることを特徴とする情報表示方法。
JP2009090176A 2009-04-02 2009-04-02 通信端末及び情報表示方法 Active JP4884496B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009090176A JP4884496B2 (ja) 2009-04-02 2009-04-02 通信端末及び情報表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090176A JP4884496B2 (ja) 2009-04-02 2009-04-02 通信端末及び情報表示方法

Publications (2)

Publication Number Publication Date
JP2010244190A JP2010244190A (ja) 2010-10-28
JP4884496B2 true JP4884496B2 (ja) 2012-02-29

Family

ID=43097163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090176A Active JP4884496B2 (ja) 2009-04-02 2009-04-02 通信端末及び情報表示方法

Country Status (1)

Country Link
JP (1) JP4884496B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130337420A1 (en) * 2012-06-19 2013-12-19 International Business Machines Corporation Recognition and Feedback of Facial and Vocal Emotions
JP6400445B2 (ja) * 2014-11-27 2018-10-03 Kddi株式会社 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
CN106446187A (zh) * 2016-09-28 2017-02-22 广东小天才科技有限公司 信息的处理方法及装置
JP6767322B2 (ja) * 2017-08-18 2020-10-14 ヤフー株式会社 出力制御装置、出力制御方法及び出力制御プログラム
CN109920450A (zh) * 2017-12-13 2019-06-21 北京回龙观医院 信息处理装置及信息处理方法

Also Published As

Publication number Publication date
JP2010244190A (ja) 2010-10-28

Similar Documents

Publication Publication Date Title
CN106024014B (zh) 一种语音转换方法、装置及移动终端
JP5996783B2 (ja) 声紋特徴モデルを更新するための方法及び端末
CN103650035B (zh) 经由社交图谱、语音模型和用户情境识别接近移动装置用户的人
JP6651973B2 (ja) 対話処理プログラム、対話処理方法および情報処理装置
JP6572361B2 (ja) 行動喚起プログラム及び携帯端末装置
CN103888581B (zh) 一种通信终端及其记录通话信息的方法
JP4364251B2 (ja) 対話を検出する装置、方法およびプログラム
JP4884496B2 (ja) 通信端末及び情報表示方法
JP5059036B2 (ja) 音声認識サーバ、電話機、音声認識システム、および音声認識方法
KR100678212B1 (ko) 휴대단말기의 감정정보 제어방법
US7925293B2 (en) Automated communication using image capture
US20240118790A1 (en) Integration of third party application as quick actions
WO2016203805A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN106462832A (zh) 响应于共同存在确定的调用动作
JP2014081755A (ja) 不審通信先警告システム、不審通信先警告方法、及びプログラム
KR100920442B1 (ko) 휴대 단말기에서 정보 검색 방법
TW200824408A (en) Methods and systems for information retrieval during communication, and machine readable medium thereof
JP2006325116A (ja) 通知装置、通知方法、通知プログラム
CN108595141A (zh) 语音输入方法及装置、计算机装置和计算机可读存储介质
CN106791010B (zh) 一种信息处理的方法、装置和移动终端
WO2020153110A1 (ja) 音声解析システム
CN108737634A (zh) 语音输入方法及装置、计算机装置和计算机可读存储介质
CN108683789A (zh) 联系人信息添加方法、装置、终端及存储介质
US20140037079A1 (en) Electronic display method and device
JP6189684B2 (ja) 端末装置及び通話データ処理方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4884496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250