JP2004234095A - Portable terminal device and information retrieval providing method - Google Patents

Portable terminal device and information retrieval providing method Download PDF

Info

Publication number
JP2004234095A
JP2004234095A JP2003018890A JP2003018890A JP2004234095A JP 2004234095 A JP2004234095 A JP 2004234095A JP 2003018890 A JP2003018890 A JP 2003018890A JP 2003018890 A JP2003018890 A JP 2003018890A JP 2004234095 A JP2004234095 A JP 2004234095A
Authority
JP
Japan
Prior art keywords
information
user
site
voice
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003018890A
Other languages
Japanese (ja)
Inventor
Kiyoshi Yamaki
清志 山木
Nobukazu Toba
伸和 鳥羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003018890A priority Critical patent/JP2004234095A/en
Publication of JP2004234095A publication Critical patent/JP2004234095A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable terminal device and an information retrieval providing method for acquiring information matching interest of a user from a network, interpreting the information, and processing it into information matching the interest of the user for providing it by voice. <P>SOLUTION: This information retrieval providing method includes steps for: extracting interest information relating to the interest of the user; searching a site via a network according to the extracted interest information and reading information provided by the site; extracting a keyword from the information read from the site according to the interest information; generating a word representing information satisfying the user interest according to the extracted keyword; converting the word generated in the previous step into voice data; and uttering voice on the basis of the the converted voice data. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ネットワークから情報を取得し、取得した情報を解釈して、ユーザに伝える携帯端末装置及び情報検索提供方法に関する。
【0002】
【従来の技術】
例えば、特許文献1には、マスコットキャラクタを介してユーザと対話型の情報交換を行う情報検索システムの発明が開示されている。この特許文献1に記載の技術は、ユーザが、ユーザインターフェース部をもつパーソナルコンピュータからネットワークを介して情報検索システムに接続し、この情報検索システムが、その検索結果に、登録されたユーザ情報を反映させ、さらに助言を付加し、ユーザインターフェース部に実現されるマスコットキャラクタを介してユーザに提供する、というものである。このようにマスコットキャラクタを介して情報を提供するので、パーソナルコンピュータに不慣れな初心者でも親しみをもって操作できるものとなっている。
【0003】
【特許文献1】
特開2001−222538号公報
【0004】
【発明が解決しようとする課題】
しかし、上記特許文献1に記載の発明では、定型的に登録されるユーザ情報に基づき、ネットワーク上の情報の検索が行われるので、ユーザの趣向に関しては登録時のデータに基づくだけで、多様かつさらに流動的とも言える個人の趣向に合った情報が必ずしもタイムリーに検索されるわけではない。また、ユーザに対する情報の提供方法も、マスコットキャラクタを介するものの、取得した情報をそのままあるいはさらに助言を付加して画面表示するだけで、ユーザの趣向に応じて情報を解釈し、新たにユーザの趣向に応じた語句を生成して、さらに音声によりユーザに提供するものではない。
【0005】
本発明は、上記の点に鑑みてなされたもので、ネットワークから、ユーザ個人の趣向に合った情報を取得して、この情報を解釈し、さらにユーザの趣向に合った情報に加工して音声により提供することができる携帯端末装置及び情報検索提供方法を提供するものである。
【0006】
【課題を解決するための手段】
請求項1に記載の発明の携帯端末装置は、ユーザの趣向と関連する趣向情報を抽出する趣向情報抽出手段と、ネットワークより前記趣向情報を基にサイトを検索または参照し、該サイトが提供する情報を読み出すサイト検索手段と、前記サイトから読み出した情報から、前記趣向情報を基にキーワードを抽出するキーワード抽出手段と、前記キーワードを基にユーザの趣向を満たすための情報を表す語句を生成する語句生成手段と、前記語句生成手段が生成した語句を音声データに変換する音声データ生成手段と、前記音声データを基に音声を発音する音声発音手段とを具備することを特徴としている。
【0007】
また、請求項2に記載の発明は、請求項1に記載の携帯端末装置において、前記趣向情報抽出手段は、サイトのアドレスが登録されるブックマークまたはサイトの閲覧履歴から前記趣向情報の抽出を行うことを特徴としている。
【0008】
また、請求項3に記載の発明は、請求項1に記載の携帯端末装置において、前記趣向情報抽出手段は、ユーザの記述によるメール文または受信した受信メール文から前記趣向情報の抽出を行うことを特徴としている。
【0009】
また、請求項4に記載の発明は、請求項1に記載の携帯端末装置において、前記趣向情報抽出手段は、ユーザが入力したデータを趣向情報とすることを特徴としている。
【0010】
また、請求項5に記載の発明は、請求項1から請求項4のいずれかに記載の携帯端末装置において、前記携帯端末装置上に設定されるマスコットキャラクタ毎に、該マスコットキャラクタの少なくとも口調を規定する語彙データベースをさらに持ち、音声データ生成手段は、前記語彙データベースを基に前記変換を行うことを特徴としている。
【0011】
また、請求項6に記載の発明は、請求項1から請求項5のいずれかに記載の携帯端末装置において、前記音声データ生成手段は、前記音声発音手段にて音声を発音する際の音程のデータを付加した音声データを生成することを特徴としている。
【0012】
また、請求項7に記載の発明の情報検索提供方法は、コンピュータシステムにより実行される方法であって、ユーザの趣向と関連する趣向情報を抽出するステップと、ネットワークより前記趣向情報を基にサイトを検索し該サイトが提供する情報を読み出すステップと、前記サイトから読み出した情報から、前記趣向情報を基にキーワードを抽出するステップと、前記キーワードを基にユーザの趣向を満たすための情報を表す語句を生成するステップと、前ステップで生成した語句を音声データに変換するステップと、前記音声データを基に音声を発音させるステップと、を含むことを特徴としている。
【0013】
本発明では、趣向情報抽出手段が、ユーザの趣向と関連する趣向情報を抽出し、サイト検索手段が、ネットワークより趣向情報を基にサイトを検索または参照して、該サイトが提供する情報を読み出す。そして、キーワード抽出手段が、サイトから読み出した情報から、趣向情報を基にキーワードを抽出すると、語句生成手段が、このキーワードを基にユーザの趣向を満たすための情報を表す語句を生成する。ここで生成されたユーザの趣向を満たすための情報を表す語句は、音声データ生成手段により音声データに変換され、音声発音手段が、この音声データを基に音声を発音する。
【0014】
なお、趣向情報抽出手段は、請求項2に記載の発明にあっては、サイトのアドレスが登録されるブックマークまたはサイトの閲覧履歴から前記趣向情報の抽出を行い、請求項3に記載の発明にあっては、ユーザの記述によるメール文または受信した受信メール文から前記趣向情報の抽出を行い、請求項4に記載の発明にあっては、ユーザが入力したデータを趣向情報とする。
このようにして、得られた趣向情報を基に、ユーザの趣向を満たすための情報を表す語句が生成され、それが音声化されるので、ユーザは、手間をかけずに、自身の趣向に合った興味のある情報を音声により受けることができる。
【0015】
また、請求項5に記載の発明にあっては、前記携帯端末装置上に設定されるマスコットキャラクタ毎に、該マスコットキャラクタの少なくとも口調を規定する語彙データベースをさらに持ち、音声データ生成手段が、この語彙データベースを基に、語句生成手段が生成した語句の音声データへの変換を行う。これにより、マスコットキャラクタが、それぞれの音声(例えば、それぞれの口調等)で発音をし、面白く、ユーザフレンドリーなものとなる。
また、請求項6に記載の発明にあっては、音声データ生成手段が、音声発音手段にて音声を発音する際の音程のデータを付加した音声データを生成する。これにより、発音される音声に音程の変化を与えることが可能となり、例えば、鼻歌のような発音をさせることも可能となって、さらにユーザフレンドリーなものとなる。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の携帯端末装置の一実施の形態である携帯電話機の概略構成を示すブロック図である。なお、本発明の携帯端末装置は、携帯電話機に限らず、PHS(登録商標)(Personal handyphone system)や、無線によりネットワークに接続可能な携帯情報端末を利用し構成してもよい。
【0017】
図1において、符号11は、CPU(中央処理装置)であり、各種制御プログラムを実行することにより携帯端末装置1の各部の動作を制御する。
符号12は、通信部であり、この通信部12に備わるアンテナ12aで受信された信号の復調を行うとともに、送信する信号を変調してアンテナ12aに供給している。
上記CPU・11は、通信部12で復調されたインターネット等のネットワークからの信号を、所定のプロトコルに従って復号化をし、この信号に含まれる情報またはこの情報をユーザの趣向に合うように加工した情報(後述)とマスコットキャラクタの画像を下記の表示部21に表示させるとともに、下記の音声合成機能付音源部16に音声合成させる。また、アクセス先のサイトに送信するデータは、CPU・11により所定のプロトコルによる符号化が行われ、通信部12にて変調された後、アクセス先のサイトに向け、アンテナ12aから基地局に送信される。
【0018】
符号13は、音声処理部である。通信部12で復調された電話回線の信号は、この音声処理部13において復号され、スピーカ14から出力される。一方、マイク15から入力された音声信号はデジタル化され音声処理部13において圧縮符号化される。そして、通信部12にて変調されアンテナ12aから携帯電話網の基地局へ出力される。音声処理部13は、例えばCELP(Code Excited LPC)系やADPCM(適応差分PCM符号化)方式により、音声データを高能率圧縮符号化/復号化している。
【0019】
符号16は、音声合成機能付音源部であり、着信音として選択された楽曲データを再生しスピーカ17から放音する。また、ユーザの趣向に合った情報(またはユーザの趣向に合うように加工された情報)からなる音声データおよび所要のパラメータを受けた場合には(以下、音声データは、所要のパラメータを含むものとする)、これを音声合成してスピーカ17から発音(発声)する。この音声合成機能付音源部16による音声合成は、例えば、特公昭58−53351号公報に開示されたCSM音声合成の技術をFM音源に適用することで実現できる。
また、符号18は、操作部であり、携帯電話機1の本体に設けられた英数字のボタンを含む各種ボタン(図示せず)やその他の入力デバイスからの入力を検知する入力手段である。
【0020】
符号19は、RAM(Random Access Memory)であり、CPU・11のワークエリアや、ダウンロードされた楽曲データや伴奏データの格納エリアや、受信した電子メールのデータが格納されるメールデータ格納エリアや、サイトからダウンロードした情報やこの情報を加工したデータを格納する格納エリア、さらにサイトのアドレスを登録するブックマークを格納する格納エリアや、閲覧したサイトのアドレスやそのタイトル等のデータからなるサイトの閲覧履歴を格納する格納エリア等がさらに設定され、また後述するユーザ趣向情報データベースが格納されている。
【0021】
符号20は、ROM(Read Only Memory)である。このROM・20は、CPU・11が実行する、発信・着信等の制御をする各種電話機能プログラムや楽曲再生処理を補助するプログラムや、電子メールの送受信を制御するメール送受信機能プログラムの他、インターネット等のネットワークに接続するためのプログラムおよびそのための情報や、ユーザの趣向に関連する趣向情報をユーザ趣向情報データベースに登録するプログラムや、このユーザ趣向情報データベースを基に、ネットワークからユーザの趣向に合う情報を取得して、これを解釈しユーザの趣向を満たすための情報を表す語句に加工するプログラムや、音声合成処理を補助するプログラム等の各種プログラムと、さらに下記の表示部21に表示させるマスコットキャラクタのCG(Computer Graphics)データや、後述する日本語辞書データベース、およびマスコットキャラクタの口調を規定する語句や、その声を音声合成する際の音量・音程等を規定するパラメータ(所要のパラメータ)のデータを含む語彙データベース等の各種データが格納されている。
【0022】
また、表示部21は、LCD(Liquid Crystal Display)等からなり、CPU・11の制御により、メニュー等の表示や、サイトからダウンロードした情報や、マスコットキャラクタの画像およびユーザの趣向に合うように加工された情報等の表示や、操作部18の操作に応じた表示をする表示器である。
符号22は、着信時に着信音に代えて携帯電話機1の本体を振動させることにより、着信をユーザに知らせたり、後述のようにユーザに情報検索を打診する際に振動を与えるバイブレータである。
なお、各機能ブロックはバス30を介してデータや命令の授受を行っている。
本実施の形態における携帯電話機1は、以上のように構成される。
【0023】
本実施の形態の携帯電話機1は、ネットワーク上のサイトからユーザの趣向に合った情報を取得し、この情報を解釈してユーザの趣向を満たすための情報を表す語句に加工して伝えることを特徴とするものである。このため必要となるユーザの趣向に関連する趣向情報の抽出とその保存について、ここで説明する。
本実施の形態では、以下の3種の方法によりCPU・11が趣向情報を抽出するかその入力を受け、ユーザ趣向情報データベースに登録する(図2参照)。
【0024】
▲1▼ユーザが作成したメール文あるいは受信したメール文に含まれる文字列から日本語辞書データベースに登録されている単語を抽出し、さらに頻出する単語を趣向情報としてユーザ趣向情報データベースへ登録する。
▲2▼ユーザのサイト閲覧履歴から閲覧数の多いサイトについてそのアドレス(IPアドレスまたはURL(Uniform Resource Locator)とそのタイトルをユーザ趣向情報データベースに登録する。
▲3▼ユーザ自身が興味ある事柄の単語や文字列やサイトのアドレスを直接入力し、ユーザ趣向情報データベースに登録する。
【0025】
ここでさらに、上記ユーザ趣向情報データベース、ならびに、日本語辞書データベースおよび語彙データベースについて詳述する。
ユーザ趣向情報データベースには、上記のように、趣向情報としてユーザの趣向と関連する単語・文字列またはサイトのアドレスやそのタイトルが適宜登録される。なお、このユーザ趣向情報データベースに登録される趣向情報は、その情報が頻出する程度に応じた重み付けをもって登録される。例えば、出現したあるいは入力された頻度を当該趣向情報の重みとして、当該趣向情報と対応付け登録するようにする。こうすることで、この重みに応じて趣向情報の選択の際の優先順位をつけることができる。
【0026】
日本語辞書データベースは、ジャンル別に関連する単語が登録され、さらに単語毎に関連する発音パターンとなる文(または語句)が登録されている。例えば、「天気」というジャンルには、「晴れ」、「曇り」、「雨」、…等の単語が登録され、さらに単語「雨」には、発音パターンとなる文として「傘を持って行きなさい」等が登録されている。また、各ジャンルには、携帯端末装置1がユーザに情報検索を打診する際に発音する発音パターンとなる語句が登録されている。また、その発音パターンとなる語句は趣向情報データベースに登録されている単語・文字列またはサイトのタイトルなどに付加されて情報検索打診のための発音パターンの文となる。例えば、ジャンル「天気」には「見る?」という(情報検索を打診する際に発音する)発音パターンとなる語句が登録されており、趣向情報データベースに登録されているサイトのタイトル「明日の静岡県の天気予報」が選択された場合には、これに「見る?」が付加された「明日の静岡県の天気予報見る?」が、ユーザに情報検索を打診する際の発音パターンの文となる。
【0027】
語彙データベースには、マスコットキャラクタ毎に割り当てられた、それぞれの性格に合った表現を有する文(または語句)が、上記日本語辞書データベースに登録された発音パターンとなる文(または語句)と対応づけられ登録されている。例えば、「行きなさい」(または「傘を持って行きなさい」)に対し、あるマスコットキャラクタに対して、「いこうよ」(または「傘を持っていこうよ」)が対応づけられ登録される。また、この語彙データベースには、さらに、マスコットキャラクタ毎に、文(または語句)を発音させる際の音程・音量等を規定し音声合成機能付音源部16に与えるパラメータが登録されている。また、その発音パターンとなる文が例えば歌として発音すべきものであれば、予めその歌に対応した音程・音量等が付加されて登録されている。
【0028】
次に、このように構成された本実施形態の携帯電話機1の動作について、図3のフローチャートを用いて説明する。なお、通常の電話機能による発信・着信時の動作やメールの送受信やインターネット上のサイトへのアクセス等に係る動作については、周知の技術でありその説明は省略する。また、ユーザの趣向に関連する趣向情報は、既にユーザ趣向情報データベースに登録されているものとする。
【0029】
はじめに、ランダムに発生させるトリガ信号が発生したか否か判断する(ステップS01)。
この判断で、Yes、すなわちトリガ信号有りと判定されるとステップS02に移る。一方、この判断で、No、すなわちトリガ信号無しと判定されると、ステップS03に移る。
ステップS03では、ユーザによる(ユーザの操作による)トリガ信号が発生したか否か判断する。この判断で、Yes、すなわちユーザによるトリガ信号有りと判定されると、ステップS02に移る。一方、この判断で、No、すなわちユーザによるトリガ信号無しと判定されると、ステップS01に戻る。
【0030】
ここで、上記ステップS02またはステップS03の判断により、ステップS02に移ると、ステップS02では、前述のユーザ趣向情報データベースから単語・文字列またはサイトのアドレスとそのタイトルといった趣向情報をその重みに応じて選択し、これを表示部21に表示するとともに(このとき、さらにバイブレータ22を振動させてもよい)、この趣向情報またはその趣向情報に日本語辞書データベース(各ジャンル毎)に登録されている発音パターンとなる語句を付加させた文を音声合成により発声し、ユーザに情報検索を打診する。ここでの趣向情報の選択は、例えば、ユーザ趣向情報データベースにおいて、最も重み付けが大きい趣向情報から順に選択する。
次に、ステップS04の判断で、ユーザによる操作部18の操作を受け、情報検索を肯定(Yes)する操作がなされると、回答はYesと判定しステップS05に移り、一方、情報検索を否定(No)する操作がなされると回答はNoと判定してステップS01に戻る。
【0031】
ここで、ユーザにより情報検索を肯定(Yes)する操作がなされたとすると、ステップS05に移り、ステップS05では、提示した単語や文字列(またはサイトのアドレス)からサイト検索を実行する。単語や文字列による場合は、いわゆる検索エンジンを利用して関連するサイトのアドレスを取得する。サイトのアドレスによる場合は、このアドレスをそのまま用いるので、次のステップS06に移る。
【0032】
次に、ステップS06では、ステップS05にて検索したサイトにアクセスし、このサイトが提供する情報をダウンロードする。
そして、次のステップS07では、ダウンロードした情報から、日本語辞書データベースにおける上記単語や文字列(または、サイトのタイトル)が属する特定のジャンルの語句(複数の場合もある)を抽出(ピックアップ)する。以下では、ここで抽出された語句をサイト内情報のキーワードと称す。
【0033】
次に、上記サイト内情報のキーワードが、サイトからダウンロードした情報から抽出できたか否か判断する(ステップS08)。
この判断で、Yes、すなわちサイト内情報のキーワードの抽出ができた(ピックアップ成功)と判定されると、ステップS09に移り、一方、この判断で、No、すなわちサイト内情報のキーワードの抽出ができなかったと判定されると、ステップS10に移る。
ステップS09では、日本語辞書データベースにおける該当ジャンルから、発音すべき発音パターンの文を決定する。ここでは、例えば、ステップS07で抽出された語句(単語)で出現頻度の高い語句に対応する発音パターンの文を選択する。一方、ステップS10では、サイト内情報のキーワードが抽出できていないので、アクセスしたサイト内に記述されたテキストすべてを発音する文(発音パターンの文)として決定する。
【0034】
そして、ステップS11では、上記で決定された発音パターンの文を、前述のように該当マスコットキャラクタに応じた口調の文に変換するとともに、対応する音量・音程等のパラメータを付加した音声データを作成して音声合成機能付音源部16に供給する。
ステップS12では、音声合成機能付音源部16が、供給された音声データを基に音声合成を行いスピーカ17から発音する。このとき、CPU・11の制御により表示部21にマスコットキャラクタとステップS11にて変換された文が表示される。
なお、上記で説明した動作フローは一例であり、上記の処理の流れに限定されるものではない。例えば、ステップS08において、No(サイト内情報のキーワードの抽出ができなかった)と判定された場合は別のサイトにアクセスして同様のピックアップ処理を行い、予め設定された回数同様の処理を繰り返してもピックアップに成功しなかった場合にステップS10に移るようにしてもよい。
【0035】
ここで、上記携帯電話機1の動作の具体的例を挙げ説明する。
[実施例1]
ユーザ趣向情報データベースに、サイトのアドレスとそのタイトルが「明日の静岡県の天気予報」である趣向情報が登録されており、このタイトルが選択された場合、「明日の静岡県の天気予報見る?」と発音し、ユーザに情報検索を打診する。
これに応じてユーザよりYesの回答の入力を受けると、タイトルが「明日の静岡県の天気予報」であるサイトにアクセスし、このサイトが提供する情報を読み出す。このとき読み出した情報が、
明日の静岡県の天気予報
雨 降水確率70%
であるとすると、ジャンル分けされた日本語辞書データベース(図4参照)から、サイト内情報のキーワードとして、「天気」を抽出し、さらにこの「天気」のジャンルに含まれる語句で、さらに、登録されたキーワード「雨」をキーワードとして、この「雨」に対応づけられ登録されている「傘を持って行きなさい」の発音パターンを得る。
そして、語彙データベースから、「傘を持って行きなさい」の発音パターンを、使用するマスコットキャラクタに規定された言葉に変換する。例えば、あるマスコットキャラクタにおいては「傘を持って行きなさい」の発音パターンは、「傘を持っていこうよ」に変換され、「傘を持っていこうよ」と発音される。また、別のマスコットキャラクタにおいては、例えば「傘を持って行けよ」などと変換されて発音する。
【0036】
[実施例2]
この例は、趣向情報として「占い」が選択された場合で、例えば「占い知りたい?」などと情報検索の打診をする。
これに応じてユーザよりYesの回答の入力を受けると、「占い」を検索キーワードにしてサイトを検索する。このとき、いわゆる検索エンジンを利用してサイトの検索を行う。そして、ヒットしたサイトの内の一つにアクセスし、そのサイトが提供する情報を読み出す。
【0037】
そして、ジャンル分けされた日本語辞書データベース(図5参照)に登録された語句を基にサイト内の言葉をピックアップする。このとき「占い」のジャンルに含まれる「ラッキーカラー」がピックアップされた場合、日本語辞書データベースに登録された「ラッキーカラー」に対応して登録された発音パターンの文「ラッキーカラーは“色”です」を得る。この発音パターン文に含まれる“色”は選択可能であり、この“色”に対し、「青」、「赤」、「ピンク」…が登録されている。この“色”の項目一覧を基にサイト内情報を検索し、語句「ピンク」を検出すると、この“色”に該当すると認識し、「ラッキーカラーはピンクです」の発音パターンを得る。
【0038】
そして、語彙データベースから、「ラッキーカラーはピンクです」の発音パターンを、当該マスコットキャラクタに規定された言葉に変換し、「ラッキーカラーはピンクだよ」などと発音する。
なお、上記各実施例では、各データベースを基に発音パターンの文を得ているが、このように発音パターンの文を得ることができない場合は、前述のようにサイト内のテキストをそのまま音声出力する。
【0039】
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の構成等も含まれる。例えば、上記実施の形態におけるステップS01〜S11の処理を、ネットワーク上のホストコンピュータで行う形態、すなわち、ネットワーク上のホストコンピュータと、これにアクセス可能な携帯端末装置とで本発明を実現してもよい。この場合、上記実施の形態で携帯端末装置側に記憶されるユーザ趣向情報データベースや、日本語辞書データベース、語彙データベース等のデータはホストコンピュータ側に記憶され、ユーザ趣向情報データベースは、ユーザ毎にその趣向情報が登録される。そして、ホストコンピュータと携帯端末装置間では、一方で処理され他方で必要となる処理の結果(あるいは一方から他方に発せられる信号または情報)は、通信により一方から他方に与えられる。最終の処理の結果である、マスコットキャラクタに応じた音声データはホストコンピュータから携帯端末装置に与えられ、この携帯端末装置にて音声合成により発音される。
【0040】
また、本発明は、図3に示す動作フローまたはこの動作フローと同様の処理機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
【0041】
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0042】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0043】
【発明の効果】
以上、詳細に説明したように、本発明によれば、抽出された趣向情報を基に、ユーザの趣向を満たすための情報を表す語句が生成され、それが音声化されるので、ユーザは、手間をかけずに、自身の趣向に合った興味のある情報を音声により受けることができる。
また、本発明によれば、画面に表示されるマスコットキャラクタ毎に、該マスコットキャラクタの少なくとも口調を規定する語彙データベースをさらに持ち、音声データ生成手段が、語彙データベースを基に語句生成手段が生成した語句の音声データへの変換を行うことにより、画面に表示されたマスコットキャラクタが、それぞれの音声(例えば、それぞれの口調等)で発音をし、面白く、ユーザフレンドリーなものとなる。
また、本発明によれば、音声データ生成手段が、音声発音手段にて音声を発音する際の音程のデータを付加した音声データを生成することにより、発音される音声に音程の変化を与えることが可能となり、例えば、鼻歌のような発音をさせることも可能となって、さらにユーザフレンドリーなものとなる。
【図面の簡単な説明】
【図1】本発明の携帯端末装置の一実施の形態である携帯電話機の概略構成を示すブロック図である。
【図2】同実施の形態において、ユーザの趣向に関連する趣向情報の抽出とその保存について説明する図である。
【図3】同実施の形態の携帯電話機の動作を説明するフローチャートである。
【図4】実施例1を説明するための日本語辞書データベースの内容例である。
【図5】実施例2を説明するための日本語辞書データベースの内容例である。
【符号の説明】
1…携帯電話機(携帯端末装置)、11…CPU、12…通信部、12a…アンテナ、13…音声処理部、14,17…スピーカ、15…マイク、16…音声合成機能付音源、18…操作部、19…RAM、20…ROM、21…表示部、22…バイブレータ、30…バス
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a mobile terminal device that acquires information from a network, interprets the acquired information, and transmits the information to a user, and an information search providing method.
[0002]
[Prior art]
For example, Patent Literature 1 discloses an invention of an information search system that performs interactive information exchange with a user via a mascot character. According to the technology described in Patent Literature 1, a user connects to an information search system via a network from a personal computer having a user interface unit, and the information search system reflects the registered user information in the search result. Then, the advice is further added, and the advice is provided to the user via a mascot character realized in the user interface unit. Since the information is provided through the mascot character in this way, even a beginner unfamiliar with a personal computer can operate with a familiarity.
[0003]
[Patent Document 1]
JP 2001-222538 A
[0004]
[Problems to be solved by the invention]
However, in the invention described in Patent Literature 1, information on the network is searched based on user information registered in a fixed manner, so that the user's tastes are diverse and only based on data at the time of registration. Furthermore, information that matches the individual's taste, which can be said to be fluid, is not always retrieved in a timely manner. In addition, although the method of providing information to the user is via the mascot character, the information is interpreted according to the user's taste by simply displaying the acquired information on the screen as it is or with further advice, and newly adding the user's taste. Is not provided to the user by voice.
[0005]
The present invention has been made in view of the above points, and obtains information that matches a user's personal taste from a network, interprets this information, and further processes the information into information that matches the user's taste to produce a voice. To provide a mobile terminal device and an information search providing method that can be provided by the method.
[0006]
[Means for Solving the Problems]
According to the first aspect of the present invention, there is provided a portable terminal device for extracting preference information associated with a user's preference, and searching or referring to a site based on the preference information from a network, and providing the site. Site search means for reading information; keyword extraction means for extracting a keyword based on the taste information from the information read from the site; and a phrase representing information for satisfying a user's taste based on the keyword is generated. It is characterized by comprising a phrase generation unit, a voice data generation unit that converts the phrase generated by the phrase generation unit into voice data, and a voice pronunciation unit that generates a voice based on the voice data.
[0007]
According to a second aspect of the present invention, in the portable terminal device according to the first aspect, the preference information extracting unit extracts the preference information from a bookmark in which a site address is registered or a browsing history of the site. It is characterized by:
[0008]
According to a third aspect of the present invention, in the portable terminal device according to the first aspect, the preference information extracting means extracts the preference information from a mail text described by a user or a received mail text received. It is characterized by.
[0009]
According to a fourth aspect of the present invention, in the portable terminal device according to the first aspect, the preference information extracting unit uses data input by the user as preference information.
[0010]
According to a fifth aspect of the present invention, in the portable terminal device according to any one of the first to fourth aspects, at least tone of the mascot character is set for each mascot character set on the portable terminal device. A vocabulary database is further defined, and the speech data generating means performs the conversion based on the vocabulary database.
[0011]
According to a sixth aspect of the present invention, in the portable terminal device according to any one of the first to fifth aspects, the voice data generating means is configured to determine a pitch when the voice is generated by the voice generating means. It is characterized in that audio data to which data is added is generated.
[0012]
An information retrieval providing method according to the present invention is a method executed by a computer system, comprising: a step of extracting taste information related to a user's taste; and a site based on the taste information from a network. Searching for information provided by the site, extracting a keyword from the information read from the site based on the preference information, and representing information for satisfying the user's preference based on the keyword. It is characterized by including a step of generating a phrase, a step of converting the phrase generated in the previous step into voice data, and a step of generating a voice based on the voice data.
[0013]
In the present invention, the preference information extraction means extracts preference information related to the user's preference, and the site search means searches or refers to a site from the network based on the preference information and reads out information provided by the site. . Then, when the keyword extracting unit extracts a keyword from the information read from the site based on the taste information, the phrase generating unit generates a phrase representing information for satisfying the user's taste based on the keyword. The generated phrase representing information for satisfying the user's taste is converted into voice data by the voice data generation unit, and the voice pronunciation unit generates a voice based on the voice data.
[0014]
In the invention described in claim 2, the preference information extracting means extracts the preference information from a bookmark in which a site address is registered or a browsing history of the site. In this case, the preference information is extracted from the mail text described by the user or the received mail text received. In the invention according to claim 4, data input by the user is used as the preference information.
In this way, a phrase representing information for satisfying the user's taste is generated based on the obtained taste information and is transcribed, so that the user can use his or her own taste without any trouble. It is possible to receive the information of interest that matches by voice.
[0015]
Further, in the invention according to claim 5, for each mascot character set on the portable terminal device, a vocabulary database that defines at least the tone of the mascot character is further provided, and the voice data generation means includes: Based on the vocabulary database, the phrase generated by the phrase generation unit is converted into voice data. As a result, the mascot character pronounces with each voice (for example, each tone) and becomes interesting and user-friendly.
Further, in the invention according to claim 6, the voice data generating means generates voice data to which pitch data at the time of generating a voice by the voice generating means is added. As a result, it is possible to change the pitch of the sound to be pronounced. For example, it is also possible to cause the sound to be pronounced like a humming song, which is more user-friendly.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a mobile phone as an embodiment of the mobile terminal device of the present invention. The mobile terminal device of the present invention is not limited to a mobile phone, and may be configured using a PHS (registered trademark) (Personal handyphone system) or a mobile information terminal that can be wirelessly connected to a network.
[0017]
In FIG. 1, reference numeral 11 denotes a CPU (Central Processing Unit), which controls the operation of each unit of the portable terminal device 1 by executing various control programs.
A communication unit 12 demodulates a signal received by an antenna 12a provided in the communication unit 12, modulates a signal to be transmitted, and supplies the modulated signal to the antenna 12a.
The CPU 11 decodes a signal from a network such as the Internet demodulated by the communication unit 12 in accordance with a predetermined protocol, and processes information included in the signal or the information to suit the user's taste. Information (to be described later) and an image of the mascot character are displayed on the display unit 21 described below, and the sound source unit 16 with a voice synthesis function described below is synthesized by voice. The data to be transmitted to the access destination site is encoded by the CPU 11 according to a predetermined protocol, modulated by the communication unit 12, and then transmitted from the antenna 12a to the base station toward the access destination site. Is done.
[0018]
Reference numeral 13 denotes an audio processing unit. The telephone line signal demodulated by the communication unit 12 is decoded by the audio processing unit 13 and output from the speaker 14. On the other hand, the audio signal input from the microphone 15 is digitized and compression-encoded in the audio processing unit 13. The signal is modulated by the communication unit 12 and output from the antenna 12a to the base station of the mobile phone network. The audio processing unit 13 performs high-efficiency compression encoding / decoding of audio data by, for example, a CELP (Code Excited LPC) system or an ADPCM (adaptive differential PCM encoding) system.
[0019]
Reference numeral 16 denotes a sound source unit with a voice synthesizing function, which reproduces music data selected as a ringtone and emits the sound from a speaker 17. Also, when receiving audio data composed of information suitable for the user's taste (or information processed to meet the user's taste) and required parameters (hereinafter, the voice data includes the required parameters) ), And synthesizes this voice to generate a sound (speak) from the speaker 17. The speech synthesis by the sound source unit 16 with the speech synthesis function can be realized by applying, for example, a CSM speech synthesis technique disclosed in Japanese Patent Publication No. 58-53351 to an FM sound source.
Reference numeral 18 denotes an operation unit, which is an input unit that detects input from various buttons (not shown) including an alphanumeric button provided on the main body of the mobile phone 1 and other input devices.
[0020]
Reference numeral 19 denotes a RAM (Random Access Memory), which is a work area for the CPU 11, a storage area for downloaded music data and accompaniment data, a mail data storage area for storing received e-mail data, A storage area for storing information downloaded from the site and data obtained by processing this information, a storage area for storing bookmarks for registering site addresses, and a site browsing history consisting of data such as the address of the site visited and its title. Is further set, and a user preference information database described later is stored.
[0021]
Reference numeral 20 denotes a ROM (Read Only Memory). The ROM 20 includes various telephone function programs for controlling outgoing / incoming calls, a program for assisting music reproduction processing, a mail transmitting / receiving function program for controlling transmission / reception of e-mail, and a mail transmission / reception function program executed by the CPU 11. A program for connecting to a network, such as a program, and information therefor, a program for registering taste information related to a user's taste in a user taste information database, and a program that matches a user's taste from a network based on this user taste information database Various programs such as a program for acquiring information, interpreting it and processing it into words representing information to satisfy the user's taste, a program for assisting speech synthesis processing, and a mascot to be further displayed on the display unit 21 described below. CG (Computer Graphics) Data, a Japanese dictionary database described later, a vocabulary database including data defining parameters (required parameters) defining words and phrases defining the tone of the mascot character, and volume and pitch when the voice is synthesized. Are stored.
[0022]
The display unit 21 is formed of an LCD (Liquid Crystal Display) or the like, and is controlled by the CPU 11 to display a menu or the like, information downloaded from a site, an image of a mascot character, and the user's preference. It is a display for displaying the displayed information and the like and displaying according to the operation of the operation unit 18.
Reference numeral 22 denotes a vibrator for notifying the user of the incoming call by vibrating the main body of the mobile phone 1 in place of a ring tone at the time of an incoming call, and for giving a vibration when asking the user for information search as described later.
Each functional block exchanges data and instructions via the bus 30.
The mobile phone 1 according to the present embodiment is configured as described above.
[0023]
The mobile phone 1 according to the present embodiment acquires information suitable for the user's taste from a site on the network, interprets this information, and processes the word into a word representing information for satisfying the user's taste. It is a feature. The extraction of the preference information related to the user's preference and the storage thereof will be described here.
In the present embodiment, the CPU 11 extracts or receives input of preference information and registers it in the user preference information database by the following three methods (see FIG. 2).
[0024]
{Circle around (1)} Words registered in the Japanese dictionary database are extracted from a character string included in a mail sentence created by the user or a received mail sentence, and words that appear more frequently are registered as taste information in the user taste information database.
{Circle around (2)} Register the address (IP address or URL (Uniform Resource Locator) and the title of a site with a high number of browsing from the user's site browsing history in the user preference information database.
{Circle around (3)} The user himself / herself directly inputs words, character strings, and site addresses of matters of interest and registers them in the user preference information database.
[0025]
Here, the user preference information database, the Japanese dictionary database and the vocabulary database will be described in detail.
In the user preference information database, as described above, words / character strings related to the user's preference, the address of the site, and the title thereof are appropriately registered as the preference information. Note that the preference information registered in the user preference information database is registered with a weight according to the degree to which the information frequently appears. For example, the frequency of appearance or input is set as the weight of the preference information and registered in association with the preference information. By doing so, it is possible to prioritize the selection of the preference information according to the weight.
[0026]
In the Japanese dictionary database, related words are registered for each genre, and sentences (or phrases) that are related pronunciation patterns are registered for each word. For example, in the genre “weather”, words such as “sunny”, “cloudy”, “rain”,... Are registered, and for the word “rain”, “take an umbrella as a sentence that becomes a pronunciation pattern. "Is registered. Further, in each genre, words that are pronunciation patterns to be pronounced when the mobile terminal device 1 consults the user for information retrieval are registered. In addition, the phrase serving as the pronunciation pattern is added to a word / character string registered in the interest information database or the title of the site, and becomes a sentence of a pronunciation pattern for information search and consultation. For example, in the genre “weather”, a word that is a pronunciation pattern “pronounced” (pronounced when consulting information retrieval) is registered, and the title of the site registered in the preference information database “Shizuoka tomorrow” When “Prefecture Weather Forecast” is selected, “Tomorrow's Shizuoka Prefecture Weather Forecast?” With “See?” Is added to the pronunciation pattern sentence to the user for information search. Become.
[0027]
In the vocabulary database, a sentence (or phrase) assigned to each mascot character and having an expression suitable for each character is associated with a sentence (or phrase) that is a pronunciation pattern registered in the Japanese dictionary database. Registered. For example, “Go” (or “Take an umbrella”) is associated with a certain mascot character and “Let's go” (or “Take an umbrella”) is registered. The vocabulary database further registers, for each mascot character, parameters for defining a pitch, a volume, and the like when a sentence (or phrase) is to be generated, and the parameters to be provided to the sound source unit 16 with a voice synthesis function. If the sentence to be the pronunciation pattern is to be pronounced as a song, for example, the pitch and volume corresponding to the song are added and registered in advance.
[0028]
Next, the operation of the mobile phone 1 according to the present embodiment thus configured will be described with reference to the flowchart of FIG. In addition, the operations at the time of outgoing / incoming by a normal telephone function, the operations related to transmission / reception of an e-mail, access to a site on the Internet, and the like are well-known techniques, and descriptions thereof are omitted. In addition, it is assumed that the preference information related to the user's preference has already been registered in the user preference information database.
[0029]
First, it is determined whether or not a trigger signal to be randomly generated has been generated (step S01).
If the determination is Yes, that is, if it is determined that there is a trigger signal, the process proceeds to step S02. On the other hand, if the determination is No, that is, if it is determined that there is no trigger signal, the process proceeds to step S03.
In step S03, it is determined whether or not a trigger signal has been generated by the user (by a user operation). If the determination is Yes, that is, if there is a trigger signal from the user, the process proceeds to step S02. On the other hand, if the determination is No, that is, if there is no trigger signal from the user, the process returns to step S01.
[0030]
Here, the process proceeds to step S02 according to the determination in step S02 or step S03. In step S02, the taste information such as the word / character string or the address of the site and the title from the above-mentioned user taste information database is determined according to the weight. This is selected and displayed on the display unit 21 (at this time, the vibrator 22 may be further vibrated), and the pronunciation registered in the Japanese dictionary database (for each genre) in this taste information or the taste information. A sentence to which a phrase serving as a pattern is added is uttered by speech synthesis, and a user is asked for information retrieval. In this case, the preference information is selected, for example, in the user preference information database in order from preference information having the largest weight.
Next, when the operation of the operation unit 18 is performed by the user and an operation for affirming the information search (Yes) is performed in step S04, the answer is determined to be Yes and the process proceeds to step S05, while the information search is denied. When the operation of (No) is performed, the answer is determined to be No, and the process returns to step S01.
[0031]
If the user performs an operation of affirming (Yes) the information search, the process proceeds to step S05. In step S05, a site search is executed from the presented word or character string (or site address). In the case of words or character strings, the address of a related site is obtained using a so-called search engine. In the case of using the address of the site, since this address is used as it is, the process proceeds to the next step S06.
[0032]
Next, in step S06, the site searched in step S05 is accessed, and information provided by this site is downloaded.
Then, in the next step S07, a word (or a plurality of words) of a specific genre to which the word or character string (or site title) in the Japanese dictionary database belongs is extracted (picked up) from the downloaded information. . Hereinafter, the words and phrases extracted here will be referred to as keywords of the in-site information.
[0033]
Next, it is determined whether or not the keyword of the in-site information has been extracted from the information downloaded from the site (step S08).
In this determination, if it is determined that the keyword of the site information has been extracted (successful pickup), the process proceeds to step S09. On the other hand, in this determination, No, that is, the keyword of the site information can be extracted. If it is determined that there is no such information, the process proceeds to step S10.
In step S09, a sentence of a pronunciation pattern to be pronounced is determined from the corresponding genre in the Japanese dictionary database. Here, for example, a sentence having a pronunciation pattern corresponding to a phrase having a high appearance frequency among the phrases (words) extracted in step S07 is selected. On the other hand, in step S10, since the keyword of the in-site information has not been extracted, all texts described in the accessed site are determined as sentences to pronounce (sentences of pronunciation patterns).
[0034]
In step S11, the sentence of the pronunciation pattern determined as described above is converted into a tone of a tone corresponding to the corresponding mascot character as described above, and voice data to which the corresponding parameters such as volume and pitch are added is generated. Then, it is supplied to the sound source unit 16 with the voice synthesis function.
In step S <b> 12, the sound source unit 16 with the voice synthesis function performs voice synthesis based on the supplied voice data and emits sound from the speaker 17. At this time, the mascot character and the sentence converted in step S11 are displayed on the display unit 21 under the control of the CPU 11.
Note that the operation flow described above is an example, and is not limited to the above processing flow. For example, in Step S08, when it is determined as No (the keyword of the information in the site could not be extracted), another site is accessed and the same pickup process is performed, and the same process is repeated a preset number of times. Even if the pickup is not successful, the process may proceed to step S10.
[0035]
Here, a specific example of the operation of the mobile phone 1 will be described.
[Example 1]
In the user preference information database, preference information whose site address and its title are "weather forecast for Shizuoka tomorrow" is registered, and when this title is selected, "would you like to see the weather forecast for tomorrow's Shizuoka Prefecture?" And ask the user to search for information.
In response to this, when the user receives an answer of Yes, the user accesses a site whose title is “Tomorrow's Shizuoka Prefecture Weather Forecast” and reads information provided by this site. The information read at this time is
Shizuoka weather forecast tomorrow
Rain Probability of rain 70%
Then, “weather” is extracted from the Japanese dictionary database classified into genres (see FIG. 4) as a keyword of the information in the site, and the words included in the genre of “weather” are further registered. By using the keyword "rain" as a keyword, a pronunciation pattern of "take an umbrella" registered and associated with this "rain" is obtained.
Then, the pronunciation pattern of "Take an umbrella" is converted from the vocabulary database into words defined for the mascot character to be used. For example, in a certain mascot character, the pronunciation pattern of “Take an umbrella” is converted to “Take an umbrella” and pronounced “Take an umbrella”. In another mascot character, for example, it is converted to "let's carry an umbrella" and pronounced.
[0036]
[Example 2]
In this example, when "fortune-telling" is selected as the taste information, an information search is performed, for example, "Do you want to know fortune-telling?"
In response to this, when the user receives an answer of Yes from the user, the site is searched using “divination” as a search keyword. At this time, a site search is performed using a so-called search engine. Then, one of the hit sites is accessed, and the information provided by the site is read.
[0037]
Then, words in the site are picked up based on the words registered in the genre-categorized Japanese dictionary database (see FIG. 5). At this time, if “lucky color” included in the “fortune-telling” genre is picked up, the pronunciation pattern sentence “lucky color is“ color ”registered corresponding to“ lucky color ”registered in the Japanese dictionary database Is ". The “color” included in the pronunciation pattern sentence can be selected, and “blue”, “red”, “pink”... Are registered for the “color”. When the site information is searched based on the item list of “color”, and the word “pink” is detected, it is recognized as corresponding to this “color”, and the pronunciation pattern of “lucky color is pink” is obtained.
[0038]
Then, from the vocabulary database, the pronunciation pattern of “Lucky color is pink” is converted into a word defined for the mascot character, and “Lucky color is pink” is pronounced.
In each of the above embodiments, the pronunciation pattern sentence is obtained based on each database. However, if the pronunciation pattern sentence cannot be obtained as described above, the text in the site is output as it is as described above. I do.
[0039]
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a configuration and the like without departing from the gist of the present invention. For example, the present invention may be realized by a mode in which the processes of steps S01 to S11 in the above-described embodiment are performed by a host computer on a network, that is, a host computer on a network and a portable terminal device capable of accessing the host computer. Good. In this case, data such as the user preference information database, the Japanese dictionary database, and the vocabulary database stored in the portable terminal device in the above embodiment are stored in the host computer, and the user preference information database is stored for each user. Interest information is registered. Then, between the host computer and the portable terminal device, a result of processing performed on one side and required on the other side (or a signal or information emitted from one side to the other side) is provided from one side to the other by communication. Speech data corresponding to the mascot character, which is the result of the final processing, is provided from the host computer to the portable terminal device, and the portable terminal device produces sound by speech synthesis.
[0040]
Further, the present invention records an operation flow shown in FIG. 3 or a program for realizing a processing function similar to this operation flow on a computer-readable recording medium, and stores the program recorded on the recording medium in a computer system. , And may be realized by executing. Here, the “computer system” includes an OS and hardware such as peripheral devices.
[0041]
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) inside a computer system serving as a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. In addition, programs that hold programs for a certain period of time are also included.
[0042]
Further, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
[0043]
【The invention's effect】
As described above in detail, according to the present invention, a phrase representing information for satisfying the user's taste is generated based on the extracted taste information, and the word is vocalized. It is possible to receive interesting information that matches the user's taste by voice without any trouble.
According to the present invention, each mascot character displayed on the screen further has a vocabulary database that defines at least the tone of the mascot character, and the voice data generation unit generates the vocabulary based on the vocabulary database. By converting the words and phrases into voice data, the mascot character displayed on the screen sounds with each voice (for example, each tone) and becomes interesting and user-friendly.
Further, according to the present invention, the voice data generating means generates voice data to which pitch data at the time of generating a voice by the voice generating means is added, thereby giving a change in pitch to the voice to be generated. For example, it is possible to make a pronunciation like a humming song, which is more user-friendly.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a mobile phone as an embodiment of a mobile terminal device of the present invention.
FIG. 2 is a diagram illustrating extraction of taste information related to a user's taste and storage thereof in the embodiment.
FIG. 3 is a flowchart illustrating an operation of the mobile phone according to the embodiment.
FIG. 4 is an example of the contents of a Japanese dictionary database for explaining the first embodiment.
FIG. 5 is an example of the contents of a Japanese dictionary database for explaining Embodiment 2.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Mobile telephone (portable terminal device), 11 ... CPU, 12 ... Communication part, 12a ... Antenna, 13 ... Sound processing part, 14, 17 ... Speaker, 15 ... Microphone, 16 ... Sound source with sound synthesis function, 18 ... Operation Unit, 19 RAM, 20 ROM, 21 display unit, 22 vibrator, 30 bus

Claims (7)

ユーザの趣向と関連する趣向情報を抽出する趣向情報抽出手段と、
ネットワークより前記趣向情報を基にサイトを検索または参照し、該サイトが提供する情報を読み出すサイト検索手段と、
前記サイトから読み出した情報から、前記趣向情報を基にキーワードを抽出するキーワード抽出手段と、
前記キーワードを基にユーザの趣向を満たすための情報を表す語句を生成する語句生成手段と、
前記語句生成手段が生成した語句を音声データに変換する音声データ生成手段と、
前記音声データを基に音声を発音する音声発音手段とを具備する
ことを特徴とする携帯端末装置。
A preference information extracting means for extracting preference information related to the preference of the user;
A site search means for searching or referencing a site based on the taste information from a network and reading information provided by the site;
Keyword extraction means for extracting a keyword based on the interest information from information read from the site,
A phrase generation unit that generates a phrase representing information for satisfying a user's taste based on the keyword;
Voice data generating means for converting the phrase generated by the phrase generating means into voice data,
A mobile terminal device comprising: a voice generating means for generating a voice based on the voice data.
前記趣向情報抽出手段は、
サイトのアドレスが登録されるブックマークまたはサイトの閲覧履歴から前記趣向情報の抽出を行う
ことを特徴とする請求項1に記載の携帯端末装置。
The taste information extracting means,
The mobile terminal device according to claim 1, wherein the preference information is extracted from a bookmark in which a site address is registered or a browsing history of the site.
前記趣向情報抽出手段は、
ユーザの記述によるメール文または受信した受信メール文から前記趣向情報の抽出を行う
ことを特徴とする請求項1に記載の携帯端末装置。
The taste information extracting means,
2. The portable terminal device according to claim 1, wherein the preference information is extracted from a mail text described by a user or a received mail text received.
前記趣向情報抽出手段は、
ユーザが入力したデータを趣向情報とする
ことを特徴とする請求項1に記載の携帯端末装置。
The taste information extracting means,
The mobile terminal device according to claim 1, wherein the data input by the user is used as the preference information.
前記携帯端末装置上に設定されるマスコットキャラクタ毎に、該マスコットキャラクタの少なくとも口調を規定する語彙データベースをさらに持ち、
音声データ生成手段は、
前記語彙データベースを基に前記変換を行う
ことを特徴とする請求項1から請求項4のいずれかに記載の携帯端末装置。
Each mascot character set on the portable terminal device further has a vocabulary database that defines at least the tone of the mascot character,
The audio data generating means includes:
The mobile terminal device according to claim 1, wherein the conversion is performed based on the vocabulary database.
前記音声データ生成手段は、
前記音声発音手段にて音声を発音する際の音程のデータを付加した音声データを生成する
ことを特徴とする請求項1から請求項5のいずれかに記載の携帯端末装置。
The audio data generating means,
The portable terminal device according to any one of claims 1 to 5, further comprising generating voice data to which data of a pitch at which a voice is generated by the voice generating means is added.
コンピュータシステムにより実行される方法であって、
ユーザの趣向と関連する趣向情報を抽出するステップと、
ネットワークより前記趣向情報を基にサイトを検索し該サイトが提供する情報を読み出すステップと、
前記サイトから読み出した情報から、前記趣向情報を基にキーワードを抽出するステップと、
前記キーワードを基にユーザの趣向を満たすための情報を表す語句を生成するステップと、
前ステップで生成した語句を音声データに変換するステップと、
前記音声データを基に音声を発音させるステップと、を含む
ことを特徴とする情報検索提供方法。
A method performed by a computer system, comprising:
Extracting preference information related to the user's preference;
A step of searching a site based on the taste information from a network and reading information provided by the site;
Extracting, from the information read from the site, a keyword based on the interest information;
Generating a phrase representing information for satisfying the user's taste based on the keyword;
Converting the phrase generated in the previous step into audio data;
Generating a voice based on the voice data.
JP2003018890A 2003-01-28 2003-01-28 Portable terminal device and information retrieval providing method Pending JP2004234095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003018890A JP2004234095A (en) 2003-01-28 2003-01-28 Portable terminal device and information retrieval providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003018890A JP2004234095A (en) 2003-01-28 2003-01-28 Portable terminal device and information retrieval providing method

Publications (1)

Publication Number Publication Date
JP2004234095A true JP2004234095A (en) 2004-08-19

Family

ID=32948903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003018890A Pending JP2004234095A (en) 2003-01-28 2003-01-28 Portable terminal device and information retrieval providing method

Country Status (1)

Country Link
JP (1) JP2004234095A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107528971A (en) * 2017-08-10 2017-12-29 珠海市魅族科技有限公司 Voice awakening method and device, computer installation and readable storage medium storing program for executing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107528971A (en) * 2017-08-10 2017-12-29 珠海市魅族科技有限公司 Voice awakening method and device, computer installation and readable storage medium storing program for executing

Similar Documents

Publication Publication Date Title
TWI281146B (en) Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition
KR101670150B1 (en) Systems and methods for name pronunciation
US7957972B2 (en) Voice recognition system and method thereof
US9495956B2 (en) Dealing with switch latency in speech recognition
US7987244B1 (en) Network repository for voice fonts
JP2008529101A (en) Method and apparatus for automatically expanding the speech vocabulary of a mobile communication device
CN107895578A (en) Voice interactive method and device
JP2002366186A (en) Method for synthesizing voice and its device for performing it
US20060143007A1 (en) User interaction with voice information services
JP4987682B2 (en) Voice chat system, information processing apparatus, voice recognition method and program
CN1692403A (en) Speech synthesis apparatus with personalized speech segments
US20040141597A1 (en) Method for enabling the voice interaction with a web page
KR20010076508A (en) Song title selecting method for mp3 player compatible mobile phone by voice recognition
JP6166889B2 (en) Dialog support apparatus, dialog system, dialog support method and program
CN101334997A (en) Phonetic recognition device independent unconnected with loudspeaker
JP2007328283A (en) Interaction system, program and interactive method
JP3714159B2 (en) Browser-equipped device
JP2008046951A (en) System and method for generating electronic document, server device, terminal device, program for server device, and program for terminal device
KR20200069264A (en) System for outputing User-Customizable voice and Driving Method thereof
JP2004234095A (en) Portable terminal device and information retrieval providing method
JP4859642B2 (en) Voice information management device
JP7196426B2 (en) Information processing method and information processing system
JP2005084829A (en) Information retrieving method, device, and program, and program recording medium
JP3179370B2 (en) Talking parrot utterance device
JP2004221746A (en) Mobile terminal with utterance function