JP2007299352A - メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム - Google Patents
メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム Download PDFInfo
- Publication number
- JP2007299352A JP2007299352A JP2006129014A JP2006129014A JP2007299352A JP 2007299352 A JP2007299352 A JP 2007299352A JP 2006129014 A JP2006129014 A JP 2006129014A JP 2006129014 A JP2006129014 A JP 2006129014A JP 2007299352 A JP2007299352 A JP 2007299352A
- Authority
- JP
- Japan
- Prior art keywords
- data
- keyword
- voice
- personal
- personal information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】 メールの差出人本人の音声と特徴を交えてメール読み上げをすることにより、確実に差出人を特定しながらメールを確認することを目的とする。
【解決手段】 携帯端末装置100は、キーワードと対応する個人音声データとを記憶するデータ記憶部2と、一般音声データを記憶する一般音声記憶部3と、電子メールデータを記憶するメール管理部4と、個人の個人情報を記憶する個人情報記憶部1とを備え、電子メールデータ41を入力して、差出人が個人情報記憶部1に記憶されている個人情報に含まれる個人である場合、電子メールデータ41から個人情報記憶部1に記憶されたキーワードによる検索をし、キーワードによる検索ができた箇所でキーワードに対応する個人音声データを出力する制御部5と、制御部5が出力した個人音声データと一般音声データとから音声を合成する音声読み上げエンジン8と、合成された音声を出力するスピーカー11とを備えた。
【選択図】図2
【解決手段】 携帯端末装置100は、キーワードと対応する個人音声データとを記憶するデータ記憶部2と、一般音声データを記憶する一般音声記憶部3と、電子メールデータを記憶するメール管理部4と、個人の個人情報を記憶する個人情報記憶部1とを備え、電子メールデータ41を入力して、差出人が個人情報記憶部1に記憶されている個人情報に含まれる個人である場合、電子メールデータ41から個人情報記憶部1に記憶されたキーワードによる検索をし、キーワードによる検索ができた箇所でキーワードに対応する個人音声データを出力する制御部5と、制御部5が出力した個人音声データと一般音声データとから音声を合成する音声読み上げエンジン8と、合成された音声を出力するスピーカー11とを備えた。
【選択図】図2
Description
本発明は、例えば、メッセージ出力装置及びメッセージ出力方法に関するものであり、特に、受信したメールを音声により読み上げる機能を有するメッセージ出力装置及びメッセージ出力方法に関する。
従来技術では、メールを送受信可能な携帯端末装置において、受信したメールに対して音声読み上げを行う機能を搭載し、ヘッドフォンやリモコン等を用いることにより、携帯端末装置の表示部を見ずに受信したメールを読み上げ、内容を確認することができる技術が開示されている。携帯端末装置は、機器の性格上、野外や移動中において受信した電子メールを確認する機会が多いが、このような場合、複数のメールを連続して読み上げると読み上げ音声が同じであるために、同一の送信者が送っているメールであると誤解しかねない。
特開2006−012056では、ベースとなる音声データにアレンジを加えることを可能とする技術が開示されている。個人情報保持手段にピッチ、スピード、その他の特殊効果といった各個人の特徴となるパラメータを登録することを可能としている。メールを受信した場合、まず該当する差出人が個人情報保持手段に記録されているかを検索し、音声読み上げパラメータが登録されている場合は該当メールをパラメータに応じた音声で読み上げることにより、メール送信者を特定することを可能としている。従って、複数のメールを自動読み上げしている場合でも、差出人が異なれば読み上げる音声も異なるため、差出人が異なるメールであることを判断することができる。
特開2006−012056号公報
特開2000−138742号公報
しかし、メール自動読み上げ設定にて複数のメールを読み上げるとき、読み上げる音声が異なれば差出人が異なることは判断できるが、メール送信者と対応する音声データをある程度覚えておかなければ、メール送信者が誰かを即座に特定することはできないという課題がある。また差出人に近い音声を実現するために、パラメータを設定する必要があるが、パラメータの見極めに試行錯誤することが想定され、差出人に近い音声パラメータを実現することは容易ではないという課題がある。
そこで、本発明では、実際に差出人の音声を録音し、メール読み上げ時に録音した本人の音声データを織り交ぜることにより、複数のメールを連続で読み上げる場合でも差出人が変わったことだけでなく、差出人が誰であるかの特定を容易にすることを目的とする。
本発明に係るメッセージ出力装置は、
キーワードとキーワードに対応する個人音声データとを記憶するデータ記憶部と、
一般音声読み上げ用の一般音声データを記憶している一般音声記憶部と、
電子メールデータを記憶するメール管理部と、
前記データ記憶部にキーワードと個人音声データとが登録されている個人の個人情報を記憶する個人情報記憶部と、
前記メール管理部に記憶された電子メールデータを入力して、その電子メールデータの差出人が前記個人情報記憶部によって記憶されている個人情報に含まれる個人であるかを判別し、差出人が個人情報に含まれる個人である場合、電子メールデータから前記個人情報記憶部に記憶されたキーワードによる検索をし、キーワードによる検索ができた場合に、そのキーワードによる検索ができた箇所で前記データ記憶部が記憶したキーワードに対応する個人音声データを出力する制御部と、
前記制御部から出力された個人音声データと一般音声データとを用いて、音声を合成する音声読み上げエンジンと、
前記音声読み上げエンジンで合成された音声を出力するスピーカーと
を備えたことを特徴とする。
キーワードとキーワードに対応する個人音声データとを記憶するデータ記憶部と、
一般音声読み上げ用の一般音声データを記憶している一般音声記憶部と、
電子メールデータを記憶するメール管理部と、
前記データ記憶部にキーワードと個人音声データとが登録されている個人の個人情報を記憶する個人情報記憶部と、
前記メール管理部に記憶された電子メールデータを入力して、その電子メールデータの差出人が前記個人情報記憶部によって記憶されている個人情報に含まれる個人であるかを判別し、差出人が個人情報に含まれる個人である場合、電子メールデータから前記個人情報記憶部に記憶されたキーワードによる検索をし、キーワードによる検索ができた場合に、そのキーワードによる検索ができた箇所で前記データ記憶部が記憶したキーワードに対応する個人音声データを出力する制御部と、
前記制御部から出力された個人音声データと一般音声データとを用いて、音声を合成する音声読み上げエンジンと、
前記音声読み上げエンジンで合成された音声を出力するスピーカーと
を備えたことを特徴とする。
本発明にかかるメッセージ出力装置によれば、受信した電子メールデータを読み上げる際に、電子メールデータ内のキーワードに対応して予め個人情報記憶部に記憶してある個人音声データを用いてメールの自動読み上げを実施するので、本人の個人音声データの特徴を交えて読み上げが行われるため、確実に差出人を特定しながらメールを確認することができるという効果を奏する。
図1は、実施の形態におけるメッセージ出力装置1000のハードウェア資源の一例を示す図である。
図1において、メッセージ出力装置1000は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、フラッシュメモリ916、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、スキャナ装置907、タッチパネル909、スピーカー11、マイク10、カメラ919、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、フラッシュメモリ916、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置あるいは記憶部の一例である。
通信ボード915、キーボード902、スキャナ装置907、FDD904、タッチパネル919などは、入力部、入力装置の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力部、出力装置の一例である。
通信ボード915は、ファクシミリ機、電話器、LAN、電話基地局、無線LAN等に接続されている。通信ボード915は、電話基地局、無線LANに限らず、インターネット、ISDN等のWAN(ワイドエリアネットワーク)などに接続されていても構わない。インターネット或いはISDN等のWANに接続されている場合、ゲートウェイは不用となる。
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。
上記プログラム群923には、以下に述べる実施の形態の説明において「〜部」、「〜手段」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、以下に述べる実施の形態の説明において、「〜の判定結果」、「〜の計算結果」、「〜の処理結果」として説明する情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリになどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、以下に述べる実施の形態の説明において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、フラッシュメモリ916のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
また、以下に述べる実施の形態の説明において「〜部」、「〜手段」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」、「〜手段」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フラッシュメモリ、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、以下に述べる「〜部」、「〜手段」としてコンピュータを機能させるものである。あるいは、以下に述べる「〜部」、「〜手段」の手順や方法をコンピュータに実行させるものである。
実施の形態1.
図2は、実施の形態1にかかる携帯端末装置100の機能ブロック図である。
図2は、実施の形態1にかかる携帯端末装置100の機能ブロック図である。
以下の実施の形態では、メッセージ出力装置1000の一例として携帯端末装置100を用いて説明する。携帯端末装置100は、例えば、携帯電話端末、PHS(登録商標)(Personal Handyphone System)、PDA(登録商標)(Personal Digital Assistants)等の携帯端末装置である。
本実施の形態にかかる携帯端末装置100のメッセージ出力方法は、携帯端末装置100が有する電話帳等の個人情報に、個人の音声データである個人音声データを登録することを可能とし、所定のキーワードが電子メールに含まれている場合は、登録された個人音声データを用いて出力し、その他の文章については、予めインストールされている一般音声データを用いて読み上げるものである。
図2において、携帯端末装置100は、個人情報記憶部1、データ記憶部2、一般音声記憶部3、メール管理部4、制御部5を備えている。また、入力装置等からのユーザーの操作を受け付ける操作部6、個人情報や受信したメールを表示装置901等に表示する表示部7、音声読み上げを実現する音声読み上げエンジン8、外部音声を拾うためのマイク10、音声を出力するためのスピーカー11、基地局と無線通信を行う無線部9を備えている。無線部9は、通信回線12を介して外部との通話や電子メールの送受信等を行う。
個人情報記憶部1は、個人の名前やメールアドレス、個人の音声でメール読み上げをするためのキーワード等の個人情報を記憶装置に記憶する。これらの個人情報は、個人情報管理テーブル200として記憶装置に記憶される。すなわち、個人情報記憶部1は、各個人の名前やメールアドレス、読み上げキーワード等の個人情報を管理する。個人情報記憶部1が記憶する各個人情報の個人は、個人の音声でメール読み上げをするためのキーワードとそのキーワードに対応する個人音声データとが後述するデータ記憶部2に登録されている。
データ記憶部2は、各種情報を記憶装置に記憶する。データ記憶部2は、個人の音声でメール読み上げをするためのキーワードとそのキーワードに対応する個人音声データとを個人音声管理テーブル300として記憶装置に記憶する。データ記憶部2は、音声データや、赤外線あるいはインターネットあるいは外部記憶媒体あるいはその他の機器等により外部から入手したデータ等を、記憶装置に保存する。
一般音声記憶部3は、一般的な音声読み上げ用の一般音声データ400を記憶装置に保存する。
メール管理部4は、電子メールデータ41を記憶装置に記憶して管理する。また、メール管理部4は、メールを受信した際にメールの読み上げを行うか否かのメール読み上げ設定を管理する。
制御部5は、ユーザー操作により個人情報およびその他のデータを制御したり、画面に文字を出力したり、その他の諸制御を行う。また、制御部5は、メール管理部4が記憶装置に記憶する電子メールデータ41を入力して、その電子メールデータ41の差出人が個人情報記憶部1によって管理されている個人情報に含まれる個人であるかを判別する。制御部5は、差出人が個人情報に含まれる個人でない場合には、一般音声記憶部3に記憶する一般音声データを用いてメール読み上げをするためのメール読み上げ一般音声データを出力する。また、制御部5は、差出人が個人情報に含まれる個人である場合、電子メールデータ41に対して個人情報記憶部1に記憶されたキーワードによる検索をする。キーワードによる検索ができた場合に、制御部5は、そのキーワードによる検索ができた箇所でデータ記憶部2が記憶したキーワードに対応する個人音声データを出力する。キーワードによる検索ができなかった場合には、一般音声記憶部3に記憶する一般音声データを用いてメール読み上げのためのメール読み上げ一般音声データを出力する。
音声読み上げエンジン8は、音声読み上げを実現するために制御部5から出力された個人音声データと一般音声データとを用いて、音声を合成する。
スピーカー11は、音声読み上げエンジン8が合成した音声を出力する。
さらに携帯端末装置100は、ユーザーからの操作を入力装置により受け付ける操作部6、個人情報や受信したメールを表示装置901等に表示する表示部7、外部音声を拾うためのマイク10、音声を出力するためのスピーカー11、基地局と無線通信を行う無線部9等の、通常の携帯電話機能を実現するための機能ブロックを備えており、無線部9は、通信回線12を介して外部との通話や電子メールの送受信等を行う。
次に、図2から図4を用いて個人情報管理テーブル200の構成、個人音声管理テーブル300の構成及び制御部5の詳細な構成について説明する。
図3は、実施の形態1にかかる個人情報管理テーブル200を示す図である。また、図4は、実施の形態1にかかる個人音声管理テーブル300を示す図である。
図3において、携帯端末装置100が、個人情報記憶部1において通常管理する情報のうち、本実施の形態に関連するものについて個人情報管理テーブル200に示す。
個人情報管理テーブル200は、ユーザーが入力装置等から入力することにより、予め個人についての個人情報を設定することができる。個人情報管理テーブル200は、個人情報記憶部1が、ユーザーにより入力された個人情報を記憶装置に記憶することにより設定される。
図3における個人情報管理テーブルの構成について説明する。
メモリ番号210は、各個人毎に割り当てることにより各個人をメモリ番号210で管理する。例えば、メモリ番号210「1」が所定の個人を示している。
優先度220は、キーワード230の優先度である。優先度220を設定することにより、類似したキーワード230を登録した場合に、どちらの個人音声データを優先させるかを容易に決定することができる。すなわち、制御部5は、電子メールデータ41内の同一箇所で複数のキーワード230による検索ができた場合に、個人情報記憶部1が記憶装置の個人情報管理テーブル200に記憶した優先度220が高いほうのキーワード230に対応する個人音声データを出力することができる。
キーワード230は、メール読み上げ処理の対象となる電子メールデータ41において、メール読み上げ処理時に、例えば差出人本人等の音声による個人音声データを出力する電子メールデータ内の位置を、制御部5が確定するためのキーとなるデータである。すなわち、キーワード230は、キーワード230により制御部5が電子メールデータを検索して、キーワード230を検出すると、その位置で検出したキーワード230に対応する個人音声データを出力する処理を行うためのキーである。キーワード230は、例えば、単なるテキストデータ(例えば「よろしく」等)、メール内の位置データ(例えば「メール先頭」、「メール文末」等)、時間等の意味を示すデータ(例えば、「7:00〜9:00」、「AM」等)、等のデータがある。また、これらに限らず、キーワード230は、電子メールデータを検索し、電子メールデータ内の位置を特定できるキーとなるキーワードであればよい。
本実施の形態では、キーワード検索処理をより効率化するために、キーワード230は、キーワード設定241とキーワード詳細設定242とから構成される。
キーワード設定241は、キーワード230がどのようなデータであるかを制御部5が判断するために用いるデータである。例えば、キーワード設定241として、メール先頭、メール文末、メール受信時間、言葉、季節、差出人、タイトル等が登録可能である。
キーワード詳細設定242は、キーワード設定241に対して、より具体的なテキストやキーワード設定241の意味を含むテキスト等を登録する。
本実施の形態では、キーワード設定241のうち、「メール受信時間」、「言葉」、「季節」についてはそれぞれキーワード詳細設定242を登録するものとする。
一例として、図3においては、キーワード設定241「言葉」に対して、キーワード詳細設定242には「よろしく」と「大阪駅」と「By TARO」と「ひみつ」とのテキストが登録されている。キーワード設定241が「言葉」の場合は、制御部5は、キーワード230は単なるテキストとして検索するキーワードと判断できるので、制御部5は、キーワード詳細設定242に登録されている「よろしく」と「大阪駅」と「By TARO」と「ひみつ」とをテキストキーワードとして電子メールデータ41を検索する。
また、別の例として、登録者(例えばユーザー)は、キーワード230の登録として、キーワード設定241に「メール先頭」を設定した場合は、キーワード詳細設定242は設定しない。
また、別の例として、図3において、キーワード設定241「メール受信時間」に対して、キーワード詳細設定242に「7:00〜9:00」と「AM」とが登録されている。これにより、「メール受信時間」について「7:00〜9:00」と「AM」とで、キーワード230に対して異なる個人音声データを対応付けることができる。
キーワード設定241が「メール受信時間」の場合は、制御部5は、キーワード詳細設定242が示す意味に含まれるテキストを検出するように検索すると判断するので、制御部5は、キーワード詳細設定242に登録されている「7:00〜9:00(の間)」と「AM(午前)」に含まれる意味を持つテキストによる検索を行う。例えば、対象の電子メールデータ41のメール受信時刻が「08:51」の場合、制御部5は、キーワード詳細設定242に登録されている「7:00〜9:00(の間)」と「AM(午前)」との両方に含まれる意味を持つテキストとして検出する。この場合は、キーワード詳細設定242「7:00〜9:00」と「AM」とに対してそれぞれ異なる優先度220が登録されているので、制御部5は、優先度220の高い方のキーワード230を選択し、そのキーワード230に対応する個人音声データを出力する処理を行う。
また、キーワード230は、必ずしもキーワード設定241とキーワード詳細設定242とから構成される必要はなく、単なるキーワード230からなる構成としてもよい。また、さらに、キーワード230の構成要素を増やしても構わない。単なるキーワード230からなる構成にした場合は、キーワード230にキーワード詳細設定242レベルのキーワードを登録することになるが、制御部5がキーワード230について、キーワード230のテキストで検索するのか、あるいはキーワード230の意味から検索テキストを決定するのかの判断がつきにくくなるという課題が生じるため、やはり、キーワード設定241とキーワード詳細設定242との構成が好ましい。
音声管理番号250は、キーワード230(キーワード設定241とキーワード詳細設定242)と個人音声データ310(図4参照)を対応付けるための番号である。
次に、データ記憶部2が記憶装置に記憶する個人音声管理テーブル300の構成について説明する。
図4において、個人音声管理テーブル300には、音声管理番号250に対応付けて個人音声データ310が格納されている。音声管理番号250は、上述したように、キーワード230(キーワード設定241とキーワード詳細設定242)と対応している番号である。つまり、個人音声データ310が音声管理番号250に対応しているということは、すなわち、データ記憶部2が記憶装置に記憶する個人音声データ310は、キーワード230(キーワード設定241とキーワード詳細設定242)と対応していることになる。
個人音声データ310は、ユーザーの操作により、個人音声管理テーブル300に登録される。すなわち、携帯端末装置100は、ユーザーの操作により、個人が携帯端末装置100のマイク10に向かって声を発することにより音声を録音し、個人音声データ310を個人音声管理テーブル300に登録する。あるいは、携帯端末装置100は、ユーザーの操作により、個人の通話中の音声を録音し通話終了後の操作にて個人音声データ310を個人音声管理テーブル300に登録する。あるいは、携帯端末装置100は、ユーザーの操作により、外部記憶媒体およびインターネット、赤外線等の通信手段から携帯端末装置100に取り入れ、個人音声データ310を個人音声管理テーブル300に登録される。
以上のようにして、登録者(例えばユーザー)は、キーワード230(キーワード設定241とキーワード詳細設定242)に対応付けられた音声管理番号250に対応して、個人音声データ310を予め個人音声管理テーブル300に登録することができる。個人音声管理テーブル300は、データ記憶部2が、登録された個人音声データ310とキーワード230(キーワード設定241とキーワード詳細設定242)に対応付けられた音声管理番号250に対応付けて記憶装置に記憶することにより設定する。
次に、制御部5の構成について、詳しく説明する。
制御部5は、キーワード230による検索中に電子メールデータ41の中にキーワード230と一致するテキストを検出した場合に検索ができたものとするテキスト検索部51と、電子メールデータ41の中にキーワードが示す意味に含まれるテキストを検出した場合に検索ができたものとする意味検索部52とを備えている。
テキスト検索部51は、例えば、キーワード230のキーワード設定241が「言葉」の場合に、キーワード詳細設定242の「よろしく」をテキストのキーワード230として電子メールデータ41を検索し、「よろしく」と一致するテキストを検出した場合に検索ができたものとする。
意味検索部52は、電子メールデータ41の中にキーワード230が示す意味に含まれるテキストを検出する。例えば、キーワード230のキーワード設定241が「メール受信時間」でありキーワード詳細設定242が「AM」の場合に、キーワード230が示す意味に含まれるテキストは、受信メール時刻が「午前中の時刻のいずれかの時刻」を示すテキストである。すなわち、意味検索部52は、電子メールデータ41のメール受信時刻を示すテキストが「06:00」から「12:00」までのいずれかの時刻のテキストを検出した場合に検索ができたものとする。
また、制御部5は、検索に用いたキーワード230に対応する個人音声データ310を出力する音声データ置換部53を備えている。上述したように、制御部5は、キーワード230による検索ができた場合に、そのキーワード230による検索ができた箇所でキーワード230に対応する個人音声データ310を出力する。すなわち、音声データ置換部53は、検出されたテキストに対応する一般音声データを出力せずに、代わりに、検索に用いたキーワード230に対応する個人音声データ310を出力する。
また、制御部5は、個人情報記憶部1が個人情報管理テーブル200に記憶したキーワード230により示された電子メールデータ41の特定箇所を検索し、そのキーワード230による検索ができた特定箇所でそのキーワード230に対応する個人音声データ310を追加出力する音声データ追加部54を備えている。すなわち、音声データ追加部54は、例えば、キーワード230のキーワード設定241が「メール先頭」の場合に、電子メールデータ41の特定箇所の一例であるメールの先頭(メール先頭)を検索する。音声データ追加部54は、メール先頭が検出できた場合に、キーワード230のキーワード設定241が「メール先頭」に対応する個人音声データ310を出力する。
さらに、制御部5は、優先度制御部55を備えている。
優先度制御部55は、電子メールデータ41の同一箇所で複数のキーワード230による検索ができた場合に、個人情報記憶部1が個人情報管理テーブル200に記憶した優先度220が高いほうのキーワード230に対応する個人音声データ310を出力する。
例えば、キーワード設定241が「メール受信時間」の場合は、意味検索部52は、キーワード詳細設定242が示す意味に含まれるテキストを検出するように検索するので、キーワード詳細設定242に登録されている「7:00〜9:00(の間)」と「AM(午前)」に含まれる意味を持つテキストによる検索を行う。このとき、対象の電子メールデータ41のメール受信時刻が「08:51」とすると、意味検索部52は、キーワード詳細設定242に登録されている「7:00〜9:00(の間)」と「AM(午前)」との両方に含まれる意味を持つテキストとして検出する。この場合は、キーワード詳細設定242の「7:00〜9:00」と「AM」とに対してそれぞれ異なる優先度220が登録されているので、優先度制御部55は、優先度220の高い方のキーワード230(図3においては「7:00〜9:00」)を選択(検出)し、そのキーワード230に対応する個人音声データ310を出力する処理を行う。
あるいは、ユーザーが、同一のキーワード230に対して、類似した(類似していなくともよい)複数の個人音声データ310を割り当てたい場合がある。例えば、キーワード設定241が「言葉」でありキーワード詳細設定242が「よろしく」であるキーワード230に対して、音声管理番号250の異なる「よろしくね〜」と「よろしくお願いしま〜す!」の2つの個人音声データ310を対応させた場合である。この場合は、設定されている音声管理番号250が異なる2つの同一のキーワード230に対して、それぞれ優先度220を登録することで、優先度制御部55は、検出した2つの同一のキーワード230のうち、高い方のキーワード230の音声管理番号250を選択し、その音声管理番号250に対応する個人音声データ310を出力する処理を行う。個人情報管理テーブル200は、ユーザの操作部6からの操作により優先度220を変更することができるようにしてもよい。そうすることで、類似した個人音声データ310を登録しておいても、優先度220を変更することでいつでも利用することができる。
次に、図5に基づき実施の形態1にかかる携帯端末装置100のメールの音声読み上げ動作(メッセージ出力方法及びメッセージ出力プログラム)について説明する。
図5は、実施の形態1にかかる携帯端末装置100のメール読み上げ動作のフローチャートである。
<前工程>
事前準備として、ユーザーは、携帯端末装置100に、入力装置等から指示することにより、操作部6を通してメール管理部4にメール自動読み上げを設定する。これにより、携帯端末装置100は、メールを新規受信した場合あるいは受信済みメールをリモコン操作等により再度チェックする場合等に、メール読み上げ処理動作(メッセージ出力方法及びメッセージ出力プログラム)を開始する(A2)。
事前準備として、ユーザーは、携帯端末装置100に、入力装置等から指示することにより、操作部6を通してメール管理部4にメール自動読み上げを設定する。これにより、携帯端末装置100は、メールを新規受信した場合あるいは受信済みメールをリモコン操作等により再度チェックする場合等に、メール読み上げ処理動作(メッセージ出力方法及びメッセージ出力プログラム)を開始する(A2)。
<差出人個人情報判別ステップ>
制御部5は、記憶装置に記憶された電子メールデータ41をメール管理部4から入力する。制御部5は、入力した電子メールデータ41の差出人が、個人情報記憶部1が記憶装置に記憶する個人情報管理テーブル200に登録されているかどうかを確認する。すなわち、制御部5は、その電子メールデータ41の差出人が個人情報記憶部1によって管理されている個人情報に含まれる個人であるかを処理装置により判別する(A3)。
制御部5は、記憶装置に記憶された電子メールデータ41をメール管理部4から入力する。制御部5は、入力した電子メールデータ41の差出人が、個人情報記憶部1が記憶装置に記憶する個人情報管理テーブル200に登録されているかどうかを確認する。すなわち、制御部5は、その電子メールデータ41の差出人が個人情報記憶部1によって管理されている個人情報に含まれる個人であるかを処理装置により判別する(A3)。
電子メールデータ41の差出人が個人情報に登録されていない場合(A3−No)は、制御部5は、一般音声記憶部3に記憶された一般音声データ400を用いて、対応する電子メールデータ41をメール末尾まで読み上げるようにメール読み上げ用の一般音声データを処理装置により出力する(A9:一般音声出力ステップ)。
<キーワード検索ステップ>
電子メールデータ41の差出人が個人情報に登録されている場合(A3−Yes)は、制御部5は、処理装置により電子メールデータ41から個人情報記憶部1が記憶装置の個人情報管理テーブル200に記憶したキーワード230による検索をする(A4:キーワード検索ステップ)。すなわち、制御部5は、電子メールデータ41の文章に対して該当する個人の個人情報管理テーブル200に登録されているキーワード230が存在するかをメールの前方から処理装置により検索する。
電子メールデータ41の差出人が個人情報に登録されている場合(A3−Yes)は、制御部5は、処理装置により電子メールデータ41から個人情報記憶部1が記憶装置の個人情報管理テーブル200に記憶したキーワード230による検索をする(A4:キーワード検索ステップ)。すなわち、制御部5は、電子メールデータ41の文章に対して該当する個人の個人情報管理テーブル200に登録されているキーワード230が存在するかをメールの前方から処理装置により検索する。
テキスト検索部51は、例えば、キーワード230のキーワード設定241が「言葉」の場合に、キーワード詳細設定242の「よろしく」をテキストのキーワード230として処理装置により電子メールデータ41を検索する。テキスト検索部51は、電子メールデータ41に「よろしく」と一致するテキストを検出した場合に検索ができたものとして処理装置により検出したテキスト「よろしく」を記憶装置に記憶して検出ができたことを出力する。
意味検索部52は、電子メールデータ41の中にキーワード230が示す意味に含まれるテキストを検出する。例えば、キーワード230のキーワード設定241が「メール受信時間」でありキーワード詳細設定242が「AM」の場合に、キーワード230が示す意味に含まれるテキストは、受信メール時刻が「午前中の時刻のいずれかの時刻」を示すテキストである。すなわち、意味検索部52は、電子メールデータ41のメール受信時刻を示すテキストが「06:00」から「12:00」までのいずれかの時刻を表すテキストを検出した場合に検索ができたものとする。意味検索部52は、電子メールデータ41に「06:00」から「12:00」までのいずれかの時刻を表すテキストと一致するテキストを検出した場合に検索ができたものとして処理装置により検出ができたことを出力する。
制御部5による検索の結果、キーワード検索ステップ(A4)においてキーワードによる検索ができなかった場合は(A4−No)、制御部5は、一般音声記憶部3に記憶された一般音声データ400を用いて、対応する電子メールデータ41をメール末尾まで読み上げるようにメール読み上げ用の一般音声データを処理装置により出力する(A9:一般音声出力ステップ)。
<個人音声出力ステップ>
制御部5による検索の結果、キーワード検索ステップ(A4)においてキーワード230による検索ができた場合は(A4−Yes)、制御部5は、検出したキーワード230による検索ができた箇所でデータ記憶部2が記憶する検出したキーワード230に対応する個人音声データ310を出力する。すなわち、まず、制御部5は、キーワード検索ステップ(A4)においてキーワード230による検索ができた場合は、処理装置により検索を一旦停止する。制御部5は、検索開始ポイントから検出したキーワード230のポイントまでに他の文章があるかを処理装置により判断する(A5)。
制御部5による検索の結果、キーワード検索ステップ(A4)においてキーワード230による検索ができた場合は(A4−Yes)、制御部5は、検出したキーワード230による検索ができた箇所でデータ記憶部2が記憶する検出したキーワード230に対応する個人音声データ310を出力する。すなわち、まず、制御部5は、キーワード検索ステップ(A4)においてキーワード230による検索ができた場合は、処理装置により検索を一旦停止する。制御部5は、検索開始ポイントから検出したキーワード230のポイントまでに他の文章があるかを処理装置により判断する(A5)。
検出したキーワード230のポイントまで他の文章があれば(A5−Yes)、制御部5は、該当するキーワードのポイントまでの他の文章を、一般音声データを用いて読み上げるようにメール読み上げのための一般音声データを処理装置により一般音声記憶部3から読み出して出力する(A6)。その後、以下の(A7)の処理へ移る。
検出したキーワード230のポイントまで他の文章が無ければ(A5−No)、制御部5は、検出したキーワード230に対応する個人音声データ310を、データ記憶部2が記憶装置に記憶した個人音声管理テーブル300から処理装置により読み出して出力する(A7)。
このとき、検出したキーワード230がテキストの場合は、音声データ置換部53が、検出されたキーワード230のテキストに対応する一般音声データを出力せずに、代わりに、検索に用いたキーワード230に対応する個人音声データ310を出力する。また、検出したキーワード230が電子メールデータ41の特定箇所を示す位置データ(例えば、「メール先頭」を示すデータ)である場合は、音声データ追加部54が、検出したキーワード230による検索ができた電子メールデータ41の特定箇所で、検出したキーワード230に対応する個人音声データ310を処理装置により追加出力する。
制御部5は、該当するキーワード230までのメール読み上げのための出力が終了すると、メール末尾かどうかを処理装置により判断する(A8)。メール末尾でなければ(A8−No)、制御部5は、再度、登録済キーワードが文章の中にあるかを検索し(A4)、同様の処理を行う。
メール末尾であれば(A8−Yes)、音声読み上げエンジン8は、制御部5から出力された個人音声データ310と一般音声データとを用いて、処理装置により音声を合成する(A10:音声合成ステップ)。
そして、制御部5が、スピーカー11から音声読み上げエンジン8が合成した音声を出力する(A11:音声読み上げ出力ステップ)。
以上の処理をまとめると、携帯端末装置100は、電子メールデータ41に個人情報記憶部1に登録済のキーワード230が存在するかを検索し、検索の結果、登録済のキーワード230が検出されなければ、音声読み上げエンジン8によりデフォルト音声(一般音声データ)を用いてスピーカー11を通して音声読み上げをメール末尾まで行い終了する。また、検索の結果、登録済のキーワード230が検出されると、該当のキーワード230以外のメール部分については、音声読み上げエンジン8によりスピーカー11を通してデフォルト音声(一般音声データ)を用いてメール音声読み上げを行い、該当するキーワード230の箇所については対応する個人音声データ310をデータ記憶部2から読み出し、スピーカー11を通して個人音声データを出力する。
以上の処理では、制御部5は、個人音声出力ステップあるいは一般音声出力ステップにおいて、電子メールデータ41に対応する個人音声データ310あるいは一般音声データを出力し、メール末尾を検出すると、音声読み上げエンジン8が制御部5が出力した音声データを合成し、合成した音声を制御部5がスピーカー11から出力する処理となっている。しかし、制御部5が、個人音声出力ステップあるいは一般音声出力ステップにおいて、電子メールデータ41に対応する個人音声データ310あるいは一般音声データを出力する度に、音声読み上げエンジン8によりスピーカー11を通して音声読み上げを行うような処理にしても構わない。
次に、具体的な画面等を用いて、上記の処理内容について説明する。
図6は、個人情報記憶部1にて管理する個人情報管理テーブル200の設定画面の一例を示す図である。図6において、表示画面に表示されているキーワード設定画面60の内容は、図3で説明した同じ内容を示している。すなわち、図3におけるメモリ番号210の示す値「1」は、図6においては「太郎さん」を示している。つまり、登録者(ユーザー)が、「太郎さん」に関するキーワードを個人情報として携帯端末装置100に登録したい場合は、図6のキーワード設定画面60に示したように入力設定することにより、図3で示す個人情報管理テーブル200のようにデータが設定されることになる。
図7は、受信メール70の内容を示す。
図8は、図7に示す受信メール70における、従来のメール読み上げ文章例を示す。図8における、従来のメール読み上げ方法では、一般音声データあるいは差出人毎に登録されている例えばアレンジした音声データを用いて、メールの読み上げ処理を行う。
図9は、図7に示す受信メール70を、実施の形態1にかかる携帯端末装置100によりメール読み上げ処理した場合のメール読み上げ文章90を示す。図9において、太字下線の部分は、例えば個人毎に個人の音声を録音した個人音声データ310となる。
次に、図3、図4、図7、図9を用いて、図7における受信メール70の内容が図9におけるメール読み上げ文章90となるまでの流れについて、「メール受信時間」を例にして説明する。
受信メール70のメール受信時刻は「08:51」である。この部分は、メール読み上げ文章90では、差出人本人の音声による「眠いよ〜!」という音声データに変換されて出力される。
すなわち、「08:51」の部分は、次のようにデータを経由して「眠いよ〜!」と音声出力されている。
「08:51」→「メール受信時間」→「7:00〜9:00」→「3」→「眠いよ〜!」。
受信メール70のメール受信時刻が「08:51」であると、意味検索部52は、キーワード検索処理において、「08:51」を、個人情報管理テーブル200においてキーワード設定241が「メール受信時間」でありキーワード詳細設定242に登録されている「7:00〜9:00」と「AM」との両方に含まれる意味を持つテキストとして検出する。しかし、個人情報管理テーブル200には、キーワード詳細設定242の「7:00〜9:00」と「AM」とに対してそれぞれ異なる優先度220が登録されているので、優先度制御部55は、優先度220の高い方のキーワード230として「7:00〜9:00」を選択し、そのキーワード230「7:00〜9:00」に対応する音声管理番号250として「3」を出力する。音声データ置換部53は、音声管理番号250の「3」に対応する個人音声データ310「眠いよ〜!」を、個人音声管理テーブル300より選択して出力する処理を行う。このようにして、受信メール70の「08:51」の部分は、メール読み上げ文章90においては差出人本人の音声で「眠いよ〜!」と音声出力される。
以上のように、実施の形態1にかかる携帯端末装置100は、音声によるメール音声読み上げ装置と、差出人情報(個人情報)に基づく音声データを用いて差出人に従って読み上げ音声を制御する装置とを備えることを特徴とする。また、音声データを制御する装置と、音声データの優先度を制御する装置と、メールの内容に従って使用する音声データを制御する装置とを備えることを特徴とする。
以上のように、本実施の形態にかかる携帯端末装置100によれば、受信した電子メールデータ41を読み上げる際に、電子メールデータ41内のキーワード230に対応して予め保存してある個人音声データ310を用いてメールの自動読み上げを実施するので、本人の音声と特徴を交えて読み上げが行われるため、確実に差出人を特定しながらメールを確認することができるようになるという効果を奏する。これにより、リモコン操作や受信メール自動読み上げ機能等、メール表示画面を見ずに受信したメールを読み上げたとき、容易に送信者を特定することが可能となるという効果を奏する。
以上の、実施の形態1の説明において、携帯端末装置100が有する制御部5において、テキスト検索部51、意味検索部52、音声データ置換部53、音声データ追加部54、優先度制御部55は、それぞれ独立した機能ブロックとして構成されているが、ひとつの機能ブロックとしてもよい。あるいは、テキスト検索部51と意味検索部52とをひとつの機能ブロックとし、また、音声データ置換部53と音声データ追加部54とをひとつの機能ブロックとし、優先度制御部55を独立したひとつの機能ブロックとしてもよい。あるいは、これらの機能ブロックを、他のどのような組み合わせで構成しても構わない。
実施の形態2.
次に、携帯端末装置100における音声登録方法について説明する。個人情報記憶部1が記憶する個人情報管理テーブル200には、個人毎にメールの読み上げのためのキーワード230が登録されている。また、データ記憶部2が記憶する個人音声管理テーブル300には、そのキーワード230に対応する個人音声データ310が登録されている。本実施の形態では、その個人音声データ310を登録する音声登録方法について説明する。
次に、携帯端末装置100における音声登録方法について説明する。個人情報記憶部1が記憶する個人情報管理テーブル200には、個人毎にメールの読み上げのためのキーワード230が登録されている。また、データ記憶部2が記憶する個人音声管理テーブル300には、そのキーワード230に対応する個人音声データ310が登録されている。本実施の形態では、その個人音声データ310を登録する音声登録方法について説明する。
図10は、実施の形態2にかかる携帯端末装置100の機能ブロック図である。ここで、実施の形態1で説明したものと同じ機能、動作を有する機能ブロックについては同じ符号を付し、その説明を省略する。
図10において、携帯端末装置100は、制御部5に個別登録部56、通話登録部57、複写登録部58を備えている。
個別登録部56は、個人によって発声されたキーワード230の音声あるいはキーワード230に対応する音声をマイク10で録音することにより、キーワード230に対応した個人音声データ310をデータ記憶部2により記憶装置に記憶する。例えば、個別登録部56は、携帯端末装置100の個人情報編集モードにおいて、個人が携帯端末装置100に向かって声を発することにより音声を録音し、データ記憶部2により記憶装置の個人音声管理テーブル300に登録する。
通話登録部57は、個人との通話音声を記憶装置(メモリ)に録音して、録音した通話音声からキーワード230に対応した個人音声データ310をデータ記憶部2により記憶装置に記憶する。例えば、通話登録部57は、記憶装置(メモリ)に記憶した個人との通話音声から必要な音声データのみを切り出し、個人音声データ310とする機能を有してもよい。
複写登録部58は、外部記憶装置等から取り入れた外部音声データ320をキーワード230に対応させて個人音声データ310として複写してデータ記憶部2により記憶装置に記憶する。外部記憶装置等とは、例えば、CompactFlash(登録商標)やSmartMedia(登録商標)、SDメモリーカード、メモリースティック(登録商標)などがある。あるいは、複写登録部58は、インターネット、赤外線等の通信手段により音声データを携帯端末装置100に取り入れ、個人情報編集モードにて音声データとキーワードとを関連付けるようにしてもよい。
図11は、個別登録部56による通常音声登録動作のフローチャートである。図11を用いて、携帯端末装置100へキーワードと音声を登録する方法を説明する。
まず、携帯端末装置100は、ユーザーの操作部6からの操作により、個人情報記憶部1が記憶装置の個人情報管理テーブル200に登録する特定個人の情報を、表示部7を通して表示装置に表示する(B2)。これにより、携帯端末装置100は、ユーザーの操作部6からの操作により、個人情報を編集することが可能な状態、すなわち個人情報編集モードとなる(B3)。
個別登録部56は、ユーザーの操作部6からの操作により入力されたキーワードを、記憶装置の個人情報管理テーブル200に処理装置により登録する(B4)。
個別登録部56は、ユーザーの操作部6からの操作により、携帯端末装置100が音声録音可能となった状態でマイク10から個人の音声を録音する。個別登録部56は、録音した音声データを音声管理番号250とともに個人音声データ310としてデータ記憶部2により記憶装置の個人音声管理テーブル300に記憶する(B5)。
個別登録部56は、キーワードと個人音声データの登録処理が終了か否かを処理装置により判断する(B6)。キーワードの登録を繰り返す場合は、登録終了せずに(B6−No)、キーワード登録(B4)に処理が戻る。
キーワードの登録を終了する場合は(B6−Yes)、個別登録部56は、ユーザーの操作部6からの操作により、個人情報の更新を処理装置により行う。個別登録部56は、例えば、登録したキーワード230と録音した個人音声データとを関連付けるために、個人音声管理テーブル300に記憶した音声管理番号250を個人情報管理テーブル200に登録する等の更新処理を行う(B7)。個別登録部56は、個人情報の編集を終了して、通常音声登録動作を終了する(B8)。
図12は、通話登録部57による通話中録音音声登録動作のフローチャートである。図12を用いて、携帯端末装置100の通話中に録音した音声データを用いてキーワード登録する方法について説明する。
通話中録音音声登録動作は、携帯端末装置100の通話中に、ユーザーの操作部6からの操作により、通話中録音音声登録開始の指示が入力された場合に通話中録音音声登録動作が開始する。
携帯端末装置100が通話中状態(C2)にて、通話登録部57は、処理装置により通話状況確認を行う(C3)。
通話状況が通話継続の場合に(C3−Yes)、通話登録部57は、音声録音を行うか否かを処理装置により判断する(C4)。
音声録音を行わない場合は(C4−No)、通話登録部57は、通話状況確認処理(C3)に戻る。
通話継続時に音声録音を行う場合、すなわち、ユーザーの操作部6からの操作により、通話中録音音声登録開始の指示が入力された場合に(C4−Yes)、通話登録部57は、通話中の音声の録音を行い、記憶装置(メモリ)に記憶する(C5)。通話登録部57は、録音した音声データを個人音声データ310として音声管理番号250とともにデータ記憶部2により記憶装置の個人音声管理テーブル300に処理装置により記憶する(C5)。通話登録部57は、通話状況確認(C3)に処理を戻す(C3)。
通話状況確認が通話終了時の場合は(C3−No)、通話登録部57は、通話中に録音された音声データが存在するか否かを処理装置によりを確認し(C6)、録音データがないと判断した場合は(C6−No)、通話中録音音声登録処理を終了する(C12)。
録音データがあると判断した場合(C6−Yes)は、通話登録部57は、個人情報記憶部1に登録されている通話相手の個人情報を編集する画面を表示部7にて表示する。すなわち、通話登録部57は、携帯端末装置100を処理装置により個人情報編集モードに切り替える。さらに、通話登録部57は、ユーザーの操作部6からの操作により入力されたキーワードを、個人音声データ310の音声管理番号250と関連付けて個人情報記憶部1により記憶装置の個人情報管理テーブル200に処理装置により登録する(C8)。
通話登録部57は、通話中に録音した全ての音声データに対して、キーワード登録が完了したか否かを処理装置により判断する(C9)。
全ての音声データが登録完了していない場合は(C9−No)、通話登録部57は、キーワード登録処理(C8)に戻り処理を繰り返す。
全ての音声データに対してキーワード登録が完了した場合は(C9−Yes)、通話登録部57は、ユーザーの操作部6からの操作により、個人情報の更新を処理装置により行う。(C10)。そして、通話登録部57は、通話中に録音した音声データのキーワード登録を終了し、通話中録音音声登録処理を終了する(C11)。
図13は、複写登録部58による外部データ登録動作のフローチャートである。図13を用いて、携帯端末装置100において直接音声を録音することにより音声データを作成する方法以外の方法について説明する。なお、音声を録音した録音データの替わりとなる音声データが、予めデータ記憶部2により記憶装置に記憶されていることを前提とする。また、音声データを予め登録する登録方法は、例えば、インターネット、赤外線等の通信手段、あるいは外部記憶媒体からの入力等により音声データを携帯端末装置100の記憶装置に外部音声データ320として取り入れることを想定している。外部記憶媒体は、例えば、コンパクトフラッシュ(登録商標)、SmartMedia(登録商標)、SDメモリーカード、メモリースティックなどがある。
まず、携帯端末装置100は、ユーザーの操作部6からの操作により、個人情報記憶部1が記憶装置の個人情報管理テーブル200に登録する特定個人の情報を、表示部7を通して表示装置に表示する(D2)。これにより、携帯端末装置100は、ユーザーの操作部6からの操作により、個人情報を編集することが可能な状態、すなわち個人情報編集モードとなる(D3)。
複写登録部58は、ユーザーの操作部6からの操作により、入力されたキーワードを、記憶装置の個人情報管理テーブル200に処理装置により登録する(D4)。
複写登録部58は、データ記憶部2により記憶装置に登録されている外部音声データ320を選択する。複写登録部58は、選択した外部音声データ320を個人音声データ310として音声管理番号250とともにデータ記憶部2により記憶装置の個人音声管理テーブル300に処理装置により記憶する(D5)。
複写登録部58は、キーワードと音声データの登録処理が終了か否かを処理装置により判断する(D6)。キーワードと音声データの登録を繰り返す場合は、登録終了せずに(D6−No)、複写登録部58は、キーワード登録(D4)に処理が戻る。
キーワードの登録を終了する場合は(D6−Yes)、複写登録部58は、ユーザーの操作部6からの操作により、個人情報の更新を処理装置により行う。複写登録部58は、例えば、登録したキーワードと選択した音声データとを関連付けるために、個人音声管理テーブル300に記憶した選択した音声データ(個人音声データ310)の音声管理番号250を、登録するキーワードに対応する個人情報管理テーブル200に登録する等の更新処理を行う(D7)。複写登録部58は、個人情報の編集を終了して、外部データ登録動作を終了する(D8)。
以上のように、本実施の形態にかかる携帯端末装置100は、データ管理領域(データ記憶部2)に音声を録音したデータを登録することを可能とする。既に携帯端末装置100に登録されている人から受信したメールを読み上げる際に、差出人の声およびそれに順ずる音声データを織り交ぜて文章を読み上げる。
音声データの登録方法は、携帯端末装置100の個人情報編集モードにおいて、携帯端末装置100に向かって声を発することにより録音、登録する、通常音声登録方法がある。あるいは、通話中の音声を録音し、通話終了後の操作にて登録する、通話中音声録音方法がある。また、外部記憶媒体およびインターネット、赤外線等の通信手段により携帯端末装置に取り入れ、個人情報編集モードにて音声データを関連付ける、外部データ登録方法がある。
以上のように、本実施の形態にかかる携帯端末装置100によれば、メール読み上げ用の音声データとして、多種多様の音声データをデータ記憶部2に登録することができるので、個人に対応した多種多様のメール読み上げ音声を実現することができる。したがって、メールの読み上げの際に、メールの差出人を容易に特定することができるという効果を奏する。例えば、夜間に複数の差出人からメールを受信していた場合や、携帯電話の画面を開く事も困難な通勤中の満員電車の中においてもイヤホン接続してメールの自動読み上げを実施することで、本人の音声と特徴を交えて読み上げが行われるため、差出人を特定しながらメールを確認することができるようになる。
1 個人情報記憶部、2 データ記憶部、3 一般音声記憶部、4 メール管理部、5 制御部、6 操作部、7 表示部、8 音声読み上げエンジン、9 無線部、10 マイク、11 スピーカー、12 通信回線、41 電子メールデータ、51 テキスト検索部、52 意味検索部、53 音声データ置換部、54 音声データ追加部、55 優先度制御部、56 個別登録部、57 通話登録部、58 複写登録部、60 キーワード設定画面、70 受信メール、90 メール読み上げ文章、100 携帯端末装置、200 個人情報管理テーブル、210 メモリ番号、220 優先度、230 キーワード、241 キーワード設定、242 キーワード詳細設定、250 音声管理番号、300 個人音声管理テーブル、310 個人音声データ、320 外部音声データ、400 一般音声データ、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、909 タッチパネル、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、916 フラッシュメモリ、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群、931 電話器、932 ファクシミリ機、940 インターネット、941 ゲートウェイ、942 LAN、1000 メッセージ出力装置。
Claims (10)
- キーワードとキーワードに対応する個人音声データとを記憶するデータ記憶部と、
一般音声読み上げ用の一般音声データを記憶している一般音声記憶部と、
電子メールデータを記憶するメール管理部と、
前記データ記憶部にキーワードと個人音声データとが登録されている個人の個人情報を記憶する個人情報記憶部と、
前記メール管理部に記憶された電子メールデータを入力して、その電子メールデータの差出人が前記個人情報記憶部によって記憶されている個人情報に含まれる個人であるかを判別し、差出人が個人情報に含まれる個人である場合、電子メールデータから前記個人情報記憶部に記憶されたキーワードによる検索をし、キーワードによる検索ができた場合に、そのキーワードによる検索ができた箇所で前記データ記憶部が記憶したキーワードに対応する個人音声データを出力する制御部と、
前記制御部から出力された個人音声データと一般音声データとを用いて、音声を合成する音声読み上げエンジンと、
前記音声読み上げエンジンで合成された音声を出力するスピーカーと
を備えたことを特徴とするメッセージ出力装置。 - 前記制御部は、
電子メールデータの差出人が個人情報に含まれない個人である場合、前記電子メールデータに対応して前記一般音声記憶部に記憶された一般音声データを出力する
ことを特徴とする請求項1記載のメッセージ出力装置。 - 前記制御部は、
電子メールデータの差出人が個人情報に含まれる個人である場合、電子メールデータから前記個人情報記憶部に記憶されたキーワードによる検索をし、キーワードによる検索ができない場合に、前記電子メールデータに対応して前記一般音声記憶部に記憶された一般音声データを出力する
ことを特徴とする請求項1記載のメッセージ出力装置。 - 前記制御部は、
電子メールデータの中にキーワードと一致するテキストを検出した場合に検索ができたものとするテキスト検索部と、
電子メールデータの中にキーワードが示す意味に含まれるテキストを検出した場合に検索ができたものとする意味検索部と、
検出されたテキストに対応する一般音声データを出力せずに、代わりに、検索に用いたキーワードに対応する個人音声データを出力する音声データ置換部と
を備えたことを特徴とする請求項1記載のメッセージ出力装置。 - 前記データ記憶部は、
電子メールデータの特定箇所を示す位置データをキーワードとして記憶するとともに、その電子メールデータの特定箇所で出力される個人音声データをそのキーワードに対応させて記憶し、
前記制御部は、
前記データ記憶部に記憶したキーワードにより示された電子メールデータの特定箇所を検索し、そのキーワードによる検索ができた特定箇所でそのキーワードに対応する個人音声データを追加出力する音声データ追加部を備えたことを特徴とする請求項1記載のメッセージ出力装置。 - 前記個人情報記憶部は、
キーワードに対応して優先度を記憶し、
前記制御部は、
同一箇所で複数のキーワードによる検索ができた場合に、個人情報記憶部に記憶した優先度が高いほうのキーワードに対応する個人音声データを出力する優先度制御部を備えたことを特徴とする請求項1記載のメッセージ出力装置。 - メッセージ出力装置は、少なくとも、
個人によって発声されたキーワードの音声をマイクで録音することにより、キーワードに対応した個人音声データを前記データ記憶部に記憶する個別登録部と、
個人との通話音声をメモリに録音して、録音した通話音声からキーワードに対応した個人音声データを前記データ記憶部に記憶する通話登録部と、
外部記憶装置からキーワードに対応した個人音声データを複写して前記データ記憶部に記憶する複写登録部と
の何れかを備えたことを特徴とする請求項1記載のメッセージ出力装置。 - 前記メッセージ出力装置が、携帯端末装置であることを特徴とする請求項1記載のメッセージ出力装置。
- キーワードとキーワードに対応する個人音声データとを記憶するデータ記憶部と、一般音声読み上げ用の一般音声データを記憶している一般音声記憶部と、電子メールデータを記憶するメール管理部と、データ記憶部にキーワードと個人音声データとが登録されている個人の個人情報を記憶する個人情報記憶部とを備えたメッセージ出力装置のメッセージ出力方法であって、
制御部が、メール管理部に記憶された電子メールデータを入力して、その電子メールデータの差出人が個人情報記憶部によって記憶されている個人情報に含まれる個人であるかを判別する差出人個人情報判別ステップと、
差出人が個人情報に含まれる個人である場合、制御部が、電子メールデータから個人情報記憶部に記憶されたキーワードによる検索をするキーワード検索ステップと、
キーワードによる検索ができた場合に、制御部が、そのキーワードによる検索ができた箇所でデータ記憶部が記憶したキーワードに対応する個人音声データを出力する個人音声出力ステップと、
差出人個人情報判別ステップで差出人が個人情報に含まれないと判別した場合とキーワード検索ステップでキーワードによる検索ができなかった場合とのいずれかの場合には、制御部が、電子メールデータに対応して一般音声記憶部に記憶された一般音声データを出力する一般音声出力ステップと、
音声読み上げエンジンが、制御部から出力された個人音声データと一般音声データとを用いて、音声を合成する音声合成ステップと、
制御部が、スピーカーから音声読み上げエンジンが合成した音声を出力する音声読み上げ出力ステップと
を備えたことを特徴とするメッセージ出力方法。 - キーワードとキーワードに対応する個人音声データとを記憶するデータ記憶部と、一般音声読み上げ用の一般音声データを記憶している一般音声記憶部と、電子メールデータを記憶するメール管理部と、データ記憶部にキーワードと個人音声データとが登録されている個人の個人情報を記憶する個人情報記憶部とを備えたメッセージ出力装置のメッセージ出力プログラムであって、
制御部が、メール管理部に記憶された電子メールデータを入力して、その電子メールデータの差出人が個人情報記憶部によって記憶されている個人情報に含まれる個人であるかを判別する差出人個人情報判別ステップと、
差出人が個人情報に含まれる個人である場合、制御部が、電子メールデータから個人情報記憶部に記憶されたキーワードによる検索をするキーワード検索ステップと、
キーワードによる検索ができた場合に、制御部が、そのキーワードによる検索ができた箇所でデータ記憶部が記憶したキーワードに対応する個人音声データを出力する個人音声出力ステップと、
差出人個人情報判別ステップで差出人が個人情報に含まれないと判別した場合とキーワード検索ステップでキーワードによる検索ができなかった場合とのいずれかの場合には、制御部が、電子メールデータに対応して一般音声記憶部に記憶された一般音声データを出力する一般音声出力ステップと、
音声読み上げエンジンが、制御部から出力された個人音声データと一般音声データとを用いて、音声を合成する音声合成ステップと、
制御部が、スピーカーから音声読み上げエンジンが合成した音声を出力する音声読み上げ出力ステップと
をコンピュータに実行させることを特徴とするメッセージ出力プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006129014A JP2007299352A (ja) | 2006-05-08 | 2006-05-08 | メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006129014A JP2007299352A (ja) | 2006-05-08 | 2006-05-08 | メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007299352A true JP2007299352A (ja) | 2007-11-15 |
Family
ID=38768769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006129014A Pending JP2007299352A (ja) | 2006-05-08 | 2006-05-08 | メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007299352A (ja) |
Cited By (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014158151A (ja) * | 2013-02-15 | 2014-08-28 | Seiko Epson Corp | 音処理装置および音処理装置の制御方法 |
JP2015501022A (ja) * | 2011-09-30 | 2015-01-08 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
US9412392B2 (en) | 2008-10-02 | 2016-08-09 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169581A (ja) * | 2000-11-29 | 2002-06-14 | Matsushita Electric Ind Co Ltd | 音声合成方法およびその装置 |
JP2003333203A (ja) * | 2002-05-13 | 2003-11-21 | Canon Inc | 音声合成システム、サーバ装置および情報処理方法ならびに記録媒体、プログラム |
-
2006
- 2006-05-08 JP JP2006129014A patent/JP2007299352A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169581A (ja) * | 2000-11-29 | 2002-06-14 | Matsushita Electric Ind Co Ltd | 音声合成方法およびその装置 |
JP2003333203A (ja) * | 2002-05-13 | 2003-11-21 | Canon Inc | 音声合成システム、サーバ装置および情報処理方法ならびに記録媒体、プログラム |
Cited By (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US9412392B2 (en) | 2008-10-02 | 2016-08-09 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10643611B2 (en) | 2008-10-02 | 2020-05-05 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
JP2015501022A (ja) * | 2011-09-30 | 2015-01-08 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
JP2014158151A (ja) * | 2013-02-15 | 2014-08-28 | Seiko Epson Corp | 音処理装置および音処理装置の制御方法 |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007299352A (ja) | メッセージ出力装置及びメッセージ出力方法及びメッセージ出力プログラム | |
CN1677418B (zh) | 电子邮件创建装置及其方法、程序和便携式终端 | |
US8189746B1 (en) | Voice rendering of E-mail with tags for improved user experience | |
US7305342B2 (en) | Text-to-speech synthesis system and associated method of associating content information | |
US7937268B2 (en) | Facilitating navigation of voice data | |
US9218112B2 (en) | Handling, management and creation of ice contacts | |
US6996530B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JP2003016008A (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
JP2005346252A (ja) | 情報伝達システムおよび情報伝達方法 | |
US20040098266A1 (en) | Personal speech font | |
KR101133620B1 (ko) | 데이터 검색기능이 구비된 이동통신 단말기 및 그 동작방법 | |
KR101248165B1 (ko) | 휴대전화 및 그 데이터 검색방법 | |
JP2008523759A (ja) | 映像メッセージを合成する方法及びシステム | |
JP2001109487A (ja) | 電子メールの音声再生装置、その音声再生方法、及び音声再生プログラムを記録した記録媒体 | |
JP2003085099A (ja) | 情報処理装置および情報処理方法、記録媒体、並びにプログラム | |
US20060019704A1 (en) | Integrating wireless telephone with external call processor | |
JP2006139384A (ja) | 情報処理装置及びプログラム | |
JP2006017932A (ja) | 学習装置、携帯電話機、学習装置の制御方法、学習装置の制御プログラムおよび記録媒体 | |
JP2003333203A (ja) | 音声合成システム、サーバ装置および情報処理方法ならびに記録媒体、プログラム | |
JP2003108174A (ja) | 音声合成装置および情報端末装置 | |
JP2003016012A (ja) | 情報処理装置および情報処理方法、記録媒体、並びにプログラム | |
JP2006202321A (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
US7664498B2 (en) | Apparatus, method, and program for read out information registration, and portable terminal device | |
JPH10333876A (ja) | 電子メール音声再生システム及びメッセージ音声再生システム | |
JP2002055925A (ja) | 音声読み上げ装置および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111011 |