JP2003202885A - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法

Info

Publication number
JP2003202885A
JP2003202885A JP2001401424A JP2001401424A JP2003202885A JP 2003202885 A JP2003202885 A JP 2003202885A JP 2001401424 A JP2001401424 A JP 2001401424A JP 2001401424 A JP2001401424 A JP 2001401424A JP 2003202885 A JP2003202885 A JP 2003202885A
Authority
JP
Japan
Prior art keywords
voice
data
unit
information processing
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001401424A
Other languages
English (en)
Other versions
JP2003202885A5 (ja
JP3806030B2 (ja
Inventor
Yoji Sugito
洋史 杉戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Electronics Inc
Original Assignee
Canon Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Electronics Inc filed Critical Canon Electronics Inc
Priority to JP2001401424A priority Critical patent/JP3806030B2/ja
Publication of JP2003202885A publication Critical patent/JP2003202885A/ja
Publication of JP2003202885A5 publication Critical patent/JP2003202885A5/ja
Application granted granted Critical
Publication of JP3806030B2 publication Critical patent/JP3806030B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】複雑な登録操作をすることなく、受信されたメ
ッセージを、発信者本人の声で読み上げることを可能と
する。 【解決手段】通信制御部2及び送受話器部3により音声
による通話を行うと、音声特徴抽出部7はこの通話で得
られる通話相手の音声から音声特徴データを生成する。
個人データ記憶部8は、音声特徴抽出部7で得られた音
声特徴データを、当該通話相手に対応付けて格納する。
電子メール受信部4がテキストデータを含むメッセージ
を受信すると、音声合成部12は当該メッセージの送信
者に対応する通話相手の音声特徴データを個人データ記
憶部8より取得し、取得した音声特徴データを用いて、
当該メッセージに含まれるテキストデータに対する合成
音声データを生成する。生成された音声合成データは送
受話器部3に送られて、音声として出力される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声を用いてメッ
セージを処理することが可能な情報処理装置及び方法に
関する。更に詳しくは、受信したメッセージを音声にて
読み上げる、或いは送信すべきメッセージを音声認識を
用いて入力することが可能な装置に関するものである。
【0002】
【従来の技術】電子メールの広がりに伴い、電子メール
に含まれるメッセージを音声にて読み上げ機能を持つ機
器が増えてきている。このような文書の読み上げにおい
て、その内容を聞き手に理解し易くする方法として、特
開2000−148175には、発信者が、文章中に伝
えたいニュアンスや表情を表現する表情記号を挿入し、
読み上げ時には、その表情記号に応じた読み上げを行う
方法が示されている。また、ヒューマンI/Fの向上を
目的とし、コンピュータで人の感情を読み取る手法も多
数提案されている。例えば、特公平6−82376で号
では日本語文章から作者の感情を抽出する方法が示され
ている。また、特開平5−12023号では、音声から
音声認識を用いて感情を抽出する方法が示されている。
【0003】
【発明が解決しようとする課題】しかしながら、上記特
開2000−148175では、発信者側によって表情
記号を挿入する作業を行わなければならないというよう
な欠点がある。また、特公平6−82376号と特開平
5−12023号では、感情の抽出手段が示されている
だけで、その利用方法に及ぶ開示はない。
【0004】また、メッセージを音声にて読み上げる場
合には、当該メッセージの発信者にかかわらず、ある特
定の声質を用いて行われるのが一般的であった。
【0005】本発明は、受信されたメッセージを、発信
者本人の声で読み上げることを可能とすることを目的と
する。また、本発明の他の目的は、発信者本人の声、か
つ、感情のこもった読み上げを行うことにより、発信者
の意図をより正確に伝えることを可能とすることにあ
る。また、本発明の他の目的は、入力音声を音声認識処
理して得られる文字列に、その入力音声の感情を示す表
記を自動的に組み込んで送信メッセージを生成すること
を可能にすることにある。
【0006】
【課題を解決するための手段】上記の目的を達成するた
めの本発明による情報処理装置は以下の構成を備える。
すなわち、音声による通話を行う通話手段と、前記通話
手段より得られる通話相手の音声から音声特徴データを
生成する生成手段と、前記生成手段で生成された音声特
徴データを前記通話相手に対応させて格納する格納手段
と、テキストデータを含むメッセージを受信する受信手
段と、前記受信手段で受信したメッセージの送信者に対
応する通話相手の音声特徴データを前記格納手段より取
得する取得手段と、前記取得手段で取得した音声特徴デ
ータを用いて、前記メッセージに含まれるテキストデー
タに対する合成音声データを生成する合成手段とを備え
る。
【0007】また、上記の目的を達成するための本発明
の他の態様による情報処理装置は以下の構成を備える。
すなわち、音声を入力する入力手段と、前記入力手段で
入力された音声よりテキスト列を生成する音声認識手段
と、前記入力手段で入力された音声における発声状態の
変化を検出する検出手段と、前記検出手段で検出された
発声状態の変化に基づいて、前記音声認識手段で生成さ
れたテキスト列に付加的データを付与する付与手段と、
前記付与手段で付加的データが付与されたテキスト列を
含む送信メッセージを生成する生成手段とを備える。
【0008】更に、上記の目的を達成するための本発明
の他の態様による情報処理装置は以下の構成を備える。
すなわち、音声を入力する入力手段と、前記入力手段で
入力された音声よりテキスト列を生成する音声認識手段
と、前記入力された音声を、複数の感情分類項目のいず
れかに分類する分類手段と、前記分類手段による分類結
果に基づいて、前記音声認識手段で生成されたテキスト
列に前記分類項目に対応する付加的データを付与する付
与手段と、前記付与手段で付加的データが付与されたテ
キスト列を含む送信メッセージを生成する生成手段とを
備える。
【0009】更に、上記の目的を達成するための本発明
の他の態様による情報処理装置は以下の構成を備える。
すなわち、発声状態を表す付加データが付加されたテキ
スト列を含むメッセージを受信する受信手段と、前記受
信手段で受信されたメッセージのテキスト列に基づいて
音声データを生成する音声合成手段と、前記受信された
テキスト列より前記付加データを取得し、これに基づい
て前記音声データの発声状態を変更する変更手段とを備
える。
【0010】更に、上記の目的を達成するための本発明
の他の態様による情報処理装置は以下の構成を備える。
すなわち、複数の感情分類項目のうちのどの感情分類に
属するかを表す付加データが付加されたテキスト列と、
該複数の感情分類項目のそれぞれに対応する音声特徴デ
ータを含むメッセージを受信する受信手段と、前記受信
手段で受信されたメッセージの付加データに基づいて、
テキスト列が属する感情分類項目に対応した音声特徴デ
ータを、該メッセージより取得する取得手段と、前記取
得手段で取得された音声特徴データを用いて、前記テキ
スト列に対する音声データを生成する音声合成手段とを
備える。
【0011】
【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な実施形態のいくつかについて詳細に説明す
る。
【0012】<実施形態1>図1は実施形態1によるメ
ッセージ読み上げ装置の構成を示すブロック図である。
【0013】1は主制御部であり、2は公衆回線と接続
する通信制御部である。3は音声による通話を行う送受
話器部である。以上の構成により、音声による通話が行
われる。すなわち、送話においては、送受話器部3によ
り、入力された音声信号をデジタル信号へ変換し、主制
御部1を介して通信制御部2より公衆回線に送信する。
受話は、公衆回線からの信号を通信制御部2により受信
してこれをデジタル信号に変換し、主制御部1を介して
送受話器部3で音声信号に変換する。これより音声の送
受による通話が成立する。
【0014】4は、電子メール受信部であり通信制御部
2より受信した電子メールを格納する。ここで、主制御
部1は、通信制御部2より受信した信号がメッセージで
あるか音声通話であるかを判別し、メッセージであった
場合には電子メール受信部4に送り、音声通話であった
場合には送受話器部3に送る。
【0015】5は入力部であり、操作者が電話番号のダ
イアルや、読み上げ指示等を行うときに使用する。6は
表示部であり、受信メッセージの表示等を行う。7は、
音声特徴抽出部であり、入力された音声の特徴を抽出す
る。本実施形態においては、音声通話時の受話側のデジ
タル信号(公衆回線より通信制御部2に受信された音声
信号をデジタル化した信号)を入力とする。8は個人デ
ータ記憶部であり、各個人の電話番号やメールアドレス
及び音声の特徴が保管されている。9は音声特徴データ
比較部であり、音声特徴抽出部7により抽出した音声特
徴と、個人データ記憶部8に保管されている音声の特徴
を比較し、必要に応じて個人データ記憶部8の内容を更
新する。
【0016】10はメールアドレス検索部であり、主制
御部1より入力されたメールアドレスが、誰のメールア
ドレスかを個人データ記憶部8から検索する。11は電
話番号検索部であり、主制御部1より入力された電話番
号が、誰の電話番号かを個人データ記憶部8から検索す
る。12は音声合成部であり、声質データを設定し、入
力されたテキスト文章の言語解析を行い、設定された声
質データを使用して音声データを作成する。音声合成部
12で合成された音声データは、主制御部1を介して送
受話器部3に送られ、音声信号となる。後述するが、本
実施形態では、音声合成の対象は受信したメールのテキ
スト文章データであり、音声合成部12では、当該メー
ルの送信元の話者の音声特徴データに対応した声質デー
タが設定される。
【0017】図2は、個人データ記憶部8に保管されて
いるデータの構成例を示す図である。図2において、1
3は個人毎に割り振られる管理番号である。14は名
前、15は電話番号、16はメールアドレスであり、こ
れらは操作者が入力したものである。また、17は音声
特徴データであり、音声特徴抽出部7にて抽出された音
声特徴データ、或いは、音声特徴データ比較部9により
更新されたデータである。18は学習回数であり、音声
特徴抽出部7にて抽出を行った回数(個人データ記憶部
8に記憶された音声特徴データに関する学習の回数)で
ある。尚、学習回数18には、学習の対象者であるかど
うかの情報も含まれる。例えば学習回数データとして1
6bitを用いる場合、最上位bitを学習の対象者であるか
否かを表すフラグとして用いる。
【0018】図3は、主制御部1による、音声特徴デー
タに対する学習処理を示すフローチャートである。本実
施形態では、音声通話時に、当該通話相手の音声特徴デ
ータについて学習が行われる。
【0019】ステップS101で入力部5よりのダイア
ル入力を受けると、ステップS102で、通信制御部2
を用いて公衆回線に接続する。こうして送受話器部3に
より通話が可能となる。ステップS103では、電話番
号検索部11によりステップS101で入力されたダイ
アル番号で個人データ記憶部8を検索する。ステップS
104では、この検索結果を受け、個人データ記憶部8
に該当者がいなかった場合または該当者が学習の対象者
でなかった場合にはステップS105へ進み、そのまま
学習処理を終了する。すなわち、学習処理は行われず、
通話のみが行われることになる。
【0020】一方、ステップS103の検索の結果、該
当者があり、その該当者が学習の対象者あった場合には
ステップS106へ処理を移す。ステップS106では
公衆回線から送られてくる受話信号を音声特徴抽出部7
に送り、音声特徴の抽出を行う。ステップS107で
は、音声特徴抽出部7により抽出された音声特徴に基づ
いて、抽出音声特徴データを作成する。ステップS10
8では、個人データ記憶部8の該当者の学習回数18の
チェックを行う。ここで学習回数が0回でなければ、ス
テップS109へと移る。ステップS109では、音声
特徴データ比較部9により、個人データ記憶部8の該当
者欄に登録されている音声特徴データ17と、ステップ
S107で作成した抽出音声特徴データの比較を行う。
尚、音声特徴データ比較部9では、2つのデータの差異
を検出し、差異のある部分に関して、登録されている音
声特徴データ17に学習回数18に応じた重み付けを行
い、抽出音声特徴データとの補完及び平均化を行う。ス
テップS110では、音声特徴データ比較部9の比較結
果に基づき新音声特徴データを作成し、ステップS11
1にて個人データ記憶部8に登録する。
【0021】尚、ステップS108で学習回数18が0
回の場合には、比較すべき音声特徴データ17がない。
従って、ステップS108からステップS112へ進
み、ステップS107で作成された抽出音声特徴データ
を個人データ記憶部8の音声特徴データ17として登録
する。ステップS113では、学習回数18を+1して
ステップS105で終了する。
【0022】なお、上記処理は発信による通話時の学習
を説明したが、着信による通話時においても、例えば番
号通知により通話相手の電話番号を特定できれば、通話
相手の音声特徴を学習できる。
【0023】本実施形態のメッセージ読み上げ装置は、
以上のようにして生成、学習された音声特徴データを用
いてメールのメッセージを読み上げる。図4は、実施形
態1によるメール読み上げ時の主制御部1の処理を説明
するフローチャートである。
【0024】ステップS201で入力部5より読み上げ
指示を受けると、ステップS202で、電子メール受信
部4より読み上げの対象とする電子メールを取り出す。
ステップS203では、この電子メールに付加されてい
る送信者メールアドレス情報を抽出する。次に、ステッ
プS204では、メールアドレス検索部10により、こ
のメールアドレスを用いて個人データ記憶部8を検索す
る。
【0025】この検索結果を受け、該当者がいる場合は
ステップS205からステップS206へ処理を移す。
ステップS206では、該当する個人データの学習回数
18をチェックし、0回でなければステップS207へ
移る。ステップS207では、該当者の音声特徴データ
17を読み出し、ステップS208で、音声合成部12
に声質データとして設定する。尚、ステップS205で
該当者がない場合、或いは、ステップS206で学習回
数18が0回の場合は、ステップS209で予め標準と
して設定している声質データを設定する。
【0026】ステップS210では、音声合成部12に
おいて、ステップS208或いはステップS209で設
定された声質データを用いて電子メールのメッセージを
音声データへと変換、合成する。そして、ステップS2
11にて、ステップS210で変換された音声データを
送受話器部3にて音声とする。
【0027】また、本実施形態のメッセージ読み上げ装
置では、主制御部1の制御により、入力部5、表示部6
を用いて個人データ記憶部8に格納されている音声特徴
データの調整を行うことができる。以下、この調整処理
について説明する。
【0028】図5は、登録されている音声特徴データ1
7を調整する際の画面推移を示す図である。なお、本例
では、表示部6の上に入力部5としてタッチパネルが重
ねてある構成とするが、他の表示、入力形態であっても
よい。
【0029】501は、調整モードの画面であり、個人
データ記憶部8に記憶されている名前と学習回数が表示
される。学習回数表示中の「○」は、学習回数0回を示
し、「◎」は、学習対象外を示している。502は、テ
スト発声文章の選択操作を示しており、「音声[自己紹
介]」をタッチすることによりプルダウンメニューが表
示され、発声文章を選ぶことができる。ここでは「自己
紹介」が選択されたものとする。503では、上下方向
キーにより名前の選択を行い、そこで「発声」をタッチ
すると、登録されている音声特徴データ17を用いて5
02で選択した定型文章の読み上げを行う。ここでは
「自己紹介」が選択されており、「私の名前は**で
す。どうぞよろしく。」と発声する。
【0030】音声の調整をする場合は、504に示すよ
うに、調整したい人にカーソルを合わせ「調整」をタッ
チすれば良い。505は調整画面である。調整画面にお
いては、ピッチ、トーン、語尾の調整が可能となってい
る。それぞれの項目をタッチすることにより選択し、左
右方向キーにて、ピッチの速さ、トーンの高低、語尾の
上下を調整する画面である。ここで「継続」をタッチす
ると、調整したデータを音声特徴データ17として設定
するが今後も学習を継続することを意味している。「固
定」の時は、調整したデータを音声特徴データ17と
し、506に示すように、学習回数欄の表示が◎とな
り、学習の対象外となり音声特徴データ17は固定され
る。
【0031】以上のように、実施形態1によれば、以下
のような効果がある。 ・相手の声でメッセージを読み上げることが可能とな
り、送信者の特定やイメージが明確になる。 ・メッセージの読み上げのための音声特徴データを生成
するにあたって、操作者が意識及び作業することなく相
手の声をサンプリングできる。 ・通話毎の学習により、より送信者の声に近づけること
ができる。 ・通話毎の学習により、送信者の声の変化に対応するこ
とが可能である。 ・音声の調整ができることにより、合成音声をより自分
のイメージする声に近づけることが可能である。
【0032】<実施形態2>実施形態2では、感情要素
を加味したメッセージの読み上げを可能とするメッセー
ジ読み上げ装置を説明する。
【0033】図6は実施形態2によるにメッセージ読み
上げ装置の構成を示すブロック図である。図6におい
て、参照番号1〜12で示される構成は、図1に示した
実施形態1の各構成と同様の機能を有する。また、個人
データ記憶部8の中に記憶されている個人データの内容
も図2と概ね同様であるが、音声特徴データ17が感情
別に構成される点が異なる。
【0034】図7は実施形態2による音声特徴データの
内容を説明する図である。実施形態2における音声特徴
データ17は、感情により大きな変化を生じない基本音
声データ24と、感情に影響される感情影響音声データ
25から構成されている。感情影響音声データ25の構
成を説明する。26は感情分類であり、本実施形態では
<喜び:H><期待:E><通常:U><悲しみ:S>
<怒り:A>に大別している。27は、感情別データ2
8の「ピッチ」及び「トーン」が、音声から抽出したデ
ータであるか、予測・調整されたデータであるかを、<
確定:Y>,<暫定:N>で示すサンプリング符号であ
る。
【0035】再び図6において、19は音声感情抽出部
であり、音声通話時の受話側のデジタル信号を入力と
し、入力された音声信号のピッチやアクセント等の「音
声律情報」に注目し、通話相手の感情を感情分類26の
何れかに分類する。ここで分類された感情に、音声特徴
抽出部7の抽出結果に基づいて生成される音声特徴デー
タを、感情影響音声データ25として記憶する。
【0036】20は感情データ調整部であり、音声特徴
データ23の感情別データの内、検出できていない感
情、つまり、サンプリング符号27が、<暫定:N>と
なっている感情別データ28を、他の<確定:Y>とな
っている感情別データ、及び予め定めた基準に沿って予
測・調整する。21は文章感情抽出部であり、電子メー
ル受信部4にて受信したメッセージを入力とし、単語単
位で数量化した感情情報を予め辞書として持つことによ
り、単語列に含まれる感情情報を抽出し、単語または文
節毎に感情を判断する。22は感情音声生成部であり、
音声合成部12により作成された音声データに、文章感
情抽出部21の結果に応じて、感情影響音声データ25
の感情別データ28を付加し、感情情報の加わった音声
データを生成する。
【0037】図8は、及び図9は、実施形態2による音
声特徴データの作成例を示す図である。801は、初期
状態を示す。基本音声データ24には標準音声データが
設定されている。また、感情影響音声データ25にも標
準のデータが設定されている。すなわち、サンプリング
符号27は全て<暫定:N>であり、感情別データ28
もピッチ:a1〜a5,トーン:b1〜b5と標準の設定となっ
ている。この時点における学習回数18は0回である。
【0038】802は、音声の通話が行われた状態であ
る。音声は、音声特徴抽出部7と音声感情抽出部19に
入力される。音声特徴抽出部7では、入力された音声か
ら基本音声データ24a(Z)と、感情別データ28
(A3,B3)を検出する。また、音声感情抽出部19
では、入力された音声から感情を判断し、感情分類26
(図ではUに分類されている)として検出する。検出し
た基本音声データ24(Z)は、学習回数18が0であ
ることより、音声特徴データ23にそのまま基本音声デ
ータ24として記憶される。これにより学習回数18は
+1され1回となる。
【0039】一方、検出した感情影響音声データ25
(A3,B3)は、検出した感情分類26aがUであ
り、感情影響音声データの<通常:U>のサンプリング
符号27が<暫定:N>となっていることより、<通
常:U>の感情別データ28として記憶する。また、サ
ンプリング符号27は、<暫定:N>から<確定:Y>
へと変更する。
【0040】次に803では、802で感情影響音声デ
ータ25が更新されたことにより感情データ調整部20
が起動される。感情データ調整部20は、サンプリング
符号27が<確定:Y>となっている感情別データ28
の全てを用いて、サンプリング符号27が<暫定:N>
となっているすべての感情別データを調整する。例え
ば、803の場合、サンプリング符号27が<確定:Y
>となっている<通常:U>の感情別データ28を取り
込み、他の感情分類26、つまりサンプリング符号27
が<暫定:N>となっているすべて、S803では<喜
び:H><期待:E><悲しみ:S><怒り:A>の感
情別データ28を、予め定めた感情分類26の互いの相
関関係、例えば、ピッチの関係はE:U=1.2:1と
いった相関関係から決定し、それらを更新する。
【0041】804は、次の通話が行われた状態を示し
ている。801と同じ流れにより入力された音声から基
本音声データ24bと、感情別データ28(A2,B
2)、感情分類26(E)が検出される。検出された感
情別データ(A2,B2)は、検出した感情分類26b
(E)に対応する<期待:E>のサンプリング符号27
が<暫定:N>となっていることより、<期待:E>の
感情別データ28として記憶する。そして、<期待:E
>のサンプリング符号27を<暫定:N>から<確定:
Y>へと変える。
【0042】検出した基本音声データ24(Y)は、学
習回数18が1であることより、805へと移り、音声
特徴データ比較部7に、検出した基本音声データ24b
(Y)と、記憶されていた基本音声データ24(Z)
と、学習回数18を入力する。音声特徴データ比較部7
では、記憶されていた基本音声データ24(Z)に学習
学習回数18で重み付けを行い、検出した基本音声デー
タ24(Y)との平均をとり、新たな音声基本データ2
4c(X)を作成し、音声特徴データ23の基本音声デ
ータ24として記憶する。続いて学習回数18が+1さ
れ、学習回数は2回となる。
【0043】806では、感情影響音声データ25が更
新されたことにより感情データ調整部20が起動され
る。上述したように、感情データ調整部20は、サンプ
リング符号27が<確定:Y>となっている感情別デー
タ28の全て、806では<通常:U>と<期待:E>
の感情別データ28を取り込み、サンプリング符号27
が<暫定:N>となっているすべて、806では<喜
び:H><悲しみ:S><怒り:A>の感情別データ2
8を、予め定めた感情分類26の互いの相関関係に従っ
て更新する。なお、例えば、ピッチの関係の標準値を
H:E:U=1.5:1.2:1といった関係に対し
て、実際に取り込んだ感情別データ28ではE:U=
1.08:1となっており、サンプリング符号27が<
確定:Y>となっている感情別データ28を再度検出し
た場合には、実施形態1で示した学習方法と同様に感情
データ28を更新し、当更新時にも<暫定:N>のデー
タを更新しても良い。E:U=1.08:1となってい
た場合は、感情がピッチに反映される比率が低い人とい
う判断を行い、Hも標準より低くなると予想し、H=
1.5×1.08/1.2=1.35というように補正
を行ってデータを決定し、更新する。
【0044】図10は、実施形態2によるメッセージ読
み上げ時の音声データの作成経路を示す図である。
【0045】29は読み上げ対象となる受信メッセージ
であり、受信メッセージ29は、文章感情抽出部21と
音声合成部12に渡される。また、基本音声データ24
も音声合成部12に渡される。文章感情抽出部21で
は、受信メッセージ29から、単語または文節毎に感情
を判断し、受信メッセージ29に感情情報を付加した感
情メッセージデータ30を作成する。音声合成部12で
は、声質データとして基本音声データ24を用いて、受
信メッセージ29を音声合成し、音声データ31を作成
する。
【0046】感情メッセージデータ30と音声データ3
1及び感情影響音声データ25は、感情音声生成部22
に渡される。感情音声生成部22では、入力された音声
データ31に対して、感情メッセージデータ30に含ま
れる感情情報に対応した感情影響音声データ25の感情
別データにて加工を行い、感情入り音声データ32を作
成する。感情入り音声データ32は、送受話器部3によ
って音声となる。
【0047】以上説明したように、実施形態2によれば
以下の効果が得られる。 ・送信者の感情を読み上げ音声から知ることができ、よ
り正確に相手の意図を掴むことが可能である。 ・送信者の感情より緊急度を計ることが可能となる。 ・送信者が感情を表面に現さない人でも、その文面から
相手の感情を知ることにより相手への理解を深めること
ができる。
【0048】<実施形態3>次に、入力された音声に対
して音声認識を行い、電子メールを生成し、これを送信
するメッセージ送信装置と、このような電子メールを受
信して読み上げるメッセージ読み上げ装置について説明
する。なお、送信対象は、電子メールに限らず、チャッ
トのようなメッセージ送信であってもかまわない。
【0049】図11は実施形態3によるメッセージ送信
装置の構成を示すブロック図である。実施形態1の装置
構成(図1)で説明した構成と同様の機能を有する構成
には同一の参照番号を付してある。
【0050】33は音声入力部であり、マイクにより操
作者の音声を電気信号として入力する。34は電子メー
ル送信部である。35は音声認識部であり、音声入力部
33より入力された音声を音声認識して、テキストデー
タに変換する。36は音量・速度検出部であり、音声入
力部33より入力された音声の、音量と話す速度を検出
し、他の音声部分と比べ、予め定めた一定率以上に異な
る個所を検出する。37は文章作成部であり、音声認識
部35にて認識したテキストデータに、音声特徴データ
の付加と音量・速度検出部36の検出結果の情報を含ん
だ送信メールを作成するものである。なお、音声入力部
33は送受話器部3の通話部を用いてもよい。
【0051】図12は、実施形態3による送信メールの
データの作成経路を示す図である。38は操作者の音声
であり、音声入力部33から入力され、音声データ31
となる。音声データ31は音声特徴抽出部7と、音声認
識部35と、音量・速度検出部36に入力される。
【0052】音声認識部35では、入力された音声信号
31を順次音声認識することによりテキストデータ39
とし、これを文章作成部37へ入力する。音量・速度検
出部36では、音声データ31において音量・速度に大
きな変化を生じた時にその内容を文章作成部37に通知
する。文章作成部37では、その通知を受け、テキスト
データ39のその音声部分に対応する箇所に、予め定め
た情報付加方法に従って情報を付加する。情報付加方法
としては、テキスト文字に対してアンダーラインや斜め
文字等の装飾や、文字サイズ、フォント種別、また画面
上に表示されないデータとして付加するなどの方法があ
る。
【0053】音声特徴抽出部7では入力された音声デー
タ31から、音声特徴データ17を作成し文章作成部3
7へと渡す。文章作成部37では、情報を付加したテキ
スト文章に音声特徴データ17及びその他の情報を付加
して送信メール40を作成する。
【0054】図13に送信メール40の構成例を示す。
41は送信先の宛先情報であり、42は送信者、つまり
自分の情報である。43はメール種別情報であり、当メ
ールにおいては音声情報入りメールであることを示す
(音声情報入りメールとは、音声の音量や速度に応じて
フォント、サイズ、文字修飾等が変更されているメール
である)。次に入力時の音声特徴データ17が格納され
ている。また、44はSubjectであり、45は音声情報
を含んだ文章例である。
【0055】図13の例において、文章45では、「こ
んにちは**です。」は通常音声であり、文字は標準と
して設定されている文字を使用している。「例の彼女の
写真ですが」では、ここで「彼女の写真」の入力時に音
量・速度検出部36が、音量が小さいと検出したことよ
りフォントサイズは小さくなり、また同時に話す速度が
速いと検出したことより、さらに斜め文字修飾が行われ
ている。「今日中に必ずお願いします」では、音量・速
度検出部36が、音量が著しく大きいと検出したことよ
り、フォントサイズを大きくし、また同時に話す速度が
遅いと検出したことより、太字となっている。さらに、
前記2つの検出の組み合わせ(音量が大きくゆっくりし
ていること)から重要部分として認識され、アンダーラ
インが付加されている。
【0056】尚、送信メール40を表示部6に表示し、
入力部5にて文字装飾の追加や修正を行った後に送信す
るようにすることも当然可能である。
【0057】次に、以上のような音声情報入りメールを
読み上げる読み上げそう地に着いて説明する。図14
は、実施形態3による音声情報入りメールに対応したメ
ール読み上げ装置の構成を示すブロック図である。
【0058】送信メール40は公衆回線を通して通信制
御部2で受信され、主制御部1を介して電子メール受信
部4へと送られる。入力部5からメールが指定される
と、表示部6にそのメール内容が表示される。このとき
の表示状態は、図13の45に示したように、音声状態
に応じて設定されたフォント、サイズ、文字修飾に従っ
たものとなる。
【0059】また入力部5から読み上げを指示された場
合は、メールは電子メール受信部4から主制御部1へと
移り、主制御部1でメール種別情報43により音声情報
入りメールであることを確認し、Subject44と文章4
5が音声合成部12に渡される。このとき、声質データ
として当該電子メールに含まれる音声特徴データ17を
設定する。また、文章45は音量・速度調整部47へも
渡される。音声合成部12では、声質データを元に音声
データを作成する。また、音量・速度調整部47では、
入力された文章45から文字の装飾や大きさに含まれて
いる付加情報を取り出し、この付加情報に基づいて、音
声合成部12で作成された音声データに音量や速度等を
設定する加工を行い、最終読み上げデータを作成する。
最終読み上げデータは、主制御部1を介して音声出力部
47に送られ、音声へと変換される。
【0060】尚、本例においては、音声入力時の音声の
特徴を検出する例を示したが、実施形態1で示したよう
に、音声入力部33を送受話器部3として、通話時に音
声特徴データ17を作成しておき、送信メールに音声特
徴データ17を付加するようにしても良い。この場合に
は当然、実施形態1に示した学習や音声の調整を行える
ものである。
【0061】以上説明したように、実施形態3によれ
ば、以下のような効果が得られる。 ・声の大小や喋りかたにより意図的に文章に変化を入れ
ることが可能である。 ・受信者は送信者の声で聞くことができので、送信者を
特定でき、意図を理解し易くなる。 ・音声データとして送信するよりもデータ量が少なく、
通信料金が少ない。 ・受信者は視覚的にも送信者の意図を見ることが可能で
ある。
【0062】<実施形態4>次に、実施形態4として、
実施形態3に感情要素を加味したメッセージ送信装置に
ついて説明する。
【0063】図15は実施形態4によるメッセージ送信
装置の構成を示すブロック図である。図15に示される
構成は、実施形態3で示した構成図(図11)に、感情
検出部48が加わったものである。感情検出部48は、
音声入力部33から入力された音声データ31より、話
者の感情を判断し、その結果が予め定めた「通常の感
情」の範囲以上の変化を示した時に、その結果を感情分
類26として出力するものである。
【0064】図16は、実施形態4によるメッセージ送
信装置における、音声入力から感情情報を含むメッセー
ジを作成するまでの作成経路を示す図である。
【0065】音声入力部33に入力された話者の音声3
8は、音声データ31となり、音声認識部35、感情検
出部48、音声特徴検出部7へと入力される。音声認識
部35では、音声データ31を順次音声認識することに
よりテキストデータ39を作成し文章作成部37へ渡
す。感情検出部48では、音声データ31から感情の判
断を行い、感情が設定範囲を超えた場合にその感情分類
26を出力する。感情分類26は、音声特徴抽出部7と
文章作成部37に入力される。音声特徴抽出部7では、
音声データ31より音声の特徴を抽出すると共に、入力
された感情分類26により感情別の特徴も抽出し、これ
に基づいて基本音声データ24と、感情影響音声データ
25を作成する。
【0066】文章作成部37では、感情分類26の通知
を受け、その時のテキストデータ39に文節毎に、予め
感情分類26毎に定めた情報付加方法に従って情報を付
加する。文章作成部37では、情報を付加したテキスト
文章に基本音声データ24、感情影響音声データ25及
びその他の情報を付加して送信メール49を作成する。
【0067】図17は実施形態4における送信メールの
構成例を示す図である。実施形態4の送信メール49の
主な構成は図13と同様であり、図17には送信メール
49の特徴的な部分が示されている。
【0068】音声特徴データ17は、基本音声データ2
4と感情影響音声データ25とによって構成される。ま
た、Subject44に続き感情情報入り文章データ50が
格納される。図17では、感情方法入り文章データの一
例が示されている。この文章例の中で、「こんにちは,
**です。」は、感情検出部48で感情分類26で<通
常>と判断し、標準として設定してある文字にて記述さ
れる。「楽しかった」は、感情分類26で<喜び>と判
断され、<喜び>に対応した文字として「(笑)」を加
えることにより<喜び>の情報を付加している。「誰も
いなかった」では、感情分類26で<悲しみ>と判断
し、文節後に0003hという画面上表記されないデータを
加えることにより<悲しみ>の情報を付加している。
「頭にきた」では、感情分類26で<怒り>と判断し、
「!!」を加えることにより<怒り>の情報を付加してい
る。「返事待ってます」では、感情分類26で<期待>
と判断し、絵文字である「(^_^)」を加えることにより
<期待>の情報を付加している。前記情報付加の方法
は、方法として各種の方法を示したものであり、各感情
分類26に対して特定した方法ではない。
【0069】尚、作成した文章50を編集する時には、
<悲しみ>の情報である0003hも情報として表示さ
れ、編集することが可能となっている。
【0070】このような送信メッセージを読み上げる装
置には、実施形態2で説明したような装置を用いること
ができる。すなわち、送信メールに含まれる基本音声デ
ータ24、感情影響音声データ25を用いて、図10に
示すようにして音声合成を行う。ただし、実施形態4の
場合、文章感情抽出部21では、予め決められた記号や
文字列(!!、(笑)等)、コード(0003h)等を読み上げ
対象のメッセージから取り出し、これに基づいて感情メ
ッセージデータ30を生成することになる。
【0071】以上のように、実施形態4によれば、以下
の効果がある。・感情要素が加わることにより、より送
信者の意図や気持ちを伝えることが可能となる。・受信
者は視覚的にも、送信者の感情を知ることが可能であ
る。
【0072】
【発明の効果】以上説明したように、本発明によれば、
複雑な登録操作をすることなく、受信されたメッセージ
を、発信者本人の声で読み上げることが可能となる。ま
た、本発明によれば、発信者本人の声で、かつ、感情の
こもった読み上げを行うことが可能となり、発信者の意
図をより正確に伝えることができる。更に、本発明によ
れば、入力音声を音声認識処理して得られる文字列に、
その入力音声の感情を示す表記を自動的に組み込んで送
信メッセージを生成することが可能となり、感情表現豊
かなメッセージの送信を実現できる。
【図面の簡単な説明】
【図1】実施形態1によるメッセージ読み上げ装置の構
成を示すブロック図である。
【図2】個人データ記憶部8に保管されているデータの
構成例を示す図である。
【図3】主制御部1による、音声特徴データに対する学
習処理を示すフローチャートである。
【図4】実施形態1によるメール読み上げ時の主制御部
1の処理を説明するフローチャートである。
【図5】実施形態1において、登録されている音声特徴
データ17を調整する際の画面推移を示す図である。
【図6】実施形態2によるにメッセージ読み上げ装置の
構成を示すブロック図である。
【図7】実施形態2による音声特徴データの内容を説明
する図である。
【図8】実施形態2による音声特徴データの作成例を示
す図である。
【図9】実施形態2による音声特徴データの作成例を示
す図である。
【図10】実施形態2によるメッセージ読み上げ時の音
声データの作成経路を示すする図である。
【図11】実施形態3によるメッセージ送信装置の構成
を示すブロック図である。
【図12】実施形態3による送信メールのデータの作成
経路を示す図である。
【図13】実施形態3による送信メール40の構成例を
示す図である。
【図14】実施形態3による音声情報入りメールに対応
したメール読み上げ装置の構成を示すブロック図であ
る。
【図15】実施形態4によるメッセージ送信装置の構成
を示すブロック図である。
【図16】実施形態4によるメッセージ送信装置におけ
る、音声入力から感情情報を含むメッセージを作成する
までの作成経路を示す図である。
【図17】実施形態4における送信メールの構成例を示
す図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/30 360 G10L 3/00 H G10L 13/00 5/04 F 13/06 3/00 R 15/00 551A 15/10 531N

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 音声による通話を行う通話手段と、 前記通話手段より得られる通話相手の音声から音声特徴
    データを生成する生成手段と、 前記生成手段で生成された音声特徴データを前記通話相
    手に対応させて格納する格納手段と、 テキストデータを含むメッセージを受信する受信手段
    と、 前記受信手段で受信したメッセージの送信者に対応する
    通話相手の音声特徴データを前記格納手段より取得する
    取得手段と、 前記取得手段で取得した音声特徴データを用いて、前記
    メッセージに含まれるテキストデータに対する合成音声
    データを生成する合成手段とを備えることを特徴とする
    情報処理装置。
  2. 【請求項2】 前記通話手段による通話の間に前記生成
    手段により得られた音声特徴データを用いて、前記格納
    手段に既に格納されている、当該通話の通話相手に対応
    する音声特徴データを更新する更新手段を更に備えるこ
    とを特徴とする請求項1に記載の情報処理装置。
  3. 【請求項3】 前記格納手段に格納された音声特徴デー
    タをマニュアルで調整する調整手段を更に備えることを
    特徴とする請求項1に記載の情報処理装置。
  4. 【請求項4】 前記通話手段より得られる通話相手の音
    声を、複数の感情分類項目のいずれかに分類する分類手
    段を更に備え、 前記生成手段は、前記分類手段によって分類された各感
    情分類項目毎に音声特徴データを取得し、 前記格納手段は、前記感情分類項目毎に音声特徴データ
    を格納することを特徴とする請求項1に記載の情報処理
    装置。
  5. 【請求項5】 前記分類手段は、前記音声より検出され
    るピッチ及びアクセント等の音声律情報に基づいて感情
    分類を行うことを特徴とする請求項4に記載の情報処理
    装置。
  6. 【請求項6】 前記メッセージに含まれるテキストデー
    タが前記複数の感情分類項目の何れに属するかを判定す
    る判定手段を更に備え、 前記取得手段は、前記受信手段で受信したメッセージの
    送信者に対応する通話相手の、前記判定手段で判定され
    た感情項目分類に対応する音声特徴データを前記格納手
    段より取得することを特徴とする請求項4に記載の情報
    処理装置。
  7. 【請求項7】 前記生成手段においてある感情分類項目
    に対応する音声特徴データが生成された場合、該音声特
    徴データを用いて他の感情分類項目に対応する音声特徴
    データを更新する更新手段を更に備えることを特徴とす
    る請求項4に記載の情報処理装置。
  8. 【請求項8】 音声を入力する入力手段と、 前記入力手段で入力された音声よりテキスト列を生成す
    る音声認識手段と、 前記入力手段で入力された音声における発声状態の変化
    を検出する検出手段と、 前記検出手段で検出された発声状態の変化に基づいて、
    前記音声認識手段で生成されたテキスト列に付加的デー
    タを付与する付与手段と、 前記付与手段で付加的データが付与されたテキスト列を
    含む送信メッセージを生成する生成手段とを備えること
    を特徴とする情報処理装置。
  9. 【請求項9】 前記付加的データは、前記テキスト列の
    属性であることを特徴とする請求項8に記載の情報処理
    装置。
  10. 【請求項10】 前記検出手段は、前記入力された音声
    の音量及び/又はスピードの変化を検出することを特徴
    とする請求項8に記載の情報処理装置。
  11. 【請求項11】 前記入力された音声より音声特徴デー
    タを取得する取得手段を更に備え、 前記生成手段で生成される送信メッセージは前記音声特
    徴データを含むことを特徴とする請求項8に記載の情報
    処理装置。
  12. 【請求項12】 音声を入力する入力手段と、 前記入力手段で入力された音声よりテキスト列を生成す
    る音声認識手段と、 前記入力された音声を、複数の感情分類項目のいずれか
    に分類する分類手段と、 前記分類手段による分類結果に基づいて、前記音声認識
    手段で生成されたテキスト列に前記分類項目に対応する
    付加的データを付与する付与手段と、 前記付与手段で付加的データが付与されたテキスト列を
    含む送信メッセージを生成する生成手段とを備えること
    を特徴とする情報処理装置。
  13. 【請求項13】 前記分類手段は、前記入力された音声
    の各文節を前記複数の感情分類項目のいずれかに分類す
    ることを特徴とする請求項12に記載の情報処理装置。
  14. 【請求項14】 前記分類手段で分類された各音声に基
    づいて、感情分類項目毎の音声特徴データを取得する取
    得手段を更に備え、 前記生成手段で生成される送信メッセージは前記感情分
    類項目毎の音声特徴データを含むことを特徴とする請求
    項12に記載の情報処理装置。
  15. 【請求項15】 発声状態を表す付加データが付加され
    たテキスト列を含むメッセージを受信する受信手段と、 前記受信手段で受信されたメッセージのテキスト列に基
    づいて音声データを生成する音声合成手段と、 前記受信されたテキスト列より前記付加データを取得
    し、これに基づいて前記音声データの発声状態を変更す
    る変更手段とを備えることを特徴とする情報処理装置。
  16. 【請求項16】 前記発声状態が発声の音量及びスピー
    ドを含むことを特徴とする請求項15に記載の情報処理
    装置。
  17. 【請求項17】 前記メッセージは、音声特徴データを
    含み、 前記音声合成手段は、前記メッセージに含まれる音声特
    徴データを用いてテキスト列に対する音声データを生成
    することを特徴とする請求項15に記載の情報処理装
    置。
  18. 【請求項18】 複数の感情分類項目のうちのどの感情
    分類に属するかを表す付加データが付加されたテキスト
    列と、該複数の感情分類項目のそれぞれに対応する音声
    特徴データを含むメッセージを受信する受信手段と、 前記受信手段で受信されたメッセージの付加データに基
    づいて、テキスト列が属する感情分類項目に対応した音
    声特徴データを、該メッセージより取得する取得手段
    と、 前記取得手段で取得された音声特徴データを用いて、前
    記テキスト列に対する音声データを生成する音声合成手
    段とを備えることを特徴とする情報処理装置。
  19. 【請求項19】 音声による通話を行う通話工程と、 前記通話工程より得られる通話相手の音声から音声特徴
    データを生成する生成工程と、 前記生成工程で生成された音声特徴データを前記通話相
    手に対応させて格納手段に格納する格納工程と、 テキストデータを含むメッセージを受信する受信工程
    と、 前記受信工程で受信したメッセージの送信者に対応する
    通話相手の音声特徴データを前記格納手段より取得する
    取得工程と、 前記取得工程で取得した音声特徴データを用いて、前記
    メッセージに含まれるテキストデータに対する合成音声
    データを生成する合成工程とを備えることを特徴とする
    情報処理方法。
  20. 【請求項20】 前記通話工程による通話の間に前記生
    成工程により得られた音声特徴データを用いて、前記格
    納工程に既に格納されている、当該通話の通話相手に対
    応する音声特徴データを更新する更新工程を更に備える
    ことを特徴とする請求項19に記載の情報処理方法。
  21. 【請求項21】 前記格納工程に格納された音声特徴デ
    ータをマニュアルで調整する調整工程を更に備えること
    を特徴とする請求項19に記載の情報処理方法。
  22. 【請求項22】 前記通話工程より得られる通話相手の
    音声を、複数の感情分類項目のいずれかに分類する分類
    工程を更に備え、 前記生成工程は、前記分類工程によって分類された各感
    情分類項目毎に音声特徴データを取得し、 前記格納工程は、前記感情分類項目毎に音声特徴データ
    を前記格納手段に格納することを特徴とする請求項19
    に記載の情報処理方法。
  23. 【請求項23】 前記分類工程は、前記音声より検出さ
    れるピッチ及びアクセント等の音声律情報に基づいて感
    情分類を行うことを特徴とする請求項22に記載の情報
    処理方法。
  24. 【請求項24】 前記メッセージに含まれるテキストデ
    ータが前記複数の感情分類項目の何れに属するかを判定
    する判定工程を更に備え、 前記取得工程は、前記受信工程で受信したメッセージの
    送信者に対応する通話相手の、前記判定工程で判定され
    た感情項目分類に対応する音声特徴データを前記格納手
    段より取得することを特徴とする請求項22に記載の情
    報処理方法。
  25. 【請求項25】 前記生成工程においてある感情分類項
    目に対応する音声特徴データが生成された場合、該音声
    特徴データを用いて他の感情分類項目に対応する音声特
    徴データを更新する更新工程を更に備えることを特徴と
    する請求項22に記載の情報処理方法。
  26. 【請求項26】 音声を入力する入力工程と、 前記入力工程で入力された音声よりテキスト列を生成す
    る音声認識工程と、 前記入力工程で入力された音声における発声状態の変化
    を検出する検出工程と、 前記検出工程で検出された発声状態の変化に基づいて、
    前記音声認識工程で生成されたテキスト列に付加的デー
    タを付与する付与工程と、 前記付与工程で付加的データが付与されたテキスト列を
    含む送信メッセージを生成する生成工程とを備えること
    を特徴とする情報処理方法。
  27. 【請求項27】 前記付加的データは、前記テキスト列
    の属性であることを特徴とする請求項26に記載の情報
    処理方法。
  28. 【請求項28】 前記検出工程は、前記入力された音声
    の音量及び/又はスピードの変化を検出することを特徴
    とする請求項26に記載の情報処理方法。
  29. 【請求項29】 前記入力された音声より音声特徴デー
    タを取得する取得工程を更に備え、 前記生成工程で生成される送信メッセージは前記音声特
    徴データを含むことを特徴とする請求項26に記載の情
    報処理方法。
  30. 【請求項30】 音声を入力する入力工程と、 前記入力工程で入力された音声よりテキスト列を生成す
    る音声認識工程と、 前記入力された音声を、複数の感情分類項目のいずれか
    に分類する分類工程と、 前記分類工程による分類結果に基づいて、前記音声認識
    工程で生成されたテキスト列に前記分類項目に対応する
    付加的データを付与する付与工程と、 前記付与工程で付加的データが付与されたテキスト列を
    含む送信メッセージを生成する生成工程とを備えること
    を特徴とする情報処理方法。
  31. 【請求項31】 前記分類工程は、前記入力された音声
    の各文節を前記複数の感情分類項目のいずれかに分類す
    ることを特徴とする請求項30に記載の情報処理方法。
  32. 【請求項32】 前記分類工程で分類された各音声に基
    づいて、感情分類項目毎の音声特徴データを取得する取
    得工程を更に備え、 前記生成工程で生成される送信メッセージは前記感情分
    類項目毎の音声特徴データを含むことを特徴とする請求
    項30に記載の情報処理方法。
  33. 【請求項33】 発声状態を表す付加データが付加され
    たテキスト列を含むメッセージを受信する受信工程と、 前記受信工程で受信されたメッセージのテキスト列に基
    づいて音声データを生成する音声合成工程と、 前記受信されたテキスト列より前記付加データを取得
    し、これに基づいて前記音声データの発声状態を変更す
    る変更工程とを備えることを特徴とする情報処理方法。
  34. 【請求項34】 前記発声状態が発声の音量及びスピー
    ドを含むことを特徴とする請求項33に記載の情報処理
    方法。
  35. 【請求項35】 前記メッセージは、音声特徴データを
    含み、 前記音声合成工程は、前記メッセージに含まれる音声特
    徴データを用いてテキスト列に対する音声データを生成
    することを特徴とする請求項33に記載の情報処理方
    法。
  36. 【請求項36】 複数の感情分類項目のうちのどの感情
    分類に属するかを表す付加データが付加されたテキスト
    列と、該複数の感情分類項目のそれぞれに対応する音声
    特徴データを含むメッセージを受信する受信工程と、 前記受信工程で受信されたメッセージの付加データに基
    づいて、テキスト列が属する感情分類項目に対応した音
    声特徴データを、該メッセージより取得する取得工程
    と、 前記取得工程で取得された音声特徴データを用いて、前
    記テキスト列に対する音声データを生成する音声合成工
    程とを備えることを特徴とする情報処理方法。
  37. 【請求項37】 請求項19乃至36のいずれかに記載
    の情報処理方法をコンピュータに実行させるコンピュー
    タプログラム。
  38. 【請求項38】 請求項19乃至36のいずれかに記載
    の情報処理方法をコンピュータに実行させるコンピュー
    タプログラムを格納する記憶媒体。
JP2001401424A 2001-12-28 2001-12-28 情報処理装置及び方法 Expired - Fee Related JP3806030B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001401424A JP3806030B2 (ja) 2001-12-28 2001-12-28 情報処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001401424A JP3806030B2 (ja) 2001-12-28 2001-12-28 情報処理装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006019733A Division JP2006184921A (ja) 2006-01-27 2006-01-27 情報処理装置及び方法

Publications (3)

Publication Number Publication Date
JP2003202885A true JP2003202885A (ja) 2003-07-18
JP2003202885A5 JP2003202885A5 (ja) 2004-11-11
JP3806030B2 JP3806030B2 (ja) 2006-08-09

Family

ID=27640152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001401424A Expired - Fee Related JP3806030B2 (ja) 2001-12-28 2001-12-28 情報処理装置及び方法

Country Status (1)

Country Link
JP (1) JP3806030B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075168A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 音声認識装置及び音声認識方法
JP2005257747A (ja) * 2004-03-09 2005-09-22 Nec Corp 音声合成装置、声質生成装置及びプログラム
JP2005346252A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報伝達システムおよび情報伝達方法
JP2005342862A (ja) * 2004-06-04 2005-12-15 Nec Corp ロボット
JP2006277567A (ja) * 2005-03-30 2006-10-12 Nec Corp 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
WO2006132159A1 (ja) * 2005-06-09 2006-12-14 A.G.I. Inc. ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
JP2007004281A (ja) * 2005-06-21 2007-01-11 Mitsubishi Electric Corp 音声メール入力装置
JP2007264284A (ja) * 2006-03-28 2007-10-11 Brother Ind Ltd 感情付加装置、感情付加方法及び感情付加プログラム
JP2007271655A (ja) * 2006-03-30 2007-10-18 Brother Ind Ltd 感情付加装置、感情付加方法及び感情付加プログラム
JP2008060732A (ja) * 2006-08-29 2008-03-13 Kyocera Corp 携帯端末装置、着信音出力方法
JP2009223307A (ja) * 2008-02-20 2009-10-01 Ntt Docomo Inc 音声合成用音声データベース構築のための通信システム、中継装置および中継方法
JP2010508596A (ja) * 2006-11-01 2010-03-18 ポリディグム カンパニー リミテッド メッセージのアイコン組合せ方法
JP2010169925A (ja) * 2009-01-23 2010-08-05 Konami Digital Entertainment Co Ltd 音声処理装置、チャットシステム、音声処理方法、ならびに、プログラム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
KR101181785B1 (ko) * 2008-04-08 2012-09-11 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법
US9020816B2 (en) 2008-08-14 2015-04-28 21Ct, Inc. Hidden markov model for speech processing with training method
JP2017531197A (ja) * 2014-08-06 2017-10-19 エルジー・ケム・リミテッド 文字データの内容を文字データ送信者の音声で出力する方法
WO2020162190A1 (ja) * 2019-02-05 2020-08-13 日本電信電話株式会社 音響モデル学習装置、音響モデル学習方法、プログラム
JP2021028715A (ja) * 2019-08-09 2021-02-25 ハイパーコネクト インコーポレイテッド 端末機及びその動作方法
JP6993034B1 (ja) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711560B2 (en) 2003-02-19 2010-05-04 Panasonic Corporation Speech recognition device and speech recognition method
JPWO2004075168A1 (ja) * 2003-02-19 2006-06-01 松下電器産業株式会社 音声認識装置及び音声認識方法
WO2004075168A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 音声認識装置及び音声認識方法
JP2005257747A (ja) * 2004-03-09 2005-09-22 Nec Corp 音声合成装置、声質生成装置及びプログラム
JP4530134B2 (ja) * 2004-03-09 2010-08-25 日本電気株式会社 音声合成装置、声質生成装置及びプログラム
JP2005346252A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報伝達システムおよび情報伝達方法
US7739118B2 (en) 2004-06-01 2010-06-15 Nec Corporation Information transmission system and information transmission method
JP2005342862A (ja) * 2004-06-04 2005-12-15 Nec Corp ロボット
JP2006277567A (ja) * 2005-03-30 2006-10-12 Nec Corp 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
JP4670431B2 (ja) * 2005-03-30 2011-04-13 日本電気株式会社 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
WO2006132159A1 (ja) * 2005-06-09 2006-12-14 A.G.I. Inc. ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
US8738370B2 (en) 2005-06-09 2014-05-27 Agi Inc. Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program
JP2007004281A (ja) * 2005-06-21 2007-01-11 Mitsubishi Electric Corp 音声メール入力装置
JP2007264284A (ja) * 2006-03-28 2007-10-11 Brother Ind Ltd 感情付加装置、感情付加方法及び感情付加プログラム
JP2007271655A (ja) * 2006-03-30 2007-10-18 Brother Ind Ltd 感情付加装置、感情付加方法及び感情付加プログラム
JP2008060732A (ja) * 2006-08-29 2008-03-13 Kyocera Corp 携帯端末装置、着信音出力方法
JP4583350B2 (ja) * 2006-08-29 2010-11-17 京セラ株式会社 携帯端末装置、着信音出力方法
JP2010508596A (ja) * 2006-11-01 2010-03-18 ポリディグム カンパニー リミテッド メッセージのアイコン組合せ方法
JP2009223307A (ja) * 2008-02-20 2009-10-01 Ntt Docomo Inc 音声合成用音声データベース構築のための通信システム、中継装置および中継方法
JP2013047851A (ja) * 2008-02-20 2013-03-07 Ntt Docomo Inc 音声合成用音声データベース構築のための通信システム、中継装置および中継方法
KR101181785B1 (ko) * 2008-04-08 2012-09-11 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법
US9020816B2 (en) 2008-08-14 2015-04-28 21Ct, Inc. Hidden markov model for speech processing with training method
JP2010169925A (ja) * 2009-01-23 2010-08-05 Konami Digital Entertainment Co Ltd 音声処理装置、チャットシステム、音声処理方法、ならびに、プログラム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
JP2017531197A (ja) * 2014-08-06 2017-10-19 エルジー・ケム・リミテッド 文字データの内容を文字データ送信者の音声で出力する方法
WO2020162190A1 (ja) * 2019-02-05 2020-08-13 日本電信電話株式会社 音響モデル学習装置、音響モデル学習方法、プログラム
JP2021028715A (ja) * 2019-08-09 2021-02-25 ハイパーコネクト インコーポレイテッド 端末機及びその動作方法
US11615777B2 (en) 2019-08-09 2023-03-28 Hyperconnect Inc. Terminal and operating method thereof
JP6993034B1 (ja) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム
JP2022175923A (ja) * 2021-05-14 2022-11-25 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム

Also Published As

Publication number Publication date
JP3806030B2 (ja) 2006-08-09

Similar Documents

Publication Publication Date Title
JP3806030B2 (ja) 情報処理装置及び方法
US6895257B2 (en) Personalized agent for portable devices and cellular phone
EP2385520A2 (en) Method and device for generating text from spoken word
US11688416B2 (en) Method and system for speech emotion recognition
US20040085259A1 (en) Avatar control using a communication device
US20060069567A1 (en) Methods, systems, and products for translating text to speech
JP2000056792A (ja) ユ―ザの発話を認識するための方法及び装置
JP4930584B2 (ja) 音声合成装置、音声合成システム、言語処理装置、音声合成方法及びコンピュータプログラム
JP6767224B2 (ja) コミュニケーション装置、コミュニケーション方法、およびコミュニケーションプログラム
JP4787634B2 (ja) 音楽フォント出力装置、フォントデータベース及び言語入力フロントエンドプロセッサ
CN112805734A (zh) 用于唤起对发言禁止用语的注意的演讲辅助装置
JP2007271655A (ja) 感情付加装置、感情付加方法及び感情付加プログラム
JP2020027132A (ja) 情報処理装置およびプログラム
JP5031269B2 (ja) 文書表示装置及び文書読み上げ方法
JP2005283972A (ja) 音声認識方法及びこの音声認識方法を利用した情報提示方法と情報提示装置
JP2004015478A (ja) 音声通信端末装置
JP2006184921A (ja) 情報処理装置及び方法
JP2005215888A (ja) テキスト文の表示装置
JP2004023225A (ja) 情報通信装置およびその信号生成方法、ならびに情報通信システムおよびそのデータ通信方法
JP2001109487A (ja) 電子メールの音声再生装置、その音声再生方法、及び音声再生プログラムを記録した記録媒体
JP2003044072A (ja) 音声読み上げ設定装置、音声読み上げ装置、音声読み上げ設定方法、音声読み上げ設定プログラム及び記録媒体
JP2002297502A (ja) 電子メール作成支援方法及び携帯型情報機器並びに電子メール作成支援処理プログラムを記録した記録媒体
JP2002132291A (ja) 自然言語対話処理装置およびその方法並びにその記憶媒体
JP3464435B2 (ja) 音声合成装置
WO2021161841A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140519

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees