JP2000214764A - 手話メ―ル装置 - Google Patents

手話メ―ル装置

Info

Publication number
JP2000214764A
JP2000214764A JP11013973A JP1397399A JP2000214764A JP 2000214764 A JP2000214764 A JP 2000214764A JP 11013973 A JP11013973 A JP 11013973A JP 1397399 A JP1397399 A JP 1397399A JP 2000214764 A JP2000214764 A JP 2000214764A
Authority
JP
Japan
Prior art keywords
information
sign language
word
data
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11013973A
Other languages
English (en)
Other versions
JP3624733B2 (ja
Inventor
Haru Andou
ハル 安藤
Hirohiko Sagawa
浩彦 佐川
Masaru Takeuchi
勝 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP01397399A priority Critical patent/JP3624733B2/ja
Priority to US09/488,076 priority patent/US6549887B1/en
Publication of JP2000214764A publication Critical patent/JP2000214764A/ja
Application granted granted Critical
Publication of JP3624733B2 publication Critical patent/JP3624733B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】手話動作を音声言語に変換したり音声言語で入
力された情報を手話動作に変換し、入力情報に含まれる
言語情報および非言語情報をメールとして送受信する。 【解決手段】音声言語で入力された情報から言語情報お
よび非言語情報を抽出し、同情報を用いて手話動作を生
成する手段と、手話動作として入力された情報から音声
言語情報を生成する手段を構築する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、手話アニメーショ
ンを生成し、同アニメーション情報をメール情報として
送受信する情報処理装置に関する。
【0002】
【従来の技術】近年、ユニバーサルデザインの提唱にも
見られるように、健常者が享受しているサービスを障害
者も同様に受けるために、障害者用の特別なサービス体
系を構築するのではなく、健常者が受けるサービスの中
に障害者をも取り込んだ体系を構築する傾向がある。た
だし、この傾向は最近始まったことであり、現状、サー
ビスとして具体化している装置は少ない。
【0003】聴覚障害者に焦点を当てると、聴覚障害者
の間でも電子メールの利用が浸透しつつあるが、聴覚障
害者どうしの対話においては通常手話が用いられている
ため、健聴者が音声言語でメールを書くような自然さは
得られていないと考えられる。
【0004】
【発明が解決しようとする課題】聴覚障害者にとって自
然な会話手段である手話動作をメールで送信することが
可能になれば、聴覚障害者どうしのメール交換において
も健聴者と同様に、より会話性の高い対話が可能となる
と考えられる。したがって、聴覚障害者が、手話動作を
メールとして送受信可能とする手段を構築することが必
要となる。さらには、メールを送信する側あるいは受信
する側が、必ずしも聴覚障害者とは限らず、送信側が聴
覚障害者であって受信側は聴覚障害者および健聴者であ
ったり、送信者側が健聴者であって受信側は聴覚障害者
である場合もある。
【0005】したがって、聴覚障害者が手話で表現した
情報をテキスト情報等の健聴者が利用している媒体に変
換する手段が必要となる。さらに、健聴者側が入力した
テキスト情報等を聴覚障害者の利用媒体である手話情報
に変換する手段が必要となる。特に入力情報が手話情報
である場合、上記情報中には、言語情報のみが含まれて
いるのではなく、強調情報や感情情報といった情報をも
含まれているため、健聴者から聴覚障害者、また、聴覚
障害者から健聴者に送信する場合には、上記情報をも変
換する手段が必要となる。
【0006】また、テキスト情報を入力して手話情報に
変換する場合には、上記テキスト情報に強調情報や感情
情報を付加する手段がある方が健聴者が音声言語でメー
ルを書くような対話性を持つことが可能となる。
【0007】
【課題を解決するための手段】上記課題を達成するため
の本発明の一態様によれば、少なくともテキスト等の情
報を入力可能とする情報入力手段と、手話単語見出し情
報を用いて手話アニメーションを生成するアニメーショ
ン生成手段と、テキスト等の入力情報や手話単語見出し
情報等を格納する情報格納手段と、上記テキスト情報や
アニメーション情報を表示する情報表示手段と、データ
を電話回線等を用いて送受信するデータ通信手段を有す
る情報処理装置において、手話単語見出しを入力するこ
とにより自動生成されたアニメーションに対してユーザ
が編集を加えた手話アニメーションデータから非言語情
報を抽出し、上記手話単語見出しと非言語情報を上記デ
ータ通信手段を用いて送信すると、送信した上記手話単
語見出しと非言語情報を、手話アニメーション、テキス
ト表示、音声出力といった受信側あるいは送信側で設定
した情報出力手段に対応するデータ表示形式に変換す
る。
【0008】上記データ形式変換に当たり、手話情報、
テキスト情報、音声情報に関する非言語情報の対応デー
タを有する。また、上記手話アニメーション生成手段に
より手話単語見出し列情報から生成した手話アニメーシ
ョンに対してユーザが強調表現や感情表現を付加したデ
ータと付加以前のデータとの差分値を算出し、算出され
た上記差分値により強調表現情報と感情表現情報等の非
言語情報を抽出する。
【0009】また、ユーザが日本語入力を行なった場
合、入力された日本語文を送信すると、受信側において
上記形態素解析手段を用いて上記日本語文を解析し、解
析した結果として得られた分割単語と隣接した分割単語
を結合する隣接単語結合手段と、同分割単語内をさらに
分割する単語内分割手段と、上記情報格納手段に格納さ
れている手話単語見出し対応データ中の日本語単語を分
割する日本語−手話見出し対応データ分割手段と、上記
手段によって作成された結合単語あるいは分割単語を上
記日本語−手話単語見出し対応データと照合し、手話単
語見出しを抽出し、手話単語見出し列を生成する。
【0010】また、テキスト上においても強調情報や感
情情報等を付加することを可能とし、上記テキスト上に
おいて非言語情報表現個所である強調個所や感情付与個
所を明示すると、上記個所をそれぞれ強調個所、感情付
与個所として記憶し、さらに上記個所に対応する手話ア
ニメーションデータに対して上記当する非言語情報を付
加する。
【0011】また、ユーザが音声入力を行なった場合に
は、発声情報をA/D変換し、上記変換情報から音韻情
報、音圧情報、音高情報、時間情報を獲得して、さらに
音声で入力された入力内容から強調情報や感情情報とい
った非言語情報を抽出し、上記非言語情報を手話表現と
してアニメーション表示する。
【0012】また、ユーザが音声出力を指定した場合に
は、上記手話対応非言語情報抽出手段により抽出された
強調表現情報と感情表現情報といった非言語情報を用い
て上記音声合成により手話アニメーション情報を音声情
報に変換してユーザに音声情報として出力する。
【0013】
【発明の実施の形態】以下、本発明をシステムに適用し
た場合の一実施形態について図面を参照しながら説明す
る。本実施例のシステムは、手話動作、テキスト、音声
を取り扱うシステムであり、手話動作データに含まれる
言語情報や非言語情報を日本語文や音声に変換したり、
テキストや音声から言語情報および非言語情報を抽出
し、上記情報を手話動作に変換したりすると共に、メー
ルシステム上で上記情報を送受信するシステムである。
【0014】まず、図1を用いて、本発明の実施形態の
一例を説明する。図1は、本発明の構成を示すブロック
図である。101は起動されたプログラム処理に応じて
処理を行なうCPU、102はデータ等を記憶する主記
憶装置、103は電話回線等のネットワーク情報を管理
制御するネットワーク管理装置、104は情報を視覚的
に提示する情報表示装置、105は表示装置104に対
する表示内容を制御する表示制御装置、106は音響や
音声といった音情報のボリューム等を制御する音響出力
制御装置、107はスピーカに代表される音響あるいは
音声等を出力する音響出力装置、108は音声入力に用
いるマイクロフォンである。実行プログラムおよびアク
セスするデータは、必要に応じて主記憶装置102上に
読み込まれ、CPU101によって本発明に基づくデー
タ処理がなされる。
【0015】ディスク109には、システム全体を制御
するシステムプログラム110、ユーザが作成した手話
メールを送受信する手話メール管理プログラム111、
入力された手話単語情報あるいはアニメーションとして
表示されている手話表現情報を日本語に変換する手話−
日本語変換プログラム112、ユーザが入力したデータ
から手話アニメーションを生成する手話生成プログラム
113、ユーザの要求に応じて出力内容を変更する出力
内容制御プログラム114、音声情報を入出力する音声
入出力プログラム115、入力情報中に含まれる非言語
情報を抽出する非言語情報抽出プログラム116、入力
された音声情報を分析する音声情報分析プログラム11
7、音素片から合成音声を生成する音声合成プログラム
118、手話表現情報やテキスト情報等を表示する画像
表示プログラム119、テキストを入力するテキスト入
力プログラム120、さらにデータベースとして、日本
語単語と手話単語の対応が記述されている日本語−手話
単語見出し対応データ121、非言語情報を手話や音声
で表現する規則が記述されている非言語情報対応データ
122、合成音声を生成するための音素片の集合体であ
る音源データ123、入力された音声を分析するために
必要な音声認識用データ124、入力情報の認識あるい
は分析結果を格納する入力情報分析結果格納テーブル1
25、形態素解析用単語辞書126が含まれている。
【0016】以下に本装置における処理を記述する。説
明にあたっては、図11ないし図18に示す各処理フロ
ーを参照する。
【0017】まず、ユーザがシステムプログラム110
を起動する(S1101)。さらに手話メール管理プロ
グラム111を起動することにより(S1102)、テ
キスト入力プログラム120(S1303)、音声入出
力プログラム115(S1304)が起動する。音声入
出力プログラムは、音声入力プログラムと音声出力プロ
グラムから構成されており、ここでは音声入力プログラ
ムが起動する。さらに、画像表示プログラム119が起
動して、情報入出力画面を表示する(S1105)。上
記情報入出力画面の一例を図2に示す。
【0018】まず、メール作成について説明する。メー
ルの作成方法は、3種類用意されている。ひとつは、手
話アニメーション編集機能を用いてアニメーションを生
成する方法、二つ目は、音声入力を行う方法、三つ目
は、テキスト入力を行う方法である。
【0019】まずはじめに図12により、手話アニメー
ション編集機能を用いてメールを作成する方法について
説明する。例えば、図2中に示したメニューバー200
から「メール作成」を選択し、さらに「手話アニメ入力
・編集」と表示されている手話アニメ入力指定メニュー
201を選択すると、図3に示すような手話アニメ編集
画面が表示される。同画面上に表示されている「手話単
語見出し入力部」301において、ユーザは手話単語見
出しを入力する(S1200)。ここでは一例として
「私 山 登る」という手話単語見出し列を入力する。
【0020】上記手話単語見出し列を入力後、「入力終
了」と表示されている手話単語見出し決定ボタン302
を押すと、上記手話単語見出しは時系列情報として Ling_h〔i〕〔j〕 (i=手話単語見出し出現順番号、j=文字数) の構造体形式で主記憶装置102に記憶される(S12
01)。
【0021】ここで手話生成プログラム113が起動す
る。上記手話生成プログラム113は、図4に示すよう
に、手話単語見出し−手話表現変換プログラム113
1、手話編集プログラム1132、日本語−手話単語見
出し変換プログラム1133から構成されている。ま
ず、上記手話単語見出し−手話表現変換プログラム11
31により、日本語−手話単語見出し対応データ121
から手話単語見出し各々に対応する手話動作データを抽
出する。
【0022】上記日本語−手話単語見出し対応データの
構造は、例えば図5に示すような構造となっている。4
00には手話単語見出しの登録番号が記述されており、
401の「日本語」には日本語単語が登録されている。
また、上記日本語単語に対応した手話単語見出しが40
2に格納されており、各単語に対応する品詞が403に
格納されている。さらに、各手話単語見出しをアニメー
ションとして表示するための手話動作データが404に
格納されており、上記手話動作データには、経過時刻4
041の時刻に対応した位置データが例えば右手404
2中の肘動作データ40421にXYZ軸の3次元で表
現された位置情報として格納されている。また、404
3には、各単語中において動作が静止する静止点をAと
いうフラグで記述し、4044には、動作方向を表すベ
クトルの方向変換点であるベクトル変換点をAというフ
ラグで記述している。
【0023】具体的には、例えば、上記手法で作成した
オリジナル表示データとして、 org_f〔i〕〔s0〕〔axis〕 (i=単語出現番号、s0=単語内フレーム番号、ax
is=軸(x=0,Y=1,Z=2) というオリジナルデータ構造体が作成され、さらに上記
構造体に対するサブ構造体として、 〔part〕:動作軸点の大分類4042、 〔sub_part〕:動作軸点の小分類40421、 〔data_n〕:上記対応データにおける登録番号、 〔perm〕:座標値 で構成される構造体が作成され、上記オリジナル表示デ
ータが格納される。
【0024】上記格納が行われると、手話単語見出しと
同列に格納されている上記動作データを用いて、例え
ば、手話編集システム「Mimehand」((株)日
立製作所)における機能により、画面に表示されている
CGキャラクタの手指動作や表情等を表示制御装置10
5および情報表示装置106を通してアニメーション表
示する(S1202)。
【0025】ここでユーザは、上記アニメーション表示
情報に対して強調表現や感情表現を付与することが可能
である(S1203)。例えば、図6に示すような表示
画面において、まず、図6の右下部に表示されているメ
ニュー中の「表現情報表示部」から手話動作の変更を行
うフレームを選択する。次にメニューから「編集ツー
ル」を選択し、例えば右手を編集対象としたい場合に
は、「右手」を選択する。さらに「肘」を選択した後、
「上下」「左右」「前後」のメニュー脇にあるスクロー
ルボタンを動かすと、選択したフレームにおける「肘」
の位置がスクロール量に応じて変動する。
【0026】各フレーム毎に上記操作を行ない、フレー
ム毎に変動後の位置情報を Change_f〔i_1〕〔s1〕〔axis〕 という変更データ格納構造体について、さらに 〔part〕:part=動作個所の大分類、 〔sub_part〕:動作個所の小分類、 〔perm〕:座標値、 〔data_n1〕:上記対応データにおける登録番号 を構成要素とする構造体が作成され、変動後データ格納
用構造体として編集されたデータを記憶する。
【0027】また、動作時間長を長くしたい場合には、
例えば図7に示すように、編集個所の始端と終端を、例
えばカーソル502を操作するマウスで確定し、上記始
端、終端をドラッグすることで全体の時間長の伸縮操作
を行う。上記操作において時間長を伸ばした場合には、
手話編集プログラム1132により、例えば、伸長した
時間長に適合するように均等にフレームを挿入して線形
補完し、縮めた場合には、上記当個所からフレームを均
等に間引いて線形補完するといった操作を行う。この場
合、Change_fのs1:フレーム番号は、挿入あ
るいは削除されて登録される。
【0028】ここで、非言語情報抽出プログラム116
が起動し、非言語情報対応データ122、および上記日
本語−手話単語見出し対応データを用いて入力情報から
の非言語情報抽出を行う(S1204)。
【0029】ここでは例として、強調表現の抽出を行
う。手話における強調表現の特徴として語順の変化があ
る。ここでは、上記語順の変化および手話動作の軌跡と
時間長の変化を強調表現の特徴量として扱う。
【0030】まず、手話単語見出しの語順を比較する。
上記非言語情報対応データ122の構造は、例えば図8
に示すような構造となっており、シンボル番号により、
手話データ部、音声データ部、テキストデータ部に格納
されている非言語データを相互に参照する構造となって
いる。
【0031】上記手話データ部の構造は、例えば、図9
に示すような構造となっている。強調情報および複数の
感情情報といった非言語情報の種類を示すシンボル番号
901、シンボルを抽出するにあたり比較関数とする比
較対象902、上記比較対象の具体的な比較用特徴量モ
デル903、非言語情報基本モデル904により構成さ
れている。また、音声データ部の構造は、図10に示す
ような構造になっている。
【0032】以下では、強調表現を例として説明する。
強調表現としては、ひとつに、強調表現を伴う場合の語
順が文法情報として格納されており、上記文法情報と入
力された単語の語順とを比較する。Ling_h〔i〕
に格納されている手話単語見出しデータと同列に記述さ
れている品詞記述内容から語順を判断する。例えば、L
ing_h〔i〕に「私」「登る」「山」という語順で
入力されていた場合には、上記品詞情報から「S」
「V」「O」構文を抽出する。次に、上記非言語情報対
応データ122に格納されている強調構文パタン「S,
V,O」と照合し、照合が取れた場合には、ling_
h〔i〕を強調個所格納メモリconv_v1として主
記憶装置102に格納する。この場合は、「O」の
「山」を格納する。
【0033】二つ目として、動作の大きさや表現時間長
に関して平叙動作と強調や感情が含まれる動作との差分
値により強調表現を検出する。各手話単語動作データに
ついて、平叙動作値である org_f〔i〕〔s0〕〔axis〕 と入力された手話アニメーション情報中の値である Change_f〔i_1〕〔s〕〔axis〕 との差分値を上記非言語情報対応データ122中の比較
用特徴量モデル603に代入し、モデルに合致した単語
が検出された場合には、上記単語を強調表現として上記
文法情報の場合と同様にNon−V1として主記憶装置
102に格納する。上記比較用特徴量モデルの概要を以
下に示す。
【0034】1)時間長モデル 1−1) word_def〔i〕=(s−s0)(s−s0)/
s0 (i=出現順単語番号):各単語における時間長変動率
の算出 1−2) 文中の単語において、最も時間長変動率が大きい単語d
ef_legを検出 def_lg=0; for(j=0;j<i;j++){ if(word_def〔j+1〕−word_def〔j〕>0){ def_lg=j+1; } 2)座標値変動量モデル 2−1) 静止点の検出およびフレーム間のベクトル値の検出 各フレーム間のユークリッド距離を座標値から求める。
【0035】length〔time〕〔def〕 は、各フレーム間の距離を示す。
【0036】次に、 length〔time〕〔def〕 がある値よりも小さい場合には、上記フレーム間では移
動がなかったと判断し、静止フレーム間長とする。さら
に、上記静止フレーム間長が連続して、例えば3フレー
ム以上検出された場合には、上記フレーム間長群を静止
点とし、 length〔time〕〔point_sc〕 に、静止点のフラグとして「1」を代入する。静止点で
ない場合には、「0」が代入されている。また、各フレ
ーム間の方向ベクトル値が上記フレーム間の前後のベク
トル値と比較して有意差があった場合には、有意差が認
められた2方向の方向ベクトルの接点を方向変更座標値
としてVector〔number_v〕〔posit
ion_v〕(number_v=変更点番号、pos
ition_v=1(変更点フレーム番号))に登録す
る。
【0037】2−2) 静止点滞留時間および静止点間、ベクトル変更点間の加
速度値の算出 静止点フラグがある値以上連続して存在した場合には、
上記静止点群を静止点滞留フレーム群として、静止点群
フレーム位置を示す構造体 st_dur〔number〕〔position〕
(number=静止点群番号、position=0
(開始点フレーム)、1(終了点フレーム)2(静止滞
留時間))に登録する。また、静止点群の終端から始端
に至るまでのフレーム群における加速度値および方向変
更点間の加速度値を求め、それぞれ、st_dur〔n
umber〕〔4〕に格納する。また、ベクトル変更点
については、Vector〔number_v〕〔2〕
に変更点間の加速度値を代入する。
【0038】2−3) 標準値と実動作値の比較 非言語情報対応データ121に登録されている静止点群
4043の静止滞留時間値、および静止点間とベクトル
変更点4044間の加速度値と上記値に表現位置として
対応する2−2で算出された静止滞留時間と加速度値を
比較し、上記滞留時間比がある値conf_i以上であ
った場合、また、加速度値の比がある値conf_j以
上であり、さらに単語間の比較において、conf_I
の値に関して、そしてconf_jの値に関して有意差
があった場合には、有意差があった上記単語を強調表現
を伴う単語としてシンボル番号と共に、Non−V1に
格納する。
【0039】ここで、図7に示すように、相手先のアド
レスを指定し(S1205)、手話単語見出し列MH
〔k〕(k=0〜n)とNon−V1を手話メール管理
プログラム111により送信する(S1206)。
【0040】次に図13により、ユーザが音声入力を行
う場合について説明する。ユーザは、マイクロフォン1
08を用いて音声入力を行う(S1301)。ここで音
声情報分析プログラム117が起動する(S130
2)。入力結果は音声入力プログラム115により、A
/D変換され(S1303)、さらに主記憶装置102
上の音声波形メモリTNに音声波形として記憶される。
【0041】記憶された音声波形は、上記音声情報分析
プログラムにより、ピッチ抽出および時間長抽出が行わ
れ、さらに音声認識処理が行われる。音声認識処理は、
例えば、音素モデルが格納されている音声認識用データ
124を用いて古井貞煕著「ディジタル音声処理」(東
海大学出版会、1985)に記載の音声認識手法を用い
て音声認識を行ない、文字列に変換する(S130
4)。
【0042】上記文字列を上記認識結果格納テーブル1
25の音声認識結果セル中に格納する。さらに、ピッチ
情報(基本周波数)を例えば20msec毎に抽出し、
認識結果格納テーブル中に、P〔m〕〔n〕〔q〕(P
〔0〕
〔0〕
〔0〕、P
〔0〕
〔0〕〔1〕、−P
〔m〕〔n〕〔q〕:mは文字列番号、nはフレーム
数、qは20msec毎のピッチ格納序数)の形式で格
納する。
【0043】さらに、音声認識結果である文字列の発声
始端時刻、終端時刻、発声時間長、そして各音韻長を配
列Pより算出し、 Length〔m〕〔data〕(Length
〔0〕、−Length〔m〕:mは文字列番号、da
ta=0(発声時間長)、1(発声始端時刻)、2(発
声終端時刻)、3(音韻発声時間長)) の形式で格納する(S1305)。また、上記3(音韻
発声時間長)については、さらに音韻数に相当する配列
を確保し、格納する。
【0044】上記ピッチ情報Pと上記発声時間長Len
gthと、非言語情報基本データ122中に含まれてい
る音声非言語情報モデルを用いて上記音声情報に非言語
情報が含まれているかどうかを判断する(S130
6)。上記音声非言語情報モデルには、例えば、隣接単
語間の無音区間平均時間長および単語始端部におけるピ
ッチの立ち上がり傾斜度が表現されている。
【0045】上記発声時間長やピッチの立ち上がり傾斜
度と対応する実測値の比率がある一定値以上であれば、
上記無音区間直後の単語をシンボル単語と共に強調表現
単語としてconv_V1に登録する。また、各単語の
音韻発声時間長に関して、(実測値)-(非言語情報デ
ータに対応する値)という差分値が単語の始めの音韻か
ら最後の音韻にかけて大きくなる傾向を持つ単語があれ
ば、上記単語の直後の単語を強調表現単語として、co
nv_V1に登録する。
【0046】上記情報モデルによって非言語情報が含ま
れていると判断された場合には、非言語情報のフラグを
主記憶装置102に非言語情報フラグをconv_v1
として格納する。ここで、送信先を指定し(S130
7)、文字列情報と非言語情報フラグを送信する(S1
308)。
【0047】次に図14によりテキスト入力について説
明する。テキスト入力においては、テキスト入力メニュ
ーを開き、図19に示すように、ユーザがテキストをテ
キスト入力個所に入力する(S1401)。ユーザが強
調表現や感情表現等を付加したい場合には、例えば強調
表現個所にアンダーラインをひいたり(S1402)、
感情表現文に対してフェイスマークを書くといった作業
を行い(S1403)、強調表現については、アンダー
ライン付加部の単語を非言語情報フラグの強調表現とし
てconv_V1に登録し、送信先を指定した後(S1
404)、文字列情報と非言語情報フラグを送信する
(S1405)。
【0048】次に、図15により受信側における情報出
力方法について述べる。出力に当たっては、例えばユー
ザがメール受信ボタンを押し、ホストからメールをダウ
ンロードする(S1500)。ユーザが表示画面上にあ
る受信メールヘッドラインから読みたいメールを選択し
(S1501)、さらに表示方法を選択する(S150
2)。
【0049】まず、出力希望情報として手話アニメーシ
ョン情報が選択された場合について図16により説明す
る(S1601)。まず、送信情報を識別し、送信され
た情報が、手話単語見出し列と非言語情報の組み合わせ
であるのか日本語テキスト文と非言語情報の組み合わせ
であるのかを判断する(S1602)。選択したメール
情報として手話単語見出し列情報と非言語情報が送信さ
れている場合には、非言語情報対応データ中の非言語情
報基本モデル904に日本語−手話単語見出し対応デー
タ中に格納されている各単語に対する手話動作データを
代入することにより、非言語情報を付加した手話アニメ
ーション動作を生成し(S1603)、三次元コンピュ
ータグラフィックス(3D−CG)での手話アニメーシ
ョンを生成して表示画面に出力する(S1604)。
【0050】また、送信情報が、音声認識結果であるテ
キスト情報と非言語情報の組み合わせや、テキスト情報
と非言語情報との組み合わせである場合には、日本語−
手話単語見出し変換プログラム1133が起動する(S
1605)。上記日本語−手話単語見出し変換プログラ
ムは、形態素解析プログラム11331と日本語単語−
手話単語見出し変換プログラム11332により構成さ
れている。
【0051】まず、送信されたテキスト情報を上記形態
素解析プログラムと形態素解析用単語辞書126によ
り、例えば、形態素解析システム「ANIMA」(櫻井
博文、久光徹,形態素解析プログラムANIMAの設計
と評価,情報処理学会第54回全国大会論文集(199
7年3月))に示されているような形態素解析手法を用
いて、上記文を単語に分割し、単語の品詞や活用形等の
情報を単語情報構造体 Word_info〔i〕〔j〕 (i=単語出現順番号、j=情報の種類(1=単語表
記、2=終止形表記、3=品詞、4=時制、5=読み
…)) として格納する(S1606)。
【0052】さらに、上記日本語単語―手話単語見出し
変換プログラムによって日本語−手話単語見出し対応デ
ータ121中の日本語単語データと上記Word_in
fo〔i〕〔2〕の終止形表記情報との照合を行い、さ
らに上記データ121中の品詞情報とWord_inf
o〔i〕〔3〕の品詞情報との照合を行ない、単語表記
および品詞の両者の照合に成功した場合には、Word
_info〔i〕〔j+1〕に手話単語見出しを格納す
る(S1607、S1608)。
【0053】また、上記照合に失敗した場合には、Wo
rd_info〔i〕〔2〕を分割し、分割された複数
単語と日本語−手話単語見出し対応データ121中の日
本語単語データとの照合を行なって、上記日本語単語デ
ータによりWord_info〔i〕〔2〕が構成可能
であった場合には、Word_info〔i〕〔j+
1〕に、照合に成功した上記日本語単語の複数データを
格納する(S1609)。
【0054】さらに、送信された非言語情報について
は、例えば、強調個所の語順変更を行なう。強調個所が
同モデルに当てはまる場合には、非言語情報対応モデル
中に記述されている構文モデルに従いWord_inf
o〔i〕〔j+1〕の〔i〕の出現順序を変更する。
【0055】また、動作表現情報が送信されている場合
には、強調個所を、非言語情報対応データ中のアニメー
ション強調モデルを用い、強調個所として指定されてい
る単語と同列に記述されている日本語−手話単語見出し
対応データ121中の手話動作データを変更し、強調表
現を付加する。感情表現についても同様に、非言語情報
に対応した感情表現モデルを用いて上記手話動作データ
を変更する。最終的に、変更された上記手話動作対応デ
ータにより手話アニメーションを生成し、図3に示すよ
うな手話動作出力画面に3次元(3D)表示する(S1
610)。
【0056】次に図17により、ユーザがテキスト情報
での出力を選択した場合について説明する。送信された
データを識別し(S1701)、上記送信データが、手
話単語見出し列と非言語情報であった場合、手話−日本
語変換プログラム112が起動し(S1702)、メー
ルとして送信された手話単語見出し列の情報と日本語−
手話単語見出し対応データ121との照合を行ない(S
1703)、各手話単語見出しに対応した日本語単語を
検索する。
【0057】検索結果として得られた日本語単語列を、
上記単語列の品詞情報を用いてS−O−V等の構文モデ
ルに当てはめ(S1704)、上記単語列が矛盾なく当
てはまる構文モデルが検出された場合には、構文モデル
に付随する格助詞を上記単語に結合させて、Word_
box〔m〕(m=単語出現順番号)に格納する(S1
705)。
【0058】さらに、非言語情報として送信された強調
個所等の情報を非言語情報基本モデルを用いてテキスト
中に付加する(S1706)。例えば、強調個所である
単語にアンダーラインを付加したり、感情情報が付加さ
れている個所にフェイスマークを付加するといった操作
を行う。音声認識結果と非言語情報の組み合わせが送信
された場合には、認識結果をテキスト情報とし、さらに
非言語情報については、強調個所である単語にアンダー
ラインを付加したり、感情情報が付加されている個所に
フェイスマークを付加するといった操作を行う。テキス
ト情報と非言語情報との組み合わせの場合も同様であ
る。
【0059】次に図18により、音声出力が指定された
場合について説明する。まず送信データを識別し(S1
801)、送信情報が手話単語見出し列と非言語情報と
の組み合わせの場合には、まず最初に、上記の手話アニ
メーション表示指定の場合と同様に、手話単語見出し列
を手話−日本語変換プログラム112により単語に分割
されたテキスト情報に変換する(S1802)。
【0060】次に、音声合成プログラム118を起動
し、例えば、「特願平9−205773:話者適応機能
を持つ音声合成方式」に記載の手法により上記テキスト
情報を発話記号列に変換する(S1803)。さらに、
上記発話記号列に対応した音源データ列を抽出し、抽出
された音源データ列の各音源の持続時間や単語間の無音
時間長、そして強調直前の単語の音韻時間長を単語の始
端から終端にかけて増幅させるといった操作を行なうこ
とにより、非言語情報を付加する。上記非言語情報対応
データの音声データ部に記述されている非言語情報基本
モデルを用い、強調情報等を付加する(S1804)。
上記付加処理を行なった音源データ列を用いて音声入出
力プログラム115中の音声出力プログラム1152に
よって音響出力制御装置106および音響出力装置10
7を通して合成音声を出力する(S1805)。
【0061】
【発明の効果】本発明によれば、自動生成された手話ア
ニメーションにユーザが編集を加えたデータから非言語
情報を抽出し、上記手話単語見出しと非言語情報を上記
データ通信手段を用いて送信すると、送信した上記手話
単語見出しと非言語情報を、手話アニメーション、テキ
スト表示、音声出力といった受信側あるいは送信側で設
定した情報出力手段に対応するデータ表示形式に変換す
ることにより、ユーザが嗜好するデータ形式でメール情
報を獲得することができるようになる。
【0062】また、上記データ形式変換に当たり、手話
情報、テキスト情報、音声情報に関する非言語情報の対
応データを有することにより、複数のメディアにおける
非言語情報の対応関係を簡便に取得することができるよ
うになる。
【0063】また、ユーザが強調表現や感情表現を付加
したアニメーションデータと付加以前のアニメーション
データとの差分値を算出し、算出された上記差分値によ
り強調表現情報と感情表現情報を抽出する機能を持つこ
とにより、ユーザが強調表現個所をシンボルとして入力
することなく自動的に強調個所、感情表現個所を推定す
ることが可能になる。
【0064】また、ユーザが日本語入力を行なった場
合、入力された日本語文を送信すると、受信側において
上記形態素解析手段を用いて上記日本語文を解析し、解
析した結果として得られた分割単語と隣接した分割単語
を結合する隣接単語結合手段と、同分割単語内をさらに
分割する単語内分割手段と、上記情報格納手段に格納さ
れている手話単語見出し対応データ中の日本語単語を分
割する日本語−手話見出し対応データ分割手段と、上記
手段によって作成された結合単語あるいは分割単語を上
記日本語−手話単語見出し対応データと照合し、手話単
語見出しを抽出し、手話単語見出し列を生成することに
より、日本語単語と手話単語見出しにおける表現単位の
差を吸収することが可能になる。
【0065】また、テキスト上においても強調情報や感
情情報等を付加することを可能とし、上記テキスト上に
おいて非言語情報である強調個所や感情表現個所を明示
すると、上記個所を非言語情報フラグと共にそれぞれ強
調個所、感情表現個所として記憶する。
【0066】また、ユーザが音声入力を行なった場合に
は、発声情報をA/D変換し、上記変換情報から音韻情
報、音圧情報、音高情報、時間情報を獲得して、さらに
音声で入力された入力内容から強調情報や感情情報とい
った非言語情報を抽出し、上記非言語情報を手話表現と
してアニメーション表示することにより、テキスト情報
における強調情報、感情情報をもアニメーションとして
表示することが可能になる。
【0067】また、ユーザが音声出力を指定した場合に
は、上記手話対応非言語情報抽出手段により抽出された
強調表現情報と感情表現情報といった非言語情報、およ
び上記手話単語見出しを用いて上記音声合成により手話
アニメーション情報を音声情報に変換してユーザに音声
情報として出力することにより、手話情報として入力さ
れた強調情報や感情情報を音声情報として獲得すること
が可能となり、日常的に利用している言語での非言語情
報のやりとりが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施例の手話メール装置の構成を示
すブロック図。
【図2】本発明の一実施例での表示画面の一例を示す説
明図。
【図3】手話アニメ編集入力を行うための表示画面の一
例を示す説明図。
【図4】手話生成プログラム113の構成を示す一例を
示すブロック図。
【図5】日本語−手話単語見出し対応データの構造の一
例を示す説明図。
【図6】手話メール編集操作画面の一例を示す説明図。
【図7】手話メール編集操作画面の一例を示す説明図。
【図8】非言語情報対応データ122の構造の一例を示
す説明図。
【図9】非言語情報対応データ122の手話データ部の
構造の一例を示す説明図。
【図10】非言語情報対応データ122の音声データ部
の構造の一例を示す説明図。
【図11】本発明の一実施例の処理フロー図。
【図12】本発明の一実施例の処理フロー図。
【図13】本発明の一実施例の処理フロー図。
【図14】本発明の一実施例の処理フロー図。
【図15】本発明の一実施例の処理フロー図。
【図16】本発明の一実施例の処理フロー図。
【図17】本発明の一実施例の処理フロー図。
【図18】本発明の一実施例の処理フロー図。
【図19】テキスト入力操作画面の一例を示す説明図。
【符号の説明】
101…CPU、102…主記憶装置、103…ネット
ワーク管理装置、104…情報表示装置、105…表示
制御装置、106…音響出力制御装置、107…音響出
力装置、108…マイクロフォン、109…ディスク、
110…システムプログラム、111…手話メール管理
プログラム、112…手話−日本語変換プログラム、1
13…手話生成プログラム、114…出力内容制御プロ
グラム、115…音声入出力プログラム、116…非言
語情報抽出プログラム、117…音声情報分析プログラ
ム、118…音声合成プログラム、119…画像表示プ
ログラム、120…テキスト入力プログラム、121…
日本語−手話単語見出し対応データ、122…非言語情
報対応データ、123…音源データ、124…音声認識
用データ、125…認識結果格納テーブル、126…形
態素解析用単語辞書。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹内 勝 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所中央研究所内 Fターム(参考) 2C028 AA06 BB04 BD01 BD02

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】少なくともテキスト等の情報を入力可能と
    する情報入力手段と、手話単語見出し情報を用いて手話
    アニメーションを生成するアニメーション生成手段と、
    テキスト等の入力情報や手話単語見出し情報等を格納す
    る情報格納手段と、上記テキスト情報やアニメーション
    情報等を表示する情報表示手段と、データを電話回線等
    を用いて送受信するデータ通信手段を有する情報処理装
    置において、手話単語見出しを入力することにより自動
    生成されたアニメーションにユーザが編集を加えたデー
    タから非言語情報を抽出する手話非言語情報抽出手段
    と、上記手話単語見出しと非言語情報を上記データ通信
    手段を用いて送信すると、送信した上記手話単語見出し
    と非言語情報を用いて、手話アニメーション、テキスト
    表示、音声出力といった受信側あるいは送信側で設定し
    た情報出力手段に対応するデータ表示形式に変換する手
    話データ変換手段を有することを特徴とする手話メール
    装置。
  2. 【請求項2】請求項1に記載の手話メール装置におい
    て、手話情報、テキスト情報、音声情報各々の媒体によ
    って表現される非言語情報の対応データを有することを
    特徴とする手話メール装置。
  3. 【請求項3】請求項2に記載の手話メール装置におい
    て、上記手話アニメーション生成手段により手話単語見
    出し列情報から生成した手話アニメーションに対してユ
    ーザが強調表現や感情表現を付加したデータと付加以前
    のデータとの差分値を算出し、算出された上記差分値に
    より強調表現や感情表現等の非言語情報を抽出する手話
    対応非言語情報抽出手段を有することを特徴とする手話
    メール装置。
  4. 【請求項4】請求項3に記載の手話メール装置におい
    て、ユーザが編集したアニメーションデータから静止
    点、静止点間の加速度値、静止点滞留時間、単語長、お
    よび文時間長に対する単語長の比率、構文といった特徴
    量を検出する編集データ特徴量抽出手段と、上記手段に
    よって検出された特徴量と既に基本データとして登録さ
    れている上記特徴量との差分値を算出する差分値算出手
    段を有することを特徴とする手話メール装置。
  5. 【請求項5】請求項1に記載の手段およびテキスト等の
    文字列情報を品詞や活用形等の情報を含む単語情報に分
    割する形態素解析手段を持つ手話メール装置において、
    上記情報入力手段を用いて入力された日本語文テキスト
    を上記形態素解析手段を用いて解析し、解析した結果と
    して得られた分割単語と隣接した分割単語を結合する隣
    接単語結合手段と、同分割単語内をさらに分割する単語
    内分割手段と、上記情報格納手段に格納されている手話
    単語見出し対応データ中の日本語単語を分割する日本語
    −手話見出し対応データ分割手段と、上記手段によって
    作成された結合単語あるいは分割単語を上記日本語−手
    話単語見出し対応データと照合し、手話単語見出しを抽
    出する日本語−手話対応データ照合手段を有することを
    特徴とする手話メール装置。
  6. 【請求項6】請求項1に記載の手段および画面上の位置
    情報を指示する位置情報入力手段を有する情報処理装置
    において、上記テキスト上において非言語情報を示す強
    調個所や感情付与個所を明示し、上記個所をそれぞれ強
    調個所、感情付与個所として記憶する強調・表情付加手
    段と、上記個所に対して手話アニメーションにおいて非
    言語情報を付加するテキスト非言語情報変換手段を有す
    ることを特徴とする手話メール装置。
  7. 【請求項7】請求項1に記載の手段および、少なくと
    も、発声情報を入力する音声入力手段と上記発声情報を
    A/D変換するディジタル情報変換手段とA/D変換さ
    れた情報から入力された発声情報の音韻情報、音圧情
    報、音高情報、時間情報を獲得可能とする音声認識手段
    を持つ情報処理装置において、上記音声認識手段によっ
    て獲得された単語列および単語間ポーズ長、および音韻
    時間長から非言語情報を抽出し、上記非言語情報を手話
    表現としてアニメーション表示する音声−手話非言語情
    報変換手段を有することを特徴とする手話メール装置。
  8. 【請求項8】請求項1に記載の手段および文字列情報か
    ら音声を合成する音声合成手段を有する手話メール装置
    において、上記手話対応非言語情報抽出手段により抽出
    された強調表現情報と感情表現情報といった非言語情報
    を用いて、単語の時間長や単語間のポーズ長、および単
    語内に含まれる音韻の音韻時間長を制御することによっ
    て上記音声合成により手話アニメーション情報を音声情
    報に変換する手話アニメーション−音声変換手段を有す
    ることを特徴とする手話メール装置。
JP01397399A 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置 Expired - Fee Related JP3624733B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01397399A JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置
US09/488,076 US6549887B1 (en) 1999-01-22 2000-01-20 Apparatus capable of processing sign language information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01397399A JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置

Publications (2)

Publication Number Publication Date
JP2000214764A true JP2000214764A (ja) 2000-08-04
JP3624733B2 JP3624733B2 (ja) 2005-03-02

Family

ID=11848175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01397399A Expired - Fee Related JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置

Country Status (2)

Country Link
US (1) US6549887B1 (ja)
JP (1) JP3624733B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110649A (ja) * 2002-09-20 2004-04-08 Hitachi Information Systems Ltd 手話アニメーションによる情報提供システム
JP2006184921A (ja) * 2006-01-27 2006-07-13 Canon Electronics Inc 情報処理装置及び方法
US7308479B2 (en) 2002-08-26 2007-12-11 Hitachi, Ltd. Mail server, program and mobile terminal synthesizing animation images of selected animation character and feeling expression information

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040012643A1 (en) * 2002-07-18 2004-01-22 August Katherine G. Systems and methods for visually communicating the meaning of information to the hearing impaired
US7277858B1 (en) * 2002-12-20 2007-10-02 Sprint Spectrum L.P. Client/server rendering of network transcoded sign language content
TWI235962B (en) * 2003-06-06 2005-07-11 Ind Tech Res Inst Method for converting high level motion scripts to computer animations
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
FR2884023B1 (fr) * 2005-03-31 2011-04-22 Erocca Dispositif pour la communication par des personnes handicapees de la parole et/ou de l'ouie
BRPI0502931A (pt) * 2005-06-24 2007-03-06 Inst Ct De Pesquisa E Desenvol rybena : método e sistema de comunicação que utiliza texto, voz e libras para permitir acessibilidade aos portadores de necessidades especiais
US8566077B2 (en) * 2007-02-13 2013-10-22 Barbara Ander Sign language translator
US20080195373A1 (en) * 2007-02-13 2008-08-14 Barbara Ander Digital Sign Language Translator
US8566075B1 (en) * 2007-05-31 2013-10-22 PPR Direct Apparatuses, methods and systems for a text-to-sign language translation platform
US9282377B2 (en) 2007-05-31 2016-03-08 iCommunicator LLC Apparatuses, methods and systems to provide translations of information into sign language or other formats
CN102104670B (zh) * 2009-12-17 2014-03-05 深圳富泰宏精密工业有限公司 手语识别系统及方法
US20110208523A1 (en) * 2010-02-22 2011-08-25 Kuo Chien-Hua Voice-to-dactylology conversion method and system
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US8793118B2 (en) 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
WO2013091075A1 (en) * 2011-12-20 2013-06-27 Soschen Alona Natural language processor
US9319270B2 (en) 2012-04-12 2016-04-19 FrontRange Solutions, Inc. Configuration of third party applications in a sandboxed environment
US20210005218A1 (en) * 2018-02-16 2021-01-07 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, method, and program
WO2019160100A1 (ja) * 2018-02-16 2019-08-22 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
US10739864B2 (en) 2018-12-31 2020-08-11 International Business Machines Corporation Air writing to speech system using gesture and wrist angle orientation for synthesized speech modulation
JP2022143650A (ja) * 2021-03-18 2022-10-03 株式会社リコー 情報処理装置、非言語情報変換システム、情報処理方法およびプログラム
CN114842712B (zh) * 2022-04-12 2023-10-17 汕头大学 一种基于手势识别的手语教学系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69328147T2 (de) * 1992-08-24 2000-12-14 Hitachi Ltd Gebärdenspracherkennungsgerät und Verfahren und Gebärdensprachübersetzungssystem, das dieses verwendet
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
JP3914612B2 (ja) 1997-07-31 2007-05-16 株式会社日立製作所 通信システム
US6377925B1 (en) * 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7308479B2 (en) 2002-08-26 2007-12-11 Hitachi, Ltd. Mail server, program and mobile terminal synthesizing animation images of selected animation character and feeling expression information
JP2004110649A (ja) * 2002-09-20 2004-04-08 Hitachi Information Systems Ltd 手話アニメーションによる情報提供システム
JP2006184921A (ja) * 2006-01-27 2006-07-13 Canon Electronics Inc 情報処理装置及び方法

Also Published As

Publication number Publication date
US6549887B1 (en) 2003-04-15
JP3624733B2 (ja) 2005-03-02

Similar Documents

Publication Publication Date Title
JP3624733B2 (ja) 手話メール装置及び手話情報処理装置
JP4478939B2 (ja) 音声処理装置およびそのためのコンピュータプログラム
JP5121252B2 (ja) 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
JP4398966B2 (ja) 機械翻訳を行う装置、システム、方法およびプログラム
CN113454708A (zh) 语言学风格匹配代理
JP3125746B2 (ja) 人物像対話装置及び人物像対話プログラムを記録した記録媒体
JP2007272773A (ja) 対話型インターフェイス制御システム
JPH05216618A (ja) 音声対話システム
JP2002244688A (ja) 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
CN108364632A (zh) 一种具备情感的中文文本人声合成方法
JPWO2005093713A1 (ja) 音声合成装置
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
JPH11109991A (ja) マンマシンインターフェースシステム
JP2001142484A (ja) 音声対話方法及びそのシステム
JP3270356B2 (ja) 発話文書作成装置,発話文書作成方法および発話文書作成手順をコンピュータに実行させるプログラムを格納したコンピュータ読み取り可能な記録媒体
JP2003271194A (ja) 音声対話装置及びその制御方法
JP2003157095A (ja) 音声認識装置及びその方法、プログラム
JP2005215888A (ja) テキスト文の表示装置
JP2007286376A (ja) 音声案内システム
JP3222283B2 (ja) 案内装置
JP2001318915A (ja) フォント変換装置
JPH07334075A (ja) プレゼンテーション支援装置
JP2003099089A (ja) 音声認識・合成装置および方法
Grůber et al. Czech expressive speech synthesis in limited domain: Comparison of unit selection and HMM-based approaches
JP2005181840A (ja) 音声合成装置及び音声合成プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees