JP3624733B2 - 手話メール装置及び手話情報処理装置 - Google Patents

手話メール装置及び手話情報処理装置 Download PDF

Info

Publication number
JP3624733B2
JP3624733B2 JP01397399A JP1397399A JP3624733B2 JP 3624733 B2 JP3624733 B2 JP 3624733B2 JP 01397399 A JP01397399 A JP 01397399A JP 1397399 A JP1397399 A JP 1397399A JP 3624733 B2 JP3624733 B2 JP 3624733B2
Authority
JP
Japan
Prior art keywords
information
sign language
word
animation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01397399A
Other languages
English (en)
Other versions
JP2000214764A (ja
Inventor
ハル 安藤
浩彦 佐川
勝 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP01397399A priority Critical patent/JP3624733B2/ja
Priority to US09/488,076 priority patent/US6549887B1/en
Publication of JP2000214764A publication Critical patent/JP2000214764A/ja
Application granted granted Critical
Publication of JP3624733B2 publication Critical patent/JP3624733B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、手話アニメーションを生成し、同アニメーション情報をメール情報として送受信する情報処理装置に関する。
【0002】
【従来の技術】
近年、ユニバーサルデザインの提唱にも見られるように、健常者が享受しているサービスを障害者も同様に受けるために、障害者用の特別なサービス体系を構築するのではなく、健常者が受けるサービスの中に障害者をも取り込んだ体系を構築する傾向がある。ただし、この傾向は最近始まったことであり、現状、サービスとして具体化している装置は少ない。
【0003】
聴覚障害者に焦点を当てると、聴覚障害者の間でも電子メールの利用が浸透しつつあるが、聴覚障害者どうしの対話においては通常手話が用いられているため、健聴者が音声言語でメールを書くような自然さは得られていないと考えられる。
【0004】
【発明が解決しようとする課題】
聴覚障害者にとって自然な会話手段である手話動作をメールで送信することが可能になれば、聴覚障害者どうしのメール交換においても健聴者と同様に、より会話性の高い対話が可能となると考えられる。したがって、聴覚障害者が、手話動作をメールとして送受信可能とする手段を構築することが必要となる。さらには、メールを送信する側あるいは受信する側が、必ずしも聴覚障害者とは限らず、送信側が聴覚障害者であって受信側は聴覚障害者および健聴者であったり、送信者側が健聴者であって受信側は聴覚障害者である場合もある。
【0005】
したがって、聴覚障害者が手話で表現した情報をテキスト情報等の健聴者が利用している媒体に変換する手段が必要となる。さらに、健聴者側が入力したテキスト情報等を聴覚障害者の利用媒体である手話情報に変換する手段が必要となる。特に入力情報が手話情報である場合、上記情報中には、言語情報のみが含まれているのではなく、強調情報や感情情報といった情報をも含まれているため、健聴者から聴覚障害者、また、聴覚障害者から健聴者に送信する場合には、上記情報をも変換する手段が必要となる。
【0006】
また、テキスト情報を入力して手話情報に変換する場合には、上記テキスト情報に強調情報や感情情報を付加する手段がある方が健聴者が音声言語でメールを書くような対話性を持つことが可能となる。
【0007】
【課題を解決するための手段】
上記課題を達成するための本発明の一態様によれば、少なくともテキスト等の情報を入力可能とする情報入力手段と、手話単語見出し情報を用いて手話アニメーションを生成するアニメーション生成手段と、テキスト等の入力情報や手話単語見出し情報等を格納する情報格納手段と、上記テキスト情報やアニメーション情報を表示する情報表示手段と、データを電話回線等を用いて送受信するデータ通信手段を有する情報処理装置において、手話単語見出しを入力することにより自動生成されたアニメーションに対してユーザが編集を加えた手話アニメーションデータから非言語情報を抽出し、上記手話単語見出しと非言語情報を上記データ通信手段を用いて送信すると、送信した上記手話単語見出しと非言語情報を、手話アニメーション、テキスト表示、音声出力といった受信側あるいは送信側で設定した情報出力手段に対応するデータ表示形式に変換する。
【0008】
上記データ形式変換に当たり、手話情報、テキスト情報、音声情報に関する非言語情報の対応データを有する。また、上記手話アニメーション生成手段により手話単語見出し列情報から生成した手話アニメーションに対してユーザが強調表現や感情表現を付加したデータと付加以前のデータとの差分値を算出し、算出された上記差分値により強調表現情報と感情表現情報等の非言語情報を抽出する。
【0009】
また、ユーザが日本語入力を行なった場合、入力された日本語文を送信すると、受信側において上記形態素解析手段を用いて上記日本語文を解析し、解析した結果として得られた分割単語と隣接した分割単語を結合する隣接単語結合手段と、同分割単語内をさらに分割する単語内分割手段と、上記情報格納手段に格納されている手話単語見出し対応データ中の日本語単語を分割する日本語−手話見出し対応データ分割手段と、上記手段によって作成された結合単語あるいは分割単語を上記日本語−手話単語見出し対応データと照合し、手話単語見出しを抽出し、手話単語見出し列を生成する。
【0010】
また、テキスト上においても強調情報や感情情報等を付加することを可能とし、上記テキスト上において非言語情報表現個所である強調個所や感情付与個所を明示すると、上記個所をそれぞれ強調個所、感情付与個所として記憶し、さらに上記個所に対応する手話アニメーションデータに対して上記当する非言語情報を付加する。
【0011】
また、ユーザが音声入力を行なった場合には、発声情報をA/D変換し、上記変換情報から音韻情報、音圧情報、音高情報、時間情報を獲得して、さらに音声で入力された入力内容から強調情報や感情情報といった非言語情報を抽出し、上記非言語情報を手話表現としてアニメーション表示する。
【0012】
また、ユーザが音声出力を指定した場合には、上記手話対応非言語情報抽出手段により抽出された強調表現情報と感情表現情報といった非言語情報を用いて上記音声合成により手話アニメーション情報を音声情報に変換してユーザに音声情報として出力する。
【0013】
【発明の実施の形態】
以下、本発明をシステムに適用した場合の一実施形態について図面を参照しながら説明する。本実施例のシステムは、手話動作、テキスト、音声を取り扱うシステムであり、手話動作データに含まれる言語情報や非言語情報を日本語文や音声に変換したり、テキストや音声から言語情報および非言語情報を抽出し、上記情報を手話動作に変換したりすると共に、メールシステム上で上記情報を送受信するシステムである。
【0014】
まず、図1を用いて、本発明の実施形態の一例を説明する。図1は、本発明の構成を示すブロック図である。101は起動されたプログラム処理に応じて処理を行なうCPU、102はデータ等を記憶する主記憶装置、103は電話回線等のネットワーク情報を管理制御するネットワーク管理装置、104は情報を視覚的に提示する情報表示装置、105は表示装置104に対する表示内容を制御する表示制御装置、106は音響や音声といった音情報のボリューム等を制御する音響出力制御装置、107はスピーカに代表される音響あるいは音声等を出力する音響出力装置、108は音声入力に用いるマイクロフォンである。実行プログラムおよびアクセスするデータは、必要に応じて主記憶装置102上に読み込まれ、CPU101によって本発明に基づくデータ処理がなされる。
【0015】
ディスク109には、システム全体を制御するシステムプログラム110、ユーザが作成した手話メールを送受信する手話メール管理プログラム111、入力された手話単語情報あるいはアニメーションとして表示されている手話表現情報を日本語に変換する手話−日本語変換プログラム112、ユーザが入力したデータから手話アニメーションを生成する手話生成プログラム113、ユーザの要求に応じて出力内容を変更する出力内容制御プログラム114、音声情報を入出力する音声入出力プログラム115、入力情報中に含まれる非言語情報を抽出する非言語情報抽出プログラム116、入力された音声情報を分析する音声情報分析プログラム117、音素片から合成音声を生成する音声合成プログラム118、手話表現情報やテキスト情報等を表示する画像表示プログラム119、テキストを入力するテキスト入力プログラム120、さらにデータベースとして、日本語単語と手話単語の対応が記述されている日本語−手話単語見出し対応データ121、非言語情報を手話や音声で表現する規則が記述されている非言語情報対応データ122、合成音声を生成するための音素片の集合体である音源データ123、入力された音声を分析するために必要な音声認識用データ124、入力情報の認識あるいは分析結果を格納する入力情報分析結果格納テーブル125、形態素解析用単語辞書126が含まれている。
【0016】
以下に本装置における処理を記述する。説明にあたっては、図11ないし図18に示す各処理フローを参照する。
【0017】
まず、ユーザがシステムプログラム110を起動する(S1101)。さらに手話メール管理プログラム111を起動することにより(S1102)、テキスト入力プログラム120(S1303)、音声入出力プログラム115(S1304)が起動する。音声入出力プログラムは、音声入力プログラムと音声出力プログラムから構成されており、ここでは音声入力プログラムが起動する。さらに、画像表示プログラム119が起動して、情報入出力画面を表示する(S1105)。上記情報入出力画面の一例を図2に示す。
【0018】
まず、メール作成について説明する。メールの作成方法は、3種類用意されている。ひとつは、手話アニメーション編集機能を用いてアニメーションを生成する方法、二つ目は、音声入力を行う方法、三つ目は、テキスト入力を行う方法である。
【0019】
まずはじめに図12により、手話アニメーション編集機能を用いてメールを作成する方法について説明する。例えば、図2中に示したメニューバー200から「メール作成」を選択し、さらに「手話アニメ入力・編集」と表示されている手話アニメ入力指定メニュー201を選択すると、図3に示すような手話アニメ編集画面が表示される。同画面上に表示されている「手話単語見出し入力部」301において、ユーザは手話単語見出しを入力する(S1200)。ここでは一例として「私 山 登る」という手話単語見出し列を入力する。
【0020】
上記手話単語見出し列を入力後、「入力終了」と表示されている手話単語見出し決定ボタン302を押すと、上記手話単語見出しは時系列情報として
Ling_h〔i〕〔j〕
(i=手話単語見出し出現順番号、j=文字数)
の構造体形式で主記憶装置102に記憶される(S1201)。
【0021】
ここで手話生成プログラム113が起動する。上記手話生成プログラム113は、図4に示すように、手話単語見出し−手話表現変換プログラム1131、手話編集プログラム1132、日本語−手話単語見出し変換プログラム1133から構成されている。まず、上記手話単語見出し−手話表現変換プログラム1131により、日本語−手話単語見出し対応データ121から手話単語見出し各々に対応する手話動作データを抽出する。
【0022】
上記日本語−手話単語見出し対応データの構造は、例えば図5に示すような構造となっている。400には手話単語見出しの登録番号が記述されており、401の「日本語」には日本語単語が登録されている。また、上記日本語単語に対応した手話単語見出しが402に格納されており、各単語に対応する品詞が403に格納されている。さらに、各手話単語見出しをアニメーションとして表示するための手話動作データが404に格納されており、上記手話動作データには、経過時刻4041の時刻に対応した位置データが例えば右手4042中の肘動作データ40421にXYZ軸の3次元で表現された位置情報として格納されている。また、4043には、各単語中において動作が静止する静止点をAというフラグで記述し、4044には、動作方向を表すベクトルの方向変換点であるベクトル変換点をAというフラグで記述している。
【0023】
具体的には、例えば、上記手法で作成したオリジナル表示データとして、
org_f〔i〕〔s0〕〔axis〕
(i=単語出現番号、s0=単語内フレーム番号、axis=軸(x=0,Y=1,Z=2)
というオリジナルデータ構造体が作成され、さらに上記構造体に対するサブ構造体として、
〔part〕:動作軸点の大分類4042、
〔sub_part〕:動作軸点の小分類40421、
〔data_n〕:上記対応データにおける登録番号、
〔perm〕:座標値
で構成される構造体が作成され、上記オリジナル表示データが格納される。
【0024】
上記格納が行われると、手話単語見出しと同列に格納されている上記動作データを用いて、例えば、手話編集システム「Mimehand」((株)日立製作所)における機能により、画面に表示されているCGキャラクタの手指動作や表情等を表示制御装置105および情報表示装置106を通してアニメーション表示する(S1202)。
【0025】
ここでユーザは、上記アニメーション表示情報に対して強調表現や感情表現を付与することが可能である(S1203)。例えば、図6に示すような表示画面において、まず、図6の右下部に表示されているメニュー中の「表現情報表示部」から手話動作の変更を行うフレームを選択する。次にメニューから「編集ツール」を選択し、例えば右手を編集対象としたい場合には、「右手」を選択する。さらに「肘」を選択した後、「上下」「左右」「前後」のメニュー脇にあるスクロールボタンを動かすと、選択したフレームにおける「肘」の位置がスクロール量に応じて変動する。
【0026】
各フレーム毎に上記操作を行ない、フレーム毎に変動後の位置情報を
Change_f〔i_1〕〔s1〕〔axis〕
という変更データ格納構造体について、さらに
〔part〕:part=動作個所の大分類、
〔sub_part〕:動作個所の小分類、
〔perm〕:座標値、
〔data_n1〕:上記対応データにおける登録番号
を構成要素とする構造体が作成され、変動後データ格納用構造体として編集されたデータを記憶する。
【0027】
また、動作時間長を長くしたい場合には、例えば図7に示すように、編集個所の始端と終端を、例えばカーソル502を操作するマウスで確定し、上記始端、終端をドラッグすることで全体の時間長の伸縮操作を行う。上記操作において時間長を伸ばした場合には、手話編集プログラム1132により、例えば、伸長した時間長に適合するように均等にフレームを挿入して線形補完し、縮めた場合には、上記当個所からフレームを均等に間引いて線形補完するといった操作を行う。この場合、Change_fのs1:フレーム番号は、挿入あるいは削除されて登録される。
【0028】
ここで、非言語情報抽出プログラム116が起動し、非言語情報対応データ122、および上記日本語−手話単語見出し対応データを用いて入力情報からの非言語情報抽出を行う(S1204)。
【0029】
ここでは例として、強調表現の抽出を行う。手話における強調表現の特徴として語順の変化がある。ここでは、上記語順の変化および手話動作の軌跡と時間長の変化を強調表現の特徴量として扱う。
【0030】
まず、手話単語見出しの語順を比較する。上記非言語情報対応データ122の構造は、例えば図8に示すような構造となっており、シンボル番号により、手話データ部、音声データ部、テキストデータ部に格納されている非言語データを相互に参照する構造となっている。
【0031】
上記手話データ部の構造は、例えば、図9に示すような構造となっている。強調情報および複数の感情情報といった非言語情報の種類を示すシンボル番号901、シンボルを抽出するにあたり比較関数とする比較対象902、上記比較対象の具体的な比較用特徴量モデル903、非言語情報基本モデル904により構成されている。また、音声データ部の構造は、図10に示すような構造になっている。
【0032】
以下では、強調表現を例として説明する。強調表現としては、ひとつに、強調表現を伴う場合の語順が文法情報として格納されており、上記文法情報と入力された単語の語順とを比較する。Ling_h〔i〕に格納されている手話単語見出しデータと同列に記述されている品詞記述内容から語順を判断する。例えば、Ling_h〔i〕に「私」「登る」「山」という語順で入力されていた場合には、上記品詞情報から「S」「V」「O」構文を抽出する。次に、上記非言語情報対応データ122に格納されている強調構文パタン「S,V,O」と照合し、照合が取れた場合には、ling_h〔i〕を強調個所格納メモリconv_v1として主記憶装置102に格納する。この場合は、「O」の「山」を格納する。
【0033】
二つ目として、動作の大きさや表現時間長に関して平叙動作と強調や感情が含まれる動作との差分値により強調表現を検出する。各手話単語動作データについて、平叙動作値である
org_f〔i〕〔s0〕〔axis〕
と入力された手話アニメーション情報中の値である
Change_f〔i_1〕〔s〕〔axis〕
との差分値を上記非言語情報対応データ122中の比較用特徴量モデル603に代入し、モデルに合致した単語が検出された場合には、上記単語を強調表現として上記文法情報の場合と同様にNon−V1として主記憶装置102に格納する。上記比較用特徴量モデルの概要を以下に示す。
【0034】
1)時間長モデル
1−1)
word_def〔i〕=(s−s0)(s−s0)/s0
(i=出現順単語番号):各単語における時間長変動率の算出
1−2)
文中の単語において、最も時間長変動率が大きい単語def_legを検出
Figure 0003624733
2)座標値変動量モデル
2−1)
静止点の検出およびフレーム間のベクトル値の検出
各フレーム間のユークリッド距離を座標値から求める。
【0035】
length〔time〕〔def〕
は、各フレーム間の距離を示す。
【0036】
次に、
length〔time〕〔def〕
がある値よりも小さい場合には、上記フレーム間では移動がなかったと判断し、静止フレーム間長とする。さらに、上記静止フレーム間長が連続して、例えば3フレーム以上検出された場合には、上記フレーム間長群を静止点とし、
length〔time〕〔point_sc〕
に、静止点のフラグとして「1」を代入する。静止点でない場合には、「0」が代入されている。また、各フレーム間の方向ベクトル値が上記フレーム間の前後のベクトル値と比較して有意差があった場合には、有意差が認められた2方向の方向ベクトルの接点を方向変更座標値としてVector〔number_v〕〔position_v〕(number_v=変更点番号、position_v=1(変更点フレーム番号))に登録する。
【0037】
2−2)
静止点滞留時間および静止点間、ベクトル変更点間の加速度値の算出
静止点フラグがある値以上連続して存在した場合には、上記静止点群を静止点滞留フレーム群として、静止点群フレーム位置を示す構造体
st_dur〔number〕〔position〕
(number=静止点群番号、position=0(開始点フレーム)、1(終了点フレーム)2(静止滞留時間))に登録する。また、静止点群の終端から始端に至るまでのフレーム群における加速度値および方向変更点間の加速度値を求め、それぞれ、st_dur〔number〕〔4〕に格納する。また、ベクトル変更点については、Vector〔number_v〕〔2〕に変更点間の加速度値を代入する。
【0038】
2−3)
標準値と実動作値の比較
非言語情報対応データ121に登録されている静止点群4043の静止滞留時間値、および静止点間とベクトル変更点4044間の加速度値と上記値に表現位置として対応する2−2で算出された静止滞留時間と加速度値を比較し、上記滞留時間比がある値conf_i以上であった場合、また、加速度値の比がある値conf_j以上であり、さらに単語間の比較において、conf_Iの値に関して、そしてconf_jの値に関して有意差があった場合には、有意差があった上記単語を強調表現を伴う単語としてシンボル番号と共に、Non−V1に格納する。
【0039】
ここで、図7に示すように、相手先のアドレスを指定し(S1205)、手話単語見出し列MH〔k〕(k=0〜n)とNon−V1を手話メール管理プログラム111により送信する(S1206)。
【0040】
次に図13により、ユーザが音声入力を行う場合について説明する。ユーザは、マイクロフォン108を用いて音声入力を行う(S1301)。ここで音声情報分析プログラム117が起動する(S1302)。入力結果は音声入力プログラム115により、A/D変換され(S1303)、さらに主記憶装置102上の音声波形メモリTNに音声波形として記憶される。
【0041】
記憶された音声波形は、上記音声情報分析プログラムにより、ピッチ抽出および時間長抽出が行われ、さらに音声認識処理が行われる。音声認識処理は、例えば、音素モデルが格納されている音声認識用データ124を用いて古井貞煕著「ディジタル音声処理」(東海大学出版会、1985)に記載の音声認識手法を用いて音声認識を行ない、文字列に変換する(S1304)。
【0042】
上記文字列を上記認識結果格納テーブル125の音声認識結果セル中に格納する。さらに、ピッチ情報(基本周波数)を例えば20msec毎に抽出し、認識結果格納テーブル中に、P〔m〕〔n〕〔q〕(P〔0〕〔0〕〔0〕、P〔0〕〔0〕〔1〕、−P〔m〕〔n〕〔q〕:mは文字列番号、nはフレーム数、qは20msec毎のピッチ格納序数)の形式で格納する。
【0043】
さらに、音声認識結果である文字列の発声始端時刻、終端時刻、発声時間長、そして各音韻長を配列Pより算出し、
Length〔m〕〔data〕
(Length〔0〕、−Length〔m〕:mは文字列番号、data=0(発声時間長)、1(発声始端時刻)、2(発声終端時刻)、3(音韻発声時間長))
の形式で格納する(S1305)。また、上記3(音韻発声時間長)については、さらに音韻数に相当する配列を確保し、格納する。
【0044】
上記ピッチ情報Pと上記発声時間長Lengthと、非言語情報基本データ122中に含まれている音声非言語情報モデルを用いて上記音声情報に非言語情報が含まれているかどうかを判断する(S1306)。上記音声非言語情報モデルには、例えば、隣接単語間の無音区間平均時間長および単語始端部におけるピッチの立ち上がり傾斜度が表現されている。
【0045】
上記発声時間長やピッチの立ち上がり傾斜度と対応する実測値の比率がある一定値以上であれば、上記無音区間直後の単語をシンボル単語と共に強調表現単語としてconv_V1に登録する。また、各単語の音韻発声時間長に関して、(実測値)−(非言語情報データに対応する値)という差分値が単語の始めの音韻から最後の音韻にかけて大きくなる傾向を持つ単語があれば、上記単語の直後の単語を強調表現単語として、conv_V1に登録する。
【0046】
上記情報モデルによって非言語情報が含まれていると判断された場合には、非言語情報のフラグを主記憶装置102に非言語情報フラグをconv_v1として格納する。ここで、送信先を指定し(S1307)、文字列情報と非言語情報フラグを送信する(S1308)。
【0047】
次に図14によりテキスト入力について説明する。テキスト入力においては、テキスト入力メニューを開き、図19に示すように、ユーザがテキストをテキスト入力個所に入力する(S1401)。ユーザが強調表現や感情表現等を付加したい場合には、例えば強調表現個所にアンダーラインをひいたり(S1402)、感情表現文に対してフェイスマークを書くといった作業を行い(S1403)、強調表現については、アンダーライン付加部の単語を非言語情報フラグの強調表現としてconv_V1に登録し、送信先を指定した後(S1404)、文字列情報と非言語情報フラグを送信する(S1405)。
【0048】
次に、図15により受信側における情報出力方法について述べる。出力に当たっては、例えばユーザがメール受信ボタンを押し、ホストからメールをダウンロードする(S1500)。ユーザが表示画面上にある受信メールヘッドラインから読みたいメールを選択し(S1501)、さらに表示方法を選択する(S1502)。
【0049】
まず、出力希望情報として手話アニメーション情報が選択された場合について図16により説明する(S1601)。まず、送信情報を識別し、送信された情報が、手話単語見出し列と非言語情報の組み合わせであるのか日本語テキスト文と非言語情報の組み合わせであるのかを判断する(S1602)。選択したメール情報として手話単語見出し列情報と非言語情報が送信されている場合には、非言語情報対応データ中の非言語情報基本モデル904に日本語−手話単語見出し対応データ中に格納されている各単語に対する手話動作データを代入することにより、非言語情報を付加した手話アニメーション動作を生成し(S1603)、三次元コンピュータグラフィックス(3D−CG)での手話アニメーションを生成して表示画面に出力する(S1604)。
【0050】
また、送信情報が、音声認識結果であるテキスト情報と非言語情報の組み合わせや、テキスト情報と非言語情報との組み合わせである場合には、日本語−手話単語見出し変換プログラム1133が起動する(S1605)。上記日本語−手話単語見出し変換プログラムは、形態素解析プログラム11331と日本語単語−手話単語見出し変換プログラム11332により構成されている。
【0051】
まず、送信されたテキスト情報を上記形態素解析プログラムと形態素解析用単語辞書126により、例えば、形態素解析システム「ANIMA」(櫻井博文、久光徹,形態素解析プログラムANIMAの設計と評価,情報処理学会第54回全国大会論文集(1997年3月))に示されているような形態素解析手法を用いて、上記文を単語に分割し、単語の品詞や活用形等の情報を単語情報構造体
Word_info〔i〕〔j〕
(i=単語出現順番号、j=情報の種類(1=単語表記、2=終止形表記、3=品詞、4=時制、5=読み…))
として格納する(S1606)。
【0052】
さらに、上記日本語単語―手話単語見出し変換プログラムによって日本語−手話単語見出し対応データ121中の日本語単語データと上記Word_info〔i〕〔2〕の終止形表記情報との照合を行い、さらに上記データ121中の品詞情報とWord_info〔i〕〔3〕の品詞情報との照合を行ない、単語表記および品詞の両者の照合に成功した場合には、Word_info〔i〕〔j+1〕に手話単語見出しを格納する(S1607、S1608)。
【0053】
また、上記照合に失敗した場合には、Word_info〔i〕〔2〕を分割し、分割された複数単語と日本語−手話単語見出し対応データ121中の日本語単語データとの照合を行なって、上記日本語単語データによりWord_info〔i〕〔2〕が構成可能であった場合には、Word_info〔i〕〔j+1〕に、照合に成功した上記日本語単語の複数データを格納する(S1609)。
【0054】
さらに、送信された非言語情報については、例えば、強調個所の語順変更を行なう。強調個所が同モデルに当てはまる場合には、非言語情報対応モデル中に記述されている構文モデルに従いWord_info〔i〕〔j+1〕の〔i〕の出現順序を変更する。
【0055】
また、動作表現情報が送信されている場合には、強調個所を、非言語情報対応データ中のアニメーション強調モデルを用い、強調個所として指定されている単語と同列に記述されている日本語−手話単語見出し対応データ121中の手話動作データを変更し、強調表現を付加する。感情表現についても同様に、非言語情報に対応した感情表現モデルを用いて上記手話動作データを変更する。最終的に、変更された上記手話動作対応データにより手話アニメーションを生成し、図3に示すような手話動作出力画面に3次元(3D)表示する(S1610)。
【0056】
次に図17により、ユーザがテキスト情報での出力を選択した場合について説明する。送信されたデータを識別し(S1701)、上記送信データが、手話単語見出し列と非言語情報であった場合、手話−日本語変換プログラム112が起動し(S1702)、メールとして送信された手話単語見出し列の情報と日本語−手話単語見出し対応データ121との照合を行ない(S1703)、各手話単語見出しに対応した日本語単語を検索する。
【0057】
検索結果として得られた日本語単語列を、上記単語列の品詞情報を用いてS−O−V等の構文モデルに当てはめ(S1704)、上記単語列が矛盾なく当てはまる構文モデルが検出された場合には、構文モデルに付随する格助詞を上記単語に結合させて、Word_box〔m〕(m=単語出現順番号)に格納する(S1705)。
【0058】
さらに、非言語情報として送信された強調個所等の情報を非言語情報基本モデルを用いてテキスト中に付加する(S1706)。例えば、強調個所である単語にアンダーラインを付加したり、感情情報が付加されている個所にフェイスマークを付加するといった操作を行う。音声認識結果と非言語情報の組み合わせが送信された場合には、認識結果をテキスト情報とし、さらに非言語情報については、強調個所である単語にアンダーラインを付加したり、感情情報が付加されている個所にフェイスマークを付加するといった操作を行う。テキスト情報と非言語情報との組み合わせの場合も同様である。
【0059】
次に図18により、音声出力が指定された場合について説明する。まず送信データを識別し(S1801)、送信情報が手話単語見出し列と非言語情報との組み合わせの場合には、まず最初に、上記の手話アニメーション表示指定の場合と同様に、手話単語見出し列を手話−日本語変換プログラム112により単語に分割されたテキスト情報に変換する(S1802)。
【0060】
次に、音声合成プログラム118を起動し、例えば、「特願平9−205773:話者適応機能を持つ音声合成方式」に記載の手法により上記テキスト情報を発話記号列に変換する(S1803)。さらに、上記発話記号列に対応した音源データ列を抽出し、抽出された音源データ列の各音源の持続時間や単語間の無音時間長、そして強調直前の単語の音韻時間長を単語の始端から終端にかけて増幅させるといった操作を行なうことにより、非言語情報を付加する。上記非言語情報対応データの音声データ部に記述されている非言語情報基本モデルを用い、強調情報等を付加する(S1804)。上記付加処理を行なった音源データ列を用いて音声入出力プログラム115中の音声出力プログラム1152によって音響出力制御装置106および音響出力装置107を通して合成音声を出力する(S1805)。
【0061】
【発明の効果】
本発明によれば、自動生成された手話アニメーションにユーザが編集を加えたデータから非言語情報を抽出し、上記手話単語見出しと非言語情報を上記データ通信手段を用いて送信すると、送信した上記手話単語見出しと非言語情報を、手話アニメーション、テキスト表示、音声出力といった受信側あるいは送信側で設定した情報出力手段に対応するデータ表示形式に変換することにより、ユーザが嗜好するデータ形式でメール情報を獲得することができるようになる。
【0062】
また、上記データ形式変換に当たり、手話情報、テキスト情報、音声情報に関する非言語情報の対応データを有することにより、複数のメディアにおける非言語情報の対応関係を簡便に取得することができるようになる。
【0063】
また、ユーザが強調表現や感情表現を付加したアニメーションデータと付加以前のアニメーションデータとの差分値を算出し、算出された上記差分値により強調表現情報と感情表現情報を抽出する機能を持つことにより、ユーザが強調表現個所をシンボルとして入力することなく自動的に強調個所、感情表現個所を推定することが可能になる。
【0064】
また、ユーザが日本語入力を行なった場合、入力された日本語文を送信すると、受信側において上記形態素解析手段を用いて上記日本語文を解析し、解析した結果として得られた分割単語と隣接した分割単語を結合する隣接単語結合手段と、同分割単語内をさらに分割する単語内分割手段と、上記情報格納手段に格納されている手話単語見出し対応データ中の日本語単語を分割する日本語−手話見出し対応データ分割手段と、上記手段によって作成された結合単語あるいは分割単語を上記日本語−手話単語見出し対応データと照合し、手話単語見出しを抽出し、手話単語見出し列を生成することにより、日本語単語と手話単語見出しにおける表現単位の差を吸収することが可能になる。
【0065】
また、テキスト上においても強調情報や感情情報等を付加することを可能とし、上記テキスト上において非言語情報である強調個所や感情表現個所を明示すると、上記個所を非言語情報フラグと共にそれぞれ強調個所、感情表現個所として記憶する。
【0066】
また、ユーザが音声入力を行なった場合には、発声情報をA/D変換し、上記変換情報から音韻情報、音圧情報、音高情報、時間情報を獲得して、さらに音声で入力された入力内容から強調情報や感情情報といった非言語情報を抽出し、上記非言語情報を手話表現としてアニメーション表示することにより、テキスト情報における強調情報、感情情報をもアニメーションとして表示することが可能になる。
【0067】
また、ユーザが音声出力を指定した場合には、上記手話対応非言語情報抽出手段により抽出された強調表現情報と感情表現情報といった非言語情報、および上記手話単語見出しを用いて上記音声合成により手話アニメーション情報を音声情報に変換してユーザに音声情報として出力することにより、手話情報として入力された強調情報や感情情報を音声情報として獲得することが可能となり、日常的に利用している言語での非言語情報のやりとりが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施例の手話メール装置の構成を示すブロック図。
【図2】本発明の一実施例での表示画面の一例を示す説明図。
【図3】手話アニメ編集入力を行うための表示画面の一例を示す説明図。
【図4】手話生成プログラム113の構成を示す一例を示すブロック図。
【図5】日本語−手話単語見出し対応データの構造の一例を示す説明図。
【図6】手話メール編集操作画面の一例を示す説明図。
【図7】手話メール編集操作画面の一例を示す説明図。
【図8】非言語情報対応データ122の構造の一例を示す説明図。
【図9】非言語情報対応データ122の手話データ部の構造の一例を示す説明図。
【図10】非言語情報対応データ122の音声データ部の構造の一例を示す説明図。
【図11】本発明の一実施例の処理フロー図。
【図12】本発明の一実施例の処理フロー図。
【図13】本発明の一実施例の処理フロー図。
【図14】本発明の一実施例の処理フロー図。
【図15】本発明の一実施例の処理フロー図。
【図16】本発明の一実施例の処理フロー図。
【図17】本発明の一実施例の処理フロー図。
【図18】本発明の一実施例の処理フロー図。
【図19】テキスト入力操作画面の一例を示す説明図。
【符号の説明】
101…CPU、102…主記憶装置、103…ネットワーク管理装置、104…情報表示装置、105…表示制御装置、106…音響出力制御装置、107…音響出力装置、108…マイクロフォン、109…ディスク、110…システムプログラム、111…手話メール管理プログラム、112…手話−日本語変換プログラム、113…手話生成プログラム、114…出力内容制御プログラム、115…音声入出力プログラム、116…非言語情報抽出プログラム、117…音声情報分析プログラム、118…音声合成プログラム、119…画像表示プログラム、120…テキスト入力プログラム、121…日本語−手話単語見出し対応データ、122…非言語情報対応データ、123…音源データ、124…音声認識用データ、125…認識結果格納テーブル、126…形態素解析用単語辞書。

Claims (8)

  1. 少なくともテキスト情報を入力し得る情報入力手段と、
    手話単語見出し情報を用いて手話アニメーション情報を生成するアニメーション情報生成手段と、
    前記情報入力手段およびアニメーション情報生成手段に接続され、テキスト単語と手話単語のアニメーションとの対応が記述されるテキスト単語−手話単語対応データ、および非言語情報を手話で表現する規則が記述されている非言語情報対応データとを格納する情報格納手段と、
    前記情報入力手段、アニメーション情報生成手段および情報格納手段に接続される情報表示手段と、
    前記アニメーション情報生成手段からの入力に対する編集を受け付けて修正情報データを生成する編集手段と、
    前記情報格納手段及び前記編集手段に接続される非言語情報抽出手段と、
    前記非言語情報抽出手段と接続され、通信回線を介して情報を送受信する通信手段とを有する手話メール装置において、
    前記アニメーション情報生成手段は、前記情報入力手段により入力されたテキストによる手話単語見出し情報に基づき、前記テキスト単語−手話単語対応データを参照してアニメーション情報を生成し、
    前記非言語情報抽出手段は、前記アニメーション情報生成手段の出力に対して編集が加えられた前記修正情報データから、前記非言語情報対応データを参照して非言語情報を抽出して出力し
    前記通信手段は前記手話単語見出しと非言語情報とを対応付けたメールとして送信することを特徴とする手話メール装置。
  2. 請求項に記載の手話メール装置において、上記非言語情報抽出手段は上記手話アニメーション情報生成手段により生成された手話アニメーション情報に対して強調表現や感情表現が付加されて得られた修正情報データと付加以前の手話アニメーション情報との差分値を上記非言語情報対応データを用いて算出し、算出された上記差分値により強調表現や感情表現等の非言語情報を抽出することを特徴とする手話メール装置。
  3. 請求項に記載の手話メール装置において、上記非言語情報抽出手段は、上記編集を加えたアニメーション情報データから静止点、静止点間の加速度値、静止点滞留時間、単語長、および文時間長に対する単語長の比率、構文の少なくとも1つを特徴量として検出する編集データ特徴量抽出手段と、上記特徴量抽出手段によって検出された特徴量と既に基本データとして登録されている上記特徴量との差分値を算出する差分値算出手段を有することを特徴とする手話メール装置。
  4. 請求項1乃至のいずれかに記載の手話メール装置において、文字列情報を品詞や活用形の情報を含む単語情報に分割する形態素解析手段と、上記情報入力手段を用いて入力されたテキスト情報を上記形態素解析手段により得られた分割単語と隣接した分割単語を結合する隣接単語結合手段と、同分割単語をさらに分割する単語内分割手段と、上記情報格納手段に格納されている手話単語見出し対応データ中の単語を分割する単語分割手段と、上記結合単語あるいは分割単語を日本語−手話単語見出し対応データと照合し、手話単語見出しを抽出する日本語−手話対応データ照合手段を有することを特徴とする手話メール装置。
  5. 請求項1乃至のいずれかに記載の手話メール装置において、さらに上記情報表示手段の画面上の位置情報を含む手話アニメーションデータの編集手段と、上記編集手段を介して特定された入力手段により入力されたテキストの非言語情報を示す強調個所や感情付与個所をそれぞれ強調個所、感情付与個所として記憶する手段と、上記個所に対応した手話アニメーションデータに非言語情報を付加するテキストの非言語情報変換手段とを有することを特徴とする手話メール装置。
  6. 請求項1乃至の何れかに記載の手話メール装置において、前記情報入力手段は、発声情報を入力する音声入力手段と上記発声情報をA/D変換するディジタル情報変換手段とA/D変換された情報から入力された発声情報の音韻情報、音圧情報、音高情報、時間情報を与える音声認識手段とを有し、上記音声認識手段はさらに前記発生情報における単語列および単語間ポーズ長、および音韻時間長から非言語情報を抽出し、その非言語情報を手話表現としてアニメーション表示する音声−手話非言語情報変換手段を有することを特徴とする手話メール装置。
  7. 請求項1乃至の何れかにに記載の手話メール装置において、さらに文字列情報から音声を合成する音声合成手段を有し、上記音声合成手段は抽出された非言語情報を用いて、単語の時間長や単語間のポーズ長、および単語内に含まれる音韻の音韻時間長を制御することによって上記音声合成により手話アニメーション情報を音声情報に変換する手話アニメーション−音声変換手段を有することを特徴とする手話メール装置。
  8. 表示装置と、情報入力部と、
    予め記憶される、テキスト単語と手話単語のアニメーションとの対応が記述されているテキスト単語−手話単語対応データに基づいて、前記情報入力部へ入力されたテキストによる手話単語見出し列から手話アニメーション情報を生成する手段と、
    前記表示装置に前記手話アニメーション情報に相当する手話アニメーションと、その手話アニメーションを規定する前記手話単語見出し列の各手話単語見出し、前記手話単語見出しのそれぞれに対応した手指動作やジェスチャを特定する編集項目とが表示されるように前記表示装置を駆動し、前記編集項目を変更することで前記手話アニメーション情報に少なくとも強調情報若しくは感情情報を含む非言語情報を付加し修正手話アニメーション情報を生成する手段と、
    予め記憶される、非言語情報を手話で表現する規則が記述されている非言語情報対応データを参照して、前記修正手話アニメーション情報から前記非言語情報を抽出する手段と、
    前記入力された手話単語見出し列および前記抽出された非言語情報を格納する記憶装置と、
    前記記憶装置から前記手話単語見出し列および前記非言語情報を読み出して、その読み出された手話単語見出し列に読み出された非言語情報を結合する手段と、
    前記結合手段の出力を受ける情報出力部と、を有することを特徴とする手話情報処理装置。
JP01397399A 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置 Expired - Fee Related JP3624733B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01397399A JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置
US09/488,076 US6549887B1 (en) 1999-01-22 2000-01-20 Apparatus capable of processing sign language information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01397399A JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置

Publications (2)

Publication Number Publication Date
JP2000214764A JP2000214764A (ja) 2000-08-04
JP3624733B2 true JP3624733B2 (ja) 2005-03-02

Family

ID=11848175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01397399A Expired - Fee Related JP3624733B2 (ja) 1999-01-22 1999-01-22 手話メール装置及び手話情報処理装置

Country Status (2)

Country Link
US (1) US6549887B1 (ja)
JP (1) JP3624733B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040012643A1 (en) * 2002-07-18 2004-01-22 August Katherine G. Systems and methods for visually communicating the meaning of information to the hearing impaired
JP3968277B2 (ja) 2002-08-26 2007-08-29 株式会社日立製作所 メールサーバ、そのメールサーバを実現するためのプログラム及び携帯端末
JP2004110649A (ja) * 2002-09-20 2004-04-08 Hitachi Information Systems Ltd 手話アニメーションによる情報提供システム
US7277858B1 (en) * 2002-12-20 2007-10-02 Sprint Spectrum L.P. Client/server rendering of network transcoded sign language content
TWI235962B (en) * 2003-06-06 2005-07-11 Ind Tech Res Inst Method for converting high level motion scripts to computer animations
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
FR2884023B1 (fr) * 2005-03-31 2011-04-22 Erocca Dispositif pour la communication par des personnes handicapees de la parole et/ou de l'ouie
BRPI0502931A (pt) * 2005-06-24 2007-03-06 Inst Ct De Pesquisa E Desenvol rybena : método e sistema de comunicação que utiliza texto, voz e libras para permitir acessibilidade aos portadores de necessidades especiais
JP2006184921A (ja) * 2006-01-27 2006-07-13 Canon Electronics Inc 情報処理装置及び方法
US20080195373A1 (en) * 2007-02-13 2008-08-14 Barbara Ander Digital Sign Language Translator
US8566077B2 (en) * 2007-02-13 2013-10-22 Barbara Ander Sign language translator
US8566075B1 (en) * 2007-05-31 2013-10-22 PPR Direct Apparatuses, methods and systems for a text-to-sign language translation platform
US9282377B2 (en) 2007-05-31 2016-03-08 iCommunicator LLC Apparatuses, methods and systems to provide translations of information into sign language or other formats
CN102104670B (zh) * 2009-12-17 2014-03-05 深圳富泰宏精密工业有限公司 手语识别系统及方法
US20110208523A1 (en) * 2010-02-22 2011-08-25 Kuo Chien-Hua Voice-to-dactylology conversion method and system
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US8793118B2 (en) 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
US20150039295A1 (en) * 2011-12-20 2015-02-05 Alona Soschen Natural language processor
US9319270B2 (en) 2012-04-12 2016-04-19 FrontRange Solutions, Inc. Configuration of third party applications in a sandboxed environment
WO2019160100A1 (ja) * 2018-02-16 2019-08-22 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
US20210005218A1 (en) * 2018-02-16 2021-01-07 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, method, and program
US10739864B2 (en) 2018-12-31 2020-08-11 International Business Machines Corporation Air writing to speech system using gesture and wrist angle orientation for synthesized speech modulation
CN114842712B (zh) * 2022-04-12 2023-10-17 汕头大学 一种基于手势识别的手语教学系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0585098B1 (en) * 1992-08-24 2000-03-22 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
JP3914612B2 (ja) 1997-07-31 2007-05-16 株式会社日立製作所 通信システム
US6377925B1 (en) * 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications

Also Published As

Publication number Publication date
JP2000214764A (ja) 2000-08-04
US6549887B1 (en) 2003-04-15

Similar Documents

Publication Publication Date Title
JP3624733B2 (ja) 手話メール装置及び手話情報処理装置
JP4135307B2 (ja) 音声通訳サービス方法および音声通訳サーバ
JP3822990B2 (ja) 翻訳装置、記録媒体
JP4478939B2 (ja) 音声処理装置およびそのためのコンピュータプログラム
CN113454708A (zh) 语言学风格匹配代理
US6181351B1 (en) Synchronizing the moveable mouths of animated characters with recorded speech
JPH05216618A (ja) 音声対話システム
JP2008083855A (ja) 機械翻訳を行う装置、システム、方法およびプログラム
JP2007272773A (ja) 対話型インターフェイス制御システム
JPH07140998A (ja) 音声認識インターフェース
JP5731998B2 (ja) 対話支援装置、対話支援方法および対話支援プログラム
JPWO2005093713A1 (ja) 音声合成装置
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
KR20100120917A (ko) 아바타 영상 메시지를 생성하는 장치 및 방법
JPH11109991A (ja) マンマシンインターフェースシステム
JPH06131108A (ja) 情報入力装置
JP2001142484A (ja) 音声対話方法及びそのシステム
JP2001268669A (ja) 移動電話端末を利用した機器制御装置、方法、及び記録媒体
JP2013238880A (ja) 携帯端末、編集誘導プログラムおよび編集誘導方法
JP2003157095A (ja) 音声認識装置及びその方法、プログラム
KR100754430B1 (ko) 음성 기반 자동 립싱크 애니메이션 장치와 방법 및 기록매체
WO1997009683A1 (fr) Systeme de mediatisation d'informations multimedia contenant des informations audio
JP2000003189A (ja) 音声データ編集装置及び音声データベース
JP2005215888A (ja) テキスト文の表示装置
JP2007286376A (ja) 音声案内システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees