JP2003296753A - 聴覚障害者用対話システム - Google Patents

聴覚障害者用対話システム

Info

Publication number
JP2003296753A
JP2003296753A JP2002102801A JP2002102801A JP2003296753A JP 2003296753 A JP2003296753 A JP 2003296753A JP 2002102801 A JP2002102801 A JP 2002102801A JP 2002102801 A JP2002102801 A JP 2002102801A JP 2003296753 A JP2003296753 A JP 2003296753A
Authority
JP
Japan
Prior art keywords
sign language
animation image
hearing
image
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002102801A
Other languages
English (en)
Inventor
Kenji Hatanaka
兼司 畠中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
COMPUTER IMAGE LABORATORY CO Ltd
IMAGE LAB CO Ltd COMP
Original Assignee
COMPUTER IMAGE LABORATORY CO Ltd
IMAGE LAB CO Ltd COMP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by COMPUTER IMAGE LABORATORY CO Ltd, IMAGE LAB CO Ltd COMP filed Critical COMPUTER IMAGE LABORATORY CO Ltd
Priority to JP2002102801A priority Critical patent/JP2003296753A/ja
Publication of JP2003296753A publication Critical patent/JP2003296753A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 伝えたい言葉をテキスト入力してアニメーシ
ョン画像で手話及び唇の動作をリアルタイムにて行うこ
とができ、聴覚障害者が容易に正しい情報を受け取って
健常者との意思疎通を良好に行うことを可能とし、さら
にインターネットでの情報配信も容易な聴覚障害者用対
話システムを提供すること。 【解決手段】 単語をテキストデータとして入力する手
段と、入力単語から音声を合成して発音する手段と、人
間の顔と手を含むアニメーション画像を生成する手段
と、アニメーション画像を表示させる手段と、発音され
た音声に同期させてアニメーション画像の唇を動かす手
段と、手話単語の手形状や手の位置等の手話動作パター
ンを記憶したデータベースと、入力単語に対応する手話
動作パターンをデータベースから読み出してアニメーシ
ョン画像の手を動かす手段とからなり、アニメーション
画像の生成がXVL3次元データを用いてなされるシス
テム。

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、聴覚障害者用対話
システムに関し、より詳しくは、アニメーション画像で
手話及び唇の動作をリアルタイムにて行わせることがで
き、聴覚障害者と健常者とのコミュニケーションを良好
に行うことを可能とするシステムに関するものである。 【0002】 【従来の技術】聴覚障害者が他人とコミュニケーション
をとる手段としては手話が一般的である。しかしなが
ら、健常者の中には手話ができる人が少ないため、聴覚
障害者と健常者との間ではコミュニケーションが充分に
とれないことが多かった。このような実情に鑑みて、テ
キストデータとして入力された単語を基に、コンピュー
タグラフィックスにより生成されたアニメーション画像
で手話を行わせるシステムが提案されており、このシス
テムによれば、手話を知らない健常者と聴覚障害者との
間で容易にコミュニケーションをとることが可能とな
る。 【0003】しかし、実際には、聴覚障害者が健常者と
コミュニケーションをとる場合、手の動きだけでなく、
唇の動きから多くの情報を得ている。例えば、難聴者の
場合には、僅かに聞こえる音声と唇の動きの両方から情
報を得ている。また、動作が同じで意味が異なる手話単
語については、口の形によって使い分けられている。こ
のような実情から、従来のアニメーション画像で手話を
行わせるシステムでは、聴覚障害者が正しく情報を受け
取れない場合があった。 【0004】このような課題を解決するための技術とし
ては、特開平9−265253号公報に開示の技術が存
在している。この開示技術は、入力された日本語の文字
列から、手話の手動作と口の動きをコンピュータグラフ
ィックスのアニメーションで合成する方法及び装置に関
するものであって、アニメーション画像で手話の手動作
と口の動きの両方を行わせることで上記した問題点を解
決することを可能としたものであった。しかしながら、
この特開平9−265253号公報の開示技術を含む従
来のアニメーション画像を利用するシステムにおいて
は、3次元アニメーション画像をWWW上で取り扱うた
めにVRML(Virtual Reality Modeling Language)
が用いられているが、VRMLはポリゴンベースのデー
タ表現であってデータ量が巨大であるため、ネットワー
ク転送速度が遅く、リアルタイムでの応答が要求される
対話的利用に適用するには適していなかった。また、ポ
リゴンが基本となるため、データの表現に制限が大き
く、3次元形状の表現力に乏しいという欠点もあった。 【0005】 【発明が解決しようとする課題】本発明は上記した従来
技術の問題点を解決すべくなされたものであって、伝え
たい言葉をテキスト入力するだけで、アニメーション画
像で手話及び唇の動作をリアルタイムにて行わせること
ができ、聴覚障害者が容易に且つ正しく情報を受け取る
ことが可能となって健常者とのコミュニケーションを良
好に行うことができ、インターネット上での使用にも適
した聴覚障害者用対話システムを提供せんとするもので
ある。 【0006】 【課題を解決するための手段】本発明は、聴覚障害者に
伝えたい単語をテキストデータとして入力する入力手段
と、テキストデータとして入力された単語から音声を合
成して発音するテキスト−音声変換手段と、人間の顔と
手を含むアニメーション画像を生成するアニメ画像生成
手段と、生成されたアニメーション画像を表示させる表
示手段と、前記発音された音声に同期させてアニメーシ
ョン画像の唇を動かす唇画像動作手段と、手話単語の手
形状や手の位置等の手話動作パターンを記憶した手話動
作データベースと、前記テキストデータとして入力され
た単語に対応する手話動作パターンを該手話動作データ
ベースから読み出して前記アニメーション画像の手を動
かす手話画像動作手段とからなり、前記アニメ画像生成
手段によるアニメーション画像の生成が、XVL3次元
データを用いてなされることを特徴とする聴覚障害者用
対話システムに関する。 【0007】 【発明の実施の形態】以下、本発明に係る聴覚障害者用
対話システムの好適な実施形態について、図面を参照し
つつ説明する。図1は本発明に係るシステムの全体構成
を概略的に示すブロック図である。本発明に係るシステ
ムは、テキストデータ入力手段(1)と、テキストデー
タとして入力された単語から音声を合成して発音するテ
キスト−音声変換手段(2)と、人間の顔と手を含むア
ニメーション画像を生成するアニメ画像生成手段(3)
と、生成されたアニメーション画像を表示させる表示手
段(8)と、発音された音声に同期させてアニメーショ
ン画像の唇を動かす唇画像動作手段(4)と、手話単語
の手形状や手の位置等の手話動作パターンを記憶した手
話動作データベース(5)と、テキストデータとして入
力された単語に対応する手話動作パターンを手話動作デ
ータベース(5)から読み出してアニメーション画像の
手を動かす手話画像動作手段(6)とを備えている。 【0008】テキストデータ入力手段(1)は、文字列
からなるテキストデータを入力するためのキーボード等
からなるものであって、例えば「こんにちは」、「あり
がとう」等の聴覚障害者に伝えたい単語が入力される。 【0009】テキスト−音声変換手段(2)は、テキス
トデータ入力手段(1)から入力されたテキストデータ
から音声を合成する手段であって、一般にTTS(Text
ToSpeech)と呼ばれる公知のテキスト/音声変換器が
用いられる。このテキスト/音声変換器による変換処理
の方法については特に限定されず、従来公知の方法を使
用することが可能であり、例えば次のような方法で行な
われる。先ず、第1のステップとして、入力されたテキ
ストを音素列に変換し、この音素列から韻律情報を推定
してこれをシンボル化する。韻律情報は、構文構造分析
結果を利用した句・節境界、単語内アクセント位置、文
型等から推定する。次いで、第2のステップとして、シ
ンボル化した韻律情報から規則及びテーブル値を利用し
て韻律制御パラメータの値を計算する。韻律制御パラメ
ータには、音素の持続時間、ピッチ輪郭、エネルギー輪
郭、休み時間情報等がある。最後に、第3のステップと
して、韻律制御パラメータと音素の合成単位データベー
スとを利用して合成音を生成する。 【0010】アニメ画像生成手段(3)は、人間の顔と
手を含む少なくとも上半身のアニメーション画像を生成
する手段であって、本発明においては、このアニメーシ
ョン画像の生成は、XVL3次元データを用いて行われ
る。XVL(eXtensible Virtual world description L
anguage)は、ラティス格子(3次元格子)を利用した
超軽量3次元コンテンツ・ファイル・フォーマットであ
って、例えば3次元CADデータ等の各種3次元データ
により作成されたアニメーション画像をXVL3次元デ
ータに変換することにより、データ容量を1/100以
下に圧縮することが可能となる。また、ポリゴンデータ
と形状要素に対する丸め関数を持つラティスメッシュ
と、新しい曲面内挿モデルであるラティスサーフェイス
による表現により、ポリゴンデータと異なり、曲面を曲
面のまま表現できる。そのため、後述する唇画像動作手
段(4)及び手話画像動作手段(6)によるアニメーシ
ョン画像の動きをリアルタイムでスムーズなものとする
ことができるとともに、動画像をインターネットで配信
することも容易となる。 【0011】唇画像動作手段(4)は、テキスト−音声
変換手段(2)により発音された音声に同期させて、ア
ニメ画像生成手段(3)により生成された人間のアニメ
ーション画像の唇を動かす手段である。この唇画像動作
手段(4)としては、リップシンク技術として公知の技
術を使用することが可能であって特に限定はされない
が、例えば以下のように構成される。また、前述した特
開平9−265253号の開示技術を用いてもよい。ア
ニメ画像生成手段(3)により生成された人間のアニメ
ーション画像において、予め単語や単音節毎に生成した
唇の動作のアニメーション動画像を、それぞれ唇動画片
として唇動作データベース(7)に記憶しておき、前記
テキスト−音声変換手段(2)により発音された音声に
対応する複数の唇動画片を唇動作データベースから読み
出して、フィールド内挿処理により画像を繋ぎ合せるこ
とによって、一連の視覚情報となる唇が動く動画像
(A)を合成する。このとき、個々の動画片の接合部分
において、内挿するフィールド数について、映像の動き
ベクトルの値に応じて内挿する枚数と位置を可変とする
ことで、動画片の接合部分をスムーズなものとすること
ができる。この場合、映像の内挿位置と原画とを比較し
て、映像と音声のズレの検知限の範囲内に設定すること
ができ、合成映像と音声のタイミングをリップシンクの
検知限以下に抑えて、一連の動画を合成することができ
る。 【0012】手話動作データベース(5)には、アニメ
画像生成手段(3)により生成された人間のアニメーシ
ョン画像における手話単語の手形状や手の位置等の手話
動作パターンが、3次元アニメーションのデジタルデー
タとして記憶されている。そして、手話画像動作手段
(6)は、テキストデータ入力手段(1)からテキスト
データとして入力された単語に対応する手話動作パター
ンを、手話動作データベース(5)から読み出して接続
することによって、アニメーション画像(B)の手を動
かす。 【0013】以下、本発明に係るシステムの作用の一例
について説明する。聴覚障害者と対話したい健常者等
が、テキストデータ入力手段(1)を用いて例えば「こ
んにちは」という単語をテキストデータとして入力する
と、テキストデータとして入力された単語は、テキスト
−音声変換手段(2)によって音声に合成されてスピー
カから「こんにちは」と発音される。CRT、LCD等
からなる表示手段(8)には、アニメ画像生成手段
(3)により生成された人間の顔と手を含むアニメーシ
ョン画像が表示されており、唇画像動作手段(4)は発
音された音声に同期させて表示されているアニメーショ
ン画像の唇を「こんにちは」と動かす。これによって、
聴覚障害者は、唇の動きによって健常者等が伝えたい言
葉(「こんにちは」)を読み取ることができる。そして
同時に、手話画像動作手段(6)は、テキストデータと
して入力された単語(「こんにちは」)に対応する手話
動作パターンを手話動作データベース(5)から読み出
して、表示手段(8)に表示されているアニメーション
画像の手を動かし、これによって、聴覚障害者は、唇の
動きに加えて手話によって健常者等が伝えたい言葉
(「こんにちは」)を読み取ることができる。 【0014】上記一例の作用において、アニメ画像生成
手段(3)によるアニメーション画像の生成にXVL3
次元データが用いられていることによって、唇画像動作
手段(4)及び手話画像動作手段(6)によるアニメー
ション画像の動きをリアルタイムでスムーズに行わせる
ことが可能となる。また、データが非常に軽量であるた
め、得られたアニメーション動画像をインターネットで
配信することも容易となる。 【0015】 【発明の効果】以上説明したように、本発明は、聴覚障
害者に伝えたい単語をテキストデータとして入力する入
力手段と、テキストデータとして入力された単語から音
声を合成して発音するテキスト−音声変換手段と、人間
の顔と手を含むアニメーション画像を生成するアニメ画
像生成手段と、生成されたアニメーション画像を表示さ
せる表示手段と、前記発音された音声に同期させてアニ
メーション画像の唇を動かす唇画像動作手段と、手話単
語の手形状や手の位置等の手話動作パターンを記憶した
手話動作データベースと、前記テキストデータとして入
力された単語に対応する手話動作パターンを該手話動作
データベースから読み出して前記アニメーション画像の
手を動かす手話画像動作手段とからなり、前記アニメ画
像生成手段によるアニメーション画像の生成が、XVL
3次元データを用いてなされることを特徴とする聴覚障
害者用対話システムであるから、聴覚障害者に伝えたい
言葉をテキスト入力するだけで、アニメーション画像で
手話及び唇の動作を行わせることができる。従って、聴
覚障害者が容易に且つ正しく情報を受け取ることが可能
となって健常者とのコミュニケーションを良好に行うこ
とができる。また、アニメーション画像での手話及び唇
の動作を入力に対してリアルタイムに行わせることが可
能となり、得られたアニメーション動画像をインターネ
ットで配信することも容易となる。
【図面の簡単な説明】 【図1】本発明に係る聴覚障害者用対話システムの全体
構成を概略的に示すブロック図である。 【符号の説明】 1 テキストデータ入力手段 2 テキスト−音声変換手段 3 アニメ画像生成手段 4 唇画像動作手段 5 手話動作データベース 6 手話画像動作手段 7 唇動作データベース 8 表示手段

Claims (1)

  1. 【特許請求の範囲】 【請求項1】 聴覚障害者に伝えたい単語をテキストデ
    ータとして入力する入力手段と、テキストデータとして
    入力された単語から音声を合成して発音するテキスト−
    音声変換手段と、人間の顔と手を含むアニメーション画
    像を生成するアニメ画像生成手段と、生成されたアニメ
    ーション画像を表示させる表示手段と、前記発音された
    音声に同期させてアニメーション画像の唇を動かす唇画
    像動作手段と、手話単語の手形状や手の位置等の手話動
    作パターンを記憶した手話動作データベースと、前記テ
    キストデータとして入力された単語に対応する手話動作
    パターンを該手話動作データベースから読み出して前記
    アニメーション画像の手を動かす手話画像動作手段とか
    らなり、前記アニメ画像生成手段によるアニメーション
    画像の生成が、XVL3次元データを用いてなされるこ
    とを特徴とする聴覚障害者用対話システム。
JP2002102801A 2002-04-04 2002-04-04 聴覚障害者用対話システム Pending JP2003296753A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002102801A JP2003296753A (ja) 2002-04-04 2002-04-04 聴覚障害者用対話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002102801A JP2003296753A (ja) 2002-04-04 2002-04-04 聴覚障害者用対話システム

Publications (1)

Publication Number Publication Date
JP2003296753A true JP2003296753A (ja) 2003-10-17

Family

ID=29389052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002102801A Pending JP2003296753A (ja) 2002-04-04 2002-04-04 聴覚障害者用対話システム

Country Status (1)

Country Link
JP (1) JP2003296753A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2422449A (en) * 2005-01-20 2006-07-26 Christopher David Taylor Text to sign language translation software for PCs and embedded platforms e.g. mobile phones and ATMs.
WO2006108236A1 (en) * 2005-04-14 2006-10-19 Bryson Investments Pty Ltd Animation apparatus and method
WO2019142424A1 (ja) * 2018-01-17 2019-07-25 株式会社Jvcケンウッド 表示制御装置、通信装置、表示制御方法およびプログラム
CN115294838A (zh) * 2022-02-14 2022-11-04 浙江理工大学 一种基于唇语识别的聋儿发音训练方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09274428A (ja) * 1996-04-09 1997-10-21 Hitachi Ltd 手話アニメーション生成装置
JPH11226050A (ja) * 1998-02-13 1999-08-24 Nippon Hoso Kyokai <Nhk> 視覚的に聴覚を補助するシステムおよび方法並びに視覚的に聴覚を補助するための制御プログラムを記録した記録媒体
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09274428A (ja) * 1996-04-09 1997-10-21 Hitachi Ltd 手話アニメーション生成装置
JPH11226050A (ja) * 1998-02-13 1999-08-24 Nippon Hoso Kyokai <Nhk> 視覚的に聴覚を補助するシステムおよび方法並びに視覚的に聴覚を補助するための制御プログラムを記録した記録媒体
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
脇田玲、外4名: "XVL:ラティス構造に基づく軽量で高品質なWeb3Dデータ表現", 情報処理学会研究報告 2000−CG−100, vol. 2000, no. 78, JPN6007012659, 8 September 2000 (2000-09-08), JP, pages 31 - 36, ISSN: 0000942902 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2422449A (en) * 2005-01-20 2006-07-26 Christopher David Taylor Text to sign language translation software for PCs and embedded platforms e.g. mobile phones and ATMs.
WO2006108236A1 (en) * 2005-04-14 2006-10-19 Bryson Investments Pty Ltd Animation apparatus and method
WO2019142424A1 (ja) * 2018-01-17 2019-07-25 株式会社Jvcケンウッド 表示制御装置、通信装置、表示制御方法およびプログラム
JP2019125927A (ja) * 2018-01-17 2019-07-25 株式会社Jvcケンウッド 表示制御装置、通信装置、表示制御方法およびプログラム
JP7081164B2 (ja) 2018-01-17 2022-06-07 株式会社Jvcケンウッド 表示制御装置、通信装置、表示制御方法および通信方法
US11508106B2 (en) 2018-01-17 2022-11-22 Jvckenwood Corporation Display control device, communication device, display control method, and recording medium
CN115294838A (zh) * 2022-02-14 2022-11-04 浙江理工大学 一种基于唇语识别的聋儿发音训练方法及系统

Similar Documents

Publication Publication Date Title
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
JP2518683B2 (ja) 画像合成方法及びその装置
EP1269465B1 (en) Character animation
CN113781610B (zh) 一种虚拟人脸的生成方法
KR102035596B1 (ko) 인공지능 기반의 가상 캐릭터의 페이셜 애니메이션 자동 생성 시스템 및 방법
KR102116309B1 (ko) 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템
King et al. Creating speech-synchronized animation
WO2011083978A2 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Hong et al. iFACE: a 3D synthetic talking face
Karpov et al. Multimodal synthesizer for Russian and Czech sign languages and audio-visual speech
Parent et al. Issues with lip sync animation: can you read my lips?
Beskow Talking heads-communication, articulation and animation
Waters et al. DECface: A system for synthetic face applications
JP2003296753A (ja) 聴覚障害者用対話システム
JP3755503B2 (ja) アニメーション制作システム
EP0970467B1 (en) Method of speech synthesis
JP2003216173A (ja) 合成音声及び映像の同期制御方法、装置及びプログラム
JPH06162167A (ja) 合成画像表示システム
EP0982684A1 (en) Moving picture generating device and image control network learning device
JP3298076B2 (ja) 画像作成装置
Granström et al. Speech and gestures for talking faces in conversational dialogue systems
GB2346526A (en) System for providing virtual actors using neural network and text-to-linguistics
Olives et al. Towards a high quality finnish talking head
Wang et al. A real-time text to audio-visual speech synthesis system.
Abou Zliekha et al. Emotional audio visual Arabic text to speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080303