JPH0667601A - 手話通訳装置および手話通訳システム - Google Patents

手話通訳装置および手話通訳システム

Info

Publication number
JPH0667601A
JPH0667601A JP4247285A JP24728592A JPH0667601A JP H0667601 A JPH0667601 A JP H0667601A JP 4247285 A JP4247285 A JP 4247285A JP 24728592 A JP24728592 A JP 24728592A JP H0667601 A JPH0667601 A JP H0667601A
Authority
JP
Japan
Prior art keywords
sign language
output
unit
input
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4247285A
Other languages
English (en)
Other versions
JP3346799B2 (ja
Inventor
Yutaka Sako
裕 酒匂
Hirohiko Sagawa
浩彦 佐川
Masahiro Abe
正博 阿部
Hiroshi Ichikawa
熹 市川
Kiyoshi Inoue
潔 井上
Kiyoshi Arai
清志 新井
Takanori Shimura
隆則 志村
Yuji Toda
裕二 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP24728592A priority Critical patent/JP3346799B2/ja
Priority to DE69328147T priority patent/DE69328147T2/de
Priority to EP93306674A priority patent/EP0585098B1/en
Publication of JPH0667601A publication Critical patent/JPH0667601A/ja
Priority to US08/567,875 priority patent/US5887069A/en
Priority to US08/716,911 priority patent/US5699441A/en
Application granted granted Critical
Publication of JP3346799B2 publication Critical patent/JP3346799B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【目的】 動的な手話を自動認識し、話者の表情を認識
して、話者の感情を含んだ自然文を得、それを、テキス
ト、音声、他の種類の手話などで表現する。 【構成】 手話認識部2ではデータグローブ1からの話
者時系列データと手話単語辞書内の手話時系列データと
を照合して手話を認識し、自然文変換部3で助詞等を付
加し自然文を生成出力し、表情認識部5ではTVカメラ
4からの話者の映像を入力として話者の感情種類とその
感情度を認識出力し、計算機16では、自然文および感
情種類とその感情度に基づき、音声出力装置(11,1
2)用、テキスト出力装置(13,15)用、手話出力装
置(13,14,15)用に夫々出力情報を作成し出力す
る。健常者側の入力は、音声入力装置(9,10)、テキ
スト入力装置8から入力され、計算機16により各出力
装置に出力される。フロッピーディスク6、I/Oデバ
イス部からは記録済みの自然文等が入力される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、手話を認識し、それ
を、テキスト、音声、または他の種類の手話などの表現
形態に変換し、その情報を伝達する手話通訳装置および
手話通訳システムに関するものである。
【0002】
【従来の技術】従来の関連技術として、(公知例1)特
開平2−144675号公報「手動作認識装置と手話言
語変換装置」、(公知例2)特開平3−186979号
公報「ニューロコンピュータを用いた手の姿勢認識方
式」が提案されている。(公知例1)においては、色の
付いた手袋を用いて色認識により指の位置関係を求め
る。そして、それと予め登録してある幾つかの指文字の
指位置関係を照合することで、入力された指文字を認識
している。(公知例2)においては、周知のデータグロ
ーブを用いて指の静的な形状とその指文字の意味との対
応をニューラルネットワークを用いて学習させている。
認識時には、データグローブからの指の静的な形状デー
タをニューラルネットワークに入力し、その出力を指文
字の意味としている。
【0003】
【発明が解決しようとする課題】上記の従来技術は、基
本的に静的な指文字を認識するものなので、次のような
理由で、指や手の動き(手話パターン)を認識する必要
のある自然な手話会話の認識ができないという問題点が
ある。なお、以降では、静的な片手の指形状を用いた伝
達方法を指文字、動的な両手の指や手の動きを用いたも
のを手話とし、それぞれを区別して記述する。 (1)(公知例1)では、指文字としての指の伸び、曲
げ、不定等を記号化しているが、手話における指や手の
時間的動きは自由度が大きいため時間的動きの記号化は
一般に困難であり、原理的には手話の認識に適用しずら
い。 (2)(公知例2)ではニューロ学習を用いているが、
動的な手話に適用しようとすると、手話単語の切り出し
や手話単語の時間的変動という困難な問題に直面し、原
理的に手話の認識に適用できない。また、(公知例1)
には、手話における単語の照合を目的とした記述もある
が、そこに述べてあるように単語と単語の間にポーズを
挿入する必要があるため使用者に負担を与える結果とな
り、自然な手話会話を阻害してしまう。
【0004】さらに、手話通訳自体のその他の課題とし
て次項が挙げられる。 (3)手話は、その指形状、手の位置、動きに個人差が
存在する。音声認識からの知見として特定話者認識の方
が不特定話者認識より簡単である。指文字の場合、その
種類数が50語弱と少ないため、使用以前に、使用者に
よる個人指文字の登録や個人用ニューロの重み係数の学
習が考えられる。しかしながら、手話の場合、その基本
単語数が少なくとも1000語と多いために、個人適用
のためのそのような登録や学習が時間的に不可能とな
る。 (4)一般に、手話によって行なった過去の会話を参考
にしたくなったり、記録しておきたい場合も多い。これ
らの機能は、まだ実現されていない。 (5)手話には、感情を伝える単語が乏しい。そのた
め、顔の表情や身振りの大きさでそれを表現している。
しかし、一般に、健常者は手話に神経が集中しているた
め、この表情や身振りの大きさを読み取れない場合が多
い。従って、手話通訳装置には、自然な会話を実現する
ために、感情を伝達する機能が必要不可欠となる。 本発明の目的は、以上説明した従来技術の問題点やその
他の課題を解決し、単語数が多く、しかも、個人差のあ
る動的な手話を認識し、種々の表現形態を用いて相手に
伝達することが可能な手話通訳装置および手話通訳シス
テムを提供することにある。
【0005】
【課題を解決するための手段】上記問題点や課題を解決
するために、本発明では、指と手の動きを時系列データ
として求める手段と、前記指と手の動きの時系列データ
を入力手話時系列データとし、該入力手話時系列データ
をキャリブレーションする変換部と、各手話単語の手話
時系列データを手話単語辞書データとして格納する手話
単語辞書と、変換部の出力と手話単語辞書データとを照
合し、入力手話時系列データに対応する手話単語を認識
出力する照合部を備える手話認識部と、手話認識部から
出力された手話単語にルール規範に基づき助詞等を付加
して自然文を出力する自然文変換部を備える。また、さ
らに、特定の手話単語の手話時系列データと該手話時系
列データに対応する手話単語辞書データとを入力し、該
両入力データの各時間ごとの対応を求め、この対応関係
を出力する第2の照合部と、前記入力手話時系列データ
と前記第2の照合部の出力のいずれか一方を選択して前
記変換部に出力する選択部とを設け、前記変換部に前記
第2の照合部の出力により前記キャリブレーションのた
めの認識用パラメータを学習する手段を設けている。ま
た、さらに、前記キャリブレーションのための認識用パ
ラメータを学習する手段としてニューラルネットワーク
を用いている。また、さらに、手話使用者の顔画像を入
力し、その顔画像から表情を認識し、“喜び”“悲し
み”等の感情種類とその感情度(強度)を求める表情認
識部と処理装置を設け、該処理装置は、前記自然文変換
部の出力である自然文と前記表情認識部の出力である感
情種類とその感情度(強度)を入力として感情的形容詞
を付加した自然文を出力するようにしている。また、ロ
ーカルエリアネットワークの複数のステーションに、ス
テーション毎に手話通訳装置を設置し、複数台の手話通
訳装置間で情報の交換をすることができるようにしてい
る。
【0006】
【作用】データグローブ等から入力されてくる時系列の
手話の時系列データと各手話単語辞書データをスキャン
しながら照合するようにする。そして、一致度が最も高
い部分(図4の点線部)で各手話単語辞書データが照合
することができる。また、幾つかの限られた個数の入力
手話単語データとそれに対応する手話単語辞書データの
違い、すなわち、使用者の手話の一般的な癖をデータ変
換規則(キャリブレーション規則)として学習すること
ができる。この変換規則を用いることで、使用者の手話
をより手話単語辞書データに近いデータに変換すること
ができるため認識精度をよくすることができる。さら
に、表情認識部を備えたことにより感情表現をも通訳す
ることができるようになり、より自然な会話を実現でき
る。
【0007】
【実施例】以下、本発明の実施例を図1〜図9を用いて
詳細に説明する。まず、図1において、手話通訳装置1
00の全体構成と各要素部の機能及びデータの遷移につ
いて説明する。この装置は、大きく分けて8つの部分、
手話認識部分(1、2、3)、表情認識部分(4、
5)、データ入出力部分(6、7)、音声認識部分
(9、10)、キーボード部分(8)、表示部分(1
3、14、15)、音声発生部分(11、12)、処理
装置(計算機)(16)からなっている。まず、手話利
用者と他方の利用者との会話の例を通じて、この手話通
訳装置の動きを説明する。手話利用者が行なう手話を通
訳するために、手話利用者の指の形、手の方向と位置の
時系列情報d1がデータグローブ1から手話認識部2に
送られる。そして、手話認識部2において、この時系列
情報d1と手話単語辞書データを動的に照合すること
で、時系列情報d1に含まれている単語を記号化(d
2)する。自然文変換部3では、順次入力されてくる記
号化単語d2の間に適切な助詞等を補足して、自然文
(d3)を作成し出力する。一方、TVカメラ4によ
り、手話利用者の顔画像(d4)が同時に取り込まれ、
表情認識部で彼の(微笑みや悲しみ等の)表情を認識
し、その(微笑みや悲しみ等の)程度(d5)を出力す
る。
【0008】通訳出力媒体として音声を利用する場合、
これらのデータd3、d5は、計算機16に送られ、簡
単な感情的形容詞が付加された自然文あるいは音声合成
用のパラメータ(d12)に変換された後、音声合成部
12に送られる。音声合成部12では、このデータd1
2に基づき、自然文(d3)に対応した感情(d5)を
伴った音声が合成される。通訳出力媒体としてテキスト
を利用する場合、データd3、d5は、計算機16に送
られ、簡単な感情的形容詞が付加された自然文(d13
2)に変換された後、モニタ13に送られテキスト表示
される。また、通訳出力媒体として他の種類の手話を利
用する場合、計算機16により、簡単な感情的形容詞が
付加された自然文(d3)から単語部分(d14)が取
り出された後、手話CG発生部14に送られ、対応する
単語単位の手話CGがモニタ13に出力される。
【0009】これらの通訳出力媒体を通じて手話利用者
の会話を理解した他方の利用者は、キーボード8、マイ
ク9、或いは、データグローブ1(もう一式別の手話認
識部を用意しても良い)を用いて会話を行なう。テキス
ト会話の場合には、キーボード8を用いて会話文(d
8)を入力し、それをモニタ13に表示する。あるい
は、キーボード8を用いて簡単な単語単位の会話文(d
8)を入力し、手話CG発生部14で対応する単語単位
の手話CGに変換してモニタ13に出力してもよい。マ
イク9を用いた音声会話の場合には、各単語毎に発声し
た音声データを音声認識部10で認識し記号化(d9)
する。それを、テキストとしてモニタ13に表示する
か、あるいは、手話CG発生部14で対応する単語単位
の手話CGをモニタ13に出力する。また、データグロ
ーブ1を用いた手話会話の場合には、先に説明したと同
様な手順で、手話会話を音声、テキスト、手話CGで出
力する。
【0010】計算機16は、処理部の全体制御と簡単な
データ変換を行なうためのものである。なお、音声認識
部10、音声合成部12は、それぞれの既に開発されて
いる技術(例えば、“聴覚と音声” 電子通信学会 三
浦種敏監修 1980)を用いれば、容易に達成でき
る。以降、図1における本発明に直接かかわる、手話認
識部(1、2、3)、表情認識部(4、5)、データ入
出力部(6、7)に関して、順次詳細に説明する。
【0011】図2は、手話認識部2の具体的構成を示し
たものである。この認識部の機能として、次の2つがあ
る。 機能(1):予め定めてある幾つかの手話単語に対応し
た利用者の手話単語データをデータグローブから取得
し、同一単語における入力手話単語データと手話単語辞
書データとの関係を比較し、データ変換を行なう。これ
は、手話の個人差のキャリブレーション、すなわち、利
用者の手話データをより手話単語辞書データに似たデー
タに変換することを目的としている。このキャリブレー
ションは、装置使用開始時のみ実行される。 機能(2):利用者の(キャリブレーション後の)手話
会話の時系列データと手話単語辞書データを動的に照合
し、時系列データに含まれる単語を検出する。
【0012】まず、機能(1)の実現に関して説明す
る。手話利用者は、予め決められた手話単語d1を一つ
づつ照合部1に入力する。そして、それに対応した手話
単語辞書データd22が手話単語辞書格納部22から読
み出されて照合部1に入力され、照合部1で端点固定動
的照合が行なわれる。一般に、手話単語は静的な指文字
と違い、指や手の動きで単語を表したものである。その
ため、データグローブから得られるデータは、図4に示
したような、指関節角度を表すf11からf52(たとえ
ば、f11は親指の第1関節の関節角度、f12は親指の第
2関節の関節角度を表し、以下f21からf52は他の指の
第1関節の関節角度と第2関節の関節角度を表す)、手
の平の方向を表すhd1からhd3、手の位置を表すh
pxからhpzの時系列多次元関数P(t)(多数の1
次元関数からなる関数のことである)となる。手話単語
辞書データは一つの単語を表現したもので、同様に時系
列多次元関数p(t)と表現できる。なお、図には簡単
のため片手分の時系列データを示したが、実際には、両
手のデータを用いるため、この2倍の次元を持った関数
である。
【0013】図4に示したように、当然のことながら、
入力手話単語データと手話単語辞書データには個人差に
よる違いがあるため、その差を吸収するために入力手話
単語データから手話単語辞書データへの変換を行なう必
要がある。このため、まず、端点固定動的照合を行な
い、両者の最適な対応個所を求める。端点固定動的照合
は、入力データの始点と辞書データの始点を対応固定
し、入力データの終点と辞書データの終点を対応固定
し、すなわち両端の対応を固定し、その他の部分の時間
的な変動を許した一種の動的なテンプレートマッチング
であり、公知の方法を用いる(“パターン認識と学習の
アルゴリズム” 文一総合出版 上坂吉則/尾関和彦
著、p91)。
【0014】幾つかの単語毎にこの照合を行ない、対応
個所の情報を図4のd24として出力する。d24は、
図4に示すように入力手話単語データと手話単語辞書デ
ータの対応個所のデータ、すなわちP(A)、P
(B)、P(C)、P(D)、P(E)、P(F)、P
(G)・・・およびp(a)、p(b)、p(c)、p
(d)、p(e)、p(f)、p(g)・・・からな
る。図2の25は選択部であり、機能1を実行する場合
には、選択部25で、データd1を選択せずに、対応個
所データd24を選択し、これを変換部21への入力d
25とする。変換部21は、図3に示すように、層型ニ
ューロ211および選択部212、213からなる。変
換部21では、選択部213により、入力されたデータ
d25の内のP(A)、P(B)、P(C)、P
(D)、P(E)、P(F)、P(G)・・・を選択し
て層型ニューロ211の入力とし、また、選択部212
によってd25中のp(a)、p(b)、p(c)、p
(d)、p(e)、p(f)、p(g)・・・を層型ニ
ューロ211の教師データd212として利用すること
によって層型ニューロ211の学習が行なわれる。幾つ
かのサンプルデータd25を用いて層型ニューロ211
の学習を行なうことによって、手話利用者の時系列デー
タP(t)から単語辞書データp(t)への変換則が、
層型ニューロ211の重み係数の形で学習されることに
なる。
【0015】次に、機能(2)の実現に関して説明す
る。機能(2)を実行する場合には、図2の選択部25
ではデータd1が選択され、d25となり、図3の選択
部213ではd25を選択して層型ニューロ211の入
力とし、選択部212では、d212が選択され、d2
1となる。手話利用者の入力手話時系列データd1は、
先に説明したキャリブレーションの場合と異なり、手話
会話を目的とした幾つかの手話単語を時系列に並べたも
のである。この入力手話時系列データd1は、学習済み
の層型ニューロで変換され、利用者の個人差を排除した
変換入力手話時系列データd21となる。すなわち、こ
の変換入力手話時系列データd21は、先に説明した機
能(1)により、幾つかの対応した手話単語辞書データ
に似た時系列データに変換されていることになる。
【0016】図2の照合部2(23)は、この変換され
た入力手話時系列データd21と各手話単語辞書データ
を照合し、入力手話時系列データ内の一連の手話単語を
検出するためのものである。この照合部2(23)の動
作に関して図5を用いて説明する。図5のd21は入力
手話時系列データ、d22は手話単語辞書データであ
る。入力手話時系列データは先に説明したように、多次
元の時間tの関数である。手話単語辞書データd22に
は、例えば、図に示したようにA、B、C、・・・があ
り、それぞれが入力手話時系列データd21と動的に照
合される。この動的な照合には、連続DP照合と呼ばれ
る方法(岡,“連続DPを用いた連続単語認識”,日本
音響学会音声研究会,S78−20,pp.145−1
52,1978)を利用する。すなわち、この動的な照
合は、基本的には、各手話単語辞書データを、入力手話
時系列データ上でスキャンさせ、各時間毎にマッチング
を行ない、一致度が最も良い位置(時刻)にその手話単
語が存在したと認識するものである。マッチングの際に
は、若干の時間的な変動を許しながら行なうことができ
る。照合部2(23)からは、認識された単語を時系列
にd2として出力する。自然変換部3では、これらのデ
ータをもとに、ルール規範によって助詞等を付加し、よ
り自然文に近い文章を記号化して出力する。
【0017】次に、表情認識部5を、図6、7、8を用
いて詳細に説明する。図6は、表情認識部5の具体的な
構成を示したものであり、入力d4は手話利用者の顔画
像、出力d5は、表情から得られた感情種類とその感情
を数値化した感情度(喜び度60%、悲しみ度10%等
々)である。図内の41で、顔画像の“目”“口”
“鼻”“眉”の位置検出(d410)とその“目”部分
画像(d414)、“口”部分画像(d413)、
“鼻”部分画像(d412)、“眉”部分画像(d41
1)の切り出しを行なう。各部分の表情照合部(42
4、423、422、421)では、基本表情パターン
辞書(434、433、432、431)を参照しなが
ら、各部分の感情度(d424、d423、d422、
d421)を検出する。総合判定部44では、これらの
感情度と“目”“口”“鼻”“眉”の位置検出(d41
0)から決まる感情度とを総合的に判断し、最終的な感
情種類とその感情度を出力する。
【0018】図7は、各部分の位置検出と切り出しを行
なうための具体的な構成を示したものである。まず、差
分による顔抽出部411で、背景の無い顔画像d411
0を得る。この実現には、予め登録してある背景画像4
12と入力画像d4との差分を求め、絶対差分値が大き
い部分を求めれば、容易に達成できる。各部の抽出(4
13)では、顔画像d4110の全体位置と全体の大き
さを投影分布等の画像処理手法を利用して検出する。
“目”“口”“鼻”“眉”の各部については標準的な画
像パターンおよび基本位置情報(414)が用意され、
背景の無い顔画像d4110に対して各部の標準的な画
像パターン(414)をテンプレートとしてテンプレー
トマッチングを行ない、各部分の位置を検出する。この
時、各部の基本位置情報(414)を、求めてある顔画
像の全体位置と全体の大きさを用いて正規化すること
で、テンプレートマッチングを実行する範囲を制限で
き、精度と効率の良いマッチングを実現できる。一旦、
各部分の位置を検出できれば、各部分画像を切り出すこ
とは容易となる。出力のd410が各部の位置座標、d
414、d413、d412、d411が“目”部分画
像、“口”部分画像、“鼻”部分画像、“眉”部分画像
である。
【0019】図8は、表情認識部5の口の表情照合42
3の具体的な構成例を示したものである。まず、“口”
部分画像d413は、特徴抽出部で、画像処理により、
面積、縦横比、xy投影分布形状等の形状的特徴が抽出
される。これらの形状的特徴は、予め登録してある、喜
んだ“口”の形状的特徴、悲しんだ“口”の形状的特徴
と比較(特徴空間上での距離による比較)され、いずれ
に近いかが決定される。そして、近い方の感情種類と距
離に反比例した感情度を出力(d423)する。その他
の部分(“目”“鼻”“眉”)の表情照合も全く同様な
構成で実現できる。表情照合部5の総合判定部44で
は、入力画像の各部の形状的特徴から得られた感情種類
と感情度、および各部の位置座標関係から得られた感情
種類と感情度を用いて、最終感情種類を多数決で決定す
る。そして、得られた感情度のうち、最終感情種類と同
じ感情種類の感情度の平均を最終感情度(d5)とす
る。なお、各部の位置座標関係から得られる感情種類と
感情度の決定は、予め、各表情の標準画像の各部の位置
座標を記憶しておき、入力画像と標準画像の各部の位置
ずれ誤差の総和を求め、その誤差の大小で決定する方式
をとる。すなわち、誤差が最も少ない位置関係を持つ標
準画像の感情種類および誤差に反比例した感情度をそれ
ぞれの入力画像の感情種類および感情度とする。
【0020】次に、図1におけるデータ入出力部(6、
7)に関して説明する。この部分は、(1)手話利用者
のデータグローブからの会話生データあるいは自然文変
換後の文章をフロッピデスク6に記憶する、あるいは、
記憶されたそれらのデータをフロッピデスク6から読み
出す、(2)手話認識部2の変換部21の層型ニューロ
のパラメータ(重み係数)をフロッピデスク6に記憶す
る、あるいは、記憶されたそのデータをフロッピデスク
6から読みだすためのものである。読み出された(1)
のデータは、音声合成部やモニタ、あるいは、手話CG
発生部に送られ、その内容を表示される。また、読み出
された(2)のデータは、変換部21の層型ニューロの
パラメータ(重み係数)にセットされる。
【0021】図9は、手話CG発生部14の構成を示し
たものである。図9のd14は、単語情報であり、その
情報により対応する単語CGパターンのアドレス(d1
42)をアドレス発生部(142)で発生し、指定され
た単語CGパターン(d131)をモニタ13に送り、
表示する。以上、手話通訳装置の各部分を詳細に説明し
た。このような構成で、先に述べた課題すべてを解決で
きる手話通訳装置を実現できる。なお、以上の手話通訳
装置100の実施例では、データのやり取りを有線で行
うことを想定して説明したが、各部のデータのやり取り
をすべて、または、一部無線で行うようにして、稼動性
を良くした構成にしても良い。
【0022】図10は、以上説明した手話通訳装置10
0をLAN(ローカルエリアネットワーク)インタフェ
ース101を介してLANまたは無線LANで複数台連
結した手話通訳システムを示したものである。このよう
な構成をとることで、病院、警察署、役所等の公共施設
内、或いは、それぞれの施設間における手話やジェスチ
ャによる情報通信やデータベースへのアクセスが可能と
なる。
【0023】
【発明の効果】本発明により、個人差のある動的な手話
を認識でき、認識結果に基づき自然文変換をすることが
できる。また、表情認識をすることができ、感情を伴っ
た自然文の発生が可能となる。さらに、手話利用者と健
常者の間での会話を容易にすることができる。
【図面の簡単な説明】
【図1】手話通訳装置の全体構成を示した図である。
【図2】手話認識部の構成を示した図である。
【図3】手話認識部内の変換部の構成を示した図であ
る。
【図4】手話認識部内の照合部1の動作を示した図であ
る。
【図5】手話認識部内の照合部2の動作を示した図であ
る。
【図6】表情認識部の構成を示した図である。
【図7】表情認識部内の各部分の位置検出と切り出し部
の構成を示した図である。
【図8】表情認識部内の口の表情照合部の構成を示した
図である。
【図9】手話CG発生部の構成を示した図である。
【図10】手話通訳システムの構成例を示した図であ
る。
【符号の説明】
1 データグローブ 2 手話認識部 3 自然文変換部 4 TVカメラ 5 表情認識部 6 フロッピディスク 7 I/Oデバイス部 8 キーボード 9 マイク 10 音声認識部 11 スピーカ 12 音声合成部 13 モニタ 14 手話CG発生部 15 選択部 16 計算機
───────────────────────────────────────────────────── フロントページの続き (72)発明者 市川 熹 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 井上 潔 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 新井 清志 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 志村 隆則 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 戸田 裕二 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 指と手の動きを時系列データとして求め
    る手段と、手話認識部と、自然文変換部を備える手話通
    訳装置であって、 前記手話認識部は、前記指と手の動きの時系列データを
    入力手話時系列データとし、該入力手話時系列データを
    キャリブレーションする変換部と、 各手話単語の手話時系列データを手話単語辞書データと
    して格納する手話単語辞書と、 前記変換部の出力と前記手話単語辞書データとを照合
    し、入力手話時系列データに対応する手話単語を認識出
    力する照合部を備え、 前記自然文変換部は前記手話認識部から出力された手話
    単語にルール規範に基づき助詞等を付加して自然文を出
    力することを特徴とする手話通訳装置。
  2. 【請求項2】 請求項1記載の手話通訳装置において、
    特定の手話単語の手話時系列データと該手話時系列デー
    タに対応する前記手話単語辞書データとを入力し、該両
    入力データの各時間ごとの対応を求め、この対応関係を
    出力する第2の照合部と、 前記入力手話時系列データと前記第2の照合部の出力の
    いずれか一方を選択して前記変換部に出力する選択部と
    を設け、 前記変換部に前記第2の照合部の出力により前記キャリ
    ブレーションのための認識用パラメータを学習する手段
    を設けたことを特徴とする手話通訳装置。
  3. 【請求項3】 請求項2記載の手話通訳装置において、
    前記キャリブレーションのための認識用パラメータを学
    習する手段としてニューラルネットワークを用いること
    を特徴とする手話通訳装置。
  4. 【請求項4】 請求項1乃至請求項3のいずれかの請求
    項記載の手話通訳装置において、 手話使用者の顔画像を入力し、その顔画像から表情を認
    識し、“喜び”“悲しみ”等の感情種類とその感情度
    (強度)を求める表情認識部と処理装置を備え、 該処理装置は、前記自然文変換部の出力である自然文と
    前記表情認識部の出力である感情種類とその感情度(強
    度)を入力として感情的形容詞を付加した自然文を出力
    するようにしたことを特徴とする手話通訳装置。
  5. 【請求項5】 請求項4記載の手話通訳装置において、
    前記処理装置に音声合成部を有する音声出力装置を接続
    し、感情種類とその感情度(強度)に応じた音声を出力
    するようにしたことを特徴とする手話通訳装置。
  6. 【請求項6】 請求項4記載の手話通訳装置において、
    前記処理装置にテキストを出力するテキスト出力装置を
    接続し、感情種類とその感情度(強度)に応じたテキス
    トを出力するようにしたことを特徴とする手話通訳装
    置。
  7. 【請求項7】 請求項4記載の手話通訳装置において、
    前記処理装置に手話CG発生部を有する手話グラフィッ
    クス出力装置を接続し、感情種類とその感情度(強度)
    に応じた手話グラフィックスを出力するようにしたこと
    を特徴とする手話通訳装置。
  8. 【請求項8】 請求項5乃至請求項7のいずれかの請求
    項記載の手話通訳装置において、 前記処理装置にマイクロフォンと音声認識部を有する音
    声入力装置を接続したことを特徴とする手話通訳装置。
  9. 【請求項9】 請求項5乃至請求項7のいずれかの請求
    項記載の手話通訳装置において、 前記処理装置にキーボート等の文字入力装置を接続した
    ことを特徴とする手話通訳装置。
  10. 【請求項10】 ローカルエリアネットワークの複数の
    ステーションに、ステーション毎に前記請求項1乃至請
    求項9記載の手話通訳装置のいずれか1つを選択して設
    置し、複数台の手話通訳装置間で情報の交換をすること
    を特徴とする手話通訳システム。
JP24728592A 1992-03-10 1992-08-24 手話通訳装置 Expired - Lifetime JP3346799B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP24728592A JP3346799B2 (ja) 1992-08-24 1992-08-24 手話通訳装置
DE69328147T DE69328147T2 (de) 1992-08-24 1993-08-23 Gebärdenspracherkennungsgerät und Verfahren und Gebärdensprachübersetzungssystem, das dieses verwendet
EP93306674A EP0585098B1 (en) 1992-08-24 1993-08-23 Sign recognition apparatus and method and sign translation system using same
US08/567,875 US5887069A (en) 1992-03-10 1995-12-06 Sign recognition apparatus and method and sign translation system using same
US08/716,911 US5699441A (en) 1992-03-10 1996-09-09 Continuous sign-language recognition apparatus and input apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24728592A JP3346799B2 (ja) 1992-08-24 1992-08-24 手話通訳装置

Publications (2)

Publication Number Publication Date
JPH0667601A true JPH0667601A (ja) 1994-03-11
JP3346799B2 JP3346799B2 (ja) 2002-11-18

Family

ID=17161177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24728592A Expired - Lifetime JP3346799B2 (ja) 1992-03-10 1992-08-24 手話通訳装置

Country Status (1)

Country Link
JP (1) JP3346799B2 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337629A (ja) * 1993-05-31 1994-12-06 Hitachi Ltd 手話認識装置
US5473705A (en) * 1992-03-10 1995-12-05 Hitachi, Ltd. Sign language translation system and method that includes analysis of dependence relationships between successive words
JPH08115408A (ja) * 1994-10-19 1996-05-07 Hitachi Ltd 手話認識装置
JPH09185708A (ja) * 1995-12-28 1997-07-15 Fujitsu Ltd 相関追跡システム
JPH1026999A (ja) * 1996-07-10 1998-01-27 Nec Shizuoka Ltd 手話翻訳装置
JPH10208023A (ja) * 1997-01-24 1998-08-07 Hitachi Ltd 手話認識装置
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
JPH11136498A (ja) * 1997-08-29 1999-05-21 Eastman Kodak Co 赤目検出用コンピュータプログラム物
JPH11272161A (ja) * 1998-03-24 1999-10-08 Hitachi Ltd 手話単語辞書作成方法および辞書学習装置
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2003295754A (ja) * 2002-04-05 2003-10-15 Hitachi Ltd 手話教育用システム及び該システムを実現するためのプログラム
JP2008021058A (ja) * 2006-07-12 2008-01-31 Nec Corp 翻訳機能付き携帯電話装置、音声データ翻訳方法、音声データ翻訳プログラムおよびプログラム記録媒体
WO2010137325A1 (ja) * 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
JP2011154717A (ja) * 2011-04-18 2011-08-11 Toshiba Corp 顔画像処理装置
US8999457B2 (en) 2009-07-31 2015-04-07 General Electric Company Methods for making environmental barrier coatings using sintering aids
US9005717B2 (en) 2009-07-31 2015-04-14 General Electric Company Methods for making environmental barrier coatings using sintering aids
US9005716B2 (en) 2009-07-31 2015-04-14 General Electric Company Method for making solvent based environmental barrier coatings using sintering aids
US9023435B2 (en) 2009-07-31 2015-05-05 General Electric Company Methods for making water based environmental barrier coatings using sintering aids
US9056802B2 (en) 2009-07-31 2015-06-16 General Electric Company Methods for making environmental barrier coatings using sintering aids
US9062564B2 (en) 2009-07-31 2015-06-23 General Electric Company Solvent based slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same
US9073793B2 (en) 2009-07-31 2015-07-07 General Electric Company Slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same
US9212100B2 (en) 2009-07-31 2015-12-15 General Electric Company Environmental barrier coatings for high temperature ceramic components
JP2020013599A (ja) * 2014-12-08 2020-01-23 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
CN111582039A (zh) * 2020-04-13 2020-08-25 清华大学 基于深度学习与大数据的手语识别与转换系统及方法
CN112201116A (zh) * 2020-09-29 2021-01-08 深圳市优必选科技股份有限公司 一种逻辑板识别方法、装置及终端设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101839244B1 (ko) * 2016-12-13 2018-03-15 한밭대학교 산학협력단 감정을 표현하는 수화보조 시스템
US11503361B1 (en) 2021-07-26 2022-11-15 Sony Group Corporation Using signing for input to search fields

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59132079A (ja) * 1983-01-17 1984-07-30 Nippon Telegr & Teleph Corp <Ntt> 手操作入力装置
JPS63172297A (ja) * 1987-01-12 1988-07-15 東洋通信機株式会社 手話装置
JPH02144675A (ja) * 1988-11-25 1990-06-04 A T R Tsushin Syst Kenkyusho:Kk 手話言語変換装置
JPH03186979A (ja) * 1989-12-15 1991-08-14 Fujitsu Ltd ニューロコンピュータを用いた手の姿勢認識方式
JPH04134515A (ja) * 1990-09-26 1992-05-08 Dainippon Printing Co Ltd 手話翻訳装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59132079A (ja) * 1983-01-17 1984-07-30 Nippon Telegr & Teleph Corp <Ntt> 手操作入力装置
JPS63172297A (ja) * 1987-01-12 1988-07-15 東洋通信機株式会社 手話装置
JPH02144675A (ja) * 1988-11-25 1990-06-04 A T R Tsushin Syst Kenkyusho:Kk 手話言語変換装置
JPH03186979A (ja) * 1989-12-15 1991-08-14 Fujitsu Ltd ニューロコンピュータを用いた手の姿勢認識方式
JPH04134515A (ja) * 1990-09-26 1992-05-08 Dainippon Printing Co Ltd 手話翻訳装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473705A (en) * 1992-03-10 1995-12-05 Hitachi, Ltd. Sign language translation system and method that includes analysis of dependence relationships between successive words
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
JPH06337629A (ja) * 1993-05-31 1994-12-06 Hitachi Ltd 手話認識装置
JPH08115408A (ja) * 1994-10-19 1996-05-07 Hitachi Ltd 手話認識装置
JPH09185708A (ja) * 1995-12-28 1997-07-15 Fujitsu Ltd 相関追跡システム
JPH1026999A (ja) * 1996-07-10 1998-01-27 Nec Shizuoka Ltd 手話翻訳装置
JPH10208023A (ja) * 1997-01-24 1998-08-07 Hitachi Ltd 手話認識装置
JPH11136498A (ja) * 1997-08-29 1999-05-21 Eastman Kodak Co 赤目検出用コンピュータプログラム物
JPH11272161A (ja) * 1998-03-24 1999-10-08 Hitachi Ltd 手話単語辞書作成方法および辞書学習装置
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2003295754A (ja) * 2002-04-05 2003-10-15 Hitachi Ltd 手話教育用システム及び該システムを実現するためのプログラム
JP2008021058A (ja) * 2006-07-12 2008-01-31 Nec Corp 翻訳機能付き携帯電話装置、音声データ翻訳方法、音声データ翻訳プログラムおよびプログラム記録媒体
WO2010137325A1 (ja) * 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
US8682608B2 (en) 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
US9056802B2 (en) 2009-07-31 2015-06-16 General Electric Company Methods for making environmental barrier coatings using sintering aids
US8999457B2 (en) 2009-07-31 2015-04-07 General Electric Company Methods for making environmental barrier coatings using sintering aids
US9005717B2 (en) 2009-07-31 2015-04-14 General Electric Company Methods for making environmental barrier coatings using sintering aids
US9005716B2 (en) 2009-07-31 2015-04-14 General Electric Company Method for making solvent based environmental barrier coatings using sintering aids
US9023435B2 (en) 2009-07-31 2015-05-05 General Electric Company Methods for making water based environmental barrier coatings using sintering aids
US9062564B2 (en) 2009-07-31 2015-06-23 General Electric Company Solvent based slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same
US9073793B2 (en) 2009-07-31 2015-07-07 General Electric Company Slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same
US9212100B2 (en) 2009-07-31 2015-12-15 General Electric Company Environmental barrier coatings for high temperature ceramic components
JP2011154717A (ja) * 2011-04-18 2011-08-11 Toshiba Corp 顔画像処理装置
JP2020013599A (ja) * 2014-12-08 2020-01-23 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
CN111582039A (zh) * 2020-04-13 2020-08-25 清华大学 基于深度学习与大数据的手语识别与转换系统及方法
CN112201116A (zh) * 2020-09-29 2021-01-08 深圳市优必选科技股份有限公司 一种逻辑板识别方法、装置及终端设备

Also Published As

Publication number Publication date
JP3346799B2 (ja) 2002-11-18

Similar Documents

Publication Publication Date Title
JP3346799B2 (ja) 手話通訳装置
US5887069A (en) Sign recognition apparatus and method and sign translation system using same
Oviatt Multimodal interfaces
Ong et al. Automatic sign language analysis: A survey and the future beyond lexical meaning
Morency et al. Head gestures for perceptual interfaces: The role of context in improving recognition
Kryvonos et al. New tools of alternative communication for persons with verbal communication disorders
Ryumin et al. Towards automatic recognition of sign language gestures using kinect 2.0
Vo A framework and toolkit for the construction of multimodal learning interfaces
EP0585098B1 (en) Sign recognition apparatus and method and sign translation system using same
Koguchi et al. A mobile command input through vowel lip shape recognition
Smith et al. Multimodal input for computer access and augmentative communication
Sagawa et al. Pattern recognition and synthesis for a sign language translation system
Shashidhar et al. Indian sign language recognition using 2-d convolution neural network and graphical user interface
JP2003522978A (ja) 手話を音声へ変換する方法及び装置
Choudhury et al. Visual gesture-based character recognition systems for design of assistive technologies for people with special necessities
Khambaty et al. Cost effective portable system for sign language gesture recognition
Balayn et al. Data-driven development of virtual sign language communication agents
Bin Munir et al. A machine learning based sign language interpretation system for communication with deaf-mute people
Navarretta Predicting emotions in facial expressions from the annotations in naturally occurring first encounters
Modanwal et al. Utilizing gestures to enable visually impaired for computer interaction
JPH06337627A (ja) 手話通訳装置
Czyzewski et al. Intelligent video and audio applications for learning enhancement
Moustafa et al. Arabic Sign Language Recognition Systems: A Systematic Review
Alam et al. A machine learning based sign language interpretation system for communication with deaf-mute people
Prakash et al. Action Recognition to Sign Language Recognition using Machine Learning Techniques

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

EXPY Cancellation because of completion of term