JP3435175B2 - 手話学習装置 - Google Patents
手話学習装置Info
- Publication number
- JP3435175B2 JP3435175B2 JP23562792A JP23562792A JP3435175B2 JP 3435175 B2 JP3435175 B2 JP 3435175B2 JP 23562792 A JP23562792 A JP 23562792A JP 23562792 A JP23562792 A JP 23562792A JP 3435175 B2 JP3435175 B2 JP 3435175B2
- Authority
- JP
- Japan
- Prior art keywords
- sign language
- input
- learning
- information used
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000004044 response Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 40
- 230000008921 facial expression Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/009—Teaching or communicating with deaf persons
Landscapes
- Engineering & Computer Science (AREA)
- Educational Administration (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【0001】
【産業上の利用分野】本発明は、手話の学習で用いられ
る情報を格納し、検索して出力して、手話の学習を、効
果的に行なう手話学習装置に関する。
る情報を格納し、検索して出力して、手話の学習を、効
果的に行なう手話学習装置に関する。
【0002】
【従来の技術】手話は聴覚障害者のコミュニケーション
手段として発達した、独自の体系を持つジェスチャ言語
である。従来、手話の学習では手話の具体的な方法を写
真やイラストで説明した教科書や、画像を記録したビデ
オテープなどが用いられてきた。
手段として発達した、独自の体系を持つジェスチャ言語
である。従来、手話の学習では手話の具体的な方法を写
真やイラストで説明した教科書や、画像を記録したビデ
オテープなどが用いられてきた。
【0003】
【発明が解決しようとする課題】上記従来技術のうち、
教科書などの本の場合は、手話の動作を大まかに表すこ
とはできるが、空間上の位置関係や、緩急の微妙なタイ
ミングなどを正確に表すことが難しいという問題があっ
た。
教科書などの本の場合は、手話の動作を大まかに表すこ
とはできるが、空間上の位置関係や、緩急の微妙なタイ
ミングなどを正確に表すことが難しいという問題があっ
た。
【0004】また、ビデオテープなどの映像記録媒体の
場合は、一連の動作を正確に表すことはできるが、欲し
い情報を速く探しだしたり、いろいろな方向から視点を
変えて見たり、左利きの人のために左右逆の動作に置き
換えたりするなど学習者の要求に合った形での表示を行
なうことはできなかった。
場合は、一連の動作を正確に表すことはできるが、欲し
い情報を速く探しだしたり、いろいろな方向から視点を
変えて見たり、左利きの人のために左右逆の動作に置き
換えたりするなど学習者の要求に合った形での表示を行
なうことはできなかった。
【0005】また、ある手話の動作がどのような意味を
持つのか、あるいは、似たような動作の手話がほかにな
いかなどを調べようとすると、一々動作内容を比較して
みないと分からないため、探し出すのが非常に困難であ
るという問題があった。
持つのか、あるいは、似たような動作の手話がほかにな
いかなどを調べようとすると、一々動作内容を比較して
みないと分からないため、探し出すのが非常に困難であ
るという問題があった。
【0006】ところで、手話は地域差や個人差が大きい
のに加えて、常に新しい言葉が生まれて変化していくの
であるが、従来の技術では、学習者が自分で新しい言葉
を追加して教材として拡張していくのは非常に困難であ
った。
のに加えて、常に新しい言葉が生まれて変化していくの
であるが、従来の技術では、学習者が自分で新しい言葉
を追加して教材として拡張していくのは非常に困難であ
った。
【0007】また、学習者がどの程度手話を覚えたかテ
ストをすることもできなかった。
ストをすることもできなかった。
【0008】本発明の目的は、学習者が欲しい手話の情
報を速く正確に、しかも個々の学習者の要求に合った形
で得ることのできる学習効果の高い手話学習装置を提供
することにある。
報を速く正確に、しかも個々の学習者の要求に合った形
で得ることのできる学習効果の高い手話学習装置を提供
することにある。
【0009】本発明のさらに他の目的は、個々の学習者
が自分で情報を容易に追加登録することのできる拡張性
の高い手話学習装置を提供することにある。
が自分で情報を容易に追加登録することのできる拡張性
の高い手話学習装置を提供することにある。
【0010】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明は登録および検索を行える手話学習装置と
し、以下の構成を採った。
めに、本発明は登録および検索を行える手話学習装置と
し、以下の構成を採った。
【0011】検索時には、自然語または手話を入力、登
録時には、手話の学習で用いられる情報を入力する入力
手段と、手話の学習で用いられる情報を保持する手段
と、検索時に入力した自然語または手話から、保持して
いる手話の学習で用いられる情報を検索する手段と、登
録時に入力した手話の学習で用いられる情報を登録する
手段と、検索または登録された手話の学習で用いられる
情報を学習者の要求に合わせて出力する手段とを備え
た。
録時には、手話の学習で用いられる情報を入力する入力
手段と、手話の学習で用いられる情報を保持する手段
と、検索時に入力した自然語または手話から、保持して
いる手話の学習で用いられる情報を検索する手段と、登
録時に入力した手話の学習で用いられる情報を登録する
手段と、検索または登録された手話の学習で用いられる
情報を学習者の要求に合わせて出力する手段とを備え
た。
【0012】また、手話の学習で用いる情報を保持する
手段は、手話の最小構成単位である形態素の辞書と、形
態素の組合せによって作られる単語の辞書とで構成する
ことも可能である。
手段は、手話の最小構成単位である形態素の辞書と、形
態素の組合せによって作られる単語の辞書とで構成する
ことも可能である。
【0013】さらに、手話の学習で用いられる情報を学
習者の要求に合わせて出力する手段で、手話の動作を表
わす際に、左右対象の置換をすることも可能である。
習者の要求に合わせて出力する手段で、手話の動作を表
わす際に、左右対象の置換をすることも可能である。
【0014】さらに、手話の動作を出力するスピードを
換えることもできる。
換えることもできる。
【0015】また、検索時に言語種類を指定することに
より指定された言語の手話へ変換して出力することも可
能である。
より指定された言語の手話へ変換して出力することも可
能である。
【0016】さらに、学習者が理解できたかテストを行
なう機能を設けることも可能である。
なう機能を設けることも可能である。
【0017】
【作用】手話の学習で用いられる情報を保持し、参照し
たいデータを見出し語または内容との比較により検索
し、学習者の要求に合わせて視点を変更したり、人物を
変更したり、右利きまたは左利き向きに変更したり、表
情を付けたり、表示速度を変えて見ることができるの
で、学習者が欲しい情報を速く正確に知ることができ
る。また、手話の学習で用いられる情報を形態素と、単
語に分けて保持することにより、登録手続きを簡単に行
えるとともに、格納スペースを効率よく使用することが
できる。また、手話データを共通辞書と個人辞書に分け
て保持することにより、各ユーザの特性に容易に適合さ
せることができる。また、音声による入出力手段を持つ
ことにより、学習の効率と効果を高めることができる。
たいデータを見出し語または内容との比較により検索
し、学習者の要求に合わせて視点を変更したり、人物を
変更したり、右利きまたは左利き向きに変更したり、表
情を付けたり、表示速度を変えて見ることができるの
で、学習者が欲しい情報を速く正確に知ることができ
る。また、手話の学習で用いられる情報を形態素と、単
語に分けて保持することにより、登録手続きを簡単に行
えるとともに、格納スペースを効率よく使用することが
できる。また、手話データを共通辞書と個人辞書に分け
て保持することにより、各ユーザの特性に容易に適合さ
せることができる。また、音声による入出力手段を持つ
ことにより、学習の効率と効果を高めることができる。
【0018】
【実施例】以下、本発明の実施例を図1から図9を用い
て説明する。
て説明する。
【0019】図1は、本発明の一実施例を示すシステム
構成図で、1は手話データを保持する手話辞書、2は手
話辞書1から手話データを検索する辞書検索手段、3は
手話辞書1に手話データを格納する辞書登録手段、4は
キーボード等の文字入力装置、5は音声認識により入力
する音声入力装置、6は手話の動作を時系列データとし
て入力する手話入力装置、7は顔の表情を認識して入力
する表情入力装置、8は検索及び登録の入力および結果
を表示する表示出力装置、9は検索及び登録の入力およ
び結果を音声合成で出力する音声出力装置である。
構成図で、1は手話データを保持する手話辞書、2は手
話辞書1から手話データを検索する辞書検索手段、3は
手話辞書1に手話データを格納する辞書登録手段、4は
キーボード等の文字入力装置、5は音声認識により入力
する音声入力装置、6は手話の動作を時系列データとし
て入力する手話入力装置、7は顔の表情を認識して入力
する表情入力装置、8は検索及び登録の入力および結果
を表示する表示出力装置、9は検索及び登録の入力およ
び結果を音声合成で出力する音声出力装置である。
【0020】図2は、手話辞書1の構成要素の1つであ
る単語辞書の構成と具体例を示す図で、111は単語の
見だし、112は単語が用いられる分野の種類を表す種
別、113は手話データがどの国のどの種類の手話のも
のなのかを表す言語種別、114は単語を表わす形態素
の組合せ表現、115は手話の語源、注意事項等補足情
報を格納するテキストである。
る単語辞書の構成と具体例を示す図で、111は単語の
見だし、112は単語が用いられる分野の種類を表す種
別、113は手話データがどの国のどの種類の手話のも
のなのかを表す言語種別、114は単語を表わす形態素
の組合せ表現、115は手話の語源、注意事項等補足情
報を格納するテキストである。
【0021】図3は、手話辞書1の構成要素の1つであ
る形態素辞書の構成と具体例を示す図で、121は形態
素の見だし、122は手話の手の動きの時系列データの
特徴を分類した分類種別、123は手話のときの顔の表
情の特徴を分類した表情種別、124は手話の手の動き
の時系列データである。
る形態素辞書の構成と具体例を示す図で、121は形態
素の見だし、122は手話の手の動きの時系列データの
特徴を分類した分類種別、123は手話のときの顔の表
情の特徴を分類した表情種別、124は手話の手の動き
の時系列データである。
【0022】図9は、手話入力装置6から入力される時
系列データのデータ構造の詳細を表す図で、右手の状態
に関するデータ610と左手の状態に関するデータ62
0の一定時間間隔毎の履歴を格納するテーブルである。
なお、手話データ入力装置6は、手の各指の曲がり具
合、手の位置、および向きを計測するセンサ61と、電
気信号に変換する接続装置62とからなるもので、よく
知られている。601、602、および603は各々サ
ンプリング時刻T0、T1、およびTnにおける右手デ
ータ610と左手データ620の格納場所を示す。61
1は右手の第1指の第1関節の角度を表すデータ、61
2は右手の第1指の第2関節の角度を表すデータ、61
3は右手のx座標の位置を表すデータ、614は右手の
y座標の位置を表すデータ、615は右手のz座標の位
置を表すデータ、616は右手の向きのx軸との角度を
表すデータ、617は右手の向きのy軸との角度を表す
データ、618は右手の向きのz軸との角度を表すデー
タである。
系列データのデータ構造の詳細を表す図で、右手の状態
に関するデータ610と左手の状態に関するデータ62
0の一定時間間隔毎の履歴を格納するテーブルである。
なお、手話データ入力装置6は、手の各指の曲がり具
合、手の位置、および向きを計測するセンサ61と、電
気信号に変換する接続装置62とからなるもので、よく
知られている。601、602、および603は各々サ
ンプリング時刻T0、T1、およびTnにおける右手デ
ータ610と左手データ620の格納場所を示す。61
1は右手の第1指の第1関節の角度を表すデータ、61
2は右手の第1指の第2関節の角度を表すデータ、61
3は右手のx座標の位置を表すデータ、614は右手の
y座標の位置を表すデータ、615は右手のz座標の位
置を表すデータ、616は右手の向きのx軸との角度を
表すデータ、617は右手の向きのy軸との角度を表す
データ、618は右手の向きのz軸との角度を表すデー
タである。
【0023】次に図4、図5、図6、図7、図8を用い
て、本実施例の動作を説明する。
て、本実施例の動作を説明する。
【0024】はじめに、手話辞書1から手話データを検
索し、出力する動作を説明する。図7は、検索時に表示
出力装置8のディスプレイ83に表示される画面の具体
例を示す図である。701から721までは、検索の指
示または結果のデータを表す入出力エリアであり、70
1は言語種別113の入出力エリア、702は分野種別
112の入出力エリア、703は単語111の入出力エ
リア、704は形態素列114の入出力エリア、705
は検索入力の装置として文字入力装置4、音声入力装置
5、手話入力装置6のいずれを用いるかを指示する入出
力エリア、706は検索の条件として単語全体で一致す
るものを探すのか、あるいは単語の一部に指定された形
態素を含むものを探すのかを指示する入出力エリア、7
07は検索処理の指示を表す入出力エリア、708は登
録処理の指示を表す入出力エリア、709は検索結果の
報告を表す出力エリア、710はテキスト115を表示
する出力エリア、711は時系列データ124、および
表情種別123から生成される手話の画像データを表示
する出力エリア、712から721までは取り込んだ画
像データの表示方法を制御する入出力エリアで、712
は表示すべきデータの長さにたいして現在表示している
点の時間的な位置を表示制御する入出力エリア、713
は表示の開始を指示する入出力エリア、714は表示の
停止を指示する入出力エリア、715は表示の繰返しを
指示する入出力エリア、716は表示速度を遅くするこ
とを指示する入出力エリア、717は手話の動作を表示
するとき正面から見た姿を表示するのか、あるいは手話
を行う人物の立場にたって表示するのかを切り替える指
示を与える入出力エリア、718は手話の動作を表示す
るとき視点の高さを上下方向に変化させる指示を与える
入出力エリア、719は同様に左右方向に変化させる指
示を与える入出力エリア、720は手話動作を行う人物
を好みの人物に切り替える指示を与える入出力エリア、
721は手話動作を行う人物の右利き左利きを切り替え
る指示を与える入出力エリアである。
索し、出力する動作を説明する。図7は、検索時に表示
出力装置8のディスプレイ83に表示される画面の具体
例を示す図である。701から721までは、検索の指
示または結果のデータを表す入出力エリアであり、70
1は言語種別113の入出力エリア、702は分野種別
112の入出力エリア、703は単語111の入出力エ
リア、704は形態素列114の入出力エリア、705
は検索入力の装置として文字入力装置4、音声入力装置
5、手話入力装置6のいずれを用いるかを指示する入出
力エリア、706は検索の条件として単語全体で一致す
るものを探すのか、あるいは単語の一部に指定された形
態素を含むものを探すのかを指示する入出力エリア、7
07は検索処理の指示を表す入出力エリア、708は登
録処理の指示を表す入出力エリア、709は検索結果の
報告を表す出力エリア、710はテキスト115を表示
する出力エリア、711は時系列データ124、および
表情種別123から生成される手話の画像データを表示
する出力エリア、712から721までは取り込んだ画
像データの表示方法を制御する入出力エリアで、712
は表示すべきデータの長さにたいして現在表示している
点の時間的な位置を表示制御する入出力エリア、713
は表示の開始を指示する入出力エリア、714は表示の
停止を指示する入出力エリア、715は表示の繰返しを
指示する入出力エリア、716は表示速度を遅くするこ
とを指示する入出力エリア、717は手話の動作を表示
するとき正面から見た姿を表示するのか、あるいは手話
を行う人物の立場にたって表示するのかを切り替える指
示を与える入出力エリア、718は手話の動作を表示す
るとき視点の高さを上下方向に変化させる指示を与える
入出力エリア、719は同様に左右方向に変化させる指
示を与える入出力エリア、720は手話動作を行う人物
を好みの人物に切り替える指示を与える入出力エリア、
721は手話動作を行う人物の右利き左利きを切り替え
る指示を与える入出力エリアである。
【0025】図4は、本実施例の検索制御部21の動作
を表す図である。入出力エリア707で検索が指示され
ると動作が起動される。
を表す図である。入出力エリア707で検索が指示され
ると動作が起動される。
【0026】ステップ2101では入出力エリア705
の入力方法を判定し、音声入力の場合はステップ210
2に、文字入力の場合はステップ2103に、手話入力
の場合はステップ2104に進む。
の入力方法を判定し、音声入力の場合はステップ210
2に、文字入力の場合はステップ2103に、手話入力
の場合はステップ2104に進む。
【0027】ステップ2102では、音声入力装置5か
ら検索に必要な情報を音声認識により取り込み、入出力
エリア703と704とにセットする。入出力エリア7
01と702にはデフォールト値がセットされている
が、ユーザが書替えを指示した場合はセットしなおす。
ら検索に必要な情報を音声認識により取り込み、入出力
エリア703と704とにセットする。入出力エリア7
01と702にはデフォールト値がセットされている
が、ユーザが書替えを指示した場合はセットしなおす。
【0028】ステップ2103では、同様に文字入力装
置4から検索に必要な情報を取り込み、入出力エリア7
03と704とにセットする。
置4から検索に必要な情報を取り込み、入出力エリア7
03と704とにセットする。
【0029】ステップ2104では、手話入力装置6か
ら時系列データを取り込む。
ら時系列データを取り込む。
【0030】ステップ2105では、時系列データを分
類器23を用いてパタン分類し分類種別を得る。また、
この方法のほかにも、統計的な手法によるものやニュー
ラルネットワークを用いた方法など様々な方法が適用可
能であり、本発明は特定のパタン分類方法によって制限
されるものではない。
類器23を用いてパタン分類し分類種別を得る。また、
この方法のほかにも、統計的な手法によるものやニュー
ラルネットワークを用いた方法など様々な方法が適用可
能であり、本発明は特定のパタン分類方法によって制限
されるものではない。
【0031】ステップ2106では、ステップ2105
で得られた分類種別をキーとして、形態素辞書12の分
類種別122を比較器22を用いて比較し、同じ分類種
別となる形態素121を検索する。見つかった形態素は
入出力エリア703と704とにセットする。
で得られた分類種別をキーとして、形態素辞書12の分
類種別122を比較器22を用いて比較し、同じ分類種
別となる形態素121を検索する。見つかった形態素は
入出力エリア703と704とにセットする。
【0032】ステップ2107では、入出力エリア70
6の検索条件を判定し、全体一致の場合はステップ21
08に、部分一致の場合はステップ2109に進む。
6の検索条件を判定し、全体一致の場合はステップ21
08に、部分一致の場合はステップ2109に進む。
【0033】ステップ2108では、入出力エリア70
3の単語をキーとして単語辞書11の単語111を比較
器22を用いて比較し、同じ見出しの単語を見つける。
また検索の結果のメッセージを出力エリア709にセッ
トする。
3の単語をキーとして単語辞書11の単語111を比較
器22を用いて比較し、同じ見出しの単語を見つける。
また検索の結果のメッセージを出力エリア709にセッ
トする。
【0034】ステップ2109では、入出力エリア70
4の各形態素をキーとして単語辞書11の形態素列11
4を比較器22を用いて比較し、入出力エリア704の
形態素をその一部に含む単語を見つける。また検索の結
果のメッセージを出力エリア709にセットする。
4の各形態素をキーとして単語辞書11の形態素列11
4を比較器22を用いて比較し、入出力エリア704の
形態素をその一部に含む単語を見つける。また検索の結
果のメッセージを出力エリア709にセットする。
【0035】続いて、表示出力制御部81が起動され、
図6の表示処理が開始される。以下、図6を用いて表示
処理を説明する。
図6の表示処理が開始される。以下、図6を用いて表示
処理を説明する。
【0036】ステップ8101では、画像データの表示
方法を制御する入出力エリア717から721までの内
容にしたがって画像合成のためのパラメータを準備す
る。
方法を制御する入出力エリア717から721までの内
容にしたがって画像合成のためのパラメータを準備す
る。
【0037】ステップ8102では、入出力エリア71
3を監視し、開始が指示されるのを待つ。開始が指示さ
れると、ステップ8103に進む。
3を監視し、開始が指示されるのを待つ。開始が指示さ
れると、ステップ8103に進む。
【0038】ステップ8103では、まず音声出力装置
9に入出力エリア703の単語見出しと、出力エリア7
10のテキストの情報を送って音声出力する。例えば、
図7の場合は、「育児」「子供を育てる仕草」というよ
うに音声出力する。次に、入出力エリア704の中の先
頭の形態素のデータを形態素辞書12から取ってくる。
例えば、図7の場合は「子供」の形態素データを取って
くる。次に、形態素データの見出し121を音声出力装
置9に送って音声出力する。図7の場合は、「子供」が
音声出力される。
9に入出力エリア703の単語見出しと、出力エリア7
10のテキストの情報を送って音声出力する。例えば、
図7の場合は、「育児」「子供を育てる仕草」というよ
うに音声出力する。次に、入出力エリア704の中の先
頭の形態素のデータを形態素辞書12から取ってくる。
例えば、図7の場合は「子供」の形態素データを取って
くる。次に、形態素データの見出し121を音声出力装
置9に送って音声出力する。図7の場合は、「子供」が
音声出力される。
【0039】ステップ8104では、形態素データの表
情種別123と時系列データ124とから、ステップ8
101で準備したパラメータに従って、画像合成部82
を用いて1フレーム分の手話の画像を生成し出力エリア
711に表示出力する。
情種別123と時系列データ124とから、ステップ8
101で準備したパラメータに従って、画像合成部82
を用いて1フレーム分の手話の画像を生成し出力エリア
711に表示出力する。
【0040】画像合成部82の処理に関しては、コンピ
ュータグラフィックスの分野ですでによく知られた方法
が用いられている。手話の手の形状生成に関しては、例
えば、情報処理学会研究会報告Vol.90,No.6
6(90−CG−46)46−6(1990年8月17
日〜18日),第37頁から第42頁までに述べられて
いるように、手のモデルを隣接する関節を結ぶ骨格と、
骨格に付随する多面体とによって定義し、それぞれの骨
格に付随する多面体を、骨格の動きに追従させることに
より関節角の変化に応じた手の形状を生成することがで
きる。この文献で論じられているように、手の動作過程
に応じて多面体の接続面と接続面の間隔を制御する処理
を行えば、よりリアリスティックな形状が生成できる。
ュータグラフィックスの分野ですでによく知られた方法
が用いられている。手話の手の形状生成に関しては、例
えば、情報処理学会研究会報告Vol.90,No.6
6(90−CG−46)46−6(1990年8月17
日〜18日),第37頁から第42頁までに述べられて
いるように、手のモデルを隣接する関節を結ぶ骨格と、
骨格に付随する多面体とによって定義し、それぞれの骨
格に付随する多面体を、骨格の動きに追従させることに
より関節角の変化に応じた手の形状を生成することがで
きる。この文献で論じられているように、手の動作過程
に応じて多面体の接続面と接続面の間隔を制御する処理
を行えば、よりリアリスティックな形状が生成できる。
【0041】また、顔の表情の生成については、例え
ば、情報処理学会研究会報告Vol.90,No.65
(90−CG−45)45−5(1970年7月20
日),第1頁から第8頁までに述べられているように、
顔の表面上の点を表情特有の変形量で動かすことによ
り、複雑な表情を生成できる。
ば、情報処理学会研究会報告Vol.90,No.65
(90−CG−45)45−5(1970年7月20
日),第1頁から第8頁までに述べられているように、
顔の表面上の点を表情特有の変形量で動かすことによ
り、複雑な表情を生成できる。
【0042】このようにして生成した体の部品を組み合
わせることにより手話の画像を生成する。
わせることにより手話の画像を生成する。
【0043】ステップ8105では、入出力エリア71
4を調べ、停止が指示されているときはステップ810
6に進み一時停止し、停止が指示されていないときは直
ちにステップ8107に進む。
4を調べ、停止が指示されているときはステップ810
6に進み一時停止し、停止が指示されていないときは直
ちにステップ8107に進む。
【0044】ステップ8106では、入出力エリア71
3を監視し、再開始が指示されるのを待つ。
3を監視し、再開始が指示されるのを待つ。
【0045】ステップ8107では、形態素データの時
系列データ124がすべて出力し終ったかどうか判定
し、まだ残りがあればステップ8108へ進む。また、
残りがなければ、ステップ8110に進む。
系列データ124がすべて出力し終ったかどうか判定
し、まだ残りがあればステップ8108へ進む。また、
残りがなければ、ステップ8110に進む。
【0046】ステップ8108では、入出力エリア71
6を調べて、スロー表示が指示されているかどうか判定
する。スロー表示の場合は、ステップ8109で一定時
間を費やしてから次の画面のフレームの表示動作に進
む。スロー表示でない通常のスピードの表示の場合は、
直ちに次のフレームの表示動作に進む。
6を調べて、スロー表示が指示されているかどうか判定
する。スロー表示の場合は、ステップ8109で一定時
間を費やしてから次の画面のフレームの表示動作に進
む。スロー表示でない通常のスピードの表示の場合は、
直ちに次のフレームの表示動作に進む。
【0047】ステップ8110では、入出力エリア70
4の中の形態素をすべて出力し終ったかどうか判定し、
終了であればステップ8111に進む。また終了であれ
ば、ステップ8112に進む。
4の中の形態素をすべて出力し終ったかどうか判定し、
終了であればステップ8111に進む。また終了であれ
ば、ステップ8112に進む。
【0048】ステップ8111では、入出力エリア70
4の中の次の形態素を形態素辞書12から取ってくる。
次に、形態素データの見出し121を音声出力装置9に
送って音声出力する。次に、ステップ8104に戻り、
形態素データの出力を始める。
4の中の次の形態素を形態素辞書12から取ってくる。
次に、形態素データの見出し121を音声出力装置9に
送って音声出力する。次に、ステップ8104に戻り、
形態素データの出力を始める。
【0049】ステップ8112では、入出力エリア71
5を調べ繰返し表示が指示されているかどうか判定す
る。繰返し表示が指示されているときは、ステップ81
03に戻る。指示されていなければ、表示処理を終了す
る。
5を調べ繰返し表示が指示されているかどうか判定す
る。繰返し表示が指示されているときは、ステップ81
03に戻る。指示されていなければ、表示処理を終了す
る。
【0050】次に、本実施例で、手話データを手話辞書
1に登録する動作を説明する。
1に登録する動作を説明する。
【0051】図8は、登録時に表示出力装置8のディス
プレイ83に表示される画面の具体例を示す図である。
801から821までは、登録の指示または結果のデー
タを表す入出力エリアであり、801は言語種別113
の入出力エリア、802は分野種別112の入出力エリ
ア、803は単語111の入出力エリア、804は形態
素列114の入出力エリア、805は登録する対象の辞
書を指示する入出力エリア、806は登録する表情種別
123の入出力エリア、807は検索処理の指示を表す
入出力エリア、808は登録処理の指示を表す入出力エ
リア、809は登録結果の報告を表す出力エリア、81
0はテキスト115を表示する入出力エリア、811は
登録する時系列データ124、および表情種別123か
ら生成される手話の画像データを表示する出力エリア、
812から821までは画像データの表示方法を制御す
る入出力エリアで、図8の場合と同様である。
プレイ83に表示される画面の具体例を示す図である。
801から821までは、登録の指示または結果のデー
タを表す入出力エリアであり、801は言語種別113
の入出力エリア、802は分野種別112の入出力エリ
ア、803は単語111の入出力エリア、804は形態
素列114の入出力エリア、805は登録する対象の辞
書を指示する入出力エリア、806は登録する表情種別
123の入出力エリア、807は検索処理の指示を表す
入出力エリア、808は登録処理の指示を表す入出力エ
リア、809は登録結果の報告を表す出力エリア、81
0はテキスト115を表示する入出力エリア、811は
登録する時系列データ124、および表情種別123か
ら生成される手話の画像データを表示する出力エリア、
812から821までは画像データの表示方法を制御す
る入出力エリアで、図8の場合と同様である。
【0052】図5は、本実施例の登録制御部31の動作
を表す図である。入出力エリア807で検索が指示され
ると動作が起動される。
を表す図である。入出力エリア807で検索が指示され
ると動作が起動される。
【0053】ステップ3101では、形態素辞書12の
みの登録なのか、単語辞書11と形態素辞書12の両方
の登録なのかを入出力エリア805により判定する。形
態素辞書12のみの登録の場合は、単語辞書11の登録
をスキップしてステップ3105に進む。
みの登録なのか、単語辞書11と形態素辞書12の両方
の登録なのかを入出力エリア805により判定する。形
態素辞書12のみの登録の場合は、単語辞書11の登録
をスキップしてステップ3105に進む。
【0054】ステップ3102では、文字入力装置4か
ら単語辞書11に登録すべき情報、すなわち、入出力エ
リア801から804までおよび810を入力し、単語
辞書11に新しい見出し単語111を作成し、分野情報
112、言語種別113、形態素列114、テキスト1
15を格納する。
ら単語辞書11に登録すべき情報、すなわち、入出力エ
リア801から804までおよび810を入力し、単語
辞書11に新しい見出し単語111を作成し、分野情報
112、言語種別113、形態素列114、テキスト1
15を格納する。
【0055】ステップ3103では、入出力エリア80
4で指定された形態素がすべて形態素辞書12にあるか
どうか比較器32を用いて調べる。もし形態素がすべて
あれば登録処理を終了する。もしなければステップ31
05に進み形態素辞書12への登録を行う。
4で指定された形態素がすべて形態素辞書12にあるか
どうか比較器32を用いて調べる。もし形態素がすべて
あれば登録処理を終了する。もしなければステップ31
05に進み形態素辞書12への登録を行う。
【0056】ステップ3105では、形態素辞書12に
未登録の形態素にたいして手話入力装置6を用いて手の
動きを入力し、時系列データ124として格納する。
未登録の形態素にたいして手話入力装置6を用いて手の
動きを入力し、時系列データ124として格納する。
【0057】ステップ3106では、形態素の時系列デ
ータ124を分類器33を用いて分類種別122を求め
形態素辞書12に格納する。分類器33の動作は、既に
述べた分類器23の動作と同じである。
ータ124を分類器33を用いて分類種別122を求め
形態素辞書12に格納する。分類器33の動作は、既に
述べた分類器23の動作と同じである。
【0058】ステップ3107では、表情入力装置7の
カメラ71から入力した顔の表情表情認識部72により
認識し、その結果を形態素辞書12の表情種別123に
格納する。顔の表情の認識方法については、例えば、電
子情報通信学会秋季全国大会D−408(1990
年),第6−410頁に述べられている方法が知られて
いる。
カメラ71から入力した顔の表情表情認識部72により
認識し、その結果を形態素辞書12の表情種別123に
格納する。顔の表情の認識方法については、例えば、電
子情報通信学会秋季全国大会D−408(1990
年),第6−410頁に述べられている方法が知られて
いる。
【0059】登録処理が終了すると、図6の表示処理を
行い、登録した手話データを表示する。この表示処理に
ついては、既に述べた検索処理と同じである。
行い、登録した手話データを表示する。この表示処理に
ついては、既に述べた検索処理と同じである。
【0060】以上述べたごとく、本実施例によれば手話
データの検索、登録、表示が可能となる。
データの検索、登録、表示が可能となる。
【0061】本実施例では、手話入力装置6はセンサ6
1を用いるものであるが、カメラを用いて画像によりデ
ータを取り込むことも可能である。
1を用いるものであるが、カメラを用いて画像によりデ
ータを取り込むことも可能である。
【0062】また、表情入力装置7は、あらかじめ表情
の型をメニューに登録しておき、メニュー選択により表
情種別123を入力することもできる。
の型をメニューに登録しておき、メニュー選択により表
情種別123を入力することもできる。
【0063】また、手話辞書1を学習者共通に使われる
基本辞書と、各学習者固有の個人辞書とで構成すること
もできる。
基本辞書と、各学習者固有の個人辞書とで構成すること
もできる。
【0064】また、図4の検索処理で入出力エリア70
3及び704を指定せずに検索することにより、入出力
エリア702で指定された分野種別の単語をランダムに
検索表示することもできる。また、入出力エリア703
及び704に「?」指定することにより、入出力エリア
703及び704への表示を一定時間遅らせることがで
きる。これらの検索方法を用いることにより、特定分野
の単語のみを集中的に学習したり、学習したことを覚え
たかテストすることができる。
3及び704を指定せずに検索することにより、入出力
エリア702で指定された分野種別の単語をランダムに
検索表示することもできる。また、入出力エリア703
及び704に「?」指定することにより、入出力エリア
703及び704への表示を一定時間遅らせることがで
きる。これらの検索方法を用いることにより、特定分野
の単語のみを集中的に学習したり、学習したことを覚え
たかテストすることができる。
【0065】また、入出力エリア701の言語種別を変
更して検索することにより、他の言語、方言での手話と
比較しながら学習することもできる。
更して検索することにより、他の言語、方言での手話と
比較しながら学習することもできる。
【0066】
【発明の効果】本発明によれば、学習者が欲しい手話の
情報を速く正確に、しかも個々の学習者の要求に合った
形で得ることができるとともに、個々の学習者が自分で
容易に追加登録することができるので、学習効果が著し
く向上する。
情報を速く正確に、しかも個々の学習者の要求に合った
形で得ることができるとともに、個々の学習者が自分で
容易に追加登録することができるので、学習効果が著し
く向上する。
【図1】本発明の一実施例のシステム構成図である。
【図2】単語辞書の構成を表す図である。
【図3】形態素辞書の構成を表す図である。
【図4】検索処理を示す図である。
【図5】登録処理を示す図である。
【図6】表示処理を示す図である。
【図7】検索表示出力の具体例を表す図である。
【図8】登録表示出力の具体例を表す図である。
【図9】手話入力データの構造を示す図である。
フロントページの続き
(72)発明者 市川 熹
東京都国分寺市東恋ケ窪1丁目280番地
株式会社日立製作所中央研究所内
(72)発明者 井上 潔
東京都国分寺市東恋ケ窪1丁目280番地
株式会社日立製作所中央研究所内
(72)発明者 新井 清志
東京都国分寺市東恋ケ窪1丁目280番地
株式会社日立製作所中央研究所内
(72)発明者 志村 隆則
東京都国分寺市東恋ケ窪1丁目280番地
株式会社日立製作所中央研究所内
(72)発明者 戸田 裕二
東京都国分寺市東恋ケ窪1丁目280番地
株式会社日立製作所中央研究所内
(56)参考文献 特開 平3−288276(JP,A)
(58)調査した分野(Int.Cl.7,DB名)
G09B 21/00
Claims (4)
- 【請求項1】手話の学習で用いられる情報の検索または
登録を行う手話学習装置において、検索時には、自然語
または手話のうち少なくともいずれか一方を入力して、
登録時には、手話の学習で用いられる情報を入力する入
力手段と、手話の学習で用いられる情報を手話の最小単
位である形態素の辞書および上記形態素の組合せにて表
わされる単語の辞書で構成して保持する保持手段と、検
索時に上記入力手段により入力した自然語または手話の
うちいずれか一方をもとに上記保持手段に保持している
手話の学習で用いられる情報を検索する検索手段と、登
録時に上記入力手段により入力された上記手話の学習で
用いられる情報を上記保持手段に登録する登録手段と、
上記検索手段にて検索された手話の学習で用いられる情
報または上記登録手段にて登録された手話の学習で用い
られる情報を出力する手段とを備えたことを特徴とする
手話学習装置。 - 【請求項2】上記出力する手段は、学習者の要求に応じ
た視点から見える手話の動作を出力することを特徴とす
る請求項1に記載の手話学習装置。 - 【請求項3】上記出力する手段は、手話の動作の速度を
学習者の要求に応じて、変えることを特徴とする請求項
1に記載の手話学習装置。 - 【請求項4】手話の学習で用いられる情報の検索を行う
手話学習装置において、自然語を入力する入力手段と、
手話の学習で用いられる情報を手話の最小単位である形
態素の辞書および上記形態素の組合せにて表わされる単
語の辞書で構成して保持する保持手段と、上記入力手段
により入力した自然語をもとに上記保持手段に保持して
いる手話の学習で用いられる情報を検索する検索手段
と、上記検索手段にて検索された手話の学習で用いられ
る情報を出力する手段とを備えたことを特徴とする手話
学習装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23562792A JP3435175B2 (ja) | 1992-09-03 | 1992-09-03 | 手話学習装置 |
US08/114,083 US5544050A (en) | 1992-09-03 | 1993-08-31 | Sign language learning system and method |
EP93306994A EP0586259B1 (en) | 1992-09-03 | 1993-09-03 | Sign-language learning system and method |
DE69325620T DE69325620T2 (de) | 1992-09-03 | 1993-09-03 | System und Verfahren zum Lernen der Zeichensprache |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23562792A JP3435175B2 (ja) | 1992-09-03 | 1992-09-03 | 手話学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0683264A JPH0683264A (ja) | 1994-03-25 |
JP3435175B2 true JP3435175B2 (ja) | 2003-08-11 |
Family
ID=16988817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23562792A Expired - Fee Related JP3435175B2 (ja) | 1992-09-03 | 1992-09-03 | 手話学習装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US5544050A (ja) |
EP (1) | EP0586259B1 (ja) |
JP (1) | JP3435175B2 (ja) |
DE (1) | DE69325620T2 (ja) |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5887069A (en) * | 1992-03-10 | 1999-03-23 | Hitachi, Ltd. | Sign recognition apparatus and method and sign translation system using same |
JP3338992B2 (ja) * | 1992-10-29 | 2002-10-28 | 株式会社日立製作所 | 手話/単語変換システム |
US5659764A (en) * | 1993-02-25 | 1997-08-19 | Hitachi, Ltd. | Sign language generation apparatus and sign language translation apparatus |
US5734923A (en) * | 1993-09-22 | 1998-03-31 | Hitachi, Ltd. | Apparatus for interactively editing and outputting sign language information using graphical user interface |
JPH07168851A (ja) * | 1993-12-16 | 1995-07-04 | Canon Inc | 画像表示方法及び装置 |
US5777614A (en) | 1994-10-14 | 1998-07-07 | Hitachi, Ltd. | Editing support system including an interactive interface |
JPH08115408A (ja) * | 1994-10-19 | 1996-05-07 | Hitachi Ltd | 手話認識装置 |
US5982853A (en) * | 1995-03-01 | 1999-11-09 | Liebermann; Raanan | Telephone for the deaf and method of using same |
US5689585A (en) * | 1995-04-28 | 1997-11-18 | Xerox Corporation | Method for aligning a text image to a transcription of the image |
JPH08315185A (ja) * | 1995-05-18 | 1996-11-29 | Hitachi Ltd | 手話編集装置 |
US5890120A (en) * | 1997-05-20 | 1999-03-30 | At&T Corp | Matching, synchronization, and superposition on orginal speaking subject images of modified signs from sign language database corresponding to recognized speech segments |
US6116907A (en) * | 1998-01-13 | 2000-09-12 | Sorenson Vision, Inc. | System and method for encoding and retrieving visual signals |
WO1999046762A1 (en) * | 1998-03-09 | 1999-09-16 | Kelvin Lp | Automatic speech translator |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US20010008561A1 (en) * | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6594632B1 (en) | 1998-11-02 | 2003-07-15 | Ncr Corporation | Methods and apparatus for hands-free operation of a voice recognition system |
US7676372B1 (en) * | 1999-02-16 | 2010-03-09 | Yugen Kaisha Gm&M | Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech |
US8392188B1 (en) | 1999-11-05 | 2013-03-05 | At&T Intellectual Property Ii, L.P. | Method and system for building a phonotactic model for domain independent speech recognition |
US20030191625A1 (en) * | 1999-11-05 | 2003-10-09 | Gorin Allen Louis | Method and system for creating a named entity language model |
US7085720B1 (en) * | 1999-11-05 | 2006-08-01 | At & T Corp. | Method for task classification using morphemes |
US7286984B1 (en) * | 1999-11-05 | 2007-10-23 | At&T Corp. | Method and system for automatically detecting morphemes in a task classification system using lattices |
US6377925B1 (en) | 1999-12-16 | 2002-04-23 | Interactive Solutions, Inc. | Electronic translator for assisting communications |
JP3662519B2 (ja) * | 2000-07-13 | 2005-06-22 | シャープ株式会社 | 光ピックアップ |
US20020111791A1 (en) * | 2001-02-15 | 2002-08-15 | Sony Corporation And Sony Electronics Inc. | Method and apparatus for communicating with people who speak a foreign language |
JP3906729B2 (ja) * | 2002-04-05 | 2007-04-18 | 株式会社日立製作所 | 手話教育用システム及び該システムを実現するためのプログラム |
US20040012643A1 (en) * | 2002-07-18 | 2004-01-22 | August Katherine G. | Systems and methods for visually communicating the meaning of information to the hearing impaired |
US7277858B1 (en) * | 2002-12-20 | 2007-10-02 | Sprint Spectrum L.P. | Client/server rendering of network transcoded sign language content |
CN100343894C (zh) * | 2004-03-15 | 2007-10-17 | 财团法人信谊基金会 | 语音学习系统和方法 |
JP4761568B2 (ja) * | 2004-05-12 | 2011-08-31 | 貴司 吉峰 | 会話支援装置 |
US20060134585A1 (en) * | 2004-09-01 | 2006-06-22 | Nicoletta Adamo-Villani | Interactive animation system for sign language |
US20080195373A1 (en) * | 2007-02-13 | 2008-08-14 | Barbara Ander | Digital Sign Language Translator |
US8566077B2 (en) * | 2007-02-13 | 2013-10-22 | Barbara Ander | Sign language translator |
US20080262512A1 (en) * | 2007-04-02 | 2008-10-23 | Doheny Eye Institute | Thrombolysis In Retinal Vessels With Ultrasound |
US9282377B2 (en) | 2007-05-31 | 2016-03-08 | iCommunicator LLC | Apparatuses, methods and systems to provide translations of information into sign language or other formats |
US8566075B1 (en) * | 2007-05-31 | 2013-10-22 | PPR Direct | Apparatuses, methods and systems for a text-to-sign language translation platform |
US8303309B2 (en) | 2007-07-13 | 2012-11-06 | Measured Progress, Inc. | Integrated interoperable tools system and method for test delivery |
US8280732B2 (en) * | 2008-03-27 | 2012-10-02 | Wolfgang Richter | System and method for multidimensional gesture analysis |
US20100142683A1 (en) * | 2008-12-09 | 2010-06-10 | Stuart Owen Goldman | Method and apparatus for providing video relay service assisted calls with reduced bandwidth |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US20100316978A1 (en) * | 2009-06-09 | 2010-12-16 | James David Goode | Mobile, wireless, hands-free visual/verbal trans-language communication system (acronym:V2V XLC System) |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8467599B2 (en) | 2010-09-02 | 2013-06-18 | Edge 3 Technologies, Inc. | Method and apparatus for confusion learning |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US20130106894A1 (en) | 2011-10-31 | 2013-05-02 | Elwha LLC, a limited liability company of the State of Delaware | Context-sensitive query enrichment |
US20130106893A1 (en) * | 2011-10-31 | 2013-05-02 | Elwah LLC, a limited liability company of the State of Delaware | Context-sensitive query enrichment |
US8793118B2 (en) | 2011-11-01 | 2014-07-29 | PES School of Engineering | Adaptive multimodal communication assist system |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
US10024679B2 (en) | 2014-01-14 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9629774B2 (en) | 2014-01-14 | 2017-04-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10248856B2 (en) | 2014-01-14 | 2019-04-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10360907B2 (en) | 2014-01-14 | 2019-07-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9578307B2 (en) | 2014-01-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9915545B2 (en) | 2014-01-14 | 2018-03-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
WO2015159775A1 (ja) | 2014-04-15 | 2015-10-22 | オリンパス株式会社 | 画像処理装置、通信システム及び通信方法並びに撮像装置 |
US10024667B2 (en) | 2014-08-01 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable earpiece for providing social and environmental awareness |
US10024678B2 (en) | 2014-09-17 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable clip for providing social and environmental awareness |
US9922236B2 (en) | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
US9576460B2 (en) | 2015-01-21 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable smart device for hazard detection and warning based on image and audio data |
US10490102B2 (en) | 2015-02-10 | 2019-11-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for braille assistance |
US9586318B2 (en) | 2015-02-27 | 2017-03-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Modular robot with smart device |
US9677901B2 (en) | 2015-03-10 | 2017-06-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing navigation instructions at optimal times |
US9811752B2 (en) | 2015-03-10 | 2017-11-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable smart device and method for redundant object identification |
US9972216B2 (en) | 2015-03-20 | 2018-05-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for storing and playback of information for blind users |
US10395555B2 (en) * | 2015-03-30 | 2019-08-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing optimal braille output based on spoken and sign language |
US9898039B2 (en) | 2015-08-03 | 2018-02-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Modular smart necklace |
GR1008903B (el) * | 2015-12-31 | 2016-12-05 | ΑΘΗΝΑ-ΕΡΕΥΝΗΤΙΚΟ ΚΕΝΤΡΟ ΚΑΙΝΟΤΟΜΙΑΣ ΣΤΙΣ ΤΕΧΝΟΛΟΓΙΕΣ ΤΗΣ ΠΛΗΡΟΦΟΡΙΑΣ, ΤΩΝ ΕΠΙΚΟΙΝΩΝΙΩΝ ΚΑΙ ΤΗΣ ΓΝΩΣΗΣ με δ.τ. "ΑΘΗΝΑ" | Μεθοδολογια δυναμικης επικοινωνιας σε νοηματικη γλωσσα |
US10024680B2 (en) | 2016-03-11 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Step based guidance system |
US9958275B2 (en) | 2016-05-31 | 2018-05-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for wearable smart device communications |
US10561519B2 (en) | 2016-07-20 | 2020-02-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device having a curved back to reduce pressure on vertebrae |
US10432851B2 (en) | 2016-10-28 | 2019-10-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device for detecting photography |
US10012505B2 (en) | 2016-11-11 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable system for providing walking directions |
US10521669B2 (en) | 2016-11-14 | 2019-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing guidance or feedback to a user |
US10172760B2 (en) | 2017-01-19 | 2019-01-08 | Jennifer Hendrix | Responsive route guidance and identification system |
US10902743B2 (en) * | 2017-04-14 | 2021-01-26 | Arizona Board Of Regents On Behalf Of Arizona State University | Gesture recognition and communication |
US10346198B1 (en) | 2018-02-12 | 2019-07-09 | Avodah Labs, Inc. | Data processing architecture for improved data flow |
WO2019157344A1 (en) | 2018-02-12 | 2019-08-15 | Avodah Labs, Inc. | Real-time gesture recognition method and apparatus |
US10304208B1 (en) | 2018-02-12 | 2019-05-28 | Avodah Labs, Inc. | Automated gesture identification using neural networks |
US10289903B1 (en) * | 2018-02-12 | 2019-05-14 | Avodah Labs, Inc. | Visual sign language translation training device and method |
US10489639B2 (en) | 2018-02-12 | 2019-11-26 | Avodah Labs, Inc. | Automated sign language translation and communication using multiple input and output modalities |
USD912139S1 (en) | 2019-01-28 | 2021-03-02 | Avodah, Inc. | Integrated dual display sensor |
CA3167329A1 (en) * | 2020-02-14 | 2021-08-19 | Victoria Catherine Maude FORREST | Instruction of a sign language |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4307266A (en) * | 1978-08-14 | 1981-12-22 | Messina John D | Communication apparatus for the handicapped |
US4368459A (en) * | 1980-12-16 | 1983-01-11 | Robert Sapora | Educational apparatus and method for control of deaf individuals in a mixed teaching environment |
US4414537A (en) * | 1981-09-15 | 1983-11-08 | Bell Telephone Laboratories, Incorporated | Digital data entry glove interface device |
FR2529044B1 (fr) * | 1982-06-18 | 1986-06-20 | Inst Nat Rech Inf Automat | Procedes et dispositifs de telecommunications visuelles, notamment a l'usage des sourds |
US4878843A (en) * | 1988-06-08 | 1989-11-07 | Kuch Nina J | Process and apparatus for conveying information through motion sequences |
US5047952A (en) * | 1988-10-14 | 1991-09-10 | The Board Of Trustee Of The Leland Stanford Junior University | Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove |
JP2779448B2 (ja) * | 1988-11-25 | 1998-07-23 | 株式会社エイ・ティ・アール通信システム研究所 | 手話言語変換装置 |
JPH03288276A (ja) * | 1990-04-04 | 1991-12-18 | Canon Inc | データ入力装置 |
-
1992
- 1992-09-03 JP JP23562792A patent/JP3435175B2/ja not_active Expired - Fee Related
-
1993
- 1993-08-31 US US08/114,083 patent/US5544050A/en not_active Expired - Fee Related
- 1993-09-03 DE DE69325620T patent/DE69325620T2/de not_active Expired - Fee Related
- 1993-09-03 EP EP93306994A patent/EP0586259B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE69325620D1 (de) | 1999-08-19 |
US5544050A (en) | 1996-08-06 |
EP0586259A2 (en) | 1994-03-09 |
DE69325620T2 (de) | 1999-12-09 |
JPH0683264A (ja) | 1994-03-25 |
EP0586259B1 (en) | 1999-07-14 |
EP0586259A3 (en) | 1996-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3435175B2 (ja) | 手話学習装置 | |
US20230042654A1 (en) | Action synchronization for target object | |
CN110446063B (zh) | 视频封面的生成方法、装置及电子设备 | |
US4884972A (en) | Speech synchronized animation | |
JP3338992B2 (ja) | 手話/単語変換システム | |
US7181692B2 (en) | Method for the auditory navigation of text | |
KR100359265B1 (ko) | 텍스트 프로세서 | |
US5659764A (en) | Sign language generation apparatus and sign language translation apparatus | |
US6442523B1 (en) | Method for the auditory navigation of text | |
US7515770B2 (en) | Information processing method and apparatus | |
CN117055724A (zh) | 虚拟教学场景中生成式教学资源系统及其工作方法 | |
JP3567596B2 (ja) | 手話アニメーション生成装置 | |
JP3823604B2 (ja) | 手話教育装置、手話教育方法、及び、手話教育方法が記録された記録媒体 | |
Yang et al. | Chinese Character Learning System | |
KR100443365B1 (ko) | 티브이 자막 신호에 기반한 3차원 수화 애니메이션 발생시스템 | |
JPH08212230A (ja) | 文書検索方法及び文書検索装置 | |
JP3327127B2 (ja) | 画像提示装置 | |
JPH1091701A (ja) | フォーム文書システム | |
JPH09311946A (ja) | アニメーション作成方法及びその装置 | |
Ozeki et al. | Object Tracking and Task Recognition for Producing Interactive Video Content—Semi-automatic indexing for QUEVICO | |
JPH09167165A (ja) | 動画像生成方法 | |
CN117519466A (zh) | 增强现实设备的控制方法、计算机设备和存储介质 | |
JP2503237B2 (ja) | 文字列情報検索装置 | |
CN117315676A (zh) | 点读系统及装置 | |
JP2924784B2 (ja) | 発音練習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080530 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |