JP3435175B2 - 手話学習装置 - Google Patents

手話学習装置

Info

Publication number
JP3435175B2
JP3435175B2 JP23562792A JP23562792A JP3435175B2 JP 3435175 B2 JP3435175 B2 JP 3435175B2 JP 23562792 A JP23562792 A JP 23562792A JP 23562792 A JP23562792 A JP 23562792A JP 3435175 B2 JP3435175 B2 JP 3435175B2
Authority
JP
Japan
Prior art keywords
sign language
input
learning
information used
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23562792A
Other languages
English (en)
Other versions
JPH0683264A (ja
Inventor
正博 阿部
裕 酒匂
浩彦 佐川
熹 市川
潔 井上
清志 新井
隆則 志村
裕二 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP23562792A priority Critical patent/JP3435175B2/ja
Priority to US08/114,083 priority patent/US5544050A/en
Priority to EP93306994A priority patent/EP0586259B1/en
Priority to DE69325620T priority patent/DE69325620T2/de
Publication of JPH0683264A publication Critical patent/JPH0683264A/ja
Application granted granted Critical
Publication of JP3435175B2 publication Critical patent/JP3435175B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、手話の学習で用いられ
る情報を格納し、検索して出力して、手話の学習を、効
果的に行なう手話学習装置に関する。
【0002】
【従来の技術】手話は聴覚障害者のコミュニケーション
手段として発達した、独自の体系を持つジェスチャ言語
である。従来、手話の学習では手話の具体的な方法を写
真やイラストで説明した教科書や、画像を記録したビデ
オテープなどが用いられてきた。
【0003】
【発明が解決しようとする課題】上記従来技術のうち、
教科書などの本の場合は、手話の動作を大まかに表すこ
とはできるが、空間上の位置関係や、緩急の微妙なタイ
ミングなどを正確に表すことが難しいという問題があっ
た。
【0004】また、ビデオテープなどの映像記録媒体の
場合は、一連の動作を正確に表すことはできるが、欲し
い情報を速く探しだしたり、いろいろな方向から視点を
変えて見たり、左利きの人のために左右逆の動作に置き
換えたりするなど学習者の要求に合った形での表示を行
なうことはできなかった。
【0005】また、ある手話の動作がどのような意味を
持つのか、あるいは、似たような動作の手話がほかにな
いかなどを調べようとすると、一々動作内容を比較して
みないと分からないため、探し出すのが非常に困難であ
るという問題があった。
【0006】ところで、手話は地域差や個人差が大きい
のに加えて、常に新しい言葉が生まれて変化していくの
であるが、従来の技術では、学習者が自分で新しい言葉
を追加して教材として拡張していくのは非常に困難であ
った。
【0007】また、学習者がどの程度手話を覚えたかテ
ストをすることもできなかった。
【0008】本発明の目的は、学習者が欲しい手話の情
報を速く正確に、しかも個々の学習者の要求に合った形
で得ることのできる学習効果の高い手話学習装置を提供
することにある。
【0009】本発明のさらに他の目的は、個々の学習者
が自分で情報を容易に追加登録することのできる拡張性
の高い手話学習装置を提供することにある。
【0010】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明は登録および検索を行える手話学習装置と
し、以下の構成を採った。
【0011】検索時には、自然語または手話を入力、登
録時には、手話の学習で用いられる情報を入力する入力
手段と、手話の学習で用いられる情報を保持する手段
と、検索時に入力した自然語または手話から、保持して
いる手話の学習で用いられる情報を検索する手段と、登
録時に入力した手話の学習で用いられる情報を登録する
手段と、検索または登録された手話の学習で用いられる
情報を学習者の要求に合わせて出力する手段とを備え
た。
【0012】また、手話の学習で用いる情報を保持する
手段は、手話の最小構成単位である形態素の辞書と、形
態素の組合せによって作られる単語の辞書とで構成する
ことも可能である。
【0013】さらに、手話の学習で用いられる情報を学
習者の要求に合わせて出力する手段で、手話の動作を表
わす際に、左右対象の置換をすることも可能である。
【0014】さらに、手話の動作を出力するスピードを
換えることもできる。
【0015】また、検索時に言語種類を指定することに
より指定された言語の手話へ変換して出力することも可
能である。
【0016】さらに、学習者が理解できたかテストを行
なう機能を設けることも可能である。
【0017】
【作用】手話の学習で用いられる情報を保持し、参照し
たいデータを見出し語または内容との比較により検索
し、学習者の要求に合わせて視点を変更したり、人物を
変更したり、右利きまたは左利き向きに変更したり、表
情を付けたり、表示速度を変えて見ることができるの
で、学習者が欲しい情報を速く正確に知ることができ
る。また、手話の学習で用いられる情報を形態素と、単
語に分けて保持することにより、登録手続きを簡単に行
えるとともに、格納スペースを効率よく使用することが
できる。また、手話データを共通辞書と個人辞書に分け
て保持することにより、各ユーザの特性に容易に適合さ
せることができる。また、音声による入出力手段を持つ
ことにより、学習の効率と効果を高めることができる。
【0018】
【実施例】以下、本発明の実施例を図1から図9を用い
て説明する。
【0019】図1は、本発明の一実施例を示すシステム
構成図で、1は手話データを保持する手話辞書、2は手
話辞書1から手話データを検索する辞書検索手段、3は
手話辞書1に手話データを格納する辞書登録手段、4は
キーボード等の文字入力装置、5は音声認識により入力
する音声入力装置、6は手話の動作を時系列データとし
て入力する手話入力装置、7は顔の表情を認識して入力
する表情入力装置、8は検索及び登録の入力および結果
を表示する表示出力装置、9は検索及び登録の入力およ
び結果を音声合成で出力する音声出力装置である。
【0020】図2は、手話辞書1の構成要素の1つであ
る単語辞書の構成と具体例を示す図で、111は単語の
見だし、112は単語が用いられる分野の種類を表す種
別、113は手話データがどの国のどの種類の手話のも
のなのかを表す言語種別、114は単語を表わす形態素
の組合せ表現、115は手話の語源、注意事項等補足情
報を格納するテキストである。
【0021】図3は、手話辞書1の構成要素の1つであ
る形態素辞書の構成と具体例を示す図で、121は形態
素の見だし、122は手話の手の動きの時系列データの
特徴を分類した分類種別、123は手話のときの顔の表
情の特徴を分類した表情種別、124は手話の手の動き
の時系列データである。
【0022】図9は、手話入力装置6から入力される時
系列データのデータ構造の詳細を表す図で、右手の状態
に関するデータ610と左手の状態に関するデータ62
0の一定時間間隔毎の履歴を格納するテーブルである。
なお、手話データ入力装置6は、手の各指の曲がり具
合、手の位置、および向きを計測するセンサ61と、電
気信号に変換する接続装置62とからなるもので、よく
知られている。601、602、および603は各々サ
ンプリング時刻T0、T1、およびTnにおける右手デ
ータ610と左手データ620の格納場所を示す。61
1は右手の第1指の第1関節の角度を表すデータ、61
2は右手の第1指の第2関節の角度を表すデータ、61
3は右手のx座標の位置を表すデータ、614は右手の
y座標の位置を表すデータ、615は右手のz座標の位
置を表すデータ、616は右手の向きのx軸との角度を
表すデータ、617は右手の向きのy軸との角度を表す
データ、618は右手の向きのz軸との角度を表すデー
タである。
【0023】次に図4、図5、図6、図7、図8を用い
て、本実施例の動作を説明する。
【0024】はじめに、手話辞書1から手話データを検
索し、出力する動作を説明する。図7は、検索時に表示
出力装置8のディスプレイ83に表示される画面の具体
例を示す図である。701から721までは、検索の指
示または結果のデータを表す入出力エリアであり、70
1は言語種別113の入出力エリア、702は分野種別
112の入出力エリア、703は単語111の入出力エ
リア、704は形態素列114の入出力エリア、705
は検索入力の装置として文字入力装置4、音声入力装置
5、手話入力装置6のいずれを用いるかを指示する入出
力エリア、706は検索の条件として単語全体で一致す
るものを探すのか、あるいは単語の一部に指定された形
態素を含むものを探すのかを指示する入出力エリア、7
07は検索処理の指示を表す入出力エリア、708は登
録処理の指示を表す入出力エリア、709は検索結果の
報告を表す出力エリア、710はテキスト115を表示
する出力エリア、711は時系列データ124、および
表情種別123から生成される手話の画像データを表示
する出力エリア、712から721までは取り込んだ画
像データの表示方法を制御する入出力エリアで、712
は表示すべきデータの長さにたいして現在表示している
点の時間的な位置を表示制御する入出力エリア、713
は表示の開始を指示する入出力エリア、714は表示の
停止を指示する入出力エリア、715は表示の繰返しを
指示する入出力エリア、716は表示速度を遅くするこ
とを指示する入出力エリア、717は手話の動作を表示
するとき正面から見た姿を表示するのか、あるいは手話
を行う人物の立場にたって表示するのかを切り替える指
示を与える入出力エリア、718は手話の動作を表示す
るとき視点の高さを上下方向に変化させる指示を与える
入出力エリア、719は同様に左右方向に変化させる指
示を与える入出力エリア、720は手話動作を行う人物
を好みの人物に切り替える指示を与える入出力エリア、
721は手話動作を行う人物の右利き左利きを切り替え
る指示を与える入出力エリアである。
【0025】図4は、本実施例の検索制御部21の動作
を表す図である。入出力エリア707で検索が指示され
ると動作が起動される。
【0026】ステップ2101では入出力エリア705
の入力方法を判定し、音声入力の場合はステップ210
2に、文字入力の場合はステップ2103に、手話入力
の場合はステップ2104に進む。
【0027】ステップ2102では、音声入力装置5か
ら検索に必要な情報を音声認識により取り込み、入出力
エリア703と704とにセットする。入出力エリア7
01と702にはデフォールト値がセットされている
が、ユーザが書替えを指示した場合はセットしなおす。
【0028】ステップ2103では、同様に文字入力装
置4から検索に必要な情報を取り込み、入出力エリア7
03と704とにセットする。
【0029】ステップ2104では、手話入力装置6か
ら時系列データを取り込む。
【0030】ステップ2105では、時系列データを分
類器23を用いてパタン分類し分類種別を得る。また、
この方法のほかにも、統計的な手法によるものやニュー
ラルネットワークを用いた方法など様々な方法が適用可
能であり、本発明は特定のパタン分類方法によって制限
されるものではない。
【0031】ステップ2106では、ステップ2105
で得られた分類種別をキーとして、形態素辞書12の分
類種別122を比較器22を用いて比較し、同じ分類種
別となる形態素121を検索する。見つかった形態素は
入出力エリア703と704とにセットする。
【0032】ステップ2107では、入出力エリア70
6の検索条件を判定し、全体一致の場合はステップ21
08に、部分一致の場合はステップ2109に進む。
【0033】ステップ2108では、入出力エリア70
3の単語をキーとして単語辞書11の単語111を比較
器22を用いて比較し、同じ見出しの単語を見つける。
また検索の結果のメッセージを出力エリア709にセッ
トする。
【0034】ステップ2109では、入出力エリア70
4の各形態素をキーとして単語辞書11の形態素列11
4を比較器22を用いて比較し、入出力エリア704の
形態素をその一部に含む単語を見つける。また検索の結
果のメッセージを出力エリア709にセットする。
【0035】続いて、表示出力制御部81が起動され、
図6の表示処理が開始される。以下、図6を用いて表示
処理を説明する。
【0036】ステップ8101では、画像データの表示
方法を制御する入出力エリア717から721までの内
容にしたがって画像合成のためのパラメータを準備す
る。
【0037】ステップ8102では、入出力エリア71
3を監視し、開始が指示されるのを待つ。開始が指示さ
れると、ステップ8103に進む。
【0038】ステップ8103では、まず音声出力装置
9に入出力エリア703の単語見出しと、出力エリア7
10のテキストの情報を送って音声出力する。例えば、
図7の場合は、「育児」「子供を育てる仕草」というよ
うに音声出力する。次に、入出力エリア704の中の先
頭の形態素のデータを形態素辞書12から取ってくる。
例えば、図7の場合は「子供」の形態素データを取って
くる。次に、形態素データの見出し121を音声出力装
置9に送って音声出力する。図7の場合は、「子供」が
音声出力される。
【0039】ステップ8104では、形態素データの表
情種別123と時系列データ124とから、ステップ8
101で準備したパラメータに従って、画像合成部82
を用いて1フレーム分の手話の画像を生成し出力エリア
711に表示出力する。
【0040】画像合成部82の処理に関しては、コンピ
ュータグラフィックスの分野ですでによく知られた方法
が用いられている。手話の手の形状生成に関しては、例
えば、情報処理学会研究会報告Vol.90,No.6
6(90−CG−46)46−6(1990年8月17
日〜18日),第37頁から第42頁までに述べられて
いるように、手のモデルを隣接する関節を結ぶ骨格と、
骨格に付随する多面体とによって定義し、それぞれの骨
格に付随する多面体を、骨格の動きに追従させることに
より関節角の変化に応じた手の形状を生成することがで
きる。この文献で論じられているように、手の動作過程
に応じて多面体の接続面と接続面の間隔を制御する処理
を行えば、よりリアリスティックな形状が生成できる。
【0041】また、顔の表情の生成については、例え
ば、情報処理学会研究会報告Vol.90,No.65
(90−CG−45)45−5(1970年7月20
日),第1頁から第8頁までに述べられているように、
顔の表面上の点を表情特有の変形量で動かすことによ
り、複雑な表情を生成できる。
【0042】このようにして生成した体の部品を組み合
わせることにより手話の画像を生成する。
【0043】ステップ8105では、入出力エリア71
4を調べ、停止が指示されているときはステップ810
6に進み一時停止し、停止が指示されていないときは直
ちにステップ8107に進む。
【0044】ステップ8106では、入出力エリア71
3を監視し、再開始が指示されるのを待つ。
【0045】ステップ8107では、形態素データの時
系列データ124がすべて出力し終ったかどうか判定
し、まだ残りがあればステップ8108へ進む。また、
残りがなければ、ステップ8110に進む。
【0046】ステップ8108では、入出力エリア71
6を調べて、スロー表示が指示されているかどうか判定
する。スロー表示の場合は、ステップ8109で一定時
間を費やしてから次の画面のフレームの表示動作に進
む。スロー表示でない通常のスピードの表示の場合は、
直ちに次のフレームの表示動作に進む。
【0047】ステップ8110では、入出力エリア70
4の中の形態素をすべて出力し終ったかどうか判定し、
終了であればステップ8111に進む。また終了であれ
ば、ステップ8112に進む。
【0048】ステップ8111では、入出力エリア70
4の中の次の形態素を形態素辞書12から取ってくる。
次に、形態素データの見出し121を音声出力装置9に
送って音声出力する。次に、ステップ8104に戻り、
形態素データの出力を始める。
【0049】ステップ8112では、入出力エリア71
5を調べ繰返し表示が指示されているかどうか判定す
る。繰返し表示が指示されているときは、ステップ81
03に戻る。指示されていなければ、表示処理を終了す
る。
【0050】次に、本実施例で、手話データを手話辞書
1に登録する動作を説明する。
【0051】図8は、登録時に表示出力装置8のディス
プレイ83に表示される画面の具体例を示す図である。
801から821までは、登録の指示または結果のデー
タを表す入出力エリアであり、801は言語種別113
の入出力エリア、802は分野種別112の入出力エリ
ア、803は単語111の入出力エリア、804は形態
素列114の入出力エリア、805は登録する対象の辞
書を指示する入出力エリア、806は登録する表情種別
123の入出力エリア、807は検索処理の指示を表す
入出力エリア、808は登録処理の指示を表す入出力エ
リア、809は登録結果の報告を表す出力エリア、81
0はテキスト115を表示する入出力エリア、811は
登録する時系列データ124、および表情種別123か
ら生成される手話の画像データを表示する出力エリア、
812から821までは画像データの表示方法を制御す
る入出力エリアで、図8の場合と同様である。
【0052】図5は、本実施例の登録制御部31の動作
を表す図である。入出力エリア807で検索が指示され
ると動作が起動される。
【0053】ステップ3101では、形態素辞書12の
みの登録なのか、単語辞書11と形態素辞書12の両方
の登録なのかを入出力エリア805により判定する。形
態素辞書12のみの登録の場合は、単語辞書11の登録
をスキップしてステップ3105に進む。
【0054】ステップ3102では、文字入力装置4か
ら単語辞書11に登録すべき情報、すなわち、入出力エ
リア801から804までおよび810を入力し、単語
辞書11に新しい見出し単語111を作成し、分野情報
112、言語種別113、形態素列114、テキスト1
15を格納する。
【0055】ステップ3103では、入出力エリア80
4で指定された形態素がすべて形態素辞書12にあるか
どうか比較器32を用いて調べる。もし形態素がすべて
あれば登録処理を終了する。もしなければステップ31
05に進み形態素辞書12への登録を行う。
【0056】ステップ3105では、形態素辞書12に
未登録の形態素にたいして手話入力装置6を用いて手の
動きを入力し、時系列データ124として格納する。
【0057】ステップ3106では、形態素の時系列デ
ータ124を分類器33を用いて分類種別122を求め
形態素辞書12に格納する。分類器33の動作は、既に
述べた分類器23の動作と同じである。
【0058】ステップ3107では、表情入力装置7の
カメラ71から入力した顔の表情表情認識部72により
認識し、その結果を形態素辞書12の表情種別123に
格納する。顔の表情の認識方法については、例えば、電
子情報通信学会秋季全国大会D−408(1990
年),第6−410頁に述べられている方法が知られて
いる。
【0059】登録処理が終了すると、図6の表示処理を
行い、登録した手話データを表示する。この表示処理に
ついては、既に述べた検索処理と同じである。
【0060】以上述べたごとく、本実施例によれば手話
データの検索、登録、表示が可能となる。
【0061】本実施例では、手話入力装置6はセンサ6
1を用いるものであるが、カメラを用いて画像によりデ
ータを取り込むことも可能である。
【0062】また、表情入力装置7は、あらかじめ表情
の型をメニューに登録しておき、メニュー選択により表
情種別123を入力することもできる。
【0063】また、手話辞書1を学習者共通に使われる
基本辞書と、各学習者固有の個人辞書とで構成すること
もできる。
【0064】また、図4の検索処理で入出力エリア70
3及び704を指定せずに検索することにより、入出力
エリア702で指定された分野種別の単語をランダムに
検索表示することもできる。また、入出力エリア703
及び704に「?」指定することにより、入出力エリア
703及び704への表示を一定時間遅らせることがで
きる。これらの検索方法を用いることにより、特定分野
の単語のみを集中的に学習したり、学習したことを覚え
たかテストすることができる。
【0065】また、入出力エリア701の言語種別を変
更して検索することにより、他の言語、方言での手話と
比較しながら学習することもできる。
【0066】
【発明の効果】本発明によれば、学習者が欲しい手話の
情報を速く正確に、しかも個々の学習者の要求に合った
形で得ることができるとともに、個々の学習者が自分で
容易に追加登録することができるので、学習効果が著し
く向上する。
【図面の簡単な説明】
【図1】本発明の一実施例のシステム構成図である。
【図2】単語辞書の構成を表す図である。
【図3】形態素辞書の構成を表す図である。
【図4】検索処理を示す図である。
【図5】登録処理を示す図である。
【図6】表示処理を示す図である。
【図7】検索表示出力の具体例を表す図である。
【図8】登録表示出力の具体例を表す図である。
【図9】手話入力データの構造を示す図である。
フロントページの続き (72)発明者 市川 熹 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 井上 潔 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 新井 清志 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 志村 隆則 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 戸田 裕二 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (56)参考文献 特開 平3−288276(JP,A) (58)調査した分野(Int.Cl.7,DB名) G09B 21/00

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】手話の学習で用いられる情報の検索または
    登録を行う手話学習装置において、検索時には、自然語
    または手話のうち少なくともいずれか一方を入力して、
    登録時には、手話の学習で用いられる情報を入力する入
    力手段と、手話の学習で用いられる情報を手話の最小単
    位である形態素の辞書および上記形態素の組合せにて表
    わされる単語の辞書で構成して保持する保持手段と、検
    索時に上記入力手段により入力した自然語または手話の
    うちいずれか一方をもとに上記保持手段に保持している
    手話の学習で用いられる情報を検索する検索手段と、登
    録時に上記入力手段により入力された上記手話の学習で
    用いられる情報を上記保持手段に登録する登録手段と、
    上記検索手段にて検索された手話の学習で用いられる情
    報または上記登録手段にて登録された手話の学習で用い
    られる情報を出力する手段とを備えたことを特徴とする
    手話学習装置。
  2. 【請求項2】上記出力する手段は、学習者の要求に応じ
    た視点から見える手話の動作を出力することを特徴とす
    る請求項1に記載の手話学習装置。
  3. 【請求項3】上記出力する手段は、手話の動作の速度を
    学習者の要求に応じて、変えることを特徴とする請求項
    1に記載の手話学習装置。
  4. 【請求項4】手話の学習で用いられる情報の検索を行う
    手話学習装置において、自然語を入力する入力手段と、
    手話の学習で用いられる情報を手話の最小単位である形
    態素の辞書および上記形態素の組合せにて表わされる単
    語の辞書で構成して保持する保持手段と、上記入力手段
    により入力した自然語をもとに上記保持手段に保持して
    いる手話の学習で用いられる情報を検索する検索手段
    と、上記検索手段にて検索された手話の学習で用いられ
    る情報を出力する手段とを備えたことを特徴とする手話
    学習装置。
JP23562792A 1992-09-03 1992-09-03 手話学習装置 Expired - Fee Related JP3435175B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP23562792A JP3435175B2 (ja) 1992-09-03 1992-09-03 手話学習装置
US08/114,083 US5544050A (en) 1992-09-03 1993-08-31 Sign language learning system and method
EP93306994A EP0586259B1 (en) 1992-09-03 1993-09-03 Sign-language learning system and method
DE69325620T DE69325620T2 (de) 1992-09-03 1993-09-03 System und Verfahren zum Lernen der Zeichensprache

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23562792A JP3435175B2 (ja) 1992-09-03 1992-09-03 手話学習装置

Publications (2)

Publication Number Publication Date
JPH0683264A JPH0683264A (ja) 1994-03-25
JP3435175B2 true JP3435175B2 (ja) 2003-08-11

Family

ID=16988817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23562792A Expired - Fee Related JP3435175B2 (ja) 1992-09-03 1992-09-03 手話学習装置

Country Status (4)

Country Link
US (1) US5544050A (ja)
EP (1) EP0586259B1 (ja)
JP (1) JP3435175B2 (ja)
DE (1) DE69325620T2 (ja)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
JP3338992B2 (ja) * 1992-10-29 2002-10-28 株式会社日立製作所 手話/単語変換システム
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
JPH07168851A (ja) * 1993-12-16 1995-07-04 Canon Inc 画像表示方法及び装置
US5777614A (en) 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
JPH08115408A (ja) * 1994-10-19 1996-05-07 Hitachi Ltd 手話認識装置
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US5689585A (en) * 1995-04-28 1997-11-18 Xerox Corporation Method for aligning a text image to a transcription of the image
JPH08315185A (ja) * 1995-05-18 1996-11-29 Hitachi Ltd 手話編集装置
US5890120A (en) * 1997-05-20 1999-03-30 At&T Corp Matching, synchronization, and superposition on orginal speaking subject images of modified signs from sign language database corresponding to recognized speech segments
US6116907A (en) * 1998-01-13 2000-09-12 Sorenson Vision, Inc. System and method for encoding and retrieving visual signals
WO1999046762A1 (en) * 1998-03-09 1999-09-16 Kelvin Lp Automatic speech translator
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6594632B1 (en) 1998-11-02 2003-07-15 Ncr Corporation Methods and apparatus for hands-free operation of a voice recognition system
US7676372B1 (en) * 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
US8392188B1 (en) 1999-11-05 2013-03-05 At&T Intellectual Property Ii, L.P. Method and system for building a phonotactic model for domain independent speech recognition
US20030191625A1 (en) * 1999-11-05 2003-10-09 Gorin Allen Louis Method and system for creating a named entity language model
US7085720B1 (en) * 1999-11-05 2006-08-01 At & T Corp. Method for task classification using morphemes
US7286984B1 (en) * 1999-11-05 2007-10-23 At&T Corp. Method and system for automatically detecting morphemes in a task classification system using lattices
US6377925B1 (en) 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications
JP3662519B2 (ja) * 2000-07-13 2005-06-22 シャープ株式会社 光ピックアップ
US20020111791A1 (en) * 2001-02-15 2002-08-15 Sony Corporation And Sony Electronics Inc. Method and apparatus for communicating with people who speak a foreign language
JP3906729B2 (ja) * 2002-04-05 2007-04-18 株式会社日立製作所 手話教育用システム及び該システムを実現するためのプログラム
US20040012643A1 (en) * 2002-07-18 2004-01-22 August Katherine G. Systems and methods for visually communicating the meaning of information to the hearing impaired
US7277858B1 (en) * 2002-12-20 2007-10-02 Sprint Spectrum L.P. Client/server rendering of network transcoded sign language content
CN100343894C (zh) * 2004-03-15 2007-10-17 财团法人信谊基金会 语音学习系统和方法
JP4761568B2 (ja) * 2004-05-12 2011-08-31 貴司 吉峰 会話支援装置
US20060134585A1 (en) * 2004-09-01 2006-06-22 Nicoletta Adamo-Villani Interactive animation system for sign language
US20080195373A1 (en) * 2007-02-13 2008-08-14 Barbara Ander Digital Sign Language Translator
US8566077B2 (en) * 2007-02-13 2013-10-22 Barbara Ander Sign language translator
US20080262512A1 (en) * 2007-04-02 2008-10-23 Doheny Eye Institute Thrombolysis In Retinal Vessels With Ultrasound
US9282377B2 (en) 2007-05-31 2016-03-08 iCommunicator LLC Apparatuses, methods and systems to provide translations of information into sign language or other formats
US8566075B1 (en) * 2007-05-31 2013-10-22 PPR Direct Apparatuses, methods and systems for a text-to-sign language translation platform
US8303309B2 (en) 2007-07-13 2012-11-06 Measured Progress, Inc. Integrated interoperable tools system and method for test delivery
US8280732B2 (en) * 2008-03-27 2012-10-02 Wolfgang Richter System and method for multidimensional gesture analysis
US20100142683A1 (en) * 2008-12-09 2010-06-10 Stuart Owen Goldman Method and apparatus for providing video relay service assisted calls with reduced bandwidth
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100316978A1 (en) * 2009-06-09 2010-12-16 James David Goode Mobile, wireless, hands-free visual/verbal trans-language communication system (acronym:V2V XLC System)
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US20130106894A1 (en) 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US20130106893A1 (en) * 2011-10-31 2013-05-02 Elwah LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US8793118B2 (en) 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US10024679B2 (en) 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9629774B2 (en) 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10248856B2 (en) 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10360907B2 (en) 2014-01-14 2019-07-23 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9578307B2 (en) 2014-01-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9915545B2 (en) 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
WO2015159775A1 (ja) 2014-04-15 2015-10-22 オリンパス株式会社 画像処理装置、通信システム及び通信方法並びに撮像装置
US10024667B2 (en) 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) 2014-09-17 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
US9922236B2 (en) 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
US9576460B2 (en) 2015-01-21 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device for hazard detection and warning based on image and audio data
US10490102B2 (en) 2015-02-10 2019-11-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for braille assistance
US9586318B2 (en) 2015-02-27 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Modular robot with smart device
US9677901B2 (en) 2015-03-10 2017-06-13 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing navigation instructions at optimal times
US9811752B2 (en) 2015-03-10 2017-11-07 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device and method for redundant object identification
US9972216B2 (en) 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
US10395555B2 (en) * 2015-03-30 2019-08-27 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing optimal braille output based on spoken and sign language
US9898039B2 (en) 2015-08-03 2018-02-20 Toyota Motor Engineering & Manufacturing North America, Inc. Modular smart necklace
GR1008903B (el) * 2015-12-31 2016-12-05 ΑΘΗΝΑ-ΕΡΕΥΝΗΤΙΚΟ ΚΕΝΤΡΟ ΚΑΙΝΟΤΟΜΙΑΣ ΣΤΙΣ ΤΕΧΝΟΛΟΓΙΕΣ ΤΗΣ ΠΛΗΡΟΦΟΡΙΑΣ, ΤΩΝ ΕΠΙΚΟΙΝΩΝΙΩΝ ΚΑΙ ΤΗΣ ΓΝΩΣΗΣ με δ.τ. "ΑΘΗΝΑ" Μεθοδολογια δυναμικης επικοινωνιας σε νοηματικη γλωσσα
US10024680B2 (en) 2016-03-11 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Step based guidance system
US9958275B2 (en) 2016-05-31 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for wearable smart device communications
US10561519B2 (en) 2016-07-20 2020-02-18 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device having a curved back to reduce pressure on vertebrae
US10432851B2 (en) 2016-10-28 2019-10-01 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device for detecting photography
US10012505B2 (en) 2016-11-11 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable system for providing walking directions
US10521669B2 (en) 2016-11-14 2019-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing guidance or feedback to a user
US10172760B2 (en) 2017-01-19 2019-01-08 Jennifer Hendrix Responsive route guidance and identification system
US10902743B2 (en) * 2017-04-14 2021-01-26 Arizona Board Of Regents On Behalf Of Arizona State University Gesture recognition and communication
US10346198B1 (en) 2018-02-12 2019-07-09 Avodah Labs, Inc. Data processing architecture for improved data flow
WO2019157344A1 (en) 2018-02-12 2019-08-15 Avodah Labs, Inc. Real-time gesture recognition method and apparatus
US10304208B1 (en) 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
US10289903B1 (en) * 2018-02-12 2019-05-14 Avodah Labs, Inc. Visual sign language translation training device and method
US10489639B2 (en) 2018-02-12 2019-11-26 Avodah Labs, Inc. Automated sign language translation and communication using multiple input and output modalities
USD912139S1 (en) 2019-01-28 2021-03-02 Avodah, Inc. Integrated dual display sensor
CA3167329A1 (en) * 2020-02-14 2021-08-19 Victoria Catherine Maude FORREST Instruction of a sign language

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4307266A (en) * 1978-08-14 1981-12-22 Messina John D Communication apparatus for the handicapped
US4368459A (en) * 1980-12-16 1983-01-11 Robert Sapora Educational apparatus and method for control of deaf individuals in a mixed teaching environment
US4414537A (en) * 1981-09-15 1983-11-08 Bell Telephone Laboratories, Incorporated Digital data entry glove interface device
FR2529044B1 (fr) * 1982-06-18 1986-06-20 Inst Nat Rech Inf Automat Procedes et dispositifs de telecommunications visuelles, notamment a l'usage des sourds
US4878843A (en) * 1988-06-08 1989-11-07 Kuch Nina J Process and apparatus for conveying information through motion sequences
US5047952A (en) * 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
JP2779448B2 (ja) * 1988-11-25 1998-07-23 株式会社エイ・ティ・アール通信システム研究所 手話言語変換装置
JPH03288276A (ja) * 1990-04-04 1991-12-18 Canon Inc データ入力装置

Also Published As

Publication number Publication date
DE69325620D1 (de) 1999-08-19
US5544050A (en) 1996-08-06
EP0586259A2 (en) 1994-03-09
DE69325620T2 (de) 1999-12-09
JPH0683264A (ja) 1994-03-25
EP0586259B1 (en) 1999-07-14
EP0586259A3 (en) 1996-04-10

Similar Documents

Publication Publication Date Title
JP3435175B2 (ja) 手話学習装置
US20230042654A1 (en) Action synchronization for target object
CN110446063B (zh) 视频封面的生成方法、装置及电子设备
US4884972A (en) Speech synchronized animation
JP3338992B2 (ja) 手話/単語変換システム
US7181692B2 (en) Method for the auditory navigation of text
KR100359265B1 (ko) 텍스트 프로세서
US5659764A (en) Sign language generation apparatus and sign language translation apparatus
US6442523B1 (en) Method for the auditory navigation of text
US7515770B2 (en) Information processing method and apparatus
CN117055724A (zh) 虚拟教学场景中生成式教学资源系统及其工作方法
JP3567596B2 (ja) 手話アニメーション生成装置
JP3823604B2 (ja) 手話教育装置、手話教育方法、及び、手話教育方法が記録された記録媒体
Yang et al. Chinese Character Learning System
KR100443365B1 (ko) 티브이 자막 신호에 기반한 3차원 수화 애니메이션 발생시스템
JPH08212230A (ja) 文書検索方法及び文書検索装置
JP3327127B2 (ja) 画像提示装置
JPH1091701A (ja) フォーム文書システム
JPH09311946A (ja) アニメーション作成方法及びその装置
Ozeki et al. Object Tracking and Task Recognition for Producing Interactive Video Content—Semi-automatic indexing for QUEVICO
JPH09167165A (ja) 動画像生成方法
CN117519466A (zh) 增强现实设备的控制方法、计算机设备和存储介质
JP2503237B2 (ja) 文字列情報検索装置
CN117315676A (zh) 点读系统及装置
JP2924784B2 (ja) 発音練習装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080530

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees