JP2009540384A - 手話グラフィカルインタプリタのための方法及びシステム - Google Patents

手話グラフィカルインタプリタのための方法及びシステム Download PDF

Info

Publication number
JP2009540384A
JP2009540384A JP2009515412A JP2009515412A JP2009540384A JP 2009540384 A JP2009540384 A JP 2009540384A JP 2009515412 A JP2009515412 A JP 2009515412A JP 2009515412 A JP2009515412 A JP 2009515412A JP 2009540384 A JP2009540384 A JP 2009540384A
Authority
JP
Japan
Prior art keywords
content
user terminal
text
words
asl
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009515412A
Other languages
English (en)
Inventor
ヴィットリオ・ジー・ブッチェリ
アルベルト・エル・シュミット
Original Assignee
ベライゾン・データ・サービシーズ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベライゾン・データ・サービシーズ・エルエルシー filed Critical ベライゾン・データ・サービシーズ・エルエルシー
Publication of JP2009540384A publication Critical patent/JP2009540384A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42391Systems providing special services or facilities to subscribers where the subscribers are hearing-impaired persons, e.g. telephone devices for the deaf
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/247Telephone sets including user guidance or feature selection means facilitating their use
    • H04M1/2474Telephone terminals specially adapted for disabled people
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/60Medium conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

ユーザ端末で補足された音声に対応する視覚的コンテンツをユーザに表示するためのシステム及び方法が開示される。一つ又は複数の単語から成る音声を、該音声を表す視覚的コンテンツに変換する要求をユーザ端末からネットワークにより受信後、翻訳サーバは、前記一つ又は複数の単語に対応するテキストをデータベースから取得する。翻訳サーバは、次いで、前記テキストを、前記一つ又は複数の単語の意味を表す一つ又は複数のコンテンツフレーズに変換するとともに、該一つ又は複数のコンテンツフレーズの各々を新規な言語に変換し得る。最後に、翻訳サーバは、前記新規な言語を表す視覚的コンテンツをユーザ端末に送信し得る。

Description

本発明は、2006年6月15日付け出願の米国特許出願第11/453,202号に対する優先権を主張する。
耳が不自由な状態で生まれた聴覚障害者の大多数は、記載されたものよりも、それが「手話で表現された」場合のコンテンツ(内容)を読み取る方を好む。「手話で表現された」コンテンツの伝達には、顔の表現と組み合わさったジェスチャーの使用を必然的に伴う。「手話で表現された」コンテンツは、しばしば、指で綴られなければならないが(見知らぬ名前、電話番号等)、ほとんどの場合、該コンテンツは概念、行為及び事実を伝達する。ASLは、非英語言語(すなわち、フランス語、ドイツ語等)と同等である。英語文の言語順序と対応する手話翻訳との間にはほとんど関連性がない。ASL通訳者は、話されたか又は書かれた英語文の構文及び文法構造を無視するやり方で文の意味を伝達するであろう。手話は、上半身(ウエストから上)、腕、手、指、頭、及び顔の表現を用いて、音色、音量、及び言葉間の間隔を用いる話し言葉と同様にコミュニケーションを表現し強調する。手話通訳者は、通常、同時通話又は他の英語コンテンツのいずれかをアメリカ手話言語(ASL)に翻訳するために雇われる。
現在、手話で表現されたコンテンツの伝達は、フィルムに記録されデジタル化されたビデオによっても与えられる。グラフィカルにアニメ化された手又はキャラクタも使用される。単語(言葉)もしくは短文の綴られた言葉及び手話で表現された意味も対話型辞書で入手できる。手話通訳者はまた、しばしば、案内、相談、もしくはフィルム化のために利用される。
手話で表現されるコンテンツを伝えるこれら現在の方法は、多くの欠点を有している。一連の手話で表現されるフレーズは、翻訳者をフィルムに記録することなしに連結もしくは構築され得ない。著者が、利用可能な色々な種類及び強さの上半身の運動及び顔の表現を用いて手話で表現された文を効果的に構成することを可能にする手話動作の図書館(ライブラリ)は現存しない。新規なコンテンツが発生するたびに、それが新しいウェブページ、テレビ発表もしくは会話であろうとなかろうと、特定の翻訳の努力がなされなければならない。人間の手話の通訳者はまた、耳が不自由な個人と聞き手との間のミーティングのために雇われ、テレタイプ機器(TTY)を介して又は他のインタラクションにおいて会話のつづりを1文字ずつ言わ(書か)ねばならない。
従って、手話で内容(コンテンツ)を伝達するために使用されるグラフィカルコンピュータエージェントに対するニーズがある。該エージェントは、音声又は該音声に対応するテキストと第三者からの単語(言葉)の提示を同時に伝えることができる。グラフィカルに描かれたエージェントは、人間の通訳者が提供することができないであろう整合性及び視覚的利点をもたらす。
図1は、本発明に関連するある側面に従う模範的なシステム環境のブロック図を示す。 図2は、本発明に関連するある側面に従う模範的なユーザ端末のブロック図を示す。 図3は、本発明に関連するデータのある側面に従う模範的な翻訳サーバのブロック図を示す。 図4は、本発明に関連する一側面を例示するフローチャートを示す。 図5は、本発明の実施形態に従う模範的なディスプレイを例示する。
手話グラフィカルトランスレータ(SLGT)を提供するためのシステム及び方法は、ある数の源又は第三者から音声を受信し得る。これらの第三者は、例えば、別の人間、テレビ、電話、ラジオ、又は、音声を送信可能な任意の他のデバイスであり得る。これに応答して、SLGTは、取り込んだ音声(話し言葉又は雑音から構成され得る)をテキストへと変換し得、並びに、言葉及び文のコンテンツ(内容)をASLへと翻訳し得る。SLGTは、次いで、ASLのコンテンツを該ASLに対応するアニメーション(動画)に適合させ得、次に、SLGTのユーザに対し、該テキスト、並びに前記取り込んだ音声のコンテンツに対応するASL動画を表示し得る。
一つの模範的な実施形態によれば、方法は、ユーザ端末において第三者から、一つ又は複数の単語(言葉)を含む(もしくは一つ又は複数の単語から成る)音声を取り込む工程と、該一つ又は複数の単語を、該一つ又は複数の単語を表すテキストに変換する工程と、該一つ又は複数の単語を、前記一つ又は複数の単語の意味を表す一つ又は複数のコンテンツフレーズに変換する工程と、前記一つ又は複数のコンテンツフレーズ各々を新規な言語に変換する工程と、前記新規な言語を表す視覚的コンテンツを前記ユーザ端末に表示させる工程とを含み得る。
別の模範的な実施形態によれば、システムは、ネットワークに接続され、かつ少なくとも一つのユーザ端末によってアクセス可能な翻訳サーバを備え、前記翻訳サーバは、一つ又は複数の単語を含む音声を、該音声を表す視覚的コンテンツへと変換するリクエスト(要求)をユーザ端末からネットワークにより受信し、データベースから前記一つ又は複数の単語に対応するテキストを取り込み、前記テキストを、前記一つ又は複数の単語の意味を表す一つ又は複数のコンテンツフレーズに変換し、 前記一つ又は複数のコンテンツフレーズ各々を新規な言語に変換し、かつ、前記新規な言語におけるコンテンツを表す視覚的コンテンツを前記ユーザ端末に送るように構成される。
模範的実施形態が、これと共に提出された図面を参照して更に詳細に記述される。添付図面全体にわたり、同一又は類似の要素を指すために同じ参照番号が可能な限り用いられる。図面は、好ましい模範的な実施及び具体化の形態を例示するが、これらの実施形態の記述は、他の実施もしくは具体化の形態が本発明の範囲に含まれないことを表示もしくは暗示しない。当然のことながら、他の具体化が利用され得、また、添付の特許請求の範囲に記載した本発明の範囲から逸脱することなく構造及び手順の変更がなされ得る。
図1は、ここに記述した一実施形態と整合するシステム環境100を例示するブロック図を提供する。システム環境100は、ユーザ105と、ユーザ端末110と、ネットワーク120と、翻訳サーバ130と、第三者140とを含み得る。
ユーザ105は、いかなる個人の又は公共のエンティティ、慈善のためのエンティティ、商業上のエンティティ、又は任意の他のエンティティであってもよい。ユーザ端末110は、ユーザ105にネットワーク120に対するインターフェースを与えるためにコンピュータ実行プロセスを実行する一つ又は複数のデータ処理システムであり得る。ユーザ端末110は、例えば、パーソナルコンピュータ、ミニコンピュータ、マイクロプロセッサ、ワークステーション、又は、当技術分野で一般的に使用される同様のコンピュータプラットフォームを含む一つ又は複数のコンピュータシステムとして実現され得る。あるいは、ユーザ端末110は、例えば、テレビ放送を受信及び表示するための「セットトップボックス」、テレビ電話、携帯電話、パーソナルデジタルアシスタント、又はビデオゲーム機器を含む特定のコンピューティングシステム内に組み込まれ得る。ユーザ端末110は、ユーザの家、会社、公共の売店、又は携帯機器に設置され得る。
ネットワーク120は、少なくともユーザ端末110と翻訳サーバ130との間に情報を伝達する一つ又は複数のネットワークであり得る。ネットワーク120は、データ、テキスト、画像、音声及びビデオを含む情報を伝達するためのどのようなタイプのネットワークであってもよい。いくつかの例において、ネットワーク120は、翻訳サーバ130からユーザ端末110へとリアルタイムで送信される目下の視覚的コンテンツに対して十分な帯域幅を有する。ネットワーク120は、共用回線ネットワーク、公衆ネットワーク、プライベートネットワーク、クライアント−サーバネットワーク、又はピアトゥピアネットワークであり得、これらはワイドエリア又はローカルエリアを包含し、エキストラネット、イントラネット、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、公衆交換電話網(PSTN)、統合デジタル通信サービス網(ISDN)、無線リンク、地上無線ネットワーク、ケーブルテレビネットワーク、衛星テレビネットワーク、及び、任意の他の有線もしくは無線通信ネットワークを含む。更に、ネットワーク120は、情報を交換するために該システム環境の構成要素によって使用されるいかなるタイプの通信プロトコル、例えば、伝送制御/インターネットプロトコル(TCP/IP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、リアルタイムトランスポートプロトコル(RTP)、リアルタイムストリーミングプロトコル(RTSP)、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM)、符号分割多元接続(CDMA)ワイヤレスフォーマット、ワイヤレスアプリケーションプロトコル(WAP)、ユーザデータグラムプロトコル(UDP)、ファイル転送プロトコル(FTP)、高帯域ワイヤレスプロトコル(例えばEV−DO、WCDMA)、又は、ピアツーピアプロトコル等とも適合し得る。ネットワーク120は、一つ又は複数のサービスプロバイダ、例えば、インターネットサービスプロバイダ(ISP)、有線/無線電話サービスプロバイダ、ケーブルもしくは衛星テレビプロバイダ、WANもしくはLANのオペレータ、又は、ポイントツーポイントのオペレータによって提供され得る。
翻訳サーバ130は、例えば、パーソナルコンピュータ、ミニコンピュータ、マイクロプロセッサ、ワークステーション、又は、当技術分野で一般的に使用される同様のコンピュータプラットフォームを含む一つ又は複数のコンピュータシステムであり得る。翻訳サーバ130は、以下に更に述べるように、ネットワーク120によってユーザ端末110に翻訳サービスを提供するため、コンピュータ実行可能命令を実行する。
第三者140は、個人、別のコンピュータ、テレビ、電話、映画館等であり得る。ある場合には、ユーザ105は、ユーザ端末110を用いて第三者140から情報を受信し得る。例えば、第三者140は映画館であり得、ユーザ105は、第三者140が伝えている、映画の登場人物間の会話等のどのような情報でも翻訳したいであろう。
図1に例示される要素105−140間の全体的なインタラクション(対話もしくは相互作用)はつぎのとおりである。第三者140は、映画の再生であろうと無線送信音声であろうと、単語並びに雑音から成る音声を送信し得る。ユーザ105は、第三者140から送信される音声を取り込むためにユーザ端末110を使用する。第三者140が音声を送信しながら、ユーザ端末110は、ネットワーク120を通じて取り込んだ温際を翻訳サーバ130に送る。翻訳サーバ130は、次いで、翻訳サービスをユーザ端末110に提供し得る。翻訳サーバ130は、最初に前記取り込んだ音声をテキストに翻訳し、該取り込んだ音声に対応する該テキストをユーザ端末110に送り返し得る。翻訳サーバ130はまた、前記テキストのコンテンツをASLに翻訳し得る。一旦翻訳サーバ130が取り込んだ音声をテキスト及びASLに翻訳したら、翻訳サーバ130は該テキストを対応するASL動画と共にユーザ端末110へと送信し得る。
図1に例示されるように、システム環境100は、単一のユーザ105と、ユーザ端末110と、ネットワーク120と、翻訳サーバ130と、第三者140とを含む。しかしながら、当業者には容易に理解されるように、実際の実施形態は、複数のネットワーク間でデータを共有する複数のネットワーク相互接続点によって複数のネットワークを介してリンクされる複数のユーザ、複数のユーザ端末、複数のサーバ、及び/又は複数の第三者を含み得る。翻訳サーバ130はまた、ユーザ端末110に組み込まれ得、ネットワーク120の必要性を無くす。
図2は、ユーザ105にネットワーク120を介して翻訳サーバ130に対するインターフェースを提供する模範的なユーザ端末110を例示するブロック図を与える。ユーザ端末110は、コントローラ210と入力/出力装置250を含み得る。コントローラ210は、ここに記述される好ましい実施形態のある側面と整合する機能を提供するために一つ又は複数の記憶装置に格納されるコンピュータ命令を実行する一つ又は複数の制御演算装置であり得る。コントローラ210は、例えば、中央処理装置(CPU)215と、メモリ216と、ネットワークインターフェース218と、ビデオインターフェース220と、音声インターフェース222と、通信インターフェース224と、データ記憶装置230とを含み得る。
CPU215は、例えばメモリ216及び/又はデータ記憶装置230に記憶される実行可能な命令及びデータを用いてユーザ端末110に制御機能及び処理機能を提供する。図2は単一のCPU215を例示するが、コントローラ210は複数のCPUを含み得る。CPU215は、例えば、コプロセッサ、メモリ、レジスタ及び/又は他の処理デバイス及びシステムを適宜含み得る。CPU215は、既製のマイクロプロセッサ(例えばインテルペンティアム(登録商標))等のどのような慣用のプロセッサであってもよく、又は、ユーザ端末110に特に適合された特定用途向け集積回路でもあり得る。
メモリ216は、CPU215によって実行される際、ここに記述したプロセスを実行するデータ及び命令を格納する一つ又は複数の記憶素子であり得る。メモリ216は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、電気的消却及びプログラム可能ROM(EEPROM)、フラッシュメモリ、光ディスク、磁気ディスク等の半導体及び磁気記憶装置を含み得る。ユーザ端末110がデータ記憶装置230にインストールされたアプリケーションを実行する場合、CPU215は、命令の少なくとも一部をデータ記憶装置230からメモリ216へとダウンロードし得る。
ネットワークインターフェース218は、CPU215とネットワーク120との間に送られる情報を翻訳するように構成された一つ又は複数のハードウエア及び/又はソフトウエアコンポーネントであり得る。例えば、ネットワークインターフェース218は、モデム又はローカルエリアネットワーク(LAN)ポートであり得る。ネットワークインターフェース218は、例えば、イーサネット(登録商標)、ワイヤレス・フィディリティ(WiFi)、トークンリング、非同期転送モード(ATM)、又はISDNを含むいかなる電気通信もしくはデータネットワークをもサポートし得る。あるいは、ネットワークインターフェース218は、通信インターフェース224を通じてコントローラ210に接続される外部装置であり得る。
ビデオインターフェース220は、CPU215とビデオ出力装置252との間で交換される情報を翻訳するためのどのような装置であってもよい。ベクトルベースのフラッシュ(登録商標)動画も用いられ得る。ビデオインターフェース220は、ベクトルベースのアートワークのライブラリを含む得る。ベクトルベースのアートワークは、ビデオ出力部252を介してASLコンテンツを表示するためにアニメ化され得る。ASLアニメーションデータベース346はまた、動画命令を提供し得る。例えば、操り人形に類似して、物理的操り人形がビデオ出力部252に存在し得、糸を動かすであろう情報及び動作がASLアニメーションデータベース346からもたらされ得る。ビデオインターフェース220がハードウエアデバイスとして記述されるが、これは、実装されたソフトウエア、ファームウエア又はこれらの組合せであってもよい。
音声インターフェース222は、CPU215と音声入力装置256との間の情報交換を可能にするためのどのような装置であってもよい。更に、音声インターフェース222は、圧縮形式(例えばMP3)で格納された音声データを解凍するためのCODECを含み得る。音声インターフェース222はハードウエアデバイスとして記述されるが、これは、ソフトウエア、ファームウエア、又はこれらの組合せに完全に実装され得る。
通信インターフェース224は、コントローラ210と入力/出力装置250を含む外部装置との間でデータを交換するための一つ又は複数のインターフェースを提供する。通信インターフェース224は、例えば、シリアルポート(例えば、RS−232、RS−422、ユニバーサルシリアルバス(USB)、IEEE−1394)、パラレルポート(例えばIEEE1284)、又はワイヤレスポート(例えば、赤外線、紫外線もしくは無線周波数トランシーバ)を含み得る。ある実施形態において、音声、ビデオ、及び/又はネットワークデータは、通信インターフェース224を通じてCPU215により交換され得る。
データ記憶装置230は、ユーザ端末110のための記憶装置を提供し得る。データ記憶装置230は、例えば、磁気ディスクドライブ、光ディスクドライブ、フラッシュメモリ、又は情報を恒久的に格納可能な他のデバイスを含む種々のコンポーネント(構成要素)もしくはサブシステムによって実現され得る。更に、データ記憶装置230はユーザ端末110内に示されるが、データ記憶装置230は、ユーザ端末110の外部に実現され得る。データ記憶装置230は、翻訳サーバ130と通信するため、ユーザ端末110に対するプログラムコード及びデータを含み得る。更に、データ記憶装置230は、オペレーティングシステム242、ブラウザモジュール244、ビューワモジュール246、及び音声モジュール248のためのプログラム命令及びデータを含み得る。
模範的な入力/出力装置250は、ビデオ出力部252、音声入力部256及びユーザ入力部260を含む。ビデオ出力部252は、例えば、陰極線管(CRT)、液晶表示(LCD)ディスプレイ、発光ダイオードディスプレイ(LED)、プラズマディスプレイ、又は電子発光ディスプレイ等の視覚情報を表示するためのどのようなデバイスであってもよい。音声入力装置256は、スピーカー、ヘッドホン、イヤホン、又は、可聴音を電気信号に変換する他の音声変換器であり得る。ユーザ入力装置260は、ユーザ105のコマンドをユーザ端末110へと伝達するどのような慣用装置であってもよく、キーボード、キーパッド、コンピュータマウス、タッチスクリーン、トラックボール、スタイラス、スクロールホイール、ジョイスティック、テレビリモートコントローラ、又は、音声認識コントローラを含む。
図2に例示されるコンポーネントの構成もしくは関係は模範的なものである。ユーザ端末110のコンポーネントは、動作可能に接続される独立したコンポーネントであり得、又は、これらコンポーネントは、上述したコンポーネントのいくつか又はすべての機能込みで単一のデバイス内に組み込まれ得る。例えば、入力/出力装置250は、パーソナルコンピュータ又はホームエンターテイメントシステム等の汎用コントローラ210に分離可能に接続される別個のハウジング内の複数の独立したデバイスであり得る。他の実施形態において、コントローラ210及び入力/出力装置250は、特化されたコントローラ210を有する単一のハウジング内、例えば携帯電話等内に組み込まれ得る。当業者は、ユーザ端末110の特定の実装の要求に基づきコンポーネントの異なる構成を選択し得、これは、コスト、サイズ、速度、フォームファクタ、容量、携帯性、消費電力、及び信頼性(これらに限定されない)を含む要因に対する考慮を与える。
図2に更に例示されるように、ユーザ端末110は、端末ソフトウエアプロセス240を実行し得る。ソフトウエアプロセス240を提供するコンピュータ実行可能命令は、メモリ216及び/又はデータ記憶装置230に格納され得、また、例えば、オペレーティングシステム242、ブラウザモジュール244、ビューワモジュール246、及び音声モジュール248を含み得る。
オペレーティングシステム242は、命令の実行、メモリ、データ記憶、デバイス(装置もしくは機器)、セキュリティ、及び/又はネットワーク通信を管理するためにCPU215によって実行されるコンピュータ実行可能命令を含み得る。更に、オペレーティングシステム242は、ユーザ105が、ビデオ出力部252、音声入力部256及びユーザ入力部260を介してユーザ端末110と対話(インタラクト)することを可能にするユーザインターフェースを提供し得る。例えば、ユーザインターフェースは、コンピュータディスプレイに表示されるグラフィックスユーザインターフェースであり得、ユーザ105は、マイクロソフト社が製造するウィンドウズ(登録商標)において提供されるように、上記ディスプレイを通じて、コンピュータマウス及びキーボードにより情報を入力することによって対話する。あるいは、ユーザインターフェースは、セットトップボックスが発生させテレビに表示されるオンスクリーン(画面上)メニューであり得る。該メニューを通じて、ユーザ105は、ワイヤレス遠隔コントローラを用いて情報を入力することにより対話する。
ブラウザモジュール244(別のタイプのユーザインターフェース)は、ユーザ105が、例えば翻訳サーバ130及び/又は他のネットワークサーバがホストする画像及び文書を見てかつインタラクトすることを可能にするため、CPU215によって実行されるコンピュータ実行可能命令を含む。例えば、ブラウザモジュール244は、ハイパーテキストマークアップ言語(HTML)又はその変形を用いてフォーマットされたコンテンツによりウェブページ(インターネットのワールドワイドウェブ上においてアクセス可能なドキュメント)を表現するためのウェブブラウザであり得る。そのようなページは、ユーザインターフェースをも提供し得、また、ハイパーテキスト転送プロトコル(HTTP)を用いて記憶装置又はウェブサーバから取り込まれ得る。ある実施形態において、ブラウザモジュール244は、マイクロソフト社によるエクスプローラ又はアップルコンピュータ社によるサファリ等の第三者ブラウザであり得る。他の実施形態において、ブラウザモジュール244は、ケーブルテレビネットワークに接続されるセットトップボックス等の特定のユーザ端末110及び/又はネットワーク120に対して適合され得る。
ビューワモジュール246は、ビデオ出力部252を通じて視覚的コンテンツ並びにテキストを見るためにCPU215によって処理されるコンピュータ実行可能命令を含み得る。ビューワモジュール246は、視覚的コンテンツ及び媒体の他のフォームの再生、記録、巻き戻し、リビュー(再表示もしくは見直し)、頭出し、送り、及び一時停止のための制御を提供し得る。ある実施形態において、ビューワモジュール246は、マイクロソフト社が製造したウィンドウズ(登録商標)メディアプレーヤー、アップル社が公表したクイックタイム、もしくはマクロメディアによるフラッシュ等の第三者媒体ビューワであり得る。他の実施形態において、ビューワモジュール246は、ブラウザモジュール244と統合されて統一ブラウザを形成し、また見直される。他の実施形態において、これらのモジュールは分離され得るが、要請により共に動作し得る。
音声モジュール248は、ユーザ105及び/又は第三者140から音声を受信して記憶するためにコントローラ210によって実行されるコンピュータ実行可能命令を含む。例えば、ユーザ105は、第三者140から送信された音声に対応する実際の言葉及び動画を見ることを欲し得る。音声モジュール248は、ユーザ端末110を通じて第三者140から音声を取り込み得る。
図2に示されるソフトウエアモジュール242〜248の構成もしくは関係は、模範的なものである。本発明のある側面によれば、端末ソフトウエアプロセス242〜248は独立の(複数)アプリケーションであり得、又は、これらは、モジュールのいくつか又はすべての機能を含む単一のアプリケーション内に組み込まれ得る。
図3は、模範的な翻訳サーバ130のブロック図を提供し、翻訳サーバ130は、一つ又は複数のコンピュータ記憶素子に格納されたソフトウエアモジュールを実行する一つ又は複数の処理装置であり得る。翻訳サーバ130は、コントローラ310、ネットワークインターフェース336及びデータ記憶装置340を含むサーバシステムを含むシステムを備え得る。
コントローラ310は、一つ又は複数の汎用コンピュータシステムであり得、汎用コンピュータシステムは、例えば、パーソナルコンピュータ、ミニコンピュータ、マイクロプロセッサ、ワークステーション、又は、当業界に一般的に使用される同様のコンピュータプラットフォームを含む。コントローラ310は、データ及び命令を格納し実行するための及CPU及びメモリから成り得る。CPUは、どのような慣用のコントローラであってもよく、例えば、既製のマイクロプロセッサ(例えばインテルペンティアム(登録商標))もしくは特定の翻訳サーバ130に適用される特定用途向け集積回路等である。CPUは、コンピュータメモリ及び/又はデータ記憶装置340に格納された命令及びデータを処理し得る。メモリは、データを記憶する一つ又は複数の記憶素子であり得、また、コントローラ310によって実行される際、本発明に関連するある側面と整合する処理を実行するオペレーティングシステム及びソフトウエアモジュールを含む。これらの記憶素子は、RAM、ROM、EEPROM、フラッシュメモリ、光ディスク、磁気ディスク等の半導体メモリ及び磁気記憶装置を含み得る。ネットワークインターフェース336は、例えば、イーサネット(登録商標)、WiFi、トークンリング又は光ファイバー分散データインタフェースを含むどのような電気通信ネットワーク又はデータネットワークをもサポートし得る。データ記憶装置340は、コントローラ310によって用いられるデータ及び実行可能命令を格納する一つ又は複数の記憶素子であり得る。
データ記憶装置340は、音声データベース342と、ASLコンテンツデータベース344と、ASL動画データベース346とを含み得る。音声データベース342は、単語、連結単語及びテキストから種々のノイズまでの音声の一般的なカテゴリーに関連する情報を含む記録を格納し得る。音声データベース342はまた、各音声に対応する、該音声を記述する(言葉で表す)テキストを格納し得る。例えば、cough(咳(せき))の音声に対し、音声データベース342は、対応テキストとして「cough(咳)」を格納し得る。別の例では、単語「hello(こんにちは)」に対し、音声データベース342は、対応テキストとしてテキスト「hello(こんにちは)」を格納し得る。
ASLコンテンツデータベース344は、コンテンツフレーズ、及び、このフレーズに対する翻訳されたASLカウンターパート(対応するもの)を記述する情報を含む記録を格納し得る。ASL動画データベース346は、ASLコンテンツデータベース344に格納された種々のコンテンツフレーズと関連する視覚的コンテンツを格納し得る。各コンテンツフレーズに対し、ASLコンテンツデータベース344は、まるで人がそのフレーズを話し口にしているようにこのフレーズを表示する人の口もしくは唇を表す対応動画を格納し得る。ASLコンテンツデータベース344はまた、英単語のスペルをつづることによってASLフレーズを手話で表現する手の対応動画、並びに、ASLコンテンツの手、腕及び顔の動きを強調するアニメのキャラクタの対応動画を格納し得る。ASLコンテンツデータベース344はまた、アルファベットのすべての文字並びに数字のASL動画を格納し得る。
例えば、ASLコンテンツデータベース344は、文字「A」、「B」、「C」等に対応するASL動画、並び「0」から「9」の各番号に対するASL動画を格納する。ASLコンテンツデータベース344は、グラフィカルASL動画、並びに、単語「hello(こんにちは)」に対する読唇(唇の動きで言葉を読む)動画を格納し得る。更に、ASLコンテンツデータベース344は、コンテンツフレーズ「how are you?(元気ですか)」に対する単一のASL動画を格納し得る。上記のデータベース各々は以下に更に記述される。
図3に更に例示されるように、コントローラ310は、とりわけリアルタイム翻訳サービスを提供するために複数のソフトウエアプロセス320を実行し得、リアルタイム翻訳サービスは、ここに記述される好ましい実施形態を実現する。ソフトウエアプロセス320を提供するコンピュータ実行可能命令は、コンピュータメモリ及び/又はデータ記憶装置340に格納され得、ソフトウエアプロセス320は、オペレーティングシステム322、サーバモジュール324、音声−テキストモジュール328、コンテンツ−ASLモジュール330、ASL−動画モジュール332、及び、テキスト及び動画ディスプレイモジュール334を含む。
オペレーティングシステム322は、命令の実行、メモリ、データ記憶、デバイス、セキュリティ、及び/又はネットワーク通信を管理するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。更に、オペレーティングシステム322は、マイクロソフト社が製造するウィンドウズ(登録商標)に設けられるようなユーザインターフェースを提供し得る。
サーバモジュール324は、ユーザ端末110及び/又は第三者140からネットワーク120によりデータトラフィックを受信しかつ送信するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。例えば、サーバモジュール324は、ユーザ端末110がブラウザモジュール244によりアクセスし得る標準ウェブサーバ、例えばアパッチウェブサーバであり得る。
音声−テキストモジュール328は、本発明の実施形態と整合する、取り込んだ音声をテキストに変換するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。音声−テキストモジュール328は、ユーザ端末110によって取り込まれた音声に対応するテキストを発生させるように機能する。音声−テキストモジュール328は、上記音声を取り込み得、次いで、音声データベース342を検索し、更に、該音声に対応するテキストをサーチし得る。
テキスト−コンテンツモジュール329は、音声−テキストモジュール328からの上記テキストをコンテンツに変換するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。テキスト−コンテンツモジュール329は、ASLコンテンツデータベース344を検索して、該テキストに対応するコンテンツをサーチし得る。
コンテンツ−ASLモジュール330は、上記テキストのコンテンツをASLへと変換するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。コンテンツ−ASLモジュール330は、翻訳されたテキストからコンテンツを形成するように機能すると共に、該コンテンツが形成された後、このコンテンツをASLに変換する。コンテンツ−ASLモジュール330は、上記テキストをコンテンツに変換した後、対応するASL同等物を求めて、ASLコンテンツデータベース344でコンテンツフレーズを検索し得る。
ASL−動画モジュール332は、上記テキストのコンテンツのASL同等物をこのコンテンツに対応するASL動画に変換するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。テキスト及び動画ディスプレイモジュール334は、テキスト−コンテンツモジュール329からテキストを表示し、かつASL−動画モジュール332から一つ又は複数のASL動画を表示するためにコントローラ310によって実行されるコンピュータ実行可能命令を含み得る。
模範的な一実施形態において、音声−テキストモジュール328、テキスト−コンテンツモジュール329、コンテンツ−ASLモジュール330、ASL−動画モジュール332、及び、テキスト及び動画ディスプレイモジュール334はすべて、別個のサーバに存在(常駐)するものとは対照的に、ユーザ端末110のコントローラ210に存在し得る。
図4は、本発明に関連する翻訳プロセスを例示するフローチャートを示す。ユーザ端末110は、最初に、第三者140から送信された音声を音声モジュール248を用いて取り込み得る(ステージ410)。第三者140が採るフォーム(形式)に応じて、異なるタイプの音声が取り込まれ得る。例えば、第三者140が人間であるなら、取り込まれた音声は会話又は単語(一言)の形式であり得る。第三者140が映画スクリーン又はテレビであるなら、音声は、単語(言葉)並びに他の音声(いかなる単語をも含まないが、例えば、車のクラクション、ドアベルもしくはノック等の認識可能な音声を単に表す音声等)を表し得る。当業者は、他の音声があり得、そのリストが上記例に限定されないことを理解するであろう。音声モジュール248は、音声を連続的に取り込み、これをネットワーク120を通じて翻訳サーバ130にリアルタイムに送信し得る。
翻訳サーバ130は、次いで、取り込んだ音声をテキストへと変換し得る(ステージ420)。翻訳サーバ130は、該音声を音声−テキストモジュール328を用いて変換し得る。音声−テキストモジュール328は、取り込んだ各音声を取り、該音声を音声データベース342で検索し、この音声に対応するテキストを見つけ出し得る。音声−テキストモジュール328は、例えば、どの音声もしくはスピーチ認識ソフトウエア(カリフォルニア州キューパーティーノ所在のアップルコンピュータ社が提供するアップル音声認識等)によっても実行され得る。
翻訳サーバ130が取り込まれた音声をテキストに変換した後、翻訳サーバ130は、該テキストのコンテンツを英語コンテンツへと変換し(ステージ421)、英語コンテンツからASLコンテンツへと変換し得る(ステージ430)。翻訳サーバ130は、該コンテンツをコンテンツ−ASLモジュール330を用いてASLへと変換し得る。コンテンツ−ASLモジュール330は、最初に、これらテキスト単語の一つ又は複数をグループ化し、これらを、これらが伝える意味(該フレーズの全コンテンツ)を求めて検査する。このコンテンツは、次いで、別の言語(例えばASL)の別のフレーズに翻訳される。この翻訳された文はまた、ASL文法構造に従う単語のシーケンスによって定義されるであろう。
翻訳サーバ130は、次いで、翻訳されたASL文をASL文を表す動画に変換し得る(ステージ440)。各ASLフレーズに対し、ASL−動画モジュール332は、対応する動画を見つけ出すためにASL動画データベース346において該フレーズを検索し得る。ASL−動画モジュール332は、各ASLコンテンツフレーズを、このフレーズを表す動画へと変換し得る。ASL−動画モジュール332はまた、各ASLコンテンツフレーズをアニメ化されたキャラクタへと変換し得る。該キャラクタは、該コンテンツがASLの手話で表現される際、手、腕及び顔の動きを強調する。
コンテンツ−ASLモジュール330はまた、音声−テキストモジュール328によって翻訳された各英単語を、該英単語のつづりを表す単一ASL動画へと変換し得る。例えば、音声−テキストモジュール328が単語「dog(犬)」を取り込んだなら、コンテンツ−ASLモジュール330は、該単語の各文字に対応するASL同等物を求めて、ASL動画データベース346において各文字を検索し得る。文字D−O−Gを表すテキストはディスプレイモジュール510で表され、文字D−O−Gの指文字で表現した動画はディスプレイモジュール540に表され、更に、同英単語の唇動画は、唇動作を介してディスプレイモジュール520に表されるであろう(510、540及び520は図5に示される)。
最後に、翻訳サーバ130は、ユーザに対し、動画及び随意的にテキストを表示し得る(ステージ450)。翻訳サーバ130は、音声−テキストモジュール328によって変換されたテキスト、並びに、ASL−動画モジュール332によって変換されたテキストのコンテンツの動画同等物を表示し得る。該動画は、単語を読む唇動画と、単語のつづりを手話で表現する手動画と、上述したような、ASL言語のコンテンツを手話で表現するアニメ化されたキャラクタとから構成され得る。翻訳サーバ130は、テキスト及び動画を、ユーザ端末110におけるベクトルベースの動画としてリアルタイムで表示し得る。
図5は、本発明の実施形態に整合する模範的なグラフィカル翻訳者エージェント500を例示する図を提供する。テキスト及び動画ディスプレイモジュール334は、ネットワーク120を介してユーザ端末110によりアクセス可能なグラフィカル翻訳者エージェント500を発生させ得る。例えば、グラフィカル翻訳者エージェント500は、XML及び/又はHTMLを通じて生じる対話型(インタラクティブ)ユーザインターフェースであり得、また、ネットワークブラウザモジュール244によってインタラクティブウェブページとしてユーザ105に表示され得る。あるいは、グラフィカル翻訳エージェント500は、カリフォルニア州サンフランシスコ所在のマクロメディア社が提供するフラッシュを用いて発生させられ得る。グラフィカル翻訳エージェント500はまた、テキストスクロール510、単語リップリード520、ビデオコントロール530、単語スペリング540、アニメ化キャラクタ550、及びディスプレイカスタマイゼーション560を含む。
グラフィカル翻訳エージェント500はまた、インタラクティブユーザインターフェースを提供し、ユーザ105が第三者140から取り込んだ音声に関連するテキスト及びビジュアルコンテンツを見て操作することを可能にする。音声−テキストモジュール328が取り込んだ音声をテキストへ翻訳した後、対応するテキストがグラフィカル翻訳エージェント500によってテキストスクロール510に表示される。新規な音声又は話言葉がテキストに翻訳された際、テクストスクロール510は自動的に更新する。
テキストが表示される際、該テキストによって表示される単語の各文字のつづりのASL同等物も、ASL−動画モジュール332が該単語の各文字に対するASL動画を決定した後、ワードスペリング540に表示される。例えば、テキストスクロール510に表示されている単語が「cat(猫)」の場合、ASL−動画モジュール332は、「cat(猫)」の各文字をASL動画データベース346において検索し、単語指スペリング540及びリップリーディング520において各文字に対するASL動画を表示し得る。
更に、既述したように、ASL−動画モジュール332は、各ASLコンテンツフレーズを、該コンテンツの手、腕及び顔の動きを強調するアニメ化キャラクタによって手話で表現されるASLへと変換し得る。そのため、英語テキスト及び単語のつづりの同等物が表示されている際、英単語のリップリードグラフィックも単語リップリード520に表示されると共に、コンテンツフレーズのASL同等物を手話で表現するアニメ化キャラクタもアニメ化キャラクタ550に表示される。
グラフィカル翻訳エージェント500は、ユーザが既に表示されたテキストもしくは動画を一時停止もしくは巻き戻しすることを可能にするビデオコントロール530を含み得る。グラフィカル翻訳エージェント500は、ディスプレイカスタマイゼーション560を含み得る。ディスプレイカスタマイゼーション560は、ユーザがグラフィカル翻訳エージェント500の種々のコンポーネントの大きさを変更することを可能にし得る。追加のカスタマイゼーション及びビジュアルエンハンスメントは、ディスプレイサイズ、動画速度、文と文との間の間隔、カラーコントラス等をカスタマイズすることにより、異なる種類の認知障害及び視覚障害にとっての可読性(読みやすさ)を可能にする。
単一のユーザインターフェース内に実現されているものとして、ディスプレイ510〜560を含むグラフィカル翻訳エージェント500が図5に示されるが、当業者は、他の実施形態において各ディスプレイは別個のユーザインターフェースであり得、あるいは、一連の階層型ユーザインターフェース内にネストされ得ることを容易に認識するであろう。
例示目的のみのため、図1〜5に例示されるコンポーネントを参照して好ましい実施形態のある側面がここに記述される。しかしながら、例示されたコンポーネントの機能性は部分的に重なり得、より少ない又はより多い数の構成要素及びモジュールにて存在し得る。更に、例示された構成要素の機能性の全部又は一部は共存し得、又は、いくつかの地理学的に分散した位置間において分布し得る。更に、本発明の実施形態、特徴、側面及び原理は、種々の環境で実現され得、例示の環境には限定されない。
更に、図4に記述されるイベントのシーケンスは模範的なものであるが、これに限定することは企図されない。従って、他の方法ステップが使用され得、図4に示す方法によってでさえ、イベントの特定の順序が本発明の範囲を逸脱することなく変更し得る。更に、図4において、あるステップが存在しないかもしれず、また、追加のステップが実行され得る。また、ここに記述したプロセスは、いかなる特定の装置にも本質的に関連せず、コンポーネントのどのような適切な組合せによっても実現され得る。
本発明に整合する好ましい実施形態の上記説明は、すべての可能性のある実施形態又は記述した種々の実施形態のすべてのバリエーションのリストを包括的に表現していない。いくつかの実施形態のみの記述が他の実施形態又はバリエーションを排除することを企図すると解釈されるべきではない。当業者は、特許請求の範囲における本発明を、特許請求の範囲から逸脱しない等価物及び代替物を用いて多くの他のやり方で実現する方法を理解するであろう。更に、上記記述において反対の意味を示す場合を除き、実施形態に記述したどのコンポーネントも本発明には必須ではない。
100 システム環境
105 ユーザ
110 ユーザ端末
120 ネットワーク
130 翻訳サーバ
140 第三者

Claims (17)

  1. ユーザ端末において第三者からの音声を取り込む工程にして、該音声が一つ又は複数の単語を含む該工程と、
    前記一つ又は複数の単語を、該一つ又は複数の単語各々を表示するテキストに変換する工程と、
    前記テキストを一つ又は複数のコンテンツフレーズに変換する工程にして、該コンテンツフレーズが前記一つ又は複数の単語の意味を表す該工程と、
    前記一つ又は複数の コンテンツフレーズ各々を新規な言語に変換する工程と、
    前記新規な言語を表す視覚的コンテンツを前記ユーザ端末において表示する工程とを含む方法。
  2. 前記新規な言語を前記視覚的コンテンツに変換する工程を更に含む請求項1の方法。
  3. 前記新規な言語はアメリカ手話言語である請求項1の方法。
  4. 前記第三者は、人間、テレビ、シアター、ラジオ、コンピュータ又は電話のうちの少なくとも一つである請求項1の方法。
  5. 前記視覚的コンテンツの提供は、サーバと前記ユーザ端末との間で通信リンクを確立する工程と、前記視覚的コンテンツを、ファイルのストリーミングにより前記ユーザ端末に送信する工程とを含む請求項1の方法。
  6. 前記視覚的コンテンツは、前記新規な言語に対応する少なくとも一つ又は複数の動画と、前記新規な言語に対応する視覚テキストとから成る請求項5の方法。
  7. 前記一つ又は複数の動画は、リップリードグラフィック、ハンド動画及びアニメ化キャラクタのうちの少なくとも一つを含む請求項6の方法。
  8. 前記音声は、一つ又は複数の、言葉にされていないノイズを更に含む請求項1の方法。
  9. プロセッサによって実行可能な命令を格納するコンピュータ読取り可能媒体であって、該プロセッサによって実行される時、請求項1の方法を実行するように構成されるるコンピュータ読取り可能媒体。
  10. ネットワークに接続され、少なくとも一つのユーザ端末によってアクセス可能な翻訳サーバを備え、
    前記翻訳サーバは、
    一つ又は複数の単語を含む音声を、該音声を表す視覚的コンテンツへと変換するリクエストをユーザ端末からネットワークにより受信し、
    前記一つ又は複数の単語を該一つ又は複数の単語各々に対応するテキストにマッチングし、
    前記テキストを、前記一つ又は複数の単語の意味を表す一つ又は複数のコンテンツフレーズに変換し、
    前記一つ又は複数のコンテンツフレーズ各々を新規な言語に変換し、かつ、
    前記新規な言語を表す視覚的コンテンツを前記ユーザ端末に送信するように構成されるシステム。
  11. 前記翻訳サーバは更に、前記新規な言語を前記視覚的コンテンツに変換するように構成される請求項10のシステム。
  12. 前記新規な言語はアメリカ手話言語である請求項10のシステム。
  13. 前記第三者は、人間、テレビ、シアター、ラジオ、コンピュータ又は電話のうちの少なくとも一つである請求項10のシステム。
  14. 前記翻訳サーバは更に、サーバと前記ユーザ端末との間で通信リンクを確立し、かつ、前記視覚的コンテンツを、ファイルのストリーミングにより前記ユーザ端末に送信するように構成される請求項10のシステム。
  15. 前記視覚的コンテンツは、前記新規な言語に対応する少なくとも一つ又は複数の動画と、前記新規な言語に対応する視覚テキストとから成る請求項14のシステム。
  16. 前記一つ又は複数の動画は、リップリードグラフィック、ハンド動画及びアニメ化キャラクタのうちの少なくとも一つを含む請求項15のシステム。
  17. 前記音声は、一つ又は複数の、言葉にされていないノイズを更に含む請求項15のシステム。
JP2009515412A 2006-06-15 2007-05-30 手話グラフィカルインタプリタのための方法及びシステム Pending JP2009540384A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/453,202 US7746986B2 (en) 2006-06-15 2006-06-15 Methods and systems for a sign language graphical interpreter
PCT/US2007/012696 WO2007145818A2 (en) 2006-06-15 2007-05-30 Methods and systems for a sign language graphical interpreter

Publications (1)

Publication Number Publication Date
JP2009540384A true JP2009540384A (ja) 2009-11-19

Family

ID=38832281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009515412A Pending JP2009540384A (ja) 2006-06-15 2007-05-30 手話グラフィカルインタプリタのための方法及びシステム

Country Status (7)

Country Link
US (2) US7746986B2 (ja)
EP (1) EP2027713A4 (ja)
JP (1) JP2009540384A (ja)
CN (1) CN101502094B (ja)
CA (1) CA2655359A1 (ja)
HK (1) HK1132861A1 (ja)
WO (1) WO2007145818A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018182591A (ja) * 2017-04-17 2018-11-15 日本放送協会 情報処理システム、コンテンツ配信サーバ、端末及びプログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7539158B2 (en) 2004-11-08 2009-05-26 Lemko Corporation System, method and device for providing communications using a distributed mobile architecture
US7856233B2 (en) 2006-03-30 2010-12-21 Lemko Corporation System, method, and device for providing communications using a distributed mobile architecture
US8224322B2 (en) 2006-06-12 2012-07-17 Lemko Corporation Roaming mobile subscriber registration in a distributed mobile architecture
CA2565693C (en) * 2006-10-25 2016-01-05 Universite De Sherbrooke A method of representing information via sign language
US8676197B2 (en) 2006-12-13 2014-03-18 Lemko Corporation System, method, and device to control wireless communications
US8566077B2 (en) * 2007-02-13 2013-10-22 Barbara Ander Sign language translator
US8046420B2 (en) * 2008-04-23 2011-10-25 Lemko Corporation System and method to control wireless communications
US8340667B2 (en) 2008-06-26 2012-12-25 Lemko Corporation System and method to control wireless communications
US8706105B2 (en) 2008-06-27 2014-04-22 Lemko Corporation Fault tolerant distributed mobile architecture
US8107409B2 (en) 2008-07-11 2012-01-31 Lemko Corporation OAMP for distributed mobile architecture
US7855988B2 (en) 2008-07-14 2010-12-21 Lemko Corporation System, method, and device for routing calls using a distributed mobile architecture
US20100013661A1 (en) * 2008-07-21 2010-01-21 Inclusion Solutions, Llc Method and System for Providing Service to Deaf and Hard-of-Hearing
US7979066B2 (en) 2008-09-25 2011-07-12 Lemko Corporation Multiple IMSI connections
US20120023135A1 (en) * 2009-11-11 2012-01-26 Erik Dahlkvist Method for using virtual facial expressions
US20110208523A1 (en) * 2010-02-22 2011-08-25 Kuo Chien-Hua Voice-to-dactylology conversion method and system
RU2010124351A (ru) * 2010-06-17 2011-12-27 Владимир Витальевич Мирошниченко (RU) Взаимодействие виртуальной мимики и/или виртуальной жестикуляции с сообщением
US9247942B2 (en) 2010-06-29 2016-02-02 Artventive Medical Group, Inc. Reversible tubal contraceptive device
WO2012002944A1 (en) 2010-06-29 2012-01-05 Artventive Medical Group, Inc. Reducing flow through a tubular structure
US20120078628A1 (en) * 2010-09-28 2012-03-29 Ghulman Mahmoud M Head-mounted text display system and method for the hearing impaired
US9149277B2 (en) 2010-10-18 2015-10-06 Artventive Medical Group, Inc. Expandable device delivery
CN102340706A (zh) * 2011-10-24 2012-02-01 中兴通讯股份有限公司 数字电视节目共享装置及方法、机顶盒
US20140207438A1 (en) * 2013-01-21 2014-07-24 Raanan Liebermann ASL Converter
US9300760B2 (en) * 2013-01-28 2016-03-29 Google Inc. Machine-specific instruction set translation
EP2760002A3 (en) * 2013-01-29 2014-08-27 Social IT Pty Ltd Methods and systems for converting text to video
US9095344B2 (en) 2013-02-05 2015-08-04 Artventive Medical Group, Inc. Methods and apparatuses for blood vessel occlusion
US8984733B2 (en) 2013-02-05 2015-03-24 Artventive Medical Group, Inc. Bodily lumen occlusion
US20160019811A1 (en) * 2013-03-06 2016-01-21 Malissa Lelinski Alphabet teaching and learning method, system and software product
US9636116B2 (en) 2013-06-14 2017-05-02 Artventive Medical Group, Inc. Implantable luminal devices
US9737306B2 (en) 2013-06-14 2017-08-22 Artventive Medical Group, Inc. Implantable luminal devices
US10149968B2 (en) 2013-06-14 2018-12-11 Artventive Medical Group, Inc. Catheter-assisted tumor treatment
US9737308B2 (en) 2013-06-14 2017-08-22 Artventive Medical Group, Inc. Catheter-assisted tumor treatment
US10613840B1 (en) * 2014-01-17 2020-04-07 TG, Inc Converting programs to visual representation with intercepting screen draws
US9355599B2 (en) 2014-03-06 2016-05-31 3M Innovative Properties Company Augmented information display
US10363043B2 (en) 2014-05-01 2019-07-30 Artventive Medical Group, Inc. Treatment of incompetent vessels
US11875700B2 (en) 2014-05-20 2024-01-16 Jessica Robinson Systems and methods for providing communication services
US10460407B2 (en) 2014-05-20 2019-10-29 Jessica Robinson Systems and methods for providing communication services
US10225317B2 (en) * 2014-10-30 2019-03-05 Be-Bound Inc. Asynchronous application data access system and method
US20160147741A1 (en) * 2014-11-26 2016-05-26 Adobe Systems Incorporated Techniques for providing a user interface incorporating sign language
WO2017078851A2 (en) 2015-09-18 2017-05-11 Corman David W Laminar phased array
ES2607255B1 (es) * 2015-09-29 2018-01-09 Fusio D'arts Technology, S.L. Método y dispositivo de notificación
KR102450803B1 (ko) 2016-02-11 2022-10-05 한국전자통신연구원 양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법
US10813644B2 (en) 2016-04-01 2020-10-27 Artventive Medical Group, Inc. Occlusive implant and delivery system
CN107566863A (zh) * 2016-06-30 2018-01-09 中兴通讯股份有限公司 一种交流信息展示方法、装置及设备、机顶盒
CN107231289A (zh) * 2017-04-19 2017-10-03 王宏飞 信息交流装置、信息交流系统和方法
US20190172240A1 (en) * 2017-12-06 2019-06-06 Sony Interactive Entertainment Inc. Facial animation for social virtual reality (vr)
US11145171B2 (en) 2019-02-28 2021-10-12 Arlo Technologies, Inc. Electronic doorbell system with text communication
KR20200121603A (ko) * 2019-04-16 2020-10-26 삼성전자주식회사 텍스트를 제공하는 전자 장치 및 그 제어 방법.
US11610356B2 (en) 2020-07-28 2023-03-21 Samsung Electronics Co., Ltd. Method and electronic device for providing sign language
US11587362B2 (en) * 2020-12-16 2023-02-21 Lenovo (Singapore) Pte. Ltd. Techniques for determining sign language gesture partially shown in image(s)
US11817126B2 (en) 2021-04-20 2023-11-14 Micron Technology, Inc. Converting sign language
US11977853B2 (en) 2021-09-27 2024-05-07 International Business Machines Corporation Aggregating and identifying new sign language signs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251123A (ja) * 1993-02-25 1994-09-09 Hitachi Ltd 手話生成装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5169342A (en) 1990-05-30 1992-12-08 Steele Richard D Method of communicating with a language deficient patient
US5659764A (en) 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US6477239B1 (en) * 1995-08-30 2002-11-05 Hitachi, Ltd. Sign language telephone device
US5917888A (en) * 1996-06-28 1999-06-29 Mci Communications Corporation System and method for enhanced telecommunications relay service with easy extension feature
GB2333416A (en) 1998-01-17 1999-07-21 Ibm Text and speech conversion in telephony network
US6377925B1 (en) * 1999-12-16 2002-04-23 Interactive Solutions, Inc. Electronic translator for assisting communications
US6944594B2 (en) * 2001-05-30 2005-09-13 Bellsouth Intellectual Property Corporation Multi-context conversational environment system and method
US7774194B2 (en) * 2002-08-14 2010-08-10 Raanan Liebermann Method and apparatus for seamless transition of voice and/or text into sign language
GB2422279A (en) * 2004-09-29 2006-07-19 Fluency Voice Technology Ltd Determining Pattern End-Point in an Input Signal
US7573985B2 (en) * 2005-06-21 2009-08-11 Verizon Business Global Llc Systems and methods for facilitating communications involving hearing-impaired parties
BRPI0502931A (pt) * 2005-06-24 2007-03-06 Inst Ct De Pesquisa E Desenvol rybena : método e sistema de comunicação que utiliza texto, voz e libras para permitir acessibilidade aos portadores de necessidades especiais
US20070116190A1 (en) * 2005-10-14 2007-05-24 Sbc Knowledge Ventures, L.P. System and method of providing access to web-based voice mail for TTY enabled devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251123A (ja) * 1993-02-25 1994-09-09 Hitachi Ltd 手話生成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018182591A (ja) * 2017-04-17 2018-11-15 日本放送協会 情報処理システム、コンテンツ配信サーバ、端末及びプログラム

Also Published As

Publication number Publication date
WO2007145818A2 (en) 2007-12-21
US20100223046A1 (en) 2010-09-02
US8411824B2 (en) 2013-04-02
CA2655359A1 (en) 2007-12-21
CN101502094B (zh) 2012-05-30
US20070291910A1 (en) 2007-12-20
HK1132861A1 (en) 2010-03-05
US7746986B2 (en) 2010-06-29
WO2007145818A3 (en) 2008-10-09
EP2027713A4 (en) 2010-01-06
EP2027713A2 (en) 2009-02-25
CN101502094A (zh) 2009-08-05

Similar Documents

Publication Publication Date Title
US7746986B2 (en) Methods and systems for a sign language graphical interpreter
US20210366471A1 (en) Method and system for processing audio communications over a network
US10176366B1 (en) Video relay service, communication system, and related methods for performing artificial intelligence sign language translation services in a video relay service environment
AU2004248274C1 (en) Intelligent collaborative media
US10991380B2 (en) Generating visual closed caption for sign language
US9282377B2 (en) Apparatuses, methods and systems to provide translations of information into sign language or other formats
JP2023553101A (ja) ライブストリーミングインタラクション方法、装置、デバイス及び媒体
US7774194B2 (en) Method and apparatus for seamless transition of voice and/or text into sign language
JP6681450B2 (ja) 情報処理方法および装置
JP2023539820A (ja) インタラクティブ情報処理方法、装置、機器、及び媒体
US20030139933A1 (en) Use of local voice input and remote voice processing to control a local visual display
EA005642B1 (ru) Способ передачи информации в компьютерных сетях
US20020198716A1 (en) System and method of improved communication
US20080225110A1 (en) Virtual camera system and instant communication method
KR20130112221A (ko) 로봇을 이용한 광고 및 콘텐츠 연계형 대화 서비스 제공 시스템 및 그 방법
US20040012643A1 (en) Systems and methods for visually communicating the meaning of information to the hearing impaired
CN113312928A (zh) 文本翻译方法、装置、电子设备和存储介质
CN113157241A (zh) 交互设备、交互装置及交互系统
Mutemwa et al. A mobile Deaf-to-hearing communication aid for medical diagnosis
JP7179512B2 (ja) 情報処理方法、情報処理装置、及びプログラム
Almeida et al. Implementing and evaluating a multimodal and multilingual tourist guide
WO2023026544A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10839801B2 (en) Configuration for remote multi-channel language interpretation performed via imagery and corresponding audio at a display-based device
Slater et al. TV and broadband: Innovative applications for people with disabilities
KR20000033518A (ko) 네트워크를 이용한 음성 언어 번역 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130220

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130709